Статьи
что-то хитрое тут происходит... 😑😑😑😼DeepSeek втихую релизнули апдейт V3, карточка модели пустая, никаких анонсов нет. при этом апдейт большой. кто-то уже потестил, и говорит что обновленный V3 стал лучше, как минимум в математике. хотя я бы пока не решился доверять анализу. в общем, кажется в течение пары дней должен быть громкий анонс, а мы наблюдаем его первые ростки P.S. отдельный кек - это Community posts на Hugging Face у этой модели (второй скрин) 🙂🙂
это не я, и кто это - понятия не имею. не верьте никому, кто просит у вас что-то от моего имени, что бы это ни было - пароли, деньги, ещё что-то. будьте бдительны. мой единственный личный аккаунт в тг - @sewald
если ваш сетап для «вайб-кодинга» не выглядит так, то почему вообще вы называете его «вайб»? 🥑
рубрика "мне часто пишут в ЛС - поделись своими секретами, как максимально эффективно использовать Cursor". делюсь 🙂🙂🙂 P.S. reasoning, конечно, моделям не зря дали, потрясающая цепочка мыслей.
так, вы меня заинтриговали. 😼 а вот те 11%, которые пользуются другим приложением, не SuperWhisper - можно мне в ЛС название кинуть, что вы юзаете? можете хоть одним словом, чисто название - @sewald спасибо!
ну я прям впечатлён, ну это прям ух 😮😮😮P.S. да, это я голосом написал P.P.S. блин, кажется, вау отменяется. работает удивительно нестабильно, 2 из 5 запросов просто зависают. кажется, OpenAI опять не умеют в стабильность API :(
блин, ребята, качество настолько топ, что я только что 3 сообщения в телеге написал через неё. с пост-процессингом через 4o вообще неотличимо от моего стиля письма, просто огнище. P.S. если кто не знает - SuperWhisper есть на айфон, тоже с пост-процессингом через LLM-модели. я юзаю его как очень прокачанную замену переводчику
⚡️ у SuperWhisper вышел апдейт, в котором ему можно дать свои OpenAI API-ключи, и использовать новые Whisper-модели для распознавания речи. только что настроил - имба, бомба, просто топ. 🏄‍♂️ скорость - быстрее Deepgram/собственных моделей SW, качество - раз в 5 лучше, несоизмеримое просто с другими моделями. лучшая новость недели, не иначе. 🙂🙂🙂
Unitree G1 сегодня выпустили видос с тем, как пинают своего робота-гуманоида (если вы не знали - пинать роботов - это целый жанр у компаний-прозводителей) 🍞 честно говоря, учитывая представленные им навыки кунг-фу, я при просмотре был почти в полной уверенности, что он развернётся, и со всей дури ударит толкнувшего 🙂
https://www.youtube.com/watch?v=lXb0L16ISAc⚡️ OpenAI только что обновили свои speech-to-text модельки, новый API, и ещё запустили openai.fm, чтобы можно было поиграться с генерацией аудио из текста. и API для агентов тоже апдейтнули - завезли новые фичи с аудио и туда. кайф! P.S. ждём в superwhisper))
кажется, вертолётные бабки инвесторов стало рейзить сложнее, и ИИ-компании закручивают гайки. 1. я потыкал Claude 3.7 MAX в Cursor. я не заметил вообще никакой разницы, ну прям совершенно. 🤢 может если бы я прям с ней чатился 5 часов, то контекст бы протухал меньше, но господибоже, это не то изменение за которую я готов платить такие деньги. у меня итак все rules в Cursor'е выстроены с учетом борьбы с протуханием контекста, и в этом плане MAX вообще не добавил пользы. в общем, не рекомендую никому, очень дорого, смысла мало.🍿 2. продолжая тему "пиздец как дорого" - OpenAI решили, что неподъёмная цена за GPT-4.5, из-за которой я не знаю ни одного проекта, кто её бы интегрировал - это мало. сегодня они выкатили API-доступ к o1-pro - и это кек, $150 за 1M инупта, $600 - output. простите за клишированное сравнение, у моделей разный перформанс, но всё же - R1 стоит в 300 (!) раз дешевле. жесть. возможно, сквозь такие прайсы можно рассмотреть реальную стоимость инференса с амортизацией трейнинга, без субсидирования венчурным кешем. хочется верить, что 2025 будет годом не только сочных рекордов в бенчах, но и сочных рекордов в удешевлении.
5 центов за запрос/тул с лимитом в 200 запросов - это $10 за одну "полную" сессию работы агента, лол 😕 учитывая, что в 25 tool calls лимит я упираюсь частенько, и вообще стараюсь использовать замкнутые циклы работы агента, то это какая-то сумасшедшая цена)) даже стандартный 25 tool calls с таким прайсом - это чуть больше 1 бакса за один "полный" цикл отработки запроса. а я таких запросов в день штук 100 делаю. в общем, скорее пугает, чем радует
https://forum.cursor.com/t/claude-3-7-max-out-now/65698вышла поддержка Claude 3.7 Max в Курсоре. вместо дефолтного ограничения в 25 действий агента, в Max режиме агент может совершать до 200 действий. утром обновился, у себя поддержку уже вижу. постараюсь сегодня потыкать. и всё бы ничего, если бы не следующий скриншот:
забудем ненадолго про AI. вечер выходного дня убил на usb webcam live stream через Raspberry Pi Zero W "результат" на видео (слева - стрим с Zero W, справа - камера макбука, запись с экрана) - 7 секунд лага "риалтайм" видео-потока (черно-белого, 320х240, лол) 🗿🗿🗿 уже год пытаюсь найти хоть одно достойное применение Zero W, и не нахожу. надо управлять каким-то девайсом в хате по WiFi? ну, у меня пачка NodeMCU для этого есть, домофон к Алисе давно припаян-подключен. NodeMCU стоит 4 бакса, а не 50, как Zero со всеми переходниками. надо что-то мощнее, чтобы процессить видео-поток/аудио? Android-телефон за $40 позволяет мне гонять весьма нетривиальные приложения, имеет на борту wifi, bt, две камеры, батарейку и gsm. зачем нужен Zero W? ну он же вообще не тащит практически никакой нагрузки, в чем его идея..? ужас, мне кажется, что ниша микроконтроллеров умирает. когда у тебя полнценные девайсы с кучей датчиков, камерами, модулями связи и так далее стоят 30-40 долларов - невольно задашься вопросом, а зачем вообще брать за ту же цену микроконтроллер. P.S. AI тут был кстати, точнее CV, но в перспективе. хотел стримить видео-поток на домашний сервер, а уже там делать hand gesture detection (я в том году себе делал управление телевизором жестами, но корявое, хотел улучшить. но увы)
что-то выходные плотные, даже толком до новых моделей добраться не могу. но, говорят, китайцы (Baidu) релизнули Ernie 4.5, и он вроде как в некоторых бенчах бьёт GPT-4.5, и стоит в 100 (!) раз меньше. хочу дождаться независимых бенчей, чтобы действительно в это поверить, но если это так - то это очень круто, я бы очень хотел затащить 4.5 в qYp.ai, но с такой ценой это просто невозможно. в общем, как будет апдейт по независимым тестам - отпишусь тут по результатам, но новость очень многообещающая
у меня чутка бомбит, пост эмоциональный, не обессудьте 🙂я своим постом про новость что "90% кода будут писать агенты" открыл какой-то портал в ад. и в комментах на Хабре, и в телеге (в канале Хабра открыты комменты), я вижу кучу людей, которые "дали шанс" ИИ-агентам, закинули пару промптов, получили на выходе пачку багов, и решили, что ИИ тупой. но гайз, это же так не работает. вы же не пишете в поисковую строку гугла "привет гугл, подскажи какой препарат мне бы стоило использовать в случае ...", вы понимаете, что написание поискового запроса прозводится по определенным правилам, перечислением ключевиков, типа "мигрень температура лекарство", вы когда-то этому тоже учились. здесь тоже самое - есть десятки ньюансов того, как устроены агенты в том же Курсоре, просто один раз написав промпт вы получите 40% качества в лучшем случае. типа, у 90% в проекте отсутствует базовая дока для агентов. 99.9% не пользуются контекстными правилами. 99.9999% не знают, что Cursor считывает агентские правила единожды на старте чата, и они быстро "протухают" в контексте, он начинает их нарушать. 80% не знают, что он не считывает контент файла каждый раз в агентском режиме, и если вы что-то отредактировали - он может об этом не знать. что контекст протухает, и его надо время от времени освежать, и это тоже надо делать автоматизировано. что TDD дается ИИ-агентам очень легко, но при этом увеличивает качество работы и автономность агентов ну прям КРАТНО. и это только ньюансы агентского режима. а есть ещё ньюансы того, как работают сами модели - что им тяжеловато дается дедупликация и pattern matching, что они "не знают, что чего-то не знают", что "знания" на фазе трейнинга будут часто "перебивать" правила в контексте, и так далее. я за месяцы ежедневной работы с ним вычленил ну прям гору важных моментов, которые сильно влияют на качество. и я до сих пор (!) их нахожу. только на той неделе, к примеру, узнал, что инструмент поиска по кодовой базе у агента не по тексту, а по спец. индексу (мб эмбеддинги, хз) я это всё к чему пишу - епта, это же сложнейший новый инструмент, почему люди относятся к нему как "я нажал 2 кнопки, и не сработало, значит хуйня". в нём прям надо разбираться, изучить, и так далее. да, он не везде идеален. да, у меня тоже бывают кейсы, когда я затрахался спорить с агентом, и просто написал код руками. но если проинвестировать чутка времени в изучение - ну там же реально х3-4 к скорости - минимум, а на некоторых задачах и все х10. нет, это не ИИ, который поработит мир и завтра напишет за вас полностью всю кодовую базу с одного промпта. но это потрясающий инструмент, и на его изучение и привыкание к нему требуется время. ффух, я выдохнул.
блин, не могу не поделиться, какой-то ультра-кек сейчас произошёл 😼 закидываю команды в Cursor Agent, он мне пишет код одного проектика. проектик крупный, кодовая база обширная, поэтому у меня там промпты довольно детальные, типа "прочитай все файлы, прежде чем начинать работу". и смотрю, чет в этот раз он как-то долго сканирует проект перед генерацией кода... и почему-то вместо встроенных инструментов использует bash-команды: cd, ls и т.д. короче, я окно спутал. я дал задачу вообще не в то окно Курсора. и он попёр сканировать какие у меня вообще есть проекты на компе, нашел сам нужный, полез читать его кодовую базу, и НАЧАЛ ВЫПОЛНЯТЬ ЗАДАЧУ. я прервал его на моменте, когда он уже мне React-компонент дописывал 🙂🙂🙂 всем бы такую исполнительность, а. хотя даже как-то немного жутковато - вдруг я однажды спутаю ЛС со своей невестой и чат с Курсором...
как и обещал - вот обзор апдейта от OpenAI. по классике, бахнул на Хабр: https://habr.com/ru/news/890010/ ещё немного дочитываю, новость чутка обновляю, но 90% уже перевёл и написал. велком!
о, ну сегодня прям все новости про разработку. OpenAI анонсировали, что через полтора часа выпустят что-то новенькое для разработчиков. гляну стрим и отпишусь вам по результатам, stay tuned! P.S. подъехал небольшой спойлер: это будут инструменты для разработки агентов, какие-то новые API. детальнее узнаю позднее.
решил бахнуть на Хабр, с чуть более подробными мыслями по поводу существующих на рынке ИИ-агентов для программирования. велком: https://habr.com/ru/news/889992/ P.S. вот это там в комментариях народ лютует. отрицание ИИ - это какой-то для меня невероятный феномен человеческой психики, конечно.