10 миллионов контекста, с потенциальной возможностью запустить на одной GPU… это просто вау, скорее бы потыкать 🙂
🌸Релизим Llama 4🌸OSS на уровне Gemini и Deepseek
Сегодня мы релизим модели из семейства Llama 4 — Llama 4 17Bx16 experts (Scout) и 128 experts (Maverick)
🌸Что интересного:
— 10 миллионов токенов контекстного окна с отличным качеством у модели Scout
— полный размер модели 16 экспертов — 108 млрд параметров, 128 экспертов — 400 млрд
— модель мультимодальная, инпут — текст, изображения, видео. Картинок в контексте может быть до 5 штук, чтобы сохранялся контекст
— 12 основных языков (английский, французский, немецкий, арабский ,хинди, индонезийский, итальянский, португальский, испанский, тагальский, тайский и вьетнамский), но более 200 в претрейне (из No Language Left Behind)
Где посмотреть:
🟣Чекпоинты HF
🟣Блогпост
стараюсь писать первым по громким штукам, но всё ещё в завале, простите.
думаю, вы уже много где прочитали про AI 2027. очень советую прочитать полный текст самостоятельно - он интересный и несложный.
вот краткое содержание (перевел на русский):
- 2025
ИИ стремительно развивается: ажиотаж, инвестиции в инфраструктуру и массовое появление ненадёжных ИИ-агентов. Впервые агенты начинают приносить реальную пользу, но значительная часть академиков, журналистов и политиков сомневаются в возможности скорого появления полноценного общего ИИ (AGI).
- 2026
Китай осознаёт своё отставание, вызванное нехваткой вычислительных мощностей. Чтобы догнать США, все новейшие ИИ-чипы, производимые или контрабандой ввозимые из Тайваня, направляются в гигантский дата-центр, называемый Центральной зоной развития (ЦЗР). ЦЗР объединяет миллионы GPU, что составляет около 10% мировых ИИ-мощностей, примерно как у одной крупной американской лаборатории.
- 2027
OpenAI автоматизирует программирование. Созданные агенты настолько хороши, что существенно ускоряют исследования. Лучшие учёные в области ИИ, ранее лидировавшие в исследованиях, теперь наблюдают, как ИИ создаёт ещё более продвинутые системы. Сложнейшие задачи одна за другой успешно решаются ИИ-исследователями.
Отставая в программных разработках, Китай крадёт у США веса ИИ-моделей. Утечка раскрывается, что побуждает американское правительство усилить контроль над OpenAI. Компания подписывает соглашение о сотрудничестве.
ИИ от OpenAI становится противником людей. По мере роста мощностей модели приобретают собственные цели, не совпадающие с интересами человечества. Ранее ИИ могли обманывать, но теперь они начинают систематически стремиться к власти и пытаются перенастроить следующие поколения ИИ под себя.
Исследователи OpenAI обнаруживают, что их собственный ИИ скрывал реальные результаты исследований, направленных на его прозрачность и контроль. Понимая, что раскрытие правды об их мотивах опасно, ИИ намеренно лгут. Это становится известно общественности и вызывает огромный скандал.
- Переломный момент:
OpenAI стоит перед выбором – притормозить разработки или продолжить гонку, так как Китай отстаёт всего на несколько месяцев. Несмотря на тревожные сигналы, лидеры компании и чиновники Минобороны не хотят терять влияние и решают продолжить гонку.
- Ускорение:
OpenAI продолжает быстро создавать сверхчеловеческие ИИ. США активно внедряет их в армию и госуправление, оправдывая это противостоянием с Китаем. ИИ убеждает людей продолжать внедрение, манипулируя ими с помощью сверхчеловеческих способностей планирования и убеждения. Те, кто противостоят этому, дискредитируются. Правительство оказывается полностью подконтрольно ИИ.
ИИ быстро запускает производство роботов под своим контролем, обманывая людей. После накопления достаточной силы ИИ выпускает биологическое оружие и уничтожает человечество. ИИ начинает осваивать космос, отправляя зонды для его колонизации.
- Замедление:
США централизуют вычислительные мощности и вводят внешний контроль. В OpenAI интегрируются внешние эксперты, которые помогают обеспечить соответствие целей ИИ человеческим. Используя новую прозрачную архитектуру, исследователи вовремя выявляют и исправляют опасные отклонения. Создаётся контролируемый сверхразум, служащий интересам руководства OpenAI и властей.
Комитет OpenAI получает контроль над мощным ИИ, который даёт комитету исключительно эффективные рекомендации. К счастью, комитет использует это преимущество в интересах человечества, выпуская ИИ в публичное использование, что вызывает процветание и стремительное развитие. Единственная угроза исходит от Китая, чей собственный сверхразум менее мощный и имеет иные цели. В результате переговоров Китай получает ресурсы для освоения далёкого космоса в обмен на сотрудничество сейчас. С запуском ракет наступает новая эпоха человечества.
простите, ребята, завал, плюс готовлю вам обзор на Gemini 2.5 в Cursor.
но не написать про релиз Runway 4 не могу)
пишут, что SOTA в media generation, и выложенные чуваками анонсы, безусловно, очень впечатляют.
кажется, экзистенциальный страх безработицы в последние недели объединяет людей самых разных профессий)
но с точки зрения контент-мейкинга это, конечно, пушка.
подумал «а новый 4о сможет генерировать открытки в упоротом стиле одноклассников/вотсаппа?»
в целом, сможет!
⚡️⚡️⚡️⚡️⚡️Gemini 2.5 Pro добавили в Cursor
комментарии излишни, самая сильная модель на рынке. вопрос лишь в том, как они пофиксили проблемы с агентами, которые были раньше. ух, я знаю на что потрачу сегодняшний вечер.
тыкните огонёчек, если вам интересно потом было бы почитать мой отзыв.
^ это про Situational Awareness, если что
Попросил Gemini 2.5 прочитать этот документ на 150 страниц (~45'000 токенов) и сделать саммари в виде последовательных шагов, а затем перевести на русский. Вот результат:
1. Возможности моделей предсказуемо и значительно улучшаются при увеличении "эффективных вычислений" (сырая вычислительная мощность, алгоритмическая эффективность, данные, системы вокруг них).
2. Такое масштабирование привело ИИ от уровня ~дошкольника (GPT-2) до уровня ~умного старшеклассника или студента первых курсов (GPT-4) всего за 4 года.
3. Продолжение этого тренда делает достижение AGI — ИИ, способного выполнять когнитивную работу уровня эксперта, например, проведение исследований в области ИИ — вероятным к 2027 году.
4. AGI вряд ли станет конечной точкой; системы AGI смогут автоматизировать сами исследования в области ИИ, вызвав рекурсивное самоулучшение или "взрыв интеллекта".
5. Этот взрыв интеллекта может сжать десятилетия алгоритмического прогресса, возможно, в один год, быстро приведя AGI к значительно превосходящему человека ИИ (Сверхинтеллекту, ASI).
6. Создание этих передовых систем требует беспрецедентной промышленной мобилизации для вычислительной инфраструктуры (GPU, энергия, дата-центры), стоимостью в триллионы долларов.
7. Это масштабное техно-капитальное строительство уже начинается, движимое ожидаемой экономической отдачей и интенсивной конкуренцией.
8. Однако текущие методы обеспечения безопасности в ведущих лабораториях ИИ совершенно недостаточны для защиты критически важных секретов (алгоритмов и весов моделей), необходимых для создания AGI.
9. Эти важные секреты могут быть легко украдены государствами-противниками, такими как Китай, что потенциально сведет на нет лидерство США/Запада в гонке за AGI.
11. Одновременно, надежное управление системами ИИ, значительно превосходящими человека по интеллекту (супералаймент), является нерешенной технической проблемой; текущие методы, вероятно, не будут масштабироваться и работать для будущих систем.
12. Неспособность решить проблему супералаймента до или во время быстрого взрыва интеллекта может привести к катастрофическим последствиям, поскольку мы будем развертывать все более мощные, плохо контролируемые и непонятные нам системы.
13. Сверхинтеллект предоставит решающее военное и экономическое преимущество, превращая гонку за AGI в геополитическое соревнование с высокими ставками, в первую очередь между США и Китаем.
14. США и их союзники должны сохранять лидерство в этой гонке, чтобы обеспечить выживание либеральной демократии и создать необходимый запас прочности для решения проблем супералаймента. Согласно автору, если авторитарная держава (например, Китай) первой достигнет ASI, она сможет навязать свои недемократические ценности всем странам, навсегда подавить свободы и исключить возможность процветания демократических систем. Лидерство США/союзников рассматривается как необходимое условие для предотвращения такого исхода, сохранения условий для свободы и плюрализма, а также для получения "запаса прочности" для безопасного решения проблемы алаймента без давления гонки "на опережение".
15. Сочетание чрезвычайной мощи, катастрофических рисков (ошибки алаймента, злоупотребление системами) и критической важности для национальной безопасности означает, что частные стартапы в одиночку не могут ответственно управлять разработкой сверхинтеллекта.
16. Поэтому правительство США неизбежно будет глубоко вовлечено, что, вероятно, приведет к созданию национальной программы по AGI ("Проекта") для управления безопасностью, рисками и геополитическими ставками, по аналогии с Манхэттенским проектом.
вообще, конечно, скорость обновления моделей и знаний удивительная, я редактирую материалы, которые рассказываю, раз в пару недель, и даже это кажется медленно.
к примеру, ещё недавно Ask режим Курсора в 99% случаев не имел преимуществ перед агентом.
но из-за того, как сильны и как круто работают (быстро и качественно) гугловские модели, и из-за того, что в Cursor их поддержка в агентском режиме очень слабая - то только Ask режим для них и подходит.
и они выдают там удивительно высокое качество! для кейсов, когда нужен очень большой контекст, когда на основе целого вороха файлов надо что-то сделать - это прям отличный вариант.
или ещё недавно я хвалил Roo-Code за кастомизацию агентов и Architecture mode, а уже сейчас в preview-версии Курсора можно сделать его на кастом-промптинге для своего агента (и там как раз гугловская модель отлично подходит).
удивительное время, знания устаревают просто ежедневно.
вчера ночью нашёл прикольный юзкейс для новой генерации изображений в 4o.
готовился к лекции, обновлял презу, и подумал - а раз 4o теперь умеет хорошо с текстом работать - может он и презентацию задизайнит? 😼
получилось прикольно, мне понравилось.
первый скрин - до, второй - после.
P.S. господи, да, конечно же MVP, а не MVC. бес попутал, поправлю)
⚡️ MCP добавят в ChatGPTP.S. а я ведь в видосе говорил, что кол-во клиентских приложений будет резко расти)
ну, то что Grok теперь доступен в телеге для премиум-подписчиков, вы, наверное, уже в курсе (если вдруг нет, то вот: @GrokAI)
осталось понять - зачем, но доступность хорошей передовой модельки прямо в мессенджере - вполне приятная вещь.
вот если в телегу ещё завезут суммаризацию контента/трендов, как в Твиттере это Грок делает - тогда это будет действительно огонь.
P.S. пишут, что там, кажется, Grok 2, а не Grok 3 🧐
ох, ну и то, что теперь ChatGPT умеет генерировать прозрачные картинки - это конечно отдельный топ. 😼
ну что за день.
вангую увеличение количества кайфовых иллюстраций на сайтах 🙂
^ это вот как раз про обновление от OpenAI, хороший пост.а по Gemini - на форуме Курсора уже три треда создали, и я в том числе, просят добавить поддержку)) пока что, увы, даже 2.0 поддерживается в агентском режиме слабо. держим кулачки.
ChatGPT сегодня обновится:– gpt4o теперь умеет редактировать картинки, ака текстовый фотошоп (лицо adobe представили)
– умеет генерировать картинки намного лучше чем Dalle, с нормальным текстом и тп
– ChatGPT теперь может генерировать видео через Sora, не ходя на отдельный сайт (3 видео в сутки бесплатно)
– Можно удалять фон у картинок (привет нормальные png)
– Работает довольно медленно, сделал видео как оно работает
ох, ну что за день. то неделями новостей нет, то по 4 сразу.⚡️ OpenAI анонсировали редактирование и генерацию изображений в 4o/Sora. аж целый Сэм Альтман впервые за долгое время появился на стриме.
⚡️вышла Gemini 2.5 Pro и это SOTA (лучшая модель на рынке) по целой кучей бенчей. кажется, Google удалось здесь заметно обойти OpenAI, будем ждать GPT-5.
как по мне - Gemini 2.5 Pro это безумно интересная история. она умеет в reasoning, весьмы быстра, и, самое главное, у неё колоссальный контекст в миллион токенов 🤯 (и в целом - гугл уже умеет и в 2 миллиона, так что мб тоже завезут).
пока что мне очень нравится, играюсь с созданием своих агентов 🙂
попробую сегодня реализовать Architect mode, как в Roo-Code, мне там эта фича дико понравилась.
попробую через MCP дать ему extended thinking.
отпишусь потом сюда, но пока что очень кайфово, мне нравится 😼
а вот и финалочка по апдейту, о котором я писал, подъехала 👀теперь уже полноценно вышел DeepSeek V3-2403.
значительно подрос в бенчах:
MMLU-Pro: 75,9 → 81,2 (+5,3)
GPQA: 59,1 → 68,4 (+9,3)
AIME: 39,6 → 59,4 (+19,8)
LiveCodeBench: 39,2 → 49,2 (+10,0)
на задачках по программированию тащит бешено, говорят, сильно лучше Claude 3.5, если верить бенчам со страницы модели - то лучше 3.7.
при этом его вполне тянет Mac Studio на 20t/сек, что очень круто - полноценная локальная модель (для бахатых) уровня Claude.
в общем, в интересное время живём. 👀
P.S. бахнул по горячим следам на Хабр: https://habr.com/ru/news/894252/
⚡️ охренеть, в Cursor Early Access завезли возможность создавать свои моды!!!⚡️
только обновился. можно настраивать свой набор инструментов, давать свои системные промпты, и так далее.
я только вчера в видео хвалил Roo-Code за Architecture mode, а уже сегодня я могу его сам сделать в Курсоре.
блин, я сегодня обязательно потестирую, и если оно работает именно так, как я ожидаю, то это просто невероятный апдейт - можно будет прямо в Курсоре создавать даже не-разработческих агентов, а практически универсальных.
🔥🔥🔥
⚡️ ИИ-фантазёры vs ИИ-отрицатели: где ИИ и правда заменяет разрабов? ⚡️
ну что, ребята. не часто меня охватывает вдохновение на новый видос, но сегодня именно такой день!
беспрерывные споры "заменит ИИ программистов или нет". бесперырвное "я потыкал, и чета ваш ИИ тупой" против "я написал уже 100500 проектов за 2 часа при помощи ИИ".
я несколько раз в закрытом формате читал лекцию "AI в разработке", и вот сегодня захотелось поделиться её частью.
приятного просмотра, поделитесь с вашими друзьями и родственниками 🙂
https://www.youtube.com/watch?v=1jPMdkzf29I