AI for Devs
7.11K subscribers
190 photos
60 videos
146 links
По сотрудничеству пишите в личные сообщения канала.

Канал для разработчиков про AI. Модели, ИИ-агенты, практические кейсы и новости из мира AI. Всё, что можно применить в работе.

Технологический партнер: veai.ru
Download Telegram
🇨🇳 Китайцы зарелизили Qwen3-Coder-Next

В основе 80B MoE-модель для агентного кодинга и локального использования.

Активных параметров всего 3B, немного, но по агентным бенчмаркам она показывает уровень моделей с 10–20× большим количеством активных параметров.

Контекст — 256K, можно запускать локально, понадобится 46 ГБ ОЗУ/видеопамяти/unified памяти (85 ГБ для 8-бит).

Моделька на Hugging Face.

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍29🔥11🤩632
В свежей работе Anthropic предлагают разделить ошибки LLM на две составляющие.

Bias — когда модель систематически делает неправильное.
Variance — когда результат сильно меняется от запуска к запуску.

Долю variance авторы используют как количественную меру incoherence — практической непредсказуемости.

Дальше эту непредсказуемость проверяют на прикладных сценариях: QA-бенчмарки, SWE-Bench, агентные цепочки действий. Картина повторяется везде. По мере роста длины цепочки действий агент всё чаще теряет нить задачи, делает лишние шаги или начинает себе противоречить. Это наблюдается у всех моделей, без исключений.

Увеличение размера модели помогает, но только до определённого предела. На простых задачах более крупные модели действительно ведут себя стабильнее. На сложных эффект исчезает или меняет знак: мощные модели чаще уходят в длинные, нестабильные рассуждения, которые повышают variance.

Для прикладных систем это означает, что большинство отказов будет выглядеть не как чёткий баг, а как хаотичное поведение на длинной дистанции. Проблема чаще не в том, что агент решает сделать, а в том, насколько воспроизводимо он это делает.

TL;DR: Предсказуемая ошибка лучше непредсказуемого успеха.

@ai_for_devs
1👍27🔥6💯63🤯1
🤝 Veai — технологический партнёр AI for Devs

Мы стараемся быть максимально прозрачными с вами. Чтобы делать качественный контент и развивать канал, нам нужны ресурсы — в том числе финансовые.

Поэтому мы договорились о партнёрстве с Veai. Это российская команда, которая разрабатывает AI-агента для разработчиков — инструмент, помогающий в повседневной работе с кодом.

Совсем недавно у ребят появился бесплатный 30-дневный период, так что можно спокойно попробовать продукт и понять, подходит ли он вам.

Мы будем периодически рассказывать про Veai: делиться возможностями продукта, новостями и мероприятиями от команды.

@ai_for_devs
1👍348😁7🤝7🔥1
⚡️ Релиз Claude Opus 4.6 — обновление самой мощной ИИ-модели Anthropic

Ключевое техническое изменение — контекстное окно до 1 млн токенов (бета). Модель дольше удерживает состояние задачи, стабильнее работает в больших кодовых базах и лучше справляется с агентными сценариями: планирование, код-ревью, отладка, длительные автономные запуски.

По бенчмаркам Opus 4.6 вышел в лидеры в агентном программировании (Terminal-Bench 2.0), поиске сложной информации (BrowseComp) и экономически значимых задачах знаний (GDPval-AA), где он обходит предыдущую версию и ближайших конкурентов, включая OpenAI с GPT-5.2.

Отдельно отмечают снижение деградации качества на длинных диалогах и документах — так называемого context rot.

Для разработчиков добавили уровни effort, адаптивное рассуждение и автоматическое сжатие контекста для долгоживущих агентов. Цена осталась прежней.

Модель уже доступна в интерфейсе Claude и на RouterAI.

@ai_for_devs
2🔥28👍1210🤩52
⚡️ С разницей в пару минут OpenAI зарелизили свой флагман: GPT-5.3-Codex

Модель объединила кодинг-возможности GPT-5.2-Codex и reasoning GPT-5.2. По заявлению OpenAI, она работает примерно на 25% быстрее и лучше держит контекст в длинных сессиях с инструментами, терминалом и GUI-приложениями.

GPT-5.3-Codex может выполнять задачи часами или днями, при этом пользователь может вмешиваться в процесс: уточнять требования, менять направление работы и получать промежуточные апдейты без перезапуска агента.

Интересный факт: ранние версии модели использовались при её же разработке. Codex помогал отслеживать обучение, анализировать логи, диагностировать баги, масштабировать GPU-кластеры и разбирать аномалии в тестах.

Зато бенчмарки Anthropic и OpenAI сделали красивые, и та и другая модель лидер в своих маркетинговых материалах :D

Ну что, Gemini тоже сегодня ждать?)

@ai_for_devs
2😁3316👍12🔥65🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
Не так давно обсуждали Cursor с сотнями автономных агентов, которые написали бразуер на 1млн+ строк кода с нуля. Теперь похожий эксперимент провели и Anthropic, со своей новой моделью.

Исследователь компании запустил 16 экземпляров Claude Opus 4.6, которые автономно, без постоянного участия человека в контуре, написали C-компилятор на Rust, способный собрать Linux kernel.

За две недели работы агенты выдали около 100 000 строк кода и довели компилятор до сборки Linux 6.9 под x86, ARM и RISC-V.

@ai_for_devs
1🤯49👍21🔥94😁43
🙈 Claude Code делает 4% коммитов на GitHub

По данным SemiAnalysis на начало февраля, на Claude Code приходится 4% всех публичных коммитов — рост с почти нулевого уровня; при сохранении текущих тенденций прогнозируется до 20% к концу года.

Возникает вопрос качества этих коммитов. Компилятор из предыдущего поста, кстати, не может скомпилировать Hello World из своего же README файла :)

Ну когда уже нас заменят окончательно!? Хочу на море...

@ai_for_devs
😁38👍11🎉8🤯54
😎 Обзор AI‑ассистентов для кодинга в 2026

12 февраля в 14:30 (мск) эксперты из Veai будут разбирать, почему большинство текущих решений ломаются на больших кодовых базах: теряют зависимости, плохо держат контекст и не видят проект целиком.

Фокус на инженерной стороне вопроса. Как эволюционировали AI-инструменты для кодинга, какие подходы работают в CLI, что реально дают planning mode, memory bank и субагенты, и где проходят границы промптинга в продакшене.

Спикер: Михаил Костицын (Lead Developer).

Вебинар бесплатный, главное зарегистрироваться: https://my.mts-link.ru/j/Veal/12547604067
112👍12🔥6😁5👏1
This media is not supported in your browser
VIEW IN TELEGRAM
Развлекался на выходных со Skills от Remotion. В итоге получился этот промо-ролик.

В Remotion видео описывается как React-приложение. Компоненты, параметры, детерминированный покадровый рендер. Плюс у них есть набор шаблонов под разные типы роликов. Я уже пробовал собирать видео с Remotion и ИИ-агентами пару месяцев назад. Выходило откровенно слабо. Сейчас тоже не «вау», но разница заметная.

Переломным моментом стал релиз скилов от ремоушен. С ними агент понимает, как создавать композиции, работать с таймингом, анимациями и экспортом.

Процесс создания такого видоса довольно простой. Создаёшь шаблонный проект. Отдаёшь агенту структуру ролика: сцены, текст, акценты. Дальше несколько итераций на вкусовщину. Где-то ускорить, где-то смягчить переход, где-то сдвинуть текст.

Финальный штрих — звук. Он влияет сильнее, чем кажется, даже если его почти не замечаешь. Тут пришлось тряхнуть стариной и залезть в DaVinci Resolve, чтобы накинуть пару whoosh’ей.

В целом прикольно. Для коротких промо, README и презентаций это рабочий вариант. Если есть знакомый дизайнер или монтажёр, которому интересно поиграться с кодом и агентами, можно смело шарить.

И напоследок примеры людей, которые закопались глубже и сделали заметно веселее: раз, два, три. Полный процесс описал в статье на Хабре.

@ai_for_devs
5👍14🔥75👏3
⚡️ Китайцы тихо дропнули свежую версию своей флагманской модели GLM-5!

Пока что нет никакой информации, но модель уже доступна на https://chat.z.ai

Воодушевляет, GLM-4.7 была действительно неплохой. Ждём бенчмарки!

@ai_for_devs
2🔥43👍1463🤯2
🔥 Подъехали бенчмарки по GLM-5

Z.ai раскрыли детали по новой версии. Коротко по сравнению с GLM-4.7: модель выросла с 355B (32B active) до 744B параметров (40B active), объём предобучения — 28.5T токенов. Добавили DeepSeek Sparse Attention для длинного контекста и собственную RL-инфраструктуру slime для ускорения посттрейна.

По результатам open-source сегмента GLM-5 держится в верхней группе.

Основные бенчмарки:

— SWE-bench Verified: 77.8 (у GLM-4.7 — 73.8)
— Terminal-Bench 2.0 (Terminus 2): 56.2 / 60.7
— BrowseComp с управлением контекстом: 75.9
— Vending Bench 2: $4,432 за год симуляции бизнеса

На Vending Bench 2 это первое место среди open-source моделей. В reasoning-задачах результаты близки к Claude Opus 4.5, местами выше других открытых моделей.

Модель уже выложена с весами под MIT на HuggingFace и доступна через API. Судя по метрикам, ставка сделана на длинные агентные сценарии и инженерные задачи.

@ai_for_devs
1🔥37👍149🤩3🤯2
😎 Вебинар про AI‑ассистентов для кодинга в 2026 уже сегодня!

Если ты всё еще не зарегистрировался, то сейчас самое время. Трансляция начнется через час, в 14:30 мск.

Напомню, что эксперты из Veai будут разбирать, почему большинство текущих решений ломаются на больших кодовых базах: теряют зависимости, плохо держат контекст и не видят проект целиком.

Спикер: Михаил Костицын (Lead Developer).

Вебинар бесплатный, главное зарегистрироваться: https://my.mts-link.ru/j/Veal/12547604067

P.S. В конце вебинара ребята обещали раздать подарки :)
2👍16🔥117😁3