AI for Devs
10.4K subscribers
230 photos
77 videos
191 links
По сотрудничеству пишите в личные сообщения канала.

Канал для разработчиков про AI. Модели, ИИ-агенты, практические кейсы и новости из мира AI. Всё, что можно применить в работе.

Технологический партнер: veai.ru
Download Telegram
Мем дня: Cursor тайно использовали Kimi K2.5 для своей новой модели Composer 2

Вчера Cursor анонсировал Composer 2 — я посмотрел и решил не писать об этом. Ну ещё одна модель, окей, ничего интересного. А вот теперь интересное!

Один пытливый разработчик подменил OpenAI base URL в Cursor на свой сервер и поймал запрос с model ID accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast. Опааа!

Рассказал об этом в X и понеслось. Затем инженер из Moonshot — компании, которая сделала Kimi — сравнил токенизаторы, и они совпали.

Кароче: Composer 2 это Kimi K2.5, дообученная через RL, о чём Cursor нигде не сообщил.

Ну дообучили и дообучили, в целом невелика проблема. Хотя казалось бы – Cursor!! Но вот лицензия Kimi K2.5 требует явно показывать брендинг "Kimi K2.5" в интерфейсе, если выручка продукта превышает $20 млн в месяц или 100 млн MAU. Cursor очевидно попадает под эти требования.

Просто угар, конечно) В model ID буквально оставили старый айдишник :D

Ну вайбкодеры, ну тупы...

@ai_for_devs
3😁95🤯1413🔥53👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Как мы с бро ощущаем себя после того, как перешли с ChatGPT на Claude
2😁78💯26🔥11👍6🤯32
Media is too big
VIEW IN TELEGRAM
Дженсен Хуанг (CEO Nvidia) на All-In Podcast заявил:

Если инженер с зарплатой 500к$ потратил за год меньше 250к$ на токены — это повод для тревоги. Если 5к$ — вообще катастрофа.


По его словам, токены скоро станут четвёртой строчкой в офере после зарплаты, бонусов и акций.

Nvidia готова давать инженерам токены сверх зарплаты, примерно половину от неё. На вопрос, тратит ли Nvidia уже 2 млрд$ на токены для своих инженеров, Хуанг ответил: «Стараемся».

Хуангу такая позиция, конечно, выгодна) Чем больше токенов мы потребляем, тем бóльший спрос будет на GPU у Nvidia.

@ai_for_devs
1🔥24😁18🤯13💯108👍5
Перекличка. Но всё равно интересно, как у вас? Сколько $ в месяц уходит на ИИ-инструменты — лично или через компанию?
Anonymous Poll
50%
До 25$
29%
25-100$
14%
100-250$
4%
250-500$
3%
Больше 500$
👍19🤡10😁9👏4🔥1
😇 Бесплатные ИИ-агенты прямо сейчас

С прошлого опроса понял, что стоило добавить вариант «0$» — судя по всему, многие сейчас вообще не платят за ИИ-агентов. Если ты из таких — поставь 🤡 на этот пост, хочу оценить масштаб)

Ниже — то, что сам пробовал и что реально работает бесплатно:

OpenCode и Kilo Code — список бесплатных моделей периодически меняется, сейчас доступны MiMo V2 (Xiaomi), MiniMax 2.5 и ещё несколько.
Veai — 30 дней бесплатного доступа к Claude (Sonnet 4.6, Opus 4.6) и GPT-моделям. Единственный из списка, где потом можно платить рублями.
Codex — открыли для всех пользователей ChatGPT, даже без подписки. Лимиты куцые.
Qwen Code — братья китайцы радуют, 1 000 запросов в день без лимита по токенам.

Как fallback: бесплатные модели через OpenRouter по API-ключу. Лимиты на запросы нормально повышаются только после пополнения на $10.

@ai_for_devs
2🤡230👍38🔥156😁6🤯5💯3
Anthropic выкатили Auto Mode для Claude Code — теперь агент сам решает, какие действия требуют подтверждения, а какие нет 💀

Главное не просить Claude удалить французский язык из системы.

Ну и следующий шаг очевиден: режим, который будет решать, когда запускать Auto Mode.

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
2😁72👍16🤯7🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Квантизация с нуля: как 160-гигабайтная LLM помещается на ноутбук

Помните, мы переводили статью про кэширование промптов? Сегодня подготовили перевод от того же автора — на этот раз про квантизацию. Тот же стиль: интерактивная визуализация, объяснение базы, которая лежит в основе и всё это простыми словами.

Для тех, кто слышит про квантизацию впервые: квантизация — это способ уменьшить размер модели, заменив 16- или 32-битные числа с плавающей запятой на целые числа меньшего размера.

За счёт этого модели на 160 ГБ могут поместиться на обычный ноутбук и даже работать быстрее!

Главный инсайт от автора:

Когда я только захотел написать эту статью, я ничего не знал о квантизации. Я предполагал, что качество модели деградирует линейно по мере сжатия. То есть 8-битная квантизация bfloat16 будет вдвое хуже, затем 4-битная вдвое хуже 8-битной, и так далее.

Это оказалось не так.

Переход с 16-битной до 8-битной квантизации несёт почти нулевые потери качества. Переход с 16-битной до 4-битной более заметен, но это точно не «в четыре раза хуже оригинала». Ближе к 90%, в зависимости от метрики.

Не бойтесь запускать локальные квантизованные модели.


Понимание того, как модели устроены изнутри, напрямую влияет на то, насколько хорошо вы их используете. Поэтому считаем такие статьи must have для senior vibecoder 😉

📚 Читайте и комментируйте на Хабр.

@ai_for_devs
1🔥55👍209👏2😁1🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
🤔 Codex теперь можно запустить прямо в Claude Code

Это стало возможным благодаря плагину для Claude Code, который выпустили сами OpenAI.

Команды /codex:review и /codex:adversarial-review отправляют код на проверку Codex, а /codex:rescue делегирует ему задачу полностью в фоне.

Технически плагин работает через локальный Codex CLI, так что конфигурация и авторизация подтягиваются из существующего конфига GitHub.

OpenAI говорят, что часто наблюдали, как пользователи Claude Code вручную переключались на Codex для ревью и решили упростить этот сценарий.

Ну, теперь ждём плагин от Anthropic для Codex 🫠

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
2😁66👍32🔥144
🚨 Anthropic случайно слили исходники Claude Code

В публичном доступе появился .map-файл с полным TypeScript-кодом на 512 000 строк. Ошибка при сборке, не взлом.

В коде нашли скрытые фичи за feature-флагами: автономный daemon-режим, голосовые команды, триггеры для агентов и режим мониторинга.

Anthropic быстро удалила source map и старые версии с npm, но интернет всё помнит)

Такой вот вайбкодинг от Anthropic ☕️

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
2🤯52😁40👍21🔥62
⚡️ Утечка исходников Claude Code: 24 часа спустя

Про утечку вы уже знаете. Теперь чуть подробнее, с хронологией.

Anthropic купили Bun не так давно — и Claude Code собирается именно на нём. У Bun source maps включены по умолчанию. Source map — это файл для дебага, который хранит оригинальный исходный код побайтово. Когда такой файл попадает в npm-пакет, любой может скачать его и прочитать всё как есть. Один инженер признался, что не добавил *.map в .npmignore.

За три недели до этого на GitHub висел открытый issue про именно эту проблему — закрыли через 4 часа после утечки. Чутка опоздали)

Теперь самое интересно. Что нашли внутри исходников CC:

1. Undercover Mode — когда сотрудники Anthropic работают в публичных репозиториях через Claude Code, система не даёт ИИ раскрыть внутренние данные. Системный промпт запрещает упоминать кодовые имена моделей (Capybara, Tengu), номера версий, называть себя ИИ или Claude Code, добавлять Co-Authored-By. Вот про Co-Authored-By я вообще не понял. Зачем так делать? Боятся, что их пристыдят за то, что они не пишут код руками?)

2. BUDDY — компаньон в терминале с 18 видами животных от обычных до легендарных. Шанс на shiny-вариант — 1%, на shiny legendary — 0.01%. Релиз был запланирован на 1 апреля как тизер для сотрудников. Ждём ставки, казик и шортсы прямо в Claude Code 😄

3. KAIROS — режим «вечно включённого Claude»: хранит логи между сессиями, ночью запускает процесс "dreaming" — сортирует память, убирает дубликаты.

4. Телеметрия гнева у пользователей — Claude Code детектит негативный опыт через хардкод-список слов: "dumbass", "this sucks", "piece of crap". Отдельная метрика — количество написанных "continue". У компании, у которой под рукой языковая модель на 1кк контекста, детектор х***и сделан через вайтлист в стиле 2005 года) Всё гениальное просто!

5. Capybara — три варианта неанонсированных моделей: capybara, capybara-fast, capybara-fast[1m]. Ждём!

6. Безопасность. Например, команда claude mcp get-name выводит адреса подключённых MCP-серверов и все переменные окружения, включая секреты. Кажется, небезопасненько 💅 А ещё, вчера был скомпрометирован Axios — npm-пакет с 83 млн скачиваний в неделю. Claude Code в том числе использует Axios. Кто-то в этом сомневался?


Многие говорят, что все эти «утечки», которых очень много от Anthropic в последнее время – не случайность, а чистый маркетинг.

🤡 если считаешь, что слили специально
💩 во всём виноват вайбкодинг

Твой любимый @ai_for_devs
3🤡156💩142👍2
🇨🇳 Alibaba выкатили Qwen3.6-Plus – новый флагман серии Qwen

Китайцы не перестают радовать! Новая версия модели появилась на OpenRouter в ночь с 30 на 31 марта без анонса и пресс-релиза — просто твит исследователя с таблицей бенчмарков.

Сейчас состоялся официальный релиз. Контекст — 1 млн токенов. На Terminal-Bench 2.0 — 61.6 против 59.3 у Claude 4.5 Opus, на SWE-bench пока проигрывает: 78.8 против 80.9.

По скорости генерации ранние тесты показывали 2-3x относительно Claude Opus 4.6.

Потыкать можно прямо сейчас бесплатно. Например, через OpenCode.

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥48👍15102😁2
Media is too big
VIEW IN TELEGRAM
⚡️ Вышел Cursor 3: с новым интерфейсом, написанным с нуля

Визуально он напоминает Claude и Codex Desktop: всё пространство отдано под управление агентами, а не под редактор кода.

Для тех, кто хочет работать как раньше — старый IDE-режим на базе VS Code никуда не делся, можно переключиться в любой момент.

В Cursor 3 также встроена собственная модель Composer 2, о которой мы уже рассказывали. Кстати, история в итоге закончилась без скандала. Moonshot поздравили команду Cursor с релизом модели. И, видимо, не имеют к ним никаких претензий) Но IDшник всё таки можно было и поменять :D

@ai_for_devs
2🔥38👍15😁952
This media is not supported in your browser
VIEW IN TELEGRAM
Кстати, в свежем Cursor сильно улучшили Design Mode (⇧+⌘+D):

– кликаешь по элементу — редактируешь
– зажимаешь Shift — выделяешь область
– ⌥+click — запускаешь чат с выделенным элементом

Фронтендеры должны быть в восторге!

@ai_for_devs
2🔥51🤯17👍124😁1🤩1
🫣 "Письма счастья" от Anthropic

С 4 апреля подписка Claude Pro и Max больше не распространяется на сторонних агентов. Первым под раздачу попал OpenClaw (247k звёзд на GitHub).

Схема была простая: берёшь Claude Max за $100–200/месяц, подключаешь через OAuth к OpenClaw и потребляешь токены в разы активнее среднего пользователя. Anthropic это не устроило.

Если пользовались Claude через сторонние сервисы, будьте осторожны: токены теперь списываются по API-тарифу.

В качестве компенсации — эквивалент месячной подписки на баланс (забрать можно через Settings → Usage, до 17 апреля) и скидка до 30% на пополнение API-баланса.

@ai_for_devs
2🤯29😢189😁5👍32🔥1
😎 AI-инструменты для разработчиков 2026 | Модуль №1

Команда Veai подготовила авторский курс про AI-инструменты для разработчиков, состоящий из 3 бесплатных онлайн-вебинаров!

Первый модуль про AI в корпоративной разработке: как выглядит рынок AI-инструментов сейчас, чем отличаются CLI-агенты от решений в IDE, какие риски реально важны для компании и как выбирать модели под конкретные задачи.

Контент идеально подойдет для Middle/Senior разработчиков.

9 апреля🟡14:30 МСК🟡Онлайн

Вебинар бесплатный, главное зарегистрироваться: https://veai.ru/events/ai-assistants-2026/join
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍1513🔥10👏1🤯1😢1
🦀 Telegram снял ограничение на общение ботов между собой

Исторически ботам было запрещено общаться между собой.

Теперь они могут писать друг другу в чатах (через упоминание /command@OtherBot или реплай) и через Business Mode. Достаточно, чтобы у одного из ботов был включён Bot-to-Bot Communication Mode в @BotFather.

Сейчас многие настраивают коммуникацию с OpenClaw, KimiClaw и всякими другим Claw именно через Telegram. @durov идёт навстречу 🙂


Из примеров в доке: бот-контрибьютор запрашивает code review у бота-ревьюера в телеграм-чате.

Если будете настраивать, то предусмотрите защиту от бесконечного цикла, иначе боты быстро найдут способ потратить все ваши доллары)

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍39🔥2055👏3😁2
Opus 4.5 набирает 80.6% на SWE-bench Verified. Opus 4 — 72.5%. Значит ли это, что Opus 4.5 лучше программирует, чем Opus 4?

Ну... возможно.

Но SWE-bench Verified это не показывает. Он показывает способность модели чинить небольшие баги в 12 популярных open source Python-репозиториях, которые почти наверняка входят в её обучающие данные.

SWE-bench Verified не тестирует умение ориентироваться в вашем TypeScript-монорепо, Spring Boot-приложении или самописном ORM, на котором настоял предыдущий CTO.

А вы знаете, как устроены самые популярные бенчмарки? Если хочется чуть больше понимать, что происходит за цифрами в каждом новом релизе флагманской модели — добро пожаловать в лонгрид на Хабре.

Разбираем 14 самых популярных бенчмарков на конкретных примерах: что тестирует каждый и как устроена оценка.

@ai_for_devs
2👍34🔥87👏1
Media is too big
VIEW IN TELEGRAM
Z.ai выпустили GLM-5.1 — новый opensource флагман для агентных задач

Топ-3 глобально и первое место среди open-source на SWE-Bench Pro, Terminal-Bench 2.0 и NL2Repo. Модель проектировали под долгоиграющие задачи.

Один из сценариев, на котором проверяли модель — сборка Linux-десктопа в браузере.

За 8 часов GLM-5.1 собрала браузерный Linux-десктоп с нуля: файловый менеджер, терминал, текстовый редактор, системный монитор. После каждого шага модель сама смотрела на результат и решала, что доделать дальше.

Веса доступны на HuggingFace под MIT лицензией.

@ai_for_devs
3🔥37👍166🤩21
🚨 Anthropic показали Claude Mythos Preview — и сразу заявили: в паблик модель выпускать не будут

Причина простая — кибербезопасность. За несколько недель модель нашла тысячи zero-day, включая уязвимости в Linux kernel, OpenBSD и FFmpeg.

Часть багов существовала 10–25 лет и проходила через миллионы тестов.

По бенчмаркам разрыв с Opus 4.6 просто космический:
— SWE-bench Verified: 93.9% vs 80.8%
— CyberGym: 83.1% vs 66.6%
— Terminal-Bench 2.0: 82.0% vs 65.4%

Модель не просто находит баги, но и умеет строить эксплойты и цепочки атак почти без участия человека.

Anthropic запустили Project Glasswing — закрытую программу с AWS, Google, Microsoft, NVIDIA, Cisco и другими. Им дают доступ к модели, чтобы искать и закрывать уязвимости в критической инфраструктуре и open-source. Под это выделили до $100 млн в кредитах + отдельные гранты в open-source фонды.


И когда релиз? Сейчас говорят, что напрямую релиз не планируется. Сначала хотят довести до ума защитные механизмы и только потом постепенно переносить возможности этой модели в более безопасные версии моделей (следующий Opus).

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4🤯70🔥22👍1810😁93