Итоги года в ИИ: кто победил в голосованиях
Мы с коллегами по AI-комьюнити и авторами телеграм-каналов провели совместные голосования по итогам 2025 года. Пришло время подвести итоги.
🗳️ Номинации
🔸 Одна подписка года — Поляков считает
🔸 Код с ИИ в 2025 — Глеб Кудрявцев
🔸 Событие года в AI Coding — Тимур Хахалев
🔸 AI Headliner года — Константин Доронин
🔸 ИИ-компаньон года — Анастасия Бунак
🏆 Результаты
В моём канале за лучшую подписку боролись ChatGPT Plus и Claude Pro — оба набрали по 32%. Но если кликнуть на цифры, ChatGPT выиграл ровно на один голос.
По другим номинациям:
1️⃣ Топ-3 кодинг-агентов (Глеб Кудрявцев): Cursor, Claude Code и… копипаста чатов с ИИ
2️⃣ Событие года (Тимур Хахалев): появление вайб-кодинга как явления и релиз Claude Code
3️⃣ Хедлайнер в ИИ (Константин Доронин): Anthropic с большим отрывом. Дайте угадаю — потому что зарелизили Claude Code?
4️⃣ ИИ-компаньон (Анастасия Бунак): ChatGPT с огромным отрывом
🎯 Моё мнение
Лично для меня Claude всё же лучше. Это не просто языковая модель и кодинг-агент, а даже универсальный мультитул: в считанные секунды выдернуть аудиодорожку из видео, сконвертировать файлы, найти что-то на диске.
Но результаты голосования показывают, что для большинства ChatGPT остаётся «комбайном по умолчанию». И это объяснимо — он первым захватил рынок и продолжает удерживать позиции.
🎄 С наступающим!
Всех с наступающим Новым годом! Пусть 2026-й принесёт много ярких релизов и интересных экспериментов.
Спасибо, что читаете канал и участвуете в обсуждениях — это делает работу над контентом осмысленной.
----
Ваш Поляков считает — AI, код и кейсы
Мы с коллегами по AI-комьюнити и авторами телеграм-каналов провели совместные голосования по итогам 2025 года. Пришло время подвести итоги.
🗳️ Номинации
🔸 Одна подписка года — Поляков считает
🔸 Код с ИИ в 2025 — Глеб Кудрявцев
🔸 Событие года в AI Coding — Тимур Хахалев
🔸 AI Headliner года — Константин Доронин
🔸 ИИ-компаньон года — Анастасия Бунак
🏆 Результаты
В моём канале за лучшую подписку боролись ChatGPT Plus и Claude Pro — оба набрали по 32%. Но если кликнуть на цифры, ChatGPT выиграл ровно на один голос.
По другим номинациям:
1️⃣ Топ-3 кодинг-агентов (Глеб Кудрявцев): Cursor, Claude Code и… копипаста чатов с ИИ
2️⃣ Событие года (Тимур Хахалев): появление вайб-кодинга как явления и релиз Claude Code
3️⃣ Хедлайнер в ИИ (Константин Доронин): Anthropic с большим отрывом. Дайте угадаю — потому что зарелизили Claude Code?
4️⃣ ИИ-компаньон (Анастасия Бунак): ChatGPT с огромным отрывом
💡 Забавное наблюдение: почти во всех голосованиях победил или почти победил продукт от Anthropic. ChatGPT — для всех и каждого, Claude — для технарей.
🎯 Моё мнение
Лично для меня Claude всё же лучше. Это не просто языковая модель и кодинг-агент, а даже универсальный мультитул: в считанные секунды выдернуть аудиодорожку из видео, сконвертировать файлы, найти что-то на диске.
Но результаты голосования показывают, что для большинства ChatGPT остаётся «комбайном по умолчанию». И это объяснимо — он первым захватил рынок и продолжает удерживать позиции.
📽️ В видео к посту я разместил то, как для меня выглядят победители — один техничный, другой находчивый, почему там афроамериканцы спросите у veo.
🎄 С наступающим!
Всех с наступающим Новым годом! Пусть 2026-й принесёт много ярких релизов и интересных экспериментов.
Спасибо, что читаете канал и участвуете в обсуждениях — это делает работу над контентом осмысленной.
----
Ваш Поляков считает — AI, код и кейсы
2🔥5❤1👍1
Anthropic подарил неделю двойных лимитов: в чём подвох и почему это умнее «итогов года»
Пока OpenAI делал «Ваш год с ChatGPT» — итоги года со статистикой про ваши запросы, количество сообщений и сгенерированные картинки — Anthropic молча удвоил лимиты для всех подписчиков Claude.
С 25 по 31 декабря Pro и Max получают 2x к пятичасовым лимитам и 2x к недельным капам.
🎁 Что именно удваивается
Если на Max-плане за $100/мес вы получали 140-280 часов Sonnet 4 и 15-35 часов Opus 4 в неделю — теперь можно смело умножать.
Акция распространяется на всех индивидуальных подписчиков Pro, Max 5x и Max 20x. Корпоративные аккаунты — мимо.
🤔 Зачем им это
Очевидная причина — новогодний спад. Пользователи уходят на каникулы, серверы простаивают, почему бы не предложить активным юзерам «покодить побольше».
Но есть еще кое-что. У меня на Max-плане лимиты и так редко заканчивались. Значит, акция рассчитана не на меня, а на тех, кто упирается в потолок и думает об апгрейде.
Дать им попробовать «жизнь без лимитов» — классический триал премиума.
📊 Два подхода к праздничному маркетингу
🟢 OpenAI: «Посмотри, сколько ты уже использовал ChatGPT! Вот твоя статистика, награда и стихотворение про твой год».
🟣 Anthropic: «Вот тебе вдвое больше лимитов. Иди кодь».
Первый подход — про вовлечение и шеринг. Итоги года генерируют контент от пользователей, люди постят скриншоты, обсуждают.
Второй — про формирование привычки. Неделя активного использования = неделя привыкания к инструменту. После такого возвращаться на базовые лимиты психологически сложнее.
🎯 Что с этим делать
Если вы давно хотели попробовать Claude Code на полную катушку или запустить что-то ресурсоёмкое — сейчас идеальное время.
У меня, кстати, есть подарочный код на одну месячную подписку за 20 долларов.
-----
Поляков считает — AI, код и кейсы
Пока OpenAI делал «Ваш год с ChatGPT» — итоги года со статистикой про ваши запросы, количество сообщений и сгенерированные картинки — Anthropic молча удвоил лимиты для всех подписчиков Claude.
С 25 по 31 декабря Pro и Max получают 2x к пятичасовым лимитам и 2x к недельным капам.
🎁 Что именно удваивается
Если на Max-плане за $100/мес вы получали 140-280 часов Sonnet 4 и 15-35 часов Opus 4 в неделю — теперь можно смело умножать.
Акция распространяется на всех индивидуальных подписчиков Pro, Max 5x и Max 20x. Корпоративные аккаунты — мимо.
🤔 Зачем им это
Очевидная причина — новогодний спад. Пользователи уходят на каникулы, серверы простаивают, почему бы не предложить активным юзерам «покодить побольше».
Но есть еще кое-что. У меня на Max-плане лимиты и так редко заканчивались. Значит, акция рассчитана не на меня, а на тех, кто упирается в потолок и думает об апгрейде.
Дать им попробовать «жизнь без лимитов» — классический триал премиума.
💡 Кто-то в интернете уже окрестил акцию “Santa Claude”.
📊 Два подхода к праздничному маркетингу
🟢 OpenAI: «Посмотри, сколько ты уже использовал ChatGPT! Вот твоя статистика, награда и стихотворение про твой год».
🟣 Anthropic: «Вот тебе вдвое больше лимитов. Иди кодь».
Первый подход — про вовлечение и шеринг. Итоги года генерируют контент от пользователей, люди постят скриншоты, обсуждают.
Второй — про формирование привычки. Неделя активного использования = неделя привыкания к инструменту. После такого возвращаться на базовые лимиты психологически сложнее.
🎯 Что с этим делать
Если вы давно хотели попробовать Claude Code на полную катушку или запустить что-то ресурсоёмкое — сейчас идеальное время.
У меня, кстати, есть подарочный код на одну месячную подписку за 20 долларов.
‼️
Использовать его можно только с несанкционной картой. Если вы давно думаете и хотели попробовать — пишите в комментарии, завтра я прийду к вам в личку и подарю его.
-----
Поляков считает — AI, код и кейсы
Please open Telegram to view this post
VIEW IN TELEGRAM
2❤2👍2🔥1
«Этот ваш ИИ не работает»: фикс за 15 минут. Просто добавьте память
Представьте задачу: сопоставить бизнес-запросы на естественном языке со справочником услуг. Контрагент пишет заявки произвольными сокращениями — например, просто «В», что означает обучение высотным работам. Вот так решил бухгалтер.
Наивный поиск — полнотекстовый или векторный — предсказуемо ломается. Языковые модели иногда проявляют смекалку, но чаще нет. Результат: «этот ваш ИИ не работает».
🧠 Решение проще, чем кажется
Заявка всегда привязана к договору. Значит, для каждого договора ведём свой файл коррекций. Даём оператору валидировать распознавания.
После первой ручной коррекции записываем: «В — высотные работы». При следующей заявке по этому договору подгружаем его правила в контекст LLM. У каждого договора свой «мозг».
Даже маленькие и дешёвые модели начинают справляться со сложными кейсами на дистанции. Система учится не весами, а контекстом. Никакого fine-tuning — просто текстовые файлы, которые растут от взаимодействий.
📊 Почему это лучше fine-tuning
Fine-tuning требует датасета, GPU, времени и денег. А главное — модель может «забывать» старые знания при обучении новым.
Память в файловой системе мгновенно обновляется, полностью прозрачна, переносима между моделями и не требует переобучения.
🛠️ Как применить
1️⃣ Для каждой связанной сущности (договор, клиент, проект) — свой файл правил
2️⃣ При запросе подгружаете правила нужной сущности в контекст LLM
3️⃣ Исправил пользователь — добавляем правило автоматически
Похожий принцип используют исследовательские фреймворки, например ACE от Стэнфорда.
Вывод: правильные функции + файловая система + LLM дают больше, чем просто LLM. Иногда лучшее решение — не сложнее блокнота.
Сталкивались с задачами, где «умный поиск» не спасает? Как выкручивались?
----
Поляков считает — AI, код и кейсы
Представьте задачу: сопоставить бизнес-запросы на естественном языке со справочником услуг. Контрагент пишет заявки произвольными сокращениями — например, просто «В», что означает обучение высотным работам. Вот так решил бухгалтер.
Наивный поиск — полнотекстовый или векторный — предсказуемо ломается. Языковые модели иногда проявляют смекалку, но чаще нет. Результат: «этот ваш ИИ не работает».
🧠 Решение проще, чем кажется
💡 Ошибка почти всегда одна: контекст общий, а язык — локальный. Один символ означает разное у разных клиентов. Кто-то пытается файн-тюнить, а можно просто запоминать неожиданные кейсы.
Заявка всегда привязана к договору. Значит, для каждого договора ведём свой файл коррекций. Даём оператору валидировать распознавания.
После первой ручной коррекции записываем: «В — высотные работы». При следующей заявке по этому договору подгружаем его правила в контекст LLM. У каждого договора свой «мозг».
Даже маленькие и дешёвые модели начинают справляться со сложными кейсами на дистанции. Система учится не весами, а контекстом. Никакого fine-tuning — просто текстовые файлы, которые растут от взаимодействий.
📊 Почему это лучше fine-tuning
Fine-tuning требует датасета, GPU, времени и денег. А главное — модель может «забывать» старые знания при обучении новым.
Память в файловой системе мгновенно обновляется, полностью прозрачна, переносима между моделями и не требует переобучения.
🛠️ Как применить
1️⃣ Для каждой связанной сущности (договор, клиент, проект) — свой файл правил
2️⃣ При запросе подгружаете правила нужной сущности в контекст LLM
3️⃣ Исправил пользователь — добавляем правило автоматически
Похожий принцип используют исследовательские фреймворки, например ACE от Стэнфорда.
Вывод: правильные функции + файловая система + LLM дают больше, чем просто LLM. Иногда лучшее решение — не сложнее блокнота.
Сталкивались с задачами, где «умный поиск» не спасает? Как выкручивались?
----
Поляков считает — AI, код и кейсы
2👍11❤2🔥2
Новогодняя викторина за час: как Claude Code справился с 15 000 постов
Мы с коллегами по ИИ-сообществу решили устроить массовый предновогодний звонок — 19 человек (пришли 11), итоги года, планы на будущее. Никогда раньше не созванивались в таком составе, и я переживал: а вдруг разговор не склеится?
Решил подстраховаться викториной в стиле «Своей игры». Темы, очки, по очереди отвечаем. И чтобы вопросы были про посты из наших каналов — так интереснее. А еще я хотел сам не знать ответы.
🎨 UI за два промпта
Интерфейс сгенерировал в Lovable.dev. Первый промпт — тёмная тема и два скриншота из оригинальной игры. Второй — переливы на кнопках в случайном порядке. Готово.
🤯 Проблема масштаба
Выгрузил посты из 19 каналов через бота @ToCsvBot — получилось почти 15 000 текстов. Такой объём не влезает ни в один контекст. NotebookLM от такого просто плавится и галлюцинирует.
⚡️ Решение через субагентов
Claude Code написал Python-скрипт: берём случайный пост, проверяем на пригодность для викторины, помечаем как использованный. Простая мемоизация — и проблема решена.
Дальше — субагент на Sonnet, который дёргает скрипт, пока не найдёт подходящий пост, и генерирует вопрос. Запускаю 5 таких субагентов параллельно в фоне — через минуту 5 готовых вопросов. Пять итераций — и 25 вопросов собраны.
Были еще двое: тот что переделает вопросы в новогодний лад и который загрузит их в Supabase не показывая мне ответы. Но это мелочи.
🎮 Попробуйте сами
Если хотите поиграть и заодно познакомиться с авторами нашего сообщества — вот ссылка на игру: https://lovable-practices.github.io/new-year-s-trivia-blast/
С наступающим! В удивительное время живём 🎅
----
Поляков считает — AI, код и кейсы
Мы с коллегами по ИИ-сообществу решили устроить массовый предновогодний звонок — 19 человек (пришли 11), итоги года, планы на будущее. Никогда раньше не созванивались в таком составе, и я переживал: а вдруг разговор не склеится?
Решил подстраховаться викториной в стиле «Своей игры». Темы, очки, по очереди отвечаем. И чтобы вопросы были про посты из наших каналов — так интереснее. А еще я хотел сам не знать ответы.
🎨 UI за два промпта
Интерфейс сгенерировал в Lovable.dev. Первый промпт — тёмная тема и два скриншота из оригинальной игры. Второй — переливы на кнопках в случайном порядке. Готово.
🤯 Проблема масштаба
Выгрузил посты из 19 каналов через бота @ToCsvBot — получилось почти 15 000 текстов. Такой объём не влезает ни в один контекст. NotebookLM от такого просто плавится и галлюцинирует.
🤔 Просить ИИ сгенерить 25 вопросов не вариант.
⚡️ Решение через субагентов
Claude Code написал Python-скрипт: берём случайный пост, проверяем на пригодность для викторины, помечаем как использованный. Простая мемоизация — и проблема решена.
Дальше — субагент на Sonnet, который дёргает скрипт, пока не найдёт подходящий пост, и генерирует вопрос. Запускаю 5 таких субагентов параллельно в фоне — через минуту 5 готовых вопросов. Пять итераций — и 25 вопросов собраны.
Были еще двое: тот что переделает вопросы в новогодний лад и который загрузит их в Supabase не показывая мне ответы. Но это мелочи.
🎄 Весь проект от идеи до рабочей игры занял меньше часа. А созвон продлился 3+ часа — правда мы и без игры отлично поболтали.
🎮 Попробуйте сами
Если хотите поиграть и заодно познакомиться с авторами нашего сообщества — вот ссылка на игру: https://lovable-practices.github.io/new-year-s-trivia-blast/
С наступающим! В удивительное время живём 🎅
----
Поляков считает — AI, код и кейсы
3👍13🔥6❤4
Как научить Claude читать любые сайты без ограничений
Меня бесит, когда прошу Claude что-то исследовать, вижу, как он ходит по ссылкам — и получает 403.
Самое забавное: 403 висит даже на сайтах с документацией самой Anthropic.
🔧 Решение: навык с веб-скраппингом
Сделал навык для Claude, который получает веб-страницы через сервис Scrape.do. Когда стандартный fetch не срабатывает, Claude автоматически пробует через скраппер.
Scrape.do обходит Cloudflare, решает CAPTCHA, рендерит JavaScript для SPA-сайтов. У сервиса пул из 100+ миллионов IP-адресов — сайты не распознают запросы как подозрительные.
⚙️ Как настроить
1️⃣ Зарегистрируйтесь на scrape.do и получите API-токен
2️⃣ Скачайте навык: GitHub
3️⃣ Добавьте токен в файл config/token.txt
4️⃣ Разрешите домены scrape.do и api.scrape.do в настройках Claude (см. скриншот)
После этого Claude сам поймёт, когда использовать навык. Видите в ризонинге «попробую через scrapedo-web-scraper» — работает.
🎯 Что умеет
🔸 Извлекает текст из любых страниц
🔸 Рендерит React/Vue/Angular
🔸 Обходит Cloudflare и другие защиты
🔸 Возвращает сырой HTML для парсинга
Пригодится всем, кто использует Claude для ресёрча, анализа конкурентов или просто устал от «Failed to fetch».
А вы сталкивались с блокировками LLM? Как решали?
----
Поляков считает — AI, код и кейсы
Меня бесит, когда прошу Claude что-то исследовать, вижу, как он ходит по ссылкам — и получает 403.
Самое забавное: 403 висит даже на сайтах с документацией самой Anthropic.
🔧 Решение: навык с веб-скраппингом
Сделал навык для Claude, который получает веб-страницы через сервис Scrape.do. Когда стандартный fetch не срабатывает, Claude автоматически пробует через скраппер.
Scrape.do обходит Cloudflare, решает CAPTCHA, рендерит JavaScript для SPA-сайтов. У сервиса пул из 100+ миллионов IP-адресов — сайты не распознают запросы как подозрительные.
💡 Бесплатного тарифа (1000 запросов в месяц, обновляются ежемесячно, без привязки карты) хватит для личного использования. Платите только за успешные запросы — неудачные не списываются.
⚙️ Как настроить
1️⃣ Зарегистрируйтесь на scrape.do и получите API-токен
2️⃣ Скачайте навык: GitHub
3️⃣ Добавьте токен в файл config/token.txt
4️⃣ Разрешите домены scrape.do и api.scrape.do в настройках Claude (см. скриншот)
После этого Claude сам поймёт, когда использовать навык. Видите в ризонинге «попробую через scrapedo-web-scraper» — работает.
🌀 В
октябре я писал,
что облачный рантайм не ходит на внешние сайты, вчера увидел
этот твит
и понял, что надо поискать настройку.
🎯 Что умеет
🔸 Извлекает текст из любых страниц
🔸 Рендерит React/Vue/Angular
🔸 Обходит Cloudflare и другие защиты
🔸 Возвращает сырой HTML для парсинга
Пригодится всем, кто использует Claude для ресёрча, анализа конкурентов или просто устал от «Failed to fetch».
А вы сталкивались с блокировками LLM? Как решали?
----
Поляков считает — AI, код и кейсы
4👍8🔥5❤4
Итоги 2025: год, который меня удивлял
Не люблю подводить итоги года. Обычно это выглядит как «я такой молодец, вот мои достижения, похлопайте». Но тут другой случай — хочу сказать спасибо и честно признаться: я офигел от того, как всё менялось.
🎯 Что я ожидал
В конце 2024-го тут было пару сотен подписчиков, я писал обзоры новостей от OpenAI и Anthropic из Сочи, добавлял щепотку скептицизма. ИИ для меня был про генерацию медиа для рекламы и наполнение сайтов контентом.
Прорывов не ждал. Думал, будет эволюция, не революция.
🚀 Свидетелем чего мы стали
Генеративное видео вышло на уровень, когда любой может делать ролики, за которые год назад платили продакшн-студиям. Я начал встречать сайты, собранные полностью на вайбе — без Битрикса, без Тильды, без разработчиков.
Сам я тоже изменился: стал меньше рекламщиком и больше техническим директором, исследователем, консультантом по LLM. Переехали с семьей из Сочи в Москву. В августе стал папой — и это, пожалуй, главный «релиз» 2025 для меня.
📊 Топ постов 2025 по репостам
Посты, которые отразили пульс 2025-го:
🔸 Фреймворк SGR — уже в декабре я делал с его помощью генераторы офисных файлов в реальном проекте
🔸 Штрафы за персональные данные и инструкция по уведомлению РКН — в мае моё окружение говорило не про LLM, а про то, как уведомлять Роскомнадзор
🔸 Голосовые ассистенты на Elevenlabs — выросли в отдельный субпроект с MCP, оптимизацией контекста и безопасностью. Расскажу в 2026
🔸 Видеореклама заборов через Veo3 — ролик с бабушкой принёс заявок на семизначные суммы в конце сезона
🔸 Вчерашний пост про Skills — рекордные репосты и ни одного комментария. Видимо, всё понятно и так
🏆 Технологический прорыв года
Claude Code — не как инструмент программиста, а как способ запускать автономных агентов одним промптом.
🔮 Что жду от 2026
Первые большие корпоративные внедрения ИИ — в ритейле, логистике, питании. И нормальный опенсорс: разрыв между SOTA-провайдерами и решениями для приватности сейчас слишком большой.
🙏 Спасибо
За год канал вырос в 7 раз. Всем, кто читает, задаёт вопросы в личку, пишет комментарии — вы делаете этот канал живым.
Интересного нового года! Увидимся в 2026.
----
Поляков считает — AI, код и кейсы
Не люблю подводить итоги года. Обычно это выглядит как «я такой молодец, вот мои достижения, похлопайте». Но тут другой случай — хочу сказать спасибо и честно признаться: я офигел от того, как всё менялось.
🎯 Что я ожидал
В конце 2024-го тут было пару сотен подписчиков, я писал обзоры новостей от OpenAI и Anthropic из Сочи, добавлял щепотку скептицизма. ИИ для меня был про генерацию медиа для рекламы и наполнение сайтов контентом.
Прорывов не ждал. Думал, будет эволюция, не революция.
🚀 Свидетелем чего мы стали
Генеративное видео вышло на уровень, когда любой может делать ролики, за которые год назад платили продакшн-студиям. Я начал встречать сайты, собранные полностью на вайбе — без Битрикса, без Тильды, без разработчиков.
💡 Порог входа в программирование стал таким низким, что настоящая экспертиза теперь — не в умении писать код, а в скорости, управлении командой и архитектурных решениях.
Сам я тоже изменился: стал меньше рекламщиком и больше техническим директором, исследователем, консультантом по LLM. Переехали с семьей из Сочи в Москву. В августе стал папой — и это, пожалуй, главный «релиз» 2025 для меня.
📊 Топ постов 2025 по репостам
Посты, которые отразили пульс 2025-го:
🔸 Фреймворк SGR — уже в декабре я делал с его помощью генераторы офисных файлов в реальном проекте
🔸 Штрафы за персональные данные и инструкция по уведомлению РКН — в мае моё окружение говорило не про LLM, а про то, как уведомлять Роскомнадзор
🔸 Голосовые ассистенты на Elevenlabs — выросли в отдельный субпроект с MCP, оптимизацией контекста и безопасностью. Расскажу в 2026
🔸 Видеореклама заборов через Veo3 — ролик с бабушкой принёс заявок на семизначные суммы в конце сезона
🔸 Вчерашний пост про Skills — рекордные репосты и ни одного комментария. Видимо, всё понятно и так
🏆 Технологический прорыв года
Claude Code — не как инструмент программиста, а как способ запускать автономных агентов одним промптом.
🔮 Что жду от 2026
Первые большие корпоративные внедрения ИИ — в ритейле, логистике, питании. И нормальный опенсорс: разрыв между SOTA-провайдерами и решениями для приватности сейчас слишком большой.
🙏 Спасибо
За год канал вырос в 7 раз. Всем, кто читает, задаёт вопросы в личку, пишет комментарии — вы делаете этот канал живым.
Интересного нового года! Увидимся в 2026.
----
Поляков считает — AI, код и кейсы
4🔥9👍7🎄5❤1🎅1😎1
Assistants API: дедлайн 26.08.2026. Что делать и почему стало проще
Помните этот код?
Больше такого писать не надо будет.
🗓️ Что случилось
OpenAI официально объявил ещё в конце лета 2025: Assistants API устаревает с 26 августа 2025, полный стоп поддержки — 26 августа 2026. Год на миграцию.
Когда тема ИИ только начиналась, я рекомендовал Assistants API всем, кто хотел сделать своего первого бота: загружаешь файлы в интерфейсе OpenAI, прикручиваешь системный промпт — и вот тебе консультант по твоей базе знаний за полчаса. Сам так сделал бота-консультанта по своей иномарке, который до сих пор живёт в чате владельцев.
Теперь всё это переезжает в Responses API.
🔄 Что изменилось
Главное — архитектура стала проще:
🔸 Assistants → Prompts — теперь конфигурация создаётся в панели управления, не через код. Там же версионирование и база знаний.
🔸 Threads → Conversations — тот же функционал, новое название.
🔸 Runs → Responses — один запрос, внутри может быть агентский цикл и tool calls, чаще всего без отдельного polling-цикла по статусу.
🎁 Бонусы миграции
Responses API лучше еще и потому, что OpenAI добавил туда web search, file search и поддержку MCP. Плюс обещают лучшее кэширование и меньше задержки.
🛠️ Если у вас есть бот на Assistants API
API ассистентов было в бете. Так что как обычно при использовании бета версий нужны миграции. Просто копируете старые промпты в новый интерфейс Chats, подключаете те же самые хранилища и tools.
Миграция занимает пару часов. Я сделал шаблон телеграм-бота на Responses API — можно форкнуть и адаптировать под себя, или просто посмотреть на структуру: https://github.com/artwist-polyakov/OpenAIChatBot, для сравнения бот на API Assistants: https://github.com/artwist-polyakov/OpenAIAssistantBot
Там docker-compose для быстрого запуска и гайд по миграции.
Уже мигрировали или ещё на Assistants? Интересно, сколько народу вообще использовало этот API — или все сидели на Chat Completions?
----
Поляков считает — AI, код и кейсы
Помните этот код?
while run.status in ["queued", "in_progress"]:
await asyncio.sleep(2)
run = await client.beta.threads.runs.retrieve(...)
Больше такого писать не надо будет.
🗓️ Что случилось
OpenAI официально объявил ещё в конце лета 2025: Assistants API устаревает с 26 августа 2025, полный стоп поддержки — 26 августа 2026. Год на миграцию.
Когда тема ИИ только начиналась, я рекомендовал Assistants API всем, кто хотел сделать своего первого бота: загружаешь файлы в интерфейсе OpenAI, прикручиваешь системный промпт — и вот тебе консультант по твоей базе знаний за полчаса. Сам так сделал бота-консультанта по своей иномарке, который до сих пор живёт в чате владельцев.
Теперь всё это переезжает в Responses API.
🔄 Что изменилось
Главное — архитектура стала проще:
🔸 Assistants → Prompts — теперь конфигурация создаётся в панели управления, не через код. Там же версионирование и база знаний.
🔸 Threads → Conversations — тот же функционал, новое название.
🔸 Runs → Responses — один запрос, внутри может быть агентский цикл и tool calls, чаще всего без отдельного polling-цикла по статусу.
💡 Вместо 5 API-вызовов (создать тред → добавить сообщение → запустить run → polling → получить ответ) теперь нужен один. Это не просто «чище» — это реально меньше точек отказа.
🎁 Бонусы миграции
Responses API лучше еще и потому, что OpenAI добавил туда web search, file search и поддержку MCP. Плюс обещают лучшее кэширование и меньше задержки.
🛠️ Если у вас есть бот на Assistants API
API ассистентов было в бете. Так что как обычно при использовании бета версий нужны миграции. Просто копируете старые промпты в новый интерфейс Chats, подключаете те же самые хранилища и tools.
Миграция занимает пару часов. Я сделал шаблон телеграм-бота на Responses API — можно форкнуть и адаптировать под себя, или просто посмотреть на структуру: https://github.com/artwist-polyakov/OpenAIChatBot, для сравнения бот на API Assistants: https://github.com/artwist-polyakov/OpenAIAssistantBot
Там docker-compose для быстрого запуска и гайд по миграции.
🔧 Кстати, если вы не программист, но хотите такого бота — это отличная задача для вайбкодинга. Скармливаете репозиторий в Cursor или Claude Code, описываете, что хотите изменить — и получаете рабочего бота за вечер. Там даже инвалидация сообщений и простейшие права доступа есть.
Уже мигрировали или ещё на Assistants? Интересно, сколько народу вообще использовало этот API — или все сидели на Chat Completions?
----
Поляков считает — AI, код и кейсы
3👍5❤2🔥2
Agent Deck: диспетчерская для кодинг агентов
Если вы работаете с Claude Code, Codex или Gemini CLI, то знаете боль: сколько проектов — столько и терминалов. Где-то агент думает, где-то ждёт ввода, где-то давно завис. Переключаешься между вкладками, теряешь контекст, забываешь ответить.
Для контроля за сессиями я пробовал Claude Island, но он заточен только под Claude и не видит обычные терминальные сессии.
Agent Deck решает эту проблему шире — один терминал, все агенты (Claude, Gemini, Codex, любой shell), единый интерфейс.
🔀 Форк сессий — киллер-фича
Самое интересное — возможность форкнуть разговор с Claude Code. Это способ отпочковать несколько копий одного и того же контекста. Раньше для этого надо было делать аккуратные манипуляции в командной строке.
Допустим, Claude Code написал вам компонент. Хочется спросить: «А почему ты выбрал именно этот подход?» или «Объясни вот эту строчку». Но каждый такой вопрос засоряет контекст основной сессии — значит чаще срабатывает Compacting conversation, быстрее тратятся сессионные лимиты.
С форком: нажимаете f, получаете отдельную ветку разговора. Задаёте все уточняющие вопросы там, а основная сессия остаётся чистой для работы.
📁 Группировка для организации вкладок
Раньше я заводил отдельные окна iTerm2: одна вкладка для Claude Code, вторая для терминала, иногда третья для Codex. Ориентировался по смыслу открытых табов.
В Agent Deck создаёшь группу — и она содержит все нужные сессии. Плюс видно статусы: зелёный кружок — агент работает, жёлтый — ждёт ввода, серый — простаивает.
⚠️ Что пока не работает
Библиотека свежая (релиз в конце декабря, уже 296 звёзд на GitHub), и есть шероховатости. Некотрые из них:
🔸 Git worktrees не поддерживаются — если вы работаете с несколькими ветками через worktree (это как когда cursor создает изолированные окружения для параллельной разработки), Agent Deck их пока не создает. Есть открытый issue.
🔸 Пробелы в путях — если путь к директории содержит пробелы и копируется с кавычками (как в macOS), сессия запустится в неправильном месте.
🔸 --dangerously-skip-permissions захардкожен — форки автоматически запускаются с этим флагом, что отключает запросы на подтверждение действий. Для тех, кто опасается промпт-инъекций — неприятный сюрприз.
🔧 Мой PR
Последние два бага я пофиксил и отправил PR в оригинальный репозиторий. Если примут — отлично, если нет — буду развивать свою копию. Также хочу добавить возможность передавать флаги при создании/форке сессии Claude.
😤 Мелкие неудобства tmux
Agent Deck работает поверх tmux, а значит придётся запомнить хоткеи:
🔸 Ctrl+Q — выйти из сессии (сессия продолжит работать)
🔸 Для копирования: зажимаем Option (на Windows — Alt`) при выделении текста, или `fn для многоэкранных блоков
🔸 Альтернатива — применить рекомендованный конфиг из README, тогда копирование мышью заработает автоматически
Ещё пользователи жалуются на мерцание вывода и ошибочные склейки сессий — типичные болезни роста.
🔌 Бонус: MCP с оптимизациями
В Agent Deck есть MCP Manager — подключение серверов без редактирования конфигов. Включаете нужный MCP в интерфейсе, Agent Deck сам перезапустит сессию.
Известная боль MCP: каждый сервер — это npm-процесс, который кушает RAM. При 20+ сессиях с несколькими MCP на каждой — память улетает в космос. В Agent Deck для этого есть Socket Pool: все сессии используют общие MCP-серверы вместо отдельных процессов.
Эту часть я пока не тестировал, но идея красивая.
Итого
Потестирую Agent Deck в работе пару недель. Форки и группировка уже упрощают жизнь. Если инструмент приживётся — расскажу подробнее.
GitHub: https://github.com/asheshgoplani/agent-deck
----
Поляков считает — AI, код и кейсы
Если вы работаете с Claude Code, Codex или Gemini CLI, то знаете боль: сколько проектов — столько и терминалов. Где-то агент думает, где-то ждёт ввода, где-то давно завис. Переключаешься между вкладками, теряешь контекст, забываешь ответить.
Для контроля за сессиями я пробовал Claude Island, но он заточен только под Claude и не видит обычные терминальные сессии.
Agent Deck решает эту проблему шире — один терминал, все агенты (Claude, Gemini, Codex, любой shell), единый интерфейс.
🔀 Форк сессий — киллер-фича
Самое интересное — возможность форкнуть разговор с Claude Code. Это способ отпочковать несколько копий одного и того же контекста. Раньше для этого надо было делать аккуратные манипуляции в командной строке.
Допустим, Claude Code написал вам компонент. Хочется спросить: «А почему ты выбрал именно этот подход?» или «Объясни вот эту строчку». Но каждый такой вопрос засоряет контекст основной сессии — значит чаще срабатывает Compacting conversation, быстрее тратятся сессионные лимиты.
С форком: нажимаете f, получаете отдельную ветку разговора. Задаёте все уточняющие вопросы там, а основная сессия остаётся чистой для работы.
💡 Форк — это «песочница» для вопросов и экспериментов. Правда для полноценной работы не хватает поддержки git worktree, но проект новый, возможно завезут позже.
📁 Группировка для организации вкладок
Раньше я заводил отдельные окна iTerm2: одна вкладка для Claude Code, вторая для терминала, иногда третья для Codex. Ориентировался по смыслу открытых табов.
В Agent Deck создаёшь группу — и она содержит все нужные сессии. Плюс видно статусы: зелёный кружок — агент работает, жёлтый — ждёт ввода, серый — простаивает.
⚠️ Что пока не работает
Библиотека свежая (релиз в конце декабря, уже 296 звёзд на GitHub), и есть шероховатости. Некотрые из них:
🔸 Git worktrees не поддерживаются — если вы работаете с несколькими ветками через worktree (это как когда cursor создает изолированные окружения для параллельной разработки), Agent Deck их пока не создает. Есть открытый issue.
🔸 Пробелы в путях — если путь к директории содержит пробелы и копируется с кавычками (как в macOS), сессия запустится в неправильном месте.
🔸 --dangerously-skip-permissions захардкожен — форки автоматически запускаются с этим флагом, что отключает запросы на подтверждение действий. Для тех, кто опасается промпт-инъекций — неприятный сюрприз.
🔧 Мой PR
Последние два бага я пофиксил и отправил PR в оригинальный репозиторий. Если примут — отлично, если нет — буду развивать свою копию. Также хочу добавить возможность передавать флаги при создании/форке сессии Claude.
😤 Мелкие неудобства tmux
Agent Deck работает поверх tmux, а значит придётся запомнить хоткеи:
🔸 Ctrl+Q — выйти из сессии (сессия продолжит работать)
🔸 Для копирования: зажимаем Option (на Windows — Alt`) при выделении текста, или `fn для многоэкранных блоков
🔸 Альтернатива — применить рекомендованный конфиг из README, тогда копирование мышью заработает автоматически
Ещё пользователи жалуются на мерцание вывода и ошибочные склейки сессий — типичные болезни роста.
🔌 Бонус: MCP с оптимизациями
В Agent Deck есть MCP Manager — подключение серверов без редактирования конфигов. Включаете нужный MCP в интерфейсе, Agent Deck сам перезапустит сессию.
Известная боль MCP: каждый сервер — это npm-процесс, который кушает RAM. При 20+ сессиях с несколькими MCP на каждой — память улетает в космос. В Agent Deck для этого есть Socket Pool: все сессии используют общие MCP-серверы вместо отдельных процессов.
Эту часть я пока не тестировал, но идея красивая.
Итого
Потестирую Agent Deck в работе пару недель. Форки и группировка уже упрощают жизнь. Если инструмент приживётся — расскажу подробнее.
GitHub: https://github.com/asheshgoplani/agent-deck
----
Поляков считает — AI, код и кейсы
1❤6👍4🔥4✍1
SynthID: как Google метит AI-контент и как обойти проверку
Этот пост лежал в черновиках больше месяца. Ещё осенью 2025-го наткнулся на технологию SynthID от Google — невидимые водяные знаки для AI-контента. Хотел написать, но Google так медленно раскатывал инструмент проверки, что я никак не мог протестировать.
Дождался. Теперь проверка работает прямо в Gemini app — загружаешь картинку или видео и спрашиваешь «это создал ИИ?». Протестировал на своих генерациях из Nano Banana Pro — 100% точность.
🎨 Мой кейс: Nano Banana Pro без водяного знака
Я часто генерирую изображения в Nano Banana — это модель Google для создания картинок через Gemini. Но делаю это не через стандартный интерфейс веб-версии или приложения, а через API (Krea.ai/fal.ai) — не нравится видимый водяной знак.
🔬 Как работает SynthID
Для изображений и видео всё просто: Google встраивает невидимую метку прямо в пиксели. Она переживает кроп, сжатие, фильтры и даже скриншоты (даже с рамками другого приложения).
Для текста интереснее. Когда языковая модель генерирует текст, она для каждого слова выбирает из вариантов по вероятности. SynthID слегка «подкручивает» эти вероятности по определённому паттерну.
Для пользователя это незаметно — текст читается нормально. Но детектор потом может проверить: выбирались ли слова по паттерну или случайно. Если паттерн есть — вердикт однозначный, и не надо думать про удаление водяных знаков.
🧪 Мой тест: пробовал обойти
Загрузил в Gemini app несколько картинок, сгенерированных в Nano Banana Pro:
🔸 Оригинал — распознал
🔸 Сжатый JPEG — распознал
🔸 Кропнутый — распознал
🔸 Сжатый + кропнутый — распознал
Точность очень высокая. Наивными методами обойти проверку у меня не получилось.
В интернете есть сервисы для удаления SynthID — попробовал пару штук. На моих тестах сработали плохо. Google всё равно распознал.
😈 Почему это важно: дипфейки
Мы уже в точке, когда сгенерировать чужое лицо — не проблема. Часто переживаю, что моих родственников смогут обмануть с использованием моего голоса или лица. В этом контексте круто, что Google не только пытается стать лидером эры AI, но и думает о безопасности.
SynthID — это попытка создать стандарт доверия в мире генеративного ИИ. Правда я не уверен, что возможно распространить технологию на других игроков, скорее всего у всех будут свои уникальные механики.
📊 Масштаб и партнёрства
Google заявляет, что уже 20+ миллиардов единиц контента помечено SynthID. Это весь контент из Gemini, Veo и NotebookLM.
Google открыл код для текста: https://github.com/google-deepmind/synthid-text/
Интегрируется с Hugging Face Transformers.
⚠️ Ограничения
Технология не идеальна:
🔸 Только Google — не работает для других платформ
🔸 Перевод убивает текстовый знак — токены другие
🔸 Сильное перефразирование — тоже может сбить детекцию текста
🔸 Ресурсоёмкость — проверка требует серьёзных мощностей, налету пенсионерам будет сложно проверить
📌 Итого
SynthID — это не защита от воровства и не детектор всего AI-контента. Это инструмент прозрачности для экосистемы Google.
В мире дипфейков такие инструменты нужны. Жаль, что другие компании (OpenAI, Meta, Midjourney) будут использовать свои стандарты вместо единого.
----
Поляков считает — AI, код и кейсы
Этот пост лежал в черновиках больше месяца. Ещё осенью 2025-го наткнулся на технологию SynthID от Google — невидимые водяные знаки для AI-контента. Хотел написать, но Google так медленно раскатывал инструмент проверки, что я никак не мог протестировать.
Дождался. Теперь проверка работает прямо в Gemini app — загружаешь картинку или видео и спрашиваешь «это создал ИИ?». Протестировал на своих генерациях из Nano Banana Pro — 100% точность.
🎨 Мой кейс: Nano Banana Pro без водяного знака
Я часто генерирую изображения в Nano Banana — это модель Google для создания картинок через Gemini. Но делаю это не через стандартный интерфейс веб-версии или приложения, а через API (Krea.ai/fal.ai) — не нравится видимый водяной знак.
💡 Оказалось, что видимый водяной знак — это мелочь. Есть ещё невидимый SynthID, и его не убрать.
🔬 Как работает SynthID
Для изображений и видео всё просто: Google встраивает невидимую метку прямо в пиксели. Она переживает кроп, сжатие, фильтры и даже скриншоты (даже с рамками другого приложения).
Для текста интереснее. Когда языковая модель генерирует текст, она для каждого слова выбирает из вариантов по вероятности. SynthID слегка «подкручивает» эти вероятности по определённому паттерну.
Для пользователя это незаметно — текст читается нормально. Но детектор потом может проверить: выбирались ли слова по паттерну или случайно. Если паттерн есть — вердикт однозначный, и не надо думать про удаление водяных знаков.
🧪 Мой тест: пробовал обойти
Загрузил в Gemini app несколько картинок, сгенерированных в Nano Banana Pro:
🔸 Оригинал — распознал
🔸 Сжатый JPEG — распознал
🔸 Кропнутый — распознал
🔸 Сжатый + кропнутый — распознал
Точность очень высокая. Наивными методами обойти проверку у меня не получилось.
В интернете есть сервисы для удаления SynthID — попробовал пару штук. На моих тестах сработали плохо. Google всё равно распознал.
⚠️ Важно: изображения из других генераторов (Midjourney, ChatGPT) Gemini не распознаёт — у них нет SynthID. Это работает только для контента Google.
😈 Почему это важно: дипфейки
Мы уже в точке, когда сгенерировать чужое лицо — не проблема. Часто переживаю, что моих родственников смогут обмануть с использованием моего голоса или лица. В этом контексте круто, что Google не только пытается стать лидером эры AI, но и думает о безопасности.
SynthID — это попытка создать стандарт доверия в мире генеративного ИИ. Правда я не уверен, что возможно распространить технологию на других игроков, скорее всего у всех будут свои уникальные механики.
📊 Масштаб и партнёрства
Google заявляет, что уже 20+ миллиардов единиц контента помечено SynthID. Это весь контент из Gemini, Veo и NotebookLM.
Google открыл код для текста: https://github.com/google-deepmind/synthid-text/
Интегрируется с Hugging Face Transformers.
⚠️ Ограничения
Технология не идеальна:
🔸 Только Google — не работает для других платформ
🔸 Перевод убивает текстовый знак — токены другие
🔸 Сильное перефразирование — тоже может сбить детекцию текста
🔸 Ресурсоёмкость — проверка требует серьёзных мощностей, налету пенсионерам будет сложно проверить
📌 Итого
SynthID — это не защита от воровства и не детектор всего AI-контента. Это инструмент прозрачности для экосистемы Google.
В мире дипфейков такие инструменты нужны. Жаль, что другие компании (OpenAI, Meta, Midjourney) будут использовать свои стандарты вместо единого.
----
Поляков считает — AI, код и кейсы
1👍3❤2🔥2
GLM-4.7: китайский Claude за $3 в месяц — тестирую на реальной задаче
Протестировал GLM-4.7 на офисной задаче, аналогичную тем, которую обычно решаю через Claude Code. Результаты крутые, правда подход модели к работе непривычный.
🔧 Зачем искать альтернативу Claude
Я обожаю, как агентные системы работают с офисными задачами: вычитка договоров, заполнение Excel, парсинг документов. Особенно хорош Claude Code с его оркестрацией субагентов и навыками — недавно писал как расковырял 15 000 постов меньше чем за час.
Но есть две проблемы:
🔸 Лимиты. На базовой подписке они выжигаются за пару сессий серьёзной работы.
🔸 Приватность. Компаниям часто нужно, чтобы данные оставались в их контуре. В итоге у них появляются шкафы с Qwen 30b
📊 Что за GLM-4.7
Модель от Zhipu AI с 400 млрд параметрами и контекстом до 200K токенов.
На бенчмарках конкурирует с топовыми LLM. А ещё поддерживает интерфейс Anthropic API, а значит её можно запускать как инстанс Claude Code. Просто подменяем настройки.
Можно сделать функцию-алиас, подсмотрел у @elkornacio:
Терминальная сессия Claude Code вместе с дочерними процессами ходит на Anthropic-совместимый эндпоинт Z.ai. Ни один лимит Клода не пострадает.
🧪 Мой тест: вычитка договоров на предмет НДС
Задача реальная: в моём агентстве были прецеденты, когда ставку НДС жёстко фиксировали в договоре. Обычно пишем «в соответствии с законодательством», но бывали странности. Я помнил про проблему, но не помнил — у кого из клиентов она была.
Вычитывать все договоры вручную — не вариант. Отличный кейс для теста.
✅ Что получилось
За час модель прошлась по нескольким сотням договоров и нашла 5 проблемных — те, где ставка НДС зафиксирована жёстко вместо «в соответствии с законодательством».
Час — это вместе с первичной настройкой, генерацией навыков для чтения файлов и отладкой. При следующих подобных задачах код можно переиспользовать, так что реально это минуты.
⚠️ Что не понравилось
🔸 Медленнее, чем у Anthropic. Это подтверждается независимыми тестами — скорость в 5-м перцентиле среди моделей.
🔸 Не запускает субагентов нативно. Модель явно тюнили под Python, поэтому для оркестрации она писала Python-код вместо использования встроенных агентных фишек Claude Code.
🔸Не читает картинки. Не получится сделать скриншот документа и что-то в нем подчеркнуть или передать скриншот интерфейса. Читает.
🔸 Скиллы запускает как внешние скрипты, а не как часть своего workflow.
💰 Про экономику
Z.ai позиционирует себя как «1/7 цены — 3 раза больше использования». В целом тарифы так и выглядят, как дисконт от подписки Anthropic (минимальный $20/7 ≈ 3$)
Если хотите развернуть локально — веса открыты на HuggingFace и ModelScope, работает через vLLM и SGLang. Правда, для полноценного инференса понадобится серьёзное железо (~16 х H100)
🎯 Итого
GLM-4.7 — не замена Claude для сложных агентных задач. Субагенты и навыки работают коряво, картинки не читает, скорость страдает.
Но если вам нужно:
🔸 Много кодить без лимитов жестких лимитов
🔸 Расширить текущие лимиты Claude GLM-субагентами
🔸 Хотити приватную LLM и есть деньги
🔸 Не хотите платить $200/мес за Claude Max
...тогда за $3–15 в месяц это неплохая альтернатива.
Моя реферальная ссылка, если хотите попробовать: https://z.ai/subscribe?ic=6Y9N22ZOK4
Уже пробовали GLM? Как впечатления?
----
Поляков считает — AI, код и кейсы
Протестировал GLM-4.7 на офисной задаче, аналогичную тем, которую обычно решаю через Claude Code. Результаты крутые, правда подход модели к работе непривычный.
🔧 Зачем искать альтернативу Claude
Я обожаю, как агентные системы работают с офисными задачами: вычитка договоров, заполнение Excel, парсинг документов. Особенно хорош Claude Code с его оркестрацией субагентов и навыками — недавно писал как расковырял 15 000 постов меньше чем за час.
Но есть две проблемы:
🔸 Лимиты. На базовой подписке они выжигаются за пару сессий серьёзной работы.
🔸 Приватность. Компаниям часто нужно, чтобы данные оставались в их контуре. В итоге у них появляются шкафы с Qwen 30b
💡 GLM-4.7 — это альтернатива для обоих случаев: щедрые лимиты в подписках от $3/мес, возможность развернуть локально (веса открыты), и бенчмарки на уровне топовых моделей. Правда для хорошей работы на своем железе потрубуется железа ценой 1-2 квартир в Хамовниках
📊 Что за GLM-4.7
Модель от Zhipu AI с 400 млрд параметрами и контекстом до 200K токенов.
На бенчмарках конкурирует с топовыми LLM. А ещё поддерживает интерфейс Anthropic API, а значит её можно запускать как инстанс Claude Code. Просто подменяем настройки.
Можно сделать функцию-алиас, подсмотрел у @elkornacio:
zclaude() {
source ~/.config/zai/tokens.env
ANTHROPIC_BASE_URL="https://api.z.ai/api/anthropic" \
ANTHROPIC_AUTH_TOKEN="${ZAI_TOKEN}" \
ANTHROPIC_DEFAULT_HAIKU_MODEL="glm-4.5-air" \
ANTHROPIC_DEFAULT_SONNET_MODEL="glm-4.6" \
ANTHROPIC_DEFAULT_OPUS_MODEL="glm-4.7" \
claude "$@"
}
Терминальная сессия Claude Code вместе с дочерними процессами ходит на Anthropic-совместимый эндпоинт Z.ai. Ни один лимит Клода не пострадает.
🧪 Мой тест: вычитка договоров на предмет НДС
Задача реальная: в моём агентстве были прецеденты, когда ставку НДС жёстко фиксировали в договоре. Обычно пишем «в соответствии с законодательством», но бывали странности. Я помнил про проблему, но не помнил — у кого из клиентов она была.
Вычитывать все договоры вручную — не вариант. Отличный кейс для теста.
✅ Что получилось
За час модель прошлась по нескольким сотням договоров и нашла 5 проблемных — те, где ставка НДС зафиксирована жёстко вместо «в соответствии с законодательством».
Час — это вместе с первичной настройкой, генерацией навыков для чтения файлов и отладкой. При следующих подобных задачах код можно переиспользовать, так что реально это минуты.
⚠️ Что не понравилось
🔸 Медленнее, чем у Anthropic. Это подтверждается независимыми тестами — скорость в 5-м перцентиле среди моделей.
🔸 Не запускает субагентов нативно. Модель явно тюнили под Python, поэтому для оркестрации она писала Python-код вместо использования встроенных агентных фишек Claude Code.
🔸
🔸 Скиллы запускает как внешние скрипты, а не как часть своего workflow.
☝️ Вывод: модель не тренировали на типичные паттерны Anthropic. Субагенты и навыки работают «через костыли», хотя Agents SDK технически это поддерживает.
💰 Про экономику
Z.ai позиционирует себя как «1/7 цены — 3 раза больше использования». В целом тарифы так и выглядят, как дисконт от подписки Anthropic (минимальный $20/7 ≈ 3$)
Если хотите развернуть локально — веса открыты на HuggingFace и ModelScope, работает через vLLM и SGLang. Правда, для полноценного инференса понадобится серьёзное железо (~16 х H100)
🎯 Итого
GLM-4.7 — не замена Claude для сложных агентных задач. Субагенты и навыки работают коряво, картинки не читает, скорость страдает.
Но если вам нужно:
🔸 Много кодить без лимитов жестких лимитов
🔸 Расширить текущие лимиты Claude GLM-субагентами
🔸 Хотити приватную LLM и есть деньги
🔸 Не хотите платить $200/мес за Claude Max
...тогда за $3–15 в месяц это неплохая альтернатива.
Моя реферальная ссылка, если хотите попробовать: https://z.ai/subscribe?ic=6Y9N22ZOK4
Уже пробовали GLM? Как впечатления?
----
Поляков считает — AI, код и кейсы
2👍5❤2🔥1