Шер-парад января 2026: топ-3 постов по сохранениям
В январе я пересмотрел подход к каналу. Раньше писал про громкие релизы и новости ИИ. Теперь фокус другой — делать контент, который хочется сохранить себе, возможно переслать коллеге.
Поэтому главная метрика — процент шеринга от просмотров. Не лайки, не комментарии, а именно «унесли себе».
🥉 Третье место: промпт для интервью от разработчика Claude Code
Пост про AskUserQuestionTool — как заставить ИИ задавать вопросы-вопросы-вопросы вместо додумываний и догадок.
203 шера на 1 600 просмотров — 12%
🥈 Второе место: UI за 30 минут без дизайнера
Пост про параллельный запуск Lovable, Antigravity и Figma Make для генерации интерфейсов.
127 шеров на 674 просмотра — 18%
Абсолютные цифры скромные, но конверсия в шеринг высокая. Тема автоматизации дизайна явно интересна аудитории канала.
🥇 Первое место: Claude + Вордстат
Скилл для анализа спроса через API Яндекса — почти 20% шеринга.
706 шеров на 3 600 просмотров.
Это рекорд канала. Видимо, люди давно ждали такой инструмент.
🔮 Что дальше
Раз скиллы для Claude зашли — буду развивать направление:
🔸 Навык для аудита рекламных кампаний через Excel-выгрузки
🔸 Генератор тактики рекламирования
🔸 Связка с моим сервисом разметки трафика через API
🔸 Совсем скоро принесу прикольный скил для работы с картинками.
Спасибо, что читаете и шерите. Это буквально формирует мой контент-план.
Какие темы хотите видеть чаще — автоматизация рекламы, вайб-кодинг или что-то ещё?
----
Поляков считает — AI, код и кейсы
В январе я пересмотрел подход к каналу. Раньше писал про громкие релизы и новости ИИ. Теперь фокус другой — делать контент, который хочется сохранить себе, возможно переслать коллеге.
Поэтому главная метрика — процент шеринга от просмотров. Не лайки, не комментарии, а именно «унесли себе».
🥉 Третье место: промпт для интервью от разработчика Claude Code
Пост про AskUserQuestionTool — как заставить ИИ задавать вопросы-вопросы-вопросы вместо додумываний и догадок.
203 шера на 1 600 просмотров — 12%
💡 Для себя сделал вывод: полезные команды и промпты заходят. Буду публиковать больше таких находок.
🥈 Второе место: UI за 30 минут без дизайнера
Пост про параллельный запуск Lovable, Antigravity и Figma Make для генерации интерфейсов.
127 шеров на 674 просмотра — 18%
Абсолютные цифры скромные, но конверсия в шеринг высокая. Тема автоматизации дизайна явно интересна аудитории канала.
🥇 Первое место: Claude + Вордстат
Скилл для анализа спроса через API Яндекса — почти 20% шеринга.
706 шеров на 3 600 просмотров.
Это рекорд канала. Видимо, люди давно ждали такой инструмент.
🔮 Что дальше
Раз скиллы для Claude зашли — буду развивать направление:
🔸 Навык для аудита рекламных кампаний через Excel-выгрузки
🔸 Генератор тактики рекламирования
🔸 Связка с моим сервисом разметки трафика через API
🔸 Совсем скоро принесу прикольный скил для работы с картинками.
Спасибо, что читаете и шерите. Это буквально формирует мой контент-план.
Какие темы хотите видеть чаще — автоматизация рекламы, вайб-кодинг или что-то ещё?
----
Поляков считает — AI, код и кейсы
4❤20🔥14👍5
Как не купить подписку за $200: лайфхак для Codex CLI
Спустя месяц после хайпа я попробовал GPT-5.2 в Codex CLI. И офигел.
Модели от Anthropic на её фоне кажутся слепыми щенками. GPT-5.2 реально рассуждает как сеньор, имея своё мнение на каждый кусок вашего кода.
🔍 Что нашла модель за пару дней
🔸 При миграции моего хука безопасности на Go — неожиданные проблемы в обработке JSON
🔸 В пет-проекте с авторизацией — неэффективное создание класса для KeyCloak.
На скриншоте показал, что модель предположила ошибку для смены почты пользователя, это очень глубоко.
🔸 А в третьем проекте — критическую ошибку, которую придумал Opus: один пользователь мог получить доступ к чужой переписке
Конечно, баги дали бы о себе знать на ревью или в бою. Но круто, когда их удаётся предупредить.
💸 Как я чуть не купил Pro за $200
Решил добавить ревью от GPT-5.2 параллельно с Claude Code. Когда Codex заканчивает задачу — вызываю проверку через codex exec --yolo "prompt".
Токены полетели. За час цикличной работы я сжёг 50% недельной подписки Plus. И полез смотреть Pro за $200.
⚡ Решение
Короткая версия — просто джойнимся к последней сессии:
Полная версия с форсированием GPT-5.2 и high reasoning:
Результат: параллельное ревью за Claude Code в двух средних проектах (~30–40k строк) потребляет ~10% недельных лимитов за вечер.
🛠️ Бонус: скрипт для просмотра всех сессий, чтобы джойниться по ID, а не только по --last.
Пользуетесь связкой разных моделей для ревью? Расскажите, как организуете агентов, чтобы получить максимум пользы для работы.
----
Поляков считает — AI, код и кейсы
Спустя месяц после хайпа я попробовал GPT-5.2 в Codex CLI. И офигел.
Модели от Anthropic на её фоне кажутся слепыми щенками. GPT-5.2 реально рассуждает как сеньор, имея своё мнение на каждый кусок вашего кода.
🔍 Что нашла модель за пару дней
🔸 При миграции моего хука безопасности на Go — неожиданные проблемы в обработке JSON
🔸 В пет-проекте с авторизацией — неэффективное создание класса для KeyCloak.
На скриншоте показал, что модель предположила ошибку для смены почты пользователя, это очень глубоко.
🔸 А в третьем проекте — критическую ошибку, которую придумал Opus: один пользователь мог получить доступ к чужой переписке
Конечно, баги дали бы о себе знать на ревью или в бою. Но круто, когда их удаётся предупредить.
💸 Как я чуть не купил Pro за $200
Решил добавить ревью от GPT-5.2 параллельно с Claude Code. Когда Codex заканчивает задачу — вызываю проверку через codex exec --yolo "prompt".
Токены полетели. За час цикличной работы я сжёг 50% недельной подписки Plus. И полез смотреть Pro за $200.
💡 А потом понял: каждый вызов codex exec заново сканирует весь репозиторий. 30–40 тысяч строк кода × несколько вызовов = лимиты в труху.
⚡ Решение
Короткая версия — просто джойнимся к последней сессии:
codex exec resume --last "PROMPT"
Полная версия с форсированием GPT-5.2 и high reasoning:
codex exec --model gpt-5.2 -c model_reasoning_effort='"high"' --yolo resume --last "PROMPT"
🎯 Почему именно gpt-5.2, а не gpt-5.2-codex? Сообщество заметило, что Codex-версии «ленивые и нерешительные», а обычная GPT-5.2 доводит дело до конца. Для ревью — самое то.
Результат: параллельное ревью за Claude Code в двух средних проектах (~30–40k строк) потребляет ~10% недельных лимитов за вечер.
🛠️ Бонус: скрипт для просмотра всех сессий, чтобы джойниться по ID, а не только по --last.
Пользуетесь связкой разных моделей для ревью? Расскажите, как организуете агентов, чтобы получить максимум пользы для работы.
----
Поляков считает — AI, код и кейсы
3👍17❤6🔥6👌1
OpenAI выпустили Codex Desktop, и это совсем не Cowork
Вчера OpenAI представили нативное приложение для macOS. Главная новость: обнулили и удвоили лимиты для всех платных подписчиков и временно открыли доступ даже бесплатным пользователям.
Хорошо, что я не купил подписку за $200.
🎯 Что такое Codex Desktop
Это графический интерфейс для запуска нескольких AI-агентов параллельно. Можно делегировать задачи, которые выполняются до 30 минут без участия человека. Skills, Automations, worktrees — всё как у Claude Code.
По данным OpenAI, за последний месяц Codex использовали больше миллиона разработчиков.
🧪 Мой эксперимент: одна задача, два инструмента
У меня есть убеждение, что кодинг-агенты отлично справляются с офисной рутиной. Решил проверить.
Задача: SEO-шники прислали шаблоны названий товаров по категориям. Нужно применить их к выгрузке из 1С-Битрикс — 80 товаров, 14 категорий. Классический убийца времени офисных сотрудников. С одной стороны для специалиста это минут 30 вместе с чаем, с другой, тратить на это время жалко.
Закинул задачу в оба инструмента. Взял топовые модели: Opus 4.5 для Cowork и GPT-5.2 для Codex.
Результаты:
🔸 Cowork (Opus 4.5): запустил 14 параллельных субагентов — по одному на категорию. Каждый писал в свой JSON, потом собрал в Excel. Время: 96 секунд. Потратил 4% пятичасовых лимитов.
🔸 Codex (GPT-5.2): написал Python-скрипт для генерации заголовков, потом его выполнил. Время: ~20 минут. Потратил 6% удвоенных лимитов.
🤔 К чему я это
Для офисной рутины Codex Desktop — это совсем не Cowork. Разные подходы: Cowork параллелит субагентов и делает работу «руками», Codex пишет код.
Если задача разовая — Cowork выигрывает с огромным отрывом. Если нужен воспроизводимый процесс — подход Codex имеет смысл. Но и заниматься повторяемыми задачами будут менеджеры.
Кстати, Cowork не повёлся на мою идею с лок-файлом — просто сделал отдельные JSON для каждой категории. Простые решения работают лучше.
Попробовать: https://openai.com/codex (macOS, для Windows — вейтлист)
А вы уже тестировали офисные задачи на кодинг-агентах? Какие результаты?
----
Поляков считает — AI, код и кейсы
Вчера OpenAI представили нативное приложение для macOS. Главная новость: обнулили и удвоили лимиты для всех платных подписчиков и временно открыли доступ даже бесплатным пользователям.
Хорошо, что я не купил подписку за $200.
🎯 Что такое Codex Desktop
Это графический интерфейс для запуска нескольких AI-агентов параллельно. Можно делегировать задачи, которые выполняются до 30 минут без участия человека. Skills, Automations, worktrees — всё как у Claude Code.
По данным OpenAI, за последний месяц Codex использовали больше миллиона разработчиков.
💡 Codex запустился как CLI в апреле 2025, потом появился веб-интерфейс. Я подумал, что десктоп-приложение — это ответ на Cowork от Anthropic, но нет, судя по всему просто попытка дать интерфейс, возможно способ конкурировать с Antigravity.
🧪 Мой эксперимент: одна задача, два инструмента
У меня есть убеждение, что кодинг-агенты отлично справляются с офисной рутиной. Решил проверить.
Задача: SEO-шники прислали шаблоны названий товаров по категориям. Нужно применить их к выгрузке из 1С-Битрикс — 80 товаров, 14 категорий. Классический убийца времени офисных сотрудников. С одной стороны для специалиста это минут 30 вместе с чаем, с другой, тратить на это время жалко.
Закинул задачу в оба инструмента. Взял топовые модели: Opus 4.5 для Cowork и GPT-5.2 для Codex.
Результаты:
🔸 Cowork (Opus 4.5): запустил 14 параллельных субагентов — по одному на категорию. Каждый писал в свой JSON, потом собрал в Excel. Время: 96 секунд. Потратил 4% пятичасовых лимитов.
🔸 Codex (GPT-5.2): написал Python-скрипт для генерации заголовков, потом его выполнил. Время: ~20 минут. Потратил 6% удвоенных лимитов.
📊 Разница в скорости — в 12 раз. При этом Codex создал переиспользуемый скрипт, а Cowork просто решил задачу.
🤔 К чему я это
Для офисной рутины Codex Desktop — это совсем не Cowork. Разные подходы: Cowork параллелит субагентов и делает работу «руками», Codex пишет код.
Если задача разовая — Cowork выигрывает с огромным отрывом. Если нужен воспроизводимый процесс — подход Codex имеет смысл. Но и заниматься повторяемыми задачами будут менеджеры.
Кстати, Cowork не повёлся на мою идею с лок-файлом — просто сделал отдельные JSON для каждой категории. Простые решения работают лучше.
Попробовать: https://openai.com/codex (macOS, для Windows — вейтлист)
А вы уже тестировали офисные задачи на кодинг-агентах? Какие результаты?
----
Поляков считает — AI, код и кейсы
3🔥13👍6❤4
Один ИИ хорошо, а два — продакшен
Уже несколько недель во всех профильных ИИ-чатах одна тема: Claude отупел. На GitHub десятки issues — «performance degradation», «it's both slower and dumber», «feels NERFED». Пользователи описывают лотерею: иногда хороший Claude, иногда — стажёр, который забывает инструкции и врёт, что всё сделал.
Мне нравится Claude Code, метаться между инструментами не хочу. Но Opus 4.5 стал непригодным для продуктовой работы. Окей, у меня есть подписка ChatGPT Plus за $20 и смекалка.
🛠️ Скилл: Codex ревьюит планы Claude
Написал навык для Claude Code, который отправляет планы и код на ревью в OpenAI Codex. Схема:
🔸 Claude пишет план → отправляет в Codex
🔸 Codex возвращает замечания или APPROVED
🔸 Claude дорабатывает → снова на ревью
🔸 До 3 итераций, пока не пройдёт
На скриншотах реальный кейс: Codex нашёл проблемы безопасности в WebSocket-соединениях — race condition, отсутствие привязки токена к сессии, баг с реконнектом. Claude принял замечания, переработал архитектуру. Итог: 190 тестов, код чистый, ревью пройдено.
💰 Экономика
Токенов при ревью Codex жрёт немного — хватает на 3 пет-проекта параллельно на базовой подписке Plus за $20/мес. Вчера OpenAI ещё и удвоил лимиты для всех платных планов.
⚙️ Как настроить
1️⃣ Поставить скилл с GitHub — в README инструкция по настройке директорий и permissions
2️⃣ Обсудить проект с Codex, чтобы он изучил кодовую базу
3️⃣ Скопировать ID сессии (как получить или из нового приложения Codex)
4️⃣ Работать в Claude Code с пометкой «используй кодекс ревью»
Важно: не давайте навыку инициализировать сессию самому — лучше подготовьте контекст в Codex вручную.
💡 Как посмотреть о чем болтали агенты
Новое приложение Codex для macOS позволяет скопировать данные сессии, но чтобы увидеть свежую переписку, приходится перезапускать приложение. Удобнее через Agent Deck — достаточно нажать Shift+R на сессии в списке, и диалог подтянется сразу.
Какие мультиагентные связки используете вы?
----
Поляков считает — AI, код и кейсы
Уже несколько недель во всех профильных ИИ-чатах одна тема: Claude отупел. На GitHub десятки issues — «performance degradation», «it's both slower and dumber», «feels NERFED». Пользователи описывают лотерею: иногда хороший Claude, иногда — стажёр, который забывает инструкции и врёт, что всё сделал.
Мне нравится Claude Code, метаться между инструментами не хочу. Но Opus 4.5 стал непригодным для продуктовой работы. Окей, у меня есть подписка ChatGPT Plus за $20 и смекалка.
🛠️ Скилл: Codex ревьюит планы Claude
Написал навык для Claude Code, который отправляет планы и код на ревью в OpenAI Codex. Схема:
🔸 Claude пишет план → отправляет в Codex
🔸 Codex возвращает замечания или APPROVED
🔸 Claude дорабатывает → снова на ревью
🔸 До 3 итераций, пока не пройдёт
На скриншотах реальный кейс: Codex нашёл проблемы безопасности в WebSocket-соединениях — race condition, отсутствие привязки токена к сессии, баг с реконнектом. Claude принял замечания, переработал архитектуру. Итог: 190 тестов, код чистый, ревью пройдено.
💡 Паттерн «senior review»: одна модель пишет, другая проверяет. Работает, даже когда «писатель» не в форме — ревьюер ловит ошибки. Подозреваю, что связка сработает даже с Claude Sonnet вместо Opus.
💰 Экономика
Токенов при ревью Codex жрёт немного — хватает на 3 пет-проекта параллельно на базовой подписке Plus за $20/мес. Вчера OpenAI ещё и удвоил лимиты для всех платных планов.
⚙️ Как настроить
1️⃣ Поставить скилл с GitHub — в README инструкция по настройке директорий и permissions
2️⃣ Обсудить проект с Codex, чтобы он изучил кодовую базу
3️⃣ Скопировать ID сессии (как получить или из нового приложения Codex)
4️⃣ Работать в Claude Code с пометкой «используй кодекс ревью»
Важно: не давайте навыку инициализировать сессию самому — лучше подготовьте контекст в Codex вручную.
💡 Как посмотреть о чем болтали агенты
Новое приложение Codex для macOS позволяет скопировать данные сессии, но чтобы увидеть свежую переписку, приходится перезапускать приложение. Удобнее через Agent Deck — достаточно нажать Shift+R на сессии в списке, и диалог подтянется сразу.
Какие мультиагентные связки используете вы?
----
Поляков считает — AI, код и кейсы
2👍16🔥9❤5
Forwarded from NGI | Влад Корнышев про AI и создание AI-продуктов
Готовим сейчас мощную бизнесовую конфу по AI
Концепт простой: будем показывать и рассказывать про то, что реально работает в индустрии, на что обратить внимание, а что пропустить, где выше ROI, а где можно получить нефинансовую выгоду. Будем разбирать архитектуру, юнит-экономику и P&L, без историй про то, как кто-то написал промпты и стал х10 продуктивен.
Подробный анонс в канал сделаю уже скоро. Сейчас оформляем окончательный лайнап и ведем подготовку ивента, уже собрали много крутых спикеров (бывшие топы и фаундеры работающие в индустрии годами). Но есть еще несколько вакантных мест.
Поэтому хочу спросить у вас: Кого из авторов Telegram-каналов про AI вы читаете и хотели бы услышать что-то про внутреннюю кухню, фреймворки, кейсы и лайвхаки? Интересуют именно практики с реальным опытом.
Кидайте ссылки на каналы или юзернеймы в комменты к этому посту. Наиболее интересных авторов постараемся затащить.
🚀 Влад Корнышев про AI и создание AI-продуктов
Концепт простой: будем показывать и рассказывать про то, что реально работает в индустрии, на что обратить внимание, а что пропустить, где выше ROI, а где можно получить нефинансовую выгоду. Будем разбирать архитектуру, юнит-экономику и P&L, без историй про то, как кто-то написал промпты и стал х10 продуктивен.
Подробный анонс в канал сделаю уже скоро. Сейчас оформляем окончательный лайнап и ведем подготовку ивента, уже собрали много крутых спикеров (бывшие топы и фаундеры работающие в индустрии годами). Но есть еще несколько вакантных мест.
Поэтому хочу спросить у вас: Кого из авторов Telegram-каналов про AI вы читаете и хотели бы услышать что-то про внутреннюю кухню, фреймворки, кейсы и лайвхаки? Интересуют именно практики с реальным опытом.
Кидайте ссылки на каналы или юзернеймы в комменты к этому посту. Наиболее интересных авторов постараемся затащить.
🚀 Влад Корнышев про AI и создание AI-продуктов
❤4🔥2
Claude Code теперь ставит вам оценку за поведение. Но считает плохо
В Claude Code появилась команда
Я запустил. Получил персональный перфоманс-ревью от ИИ. А потом полез в GitHub Issues.
📊 Что обо мне «узнал» Claude
За месяц: 2 557 сессий, 13 695 сообщений, 1 521 коммит. Claude назвал мой стиль «high-delegation debugging» — кидаю проблему и ухожу пить кофе.
Главная цифра: из 315 проанализированных сессий только 1 достигла цели полностью. 198 — «частично достигнуты».
Логи искажены январскими тестами автопилотных режимов. Но единичка всё равно выглядит унизительно.
🐛 А теперь — баги
На GitHub уже куча тикетов с проблемами:
🔸
🔸 Метрики в отчёте не совпадают с реальными: у другого пользователя сессии завышены в 10 раз, сообщения занижены втрое
🔸 Вызовы инструментов Claude приписывает вам. «Ваши 96 000 вызовов Bash» — это не ваши, это Claude столько раз запускал bash
🔸 Типы проектов определяются по прочитанным файлам, а не по написанным — Arduino-разработчик получил метку «Web Documentation»
🎯 Что всё-таки полезного
Несмотря на баги, отчёт предложил конкретные вещи, которые я внедрил:
🔸 Кастомный скилл
🔸 Хук для автозапуска линтера после редактирования
🔸 Правило в
Последнее — боль. Claude регулярно придумывает несуществующие команды с абсолютной уверенностью.
🔧 Как работает
Логи из
Запускайте и делитесь результатами — интересно сравнить. Только к цифрам пока относитесь как к первому черновику: направление верное, детали подтянут.
----
Поляков считает — AI, код и кейсы
В Claude Code появилась команда
/insights — анализирует ваши сессии и генерирует HTML-отчёт: как вы работаете, где буксуете и что делаете не так.Я запустил. Получил персональный перфоманс-ревью от ИИ. А потом полез в GitHub Issues.
📊 Что обо мне «узнал» Claude
За месяц: 2 557 сессий, 13 695 сообщений, 1 521 коммит. Claude назвал мой стиль «high-delegation debugging» — кидаю проблему и ухожу пить кофе.
Главная цифра: из 315 проанализированных сессий только 1 достигла цели полностью. 198 — «частично достигнуты».
Логи искажены январскими тестами автопилотных режимов. Но единичка всё равно выглядит унизительно.
🐛 А теперь — баги
На GitHub уже куча тикетов с проблемами:
🔸
/insights анализирует 3 сессии из тысяч и экстраполирует выводы. У одного пользователя 2 912 сессий — проанализировано 3 (0,1%)🔸 Метрики в отчёте не совпадают с реальными: у другого пользователя сессии завышены в 10 раз, сообщения занижены втрое
🔸 Вызовы инструментов Claude приписывает вам. «Ваши 96 000 вызовов Bash» — это не ваши, это Claude столько раз запускал bash
🔸 Типы проектов определяются по прочитанным файлам, а не по написанным — Arduino-разработчик получил метку «Web Documentation»
💡 Инструмент дружелюбный и многословный. Но пока это скорее интересная игрушка, чем точная аналитика. Относитесь к цифрам скептически, а вот рекомендации по скиллам и хукам — реально полезные.
🎯 Что всё-таки полезного
Несмотря на баги, отчёт предложил конкретные вещи, которые я внедрил:
🔸 Кастомный скилл
/debug с приоритетом: логи → curl → только потом лезть в код🔸 Хук для автозапуска линтера после редактирования
🔸 Правило в
CLAUDE.md: «Проверяй CLI-команды через --help перед тем, как предлагать». Забрал!Последнее — боль. Claude регулярно придумывает несуществующие команды с абсолютной уверенностью.
🔧 Как работает
Логи из
~/.claude/projects/ прогоняются через Haiku — дёшево и быстро. Фасеты кешируются. Всё локально, никуда не отправляется. Запуск: /insights в Claude Code, отчёт в ~/.claude/usage-data/report.html.Запускайте и делитесь результатами — интересно сравнить. Только к цифрам пока относитесь как к первому черновику: направление верное, детали подтянут.
----
Поляков считает — AI, код и кейсы
2❤4👍3🔥2😁1💩1
Opus 4.6: первые впечатления от того, кто уже сломал agent teams
Anthropic с третьей попытки (если верить слухам) выкатили Opus 4.6. Протестировал на реальных задачах, собрал грабли — делюсь.
🧠 Что нового в цифрах / бенчмаркетинг
Terminal-Bench 2.0 (агентный кодинг): 65,4% — первое место, но GPT-5.2-codex дышит в спину с 64,7%. На GDPval-AA (финансы, юриспруденция) разрыв серьёзнее: +144 Elo над GPT-5.2, побеждает в 70% случаев.
Контекстное окно выросло до 1М токенов (бета) — в 5 раз больше Opus 4.5. На тесте «иголка в стоге сена» (MRCR v2) — 76% против 18,5% у Sonnet 4.5. Но кому нужно такое контекстное окно, если работа с ним будет дорогой.
Цена не изменилась: $5/$25 за миллион токенов.
🔧 Что реально изменилось в работе
1️⃣ Генерация баннеров для Авито через
2️⃣ Пересборка проекта с агентами ElevenLabs. Задача, к которой не хотелось подступаться — даже с ИИ-кодингом это не один день. Включил agent teams, и за 60 минут проект пересобран (1. со второй попытки, 2. e2e тестов не было, 3. возможно что из функциоонала проходят только тесты ).
⚠️ Грабли, на которые я уже наступил
🔸 Agent teams работают на tmux → внутри tmux запускаются с ошибками. В Agent Deck рой не запустить.
🔸 Если написать тиммейту, пока его тормозит тимлид — вы в потерянном терминале. Убивайте сессию и продолжайте через resume.
🔸 Extended thinking жрёт токены со страшной силой. Проценты 5-часовых лимитов растут каждые 10 секунд. Для простых задач переключайте усилие на medium.
🔸 На Reddit уже посты «Opus 4.6 lobotomized» — жалуются на деградацию текстов при улучшении кодинга. Пока не подтверждаю, но имейте в виду.
🎁 $50 на попробовать
Anthropic раздаёт $50 кредита подписчикам Pro и Max. Условия: подписка оформлена до 4 февраля, забрать до 16 февраля. Settings → Usage → включаете Extra Usage — кредит применится автоматически. Тратить можно на Claude, Claude Code и Cowork. Сгорает через 60 дней.
Какую модель используете для кодинга — и замечали разницу между 4.5 и 4.6?
----
Поляков считает — AI, код и кейсы
Anthropic с третьей попытки (если верить слухам) выкатили Opus 4.6. Протестировал на реальных задачах, собрал грабли — делюсь.
🧠 Что нового в цифрах / бенчмаркетинг
Terminal-Bench 2.0 (агентный кодинг): 65,4% — первое место, но GPT-5.2-codex дышит в спину с 64,7%. На GDPval-AA (финансы, юриспруденция) разрыв серьёзнее: +144 Elo над GPT-5.2, побеждает в 70% случаев.
Контекстное окно выросло до 1М токенов (бета) — в 5 раз больше Opus 4.5. На тесте «иголка в стоге сена» (MRCR v2) — 76% против 18,5% у Sonnet 4.5. Но кому нужно такое контекстное окно, если работа с ним будет дорогой.
Цена не изменилась: $5/$25 за миллион токенов.
🔧 Что реально изменилось в работе
1️⃣ Генерация баннеров для Авито через
fal.ai. У меня есть скилл для этого. Обычно из шести вариантов нормальные два. Opus 4.6 подумал и выдал все шесть годными.2️⃣ Пересборка проекта с агентами ElevenLabs. Задача, к которой не хотелось подступаться — даже с ИИ-кодингом это не один день. Включил agent teams, и за 60 минут проект пересобран (
💡 Agent teams — рой агентов в Claude Code. Один сеанс становится тимлидом, остальные работают параллельно в своих контекстных окнах.
⚠️ Грабли, на которые я уже наступил
🔸 Agent teams работают на tmux → внутри tmux запускаются с ошибками. В Agent Deck рой не запустить.
🔸 Если написать тиммейту, пока его тормозит тимлид — вы в потерянном терминале. Убивайте сессию и продолжайте через resume.
🔸 Extended thinking жрёт токены со страшной силой. Проценты 5-часовых лимитов растут каждые 10 секунд. Для простых задач переключайте усилие на medium.
🔸 На Reddit уже посты «Opus 4.6 lobotomized» — жалуются на деградацию текстов при улучшении кодинга. Пока не подтверждаю, но имейте в виду.
🎁 $50 на попробовать
Anthropic раздаёт $50 кредита подписчикам Pro и Max. Условия: подписка оформлена до 4 февраля, забрать до 16 февраля. Settings → Usage → включаете Extra Usage — кредит применится автоматически. Тратить можно на Claude, Claude Code и Cowork. Сгорает через 60 дней.
⚡ Claude Code теперь пишет в persistent memory краткое изложение
CLAUDE.md— похоже, фикс бага с одноразовым прочтением при инициализации. Память пишется и читается постоянно. Возможно, стоит придумать скилл для инъекций в неё при крупных сессиях.
Какую модель используете для кодинга — и замечали разницу между 4.5 и 4.6?
----
Поляков считает — AI, код и кейсы
2👍5❤4🔥2
Claude Cowork падает при старте? Починка за 5 минут
Мне нравится Cowork: даёшь задачу, уходишь пить кофе, возвращаешься к результату. Если не брать в расчет, что не хватает многооконного режима, то есть лишь один нюанс: он регулярно ломается.
Классический симптом — при запуске вылетает:
Failed to start Claude's workspace
Your network traffic may be routing through a VPN...
VPN при этом может быть выключен. Перезапуск Claude и перезагрузка Mac не помогают. За две недели после релиза меня это задолбало. Решил разобраться как чинить.
🔍 Почему ломается
Cowork крутится в виртуальной машине на базе Apple Virtualization.framework. При обновлении Claude образ ОС внутри VM может повредиться — пропадают библиотеки, ломаются зависимости.
На GitHub у Anthropic десятки открытых issues:
• битые образы после апдейтов,
• конфликты с VPN,
• зависания на «Sending request...».
🛠️ Суть решения: пересадка мозгов
1️⃣ Бекапим старую VM
2️⃣ Удаляем её, запускаем Claude — он скачивает свежий образ
3️⃣ Подменяем чистый sessiondata.img на старый
4️⃣ Запускаем — всё работает, все сессии на месте
Раньше я просто убивал VM целиком и терял данные. Оказалось, можно сохранить всё.
⚡ Быстрый фикс (если повезёт)
Иногда виноват зависший процесс гипервизора. Проверьте:
Висит с высоким CPU — kill -9 <PID>, перезапускаем Claude. Не помогло — полный гайд по ссылке ниже.
📎 Полный гайд с командами:
https://telegra.ph/Claude-Cowork-VM--pochinka-pri-padenii-starta-02-06
Если вы пользуетесь Cowork и сталкивались с подобным — расскажите в комментариях, как решали. Может, у кого-то есть способ проще.
----
Поляков считает — AI, код и кейсы
Мне нравится Cowork: даёшь задачу, уходишь пить кофе, возвращаешься к результату. Если не брать в расчет, что не хватает многооконного режима, то есть лишь один нюанс: он регулярно ломается.
Классический симптом — при запуске вылетает:
Failed to start Claude's workspace
Your network traffic may be routing through a VPN...
VPN при этом может быть выключен. Перезапуск Claude и перезагрузка Mac не помогают. За две недели после релиза меня это задолбало. Решил разобраться как чинить.
🔍 Почему ломается
Cowork крутится в виртуальной машине на базе Apple Virtualization.framework. При обновлении Claude образ ОС внутри VM может повредиться — пропадают библиотеки, ломаются зависимости.
На GitHub у Anthropic десятки открытых issues:
• битые образы после апдейтов,
• конфликты с VPN,
• зависания на «Sending request...».
💡 Ключевой инсайт: данные ваших сессий хранятся отдельно от образа ОС. Файл `sessiondata.img` (~120 МБ) — это ваш workspace. А `rootfs.img` (~10 ГБ) — это «мозги», которые легко пересадить.
🛠️ Суть решения: пересадка мозгов
1️⃣ Бекапим старую VM
2️⃣ Удаляем её, запускаем Claude — он скачивает свежий образ
3️⃣ Подменяем чистый sessiondata.img на старый
4️⃣ Запускаем — всё работает, все сессии на месте
Раньше я просто убивал VM целиком и терял данные. Оказалось, можно сохранить всё.
⚡ Быстрый фикс (если повезёт)
Иногда виноват зависший процесс гипервизора. Проверьте:
ps aux | grep "Virtualization.VirtualMachine"
Висит с высоким CPU — kill -9 <PID>, перезапускаем Claude. Не помогло — полный гайд по ссылке ниже.
📎 Полный гайд с командами:
https://telegra.ph/Claude-Cowork-VM--pochinka-pri-padenii-starta-02-06
Если вы пользуетесь Cowork и сталкивались с подобным — расскажите в комментариях, как решали. Может, у кого-то есть способ проще.
----
Поляков считает — AI, код и кейсы
1👍9❤1😁1👌1
Об авторе: кто такой Поляков и зачем он считает
Меня зовут Александр Поляков. Помогаю бизнесу внедрять ИИ — от первых экспериментов до работающих систем в продакшене.
🤖 Чем занимаюсь
Консультирую по AI-трансформации: аудит процессов, выбор технологий, запуск пилотов. Строю RAG-базы знаний, агентные воркфлоу, автоматизации на LLM, обучаю команды.
У меня рекламное агентство и веб-студия, где ИИ уже встроен в процессы — от автоматической обработки минус-фраз в Директе до ревью договоров через Claude Code.
За плечами почти 20 лет в ИТ, 10+ лет в программировании (Python, Kotlin, Swift, C++). Многие решения проектирую и пишу сам.
🎓 Бэкграунд
Первое высшее — электрооборудование летательных аппаратов, ТулГУ. Магистерская про систему наведения ракеты. Не совсем AI, но я люблю говорить, что это был мой первый self-driving проект.
💼 С чем ко мне можно обратиться
🔸 Внедрение ИИ в бизнес — LLM-ассистенты, RAG-системы, агентные автоматизации, обучение команд
🔸 Автоматизация рутины — документы, аналитика, отчёты, всё, что отнимает часы и поддаётся алгоритмизации
🔸 Рекламные кампании — Яндекс.Директ, ВК, аналитика, когда реклама работает непредсказуемо
👨👩👧👦 Личное
Живу в Москве с женой Дашей — она тренирует команды по внедрению ИИ в рабочие задачи. В августе 2025 стали родителями.
Сложные настолки, сноуборд, фрирайд. Читаю каждый день больше 2 000 дней подряд.
🔗 Контакты
🤖 Про ИИ: ohmyai.ru
🤩 Про рекламу: aaarrr.agency
👋 Написать лично: @polyakovbest
P.S. Год назад я уже писал пост-знакомство, но Даша справедливо заметила, что по нему непонятно — ко мне можно прийти за ИИ или только за рекламой. Исправился.
----
Поляков считает — AI, код и кейсы
Меня зовут Александр Поляков. Помогаю бизнесу внедрять ИИ — от первых экспериментов до работающих систем в продакшене.
🤖 Чем занимаюсь
Консультирую по AI-трансформации: аудит процессов, выбор технологий, запуск пилотов. Строю RAG-базы знаний, агентные воркфлоу, автоматизации на LLM, обучаю команды.
У меня рекламное агентство и веб-студия, где ИИ уже встроен в процессы — от автоматической обработки минус-фраз в Директе до ревью договоров через Claude Code.
За плечами почти 20 лет в ИТ, 10+ лет в программировании (Python, Kotlin, Swift, C++). Многие решения проектирую и пишу сам.
🎓 Бэкграунд
Первое высшее — электрооборудование летательных аппаратов, ТулГУ. Магистерская про систему наведения ракеты. Не совсем AI, но я люблю говорить, что это был мой первый self-driving проект.
💼 С чем ко мне можно обратиться
🔸 Внедрение ИИ в бизнес — LLM-ассистенты, RAG-системы, агентные автоматизации, обучение команд
🔸 Автоматизация рутины — документы, аналитика, отчёты, всё, что отнимает часы и поддаётся алгоритмизации
🔸 Рекламные кампании — Яндекс.Директ, ВК, аналитика, когда реклама работает непредсказуемо
👨👩👧👦 Личное
Живу в Москве с женой Дашей — она тренирует команды по внедрению ИИ в рабочие задачи. В августе 2025 стали родителями.
Сложные настолки, сноуборд, фрирайд. Читаю каждый день больше 2 000 дней подряд.
🔗 Контакты
🤖 Про ИИ: ohmyai.ru
🤩 Про рекламу: aaarrr.agency
👋 Написать лично: @polyakovbest
P.S. Год назад я уже писал пост-знакомство, но Даша справедливо заметила, что по нему непонятно — ко мне можно прийти за ИИ или только за рекламой. Исправился.
----
Поляков считает — AI, код и кейсы
6❤11👍9🔥7
Поляков считает: AI, код и кейсы pinned «Об авторе: кто такой Поляков и зачем он считает Меня зовут Александр Поляков. Помогаю бизнесу внедрять ИИ — от первых экспериментов до работающих систем в продакшене. 🤖 Чем занимаюсь Консультирую по AI-трансформации: аудит процессов, выбор технологий, запуск…»
Перестал описывать правки текстом — сделал GUI для скиллов
Некоторые скиллы Claude Code неудобно использовать текстом. Мой навык для картинок — как раз такой: чтобы поправить область на изображении, нужно описать словами что и где менять. «Убери фон в правом верхнем углу» — и молишься, что модель поймёт правильно.
А хочется просто обвести мышкой и написать комментарий.
Помните скилл Playground от Anthropic? Он как раз про это — оборачивает навыки в HTML-интерфейс. Но на практике: UI только на английском, CORS блокирует запросы к API, и вместо рабочего инструмента получаешь прослойку для копирования промптов.
Написал свой промпт, который это чинит.
⚙️ Как работает
Говоришь
Всё агент разбирает скрипты навыка, находит эндпоинты и ключи, задаёт уточняющие вопросы и собирает три файла:
🔸 HTML-интерфейс (русский или английский на выбор)
🔸 Python-прокси для обхода CORS
🔸 скрипт
Запускаешь скрипт — браузер открывается, всё работает.
🖼 Демо:
Натравил промпт на свой навык генерации изображений. Получил редактор: drag & drop, рисование областей на canvas, прогресс генерации и история результатов — клик по миниатюре загружает её как новый исходник.
Вместо «сгенерируй → Finder → посмотри → терминал» — всё в одном окне.
🧠 Проблемы, которые промпт обходит сам
При сборке интерфейса для API натыкаешься на одни и те же ошибки: браузер блокирует запросы, файлы не подгружаются, API отвечает ошибками. Каждая мелочь — минус полчаса. Промпт знает про них заранее и генерирует код, который сразу работает.
А раз крутится сервер — можно прямо из интерфейса вызывать Claude Code. Нажал «Спросить Claude» → получил анализ → итерируешь дальше, не переключаясь в терминал.
🔗 Забирайте
Промпт: playground-builder.md
Работает с Claude Code, просто сошлитесь на инструкцию при формулировке задачи.
А какие задачи вам неудобно решать текстом? Может, им тоже нужен интерфейс.
----
Поляков считает — AI, код и кейсы
Некоторые скиллы Claude Code неудобно использовать текстом. Мой навык для картинок — как раз такой: чтобы поправить область на изображении, нужно описать словами что и где менять. «Убери фон в правом верхнем углу» — и молишься, что модель поймёт правильно.
А хочется просто обвести мышкой и написать комментарий.
Помните скилл Playground от Anthropic? Он как раз про это — оборачивает навыки в HTML-интерфейс. Но на практике: UI только на английском, CORS блокирует запросы к API, и вместо рабочего инструмента получаешь прослойку для копирования промптов.
Написал свой промпт, который это чинит.
⚙️ Как работает
Говоришь
/playground Сделай интерфейс для [скилл]
инструкция тут [ссылка на промпт из этого поста]
Всё агент разбирает скрипты навыка, находит эндпоинты и ключи, задаёт уточняющие вопросы и собирает три файла:
🔸 HTML-интерфейс (русский или английский на выбор)
🔸 Python-прокси для обхода CORS
🔸 скрипт
start.sh для запуска одной командойЗапускаешь скрипт — браузер открывается, всё работает.
🖼 Демо:
fal.ai скилл для картинокНатравил промпт на свой навык генерации изображений. Получил редактор: drag & drop, рисование областей на canvas, прогресс генерации и история результатов — клик по миниатюре загружает её как новый исходник.
Вместо «сгенерируй → Finder → посмотри → терминал» — всё в одном окне.
🧠 Проблемы, которые промпт обходит сам
При сборке интерфейса для API натыкаешься на одни и те же ошибки: браузер блокирует запросы, файлы не подгружаются, API отвечает ошибками. Каждая мелочь — минус полчаса. Промпт знает про них заранее и генерирует код, который сразу работает.
А раз крутится сервер — можно прямо из интерфейса вызывать Claude Code. Нажал «Спросить Claude» → получил анализ → итерируешь дальше, не переключаясь в терминал.
🔗 Забирайте
Промпт: playground-builder.md
Работает с Claude Code, просто сошлитесь на инструкцию при формулировке задачи.
А какие задачи вам неудобно решать текстом? Может, им тоже нужен интерфейс.
----
Поляков считает — AI, код и кейсы
🔥12👍5❤4