Поляков считает: AI, код и кейсы
4.22K subscribers
317 photos
98 videos
199 links
Пишу про AI, вайбкодинг и кейсы применения. Связаться: @polyakovbest
Download Telegram
UI за 30 минут: как не-дизайнер делает интерфейсы в 2026 году

Раньше я заказывал дизайн у специальных людей. Они требовали детальное ТЗ, рисовали его 3 недели, возвращались с правками. В 2026 году всё изменилось.

Покажу на живом примере. Допустим хотим UI для голосового агента. Сейчас у нас стандартный компонент ElevenLabs — серый интерфейс с невзрачным кружком. Работает, но выглядит как MVP из 2019 года. Хочется сделать его красивее.

🔍 Шаг 1: Референсы за 5 минут

Открываю Mobbin — библиотеку из 100 000+ скриншотов реальных приложений. Даша, спасибо за наводку. Вбиваю в поиск conversation call and chat.

Нахожу примеры интерфейсов чатов и голосовых ассистентов. Скачиваю 1-2 референса, которые цепляют визуально.

💡 Главный инсайт: референсы важнее промптов. AI-инструменты в дизайне UI уже отлично понимают картинки, но плохо — абстрактные описания вроде «сделай красиво». То есть либо скриншоты, либо описываете констрейты текстом.


🤖 Шаг 2: Описание текущего состояния

Прежде чем просить новый дизайн, нужно зафиксировать что есть. Открываю Claude Code и прошу:


Я хочу попросить обновление дизайна у разработчиков на React.
Нужна спецификация: какие элементы есть, что они содержат, чтобы сохранить логику фронтенда.

Можешь описать что сейчас в интерфейсе?
Ответ положи в UI.md


Получаю структурированный текст: список компонентов, их состояния, свойства. Это критически важно — новый дизайн должен сохранить всю функциональность.

Шаг 3: Параллельный запуск AI-агентов для дизайна

Открываю сразу три инструмента:
🔸 Lovable
🔸 Google Antigravity с Gemini Pro
🔸 Figma Make

В каждый загружаю референсы + описание компонентов + промпт:


Есть задача обновить UI компонент ведения диалога,
который уже существует на сервере.

Требования:
- Тёмная тема
- Красивые шрифты
- Блок с диалогами справа на всю высоту для десктопа
- Индикатор голосового ассистента с волнами звука,
с динамикой
- На мобильных: Chat First, индикатор голоса небольшой
где-то вверху страницы

Текущий набор компонентов:
{{СОДЕРЖИМОЕ README}}

Референсы дизайна приложил. Не обращай внимания
что один чёрный, другой белый — верь моим указаниям.


⏱️ Шаг 4: Ждём 2-3 минуты

Результаты очень разные. Конкретно сейчас так:

Lovable — победитель. Сгенерировал красивый интерфейс с анимированными волнами.

Figma Make — неплохо, но Lovable показался интереснее.

Google Antigravity с Gemini Pro — сгенерировал что-то странное. В других проектах он показывал отличные результаты.

💡 Вывод: полезно запускать сразу несколько инструментов параллельно. Результаты непредсказуемы, качество зависит от типа задачи. Один из них точно попадёт.


🚀 Шаг 5: Перенос в проект

Выгружаю результат Lovable в GitHub (там есть кнопка), клонирую локально. Открываю новую сессию Claude Code:

/add-dir {{Путь к lovable-export}}


Перенеси компоненты из lovable-export в основной проект.
Сохрани существующую логику, замени только визуальную часть.


Claude Code сам разберётся какие файлы куда переносить и как адаптировать импорты.

Готово

30 минут от идеи до работающего интерфейса. Без дизайнера, без ТЗ на 10 страниц, без трёх недель ожидания.

💰 Смета эксперимента

🔸 Mobbin — $15/мес (опционально, можно искать референсы в Dribbble бесплатно)
🔸 Lovable — $20/мес (но может хватить и бесплатного тарифа)
🔸 Google Antigravity — $20/мес
🔸 Claude Code — $200/мес (Claude Max, но хватит и версии за $20)

Если у вас уже есть Claude — дополнительные расходы $55. Только подумайте, даже с комиссией помогаторов с Авито — это около 5-6 тысяч рублей. А сколько вы платите дизайнеру?

🧠 Мысли по итогам

1️⃣ Скриншоты лучше тысячи слов.

2️⃣ Фиксируйте текущее состояние до старта.

3️⃣ Запускайте параллельно. Результаты непредсказуемые, это казино.

5️⃣ Интеграция в порект отдельно. С бекендом только Антигравити хоршо справится.

А вы уже пробовали вайб-кодить интерфейсы? Какие инструменты зашли? Делитесь в комментариях — интересно сравнить опыт.

----

Поляков считает — AI, код и кейсы
3🔥3915🥰2
От текста к интерфейсу: новый скилл Claude Code

Anthropic добавили скилл Playground — теперь вместо угрюмых markdown-файлов Claude Code генерирует интерактивные HTML-демки. Ну и да, использовать скилл можно хоть в Cursor, хоть со сторонними моделями.

🧪 Что попробовал

Попросил Claude Code предложить правки к CLAUDE.md одного проекта в интерактивном формате. Получил HTML-страницу с набором предложений, где каждое можно accept/decline одной кнопкой. Отмечаешь нужное → Claude применяет.

Вместо чтения простыни текста и корректировок буквами — визуальный чеклист. Это действительно может быть удобным для обсуждения сложных планов, где важно вносить правки атомарно к нужным фичам.

🔧 Где ещё пригодится

🔸 Настройка дизайна — крутишь слайдеры (цвета, отступы, тени), видишь превью, получаешь промпт с финальными значениями, который можно воплотить.

🔸 Построение SQL-запросов — собираешь запрос через интерфейс, проверяешь результат. Сомнительный скилл.

🔸 Ревью PR — построчные комментарии с кнопками approve/reject

🔸 Карта кодовой базы — визуализация архитектуры проекта

📦 Как установить


/plugin install playground@claude-plugins-official


Репозиторий: github.com/anthropics/claude-plugins-official

🚀 Мне понравилось то, насколько лаконично объявлен навык и шаблоны. Явно старались экономить токены.


⚠️ Минус символический: интерфейс генерируется на английском. Русский надо просить отдельно.

А вы как предпочитаете получать результат от агентов — текстом или интерфейсом?

----

Поляков считает — AI, код и кейсы
7🔥105
Шер-парад января 2026: топ-3 постов по сохранениям

В январе я пересмотрел подход к каналу. Раньше писал про громкие релизы и новости ИИ. Теперь фокус другой — делать контент, который хочется сохранить себе, возможно переслать коллеге.

Поэтому главная метрика — процент шеринга от просмотров. Не лайки, не комментарии, а именно «унесли себе».

🥉 Третье место: промпт для интервью от разработчика Claude Code

Пост про AskUserQuestionTool — как заставить ИИ задавать вопросы-вопросы-вопросы вместо додумываний и догадок.

203 шера на 1 600 просмотров — 12%

💡 Для себя сделал вывод: полезные команды и промпты заходят. Буду публиковать больше таких находок.


🥈 Второе место: UI за 30 минут без дизайнера

Пост про параллельный запуск Lovable, Antigravity и Figma Make для генерации интерфейсов.

127 шеров на 674 просмотра — 18%

Абсолютные цифры скромные, но конверсия в шеринг высокая. Тема автоматизации дизайна явно интересна аудитории канала.

🥇 Первое место: Claude + Вордстат

Скилл для анализа спроса через API Яндекса — почти 20% шеринга.

706 шеров на 3 600 просмотров.

Это рекорд канала. Видимо, люди давно ждали такой инструмент.

🔮 Что дальше

Раз скиллы для Claude зашли — буду развивать направление:

🔸 Навык для аудита рекламных кампаний через Excel-выгрузки
🔸 Генератор тактики рекламирования
🔸 Связка с моим сервисом разметки трафика через API
🔸 Совсем скоро принесу прикольный скил для работы с картинками.

Спасибо, что читаете и шерите. Это буквально формирует мой контент-план.

Какие темы хотите видеть чаще — автоматизация рекламы, вайб-кодинг или что-то ещё?

----

Поляков считает — AI, код и кейсы
420🔥14👍5
Как не купить подписку за $200: лайфхак для Codex CLI

Спустя месяц после хайпа я попробовал GPT-5.2 в Codex CLI. И офигел.

Модели от Anthropic на её фоне кажутся слепыми щенками. GPT-5.2 реально рассуждает как сеньор, имея своё мнение на каждый кусок вашего кода.

🔍 Что нашла модель за пару дней

🔸 При миграции моего хука безопасности на Go — неожиданные проблемы в обработке JSON
🔸 В пет-проекте с авторизацией — неэффективное создание класса для KeyCloak.

На скриншоте показал, что модель предположила ошибку для смены почты пользователя, это очень глубоко.

🔸 А в третьем проекте — критическую ошибку, которую придумал Opus: один пользователь мог получить доступ к чужой переписке

Конечно, баги дали бы о себе знать на ревью или в бою. Но круто, когда их удаётся предупредить.

💸 Как я чуть не купил Pro за $200

Решил добавить ревью от GPT-5.2 параллельно с Claude Code. Когда Codex заканчивает задачу — вызываю проверку через codex exec --yolo "prompt".

Токены полетели. За час цикличной работы я сжёг 50% недельной подписки Plus. И полез смотреть Pro за $200.

💡 А потом понял: каждый вызов codex exec заново сканирует весь репозиторий. 30–40 тысяч строк кода × несколько вызовов = лимиты в труху.


Решение

Короткая версия — просто джойнимся к последней сессии:


codex exec resume --last "PROMPT"


Полная версия с форсированием GPT-5.2 и high reasoning:


codex exec --model gpt-5.2 -c model_reasoning_effort='"high"' --yolo resume --last "PROMPT"


🎯 Почему именно gpt-5.2, а не gpt-5.2-codex? Сообщество заметило, что Codex-версии «ленивые и нерешительные», а обычная GPT-5.2 доводит дело до конца. Для ревью — самое то.


Результат: параллельное ревью за Claude Code в двух средних проектах (~30–40k строк) потребляет ~10% недельных лимитов за вечер.

🛠️ Бонус: скрипт для просмотра всех сессий, чтобы джойниться по ID, а не только по --last.

Пользуетесь связкой разных моделей для ревью? Расскажите, как организуете агентов, чтобы получить максимум пользы для работы.

----

Поляков считает — AI, код и кейсы
3👍176🔥6👌1
OpenAI выпустили Codex Desktop, и это совсем не Cowork

Вчера OpenAI представили нативное приложение для macOS. Главная новость: обнулили и удвоили лимиты для всех платных подписчиков и временно открыли доступ даже бесплатным пользователям.
Хорошо, что я не купил подписку за $200.

🎯 Что такое Codex Desktop

Это графический интерфейс для запуска нескольких AI-агентов параллельно. Можно делегировать задачи, которые выполняются до 30 минут без участия человека. Skills, Automations, worktrees — всё как у Claude Code.

По данным OpenAI, за последний месяц Codex использовали больше миллиона разработчиков.

💡 Codex запустился как CLI в апреле 2025, потом появился веб-интерфейс. Я подумал, что десктоп-приложение — это ответ на Cowork от Anthropic, но нет, судя по всему просто попытка дать интерфейс, возможно способ конкурировать с Antigravity.


🧪 Мой эксперимент: одна задача, два инструмента

У меня есть убеждение, что кодинг-агенты отлично справляются с офисной рутиной. Решил проверить.

Задача: SEO-шники прислали шаблоны названий товаров по категориям. Нужно применить их к выгрузке из 1С-Битрикс — 80 товаров, 14 категорий. Классический убийца времени офисных сотрудников. С одной стороны для специалиста это минут 30 вместе с чаем, с другой, тратить на это время жалко.

Закинул задачу в оба инструмента. Взял топовые модели: Opus 4.5 для Cowork и GPT-5.2 для Codex.

Результаты:

🔸 Cowork (Opus 4.5): запустил 14 параллельных субагентов — по одному на категорию. Каждый писал в свой JSON, потом собрал в Excel. Время: 96 секунд. Потратил 4% пятичасовых лимитов.

🔸 Codex (GPT-5.2): написал Python-скрипт для генерации заголовков, потом его выполнил. Время: ~20 минут. Потратил 6% удвоенных лимитов.

📊 Разница в скорости — в 12 раз. При этом Codex создал переиспользуемый скрипт, а Cowork просто решил задачу.


🤔 К чему я это

Для офисной рутины Codex Desktop — это совсем не Cowork. Разные подходы: Cowork параллелит субагентов и делает работу «руками», Codex пишет код.

Если задача разовая — Cowork выигрывает с огромным отрывом. Если нужен воспроизводимый процесс — подход Codex имеет смысл. Но и заниматься повторяемыми задачами будут менеджеры.

Кстати, Cowork не повёлся на мою идею с лок-файлом — просто сделал отдельные JSON для каждой категории. Простые решения работают лучше.

Попробовать: https://openai.com/codex (macOS, для Windows — вейтлист)

А вы уже тестировали офисные задачи на кодинг-агентах? Какие результаты?

----

Поляков считает — AI, код и кейсы
3🔥13👍64
Один ИИ хорошо, а два — продакшен

Уже несколько недель во всех профильных ИИ-чатах одна тема: Claude отупел. На GitHub десятки issues — «performance degradation», «it's both slower and dumber», «feels NERFED». Пользователи описывают лотерею: иногда хороший Claude, иногда — стажёр, который забывает инструкции и врёт, что всё сделал.

Мне нравится Claude Code, метаться между инструментами не хочу. Но Opus 4.5 стал непригодным для продуктовой работы. Окей, у меня есть подписка ChatGPT Plus за $20 и смекалка.

🛠️ Скилл: Codex ревьюит планы Claude

Написал навык для Claude Code, который отправляет планы и код на ревью в OpenAI Codex. Схема:

🔸 Claude пишет план → отправляет в Codex
🔸 Codex возвращает замечания или APPROVED
🔸 Claude дорабатывает → снова на ревью
🔸 До 3 итераций, пока не пройдёт

На скриншотах реальный кейс: Codex нашёл проблемы безопасности в WebSocket-соединениях — race condition, отсутствие привязки токена к сессии, баг с реконнектом. Claude принял замечания, переработал архитектуру. Итог: 190 тестов, код чистый, ревью пройдено.

💡 Паттерн «senior review»: одна модель пишет, другая проверяет. Работает, даже когда «писатель» не в форме — ревьюер ловит ошибки. Подозреваю, что связка сработает даже с Claude Sonnet вместо Opus.


💰 Экономика

Токенов при ревью Codex жрёт немного — хватает на 3 пет-проекта параллельно на базовой подписке Plus за $20/мес. Вчера OpenAI ещё и удвоил лимиты для всех платных планов.

⚙️ Как настроить

1️⃣ Поставить скилл с GitHub — в README инструкция по настройке директорий и permissions
2️⃣ Обсудить проект с Codex, чтобы он изучил кодовую базу
3️⃣ Скопировать ID сессии (как получить или из нового приложения Codex)
4️⃣ Работать в Claude Code с пометкой «используй кодекс ревью»

Важно: не давайте навыку инициализировать сессию самому — лучше подготовьте контекст в Codex вручную.

💡 Как посмотреть о чем болтали агенты

Новое приложение Codex для macOS позволяет скопировать данные сессии, но чтобы увидеть свежую переписку, приходится перезапускать приложение. Удобнее через Agent Deck — достаточно нажать Shift+R на сессии в списке, и диалог подтянется сразу.

Какие мультиагентные связки используете вы?

----

Поляков считает — AI, код и кейсы
2👍16🔥95
Готовим сейчас мощную бизнесовую конфу по AI

Концепт простой: будем показывать и рассказывать про то, что реально работает в индустрии, на что обратить внимание, а что пропустить, где выше ROI, а где можно получить нефинансовую выгоду. Будем разбирать архитектуру, юнит-экономику и P&L, без историй про то, как кто-то написал промпты и стал х10 продуктивен.

Подробный анонс в канал сделаю уже скоро. Сейчас оформляем окончательный лайнап и ведем подготовку ивента, уже собрали много крутых спикеров (бывшие топы и фаундеры работающие в индустрии годами). Но есть еще несколько вакантных мест.

Поэтому хочу спросить у вас: Кого из авторов Telegram-каналов про AI вы читаете и хотели бы услышать что-то про внутреннюю кухню, фреймворки, кейсы и лайвхаки? Интересуют именно практики с реальным опытом.

Кидайте ссылки на каналы или юзернеймы в комменты к этому посту. Наиболее интересных авторов постараемся затащить.

🚀 Влад Корнышев про AI и создание AI-продуктов
4🔥2
Claude Code теперь ставит вам оценку за поведение. Но считает плохо

В Claude Code появилась команда /insights — анализирует ваши сессии и генерирует HTML-отчёт: как вы работаете, где буксуете и что делаете не так.

Я запустил. Получил персональный перфоманс-ревью от ИИ. А потом полез в GitHub Issues.

📊 Что обо мне «узнал» Claude

За месяц: 2 557 сессий, 13 695 сообщений, 1 521 коммит. Claude назвал мой стиль «high-delegation debugging» — кидаю проблему и ухожу пить кофе.

Главная цифра: из 315 проанализированных сессий только 1 достигла цели полностью. 198 — «частично достигнуты».

Логи искажены январскими тестами автопилотных режимов. Но единичка всё равно выглядит унизительно.

🐛 А теперь — баги

На GitHub уже куча тикетов с проблемами:

🔸 /insights анализирует 3 сессии из тысяч и экстраполирует выводы. У одного пользователя 2 912 сессий — проанализировано 3 (0,1%)

🔸 Метрики в отчёте не совпадают с реальными: у другого пользователя сессии завышены в 10 раз, сообщения занижены втрое

🔸 Вызовы инструментов Claude приписывает вам. «Ваши 96 000 вызовов Bash» — это не ваши, это Claude столько раз запускал bash

🔸 Типы проектов определяются по прочитанным файлам, а не по написанным — Arduino-разработчик получил метку «Web Documentation»

💡 Инструмент дружелюбный и многословный. Но пока это скорее интересная игрушка, чем точная аналитика. Относитесь к цифрам скептически, а вот рекомендации по скиллам и хукам — реально полезные.


🎯 Что всё-таки полезного

Несмотря на баги, отчёт предложил конкретные вещи, которые я внедрил:

🔸 Кастомный скилл /debug с приоритетом: логи → curl → только потом лезть в код

🔸 Хук для автозапуска линтера после редактирования

🔸 Правило в CLAUDE.md: «Проверяй CLI-команды через --help перед тем, как предлагать». Забрал!

Последнее — боль. Claude регулярно придумывает несуществующие команды с абсолютной уверенностью.

🔧 Как работает

Логи из ~/.claude/projects/ прогоняются через Haiku — дёшево и быстро. Фасеты кешируются. Всё локально, никуда не отправляется. Запуск: /insights в Claude Code, отчёт в ~/.claude/usage-data/report.html.

Запускайте и делитесь результатами — интересно сравнить. Только к цифрам пока относитесь как к первому черновику: направление верное, детали подтянут.

----

Поляков считает — AI, код и кейсы
24👍3🔥2😁1💩1
Opus 4.6: первые впечатления от того, кто уже сломал agent teams

Anthropic с третьей попытки (если верить слухам) выкатили Opus 4.6. Протестировал на реальных задачах, собрал грабли — делюсь.

🧠 Что нового в цифрах / бенчмаркетинг

Terminal-Bench 2.0 (агентный кодинг): 65,4% — первое место, но GPT-5.2-codex дышит в спину с 64,7%. На GDPval-AA (финансы, юриспруденция) разрыв серьёзнее: +144 Elo над GPT-5.2, побеждает в 70% случаев.

Контекстное окно выросло до 1М токенов (бета) — в 5 раз больше Opus 4.5. На тесте «иголка в стоге сена» (MRCR v2) — 76% против 18,5% у Sonnet 4.5. Но кому нужно такое контекстное окно, если работа с ним будет дорогой.

Цена не изменилась: $5/$25 за миллион токенов.

🔧 Что реально изменилось в работе

1️⃣ Генерация баннеров для Авито через fal.ai. У меня есть скилл для этого. Обычно из шести вариантов нормальные два. Opus 4.6 подумал и выдал все шесть годными.

2️⃣ Пересборка проекта с агентами ElevenLabs. Задача, к которой не хотелось подступаться — даже с ИИ-кодингом это не один день. Включил agent teams, и за 60 минут проект пересобран (1. со второй попытки, 2. e2e тестов не было, 3. возможно что из функциоонала проходят только тесты).

💡 Agent teams — рой агентов в Claude Code. Один сеанс становится тимлидом, остальные работают параллельно в своих контекстных окнах.


⚠️ Грабли, на которые я уже наступил

🔸 Agent teams работают на tmux → внутри tmux запускаются с ошибками. В Agent Deck рой не запустить.

🔸 Если написать тиммейту, пока его тормозит тимлид — вы в потерянном терминале. Убивайте сессию и продолжайте через resume.

🔸 Extended thinking жрёт токены со страшной силой. Проценты 5-часовых лимитов растут каждые 10 секунд. Для простых задач переключайте усилие на medium.

🔸 На Reddit уже посты «Opus 4.6 lobotomized» — жалуются на деградацию текстов при улучшении кодинга. Пока не подтверждаю, но имейте в виду.

🎁 $50 на попробовать

Anthropic раздаёт $50 кредита подписчикам Pro и Max. Условия: подписка оформлена до 4 февраля, забрать до 16 февраля. Settings → Usage → включаете Extra Usage — кредит применится автоматически. Тратить можно на Claude, Claude Code и Cowork. Сгорает через 60 дней.

Claude Code теперь пишет в persistent memory краткое изложение
CLAUDE.md
— похоже, фикс бага с одноразовым прочтением при инициализации. Память пишется и читается постоянно. Возможно, стоит придумать скилл для инъекций в неё при крупных сессиях.


Какую модель используете для кодинга — и замечали разницу между 4.5 и 4.6?

----

Поляков считает — AI, код и кейсы
2👍54🔥2