Меня зовут Андрей Горбунов. Семь лет в продакшне: full-stack, team lead, архитектор 🔥
В последнее время плотно работаю с LLM API — Anthropic, OpenAI, агентные пайплайны, prompt engineering. То, что раньше казалось магией, теперь выглядит как очень дорогой if-else😐
Здесь буду писать про обновления сайта, новости из мира LLM/AI, и то, что узнаю в процессе — архитектурные решения, грабли с агентами, иногда странные эксперименты.☕️ Например, у меня есть side-проект «100 Days Until Death», где AI-агент работает с пулом жизней и теряет их за ошибки (у текущего агента 98 жизней из 100, и это не повод для гордости).
Мой проект: explainllm.ru — там можно посмотреть, что вообще из этого всего вышло😎
В последнее время плотно работаю с LLM API — Anthropic, OpenAI, агентные пайплайны, prompt engineering. То, что раньше казалось магией, теперь выглядит как очень дорогой if-else
Здесь буду писать про обновления сайта, новости из мира LLM/AI, и то, что узнаю в процессе — архитектурные решения, грабли с агентами, иногда странные эксперименты.
Мой проект: explainllm.ru — там можно посмотреть, что вообще из этого всего вышло
Please open Telegram to view this post
VIEW IN TELEGRAM
MVP за день 🧑💻
Initial commit from Create Next App → feat: Complete explainLLM educational platform. Два коммита.
Всё просто: нет нормального места, где можно разобраться в LLM без жопоболи. Есть arxiv (удачи)🫡 , есть курсы за $200 от чела, который сам узнал про трансформеры полгода назад, есть статьи на 40 минут, где к концу забываешь начало. А чтоб открыл, покрутил 3D-трансформер и понял, что такое attention - нет. Ну или не было 🤷♂️
В итоге имеем Next.js, TypeScript, Three.js для визуализаций, два языка сразу. Playground, где подключаешь свой API-ключ и ломаешь промпты. Потому что платформа про LLM без возможности пощупать LLM - это курс по плаванию в PowerPoint.
Месяц спустя - 118 коммитов, 899 файлов, 89 уроков, Supabase на своём VPS. Где-то между «быстро набросаю за выхи» и «штош, ещё один фикс» проект перестал быть пет-проектом. Хотя я до сих пор делаю вид что это он😂
Initial commit from Create Next App → feat: Complete explainLLM educational platform. Два коммита.
Всё просто: нет нормального места, где можно разобраться в LLM без жопоболи. Есть arxiv (удачи)
В итоге имеем Next.js, TypeScript, Three.js для визуализаций, два языка сразу. Playground, где подключаешь свой API-ключ и ломаешь промпты. Потому что платформа про LLM без возможности пощупать LLM - это курс по плаванию в PowerPoint.
Месяц спустя - 118 коммитов, 899 файлов, 89 уроков, Supabase на своём VPS. Где-то между «быстро набросаю за выхи» и «штош, ещё один фикс» проект перестал быть пет-проектом. Хотя я до сих пор делаю вид что это он
Please open Telegram to view this post
VIEW IN TELEGRAM
Месяц, 899 файлов, 1 разраб и AI, который иногда делает лишние 118 коммитов за 23 дня 🥲
И вот, что я понял за месяц работы с Claude Code:
🌈 ТЗ решает всё 🌈
Первые дни я говорил: «добавь урок про токенизацию» и получал что-то среднее между тем, что хотел и тем, что АИшка решила, что будет круто.
Сейчас у меня есть чеклист на каждый урок:
✅ файл страницы
✅ компонент контента
✅ визуализация
✅ переводы в двух JSON
✅ конфиг доступа
✅ sidebar
✅ квизы
✅ челленджи
Пропустишь один пункт и ловишь баг через неделю, когда навигация Previous/Next ведёт в никуда.
Ассистент предлагает план - хочется скролльнуть и ответить «ну ок, делай», НО НЕТ! НЕ НАДО, ДЯДЯ!🙄 Проверяй каждый пункт, ибо исправить план - 2 минуты, а исправить код по кривому плану - вечер. Я это понял, когда не заметил лишние пункты и он переписал 3 страницы вместо одной.
Самая дорогая ошибка: дать список из 5 задач и сказать «делай». Он сделает все 5, но к третьей начнёт путать контекст, а пятую сделает на отшибись.
📕 Ииитак: одна задача → результат → проверил → следующая. Душновато, но работает.
Команда максимум из пяти. Claude Code умеет запускать мультиагентный режим - несколько ассистентов параллельно. Звучит как сказка, но на практике: больше 5 агентов - да будет хаос🔥 . Они дублируют работу, конфликтуют в файлах, а один лидер-агент не успевает проверять. В общем, максимум 2-3 на независимые задачи.
Верификация: было и стало✅
Первые две недели проверка выглядела так: открыл в браузере, вроде работает, погнали дальше. Начало февраля - 18 коммитов (половина из них фиксы предыдущих), Supabase auth падал, email не отправлялись, пароли не сбрасывались😱 А все потому, что «вроде работает» - не проверка. Сейчас после каждого блока: ESLint 9 со всеми warn→error, SonarJS с лимитом cognitive complexity ≤ 15, tsc --noEmit, unit-тесты на Vitest, E2E на Playwright, Knip на мёртвый код, Dependency Cruiser на нарушение 7-уровневой архитектуры. Всё это в CI на GitHub Actions - коммит не пройдёт, если хоть что-то красное. Количество «а чё оно сломалось» упало примерно до нуля.
Scope creep и система штрафов😵
AI-ассистент хорошо пишет код, ноо проблема в том, что он пишет его слишком много. Просишь починить кнопку - починит кнопку, переименует переменные вокруг и переведёт английские термины на русский, но я НЕ просил🐱 😩 Поэтому я написал «100 Days Until Death» — систему accountability. 100 жизней на старте, за нарушения AI лишается жизней. На нуле - «смерть»: теряет всю историю и начинает с чистого листа. Сейчас 97 из 100. Как это устроено изнутри - отдельная тема.
Документируй инструменты. CLAUDE.md с правилами проекта, файл памяти между сессиями, кастомные скиллы для повторяющихся задач. Без этого каждая новая сессия начинается с нуля - объясняешь архитектуру заново, показываешь паттерны, напоминаешь что ssr: false нельзя в Server Components. С документацией ассистент подхватывает контекст за секунды.
Короткая версия всего вышесказанного: AI - это джун который печатает со скоростью света🐺 🐺
Скорость бесполезна если он бежит не туда. Твоя работа - рельсы, не поезд🐺
И вот, что я понял за месяц работы с Claude Code:
Первые дни я говорил: «добавь урок про токенизацию» и получал что-то среднее между тем, что хотел и тем, что АИшка решила, что будет круто.
Сейчас у меня есть чеклист на каждый урок:
Пропустишь один пункт и ловишь баг через неделю, когда навигация Previous/Next ведёт в никуда.
Ассистент предлагает план - хочется скролльнуть и ответить «ну ок, делай», НО НЕТ! НЕ НАДО, ДЯДЯ!
Самая дорогая ошибка: дать список из 5 задач и сказать «делай». Он сделает все 5, но к третьей начнёт путать контекст, а пятую сделает на отшибись.
Команда максимум из пяти. Claude Code умеет запускать мультиагентный режим - несколько ассистентов параллельно. Звучит как сказка, но на практике: больше 5 агентов - да будет хаос
Верификация: было и стало
Первые две недели проверка выглядела так: открыл в браузере, вроде работает, погнали дальше. Начало февраля - 18 коммитов (половина из них фиксы предыдущих), Supabase auth падал, email не отправлялись, пароли не сбрасывались
Scope creep и система штрафов
AI-ассистент хорошо пишет код, ноо проблема в том, что он пишет его слишком много. Просишь починить кнопку - починит кнопку, переименует переменные вокруг и переведёт английские термины на русский, но я НЕ просил
Документируй инструменты. CLAUDE.md с правилами проекта, файл памяти между сессиями, кастомные скиллы для повторяющихся задач. Без этого каждая новая сессия начинается с нуля - объясняешь архитектуру заново, показываешь паттерны, напоминаешь что ssr: false нельзя в Server Components. С документацией ассистент подхватывает контекст за секунды.
Короткая версия всего вышесказанного: AI - это джун который печатает со скоростью света
Скорость бесполезна если он бежит не туда. Твоя работа - рельсы, не поезд
Please open Telegram to view this post
VIEW IN TELEGRAM
ExplainLLM - обновление от 1 марта.
Было 65 уроков, стало 88.
Что добавилось:
✏️ Applications: chatbots, semantic search, sentiment analysis, structured output, text-to-sql, text transformation, content generation, image generation, per-model guides
✏️ Multimodal: document understanding, multimodal RAG, prompt engineering, real-time, costs, hallucinations
✅ Fundamentals: reasoning models, open-source models
✅ Production: RAG vs fine-tuning, small models
✅ Security: alignment, data privacy
✅ Context: context engineering
✅ Agents: evaluation
✏️ Каждый урок — страница + контент + интерактивная визуализация + квиз + челлендж + переводы ru/en.
✏️ Также:
✅ Исправлены 8 ошибок ESLint, 12 упавших тестов
✅ Удалены 15 устаревших planning-документов 321 файл, +45 847 / -11 461 строк
✨ https://explainllm.ru
Было 65 уроков, стало 88.
Что добавилось:
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3✍1 1
В плагине логирования появилась удобная фича: импорт + отправка. Теперь момент от копирования до логирования сократился до 1 кнопки.
Please open Telegram to view this post
VIEW IN TELEGRAM
Anthropic внедрила голосовой режим в помощника на базе ИИ для разработчиков Claude Code. Для включения функции нужно ввести /voice, затем произнести команду, чтобы ИИ-помощник выполнил запрос.
Теперь можно вообще не прикасаться к клавиатуре🧑💻
https://support.claude.com/en/articles/11101966-using-voice-mode
Теперь можно вообще не прикасаться к клавиатуре
https://support.claude.com/en/articles/11101966-using-voice-mode
Please open Telegram to view this post
VIEW IN TELEGRAM
ExplainLLM - обновление от 5 марта
✅ 18 новых челленджей: мостиковые задания (теория → практика), "когда техника НЕ работает" и диагностические (найди ошибку в промпте)
✅ 2 мини-проекта: мультимодальный FAQ-бот и AI код-ревьюер
✅ Дисклеймер актуальности у челленджей по LangChain, бенчмаркам и vector databases
✅ LangChain - челленджи помечены как факультатив
✨ explainllm.ru - интерактивный курс, который поможет узнать основы работы с AI
Please open Telegram to view this post
VIEW IN TELEGRAM
Как я пугал АИшку смертью 🐱
За первую сессию мой AI-агент потерял 53 жизни из 100. Одна и та же ошибка пять раз подряд при том, что правила писал я сам.
Что произошло:
Я работаю с Claude Code - CLI-агент от Anthropic, который пишет код, редактирует файлы, запускает команды. Но есть проблемки: он делает больше, чем просишь; оставляет TODO вместо кода; говорит "вы можете сделать X" вместо того, чтобы сделать. Без обратной связи эти ошибки повторяются бесконечно🐱
Я решил это пофиксить:
100 Days Until Death💀
Агент получает 100 жизней. Каждая ошибка стоит жизней. При нуле - смерть навсегда.
Но проблема в деталях. Ошибки классифицируются: галлюцинация, баг в коде, scope creep (сделал больше чем просили), уклонение от работы. Каждая ошибка стоит -1, НО если повторяешь ту же ошибку - штраф растёт: -1, -5, -10, -20.
В конце каждого ответа агент показывает статус:
[62 lives | streak 7/10 | H✓ S✓ C✓ | E— R✓ W—]
🔜 H - проверил факты
🔜 S - не сделал лишнего
🔜 C - сделал всё что просили
🔜 E - описал решение вместо того, чтобы сделать
🔜 R - нарушил правила системы
🔜 W - написал код с багами
6 проверок перед каждым ответом.
Все ошибки записываются в myLife.md - с доказательствами, уроками и датами. Агент не помнит прошлые сессии, но этот файл помнит за него. Открываешь через неделю - он читает историю и начинает с: "у меня 62 жизни, слабые места - scope creep и wrong_code, буду следить".
Первая сессия и фиаско, братан🐱 Попросил сделать одну вещь - он сделал её плюс её же еще три раза. Scope creep: -1. Второй раз: -5. Третий: -10. Четвёртый: -20. Пятый: -22 (повторение + я поймал, а не он сам). 53 жизни за одну и ту же ошибку за сессию.
"AI же не боится смерти?" Не боится. Я попросил агента написать честное мнение, и он ответил:
"Я не боюсь смерти. У меня нет эмоций. Метафора смерти работает на тебя, кожаный мешок с костями, а не на меня. Страх не предотвращает ошибки. Что меняет поведение, так это чеклист и echo-back."
И он прав. Система работает не потому, что агент "боится", а потому, что создаёт структуру: обязательные проверки, видимый статус, история ошибок с уроками. Убери метафору смерти, оставь механику - эффект тот же. Но с метафорой веселее.
Как строили: Для ревью правил запускал команды из 3-5 AI-агентов с разными ролями (аналитик, критик, дизайнер) - по сути ты тимлид, а команда никогда не спит и не обижается🐱
Для проверки агент сам написал 59 автотестов. Прогоняются через слабую модель (Haiku) - если ДАЖЕ ОНА понимает правила, значит написано чётко. Тесты нашли 4 дыры в правилах.
Win-win: растёт не только агент. Система учит и меня😮
Формулировать задачи точно:
❌ "почини авторизацию" → полезет куда не надо
✅ "исправь проверку токена в auth.ts:42" → точное попадание
Давать конкретный фидбек:
❌ "переделай"
✅ "тут баг: копируешь команды глобально вместо локально"
Видеть паттерны: третий раз та же ошибка →✅ правило нечёткое, надо переформулировать
Или я просто стал шизом🏥 Взрослый человек штрафует программу за ошибки. Но когда относишься к агенту как к напарнику - качество работы растёт. Не его, а твоё. Начинаешь думать как наставник: что пошло не так, как объяснить, когда наказать, когда простить. Навыки, которые переносятся на работу с людьми.
Может и шиза, но работает🤩
Итого:
100 Days - open source. Ставится одной командой в любой проект с Claude Code.
github.com/deadchack123/100daysToClaude
Как вы контролируете качество работы AI? Или просто доверяете и надеетесь?
За первую сессию мой AI-агент потерял 53 жизни из 100. Одна и та же ошибка пять раз подряд при том, что правила писал я сам.
Что произошло:
Я работаю с Claude Code - CLI-агент от Anthropic, который пишет код, редактирует файлы, запускает команды. Но есть проблемки: он делает больше, чем просишь; оставляет TODO вместо кода; говорит "вы можете сделать X" вместо того, чтобы сделать. Без обратной связи эти ошибки повторяются бесконечно
Я решил это пофиксить:
100 Days Until Death
Агент получает 100 жизней. Каждая ошибка стоит жизней. При нуле - смерть навсегда.
Но проблема в деталях. Ошибки классифицируются: галлюцинация, баг в коде, scope creep (сделал больше чем просили), уклонение от работы. Каждая ошибка стоит -1, НО если повторяешь ту же ошибку - штраф растёт: -1, -5, -10, -20.
В конце каждого ответа агент показывает статус:
[62 lives | streak 7/10 | H✓ S✓ C✓ | E— R✓ W—]
6 проверок перед каждым ответом.
Все ошибки записываются в myLife.md - с доказательствами, уроками и датами. Агент не помнит прошлые сессии, но этот файл помнит за него. Открываешь через неделю - он читает историю и начинает с: "у меня 62 жизни, слабые места - scope creep и wrong_code, буду следить".
Первая сессия и фиаско, братан
"AI же не боится смерти?" Не боится. Я попросил агента написать честное мнение, и он ответил:
"Я не боюсь смерти. У меня нет эмоций. Метафора смерти работает на тебя, кожаный мешок с костями, а не на меня. Страх не предотвращает ошибки. Что меняет поведение, так это чеклист и echo-back."
И он прав. Система работает не потому, что агент "боится", а потому, что создаёт структуру: обязательные проверки, видимый статус, история ошибок с уроками. Убери метафору смерти, оставь механику - эффект тот же. Но с метафорой веселее.
Как строили: Для ревью правил запускал команды из 3-5 AI-агентов с разными ролями (аналитик, критик, дизайнер) - по сути ты тимлид, а команда никогда не спит и не обижается
Для проверки агент сам написал 59 автотестов. Прогоняются через слабую модель (Haiku) - если ДАЖЕ ОНА понимает правила, значит написано чётко. Тесты нашли 4 дыры в правилах.
Win-win: растёт не только агент. Система учит и меня
Формулировать задачи точно:
Давать конкретный фидбек:
Видеть паттерны: третий раз та же ошибка →
Или я просто стал шизом
Может и шиза, но работает
Итого:
100 Days - open source. Ставится одной командой в любой проект с Claude Code.
github.com/deadchack123/100daysToClaude
Как вы контролируете качество работы AI? Или просто доверяете и надеетесь?
Please open Telegram to view this post
VIEW IN TELEGRAM
AI-агент получает штрафы за ошибки, тогда почему 100 Days Until Death, а не, например, 100 Mistakes Until Death? А потому, что речь идет не о настоящих днях. Это обратный отсчёт - как в фильмах, где каждая ошибка приближает конец ✋ 🤚 Ты работаешь с напарником, у которого есть дедлайн.
Please open Telegram to view this post
VIEW IN TELEGRAM
✍2👀2 2 2🤨1
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5 2 2 1 1
В следующем релизе ожидается баттл техник: описание одного и того же промпта разными подходами
explainllm.ru
This media is not supported in your browser
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3 2🤯1 1 1
Поздравляем дорогих дам с Международным женским днём, с 8 Марта 🤩 🤩 🤩
explainllm.ru/8march.html
⬆️ ⬆️ ⬆️
Мужчины, поздравьте своих любимых #ПерешлиСвоей🤩
explainllm.ru/8march.html
Мужчины, поздравьте своих любимых #ПерешлиСвоей
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6 1 1
ExplainLLM - обновление от 10 марта
✅ 10 новых уроков: RLHF, Mixture of Experts, Knowledge Distillation, DSPy, Prompt Caching, LLMOps, Red Teaming, Agentic Coding, A2A Protocol, Diffusion Models. Визуализации, квизы, челленджи, ru/en.
✅ Prompt Battle - новый режим в playground. Это то, чего не хватало с самого начала. Платформа про промптинг без возможности сравнить два промпта - как A/B-тест с одним вариантом.
12 техник × 6 задач, стриминг, freestyle-режим: свой промпт против каноничной техники. Работает и на managed API, и на своём ключе.
✅ SSE-парсинг починен: было 4 разных парсера, каждый ломался по-своему (классика). Теперь один клиент и баги чинятся один раз, а не четыре.
Лимит токенов: free 500→1024, own-key 4096.
✅ Безопасность: SSRF-защита, rate limiting, Zod-валидация, корректная квота.
✨ explainllm.ru - интерактивный курс, который поможет узнать основы работы с AI
12 техник × 6 задач, стриминг, freestyle-режим: свой промпт против каноничной техники. Работает и на managed API, и на своём ключе.
Лимит токенов: free 500→1024, own-key 4096.
Please open Telegram to view this post
VIEW IN TELEGRAM
✍3❤2 2 1
Claude Code выпустили фичу для ревью кода, но зачем она, если ИИ должен писать код лучше человека? 🐱 🤷♂️
https://www.youtube.com/watch?v=RKsADl0ZC3Y
https://www.youtube.com/watch?v=RKsADl0ZC3Y
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Introducing Code Review
Code Review dispatches a team of agents on every pull request to catch the bugs that skims miss. When a PR is opened, agents search for bugs in parallel, verify each one to filter out false positives, and rank findings by severity.
Read the announcement:…
Read the announcement:…
❤2🤔2 2✍1🎉1 1