rules отдельно, skills отдельно: система правил для ИИ-агентов в Claude Code
Возвращаюсь к своему опыту работы с Claude Code. Там за неделю накопилось несколько интересных решений в работе контентными агентами. Например, добавил устойчивость к ошибкам WebSearch и начал сохранять результаты проверок для дообучения. Но сначала надо вам рассказать про правила.
Почему rules, если есть уже привычные skills? Разница между этими сущностями принципиальная:
➡️ rules — это «как оформлять» (ограничения, чеклисты, формат),
➡️ skills — «что знать» (предметная экспертиза, справочники, методологии).
Rules загружаются автоматически через симлинки. Skills вызываются по запросу, когда агенту нужна глубокая экспертиза.
Но всё равно же не очень понятно, зачем такое разделение, да?
6️⃣ Правила не засоряют контекстное окно. Файлы из .claude/rules/ загружаются в системный промт автоматически — агент соблюдает правила, не тратя токены на их обсуждение. Skills, наоборот, подгружаются только когда нужны. Справочник на 200 терминов не висит в контексте постоянно — он появляется в момент, когда автору пора писать, и не мешает исследователю или фактчекеру.
2️⃣ Когда агентов больше одного, правила написания текстов неизбежно дублируются. Обновил термин в одном месте — забыл в трёх других. Решение: вынести все правила в единую директорию rules/ и раздавать агентам через симлинки в .claude/rules/
При этом сами правила делятся на два уровня:
➡️ Общие (rules/common/) загружаются в каждого агента: терминология, стиль, грамматика, протокол работы субагентов.
➡️ Доменные (rules/{domain}/) добавляют специфику формата: у SEO-статьи свои требования к структуре, у пресс-релиза — свои, у лендинга — свои.
Доменные папки могут содержать файлы с теми же именами, что и в common/. Это не дубли, а дельты — дополнения и уточнения общих правил для конкретного формата. Агент загружает оба файла и применяет оба набора ограничений.
Результат: один файл правил — один источник правды. Изменил правило в rules/common/ — оно обновилось у всех агентов. Новый агент подключается за минуту: создал .claude/rules/, добавил симлинки — готово.
Как это работает в оркестрации
В модульной системе с субагентами разделение rules и skills становится особенно важным. Типичный пайплайн:
1️⃣ Оркестратор собирает параметры задачи через wizard.
2️⃣ Субагент-исследователь загружает свои rules (протокол работы, устойчивость к ошибкам поиска), ищет данные, возвращает структурированный конспект.
3️⃣ Субагент-автор загружает свои rules (доменные стандарты формата + общие правила качества) и skill (экспертная специализация), пишет текст по конспекту.
4️⃣ Субагент-проверщик загружает свои rules (требования к фактам и качеству), проверяет текст независимо.
Каждый субагент получает только нужные данные (чистый контекст) и только свои правила. Исследователь не знает правил оформления — они ему не нужны. Автор не знает, как проверять факты — это задача следующего субагента. Фактчекер не знает, как писать — он только проверяет. Такое разделение позволяет держать контекст каждого субагента компактным и сфокусированным.
#ai_agents
Возвращаюсь к своему опыту работы с Claude Code. Там за неделю накопилось несколько интересных решений в работе контентными агентами. Например, добавил устойчивость к ошибкам WebSearch и начал сохранять результаты проверок для дообучения. Но сначала надо вам рассказать про правила.
Почему rules, если есть уже привычные skills? Разница между этими сущностями принципиальная:
Rules загружаются автоматически через симлинки. Skills вызываются по запросу, когда агенту нужна глубокая экспертиза.
Но всё равно же не очень понятно, зачем такое разделение, да?
При этом сами правила делятся на два уровня:
Доменные папки могут содержать файлы с теми же именами, что и в common/. Это не дубли, а дельты — дополнения и уточнения общих правил для конкретного формата. Агент загружает оба файла и применяет оба набора ограничений.
Результат: один файл правил — один источник правды. Изменил правило в rules/common/ — оно обновилось у всех агентов. Новый агент подключается за минуту: создал .claude/rules/, добавил симлинки — готово.
Как это работает в оркестрации
В модульной системе с субагентами разделение rules и skills становится особенно важным. Типичный пайплайн:
Каждый субагент получает только нужные данные (чистый контекст) и только свои правила. Исследователь не знает правил оформления — они ему не нужны. Автор не знает, как проверять факты — это задача следующего субагента. Фактчекер не знает, как писать — он только проверяет. Такое разделение позволяет держать контекст каждого субагента компактным и сфокусированным.
#ai_agents
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥1
Нашёл интересную реализацию прямолинейного контентного агента на Claude Code — ralph-wiggum-marketer.
Суть: автономный копирайтер который работает в цикле. Задаёшь список задач в формате PRD — с описанием, критериями приёмки и приоритетом. Агент берёт задачу, пишет, проверяет по критериям, коммитит результат, логирует выводы, берёт следующую.
Тут есть интересное решение проблемы памяти. Каждая итерация стартует с чистым контекстом, но агент всегда читает progress.txt с накопленными выводами из прошлых итераций. Паттерны которые сработали остаются. Это и есть самообучение в простейшей реализации.
Плюс три агента-источника которые параллельно заполняют SQLite-базу: один мониторит тренды, второй исследует, третий собирает продуктовые коммуникации. Агент-писатель читает из базы и пишет уже с контекстом — не с нуля.
Для моих задач это, конечно, не готовое решение, но взять отсюда можно две вещи: структуру PRD с явными критериями приёмки для каждой задачи, и паттерн progress.txt как простейшую форму накопленной памяти между сессиями без сложной инфраструктуры.
#ai_agents
Суть: автономный копирайтер который работает в цикле. Задаёшь список задач в формате PRD — с описанием, критериями приёмки и приоритетом. Агент берёт задачу, пишет, проверяет по критериям, коммитит результат, логирует выводы, берёт следующую.
Тут есть интересное решение проблемы памяти. Каждая итерация стартует с чистым контекстом, но агент всегда читает progress.txt с накопленными выводами из прошлых итераций. Паттерны которые сработали остаются. Это и есть самообучение в простейшей реализации.
Плюс три агента-источника которые параллельно заполняют SQLite-базу: один мониторит тренды, второй исследует, третий собирает продуктовые коммуникации. Агент-писатель читает из базы и пишет уже с контекстом — не с нуля.
Для моих задач это, конечно, не готовое решение, но взять отсюда можно две вещи: структуру PRD с явными критериями приёмки для каждой задачи, и паттерн progress.txt как простейшую форму накопленной памяти между сессиями без сложной инфраструктуры.
#ai_agents
1❤2
Forwarded from TechnoME: Multimediamind 🏴☠️
This media is not supported in your browser
VIEW IN TELEGRAM
ЧатГПТ, когда ты опять поймал его за враньём:
(Патпищек прислал, спасибо)
(Патпищек прислал, спасибо)
🔥2👍1😁1
Обнаружил, что Chrome и Firefox добавили полноценный режим параллельного просмотра — две страницы бок о бок прямо внутри одного окна, без расширений и без системного Split View.
В Хроме включается так: правая кнопка по вкладке → «Добавить вкладку для параллельного просмотра». Между половинами есть ползунок — можно подвинуть разделитель, если одной стороне нужно больше пространства. Или можно вывести кнопку в панель инструментов.
В Firefox через контекстное меню на вкладке «Добавить разделение экрана».
Просто спасибо. Я работаю на двух широкоформатниках и этого реально не хватало.
В Хроме включается так: правая кнопка по вкладке → «Добавить вкладку для параллельного просмотра». Между половинами есть ползунок — можно подвинуть разделитель, если одной стороне нужно больше пространства. Или можно вывести кнопку в панель инструментов.
В Firefox через контекстное меню на вкладке «Добавить разделение экрана».
Просто спасибо. Я работаю на двух широкоформатниках и этого реально не хватало.
❤🔥4❤1👍1
Запомним этот март. Чтобы установить VPN на новый телефон, нужен Telegram. Чтобы зайти в Telegram, нужен VPN.
😁3🤯1😱1🤣1
Духоты агентской пост. Расскажу про систему ограничений, которую я допиливал эту неделю. ИИ-агенты ошибаются довольно предсказуемо: выдумывают цифры, каскадируют ошибки между этапами, льют воду, теряют контекст, додумывают данные при сбоях WebSearch и выжирают токены со страшной силой. Что сделал:
➡️ Починил таймауты и ограничил запросы WebSearch. Раньше агенты зависали на длинных запросах и сжигали токены. Теперь у каждого субагента жёсткий лимит, параллельно работает не больше трёх запросов. Адаптивная глубина: если после 3 запросов уже 8+ источников — остальные пропускаются. Если после 5 запросов меньше 5 качественных — включается глубокий режим. Три сбоя подряд — полная остановка. Если поиск лёг — пустой конспект с маркером, а не выдуманные данные.
➡️ Добавил автоматические предохранители от перерасхода токенов. Конспект ресёрчера обрезается на 4-5K символов, а лишнее отсекается по приоритету тиров. Если 80%+ фактов из Tier 1-2 — фактчекер предлагает пропуск (экономия 4-6K токенов). И там много ещё всего.
➡️ Добавил оценку токенового бюджета. Теперь, например, перед запуском пайплайна видно: статья съест 14-20K токенов (5-7% дневного лимита). Можно решить, стоит ли запускать фактчекинг, если все источники и так Tier 1.
➡️ И завершил разбиение всех агентов на субагенты (кажется). Раньше один агент искал, писал и проверял — контекст распухал, ошибки каскадировали. Теперь сборщик, автор и верификатор работают в песочницах. Каждый видит только свои данные.
➡️ Запустил сбор отчётов генерации и ревью. Раз в неделю анализирую отчёты, ищу паттерны ошибок и обновляю правила. Замкнутый цикл: ошибка → отчёт → новое правило → следующая генерация лучше. Автоматику тут не стал делать, чтобы не допустить попадание галлюцинаций в правила.
Главный вывод: не пытайтесь предотвратить все ошибки ИИ-агентов. Стройте систему, которая их обнаруживает, логирует и улучшает правила на основе данных.
P.S.: Что в работе и про что постараюсь рассказать: пишу backend runtime на Python, чтобы wizard-поведение работало не только в Claude Code, но и через API, в своём бэкенде или другом LLM. Короче, чтобы не замыкаться только на Claude, а использовать агенты и в других нейросетях. Но тут ещё тестировать и тестировать.
#ai_agents
Главный вывод: не пытайтесь предотвратить все ошибки ИИ-агентов. Стройте систему, которая их обнаруживает, логирует и улучшает правила на основе данных.
P.S.: Что в работе и про что постараюсь рассказать: пишу backend runtime на Python, чтобы wizard-поведение работало не только в Claude Code, но и через API, в своём бэкенде или другом LLM. Короче, чтобы не замыкаться только на Claude, а использовать агенты и в других нейросетях. Но тут ещё тестировать и тестировать.
#ai_agents
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥2👍1🤯1
Читая дискуссии о нейрослопе, подумалось вот что.
Сопротивление и недовольство «бездушными» текстами и картинками возникает обычно у тех, кто боится, что новые технологии поменяют их жизнь, лишат привычных источников заработка. Люди не любят перемены.
Восхищение и активное продвижение нейросетей идёт от тох, кто не волнуется за будущее своей работы и скорее видит в новых технологиях новые возможности. Проще говоря, всю жизнь мечтал рассказывать машине, что и как надо сделать, зная в голове как это сделать надо.
При этом, конечно, остается открытым вопрос качества контента от нейросетей. С этим ещё, конечно работать как тем, кто обучает модели, так и тем, кто их использует в работе.
#ai
Сопротивление и недовольство «бездушными» текстами и картинками возникает обычно у тех, кто боится, что новые технологии поменяют их жизнь, лишат привычных источников заработка. Люди не любят перемены.
Восхищение и активное продвижение нейросетей идёт от тох, кто не волнуется за будущее своей работы и скорее видит в новых технологиях новые возможности. Проще говоря, всю жизнь мечтал рассказывать машине, что и как надо сделать, зная в голове как это сделать надо.
При этом, конечно, остается открытым вопрос качества контента от нейросетей. С этим ещё, конечно работать как тем, кто обучает модели, так и тем, кто их использует в работе.
#ai
1🤔3👍1
Хабр-дайджест за 23–27 марта 2026
Для начала: обязательно посмотрите запись подкаста про вайб-кодинг в инжиниринге данных и в целом от @analyticsfromzero и @cdo_channel. Два часа интересного.
📥 Безопасность и сети
Полный технический анализ MITM в клиенте Telega — разбор механики перехвата трафика в альтернативном Telegram-клиенте. Автор показал, как приложение активирует man-in-the-middle без ведома пользователя.
История одного Ransomware или как я спасал бизнес — практический кейс реагирования на шифровальщик в реальном бизнесе. От обнаружения до восстановления.
Способы обхода замедления Telegram — практические методы работы с замедленным мессенджером. В комментах всегда самое интересное.
📥 ИИ и машинное обучение
Я сделал локального AI-агента для России. Без VPN, без подписки, без облака — разработчик собрал полностью локального AI-помощника для кодинга, работающего без внешних зависимостей. 219 закладок.
DeepSeek на сервере: практический гайд — пошаговая инструкция по развёртыванию DeepSeek на облачной инфраструктуре.
Юридическое поле экспериментов для RAG — опыт участия в соревновании Agentic RAG Legal Challenge: 300+ команд, юридические тексты, LLM-индексация.
Протестировали 22 нейросети на задачах для учителей — бенчмарк EduBench-RU: Claude Opus 4.6, GPT-5.4, Gemini 3.1 Pro. Ни одна модель не знает чувашский.
📥 Разработка и языки
В каждом JPEG зашита модель вашей сетчатки — как JPEG-сжатие кодирует особенности человеческого восприятия. Алгоритмика + Python.
Хватит допускать ошибки в Go: практические рецепты — справочник по типичным проблемам бэкенда на Go: конкурентность, сеть, обработка ошибок.
📥 Highload и базы данных
Миллиард записей и 8 марта: как YDB спасла праздник — кейс Яндекса: синхронизация 4 млрд складских записей на YDB в реальном времени.
PGConf.Russia 2026 — 23–24 марта в Москве прошла крупнейшая PostgreSQL-конференция: новинки PostgreSQL 19, шардирование 8 ТБ без даунтайма.
#habr
Для начала: обязательно посмотрите запись подкаста про вайб-кодинг в инжиниринге данных и в целом от @analyticsfromzero и @cdo_channel. Два часа интересного.
Полный технический анализ MITM в клиенте Telega — разбор механики перехвата трафика в альтернативном Telegram-клиенте. Автор показал, как приложение активирует man-in-the-middle без ведома пользователя.
История одного Ransomware или как я спасал бизнес — практический кейс реагирования на шифровальщик в реальном бизнесе. От обнаружения до восстановления.
Способы обхода замедления Telegram — практические методы работы с замедленным мессенджером. В комментах всегда самое интересное.
Я сделал локального AI-агента для России. Без VPN, без подписки, без облака — разработчик собрал полностью локального AI-помощника для кодинга, работающего без внешних зависимостей. 219 закладок.
DeepSeek на сервере: практический гайд — пошаговая инструкция по развёртыванию DeepSeek на облачной инфраструктуре.
Юридическое поле экспериментов для RAG — опыт участия в соревновании Agentic RAG Legal Challenge: 300+ команд, юридические тексты, LLM-индексация.
Протестировали 22 нейросети на задачах для учителей — бенчмарк EduBench-RU: Claude Opus 4.6, GPT-5.4, Gemini 3.1 Pro. Ни одна модель не знает чувашский.
В каждом JPEG зашита модель вашей сетчатки — как JPEG-сжатие кодирует особенности человеческого восприятия. Алгоритмика + Python.
Хватит допускать ошибки в Go: практические рецепты — справочник по типичным проблемам бэкенда на Go: конкурентность, сеть, обработка ошибок.
Миллиард записей и 8 марта: как YDB спасла праздник — кейс Яндекса: синхронизация 4 млрд складских записей на YDB в реальном времени.
PGConf.Russia 2026 — 23–24 марта в Москве прошла крупнейшая PostgreSQL-конференция: новинки PostgreSQL 19, шардирование 8 ТБ без даунтайма.
#habr
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤1👍1🔥1🙏1
Уважаю движухи для комьюнити. Коллеги из MWS запускают серию онлайн-митапов для обсуждения различных ИТ-направлений.
Первый митап уже 31.03 в 15:00 в онлайне про ИТ-архитектуру — тренды в разработке и обслуживании.
Детали
Трансляция будет тут
P.S.: Ох уж этот дивный новый мир переводов уже устоявшихся терминов.
#нереклама
Первый митап уже 31.03 в 15:00 в онлайне про ИТ-архитектуру — тренды в разработке и обслуживании.
Детали
Трансляция будет тут
P.S.: Ох уж этот дивный новый мир переводов уже устоявшихся терминов.
#нереклама
👍2
Почему OpenAI закрыла Sora
Версия про сбор биометрии не подтвердилась. WSJ провёл расследование и там всё прозаично.
После запуска аудитория Sora выросла примерно до миллиона пользователей. Потом сократилась вдвое — до 500 тысяч. При этом приложение сжигало около $1 млн в день. Не потому что его любили. Просто генерация видео дьявольски дорога в эксплуатации — каждый ролик ест дефицитные GPU.
Итого: убыточный продукт с падающей аудиторией, который держит на себе целую команду и пожирает чипы.
Параллельно Anthropic тихо забирала разработчиков и enterprise-клиентов. Claude Code конкретно рос в тот момент, когда OpenAI тратила ресурсы на видео, которое никому не было нужно. Альтман закрыл Sora, освободил ресурсы, перефокусировался.
Интересная деталь из WSJ: Disney подписал обязательства на $1 млрд в рамках партнёрства с Sora. О закрытии узнал менее чем за час до публичного объявления. Сделка умерла вместе с продуктом.
Это хороший кейс про то, чем ИИ-гонка отличается от обычного продуктового бизнеса. Когда GPU это узкое горлышко, у тебя нет роскоши держать живым убыточный продукт «на перспективу». Выбираешь, куда направить чипы. OpenAI выбрала не видео.
#ai
Версия про сбор биометрии не подтвердилась. WSJ провёл расследование и там всё прозаично.
После запуска аудитория Sora выросла примерно до миллиона пользователей. Потом сократилась вдвое — до 500 тысяч. При этом приложение сжигало около $1 млн в день. Не потому что его любили. Просто генерация видео дьявольски дорога в эксплуатации — каждый ролик ест дефицитные GPU.
Итого: убыточный продукт с падающей аудиторией, который держит на себе целую команду и пожирает чипы.
Параллельно Anthropic тихо забирала разработчиков и enterprise-клиентов. Claude Code конкретно рос в тот момент, когда OpenAI тратила ресурсы на видео, которое никому не было нужно. Альтман закрыл Sora, освободил ресурсы, перефокусировался.
Интересная деталь из WSJ: Disney подписал обязательства на $1 млрд в рамках партнёрства с Sora. О закрытии узнал менее чем за час до публичного объявления. Сделка умерла вместе с продуктом.
Это хороший кейс про то, чем ИИ-гонка отличается от обычного продуктового бизнеса. Когда GPU это узкое горлышко, у тебя нет роскоши держать живым убыточный продукт «на перспективу». Выбираешь, куда направить чипы. OpenAI выбрала не видео.
#ai
👍1
Forwarded from The Art Of Programming
Утекли исходники Claude Code.
Ну утекли и утекли, но читать про это одно удовольствие: Утекли исходники Claude Code. Да, оригинальный текст тут.
Как написал Олег в комментариях:
Отдельно можно посмотреть на выводы ребят занявшихся реверс инжинирингом Claude Code, например, тут.
Ну утекли и утекли, но читать про это одно удовольствие: Утекли исходники Claude Code. Да, оригинальный текст тут.
Как написал Олег в комментариях:
Главная ошибка Claude Code - неверное определение даты слива 🙂 В программировании есть две сложных вещи, одна из них - правильно посчитать даты с переносами часового пояса 🙂
Отдельно можно посмотреть на выводы ребят занявшихся реверс инжинирингом Claude Code, например, тут.
👍1🤔1
Есть у меня большая история недели о том, как я боролся с зависаниями агентов при работе с большими материалами. Реально большими.
Но лучше завтра её выложу.
А пока мораль: в процессе работы над чем-то универсальным и работающим так, как тебе нужно, всегда надо помнить о принципах, которые были заложены в стоковой системе.
Но лучше завтра её выложу.
А пока мораль: в процессе работы над чем-то универсальным и работающим так, как тебе нужно, всегда надо помнить о принципах, которые были заложены в стоковой системе.
❤1