Инженер Контекста
904 subscribers
545 photos
40 videos
4 files
1.95K links
Евгений Левашов, контент-лид в VK Tech, отвечаю за VK Cloud, VK Data Platform, Tarantool и другой технохардкор. Редактирую ИТ-компании, консультирую, учу. Здесь всё про Ai в контенте, дату, облака и остальной ИТ.

Писать — @levashove

CC BY-NC-SA 4.0
Download Telegram
Ой всё
😁2
Google заботится о безопасности пользователей. Просто не торопится.

Значит, так. Есть расширение «Save Image as Type» с миллионом пользователей. В октябре 2024-го исследователи публично пишут, что группировка Karma воспользовалась схемой supply chain attack: зачем писать вредонос, если можно купить готовое доверенное расширение с аудиторией? Microsoft читает, думает неделю и в феврале 2025-го удаляет расширение из Edge с пометкой «malware».

Google читает. Думает. Оставляет значок «Featured».

Проходит ещё год. Расширение продолжает внедряться на каждую страницу миллиона браузеров, тихо подменять партнёрские коды на Amazon и Shein и кормить мошенников. В новогодние праздники — особенно активно, десятки инъекций в день. Очень своевременно.

В марте 2026-го Google наконец действует решительно и удаляет расширение. Молодцы. Успели.

Это, на секунду, компания, которая год назад переехала на Manifest V3 — специально ради безопасности расширений. Судя по результатам, безопасность была достигнута. Мораль простая: не Microsoft, не сам Google, не тысячи жалоб — расширение убрали тогда, когда убрали.

Проверить, работало ли оно на твоих сайтах:

localStorage.getItem("ldcsv") в консоли DevTools. Любое число в ответе = было активно.

Ну и быстрее снесите расширение, если пользовались.
🤯4
Пару интересных наблюдений из статьи Prompt Engineering Best Practices in 2026: The Ultimate Guide to Better AI Prompts.

Первое: вежливость в промптах не работает, а контекст работает. «Пожалуйста и спасибо» сжигает токены. «Это для технического директора который принимает решение за 5 минут» — меняет вывод кардинально. То есть промпт это не подбор правильных слов. Это проектирование ограничений. Чем расплывчатее запрос — тем увереннее ИИ генерирует правдоподобную ерунду.

Второе: мультиагентные системы переоценены так же, как когда-то микросервисы. Пять агентов для генерации контента — 47 минут. Один хорошо написанный промпт — 14 минут. Прежде чем строить оркестратор, стоит убедиться что задача вообще требует оркестрации.

Я уже писал, что для большинства задач хватит простого воркфлоу. Или можно с простого воркфлоу хотя бы начать.

Фреймворк RCCF который там описан — Role, Context, Constraints, Format — это по сути то, как должен быть устроен любой агент или скилл. Роль задаёт экспертизу. Контекст даёт почву. Ограничения убирают пространство для галлюцинаций. Формат делает вывод предсказуемым.

#ai_agents
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Хуже всего, когда ты эти воркфлоу и пишешь.
1🤣6
Хабр-дайджест: 16–20 марта 2026

📥 Главное

Считаем логарифмы в уме — статья недели с рейтингом +183 и 223 закладками. Автор разобрал приёмы приближённого вычисления логарифмов без калькулятора: разложение чисел, свойства логарифмической функции и правила для быстрого устного счёта.

MTProto-прокси с маскировкой под TLS за 5 минут — 170 000 просмотров, 695 закладок, рейтинг +129. Пошаговая инструкция по настройке прокси, маскирующего трафик под обычный TLS.

Самый популярный язык программирования — Excel. И он Тьюринг-полный — рейтинг +145. Автор доказал, что Excel может выполнить любую вычислимую задачу, и показал это на практических примерах. Учитывая, что Excel — де-факто самый массовый «язык программирования» в мире, это касается каждого, кто хоть раз писал формулу в ячейке.

📥 ИИ: между хайпом и реальностью

Почему русский язык — худший для программирования — автор разобрал, какие проблемы создаёт русский язык при кодинге и работе с ИИ-моделями. Длинные слова, падежи, свободный порядок слов — всё это мешает и программисту, и нейросети.

Отрицатель ИИ на конференции SNUG Silicon Valley — инженер-проектировщик микросхем выступил с контраргументами против ИИ-хайпа в полупроводниковой индустрии. Его тезис: LLM не справляются с верификацией и проектированием чипов.

ИИ ворвался в нашу жизнь? Показалось — критический разбор разрыва между маркетинговыми обещаниями и реальным использованием ИИ в российских компаниях.

2 трлн долга, $2 трлн выручки и 300 млн рабочих мест: ведёт ли ИИ к катастрофе — экономический анализ: во что обходится ИИ-революция глобальной экономике и какие профессии под ударом.

📥 ИИ-агенты: архитектура и практика

AAF: Архитектура автономного ИИ-агента с GraphRAG, EventBus и Docker-песочницей — GraphRAG для долговременной памяти, EventBus для коммуникации, Docker-песочница для выполнения кода. Если вы строите ИИ-агентов — это чертёж, а не маркетинговая презентация.

OpenClaw: установка и первые впечатления — практический гайд по установке open-source ИИ-фреймворка OpenClaw. От загрузки до первого запуска.

📥 Разработка

Высокопроизводительные вычисления на C++ для CPU — профилирование, оптимизация кэша, SIMD-инструкции и параллелизм на уровне процессора. Полезно всем, кто хочет выжать максимум из железа без перехода на GPU.

Send и Sync в Rust: что решает компилятор — как Rust автоматически определяет потокобезопасность типов. Если пишете многопоточный код и не понимаете, почему компилятор ругается, — эта статья объяснит.

📥 Безопасность

10 миллионов в трубу через дырявый почтовый сервер — реальный кейс: уязвимость, цепочка атаки и потеря 10 млн рублей.

Реверс-инжиниринг IoT: от UART до бэкдора — автор подключился к IoT-устройству, разобрал прошивку и нашёл скрытый root-бэкдор. Наглядная демонстрация того, почему дешёвые умные устройства — потенциальная дыра в вашей сети.

📥 DevOps и инфраструктура

Топ-8 опенсорс-инструментов для Kubernetes — подборка от Positive Technologies: от отладки подов до управления секретами.

Потоковая платформа на Kubernetes: от события до дашборда — команда VK Tech описала архитектуру платформы обработки данных в реальном времени.

📥 Базы данных

Избыточность WAL в PostgreSQL — Андрей Бородин разобрал, почему WAL-файлы занимают так много места и как их сжать в несколько раз.

#habr
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1🤯1
Hugging Face опубликовал ежегодный отчёт о состоянии моделей ИИ с открытым исходным кодом. Что там интересного:

💡 За 2025 год китайские модели составили 41% всех загрузок на платформе — Китай вышел на первое место по ежемесячным скачиваниям. Это прямое следствие эффекта DeepSeek: Baidu перешёл с нуля релизов на HF в 2024-м к более чем 100 в 2025-м, ByteDance и Tencent увеличили количество релизов в восемь-девять раз.

💡 Доля индустрии в разработке open source AI упала с 70% до 37%. Доля независимых разработчиков выросли с 17% до 39% загрузок. Но большинство из них не создают модели, они их переупаковывают.

💡 У Alibaba больше производных моделей, чем у Google и ещё одной компании вместе взятых. Если считать все модели Qwen, то их более 200000. Но, кажется, за этим стоит конкретный стратегический выбор Пекина: открыть модели, чтобы занять инфраструктурный слой.

💡 Маленькие модели скачиваются и разворачиваются значительно чаще крупных из-за стоимости, задержек и железа. Средняя медиана скачиваемой модели — 406 млн параметров.

💡 Среднее время интереса к модели — 6 недель — пожалуй, самая честная цифра в отчёте. Open source AI живёт циклами хайпа, а не долгосрочным использованием. Большинство релизов забывают раньше, чем успевают протестировать в проде.

💡 Датасеты по робототехнике выросли с 1145 до 26 991 за год и стали крупнейшей категорией датасетов на платформе, обогнав генерацию текста. Это направление стоит отслеживать отдельно, но это не прорыв в физическом ИИ. Это академические лаборатории, которые наконец-то начали публиковать данные там, где их увидят.

Полный отчёт

#ai
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤯1
И, перед тем как отправится прогуляться по солнечному Калининграду, промпт, который я стал использовать для тестирования своих идей.

Дело в том, что ИИ-модели склонны соглашаться или оставаться нейтральными, вместо того чтобы оспаривать вас напрямую. Это называется AI echo chamber. Вы спрашиваете «хорошая ли это идея?» — вам объясняют, почему она хорошая, вы в ней ещё больше уверены. Решение принято. Это полезно для поиска и суммаризации, но рискованно для принятия решений.

Есть простой способ сломать этот паттерн:

Выступай как скептически настроенный эксперт и критически мыслящий человек.
Проанализируй следующую идею: []
Определи самые слабые допущения.
Перечисли главные риски и точки отказа.
Объясни, что должно быть правдой, чтобы это сработало.
Аргументируй против идеи так, как это сделал бы жёсткий критик.
Задай мне 3–5 вопросов, которые обнажат слабые места или заставят меня переосмыслить идею.
Будь прямым и честным. Не старайся понравиться.


Кажется просто, но при тестировании идей часто ищут именно их подтверждения. А надо бы заходить сначала с другой стороны. И первый раз работать с таким промптом неприятно: непривычно видеть, как твои идеи оспаривают так прямо, особенно когда ты в них уже уверен. Но именно поэтому это работает.

Ещё можно попросить нейросеть оценить идею одновременно с позиций нескольких ролей: например, редактора, новичка и технофоба. Получаете три разных среза за один запрос.

И ещё неплохим ходом может быть обратный промпт в отдельном сеансе:

Выступай как воодушевлённый эксперт и стратегический оптимист.
Проанализируй следующую идею:
Найди самые сильные стороны и скрытый потенциал.
Перечисли сценарии, при которых это сработает лучше ожиданий.
Объясни, почему сомнения в этой идее могут быть ошибочными.
Защити идею так, как это сделал бы её лучший сторонник.
Задай мне 3–5 вопросов, которые помогут раскрыть идею сильнее
или найти неочевидные возможности.
Будь конкретным и вдохновляющим. Не преуменьшай.


И потом уже принимай решение. Хорошего воскресенья. Я гулять.

#ai_prompts
11
Ещё одна неделя в Телеграме Шредингера. Поехали.
🙏1
rules отдельно, skills отдельно: система правил для ИИ-агентов в Claude Code

Возвращаюсь к своему опыту работы с Claude Code. Там за неделю накопилось несколько интересных решений в работе контентными агентами. Например, добавил устойчивость к ошибкам WebSearch и начал сохранять результаты проверок для дообучения. Но сначала надо вам рассказать про правила.

Почему rules, если есть уже привычные skills? Разница между этими сущностями принципиальная:

➡️ rules — это «как оформлять» (ограничения, чеклисты, формат),
➡️ skills — «что знать» (предметная экспертиза, справочники, методологии).

Rules загружаются автоматически через симлинки. Skills вызываются по запросу, когда агенту нужна глубокая экспертиза.

Но всё равно же не очень понятно, зачем такое разделение, да?

6️⃣ Правила не засоряют контекстное окно. Файлы из .claude/rules/ загружаются в системный промт автоматически — агент соблюдает правила, не тратя токены на их обсуждение. Skills, наоборот, подгружаются только когда нужны. Справочник на 200 терминов не висит в контексте постоянно — он появляется в момент, когда автору пора писать, и не мешает исследователю или фактчекеру.

2️⃣ Когда агентов больше одного, правила написания текстов неизбежно дублируются. Обновил термин в одном месте — забыл в трёх других. Решение: вынести все правила в единую директорию rules/ и раздавать агентам через симлинки в .claude/rules/

При этом сами правила делятся на два уровня:

➡️ Общие (rules/common/) загружаются в каждого агента: терминология, стиль, грамматика, протокол работы субагентов.
➡️ Доменные (rules/{domain}/) добавляют специфику формата: у SEO-статьи свои требования к структуре, у пресс-релиза — свои, у лендинга — свои.

Доменные папки могут содержать файлы с теми же именами, что и в common/. Это не дубли, а дельты — дополнения и уточнения общих правил для конкретного формата. Агент загружает оба файла и применяет оба набора ограничений.

Результат: один файл правил — один источник правды. Изменил правило в rules/common/ — оно обновилось у всех агентов. Новый агент подключается за минуту: создал .claude/rules/, добавил симлинки — готово.

Как это работает в оркестрации

В модульной системе с субагентами разделение rules и skills становится особенно важным. Типичный пайплайн:

1️⃣ Оркестратор собирает параметры задачи через wizard.
2️⃣ Субагент-исследователь загружает свои rules (протокол работы, устойчивость к ошибкам поиска), ищет данные, возвращает структурированный конспект.
3️⃣ Субагент-автор загружает свои rules (доменные стандарты формата + общие правила качества) и skill (экспертная специализация), пишет текст по конспекту.
4️⃣ Субагент-проверщик загружает свои rules (требования к фактам и качеству), проверяет текст независимо.

Каждый субагент получает только нужные данные (чистый контекст) и только свои правила. Исследователь не знает правил оформления — они ему не нужны. Автор не знает, как проверять факты — это задача следующего субагента. Фактчекер не знает, как писать — он только проверяет. Такое разделение позволяет держать контекст каждого субагента компактным и сфокусированным.

#ai_agents
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥1
Нашёл интересную реализацию прямолинейного контентного агента на Claude Code — ralph-wiggum-marketer.

Суть: автономный копирайтер который работает в цикле. Задаёшь список задач в формате PRD — с описанием, критериями приёмки и приоритетом. Агент берёт задачу, пишет, проверяет по критериям, коммитит результат, логирует выводы, берёт следующую.

Тут есть интересное решение проблемы памяти. Каждая итерация стартует с чистым контекстом, но агент всегда читает progress.txt с накопленными выводами из прошлых итераций. Паттерны которые сработали остаются. Это и есть самообучение в простейшей реализации.

Плюс три агента-источника которые параллельно заполняют SQLite-базу: один мониторит тренды, второй исследует, третий собирает продуктовые коммуникации. Агент-писатель читает из базы и пишет уже с контекстом — не с нуля.

Для моих задач это, конечно, не готовое решение, но взять отсюда можно две вещи: структуру PRD с явными критериями приёмки для каждой задачи, и паттерн progress.txt как простейшую форму накопленной памяти между сессиями без сложной инфраструктуры.

#ai_agents
12
Утро локальных мемов про морровинд. Не всё ж про ИИ писать.
🔥2👍1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
ЧатГПТ, когда ты опять поймал его за враньём:

(Патпищек прислал, спасибо)
🔥2👍1😁1
Обнаружил, что Chrome и Firefox добавили полноценный режим параллельного просмотра — две страницы бок о бок прямо внутри одного окна, без расширений и без системного Split View.

В Хроме включается так: правая кнопка по вкладке → «Добавить вкладку для параллельного просмотра». Между половинами есть ползунок — можно подвинуть разделитель, если одной стороне нужно больше пространства. Или можно вывести кнопку в панель инструментов.

В Firefox через контекстное меню на вкладке «Добавить разделение экрана».

Просто спасибо. Я работаю на двух широкоформатниках и этого реально не хватало.
❤‍🔥41👍1
Запомним этот март. Чтобы установить VPN на новый телефон, нужен Telegram. Чтобы зайти в Telegram, нужен VPN.
😁3🤯1😱1🤣1
Духоты агентской пост. Расскажу про систему ограничений, которую я допиливал эту неделю. ИИ-агенты ошибаются довольно предсказуемо: выдумывают цифры, каскадируют ошибки между этапами, льют воду, теряют контекст, додумывают данные при сбоях WebSearch и выжирают токены со страшной силой. Что сделал:

➡️ Починил таймауты и ограничил запросы WebSearch. Раньше агенты зависали на длинных запросах и сжигали токены. Теперь у каждого субагента жёсткий лимит, параллельно работает не больше трёх запросов. Адаптивная глубина: если после 3 запросов уже 8+ источников — остальные пропускаются. Если после 5 запросов меньше 5 качественных — включается глубокий режим. Три сбоя подряд — полная остановка. Если поиск лёг — пустой конспект с маркером, а не выдуманные данные.

➡️ Добавил автоматические предохранители от перерасхода токенов. Конспект ресёрчера обрезается на 4-5K символов, а лишнее отсекается по приоритету тиров. Если 80%+ фактов из Tier 1-2 — фактчекер предлагает пропуск (экономия 4-6K токенов). И там много ещё всего.

➡️ Добавил оценку токенового бюджета. Теперь, например, перед запуском пайплайна видно: статья съест 14-20K токенов (5-7% дневного лимита). Можно решить, стоит ли запускать фактчекинг, если все источники и так Tier 1.

➡️ И завершил разбиение всех агентов на субагенты (кажется). Раньше один агент искал, писал и проверял — контекст распухал, ошибки каскадировали. Теперь сборщик, автор и верификатор работают в песочницах. Каждый видит только свои данные.

➡️ Запустил сбор отчётов генерации и ревью. Раз в неделю анализирую отчёты, ищу паттерны ошибок и обновляю правила. Замкнутый цикл: ошибка → отчёт → новое правило → следующая генерация лучше. Автоматику тут не стал делать, чтобы не допустить попадание галлюцинаций в правила.

Главный вывод: не пытайтесь предотвратить все ошибки ИИ-агентов. Стройте систему, которая их обнаруживает, логирует и улучшает правила на основе данных.

P.S.: Что в работе и про что постараюсь рассказать: пишу backend runtime на Python, чтобы wizard-поведение работало не только в Claude Code, но и через API, в своём бэкенде или другом LLM. Короче, чтобы не замыкаться только на Claude, а использовать агенты и в других нейросетях. Но тут ещё тестировать и тестировать.

#ai_agents
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥2👍1🤯1
Хороших выходных
1😁4👌32
Читая дискуссии о нейрослопе, подумалось вот что.

Сопротивление и недовольство «бездушными» текстами и картинками возникает обычно у тех, кто боится, что новые технологии поменяют их жизнь, лишат привычных источников заработка. Люди не любят перемены.

Восхищение и активное продвижение нейросетей идёт от тох, кто не волнуется за будущее своей работы и скорее видит в новых технологиях новые возможности. Проще говоря, всю жизнь мечтал рассказывать машине, что и как надо сделать, зная в голове как это сделать надо.

При этом, конечно, остается открытым вопрос качества контента от нейросетей. С этим ещё, конечно работать как тем, кто обучает модели, так и тем, кто их использует в работе.

#ai
1🤔3👍1