Инженер Контекста
904 subscribers
545 photos
40 videos
4 files
1.95K links
Евгений Левашов, контент-лид в VK Tech, отвечаю за VK Cloud, VK Data Platform, Tarantool и другой технохардкор. Редактирую ИТ-компании, консультирую, учу. Здесь всё про Ai в контенте, дату, облака и остальной ИТ.

Писать — @levashove

CC BY-NC-SA 4.0
Download Telegram
Nvidia: анонсирует апскейлер DLSS 5

Народ в интернетах:
1) орёт
2) возмущается и кэнселлит игры, которые это будут использовать (заранее)
😁2
Alibaba выпустила корпоративный ИИ-агент Wukong. Работает на Qwen, разработан командой DingTalk. Управляет несколькими агентами через единый интерфейс: редактирование документов, согласования, транскрипция встреч, ресёрч. Интеграция со Slack, Teams, WeChat в планах. Пока только по приглашениям.

Платформа позиционируется как инструмент с «корпоративной защитой данных» — это прямой ответ на главный страх enterprise-заказчика перед агентами: «а куда пойдут наши данные».

Всё это происходит в рамках большой реструктуризации. Alibaba собирает весь AI под новое подразделение Alibaba Token Hub — туда войдут Tongyi Lab, линейка Qwen, Wukong, и AI Innovation. Руководить будет лично CEO Эдди У. Формулировка в его меморандуме: «создавать токены, доставлять токены, применять токены». AGI как главная цель компании, обязательства по инвестициям — свыше $53 млрд.

Но вот что остаётся за скобками официальных анонсов.

4 марта Линь Цзуньян — главный технический лидер Qwen — написал в X: «bye my beloved qwen» и покинул компанию. Это стало третьим уходом старшего руководителя из команды Qwen в 2026 году. Линь — 32 года, самый молодой P10-руководитель в Alibaba. Пришёл в 2019 из Пекинского университета. За несколько лет превратил Qwen из побочного проекта в самую скачиваемую open-source LLM-серию в мире: 700 млн загрузок на Hugging Face, 400 открытых моделей, 180 000 дообученных производных от комьюнити.

Уход не добровольный в обычном смысле. Реструктуризация разбила вертикально интегрированную команду Линя на горизонтальные модули: отдельно pre-training, отдельно post-training, отдельно мультимодальность. Это уничтожило ту самую «стартаперскую» автономию, которая и позволяла Qwen двигаться быстрее конкурентов. Его коллеги описывали происходящее как «конец эпохи». Один из членов команды написал прямо: «Я знаю, что уйти было не твоим выбором».

Есть ещё один системный вопрос. Китайские ИИ-компании испытывают трудности с монетизацией: потребители неохотно платят за подписки, большинство моделей — open-source и бесплатны. Разрыв в выручке между ведущими китайскими разработчиками и такими компаниями как Anthropic — колоссальный.

Иными словами: Alibaba создала мощнейший open-source ИИ, чтобы выиграть гонку разработки — и теперь пытается конвертировать это в деньги через enterprise-агентов. Но команда, которая строила эту силу, разошлась. А монетизировать open-source в Китае не умеют.

Ждём квартальный отчёт Alibaba в четверг, там должны появиться первые цифры по AI-выручке. Вот где настоящий ответ на вопрос, работает ли эта стратегия.

#ai_news
👍2
Разобрал репозиторий gstack от Гэрри Тана, CEO Y Combinator. Про критику от комьюнити писать не буду. Это в точности тот же спор который идёт вокруг любого репозитория с конфигами агентов. «Это просто промпты» — технически верно. Но ценность не в промптах, а в ролевой модели и порядке вызовов. Точнее всего описать репу так: структура инженерной организации как принцип проектирования, а не один агент на всё.

Что это такое, собственно:

gstack превращает Claude Code в виртуальную инженерную команду которой ты реально управляешь: CEO который переосмысливает продукт, инженерный менеджер который фиксирует архитектуру, дизайнер который ловит ИИ-шлак, параноидальный ревьюер который находит баги в продакшне, QA-лид который открывает настоящий браузер и кликает по приложению, и релиз-инженер который шипит PR. Тринадцать специалистов, все как слэш-команды, всё в Markdown, MIT-лицензия.

Ключевое отличие от других репозиториев: здесь не просто субагенты под задачи, а роли с разными когнитивными режимами. Один агент не делает всё сразу.

Что применимо для контентных агентов

Гэрри Тан не сделал одного агента «напиши код». Он разделил процесс на роли с разными углами зрения: стратег, исполнитель, ревьюер, контролёр качества. Для контентных агентов это, чисто теоретически, можно интерпретировать так:

/plan-content по образцу /plan-ceo-review — переосмысляет тему перед написанием. Не «напиши статью про Kubernetes», а «какой угол здесь самый сильный, что аудитория хочет узнать, какой тезис будет неожиданным». Стратегический режим перед исполнением.

/review-editorial по образцу /review — находит нарушения редполитики которые проходят поверхностную проверку но выглядят плохо при публикации. Автофиксит запрещённые слова, показывает спорные утверждения без источников.

/qa-content по образцу /qa — проверяет финальный текст по чеклисту: факты атрибутированы, голос соответствует, структура соблюдена, нет клише, длина правильная для формата. Фиксит и перепроверяет.

/ship-content по образцу /ship — финальный прогон перед публикацией: проверка всех пунктов, генерация превью для разных платформ, архивирование в базу опубликованных материалов.

/retro-content по образцу /retro — еженедельный отчёт: сколько материалов вышло, какие форматы, какие темы, что залипло, что нет.

У меня система выстроена по-другому — агенты под задачи, субагенты с чистым контекстом, правила и скиллы — но тем интереснее смотреть на другие варианты архитектур.

#ai_agents
2👍1
Ой всё
😁2
Google заботится о безопасности пользователей. Просто не торопится.

Значит, так. Есть расширение «Save Image as Type» с миллионом пользователей. В октябре 2024-го исследователи публично пишут, что группировка Karma воспользовалась схемой supply chain attack: зачем писать вредонос, если можно купить готовое доверенное расширение с аудиторией? Microsoft читает, думает неделю и в феврале 2025-го удаляет расширение из Edge с пометкой «malware».

Google читает. Думает. Оставляет значок «Featured».

Проходит ещё год. Расширение продолжает внедряться на каждую страницу миллиона браузеров, тихо подменять партнёрские коды на Amazon и Shein и кормить мошенников. В новогодние праздники — особенно активно, десятки инъекций в день. Очень своевременно.

В марте 2026-го Google наконец действует решительно и удаляет расширение. Молодцы. Успели.

Это, на секунду, компания, которая год назад переехала на Manifest V3 — специально ради безопасности расширений. Судя по результатам, безопасность была достигнута. Мораль простая: не Microsoft, не сам Google, не тысячи жалоб — расширение убрали тогда, когда убрали.

Проверить, работало ли оно на твоих сайтах:

localStorage.getItem("ldcsv") в консоли DevTools. Любое число в ответе = было активно.

Ну и быстрее снесите расширение, если пользовались.
🤯4
Пару интересных наблюдений из статьи Prompt Engineering Best Practices in 2026: The Ultimate Guide to Better AI Prompts.

Первое: вежливость в промптах не работает, а контекст работает. «Пожалуйста и спасибо» сжигает токены. «Это для технического директора который принимает решение за 5 минут» — меняет вывод кардинально. То есть промпт это не подбор правильных слов. Это проектирование ограничений. Чем расплывчатее запрос — тем увереннее ИИ генерирует правдоподобную ерунду.

Второе: мультиагентные системы переоценены так же, как когда-то микросервисы. Пять агентов для генерации контента — 47 минут. Один хорошо написанный промпт — 14 минут. Прежде чем строить оркестратор, стоит убедиться что задача вообще требует оркестрации.

Я уже писал, что для большинства задач хватит простого воркфлоу. Или можно с простого воркфлоу хотя бы начать.

Фреймворк RCCF который там описан — Role, Context, Constraints, Format — это по сути то, как должен быть устроен любой агент или скилл. Роль задаёт экспертизу. Контекст даёт почву. Ограничения убирают пространство для галлюцинаций. Формат делает вывод предсказуемым.

#ai_agents
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Хуже всего, когда ты эти воркфлоу и пишешь.
1🤣6
Хабр-дайджест: 16–20 марта 2026

📥 Главное

Считаем логарифмы в уме — статья недели с рейтингом +183 и 223 закладками. Автор разобрал приёмы приближённого вычисления логарифмов без калькулятора: разложение чисел, свойства логарифмической функции и правила для быстрого устного счёта.

MTProto-прокси с маскировкой под TLS за 5 минут — 170 000 просмотров, 695 закладок, рейтинг +129. Пошаговая инструкция по настройке прокси, маскирующего трафик под обычный TLS.

Самый популярный язык программирования — Excel. И он Тьюринг-полный — рейтинг +145. Автор доказал, что Excel может выполнить любую вычислимую задачу, и показал это на практических примерах. Учитывая, что Excel — де-факто самый массовый «язык программирования» в мире, это касается каждого, кто хоть раз писал формулу в ячейке.

📥 ИИ: между хайпом и реальностью

Почему русский язык — худший для программирования — автор разобрал, какие проблемы создаёт русский язык при кодинге и работе с ИИ-моделями. Длинные слова, падежи, свободный порядок слов — всё это мешает и программисту, и нейросети.

Отрицатель ИИ на конференции SNUG Silicon Valley — инженер-проектировщик микросхем выступил с контраргументами против ИИ-хайпа в полупроводниковой индустрии. Его тезис: LLM не справляются с верификацией и проектированием чипов.

ИИ ворвался в нашу жизнь? Показалось — критический разбор разрыва между маркетинговыми обещаниями и реальным использованием ИИ в российских компаниях.

2 трлн долга, $2 трлн выручки и 300 млн рабочих мест: ведёт ли ИИ к катастрофе — экономический анализ: во что обходится ИИ-революция глобальной экономике и какие профессии под ударом.

📥 ИИ-агенты: архитектура и практика

AAF: Архитектура автономного ИИ-агента с GraphRAG, EventBus и Docker-песочницей — GraphRAG для долговременной памяти, EventBus для коммуникации, Docker-песочница для выполнения кода. Если вы строите ИИ-агентов — это чертёж, а не маркетинговая презентация.

OpenClaw: установка и первые впечатления — практический гайд по установке open-source ИИ-фреймворка OpenClaw. От загрузки до первого запуска.

📥 Разработка

Высокопроизводительные вычисления на C++ для CPU — профилирование, оптимизация кэша, SIMD-инструкции и параллелизм на уровне процессора. Полезно всем, кто хочет выжать максимум из железа без перехода на GPU.

Send и Sync в Rust: что решает компилятор — как Rust автоматически определяет потокобезопасность типов. Если пишете многопоточный код и не понимаете, почему компилятор ругается, — эта статья объяснит.

📥 Безопасность

10 миллионов в трубу через дырявый почтовый сервер — реальный кейс: уязвимость, цепочка атаки и потеря 10 млн рублей.

Реверс-инжиниринг IoT: от UART до бэкдора — автор подключился к IoT-устройству, разобрал прошивку и нашёл скрытый root-бэкдор. Наглядная демонстрация того, почему дешёвые умные устройства — потенциальная дыра в вашей сети.

📥 DevOps и инфраструктура

Топ-8 опенсорс-инструментов для Kubernetes — подборка от Positive Technologies: от отладки подов до управления секретами.

Потоковая платформа на Kubernetes: от события до дашборда — команда VK Tech описала архитектуру платформы обработки данных в реальном времени.

📥 Базы данных

Избыточность WAL в PostgreSQL — Андрей Бородин разобрал, почему WAL-файлы занимают так много места и как их сжать в несколько раз.

#habr
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1🤯1
Hugging Face опубликовал ежегодный отчёт о состоянии моделей ИИ с открытым исходным кодом. Что там интересного:

💡 За 2025 год китайские модели составили 41% всех загрузок на платформе — Китай вышел на первое место по ежемесячным скачиваниям. Это прямое следствие эффекта DeepSeek: Baidu перешёл с нуля релизов на HF в 2024-м к более чем 100 в 2025-м, ByteDance и Tencent увеличили количество релизов в восемь-девять раз.

💡 Доля индустрии в разработке open source AI упала с 70% до 37%. Доля независимых разработчиков выросли с 17% до 39% загрузок. Но большинство из них не создают модели, они их переупаковывают.

💡 У Alibaba больше производных моделей, чем у Google и ещё одной компании вместе взятых. Если считать все модели Qwen, то их более 200000. Но, кажется, за этим стоит конкретный стратегический выбор Пекина: открыть модели, чтобы занять инфраструктурный слой.

💡 Маленькие модели скачиваются и разворачиваются значительно чаще крупных из-за стоимости, задержек и железа. Средняя медиана скачиваемой модели — 406 млн параметров.

💡 Среднее время интереса к модели — 6 недель — пожалуй, самая честная цифра в отчёте. Open source AI живёт циклами хайпа, а не долгосрочным использованием. Большинство релизов забывают раньше, чем успевают протестировать в проде.

💡 Датасеты по робототехнике выросли с 1145 до 26 991 за год и стали крупнейшей категорией датасетов на платформе, обогнав генерацию текста. Это направление стоит отслеживать отдельно, но это не прорыв в физическом ИИ. Это академические лаборатории, которые наконец-то начали публиковать данные там, где их увидят.

Полный отчёт

#ai
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤯1
И, перед тем как отправится прогуляться по солнечному Калининграду, промпт, который я стал использовать для тестирования своих идей.

Дело в том, что ИИ-модели склонны соглашаться или оставаться нейтральными, вместо того чтобы оспаривать вас напрямую. Это называется AI echo chamber. Вы спрашиваете «хорошая ли это идея?» — вам объясняют, почему она хорошая, вы в ней ещё больше уверены. Решение принято. Это полезно для поиска и суммаризации, но рискованно для принятия решений.

Есть простой способ сломать этот паттерн:

Выступай как скептически настроенный эксперт и критически мыслящий человек.
Проанализируй следующую идею: []
Определи самые слабые допущения.
Перечисли главные риски и точки отказа.
Объясни, что должно быть правдой, чтобы это сработало.
Аргументируй против идеи так, как это сделал бы жёсткий критик.
Задай мне 3–5 вопросов, которые обнажат слабые места или заставят меня переосмыслить идею.
Будь прямым и честным. Не старайся понравиться.


Кажется просто, но при тестировании идей часто ищут именно их подтверждения. А надо бы заходить сначала с другой стороны. И первый раз работать с таким промптом неприятно: непривычно видеть, как твои идеи оспаривают так прямо, особенно когда ты в них уже уверен. Но именно поэтому это работает.

Ещё можно попросить нейросеть оценить идею одновременно с позиций нескольких ролей: например, редактора, новичка и технофоба. Получаете три разных среза за один запрос.

И ещё неплохим ходом может быть обратный промпт в отдельном сеансе:

Выступай как воодушевлённый эксперт и стратегический оптимист.
Проанализируй следующую идею:
Найди самые сильные стороны и скрытый потенциал.
Перечисли сценарии, при которых это сработает лучше ожиданий.
Объясни, почему сомнения в этой идее могут быть ошибочными.
Защити идею так, как это сделал бы её лучший сторонник.
Задай мне 3–5 вопросов, которые помогут раскрыть идею сильнее
или найти неочевидные возможности.
Будь конкретным и вдохновляющим. Не преуменьшай.


И потом уже принимай решение. Хорошего воскресенья. Я гулять.

#ai_prompts
11
Ещё одна неделя в Телеграме Шредингера. Поехали.
🙏1
rules отдельно, skills отдельно: система правил для ИИ-агентов в Claude Code

Возвращаюсь к своему опыту работы с Claude Code. Там за неделю накопилось несколько интересных решений в работе контентными агентами. Например, добавил устойчивость к ошибкам WebSearch и начал сохранять результаты проверок для дообучения. Но сначала надо вам рассказать про правила.

Почему rules, если есть уже привычные skills? Разница между этими сущностями принципиальная:

➡️ rules — это «как оформлять» (ограничения, чеклисты, формат),
➡️ skills — «что знать» (предметная экспертиза, справочники, методологии).

Rules загружаются автоматически через симлинки. Skills вызываются по запросу, когда агенту нужна глубокая экспертиза.

Но всё равно же не очень понятно, зачем такое разделение, да?

6️⃣ Правила не засоряют контекстное окно. Файлы из .claude/rules/ загружаются в системный промт автоматически — агент соблюдает правила, не тратя токены на их обсуждение. Skills, наоборот, подгружаются только когда нужны. Справочник на 200 терминов не висит в контексте постоянно — он появляется в момент, когда автору пора писать, и не мешает исследователю или фактчекеру.

2️⃣ Когда агентов больше одного, правила написания текстов неизбежно дублируются. Обновил термин в одном месте — забыл в трёх других. Решение: вынести все правила в единую директорию rules/ и раздавать агентам через симлинки в .claude/rules/

При этом сами правила делятся на два уровня:

➡️ Общие (rules/common/) загружаются в каждого агента: терминология, стиль, грамматика, протокол работы субагентов.
➡️ Доменные (rules/{domain}/) добавляют специфику формата: у SEO-статьи свои требования к структуре, у пресс-релиза — свои, у лендинга — свои.

Доменные папки могут содержать файлы с теми же именами, что и в common/. Это не дубли, а дельты — дополнения и уточнения общих правил для конкретного формата. Агент загружает оба файла и применяет оба набора ограничений.

Результат: один файл правил — один источник правды. Изменил правило в rules/common/ — оно обновилось у всех агентов. Новый агент подключается за минуту: создал .claude/rules/, добавил симлинки — готово.

Как это работает в оркестрации

В модульной системе с субагентами разделение rules и skills становится особенно важным. Типичный пайплайн:

1️⃣ Оркестратор собирает параметры задачи через wizard.
2️⃣ Субагент-исследователь загружает свои rules (протокол работы, устойчивость к ошибкам поиска), ищет данные, возвращает структурированный конспект.
3️⃣ Субагент-автор загружает свои rules (доменные стандарты формата + общие правила качества) и skill (экспертная специализация), пишет текст по конспекту.
4️⃣ Субагент-проверщик загружает свои rules (требования к фактам и качеству), проверяет текст независимо.

Каждый субагент получает только нужные данные (чистый контекст) и только свои правила. Исследователь не знает правил оформления — они ему не нужны. Автор не знает, как проверять факты — это задача следующего субагента. Фактчекер не знает, как писать — он только проверяет. Такое разделение позволяет держать контекст каждого субагента компактным и сфокусированным.

#ai_agents
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥1
Нашёл интересную реализацию прямолинейного контентного агента на Claude Code — ralph-wiggum-marketer.

Суть: автономный копирайтер который работает в цикле. Задаёшь список задач в формате PRD — с описанием, критериями приёмки и приоритетом. Агент берёт задачу, пишет, проверяет по критериям, коммитит результат, логирует выводы, берёт следующую.

Тут есть интересное решение проблемы памяти. Каждая итерация стартует с чистым контекстом, но агент всегда читает progress.txt с накопленными выводами из прошлых итераций. Паттерны которые сработали остаются. Это и есть самообучение в простейшей реализации.

Плюс три агента-источника которые параллельно заполняют SQLite-базу: один мониторит тренды, второй исследует, третий собирает продуктовые коммуникации. Агент-писатель читает из базы и пишет уже с контекстом — не с нуля.

Для моих задач это, конечно, не готовое решение, но взять отсюда можно две вещи: структуру PRD с явными критериями приёмки для каждой задачи, и паттерн progress.txt как простейшую форму накопленной памяти между сессиями без сложной инфраструктуры.

#ai_agents
12
Утро локальных мемов про морровинд. Не всё ж про ИИ писать.
🔥2👍1😁1