Инженер Контекста
904 subscribers
545 photos
40 videos
4 files
1.95K links
Евгений Левашов, контент-лид в VK Tech, отвечаю за VK Cloud, VK Data Platform, Tarantool и другой технохардкор. Редактирую ИТ-компании, консультирую, учу. Здесь всё про Ai в контенте, дату, облака и остальной ИТ.

Писать — @levashove

CC BY-NC-SA 4.0
Download Telegram
Утро локальных мемов про морровинд. Не всё ж про ИИ писать.
🔥2👍1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
ЧатГПТ, когда ты опять поймал его за враньём:

(Патпищек прислал, спасибо)
🔥2👍1😁1
Обнаружил, что Chrome и Firefox добавили полноценный режим параллельного просмотра — две страницы бок о бок прямо внутри одного окна, без расширений и без системного Split View.

В Хроме включается так: правая кнопка по вкладке → «Добавить вкладку для параллельного просмотра». Между половинами есть ползунок — можно подвинуть разделитель, если одной стороне нужно больше пространства. Или можно вывести кнопку в панель инструментов.

В Firefox через контекстное меню на вкладке «Добавить разделение экрана».

Просто спасибо. Я работаю на двух широкоформатниках и этого реально не хватало.
❤‍🔥41👍1
Запомним этот март. Чтобы установить VPN на новый телефон, нужен Telegram. Чтобы зайти в Telegram, нужен VPN.
😁3🤯1😱1🤣1
Духоты агентской пост. Расскажу про систему ограничений, которую я допиливал эту неделю. ИИ-агенты ошибаются довольно предсказуемо: выдумывают цифры, каскадируют ошибки между этапами, льют воду, теряют контекст, додумывают данные при сбоях WebSearch и выжирают токены со страшной силой. Что сделал:

➡️ Починил таймауты и ограничил запросы WebSearch. Раньше агенты зависали на длинных запросах и сжигали токены. Теперь у каждого субагента жёсткий лимит, параллельно работает не больше трёх запросов. Адаптивная глубина: если после 3 запросов уже 8+ источников — остальные пропускаются. Если после 5 запросов меньше 5 качественных — включается глубокий режим. Три сбоя подряд — полная остановка. Если поиск лёг — пустой конспект с маркером, а не выдуманные данные.

➡️ Добавил автоматические предохранители от перерасхода токенов. Конспект ресёрчера обрезается на 4-5K символов, а лишнее отсекается по приоритету тиров. Если 80%+ фактов из Tier 1-2 — фактчекер предлагает пропуск (экономия 4-6K токенов). И там много ещё всего.

➡️ Добавил оценку токенового бюджета. Теперь, например, перед запуском пайплайна видно: статья съест 14-20K токенов (5-7% дневного лимита). Можно решить, стоит ли запускать фактчекинг, если все источники и так Tier 1.

➡️ И завершил разбиение всех агентов на субагенты (кажется). Раньше один агент искал, писал и проверял — контекст распухал, ошибки каскадировали. Теперь сборщик, автор и верификатор работают в песочницах. Каждый видит только свои данные.

➡️ Запустил сбор отчётов генерации и ревью. Раз в неделю анализирую отчёты, ищу паттерны ошибок и обновляю правила. Замкнутый цикл: ошибка → отчёт → новое правило → следующая генерация лучше. Автоматику тут не стал делать, чтобы не допустить попадание галлюцинаций в правила.

Главный вывод: не пытайтесь предотвратить все ошибки ИИ-агентов. Стройте систему, которая их обнаруживает, логирует и улучшает правила на основе данных.

P.S.: Что в работе и про что постараюсь рассказать: пишу backend runtime на Python, чтобы wizard-поведение работало не только в Claude Code, но и через API, в своём бэкенде или другом LLM. Короче, чтобы не замыкаться только на Claude, а использовать агенты и в других нейросетях. Но тут ещё тестировать и тестировать.

#ai_agents
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥2👍1🤯1
Хороших выходных
1😁4👌32
Читая дискуссии о нейрослопе, подумалось вот что.

Сопротивление и недовольство «бездушными» текстами и картинками возникает обычно у тех, кто боится, что новые технологии поменяют их жизнь, лишат привычных источников заработка. Люди не любят перемены.

Восхищение и активное продвижение нейросетей идёт от тох, кто не волнуется за будущее своей работы и скорее видит в новых технологиях новые возможности. Проще говоря, всю жизнь мечтал рассказывать машине, что и как надо сделать, зная в голове как это сделать надо.

При этом, конечно, остается открытым вопрос качества контента от нейросетей. С этим ещё, конечно работать как тем, кто обучает модели, так и тем, кто их использует в работе.

#ai
1🤔3👍1
Хабр-дайджест за 23–27 марта 2026

Для начала: обязательно посмотрите запись подкаста про вайб-кодинг в инжиниринге данных и в целом от @analyticsfromzero и @cdo_channel. Два часа интересного.

📥 Безопасность и сети

Полный технический анализ MITM в клиенте Telega — разбор механики перехвата трафика в альтернативном Telegram-клиенте. Автор показал, как приложение активирует man-in-the-middle без ведома пользователя.

История одного Ransomware или как я спасал бизнес — практический кейс реагирования на шифровальщик в реальном бизнесе. От обнаружения до восстановления.

Способы обхода замедления Telegram — практические методы работы с замедленным мессенджером. В комментах всегда самое интересное.

📥 ИИ и машинное обучение

Я сделал локального AI-агента для России. Без VPN, без подписки, без облака — разработчик собрал полностью локального AI-помощника для кодинга, работающего без внешних зависимостей. 219 закладок.

DeepSeek на сервере: практический гайд — пошаговая инструкция по развёртыванию DeepSeek на облачной инфраструктуре.

Юридическое поле экспериментов для RAG — опыт участия в соревновании Agentic RAG Legal Challenge: 300+ команд, юридические тексты, LLM-индексация.

Протестировали 22 нейросети на задачах для учителей — бенчмарк EduBench-RU: Claude Opus 4.6, GPT-5.4, Gemini 3.1 Pro. Ни одна модель не знает чувашский.

📥 Разработка и языки

В каждом JPEG зашита модель вашей сетчатки — как JPEG-сжатие кодирует особенности человеческого восприятия. Алгоритмика + Python.

Хватит допускать ошибки в Go: практические рецепты — справочник по типичным проблемам бэкенда на Go: конкурентность, сеть, обработка ошибок.

📥 Highload и базы данных

Миллиард записей и 8 марта: как YDB спасла праздник — кейс Яндекса: синхронизация 4 млрд складских записей на YDB в реальном времени.

PGConf.Russia 2026 — 23–24 марта в Москве прошла крупнейшая PostgreSQL-конференция: новинки PostgreSQL 19, шардирование 8 ТБ без даунтайма.

#habr
Please open Telegram to view this post
VIEW IN TELEGRAM
11👍1🔥1🙏1
Эволюция мемов в природе
🔥1
Уважаю движухи для комьюнити. Коллеги из MWS запускают серию онлайн-митапов для обсуждения различных ИТ-направлений.

Первый митап уже 31.03 в 15:00 в онлайне про ИТ-архитектуру — тренды в разработке и обслуживании.

Детали
Трансляция будет тут

P.S.: Ох уж этот дивный новый мир переводов уже устоявшихся терминов.

#нереклама
👍2
Почему OpenAI закрыла Sora

Версия про сбор биометрии не подтвердилась. WSJ провёл расследование и там всё прозаично.

После запуска аудитория Sora выросла примерно до миллиона пользователей. Потом сократилась вдвое — до 500 тысяч. При этом приложение сжигало около $1 млн в день. Не потому что его любили. Просто генерация видео дьявольски дорога в эксплуатации — каждый ролик ест дефицитные GPU.

Итого: убыточный продукт с падающей аудиторией, который держит на себе целую команду и пожирает чипы.

Параллельно Anthropic тихо забирала разработчиков и enterprise-клиентов. Claude Code конкретно рос в тот момент, когда OpenAI тратила ресурсы на видео, которое никому не было нужно. Альтман закрыл Sora, освободил ресурсы, перефокусировался.

Интересная деталь из WSJ: Disney подписал обязательства на $1 млрд в рамках партнёрства с Sora. О закрытии узнал менее чем за час до публичного объявления. Сделка умерла вместе с продуктом.

Это хороший кейс про то, чем ИИ-гонка отличается от обычного продуктового бизнеса. Когда GPU это узкое горлышко, у тебя нет роскоши держать живым убыточный продукт «на перспективу». Выбираешь, куда направить чипы. OpenAI выбрала не видео.

#ai
👍1
Forwarded from The Art Of Programming
Утекли исходники Claude Code.

Ну утекли и утекли, но читать про это одно удовольствие: Утекли исходники Claude Code. Да, оригинальный текст тут.

Как написал Олег в комментариях:
Главная ошибка Claude Code - неверное определение даты слива 🙂 В программировании есть две сложных вещи, одна из них - правильно посчитать даты с переносами часового пояса 🙂


Отдельно можно посмотреть на выводы ребят занявшихся реверс инжинирингом Claude Code, например, тут.
👍1🤔1
«И всё-таки она плоская!» Юрий Лоза

Вымышленные цитаты не великих.
❤‍🔥1
Есть у меня большая история недели о том, как я боролся с зависаниями агентов при работе с большими материалами. Реально большими.

Но лучше завтра её выложу.

А пока мораль: в процессе работы над чем-то универсальным и работающим так, как тебе нужно, всегда надо помнить о принципах, которые были заложены в стоковой системе.
1
Обещанного контента завезу, а пока лечу в Москву. Завтра в офис и на Data Fusion. Ловите там
🙏21
Чтобы зафиксироваться: сейчас меня система из 25 агентов и субагентов, которые пишут контент конвейером: ресёрчер собирает данные → автор пишет текст → фактчекер проверяет. Более того, я начинал с Claude, но сейчас система работает и c другими LLM: идёт по визарду, подключает нужные скиллы и правила.

Звучит красиво. На практике как раз в процессе работы над бекендом я переусердствовал и мои агенты начали зависать, чего не было в простой системе агентов. Что пришлось сделать:

Проблема 1: Request timed out → pipeline мёртв. LLM-вызовы работали без таймаутов. Если модель тормозила или сеть падала, то весь конвейер блокировался навечно. Без ошибки, без логов, без надежды.

Пришлось писать индивидуальные таймауты для 9 типов агентов: ресёрчерам — 3 минуты (WebSearch любит зависать), авторам — 5 минут, оркестраторам — 10. Плюс retry с экспоненциальным бэкоффом при 503, 529, connection reset.

Проблема 2: потеря данных при обрыве. Ресёрчер 3 минуты собирает данные из 15 источников. Создаёт конспект. Передаёт автору. Автор зависает на генерации → таймаут → сессия сброшена. Конспект потерян. Три минуты работы — в мусорку.

Теперь исследования сохраняются и коммитятся автоматически сразу после получения от ресёрчера, до передачи следующему агенту.

Проблема 3: файлы в никуда Агент пытается сохранить статью в content-hub/seo-articles/drafts/. Папки не существует. Write tool молча зависает. Или ещё веселее: агент генерит текст и сразу пишет в файл одним действием — таймаут.

Правило «сначала покажи, потом сохраняй» и создание всех директорий при старте — звучит очевидно. Но пока не словишь этот косяк, не сделаешь.

Проблема 4: зависание после фактчека. Фактчекер выдаёт отчёт с замечаниями. Дальше нужно спросить пользователя: «применить корректировки?». Но в промте не было механизма взаимодействия. Агент показывал сводку и... зависал. Просто стоял и ждал непонятно чего.

Добавил опцию «Свои правки» в меню, для которой не было обработчика. Пользователь выбирает → агент не знает, что делать → зависание.

Проблема 5: тишина. Агент-автор генерит материал на 35 000 символов. Всё это время — пустой экран. Ни прогресса, ни статуса. Ты сидишь и гадаешь: он работает или завис?

Решение — heartbeat каждые 3 минуты: « seo-writer работает 5м 23с... (heartbeat #2)». Теперь хотя бы понятно, что процесс жив.

Проблема 6: вечное чтение вместо работы.
Запускаешь автора — а он первые 30% времени читает README, изучает структуру репозитория, перечитывает правила. Которые уже загружены автоматически. «Подготовительный паралич» — агент старательно готовится к работе вместо того, чтобы работать.

Лечится только жёстким запретом в промте: «ЗАПРЕТ подготовительных действий. Начинай писать СРАЗУ. Если тратишь > 30% времени на чтение файлов — это ошибка».

Главный уроки из этого безобразия: мультиагентная система ломается не в агентах. Она ломается в промежутках между ними — в передачах, ожиданиях, молчаливых предположениях о том, что «следующий разберётся». Это только часть доработок, в следующих постах соберу продолжение.

#ai_agents
❤‍🔥1🤯1
На Data Fusion несколько раз услышал: «В эпоху ИИ будет цениться контент от человека». Оке.

Я делаю техноконтент уже более десяти лет. И могу сказать честно: худшее, что я видел в профессии, было написано, снято и нарисовано людьми. ИИ пока даже не приблизился к этому дну. Региональную журналистику, например, даже нейросети не спасут. За редким исключением. Человеческое происхождение контента никогда не было гарантией качества. Это был просто единственный доступный вариант.

До генеративного ИИ мир был завален:

➡️ текстами от рерайтеров на бирже за 30 рублей за 1000 знаков;
➡️ стоковыми фотографиями с улыбающимися людьми в офисах;
➡️ лендингами, сделанными племянником директора в конструкторе;
➡️ пресс-релизами, написанными по шаблону 2003 года.

Всё это человеческий контент. Аутентичный. С душой.

На самом деле аудитория никогда не ценила «человеческое». Она ценила хорошее. Просто раньше плохое человеческое выигрывало в кейсах, когда надо сделать дёшево или бесплатно. Теперь конкурент появился. И внезапно оказалось, что планка «лучше среднего копирайтера или среднего дизайнера» — не такая высокая.

Кто конкретно имеется в виду, когда говорят «человеческий контент будет цениться»? Топ 5% — да, всегда ценился. Журналисты-расследователи, сильные авторы с точкой зрения, эксперты с реальным опытом, талантливые дизайнеры — им ИИ не конкурент, он инструмент. Остальные 95% производили промышленный мусор, который почти никто не читал, но который исправно оплачивался, потому что альтернативы не было. ИИ не убивает хороший контент, дизайн, код. Он убивает индустрию посредственного. И это, честно говоря, давно пора. Проблема в том, что большинство людей, которые сейчас переживают за «ценность человеческого контента», — как раз из этих 95%.

И спикерам на DF приходится их как-то успокаивать.

#ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥5🔥4👍31🤯1
После недели в Москве
😭2🤣1
Будь Павлом Дуровым.
Удали 😁😆😁 из телеги.
Please open Telegram to view this post
VIEW IN TELEGRAM
🆒2😁1🤬1