Forwarded from TechnoME: Multimediamind 🏴☠️
This media is not supported in your browser
VIEW IN TELEGRAM
ЧатГПТ, когда ты опять поймал его за враньём:
(Патпищек прислал, спасибо)
(Патпищек прислал, спасибо)
🔥2👍1😁1
Обнаружил, что Chrome и Firefox добавили полноценный режим параллельного просмотра — две страницы бок о бок прямо внутри одного окна, без расширений и без системного Split View.
В Хроме включается так: правая кнопка по вкладке → «Добавить вкладку для параллельного просмотра». Между половинами есть ползунок — можно подвинуть разделитель, если одной стороне нужно больше пространства. Или можно вывести кнопку в панель инструментов.
В Firefox через контекстное меню на вкладке «Добавить разделение экрана».
Просто спасибо. Я работаю на двух широкоформатниках и этого реально не хватало.
В Хроме включается так: правая кнопка по вкладке → «Добавить вкладку для параллельного просмотра». Между половинами есть ползунок — можно подвинуть разделитель, если одной стороне нужно больше пространства. Или можно вывести кнопку в панель инструментов.
В Firefox через контекстное меню на вкладке «Добавить разделение экрана».
Просто спасибо. Я работаю на двух широкоформатниках и этого реально не хватало.
❤🔥4❤1👍1
Запомним этот март. Чтобы установить VPN на новый телефон, нужен Telegram. Чтобы зайти в Telegram, нужен VPN.
😁3🤯1😱1🤣1
Духоты агентской пост. Расскажу про систему ограничений, которую я допиливал эту неделю. ИИ-агенты ошибаются довольно предсказуемо: выдумывают цифры, каскадируют ошибки между этапами, льют воду, теряют контекст, додумывают данные при сбоях WebSearch и выжирают токены со страшной силой. Что сделал:
➡️ Починил таймауты и ограничил запросы WebSearch. Раньше агенты зависали на длинных запросах и сжигали токены. Теперь у каждого субагента жёсткий лимит, параллельно работает не больше трёх запросов. Адаптивная глубина: если после 3 запросов уже 8+ источников — остальные пропускаются. Если после 5 запросов меньше 5 качественных — включается глубокий режим. Три сбоя подряд — полная остановка. Если поиск лёг — пустой конспект с маркером, а не выдуманные данные.
➡️ Добавил автоматические предохранители от перерасхода токенов. Конспект ресёрчера обрезается на 4-5K символов, а лишнее отсекается по приоритету тиров. Если 80%+ фактов из Tier 1-2 — фактчекер предлагает пропуск (экономия 4-6K токенов). И там много ещё всего.
➡️ Добавил оценку токенового бюджета. Теперь, например, перед запуском пайплайна видно: статья съест 14-20K токенов (5-7% дневного лимита). Можно решить, стоит ли запускать фактчекинг, если все источники и так Tier 1.
➡️ И завершил разбиение всех агентов на субагенты (кажется). Раньше один агент искал, писал и проверял — контекст распухал, ошибки каскадировали. Теперь сборщик, автор и верификатор работают в песочницах. Каждый видит только свои данные.
➡️ Запустил сбор отчётов генерации и ревью. Раз в неделю анализирую отчёты, ищу паттерны ошибок и обновляю правила. Замкнутый цикл: ошибка → отчёт → новое правило → следующая генерация лучше. Автоматику тут не стал делать, чтобы не допустить попадание галлюцинаций в правила.
Главный вывод: не пытайтесь предотвратить все ошибки ИИ-агентов. Стройте систему, которая их обнаруживает, логирует и улучшает правила на основе данных.
P.S.: Что в работе и про что постараюсь рассказать: пишу backend runtime на Python, чтобы wizard-поведение работало не только в Claude Code, но и через API, в своём бэкенде или другом LLM. Короче, чтобы не замыкаться только на Claude, а использовать агенты и в других нейросетях. Но тут ещё тестировать и тестировать.
#ai_agents
Главный вывод: не пытайтесь предотвратить все ошибки ИИ-агентов. Стройте систему, которая их обнаруживает, логирует и улучшает правила на основе данных.
P.S.: Что в работе и про что постараюсь рассказать: пишу backend runtime на Python, чтобы wizard-поведение работало не только в Claude Code, но и через API, в своём бэкенде или другом LLM. Короче, чтобы не замыкаться только на Claude, а использовать агенты и в других нейросетях. Но тут ещё тестировать и тестировать.
#ai_agents
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥2👍1🤯1
Читая дискуссии о нейрослопе, подумалось вот что.
Сопротивление и недовольство «бездушными» текстами и картинками возникает обычно у тех, кто боится, что новые технологии поменяют их жизнь, лишат привычных источников заработка. Люди не любят перемены.
Восхищение и активное продвижение нейросетей идёт от тох, кто не волнуется за будущее своей работы и скорее видит в новых технологиях новые возможности. Проще говоря, всю жизнь мечтал рассказывать машине, что и как надо сделать, зная в голове как это сделать надо.
При этом, конечно, остается открытым вопрос качества контента от нейросетей. С этим ещё, конечно работать как тем, кто обучает модели, так и тем, кто их использует в работе.
#ai
Сопротивление и недовольство «бездушными» текстами и картинками возникает обычно у тех, кто боится, что новые технологии поменяют их жизнь, лишат привычных источников заработка. Люди не любят перемены.
Восхищение и активное продвижение нейросетей идёт от тох, кто не волнуется за будущее своей работы и скорее видит в новых технологиях новые возможности. Проще говоря, всю жизнь мечтал рассказывать машине, что и как надо сделать, зная в голове как это сделать надо.
При этом, конечно, остается открытым вопрос качества контента от нейросетей. С этим ещё, конечно работать как тем, кто обучает модели, так и тем, кто их использует в работе.
#ai
1🤔3👍1
Хабр-дайджест за 23–27 марта 2026
Для начала: обязательно посмотрите запись подкаста про вайб-кодинг в инжиниринге данных и в целом от @analyticsfromzero и @cdo_channel. Два часа интересного.
📥 Безопасность и сети
Полный технический анализ MITM в клиенте Telega — разбор механики перехвата трафика в альтернативном Telegram-клиенте. Автор показал, как приложение активирует man-in-the-middle без ведома пользователя.
История одного Ransomware или как я спасал бизнес — практический кейс реагирования на шифровальщик в реальном бизнесе. От обнаружения до восстановления.
Способы обхода замедления Telegram — практические методы работы с замедленным мессенджером. В комментах всегда самое интересное.
📥 ИИ и машинное обучение
Я сделал локального AI-агента для России. Без VPN, без подписки, без облака — разработчик собрал полностью локального AI-помощника для кодинга, работающего без внешних зависимостей. 219 закладок.
DeepSeek на сервере: практический гайд — пошаговая инструкция по развёртыванию DeepSeek на облачной инфраструктуре.
Юридическое поле экспериментов для RAG — опыт участия в соревновании Agentic RAG Legal Challenge: 300+ команд, юридические тексты, LLM-индексация.
Протестировали 22 нейросети на задачах для учителей — бенчмарк EduBench-RU: Claude Opus 4.6, GPT-5.4, Gemini 3.1 Pro. Ни одна модель не знает чувашский.
📥 Разработка и языки
В каждом JPEG зашита модель вашей сетчатки — как JPEG-сжатие кодирует особенности человеческого восприятия. Алгоритмика + Python.
Хватит допускать ошибки в Go: практические рецепты — справочник по типичным проблемам бэкенда на Go: конкурентность, сеть, обработка ошибок.
📥 Highload и базы данных
Миллиард записей и 8 марта: как YDB спасла праздник — кейс Яндекса: синхронизация 4 млрд складских записей на YDB в реальном времени.
PGConf.Russia 2026 — 23–24 марта в Москве прошла крупнейшая PostgreSQL-конференция: новинки PostgreSQL 19, шардирование 8 ТБ без даунтайма.
#habr
Для начала: обязательно посмотрите запись подкаста про вайб-кодинг в инжиниринге данных и в целом от @analyticsfromzero и @cdo_channel. Два часа интересного.
Полный технический анализ MITM в клиенте Telega — разбор механики перехвата трафика в альтернативном Telegram-клиенте. Автор показал, как приложение активирует man-in-the-middle без ведома пользователя.
История одного Ransomware или как я спасал бизнес — практический кейс реагирования на шифровальщик в реальном бизнесе. От обнаружения до восстановления.
Способы обхода замедления Telegram — практические методы работы с замедленным мессенджером. В комментах всегда самое интересное.
Я сделал локального AI-агента для России. Без VPN, без подписки, без облака — разработчик собрал полностью локального AI-помощника для кодинга, работающего без внешних зависимостей. 219 закладок.
DeepSeek на сервере: практический гайд — пошаговая инструкция по развёртыванию DeepSeek на облачной инфраструктуре.
Юридическое поле экспериментов для RAG — опыт участия в соревновании Agentic RAG Legal Challenge: 300+ команд, юридические тексты, LLM-индексация.
Протестировали 22 нейросети на задачах для учителей — бенчмарк EduBench-RU: Claude Opus 4.6, GPT-5.4, Gemini 3.1 Pro. Ни одна модель не знает чувашский.
В каждом JPEG зашита модель вашей сетчатки — как JPEG-сжатие кодирует особенности человеческого восприятия. Алгоритмика + Python.
Хватит допускать ошибки в Go: практические рецепты — справочник по типичным проблемам бэкенда на Go: конкурентность, сеть, обработка ошибок.
Миллиард записей и 8 марта: как YDB спасла праздник — кейс Яндекса: синхронизация 4 млрд складских записей на YDB в реальном времени.
PGConf.Russia 2026 — 23–24 марта в Москве прошла крупнейшая PostgreSQL-конференция: новинки PostgreSQL 19, шардирование 8 ТБ без даунтайма.
#habr
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤1👍1🔥1🙏1
Уважаю движухи для комьюнити. Коллеги из MWS запускают серию онлайн-митапов для обсуждения различных ИТ-направлений.
Первый митап уже 31.03 в 15:00 в онлайне про ИТ-архитектуру — тренды в разработке и обслуживании.
Детали
Трансляция будет тут
P.S.: Ох уж этот дивный новый мир переводов уже устоявшихся терминов.
#нереклама
Первый митап уже 31.03 в 15:00 в онлайне про ИТ-архитектуру — тренды в разработке и обслуживании.
Детали
Трансляция будет тут
P.S.: Ох уж этот дивный новый мир переводов уже устоявшихся терминов.
#нереклама
👍2
Почему OpenAI закрыла Sora
Версия про сбор биометрии не подтвердилась. WSJ провёл расследование и там всё прозаично.
После запуска аудитория Sora выросла примерно до миллиона пользователей. Потом сократилась вдвое — до 500 тысяч. При этом приложение сжигало около $1 млн в день. Не потому что его любили. Просто генерация видео дьявольски дорога в эксплуатации — каждый ролик ест дефицитные GPU.
Итого: убыточный продукт с падающей аудиторией, который держит на себе целую команду и пожирает чипы.
Параллельно Anthropic тихо забирала разработчиков и enterprise-клиентов. Claude Code конкретно рос в тот момент, когда OpenAI тратила ресурсы на видео, которое никому не было нужно. Альтман закрыл Sora, освободил ресурсы, перефокусировался.
Интересная деталь из WSJ: Disney подписал обязательства на $1 млрд в рамках партнёрства с Sora. О закрытии узнал менее чем за час до публичного объявления. Сделка умерла вместе с продуктом.
Это хороший кейс про то, чем ИИ-гонка отличается от обычного продуктового бизнеса. Когда GPU это узкое горлышко, у тебя нет роскоши держать живым убыточный продукт «на перспективу». Выбираешь, куда направить чипы. OpenAI выбрала не видео.
#ai
Версия про сбор биометрии не подтвердилась. WSJ провёл расследование и там всё прозаично.
После запуска аудитория Sora выросла примерно до миллиона пользователей. Потом сократилась вдвое — до 500 тысяч. При этом приложение сжигало около $1 млн в день. Не потому что его любили. Просто генерация видео дьявольски дорога в эксплуатации — каждый ролик ест дефицитные GPU.
Итого: убыточный продукт с падающей аудиторией, который держит на себе целую команду и пожирает чипы.
Параллельно Anthropic тихо забирала разработчиков и enterprise-клиентов. Claude Code конкретно рос в тот момент, когда OpenAI тратила ресурсы на видео, которое никому не было нужно. Альтман закрыл Sora, освободил ресурсы, перефокусировался.
Интересная деталь из WSJ: Disney подписал обязательства на $1 млрд в рамках партнёрства с Sora. О закрытии узнал менее чем за час до публичного объявления. Сделка умерла вместе с продуктом.
Это хороший кейс про то, чем ИИ-гонка отличается от обычного продуктового бизнеса. Когда GPU это узкое горлышко, у тебя нет роскоши держать живым убыточный продукт «на перспективу». Выбираешь, куда направить чипы. OpenAI выбрала не видео.
#ai
👍1
Forwarded from The Art Of Programming
Утекли исходники Claude Code.
Ну утекли и утекли, но читать про это одно удовольствие: Утекли исходники Claude Code. Да, оригинальный текст тут.
Как написал Олег в комментариях:
Отдельно можно посмотреть на выводы ребят занявшихся реверс инжинирингом Claude Code, например, тут.
Ну утекли и утекли, но читать про это одно удовольствие: Утекли исходники Claude Code. Да, оригинальный текст тут.
Как написал Олег в комментариях:
Главная ошибка Claude Code - неверное определение даты слива 🙂 В программировании есть две сложных вещи, одна из них - правильно посчитать даты с переносами часового пояса 🙂
Отдельно можно посмотреть на выводы ребят занявшихся реверс инжинирингом Claude Code, например, тут.
👍1🤔1
Есть у меня большая история недели о том, как я боролся с зависаниями агентов при работе с большими материалами. Реально большими.
Но лучше завтра её выложу.
А пока мораль: в процессе работы над чем-то универсальным и работающим так, как тебе нужно, всегда надо помнить о принципах, которые были заложены в стоковой системе.
Но лучше завтра её выложу.
А пока мораль: в процессе работы над чем-то универсальным и работающим так, как тебе нужно, всегда надо помнить о принципах, которые были заложены в стоковой системе.
❤1
Чтобы зафиксироваться: сейчас меня система из 25 агентов и субагентов, которые пишут контент конвейером: ресёрчер собирает данные → автор пишет текст → фактчекер проверяет. Более того, я начинал с Claude, но сейчас система работает и c другими LLM: идёт по визарду, подключает нужные скиллы и правила.
Звучит красиво. На практике как раз в процессе работы над бекендом я переусердствовал и мои агенты начали зависать, чего не было в простой системе агентов. Что пришлось сделать:
Проблема 1: Request timed out → pipeline мёртв. LLM-вызовы работали без таймаутов. Если модель тормозила или сеть падала, то весь конвейер блокировался навечно. Без ошибки, без логов, без надежды.
Пришлось писать индивидуальные таймауты для 9 типов агентов: ресёрчерам — 3 минуты (WebSearch любит зависать), авторам — 5 минут, оркестраторам — 10. Плюс retry с экспоненциальным бэкоффом при 503, 529, connection reset.
Проблема 2: потеря данных при обрыве. Ресёрчер 3 минуты собирает данные из 15 источников. Создаёт конспект. Передаёт автору. Автор зависает на генерации → таймаут → сессия сброшена. Конспект потерян. Три минуты работы — в мусорку.
Теперь исследования сохраняются и коммитятся автоматически сразу после получения от ресёрчера, до передачи следующему агенту.
Проблема 3: файлы в никуда Агент пытается сохранить статью в
Правило «сначала покажи, потом сохраняй» и создание всех директорий при старте — звучит очевидно. Но пока не словишь этот косяк, не сделаешь.
Проблема 4: зависание после фактчека. Фактчекер выдаёт отчёт с замечаниями. Дальше нужно спросить пользователя: «применить корректировки?». Но в промте не было механизма взаимодействия. Агент показывал сводку и... зависал. Просто стоял и ждал непонятно чего.
Добавил опцию «Свои правки» в меню, для которой не было обработчика. Пользователь выбирает → агент не знает, что делать → зависание.
Проблема 5: тишина. Агент-автор генерит материал на 35 000 символов. Всё это время — пустой экран. Ни прогресса, ни статуса. Ты сидишь и гадаешь: он работает или завис?
Решение — heartbeat каждые 3 минуты: «⏳ seo-writer работает 5м 23с... (heartbeat #2)». Теперь хотя бы понятно, что процесс жив.
Проблема 6: вечное чтение вместо работы. Запускаешь автора — а он первые 30% времени читает README, изучает структуру репозитория, перечитывает правила. Которые уже загружены автоматически. «Подготовительный паралич» — агент старательно готовится к работе вместо того, чтобы работать.
Лечится только жёстким запретом в промте: «ЗАПРЕТ подготовительных действий. Начинай писать СРАЗУ. Если тратишь > 30% времени на чтение файлов — это ошибка».
Главный уроки из этого безобразия: мультиагентная система ломается не в агентах. Она ломается в промежутках между ними — в передачах, ожиданиях, молчаливых предположениях о том, что «следующий разберётся». Это только часть доработок, в следующих постах соберу продолжение.
#ai_agents
Звучит красиво. На практике как раз в процессе работы над бекендом я переусердствовал и мои агенты начали зависать, чего не было в простой системе агентов. Что пришлось сделать:
Проблема 1: Request timed out → pipeline мёртв. LLM-вызовы работали без таймаутов. Если модель тормозила или сеть падала, то весь конвейер блокировался навечно. Без ошибки, без логов, без надежды.
Пришлось писать индивидуальные таймауты для 9 типов агентов: ресёрчерам — 3 минуты (WebSearch любит зависать), авторам — 5 минут, оркестраторам — 10. Плюс retry с экспоненциальным бэкоффом при 503, 529, connection reset.
Проблема 2: потеря данных при обрыве. Ресёрчер 3 минуты собирает данные из 15 источников. Создаёт конспект. Передаёт автору. Автор зависает на генерации → таймаут → сессия сброшена. Конспект потерян. Три минуты работы — в мусорку.
Теперь исследования сохраняются и коммитятся автоматически сразу после получения от ресёрчера, до передачи следующему агенту.
Проблема 3: файлы в никуда Агент пытается сохранить статью в
content-hub/seo-articles/drafts/. Папки не существует. Write tool молча зависает. Или ещё веселее: агент генерит текст и сразу пишет в файл одним действием — таймаут.Правило «сначала покажи, потом сохраняй» и создание всех директорий при старте — звучит очевидно. Но пока не словишь этот косяк, не сделаешь.
Проблема 4: зависание после фактчека. Фактчекер выдаёт отчёт с замечаниями. Дальше нужно спросить пользователя: «применить корректировки?». Но в промте не было механизма взаимодействия. Агент показывал сводку и... зависал. Просто стоял и ждал непонятно чего.
Добавил опцию «Свои правки» в меню, для которой не было обработчика. Пользователь выбирает → агент не знает, что делать → зависание.
Проблема 5: тишина. Агент-автор генерит материал на 35 000 символов. Всё это время — пустой экран. Ни прогресса, ни статуса. Ты сидишь и гадаешь: он работает или завис?
Решение — heartbeat каждые 3 минуты: «⏳ seo-writer работает 5м 23с... (heartbeat #2)». Теперь хотя бы понятно, что процесс жив.
Проблема 6: вечное чтение вместо работы. Запускаешь автора — а он первые 30% времени читает README, изучает структуру репозитория, перечитывает правила. Которые уже загружены автоматически. «Подготовительный паралич» — агент старательно готовится к работе вместо того, чтобы работать.
Лечится только жёстким запретом в промте: «ЗАПРЕТ подготовительных действий. Начинай писать СРАЗУ. Если тратишь > 30% времени на чтение файлов — это ошибка».
Главный уроки из этого безобразия: мультиагентная система ломается не в агентах. Она ломается в промежутках между ними — в передачах, ожиданиях, молчаливых предположениях о том, что «следующий разберётся». Это только часть доработок, в следующих постах соберу продолжение.
#ai_agents
❤🔥1🤯1