Уважаю движухи для комьюнити. Коллеги из MWS запускают серию онлайн-митапов для обсуждения различных ИТ-направлений.
Первый митап уже 31.03 в 15:00 в онлайне про ИТ-архитектуру — тренды в разработке и обслуживании.
Детали
Трансляция будет тут
P.S.: Ох уж этот дивный новый мир переводов уже устоявшихся терминов.
#нереклама
Первый митап уже 31.03 в 15:00 в онлайне про ИТ-архитектуру — тренды в разработке и обслуживании.
Детали
Трансляция будет тут
P.S.: Ох уж этот дивный новый мир переводов уже устоявшихся терминов.
#нереклама
👍2
Почему OpenAI закрыла Sora
Версия про сбор биометрии не подтвердилась. WSJ провёл расследование и там всё прозаично.
После запуска аудитория Sora выросла примерно до миллиона пользователей. Потом сократилась вдвое — до 500 тысяч. При этом приложение сжигало около $1 млн в день. Не потому что его любили. Просто генерация видео дьявольски дорога в эксплуатации — каждый ролик ест дефицитные GPU.
Итого: убыточный продукт с падающей аудиторией, который держит на себе целую команду и пожирает чипы.
Параллельно Anthropic тихо забирала разработчиков и enterprise-клиентов. Claude Code конкретно рос в тот момент, когда OpenAI тратила ресурсы на видео, которое никому не было нужно. Альтман закрыл Sora, освободил ресурсы, перефокусировался.
Интересная деталь из WSJ: Disney подписал обязательства на $1 млрд в рамках партнёрства с Sora. О закрытии узнал менее чем за час до публичного объявления. Сделка умерла вместе с продуктом.
Это хороший кейс про то, чем ИИ-гонка отличается от обычного продуктового бизнеса. Когда GPU это узкое горлышко, у тебя нет роскоши держать живым убыточный продукт «на перспективу». Выбираешь, куда направить чипы. OpenAI выбрала не видео.
#ai
Версия про сбор биометрии не подтвердилась. WSJ провёл расследование и там всё прозаично.
После запуска аудитория Sora выросла примерно до миллиона пользователей. Потом сократилась вдвое — до 500 тысяч. При этом приложение сжигало около $1 млн в день. Не потому что его любили. Просто генерация видео дьявольски дорога в эксплуатации — каждый ролик ест дефицитные GPU.
Итого: убыточный продукт с падающей аудиторией, который держит на себе целую команду и пожирает чипы.
Параллельно Anthropic тихо забирала разработчиков и enterprise-клиентов. Claude Code конкретно рос в тот момент, когда OpenAI тратила ресурсы на видео, которое никому не было нужно. Альтман закрыл Sora, освободил ресурсы, перефокусировался.
Интересная деталь из WSJ: Disney подписал обязательства на $1 млрд в рамках партнёрства с Sora. О закрытии узнал менее чем за час до публичного объявления. Сделка умерла вместе с продуктом.
Это хороший кейс про то, чем ИИ-гонка отличается от обычного продуктового бизнеса. Когда GPU это узкое горлышко, у тебя нет роскоши держать живым убыточный продукт «на перспективу». Выбираешь, куда направить чипы. OpenAI выбрала не видео.
#ai
👍1
Forwarded from The Art Of Programming
Утекли исходники Claude Code.
Ну утекли и утекли, но читать про это одно удовольствие: Утекли исходники Claude Code. Да, оригинальный текст тут.
Как написал Олег в комментариях:
Отдельно можно посмотреть на выводы ребят занявшихся реверс инжинирингом Claude Code, например, тут.
Ну утекли и утекли, но читать про это одно удовольствие: Утекли исходники Claude Code. Да, оригинальный текст тут.
Как написал Олег в комментариях:
Главная ошибка Claude Code - неверное определение даты слива 🙂 В программировании есть две сложных вещи, одна из них - правильно посчитать даты с переносами часового пояса 🙂
Отдельно можно посмотреть на выводы ребят занявшихся реверс инжинирингом Claude Code, например, тут.
👍1🤔1
Есть у меня большая история недели о том, как я боролся с зависаниями агентов при работе с большими материалами. Реально большими.
Но лучше завтра её выложу.
А пока мораль: в процессе работы над чем-то универсальным и работающим так, как тебе нужно, всегда надо помнить о принципах, которые были заложены в стоковой системе.
Но лучше завтра её выложу.
А пока мораль: в процессе работы над чем-то универсальным и работающим так, как тебе нужно, всегда надо помнить о принципах, которые были заложены в стоковой системе.
❤1
Чтобы зафиксироваться: сейчас меня система из 25 агентов и субагентов, которые пишут контент конвейером: ресёрчер собирает данные → автор пишет текст → фактчекер проверяет. Более того, я начинал с Claude, но сейчас система работает и c другими LLM: идёт по визарду, подключает нужные скиллы и правила.
Звучит красиво. На практике как раз в процессе работы над бекендом я переусердствовал и мои агенты начали зависать, чего не было в простой системе агентов. Что пришлось сделать:
Проблема 1: Request timed out → pipeline мёртв. LLM-вызовы работали без таймаутов. Если модель тормозила или сеть падала, то весь конвейер блокировался навечно. Без ошибки, без логов, без надежды.
Пришлось писать индивидуальные таймауты для 9 типов агентов: ресёрчерам — 3 минуты (WebSearch любит зависать), авторам — 5 минут, оркестраторам — 10. Плюс retry с экспоненциальным бэкоффом при 503, 529, connection reset.
Проблема 2: потеря данных при обрыве. Ресёрчер 3 минуты собирает данные из 15 источников. Создаёт конспект. Передаёт автору. Автор зависает на генерации → таймаут → сессия сброшена. Конспект потерян. Три минуты работы — в мусорку.
Теперь исследования сохраняются и коммитятся автоматически сразу после получения от ресёрчера, до передачи следующему агенту.
Проблема 3: файлы в никуда Агент пытается сохранить статью в
Правило «сначала покажи, потом сохраняй» и создание всех директорий при старте — звучит очевидно. Но пока не словишь этот косяк, не сделаешь.
Проблема 4: зависание после фактчека. Фактчекер выдаёт отчёт с замечаниями. Дальше нужно спросить пользователя: «применить корректировки?». Но в промте не было механизма взаимодействия. Агент показывал сводку и... зависал. Просто стоял и ждал непонятно чего.
Добавил опцию «Свои правки» в меню, для которой не было обработчика. Пользователь выбирает → агент не знает, что делать → зависание.
Проблема 5: тишина. Агент-автор генерит материал на 35 000 символов. Всё это время — пустой экран. Ни прогресса, ни статуса. Ты сидишь и гадаешь: он работает или завис?
Решение — heartbeat каждые 3 минуты: «⏳ seo-writer работает 5м 23с... (heartbeat #2)». Теперь хотя бы понятно, что процесс жив.
Проблема 6: вечное чтение вместо работы. Запускаешь автора — а он первые 30% времени читает README, изучает структуру репозитория, перечитывает правила. Которые уже загружены автоматически. «Подготовительный паралич» — агент старательно готовится к работе вместо того, чтобы работать.
Лечится только жёстким запретом в промте: «ЗАПРЕТ подготовительных действий. Начинай писать СРАЗУ. Если тратишь > 30% времени на чтение файлов — это ошибка».
Главный уроки из этого безобразия: мультиагентная система ломается не в агентах. Она ломается в промежутках между ними — в передачах, ожиданиях, молчаливых предположениях о том, что «следующий разберётся». Это только часть доработок, в следующих постах соберу продолжение.
#ai_agents
Звучит красиво. На практике как раз в процессе работы над бекендом я переусердствовал и мои агенты начали зависать, чего не было в простой системе агентов. Что пришлось сделать:
Проблема 1: Request timed out → pipeline мёртв. LLM-вызовы работали без таймаутов. Если модель тормозила или сеть падала, то весь конвейер блокировался навечно. Без ошибки, без логов, без надежды.
Пришлось писать индивидуальные таймауты для 9 типов агентов: ресёрчерам — 3 минуты (WebSearch любит зависать), авторам — 5 минут, оркестраторам — 10. Плюс retry с экспоненциальным бэкоффом при 503, 529, connection reset.
Проблема 2: потеря данных при обрыве. Ресёрчер 3 минуты собирает данные из 15 источников. Создаёт конспект. Передаёт автору. Автор зависает на генерации → таймаут → сессия сброшена. Конспект потерян. Три минуты работы — в мусорку.
Теперь исследования сохраняются и коммитятся автоматически сразу после получения от ресёрчера, до передачи следующему агенту.
Проблема 3: файлы в никуда Агент пытается сохранить статью в
content-hub/seo-articles/drafts/. Папки не существует. Write tool молча зависает. Или ещё веселее: агент генерит текст и сразу пишет в файл одним действием — таймаут.Правило «сначала покажи, потом сохраняй» и создание всех директорий при старте — звучит очевидно. Но пока не словишь этот косяк, не сделаешь.
Проблема 4: зависание после фактчека. Фактчекер выдаёт отчёт с замечаниями. Дальше нужно спросить пользователя: «применить корректировки?». Но в промте не было механизма взаимодействия. Агент показывал сводку и... зависал. Просто стоял и ждал непонятно чего.
Добавил опцию «Свои правки» в меню, для которой не было обработчика. Пользователь выбирает → агент не знает, что делать → зависание.
Проблема 5: тишина. Агент-автор генерит материал на 35 000 символов. Всё это время — пустой экран. Ни прогресса, ни статуса. Ты сидишь и гадаешь: он работает или завис?
Решение — heartbeat каждые 3 минуты: «⏳ seo-writer работает 5м 23с... (heartbeat #2)». Теперь хотя бы понятно, что процесс жив.
Проблема 6: вечное чтение вместо работы. Запускаешь автора — а он первые 30% времени читает README, изучает структуру репозитория, перечитывает правила. Которые уже загружены автоматически. «Подготовительный паралич» — агент старательно готовится к работе вместо того, чтобы работать.
Лечится только жёстким запретом в промте: «ЗАПРЕТ подготовительных действий. Начинай писать СРАЗУ. Если тратишь > 30% времени на чтение файлов — это ошибка».
Главный уроки из этого безобразия: мультиагентная система ломается не в агентах. Она ломается в промежутках между ними — в передачах, ожиданиях, молчаливых предположениях о том, что «следующий разберётся». Это только часть доработок, в следующих постах соберу продолжение.
#ai_agents
❤🔥1🤯1
На Data Fusion несколько раз услышал: «В эпоху ИИ будет цениться контент от человека». Оке.
Я делаю техноконтент уже более десяти лет. И могу сказать честно: худшее, что я видел в профессии, было написано, снято и нарисовано людьми. ИИ пока даже не приблизился к этому дну. Региональную журналистику, например, даже нейросети не спасут. За редким исключением. Человеческое происхождение контента никогда не было гарантией качества. Это был просто единственный доступный вариант.
До генеративного ИИ мир был завален:
➡️ текстами от рерайтеров на бирже за 30 рублей за 1000 знаков;
➡️ стоковыми фотографиями с улыбающимися людьми в офисах;
➡️ лендингами, сделанными племянником директора в конструкторе;
➡️ пресс-релизами, написанными по шаблону 2003 года.
Всё это человеческий контент. Аутентичный. С душой.
На самом деле аудитория никогда не ценила «человеческое». Она ценила хорошее. Просто раньше плохое человеческое выигрывало в кейсах, когда надо сделать дёшево или бесплатно. Теперь конкурент появился. И внезапно оказалось, что планка «лучше среднего копирайтера или среднего дизайнера» — не такая высокая.
Кто конкретно имеется в виду, когда говорят «человеческий контент будет цениться»? Топ 5% — да, всегда ценился. Журналисты-расследователи, сильные авторы с точкой зрения, эксперты с реальным опытом, талантливые дизайнеры — им ИИ не конкурент, он инструмент. Остальные 95% производили промышленный мусор, который почти никто не читал, но который исправно оплачивался, потому что альтернативы не было. ИИ не убивает хороший контент, дизайн, код. Он убивает индустрию посредственного. И это, честно говоря, давно пора. Проблема в том, что большинство людей, которые сейчас переживают за «ценность человеческого контента», — как раз из этих 95%.
И спикерам на DF приходится их как-то успокаивать.
#ai
Я делаю техноконтент уже более десяти лет. И могу сказать честно: худшее, что я видел в профессии, было написано, снято и нарисовано людьми. ИИ пока даже не приблизился к этому дну. Региональную журналистику, например, даже нейросети не спасут. За редким исключением. Человеческое происхождение контента никогда не было гарантией качества. Это был просто единственный доступный вариант.
До генеративного ИИ мир был завален:
Всё это человеческий контент. Аутентичный. С душой.
На самом деле аудитория никогда не ценила «человеческое». Она ценила хорошее. Просто раньше плохое человеческое выигрывало в кейсах, когда надо сделать дёшево или бесплатно. Теперь конкурент появился. И внезапно оказалось, что планка «лучше среднего копирайтера или среднего дизайнера» — не такая высокая.
Кто конкретно имеется в виду, когда говорят «человеческий контент будет цениться»? Топ 5% — да, всегда ценился. Журналисты-расследователи, сильные авторы с точкой зрения, эксперты с реальным опытом, талантливые дизайнеры — им ИИ не конкурент, он инструмент. Остальные 95% производили промышленный мусор, который почти никто не читал, но который исправно оплачивался, потому что альтернативы не было. ИИ не убивает хороший контент, дизайн, код. Он убивает индустрию посредственного. И это, честно говоря, давно пора. Проблема в том, что большинство людей, которые сейчас переживают за «ценность человеческого контента», — как раз из этих 95%.
И спикерам на DF приходится их как-то успокаивать.
#ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥5🔥4👍3❤1🤯1
Будь Павлом Дуровым.
Удали😁 😆 😁 из телеги.
Удали
Please open Telegram to view this post
VIEW IN TELEGRAM
🆒2😁1🤬1