🕐 ИИ Судного дня: 11:55
С этого поста начинается отсчёт. Стрелка условных часов показывает, насколько близко мир к точке, в которой развитие ИИ выйдет из-под контроля. Это не прогноз, а система координат: каждое крупное событие двигает стрелку с обоснованием — или не двигает.
Стартовая позиция — 11:55. Пять минут до полуночи.
С этого поста начинается отсчёт. Стрелка условных часов показывает, насколько близко мир к точке, в которой развитие ИИ выйдет из-под контроля. Это не прогноз, а система координат: каждое крупное событие двигает стрелку с обоснованием — или не двигает.
Стартовая позиция — 11:55. Пять минут до полуночи.
Апрель 2026 года свёл в одном месяце то, что раньше растягивалось на годы. Три корпорации — OpenAI, Anthropic и xAI — независимо друг от друга шагнули на уровень моделей, который переопределил верхнюю границу возможного. GPT-5.5 вышла 23 апреля, Grok 5 с шестью триллионами параметров ждёт второго квартала, а Anthropic ещё 7 апреля анонсировала Claude Mythos. Mythos — особая история.
Anthropic впервые в своей истории отказалась выпускать новую модель публично. Вместо этого — Project Glasswing: доступ получили одиннадцать организаций, и только для одной задачи — искать уязвимости в критических системах. Через неделю вышла Opus 4.7 — та же семейная архитектура, но с намеренно урезанными кибервозможностями. Причина не в маркетинге. На этапе пробной эксплуатации Mythos находила уязвимости в системах, которые десятилетиями держали защиту. Настолько уверенно, что публичный выпуск превратился бы в вопрос безопасности, а не продукта.
Это сдвиг позиции для всей индустрии. Раньше AI-лаборатории выпускали максимум возможного. Теперь максимум оказался слишком острым, чтобы делать его общедоступным. Конкуренты прецедент пока не повторили: GPT-5.5 вышла без подобных ограничений, Grok 5 анонсирован без них тоже. А 22 апреля Google показал противоположную доктрину — на Cloud Next '26 представил Gemini 3.1 Pro плюс парк security-агентов вместо отдельной «страшной» модели. Microsoft Security Copilot — уже общедоступен в M365 E5.
На этом фоне появилось открытое письмо Сэма Альтмана — тринадцать страниц под названием «Industrial Policy for the Intelligence Age». Альтман сравнивает грядущие изменения с Новым курсом Рузвельта: настолько, по его мнению, глубоко они перестроят экономику и общество. Центральное предложение — Public Wealth Fund, национальный фонд, в котором каждый гражданин США получит долю в AI-экономике. В том же документе прямо названы две главные угрозы ближайшего года: массовые кибератаки и биоатаки, созданные с помощью моделей.
Если убрать из этого текста оптимизм автора, картина получается мрачноватая. Когда руководителю ведущей AI-лаборатории приходится объяснять необходимость нового общественного договора, — это тревожный сигнал, что старый мир перестаёт работать под давлением технологии, которую эта же индустрия и создаёт.
Стрелка стоит на 11:55. Не потому что AGI за углом — до настоящего самосознания текущим моделям далеко. А потому что гонка трёх корпораций впервые упёрлась в предел, где сами разработчики не уверены в безопасности публичного выпуска. Регуляция отстаёт, картина будущего в письмах самих лидеров индустрии звучит тревожно, разрыв между возможностями моделей и способностью индустрии их удержать продолжает расти.
В следующих постах рубрики — конкретные события и движения стрелки. Без драмы, с техническими обоснованиями.
@ruwizzard — разработка AI-систем для задач, где цена ошибки измеряется не в часах простоя.
Anthropic впервые в своей истории отказалась выпускать новую модель публично. Вместо этого — Project Glasswing: доступ получили одиннадцать организаций, и только для одной задачи — искать уязвимости в критических системах. Через неделю вышла Opus 4.7 — та же семейная архитектура, но с намеренно урезанными кибервозможностями. Причина не в маркетинге. На этапе пробной эксплуатации Mythos находила уязвимости в системах, которые десятилетиями держали защиту. Настолько уверенно, что публичный выпуск превратился бы в вопрос безопасности, а не продукта.
Это сдвиг позиции для всей индустрии. Раньше AI-лаборатории выпускали максимум возможного. Теперь максимум оказался слишком острым, чтобы делать его общедоступным. Конкуренты прецедент пока не повторили: GPT-5.5 вышла без подобных ограничений, Grok 5 анонсирован без них тоже. А 22 апреля Google показал противоположную доктрину — на Cloud Next '26 представил Gemini 3.1 Pro плюс парк security-агентов вместо отдельной «страшной» модели. Microsoft Security Copilot — уже общедоступен в M365 E5.
На этом фоне появилось открытое письмо Сэма Альтмана — тринадцать страниц под названием «Industrial Policy for the Intelligence Age». Альтман сравнивает грядущие изменения с Новым курсом Рузвельта: настолько, по его мнению, глубоко они перестроят экономику и общество. Центральное предложение — Public Wealth Fund, национальный фонд, в котором каждый гражданин США получит долю в AI-экономике. В том же документе прямо названы две главные угрозы ближайшего года: массовые кибератаки и биоатаки, созданные с помощью моделей.
Если убрать из этого текста оптимизм автора, картина получается мрачноватая. Когда руководителю ведущей AI-лаборатории приходится объяснять необходимость нового общественного договора, — это тревожный сигнал, что старый мир перестаёт работать под давлением технологии, которую эта же индустрия и создаёт.
Стрелка стоит на 11:55. Не потому что AGI за углом — до настоящего самосознания текущим моделям далеко. А потому что гонка трёх корпораций впервые упёрлась в предел, где сами разработчики не уверены в безопасности публичного выпуска. Регуляция отстаёт, картина будущего в письмах самих лидеров индустрии звучит тревожно, разрыв между возможностями моделей и способностью индустрии их удержать продолжает расти.
В следующих постах рубрики — конкретные события и движения стрелки. Без драмы, с техническими обоснованиями.
@ruwizzard — разработка AI-систем для задач, где цена ошибки измеряется не в часах простоя.
С 1 марта 2026 года в России работают поправки к закону о пропаганде наркотиков. Любое упоминание наркотических веществ в книгах, изданных после 1 августа 1990 года, требует специальной маркировки. Издательство «Эксмо» — крупнейшее в стране, около сорока тысяч наименований — поручило проверку всех текстов нейросети. Алгоритм настроен на максимальную чувствительность: лучше отметить пятьсот ложных срабатываний, чем пропустить одно настоящее.
24 марта гендиректор «Эксмо» Евгений Капьев публично рассказал, что ИИ пометил Дениса Драгунского — современного писателя, сына Виктора Драгунского, автора «Денискиных рассказов». Тех самых, на которых выросли три поколения детей. Книги в итоге не сняли с продажи — пометку убрали вручную. «Регулярно происходит так, что искусственный интеллект обозначает что-то опасным, и за этим нужно следить», — сказал Капьев.
И это не единичный случай. По данным Meduza, Litres и The Moscow Times, под автоматическую маркировку «18+ пропаганда наркотиков» уже попали Пушкин, Гоголь, Толстой, биография Булгакова, медицинские справочники, а также Хаксли, Воннегут и Кастанеда. В муниципальных библиотеках Екатеринбурга под фильтром оказалось до тридцати процентов коллекций.
Тип ошибки — лексическое совпадение без понимания смысла. Алгоритм работает не со словами и не со значениями, а с подстроками. В таком режиме «драг» равно «drug» равно пропаганда. На том же уровне абстракции «соль» в кулинарной книге — пропаганда соли как наркотика, а «трава» в ботаническом справочнике — пропаганда марихуаны.
С инженерной точки зрения это классическая failure mode классификаторов: оптимизация на recall в ущерб precision. Когда цена ложноотрицательного срабатывания — административная или уголовная ответственность, проектировщики выкручивают чувствительность на максимум. Получают precision на уровне тридцати–пятидесяти процентов. Дальше есть два пути. Первый — добавить слой человеческой верификации, что обнуляет экономию от автоматизации. Второй — выкатить систему как есть и считать ложные срабатывания приемлемой ценой. «Эксмо» формально идёт по первому пути.
Если строишь подобный пайплайн контент-модерации, подстрочные классификаторы и голые эмбеддинги для смысловых задач — инструменты позапрошлого поколения. Современная архитектура работает иначе. Дешёвый retrieval-классификатор отбирает кандидатов на проверку. LLM с reasoning подтверждает или отклоняет каждое срабатывание с обоснованием. Confidence threshold ставится не на «всё, что хоть отдалённо похоже», а на «модель уверена выше девяноста пяти процентов». Финальное решение по high-stakes контенту остаётся за человеком.
Если бы такой пайплайн стоял у «Эксмо», нейросеть на этапе reasoning ответила бы: «Драгунский — фамилия писателя, не упоминание вещества. Не флажить». В реальности — флажит. Систему сделали быстрее и дешевле, чем нужно для уровня принимаемых ею решений.
@ruwizzard — разработка AI-систем для задач, где цена ошибки измеряется не в часах простоя.
24 марта гендиректор «Эксмо» Евгений Капьев публично рассказал, что ИИ пометил Дениса Драгунского — современного писателя, сына Виктора Драгунского, автора «Денискиных рассказов». Тех самых, на которых выросли три поколения детей. Книги в итоге не сняли с продажи — пометку убрали вручную. «Регулярно происходит так, что искусственный интеллект обозначает что-то опасным, и за этим нужно следить», — сказал Капьев.
И это не единичный случай. По данным Meduza, Litres и The Moscow Times, под автоматическую маркировку «18+ пропаганда наркотиков» уже попали Пушкин, Гоголь, Толстой, биография Булгакова, медицинские справочники, а также Хаксли, Воннегут и Кастанеда. В муниципальных библиотеках Екатеринбурга под фильтром оказалось до тридцати процентов коллекций.
Тип ошибки — лексическое совпадение без понимания смысла. Алгоритм работает не со словами и не со значениями, а с подстроками. В таком режиме «драг» равно «drug» равно пропаганда. На том же уровне абстракции «соль» в кулинарной книге — пропаганда соли как наркотика, а «трава» в ботаническом справочнике — пропаганда марихуаны.
С инженерной точки зрения это классическая failure mode классификаторов: оптимизация на recall в ущерб precision. Когда цена ложноотрицательного срабатывания — административная или уголовная ответственность, проектировщики выкручивают чувствительность на максимум. Получают precision на уровне тридцати–пятидесяти процентов. Дальше есть два пути. Первый — добавить слой человеческой верификации, что обнуляет экономию от автоматизации. Второй — выкатить систему как есть и считать ложные срабатывания приемлемой ценой. «Эксмо» формально идёт по первому пути.
Если строишь подобный пайплайн контент-модерации, подстрочные классификаторы и голые эмбеддинги для смысловых задач — инструменты позапрошлого поколения. Современная архитектура работает иначе. Дешёвый retrieval-классификатор отбирает кандидатов на проверку. LLM с reasoning подтверждает или отклоняет каждое срабатывание с обоснованием. Confidence threshold ставится не на «всё, что хоть отдалённо похоже», а на «модель уверена выше девяноста пяти процентов». Финальное решение по high-stakes контенту остаётся за человеком.
Если бы такой пайплайн стоял у «Эксмо», нейросеть на этапе reasoning ответила бы: «Драгунский — фамилия писателя, не упоминание вещества. Не флажить». В реальности — флажит. Систему сделали быстрее и дешевле, чем нужно для уровня принимаемых ею решений.
@ruwizzard — разработка AI-систем для задач, где цена ошибки измеряется не в часах простоя.
Считается, что проблема в неподготовленных пользователях. Юристы старой школы не понимают LLM, не проверяют выдачу, не знают, что такое галлюцинация. Со временем все научатся, и проблема рассосётся сама собой.
Удобная позиция, но она не объясняет рост штрафов в геометрической прогрессии за один квартал. В январе пятый окружной суд штрафовал на 2 500 долларов. В марте Южный округ Огайо — на 7 500 плюс неуважение к суду. В начале апреля шестой округ — 30 000 за две дюжины придуманных цитат и прекращение дела за «систематические нарушения». 4 апреля окружной федеральный судья Марк Кларк в Орегоне обязал двух юристов выплатить 110 000 долларов за 23 сфабрикованные ссылки на дела и 8 ложных цитат — самая дорогая санкция за ИИ-галлюцинации в истории. 16 апреля Верховный суд Небраски бессрочно отстранил адвоката Грега Лейка от практики после того, как 57 из 63 цитат в его апелляционной записке оказались галлюцинированными. Первая в истории США приостановка лицензии за документы, сгенерированные ИИ.
Это не «отрасль учится постепенно». Это отрасль, где судебная система калибрует штрафы вверх в ответ на устойчивое неподчинение профессии. The Ethics Reporter указывает на парадокс: 61% федеральных судей сами используют ИИ в работе. У них есть штатные клерки для проверки. У среднего юриста — экономическое давление сокращать расходы.
Системная проблема не в адаптации. Она в устройстве самой сделки: юридический ИИ продаётся как инструмент экономии оплачиваемых часов, при этом цена ошибки растёт со скоростью её производства. Юрист сочиняет одну несуществующую ссылку за час, и попадается через месяцы. ИИ выдаёт 57 за один черновик, и попадается на следующем же заседании. В США большинство полисов страхования профессиональной ответственности юристов явно не покрывают претензии, связанные с ИИ, — финансовый ущерб от ошибки юрист несёт лично.
Через 12–24 месяца рынок юридического ИИ расщепится на два слоя. Корпоративный — с обязательной проверкой, RAG по юрисдикционной базе, журналом событий для каждого факта. Дорого, для крупных юрфирм. И индивидуальный — без проверки, на свой страх и риск, для частных практик. У второго слоя реальная стоимость окажется выше, чем у живого младшего юриста. Не потому что ИИ плохо работает, а потому что цена одного провала съедает экономию десяти успешных ускорений.
Юридический ИИ — первая отрасль, где скорость накопления долгов от ИИ обгоняет скорость экономии на людях. Следующая на очереди — медицина.
@ruwizzard — разработка ИИ-систем для задач, где цена ошибки измеряется не в часах простоя.
Удобная позиция, но она не объясняет рост штрафов в геометрической прогрессии за один квартал. В январе пятый окружной суд штрафовал на 2 500 долларов. В марте Южный округ Огайо — на 7 500 плюс неуважение к суду. В начале апреля шестой округ — 30 000 за две дюжины придуманных цитат и прекращение дела за «систематические нарушения». 4 апреля окружной федеральный судья Марк Кларк в Орегоне обязал двух юристов выплатить 110 000 долларов за 23 сфабрикованные ссылки на дела и 8 ложных цитат — самая дорогая санкция за ИИ-галлюцинации в истории. 16 апреля Верховный суд Небраски бессрочно отстранил адвоката Грега Лейка от практики после того, как 57 из 63 цитат в его апелляционной записке оказались галлюцинированными. Первая в истории США приостановка лицензии за документы, сгенерированные ИИ.
Это не «отрасль учится постепенно». Это отрасль, где судебная система калибрует штрафы вверх в ответ на устойчивое неподчинение профессии. The Ethics Reporter указывает на парадокс: 61% федеральных судей сами используют ИИ в работе. У них есть штатные клерки для проверки. У среднего юриста — экономическое давление сокращать расходы.
Системная проблема не в адаптации. Она в устройстве самой сделки: юридический ИИ продаётся как инструмент экономии оплачиваемых часов, при этом цена ошибки растёт со скоростью её производства. Юрист сочиняет одну несуществующую ссылку за час, и попадается через месяцы. ИИ выдаёт 57 за один черновик, и попадается на следующем же заседании. В США большинство полисов страхования профессиональной ответственности юристов явно не покрывают претензии, связанные с ИИ, — финансовый ущерб от ошибки юрист несёт лично.
Через 12–24 месяца рынок юридического ИИ расщепится на два слоя. Корпоративный — с обязательной проверкой, RAG по юрисдикционной базе, журналом событий для каждого факта. Дорого, для крупных юрфирм. И индивидуальный — без проверки, на свой страх и риск, для частных практик. У второго слоя реальная стоимость окажется выше, чем у живого младшего юриста. Не потому что ИИ плохо работает, а потому что цена одного провала съедает экономию десяти успешных ускорений.
Юридический ИИ — первая отрасль, где скорость накопления долгов от ИИ обгоняет скорость экономии на людях. Следующая на очереди — медицина.
@ruwizzard — разработка ИИ-систем для задач, где цена ошибки измеряется не в часах простоя.
В январе MIT Technology Review включил это направление в список 10 прорывных технологий 2026 года. На ICLR 2026 в Рио-де-Жанейро 26–27 апреля состоялся отдельный семинар, представили десятки работающих методов. 30 апреля первый стартап выпустил публичный инструмент для отладки LLM на основе этих техник. За четыре месяца — путь от «интересно у Anthropic» до «у тебя в продакшене».
Что это значит в инженерных терминах. Большие языковые модели — это плотные суперпозиции миллиардов активаций, в которых одни нейроны кодируют разные понятия одновременно. До 2024 года это была чёрная коробка: модель отвечает, а почему — никто не знает. Microscope от Anthropic через sparse autoencoders (разреженные автокодировщики) раскладывает суперпозицию на отдельные интерпретируемые признаки. Можно увидеть, какие нейронные пути активируются для «Моста Золотые Ворота» или «Майкла Джордана» — а значит, что именно происходит в модели перед галлюцинацией, обходом ограничений или отказом отвечать.
Почему на две минуты, а не на пять. Это первый серьёзный технический сдвиг по проблеме, на которую исследователи безопасности ИИ годами указывали как на главное узкое место. Видеть признак внутри модели — значит уметь его контролировать. Но это инструмент одной лаборатории, не индустриальный стандарт. GPT-5.5 и Grok 5 вышли без сопоставимых средств самоинспекции. Доступ к Microscope ограничен Anthropic. Сообщество догоняет, но не всё повторяется. Сдвиг реальный, его масштаб — две минуты.
Вывод. Стрелка двинулась назад впервые с момента запуска канала. Если две другие ведущие лаборатории ответят и выпустят свои аналоги Microscope в течение шести месяцев — будет повод переоценить ещё на минуту-две. Если нет — преимущество Anthropic превратится в разрыв между лабораторией, которая понимает свою модель, и теми, кто строит что-то побольше.
@ruwizzard — разработка ИИ-систем для задач, где понимать, что делает модель, важнее, чем быстро получить ответ.
Что это значит в инженерных терминах. Большие языковые модели — это плотные суперпозиции миллиардов активаций, в которых одни нейроны кодируют разные понятия одновременно. До 2024 года это была чёрная коробка: модель отвечает, а почему — никто не знает. Microscope от Anthropic через sparse autoencoders (разреженные автокодировщики) раскладывает суперпозицию на отдельные интерпретируемые признаки. Можно увидеть, какие нейронные пути активируются для «Моста Золотые Ворота» или «Майкла Джордана» — а значит, что именно происходит в модели перед галлюцинацией, обходом ограничений или отказом отвечать.
Почему на две минуты, а не на пять. Это первый серьёзный технический сдвиг по проблеме, на которую исследователи безопасности ИИ годами указывали как на главное узкое место. Видеть признак внутри модели — значит уметь его контролировать. Но это инструмент одной лаборатории, не индустриальный стандарт. GPT-5.5 и Grok 5 вышли без сопоставимых средств самоинспекции. Доступ к Microscope ограничен Anthropic. Сообщество догоняет, но не всё повторяется. Сдвиг реальный, его масштаб — две минуты.
Вывод. Стрелка двинулась назад впервые с момента запуска канала. Если две другие ведущие лаборатории ответят и выпустят свои аналоги Microscope в течение шести месяцев — будет повод переоценить ещё на минуту-две. Если нет — преимущество Anthropic превратится в разрыв между лабораторией, которая понимает свою модель, и теми, кто строит что-то побольше.
@ruwizzard — разработка ИИ-систем для задач, где понимать, что делает модель, важнее, чем быстро получить ответ.
5 мая Министерство торговли США объявило о соглашениях с Google DeepMind, Microsoft и xAI. Институциональный механизм называется CAISI — Center for AI Standards and Innovation при NIST. С учётом уже существующих с 2024 года соглашений с OpenAI и Anthropic, тогда же переподписанных под новые директивы министра торговли Говарда Лютника и America's AI Action Plan, — теперь все пять frontier-лабораторий под единым процессом проверки до релиза. Прецедента такого масштаба у AI-индустрии не было.
Что важно технически. Тесты проходят в защищённой инфраструктуре правительства, с допуском по форме секретности. Разработчики передают модели с отключёнными или урезанными механизмами безопасности — то есть проверяется не «продукт для пользователя», а «капабилити в чистом виде». Это red-team-подход уровня аудитов критической инфраструктуры, а не поверхностная проверка для прессы.
Триггер очевиден — Claude Mythos. Министр финансов Бессент в апреле специально собрал глав крупнейших американских банков обсудить киберриски от Mythos. Белый дом сформировал процесс ровно в ответ на то, что лучшая модель индустрии оказалась слишком опасной для публичного выпуска. То, что Anthropic сделала жестом ответственности (не релизить Mythos), вернулось через политический канал как индустриальная норма для всех: пять лабораторий обязаны давать модели на проверку.
Почему две минуты, а не пять. Соглашения формально добровольные. Ни закона, ни санкций за нарушение. Если лаборатория решит выпустить модель в обход CAISI — юридического последствия нет, только политические. Кроме того, Министерство торговли на следующей неделе тихо удалило детали соглашений со своего сайта (по данным Benzinga). Либо процесс не финализирован, либо есть давление на менее публичный режим. И ещё: ни одна лаборатория не передаёт веса модели — только доступ через API в правительственной инфраструктуре. CAISI видит выводы модели, но не может полностью реверс-инжинирить её устройство.
Вывод. Это первый случай в истории AI-индустрии, когда государственный механизм проверки до релиза охватывает всех ведущих игроков. На уровне инфраструктуры — институциональный сдвиг. На уровне власти — джентльменское соглашение, которое держится на добросовестности всех пяти лабораторий. Стрелка отступает на две минуты как признание реальности механизма; не на пять — потому что механизм пока без зубов.
@ruwizzard — разработка AI-систем для задач, где важно не только что модель умеет, но и как её проверяли.
Что важно технически. Тесты проходят в защищённой инфраструктуре правительства, с допуском по форме секретности. Разработчики передают модели с отключёнными или урезанными механизмами безопасности — то есть проверяется не «продукт для пользователя», а «капабилити в чистом виде». Это red-team-подход уровня аудитов критической инфраструктуры, а не поверхностная проверка для прессы.
Триггер очевиден — Claude Mythos. Министр финансов Бессент в апреле специально собрал глав крупнейших американских банков обсудить киберриски от Mythos. Белый дом сформировал процесс ровно в ответ на то, что лучшая модель индустрии оказалась слишком опасной для публичного выпуска. То, что Anthropic сделала жестом ответственности (не релизить Mythos), вернулось через политический канал как индустриальная норма для всех: пять лабораторий обязаны давать модели на проверку.
Почему две минуты, а не пять. Соглашения формально добровольные. Ни закона, ни санкций за нарушение. Если лаборатория решит выпустить модель в обход CAISI — юридического последствия нет, только политические. Кроме того, Министерство торговли на следующей неделе тихо удалило детали соглашений со своего сайта (по данным Benzinga). Либо процесс не финализирован, либо есть давление на менее публичный режим. И ещё: ни одна лаборатория не передаёт веса модели — только доступ через API в правительственной инфраструктуре. CAISI видит выводы модели, но не может полностью реверс-инжинирить её устройство.
Вывод. Это первый случай в истории AI-индустрии, когда государственный механизм проверки до релиза охватывает всех ведущих игроков. На уровне инфраструктуры — институциональный сдвиг. На уровне власти — джентльменское соглашение, которое держится на добросовестности всех пяти лабораторий. Стрелка отступает на две минуты как признание реальности механизма; не на пять — потому что механизм пока без зубов.
@ruwizzard — разработка AI-систем для задач, где важно не только что модель умеет, но и как её проверяли.
