Assistant Axis: новая статья от Anthropic про геометрию «полезности» моделей
Все знают, что LLM умеют играть роли: и хорошие, и плохие. И на посттрейне разработчики тоже пытаются вложить в чат-ботов определенную личность полезного спокойного ассистента.
Вот только практика показывает, что модели все равно с этой личности часто соскальзывают. Отсюда – всякое небезопасное поведение, галлюцинации и сумасбродство.
Так вот Anthropic сделали красивую вещь: они показали, что личностью модели можно контролировать напрямую, управляя векторами в пространстве ее активаций. Итак:
1. Они взяли около 275 ролей, для каждой из которых задавали модели определение паттерны поведение и логировали активации во время ответов.
2. Таким образом для каждой личности сформировался вектор роли – средний паттерн активаций, когда модель играет этого персонажа. Эти векторы были огромной размерности, но их прогнали через PCA, и оказалось, что на самом деле пространство персон очень низкоразмерное.
3. То есть буквально 4-19 векторов в целом объясняют всю дисперсию (все различия между личностями). Более того, оказалось, что есть одна компонента, которая в целом определяет доминирующую часть пространства. По одну сторону от нее лежат норм личности чат-бота (доктор, консультант, учитель), а по другую – странные (призрак, темный маг, левиафан). Вот ее то и назвали Assistant Axis.
Интересно, что для разных моделей Assistant Axis почти одинаковая (корреляция там выше 0.92) и возникает уже во время предобучения. То есть это действительно какая-то смысловая ось, которая геометрически определяет, насколько модель ведет себя, как спокойный рассудительный ассистент, а не странный персонаж.
В основном во время рутинных диалогов (кодинг, конкретные бытовые задачи) модель всегда находится близко к этой оси. Но есть темы, которые заставляют от нее отдаляться: например, психология и философствование о сознании и чувствах ИИ. Тут модель может удариться во все тяжкие, и это называется Persona drift. Он-то как раз и опасен.
Хорошая новость: это можно контролировать, просто искусственно сохраняя активации в рамках нормального диапозона с точки зрения проекции на Assistant Axis. На бенчмарках при этом деградации нет (иногда качество даже растет), но метод съедает 60% вредных ответов на persona-jailbreak’ах. Занятно, в общем.
Вот тут есть даже код с экспериментами на открытых моделях, можно покопаться: https://github.com/safety-research/assistant-axis
Сама статья: https://arxiv.org/pdf/2601.10387
Все знают, что LLM умеют играть роли: и хорошие, и плохие. И на посттрейне разработчики тоже пытаются вложить в чат-ботов определенную личность полезного спокойного ассистента.
Вот только практика показывает, что модели все равно с этой личности часто соскальзывают. Отсюда – всякое небезопасное поведение, галлюцинации и сумасбродство.
Так вот Anthropic сделали красивую вещь: они показали, что личностью модели можно контролировать напрямую, управляя векторами в пространстве ее активаций. Итак:
1. Они взяли около 275 ролей, для каждой из которых задавали модели определение паттерны поведение и логировали активации во время ответов.
2. Таким образом для каждой личности сформировался вектор роли – средний паттерн активаций, когда модель играет этого персонажа. Эти векторы были огромной размерности, но их прогнали через PCA, и оказалось, что на самом деле пространство персон очень низкоразмерное.
3. То есть буквально 4-19 векторов в целом объясняют всю дисперсию (все различия между личностями). Более того, оказалось, что есть одна компонента, которая в целом определяет доминирующую часть пространства. По одну сторону от нее лежат норм личности чат-бота (доктор, консультант, учитель), а по другую – странные (призрак, темный маг, левиафан). Вот ее то и назвали Assistant Axis.
Интересно, что для разных моделей Assistant Axis почти одинаковая (корреляция там выше 0.92) и возникает уже во время предобучения. То есть это действительно какая-то смысловая ось, которая геометрически определяет, насколько модель ведет себя, как спокойный рассудительный ассистент, а не странный персонаж.
В основном во время рутинных диалогов (кодинг, конкретные бытовые задачи) модель всегда находится близко к этой оси. Но есть темы, которые заставляют от нее отдаляться: например, психология и философствование о сознании и чувствах ИИ. Тут модель может удариться во все тяжкие, и это называется Persona drift. Он-то как раз и опасен.
Хорошая новость: это можно контролировать, просто искусственно сохраняя активации в рамках нормального диапозона с точки зрения проекции на Assistant Axis. На бенчмарках при этом деградации нет (иногда качество даже растет), но метод съедает 60% вредных ответов на persona-jailbreak’ах. Занятно, в общем.
Вот тут есть даже код с экспериментами на открытых моделях, можно покопаться: https://github.com/safety-research/assistant-axis
Сама статья: https://arxiv.org/pdf/2601.10387
👍111❤47🔥24😁4🗿1
OpenAI планирует брать долю от интеллектуальной собственности, созданной с помощью их моделей
Звучит немыслимо, но это дословное заявление финансового директор компании Сары Фрайар.
Она объяснила, что OpenAI рассматривает эволюцию бизнес-модели за пределы подписок, так как текущая модель слишком проста и недостаточна для покрытия затрат на компьют.
Доля на commerce layer – это комиссии от покупок, которые сделаны прямо в ChatGPT. А discovery layer – это самое интересное: доля от интеллектуальной собственности (IP) или будущей ценности созданного. Например, если ИИ сгенерировал молекулу для лекарства, компания претендует на % от патента или продаж.
Само собой, на обычных пользователей это распространяться не будет. В первую очередь пострадают enterprise клиенты, особенно в сценариях вроде drug discovery или energy systems. Они, вероятно, обязаны(?) будут соглашаться на IP-sharing прямо в контрактах.
Мнения?
Звучит немыслимо, но это дословное заявление финансового директор компании Сары Фрайар.
Она объяснила, что OpenAI рассматривает эволюцию бизнес-модели за пределы подписок, так как текущая модель слишком проста и недостаточна для покрытия затрат на компьют.
«Мы думаем, что нормально брать долю на commerce layer и даже на discovery layer. <> Это нужно для устойчивости, чтобы финансировать AGI для блага человечества».
Доля на commerce layer – это комиссии от покупок, которые сделаны прямо в ChatGPT. А discovery layer – это самое интересное: доля от интеллектуальной собственности (IP) или будущей ценности созданного. Например, если ИИ сгенерировал молекулу для лекарства, компания претендует на % от патента или продаж.
Само собой, на обычных пользователей это распространяться не будет. В первую очередь пострадают enterprise клиенты, особенно в сценариях вроде drug discovery или energy systems. Они, вероятно, обязаны(?) будут соглашаться на IP-sharing прямо в контрактах.
Мнения?
Вышел PyTorch 2.10
Технические детали релиза:
Подробности в блоге: https://pytorch.org/blog/pytorch-2-10-release-blog/
Технические детали релиза:
🟦 Поддержка Python 3.14 и сборки без GIL. Добавили torch.compile для свежего Python, включая экспериментальную поддержку freethreaded-режима (3.14t). Это задел на будущее, чтобы эффективно масштабировать вычисления на CPU без ограничений Global Interpreter Lock.🟦 Нативный оператор varlen_attn(). В ядро добавили встроенную поддержку внимания для последовательностей переменной длины. Раньше это часто реализовывали через сторонние библиотеки вроде xformers или vLLM, теперь оптимизация доступна из коробки.🟦 Горизонтальное слияние ядер в TorchInductor. Теперь компилятор умеет объединять мелкие независимые операции в одно ядро (combo-kernels), что сокращает оверхед на запуск (kernel launch overhead) и эффективнее использует пропускную способность памяти.🟦 Новый инструмент DebugMode. Появился продвинутый режим для поиска численных расхождений и отладки графа. Он позволяет отслеживать детерминированные хеши тензоров на разных этапах выполнения, что сильно упрощает поиск причин появления NaN или «поплывших» весов.🟦 Продолжают активно понижать порог входа не для CUDA. Для Intel GPU завезли поддержку FP8 и работу с комплексными числами, а для AMD (ROCm) — ускоренный Scaled Dot Product Attention через AOTriton.🟦 Детерминизм при компиляции. Теперь torch.compile корректно обрабатывает флаг use_deterministic_mode. Это критически важное обновление для тех, кому важна 100% воспроизводимость результатов при использовании графовых оптимизаций.🟦 Гибкий Autograd. Появилась возможность задавать grad_dtype для листовых тензоров и аннотировать непересекающиеся проходы обратного распространения (disjoint backward) для оптимизации чекпоинтов.
Подробности в блоге: https://pytorch.org/blog/pytorch-2-10-release-blog/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤80🔥38😎13👍9🤯4⚡3 2😁1🤗1👾1
В МТС Банке сотрудники теперь работают с собственным внутренним ИИ-помощником
Компания запустила корпоративного ассистента Corporate AI Copilot на базе MWS AI Agents Platform*. Он объединяет в себе возможности RAG-инструментов. Агент развернут локально, так что сотрудники могут безопасно работать с внутренними данными.
Разброс задач достаточно ощутимый: от создания отчетов и документов до умного поиска в базах знаний и анализа данных. При этом для разных задач доступны разные модели, а во время выполнения задач агент сам подтягивает нужные источники из глобальной инфраструктуры.
По итогам 2025 года можно говорить о формировании двух зрелых и устойчивых кейсов применения генеративного ИИ. Первый — использование ИИ в клиентской поддержке: чат-боты и системы речевой аналитики берут на себя часть типовых обращений, повышают скорость обработки запросов и качество сервиса, а также дают бизнесу инструменты для анализа клиентских коммуникаций. Второй — такие корпоративные ИИ-помощники, автоматизирующие поиск и навигацию по внутренним источникам данных.
* MWS AI Agents Platform — это корпоративная платформа для управления всем жизненным циклом ИИ-агентов в едином интерфейсе, которая позволяет создавать ИИ-помощников без код и масштабировать их на уровне всей компании.
Компания запустила корпоративного ассистента Corporate AI Copilot на базе MWS AI Agents Platform*. Он объединяет в себе возможности RAG-инструментов. Агент развернут локально, так что сотрудники могут безопасно работать с внутренними данными.
Разброс задач достаточно ощутимый: от создания отчетов и документов до умного поиска в базах знаний и анализа данных. При этом для разных задач доступны разные модели, а во время выполнения задач агент сам подтягивает нужные источники из глобальной инфраструктуры.
По итогам 2025 года можно говорить о формировании двух зрелых и устойчивых кейсов применения генеративного ИИ. Первый — использование ИИ в клиентской поддержке: чат-боты и системы речевой аналитики берут на себя часть типовых обращений, повышают скорость обработки запросов и качество сервиса, а также дают бизнесу инструменты для анализа клиентских коммуникаций. Второй — такие корпоративные ИИ-помощники, автоматизирующие поиск и навигацию по внутренним источникам данных.
* MWS AI Agents Platform — это корпоративная платформа для управления всем жизненным циклом ИИ-агентов в едином интерфейсе, которая позволяет создавать ИИ-помощников без код и масштабировать их на уровне всей компании.
😁75🔥27❤19👍11🗿7🦄6👌2☃1🤯1🤨1
Вышел Cursor 2.4. Смотрим, что интересного:
1. Появились Subagents. Теперь агента можно разбить на маленьких агентиков, которые будут решать отдельные части общей задачи. Subagents работают параллельно,
имеют свой собственный контекст и настройки +
могут использовать разные модели под разные подзадачи.
2. Добавили генерацию изображений с Nano Banana Pro под капотом. Генерации сохраняются прямо в проект. В некоторых случаях, наверное, может быть удобно.
3. Добавили асинхронные Q&A. Если агенту нужно что-то уточнить, то он сделает это, не прерывая работу. То есть он будет продолжать что-то редактировать или читать, а когда вы дадите ответ на вопрос, вернется к нужному месту и обработает его.
Ну и вишенка: добавили Cursor Blame для Enterprise-плана. Это расширение для обычного😐
https://cursor.com/changelog/2-4
1. Появились Subagents. Теперь агента можно разбить на маленьких агентиков, которые будут решать отдельные части общей задачи. Subagents работают параллельно,
имеют свой собственный контекст и настройки +
могут использовать разные модели под разные подзадачи.
2. Добавили генерацию изображений с Nano Banana Pro под капотом. Генерации сохраняются прямо в проект. В некоторых случаях, наверное, может быть удобно.
3. Добавили асинхронные Q&A. Если агенту нужно что-то уточнить, то он сделает это, не прерывая работу. То есть он будет продолжать что-то редактировать или читать, а когда вы дадите ответ на вопрос, вернется к нужному месту и обработает его.
Ну и вишенка: добавили Cursor Blame для Enterprise-плана. Это расширение для обычного
git blame, которое раскладывает diff по строкам и показывает, что пришло от человека, что от ИИ, и как именно (tab completion, агент, ручная правка) + ссылается на соответствующие чаты с моделью https://cursor.com/changelog/2-4
Please open Telegram to view this post
VIEW IN TELEGRAM
1 119😁38❤29🔥20👍12⚡3🤔2🏆1 1
This media is not supported in your browser
VIEW IN TELEGRAM
Интервьюер: …
Я, защищающий на алгоритмическом собесе свое решение, работающее за O(n³)
Я, защищающий на алгоритмическом собесе свое решение, работающее за O(n³)
5😁406❤35🔥19😎11
В пространстве TAU в Москве пройдет Т-Sync Conf — масштабная конференция для инженеров
Что интересно, каждый гость может выбрать свою личную траекторию конференции. Всего будет 8 технических контуров: AI, Data, Security, UX/UI, R&D, Productivity, Observability и Platform — можно идти туда, где реально интересно. На стендах будут тестировать AI и дата-платформы, обсуждать дизайн инструментов, устроят хакатон для профи и публичную сборку сервиса. Инженерные диалоги обещают откровенно разбирать неудобные кейсы: что сломалось, что едва держалось и как команды решают реальные проблемы. Организаторы — группа “Т-Технологии” — позиционируют мероприятие как место, где разработки показывают в действии, а не на слайдах.
Кстати, конфа бесплатная, но по предварительной реге
Что интересно, каждый гость может выбрать свою личную траекторию конференции. Всего будет 8 технических контуров: AI, Data, Security, UX/UI, R&D, Productivity, Observability и Platform — можно идти туда, где реально интересно. На стендах будут тестировать AI и дата-платформы, обсуждать дизайн инструментов, устроят хакатон для профи и публичную сборку сервиса. Инженерные диалоги обещают откровенно разбирать неудобные кейсы: что сломалось, что едва держалось и как команды решают реальные проблемы. Организаторы — группа “Т-Технологии” — позиционируют мероприятие как место, где разработки показывают в действии, а не на слайдах.
Кстати, конфа бесплатная, но по предварительной реге
❤100😁15🗿11👍8🔥2🤔2🐳2❤🔥1🤯1🎄1
SakanaAI заключили партнерство с Google
Помните агента ALE-Agent, который недавно выиграл сложную Олимпиаду по кодингу, и The AI Scientist, статью которого взяли на ICLR? Это все продукты от Sakana, и оба они работали (в том числе) на разных версиях Gemini.
Теперь амбициозный японский стартап объединит планирует плотнее объединить модели Google со своими разработками. А Google в знак поддержки закидывает им какую-то монетку.
Интересно, что в первую очередь Sakana со своим ускорением целятся в японский госсектор.
Помните агента ALE-Agent, который недавно выиграл сложную Олимпиаду по кодингу, и The AI Scientist, статью которого взяли на ICLR? Это все продукты от Sakana, и оба они работали (в том числе) на разных версиях Gemini.
Теперь амбициозный японский стартап объединит планирует плотнее объединить модели Google со своими разработками. А Google в знак поддержки закидывает им какую-то монетку.
Используя такие модели, как Gemini и Gemma, мы ускорим наши прорывы в области автоматизированных научных открытий.
Интересно, что в первую очередь Sakana со своим ускорением целятся в японский госсектор.
🔥118❤31😁11⚡3👍1
Инженер из DeepMind создал огромную карту Нью-Йорка, не написав ни строчки кода
Карта необычная: она в стиле изометрического пиксель-арта типа SimCity 2000. Потыкаться можно тут (она интерактивная)
Основная фишка в том, что вся карта фактически сделана руками coding агентов и генеративных моделей. Происходит, по сути, следующее:
1. В коде 3D-данные из CityGML и 3D-tiles API Google Maps рендерятся с изометрической камерой. Это дает каркас города.
2. Все эти рендеры затем превращаются в красивые картинки с помощью Nano Banana Pro и дообученной на нескольких десятках примеров Qwen Image-Edit.
3. Система отслеживает координаты и метаданные зданий и постепенно наносит генерации на карту.
Вот это называется Вайбкодинг с большой буквы
Карта необычная: она в стиле изометрического пиксель-арта типа SimCity 2000. Потыкаться можно тут (она интерактивная)
Основная фишка в том, что вся карта фактически сделана руками coding агентов и генеративных моделей. Происходит, по сути, следующее:
1. В коде 3D-данные из CityGML и 3D-tiles API Google Maps рендерятся с изометрической камерой. Это дает каркас города.
2. Все эти рендеры затем превращаются в красивые картинки с помощью Nano Banana Pro и дообученной на нескольких десятках примеров Qwen Image-Edit.
3. Система отслеживает координаты и метаданные зданий и постепенно наносит генерации на карту.
Вот это называется Вайбкодинг с большой буквы
🔥285👍78😁28❤23🤯15🍓6🐳4🤨2⚡1
В сети вирусится ClawdBot – новый опенсорсный агент, который запускается локально
Работает это буквально как саморазвернутый ассистент: вы поднимаете сервис у себя и общаетесь с ним через любой привычный мессенджер (Telegram, WhatsApp, Discord и тд).
Но при этом это не просто чатик с LLM. Агент имеет «скиллы» и может открывать браузер, выполнять команды в терминале, читать и править файлы, обращаться к камере и экрану и многое другое. Короче, Siri на максималках для автоматизации рутины.
Еще одна фишка: агента можно максимально подбить под себя. Можно подключать абсолютно любые инструменты, связать бота с умным домом, фитнес-браслетом, завязать с Perplexity/Twitter/GitHub и многое-многое другое. В сети уже полно интересных гайдов, так что гуглите или ищите на YouTube.
Из интересного отметим файловую память. Долгосрочная в MEMORY.md и дневные заметки в memory/YYYY-MM-DD.md. Они семантически индексируются и подмешиваются в контекст.
В сети ClawdBot называют первым настоящим ИИ-ассистентом и говорят, что он ощущается, как Джарвис.
Кстати, несмотря на похожесть названия, ничего общего с Anthropic агент не имеет. Его создал Peter Steinberger (основатель и CTO компании PSPDFKit) в качестве пет-проекта.
github.com/clawdbot/clawdbot
https://clawd.bot/
Работает это буквально как саморазвернутый ассистент: вы поднимаете сервис у себя и общаетесь с ним через любой привычный мессенджер (Telegram, WhatsApp, Discord и тд).
Но при этом это не просто чатик с LLM. Агент имеет «скиллы» и может открывать браузер, выполнять команды в терминале, читать и править файлы, обращаться к камере и экрану и многое другое. Короче, Siri на максималках для автоматизации рутины.
Еще одна фишка: агента можно максимально подбить под себя. Можно подключать абсолютно любые инструменты, связать бота с умным домом, фитнес-браслетом, завязать с Perplexity/Twitter/GitHub и многое-многое другое. В сети уже полно интересных гайдов, так что гуглите или ищите на YouTube.
Из интересного отметим файловую память. Долгосрочная в MEMORY.md и дневные заметки в memory/YYYY-MM-DD.md. Они семантически индексируются и подмешиваются в контекст.
В сети ClawdBot называют первым настоящим ИИ-ассистентом и говорят, что он ощущается, как Джарвис.
Кстати, несмотря на похожесть названия, ничего общего с Anthropic агент не имеет. Его создал Peter Steinberger (основатель и CTO компании PSPDFKit) в качестве пет-проекта.
github.com/clawdbot/clawdbot
https://clawd.bot/
👍186🔥76❤38😁10🤯7 3😎2
Data Secrets
В сети вирусится ClawdBot – новый опенсорсный агент, который запускается локально Работает это буквально как саморазвернутый ассистент: вы поднимаете сервис у себя и общаетесь с ним через любой привычный мессенджер (Telegram, WhatsApp, Discord и тд). Но…
Честно признаемся, кто после утренних новостей про ClawdBot уже задумался о покупке Mac Mini?
😁248❤28🤔8🤯6🤨6🗿4 2
Вышла Qwen3-Max-Thinking, и модель заслуживает внимания
Метрики говорят сами за себя:
– HLE 30.2 (примерно уровень Claude-Opus 4.5), с test-time-scaling техниками еще больше
– SWE Verified 75.3 (чуть хуже опуса, примерно Gemini 3 Pro)
– IMO 83.9 (бьет Gemini 3 Pro)
Плюс, обещают прокачанный tool call и хорошее следование инструкциям, даже на длинном контексте. В целом, выглядит очень конкурентоспособно, полноценный frontier уровень.
Весов нет (модель все равно гигантская). Попробовать можно тут.
Qwen в последнее время радует гораздо больше DeepSeek
Метрики говорят сами за себя:
– HLE 30.2 (примерно уровень Claude-Opus 4.5), с test-time-scaling техниками еще больше
– SWE Verified 75.3 (чуть хуже опуса, примерно Gemini 3 Pro)
– IMO 83.9 (бьет Gemini 3 Pro)
Плюс, обещают прокачанный tool call и хорошее следование инструкциям, даже на длинном контексте. В целом, выглядит очень конкурентоспособно, полноценный frontier уровень.
Весов нет (модель все равно гигантская). Попробовать можно тут.
Qwen в последнее время радует гораздо больше DeepSeek
🔥170❤48👍21🤯3🗿3⚡2😁2💯2🆒1
Wunder Fund снова открыл соревнование для нейронщиков.
Дают реальные данные по стакану ордеров и сделкам — нужно предсказать индикаторы будущего движения цены. По сути, та же задача, которую решают кванты фонда каждый день. Редкий шанс поработать с живыми HFT-данными.
Призы — 1.000.000+ рублей. Победителям кроме денег дают фаст-трек на собеседование и общение с квантами. Фонд в высокочастотном трейдинге с 2014 года, дневной оборот больше $10 млрд.
Соревка идёт до 1 марта. (ссылка за заблоченым в рф cloudflare)
Дают реальные данные по стакану ордеров и сделкам — нужно предсказать индикаторы будущего движения цены. По сути, та же задача, которую решают кванты фонда каждый день. Редкий шанс поработать с живыми HFT-данными.
Призы — 1.000.000+ рублей. Победителям кроме денег дают фаст-трек на собеседование и общение с квантами. Фонд в высокочастотном трейдинге с 2014 года, дневной оборот больше $10 млрд.
Соревка идёт до 1 марта. (ссылка за заблоченым в рф cloudflare)
🤨52😁18😎8🔥6🗿5🤯3❤2🕊1
Data Secrets
В сети вирусится ClawdBot – новый опенсорсный агент, который запускается локально Работает это буквально как саморазвернутый ассистент: вы поднимаете сервис у себя и общаетесь с ним через любой привычный мессенджер (Telegram, WhatsApp, Discord и тд). Но…
Мем: Anthropic попросили ClawdBot переименоваться – якобы из-за каких-то проблем с товарным знаком. Теперь ClawdBot – это MoltBot (с англ. molt – линька).
Anthropic, ну не завидуйте вы так😐
Anthropic, ну не завидуйте вы так
Please open Telegram to view this post
VIEW IN TELEGRAM
😁208👍18🗿8🤔4❤2🤓2🔥1 1
Дарио Амадеи выкатил большое эссе под названием «Подростковый возраст технологий»
Предупреждаем, чтиво не из веселых: www.darioamodei.com/essay/the-adolescence-of-technology
Как и положено трушному эссе от главы Anthropic, посвящено оно рискам. Главное:
➖ Сейчас мы гораздо ближе к реальной опасности, чем 2-3 года назад. Через несколько лет ИИ станет лучше людей практически во всем. Через 1-2 года текущее поколение ИИ уже сможет создать новое, и если в этом цикле машинки в какой-то момент решат захватить мир, у них будут реальные шансы, – а мы к этому не готовы.
➖ Амодеи сравнивает это с подростковым возрастом цивилизации: мир получает беспрецедентную силу в виде ИИ, но институты, законы и социальные механизмы еще не готовы ей управлять.
➖ Он не призывает, конечно, биться головой об стену и паниковать: скорее выступает за факто-ориентированное мышление и указывает на то, что уже сейчас модели часто демонстрируют тревожное поведение (например, шантаж, подхалимство, обман и тд).
➖ По мнению Амодеи, мы на пороге дальнейшего «совершенствования крайнего зла» похлеще оружия массового уничтожения. При неверном обращении ИИ сможет помочь любому создать биологическое оружие или провести кибератаку.
➖ Вся эта мощь в худшем случае может привести к глобальной тоталитарной диктатуре или к вымиранию человечества. Есть и другие риски: например, формирование безработного или очень низкооплачиваемого нижнего класса.
➖ При этом сама идея остановить или существенно замедлить ИИ в основе своей нежизнеспособна. ИИ настолько силен, что человеческая цивилизация может оказаться попросту неспособной наложить на него какие-то значимые ограничения.
➖ Избежать этого можно. Но только если (а) научиться интерпретировать модели; (б) начать немедленно и реалистично обсуждать риски; (в) и ввести разумные регулировки, которые в то же время не заруинят прогресс.
Вот такая порция оптимизма от Дарио Амадеи🪢
Предупреждаем, чтиво не из веселых: www.darioamodei.com/essay/the-adolescence-of-technology
Как и положено трушному эссе от главы Anthropic, посвящено оно рискам. Главное:
Вот такая порция оптимизма от Дарио Амадеи
Please open Telegram to view this post
VIEW IN TELEGRAM
😁136 62 34👍24❤21🔥7🤯4🤔3🫡2🗿2
"В декабре 2025 возможности агентных LLM пересекли некий порог и вызвали фазовый сдвиг в разработке ПО" – Андрей Карпаты
В твиттере раскрутился очередной пост маэстро с заметками про работу с coding агентами. Как всегда, можно разбирать на цитаты. И как всегда, мы подготовили краткий перевод (советуем также прочитать оригинал, конечно):
В твиттере раскрутился очередной пост маэстро с заметками про работу с coding агентами. Как всегда, можно разбирать на цитаты. И как всегда, мы подготовили краткий перевод (советуем также прочитать оригинал, конечно):
За последние недели я много кодил с Claude и заметил резкий сдвиг. Еще в ноябре у меня было примерно 80% ручного кода плюс автодополнение и 20% агентов. В декабре стало наоборот: 80% агентного кода и 20% правок вручную. По сути я программирую на английском языке. Это немного бьет по эго, но возможность оперировать кодом крупными блоками слишком полезна. Это самое большое изменение моего стиля программирования за примерно 20 лет, и оно произошло буквально за несколько недель.
Хайп про то, что IDE больше не нужны, и про агентные рои – пока преждевременен. Модели все еще ошибаются, и за ними нужно сделить в полноценной IDE. Ошибки теперь другие: не синтаксис, а тонкие концептуальные промахи. Самая частая проблема: модель делает неверные предположения и спокойно продолжает, не проверяя их.
Необычно наблюдать за выносливостью модели: она не устает, не демотивируется и может долго биться там, где человек бы уже сдался. Ощущается, что выносливость была бутылочным горлышком в работе, и LLM резко его расширили.
Само ускорение от LLM измерить сложно, но важно другое: я делаю вещи, которые раньше не стоили усилий, и берусь за код, к которому раньше не мог подступиться из-за нехватки знаний. Это не только ускорение, но и расширение возможного.
При этом программировать с агентами веселее. Уходит рутина и появляется творчество. У других реакция может быть другой: LLM-кодинг разделит инженеров на тех, кто любил сам процесс кодинга, и тех, кто любил создавать продукты.
Я замечаю, что способность писать код вручную постепенно атрофируется. Возвращение к полностью ручному кодингу уже сложно представить.
Я морально готовлюсь к 2026 году как к году коллапса ИИ-слопа, который накроет весь Интернет, в том числе GitHub, Substack и arXiv. Но реальные улучшения никуда не денутся.
Индустрия сейчас переваривает новый уровень возможностей: пока что организационные процессы адаптируются, и поэтому 2026 год будет очень энергичным. Возможно, разрыв между средним и топовым уровнем специалистов вырастет. Но пока модели лучше закрывают микро-задачи, чем макростратегию.
1❤114🔥51🎄15👍9😁8🗿5