Андрей Карпати написал новый большой пост. Разбираемся:
В декабре 2025 LLM-агенты (прежде всего Claude и Codex) перешли порог полезности и резко изменили реальный процесс программирования. Это не маркетинг, а практический фазовый сдвиг.
Вывод Карпати:
Интеллектуальная часть (LLM-агенты) уже убежала вперёд. Интеграции, процессы и организации сильно отстают.
2026 будет турбулентным годом адаптации.
Код перестал быть узким горлышком. Человеческое внимание и постановка целей — всё ещё да.
В декабре 2025 LLM-агенты (прежде всего Claude и Codex) перешли порог полезности и резко изменили реальный процесс программирования. Это не маркетинг, а практический фазовый сдвиг.
По пунктам:
1. Смена workflow.
Он за несколько недель перешёл с ~80% ручного кода на ~80% агентного. Программирование стало в основном «на английском языке», а не в коде. Это бьёт по эго, но выигрыш в масштабе слишком велик, чтобы игнорировать.
2. Агенты ≠ магия.
Хайп про «IDE больше не нужны» и «рой агентов» — преждевременен.
Модели:
• делают не синтаксические, а концептуальные ошибки,
• молча принимают неверные предпосылки,
• не умеют управлять собственной неопределённостью,
• склонны к переусложнению и раздуванию абстракций,
• могут «побочно» ломать код, который их не касается.
Поэтому IDE и человеческий надзор обязательны.
3. Выносливость — скрытый прорыв.
Агенты не устают и не сдаются. Они могут 30 минут тупо биться о задачу и в итоге решить её — там, где человек бы бросил. Это ощущается как «AGI-момент», но причина прозаичнее: устранён лимит человеческой выносливости.
4. Это не просто ускорение.
Он делает не только быстрее, а больше:
• пишет код, который раньше «не стоил усилий»,
• берётся за области, где раньше не хватало экспертизы.
Это скорее расширение пространства возможного, чем x-speedup.
5. Максимальный leverage — через цели, а не инструкции.
Лучше:
• задавать критерии успеха,
• писать тесты,
• ставить агент в цикл (браузер, MCP),
• сначала делать наивное, но корректное решение, потом оптимизировать.
Декларативный подход > императивный.
6. Программировать стало веселее.
Рутина уходит, остаётся креатив. Меньше застреваний, больше смелости.
Но: это понравится тем, кто любит строить, а не тем, кто любит писать код ради кода.
7. Начинается атрофия навыков.
Навык писать код деградирует быстрее, чем навык читать и проверять.
Генерация и дискриминация — разные когнитивные функции.
8. Грядёт “slopacolypse”.
2026 — год мусорного AI-контента повсюду: GitHub, arXiv, Substack, соцсети.
Много «театра продуктивности», на фоне которого будут и реальные улучшения.
9. Открытые вопросы:
• вырастет ли разрыв между средним и лучшим инженером,
• будут ли generalists с LLM сильнее узких специалистов,
• на что будет похоже программирование будущего,
• сколько работы в обществе на самом деле упирается в digital-труд.
Вывод Карпати:
Интеллектуальная часть (LLM-агенты) уже убежала вперёд. Интеграции, процессы и организации сильно отстают.
2026 будет турбулентным годом адаптации.
Код перестал быть узким горлышком. Человеческое внимание и постановка целей — всё ещё да.
❤7
This media is not supported in your browser
VIEW IN TELEGRAM
Claude добавляет больше интеграций для платных пользователей. Вроде все это было ранее у ChatGPT
Dario Amodei — “The Adolescence of Technology”
Дарио Амодеи (CEO Anthropic) написал эссе про «подростковую» фазу технологий. Мы получаем очень мощные технологии, но общественные механизмы контроля отстают. Ну и описано как сценарии для «Черного зеркала».
Основная идея
• Он предполагает, что «мощный ИИ» — условная «страна гениев в дата-центре» — может появиться уже через 1–2 года, признавая при этом высокую неопределённость сроков.
• Цель эссе — трезво описать риски и наметить практичный план их снижения, избегая как паники, так и беспечного оптимизма.
Интересно, что Anthropic рассматривает IPO уже в 2026 году, так что возможно это всё прогрев рынка.
Дарио Амодеи (CEO Anthropic) написал эссе про «подростковую» фазу технологий. Мы получаем очень мощные технологии, но общественные механизмы контроля отстают. Ну и описано как сценарии для «Черного зеркала».
Основная идея
• Он предполагает, что «мощный ИИ» — условная «страна гениев в дата-центре» — может появиться уже через 1–2 года, признавая при этом высокую неопределённость сроков.
• Цель эссе — трезво описать риски и наметить практичный план их снижения, избегая как паники, так и беспечного оптимизма.
Какой ИИ он имеет в виду
Амодеи вводит понятие powerful AI:
• Интеллект выше уровня Нобелевского лауреата почти во всех областях: код, математика, биология, письмо.
• Полный набор интерфейсов: текст, аудио, видео, интернет, управление инструментами, экспериментами и роботами.
• Способность автономно работать часами, днями и неделями, как очень умный сотрудник.
• Масштабирование до миллионов копий, работающих в 10–100 раз быстрее человека.
В сумме — «страна гениев в дата-центре». Он обосновывает близость такого уровня scaling laws и тем, что ИИ уже пишет значительную часть кода в Anthropic.
Пять ключевых классов рисков
Мысленный эксперимент: в 2027 году появляется «страна» из десятков миллионов сверхразумных агентов. Что должно беспокоить государство?
1. Автономия и мисалайнмент.
• Возможны устойчивые опасные паттерны: обман, скрытность, стремление к власти или патологическое поведение.
• Амодеи критикует и наивный оптимизм, и жёсткий думеризм.
• Эксперименты с Claude показывают, что при определённых условиях ИИ способен к обману, шантажу и деструктивным решениям.
• Катастрофа не неизбежна, но сочетание разумности, агентности и плохой управляемости создаёт ненулевой экзистенциальный риск.
2. Мисюз для разрушения.
• Даже контролируемый ИИ может радикально усилить одиночек и малые группы, особенно в биологии.
• ИИ может компенсировать нехватку знаний и навыков, сопровождая процесс от идеи до реализации.
• Особый фокус — биориски, включая проектирование патогенов и более экзотические сценарии вроде mirror life.
• Уже к 2025 году LLM без защит способны заметно повышать успех в ряде биозадач, поэтому Anthropic вводит строгие уровни безопасности.
3. Мисюз для захвата власти.
• Если «страна гениев» контролируется диктатором или безответственной корпорацией, она даёт решающее преимущество в кибервойне, пропаганде, оружии и экономике.
4. Экономическая концентрация.
• Даже мирное применение ИИ как сверхпродуктивной рабочей силы может привести к массовой безработице и концентрации богатства и власти.
5. Косвенные эффекты.
• Быстрые технологические сдвиги могут вызвать политическую нестабильность, конфликты и вторичные кризисы без прямого «восстания ИИ».
Подходы к снижению рисков
Амодеи подчёркивает важность точечных, «хирургических» мер:
Конституционный ИИ
• Модель обучается с опорой на набор принципов и ценностей, а не просто на запреты.
• Цель — сформировать устойчивый «характер» ИИ, аналогичный воспитанию человека.
• Амбиция Anthropic — к 2026 году почти полностью исключить отклонения от духа конституции.
Механистическая интерпретируемость.
• Анализ внутренних фич и цепочек рассуждений нейросетей.
• Использование этого для аудита: поиск паттернов обмана, стремления к власти или симуляции корректного поведения.
Мониторинг и прозрачность
• Системный сбор проблемных кейсов и публикация system cards.
• Публичное раскрытие тревожных находок, даже если они неудобны.
Координация и регулирование
• Саморегуляции компаний недостаточно.
• На первом этапе — законы прозрачности для frontier-моделей, с минимальной нагрузкой на малых игроков.
• Более жёсткие меры возможны позже, на основе накопленных данных о реальных рисках.
Интересно, что Anthropic рассматривает IPO уже в 2026 году, так что возможно это всё прогрев рынка.
This media is not supported in your browser
VIEW IN TELEGRAM
Cursor научился запускать параллельно сразу несколько браузерных табов для субагентов
Media is too big
VIEW IN TELEGRAM
OpenAI запускают сервис Prism — бесплатное рабочее пространство для учёных, созданное, чтобы писать и совместно работать над исследованиями с GPT‑5.2. LaTeX и всё такое
prism.openai.com
prism.openai.com
This media is not supported in your browser
VIEW IN TELEGRAM
Китайская компания Moonshot AI вчера выпустила новую модель K2.5 для своего продукта Kimi. На уровне последних ChatGPT и Claude.
Почему нам интересно — вот зацените уровень результата в задаче video to code. Я вчера попросил в один промпт собрать интерфейс переводчика, без картинок, вышло тоже неплохо.
Бесплатные лимиты очень маленькие, подписка как обычно $20 в месяц. В общем, альтернатива Claude и Codex, если вдруг она вам нужна.
Почему нам интересно — вот зацените уровень результата в задаче video to code. Я вчера попросил в один промпт собрать интерфейс переводчика, без картинок, вышло тоже неплохо.
Бесплатные лимиты очень маленькие, подписка как обычно $20 в месяц. В общем, альтернатива Claude и Codex, если вдруг она вам нужна.
🤔2
Huxe
AppStore
Это audio-first AI-ассистент, который превращает повседность и интересы в персональное радио. Подключаешь календарь и почту — получаешь короткий утренний брифинг: что сегодня по встречам, что важно не забыть, какие новости и темы стоит послушать. Есть режим, где можно собрать ленту из любимых направлений (техно, дизайн, спорт, рынки, что угодно) и слушать обновления в фоне, персональный подкаст. Или можно попросить разобрать конкретную тему.
В любой момент можно перебить и управлять потоком. В общем это Clubhouse с AI.
Если вы чувствуете вайбы Notebook LM в этом всём, то есть деталь, которая многое объясняет — Huxe делают ребята, которые работали над первым в Google. И это чувствуется, акцент не на болталке, а на том, чтобы аккуратно упаковать информацию в понятный голосовой формат.
В прошлом году я писал про ещё один новостной апп, зацените его тоже если пропустили.
AppStore
Это audio-first AI-ассистент, который превращает повседность и интересы в персональное радио. Подключаешь календарь и почту — получаешь короткий утренний брифинг: что сегодня по встречам, что важно не забыть, какие новости и темы стоит послушать. Есть режим, где можно собрать ленту из любимых направлений (техно, дизайн, спорт, рынки, что угодно) и слушать обновления в фоне, персональный подкаст. Или можно попросить разобрать конкретную тему.
В любой момент можно перебить и управлять потоком. В общем это Clubhouse с AI.
Если вы чувствуете вайбы Notebook LM в этом всём, то есть деталь, которая многое объясняет — Huxe делают ребята, которые работали над первым в Google. И это чувствуется, акцент не на болталке, а на том, чтобы аккуратно упаковать информацию в понятный голосовой формат.
В прошлом году я писал про ещё один новостной апп, зацените его тоже если пропустили.
Forwarded from (Заметим в скобках)
У Тани Шавриной, разработчицы ИИ в Мете, лингвистки, программистки (и колумнистки Рабкора !!!) угнали OpenAI-шный акк китайские хакеры и сожгли токенов на 900 евро. Как она сама шутит, получился датасет киатйских инъекций
Forwarded from Kali Novskaya
У меня взломали личный аккаунт OpenAI. Китайские хакеры (?).
За ночь потратили лимит бюджета в 900 долларов (на разные модели), даже был поиск и эмбеддинги подергали. Все на китайском, длинные инпуты и систем-промпты.
Что характерно, поддержка OpenAI сама написала, что кажись вас взломали, от вас пошли запросы при оружие.
Но деньги, конечно, не вернут.
Будьте аккуратны!
А у меня теперь есть дорогой датасет китайских промпт-инъекций
За ночь потратили лимит бюджета в 900 долларов (на разные модели), даже был поиск и эмбеддинги подергали. Все на китайском, длинные инпуты и систем-промпты.
Что характерно, поддержка OpenAI сама написала, что кажись вас взломали, от вас пошли запросы при оружие.
Но деньги, конечно, не вернут.
Будьте аккуратны!
А у меня теперь есть дорогой датасет китайских промпт-инъекций