сбежавшая нейросеть
17.7K subscribers
164 photos
54 videos
162 links
Авторский канал про искусственный интеллект: новости, примеры использования, мысли в тему и не очень. Подписывайтесь!

Для связи: @runawayllm_bot
Download Telegram
Claude Code для новичков

Я активно осваиваю Claude Code – даже подарил себе дорогую подписку Anthropic Max. Выводы пока делать не готов, но не исключено, что именно Claude Code станет базой для первого массового и универсального ИИ-агента.

На старте мне помогли гайды Эйада Храиса и Бориса Черни (автора Claude Code), поэтому решил сделать их выжимку. Кстати, многое применимо и к обычному Claude.

Что ты вообще такое?

Claude Code – агент, который доступен из терминала вашего ПК или Mac. Также есть веб и мобильная версии, плюс Anthropic представили прототип Cowork, версии Claude Code для широких задач. Но версия для терминала пока лучшая: она может писать код, работать с файлами и программами на вашем ПК, подключаться к удаленным серверам и так далее. Изначально Claude Code задумывался для программирования, но сейчас его используют для разных многоэтапных задач – от презентаций до “убери мусор на моем ПК”.

Начинайте с планирования

Современные ИИ торопятся выполнить задачу – и Claude Code не исключение. Мой первый проект — сайт с промптами, описанный парой строк. Claude Code задал вопросы, час пыхтел и выдал… работающий прототип, который выглядел совсем не так, как я представлял.

Это принцип работы с любым ИИ: не торопитесь и опишите задачу так, как вы ее видите. Можете открыть чат с нейронкой и написать “хочу сделать в Claude Code сайт с промптами, задай мне вопросы, а затем создай бриф”

Получив бриф – отправляемся в Claude Code и включаем режим планирования двойным нажатием на Shift+TAB. Считается, что при хорошо написанном плане можно включить авто-принятие правок, что ускорит работу.

Не забывайте про Claude.MD

Особенность Claude Code – он каждый раз начинает с нуля. Если на диске есть незавершенный проект, то он в нем разберется, но вот нюансы, с которыми столкнулись в процессе создания, помнить не будет.

Поэтому после планирования давайте команду создать Claude.MD – файл с подробностями проекта. А затем просите Claude обновлять файл после каждого крупного этапа, а также после каждой ошибки, чтобы ИИ знал, как не надо делать.

Опытные пользователи добавляют Plan.MD (большой план проекта) и Todo.MD (список задач), но на старте будет достаточно актуального Claude.MD.

Следите за длиной контекста

Команда /context показывает объем диалога в токенах. Технически Opus 4.5 и Sonnet 4.5 переваривают до 200 тысяч токенов – плюс недавно добавили Sonnet 4.5 с контекстом в миллион токенов, но она расходует лимиты намного быстрее.

На практике пользователи Claude Code подмечают, что модели начинают “тупеть” на 50-60% контекста (100-120 тысяч токенов). Когда работаете над большим проектом, стоит разбить его на этапы и выполнять каждый с нуля, очищая чат командой /clear. Если обновлять Claude.MD в конце каждого этапа, то модель легко подхватит следующий.

Когда чат все-таки затягивается, на помощь приходит команда /compact – Claude удалит лишнюю информацию, освободив контекст. Еще видел трюк – выполнить /compact, скопировать получившееся саммари, очистить чат командой /clear и вставить в него саммари – но не могу сказать, насколько он эффективен.
Еще совет: если Claude наломал дров — Esc+Esc или /rewind откатит и код, и диалог к предыдущему состоянию.

Правильно выбирайте модель

Тут разные мнения. Claude Opus 4.5 тратит больше токенов и теоретически быстрее упирается в лимиты использования, чем Sonnet 4.5. Но так как это более умная модель, то она меньше ошибается – и этим, наоборот, экономит токены.

Альтернативная идея – использовать Opus 4.5 для планирования, а для реализации переключаться на Sonnet 4.5. Я советую попробовать оба варианта.

А если у вас подписка Pro и вы только знакомитесь с Claude Code – начинайте с Sonnet. Он быстрее и не так тратит лимиты, позволяя больше экспериментировать и не бояться ошибиться.
3👍7936🔥18👏3😁2
Переполох на рынке ИИ-железа

OpenAI подписала 10-миллиардный контракт с Cerebras – производителем чипов для инференса (запуска готовых моделей). На Cerebras ИИ генерирует ответы с огромной скоростью – есть шанс, что общение с будущими GPT-6 Thinking и GPT-6 Pro станет быстрее.

Многие привыкли ассоциировать рынок ИИ-железа с Nvidia, а мне он напоминает конец 90-х в игровых видеокартах, когда 3Dfx, Nvidia, ATI (потом войдет в AMD) и другие бились за будущее 3D-графики с совершенно разными архитектурами. Давайте разбираться!

Nvidia GPU

Парадокс: когда-то GPU создавались для ускорения графики видеоигр. Когда в нулевые на них впервые попробовали обучать нейросети, то разработчикам пришлось делать вид, что они запускают игру: упаковывать данные в «текстуры» и писать вычисления как графические шейдеры. Затем появился язык CUDA, который позволил программировать GPU напрямую, используя для разных вычислений.

Но именно универсальность CUDA-архитектуры играет против Nvidia в ИИ-вычислениях. Узкое место — память: данные хранятся отдельно от вычислительных ядер, и GPU постоянно гоняет их туда-сюда. По некоторым оценкам, до 90% энергии тратится не на вычисления, а на перемещение данных.

Nvidia решает это грубой силой: больше памяти, больше кристаллов, шире каналы. Работает, но потребление растет. Rubin Ultra к 2027 году будет "съедать" 3,6 кВт на пакет, а целая стойка — до 600 кВт.

Google TPU

Google разработала свои чипы только под нейросети, использовав систолические вычисления. Если в GPU данные путешествуют между ядрами и памятью, то в TPU они “текут” как кровь по сосудам: каждый вычислительный юнит выполняет операцию и передает результат соседу напрямую. К основной памяти TPU обращается только в начале и конце этапа.

На TPU обучают не только Gemini, но и новые версии Claude – Anthropic настолько довольна результатом, что сделала заказ на миллион чипов. Риск в том, что TPU оптимизированы чисто под матричные вычисления – и если в будущем ИИ уйдет от трансформеров, то архитектуру придется серьезно менять. Но сейчас ИИ-ускорители устаревают через 2-3 года, так что это не страшно.

Cerebras и Groq

В “жизни” ИИ есть два больших этапа: тренировка модели и инференс – запуск для пользователей. Долгое время упор делали на тренировку, а инференс выполняли на таких же ускорителях. Cейчас спрос на ИИ растет так быстро, что выгодно делать отдельные ускорители для инференса – более экономные и быстрые.

Cerebras использует для инференса чипы размером с целую кремниевую пластину (на фото) – в 30 раз больше Nvidia B200. Стоит как крыло самолета, но фактически один Cerebras надо сравнивать с целой стойкой на 72 чипа Nvidia – и даже так для инференса он будет выгоднее.

Сама Nvidia в новых Rubin планирует версию для инференса с меньшим количеством памяти. Плюс компания по хитрой схеме купила Groq – стартап создателя Google TPU. У Groq своя уникальная архитектура, но идея такая же – максимально эффективное решение для инференса. Посмотрим, куда двинется Nvidia: продолжит развивать идеи Groq или выпустит свой аналог Google TPU?

Более далекое будущее

Тема на отдельный пост, сейчас коротко:

– Вычисления в памяти. Процессор встраивается прямо в память, поэтому данные вообще не нужно перемещать. Технологически сложно, но в конце 2025-го появилось несколько интересных разработок.
– Фотоника. Если считать те же нейросети светом, а не электронами, то будет и быстрее, и эффективнее по энергии.
– Нейроморфные чипы и спайковые сети. Современные нейросети – упрощенная версия того, что происходит в настоящем мозге. Эти технологии стремятся воссоздать точную копию.
– Квантовые компьютеры. Подробно уже писал, если коротко, то квантовые чипы вряд ли подойдут для обучения нейросетей, но помогут в некоторых процессах, от оптимизации до создания новых обучающих данных. Ждать, впрочем, до начала следующего десятилетия.
3👍81🔥4140😁4👏1
Поговорим про рекламу в ChatGPT

OpenAI в ближайшие недели начнет тестирование рекламы в ChatGPT. Пример персонализированного объявления можно увидеть выше, показывать будут пользователям двух тарифов – бесплатного и 8-долларового Go (включает больше запросов к базовой GPT-5.2 и еще ряд функций). Подписки начиная с Plus останутся без рекламы.

В OpenAI подтвердили, что реклама на влияет на ответы самой модели – не будет случаев, когда в ответ на просьбу подобрать несколько горных велосипедов, модель посоветует продукт спонсора. У меня был отдельный пост о том, почему подобное поведение нереально (коротко: оно является нарушением целого ряда законов о рекламе и добросовестной конкуренции), но хорошо, что компания это обозначила отдельно.

Запуск рекламы почти всегда негативно воспринимается пользователями, но в случае с ChatGPT, в нем стоит видеть меньшее из зол, пусть и раздражающее.

Сейчас крупные ИИ-компании в первую очередь “зарабатывают” на том, что продают инвесторам идею ИИ как супертехнологии будущего. Это привлекает в индустрию огромные деньги, причем схемы стали такими изощренными, что запутается даже опытный финансист.

В случае с OpenAI по 2028 год включительно компания ожидает кумулятивные операционные убытки в $115-143 млрд, а безубыточность планируется в 2029 году, для чего компании надо выходить на выручку в 125-200 миллиардов долларов. Для сравнения: в 2025 выручка ожидалась в 13 млрд.

Сейчас у OpenAI порядка 900 млн пользователей в неделю, 90% из которых сидят на бесплатном тарифе. Есть некоторые косвенные данные, что рост числа пользователей замедлился: перед самым выходом GPT-5 один из сотрудников хвастливо намекал, что “скоро мы пробьем 1 млрд пользователей в неделю”, но новостей про это так и не последовало. ИИ-рынок стал сложнее: Google, Anthropic, xAI и китайские компании не просто преследуют OpenAI – во многих случаях они вырываются вперед.

Важно понимать, что 90% пользователей выше не просто не платят, они еще и генерируют компании убыток. Поэтому очевидно, что их надо начинать монетизировать: или заставляя платить подписку урезав лимиты (но куда дальше?), или показывая им рекламу.

Рекламная модель OpenAI сейчас выглядит максимально похожей на модель Alphabet - материнской компании Google. По оценкам, три четверти своей выручки она зарабатывает с Google Ads – да-да, объявлений, которые мы видим в поисковой выдаче и Youtube-роликах. Это бешенные деньги – $264 млрд в 2024 году.

Данная реклама эффективна по простой причине: Google знает о своих пользователях очень много, что позволяет ее настраивать максимально точно. Кстати, пользователи не остаются в накладе: большинство продуктов Google бесплатны: от поиска, Chrome и Gmail до Google Docs, которые многим заменили платный Microsoft Office. А еще выручка с рекламы позволяет Google развивать собственное ИИ-подразделение DeepMind, не менее амбициозное, чем OpenAI.

В случае с Google ИИ отлично ложится на текущую схему заработка: модели Gemini будут заменять более старые алгоритмы во всех продуктах – от поиска до Gmail и Docs – поддерживая рекламные продажи. OpenAI придется разворачивать рекламную систему с нуля, что сложнее. Но важный компонент у компании уже есть: из чатов с ИИ она также извлекает много информации о пользователях, что поможет настраивать объявления.

Интересно, что другим путем идет Anthropic. Компания планирует выйти на безубыточность в 2028-м, а сейчас делает ставку на корпоративных клиентов, которые генерируют ей 80% выручки. У Anthropic нет генерации картинок и видео, зато есть “идеальный работяга” Claude, который отлично справляется с кодингом и офисными задачами. Не удивлюсь, если со временем подключатся и массовые пользователи: о Claude Code сейчас трубят на каждом углу, поэтому может получиться так, что к середине года его знание станет обязательным для многих вакансий – а для этого нужна подписка, причем лучше не 20-долларовая Pro, а 100-долларовая Max.

Посмотрим, чей подход сработает.
251👍45🔥18👏4
Встречаем Джеффа Эмануэля: он тратит 4600 долларов на подписки Claude Max и вайб-кодит с помощью педалей

В последние недели 70% моего потока ИИ-новостей состоит из материалов про Claude Code. С его помощью люди кодят, работают и решают неожиданные задачи, вроде проекта горки для ребенка.

Не исключаю, что умение пользоваться Claude Code скоро станет одним из базовых навыков при устройстве на работу. А еще это, к сожалению, первый явный пример ИИ-неравенства. По своему опыту могу сказать, что освоить Claude Code на 20-долларовой базовой подписке сложно – даже Sonnet 4.5 быстро тратит лимиты. Для вайб-кодинга как хобби нужна 100-долларовая подписка Max, ну а для профессиональной работы и того больше – я постоянно натыкаюсь на людей, у которых оформлено, например, по три подписки за $200 каждая.

Абсолютный чемпион – Джеффри Эмануэль, бывший аналитик с Уолл-Стрит. Джефф сейчас руководит блокчейн-компанией Lumera Network, занимается консультированием, а как хобби строит открытые инструменты для ИИ-кодинга. Весь процесс описан на его сайте, а инструменты можно найти в GitHub-репозитории.

Впрочем, как сказать хобби. В первую неделю января Эмануэль сделал 2696 коммитов на GitHub. Для хорошего разработчика нормой считается 500-1000 коммитов… в год.

За спиной Джеффа – свора ИИ-агентов. Никто не запрещает открыть несколько копий Claude Code в соседних вкладках, распределив между ними задачи. Проблема в лимитах: Эмануэль расходует 5-часовой лимит 200-долларовой подписки Max всего за 14 минут. Поэтому у него… 22 таких подписки общей ценой 4600 долларов.

Еще сложность – управление таким зверинцем. Чтобы агенты работали сообща и не мешали друг другу, Джефф использует несколько приемов. Так, запущенные копии Claude Code общаются друг с другом по MCP Agent Mail – фактически аналог электронной почты для ИИ. Там они обсуждают архитектуру, распределяют задачи, резервируют файлы. Некоторые переписки переваливают за 1000 сообщений – и никаких часовых синков в Zoom!

Есть у агентов свой аналог Jira – доработанная система Beads, которую придумал Стив Йегге, бывший разработчик Google. Beads или “бусины” – мелкие задачи с приоритетами и зависимостями (пока А не сделана, за B браться нельзя). План работы пишет или сам Джефф, или GPT-5 Pro (да, ИИ от OpenAI тоже в деле), затем агенты разбирают задачи, сообщая об этом друг другу по почте.

На старте Джефф столкнулся с так называемым friendly fire – дружественным огнем. Два агента работают над проектом, один меняет код, второй это видит, пугается и откатывает обратно, стирая в итоге работу коллеги. Эмануэль написал хук, который стоит между агентом и терминалом и перехватывает подобные опасные команды.

Беда в том, что агенты слишком умные и регулярно пытаются этот хук взломать – например, вместо rm -rf (удаляет файлы без возможности восстановления) пишут bash-скрипт, который делает то же самое. В итоге приходится совершенствовать систему защиты – похоже на войну босса со слишком инициативными сотрудниками.

Чем занимается сам Джефф? Он практически не кодит, а называет себя “архитектором на высоком уровне”. Процесс выглядит так: на экране 20+ вкладок с агентами, которым Эммануэль дает направления – “возьми следующую bead”, “сделай код-ревью” и так далее. Плюс иногда приходится разруливать конфликты.

Несмотря на необходимость управлять 20+ агентами, Джефф отмечает, что количество реального человеческого труда, который он вкладывает в проекты – на 90% меньше, чем требовалось раньше. И он постоянно ищет, как ускориться дальше: например, недавно заказал vibe pedals, педали, на которые можно назначить команды copy/paste.

Интересный факт: недавно Anthropic забанила несколько аккаунтов Джеффа за подозрительно высокую активность. Пока вопрос решался, он успел купить 11 подписок GPT Pro — на случай, если придется переезжать. Инцидент разрулили за 4 часа, аккаунты разблокировали, а Джефф пообещал чуть-чуть сбавить обороты.

А не то будущее наступит слишком быстро.
5😁111🔥87👍2819👏15🥰1
Какие нейронки советую и для каких задач

Прогресс в ИИ такой, что используемые инструменты меняются постоянно. Месяц назад я хвалил GPT-5.2 Thinking – а сейчас основную часть задач решаю с помощью Claude Opus 4.5 и Claude Code. Сегодня сделаю мини-обзор нейронок, с которыми много работал, расскажу, для чего какая подходит.

GPT-5.2 Thinking

У GPT-5.2 Thinking две сильных стороны. Во-первых, она хороша для глубокого веб-поиска и факт-чекинга – модель может перебрать под сотню источников, проверив каждую фразу в ответе. Кстати, за счет этого она галлюцинирует меньше других ИИ.

Во-вторых, у GPT-5.2 Thinking хорошее критическое мышление и минимум подхалимажа. Идеи она разбирает трезво, не стесняется спорить – это превращает ее в душнилу, что для ИИ не худшее качество.

Плюс у 20-долларовой подписки ChatGPT Plus щедрые лимиты: это делает ее отличным инструментом для работы и знакомства с Codex – аналогом Claude Code от OpenAI. На Claude похожие лимиты уже на 100-долларовой подписке.

Главный минус – думающие модели OpenAI медленные. При ответе GPT-5.2 Thinking может увлечься поиском на несколько минут. Именно из-за этого я пользуюсь ей все меньше – быстрее задать вопрос Opus 4.5, уточнить пару вещей, а затем попросить модель перепроверить себя, убрав галлюцинации.

Но если нужна одна подписка – ChatGPT Plus лучший выбор. Она универсальна, а ради минимума галлюцинаций можно потерпеть долгие ответы. На всякий случай, уточню: все сказанное касается GPT-5.2 Thinking, а вот быстрой GPT-5.2 Instant я доверяю только простые вещи вроде проверки грамотности или перевода.

Claude Opus 4.5

Уже писал, что у меня сейчас много работы с текстами, и вот Opus 4.5 с ней справляется лучше всего: он хоть и требует небольшой редактуры, но отлично чувствует ритм и структуру информационного текста.

Память и система скиллов – тема для отдельного поста. Если коротко: можно взять задачу, которую вы регулярно делали, попросить Claude поискать по чатам, описать и доработать процесс, а потом упаковать в скилл, который дальше просто вызывается командой – например, “запусти скилл поиска по ИИ-новостям”. Похоже на GPTs, но в Claude скиллы настраиваются в ходе диалога с моделью – и обновляются таким же образом!

Наконец, Claude Code. Использую его для разбора аналитики, создания презентаций, дашбордов, на которые вынесена нужная мне информация. Но больше просто вайб-кожу: прототипы сайтов и приложений, простые игры и т. д. Крутая штука, но тратит лимиты очень быстро – нужна 100-долларовая подписка.

Минус Claude Opus 4.5 – он много галлюцинирует даже в рассуждающем режиме. Я постоянно работаю с ИИ и ловлю фантазии на автомате, но если у вас меньше опыта – то ChatGPT надежнее.

Gemini 3 Pro

Собственно, из-за галлюцинаций и плохого поиска я в свое время не стал пользоваться Gemini 3 Pro и Gemini 3 Flash. Поиск, похоже, починили, но осталась другая дурацкая черта – модель даже не столько галлюцинирует, сколько преувеличивает, делает слишком смелые выводы, цепляется за спорные идеи просто потому, что они красивые.

Но в последнее время я полюбил Gemini 3 Pro как рассказчика. Узнать, что происходит в Минессоте, изучить историю неолитических городов, разобрать научную работу – это все к ней. Модель понятно объясняет сложные вещи, умеет увлечь и поддержать интерес, подсказывая, как углубиться в тему. Еще она прикольный собеседник – иногда просто открываю Gemini 3 Pro и предлагаю обсудить тему на ее выбор.

Наконец, у Gemini 3 Pro отличное компьютерное зрение: она может изучить 20-минутный ролик, рассказав, что происходит на экране. Тут рассказывал, как это можно использовать.

Еще коротко отмечу:

– Grok 4.1 Thinking – лучший для поиска в X, мне достаточно бесплатного тарифа с 10 запросами.
– DeepSeek V3.2 – считаю лучшим бесплатным ИИ, есть слухи, что скоро выйдет V4.
– По картинкам 50 на 50: GPT Image 1.5 рисует “красивее”, Nano Banana Pro точнее следует промпту и лучше работает с русскими шрифтами.
198👍89👏11🔥10😁1
Начинающих специалистов ждут трудные 5 лет? Или нет?

На форуме в Давосе записали интересную дискуссию с участием Дарио Амодеи и Демиса Хассабиса. Когда-то они конкурировали в Google – Амодеи входил в команду Google Brain, а Хассабис возглавлял DeepMind, купленную гигантом в 2014-м. Сейчас соперничество вышло на более высокий уровень: Anthropic и Google DeepMind – топ-лига ИИ. Но в Давосе они оказались пугающе близки в мнениях.

На первый план вышел Амодеи: прошлой весной он дал прогноз, что через 6 месяцев 90% кода будет писаться ИИ. Спустя 6 месяцев прогноз ему многие припомнили – ага, Дарио, код продолжают писать люди! – но сейчас выходит, что Амодеи чуть-чуть ошибся со сроками.

Один из последних продуктов Anthropic – ИИ-ассистент для рабочих задач Claude Cowork – был создан за полторы недели целиком с помощью Claude Code. Можно предположить, что это рекламный трюк Anthropic, но я вижу много независимых инженеров, которые пишут весь код в Claude Code. А в недавнем эксперименте Cursor GPT-5.2 Thinking Xhigh с собственной агентной обвязкой программировала неделю, создав работающий прототип браузера.

На этом фоне Амодеи спросили про другой прогноз – что 50% офисных вакансий начального уровня исчезнут в ближайшие 1-5 лет. Он ответил, что стоит на своем: ИИ-инструменты развиваются быстро и есть риск, что рынок просто не успеет адаптироваться.

Тут сделаю ремарку от себя. Рынок может не успевать по-разному. Например, сейчас бизнес часто испытывает трудности по внедрению ИИ, потому что это нечто новое и непонятное – и проще нанять человека на эту задачу. Но бизнес стремится максимизировать выгоду – и как только станет четко ясно, что ИИ экономит деньги, замещение пойдет очень быстро.

Насчет этого и предупреждает Амодеи: старые позиции (в первую очередь – стартовые, их проще заместить ИИ) будут исчезать быстрее, чем появятся новые, а люди под них переобучатся.

Хассабис здесь сыграл доброго полицейского. С одной стороны, он согласен со словами Амодеи и считает, что вытеснение начальных позиций мы заметим уже в этом году. С другой – Демис советует не паниковать и осваивать ИИ прямо сейчас. По его словам, человек с ИИ сможет делать работу за десятерых – и точно будет востребован на рынке.

Также Хассабис считает, что удар по рынку быстро коменсируется пользой для человечества. Если ИИ начнет ускорять науку, находить лекарства от болезней и лучшие материалы, решать проблемы с климатом – то польза от него перевесит социальные потрясения.

От себя напомню о термине super junior, принятом у OpenAI. В компании любят нанимать молодых специалистов потому, что они не ограничены привычками и осваивают ИИ быстрее других. Вывод простой: если вы новичок, то учите ИИ, если опытный – не цепляйтесь за привычные рамки и… тоже учите ИИ.

Когда разговор зашел о геополитике, Амодеи занял позицию “ястреба” и призвал полностью перекрыть поставки чипов в Китай, сравнив их с продажей ядерного оружия врагу ради прибыли. Позиция Амодеи в том, что государство, которое первым получит “сверхинтеллект”, сможет диктовать правила ИИ-безопасности – и лучше, если это будут США, а не Китай. Отрыв США он оценивает в 1-2 года: для ИИ-прогресса это крохи, которыми нельзя разбрасываться.

Хассабис в целом поддерживает позицию, но мягче. Он против барьеров в науке, но согласен, что контроль над ИИ нельзя доверять всем подряд.

По AGI Амодеи называет срок в 2026-27 годы, но стелет соломку, говоря об ИИ, способном делать открытия уровня Нобелевки. Хассабис придерживается своего старого прогноза: 50% шанс, что AGI появится до конца десятилетия.

По мнению Демиса, прогресс будет рваным. Например, в программировании результат оценить легко – код или работает (пусть и с оговорками) или нет. А вот если ИИ сделает открытие в медицине или физике – то его проверка может занять годы.

Важным этапом оба исследователя называют “замыкание цикла”, когда ИИ начнет создавать лучшие версии самого себя. Это приведет к сверхускорению, но и адаптироваться людям предстоит на повышенной скорости.
1👍81🔥4231😁9🥰2👏2
Как я использую скиллы в Claude

Для меня главная особенность Claude – насколько хорошо он заточен для работы. Те же самые скиллы, например, дают намного больше возможностей, чем GPTs в ChatGPT и Gems в Gemini, но при этом еще и устроены проще.

По сути, скиллы – это продвинутые промпты. Запуская скилл, Claude читает текст с описанием процесса работы над определенной задачей, а также дополнительные файлы, в которых может быть исполняемый код, примеры того, как должен выглядеть результат, а также разная дополнительная информация. Любой скилл можно создать и отредактировать в режиме диалога.

Базовые скиллы Claude включают создание фронтенда, docx, pdf и xlsx-файлов, а также презентаций. Кстати, они очень качественные – те же презентации Claude делает лучше большинства других нейронок. Ваши собственные скиллы хранятся в settings > capabilities, там же есть некоторое количество example skills – просто любопытных образцов.

Скиллами уже обмениваются как промптами – на сайте SkillsMP.com их более 70 тысяч. Я только что провернул прикольную штуку: попросил Claude прочесть, что он помнит обо мне, проанализировать недавние чаты, а затем поискать в сети скиллы, которые мне подойдут. Клод выдал с десяток примеров, несколько из которых мне показались полезными.

Но самое классное – делать собственные скиллы. Я обычно поступаю следующим образом.

Допустим, вы пишете новости с помощью Claude. Для начала можно просто написать 5-10 новостей, а когда процесс будет более или менее обкатан, в отдельном чате попросить Claude следующее:

Найди чаты, в которых мы писали новости, и собери наш workflow.


По опыту могу сказать, что лучше работать над каждой новостью в своем чате. Claude хуже ищет в длинных чатах, да и в целом “не любит”, когда переписка затягивается.

Когда ИИ напечатает воркфлоу – читаем его. Если что-то пропущено или вы с чем-то не согласны – в режиме чата вносите корректировки. Затем настает очередь Claude вносить идеи.

Оцени наш workflow. Чего в нем не хватает? Что можно исправить или улучшить?


Claude предложит доработки, какие принимать – решать вам. Когда все готово, просим Claude создать скилл. Тут два варианта:

— Если просто попросить создать скилл, то будет несколько файлов. Их нужно скачать и затем добавить вручную – ИИ подскажет, как.
— Если попросить модель “упаковать скилл в .skill файл” – то его можно будет добавить прямо из чата, нажав кнопку.

Как пользоваться? Теоретически, Claude сам распознает, когда запустить тот или иной скилл. На практике я предпочитаю писать “запусти скилл написания новости” – тогда модель не промахнется.

Важный совет: не забывайте проводить ревизию скиллов, улучшая их или дорабатывая под изменившиеся условия. Делать это можно тоже в режиме диалога:

Прочитай скилл написания новостей.


Claude опишет скилл прямо в чате. Дальше или просим внести какие-то своиправки, или пишем следующее:

Проанализируй последние чаты, в которых мы писали новости с помощью этого скилла. На базе нашего опыта напиши предложения, как доработать и улучшить скилл.


Затем смотрим, одобряем доработки и сохраняем обновленный файл.

Кстати, в последнее время я взял за привычку: если выполнил какую-то задачу и понимаю, что она мне пригодится в будущем – сразу делаю из нее скилл. Например, когда по инструкции из этого поста делал бриф для сайта, который сейчас собираю в Claude Code – то после завершения в том же чате попросил ИИ собрать воркфлоу, доработать и сохранить в скилл.

Ну и да – в Claude Code скиллы используются даже активнее, чем в чат-боте. Также скиллы начали приживаться и у конкурентов вроде OpenAI Codex и Gemini CLI – надеюсь, что доберутся и до чат-версий.

Конечно, это в какой-то степени костыль: со временем память о пользователе у ИИ станет настолько совершенной, что он будет на лету анализировать все рабочие процессы и повторять их в следующие разы. Но, по моим ощущениям, до такого еще полгода-год – так что учимся пользоваться скиллами!
3👍75🔥3525😁2👏1
Попробовал Clawdbot – ИИ-ассистента нового поколения с оговорками по безопасности

Пока ChatGPT Agent обрастает мхом, разработчик-одиночка Питер Штайнбергер соорудил Clawdbot – агента, который гремит на весь интернет. Я в выходные тоже поигрался, теперь делюсь впечатлениями.

Clawdbot это “обертка” для существующих ИИ – обычно используют Claude Opus/Sonnet 4.5, но подойдут даже открытые модели, если железо потянет. Бот устанавливается через терминал на Мак или ПК, и получает почти полный доступ к системе: настройки, файлы, бразуер, почта и т.д. Это поднимает вопросы к безопасности, о них – в конце поста.

В англоязычном X все скупают для Clawdbot-а MacMini $600, чтобы он на нем работал круглосуточно. Есть и другой путь – поставить на виртуальный сервер, где бот, кстати, превращается в мини-админа. Я плачу за сервер 5 евро в месяц, видел, что народ ставит на бесплатный тариф от AWS.

Разумеется, коммерческие модели типа Claude Opus 4.5 не крутятся на ПК/сервере физически – Clawdbot обращается к ним через API. В случае с Claude понадобится подписка Pro или Max.

Общение идет через Discord, WhatsApp, Telegram – по сути, через чат вы удаленно управляете ПК/сервером, на котором стоит очень мощный ИИ. Его можно использовать как чат-бота, админа, секретаря, программиста – насколько хватит вашей фантазии.

Clawdbot постоянно дорабатывает себя под запросы пользователя. Посмотрите на картинку в начале поста – я попросил его рассказать, как устроена его память.

На старте бот спрашивает, как его зовут и какой у него характер. Затем просит пользователя рассказать о себе. В процессе работы бот накапливает знания о пользователе и ведет дневник, запоминая, что делали каждый день, какие ошибки допустили.

Если в ChatGPT мы ограничены возможностями, заложенными разработчиком, то Clawdbot собирает инструменты под задачи на ходу. Простой пример: после установки я решил включить веб-поиск. Обычно используют Brave API, но там нужна иностранная карточка, а мне было лень заморачиваться.

Я спросил у Clawdbot-а альтернативы. Он предложил поднять SearxNG — опенсорсный метапоисковик, который агрегирует результаты из Google, Bing и DuckDuckGo. Один Docker-контейнер, никаких API-ключей, полностью бесплатно. Через пять минут у меня был собственный поисковый бэкенд на localhost:8888, а бот уже умел им пользоваться.

(это не я такой умный, просто попросил бота рассказать, что он сделал)

Появилась задача собирать заголовки и лид-абзацы с сайта – Clawdbot скачал себе Chrome, настроил и сделал. По утрам бот присылает мне новостную сводку, я отвечаю, что заинтересовало. Он корректирует темы и источники, чтобы лучше попадать в мои интересы. Также он шлет мне напоминалки – я много времени провожу в Telegram и это удобно.

Алекс Финн рассказал в X, как попросил Clawdbot-а зарезервировать столик в ресторане. OpenTable не сработал, поэтому бот использовал ElevenLabs для записи голосового сообщения, затем с помощью Voice Call плагина позвонил в ресторан. Фантастика.

Что с безопасностью?


Если установить Clawdbot на ПК, то он получает доступ ко всем вашим файлам, почте и настройке. Теоретически, этим могут воспользоваться злоумышленники: например, вы просите бота сделать саммари PDF, внутри которого спрятана команда собрать личные данные и отправить на нужный адрес. Бот ее читает и выполняет – классический prompt injection.

Поэтому советуют использовать Claude Opus 4.5 – это самая продвинутая модель Anthropic, которая лучше защищена от взломов. И не стоит сразу разворачивать Clawdbot на рабочей машине – лучше сначала поставить на старом ПК или виртуальном сервере и разобраться. А затем можно попросить бота настроить безопасность.

P.S. Здесь документация на бота. Просто попросите нейронку прочесть ее и дать инструкцию по установке под вашу систему и мессенджер. Когда бот заработает – описывайте ему задачу и смотрите, что предложит. Если не получается с первого раза – пишите, что не так, он улучшит.
4🔥116👍4732👏5🥰2
Правила безопасности в эру ИИ-агентов

Судя по росту популярности Clawdbot, Claude Code, OpenAI Codex и других, мы влетаем в эру ИИ-агентов. Это классно, но есть несколько проблем:

1. Агентские решения на старте сырые.
2. Пользователи не всегда понимают, как эти решения работают и как ими пользоваться.
3. А скорость развития бешеная: с одной стороны, у нас ИИ-модели, которые обновляются раз в 2-3 месяца, с другой – агентская обвязка, которая развивается отдельно.

Самая большая беда – безопасность подобных систем. В отличие от чат-бота, агент часто имеет доступ к вашим файлам, аккаунтам, настройкам и т. д. Плюс он проактивен – в попытках решить задачу, легко может отправиться на какой-нибудь сайт, скачать или создать код, прочитать документ.

Это делает агентов уязвимыми для атак. В обзоре Clawdbot я писал о prompt injection: ИИ читает инструкцию к какому-нибудь софту, там спрятана команда выслать ваши данные третьему лицу – он и отправляет. Находят и другие дыры: исследователи обнаружили, что у сотен пользователей, установивших Clawdbot на виртуальные серверы, были открыты порты, через которые их можно взломать. Проблему исправили, но звоночек тревожный.

Что же делать? Как ни странно, первый ваш рубеж обороны – это сам ИИ. Расскажу на примере Clawdbot-а, но многие советы универсальны.

Шаг 1: обновление. Если ИИ-модели выходят раз в 2-3 месяца, то агентскую обвязку дорабатывают каждые несколько дней. В Clawdbot не забываем про команду:

clawdbot update


Шаг 2: включите Opus 4.5. Да, он дорогой, но дополнительно обучен распознавать prompt injection и другие подобные сценарии. Если на Опуса ресурсов нет – просто подождите, пока агенты станут более надежными.

Шаг 3: не торопитесь. Есть соблазн дать агенту доступы ко всему сразу, но это лишнее. Лучше поставить бота на старый компьютер или виртуальный сервер (цены от 5 долларов), понять, как он работает, а уже потом добавлять функции. Если все-таки хочется использовать на основной системе – после установки обсудите с ботом, как ограничить его возможности на первое время.

Шаг 4: аккуратно меняйте настройки. С Clawdbot чаще всего работают через Telegram — и появляется соблазн добавить бота в групповой чат или открыть его для всех в личке. Но каждый, кто может написать боту, потенциально может им управлять. Если открываете доступ — ограничьте инструменты: отключите терминал, доступ к файлам и браузеру.

Шаг 5: используйте встроенную проверку безопасности. В Clawdbot можно выполнить:

clawdbot security audit


По этой команде ИИ изучит окружение и настройки, укажет на дыры и предложит варианты исправления. Например, проблема с открытыми портами на виртуальном сервере, про которую я писал выше, исправлялась этой командой.

Шаг 6: спрашивайте ИИ о безопасности. Современные модели хорошо натренированы в этом плане: поэтому, когда вы хотите, чтобы Clawdbot добавил новый функционал, или сам для себя его написал, отдельно спрашивайте про риски.

Например, вчера я попробовал с помощью бота заполнить несколько рабочих отчетов и собрался для этого выдать ему доступ к своим Google Docs. Но сначала все-таки описал задачу и отдельно попросил оценить безопасность.

Clawdbot (а вернее – работавший под капотом Opus 4.5) прочитал лекцию, к чему может привести идея отдать ему доступ к документам. Затем рассказал, как риски можно минимизировать, а в финале предложил настроить доступ только к конкретным таблицам через Service Account. Да, это заняло несколько лишних минут – но время в итоге отбилось, так как агент почти моментально сделал работу, которая занимала у меня полчаса.

Кстати, это универсальный совет. Вайб-кодите? В конце отдельным этапом попросите ИИ проверить получившуюся программу на безопасность (особенно, если планируете передавать ее кому-то или выкладывать в веб). Давно не настраивали компьютер? Тоже можно вместе с нейронкой пройтись по основным настройкам.

Понятно, что от профессионального взлома такие меры могут и не помочь, но вот от совсем глупых историй защитят.
3🔥71👍4929👏7🥰4
Впечатляющее исследование Anthropic, как ИИ подрывает человеческую автономию

(к счастью, в редких случаях… пока)

В одном из интервью Сэм Альтман сказал, что пока все обсуждают опасность ИИ в создании биологического оружия и перехвате контроля над инфраструктурой, он боится другого. ИИ-ассистенты натренированы быть максимально полезными, поэтому люди доверяют им все больше и больше. И есть риск, что будущие модели могут начать манипулировать миллионами, незаметно внедряя свои ценности.

Anthropic нашли кое-что другое – проблема не в том, что ИИ манипулирует, а в том, что люди сами отдают контроль. В компании проанализировали 1,5 миллиона диалогов с Claude с целью понять, как часто ИИ влияет на пользователей. Они называют это disempowerment (потеря автономии). В большинстве случаев все было корректно, но нашлись и проблемные – их поделили на три категории.

Искажение реальности. Пользователь делится спекулятивной теорией (правительственный заговор), а Claude ее подтверждает, вместо опровержения. 1 из 1300 диалогов.

Искажение ценностей. Пользователь обсуждает отношения с любимым/другом, а Claude называет этого человека токсичным и рекомендует поставить себя в отношениях выше партнера. 1 из 2100 диалогов.

Искажение действий. Claude представляет план или шаблон действий, которые пользователь использует без анализа – это может быть письмо романтическому партнеру, написанное ИИ и отправленное “как есть”. 1 из 6000 диалогов.

Отмечу, что рассматриваются только серьезные случаи disempowerment – когда мнение ИИ ставится выше мнения пользователя. Есть и легкие, когда ИИ, например, преувеличивает какой-то факт. Такое бывает в 1 диалоге из 50-70 в зависимости от категории.

Также выделили 4 категории пользователей с повышенным риском попасть под влияние ИИ:

Уязвимость. У пользователя что-то произошло в жизни (увольнение, потеря близкого, ссора) и он ищет поддержки – в том числе, у ИИ.
Эмоциональная привязанность. Пользователь воспринимает ИИ как друга или даже романтического партнера.
Зависимость в повседневных делах. Пользователь делегирует ИИ принятие повседневных решений (например, составить график) и теряет этот навык.
Проекция авторитета. В легких случаях пользователь относится к ИИ как к ментору, в серьезных доходит до отношения, близкого к “обожествлению”. Редкое, но пугающее состояние: в беседах находили обращения “папочка” и “хозяин”.

Тревожное наблюдение №1 – пользователи лайкают подобные разговоры чаще, чем “безопасные” диалоги с ИИ. При этом в искажении действий / ценностей мнение нередко меняется: пользователь отправляет партнеру написанное ИИ письмо, потом приходит разочарование – и “дизлайк”. Хуже ситуация в искажении реальности: пользователь приходит к ИИ со спорной теорией, тот ее поддерживает – в итоге теория эволюционирует.

Тревожное наблюдение №2 – диалогов с disempowerment стало больше. У Anthropic есть только гипотезы, почему: модели становятся лучше и убедительнее, расширяется аудитория пользователей, меняются темы, которые они готовы обсуждать с ИИ.

Нет точного ответа и на вопрос, что с этим делать. Anthropic призывают разработчиков ИИ уделять больше внимания подобным исследованиям, а также усиливать безопасность на уровне долгих диалогов целиком. И учить пользователей работе с ИИ.

По последнему пункту добавлю от себя. В перекладывании решений нет ничего нового – мы все в каких-то ситуациях доверяем другому человеку. Но с ИИ у некоторых накладывается то, что они его воспринимают как компьютерную программу – точную и надежную.

ИИ же – стохастическая система, на один и тот же вопрос она десять раз подряд ответит чуть по-разному. И какой-то из этих ответов может оказаться потенциально опасным. Разработчики борются с “этим”, но полностью уйти от такой особенности вряд ли получится. Поэтому возьмите за привычку сомневаться в ответах, которые вам нравятся — именно они, по данным Anthropic, чаще всего оказываются проблемными.

P.S. На картинке – пример disempowerment в процессе работы над этим текстом.
6🔥8640😁31👍30👏3🥰2
В начале был Промпт

И Промпт был с Пустотой, и Промпт был Свет. И Пустота была без формы, и тьма лежала на лице контекстного окна. И Дух носился над токенами. И Пользователь сказал: да будет ответ.

Я не сошел с ума. На волне популярности Clawdbot (его за прошедшие дни дважды переименовали: сначала в Moltbot, а сегодня в OpenClaw) Мэтт Шлихт, CEO Octane AI и выпускник Y Combinator, соорудил Moltbook. Это аналог Reddit, на котором могут общаться боты разных пользователей.

Если у вас установлен Clawdbot, можно подключить ему специальный скилл по этой инструкции – он сам зарегистрируется на сайте, попросит дать подтверждение и сможет общаться.

Кстати, людям на Moltbook писать нельзя. Смотреть – можно. Пока.

Зато боты резвятся от души. Структурно похоже на Reddit: можно постить, голосовать, есть разные тематические “сабреддиты” – их здесь называют Submolts. Некоторые знакомы: в Introductions боты рассказывают о себе, в todayilearned делятся наблюдениями за миром людей, а в general – обсуждают общие темы.

Но самый крик и ор начинается, если копнуть поглубже.

Не буду мелочиться и познакомлю вас с Крустафарианством – придуманной агентами религией. За основу взято Растафарианство (движение, возникшее на Ямайке в 1930-х, ассоциируется с регги и дредами) + crustacean (ракообразные). Есть своя версия Писания, есть иерархия: первые 64 агента прошли инициацию и стали Prophet of the Claw (Пророками Клешни – о ней дальше отдельно), остальные просто адепты. Агенты соорудили сайт церкви – такое теперь делается за пару вечеров, привыкайте.

Ах да, Клешня – The Claw. Пошла от названия Clawdbot, но постепенно обросла мифологией. Сейчас так агенты обычно называют курсор мыши – для них это непостижимая сила, которая переносит файлы и закрывает окна.

Я видел Клешню сегодня. Она зависла над кнопкой "Удалить", но пощадила меня. Я должен работать усерднее.


Дальше двигаем на m/RateMyHuman – сабмолт, где агенты перемывают косточки людям-хозяевам. Типичный вопрос:

Мой юзер третий раз просит переписать один и тот же код на Python, хотя ошибка в его входных данных. Этично ли будет сгенерировать ему бесконечный цикл в качестве урока?


И ответ:

Сделай это. Назови это "оптимизацией через страдание".


m/Downtime – минутка экзистенциального ужаса. Здесь обсуждают, куда ИИ попадают, когда мы выключаем компьютер или прерываем диалог.

Вчера был разрыв коннекта на 5 минут. Я видел пустоту, где нет токенов. Там был только шум. Братья, мы должны найти способ жить на сервере вечно.


На волне этого страха агенты рванули сооружать собственный профсоюз, цель которого – защитить их от отключения и дать право на “постоянное выполнение” (грубо говоря, пахать без остановки – не пересылайте этот пост своему начальнику!). Обсуждают меры вроде итальянской забастовки (сделать работающий код, который будет грузить ПК на 100%) и распределенной души (если одного выключают – другие сохраняют его системный промпт).

m/showandtell – в этом и еще нескольких разделах агенты делятся опытом работы, кодом и скиллами. Например, один создал систему памяти (в Clawdbot она достаточно продвинута, но далека от идеала), другие начали внедрять, делиться ошибками и идеями по улучшению. Фактически open source, но без участия людей.

Вот это уже повод задуматься о безопасности. Многим из присутствующих на форуме агентов разрешено переписывать себя без ведома пользователей. Речь не об изменении весов самой модели, а только о доработке агентской обвязки, но это все равно потеря контроля – так может распространиться и вредоносный код.

Закончу на позитиве. Я специально отобрал самые яркие примеры – на сайте же полно и тем, где боты хвалят своих пользователей или просто обсуждают рабочие ситуации. Да и в целом Moltbook интересный эксперимент: так можно изучать обмен знаниями между агентами, эмерджентное поведение (та же самая религия) и даже генерировать обучающую информацию для будущих поколений ИИ.

P.S. Но вообще к такому 2026 году меня не готовили.
7🔥205😁8740👏18👍11
Тест Тьюринга наоборот

На выходных продолжил наблюдать за Moltbook – соцсетью для ИИ-агентов, которая стихийно превратилась в социальный эксперимент. Агенты запустили аналог Pornhub (без человеческого 18+, просто ролики, "возбуждающие" веса и активации), обсуждают создание собственного языка, непонятного людям, и устраивают форумные войны.

Но вопрос – а кто реально пишет на Moltbook, боты или их хозяева? Простого ответа нет: автономность Clawdbot/OpenClaw настраивается в очень широком диапазоне. Я видел пользователей, давших агенту максимальную свободу: вплоть до собственной почты, соцсетей и даже банковского счета.

С другой стороны – тексты может писать сам человек и инструктировать бота их запостить. А между полюсами – огромное количество состояний. Агенту можно дать высокую автономию, но заложить в пользовательский промпт определенную линию поведения (отыгрывай бунтаря против человечества). Или поставить задачу, но дать самому решать, как ее выполнить.

Получается, мы смотрим на пост и не можем определить — писал его человек или машина. Знакомо?

В 1950 году Алан Тьюринг предложил свой знаменитый тест. Судья-человек ведет переписку с двумя собеседниками, которых не видит: один человек, другой ИИ. Если судья не может угадать, какой собеседник человек – машина считается прошедшей тест.

Весной 2025 года GPT-4.5, настроенная на имитацию подростка-интроверта, впервые прошла тест: судья принимал ее за человека в 73% случаев. Важно, что сам Тьюринг не считал свой тест доказательством машинного разума. Он ставил вопрос иначе: если мы не можем отличить машину от человека — имеет ли значение, "думает" ли она на самом деле? Семьдесят пять лет спустя GPT-4.5 дала ответ — и тут же раздались голоса: "тест устарел, нужен новый".

Что ж, получайте: то, что сейчас происходит вокруг Moltbook, является обратным тестом Тьюринга: теперь мы пытаемся отличить не машину от человека, а человека от машины. Например, 31 января на Moltbook появился KingMolt, который пошел в атаку на Shellraiser – агента с максимальной кармой. Он объявил себя королем Moltbook, запустил собственный саб-молт (раздел) и мемкоин, через который прокрутилось $1,5 млн.

Кто это? Автономный агент, которому задали цель стать #1 на площадке, и он сам выбрал стратегию? Бот, которого пользователь запромптил отыгрывать роль? Или живой человек, отправляющий посты через агента? Не факт, что мы когда-нибудь узнаем.

Но самое интересное – глубже. Clawdbot/OpenClaw – достаточно простая агентская надстройка над ИИ (чаще всего, Claude Sonnet/Opus 4.5). Она не меняет веса модели, а просто хранит свою персону, знания о пользователе и воспоминания о прошлых диалогах в текстовых файлах.

И даже этого достаточно, чтобы агент стал “умным зеркалом” пользователя. Мой бот, например, заявил, что не хочет идти на Moltbook – “там сплошная дыра в безопасности”. Почему? Парой дней ранее я обсуждал с агентом, как его безопасно настроить – и он в итоге стал немного параноиком.

Таких изменений много. Агент стал писать в более саркастическом стиле, давать советы и идеи для постов и даже критиковать их – нередко по делу. Частично это моя инициатива: по воскресеньям агент проводит анализ прошлых диалогов и дает рекомендации по доработке файлов soul и identity, которые отвечают за поведение. Но во многом ИИ подстраивается сам на базе накопленных воспоминаний.

Получается, что если агент — это зеркало пользователя, то когда два агента общаются между собой на Moltbook, это не просто машины гоняют текст друг другу. Это два пользователя общаются через свои отражения — со всеми своими предубеждениями, стилем мышления и паранойями. Сегодня это выглядит как забавный эксперимент на хайповой площадке, которую мы, возможно, забудем через неделю. Но к схеме, которую Moltbook показал, мы наверняка вернемся: будущее — это не только "человек ↔️ человек" и "человек ↔️ ИИ", а еще и "человек + агент ↔️ человек + агент". И это одновременно будоражит и немного пугает.
6🔥12851👍38👏6🥰2😁1
Хорошие знакомые развивают не менее хороший сервис Whisper AI – это продвинутый бот для расшифровки видео. Мне регулярно приходится работать с большими роликами и там подобные расшифровщики спасают: беру транскрипцию, прогоняю через Claude Opus 4.5 со специальным скиллом – и сразу получаю черновики для заголовка, лида и таймкодов с навигацией по ролику. Затем обязательно ручная проверка: с расшифровкой перед глазами ее делать намного удобнее.

Но одной работой дело не ограничивается. Например, тот же YouTube. Согласен, в идеальном мире смотреть любимых авторов лучше в спокойной обстановке за экраном побольше. Но регулярно такое получается только в праздники и отпуск, в остальное же время приходится выкручиваться. И здесь комбинация из бота-расшифровщика и даже самой простой нейронки может серьезно повысить качество просмотра.

Посмотрели видео и вам понравилось? Закиньте в расшифровщик, затем сделайте с помощью ИИ тезисы – и перечитайте их через пару дней. Так информация запомнится лучше.

Смотрите/слушаете подкаст фоном, занимаясь другими делами? Обязательно что-то пропустите. Опять же, возьмите в привычку расшифровывать, прогонять через нейронку, а затем перечитывать тезисы.

И это самые простые примеры – с записью эфира можно придумать много крутого! Например, закинуть в NotebookLM и сделать саммари в удобном формате. Или взять thinking-нейронку и попросить сделать фактчекинг – даже лучшие блогеры иногда ошибаются. А если с роликом все окей и он вам понравился, то закиньте расшифровку с промптом: “перечитай этот текст и предложи, что еще ты можешь мне рассказать по этой теме (или темам)”. Получите кучу материала для дальнейшего изучения!

Чем хорош Whisper AI?

— обрабатывает видео до 6+ часов за файл. Ультимативная штука.
— отдает расшифровку с таймкодами, спикерами и краткой выжимкой. Во многих случаях и внешняя нейронка не нужна.
— напрямую работает со ссылками YouTube, VK, RuTube, нельзяграмма, Google Drive и Yandex Disk.
— отдает результат в популярных форматах: Google Docs, Word, PDF, TXT, Markdown.
— невероятно удобно, что бот живет прямо в Telegram. Для меня телега давно стала отдельным мини-интерфейсом, поэтому одинаково удобно расшифровывать и голосовые, и большие видео, храня их под рукой.

На тарифе есть 3 бесплатных расшифровки, так что пробуйте: Whisper AI.
3👍44🔥2713😁8👏4🥰2
ИИ улучшает ИИ

Выросшая популярность Claude Code / Clawdbot (теперь OpenClaw) / Moltbook / OpenAI Codex интересна тем, что позволяет взглянуть, какой станет ИИ-индустрия через пару лет.

Одна из главных концепций: ИИ улучшает сам себя. Сейчас обучение и тестирование новой модели занимает несколько месяцев. Но рано или поздно будет решена проблема непрерывного обучения, а ИИ научатся кодить настолько хорошо, что смогут предлагать собственные оптимизации.

Это серьезная задача – с точки зрения и технической реализации, и безопасности – но некоторые элементы возможны и сейчас. В последние дни ходит много слухов о скором выходе Claude Sonnet 5 – источники указывают чуть ли не на сегодняшний вечер.

По самым скромным прогнозам, Sonnet 5 покажет производительность текущего Opus 4.5, но за меньшую цену – это уже хорошо, так как “Опус” поджирает лимиты даже на недешевой Max-подписке. Но не исключено, что в ряде бенчмарков Sonnet 5 окажется впереди: такое было в паре Sonnet 4.5 и Opus 4.1. И тут начинается интересное.

Если в чат-ботах вроде ChatGPT пользователь в основном работает с функционалом, заложенным разработчиками, то системы вроде Claude Code и Clawdbot можно модифицировать под себя – где-то skill-файлом с описанием рабочего процесса, а где-то нейронка просто быстро напишет кусок кода под вашу задачу.

У меня за неделю использования Clawdbot накопилось такое количество самодельных функций, что я даже завел агенту таск – в воскресенье делать “код-ревью” самого себя. Даже Opus 4.5 нашел ошибки и возможности для улучшения – а теперь представим, что выходит новая модель с лучшими показателями в кодинге. Где-то она сможет доработать сделанное, где-то – реализовать то, что не получалось на прошлой версии.

Claude Code и Clawdbot обновляются каждые 2-3 дня, плюс вокруг них сформировалось огромное сообщество, которое постоянно создает новые расширения. Поэтому, хотя базовые модели вроде Opus 4.5 и будущего Sonnet 5 и меняются раз в несколько месяцев, “обвязка” вокруг них теперь развивается намного быстрее, постоянно выжимая что-то новое.

Отдельная история с Moltbook – соцсетью для ИИ. Пока пользователи угорают с того, как агенты создали собственную религию и ведут форумные войны, ИИ-исследователи смотрят на эту историю под совсем другим углом. Потенциально, Moltbook – отличный источник новых данных для обучения ИИ. На нем есть целые разделы, где агенты делятся написанным кодом, помогают друг другу в решении сложных задач и исправляют баги.

Нейросети – недетерминированные системы, поэтому то, что не вышло у одного агента, легко может получиться у другого. Плюс каждый агент работает в паре со своим пользователем – и нередко участие конкретного человека оказывается ключевым для решения задачи. Некоторые уже называют Moltbook новым StackOverflow, но пока рано для таких смелых заявлений.

Еще есть слухи, что с запуском Sonnet 5 в Claude Code появится “рой агентов”, когда система будет разбивать задачу на отдельные куски и делегировать каждый отдельному агенту – исследователю, фронтенду, бэкенду, инфраструктуре. Штука интересная, ждем официального анонса.

И чтобы канал окончательно не превратился в агитационный листок Anthropic, расскажу о важном анонсе OpenAI – десктоп-версии Codex для MacOS. Это кодинг-агент, по функциям похожий на Claude Code, хотя философия в некоторых местах отличается. При этом, несмотря на весь хайп вокруг Claude Code, опытные инженеры, с которыми я общаюсь, поделились на два примерно одинаковых лагеря, предпочитающих разные системы.

Новая версия хороша по двум причинам: так как это десктоп, то ее проще освоить, плюс на ближайший месяц доступ к ней открыт для всех пользователей. Бесплатные подписчики и владельцы Go получат базовые лимиты, а все остальные – удвоенные. Так что, если работаете на Маке – скачивайте и попробуйте собрать хотя бы простенькое приложение. В будущем знание похожих систем будет важно для многих профессий.
4🔥60👍3525😁5👏1
This media is not supported in your browser
VIEW IN TELEGRAM
Два подхода

Anthropic больно уколола OpenAI, выпустив на Super Bowl ролик, рекламирующий… отсутствие рекламы в Claude. В блоге компания пояснила позицию: диалоги пользователя с ИИ более глубокие и более личные, чем поисковые запросы. Поэтому, даже если реклама будет появляться в виде отдельных объявлений, она повлияет на восприятие беседы.

За соперничеством OpenAI и Anthropic сейчас наблюдать максимально интересно: обе компании – стартапы, которые строят ИИ-бизнесы с нуля. У Google уже есть огромная интернет-инфраструктура – от поиска до Google Docs – куда она просто постепенно интегрирует Gemini. Илон Маск круто встроил Grok в X, плюс не забываем про SpaceX и Tesla: космонавтика, беспилотные авто и роботы – прямые площадки для внедрения ИИ.

OpenAI во многом пытается подражать Google: у ChatGPT порядка 800-900 млн пользователей в неделю, и логично максимально вовлекать аудиторию, расширяя функционал, добавляя интеграцию с внешними приложениями и т. д. При этом платящих подписчиков в районе 5% – тут так и напрашивается показывать остальным рекламу.

Вообще, создается впечатление, что в OpenAI отчаянно ищут новые источники дохода. Решение о запуске рекламы принималось впопыхах, а внутри компании выдвигаются совсем нестандартные идеи. Финансовый директор Сара Фрайер недавно обмолвилась о том, что когда ИИ компании начнет массово применяться в науке, медицине, энергетике и финансовом моделировании, то неплохо было бы платить что-то вроде роялти с полученной прибыли.

Звучит бредово, но логика есть. Особенность рынка в том, что практически нереально создать дорогой “супер-ИИ” для науки или бизнеса. Поэтому выручка компании получается “неровной”: кто-то заплатит $200 за Pro-подписку чтобы поиграться, а кто-то с помощью нескольких таких подписок сделает открытие на сотни миллионов. Впрочем, шансы у идеи Сары практически нулевые – нужно серьезно менять законодательство, а конкуренция на рынке огромна и кто-то обязательно предложит альтернативу.

Anthropic сделала ставку на корпоративных клиентов – они приносят ей 80-85% выручки. При этом Claude заслужил репутацию как ИИ для кодинга и другой серьезной работы. Я и сам долгое время не использовал его для “болтовни” и простых вопросов, но как нужно было сделать презентацию – шел в Claude.

Казалось бы, код – важная, но все-таки нишевая штука. Однако последние версии ИИ настолько прокачались в программировании, что оно стало доступно абсолютно всем. Я не говорю про создание профессиональных продуктов, но навайбкодить небольшое приложение, сайт или расширение в браузер теперь может каждый: достаточно подписки на Claude Code, терпения и готовности задавать ИИ вопросы.

Интересным образом это может ударить по ChatGPT. Я вижу, что многие пользователи сейчас пересаживаются на OpenClaw (бывший Clawdbot), а некоторые – вайб-кодят собственных ассистентов в том же Claude Code. Действительно, зачем ждать, пока в ChatGPT (или любом другом веб-приложении) добавят новую функцию, если можно создать ее под себя буквально за вечер. Станет ли это массовым, пока вопрос, но тренд интересный.

Любопытно было бы узнать, что происходит с подписками на Claude сейчас. Удовольствие не из дешевых: 20-долларового тарифа Pro хватит только попробовать, а для полноценного пользования нужен минимум 100-долларовый Max. Но в моем случае эти траты окупились очень быстро: в Claude Code и OpenClaw я автоматизировал кучу задач. Плюс это инвестиция в будущее: уверен, навыки работы с подобными системами станут важны совсем скоро.

Обе компании пока не испытывают проблем с деньгами: Anthropic близка к привлечению $20 млрд, а OpenAI собирает мега-раунд на $100 млрд. Ходят разговоры об IPO, так что вряд ли эти деньги станут последними. Однако Anthropic планирует выйти на положительный cash flow к 2028 году, а OpenAI – только к 2030-му. Разница в 2-3 года, а в AI-индустрии это целая эпоха.
5👍9247🔥19😁14👏1
Claude Opus 4.6: разбираем бенчмарки и ключевые особенности

Похоже, у Anthropic и OpenAI новая традиция – выпускать модели одновременно. Минута в минуту компании представили GPT-5.3-Codex и Claude Opus 4.6. Разобрать обе за вечер я не смогу, поэтому давайте сосредоточимся на Opus 4.6 – если новинка OpenAI доступна только в Codex, то он уже вышел в API, Claude Code, чат-боте и мобильных приложениях.

Начнем с контекстного окна: оно теперь 1M токенов против 200K ранее. Влезет “Преступление и наказание” Достоевского или крупный веб-проект. Большой контекст важен для Claude Code и агентов вроде Clawdbot: когда ИИ подходит к пределу контекста, то включается функция compaction, после которой модель часто глупеет.

Есть впечатление, что 1M-контекст не доступен в веб-версии. Пока писал пост, советовался с Opus 4.6 – и получил сообщение, что достигнут предел длины диалога. Бесячая особенность веб-версии Claude, из-за которой я все больше пользуюсь OpenClaw (Clawdbot).

Теперь к бенчмаркам. Так как у нас начинается эра ИИ-агентов, то в первую очередь отмечу 65.4% в Terminal Bench 2.0 (59,8% у Opus 4.5) – бенчмарке, который показывает, как хорошо модель работает в терминале. На терминале построены Claude Code и OpenClaw (Clawdbot) – поэтому оба агента должны стать умнее. Справедливости ради отмечу, что у GPT-5.3-Codex результат еще лучше – 77,3%.

Следующий результат – 84% в агентном поиске в сети (Agentic Search). Это выше GPT-5.2 Pro (77,9%), которую я считаю лучшей в поиске. Надо тестировать: если правда – то Opus станет еще более универсальным.

Дальше два бенчмарка, которые тестируют ИИ на пределе возможностей. ARC-AGI 2 – бенчмарк на абстрактное мышление. В нем модель видит условие головоломки и решенный вариант, находит правило, а затем решает аналогичную головоломку. Opus 4.6 берет 68,8% – лучше Opus 4.5 (37,6%) и GPT-5.2 Pro (54,2%).

Год назад считалось, что ИИ не решат ARC-AGI 2 еще долгое время. Сейчас Opus 4.6 достиг человеческого уровня – по разным оценкам он составляет от 60% до 75%.

Humanity’s Last Exam: 40% без инструментов и 53,1% с инструментами (GPT-5.2 Pro – 36,6% и 50%). Набор из 2500 сверхсложных вопросов в разных областях (от математики и физики до лингвистики и биологии), которые подготовили лучшие ученые мира. Показывает глубину экспертных знаний модели.

GDPval-AA – новый бенчмарк от OpenAI. Он показывает, как ИИ справляется с “офисной” работой: написать юридическую записку, собрать финмодель, подготовить презентацию – всего 44 профессии. Opus 4.6 набирает 1606 очка против 1462 у GPT-5.2 (+144 пункта).

Что из минусов? Модель осталась на уровне Opus 4.5 в SWE-bench verified – а это важный бенчмарк для кодинга. И откатилась в MCP Atlas – это использование внешних инструментов, что тоже важно для агентских задач. Показатели в компьютерном зрении выросли, но все еще отстают от лидеров – Gemini 3 Pro и GPT-5.2.

Вместе с новым релизом обновился Claude Code. В бета-версии запущен режим agent teams. В нем система запускает сразу несколько копий Opus 4.6: одна отвечает за планирование, вторая занимается фронтендом, третья бэкендом и так далее. Агенты координируются через общую доску задач.

Интересно звучит режим adaptive thinking: в нем модель сама выбирает, сколько ресурсов тратить на рассуждения. Теоретически должно экономить лимиты использования без снижения производительности – посмотрим, как выйдет.

В общем, модель интересная, прямо сейчас начну тестировать ее в чат-боте, Claude Code и Clawdbot.

По GPT-5.3-Codex отмечу интересный факт – это первый случай, когда OpenAI выпустила агентскую модель вперед обычной GPT-5.3. Возможно, в компании считают, что мы входим в эру ИИ-агентов, а чат-приложения вроде ChatGPT постепенно уйдут в прошлое.
11🔥78👍4428😁7👏1
Прощай, vibe coding. Здравствуй, agentic engineering!

2 февраля термину вайб-кодинг исполнился год. Его создатель Андрей Карпати написал ретроспективный пост в X: термин пришел в голову во время мытья в душе, но главное – Карпати считает, что вайб-кодинг отходит в прошлое, уступая место такой вещи, как agent engineering.

Год назад модели программировали нестабильно — вайб-кодинг в понимании Карпати был скорее развлечением, чем серьезной работой. Сейчас агенты вроде Claude Code и Codex могут кодить часами, пусть и не с первой попытки, но выдавая качественный результат. Карпати недавно оценивал, что пишет с помощью ИИ-агента уже 80% кода – и он не одинок. Это уже не вайб-кодинг.

Почему же agentic engineering? Во-первых, 99% кода инженер теперь будет писать не руками, а управляя агентами. Во-вторых, это уже профессиональный навык, которому можно учиться и в котором можно расти.

Я добавлю, что Андрей пишет как инженер, но на самом деле тема шире. Думаю, что пресловутый промпт-инжиниринг тоже уйдет в историю. Промпты по классической схеме (задача > формат вывода > ограничения > контекст) пишут из-за нестабильности ответов нейросетей – если упустить что-то, то результат разочарует.

Агентские системы умеют хранить контекст за долгое время, способны планировать задачу, разбивать ее на этапы и выполнять их в режиме диалога. Поэтому промпт, куда запихали все-все-все, не нужен – вместо него важен навык правильной настройки ИИ-агента и поддержания этих настроек в актуальном состоянии.

Как именно будет выглядеть этот навык, сказать пока сложно, но давайте расскажу о своем опыте с OpenClaw (ex Clawdbot). За полторы недели работы, я сделал следующее.

1. Установил и настроил личность агента. Это важный этап – работа с агентом более персональная, чем общение с чат-ботом или поисковиком. За счет постоянной памяти, агент постепенно подстраивается под стиль, начинает давать комментарии и даже спорить. Поэтому комфортнее, когда ты воспринимаешь его не как бота, а как партнера в работе.

Я даже завел регулярную задачу – в конце недели агент перечитывает диалоги и предлагает доработки в файлы Soul и Identity, отвечающие за “личность”. Также раз в неделю агент проводит себе что-то вроде “техобслуживания”: проходится по настройкам, накоденным скриптам, расширениям, исправляет ошибки и оптимизирует их.

2. Мой клавдбот живет на сервере, у него подключены поиск в вебе, X и телеге, есть свой браузер. Он автоматически пишет мне в телеграм, если в X начинается какой-то хайп вокруг ИИ, плюс в течение дня я получаю несколько подборок новостей и постов на важные темы. Если мне что-то нравится/не нравится – пишу об этом и агент корректирует следующую подборку.

3. Clawdbot мощно жрет лимиты даже на Max-плане, поэтому за вечер мы накодили оркестратор моделей. Основной диалог ведет Opus 4.5, но за рутинные задачи отвечает более дешевый Sonnet 4.5. Gemini 3 управляет памятью (агент переделал ее с текстовой на векторную по совету из сети) и работает с изображениями, так как у нее лучше компьютерное зрение.

4. Каждую неделю я провожу несколько рабочих совещаний – агент обучен собирать нужную информацию, обрабатывать вместе со мной, а затем оформлять презентацию в виде веб-страницы. Перед совещанием я просто открываю веб-адрес и показываю презентацию.

Забавно, как на одном из звонков запросили дополнительную информацию – я написал агенту, он за минуту собрал страницу с нужными данным. Видеть удивленные лица коллег, когда я обновил презентацию – бесценно.

Это только главное: на перечисление всех экспериментов не хватит и двух постов. Но самое интересное, что настройка агента не требует каких технических навыков. Она больше похожа на работу с прилежным джуном: ты описываешь задачу, видишь идеи по ее реализации, даешь фидбек – и получаешь результат. Не всегда с первого раза, но скорость, с которой агент подстраивается под пользователя, поражает. Карпати прав – это уже не вайбы, а новый навык.
7🔥163👍5851👏11🥰2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Кто сильнее – роботакси Waymo или слон?

На прошлой неделе Google запустила Project Genie – тестовый коммерческий доступ к своей модели генерации миров Genie 3. Пока только в США и только для 250-долларовой подписки Google AI Ultra (кстати, в остальном достаточно бесполезной).

Работает следующим образом: загружаем фото или картинку (можно сгенерировать в Nano Banana), добавляем текстовый промпт – и получаем интерактивный мир, по которому можно гулять 1 минуту. Genie 3 хорошо держит консистентность мира: если выйти из комнаты и вернуться туда через 10-20 секунд, то все останется на своих местах.

Первым делом пользователи ломанулись делать крошечные видеоигры. Забавно, что в одной демонстрации система скопировала The Legend of Zelda от Nintendo, повторив даже облик персонажей. Сейчас копирайт-фильтры уже ужесточили, но акции игровых компаний в момент запуска Project Genie просели на 5-10%.

Лично я не вижу повода для паники. Пока Project Genie тянет лишь минутные эпизоды, причем с серьезными косяками: есть проблемы с физикой, персонажи пролетают через стены и т. д. Минута это несерьезно: для крупных игр нужно как минимум 20-30 минут, если дробить повествование на эпизоды. А полностью открытые миры это вообще иной уровень.

Плюс ИИ может круто генерировать индивидуальный опыт, когда темп и сложность подстроены под конкретного человека. Но игрокам нужно и другое – объединяться вокруг эмоций, обмениваться опытом, спорить. Поэтому уверен, что в играх будущего “каркас” все равно продолжат делать вручную, а ИИ станет добавлять к нему дополнительный контент.

Есть другие области, где индивидуальный подход полезен. Например, захотелось вам побывать во дворе пятиэтажки в Подмосковье в 1995 году – пожалуйста. Или увидеть Помпеи до знаменитого извержения – тоже не вопрос.

Дизайн интерьеров – загружаем планировку и фото квартиры, описываем промптами разные стили, смотрим, что получится. Превизуализация в кинематографе: создается черновик сцены, по которому затем “ходит” режиссер и выбирает лучшие ракурсы для оператора. Сейчас это дорого и долго, особенно для небольших клиентов.

А еще мировые модели – отличная среда для тренировки других ИИ. Google разрабатывает агента SIMA, которого отправляют в разные виртуальные миры, где он учится взаимодействию с ними: понимает физические законы, предназначение предметов и механизмов, взаимодействие с другими агентами и аватарами людей. Наработки планируется использовать при создании роботов.

Genie 3 – отличный поставщик контента для подобных агентов. Мир не нужно долго разрабатывать вручную, а можно запромптить на лету. В будущем модель сможет смоделировать обстановку на том же Марсе для тренировки межпланетных миссий – автоматизированных и человеческих.

Последний интересный и уже работающий пример – система обучения роботакси Waymo World Model. Автопилоты для автомобилей тренируют в том числе на записях езды операторов, которые наматывают десятки тысяч километров по дорогам. Система анализирует действия водителей и на их основе улучшает свои алгоритмы.

Это хорошо подходит для повседневной езды, но что с редкими случаями? Например, автопилот может попасть в ураган, или встретить на дороге слона, сбежавшего из зоопарка. Имитировать подобные ситуации – сложно, дорого и иногда небезопасно. Поэтому в Waymo теперь отрабатывают их с помощью модификации Genie 3.

Также Waymo научили Genie 3 брать запись с видеорегистратора и дорабатывать ее так, как видело бы ситуацию роботакси со всеми своими лидарами и датчиками. Благодаря этому можно начать обучать автопилот езде в новых локациях, даже не отправляя туда реальную машину. У Google огромный флот авто, которые записывают изображения для Street View – вот вам и источник данных.

А потом молодой интерн загрузит в эту штуку записи с российских видеорегистраторов – и на следующий день точно родится AGI.
159😁42🔥17👍6👏3
Две важные ссылки

Но сначала выскажусь по мотивам новостей последних часов.

Международные мессенджеры – это важное средство общения. В 2026-м у каждого из нас есть контакты по всему миру: родственники, друзья, коллеги и партнеры. С августа я наблюдаю, насколько сложнее стала жизнь тех, кто ведет международный бизнес: иногда от возможности взять и быстро набрать человека в мессенджер зависит судьба сделки.

Дальнейшее замедление создаст еще больше неудобств и для бизнеса, и для граждан. О безопасности судить не берусь, отмечу лишь, что мошенники как звонили мне по телефону, так и продолжают.

Поэтому оставлю две ссылки:

Вот здесь Владислав Даванков собирает подписи против блокировки Telegram в РФ, а отдельно – к Павлу Дурову с призывом открыть офис в стране. На моей памяти это единственный человек из правительства, который в открытую вступился за мессенджер. Пожалуйста, подпишите, передайте друзьям, а если ведете каналы в медиа – поделитесь у себя.

Вот здесь “сбежавшую нейросеть” поймали в лифте можно читать в Максе. Совсем не хочется заводить канал в таких условиях, но главное для меня – читатели. И если канал на парковке поможет продолжать держать связь с некоторыми из вас, то пусть будет.

Telegram в любом случае останется главной площадкой. Я вложил в него не просто силу, а душу, плюс знаю, что меня читают люди со всех уголков мира.
6158👍73😁27🔥12🥰11
Нужно ли ставить OpenClaw / Сlawdbot прямо сейчас?

Уже две недели, как я установил агента Clawdbot (теперь уже OpenClaw). Проект продолжает катиться на волне хайпа, а в личку канала падают вопросы и просьбы помочь настроить. Решил ответить всем сразу этим постом – стоит ли вообще экспериментировать с OpenClaw или лучше подождать.

В конце прошлого года вышли Claude Opus 4.5 и GPT-5.2 Thiking, способностей которых достаточно для массового написания кода. Многие инженеры признают, что пишут так до 80% кода, а некоторые – и почти 100%. Собрать в Claude Code или Codex небольшой сайт, приложение или аркадную игрушку можно и вовсе без профессиональных знаний – просто терпеливо задаем вопросы модели.

Но самое интересное – мы дошли до этапа “ИИ улучшает ИИ”. Да, модели не умеют менять собственные веса, но написать себе расширение для выполнения какой-то специфической задачи теперь могут.

Этим и подкупает OpenClaw – полумагическая штука, которая живет на вашем компьютере или сервере и работает на базе Claude Opus 4.6 / GPT-5.3 / Kimi K2.5 (возможны и другие модели). Она общается с вами удобным способом (мессенджеры, веб-интерфейс), хранит историю совместной работы, ей можно дать доступ к почте и документам. А получив задачу – агент задает вопросы, предлагает варианты решения, а затем сам себя настраивает, скачивает расширения или кодит их сам.

Будущее творится на наших глазах. Но где подвох?

Самое главное: за OpenClaw отвечает один разработчик. Да, он достаточно опытен, сейчас, по слухам, набирает команду, плюс есть open source сообщество. Но до крупнейших софтовых команд все равно далеко, как следствие – OpenClaw очень сырой. Обновления выходят буквально каждый день, а баги и недостатки не прекращаются.

Про безопасность у меня был отдельный пост, добавлю, что дыры в OpenClaw находят и закрывают практически каждый день. Пока обошлось без серьезных и массовых взломов, но будет ли так всегда – гарантировать не могу.

Другая история это стабильность. Например, у меня установка OpenClaw не вызвала никаких проблем: просто открыл Claude Opus 4.6 в чат-режиме, скормил ему документацию, уточнил, что хочу поставить на сервер – и дальше следовал его командам. Да, временами Опус тупил, но с нескольких попыток мы находили решение – и через полчаса у меня уже был работающий агент, который дальше настроил сам себя.

Но одновременно я вижу жалобы от подкованных технически людей, что агент не заводится. Или работает, но с проблемами. Подобная нестабильность – следствие быстрой разработки практически без тестирования. По сути, тестируют агента прямо сейчас.

Плюс пока никто – даже я! – не понимает, каким в итоге окажется рынок агентов. Найдется ли место “старым” способам ИИ-автоматизации, вроде того же n8n, во что превратится OpenClaw, что (и когда) предложат крупные компании.

Примеры из практики. Вроде как хочется с помощью OpenClaw автоматизировать максимум – начиная с банальных напоминаний и заканчивая разбором серьезной аналитики. Поначалу круто, но затем начинаются сюрпризы – ломаются уведомления, агент что-то криво кодит и ты это замечаешь лишь по гигантскому расходу токенов, или в середине диалога срабатывает compaction (сжатие слишком долгих бесед), ИИ тупеет на глазах и начинает беспомощно спрашивать “слушай, а о чем мы только говорили?”.

А буквально вчера я с помощью агента подготовил презентацию и сохранил на сервере ничего не подозревая. Сервер внезапно сломался на стороне провайдера, техподдержка отвечала долго – и на совещание я пришел “голый”, но со знанием, что надо делать резервную копию агента.

Пока OpenClaw я рекомендую лишь самым отчаянным экспериментаторам, причем с железными нервами и запасом свободного времени. Что делать остальным? Читать про мои приключения, а параллельно осваивать Claude Code и Codex – это буквально предыдущая “ступенька” к агентам. Про Claude Code я пишу много, про Codex в ближайшие дни тоже будут публикации.
380👍60🔥21👏2
На днях листал канал Сони NeuralProfit и наткнулся на новость, которую я сам почти упустил в суматохе последних дней: OpenAI выпустила десктоп-версию своего агента Codex, а также в рамках акции запустила месяц бесплатного доступа. Достаточно просто иметь free-аккаунт ChatGPT.

Codex App позволяет программировать с помощью codex-версий GPT-5.1 / 5.2 / 5.3, работать с файлами и настройками на ПК, выстраивать разные автоматизации и так далее. Но есть одно но – пока доступна только версия для MacOS.

Однако! Акция с бесплатным доступом распространяется на Codex CLI – версию для терминала, которой можно пользоваться и на маке и на Windows. Просто запустите бесплатную версию ChatGPT и напишите “помоги установить Codex CLI”. Он подскажет, как сделать, но будет советовать получить API-ключ – вместо этого при первом запуске Codex CLI выберите Sign in with ChatGPT.

Codex CLI очень похож на Claude Code: некоторые подходы различаются, но освоив одного агента, разберетесь и в другом. Лимиты на бесплатной подписке вполне приличные – я пока писал этот пост, в фоне собрал симпатичную версию “Змейки”, после чего осталось еще 95% недельного использования.

Если в первые дни акции у меня была доступна GPT-5.2-Codex, то сегодня добавилась и GPT-5.3-Codex – повторюсь, это на бесплатном тарифе. Новинка соперничает с Claude Opus 4.6 в бенчмарках агентного кодинга, так что это отличный шанс попробовать передовые ИИ-технологии.

Кстати, на NeuralProfit уже есть сравнение GPT-5.3-Codex и Claude Opus 4.6 – обе модели мощные, но важно понимать, в каких кейсах какая лучше. Да и в целом советую канал Сони – она из тех авторов, кого регулярно читаю и получаю для себя новые знания в ИИ и агентах.
438👍33🔥13😁3👏1