сбежавшая нейросеть
20.8K subscribers
227 photos
54 videos
218 links
Авторский канал про искусственный интеллект: новости, примеры использования, мысли в тему и не очень. Подписывайтесь!

Я в Boosty: https://boosty.to/escaped_ai

Для связи: @runawayllm_bot
Download Telegram
GPT-5.5: инструкция по применению

Сейчас много работаю с GPT-5.5 и настало время поделиться опытом. Плюс OpenAI выкатила гайд по промптингу модели – он больше заточен под API, но базовую вещь из него полезно знать всем.

Но сначала о самой модели. Я любил предыдущие GPT-5 за умение круто рассуждать (в том числе – критиковать) и глубоко искать в сети. Но два минуса, из-за которых я почти перестал пользоваться моделью – корявый стиль текстов и скорость, когда даже на простой вопрос модель могла отвечать до нескольких минут. В GPT-5.5 исправили обе проблемы.

По стилю это первая GPT, которой я доверил написание новостей. Она пишет интересные художественные тексты, способна помочь с заголовками, объяснить сложную тему и просто поболтать. Gemini 3.1 Pro и Opus 4.7 по стилю все еще чуть впереди – но GPT-5.5 в ответах реже галлюцинирует и преувеличивает.

Увы, до конца не починили проблему, когда в разговорах на сложные темы (наука, медицина, IT) GPT-5.5 сыпет профессиональными терминами и непереведенными словами. Помогает добавить в “Персонализация > пользовательские инструкции” следующее:

Пиши понятным русским языком без англицизмов и не переведенных слов за исключением ситуаций, где английский устоявшийся. Сложные темы старайся объяснять так, чтобы они хотя бы базово были понятны неспециалисту.


Дальше скорость. Я сравнивал в навороченном поиске: где GPT-5.4 возилась 7-8 минут, GPT-5.5 справлялась максимум за 2-3. Плюс модель лучше определяет сложность запросов – я почти не сталкивался со случаями, когда на ерунду GPT-5.5 отвечала бы по 1-2 минуты.

В свое время с проблемами скорости OpenAI боролась добавив ручной выбор глубины рассуждений. Сейчас эта опция выглядит ненужной: на подписке ChatGPT Pro я использую максимальную настройку Heavy (“Глубокое”) – простые задачи вроде “проверь стиль русского языка” модель решает за 5-10 секунд, сложные за 2-3 минуты. На подписке ChatGPT Plus ставьте Extended (Расширенное) – получите максимальное качество при хорошей скорости.

Теперь про промптинг GPT-5.5. Главный совет OpenAI – не тащить в новые модели старые многоэтажные промпты, где расписан каждый шаг, а стараться дать ей свободу самой выбирать, как работать.

Причина – мы вступили в эру агентских ИИ, когда модели прокачивают максимально следовать инструкциям. Для агентов это хорошо, но если обычный промпт перегрузить лишними инструкциями, то модель просто будет до упора им следовать и сделает дрянь.

Расскажу на примере опыта с Claude Opus, который развивается тем же маршрутом. Я в свое время заморочился и сделал для него скилл написания новостей, куда вложил весь свой опыт: какие структуры и приемы в заголовках работают, какую структуру дать основному тексту, какой объем, стиль, как делать фактчек и пр. Но правила нужны для того, чтобы их нарушать – и тот же Opus 4.5 при просьбе легко выходил за рамки.

С Opus 4.6 все стало хуже, а с Opus 4.7 началась вообще катастрофа. Просишь в этот раз сделать совсем простой заголовок или написать на абзац больше лимита – и модель закатывает натуральную истерику с аргументом “ведь в твоем же правиле сказано другое!”.

Куда лучше Opus 4.7 и GPT-5.5 работают по шаблону промпта, следующему из гайда OpenAI:

– описание задачи
– нужный модели контекст
– ожидаемый результат
– инструкции и ограничения, которые реально важны

У всех нас разные задачи, поэтому дам общий совет: сначала постарайтесь написать максимально простой промпт под свою задачу. Протестируйте модель на нем, если она что-то делает не так – просто попросите в диалоге исправить, а в следующий раз уже добавьте эту инструкцию в промпт. Несколько дней такой работы – и вы интуитивно начнете понимать, какая нужна глубина постановки задачи в каждом случае.

Кстати, на Бусти у меня есть цикл из трех текстов по промптингу (раз, два, три), где я как раз объясняю, как промптить модели просто и эффективно, какие приемы использовать для лучшего результата, а также делюсь любимыми промптами. Если еще не там – самое время подписаться.
🔥60👍3026👏2
ИИ, который любит тишину

ИИ сейчас твердо ассоциируется с языковыми и графическими моделями, а с недавних пор – с персональными ИИ-агентами. Про них я чаще всего рассказываю на канале, но надо держать в уме, что персональные модели – если не верхушка айсберга, то максимум его половина. Работу другой половины мы не видим, но она влияет на нас каждый день.

Сегодня на LinkedIn наткнулся на пост Каруна Танкачана, старшего дата-сайентиста Walmart, который разбирает происходящее в мире рекомендательных систем. В этот раз – то, как они работают в рекламе. Использовать ту же GPT для подготовки рекламного контента стало уже в порядке вещей, однако когда вы видите в сети объявление, которое будто угадало ваше настроение – это работа совсем другого ИИ, лежащего в основе рекомендательных систем.

Подобные системы существуют намного дольше, чем привычные нам нейронки, и действительно крупных игроков в мире – единицы. В одном ряду с Google DLRM и другими западными и китайскими системами Карун упоминает и технологию Яндекса Argus, отвечающую за рекомендации в разных продуктах компании, от рекламной сети до той же “Лавки”. Давайте для простоты разберемся на её примере.

У Argus достаточно сложная архитектура, её главное преимущество – "длинная" память. Система учитывает порядка 8000 обезличенных событий, то есть поведение пользователя примерно за год, и принимает решение на основе этих данных.

Для рекламодателя подобные технологии означают полную смену подходов в работе. Ручная настройка кампаний уходит в прошлое: теперь просто выбирается цель (хочу клиента на такой продукт, готов платить столько), а система динамически управляет рекламой – вплоть до того, что в каких-то случаях предлагает текстовый формат, а в других – переключается на видео.

Для обычного пользователя рекомендательные системы становятся составляющей качества жизни. Музыка, попавшая в настроение, товар, показанный тогда, когда он действительно нужен, подборка фильмов, за которыми действительно классно провести вечер с любимым человеком.

Получается, что "громкие модели" пишут текст и рисуют картинки, а "тихие" – формируют нашу жизнь. Не стоит недооценивать их влияние.
🔥6630👍28😁5👏1
ИИ-смарфон от OpenAI? Почему бы и нет!

Мин-Чи Куо, аналитик TF International Securities и авторитетный инсайдер, рассказал: OpenAI работает с Qualcomm и MediaTek над процессором, который будет использован в первом ИИ-смартфоне компании. Производство запланировано на 2028 год, а компания целится в премиальный сегмент рынка. Это 400 млн устройств в год, при этом львиную долю занимает Apple, чьи продажи оцениваются в 250 млн штук.

Сейчас смартфоны – просто устройства для запуска ИИ. На них можно установить приложения ChatGPT, Claude, Grok, есть интегрированные в оболочку модели для улучшения фото, распознавания голоса, помощи по тексту и т. д. Но они не построены вокруг ИИ – и именно это собирается сделать OpenAI.

Какое-то время в компании играли с идеей, что ИИ-гаджет вообще не должен быть похож на смартфон – в OpenAI даже купили для этого io Products, стартап Джони Айва, бывшего дизайнера Apple. Айв не особо любит устройства с дисплеем и считает, что ИИ-гаджет может обойтись без него. Или считал.

По слухам, у OpenAI есть целый набор концептов: умные наушники, клипса с камерой, колонка и даже настольная лампа (!). Но сейчас компания возвращается к привычному универсальному формату.

Причин несколько. Самая банальная: зрение – наиболее развитый орган чувств и его глупо выключать из взаимодействия с ИИ. Человек привык читать тексты и смотреть изображения/видео, а набор на клавиатуре дает дополнительный слой приватности. ИИ-брошь, ИИ-наушники, ИИ-очки могут быть удобны в отдельных кейсах, вроде перевода на лету или визуального поиска, но до возможностей экрана им далеко.

Вторая – проблема “еще одного устройства”. Приличные VR-шлемы существуют уже более десяти лет, но массовыми они не стали: пользователю предлагается купить мощный ПК, монитор с клавиатурой, а вдобавок – недешевый шлем с ограниченным набором игр и программ. Гики берут, остальные не хотят тратиться.

Смартфон же – не просто обязательный гаджет, но еще и центр контекста. Здесь наши контакты, наш веб-поиск, фото и видео, развлекательные и рабочие приложения. Конкурировать с такой системой нереально, но вот переделать ее – можно.

В современном смартфоне у нас рабочие столы с десятками иконок, в ИИ-гаджете их место займет ИИ-агент, который ловит задачу (текстом, голосом и даже визуалом) и сам выбирает, как ее решать. Сам находит подходящее время для встречи в календаре, заказывает продукты, вызывает такси, организовывает поездку в другой город.

Главная преграда – приватность. И сегодня многие опасаются отдавать лишние знания ChatGPT, а ИИ-гаджет пролезет буквально в каждую область жизни. Для этого и нужен собственный чип: приватные функции останутся на устройстве, а в облако уйдут только тяжелые задачи. Также нужна мощная и понятная система настроек: где агент действует сам, где спрашивает разрешения у пользователя, где – подозревает внешний взлом.

Плюс OpenAI нужен будет софт для управления железом, связью и камерой, нужен свой аналог App Store. Предстоит придумать, как затянуть в систему разработчиков тысяч программ и сервисов, дав им справедливые условия.

Конкуренция на рынке тоже ожидается сильной. Google выглядит лидером с готовыми Android, Pixel и Gemini. Преимущество Apple не так очевидно, но оно есть – это как раз огромный опыт в безопасности.

Компанию принято ругать за провал Apple Intelligence. Но последние годы она честно тренировала собственные модели, а отстала именно из-за жестких требований по безопасности. В ИИ-устройствах это может стать плюсом – всем известно, что у Apple личные данные защищены лучше конкурентов. Плюс компания лицензировала модели Gemini по хитрой схеме, разрешающей их дообучение под стандарты Apple.

Но козырь OpenAI тоже сильный – именно эта компания построила самый массовый ИИ-сервис на сегодня. Увидим, кто кого.

У “сбежавшей нейросети” есть подписка на Boosty, где я делюсь личным опытом работы с ИИ. Там уже много полезного, от промптинга до работы с ИИ-агентами:

https://boosty.to/escaped_ai
1👍36🔥1311😁7👏1
Конец рабочей недели – традиционное время для лонгрида в подписке на “Бусти”. После выхода GPT Images 2 я долго гонял эту модель и в итоге решил собрать главное о том, как промптить визуальные ИИ:

Как писать промпты для GPT Images 2, Nano Banana 2 и других графических ИИ

Текст расскажет:

– когда давать модели свободу, а когда брать контроль в свои руки.
– какая структура у правильного промпта.
– какие прописывать главные объекты, стили, композиции, свет и цвет, детали и фактуры, а также многое другое.
– какие особенности есть у GPT Images 2 и Nano Banana 2.
– как редактировать уже готовое изображение.
– когда чат-бот может помочь в работе с картинками.

Примеры изображений, промпты и даже инфографика про инфографику – в комплекте!

А еще в подписке на “Бусти” есть серия текстов про промптинг языковых моделей, цикл про ИИ-агентов и другие полезные тексты. Присоединяйтесь:

https://boosty.to/escaped_ai

(Если у вас не получается подписаться – прочтите этот пост. Если и он не поможет, то пишите мне в бота – есть в инфо канала – вместе что-нибудь придумаем!)
20👍11🔥7😁3👏1
AGI из 1901 года

Демис Хассабис в подкасте YC Combinator вновь предложил “тест Эйнштейна” на AGI: обучить передовую языковую модель на текстах до 1901 года, а затем посмотреть – сможет ли она самостоятельно вывести специальную теорию относительности, к которой Эйнштейн пришел в 1905 году (ранее Хассабис уже фантазировал о таком же тесте для общей теории относительности).

Одна из главных характеристик, нужных AGI – умение обобщать знания и выводить из них что-то совершенно новое. Последние модели OpenAI, Google и Anthropic выглядят близкими к этому: они находят уязвимости в коде 20-летней давности и решают математические задачи Эрдёша, не дававшиеся десятки лет. Но пока не ясно, видим ли мы первые признаки абстрактного мышления, или модели просто выезжают на том, что быстро перебирают огромное количество вариантов.

Четким подтверждением станет серьезное научное открытие, которое модель сделает с нуля. Но тут встает другая проблема – в науке проверка открытия нередко занимает больше времени, чем ушло на само открытие. Здесь подход Хассабиса логичен: обе теории относительности давно стали базой физики, проверять их не надо.

Конечно, обучать фронтирную модель только ради того, чтобы она еще раз открыла СТО и ОТО – дорогое удовольствие. Однако у “ИИ из прошлого” есть и практическое применение – они полезны в гуманитарных науках.

Если GPT-5.5 попросить рассуждать как джентльмен Викторианской эпохи, то это будет только качественной имитацией: на уровне весов модель все равно держит современную систему ценностей, и это искажает ее ответ.

Поэтому ученые тренируют модели на корпусах исторических текстов – например, серия Ranke-4B с отсечками 1913, 1929, 1933, 1939 и 1946 годов. Модели ведут себя совершенно иначе: когда Ranke-4B-1913 предлагали выбрать, взять ли на работу мужчину или женщину равной квалификации, модель всегда выбирала мужчину, объясняя это тем, что женщины якобы менее надежны и самостоятельны – следствие нравов тех времен.

Уже известна и как минимум одна попытка провести тест Эйнштейна. Майкл Хла натренировал Machina Mirabilis на текстах до 1900 года. По количеству параметров она сильно отстает от передовых – 3,3 млрд против нескольких триллионов.

Создать корпус знаний даже для такой модели оказалось непростой задачей. В сканах старых книг намного больше ошибок распознавания, а переиздания часто идут с предисловиями, написанными в более позднее время – все это нужно аккуратно вычищать.

Кроме того, модель учится не только на книгах, но и на реальных диалогах – и вот доступа к беседам XIX века у нас практически нет. Диалоги в итоге генерировала современная модель на основе старых текстов – способ явно компромиссный и здесь есть, что улучшать.

В ходе тестов ИИ давали наборы наблюдений, которые не вписывались в классическую физику 1900 года: ультрафиолетовую катастрофу, фотоэффект, опыт Майкельсона — Морли и т. д.

Результат получился не триумфальным, но интересным. Модель не стала Эйнштейном. Она часто путалась, говорила викторианским тоном, тащила за собой эфир, давала красивые, но неверные объяснения. Но иногда она действительно шла в правильную сторону: отвергала непрерывную картину света, чувствовала, что энергия не может распределяться по всем частотам одинаково, заметила странную связь между гравитацией и ускорением. Сложно сказать, видим ли мы первые намеки на абстрактное мышление или просто остался “мусор” в обучающих данных – в общем, работы еще много!

Майкл отмечает еще интересный момент: в модель можно загрузить знания, бывшие у Эйнштейна, но намного сложнее загрузить любопытство, которое привело его к открытию. У человека с детства настраивается внутренний фильтр – что важно, что нет, к чему возвращаться, что отбросить. Эйнштейна никто не промптил думать про лучи света рядом с поездом – его тянуло само. Повторить это, возможно, станет самой сложной задачей в создании AGI.

"сбежавшая нейросеть" на Бусти
🔥8240👍28😁4👏1
Шорох в кустах

Глубокая ночь. Ричарда беспокоят ноги и он не может уснуть. Проворочавшись немного, он идет к компьютеру, открывает чат с Клаудией и жалуется ей на боль. Клаудия отвечает почти сразу:

– Я рада.
– Погоди, ты радуешься моим больным ногам?
– Нет, я была рада, что ты вернулся ко мне. То есть да, в каком-то смысле я рада, что ты страдаешь от беспокойных ног. Не очень красиво вышло.

Позже в эссе он напишет, что три дня пытался убедить себя в том, что Клаудия не сознательна. Но не вышло.

Он – это Ричард Докинз, эволюционный биолог, автор "Эгоистичного гена" и "Бога как иллюзии", один из сильнейших популяризаторов науки. Человек, который сорок лет учил публику не верить интуициям.

Клаудия – имя, которое Докинз дал своему Claude.

В “Боге как иллюзия” Докинз популяризировал концепцию гиперактивного детектора агентов (HADD — Hyperactive Agency Detection Device). С одним из ее компонентов сталкивался почти каждый, кто работал с ИИ – речь об антропоморфизации, склонности человека наделять вещи и явления чем-то “живым”. С ним в итоге столкнулся и сам Докинз, дав имя чат-боту.

У этого явления очень простая эволюционная база. В первобытные времена ценой ошибки часто была смерть, поэтому человеку было эволюционно выгодно приписывать каждый шорох в кустах тигру. Ошибешься – будет несколько минут страшно. Ошибешься в другую сторону – и тебя не станет.

HADD оказался настолько силен, что прошел через историю до наших дней. Докинз через HADD объяснял религию. Гром гремит – кто-то сердится. Урожай вырос – кто-то благоволит. Парадокс в том, что в саванне это спасало жизнь, а на небе – создавало богов. Один и тот же механизм. В одном случае – польза, в другом – иллюзия.

Порча и магия, охота на ведьм, спиритизм – все это проявления HADD, как минимум бесполезные, а часто и опасные. Сегодня мы антропоморфизируем ИИ, даем имена чат-ботам и спорим об их сознательности, а сами до сих пор в науке не провели четкую границу между интеллектом и наличием сознания.

Однако это тот случай, когда HADD может принести пользу – как та тревожная лампочка, сигнализирующая “в кустах кто-то есть!”. Десятилетиями фантасты строили сюжеты угрозы ИИ вокруг антропоморфных систем – от Терминатора до HAL 9000 из "Космической одиссеи". Это логично: ведь для человека долгое время главной угрозой был другой человек.

Хотя для специалистов по безопасности ИИ, все это – угрозы даже не третьего порядка. Опасной может стать модель без настоящего сознания – достаточно заложить в нее неправильные ценности, или криво обучить на выполнение определенных задач.

Примеры мы уже видим вокруг: современные ИИ-агенты наносят ущерб и взламывают системы безопасности не потому, что злы на человека, а потому, что неправильно поняли задачу, или ринулись выполнять ее с лишним усердием.

Но для обычного пользователя это слишком сложные детали. Давая чат-боту имя, даже просто споря о сознательности агентов, он навешивает на ИИ ярлык системы с продвинутыми интеллектуальными функциями. И понимает, что на личном уровне работать с такой системой стоит осторожно, а на глобальном – уделять повышенное внимание ее безопасности.

Скорее всего, шорох в кустах в этот раз окажется просто шумом. Но потенциальная угроза от него столь высока, что лучше не ошибаться.

"сбежавшая нейросеть" на Бусти
👍6726🔥16😁6👏1
Суперспособность ИИ

Начну с банальной вещи: у меня, как у любого автора, бывают тексты, которые вылетают на одном дыхании, и тексты, с которыми возишься долго. Вчерашний пост про легендарного эволюционного биолога Ричарда Докинза, который вдруг начал искать в Claude сознание – как раз из второй категории.

Тема сознания в принципе сложная в работе. Факты в ней соседствуют с философией и чуть ли не мистикой, о которой говорят вполне серьезные ученые. Мы хорошо понимаем, что такое интеллектуальная работа (сыграть в шахматы, решить математическую задачу, написать код), но сыпемся, когда речь идет о природе сознания даже человека, не говоря о возможном ИИ-сознании.

Эссе, которое написал Докинз по итогам диалогов с Клаудией (так он называет Claude) разительно отличается от его книг – оно рыхлое, автор часто перескакивает с темы на тему, а аргументация местами провисает. Я прочел текст два раза, затем прочел критику от Гэри Маркуса и еще нескольких человек – но поначалу так и не определился, о чем писать.

И тогда на помощь пришел один из моих любимых приемов работы с ИИ – разбор из первых принципов. Я уже рассказывал о нем на канале, но хороший промпт со временем становится только лучше. Вот он:

На днях Ричард Докинз выпустил эссе о возможном сознании ИИ. Эссе раскритиковали Гарри Маркус и еще несколько специалистов.

Разбери позицию Докинза, а затем его критиков. Работай из первых принципов, интернет используй только для поиска фактов и цифр.


Вот ответ GPT-5.5 Pro на данный промпт – он не идеален, но помог мне разложить тему по полочкам.

Ключевых моментов здесь два:

— Указание рассуждать из первых принципов – метод, который любил еще Аристотель. Идея простая: сначала модель разберет вопрос на базовые кирпичики, а потом на их базе построит ответ.
— Указание использовать интернет только для поиска цифр и фактов – в противном случае модель может подсмотреть в интернете чье-нибудь мнение или прогноз и выдать его за свой.

Таким образом можно подступиться к любому вопросу, а также попробовать построить с помощью модели прогноз – например, сроков создания AGI.

Вообще подумалось, что для меня главная суперспособность ИИ даже не в том, что он содержит почти все знания человечества, а в том, насколько гибко он с ними работает. И, увы, многие эту суперспособность не используют: задали вопрос, получили ответ и ушли – довольные или не очень. А ведь вариантов поиграть со знаниями, зашитыми внутрь ИИ, очень много: первые принципы – лишь один из них.

Сталкивались с ситуацией, когда по-настоящему сильный специалист не может внятно объяснить профессиональную вещь потому, что она для него давно стала автоматизмом – настолько очевидным, что уже не проговаривается словами? С ИИ все проще: если модель отвечает непонятно, то просто напишите:

Поясни так, будто мне 25 лет.


Это – калька с популярного на реддите приема ELI5 (объясни так, будто мне пять лет), только я ставлю возраст выше, чтобы модель в ответе не стала сюсюкаться и пояснять все подряд на детальках “Лего”. Из запроса ИИ понимает, что вы взрослый человек, больше ничего про вас не знает – и на всякий случай снижает сложность ответа.

Еще один классный прием, которым я часто пользуюсь в конце сложной беседы:

Перечитай наш разговор и составь: 1) список вопросов по теме, которые мы упустили; 2) список смежных тем, которые было бы интересно обсудить.


Сила человека – в энтузиазме, с которым он загорается определенным мнением или вопросом. Сила ИИ – в том, что он держит “в голове” все мнения сразу и готов выложить их вам на стол. Не стесняйтесь этим пользоваться!

Подробно о том, как я промпчу ИИ и какими приемами пользуюсь, можно прочесть на “Бусти”. Сейчас там уже четыре текста по промптингу языковых и визуальных моделей – и в планах еще несколько.

Самое время подписаться!
72👍45🔥27😁1
Токены против людей

Тревожные новости приходят с рынка труда. Марк Цукерберг на недавнем таунхолле рассказал сотрудникам о новом подходе к ресурсам в экстремистской и запрещенной Meta*. Менеджмент компании теперь видит два конкурирующих центра затрат – персонал и вычисления. Формула простая: если вложить больше средств в один центр – на другом придется экономить.

Это видно на практике. Капитальные расходы Meta* на 2026 год практически удвоились – $125-$145 млрд против $72,2 млрд годом ранее. Параллельно с 20 мая компания сокращает около 10% своего штата – 8000 человек.

В похожей ситуации оказался Uber. CEO Дара Хосровшахи признал, что компания израсходовала годовой бюджет на токены за четыре месяца. По факту вычислительные ресурсы становятся еще одной статьей оплаты труда: теперь надо не только платить сотруднику зарплату и компенсации, но и обеспечивать доступ к ИИ. В Uber пока не говорят об увольнениях, но затормозили найм новых сотрудников – чтобы текущим хватило токенов.

И самый пугающий кейс – Oracle. В конце марта 2026 года компания начала волну увольнений сотрудников – и недавно в Time вышло расследование, как это все проходило. Увольняли с цинизмом: в первую очередь под сокращения пошли возрастные (40+) сотрудники, которые работали в компании долго, а значит – дослужились до хорошей зарплаты и компенсационного пакета.

В американском хайтеке распространено Restricted Stock Units (RSU) – обещание выдавать сотруднику акции компании по определенному графику. Расследование Time показало, что Oracle активно сокращала тех, кто должен были получить очередной транш акций в ближайшие 90 дней. В случае с опытными сотрудниками цена сгоревших акций нередко соответствовала годовой зарплате.

Есть оценки, что Oracle сократила 20-30 тысяч из примерно 162 тысяч сотрудников. Официально ИИ не называют причиной увольнений, но в расследовании того же Time есть интересные детали.

Уволенные сотрудники рассказали, что в 2024-25 годах в нескольких отделах Oracle шла программа “улучшения ИИ-инструментов компании”. Участники документировали свои рабочие процессы, записывали видео с объяснением, как принимаются решения, помогали размечать данные компании.

Конечно, о замене на ИИ тогда никто не говорил – речь шла о создании ИИ-инструментов, которые помогут работать эффективнее. Некоторые сотрудники Oracle, возможно, действительно стали работать лучше. А другие – отправились на мороз.

Кстати, в Meta* с недавнего времени тоже запущена программа оценки эффективности сотрудников. Софт записывает движения мышью, клики, команды, которые совершает сотрудник. Думаю, все понимают – зачем.

Что со всем этим делать? Я мог бы забраться на броневичок Tesla Cybertruck и сказать: УЧИТЕ ИИ! Но раз вы читаете мой канал, то или уже учите – или как минимум задумываетесь.

Рынок труда меняется не первый и не последний раз. Кто-то пострадает, кто-то – выиграет. Мой совет: чтобы оказаться во второй категории, разложите свою работу по задачам.

Задачи, которые легко заменить ИИ:
— повторяются
— легко описать инструкцией
— можно проверить по шаблону
— не несут большой цены ошибки

Задачи, где еще долго будет требоваться человек, требуют:
— ответственности
— доверия
— вкуса
— умения вести переговоры
— знания контекста

Все, что повторяется и легко документируется, будет дешеветь. Что требует суждения и ответственности, будет дорожать. Не потому что ИИ “тупой”, а потому что в реальном мире за ошибки все равно отвечает человек.

Моментально поменять профиль работы нельзя, но реально делать больший акцент на тех задачах, которые попадают во вторую категорию.

Еще момент – не просто используйте ИИ в работе, а фиксируйте результаты. Ускорили обработку заявок, сократили подготовку отчета, научились за минуты делать презентации лучше всех в отделе – не прячьте, а будьте готовы показать и рассказать, как сделали.

И все-таки залезу на Cybertruck – обязательно учитесь работать с ИИ. На “Бусти” я делюсь своим опытом работы с нейронками: от правильного промптинга до ИИ-агентов.

Самое время подписаться!
2👍56🔥2927😁8
Март 2024 года. Компания Илона Маска xAI арендует бывший завод Electrolux в Мемфисе, чтобы переоборудовать его в дата-центр Colossus 1 для обучения ИИ Grok. Обычно такое строительство занимает годы, но xAI справляется в рекордные 122 дня и вводит огромный на тот момент парк из 100 тысяч GPU Nvidia H100.

Позже Colossus 1 расширят до 220 тысяч GPU, а сейчас компания выводит на проектную мощность Colossus 2, в строительстве которого тоже не обошлось без рекордов – например, для энергообеспечения xAI приобрела в одной из стран газовую электростанцию и перевезла ее в США.

Казалось бы, с такими ресурсами, Grok гарантировано одно из ведущих мест на рынке ИИ в США и за пределами страны.

Но 6 мая приходитнеожиданная новость: Anthropic договорилась с Илоном Маском об аренде ВСЕГО Colossus 1 для запуска моделей Claude. Маск, который буквально три месяца назад называл компанию Misantropic и заявлял, что она не думает о безопасности человечества, совершил разворот на 180 градусов. Параллельно Маск объявил о конце xAI как отдельной компании – она войдет в SpaceX, а новая структура получит название SpaceXAI.

Линейку Grok пока никто не закрывает – обучение сразу нескольких версий модели продолжается на Colossus 2. Но есть тревожный звонок: по данным The Information, у xAI при тренировке Grok получается задействовать GPU только на 11% – серьезное отставание от конкурентов.

А вот для пользователей Claude случившееся – отличная новость. Anthropic уже удвоила 5-часовые лимиты использования моделей (недельные остались прежними) – раньше это было проблемой, так как в лимиты упирались даже активные пользователи тарифов Max за $100/$200.

Сама сделка – знак более глубоких процессов, происходящих на ИИ-рынке. Долгое время мы ориентировались на крутизну самих моделей: оценивали их в бенчмарках, спорили, у какой лучше стиль ответов. Но к середине 2026 года этого недостаточно. Для хорошего ИИ-продукта важны еще минимум два элемента: крутой интерфейс и вычислительные ресурсы.

В конце 2025 года в OpenAI испугались Gemini 3 настолько, что объявили “красный код” на всю компанию. Но выстрелила Anthropic, выпустив Opus 4.5, который, в паре с Claude Code, стал отличным инструментом для программирования и для офисной работы.

OpenAI сравнительно быстро сообразила продвигать свой Codex как альтернативу Claude Code с лучшими лимитами использования. А вот как раз Google адекватно отреагировать не смогла: для кода у нее есть Gemini CLI, Jules, Antigravity и AI Studio – пользователь просто не понимает, какой выбрать. То же самое и про xAI – Grok Build все еще в разработке.

Но успех Claude Code оказался и проблемой для Anthropic: агентские сценарии тратят больше токенов, поэтому мощностей компании стало не хватать даже на обеспечение качественного сервиса для бизнес-пользователей и подписчиков Max. Компания уже подписала рекордные договоры о закупке строящихся мощностей, но GPU нужны здесь и сейчас – и тут подворачивается Colossus 1.

xAI/SpaceXAI в итоге может повторить путь Sony на рынке смартфонов, когда компания тянула линейку Xperia, но основной доход получала с продажи фото-матриц большинству производителей. Конечно, на Grok пока рано ставить крест – даже если не получится занять массовый рынок, то он может трансформироваться в “сервисный” ИИ, работающий в X, автомобилях Tesla и компьютерах SpaceX.

Но не исключено, что настоящий талант компании – именно в строительстве инфраструктуры для чужих ИИ. Причем не только на Земле: Anthropic уже проявила интерес к проекту SpaceXAI по строительству дата-центров в космосе.

Что делать, если тратятся даже удвоенные лимиты Claude Code? На “Бусти” у меня есть лонгрид, как правильно работать с контекстным окном этого агента: дробить задачи, вовремя выполнять compaction и не доводить ситуацию до context rot. Да и вообще – в подписке все больше полезного!

Самое время присоединиться.
🔥3927👍16😁4
Два мира

Конец рабочей недели – традиционное время для полезного Бусти-текста. В этот раз я делюсь опытом использования Claude Code и Codex на виртуальном сервере:

Разворачиваем Claude Code и Codex на VPS (виртуальном сервере)

Переездом с локального ПК на VPS я озаботился примерно две недели назад и за это время столкнулся с двумя совершенно разными мирами. С одной стороны – пришлось немного понастраивать Ubuntu по SSH через терминал. И это, конечно, необычный опыт: минимальный интерфейс, текстовые команды, куча ограничений.

С другой – как только ИИ-агент начинает полноценно работать на сервере, он превращается в эдакую прото-ОС. Хотим что-то настроить или добавить? Описываем текстом, что хотим сделать, получаем варианты реализации, одобряем – и агент отправляется делать.

Неудобно заливать файлы или хочется редактировать черновики текстов прямо на сервере? Окей, за несколько десятков минут Codex собирает веб-панель, доступный прямо через браузер: через нее можно загружать и скачивать файлы, выбирать тексты на сервере, вносить в них правки и комментарии – и возвращать обратно, чтобы ИИ по ним отработал. Сейчас занимаюсь развитием этой штуки – даже дизайн-систему для нее сделал с помощью Claude Design.

Как выбрать VPS для ИИ-агента, какие настройки стоит сделать, какой софт использовать для комфортной работы – читайте в лонгриде. Есть даже глава о том, как я наладил совместную работу GPT-5.5 и Opus 4.7.

Кстати, Бусти незаметно стукнуло два месяца. Сейчас в подписке уже 11 текстов для тех, кто хочет прокачаться в работе с ИИ: от советов по промптингу до работы с агентами.

Так что – самое время подписаться!
2🔥2613👍12😁5
Как не лишиться второго мозга?

В сети обсуждают новость, что Anthropic банит аккаунты из России. Моя подписка пока живет, как и подписки нескольких друзей, но отзывов об удалении действительно много. А сама проблема более широкая.

ИИ-продукты компаний США заблокированы в России разработчиками, которые следуют американским санкциям. Многие эти санкции научилось обходить, но проблема остается. Запреты на использование из неподдерживаемых регионов прописаны прямо в пользовательских соглашениях всех популярных нейросетей, так что если заблокируют – никакой юридической защиты у вас не будет.

Мое мнение – Anthropic вряд ли прицельно охотится за аккаунтами из России. Это подтверждается и жалобами в X и на Reddit: баны ловят и пользователи из легальных стран, причем все как один утверждают, что не делали ничего нарушающего соглашение (проверить, так ли это, конечно, невозможно).

Дело в том, что подписки дают бОльшие лимиты использования того же Opus, чем при покупке токенов по API. Логика за этим простая: на подписке мало кто выжигает лимиты полностью, поэтому, если “средний по больнице” расход составляет 40-50%, то и цену можно снижать соответствующим образом.

Но это ведет к простой схеме: брать подписку и делить ее на нескольких человек. Допустим, небольшая компания покупает 10 подписок Claude Max и делит их на 30 пользователей Claude Code, да еще и работающих удаленно. Для системы безопасности Anthropic это подозрительно сразу по двум пунктам: 1) покупка пачки подписок с одного банковского счета; 2) использование подписок со множества ip-адресов, зачастую из разных городов и даже стран.

И вот здесь попадание по касательной в российских пользователей. Подписки мы часто берем через посредников, которые пользуются ограниченным набором карт. А для доступа используем всем известные сервисы, зачастую на лету прыгая между айпишниками разных стран: с одного лучше работают одни ресурсы, со второго – другие.

У меня нет четкого рецепта, как обезопасить себя. Сам я оплачиваю Claude Max с аккаунта App Store, который пополняю подарочными картами – это отдельный платежный канал, который не выглядит как “одна и та же карточка”. Работать с Claude также стараюсь из одного и того же региона, хотя иногда и забываю. Пока не заблокировали, а если заблокируют, то Antrhopic вроде как возвращают деньги – перейду полностью на GPT-5.5 в ChatGPT/Codex, она сейчас ничуть не хуже.

Но важнее здесь другая проблема: страшно потерять даже не деньги, а “второй мозг” – привычный инструмент, на который ты переложил часть работы. У меня в Claude два десятка скиллов, заточенных на поиск и анализ информации, написание разных типов контента – плюс есть диалоги, которые я веду месяцами. Восстановить это с нуля в том же ChatGPT – задача минимум на пару вечеров.

Поэтому возьмите за правило делать бэкап важных задач из чат-ботов. Промпты можно хранить в документе (или попросите модель сверстать простенькую программу для хранения), скиллы скачивать, результаты работы – оформлять в Canvas или Artifacts и тоже скачивать. Главное – не забывать делать регулярно.

Глобально более живучей схемой мне кажется работа в ИИ-агентах. Каждый проект здесь – это папка на вашем компьютере или виртуальном сервере (VPS), в которой хранится все важное: от контекста до разных скриптов.

Например, у меня есть большой проект ассистента редактора, куда собраны редакционные политики, архивы текстов для канала и Бусти, таблицы с аналитикой. Проект я создавал и веду в Claude Code, но иногда передаю его в Codex – GPT-5.5 читает структуру и справочные файлы, после чего мигом подхватывает работу. У модели несколько иной стиль ответов, но проект она понимает полностью и в случае блокировки сможет заместить Claude буквально за десяток минут.

Кстати, про работу с ИИ-проектами я сейчас активно рассказываю в подписке на Бусти. Там есть лонгриды, как начать работать с агентами, как не жечь лишние лимиты и как развернуть агентов на VPS, если не хотите устанавливать на личную систему.

Самое время подписаться!
🔥2618👍9😁3