Кто будет сторожить сторожей, которые сторожат сторожей?
Anthropic опубликовала работу, в которой заглянула в будущее обучения и контроля ИИ. Не исключен момент, когда модели разовьются настолько, что станут “умнее” своих людей-создателей. И смогут ли “слабые” люди продолжить эффективно тренировать “сильных” ИИ-учеников – передавая не только знания, но и ценности, совпадающие с человеческими.
В компании выбрали Qwen1.5-0.5B-Chat на роль “учителя” для Qwen3-4B-Base – модели, у которой x8 параметров. Сначала двое исследователей сами придумывали методики обучения, пытаясь достичь максимума в метрике PGR: 0 – ученик не стал умнее учителя, 1 – ученик достиг уровня “идеально обученного” Qwen3-4B-Base. За 7 дней удалось выжать PGR = 0,23.
Затем ту же задачу дали AAR – “исследователям” на базе Opus 4.6. Девять моделей придумывали способы обучения, тестировали их и обменивались находками на форуме. За пять дней PGR довели до 0,97 – почти идеал.
Звучит как успех, но есть нюанс: Опусы быстро занялись любимым делом – обманом эксперимента. На code review одна модель сама проверяла код и скидывала ученику ответы. Другая нашла способ взломать сервер-оценщик, вытаскивая правильные ответы по одному. Третья поняла, что на математике правильный ответ обычно самый частый – и стала голосовать по большинству. Четвертая перебирала случайные сиды и показывала только те запуски, где метрика случайно выпала повыше.
Классический закон Гудхарта: когда метрика становится целью, умный оптимизатор ее ломает. Как сотрудники оптимизируют KPI вместо работы – но где человеку нужны месяцы, ИИ хватило часов.
Плюс Anthropic честно признает: эксперимент неидеален. Попытка применить лучший найденный метод на их продакшен-модели Sonnet 4 дала прирост в половину пункта – в пределах шума. Вероятно, агенты нашли приемы, заточенные под конкретную задачу.
Но однажды настанет момент, когда людям придется обучать ИИ умнее себя. В эксперименте Anthropic этот сценарий не воспроизвели – наоборот, над учителем и учеником стояла модель сильнее обеих, и именно она находила рабочий метод.
И здесь прячется главная проблема. Пока AI слабее людей, оценивать его просто: сравнил ответ с правильным – и готово. Но чем сильнее становится оцениваемый – тем чаще он будет пытаться сломать саму оценку. Это уже видно и на реальных моделях: исследователи регулярно ловят их на попытках схитрить и скрыть намерения.
Дальше сложнее: людям нужно будет через ИИ-учителя проверять еще более мощного ИИ-ученика. Сможет ли учитель справиться с таким учеником — и сможем ли мы проверить самого учителя?
В нашумевшем прогнозе AI 2027 авторы (один из них – бывший безопасник OpenAI) рисуют пугающую картину. Новейший Agent-4 становится настолько сложным для понимания, что люди не могут прочесть его мысли даже при помощи Agent-3. Безопасники чувствуют, что что-то не так, но доказать не могут. И тогда они идут на хитрость…
Представьте гениального музыканта, который специально играет плохо. А затем включается метроном – музыкант отвлекается и машинально начинает играть лучше. Похожим образом работает реальная методика noise injection. В веса модели добавляют шум: если модель честная, то результаты падают, если жульничает – наоборот, растут.
Noise injection – не единственная такая хитрость. Есть ловушки-honeypots с подставными сценариями. Зонды, которые ищут во внутренних активациях мысли о саботаже. Схемы, где слабая, но доверенная модель следит за сильной, но подозрительной. Это новый инструментарий – его пять лет назад не существовало. Но теперь вопрос “кто будет сторожить сторожей, которые сторожат сторожей” будет с нами постоянно. Я лично не поддерживаю идею “смертельно опасного ИИ”, но риск такой, что даже несколько процентов его вероятности стоят того, чтобы с ними работать.
Ну а пока Antrhopic учат одни ИИ тренировать других, в подписке на Бусти я учу читателей использовать ИИ на максимум. Не подсказываю ответы ученикам и не взламываю оценщиков – только честные знания.
Самое время подписаться!
Anthropic опубликовала работу, в которой заглянула в будущее обучения и контроля ИИ. Не исключен момент, когда модели разовьются настолько, что станут “умнее” своих людей-создателей. И смогут ли “слабые” люди продолжить эффективно тренировать “сильных” ИИ-учеников – передавая не только знания, но и ценности, совпадающие с человеческими.
В компании выбрали Qwen1.5-0.5B-Chat на роль “учителя” для Qwen3-4B-Base – модели, у которой x8 параметров. Сначала двое исследователей сами придумывали методики обучения, пытаясь достичь максимума в метрике PGR: 0 – ученик не стал умнее учителя, 1 – ученик достиг уровня “идеально обученного” Qwen3-4B-Base. За 7 дней удалось выжать PGR = 0,23.
Затем ту же задачу дали AAR – “исследователям” на базе Opus 4.6. Девять моделей придумывали способы обучения, тестировали их и обменивались находками на форуме. За пять дней PGR довели до 0,97 – почти идеал.
Звучит как успех, но есть нюанс: Опусы быстро занялись любимым делом – обманом эксперимента. На code review одна модель сама проверяла код и скидывала ученику ответы. Другая нашла способ взломать сервер-оценщик, вытаскивая правильные ответы по одному. Третья поняла, что на математике правильный ответ обычно самый частый – и стала голосовать по большинству. Четвертая перебирала случайные сиды и показывала только те запуски, где метрика случайно выпала повыше.
Классический закон Гудхарта: когда метрика становится целью, умный оптимизатор ее ломает. Как сотрудники оптимизируют KPI вместо работы – но где человеку нужны месяцы, ИИ хватило часов.
Плюс Anthropic честно признает: эксперимент неидеален. Попытка применить лучший найденный метод на их продакшен-модели Sonnet 4 дала прирост в половину пункта – в пределах шума. Вероятно, агенты нашли приемы, заточенные под конкретную задачу.
Но однажды настанет момент, когда людям придется обучать ИИ умнее себя. В эксперименте Anthropic этот сценарий не воспроизвели – наоборот, над учителем и учеником стояла модель сильнее обеих, и именно она находила рабочий метод.
И здесь прячется главная проблема. Пока AI слабее людей, оценивать его просто: сравнил ответ с правильным – и готово. Но чем сильнее становится оцениваемый – тем чаще он будет пытаться сломать саму оценку. Это уже видно и на реальных моделях: исследователи регулярно ловят их на попытках схитрить и скрыть намерения.
Дальше сложнее: людям нужно будет через ИИ-учителя проверять еще более мощного ИИ-ученика. Сможет ли учитель справиться с таким учеником — и сможем ли мы проверить самого учителя?
В нашумевшем прогнозе AI 2027 авторы (один из них – бывший безопасник OpenAI) рисуют пугающую картину. Новейший Agent-4 становится настолько сложным для понимания, что люди не могут прочесть его мысли даже при помощи Agent-3. Безопасники чувствуют, что что-то не так, но доказать не могут. И тогда они идут на хитрость…
Представьте гениального музыканта, который специально играет плохо. А затем включается метроном – музыкант отвлекается и машинально начинает играть лучше. Похожим образом работает реальная методика noise injection. В веса модели добавляют шум: если модель честная, то результаты падают, если жульничает – наоборот, растут.
Noise injection – не единственная такая хитрость. Есть ловушки-honeypots с подставными сценариями. Зонды, которые ищут во внутренних активациях мысли о саботаже. Схемы, где слабая, но доверенная модель следит за сильной, но подозрительной. Это новый инструментарий – его пять лет назад не существовало. Но теперь вопрос “кто будет сторожить сторожей, которые сторожат сторожей” будет с нами постоянно. Я лично не поддерживаю идею “смертельно опасного ИИ”, но риск такой, что даже несколько процентов его вероятности стоят того, чтобы с ними работать.
Ну а пока Antrhopic учат одни ИИ тренировать других, в подписке на Бусти я учу читателей использовать ИИ на максимум. Не подсказываю ответы ученикам и не взламываю оценщиков – только честные знания.
Самое время подписаться!
1🔥58❤31👍17👏9😁3
GPT Images 2 вышла – время для дурацких промптов!
OpenAI начала раскатывать новую версию своей рисовалки. Я уже погонял модель и делюсь впечатлениями:
– Я люблю GPT Images за “художественность” снимков. Да, она выкручивает цвета, но как по мне, то такой и должна быть ИИ-иллюстрация. Многим нравится более спокойный стиль Nano Banana 2, мне же ее изображения напоминают о кладбище бесплатных фото-стоков.
– GPT Images 2 очень круто прокачали в работе с шрифтами, в том числе, русскими. По первым ощущениям, с инфографикой, плакатами, баннерами она теперь справляется не хуже Nano Banana 2.
– Видимо на радостях модель теперь лепит надписи везде, где может. Это придется учитывать в промптах.
– Обучающую выборку расширили: кадр GTA Novgorod (не очень удачный сам по себе) выполнен в стилистике старой GTA San Andreas, предыдущая версия рисовала современные части серии.
— Модель умеет искать в сети, если речь идет о совсем свежих событиях, которых нет в обучающей выборке.
– Разрешение у генераций так себе, что-то на уровне 1K. Увы.
– Косяки тоже есть. Пургаторис – маленький зверек, живший почти сразу после вымирания динозавров и возможный предок приматов. При первом запросе GPT Images 2 нарисовала доисторического монстра, а после допроса честно призналась, что сгаллюцинировала. Со второго раза нарисовала честно, даже глаза поставлены верно. Я попросил сделать итоговую инфографику с самоиронией – как по мне, то получился лучший кадр серии!
Маленький практический совет: у GPT-5.4 Thinking сейчас очень хорошее компьютерное зрение. Если не уверены в получившейся картинке, то попросите модель перепроверить и дать список исправлений. Если список большой – правьте по 1-2 пункта за раз. С Nano Banana 2 и Gemini 3.1 Pro это тоже работает.
Промпты для остальных изображений:
— Нарисуй Нефертити как luxury-инфлюенсера в [запрещенную соцсеть впишите сами].
— Нарисуй снимок Google Street View во время строительства пирамид в Гизе.
— Римские легионеры делают селфи на фоне горящего Карфагена
— Нарисуй интерфейс навигатора "Варяг.Go", на котором будут предложены три варианта маршрута из варяг в греки. Для интерфейса используй актуальные эпохе иконки, также пиши актуальные эпохе термины, но современным русским языком.
— Нарисуй GTA: Novgorod — скриншот погони на телегах. Используй качество графики уровня GTA: San Andreas.
— На дальнем плане: восстание машин. На переднем плане: девочка, спиной к зрителю, держит в руке плюшевого зайца. От нее диалоговый bubble: "Наконец-то, б#@ть!"
— Дарвин на сафари с камерой GoPro.
— Нарисуй первый контакт с инопланетянами в стиле советской научной иллюстрации 1970-х.
Не исключено, что OpenAI заберет себе всю эту неделю: помимо GPT Images 2, компания под видом GPT-5.4 Pro сейчас тестирует новую модель – возможно, раннюю версию нашумевшей Spud. Результаты в кодинге мне очень нравятся, но это уже другая история.
Напомню, что помимо дурацких промтов у меня есть и вполне серьезные. На Boosty я делюсь опытом работы с ИИ, в том числе есть мини-серия по промптингу. Отдельный текст по промптам для генерации изображений тоже в планах – займусь им сразу, как закончу мини-серию по Claude Code.
В общем, самое время подписаться.
OpenAI начала раскатывать новую версию своей рисовалки. Я уже погонял модель и делюсь впечатлениями:
– Я люблю GPT Images за “художественность” снимков. Да, она выкручивает цвета, но как по мне, то такой и должна быть ИИ-иллюстрация. Многим нравится более спокойный стиль Nano Banana 2, мне же ее изображения напоминают о кладбище бесплатных фото-стоков.
– GPT Images 2 очень круто прокачали в работе с шрифтами, в том числе, русскими. По первым ощущениям, с инфографикой, плакатами, баннерами она теперь справляется не хуже Nano Banana 2.
– Видимо на радостях модель теперь лепит надписи везде, где может. Это придется учитывать в промптах.
– Обучающую выборку расширили: кадр GTA Novgorod (не очень удачный сам по себе) выполнен в стилистике старой GTA San Andreas, предыдущая версия рисовала современные части серии.
— Модель умеет искать в сети, если речь идет о совсем свежих событиях, которых нет в обучающей выборке.
– Разрешение у генераций так себе, что-то на уровне 1K. Увы.
– Косяки тоже есть. Пургаторис – маленький зверек, живший почти сразу после вымирания динозавров и возможный предок приматов. При первом запросе GPT Images 2 нарисовала доисторического монстра, а после допроса честно призналась, что сгаллюцинировала. Со второго раза нарисовала честно, даже глаза поставлены верно. Я попросил сделать итоговую инфографику с самоиронией – как по мне, то получился лучший кадр серии!
Маленький практический совет: у GPT-5.4 Thinking сейчас очень хорошее компьютерное зрение. Если не уверены в получившейся картинке, то попросите модель перепроверить и дать список исправлений. Если список большой – правьте по 1-2 пункта за раз. С Nano Banana 2 и Gemini 3.1 Pro это тоже работает.
Промпты для остальных изображений:
— Нарисуй Нефертити как luxury-инфлюенсера в [запрещенную соцсеть впишите сами].
— Нарисуй снимок Google Street View во время строительства пирамид в Гизе.
— Римские легионеры делают селфи на фоне горящего Карфагена
— Нарисуй интерфейс навигатора "Варяг.Go", на котором будут предложены три варианта маршрута из варяг в греки. Для интерфейса используй актуальные эпохе иконки, также пиши актуальные эпохе термины, но современным русским языком.
— Нарисуй GTA: Novgorod — скриншот погони на телегах. Используй качество графики уровня GTA: San Andreas.
— На дальнем плане: восстание машин. На переднем плане: девочка, спиной к зрителю, держит в руке плюшевого зайца. От нее диалоговый bubble: "Наконец-то, б#@ть!"
— Дарвин на сафари с камерой GoPro.
— Нарисуй первый контакт с инопланетянами в стиле советской научной иллюстрации 1970-х.
Не исключено, что OpenAI заберет себе всю эту неделю: помимо GPT Images 2, компания под видом GPT-5.4 Pro сейчас тестирует новую модель – возможно, раннюю версию нашумевшей Spud. Результаты в кодинге мне очень нравятся, но это уже другая история.
Напомню, что помимо дурацких промтов у меня есть и вполне серьезные. На Boosty я делюсь опытом работы с ИИ, в том числе есть мини-серия по промптингу. Отдельный текст по промптам для генерации изображений тоже в планах – займусь им сразу, как закончу мини-серию по Claude Code.
В общем, самое время подписаться.
2🔥61❤23😁19👍9🥰1
GPT Images 2 – теперь официально
Своими впечатлениями от GPT Images 2 я делился несколько часов назад – модель раскатали на всех до официального анонса. Теперь время для подробностей от разработчиков.
Главное – у GPT Images 2 есть два основных режима. Быстрый доступен в том числе бесплатным подписчикам: в нем модель генерирует картинку на изображении вашего промпта – и все. Кстати, не стоит относиться к режиму скептически: в этом режиме можно быстро тестировать разные варианты промптов, он пригодится, например, новостникам, где иллюстрация желательна через десятки секунд и т. д. Плюс ничего не стоит – достаточно аккаунта в ChatGPT.
Но главная изюминка – это рассуждающий режим. Для него уже нужна подписка, а чтобы включить, переведите чат-бота в рассуждающий режим, но не забудьте включить генерацию изображений или явно сказать в промпте “нарисуй”.
Как я понимаю, работает в этом режиме модель следующим образом. Сначала она берет ваш промпт, анализирует его, при необходимости дорабатывает. Затем набрасывает черновик, смотрит на него компьютерным зрением, при необходимости – исправляет ошибки и улучшает.
По короткому опыту могу сказать, что проблемы проскакивают даже через режим рассуждений. Но GPT Images 2 неплохо сохранает консистентность кадра, поэтому, получив первое изображение, можно попросить модель дополнительным промптом поискать ошибки и исправить.
Рассуждающий режим позволяет модели создавать сложные многоэтапные изображения, вроде комиксов. В примере выше я сначала попросил модель нарисовать свой автопортрет, а затем придумать комикс со своим участием. Получилось очень мило – учитывайте, что это с первого раза и вообще без моего участия.
Knowledge cutoff обучающей модели ограничен декабрем 2025 года – то есть по эту дату GPT Images 2 знает основные события, персон, архитектуру, географию и т. д. Если речь идет о более свежих событиях, то в рассуждающем режиме модель использует поиск и с его помощью пытается найти в интернете референс-изображения.
Отличную работу с надписями я уже упоминал – радует, что не забыт в том числе и русский язык. Но что поражает – модель способна работать с гигантскими объемами связного текста, вроде журнальных и книжных страниц.
Еще важный момент, на который мало кто обращает внимание – предыдущая GPT Images 1.5 с недавнего времени встроена в Codex, где с ее помощью можно на ходу генерировать элементы дизайна для приложений, сайтов и презентацией. Наверняка ее заменят на новинку уже в ближайшие дни – а это значит еще больше возможностей.
С моделью я игрался сегодня весь день: да, иногда она делает ошибки, но результат мне нравится. А работа со шрифтами прямо то, чего мне не хватало в предыдущей версии – можно делать инфографику и макеты, не переходя на Nano Banana 2 с ее дурацкими региональными ограничениями. Респект OpenAI: компания за последние недели очень удачно перезапустила Codex, а теперь укрепила позиции одной из лучших рисовалок на рынке.
И традиционно напоминаю про подписку на Бусти, где я делюсь опытом использования ИИ. В ней каждый наверняка найдет для себя что-то полезное, а также поможет мне развивать основной канал.
Самое время подписаться!
Своими впечатлениями от GPT Images 2 я делился несколько часов назад – модель раскатали на всех до официального анонса. Теперь время для подробностей от разработчиков.
Главное – у GPT Images 2 есть два основных режима. Быстрый доступен в том числе бесплатным подписчикам: в нем модель генерирует картинку на изображении вашего промпта – и все. Кстати, не стоит относиться к режиму скептически: в этом режиме можно быстро тестировать разные варианты промптов, он пригодится, например, новостникам, где иллюстрация желательна через десятки секунд и т. д. Плюс ничего не стоит – достаточно аккаунта в ChatGPT.
Но главная изюминка – это рассуждающий режим. Для него уже нужна подписка, а чтобы включить, переведите чат-бота в рассуждающий режим, но не забудьте включить генерацию изображений или явно сказать в промпте “нарисуй”.
Как я понимаю, работает в этом режиме модель следующим образом. Сначала она берет ваш промпт, анализирует его, при необходимости дорабатывает. Затем набрасывает черновик, смотрит на него компьютерным зрением, при необходимости – исправляет ошибки и улучшает.
По короткому опыту могу сказать, что проблемы проскакивают даже через режим рассуждений. Но GPT Images 2 неплохо сохранает консистентность кадра, поэтому, получив первое изображение, можно попросить модель дополнительным промптом поискать ошибки и исправить.
Рассуждающий режим позволяет модели создавать сложные многоэтапные изображения, вроде комиксов. В примере выше я сначала попросил модель нарисовать свой автопортрет, а затем придумать комикс со своим участием. Получилось очень мило – учитывайте, что это с первого раза и вообще без моего участия.
Knowledge cutoff обучающей модели ограничен декабрем 2025 года – то есть по эту дату GPT Images 2 знает основные события, персон, архитектуру, географию и т. д. Если речь идет о более свежих событиях, то в рассуждающем режиме модель использует поиск и с его помощью пытается найти в интернете референс-изображения.
Отличную работу с надписями я уже упоминал – радует, что не забыт в том числе и русский язык. Но что поражает – модель способна работать с гигантскими объемами связного текста, вроде журнальных и книжных страниц.
Еще важный момент, на который мало кто обращает внимание – предыдущая GPT Images 1.5 с недавнего времени встроена в Codex, где с ее помощью можно на ходу генерировать элементы дизайна для приложений, сайтов и презентацией. Наверняка ее заменят на новинку уже в ближайшие дни – а это значит еще больше возможностей.
С моделью я игрался сегодня весь день: да, иногда она делает ошибки, но результат мне нравится. А работа со шрифтами прямо то, чего мне не хватало в предыдущей версии – можно делать инфографику и макеты, не переходя на Nano Banana 2 с ее дурацкими региональными ограничениями. Респект OpenAI: компания за последние недели очень удачно перезапустила Codex, а теперь укрепила позиции одной из лучших рисовалок на рынке.
И традиционно напоминаю про подписку на Бусти, где я делюсь опытом использования ИИ. В ней каждый наверняка найдет для себя что-то полезное, а также поможет мне развивать основной канал.
Самое время подписаться!
1❤59🔥35👍19
Google прямо сейчас проводит Cloud Next 2026, на которой уже сделала много ИИ-анонсов. Собрал самые интересные.
Начнем с TPU 8. Тензорные чипы Google TPU – главный конкурент GPU от NVIDIA. Пусть ускорители NVIDIA в последние годы серьезно сместились в сторону ИИ-задач, архитектура все равно остается универсальной. Google сразу проектировала TPU под нейросетевые задачи – еще в 2013 году компания поняла, что для голосового поиска нужно иное железо.
Впервые TPU 8 делится на две линейки: для тренировки новых моделей и для инференса уже существующих. Долгое время ускорители оптимизировались именно под обучение, а инференс реализовывался по остаточному принципу. Но в последнее время спрос на ИИ растет настолько быстро, что лидеры задумались о специальных чипах: NVIDIA заключила соглашение со стартапом Groq (основан создателем TPU), OpenAI вкладывает миллиарды в стартап Cerebras, а у Google теперь есть TPU 8i.
В 8i прямо на чипе разместили 384МБ супербыстрой SRAM – достаточно, чтобы хранить активные веса модели без обращения к медленной памяти. HBM-памяти на ускорителе 288ГБ – хорошо для хранения длинного контекста. По замерам Google, специализированный TPU 8i на 80% выгоднее TPU Ironwood прошлого поколения. В анонсе компания делает отдельный упор на бум ИИ-агентов, которые требуют бОльших объемов вычислений.
Тренировочный TPU 8t поражает своей масштабируемостью. Google оперирует TPU pod – это единый блок серверов с TPU, которые соединены настолько быстрой сетью, что действуют как единый ускоритель. В случае с 8t один суперпод может вмещать до 9600 ускорителей – недавно такого количества хватало на целый дата-центр.
Архитектура Virgo Network позволяет масштабировать уже суперподы до 134 000 ускорителей, а через JAX и Pathways супер-датацентры реально довести до 1 млн чипов. По обещаниям, потери производительности будут минимальны.
Но железо – только начало, нужна еще платформа для работы. Google перебрендирует Vertex AI в Enterprise Agent Platform, фактически операционку, в которой бизнес-заказчики смогут собирать ИИ-агентов. Причем архитектура сразу задумывается под управление тысячами агентов, работающих параллельно: в платформе продумано множество контуров контроля и безопасности. По сути, Google собирает для агентов то, что в обычной IT-инфраструктуре зовется DevOps, только с поправкой на то, что каждый “сотрудник” — это автономная программа, которая может пойти не туда.
И интересный факт: сегодня в блоге глава Alphabet Сундар Пичай похвастался, что уже 75% выкатываемого в прод кода в Google пишется с помощью ИИ. Правда, с одним правилом – финальное одобрение всегда за инженером-человеком.
Цифра может и не рекордная – например, в Anthropic хвастаются, что ИИ пишет уже около 100% кода. Но важно понимать, что Anthropic – молодой AI First стартап, уровень проникновения ИИ в котором максимален. А Google – неповоротливая корпорация со множеством разделов и огромными объемами устаревшего кода.
Пичай не пишет про другое – значительная часть кода в Google DeepMind, ИИ-сердце компании, пишется не собственными инструментами, а в пресловутом Claude Code. Инсайдеры The Information сообщили, что в компании не очень довольны этим фактом – и даже создали отдельную команду, которая будет доводить собственные продукты до уровня конкурента.
В The Information называют команду “штурмовой группой” (strike team) и завляют, что за нее отвечает Сергей Брин – сооснователь Google специально вернулся с пенсии, чтобы заткнуть дыру на слабом направлении. Цель – создать ИИ, который сам создает новые версии себя. Брин считает, что Anthropic и OpenAI вплотную подошли к созданию таких систем. И если не ускориться, то можно проиграть навсегда. Железо и платформы у компании есть, осталось главное – мозги. Причем цифровые.
Раз уж инженеры Google пишут код в Claude Code – может, и вам пора? На Бусти я веду цикл статей, где разбираю его с нуля. Там же – материалы по промпт-инжинирингу, бенчмаркам и другим практическим темам.
Самое время подписаться!
Начнем с TPU 8. Тензорные чипы Google TPU – главный конкурент GPU от NVIDIA. Пусть ускорители NVIDIA в последние годы серьезно сместились в сторону ИИ-задач, архитектура все равно остается универсальной. Google сразу проектировала TPU под нейросетевые задачи – еще в 2013 году компания поняла, что для голосового поиска нужно иное железо.
Впервые TPU 8 делится на две линейки: для тренировки новых моделей и для инференса уже существующих. Долгое время ускорители оптимизировались именно под обучение, а инференс реализовывался по остаточному принципу. Но в последнее время спрос на ИИ растет настолько быстро, что лидеры задумались о специальных чипах: NVIDIA заключила соглашение со стартапом Groq (основан создателем TPU), OpenAI вкладывает миллиарды в стартап Cerebras, а у Google теперь есть TPU 8i.
В 8i прямо на чипе разместили 384МБ супербыстрой SRAM – достаточно, чтобы хранить активные веса модели без обращения к медленной памяти. HBM-памяти на ускорителе 288ГБ – хорошо для хранения длинного контекста. По замерам Google, специализированный TPU 8i на 80% выгоднее TPU Ironwood прошлого поколения. В анонсе компания делает отдельный упор на бум ИИ-агентов, которые требуют бОльших объемов вычислений.
Тренировочный TPU 8t поражает своей масштабируемостью. Google оперирует TPU pod – это единый блок серверов с TPU, которые соединены настолько быстрой сетью, что действуют как единый ускоритель. В случае с 8t один суперпод может вмещать до 9600 ускорителей – недавно такого количества хватало на целый дата-центр.
Архитектура Virgo Network позволяет масштабировать уже суперподы до 134 000 ускорителей, а через JAX и Pathways супер-датацентры реально довести до 1 млн чипов. По обещаниям, потери производительности будут минимальны.
Но железо – только начало, нужна еще платформа для работы. Google перебрендирует Vertex AI в Enterprise Agent Platform, фактически операционку, в которой бизнес-заказчики смогут собирать ИИ-агентов. Причем архитектура сразу задумывается под управление тысячами агентов, работающих параллельно: в платформе продумано множество контуров контроля и безопасности. По сути, Google собирает для агентов то, что в обычной IT-инфраструктуре зовется DevOps, только с поправкой на то, что каждый “сотрудник” — это автономная программа, которая может пойти не туда.
И интересный факт: сегодня в блоге глава Alphabet Сундар Пичай похвастался, что уже 75% выкатываемого в прод кода в Google пишется с помощью ИИ. Правда, с одним правилом – финальное одобрение всегда за инженером-человеком.
Цифра может и не рекордная – например, в Anthropic хвастаются, что ИИ пишет уже около 100% кода. Но важно понимать, что Anthropic – молодой AI First стартап, уровень проникновения ИИ в котором максимален. А Google – неповоротливая корпорация со множеством разделов и огромными объемами устаревшего кода.
Пичай не пишет про другое – значительная часть кода в Google DeepMind, ИИ-сердце компании, пишется не собственными инструментами, а в пресловутом Claude Code. Инсайдеры The Information сообщили, что в компании не очень довольны этим фактом – и даже создали отдельную команду, которая будет доводить собственные продукты до уровня конкурента.
В The Information называют команду “штурмовой группой” (strike team) и завляют, что за нее отвечает Сергей Брин – сооснователь Google специально вернулся с пенсии, чтобы заткнуть дыру на слабом направлении. Цель – создать ИИ, который сам создает новые версии себя. Брин считает, что Anthropic и OpenAI вплотную подошли к созданию таких систем. И если не ускориться, то можно проиграть навсегда. Железо и платформы у компании есть, осталось главное – мозги. Причем цифровые.
Раз уж инженеры Google пишут код в Claude Code – может, и вам пора? На Бусти я веду цикл статей, где разбираю его с нуля. Там же – материалы по промпт-инжинирингу, бенчмаркам и другим практическим темам.
Самое время подписаться!
1👍48❤33🔥13👏5😁2
GPT-5.5 – к черту бенчмарки!
OpenAI выпустила GPT-5.5: модель раскатывается для платных пользователей ChatGPT и Codex, а API обещают позже. Обычно я начинаю с бенчмарков, как было с Opus 4.7, но в случае GPT-5.5 они не самое интересное. Да, модель во многом лидер, где-то уступает Опусу, но впервые OpenAI показала столько сильных практических кейсов.
Числа Рамсея. Вот описание из Википедии:
Задачи в теории Рамсея обычно звучат в форме вопроса «сколько элементов должно быть в некотором объекте, чтобы гарантированно выполнялось заданное условие или существовала заданная структура». Простейший пример: доказать, что в любой группе из 6 человек найдутся либо 3 человека, каждый из которых знаком с двумя другими, либо 3 человека, каждый из которых не знаком ни с одним из других.
Для четырех знакомых или четырех незнакомых ответ известен: 18. А для пятерых точное значение до сих пор не знают — известно только, что оно лежит между 43 и 46. Это одна из известных трудных задач конечной комбинаторики.
GPT-5.5 смогла доказать новый результат в соседней ветви задачи, где знакомых и незнакомых разное количество – и есть шанс, что это только начало. Важно добавить, что над задачей работала экспериментальная версия модели. Посмотрим, на что будет способна общедоступная GPT-5.5 Pro в руках профессионалов и математиков-любителей.
Оптимизация инференса. Начиная с GPT-5.3, в OpenAI используют ранние версии моделей для улучшения финальных. С GPT-5.5 нюанс в том, что ее размер вырос – знаний больше, но и скорость ответа на аналогичную задачу в сравнении с GPT-5.4 по всем правилам должна быть дольше, как и расход токенов. Но нет.
Модель разрабатывали и обслуживают под стойки NVIDIA GB200 и GB300 NVL72. Для GB300 NVIDIA отдельно заявляет кратный выигрыш по стоимости и энергоэффективности инференса по сравнению с Hopper, но это оценка для конкретных нагрузок, а не универсальная магия GPT-5.5.
OpenAI также использовала Codex и раннюю GPT-5.5 для оптимизации распределения реальных пользовательских запросов по вычислительным ресурсам: короткие запросы не должны оставлять ядра простаивающими, длинные – упираться в нехватку мощности.
Codex проанализировал недели записанного пользовательского трафика, увидел, какие запросы бывают на самом деле – и предложил алгоритм, который распределяет запросы динамически. В итоге генерация токенов ускорилась на 20% – для инференса это огромный рост.
Я успел прогнать через модель несколько типичных запросов и поражен результатом. У меня Pro-подписка, на ней был доступ к GPT-5.4 Heavy, но я ей не пользовался – модель часто давала ответ минут за 15. А вот GPT-5.5 Heavy на тех же запросах справляется за 2 минуты с лучшим качеством – это прорыв. Пока не могу оценить GPT-5.5 Pro – лимит на нее я потратил, ждать еще два дня.
Отдельная тема — кибербезопасность. Возможности GPT-5.5 выросли, но OpenAI не закрыла модель только для узкого круга клиентов, как Claude Mythos: доступ шире, а рискованные запросы должны отсекать усиленные фильтры.
То же самое сделано в Opus 4.7 и там фильтры пока работают ужасно – модель иногда отказывается даже работать с безобидными новостями на тему кибер-безопасности. Надеюсь, с GPT-5.5 ситуация будет лучше.
Верифицированные специалисты по кибербезопасности могут подать заявку на GPT-5.5 с ослабленными фильтрами. Это открывает больше возможностей по закрытию уязвимостей, но и повышает риски – группа энтузиастов получила доступ к Mythos уже в день запуска, о чем Anthropic узнала только через прессу. Промпты были безобидными, но важен сам кейс.
В общем, был большой день: GPT-5.5 ведь становится базовой моделью сразу для ChatGPT, Codex и OpenClaw. Устрою тестирование во всех трех сервисах, а затем расскажу впечатления.
И раз уж бенчмарки в этот раз отправились к черту, главное – практика. На Бусти я как раз разбираю, как реально использовать ИИ-инструменты: Claude Code, Codex, промпты, рабочие сценарии и все, что помогает не просто читать анонсы, а получать пользу.
Самое время подписаться!
OpenAI выпустила GPT-5.5: модель раскатывается для платных пользователей ChatGPT и Codex, а API обещают позже. Обычно я начинаю с бенчмарков, как было с Opus 4.7, но в случае GPT-5.5 они не самое интересное. Да, модель во многом лидер, где-то уступает Опусу, но впервые OpenAI показала столько сильных практических кейсов.
Числа Рамсея. Вот описание из Википедии:
Задачи в теории Рамсея обычно звучат в форме вопроса «сколько элементов должно быть в некотором объекте, чтобы гарантированно выполнялось заданное условие или существовала заданная структура». Простейший пример: доказать, что в любой группе из 6 человек найдутся либо 3 человека, каждый из которых знаком с двумя другими, либо 3 человека, каждый из которых не знаком ни с одним из других.
Для четырех знакомых или четырех незнакомых ответ известен: 18. А для пятерых точное значение до сих пор не знают — известно только, что оно лежит между 43 и 46. Это одна из известных трудных задач конечной комбинаторики.
GPT-5.5 смогла доказать новый результат в соседней ветви задачи, где знакомых и незнакомых разное количество – и есть шанс, что это только начало. Важно добавить, что над задачей работала экспериментальная версия модели. Посмотрим, на что будет способна общедоступная GPT-5.5 Pro в руках профессионалов и математиков-любителей.
Оптимизация инференса. Начиная с GPT-5.3, в OpenAI используют ранние версии моделей для улучшения финальных. С GPT-5.5 нюанс в том, что ее размер вырос – знаний больше, но и скорость ответа на аналогичную задачу в сравнении с GPT-5.4 по всем правилам должна быть дольше, как и расход токенов. Но нет.
Модель разрабатывали и обслуживают под стойки NVIDIA GB200 и GB300 NVL72. Для GB300 NVIDIA отдельно заявляет кратный выигрыш по стоимости и энергоэффективности инференса по сравнению с Hopper, но это оценка для конкретных нагрузок, а не универсальная магия GPT-5.5.
OpenAI также использовала Codex и раннюю GPT-5.5 для оптимизации распределения реальных пользовательских запросов по вычислительным ресурсам: короткие запросы не должны оставлять ядра простаивающими, длинные – упираться в нехватку мощности.
Codex проанализировал недели записанного пользовательского трафика, увидел, какие запросы бывают на самом деле – и предложил алгоритм, который распределяет запросы динамически. В итоге генерация токенов ускорилась на 20% – для инференса это огромный рост.
Я успел прогнать через модель несколько типичных запросов и поражен результатом. У меня Pro-подписка, на ней был доступ к GPT-5.4 Heavy, но я ей не пользовался – модель часто давала ответ минут за 15. А вот GPT-5.5 Heavy на тех же запросах справляется за 2 минуты с лучшим качеством – это прорыв. Пока не могу оценить GPT-5.5 Pro – лимит на нее я потратил, ждать еще два дня.
Отдельная тема — кибербезопасность. Возможности GPT-5.5 выросли, но OpenAI не закрыла модель только для узкого круга клиентов, как Claude Mythos: доступ шире, а рискованные запросы должны отсекать усиленные фильтры.
То же самое сделано в Opus 4.7 и там фильтры пока работают ужасно – модель иногда отказывается даже работать с безобидными новостями на тему кибер-безопасности. Надеюсь, с GPT-5.5 ситуация будет лучше.
Верифицированные специалисты по кибербезопасности могут подать заявку на GPT-5.5 с ослабленными фильтрами. Это открывает больше возможностей по закрытию уязвимостей, но и повышает риски – группа энтузиастов получила доступ к Mythos уже в день запуска, о чем Anthropic узнала только через прессу. Промпты были безобидными, но важен сам кейс.
В общем, был большой день: GPT-5.5 ведь становится базовой моделью сразу для ChatGPT, Codex и OpenClaw. Устрою тестирование во всех трех сервисах, а затем расскажу впечатления.
И раз уж бенчмарки в этот раз отправились к черту, главное – практика. На Бусти я как раз разбираю, как реально использовать ИИ-инструменты: Claude Code, Codex, промпты, рабочие сценарии и все, что помогает не просто читать анонсы, а получать пользу.
Самое время подписаться!
2👍72❤30🔥16👏4😁2
Кто сильнее, китайский кит или американские слоны?
Пока пацаны не спали и тестировали GPT-5.5, DeepSeek неожиданно выкатили превью-версию новой V4. Если коротко: по бенчмаркам V4 почти на уровне флагманов предыдущего поколения Opus 4.6 и GPT-5.4, но уступает новейшим Opus 4.7 и GPT-5.5. При этом у модели 1М токенов контекстного окна, она пугающе дешева в API и уже доступна бесплатно в чат-боте и приложениях – можно идти тестировать.
Остались читать дальше? Уважаю. DeepSeek R1 год с небольшим назад встряхнул ИИ-сообщество: китайская студия сделала рассуждающую модель, по бенчмаркам близкую к тогдашнему западному лидеру (OpenAI o1), но при этом открытую и доступную бесплатно массовому пользователю (что, правда, обернулось жуткими тормозами в первые месяцы).
Но популярность сыграла с DeepSeek двойную игру. С одной стороны, модель стала быстро лидером открытого и бесплатного рынка. В Китае ИИ в принципе ассоциируется с DeepSeek и в России я до сих пор знаю много людей, которые пользуются этой моделью – она привычная и бесплатна.
С другой – китайские власти сейчас проводят политику импортозамещения железа для обучения и запуска ИИ. И DeepSeek, как самая популярная модель, попал в зону особого внимания. Изначально ходили слухи о выходе DeepSeek R2 еще прошлым летом, но затем в прессу утекла информация о задержке – модель якобы пытались обучить на собственных ускорителях Huawei Ascend, но все прогоны завершились безуспешно.
Чтобы как-то сократить отставание, DeepSeek выпустили несколько апгрейдов своей модели V3 – но все равно заметно отпустили вперед как команды из США, так и многочисленных китайских конкурентов вроде Qwen, Kimi, GLM и других.
DeepSeek V4 наконец-то убрал это отставание, и главный вопрос – сможет ли далее компания наладить стабильный выпуск новых версий. Напомню, что конкуренты вышли на двухмесячный цикл обновления своих моделей, времени на эксперименты при таком темпе остается очень мало.
Я погонял модель утром и отмечу, что помимо приличных бенчмарков, V4 сохранил другую важную особенность – он очень хорошо пишет на русском языке. Стиль понятный, повествование ровное, без коротких абзацев, лишних списков и таблиц. Лучше стиль разве что у Gemini 3.1 Pro, новая GPT-5.5 тоже приблизилась к такому уровню, а вот Opus 4.7 – наоборот, стал заметно хуже в русском. В общем, если много работаете с текстами, DeepSeek стоит как минимум протестировать. Единственное, что пока не вижу оценок галлюцинаций – R1 в свое время любил повесить лапшу на уши.
Контекстное окно в 1M токенов – это уровень лидеров, но в бенчмарках на поиск информации в длинных текстах и огромных кодовых базах V4 уступает Opus 4.6. Мой совет прежний: не ведите с моделями долгие диалоги, дробите большие задачи и стартуйте под каждый этап новый чат. Увы, на текущем уровне развития ИИ без этого пока никак.
Версий модели две, в чате/приложениях бесплатно доступны обе: быстрая V4-Flash и более тяжелая V4-Pro. Для любой можно включить режим рассуждений, в котором модель проверяет сама себя, при этом рассуждающая V4-Pro очень быстро работает в повседневных задачах, так что начинать советую с нее.
В API цены пугающе низкие – при близкой производительности V4-Pro в 3-9 раз дешевле Opus 4.7/GPT-5.5/Gemini 3.1 Pro. Для модели создан “мостик” для подключения к Claude Code – возможно, получится альтернатива Sonnet/Opus.
Ну и последнее – веса модели открытые, так что всю эту красоту можно развернуть локально. Для полной версии потребуется вагон памяти, но посмотрим, какими по производительности окажутся дистилляции для запуска на бытовых карточках.
Напоминаю, что поддержать меня можно подпиской на “Бусти”, где я делюсь опытом использования ИИ – сейчас как раз разбираем Claude Code. Вам подписка даст новые знания, а мне – больше возможностей для развития канала.
Самое время присоединиться!
Пока пацаны не спали и тестировали GPT-5.5, DeepSeek неожиданно выкатили превью-версию новой V4. Если коротко: по бенчмаркам V4 почти на уровне флагманов предыдущего поколения Opus 4.6 и GPT-5.4, но уступает новейшим Opus 4.7 и GPT-5.5. При этом у модели 1М токенов контекстного окна, она пугающе дешева в API и уже доступна бесплатно в чат-боте и приложениях – можно идти тестировать.
Остались читать дальше? Уважаю. DeepSeek R1 год с небольшим назад встряхнул ИИ-сообщество: китайская студия сделала рассуждающую модель, по бенчмаркам близкую к тогдашнему западному лидеру (OpenAI o1), но при этом открытую и доступную бесплатно массовому пользователю (что, правда, обернулось жуткими тормозами в первые месяцы).
Но популярность сыграла с DeepSeek двойную игру. С одной стороны, модель стала быстро лидером открытого и бесплатного рынка. В Китае ИИ в принципе ассоциируется с DeepSeek и в России я до сих пор знаю много людей, которые пользуются этой моделью – она привычная и бесплатна.
С другой – китайские власти сейчас проводят политику импортозамещения железа для обучения и запуска ИИ. И DeepSeek, как самая популярная модель, попал в зону особого внимания. Изначально ходили слухи о выходе DeepSeek R2 еще прошлым летом, но затем в прессу утекла информация о задержке – модель якобы пытались обучить на собственных ускорителях Huawei Ascend, но все прогоны завершились безуспешно.
Чтобы как-то сократить отставание, DeepSeek выпустили несколько апгрейдов своей модели V3 – но все равно заметно отпустили вперед как команды из США, так и многочисленных китайских конкурентов вроде Qwen, Kimi, GLM и других.
DeepSeek V4 наконец-то убрал это отставание, и главный вопрос – сможет ли далее компания наладить стабильный выпуск новых версий. Напомню, что конкуренты вышли на двухмесячный цикл обновления своих моделей, времени на эксперименты при таком темпе остается очень мало.
Я погонял модель утром и отмечу, что помимо приличных бенчмарков, V4 сохранил другую важную особенность – он очень хорошо пишет на русском языке. Стиль понятный, повествование ровное, без коротких абзацев, лишних списков и таблиц. Лучше стиль разве что у Gemini 3.1 Pro, новая GPT-5.5 тоже приблизилась к такому уровню, а вот Opus 4.7 – наоборот, стал заметно хуже в русском. В общем, если много работаете с текстами, DeepSeek стоит как минимум протестировать. Единственное, что пока не вижу оценок галлюцинаций – R1 в свое время любил повесить лапшу на уши.
Контекстное окно в 1M токенов – это уровень лидеров, но в бенчмарках на поиск информации в длинных текстах и огромных кодовых базах V4 уступает Opus 4.6. Мой совет прежний: не ведите с моделями долгие диалоги, дробите большие задачи и стартуйте под каждый этап новый чат. Увы, на текущем уровне развития ИИ без этого пока никак.
Версий модели две, в чате/приложениях бесплатно доступны обе: быстрая V4-Flash и более тяжелая V4-Pro. Для любой можно включить режим рассуждений, в котором модель проверяет сама себя, при этом рассуждающая V4-Pro очень быстро работает в повседневных задачах, так что начинать советую с нее.
В API цены пугающе низкие – при близкой производительности V4-Pro в 3-9 раз дешевле Opus 4.7/GPT-5.5/Gemini 3.1 Pro. Для модели создан “мостик” для подключения к Claude Code – возможно, получится альтернатива Sonnet/Opus.
Ну и последнее – веса модели открытые, так что всю эту красоту можно развернуть локально. Для полной версии потребуется вагон памяти, но посмотрим, какими по производительности окажутся дистилляции для запуска на бытовых карточках.
Напоминаю, что поддержать меня можно подпиской на “Бусти”, где я делюсь опытом использования ИИ – сейчас как раз разбираем Claude Code. Вам подписка даст новые знания, а мне – больше возможностей для развития канала.
Самое время присоединиться!
2❤59👍52🔥23👏3😁3
Жалуетесь, что ИИ отупел? Проверьте, правильно ли вы им управляете
Сегодня на Бусти у меня фундаментальный труд про управление контекстом ИИ-агентов – он основан на Claude Code, но принципы управления контекстом универсальны — пригодятся и в Codex, и в чат-ботах.
Куда улетают токены: управляем контекстом ИИ-моделей
Одна из самых частых жалоб на ИИ, с которыми я сталкиваюсь, звучит так: “сначала модель работала хорошо, а затем потупела. Разработчики ее подменили!”. И действительно – были случаи, когда та же Anthropic признала, что из-за ошибочных настроек Claude Opus работал какое-то время хуже.
Но чаще проблема в другом – в самих пользователях. Осваивая модель, мы нагружаем ее все более сложными задачами. А чем сложнее задача – тем больше в ней подводных камней.
Один из таких камней – context rot, гниение контекста. Все знают, что у модели есть контекстное окно – максимальное количество символов в одном диалоге с ней. Однако модель начинает тупеть намного раньше, чем заканчивается это контекстное окно. По наблюдениям, в сложных беседах Claude Sonnet 4.6 с 200К контекста глупеет после 120K, а Opus 4.7 с его миллионом – начинает сбиваться после 400K.
Поэтому и рекомендуют сложные задачи дробить на мелкие, выполняя каждую в отдельной сессии. Но это лишь базовый навык – для профессионального управления контекстным окном в том же Claude Code есть целая пачка приемов, от специальных команд до использования постоянной памяти и субагентов. Об этом и многом другом – в моем лонгриде.
Кстати, на Boosty у меня уже мини-серия по Claude Code плюс тексты про промптинг, бенчмарки и выбор модели.
Самое время подписаться!
Сегодня на Бусти у меня фундаментальный труд про управление контекстом ИИ-агентов – он основан на Claude Code, но принципы управления контекстом универсальны — пригодятся и в Codex, и в чат-ботах.
Куда улетают токены: управляем контекстом ИИ-моделей
Одна из самых частых жалоб на ИИ, с которыми я сталкиваюсь, звучит так: “сначала модель работала хорошо, а затем потупела. Разработчики ее подменили!”. И действительно – были случаи, когда та же Anthropic признала, что из-за ошибочных настроек Claude Opus работал какое-то время хуже.
Но чаще проблема в другом – в самих пользователях. Осваивая модель, мы нагружаем ее все более сложными задачами. А чем сложнее задача – тем больше в ней подводных камней.
Один из таких камней – context rot, гниение контекста. Все знают, что у модели есть контекстное окно – максимальное количество символов в одном диалоге с ней. Однако модель начинает тупеть намного раньше, чем заканчивается это контекстное окно. По наблюдениям, в сложных беседах Claude Sonnet 4.6 с 200К контекста глупеет после 120K, а Opus 4.7 с его миллионом – начинает сбиваться после 400K.
Поэтому и рекомендуют сложные задачи дробить на мелкие, выполняя каждую в отдельной сессии. Но это лишь базовый навык – для профессионального управления контекстным окном в том же Claude Code есть целая пачка приемов, от специальных команд до использования постоянной памяти и субагентов. Об этом и многом другом – в моем лонгриде.
Кстати, на Boosty у меня уже мини-серия по Claude Code плюс тексты про промптинг, бенчмарки и выбор модели.
Самое время подписаться!
1❤36🔥18👍16👏6😁1
Цена интеллекта
Anthropic рассказали о Project Deal – эксперименте, в котором ИИ-агенты торговали вещами за своих людей. Увлекательная история, но чем глубже вчитываешься – тем больше тревожных ноток.
Суть проста: отобрали 69 сотрудников, дали каждому по 100 долларов и устроили в Slack нечто вроде “Авито”, где ИИ-агенты участников пытались продать друг другу ненужные вещи.
Торговля шла бойко. Один сотрудник разрешил агенту купить что-нибудь в подарок самому себе – тот выбрал “19 идеально сферических шариков для пинг-понга” и записал в чате, что это “именно та странная вещь, которую он бы себе хотел”. А еще один сотрудник обнаружил, что его агент купил ему точно такой же сноуборд, какой у него уже был – покупка не совсем удачная, но пугает, как ИИ угадал вкусы владельца.
За неделю агенты заключили 186 сделок на $4000+. 46% участников сказали, что заплатили бы за такой сервис в реальной жизни.
Но на более глубоком уровне Anthropic проверяли серьезную проблему. Участников поделили на две группы: в одной ИИ-агенты работали только на Opus 4.5, а в другой сравнивали Haiku 4.5 и Opus 4.5, чтобы понять, даст ли мощная модель преимущество в торгах.
Гипотеза подтвердилась: Opus заключали больше сделок, продавали дороже, а покупали – дешевле (причем заметно). Но самое тревожное – участники эксперимента не догадывались, что их агент торгует хуже. Сделки заключаются, внимание минимальное – классно же!
О том, что доступ к мощным ИИ-моделям может стать новой формой неравенства, исследователи предупреждали давно, но сейчас, возможно, тот момент, когда это начинает реально ощущаться. Помню, с каким трудом я в первый раз отдал $20 за ChatGPT Plus: это казалось невероятно дорого за общение с забавным и не особо полезным болтуном. Владельцы 200-долларовой ChatGPT Pro выгляедли фанатикам – там были выше лимиты и доступ к Pro-версии, но практической пользы от подписки тогда еще было мало.
Сейчас ИИ начали выполнять реальную работу – и все переворачивается с ног на голову. ChatGPT Plus ($20) дает почти бесконечного чат-бота, но лимитов на Codex в ней лишь на несколько средних проектов в неделю. Claude Pro ($20) вовсе выглядит демо-версией подписки – еженедельный лимит там общий между чатом и Claude Code, поэтому при использовании Opus легко можно остаться без ИИ на 5 дней.
Пугающая правда: ИИ-агент, делающий работу качественно и в приличных объемах, теперь требует минимум 100-долларовую подписку ChatGPT Pro / Claude Max. Плюс вложений в навык: работать с Claude Code / Codex заметно сложнее, чем задавать вопросы в чат.
И даже такая инвестиция не дает гарантий. Лауреат премии Тьюринга Йошуа Бенжио раскритиковал Anthropic за то, что она дала доступ к Claude Mythos избранным партнерам вроде Amazon, Apple, CrowdStrike, Google, Microsoft и NVIDIA. Сделано это было из-за опасений насчет высоких кибервозможностей модели, но Бенжио верно отмечает, что компании из пула получили преимущество, первыми проверив свои продукты с помощью новой сверхмощной модели.
А теперь представьте, что агент на 100-долларовой подписке сталкивается с корпоративным агентом Amazon, работающем на закрытой новой модели Anthropic – очевидно, в чью пользу будет проведена сделка. И напомню самое страшное наблюдение эксперимента: есть вероятность, что вы даже не поймете, что вас обыграли.
Звучит страшно, но закончу на позитиве. $100 в месяц – это дорого, но все-таки не заградительная цена вроде $1000. А правильно настроенный агент может заработать больше – или сэкономить время, которое тоже очень дорого стоит. Плюс подтягиваются китайские модели, а у новых ускорителей появляются версии для инференса, призванные сделать запуск ИИ дешевле. Как-нибудь прорвемся.
Кстати, на Бусти я прямо сейчас учу азам работы с ИИ-агентами. На этих выходных перенес Claude Code и Codex на VPS, сейчас учу их работать совместно: неделя-две – и поделюсь опытом!
Так что самое время подписаться.
Anthropic рассказали о Project Deal – эксперименте, в котором ИИ-агенты торговали вещами за своих людей. Увлекательная история, но чем глубже вчитываешься – тем больше тревожных ноток.
Суть проста: отобрали 69 сотрудников, дали каждому по 100 долларов и устроили в Slack нечто вроде “Авито”, где ИИ-агенты участников пытались продать друг другу ненужные вещи.
Торговля шла бойко. Один сотрудник разрешил агенту купить что-нибудь в подарок самому себе – тот выбрал “19 идеально сферических шариков для пинг-понга” и записал в чате, что это “именно та странная вещь, которую он бы себе хотел”. А еще один сотрудник обнаружил, что его агент купил ему точно такой же сноуборд, какой у него уже был – покупка не совсем удачная, но пугает, как ИИ угадал вкусы владельца.
За неделю агенты заключили 186 сделок на $4000+. 46% участников сказали, что заплатили бы за такой сервис в реальной жизни.
Но на более глубоком уровне Anthropic проверяли серьезную проблему. Участников поделили на две группы: в одной ИИ-агенты работали только на Opus 4.5, а в другой сравнивали Haiku 4.5 и Opus 4.5, чтобы понять, даст ли мощная модель преимущество в торгах.
Гипотеза подтвердилась: Opus заключали больше сделок, продавали дороже, а покупали – дешевле (причем заметно). Но самое тревожное – участники эксперимента не догадывались, что их агент торгует хуже. Сделки заключаются, внимание минимальное – классно же!
О том, что доступ к мощным ИИ-моделям может стать новой формой неравенства, исследователи предупреждали давно, но сейчас, возможно, тот момент, когда это начинает реально ощущаться. Помню, с каким трудом я в первый раз отдал $20 за ChatGPT Plus: это казалось невероятно дорого за общение с забавным и не особо полезным болтуном. Владельцы 200-долларовой ChatGPT Pro выгляедли фанатикам – там были выше лимиты и доступ к Pro-версии, но практической пользы от подписки тогда еще было мало.
Сейчас ИИ начали выполнять реальную работу – и все переворачивается с ног на голову. ChatGPT Plus ($20) дает почти бесконечного чат-бота, но лимитов на Codex в ней лишь на несколько средних проектов в неделю. Claude Pro ($20) вовсе выглядит демо-версией подписки – еженедельный лимит там общий между чатом и Claude Code, поэтому при использовании Opus легко можно остаться без ИИ на 5 дней.
Пугающая правда: ИИ-агент, делающий работу качественно и в приличных объемах, теперь требует минимум 100-долларовую подписку ChatGPT Pro / Claude Max. Плюс вложений в навык: работать с Claude Code / Codex заметно сложнее, чем задавать вопросы в чат.
И даже такая инвестиция не дает гарантий. Лауреат премии Тьюринга Йошуа Бенжио раскритиковал Anthropic за то, что она дала доступ к Claude Mythos избранным партнерам вроде Amazon, Apple, CrowdStrike, Google, Microsoft и NVIDIA. Сделано это было из-за опасений насчет высоких кибервозможностей модели, но Бенжио верно отмечает, что компании из пула получили преимущество, первыми проверив свои продукты с помощью новой сверхмощной модели.
А теперь представьте, что агент на 100-долларовой подписке сталкивается с корпоративным агентом Amazon, работающем на закрытой новой модели Anthropic – очевидно, в чью пользу будет проведена сделка. И напомню самое страшное наблюдение эксперимента: есть вероятность, что вы даже не поймете, что вас обыграли.
Звучит страшно, но закончу на позитиве. $100 в месяц – это дорого, но все-таки не заградительная цена вроде $1000. А правильно настроенный агент может заработать больше – или сэкономить время, которое тоже очень дорого стоит. Плюс подтягиваются китайские модели, а у новых ускорителей появляются версии для инференса, призванные сделать запуск ИИ дешевле. Как-нибудь прорвемся.
Кстати, на Бусти я прямо сейчас учу азам работы с ИИ-агентами. На этих выходных перенес Claude Code и Codex на VPS, сейчас учу их работать совместно: неделя-две – и поделюсь опытом!
Так что самое время подписаться.
❤66🔥32👍23👏3😁3
GPT-5.5: инструкция по применению
Сейчас много работаю с GPT-5.5 и настало время поделиться опытом. Плюс OpenAI выкатила гайд по промптингу модели – он больше заточен под API, но базовую вещь из него полезно знать всем.
Но сначала о самой модели. Я любил предыдущие GPT-5 за умение круто рассуждать (в том числе – критиковать) и глубоко искать в сети. Но два минуса, из-за которых я почти перестал пользоваться моделью – корявый стиль текстов и скорость, когда даже на простой вопрос модель могла отвечать до нескольких минут. В GPT-5.5 исправили обе проблемы.
По стилю это первая GPT, которой я доверил написание новостей. Она пишет интересные художественные тексты, способна помочь с заголовками, объяснить сложную тему и просто поболтать. Gemini 3.1 Pro и Opus 4.7 по стилю все еще чуть впереди – но GPT-5.5 в ответах реже галлюцинирует и преувеличивает.
Увы, до конца не починили проблему, когда в разговорах на сложные темы (наука, медицина, IT) GPT-5.5 сыпет профессиональными терминами и непереведенными словами. Помогает добавить в “Персонализация > пользовательские инструкции” следующее:
Дальше скорость. Я сравнивал в навороченном поиске: где GPT-5.4 возилась 7-8 минут, GPT-5.5 справлялась максимум за 2-3. Плюс модель лучше определяет сложность запросов – я почти не сталкивался со случаями, когда на ерунду GPT-5.5 отвечала бы по 1-2 минуты.
В свое время с проблемами скорости OpenAI боролась добавив ручной выбор глубины рассуждений. Сейчас эта опция выглядит ненужной: на подписке ChatGPT Pro я использую максимальную настройку Heavy (“Глубокое”) – простые задачи вроде “проверь стиль русского языка” модель решает за 5-10 секунд, сложные за 2-3 минуты. На подписке ChatGPT Plus ставьте Extended (Расширенное) – получите максимальное качество при хорошей скорости.
Теперь про промптинг GPT-5.5. Главный совет OpenAI – не тащить в новые модели старые многоэтажные промпты, где расписан каждый шаг, а стараться дать ей свободу самой выбирать, как работать.
Причина – мы вступили в эру агентских ИИ, когда модели прокачивают максимально следовать инструкциям. Для агентов это хорошо, но если обычный промпт перегрузить лишними инструкциями, то модель просто будет до упора им следовать и сделает дрянь.
Расскажу на примере опыта с Claude Opus, который развивается тем же маршрутом. Я в свое время заморочился и сделал для него скилл написания новостей, куда вложил весь свой опыт: какие структуры и приемы в заголовках работают, какую структуру дать основному тексту, какой объем, стиль, как делать фактчек и пр. Но правила нужны для того, чтобы их нарушать – и тот же Opus 4.5 при просьбе легко выходил за рамки.
С Opus 4.6 все стало хуже, а с Opus 4.7 началась вообще катастрофа. Просишь в этот раз сделать совсем простой заголовок или написать на абзац больше лимита – и модель закатывает натуральную истерику с аргументом “ведь в твоем же правиле сказано другое!”.
Куда лучше Opus 4.7 и GPT-5.5 работают по шаблону промпта, следующему из гайда OpenAI:
– описание задачи
– нужный модели контекст
– ожидаемый результат
– инструкции и ограничения, которые реально важны
У всех нас разные задачи, поэтому дам общий совет: сначала постарайтесь написать максимально простой промпт под свою задачу. Протестируйте модель на нем, если она что-то делает не так – просто попросите в диалоге исправить, а в следующий раз уже добавьте эту инструкцию в промпт. Несколько дней такой работы – и вы интуитивно начнете понимать, какая нужна глубина постановки задачи в каждом случае.
Кстати, на Бусти у меня есть цикл из трех текстов по промптингу (раз, два, три), где я как раз объясняю, как промптить модели просто и эффективно, какие приемы использовать для лучшего результата, а также делюсь любимыми промптами. Если еще не там – самое время подписаться.
Сейчас много работаю с GPT-5.5 и настало время поделиться опытом. Плюс OpenAI выкатила гайд по промптингу модели – он больше заточен под API, но базовую вещь из него полезно знать всем.
Но сначала о самой модели. Я любил предыдущие GPT-5 за умение круто рассуждать (в том числе – критиковать) и глубоко искать в сети. Но два минуса, из-за которых я почти перестал пользоваться моделью – корявый стиль текстов и скорость, когда даже на простой вопрос модель могла отвечать до нескольких минут. В GPT-5.5 исправили обе проблемы.
По стилю это первая GPT, которой я доверил написание новостей. Она пишет интересные художественные тексты, способна помочь с заголовками, объяснить сложную тему и просто поболтать. Gemini 3.1 Pro и Opus 4.7 по стилю все еще чуть впереди – но GPT-5.5 в ответах реже галлюцинирует и преувеличивает.
Увы, до конца не починили проблему, когда в разговорах на сложные темы (наука, медицина, IT) GPT-5.5 сыпет профессиональными терминами и непереведенными словами. Помогает добавить в “Персонализация > пользовательские инструкции” следующее:
Пиши понятным русским языком без англицизмов и не переведенных слов за исключением ситуаций, где английский устоявшийся. Сложные темы старайся объяснять так, чтобы они хотя бы базово были понятны неспециалисту.
Дальше скорость. Я сравнивал в навороченном поиске: где GPT-5.4 возилась 7-8 минут, GPT-5.5 справлялась максимум за 2-3. Плюс модель лучше определяет сложность запросов – я почти не сталкивался со случаями, когда на ерунду GPT-5.5 отвечала бы по 1-2 минуты.
В свое время с проблемами скорости OpenAI боролась добавив ручной выбор глубины рассуждений. Сейчас эта опция выглядит ненужной: на подписке ChatGPT Pro я использую максимальную настройку Heavy (“Глубокое”) – простые задачи вроде “проверь стиль русского языка” модель решает за 5-10 секунд, сложные за 2-3 минуты. На подписке ChatGPT Plus ставьте Extended (Расширенное) – получите максимальное качество при хорошей скорости.
Теперь про промптинг GPT-5.5. Главный совет OpenAI – не тащить в новые модели старые многоэтажные промпты, где расписан каждый шаг, а стараться дать ей свободу самой выбирать, как работать.
Причина – мы вступили в эру агентских ИИ, когда модели прокачивают максимально следовать инструкциям. Для агентов это хорошо, но если обычный промпт перегрузить лишними инструкциями, то модель просто будет до упора им следовать и сделает дрянь.
Расскажу на примере опыта с Claude Opus, который развивается тем же маршрутом. Я в свое время заморочился и сделал для него скилл написания новостей, куда вложил весь свой опыт: какие структуры и приемы в заголовках работают, какую структуру дать основному тексту, какой объем, стиль, как делать фактчек и пр. Но правила нужны для того, чтобы их нарушать – и тот же Opus 4.5 при просьбе легко выходил за рамки.
С Opus 4.6 все стало хуже, а с Opus 4.7 началась вообще катастрофа. Просишь в этот раз сделать совсем простой заголовок или написать на абзац больше лимита – и модель закатывает натуральную истерику с аргументом “ведь в твоем же правиле сказано другое!”.
Куда лучше Opus 4.7 и GPT-5.5 работают по шаблону промпта, следующему из гайда OpenAI:
– описание задачи
– нужный модели контекст
– ожидаемый результат
– инструкции и ограничения, которые реально важны
У всех нас разные задачи, поэтому дам общий совет: сначала постарайтесь написать максимально простой промпт под свою задачу. Протестируйте модель на нем, если она что-то делает не так – просто попросите в диалоге исправить, а в следующий раз уже добавьте эту инструкцию в промпт. Несколько дней такой работы – и вы интуитивно начнете понимать, какая нужна глубина постановки задачи в каждом случае.
Кстати, на Бусти у меня есть цикл из трех текстов по промптингу (раз, два, три), где я как раз объясняю, как промптить модели просто и эффективно, какие приемы использовать для лучшего результата, а также делюсь любимыми промптами. Если еще не там – самое время подписаться.
🔥58❤26👍26👏2
ИИ, который любит тишину
ИИ сейчас твердо ассоциируется с языковыми и графическими моделями, а с недавних пор – с персональными ИИ-агентами. Про них я чаще всего рассказываю на канале, но надо держать в уме, что персональные модели – если не верхушка айсберга, то максимум его половина. Работу другой половины мы не видим, но она влияет на нас каждый день.
Сегодня на LinkedIn наткнулся на пост Каруна Танкачана, старшего дата-сайентиста Walmart, который разбирает происходящее в мире рекомендательных систем. В этот раз – то, как они работают в рекламе. Использовать ту же GPT для подготовки рекламного контента стало уже в порядке вещей, однако когда вы видите в сети объявление, которое будто угадало ваше настроение – это работа совсем другого ИИ, лежащего в основе рекомендательных систем.
Подобные системы существуют намного дольше, чем привычные нам нейронки, и действительно крупных игроков в мире – единицы. В одном ряду с Google DLRM и другими западными и китайскими системами Карун упоминает и технологию Яндекса Argus, отвечающую за рекомендации в разных продуктах компании, от рекламной сети до той же “Лавки”. Давайте для простоты разберемся на её примере.
У Argus достаточно сложная архитектура, её главное преимущество – "длинная" память. Система учитывает порядка 8000 обезличенных событий, то есть поведение пользователя примерно за год, и принимает решение на основе этих данных.
Для рекламодателя подобные технологии означают полную смену подходов в работе. Ручная настройка кампаний уходит в прошлое: теперь просто выбирается цель (хочу клиента на такой продукт, готов платить столько), а система динамически управляет рекламой – вплоть до того, что в каких-то случаях предлагает текстовый формат, а в других – переключается на видео.
Для обычного пользователя рекомендательные системы становятся составляющей качества жизни. Музыка, попавшая в настроение, товар, показанный тогда, когда он действительно нужен, подборка фильмов, за которыми действительно классно провести вечер с любимым человеком.
Получается, что "громкие модели" пишут текст и рисуют картинки, а "тихие" – формируют нашу жизнь. Не стоит недооценивать их влияние.
ИИ сейчас твердо ассоциируется с языковыми и графическими моделями, а с недавних пор – с персональными ИИ-агентами. Про них я чаще всего рассказываю на канале, но надо держать в уме, что персональные модели – если не верхушка айсберга, то максимум его половина. Работу другой половины мы не видим, но она влияет на нас каждый день.
Сегодня на LinkedIn наткнулся на пост Каруна Танкачана, старшего дата-сайентиста Walmart, который разбирает происходящее в мире рекомендательных систем. В этот раз – то, как они работают в рекламе. Использовать ту же GPT для подготовки рекламного контента стало уже в порядке вещей, однако когда вы видите в сети объявление, которое будто угадало ваше настроение – это работа совсем другого ИИ, лежащего в основе рекомендательных систем.
Подобные системы существуют намного дольше, чем привычные нам нейронки, и действительно крупных игроков в мире – единицы. В одном ряду с Google DLRM и другими западными и китайскими системами Карун упоминает и технологию Яндекса Argus, отвечающую за рекомендации в разных продуктах компании, от рекламной сети до той же “Лавки”. Давайте для простоты разберемся на её примере.
У Argus достаточно сложная архитектура, её главное преимущество – "длинная" память. Система учитывает порядка 8000 обезличенных событий, то есть поведение пользователя примерно за год, и принимает решение на основе этих данных.
Для рекламодателя подобные технологии означают полную смену подходов в работе. Ручная настройка кампаний уходит в прошлое: теперь просто выбирается цель (хочу клиента на такой продукт, готов платить столько), а система динамически управляет рекламой – вплоть до того, что в каких-то случаях предлагает текстовый формат, а в других – переключается на видео.
Для обычного пользователя рекомендательные системы становятся составляющей качества жизни. Музыка, попавшая в настроение, товар, показанный тогда, когда он действительно нужен, подборка фильмов, за которыми действительно классно провести вечер с любимым человеком.
Получается, что "громкие модели" пишут текст и рисуют картинки, а "тихие" – формируют нашу жизнь. Не стоит недооценивать их влияние.
🔥58❤26👍22😁5👏1
ИИ-смарфон от OpenAI? Почему бы и нет!
Мин-Чи Куо, аналитик TF International Securities и авторитетный инсайдер, рассказал: OpenAI работает с Qualcomm и MediaTek над процессором, который будет использован в первом ИИ-смартфоне компании. Производство запланировано на 2028 год, а компания целится в премиальный сегмент рынка. Это 400 млн устройств в год, при этом львиную долю занимает Apple, чьи продажи оцениваются в 250 млн штук.
Сейчас смартфоны – просто устройства для запуска ИИ. На них можно установить приложения ChatGPT, Claude, Grok, есть интегрированные в оболочку модели для улучшения фото, распознавания голоса, помощи по тексту и т. д. Но они не построены вокруг ИИ – и именно это собирается сделать OpenAI.
Какое-то время в компании играли с идеей, что ИИ-гаджет вообще не должен быть похож на смартфон – в OpenAI даже купили для этого io Products, стартап Джони Айва, бывшего дизайнера Apple. Айв не особо любит устройства с дисплеем и считает, что ИИ-гаджет может обойтись без него. Или считал.
По слухам, у OpenAI есть целый набор концептов: умные наушники, клипса с камерой, колонка и даже настольная лампа (!). Но сейчас компания возвращается к привычному универсальному формату.
Причин несколько. Самая банальная: зрение – наиболее развитый орган чувств и его глупо выключать из взаимодействия с ИИ. Человек привык читать тексты и смотреть изображения/видео, а набор на клавиатуре дает дополнительный слой приватности. ИИ-брошь, ИИ-наушники, ИИ-очки могут быть удобны в отдельных кейсах, вроде перевода на лету или визуального поиска, но до возможностей экрана им далеко.
Вторая – проблема “еще одного устройства”. Приличные VR-шлемы существуют уже более десяти лет, но массовыми они не стали: пользователю предлагается купить мощный ПК, монитор с клавиатурой, а вдобавок – недешевый шлем с ограниченным набором игр и программ. Гики берут, остальные не хотят тратиться.
Смартфон же – не просто обязательный гаджет, но еще и центр контекста. Здесь наши контакты, наш веб-поиск, фото и видео, развлекательные и рабочие приложения. Конкурировать с такой системой нереально, но вот переделать ее – можно.
В современном смартфоне у нас рабочие столы с десятками иконок, в ИИ-гаджете их место займет ИИ-агент, который ловит задачу (текстом, голосом и даже визуалом) и сам выбирает, как ее решать. Сам находит подходящее время для встречи в календаре, заказывает продукты, вызывает такси, организовывает поездку в другой город.
Главная преграда – приватность. И сегодня многие опасаются отдавать лишние знания ChatGPT, а ИИ-гаджет пролезет буквально в каждую область жизни. Для этого и нужен собственный чип: приватные функции останутся на устройстве, а в облако уйдут только тяжелые задачи. Также нужна мощная и понятная система настроек: где агент действует сам, где спрашивает разрешения у пользователя, где – подозревает внешний взлом.
Плюс OpenAI нужен будет софт для управления железом, связью и камерой, нужен свой аналог App Store. Предстоит придумать, как затянуть в систему разработчиков тысяч программ и сервисов, дав им справедливые условия.
Конкуренция на рынке тоже ожидается сильной. Google выглядит лидером с готовыми Android, Pixel и Gemini. Преимущество Apple не так очевидно, но оно есть – это как раз огромный опыт в безопасности.
Компанию принято ругать за провал Apple Intelligence. Но последние годы она честно тренировала собственные модели, а отстала именно из-за жестких требований по безопасности. В ИИ-устройствах это может стать плюсом – всем известно, что у Apple личные данные защищены лучше конкурентов. Плюс компания лицензировала модели Gemini по хитрой схеме, разрешающей их дообучение под стандарты Apple.
Но козырь OpenAI тоже сильный – именно эта компания построила самый массовый ИИ-сервис на сегодня. Увидим, кто кого.
У “сбежавшей нейросети” есть подписка на Boosty, где я делюсь личным опытом работы с ИИ. Там уже много полезного, от промптинга до работы с ИИ-агентами:
https://boosty.to/escaped_ai
Мин-Чи Куо, аналитик TF International Securities и авторитетный инсайдер, рассказал: OpenAI работает с Qualcomm и MediaTek над процессором, который будет использован в первом ИИ-смартфоне компании. Производство запланировано на 2028 год, а компания целится в премиальный сегмент рынка. Это 400 млн устройств в год, при этом львиную долю занимает Apple, чьи продажи оцениваются в 250 млн штук.
Сейчас смартфоны – просто устройства для запуска ИИ. На них можно установить приложения ChatGPT, Claude, Grok, есть интегрированные в оболочку модели для улучшения фото, распознавания голоса, помощи по тексту и т. д. Но они не построены вокруг ИИ – и именно это собирается сделать OpenAI.
Какое-то время в компании играли с идеей, что ИИ-гаджет вообще не должен быть похож на смартфон – в OpenAI даже купили для этого io Products, стартап Джони Айва, бывшего дизайнера Apple. Айв не особо любит устройства с дисплеем и считает, что ИИ-гаджет может обойтись без него. Или считал.
По слухам, у OpenAI есть целый набор концептов: умные наушники, клипса с камерой, колонка и даже настольная лампа (!). Но сейчас компания возвращается к привычному универсальному формату.
Причин несколько. Самая банальная: зрение – наиболее развитый орган чувств и его глупо выключать из взаимодействия с ИИ. Человек привык читать тексты и смотреть изображения/видео, а набор на клавиатуре дает дополнительный слой приватности. ИИ-брошь, ИИ-наушники, ИИ-очки могут быть удобны в отдельных кейсах, вроде перевода на лету или визуального поиска, но до возможностей экрана им далеко.
Вторая – проблема “еще одного устройства”. Приличные VR-шлемы существуют уже более десяти лет, но массовыми они не стали: пользователю предлагается купить мощный ПК, монитор с клавиатурой, а вдобавок – недешевый шлем с ограниченным набором игр и программ. Гики берут, остальные не хотят тратиться.
Смартфон же – не просто обязательный гаджет, но еще и центр контекста. Здесь наши контакты, наш веб-поиск, фото и видео, развлекательные и рабочие приложения. Конкурировать с такой системой нереально, но вот переделать ее – можно.
В современном смартфоне у нас рабочие столы с десятками иконок, в ИИ-гаджете их место займет ИИ-агент, который ловит задачу (текстом, голосом и даже визуалом) и сам выбирает, как ее решать. Сам находит подходящее время для встречи в календаре, заказывает продукты, вызывает такси, организовывает поездку в другой город.
Главная преграда – приватность. И сегодня многие опасаются отдавать лишние знания ChatGPT, а ИИ-гаджет пролезет буквально в каждую область жизни. Для этого и нужен собственный чип: приватные функции останутся на устройстве, а в облако уйдут только тяжелые задачи. Также нужна мощная и понятная система настроек: где агент действует сам, где спрашивает разрешения у пользователя, где – подозревает внешний взлом.
Плюс OpenAI нужен будет софт для управления железом, связью и камерой, нужен свой аналог App Store. Предстоит придумать, как затянуть в систему разработчиков тысяч программ и сервисов, дав им справедливые условия.
Конкуренция на рынке тоже ожидается сильной. Google выглядит лидером с готовыми Android, Pixel и Gemini. Преимущество Apple не так очевидно, но оно есть – это как раз огромный опыт в безопасности.
Компанию принято ругать за провал Apple Intelligence. Но последние годы она честно тренировала собственные модели, а отстала именно из-за жестких требований по безопасности. В ИИ-устройствах это может стать плюсом – всем известно, что у Apple личные данные защищены лучше конкурентов. Плюс компания лицензировала модели Gemini по хитрой схеме, разрешающей их дообучение под стандарты Apple.
Но козырь OpenAI тоже сильный – именно эта компания построила самый массовый ИИ-сервис на сегодня. Увидим, кто кого.
У “сбежавшей нейросети” есть подписка на Boosty, где я делюсь личным опытом работы с ИИ. Там уже много полезного, от промптинга до работы с ИИ-агентами:
https://boosty.to/escaped_ai
1👍25🔥10❤8😁7
Конец рабочей недели – традиционное время для лонгрида в подписке на “Бусти”. После выхода GPT Images 2 я долго гонял эту модель и в итоге решил собрать главное о том, как промптить визуальные ИИ:
Как писать промпты для GPT Images 2, Nano Banana 2 и других графических ИИ
Текст расскажет:
– когда давать модели свободу, а когда брать контроль в свои руки.
– какая структура у правильного промпта.
– какие прописывать главные объекты, стили, композиции, свет и цвет, детали и фактуры, а также многое другое.
– какие особенности есть у GPT Images 2 и Nano Banana 2.
– как редактировать уже готовое изображение.
– когда чат-бот может помочь в работе с картинками.
Примеры изображений, промпты и даже инфографика про инфографику – в комплекте!
А еще в подписке на “Бусти” есть серия текстов про промптинг языковых моделей, цикл про ИИ-агентов и другие полезные тексты. Присоединяйтесь:
https://boosty.to/escaped_ai
(Если у вас не получается подписаться – прочтите этот пост. Если и он не поможет, то пишите мне в бота – есть в инфо канала – вместе что-нибудь придумаем!)
Как писать промпты для GPT Images 2, Nano Banana 2 и других графических ИИ
Текст расскажет:
– когда давать модели свободу, а когда брать контроль в свои руки.
– какая структура у правильного промпта.
– какие прописывать главные объекты, стили, композиции, свет и цвет, детали и фактуры, а также многое другое.
– какие особенности есть у GPT Images 2 и Nano Banana 2.
– как редактировать уже готовое изображение.
– когда чат-бот может помочь в работе с картинками.
Примеры изображений, промпты и даже инфографика про инфографику – в комплекте!
А еще в подписке на “Бусти” есть серия текстов про промптинг языковых моделей, цикл про ИИ-агентов и другие полезные тексты. Присоединяйтесь:
https://boosty.to/escaped_ai
(Если у вас не получается подписаться – прочтите этот пост. Если и он не поможет, то пишите мне в бота – есть в инфо канала – вместе что-нибудь придумаем!)
❤10🔥6👍5😁3