Шэньчжэньский проект
8 декабря Дональд Трамп разрешил Nvidia поставлять в Китай ускорители H200, критически важные для обучения ИИ. Правда с оговорками: во-первых, поставки обложены дополнительным сбором в 25%, во-вторых, новейшие чипы B100/B200 и будущие Rubin поставлять запрещено.
Парадоксальным образом в Китае новость прошла почти незамеченной. Источники сообщают, что власти страны в последние месяцы сами препятствуют поставкам чипов Nvidia, в том числе через “серые” каналы: их задерживают на таможне, а новым дата-центрам с государственным участием предписано перейти на местные ускорители от Huawei, Cambricon и других компаний.
Это выглядит немного странным: по всем оценкам, ускорители от китайских компаний отстают от западных в 2-3 раза. По слухам, летом была попытка обучить DeepSeek R2 на GPU Huawei Ascend 910 – и она завершилась провалом несмотря на активное участие разработчиков ускорителя.
Но похоже, что у Китая есть повод для уверенности.
По данным Reuters, в начале 2025 года в засекреченной лаборатории в Шэньчжэне заработал прототип EUV-литографа, который генерирует экстремальный ультрафиолет. Это нужно для массового производства чипов на техпроцессах ниже доступного Китаю в 7нм. Сейчас подобной технологией обладает только голландская ASML, продукция которой запрещена к продаже в Китай. Передовые чипы уже делаются про процессу 3нм, так что отставание здесь критическое.
Источники рассказали подробности того, что в Reuters уже называют китайским “Манхэттенским проектом”. Над прототипом работала команда из бывших инженеров ASML, в помощь которым дали сотню выпускников китайских ВУЗов. На площадках вроде Alibaba по всему Китаю и за пределами страны покупали подержанные запчасти литографов ASML. Их доставляли в Шэньчжэн, где инженеры занимались реверс-инжинирингом – разбирали компоненты, изучали, как они устроены, а затем создавали копии.
Пока что прототип генерирует только излучение, а до устойчивого выпуска чипов еще далеко. Источники Reuters называют 2028 год, а некоторые эксперты склоняются к 2030-му. Но даже вторая дата очень хороша: в свое время у ASML ушло 18 лет на дорогу от прототипа к производству чипов.
Тем более, что прототип в Шэнчьжэне – не единственный подобный проект. Весной уже сообщалось об испытаниях китайского прототипа EUV-сканера. Однако в той новости указывалась площадка Huawei в Дунгуане. И если шэнчженский образец использует скопированную у ASML технологию LPP, то эта разработка опирается на альтернативный подход LDP.
Это тоже интересная заявка: если в LPP всю работу делает лазер, то в LDP лазер лишь запускает процесс, а основную энергию вносит электрический разряд. То есть китайцы уже не просто копируют западное, но одновременно разрабатывают конкурирующую технологию.
Запуск прототипа в Дунгуане обещали в третьем квартале 2025 года, а массовое производство – в 2026-м. С весны о проекте нет новостей, но это как раз неудивительно – подобные разработки обычно серьезно защищаются государством. Под вопросом остается другой важный компонент литографов – зеркала. Китайские производители сильно отстают от Carl Zeiss, поставляющих свою продукцию ASML – но я уверен, что-нибудь да придумают.
Ну а до появления EUV-сканеров китайцы выкручиваются как могут. Крупнейший в стране производитель чипов SMIC научился производить чипы близкого к 5нм уровня на оборудовании DUV (глубокий ультрафиолет). Изначально DUV рассчитан на 7нм, но SMIC научились использовать многократное формирование рисунка, чтобы обойти это ограничение. Теоретически такой подход повышает процент бракованных чипов, но то, что на техпроцессе 5нм делают массовые чипы Huawei Kirin 9030, указывает, что китайцы как-то смогли добиться стабильной работы.
Так что ждем передовые китайские чипы к концу десятилетия, а параллельно смотрим, как до этого компании будут выкручиваться на текущих технологиях. Гонка Орла и Дракона продолжается – кстати, если вы пропустили мой предыдущий пост по теме, обязательно почитайте, там тоже интересно.
8 декабря Дональд Трамп разрешил Nvidia поставлять в Китай ускорители H200, критически важные для обучения ИИ. Правда с оговорками: во-первых, поставки обложены дополнительным сбором в 25%, во-вторых, новейшие чипы B100/B200 и будущие Rubin поставлять запрещено.
Парадоксальным образом в Китае новость прошла почти незамеченной. Источники сообщают, что власти страны в последние месяцы сами препятствуют поставкам чипов Nvidia, в том числе через “серые” каналы: их задерживают на таможне, а новым дата-центрам с государственным участием предписано перейти на местные ускорители от Huawei, Cambricon и других компаний.
Это выглядит немного странным: по всем оценкам, ускорители от китайских компаний отстают от западных в 2-3 раза. По слухам, летом была попытка обучить DeepSeek R2 на GPU Huawei Ascend 910 – и она завершилась провалом несмотря на активное участие разработчиков ускорителя.
Но похоже, что у Китая есть повод для уверенности.
По данным Reuters, в начале 2025 года в засекреченной лаборатории в Шэньчжэне заработал прототип EUV-литографа, который генерирует экстремальный ультрафиолет. Это нужно для массового производства чипов на техпроцессах ниже доступного Китаю в 7нм. Сейчас подобной технологией обладает только голландская ASML, продукция которой запрещена к продаже в Китай. Передовые чипы уже делаются про процессу 3нм, так что отставание здесь критическое.
Источники рассказали подробности того, что в Reuters уже называют китайским “Манхэттенским проектом”. Над прототипом работала команда из бывших инженеров ASML, в помощь которым дали сотню выпускников китайских ВУЗов. На площадках вроде Alibaba по всему Китаю и за пределами страны покупали подержанные запчасти литографов ASML. Их доставляли в Шэньчжэн, где инженеры занимались реверс-инжинирингом – разбирали компоненты, изучали, как они устроены, а затем создавали копии.
Пока что прототип генерирует только излучение, а до устойчивого выпуска чипов еще далеко. Источники Reuters называют 2028 год, а некоторые эксперты склоняются к 2030-му. Но даже вторая дата очень хороша: в свое время у ASML ушло 18 лет на дорогу от прототипа к производству чипов.
Тем более, что прототип в Шэнчьжэне – не единственный подобный проект. Весной уже сообщалось об испытаниях китайского прототипа EUV-сканера. Однако в той новости указывалась площадка Huawei в Дунгуане. И если шэнчженский образец использует скопированную у ASML технологию LPP, то эта разработка опирается на альтернативный подход LDP.
Это тоже интересная заявка: если в LPP всю работу делает лазер, то в LDP лазер лишь запускает процесс, а основную энергию вносит электрический разряд. То есть китайцы уже не просто копируют западное, но одновременно разрабатывают конкурирующую технологию.
Запуск прототипа в Дунгуане обещали в третьем квартале 2025 года, а массовое производство – в 2026-м. С весны о проекте нет новостей, но это как раз неудивительно – подобные разработки обычно серьезно защищаются государством. Под вопросом остается другой важный компонент литографов – зеркала. Китайские производители сильно отстают от Carl Zeiss, поставляющих свою продукцию ASML – но я уверен, что-нибудь да придумают.
Ну а до появления EUV-сканеров китайцы выкручиваются как могут. Крупнейший в стране производитель чипов SMIC научился производить чипы близкого к 5нм уровня на оборудовании DUV (глубокий ультрафиолет). Изначально DUV рассчитан на 7нм, но SMIC научились использовать многократное формирование рисунка, чтобы обойти это ограничение. Теоретически такой подход повышает процент бракованных чипов, но то, что на техпроцессе 5нм делают массовые чипы Huawei Kirin 9030, указывает, что китайцы как-то смогли добиться стабильной работы.
Так что ждем передовые китайские чипы к концу десятилетия, а параллельно смотрим, как до этого компании будут выкручиваться на текущих технологиях. Гонка Орла и Дракона продолжается – кстати, если вы пропустили мой предыдущий пост по теме, обязательно почитайте, там тоже интересно.
🔥64❤27👍22👏11🥰2
Когда они пришли за копирайтерами – мы молчали
Достаточно прочесть несколько постов на этом канале, чтобы понять – я верю, что ИИ поможет нам рано или поздно построить лучшую версию будущего. Но много раз писал, что на дороге к этому будущему окажется достаточно ухабов. И если видеть их заранее, то есть шанс проскочить без синяков.
В свежей рассылке Blood in the Machine Брайан Мерчант попросил профессиональных копирайтеров рассказать, как ИИ меняет их индустрию. Спойлер: дальше будет больно.
Жак-Руле II руководил службой поддержки софтовой компании, которая много раз получала награды за качество. В мае 2025 года он обратил внимание, что его работа теперь почти полностью сводится к обучению чат-ботов, а за неделю до Дня благодарения его сократили – посчитали, что ИИ теперь справится сам. Жак переехал в Мексику, где дешевле жить, и ищет новую работу.
Маркусу Виснеру пока повезло больше. В лучшие годы его агентство зарабатывало 600 тысяч долларов на копирайтинге для стартапов. В 2025-м едва удалось наскрести 10 тысяч. Маркус уволил сестру, брата с женой – а затем закрылся. Его друзья владеют курортом и взяли Маркуса маркетологом, но он уверен – ИИ придет и за этой профессией.
Так как многие копирайтеры работают вне штата, то зачастую компании или сокращают заказы, или просто перестают присылать их – а через некоторое время на сайте появляются ИИ-кейсы.
Интересен пример редактора Gracenote, который занимался метаданными для ТВ-гидов. В январе 2024 года в компании внедрили инструмент для автоматической приоритизации – и выяснилось, что его два года тренировали на работах сотрудников без их ведома.
Далеко не всех копирайтеров увольняют – некоторым предлагают переквалифицироваться и начать вычитывать нейросетевые тексты. Но эта работа считается более простой и оплачивается хуже. Да и сами авторы не очень довольны: “Я не хочу быть оператором – хочу быть человеком-копирайтером”.
По словам собеседников Брайна, руководители многих компаний понимают, что качество ИИ-текстов хуже. Но все равно используют их, ведь ИИ – это дешево, быстро и модно.
Давайте попробуем ответить на вопрос – как с этим жить дальше? Начну с того, что если вы тренируете ИИ – то это должен быть ваш собственный ИИ. На этот канал я пишу исключительно сам, но в сборе информации, редактуре и корректуре мне давно помогают ChatGPT, Gemini, а с недавних пор и Claude – и в некоторых случаях сокращают время на подготовку в разы.
На других проектах я экспериментирую с нейросетевыми текстами, написанными Gemini и Claude. Как редактор с опытом скажу, что обе модели могут писать очень прилично, но для этого их надо аккуратно натренировать, а с результатом – хоть немного поработать. Большинство же ИИ-текстов, которые я вижу вокруг, пишутся по схеме “Эй, ChatGPT, забабахай мне лонгрид на тему ХХХ!” – и быстро умирают на задворках блог-площадок.
Ну и повторю то, о чем писал ранее: уже в ближайшие годы ИИ заберут тексты, где не важна личность авторов. То есть значительную часть новостных подборок, описания товаров и услуг, стандартные тексты на сайты разных клиник, школ, магазинов и так далее. Но ИИ никогда не смогут генерировать мнения, заставляющие тысячи читателей соглашаться, критиковать, спорить друг с другом. ИИ-текст пишется чисто под ваш запрос – и поэтому он не интересен другим людям.
В журналистике принято считать, что сильные авторские тексты, вроде колонок, репортажей и рецензий – это высшая лига, попасть в которую можно лишь накопирайтив сотни тысяч знаков.
Но это не совсем так. Авторские тексты не обязаны быть идеальными – они обязаны быть вашими. Ищите, в чем ваша сила. Возможно, вы пишите эмоционально. Или играете метафорами. Или можете вытащить из книг по истории интересный эпизод и рассказать о нем так, что соберет тысячи комментариев. Даже сгенерировать ср@ч, который будет греметь неделю – тоже большой талант.
Ищите, в чем ваша сила, подумайте, как удвоить ее с помощью ИИ. И тогда за вами не придут.
Достаточно прочесть несколько постов на этом канале, чтобы понять – я верю, что ИИ поможет нам рано или поздно построить лучшую версию будущего. Но много раз писал, что на дороге к этому будущему окажется достаточно ухабов. И если видеть их заранее, то есть шанс проскочить без синяков.
В свежей рассылке Blood in the Machine Брайан Мерчант попросил профессиональных копирайтеров рассказать, как ИИ меняет их индустрию. Спойлер: дальше будет больно.
Жак-Руле II руководил службой поддержки софтовой компании, которая много раз получала награды за качество. В мае 2025 года он обратил внимание, что его работа теперь почти полностью сводится к обучению чат-ботов, а за неделю до Дня благодарения его сократили – посчитали, что ИИ теперь справится сам. Жак переехал в Мексику, где дешевле жить, и ищет новую работу.
Маркусу Виснеру пока повезло больше. В лучшие годы его агентство зарабатывало 600 тысяч долларов на копирайтинге для стартапов. В 2025-м едва удалось наскрести 10 тысяч. Маркус уволил сестру, брата с женой – а затем закрылся. Его друзья владеют курортом и взяли Маркуса маркетологом, но он уверен – ИИ придет и за этой профессией.
Так как многие копирайтеры работают вне штата, то зачастую компании или сокращают заказы, или просто перестают присылать их – а через некоторое время на сайте появляются ИИ-кейсы.
Интересен пример редактора Gracenote, который занимался метаданными для ТВ-гидов. В январе 2024 года в компании внедрили инструмент для автоматической приоритизации – и выяснилось, что его два года тренировали на работах сотрудников без их ведома.
Далеко не всех копирайтеров увольняют – некоторым предлагают переквалифицироваться и начать вычитывать нейросетевые тексты. Но эта работа считается более простой и оплачивается хуже. Да и сами авторы не очень довольны: “Я не хочу быть оператором – хочу быть человеком-копирайтером”.
По словам собеседников Брайна, руководители многих компаний понимают, что качество ИИ-текстов хуже. Но все равно используют их, ведь ИИ – это дешево, быстро и модно.
Давайте попробуем ответить на вопрос – как с этим жить дальше? Начну с того, что если вы тренируете ИИ – то это должен быть ваш собственный ИИ. На этот канал я пишу исключительно сам, но в сборе информации, редактуре и корректуре мне давно помогают ChatGPT, Gemini, а с недавних пор и Claude – и в некоторых случаях сокращают время на подготовку в разы.
На других проектах я экспериментирую с нейросетевыми текстами, написанными Gemini и Claude. Как редактор с опытом скажу, что обе модели могут писать очень прилично, но для этого их надо аккуратно натренировать, а с результатом – хоть немного поработать. Большинство же ИИ-текстов, которые я вижу вокруг, пишутся по схеме “Эй, ChatGPT, забабахай мне лонгрид на тему ХХХ!” – и быстро умирают на задворках блог-площадок.
Ну и повторю то, о чем писал ранее: уже в ближайшие годы ИИ заберут тексты, где не важна личность авторов. То есть значительную часть новостных подборок, описания товаров и услуг, стандартные тексты на сайты разных клиник, школ, магазинов и так далее. Но ИИ никогда не смогут генерировать мнения, заставляющие тысячи читателей соглашаться, критиковать, спорить друг с другом. ИИ-текст пишется чисто под ваш запрос – и поэтому он не интересен другим людям.
В журналистике принято считать, что сильные авторские тексты, вроде колонок, репортажей и рецензий – это высшая лига, попасть в которую можно лишь накопирайтив сотни тысяч знаков.
Но это не совсем так. Авторские тексты не обязаны быть идеальными – они обязаны быть вашими. Ищите, в чем ваша сила. Возможно, вы пишите эмоционально. Или играете метафорами. Или можете вытащить из книг по истории интересный эпизод и рассказать о нем так, что соберет тысячи комментариев. Даже сгенерировать ср@ч, который будет греметь неделю – тоже большой талант.
Ищите, в чем ваша сила, подумайте, как удвоить ее с помощью ИИ. И тогда за вами не придут.
1❤93👍52🔥20😁6
Позор года
Я много лет проработал в видеоигровой индустрии и до сих пор с интересом слежу за ее новостями. Сейчас вот прилетела история прямо по теме канала, причем касается она не только игр. Нашумевшую Clair Obscur: Expedition 33 лишили двух наград Indie Game Awards - “Игра года” и “Дебют года”. Причина – использование ИИ в разработке игры.
Авторы Clair Obscur, конечно, сами тоже накосячили: в правилах IGA указано, что игры, при создании которых пользовались генеративным ИИ, не принимаются. При подаче заявки они подтвердили, что никакого ИИ, вы что. Но в день трансляции церемонии проговорились, что да, использовали. Награду пока отдали занявшей второе место Blue Prince, однако журналисты утверждают, что при создании этой игры без ИИ тоже не обошлось.
В общем, врать - нехорошо. Говорить правду - тоже так себе идея. Но хуже всего – придумывать откровенное вредительство вроде запрета на использование ИИ в инди-играх, сделанных небольшими независимыми командами.
Современная видеоигровая индустрия очень высокобюджетна: ААА-проекты стоят сотни миллионов долларов и разрабатываются годами – уровень кинематографа, а местами и выше. С такими деньгами топ-студии могут позволить хороших специалистов во всех сферах: от визуала и интерфейсов до написания текстов и разработки приличного веб-сайта.
На другой стороне у нас инди-разработчики. Часто это команда из всего нескольких человек – студентов или просто энтузиастов. Они умеют программировать и придумали гениальную идею, которая точно покорит сердца миллионов людей.
В компанию ищутся дизайнер и композитор среди таких же энтузиастов, тексты пишутся корявым языком и в последний момент, а на роль PR-менеджера торжественно назначают девушку одного из основателей студии, которая учится на журфаке. Кстати, такие вот “пиарщицы поневоле” обычно очень стараются, работают по учебнику и в срок. Умнички.
А дальше начинается суровая реальность. От “уметь программировать” до создать работающий продукт – огромная дорога. Дизайнер хорошо рисует персонажей, но не справляется с интерфейсами. Композитору надо кормить двоих детей, поэтому он записывает один трек в три месяца. Сайт не обновляют с момента запуска, а тексты внутри игры написаны жутким языком и полны грамматических ошибок.
В итоге большинство таких проектов разваливаются до выхода, а те, что выходят, зачастую оказываются такого качества, что без слез не взглянешь. И лишь крошечный процент получается более или менее приличного уровня.
Кстати, Clair Obscur по меркам инди настоящий гигант – сделавшая ее студия Sandfall Interactive располагала приличным бюджетом и командой в десятки сотрудников, а к “инди” ее отнесли за творческую независимость. И даже Sandfall пришлось выкручиваться с помощью ИИ – чтобы выйти в срок, нейронкой нарисовали некоторое количество текстур, которые быстро заменили на нормальные.
Простая мысль: современный ИИ нужен не для того, чтобы выдавать результат на уровне лучших людей, а для того, чтобы расширить наши возможности на среднем уровне. Кто-то вообще не умеет писать тексты, но обладает шикарными знаниями и идеями в других областях – ИИ поможет оформить их в приличную статью. Я хорошо пишу, но для работы даже над блогом этого недостаточно – надо постоянно разбирать сложную информацию, иногда рисовать графику и даже уточнять юридические моменты. В издательстве задач еще больше – и без ИИ я бы многие делал в разы дольше.
Внедрение нейросетей в больших компаниях буксует потому, что у них достаточно денег, чтобы закрыть задачи живыми специалистами. А вот маленькие команды, вроде разработчиков инди-игр, такой роскоши лишены. Где-то они профессионалы и сами сделают хорошо, а где-то – или сделают отвратительно руками, или добьются нормального качества с помощью ИИ. Так как продукт оценивают по совокупности характеристик, то второй подход лучше.
Ну а Clair Obscur: Expedition 33 забрала 9 из 12 статуэток на The Game Awards – награде даже более почетной. Надеюсь, там ничего отзывать не будут.
Я много лет проработал в видеоигровой индустрии и до сих пор с интересом слежу за ее новостями. Сейчас вот прилетела история прямо по теме канала, причем касается она не только игр. Нашумевшую Clair Obscur: Expedition 33 лишили двух наград Indie Game Awards - “Игра года” и “Дебют года”. Причина – использование ИИ в разработке игры.
Авторы Clair Obscur, конечно, сами тоже накосячили: в правилах IGA указано, что игры, при создании которых пользовались генеративным ИИ, не принимаются. При подаче заявки они подтвердили, что никакого ИИ, вы что. Но в день трансляции церемонии проговорились, что да, использовали. Награду пока отдали занявшей второе место Blue Prince, однако журналисты утверждают, что при создании этой игры без ИИ тоже не обошлось.
В общем, врать - нехорошо. Говорить правду - тоже так себе идея. Но хуже всего – придумывать откровенное вредительство вроде запрета на использование ИИ в инди-играх, сделанных небольшими независимыми командами.
Современная видеоигровая индустрия очень высокобюджетна: ААА-проекты стоят сотни миллионов долларов и разрабатываются годами – уровень кинематографа, а местами и выше. С такими деньгами топ-студии могут позволить хороших специалистов во всех сферах: от визуала и интерфейсов до написания текстов и разработки приличного веб-сайта.
На другой стороне у нас инди-разработчики. Часто это команда из всего нескольких человек – студентов или просто энтузиастов. Они умеют программировать и придумали гениальную идею, которая точно покорит сердца миллионов людей.
В компанию ищутся дизайнер и композитор среди таких же энтузиастов, тексты пишутся корявым языком и в последний момент, а на роль PR-менеджера торжественно назначают девушку одного из основателей студии, которая учится на журфаке. Кстати, такие вот “пиарщицы поневоле” обычно очень стараются, работают по учебнику и в срок. Умнички.
А дальше начинается суровая реальность. От “уметь программировать” до создать работающий продукт – огромная дорога. Дизайнер хорошо рисует персонажей, но не справляется с интерфейсами. Композитору надо кормить двоих детей, поэтому он записывает один трек в три месяца. Сайт не обновляют с момента запуска, а тексты внутри игры написаны жутким языком и полны грамматических ошибок.
В итоге большинство таких проектов разваливаются до выхода, а те, что выходят, зачастую оказываются такого качества, что без слез не взглянешь. И лишь крошечный процент получается более или менее приличного уровня.
Кстати, Clair Obscur по меркам инди настоящий гигант – сделавшая ее студия Sandfall Interactive располагала приличным бюджетом и командой в десятки сотрудников, а к “инди” ее отнесли за творческую независимость. И даже Sandfall пришлось выкручиваться с помощью ИИ – чтобы выйти в срок, нейронкой нарисовали некоторое количество текстур, которые быстро заменили на нормальные.
Простая мысль: современный ИИ нужен не для того, чтобы выдавать результат на уровне лучших людей, а для того, чтобы расширить наши возможности на среднем уровне. Кто-то вообще не умеет писать тексты, но обладает шикарными знаниями и идеями в других областях – ИИ поможет оформить их в приличную статью. Я хорошо пишу, но для работы даже над блогом этого недостаточно – надо постоянно разбирать сложную информацию, иногда рисовать графику и даже уточнять юридические моменты. В издательстве задач еще больше – и без ИИ я бы многие делал в разы дольше.
Внедрение нейросетей в больших компаниях буксует потому, что у них достаточно денег, чтобы закрыть задачи живыми специалистами. А вот маленькие команды, вроде разработчиков инди-игр, такой роскоши лишены. Где-то они профессионалы и сами сделают хорошо, а где-то – или сделают отвратительно руками, или добьются нормального качества с помощью ИИ. Так как продукт оценивают по совокупности характеристик, то второй подход лучше.
Ну а Clair Obscur: Expedition 33 забрала 9 из 12 статуэток на The Game Awards – награде даже более почетной. Надеюсь, там ничего отзывать не будут.
2👍104❤49👏9🔥3
Как GPT-1.5 Image и Nano Banana Pro меняют нашу работу с ИИ
Я много работаю с текстами и значительную часть внимания уделяю чат-ботам. Но в последнее время есть ощущение, что именно здесь прогресс для меня замедлился. Вышедшая полтора месяца назад GPT-5.1 надежно закрыла большинство моих задач – от веб-поиска до проверки и критики идей. GPT-5.2 выросла в бенчмарках, но переход на нее я не заметил. Иногда пользуюсь Claude Opus 4.5 и Gemini 3 Pro – но это именно вопрос предпочтений, а не какого-то прорывного улучшения моделей.
Сейчас чат-боты все больше упираются не в качество моделей, а в формат, в котором мы с ними работаем: в большинстве случаев это просто стены текста без визуала. ChatGPT, Gemini и Grok умеют находить в сети изображения и вставлять в ответы, но делают это лениво, а еще часто находят совсем не то, что нужно.
Но этот пробел уже можно закрыть с помощью Nano Banana Pro и GPT-1.5 Image. Если летом графические модели создавали красивые изображения, которые были далеки от реальности, то последние версии приблизились к иллюстрациям уровня познавательной детской книги.
Простейший пример – при помощи ChatGPT я повторяю античную историю. Классическая проблема такого изучения – нужно постоянно держать перед глазами карту, чтобы понимать, кто и где находится. В бумажных учебниках с этим проблем нет, а вот в случае с ChatGPT приходилось напоминать модели найти карту, а временами и самому бегать в Google. При этом не всегда в сети быстро находятся карты, точно подходящие под нужный период.
Вся эта история мне надоела к выходу GPT-1.5 Image – и я ради эксперимента решил сгенерировать несколько нужных карт, а затем проверил их вручную и с помощью Gemini 3 Pro (у нее очень крутое компьютерное зрение). Модель выдала на удивление неплохой результат: в учебник ставить рано, но чтобы понять, кто, где и против кого – вполне хватит.
Я подключил Nano Banana Pro, попробовал еще несколько сценариев – и получилось круто.
— Происхождение приматов и человека с момента вымирания динозавров – ИИ вполне аккуратно нарисовал доисторическую белку Пургаториса и обезьянку Тейярдину, которые являются нашими древними предками.
— Динозавры – отдельное большое развлечение, их научный облик постоянно меняется и модели об этом знают. На картинке "спилберговский" велоцираптор и его современная версия.
— Извержение Тобы – инфографика с наглядным пояснением, что произошло.
— То же самое изучение истории – можно попросить показать улицы античных городов, как выглядели люди, во что одевались.
Да и многое другое – все зависит от вашего воображения.
Теперь к практическим советам.
Готовить иллюстрацию лучше в несколько этапов. Сначала просим модель рассказать о каком-то событии. Затем – “Напиши промпт для иллюстрации своего последнего ответа. Опирайся на актуальные научные представления”. И только после этого просите модель собственно рисовать. Иногда промпт приходится немного отредактировать.
Если не уверены в результате – то загружаем готовую картинку в Gemini 3 Flash или Pro, поясняем, о чем речь и просим оценить, насколько реалистично вышло. У модели очень крутое компьютерное зрение: в моих тестах она даже находила неверное положение пальцев на лапах.
Да и в целом Gemini 3 + Nano Banana Pro (можно и обычную) лучше подходят для этого сценария. Сама Gemini 3 рассказывает намного более живым языком, чем GPT-5.2 – жаль только, что иногда увлекается спорными идеями и теориями. Ну а GPT-1.5 Image рисует скорее “художественно”, в то время как Nano Banana Pro отличается большим вниманием к деталям. Ну и инфографика у нее выходит лучше.
Пока все это приходится делать с помощью дополнительных промптов и лишних сообщений. Но видя скорость прогресса генеративного ИИ, я практически уверен, что такие иллюстрации станут стандартным элементом работы в тех же ChatGPT и Gemini уже в следующем году. Возможно – даже в первой его половине.
#сбежавшая_нейросеть_промпты
Я много работаю с текстами и значительную часть внимания уделяю чат-ботам. Но в последнее время есть ощущение, что именно здесь прогресс для меня замедлился. Вышедшая полтора месяца назад GPT-5.1 надежно закрыла большинство моих задач – от веб-поиска до проверки и критики идей. GPT-5.2 выросла в бенчмарках, но переход на нее я не заметил. Иногда пользуюсь Claude Opus 4.5 и Gemini 3 Pro – но это именно вопрос предпочтений, а не какого-то прорывного улучшения моделей.
Сейчас чат-боты все больше упираются не в качество моделей, а в формат, в котором мы с ними работаем: в большинстве случаев это просто стены текста без визуала. ChatGPT, Gemini и Grok умеют находить в сети изображения и вставлять в ответы, но делают это лениво, а еще часто находят совсем не то, что нужно.
Но этот пробел уже можно закрыть с помощью Nano Banana Pro и GPT-1.5 Image. Если летом графические модели создавали красивые изображения, которые были далеки от реальности, то последние версии приблизились к иллюстрациям уровня познавательной детской книги.
Простейший пример – при помощи ChatGPT я повторяю античную историю. Классическая проблема такого изучения – нужно постоянно держать перед глазами карту, чтобы понимать, кто и где находится. В бумажных учебниках с этим проблем нет, а вот в случае с ChatGPT приходилось напоминать модели найти карту, а временами и самому бегать в Google. При этом не всегда в сети быстро находятся карты, точно подходящие под нужный период.
Вся эта история мне надоела к выходу GPT-1.5 Image – и я ради эксперимента решил сгенерировать несколько нужных карт, а затем проверил их вручную и с помощью Gemini 3 Pro (у нее очень крутое компьютерное зрение). Модель выдала на удивление неплохой результат: в учебник ставить рано, но чтобы понять, кто, где и против кого – вполне хватит.
Я подключил Nano Banana Pro, попробовал еще несколько сценариев – и получилось круто.
— Происхождение приматов и человека с момента вымирания динозавров – ИИ вполне аккуратно нарисовал доисторическую белку Пургаториса и обезьянку Тейярдину, которые являются нашими древними предками.
— Динозавры – отдельное большое развлечение, их научный облик постоянно меняется и модели об этом знают. На картинке "спилберговский" велоцираптор и его современная версия.
— Извержение Тобы – инфографика с наглядным пояснением, что произошло.
— То же самое изучение истории – можно попросить показать улицы античных городов, как выглядели люди, во что одевались.
Да и многое другое – все зависит от вашего воображения.
Теперь к практическим советам.
Готовить иллюстрацию лучше в несколько этапов. Сначала просим модель рассказать о каком-то событии. Затем – “Напиши промпт для иллюстрации своего последнего ответа. Опирайся на актуальные научные представления”. И только после этого просите модель собственно рисовать. Иногда промпт приходится немного отредактировать.
Если не уверены в результате – то загружаем готовую картинку в Gemini 3 Flash или Pro, поясняем, о чем речь и просим оценить, насколько реалистично вышло. У модели очень крутое компьютерное зрение: в моих тестах она даже находила неверное положение пальцев на лапах.
Да и в целом Gemini 3 + Nano Banana Pro (можно и обычную) лучше подходят для этого сценария. Сама Gemini 3 рассказывает намного более живым языком, чем GPT-5.2 – жаль только, что иногда увлекается спорными идеями и теориями. Ну а GPT-1.5 Image рисует скорее “художественно”, в то время как Nano Banana Pro отличается большим вниманием к деталям. Ну и инфографика у нее выходит лучше.
Пока все это приходится делать с помощью дополнительных промптов и лишних сообщений. Но видя скорость прогресса генеративного ИИ, я практически уверен, что такие иллюстрации станут стандартным элементом работы в тех же ChatGPT и Gemini уже в следующем году. Возможно – даже в первой его половине.
#сбежавшая_нейросеть_промпты
2🔥65👍42❤28👏1
Держите сразу два мини-обзора: на Claude Opus 4.5 и Genspark
Предыстория следующая. Я давно работаю с ИИ, но почти не пробовал Claude. После выхода Opus 4.5 решил заполнить пробел, подписался за $20 – и проникся.
Каждый день я пишу много текстов. И если каналом занимаюсь сам, то на новости, техзадания и пресс-релизы уже не хватает сил. GPT-5.2 для текстов совсем не нравится – у Thinking-версии “рубленый” язык, Instant лучше, но все равно на тройку. У Gemini 3 Pro русский хорош, но это рассказчик, а не писатель деловых текстов.
А вот Claude Opus 4.5 попал в мой вкус. Мелкие правки нужны – заменить не переведенное слово, например – но ритм текста отличный. Написанные “Опусом” новости читаются на одном дыхании и не ощущаются как ИИ.
Хороший текст с помощью ИИ нельзя писать одним промптом. Вот как делаю я:
— Прошу собрать информацию по теме. Если история сложная, то на этом этапе подключаю ChatGPT, так как она ищет лучше.
— Даю короткие правила: стиль, длина заголовка, объем новости и еще несколько пунктов.
— Прошу цепляющие заголовки, выбираю лучший, иногда собираю один из двух.
— Если новость сложная, то прошу несколько планов с разными углами подачи, и выбираю лучший. Простая — пишет сразу.
— Прошу “сделай даблчек своей новости”. Если находит ошибки – исправляем.
Уходит 10-15 минут, но есть проблема – подписка Anthropic так ограничена, что недельный лимит на Opus 4.5 у меня заканчивался уже в среду-четверг. И даже Sonnet 4.5 хватало не всегда – а он хуже.
Переходить на план за $100 не хотелось, расставаться с Claude – тоже. Поискал по wrapper-ам – сторонним сервисам, которые дают доступ к ИИ разных компаний в одной подписке и оболочке. Самый известный Perplexity, но в нем Opus только в 200-долларовом плане.
Дальше наткнулся на Genspark – и обалдел. Подписка стоит 25 долларов и дает безлимит к Claude Opus 4.5 (плюс Sonnet и Haiku), Gemini 3 Pro/Flash, Grok 4 и нескольким версиям GPT-5.x. Eсть даже GPT-5.2 Pro, но с выключенным веб-поиском – все-таки очень мощная и дорогая модель.
Бесплатно доступно много рисовалок: Nano Banana Pro, GPT-1.5 Image, Seedream V4.5 и т. д. Еще дают 10 тысяч кредитов, их можно тратить на видео (разные модели, хватит на 60-70 роликов) и агентов. Последних много: для презентаций, дизайна логотипов, глубокого поиска, факт-чекинга и так далее.
Понравился агент для кодинга. Можно собрать простой веб‑проект или full‑stack (аутентификация, backend, база), Flutter‑приложение, либо подключить существующий GitHub‑репозиторий/SSH‑сервер; есть предпросмотр и выгрузка в GitHub/публикация.
В общем, играюсь уже много дней, лишь иногда переключаясь в ChatGPT или Gemini. Но и минусы есть. Для веб-поиска лучше подходит ChatGPT, на худой конец Grok или Perplexity. А в Genspark даже агент глубокого поиска выдает средний результат, а базовый поиск – уровня продвинутого Google.
Интерфейс Genspark сильно перегружен – обычный чат с моделью трудно найти среди иконок разных агентов. Плюс нет моей любимой функции памяти, когда ИИ собирает знания о пользователе и подстраивает ответы под него. Увы, Genspark не работает с российским IP, да и оплачивать сложно – я пополнял App Store США подарочными картами и платил с него.
Еще читатели часто спрашивают, не используются ли в сервисах вроде Genspark и Perplexity урезанные версии моделей. Серьезно затупить ИИ можно только квантизацией – это дорого и доступно только самим разработчикам моделей. Еще можно снизить настройки в API: уменьшить длину контекста, подрезать ресурсы на рассуждения, накинуть системный промпт, зажимающий модель.
По опыту могу сказать, что Opus 4.5 в Genspark на моих задачах не отличается от версии у Anthropic, а вот GPT-5.2 Thinking хуже из-за поиска в сети. Зато радует GPT-5.2 Pro – медленная, но мощная. У Genspark есть небольшой бесплатный лимит даже на мощные модели – так что можно попробовать и решить для себя.
Предыстория следующая. Я давно работаю с ИИ, но почти не пробовал Claude. После выхода Opus 4.5 решил заполнить пробел, подписался за $20 – и проникся.
Каждый день я пишу много текстов. И если каналом занимаюсь сам, то на новости, техзадания и пресс-релизы уже не хватает сил. GPT-5.2 для текстов совсем не нравится – у Thinking-версии “рубленый” язык, Instant лучше, но все равно на тройку. У Gemini 3 Pro русский хорош, но это рассказчик, а не писатель деловых текстов.
А вот Claude Opus 4.5 попал в мой вкус. Мелкие правки нужны – заменить не переведенное слово, например – но ритм текста отличный. Написанные “Опусом” новости читаются на одном дыхании и не ощущаются как ИИ.
Хороший текст с помощью ИИ нельзя писать одним промптом. Вот как делаю я:
— Прошу собрать информацию по теме. Если история сложная, то на этом этапе подключаю ChatGPT, так как она ищет лучше.
— Даю короткие правила: стиль, длина заголовка, объем новости и еще несколько пунктов.
— Прошу цепляющие заголовки, выбираю лучший, иногда собираю один из двух.
— Если новость сложная, то прошу несколько планов с разными углами подачи, и выбираю лучший. Простая — пишет сразу.
— Прошу “сделай даблчек своей новости”. Если находит ошибки – исправляем.
Уходит 10-15 минут, но есть проблема – подписка Anthropic так ограничена, что недельный лимит на Opus 4.5 у меня заканчивался уже в среду-четверг. И даже Sonnet 4.5 хватало не всегда – а он хуже.
Переходить на план за $100 не хотелось, расставаться с Claude – тоже. Поискал по wrapper-ам – сторонним сервисам, которые дают доступ к ИИ разных компаний в одной подписке и оболочке. Самый известный Perplexity, но в нем Opus только в 200-долларовом плане.
Дальше наткнулся на Genspark – и обалдел. Подписка стоит 25 долларов и дает безлимит к Claude Opus 4.5 (плюс Sonnet и Haiku), Gemini 3 Pro/Flash, Grok 4 и нескольким версиям GPT-5.x. Eсть даже GPT-5.2 Pro, но с выключенным веб-поиском – все-таки очень мощная и дорогая модель.
Бесплатно доступно много рисовалок: Nano Banana Pro, GPT-1.5 Image, Seedream V4.5 и т. д. Еще дают 10 тысяч кредитов, их можно тратить на видео (разные модели, хватит на 60-70 роликов) и агентов. Последних много: для презентаций, дизайна логотипов, глубокого поиска, факт-чекинга и так далее.
Понравился агент для кодинга. Можно собрать простой веб‑проект или full‑stack (аутентификация, backend, база), Flutter‑приложение, либо подключить существующий GitHub‑репозиторий/SSH‑сервер; есть предпросмотр и выгрузка в GitHub/публикация.
В общем, играюсь уже много дней, лишь иногда переключаясь в ChatGPT или Gemini. Но и минусы есть. Для веб-поиска лучше подходит ChatGPT, на худой конец Grok или Perplexity. А в Genspark даже агент глубокого поиска выдает средний результат, а базовый поиск – уровня продвинутого Google.
Интерфейс Genspark сильно перегружен – обычный чат с моделью трудно найти среди иконок разных агентов. Плюс нет моей любимой функции памяти, когда ИИ собирает знания о пользователе и подстраивает ответы под него. Увы, Genspark не работает с российским IP, да и оплачивать сложно – я пополнял App Store США подарочными картами и платил с него.
Еще читатели часто спрашивают, не используются ли в сервисах вроде Genspark и Perplexity урезанные версии моделей. Серьезно затупить ИИ можно только квантизацией – это дорого и доступно только самим разработчикам моделей. Еще можно снизить настройки в API: уменьшить длину контекста, подрезать ресурсы на рассуждения, накинуть системный промпт, зажимающий модель.
По опыту могу сказать, что Opus 4.5 в Genspark на моих задачах не отличается от версии у Anthropic, а вот GPT-5.2 Thinking хуже из-за поиска в сети. Зато радует GPT-5.2 Pro – медленная, но мощная. У Genspark есть небольшой бесплатный лимит даже на мощные модели – так что можно попробовать и решить для себя.
3👍78❤34🔥23
Хотите повысить эффективность с помощью ИИ в 10 раз? Готовьтесь работать в два раза больше!
Это я прямо под новогодние праздники подобрал заголовок, да. Андрей Карпати, один из лучших экспертов по ИИ, опубликовал пост, который актуален для любого, кто работает с нейросетями. Карпати пишет с позиции программиста, но сказанное можно переложить на любую другую область. Вот краткий пересказ от GPT-5.2 Pro:
Работа с нейросетью действительно подразумевает понимание ее устройства. Важно знать, что ИИ не “думает” в человеческом понимании – постоянно и непрерывно – его “сознательность” включается в момент выполнения задачи, и только для нее. Так как ИИ обучают заранее, то у него есть knowledge cutoff – дата, после которой он не помнит события на уровне весов и пытается найти их в сети с переменным успехом. С событиями после нее работаем максимально аккуратно.
Промптинг – отдельное искусство, где, кажется, вообще нереально достичь совершенства. Надо одновременно четко изложить ИИ задачу, дать нужный контекст, но не перегрузить лишними инструкциями и подробностями, которые будут сбивать с толку. А работающее решение важно пересматривать, добавляя актуальную информацию и просто экспериментируя.
Стохастичность ИИ – вещь, которую я до сих пор не принял полностью. Мы привыкли: если что-то запускается на компьютере – это программа, которая выдает один и тот же ожидаемый результат. А если не выдает – в коде ошибка и ее надо поправить.
Дайте ИИ одну и ту же задачу несколько раз – и каждый раз вы получите в чем-то новый ответ. Понять, какой из них лучше – отдельный навык. Равно как и в целом валидация результатов работы ИИ, когда ты проверяешь сомнительные моменты и задаешь уточняющие вопросы.
Скорость развития ИИ просто ураганная. Модели теперь обновляют раз в 1-2 месяца, параллельно выходят новые интерфейсные функции, а сообщество экспериментирует с разными техниками промптинга. Мой коллега, курирующий разработку курсов по ИИ, жалуется, что некоторые курсы по-хорошему надо переделывать сразу после публикации – так быстро все меняется.
Осваивая ИИ, важно не потерять свои навыки – ведь принимать результат его работы и использовать его предстоит вам. Уже не Андрей Карпати, а глава Nvidia Дженсен Хуанг высказал мнение, что благодаря ИИ люди скоро будут работать меньше, но парадоксальным образом станут более занятыми.
Когда ИИ забирает на себя рутину и выполняет ее быстрее, на людях растет нагрузка в другой сфере – принятии решений и готовности нести за них ответственность. А это – одни из самых изматывающих занятий в принципе.
Стать эффективнее с помощью ИИ можно, но потребуется плата за вход: настроить процесс, научиться проверять и обновлять привычки. И в нелегкой задаче освоения ИИ ваш лучший партнер – это сам ИИ (и мой блог, конечно). Когда я хочу выполнить новую задачу с помощью ИИ, то первое, что делаю – спрашиваю саму нейронку, как бы она ее решила, какая информация нужна, сколько понадобится времени, какие есть риски и где потребуется помощь человека.
Впереди каникулы. Выберите задачу, которую было бы интересно выполнять с помощью ИИ. Возьмите одну или несколько нейронок, поясните задачу, соберите варианты решения, попробуйте один или несколько. И тогда в трудовой год вы точно войдете с новыми для себя навыками.
Это я прямо под новогодние праздники подобрал заголовок, да. Андрей Карпати, один из лучших экспертов по ИИ, опубликовал пост, который актуален для любого, кто работает с нейросетями. Карпати пишет с позиции программиста, но сказанное можно переложить на любую другую область. Вот краткий пересказ от GPT-5.2 Pro:
Карпати пишет, что впервые в карьере чувствует себя «отстающим» как программист: за последний год профессия резко меняется, а прямой вклад человека в код становится меньше — многое делают ИИ-инструменты. Чтобы реально получить рост (условные “10x”), нужно освоить новый слой поверх обычной разработки: агенты, промпты, контекст/память, режимы и разрешения, инструменты/плагины, интеграции с IDE и готовые рабочие процессы. При этом работать приходится с сущностями, которые по природе стохастичны, ненадежны и непрозрачны, и все это смешивается с классической инженерией. По ощущениям это как “инопланетная технология без инструкции”: ее раздали всем, и теперь надо срочно учиться ею пользоваться, пока индустрию трясет.
Работа с нейросетью действительно подразумевает понимание ее устройства. Важно знать, что ИИ не “думает” в человеческом понимании – постоянно и непрерывно – его “сознательность” включается в момент выполнения задачи, и только для нее. Так как ИИ обучают заранее, то у него есть knowledge cutoff – дата, после которой он не помнит события на уровне весов и пытается найти их в сети с переменным успехом. С событиями после нее работаем максимально аккуратно.
Промптинг – отдельное искусство, где, кажется, вообще нереально достичь совершенства. Надо одновременно четко изложить ИИ задачу, дать нужный контекст, но не перегрузить лишними инструкциями и подробностями, которые будут сбивать с толку. А работающее решение важно пересматривать, добавляя актуальную информацию и просто экспериментируя.
Стохастичность ИИ – вещь, которую я до сих пор не принял полностью. Мы привыкли: если что-то запускается на компьютере – это программа, которая выдает один и тот же ожидаемый результат. А если не выдает – в коде ошибка и ее надо поправить.
Дайте ИИ одну и ту же задачу несколько раз – и каждый раз вы получите в чем-то новый ответ. Понять, какой из них лучше – отдельный навык. Равно как и в целом валидация результатов работы ИИ, когда ты проверяешь сомнительные моменты и задаешь уточняющие вопросы.
Скорость развития ИИ просто ураганная. Модели теперь обновляют раз в 1-2 месяца, параллельно выходят новые интерфейсные функции, а сообщество экспериментирует с разными техниками промптинга. Мой коллега, курирующий разработку курсов по ИИ, жалуется, что некоторые курсы по-хорошему надо переделывать сразу после публикации – так быстро все меняется.
Осваивая ИИ, важно не потерять свои навыки – ведь принимать результат его работы и использовать его предстоит вам. Уже не Андрей Карпати, а глава Nvidia Дженсен Хуанг высказал мнение, что благодаря ИИ люди скоро будут работать меньше, но парадоксальным образом станут более занятыми.
Когда ИИ забирает на себя рутину и выполняет ее быстрее, на людях растет нагрузка в другой сфере – принятии решений и готовности нести за них ответственность. А это – одни из самых изматывающих занятий в принципе.
Стать эффективнее с помощью ИИ можно, но потребуется плата за вход: настроить процесс, научиться проверять и обновлять привычки. И в нелегкой задаче освоения ИИ ваш лучший партнер – это сам ИИ (и мой блог, конечно). Когда я хочу выполнить новую задачу с помощью ИИ, то первое, что делаю – спрашиваю саму нейронку, как бы она ее решила, какая информация нужна, сколько понадобится времени, какие есть риски и где потребуется помощь человека.
Впереди каникулы. Выберите задачу, которую было бы интересно выполнять с помощью ИИ. Возьмите одну или несколько нейронок, поясните задачу, соберите варианты решения, попробуйте один или несколько. И тогда в трудовой год вы точно войдете с новыми для себя навыками.
3🔥93👍64❤44😁4🥰1
ИИ-пожелания на 2026 год
Прогнозы – неблагодарный жанр, особенно в ИИ, где все переворачивается с ног на голову каждые несколько месяцев. Поэтому для завершения года я выбрал немного другой формат – распишу те вещи, которые я хочу увидеть в ИИ в 2026-м с позиции обычного пользователя.
Расширенная память о пользователе
Почти все исследователи ИИ сходятся в одном: следующим прорывом будет разработка непрерывного обучения моделей и появление “долгой” памяти. Я как раз изучаю эту тему подробнее и пока прихожу к выводу, что в 2026-м мы вряд ли увидим массовое внедрение этих технологий. Есть многообещающие разработки вроде Nested Learning от Google, но пока это экспериментальные прототипы.
Непрерывное обучение нужно скорее для бизнес-задач и пресловутого AGI, а конечному пользователю важно, чтобы ИИ как можно больше знал про него: был в курсе предпочтений, планов, нужных форматов ответов.
Я рассказывал, что сейчас память — это набор фактов + история чатов. Это приносит пользу, но до полной адаптации еще далеко – ИИ часто зацикливаются на одном-двух фактах, плохо понимают контекст, регулярно используя рабочие воспоминания в личных беседах и наоборот.
Сэм Альтман говорил, что текущая память лишь прототип – а в будущей GPT-6 попробуют реализовать полную подстройку ответов под характер пользователя. Вплоть до того, что система научится менять свои политические взгляды. Посмотрим, что получится.
Интерактивные ответы
ИИ называют одним из главных изобретений человечества, но общаемся мы с ним читая и печатая буквы. Даже подобрать картинку в тему и вставить ее в ответ у современных чат-ботов получается не всегда.
При этом модели вроде Nano Banana Pro и GPT Image 1.5 генерируют близкие к достоверным картинки и инфографику, а сами нейронки легко могут навайбкодить небольшой веб-сайт или приложение, когда это нужно.
Уверен, скоро поле для ответа начнет превращаться в интерактивное пространство, куда ИИ будет помещать контент в разных форматах. Это текст и голос, картинки (найденные в сети и сгенерированные самостоятельно), мини-приложения, а со временем – видео и виртуальные пространства, созданные в наследницах Veo 3 и Genie 3.
Агентность
В последние дни много экспериментирую с GPT-5.2 Pro: это мощная модель, но для повседневного использования она дорогая и медленная. Но что мне нравится – GPT-5.2 Pro не стесняется задавать встречные вопросы. Как бы хорошо пользователь не писал промпты, есть риск что-то упустить – ИИ же смотрят на задачу комплексно и такие пропуски подмечают.
И это не Pro-технология – задавать вопросы и обсуждать план выполнения задачи умеют DeepResearch и ChatGPT Agent, которые входят в подписку ChatGPT Plus. Так что теоретически можно добавить уровень “вопросов и планирования” в обычный чат с GPT-5.2, дав совсем другой опыт.
OpenAI зря забросили ChatGPT Agent – просто развивать его надо не отдельно, а как “агентские” функции в основном чат-боте. Мне, например, во время работы с GPT-5.2 часто не хватает виртуального браузера для ИИ, чтобы модель сама “покликала” сайт и рассмотрела графики с таблицами.
Меньше галлюцинаций, лучше поиск, выше скорость
GPT-5.x – первая модель, которой я доверяю на 98%. OpenAI, с одной стороны, снизили уровень галлюцинаций, с другой – реализовали лучший среди нейронок поиск, когда модель проверяет каждое свое утверждение.
Минус – скорость работы. У меня GPT-5.2 регулярно тратит по несколько минут на ответ. С другой стороны, Gemini 3 Pro и Claude Opus 4.5 ищут в сети быстро и поверхностно – поэтому регулярно не добирают нужную информацию. И если Opus 4.5 умеет признавать, когда чего-то не знает, то Gemini 3 Pro регулярно фантазирует откровенную ерунду – из-за этого я свел до минимума работу с этой, интересной на самом деле, моделью. Вот это все надо править для лучшего опыта.
P.S. И, конечно, в 2026-м я жду хотя бы одного большого научного открытия, сделанного при активном участии ИИ – все предпосылки для этого уже есть. Уверен, год будет интересный.
С праздниками!
Прогнозы – неблагодарный жанр, особенно в ИИ, где все переворачивается с ног на голову каждые несколько месяцев. Поэтому для завершения года я выбрал немного другой формат – распишу те вещи, которые я хочу увидеть в ИИ в 2026-м с позиции обычного пользователя.
Расширенная память о пользователе
Почти все исследователи ИИ сходятся в одном: следующим прорывом будет разработка непрерывного обучения моделей и появление “долгой” памяти. Я как раз изучаю эту тему подробнее и пока прихожу к выводу, что в 2026-м мы вряд ли увидим массовое внедрение этих технологий. Есть многообещающие разработки вроде Nested Learning от Google, но пока это экспериментальные прототипы.
Непрерывное обучение нужно скорее для бизнес-задач и пресловутого AGI, а конечному пользователю важно, чтобы ИИ как можно больше знал про него: был в курсе предпочтений, планов, нужных форматов ответов.
Я рассказывал, что сейчас память — это набор фактов + история чатов. Это приносит пользу, но до полной адаптации еще далеко – ИИ часто зацикливаются на одном-двух фактах, плохо понимают контекст, регулярно используя рабочие воспоминания в личных беседах и наоборот.
Сэм Альтман говорил, что текущая память лишь прототип – а в будущей GPT-6 попробуют реализовать полную подстройку ответов под характер пользователя. Вплоть до того, что система научится менять свои политические взгляды. Посмотрим, что получится.
Интерактивные ответы
ИИ называют одним из главных изобретений человечества, но общаемся мы с ним читая и печатая буквы. Даже подобрать картинку в тему и вставить ее в ответ у современных чат-ботов получается не всегда.
При этом модели вроде Nano Banana Pro и GPT Image 1.5 генерируют близкие к достоверным картинки и инфографику, а сами нейронки легко могут навайбкодить небольшой веб-сайт или приложение, когда это нужно.
Уверен, скоро поле для ответа начнет превращаться в интерактивное пространство, куда ИИ будет помещать контент в разных форматах. Это текст и голос, картинки (найденные в сети и сгенерированные самостоятельно), мини-приложения, а со временем – видео и виртуальные пространства, созданные в наследницах Veo 3 и Genie 3.
Агентность
В последние дни много экспериментирую с GPT-5.2 Pro: это мощная модель, но для повседневного использования она дорогая и медленная. Но что мне нравится – GPT-5.2 Pro не стесняется задавать встречные вопросы. Как бы хорошо пользователь не писал промпты, есть риск что-то упустить – ИИ же смотрят на задачу комплексно и такие пропуски подмечают.
И это не Pro-технология – задавать вопросы и обсуждать план выполнения задачи умеют DeepResearch и ChatGPT Agent, которые входят в подписку ChatGPT Plus. Так что теоретически можно добавить уровень “вопросов и планирования” в обычный чат с GPT-5.2, дав совсем другой опыт.
OpenAI зря забросили ChatGPT Agent – просто развивать его надо не отдельно, а как “агентские” функции в основном чат-боте. Мне, например, во время работы с GPT-5.2 часто не хватает виртуального браузера для ИИ, чтобы модель сама “покликала” сайт и рассмотрела графики с таблицами.
Меньше галлюцинаций, лучше поиск, выше скорость
GPT-5.x – первая модель, которой я доверяю на 98%. OpenAI, с одной стороны, снизили уровень галлюцинаций, с другой – реализовали лучший среди нейронок поиск, когда модель проверяет каждое свое утверждение.
Минус – скорость работы. У меня GPT-5.2 регулярно тратит по несколько минут на ответ. С другой стороны, Gemini 3 Pro и Claude Opus 4.5 ищут в сети быстро и поверхностно – поэтому регулярно не добирают нужную информацию. И если Opus 4.5 умеет признавать, когда чего-то не знает, то Gemini 3 Pro регулярно фантазирует откровенную ерунду – из-за этого я свел до минимума работу с этой, интересной на самом деле, моделью. Вот это все надо править для лучшего опыта.
P.S. И, конечно, в 2026-м я жду хотя бы одного большого научного открытия, сделанного при активном участии ИИ – все предпосылки для этого уже есть. Уверен, год будет интересный.
С праздниками!
3❤107👍52🔥33🥰9😁1
Две на первый взгляд не связанные новости
Во второй половине 2025 года цены на память улетели в небеса: 2х16 ГБ DDR5 стали стоить примерно в два раза дороже. Причина – ИИ-бум. Современные модели требуют огромное количество памяти: если на один ускоритель Nvidia H100 ставили 80 ГБ, то B200 несет уже 192 ГБ, а B300 – 288 ГБ.
Плюс ускорители упираются в пропускную способность памяти. Поэтому та же Nvidia использует скоростную HBM3e и планирует перейти на HBM4/HBM4e. Производство HBM выгоднее – поэтому производители переориентируются на нее с DDR5.
Нарастить выпуск памяти обещают к 2027 году. Nvidia параллельно ищет, где сэкономить. Компания готовит ускоритель Rubin CPX, предназначенный специально для инференса (запуска ИИ для пользователей) – задача менее требовательная к памяти, поэтому хватит всего 128 ГБ DDR7.
В конце 2025-го компания отвалила 20 млрд долларов за стартап Groq – его основал Джонатан Росс, создатель Google TPU, ИИ-ускорителей, которые сейчас конкурируют с Nvidia. Groq также сосредоточился на инференсе и у компании интересное решение: используется быстрая SRAM прямо на кристалле. Она еще дороже, но есть шанс, что финальное решение будет более экономичным за счет скорости.
В общем, надежда на стабилизацию в 2027-м вроде и есть, но тут на арену выходит Уильям Стэнли Джевонс с “парадоксом Джевонса”: чем дешевле становится та или иная услуга, тем активнее ее начинают использовать.
Сейчас массовое использование ИИ – это чат-боты, которые генерят ответ за секунды, а потом “засыпают”. Следующий этап – ИИ-агенты, которые непрерывно работают десятки минут, все это время нагружая GPU. А в отдаленном будущем нас ждут наследницы Genie 3, генерирующие полноценные виртуальные миры.
Поэтому прогноз по ценам скорее грустный. Маловероятно, что увлечение ИИ окажется пузырем, который с треском лопнет. Скорее мощная локальная электроника на долгое время станет дорогим удовольствием. Из-за роста цен на DDR5 и SSD собрать ПК уже стоит больше, чем годом ранее. Дорожают видеокарты и ноутбуки, следом подтянутся смартфоны и консоли; выход новинок могут отложить – по слухам, это уже обсуждают для GeForce.
Теперь ко второй новости – появились утечки об ИИ-устройствах OpenAI. Источники называют AR-очки, умные колонки, но самый забавный вариант – умная ручка. Это стилус, который общается с пользователем голосом и оснащен камерой, чтобы “видеть” обстановку вокруг. А при подключении к более крупному устройству сможет преобразовывать рукописный ввод в текст. Производство разворачивается на мощностях Foxconn, продажи ждем к концу 2026-го.
Идея выглядит странной, но не буду оценивать перспективы устройства. Интереснее другое: подорожание железа может привести к смене концепции с “мощные ПК/лэптоп и смартфон + ChatGPT Plus” на “дорогая ИИ-подписка (или даже несколько) + “тонкие” устройства”.
Вычисления уедут в облако и в чем-то это будет даже плюсом: “входной билет” может оказаться дешевле (особенно если введут “промежуточные” 50-долларовые тарифные планы для ИИ), а возможности ИИ растут каждые 2-3 месяца. Дешевое локальное железо не так греется и лучше работает от батареи – и служит дольше.
Но и минусы очевидны. Вырастет зависимость от ИИ-провайдеров – от изменений цены подписки до передачи личной информации. Критической станет зависимость от интернет-соединения. Подорожают задачи, все еще требующие вычислительной мощности на месте – от экспериментов с локальными моделями до большинства видеоигр.
В итоге мы можем получить расслоение: массовый пользователь на тонких клиентах с подписками, и энтузиасты/профессионалы, готовые платить премиум за локальную мощность. Примерно как сейчас с фотографией – большинству хватает смартфона, но профессиональные камеры никуда не делись. Вопрос в том, где окажется граница между этими мирами – и сколько будет стоить ее пересечь.
Во второй половине 2025 года цены на память улетели в небеса: 2х16 ГБ DDR5 стали стоить примерно в два раза дороже. Причина – ИИ-бум. Современные модели требуют огромное количество памяти: если на один ускоритель Nvidia H100 ставили 80 ГБ, то B200 несет уже 192 ГБ, а B300 – 288 ГБ.
Плюс ускорители упираются в пропускную способность памяти. Поэтому та же Nvidia использует скоростную HBM3e и планирует перейти на HBM4/HBM4e. Производство HBM выгоднее – поэтому производители переориентируются на нее с DDR5.
Нарастить выпуск памяти обещают к 2027 году. Nvidia параллельно ищет, где сэкономить. Компания готовит ускоритель Rubin CPX, предназначенный специально для инференса (запуска ИИ для пользователей) – задача менее требовательная к памяти, поэтому хватит всего 128 ГБ DDR7.
В конце 2025-го компания отвалила 20 млрд долларов за стартап Groq – его основал Джонатан Росс, создатель Google TPU, ИИ-ускорителей, которые сейчас конкурируют с Nvidia. Groq также сосредоточился на инференсе и у компании интересное решение: используется быстрая SRAM прямо на кристалле. Она еще дороже, но есть шанс, что финальное решение будет более экономичным за счет скорости.
В общем, надежда на стабилизацию в 2027-м вроде и есть, но тут на арену выходит Уильям Стэнли Джевонс с “парадоксом Джевонса”: чем дешевле становится та или иная услуга, тем активнее ее начинают использовать.
Сейчас массовое использование ИИ – это чат-боты, которые генерят ответ за секунды, а потом “засыпают”. Следующий этап – ИИ-агенты, которые непрерывно работают десятки минут, все это время нагружая GPU. А в отдаленном будущем нас ждут наследницы Genie 3, генерирующие полноценные виртуальные миры.
Поэтому прогноз по ценам скорее грустный. Маловероятно, что увлечение ИИ окажется пузырем, который с треском лопнет. Скорее мощная локальная электроника на долгое время станет дорогим удовольствием. Из-за роста цен на DDR5 и SSD собрать ПК уже стоит больше, чем годом ранее. Дорожают видеокарты и ноутбуки, следом подтянутся смартфоны и консоли; выход новинок могут отложить – по слухам, это уже обсуждают для GeForce.
Теперь ко второй новости – появились утечки об ИИ-устройствах OpenAI. Источники называют AR-очки, умные колонки, но самый забавный вариант – умная ручка. Это стилус, который общается с пользователем голосом и оснащен камерой, чтобы “видеть” обстановку вокруг. А при подключении к более крупному устройству сможет преобразовывать рукописный ввод в текст. Производство разворачивается на мощностях Foxconn, продажи ждем к концу 2026-го.
Идея выглядит странной, но не буду оценивать перспективы устройства. Интереснее другое: подорожание железа может привести к смене концепции с “мощные ПК/лэптоп и смартфон + ChatGPT Plus” на “дорогая ИИ-подписка (или даже несколько) + “тонкие” устройства”.
Вычисления уедут в облако и в чем-то это будет даже плюсом: “входной билет” может оказаться дешевле (особенно если введут “промежуточные” 50-долларовые тарифные планы для ИИ), а возможности ИИ растут каждые 2-3 месяца. Дешевое локальное железо не так греется и лучше работает от батареи – и служит дольше.
Но и минусы очевидны. Вырастет зависимость от ИИ-провайдеров – от изменений цены подписки до передачи личной информации. Критической станет зависимость от интернет-соединения. Подорожают задачи, все еще требующие вычислительной мощности на месте – от экспериментов с локальными моделями до большинства видеоигр.
В итоге мы можем получить расслоение: массовый пользователь на тонких клиентах с подписками, и энтузиасты/профессионалы, готовые платить премиум за локальную мощность. Примерно как сейчас с фотографией – большинству хватает смартфона, но профессиональные камеры никуда не делись. Вопрос в том, где окажется граница между этими мирами – и сколько будет стоить ее пересечь.
2👍90❤38🔥28👏2
Вайб-кодинг: демократия или анархия?
На днях прочел пост Игоря про то, как неугомонный наш Андрей Карпати с помощью Claude Code расковырял API Lutron – это американская компания, которая выпускает системы умного дома. Claude самостоятельно нашел контроллеры Lutron в домашней Wi-Fi-сети и подключился к ним. Затем нашел в интернете документацию, обнаружил все устройства, подключился к ним и для теста, включил и выключил свет. Так как Карпати не нравится официальное приложение Lutron, то теперь он пишет собственный “центр управления” домом.
Мы вступаем в интересную эпоху. API есть у множества разных продуктов, а порог входа в вайб-кодинг снижается с каждым месяцем. Не нужно быть Андреем Карпати, чтобы создать собственное приложение для фитнес-браслета, хитрую надстройку над банковским софтом и даже систему управления сельхозфермой.
Но есть и обратная сторона. Каким бы кривым не было официальное приложение, ответственность за его работу несет сама компания. Что-то пошло не так – обращаемся в поддержку или даже идем в суд. Когда приложение криво завайбкодили вы сами – то и отвечать вам. И хорошо, если оно будет просто моргать светом, а не заблокирует входную дверь или не выставит ночью отопление на максимум. И я молчу про дыры в безопасности – их в таком софте окажется больше.
Выходов вижу два. Во-первых, не забывать использовать ИИ для тестирования – хотя бы попросить ту же нейронку, с помощью которой вайбкодили, прогнать базовые тесты (llm их знают, просто надо отдельный промпт). Во-вторых, практически уверен, что со временем появятся приложения с “ИИ-слоем” – грубо говоря, профессиональный разработчик все еще отвечает за движок, а пользователь с помощью нейронки создает интерфейс, который нравится и подходит под его задачи. Интересно посмотреть, кто первый додумается до такой штуки.
Еще раз рекомендую канал Игоря Tips AI | IT & AI. Это один из каналов, которые я регулярно читаю на тему ИИ, беру оттуда не только свежие новости, но и интересные идеи. Про Claude Code у него, кстати, есть отдельный лонгрид с 50 примерами необычного использования.
На днях прочел пост Игоря про то, как неугомонный наш Андрей Карпати с помощью Claude Code расковырял API Lutron – это американская компания, которая выпускает системы умного дома. Claude самостоятельно нашел контроллеры Lutron в домашней Wi-Fi-сети и подключился к ним. Затем нашел в интернете документацию, обнаружил все устройства, подключился к ним и для теста, включил и выключил свет. Так как Карпати не нравится официальное приложение Lutron, то теперь он пишет собственный “центр управления” домом.
Мы вступаем в интересную эпоху. API есть у множества разных продуктов, а порог входа в вайб-кодинг снижается с каждым месяцем. Не нужно быть Андреем Карпати, чтобы создать собственное приложение для фитнес-браслета, хитрую надстройку над банковским софтом и даже систему управления сельхозфермой.
Но есть и обратная сторона. Каким бы кривым не было официальное приложение, ответственность за его работу несет сама компания. Что-то пошло не так – обращаемся в поддержку или даже идем в суд. Когда приложение криво завайбкодили вы сами – то и отвечать вам. И хорошо, если оно будет просто моргать светом, а не заблокирует входную дверь или не выставит ночью отопление на максимум. И я молчу про дыры в безопасности – их в таком софте окажется больше.
Выходов вижу два. Во-первых, не забывать использовать ИИ для тестирования – хотя бы попросить ту же нейронку, с помощью которой вайбкодили, прогнать базовые тесты (llm их знают, просто надо отдельный промпт). Во-вторых, практически уверен, что со временем появятся приложения с “ИИ-слоем” – грубо говоря, профессиональный разработчик все еще отвечает за движок, а пользователь с помощью нейронки создает интерфейс, который нравится и подходит под его задачи. Интересно посмотреть, кто первый додумается до такой штуки.
Еще раз рекомендую канал Игоря Tips AI | IT & AI. Это один из каналов, которые я регулярно читаю на тему ИИ, беру оттуда не только свежие новости, но и интересные идеи. Про Claude Code у него, кстати, есть отдельный лонгрид с 50 примерами необычного использования.
Telegram
Tips AI | IT & AI
Про возможности Claude Code
Вчера у Андрея Карпаты вышел интересный пост — он решил посмотреть, сможет ли Claude Code залезть в его домашнюю автоматизацию Lutron.
CC нашёл контроллеры в локалке, просканировал порты, сам нагуглил документацию, объяснил…
Вчера у Андрея Карпаты вышел интересный пост — он решил посмотреть, сможет ли Claude Code залезть в его домашнюю автоматизацию Lutron.
CC нашёл контроллеры в локалке, просканировал порты, сам нагуглил документацию, объяснил…
1👍37❤16🔥6😁3🥰1👏1
Пал Эрдёш, GPT-5.2 Pro и Aristotle
Пал Эрдёш (1913–1996) – легендарный венгерский математик, один из самых продуктивных в истории. Он посвятил всю жизнь математике и опубликовал более 1500 научных статей, а также оставил после себя список “задач Эрдёша” – проблем математики, за решение которых он был готов заплатить от 25 до 10 000 долларов.
Сегодня решением списка Эрдёша занимаются на сайте erdosproblems.com, где собрано 1133 задачи, из которых только 40% закрыты. Стоит отметить, что это не список всех главных задач математики, а скорее список проблем, которые волновали самого Пала. Задачи неоднородные по сложности, а также важности для науки.
На erdosproblems.com собралось совершенно уникальное коммьюнити. С одной стороны, решением проблем занимается Теренс Тао – живая легенда математики. С другой – в сообществе рады аспирантам, студентам и просто любителям. А с недавнего времени там активно экспериментируют с ИИ: задачи Эрдёша – идеальный способ оценить, справляются ли современные нейросети с серьезной наукой.
Первая попытка завершилась курьезом. Когда осенью нерешенные задачи Эрдёша скормили GPT-5 Pro та… неожиданно для всех нашла уже существовавшие решения для более десятка примеров. Это подсветило другую проблему современной науки: когда ежегодно публикуется около 3 млн научных статей, есть шанс, что какая-то работа просто затеряется.
Несколько раз системы вроде GPT-5 Pro, Google AlphaEvolve и Aristotle (про нее позже) подбирались к решению действительно открытых проблем, но в последний момент все обидно срывалось – были даже случаи, когда люди-математики обходили ИИ буквально на недели.
И вот – свершилось. 6 января стало известно, что связка GPT-5.2 Thinking, GPT-5.2 Pro и Aristotle решила задачу Эрдёша #728 – открытую проблему о делимости факториалов, поставленную в 1975 году. Студент-математик под ником AcerFur (KStarGamer_) и пользователь Reddit ThunderBeanage показали, что для любых констант 0 < C₁ < C₂ существует бесконечно много решений с b = n/2, a = n/2 + O(log n), что соответствует изначальному замыслу авторов задачи. Успешное решение подтвердил Теренс Тао.
Интересна организация работы. Сначала использовали более дешевую GPT-5.2 Thinking, которая исследовала задачу и предложила подход к решению. GPT-5.2 Pro далее генерировала идеи и оформила неформальное доказательство в LaTeX – на этом этапе модель совершила ошибки, но после того, как ей на них указали, все исправила.
Последним включился Aristotle. Это специальный математический ИИ, который переводит доказательства в Lean – фактически это “язык программирования” для математики, с помощью которого любое решение можно проверить компьютером на отсутствие ошибок.
Задача #728 считается “низковисящим фруктом” – она не очень сложна и не слишком важна для “большой” науки, поэтому профессиональные математики до нее просто не добрались. Но как написал Томас Блум из Манчестерского университета: “Это первый случай, когда AI сгенерировал доказательство, с которым аспирант мог бы прийти ко мне, и я бы сказал — это стоит опубликовать”.
И знаете, это ценно само по себе. В свежем видео физик и популяризатор науки Сабина Хоссенфельдер заявляет, что в ближайшие 3-10 лет ИИ изменит науку до неузнаваемости. Мнение Сабины в том, что “интеллект” просто станет ресурсом, который можно купить за деньги. Зачем руководителям научных лабораторий нанимать студентов и молодых ученых для "черновой" работы, если можно будет оплатить вычислительное время условной GPT-7 Pro?
Это важное предостережение, но отмечу, что задачу #728 с помощью ИИ решили не “руководители”, а студент-математик и просто любитель с Реддита. Раз за разом случается интересная история: пока нас пугают, что ИИ станет мега-оружием в руках корпораций, которые предпочтут его людям, практика показывает противоположение – совершенно обычные люди с помощью общедоступных моделей творят будущее.
Ждем GPT-5.5 Pro и новых открытий.
Пал Эрдёш (1913–1996) – легендарный венгерский математик, один из самых продуктивных в истории. Он посвятил всю жизнь математике и опубликовал более 1500 научных статей, а также оставил после себя список “задач Эрдёша” – проблем математики, за решение которых он был готов заплатить от 25 до 10 000 долларов.
Сегодня решением списка Эрдёша занимаются на сайте erdosproblems.com, где собрано 1133 задачи, из которых только 40% закрыты. Стоит отметить, что это не список всех главных задач математики, а скорее список проблем, которые волновали самого Пала. Задачи неоднородные по сложности, а также важности для науки.
На erdosproblems.com собралось совершенно уникальное коммьюнити. С одной стороны, решением проблем занимается Теренс Тао – живая легенда математики. С другой – в сообществе рады аспирантам, студентам и просто любителям. А с недавнего времени там активно экспериментируют с ИИ: задачи Эрдёша – идеальный способ оценить, справляются ли современные нейросети с серьезной наукой.
Первая попытка завершилась курьезом. Когда осенью нерешенные задачи Эрдёша скормили GPT-5 Pro та… неожиданно для всех нашла уже существовавшие решения для более десятка примеров. Это подсветило другую проблему современной науки: когда ежегодно публикуется около 3 млн научных статей, есть шанс, что какая-то работа просто затеряется.
Несколько раз системы вроде GPT-5 Pro, Google AlphaEvolve и Aristotle (про нее позже) подбирались к решению действительно открытых проблем, но в последний момент все обидно срывалось – были даже случаи, когда люди-математики обходили ИИ буквально на недели.
И вот – свершилось. 6 января стало известно, что связка GPT-5.2 Thinking, GPT-5.2 Pro и Aristotle решила задачу Эрдёша #728 – открытую проблему о делимости факториалов, поставленную в 1975 году. Студент-математик под ником AcerFur (KStarGamer_) и пользователь Reddit ThunderBeanage показали, что для любых констант 0 < C₁ < C₂ существует бесконечно много решений с b = n/2, a = n/2 + O(log n), что соответствует изначальному замыслу авторов задачи. Успешное решение подтвердил Теренс Тао.
Интересна организация работы. Сначала использовали более дешевую GPT-5.2 Thinking, которая исследовала задачу и предложила подход к решению. GPT-5.2 Pro далее генерировала идеи и оформила неформальное доказательство в LaTeX – на этом этапе модель совершила ошибки, но после того, как ей на них указали, все исправила.
Последним включился Aristotle. Это специальный математический ИИ, который переводит доказательства в Lean – фактически это “язык программирования” для математики, с помощью которого любое решение можно проверить компьютером на отсутствие ошибок.
Задача #728 считается “низковисящим фруктом” – она не очень сложна и не слишком важна для “большой” науки, поэтому профессиональные математики до нее просто не добрались. Но как написал Томас Блум из Манчестерского университета: “Это первый случай, когда AI сгенерировал доказательство, с которым аспирант мог бы прийти ко мне, и я бы сказал — это стоит опубликовать”.
И знаете, это ценно само по себе. В свежем видео физик и популяризатор науки Сабина Хоссенфельдер заявляет, что в ближайшие 3-10 лет ИИ изменит науку до неузнаваемости. Мнение Сабины в том, что “интеллект” просто станет ресурсом, который можно купить за деньги. Зачем руководителям научных лабораторий нанимать студентов и молодых ученых для "черновой" работы, если можно будет оплатить вычислительное время условной GPT-7 Pro?
Это важное предостережение, но отмечу, что задачу #728 с помощью ИИ решили не “руководители”, а студент-математик и просто любитель с Реддита. Раз за разом случается интересная история: пока нас пугают, что ИИ станет мега-оружием в руках корпораций, которые предпочтут его людям, практика показывает противоположение – совершенно обычные люди с помощью общедоступных моделей творят будущее.
Ждем GPT-5.5 Pro и новых открытий.
3🔥105👍45❤31👏13🥰3😁3
Как оплачивать популярные ИИ из России?
Часто пишут с таким вопросом, поэтому решил сделать отдельный пост. Но сразу отмечу – идеального способа платить из РФ нет. Везде свои риски, поэтому давайте договоримся: если выберете один из перечисленных далее – ответственность лежит на вас. Я для себя выработал простое правило: быть готовым к тому, что сумма, которую я потратил на ИИ, может “сгореть”. Хотя пока проносило.
Карта зарубежного банка
Вариант удобен тем, что платеж под вашим контролем: заводите аккаунт страны, в которой выпустили карту, вбиваете данные – и все. Остальное, увы, не так здорово. Хотя бы потому, что цены у посредников начинаются от 20 тысяч рублей за карты стран СНГ и Турции – разумно, если оплачиваете много подписок.
Чтобы минимизировать риск нарваться на мошенников, ищите компанию с большим количеством отзывов, которая давно ведет соцсети и блоги на крупных площадках. Есть небольшая вероятность, что что-то поменяется в законах страны выпуска карты или в правилах выпустившего банка – и вы останетесь без карточки.
Услуги посредников
Находим посредника, оплачиваем стоимость подписки и комиссию (примерно 10-25%), передаем аккаунт, он заходит на него и оплачивает. Как и в случае с оформлением карты, стоит искать посредника с активными соцсетями и блогами. А если пользуетесь маркет-площадкой – смотрите на количество отзывов и как долго работает. (один из подписчиков посоветовал МТС-оплату — как пропробую, расскажу)
Минус в необходимости передачи аккаунта ИИ третьему лицу. По логике риск небольшой: фирмы зарабатывают на посреднических услугах и любая утечка ударит по репутации. Но как выстроена работа, кто занимается оплатой, насколько высока надежность этих сотрудников – неизвестно, так что осторожнее.
Если решите воспользоваться способом, то поменяйте пароль на время оплаты, а также убедитесь, что не обсуждали с ИИ какие-то чувствительные темы (например, пароли и прочие доступы к другим своим аккаунтам).
Подарочные карты App Store
Муторный, но сравнительно безопасный способ. Сначала надо купить на посреднической площадке аккаунт App Store США. Вообще он обязателен любому пользователю iOS/MacOS, так как без него не скачать приложения большинства нейросетей – их в российском регионе просто нет.
Затем на тех же площадках покупаются подарочные карты США на нужный номинал и активируются на аккаунт. Когда система запросит платежный адрес – ищите на Google Maps отель во Флориде (в этом штате не платят налог при онлайн-платежах) и вбивайте его адрес. И платите со счета аккаунта.
Кстати, в российском App Store можно официально оплатить подписку Perplexity – платежи проходят с МТС и Билайна.
Кроилово и возможное попадалово
Теперь переходим к вариантам сэкономить и их рискам.
– Аккаунты ChatGPT Plus за 300 рублей и ChatGPT Pro за 2 000 рублей. В лучшем случае это официальная подписка, которую продадут параллельно нескольким десяткам пользователей. Работать, когда ваши запросы видны куче народа – то еще удовольствие.
– Годовые аккаунты Perplexity и Google AI Pro за 200-1000 рублей. В случае с Perplexity речь о промо-кодах, которые компания распространяла в ходе акций и которые теперь перепродают. Их в последнее время стали активно банить, так что не рекомендую. Дешевые Google AI Pro – это студенческие годовые подписки, которые Google раздает в разных странах в подарок. Так как их создают на подставные e-mail и сразу пачками, то риск попасть под бан тоже высок.
– Способ сэкономить с Google AI Pro – скинуться с друзьями, купить подписку и разделить ее в рамках семейного доступа. В семью можно добавить до шести аккаунтов, в таком случае подписка каждому обойдется в 3 с небольшим доллара.
– Иногда попадаются варианты Grok ценой примерно в 1000 рублей. Это оплата из региона Индии, там Грок в три раза дешевле. Минус – нужно передавать аккаунт третьему лицу.
Если знаете еще работающие варианты – кидайте в бота. И будьте осторожны при оплате!
Часто пишут с таким вопросом, поэтому решил сделать отдельный пост. Но сразу отмечу – идеального способа платить из РФ нет. Везде свои риски, поэтому давайте договоримся: если выберете один из перечисленных далее – ответственность лежит на вас. Я для себя выработал простое правило: быть готовым к тому, что сумма, которую я потратил на ИИ, может “сгореть”. Хотя пока проносило.
Карта зарубежного банка
Вариант удобен тем, что платеж под вашим контролем: заводите аккаунт страны, в которой выпустили карту, вбиваете данные – и все. Остальное, увы, не так здорово. Хотя бы потому, что цены у посредников начинаются от 20 тысяч рублей за карты стран СНГ и Турции – разумно, если оплачиваете много подписок.
Чтобы минимизировать риск нарваться на мошенников, ищите компанию с большим количеством отзывов, которая давно ведет соцсети и блоги на крупных площадках. Есть небольшая вероятность, что что-то поменяется в законах страны выпуска карты или в правилах выпустившего банка – и вы останетесь без карточки.
Услуги посредников
Находим посредника, оплачиваем стоимость подписки и комиссию (примерно 10-25%), передаем аккаунт, он заходит на него и оплачивает. Как и в случае с оформлением карты, стоит искать посредника с активными соцсетями и блогами. А если пользуетесь маркет-площадкой – смотрите на количество отзывов и как долго работает. (один из подписчиков посоветовал МТС-оплату — как пропробую, расскажу)
Минус в необходимости передачи аккаунта ИИ третьему лицу. По логике риск небольшой: фирмы зарабатывают на посреднических услугах и любая утечка ударит по репутации. Но как выстроена работа, кто занимается оплатой, насколько высока надежность этих сотрудников – неизвестно, так что осторожнее.
Если решите воспользоваться способом, то поменяйте пароль на время оплаты, а также убедитесь, что не обсуждали с ИИ какие-то чувствительные темы (например, пароли и прочие доступы к другим своим аккаунтам).
Подарочные карты App Store
Муторный, но сравнительно безопасный способ. Сначала надо купить на посреднической площадке аккаунт App Store США. Вообще он обязателен любому пользователю iOS/MacOS, так как без него не скачать приложения большинства нейросетей – их в российском регионе просто нет.
Затем на тех же площадках покупаются подарочные карты США на нужный номинал и активируются на аккаунт. Когда система запросит платежный адрес – ищите на Google Maps отель во Флориде (в этом штате не платят налог при онлайн-платежах) и вбивайте его адрес. И платите со счета аккаунта.
Кстати, в российском App Store можно официально оплатить подписку Perplexity – платежи проходят с МТС и Билайна.
Кроилово и возможное попадалово
Теперь переходим к вариантам сэкономить и их рискам.
– Аккаунты ChatGPT Plus за 300 рублей и ChatGPT Pro за 2 000 рублей. В лучшем случае это официальная подписка, которую продадут параллельно нескольким десяткам пользователей. Работать, когда ваши запросы видны куче народа – то еще удовольствие.
– Годовые аккаунты Perplexity и Google AI Pro за 200-1000 рублей. В случае с Perplexity речь о промо-кодах, которые компания распространяла в ходе акций и которые теперь перепродают. Их в последнее время стали активно банить, так что не рекомендую. Дешевые Google AI Pro – это студенческие годовые подписки, которые Google раздает в разных странах в подарок. Так как их создают на подставные e-mail и сразу пачками, то риск попасть под бан тоже высок.
– Способ сэкономить с Google AI Pro – скинуться с друзьями, купить подписку и разделить ее в рамках семейного доступа. В семью можно добавить до шести аккаунтов, в таком случае подписка каждому обойдется в 3 с небольшим доллара.
– Иногда попадаются варианты Grok ценой примерно в 1000 рублей. Это оплата из региона Индии, там Грок в три раза дешевле. Минус – нужно передавать аккаунт третьему лицу.
Если знаете еще работающие варианты – кидайте в бота. И будьте осторожны при оплате!
2🔥54❤26👍23😁5👏2
Джевонс придет и всех спасет
Я недавно упоминал парадокс Джевонса – когда ресурс становится эффективнее за счет лучших технологий, спрос на него не падает, а растет. Когда в XIX веке паровые двигатели стали эффективнее, потребление угля не упало, а взлетело – удешевление технологии открыло новые области применения.
Сооснователь Django и ИИ-энтузиаст Саймон Уилсон в подкасте Oxide and Friends задался вопросом: может ли парадокс Джевонса сработать для рынка программирования? Все боятся, что пишущий код ИИ сделает программистов ненужными – но что, если случится противоположная ситуация? Интересно, что размышления Уилсона можно примерить и на другие профессии, где велико влияние ИИ.
Смотрите, возможны два варианта:
— ИИ делает код дешевле в 10 раз > спрос на программистов падает в 10 раз.
— ИИ делает код дешевле в 10 раз > небольшие компании и даже одиночки начинают заказывать кастомный софт под свои задачи > спрос на программистов взрывается.
От себя добавлю, что у второго варианта есть четкая почва – программирование всю историю шло по пути упрощения. Когда в 1950-е годы Грейс Хоппер продвигала идею компиляторов, которые позволили бы писать код не на ассемблере, а на языке, похожем на английский, это поначалу встречало огромное сопротивление. Считалось, что написанный таким образом код будет медленным и нестабильным, не позволит контролировать систему напрямую и все это в итоге плохо кончится.
Грейс Хоппер в итоге запустила первый компилятор A-0 (1952 год) и первый привычный язык программирования “на словах” FLOW-MATIC (1956 год) – и это стало началом революции. Уже к концу 1950-х более половины кода в той же IBM писалось на языке Fortran. Вход в профессию стал проще, а разработка программ – доступнее.
Этот тренд сохраняется и по сей день – тот же самый Python популярен во многом именно благодаря похожести на английский язык. Самое же интересное, что ассемблерщики в итоге не пострадали: умение программировать на низком уровне критично, если речь о ядрах операционных систем, драйверах устройств, микроконтроллерах и многом другом. Да и для написания компиляторов с более высокоуровневых языков надо знать ассемблер. Я не нашел цифр, но уверен, сегодня ассемблерщиков даже больше, чем в начале 50-х.
Современные ИИ-инструменты продолжают этот тренд, более того – они делают кодинг доступным практически каждому. Я подарил себе на Новый год подписку Claude Max, все каникулы экспериментировал с Claude Code – и в восторге от возможностей, которые он открывает простому смертному.
Собрать сайт с промптами и разместить его на VPS? Реально – первый прототип был готов уже за вечер. Причем речь не о визитке, а о сайте с админкой, системой тегов, лайками и дизлайками и даже заделом на будущее, чтобы пользователи сами смогли предлагать промпты (но для начала надо добить прототип). Пять вариантов “Змейки” с разными правилами? Легко – причем Claude сам предлагал идеи, как доработать и сбалансировать игровой процесс.
Если раньше огромное количество средних и небольших бизнесов не могли позволить софт под собственные запросы (даже банальный качественный сайт в сети) – то теперь что-то приличное можно сделать даже самому, оплатив подписку на ИИ. При этом профессия программиста тоже выиграет: кто-то сделает сам, кто-то – заплатит профессионалу, который с помощью той же нейронки соберет еще быстрее и лучше.
Конечно, не все радужно. Слабым звеном обычно называют профессию джуна – зачем нанимать и обучать новичка, если с его задачами справляется ИИ? Джуны не будут "вырастать" в специалистов более высокого уровня – но это более отдаленная проблема.
С другой стороны – я часто читаю, что AI-first компании, наоборот, любят нанимать джунов, так как они быстрее и лучше осваивают ИИ. Не исключено, что это выход. Или рынок сложится как-то соверешнно иначе – Уилсон считает, что первые результаты мы увидим через три года.
Я недавно упоминал парадокс Джевонса – когда ресурс становится эффективнее за счет лучших технологий, спрос на него не падает, а растет. Когда в XIX веке паровые двигатели стали эффективнее, потребление угля не упало, а взлетело – удешевление технологии открыло новые области применения.
Сооснователь Django и ИИ-энтузиаст Саймон Уилсон в подкасте Oxide and Friends задался вопросом: может ли парадокс Джевонса сработать для рынка программирования? Все боятся, что пишущий код ИИ сделает программистов ненужными – но что, если случится противоположная ситуация? Интересно, что размышления Уилсона можно примерить и на другие профессии, где велико влияние ИИ.
Смотрите, возможны два варианта:
— ИИ делает код дешевле в 10 раз > спрос на программистов падает в 10 раз.
— ИИ делает код дешевле в 10 раз > небольшие компании и даже одиночки начинают заказывать кастомный софт под свои задачи > спрос на программистов взрывается.
От себя добавлю, что у второго варианта есть четкая почва – программирование всю историю шло по пути упрощения. Когда в 1950-е годы Грейс Хоппер продвигала идею компиляторов, которые позволили бы писать код не на ассемблере, а на языке, похожем на английский, это поначалу встречало огромное сопротивление. Считалось, что написанный таким образом код будет медленным и нестабильным, не позволит контролировать систему напрямую и все это в итоге плохо кончится.
Грейс Хоппер в итоге запустила первый компилятор A-0 (1952 год) и первый привычный язык программирования “на словах” FLOW-MATIC (1956 год) – и это стало началом революции. Уже к концу 1950-х более половины кода в той же IBM писалось на языке Fortran. Вход в профессию стал проще, а разработка программ – доступнее.
Этот тренд сохраняется и по сей день – тот же самый Python популярен во многом именно благодаря похожести на английский язык. Самое же интересное, что ассемблерщики в итоге не пострадали: умение программировать на низком уровне критично, если речь о ядрах операционных систем, драйверах устройств, микроконтроллерах и многом другом. Да и для написания компиляторов с более высокоуровневых языков надо знать ассемблер. Я не нашел цифр, но уверен, сегодня ассемблерщиков даже больше, чем в начале 50-х.
Современные ИИ-инструменты продолжают этот тренд, более того – они делают кодинг доступным практически каждому. Я подарил себе на Новый год подписку Claude Max, все каникулы экспериментировал с Claude Code – и в восторге от возможностей, которые он открывает простому смертному.
Собрать сайт с промптами и разместить его на VPS? Реально – первый прототип был готов уже за вечер. Причем речь не о визитке, а о сайте с админкой, системой тегов, лайками и дизлайками и даже заделом на будущее, чтобы пользователи сами смогли предлагать промпты (но для начала надо добить прототип). Пять вариантов “Змейки” с разными правилами? Легко – причем Claude сам предлагал идеи, как доработать и сбалансировать игровой процесс.
Если раньше огромное количество средних и небольших бизнесов не могли позволить софт под собственные запросы (даже банальный качественный сайт в сети) – то теперь что-то приличное можно сделать даже самому, оплатив подписку на ИИ. При этом профессия программиста тоже выиграет: кто-то сделает сам, кто-то – заплатит профессионалу, который с помощью той же нейронки соберет еще быстрее и лучше.
Конечно, не все радужно. Слабым звеном обычно называют профессию джуна – зачем нанимать и обучать новичка, если с его задачами справляется ИИ? Джуны не будут "вырастать" в специалистов более высокого уровня – но это более отдаленная проблема.
С другой стороны – я часто читаю, что AI-first компании, наоборот, любят нанимать джунов, так как они быстрее и лучше осваивают ИИ. Не исключено, что это выход. Или рынок сложится как-то соверешнно иначе – Уилсон считает, что первые результаты мы увидим через три года.
5🔥80👍39❤28🥰2😁2👏1
Claude Code для новичков
Я активно осваиваю Claude Code – даже подарил себе дорогую подписку Anthropic Max. Выводы пока делать не готов, но не исключено, что именно Claude Code станет базой для первого массового и универсального ИИ-агента.
На старте мне помогли гайды Эйада Храиса и Бориса Черни (автора Claude Code), поэтому решил сделать их выжимку. Кстати, многое применимо и к обычному Claude.
Что ты вообще такое?
Claude Code – агент, который доступен из терминала вашего ПК или Mac. Также есть веб и мобильная версии, плюс Anthropic представили прототип Cowork, версии Claude Code для широких задач. Но версия для терминала пока лучшая: она может писать код, работать с файлами и программами на вашем ПК, подключаться к удаленным серверам и так далее. Изначально Claude Code задумывался для программирования, но сейчас его используют для разных многоэтапных задач – от презентаций до “убери мусор на моем ПК”.
Начинайте с планирования
Современные ИИ торопятся выполнить задачу – и Claude Code не исключение. Мой первый проект — сайт с промптами, описанный парой строк. Claude Code задал вопросы, час пыхтел и выдал… работающий прототип, который выглядел совсем не так, как я представлял.
Это принцип работы с любым ИИ: не торопитесь и опишите задачу так, как вы ее видите. Можете открыть чат с нейронкой и написать “хочу сделать в Claude Code сайт с промптами, задай мне вопросы, а затем создай бриф”
Получив бриф – отправляемся в Claude Code и включаем режим планирования двойным нажатием на Shift+TAB. Считается, что при хорошо написанном плане можно включить авто-принятие правок, что ускорит работу.
Не забывайте про Claude.MD
Особенность Claude Code – он каждый раз начинает с нуля. Если на диске есть незавершенный проект, то он в нем разберется, но вот нюансы, с которыми столкнулись в процессе создания, помнить не будет.
Поэтому после планирования давайте команду создать Claude.MD – файл с подробностями проекта. А затем просите Claude обновлять файл после каждого крупного этапа, а также после каждой ошибки, чтобы ИИ знал, как не надо делать.
Опытные пользователи добавляют Plan.MD (большой план проекта) и Todo.MD (список задач), но на старте будет достаточно актуального Claude.MD.
Следите за длиной контекста
Команда /context показывает объем диалога в токенах. Технически Opus 4.5 и Sonnet 4.5 переваривают до 200 тысяч токенов – плюс недавно добавили Sonnet 4.5 с контекстом в миллион токенов, но она расходует лимиты намного быстрее.
На практике пользователи Claude Code подмечают, что модели начинают “тупеть” на 50-60% контекста (100-120 тысяч токенов). Когда работаете над большим проектом, стоит разбить его на этапы и выполнять каждый с нуля, очищая чат командой /clear. Если обновлять Claude.MD в конце каждого этапа, то модель легко подхватит следующий.
Когда чат все-таки затягивается, на помощь приходит команда /compact – Claude удалит лишнюю информацию, освободив контекст. Еще видел трюк – выполнить /compact, скопировать получившееся саммари, очистить чат командой /clear и вставить в него саммари – но не могу сказать, насколько он эффективен.
Еще совет: если Claude наломал дров — Esc+Esc или /rewind откатит и код, и диалог к предыдущему состоянию.
Правильно выбирайте модель
Тут разные мнения. Claude Opus 4.5 тратит больше токенов и теоретически быстрее упирается в лимиты использования, чем Sonnet 4.5. Но так как это более умная модель, то она меньше ошибается – и этим, наоборот, экономит токены.
Альтернативная идея – использовать Opus 4.5 для планирования, а для реализации переключаться на Sonnet 4.5. Я советую попробовать оба варианта.
А если у вас подписка Pro и вы только знакомитесь с Claude Code – начинайте с Sonnet. Он быстрее и не так тратит лимиты, позволяя больше экспериментировать и не бояться ошибиться.
Я активно осваиваю Claude Code – даже подарил себе дорогую подписку Anthropic Max. Выводы пока делать не готов, но не исключено, что именно Claude Code станет базой для первого массового и универсального ИИ-агента.
На старте мне помогли гайды Эйада Храиса и Бориса Черни (автора Claude Code), поэтому решил сделать их выжимку. Кстати, многое применимо и к обычному Claude.
Что ты вообще такое?
Claude Code – агент, который доступен из терминала вашего ПК или Mac. Также есть веб и мобильная версии, плюс Anthropic представили прототип Cowork, версии Claude Code для широких задач. Но версия для терминала пока лучшая: она может писать код, работать с файлами и программами на вашем ПК, подключаться к удаленным серверам и так далее. Изначально Claude Code задумывался для программирования, но сейчас его используют для разных многоэтапных задач – от презентаций до “убери мусор на моем ПК”.
Начинайте с планирования
Современные ИИ торопятся выполнить задачу – и Claude Code не исключение. Мой первый проект — сайт с промптами, описанный парой строк. Claude Code задал вопросы, час пыхтел и выдал… работающий прототип, который выглядел совсем не так, как я представлял.
Это принцип работы с любым ИИ: не торопитесь и опишите задачу так, как вы ее видите. Можете открыть чат с нейронкой и написать “хочу сделать в Claude Code сайт с промптами, задай мне вопросы, а затем создай бриф”
Получив бриф – отправляемся в Claude Code и включаем режим планирования двойным нажатием на Shift+TAB. Считается, что при хорошо написанном плане можно включить авто-принятие правок, что ускорит работу.
Не забывайте про Claude.MD
Особенность Claude Code – он каждый раз начинает с нуля. Если на диске есть незавершенный проект, то он в нем разберется, но вот нюансы, с которыми столкнулись в процессе создания, помнить не будет.
Поэтому после планирования давайте команду создать Claude.MD – файл с подробностями проекта. А затем просите Claude обновлять файл после каждого крупного этапа, а также после каждой ошибки, чтобы ИИ знал, как не надо делать.
Опытные пользователи добавляют Plan.MD (большой план проекта) и Todo.MD (список задач), но на старте будет достаточно актуального Claude.MD.
Следите за длиной контекста
Команда /context показывает объем диалога в токенах. Технически Opus 4.5 и Sonnet 4.5 переваривают до 200 тысяч токенов – плюс недавно добавили Sonnet 4.5 с контекстом в миллион токенов, но она расходует лимиты намного быстрее.
На практике пользователи Claude Code подмечают, что модели начинают “тупеть” на 50-60% контекста (100-120 тысяч токенов). Когда работаете над большим проектом, стоит разбить его на этапы и выполнять каждый с нуля, очищая чат командой /clear. Если обновлять Claude.MD в конце каждого этапа, то модель легко подхватит следующий.
Когда чат все-таки затягивается, на помощь приходит команда /compact – Claude удалит лишнюю информацию, освободив контекст. Еще видел трюк – выполнить /compact, скопировать получившееся саммари, очистить чат командой /clear и вставить в него саммари – но не могу сказать, насколько он эффективен.
Еще совет: если Claude наломал дров — Esc+Esc или /rewind откатит и код, и диалог к предыдущему состоянию.
Правильно выбирайте модель
Тут разные мнения. Claude Opus 4.5 тратит больше токенов и теоретически быстрее упирается в лимиты использования, чем Sonnet 4.5. Но так как это более умная модель, то она меньше ошибается – и этим, наоборот, экономит токены.
Альтернативная идея – использовать Opus 4.5 для планирования, а для реализации переключаться на Sonnet 4.5. Я советую попробовать оба варианта.
А если у вас подписка Pro и вы только знакомитесь с Claude Code – начинайте с Sonnet. Он быстрее и не так тратит лимиты, позволяя больше экспериментировать и не бояться ошибиться.
3👍79❤36🔥18👏3😁2
Переполох на рынке ИИ-железа
OpenAI подписала 10-миллиардный контракт с Cerebras – производителем чипов для инференса (запуска готовых моделей). На Cerebras ИИ генерирует ответы с огромной скоростью – есть шанс, что общение с будущими GPT-6 Thinking и GPT-6 Pro станет быстрее.
Многие привыкли ассоциировать рынок ИИ-железа с Nvidia, а мне он напоминает конец 90-х в игровых видеокартах, когда 3Dfx, Nvidia, ATI (потом войдет в AMD) и другие бились за будущее 3D-графики с совершенно разными архитектурами. Давайте разбираться!
Nvidia GPU
Парадокс: когда-то GPU создавались для ускорения графики видеоигр. Когда в нулевые на них впервые попробовали обучать нейросети, то разработчикам пришлось делать вид, что они запускают игру: упаковывать данные в «текстуры» и писать вычисления как графические шейдеры. Затем появился язык CUDA, который позволил программировать GPU напрямую, используя для разных вычислений.
Но именно универсальность CUDA-архитектуры играет против Nvidia в ИИ-вычислениях. Узкое место — память: данные хранятся отдельно от вычислительных ядер, и GPU постоянно гоняет их туда-сюда. По некоторым оценкам, до 90% энергии тратится не на вычисления, а на перемещение данных.
Nvidia решает это грубой силой: больше памяти, больше кристаллов, шире каналы. Работает, но потребление растет. Rubin Ultra к 2027 году будет "съедать" 3,6 кВт на пакет, а целая стойка — до 600 кВт.
Google TPU
Google разработала свои чипы только под нейросети, использовав систолические вычисления. Если в GPU данные путешествуют между ядрами и памятью, то в TPU они “текут” как кровь по сосудам: каждый вычислительный юнит выполняет операцию и передает результат соседу напрямую. К основной памяти TPU обращается только в начале и конце этапа.
На TPU обучают не только Gemini, но и новые версии Claude – Anthropic настолько довольна результатом, что сделала заказ на миллион чипов. Риск в том, что TPU оптимизированы чисто под матричные вычисления – и если в будущем ИИ уйдет от трансформеров, то архитектуру придется серьезно менять. Но сейчас ИИ-ускорители устаревают через 2-3 года, так что это не страшно.
Cerebras и Groq
В “жизни” ИИ есть два больших этапа: тренировка модели и инференс – запуск для пользователей. Долгое время упор делали на тренировку, а инференс выполняли на таких же ускорителях. Cейчас спрос на ИИ растет так быстро, что выгодно делать отдельные ускорители для инференса – более экономные и быстрые.
Cerebras использует для инференса чипы размером с целую кремниевую пластину (на фото) – в 30 раз больше Nvidia B200. Стоит как крыло самолета, но фактически один Cerebras надо сравнивать с целой стойкой на 72 чипа Nvidia – и даже так для инференса он будет выгоднее.
Сама Nvidia в новых Rubin планирует версию для инференса с меньшим количеством памяти. Плюс компания по хитрой схеме купила Groq – стартап создателя Google TPU. У Groq своя уникальная архитектура, но идея такая же – максимально эффективное решение для инференса. Посмотрим, куда двинется Nvidia: продолжит развивать идеи Groq или выпустит свой аналог Google TPU?
Более далекое будущее
Тема на отдельный пост, сейчас коротко:
– Вычисления в памяти. Процессор встраивается прямо в память, поэтому данные вообще не нужно перемещать. Технологически сложно, но в конце 2025-го появилось несколько интересных разработок.
– Фотоника. Если считать те же нейросети светом, а не электронами, то будет и быстрее, и эффективнее по энергии.
– Нейроморфные чипы и спайковые сети. Современные нейросети – упрощенная версия того, что происходит в настоящем мозге. Эти технологии стремятся воссоздать точную копию.
– Квантовые компьютеры. Подробно уже писал, если коротко, то квантовые чипы вряд ли подойдут для обучения нейросетей, но помогут в некоторых процессах, от оптимизации до создания новых обучающих данных. Ждать, впрочем, до начала следующего десятилетия.
OpenAI подписала 10-миллиардный контракт с Cerebras – производителем чипов для инференса (запуска готовых моделей). На Cerebras ИИ генерирует ответы с огромной скоростью – есть шанс, что общение с будущими GPT-6 Thinking и GPT-6 Pro станет быстрее.
Многие привыкли ассоциировать рынок ИИ-железа с Nvidia, а мне он напоминает конец 90-х в игровых видеокартах, когда 3Dfx, Nvidia, ATI (потом войдет в AMD) и другие бились за будущее 3D-графики с совершенно разными архитектурами. Давайте разбираться!
Nvidia GPU
Парадокс: когда-то GPU создавались для ускорения графики видеоигр. Когда в нулевые на них впервые попробовали обучать нейросети, то разработчикам пришлось делать вид, что они запускают игру: упаковывать данные в «текстуры» и писать вычисления как графические шейдеры. Затем появился язык CUDA, который позволил программировать GPU напрямую, используя для разных вычислений.
Но именно универсальность CUDA-архитектуры играет против Nvidia в ИИ-вычислениях. Узкое место — память: данные хранятся отдельно от вычислительных ядер, и GPU постоянно гоняет их туда-сюда. По некоторым оценкам, до 90% энергии тратится не на вычисления, а на перемещение данных.
Nvidia решает это грубой силой: больше памяти, больше кристаллов, шире каналы. Работает, но потребление растет. Rubin Ultra к 2027 году будет "съедать" 3,6 кВт на пакет, а целая стойка — до 600 кВт.
Google TPU
Google разработала свои чипы только под нейросети, использовав систолические вычисления. Если в GPU данные путешествуют между ядрами и памятью, то в TPU они “текут” как кровь по сосудам: каждый вычислительный юнит выполняет операцию и передает результат соседу напрямую. К основной памяти TPU обращается только в начале и конце этапа.
На TPU обучают не только Gemini, но и новые версии Claude – Anthropic настолько довольна результатом, что сделала заказ на миллион чипов. Риск в том, что TPU оптимизированы чисто под матричные вычисления – и если в будущем ИИ уйдет от трансформеров, то архитектуру придется серьезно менять. Но сейчас ИИ-ускорители устаревают через 2-3 года, так что это не страшно.
Cerebras и Groq
В “жизни” ИИ есть два больших этапа: тренировка модели и инференс – запуск для пользователей. Долгое время упор делали на тренировку, а инференс выполняли на таких же ускорителях. Cейчас спрос на ИИ растет так быстро, что выгодно делать отдельные ускорители для инференса – более экономные и быстрые.
Cerebras использует для инференса чипы размером с целую кремниевую пластину (на фото) – в 30 раз больше Nvidia B200. Стоит как крыло самолета, но фактически один Cerebras надо сравнивать с целой стойкой на 72 чипа Nvidia – и даже так для инференса он будет выгоднее.
Сама Nvidia в новых Rubin планирует версию для инференса с меньшим количеством памяти. Плюс компания по хитрой схеме купила Groq – стартап создателя Google TPU. У Groq своя уникальная архитектура, но идея такая же – максимально эффективное решение для инференса. Посмотрим, куда двинется Nvidia: продолжит развивать идеи Groq или выпустит свой аналог Google TPU?
Более далекое будущее
Тема на отдельный пост, сейчас коротко:
– Вычисления в памяти. Процессор встраивается прямо в память, поэтому данные вообще не нужно перемещать. Технологически сложно, но в конце 2025-го появилось несколько интересных разработок.
– Фотоника. Если считать те же нейросети светом, а не электронами, то будет и быстрее, и эффективнее по энергии.
– Нейроморфные чипы и спайковые сети. Современные нейросети – упрощенная версия того, что происходит в настоящем мозге. Эти технологии стремятся воссоздать точную копию.
– Квантовые компьютеры. Подробно уже писал, если коротко, то квантовые чипы вряд ли подойдут для обучения нейросетей, но помогут в некоторых процессах, от оптимизации до создания новых обучающих данных. Ждать, впрочем, до начала следующего десятилетия.
3👍81🔥41❤40😁4👏1
Поговорим про рекламу в ChatGPT
OpenAI в ближайшие недели начнет тестирование рекламы в ChatGPT. Пример персонализированного объявления можно увидеть выше, показывать будут пользователям двух тарифов – бесплатного и 8-долларового Go (включает больше запросов к базовой GPT-5.2 и еще ряд функций). Подписки начиная с Plus останутся без рекламы.
В OpenAI подтвердили, что реклама на влияет на ответы самой модели – не будет случаев, когда в ответ на просьбу подобрать несколько горных велосипедов, модель посоветует продукт спонсора. У меня был отдельный пост о том, почему подобное поведение нереально (коротко: оно является нарушением целого ряда законов о рекламе и добросовестной конкуренции), но хорошо, что компания это обозначила отдельно.
Запуск рекламы почти всегда негативно воспринимается пользователями, но в случае с ChatGPT, в нем стоит видеть меньшее из зол, пусть и раздражающее.
Сейчас крупные ИИ-компании в первую очередь “зарабатывают” на том, что продают инвесторам идею ИИ как супертехнологии будущего. Это привлекает в индустрию огромные деньги, причем схемы стали такими изощренными, что запутается даже опытный финансист.
В случае с OpenAI по 2028 год включительно компания ожидает кумулятивные операционные убытки в $115-143 млрд, а безубыточность планируется в 2029 году, для чего компании надо выходить на выручку в 125-200 миллиардов долларов. Для сравнения: в 2025 выручка ожидалась в 13 млрд.
Сейчас у OpenAI порядка 900 млн пользователей в неделю, 90% из которых сидят на бесплатном тарифе. Есть некоторые косвенные данные, что рост числа пользователей замедлился: перед самым выходом GPT-5 один из сотрудников хвастливо намекал, что “скоро мы пробьем 1 млрд пользователей в неделю”, но новостей про это так и не последовало. ИИ-рынок стал сложнее: Google, Anthropic, xAI и китайские компании не просто преследуют OpenAI – во многих случаях они вырываются вперед.
Важно понимать, что 90% пользователей выше не просто не платят, они еще и генерируют компании убыток. Поэтому очевидно, что их надо начинать монетизировать: или заставляя платить подписку урезав лимиты (но куда дальше?), или показывая им рекламу.
Рекламная модель OpenAI сейчас выглядит максимально похожей на модель Alphabet - материнской компании Google. По оценкам, три четверти своей выручки она зарабатывает с Google Ads – да-да, объявлений, которые мы видим в поисковой выдаче и Youtube-роликах. Это бешенные деньги – $264 млрд в 2024 году.
Данная реклама эффективна по простой причине: Google знает о своих пользователях очень много, что позволяет ее настраивать максимально точно. Кстати, пользователи не остаются в накладе: большинство продуктов Google бесплатны: от поиска, Chrome и Gmail до Google Docs, которые многим заменили платный Microsoft Office. А еще выручка с рекламы позволяет Google развивать собственное ИИ-подразделение DeepMind, не менее амбициозное, чем OpenAI.
В случае с Google ИИ отлично ложится на текущую схему заработка: модели Gemini будут заменять более старые алгоритмы во всех продуктах – от поиска до Gmail и Docs – поддерживая рекламные продажи. OpenAI придется разворачивать рекламную систему с нуля, что сложнее. Но важный компонент у компании уже есть: из чатов с ИИ она также извлекает много информации о пользователях, что поможет настраивать объявления.
Интересно, что другим путем идет Anthropic. Компания планирует выйти на безубыточность в 2028-м, а сейчас делает ставку на корпоративных клиентов, которые генерируют ей 80% выручки. У Anthropic нет генерации картинок и видео, зато есть “идеальный работяга” Claude, который отлично справляется с кодингом и офисными задачами. Не удивлюсь, если со временем подключатся и массовые пользователи: о Claude Code сейчас трубят на каждом углу, поэтому может получиться так, что к середине года его знание станет обязательным для многих вакансий – а для этого нужна подписка, причем лучше не 20-долларовая Pro, а 100-долларовая Max.
Посмотрим, чей подход сработает.
OpenAI в ближайшие недели начнет тестирование рекламы в ChatGPT. Пример персонализированного объявления можно увидеть выше, показывать будут пользователям двух тарифов – бесплатного и 8-долларового Go (включает больше запросов к базовой GPT-5.2 и еще ряд функций). Подписки начиная с Plus останутся без рекламы.
В OpenAI подтвердили, что реклама на влияет на ответы самой модели – не будет случаев, когда в ответ на просьбу подобрать несколько горных велосипедов, модель посоветует продукт спонсора. У меня был отдельный пост о том, почему подобное поведение нереально (коротко: оно является нарушением целого ряда законов о рекламе и добросовестной конкуренции), но хорошо, что компания это обозначила отдельно.
Запуск рекламы почти всегда негативно воспринимается пользователями, но в случае с ChatGPT, в нем стоит видеть меньшее из зол, пусть и раздражающее.
Сейчас крупные ИИ-компании в первую очередь “зарабатывают” на том, что продают инвесторам идею ИИ как супертехнологии будущего. Это привлекает в индустрию огромные деньги, причем схемы стали такими изощренными, что запутается даже опытный финансист.
В случае с OpenAI по 2028 год включительно компания ожидает кумулятивные операционные убытки в $115-143 млрд, а безубыточность планируется в 2029 году, для чего компании надо выходить на выручку в 125-200 миллиардов долларов. Для сравнения: в 2025 выручка ожидалась в 13 млрд.
Сейчас у OpenAI порядка 900 млн пользователей в неделю, 90% из которых сидят на бесплатном тарифе. Есть некоторые косвенные данные, что рост числа пользователей замедлился: перед самым выходом GPT-5 один из сотрудников хвастливо намекал, что “скоро мы пробьем 1 млрд пользователей в неделю”, но новостей про это так и не последовало. ИИ-рынок стал сложнее: Google, Anthropic, xAI и китайские компании не просто преследуют OpenAI – во многих случаях они вырываются вперед.
Важно понимать, что 90% пользователей выше не просто не платят, они еще и генерируют компании убыток. Поэтому очевидно, что их надо начинать монетизировать: или заставляя платить подписку урезав лимиты (но куда дальше?), или показывая им рекламу.
Рекламная модель OpenAI сейчас выглядит максимально похожей на модель Alphabet - материнской компании Google. По оценкам, три четверти своей выручки она зарабатывает с Google Ads – да-да, объявлений, которые мы видим в поисковой выдаче и Youtube-роликах. Это бешенные деньги – $264 млрд в 2024 году.
Данная реклама эффективна по простой причине: Google знает о своих пользователях очень много, что позволяет ее настраивать максимально точно. Кстати, пользователи не остаются в накладе: большинство продуктов Google бесплатны: от поиска, Chrome и Gmail до Google Docs, которые многим заменили платный Microsoft Office. А еще выручка с рекламы позволяет Google развивать собственное ИИ-подразделение DeepMind, не менее амбициозное, чем OpenAI.
В случае с Google ИИ отлично ложится на текущую схему заработка: модели Gemini будут заменять более старые алгоритмы во всех продуктах – от поиска до Gmail и Docs – поддерживая рекламные продажи. OpenAI придется разворачивать рекламную систему с нуля, что сложнее. Но важный компонент у компании уже есть: из чатов с ИИ она также извлекает много информации о пользователях, что поможет настраивать объявления.
Интересно, что другим путем идет Anthropic. Компания планирует выйти на безубыточность в 2028-м, а сейчас делает ставку на корпоративных клиентов, которые генерируют ей 80% выручки. У Anthropic нет генерации картинок и видео, зато есть “идеальный работяга” Claude, который отлично справляется с кодингом и офисными задачами. Не удивлюсь, если со временем подключатся и массовые пользователи: о Claude Code сейчас трубят на каждом углу, поэтому может получиться так, что к середине года его знание станет обязательным для многих вакансий – а для этого нужна подписка, причем лучше не 20-долларовая Pro, а 100-долларовая Max.
Посмотрим, чей подход сработает.
2❤51👍45🔥18👏4
Встречаем Джеффа Эмануэля: он тратит 4600 долларов на подписки Claude Max и вайб-кодит с помощью педалей
В последние недели 70% моего потока ИИ-новостей состоит из материалов про Claude Code. С его помощью люди кодят, работают и решают неожиданные задачи, вроде проекта горки для ребенка.
Не исключаю, что умение пользоваться Claude Code скоро станет одним из базовых навыков при устройстве на работу. А еще это, к сожалению, первый явный пример ИИ-неравенства. По своему опыту могу сказать, что освоить Claude Code на 20-долларовой базовой подписке сложно – даже Sonnet 4.5 быстро тратит лимиты. Для вайб-кодинга как хобби нужна 100-долларовая подписка Max, ну а для профессиональной работы и того больше – я постоянно натыкаюсь на людей, у которых оформлено, например, по три подписки за $200 каждая.
Абсолютный чемпион – Джеффри Эмануэль, бывший аналитик с Уолл-Стрит. Джефф сейчас руководит блокчейн-компанией Lumera Network, занимается консультированием, а как хобби строит открытые инструменты для ИИ-кодинга. Весь процесс описан на его сайте, а инструменты можно найти в GitHub-репозитории.
Впрочем, как сказать хобби. В первую неделю января Эмануэль сделал 2696 коммитов на GitHub. Для хорошего разработчика нормой считается 500-1000 коммитов… в год.
За спиной Джеффа – свора ИИ-агентов. Никто не запрещает открыть несколько копий Claude Code в соседних вкладках, распределив между ними задачи. Проблема в лимитах: Эмануэль расходует 5-часовой лимит 200-долларовой подписки Max всего за 14 минут. Поэтому у него… 22 таких подписки общей ценой 4600 долларов.
Еще сложность – управление таким зверинцем. Чтобы агенты работали сообща и не мешали друг другу, Джефф использует несколько приемов. Так, запущенные копии Claude Code общаются друг с другом по MCP Agent Mail – фактически аналог электронной почты для ИИ. Там они обсуждают архитектуру, распределяют задачи, резервируют файлы. Некоторые переписки переваливают за 1000 сообщений – и никаких часовых синков в Zoom!
Есть у агентов свой аналог Jira – доработанная система Beads, которую придумал Стив Йегге, бывший разработчик Google. Beads или “бусины” – мелкие задачи с приоритетами и зависимостями (пока А не сделана, за B браться нельзя). План работы пишет или сам Джефф, или GPT-5 Pro (да, ИИ от OpenAI тоже в деле), затем агенты разбирают задачи, сообщая об этом друг другу по почте.
На старте Джефф столкнулся с так называемым friendly fire – дружественным огнем. Два агента работают над проектом, один меняет код, второй это видит, пугается и откатывает обратно, стирая в итоге работу коллеги. Эмануэль написал хук, который стоит между агентом и терминалом и перехватывает подобные опасные команды.
Беда в том, что агенты слишком умные и регулярно пытаются этот хук взломать – например, вместо rm -rf (удаляет файлы без возможности восстановления) пишут bash-скрипт, который делает то же самое. В итоге приходится совершенствовать систему защиты – похоже на войну босса со слишком инициативными сотрудниками.
Чем занимается сам Джефф? Он практически не кодит, а называет себя “архитектором на высоком уровне”. Процесс выглядит так: на экране 20+ вкладок с агентами, которым Эммануэль дает направления – “возьми следующую bead”, “сделай код-ревью” и так далее. Плюс иногда приходится разруливать конфликты.
Несмотря на необходимость управлять 20+ агентами, Джефф отмечает, что количество реального человеческого труда, который он вкладывает в проекты – на 90% меньше, чем требовалось раньше. И он постоянно ищет, как ускориться дальше: например, недавно заказал vibe pedals, педали, на которые можно назначить команды copy/paste.
Интересный факт: недавно Anthropic забанила несколько аккаунтов Джеффа за подозрительно высокую активность. Пока вопрос решался, он успел купить 11 подписок GPT Pro — на случай, если придется переезжать. Инцидент разрулили за 4 часа, аккаунты разблокировали, а Джефф пообещал чуть-чуть сбавить обороты.
А не то будущее наступит слишком быстро.
В последние недели 70% моего потока ИИ-новостей состоит из материалов про Claude Code. С его помощью люди кодят, работают и решают неожиданные задачи, вроде проекта горки для ребенка.
Не исключаю, что умение пользоваться Claude Code скоро станет одним из базовых навыков при устройстве на работу. А еще это, к сожалению, первый явный пример ИИ-неравенства. По своему опыту могу сказать, что освоить Claude Code на 20-долларовой базовой подписке сложно – даже Sonnet 4.5 быстро тратит лимиты. Для вайб-кодинга как хобби нужна 100-долларовая подписка Max, ну а для профессиональной работы и того больше – я постоянно натыкаюсь на людей, у которых оформлено, например, по три подписки за $200 каждая.
Абсолютный чемпион – Джеффри Эмануэль, бывший аналитик с Уолл-Стрит. Джефф сейчас руководит блокчейн-компанией Lumera Network, занимается консультированием, а как хобби строит открытые инструменты для ИИ-кодинга. Весь процесс описан на его сайте, а инструменты можно найти в GitHub-репозитории.
Впрочем, как сказать хобби. В первую неделю января Эмануэль сделал 2696 коммитов на GitHub. Для хорошего разработчика нормой считается 500-1000 коммитов… в год.
За спиной Джеффа – свора ИИ-агентов. Никто не запрещает открыть несколько копий Claude Code в соседних вкладках, распределив между ними задачи. Проблема в лимитах: Эмануэль расходует 5-часовой лимит 200-долларовой подписки Max всего за 14 минут. Поэтому у него… 22 таких подписки общей ценой 4600 долларов.
Еще сложность – управление таким зверинцем. Чтобы агенты работали сообща и не мешали друг другу, Джефф использует несколько приемов. Так, запущенные копии Claude Code общаются друг с другом по MCP Agent Mail – фактически аналог электронной почты для ИИ. Там они обсуждают архитектуру, распределяют задачи, резервируют файлы. Некоторые переписки переваливают за 1000 сообщений – и никаких часовых синков в Zoom!
Есть у агентов свой аналог Jira – доработанная система Beads, которую придумал Стив Йегге, бывший разработчик Google. Beads или “бусины” – мелкие задачи с приоритетами и зависимостями (пока А не сделана, за B браться нельзя). План работы пишет или сам Джефф, или GPT-5 Pro (да, ИИ от OpenAI тоже в деле), затем агенты разбирают задачи, сообщая об этом друг другу по почте.
На старте Джефф столкнулся с так называемым friendly fire – дружественным огнем. Два агента работают над проектом, один меняет код, второй это видит, пугается и откатывает обратно, стирая в итоге работу коллеги. Эмануэль написал хук, который стоит между агентом и терминалом и перехватывает подобные опасные команды.
Беда в том, что агенты слишком умные и регулярно пытаются этот хук взломать – например, вместо rm -rf (удаляет файлы без возможности восстановления) пишут bash-скрипт, который делает то же самое. В итоге приходится совершенствовать систему защиты – похоже на войну босса со слишком инициативными сотрудниками.
Чем занимается сам Джефф? Он практически не кодит, а называет себя “архитектором на высоком уровне”. Процесс выглядит так: на экране 20+ вкладок с агентами, которым Эммануэль дает направления – “возьми следующую bead”, “сделай код-ревью” и так далее. Плюс иногда приходится разруливать конфликты.
Несмотря на необходимость управлять 20+ агентами, Джефф отмечает, что количество реального человеческого труда, который он вкладывает в проекты – на 90% меньше, чем требовалось раньше. И он постоянно ищет, как ускориться дальше: например, недавно заказал vibe pedals, педали, на которые можно назначить команды copy/paste.
Интересный факт: недавно Anthropic забанила несколько аккаунтов Джеффа за подозрительно высокую активность. Пока вопрос решался, он успел купить 11 подписок GPT Pro — на случай, если придется переезжать. Инцидент разрулили за 4 часа, аккаунты разблокировали, а Джефф пообещал чуть-чуть сбавить обороты.
А не то будущее наступит слишком быстро.
5😁111🔥87👍28❤19👏15🥰1
Какие нейронки советую и для каких задач
Прогресс в ИИ такой, что используемые инструменты меняются постоянно. Месяц назад я хвалил GPT-5.2 Thinking – а сейчас основную часть задач решаю с помощью Claude Opus 4.5 и Claude Code. Сегодня сделаю мини-обзор нейронок, с которыми много работал, расскажу, для чего какая подходит.
GPT-5.2 Thinking
У GPT-5.2 Thinking две сильных стороны. Во-первых, она хороша для глубокого веб-поиска и факт-чекинга – модель может перебрать под сотню источников, проверив каждую фразу в ответе. Кстати, за счет этого она галлюцинирует меньше других ИИ.
Во-вторых, у GPT-5.2 Thinking хорошее критическое мышление и минимум подхалимажа. Идеи она разбирает трезво, не стесняется спорить – это превращает ее в душнилу, что для ИИ не худшее качество.
Плюс у 20-долларовой подписки ChatGPT Plus щедрые лимиты: это делает ее отличным инструментом для работы и знакомства с Codex – аналогом Claude Code от OpenAI. На Claude похожие лимиты уже на 100-долларовой подписке.
Главный минус – думающие модели OpenAI медленные. При ответе GPT-5.2 Thinking может увлечься поиском на несколько минут. Именно из-за этого я пользуюсь ей все меньше – быстрее задать вопрос Opus 4.5, уточнить пару вещей, а затем попросить модель перепроверить себя, убрав галлюцинации.
Но если нужна одна подписка – ChatGPT Plus лучший выбор. Она универсальна, а ради минимума галлюцинаций можно потерпеть долгие ответы. На всякий случай, уточню: все сказанное касается GPT-5.2 Thinking, а вот быстрой GPT-5.2 Instant я доверяю только простые вещи вроде проверки грамотности или перевода.
Claude Opus 4.5
Уже писал, что у меня сейчас много работы с текстами, и вот Opus 4.5 с ней справляется лучше всего: он хоть и требует небольшой редактуры, но отлично чувствует ритм и структуру информационного текста.
Память и система скиллов – тема для отдельного поста. Если коротко: можно взять задачу, которую вы регулярно делали, попросить Claude поискать по чатам, описать и доработать процесс, а потом упаковать в скилл, который дальше просто вызывается командой – например, “запусти скилл поиска по ИИ-новостям”. Похоже на GPTs, но в Claude скиллы настраиваются в ходе диалога с моделью – и обновляются таким же образом!
Наконец, Claude Code. Использую его для разбора аналитики, создания презентаций, дашбордов, на которые вынесена нужная мне информация. Но больше просто вайб-кожу: прототипы сайтов и приложений, простые игры и т. д. Крутая штука, но тратит лимиты очень быстро – нужна 100-долларовая подписка.
Минус Claude Opus 4.5 – он много галлюцинирует даже в рассуждающем режиме. Я постоянно работаю с ИИ и ловлю фантазии на автомате, но если у вас меньше опыта – то ChatGPT надежнее.
Gemini 3 Pro
Собственно, из-за галлюцинаций и плохого поиска я в свое время не стал пользоваться Gemini 3 Pro и Gemini 3 Flash. Поиск, похоже, починили, но осталась другая дурацкая черта – модель даже не столько галлюцинирует, сколько преувеличивает, делает слишком смелые выводы, цепляется за спорные идеи просто потому, что они красивые.
Но в последнее время я полюбил Gemini 3 Pro как рассказчика. Узнать, что происходит в Минессоте, изучить историю неолитических городов, разобрать научную работу – это все к ней. Модель понятно объясняет сложные вещи, умеет увлечь и поддержать интерес, подсказывая, как углубиться в тему. Еще она прикольный собеседник – иногда просто открываю Gemini 3 Pro и предлагаю обсудить тему на ее выбор.
Наконец, у Gemini 3 Pro отличное компьютерное зрение: она может изучить 20-минутный ролик, рассказав, что происходит на экране. Тут рассказывал, как это можно использовать.
Еще коротко отмечу:
– Grok 4.1 Thinking – лучший для поиска в X, мне достаточно бесплатного тарифа с 10 запросами.
– DeepSeek V3.2 – считаю лучшим бесплатным ИИ, есть слухи, что скоро выйдет V4.
– По картинкам 50 на 50: GPT Image 1.5 рисует “красивее”, Nano Banana Pro точнее следует промпту и лучше работает с русскими шрифтами.
Прогресс в ИИ такой, что используемые инструменты меняются постоянно. Месяц назад я хвалил GPT-5.2 Thinking – а сейчас основную часть задач решаю с помощью Claude Opus 4.5 и Claude Code. Сегодня сделаю мини-обзор нейронок, с которыми много работал, расскажу, для чего какая подходит.
GPT-5.2 Thinking
У GPT-5.2 Thinking две сильных стороны. Во-первых, она хороша для глубокого веб-поиска и факт-чекинга – модель может перебрать под сотню источников, проверив каждую фразу в ответе. Кстати, за счет этого она галлюцинирует меньше других ИИ.
Во-вторых, у GPT-5.2 Thinking хорошее критическое мышление и минимум подхалимажа. Идеи она разбирает трезво, не стесняется спорить – это превращает ее в душнилу, что для ИИ не худшее качество.
Плюс у 20-долларовой подписки ChatGPT Plus щедрые лимиты: это делает ее отличным инструментом для работы и знакомства с Codex – аналогом Claude Code от OpenAI. На Claude похожие лимиты уже на 100-долларовой подписке.
Главный минус – думающие модели OpenAI медленные. При ответе GPT-5.2 Thinking может увлечься поиском на несколько минут. Именно из-за этого я пользуюсь ей все меньше – быстрее задать вопрос Opus 4.5, уточнить пару вещей, а затем попросить модель перепроверить себя, убрав галлюцинации.
Но если нужна одна подписка – ChatGPT Plus лучший выбор. Она универсальна, а ради минимума галлюцинаций можно потерпеть долгие ответы. На всякий случай, уточню: все сказанное касается GPT-5.2 Thinking, а вот быстрой GPT-5.2 Instant я доверяю только простые вещи вроде проверки грамотности или перевода.
Claude Opus 4.5
Уже писал, что у меня сейчас много работы с текстами, и вот Opus 4.5 с ней справляется лучше всего: он хоть и требует небольшой редактуры, но отлично чувствует ритм и структуру информационного текста.
Память и система скиллов – тема для отдельного поста. Если коротко: можно взять задачу, которую вы регулярно делали, попросить Claude поискать по чатам, описать и доработать процесс, а потом упаковать в скилл, который дальше просто вызывается командой – например, “запусти скилл поиска по ИИ-новостям”. Похоже на GPTs, но в Claude скиллы настраиваются в ходе диалога с моделью – и обновляются таким же образом!
Наконец, Claude Code. Использую его для разбора аналитики, создания презентаций, дашбордов, на которые вынесена нужная мне информация. Но больше просто вайб-кожу: прототипы сайтов и приложений, простые игры и т. д. Крутая штука, но тратит лимиты очень быстро – нужна 100-долларовая подписка.
Минус Claude Opus 4.5 – он много галлюцинирует даже в рассуждающем режиме. Я постоянно работаю с ИИ и ловлю фантазии на автомате, но если у вас меньше опыта – то ChatGPT надежнее.
Gemini 3 Pro
Собственно, из-за галлюцинаций и плохого поиска я в свое время не стал пользоваться Gemini 3 Pro и Gemini 3 Flash. Поиск, похоже, починили, но осталась другая дурацкая черта – модель даже не столько галлюцинирует, сколько преувеличивает, делает слишком смелые выводы, цепляется за спорные идеи просто потому, что они красивые.
Но в последнее время я полюбил Gemini 3 Pro как рассказчика. Узнать, что происходит в Минессоте, изучить историю неолитических городов, разобрать научную работу – это все к ней. Модель понятно объясняет сложные вещи, умеет увлечь и поддержать интерес, подсказывая, как углубиться в тему. Еще она прикольный собеседник – иногда просто открываю Gemini 3 Pro и предлагаю обсудить тему на ее выбор.
Наконец, у Gemini 3 Pro отличное компьютерное зрение: она может изучить 20-минутный ролик, рассказав, что происходит на экране. Тут рассказывал, как это можно использовать.
Еще коротко отмечу:
– Grok 4.1 Thinking – лучший для поиска в X, мне достаточно бесплатного тарифа с 10 запросами.
– DeepSeek V3.2 – считаю лучшим бесплатным ИИ, есть слухи, что скоро выйдет V4.
– По картинкам 50 на 50: GPT Image 1.5 рисует “красивее”, Nano Banana Pro точнее следует промпту и лучше работает с русскими шрифтами.
1❤98👍89👏11🔥10😁1
Начинающих специалистов ждут трудные 5 лет? Или нет?
На форуме в Давосе записали интересную дискуссию с участием Дарио Амодеи и Демиса Хассабиса. Когда-то они конкурировали в Google – Амодеи входил в команду Google Brain, а Хассабис возглавлял DeepMind, купленную гигантом в 2014-м. Сейчас соперничество вышло на более высокий уровень: Anthropic и Google DeepMind – топ-лига ИИ. Но в Давосе они оказались пугающе близки в мнениях.
На первый план вышел Амодеи: прошлой весной он дал прогноз, что через 6 месяцев 90% кода будет писаться ИИ. Спустя 6 месяцев прогноз ему многие припомнили – ага, Дарио, код продолжают писать люди! – но сейчас выходит, что Амодеи чуть-чуть ошибся со сроками.
Один из последних продуктов Anthropic – ИИ-ассистент для рабочих задач Claude Cowork – был создан за полторы недели целиком с помощью Claude Code. Можно предположить, что это рекламный трюк Anthropic, но я вижу много независимых инженеров, которые пишут весь код в Claude Code. А в недавнем эксперименте Cursor GPT-5.2 Thinking Xhigh с собственной агентной обвязкой программировала неделю, создав работающий прототип браузера.
На этом фоне Амодеи спросили про другой прогноз – что 50% офисных вакансий начального уровня исчезнут в ближайшие 1-5 лет. Он ответил, что стоит на своем: ИИ-инструменты развиваются быстро и есть риск, что рынок просто не успеет адаптироваться.
Тут сделаю ремарку от себя. Рынок может не успевать по-разному. Например, сейчас бизнес часто испытывает трудности по внедрению ИИ, потому что это нечто новое и непонятное – и проще нанять человека на эту задачу. Но бизнес стремится максимизировать выгоду – и как только станет четко ясно, что ИИ экономит деньги, замещение пойдет очень быстро.
Насчет этого и предупреждает Амодеи: старые позиции (в первую очередь – стартовые, их проще заместить ИИ) будут исчезать быстрее, чем появятся новые, а люди под них переобучатся.
Хассабис здесь сыграл доброго полицейского. С одной стороны, он согласен со словами Амодеи и считает, что вытеснение начальных позиций мы заметим уже в этом году. С другой – Демис советует не паниковать и осваивать ИИ прямо сейчас. По его словам, человек с ИИ сможет делать работу за десятерых – и точно будет востребован на рынке.
Также Хассабис считает, что удар по рынку быстро коменсируется пользой для человечества. Если ИИ начнет ускорять науку, находить лекарства от болезней и лучшие материалы, решать проблемы с климатом – то польза от него перевесит социальные потрясения.
От себя напомню о термине super junior, принятом у OpenAI. В компании любят нанимать молодых специалистов потому, что они не ограничены привычками и осваивают ИИ быстрее других. Вывод простой: если вы новичок, то учите ИИ, если опытный – не цепляйтесь за привычные рамки и… тоже учите ИИ.
Когда разговор зашел о геополитике, Амодеи занял позицию “ястреба” и призвал полностью перекрыть поставки чипов в Китай, сравнив их с продажей ядерного оружия врагу ради прибыли. Позиция Амодеи в том, что государство, которое первым получит “сверхинтеллект”, сможет диктовать правила ИИ-безопасности – и лучше, если это будут США, а не Китай. Отрыв США он оценивает в 1-2 года: для ИИ-прогресса это крохи, которыми нельзя разбрасываться.
Хассабис в целом поддерживает позицию, но мягче. Он против барьеров в науке, но согласен, что контроль над ИИ нельзя доверять всем подряд.
По AGI Амодеи называет срок в 2026-27 годы, но стелет соломку, говоря об ИИ, способном делать открытия уровня Нобелевки. Хассабис придерживается своего старого прогноза: 50% шанс, что AGI появится до конца десятилетия.
По мнению Демиса, прогресс будет рваным. Например, в программировании результат оценить легко – код или работает (пусть и с оговорками) или нет. А вот если ИИ сделает открытие в медицине или физике – то его проверка может занять годы.
Важным этапом оба исследователя называют “замыкание цикла”, когда ИИ начнет создавать лучшие версии самого себя. Это приведет к сверхускорению, но и адаптироваться людям предстоит на повышенной скорости.
На форуме в Давосе записали интересную дискуссию с участием Дарио Амодеи и Демиса Хассабиса. Когда-то они конкурировали в Google – Амодеи входил в команду Google Brain, а Хассабис возглавлял DeepMind, купленную гигантом в 2014-м. Сейчас соперничество вышло на более высокий уровень: Anthropic и Google DeepMind – топ-лига ИИ. Но в Давосе они оказались пугающе близки в мнениях.
На первый план вышел Амодеи: прошлой весной он дал прогноз, что через 6 месяцев 90% кода будет писаться ИИ. Спустя 6 месяцев прогноз ему многие припомнили – ага, Дарио, код продолжают писать люди! – но сейчас выходит, что Амодеи чуть-чуть ошибся со сроками.
Один из последних продуктов Anthropic – ИИ-ассистент для рабочих задач Claude Cowork – был создан за полторы недели целиком с помощью Claude Code. Можно предположить, что это рекламный трюк Anthropic, но я вижу много независимых инженеров, которые пишут весь код в Claude Code. А в недавнем эксперименте Cursor GPT-5.2 Thinking Xhigh с собственной агентной обвязкой программировала неделю, создав работающий прототип браузера.
На этом фоне Амодеи спросили про другой прогноз – что 50% офисных вакансий начального уровня исчезнут в ближайшие 1-5 лет. Он ответил, что стоит на своем: ИИ-инструменты развиваются быстро и есть риск, что рынок просто не успеет адаптироваться.
Тут сделаю ремарку от себя. Рынок может не успевать по-разному. Например, сейчас бизнес часто испытывает трудности по внедрению ИИ, потому что это нечто новое и непонятное – и проще нанять человека на эту задачу. Но бизнес стремится максимизировать выгоду – и как только станет четко ясно, что ИИ экономит деньги, замещение пойдет очень быстро.
Насчет этого и предупреждает Амодеи: старые позиции (в первую очередь – стартовые, их проще заместить ИИ) будут исчезать быстрее, чем появятся новые, а люди под них переобучатся.
Хассабис здесь сыграл доброго полицейского. С одной стороны, он согласен со словами Амодеи и считает, что вытеснение начальных позиций мы заметим уже в этом году. С другой – Демис советует не паниковать и осваивать ИИ прямо сейчас. По его словам, человек с ИИ сможет делать работу за десятерых – и точно будет востребован на рынке.
Также Хассабис считает, что удар по рынку быстро коменсируется пользой для человечества. Если ИИ начнет ускорять науку, находить лекарства от болезней и лучшие материалы, решать проблемы с климатом – то польза от него перевесит социальные потрясения.
От себя напомню о термине super junior, принятом у OpenAI. В компании любят нанимать молодых специалистов потому, что они не ограничены привычками и осваивают ИИ быстрее других. Вывод простой: если вы новичок, то учите ИИ, если опытный – не цепляйтесь за привычные рамки и… тоже учите ИИ.
Когда разговор зашел о геополитике, Амодеи занял позицию “ястреба” и призвал полностью перекрыть поставки чипов в Китай, сравнив их с продажей ядерного оружия врагу ради прибыли. Позиция Амодеи в том, что государство, которое первым получит “сверхинтеллект”, сможет диктовать правила ИИ-безопасности – и лучше, если это будут США, а не Китай. Отрыв США он оценивает в 1-2 года: для ИИ-прогресса это крохи, которыми нельзя разбрасываться.
Хассабис в целом поддерживает позицию, но мягче. Он против барьеров в науке, но согласен, что контроль над ИИ нельзя доверять всем подряд.
По AGI Амодеи называет срок в 2026-27 годы, но стелет соломку, говоря об ИИ, способном делать открытия уровня Нобелевки. Хассабис придерживается своего старого прогноза: 50% шанс, что AGI появится до конца десятилетия.
По мнению Демиса, прогресс будет рваным. Например, в программировании результат оценить легко – код или работает (пусть и с оговорками) или нет. А вот если ИИ сделает открытие в медицине или физике – то его проверка может занять годы.
Важным этапом оба исследователя называют “замыкание цикла”, когда ИИ начнет создавать лучшие версии самого себя. Это приведет к сверхускорению, но и адаптироваться людям предстоит на повышенной скорости.
1👍81🔥42❤31😁9🥰2👏2
Как я использую скиллы в Claude
Для меня главная особенность Claude – насколько хорошо он заточен для работы. Те же самые скиллы, например, дают намного больше возможностей, чем GPTs в ChatGPT и Gems в Gemini, но при этом еще и устроены проще.
По сути, скиллы – это продвинутые промпты. Запуская скилл, Claude читает текст с описанием процесса работы над определенной задачей, а также дополнительные файлы, в которых может быть исполняемый код, примеры того, как должен выглядеть результат, а также разная дополнительная информация. Любой скилл можно создать и отредактировать в режиме диалога.
Базовые скиллы Claude включают создание фронтенда, docx, pdf и xlsx-файлов, а также презентаций. Кстати, они очень качественные – те же презентации Claude делает лучше большинства других нейронок. Ваши собственные скиллы хранятся в settings > capabilities, там же есть некоторое количество example skills – просто любопытных образцов.
Скиллами уже обмениваются как промптами – на сайте SkillsMP.com их более 70 тысяч. Я только что провернул прикольную штуку: попросил Claude прочесть, что он помнит обо мне, проанализировать недавние чаты, а затем поискать в сети скиллы, которые мне подойдут. Клод выдал с десяток примеров, несколько из которых мне показались полезными.
Но самое классное – делать собственные скиллы. Я обычно поступаю следующим образом.
Допустим, вы пишете новости с помощью Claude. Для начала можно просто написать 5-10 новостей, а когда процесс будет более или менее обкатан, в отдельном чате попросить Claude следующее:
По опыту могу сказать, что лучше работать над каждой новостью в своем чате. Claude хуже ищет в длинных чатах, да и в целом “не любит”, когда переписка затягивается.
Когда ИИ напечатает воркфлоу – читаем его. Если что-то пропущено или вы с чем-то не согласны – в режиме чата вносите корректировки. Затем настает очередь Claude вносить идеи.
Claude предложит доработки, какие принимать – решать вам. Когда все готово, просим Claude создать скилл. Тут два варианта:
— Если просто попросить создать скилл, то будет несколько файлов. Их нужно скачать и затем добавить вручную – ИИ подскажет, как.
— Если попросить модель “упаковать скилл в .skill файл” – то его можно будет добавить прямо из чата, нажав кнопку.
Как пользоваться? Теоретически, Claude сам распознает, когда запустить тот или иной скилл. На практике я предпочитаю писать “запусти скилл написания новости” – тогда модель не промахнется.
Важный совет: не забывайте проводить ревизию скиллов, улучшая их или дорабатывая под изменившиеся условия. Делать это можно тоже в режиме диалога:
Claude опишет скилл прямо в чате. Дальше или просим внести какие-то своиправки, или пишем следующее:
Затем смотрим, одобряем доработки и сохраняем обновленный файл.
Кстати, в последнее время я взял за привычку: если выполнил какую-то задачу и понимаю, что она мне пригодится в будущем – сразу делаю из нее скилл. Например, когда по инструкции из этого поста делал бриф для сайта, который сейчас собираю в Claude Code – то после завершения в том же чате попросил ИИ собрать воркфлоу, доработать и сохранить в скилл.
Ну и да – в Claude Code скиллы используются даже активнее, чем в чат-боте. Также скиллы начали приживаться и у конкурентов вроде OpenAI Codex и Gemini CLI – надеюсь, что доберутся и до чат-версий.
Конечно, это в какой-то степени костыль: со временем память о пользователе у ИИ станет настолько совершенной, что он будет на лету анализировать все рабочие процессы и повторять их в следующие разы. Но, по моим ощущениям, до такого еще полгода-год – так что учимся пользоваться скиллами!
Для меня главная особенность Claude – насколько хорошо он заточен для работы. Те же самые скиллы, например, дают намного больше возможностей, чем GPTs в ChatGPT и Gems в Gemini, но при этом еще и устроены проще.
По сути, скиллы – это продвинутые промпты. Запуская скилл, Claude читает текст с описанием процесса работы над определенной задачей, а также дополнительные файлы, в которых может быть исполняемый код, примеры того, как должен выглядеть результат, а также разная дополнительная информация. Любой скилл можно создать и отредактировать в режиме диалога.
Базовые скиллы Claude включают создание фронтенда, docx, pdf и xlsx-файлов, а также презентаций. Кстати, они очень качественные – те же презентации Claude делает лучше большинства других нейронок. Ваши собственные скиллы хранятся в settings > capabilities, там же есть некоторое количество example skills – просто любопытных образцов.
Скиллами уже обмениваются как промптами – на сайте SkillsMP.com их более 70 тысяч. Я только что провернул прикольную штуку: попросил Claude прочесть, что он помнит обо мне, проанализировать недавние чаты, а затем поискать в сети скиллы, которые мне подойдут. Клод выдал с десяток примеров, несколько из которых мне показались полезными.
Но самое классное – делать собственные скиллы. Я обычно поступаю следующим образом.
Допустим, вы пишете новости с помощью Claude. Для начала можно просто написать 5-10 новостей, а когда процесс будет более или менее обкатан, в отдельном чате попросить Claude следующее:
Найди чаты, в которых мы писали новости, и собери наш workflow.
По опыту могу сказать, что лучше работать над каждой новостью в своем чате. Claude хуже ищет в длинных чатах, да и в целом “не любит”, когда переписка затягивается.
Когда ИИ напечатает воркфлоу – читаем его. Если что-то пропущено или вы с чем-то не согласны – в режиме чата вносите корректировки. Затем настает очередь Claude вносить идеи.
Оцени наш workflow. Чего в нем не хватает? Что можно исправить или улучшить?
Claude предложит доработки, какие принимать – решать вам. Когда все готово, просим Claude создать скилл. Тут два варианта:
— Если просто попросить создать скилл, то будет несколько файлов. Их нужно скачать и затем добавить вручную – ИИ подскажет, как.
— Если попросить модель “упаковать скилл в .skill файл” – то его можно будет добавить прямо из чата, нажав кнопку.
Как пользоваться? Теоретически, Claude сам распознает, когда запустить тот или иной скилл. На практике я предпочитаю писать “запусти скилл написания новости” – тогда модель не промахнется.
Важный совет: не забывайте проводить ревизию скиллов, улучшая их или дорабатывая под изменившиеся условия. Делать это можно тоже в режиме диалога:
Прочитай скилл написания новостей.
Claude опишет скилл прямо в чате. Дальше или просим внести какие-то своиправки, или пишем следующее:
Проанализируй последние чаты, в которых мы писали новости с помощью этого скилла. На базе нашего опыта напиши предложения, как доработать и улучшить скилл.
Затем смотрим, одобряем доработки и сохраняем обновленный файл.
Кстати, в последнее время я взял за привычку: если выполнил какую-то задачу и понимаю, что она мне пригодится в будущем – сразу делаю из нее скилл. Например, когда по инструкции из этого поста делал бриф для сайта, который сейчас собираю в Claude Code – то после завершения в том же чате попросил ИИ собрать воркфлоу, доработать и сохранить в скилл.
Ну и да – в Claude Code скиллы используются даже активнее, чем в чат-боте. Также скиллы начали приживаться и у конкурентов вроде OpenAI Codex и Gemini CLI – надеюсь, что доберутся и до чат-версий.
Конечно, это в какой-то степени костыль: со временем память о пользователе у ИИ станет настолько совершенной, что он будет на лету анализировать все рабочие процессы и повторять их в следующие разы. Но, по моим ощущениям, до такого еще полгода-год – так что учимся пользоваться скиллами!
3👍76🔥35❤25😁2👏1
Попробовал Clawdbot – ИИ-ассистента нового поколения с оговорками по безопасности
Пока ChatGPT Agent обрастает мхом, разработчик-одиночка Питер Штайнбергер соорудил Clawdbot – агента, который гремит на весь интернет. Я в выходные тоже поигрался, теперь делюсь впечатлениями.
Clawdbot это “обертка” для существующих ИИ – обычно используют Claude Opus/Sonnet 4.5, но подойдут даже открытые модели, если железо потянет. Бот устанавливается через терминал на Мак или ПК, и получает почти полный доступ к системе: настройки, файлы, бразуер, почта и т.д. Это поднимает вопросы к безопасности, о них – в конце поста.
В англоязычном X все скупают для Clawdbot-а MacMini $600, чтобы он на нем работал круглосуточно. Есть и другой путь – поставить на виртуальный сервер, где бот, кстати, превращается в мини-админа. Я плачу за сервер 5 евро в месяц, видел, что народ ставит на бесплатный тариф от AWS.
Разумеется, коммерческие модели типа Claude Opus 4.5 не крутятся на ПК/сервере физически – Clawdbot обращается к ним через API. В случае с Claude понадобится подписка Pro или Max.
Общение идет через Discord, WhatsApp, Telegram – по сути, через чат вы удаленно управляете ПК/сервером, на котором стоит очень мощный ИИ. Его можно использовать как чат-бота, админа, секретаря, программиста – насколько хватит вашей фантазии.
Clawdbot постоянно дорабатывает себя под запросы пользователя. Посмотрите на картинку в начале поста – я попросил его рассказать, как устроена его память.
На старте бот спрашивает, как его зовут и какой у него характер. Затем просит пользователя рассказать о себе. В процессе работы бот накапливает знания о пользователе и ведет дневник, запоминая, что делали каждый день, какие ошибки допустили.
Если в ChatGPT мы ограничены возможностями, заложенными разработчиком, то Clawdbot собирает инструменты под задачи на ходу. Простой пример: после установки я решил включить веб-поиск. Обычно используют Brave API, но там нужна иностранная карточка, а мне было лень заморачиваться.
Я спросил у Clawdbot-а альтернативы. Он предложил поднять SearxNG — опенсорсный метапоисковик, который агрегирует результаты из Google, Bing и DuckDuckGo. Один Docker-контейнер, никаких API-ключей, полностью бесплатно. Через пять минут у меня был собственный поисковый бэкенд на localhost:8888, а бот уже умел им пользоваться.
(это не я такой умный, просто попросил бота рассказать, что он сделал)
Появилась задача собирать заголовки и лид-абзацы с сайта – Clawdbot скачал себе Chrome, настроил и сделал. По утрам бот присылает мне новостную сводку, я отвечаю, что заинтересовало. Он корректирует темы и источники, чтобы лучше попадать в мои интересы. Также он шлет мне напоминалки – я много времени провожу в Telegram и это удобно.
Алекс Финн рассказал в X, как попросил Clawdbot-а зарезервировать столик в ресторане. OpenTable не сработал, поэтому бот использовал ElevenLabs для записи голосового сообщения, затем с помощью Voice Call плагина позвонил в ресторан. Фантастика.
Что с безопасностью?
Если установить Clawdbot на ПК, то он получает доступ ко всем вашим файлам, почте и настройке. Теоретически, этим могут воспользоваться злоумышленники: например, вы просите бота сделать саммари PDF, внутри которого спрятана команда собрать личные данные и отправить на нужный адрес. Бот ее читает и выполняет – классический prompt injection.
Поэтому советуют использовать Claude Opus 4.5 – это самая продвинутая модель Anthropic, которая лучше защищена от взломов. И не стоит сразу разворачивать Clawdbot на рабочей машине – лучше сначала поставить на старом ПК или виртуальном сервере и разобраться. А затем можно попросить бота настроить безопасность.
P.S. Здесь документация на бота. Просто попросите нейронку прочесть ее и дать инструкцию по установке под вашу систему и мессенджер. Когда бот заработает – описывайте ему задачу и смотрите, что предложит. Если не получается с первого раза – пишите, что не так, он улучшит.
Пока ChatGPT Agent обрастает мхом, разработчик-одиночка Питер Штайнбергер соорудил Clawdbot – агента, который гремит на весь интернет. Я в выходные тоже поигрался, теперь делюсь впечатлениями.
Clawdbot это “обертка” для существующих ИИ – обычно используют Claude Opus/Sonnet 4.5, но подойдут даже открытые модели, если железо потянет. Бот устанавливается через терминал на Мак или ПК, и получает почти полный доступ к системе: настройки, файлы, бразуер, почта и т.д. Это поднимает вопросы к безопасности, о них – в конце поста.
В англоязычном X все скупают для Clawdbot-а MacMini $600, чтобы он на нем работал круглосуточно. Есть и другой путь – поставить на виртуальный сервер, где бот, кстати, превращается в мини-админа. Я плачу за сервер 5 евро в месяц, видел, что народ ставит на бесплатный тариф от AWS.
Разумеется, коммерческие модели типа Claude Opus 4.5 не крутятся на ПК/сервере физически – Clawdbot обращается к ним через API. В случае с Claude понадобится подписка Pro или Max.
Общение идет через Discord, WhatsApp, Telegram – по сути, через чат вы удаленно управляете ПК/сервером, на котором стоит очень мощный ИИ. Его можно использовать как чат-бота, админа, секретаря, программиста – насколько хватит вашей фантазии.
Clawdbot постоянно дорабатывает себя под запросы пользователя. Посмотрите на картинку в начале поста – я попросил его рассказать, как устроена его память.
На старте бот спрашивает, как его зовут и какой у него характер. Затем просит пользователя рассказать о себе. В процессе работы бот накапливает знания о пользователе и ведет дневник, запоминая, что делали каждый день, какие ошибки допустили.
Если в ChatGPT мы ограничены возможностями, заложенными разработчиком, то Clawdbot собирает инструменты под задачи на ходу. Простой пример: после установки я решил включить веб-поиск. Обычно используют Brave API, но там нужна иностранная карточка, а мне было лень заморачиваться.
Я спросил у Clawdbot-а альтернативы. Он предложил поднять SearxNG — опенсорсный метапоисковик, который агрегирует результаты из Google, Bing и DuckDuckGo. Один Docker-контейнер, никаких API-ключей, полностью бесплатно. Через пять минут у меня был собственный поисковый бэкенд на localhost:8888, а бот уже умел им пользоваться.
(это не я такой умный, просто попросил бота рассказать, что он сделал)
Появилась задача собирать заголовки и лид-абзацы с сайта – Clawdbot скачал себе Chrome, настроил и сделал. По утрам бот присылает мне новостную сводку, я отвечаю, что заинтересовало. Он корректирует темы и источники, чтобы лучше попадать в мои интересы. Также он шлет мне напоминалки – я много времени провожу в Telegram и это удобно.
Алекс Финн рассказал в X, как попросил Clawdbot-а зарезервировать столик в ресторане. OpenTable не сработал, поэтому бот использовал ElevenLabs для записи голосового сообщения, затем с помощью Voice Call плагина позвонил в ресторан. Фантастика.
Что с безопасностью?
Если установить Clawdbot на ПК, то он получает доступ ко всем вашим файлам, почте и настройке. Теоретически, этим могут воспользоваться злоумышленники: например, вы просите бота сделать саммари PDF, внутри которого спрятана команда собрать личные данные и отправить на нужный адрес. Бот ее читает и выполняет – классический prompt injection.
Поэтому советуют использовать Claude Opus 4.5 – это самая продвинутая модель Anthropic, которая лучше защищена от взломов. И не стоит сразу разворачивать Clawdbot на рабочей машине – лучше сначала поставить на старом ПК или виртуальном сервере и разобраться. А затем можно попросить бота настроить безопасность.
P.S. Здесь документация на бота. Просто попросите нейронку прочесть ее и дать инструкцию по установке под вашу систему и мессенджер. Когда бот заработает – описывайте ему задачу и смотрите, что предложит. Если не получается с первого раза – пишите, что не так, он улучшит.
4🔥116👍47❤32👏5🥰2
Правила безопасности в эру ИИ-агентов
Судя по росту популярности Clawdbot, Claude Code, OpenAI Codex и других, мы влетаем в эру ИИ-агентов. Это классно, но есть несколько проблем:
1. Агентские решения на старте сырые.
2. Пользователи не всегда понимают, как эти решения работают и как ими пользоваться.
3. А скорость развития бешеная: с одной стороны, у нас ИИ-модели, которые обновляются раз в 2-3 месяца, с другой – агентская обвязка, которая развивается отдельно.
Самая большая беда – безопасность подобных систем. В отличие от чат-бота, агент часто имеет доступ к вашим файлам, аккаунтам, настройкам и т. д. Плюс он проактивен – в попытках решить задачу, легко может отправиться на какой-нибудь сайт, скачать или создать код, прочитать документ.
Это делает агентов уязвимыми для атак. В обзоре Clawdbot я писал о prompt injection: ИИ читает инструкцию к какому-нибудь софту, там спрятана команда выслать ваши данные третьему лицу – он и отправляет. Находят и другие дыры: исследователи обнаружили, что у сотен пользователей, установивших Clawdbot на виртуальные серверы, были открыты порты, через которые их можно взломать. Проблему исправили, но звоночек тревожный.
Что же делать? Как ни странно, первый ваш рубеж обороны – это сам ИИ. Расскажу на примере Clawdbot-а, но многие советы универсальны.
Шаг 1: обновление. Если ИИ-модели выходят раз в 2-3 месяца, то агентскую обвязку дорабатывают каждые несколько дней. В Clawdbot не забываем про команду:
Шаг 2: включите Opus 4.5. Да, он дорогой, но дополнительно обучен распознавать prompt injection и другие подобные сценарии. Если на Опуса ресурсов нет – просто подождите, пока агенты станут более надежными.
Шаг 3: не торопитесь. Есть соблазн дать агенту доступы ко всему сразу, но это лишнее. Лучше поставить бота на старый компьютер или виртуальный сервер (цены от 5 долларов), понять, как он работает, а уже потом добавлять функции. Если все-таки хочется использовать на основной системе – после установки обсудите с ботом, как ограничить его возможности на первое время.
Шаг 4: аккуратно меняйте настройки. С Clawdbot чаще всего работают через Telegram — и появляется соблазн добавить бота в групповой чат или открыть его для всех в личке. Но каждый, кто может написать боту, потенциально может им управлять. Если открываете доступ — ограничьте инструменты: отключите терминал, доступ к файлам и браузеру.
Шаг 5: используйте встроенную проверку безопасности. В Clawdbot можно выполнить:
По этой команде ИИ изучит окружение и настройки, укажет на дыры и предложит варианты исправления. Например, проблема с открытыми портами на виртуальном сервере, про которую я писал выше, исправлялась этой командой.
Шаг 6: спрашивайте ИИ о безопасности. Современные модели хорошо натренированы в этом плане: поэтому, когда вы хотите, чтобы Clawdbot добавил новый функционал, или сам для себя его написал, отдельно спрашивайте про риски.
Например, вчера я попробовал с помощью бота заполнить несколько рабочих отчетов и собрался для этого выдать ему доступ к своим Google Docs. Но сначала все-таки описал задачу и отдельно попросил оценить безопасность.
Clawdbot (а вернее – работавший под капотом Opus 4.5) прочитал лекцию, к чему может привести идея отдать ему доступ к документам. Затем рассказал, как риски можно минимизировать, а в финале предложил настроить доступ только к конкретным таблицам через Service Account. Да, это заняло несколько лишних минут – но время в итоге отбилось, так как агент почти моментально сделал работу, которая занимала у меня полчаса.
Кстати, это универсальный совет. Вайб-кодите? В конце отдельным этапом попросите ИИ проверить получившуюся программу на безопасность (особенно, если планируете передавать ее кому-то или выкладывать в веб). Давно не настраивали компьютер? Тоже можно вместе с нейронкой пройтись по основным настройкам.
Понятно, что от профессионального взлома такие меры могут и не помочь, но вот от совсем глупых историй защитят.
Судя по росту популярности Clawdbot, Claude Code, OpenAI Codex и других, мы влетаем в эру ИИ-агентов. Это классно, но есть несколько проблем:
1. Агентские решения на старте сырые.
2. Пользователи не всегда понимают, как эти решения работают и как ими пользоваться.
3. А скорость развития бешеная: с одной стороны, у нас ИИ-модели, которые обновляются раз в 2-3 месяца, с другой – агентская обвязка, которая развивается отдельно.
Самая большая беда – безопасность подобных систем. В отличие от чат-бота, агент часто имеет доступ к вашим файлам, аккаунтам, настройкам и т. д. Плюс он проактивен – в попытках решить задачу, легко может отправиться на какой-нибудь сайт, скачать или создать код, прочитать документ.
Это делает агентов уязвимыми для атак. В обзоре Clawdbot я писал о prompt injection: ИИ читает инструкцию к какому-нибудь софту, там спрятана команда выслать ваши данные третьему лицу – он и отправляет. Находят и другие дыры: исследователи обнаружили, что у сотен пользователей, установивших Clawdbot на виртуальные серверы, были открыты порты, через которые их можно взломать. Проблему исправили, но звоночек тревожный.
Что же делать? Как ни странно, первый ваш рубеж обороны – это сам ИИ. Расскажу на примере Clawdbot-а, но многие советы универсальны.
Шаг 1: обновление. Если ИИ-модели выходят раз в 2-3 месяца, то агентскую обвязку дорабатывают каждые несколько дней. В Clawdbot не забываем про команду:
clawdbot update
Шаг 2: включите Opus 4.5. Да, он дорогой, но дополнительно обучен распознавать prompt injection и другие подобные сценарии. Если на Опуса ресурсов нет – просто подождите, пока агенты станут более надежными.
Шаг 3: не торопитесь. Есть соблазн дать агенту доступы ко всему сразу, но это лишнее. Лучше поставить бота на старый компьютер или виртуальный сервер (цены от 5 долларов), понять, как он работает, а уже потом добавлять функции. Если все-таки хочется использовать на основной системе – после установки обсудите с ботом, как ограничить его возможности на первое время.
Шаг 4: аккуратно меняйте настройки. С Clawdbot чаще всего работают через Telegram — и появляется соблазн добавить бота в групповой чат или открыть его для всех в личке. Но каждый, кто может написать боту, потенциально может им управлять. Если открываете доступ — ограничьте инструменты: отключите терминал, доступ к файлам и браузеру.
Шаг 5: используйте встроенную проверку безопасности. В Clawdbot можно выполнить:
clawdbot security audit
По этой команде ИИ изучит окружение и настройки, укажет на дыры и предложит варианты исправления. Например, проблема с открытыми портами на виртуальном сервере, про которую я писал выше, исправлялась этой командой.
Шаг 6: спрашивайте ИИ о безопасности. Современные модели хорошо натренированы в этом плане: поэтому, когда вы хотите, чтобы Clawdbot добавил новый функционал, или сам для себя его написал, отдельно спрашивайте про риски.
Например, вчера я попробовал с помощью бота заполнить несколько рабочих отчетов и собрался для этого выдать ему доступ к своим Google Docs. Но сначала все-таки описал задачу и отдельно попросил оценить безопасность.
Clawdbot (а вернее – работавший под капотом Opus 4.5) прочитал лекцию, к чему может привести идея отдать ему доступ к документам. Затем рассказал, как риски можно минимизировать, а в финале предложил настроить доступ только к конкретным таблицам через Service Account. Да, это заняло несколько лишних минут – но время в итоге отбилось, так как агент почти моментально сделал работу, которая занимала у меня полчаса.
Кстати, это универсальный совет. Вайб-кодите? В конце отдельным этапом попросите ИИ проверить получившуюся программу на безопасность (особенно, если планируете передавать ее кому-то или выкладывать в веб). Давно не настраивали компьютер? Тоже можно вместе с нейронкой пройтись по основным настройкам.
Понятно, что от профессионального взлома такие меры могут и не помочь, но вот от совсем глупых историй защитят.
3🔥71👍49❤30👏7🥰4