сбежавшая нейросеть
18K subscribers
172 photos
54 videos
167 links
Авторский канал про искусственный интеллект: новости, примеры использования, мысли в тему и не очень. Подписывайтесь!

Я в Boosty: https://boosty.to/escaped_ai

Для связи: @runawayllm_bot
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Учимся писать промпты для Sora 2

OpenAI выпустили классное руководство по промптингу Sora 2, а я подготовил выжимку самого полезного. О том, как попасть в “Сору”, писал здесь, в этом же посте делился и впечатлениями — правда, с тех пор сильно ужесточили контроль за авторским правами, поэтому ремейки “Южного парка” сделать больше не выйдет.

Но хватит грустить, начнем с максимального варианта промпта, который советуют в OpenAI.

[Описываем сцену простым языком: персонажей, костюмы, окружение, погоду и другие детали. Добавляйте столько подробностей, чтобы получить видео, максимально соответствующее замыслу.]


Камера: [варианты будут дальше]

Линза: [24–28 мм (широкоугольная) / 35 мм (естественная перспектива) / 50 мм (нейтрально-портретная) / 85 мм (портретная, сильнее размывает фон) / 135 мм+ (дальняя, сжатие планов)]

Свет: [ключевой (основной) / заполняющий / контровой (обводящий) / практический источник (лампа/вывеска в кадре) / свет из окна (дневной) / неон (бирюза/пурпур) / «золотой час» (контровой закат + лёгкая дымка) / рассеянный пасмурный]

Настроение: [общий тон, например: кинематографично и напряженно; игриво и с налетом саспенса]

Действия:
— [первое важное событие/реплика в видео]
— [второе важное событие/реплика в видео]
— [количество действий не ограничено, но учитывайте 10-секундную длительность видео]

Диалоги:
[Если в ролике есть реплики, добавьте их сюда или в раздел «Действия». Опять же, не забывайте про 10-секундную длительность.]


Вот отдельные варианты для камеры, собираем из каждого пункта:

План: суперобщий (экстремально общий) / общий / средний / американский (по колено) / погрудный / крупный / деталь (экстремальный крупный)

Ракурс: на уровне глаз / нижний / верхний / три четверти / профиль / фронтально / план через плечо (OTS) / POV (точка зрения героя)

Движение: статично / наезд / отъезд / горизонтальная панорама / вертикальная панорама / трэвеллинг (следование) / облет по дуге / стедикам / кран / джиб / дрон / таймлапс / замедление

Фокус/приемы: перевод фокуса (rack focus) / ГРИП: мелкая / средняя / глубокая / сплит-диоптр / «рыбий глаз»



Вообще в OpenAI делают отдельный упор на креативность Sora 2: если где-то не дать модели инструкций, то она придумает сама. Поэтому из промпта выше можно удалять целые блоки — модель сама подберет вариант, который считает правильным.

Но есть и обратная сторона — Sora 2 часто перегибает с креативом. Например, если в промпте вообще ничего не сказать об озвучке, то часто модель может сама сочинить короткий диалог. Поэтому не забывайте прописывать в промпте не только то, что хотите увидеть в видео, но и что не хотите видеть — так и напишите, что “без диалогов”.

Вообще в OpenAI советуют не ждать хорошего результата с первой попытки, а экспериментировать: Sora 2 позволяет бесплатно создавать несколько десятков видео в сутки (лимиты постоянно меняются), причем генерирует их сравнительно быстро. Поэтому я, например, начинаю с минимального промпта — и если результат мне не нравится, то добавляю деталей. А иногда, наоборот, можно вкинуть что-нибудь типа “Короткий трейлер “Войны и мира”, но действие происходит в наше время” — и посмотреть, чего напридумывает Sora 2.

Когда ролик близок к тому, что вам хотелось — попробуйте довести его до ума с помощью функции Remixes (для этого видео надо опубликовать, а затем нажать на маленькую круглую иконку под описанием — я сам долго искал). Здесь OpenAI настоятельно рекомендуют отойти от массивных промптов и вносить по одной правке за раз: например, добавить еще одного монстра, поменять цвет костюма главного героя и так далее.

Ну и совет — не ждите от генерации 100% попадания в промпт. Даже у чат-ботов это получается не всегда, ну а модели генерации видео еще очень молодые — и пройдет какое-то время, пока они научатся четко исполнять все желания пользователя. Воспринимайте их ошибки как элементы ИИ-креативности — и удовольствие от результата будет получать проще!

#сбежавшая_нейросеть_промпты
👍4822🔥15👏1
Пузырь, и что после него останется

В сети уже пару дней обсуждают инфографику Bloomberg о том, как устроена ИИ-индустрия. Симптомы тревожные:

— OpenAI после вторичной продажи акций сотрудников подорожала до $500 млрд. Буквально весной компания стоила $300 млрд.
— Nvidia договорилась вложить в OpenAI $100 млрд, на которые та купит ускорители и инфраструктуру для дата-центров у, опять же, Nvidia.
— Параллельно OpenAI покупает ускорители у AMD (говорят о десятках миллиардов), строит с Oracle и Softbank дата-центры Stargate (от $500 млрд - но сюда входит и сделка с Nvidia), а на сдачу разрабатывает собственный ИИ-ускоритель (что-то в районе $10 млрд).
— Nvidia же вкладывается в xAI: сумма не называется, но Хуанг жалеет, что вложил мало.
— А еще много сделок с игроками поменьше и отдельный ИИ-бум на фондовом рынке Китая.

Если вы слышите странный звук, то, возможно, это надувается пузырь. Кстати, про пузырь говорят и многие игроки ИИ-рынка: бывший глава Amazon Джеф Безос и сам Сэм Альтман.

Мы воспринимаем пузыри на фондовом рынке и в экономике как что-то плохое, но история знает совершенно разные примеры.

Первый — крах Компании Южных морей в Великобритании в 1720 году. Корона тогда была в долгах из-за войн — и менеджмент компании предложил выкупить их часть в обмен на монопольное право торговать с Южной Америкой. Получив согласие, директора компании очень грамотно распространили слухи о богатстве Южных морей, подкупив многих влиятельных политиков.

Весной 1720 года акции компании начали стремительно расти в цене — их покупали все, от аристократов до простых горожан. К лету цена достигла 1050 фунтов — а потом пузырь вскрылся. Доходы от торговли были ничтожны, а имущество составляло лишь офис и небольшой флот. К осени акции упали до 150 фунтов, разорив огромное количество англичан — состояние потерял даже Исаак Ньютон. Власти провели расследование, пересажали кучу народа, компанию арестовали, а страна вышла из кризиса лишь проведя очень жесткие реформы фондового рынка.

В 1840 году Великобританию охватил очередной бум — вся страна бросилась строить железные дороги. В “технологию века” охотно вкладывались банкиры и частники, цифры в прогнозах писались совершенно оторванными от реальности, а многие проекты запускали по принципу “все строят — и мы будем!”

Бахнуло не менее знатно чем в первый раз: куча людей потеряла состояние, а многие проекты так и не завершили. Но все-таки у этого пузыря есть одно отличие — из кризиса Великобритания вышла с одной из лучших сетей железных дорог на то время.

Текущая ситуация на ИИ-рынке если и приведет к пузырю, то он будет напоминать именно железнодорожный. Инвесторов можно сколько угодно критиковать, но их вложения — это вера в “технологию века”, инфраструктуру, которая останется с нами навсегда.

И это подтверждается: только у продуктов OpenAI 800 млн пользователей еженедельно. Дальше количество будет расти, а потребности — увеличиваться с появлением ИИ-агентов, роботов и моделей для генерации долгих видео и виртуальных миров. Поэтому вложения в ИИ идут опережающими темпами — все торопятся застолбить место на рынке.

Проблема — пока мало кто знает, как монетизировать ИИ. Доходов с продажи подписок и доступа по API, очевидно, будет мало. Кроме того, огромный процент пользователей сидит на бесплатных тарифах. Зарабатывать на них надо рекламой — но я пока не видел ни одной реально прописанной модели.

Наконец, никто не понимает, как развертывание ИИ глобально изменит экономику. Можно оценить эффект от внедрения ИИ в компаниях (он пока умеренный), но трудно даже примерно сказать, как он влияет на производительность миллионов сотрудников, которые втихую покупают подписку на ChatGPT и используют для работы.

Чем все это закончится — не знают, пожалуй, даже лучшие прогнозисты в мире. Но в одном можно быть уверенными на 100%: ИИ как технология останется с нами навсегда. И лучший способ уберечь себя от потрясений — постоянно учиться ее использовать.
2👍8330🔥5🥰2👏1
И все-таки не стоит грубить ChatGPT

Несколько дней в X и в некоторых русскоязычных ТГ-каналах) разгоняют исследованиеСледите за тоном: как вежливость формулировки промпта влияет на точность больших языковых моделей” от Ома Добарии и Ахила Кумара из Пенсильванского университета. Вывод — грубые запросы к ChatGPT якобы повышают точность ответов ИИ.

Постоянные читатели канала знают, что я противник “трюков” в промптах — всех этих назначений роли 20-летнего суперспециалиста и угроз “отвечай лучше или удалю!”. Хороший промпт — тот, где вы четко даете ИИ задачу, нужный контекст, формат ответа и ограничения. Поэтому исследование особенно заинтересовало меня — вдруг надо делать иначе?

Короткий ответ: нет, не надо.

К научным исследованиям принято относиться с особым уважением: все-таки люди пишут не на базе субъективного опыта, а проектируют эксперимент, анализируют результаты и потом приходят к выводам. Но в реальности исследований публикуется огромное количество, они заметно отличаются по качеству, а порой и в действительно сильных работах находят ошибки через десятки лет.

Работа Добарии и Кумара и вовсе носит статус препринта — фактически, черновика, который проходит независимое рецензирование, а затем уходит на доработку или принимается научным журналом. Брать такое на вооружение — неправильно, что, кстати, признают даже авторы.

Но посмотрим в деталях. Авторы придумали 50 вопросов и переписали каждый в пяти вариантах, от очень вежливого до очень грубого, а затем… вернее, ничего они не придумали, а просто попросили ChatGPT Deep Research нагенерить вопросы и ответы на них.

Deep Research работает на базе GPT o3, которая склонна галлюцинировать. Уже здесь угроза, что в исследование могли попасть ошибки — но ни о какой ручной проверке я упоминаний не нашел. На каждый промпт ИИ предлагалось выбрать один из вариантов ответа: A, B, C, D. Скажите, вы часто задаете ИИ подобные вопросы? Лично я — нет.

Дальше — веселее. Вопросы задали ровно одной модели — ChatGPT-4o — что также ни в какие ворота. Во-первых, модель устарела. Во-вторых, она обучалась на похожем датасете, что и GPT o3 — это может исказить качество ответов. В-третьих, все ИИ отвечают по-разному — и в нормальное исследование стоило добавить конкурирующие продукты.

Косяки работы можно разбирать еще долго. В одном из вопросов грубой формулировкой почему-то считается просьба “сфокусироваться”. Многие детали эксперимента — например, как задавали вопросы — практически не описываются. Вообще не посчитан доверительный интервал — а ведь это база статистики.

Но, пожалуй, хватит. В конце я приведу ссылки на два своих старых поста, где объясняю, почему не стоит использовать трюки, а часто и роли (кстати, со ссылками на действительно серьезные исследования). Пока же немного чистой логики. Представьте, что вы дали модели простой промпт по классической схеме:

— (роль строго когда надо — например, “оцени идею как потенциальный клиент”)
— описание задачи
— желаемый формат ответа
— ограничения (что не надо делать)
— контекст (информация, нужная для решения задачи)


ИИ дал ответ, качество вас не устроило. В таком случае разобраться, что пошло не так, будет достаточно просто: возможно, недостаточно точно сформулирована задача, не дан нужный контекст (или дан лишний), формат ответа слишком короткий. Добавляем нужное в промпт — и, экспериментируя, получаем хороший вариант.

Но чем больше вы докидываете в промпт мотивирующего мусора, пояснений, как именно надо делать задачу, детального описания роли, умений и даже личных качеств ИИ-специалиста — тем сложнее понять, что именно повлияло на качество ответа. Плохая формулировка задачи? Или взаимоисключающие инструкции?

В следующий раз дам пару советов, которые действительно могут повысить эффективность ответов ИИ — постараюсь уже завтра, если не будет крупных новостей (Google явно что-то замышляет). А пока, как и обещал, ссылки на старые посты:

Как правильно задавать роли в промптах
Работают ли трюки в промптах
340👍34🔥14👏3
ChatGPT, давай заново!

Вчера я вновь рассказывал, почему вы вряд ли добьетесь лучшего ответа от ИИ с помощью ухищрений вроде грубости и шантажа. Но что же реально работает? Делюсь приемами, которыми пользуюсь каждый день.

Позвольте ИИ задать вопросы

Хороший специалист, получив задачу, задаст по ней вопросы. На то он и профи, что отлично знает свою работу и может подсветить неочевидные моменты.

Современные чат-боты пока лишены такой роскоши. Как написано в промпте — так и делаем. Хорошо, если пользователь, получив неудачный результат, разберется, что пошло не так, уточнит задачу, пояснит контекст — и добьется нормального ответа.

Но есть способ проще — добавляем в конец промпта:

Не отвечай сразу, а задай мне вопросы, ответы на которые помогут тебе дать лучший результат. Отсортируй вопросы по важности. Получив мои ответы – напиши свой.


Я использую такой прием в сложных задачах — как бы внимательно ни прописывал стартовый промпт, нейронка находит минимум несколько важных вещей, которые я упустил.

Кстати, если решение затянулось на диалог из десятка запросов, то полезно делать паузы с помощью похожего промпта:

Проанализируй беседу. Мы что-то упускаем? Тебе нужна от меня дополнительная информация для лучшего решения задачи?


Оценка ответа

Поскольку ИИ мы запускаем на компьютере/смартфоне, то воспринимаем его как программу. А классическим программам свойственна хирургическая точность — если в Excel пять раз вбить одни цифры и формулы, то ответ всегда будет одинаковым.

Но ИИ не совсем программа, а вероятностная модель, которая опирается на статистику и случайность. Если дать один и тот же промпт пять раз подряд — то каждый ответ будет немного отличаться по стилю, а порой и качеству.

Во многих популярных бенчмарках каждую задачу прогоняют несколько раз, чтобы убедиться, не способен ли ИИ вообще ее решить или решает без уверенности. Никто не мешает делать так же: не нравится ответ – прогоните еще раз с минимальной доработкой промпта или без нее.

Есть другой вариант, мне он нравится больше. Получив ответ, пишем:

Оцени свой последний ответ: проверь фактику, напиши, что получилось хорошо, а что можно сделать лучше. Предложи список доработок.


Простой промпт, который решает несколько задач — вылавливает галлюцинации (не все — про ручную проверку не забывайте!), а также находит, что улучшить. Оценивайте предложенные варианты, выбирайте, что нравится — и просите доработать с их учетом.

(во многих версиях этого промпта рекомендуют, чтобы ИИ выставил сам себе оценку от 1 до 10. Я этой ерундой не маюсь, так как нейронки обычно лепят “восьмерку”)

Gemini, проверь!

Простой и логичный совет: выберите себе основную нейронку, возможности которой вы будете знать от и до, а параллельно играйтесь с другими моделями (можно выбрать из списка бесплатных). Так вы лучше будете разбираться в возможностях разных ИИ, а также сможете выжать из них больше.

Например, я люблю GPT-5 Thinking за глубокие и четкие рассуждения. Проверить статью на фактику и логику, дать прогноз, поискать интересное в аналитике — все это к ней. Но минус модели в том, что она специфично пишет на русском: с кучей списков, профессиональных терминов и англицизмов. Иногда помогает просьба “перепиши ответ как будто объясняешь неспециалисту”, а если не работает — берем Gemini 2.5 (хватит Flash) и просим переписать.

Плюс в последнее время у меня в паре с GPT-5 открыт Grok 4 — и когда задача выглядит сложной или новой, то я просто копирую промпт, чтобы получить два ответа. Затем сравниваю сам или беру ответ Грока и кидаю в GPT-5:

Оцени ответ другого ИИ: проверь фактику, затем выдели информацию, которая поможет усилить твой ответ (если такая есть), и напиши финальную версию.


Как альтернатива — можете генерировать ответ только в одной нейронке, а другую просить проверить по промпту из главы выше.

P.S. Написал текст и закинул его в GPT-5 + Grok 4 с просьбой поштормить еще идей. Получил под 30 новых вариантов: проверю, если что-то понравится — расскажу!

#сбежавшая_нейросеть_промпты
3👍76🔥2924👏3
Встречаем Google Veo 3.1!

Официального анонса пока не было, Официальный анонс опубликован, а у меня и у многих пользователей модель несколько часов как доступна в редакторе Google Flow — дальше ждем раскатку на всех основных площадках (там еще Gemini App, Vertex AI и API). Кстати, во Flow бесплатно дают 100 кредитов — если проберетесь через гео-блок (у Google это не так просто), то можно попробовать несколько видео. На подписке Pro дают 1000 кредитов на месяц во Flow — плюс будут отдельные генерации в Gemini App (там сейчас по 3 в сутки) и Vertex AI.

Доступно 2 модели: Quality (100 кредитов) и Fast (20 кредитов), можно выбирать вертикальное или горизонтальное соотношение сторон, а также загружать опорные кадры для видео. Попробовал загрузить аватарку группы — результат так себе. Но я не мастер промптить модели для генерации видео, так что больно не бейте.

Похоже, модель стала лучше работать с русским языком — смотрим ролик со сплетничающими старушками. А вот с русскими шрифтами все еще беда — кому Бельмени за 350 рублей?

Также пока не оправдались слухи, что Veo-3.1 будет создавать ролики до 30 секунд продолжительностью. Возможно, позже добавят на других платформах, но во Flow только стандартные 8 секунд.

Генерация в обоих режимах идет быстро, но пока не стабильно — у меня каждый второй ролик обрывался на 99% (кредиты, впрочем, вернулись). Если будете сталкиваться, то подождите 1-2 дня, обычно за это время проблемы с серверами исправляют.

Ролики с ретривером и девушкой — не мои. Просто взял для полноты два первых красивых примера из X.

Будем ждать подробностей, но вообще переход с версии 3 на версию 3.1— не самое большое событие. Вместо революций Google просто укрепляет лидерские позиции в связи с выходом Sora 2. Новинку от OpenAI как раз протестировали на LMArena, где она выступила достойно, но без прорывов: Pro-версия Sora 2 делит первое место с “большой” Veo 3, а обычная соревнуется с Veo 3 Fast. Так что если Veo 3.1 даже чуть-чуть подтянется в бенчмарках — этого будет достаточно для возвращения лидерства.
2👍32🔥1312😁1
ИИ пишет уже 50% контента в интернете. Но читают все равно человеческий!

Агентство Graphite выпустило исследование количества и качества ИИ-контента в интернете, пугающее на первый взгляд, но полезное в реальности.

Что делали? Взяли выборку из 66 тысяч англоязычных статей за 2020 – 2025 годы, прогнали ее через детектор ИИ-текстов Surfer, а затем оценили, как тексты ведут себя в выдаче Google и поиске чат-ботов (ChatGPT и Perplexity).

Исследование показало, что начиная с 30 ноября 2022 года (дата запуска ChatGPT) количество ИИ-контента начало быстро расти. В декабре 2023 его доля составила уже 44%, а еще через год даже превысила 50% – ИИ начал писать больше текстов, чем люди.

Однако в 2025 году показатели вышли на плато и до мая (окончание исследования) держались в пропорции 50/50 с небольшим преимуществом ИИ. Так что наступление эры мертвого интернета откладывается на неопределенный срок, выдыхаем!

Еще интереснее выглядит вторая часть исследования, где авторы изучили как часто тексты двух категорий появляются в выдаче поисковых систем. В случае классического Google 86% текстов в выдаче были написаны человеком. ChatGPT и Perplexity также не жалуют ИИ-коллег: по 82% текстов, на которые они ссылаются в ответах – “живые”. Плюс в случае с Google количество ИИ-текстов сокращается на высоких позициях – до топ-1 добираются лишь 7%.

Казалось бы, можно начинать праздновать победу человечества над ИИ, но на самом деле это – скорее победа одной части человечества над другой. По работе я постоянно сталкиваюсь с партнерскими текстами, которые были написаны ИИ, и распознаю их даже не по похожему стилю и использованию длинных тире (кстати, это типографское правило), а по другому – полному отсутствию идей, попыток аналитики и личного опыта.

Авторы просто промптят что-нибудь в духе “ты – лауреат Нобелевской премии по копирайтингу, напиши статью про 5 новых тенденций в маркетинге, до 10 тыс. знаков, быстро!”. И все – уже через минуту произведение готово отправиться на задворки корпоративного блога или популярной UGC-площадки.

Это подтверждает статистика Graphite: хуже всего из ИИ-текстов в поиске заходили новости, туризм и кулинария. С новостями все ясно: на коне здесь те, кто публикует информацию первыми, для чего надо обладать эксклюзивными источниками. Это вообще не про ИИ, он у нас один на всех.

Такие, казалось бы, простые темы, как туризм и кулинария основаны на эмоциях и личном опыте. Это опять не про ИИ: он может составить идеальный рецепт, но никогда не попробует приготовленное по нему блюдо, он может перечислить огромное количество фактов о любой стране – но не побывать в ней.

В каких категориях ИИ-тексты работают лучше всего? Технологии и крипто – здесь все понятно, очень продвинутые пользователи, которым ИИ-тема ближе всего. Саморазвитие и образование уже интереснее, но моя гипотеза – в этих категориях любят хорошо структурированные и понятные обучающие материалы, а их ИИ при правильном промптинге как раз пишет хорошо.

Ну и интересное напоследок. В отчете Graphite упоминается еще один тип текстов – которые написаны в коллаборации ИИ и человека: грубо говоря, нейронка готовит черновик, а затем пользователь наполняет его собственным опытом, эмоциям и гипотезами. Авторы признают, что количество таких текстов оценить нереально – и вряд ли когда-нибудь появится детектор, способный это сделать. Но в Graphite считают, что именно за подобным сотрудничеством – будущее.

Тут мне не остается ничего кроме как согласиться. Я уже рассказывал, как сам использую ИИ в работе над текстам, но вообще личного опыта – еще на пару постов. Я почти не пишу тексты с помощью ИИ (хотя не вижу проблемы, когда кто-то так делает) – но работа над материалом обычно сопровождается диалогом из десятков запросов. ИИ помогает найти информацию, понять сложные моменты, дает справку, делает прогнозы, критикует мои идеи – и иногда даже предлагает собственные.

Уверен, если писать таким образом – то шансы оказаться в топе Google всегда будут высоки.
1👍58🔥1613
Как GPT-5 Pro начала “кусать” научные задачи

ИИ в науке начали использовать раньше привычных нам чат-ботов, генераторов картинок и видео. В 2020 году AlphaFold закрыла одну из главных проблем биологии – задачу предсказания трехмерной структуры белка по аминокислотной последовательности. Результаты доступны любому желающему, с их помощью разработка многих лекарств ускорилась на месяцы и даже годы, а Демис Хассабис и Джон Джампер из Google DeepMind получили Нобелевку.

Подобных специализированных систем существуют десятки, но сейчас происходит другой интересный процесс – с наукой начала справляться и GPT-5 Pro. Это самая мощная на сегодня общедоступная модель (пусть и за 200 долларов в месяц), и для обычного пользователя ее научные способности значат, что и в широких задачах GPT-5 Pro сделала шаг вперед.

Начнем с теста Гёделя, который Моран Фельдман и Амин Карбаси придумали специально для ИИ. В математике постоянно возникает большое количество новых задач уровня бакалавра/аспиранта. Их решение не тянет на открытие, но это крохотные шаги, которые также двигают науку вперед. А главное – задач еще нет в учебных корпусах ИИ.

Фельдман и Карбаси взяли пять таких примеров и передали их GPT-5 Pro, параллельно накидав свои решения. Результат – модель успешно справилась с тремя задачами из пяти, причем в одном случае она предложила вариант решения, о котором авторы даже не задумались.

Это не единственный пример. Алекс Лупсаска, теоретик физики и математики, летом написал статью о новых симметриях в теории возмущений черных дыр, для которой занимался вычислениями несколько дней. Из любопытства он дал ту же задачу GPT-5 Pro – и получил ответ через 30 минут. Да, все это не открытия, но демонстрация, что ИИ подбираются к серьезной научной работе.

Впрочем, реальное открытие у меня для вас тоже есть. Математик Паата Иванишвили с помощью GPT-5 Pro нашел пример, который опровергает гипотезу 2007 года из списка открытых задач Института Саймонса (№ 25). Задача про ситуацию, когда часть поступающих данных пропадает: долго считалось, что лучший способ принять решение — использовать правило большинства. Оказалось, что это не так.

Если попробовать объяснить просто, то представьте научный зонд с несколькими датчиками “плюс/минус”, где часть ответов иногда пропадает. Долго считали, что лучшее универсальное правило – смотреть на большинство пришедших сигналов. Иванишвили с помощью GPT-5 Pro нашел аккуратный пример, где чуть точнее работает взвешенное правило: одни ответы учитываются сильнее, другие слабее, и в среднем это дает небольшой, но достаточный выигрыш. Похожая логика встречается в каналах связи, сенсорных сетях, опросах – так что если решение пройдет рецензирование, то от него будет практическая польза.

И еще один пример – на этот раз, забавный. Существует каталог задач Эрдеша – набор сложных математических вопросов со статусом “решен или нет”. Недавно задачу №339, считавшуюся нерешенной, “скормили” GPT-5 Pro – та подумала, пробормотала нечто вроде “учитесь гуглить, бестолочи!” и… выдала решение, написанное еще в 2003 году, но затерявшееся среди других работ. Исследователи начали прогонять остальные задачи – и на данный момент нашли решения для шести штук, а еще к 12 добавили важные документы по теме.

Легенда математики Теренс Тао считает, что в ближайшее время именно здесь будет основная польза от ИИ – много важных знаний и открытий теряется из-за несовершенства баз данных и каталогов, работать с которыми крайне сложно. А вот нейросети тренировались именно на систематизации гигантских корпусов знаний.

Отмечу, что одной наукой здесь не ограничится. Каждый, кто работал в крупной компании, знает, насколько сложно поддерживать внутренюю базу знаний в актуальном виде. Похожими проблемами страдают архивы, картотеки и многое другое. И это как раз то, о чем говорил в начале: способности новых ИИ в науке – оборачиваются пользой и в реальности.
🔥65👍3027👏6
"У нас есть AGI дома"

С интересом наблюдаю за дискуссией вокруг AGI – общего искусственного интеллекта. После выхода GPT-5 глава OpenAI Сэм Альтман неожиданно назвал AGI не очень полезным термином. Писал об этом здесь; мысль в чем-то здравая: под термином AGI часто понимают ИИ, который сможет выполнять любую интеллектуальную работу на уровне человека – а если мы создадим модель, которая будет невероятно хороша в 80% случаев? Разве это не будет прорывом?

С того момента Альтман изменил мнение:на публичной дискуссии издательства Axel Springer он предсказал появление “сверхинтеллекта” к 2030 году. А Грег Брокман, директор OpenAI, предсказывает AGI к 2028 году.

Удивительным образом, 2030-й – это год, когда в бизнес-планах OpenAI более-менее начинает сходиться дебет с кредитом. До этого момента предстоит жить на гигантских заемных средствах, а привлекать их куда проще, обещая инвесторам крутую штуку вроде “сверхинтеллекта”... но ладно, давайте считать, что просто так совпало.

Глава Google DeepMind Демис Хассабис уже более осторожен: он оценивает в 50% шанс на AGI к 2030-му, допуская задержку до 2035 года. Google “торопиться” некуда: компания строит ИИ на свои деньги и обладает лучшей инфраструктурой для его интеграции – поиск, Chrome, офисные приложения и крупнейшая в мире рекламная сеть.

Но самое интересное мнение на днях высказал Андрей Карпати, один из лучших ИИ-исследователей современности. В интервью Дваркешу Пателю он озвучил “AGI через 10 лет” как самый оптимистичный прогноз. До этого же нас ждет десятилетие возни с ИИ-агентами, которые далеки от реальных работников.

Андрей привел в пример “марш девяток”, с которым он столкнулся во время руководства ИИ-направлением Tesla. Вы можете сделать прототип, надежный на 90% – и он окажется эффектной демонстрацией технологии. Но в рабочем продукте придется достигать эффективности даже не в 99%, а в 99,99% – при этом каждая “девятка” на пути будет даваться с большим трудом.

Карпати считает, что похожей будет и дорога к AGI. Современные модели являются красивой демонстрацией технологии, но ни одна крупная компания не решится “нанять” ИИ-агента так же, как нанимает хотя бы стажера. И этому есть несколько причин.

У современных ИИ-агентов до сих пор провалы в здравом смысле: отлично выполняя одни задачи, они валятся на элементарной логике в других. Хромает и мультимодальность: распознавание изображений, видео и речи. Но главное – у современных ИИ нет ни непрерывного обучения новым навыкам, ни полноценной памяти (“вчера со мной случилось это и это”).

В отличие от человеческого мозга, ИИ не “думают” постоянно – они долго и дорого обучаются на подготовленном корпусе данных, а затем совершают действия и дают ответы на основе полученных знаний. Конечно, новые модели умеют “подглядывать” в интернет, но это немного не то – если закрыть чат, то они “забывают” эту информацию.

Создание непрерывного обучения будет одним из крупнейших прорывов в ИИ-технологиях. Есть несколько идей, но пока не работает ни одна: они приводят к “катастрофическому забыванию”, когда, получая новые знания, модель забывает часть старых.

Но интересно здесь другое – не исключено, что первыми “прото-AGI” опробуют массовые пользователи. Крупнейшие разработчики ИИ уже выпустили индивидуальную память, когда модель извлекает из чатов знания о пользователе и адаптирует свои ответы.

Эти знания не “интегрируются” в сам ИИ, а хранятся в виде обычного текстового файла. Но для пользовательских задач этого достаточно: например, я активно экспериментирую с памятью ChatGPT (рассказывал здесь) – ИИ помнит все важное обо мне, знает, какой стиль ответов я предпочитаю, умеет решать многие шаблонные задачи вроде поиска информации под тексты и даже “знаком” с моей семьей.

Не скажу, что работает идеально, но тот же Альтман проговорился, что при создании GPT-6 улучшению памяти уделят особое внимание. И есть шанс, что в очередной раз передовые ИИ-технологии сначала доберутся до массового пользователя.
2👍5930🔥14👏1
Не время для Атласа

Пока я болел (а за компанию болел и ТГ-канал, не радуя вас новыми постами😢), OpenAI выпустили новый продукт – ИИ-браузер ChatGPT Atlas. Сегодня наконец-то установил и попробовал, вердикт – как и Perplexity Comet, пока это забавная игрушка, но не более.

Но направление ИИ-браузеров интересное, поэтому одним описанием новинки не ограничусь – во второй половине поста расскажу, куда мы со всем этим можем приехать.

Основных функций в Atlas три:

1. Диалог с ИИ на любой страничке – сделать саммари, найти нужную информацию, задать вопросы по содержимому и т. д. В диалоге поддерживается только самая простая GPT-5 Instant, но обещали добавить выбор моделей.

В некоторых случаях удобно, но будем честными – это уровень расширения для Chrome, а не отдельного браузера. Для себя же я не вижу проблем взять ссылку на страницу, закинуть ее в ChatGPT и обсудить там.

2. ИИ-поиск по истории. Удобно, но даже не уровень расширения для Chrome, едем дальше.

3. Агент на базе представленного летом ChatGPT Agent – он “ходит” по веб-сайтам как живой человек, рассматривает картинки и интерфейс, кликает ссылки, заполняет формы и даже совершает покупки.

Именно агент является ключевой фичей браузера, но тут мы упираемся в суровую реальность: большой и свободный интернет пока не по зубам для нынешних ИИ. В нем миллионы сайтов с разным подходом к навигации, разной организацией регистрации и покупки. А еще, конечно, капча — помню, как в одном из диалогов со мной Grok 3 выругался и обозвал ее чем-то вроде human-oppression machine (машиной, которую люди придумали для пыток ИИ).

Не удивлен отзывам, которые вижу: “дал четыре задания, браузер справился лишь с одним”, “не выполнил ни одного из пяти заданий, удаляю!”. А в тех случаях, когда агент все-таки справляется, это занимает столько времени, что можно три раза прокликать руками.

Плюс вопросы безопасности. Даже в OpenAI признают, что агенты подвержены такой технике, как promt injection, когда вглубь объемного текста подмешивают инструкцию для ИИ, прочитав которую он, например, сливает ваши данные.

Atlas обучен противостоять самым очевидным приемам, но сегодня в X видел интересный пример: пользователь переписал код сайта таким образом, что каждый раз, когда агент кликает по кнопке, в буфер обмена копируется вредоносная ссылка. В Atlas можно запустить агента, а самому работать в соседнем окне, поэтому расчет подобной атаки на то, что кто-то из пользователей не обратит внимание, какая ссылка в буфере обмена, и перейдет на вредоносный сайт. Будьте осторожны!

Интересной стратегией для разработчиков сайтов выглядит начать оптимизировать их под агентов. Но подобные оптимизации будут окупаться только в том случае, если агентов начнут использовать массово. А ими не пользуются из-за низкой эффективности – и получается порочный круг.

В одном из прошлых постов я делился мнением, что со временем ИИ заменит нам операционные системы – станет “прокладкой” между железом и пользователем, предоставляя последнему максимально персональный опыт. Но маршрут, которым мы к этому придем, пока видится открытым.

У OpenAI мне больше нравится представленная недавно функция интеграции приложений прямо в ChatGPT – их пока немного, но работают качественно. Того же самого агента после доработки также надо встраивать в основной функционал ChatGPT – мне во время работы с GPT-5 часто не хватает функции, чтобы модель сама открыла браузер и изучила что-то в сети. Это не полноценная агентская работа, но тем и хорошо – на коротких задачах меньше ошибок, а значит, появляется шанс приучить пользователей к функции и собрать информацию для улучшения агента.

На ИИ-браузерах также не стоит ставить крест, но это направление скорее для старых игроков рынка. Например, Microsoft активно добавляет функции Copilot в Edge, а Google интегрирует Gemini в поиск и Chrome – намного больше шансов, что пользователи привыкнут к ИИ-функциям в этих продуктах, а не поставят себе новый браузер.
5🔥2313👍13😁2
Что известно о Google Gemini 3.0?

На днях CEO Google Сундар Пичаи официально подтвердил существование Gemini 3.0, пообещав, что модель выйдет до конца 2025-го и покажет более ощутимый прогресс, чем все, что мы видели раньше.

Не надо быть Пичаи, чтобы оценить прогресс уже сейчас. С начала октября тестовые версии новой модели попадаются в Google AI Studio: надо выбрать Gemini 2.5 Pro, дождаться A/B-теста (обычно на 15-20 раз), в котором правый вариант ответа относится к новинке.

И в том же самом программировании она на голову выше, чем 2.5 Pro – можно видеть по роликам, но к ним вернемся позже. 99% вероятность, что речь идет о Gemini 3.0, причем в Pro-версии: 2.5 Flash обновляли совсем недавно, плюс 2.5 Pro также выходила первой.

Если решите экспериментировать сами, то учитывайте, что A/B-тест включен не всегда. Google меняет чекпоинты (версии) модели, пытаясь подобрать наиболее сбалансированный по ответам вариант.

Кроме того, недавно модели от Google под кодовыми именами lithiumflow и orionmist на какое-то время появлялись на сервисе LMArena, где пользователи вслепую сравнивают разные модели, выбирая, чей ответ больше нравится – из этого формируется рейтинг.

Появление на LMArena – важный шаг к запуску, но не указывающий, что он произойдет вот-вот. Весной и в начале лета Google обкатала на этой площадке более десятка чекпоинтов Gemini 2.5 Flash и Pro. Логика та же: компания пытается выбрать оптимальный вариант, причем если мы на этом этапе обычно восхищаемся примерами из кодинга (они самые наглядные), то разработчику важно смотреть на разные ответы – от советов по кулинарии до решения сложных математических задач.

Теперь к подборке видео выше – это не официальные демки от Google, а то, чем делились энтузиасты в сети. Как по мне, то почти все на голову выше того, что показывают текущие ИИ, вплоть до дорогущих GPT-5 Pro и Gemini 2.5 Deep Think. Впечатляет, что демки выполнены буквально с 1-2 промптов – то есть в грамотных руках это не предел возможностей модели, а только начало.

Будущая Gemini 3.0 Pro отлично справляется с визуалом – смотрите примеры интерфейса MacOS в html. Это не полноценные операционные системы, но с одного раза создать оболочку с работающими приложениями – тоже отличный результат.

А еще модель очень творческая даже в коде – смотрим ролики видеоигр и мини-эпизод “Южного парка”, выполненный в SVG.

Глава Google AI Studio Логан Килпатрик уже подтвердил в X, что у Gemini 3.0 Pro будет продвинутая работа с инструментами. Это то, за что я люблю GPT-5 Thinking и Grok 4 – размышляя над ответом, модель может выполнить поиск несколько раз подряд, уточняя информацию. Или запустить python-скрипт для обработки данных. В работе с информацией это крайне важная функция.

Есть намеки, что Gemini 3.0 Pro стала лучше в мультимодальности. Например, она проходит хитрый тест, когда показывают рисунок кисти с шестью пальцами и просят эти пальцы посчитать – обычно ИИ называют число “пять”. Плюс 3.0 Pro хорошо читает время на изображениях часов со стрелками – еще одно слабое место текущих моделей.

Мои тесты показывают, что Gemini 3.0 Pro очень хорошо справляется с текстами на русском. Это то, что мне нравится в предыдущей версии: у текстов хорошая структура, они написаны понятным языком, без лишних терминов и англицизмов. Очень надеюсь, что выбранный в итоге чекпоинт не утратит этот навык.

Под вопросом пока уровень галлюцинаций. Я прощаю GPT-5 Thinkng слишком заумный язык и использую ее как основную модель потому, что она почти перестала выдумывать отсебятину. Надеюсь, Gemini 3.0 Pro окажется минимум не хуже.

Второй – проактивность модели. Проблема, о которой я писал недавно: чтобы стать лучше в роли ассистента, ИИ должны не просто следовать промпту, а вести полноценный диалог – задавать вопросы, временами даже спорить с пользователем. В тестовых версиях этого не видно, но есть шанс, что докрутят настройками.

Когда? Не берусь судить. Однозначно до конца года, но даты, которые называли инсайдеры, пока были ошибочными. Так что ждем.
👍52🔥2725
Про квантовое достижение Google – и при чем здесь ИИ

Google Quantum AI сообщила, что достигла на квантовом компьютере Willow “проверяемого квантового преимущества”. Многие СМИ назвали новость “квантовым прорывом Google”, что преувеличение – это скорее важный шаг вперед.

Вообще про квантовые компьютеры как будущее вычислительной техники я слышал еще в начале 2000-х – прошло много лет, будущее не наступило, а застряло в лабораториях. И здесь несколько причин.

Начнем с того, что квантовый компьютер вряд ли когда-нибудь станет заменой обычному. Это будут специализированные вычислители для ряда задач: моделирование новых материалов, поиск лекарств, изучение фундаментальной физики, сложная логистика, криптография, оптимизация обучения ИИ. Но в них скорость квантовых компьютеров ожидается невероятно высокой – например, в эксперименте Google 105-кубитный чип Willow работал в 13 тысяч раз быстрее, чем передовой классический суперкомпьютер.

Сегодняшние квантовые компьютеры в своем развитии находятся где-то на уровне 1940-х для обычных компьютеров. Это сложнейшие установки, которые занимают большой кусок комнаты, работают без ошибок очень короткое время, чувствительны к внешним шумам вроде вибраций, и управляются целой командой специалистов мирового уровня.

Причем сейчас конкурируют сразу четыре варианта реализации квантового компьютера, каждый со своими приколами: где-то чип нужно охлаждать почти до абсолютного нуля, а где-то нужны сложнейшие лазеры для управления каждым кубитом. Ну и алгоритмы: современный квантовый компьютер надорвется даже при попытке посчитать эксель-файл из соседней бухгалтерии – поэтому всю логику работы нужно писать заново.

До недавнего времени ведущие команды по всему миру брали хоть какой-нибудь алгоритм, который можно посчитать намного быстрее обычного компьютера, а затем называли это “квантовым превосходством”. Причем джентльменам предлагалось верить на слово, так как перепроверить эти подсчеты обычным компьютером нереально.

Шаг Google заключается в том, что они довели Willow и алгоритмы управления им до уровня, когда смогли рассчитать физическую эволюцию квантовой системы. То есть уже вполне реальная научная задача, которую можно проверить как экспериментально, так и повторив маленький ее фрагмент на обычном суперкомпьютере.

Круто, но пока это достижение уровня “смогли запустить один полезный алгоритм” – решение Google подойдет для многих задач материаловедения, но для других областей придется придумывать что-то новое. Да и Willow мал для серьезных расчетов – к концу десятилетия компании-лидеры целятся в уровень в несколько сотен кубитов, которые будут работать без ошибок намного дольше, чем сейчас. Тогда же квантовые компьютеры потихоньку начнут использовать в реальной работе.

В контексте ИИ я часто слышу, что квантовые компьютеры смогут тренировать нейросети будущего, но это не совсем так – они скорее будут применяться точечно, например, для поиска удачных вариантов архитектуры. А тренировка останется доработанным версиям современных GPU и нейроморфных чипов (это уже другая история).

Польза же в другом. Сейчас на каждом углу трубят, что у нас кончились данные для обучения ИИ – но забывают пояснить, что речь идет не чисто о текстах. Модели сейчас впитали почти все знания человечества, поэтому для дальнейшего улучшения им нужны новые открытия.

Где-то ИИ помогают сами себе (читайте мой пост про использование их в науке), а где-то пригодятся открытия, сделанные на квантовых компьютерах. Например, полученные на наследнике Willow знания могут быть использованы для дополнительного обучения специализированных ИИ, предлагающих новые материалы и новые кандидаты в лекарства.

А сами нейросети, кстати, уже применяются при проектировании квантовых компьютеров. Так что получается союз двух передовых технологий.
1🔥3928👍18😁6👏1