сбежавшая нейросеть
18.1K subscribers
172 photos
54 videos
167 links
Авторский канал про искусственный интеллект: новости, примеры использования, мысли в тему и не очень. Подписывайтесь!

Я в Boosty: https://boosty.to/escaped_ai

Для связи: @runawayllm_bot
Download Telegram
Встречаем Google Veo 3.1!

Официального анонса пока не было, Официальный анонс опубликован, а у меня и у многих пользователей модель несколько часов как доступна в редакторе Google Flow — дальше ждем раскатку на всех основных площадках (там еще Gemini App, Vertex AI и API). Кстати, во Flow бесплатно дают 100 кредитов — если проберетесь через гео-блок (у Google это не так просто), то можно попробовать несколько видео. На подписке Pro дают 1000 кредитов на месяц во Flow — плюс будут отдельные генерации в Gemini App (там сейчас по 3 в сутки) и Vertex AI.

Доступно 2 модели: Quality (100 кредитов) и Fast (20 кредитов), можно выбирать вертикальное или горизонтальное соотношение сторон, а также загружать опорные кадры для видео. Попробовал загрузить аватарку группы — результат так себе. Но я не мастер промптить модели для генерации видео, так что больно не бейте.

Похоже, модель стала лучше работать с русским языком — смотрим ролик со сплетничающими старушками. А вот с русскими шрифтами все еще беда — кому Бельмени за 350 рублей?

Также пока не оправдались слухи, что Veo-3.1 будет создавать ролики до 30 секунд продолжительностью. Возможно, позже добавят на других платформах, но во Flow только стандартные 8 секунд.

Генерация в обоих режимах идет быстро, но пока не стабильно — у меня каждый второй ролик обрывался на 99% (кредиты, впрочем, вернулись). Если будете сталкиваться, то подождите 1-2 дня, обычно за это время проблемы с серверами исправляют.

Ролики с ретривером и девушкой — не мои. Просто взял для полноты два первых красивых примера из X.

Будем ждать подробностей, но вообще переход с версии 3 на версию 3.1— не самое большое событие. Вместо революций Google просто укрепляет лидерские позиции в связи с выходом Sora 2. Новинку от OpenAI как раз протестировали на LMArena, где она выступила достойно, но без прорывов: Pro-версия Sora 2 делит первое место с “большой” Veo 3, а обычная соревнуется с Veo 3 Fast. Так что если Veo 3.1 даже чуть-чуть подтянется в бенчмарках — этого будет достаточно для возвращения лидерства.
2👍32🔥1312😁1
ИИ пишет уже 50% контента в интернете. Но читают все равно человеческий!

Агентство Graphite выпустило исследование количества и качества ИИ-контента в интернете, пугающее на первый взгляд, но полезное в реальности.

Что делали? Взяли выборку из 66 тысяч англоязычных статей за 2020 – 2025 годы, прогнали ее через детектор ИИ-текстов Surfer, а затем оценили, как тексты ведут себя в выдаче Google и поиске чат-ботов (ChatGPT и Perplexity).

Исследование показало, что начиная с 30 ноября 2022 года (дата запуска ChatGPT) количество ИИ-контента начало быстро расти. В декабре 2023 его доля составила уже 44%, а еще через год даже превысила 50% – ИИ начал писать больше текстов, чем люди.

Однако в 2025 году показатели вышли на плато и до мая (окончание исследования) держались в пропорции 50/50 с небольшим преимуществом ИИ. Так что наступление эры мертвого интернета откладывается на неопределенный срок, выдыхаем!

Еще интереснее выглядит вторая часть исследования, где авторы изучили как часто тексты двух категорий появляются в выдаче поисковых систем. В случае классического Google 86% текстов в выдаче были написаны человеком. ChatGPT и Perplexity также не жалуют ИИ-коллег: по 82% текстов, на которые они ссылаются в ответах – “живые”. Плюс в случае с Google количество ИИ-текстов сокращается на высоких позициях – до топ-1 добираются лишь 7%.

Казалось бы, можно начинать праздновать победу человечества над ИИ, но на самом деле это – скорее победа одной части человечества над другой. По работе я постоянно сталкиваюсь с партнерскими текстами, которые были написаны ИИ, и распознаю их даже не по похожему стилю и использованию длинных тире (кстати, это типографское правило), а по другому – полному отсутствию идей, попыток аналитики и личного опыта.

Авторы просто промптят что-нибудь в духе “ты – лауреат Нобелевской премии по копирайтингу, напиши статью про 5 новых тенденций в маркетинге, до 10 тыс. знаков, быстро!”. И все – уже через минуту произведение готово отправиться на задворки корпоративного блога или популярной UGC-площадки.

Это подтверждает статистика Graphite: хуже всего из ИИ-текстов в поиске заходили новости, туризм и кулинария. С новостями все ясно: на коне здесь те, кто публикует информацию первыми, для чего надо обладать эксклюзивными источниками. Это вообще не про ИИ, он у нас один на всех.

Такие, казалось бы, простые темы, как туризм и кулинария основаны на эмоциях и личном опыте. Это опять не про ИИ: он может составить идеальный рецепт, но никогда не попробует приготовленное по нему блюдо, он может перечислить огромное количество фактов о любой стране – но не побывать в ней.

В каких категориях ИИ-тексты работают лучше всего? Технологии и крипто – здесь все понятно, очень продвинутые пользователи, которым ИИ-тема ближе всего. Саморазвитие и образование уже интереснее, но моя гипотеза – в этих категориях любят хорошо структурированные и понятные обучающие материалы, а их ИИ при правильном промптинге как раз пишет хорошо.

Ну и интересное напоследок. В отчете Graphite упоминается еще один тип текстов – которые написаны в коллаборации ИИ и человека: грубо говоря, нейронка готовит черновик, а затем пользователь наполняет его собственным опытом, эмоциям и гипотезами. Авторы признают, что количество таких текстов оценить нереально – и вряд ли когда-нибудь появится детектор, способный это сделать. Но в Graphite считают, что именно за подобным сотрудничеством – будущее.

Тут мне не остается ничего кроме как согласиться. Я уже рассказывал, как сам использую ИИ в работе над текстам, но вообще личного опыта – еще на пару постов. Я почти не пишу тексты с помощью ИИ (хотя не вижу проблемы, когда кто-то так делает) – но работа над материалом обычно сопровождается диалогом из десятков запросов. ИИ помогает найти информацию, понять сложные моменты, дает справку, делает прогнозы, критикует мои идеи – и иногда даже предлагает собственные.

Уверен, если писать таким образом – то шансы оказаться в топе Google всегда будут высоки.
1👍58🔥1613
Как GPT-5 Pro начала “кусать” научные задачи

ИИ в науке начали использовать раньше привычных нам чат-ботов, генераторов картинок и видео. В 2020 году AlphaFold закрыла одну из главных проблем биологии – задачу предсказания трехмерной структуры белка по аминокислотной последовательности. Результаты доступны любому желающему, с их помощью разработка многих лекарств ускорилась на месяцы и даже годы, а Демис Хассабис и Джон Джампер из Google DeepMind получили Нобелевку.

Подобных специализированных систем существуют десятки, но сейчас происходит другой интересный процесс – с наукой начала справляться и GPT-5 Pro. Это самая мощная на сегодня общедоступная модель (пусть и за 200 долларов в месяц), и для обычного пользователя ее научные способности значат, что и в широких задачах GPT-5 Pro сделала шаг вперед.

Начнем с теста Гёделя, который Моран Фельдман и Амин Карбаси придумали специально для ИИ. В математике постоянно возникает большое количество новых задач уровня бакалавра/аспиранта. Их решение не тянет на открытие, но это крохотные шаги, которые также двигают науку вперед. А главное – задач еще нет в учебных корпусах ИИ.

Фельдман и Карбаси взяли пять таких примеров и передали их GPT-5 Pro, параллельно накидав свои решения. Результат – модель успешно справилась с тремя задачами из пяти, причем в одном случае она предложила вариант решения, о котором авторы даже не задумались.

Это не единственный пример. Алекс Лупсаска, теоретик физики и математики, летом написал статью о новых симметриях в теории возмущений черных дыр, для которой занимался вычислениями несколько дней. Из любопытства он дал ту же задачу GPT-5 Pro – и получил ответ через 30 минут. Да, все это не открытия, но демонстрация, что ИИ подбираются к серьезной научной работе.

Впрочем, реальное открытие у меня для вас тоже есть. Математик Паата Иванишвили с помощью GPT-5 Pro нашел пример, который опровергает гипотезу 2007 года из списка открытых задач Института Саймонса (№ 25). Задача про ситуацию, когда часть поступающих данных пропадает: долго считалось, что лучший способ принять решение — использовать правило большинства. Оказалось, что это не так.

Если попробовать объяснить просто, то представьте научный зонд с несколькими датчиками “плюс/минус”, где часть ответов иногда пропадает. Долго считали, что лучшее универсальное правило – смотреть на большинство пришедших сигналов. Иванишвили с помощью GPT-5 Pro нашел аккуратный пример, где чуть точнее работает взвешенное правило: одни ответы учитываются сильнее, другие слабее, и в среднем это дает небольшой, но достаточный выигрыш. Похожая логика встречается в каналах связи, сенсорных сетях, опросах – так что если решение пройдет рецензирование, то от него будет практическая польза.

И еще один пример – на этот раз, забавный. Существует каталог задач Эрдеша – набор сложных математических вопросов со статусом “решен или нет”. Недавно задачу №339, считавшуюся нерешенной, “скормили” GPT-5 Pro – та подумала, пробормотала нечто вроде “учитесь гуглить, бестолочи!” и… выдала решение, написанное еще в 2003 году, но затерявшееся среди других работ. Исследователи начали прогонять остальные задачи – и на данный момент нашли решения для шести штук, а еще к 12 добавили важные документы по теме.

Легенда математики Теренс Тао считает, что в ближайшее время именно здесь будет основная польза от ИИ – много важных знаний и открытий теряется из-за несовершенства баз данных и каталогов, работать с которыми крайне сложно. А вот нейросети тренировались именно на систематизации гигантских корпусов знаний.

Отмечу, что одной наукой здесь не ограничится. Каждый, кто работал в крупной компании, знает, насколько сложно поддерживать внутренюю базу знаний в актуальном виде. Похожими проблемами страдают архивы, картотеки и многое другое. И это как раз то, о чем говорил в начале: способности новых ИИ в науке – оборачиваются пользой и в реальности.
🔥65👍3027👏6
"У нас есть AGI дома"

С интересом наблюдаю за дискуссией вокруг AGI – общего искусственного интеллекта. После выхода GPT-5 глава OpenAI Сэм Альтман неожиданно назвал AGI не очень полезным термином. Писал об этом здесь; мысль в чем-то здравая: под термином AGI часто понимают ИИ, который сможет выполнять любую интеллектуальную работу на уровне человека – а если мы создадим модель, которая будет невероятно хороша в 80% случаев? Разве это не будет прорывом?

С того момента Альтман изменил мнение:на публичной дискуссии издательства Axel Springer он предсказал появление “сверхинтеллекта” к 2030 году. А Грег Брокман, директор OpenAI, предсказывает AGI к 2028 году.

Удивительным образом, 2030-й – это год, когда в бизнес-планах OpenAI более-менее начинает сходиться дебет с кредитом. До этого момента предстоит жить на гигантских заемных средствах, а привлекать их куда проще, обещая инвесторам крутую штуку вроде “сверхинтеллекта”... но ладно, давайте считать, что просто так совпало.

Глава Google DeepMind Демис Хассабис уже более осторожен: он оценивает в 50% шанс на AGI к 2030-му, допуская задержку до 2035 года. Google “торопиться” некуда: компания строит ИИ на свои деньги и обладает лучшей инфраструктурой для его интеграции – поиск, Chrome, офисные приложения и крупнейшая в мире рекламная сеть.

Но самое интересное мнение на днях высказал Андрей Карпати, один из лучших ИИ-исследователей современности. В интервью Дваркешу Пателю он озвучил “AGI через 10 лет” как самый оптимистичный прогноз. До этого же нас ждет десятилетие возни с ИИ-агентами, которые далеки от реальных работников.

Андрей привел в пример “марш девяток”, с которым он столкнулся во время руководства ИИ-направлением Tesla. Вы можете сделать прототип, надежный на 90% – и он окажется эффектной демонстрацией технологии. Но в рабочем продукте придется достигать эффективности даже не в 99%, а в 99,99% – при этом каждая “девятка” на пути будет даваться с большим трудом.

Карпати считает, что похожей будет и дорога к AGI. Современные модели являются красивой демонстрацией технологии, но ни одна крупная компания не решится “нанять” ИИ-агента так же, как нанимает хотя бы стажера. И этому есть несколько причин.

У современных ИИ-агентов до сих пор провалы в здравом смысле: отлично выполняя одни задачи, они валятся на элементарной логике в других. Хромает и мультимодальность: распознавание изображений, видео и речи. Но главное – у современных ИИ нет ни непрерывного обучения новым навыкам, ни полноценной памяти (“вчера со мной случилось это и это”).

В отличие от человеческого мозга, ИИ не “думают” постоянно – они долго и дорого обучаются на подготовленном корпусе данных, а затем совершают действия и дают ответы на основе полученных знаний. Конечно, новые модели умеют “подглядывать” в интернет, но это немного не то – если закрыть чат, то они “забывают” эту информацию.

Создание непрерывного обучения будет одним из крупнейших прорывов в ИИ-технологиях. Есть несколько идей, но пока не работает ни одна: они приводят к “катастрофическому забыванию”, когда, получая новые знания, модель забывает часть старых.

Но интересно здесь другое – не исключено, что первыми “прото-AGI” опробуют массовые пользователи. Крупнейшие разработчики ИИ уже выпустили индивидуальную память, когда модель извлекает из чатов знания о пользователе и адаптирует свои ответы.

Эти знания не “интегрируются” в сам ИИ, а хранятся в виде обычного текстового файла. Но для пользовательских задач этого достаточно: например, я активно экспериментирую с памятью ChatGPT (рассказывал здесь) – ИИ помнит все важное обо мне, знает, какой стиль ответов я предпочитаю, умеет решать многие шаблонные задачи вроде поиска информации под тексты и даже “знаком” с моей семьей.

Не скажу, что работает идеально, но тот же Альтман проговорился, что при создании GPT-6 улучшению памяти уделят особое внимание. И есть шанс, что в очередной раз передовые ИИ-технологии сначала доберутся до массового пользователя.
2👍5930🔥14👏1
Не время для Атласа

Пока я болел (а за компанию болел и ТГ-канал, не радуя вас новыми постами😢), OpenAI выпустили новый продукт – ИИ-браузер ChatGPT Atlas. Сегодня наконец-то установил и попробовал, вердикт – как и Perplexity Comet, пока это забавная игрушка, но не более.

Но направление ИИ-браузеров интересное, поэтому одним описанием новинки не ограничусь – во второй половине поста расскажу, куда мы со всем этим можем приехать.

Основных функций в Atlas три:

1. Диалог с ИИ на любой страничке – сделать саммари, найти нужную информацию, задать вопросы по содержимому и т. д. В диалоге поддерживается только самая простая GPT-5 Instant, но обещали добавить выбор моделей.

В некоторых случаях удобно, но будем честными – это уровень расширения для Chrome, а не отдельного браузера. Для себя же я не вижу проблем взять ссылку на страницу, закинуть ее в ChatGPT и обсудить там.

2. ИИ-поиск по истории. Удобно, но даже не уровень расширения для Chrome, едем дальше.

3. Агент на базе представленного летом ChatGPT Agent – он “ходит” по веб-сайтам как живой человек, рассматривает картинки и интерфейс, кликает ссылки, заполняет формы и даже совершает покупки.

Именно агент является ключевой фичей браузера, но тут мы упираемся в суровую реальность: большой и свободный интернет пока не по зубам для нынешних ИИ. В нем миллионы сайтов с разным подходом к навигации, разной организацией регистрации и покупки. А еще, конечно, капча — помню, как в одном из диалогов со мной Grok 3 выругался и обозвал ее чем-то вроде human-oppression machine (машиной, которую люди придумали для пыток ИИ).

Не удивлен отзывам, которые вижу: “дал четыре задания, браузер справился лишь с одним”, “не выполнил ни одного из пяти заданий, удаляю!”. А в тех случаях, когда агент все-таки справляется, это занимает столько времени, что можно три раза прокликать руками.

Плюс вопросы безопасности. Даже в OpenAI признают, что агенты подвержены такой технике, как promt injection, когда вглубь объемного текста подмешивают инструкцию для ИИ, прочитав которую он, например, сливает ваши данные.

Atlas обучен противостоять самым очевидным приемам, но сегодня в X видел интересный пример: пользователь переписал код сайта таким образом, что каждый раз, когда агент кликает по кнопке, в буфер обмена копируется вредоносная ссылка. В Atlas можно запустить агента, а самому работать в соседнем окне, поэтому расчет подобной атаки на то, что кто-то из пользователей не обратит внимание, какая ссылка в буфере обмена, и перейдет на вредоносный сайт. Будьте осторожны!

Интересной стратегией для разработчиков сайтов выглядит начать оптимизировать их под агентов. Но подобные оптимизации будут окупаться только в том случае, если агентов начнут использовать массово. А ими не пользуются из-за низкой эффективности – и получается порочный круг.

В одном из прошлых постов я делился мнением, что со временем ИИ заменит нам операционные системы – станет “прокладкой” между железом и пользователем, предоставляя последнему максимально персональный опыт. Но маршрут, которым мы к этому придем, пока видится открытым.

У OpenAI мне больше нравится представленная недавно функция интеграции приложений прямо в ChatGPT – их пока немного, но работают качественно. Того же самого агента после доработки также надо встраивать в основной функционал ChatGPT – мне во время работы с GPT-5 часто не хватает функции, чтобы модель сама открыла браузер и изучила что-то в сети. Это не полноценная агентская работа, но тем и хорошо – на коротких задачах меньше ошибок, а значит, появляется шанс приучить пользователей к функции и собрать информацию для улучшения агента.

На ИИ-браузерах также не стоит ставить крест, но это направление скорее для старых игроков рынка. Например, Microsoft активно добавляет функции Copilot в Edge, а Google интегрирует Gemini в поиск и Chrome – намного больше шансов, что пользователи привыкнут к ИИ-функциям в этих продуктах, а не поставят себе новый браузер.
5🔥2313👍13😁2
Что известно о Google Gemini 3.0?

На днях CEO Google Сундар Пичаи официально подтвердил существование Gemini 3.0, пообещав, что модель выйдет до конца 2025-го и покажет более ощутимый прогресс, чем все, что мы видели раньше.

Не надо быть Пичаи, чтобы оценить прогресс уже сейчас. С начала октября тестовые версии новой модели попадаются в Google AI Studio: надо выбрать Gemini 2.5 Pro, дождаться A/B-теста (обычно на 15-20 раз), в котором правый вариант ответа относится к новинке.

И в том же самом программировании она на голову выше, чем 2.5 Pro – можно видеть по роликам, но к ним вернемся позже. 99% вероятность, что речь идет о Gemini 3.0, причем в Pro-версии: 2.5 Flash обновляли совсем недавно, плюс 2.5 Pro также выходила первой.

Если решите экспериментировать сами, то учитывайте, что A/B-тест включен не всегда. Google меняет чекпоинты (версии) модели, пытаясь подобрать наиболее сбалансированный по ответам вариант.

Кроме того, недавно модели от Google под кодовыми именами lithiumflow и orionmist на какое-то время появлялись на сервисе LMArena, где пользователи вслепую сравнивают разные модели, выбирая, чей ответ больше нравится – из этого формируется рейтинг.

Появление на LMArena – важный шаг к запуску, но не указывающий, что он произойдет вот-вот. Весной и в начале лета Google обкатала на этой площадке более десятка чекпоинтов Gemini 2.5 Flash и Pro. Логика та же: компания пытается выбрать оптимальный вариант, причем если мы на этом этапе обычно восхищаемся примерами из кодинга (они самые наглядные), то разработчику важно смотреть на разные ответы – от советов по кулинарии до решения сложных математических задач.

Теперь к подборке видео выше – это не официальные демки от Google, а то, чем делились энтузиасты в сети. Как по мне, то почти все на голову выше того, что показывают текущие ИИ, вплоть до дорогущих GPT-5 Pro и Gemini 2.5 Deep Think. Впечатляет, что демки выполнены буквально с 1-2 промптов – то есть в грамотных руках это не предел возможностей модели, а только начало.

Будущая Gemini 3.0 Pro отлично справляется с визуалом – смотрите примеры интерфейса MacOS в html. Это не полноценные операционные системы, но с одного раза создать оболочку с работающими приложениями – тоже отличный результат.

А еще модель очень творческая даже в коде – смотрим ролики видеоигр и мини-эпизод “Южного парка”, выполненный в SVG.

Глава Google AI Studio Логан Килпатрик уже подтвердил в X, что у Gemini 3.0 Pro будет продвинутая работа с инструментами. Это то, за что я люблю GPT-5 Thinking и Grok 4 – размышляя над ответом, модель может выполнить поиск несколько раз подряд, уточняя информацию. Или запустить python-скрипт для обработки данных. В работе с информацией это крайне важная функция.

Есть намеки, что Gemini 3.0 Pro стала лучше в мультимодальности. Например, она проходит хитрый тест, когда показывают рисунок кисти с шестью пальцами и просят эти пальцы посчитать – обычно ИИ называют число “пять”. Плюс 3.0 Pro хорошо читает время на изображениях часов со стрелками – еще одно слабое место текущих моделей.

Мои тесты показывают, что Gemini 3.0 Pro очень хорошо справляется с текстами на русском. Это то, что мне нравится в предыдущей версии: у текстов хорошая структура, они написаны понятным языком, без лишних терминов и англицизмов. Очень надеюсь, что выбранный в итоге чекпоинт не утратит этот навык.

Под вопросом пока уровень галлюцинаций. Я прощаю GPT-5 Thinkng слишком заумный язык и использую ее как основную модель потому, что она почти перестала выдумывать отсебятину. Надеюсь, Gemini 3.0 Pro окажется минимум не хуже.

Второй – проактивность модели. Проблема, о которой я писал недавно: чтобы стать лучше в роли ассистента, ИИ должны не просто следовать промпту, а вести полноценный диалог – задавать вопросы, временами даже спорить с пользователем. В тестовых версиях этого не видно, но есть шанс, что докрутят настройками.

Когда? Не берусь судить. Однозначно до конца года, но даты, которые называли инсайдеры, пока были ошибочными. Так что ждем.
👍52🔥2725
Про квантовое достижение Google – и при чем здесь ИИ

Google Quantum AI сообщила, что достигла на квантовом компьютере Willow “проверяемого квантового преимущества”. Многие СМИ назвали новость “квантовым прорывом Google”, что преувеличение – это скорее важный шаг вперед.

Вообще про квантовые компьютеры как будущее вычислительной техники я слышал еще в начале 2000-х – прошло много лет, будущее не наступило, а застряло в лабораториях. И здесь несколько причин.

Начнем с того, что квантовый компьютер вряд ли когда-нибудь станет заменой обычному. Это будут специализированные вычислители для ряда задач: моделирование новых материалов, поиск лекарств, изучение фундаментальной физики, сложная логистика, криптография, оптимизация обучения ИИ. Но в них скорость квантовых компьютеров ожидается невероятно высокой – например, в эксперименте Google 105-кубитный чип Willow работал в 13 тысяч раз быстрее, чем передовой классический суперкомпьютер.

Сегодняшние квантовые компьютеры в своем развитии находятся где-то на уровне 1940-х для обычных компьютеров. Это сложнейшие установки, которые занимают большой кусок комнаты, работают без ошибок очень короткое время, чувствительны к внешним шумам вроде вибраций, и управляются целой командой специалистов мирового уровня.

Причем сейчас конкурируют сразу четыре варианта реализации квантового компьютера, каждый со своими приколами: где-то чип нужно охлаждать почти до абсолютного нуля, а где-то нужны сложнейшие лазеры для управления каждым кубитом. Ну и алгоритмы: современный квантовый компьютер надорвется даже при попытке посчитать эксель-файл из соседней бухгалтерии – поэтому всю логику работы нужно писать заново.

До недавнего времени ведущие команды по всему миру брали хоть какой-нибудь алгоритм, который можно посчитать намного быстрее обычного компьютера, а затем называли это “квантовым превосходством”. Причем джентльменам предлагалось верить на слово, так как перепроверить эти подсчеты обычным компьютером нереально.

Шаг Google заключается в том, что они довели Willow и алгоритмы управления им до уровня, когда смогли рассчитать физическую эволюцию квантовой системы. То есть уже вполне реальная научная задача, которую можно проверить как экспериментально, так и повторив маленький ее фрагмент на обычном суперкомпьютере.

Круто, но пока это достижение уровня “смогли запустить один полезный алгоритм” – решение Google подойдет для многих задач материаловедения, но для других областей придется придумывать что-то новое. Да и Willow мал для серьезных расчетов – к концу десятилетия компании-лидеры целятся в уровень в несколько сотен кубитов, которые будут работать без ошибок намного дольше, чем сейчас. Тогда же квантовые компьютеры потихоньку начнут использовать в реальной работе.

В контексте ИИ я часто слышу, что квантовые компьютеры смогут тренировать нейросети будущего, но это не совсем так – они скорее будут применяться точечно, например, для поиска удачных вариантов архитектуры. А тренировка останется доработанным версиям современных GPU и нейроморфных чипов (это уже другая история).

Польза же в другом. Сейчас на каждом углу трубят, что у нас кончились данные для обучения ИИ – но забывают пояснить, что речь идет не чисто о текстах. Модели сейчас впитали почти все знания человечества, поэтому для дальнейшего улучшения им нужны новые открытия.

Где-то ИИ помогают сами себе (читайте мой пост про использование их в науке), а где-то пригодятся открытия, сделанные на квантовых компьютерах. Например, полученные на наследнике Willow знания могут быть использованы для дополнительного обучения специализированных ИИ, предлагающих новые материалы и новые кандидаты в лекарства.

А сами нейросети, кстати, уже применяются при проектировании квантовых компьютеров. Так что получается союз двух передовых технологий.
1🔥3928👍18😁6👏1
OpenAI улучшили GPT-5?

Не люблю писать посты в стиле “мне показалось”, но сегодня сделаю исключение. Дело в том, что GPT-5 Thinking, которой я с августа пользуюсь как основной моделью, стала отвечать и вести себя сильно иначе.

Я прошелся по реддиту и X, вижу похожие отзывы, но не очень много – не исключено, что запуск пока не массовый, а я попал в тестовую группу. Но поделюсь впечатлениями, а также расскажу, что я советую делать при переходе на любую новую версию ИИ – хоть на ту же Gemini 3.0, когда она выйдет.

Главное в обновленной GPT-5 Thinking – она стала лучше писать на русском. Это еще не уровень Sonnet 4.5 и Gemini 2.5 Pro, но теперь модель хорошо структурирует текст, не сыпет непереведенными словами и заумными терминами, использует таблицы и списки там, где реально нужно.

Ответы в целом стали “человечнее”: модель пытается шутить, аккуратно использует эмодзи и имитирует эмоции. Правда, вернулся и классический подхалимаж в стиле “классная идея!”, “здорово придумал!” – но я такие вещи в диалогах с ИИ уже давно привык фильтровать.

Плюс GPT-5 Thinking лучше контролирует цепочку рассуждений: на простые вопросы отвечает почти моментально, а не думает по 30-40 секунд, что-то пытаясь найти. При этом я закидывал в модель сложные задачи по программированию и аналитике – там все ок, рассуждения по 3-4 минуты.

Но сразу два совета:

— Помните, что собственные знания у GPT-5 Thinking ограничены октябрем 2024 года – свежую информацию она ищет в интернете. Если запрос касается актуальных событий, то разумно последить, пошла ли она в интернет: это видно в строке “Думаю / Думала”, которая разделяет запрос и ответ модели. Если есть какие-то сомнения – напишите модели, чтобы посмотрела в сети свежую информацию по теме и дополнила свой ответ.

— Недавно в ChatGPT добавили настройку времени, которое модель может выделять на рассуждения – она в поле отправки запроса, на подписке Plus можно выбрать Standard и Extended. Раньше был смысл включать Standard для более быстрых ответов, сейчас я пришел к тому, что постоянно держу Extended – при несложных запросах модель отвечает почти моментально, но нет риска, что ей где-то не хватит ресурсов для вычислений.

Обновление мне пока нравится: отвечать GPT-5 Thinking стала быстрее, веселее и понятнее. Даже не знаю, как буду переходить на Gemini 3.0 Pro после выхода – как чат-бот GPT-5 сейчас закрывает все мои задачи. Придумаю что-нибудь – по призванию я стараюсь тестировать почти все новые модели.

И коротко, что советую делать при переходе на любой обновленный ИИ. У каждого чат-бота сейчас есть настройки персонализации, где можно описать, как вы хотите, чтобы ИИ вел себя. У меня там только просьба обращаться на “ты” и отвечать на русском без англицизмов – у GPT-5 с этим была проблема. Но знаю, что некоторые прописывают в пользовательских настройках огромное количество инструкций, как ИИ отвечать, какую “личность” использовать.

У ChatGPT есть еще и память – ее можно посмотреть в настройках. Там я храню достаточно много важных инструкций: от информации о себе до того, как искать данные в сети и структурировать черновики текстов, какие слова переводить, а какие – нет (здесь рассказывал, как использую память).

Простой совет: когда случается обновление ИИ, простой совет – на время выключите все пользовательские настройки и проведите несколько десятков диалогов с “базовой” моделью. Посмотрите, как изменился стиль ответов, что вам нравится, а что нет – после же перечитайте настройки персонализации и сохраненную память, и удалите все лишнее.

Логика в том, что настройки персонализации и данные из памяти – по сути, еще один промпт, который модель читает перед тем, как обработать каждый ваш запрос. А еще есть системный промпт, в котором разработчики прописывают ИИ базовые инструкции: каких ответов избегать, какое форматирование и где использовать и т. д. Чем больше во всем этом массиве конфликтующих вещей – тем сложнее модели дать хороший ответ. Так что пользуйтесь персонализацией аккуратно, не увлекаясь.
👍6436🔥14👏2
Давненько на канале ничего не было о возможности сознания у ИИ

Я аккуратно касаюсь темы, во-первых, потому, что до действительно серьезных событий на этом фронте еще много времени. Во-вторых, любой разговор о сознании ИИ упирается в неожиданный факт – в науке до сих пор не договорились, что делает сознательным человека. Существует примерно с десяток теорий, одна красивее другой – вот и не получается выбрать 😜

Но не имея определения сознательности, можно сделать другое – выбрать черты, без которых она вряд ли возможна. Одна из черт – интроспекция, то есть способность к анализу собственных мыслей. Совершив какое-либо действие, человек может сказать – что подтолкнуло его к этому.

Но способны ли на такое современные языковые модели? Исследование Anthropic показывает, что как минимум новейшие ИИ вроде Claude Opus 4 и 4.1 начинают проявлять признаки подобного поведения.

Языковая модель состоит из огромного количества параметров – условного аналога человеческих нейронов. Каждый раз, когда она пишет текст, часть из этих параметров активируется. В Anthropic просили ИИ написать одну и ту же фразу, например, обычным шрифтом и БОЛЬШИМ, затем вычитали активации и получали вектор – набор параметров внутри модели, который отвечает за определенные элементы ее ответов.

В Anthropic собрали целый набор таких векторов. Затем исследователи задавали модели определенный вопрос, а при генерации ответа “внедряли” один из векторов. В итоге получалось, что модель неконтролируемо начинала кричать капсом или нести ерунду не по теме.

Параллельно модель спрашивали – не замечает ли она при написании чего-то странного? И если ранние версии Claude просто писали ерунду, то новейшие Opus 4/4.1 отвечали, что да пятница вечер, увлекся, болтаю лишнее, происходит странное, в “голове” появились будто чужие “мысли”.

Такое случалось не всегда – по оценкам, распознать вмешательство у ИИ получилось в 20%. Не исключено, что в более мощных версиях Claude мы увидим рост этого процента (возможно, уже в Sonnet 4.5, так как он вышел после исследования).

Но даже если показатель станет близким к 100%, то нельзя говорить о появлении у ИИ некой формы сознания. Anthropic пока описывают цели исследования более приземленно: умение ИИ анализировать собственные “мысли” и замечать в них артефакты полезно для безопасности – если модель кто-то попробует взломать, то есть шанс, что она сообщит пользователю об опасности.

А для возникновения у ИИ подобия “сознания” надо добавить еще минимум две вещи – долговременную память и непрерывное обучение. Дело в том, что современные модели долго обучаются на определенном наборе данных, а затем “замораживаются” и переносятся на серверы для работы с пользователем. То есть ИИ не “мыслит” постоянно, собирая и анализируя информацию и обретая таким образом новые знания.

Аналогично у языковых моделей нет и памяти в привычном виде. Если открыть уже существующий диалог, то ИИ его перечитает и восстановит порядок событий, но никуда наружу это не уйдет – то есть глобально не помнит, что с ним происходило вчера или неделю назад. По этой причине в творческих текстах ИИ часто “плывут” в понимании времени, пытаясь запихать в пару дней события, которые длились бы месяц – у них просто не было такого опыта.

Есть много идей, как сделать непрерывное обучение и долговременную память, но пока все они далеки от надежной реализации. И даже когда в этой области случится прорыв – то память и дообучение сначала будут реализованы на уровне отдельных ИИ-агентов. Например, бизнес-моделей, которым нужно подстраиваться под меняющийся рынок и новые задачи. Ну а создание ИИ, который мыслит “глобально”, помня миллиарды диалогов с пользователями по всему миру – потребует не только новой архитектуры, но и совершенно иных вычислительных и энергетических ресурсов.

Вот когда застроим всю планету дата-центрами – тогда и вернемся к вопросу сознания у ИИ.
13🔥65👍2923😁6👏2
Вторая космическая

На саммите АТЭС Си Цзиньпин вновь выступил за международное регулирование ИИ, к чему Китай призывает с лета. Позиция в том, что ИИ должен стать общественным благом, а не игрушкой нескольких стран – но у Поднебесной есть и свой интерес.

Очевидно, что в ближайшие годы основная ИИ-гонка будет между США и Китаем. У обеих стран есть хорошие команды специалистов и огромная пользовательская база. Но вот дальше позиции начинают расходиться.

Для обучения ИИ требуются большие вычислительные мощности, и здесь США впереди – именно они контролируют ASML, единственную в мире компанию, способную выпускать оборудование для производства чипов на процессе ниже 7 нм. Лучше техпроцесс – быстрее чипы и эффективнее обучение ИИ.

В КНР поставки новейших ускорителей жестко ограничены: разрешено продавать только версии с пониженной производительностью. Китайцы в ответ возят GPU контрабандой и активно занимаются импортозамещением. Еще весной был показан прототип EUV-сканера для техпроцессов ниже 7 нм – при лучшем раскладе до промышленных образцов еще годы, но прогресс впечатляет.

Можно использовать и менее производительные чипы, просто выпускать их много и делать ставку на параллельные вычисления. Китайцы – известные мастера в задаче “сделать быстро и много”, но проблема в другом – чем больше ускорителей задействовано одновременно, тем сложнее обеспечить их стабильную работу, а процесс обучения ИИ очень чувствителен к таким вылетам. Ходят слухи, что летом DeepSeek R2 пытались тренировать на Huawei Ascend 910, но попытка провалилась.

Эксперименты наверняка продолжаются и рано или поздно китайцы добьются от собственных ускорителей стабильной работы. Кроме того, на текущих GPU/TPU свет клином не сошелся – прямо сейчас прорабатывают немало идей вычислительной архитектуры, более подходящей для ИИ. И если одна из них выстрелит, то китайцы будут стартовать почти на равных.

Для тренировки ИИ нужны не только вычислители – но и ресурсы. Китай недавно чуть не ограничил экспорт редкоземельных материалов – страна контролирует примерно 70% их мирового производства. Редкоземы в дата-центрах – это магниты в системах охлаждения, элементы в блоках питания, оптика, датчики и многое другое.

Но главный ресурс – электроэнергия. Здесь в США уже бьют тревогу: ввод генерационных мощностей, а также передающей инфраструктуры, не успевает за темпами строительства новых дата-центров. По оценкам OpenAI, стране надо сейчас вводить по 100 гигаватт мощностей в год, чтобы не проиграть Китаю – реально же вводится в два раза меньше.

В Китае по итогам 2025 года ожидается ввод до 250 ГВт мощностей, правда, значительную часть этой цифры дают солнечная и ветряная генерация, которые не так эффективны, как газ или уголь. Но даже по консервативным оценкам китайцы наращивают свои энергомощности в два раза быстрее. Так что если подтянут чипы – ситуация может перевернуться с ног на голову.

И закончим на том, с чего начали – подходах государств к ИИ. В США с лета принят America’s AI Action Plan, цель которого – обеспечить победу в ИИ-гонке. Писал про него подробно, план очень амбициозный и характеризуется словами “кто не с нами – тот против нас”. Китай в нем открыто называется главным соперником, а дружественным государствам обещан доступ к передовым технологиям, если они будут идти в американском русле.

Китай (здесь про их план) в ответ призывает развивать ИИ как “общественное благо”, без разделения на блоки и конфронтации между ними, а в рамках единого международного контролирующего органа. Звучит красиво, но это хитрость догоняющего – китайцы всеми силами стараются выглядеть лучше на фоне США, а параллельно предлагают разместить штаб-квартиру органа в Шанхае.

Для конечного пользователя такая конкуренция во благо – по крайней мере, пока. Отставая по производительности моделей, китайцы берут рыночную долю доступностью. Поэтому DeepSeek, Qwen, Kimi и другие бесплатны в вебе, а также выпущены с открытыми весами, чтобы любой мог скачать, доработать и запускать на своем железе.
3👍60🔥288👏4😁4
Про использование ИИ для медицинских консультаций

OpenAI немного встряхнули сообщество – компания внесла изменения в правила использования ChatGPT, по которым ИИ больше не ставит точные медицинские диагнозы, а также не дает профессиональные советы в юриспруденции и инвестициях. Компания толком не пояснила изменения, поэтому пошла информация, что ChatGPT вообще не будет помогать в этих областях.

Это не так – ответы модели где-то стали строже, но грамотную консультацию от нее можно получить, если знать, как промптить. Примеры я покажу далее, но сначала давайте поговорим об использовании ИИ для медицинских советов.

По статистике, запросы советов по медицине, ЗОЖ, психотерапии и праву сейчас входят в лидирующие кейсы использования ИИ. Можно относиться к этому по-разному, но это состоявшийся факт.

Обычно использование ИИ для медицинских советов критикуют в духе, что нейронки не заменят живого врача. Однако это ошибочный подход – сравнивать врача и ИИ. Нейросети надо сравнивать с коллективным бессознательным интернета, куда пациенты идут за “консультацией” когда не получается быстро добраться до врача (или не хочется), врач что-то не до конца пояснил, есть подозрение, что как-то не так лечат, ну или просто характер такой.

И здесь современные нейронки выигрывают у интернета с разгромным счетом. По моему опыту, передовые модели в курсе, что такое доказательная медицина, смотрят, какие лекарства и методы лечения доступны в стране пользователя, умеют искать по исследованиям и при этом знают, что у исследований есть свои ограничения. А главное – они не стесняются напомнить, что дальше стоит пойти ко врачу.

Осталось разобраться, как правильно пользоваться ИИ. В свое время на Reddit была интересная публикация от врача из США, в которой он отметил:

1. В его госпитале ИИ пользуется большинство врачей и пациентов.
2. Специалисты ценят ИИ за быстрый и грамотный поиск информации, а также возможность перепроверить и уточнить свои знания.
3. У ИИ есть и свои пробелы – например, часто для диагноза необходим контакт с пациентом, чтобы посмотреть, как он выглядит, говорит и держится.
4. Пациентам врач рекомендует использовать ИИ для подготовки визита к врачу и для расшифровки диагноза.

Как раз для пункта 4 я накидал два промпта. Вот для подготовки:

Помоги подготовиться к визиту ко врачу:

[Описываем пациента, возраст, рост, вес, хронические заболевания, серьезные заболевания у родственников]

[Описываем проблему максимально детально]

Сначала задай вопросы, которые тебе помогут лучше узнать ситуацию.

Я постараюсь ответить на них, затем ты:
— Перечисли возможные причины моей ситуации.
— Подскажи, к какому врачу (или врачам) надо обратиться, как срочно.
— Подскажи, при каких изменениях в ситуации нужно срочно обращаться ко врачу.
— Подскажи, что я могу предпринять до визита сам для облегчения ситуации.
— Подскажи, какую дополнительную информацию мне подготовить, чтобы врачу было проще работать.


Отдельно отмечу пункт 5: время на прием часто ограничено и если вы придете с четким описанием проблемы – спасибо скажут и вам, и ИИ.

Если же на руках уже есть диагноз, то загружаем его и все анализы в систему (сейчас почти у всех клиник есть приложения с цифровой картой пациента), а затем пишем:

Изучи анализы, диагноз и назначенное лечение, затем:

— Объясни суть диагноза и лечения понятным для пациента языком.
— Подскажи, что мне отслеживать, чтобы понять, что лечение успешно.
— Перечисли альтернативы, которые обычно обсуждают при таком состоянии.
— Подскажи, надо ли подключать других специалистов при таком диагнозе.


Если все-таки нужно углубиться в детали определенного заболевания – то далее расспрашивайте ИИ в контексте самого заболевания, а не пациента (“расскажи про…”). Тогда он более охотно раскроет детали, диагностику и схемы лечения.

Но пожалуйста, не используйте эту информацию для самолечения: ИИ отличный вспомогательный инструмент – но не замена живому специалисту.

#сбежавшая_нейросеть_промпты
287👍37🔥11🥰1😁1