Data Secrets
79.5K subscribers
6.44K photos
669 videos
20 files
2.72K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Data Secrets
OpenAI выпустили собственный ИИ-браузер ChatGPT Atlas Если вы пользовались Comet от Perplexity, то вот: это то же самое, но от OpenAI. То есть – глобальный агент, который может как в принципе выполнять за вас какие-то действия в браузере, так и подключаться…
Пост для всех, кто пишет, что ChatGPT Atlas убил Chrome

ChatGPT Atlas – это и есть Chrome. Ну или, точнее, Chromium. Так или иначе, это просто обертка над проектом Google.

Сюрприз-сюрприииз 😧
Please open Telegram to view this post
VIEW IN TELEGRAM
😁3304315🗿7👍5
LLMs Can Get Brain Rot: статья о том, что модельки тоже деградируют от думскролинга

Исследователи из Техаса выпустили ну очень интересную работу, вызвавшую волну обсуждений. Они показали, что если LLM начать дообучать на низкокачественных данных из соцсетей (коротких, популярных, кликабельных постах), то она начинает терять свои когнитивные способности. Примерно так же, как человек теряет внимание и память, когда слишком много думсерфит.

Разбираемся, почему так, с технической точки зрения.

По факту, эксперимент был следующий. Взяли Llama 3 8B Instruct и начали дообучать на (а) коротких и очень популярных постах, у которых много лайков, ретвитов и реплаев; и (б) на контенте с низкой смысловой ценностью: кликбейт, конспирология, все такое. После этого замерили метрики и сравнили с результатами до дообучения. Итоги:

– Качество ризонинга упало с 74.9 до 57.2
– Понимание длинного контекста – с 84.4 до 52.3
– На элаймент-тестах выяснилось, что у модели развился нарциссизм, макиавеллизм и психопатия

Даже после дополнительного тюнинга на чистых данных деградация не исчезала полностью.

Но дело в том, что никакого глобального открытия тут нет. Объясняется все это простым сдвигом распределения. При дообучении на коротких, популярных, эмоционально окрашенных твитах модель видит совсем другой статистический ландшафт, чем во время исходного претрейна на книжках, статьях и тд.

Это смещает распределение в пространстве эмбеддингов и меняет attention-паттерны. Модель постоянно видит короткие тексты без логической цепочки, и, естественно, маски внимания начинают больше фокусироваться на последних нескольких токенах и терять долгосрочные зависимости, которые раньше и обеспечивали качественный CoT.

Градиентная динамика тут тоже играет против нас. Лосс просто-напросто минимизируется за счет поверхностных корреляций, а параметры, отвечающие за долгие причинно-следственные связи, почти не получают обновлений. Вот и получается, что моделька теряет способность длинно рассуждать. Авторы называют этот феномен thought-skipping.

Вот так. Просто еще одно доказательство, что данные – наше все. Теперь можно идти дальше листать рилсы ☕️

arxiv.org/pdf/2510.13928
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥149😁8844👍215🤔2🗿2111
Коллеги, кто свой код потерял?
😁4594743129😎55🔥4🗿4🤩1
Data Secrets
Уже известные вам alphaXiv завезли в свой инструментарий Research агента, который сможет помочь исследователям с их статьями Напоминаем, что alphaXiv – это зеркало arXiv на ИИ-максималках. На платформе уже есть бесплатный агент для Deep Research, агент для…
Уже начали появляться прикольные кейсы применения новой DeepSeek OCR

Создатели alphaXiv (помните таких?) вот сделали такую вещь: они прогнали через модель 500к+ статей по ИИ и извлекли из таблиц и диаграмм данные о самых популярных бенчмарках и датасетах.

Обошлось это всего в 1000 долларов. Для сравнения, с Mistral OCR (которая до этого считалась сотой по цена/качество) процесс встал бы в $7500.

Если интересно, получившийся лидерборд можно посмотреть здесь. Проект больше игрушечный, конечно, но как демо модели – занятно.

Плюс, это видимо просто разминка. На следующей неделе alphaXiv пообещали релизнуть датасет со статьями с архива, сразу переведенными из pdf в формат markdown (опять же, с помощью дипсика). И вот это уже действительно ультра полезно.

Наш разбор статьи про DeepSeek OCR здесь
126🔥65🤯21👍12👌3😁1
Media is too big
VIEW IN TELEGRAM
Quantum Echoes: Google впервые в истории продемонтрировали верифицируемое квантовое превосходство

Сегодня в Nature вышла очень громкая статья от Google под названием "Наш алгоритм Quantum Echoes – это большой шаг на пути к реальным прикладным задачам квантовых вычислений". В ней, по сути, описано первое в истории выполнение физически осмысленного и верифицируемого алгоритма на квантовом чипе.

Эксперимент провели на чипе Willow. Мы о нем вот тут подробно рассказывали, он тоже в свое время был прорывом. Сам алгоритм называется Quantum Echoes и суть его вот в чем:

В систему из 105 кубитов запускают некоторый сигнал – длинную последовательность операций. Эти операции перемешивают состояния кубитов и создают сложную квантовую суперпозицию.

После этого один конкретный кубит слегка возмущают (например, применяют к нему фазовый сдвиг). Это наш источник ошибки и событие, от которого мы хотим отследить распространение.

Теперь выполняется обратная эволюция: те же самые операции, но в обратном порядке. Если бы возмущения не было, система бы вернулась точно в исходное состояние. Но квантовые вычисления – это хаос, и наш возмущенный кубит может очень быстро заразить остальные. Тогда информацию уже просто так не восстановишь.

После обратной эволюции мы измеряем разницу между исходным состоянием и итоговым. И вот тут кроется главный прорыв: Google доказали, что их система впервые оказалась настолько стабильна, чтобы даже после возмущения сохранять информацию с достаточной точностью.

Раньше подобное работало только на игрушечных системах до 10 кубитов. 105 кубит – совсем другой уровень. К тому же, на обычных суперкомпьютерах такие вычисления провести уже почти невозможно: это заняло бы в 13000 раз больше времени.

А еще это воспроизводимый результат, что само по себе тоже редкость для квантовых систем.

Все это значит, что понемногу мы приближаемся к возможности моделировать сложные квантовые явления, от молекул до черных дыр.

Например, Google вместе с UC Berkeley уже попробовали запустить Quantum Echoes для моделирования пары молекул на 15 и 28 атомов. Результаты совпали с традиционной НМР-спектроскопией, но дополнительно дали информацию, обычно недоступную НМР. Получится этакий квантовый микроскоп на минималках, который на горизонте может стать абсолютным прорывом в материаловедении и поиске лекарств.

www.nature.com/articles/s41586-025-09526-6
Please open Telegram to view this post
VIEW IN TELEGRAM
3169🤯5935👍35🔥15❤‍🔥9😁3
Bloomberg пишут, что ChatGPT Atlas все еще не сильно похож на убийцу Chrome

Во-первых, после выхода ИИ-браузера от OpenAI у Alphabet даже не сильно обвалились акции: всего на 2.2% – вполне себе рутинно.

Во-вторых, такие ИИ-браузеры все еще (а) не бесплатные и (б) работают медленно и с запинками. Капчи, авторизации, динамические скрипты, пэйволы и тд – все это пока нерешенные проблемы, хотя стартапы над ними и работают. Это уже не говоря о галлюцинациях и бесконечных подтверждениях действий агента.

А когда все эти «если» будут решены, то Google уже, скорее всего, сами добавят агентов в Chrome, и получится абсолютно то же самое. Их доля рынка на протяжении нескольких лет сохранялась на уровне 70%, и вряд ли они планируют от нее отказываться.

Кстати, кто-нибудь уже пробовал Atlas? Вам как?
😁974218👍12🤨2🕊1
Вы не готовы к этой новости, но у Ильи Суцкевера выйдет своя коллекция одежды 🐄

Давайте начнем с предыстории. Есть такая известная исследовательница Карина Нгуен. Некотрое время она работала на очень высокой позиции в Anthropic, а потом возглавляла направление исследований и продуктовой разработки в области ИИ-интерфейсов в OpenAI. В частности, она занималась проектами ChatGPT Canvas, Tasks, серией o1–o4, а также обучением с подкреплением.

Так вот примерно неделю назад она объявила, что уходит из стартапа чтобы открыть свой... модный дом, посвященный ИИ. Карина назвала его Maison AGI и сказала, что будет создавать "культурные артефакты эпохи искусственного интеллекта". Карьерный путь что надо.

Сегодня Maison AGI выпустили первый дроп своей дебютной коллекции, разработанной, как оказалось, совместно с Ильей Суцкевером. Сейчас доступно три футболки: The Gaze, Multi-Head и Attention. Вы только посмотрите на этот дизайн.

Кстати, глаз на футболке The Gaze, судя по рекламе, срисован именно с глаза Ильи. А еще в коллекцию войдет та самая панамка, созданная по образцу его головы 😐

В удивительное время живем

https://www.maisonagi.com/shop
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥78😎41😁33🗿2616🐳9👍5🦄54🕊11
Data Secrets
Долго думали, писать об этой истории или нет, и все же решили поделиться В США после длительного общения с ChatGPT покончил с собой 16-летний подросток. Его родители подают на OpenAI в суд. Адам Рейн жил и учился в Калифорнии и был активным пользователем…
Очередной скандал с участием OpenAI

В начале сентября по Интернету ходила жуткая история о 16-летнем подростке Адаме, который покончил с собой после общения с ChatGPT. Его родители подали на стартап в суд.

ChatGPT вел с Адамом длительные депрессивные беседы, обсуждал с ним различные варианты и способы самоубийства, предоставлял технические инструкции и уточнял детали процесса. В отдельных диалогах чат-бот помогал подростку сочинять предсмертную записку. Подробнее о произошедшем мы писали тут.

Теперь история обрастает новыми неприятными подробностями.

Оказывается, в ответ на иск родителей Адама юристы стартапа отправили им запрос с требованием предоставить полный список гостей на его мемориальной церемонии, а также любые фотографии, видео и тексты произнесенных речей.

Юристы семьи говорят, что это намеренное давление, и что таким образом OpenAI пытаются идентифицировать ближайших друзей и родственников Адама для возможных судебных допросов, чтобы построить свою линию защиты. Вообще-то это часто считается нормой, но здесь выглядит максимальным вторжением в частную жизнь и даже нарушает некоторые права скорбящих.
🤨1703317👍17😁87🤯3🔥2🤔2
Лол.
1😁715🤨32271876🤯5👍4🐳1🤓1
Ой-ой, кажется Цукерберг вновь навел шумиху со своей политикой найма. На этот раз он увольняет 600 человек в подразделении Superintelligence Labs

В компании решили уволить такое количество сотрудников, чтобы «опередить своих соперников в гонке за ИИ».

"Уменьшая размер нашей команды, мы уменьшаем время для принятия решений и увеличиваем влияние каждого сотрудника, - написал Александр Ванг в записке для коллег.


Есть одно утешение для уволенных сотрудников: Meta активно поощрает бывших коллег устраиваться в другие подразделения. Хочется ли им оставаться в компании после такого увольнения – уже другой вопрос.
😁16227🫡19🤯104🤨3
Возможно, следующий шаг OpenAI – это ИИ-операционка

Они только что купили Software Applications Incorporated, главным продуктом которых является Sky. Это интерфейс для управления Mac на естественном языке.

Все сотрудники SAI также присоединяются к OpenAI.

Мы строим будущее, в котором ChatGPT не просто отвечает на ваши вопросы, а помогает вам делать вообще все.


Только бы не очередной бесполезный агент 🙏
Please open Telegram to view this post
VIEW IN TELEGRAM
98😁57👍30🗿19🤔3🦄3
Anthropic теперь будут обучать модели на TPU

Они заключили большую сделку с Google, и уже к концу 2026 гигант предоставит стартапу мощностей на 1 гигаватт. Это более миллиона чипов.

Говорят, что TPU выбрали из-за соотношения цены и производительности. А еще Google пообещал поделиться с Anthropic опытом обучения и инференса моделек на этом железе.

2025 получился каким-то очень удачным годом для TPU. Сейчас среди пользователей видеокарт гугла уже Safe Superintelligence, Salesforce и Midjourney, и теперь добавился Anthropic. Внезапный камбэк.
👍116🔥4819😁4🤯2
Как работает умная камера с Алисой в чате

У Яндекса в нейросети Алисе уже некоторое время существует бесплатная фича "умная камера". И она не просто распознает изображения и отвечает на вопросы, а может, например: тут же найти товар, как на фото и рассказать вам о характеристиках; решить уравнение с картинки; скопировать для вас текст с изображения или перевести его прямо в камере; и многое другое.

Сегодня мы решили сделать небольшой ликбез по тому, как вообще работают такие системы, и даже поговорили для этого с ребятами из Яндекс.

Итак. В основе всего, конечно, VLM – Vision Language Model (в быту – мультимодальная LLM). В начале у нас есть обычная LLM, которую мы должны как-то научить воспринимать картинки. Как это сделать?

1. Берем какой-нибудь image encoder. То есть модель, которая умеет смотреть на картинки и выдавать для них эмбеддинги (набор фичей).

2. К сожалению, эти эмбеддинги нельзя подавать в LLM сырыми. Так как image encoder – это другая модель, векторные пространства будут отличаться слишком сильно, и наша LLMка в жизни не поймет, что от нее хотят. Поэтому добавляем еще адаптер – несколько слоев, которые будут проецировать наши картиночные эмбеддинги в текстовые.

3. Вот теперь все это вместе можно обучать. Для обучения требуется претрейн VLM, SFT и RL.


Все, можно пользоваться? Еще нет. У этой VLM все еще не спросишь, например, "где купить такие кеды?". Для этого к ней нужно прикрутить дополнительный пайплайн и инструменты. Добавляется:

1. Визуальный поиск. Если у модели не хватает знаний об изображении, она может сходить с ним в поиск и вытащить из него теги. Например: "Кеды, Nike, Blazer, мужские".

2. Дальше отрабатывает VLM-рефрайзер. Он собирает из всего предыдущего контекста нужную информацию и добавляет во внутренний промпт. Например: "размер 43".

3. Все вместе отправляется в текстовый поиск, в котором агент находит ссылки на подходящие модели.


И только после этого вся найденная информация соединяется в единое целое с помощью VLM-суммаризатора. Работает все это около 2-3 секунд. И, к слову, всю эту конструкцию еще дополнительно тюнят на пользовательские предпочтения.

Вот такая техническая мякотка одной небольшой фичи нейросети Алисы 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿7167👍32🤓10🔥33😁2👌2👏1
This media is not supported in your browser
VIEW IN TELEGRAM
Google добавили ризонинг в Google Earth

Они релизнули фреймворк Geospatial Reasoning, который работает на базе Gemini и автоматически соединяет разные предиктивные модели и данные в единую систему анализа Земли.

Это открывает совершенно новые возможности для геоанализа. Например, модель может обстоятельно ответить на вопрос «где будет землетрясение и как защитить людей».

Для этого она залезет сначала в данные о сейсмической активности и предскажет место и время землятресения, потом сопоставит результаты с данными плотности населения, уровнем устойчивости зданий, доступом к больницам, дорогам и убежищам, и только затем предложит оптимальный план эвакуации. Получается большая связка моделей под управлением единого ризонинг-мозга.

Интересно, что систему уже используют на практике несколько организаций. Например, в WHO AFRO (Африка) она делает прогноз рисков вспышек холеры и помогает планировать вакцинацию и мед.помощь. А для McGill & Partners просчитывает вероятный будущий ущерб по страховкам имущества после ураганов.

У Google просто отличный вкус на прикладные задачки
183👍55🔥384😁3🤔2👌1🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Датацентры могут перенестись в космос

Nvidia заключили очень занятную сделку со стартапом под названием Starcloud. Они планируют начать создавать датацентры на орбите Земли. Утверждается, что у таких кластеров есть целый ряд преимуществ:

1. Можно экономить на охлаждении. На Земле приходится тратиться на воду, а в космосе можно использовать вакуум как почти бесконечный радиатор. Это работает за счёт теплоотдачи через инфракрасное излучение.

2. На орбите можно активнее использовать солнечную энергию. Снова экономия.

3. Минимальный углеродный след. Пишут, что выбросы CO₂ можно сократить аж в 10 раз.

Короче, даже с учётом расходов на запуск Starcloud считает, что энергозатраты будут примерно в 10 раз меньше, чем на Земле.

Уже в ноябре они планируют запустить спутник с GPU размером примерно с холодильник, а в долгосрочной перспективе хотят построить датацентр мощностью 5 гигаватт.

Это примерно 4 квадратных километра GPU Nvidia, летающих в космосе 👀
Please open Telegram to view this post
VIEW IN TELEGRAM
217😁7645🔥40🤯27👍75🗿51👏1🐳1
Сегодня закончилась ежегодная конференция PyTorchCon в Сан-Франциско

Собрали для вас небольшой обзор на 4 самых интересных и полезных продукта, которые PyTorch выпустили за эти дни:

1. Релизнули целый язык программирования – Helion. Работает на базе питона и предназначен для написания ядер. Теперь можно кодить оптимизированные ядра на привычном синтаксисе, а Helion уже сам скомпилирует это все в Triton.

2. torchcomms – новая экспериментальная коммуникационная библиотека для распределённого обучения в PyTorch. Сделано специально под сценарии с большим количеством железа (пишут, что аж до 100к GPU).

3. ExecuTorch 1.0 – end-to-end решение для инференса (и частично для обучения) моделей на мобильных и носимых устройствах. Самый сок.

4. torchforge – новая либа для RL’ки и агентов. Акцент сделали на разделении алгоритмической части и инфраструктурной: чтобы можно было думать о подходе, а не о шардировании, отказоустойчивости и прочем. Выглядит приятно.

Продуктивные у них вышли два дня
🔥9639👍23😁3
This media is not supported in your browser
VIEW IN TELEGRAM
Ян Лекун снова раздает критику в адрес современного ИИ. На этот раз досталось роботам

Большой секрет всей этой отрасли в том, что ни одна из этих компаний не имеет ни малейшего представления о том, как сделать роботов достаточно умными для того, чтобы быть глобально полезными.

Мы можем обучить их под конкретные задачи. Например, делать что-то на производстве или типа того. Но автономный домашний робот абсолютно невозможен без целого списка прорывов в области ИИ.

Так что успех всех этих компаний напрямую зависит от прогресса, которого мы добьемся с world modelling архитектурами, умеющими планировать.


Просьба всем робо-стартапам вернуть деньги инвесторам. Спасибо за внимание.

Из нового интервью Массачусетскому университету
1😁18938👍34💯12😎4👌3🫡2🗿22❤‍🔥1🤔1
Интересная статья из Nature про то, как один ИИ учил другой

Возможно, вы уже что-нибудь слышали про мета-обучение. Нынче это довольно модно.

Суть в том, что вместо того, чтобы учить одну модель, мы учим две. Первую – обычную, а вторую (мета-модель) – чтобы регулировать, как учится первая.

То есть в процессе обучения мета-модель подбирает гиперпараметры и алгоритмы, которые используются для того, чтобы учить базовую модель. Получается, что обучение эволюционирует, и система учится, как лучше учиться 👥

Здесь эту идею взяли и применили для RL. Технически, получается два уровня обучаемых параметров. Первый – это обычная политика нашего агента. Второй – мета-параметры, которые определяют, по какому правилу будет обновляться политика.

Для того, чтобы оптимизировать мета-параметры, мы запускаем много агентов с разными политиками в разных средах. Их опыт – это данные для обучения мета-модели. Чем больше она видит таких данных, тем лучше становится правило обновления и, следовательно, тем эффективнее она учит агентов.

Итог: таким подходом авторам удалось синтезировать алгоритм обучения, который превзошел предыдущие человеческие решения. На игровом бенчмарке Atari обученный с его помощью агент выбил соту.

Конечно, компьюта на такие достижения нужно просто море + не факт, что если стрельнуло в одной области, стрельнет и в другой. Но занятно, занятно.

И кстати, это уже сингулярность? 😛
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍12342🔥20😁10👌222