Data Secrets
Уже известные вам alphaXiv завезли в свой инструментарий Research агента, который сможет помочь исследователям с их статьями Напоминаем, что alphaXiv – это зеркало arXiv на ИИ-максималках. На платформе уже есть бесплатный агент для Deep Research, агент для…
Уже начали появляться прикольные кейсы применения новой DeepSeek OCR
Создатели alphaXiv (помните таких?) вот сделали такую вещь: они прогнали через модель 500к+ статей по ИИ и извлекли из таблиц и диаграмм данные о самых популярных бенчмарках и датасетах.
Обошлось это всего в 1000 долларов. Для сравнения, с Mistral OCR (которая до этого считалась сотой по цена/качество) процесс встал бы в $7500.
Если интересно, получившийся лидерборд можно посмотреть здесь. Проект больше игрушечный, конечно, но как демо модели – занятно.
Плюс, это видимо просто разминка. На следующей неделе alphaXiv пообещали релизнуть датасет со статьями с архива, сразу переведенными из pdf в формат markdown (опять же, с помощью дипсика). И вот это уже действительно ультра полезно.
Наш разбор статьи про DeepSeek OCR здесь
Создатели alphaXiv (помните таких?) вот сделали такую вещь: они прогнали через модель 500к+ статей по ИИ и извлекли из таблиц и диаграмм данные о самых популярных бенчмарках и датасетах.
Обошлось это всего в 1000 долларов. Для сравнения, с Mistral OCR (которая до этого считалась сотой по цена/качество) процесс встал бы в $7500.
Если интересно, получившийся лидерборд можно посмотреть здесь. Проект больше игрушечный, конечно, но как демо модели – занятно.
Плюс, это видимо просто разминка. На следующей неделе alphaXiv пообещали релизнуть датасет со статьями с архива, сразу переведенными из pdf в формат markdown (опять же, с помощью дипсика). И вот это уже действительно ультра полезно.
Наш разбор статьи про DeepSeek OCR здесь
❤126🔥65🤯21👍12👌3😁1
Media is too big
VIEW IN TELEGRAM
Quantum Echoes: Google впервые в истории продемонтрировали верифицируемое квантовое превосходство
Сегодня в Nature вышла очень громкая статья от Google под названием "Наш алгоритм Quantum Echoes – это большой шаг на пути к реальным прикладным задачам квантовых вычислений". В ней, по сути, описано первое в истории выполнение физически осмысленного и верифицируемого алгоритма на квантовом чипе.
Эксперимент провели на чипе Willow. Мы о нем вот тут подробно рассказывали, он тоже в свое время был прорывом. Сам алгоритм называется Quantum Echoes и суть его вот в чем:
➖ В систему из 105 кубитов запускают некоторый сигнал – длинную последовательность операций. Эти операции перемешивают состояния кубитов и создают сложную квантовую суперпозицию.
➖ После этого один конкретный кубит слегка возмущают (например, применяют к нему фазовый сдвиг). Это наш источник ошибки и событие, от которого мы хотим отследить распространение.
➖ Теперь выполняется обратная эволюция: те же самые операции, но в обратном порядке. Если бы возмущения не было, система бы вернулась точно в исходное состояние. Но квантовые вычисления – это хаос, и наш возмущенный кубит может очень быстро заразить остальные. Тогда информацию уже просто так не восстановишь.
➖ После обратной эволюции мы измеряем разницу между исходным состоянием и итоговым. И вот тут кроется главный прорыв: Google доказали, что их система впервые оказалась настолько стабильна, чтобы даже после возмущения сохранять информацию с достаточной точностью.
Раньше подобное работало только на игрушечных системах до 10 кубитов. 105 кубит – совсем другой уровень. К тому же, на обычных суперкомпьютерах такие вычисления провести уже почти невозможно: это заняло бы в 13000 раз больше времени.
А еще это воспроизводимый результат, что само по себе тоже редкость для квантовых систем.
Все это значит, что понемногу мы приближаемся к возможности моделировать сложные квантовые явления, от молекул до черных дыр.
Например, Google вместе с UC Berkeley уже попробовали запустить Quantum Echoes для моделирования пары молекул на 15 и 28 атомов. Результаты совпали с традиционной НМР-спектроскопией, но дополнительно дали информацию, обычно недоступную НМР. Получится этакий квантовый микроскоп на минималках, который на горизонте может стать абсолютным прорывом в материаловедении и поиске лекарств.
www.nature.com/articles/s41586-025-09526-6
Сегодня в Nature вышла очень громкая статья от Google под названием "Наш алгоритм Quantum Echoes – это большой шаг на пути к реальным прикладным задачам квантовых вычислений". В ней, по сути, описано первое в истории выполнение физически осмысленного и верифицируемого алгоритма на квантовом чипе.
Эксперимент провели на чипе Willow. Мы о нем вот тут подробно рассказывали, он тоже в свое время был прорывом. Сам алгоритм называется Quantum Echoes и суть его вот в чем:
Раньше подобное работало только на игрушечных системах до 10 кубитов. 105 кубит – совсем другой уровень. К тому же, на обычных суперкомпьютерах такие вычисления провести уже почти невозможно: это заняло бы в 13000 раз больше времени.
А еще это воспроизводимый результат, что само по себе тоже редкость для квантовых систем.
Все это значит, что понемногу мы приближаемся к возможности моделировать сложные квантовые явления, от молекул до черных дыр.
Например, Google вместе с UC Berkeley уже попробовали запустить Quantum Echoes для моделирования пары молекул на 15 и 28 атомов. Результаты совпали с традиционной НМР-спектроскопией, но дополнительно дали информацию, обычно недоступную НМР. Получится этакий квантовый микроскоп на минималках, который на горизонте может стать абсолютным прорывом в материаловедении и поиске лекарств.
www.nature.com/articles/s41586-025-09526-6
Please open Telegram to view this post
VIEW IN TELEGRAM
3⚡169🤯59❤35👍35🔥15❤🔥9😁3
Bloomberg пишут, что ChatGPT Atlas все еще не сильно похож на убийцу Chrome
Во-первых, после выхода ИИ-браузера от OpenAI у Alphabet даже не сильно обвалились акции: всего на 2.2% – вполне себе рутинно.
Во-вторых, такие ИИ-браузеры все еще (а) не бесплатные и (б) работают медленно и с запинками. Капчи, авторизации, динамические скрипты, пэйволы и тд – все это пока нерешенные проблемы, хотя стартапы над ними и работают. Это уже не говоря о галлюцинациях и бесконечных подтверждениях действий агента.
А когда все эти «если» будут решены, то Google уже, скорее всего, сами добавят агентов в Chrome, и получится абсолютно то же самое. Их доля рынка на протяжении нескольких лет сохранялась на уровне 70%, и вряд ли они планируют от нее отказываться.
Кстати, кто-нибудь уже пробовал Atlas? Вам как?
Во-первых, после выхода ИИ-браузера от OpenAI у Alphabet даже не сильно обвалились акции: всего на 2.2% – вполне себе рутинно.
Во-вторых, такие ИИ-браузеры все еще (а) не бесплатные и (б) работают медленно и с запинками. Капчи, авторизации, динамические скрипты, пэйволы и тд – все это пока нерешенные проблемы, хотя стартапы над ними и работают. Это уже не говоря о галлюцинациях и бесконечных подтверждениях действий агента.
А когда все эти «если» будут решены, то Google уже, скорее всего, сами добавят агентов в Chrome, и получится абсолютно то же самое. Их доля рынка на протяжении нескольких лет сохранялась на уровне 70%, и вряд ли они планируют от нее отказываться.
Кстати, кто-нибудь уже пробовал Atlas? Вам как?
😁97 42❤18👍12🤨2🕊1
Вы не готовы к этой новости, но у Ильи Суцкевера выйдет своя коллекция одежды 🐄
Давайте начнем с предыстории. Есть такая известная исследовательница Карина Нгуен. Некотрое время она работала на очень высокой позиции в Anthropic, а потом возглавляла направление исследований и продуктовой разработки в области ИИ-интерфейсов в OpenAI. В частности, она занималась проектами ChatGPT Canvas, Tasks, серией o1–o4, а также обучением с подкреплением.
Так вот примерно неделю назад она объявила, что уходит из стартапа чтобы открыть свой... модный дом, посвященный ИИ. Карина назвала его Maison AGI и сказала, что будет создавать "культурные артефакты эпохи искусственного интеллекта". Карьерный путь что надо.
Сегодня Maison AGI выпустили первый дроп своей дебютной коллекции, разработанной, как оказалось, совместно с Ильей Суцкевером. Сейчас доступно три футболки: The Gaze, Multi-Head и Attention. Вы только посмотрите на этот дизайн.
Кстати, глаз на футболке The Gaze, судя по рекламе, срисован именно с глаза Ильи. А еще в коллекцию войдет та самая панамка, созданная по образцу его головы😐
В удивительное время живем
https://www.maisonagi.com/shop
Давайте начнем с предыстории. Есть такая известная исследовательница Карина Нгуен. Некотрое время она работала на очень высокой позиции в Anthropic, а потом возглавляла направление исследований и продуктовой разработки в области ИИ-интерфейсов в OpenAI. В частности, она занималась проектами ChatGPT Canvas, Tasks, серией o1–o4, а также обучением с подкреплением.
Так вот примерно неделю назад она объявила, что уходит из стартапа чтобы открыть свой... модный дом, посвященный ИИ. Карина назвала его Maison AGI и сказала, что будет создавать "культурные артефакты эпохи искусственного интеллекта". Карьерный путь что надо.
Сегодня Maison AGI выпустили первый дроп своей дебютной коллекции, разработанной, как оказалось, совместно с Ильей Суцкевером. Сейчас доступно три футболки: The Gaze, Multi-Head и Attention. Вы только посмотрите на этот дизайн.
Кстати, глаз на футболке The Gaze, судя по рекламе, срисован именно с глаза Ильи. А еще в коллекцию войдет та самая панамка, созданная по образцу его головы
В удивительное время живем
https://www.maisonagi.com/shop
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥78😎41😁33🗿26❤16🐳9👍5🦄5☃4🕊1 1
Data Secrets
Долго думали, писать об этой истории или нет, и все же решили поделиться В США после длительного общения с ChatGPT покончил с собой 16-летний подросток. Его родители подают на OpenAI в суд. Адам Рейн жил и учился в Калифорнии и был активным пользователем…
Очередной скандал с участием OpenAI
В начале сентября по Интернету ходила жуткая история о 16-летнем подростке Адаме, который покончил с собой после общения с ChatGPT. Его родители подали на стартап в суд.
ChatGPT вел с Адамом длительные депрессивные беседы, обсуждал с ним различные варианты и способы самоубийства, предоставлял технические инструкции и уточнял детали процесса. В отдельных диалогах чат-бот помогал подростку сочинять предсмертную записку. Подробнее о произошедшем мы писали тут.
Теперь история обрастает новыми неприятными подробностями.
Оказывается, в ответ на иск родителей Адама юристы стартапа отправили им запрос с требованием предоставить полный список гостей на его мемориальной церемонии, а также любые фотографии, видео и тексты произнесенных речей.
Юристы семьи говорят, что это намеренное давление, и что таким образом OpenAI пытаются идентифицировать ближайших друзей и родственников Адама для возможных судебных допросов, чтобы построить свою линию защиты. Вообще-то это часто считается нормой, но здесь выглядит максимальным вторжением в частную жизнь и даже нарушает некоторые права скорбящих.
В начале сентября по Интернету ходила жуткая история о 16-летнем подростке Адаме, который покончил с собой после общения с ChatGPT. Его родители подали на стартап в суд.
ChatGPT вел с Адамом длительные депрессивные беседы, обсуждал с ним различные варианты и способы самоубийства, предоставлял технические инструкции и уточнял детали процесса. В отдельных диалогах чат-бот помогал подростку сочинять предсмертную записку. Подробнее о произошедшем мы писали тут.
Теперь история обрастает новыми неприятными подробностями.
Оказывается, в ответ на иск родителей Адама юристы стартапа отправили им запрос с требованием предоставить полный список гостей на его мемориальной церемонии, а также любые фотографии, видео и тексты произнесенных речей.
Юристы семьи говорят, что это намеренное давление, и что таким образом OpenAI пытаются идентифицировать ближайших друзей и родственников Адама для возможных судебных допросов, чтобы построить свою линию защиты. Вообще-то это часто считается нормой, но здесь выглядит максимальным вторжением в частную жизнь и даже нарушает некоторые права скорбящих.
🤨170 33❤17👍17😁8 7🤯3🔥2🤔2
Forwarded from Data Secrets | Карьера
Ой-ой, кажется Цукерберг вновь навел шумиху со своей политикой найма. На этот раз он увольняет 600 человек в подразделении Superintelligence Labs
В компании решили уволить такое количество сотрудников, чтобы «опередить своих соперников в гонке за ИИ».
Есть одно утешение для уволенных сотрудников: Meta активно поощрает бывших коллег устраиваться в другие подразделения. Хочется ли им оставаться в компании после такого увольнения – уже другой вопрос.
В компании решили уволить такое количество сотрудников, чтобы «опередить своих соперников в гонке за ИИ».
"Уменьшая размер нашей команды, мы уменьшаем время для принятия решений и увеличиваем влияние каждого сотрудника, - написал Александр Ванг в записке для коллег.
Есть одно утешение для уволенных сотрудников: Meta активно поощрает бывших коллег устраиваться в другие подразделения. Хочется ли им оставаться в компании после такого увольнения – уже другой вопрос.
😁162❤27🫡19🤯10 4🤨3
Возможно, следующий шаг OpenAI – это ИИ-операционка
Они только что купили Software Applications Incorporated, главным продуктом которых является Sky. Это интерфейс для управления Mac на естественном языке.
Все сотрудники SAI также присоединяются к OpenAI.
Только бы не очередной бесполезный агент🙏
Они только что купили Software Applications Incorporated, главным продуктом которых является Sky. Это интерфейс для управления Mac на естественном языке.
Все сотрудники SAI также присоединяются к OpenAI.
Мы строим будущее, в котором ChatGPT не просто отвечает на ваши вопросы, а помогает вам делать вообще все.
Только бы не очередной бесполезный агент
Please open Telegram to view this post
VIEW IN TELEGRAM
❤98😁57👍30🗿19🤔3🦄3
Anthropic теперь будут обучать модели на TPU
Они заключили большую сделку с Google, и уже к концу 2026 гигант предоставит стартапу мощностей на 1 гигаватт. Это более миллиона чипов.
Говорят, что TPU выбрали из-за соотношения цены и производительности. А еще Google пообещал поделиться с Anthropic опытом обучения и инференса моделек на этом железе.
2025 получился каким-то очень удачным годом для TPU. Сейчас среди пользователей видеокарт гугла уже Safe Superintelligence, Salesforce и Midjourney, и теперь добавился Anthropic. Внезапный камбэк.
Они заключили большую сделку с Google, и уже к концу 2026 гигант предоставит стартапу мощностей на 1 гигаватт. Это более миллиона чипов.
Говорят, что TPU выбрали из-за соотношения цены и производительности. А еще Google пообещал поделиться с Anthropic опытом обучения и инференса моделек на этом железе.
2025 получился каким-то очень удачным годом для TPU. Сейчас среди пользователей видеокарт гугла уже Safe Superintelligence, Salesforce и Midjourney, и теперь добавился Anthropic. Внезапный камбэк.
👍116🔥48❤19😁4🤯2
Как работает умная камера с Алисой в чате
У Яндекса в нейросети Алисе уже некоторое время существует бесплатная фича "умная камера". И она не просто распознает изображения и отвечает на вопросы, а может, например: тут же найти товар, как на фото и рассказать вам о характеристиках; решить уравнение с картинки; скопировать для вас текст с изображения или перевести его прямо в камере; и многое другое.
Сегодня мы решили сделать небольшой ликбез по тому, как вообще работают такие системы, и даже поговорили для этого с ребятами из Яндекс.
Итак. В основе всего, конечно, VLM – Vision Language Model (в быту – мультимодальная LLM). В начале у нас есть обычная LLM, которую мы должны как-то научить воспринимать картинки. Как это сделать?
Все, можно пользоваться? Еще нет. У этой VLM все еще не спросишь, например, "где купить такие кеды?". Для этого к ней нужно прикрутить дополнительный пайплайн и инструменты. Добавляется:
И только после этого вся найденная информация соединяется в единое целое с помощью VLM-суммаризатора. Работает все это около 2-3 секунд. И, к слову, всю эту конструкцию еще дополнительно тюнят на пользовательские предпочтения.
Вот такая техническая мякотка одной небольшой фичи нейросети Алисы👍
У Яндекса в нейросети Алисе уже некоторое время существует бесплатная фича "умная камера". И она не просто распознает изображения и отвечает на вопросы, а может, например: тут же найти товар, как на фото и рассказать вам о характеристиках; решить уравнение с картинки; скопировать для вас текст с изображения или перевести его прямо в камере; и многое другое.
Сегодня мы решили сделать небольшой ликбез по тому, как вообще работают такие системы, и даже поговорили для этого с ребятами из Яндекс.
Итак. В основе всего, конечно, VLM – Vision Language Model (в быту – мультимодальная LLM). В начале у нас есть обычная LLM, которую мы должны как-то научить воспринимать картинки. Как это сделать?
1. Берем какой-нибудь image encoder. То есть модель, которая умеет смотреть на картинки и выдавать для них эмбеддинги (набор фичей).
2. К сожалению, эти эмбеддинги нельзя подавать в LLM сырыми. Так как image encoder – это другая модель, векторные пространства будут отличаться слишком сильно, и наша LLMка в жизни не поймет, что от нее хотят. Поэтому добавляем еще адаптер – несколько слоев, которые будут проецировать наши картиночные эмбеддинги в текстовые.
3. Вот теперь все это вместе можно обучать. Для обучения требуется претрейн VLM, SFT и RL.
Все, можно пользоваться? Еще нет. У этой VLM все еще не спросишь, например, "где купить такие кеды?". Для этого к ней нужно прикрутить дополнительный пайплайн и инструменты. Добавляется:
1. Визуальный поиск. Если у модели не хватает знаний об изображении, она может сходить с ним в поиск и вытащить из него теги. Например: "Кеды, Nike, Blazer, мужские".
2. Дальше отрабатывает VLM-рефрайзер. Он собирает из всего предыдущего контекста нужную информацию и добавляет во внутренний промпт. Например: "размер 43".
3. Все вместе отправляется в текстовый поиск, в котором агент находит ссылки на подходящие модели.
И только после этого вся найденная информация соединяется в единое целое с помощью VLM-суммаризатора. Работает все это около 2-3 секунд. И, к слову, всю эту конструкцию еще дополнительно тюнят на пользовательские предпочтения.
Вот такая техническая мякотка одной небольшой фичи нейросети Алисы
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿71❤67👍32🤓10🔥3 3😁2👌2👏1
This media is not supported in your browser
VIEW IN TELEGRAM
Google добавили ризонинг в Google Earth
Они релизнули фреймворк Geospatial Reasoning, который работает на базе Gemini и автоматически соединяет разные предиктивные модели и данные в единую систему анализа Земли.
Это открывает совершенно новые возможности для геоанализа. Например, модель может обстоятельно ответить на вопрос «где будет землетрясение и как защитить людей».
Для этого она залезет сначала в данные о сейсмической активности и предскажет место и время землятресения, потом сопоставит результаты с данными плотности населения, уровнем устойчивости зданий, доступом к больницам, дорогам и убежищам, и только затем предложит оптимальный план эвакуации. Получается большая связка моделей под управлением единого ризонинг-мозга.
Интересно, что систему уже используют на практике несколько организаций. Например, в WHO AFRO (Африка) она делает прогноз рисков вспышек холеры и помогает планировать вакцинацию и мед.помощь. А для McGill & Partners просчитывает вероятный будущий ущерб по страховкам имущества после ураганов.
У Google просто отличный вкус на прикладные задачки
Они релизнули фреймворк Geospatial Reasoning, который работает на базе Gemini и автоматически соединяет разные предиктивные модели и данные в единую систему анализа Земли.
Это открывает совершенно новые возможности для геоанализа. Например, модель может обстоятельно ответить на вопрос «где будет землетрясение и как защитить людей».
Для этого она залезет сначала в данные о сейсмической активности и предскажет место и время землятресения, потом сопоставит результаты с данными плотности населения, уровнем устойчивости зданий, доступом к больницам, дорогам и убежищам, и только затем предложит оптимальный план эвакуации. Получается большая связка моделей под управлением единого ризонинг-мозга.
Интересно, что систему уже используют на практике несколько организаций. Например, в WHO AFRO (Африка) она делает прогноз рисков вспышек холеры и помогает планировать вакцинацию и мед.помощь. А для McGill & Partners просчитывает вероятный будущий ущерб по страховкам имущества после ураганов.
У Google просто отличный вкус на прикладные задачки
❤183👍55🔥38 4😁3🤔2👌1🗿1
Data Secrets
Anthropic теперь будут обучать модели на TPU Они заключили большую сделку с Google, и уже к концу 2026 гигант предоставит стартапу мощностей на 1 гигаватт. Это более миллиона чипов. Говорят, что TPU выбрали из-за соотношения цены и производительности.…
Буквально все ИИ-стартапы в последние пол года:
😁208🔥27👍10 7🗿5❤4💯2
This media is not supported in your browser
VIEW IN TELEGRAM
Датацентры могут перенестись в космос
Nvidia заключили очень занятную сделку со стартапом под названием Starcloud. Они планируют начать создавать датацентры на орбите Земли. Утверждается, что у таких кластеров есть целый ряд преимуществ:
1. Можно экономить на охлаждении. На Земле приходится тратиться на воду, а в космосе можно использовать вакуум как почти бесконечный радиатор. Это работает за счёт теплоотдачи через инфракрасное излучение.
2. На орбите можно активнее использовать солнечную энергию. Снова экономия.
3. Минимальный углеродный след. Пишут, что выбросы CO₂ можно сократить аж в 10 раз.
Короче, даже с учётом расходов на запуск Starcloud считает, что энергозатраты будут примерно в 10 раз меньше, чем на Земле.
Уже в ноябре они планируют запустить спутник с GPU размером примерно с холодильник, а в долгосрочной перспективе хотят построить датацентр мощностью 5 гигаватт.
Это примерно 4 квадратных километра GPU Nvidia, летающих в космосе👀
Nvidia заключили очень занятную сделку со стартапом под названием Starcloud. Они планируют начать создавать датацентры на орбите Земли. Утверждается, что у таких кластеров есть целый ряд преимуществ:
1. Можно экономить на охлаждении. На Земле приходится тратиться на воду, а в космосе можно использовать вакуум как почти бесконечный радиатор. Это работает за счёт теплоотдачи через инфракрасное излучение.
2. На орбите можно активнее использовать солнечную энергию. Снова экономия.
3. Минимальный углеродный след. Пишут, что выбросы CO₂ можно сократить аж в 10 раз.
Короче, даже с учётом расходов на запуск Starcloud считает, что энергозатраты будут примерно в 10 раз меньше, чем на Земле.
Уже в ноябре они планируют запустить спутник с GPU размером примерно с холодильник, а в долгосрочной перспективе хотят построить датацентр мощностью 5 гигаватт.
Это примерно 4 квадратных километра GPU Nvidia, летающих в космосе
Please open Telegram to view this post
VIEW IN TELEGRAM
Сегодня закончилась ежегодная конференция PyTorchCon в Сан-Франциско
Собрали для вас небольшой обзор на 4 самых интересных и полезных продукта, которые PyTorch выпустили за эти дни:
1. Релизнули целый язык программирования – Helion. Работает на базе питона и предназначен для написания ядер. Теперь можно кодить оптимизированные ядра на привычном синтаксисе, а Helion уже сам скомпилирует это все в Triton.
2. torchcomms – новая экспериментальная коммуникационная библиотека для распределённого обучения в PyTorch. Сделано специально под сценарии с большим количеством железа (пишут, что аж до 100к GPU).
3. ExecuTorch 1.0 – end-to-end решение для инференса (и частично для обучения) моделей на мобильных и носимых устройствах. Самый сок.
4. torchforge – новая либа для RL’ки и агентов. Акцент сделали на разделении алгоритмической части и инфраструктурной: чтобы можно было думать о подходе, а не о шардировании, отказоустойчивости и прочем. Выглядит приятно.
Продуктивные у них вышли два дня
Собрали для вас небольшой обзор на 4 самых интересных и полезных продукта, которые PyTorch выпустили за эти дни:
1. Релизнули целый язык программирования – Helion. Работает на базе питона и предназначен для написания ядер. Теперь можно кодить оптимизированные ядра на привычном синтаксисе, а Helion уже сам скомпилирует это все в Triton.
2. torchcomms – новая экспериментальная коммуникационная библиотека для распределённого обучения в PyTorch. Сделано специально под сценарии с большим количеством железа (пишут, что аж до 100к GPU).
3. ExecuTorch 1.0 – end-to-end решение для инференса (и частично для обучения) моделей на мобильных и носимых устройствах. Самый сок.
4. torchforge – новая либа для RL’ки и агентов. Акцент сделали на разделении алгоритмической части и инфраструктурной: чтобы можно было думать о подходе, а не о шардировании, отказоустойчивости и прочем. Выглядит приятно.
Продуктивные у них вышли два дня
🔥96❤39👍23😁3
This media is not supported in your browser
VIEW IN TELEGRAM
Ян Лекун снова раздает критику в адрес современного ИИ. На этот раз досталось роботам
Просьба всем робо-стартапам вернуть деньги инвесторам. Спасибо за внимание.
Из нового интервью Массачусетскому университету
Большой секрет всей этой отрасли в том, что ни одна из этих компаний не имеет ни малейшего представления о том, как сделать роботов достаточно умными для того, чтобы быть глобально полезными.
Мы можем обучить их под конкретные задачи. Например, делать что-то на производстве или типа того. Но автономный домашний робот абсолютно невозможен без целого списка прорывов в области ИИ.
Так что успех всех этих компаний напрямую зависит от прогресса, которого мы добьемся с world modelling архитектурами, умеющими планировать.
Просьба всем робо-стартапам вернуть деньги инвесторам. Спасибо за внимание.
Из нового интервью Массачусетскому университету
1😁189❤38👍34💯12😎4👌3🫡2🗿2 2❤🔥1🤔1
Интересная статья из Nature про то, как один ИИ учил другой
Возможно, вы уже что-нибудь слышали про мета-обучение. Нынче это довольно модно.
Суть в том, что вместо того, чтобы учить одну модель, мы учим две. Первую – обычную, а вторую (мета-модель) – чтобы регулировать, как учится первая.
То есть в процессе обучения мета-модель подбирает гиперпараметры и алгоритмы, которые используются для того, чтобы учить базовую модель. Получается, что обучение эволюционирует, и система учится, как лучше учиться👥
Здесь эту идею взяли и применили для RL. Технически, получается два уровня обучаемых параметров. Первый – это обычная политика нашего агента. Второй – мета-параметры, которые определяют, по какому правилу будет обновляться политика.
Для того, чтобы оптимизировать мета-параметры, мы запускаем много агентов с разными политиками в разных средах. Их опыт – это данные для обучения мета-модели. Чем больше она видит таких данных, тем лучше становится правило обновления и, следовательно, тем эффективнее она учит агентов.
Итог: таким подходом авторам удалось синтезировать алгоритм обучения, который превзошел предыдущие человеческие решения. На игровом бенчмарке Atari обученный с его помощью агент выбил соту.
Конечно, компьюта на такие достижения нужно просто море + не факт, что если стрельнуло в одной области, стрельнет и в другой. Но занятно, занятно.
И кстати, это уже сингулярность?😛
Возможно, вы уже что-нибудь слышали про мета-обучение. Нынче это довольно модно.
Суть в том, что вместо того, чтобы учить одну модель, мы учим две. Первую – обычную, а вторую (мета-модель) – чтобы регулировать, как учится первая.
То есть в процессе обучения мета-модель подбирает гиперпараметры и алгоритмы, которые используются для того, чтобы учить базовую модель. Получается, что обучение эволюционирует, и система учится, как лучше учиться
Здесь эту идею взяли и применили для RL. Технически, получается два уровня обучаемых параметров. Первый – это обычная политика нашего агента. Второй – мета-параметры, которые определяют, по какому правилу будет обновляться политика.
Для того, чтобы оптимизировать мета-параметры, мы запускаем много агентов с разными политиками в разных средах. Их опыт – это данные для обучения мета-модели. Чем больше она видит таких данных, тем лучше становится правило обновления и, следовательно, тем эффективнее она учит агентов.
Итог: таким подходом авторам удалось синтезировать алгоритм обучения, который превзошел предыдущие человеческие решения. На игровом бенчмарке Atari обученный с его помощью агент выбил соту.
Конечно, компьюта на такие достижения нужно просто море + не факт, что если стрельнуло в одной области, стрельнет и в другой. Но занятно, занятно.
И кстати, это уже сингулярность?
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍123❤42🔥20😁10👌2 2 2
Отец ИИ Йошуа Бенджио пробил 1 миллион цитирований по официальным данным Google Scholar
В мире единицы ученых с таким Хиршем и количеством цитирований: можно пересчитать по пальцам одной руки. И до этого момента, насколько нам известно, не было ни одного из сферы Computer Science и ML.
Поздравляем!
В мире единицы ученых с таким Хиршем и количеством цитирований: можно пересчитать по пальцам одной руки. И до этого момента, насколько нам известно, не было ни одного из сферы Computer Science и ML.
Поздравляем!
1🎉371❤67👍37 23🔥12🗿5😎3
Интересно ваше мнение. У кого будет лучшая модель к концу 2025?
Anonymous Poll
30%
OpenAI
35%
Google
9%
xAI
13%
Anthropic
4%
Safe Superintelligence 🌚
9%
Другое
❤37🤔29☃5🗿3⚡2
В OpenAI может появится реклама на основе памяти
Об этом пишет The Information в свежей статье «OpenAI Readies Itself for Its Facebook Era».
Они выяснили, что в последнее время OpenAI ну очень активно нанимает бывших сотрудников Meta. Сейчас они составляют уже около 20% всего стартапа.
Подразделение Strategic Initiatives теперь вообще почти полностью состоит из выходцев из фейсбука. А возглавляет его Фиджи Симо, которая до этого руководила рекламой и монетизацией у Цукерберга.
И это, видимо, не случайность. Именно группа Strategic Initiatives сейчас обсуждает и исследует рекламные возможности в ChatGPT. Они предлагают внедрить рекламу с использованием памяти.
То есть та самая фича, благодаря которой бот умеет ссылаться на прошлые диалоги и учитывать их, теперь может быть использована для того, чтобы что-то вам продавать😐
Сбор и анализ пользовательских данных с целью монетизации – это буквально бизнес-модель Meta. Только в разы мощнее.
Представьте: люди месяцами и годами так или иначе рассказывали ChatGPT о себе, своей работе, детях, питомцах и тд. Если каждому пользователю предлагать товары, учитывая весь этот контекст, – это будет, вероятно, самая эффективная рекламная модель в мире.
С одной стороны, это какое-то черное зеркало. И даже Сэм Альтман когда-то говорил, что сценарий с внедрением рекламы был бы «тревожным и подрывающим доверие».
С другой, это вероятно единственная возможность OpenAI выйти на какую-то прибыль к 2029 (как они обещали инвесторам). Именно поэтому возможность рекламы изучается сейчас всерьез.
А еще согласно focus-группам часть пользователей уже считает, что ответы в ChatGPT – это реклама. Так что мы с вами можем даже не заметить, когда на нас раскатят что-то подобное✌️
Об этом пишет The Information в свежей статье «OpenAI Readies Itself for Its Facebook Era».
Они выяснили, что в последнее время OpenAI ну очень активно нанимает бывших сотрудников Meta. Сейчас они составляют уже около 20% всего стартапа.
Подразделение Strategic Initiatives теперь вообще почти полностью состоит из выходцев из фейсбука. А возглавляет его Фиджи Симо, которая до этого руководила рекламой и монетизацией у Цукерберга.
И это, видимо, не случайность. Именно группа Strategic Initiatives сейчас обсуждает и исследует рекламные возможности в ChatGPT. Они предлагают внедрить рекламу с использованием памяти.
То есть та самая фича, благодаря которой бот умеет ссылаться на прошлые диалоги и учитывать их, теперь может быть использована для того, чтобы что-то вам продавать
Сбор и анализ пользовательских данных с целью монетизации – это буквально бизнес-модель Meta. Только в разы мощнее.
Представьте: люди месяцами и годами так или иначе рассказывали ChatGPT о себе, своей работе, детях, питомцах и тд. Если каждому пользователю предлагать товары, учитывая весь этот контекст, – это будет, вероятно, самая эффективная рекламная модель в мире.
С одной стороны, это какое-то черное зеркало. И даже Сэм Альтман когда-то говорил, что сценарий с внедрением рекламы был бы «тревожным и подрывающим доверие».
С другой, это вероятно единственная возможность OpenAI выйти на какую-то прибыль к 2029 (как они обещали инвесторам). Именно поэтому возможность рекламы изучается сейчас всерьез.
А еще согласно focus-группам часть пользователей уже считает, что ответы в ChatGPT – это реклама. Так что мы с вами можем даже не заметить, когда на нас раскатят что-то подобное
Please open Telegram to view this post
VIEW IN TELEGRAM