Data Secrets
78.8K subscribers
6.44K photos
669 videos
20 files
2.72K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
В OpenAI может появится реклама на основе памяти

Об этом пишет The Information в свежей статье «OpenAI Readies Itself for Its Facebook Era».

Они выяснили, что в последнее время OpenAI ну очень активно нанимает бывших сотрудников Meta. Сейчас они составляют уже около 20% всего стартапа.

Подразделение Strategic Initiatives теперь вообще почти полностью состоит из выходцев из фейсбука. А возглавляет его Фиджи Симо, которая до этого руководила рекламой и монетизацией у Цукерберга.

И это, видимо, не случайность. Именно группа Strategic Initiatives сейчас обсуждает и исследует рекламные возможности в ChatGPT. Они предлагают внедрить рекламу с использованием памяти.

То есть та самая фича, благодаря которой бот умеет ссылаться на прошлые диалоги и учитывать их, теперь может быть использована для того, чтобы что-то вам продавать 😐

Сбор и анализ пользовательских данных с целью монетизации – это буквально бизнес-модель Meta. Только в разы мощнее.

Представьте: люди месяцами и годами так или иначе рассказывали ChatGPT о себе, своей работе, детях, питомцах и тд. Если каждому пользователю предлагать товары, учитывая весь этот контекст, – это будет, вероятно, самая эффективная рекламная модель в мире.

С одной стороны, это какое-то черное зеркало. И даже Сэм Альтман когда-то говорил, что сценарий с внедрением рекламы был бы «тревожным и подрывающим доверие».

С другой, это вероятно единственная возможность OpenAI выйти на какую-то прибыль к 2029 (как они обещали инвесторам). Именно поэтому возможность рекламы изучается сейчас всерьез.

А еще согласно focus-группам часть пользователей уже считает, что ответы в ChatGPT – это реклама. Так что мы с вами можем даже не заметить, когда на нас раскатят что-то подобное ✌️
Please open Telegram to view this post
VIEW IN TELEGRAM
10928🤯241614😁6🫡5🔥3🗿3🤔2❤‍🔥1
Время для легендарного мема
67😁40🗿16
GSI Technology заявили, что разработали чип, который по производительности соответсвует NVIDIA A6000, но потребляет на 98% меньше энергии

Их Gemini‑I APU построен на архитектуре Compute-in-Memory. В обычных чипах данные хранятся в памяти, а вычисления проходят отдельно на ядрах. Чтобы что-то посчитать, надо прочитать из памяти -> передать в вычислитель -> посчитать -> вернуть обратно. Это классическая архитектура фон Неймана, но вот эти перегонки данных туда-сюда стоят очень дорого.

В APU же вычислительные операции выполняются не отдельно от памяти, а внутри. В ячейки памяти встроены маленькие логические элементы, которые могут выполнять простые битовые операции без выноса данных наружу. То есть память становится одновременно и хранилищем, и вычислителем. И вот за счет того, что данные больше не нужно таскать, и получается такая огромная экономия.

Результат очень бодрый, конечно. И его, кстати, проверили ученые из Cornell University и MIT, так что замерам можно доверять.

Но есть нюансы.

1. Во-первых, производить такие чипы сильно дороже: используется SRAM и требуется больше транзисторов.
2. Во-вторых, они менее универсальные (в данном случае тестировали только на RAG, что там будет на других задачах – непонятно).
3. В-третьих, просто так пересесть на Compute-in-Memory нельзя, у нас вся инфраструктура оптимизирована под GPU. Вопрос совместимости ключевой.

И тем не менее, 98% экономии – это прямо хорошо. Даже если получится воткнуть только под какую-нибудь локальную задачку инференса.

Акции GSI Technology, кстати, взлетели на фоне новостей почти на 200% 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
1125🤯52🔥2610👍95🤔4😁3
Слабонервным не смотреть
1😁368😎33👍21😍13108🗿3🔥2🤩2💯1
Компании активно переходят на нейросети в облаке

Раньше бизнес с опаской относился к тому, чтобы запускать ИИ-модели в облаке, и разворачивал их on-premises. Но тренд меняется: облака уже стали местом, где модели обучаются, генерируют тексты, пишут код и ищут информацию по внутренним документам.

Причина простая — инфраструктура изменилась. В облаках появились инструменты, которые позволяют запускать ИИ-агентов без кода, подключать их к корпоративным сервисам и использовать открытые модели наравне с собственными.

Например, в Yandex AI Studio с начала года потребление генеративных моделей выросло в пять раз, ежемесячно это десятки миллиардов токенов. Самые активные — YandexGPT и Qwen3-235b. Яндексовые модели используют для работы с текстами и RAG-сценариев, нейросеть от AliBaba – для агентских систем.
🤨56🗿23👍1911😁44🔥3👌2👨‍💻2🤓11
Media is too big
VIEW IN TELEGRAM
Джеффри Хинтон заявил, что у нас все-таки есть шанс остаться в живых и сосуществовать с ИИ. Для этого надо встроить в модели материнский инстинкт.

Ученый говорит, что мать и ее ребенок – это единственный пример ситуации, когда менее развитое существо управляет более развитым. Это заслуга эволюции, то есть материнский инстинкт.

Чтобы человечество выжило после появления сверхинтеллекта, ученым нужно попытаться воспроизвести этот инстинкт в моделях.

Лидеры компаний думают об ИИ, как будто это ассистент, а мы боссы. Но это невозможно. Мы не должны пытаться доминировать. Мы должны создавать ИИ как родителя. Только в таком случае эти системы будут помогать нам достигать лучшего, даже если мы будем слабее их.


👶
Please open Telegram to view this post
VIEW IN TELEGRAM
😁240👍13443🤔33🔥11💯9🗿86🤨5🦄54
Новый день – новые сохраненные статьи, читать которые никто не собирается ✌️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥192😁139💯5017🫡118👍43🗿2😎2
Авито опенсорснули свои ИИ-модели A-Vibe и A-Vision

Инвестиции в разработку составили около полумиллиарда рублей.

Это первые российские открытые модели, специально обученные для e-commerce. Именно они работают на проде Авито и помогают вам, например, писать описания к объявлению по фотографиям.

Они подходят для анализа документов, автоматизации контента и других распространенных задач. Также модельки умеют в function calling, так что на их базе можно строить даже агентов. Во многих открытых русскоязычных рейтингах A-Vibe и A-Vision занимают первые места.

Кроме того, модели специально оптимизированы под русский язык, что позволят экономить до 50% ресурсов на вычисления в сравнении с другими легкими моделями.

Приятная вишенка: бонусом к моделям Авито перевели на русский язык 4 международных бенчмарка. Такой вот подарок комьюнити.

Hugging Face (лицензия Apache 2.0, использовать можно в том числе в коммерческих целях)
🔥156🗿3925👍17😁11🤯3
У нас тут новая SOTA в опенсорсе

Естественно, от китайцев: Minimax M2. Модель примерно на уровне Grok 4 Fast и Gemini 2.5 Pro. В основном создано для агентов и end-to-end кодинга.

Самое интересное: в течение ограниченного времени модель можно бесплатно попробовать в API. Потом установят цены, но и после этого модель будет достаточно дешевой (примерно 8% от цены Claude Sonnet, например).

Веса (лицензия MIT)
3102🔥39👍17🤯752😁2👏1🤨1
Data Secrets
В xAI разрабатывают аналог Википедии – Grokipedia Илон Маск завявил, что платформа будет «значительным улучшением» Википедии, которая по мнению многих сейчас развивается политически предвзято. Честно говоря, это просто необходимый шаг на пути xAI к познанию…
⚡️ xAI выпустили Grokipedia

Это аналог Википедии, но с исправленными статьями. Маск считает, что в оригинальной Wiki статьи политически предвзятые и часто неправдивые, потому что их пишут люди.

Grokipedia же позиционируется как «энциклопедия, созданная для правды». Работает она, естественно, на основе Grok. Агент ищет факты, очищает их от налета идеологий и мнений и пишет/проверяет статьи.

Пока доступна версия 0.1 – ранняя бета. Опенсорс.

grokipedia.com
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥167😁122🤔25🤨17👍1587🗿4❤‍🔥21🤓1
Thinking Machines предложили новый метод дистилляции, который обходит RL по эффективности

Сразу оговорка: это не замена RL. Но и не обычная дистилляция. Тут исследователи как бы взяли лучшее от двух этих миров и объединили в один подход.

Смотрите. Обычная дистилляция страдает от расхождения распределений: грубо говоря, модель-ученик плохо генерализуется, потому что видит только ответы/логиты учителя, и перенимает скорее стиль, чем знания. Это работает на несложных вопросах, но на длинных рассуждениях ошибки накапливаются и качество сбоит.

С другой стороны у нас есть RL, где агент обучается на своих же траекториях. Но RL дает редкую награду, и тут нельзя оценивать токены изолировано, как в дистилляции. Как говорил Карпаты, это приводит к тому, что сигнал рассеивается и обучения тормозит.

Thinking Machines предлагают объединенный подход под названием "On-Policy Distillation". Суть:

– Как в обычной дистилляции, у нас есть модель-учитель (большая, сильная модель) и модель-ученик (модель поменьше, которую обучаем).

– Из RL берем идею об обучении на своих же траекториях. То есть прогоняем батч промптов и сэмплим именно ответы студента.

– Даем учителю точные префиксы ответов ученика и делаем прямой проход.

– Считаем reverse-KL лосс по каждому токену, сравнивая лог-prob ученика и учителя.


В итоге получаем одновременно и плотную оценку, и обучение на собственных ответах без проблем с распределением.

Работает это весьма неплохо. На AIME’24 on-policy distillation довела Qwen3-8B с 60% до 70% точности всего за 150 шагов. Для сравнения, RL-тренинг по отчётам Qwen занял около 17 900 GPU-часов и дал 67,6 %. Это экономия в десятки раз.

Отличная работа.

thinkingmachines.ai/blog/on-policy-distillation/
👍9737🔥23😁2🤯1🗿11
У Яндекса сегодня большой день: компания показала самое глобальное обновление Алисы за всю историю

Алиса эволюционировала в универсальную нейросеть Алису AI, которую обучили на миллионах реальных кейсов пользователей. В ответе на запрос пользователя она не ограничивается только текстом, а прикладывает картинки, видео и даже данные Яндекс Карт.

Еще из любопытного: появится функция «Моя память» — можно будет хаотично наговорить или набросать в чат с ней мысли, она обработает их, сформирует списки дел и напомнит вам о них.

Ну и самое главное — в Алисе AI появится функционал ИИ-агента, который позволит делегировать жизненную рутину, например искать и бронировать рестораны, записывать в салоны красоты. На старте можно будет забронировать слот в 40 тысячах бьюти- и других организаций, а также стол в более чем 30 тысячах ресторанов России.

Шаг действительно фундаментальный как для компании, так и для российских пользователей (ведь такой функционал у них появится впервые), и может стать новым стандартом в ИИ.
🔥184🗿6039😁27👍16🤯86🤨443
ИИ-музыка прошла тест Тьюринга

В испанском университете провели такой эксперимент: участникам предъявлялись пары песен, из которых одна была сгенерированной, а другая человеческой, – и проверяли, насколько люди способны отличить, где что.

В итоге результат оказался близок к случайному угадыванию. В среднем слушатели отвечали правильно в 53% случаев.

Киберпанк ✌️

P.S. Но для музыкантов пока что есть и хорошая новость: чем ближе пара была по стилю/вокалу/звукам, тем лучше слушатели отличали AI от «живой» музыки.
Please open Telegram to view this post
VIEW IN TELEGRAM
9132🔥14😁5🦄3🤯2👍11
На Wikipedia уже появилась статья про Grokipedia

Настроение у нее довольно забавное. Смотрите, что пишут:

Маск позиционирует Grokipedia как альтернативу Wikipedia, которая, по его словам, должна «очистить от пропаганды» последнюю.

По состоянию на 28 октября 2025 года, на сайте размещено более 800 000 статей, созданных ИИ. Материалы создаются и редактируются языковой моделью Grok. Многие статьи основаны на статьях из Википедии, и некоторые из них почти дословно повторяют оригиналы.

Отмечается, что тексты проходят проверку фактов с помощью модели Grok.

Часть контента, по утверждениям критиков, согласуется с личными взглядами Маска и бывшего CEO Twitter Парага Агравала на темы вроде гендерного перехода.


Пассивная агрессия, уровень: Wikipedia
😁2694532👍442🤩1🤨1🗿1👾11