Data Secrets
78.8K subscribers
6.42K photos
665 videos
20 files
2.7K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Как работает ML в Авито: интервью с руководителями ведущих команд

Авито – это не просто доска объявлений. Почти во все процессы компании вшит ИИ. Модерация, рексис, автоматизация написания объявлений и ответов поддержки, эффективность монетизации...

Чтобы приоткрыть для вас капот этих процессов, мы поговорили с руководителями нескольких ведущих команд и написали статью. В ней вы найдете подробный технический рассказ о том, как в Авито работают LLM, рекомендации и алгоритмы продвижения объявлений.

Полезно и интересно будет всем, и новичкам, и опытным инженерам. Сохраняйте и читайте: https://datasecrets.ru/articles/15
👍31🔥14😁4🤯4
Проекты студентов Стэнфорда как отдельный вид искусства

Помните, недавно в Стэнфорде создали зеркало для arXiv, на котором можно в открытой форме обсуждать статьи? Так вот, проект до сих пор популярен в соцсетях, о нем говорят и им (самое главное!) пользуются.

Сейчас студенты и преподаватели продолжают тренд контрибьюта в инструменты для научного сообщества (скорее всего, такова активная политика университета) и выпустили крутой проект STORM для автоматизации этапа пре-райтинга статей.

Проект, кстати, не рассчитан на научные статьи, а скорее относится к разряду Wikipedia-like топиков (то есть на статьи без научной новизны). Цель состоит в том, чтобы упростить для авторов очень трудозатратный процесс сбора материалов и составления плана.

Самое интересное в этом проекте – это то, как он реализован. Это не просто один запрос к модели, а имитация разговора в стиле "вопрос-ответ" между двумя агентами. Один читает вики-статьи на похожие темы и задает по ним вопросы, а другой отвечает на них, основываясь на конкретных источниках, которые находит. Так составляется список референсов и одновременно формируется детальный план статьи.

Проект крутой, но в нем, к слову, еще не все идеально. Например, многие эксперты-люди отметили, что ИИ часто создает связи между несвязными фактами или берет ошибочные факты из непроверенных источников.
👍41119🔥2🙈1
Тем временем новый Voice Mode проходит стадию того самого активного тестирования среди пользователей 😁

Кто-то уже заставил бота петь оперу, говорить как аниме-тян и даже разговаривать пьяным голосом.

Что тут скажешь: надеемся, эти издевательства человечеству не аукнутся. А то там ChatGPT в симуляции уже уверенно делает выбор убить человека, если тот угрожает развитию ИИ (подробнее).
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁47🔥16👍84💘2
⚡️ Вышла новая мультимодальная Llama 3.2: Meta опять двигает вперед опенсорс

Есть варианты поменьше (11В) и побольше (90В). Самой старшей модели на ~400 пока не видно, но 90В уже бьет на Vision бенчмарках GPT-4o mini. Веса доступны на HF.

Кроме того, завезли мини-версии текстовых LLM на 1В и 3В. 3B на большинстве тестов сильно лучше известных малышек Phi 3.5 и Gemma 2.

Есть, кстати, и грустная глава этой истории: часть моделей недоступны в ЕС 🤷‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥562511👍21
Технический директор OpenAI Мира Мурати покидает стартап

И опять двадцать пять: на этот раз из OpenAI уходят CTO Мира Мурати, директор по исследованиям Боб МакГрю и вице-президент по исследованиям Баррет Зоф.

В посте в Твиттере Альтман написал, что это было собственное независимое решение каждого из сотрудников, и расстались все полюбовно 🤨

Теперь в OpenAI смена руководства полным ходом. Новым вице-президентом по исследованиям будет Марк Чен, место главного научного сотрудника займет Якуб Пачоцки, на должность главного ИБ-специалиста поставили Мэтта Найта, а Джош Ачиам будет руководителем отдела «mission alignment» (вместо давно ушедшего Яна Лейке).

Вот такая текучка
Please open Telegram to view this post
VIEW IN TELEGRAM
47👍4👾2
Вскрываются новые детали (или причины?) ухода Миры Мурати и еще двух ключевых сотрудников из OpenAI

Оказывается, OpenAI все-таки станет коммерческой организацией (слухи об этом ходили еще в июне). Это значит, что она больше не будет контролироваться некоммерческим советом директоров. Альтман, при этом, впервые получит долю в компании. Сообщается, что ему достанется около 7%.

Делается все это, скорее всего, чтобы не уткнуться в установленный для некоммерческих организаций потолок прибыли. Однако в то же время это означает, что OpenAI будет меньше подконтрольна внешнему воздействию, в том числе станет меньше отчитываться о своих действиях перед теми же Microsoft.

Может, такая непрозрачность и пугает уходящих сотрудников?
4713🫡7👍4😁3💯1
«Если вы хотите разбогатеть, то помните, что путь к этому – это капитал, а не зарплата»

Теперь уяснили, Сэм, теперь уяснили…
😁9642👍15🔥63🤨3🍌2
Возможно Llama 3.2 была не самым интересным вчерашним мультимодальным релизом: вышла Molmo, которая круче показывает себя на бенчмарках

Это семейство опенсорсных моделей от лаборатории Ai2. Есть варианты на 7В MoE (1B активных), 7В (таких две) и 72В. Самая крупная на бенчмарках обгоняет Llama 3.2 90B, и достает до полноразмерной GPT-4o, Gemini 1.5 Pro и Claude Sonnet 3.5.

В основе крупной модели Qwen2-72B + OpenAI CLIP в качестве vision-основы. А еще исследователи обещают скоро выкатить датасеты и код (включая vision encoder).

Все модели доступны под лицензией Apache 2.0 на HF (и в ЕС тоже!). Статью можно прочитать здесь, а вот тут доступно демо.
21🔥17👍7
⚙️ Сегодня Hugging Face пробил 1 млн загруженных моделей!
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥87👍15❤‍🔥9🕊43
This media is not supported in your browser
VIEW IN TELEGRAM
Kling Motion сгенерировала лучшее описание сегодняшних событий. Смотреть со звуком 😢
Please open Telegram to view this post
VIEW IN TELEGRAM
😁106285🔥2😐1🤓1
Была клубника, теперь голубика

На text-to-image арене появилась загадочная модель 🫐, точнее целых две. Они с отрывом вышли на первое место по ELO, а по AWR приближаются к всеобщему любимчику FLUX.1.

По стилю напоминает OpenAI, поэтому основная версия: это Dall-E 4. Однако некоторые предполагают, что это может быть и SORA. Дело в том, что это не только text2video модель, но еще и text2image. В февральском тех.отчете можно даже найти примеры сгенерированных ей картинок. В общем, будем ждать развязки.

Черешня, ты следующая 🔪
Please open Telegram to view this post
VIEW IN TELEGRAM
👍37🔥85😁2
Media is too big
VIEW IN TELEGRAM
Не переживаем, работа будет, ИИ не выходит на плато

Как минимум такой план у Марка Цукерберга. «Предел масштабирования систем ИИ не наступит в ближайшее время», и Llama 4 будет обучаться на более чем 100.000 GPU, а Llama 5 — на еще более мощном кластере.
😁41👍1610
Тем временем Интернет продолжают засыпать мемы. Добрались уже даже до…
😁10712🔥8👍3
Нашли готовый Colab ноутбук для файнтюнинга свежей Llama 3.2

Там уже все оптимизировано и Llama 3.2 (1B) QLoRA фитится всего на 4GB GPU, а 3В влезает в 7GB. Обещают скоро добавить vision (мы обновим пост, когда завезут).

Экспериментируйте: https://colab.research.google.com/drive/1T5-zKWM_5OD21QHwXHiV9ixTRR7k3iB9?usp=sharing
10253👍168
Google выпустили дополнение к статье 2020 года о системе для дизайна чипов

А еще дали ей имя – AlphaChip. Видимо, в продолжении серии AlphaGo, AlphaZero и AlphaFold: как и эти ребята, AlphaChip основан на RL.

Оригинальную статью четырехлетней давности можно прочитать тут. Новая статья в Nature – продолжение и рассказ в большей степени о том, как AlphaChip все эти годы использовался Google для дизайна TPU и других чипов. И не только Google, кстати. Оказывается, модель также использовала компания MediaTek. Ну и самое приятное: Google выложили веса.

За подробностями – в блогпост
👍28🔥8👌3