Forwarded from эйай ньюз
Приношу вам самый сок. Кажется, это самый лучший доклад за сегодня.
За два часа до релиза Llama 3.2 челы выложили семейство открытых моделей Molmo (и нет, это не совпадение):
- 1B
- 7B
- 72B
По качеству на визуальных задачах Molmo выдаёт +- перформанс как Llama 3.2: где-то лучше, где-то хуже, и приближается к GPT-4o.
- Но, пре-трейн модель они делали всего на 700k размеченных парах картинка-текст (PixMo-Cap). В то время как Llama тренили на 6 млрд!
- Использовали в 9000 раз меньше данных, но гораздо более высокого качества.
- Люди не любят печатать, люди любят говорить. Поэтому разметчиков просили не печатать описание картинки, а описывать её ГОЛОСОМ 60-90 секунд. Далее запись автоматически переводили в текст. Это гораздо эффективнее, проще и помогает быстро собрать очень длинные и детальные описания картинок.
- Дополнительно разметчиков просили тыкать точками на объекты, про которые они говорят. Это помогло научить модель связывать пиксели с текстом, выдавая точки на картинке, когда она описывает какой-то объект.
Все это очень сильно подняло качество модели. Это прям крутые идеи.
По архитектуре ничего необычного – transformer с late fusion. То есть токены картинок пропускаются через обучаемый коннектор, а затем кормятся в LLM.
Трейн в два стейджа, ничего не замораживая:
(1) multimodal pre-training для генерации описаний на новом датасете – 700k картинок; (2) supervised fine-tuning на instruction-датасете, который они тоже собрали сами (там и точки на картинках, и документы, прочие задачи) – тут около 1.9 млн картинок (возможно, пересекается с претрейн-датасетом).
Трейн и эвал код и датасет (PixMo) выложат в течение 2 месяцев – я им верю!
Блогпост про модели
Arxiv
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Evgeny Ivanov
Вводный: https://www.amazon.com/gp/product/1108724264/
Чуть больше углубления в статистику: https://alexdeng.github.io/causal/
UPD. А в этой главе crash course по вероятности и регрессиям: https://mixtape.scunning.com/02-probability_and_regression
Чуть больше углубления в статистику: https://alexdeng.github.io/causal/
UPD. А в этой главе crash course по вероятности и регрессиям: https://mixtape.scunning.com/02-probability_and_regression
alexdeng.github.io
Causal Inference and Its Applications in Online Industry
this is a draft book.
Forwarded from Заскуль питона (Data Science)
Этот пост нужен для того, чтобы базово вникнуть для чего используется
Итак, Causal Inference - это процесс поиска причинно-следственных связей. Он позволяет нам понять, насколько X влияет на Y. В статье от X5 объясняются основные техники, позволяющие оценить эффект. Как правило, они могут основываться и на простых методах по типу линейной регрессии. Вообще практически все в нашем мире можно объяснить с помощью линейной регрессии (true fact).
Зачем нам это может нужно, если есть A/B тесты?
1) Хочется оценить эффект от фичи, которая работает длительное время. Например, нужно оценить эффект от раскатки нового варианта онбординга на пользователей с момента запуска.
2) Мы не контролируем формирование групп. Это может быть применимо к оффлайн-экспериментам.
3) Не можем провести эксперимент по различным причинам. Например, по техническим или этическим, когда тест нужно держать очень долго
🆎 Представляем, что мы хотели провести A/B тест, но по какой-то из причин, этого не сделали. Помните, в чем основная задача? Это определить будет ли значимым эффект при рандомном семплировании определенных групп. Проводя эксперимент в классическом понимании, мы имеем тест, контроль (на кого-то раскатили новый функционал, на кого-то нет), мы применяем. Далее, ссылаясь на то, что наблюдения независимые (или зависимые и мы применяем поправки), сравниваем группы, получаем эффект
В задачах Causal Inference может быть несколько вариантов решения задач.
1. Определить то, как ведет себя метрика на препериоде и оценить то, как после запуска воздействия поменялось поведение метрики (по сравнению с прогнозом). Например, Diff-n-diff или Causal Impact (Counterfactuals analysis)
2. В задачах, где у нас нет контроля, сопоставить пользователей по похожести и оценивать эффект так, как будто мы проводим тест. PSM, Instrumental variables и различные вариации (Квази-эксперименты)
Ставьте реакции, пишите комментарии. В следующих постах я опишу то, какие методы бывают более подробно и разберем более подробно то, как они работают.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Quant Researcher
🥸 EDA из коробки или df.describe() на максималках
Sweetviz поможет быстро выявить зависимости в данных, подготовиться к моделированию или сделать процесс анализа более наглядным:
🥹 Всего 3-4 строчки кода позволят увидеть:
- Связь целевой переменной с другими признаками.
- Различия между тренировочной и тестовой выборками.
- Корреляции между числовыми и категориальными данными.
- И много чего еще.
Полный пример использования и разбор Sweetviz можно найти здесь.
Quant Researcher
Sweetviz поможет быстро выявить зависимости в данных, подготовиться к моделированию или сделать процесс анализа более наглядным:
import sweetviz as sv
# Загружаем данные
data = pd.read_csv('data.csv')
# Создаем отчет
report = sv.analyze(data)
# Показываем
report.show_html()
🥹 Всего 3-4 строчки кода позволят увидеть:
- Связь целевой переменной с другими признаками.
- Различия между тренировочной и тестовой выборками.
- Корреляции между числовыми и категориальными данными.
- И много чего еще.
Полный пример использования и разбор Sweetviz можно найти здесь.
Quant Researcher
Forwarded from This is Data
Друзья, привет!
Последние полгода я полностью погружён в мир метрик. Да, я – тот самый человек, который на вечеринке обсуждает не отпуск, а Retention Rate. Что поделать, метрики – это невидимые герои бизнеса. Именно они говорят, жить продукту или нет, без них не принимаются никакие серьёзные решения.
Я глубоко изучил популярные фреймворки, прочитал несколько книг, прошерстил тонну статей и всё это объединил в серию постов в Telegram. Получился целый мини-курс!
Если ваши любимые цифры – это не только количество лайков на фотке с котом, но и что-то более серьёзное, вроде LTV или CAC, вам точно будет интересно! Ссылки на посты ниже – сохраняйте и делитесь с друзьями.
База
▪️Что такое метрика?
▪️Фреймворки для работы с метриками
OKR
▪️Цели и ключевые результаты (OKR)
▪️Книга.Измеряйте самое важное
NSM
▪️Метрика Полярной звезды (NSM)
▪️Почему Revenue и Profit плохие кандидаты в NSM
▪️Книга.The North Star Playbook
Иерархия и пирамида
▪️Дерево или иерархия метрик
▪️Пирамида метрик
▪️Построение пирамиды метрик
Опыт Amazon
▪️Опережающие и запаздывающие индикаторы
▪️Маховик Amazon
▪️Книга.Стратегия Amazon
Для конкретной задачи
▪️Фреймворк AARRR
▪️Фреймворк HEART
▪️Фреймворк PULSE
А я тем временем продолжу копаться в теме и рассказывать вам, как и зачем использовать #метрики на практике.
Последние полгода я полностью погружён в мир метрик. Да, я – тот самый человек, который на вечеринке обсуждает не отпуск, а Retention Rate. Что поделать, метрики – это невидимые герои бизнеса. Именно они говорят, жить продукту или нет, без них не принимаются никакие серьёзные решения.
Я глубоко изучил популярные фреймворки, прочитал несколько книг, прошерстил тонну статей и всё это объединил в серию постов в Telegram. Получился целый мини-курс!
Если ваши любимые цифры – это не только количество лайков на фотке с котом, но и что-то более серьёзное, вроде LTV или CAC, вам точно будет интересно! Ссылки на посты ниже – сохраняйте и делитесь с друзьями.
База
▪️Что такое метрика?
▪️Фреймворки для работы с метриками
OKR
▪️Цели и ключевые результаты (OKR)
▪️Книга.Измеряйте самое важное
NSM
▪️Метрика Полярной звезды (NSM)
▪️Почему Revenue и Profit плохие кандидаты в NSM
▪️Книга.The North Star Playbook
Иерархия и пирамида
▪️Дерево или иерархия метрик
▪️Пирамида метрик
▪️Построение пирамиды метрик
Опыт Amazon
▪️Опережающие и запаздывающие индикаторы
▪️Маховик Amazon
▪️Книга.Стратегия Amazon
Для конкретной задачи
▪️Фреймворк AARRR
▪️Фреймворк HEART
▪️Фреймворк PULSE
А я тем временем продолжу копаться в теме и рассказывать вам, как и зачем использовать #метрики на практике.
Forwarded from Заметки Computer Vision инженера
Пришёл из отпуска, а тут yolov11!
Даже не выложил видео которое сегодня планировал:)
Ок, давайте быстренько глянем. В целом всё ожидаемо.
https://youtu.be/WUJMc4sDBMk
Даже не выложил видео которое сегодня планировал:)
Ок, давайте быстренько глянем. В целом всё ожидаемо.
https://youtu.be/WUJMc4sDBMk
YouTube
Ultralytics Yolo (Yolov11). Do you need it?
00:00:00 - Intro.
00:00:50 - The only comparison we have
00:01:53 - License. AGPL-3.
00:02:39 - OpenVino, TensorRT. But what about Qualcomm, RockChip, etc?
00:03:44 - Nvidia T4. The sad standard for comparison
00:05:25 - Code Base
00:06:50 - Augmentation…
00:00:50 - The only comparison we have
00:01:53 - License. AGPL-3.
00:02:39 - OpenVino, TensorRT. But what about Qualcomm, RockChip, etc?
00:03:44 - Nvidia T4. The sad standard for comparison
00:05:25 - Code Base
00:06:50 - Augmentation…