Forwarded from ML Boost Camp
Пока мы готовим новую лекцию, у вас есть уникальная возможность посмотреть разборы соревнований, в которых я(Слава) участвовал. В каждом видео есть кусочек теории, секреты и приемы
1) Егэ по русскому это было мое первое соревнование с которого начался мой путь в светлое будущее. Можете умилиться, как неправильно я произношу Bert. От начала изучения питона и мл до этого соревнования прошло 3 месяца. В рамках него я изучал nlp
2) Прогнозирование короны второе соревнования. Тут я впервые столкнулся с деревьями, бустингами, табличками и понял, что это не мое. Так же погрузился в изучение визуализации и EDA
3) Потом я перешел на kaggle и первое соревнование было по звуку. Тут емко содержится теория по аудио и приемы, которые я использовал. Золото этого соревнования дало мне понять. что бояться ничего не надо(кроме ос)
4) Ну и замыкаем еще двумя соревнованиями, и снова по NLP. Первое - оценка сложности текста. Второе - извлечение сущностей. Каждое дополняет другое и глубже погружает в NLP
Приятного просмотра!
1) Егэ по русскому это было мое первое соревнование с которого начался мой путь в светлое будущее. Можете умилиться, как неправильно я произношу Bert. От начала изучения питона и мл до этого соревнования прошло 3 месяца. В рамках него я изучал nlp
2) Прогнозирование короны второе соревнования. Тут я впервые столкнулся с деревьями, бустингами, табличками и понял, что это не мое. Так же погрузился в изучение визуализации и EDA
3) Потом я перешел на kaggle и первое соревнование было по звуку. Тут емко содержится теория по аудио и приемы, которые я использовал. Золото этого соревнования дало мне понять. что бояться ничего не надо(кроме ос)
4) Ну и замыкаем еще двумя соревнованиями, и снова по NLP. Первое - оценка сложности текста. Второе - извлечение сущностей. Каждое дополняет другое и глубже погружает в NLP
Приятного просмотра!
YouTube
Artificial Intelligence Journey 2019 — Владислав Крамаренко
Владислав Крамаренко рассказывает про соревнование Artificial Intelligence Journey 2019 на платформе Data Souls. Владислав выиграл специальную номинацию «Лучшее решение тестовой части» и занял седьмое место в рейтинге.
Из этого видео вы сможете узнать:…
Из этого видео вы сможете узнать:…
Forwarded from NLP Wanderer
Preference Optimization 28_10_2024.pdf
2 MB
Это слайды с текстом, пока устно ее я рассказывал только внутри команды Vikhr.
Внутри вы узнаете:
- Теория Bradley-Terry и откуда берутся Reward модели
- Что нужно для обучения Reward модели и как его делаем мы
- Откуда взялся DPO и каковы его недостатки
- Какова мотивация нас и других авторов улучшать DPO
- Как устроен наш функционал SMPO - Simple Margin Preference Optimization
- Какие есть способы улучшения DPO на уровне данных и как готовим эти данные мы
Задавайте вопросы в комментариях, если что-то непонятно, будем обсуждать.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Заскуль питона (Data Science)
predict_proba выдает на выходе вероятности отнесения к какому-либо классу. Мы решаем задачу с Propenity Score Matching, нам нужно в первой итерации (как бы сокращая размерность) для каждого объекта выборки определить вероятность отношения к тритменту (то есть определить 1 - пользователь совершил какое-то действие).
1. Сначала мы вычисляем линейную комбинацию векторов признаков и весов (с определенным байесом).
2. Результат подается в функцию активацию, например, классический вариант, это сигмоида (для бинарной классификации) и softmax (для многоклассовой классификации).
3. Определяем вероятности.
from sklearn.datasets import make_classification
from sklearn.linear_model import LogisticRegression
X, y = make_classification()
lr = LogisticRegression()
lr.fit(X, y)
z = np.dot(X, lr.coef_.reshape(-1, 1)) + lr.intercept_
model_predict = lr.predict_proba(X)[:5, 1]
naive = 1 / (1 + np.exp(-z)).flatten()[:5]
print(model_predict)
print(naive)
Дополнительные материалы:
1. How to Use Logistic Regression predict_proba Method in scikit-learn
2. CatBoost. Predict Proba
3. Predict_proba examples in MLflow - October 2024
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Тимлид Очевидность | Евгений Антонов
Я принес. «У нас нет культуры встреч»
Сегодня я принес вам пост своей знакомой, Вероники Ильиной, про то, как минимальными усилиями создать базовую культуру встреч. https://t.me/ask_catwomenko/132
А еще на похожую тему когда-то делал доклад во Владимире https://t.me/general_it_talks/333
Суть невероятно проста и меня всегда очень расстраивает, когда даже её люди не делают (а это встречается нередко).
⁃ Готовимся ко встрече: составляем свою и читаем чужую агенду.
⁃ Фасилитируем встречу, чтобы всё нужное было обсуждено.
⁃ Делаем резюме встречи с конкретикой кому и чем заняться.
Это не отнимает много времени и энергии, зато сильно увеличивает продуктивность этих встреч. А еще снижает их повторяемость.
Сегодня я принес вам пост своей знакомой, Вероники Ильиной, про то, как минимальными усилиями создать базовую культуру встреч. https://t.me/ask_catwomenko/132
А еще на похожую тему когда-то делал доклад во Владимире https://t.me/general_it_talks/333
Суть невероятно проста и меня всегда очень расстраивает, когда даже её люди не делают (а это встречается нередко).
⁃ Готовимся ко встрече: составляем свою и читаем чужую агенду.
⁃ Фасилитируем встречу, чтобы всё нужное было обсуждено.
⁃ Делаем резюме встречи с конкретикой кому и чем заняться.
Это не отнимает много времени и энергии, зато сильно увеличивает продуктивность этих встреч. А еще снижает их повторяемость.
Telegram
Вероника отвечает
«У нас нет культуры встреч», — жалуются мне и сотрудники компаний, и их руководители
Все ждут, что кто-то напишет чек-лист идеальной встречи, план коммуникаций о нем, сделает магические пассы руками и волшебным образом интегрирует чек-лист каждому в голову.…
Все ждут, что кто-то напишет чек-лист идеальной встречи, план коммуникаций о нем, сделает магические пассы руками и волшебным образом интегрирует чек-лист каждому в голову.…
Forwarded from LLM под капотом
История развития State of the Art локальных моделей.
Ловите картинку на базе бенчмарков. Вместо трендов теперь для каждой категории модели отображается нормальный cumulative maximum.
Gemini 1.5 Flash 8B добавлен со звездочкой - его нельзя выкачать и запустить локально. Надо будет ждать, пока не появится открытая модель.
NB: Модели разделены условно на те категории железа, которые я чаще всего вижу у клиентов. Считаем VRAM на запуск с запасом места под контекст и без квантизаций.
На картинке видно, что крупные модели начали появляться относительно недавно, но у них прогресс пока быстрее всего идет.
Маленькие модели, которые влазят в 4090, достаточно долго стагнировали. Gemini 1.5 Flash 8B стал недавно внезапным рывком.
Ваш, @llm_under_hood 🤗
Ловите картинку на базе бенчмарков. Вместо трендов теперь для каждой категории модели отображается нормальный cumulative maximum.
Gemini 1.5 Flash 8B добавлен со звездочкой - его нельзя выкачать и запустить локально. Надо будет ждать, пока не появится открытая модель.
NB: Модели разделены условно на те категории железа, которые я чаще всего вижу у клиентов. Считаем VRAM на запуск с запасом места под контекст и без квантизаций.
На картинке видно, что крупные модели начали появляться относительно недавно, но у них прогресс пока быстрее всего идет.
Маленькие модели, которые влазят в 4090, достаточно долго стагнировали. Gemini 1.5 Flash 8B стал недавно внезапным рывком.
Ваш, @llm_under_hood 🤗
Forwarded from Information Retriever
Статья на Хабре про индустриальные тренды рексистем.
В мае я выступал на датафесте с докладом про тренды рексистем, а сейчас появился пост на Хабре, где мы подробнее расписали содержимое доклада, приложили ссылки на статьи, добавили больше пояснений.
Ссылка — https://habr.com/ru/companies/yandex/articles/857068/
В мае я выступал на датафесте с докладом про тренды рексистем, а сейчас появился пост на Хабре, где мы подробнее расписали содержимое доклада, приложили ссылки на статьи, добавили больше пояснений.
Ссылка — https://habr.com/ru/companies/yandex/articles/857068/
Хабр
ML-тренды рекомендательных технологий: шесть приёмов, которые помогают угадывать желания пользователя
Главная задача рекомендательной системы — предоставить пользователю контент, фильм, трек, книгу, товар или информацию, которые могут заинтересовать его в данный момент. Сложность...
Forwarded from Евгений Козлов пишет про IT (Eugene Kozlov)
Учел ваши пожелания и собрал все посты по теме многозадачности и производительности в один пост. Приятного чтения, дальше больше, это еще далеко не конец😊
🔹Многозадачность на уровне железа и OS / Kernel Space
1. Многозадачность в OS. Введение.
2. Процессор и его роль в многозадачности
2.1. Про Hyper Threading
3. Процессы. Начало
4. Процессы в Linux
5. Потоки. Начало
6. Потоки в Linux
7. Модели ввода-вывода. Универсальная(блокирующая) модель ввода-вывода
8. Multiplexed IO
9. Asynchronous IO
🔹Легковесные потоки в User Space / Многозадачность в языках программирования
10. Fibers. Виды многозадачности с примерами в языках программирования.
11. Сравнительный обзор двух видов многозадачности
🔹Многозадачность на уровне железа и OS / Kernel Space
1. Многозадачность в OS. Введение.
2. Процессор и его роль в многозадачности
2.1. Про Hyper Threading
3. Процессы. Начало
4. Процессы в Linux
5. Потоки. Начало
6. Потоки в Linux
7. Модели ввода-вывода. Универсальная(блокирующая) модель ввода-вывода
8. Multiplexed IO
9. Asynchronous IO
🔹Легковесные потоки в User Space / Многозадачность в языках программирования
10. Fibers. Виды многозадачности с примерами в языках программирования.
11. Сравнительный обзор двух видов многозадачности
Forwarded from Записки MLEшника
Forwarded from Data, Stories and Languages
Говорят, что достали системный промпт Advanced Voice Mode
https://www.reddit.com/r/OpenAI/comments/1fp1fes/the_system_prompt_of_advanced_voice_mode_it_can/
https://www.reddit.com/r/OpenAI/comments/1fp1fes/the_system_prompt_of_advanced_voice_mode_it_can/
Forwarded from Small Data Science for Russian Adventurers
#книга
Онлайн-учебник по машинному и глубокому обучению от преподавателя ВМК МГУ Виктора Китова
https://deepmachinelearning.ru/
Онлайн-учебник по машинному и глубокому обучению от преподавателя ВМК МГУ Виктора Китова
https://deepmachinelearning.ru/
Forwarded from Николай Хитров | Блог
Статья Быстрее пули: как найти счастье с PostgreSQL
Большая классная статья про поиск в
В статье автор рассказывает про:
👉
👉 нормализацию слов и морфологию
👉 словари синонимов
👉 ранжирование результатов по релевантности
https://habr.com/ru/companies/rostelecom/articles/853124/
Большая классная статья про поиск в
postgresql. На мой взгляд отлично подходит для ситуаций, когда по каким-то причинам еще не хочется (или не можется) завезти отдельную колоночную БД для поиска по типу elasticsearch, но простого WHERE ILIKE уже не хватает.В статье автор рассказывает про:
👉
tsvector, tsquery и GIN индексы👉 нормализацию слов и морфологию
👉 словари синонимов
👉 ранжирование результатов по релевантности
https://habr.com/ru/companies/rostelecom/articles/853124/
Хабр
Быстрее пули: как найти счастье с PostgreSQL
Введение Полнотекстовый поиск — это неотъемлемая часть современных приложений, особенно тех, которые работают с большими объемами текстовой информации, будь то блог-платформы, системы управления...