Forwarded from Yarick Abramov
Feature Engineering:
https://www.youtube.com/watch?v=ZckQtif4v1o
If you want to go deeper in practical methods, you can check the following links :
Scikit-learn: feature extraction, feature selection, feature improvement
Feature-Engine : feature engineering
AutoFeat : automated feature engineering
Feature Tools : automated feature engineering
Feature engineering bookcamp
https://www.manning.com/books/feature-engineering-bookcamp
https://arxiv.org/pdf/2403.11395
https://www.youtube.com/watch?v=ZckQtif4v1o
If you want to go deeper in practical methods, you can check the following links :
Scikit-learn: feature extraction, feature selection, feature improvement
Feature-Engine : feature engineering
AutoFeat : automated feature engineering
Feature Tools : automated feature engineering
Feature engineering bookcamp
https://www.manning.com/books/feature-engineering-bookcamp
https://arxiv.org/pdf/2403.11395
YouTube
Feature Engineering Explained - Feature Selection - Examples in Python
This is the third video of the video series about feature engineering techniques. I introduced the feature engineering pipeline, and two feature engineering techniques in the previous videos (feature improvement and feature construction). This video is about…
Forwarded from Another MVP | Денис Веселов
📚 Подведу результаты. Парой постов выше писал о книге «Кремлевская школа переговоров» от @ryzov_igor, с которой решил сделать незамысловатый экспериимент: прочитать книгу дважды, буквально начать читать её второй раз после прочтения впервые. И что же из этого вышло?
🤷 Если коротко, то я прочитал 2/3 книги и...решил сделать по ней MindMap, то есть взять и прочитать всё заново в третий раз 👹
В итоге вышел приличных объемов документ в Miro, делалось это как «шпаргалка», чтобы при подготовке к любым переговорам можно было посмотреть короткое содержание и понять тактику (это всё не отменяет чтение самой книги, она лишь позволяет быстро восполнить прочитанное). В итоге закончив его – понял, что это должна быть не только моя шпаргалка, но и другим читателям она очевидно пригодится.
Само собой публиковать без разрешения автора такое нельзя, поэтому я решился и написал Игорю Романовичу письмо. А сегодня пришел ответ с разрешением публикации 🕺
👍 Посмотреть полный MindMap по книге «Кремлевская школа переговоров» можно тут: https://miro.com/app/board/uXjVLxOP4W0=/?share_link_id=442164743425
#book
🤷 Если коротко, то я прочитал 2/3 книги и...
В итоге вышел приличных объемов документ в Miro, делалось это как «шпаргалка», чтобы при подготовке к любым переговорам можно было посмотреть короткое содержание и понять тактику (это всё не отменяет чтение самой книги, она лишь позволяет быстро восполнить прочитанное). В итоге закончив его – понял, что это должна быть не только моя шпаргалка, но и другим читателям она очевидно пригодится.
Само собой публиковать без разрешения автора такое нельзя, поэтому я решился и написал Игорю Романовичу письмо. А сегодня пришел ответ с разрешением публикации 🕺
#book
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from On the way to 10x engineering
За что же биржи обычно берут деньги с бедных участников?
Оценим на примере CME минимальные расходы для гипотетическое фирмы, торгующей на собственный капитал.
Market Data
Лицензии на доступ к рыночным данным многообразны и разноплановы. (Интересно, как именно биржи придумывают за что взять с участников денег и почему именно столько...)
Для героев нашего примера ежемесячная стоимость доступа к рыночным данным для торговых роботов (non-display device) будет такой:
* Non-Display Category A – Trading As a Principal: 1 приложение $589 - 4+ приложений $3,521
* Category B – Internal Order Processing: 1 приложение $2,357 - 4+ приложения $2,951
* Category C - Risk Management/Research and Analysis etc: 1 приложение $351 - 4+ приложений $589
Если наши герои захотят использовать рыночные данные CME для отправки заявок за пределы CME, то придётся раскошелиться ещё на Category A3 – Trading on Alternative Venue: 1 приложение $1,759 - 4+ приложений - $4,132 в месяц.
Плюс ещё есть комиссии за display devices, но для этой оценки ими можно пренебречь.
(Интересный побочный вопрос - кто владеет интеллектуальной собственностью на рыночные данные? Кажется по факту получается что биржа, поэтому за доступ к историческим данным или за предоставление сохранённых вами данных третьим лицам она выставит отдельный счёт).
Подключение
Прямое подключение к сети биржи достаточно дорогое удовольствие. Для HFT нужна самая быстрая физическая линия в сo-location - 10 Gb - это $12к в месяц.
Торговые роботы работают на железе в co-location, но трейдеры там сидеть не могут. Чтобы им зайти на торговые машины через интернет нужно настроить VPN, который стоит $500/m за каждые 0.5 Mbps.
Итого
Таким образом, если вдруг наши герои смогут зарабатывать торгуя только лишь одним приложением через одну физическую линию только лишь на CME, то придётся заплатить бирже за рыночные данные от $40k в год и за физическое подключение к сети от $150k в год, и это не считая стоимости электричества и аренды серверной стойки в co-location, а также остальных сопутствующих расходов.
@engineer10x
Оценим на примере CME минимальные расходы для гипотетическое фирмы, торгующей на собственный капитал.
Market Data
Лицензии на доступ к рыночным данным многообразны и разноплановы. (Интересно, как именно биржи придумывают за что взять с участников денег и почему именно столько...)
Для героев нашего примера ежемесячная стоимость доступа к рыночным данным для торговых роботов (non-display device) будет такой:
* Non-Display Category A – Trading As a Principal: 1 приложение $589 - 4+ приложений $3,521
* Category B – Internal Order Processing: 1 приложение $2,357 - 4+ приложения $2,951
* Category C - Risk Management/Research and Analysis etc: 1 приложение $351 - 4+ приложений $589
Если наши герои захотят использовать рыночные данные CME для отправки заявок за пределы CME, то придётся раскошелиться ещё на Category A3 – Trading on Alternative Venue: 1 приложение $1,759 - 4+ приложений - $4,132 в месяц.
Плюс ещё есть комиссии за display devices, но для этой оценки ими можно пренебречь.
(Интересный побочный вопрос - кто владеет интеллектуальной собственностью на рыночные данные? Кажется по факту получается что биржа, поэтому за доступ к историческим данным или за предоставление сохранённых вами данных третьим лицам она выставит отдельный счёт).
Подключение
Прямое подключение к сети биржи достаточно дорогое удовольствие. Для HFT нужна самая быстрая физическая линия в сo-location - 10 Gb - это $12к в месяц.
Торговые роботы работают на железе в co-location, но трейдеры там сидеть не могут. Чтобы им зайти на торговые машины через интернет нужно настроить VPN, который стоит $500/m за каждые 0.5 Mbps.
Итого
Таким образом, если вдруг наши герои смогут зарабатывать торгуя только лишь одним приложением через одну физическую линию только лишь на CME, то придётся заплатить бирже за рыночные данные от $40k в год и за физическое подключение к сети от $150k в год, и это не считая стоимости электричества и аренды серверной стойки в co-location, а также остальных сопутствующих расходов.
@engineer10x
Forwarded from Время Валеры
Небольшая заметка от Рони Кохави - P-values and Bayes Factors in A/B Testing: Frequentist or Bayesian A/B
Многие критикуют A/B тесты за то, что им непонятно, что такое P-value, и вместо этого хочется видеть какую-то вероятность успеха.
Отсюда люди начинают прибегать ко всякому: гаданию, Таро, баесовским приорам.
Рони говорит: всё здорово, но почему бы просто не использовать False Positive Risk?
Классическая история: если у вас 15% A/B тестов действительно успешны, вероятность ошибки первого рода составляет 5%, а второго рода — 20%, то какой у вас False Positive Rate? А False Positive Rate в нужную сторону? Все это довольно легко посчитать, безо всяких чудес.
А вот баесовские методы, требующие различных приоров и онлайн-калькуляторы, предлагающие их, почему-то либо не дают дополнительной информации, либо завышают положительную вероятность.
Рекомендую просматривать заметку каждый раз, когда рука будет тянуться к Баесу
Многие критикуют A/B тесты за то, что им непонятно, что такое P-value, и вместо этого хочется видеть какую-то вероятность успеха.
Отсюда люди начинают прибегать ко всякому: гаданию, Таро, баесовским приорам.
Рони говорит: всё здорово, но почему бы просто не использовать False Positive Risk?
In this document, I show that mapping from p-values to minimum and calibrated Bayes Factors, which can then be mapped to probabilities, seem to give values close to the FPR (False Positive Risk), or the probability that a statistically significant result is a false positive. This is an important empirical confirmation that I have not seen before.
Классическая история: если у вас 15% A/B тестов действительно успешны, вероятность ошибки первого рода составляет 5%, а второго рода — 20%, то какой у вас False Positive Rate? А False Positive Rate в нужную сторону? Все это довольно легко посчитать, безо всяких чудес.
А вот баесовские методы, требующие различных приоров и онлайн-калькуляторы, предлагающие их, почему-то либо не дают дополнительной информации, либо завышают положительную вероятность.
If all we are doing is providing a different mapping from four parameters (sample size of control, sample size of treatment, successes in control, successes in treatment) to probabilities using non-informative priors, then I find the Bayesian exercise losing much of the promise. Worse, the online Bayesian A/B calculators not only require fewer parameters than FPR does, but the “Chance to beat Control” seems highly exaggerated.
Рекомендую просматривать заметку каждый раз, когда рука будет тянуться к Баесу
Google Docs
2024-03 PvaluesBayesFactorsInABTesting.docx
P-values and Bayes Factors in A/B Testing: Frequentist or Bayesian A/B Ron Kohavi 5 March 2024, updated 10 March 2024 When you have done an experiment, you want to know whether you have made a discovery or whether your results could have occurred by chance.…
Forwarded from Start Career in DS
📚 Книги по ML/DS
Мы периодически рекомендуем вам книги по DS или разыгрываем их в канале, решили собрать полезные книги в одном посте! 📚
💻 Если знакомы с DS/ML слабо и хотите чуть лучше понять где и как это может применяться:
0. Роман с Data Science
Автор книги Роман Зыков - человек, который строил с нуля аналитику в Ozon.ru, а также основал свою компанию, которая занимается анализом данных. В книге он рассказывает о своих
1. Машинное обучение для бизнеса и маркетинга
На пальцах про все основные возможности применения машинного обучения в классическом бизнесе (на самом деле, совсем не только в маркетинге!)
2. DS для карьериста
Достаточно старая книжка, но многие советы ещё актуальны!
Про то, как строить карьеру в DS
💼 Если хотите натаскаться к собеседованиям и отточить знания основ:
0. [ENG]Cracking the coding interview
Тут собраны все задачки с алгоритмических интервью в корпорациях, а также ключевые идеи и подходы к их решению
1. Серия "Грокаем": сложные вещи описаны простым языком и дополнены нестандартными иллюстрациями
- Грокаем алгоритмы
- Грокаем машинное обучение
- Грокаем глубокое обучение
2. Доверительное А/В-тестирование
Ключевые идеи АВ-тестирования понятным языком
🥷 Если уже знаете основы и хотите углубить свои знания:
0. [ENG]Machine Learning System Design
Книга Валерия Бабушкина и Арсения Кравченко по ML System Design. И этим всё сказано 🙂
1. [ENG]Understanding Deep Learning
Книга с лекциями, презентациями и приложенными юпитер-ноутбуками для того, чтобы разобраться в DL. Часто обновляется (последний апдейт 21 November 2024)
Обязательно ставьте ❤️ и 🔥 под постом, если подборка полезна!
Мы периодически рекомендуем вам книги по DS или разыгрываем их в канале, решили собрать полезные книги в одном посте! 📚
💻 Если знакомы с DS/ML слабо и хотите чуть лучше понять где и как это может применяться:
0. Роман с Data Science
Автор книги Роман Зыков - человек, который строил с нуля аналитику в Ozon.ru, а также основал свою компанию, которая занимается анализом данных. В книге он рассказывает о своих
1. Машинное обучение для бизнеса и маркетинга
На пальцах про все основные возможности применения машинного обучения в классическом бизнесе (на самом деле, совсем не только в маркетинге!)
2. DS для карьериста
Достаточно старая книжка, но многие советы ещё актуальны!
Про то, как строить карьеру в DS
💼 Если хотите натаскаться к собеседованиям и отточить знания основ:
0. [ENG]Cracking the coding interview
Тут собраны все задачки с алгоритмических интервью в корпорациях, а также ключевые идеи и подходы к их решению
1. Серия "Грокаем": сложные вещи описаны простым языком и дополнены нестандартными иллюстрациями
- Грокаем алгоритмы
- Грокаем машинное обучение
- Грокаем глубокое обучение
2. Доверительное А/В-тестирование
Ключевые идеи АВ-тестирования понятным языком
🥷 Если уже знаете основы и хотите углубить свои знания:
0. [ENG]Machine Learning System Design
Книга Валерия Бабушкина и Арсения Кравченко по ML System Design. И этим всё сказано 🙂
1. [ENG]Understanding Deep Learning
Книга с лекциями, презентациями и приложенными юпитер-ноутбуками для того, чтобы разобраться в DL. Часто обновляется (последний апдейт 21 November 2024)
Обязательно ставьте ❤️ и 🔥 под постом, если подборка полезна!
Forwarded from ML for Value / Ваня Максимов (Ivan Maksimov)
Инсайты с Data елки 🌲
На прошлых выходных ходил на Data елку в VK. В этом году по ощущениям бОльшая часть конфы была про RecSys и LLM: немало интересных докладов и кулуарных разговоров. Вот что мне запомнилось больше всего
1. VK RecSys Challenge: однозначного лидера в моделях RecSys все еще нет
Среди победителей на достаточно большом датасете VK.клипов есть решения на траснформерных нейронках, классических MLP и даже просто бустингах. В общем, успех зависел скорее от того, насколько качественно вы умеете варить мл-алгоритм, чем от самого алгоритма. Ну а на среднего размера датасетах консенсусно рулят EASE + бустинги
2. Foundational models в рекомендациях 💡
Нейросети в рекомендациях все больше идут в сторону Foundational models = единая модель для всех типов действий, которая используется везде (лента перс рекомендаций, поиск, похожие) ипредвидит будущее предсказывает будущие действия пользователей
3. LLM файнтюнят все, но используют активно в проде не только лишь все
Все файнтюнят open-source LLM (в основном llama) на своих данных - внедряют в основном для автоматизации поддержки. Но для подавляющего большинства задач все еще рулят BERT-ы. Кстати, с времен RoBERTa вышло много апгрейдов - почитайте про вышедший месяц назад modernBERT
4. Ставка на LLM-агенты в 2024 году не оправдалась 🥷
Все еще крайне мало успешных внедрений в бизнес. Но посмотрим, что нам сулит 2025 год, уже есть подающие надежды кейсы
В общем, в интересное время живем - продолжаю активно наблюдать за областями RecSys и LLM/NLP, и даже в некоторой степени их трогать)
На прошлых выходных ходил на Data елку в VK. В этом году по ощущениям бОльшая часть конфы была про RecSys и LLM: немало интересных докладов и кулуарных разговоров. Вот что мне запомнилось больше всего
1. VK RecSys Challenge: однозначного лидера в моделях RecSys все еще нет
Среди победителей на достаточно большом датасете VK.клипов есть решения на траснформерных нейронках, классических MLP и даже просто бустингах. В общем, успех зависел скорее от того, насколько качественно вы умеете варить мл-алгоритм, чем от самого алгоритма. Ну а на среднего размера датасетах консенсусно рулят EASE + бустинги
2. Foundational models в рекомендациях 💡
Нейросети в рекомендациях все больше идут в сторону Foundational models = единая модель для всех типов действий, которая используется везде (лента перс рекомендаций, поиск, похожие) и
3. LLM файнтюнят все, но используют активно в проде не только лишь все
Все файнтюнят open-source LLM (в основном llama) на своих данных - внедряют в основном для автоматизации поддержки. Но для подавляющего большинства задач все еще рулят BERT-ы. Кстати, с времен RoBERTa вышло много апгрейдов - почитайте про вышедший месяц назад modernBERT
4. Ставка на LLM-агенты в 2024 году не оправдалась 🥷
Все еще крайне мало успешных внедрений в бизнес. Но посмотрим, что нам сулит 2025 год, уже есть подающие надежды кейсы
В общем, в интересное время живем - продолжаю активно наблюдать за областями RecSys и LLM/NLP, и даже в некоторой степени их трогать)
arXiv.org
Smarter, Better, Faster, Longer: A Modern Bidirectional Encoder...
Encoder-only transformer models such as BERT offer a great performance-size tradeoff for retrieval and classification tasks with respect to larger decoder-only models. Despite being the workhorse...
Forwarded from Data Blog
🎄 Привет, друзья!
Часто можно столкнуться с ситуацией, когда фреймворк, в котором реализован метод объяснения, просто не "дружит" с реализацией модели.
На днях я решала именно такую проблему — в рамках практики на заводе (🗿) мне нужно было проанализировать стабильность YOLO NAS. Так и появился туториал, в котором я решила разобрать, как использовать CAM (class activation map) для объяснения моделей зрения.
Почему CAM?
Class Activation Maps (CAM) — базовый инструмент для визуализации того, какие области изображения наиболее важны для модели при принятии решения. Он позволяет понять:
1. Какие признаки извлекает модель на разных слоях свертки;
2. Какие зоны изображения вносят вклад в прогноз конкретного класса;
С практической точки зрения:
1. Его почти всегда можно реализовать руками (если у вас есть задача классификации и сверточный слой);
2. Его можно использовать практически в любой задаче классификации с использованием сверточных нейронных сетей.
Прошу к чтению!
1. Туториал на Хабр
2. Туториал на гитхаб (ноутбук файлом)
3. Туториал на английском (коллаб)
P.S. а ещё там милые животные и красивые картинки — можно позапускать и поиграть =)
Всё ещё Ваш,
Дата-автор!
Часто можно столкнуться с ситуацией, когда фреймворк, в котором реализован метод объяснения, просто не "дружит" с реализацией модели.
На днях я решала именно такую проблему — в рамках практики на заводе (🗿) мне нужно было проанализировать стабильность YOLO NAS. Так и появился туториал, в котором я решила разобрать, как использовать CAM (class activation map) для объяснения моделей зрения.
Почему CAM?
Class Activation Maps (CAM) — базовый инструмент для визуализации того, какие области изображения наиболее важны для модели при принятии решения. Он позволяет понять:
1. Какие признаки извлекает модель на разных слоях свертки;
2. Какие зоны изображения вносят вклад в прогноз конкретного класса;
С практической точки зрения:
1. Его почти всегда можно реализовать руками (если у вас есть задача классификации и сверточный слой);
2. Его можно использовать практически в любой задаче классификации с использованием сверточных нейронных сетей.
Прошу к чтению!
1. Туториал на Хабр
2. Туториал на гитхаб (ноутбук файлом)
3. Туториал на английском (коллаб)
Всё ещё Ваш,
Дата-автор!
Хабр
Анализ обработки признаков в YOLO NAS S при помощи CAM
Методы объяснения моделей — практичный инструмент для понимания модели, оценки её точности и стабильности. Однако, часто можно столкнуться с ситуацией, когда фреймворк, в котором метод реализован,...
Forwarded from Сиолошная
Какие материалы у меня есть / чем я могут быть полезен / что посмотреть:
<--ЛЁГКИЕ, НЕТЕХНИЧЕСКИЕ МАТЕРИАЛЫ-->
Текст:
—🔥 Блогпост на хабре про историю развития GPT от Т9 к ChatGPT, написанный для объяснения простым языком (он же на VC, а в клубе Вастрика краткая история рождения статья); ВИДЕОВЕРСИЯ (1M+ просмотров!)
—🔥 Блогпост на хабре про Sora, модель генерации видео (которая на самом деле должна симулировать виртуальные миры, лол)
— Блогпост на хабре про GPT-4 и новую политику "Open"AI по непубликации исследований; ВИДЕОВЕРСИЯ
— Блогпост на хабре про обновление и развитие GPT-4 и обзор OpenAI DevDay 2023;
—🔥 Блогпост на хабре про новую линейку моделей OpenAI, o1. Почему это реально прорыв и смена парадигмы работы с моделями, а не хайп;
— Блокпост Вастрика про опасности AI, и почему не нужно закрывать глаза на (некоторые) тезисы Юдковского. Я помогал в качестве редактора, не основного автора; ВИДЕОВЕРСИЯ
Видео:
— Интервью на канале Karpov.Courses (чтобы лучше понять, кто что где я);
— Подкаст-интервью с Александром Ильиным на тему ChatGPT, AGI, их влияния на нашу жизнь. Последние 20 минут трещим про мою карьеру;
—🔥 Открывающий доклад конференции Global CIO (на английском 🇬🇧), в котором я рассказываю, что такое AI и почему его можно (нужно) начинать использовать сотрудникам уже сегодня, для увеличения персональной эффективности;
—🔥 Доклад с Podlodka Product Crew про текущее состояние LLM / AI-ассистентов, где простым и понятным языком сначала развеиваю 4 мифа, а затем рассказываю про будущее AI.
<--ЛЁГКИЕ, НЕТЕХНИЧЕСКИЕ МАТЕРИАЛЫ-->
Текст:
—
—
— Блогпост на хабре про GPT-4 и новую политику "Open"AI по непубликации исследований; ВИДЕОВЕРСИЯ
— Блогпост на хабре про обновление и развитие GPT-4 и обзор OpenAI DevDay 2023;
—
— Блокпост Вастрика про опасности AI, и почему не нужно закрывать глаза на (некоторые) тезисы Юдковского. Я помогал в качестве редактора, не основного автора; ВИДЕОВЕРСИЯ
Видео:
— Интервью на канале Karpov.Courses (чтобы лучше понять, кто что где я);
— Подкаст-интервью с Александром Ильиным на тему ChatGPT, AGI, их влияния на нашу жизнь. Последние 20 минут трещим про мою карьеру;
—
—
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
_________________________________________________________________________
<--СРЕДНЯЯ СЛОЖНОСТЬ, ПОПУЛЯРНО ПРО ТЕХНОЛОГИИ-->
Текст:
— Бесплатный курс по базовому Python (очень простым и понятным языком, специально для быстрого старта);
—🔥 Блогпост на хабре про WebGPT (модель с подключением к браузеру) как способ решения проблем ChatGPT;
—🔥 Блогпост на хабре с разбором статьи DeepMind, в которой заявляется, что LLM впервые совершила научное открытие;
— Блогпост на хабре с объяснением основ интерпретируемости нейросетей (применительно к LLM) и разбором трёх методов;
Видео:
—🔥 Лекция «What's next for OpenAI?», в которой рассказываю про дальнейший рисерч OpenAI и 8 потенциальных направлений исследований;
—🔥 Лекция (обзорная) для ИТМО про то, как работают LLM, как они подключаются к реальному миру и могут на него влиять, и описывающая наше ближайшее будущее и самые интересные направления работы;
— Видео-подкаст с Алексеем Хахуновым про устройство плагинов для ChatGPT, в котором на пальцах разберем, как работает интеграция с поиском Bing;
— Видео-подкаст на Рабкоре с Кали Новской про опасности ИИ, политику и многое другое;
— Рассказ моей команды в AliExpress о том, как у нас работает матчинг в проде: блог с первой частью рассказа, полное видео с митапа (приглашенные спикеры из Яндекса и Озона, см. таймкоды);
<--СРЕДНЯЯ СЛОЖНОСТЬ, ПОПУЛЯРНО ПРО ТЕХНОЛОГИИ-->
Текст:
— Бесплатный курс по базовому Python (очень простым и понятным языком, специально для быстрого старта);
—
—
— Блогпост на хабре с объяснением основ интерпретируемости нейросетей (применительно к LLM) и разбором трёх методов;
Видео:
—
—
— Видео-подкаст с Алексеем Хахуновым про устройство плагинов для ChatGPT, в котором на пальцах разберем, как работает интеграция с поиском Bing;
— Видео-подкаст на Рабкоре с Кали Новской про опасности ИИ, политику и многое другое;
— Рассказ моей команды в AliExpress о том, как у нас работает матчинг в проде: блог с первой частью рассказа, полное видео с митапа (приглашенные спикеры из Яндекса и Озона, см. таймкоды);
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
_________________________________________________________________________
<--ВЫСОКАЯ СЛОЖНОСТЬ, ТЕХНИЧЕСКИЕ ДЕТАЛИ И РАЗБОРЫ-->
Текст:
— гайд по промптингу LLM для генерации синтетических данных: Generating Synthetic Dataset for RAG и Tackling Generated Datasets Diversity
Видео:
—🔥 Детальнейшая видео-лекция про устройство трансформера, со всеми нюансами;
—🔥 (плейлист на YouTube) 10+ часовой мини-курс по NLP «Полная история семейства GPT»;
—🔥 Лекция «RLHF Intro: from Zero to Aligned Intelligent Systems» в рамках DataFest 2023 (была признана лучей лекцией ODS в 2023);
— Мини-серия комментариев к ML System Design Interviews, с Валерой Бабушкиным: (1) выбор рекламы к показу в ленте соцсети, (2) ценообразование на маркетплейсе, (3) матчинг товаров в онлайн-магазине;
— Лекция по деревьям решений, методам ансамблирования и (ГЛАВНОЕ) градиентным бустингам;
— Лекция про языковые модели, основанные на принципе поиска ближайших соседей: часть 1, часть 2;
— Вебинар по неградиентным методам оптимизации, с большим количеством практики;
<--ВЫСОКАЯ СЛОЖНОСТЬ, ТЕХНИЧЕСКИЕ ДЕТАЛИ И РАЗБОРЫ-->
Текст:
— гайд по промптингу LLM для генерации синтетических данных: Generating Synthetic Dataset for RAG и Tackling Generated Datasets Diversity
Видео:
—
—
—
— Мини-серия комментариев к ML System Design Interviews, с Валерой Бабушкиным: (1) выбор рекламы к показу в ленте соцсети, (2) ценообразование на маркетплейсе, (3) матчинг товаров в онлайн-магазине;
— Лекция по деревьям решений, методам ансамблирования и (ГЛАВНОЕ) градиентным бустингам;
— Лекция про языковые модели, основанные на принципе поиска ближайших соседей: часть 1, часть 2;
— Вебинар по неградиентным методам оптимизации, с большим количеством практики;
Please open Telegram to view this post
VIEW IN TELEGRAM