Sberloga
2.54K subscribers
132 photos
11 videos
5 files
207 links
Data Сообщество
По всем вопросам обращаться @SberlogaHelperBot
Чат - @sberlogadataclub
Download Telegram
🚀 "SBERLOGA" продолжает серию докладов по теме фреймворков для Data Science проектов
👨‍🔬 Доклад Никиты Варганова: "Sacred как инструмент планирования ML-экспериментов"
Четверг 8 апреля, 19.00 по Москве

На клиентском пути разработки AI-решения, Data Scientist проводит много времени за экспериментами и тестированием гипотез. Типичные эксперименты включают в себя определение того, какой класс моделей использовать, какие признаки следует включить в модель, сколько данных требуется для обучения модели. Такие эксперименты на выходе порождают большое количество артефактов. Без стандартизированного способа управления полученными артефактами Data-Scientist’ам, сложно воспроизводить результаты своей работы и сравнивать результаты разных экспериментов. Чтобы достичь воспроизводимости и сопоставимости экспериментов в машинном обучении, DS необходимо хранить экспериментальные метаданные.

В ближайшем вебинаре SberLoga пойдет речь о таком инструменте планирования ML-экспериментов, как Sacred. Мы обсудим, какие артефакты существуют и какие артефакты требуется сохранять, почему это важно. Мы рассмотрим исходный код нескольких решений и артефакты, сгенерированные в процессе обучения моделей. Таким образом, мы получим шаблон, который участники вебинара смогут адаптировать к своим экспериментам в области машинного обучения. Приходите, будет интересно! 🙂

Ссылка на зум будет доступна ближе к началу доклада через чат @sberlogadataclub
Записи докладов на ютубе https://www.youtube.com/c/SBERLOGA

Следите за объявлениями в
@sberloga

Looking for speakers - Мы постоянно проводим небольшие семинары, где можно поделиться своими знаниями по теме Data Science/Data Engineering. Чтобы обсудить тему вашего доклада нужно написать - @boyadzhi или @Alexander_V_C
🚀 "SBERLOGA"
👨‍🔬 Доклад Прохор Гладких, Семен Сорокин, Даниил Водолазский, SberIDP: "NER using Efficient Attention"
Пятница 9 апреля, 18:00 по Москве

Обсудим
* Обзор идей Efficient Attention
* Подробно о Longformer. Эксперименты Longformer + NER
* Подробно о Linear Transformer. Эксперименты Linear Transformer + NER

Ссылка на зум будет доступна ближе к началу доклада через чат @sberlogadataclub
Записи докладов на ютубе https://www.youtube.com/c/SBERLOGA

Looking for speakers - Мы постоянно проводим небольшие семинары, где можно поделиться своими знаниями по теме Data Science/Data Engineering. Чтобы обсудить тему вашего доклада нужно написать - @boyadzhi или @Alexander_V_C

Следите за объявлениями в
@sberloga
Ребята,
Прошедшая неделя была очень насыщенная. Провели аж 3 доклада и все они вышли прям огонь 🔥
Sacred, NER, Knowledge Graphs - темы на любой вкус 😎 ниже можно подробнее почитать и посмотреть видео

А на этой неделе планируем продолжить серию с докладами по фреймворкам ML разработки - ждем доклад про Трекинг экспериментов с использованием MLFlow. Как всегда в четверг 19:00 ждем в гостях. Более подробно напишем позже 🙂

Никита Варганова - Sacred как инструмент планирования ML-экспериментов
Какие артефакты существуют и какие артефакты требуется сохранять, почему это важно.
Рассмотрели исходный код нескольких решений и артефакты, сгенерированные в процессе обучения моделей.
Таким образом, получен шаблон, который участники вебинара смогут адаптировать к своим экспериментам в области машинного обучения.

Прохор Гладких, Семен Сорокин, Даниил Водолазский (SberIDP) - NER using Efficient Attention
* Обзор идей Efficient Attention
* Подробно о Longformer. Эксперименты Longformer + NER
* Подробно о Linear Transformer. Эксперименты Linear Transformer + NER

Курс Knowledge Graphs - Обсуждение Лекции 5 часть 2 - Semantic Data Integration + HW
Лекция посвящена построению графов по данным и подготовке графов для дальнейшего использования алгоритмов машинного обучения.
Видео с обсуждением второй части 5-й лекции Semantic Data Integration с разобом накопившихся домашних работ за 4-ую и 5-ую лекции.

@sberloga
🚀 Обсуждение курса "Графы знаний"
⌚️ Вторник 13 апреля, 19.00 по Москве
👨‍🔬Просмотр и обсуждение лекции 6

Для тех, кто хочет присоединиться к обсуждению курса, сегодня - самое удачно место. Мы прошли первую половину курса по графам знаний, и сегодня начинаем вторую половину, которая несколько отделена логически от предыдущего материала, в целом она больше посвящена методам машинного обучения в применении к графам. (В первой половине акценты были больше на более классические "логические" аспекты теории графов знаний).
Лекция 6 - от Вадима Сафронова (@VadymSafronov) - возможные применения и основы теории графов - https://www.youtube.com/watch?v=2NemwwyK9x4 - присоединяйтесь !

Ссылка на зум будет доступна через тг чат https://t.me/kg_course ближе к началу доклада.
🚀 DS доклад "SBERLOGA"
👨‍🔬 Инсаф Ашрапов: "TabGAN или как использовать ганы для табличных данных"
Пятница 16 апреля, 19.00 по Москве

Ганы хорошо себя зарекомендовали себя в генерации изображений, их широко применяются и для генерации музыки и видео. В рамках же доклада попробуем рассмотреть табличные ганы. Начнем с двух публикаций TGAN и CTGAN. Далее рассмотрим, как можно приметь эти ганы для генерации данных в случае сильного смещения трейна относительно теста. И попробуем все это применить для одного датасета.

Ссылка на зум будет доступна ближе к началу доклада через чат @sberlogadataclub
Записи докладов на ютубе https://www.youtube.com/c/SBERLOGA

@sberloga
🚀 Обсуждение курса "Графы знаний"
⌚️ Вторник 20 апреля, 19.00 по Москве
👨‍🔬Просмотр и обсуждение лекции 6.

Рекомендуем всем лекцию Вадима Сафронова (@VadymSafronov) - https://www.youtube.com/watch?v=2NemwwyK9x4 - она содержит (в том числе) краткий дайджест многих моментов известного стенфордского курса cs224w (от Лесковича) .
Сегодня мы продолжим ее просмотр и обсуждение - присоединяйтесь !
Мы обсудим машинное обучение на графах.

Ссылка на зум будет доступна через чат тг чат https://t.me/kg_course ближе к началу доклада.
🚀 "SBERLOGA" продолжает серию докладов по теме фреймворков для Data Science проектов
👨‍🔬 Доклад Сергея Лаврикова: "Трэкинг экспериментов в MLFlow"
Четверг 22 апреля, 18:00 по Москве

Наступает то время, когда MLops проникает в работу DS/DE/ML специалистов. Этот процесс можно сделать не слишком болезненным со специализированными инструментами, такими как MLflow - open source платформа для организации жизненного цикла ML. Она позволяет трекать эксперименты, хранить модели централизованно, создавать воспроизводимые и переносимые окружения, деплоить. И да - у нее есть UI.
Обсудим:
* как с помощью MLflow привнести в команду порядок в проведении ML экспериментов и какие от этого плюсы;
* общий обзор возможностей фреймворка;
* наглядная демонстрация real time.

Ссылка на зум будет доступна ближе к началу доклада через чат @sberlogadataclub
Записи докладов на ютубе https://www.youtube.com/c/SBERLOGA

Looking for speakers - Мы постоянно проводим небольшие семинары, где можно поделиться совими знаниями по теме Data Science/Data Engineering. Чтобы обсудить тему вашего доклада нужно написать - @boyadzhi или @Alexander_V_C

@sberloga
Ребята,
Не пропустите сегодняшний доклад в 18:00 Сергея Лаврикова: "Трэкинг экспериментов в MLFlow", ссылка на зум будет в @sberlogadataclub
Обсудим:
* как с помощью MLflow привнести в команду порядок в проведении ML экспериментов и какие от этого плюсы;
* общий обзор возможностей фреймворка;
* наглядная демонстрация real time.

Также выложили видео с докладов на прошлой неделе:

Инсаф Ашрапов: "TabGAN или как использовать ганы для табличных данных"
Ганы хорошо себя зарекомендовали себя в генерации изображений, их широко применяются и для генерации музыки и видео. В рамках же доклада попробуем рассмотреть табличные ганы. Начнем с двух публикаций TGAN и CTGAN. Далее рассмотрим, как можно приметь эти ганы для генерации данных в случае сильного смещения трейна относительно теста. И попробуем все это применить для одного датасета.

Курс Knowledge Graphs - Обсуждение Лекции 6 часть 1
Рекомендуем всем лекцию Вадима Сафронова (@VadymSafronov) - https://www.youtube.com/watch?v=2NemwwyK9x4 - она содержит (в том числе) краткий дайджест многих моментов известного стенфордского курса cs224w (от Лесковича) .
Сегодня мы продолжим ее просмотр и обсуждение - присоединяйтесь !
Мы обсудим машинное обучение на графах.
Ребята,
Кто меня знает, уже наверное в курсе, что я часто принимаю участие в забегах, учусь плавать и вообще спорту я уделяю много времени
Не так давно я для себя открыл движение parkrun
Паркраны проводятся каждую субботу в 9:00 - это бесплатные еженедельные забеги (5км), которые проводятся сообществом волонтеров по всему миру.
Причем это не соревнование, а именно дружественный забег.
Впервые я участвовал в нем 2 недели назад и там даже бабушка участвовала которая на палочках ходила 💪 надеюсь, в таком возрасте я тоже буду в состоянии заставить себя в субботу побегать 😅 сильно вдохновляет и радует когда такое видишь
На таких мероприятиях царит дружественная атмосфера и там можно познакомиться с кучей хороших людей, которые в том числе увлекаются спортом
Знаю много людей, которые почти всегда посещают новые паркраны, собирая уникальные локации. Причем даже в отпуск можно запланировать небольшую пробежку в новом месте 👍

Для участия требуется зарегистрироваться(форма) и распечатать штрихкод (можно сохранить на телефоне скрин) - его будут сканировать на финише чтобы ваш результат зачли

Если вы из Москвы - приглашаю вас завтра пробежать паркран в Мытищах
https://www.parkrun.ru/mytishchicentralpark/course/

🗺Предлагаю встретиться e Место старта - Старт у фонтана в центре парка
Около 8:30
📸 Сделаем Сберложную фотку

Если вы из другого города или страны - не беда, можно посмотреть ближайший паркран на карте (в россии проводится 94 parkrun, но это довольно скромно по сравнению с другими странами 🙃)

@sberlogasportsclub - чатик о спорте, заходите в нашу семью
Скидывайте свои фотки с забегов, делитесь впечатлениями, мы всем рады 🤗
Александр Рыжков (@RyzhkovAlex) и его коллеги по Sber AI Lab запускают практический курс по 🎓 LightAutoML - фреймворк для автоматического построения моделей машинного обучения. Фреймворк полностью открытый, так как opensource, работает пока на табличных данных, однако на этот год у нас достаточно плотный roadmap. Курс будут читать авторы и разработчики фреймворка - маcтера и градмастер Kaggle🥇🥇🎖. В конце всех лекций вас ждут лайфхаки и байки лучших практик Kaggle и анонс inclass-соревнования для слушателей курса🎁! Курс состоит из 9 вебинаров 🧑‍💻, будет проходить еженедельно по средам с 28 апреля в 19.00 по Мск. Регистрация по ссылке


Уверен, многие знают Андрея Лукьяненко (@erlemar) по его отличным кернелам на каггле (Андрей занимал топ 1 позицию по кернелам), а также по тому, что Андрей всегда рад делится своими знаниями и опытом. В прошедшем году Андрей получил награду одс по менторству и вот теперь в статье он делится своим опытом на эту тему :
https://andlukyane.com/blog/mentoring-experience
🚀 "SBERLOGA" представляет необычнейший доклад - дата сайнс (NLP, граф-мл) и философия - присоединяйтесь.
👨‍🔬 Антон Костин (МФТИ) "Философия на графах"
⌚️ Вторник 27 апреля, 19.00 по Москве

Разберем блокнот с кодом построения графа поверх текстовых эмбеддингов (fasttext).
На примере Louvain посмотрим, как алгоритмы модульности находят философские школы.
В задаче Link Prediction подумаем над неочевидными связями между разными школами и философами.
А также обсудим, будут ли студенты ВУЗов делать домашку по философии с использованием NLP
и дискретной математики (спойлер: на Физтехе уже начали)? Рассказывает преподаватель философии.

Ноутбуки и данные доступы на каггле:
https://www.kaggle.com/visualcomments/philosophy-ru-large
Ваши апвоут, конечно, приветствуются.

Ссылка на зум будет доступна через чат тг чат https://t.me/kg_course ближе к началу доклада.
🚀 Онлайн DS доклад
👨‍🔬 Александр Пономаренко (ВШЭ, ИПФ РАН) "Поиск перекрывающихся кластеров на графах"
⌚️ Четверг 6 мая, 18.00 по Москве

На докладе расскажем про метод поиска перекрывающихся кластеров в графе (Link Partitioning Around Mediods) https://arxiv.org/abs/1907.08731, https://github.com/aponom84/lpam-clustering
Суть метода: кластеризуются рёбра, а не вершины. Мы считаем, что вершина принадлежит нескольким сообществам, если она смежна с рёбрами из разных кластеров. Для кластеризации рёбер строится линейный графа, и на нём решается задача о p-медианах (facility location problem). Мы изучили как работает этот метод главным образом с двумя функциями расстояния: commute distance и с одиним из вариантов её коррекции – amplified commute distance.
Одно из преимущество метода – интуитивно понятный результат. Рёбра группируются вокруг некоторых центров.

Ссылка на зум будет доступна через тг чат https://t.me/sberlogawithgraphs ближе к началу доклада.
Ребята привет,
Майские "не рабочие" закончились и мы снова начинаем организовывать доклады по DataScience тематикам 👍 Скоро будет анонс 🥳
А пока можете ознакомиться с видео последних докладов:

Сергей Лавриков - Трэкинг экспериментов в MLFlow
Обсудили:
* как с помощью MLflow привнести в команду порядок в проведении ML экспериментов и какие от этого плюсы;
* общий обзор возможностей фреймворка;
* наглядная демонстрация real time.

Александр Пономаренко - Поиск перекрывающихся кластеров на графах
На докладе обсуждали метод поиска перекрывающихся кластеров в графе (Link Partitioning Around Mediods) https://arxiv.org/abs/1907.08731, https://github.com/aponom84/lpam-clustering
Суть метода: кластеризуются рёбра, а не вершины. Мы считаем, что вершина принадлежит нескольким сообществам, если она смежна с рёбрами из разных кластеров. Для кластеризации рёбер строится линейный графа, и на нём решается задача о p-медианах (facility location problem). Мы изучили как работает этот метод главным образом с двумя функциями расстояния: commute distance и с одиним из вариантов её коррекции – amplified commute distance.
Одно из преимущество метода – интуитивно понятный результат. Рёбра группируются вокруг некоторых центров.

Антон Костин - Философия на графах
Разбирали блокнот с кодом построения графа поверх текстовых эмбеддингов (fasttext).
На примере Louvain посмотрим, как алгоритмы модульности находят философские школы.
В задаче Link Prediction подумаем над неочевидными связями между разными школами и философами.
А также обсудим, будут ли студенты ВУЗов делать домашку по философии с использованием NLP
и дискретной математики (спойлер: на Физтехе уже начали)? Рассказывает преподаватель философии.
Ноутбуки и данные доступы на каггле:
https://www.kaggle.com/visualcomments/philosophy-ru-large

Курс Knowledge Graphs - Обсуждение Лекции 6 часть 2
Рекомендуем всем лекцию Вадима Сафронова (@VadymSafronov) - https://www.youtube.com/watch?v=2NemwwyK9x4 - она содержит (в том числе) краткий дайджест многих моментов известного стенфордского курса cs224w (от Лесковича)

@sberloga
🚀 "SBERLOGA" продолжает серию докладов по теме фреймворков для Data Science проектов
👨‍🔬 Доклад Ярослава Черепанова: "Построение пайплайнов обработки данных с использованием Luigi"
Четверг 20 мая, 18:00 по Москве

В процессе решения DS или DE задач иногда возникает необходимость написать переиспользуемый пайплайн, который производит тяжёлые вычисления. Такой код далеко не всегда перезапускается без ошибок, поэтому полезно иметь возможность не терять уже проделанные вычисления. Также, если вычисления действительно долгие, бывает непонятно на каком этапе сейчас находятся расчёты. И в конце концов полезно иметь возможность легко распараллелить расчёты, где это возможно. Всё это можно делать, если написать пайплайн с использованием Luigi.
В этом докладе Ярослав расскажет о Luigi и покажет примеры того как писать пайплайны с её применением.

Ссылка на зум будет доступна ближе к началу доклада через чат @sberlogadataclub
Записи докладов на ютубе https://www.youtube.com/c/SBERLOGA

Looking for speakers - Мы постоянно проводим небольшие семинары, где можно поделиться совими знаниями по теме Data Science/Data Engineering. Чтобы обсудить тему вашего доклада нужно написать - @boyadzhi или @Alexander_V_C

@sberloga
🚀 @sberloga организует серию онлайн докладов по NLP (Natural Language Processing).
⌚️ Предварительные даты и время - каждый четверг в 19.00 по Москве.
Дополнительная информация и подробные анонсы в телеграм канале @sberloga за пару дней до доклада. Видео записи этих и предыдущих докладов на ютуб канале - https://www.youtube.com/c/sberloga . Присоединяйтесь - будет интересно:

27 мая. Давид Дале (@cointegrated (Сколтех)) "Предобученные модели для русского языка"

3 июня. Андрей Козлюк (@FutorioFranklin (ПрессИндекс)) "TinyBert: 7.5x smaller and 9.4x faster"

Далее:
Игорь Шаталин "Разрешение кореферентности для русского языка"

А также: Андрей Лукьяненко, Михаил Нефедов, Eгор Плотников,
Александр Абрамов, Леонид Синев, Farid Khafizov

PS
Looking for speakers - Мы постоянно проводим небольшие семинары, где можно поделиться своими знаниями по теме Data Science/Data Engineering. Eсли вы готовы рассказать и/или порекомендовать хорошего докладчика обращайтесь - @boyadzhi или @Alexander_V_C
🚀 Онлайн DS доклад от @SBERLOGA
👨‍🔬 Давид Дале (Сколтех, экс-Яндекс.Алиса) "Предобученные модели для русского языка"
⌚️ Четверг 27 мая, 19.00 по Москве

Поговорим про особенности, ограничения и рецепты использования русского BERT. Обсудим опыт дистилляции BERT и сжатия fastText. Разберёмся, какая магия нужна, чтобы заставить GPT от Сбера генерировать нужный вам текст, и почему с T5 то же самое можно сделать без магии.

Чтобы встреча прошла максимально интересно, заранее задавайте свои вопросы в комментариях!

Ссылка на зум будет доступна через тг чат t.me/sberlogadataclub ближе к началу доклада.
Sberloga pinned «🚀 Онлайн DS доклад от @SBERLOGA 👨‍🔬 Давид Дале (Сколтех, экс-Яндекс.Алиса) "Предобученные модели для русского языка" ⌚️ Четверг 27 мая, 19.00 по Москве Поговорим про особенности, ограничения и рецепты использования русского BERT. Обсудим опыт дистилляции…»
🚀 Онлайн DS доклад от @SBERLOGA по граф-мл
👨‍🔬 Вадим Сафронов (@VadymSafronov) "Учиться, учиться, и ещё раз учиться? (Простые модели против полноценно обученных GCN: 12 датасетов * 12 раундов * 2 сценария - кто кого заборет?) "
⌚️ Вторник 1 июня, 19.00 по Москве

Необученная графовая свёрточная нейронная сеть [1] (uGCN) со случайной инициализацией весов уже пару лет занимает первое место в моём списке алгоритмов для задач машинного обучения на графах из-за копеечной стоимости, простоты реализации, да вполне очевидной элегантности решения. В то же время, насколько мне известно, никто ещё не не проводил соревнований между этой простой моделью и её старшей сестрой - полноценно обученной графовой свёрточной нейронной сетью (GCN) в режиме обучения с учителем. Вот я сделал.

Мотивация: показать, что uGCN выдаёт качественные представления, которые можно использовать в последующих задачах машинного обучения в индуктивном режиме (вдохновлено недавним отчётом [2] о производительности простых моделей в трансдуктивном случае).

Полученные результаты - занимательны. В худшем случае простые модели (uGCN + degree kernel + random forest) показали счёт 54:90 против полноценно обученных GCN, в то время как реалистичный сценарий закончился разгромным реваншем 93:51, указывающим на то, что мы можем позволить себе почти бесплатные эмбеддинги, которые превосходят или показывают результаты на уровне полноценно обученных GCN в задаче предсказания свойств графа (например - эффекта медикаментов: яд или лекарство) за долю стоимости. Простые модели обучались ~10 минут в то время как весь эксперимент продлился ~4 часа.

Результаты:
https://hsto.org/webt/fr/am/7s/fram7skdikce2xxbpyowaul3qvw.png
DK - гистограмма степеней вершин,
uGCN - необученная свёртка со случайными весами,
Mix = uGCN + DK,
GCN-A - среднее за 191-200 эпоху обучения,
GCN-B - лучшая из 200 эпох

Ссылка на зум будет доступна через тг чат https://t.me/sberlogawithgraphs ближе к началу доклада.
🚀 @sberloga рекомендует онлайн доклад по NLP (Natural Language Processing) на семинаре ВШЭ
Телеграм канал семинара ВШЭ: @nlp_seminar
👨‍🔬 Владислав Михайлов (Сбер), Екатерина Такташева (ВШЭ), Элина Сигдал (ВШЭ) “RuSentEval: диагностическое тестирование языковых моделей на русском языке”
⌚️ Четверг 3 июня в 19.00 по Москве.

RuSentEval – это новый набор данных для диагностического тестирования (probing) векторных и языковых моделей для русского языка. Набор включает в себя 14 датасетов, которые покрывают различные лингвистические явления – от поверхностных (число слов в предложении) до синтаксических (глубина синтаксического дерева) и семантических (число и род подлежащего). Классический метод диагностического тестирования – обучить классификатор, который предсказывает наличие того или иного явления по вектору предложения. Поведение классификатора может показать, например, какие слои языковой модели более чувствительны к низкоуровневым признакам, а какие – к высокоуровневым.

В работе мы использовали данные RuSentEval и SentEval (английский язык), чтобы провести диагностическое тестирование пяти мультиязычных трансформеров – в том числе mBERT, mBART и LABSE – и узнали, что модели имеют похожее представление о некоторых признаках для обоих языков, несмотря на их типологические различия. А вот mBART и LABSE отличаются от остальных (как именно – читайте в статье).
Репозиторий с кодом и данными доступен по ссылке (https://github.com/RussianNLP/rusenteval).
🚀 @sberloga продолжает серию онлайн докладов по NLP (Natural Language Processing), следующий доклад будет 10 июня, а не 3 июня как планировалось.
⌚️ Предварительные даты и время - каждый четверг в 19.00 по Москве.
Дополнительная информация и подробные анонсы в телеграм канале @sberloga за пару дней до доклада. Видео записи этих и предыдущих докладов на ютуб канале - https://www.youtube.com/c/sberloga . Присоединяйтесь - будет интересно:

10 июня. Андрей Козлюк (@FutorioFranklin (ПрессИндекс)) "TinyBert: 7.5x smaller and 9.4x faster"

17 июня Игорь Шаталин (Human Cosmos) "Разрешение кореферентности для русского языка"

Далее:
Андрей Лукьяненко, Михаил Нефедов, Eгор Плотников,
Александр Абрамов, Леонид Синев, Farid Khafizov

ПС
В ближайший четверг (3 июня) рекомендуем посетить онлайн доклад по NLP “RuSentEval: диагностическое тестирование языковых моделей на русском языке” от ВШЭ (см. предыдущий пост).
Ребята,

Сегодня выкладываю очередную порцию прошедших докладов

Ярослав Черепанов - Построение пайплайнов обработки данных с использованием Luigi
В процессе решения DS или DE задач иногда возникает необходимость написать переиспользуемый пайплайн, который производит тяжёлые вычисления. Такой код далеко не всегда перезапускается без ошибок, поэтому полезно иметь возможность не терять уже проделанные вычисления. Также, если вычисления действительно долгие, бывает непонятно на каком этапе сейчас находятся расчёты. И в конце концов полезно иметь возможность легко распараллелить расчёты, где это возможно. Всё это можно делать, если написать пайплайн с использованием Luigi.
В этом докладе Ярослав рассказал о Luigi и показал примеры того как писать пайплайны с её применением.

Давид Дале (Сколтех, экс-Яндекс.Алиса) - Предобученные модели для русского языка
Поговорим про особенности, ограничения и рецепты использования русского BERT. Обсудим опыт дистилляции BERT и сжатия fastText. Разберёмся, какая магия нужна, чтобы заставить GPT от Сбера генерировать нужный вам текст, и почему с T5 то же самое можно сделать без магии.

Курс Knowledge Graphs - Q&A
Cессия вопросов-ответов c Михаилом Галкиным, одним из создателей курса по KG

@sberloga