В рамках #запожертвованиенаблаготворительность хочу дать слово Александру. Вы тоже можете поддержать, просто подписавшись на его канал.
Всем привет! Меня зовут Александр, работаю на позиции Middle DS. Постараюсь в двух словах рассказать, о чем мой маленький канал @gptscience🤖
📰 Свежие новости из мира GPT-генеративных моделей.
👨💻 Создание приложений с помощью GPT-4.
😐 Посты с ликбезом и объяснением сложных нейронных архитектур простым языком.
🤓 Ежедневные посты, где я сам ручками показываю то, что можно создать с помощью новых технологий.
Если хотите помочь с развитием канала, а также получать качественный контент, буду рад вас видеть на своем канале - https://t.me/gptscience
*Сгенерировано с помощью chatgpt🤖
Всем привет! Меня зовут Александр, работаю на позиции Middle DS. Постараюсь в двух словах рассказать, о чем мой маленький канал @gptscience
Если хотите помочь с развитием канала, а также получать качественный контент, буду рад вас видеть на своем канале - https://t.me/gptscience
*Сгенерировано с помощью chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
gptscience 🤖
Свежие новости из мира GPT-моделей, Машинного Обучения и ИИ🤖
Для связи: @sokoloveai
Для связи: @sokoloveai
👍8❤4🍾3
10 лет назад я завалил последний экзамен в ШАД. Но сейчас для разработчиков появилось альтернативное поступление, где у вас проверяют не забытые знания высшей математики, а инженерные знания.
Не упусти возможность учиться в ШАД!
До 6 мая включительно можно подать анкету на обучение в Школе анализа данных Яндекса - двухгодичной программе, по одному из востребованных направлений: разработка машинного обучения, data science, инфраструктура больших данных или анализ данных в прикладных науках.
Чтобы поступить и учиться в ШАДе, важно интересоваться машинным обучением, обладать хорошей математической подготовкой и владеть одним из языков программирования. Для разработчиков с опытом есть альтернативный трек поступления, который включает в себя не только оценку знаний в алгоритмах и высшей математике, но и достижений в исследовательских и/или индустриальных задачах.
Основной язык обучения на программе: русский.
Анкета для поступления (https://clck.ru/34GwCS), чат для поступающих (https://t.me/+DQ1j7epbIlNmNjFi).
Не упусти возможность учиться в ШАД!
До 6 мая включительно можно подать анкету на обучение в Школе анализа данных Яндекса - двухгодичной программе, по одному из востребованных направлений: разработка машинного обучения, data science, инфраструктура больших данных или анализ данных в прикладных науках.
Чтобы поступить и учиться в ШАДе, важно интересоваться машинным обучением, обладать хорошей математической подготовкой и владеть одним из языков программирования. Для разработчиков с опытом есть альтернативный трек поступления, который включает в себя не только оценку знаний в алгоритмах и высшей математике, но и достижений в исследовательских и/или индустриальных задачах.
Основной язык обучения на программе: русский.
Анкета для поступления (https://clck.ru/34GwCS), чат для поступающих (https://t.me/+DQ1j7epbIlNmNjFi).
Поступление в ШАД
Поступление в Школу анализа данных. Будет сложно, но оно того стоит
👍11🔥7😱1
Forwarded from ODS Events
Ловите расписание:
12:50 - 13:45 Нейросетевое составление образов, Екатерина Глазкова
13:45 - 14:25 Калибровка камеры к лидару, Расим Ахунзянов
14:25 - 15:00 Многорукие бандиты в Яндекс Лавке, Евгений Комаров
15:00 - 15:45 Геймификация сбора данных для ML во внутренних сервисах, Владислав Савинов
Все доклады будем показывать в комнате Practical ML Stage, а Q&A и ламповый нетворкинг будет в комнате Practical ML Yandex
Пароль всё тот же: festparroteverywhere23
Всех ждем!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍2
В рамках #запожертвованиенаблаготворительность хочу рекомендовать митап, но увидев спикеров хочу искренне от себя добавить, что митап хороший.
Большой DS-митап о персонализации от СберМаркет Tech🔥
Встречаемся на Data Science Meetup 5 июля в 19:00 в московском офисе СберМаркета или на онлайн-трансляции.
В программе:
🟡 Как мы делали проект по персональному ML-ранжированию каталога и почему из этого ничего не получилось, а потом внезапно каааааак получилось // Антонина Горячева, и.о. директора по анализу данных в СберМаркете.
🟡 ML-персонализация для карьерной платформы: о продукте, что для него делали, какие проблемы были и как их решали // Петр Чуйков, DS Team Lead, HeadHunter.
🟡 Кросс-категорийные рекомендации в Авито: зачем они нужны, как добавляли и что из этого вышло // Михаил Каменщиков, Recommendations Unit Lead Авито.
🟡 Персональный тарифный план для новой базы: key learnings после запусков пилотов, как и почему реальность разошлась с ожиданиями и что с этим делаем // Дарья Шатько, Data Science Teamlead Мегафон BigData.
После каждого доклада дарим подарки за лучший вопрос 🎁
Регистрируйся по ссылке и до встречи на митапе!
Большой DS-митап о персонализации от СберМаркет Tech🔥
Встречаемся на Data Science Meetup 5 июля в 19:00 в московском офисе СберМаркета или на онлайн-трансляции.
В программе:
🟡 Как мы делали проект по персональному ML-ранжированию каталога и почему из этого ничего не получилось, а потом внезапно каааааак получилось // Антонина Горячева, и.о. директора по анализу данных в СберМаркете.
🟡 ML-персонализация для карьерной платформы: о продукте, что для него делали, какие проблемы были и как их решали // Петр Чуйков, DS Team Lead, HeadHunter.
🟡 Кросс-категорийные рекомендации в Авито: зачем они нужны, как добавляли и что из этого вышло // Михаил Каменщиков, Recommendations Unit Lead Авито.
🟡 Персональный тарифный план для новой базы: key learnings после запусков пилотов, как и почему реальность разошлась с ожиданиями и что с этим делаем // Дарья Шатько, Data Science Teamlead Мегафон BigData.
После каждого доклада дарим подарки за лучший вопрос 🎁
Регистрируйся по ссылке и до встречи на митапе!
sbermarket.timepad.ru
Data Science Meetup про персонализацию: успехи и факапы | SberMarket Tech / События на TimePad.ru
Data Science — митап про успехи и факапы в персонализации.
Project-менеджмент в DS, техника и влияние на бизнес. Все самое важное в одном митапе.
Project-менеджмент в DS, техника и влияние на бизнес. Все самое важное в одном митапе.
🔥8👍2❤🔥1
Forwarded from Yandex for Developers
Пока вы наслаждаетесь тёплым летом, мы готовим для вас большую конференцию по прикладному Machine Learning — чтобы обсудить все изменения, которые постоянно происходят в ML-отрасли, и то, как их можно внедрить в свои проекты.
7 сентября вас ждут 500 экспертов, 8 профильных направлений и опытные ML-инженеры, которые меняют сферу уже сейчас. Поговорим о ключевых вопросах индустрии: генеративных моделях, Research, NLP, Hardware, CV, RecSys, MLOps и Ecomm.
Если вы хотите прочитать доклад о прикладном ML, то заполняйте форму до 17 июля. А если нет — save the date и ждите новые подробности: скоро мы начнём рассказывать о программе Practical ML Conf 2023.
До встречи 7 сентября на Practical ML Conf в Москве или онлайн!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥5❤2
Я терпел, но уже сутки прошли, а никто не написал.
Вышла Mistral 7B (The best 7B model to date, Apache 2.0)
https://mistral.ai/news/announcing-mistral-7b/
Вышла Mistral 7B (The best 7B model to date, Apache 2.0)
https://mistral.ai/news/announcing-mistral-7b/
mistral.ai
Mistral 7B | Mistral AI
The best 7B model to date, Apache 2.0
🔥11👻2
Привет,
Если у меня есть ребята из Санкт-Петербурга, приходите в понедельник 😉
Но не забудьте сегодня зарегистрироваться
https://events.yandex.ru/events/data-dojo-09-10-spb
Если у меня есть ребята из Санкт-Петербурга, приходите в понедельник 😉
Но не забудьте сегодня зарегистрироваться
https://events.yandex.ru/events/data-dojo-09-10-spb
Data Dojo 09.10
Data Dojo - осенняя ML тренировка, в этот раз в Санкт-Петербурге!
❤8
This media is not supported in your browser
VIEW IN TELEGRAM
Смерть EDA Kernel-ов на Kaggle => spotlight
Ладно, юмор и кликбейт.
Но интересный наворот поверх пандаса для недавно прибывших в ml и аналитику на python.
Библиотека для интерактивного исследования структурированного и НЕСТРУКТУРИРОВАННОГО датафрейма
Ладно, юмор и кликбейт.
Но интересный наворот поверх пандаса для недавно прибывших в ml и аналитику на python.
Библиотека для интерактивного исследования структурированного и НЕСТРУКТУРИРОВАННОГО датафрейма
> spotlight.show(df)
👍11🔥6❤2🎉1
Вот вам вечернее залипалово:
Роботы, оптимизация, лабиринты, соревнования
The Fastest Maze-Solving Competition
(ru-перевод) Микромышиные бега — самая быстрая гонка по лабиринту
Роботы, оптимизация, лабиринты, соревнования
The Fastest Maze-Solving Competition
(ru-перевод) Микромышиные бега — самая быстрая гонка по лабиринту
YouTube
The Fastest Maze-Solving Competition On Earth
Welcome to Micromouse, the fastest maze-solving competition on Earth. Join Onshape’s community of over 3 million CAD users by creating a free account here: https://Onshape.pro/Veritasium.
Special thanks to our Patreon supporters! Join this community to help…
Special thanks to our Patreon supporters! Join this community to help…
👍4🔥3🌭2
Делаем первый МЛ митап в Белграде
Буду рад вашему фидбеку, просмотрам и лайкам трансляции.
🔹 19:00 — Алексей Березникер, руководитель команды генерации рекламы в Яндексе: расскажет про нейросетевую генерацию ecom-объявлений
🔹 19:40 — Федор Лебедь, разработчик отдела NLP группы YandexGPT Alignment из Яндекс Поиска: расскажет про генеративные модели и методы обучения с подкреплением
🔹 20:40 — Максим Мачула, руководитель службы качества контента в Поиске по Товарам: расскажет, как мы группируем предложения магазинов в карточки товаров и при чём тут HNSW и CatBoost
онлайн тут
Буду рад вашему фидбеку, просмотрам и лайкам трансляции.
🔹 19:00 — Алексей Березникер, руководитель команды генерации рекламы в Яндексе: расскажет про нейросетевую генерацию ecom-объявлений
🔹 19:40 — Федор Лебедь, разработчик отдела NLP группы YandexGPT Alignment из Яндекс Поиска: расскажет про генеративные модели и методы обучения с подкреплением
🔹 20:40 — Максим Мачула, руководитель службы качества контента в Поиске по Товарам: расскажет, как мы группируем предложения магазинов в карточки товаров и при чём тут HNSW и CatBoost
онлайн тут
YouTube
ML Party Белград — 25 октября 2023
Добро пожаловать на вечерний митап для ML-инженеров от Яндекса. В этот раз поговорим про прикладной проект на стыке технологий машинного обучения и ecom-продукта, обсудим этапы задачи матчинга предложений на товары и потери на разных стадиях, а также рассмотрим…
👍11🔥8❤6😁1
#events
Сегодня мы соберемся на митап
Подключайтесь онлайн
Трансляция начнётся в 18:30 вот здесь
- Автогенерация рекламных баннеров на Яндекс Маркете
- Нейросетевое ранжирование для рекомендательных систем
- Направленное шумоподавление в Алисе и как используются несколько микрофонов
- Подмешивания дополнительных элементов в поиске в борьбе за счастье пользователя
подробнее про программу тут
Но можно сразу залетать на трансляцию
see you)
Сегодня мы соберемся на митап
Подключайтесь онлайн
Трансляция начнётся в 18:30 вот здесь
- Автогенерация рекламных баннеров на Яндекс Маркете
- Нейросетевое ранжирование для рекомендательных систем
- Направленное шумоподавление в Алисе и как используются несколько микрофонов
- Подмешивания дополнительных элементов в поиске в борьбе за счастье пользователя
подробнее про программу тут
Но можно сразу залетать на трансляцию
see you)
YouTube
ML Party Москва — 14 марта 2024
Добро пожаловать на вечерний митап для ML-инженеров от Яндекса. Встречаемся сообществом экспертов в области машинного обучения, чтобы обсудить тренды, новые подходы, решения и вызовы индустрии.
Программа
0:00 Начало
7:13 Александр Воронцов, Руководитель…
Программа
0:00 Начало
7:13 Александр Воронцов, Руководитель…
🔥4❤3👀2
#article
За такие статьи все еще можно читать хабр
Оч советую лайкнуть, почитать или добавить в закладки
Введение в современную квантизацию
https://habr.com/ru/companies/yandex/articles/800945/
За такие статьи все еще можно читать хабр
Оч советую лайкнуть, почитать или добавить в закладки
Введение в современную квантизацию
https://habr.com/ru/companies/yandex/articles/800945/
🔥10❤3👍2👏1🎉1
Forwarded from gonzo-обзоры ML статей
Новый AI Index Report 2024 опубликован!
Сайт: https://aiindex.stanford.edu/report/
PDF: https://aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf
Сайт: https://aiindex.stanford.edu/report/
PDF: https://aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf
🔥8🍾1
Бронируйте дату в календаре, и го слушать, общаться, обниматься
https://habr.com/ru/companies/yandex/posts/813905/
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Пост @couatl — Блог компании Яндекс — 13.05 10:55
Привет! 14 сентября мы вновь проведём Practical ML Conf — ежегодную конференцию Яндекса, посвящённую практическим аспектам применения ML-технологий. Сегодня мы открыли приём заявок для тех, кто хотел...
🔥8👻5❤2🎉2👍1
🔥 Друзья, встречайте новый телеграм-канал от нашей NLP команды — @stuffyNLP
Подпишитесь обязательно, но а тут я поделюсь с вами историей создания.
В Яндексе есть давняя традиция внутренних семинаров. Например на NLP-семинаре каждую неделю разбирают интересные статьи по, неожиданно, NLP. Мы решили, что эти знания не должны оставаться внутри компании. Поэтому убрали NDA из этих обзоров и теперь делимся ими в коротких постах.
Почему "Душный NLP"? Ребята не просто пересказывают статьи, а анализируют их с позиции своего опыта, хвалят и ругают.
Обещаем, душноты будет больше. Подписывайтесь и советуйте друзьям @stuffyNLP
Подпишитесь обязательно, но а тут я поделюсь с вами историей создания.
В Яндексе есть давняя традиция внутренних семинаров. Например на NLP-семинаре каждую неделю разбирают интересные статьи по, неожиданно, NLP. Мы решили, что эти знания не должны оставаться внутри компании. Поэтому убрали NDA из этих обзоров и теперь делимся ими в коротких постах.
Почему "Душный NLP"? Ребята не просто пересказывают статьи, а анализируют их с позиции своего опыта, хвалят и ругают.
Обещаем, душноты будет больше. Подписывайтесь и советуйте друзьям @stuffyNLP
👍8🔥6🥴1
Forwarded from Душный NLP
Ускорить обучение LLM 70B на 25%? Легко! YaFSDP
Сегодня мы выĸладываем в опенсорс наш новый инструмент — библиотеку YaFSDP. Она значительно ускоряет обучение больших языковых моделей — как собственной разработки, так и сторонних, с открытым исходным кодом.
Библиотека даёт ускорение до 25% — результат зависит от архитектуры и параметров нейросети. С помощью YaFSDP также можно расходовать до 20% меньше ресурсов графических процессоров (GPU), которые требуются для обучения.
Несколько подходов нашего метода:
— выделить два буфера под все собираемые веса, чтобы не отдавать их на отĸуп аллоĸатору памяти torch. Каждый нечётный слой будет использовать первый буфер, ĸаждый чётный — второй. Это уменьшит нагрузку на память и сделает её использование более предсказуемым;
— не делать чеĸпоинт аĸтиваций для ĸаĸ можно большего числа слоёв. Это позволит убрать избыточные вычисления за счёт сэкономленной памяти;
— выделить два стрима: вычислений и ĸоммуниĸаций, а синхронизацию построить таким образом, чтобы forward не начинался до завершения all_gather того же слоя, а all_gather не начинался до освобождения соответствующего буффера на предыдущем слое;
— разово собирать RMSNorm/LayerNorm в начале итерации и тольĸо в ĸонце усреднить градиенты;
— вынести predivide в самый ĸонец backward, таĸ ĸаĸ при reduce_scatter в bf16 или fp32 рисĸа переполнения нет.
Более подробно про проблемы обучения на множестве GPU можно почитать на Хабре. Приходите в репозиторий библиотеки YaFSDP, ставьте лайк и приносите вопросы в Issues. А ещё — делитесь своими впечатлениями здесь в комментариях.
Душный NLP
Сегодня мы выĸладываем в опенсорс наш новый инструмент — библиотеку YaFSDP. Она значительно ускоряет обучение больших языковых моделей — как собственной разработки, так и сторонних, с открытым исходным кодом.
Библиотека даёт ускорение до 25% — результат зависит от архитектуры и параметров нейросети. С помощью YaFSDP также можно расходовать до 20% меньше ресурсов графических процессоров (GPU), которые требуются для обучения.
Несколько подходов нашего метода:
— выделить два буфера под все собираемые веса, чтобы не отдавать их на отĸуп аллоĸатору памяти torch. Каждый нечётный слой будет использовать первый буфер, ĸаждый чётный — второй. Это уменьшит нагрузку на память и сделает её использование более предсказуемым;
— не делать чеĸпоинт аĸтиваций для ĸаĸ можно большего числа слоёв. Это позволит убрать избыточные вычисления за счёт сэкономленной памяти;
— выделить два стрима: вычислений и ĸоммуниĸаций, а синхронизацию построить таким образом, чтобы forward не начинался до завершения all_gather того же слоя, а all_gather не начинался до освобождения соответствующего буффера на предыдущем слое;
— разово собирать RMSNorm/LayerNorm в начале итерации и тольĸо в ĸонце усреднить градиенты;
— вынести predivide в самый ĸонец backward, таĸ ĸаĸ при reduce_scatter в bf16 или fp32 рисĸа переполнения нет.
Более подробно про проблемы обучения на множестве GPU можно почитать на Хабре. Приходите в репозиторий библиотеки YaFSDP, ставьте лайк и приносите вопросы в Issues. А ещё — делитесь своими впечатлениями здесь в комментариях.
Душный NLP
🔥9❤5