DeepSchool
10.3K subscribers
77 photos
1 video
1 file
432 links
Это канал школы deepschool.ru. Здесь мы будем:
- напоминать вам теорию ML/DL в виде коротких постов,
- задавать вопросы с собеседований,
- рассказывать про полезные фреймворки
- и делиться советами, которые помогут вам в работе.

@deepschool_support
Download Telegram
Новости по ускорению нейросетей

Наша команда готовит новый поток курса Ускорение нейросетей.
Мы обновили программу, и теперь вы сможете выбрать то, что вам наиболее актуально (даже NLP🤫).

Ещё у нас на подходе ряд статей, например, в конце недели расскажем про методы ускорения LLM

А сейчас можете прочесть статьи, которые мы писали ранее:

1. Основные подходы и методы ускорения — читать
2. Советы по ускорению, которые упростят ваше погружение в тему — читать
3. Как ускоряют сети для автономных устройств — читать
4. На что обратить внимание при оптимизации инференса — читать
5. Ускорение в задаче Speech2Text на примере Whisper от OpenAI — читать

⚡️Если хотите разобраться в теории и на практике научиться оптимизировать инференс, то приходите на наш курс.
До 12 июля вы можете присоединиться к обучению со скидкой 29%.
Для этого переходите на сайт и записывайтесь в лист ожидания. Мы свяжемся с вами, представим программу и подарим скидку на обучение.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2476🤩2🤯1
Лекция по быстрым механизмам внимания в это воскресенье

Главное препятствие на пути к быстрым трансформерам — квадратичный attention. В базовом варианте трансформеры довольно прожорливые как по времени, так и по памяти. Поэтому инженеры ищут способы ускорить attention. О некоторых из них мы расскажем на лекции в воскресенье.

Обсудим быстрые механизмы внимания с точки зрения простых инженерных решений.
Без математики тоже не обойдётся, но объясним всё простым языком и ответим на все вопросы, которые возникнут.

Лекцию проведёт Саша Гончаренко:
- CTO стартапа по ускорению моделей enot.ai
- автор статей, в том числе про low-power/precision вычисления
- спикер конференций (NAS, трансформеры, инференс на смартфоне)
- хэдлайнер нашего курса по ускорению

Саша расскажет про:
- Group Query Attention — сделаем KV-кеш поменьше.
- Pattern Attention — простой способ сократить вычисления с помощью паттерна
- Linear Attention — ряд Тейлора is all you need

🗓Приходите 7 июля в 14:00 МСК!

Ссылку на трансляцию выложим в воскресенье.
Ставьте реакции, кто придёт 🔥

Пишите в комментариях свои вопросы — постараемся ответить на лекции!
До встречи в эфире!⚡️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥75👍157❤‍🔥1
DeepSchool
Лекция по быстрым механизмам внимания в это воскресенье Главное препятствие на пути к быстрым трансформерам — квадратичный attention. В базовом варианте трансформеры довольно прожорливые как по времени, так и по памяти. Поэтому инженеры ищут способы ускорить…
Через 2 часа встречаемся на лекции по быстрым механизмам внимания

Саша Гончаренко расскажет про Group Query Attention, Pattern Attention и Linear Attention.

Начинаем в 14:00 МСК⚡️
Присоединяйтесь к трансляции на YouTube по ссылке

А пока переходите на наш канал и подписывайтесь🎞
Там мы разбираем темы из разных областей ML, выкладываем интервью с инженерами и другие рубрики от нашей школы!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥257👍6❤‍🔥11🤩1😍1🐳1🍾11
Media is too big
VIEW IN TELEGRAM
В фрагменте лекции из прошлого потока CVRocket Андрей Шадриков рассказал про фишки ClearML для трекинга экспериментов.

А уже сегодня пройдёт первая лекция 8-го потока, где Андрей объяснит, как навести порядок в экспериментах, чтобы:
- конфигурировать эксперименты
- легко передавать репозиторий коллегам
- версионировать модели и данные
- быстро сравнивать эксперименты

Вы ещё успеваете присоединиться к этому потоку и освоить полный цикл решения CV-задач!
Переходите на сайт, запрыгивайте в последний вагон и становитесь частью комьюнити опытных инженеров🚀
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥229👍5
Введение в квантование LLM

Инференс современных LLM на потребительских видеокартах невозможен без квантования. В новой статье мы обсудим два основных метода квантования, которые можно считать надёжными базовыми подходами.

В статье рассказали:
- как 1% весов могут испортить всё
- почему обычное округление — не лучший вариант
- зачем нужны случайные ортогональные матрицы в квантовании

Читайте по ссылке!

И подписывайтесь на DeepSchool
31🔥137
RT-DETR

В 2020 году DETR совершил мини-революцию в Computer Vision и показал, как использовать трансформеры в сложных задачах, например, при детекции объектов. Авторы изменили классический пайплайн CNN-детекции, сделав его более прямолинейным: без анкоров и NMS. Но это решение не имело широкого применения из-за довольно ощутимых недостатков. Исправить их вызвалась команда исследователей из Baidu, и уже в 2023 году вышел в свет детектор RT-DETR 🙂

В новой статье мы рассмотрим:
- основные недостатки DETR
- возможности его ускорения без значительного снижения точности
- совмещение достоинств SOTA real-time детекторов семейства YOLO и оригинального DETR

Читайте нашу статью по ссылке: https://deepschool-pro.notion.site/RT-DETR-f64ed4a11532418fbbfe12cc7fa2bf56?pvs=4
🔥3113👍8
«PyTorch is all you need»?

Чаще всего для обучения нейросетей применяются видеокарты от Nvidia — они поддерживают технологию CUDA. Но появляется следующее поколение видеокарт, и растут требования к вычислительным ресурсам, поэтому старые карты начинают использоваться для инференса. Но если не задумываться об эффективном запуске обученной модели, мощности таких карт скоро может не хватить.

В этой статье мы:
- рассмотрим альтернативы PyTorch для инференса моделей, которые имеют дело с production
- поймём, как выжать максимум производительности даже из старых видеокарт
- обсудим тонкости и неочевидные моменты фреймворка TensorRT

Читайте новую статью по ссылке: https://deepschool-pro.notion.site/Is-PyTorch-all-you-need-cc869aa5076641e087172f1a579cd0b6?pvs=74
🔥34👍1174🤔1
Ускорение нейросетей на практике

Ускорение — важный навык в DL-индустрии:
- растёт потребность инференса нейросетей на смартфонах и edge-устройствах
- DL-сервисов становится больше
- растёт и нагрузка на эти сервисы
- всё чаще приходится работать с LLM, которые довольно требовательны к ресурсам
- и в целом, чем быстрее ваши модели, тем лучше и вам, и вашим пользователям

Мы подготовили лекцию по ускорению сетей, чтобы вы узнали, какие методы ускорения существуют и смогли задать свои вопросы.

🗓 18 июля, четверг, 18:00 МСК.

Саша Гончаренко, СТО стартапа enot.ai, проведёт онлайн-лекцию, на которой:
— применит прунинг, квантование и дистилляцию для ускорения нейросети
— подробно объяснит каждый метод
— рассмотрит возникающие сложности и способы их решения
— объяснит, почему различается результат на разных вычислителях🤔
— расскажет о вызовах в ускорении LLM
— и представит обновлённую программу курса «Ускорение нейросетей»

Регистрируйтесь на лекцию по ссылке!

🎁После регистрации вы получите туториал по использованию TensorRT и OpenVino.

До встречи 18 июля в 18:00 МСК!⚡️
Please open Telegram to view this post
VIEW IN TELEGRAM
15🔥119👍2
DeepSchool
Ускорение нейросетей на практике Ускорение — важный навык в DL-индустрии: - растёт потребность инференса нейросетей на смартфонах и edge-устройствах - DL-сервисов становится больше - растёт и нагрузка на эти сервисы - всё чаще приходится работать с LLM,…
⚡️Через 3 часа начинаем

Вы ещё успеваете зарегистрироваться!

1️⃣ применим прунинг, квантование и дистилляцию для ускорения нейросети
2️⃣ объясним каждый метод
3️⃣ рассмотрим возникающие сложности и способы их решения
4️⃣ объясним, почему различается результат на разных вычислителях
5️⃣ расскажем о вызовах в ускорении LLM

И представим обновлённую программу курса «Ускорение нейросетей»!

Присоединяйтесь к лекции!
Please open Telegram to view this post
VIEW IN TELEGRAM
115👍4😁2🔥1
Научитесь оптимизировать инференс нейросетей

Если вы сталкивались с задачей ускорения нейросетей, но всё не могли найти время разобраться поглубже во всех этих квантованиях, прунингах, дистилляции, TensorRT, OpenVINO и прочих баззвордах, приходите на наш курс «Ускорение нейросетей»!
Мы объясним, как устроены эти алгоритмы и фреймворки и научим использовать их в работе.

Программа курса разделена на 3 блока:
1️⃣ База — вы освоите подходы, которые являются общими для большинства задач. Это база! Разберетесь с алгоритмами: прунингом, дистилляцией, квантованием, матричными разложениями, архитектурным поиском — и устройством девайсов: CPU, GPU, NPU — и фреймворками для каждого.

2️⃣ NLP — блок для тех, кто работает с LLM. Вы изучите популярные и рабочие методы для ускорения небольших и крупных языковых моделей.

3️⃣Devices — научитесь запускать нейросети на Android, iOS и микрокомпьютерах с учетом их особенностей.

Вы можете изучить только Базу, а при желании можете углубиться в определенный домен — можно выбрать любой подходящий вариант🧩

🗓 Обучение начинается 24 июля и длится 19 недель.

Лекции ведут опытные инженеры, каждый из которых несколько лет занимается той темой, которую преподаёт на курсе.
Спикеры будут поддерживать вас на протяжении всего обучения, а также вы сможете прийти к ним с вопросами по вашей работы.

⚡️Присоединяйтесь к обучению со скидкой до 23 июля!

Подробнее о программе, спикерах, тарифах и скидках читайте на сайте программы.
Выбирайте подходящий тариф и присоединяйтесь к обучению!🎓

Если у вас возникают вопросы или трудности, то пишите нам в поддержку в Телеграм.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥117👍42
InstaFlow

Диффузионные модели сегодня — популярный инструмент генерации. У них отличное качество и высокая вариативность, однако они имеют серьёзный недостаток — скорость работы.

В этом посте мы познакомимся с работой InstaFlow и узнаем, как с помощью ректифицированных потоков и дистилляции из предобученной диффузионной text2image модели получить качественный генератор за несколько шагов. А также обсудим:
- диффузию и её связь со стохастическими дифференциальными уравнениями
- основную идею flow matching и rectified flow
- и, конечно, модель InstaFlow

Читайте новую статью по ссылке: https://deepschool-pro.notion.site/InstaFlow-50942b7dcc5448bab4c47870228afc82?pvs=4
🔥2911👍7
11👍6🔥4
Почти на каждом собеседовании спрашивают про ускорение нейросетей

Этим делятся выпускники первого потока курса «Ускорение нейросетей».
Например, Иван рассказывает, что знания с курса помогают на интервью, где часто задают вопросы про библиотеки для инференса, потенциал методов ускорения и возможные проблемы в подобных задачах.

На эти вопросы как раз отвечает первый блок нашей программы, в котором вы освоите фундамент: алгоритмы ускорения, устройство CPU, GPU, NPU и фреймворки для них.

Знания из курса помогут не только ускорить модели в ваших проектах, но и поднять метрики. Например, Елизавета повысила качество модели, применив знания из лекции по дистилляции.

Также мы подготовили опциональные блоки лекций «NLP» и «Devices» — для тех, кто работает с LLM и тех, кто запускает модели на Android, iOS и микрокомпьютерах. Можно выбрать нужные вам блоки лекций.

Переходите на сайт, изучайте подробности, выбирайте тариф и записывайтесь на обучение!

Завтра пройдёт первая лекция по дистилляции, на которой Саша Гончаренко, хэдлайнер программы, расскажет про метод улучшения точности нейросети и как его использовать для ускорения.
А сегодня вы можете присоединиться со скидкой до 12%🔥

Оставляйте заявку на сайте, чтобы зафиксировать за собой скидку до старта программы.

До встречи на лекциях!⚡️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥157❤‍🔥63🤔1
Подкаст «Под капотом». LLM

Мы приглашаем в подкаст экспертов, чтобы понять, как работают сложные системы изнутри. В этом выпуске мы говорили с Валей Мамедовым, инженером из SberDevices, про LLM.

— из каких этапов состоит тренировка LLM и много ли нужно знать инженеру, который их тренирует
— за счёт чего модель, которую тренировали на куче видеокарт, в итоге можно запустить на обычном ноутбуке
— огромный контекст vs RAG
— как оценивать качество LLM
— open source vs. коммерческие модели
— чем процесс вывода в прод LLM отличается от «обычных» ML-процессов

Смотрите выпуск по ссылке!
https://youtu.be/fy1-ffagRe0
25🔥18👍12
Всем привет✌️
Это канал школы DeepSchool. Мы преподаём курсы повышения квалификации DL-инженеров и ведём этот блог

В этом канале мы:
- делаем обзоры статей
- рассказываем, как решаются различные DL-задачи
- напоминаем теорию ML/DL
- и общаемся со специалистами из индустрии

Наши программы:
- LLM — как обучать, деплоить и ускорять LLM
- LLM Pro — как проектировать и запускать сложные NLP-системы
- Деплой DL-сервисов — как создавать и деплоить DL-сервисы
- CV Rocket — как решать сложные задачи в Computer Vision
- Ускорение нейросетей — как ускорять нейросети для различных устройств
- 3D CV — как решать 3D-задачи от SLAM до виртуальных аватаров
- Gen CV — как обучать генеративные модели

Все наши статьи можно найти в нашем блоге, а видео — на YouTube-канале. Также у нас есть канал, где инженеры из deepschool рассказывают о себе.

С нами можно связаться:
- задать любой вопрос
- присоединиться к нашей команде
- или предложить тему для поста

Рады знакомству ✌️
Ставьте реакции и пишите комментарии! 🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
13🔥13👏55👍4🥰1
☝️Обновили пост «о нас», за два года многое изменилось🙂

Кстати, а в этом посте мы описали историю создания DeepSchool — загляните, если интересно.

Мы рассказали о себе, но также нам интересно узнать поближе и вас! Ответьте, пожалуйста, на опрос ниже👇 Он поможет нам узнать примерное распределение подписчиков по доменам около ML/DL.

А если поделитесь, какие решаете задачи — будет просто супер🤩 Постараемся помочь нашими статьями! Напишите в комментариях к этому посту! Вдруг в комментариях встретите коллег по теме — такие знакомства всегда полезны.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍6🐳51