DeepSchool
10.3K subscribers
77 photos
1 video
1 file
432 links
Это канал школы deepschool.ru. Здесь мы будем:
- напоминать вам теорию ML/DL в виде коротких постов,
- задавать вопросы с собеседований,
- рассказывать про полезные фреймворки
- и делиться советами, которые помогут вам в работе.

@deepschool_support
Download Telegram
RT-DETR

В 2020 году DETR совершил мини-революцию в Computer Vision и показал, как использовать трансформеры в сложных задачах, например, при детекции объектов. Авторы изменили классический пайплайн CNN-детекции, сделав его более прямолинейным: без анкоров и NMS. Но это решение не имело широкого применения из-за довольно ощутимых недостатков. Исправить их вызвалась команда исследователей из Baidu, и уже в 2023 году вышел в свет детектор RT-DETR 🙂

В новой статье мы рассмотрим:
- основные недостатки DETR
- возможности его ускорения без значительного снижения точности
- совмещение достоинств SOTA real-time детекторов семейства YOLO и оригинального DETR

Читайте нашу статью по ссылке: https://deepschool-pro.notion.site/RT-DETR-f64ed4a11532418fbbfe12cc7fa2bf56?pvs=4
🔥3113👍8
«PyTorch is all you need»?

Чаще всего для обучения нейросетей применяются видеокарты от Nvidia — они поддерживают технологию CUDA. Но появляется следующее поколение видеокарт, и растут требования к вычислительным ресурсам, поэтому старые карты начинают использоваться для инференса. Но если не задумываться об эффективном запуске обученной модели, мощности таких карт скоро может не хватить.

В этой статье мы:
- рассмотрим альтернативы PyTorch для инференса моделей, которые имеют дело с production
- поймём, как выжать максимум производительности даже из старых видеокарт
- обсудим тонкости и неочевидные моменты фреймворка TensorRT

Читайте новую статью по ссылке: https://deepschool-pro.notion.site/Is-PyTorch-all-you-need-cc869aa5076641e087172f1a579cd0b6?pvs=74
🔥34👍1174🤔1
Ускорение нейросетей на практике

Ускорение — важный навык в DL-индустрии:
- растёт потребность инференса нейросетей на смартфонах и edge-устройствах
- DL-сервисов становится больше
- растёт и нагрузка на эти сервисы
- всё чаще приходится работать с LLM, которые довольно требовательны к ресурсам
- и в целом, чем быстрее ваши модели, тем лучше и вам, и вашим пользователям

Мы подготовили лекцию по ускорению сетей, чтобы вы узнали, какие методы ускорения существуют и смогли задать свои вопросы.

🗓 18 июля, четверг, 18:00 МСК.

Саша Гончаренко, СТО стартапа enot.ai, проведёт онлайн-лекцию, на которой:
— применит прунинг, квантование и дистилляцию для ускорения нейросети
— подробно объяснит каждый метод
— рассмотрит возникающие сложности и способы их решения
— объяснит, почему различается результат на разных вычислителях🤔
— расскажет о вызовах в ускорении LLM
— и представит обновлённую программу курса «Ускорение нейросетей»

Регистрируйтесь на лекцию по ссылке!

🎁После регистрации вы получите туториал по использованию TensorRT и OpenVino.

До встречи 18 июля в 18:00 МСК!⚡️
Please open Telegram to view this post
VIEW IN TELEGRAM
15🔥119👍2
DeepSchool
Ускорение нейросетей на практике Ускорение — важный навык в DL-индустрии: - растёт потребность инференса нейросетей на смартфонах и edge-устройствах - DL-сервисов становится больше - растёт и нагрузка на эти сервисы - всё чаще приходится работать с LLM,…
⚡️Через 3 часа начинаем

Вы ещё успеваете зарегистрироваться!

1️⃣ применим прунинг, квантование и дистилляцию для ускорения нейросети
2️⃣ объясним каждый метод
3️⃣ рассмотрим возникающие сложности и способы их решения
4️⃣ объясним, почему различается результат на разных вычислителях
5️⃣ расскажем о вызовах в ускорении LLM

И представим обновлённую программу курса «Ускорение нейросетей»!

Присоединяйтесь к лекции!
Please open Telegram to view this post
VIEW IN TELEGRAM
115👍4😁2🔥1
Научитесь оптимизировать инференс нейросетей

Если вы сталкивались с задачей ускорения нейросетей, но всё не могли найти время разобраться поглубже во всех этих квантованиях, прунингах, дистилляции, TensorRT, OpenVINO и прочих баззвордах, приходите на наш курс «Ускорение нейросетей»!
Мы объясним, как устроены эти алгоритмы и фреймворки и научим использовать их в работе.

Программа курса разделена на 3 блока:
1️⃣ База — вы освоите подходы, которые являются общими для большинства задач. Это база! Разберетесь с алгоритмами: прунингом, дистилляцией, квантованием, матричными разложениями, архитектурным поиском — и устройством девайсов: CPU, GPU, NPU — и фреймворками для каждого.

2️⃣ NLP — блок для тех, кто работает с LLM. Вы изучите популярные и рабочие методы для ускорения небольших и крупных языковых моделей.

3️⃣Devices — научитесь запускать нейросети на Android, iOS и микрокомпьютерах с учетом их особенностей.

Вы можете изучить только Базу, а при желании можете углубиться в определенный домен — можно выбрать любой подходящий вариант🧩

🗓 Обучение начинается 24 июля и длится 19 недель.

Лекции ведут опытные инженеры, каждый из которых несколько лет занимается той темой, которую преподаёт на курсе.
Спикеры будут поддерживать вас на протяжении всего обучения, а также вы сможете прийти к ним с вопросами по вашей работы.

⚡️Присоединяйтесь к обучению со скидкой до 23 июля!

Подробнее о программе, спикерах, тарифах и скидках читайте на сайте программы.
Выбирайте подходящий тариф и присоединяйтесь к обучению!🎓

Если у вас возникают вопросы или трудности, то пишите нам в поддержку в Телеграм.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥117👍42
InstaFlow

Диффузионные модели сегодня — популярный инструмент генерации. У них отличное качество и высокая вариативность, однако они имеют серьёзный недостаток — скорость работы.

В этом посте мы познакомимся с работой InstaFlow и узнаем, как с помощью ректифицированных потоков и дистилляции из предобученной диффузионной text2image модели получить качественный генератор за несколько шагов. А также обсудим:
- диффузию и её связь со стохастическими дифференциальными уравнениями
- основную идею flow matching и rectified flow
- и, конечно, модель InstaFlow

Читайте новую статью по ссылке: https://deepschool-pro.notion.site/InstaFlow-50942b7dcc5448bab4c47870228afc82?pvs=4
🔥2911👍7
11👍6🔥4
Почти на каждом собеседовании спрашивают про ускорение нейросетей

Этим делятся выпускники первого потока курса «Ускорение нейросетей».
Например, Иван рассказывает, что знания с курса помогают на интервью, где часто задают вопросы про библиотеки для инференса, потенциал методов ускорения и возможные проблемы в подобных задачах.

На эти вопросы как раз отвечает первый блок нашей программы, в котором вы освоите фундамент: алгоритмы ускорения, устройство CPU, GPU, NPU и фреймворки для них.

Знания из курса помогут не только ускорить модели в ваших проектах, но и поднять метрики. Например, Елизавета повысила качество модели, применив знания из лекции по дистилляции.

Также мы подготовили опциональные блоки лекций «NLP» и «Devices» — для тех, кто работает с LLM и тех, кто запускает модели на Android, iOS и микрокомпьютерах. Можно выбрать нужные вам блоки лекций.

Переходите на сайт, изучайте подробности, выбирайте тариф и записывайтесь на обучение!

Завтра пройдёт первая лекция по дистилляции, на которой Саша Гончаренко, хэдлайнер программы, расскажет про метод улучшения точности нейросети и как его использовать для ускорения.
А сегодня вы можете присоединиться со скидкой до 12%🔥

Оставляйте заявку на сайте, чтобы зафиксировать за собой скидку до старта программы.

До встречи на лекциях!⚡️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥157❤‍🔥63🤔1
Подкаст «Под капотом». LLM

Мы приглашаем в подкаст экспертов, чтобы понять, как работают сложные системы изнутри. В этом выпуске мы говорили с Валей Мамедовым, инженером из SberDevices, про LLM.

— из каких этапов состоит тренировка LLM и много ли нужно знать инженеру, который их тренирует
— за счёт чего модель, которую тренировали на куче видеокарт, в итоге можно запустить на обычном ноутбуке
— огромный контекст vs RAG
— как оценивать качество LLM
— open source vs. коммерческие модели
— чем процесс вывода в прод LLM отличается от «обычных» ML-процессов

Смотрите выпуск по ссылке!
https://youtu.be/fy1-ffagRe0
25🔥18👍12
Всем привет✌️
Это канал школы DeepSchool. Мы преподаём курсы повышения квалификации DL-инженеров и ведём этот блог

В этом канале мы:
- делаем обзоры статей
- рассказываем, как решаются различные DL-задачи
- напоминаем теорию ML/DL
- и общаемся со специалистами из индустрии

Наши программы:
- LLM — как обучать, деплоить и ускорять LLM
- LLM Pro — как проектировать и запускать сложные NLP-системы
- Деплой DL-сервисов — как создавать и деплоить DL-сервисы
- CV Rocket — как решать сложные задачи в Computer Vision
- Ускорение нейросетей — как ускорять нейросети для различных устройств
- 3D CV — как решать 3D-задачи от SLAM до виртуальных аватаров
- Gen CV — как обучать генеративные модели

Все наши статьи можно найти в нашем блоге, а видео — на YouTube-канале. Также у нас есть канал, где инженеры из deepschool рассказывают о себе.

С нами можно связаться:
- задать любой вопрос
- присоединиться к нашей команде
- или предложить тему для поста

Рады знакомству ✌️
Ставьте реакции и пишите комментарии! 🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
13🔥13👏55👍4🥰1
☝️Обновили пост «о нас», за два года многое изменилось🙂

Кстати, а в этом посте мы описали историю создания DeepSchool — загляните, если интересно.

Мы рассказали о себе, но также нам интересно узнать поближе и вас! Ответьте, пожалуйста, на опрос ниже👇 Он поможет нам узнать примерное распределение подписчиков по доменам около ML/DL.

А если поделитесь, какие решаете задачи — будет просто супер🤩 Постараемся помочь нашими статьями! Напишите в комментариях к этому посту! Вдруг в комментариях встретите коллег по теме — такие знакомства всегда полезны.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍6🐳51
DeepSchool pinned «Всем привет✌️ Это канал школы DeepSchool. Мы преподаём курсы повышения квалификации DL-инженеров и ведём этот блог В этом канале мы: - делаем обзоры статей - рассказываем, как решаются различные DL-задачи - напоминаем теорию ML/DL - и общаемся со специалистами…»
Сейчас LLM-баззворды слышно из каждого утюга: RLHF, RLAIF, DPO, KTO, Llama, LLaVa и прочие аббревиатуры и термины — тяжело уследить за тем, что произошло на этой неделе, а догнать индустрию с нуля — тем более.

Если вы проспали бум вокруг LLM и хотите разобраться, что сейчас в них происходит простыми словами, от инженера инженеру, мы подготовили для вас видео!

В нём мы рассказали:
- какие существуют доступные модели и чем они отличаются
- про техники улучшения качества генераций
- как дообучать и использовать LLM в своих проектах
- зачем нужны инференс-фреймворки
- как LLM запускают на обычных ноутбуках
- и многое другое

Смотрите видео на YouTube, ставьте лайки и задавайте вопросы в комментариях!
🔥42❤‍🔥1510
История YOLOv6

Продолжаем знакомиться с семейством архитектур YOLO. Уже в который раз совершается, казалось бы, невозможное — инженеры одновременно повысили и качество, и скорость модели! Давайте разбираться, как они это сделали.

В статье рассмотрим:
- интересную историю появления YOLOv6
- чем она отличается от YOLOv5
- а что у неё общего с VGG
- и главное: как же опять получилось повысить скорость без потери в качестве🤯

Читайте новую статью по ссылке: https://deepschool-pro.notion.site/YOLO-6-159877ef9a524d1fbdfd3ef32ca9be6f?pvs=4
Please open Telegram to view this post
VIEW IN TELEGRAM
25🔥15👍8
Решаем LeetCode

Задачки на алгоритмы любят давать на собеседованиях. А многие инженеры их боятся. Часто можно услышать совет: «чтобы хорошо решать алгоритмы, сиди и нарешивай LeetCode». Но вместе — веселее 😉

В этом видео Игорь Ильин разбирает задачу на модульную арифметику уровня medium. Игорь — Sr. CV-инженер в Kudan SLAM и спикер курса 3D CV. Игорь часто ходит по собеседованиям и любит алгоритмы. Отличное комбо 📈

В выпуске прошли путь от наивного решения, которое работает за O(n^2) до оптимального, которое работает за линию по времени. Обсудили структуры данных и сложность операций над ними, чем плоха рекурсия и когда можно от неё избавиться.

Смотрите видео по ссылке: https://youtu.be/IHqh2JnGrcY
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3214🤩7👍3😁1
Модели Llama 3

Для тренировки LLM с нуля нужны большие вычислительные ресурсы, которые есть только у крупных компаний. Обычно они не рассказывают, как им удаётся обучить очередную модель. Но недавно вышел отчёт о LLAMA3 — на сегодняшний день самый подробный отчёт о тренировке больших языковых моделей. И хотя не всем компаниям доступны аналогичные вычислительные ресурсы, отчёт содержит несколько идей, полезных для многих датасаентистов.

В этой статье мы познакомились с отчётом и рассказали:
- как отбирались данные для модели
- как модель тренировалась
- как делали посттрейнинг

Читайте новую статью по ссылке: https://deepschool-pro.notion.site/Llama-3-786f63f46eb04c3ead43e054350c18f4
30🔥20👍4