Подготовьтесь к собеседованию в безопасной обстановке — мок-интервью для CV-инженеров
Собеседование может быть испытанием даже для опытного инженера. Можно скомканно рассказать про свой опыт, делать акценты не на тех вещах или переволноваться и поплыть на чём-то совсем простом. Может не хватить технических знаний, а может не хватить навыков эти знания «продавать». Поэтому часто на вопрос «как подготовиться к собеседованию?» можно услышать ответ — начать ходить на собеседования😉
Чтобы помочь вам подготовиться к этим вызовам, мы запускаем формат мок-интервью — тренировочные собеседования в комфортной атмосфере, где вы сможете заранее выявить и проработать свои слабые места.
На мок-интервью вы:
🔹потренируетесь в безопасной среде, где не страшно ошибаться
🔹получите развёрнутый фидбек от опытного инженера
🔹узнаете вопросы, которые собеседующий задаёт на настоящих интервью
🔹получите запись и файл с рекомендациями
Приходите на мок-интервью и подготовьтесь к собеседованию в безопасной обстановке!
Переходите на сайт, изучайте подробности и оставляйте заявку. Мы свяжемся с вами, подберём удобное время и уточним ваши пожелания: желаемый грейд, область и тип интервью.
🎉 В честь запуска нового формата мы дарим вам скидку 52% до конца июля.
Собеседование может быть испытанием даже для опытного инженера. Можно скомканно рассказать про свой опыт, делать акценты не на тех вещах или переволноваться и поплыть на чём-то совсем простом. Может не хватить технических знаний, а может не хватить навыков эти знания «продавать». Поэтому часто на вопрос «как подготовиться к собеседованию?» можно услышать ответ — начать ходить на собеседования
Чтобы помочь вам подготовиться к этим вызовам, мы запускаем формат мок-интервью — тренировочные собеседования в комфортной атмосфере, где вы сможете заранее выявить и проработать свои слабые места.
На мок-интервью вы:
🔹потренируетесь в безопасной среде, где не страшно ошибаться
🔹получите развёрнутый фидбек от опытного инженера
🔹узнаете вопросы, которые собеседующий задаёт на настоящих интервью
🔹получите запись и файл с рекомендациями
Приходите на мок-интервью и подготовьтесь к собеседованию в безопасной обстановке!
Переходите на сайт, изучайте подробности и оставляйте заявку. Мы свяжемся с вами, подберём удобное время и уточним ваши пожелания: желаемый грейд, область и тип интервью.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥27❤15🤩8👍1👌1🍾1👻1🤝1
Добавляем контроль к диффузии
Диффузионные модели — мощный инструмент для решения генеративных задач со сложной структурой доменных данных. Большинство таких моделей генерируют или редактируют изображения по текстовому описанию. Но часто для нужного результата одного текста бывает недостаточно. Поэтому сообщество разработало подходы, расширяющие возможности работы моделей с другими видами условий. Более того, часть из них не требует полного переобучения модели с нуля.
В новой статье мы рассмотрим:
- виды дополнительных условий для генерации диффузионных моделей
- способы их добавления в диффузионную модель
- правильную инициализацию весов в их сходимости
Читайте нашу статью по ссылке: https://deepschool-pro.notion.site/4cf54592070c4ab4b5ed673a242267d6?pvs=4
Диффузионные модели — мощный инструмент для решения генеративных задач со сложной структурой доменных данных. Большинство таких моделей генерируют или редактируют изображения по текстовому описанию. Но часто для нужного результата одного текста бывает недостаточно. Поэтому сообщество разработало подходы, расширяющие возможности работы моделей с другими видами условий. Более того, часть из них не требует полного переобучения модели с нуля.
В новой статье мы рассмотрим:
- виды дополнительных условий для генерации диффузионных моделей
- способы их добавления в диффузионную модель
- правильную инициализацию весов в их сходимости
Читайте нашу статью по ссылке: https://deepschool-pro.notion.site/4cf54592070c4ab4b5ed673a242267d6?pvs=4
deepschool-pro on Notion
Добавляем контроль к диффузии | Notion
Автор: Александр Ковальчук
Редактура: Кирам Аль-Харба
Редактура: Кирам Аль-Харба
🔥22❤10 8👍1
Ни за что не версионируйте данные современными инструментами. Можно под каждую версию руками заводить новую папку. У вас быстро закончится место на компьютере и вам купят ещё один. Повышайте свою капитализацию, а не капитализацию компании.
С нами всё в порядке🙃 Мы просто затеяли рубрику «Вредные советы» на YouTube.
Смотрите по ссылке!
С нами всё в порядке
Смотрите по ссылке!
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Используй VGG в 2024 | Вредные советы в Data Science
#computervision #deeplearning #datascience #career
Присоединяйся к курсу CV Rocket со скидкой по промокоду "СОВЕТЫ": https://deepschool.ru/cvrocket?utm_source=yt&utm_content=tips
Литеры и форматтеры для слабых? VGG — это про надёжность? Рассказали о вредных…
Присоединяйся к курсу CV Rocket со скидкой по промокоду "СОВЕТЫ": https://deepschool.ru/cvrocket?utm_source=yt&utm_content=tips
Литеры и форматтеры для слабых? VGG — это про надёжность? Рассказали о вредных…
❤26👻19🔥9
Новости по ускорению нейросетей
Наша команда готовит новый поток курса Ускорение нейросетей.
Мы обновили программу, и теперь вы сможете выбрать то, что вам наиболее актуально (даже NLP🤫).
Ещё у нас на подходе ряд статей, например, в конце недели расскажем про методы ускорения LLM✨
А сейчас можете прочесть статьи, которые мы писали ранее:
1. Основные подходы и методы ускорения — читать
2. Советы по ускорению, которые упростят ваше погружение в тему — читать
3. Как ускоряют сети для автономных устройств — читать
4. На что обратить внимание при оптимизации инференса — читать
5. Ускорение в задаче Speech2Text на примере Whisper от OpenAI — читать
⚡️ Если хотите разобраться в теории и на практике научиться оптимизировать инференс, то приходите на наш курс.
До 12 июля вы можете присоединиться к обучению со скидкой 29%.
Для этого переходите на сайт и записывайтесь в лист ожидания. Мы свяжемся с вами, представим программу и подарим скидку на обучение.
Наша команда готовит новый поток курса Ускорение нейросетей.
Мы обновили программу, и теперь вы сможете выбрать то, что вам наиболее актуально (даже NLP🤫).
Ещё у нас на подходе ряд статей, например, в конце недели расскажем про методы ускорения LLM
А сейчас можете прочесть статьи, которые мы писали ранее:
1. Основные подходы и методы ускорения — читать
2. Советы по ускорению, которые упростят ваше погружение в тему — читать
3. Как ускоряют сети для автономных устройств — читать
4. На что обратить внимание при оптимизации инференса — читать
5. Ускорение в задаче Speech2Text на примере Whisper от OpenAI — читать
До 12 июля вы можете присоединиться к обучению со скидкой 29%.
Для этого переходите на сайт и записывайтесь в лист ожидания. Мы свяжемся с вами, представим программу и подарим скидку на обучение.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥24⚡7❤6🤩2🤯1
Лекция по быстрым механизмам внимания в это воскресенье
Главное препятствие на пути к быстрым трансформерам — квадратичный attention. В базовом варианте трансформеры довольно прожорливые как по времени, так и по памяти. Поэтому инженеры ищут способы ускорить attention. О некоторых из них мы расскажем на лекции в воскресенье.
Обсудим быстрые механизмы внимания с точки зрения простых инженерных решений.
Без математики тоже не обойдётся, но объясним всё простым языком и ответим на все вопросы, которые возникнут.
Лекцию проведёт Саша Гончаренко:
- CTO стартапа по ускорению моделей enot.ai
- автор статей, в том числе про low-power/precision вычисления
- спикер конференций (NAS, трансформеры, инференс на смартфоне)
- хэдлайнер нашего курса по ускорению
Саша расскажет про:
- Group Query Attention — сделаем KV-кеш поменьше.
- Pattern Attention — простой способ сократить вычисления с помощью паттерна
- Linear Attention — ряд Тейлора is all you need
🗓 Приходите 7 июля в 14:00 МСК!
Ссылку на трансляцию выложим в воскресенье.
Ставьте реакции, кто придёт🔥
Пишите в комментариях свои вопросы — постараемся ответить на лекции!
До встречи в эфире!⚡️
Главное препятствие на пути к быстрым трансформерам — квадратичный attention. В базовом варианте трансформеры довольно прожорливые как по времени, так и по памяти. Поэтому инженеры ищут способы ускорить attention. О некоторых из них мы расскажем на лекции в воскресенье.
Обсудим быстрые механизмы внимания с точки зрения простых инженерных решений.
Без математики тоже не обойдётся, но объясним всё простым языком и ответим на все вопросы, которые возникнут.
Лекцию проведёт Саша Гончаренко:
- CTO стартапа по ускорению моделей enot.ai
- автор статей, в том числе про low-power/precision вычисления
- спикер конференций (NAS, трансформеры, инференс на смартфоне)
- хэдлайнер нашего курса по ускорению
Саша расскажет про:
- Group Query Attention — сделаем KV-кеш поменьше.
- Pattern Attention — простой способ сократить вычисления с помощью паттерна
- Linear Attention — ряд Тейлора is all you need
Ссылку на трансляцию выложим в воскресенье.
Ставьте реакции, кто придёт
Пишите в комментариях свои вопросы — постараемся ответить на лекции!
До встречи в эфире!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥75👍15❤7❤🔥1
DeepSchool
Лекция по быстрым механизмам внимания в это воскресенье Главное препятствие на пути к быстрым трансформерам — квадратичный attention. В базовом варианте трансформеры довольно прожорливые как по времени, так и по памяти. Поэтому инженеры ищут способы ускорить…
Через 2 часа встречаемся на лекции по быстрым механизмам внимания
Саша Гончаренко расскажет про Group Query Attention, Pattern Attention и Linear Attention.
Начинаем в 14:00 МСК⚡️
Присоединяйтесь к трансляции на YouTube по ссылке
А пока переходите на наш канал и подписывайтесь🎞
Там мы разбираем темы из разных областей ML, выкладываем интервью с инженерами и другие рубрики от нашей школы!
Саша Гончаренко расскажет про Group Query Attention, Pattern Attention и Linear Attention.
Начинаем в 14:00 МСК
Присоединяйтесь к трансляции на YouTube по ссылке
А пока переходите на наш канал и подписывайтесь
Там мы разбираем темы из разных областей ML, выкладываем интервью с инженерами и другие рубрики от нашей школы!
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Открытая лекция по Efficient Attention
#deeplearning #nlp #llm #ai
Обсудим быстрые механизмы внимания с точки зрения простых инженерных решений.
Без математики тоже не обойдётся, но объясним всё простым языком и ответим на все вопросы, которые возникнут.
Наш курс "Ускорение нейросетей": ht…
Обсудим быстрые механизмы внимания с точки зрения простых инженерных решений.
Без математики тоже не обойдётся, но объясним всё простым языком и ответим на все вопросы, которые возникнут.
Наш курс "Ускорение нейросетей": ht…
🔥25⚡7👍6❤🔥1❤1🤩1😍1🐳1🍾1 1
Мы уже начали, подключайтесь по ссылке!
YouTube
Открытая лекция по Efficient Attention
#deeplearning #nlp #llm #ai
Обсудим быстрые механизмы внимания с точки зрения простых инженерных решений.
Без математики тоже не обойдётся, но объясним всё простым языком и ответим на все вопросы, которые возникнут.
Наш курс "Ускорение нейросетей": ht…
Обсудим быстрые механизмы внимания с точки зрения простых инженерных решений.
Без математики тоже не обойдётся, но объясним всё простым языком и ответим на все вопросы, которые возникнут.
Наш курс "Ускорение нейросетей": ht…
🔥22⚡8👍6❤3
Media is too big
VIEW IN TELEGRAM
В фрагменте лекции из прошлого потока CVRocket Андрей Шадриков рассказал про фишки ClearML для трекинга экспериментов.
А уже сегодня пройдёт первая лекция 8-го потока, где Андрей объяснит, как навести порядок в экспериментах, чтобы:
- конфигурировать эксперименты
- легко передавать репозиторий коллегам
- версионировать модели и данные
- быстро сравнивать эксперименты
Вы ещё успеваете присоединиться к этому потоку и освоить полный цикл решения CV-задач!
Переходите на сайт, запрыгивайте в последний вагон и становитесь частью комьюнити опытных инженеров🚀
А уже сегодня пройдёт первая лекция 8-го потока, где Андрей объяснит, как навести порядок в экспериментах, чтобы:
- конфигурировать эксперименты
- легко передавать репозиторий коллегам
- версионировать модели и данные
- быстро сравнивать эксперименты
Вы ещё успеваете присоединиться к этому потоку и освоить полный цикл решения CV-задач!
Переходите на сайт, запрыгивайте в последний вагон и становитесь частью комьюнити опытных инженеров
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥22❤9👍5
Введение в квантование LLM
Инференс современных LLM на потребительских видеокартах невозможен без квантования. В новой статье мы обсудим два основных метода квантования, которые можно считать надёжными базовыми подходами.
В статье рассказали:
- как 1% весов могут испортить всё
- почему обычное округление — не лучший вариант
- зачем нужны случайные ортогональные матрицы в квантовании
Читайте по ссылке!
И подписывайтесь на DeepSchool
Инференс современных LLM на потребительских видеокартах невозможен без квантования. В новой статье мы обсудим два основных метода квантования, которые можно считать надёжными базовыми подходами.
В статье рассказали:
- как 1% весов могут испортить всё
- почему обычное округление — не лучший вариант
- зачем нужны случайные ортогональные матрицы в квантовании
Читайте по ссылке!
И подписывайтесь на DeepSchool
Telegram
DeepSchool
Это канал школы deepschool.ru. Здесь мы будем:
- напоминать вам теорию ML/DL в виде коротких постов,
- задавать вопросы с собеседований,
- рассказывать про полезные фреймворки
- и делиться советами, которые помогут вам в работе.
@deepschool_support
- напоминать вам теорию ML/DL в виде коротких постов,
- задавать вопросы с собеседований,
- рассказывать про полезные фреймворки
- и делиться советами, которые помогут вам в работе.
@deepschool_support
⚡31🔥13❤7
RT-DETR
В 2020 году DETR совершил мини-революцию в Computer Vision и показал, как использовать трансформеры в сложных задачах, например, при детекции объектов. Авторы изменили классический пайплайн CNN-детекции, сделав его более прямолинейным: без анкоров и NMS. Но это решение не имело широкого применения из-за довольно ощутимых недостатков. Исправить их вызвалась команда исследователей из Baidu, и уже в 2023 году вышел в свет детектор RT-DETR 🙂
В новой статье мы рассмотрим:
- основные недостатки DETR
- возможности его ускорения без значительного снижения точности
- совмещение достоинств SOTA real-time детекторов семейства YOLO и оригинального DETR
Читайте нашу статью по ссылке: https://deepschool-pro.notion.site/RT-DETR-f64ed4a11532418fbbfe12cc7fa2bf56?pvs=4
В 2020 году DETR совершил мини-революцию в Computer Vision и показал, как использовать трансформеры в сложных задачах, например, при детекции объектов. Авторы изменили классический пайплайн CNN-детекции, сделав его более прямолинейным: без анкоров и NMS. Но это решение не имело широкого применения из-за довольно ощутимых недостатков. Исправить их вызвалась команда исследователей из Baidu, и уже в 2023 году вышел в свет детектор RT-DETR 🙂
В новой статье мы рассмотрим:
- основные недостатки DETR
- возможности его ускорения без значительного снижения точности
- совмещение достоинств SOTA real-time детекторов семейства YOLO и оригинального DETR
Читайте нашу статью по ссылке: https://deepschool-pro.notion.site/RT-DETR-f64ed4a11532418fbbfe12cc7fa2bf56?pvs=4
deepschool-pro on Notion
RT-DETR | Notion
Автор: Герман Петров
Редактура: Дмитрий Раков
Редактура: Дмитрий Раков
🔥31❤13👍8
«PyTorch is all you need»?
Чаще всего для обучения нейросетей применяются видеокарты от Nvidia — они поддерживают технологию CUDA. Но появляется следующее поколение видеокарт, и растут требования к вычислительным ресурсам, поэтому старые карты начинают использоваться для инференса. Но если не задумываться об эффективном запуске обученной модели, мощности таких карт скоро может не хватить.
В этой статье мы:
- рассмотрим альтернативы PyTorch для инференса моделей, которые имеют дело с production
- поймём, как выжать максимум производительности даже из старых видеокарт
- обсудим тонкости и неочевидные моменты фреймворка TensorRT
Читайте новую статью по ссылке: https://deepschool-pro.notion.site/Is-PyTorch-all-you-need-cc869aa5076641e087172f1a579cd0b6?pvs=74
Чаще всего для обучения нейросетей применяются видеокарты от Nvidia — они поддерживают технологию CUDA. Но появляется следующее поколение видеокарт, и растут требования к вычислительным ресурсам, поэтому старые карты начинают использоваться для инференса. Но если не задумываться об эффективном запуске обученной модели, мощности таких карт скоро может не хватить.
В этой статье мы:
- рассмотрим альтернативы PyTorch для инференса моделей, которые имеют дело с production
- поймём, как выжать максимум производительности даже из старых видеокарт
- обсудим тонкости и неочевидные моменты фреймворка TensorRT
Читайте новую статью по ссылке: https://deepschool-pro.notion.site/Is-PyTorch-all-you-need-cc869aa5076641e087172f1a579cd0b6?pvs=74
deepschool-pro on Notion
«PyTorch is all you need»? | Notion
Автор: Андрей Щербин
Редактура: Александр Гончаренко
Редактура: Александр Гончаренко
🔥34👍11⚡7❤4🤔1
Ускорение нейросетей на практике
Ускорение — важный навык в DL-индустрии:
- растёт потребность инференса нейросетей на смартфонах и edge-устройствах
- DL-сервисов становится больше
- растёт и нагрузка на эти сервисы
- всё чаще приходится работать с LLM, которые довольно требовательны к ресурсам
- и в целом, чем быстрее ваши модели, тем лучше и вам, и вашим пользователям
Мы подготовили лекцию по ускорению сетей, чтобы вы узнали, какие методы ускорения существуют и смогли задать свои вопросы.
🗓 18 июля, четверг, 18:00 МСК.
Саша Гончаренко, СТО стартапа enot.ai, проведёт онлайн-лекцию, на которой:
— применит прунинг, квантование и дистилляцию для ускорения нейросети
— подробно объяснит каждый метод
— рассмотрит возникающие сложности и способы их решения
— объяснит, почему различается результат на разных вычислителях🤔
— расскажет о вызовах в ускорении LLM
— и представит обновлённую программу курса «Ускорение нейросетей»
Регистрируйтесь на лекцию по ссылке!
🎁 После регистрации вы получите туториал по использованию TensorRT и OpenVino.
До встречи 18 июля в 18:00 МСК!⚡️
Ускорение — важный навык в DL-индустрии:
- растёт потребность инференса нейросетей на смартфонах и edge-устройствах
- DL-сервисов становится больше
- растёт и нагрузка на эти сервисы
- всё чаще приходится работать с LLM, которые довольно требовательны к ресурсам
- и в целом, чем быстрее ваши модели, тем лучше и вам, и вашим пользователям
Мы подготовили лекцию по ускорению сетей, чтобы вы узнали, какие методы ускорения существуют и смогли задать свои вопросы.
Саша Гончаренко, СТО стартапа enot.ai, проведёт онлайн-лекцию, на которой:
— применит прунинг, квантование и дистилляцию для ускорения нейросети
— подробно объяснит каждый метод
— рассмотрит возникающие сложности и способы их решения
— объяснит, почему различается результат на разных вычислителях
— расскажет о вызовах в ускорении LLM
— и представит обновлённую программу курса «Ускорение нейросетей»
Регистрируйтесь на лекцию по ссылке!
До встречи 18 июля в 18:00 МСК!
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡15🔥11❤9👍2
Квиз по ускорению нейросетей!
Нужно сопоставить левый и правый столбец друг с другом:
1️⃣ 0️⃣ 🔤 🔤 🔤 🔤
1️⃣ 🔤 🔤 🔤 🔤
1️⃣ 1️⃣ 🔤 ❓ ❓ ❓
Чтобы узнать ответ, смотрите наше новое видео на youtube!
Нужно сопоставить левый и правый столбец друг с другом:
Чтобы узнать ответ, смотрите наше новое видео на youtube!
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
11 вопросов CTO про ускорение нейросетей
Присоединяйся к курсу «Ускорение нейросетей»: https://deepschool.ru/speedup?utm_source=yt&utm_content=11questions
Хэдлайнер нашего курса ответил на разные вопросы, связанные с ускорением нейросетей. Почему нельзя просто взять маленькую модель? Не скучно…
Хэдлайнер нашего курса ответил на разные вопросы, связанные с ускорением нейросетей. Почему нельзя просто взять маленькую модель? Не скучно…
🔥19😁7⚡6👍2❤1
DeepSchool
Ускорение нейросетей на практике Ускорение — важный навык в DL-индустрии: - растёт потребность инференса нейросетей на смартфонах и edge-устройствах - DL-сервисов становится больше - растёт и нагрузка на эти сервисы - всё чаще приходится работать с LLM,…
Вы ещё успеваете зарегистрироваться!
И представим обновлённую программу курса «Ускорение нейросетей»!
Присоединяйтесь к лекции!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11⚡5👍4😁2🔥1
Научитесь оптимизировать инференс нейросетей
Если вы сталкивались с задачей ускорения нейросетей, но всё не могли найти время разобраться поглубже во всех этих квантованиях, прунингах, дистилляции, TensorRT, OpenVINO и прочих баззвордах, приходите на наш курс «Ускорение нейросетей»!
Мы объясним, как устроены эти алгоритмы и фреймворки и научим использовать их в работе.
Программа курса разделена на 3 блока:
1️⃣ База — вы освоите подходы, которые являются общими для большинства задач. Это база! Разберетесь с алгоритмами: прунингом, дистилляцией, квантованием, матричными разложениями, архитектурным поиском — и устройством девайсов: CPU, GPU, NPU — и фреймворками для каждого.
2️⃣ NLP — блок для тех, кто работает с LLM. Вы изучите популярные и рабочие методы для ускорения небольших и крупных языковых моделей.
3️⃣ Devices — научитесь запускать нейросети на Android, iOS и микрокомпьютерах с учетом их особенностей.
Вы можете изучить только Базу, а при желании можете углубиться в определенный домен — можно выбрать любой подходящий вариант🧩
🗓 Обучение начинается 24 июля и длится 19 недель.
Лекции ведут опытные инженеры, каждый из которых несколько лет занимается той темой, которую преподаёт на курсе.
Спикеры будут поддерживать вас на протяжении всего обучения, а также вы сможете прийти к ним с вопросами по вашей работы.
⚡️ Присоединяйтесь к обучению со скидкой до 23 июля!
Подробнее о программе, спикерах, тарифах и скидках читайте на сайте программы.
Выбирайте подходящий тариф и присоединяйтесь к обучению!🎓
Если у вас возникают вопросы или трудности, то пишите нам в поддержку в Телеграм.
Если вы сталкивались с задачей ускорения нейросетей, но всё не могли найти время разобраться поглубже во всех этих квантованиях, прунингах, дистилляции, TensorRT, OpenVINO и прочих баззвордах, приходите на наш курс «Ускорение нейросетей»!
Мы объясним, как устроены эти алгоритмы и фреймворки и научим использовать их в работе.
Программа курса разделена на 3 блока:
Вы можете изучить только Базу, а при желании можете углубиться в определенный домен — можно выбрать любой подходящий вариант🧩
Лекции ведут опытные инженеры, каждый из которых несколько лет занимается той темой, которую преподаёт на курсе.
Спикеры будут поддерживать вас на протяжении всего обучения, а также вы сможете прийти к ним с вопросами по вашей работы.
Подробнее о программе, спикерах, тарифах и скидках читайте на сайте программы.
Выбирайте подходящий тариф и присоединяйтесь к обучению!
Если у вас возникают вопросы или трудности, то пишите нам в поддержку в Телеграм.
Please open Telegram to view this post
VIEW IN TELEGRAM
deepschool.ru
DeepSchool — Ускорение нейросетей
Поймёте теорию, узнаете про основные сложности и отточите знания на практике
🔥11⚡7👍4❤2
InstaFlow
Диффузионные модели сегодня — популярный инструмент генерации. У них отличное качество и высокая вариативность, однако они имеют серьёзный недостаток — скорость работы.
В этом посте мы познакомимся с работой InstaFlow и узнаем, как с помощью ректифицированных потоков и дистилляции из предобученной диффузионной text2image модели получить качественный генератор за несколько шагов. А также обсудим:
- диффузию и её связь со стохастическими дифференциальными уравнениями
- основную идею flow matching и rectified flow
- и, конечно, модель InstaFlow
Читайте новую статью по ссылке: https://deepschool-pro.notion.site/InstaFlow-50942b7dcc5448bab4c47870228afc82?pvs=4
Диффузионные модели сегодня — популярный инструмент генерации. У них отличное качество и высокая вариативность, однако они имеют серьёзный недостаток — скорость работы.
В этом посте мы познакомимся с работой InstaFlow и узнаем, как с помощью ректифицированных потоков и дистилляции из предобученной диффузионной text2image модели получить качественный генератор за несколько шагов. А также обсудим:
- диффузию и её связь со стохастическими дифференциальными уравнениями
- основную идею flow matching и rectified flow
- и, конечно, модель InstaFlow
Читайте новую статью по ссылке: https://deepschool-pro.notion.site/InstaFlow-50942b7dcc5448bab4c47870228afc82?pvs=4
deepschool-pro on Notion
InstaFlow | Notion
Автор: Нина Коновалова
Редактура: Игорь Иткин, Александр Ковальчук
Редактура: Игорь Иткин, Александр Ковальчук
🔥29❤11👍7
Почти на каждом собеседовании спрашивают про ускорение нейросетей
Этим делятся выпускники первого потока курса «Ускорение нейросетей».
Например, Иван рассказывает, что знания с курса помогают на интервью, где часто задают вопросы про библиотеки для инференса, потенциал методов ускорения и возможные проблемы в подобных задачах.
На эти вопросы как раз отвечает первый блок нашей программы, в котором вы освоите фундамент: алгоритмы ускорения, устройство CPU, GPU, NPU и фреймворки для них.
Знания из курса помогут не только ускорить модели в ваших проектах, но и поднять метрики. Например, Елизавета повысила качество модели, применив знания из лекции по дистилляции.
Также мы подготовили опциональные блоки лекций «NLP» и «Devices» — для тех, кто работает с LLM и тех, кто запускает модели на Android, iOS и микрокомпьютерах. Можно выбрать нужные вам блоки лекций.
Переходите на сайт, изучайте подробности, выбирайте тариф и записывайтесь на обучение!
Завтра пройдёт первая лекция по дистилляции, на которой Саша Гончаренко, хэдлайнер программы, расскажет про метод улучшения точности нейросети и как его использовать для ускорения.
А сегодня вы можете присоединиться со скидкой до 12%🔥
Оставляйте заявку на сайте, чтобы зафиксировать за собой скидку до старта программы.
До встречи на лекциях!⚡️
Этим делятся выпускники первого потока курса «Ускорение нейросетей».
Например, Иван рассказывает, что знания с курса помогают на интервью, где часто задают вопросы про библиотеки для инференса, потенциал методов ускорения и возможные проблемы в подобных задачах.
На эти вопросы как раз отвечает первый блок нашей программы, в котором вы освоите фундамент: алгоритмы ускорения, устройство CPU, GPU, NPU и фреймворки для них.
Знания из курса помогут не только ускорить модели в ваших проектах, но и поднять метрики. Например, Елизавета повысила качество модели, применив знания из лекции по дистилляции.
Также мы подготовили опциональные блоки лекций «NLP» и «Devices» — для тех, кто работает с LLM и тех, кто запускает модели на Android, iOS и микрокомпьютерах. Можно выбрать нужные вам блоки лекций.
Переходите на сайт, изучайте подробности, выбирайте тариф и записывайтесь на обучение!
Завтра пройдёт первая лекция по дистилляции, на которой Саша Гончаренко, хэдлайнер программы, расскажет про метод улучшения точности нейросети и как его использовать для ускорения.
А сегодня вы можете присоединиться со скидкой до 12%
Оставляйте заявку на сайте, чтобы зафиксировать за собой скидку до старта программы.
До встречи на лекциях!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15⚡7❤🔥6❤3🤔1