Новости по ускорению нейросетей
Наша команда готовит новый поток курса Ускорение нейросетей.
Мы обновили программу, и теперь вы сможете выбрать то, что вам наиболее актуально (даже NLP🤫).
Ещё у нас на подходе ряд статей, например, в конце недели расскажем про методы ускорения LLM✨
А сейчас можете прочесть статьи, которые мы писали ранее:
1. Основные подходы и методы ускорения — читать
2. Советы по ускорению, которые упростят ваше погружение в тему — читать
3. Как ускоряют сети для автономных устройств — читать
4. На что обратить внимание при оптимизации инференса — читать
5. Ускорение в задаче Speech2Text на примере Whisper от OpenAI — читать
⚡️ Если хотите разобраться в теории и на практике научиться оптимизировать инференс, то приходите на наш курс.
До 12 июля вы можете присоединиться к обучению со скидкой 29%.
Для этого переходите на сайт и записывайтесь в лист ожидания. Мы свяжемся с вами, представим программу и подарим скидку на обучение.
Наша команда готовит новый поток курса Ускорение нейросетей.
Мы обновили программу, и теперь вы сможете выбрать то, что вам наиболее актуально (даже NLP🤫).
Ещё у нас на подходе ряд статей, например, в конце недели расскажем про методы ускорения LLM
А сейчас можете прочесть статьи, которые мы писали ранее:
1. Основные подходы и методы ускорения — читать
2. Советы по ускорению, которые упростят ваше погружение в тему — читать
3. Как ускоряют сети для автономных устройств — читать
4. На что обратить внимание при оптимизации инференса — читать
5. Ускорение в задаче Speech2Text на примере Whisper от OpenAI — читать
До 12 июля вы можете присоединиться к обучению со скидкой 29%.
Для этого переходите на сайт и записывайтесь в лист ожидания. Мы свяжемся с вами, представим программу и подарим скидку на обучение.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥24⚡7❤6🤩2🤯1
Лекция по быстрым механизмам внимания в это воскресенье
Главное препятствие на пути к быстрым трансформерам — квадратичный attention. В базовом варианте трансформеры довольно прожорливые как по времени, так и по памяти. Поэтому инженеры ищут способы ускорить attention. О некоторых из них мы расскажем на лекции в воскресенье.
Обсудим быстрые механизмы внимания с точки зрения простых инженерных решений.
Без математики тоже не обойдётся, но объясним всё простым языком и ответим на все вопросы, которые возникнут.
Лекцию проведёт Саша Гончаренко:
- CTO стартапа по ускорению моделей enot.ai
- автор статей, в том числе про low-power/precision вычисления
- спикер конференций (NAS, трансформеры, инференс на смартфоне)
- хэдлайнер нашего курса по ускорению
Саша расскажет про:
- Group Query Attention — сделаем KV-кеш поменьше.
- Pattern Attention — простой способ сократить вычисления с помощью паттерна
- Linear Attention — ряд Тейлора is all you need
🗓 Приходите 7 июля в 14:00 МСК!
Ссылку на трансляцию выложим в воскресенье.
Ставьте реакции, кто придёт🔥
Пишите в комментариях свои вопросы — постараемся ответить на лекции!
До встречи в эфире!⚡️
Главное препятствие на пути к быстрым трансформерам — квадратичный attention. В базовом варианте трансформеры довольно прожорливые как по времени, так и по памяти. Поэтому инженеры ищут способы ускорить attention. О некоторых из них мы расскажем на лекции в воскресенье.
Обсудим быстрые механизмы внимания с точки зрения простых инженерных решений.
Без математики тоже не обойдётся, но объясним всё простым языком и ответим на все вопросы, которые возникнут.
Лекцию проведёт Саша Гончаренко:
- CTO стартапа по ускорению моделей enot.ai
- автор статей, в том числе про low-power/precision вычисления
- спикер конференций (NAS, трансформеры, инференс на смартфоне)
- хэдлайнер нашего курса по ускорению
Саша расскажет про:
- Group Query Attention — сделаем KV-кеш поменьше.
- Pattern Attention — простой способ сократить вычисления с помощью паттерна
- Linear Attention — ряд Тейлора is all you need
Ссылку на трансляцию выложим в воскресенье.
Ставьте реакции, кто придёт
Пишите в комментариях свои вопросы — постараемся ответить на лекции!
До встречи в эфире!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥75👍15❤7❤🔥1
DeepSchool
Лекция по быстрым механизмам внимания в это воскресенье Главное препятствие на пути к быстрым трансформерам — квадратичный attention. В базовом варианте трансформеры довольно прожорливые как по времени, так и по памяти. Поэтому инженеры ищут способы ускорить…
Через 2 часа встречаемся на лекции по быстрым механизмам внимания
Саша Гончаренко расскажет про Group Query Attention, Pattern Attention и Linear Attention.
Начинаем в 14:00 МСК⚡️
Присоединяйтесь к трансляции на YouTube по ссылке
А пока переходите на наш канал и подписывайтесь🎞
Там мы разбираем темы из разных областей ML, выкладываем интервью с инженерами и другие рубрики от нашей школы!
Саша Гончаренко расскажет про Group Query Attention, Pattern Attention и Linear Attention.
Начинаем в 14:00 МСК
Присоединяйтесь к трансляции на YouTube по ссылке
А пока переходите на наш канал и подписывайтесь
Там мы разбираем темы из разных областей ML, выкладываем интервью с инженерами и другие рубрики от нашей школы!
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Открытая лекция по Efficient Attention
#deeplearning #nlp #llm #ai
Обсудим быстрые механизмы внимания с точки зрения простых инженерных решений.
Без математики тоже не обойдётся, но объясним всё простым языком и ответим на все вопросы, которые возникнут.
Наш курс "Ускорение нейросетей": ht…
Обсудим быстрые механизмы внимания с точки зрения простых инженерных решений.
Без математики тоже не обойдётся, но объясним всё простым языком и ответим на все вопросы, которые возникнут.
Наш курс "Ускорение нейросетей": ht…
🔥25⚡7👍6❤🔥1❤1🤩1😍1🐳1🍾1 1
Мы уже начали, подключайтесь по ссылке!
YouTube
Открытая лекция по Efficient Attention
#deeplearning #nlp #llm #ai
Обсудим быстрые механизмы внимания с точки зрения простых инженерных решений.
Без математики тоже не обойдётся, но объясним всё простым языком и ответим на все вопросы, которые возникнут.
Наш курс "Ускорение нейросетей": ht…
Обсудим быстрые механизмы внимания с точки зрения простых инженерных решений.
Без математики тоже не обойдётся, но объясним всё простым языком и ответим на все вопросы, которые возникнут.
Наш курс "Ускорение нейросетей": ht…
🔥22⚡8👍6❤3
Media is too big
VIEW IN TELEGRAM
В фрагменте лекции из прошлого потока CVRocket Андрей Шадриков рассказал про фишки ClearML для трекинга экспериментов.
А уже сегодня пройдёт первая лекция 8-го потока, где Андрей объяснит, как навести порядок в экспериментах, чтобы:
- конфигурировать эксперименты
- легко передавать репозиторий коллегам
- версионировать модели и данные
- быстро сравнивать эксперименты
Вы ещё успеваете присоединиться к этому потоку и освоить полный цикл решения CV-задач!
Переходите на сайт, запрыгивайте в последний вагон и становитесь частью комьюнити опытных инженеров🚀
А уже сегодня пройдёт первая лекция 8-го потока, где Андрей объяснит, как навести порядок в экспериментах, чтобы:
- конфигурировать эксперименты
- легко передавать репозиторий коллегам
- версионировать модели и данные
- быстро сравнивать эксперименты
Вы ещё успеваете присоединиться к этому потоку и освоить полный цикл решения CV-задач!
Переходите на сайт, запрыгивайте в последний вагон и становитесь частью комьюнити опытных инженеров
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥22❤9👍5
Введение в квантование LLM
Инференс современных LLM на потребительских видеокартах невозможен без квантования. В новой статье мы обсудим два основных метода квантования, которые можно считать надёжными базовыми подходами.
В статье рассказали:
- как 1% весов могут испортить всё
- почему обычное округление — не лучший вариант
- зачем нужны случайные ортогональные матрицы в квантовании
Читайте по ссылке!
И подписывайтесь на DeepSchool
Инференс современных LLM на потребительских видеокартах невозможен без квантования. В новой статье мы обсудим два основных метода квантования, которые можно считать надёжными базовыми подходами.
В статье рассказали:
- как 1% весов могут испортить всё
- почему обычное округление — не лучший вариант
- зачем нужны случайные ортогональные матрицы в квантовании
Читайте по ссылке!
И подписывайтесь на DeepSchool
Telegram
DeepSchool
Это канал школы deepschool.ru. Здесь мы будем:
- напоминать вам теорию ML/DL в виде коротких постов,
- задавать вопросы с собеседований,
- рассказывать про полезные фреймворки
- и делиться советами, которые помогут вам в работе.
@deepschool_support
- напоминать вам теорию ML/DL в виде коротких постов,
- задавать вопросы с собеседований,
- рассказывать про полезные фреймворки
- и делиться советами, которые помогут вам в работе.
@deepschool_support
⚡31🔥13❤7
RT-DETR
В 2020 году DETR совершил мини-революцию в Computer Vision и показал, как использовать трансформеры в сложных задачах, например, при детекции объектов. Авторы изменили классический пайплайн CNN-детекции, сделав его более прямолинейным: без анкоров и NMS. Но это решение не имело широкого применения из-за довольно ощутимых недостатков. Исправить их вызвалась команда исследователей из Baidu, и уже в 2023 году вышел в свет детектор RT-DETR 🙂
В новой статье мы рассмотрим:
- основные недостатки DETR
- возможности его ускорения без значительного снижения точности
- совмещение достоинств SOTA real-time детекторов семейства YOLO и оригинального DETR
Читайте нашу статью по ссылке: https://deepschool-pro.notion.site/RT-DETR-f64ed4a11532418fbbfe12cc7fa2bf56?pvs=4
В 2020 году DETR совершил мини-революцию в Computer Vision и показал, как использовать трансформеры в сложных задачах, например, при детекции объектов. Авторы изменили классический пайплайн CNN-детекции, сделав его более прямолинейным: без анкоров и NMS. Но это решение не имело широкого применения из-за довольно ощутимых недостатков. Исправить их вызвалась команда исследователей из Baidu, и уже в 2023 году вышел в свет детектор RT-DETR 🙂
В новой статье мы рассмотрим:
- основные недостатки DETR
- возможности его ускорения без значительного снижения точности
- совмещение достоинств SOTA real-time детекторов семейства YOLO и оригинального DETR
Читайте нашу статью по ссылке: https://deepschool-pro.notion.site/RT-DETR-f64ed4a11532418fbbfe12cc7fa2bf56?pvs=4
deepschool-pro on Notion
RT-DETR | Notion
Автор: Герман Петров
Редактура: Дмитрий Раков
Редактура: Дмитрий Раков
🔥31❤13👍8
«PyTorch is all you need»?
Чаще всего для обучения нейросетей применяются видеокарты от Nvidia — они поддерживают технологию CUDA. Но появляется следующее поколение видеокарт, и растут требования к вычислительным ресурсам, поэтому старые карты начинают использоваться для инференса. Но если не задумываться об эффективном запуске обученной модели, мощности таких карт скоро может не хватить.
В этой статье мы:
- рассмотрим альтернативы PyTorch для инференса моделей, которые имеют дело с production
- поймём, как выжать максимум производительности даже из старых видеокарт
- обсудим тонкости и неочевидные моменты фреймворка TensorRT
Читайте новую статью по ссылке: https://deepschool-pro.notion.site/Is-PyTorch-all-you-need-cc869aa5076641e087172f1a579cd0b6?pvs=74
Чаще всего для обучения нейросетей применяются видеокарты от Nvidia — они поддерживают технологию CUDA. Но появляется следующее поколение видеокарт, и растут требования к вычислительным ресурсам, поэтому старые карты начинают использоваться для инференса. Но если не задумываться об эффективном запуске обученной модели, мощности таких карт скоро может не хватить.
В этой статье мы:
- рассмотрим альтернативы PyTorch для инференса моделей, которые имеют дело с production
- поймём, как выжать максимум производительности даже из старых видеокарт
- обсудим тонкости и неочевидные моменты фреймворка TensorRT
Читайте новую статью по ссылке: https://deepschool-pro.notion.site/Is-PyTorch-all-you-need-cc869aa5076641e087172f1a579cd0b6?pvs=74
deepschool-pro on Notion
«PyTorch is all you need»? | Notion
Автор: Андрей Щербин
Редактура: Александр Гончаренко
Редактура: Александр Гончаренко
🔥34👍11⚡7❤4🤔1
Ускорение нейросетей на практике
Ускорение — важный навык в DL-индустрии:
- растёт потребность инференса нейросетей на смартфонах и edge-устройствах
- DL-сервисов становится больше
- растёт и нагрузка на эти сервисы
- всё чаще приходится работать с LLM, которые довольно требовательны к ресурсам
- и в целом, чем быстрее ваши модели, тем лучше и вам, и вашим пользователям
Мы подготовили лекцию по ускорению сетей, чтобы вы узнали, какие методы ускорения существуют и смогли задать свои вопросы.
🗓 18 июля, четверг, 18:00 МСК.
Саша Гончаренко, СТО стартапа enot.ai, проведёт онлайн-лекцию, на которой:
— применит прунинг, квантование и дистилляцию для ускорения нейросети
— подробно объяснит каждый метод
— рассмотрит возникающие сложности и способы их решения
— объяснит, почему различается результат на разных вычислителях🤔
— расскажет о вызовах в ускорении LLM
— и представит обновлённую программу курса «Ускорение нейросетей»
Регистрируйтесь на лекцию по ссылке!
🎁 После регистрации вы получите туториал по использованию TensorRT и OpenVino.
До встречи 18 июля в 18:00 МСК!⚡️
Ускорение — важный навык в DL-индустрии:
- растёт потребность инференса нейросетей на смартфонах и edge-устройствах
- DL-сервисов становится больше
- растёт и нагрузка на эти сервисы
- всё чаще приходится работать с LLM, которые довольно требовательны к ресурсам
- и в целом, чем быстрее ваши модели, тем лучше и вам, и вашим пользователям
Мы подготовили лекцию по ускорению сетей, чтобы вы узнали, какие методы ускорения существуют и смогли задать свои вопросы.
Саша Гончаренко, СТО стартапа enot.ai, проведёт онлайн-лекцию, на которой:
— применит прунинг, квантование и дистилляцию для ускорения нейросети
— подробно объяснит каждый метод
— рассмотрит возникающие сложности и способы их решения
— объяснит, почему различается результат на разных вычислителях
— расскажет о вызовах в ускорении LLM
— и представит обновлённую программу курса «Ускорение нейросетей»
Регистрируйтесь на лекцию по ссылке!
До встречи 18 июля в 18:00 МСК!
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡15🔥11❤9👍2
Квиз по ускорению нейросетей!
Нужно сопоставить левый и правый столбец друг с другом:
1️⃣ 0️⃣ 🔤 🔤 🔤 🔤
1️⃣ 🔤 🔤 🔤 🔤
1️⃣ 1️⃣ 🔤 ❓ ❓ ❓
Чтобы узнать ответ, смотрите наше новое видео на youtube!
Нужно сопоставить левый и правый столбец друг с другом:
Чтобы узнать ответ, смотрите наше новое видео на youtube!
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
11 вопросов CTO про ускорение нейросетей
Присоединяйся к курсу «Ускорение нейросетей»: https://deepschool.ru/speedup?utm_source=yt&utm_content=11questions
Хэдлайнер нашего курса ответил на разные вопросы, связанные с ускорением нейросетей. Почему нельзя просто взять маленькую модель? Не скучно…
Хэдлайнер нашего курса ответил на разные вопросы, связанные с ускорением нейросетей. Почему нельзя просто взять маленькую модель? Не скучно…
🔥19😁7⚡6👍2❤1
DeepSchool
Ускорение нейросетей на практике Ускорение — важный навык в DL-индустрии: - растёт потребность инференса нейросетей на смартфонах и edge-устройствах - DL-сервисов становится больше - растёт и нагрузка на эти сервисы - всё чаще приходится работать с LLM,…
Вы ещё успеваете зарегистрироваться!
И представим обновлённую программу курса «Ускорение нейросетей»!
Присоединяйтесь к лекции!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11⚡5👍4😁2🔥1
Научитесь оптимизировать инференс нейросетей
Если вы сталкивались с задачей ускорения нейросетей, но всё не могли найти время разобраться поглубже во всех этих квантованиях, прунингах, дистилляции, TensorRT, OpenVINO и прочих баззвордах, приходите на наш курс «Ускорение нейросетей»!
Мы объясним, как устроены эти алгоритмы и фреймворки и научим использовать их в работе.
Программа курса разделена на 3 блока:
1️⃣ База — вы освоите подходы, которые являются общими для большинства задач. Это база! Разберетесь с алгоритмами: прунингом, дистилляцией, квантованием, матричными разложениями, архитектурным поиском — и устройством девайсов: CPU, GPU, NPU — и фреймворками для каждого.
2️⃣ NLP — блок для тех, кто работает с LLM. Вы изучите популярные и рабочие методы для ускорения небольших и крупных языковых моделей.
3️⃣ Devices — научитесь запускать нейросети на Android, iOS и микрокомпьютерах с учетом их особенностей.
Вы можете изучить только Базу, а при желании можете углубиться в определенный домен — можно выбрать любой подходящий вариант🧩
🗓 Обучение начинается 24 июля и длится 19 недель.
Лекции ведут опытные инженеры, каждый из которых несколько лет занимается той темой, которую преподаёт на курсе.
Спикеры будут поддерживать вас на протяжении всего обучения, а также вы сможете прийти к ним с вопросами по вашей работы.
⚡️ Присоединяйтесь к обучению со скидкой до 23 июля!
Подробнее о программе, спикерах, тарифах и скидках читайте на сайте программы.
Выбирайте подходящий тариф и присоединяйтесь к обучению!🎓
Если у вас возникают вопросы или трудности, то пишите нам в поддержку в Телеграм.
Если вы сталкивались с задачей ускорения нейросетей, но всё не могли найти время разобраться поглубже во всех этих квантованиях, прунингах, дистилляции, TensorRT, OpenVINO и прочих баззвордах, приходите на наш курс «Ускорение нейросетей»!
Мы объясним, как устроены эти алгоритмы и фреймворки и научим использовать их в работе.
Программа курса разделена на 3 блока:
Вы можете изучить только Базу, а при желании можете углубиться в определенный домен — можно выбрать любой подходящий вариант🧩
Лекции ведут опытные инженеры, каждый из которых несколько лет занимается той темой, которую преподаёт на курсе.
Спикеры будут поддерживать вас на протяжении всего обучения, а также вы сможете прийти к ним с вопросами по вашей работы.
Подробнее о программе, спикерах, тарифах и скидках читайте на сайте программы.
Выбирайте подходящий тариф и присоединяйтесь к обучению!
Если у вас возникают вопросы или трудности, то пишите нам в поддержку в Телеграм.
Please open Telegram to view this post
VIEW IN TELEGRAM
deepschool.ru
DeepSchool — Ускорение нейросетей
Поймёте теорию, узнаете про основные сложности и отточите знания на практике
🔥11⚡7👍4❤2
InstaFlow
Диффузионные модели сегодня — популярный инструмент генерации. У них отличное качество и высокая вариативность, однако они имеют серьёзный недостаток — скорость работы.
В этом посте мы познакомимся с работой InstaFlow и узнаем, как с помощью ректифицированных потоков и дистилляции из предобученной диффузионной text2image модели получить качественный генератор за несколько шагов. А также обсудим:
- диффузию и её связь со стохастическими дифференциальными уравнениями
- основную идею flow matching и rectified flow
- и, конечно, модель InstaFlow
Читайте новую статью по ссылке: https://deepschool-pro.notion.site/InstaFlow-50942b7dcc5448bab4c47870228afc82?pvs=4
Диффузионные модели сегодня — популярный инструмент генерации. У них отличное качество и высокая вариативность, однако они имеют серьёзный недостаток — скорость работы.
В этом посте мы познакомимся с работой InstaFlow и узнаем, как с помощью ректифицированных потоков и дистилляции из предобученной диффузионной text2image модели получить качественный генератор за несколько шагов. А также обсудим:
- диффузию и её связь со стохастическими дифференциальными уравнениями
- основную идею flow matching и rectified flow
- и, конечно, модель InstaFlow
Читайте новую статью по ссылке: https://deepschool-pro.notion.site/InstaFlow-50942b7dcc5448bab4c47870228afc82?pvs=4
deepschool-pro on Notion
InstaFlow | Notion
Автор: Нина Коновалова
Редактура: Игорь Иткин, Александр Ковальчук
Редактура: Игорь Иткин, Александр Ковальчук
🔥29❤11👍7
Почти на каждом собеседовании спрашивают про ускорение нейросетей
Этим делятся выпускники первого потока курса «Ускорение нейросетей».
Например, Иван рассказывает, что знания с курса помогают на интервью, где часто задают вопросы про библиотеки для инференса, потенциал методов ускорения и возможные проблемы в подобных задачах.
На эти вопросы как раз отвечает первый блок нашей программы, в котором вы освоите фундамент: алгоритмы ускорения, устройство CPU, GPU, NPU и фреймворки для них.
Знания из курса помогут не только ускорить модели в ваших проектах, но и поднять метрики. Например, Елизавета повысила качество модели, применив знания из лекции по дистилляции.
Также мы подготовили опциональные блоки лекций «NLP» и «Devices» — для тех, кто работает с LLM и тех, кто запускает модели на Android, iOS и микрокомпьютерах. Можно выбрать нужные вам блоки лекций.
Переходите на сайт, изучайте подробности, выбирайте тариф и записывайтесь на обучение!
Завтра пройдёт первая лекция по дистилляции, на которой Саша Гончаренко, хэдлайнер программы, расскажет про метод улучшения точности нейросети и как его использовать для ускорения.
А сегодня вы можете присоединиться со скидкой до 12%🔥
Оставляйте заявку на сайте, чтобы зафиксировать за собой скидку до старта программы.
До встречи на лекциях!⚡️
Этим делятся выпускники первого потока курса «Ускорение нейросетей».
Например, Иван рассказывает, что знания с курса помогают на интервью, где часто задают вопросы про библиотеки для инференса, потенциал методов ускорения и возможные проблемы в подобных задачах.
На эти вопросы как раз отвечает первый блок нашей программы, в котором вы освоите фундамент: алгоритмы ускорения, устройство CPU, GPU, NPU и фреймворки для них.
Знания из курса помогут не только ускорить модели в ваших проектах, но и поднять метрики. Например, Елизавета повысила качество модели, применив знания из лекции по дистилляции.
Также мы подготовили опциональные блоки лекций «NLP» и «Devices» — для тех, кто работает с LLM и тех, кто запускает модели на Android, iOS и микрокомпьютерах. Можно выбрать нужные вам блоки лекций.
Переходите на сайт, изучайте подробности, выбирайте тариф и записывайтесь на обучение!
Завтра пройдёт первая лекция по дистилляции, на которой Саша Гончаренко, хэдлайнер программы, расскажет про метод улучшения точности нейросети и как его использовать для ускорения.
А сегодня вы можете присоединиться со скидкой до 12%
Оставляйте заявку на сайте, чтобы зафиксировать за собой скидку до старта программы.
До встречи на лекциях!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15⚡7❤🔥6❤3🤔1
Подкаст «Под капотом». LLM
Мы приглашаем в подкаст экспертов, чтобы понять, как работают сложные системы изнутри. В этом выпуске мы говорили с Валей Мамедовым, инженером из SberDevices, про LLM.
— из каких этапов состоит тренировка LLM и много ли нужно знать инженеру, который их тренирует
— за счёт чего модель, которую тренировали на куче видеокарт, в итоге можно запустить на обычном ноутбуке
— огромный контекст vs RAG
— как оценивать качество LLM
— open source vs. коммерческие модели
— чем процесс вывода в прод LLM отличается от «обычных» ML-процессов
Смотрите выпуск по ссылке!
https://youtu.be/fy1-ffagRe0
Мы приглашаем в подкаст экспертов, чтобы понять, как работают сложные системы изнутри. В этом выпуске мы говорили с Валей Мамедовым, инженером из SberDevices, про LLM.
— из каких этапов состоит тренировка LLM и много ли нужно знать инженеру, который их тренирует
— за счёт чего модель, которую тренировали на куче видеокарт, в итоге можно запустить на обычном ноутбуке
— огромный контекст vs RAG
— как оценивать качество LLM
— open source vs. коммерческие модели
— чем процесс вывода в прод LLM отличается от «обычных» ML-процессов
Смотрите выпуск по ссылке!
https://youtu.be/fy1-ffagRe0
YouTube
LLM. Валентин Мамедов | Под Капотом
#largelanguagemodels #llm #deeplearning #career #nlp #ai
Записывайтесь на курс по LLM: https://deepschool.ru/llm?utm_source=yt&utm_content=pk-valya
Мы приглашаем в подкаст экспертов из различных областей, чтобы понять, как работают сложные системы изнутри.…
Записывайтесь на курс по LLM: https://deepschool.ru/llm?utm_source=yt&utm_content=pk-valya
Мы приглашаем в подкаст экспертов из различных областей, чтобы понять, как работают сложные системы изнутри.…
❤25🔥18👍12
Всем привет✌️
Это канал школы DeepSchool. Мы преподаём курсы повышения квалификации DL-инженеров и ведём этот блог
В этом канале мы:
- делаем обзоры статей
- рассказываем, как решаются различные DL-задачи
- напоминаем теорию ML/DL
- и общаемся со специалистами из индустрии
Наши программы:
- LLM — как обучать, деплоить и ускорять LLM
- LLM Pro — как проектировать и запускать сложные NLP-системы
- Деплой DL-сервисов — как создавать и деплоить DL-сервисы
- CV Rocket — как решать сложные задачи в Computer Vision
- Ускорение нейросетей — как ускорять нейросети для различных устройств
- 3D CV — как решать 3D-задачи от SLAM до виртуальных аватаров
- Gen CV — как обучать генеративные модели
Все наши статьи можно найти в нашем блоге, а видео — на YouTube-канале. Также у нас есть канал, где инженеры из deepschool рассказывают о себе.
С нами можно связаться:
- задать любой вопрос
- присоединиться к нашей команде
- или предложить тему для поста
Рады знакомству✌️
Ставьте реакции и пишите комментарии! 🔥
Это канал школы DeepSchool. Мы преподаём курсы повышения квалификации DL-инженеров и ведём этот блог
В этом канале мы:
- делаем обзоры статей
- рассказываем, как решаются различные DL-задачи
- напоминаем теорию ML/DL
- и общаемся со специалистами из индустрии
Наши программы:
- LLM — как обучать, деплоить и ускорять LLM
- LLM Pro — как проектировать и запускать сложные NLP-системы
- Деплой DL-сервисов — как создавать и деплоить DL-сервисы
- CV Rocket — как решать сложные задачи в Computer Vision
- Ускорение нейросетей — как ускорять нейросети для различных устройств
- 3D CV — как решать 3D-задачи от SLAM до виртуальных аватаров
- Gen CV — как обучать генеративные модели
Все наши статьи можно найти в нашем блоге, а видео — на YouTube-канале. Также у нас есть канал, где инженеры из deepschool рассказывают о себе.
С нами можно связаться:
- задать любой вопрос
- присоединиться к нашей команде
- или предложить тему для поста
Рады знакомству
Ставьте реакции и пишите комментарии! 🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
deepschool.ru
Повышаем квалификацию DL-инженеров
Помогаем стать дороже на рынке труда
❤13🔥13👏5 5👍4🥰1
☝️Обновили пост «о нас», за два года многое изменилось🙂
Кстати, а в этом посте мы описали историю создания DeepSchool — загляните, если интересно.
Мы рассказали о себе, но также нам интересно узнать поближе и вас! Ответьте, пожалуйста, на опрос ниже👇 Он поможет нам узнать примерное распределение подписчиков по доменам около ML/DL.
А если поделитесь, какие решаете задачи — будет просто супер🤩 Постараемся помочь нашими статьями! Напишите в комментариях к этому посту! Вдруг в комментариях встретите коллег по теме — такие знакомства всегда полезны.
Кстати, а в этом посте мы описали историю создания DeepSchool — загляните, если интересно.
Мы рассказали о себе, но также нам интересно узнать поближе и вас! Ответьте, пожалуйста, на опрос ниже👇 Он поможет нам узнать примерное распределение подписчиков по доменам около ML/DL.
А если поделитесь, какие решаете задачи — будет просто супер
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍6🐳5❤1