DeepSchool
10.5K subscribers
87 photos
1 video
1 file
467 links
Это канал школы deepschool.ru. Здесь мы будем:
- напоминать вам теорию ML/DL в виде коротких постов,
- задавать вопросы с собеседований,
- рассказывать про полезные фреймворки
- и делиться советами, которые помогут вам в работе.

@deepschool_support
Download Telegram
Что говорят выпускники CV Rocket

📍В карточках собрали цитаты из отзывов выпускников курса.

Они отмечают, что курс даёт не просто новые знания, а понимание собственных пробелов и способов их закрыть. Появляется уверенность в темах, которые раньше использовал вслепую, и начинаешь сразу применять на собеседованиях и в реальных задачах то, что получил на обучении.

Полные тексты этих и других отзывов, подробную информацию о программе и спикерах смотрите на сайте.

Новый поток CV Rocket стартует 17 марта.
Записывайтесь до 9 марта и получите скидку до 20% 🔥
10🔥8👍7😁1
Такое на собеседовании вряд ли спросят, но знать обязательно

Приготовили праздничный набор карточек. Из него вы узнаете:

- Что общего между плюшевым мишкой, нобелевкой и вакцинами от COVID
- Самая выгодная аренда гаража в истории
- Как в 81 год выучить Swift по Skype (хороший был файлообменник) и вдохновить Тима Кука
- Кого нужно благодарить за ImageNet

Девушки, с вашим днём 💚
🔥24😍87
Инференс-сервер своими руками: воркшоп по BentoML

Обучить модель — это половина работы. Дальше встаёт вопрос: как её отдать? Как backend-команда будет к ней обращаться? Лезть в чужие репозитории и встраиваться в их инфраструктуру — не всегда вариант.

Мы подготовили воркшоп, на котором покажем, как упаковать модель в BentoML, поднять инференс-сервер и организовать к нему доступ.

На воркшопе разберём:
— как передать готовую модель без погружения в репозитории backend-команды
— как упаковать модель с помощью BentoML и поднять инференс-сервер
— как обращаться к модели из внешнего кода
— когда BentoML не подходит и что использовать вместо него

Воркшоп — это когда вы сначала слушаете, а потом сразу делаете. Анастасия Старобыховская, руководитель лаборатории «Искусство и ИИ» в ЕУСПб, сначала расскажет теоретическую часть, а потом разобьёт участников на небольшие группы для самостоятельной работы, будет подключаться к каждой и помогать с затыками.

У вас будет возможность упаковать модель самостоятельно в режиме реального времени!

И в конце вместе обсудим решение и типичные ошибки.
А также всем участникам подарим скидки на курс CV Rocket! 🎁

Чтобы не терять времени на воркшопе, установите docker/python/свою любимую IDE, если ещё нет

📅 Встречаемся в четверг, 12 марта в 19:00 МСК!

Регистрируйтесь по ссылке и до встречи на воркшопе!
Please open Telegram to view this post
VIEW IN TELEGRAM
12👍8🔥5
15 лет в iOS-разработке, или как не выгореть спустя десятки проектов | Подкаст «Под Капотом» с Женей Тютюевым

Гость нового выпуска — Женя Тютюев, Senior iOS разработчик в 2gis. Женя начинал карьеру в те времена, когда отжать телефон, под который ты разрабатываешь, было обычным делом. Обсудили, сложно ли было стартовать карьеру 15 лет назад, как изменился 2gis за последние годы и в чём особенности адаптации приложений для слабовидящих.

Смотрите по ссылке: https://youtu.be/HHEk1BbwEFo
11🔥6👍5
Осталось 3 часа до воркшопа по BentoML

Сегодня с Анастасией Старобыховской разберёмся как упаковать модель в BentoML, поднять инференс-сервер и организовать к нему доступ.

На воркшопе вы узнаете:
— как передать готовую модель без погружения в репозитории backend-команды
— как упаковать модель с помощью BentoML и поднять инференс-сервер
— как обращаться к модели из внешнего кода
— когда BentoML не подходит и что использовать вместо него

У вас будет возможность упаковать модель самостоятельно в режиме реального времени!

А также всем участникам подарим скидки на курс CV Rocket! 🎁

🕕 Регистрируйтесь и приходите сегодня в 19:00 МСК
10🔥5👍2
Как повысить квалификацию в Computer Vision

Приходите на ближайший поток CV Rocket, который стартует 17 марта!

Это курс для практикующих CV-инженеров, которые хотят закрыть пробелы в знаниях и узнать про подходы и лучшие практики от senior-инженеров.

Вы научитесь:
- готовить данные: собирать, устранять ошибки в разметке, мониторить качество
- отлаживать обучение, находить аномалии и интерпретировать результаты модели
- работать с metric learning и векторным поиском
- работать с видео: трекинг и action-recognition
- предобучать без разметки: от pretext-задач до современных SSL-алгоритмов
- адаптировать модели детекции, сегментации и OCR под сложные кейсы

Обучение длится 4 месяца и состоит из 13 лекций и 13 заданий.
Лекции проходят онлайн в Zoom, поэтому вы сможете задавать вопросы по ходу занятия.

🔥 До 16 марта вы можете записаться со скидкой 5%!

Переходите на сайт, изучайте подробности, читайте отзывы выпускников и записывайтесь на обучение! 

До встречи на курсе! 🎓
9👍7🔥4
Ванильный RAG не работает. Как исправить?

RAG — один из самых популярных сценариев для интеграции LLM в продукты. При этом большинство RAG-систем в реальных условиях ломаются уже на старте: галлюцинации, нерелевантные ответы, потерянный контекст.

Проблема не в идее, а в деталях. Ванильная схема «ретривер + генератор» — это только скелет. Без правильно настроенного эмбеддера, качественных данных, реранкера и дообученного генератора она не работает. А когда что-то идёт не так, то непонятно, за что взяться.

В этот четверг Дмитрий Калашников, NLP team lead в Яндексе, проведёт открытую лекцию и разложит систему по частям: где обычно ломается, как диагностировать проблему и что конкретно делать на каждом уровне пайплайна.

Мы разберём:
• типичные точки отказа: эмбеддер, поиск, реранкер, генератор, данные
• как локализовать проблему, прежде чем что-то чинить
• какие техники реально улучшают качество на каждом этапе
• как собрать из компонентов систему, которая держит нагрузку

На лекции также представим курс LLM Pro — для тех, кто хочет научиться строить полноценные NLP-системы с учётом требований к качеству и нагрузке.
Участникам лекции подарим скидку в 15% на обучение! 🎁

📅 Лекция пройдёт 19 марта в 19:00 МСК

Регистрируйтесь по ссылке и до встречи в четверг!
12👍4🔥4🤩21
Токенизация и эмбеддинги в NLP: что спрашивают на собеседованиях

Ранее мы разобрали популярные вопросы про attention и трансформеры с NLP-собеседований, а сегодня расскажем, что происходит с текстом до модели — обсудим токенизацию и построение эмбеддингов.

Формат новой статьи тот же: вопросы с собеседований разбиты на модули, а ответы спрятаны под спойлерами. Cначала попробуйте ответить сами, а потом загляните в разбор и примеры 😉

Читайте новую статью по ссылке!

Автор: Алексей Яндутов

🪔 DeepSchool
Уже профессионально работаете с LLM? Соберите полноценные LLM-системы с учётом требований к качеству и нагрузке, разберите сложные кейсы и дизайны NLP-решений у нас на курсе LLM Pro.
Старт — 26 марта.
Читайте подробнее на сайте и присоединяйтесь к обучению ⚡️
Please open Telegram to view this post
VIEW IN TELEGRAM
18🔥12👍9🤝1
Встречаемся через 3 часа на лекции по RAG

Сегодня Дмитрий Калашников расскажет, как правильно выстроить пайплайн и превратить RAG из хаотичного набора компонентов в надёжный инструмент.

На лекции вы узнаете:
- почему ванильная схема «ретривер + генератор» почти никогда не даёт нужного качества
- с чего начинать улучшения: эмбеддер, поиск, реранкер, генератор, данные или что-то ещё
- какие задачи приходится решать, чтобы RAG действительно работал
- как из разрозненных компонент собрать надежный RAG-продукт

🔥 А также всем участникам подарим скидку 15% на курс LLM Pro — продвинутую программу, на которой вы научитесь строить системы, которые работают в реальном мире!

Начинаем сегодня, 19 марта, в 19:00 МСК

Регистрируйтесь по ссылке и приходите сегодня вечером!
17🔥3🤝3
Как собирать NLP-системы, которые работают под нагрузкой

Обучить модель, построить эмбеддер или воспользоваться API — не значит запустить рабочую систему. RAG галлюцинирует, агент ломается на реальных сценариях, эмбеддинги не работают на специфичном домене. С этими и другими проблемами мы разберёмся на курсе LLM Pro, который стартует 26 марта!

На курсе вы научитесь:
• проектировать и запускать NLP-системы под реальные продуктовые задачи
• адаптировать LLM и эмбеддинги под специфичный домен и «живые» данные
• собирать и размечать датасеты — даже если данных изначально почти нет
• решать задачи классификации, поиска, кластеризации и NER — с ограничениями продакшн-среды
• собирать свою RAG-систему: от ретривера и реранкера до генератора и оценки качества
• строить AI-агентов с нуля — на основе сценариев, функций и взаимодействия с внешней средой

Приходите, чтобы узнать про best practices от опытных инженеров из продуктовых команд и применять похожие подходы в своих проектах

🤖 До 25 марта вы можете присоединиться к обучению со скидкой 5%!

Изучайте программу и отзывы на сайте и записывайтесь на ближайший поток 🎓
110👍5🔥4
Продолжаем разбираться с LLM!

Подготовили 20 новых карточек с вопросами:
- зачем нужен GQA
- как scaling laws влияют на выбор модели
- FSDP vs DDP
- как изображения попадают в LLM

и много других. Готовьтесь к собеседованию здесь!

Теперь можно предложить вопрос со своего собеседования и мы его опубликуем. Для этого нажимайте «предложить вопрос» у коллекции «от сообщества 💚»
16🔥8👍5
Flash Attention-2

FlashAttention-2 — реализация алгоритма attention, которая значительно ускоряет вычисления в сравнении с первой версией и работает заметно быстрее стандартной реализации в PyTorch. В статье простыми словами разбираем, за счёт чего это происходит 👨🏼‍💻

Из нового материала вы узнаете:
- какие проблемы были у FlashAttention-1
- как удалось лучше загрузить GPU
- что изменилось в распределении вычислений
- и какую роль играет параллельный softmax

Читайте статью по ссылке! 👈🏼
Про ускорение LLM, дообучение и их деплой рассказываем на курсе LLM. Запишитесь в лист ожидания, чтобы первыми занять место и получить скидки до 20% 🔥

Автор: Антон Наумов

🪔 DeepSchool
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥218👍5