Weight Averaging
Stohastic Weight Averaging и Exponential Weight Averaging зачастую позволяют улучшить качество нейросети на различных задачах. Кроме того, эти методы достаточно просты в использовании.
Давайте вместе вспомним/разберемся как они работают и как быстро встроить их в свой пайплайн.
Читайте новую короткую статью по ссылке: https://deepschool-pro.notion.site/Weight-Averaging-07a2c80c6cf54858887d71fac70d8a31
Stohastic Weight Averaging и Exponential Weight Averaging зачастую позволяют улучшить качество нейросети на различных задачах. Кроме того, эти методы достаточно просты в использовании.
Давайте вместе вспомним/разберемся как они работают и как быстро встроить их в свой пайплайн.
Читайте новую короткую статью по ссылке: https://deepschool-pro.notion.site/Weight-Averaging-07a2c80c6cf54858887d71fac70d8a31
deepschool-pro on Notion
Weight Averaging | Notion
Автор: Александр Гончаренко
🔥23👍12❤4🤔1
Встречаемся сегодня в 18:00
Напоминаем, что сегодня мы проводим открытую онлайн-лекцию "Как быть востребованным CV-инженером"
Она пройдёт в 18.00 мск в Zoom
На лекции мы обсудим:
🔹что требуют от специалистов на рынке в 2023 году;
🔹какие навыки из мира разработки важно развивать DL-инженеру и почему;
🔹как встроить процесс развития этих навыков в работу уже сейчас;
🔹и ответим на ваши вопросы из бота и чата встречи
Обязательно приходите, если вы:
🔸 работаете или планируете работать в продуктовых командах (не research);
🔸 переживаете, что есть пробелы в знаниях, не уверены, что сможете легко сменить работу при надобности;
🔸 вам не хватает code review, вы не пишете тесты, не знакомы с CI/CD;
🔸 не знаете куда развиваться
Лекцию проведёт один из основателей DeepSchool, Тимур Фатыхов.
Регистрируйтесь по ссылке в боте!
🎁 При регистрации вы получите список библиотек, фреймворков и сервисов для CV-инженера, которые ускорят вашу работу
До встречи на лекции через 2 часа!
Напоминаем, что сегодня мы проводим открытую онлайн-лекцию "Как быть востребованным CV-инженером"
Она пройдёт в 18.00 мск в Zoom
На лекции мы обсудим:
🔹что требуют от специалистов на рынке в 2023 году;
🔹какие навыки из мира разработки важно развивать DL-инженеру и почему;
🔹как встроить процесс развития этих навыков в работу уже сейчас;
🔹и ответим на ваши вопросы из бота и чата встречи
Обязательно приходите, если вы:
🔸 работаете или планируете работать в продуктовых командах (не research);
🔸 переживаете, что есть пробелы в знаниях, не уверены, что сможете легко сменить работу при надобности;
🔸 вам не хватает code review, вы не пишете тесты, не знакомы с CI/CD;
🔸 не знаете куда развиваться
Лекцию проведёт один из основателей DeepSchool, Тимур Фатыхов.
Регистрируйтесь по ссылке в боте!
🎁 При регистрации вы получите список библиотек, фреймворков и сервисов для CV-инженера, которые ускорят вашу работу
До встречи на лекции через 2 часа!
❤8🔥4🍾3👍2
Как устроены TPU
CPU играет первостепенную роль в обучении и инференсе нейронных сетей. Остальные ускорители выступают как сопроцессоры. Часть из них массивна и самостоятельна, как, например, GPU. А другая часть может выполнять только особые операции, поэтому для их полноценного использования нейросеть должна будет пройти сложные этапы компиляции и перестройки графа. Характерный пример таких ускорителей — Google TPU. И как раз про него мы и расскажем.
Из новой статьи вы узнаете:
- почему GPU избыточны для нейросетей;
- за счет чего TPU столь эффективны;
- как устроен модуль перемножения матриц в TPU.
Читайте по ссылке, чтобы лучше разобраться в ускорителях:
https://deepschool-pro.notion.site/Google-TPU-c3160492e8fa44af81fd640218b290ae
CPU играет первостепенную роль в обучении и инференсе нейронных сетей. Остальные ускорители выступают как сопроцессоры. Часть из них массивна и самостоятельна, как, например, GPU. А другая часть может выполнять только особые операции, поэтому для их полноценного использования нейросеть должна будет пройти сложные этапы компиляции и перестройки графа. Характерный пример таких ускорителей — Google TPU. И как раз про него мы и расскажем.
Из новой статьи вы узнаете:
- почему GPU избыточны для нейросетей;
- за счет чего TPU столь эффективны;
- как устроен модуль перемножения матриц в TPU.
Читайте по ссылке, чтобы лучше разобраться в ускорителях:
https://deepschool-pro.notion.site/Google-TPU-c3160492e8fa44af81fd640218b290ae
deepschool-pro on Notion
Google TPU | Notion
Автор: Александр Наздрюхин
Редактура: Ксения Рябинова
Редактура: Ксения Рябинова
🔥30👍10❤6
Развивайтесь в Computer Vision вместе с DeepSchool
28 марта стартует 4-ый поток курса “Ракета в CV”
Мы представили программу во вторник на лекции и уже осталось 9 мест из 25.
В данный момент заявок уже больше, чем свободных мест, но у вас еще есть возможность записаться, опередив тех, кто еще думает :)
После обучения вы повысите свою ценность на рынке, улучшите процессы в своей команде и научитесь решать полный цикл CV-задач:
🔹собирать чистые данные,
🔹быстрее обучать модели,
🔹ускорять нейросети,
🔹создавать веб-сервисы,
🔹автоматизировать их деплой,
🔹настраивать мониторинг приложений,
🔹решать задачи распознавания лиц, текстов и многое другое.
4 месяца вы будете перенимать опыт у 8 практикующих инженеров: опытных разработчиков, руководителей R&D отделов, тимлидов в области Computer Vision.
Мы используем разные подходы, чтобы передать вам свои знания и помочь освоить программу полностью:
🔸end-to-end проекты с подробным code review,
🔸семинары, где отвечаем на вопросы студентов,
🔸групповые задания,
🔸онлайн-лекции,
🔸1-on-1 встречи с куратором,
🔸текстовые гайды к лекциям и инструментам.
Оставляйте заявку на консультацию на нашем сайте.
С вами свяжется один из основателей DeepSchool Тимур Фатыхов.
На встрече он ответит на ваши вопросы, расскажет подробнее о программе и поможет определить, подходит ли наш курс под ваши цели и задачи.
28 марта стартует 4-ый поток курса “Ракета в CV”
Мы представили программу во вторник на лекции и уже осталось 9 мест из 25.
В данный момент заявок уже больше, чем свободных мест, но у вас еще есть возможность записаться, опередив тех, кто еще думает :)
После обучения вы повысите свою ценность на рынке, улучшите процессы в своей команде и научитесь решать полный цикл CV-задач:
🔹собирать чистые данные,
🔹быстрее обучать модели,
🔹ускорять нейросети,
🔹создавать веб-сервисы,
🔹автоматизировать их деплой,
🔹настраивать мониторинг приложений,
🔹решать задачи распознавания лиц, текстов и многое другое.
4 месяца вы будете перенимать опыт у 8 практикующих инженеров: опытных разработчиков, руководителей R&D отделов, тимлидов в области Computer Vision.
Мы используем разные подходы, чтобы передать вам свои знания и помочь освоить программу полностью:
🔸end-to-end проекты с подробным code review,
🔸семинары, где отвечаем на вопросы студентов,
🔸групповые задания,
🔸онлайн-лекции,
🔸1-on-1 встречи с куратором,
🔸текстовые гайды к лекциям и инструментам.
Оставляйте заявку на консультацию на нашем сайте.
С вами свяжется один из основателей DeepSchool Тимур Фатыхов.
На встрече он ответит на ваши вопросы, расскажет подробнее о программе и поможет определить, подходит ли наш курс под ваши цели и задачи.
❤12🔥8👍1
CVAT SDK PyTorch Adapter
Если вам надоело вручную выгружать задания от разметчиков и объединять их для загрузки на сервер, то эта статья для вас.
В новом материале обсудим:
- как загрузить данные из CVAT напрямую в torch.utils.data.Dataset;
- советы при работе с CVAT PyTorch SDK;
- недостатки SDK на данный момент.
Читайте новую статью по ссылке, чтобы готовить датасеты быстрее: https://deepschool-pro.notion.site/CVAT-SDK-PyTorch-Adapter-e223563927454322a8d56076e59b8b17
Если вам надоело вручную выгружать задания от разметчиков и объединять их для загрузки на сервер, то эта статья для вас.
В новом материале обсудим:
- как загрузить данные из CVAT напрямую в torch.utils.data.Dataset;
- советы при работе с CVAT PyTorch SDK;
- недостатки SDK на данный момент.
Читайте новую статью по ссылке, чтобы готовить датасеты быстрее: https://deepschool-pro.notion.site/CVAT-SDK-PyTorch-Adapter-e223563927454322a8d56076e59b8b17
🔥22❤8👍8
Хотим с вами поделиться каналом Start Career in DS. Он будет вам полезен, если вы только начинаете карьеру в Data Science. Автор канала - лид команды оптимизации ассортимента Яндекс.Лавки Роман Васильев.
Коротко о Роме:
– выпускник ВМК МГУ
– строит аналитику ассортимента в Яндекс.Лавке
– работал в Мегафоне, где разрабатывал ML-модели для оптимизации маркетинга, проводил собеседования, курировал стажеров и расширял команду
– руководил командой аналитиков и data scientist’ов в Магните
В своём канале Рома делится информацией, которая поможет вам подготовиться к собеседованиям и получить оффер в крутую компанию
Примеры некоторых постов:
– Красивый курс по базовой теории вероятностей и статистике
– Python для анализа данных новичкам
– Как под капотом работает Яндекс.Такси
– Интерактивные курсы по машинному обучению и Python от Академии Яндекса
Если вы интересуетесь DS, рекомендуем заглянуть
Коротко о Роме:
– выпускник ВМК МГУ
– строит аналитику ассортимента в Яндекс.Лавке
– работал в Мегафоне, где разрабатывал ML-модели для оптимизации маркетинга, проводил собеседования, курировал стажеров и расширял команду
– руководил командой аналитиков и data scientist’ов в Магните
В своём канале Рома делится информацией, которая поможет вам подготовиться к собеседованиям и получить оффер в крутую компанию
Примеры некоторых постов:
– Красивый курс по базовой теории вероятностей и статистике
– Python для анализа данных новичкам
– Как под капотом работает Яндекс.Такси
– Интерактивные курсы по машинному обучению и Python от Академии Яндекса
Если вы интересуетесь DS, рекомендуем заглянуть
👍13❤3
Интерактивная Сегментация
Дедовский способ ускорить разметку большого датасета: размечаем небольшую часть, обучаем на ней модель, делаем предразметку, правим руками, повторяем.
Но даже с таким подходом размечать маски для сегментации — долго: надо выделять полигоны мышкой. В этом случае на помощь ленивым человекам приходят модели для интерактивной сегментации!
Из статьи вы узнаете:
- общий алгоритм работы интерактивной сегментации,
- как передать информацию о кликах пользователя в сеть,
- как смоделировать клики во время обучения,
- и по какой метрике сравнивать результаты моделей.
Читайте новую статью по ссылке: https://deepschool-pro.notion.site/4009a965d795417fa54dc8d5adc4f7db
Дедовский способ ускорить разметку большого датасета: размечаем небольшую часть, обучаем на ней модель, делаем предразметку, правим руками, повторяем.
Но даже с таким подходом размечать маски для сегментации — долго: надо выделять полигоны мышкой. В этом случае на помощь ленивым человекам приходят модели для интерактивной сегментации!
Из статьи вы узнаете:
- общий алгоритм работы интерактивной сегментации,
- как передать информацию о кликах пользователя в сеть,
- как смоделировать клики во время обучения,
- и по какой метрике сравнивать результаты моделей.
Читайте новую статью по ссылке: https://deepschool-pro.notion.site/4009a965d795417fa54dc8d5adc4f7db
🔥30❤4👍4
Self- vs Semi- vs Unsupervised learning
Вы наверняка слышали следующие термины — supervised ML, unsupervised ML, semi-supervised ML, self-supervised ML. Но чем различаются перечисленные методы? Такой вопрос задали одному из авторов на собеседовании. Давайте наконец-то разберемся с этими терминами!
🔸Supervised machine learning
Берем размеченные данные, учим на них модель.
Например, классификация изображений, сегментация изображений и в целом любая задача, при которой модель учится только по размеченным данным.
🔸Unsupervised machine learning
Берем неразмеченные данные, учим на них модель.
Например, кластеризация (KMeans, DBSCAN), понижение размерности (PCA, umap) и, конечно же, автоэнкодеры.
🔸Semi-supervised machine learning
Берем размеченные данные и неразмеченные данные, учим на них модель.
Например, self-training. Это метод, который можно использовать, если у вас чуть-чуть размеченных и много неразмеченных данных. Сначала обучаем модель на размеченных данных, затем используем обученную модель для разметки большого набора неразмеченных данных. Выбираем из этого большого набора примеры с высокими скорами (и низким лоссом) и обучаем на объединенном наборе данных новую модель. Такой процесс можно сделать в несколько итераций, пока все данные не будут размечены “псевдо-лейблами”.
В этой категории стоит также обратить внимание на работу FixMatch — довольно простой для понимания метод. Он легко заводится и иногда выстреливает (особенно вместе с предобучением на какой-нибудь self-supervised задаче).
🔸Self-supervised machine learning
Берем неразмеченные данные, генерируем разметку из данных, учим на них модель.
Например, в NLP так учится BERT или GPT. Этот метод чаще всего используется для претрейна. Допустим, когда в модель подают повернутые на N градусов картинки и просят ее предсказать угол поворота N. После обучения модели становятся в большей степени адаптированными к вашему домену и к структуре данных, получают более “богатые” фичи.
Вообще достаточно много задач решается с помощью данного метода. Например, super-resolution, style transfer (в NLP и в CV) и даже neural architecture search! В каком-то смысле CLiP — тоже self-supervised learning: обучение происходит на тех картинках и подписях к ним, которые собрали скрепером, а далее из этих данных сгенерировали лейблы.
Self-supervised learning — очень многообещающий метод предобучения моделей под свой домен (по нашему мнению). Часто бывает так, что ваш домен довольно сильно отличается от домена ImageNet’a, а предобученные на ImageNet’e модели в этом случае являются субоптимальными. Эту проблему можно попытаться решить с помощью self-supervised learning’a на вашем домене.
Прелесть self-supervised подходов последних лет заключается не только в том, что они могут забустить вашу метрику, но и в том, что, весьма вероятно, вам потребуется меньше данных для решения ваших задач. Также, как правило, такие методы помогают сети на вашем домене быстрее сходиться. Это экономит время и, как следствие, деньги.
Авторы: Ксения Рябинова, Марк Страхов
Редактура: Александр Наздрюхин
Вы наверняка слышали следующие термины — supervised ML, unsupervised ML, semi-supervised ML, self-supervised ML. Но чем различаются перечисленные методы? Такой вопрос задали одному из авторов на собеседовании. Давайте наконец-то разберемся с этими терминами!
🔸Supervised machine learning
Берем размеченные данные, учим на них модель.
Например, классификация изображений, сегментация изображений и в целом любая задача, при которой модель учится только по размеченным данным.
🔸Unsupervised machine learning
Берем неразмеченные данные, учим на них модель.
Например, кластеризация (KMeans, DBSCAN), понижение размерности (PCA, umap) и, конечно же, автоэнкодеры.
🔸Semi-supervised machine learning
Берем размеченные данные и неразмеченные данные, учим на них модель.
Например, self-training. Это метод, который можно использовать, если у вас чуть-чуть размеченных и много неразмеченных данных. Сначала обучаем модель на размеченных данных, затем используем обученную модель для разметки большого набора неразмеченных данных. Выбираем из этого большого набора примеры с высокими скорами (и низким лоссом) и обучаем на объединенном наборе данных новую модель. Такой процесс можно сделать в несколько итераций, пока все данные не будут размечены “псевдо-лейблами”.
В этой категории стоит также обратить внимание на работу FixMatch — довольно простой для понимания метод. Он легко заводится и иногда выстреливает (особенно вместе с предобучением на какой-нибудь self-supervised задаче).
🔸Self-supervised machine learning
Берем неразмеченные данные, генерируем разметку из данных, учим на них модель.
Например, в NLP так учится BERT или GPT. Этот метод чаще всего используется для претрейна. Допустим, когда в модель подают повернутые на N градусов картинки и просят ее предсказать угол поворота N. После обучения модели становятся в большей степени адаптированными к вашему домену и к структуре данных, получают более “богатые” фичи.
Вообще достаточно много задач решается с помощью данного метода. Например, super-resolution, style transfer (в NLP и в CV) и даже neural architecture search! В каком-то смысле CLiP — тоже self-supervised learning: обучение происходит на тех картинках и подписях к ним, которые собрали скрепером, а далее из этих данных сгенерировали лейблы.
Self-supervised learning — очень многообещающий метод предобучения моделей под свой домен (по нашему мнению). Часто бывает так, что ваш домен довольно сильно отличается от домена ImageNet’a, а предобученные на ImageNet’e модели в этом случае являются субоптимальными. Эту проблему можно попытаться решить с помощью self-supervised learning’a на вашем домене.
Прелесть self-supervised подходов последних лет заключается не только в том, что они могут забустить вашу метрику, но и в том, что, весьма вероятно, вам потребуется меньше данных для решения ваших задач. Также, как правило, такие методы помогают сети на вашем домене быстрее сходиться. Это экономит время и, как следствие, деньги.
Авторы: Ксения Рябинова, Марк Страхов
Редактура: Александр Наздрюхин
🔥36👍9❤6😍3🍾2❤🔥1⚡1
Саша Гончаренко
В предыдущих постах мы начали знакомство с нашими авторами (о себе уже рассказали Ксюша и Марк), а в этот раз о себе расскажет Саша:
"В старших классах я знал, что хочу быть программистом, и поэтому пошел учиться в Омский политех. Правда, я совершил большую ошибку и заключил целевое с заводом)
На первой практике, на вопрос куратора “чем хочешь заниматься” — я ляпнул первое, что пришло в голову: “делать искусственный интеллект”. Так и начался мой путь
Помню, как столкнулся с первой проблемой: не мог установить numpy🙃 Тщетно пытался поставить его на машину несколько дней, и на этом моя история в ML чуть было не закончилась) Но спустя год я прошел курсы по машинному обучению от компании 7bits, понял что такое ML и смог его полюбить.
В конце обучения мы проходили "игрушечные" собеседования с инженерами из разных компаний, где я уже и познакомился со своим нынешним тимлидом. Мне так понравилась встреча, что я решил изучить компанию и наткнулся на вакансию. С мыслями: ”что я теряю?” — отправил резюме и спустя месяц начался мой первый рабочий день в Deeplay!
Проработав месяц, я понял, что на завод возвращаться не хочу и расторг целевое. Начал совмещать фултайм работу с учебой (было не так уж и сложно, из-за того, что и работа, и учеба были удаленными). Похвастаюсь — на 4 курсе даже занял первое место в РФ в соревновании Worldskills по машинному обучению.
В Deeplay я уже 3 года. Мы создаем алгоритмы, повышающие вовлеченность людей в видеоиграх: мобильных и компьютерных. С помощью ML мы подстраиваем геймлей под стиль игры пользователей, чтобы они возвращались в игру чаще.
Сейчас в основном занимаюсь mlops, ускоряя наши эксперименты. Мой руководитель любит, когда эксперименты проходят за ночь по одной кнопке, а не за месяц, и я делаю все возможное, чтобы он был рад)"
В комментариях можно пообщаться с Сашей и задать интересующие вопросы)
Посты, над которыми работал Саша в нашем канале:
- Функции активации
- Чем заменить CSV, если у вас очень много данных
- Сравнение метрик двух моделей
- Covariance shift и Adversarial validation
- Weight Averaging
В предыдущих постах мы начали знакомство с нашими авторами (о себе уже рассказали Ксюша и Марк), а в этот раз о себе расскажет Саша:
"В старших классах я знал, что хочу быть программистом, и поэтому пошел учиться в Омский политех. Правда, я совершил большую ошибку и заключил целевое с заводом)
На первой практике, на вопрос куратора “чем хочешь заниматься” — я ляпнул первое, что пришло в голову: “делать искусственный интеллект”. Так и начался мой путь
Помню, как столкнулся с первой проблемой: не мог установить numpy🙃 Тщетно пытался поставить его на машину несколько дней, и на этом моя история в ML чуть было не закончилась) Но спустя год я прошел курсы по машинному обучению от компании 7bits, понял что такое ML и смог его полюбить.
В конце обучения мы проходили "игрушечные" собеседования с инженерами из разных компаний, где я уже и познакомился со своим нынешним тимлидом. Мне так понравилась встреча, что я решил изучить компанию и наткнулся на вакансию. С мыслями: ”что я теряю?” — отправил резюме и спустя месяц начался мой первый рабочий день в Deeplay!
Проработав месяц, я понял, что на завод возвращаться не хочу и расторг целевое. Начал совмещать фултайм работу с учебой (было не так уж и сложно, из-за того, что и работа, и учеба были удаленными). Похвастаюсь — на 4 курсе даже занял первое место в РФ в соревновании Worldskills по машинному обучению.
В Deeplay я уже 3 года. Мы создаем алгоритмы, повышающие вовлеченность людей в видеоиграх: мобильных и компьютерных. С помощью ML мы подстраиваем геймлей под стиль игры пользователей, чтобы они возвращались в игру чаще.
Сейчас в основном занимаюсь mlops, ускоряя наши эксперименты. Мой руководитель любит, когда эксперименты проходят за ночь по одной кнопке, а не за месяц, и я делаю все возможное, чтобы он был рад)"
В комментариях можно пообщаться с Сашей и задать интересующие вопросы)
Посты, над которыми работал Саша в нашем канале:
- Функции активации
- Чем заменить CSV, если у вас очень много данных
- Сравнение метрик двух моделей
- Covariance shift и Adversarial validation
- Weight Averaging
👍30❤7👏5
Segment Anything Model (SAM)
В прошлом обзоре мы уже рассмотрели задачу интерактивной сегментации и общий подход к ней. Как знали, что грядет что-то грандиозное 🙂
Недавно вышла статья с описанием новой архитектуры и огромного датасета для interactive segmentation. Авторы собрали более миллиарда масок на 11 миллионах изображений и выложили данные c моделью в открытый доступ.
В новой статье мы рассмотрим архитектуру, процесс тренировки и подход к разметке датасета.
И подробнее разберем детали, которые еще не встретили в других обзорах статьи: как prompt encoder кодирует клики и рамки, как mask decoder создаёт маску.
Читайте новую статью по ссылке: https://www.notion.so/deepschool-pro/Segment-Anything-50ce061b804a4d7e96cd0d6b084d396d?pvs=4
В прошлом обзоре мы уже рассмотрели задачу интерактивной сегментации и общий подход к ней. Как знали, что грядет что-то грандиозное 🙂
Недавно вышла статья с описанием новой архитектуры и огромного датасета для interactive segmentation. Авторы собрали более миллиарда масок на 11 миллионах изображений и выложили данные c моделью в открытый доступ.
В новой статье мы рассмотрим архитектуру, процесс тренировки и подход к разметке датасета.
И подробнее разберем детали, которые еще не встретили в других обзорах статьи: как prompt encoder кодирует клики и рамки, как mask decoder создаёт маску.
Читайте новую статью по ссылке: https://www.notion.so/deepschool-pro/Segment-Anything-50ce061b804a4d7e96cd0d6b084d396d?pvs=4
🔥31❤5👍4
Оптимизаторы. Часть 1
Однажды Саша Гончаренко сходил на интервью, не смог написать формулу для SGD with momentum и не получил оффер. Поэтому Саша решил упорядочить знания и написать статью. Из нее вы вспомните:
- какие существуют оптимизаторы и как они работают?
- какие у них есть проблемы и как они решаются?
На собеседованиях часто спрашивают про оптимизаторы, поэтому рекомендуем освежить знания, чтобы не повторить опыт Саши :)
Читайте нашу новую статью по ссылке: https://deepschool-pro.notion.site/1-db393ba62f0e49cfa3c29a615006e796
Однажды Саша Гончаренко сходил на интервью, не смог написать формулу для SGD with momentum и не получил оффер. Поэтому Саша решил упорядочить знания и написать статью. Из нее вы вспомните:
- какие существуют оптимизаторы и как они работают?
- какие у них есть проблемы и как они решаются?
На собеседованиях часто спрашивают про оптимизаторы, поэтому рекомендуем освежить знания, чтобы не повторить опыт Саши :)
Читайте нашу новую статью по ссылке: https://deepschool-pro.notion.site/1-db393ba62f0e49cfa3c29a615006e796
🔥57❤14👍12
Мы расширяем команду авторов канала
Мы расширяем команду и ищем ребят, которые хотят писать посты вместе с нами. Всего в команде авторов 9 DL-инженеров. С частью команды мы уже успели вас познакомить: Ксюша, Марк и Саша. А в этом посте рассказали, как проходит процесс подготовки статей
Если вы тоже хотите разбирать статьи, систематизировать свои знания через туториалы и посты, получать ревью от коллег-инженеров и обмениваться опытом вместе с нами и тысячами подписчиков, заполните, пожалуйста гугл-форму
Мы ожидаем, что у вас есть опыт работы в ML/DL или в научной деятельности в этой сфере. Подробнее про условия мы рассказали в самой форме. Оставляйте отклик по ссылке, мы свяжемся с вами по указанным контактам до 25 апреля :)
Мы расширяем команду и ищем ребят, которые хотят писать посты вместе с нами. Всего в команде авторов 9 DL-инженеров. С частью команды мы уже успели вас познакомить: Ксюша, Марк и Саша. А в этом посте рассказали, как проходит процесс подготовки статей
Если вы тоже хотите разбирать статьи, систематизировать свои знания через туториалы и посты, получать ревью от коллег-инженеров и обмениваться опытом вместе с нами и тысячами подписчиков, заполните, пожалуйста гугл-форму
Мы ожидаем, что у вас есть опыт работы в ML/DL или в научной деятельности в этой сфере. Подробнее про условия мы рассказали в самой форме. Оставляйте отклик по ссылке, мы свяжемся с вами по указанным контактам до 25 апреля :)
👍24🔥9❤4👏2
Kaggle NFL - Player Contact Detection (Часть 1)
Недавно на платформе Kaggle прошло соревнование по анализу игр американской футбольной лиги NFL. В этом обзоре мы посмотрим лучшие решения и методы, используемые для обнаружения столкновений между игроками на поле.
Из статьи вы узнаете:
- Как можно подготовить данные для обучения в задаче видеоклассификации
- Какие архитектуры использовали участники для анализа трекинг-данных с последовательностью изображений
- Что такое метрика корреляции Мэтьюса и Forward Selection OOF Ensemble
- Какая библиотека читает картинки быстрее, чем OpenCV
Читайте новую статью по ссылке:
https://deepschool-pro.notion.site/Kaggle-NFL-Player-Contact-Detection-1-c88d8e50dc89408b8fe83fe776a65d2b
Недавно на платформе Kaggle прошло соревнование по анализу игр американской футбольной лиги NFL. В этом обзоре мы посмотрим лучшие решения и методы, используемые для обнаружения столкновений между игроками на поле.
Из статьи вы узнаете:
- Как можно подготовить данные для обучения в задаче видеоклассификации
- Какие архитектуры использовали участники для анализа трекинг-данных с последовательностью изображений
- Что такое метрика корреляции Мэтьюса и Forward Selection OOF Ensemble
- Какая библиотека читает картинки быстрее, чем OpenCV
Читайте новую статью по ссылке:
https://deepschool-pro.notion.site/Kaggle-NFL-Player-Contact-Detection-1-c88d8e50dc89408b8fe83fe776a65d2b
DeepSchool on Notion
Kaggle NFL - Player Contact Detection (Часть 1) | Notion
Автор: Илья Бакалец
🔥39⚡5❤5👍3🤩1
Знакомство с 3D CV
Все чаще в индустрии встречаются термины из мира 3D Computer Vision. Набирают популярность автономные роботы и автомобили, появляются новые VR/AR игры и приложения. Растет число компаний и стартапов, которые используют эти технологии, и появляются вакансии, требующие быть знакомым со SLAM, SfM, NeRF и другими аббревиатурами.
Мы подготовили статью, в которой рассказали:
- что объединяет большинство задач из области 3D CV,
- как из 2D фотографий получают 3D слепки объектов,
- чем отличаются между собой методы позиционирования роботов,
- что такое NeRF и какие задачи он решает
Это вводная статья, которая даст вам общее представление о происходящем в 3D CV. Если вам интересна эта тема, ставьте реакции и мы поймем, что стоит продолжать в нее углубляться
Читайте по ссылке: https://deepschool-pro.notion.site/3D-CV-33ef6d8e5a7f4742b26f1081eaf74c84
Все чаще в индустрии встречаются термины из мира 3D Computer Vision. Набирают популярность автономные роботы и автомобили, появляются новые VR/AR игры и приложения. Растет число компаний и стартапов, которые используют эти технологии, и появляются вакансии, требующие быть знакомым со SLAM, SfM, NeRF и другими аббревиатурами.
Мы подготовили статью, в которой рассказали:
- что объединяет большинство задач из области 3D CV,
- как из 2D фотографий получают 3D слепки объектов,
- чем отличаются между собой методы позиционирования роботов,
- что такое NeRF и какие задачи он решает
Это вводная статья, которая даст вам общее представление о происходящем в 3D CV. Если вам интересна эта тема, ставьте реакции и мы поймем, что стоит продолжать в нее углубляться
Читайте по ссылке: https://deepschool-pro.notion.site/3D-CV-33ef6d8e5a7f4742b26f1081eaf74c84
🔥106❤11⚡8👍4🤩1
Илья Бакалец
В прошлых постах мы рассказывали как пишем статьи и сколько людей работает над материалами. Мы уже успели познакомить вас с частью команды: Ксюша, Саша, Марк.
В этот раз о себе расскажет Илья:
”Впервые с машинным обучением я познакомился в 2018 году, перед поступлением в магистратуру. Эта область меня заинтересовала и я начал обучение на курсе "Машинное обучение и анализ данных" от МФТИ и Яндекс.
Погружаясь в машинное обучение, я попал в сообщество ODS. В сообществе я узнал об ODS Pet Projects - это митапы, где дата саентисты знакомятся, делятся идеями и совместно или по отдельности пытаются реализовать их. Я начал посещать митапы, объединился в команду с другими ребятами, и мы вместе разработали навык для Яндекс.Алисы, с которым позже выступили на секции ODS Pet Projects на DataFest 2019.
В то время я познакомился с Владом Грозиным, который был организатором ODS Pet Projects. От него я получил приглашение в компанию, где он работал консультантом. Во время прохождения стажировки, я занимался верификацией почерка. Позднее я перешел в штат и работал над распознаванием текста на товарных знаках и их классификацией.
Одновременно с первой работой я присоединился к стартапу PTF-Lab, где занимался сегментацией октагона, калибровкой камеры и менеджментом. Ездил на встречу с потенциальным инвестором, и в целом был сильно погружен в жизнь стартапа и занимался его развитием.
В 2021 году я присоединился к компании Магнус Тех. В проектах в которых я принимал участие мне было интересно развивать процессы в команде и общаться с заказчиком. Поэтому на новой работе я начал постепенно брать на себя обязанности и ответственность руководителя, не без ошибок, конечно 🙂. В итоге в Магнус Тех я занял позицию Тимлида.
В Магнус Тех мы работаем с видеоаналитикой дорожного движения и анализируем активность на строительных объектах. Классификация, обнаружение аномалий, трекинг и детекция объектов.”
А еще Илья ведет подкаст «ИИ что?». Недавно там вышел выпуск с Владом Грозиным из ODS, в котором ребята обсудили разработку рекомендательных систем, получение PhD в Америке, системы, предсказывающие желания пользователя и другое. Подписывайтесь на канал, чтобы не пропустить интересного!:)
В комментариях к посту можно пообщаться с Ильей и задать интересующие вопросы)
Посты, над которыми Илья работал в нашем канале:
- Как ускорить разметку при помощи CVAT и Fiftyone
- Unet
- Сегментация без нейросетей
- CVAT SD-K PyTorch Adapter
- Kaggle NFL - Player Contact Detection (Часть 1)
В прошлых постах мы рассказывали как пишем статьи и сколько людей работает над материалами. Мы уже успели познакомить вас с частью команды: Ксюша, Саша, Марк.
В этот раз о себе расскажет Илья:
”Впервые с машинным обучением я познакомился в 2018 году, перед поступлением в магистратуру. Эта область меня заинтересовала и я начал обучение на курсе "Машинное обучение и анализ данных" от МФТИ и Яндекс.
Погружаясь в машинное обучение, я попал в сообщество ODS. В сообществе я узнал об ODS Pet Projects - это митапы, где дата саентисты знакомятся, делятся идеями и совместно или по отдельности пытаются реализовать их. Я начал посещать митапы, объединился в команду с другими ребятами, и мы вместе разработали навык для Яндекс.Алисы, с которым позже выступили на секции ODS Pet Projects на DataFest 2019.
В то время я познакомился с Владом Грозиным, который был организатором ODS Pet Projects. От него я получил приглашение в компанию, где он работал консультантом. Во время прохождения стажировки, я занимался верификацией почерка. Позднее я перешел в штат и работал над распознаванием текста на товарных знаках и их классификацией.
Одновременно с первой работой я присоединился к стартапу PTF-Lab, где занимался сегментацией октагона, калибровкой камеры и менеджментом. Ездил на встречу с потенциальным инвестором, и в целом был сильно погружен в жизнь стартапа и занимался его развитием.
В 2021 году я присоединился к компании Магнус Тех. В проектах в которых я принимал участие мне было интересно развивать процессы в команде и общаться с заказчиком. Поэтому на новой работе я начал постепенно брать на себя обязанности и ответственность руководителя, не без ошибок, конечно 🙂. В итоге в Магнус Тех я занял позицию Тимлида.
В Магнус Тех мы работаем с видеоаналитикой дорожного движения и анализируем активность на строительных объектах. Классификация, обнаружение аномалий, трекинг и детекция объектов.”
А еще Илья ведет подкаст «ИИ что?». Недавно там вышел выпуск с Владом Грозиным из ODS, в котором ребята обсудили разработку рекомендательных систем, получение PhD в Америке, системы, предсказывающие желания пользователя и другое. Подписывайтесь на канал, чтобы не пропустить интересного!:)
В комментариях к посту можно пообщаться с Ильей и задать интересующие вопросы)
Посты, над которыми Илья работал в нашем канале:
- Как ускорить разметку при помощи CVAT и Fiftyone
- Unet
- Сегментация без нейросетей
- CVAT SD-K PyTorch Adapter
- Kaggle NFL - Player Contact Detection (Часть 1)
❤24🔥11👍9⚡1❤🔥1🤩1
CLIP
Модель CLIP (Contrastive Language-Image Pre-Training) - это нейросеть, разработанная OpenAI. Она способна обрабатывать как язык, так и изображения, и достигла State-of-the-Art результатов на различных датасетах. Эта модель часто используется на kaggle в качестве бекбона. А также она внесла существенный вклад в развитие text2image моделей.
В статье мы расскажем:
- Как собирали датасет для обучения CLIP
- Как выглядит архитектура блоков модели
- Какой лосс использовали для обучения
- Как сделать классификатор из CLIP
Читайте новую статью по ссылке: https://deepschool-pro.notion.site/CLIP-3f406560e5b145f9873f9b67dfeacca3
Модель CLIP (Contrastive Language-Image Pre-Training) - это нейросеть, разработанная OpenAI. Она способна обрабатывать как язык, так и изображения, и достигла State-of-the-Art результатов на различных датасетах. Эта модель часто используется на kaggle в качестве бекбона. А также она внесла существенный вклад в развитие text2image моделей.
В статье мы расскажем:
- Как собирали датасет для обучения CLIP
- Как выглядит архитектура блоков модели
- Какой лосс использовали для обучения
- Как сделать классификатор из CLIP
Читайте новую статью по ссылке: https://deepschool-pro.notion.site/CLIP-3f406560e5b145f9873f9b67dfeacca3
deepschool-pro on Notion
CLIP | Notion
Автор: Ксения Рябинова, Марк Страхов
🔥59❤8⚡5👍1🤔1
🎙Онлайн-подкаст с Мишей Моисеевым
В воскресенье, 7 мая, в 12:00 МСК
Помимо постов с теорией мы также проводим подкасты. Или интервью🤔 на самом деле просто болтаем на интересные темы с людьми из ML. Ранее у нас в гостях были Влад Лялин и Андрей Шадриков, теперь ждем Мишу
Коротко о Мише:
- работает Senior AI Engineer в AstraZeneca
- занимал должность Head Of AI в movavi.ru
- с нуля создавал CV-команду в Золотой Короне
- последний год жил в Юго-Восточной Азии, а теперь в Мюнхене
На подкасте мы обсудим:
- как Миша проходил собеседования в зарубежные компании
- какие задачи решает Head Of AI
- зачем нейросети в видеоредакторе
- найм и менеджмент в AI-командах
- возможно ли эффективно работать среди пальм вблизь океана🌴
Приходите онлайн и задайте любой вопрос Мише лично во время открытого микрофона. Или пишите вопросы в комментарии к этому посту
Запись будет! Выложим позднее в этом канале👍
Встречаемся здесь 7 мая в 12:00 МСК🔔
В воскресенье, 7 мая, в 12:00 МСК
Помимо постов с теорией мы также проводим подкасты. Или интервью🤔 на самом деле просто болтаем на интересные темы с людьми из ML. Ранее у нас в гостях были Влад Лялин и Андрей Шадриков, теперь ждем Мишу
Коротко о Мише:
- работает Senior AI Engineer в AstraZeneca
- занимал должность Head Of AI в movavi.ru
- с нуля создавал CV-команду в Золотой Короне
- последний год жил в Юго-Восточной Азии, а теперь в Мюнхене
На подкасте мы обсудим:
- как Миша проходил собеседования в зарубежные компании
- какие задачи решает Head Of AI
- зачем нейросети в видеоредакторе
- найм и менеджмент в AI-командах
- возможно ли эффективно работать среди пальм вблизь океана🌴
Приходите онлайн и задайте любой вопрос Мише лично во время открытого микрофона. Или пишите вопросы в комментарии к этому посту
Запись будет! Выложим позднее в этом канале👍
Встречаемся здесь 7 мая в 12:00 МСК🔔
🔥28👍11❤8
🎙Подкаст с Мишей через 1 час!
Подключайтесь онлайн, встречаемся здесь в 12:00 МСК🔔
Подключайтесь онлайн, встречаемся здесь в 12:00 МСК🔔
🔥7❤3