Neural Networks | Нейронные сети
11.8K subscribers
756 photos
165 videos
170 files
9.41K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
Data Science / Machine Learning / AI / Big Data (VK)

Convex Potential Flows: Universal Probability Distributions with Optimal Transport and Convex Optimization
Huang et al.: https://arxiv.org/abs/2012.05942
#ArtificialIntelligence #DeepLearning #MachineLearning
This media is not supported in your browser
VIEW IN TELEGRAM
DeepLearning (Глубокие нейронные сети) (VK)

Интересуетесь темой компьютерного зрения? Компания Intel возобновила серию вебинаров CV Academy для опытных разработчиков. Глубокое обучение, нейронные сети, оптимизация – новейшие тренды и технологии будущего. Регистрируйтесь по ссылке: https://jsc-intel.timepad.ru/event/1446273/
Data Science / Machine Learning / AI / Big Data (VK)

Лаборатория машинного обучения ИТМО приглашает на четвёртый неклассический онлайн-семинар!

Вот его программа:
Новости. По традиции Андрей Фильченков прокомментирует недавние события из мира машинного обучения.
Доклад. Дарья Яковлева расскажет о применении умных алгоритмов и машинного обучения в рекламе, а также про задачи команды Performance Advertising ВКонтакте и актуальные подходы к их решению.
Дебаты. После доклада Дарьи к ней присоединится Андрей, чтобы сразиться в споре об использовании персональных данных в рекламе.

Смотрите трансляцию семинара 2 марта в 18:00 на нашем YouTube-канале: www.youtube.com/c/MLLabITMO/
Присоединяйтес...

View original post
DeepLearning (Глубокие нейронные сети) (VK)

https://paperswithcode.com/lib/timm/vision-transformer

The Vision Transformer is a model for image classification that employs a Transformer-like architecture over patches of the image. This includes the use of Multi-Head Attention, Scaled Dot-Product Attention and other architectural features seen in the Transformer architecture traditionally used for NLP.

PyTorch Image Models (TIMM) is a library for state-of-the-art image classification....

View original post