Neural Networks | Нейронные сети
11.8K subscribers
760 photos
166 videos
170 files
9.41K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
​Data Exploration with Adversarial Autoencoders
Dive into a different approach to Unsupervised Clustering of Multivariate Time-Series Data with Adversarial Autoencoder Models.
https://towardsdatascience.com/data-exploration-with-adversarial-autoencoders-311a4e1f271b?source=collection_home---4------1-----------------------

🔗 Data Exploration with Adversarial Autoencoders - Towards Data Science
Dive into a different approach to Unsupervised Clustering of Multivariate Time-Series Data with Adversarial Autoencoder Models.
#Dataquality #Machinelearning #Datascientist
"Data Quality Check In Machine Learning"
https://www.youtube.com/watch?v=DRGajth6OO4/

🎥 "Data Quality Check In Machine Learning"
👁 1 раз 3348 сек.
The world of data quality check in Machine Learning is expanding at an unimaginable pace. Researchers estimate that by 2020, every human would create 1.7MB of information each second. The true power of data can be unlocked when it is refined and transformed into a high quality state where we can realize its true potential. Many businesses and researchers believe that data quality is one of the primary concerns for data-driven enterprises and associated processes considering the pace of data growth. Most of
Нейронные сети и компьютерное зрение

00 - ML & CV. О курсе
01 - ML & CV. Математическая модель нейрона
02 - ML & CV. Булевы операции в виде нейронов
03 - ML & CV. От нейрона к нейронной сети
04 - ML & CV. Семинар: Базовая работа в PyTorch
05 - ML & CV. Восстановление зависимости нейронной сетью
06 - ML & CV. Компоненты нейронной сети
07 - ML & CV. Алгоритм настройки нейронной сети
08 - ML & CV. Семинар: Реализация градиентного спуска (часть 1)
09 - ML & CV. Семинар: Реализация градиентного спуска (часть 2)

🎥 00 - ML & CV. О курсе
👁 1 раз 242 сек.
Лекторы: Михаил Романов и Игорь Слинько

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 01 - ML & CV. Математическая модель нейрона
👁 1 раз 890 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 02 - ML & CV. Булевы операции в виде нейронов
👁 1 раз 766 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 03 - ML & CV. От нейрона к нейронной сети
👁 1 раз 228 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 04 - ML & CV. Семинар: Базовая работа в PyTorch
👁 1 раз 818 сек.
Лектор: Игорь Слинько

Попробуйте зайти в Google Colaboratory и проимпортировать torch.

Для этого:

1. Зайдите на сайт https://colab.research.goo...


🎥 05 - ML & CV. Восстановление зависимости нейронной сетью
👁 1 раз 226 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 06 - ML & CV. Компоненты нейронной сети
👁 1 раз 816 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 07 - ML & CV. Алгоритм настройки нейронной сети
👁 1 раз 1032 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 08 - ML & CV. Семинар: Реализация градиентного спуска (часть 1)
👁 1 раз 259 сек.
Лектор: Игорь Слинько

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 09 - ML & CV. Семинар: Реализация градиентного спуска (часть 2)
👁 1 раз 760 сек.
Лектор: Игорь Слинько

Код доступен в репозитории курса https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module02_gradient_descent....
​Оптимальная линейная фильтрация: от метода градиентного спуска до адаптивных фильтров

Развивая тему конспектов по магистерской специальности "Communication and Signal Processing" (TU Ilmenau), продолжить хотелось бы одной из основных тем курса "Adaptive and Array Signal Processing". А именно основами адаптивной фильтрации.

Для кого в первую очередь была написана эта статья:

1) для студенческой братии родной специальности;
2) для преподавателей, которые готовят практические семинары, но ещё не определились с инструментарием — ниже будут примеры на python и Matlab/Octave;
3) для всех, кто интересуется темой фильтрации.

Что можно найти под катом:

1) сведения из теории, которые я постарался оформить максимально сжато, но, как мне кажется, информативно;
2) примеры применения фильтров: в частности, в рамках эквалайзера для антенной решетки;
3) ссылки на базисную литературу и открытые библиотеки (на python), которые могут быть полезны для исследований.

https://habr.com/ru/post/455497/

🔗 Оптимальная линейная фильтрация: от метода градиентного спуска до адаптивных фильтров
Развивая тему конспектов по магистерской специальности "Communication and Signal Processing" (TU Ilmenau), продолжить хотелось бы одной из основных тем курса "Ad...
​Подборка рабочих примеров обработки данных

Наш телеграм канал - tglink.me/ai_machinelearning_big_data
По стопам моего первого поста подборки датасетов для машинного обучения — сделаю подборку относительно свежих датасетов с рабочими примерами по обработке данных. Ведь ни для кого не секрет, что обучение на хороших примерах проходит эффективнее и быстрее. Посмотрим, что интересного нам смогут показать одни из лучших примеров по обработке данных.

Схема работы с текущим постом унаследуется от моего поста про лучшие блокноты по ML и DS, а именно — сохранил в закладки → передал коллеге.

+ бонус в конце статьи — крутой курс от ФПМИ МФТИ.

image

Итак, давайте приступим.

Подборка датасетов с рабочими примерами обработки данных:

Suicide Rates Overview 1985 to 2016 — сравнение социально-экономической информации с показателями самоубийств по годам и странам.
#Python #DataMining #BigData
#Машинноеобучение
https://habr.com/ru/post/460557/

🔗 Подборка рабочих примеров обработки данных
Привет, читатель. По стопам моего первого поста подборки датасетов для машинного обучения — сделаю подборку относительно свежих датасетов с рабочими примерами п...
Нейронные сети и компьютерное зрение (Часть 2)

10 - ML & CV. Бинарная классификация? Бинарная кросс-энтропия!
11 - ML & CV. Многоклассовая классификация? Софтмакс!
12 - ML & CV. Локализация, детекция, сегментация и super-resolution
13 - ML & CV. Семинар: Строим первую нейронную сеть
14 - ML & CV. Семинар: Классификация в PyTorch
15 - ML & CV. Самый обычный градиентный спуск
16 - ML & CV. Модификации градиентного спуска
16.1 - ML & CV. Модификации градиентного спуска. RProp
17 - ML & CV. Семинар: Классификация рукописных чисел полносвязанной сетью
18 - ML & CV. Свёртка, каскад свёрток

🎥 10 - ML & CV. Бинарная классификация? Бинарная кросс-энтропия!
👁 1 раз 749 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 11 - ML & CV. Многоклассовая классификация? Софтмакс!
👁 1 раз 1276 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 12 - ML & CV. Локализация, детекция, сегментация и super-resolution
👁 1 раз 1073 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 13 - ML & CV. Семинар: Строим первую нейронную сеть
👁 1 раз 981 сек.
Лектор: Игорь Слинько

Код доступен в репозитории курса https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module03_sin_prediction.ip...


🎥 14 - ML & CV. Семинар: Классификация в PyTorch
👁 1 раз 997 сек.
Лектор: Игорь Слинько

Код доступен в репозитории курса https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module03_wine_prediction.i...


🎥 15 - ML & CV. Самый обычный градиентный спуск
👁 1 раз 644 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 16 - ML & CV. Модификации градиентного спуска
👁 1 раз 1139 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 16.1 - ML & CV. Модификации градиентного спуска. RProp
👁 1 раз 155 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 17 - ML & CV. Семинар: Классификация рукописных чисел полносвязанной сетью
👁 1 раз 1164 сек.
Лектор: Игорь Слинько

Код для этого урока доступен в репозитории курса
https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module04_m...


🎥 18 - ML & CV. Свёртка, каскад свёрток
👁 1 раз 1489 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa
Нейронные сети и компьютерное зрение (Часть 3)

19 - ML & CV. Собери их все: архитектура LeNet (1998)
20 - ML & CV. Собери их все: AlexNet (2012) и VGG (2014)
21 - ML & CV. Собери их все: GoogLeNet и ResNet (2015)
22 - ML & CV. Семинар: Классификация рукописных чисел свёрточной нейросетью
23 - ML & CV. Ударим дропаутом по переобучению!
24 - ML & CV. И целой вечности мало? Батч-нормализация!
25 - ML & CV. Семинар: Решаем задачу классификации на датасете CIFAR
26 - ML & CV. Метод максимального правдоподобия
28 - ML & CV. Transfer learning на примере соревнования на Kaggle

🎥 19 - ML & CV. Собери их все: архитектура LeNet (1998)
👁 1 раз 600 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 20 - ML & CV. Собери их все: AlexNet (2012) и VGG (2014)
👁 1 раз 1628 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 21 - ML & CV. Собери их все: GoogLeNet и ResNet (2015)
👁 1 раз 1097 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 22 - ML & CV. Семинар: Классификация рукописных чисел свёрточной нейросетью
👁 1 раз 1187 сек.
Лектор: Игорь Слинько

Код для этого урока доступен в репозитории курса
https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module05_m...


🎥 23 - ML & CV. Ударим дропаутом по переобучению!
👁 1 раз 1603 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 24 - ML & CV. И целой вечности мало? Батч-нормализация!
👁 1 раз 817 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 25 - ML & CV. Семинар: Решаем задачу классификации на датасете CIFAR
👁 1 раз 1223 сек.
Лектор: Игорь Слинько

Код для этого урока доступен в репозитории курса
https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module06_m...


🎥 26 - ML & CV. Метод максимального правдоподобия
👁 1 раз 1181 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 28 - ML & CV. Transfer learning на примере соревнования на Kaggle
👁 1 раз 2463 сек.
Лектор: Игорь Слинько

Код для этого урока доступен здесь
https://www.kaggle.com/yellowduck/baseline-in-pytorch

После записи этого урока мы немног...
​Understanding Partial Auto-Correlation
What is it, how it is calculated and when to use it.

🔗 Understanding Partial Auto-Correlation - Towards Data Science
What is it, how it is calculated and when to use it.
​Detecting stationarity in time series data
In this post I’ll cover several ways to determine whether your data is stationary, which is crucial for many tools in time series analysis.
https://towardsdatascience.com/detecting-stationarity-in-time-series-data-d29e0a21e638?source=collection_home---4------1-----------------------

🔗 Detecting stationarity in time series data - Towards Data Science
In this post I’ll cover several ways to determine whether your data is stationary, which is crucial for many tools in time series analysis.
MIDL 2019, Day 3: Presentation by Bart Liefers
https://www.youtube.com/watch?v=8iMSM8ijk7A

🎥 MIDL 2019, Day 3: Presentation by Bart Liefers
👁 1 раз 1221 сек.
Oral presentation given by Bart Liefers of A-Eye Research Group, Radboudumc, Nijmegen, The Netherlands on 'Dense Segmentation in Selected Dimensions: Application to Retinal Optical Coherence Tomography' at the MIDL (Medical Imaging and Deep Learning) 2019 conference in London, United Kingdom.

Paper: http://proceedings.mlr.press/v102/liefers19a.html

MIDL 2019 website: https://2019.midl.io
Deep Q-Network Image Processing and Environment Management - Reinforcement Learning Code Project

🎥 Deep Q-Network Image Processing and Environment Management - Reinforcement Learning Code Project
👁 1 раз 1314 сек.
Welcome back to this series on reinforcement learning! In this episode, we’ll be continuing to develop the code project we’ve been working on to build a deep Q-network to master the cart and pole problem. We'll see how to manage the environment and process images that will be passed to our deep Q-network as input.

💥🦎 DEEPLIZARD COMMUNITY RESOURCES 🦎💥

👀 OUR VLOG:
🔗 https://www.youtube.com/channel/UC9cBIteC3u7Ee6bzeOcl_Og

👉 Check out the blog post and other resources for this video:
🔗 https://deeplizard.c
​New Structures for Physics | Bob Coecke | Springer

🔗 New Structures for Physics | Bob Coecke | Springer
This volume provides a series of tutorials on mathematical structures which recently have gained prominence in physics, ranging from quantum foundations, via quantum information, to quantum gravity. These include the theory of monoidal categories and corresponding graphical calculi, Girard’s...
​Выравнивание лица за одну миллисекунду с помощью ансамбля

В этой статье рассматривается задача выравнивания лица для одного изображения. Мы покажем, как ансамбль деревьев регрессии можно использовать для прогнозирования положения ориентиров лица непосредственно по рассеянному подмножеству интенсивностей пикселей, достигая супер-производительности в режиме реального времени с предсказаниями высокого качества. Мы представляем общую структуру, основанную на градиентном бустинге, для изучения ансамбля деревьев регрессии, который оптимизирует сумму квадратичных потерь и, естественно, обрабатывает отсутствующие или частично помеченные данные. Мы покажем, как использование соответствующих распределений, учитывающих структуру данных изображения, помогает в эффективном выборе признаков. Также исследуются различные стратегии регуляризации и их важность для борьбы с переобучением. Кроме того, мы анализируем влияние количества обучающих данных на точность прогнозов и исследуем эффект увеличения данных с использованием синтезированных данных.

https://habr.com/ru/company/otus/blog/460541/

🔗 Выравнивание лица за одну миллисекунду с помощью ансамбля деревьев регрессии
Перевод статьи подготовлен для студентов курса «Математика для Data Science» Аннотация В этой статье рассматривается задача выравнивания лица для одного изобра...
🔥24 июля в 20:00 мск приглашаем на День открытых дверей курса «Математика для Data Science»: https://otus.pw/Fghn/
Старт курса уже 30 июля - успейте пройти вступительный тест: https://otus.pw/XLae/

На бесплатном вебинаре:
- вы познакомитесь с преподавателем курса Пётром Лукьянченко - преподавателем ВШЭ по высшей математике (работал в Lamoda на должности Team Lead Analytics);
- сможете задать любые вопросы по Data Science;
- узнаете подробнее о хардкорной программе курса, формате обучения и выпускном проекте;
расскажем о карьерных перспективах и компаниях (NVIDIA, Лаборатория Касперского, OZON, СберТех, Газпромбанк, Тинькофф, МТС, Avito и другие), которые уже ждут выпускников курса «Математика для Data Science» на собеседования.

Вебинар рассчитан на всех, кто хочет развиваться в сфере Data Science.
Регистрируйтесь сейчас - напомним в день вебинара!

🔗 Математика для Data Science | OTUS
Профессиональные онлайн курсы для разработчиков


🎥 Untitled
👁 5698 раз 52 сек.
​Как мы запустили роботов в маленький Чернобыль

История нашего «безумного» проекта началась три года назад, когда размышляя о будущих перспективах развития игровой индустрии, мой друг Леша сказал: «Представь себе будущее, в котором люди в виде развлечения, из любой части мира управляют на игровом полигоне настоящими роботами, как «аватарами»».
https://habr.com/ru/post/460751/

🔗 Как мы запустили роботов в маленький Чернобыль
Рождение концепции Remote Reality История нашего «безумного» проекта началась три года назад, когда размышляя о будущих перспективах развития игровой индустрии,...