Neural Networks | Нейронные сети
11.8K subscribers
760 photos
166 videos
170 files
9.41K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
🎥 Solving PDEs with the FFT, Part 2 [Python]
👁 1 раз 924 сек.
This video continues to show how to solve PDEs with the FFT in Python.

Book Website: http://databookuw.com
Book PDF: http://databookuw.com/databook.pdf

These lectures follow Chapter 2 from:
"Data-Driven Science and Engineering: Machine Learning, Dynamical Systems, and Control" by Brunton and Kutz

Amazon: https://www.amazon.com/Data-Driven-Science-Engineering-Learning-Dynamical/dp/1108422098/

Brunton Website: eigensteve.com
🎥 Машинное обучение. Семинар 6. Shap values
👁 3 раз 4290 сек.
Лекции по машинному обучению: https://www.youtube.com/playlist?list=PL4_hYwCyhAvZyW6qS58x4uElZgAkMVUvj
Семинары по машинному обучению: https://www.youtube.com/playlist?list=PL4_hYwCyhAvYPOWn6e44RKxEfRWEsPA1z

Монтаж: Роман Климовицкий
​Google at ICLR 2020">
Google at ICLR 2020

🔗 Google at ICLR 2020
Posted by Christian Howard, Google Research This week marks the beginning of the 8th International Conference on Learning Representations ...
​Альтернативное понимание контекста с помощью статистической языковой модели

🔗 Альтернативное понимание контекста с помощью статистической языковой модели
Написал библиотеку для работы со статистическими языковыми моделями – ALM. Надеюсь получить комментарии, критику, предложения. В интернете полно статей на тему...
🎥 Machine Learning With Python Video 17 : Support Vector Regression (SVR)
👁 1 раз 811 сек.
In this video we will discuss about support vector regression that is a part of support vector machine , as we know support vector machines can be used for both regression and classification data type .SVMs solve binary classification problems by formulating them as convex optimization problems. The optimization problem entails finding the maximum margin separating the hyperplane, while correctly classifying as many training points as possible. SVMs represent this optimal hyperplane with support vectors.
​Real Time Face And Eye Detection Using Python

🔗 Real Time Face And Eye Detection Using Python
In this video, I explained about how to detect eye and face in realtime with the help of haar cascade files in python and also I explained each and every line used in this code. if you have any doubt or any suggestions let me know in the comment section.
Опубликован 6ой урок ( https://youtu.be/7zyL5apWm1M ) курса “Язык R для пользователей Excel”.

Это один из самых важных уроков курса, в ходе которого вы научитесь группировать таблицы, и производить вычисления по каждой группе.

В данном уроке мы рассмотрим функции group_by() и семейство функций summarise().

Поблагодарить и поддержать курс можно любой произвольной суммой на этой странице: https://secure.wayforpay.com/payment/r4excel_users .

Подписывайтесь на YouTube канал, что бы получать уведомление о выходе новых уроков ( https://www.youtube.com/R4marketing/?sub_confirmation=1 ).

Ссылки:
Подписаться на YouTube канал - https://www.youtube.com/R4marketing/?sub_confirmation=1
Видео 6 урока - https://youtu.be/7zyL5apWm1M
Материалы - https://github.com/selesnow/r4excel_users/tree/master/lesson_6
Весь плейлист курса - https://www.youtube.com/playlist?list=PLD2LDq8edf4pgGg16wYMobvIYy_0MI0kF
Страница курса - https://selesnow.github.io/r4excel_users/
Благодарности - https://secure.wayforpay.com/payment/r4excel_users

🎥 Язык R для пользователей Excel #6: Группировка и агрегация данных на языке R
👁 1 раз 760 сек.
В этом видео мы разберём одну из основных операций анализа данных, группировку и агрегацию. В ходе урока мы будем использовать пакет dplyr из библиотеки tidyverse и функции group_by() и summarise().

Мы рассмотрим всё семейство функций summarise(), т.е. summarise(), summarise_if() и summarise_at().

Список основных агрегирующих функций:
sum - суммирование
mean - среднее арифметическое
min - минимальное
max - максимальное
median - медиана
length - количество

====================
Поддержать автора курса: ht
​Еженедельные семинары IBM — апрель 2020

🔗 Еженедельные семинары IBM — апрель 2020
Друзья! Компания IBM продолжает вести вебинары. В этом посте вы сможете ознакомиться с датами и темами предстоящих докладов! Расписание на эту неделю: 28.04...
​Нейроэволюция киберкальмаров

🔗 Нейроэволюция киберкальмаров
Эволюционирующая нейросеть Искусственные нейронные сети имитируют реальные биологические нервные системы. Они содержат нейроны и связи между ними, обеспечивающие...
​SQIL: Imitation Learning via Reinforcement Learning with Sparse Rewards

Reddy et al.:
https://arxiv.org/abs/1905.11108

🔗 SQIL: Imitation Learning via Reinforcement Learning with Sparse Rewards
Learning to imitate expert behavior from demonstrations can be challenging, especially in environments with high-dimensional, continuous observations and unknown dynamics. Supervised learning methods based on behavioral cloning (BC) suffer from distribution shift: because the agent greedily imitates demonstrated actions, it can drift away from demonstrated states due to error accumulation. Recent methods based on reinforcement learning (RL), such as inverse RL and generative adversarial imitation learning (GAIL), overcome this issue by training an RL agent to match the demonstrations over a long horizon. Since the true reward function for the task is unknown, these methods learn a reward function from the demonstrations, often using complex and brittle approximation techniques that involve adversarial training. We propose a simple alternative that still uses RL, but does not require learning a reward function. The key idea is to provide the agent with an incentive to match the demonstrations over a long horizon, by encouraging it to return to demonstrated states upon encountering new, out-of-distribution states. We accomplish this by giving the agent a constant reward of r=+1 for matching the demonstrated action in a demonstrated state, and a constant reward of r=0 for all other behavior. Our method, which we call soft Q imitation learning (SQIL), can be implemented with a handful of minor modifications to any standard Q-learning or off-policy actor-critic algorithm. Theoretically, we show that SQIL can be interpreted as a regularized variant of BC that uses a sparsity prior to encourage long-horizon imitation. Empirically, we show that SQIL outperforms BC and achieves competitive results compared to GAIL, on a variety of image-based and low-dimensional tasks in Box2D, Atari, and MuJoCo.