Neural Networks | Нейронные сети
11.8K subscribers
760 photos
166 videos
170 files
9.41K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
​Еженедельные семинары IBM — апрель 2020

🔗 Еженедельные семинары IBM — апрель 2020
Друзья! Компания IBM продолжает вести вебинары. В этом посте вы сможете ознакомиться с датами и темами предстоящих докладов! Расписание на эту неделю: 28.04...
​Нейроэволюция киберкальмаров

🔗 Нейроэволюция киберкальмаров
Эволюционирующая нейросеть Искусственные нейронные сети имитируют реальные биологические нервные системы. Они содержат нейроны и связи между ними, обеспечивающие...
​SQIL: Imitation Learning via Reinforcement Learning with Sparse Rewards

Reddy et al.:
https://arxiv.org/abs/1905.11108

🔗 SQIL: Imitation Learning via Reinforcement Learning with Sparse Rewards
Learning to imitate expert behavior from demonstrations can be challenging, especially in environments with high-dimensional, continuous observations and unknown dynamics. Supervised learning methods based on behavioral cloning (BC) suffer from distribution shift: because the agent greedily imitates demonstrated actions, it can drift away from demonstrated states due to error accumulation. Recent methods based on reinforcement learning (RL), such as inverse RL and generative adversarial imitation learning (GAIL), overcome this issue by training an RL agent to match the demonstrations over a long horizon. Since the true reward function for the task is unknown, these methods learn a reward function from the demonstrations, often using complex and brittle approximation techniques that involve adversarial training. We propose a simple alternative that still uses RL, but does not require learning a reward function. The key idea is to provide the agent with an incentive to match the demonstrations over a long horizon, by encouraging it to return to demonstrated states upon encountering new, out-of-distribution states. We accomplish this by giving the agent a constant reward of r=+1 for matching the demonstrated action in a demonstrated state, and a constant reward of r=0 for all other behavior. Our method, which we call soft Q imitation learning (SQIL), can be implemented with a handful of minor modifications to any standard Q-learning or off-policy actor-critic algorithm. Theoretically, we show that SQIL can be interpreted as a regularized variant of BC that uses a sparsity prior to encourage long-horizon imitation. Empirically, we show that SQIL outperforms BC and achieves competitive results compared to GAIL, on a variety of image-based and low-dimensional tasks in Box2D, Atari, and MuJoCo.
​Optimizing Multiple Loss Functions with Loss-Conditional Training">
Optimizing Multiple Loss Functions with Loss-Conditional Training

🔗 Optimizing Multiple Loss Functions with Loss-Conditional Training
Posted by Alexey Dosovitskiy, Research Scientist, Google Research In many machine learning applications the performance of a model canno...
​Статья, которая поможет аналитикам, использующим в работе R или Python мигрировать между этими языками.

В ходе статьи рассмотрены 3 наиболее популярных пакета для анализа данных: pandas, tidyverse и data.table.

https://habr.com/ru/post/475210/

🔗 Какой язык выбрать для работы с данными — R или Python? Оба! Мигрируем с pandas на tidyverse и data.table и обратно
По запросу R или Python в интернете вы найдёте миллионы статей и километровых обсуждений по теме какой из них лучше, быстрее и удобнее для работы с данными. Но к...
​Deep Neural Network from Scratch in Python

🔗 Deep Neural Network from Scratch in Python
Deep Neural Network from Scratch in Python - Fully Connected Feedforward Neural Network. Build on last week Multilayer perceptrons to allow for more flexibility in the architecture! Here we make use of the following three concept: Network, Layer and Neuron. These three components will be composed together to make a fully connected feedforward neural network neural network.
🎥 Machine Learning with Synthetic Data | @Unity + @TensorFlow
👁 1 раз 812 сек.
In this augmented reality video we are going to train our own object detection machine learning model with Tensorflow using fully synthetic data created in Unity.

#MachineLearning #Tensorflow #Unity

Github Project:
https://github.com/MatthewHallberg/SyntheticDataGenerator

Tensorflow Models install instructions:
https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/installation.md

Tensorflow Models directory for 1.8.0:
https://github.com/tensorflow/models/tree/d530ac540b0103ca
This media is not supported in your browser
VIEW IN TELEGRAM
Adversarial Latent Autoencoders
arxiv.org/abs/2004.04467
github.com/podgorskiy/ALAE
Наш телеграм канал - tglink.me/ai_machinelearning_big_data

🔗 podgorskiy/ALAE
[CVPR2020] Adversarial Latent Autoencoders . Contribute to podgorskiy/ALAE development by creating an account on GitHub.
​Применение детектора курения на транспорте

🔗 Применение детектора курения на транспорте
Ранее мы рассказывали про детекцию курения посредством объектовой видеоаналитики. Попробуем теперь рассмотреть практические аспекты применения данных решений и...
​Подбор экипировки игровому персу при помощи генетики/эволюции на Python

🔗 Подбор экипировки игровому персу при помощи генетики/эволюции на Python
Как подобрать лучшую экипировку в любимой игре? Конечно, можно банально перебрать все её возможные сочетания (например, для разбойника из World of Warcraft) и на...
​Yet More Google Compute Cluster Trace Data">
Yet More Google Compute Cluster Trace Data

🔗 Yet More Google Compute Cluster Trace Data
Posted by John Wilkes, Principal Software Engineer, Google Cloud Google’s Borg cluster management system supports our computational fle...
мой друг нашел схему заработка от 4000 в день
смотреть у меня на стене!