DeepTraffic — new RL competition hosted by #MIT
Link: https://selfdrivingcars.mit.edu/deeptraffic/
Github: https://github.com/lexfridman/deeptraffic
#RL #selfdrivingcar
🔗
Link: https://selfdrivingcars.mit.edu/deeptraffic/
Github: https://github.com/lexfridman/deeptraffic
#RL #selfdrivingcar
🔗
How Uber predicts prices
Engineering Uncertainty Estimation in Neural Networks for Time Series Prediction at Uber
Link: https://eng.uber.com/neural-networks-uncertainty-estimation/
#RNN #LSTM #Uber
🔗
Engineering Uncertainty Estimation in Neural Networks for Time Series Prediction at Uber
Link: https://eng.uber.com/neural-networks-uncertainty-estimation/
#RNN #LSTM #Uber
🔗
Machine Learning With TensorFlow | Neural Networks
🎥 Machine Learning With TensorFlow | Neural Networks | Part 1 | Eduonix
👁 1 раз ⏳ 554 сек.
🎥 Machine Learning With TensorFlow | Neural Networks | Part 1 | Eduonix
👁 1 раз ⏳ 554 сек.
Tensorflow is one of the most popular tools for building Machine learning solutions. In this tutorial, you will learn about Neural networks and deep learning implementation using Tensorflow. It is one of the most interesting but difficult concepts to grasp so pay attention. Let's get started!!
Thank you for watching! We’d love to know your thoughts in the comments section below. Also, don’t forget to hit the ‘like’ button and ‘subscribe’ to ‘Eduonix Learning Solutions’ for regular updates. http://bit.ly/2I
Vk
Machine Learning With TensorFlow | Neural Networks | Part 1 | Eduonix
Tensorflow is one of the most popular tools for building Machine learning solutions. In this tutorial, you will learn about Neural networks and deep learning implementation using Tensorflow. It is one of the most interesting but difficult concepts to grasp…
Книги по Data Science \ Машинное обучение \ Нейронные сети \ Python
1. Python для сложных задач наука о данных и машинное обучение, Дж. Вандер Плас
2. Data Science. Наука о данных с нуля, Джоэл Грас
3. Введение в машинное обучение с помощью Python
4. Нейронные сети. Распознавание, управление, принятие решений, Барский А.Б.
📝 Плас Дж. Вандер - Python для сложных задач наука о данных и машинное обучение (Бестселлеры O'Reilly) - 2018.PDF - 💾12 530 081
📝 Грас Дж. Data Science. Наука о данных с нуля.pdf - 💾16 984 769
📝 Введение в машинное обучение с помощью Python [2017] physics_math.pdf - 💾12 079 480
📝 Барский - Нейронные сети распознавание управление принятие решений (2004)-1-1.pdf - 💾4 375 254
1. Python для сложных задач наука о данных и машинное обучение, Дж. Вандер Плас
2. Data Science. Наука о данных с нуля, Джоэл Грас
3. Введение в машинное обучение с помощью Python
4. Нейронные сети. Распознавание, управление, принятие решений, Барский А.Б.
📝 Плас Дж. Вандер - Python для сложных задач наука о данных и машинное обучение (Бестселлеры O'Reilly) - 2018.PDF - 💾12 530 081
📝 Грас Дж. Data Science. Наука о данных с нуля.pdf - 💾16 984 769
📝 Введение в машинное обучение с помощью Python [2017] physics_math.pdf - 💾12 079 480
📝 Барский - Нейронные сети распознавание управление принятие решений (2004)-1-1.pdf - 💾4 375 254
Evaluating gambles using dynamics
Link: https://aip.scitation.org/doi/10.1063/1.4940236
#Statistics #Gambling
🔗 Evaluating gambles using dynamics
Gambles are random variables that model possible changes in wealth. Classic decision theory transforms money into utility through a utility function and defines the value of a gamble as the expectation value of utility changes. Utility functions aim to capture individual psychological characteristics, but their generality limits predictive power. Expectation value maximizers are defined as rational in economics, but expectation values are only meaningful in the presence of ensembles or in systems with ergodic properties, whereas decision-makers have no access to ensembles, and the variables representing wealth in the usual growth models do not have the relevant ergodic properties. Simultaneously addressing the shortcomings of utility and those of expectations, we propose to evaluate gambles by averaging wealth growth over time. No utility function is needed, but a dynamic must be specified to compute time averages. Linear and logarithmic “utility functions” appear as transformations that generate ergodic ...
Link: https://aip.scitation.org/doi/10.1063/1.4940236
#Statistics #Gambling
🔗 Evaluating gambles using dynamics
Gambles are random variables that model possible changes in wealth. Classic decision theory transforms money into utility through a utility function and defines the value of a gamble as the expectation value of utility changes. Utility functions aim to capture individual psychological characteristics, but their generality limits predictive power. Expectation value maximizers are defined as rational in economics, but expectation values are only meaningful in the presence of ensembles or in systems with ergodic properties, whereas decision-makers have no access to ensembles, and the variables representing wealth in the usual growth models do not have the relevant ergodic properties. Simultaneously addressing the shortcomings of utility and those of expectations, we propose to evaluate gambles by averaging wealth growth over time. No utility function is needed, but a dynamic must be specified to compute time averages. Linear and logarithmic “utility functions” appear as transformations that generate ergodic ...
AIP Publishing
Evaluating gambles using dynamics
Gambles are random variables that model possible changes in wealth. Classic decision theory transforms money into utility through a utility function and defines
https://habr.com/post/435834/
EXAM — State-of-the-art метод классификации текста
#machinelearning #neuralnets #deeplearning #машинноеобучение
Наш телеграмм канал - https://t.me/ai_machinelearning_big_data
EXAM — State-of-the-art метод классификации текста
#machinelearning #neuralnets #deeplearning #машинноеобучение
Наш телеграмм канал - https://t.me/ai_machinelearning_big_data
Habr
EXAM — State-of-the-art метод классификации текста
Классификация текста — одна из наиболее распространенных задач в NLP и обучении с учителем, когда датасет содержит текстовые документы, а метки используются...
Lecture -12 : Advanced Machine Learning(ETH Zurich Spring 2018)
🔗 Lecture -12 : Advanced Machine Learning(ETH Zurich Spring 2018)
Professor -Dr. Joachim M. Buhmann Course Webpage - https://ml2.inf.ethz.ch/courses/aml/ Playlist - https://www.youtube.com/playlist?list=PLzn6LN6WhlN1x68-5GE...
🔗 Lecture -12 : Advanced Machine Learning(ETH Zurich Spring 2018)
Professor -Dr. Joachim M. Buhmann Course Webpage - https://ml2.inf.ethz.ch/courses/aml/ Playlist - https://www.youtube.com/playlist?list=PLzn6LN6WhlN1x68-5GE...
YouTube
Lecture -12 : Advanced Machine Learning(ETH Zurich Spring 2018)
Professor -Dr. Joachim M. Buhmann Course Webpage - https://ml2.inf.ethz.ch/courses/aml/ Playlist - https://www.youtube.com/playlist?list=PLzn6LN6WhlN1x68-5GE...
Бот генерирует учебники из статей Википедии
Всем известно, что Википедия — ценный информационный ресурс. Можно часами изучать тему, переходя от одной ссылки к другой для получения контекста по интересующему предмету. Но не всегда очевидно, как собрать весь контент по какой-либо одной общей теме. Например, как объединить все статьи по неорганической химии или истории средних веков, резюмируя самое важное? Примерно это попытались сделать Шахар Адмати и его коллеги из Бена-Гуриона в Негеве (Израиль), разработчики программы машинного обучения Wikibook-Bot.
🔗 Бот генерирует учебники из статей Википедии
Пример викиучебника (иллюстрация из научной статьи) Всем известно, что Википедия — ценный информационный ресурс. Можно часами изучать тему, переходя от одной...
Всем известно, что Википедия — ценный информационный ресурс. Можно часами изучать тему, переходя от одной ссылки к другой для получения контекста по интересующему предмету. Но не всегда очевидно, как собрать весь контент по какой-либо одной общей теме. Например, как объединить все статьи по неорганической химии или истории средних веков, резюмируя самое важное? Примерно это попытались сделать Шахар Адмати и его коллеги из Бена-Гуриона в Негеве (Израиль), разработчики программы машинного обучения Wikibook-Bot.
🔗 Бот генерирует учебники из статей Википедии
Пример викиучебника (иллюстрация из научной статьи) Всем известно, что Википедия — ценный информационный ресурс. Можно часами изучать тему, переходя от одной...
Хабр
Бот генерирует учебники из статей Википедии
Пример викиучебника (иллюстрация из научной статьи) Всем известно, что Википедия — ценный информационный ресурс. Можно часами изучать тему, переходя от одной с...
Plug-and-play differential privacy for your tensorflow code
#GoogleAI has just released a new library for training machine learning models with (differential) privacy for training data.
where you would write tf.train.GradientDescentOptimizer
instead just swap in the DPGradientDescentOptimizer
Tutorial: https://github.com/tensorflow/privacy/blob/master/tutorials/mnist_dpsgd_tutorial.py
Link: https://github.com/tensorflow/privacy
#Privacy #tensorflow
🔗 tensorflow/privacy
Library for training machine learning models with privacy for training data - tensorflow/privacy
#GoogleAI has just released a new library for training machine learning models with (differential) privacy for training data.
where you would write tf.train.GradientDescentOptimizer
instead just swap in the DPGradientDescentOptimizer
Tutorial: https://github.com/tensorflow/privacy/blob/master/tutorials/mnist_dpsgd_tutorial.py
Link: https://github.com/tensorflow/privacy
#Privacy #tensorflow
🔗 tensorflow/privacy
Library for training machine learning models with privacy for training data - tensorflow/privacy
GitHub
privacy/tutorials/mnist_dpsgd_tutorial.py at master · tensorflow/privacy
Library for training machine learning models with privacy for training data - tensorflow/privacy
Desnapify
Logical followup of #pix2pix project by Isola et al., based on on Keras implementation by Thibault de Boissiere allows to remove that kat/dog faces from #Snapchat photoes.
Github: https://github.com/ipsingh06/ml-desnapify
Mentioned #Keras repo: https://github.com/tdeboissiere/DeepLearningImplementations/tree/master/pix2pix
#DL
🔗 ipsingh06/ml-desnapify
Contribute to ipsingh06/ml-desnapify development by creating an account on GitHub.
Logical followup of #pix2pix project by Isola et al., based on on Keras implementation by Thibault de Boissiere allows to remove that kat/dog faces from #Snapchat photoes.
Github: https://github.com/ipsingh06/ml-desnapify
Mentioned #Keras repo: https://github.com/tdeboissiere/DeepLearningImplementations/tree/master/pix2pix
#DL
🔗 ipsingh06/ml-desnapify
Contribute to ipsingh06/ml-desnapify development by creating an account on GitHub.
GitHub
GitHub - ipsingh06/ml-desnapify: Deep convolutional generative adversarial network (DCGAN) trained to remove Snapchat filters from…
Deep convolutional generative adversarial network (DCGAN) trained to remove Snapchat filters from selfie images - ipsingh06/ml-desnapify
Playing Pong using Reinforcement Learning
https://towardsdatascience.com/intro-to-reinforcement-learning-pong-92a94aa0f84d?source=collection_home---4------2---------------------
🔗 Playing Pong from pixels using Reinforcement Learning
A gentle introduction to the key principles of Reinforcement Learning
https://towardsdatascience.com/intro-to-reinforcement-learning-pong-92a94aa0f84d?source=collection_home---4------2---------------------
🔗 Playing Pong from pixels using Reinforcement Learning
A gentle introduction to the key principles of Reinforcement Learning
Towards Data Science
Playing Pong using Reinforcement Learning
A gentle introduction to the key principles of Reinforcement Learning
1. Теория вероятностей и математическая статистика
Год: 2013
Автор: Семенов В.А.
2. Теория вероятностей и математическая статистика
Год издания: 2012
Автор: Турчин В.Н.
3. Теория вероятностей и математическая статистика (2-е изд.)
Год: 2010
Автор: Балдин К.В., Башлыков В.Н., Рукосуев А.В.
4. Курс теории вероятностей
Год: 2005
Автор: Гнеденко Б.В.
5. Теория вероятностей и математическая статистика
Год выпуска: 2004
Автор: Н. Ш. Кремер
https://pp.userapi.com/c852024/v852024288/85e60/opCLhhJIy7w.jpg
📝 Семенов В.А. - Теория вероятностей и математическая статистика (Учебное пособие) - 2013.pdf - 💾10 459 973
📝 Турчин В.Н. - Теория вероятностей и математическая статистика - 2012.djvu - 💾1 583 149
📝 Балдин К.В., Башлыков В.Н., Рукосуев А.В. - Теория вероятностей и математическая статистика - 2010.pdf - 💾11 360 360
📝 Гнеденко Б.В. - Курс теории вероятностей (Классический университетский учебник) - 2005.djvu - 💾4 456 874
📝 Кремер Н.Ш. Теория вероятностей и математическая статистика.djvu - 💾6 641 712
Год: 2013
Автор: Семенов В.А.
2. Теория вероятностей и математическая статистика
Год издания: 2012
Автор: Турчин В.Н.
3. Теория вероятностей и математическая статистика (2-е изд.)
Год: 2010
Автор: Балдин К.В., Башлыков В.Н., Рукосуев А.В.
4. Курс теории вероятностей
Год: 2005
Автор: Гнеденко Б.В.
5. Теория вероятностей и математическая статистика
Год выпуска: 2004
Автор: Н. Ш. Кремер
https://pp.userapi.com/c852024/v852024288/85e60/opCLhhJIy7w.jpg
📝 Семенов В.А. - Теория вероятностей и математическая статистика (Учебное пособие) - 2013.pdf - 💾10 459 973
📝 Турчин В.Н. - Теория вероятностей и математическая статистика - 2012.djvu - 💾1 583 149
📝 Балдин К.В., Башлыков В.Н., Рукосуев А.В. - Теория вероятностей и математическая статистика - 2010.pdf - 💾11 360 360
📝 Гнеденко Б.В. - Курс теории вероятностей (Классический университетский учебник) - 2005.djvu - 💾4 456 874
📝 Кремер Н.Ш. Теория вероятностей и математическая статистика.djvu - 💾6 641 712