Valuing Life as an Asset, as a Statistic and at Gunpoint
Ever wondered, how much your life is worth? This is an article about Life as an asset evaluation. It is extremely useful for insuarance companies and as a metric to calculate compensations in case of tragic events, but it is also a key to understand, how valuable (or not) life is.
Math is beautiful.
Link: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3156911
#math #life #insurance #statistics
🔗 Valuing Life as an Asset, as a Statistic and at Gunpoint by Julien Hugonnier, Florian Pelgrin, Pascal St-Amour :: SSRN
Ever wondered, how much your life is worth? This is an article about Life as an asset evaluation. It is extremely useful for insuarance companies and as a metric to calculate compensations in case of tragic events, but it is also a key to understand, how valuable (or not) life is.
Math is beautiful.
Link: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3156911
#math #life #insurance #statistics
🔗 Valuing Life as an Asset, as a Statistic and at Gunpoint by Julien Hugonnier, Florian Pelgrin, Pascal St-Amour :: SSRN
2.3 Billion accounts was hacked (773M unique)
https://www.troyhunt.com/the-773-million-record-collection-1-data-reach/
🔗 The 773 Million Record "Collection #1" Data Breach
Many people will land on this page after learning that their email address has appeared in a data breach I've called "Collection #1". Most of them won't have a tech background or be familiar with the concept of credential stuffing so I'm going to write this post for the masses
https://www.troyhunt.com/the-773-million-record-collection-1-data-reach/
🔗 The 773 Million Record "Collection #1" Data Breach
Many people will land on this page after learning that their email address has appeared in a data breach I've called "Collection #1". Most of them won't have a tech background or be familiar with the concept of credential stuffing so I'm going to write this post for the masses
Troy Hunt
The 773 Million Record "Collection #1" Data Breach
Many people will land on this page after learning that their email address has appeared in a data breach I've called "Collection #1". Most of them won't have a tech background or be familiar with the concept of credential stuffing so I'm going to write this…
Learning from Dialogue after Deployment: Feed Yourself, Chatbot!
From abstract: The self-feeding chatbot, a dialogue agent with the ability to extract new training examples from the conversations it participates in.
This is an article about chatbot which is capable of true online learning. There is also a venturebeat article on the subject, covering the perspective: «Facebook and Stanford researchers design a chatbot that learns from its mistakes».
Venturebeat: https://venturebeat.com/2019/01/17/facebook-and-stanford-researchers-design-a-chatbot-that-learns-from-its-mistakes/
ArXiV: https://arxiv.org/abs/1901.05415
#NLP #chatbot #facebook #Stanford
🔗 Facebook and Stanford researchers design a chatbot that learns from its mistakes
Chatbots rarely make great conversationalists. With the exception of perhaps Microsoft’s Xiaoice in China, which has about 40 million users and averages 23 back-and-forth exchanges, and Alibaba’s Dian Xiaomi, an automated sales agent that serves nearly 3.5 million customers a day, most can’t hold humans’ attention for much longer than 15 minutes. But that’s not tempering bot adoption any — in fact
From abstract: The self-feeding chatbot, a dialogue agent with the ability to extract new training examples from the conversations it participates in.
This is an article about chatbot which is capable of true online learning. There is also a venturebeat article on the subject, covering the perspective: «Facebook and Stanford researchers design a chatbot that learns from its mistakes».
Venturebeat: https://venturebeat.com/2019/01/17/facebook-and-stanford-researchers-design-a-chatbot-that-learns-from-its-mistakes/
ArXiV: https://arxiv.org/abs/1901.05415
#NLP #chatbot #facebook #Stanford
🔗 Facebook and Stanford researchers design a chatbot that learns from its mistakes
Chatbots rarely make great conversationalists. With the exception of perhaps Microsoft’s Xiaoice in China, which has about 40 million users and averages 23 back-and-forth exchanges, and Alibaba’s Dian Xiaomi, an automated sales agent that serves nearly 3.5 million customers a day, most can’t hold humans’ attention for much longer than 15 minutes. But that’s not tempering bot adoption any — in fact
VentureBeat
Facebook and Stanford researchers design a chatbot that learns from its mistakes
In a new paper, scientists at Facebook AI Research and Stanford describe a chatbot that learns from its mistakes over time.
Frieze London 2018 (Part 3): Computer Vision
https://towardsdatascience.com/frieze-london-2018-part-3-computer-vision-50314f2f4b1?source=collection_home---4------2---------------------
https://towardsdatascience.com/frieze-london-2018-part-3-computer-vision-50314f2f4b1?source=collection_home---4------2---------------------
Towards Data Science
Frieze London 2018 (Part 3): Computer Vision
Part 3: Analysing 9k social media images using computer vision
https://habr.com/ru/post/436636/
Как я создаю сервис рекомендаций сообществ ВКонтакте
#machinelearning #neuralnets #deeplearning #машинноеобучение
Наш телеграмм канал - https://t.me/ai_machinelearning_big_data
Как я создаю сервис рекомендаций сообществ ВКонтакте
#machinelearning #neuralnets #deeplearning #машинноеобучение
Наш телеграмм канал - https://t.me/ai_machinelearning_big_data
Хабр
Как я создаю сервис рекомендаций сообществ ВКонтакте
Лето заканчивалось, шёл особенно холодный август. Начинался мой 11 класс и я осознал, что сейчас последний шанс (спойлер: нет) на то, чтобы как-то улучшить свою профессиональную компетенцию. Уже...
Intuitive Explanation of Cross Entropy
https://towardsdatascience.com/intuitive-explanation-of-cross-entropy-5d45fc9fd240?source=collection_home---4------3---------------------
https://towardsdatascience.com/intuitive-explanation-of-cross-entropy-5d45fc9fd240?source=collection_home---4------3---------------------
Towards Data Science
Intuitive Explanation of Cross Entropy
I will draw a coin from a bag. Your goal is to guess the color with the fewest questions.
Arduino Data + Deep Learning in Python GEKKO
🔗 Arduino Data + Deep Learning in Python GEKKO
The Arduino TCLab is a hands-on application of machine learning and advanced temperature control with two heaters and two temperature sensors. The labs reinf...
🔗 Arduino Data + Deep Learning in Python GEKKO
The Arduino TCLab is a hands-on application of machine learning and advanced temperature control with two heaters and two temperature sensors. The labs reinf...
YouTube
Arduino Data + Deep Learning in Python GEKKO
The Arduino TCLab is a hands-on application of machine learning and advanced temperature control with two heaters and two temperature sensors. The labs reinf...
Amazon AI Conclave 2018 - The Alexa Fund by Rodrigo Prudencio
🔗 Amazon AI Conclave 2018 - The Alexa Fund by Rodrigo Prudencio
The Alexa Fund by Rodrigo Prudencio, Amazon Corporate Development. Amazon AI Conclave is an event for business leaders, data scientists, engineers and develo...
🔗 Amazon AI Conclave 2018 - The Alexa Fund by Rodrigo Prudencio
The Alexa Fund by Rodrigo Prudencio, Amazon Corporate Development. Amazon AI Conclave is an event for business leaders, data scientists, engineers and develo...
YouTube
Amazon AI Conclave 2018 - The Alexa Fund by Rodrigo Prudencio
The Alexa Fund by Rodrigo Prudencio, Amazon Corporate Development. Amazon AI Conclave is an event for business leaders, data scientists, engineers and develo...
https://habr.com/ru/post/436658/
Будущее ритейла: основные диджитал-тренды по мотивам NRF Retail’s Big Show 2019
#machinelearning #neuralnets #deeplearning #машинноеобучение
Наш телеграмм канал - https://t.me/ai_machinelearning_big_data
Будущее ритейла: основные диджитал-тренды по мотивам NRF Retail’s Big Show 2019
#machinelearning #neuralnets #deeplearning #машинноеобучение
Наш телеграмм канал - https://t.me/ai_machinelearning_big_data
Хабр
Будущее ритейла: основные диджитал-тренды по мотивам NRF Retail’s Big Show 2019
Завершилась крупнейшая в мире ритейл-конференция и экспо ― NRF Retail’s Big Show 2019, проходившая с 13 по 15 января в Нью-Йорке. Мы побывали на выставке и постарались узнать о всех инновациях...
Нейросетевой синтез речи с помощью архитектуры Tacotron 2, или «Get alignment or die train'»
Нашей команде поставили задачу: повторить результаты работы искусственной нейронной сети синтеза речи Tacotron2 авторства DeepMind. Это рассказ о тернистом пути, пройденном нами в ходе реализации проекта.
🔗 Нейросетевой синтез речи с помощью архитектуры Tacotron 2, или «Get alignment or die train'»
Нашей команде поставили задачу: повторить результаты работы искусственной нейронной сети синтеза речи Tacotron2 авторства DeepMind. Это рассказ о тернистом...
Нашей команде поставили задачу: повторить результаты работы искусственной нейронной сети синтеза речи Tacotron2 авторства DeepMind. Это рассказ о тернистом пути, пройденном нами в ходе реализации проекта.
🔗 Нейросетевой синтез речи с помощью архитектуры Tacotron 2, или «Get alignment or die train'»
Нашей команде поставили задачу: повторить результаты работы искусственной нейронной сети синтеза речи Tacotron2 авторства DeepMind. Это рассказ о тернистом...
Хабр
Нейросетевой синтез речи с помощью архитектуры Tacotron 2, или «Get alignment or die tryin'»
Нашей команде поставили задачу: повторить результаты работы искусственной нейронной сети синтеза речи Tacotron2 авторства DeepMind. Это рассказ о тернистом пут...
How to Accelerate Learning of Deep Neural Networks With Batch Normalization
🔗 How to Accelerate Learning of Deep Neural Networks With Batch Normalization
Batch normalization is a technique designed to automatically standardize the inputs to a layer in a deep learning neural network. Once implemented, batch normalization has the effect of dramatically accelerating the training process of a neural network, and in some cases improves the performance of the model via a modest regularization effect. In this tutorial, …
🔗 How to Accelerate Learning of Deep Neural Networks With Batch Normalization
Batch normalization is a technique designed to automatically standardize the inputs to a layer in a deep learning neural network. Once implemented, batch normalization has the effect of dramatically accelerating the training process of a neural network, and in some cases improves the performance of the model via a modest regularization effect. In this tutorial, …
MachineLearningMastery.com
How to Accelerate Learning of Deep Neural Networks With Batch Normalization - MachineLearningMastery.com
Batch normalization is a technique designed to automatically standardize the inputs to a layer in a deep learning neural network. Once implemented, batch normalization has the effect of dramatically accelerating the training process of a neural network, and…
🎥 «Автоматизация в финансах и медицине при помощи AI». Игорь Кауфман, DataArt
👁 1 раз ⏳ 3096 сек.
👁 1 раз ⏳ 3096 сек.
Язык доклада: русский.
Язык презентации: русский.
Игорь Кауфман рассказывает о мировых трендах в области искусственного интеллекта, приводит примеры использования AI в финансах и здравоохранении, объясняет целесообразность машинного обучения.
Докладчик: Игорь Кауфман, Delivery Manager, DataArt.
Видеозапись сделана на конференции DataArt IT NonStop 2018 в Харькове, 1 декабря 2018 года.
Вакансии в DataArt: http://dataart.ua/career
Facebook: http://www.facebook.com/DataArt
Instagram: http://www.instagra
Vk
«Автоматизация в финансах и медицине при помощи AI». Игорь Кауфман, DataArt
Язык доклада: русский.
Язык презентации: русский.
Игорь Кауфман рассказывает о мировых трендах в области искусственного интеллекта, приводит примеры использования AI в финансах и здравоохранении, объясняет целесообразность машинного обучения.
Докладчик:…
Язык презентации: русский.
Игорь Кауфман рассказывает о мировых трендах в области искусственного интеллекта, приводит примеры использования AI в финансах и здравоохранении, объясняет целесообразность машинного обучения.
Докладчик:…
🎥 «Interpretable-модели в машинном обучении». Влад Колбасин, Globallogic
👁 1 раз ⏳ 2985 сек.
👁 1 раз ⏳ 2985 сек.
Язык доклада: русский.
Язык презентации: английский.
Влад Колбасин рассказывает, что такое interpretable-модели в машинном обучении, зачем они нужны, что значит «объяснить модель». Внутри видео — обзор подходов и библиотек для объяснения и анализа моделей и в white-box-, и в black-box-представлении. Заодно смотрим, как вообще анализ моделей помогает улучшить качество конкретной модели.
Докладчик: Влад Колбасин, Lead Data Scientist in Globallogic.
Видеозапись сделана на конференции DataArt IT NonStop 2
Vk
«Interpretable-модели в машинном обучении». Влад Колбасин, Globallogic
Язык доклада: русский.
Язык презентации: английский.
Влад Колбасин рассказывает, что такое interpretable-модели в машинном обучении, зачем они нужны, что значит «объяснить модель». Внутри видео — обзор подходов и библиотек для объяснения и анализа моделей…
Язык презентации: английский.
Влад Колбасин рассказывает, что такое interpretable-модели в машинном обучении, зачем они нужны, что значит «объяснить модель». Внутри видео — обзор подходов и библиотек для объяснения и анализа моделей…
🎥 «Когда (не) надо использовать машинное обучение». Андрей Сорокин, DataArt
👁 1 раз ⏳ 2693 сек.
👁 1 раз ⏳ 2693 сек.
Язык доклада: русский.
Язык презентации: английский.
Обсуждаем, почему мы программируем компьютеры, и как от обычного программирования перешли к машинному обучению. Рассматриваем примеры сервисов распознавания образов, здравоохранения, финансов и робототехники, которые иллюстрируют применимость ML для решения подобных задач. Отдельно говорим об ограничениях этого подхода.
Докладчик: Андрей Сорокин, Software Developer, DataArt.
Видеозапись сделана на конференции DataArt IT NonStop 2018 в Харькове, 1 де
Vk
«Когда (не) надо использовать машинное обучение». Андрей Сорокин, DataArt
Язык доклада: русский.
Язык презентации: английский.
Обсуждаем, почему мы программируем компьютеры, и как от обычного программирования перешли к машинному обучению. Рассматриваем примеры сервисов распознавания образов, здравоохранения, финансов и робототехники…
Язык презентации: английский.
Обсуждаем, почему мы программируем компьютеры, и как от обычного программирования перешли к машинному обучению. Рассматриваем примеры сервисов распознавания образов, здравоохранения, финансов и робототехники…
Улучшение агента на основе Q-Learning, торгующего stocks, путем добавления рекуррентности и формирования наград
Предлагаю вашему вниманию ещё один перевод моей новой статьи с медиума.
В прошлый раз (первая статья) (Habr) мы создали агента на технологии Q-Learning, который совершает сделки на имитированных и реальных биржевых временных рядах и пытались проверить, подходит ли эта область задач для обучения с подкреплением.
В этот раз мы добавим LSTM слой для учета временных зависимостей внутри траектории и сделаем инженерию наград (reward shaping) на основе презентаци
🔗 Улучшение агента на основе Q-Learning, торгующего stocks, путем добавления рекуррентности и формиров
Напоминание Привет, Хабр! Предлагаю вашему вниманию ещё один перевод моей новой статьи с медиума. В прошлый раз (первая статья) (Habr) мы создали агента на...
Предлагаю вашему вниманию ещё один перевод моей новой статьи с медиума.
В прошлый раз (первая статья) (Habr) мы создали агента на технологии Q-Learning, который совершает сделки на имитированных и реальных биржевых временных рядах и пытались проверить, подходит ли эта область задач для обучения с подкреплением.
В этот раз мы добавим LSTM слой для учета временных зависимостей внутри траектории и сделаем инженерию наград (reward shaping) на основе презентаци
🔗 Улучшение агента на основе Q-Learning, торгующего stocks, путем добавления рекуррентности и формиров
Напоминание Привет, Хабр! Предлагаю вашему вниманию ещё один перевод моей новой статьи с медиума. В прошлый раз (первая статья) (Habr) мы создали агента на...
Хабр
Улучшение агента на основе Q-Learning, торгующего stocks, путем добавления рекуррентности и формирования наград
Напоминание Привет, Хабр! Предлагаю вашему вниманию ещё один перевод моей новой статьи с медиума. В прошлый раз (первая статья) (Habr) мы создали агента на техн...
🤓Interesting note on weight decay vs L2 regularization
In short, the was difference when moving from caffe (which implements weight decay) to keras (which implements L2). That led to different results on the same net architecture and same set of hyperparameters.
Link: https://bbabenko.github.io/weight-decay/
#DL #nn #hyperopt #hyperparams
🔗 weight decay vs L2 regularization
one popular way of adding regularization to deep learning models is to include a weight decay term in the updates. this is the same thing as adding an $L_2$ ...
In short, the was difference when moving from caffe (which implements weight decay) to keras (which implements L2). That led to different results on the same net architecture and same set of hyperparameters.
Link: https://bbabenko.github.io/weight-decay/
#DL #nn #hyperopt #hyperparams
🔗 weight decay vs L2 regularization
one popular way of adding regularization to deep learning models is to include a weight decay term in the updates. this is the same thing as adding an $L_2$ ...
bbabenko.github.io
weight decay vs L2 regularization
one popular way of adding regularization to deep learning models is to include a weight decay term in the updates. this is the same thing as adding an $L_2$ ...
IQ is largely a pseudoscientific swindle
Note by Nassim Taleb on how IQ works. He shows that high-IQ is not well-correlated with wealth or overall cognitive performance.
Link: https://medium.com/incerto/iq-is-largely-a-pseudoscientific-swindle-f131c101ba39
#statistics #iq #fallacy
Note by Nassim Taleb on how IQ works. He shows that high-IQ is not well-correlated with wealth or overall cognitive performance.
Link: https://medium.com/incerto/iq-is-largely-a-pseudoscientific-swindle-f131c101ba39
#statistics #iq #fallacy
Medium
IQ is largely a pseudoscientific swindle
Background : “IQ” is a stale test meant to measure mental capacity but in fact mostly measures extreme unintelligence (learning…
Tutorial 7 - Autoencoders and GANs | Deep Learning on Computational Accelerators
🔗 Tutorial 7 - Autoencoders and GANs | Deep Learning on Computational Accelerators
Given by Chaim Baskin @ CS department of Technion - Israel Institute of Technology.
🔗 Tutorial 7 - Autoencoders and GANs | Deep Learning on Computational Accelerators
Given by Chaim Baskin @ CS department of Technion - Israel Institute of Technology.
YouTube
Tutorial 7 - Autoencoders and GANs | Deep Learning on Computational Accelerators
Given by Chaim Baskin @ CS department of Technion - Israel Institute of Technology.