Hopefully This Bayesian Spam Filter isn’t Too Naive
🔗 Hopefully This Bayesian Spam Filter isn’t Too Naive
We’ve all had our encounters with spam, from shady e-mails sitting in our Gmail inbox, to repetitive comments on our social media posts…
🔗 Hopefully This Bayesian Spam Filter isn’t Too Naive
We’ve all had our encounters with spam, from shady e-mails sitting in our Gmail inbox, to repetitive comments on our social media posts…
Medium
Hopefully This Bayesian Spam Filter isn’t Too Naive
We’ve all had our encounters with spam, from shady e-mails sitting in our Gmail inbox, to repetitive comments on our social media posts…
Нейронные сети
#Нейросети
#video больше видео у нашем каталоге https://vk.com/videos-3183750
🎥 Нейронные сети Лекция 1
👁 1113 раз ⏳ 4808 сек.
🎥 Нейронные сети Лекция 2
👁 100 раз ⏳ 4875 сек.
🎥 Нейронные сети Лекция 3
👁 50 раз ⏳ 3035 сек.
🎥 Нейронные сети Лекция 4
👁 58 раз ⏳ 4726 сек.
🎥 Нейронные сети Лекция 5
👁 63 раз ⏳ 4730 сек.
🎥 Нейронные сети Лекция 6
👁 86 раз ⏳ 3174 сек.
#Нейросети
#video больше видео у нашем каталоге https://vk.com/videos-3183750
🎥 Нейронные сети Лекция 1
👁 1113 раз ⏳ 4808 сек.
🎥 Нейронные сети Лекция 2
👁 100 раз ⏳ 4875 сек.
🎥 Нейронные сети Лекция 3
👁 50 раз ⏳ 3035 сек.
🎥 Нейронные сети Лекция 4
👁 58 раз ⏳ 4726 сек.
🎥 Нейронные сети Лекция 5
👁 63 раз ⏳ 4730 сек.
Сети с обратными связями. Сети Кохонена и Гроссберга, Хопфилда. Instar и Outstar. Устойчивость (Ляпунов) для сетей Хопфилда.
🎥 Нейронные сети Лекция 6
👁 86 раз ⏳ 3174 сек.
VK Видео
Видеозаписи Веб программист - PHP, JS, Python, Java, HTML 5 | ВКонтакте
http://news.mit.edu/2019/supercomputer-analyzes-web-traffic-across-entire-internet-1028
🔗 Supercomputer analyzes web traffic across entire internet
Modeling web traffic could aid cybersecurity, computing infrastructure design, Internet policy, and more.
🔗 Supercomputer analyzes web traffic across entire internet
Modeling web traffic could aid cybersecurity, computing infrastructure design, Internet policy, and more.
MIT News | Massachusetts Institute of Technology
Supercomputer analyzes web traffic across entire internet
Using the MIT SuperCloud and the MIT Lincoln Laboratory Supercomputing Center, researchers have developed a model that captures what web traffic looks like around the world on a given day, to be used as a measurement tool for internet and network research.
🎥 Efficient and Scalable Deep Learning
👁 1 раз ⏳ 4203 сек.
👁 1 раз ⏳ 4203 сек.
In deep learning, researchers keep gaining higher performance by using larger models. However, there are two obstacles blocking the community to build larger models: (1) training larger models is more time-consuming, which slows down model design exploration, and (2) inference of larger models is also slow, which disables their deployment to computation constrained applications. In this talk, I will introduce some of our efforts to remove those obstacles. On the training side, we propose TernGrad to reduce
Vk
Efficient and Scalable Deep Learning
In deep learning, researchers keep gaining higher performance by using larger models. However, there are two obstacles blocking the community to build larger models: (1) training larger models is more time-consuming, which slows down model design exploration…
November Edition: Deep Learning
🔗 November Edition: Deep Learning
We live in a world where, for better and for worse, we are surrounded by deep learning algorithms. From social network filtering to…
🔗 November Edition: Deep Learning
We live in a world where, for better and for worse, we are surrounded by deep learning algorithms. From social network filtering to…
Medium
November Edition: Deep Learning
We live in a world where, for better and for worse, we are surrounded by deep learning algorithms. From social network filtering to…
Enhancing AR with machine learning
🔗 Enhancing AR with machine learning
Layering ML on top of AR apps extends their usefulness.
🔗 Enhancing AR with machine learning
Layering ML on top of AR apps extends their usefulness.
Medium
Enhancing AR with machine learning
Layering ML on top of AR apps extends their usefulness.
How to Update a Dataset On Kaggle | Kaggle
🔗 How to Update a Dataset On Kaggle | Kaggle
So you've created a Kaggle dataset but you have new data to upload or you want to change one of your files. What should you do? Update your dataset, of course! This short video will show up how to update your datasets on Kaggle. SUBSCRIBE: https://www.youtube.com/c/kaggle?sub_confirmation=1&utm_medium=youtube&utm_source=channel&utm_campaign=yt-sub About Kaggle: Kaggle is the world's largest community of data scientists. Join us to compete, collaborate, learn, and do your data science work. Kaggle's platfo
🔗 How to Update a Dataset On Kaggle | Kaggle
So you've created a Kaggle dataset but you have new data to upload or you want to change one of your files. What should you do? Update your dataset, of course! This short video will show up how to update your datasets on Kaggle. SUBSCRIBE: https://www.youtube.com/c/kaggle?sub_confirmation=1&utm_medium=youtube&utm_source=channel&utm_campaign=yt-sub About Kaggle: Kaggle is the world's largest community of data scientists. Join us to compete, collaborate, learn, and do your data science work. Kaggle's platfo
YouTube
How to Update a Dataset On Kaggle | Kaggle
So you've created a Kaggle dataset but you have new data to upload or you want to change one of your files. What should you do? Update your dataset, of course! This short video will show up how to update your datasets on Kaggle.
SUBSCRIBE: https://www.y…
SUBSCRIBE: https://www.y…
🎥 Р.В. Шамин. Лекция № 8 Задачи классификации и распознавания в динамике механических систем
👁 1 раз ⏳ 3604 сек.
👁 1 раз ⏳ 3604 сек.
Курс "Машинное обучение и искусственный интеллект
в задачах механики", читаемый в Математическом институте им. В.А. Стеклова РАН: http://www.mathnet.ru/conf1618
Vk
Р.В. Шамин. Лекция № 8 Задачи классификации и распознавания в динамике механических систем
Курс "Машинное обучение и искусственный интеллект
в задачах механики", читаемый в Математическом институте им. В.А. Стеклова РАН: http://www.mathnet.ru/conf1618
в задачах механики", читаемый в Математическом институте им. В.А. Стеклова РАН: http://www.mathnet.ru/conf1618
🎥 Верификация человека по лицу | Проекты по глубоким нейронным сетям
👁 1 раз ⏳ 871 сек.
👁 1 раз ⏳ 871 сек.
Проект распознавания и верификации человека по лицу с помощью глубоких нейронн ...
Vk
Верификация человека по лицу | Проекты по глубоким нейронным сетям
Проект распознавания и верификации человека по лицу с помощью глубоких нейронн ...
yaohungt/Adaptive-Regularization-Neural-Network
🔗 yaohungt/Adaptive-Regularization-Neural-Network
[NeurIPS'19] [PyTorch] Adaptive Regularization in NN - yaohungt/Adaptive-Regularization-Neural-Network
🔗 yaohungt/Adaptive-Regularization-Neural-Network
[NeurIPS'19] [PyTorch] Adaptive Regularization in NN - yaohungt/Adaptive-Regularization-Neural-Network
GitHub
yaohungt/Adaptive-Regularization-Neural-Network
[NeurIPS'19] [PyTorch] Adaptive Regularization in NN - yaohungt/Adaptive-Regularization-Neural-Network
Integer Discrete Flows and Lossless Compression
Hoogeboom et al.: https://arxiv.org/abs/1905.07376
#Artificialintelligence #DeepLearning #MachineLearning
🔗 Integer Discrete Flows and Lossless Compression
Lossless compression methods shorten the expected representation size of data without loss of information, using a statistical model. Flow-based models are attractive in this setting because they admit exact likelihood optimization, which is equivalent to minimizing the expected number of bits per message. However, conventional flows assume continuous data, which may lead to reconstruction errors when quantized for compression. For that reason, we introduce a flow-based generative model for ordinal discrete data called Integer Discrete Flow (IDF): a bijective integer map that can learn rich transformations on high-dimensional data. As building blocks for IDFs, we introduce a flexible transformation layer called integer discrete coupling. Our experiments show that IDFs are competitive with other flow-based generative models. Furthermore, we demonstrate that IDF based compression achieves state-of-the-art lossless compression rates on CIFAR10, ImageNet32, and ImageNet64. To the best of our knowledge, this is the first lossless compression method that uses invertible neural networks.
Hoogeboom et al.: https://arxiv.org/abs/1905.07376
#Artificialintelligence #DeepLearning #MachineLearning
🔗 Integer Discrete Flows and Lossless Compression
Lossless compression methods shorten the expected representation size of data without loss of information, using a statistical model. Flow-based models are attractive in this setting because they admit exact likelihood optimization, which is equivalent to minimizing the expected number of bits per message. However, conventional flows assume continuous data, which may lead to reconstruction errors when quantized for compression. For that reason, we introduce a flow-based generative model for ordinal discrete data called Integer Discrete Flow (IDF): a bijective integer map that can learn rich transformations on high-dimensional data. As building blocks for IDFs, we introduce a flexible transformation layer called integer discrete coupling. Our experiments show that IDFs are competitive with other flow-based generative models. Furthermore, we demonstrate that IDF based compression achieves state-of-the-art lossless compression rates on CIFAR10, ImageNet32, and ImageNet64. To the best of our knowledge, this is the first lossless compression method that uses invertible neural networks.
Голосовые приложения: миллиардный рынок, который в России не замечают
Анекдот как предисловие:
Купил Петька автомат по продаже газировки и поехал ставить в Сахару. Через год встречает его Василий Иванович и спрашивает: — идея бомба была, а ты что такой хмурый?
— Понимаешь, Василий Иванович, они как увидят в пустыне автомат с газировкой — сразу кричат, мираж, мираж и мимо проходят.
1. Невидимый для обывателей рынок
Рынок аппаратных устройств для общения голосом показывает самый большой рост за всю историю аппаратной электроники.
Google Assistent предустановлен на 1 миллиарде устройств, теперь давайте сравним с рынком мобильных устройств и приложений:
🔗 Голосовые приложения: миллиардный рынок, который в России не замечают
Анекдот как предисловие: Купил Петька автомат по продаже газировки и поехал ставить в Сахару. Через год встречает его Василий Иванович и спрашивает: — идея бомба...
Анекдот как предисловие:
Купил Петька автомат по продаже газировки и поехал ставить в Сахару. Через год встречает его Василий Иванович и спрашивает: — идея бомба была, а ты что такой хмурый?
— Понимаешь, Василий Иванович, они как увидят в пустыне автомат с газировкой — сразу кричат, мираж, мираж и мимо проходят.
1. Невидимый для обывателей рынок
Рынок аппаратных устройств для общения голосом показывает самый большой рост за всю историю аппаратной электроники.
Google Assistent предустановлен на 1 миллиарде устройств, теперь давайте сравним с рынком мобильных устройств и приложений:
🔗 Голосовые приложения: миллиардный рынок, который в России не замечают
Анекдот как предисловие: Купил Петька автомат по продаже газировки и поехал ставить в Сахару. Через год встречает его Василий Иванович и спрашивает: — идея бомба...
Хабр
Голосовые приложения: миллиардный рынок, который в России не замечают
Анекдот как предисловие: Купил Петька автомат по продаже газировки и поехал ставить в Сахару. Через год встречает его Василий Иванович и спрашивает: — идея бомба была, а ты что такой хмурый? —...
SacalaConf 2019 — проповедник Джон, Святой Грааль и «Профессор Hаskell»
26 ноября в Инфопространстве пройдет ScalaConf 2019 — профессиональная конференция для Scala-разработчиков. Возможно, первая в России. Накануне события мы попросили Вадима Челышова (dos65), руководителя ПК ScalaConf 2019, рассказать о докладах и концепции конференции.
Вот, что мы узнали: на конференции нас ждет проповедник функционального программирования, четыре англоязычных доклада, новый инструмент, который решит проблемы дата-инженеров, доклад о том, почему Scala Plugin несовместим со Scala-компилятором, «Профессор Haskell» и много функционального программирования. Также мы поговорили о границах развития Scala-разработчика, почему среди них нет джунов, о «холиваре» между Scala и Haskell, и об информационном «пузыре» коммьюнити. Подробности под катом.
🔗 SacalaConf 2019 — проповедник Джон, Святой Грааль и «Профессор Hаskell»
26 ноября в Инфопространстве пройдет ScalaConf 2019 — профессиональная конференция для Scala-разработчиков. Возможно, первая в России. Накануне события мы попрос...
26 ноября в Инфопространстве пройдет ScalaConf 2019 — профессиональная конференция для Scala-разработчиков. Возможно, первая в России. Накануне события мы попросили Вадима Челышова (dos65), руководителя ПК ScalaConf 2019, рассказать о докладах и концепции конференции.
Вот, что мы узнали: на конференции нас ждет проповедник функционального программирования, четыре англоязычных доклада, новый инструмент, который решит проблемы дата-инженеров, доклад о том, почему Scala Plugin несовместим со Scala-компилятором, «Профессор Haskell» и много функционального программирования. Также мы поговорили о границах развития Scala-разработчика, почему среди них нет джунов, о «холиваре» между Scala и Haskell, и об информационном «пузыре» коммьюнити. Подробности под катом.
🔗 SacalaConf 2019 — проповедник Джон, Святой Грааль и «Профессор Hаskell»
26 ноября в Инфопространстве пройдет ScalaConf 2019 — профессиональная конференция для Scala-разработчиков. Возможно, первая в России. Накануне события мы попрос...
Хабр
ScalaConf 2019 — проповедник Джон, Святой Грааль и «Профессор Hаskell»
26 ноября в Инфопространстве пройдет ScalaConf 2019 — профессиональная конференция для Scala-разработчиков. Возможно, первая в России. Накануне события мы попросили Вадима Челышова (dos65),...
9 лучших опенсорс находок за октябрь 2019
Технологии внутри: Rust, Swift, TypeScript, JavaScript, Go, Scala, Python. Тематика: веб и мобильная разработка, визуализация данных, инструменты разработчика, документация.
https://habr.com/ru/post/474588/
🔗 9 лучших опенсорс находок за октябрь 2019
Доброго ноября, дамы и господа. Подготовил для вас подборку самых интересных находок из опенсорса за октябрь 2019. За полным списком новых полезных инструментов...
Технологии внутри: Rust, Swift, TypeScript, JavaScript, Go, Scala, Python. Тематика: веб и мобильная разработка, визуализация данных, инструменты разработчика, документация.
https://habr.com/ru/post/474588/
🔗 9 лучших опенсорс находок за октябрь 2019
Доброго ноября, дамы и господа. Подготовил для вас подборку самых интересных находок из опенсорса за октябрь 2019. За полным списком новых полезных инструментов...
Хабр
9 лучших опенсорс находок за октябрь 2019
Доброго ноября, дамы и господа. Подготовил для вас подборку самых интересных находок из опенсорса за октябрь 2019. За полным списком новых полезных инструментов, статей и докладов можно...
Решаем уравнение простой линейной регрессии
В статье рассматривается несколько способов определения математического уравнения линии простой (парной) регрессии.
Все рассматриваемые здесь способы решения уравнения основаны на методе наименьших квадратов. Обозначим способы следующим образом:
— Аналитическое решение
— Градиентный спуск
— Стохастический градиентный спуск
Для каждого из способов решения уравнения прямой, в статье приведены различные функции, которые в основном делятся на те, которые написаны без использования библиотеки NumPy и те, которые для проведения расчетов применяют NumPy. Считается, что умелое использование NumPy позволит сократить затраты на вычисления.
Весь код, приведенный в статье, написан на языке python 2.7 с использованием Jupyter Notebook. Исходный код и файл с данными выборки выложен на Гитхабе
Статья в большей степени ориентирована как на начинающих, так и на тех, кто уже понемногу начал осваивать изучение весьма обширного раздела в искусственном интеллекте — машинного обучения.
Для иллюстрации материала используем очень простой пример.
🔗 Решаем уравнение простой линейной регрессии
В статье рассматривается несколько способов определения математического уравнения линии простой (парной) регрессии. Все рассматриваемые здесь способы решения у...
В статье рассматривается несколько способов определения математического уравнения линии простой (парной) регрессии.
Все рассматриваемые здесь способы решения уравнения основаны на методе наименьших квадратов. Обозначим способы следующим образом:
— Аналитическое решение
— Градиентный спуск
— Стохастический градиентный спуск
Для каждого из способов решения уравнения прямой, в статье приведены различные функции, которые в основном делятся на те, которые написаны без использования библиотеки NumPy и те, которые для проведения расчетов применяют NumPy. Считается, что умелое использование NumPy позволит сократить затраты на вычисления.
Весь код, приведенный в статье, написан на языке python 2.7 с использованием Jupyter Notebook. Исходный код и файл с данными выборки выложен на Гитхабе
Статья в большей степени ориентирована как на начинающих, так и на тех, кто уже понемногу начал осваивать изучение весьма обширного раздела в искусственном интеллекте — машинного обучения.
Для иллюстрации материала используем очень простой пример.
🔗 Решаем уравнение простой линейной регрессии
В статье рассматривается несколько способов определения математического уравнения линии простой (парной) регрессии. Все рассматриваемые здесь способы решения у...
Хабр
Решаем уравнение простой линейной регрессии
В статье рассматривается несколько способов определения математического уравнения линии простой (парной) регрессии. Все рассматриваемые здесь способы решения уравнения основаны на методе наименьших...
БудущееVSНастоящее – на #X5TechFutureNight
Настоящий disrupt случится совсем скоро – и ты можешь стать его участником! 21 ноября состоится первое мероприятие X5 Tech Future Night о больших данных и инновациях в развитии ритейла. За вариации на тему цифровизации будущего отвечает приглашенный гость из Японии, за привязку к настоящему – лучшие спикеры инновационного ритейла России. Мы обсудим концепции и уже реализованные проекты Next Generation Retail, столкнем лбами сторонников противоположных взглядов и подходов во время экспертных батлов, а также выберем лучшую корпоративную рок-группу.
🔗 БудущееVSНастоящее – на #X5TechFutureNight
Настоящий disrupt случится совсем скоро – и ты можешь стать его участником! 21 ноября состоится первое мероприятие X5 Tech Future Night о больших данных и иннова...
Настоящий disrupt случится совсем скоро – и ты можешь стать его участником! 21 ноября состоится первое мероприятие X5 Tech Future Night о больших данных и инновациях в развитии ритейла. За вариации на тему цифровизации будущего отвечает приглашенный гость из Японии, за привязку к настоящему – лучшие спикеры инновационного ритейла России. Мы обсудим концепции и уже реализованные проекты Next Generation Retail, столкнем лбами сторонников противоположных взглядов и подходов во время экспертных батлов, а также выберем лучшую корпоративную рок-группу.
🔗 БудущееVSНастоящее – на #X5TechFutureNight
Настоящий disrupt случится совсем скоро – и ты можешь стать его участником! 21 ноября состоится первое мероприятие X5 Tech Future Night о больших данных и иннова...
Хабр
БудущееVSНастоящее – на #X5TechFutureNight
Настоящий disrupt случится совсем скоро – и ты можешь стать его участником! 21 ноября состоится первое мероприятие X5 Tech Future Night о больших данных и инновациях в развитии ритейла. За вариации на...
GPT-2: 1.5B Release
OpenAI : https://openai.com/blog/gpt-2-1-5b-release/
#ArtificialIntelligence #DeepLearning #MachineLearning
🔗 GPT-2: 1.5B Release
As the final model release of GPT-2 [/blog/better-language-models/]’s staged release [/blog/gpt-2-6-month-follow-up/], we’re releasing the largest version (1.5B parameters) of GPT-2 along with code and model weights [https://github.com/openai/gpt-2-output-dataset] to facilitate detection of outputs of GPT-2 models. While there have been larger language models released since August, we’ve continued with our original staged release plan in order to provide the community with a test case of a full
OpenAI : https://openai.com/blog/gpt-2-1-5b-release/
#ArtificialIntelligence #DeepLearning #MachineLearning
🔗 GPT-2: 1.5B Release
As the final model release of GPT-2 [/blog/better-language-models/]’s staged release [/blog/gpt-2-6-month-follow-up/], we’re releasing the largest version (1.5B parameters) of GPT-2 along with code and model weights [https://github.com/openai/gpt-2-output-dataset] to facilitate detection of outputs of GPT-2 models. While there have been larger language models released since August, we’ve continued with our original staged release plan in order to provide the community with a test case of a full
Openai
GPT-2: 1.5B release
As the final model release of GPT-2’s staged release, we’re releasing the largest version (1.5B parameters) of GPT-2 along with code and model weights to facilitate detection of outputs of GPT-2 models. While there have been larger language models released…
Anomaly Detection With SQL
🔗 Anomaly Detection With SQL
There are many ways to detect anomalies in data and like most things in life, not really a clear and cut ‘right way’ it to do it. The…
🔗 Anomaly Detection With SQL
There are many ways to detect anomalies in data and like most things in life, not really a clear and cut ‘right way’ it to do it. The…
Medium
Anomaly Detection With SQL
There are many ways to detect anomalies in data and like most things in life, not really a clear and cut ‘right way’ it to do it. The…
A minimalist neural machine translation toolkit based on PyTorch that is specifically designed for novices.
https://arxiv.org/abs/1907.12484
https://github.com/joeynmt/joeynmt/
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🔗 joeynmt/joeynmt
Minimalist NMT for educational purposes. Contribute to joeynmt/joeynmt development by creating an account on GitHub.
https://arxiv.org/abs/1907.12484
https://github.com/joeynmt/joeynmt/
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🔗 joeynmt/joeynmt
Minimalist NMT for educational purposes. Contribute to joeynmt/joeynmt development by creating an account on GitHub.
HyperParameters in Machine Learning
🔗 HyperParameters in Machine Learning
A hyperparameter is a parameter or a variable we need to set before applying a machine learning algorithm into a dataset.
🔗 HyperParameters in Machine Learning
A hyperparameter is a parameter or a variable we need to set before applying a machine learning algorithm into a dataset.
Medium
HyperParameters in Machine Learning
A hyperparameter is a parameter or a variable we need to set before applying a machine learning algorithm into a dataset.