Neural Networks | Нейронные сети
11.8K subscribers
760 photos
165 videos
170 files
9.41K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
Нейронные сети
#Нейросети

#video больше видео у нашем каталоге https://vk.com/videos-3183750

🎥 Нейронные сети Лекция 1
👁 1113 раз 4808 сек.


🎥 Нейронные сети Лекция 2
👁 100 раз 4875 сек.


🎥 Нейронные сети Лекция 3
👁 50 раз 3035 сек.


🎥 Нейронные сети Лекция 4
👁 58 раз 4726 сек.


🎥 Нейронные сети Лекция 5
👁 63 раз 4730 сек.
Сети с обратными связями. Сети Кохонена и Гроссберга, Хопфилда. Instar и Outstar. Устойчивость (Ляпунов) для сетей Хопфилда.

🎥 Нейронные сети Лекция 6
👁 86 раз 3174 сек.
🎥 Efficient and Scalable Deep Learning
👁 1 раз 4203 сек.
In deep learning, researchers keep gaining higher performance by using larger models. However, there are two obstacles blocking the community to build larger models: (1) training larger models is more time-consuming, which slows down model design exploration, and (2) inference of larger models is also slow, which disables their deployment to computation constrained applications. In this talk, I will introduce some of our efforts to remove those obstacles. On the training side, we propose TernGrad to reduce
​November Edition: Deep Learning

🔗 November Edition: Deep Learning
We live in a world where, for better and for worse, we are surrounded by deep learning algorithms. From social network filtering to…
​How to Update a Dataset On Kaggle | Kaggle

🔗 How to Update a Dataset On Kaggle | Kaggle
So you've created a Kaggle dataset but you have new data to upload or you want to change one of your files. What should you do? Update your dataset, of course! This short video will show up how to update your datasets on Kaggle. SUBSCRIBE: https://www.youtube.com/c/kaggle?sub_confirmation=1&utm_medium=youtube&utm_source=channel&utm_campaign=yt-sub About Kaggle: Kaggle is the world's largest community of data scientists. Join us to compete, collaborate, learn, and do your data science work. Kaggle's platfo
​Integer Discrete Flows and Lossless Compression
Hoogeboom et al.: https://arxiv.org/abs/1905.07376
#Artificialintelligence #DeepLearning #MachineLearning

🔗 Integer Discrete Flows and Lossless Compression
Lossless compression methods shorten the expected representation size of data without loss of information, using a statistical model. Flow-based models are attractive in this setting because they admit exact likelihood optimization, which is equivalent to minimizing the expected number of bits per message. However, conventional flows assume continuous data, which may lead to reconstruction errors when quantized for compression. For that reason, we introduce a flow-based generative model for ordinal discrete data called Integer Discrete Flow (IDF): a bijective integer map that can learn rich transformations on high-dimensional data. As building blocks for IDFs, we introduce a flexible transformation layer called integer discrete coupling. Our experiments show that IDFs are competitive with other flow-based generative models. Furthermore, we demonstrate that IDF based compression achieves state-of-the-art lossless compression rates on CIFAR10, ImageNet32, and ImageNet64. To the best of our knowledge, this is the first lossless compression method that uses invertible neural networks.
​Голосовые приложения: миллиардный рынок, который в России не замечают
Анекдот как предисловие:
Купил Петька автомат по продаже газировки и поехал ставить в Сахару. Через год встречает его Василий Иванович и спрашивает: — идея бомба была, а ты что такой хмурый?
— Понимаешь, Василий Иванович, они как увидят в пустыне автомат с газировкой — сразу кричат, мираж, мираж и мимо проходят.

1. Невидимый для обывателей рынок
Рынок аппаратных устройств для общения голосом показывает самый большой рост за всю историю аппаратной электроники.

Google Assistent предустановлен на 1 миллиарде устройств, теперь давайте сравним с рынком мобильных устройств и приложений:

🔗 Голосовые приложения: миллиардный рынок, который в России не замечают
Анекдот как предисловие: Купил Петька автомат по продаже газировки и поехал ставить в Сахару. Через год встречает его Василий Иванович и спрашивает: — идея бомба...
​SacalaConf 2019 — проповедник Джон, Святой Грааль и «Профессор Hаskell»
26 ноября в Инфопространстве пройдет ScalaConf 2019 — профессиональная конференция для Scala-разработчиков. Возможно, первая в России. Накануне события мы попросили Вадима Челышова (dos65), руководителя ПК ScalaConf 2019, рассказать о докладах и концепции конференции.

Вот, что мы узнали: на конференции нас ждет проповедник функционального программирования, четыре англоязычных доклада, новый инструмент, который решит проблемы дата-инженеров, доклад о том, почему Scala Plugin несовместим со Scala-компилятором, «Профессор Haskell» и много функционального программирования. Также мы поговорили о границах развития Scala-разработчика, почему среди них нет джунов, о «холиваре» между Scala и Haskell, и об информационном «пузыре» коммьюнити. Подробности под катом.

🔗 SacalaConf 2019 — проповедник Джон, Святой Грааль и «Профессор Hаskell»
26 ноября в Инфопространстве пройдет ScalaConf 2019 — профессиональная конференция для Scala-разработчиков. Возможно, первая в России. Накануне события мы попрос...
​9 лучших опенсорс находок за октябрь 2019

Технологии внутри: Rust, Swift, TypeScript, JavaScript, Go, Scala, Python. Тематика: веб и мобильная разработка, визуализация данных, инструменты разработчика, документация.

https://habr.com/ru/post/474588/

🔗 9 лучших опенсорс находок за октябрь 2019
Доброго ноября, дамы и господа. Подготовил для вас подборку самых интересных находок из опенсорса за октябрь 2019. За полным списком новых полезных инструментов...
​Решаем уравнение простой линейной регрессии
В статье рассматривается несколько способов определения математического уравнения линии простой (парной) регрессии.

Все рассматриваемые здесь способы решения уравнения основаны на методе наименьших квадратов. Обозначим способы следующим образом:

— Аналитическое решение
— Градиентный спуск
— Стохастический градиентный спуск

Для каждого из способов решения уравнения прямой, в статье приведены различные функции, которые в основном делятся на те, которые написаны без использования библиотеки NumPy и те, которые для проведения расчетов применяют NumPy. Считается, что умелое использование NumPy позволит сократить затраты на вычисления.

Весь код, приведенный в статье, написан на языке python 2.7 с использованием Jupyter Notebook. Исходный код и файл с данными выборки выложен на Гитхабе

Статья в большей степени ориентирована как на начинающих, так и на тех, кто уже понемногу начал осваивать изучение весьма обширного раздела в искусственном интеллекте — машинного обучения.

Для иллюстрации материала используем очень простой пример.

🔗 Решаем уравнение простой линейной регрессии
В статье рассматривается несколько способов определения математического уравнения линии простой (парной) регрессии. Все рассматриваемые здесь способы решения у...
​БудущееVSНастоящее – на #X5TechFutureNight
Настоящий disrupt случится совсем скоро – и ты можешь стать его участником! 21 ноября состоится первое мероприятие X5 Tech Future Night о больших данных и инновациях в развитии ритейла. За вариации на тему цифровизации будущего отвечает приглашенный гость из Японии, за привязку к настоящему – лучшие спикеры инновационного ритейла России. Мы обсудим концепции и уже реализованные проекты Next Generation Retail, столкнем лбами сторонников противоположных взглядов и подходов во время экспертных батлов, а также выберем лучшую корпоративную рок-группу.

🔗 БудущееVSНастоящее – на #X5TechFutureNight
Настоящий disrupt случится совсем скоро – и ты можешь стать его участником! 21 ноября состоится первое мероприятие X5 Tech Future Night о больших данных и иннова...
​GPT-2: 1.5B Release
OpenAI : https://openai.com/blog/gpt-2-1-5b-release/
#ArtificialIntelligence #DeepLearning #MachineLearning

🔗 GPT-2: 1.5B Release
As the final model release of GPT-2 [/blog/better-language-models/]’s staged release [/blog/gpt-2-6-month-follow-up/], we’re releasing the largest version (1.5B parameters) of GPT-2 along with code and model weights [https://github.com/openai/gpt-2-output-dataset] to facilitate detection of outputs of GPT-2 models. While there have been larger language models released since August, we’ve continued with our original staged release plan in order to provide the community with a test case of a full
​Anomaly Detection With SQL

🔗 Anomaly Detection With SQL
There are many ways to detect anomalies in data and like most things in life, not really a clear and cut ‘right way’ it to do it. The…
​A minimalist neural machine translation toolkit based on PyTorch that is specifically designed for novices.

https://arxiv.org/abs/1907.12484

https://github.com/joeynmt/joeynmt/

Наш телеграм канал - tglink.me/ai_machinelearning_big_data

🔗 joeynmt/joeynmt
Minimalist NMT for educational purposes. Contribute to joeynmt/joeynmt development by creating an account on GitHub.