Neural Networks | Нейронные сети
11.6K subscribers
734 photos
161 videos
170 files
9.4K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
​TensorFlow high-level APIs: Part 3 - Building and refining your models

🔗 TensorFlow high-level APIs: Part 3 - Building and refining your models
Welcome to Part 3 of our mini-series on TensorFlow high-level APIs! In this 3 part mini-series, TensorFlow Engineering Manager Karmel Allison runs us through...
Kaggle YouTube-8M 2: классификация видео

🎥 Kaggle YouTube-8M 2: классификация видео — Глеб Стеркин, Владимир Алиев
👁 1 раз 1272 сек.
Глеб Стеркин и Владимир Алиев вместе со своей командой заняли 4 место в конкурсе Kaggle The 2nd YouTube-8M Video Understanding Challenge. Как и в прошлом году стояла задача в классификации большого объёма видео, но в этот раз с ограничениями на размер модели. В видео участники рассказывают про использованные модели, многоуровневый подход с нейронными сетями и градиентным бустингом, сравнивают различные подходы.

Слайды: https://gh.mltrainings.ru/presentations/SterkinAliev_KaggleYT8M2_2018.pdf

Узнать о теку
​Machine Learning Cheatsheet.
Brief visual explanations of machine learning concepts with diagrams, code examples and links to resources for learning more.

🔗 Machine Learning Cheatsheet — ML Cheatsheet documentation
Kubernetes for Beginners

🎥 Kubernetes for Beginners
👁 1 раз 665 сек.
Kubernetes is one of the highest velocity open source projects in history. Its a tool that enables developers to manage 'containerized' apps in the cloud easily. In this tutorial video, I'll deploy an image classifier app built in python to the cloud using Kubernetes. It's a 3 step process, and along the way I'll explain key concepts surrounding Docker, Google Cloud, and scalability. Enjoy!

Code for this video:
https://github.com/llSourcell/kubernetes

Please Subscribe! And Like. And comment. Thats what
🎥 Процесс решения задач глубокого машинного обучения
👁 3 раз 683 сек.
Обобщенный процесс решения задачи глубокого машинного обучения:

1. Определение задачи и создание набора данных.
2. Выбор меры успеха.
3. Выбор протокола оценки.
4. Предварительная подготовка данных.
5. Разработка модели, более совершенной, чем базовый случай.
6. Масштабирование по вертикали: разработка модели с переобучением. Поиск границы между недообучением и переобучением.
7. Регуляризация модели и настройка гиперпараметров.

Источник: http://datascientist.one/sxema-resheniya-zadach-deep-learning/
​A Gentle Introduction to the Rectified Linear Activation Function for Deep Learning Neural Networks

🔗 A Gentle Introduction to the Rectified Linear Activation Function for Deep Learning Neural Networks
In a neural network, the activation function is responsible for transforming the summed weighted input from the node into the activation of the node or output for that input. The rectified linear activation function is a piecewise linear function that will output the input directly if is positive, otherwise, it will output zero. It has …
​Программист из Красноярска создал мобильное приложение на основе нейросетей и покоряет рынки России, США и Германии. NGS.RU расспросил предпринимателя об особенностях IT-бизнеса за рубежом, рынке труда в Соединённых Штатах и возможности монетизации идей. https://ngs24.ru/news/more/65698631/?from=window_2

🔗 Как программист из Красноярска сделал приложение для модников и открыл офис в США
Однажды программист из Красноярска Андрей Корхов съездил в Кремниевую долину в США и увлекся там изучением искусственного интеллекта.
​​​Generalization in Deep Networks: The Role of Distance from Initialization

Why it's important to take into account the initialization to explain generalization.

ArXiV: https://arxiv.org/abs/1901.01672

#DL #NN

🔗 Generalization in Deep Networks: The Role of Distance from Initialization
Why does training deep neural networks using stochastic gradient descent (SGD) result in a generalization error that does not worsen with the number of parameters in the network? To answer this question, we advocate a notion of effective model capacity that is dependent on {\em a given random initialization of the network} and not just the training algorithm and the data distribution. We provide empirical evidences that demonstrate that the model capacity of SGD-trained deep networks is in fact restricted through implicit regularization of {\em the $\ell_2$ distance from the initialization}. We also provide theoretical arguments that further highlight the need for initialization-dependent notions of model capacity. We leave as open questions how and why distance from initialization is regularized, and whether it is sufficient to explain generalization.
🎥 Лекция 14 | Основы математической статистики | Михаил Лифшиц | Лекториум
👁 1 раз 4967 сек.
Лекция 14 | Курс: Основы математической статистики | Лектор: Михаил Лифшиц | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ

Смотрите это видео на Лекториуме: https://www.lektorium.tv/node/33800

Другие лекции по курсу «Основы математической статистики» доступны для просмотра по ссылке: https://www.lektorium.tv/node/33005

Подписывайтесь на канал: https://www.lektorium.tv/ZJA
Следите за новостями:
https://vk.com/openlektorium
https://www.facebook.com/openlektorium