Neural Networks | Нейронные сети
11.7K subscribers
755 photos
162 videos
170 files
9.4K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
​Построение автоматической системы модерации сообщений

Автоматические системы модерации внедряются в веб-сервисы и приложения, где необходимо обрабатывать большое количество сообщений пользователей. Такие системы позволяют сократить издержки на ручную модерацию, ускорить её и обрабатывать все сообщения пользователей в real-time. В статье поговорим про построение автоматической системы модерации для обработки английского языка с использованием алгоритмов машинного обучения. Обсудим весь пайплайн работы от исследовательских задач и выбора ML алгоритмов до выкатки в продакшен. Посмотрим, где искать готовые датасеты и как собрать данные для задачи самостоятельно.
https://habr.com/ru/post/454628/

🔗 Построение автоматической системы модерации сообщений
Автоматические системы модерации внедряются в веб-сервисы и приложения, где необходимо обрабатывать большое количество сообщений пользователей. Такие системы по...
​Отличаем символы от мусора: как построить устойчивые нейросетевые модели в задачах OCR

Наш телеграм канал - tglink.me/ai_machinelearning_big_data
Искусственный интеллект
В последнее время мы в группе распознавания компании ABBYY всё больше применяем нейронные сети в различных задачах. Очень хорошо они зарекомендовали себя в первую очередь для сложных видов письменности. В прошлых постах мы рассказывали о том, как мы используем нейронные сети для распознавания японской, китайской и корейской письменности.

image Пост про распознавания японских и китайских иероглифов
image Пост про распознавание корейских символов

В обоих случаях мы использовали нейронные сети с целью полной замены метода классификации отдельного символа. Во всех подходах фигурировало множество различных сетей, и в задачи некоторых из них входила необходимость адекватно работать на изображениях, которые не являются символами. Модель в этих ситуациях должна как-то сигнализировать о том, что перед нами не символ. Сегодня мы как раз расскажем о том, зачем это в принципе может быть нужно, и о подходах, с помощью которых можно добиться желаемого эффекта.

Мотивация

А в чём вообще проблема? Зачем нужно работать на изображениях, которые не являются отдельными символами? Казалось бы, можно разделить фрагмент строки на символы, классифицировать их все и собрать из этого результат, как, например, на картинке ниже.
https://habr.com/ru/company/abbyy/blog/449524/

🔗 Отличаем символы от мусора: как построить устойчивые нейросетевые модели в задачах OCR
В последнее время мы в группе распознавания компании ABBYY всё больше применяем нейронные сети в различных задачах. Очень хорошо они зарекомендовали себя в перву...
🎥 Flexible systems are the next frontier of machine learning
👁 1 раз 4184 сек.
Machine learning is moving toward an important advance: the development of flexible systems that can learn to perform multiple tasks and then use what they have learned to solve new problems on their own.

While substantial progress has been made, significant improvements to hardware, software and system design remain to be made before truly flexible systems are developed.

Two important contributors to the field of artificial intelligence and machine learning – Jeff Dean, head of Google AI and the co-found
🎥 Reality Lab Lecture: Andrew Rabinovich
👁 1 раз 4647 сек.
The Reality Lab Lectures - Tuesday, April 23, 2019
TALK TITLE: Multi Task Learning for Computer Vision
SPEAKER: Andrew Rabinovich (Director of Deep Learning, Head of AI / Magic Leap)

TALK ABSTRACT: Deep multitask networks, in which one neural network produces multiple predictive outputs, are more scalable and often better regularized than their single-task counterparts. Such advantages can potentially lead to gains in both speed and performance, but multitask networks are also difficult to train without f
🎥 Machine Learning Tutorial Chap 5| Part-3 L2 Regularization in Machine Learning | GreyAtom
👁 1 раз 939 сек.
Welcome to the #DataScienceFridays Rohit Ghosh, a deep learning scientist, and an Instructor at GreyAtom will take us through polynomial regression in machine learning through a simple introduction series.

Regularization is a way to avoid overfitting by penalizing high-valued regression coefficients. In simple terms, it reduces parameters and shrinks (simplifies) the model. This more streamlined, more parsimonious model will likely perform better at predictions. Regularization adds penalties to more compl
🎥 JOTB19 - Getting started with Deep Reinforcement Learning by Nicolas Kuhaupt
👁 1 раз 2429 сек.
Reinforcement Learning is a hot topic in Artificial Intelligence (AI) at the moment with the most prominent example of AlphaGo Zero. It shifted the boundaries of what was believed to be possible with AI. In this talk, we will have a look into Reinforcement Learning and its implementation.

Reinforcement Learning is a class of algorithms which trains an agent to act optimally in an environment. The most prominent example is AlphaGo Zero, where the agent is trained to place tokens on the board of Go in order
​Adaptive Gradient-Based Meta-Learning Methods
https://arxiv.org/abs/1906.02717

🔗 Adaptive Gradient-Based Meta-Learning Methods
We build a theoretical framework for understanding practical meta-learning methods that enables the integration of sophisticated formalizations of task-similarity with the extensive literature on online convex optimization and sequential prediction algorithms. Our approach enables the task-similarity to be learned adaptively, provides sharper transfer-risk bounds in the setting of statistical learning-to-learn, and leads to straightforward derivations of average-case regret bounds for efficient algorithms in settings where the task-environment changes dynamically or the tasks share a certain geometric structure. We use our theory to modify several popular meta-learning algorithms and improve their training and meta-test-time performance on standard problems in few-shot and federated deep learning.
​Каждый сервис, чьи пользователи могут создавать собственный контент (UGC — User-generated content), вынужден не только решать бизнес-задачи, но и наводить порядок в UGC.

Наш телеграм канал - tglink.me/ai_machinelearning_big_data
Плохая или некачественная модерация контента в итоге может уменьшить привлекательность сервиса для пользователей, вплоть до прекращения его работы.

Сегодня мы вам расскажем про синергию между Юлой и Одноклассниками, которая помогает нам эффективно модерировать объявления в Юле.

Синергия вообще штука очень полезная, а в современном мире, когда технологии и тренды меняются очень быстро, она может превратиться в палочку-выручалочку. Зачем тратить дефицитные ресурсы и время на изобретение того, что до тебя уже изобрели и довели до ума?

Так же подумали и мы, когда перед нами во весь рост встала задача модерации пользовательского контента — картинок, текста и ссылок. Наши пользователи каждый день загружают в Юлу миллионы единиц контента, и без автоматической обработки промодерировать все эти данные вручную вообще не реально.

Поэтому мы воспользовались уже готовой платформой модерации, которую к тому времени наши коллеги из Одноклассников допилили до состояния «почти совершенство».
https://habr.com/ru/company/youla/blog/455128/

🔗 Как мы модерируем объявления
Каждый сервис, чьи пользователи могут создавать собственный контент (UGC — User-generated content), вынужден не только решать бизнес-задачи, но и наводить поря...
​This is not the official GPT2 implementation!

An implementation of training for GPT2 that supports both GPUs and TPUs. The dataset scripts are a bit hack-y and will probably need to be adapted to your needs.
https://github.com/ConnorJL/GPT2

🔗 ConnorJL/GPT2
An implementation of training for GPT2, supports TPUs - ConnorJL/GPT2
🎥 Privacy in Machine Learning by Jason Mancuso (5/22/2019)
👁 1 раз 4722 сек.
Jason Mancuso of Dropout Labs talks about the latest developments in machine learning privacy at the Cleveland R User Group. Topics include Differential Privacy, Encrypted Data, Federated Models, the tf-encrypted library, and more.
Продвинутый поток 2018

Наш телеграм канал - tglink.me/ai_machinelearning_big_data
Продвинутый поток: NLP. Introduction and Word Embeddings
Продвинутый поток: Adversarial attacks. Introduction and ConvNets
Продвинутый поток: NLP. RNN, GRU, LSTM. Фреймворк Visdom
Продвинутый поток: Adversarial attacks. CNN architectures
Продвинутый поток: NLP & Visualization. Заключительное занятие
Продвинутый поток: Adversarial attacks. Black-box атаки
Продвинутый поток: Adversarial Attacks. White-box атаки
Продвинутый поток: NLP. Классификация текстов с помощью CNN

🎥 Продвинутый поток: NLP. Introduction and Word Embeddings
👁 154 раз 3140 сек.
Первое занятие проекта "NLP: Understanding and Visualization" в продвинутом потоке.

Занятие ведёт Иван Провилков (ФИВТ МФТИ).

Материалы семинара:...


🎥 Продвинутый поток: Adversarial attacks. Introduction and ConvNets
👁 112 раз 6446 сек.
Первое занятие курса, посвящённого adversarial attacks -- поиску уязвимостей в работе нейросетей и борьбы с ними.

Рассказывается об актуальности э...


🎥 Продвинутый поток: NLP. RNN, GRU, LSTM. Фреймворк Visdom
👁 70 раз 4448 сек.
Второе занятие проекта "NLP: Understanding and Visualization" в продвинутом потоке.

Рассказывается про Recurrent Neural Networks, Gated Recurrent...


🎥 Продвинутый поток: Adversarial attacks. CNN architectures
👁 66 раз 6539 сек.
Второе занятие курса, посвящённого adversarial attacks -- поиску уязвимостей в работе нейросетей и борьбы с ними.

Подробно рассматриваются наиболе...


🎥 Продвинутый поток: NLP & Visualization. Заключительное занятие
👁 10 раз 3219 сек.
Последнее занятие мини-курса по NLP и его визуализации.

В начале занятия Иван Провилков (ФИВТ МФТИ) разбирает презентации участников проекта.

Да...


🎥 Продвинутый поток: Adversarial attacks. Black-box атаки
👁 10 раз 5073 сек.
На этом занятии Сергей Червонцев (ФИВТ МФТИ) расскажет о том, как сломать нейросеть, если её архитектура неизвестна -- так называемая black-box ата...

🎥 Продвинутый поток: Adversarial Attacks. White-box атаки
👁 31 раз 6483 сек.
Третье занятие курса, посвящённого adversarial attacks -- поиску уязвимостей в работе нейросетей и борьбы с ними.

Подробно рассматриваются white-b...


🎥 Продвинутый поток: NLP. Классификация текстов с помощью CNN
👁 30 раз 3264 сек.
Третье занятие проекта "NLP: Understanding and Visualization" в продвинутом потоке.

Рассказывается о том, как решается задача классификации текст...
​Unsupervised Co-Learning on G-Manifolds Across Irreducible Representations

Authors: Yifeng Fan, Tingran Gao, Zhizhen Zhao

Abstract: We introduce a novel co-learning paradigm for manifolds naturally equipped with a group action

🔗 Unsupervised Co-Learning on $\mathcal{G}$-Manifolds Across Irreducible Representations
We introduce a novel co-learning paradigm for manifolds naturally equipped with a group action, motivated by recent developments on learning a manifold from attached fibre bundle structures. We utilize a representation theoretic mechanism that canonically associates multiple independent vector bundles over a common base manifold, which provides multiple views for the geometry of the underlying manifold. The consistency across these fibre bundles provide a common base for performing unsupervised manifold co-learning through the redundancy created artificially across irreducible representations of the transformation group. We demonstrate the efficacy of the proposed algorithmic paradigm through drastically improved robust nearest neighbor search and community detection on rotation-invariant cryo-electron microscopy image analysis.