OpenAI сделали бота для доты 1х1 https://blog.openai.com/dota-2/
OpenAI
Dota 2
We've created a bot which beats the world's top professionals at 1v1 matches of Dota 2 under standard tournament rules. The bot learned the game from scratch by self-play, and does not use imitation learning or tree search. This is a step towards building…
Sony подвезла новый дл фреймворк с динамическими графами и гуем под винду https://github.com/sony/nnabla
GitHub
GitHub - sony/nnabla: Neural Network Libraries
Neural Network Libraries. Contribute to sony/nnabla development by creating an account on GitHub.
https://research.googleblog.com/2017/08/making-visible-watermarks-more-effective.html?m=1
На прошлой неделе Гугл опубликовал статью про алгоритм, позволяющий убирать ватермарки с изображений с фотохостингов.
Конечно же, ГАНами, подумал я. Но нет, никакого диплернинга, только оптимизация.
Для того, чтобы победить большинство полупрозрачных водяных знаков достаточно решить задачу разложения этого знака на "изображение" и "прозрачность". Оказывается, это легко делается для коллекции изображений, защищенных одинаковыми знаками.
Примеры тут: https://watermark-cvpr17.github.io/
Гугл также предлагает водяные знаки, устойчивые к этому алгоритму. Случайные смещения и изменения прозрачности от картинки к картинке не помогают, а вот с небольшими пространственными изменениями алгоритм уже не справляется.
На прошлой неделе Гугл опубликовал статью про алгоритм, позволяющий убирать ватермарки с изображений с фотохостингов.
Конечно же, ГАНами, подумал я. Но нет, никакого диплернинга, только оптимизация.
Для того, чтобы победить большинство полупрозрачных водяных знаков достаточно решить задачу разложения этого знака на "изображение" и "прозрачность". Оказывается, это легко делается для коллекции изображений, защищенных одинаковыми знаками.
Примеры тут: https://watermark-cvpr17.github.io/
Гугл также предлагает водяные знаки, устойчивые к этому алгоритму. Случайные смещения и изменения прозрачности от картинки к картинке не помогают, а вот с небольшими пространственными изменениями алгоритм уже не справляется.
Research Blog
Making Visible Watermarks More Effective
Posted by Tali Dekel and Michael Rubinstein, Research Scientists Whether you are a photographer, a marketing manager, or a regular Interne...
Simon Kozlov (sim0nsays), активный член сообщества OpenDataScience, записал разбор интересных статей с CVPR2017
https://www.youtube.com/watch?v=PV73qhNQnA0
https://www.youtube.com/watch?v=Mljfam5zNJo
https://www.youtube.com/watch?v=PV73qhNQnA0
https://www.youtube.com/watch?v=Mljfam5zNJo
YouTube
Отчет о CVPR 2017 Part 1
Слайды: https://paper.dropbox.com/doc/CVPR-2017-SJhd7kmnRKLfrk0JyrQwr Таймкод ниже в описании. Чатики для обсуждений: #data на http://closedcircles.com OpenD...
И еще из рубрики #спасибоОДС
Серёга из Ангарска (cepera_ang) очень сильно посоветовал посмотреть обзор современного состояния Object Detection https://www.youtube.com/watch?v=jHv37mKAhV4
Далее цитата https://opendatascience.slack.com/archives/C047H3N8L/p1503152010000003:
Шикарное видео, 90% того, что необходимо знать про object detection на текущий момент.
Сначала легенда мирового диплёнинга Kaiming He рассказывает в общем о сетях, традиционные архитектуры, про инициализацию на 15 мин., про резнет на 25, о разных применениях резнетов к распознаванию речи, текстам и т.д., на 30 минуте про resnext, который следующий шаг (основная мысль: как хитро посчитать несколько путей как в inception и в разы больше, но одной свёрткой), один слайдом другие архитектуры о которых стоит знать.
С 40-ой минуты рассказывает его коллега, легенда Ross Girshick, сначала о том какой фигней занимались всего 10 лет назад и какого прогресса достигли сейчас. Затем 25 минут рассказа об анатомии современных детекторных сетей:
1) про базу для извлечения фичей (и как в них шёл прогресс),
2) про инвариантность к масштабу (все пришли к одному практически — пирамиды фичей, тонкости как добиться пользы от них),
3) Region Proposal'ы
4) 58:40 Главная фишка Mask R-CNN ROIalign (наконец-то человеческими словами что это и почему важно!)
5) Специфические головы под задачу: детекция, классификация, сегментация, и неожиданно, предсказание позы людей (human keypoint prediction) просто для проверки того, что можно что угодно пихать, как я понял.
На этом про Маск RCNN заканчивается и начинается очень интересная обзорная часть, ландшафт с высоты птичьего полёта (1:12)
1) Что общего у методов, что отличается
2) One shot vs Multi-stage
3) Trade off между тяжестью базового фиче экстрактора и головой, которая делает классификацию (от R-CNN через Fast/Faster R-CNN к R-FCN)
4) Speed/Accuracy tradeoff. Ссылка на очень интересную статью от гугла, где они 150 сетей сравнивали по скорости/качеству
5) Куда дальше шагаем
https://www.youtube.com/watch?v=jHv37mKAhV4
Серёга из Ангарска (cepera_ang) очень сильно посоветовал посмотреть обзор современного состояния Object Detection https://www.youtube.com/watch?v=jHv37mKAhV4
Далее цитата https://opendatascience.slack.com/archives/C047H3N8L/p1503152010000003:
Шикарное видео, 90% того, что необходимо знать про object detection на текущий момент.
Сначала легенда мирового диплёнинга Kaiming He рассказывает в общем о сетях, традиционные архитектуры, про инициализацию на 15 мин., про резнет на 25, о разных применениях резнетов к распознаванию речи, текстам и т.д., на 30 минуте про resnext, который следующий шаг (основная мысль: как хитро посчитать несколько путей как в inception и в разы больше, но одной свёрткой), один слайдом другие архитектуры о которых стоит знать.
С 40-ой минуты рассказывает его коллега, легенда Ross Girshick, сначала о том какой фигней занимались всего 10 лет назад и какого прогресса достигли сейчас. Затем 25 минут рассказа об анатомии современных детекторных сетей:
1) про базу для извлечения фичей (и как в них шёл прогресс),
2) про инвариантность к масштабу (все пришли к одному практически — пирамиды фичей, тонкости как добиться пользы от них),
3) Region Proposal'ы
4) 58:40 Главная фишка Mask R-CNN ROIalign (наконец-то человеческими словами что это и почему важно!)
5) Специфические головы под задачу: детекция, классификация, сегментация, и неожиданно, предсказание позы людей (human keypoint prediction) просто для проверки того, что можно что угодно пихать, как я понял.
На этом про Маск RCNN заканчивается и начинается очень интересная обзорная часть, ландшафт с высоты птичьего полёта (1:12)
1) Что общего у методов, что отличается
2) One shot vs Multi-stage
3) Trade off между тяжестью базового фиче экстрактора и головой, которая делает классификацию (от R-CNN через Fast/Faster R-CNN к R-FCN)
4) Speed/Accuracy tradeoff. Ссылка на очень интересную статью от гугла, где они 150 сетей сравнивали по скорости/качеству
5) Куда дальше шагаем
https://www.youtube.com/watch?v=jHv37mKAhV4
YouTube
Tutorial: Deep Learning for Objects and Scenes - Part 1
Learning Deep Representations for Visual
Recognition, Kaiming He (Facebook AI Research)
Deep Learning for Object Detection, Ross Girshick
(Facebook AI Research)
Description: Deep learning is becoming the driving force
for the visual recognition models in…
Recognition, Kaiming He (Facebook AI Research)
Deep Learning for Object Detection, Ross Girshick
(Facebook AI Research)
Description: Deep learning is becoming the driving force
for the visual recognition models in…
Устали от обычной сходимости? Нейронные сети обучаются слишком медленно?
Вам поможет
С В Е Р Х С Х О Д И М О С Т Ь
Авторы показали, что на определенных датасетах с правильно подобранными гиперпараметрами резнетоподобные сети с помощью циклического изменения очень большого (до 3) learning rate обучаются в десятки раз быстрее, да еще и с более высокой точностью.
Вам поможет
С В Е Р Х С Х О Д И М О С Т Ь
Авторы показали, что на определенных датасетах с правильно подобранными гиперпараметрами резнетоподобные сети с помощью циклического изменения очень большого (до 3) learning rate обучаются в десятки раз быстрее, да еще и с более высокой точностью.
https://arxiv.org/pdf/1708.07120.pdf
Super-Convergence: Very Fast Training of Residual Networks Using Large Learning Rates
In this paper, we show a phenomenon where residual networks can be trained using an order of magnitude fewer iterations than is used with standard training methods, which we named "super-convergence". One of the key elements of super-convergence is training with cyclical learning rates and a large maximum learning rate. Furthermore, we present evidence that training with large learning rates improves performance by regularizing the network. In addition, we show that super-convergence provides a greater boost in performance relative to standard training when the amount of labeled training data is limited. We also provide an explanation for the benefits of a large learning rate using a simplification of the Hessian Free optimization method to compute an estimate of the optimal learning rate. The architectures and code to replicate the figures in this paper are available at github.com/lnsmith54/super-convergence.
Super-Convergence: Very Fast Training of Residual Networks Using Large Learning Rates
In this paper, we show a phenomenon where residual networks can be trained using an order of magnitude fewer iterations than is used with standard training methods, which we named "super-convergence". One of the key elements of super-convergence is training with cyclical learning rates and a large maximum learning rate. Furthermore, we present evidence that training with large learning rates improves performance by regularizing the network. In addition, we show that super-convergence provides a greater boost in performance relative to standard training when the amount of labeled training data is limited. We also provide an explanation for the benefits of a large learning rate using a simplification of the Hessian Free optimization method to compute an estimate of the optimal learning rate. The architectures and code to replicate the figures in this paper are available at github.com/lnsmith54/super-convergence.
GitHub
GitHub - lnsmith54/super-convergence: Files to create the figures in the paper "Super-Convergence: Very Fast Training of Residual…
Files to create the figures in the paper "Super-Convergence: Very Fast Training of Residual Networks Using Large Learning Rates" - GitHub - lnsmith54/super-convergence: Files to c...
Хватит это терпеть и ждать или как поклонник «Игры престолов» устал ждать, когда Джордж Мартин уже допишет свою сагу, и создал нейросеть, которая сделала это за него. Пока что можно прочитать только пять глав нового романа. Волнует вопрос: убъет ли нейросеть самого Мартина в его же лучших традициях?
https://nplus1.ru/news/2017/08/29/neural-game-of-thrones
https://nplus1.ru/news/2017/08/29/neural-game-of-thrones
N + 1 — главное издание о науке, технике и технологиях
Нейросеть дописала «Песнь Льда и Пламени» за Джорджа Мартина
Видео с летней школы в Монреале (все звёзды) http://videolectures.net/deeplearning2017_montreal/
videolectures.net
Deep Learning (DLSS) and Reinforcement Learning (RLSS) Summer School, Montreal 2017
Deep neural networks that learn to represent data in multiple layers of increasing abstraction have dramatically improved the state-of-the-art for speech recognition, object recognition, object detection, predicting the activity of drug molecules, and many…
саммари из лагерей беркли по изучению обучения с подкреплением http://planspace.org/20170830-berkeley_deep_rl_bootcamp/
Конечно, каждый из нас задумывался о том, что же делать с супермощным ИИ, который без сомнений будет изобретён в скором будущем. Тут можно почитать что думают люди https://ai-ethics.com/
AI Ethics
Law, AI, Policy and Social Values
На реддите обсуждают слайды Andrej Karpathy на тему AGI https://www.reddit.com/r/MachineLearning/comments/6xz43l/r_where_will_agi_come_from_andrej_karpathys_yconf/
reddit
[R] Where will AGI come from? <-- Andrej... • r/MachineLearning
4 points and 1 comments so far on reddit
Microsoft и Facebook анонсировали формат моделей Open Neural Network Exchange (ONNX). Хорошая новость в том, что теперь можно конвертировать модели между CNTK, PyTorch и Caffe2 https://research.fb.com/facebook-and-microsoft-introduce-new-open-ecosystem-for-interchangeable-ai-frameworks/
Facebook Research
Facebook and Microsoft introduce new open ecosystem for interchangeable AI frameworks
Facebook and Microsoft are today introducing Open Neural Network Exchange (ONNX) format, a standard for representing deep learning models that…
Продолжается расследование разницы производительности PyTorch vs DyNet https://github.com/pytorch/pytorch/issues/2518#issuecomment-327835296
Интересно почитать, как глубоко копают авторы фреймворков (спойлер: даже про режимы энергосбережения процессора подумали)
Интересно почитать, как глубоко копают авторы фреймворков (спойлер: даже про режимы энергосбережения процессора подумали)
GitHub
investigate performance regressions in v0.2.0 + DyNet benchmarks · Issue #2518 · pytorch/pytorch
According to the scripts given in https://twitter.com/kchonyc/status/899832376955744257 there are two issues:
0.2.0 has a 2x perf regression over 0.1.2 on small workloads
pytorch is ~10x slower th...
0.2.0 has a 2x perf regression over 0.1.2 on small workloads
pytorch is ~10x slower th...
Началась новая итерация открытого курса по машинному обучению от OpenDataScience. Первая лекция о Pandas https://www.youtube.com/watch?v=dEFxoyJhm3Y
YouTube
Лекция 1. Pandas. Открытый курс OpenDataScience по машинному обучению mlcourse.ai
For lectures in English, check out this playlist https://bit.ly/2zY6Xe2
То же видео, но с улучшенным звуком https://youtu.be/OAy96yiWohk (Denis Cera, Oleg Butko)
В 1 лекции мы обсудим курс и попрактикуемся в первичном анализе данных с помощью библиотеки…
То же видео, но с улучшенным звуком https://youtu.be/OAy96yiWohk (Denis Cera, Oleg Butko)
В 1 лекции мы обсудим курс и попрактикуемся в первичном анализе данных с помощью библиотеки…