А это та самая статья о том, как читать статьи.
https://www.albany.edu/spatial/WebsiteFiles/ResearchAdvices/how-to-read-a-paper.pdf
https://www.albany.edu/spatial/WebsiteFiles/ResearchAdvices/how-to-read-a-paper.pdf
Ещё один сборник всего на свете, связанного с deep learning-ом.
В основном предобученные модели для разных фреймворков с поиском, но есть и библиотеки.
https://modelzoo.co/
В основном предобученные модели для разных фреймворков с поиском, но есть и библиотеки.
https://modelzoo.co/
Ооочень подробная статья о том, как работают однопроходные (single-shot) детекторы на примере Yolo и SSD:
http://machinethink.net/blog/object-detection/
http://machinethink.net/blog/object-detection/
machinethink.net
One-stage object detection
An in-depth look at how fast object detection models are trained
https://github.com/Microsoft/VoTT
Microsoft открыли инструмент для разметки объектов на видео и картинках на electron-е с поддержкой трекинга. Vatic больше не нужон.
Microsoft открыли инструмент для разметки объектов на видео и картинках на electron-е с поддержкой трекинга. Vatic больше не нужон.
GitHub
GitHub - microsoft/VoTT: Visual Object Tagging Tool: An electron app for building end to end Object Detection Models from Images…
Visual Object Tagging Tool: An electron app for building end to end Object Detection Models from Images and Videos. - GitHub - microsoft/VoTT: Visual Object Tagging Tool: An electron app for build...
Фейсбук выложил DensePose на гитхаб.
Там и модели, и код, и примеры, и данные - всё на свете.
https://research.fb.com/facebook-open-sources-densepose/
Там и модели, и код, и примеры, и данные - всё на свете.
https://research.fb.com/facebook-open-sources-densepose/
Facebook Research
Facebook open sources DensePose
Today, Facebook AI Research (FAIR) open sourced DensePose, our real-time approach for mapping all human pixels of 2D RGB images…
https://youtu.be/MjViy6kyiqs
Nvidia Research показали демку super-slowmotion алгоритма, который из обычных видео синтезирует 240 fps. Результаты выглядят нечеловечески красиво.
Кода или демки, к сожалению, нет, зато есть статья:
https://arxiv.org/pdf/1712.00080.pdf
Nvidia Research показали демку super-slowmotion алгоритма, который из обычных видео синтезирует 240 fps. Результаты выглядят нечеловечески красиво.
Кода или демки, к сожалению, нет, зато есть статья:
https://arxiv.org/pdf/1712.00080.pdf
YouTube
Research at NVIDIA: Transforming Standard Video Into Slow Motion with AI
Researchers from NVIDIA developed a deep learning-based system that can produce high-quality slow-motion videos from a 30-frame-per-second video, outperforming various state-of-the-art methods that aim to do the same.
Learn more: https://nvda.ws/2Mr2ZPt…
Learn more: https://nvda.ws/2Mr2ZPt…
Астрологи объявили неделю NVidia:
Они выпустили 2 библиотеки:
DALI для аугментации картинок на гпу
и её компонент - nvJPEG для декодинга
https://github.com/NVIDIA/dali
Для DALI есть обвязка для MXNet, TensorFlow и PyTorch
Они выпустили 2 библиотеки:
DALI для аугментации картинок на гпу
и её компонент - nvJPEG для декодинга
https://github.com/NVIDIA/dali
Для DALI есть обвязка для MXNet, TensorFlow и PyTorch
GitHub
GitHub - NVIDIA/DALI: A GPU-accelerated library containing highly optimized building blocks and an execution engine for data processing…
A GPU-accelerated library containing highly optimized building blocks and an execution engine for data processing to accelerate deep learning training and inference applications. - GitHub - NVIDIA/...
https://paperswithcode.com/ Здесь даются одновременно ссылки на статьи и на код к ним. Видно сразу какой используется фреймворк и сколько «звёзд» поставили пользователи.
huggingface.co
Trending Papers - Hugging Face
Your daily dose of AI research from AK
Вы, конечно же, помните бота от OpenAI, который крушил профессионалов 1х1 на прошлом The International (это главный турнир по Dota 2 с призовым фондом $24.7M). Тогда они не открыли того, как работает их бот, но обещали, что будут работать над алгоритмом, который играет за всю команду.
И вот, в преддверии нового TI, OpenAI доставляет: https://blog.openai.com/openai-five/. По ссылке статья с объяснением алгоритма с очень красивыми визуализациями.
Новый бот уже способен победить команду средних игроков!
Как же они душат: https://youtu.be/UZHTNBMAfAA
Очень жду, когда покажут бота, который играет в Starcraft 2 (его тоже уже делают).
И вот, в преддверии нового TI, OpenAI доставляет: https://blog.openai.com/openai-five/. По ссылке статья с объяснением алгоритма с очень красивыми визуализациями.
Новый бот уже способен победить команду средних игроков!
Как же они душат: https://youtu.be/UZHTNBMAfAA
Очень жду, когда покажут бота, который играет в Starcraft 2 (его тоже уже делают).
image_2018-06-26_10-26-47.png
429.7 KB
hardmaru выложил картинку с архитектурой модели
В статье, оказывается, очень много ссылок:
1) Архитектура: https://d4mucfpksywv.cloudfront.net/research-covers/openai-five/network-architecture.pdf
2) Документация награды: https://gist.github.com/dfarhi/66ec9d760ae0c49a5c492c9fae93984a
У агентов нет прямой связи друг с другом, она осуществляется через Team Spirit - коэффициент при средней награде всей команды, который в процессе обучения меняется от 0 до 1
1) Архитектура: https://d4mucfpksywv.cloudfront.net/research-covers/openai-five/network-architecture.pdf
2) Документация награды: https://gist.github.com/dfarhi/66ec9d760ae0c49a5c492c9fae93984a
У агентов нет прямой связи друг с другом, она осуществляется через Team Spirit - коэффициент при средней награде всей команды, который в процессе обучения меняется от 0 до 1
Если вам приходится использовать Tensorflow, то вот отличная статья из самых недр Гугл Брейна о том, как понять неочевидные (все) части Tensorflow:
https://jacobbuckman.com/post/tensorflow-the-confusing-parts-1/
https://jacobbuckman.com/post/tensorflow-the-confusing-parts-1/
анимированная схема о том, как работает обратное распространение ошибки https://google-developers.appspot.com/machine-learning/crash-course/backprop-scroll/
https://thomas-tanay.github.io/post--L2-regularization/
Статья с очень красивой визуализацией того, что такое adversarial examples и как они живут с L2-регуляризацией на примере линейного классификатора.
Обсуждение на реддите:
https://www.reddit.com/r/MachineLearning/comments/8vhyak/r_a_new_angle_on_l2_regularization/
Статья с очень красивой визуализацией того, что такое adversarial examples и как они живут с L2-регуляризацией на примере линейного классификатора.
Обсуждение на реддите:
https://www.reddit.com/r/MachineLearning/comments/8vhyak/r_a_new_angle_on_l2_regularization/
reddit
r/MachineLearning - [R] A New Angle on L2 Regularization
59 votes and 8 so far on reddit
Прекрасный конспект докладов с CVPR2018
https://olgalitech.wordpress.com/2018/06/30/cvpr-2018-recap-notes-and-trends/
https://olgalitech.wordpress.com/2018/06/30/cvpr-2018-recap-notes-and-trends/
Random ML&Datascience musing
CVPR 2018 — recap, notes and trends
This year CVPR (Computer Vision and Pattern Recognition) conference has accepted 900+ papers. This blog post has overview of some of them. Here you can find notes that we captured together with my …
Facebook AI Research разработали генеративно-состязательную нейросеть (GAN) для восстановления закрытых глаз на фотографии. Обычно GAN генерируют изображения, основываясь только на данных из обучающего набора, а в ExGAN разработчики добавили второй источник информации — ещё одно фото того же человека, полученное в другое время или в другой позе. Однако, вместо того, чтобы просто скопировать пиксели со второй фотографии, сеть учится использовать эту информацию в качестве семантического руководства для создания правдоподобных результатов. Подробнее о том, как сеть научилась открывать ваши глаза, читайте по ссылке:
https://medium.com/@neurohive/facebook-ai-research-presents-eye-in-painting-with-exemplar-gan-32cec575ba65
https://medium.com/@neurohive/facebook-ai-research-presents-eye-in-painting-with-exemplar-gan-32cec575ba65
Medium
Eye In-Painting with Exemplar Generative Adversarial Networks
Nowadays, it is pretty common for people to share their pictures of social media. a large percentage of them featuring people-centric…
На прошлой неделе вышла новая статья про ГАНы, которую одобрил Гудфеллоу: The relativistic discriminator: a key element missing from standard GAN.
В ней авторка предлагает переформулировать задачу дискриминатора: вместо того, чтобы просто различать real и fake данные, пусть он оценивает вероятность того, что real пример выглядит более настоящим, чем fake. (или то же самое, но в среднем)
Выглядят дискриминаторы примерно так:
обычный:
В результате ГАНы получаются гораздо более стабильными и даже обычный ГАН начинает генерировать картинки 256х256.
А ещё в статье можно посмотреть на корги:
Статья
Обсуждение на реддите
Код
В ней авторка предлагает переформулировать задачу дискриминатора: вместо того, чтобы просто различать real и fake данные, пусть он оценивает вероятность того, что real пример выглядит более настоящим, чем fake. (или то же самое, но в среднем)
Выглядят дискриминаторы примерно так:
обычный:
D(x) = sigmoid(C(x))
относительный:D(x_r, x_f) = sigmoid(C(x_r) - C(x_f))
Предлагается 3 объяснения, зачем всё это нужно, из которых я понял только то, что с картинкой. Это изменение дискриминатора позволяет сделать так, чтобы он действительно минимизировал Jensen–Shannon divergence, которую мы и хотели бы минимизировать на самом деле.В результате ГАНы получаются гораздо более стабильными и даже обычный ГАН начинает генерировать картинки 256х256.
А ещё в статье можно посмотреть на корги:
Статья
Обсуждение на реддите
Код
Twitter
Ian Goodfellow
This new family of GAN loss functions looks promising! I'm especially excited about Fig 4-6, where we see that the new loss results in much faster learning during the first several iterations of training. I implemented the RSGAN loss on a toy problem and…
Статья от Убера о простом трюке, который позволяет сверточной сети с точностью до пикселя предсказывать положения объектов на картинке: надо всего лишь добавить на вход слоя 2 дополнительных канала: с x и y координатами.
Эта штука должна быть полезна в задачах, где определение точного положения объекта важно: в object detection, генеративных моделях и RL.
Посмотрите прекрасное видео:
https://youtu.be/8yFQc6elePA
Эта штука должна быть полезна в задачах, где определение точного положения объекта важно: в object detection, генеративных моделях и RL.
Посмотрите прекрасное видео:
https://youtu.be/8yFQc6elePA
Uber Blog
An Intriguing Failing of Convolutional Neural Networks and the CoordConv Solution | Uber Blog
As powerful and widespread as convolutional neural networks are in deep learning, AI Labs’ latest research reveals both an underappreciated failing and a simple fix.
Очередная работа от OpenAI, в которой исследователи создали систему Dactyl для управления роборукой, у которой 24 степеней свободы. В качестве входа используются изображения с 3х RGB камер. При обучении использовалась тот же фреймворк Rapid, что и для обучения OpenAI Five для игры в Доту 2. Dactyl состоит из 2 основных частей, первая, сверточная, предсказывает положение объекта, вторая, рекуррентная, предсказывает какое действие нужно совершить манипулятору. Для обучения использовалось 3D симуляция роборуки с помощью Unity. Интересный факт, который отмечают исследователи, что добавление несимулированных данных из реального мира никак не влияет на производительность системы.
Посмотрите видео в статье и порадуйтесь очередному шагу в робототехнике, который приближает нас к победе машин.
Посмотрите видео в статье и порадуйтесь очередному шагу в робототехнике, который приближает нас к победе машин.
https://aicups.ru/ - соревнования по искусственному интелеекту от Mail.Ru. Недавно стартовал Mini AI Cup #3, по мотивам игры Drive Ahead. Продлится до 22го сентября, так что время еще есть. Подробное описание соревнования - https://habr.com/company/mailru/blog/421397/.
Хабр
Запускаем Mini AI Cup #3. Битва машин в тесных закрытых пространствах
С 2012 года проводим ежегодное соревнование по программированию искусственного интеллекта Russian AI Cup. В этом году оно начнётся немного позже — не в ноябре,...