https://github.com/Microsoft/VoTT
Microsoft открыли инструмент для разметки объектов на видео и картинках на electron-е с поддержкой трекинга. Vatic больше не нужон.
Microsoft открыли инструмент для разметки объектов на видео и картинках на electron-е с поддержкой трекинга. Vatic больше не нужон.
GitHub
GitHub - microsoft/VoTT: Visual Object Tagging Tool: An electron app for building end to end Object Detection Models from Images…
Visual Object Tagging Tool: An electron app for building end to end Object Detection Models from Images and Videos. - GitHub - microsoft/VoTT: Visual Object Tagging Tool: An electron app for build...
Фейсбук выложил DensePose на гитхаб.
Там и модели, и код, и примеры, и данные - всё на свете.
https://research.fb.com/facebook-open-sources-densepose/
Там и модели, и код, и примеры, и данные - всё на свете.
https://research.fb.com/facebook-open-sources-densepose/
Facebook Research
Facebook open sources DensePose
Today, Facebook AI Research (FAIR) open sourced DensePose, our real-time approach for mapping all human pixels of 2D RGB images…
https://youtu.be/MjViy6kyiqs
Nvidia Research показали демку super-slowmotion алгоритма, который из обычных видео синтезирует 240 fps. Результаты выглядят нечеловечески красиво.
Кода или демки, к сожалению, нет, зато есть статья:
https://arxiv.org/pdf/1712.00080.pdf
Nvidia Research показали демку super-slowmotion алгоритма, который из обычных видео синтезирует 240 fps. Результаты выглядят нечеловечески красиво.
Кода или демки, к сожалению, нет, зато есть статья:
https://arxiv.org/pdf/1712.00080.pdf
YouTube
Research at NVIDIA: Transforming Standard Video Into Slow Motion with AI
Researchers from NVIDIA developed a deep learning-based system that can produce high-quality slow-motion videos from a 30-frame-per-second video, outperforming various state-of-the-art methods that aim to do the same.
Learn more: https://nvda.ws/2Mr2ZPt…
Learn more: https://nvda.ws/2Mr2ZPt…
Астрологи объявили неделю NVidia:
Они выпустили 2 библиотеки:
DALI для аугментации картинок на гпу
и её компонент - nvJPEG для декодинга
https://github.com/NVIDIA/dali
Для DALI есть обвязка для MXNet, TensorFlow и PyTorch
Они выпустили 2 библиотеки:
DALI для аугментации картинок на гпу
и её компонент - nvJPEG для декодинга
https://github.com/NVIDIA/dali
Для DALI есть обвязка для MXNet, TensorFlow и PyTorch
GitHub
GitHub - NVIDIA/DALI: A GPU-accelerated library containing highly optimized building blocks and an execution engine for data processing…
A GPU-accelerated library containing highly optimized building blocks and an execution engine for data processing to accelerate deep learning training and inference applications. - GitHub - NVIDIA/...
https://paperswithcode.com/ Здесь даются одновременно ссылки на статьи и на код к ним. Видно сразу какой используется фреймворк и сколько «звёзд» поставили пользователи.
Paperswithcode
Papers with Code - The latest in Machine Learning
Papers With Code highlights trending Machine Learning research and the code to implement it.
Вы, конечно же, помните бота от OpenAI, который крушил профессионалов 1х1 на прошлом The International (это главный турнир по Dota 2 с призовым фондом $24.7M). Тогда они не открыли того, как работает их бот, но обещали, что будут работать над алгоритмом, который играет за всю команду.
И вот, в преддверии нового TI, OpenAI доставляет: https://blog.openai.com/openai-five/. По ссылке статья с объяснением алгоритма с очень красивыми визуализациями.
Новый бот уже способен победить команду средних игроков!
Как же они душат: https://youtu.be/UZHTNBMAfAA
Очень жду, когда покажут бота, который играет в Starcraft 2 (его тоже уже делают).
И вот, в преддверии нового TI, OpenAI доставляет: https://blog.openai.com/openai-five/. По ссылке статья с объяснением алгоритма с очень красивыми визуализациями.
Новый бот уже способен победить команду средних игроков!
Как же они душат: https://youtu.be/UZHTNBMAfAA
Очень жду, когда покажут бота, который играет в Starcraft 2 (его тоже уже делают).
image_2018-06-26_10-26-47.png
429.7 KB
hardmaru выложил картинку с архитектурой модели
В статье, оказывается, очень много ссылок:
1) Архитектура: https://d4mucfpksywv.cloudfront.net/research-covers/openai-five/network-architecture.pdf
2) Документация награды: https://gist.github.com/dfarhi/66ec9d760ae0c49a5c492c9fae93984a
У агентов нет прямой связи друг с другом, она осуществляется через Team Spirit - коэффициент при средней награде всей команды, который в процессе обучения меняется от 0 до 1
1) Архитектура: https://d4mucfpksywv.cloudfront.net/research-covers/openai-five/network-architecture.pdf
2) Документация награды: https://gist.github.com/dfarhi/66ec9d760ae0c49a5c492c9fae93984a
У агентов нет прямой связи друг с другом, она осуществляется через Team Spirit - коэффициент при средней награде всей команды, который в процессе обучения меняется от 0 до 1
Если вам приходится использовать Tensorflow, то вот отличная статья из самых недр Гугл Брейна о том, как понять неочевидные (все) части Tensorflow:
https://jacobbuckman.com/post/tensorflow-the-confusing-parts-1/
https://jacobbuckman.com/post/tensorflow-the-confusing-parts-1/
анимированная схема о том, как работает обратное распространение ошибки https://google-developers.appspot.com/machine-learning/crash-course/backprop-scroll/
https://thomas-tanay.github.io/post--L2-regularization/
Статья с очень красивой визуализацией того, что такое adversarial examples и как они живут с L2-регуляризацией на примере линейного классификатора.
Обсуждение на реддите:
https://www.reddit.com/r/MachineLearning/comments/8vhyak/r_a_new_angle_on_l2_regularization/
Статья с очень красивой визуализацией того, что такое adversarial examples и как они живут с L2-регуляризацией на примере линейного классификатора.
Обсуждение на реддите:
https://www.reddit.com/r/MachineLearning/comments/8vhyak/r_a_new_angle_on_l2_regularization/
reddit
r/MachineLearning - [R] A New Angle on L2 Regularization
59 votes and 8 so far on reddit
Прекрасный конспект докладов с CVPR2018
https://olgalitech.wordpress.com/2018/06/30/cvpr-2018-recap-notes-and-trends/
https://olgalitech.wordpress.com/2018/06/30/cvpr-2018-recap-notes-and-trends/
Random ML&Datascience musing
CVPR 2018 — recap, notes and trends
This year CVPR (Computer Vision and Pattern Recognition) conference has accepted 900+ papers. This blog post has overview of some of them. Here you can find notes that we captured together with my …
Facebook AI Research разработали генеративно-состязательную нейросеть (GAN) для восстановления закрытых глаз на фотографии. Обычно GAN генерируют изображения, основываясь только на данных из обучающего набора, а в ExGAN разработчики добавили второй источник информации — ещё одно фото того же человека, полученное в другое время или в другой позе. Однако, вместо того, чтобы просто скопировать пиксели со второй фотографии, сеть учится использовать эту информацию в качестве семантического руководства для создания правдоподобных результатов. Подробнее о том, как сеть научилась открывать ваши глаза, читайте по ссылке:
https://medium.com/@neurohive/facebook-ai-research-presents-eye-in-painting-with-exemplar-gan-32cec575ba65
https://medium.com/@neurohive/facebook-ai-research-presents-eye-in-painting-with-exemplar-gan-32cec575ba65
Medium
Eye In-Painting with Exemplar Generative Adversarial Networks
Nowadays, it is pretty common for people to share their pictures of social media. a large percentage of them featuring people-centric…
На прошлой неделе вышла новая статья про ГАНы, которую одобрил Гудфеллоу: The relativistic discriminator: a key element missing from standard GAN.
В ней авторка предлагает переформулировать задачу дискриминатора: вместо того, чтобы просто различать real и fake данные, пусть он оценивает вероятность того, что real пример выглядит более настоящим, чем fake. (или то же самое, но в среднем)
Выглядят дискриминаторы примерно так:
обычный:
В результате ГАНы получаются гораздо более стабильными и даже обычный ГАН начинает генерировать картинки 256х256.
А ещё в статье можно посмотреть на корги:
Статья
Обсуждение на реддите
Код
В ней авторка предлагает переформулировать задачу дискриминатора: вместо того, чтобы просто различать real и fake данные, пусть он оценивает вероятность того, что real пример выглядит более настоящим, чем fake. (или то же самое, но в среднем)
Выглядят дискриминаторы примерно так:
обычный:
D(x) = sigmoid(C(x))
относительный:D(x_r, x_f) = sigmoid(C(x_r) - C(x_f))
Предлагается 3 объяснения, зачем всё это нужно, из которых я понял только то, что с картинкой. Это изменение дискриминатора позволяет сделать так, чтобы он действительно минимизировал Jensen–Shannon divergence, которую мы и хотели бы минимизировать на самом деле.В результате ГАНы получаются гораздо более стабильными и даже обычный ГАН начинает генерировать картинки 256х256.
А ещё в статье можно посмотреть на корги:
Статья
Обсуждение на реддите
Код
Twitter
Ian Goodfellow
This new family of GAN loss functions looks promising! I'm especially excited about Fig 4-6, where we see that the new loss results in much faster learning during the first several iterations of training. I implemented the RSGAN loss on a toy problem and…
Статья от Убера о простом трюке, который позволяет сверточной сети с точностью до пикселя предсказывать положения объектов на картинке: надо всего лишь добавить на вход слоя 2 дополнительных канала: с x и y координатами.
Эта штука должна быть полезна в задачах, где определение точного положения объекта важно: в object detection, генеративных моделях и RL.
Посмотрите прекрасное видео:
https://youtu.be/8yFQc6elePA
Эта штука должна быть полезна в задачах, где определение точного положения объекта важно: в object detection, генеративных моделях и RL.
Посмотрите прекрасное видео:
https://youtu.be/8yFQc6elePA
Uber Blog
An Intriguing Failing of Convolutional Neural Networks and the CoordConv Solution | Uber Blog
As powerful and widespread as convolutional neural networks are in deep learning, AI Labs’ latest research reveals both an underappreciated failing and a simple fix.
Очередная работа от OpenAI, в которой исследователи создали систему Dactyl для управления роборукой, у которой 24 степеней свободы. В качестве входа используются изображения с 3х RGB камер. При обучении использовалась тот же фреймворк Rapid, что и для обучения OpenAI Five для игры в Доту 2. Dactyl состоит из 2 основных частей, первая, сверточная, предсказывает положение объекта, вторая, рекуррентная, предсказывает какое действие нужно совершить манипулятору. Для обучения использовалось 3D симуляция роборуки с помощью Unity. Интересный факт, который отмечают исследователи, что добавление несимулированных данных из реального мира никак не влияет на производительность системы.
Посмотрите видео в статье и порадуйтесь очередному шагу в робототехнике, который приближает нас к победе машин.
Посмотрите видео в статье и порадуйтесь очередному шагу в робототехнике, который приближает нас к победе машин.
https://aicups.ru/ - соревнования по искусственному интелеекту от Mail.Ru. Недавно стартовал Mini AI Cup #3, по мотивам игры Drive Ahead. Продлится до 22го сентября, так что время еще есть. Подробное описание соревнования - https://habr.com/company/mailru/blog/421397/.
Хабр
Запускаем Mini AI Cup #3. Битва машин в тесных закрытых пространствах
С 2012 года проводим ежегодное соревнование по программированию искусственного интеллекта Russian AI Cup. В этом году оно начнётся немного позже — не в ноябре,...
https://lockheedmartin.com/en-us/news/events/ai-innovation-challenge.html
Lockheed Martin запускает соревнование с призовым фондом $2,000,000, в котором нужно разработать систему управления гоночным дроном.
Участникам предоставят дронов, симулятор и данные. Должно быть интересно, потому что LM делает это совместно с DRL - профессиональной лигой по дрон-рейсингу и алгоритмы будут соревноваться с лучшими людьми.
Первая команда, которой удастся обогнать человека, получит $250,000
https://lockheedmartin.com/content/dam/lockheed-martin/eo/documents/18-17077_AlphaPilot_One_Pager.pdf
https://youtu.be/2k0VF2a2ftc
Lockheed Martin запускает соревнование с призовым фондом $2,000,000, в котором нужно разработать систему управления гоночным дроном.
Участникам предоставят дронов, симулятор и данные. Должно быть интересно, потому что LM делает это совместно с DRL - профессиональной лигой по дрон-рейсингу и алгоритмы будут соревноваться с лучшими людьми.
Первая команда, которой удастся обогнать человека, получит $250,000
https://lockheedmartin.com/content/dam/lockheed-martin/eo/documents/18-17077_AlphaPilot_One_Pager.pdf
https://youtu.be/2k0VF2a2ftc
Lockheed Martin
AlphaPilot AI Drone Innovation Challenge
Lockheed Martin & Drone Racing League announce AI Robotic Racing Circuit champions, give $1 million for the fastest autonomous racing drone.
Давно мы ничего не постили. Довольно веселая статья, где ученые пытались исследовать, почему нейронные сети, использующиеся для различного рода классификации лиц, обычно работают хуже на лицах чернокожих женщин. Короче говоря, дело не в цвете кожи, а в том, что у чернокожих женщин совершенно особая структура губ, глаз и щек, а так же насколько можно понять, макияж, который является сильным женским признаком, у них видится совсем подругому.
Мы все это долгое время молчания делали Zenia, виртуального учителя для занятий йогой. И нас номинировали в категории Health&Fitness на ProductHunt. Будет круто, если поддержите!
ТРИ ПРОСТЫХ ШАГА:
1/ открыть линк
http://bit.do/VoteForZenia
2/ найти Zenia
3/ нажать Upvote
ТРИ ПРОСТЫХ ШАГА:
1/ открыть линк
http://bit.do/VoteForZenia
2/ найти Zenia
3/ нажать Upvote