https://paperswithcode.com/ Здесь даются одновременно ссылки на статьи и на код к ним. Видно сразу какой используется фреймворк и сколько «звёзд» поставили пользователи.
Paperswithcode
Papers with Code - The latest in Machine Learning
Papers With Code highlights trending Machine Learning research and the code to implement it.
Вы, конечно же, помните бота от OpenAI, который крушил профессионалов 1х1 на прошлом The International (это главный турнир по Dota 2 с призовым фондом $24.7M). Тогда они не открыли того, как работает их бот, но обещали, что будут работать над алгоритмом, который играет за всю команду.
И вот, в преддверии нового TI, OpenAI доставляет: https://blog.openai.com/openai-five/. По ссылке статья с объяснением алгоритма с очень красивыми визуализациями.
Новый бот уже способен победить команду средних игроков!
Как же они душат: https://youtu.be/UZHTNBMAfAA
Очень жду, когда покажут бота, который играет в Starcraft 2 (его тоже уже делают).
И вот, в преддверии нового TI, OpenAI доставляет: https://blog.openai.com/openai-five/. По ссылке статья с объяснением алгоритма с очень красивыми визуализациями.
Новый бот уже способен победить команду средних игроков!
Как же они душат: https://youtu.be/UZHTNBMAfAA
Очень жду, когда покажут бота, который играет в Starcraft 2 (его тоже уже делают).
image_2018-06-26_10-26-47.png
429.7 KB
hardmaru выложил картинку с архитектурой модели
В статье, оказывается, очень много ссылок:
1) Архитектура: https://d4mucfpksywv.cloudfront.net/research-covers/openai-five/network-architecture.pdf
2) Документация награды: https://gist.github.com/dfarhi/66ec9d760ae0c49a5c492c9fae93984a
У агентов нет прямой связи друг с другом, она осуществляется через Team Spirit - коэффициент при средней награде всей команды, который в процессе обучения меняется от 0 до 1
1) Архитектура: https://d4mucfpksywv.cloudfront.net/research-covers/openai-five/network-architecture.pdf
2) Документация награды: https://gist.github.com/dfarhi/66ec9d760ae0c49a5c492c9fae93984a
У агентов нет прямой связи друг с другом, она осуществляется через Team Spirit - коэффициент при средней награде всей команды, который в процессе обучения меняется от 0 до 1
Если вам приходится использовать Tensorflow, то вот отличная статья из самых недр Гугл Брейна о том, как понять неочевидные (все) части Tensorflow:
https://jacobbuckman.com/post/tensorflow-the-confusing-parts-1/
https://jacobbuckman.com/post/tensorflow-the-confusing-parts-1/
анимированная схема о том, как работает обратное распространение ошибки https://google-developers.appspot.com/machine-learning/crash-course/backprop-scroll/
https://thomas-tanay.github.io/post--L2-regularization/
Статья с очень красивой визуализацией того, что такое adversarial examples и как они живут с L2-регуляризацией на примере линейного классификатора.
Обсуждение на реддите:
https://www.reddit.com/r/MachineLearning/comments/8vhyak/r_a_new_angle_on_l2_regularization/
Статья с очень красивой визуализацией того, что такое adversarial examples и как они живут с L2-регуляризацией на примере линейного классификатора.
Обсуждение на реддите:
https://www.reddit.com/r/MachineLearning/comments/8vhyak/r_a_new_angle_on_l2_regularization/
reddit
r/MachineLearning - [R] A New Angle on L2 Regularization
59 votes and 8 so far on reddit
Прекрасный конспект докладов с CVPR2018
https://olgalitech.wordpress.com/2018/06/30/cvpr-2018-recap-notes-and-trends/
https://olgalitech.wordpress.com/2018/06/30/cvpr-2018-recap-notes-and-trends/
Random ML&Datascience musing
CVPR 2018 — recap, notes and trends
This year CVPR (Computer Vision and Pattern Recognition) conference has accepted 900+ papers. This blog post has overview of some of them. Here you can find notes that we captured together with my …
Facebook AI Research разработали генеративно-состязательную нейросеть (GAN) для восстановления закрытых глаз на фотографии. Обычно GAN генерируют изображения, основываясь только на данных из обучающего набора, а в ExGAN разработчики добавили второй источник информации — ещё одно фото того же человека, полученное в другое время или в другой позе. Однако, вместо того, чтобы просто скопировать пиксели со второй фотографии, сеть учится использовать эту информацию в качестве семантического руководства для создания правдоподобных результатов. Подробнее о том, как сеть научилась открывать ваши глаза, читайте по ссылке:
https://medium.com/@neurohive/facebook-ai-research-presents-eye-in-painting-with-exemplar-gan-32cec575ba65
https://medium.com/@neurohive/facebook-ai-research-presents-eye-in-painting-with-exemplar-gan-32cec575ba65
Medium
Eye In-Painting with Exemplar Generative Adversarial Networks
Nowadays, it is pretty common for people to share their pictures of social media. a large percentage of them featuring people-centric…
На прошлой неделе вышла новая статья про ГАНы, которую одобрил Гудфеллоу: The relativistic discriminator: a key element missing from standard GAN.
В ней авторка предлагает переформулировать задачу дискриминатора: вместо того, чтобы просто различать real и fake данные, пусть он оценивает вероятность того, что real пример выглядит более настоящим, чем fake. (или то же самое, но в среднем)
Выглядят дискриминаторы примерно так:
обычный:
В результате ГАНы получаются гораздо более стабильными и даже обычный ГАН начинает генерировать картинки 256х256.
А ещё в статье можно посмотреть на корги:
Статья
Обсуждение на реддите
Код
В ней авторка предлагает переформулировать задачу дискриминатора: вместо того, чтобы просто различать real и fake данные, пусть он оценивает вероятность того, что real пример выглядит более настоящим, чем fake. (или то же самое, но в среднем)
Выглядят дискриминаторы примерно так:
обычный:
D(x) = sigmoid(C(x))
относительный:D(x_r, x_f) = sigmoid(C(x_r) - C(x_f))
Предлагается 3 объяснения, зачем всё это нужно, из которых я понял только то, что с картинкой. Это изменение дискриминатора позволяет сделать так, чтобы он действительно минимизировал Jensen–Shannon divergence, которую мы и хотели бы минимизировать на самом деле.В результате ГАНы получаются гораздо более стабильными и даже обычный ГАН начинает генерировать картинки 256х256.
А ещё в статье можно посмотреть на корги:
Статья
Обсуждение на реддите
Код
Twitter
Ian Goodfellow
This new family of GAN loss functions looks promising! I'm especially excited about Fig 4-6, where we see that the new loss results in much faster learning during the first several iterations of training. I implemented the RSGAN loss on a toy problem and…
Статья от Убера о простом трюке, который позволяет сверточной сети с точностью до пикселя предсказывать положения объектов на картинке: надо всего лишь добавить на вход слоя 2 дополнительных канала: с x и y координатами.
Эта штука должна быть полезна в задачах, где определение точного положения объекта важно: в object detection, генеративных моделях и RL.
Посмотрите прекрасное видео:
https://youtu.be/8yFQc6elePA
Эта штука должна быть полезна в задачах, где определение точного положения объекта важно: в object detection, генеративных моделях и RL.
Посмотрите прекрасное видео:
https://youtu.be/8yFQc6elePA
Uber Blog
An Intriguing Failing of Convolutional Neural Networks and the CoordConv Solution | Uber Blog
As powerful and widespread as convolutional neural networks are in deep learning, AI Labs’ latest research reveals both an underappreciated failing and a simple fix.
Очередная работа от OpenAI, в которой исследователи создали систему Dactyl для управления роборукой, у которой 24 степеней свободы. В качестве входа используются изображения с 3х RGB камер. При обучении использовалась тот же фреймворк Rapid, что и для обучения OpenAI Five для игры в Доту 2. Dactyl состоит из 2 основных частей, первая, сверточная, предсказывает положение объекта, вторая, рекуррентная, предсказывает какое действие нужно совершить манипулятору. Для обучения использовалось 3D симуляция роборуки с помощью Unity. Интересный факт, который отмечают исследователи, что добавление несимулированных данных из реального мира никак не влияет на производительность системы.
Посмотрите видео в статье и порадуйтесь очередному шагу в робототехнике, который приближает нас к победе машин.
Посмотрите видео в статье и порадуйтесь очередному шагу в робототехнике, который приближает нас к победе машин.
https://aicups.ru/ - соревнования по искусственному интелеекту от Mail.Ru. Недавно стартовал Mini AI Cup #3, по мотивам игры Drive Ahead. Продлится до 22го сентября, так что время еще есть. Подробное описание соревнования - https://habr.com/company/mailru/blog/421397/.
Хабр
Запускаем Mini AI Cup #3. Битва машин в тесных закрытых пространствах
С 2012 года проводим ежегодное соревнование по программированию искусственного интеллекта Russian AI Cup. В этом году оно начнётся немного позже — не в ноябре,...
https://lockheedmartin.com/en-us/news/events/ai-innovation-challenge.html
Lockheed Martin запускает соревнование с призовым фондом $2,000,000, в котором нужно разработать систему управления гоночным дроном.
Участникам предоставят дронов, симулятор и данные. Должно быть интересно, потому что LM делает это совместно с DRL - профессиональной лигой по дрон-рейсингу и алгоритмы будут соревноваться с лучшими людьми.
Первая команда, которой удастся обогнать человека, получит $250,000
https://lockheedmartin.com/content/dam/lockheed-martin/eo/documents/18-17077_AlphaPilot_One_Pager.pdf
https://youtu.be/2k0VF2a2ftc
Lockheed Martin запускает соревнование с призовым фондом $2,000,000, в котором нужно разработать систему управления гоночным дроном.
Участникам предоставят дронов, симулятор и данные. Должно быть интересно, потому что LM делает это совместно с DRL - профессиональной лигой по дрон-рейсингу и алгоритмы будут соревноваться с лучшими людьми.
Первая команда, которой удастся обогнать человека, получит $250,000
https://lockheedmartin.com/content/dam/lockheed-martin/eo/documents/18-17077_AlphaPilot_One_Pager.pdf
https://youtu.be/2k0VF2a2ftc
Lockheed Martin
AlphaPilot AI Drone Innovation Challenge
Lockheed Martin & Drone Racing League announce AI Robotic Racing Circuit champions, give $1 million for the fastest autonomous racing drone.
Давно мы ничего не постили. Довольно веселая статья, где ученые пытались исследовать, почему нейронные сети, использующиеся для различного рода классификации лиц, обычно работают хуже на лицах чернокожих женщин. Короче говоря, дело не в цвете кожи, а в том, что у чернокожих женщин совершенно особая структура губ, глаз и щек, а так же насколько можно понять, макияж, который является сильным женским признаком, у них видится совсем подругому.
Мы все это долгое время молчания делали Zenia, виртуального учителя для занятий йогой. И нас номинировали в категории Health&Fitness на ProductHunt. Будет круто, если поддержите!
ТРИ ПРОСТЫХ ШАГА:
1/ открыть линк
http://bit.do/VoteForZenia
2/ найти Zenia
3/ нажать Upvote
ТРИ ПРОСТЫХ ШАГА:
1/ открыть линк
http://bit.do/VoteForZenia
2/ найти Zenia
3/ нажать Upvote
Мы зарелизили андроид, наканецта! Это первое известное нам приложение с трекингом поз на андроиде.
Поставьте нам класс на продуктханте, пожалуйста.
https://www.producthunt.com/
(прямую ссылку давать не положено - мы Zenia for Android)
А если закинете в ваш внутренний чатик, то вообще будет супер-круто, у нас сейчас каждый апвоут на счету ❤️
Работает это всё на MediaPipe + tflite, на андроиде начиная с 8й версии. Планируем про опыт использования вот этого всего написать статью попозже.
Поставьте нам класс на продуктханте, пожалуйста.
https://www.producthunt.com/
(прямую ссылку давать не положено - мы Zenia for Android)
А если закинете в ваш внутренний чатик, то вообще будет супер-круто, у нас сейчас каждый апвоут на счету ❤️
Работает это всё на MediaPipe + tflite, на андроиде начиная с 8й версии. Планируем про опыт использования вот этого всего написать статью попозже.
Product Hunt
Product Hunt – The best new products in tech.
Product Hunt is a curation of the best new products, every day. Discover the latest mobile apps, websites, and technology products that everyone's talking about.
Уважаемые подписчики, объявляется традиционный ежегодный пост!
На этот раз он о статье, в которой мы немного рассказали о том, как работает human pose estimation в нашем приложении Zenia Yoga.
Ставьте классы и сердчеки, подписывайтесь, шлите друзьям, родным и близким, а главное читайте!
https://habr.com/ru/post/555162/
На этот раз он о статье, в которой мы немного рассказали о том, как работает human pose estimation в нашем приложении Zenia Yoga.
Ставьте классы и сердчеки, подписывайтесь, шлите друзьям, родным и близким, а главное читайте!
https://habr.com/ru/post/555162/
Хабр
Йога глазами дата-сайентиста: как мы строили computer vision в мобильном приложении
Я Денис Соколов, руковожу R&D в Zenia Yoga — первого приложения для йоги на основе ИИ. В этой статье я расскажу, из чего состоит современная система, работающая с компьютерным зрением: как влияет...
Всем привет!
Написали обзор того, на каких технологиях работает Zenia Yoga - на мобилках и в вебе.
Про такие штуки пишут достаточно редко, думаю будет интересно!
Ставьте лайки, рассказывайте друзьям, пишите комментарии 🙂 Будем писать ещё
https://habr.com/ru/post/588436/
Написали обзор того, на каких технологиях работает Zenia Yoga - на мобилках и в вебе.
Про такие штуки пишут достаточно редко, думаю будет интересно!
Ставьте лайки, рассказывайте друзьям, пишите комментарии 🙂 Будем писать ещё
https://habr.com/ru/post/588436/
Хабр
Computer Vision для iOS, Android, Web
Привет, я Денис Соколов, руковожу R&D в Zenia — это платформа для йоги и фитнеса, которая использует ИИ для трекинга поз человека (подробнее об этом — в другой моей статье ). Наша система...