Gentleminds
104 subscribers
1 photo
1 video
2 files
176 links
Админы канала стараются постить интересные новости и статьи про дипленинг и не только, а так же кратко их описывать.
Наши сайты:
gentleminds.io
pozus.io
Download Telegram
https://paperswithcode.com/ Здесь даются одновременно ссылки на статьи и на код к ним. Видно сразу какой используется фреймворк и сколько «звёзд» поставили пользователи.
Вы, конечно же, помните бота от OpenAI, который крушил профессионалов 1х1 на прошлом The International (это главный турнир по Dota 2 с призовым фондом $24.7M). Тогда они не открыли того, как работает их бот, но обещали, что будут работать над алгоритмом, который играет за всю команду.

И вот, в преддверии нового TI, OpenAI доставляет: https://blog.openai.com/openai-five/. По ссылке статья с объяснением алгоритма с очень красивыми визуализациями.

Новый бот уже способен победить команду средних игроков!

Как же они душат: https://youtu.be/UZHTNBMAfAA

Очень жду, когда покажут бота, который играет в Starcraft 2 (его тоже уже делают).
image_2018-06-26_10-26-47.png
429.7 KB
hardmaru выложил картинку с архитектурой модели
В статье, оказывается, очень много ссылок:
1) Архитектура: https://d4mucfpksywv.cloudfront.net/research-covers/openai-five/network-architecture.pdf
2) Документация награды: https://gist.github.com/dfarhi/66ec9d760ae0c49a5c492c9fae93984a

У агентов нет прямой связи друг с другом, она осуществляется через Team Spirit - коэффициент при средней награде всей команды, который в процессе обучения меняется от 0 до 1
Если вам приходится использовать Tensorflow, то вот отличная статья из самых недр Гугл Брейна о том, как понять неочевидные (все) части Tensorflow:

https://jacobbuckman.com/post/tensorflow-the-confusing-parts-1/
анимированная схема о том, как работает обратное распространение ошибки https://google-developers.appspot.com/machine-learning/crash-course/backprop-scroll/
https://thomas-tanay.github.io/post--L2-regularization/

Статья с очень красивой визуализацией того, что такое adversarial examples и как они живут с L2-регуляризацией на примере линейного классификатора.

Обсуждение на реддите:
https://www.reddit.com/r/MachineLearning/comments/8vhyak/r_a_new_angle_on_l2_regularization/
Facebook AI Research разработали генеративно-состязательную нейросеть (GAN) для восстановления закрытых глаз на фотографии. Обычно GAN генерируют изображения, основываясь только на данных из обучающего набора, а в ExGAN разработчики добавили второй источник информации — ещё одно фото того же человека, полученное в другое время или в другой позе. Однако, вместо того, чтобы просто скопировать пиксели со второй фотографии, сеть учится использовать эту информацию в качестве семантического руководства для создания правдоподобных результатов. Подробнее о том, как сеть научилась открывать ваши глаза, читайте по ссылке:

https://medium.com/@neurohive/facebook-ai-research-presents-eye-in-painting-with-exemplar-gan-32cec575ba65
На прошлой неделе вышла новая статья про ГАНы, которую одобрил Гудфеллоу: The relativistic discriminator: a key element missing from standard GAN.

В ней авторка предлагает переформулировать задачу дискриминатора: вместо того, чтобы просто различать real и fake данные, пусть он оценивает вероятность того, что real пример выглядит более настоящим, чем fake. (или то же самое, но в среднем)

Выглядят дискриминаторы примерно так:
обычный:
D(x) = sigmoid(C(x))
относительный:
D(x_r, x_f) = sigmoid(C(x_r) - C(x_f))

Предлагается 3 объяснения, зачем всё это нужно, из которых я понял только то, что с картинкой. Это изменение дискриминатора позволяет сделать так, чтобы он действительно минимизировал Jensen–Shannon divergence, которую мы и хотели бы минимизировать на самом деле.

В результате ГАНы получаются гораздо более стабильными и даже обычный ГАН начинает генерировать картинки 256х256.

А ещё в статье можно посмотреть на корги:
Статья
Обсуждение на реддите
Код
Статья от Убера о простом трюке, который позволяет сверточной сети с точностью до пикселя предсказывать положения объектов на картинке: надо всего лишь добавить на вход слоя 2 дополнительных канала: с x и y координатами.

Эта штука должна быть полезна в задачах, где определение точного положения объекта важно: в object detection, генеративных моделях и RL.

Посмотрите прекрасное видео:
https://youtu.be/8yFQc6elePA
Очередная работа от OpenAI, в которой исследователи создали систему Dactyl для управления роборукой, у которой 24 степеней свободы. В качестве входа используются изображения с 3х RGB камер. При обучении использовалась тот же фреймворк Rapid, что и для обучения OpenAI Five для игры в Доту 2. Dactyl состоит из 2 основных частей, первая, сверточная, предсказывает положение объекта, вторая, рекуррентная, предсказывает какое действие нужно совершить манипулятору. Для обучения использовалось 3D симуляция роборуки с помощью Unity. Интересный факт, который отмечают исследователи, что добавление несимулированных данных из реального мира никак не влияет на производительность системы.

Посмотрите видео в статье и порадуйтесь очередному шагу в робототехнике, который приближает нас к победе машин.
Гугл запустил бета версию инструмента для поиска датасетов.
https://aicups.ru/ - соревнования по искусственному интелеекту от Mail.Ru. Недавно стартовал Mini AI Cup #3, по мотивам игры Drive Ahead. Продлится до 22го сентября, так что время еще есть. Подробное описание соревнования - https://habr.com/company/mailru/blog/421397/.
https://lockheedmartin.com/en-us/news/events/ai-innovation-challenge.html

Lockheed Martin запускает соревнование с призовым фондом $2,000,000, в котором нужно разработать систему управления гоночным дроном.

Участникам предоставят дронов, симулятор и данные. Должно быть интересно, потому что LM делает это совместно с DRL - профессиональной лигой по дрон-рейсингу и алгоритмы будут соревноваться с лучшими людьми.

Первая команда, которой удастся обогнать человека, получит $250,000

https://lockheedmartin.com/content/dam/lockheed-martin/eo/documents/18-17077_AlphaPilot_One_Pager.pdf

https://youtu.be/2k0VF2a2ftc
Давно мы ничего не постили. Довольно веселая статья, где ученые пытались исследовать, почему нейронные сети, использующиеся для различного рода классификации лиц, обычно работают хуже на лицах чернокожих женщин. Короче говоря, дело не в цвете кожи, а в том, что у чернокожих женщин совершенно особая структура губ, глаз и щек, а так же насколько можно понять, макияж, который является сильным женским признаком, у них видится совсем подругому.
Мы все это долгое время молчания делали Zenia, виртуального учителя для занятий йогой. И нас номинировали в категории Health&Fitness на ProductHunt. Будет круто, если поддержите!

ТРИ ПРОСТЫХ ШАГА:
1/ открыть линк
http://bit.do/VoteForZenia
2/ найти Zenia
3/ нажать Upvote
Мы зарелизили андроид, наканецта! Это первое известное нам приложение с трекингом поз на андроиде.

Поставьте нам класс на продуктханте, пожалуйста.

https://www.producthunt.com/

(прямую ссылку давать не положено - мы Zenia for Android)

А если закинете в ваш внутренний чатик, то вообще будет супер-круто, у нас сейчас каждый апвоут на счету ❤️

Работает это всё на MediaPipe + tflite, на андроиде начиная с 8й версии. Планируем про опыт использования вот этого всего написать статью попозже.
Уважаемые подписчики, объявляется традиционный ежегодный пост!

На этот раз он о статье, в которой мы немного рассказали о том, как работает human pose estimation в нашем приложении Zenia Yoga.

Ставьте классы и сердчеки, подписывайтесь, шлите друзьям, родным и близким, а главное читайте!

https://habr.com/ru/post/555162/
Всем привет!

Написали обзор того, на каких технологиях работает Zenia Yoga - на мобилках и в вебе.

Про такие штуки пишут достаточно редко, думаю будет интересно!

Ставьте лайки, рассказывайте друзьям, пишите комментарии 🙂 Будем писать ещё

https://habr.com/ru/post/588436/