pytorch на ubuntu теперь можно устанавливать из pypi
pip install torch
feelsgood
А еще caffe2 переехал в репозиторий pytorch
pip install torch
feelsgood
А еще caffe2 переехал в репозиторий pytorch
Triplet loss не так прост, как может показаться из его формулы.
Статья о разных реализациях и их особенностях с кодом на tensorflow https://omoindrot.github.io/triplet-loss
Статья о разных реализациях и их особенностях с кодом на tensorflow https://omoindrot.github.io/triplet-loss
Olivier Moindrot blog
Triplet Loss and Online Triplet Mining in TensorFlow
Triplet loss is known to be difficult to implement, especially if you add the constraints of TensorFlow.
Красивенький дашборд, показывающий загрузку GPU, в т.ч с нескольких машин: https://github.com/msalvaris/gpu_monitor
И nvidia-smi для кластера:
https://github.com/PatWie/cluster-smi
И nvidia-smi для кластера:
https://github.com/PatWie/cluster-smi
GitHub
msalvaris/gpu_monitor
Monitor your GPUs whether they are on a single computer or in a cluster - msalvaris/gpu_monitor
Forwarded from addmeto
OpenAI проводит совершенно гениальный в своей простоте конкурс - на лучшую самообучаюущуюся систему, играющую в первые три игры Sonic The Hedgehot для Sega Genesis. Причем имплементация настолько технически простая, что прямо так и тянет потратить на это все выходные. Присоединяйтесь, конкурс крутой!
https://contest.openai.com/
https://contest.openai.com/
SqueezeNext: Hardware-Aware Neural Network Design
https://arxiv.org/pdf/1803.10615.pdf
Несколько новых версий SqueezeNet, одна из которых при в 2 раза меньшем количестве операций даёт схожее accuracy на ImageNet, а в более глубокой версии, работает столько же, но с лучшим accuracy.
Отличие от mobilenet в том, что не используются depthwise separable convolutions, эффективной реализации которых пока нигде нет (https://www.reddit.com/r/MachineLearning/comments/8a7sf6/d_mobilenet_v2_paper_said_depthwise_separable/). Вместо них - обычные separable convolution, как в inception-ах. И переделанный SqueezeNet блок, в котором сжатие каналов теперь идёт в 2 этапа.
В статье можно почитать про виды архитектуры ускорителей нейронных сетей. Авторы добивались максимальной производительности для Intel Knights Landing (Xeon Phi) и на них же обучали.
Возможно, из-за сложности реализации из аугментаций для обучения использовался только random crop.
https://arxiv.org/pdf/1803.10615.pdf
Несколько новых версий SqueezeNet, одна из которых при в 2 раза меньшем количестве операций даёт схожее accuracy на ImageNet, а в более глубокой версии, работает столько же, но с лучшим accuracy.
Отличие от mobilenet в том, что не используются depthwise separable convolutions, эффективной реализации которых пока нигде нет (https://www.reddit.com/r/MachineLearning/comments/8a7sf6/d_mobilenet_v2_paper_said_depthwise_separable/). Вместо них - обычные separable convolution, как в inception-ах. И переделанный SqueezeNet блок, в котором сжатие каналов теперь идёт в 2 этапа.
В статье можно почитать про виды архитектуры ускорителей нейронных сетей. Авторы добивались максимальной производительности для Intel Knights Landing (Xeon Phi) и на них же обучали.
Возможно, из-за сложности реализации из аугментаций для обучения использовался только random crop.
reddit
[D] Mobilenet v2 paper said Depthwise Separable convolution...
What about spatial separable filter?
Deep Extreme Cut
http://www.vision.ee.ethz.ch/~cvlsegmentation/dextr/
Модель, которая делает сегментацию объекта по четырём точкам. В статье описана куча экспериментов, если кратко - сейчас это лучший инструмент для human-guided сегментации.
Работает интересно - на вход сети подается кусочек изображения, вырезанный вокруг отмеченных точек с небольшим зазором + дополнительным каналом размытые по гауссову распределению области точек. Именно такая конфигурация работает лучше всего.
Есть код с демо:
https://github.com/scaelles/DEXTR-PyTorch/
http://www.vision.ee.ethz.ch/~cvlsegmentation/dextr/
Модель, которая делает сегментацию объекта по четырём точкам. В статье описана куча экспериментов, если кратко - сейчас это лучший инструмент для human-guided сегментации.
Работает интересно - на вход сети подается кусочек изображения, вырезанный вокруг отмеченных точек с небольшим зазором + дополнительным каналом размытые по гауссову распределению области точек. Именно такая конфигурация работает лучше всего.
Есть код с демо:
https://github.com/scaelles/DEXTR-PyTorch/
www.vision.ee.ethz.ch
Deep Extreme Cut
DEXTR
This media is not supported in your browser
VIEW IN TELEGRAM
Я его попробовал, работает вот так. На объектах, которые были в обучающей выборке (машины и люди) работает практически идеально. На невыпуклых объектах работает так себе. Точки ставить непривычно.
И на тему уменьшения усилий, необходимых для разметки данных и ускорения этого процесса можно послушать подкаст https://twimlai.com/twiml-talk-125-human-loop-ai-emergency-response-robert-munro/ с CTO сервиса Figure Eight (бывший Crowd Flower).
Полезной информации немного, зато история у дядьки интересная: он устанавливал солнечные батареи в больнице для беженцев в Сьерра-Леоне, и там осознал проблему того, что никто не занимается применением ML для разработки базовых сервисов работающих с текстом, вроде спам-фильтров, для редких языков, на которых там говорят. Об этом он и написал PhD в Стэнфорде.
Полезной информации немного, зато история у дядьки интересная: он устанавливал солнечные батареи в больнице для беженцев в Сьерра-Леоне, и там осознал проблему того, что никто не занимается применением ML для разработки базовых сервисов работающих с текстом, вроде спам-фильтров, для редких языков, на которых там говорят. Об этом он и написал PhD в Стэнфорде.
The TWIML AI Podcast (formerly This Week in Machine Learning & Artificial Intelligence)
Human-in-the-Loop AI for Emergency Response & More with Rob Munro
Sam Charrington is joined by Rob Munro, CTO of the newly branded Figure Eight, to discuss some of the work he’s previously done applying machine learning to disaster response and epidemiology, technical challenges that he’s encountered in trying to scale…
Rethinking Atrous Convolution for Semantic Image Segmentation
https://arxiv.org/pdf/1706.05587.pdf
Статья от гугла про использование atrous convolutions в сегментации и модель DeepLabv3. В статье есть неплохой обзор разных способов добиваться более точных масок и много результатов экспериментов с atrous convolution.
Интересные моменты:
1) Оказывается (простите за англорусский), если при обучении не ресайзить вниз ground truth мапу, а ресайзить вверх выходы сети, результат получается точнее.
2) Батч нормализация ОЧЕНЬ чувствительна к раазмеру батча в этой архитектуре (разница между лучшим и худшим результатом - 13 mIOU)
3) Atrous convolution дают использовать интересную фишку - можно сначала обучать модель с более большими дырками в конволюциях, так получаются меньшие по разрешению фичемапы и обучение работает быстрее, а потом уменьшать дырки и дообучать модель для лучшей точности.
Atrous convolutions дают возможность делать маленький stride на выходе, сохраняя нужную глубину и не раздувая количество параметров.
https://arxiv.org/pdf/1706.05587.pdf
Статья от гугла про использование atrous convolutions в сегментации и модель DeepLabv3. В статье есть неплохой обзор разных способов добиваться более точных масок и много результатов экспериментов с atrous convolution.
Интересные моменты:
1) Оказывается (простите за англорусский), если при обучении не ресайзить вниз ground truth мапу, а ресайзить вверх выходы сети, результат получается точнее.
2) Батч нормализация ОЧЕНЬ чувствительна к раазмеру батча в этой архитектуре (разница между лучшим и худшим результатом - 13 mIOU)
3) Atrous convolution дают использовать интересную фишку - можно сначала обучать модель с более большими дырками в конволюциях, так получаются меньшие по разрешению фичемапы и обучение работает быстрее, а потом уменьшать дырки и дообучать модель для лучшей точности.
Atrous convolutions дают возможность делать маленький stride на выходе, сохраняя нужную глубину и не раздувая количество параметров.
Вышел pytorch 0.4.0 с кучей изменений.
https://github.com/pytorch/pytorch/releases/tag/v0.4.0
Из приятного:
1) Больше нет Variable
2) dtype в тензорах и более похожий на numpy интерфейс
3) Полная поддержка advanced indexing
4) Новый checkpoint контейнер, который позволяет экономить память за счет пересчета нужных для расчета градиентов выходов
5) Встроенный профайлер torch.utils.bottleneck
6) Новые генераторы случайных распределений
7) Официальная поддержка Windows
И еще много мелких изменений и улучшений.
Из не очень понятного:
1) Вместо volatile теперь есть контестные менеджеры для выключения расчета градиентов.
Изменения Variable ломающие, поэтому нужно будет переписать свой код до релиза 0.5.0 http://pytorch.org/2018/04/22/0_4_0-migration-guide.html
https://github.com/pytorch/pytorch/releases/tag/v0.4.0
Из приятного:
1) Больше нет Variable
2) dtype в тензорах и более похожий на numpy интерфейс
3) Полная поддержка advanced indexing
4) Новый checkpoint контейнер, который позволяет экономить память за счет пересчета нужных для расчета градиентов выходов
5) Встроенный профайлер torch.utils.bottleneck
6) Новые генераторы случайных распределений
7) Официальная поддержка Windows
И еще много мелких изменений и улучшений.
Из не очень понятного:
1) Вместо volatile теперь есть контестные менеджеры для выключения расчета градиентов.
Изменения Variable ломающие, поэтому нужно будет переписать свой код до релиза 0.5.0 http://pytorch.org/2018/04/22/0_4_0-migration-guide.html
GitHub
Release Trade-off memory for compute, Windows support, 24 distributions with cdf, variance etc., dtypes, zero-dimensional Tensors…
PyTorch 0.4.0 release notes
Table of Contents
Major Core Changes
Tensor / Variable merged
Zero-dimensional Tensors
dtypes
migration guide
New Features
Tensors
Full support for advanced indexi...
Table of Contents
Major Core Changes
Tensor / Variable merged
Zero-dimensional Tensors
dtypes
migration guide
New Features
Tensors
Full support for advanced indexi...
https://www.youtube.com/watch?v=liFKKcbP1I0 интересный доклад о повышении доверия к моделям в реальной жизни на примере кредитного скоринга
YouTube
061. Как не работать в стол – Алексей Арустамов
В рамках конференции «Data&Science: управление проектами» Алексей Арустамов рассказал о ведении проектов в высокой ценой ошибки - что надо учитывать и как убедить бизнес-заказчиков, что ваша модель жизнеспособна.
Все материалы конференции: https://eve…
Все материалы конференции: https://eve…
Новая статья по RL от BAIR, на этот раз о Temporal Difference Models - алгоритме, который обучается как model-free, но может использоваться для планирования, как model-based.
http://bair.berkeley.edu/blog/2018/04/26/tdm/
В статье на пальцах объясняется, чем отличаются model-free и model-based алгоритмы, в чем их сильные и слабые стороны.
Реализацию TDM на PyTorch от авторов можно найти в https://github.com/vitchyr/rlkit
http://bair.berkeley.edu/blog/2018/04/26/tdm/
В статье на пальцах объясняется, чем отличаются model-free и model-based алгоритмы, в чем их сильные и слабые стороны.
Реализацию TDM на PyTorch от авторов можно найти в https://github.com/vitchyr/rlkit
The Berkeley Artificial Intelligence Research Blog
TDM: From Model-Free to Model-Based Deep Reinforcement Learning
The BAIR Blog
Uber AI сделали видеопредставление своей новой статьи об Intrinsic Dimension - они придумали метрику, которая позволяет оценить, сколько параметров нужно оптимизировать для заданной модели и задачи. С помощью неё можно понять, насколько "сложная" задача для модели или насколько хорошо подходит модель для задачи. Пока это всё работает только на игрушечных примерах, но направление очень интересное (и видео классное).
https://www.youtube.com/watch?v=uSZWeRADTFI
https://www.reddit.com/r/MachineLearning/comments/8f9dvm/ruberai_measuring_the_intrinsic_dimension_of/
https://www.youtube.com/watch?v=uSZWeRADTFI
https://www.reddit.com/r/MachineLearning/comments/8f9dvm/ruberai_measuring_the_intrinsic_dimension_of/
YouTube
Measuring the Intrinsic Dimension of Objective Landscapes
"For more, see this blog post: https://eng.uber.com/intrinsic-dimension
In this video from Uber AI Labs, researchers Chunyuan Li and Jason Yosinski describe their ICLR 2018 paper "Measuring the Intrinsic Dimension of Objective Landscapes". The research,…
In this video from Uber AI Labs, researchers Chunyuan Li and Jason Yosinski describe their ICLR 2018 paper "Measuring the Intrinsic Dimension of Objective Landscapes". The research,…
Необычная библиотека Automold для аугментации снимков дорог для self-driving car.
https://towardsdatascience.com/automold-specialized-augmentation-library-for-autonomous-vehicles-1d085ed1f578
Автору удалось сымитировать снег, дождь, тени на дороге, осень и другие специфические эффекты.
https://towardsdatascience.com/automold-specialized-augmentation-library-for-autonomous-vehicles-1d085ed1f578
Автору удалось сымитировать снег, дождь, тени на дороге, осень и другие специфические эффекты.
Medium
Automold- specialized augmentation library for Autonomous vehicles
It was not long into Udacity’s Self driving car nano-degree course when I realized that besides normally followed augmentation techniques…
Давно ничего не писали, были заняты, извиняться не будем.
Сегодня хотим поговорить про RL или обучение с подкреплением.
Итак, все мы знаем как трудно учить RL агента, который так и норовит перестать работать при любом минимальном изменении условий среды. Однако, существуют попытки уменьшить данный негативный эффект, например тут https://hackernoon.com/learning-policies-for-learning-policies-meta-reinforcement-learning-rl²-in-tensorflow-b15b592a2ddf объясняется метод meta-RL, который пытается улучшить качество работы агента на смежных задачах (почитайте).
Это еще не все. Авторы метода совместно с учеными нейробиологами https://deepmind.com/blog/prefrontal-cortex-meta-reinforcement-learning-system/ опубликовали в nature(!) статью, (тут доступный препринт https://www.biorxiv.org/content/early/2018/04/06/295964) в который пытаются выдвинуть новую теорию о том, как дофамин(источник положительного подкрепление в головном мозге) влияет на способность мозга обучаться. В данной работе ученые пытаются применить идеи meta-RL для объяснения того, как работает дофамин. Интересно.
Сегодня хотим поговорить про RL или обучение с подкреплением.
Итак, все мы знаем как трудно учить RL агента, который так и норовит перестать работать при любом минимальном изменении условий среды. Однако, существуют попытки уменьшить данный негативный эффект, например тут https://hackernoon.com/learning-policies-for-learning-policies-meta-reinforcement-learning-rl²-in-tensorflow-b15b592a2ddf объясняется метод meta-RL, который пытается улучшить качество работы агента на смежных задачах (почитайте).
Это еще не все. Авторы метода совместно с учеными нейробиологами https://deepmind.com/blog/prefrontal-cortex-meta-reinforcement-learning-system/ опубликовали в nature(!) статью, (тут доступный препринт https://www.biorxiv.org/content/early/2018/04/06/295964) в который пытаются выдвинуть новую теорию о том, как дофамин(источник положительного подкрепление в головном мозге) влияет на способность мозга обучаться. В данной работе ученые пытаются применить идеи meta-RL для объяснения того, как работает дофамин. Интересно.
Hackernoon
Learning Policies For Learning Policies — Meta Reinforcement Learning (RL²) in Tensorflow | HackerNoon
Reinforcement <a href="https://hackernoon.com/tagged/learning" target="_blank">Learning</a> provides a framework for training agents to solve problems in the world. One of the limitations of these agents however is their inflexibility once trained. They are…
Очень хорошая статья о самой большой и полезной части работы над моделями: работе с данными. Все вроде бы знают, что данные - это самое важное, но так не хочется снова брать вилочку и чистить.
Основной вывод: если количество времени ограничено (т.е всегда), лучше еще раз проверьте свои данные.
https://petewarden.com/2018/05/28/why-you-need-to-improve-your-training-data-and-how-to-do-it/
Основной вывод: если количество времени ограничено (т.е всегда), лучше еще раз проверьте свои данные.
https://petewarden.com/2018/05/28/why-you-need-to-improve-your-training-data-and-how-to-do-it/
Pete Warden's blog
Why you need to improve your training data, and how to do it
Photo by Lisha Li Andrej Karpathy showed this slide as part of his talk at Train AI and I loved it! It captures the difference between deep learning research and production perfectly. Academic pape…
В TWiML&AI пришёл Гарри Каспаров поговорить про шахматы, DeepBlue, AlphaGo Zero, ИИ, и о том, каково будет взаимоотношение людей и машин. https://itunes.apple.com/ru/podcast/this-week-in-machine-learning-artificial-intelligence/id1116303051?l=en&mt=2&i=1000412017937
Apple Podcasts
The TWIML AI Podcast (formerly This Week in Machine Learning & Artificial Intelligence): Checking in with the Master w/ Garry…
Show The TWIML AI Podcast (formerly This Week in Machine Learning & Artificial Intelligence), Ep Checking in with the Master w/ Garry Kasparov - TWiML Talk #140 - May 21, 2018
Лекция "Методы машинного обучения и большие данные биоинформатики" https://www.youtube.com/watch?v=x3s5wdwt7Pw
Очень интересно рассказывается история открытия днк, расшифровки, метод секвенирования и собственно о том, как анализировать эту молекулу. ДНК это и есть самые настоящие большие данные, если для бактерии размер ДНК измеряется мегабайтами, то для человека гигабайтами. Мне лично понравилась история с клубом РНК галстуков https://en.wikipedia.org/wiki/RNA_Tie_Club
Очень интересно рассказывается история открытия днк, расшифровки, метод секвенирования и собственно о том, как анализировать эту молекулу. ДНК это и есть самые настоящие большие данные, если для бактерии размер ДНК измеряется мегабайтами, то для человека гигабайтами. Мне лично понравилась история с клубом РНК галстуков https://en.wikipedia.org/wiki/RNA_Tie_Club
YouTube
[Коллоквиум]: Методы машинного обучения и большие данные биоинформатики
Докладчик: Мария Попцова, НИУ ВШЭ
Проект расшифровки первого генома человека занял 13 лет, потребовал около 1,5 миллиарда долларов и работы огромного числа институтов и университетов мира. Революция в технологиях секвенирования, произошедшая в начале 21…
Проект расшифровки первого генома человека занял 13 лет, потребовал около 1,5 миллиарда долларов и работы огромного числа институтов и университетов мира. Революция в технологиях секвенирования, произошедшая в начале 21…
Андрей рассказал о проблемах, которые возникают при решении задач из реальной жизни с помощью машоба. Смотреть обязательно.
https://www.figure-eight.com/building-the-software-2-0-stack-by-andrej-karpathy-from-tesla/
https://www.figure-eight.com/building-the-software-2-0-stack-by-andrej-karpathy-from-tesla/
Appen
Blog - Appen
The latest insights about training data, artificial intelligence, machine learning, and our company