Раскопал старое видео про вертолетик, который делает трюки с помощью обучения с подкреплением (RL). Сейчас все эти люди выглядят совсем по другому, и занимают совершенно другие должности. Воистину, как пелось в песне группы I Fight Dragons: The geeks will inherit the Earth (ботаны унаследуют Землю).
Знакомимся: Andrew Ng - основатель Coursera, Adam Coats - директор в Apple, Pieter Abbeel - директор Berkeley Robot Learning Lab
Знакомимся: Andrew Ng - основатель Coursera, Adam Coats - директор в Apple, Pieter Abbeel - директор Berkeley Robot Learning Lab
YouTube
Autonomous Helicopters Teach Themselves to Fly Stunts
Stanford computer scientists have developed an artificial intelligence system that enables robotic helicopters to teach themselves to fly difficult stunts by watching other helicopters perform the same maneuvers. The technique is known as "apprenticeship…
Forwarded from DL in NLP (Vlad Lialin)
DeepMind выпустил AlphaCode, который прогает лучше половины твоих знакомых.
Во многом похож на Codex, но есть отличия.
Основной подход:
1. Encoder-decoder, 41B параметров
1. Декодер обучается предсказывать следующее слово, а энкодер делает MLM. Всё end2end.
1. Заскрапили датасет задачек с Codeforces и зафайнтюнили на нём модель
1. Во время тестирования семплили очень большое количество решения (до миллиона) и потом выбирали из них с помощью кластеризации, эвристик и, самое главное, проходят ли они открытые тесты которые приложены к задачке. Сабмитили на финальную проверку только топ-10.
По результатам: AlphaCode решает задачки лучше, чем 54% пользовалетей Codeforces (не очень альфа пока что, но стремится туда).
Небольшие технические отличия от Codex:
1. Максимальная длина для энкодера 1536, для декодера 768
1. Использовали Multi-query attention, модификацию attention, которая использует одни и те же K и V для разныех голов – позволило улучшить потребление памяти и скорость декодирования
1. Очень маленький словарь токенизатора, 8К.
1. Во время файтнюнинга использовали температуру 0.2, которая делает распределение более острым. При тесте температура не использовалась, назвали это tempering.
1. Файнтюнились и на правильных и на неправильных решениях, при этом моделе заранее сообщается сигнал корректное ли это решения.
1. Для файнтюнинга использовали лосс, который называется GOLD. По сути это взвешенная кросс-энтропия, несмотря на то, что выглядит как RL.
Вот тут можно посмотреть на визуализацию attention, а ещё есть популярно написанный блогпост
Во многом похож на Codex, но есть отличия.
Основной подход:
1. Encoder-decoder, 41B параметров
1. Декодер обучается предсказывать следующее слово, а энкодер делает MLM. Всё end2end.
1. Заскрапили датасет задачек с Codeforces и зафайнтюнили на нём модель
1. Во время тестирования семплили очень большое количество решения (до миллиона) и потом выбирали из них с помощью кластеризации, эвристик и, самое главное, проходят ли они открытые тесты которые приложены к задачке. Сабмитили на финальную проверку только топ-10.
По результатам: AlphaCode решает задачки лучше, чем 54% пользовалетей Codeforces (не очень альфа пока что, но стремится туда).
Небольшие технические отличия от Codex:
1. Максимальная длина для энкодера 1536, для декодера 768
1. Использовали Multi-query attention, модификацию attention, которая использует одни и те же K и V для разныех голов – позволило улучшить потребление памяти и скорость декодирования
1. Очень маленький словарь токенизатора, 8К.
1. Во время файтнюнинга использовали температуру 0.2, которая делает распределение более острым. При тесте температура не использовалась, назвали это tempering.
1. Файнтюнились и на правильных и на неправильных решениях, при этом моделе заранее сообщается сигнал корректное ли это решения.
1. Для файнтюнинга использовали лосс, который называется GOLD. По сути это взвешенная кросс-энтропия, несмотря на то, что выглядит как RL.
Вот тут можно посмотреть на визуализацию attention, а ещё есть популярно написанный блогпост
OpenAI научили нейросеть решать (некоторые) олимпиадные задачи по математике
Они создали нейронный доказыватель, который научился решать множество сложных олимпиадных задач для старших классов, включая задачи из конкурсов AMC12 и AIME, а также две задачи, адаптированные из IMO (математики, дайте знать в коментах круто ли это).
Доказыватель использует языковую модель для поиска доказательств формальных утверждений.
Каждый раз, когда OpenAI находят новое доказательство, они используют его в качестве новых обучающих данных (таким образом улучшая нейронную сеть и позволяя ей итеративно находить решения все более трудных утверждений)
📸 Блог-пост
📎 Статья
#ScientificML #math
Они создали нейронный доказыватель, который научился решать множество сложных олимпиадных задач для старших классов, включая задачи из конкурсов AMC12 и AIME, а также две задачи, адаптированные из IMO (математики, дайте знать в коментах круто ли это).
Доказыватель использует языковую модель для поиска доказательств формальных утверждений.
Каждый раз, когда OpenAI находят новое доказательство, они используют его в качестве новых обучающих данных (таким образом улучшая нейронную сеть и позволяя ей итеративно находить решения все более трудных утверждений)
📸 Блог-пост
📎 Статья
#ScientificML #math
Начало работы с PyTorch Image Models (timm): Руководство для практиков
PyTorch Image Models (timm) - это современнейшая библиотека для классификации изображений, содержащая коллекцию моделей изображений, оптимизаторов, планировщиков и дополнений. Недавно timm была названа самой популярной библиотекой на papers-with-code 2021 года!
Собственно новость в том, что вышел самый подробный туториал-разбор как с ней работать.
📸 Блог-пост
#beginners #images #tutorial
PyTorch Image Models (timm) - это современнейшая библиотека для классификации изображений, содержащая коллекцию моделей изображений, оптимизаторов, планировщиков и дополнений. Недавно timm была названа самой популярной библиотекой на papers-with-code 2021 года!
Собственно новость в том, что вышел самый подробный туториал-разбор как с ней работать.
📸 Блог-пост
#beginners #images #tutorial
Forwarded from ForkLog AI
🔎 Американские исследователи обучили ИИ обнаруживать мертвые нейроны быстрее экспертов-людей. Этот подход поможет врачам лечить болезнь Альцгеймера, считают ученые.
Исследователи создали биомаркерно-оптимизированный алгоритм на базе сверточной нейросети BO-CNN, который обучили различать мертвые и живые клетки. Для этого они использовали чашку Петри с нейронами мышей, которые производили нетоксичный белок GEDI, окрашивающий живые нейроны в зеленый цвет, а мертвые — в желтый.
Затем ученые показали ИИ клетки без цветовой окраски. Он смог отличить живые нейроны от мертвых быстрее и точнее экспертов-людей. Алгоритм также выдал высокую точность при идентификации неизвестных типов клеток.
☝️ Исследователи выяснили, что BO-CNN частично обнаруживает гибель нейронов, фокусируясь на изменении паттернов флуоресценции в ядре клетки. По их словам, эта особенность раньше была неизвестна и может являться причиной, по которой все предыдущие алгоритмы работали менее точно представленной модели.
#исследование #медицина
Исследователи создали биомаркерно-оптимизированный алгоритм на базе сверточной нейросети BO-CNN, который обучили различать мертвые и живые клетки. Для этого они использовали чашку Петри с нейронами мышей, которые производили нетоксичный белок GEDI, окрашивающий живые нейроны в зеленый цвет, а мертвые — в желтый.
Затем ученые показали ИИ клетки без цветовой окраски. Он смог отличить живые нейроны от мертвых быстрее и точнее экспертов-людей. Алгоритм также выдал высокую точность при идентификации неизвестных типов клеток.
☝️ Исследователи выяснили, что BO-CNN частично обнаруживает гибель нейронов, фокусируясь на изменении паттернов флуоресценции в ядре клетки. По их словам, эта особенность раньше была неизвестна и может являться причиной, по которой все предыдущие алгоритмы работали менее точно представленной модели.
#исследование #медицина
The Met Dataset: произведения искусства
Для формирования обучающего набора используется коллекция Метрополитен-музея (Metropolitan Museum of Art, The Met) в Нью-Йорке, находящаяся в открытом доступе и состоящая из около 400 тысяч изображений из более чем 224 тысяч классов, начиная с эпохи палеолита и заканчивая моднейшими художниками современности.
Каждый музейный экспонат соответствует уникальному произведению искусства и определяет свой собственный класс. Обучающее множество имеет распределение с длинным хвостом, где более половины классов представлены одним изображением, что делает его особым случаем обучения на нескольких снимках.
🗂 Датасет
#datasets #art #history
Для формирования обучающего набора используется коллекция Метрополитен-музея (Metropolitan Museum of Art, The Met) в Нью-Йорке, находящаяся в открытом доступе и состоящая из около 400 тысяч изображений из более чем 224 тысяч классов, начиная с эпохи палеолита и заканчивая моднейшими художниками современности.
Каждый музейный экспонат соответствует уникальному произведению искусства и определяет свой собственный класс. Обучающее множество имеет распределение с длинным хвостом, где более половины классов представлены одним изображением, что делает его особым случаем обучения на нескольких снимках.
🗂 Датасет
#datasets #art #history
Forwarded from TechSparks
Малыши-роверы, автономно доставляющие заказы в городах и кампусах уже становятся привычным зрелищем, а вот автомобиль в потоке без человека внутри пока ещё экзотика. Вот и в воздухе, оказывается, так же.
Вчера тут постил про коммерческую доставку беспилотниками, а сегодня новость про первый полностью автономный полет боевого вертолета при полном отсутствии людей на борту. И да, психология срабатывает: вчерашние картинки — просто милота, сегодняшняя — многих встревожит ;)
https://www.defensenews.com/land/2022/02/08/black-hawk-helicopter-flies-unmanned-for-the-first-time/
Вчера тут постил про коммерческую доставку беспилотниками, а сегодня новость про первый полностью автономный полет боевого вертолета при полном отсутствии людей на борту. И да, психология срабатывает: вчерашние картинки — просто милота, сегодняшняя — многих встревожит ;)
https://www.defensenews.com/land/2022/02/08/black-hawk-helicopter-flies-unmanned-for-the-first-time/
Defense News
For the first time, Black Hawk helicopter flies without anyone aboard
Sikorsky and the Defense Advanced Research Projects Agency flew a Black Hawk helicopter for 30 minutes with no one inside through the ALIAS program.
MaskGIT: Masked Generative Image Transformer
Генеративные трансформаторы быстро завоевали популярность для синтеза реалистичных изображений.
В статье предлагается новая парадигма синтеза изображений с использованием двунаправленного декодера трансформера, который авторы называют MaskGIT. Во время обучения, MaskGIT учится предсказывать случайные спрятанные кусочки. Во время инференса модель начинает с одновременной генерации всех кусочков изображения, а затем итеративно уточняет изображение с учетом предыдущей генерации.
Эксперименты показывают, что MaskGIT значительно превосходит SOTA на ImageNet и ускоряет декодинг до 64 раз.
📎 Статья
#transformer #gan #generative #images
Генеративные трансформаторы быстро завоевали популярность для синтеза реалистичных изображений.
В статье предлагается новая парадигма синтеза изображений с использованием двунаправленного декодера трансформера, который авторы называют MaskGIT. Во время обучения, MaskGIT учится предсказывать случайные спрятанные кусочки. Во время инференса модель начинает с одновременной генерации всех кусочков изображения, а затем итеративно уточняет изображение с учетом предыдущей генерации.
Эксперименты показывают, что MaskGIT значительно превосходит SOTA на ImageNet и ускоряет декодинг до 64 раз.
📎 Статья
#transformer #gan #generative #images
Фундаментальная проблема DL
Глубокое обучение - это круто, потому что оно ведёт к двойным багам. Это баг в твоём коде? Или это баг в твоей идее? 🤷♂️
By Andrew Carr
Глубокое обучение - это круто, потому что оно ведёт к двойным багам. Это баг в твоём коде? Или это баг в твоей идее? 🤷♂️
By Andrew Carr
Вакансия: Преподаватель курса по нейронным сетям
В настоящий момент в МГУ имени М. В. Ломоносова проходит курс «Нейронные сети и их применение в научных исследованиях».
Нашей команде (msu.ai) нужен преподаватель для подготовки программы и методических материалов, проведения занятий. От Вас мы ждём только квалификации в области программирования нейронных сетей и умения доносить материал.
Вилка 80-100к₽ за 16 часов в неделю.
Подробные требования и описание 👉 тут.
P.S.: не забудьте указать, что вы подписаны на мой канал
В настоящий момент в МГУ имени М. В. Ломоносова проходит курс «Нейронные сети и их применение в научных исследованиях».
Нашей команде (msu.ai) нужен преподаватель для подготовки программы и методических материалов, проведения занятий. От Вас мы ждём только квалификации в области программирования нейронных сетей и умения доносить материал.
Вилка 80-100к₽ за 16 часов в неделю.
Подробные требования и описание 👉 тут.
P.S.: не забудьте указать, что вы подписаны на мой канал
В твиттере уже неделю происходит прекраснейшая грызня между OpenAI и Meta.
Илья Сатскевер (head of AI in OpenAI) написал, что большие языковые модели возможно обладают зачатками сознания. На что Ян ЛеКан из Meta (exFacebook) заявил, что все это чушь. И вообще, раз компания говорит такие вещи - значит это плохие исследователи. В перепалку вписался Сэм Альтман (CEO OpenAI) и сказал, что собственно в таком подходе к делу видимо и кроется провал исследоватеской работы Meta. И предложил исследователям из Meta переходить к нему на работу. Теперь к делу подключились и другие CEO.
Короче запасайтесь попкорном 🍿: https://twitter.com/jefrankle/status/1493021453473792000?s=21
Илья Сатскевер (head of AI in OpenAI) написал, что большие языковые модели возможно обладают зачатками сознания. На что Ян ЛеКан из Meta (exFacebook) заявил, что все это чушь. И вообще, раз компания говорит такие вещи - значит это плохие исследователи. В перепалку вписался Сэм Альтман (CEO OpenAI) и сказал, что собственно в таком подходе к делу видимо и кроется провал исследоватеской работы Meta. И предложил исследователям из Meta переходить к нему на работу. Теперь к делу подключились и другие CEO.
Короче запасайтесь попкорном 🍿: https://twitter.com/jefrankle/status/1493021453473792000?s=21
Twitter
Jonathan Frankle
What bullshit. Dear OpenAI researchers: My email address is jonathan@mosaicml.com. We are hiring! We have healthy culture and no elitism, egos, or divas. twitter.com/sama/status/14…
Пока все спорят о том что такое сознание, и есть ли оно в больших языковых моделях, предлагаю сосредоточится на более научной дискуссии.
ArgSciChat - это набор данных аргументированных диалогов. Он состоит из 498 сообщений, собранных из обсуждения 20 научных статей.
Датасет может быть использован для оценки разговорных агентов и дальнейшего стимулирования исследований в области аргументированных научных агентов.
🗂 Датасет
#ScientificML #nlp #datasets
ArgSciChat - это набор данных аргументированных диалогов. Он состоит из 498 сообщений, собранных из обсуждения 20 научных статей.
Датасет может быть использован для оценки разговорных агентов и дальнейшего стимулирования исследований в области аргументированных научных агентов.
🗂 Датасет
#ScientificML #nlp #datasets
Команда исследователей из DeepMind нашла применение для RL в ядерном синтезе. Ядерный синтез с использованием магнитного удержания является многообещающим путем к достижению устойчивой энергии. Основной проблемой является формирование и поддержание высокотемпературной плазмы внутри сосуда токамака. Для удержания плазмы необходим нечеловеческий уровень управления катушками магнитных приводов.
В новой работе представили метод для проектирования магнитного контроллера токамака, который автономно обучается управлять полным набором катушек. DeepMind успешно демонстрируют контроль за разнообразными конфигурации плазмы.
Предложенный подход демонстрирует потенциал обучения с подкреплением для ускорения исследований в области термоядерного синтеза.
Астрологи явно обьявили 2022 год годом RL. Казалось бы, на фоне успехов в глубоком обучении, на обучение с подкреплением (RL) начали забивать даже OpenAI, которые с него начали свой звёздный путь. Но видимо это было затишье перед бурей.
📎 Статья
#ScientificML #RL
В новой работе представили метод для проектирования магнитного контроллера токамака, который автономно обучается управлять полным набором катушек. DeepMind успешно демонстрируют контроль за разнообразными конфигурации плазмы.
Предложенный подход демонстрирует потенциал обучения с подкреплением для ускорения исследований в области термоядерного синтеза.
Астрологи явно обьявили 2022 год годом RL. Казалось бы, на фоне успехов в глубоком обучении, на обучение с подкреплением (RL) начали забивать даже OpenAI, которые с него начали свой звёздный путь. Но видимо это было затишье перед бурей.
📎 Статья
#ScientificML #RL
Перед серией гендерных праздников стало интересно. Какого вы пола?
Anonymous Poll
70%
М
13%
Ж
4%
Non-binary
12%
Не скажу, но результаты посмотреть интересно
Forwarded from ForkLog AI
🔎 Израильский стартап IdentifAI Genetics разработал ИИ-алгоритм для выявления генетических нарушений эмбрионов по анализу крови матери.
По данным компании, модель способна распознать любое генетическое заболевание, вызванное даже незначительной мутацией или вариацией в наследственном аппарате клеток.
🧬 ИИ анализирует взятую в течение третьего триместра кровь беременной матери, читает ДНК эмбриона и распознает нарушения.
#Израиль #медицина
По данным компании, модель способна распознать любое генетическое заболевание, вызванное даже незначительной мутацией или вариацией в наследственном аппарате клеток.
🧬 ИИ анализирует взятую в течение третьего триместра кровь беременной матери, читает ДНК эмбриона и распознает нарушения.
#Израиль #медицина
На днях писал про термояд от DeepMind, а вот и блог-пост подъехал. Доступным и простым языком объясняют, что сделали и почему их исследование важно.
📓 Блог-пост
📓 Блог-пост
Telegram
NN for Science
Команда исследователей из DeepMind нашла применение для RL в ядерном синтезе. Ядерный синтез с использованием магнитного удержания является многообещающим путем к достижению устойчивой энергии. Основной проблемой является формирование и поддержание высокотемпературной…
Машинное обучение становится математическим коллегой
Краткий пересказ эссе на QuantaMagazine
Математики часто работают вместе, когда пытаются разобраться в сложной проблеме. Но в двух новых статьях (1 и 2) роль коллеги-человека была частично заменена машиной.
Андраш Юхаш и Марк Лакенби из Оксфордского университета научили модели машинного обучения DeepMind искать закономерности в геометрических объектах, называемых узлами (knots). Два математика научили компьютер выводить важный алгебраический инвариант, называемый "сигнатурой" узла, основываясь только на информации о геометрических инвариантах узла. Объединив интуицию математиков с тремя геометрическими инвариантами, выделенными DeepMind, Юхаш и Лакенби создали безотказную формулу для вычисления подписи узла.
Эта работа представляет собой новую форму сотрудничества между человеком и машиной. Получается, что, включив машинное обучение в генеративную фазу исследования, математики могут обнаружить зацепки, которые было бы трудно найти без помощи машины.
Краткий пересказ эссе на QuantaMagazine
Математики часто работают вместе, когда пытаются разобраться в сложной проблеме. Но в двух новых статьях (1 и 2) роль коллеги-человека была частично заменена машиной.
Андраш Юхаш и Марк Лакенби из Оксфордского университета научили модели машинного обучения DeepMind искать закономерности в геометрических объектах, называемых узлами (knots). Два математика научили компьютер выводить важный алгебраический инвариант, называемый "сигнатурой" узла, основываясь только на информации о геометрических инвариантах узла. Объединив интуицию математиков с тремя геометрическими инвариантами, выделенными DeepMind, Юхаш и Лакенби создали безотказную формулу для вычисления подписи узла.
Эта работа представляет собой новую форму сотрудничества между человеком и машиной. Получается, что, включив машинное обучение в генеративную фазу исследования, математики могут обнаружить зацепки, которые было бы трудно найти без помощи машины.