This media is not supported in your browser
VIEW IN TELEGRAM
Краска-электропроводник!
Нашел прикольный проект. Чуваки сделали краску, которая переносит электрический сигнал. То есть можно нарисовать любую интерактивную электросхему у себя на стене или на листе бумаги и сделать какой-нибудь прибамбас для умного дома, ну, или что у вас там на уме. За 150 франков можно заказать стартер-кит, включающий тачборд (плату, которая подключается к нарисованным линиям и регистрирует касания).
Теперь захотелось избавиться от выключателей дома и просто нарисовать их 😏
Нашел прикольный проект. Чуваки сделали краску, которая переносит электрический сигнал. То есть можно нарисовать любую интерактивную электросхему у себя на стене или на листе бумаги и сделать какой-нибудь прибамбас для умного дома, ну, или что у вас там на уме. За 150 франков можно заказать стартер-кит, включающий тачборд (плату, которая подключается к нарисованным линиям и регистрирует касания).
Теперь захотелось избавиться от выключателей дома и просто нарисовать их 😏
А вот и отличные новости с фронта борьбы AMD и Nvidia за диплернинг превосходство. Теперь стало еще проще гонять нейронки на картах AMD с помощью Pytorch.
https://t.me/derplearning/713
https://t.me/derplearning/713
Telegram
Derp Learning
AMD has joined the game.
Microsoft вместе с PyTorch выкатили новый бэкенд - DirectML.
Позволяет крутить эти ваши нейронки на любых DirectX12-совместимых девайсах и в WSL, без танцев с CUDA.
Наконец-то AMD сможет полноценно ворваться в гонку, хоспаде.
Набор…
Microsoft вместе с PyTorch выкатили новый бэкенд - DirectML.
Позволяет крутить эти ваши нейронки на любых DirectX12-совместимых девайсах и в WSL, без танцев с CUDA.
Наконец-то AMD сможет полноценно ворваться в гонку, хоспаде.
Набор…
Forwarded from Мишин Лернинг 🇺🇦🇮🇱
📣🤗 T0 — Быстрее, умнее и легче GPT-3 в 16 раз + собрал Colab | Zero-Shot NLP
Объясню разницу между T0 и GPT-3 через аналогию:
▪️ GPT-3 — ребенка заперли в большой библиотеке и сказали: читай. GPT-3 училась предсказывать следующие слова в текстах.
▪️ T0 — ребенка помладше посадили в библиотеку, но уже с преподавателем, который натаскивал его к олимпиадам. Взяв 62 датасетов дообучили T5 (11B) на специальных задачах.
T0 в 16x меньше GPT-3 и обходит GPT-3 на 9 из 11 сетах!
Создал сolab (3B, 100ms) для быстрого решения многих nlp задач, ведь T0 и GPT-3 — нейросети, которые можно не дообучать!
▫️Суммаризация начала “Generation П”:
“In the seventies, the Soviet Union was a country of children who drank Pe”
▫️Суммаризация абстракта DALL·E:
“A computer program has been trained to create a wide range of images from text”
▫️“Самое большое здание в мире?”:
“The Burj Khalifa”
▫️“А - сын дяди Б. Каковы семейные отношения между А и Б?”:
“B is A's cousin.”
📰 Paper 🤗 demo 🔮 T0 Colab от @mishin_learning
Объясню разницу между T0 и GPT-3 через аналогию:
▪️ GPT-3 — ребенка заперли в большой библиотеке и сказали: читай. GPT-3 училась предсказывать следующие слова в текстах.
▪️ T0 — ребенка помладше посадили в библиотеку, но уже с преподавателем, который натаскивал его к олимпиадам. Взяв 62 датасетов дообучили T5 (11B) на специальных задачах.
T0 в 16x меньше GPT-3 и обходит GPT-3 на 9 из 11 сетах!
Создал сolab (3B, 100ms) для быстрого решения многих nlp задач, ведь T0 и GPT-3 — нейросети, которые можно не дообучать!
▫️Суммаризация начала “Generation П”:
“In the seventies, the Soviet Union was a country of children who drank Pe”
▫️Суммаризация абстракта DALL·E:
“A computer program has been trained to create a wide range of images from text”
▫️“Самое большое здание в мире?”:
“The Burj Khalifa”
▫️“А - сын дяди Б. Каковы семейные отношения между А и Б?”:
“B is A's cousin.”
📰 Paper 🤗 demo 🔮 T0 Colab от @mishin_learning
Media is too big
VIEW IN TELEGRAM
Новый стайл трансфер: c помощью AdaptiveConvolutions (AdaConv)
Disney Research в Цюрихе вдохновились AdaIn, который широко используется в генеративных сетках, и предложили адаптивные свертки, веса которых предсказываются другой сеткой.
Применяют AdaConv к стайл трансферу с помощью старичка VGG19, а также втыкают их в StyleGAN!
Подробнее тут.
Disney Research в Цюрихе вдохновились AdaIn, который широко используется в генеративных сетках, и предложили адаптивные свертки, веса которых предсказываются другой сеткой.
Применяют AdaConv к стайл трансферу с помощью старичка VGG19, а также втыкают их в StyleGAN!
Подробнее тут.
This media is not supported in your browser
VIEW IN TELEGRAM
Тут обалденная стать вышла. Layered Neural Atlases for Consistent Video Editing. Рассказывают как консистентно редактировать видео.
Примеры вы видите. Код тоже есть.
Вот сайт проекта.
Примеры вы видите. Код тоже есть.
Вот сайт проекта.
This media is not supported in your browser
VIEW IN TELEGRAM
Еще примерчик применения метода из статьи выше. Качество видео немного шакальное, лучше посмотреть у них на сайте.
Го смотреть Facebook Connect 2021.
Только началось. Цук рассказывает про Метаверс и про наши планы.
Для тех, кто не знает, Facebook Connect это крупнейший ежегодный ивэнт, где Цук публично рассказывает про наш вижн и иновации в сфере AR и VR.
https://youtu.be/H5HpytBiIvQ
Только началось. Цук рассказывает про Метаверс и про наши планы.
Для тех, кто не знает, Facebook Connect это крупнейший ежегодный ивэнт, где Цук публично рассказывает про наш вижн и иновации в сфере AR и VR.
https://youtu.be/H5HpytBiIvQ
YouTube
Facebook Connect Livestream 2021 - Oculus Quest Pro Announcement?
The wait is over and Facebook Connect 2021 is finally here! Previously called Oculus Connect, Facebook Connect is a yearly event where Facebook share their latest innovations in both Virtual Reality and Augmented Reality. Will this be the year we see a Quest…
This media is not supported in your browser
VIEW IN TELEGRAM
Вот кусочек из презы FB Connect. AR/VR для фитнеса и спорта – это просто 🔥
А ещё, по слухам, Rockstar Games работают над GTA для Oculus Quest. И это именно то, о чем я мечтал в детстве!
А ещё, по слухам, Rockstar Games работают над GTA для Oculus Quest. И это именно то, о чем я мечтал в детстве!
This media is not supported in your browser
VIEW IN TELEGRAM
Вы бы хотели общаться со своими близкими на расстоянии и при этом чувствовать себя так, как будто вы находитесь рядом с ними?
Исследователи изFacebook Meta Reality Labs работают над тем, чтобы это стало реальностью! Некоторые из их наработок по фотореалистичным аватарам в полный рост были опубликованы на конференции Facebook Connect.
На видео ненастоящий человек, а его аватар! Что там происходит: девушка справа двигается в виртуальноми пространстве, а перед ней стоит виртуальный Ясер Шейх (директор лабы в Питтсбурге) и разговаривает с ней. Качество поражает!
Исследователи из
На видео ненастоящий человек, а его аватар! Что там происходит: девушка справа двигается в виртуальноми пространстве, а перед ней стоит виртуальный Ясер Шейх (директор лабы в Питтсбурге) и разговаривает с ней. Качество поражает!
ICCV в 1990 году - как оно было?
Michael J. Black (MJB) - известный профессор по CV, который занимается оценкой геометрии и поз людей в 3D. Мне посчастливилось быть с ним лично знакомым (однажды я делал доклад в его лабе). Человек он очень незаурядного ума. Так вот, Майкл опубликовал пост, где рассказывает о своем первом выступлении на ICCV (International Conference on Computer Vision) в 1990 году.
Он сравнивает то, как выглядят конференции по компьютерному зрению сейчас и тогда, он замечает такие интересные вещи:
- Статьи в одно лицо были довольно частым явлением, и даже крутые профессора часто писали статьи в одиночку. Сейчас же кол-во авторов на статье может составлять десятки дармоедов человек!
- Раньше статьи могли быть от 4 до 12 страниц, тогда как сейчас стандарт - это 8, и меньше 8 страниц будет выглядеть странно.
- На ICCV 1990, проходившую я Японии, приехало 419 (!) заинтересованных. Сейчас это может быть до 10 тысяч людей.
- В 1990 году на ICCV было 126 статей, и только одна была про нейронные сети: Object recognition by a Hopfield neural network.
Прикиньте, уже размышляли о компьютерном зрении, когда даже привычного нам интернета (WWW) еще не было. Мало того, Майкл говорит, что тогда было всего буквально несколько оцифрованных видео на весь мир. Вот вам и биг дата!
- Почти ничего из обсуждаемого на конференции 1990 не могло заинтересовать индустрию. Сейчас - вы сами видели - гиганты тех. индустрии стремятся прорекламировать себя и завербовать как можно больше шарящих в CV людей.
Прочитать статью полностью можно по ссылке.
На фото Майкл Блэк во время ресепшена на ICCV 1990.
Michael J. Black (MJB) - известный профессор по CV, который занимается оценкой геометрии и поз людей в 3D. Мне посчастливилось быть с ним лично знакомым (однажды я делал доклад в его лабе). Человек он очень незаурядного ума. Так вот, Майкл опубликовал пост, где рассказывает о своем первом выступлении на ICCV (International Conference on Computer Vision) в 1990 году.
Он сравнивает то, как выглядят конференции по компьютерному зрению сейчас и тогда, он замечает такие интересные вещи:
- Статьи в одно лицо были довольно частым явлением, и даже крутые профессора часто писали статьи в одиночку. Сейчас же кол-во авторов на статье может составлять десятки дармоедов человек!
- Раньше статьи могли быть от 4 до 12 страниц, тогда как сейчас стандарт - это 8, и меньше 8 страниц будет выглядеть странно.
- На ICCV 1990, проходившую я Японии, приехало 419 (!) заинтересованных. Сейчас это может быть до 10 тысяч людей.
- В 1990 году на ICCV было 126 статей, и только одна была про нейронные сети: Object recognition by a Hopfield neural network.
Прикиньте, уже размышляли о компьютерном зрении, когда даже привычного нам интернета (WWW) еще не было. Мало того, Майкл говорит, что тогда было всего буквально несколько оцифрованных видео на весь мир. Вот вам и биг дата!
- Почти ничего из обсуждаемого на конференции 1990 не могло заинтересовать индустрию. Сейчас - вы сами видели - гиганты тех. индустрии стремятся прорекламировать себя и завербовать как можно больше шарящих в CV людей.
Прочитать статью полностью можно по ссылке.
На фото Майкл Блэк во время ресепшена на ICCV 1990.
Роботам дали возможность познавать мир через прикосновения
Meta AI Research
Прикосновение важно для восприятия мира людьми. Тактильная информация - это ключевой способ восприятия окружающего мира. Прикосновение дает нам информацию, которую невозможно получить ни каким другим способом, например, о температуре вещества, его текстуре и весе, а иногда даже о его состоянии. В идеале, мы бы хотели, чтобы ИИ мог учиться и взаимодействовать с миром через прикосновения (как люди). Но для того, чтобы это произошло, необходимо создать экосистему тактильного восприятия в робототехнике.
В этом блогпостеFacebook Meta AI рассказывает о прогрессе в разработке оборудования, симуляторов, библиотек, и синтетических данных, необходимых для создания AI систем, которые могут понимать мир и взаимодействовать с ним с помощью прикосновений.
Представлены три основных достижения:
▪️ DIGIT - дешевый тактильный сенсор, который можно построить дома за $15, если есть 3D принтер. Интересно, что сам сенсор полагается только на встроенные камеры и алгоритмы компьютерного зрения. В нем нет датчиков давления.
▪️ ReSkin - синтетическая кожа, которая может понимать тактильную информацию с помощью магнитометра. Кожа эта очень универсальна и легко заменяется, так как не имеет в себе никакой проводки.
▪️ TACTO - быстрый симулятор для тактильных сенсоров, основанных на зрении, с открытым исходным кодом.
Все эти инновации помогают добиться прогресса в разработке более мягких и безопасных роботов, способных понимать мир через прикосновения. Также новые легкодоступные сенсоры и открытый исходный код открывают сферу тактильного восприятия для большего числа исследователей.
Ох этот новый дивный мир, друзья мои! Жду когда робот будет полноценным помощником по дому, а не то, что эти тупые робопылесосы.
Meta AI Research
Прикосновение важно для восприятия мира людьми. Тактильная информация - это ключевой способ восприятия окружающего мира. Прикосновение дает нам информацию, которую невозможно получить ни каким другим способом, например, о температуре вещества, его текстуре и весе, а иногда даже о его состоянии. В идеале, мы бы хотели, чтобы ИИ мог учиться и взаимодействовать с миром через прикосновения (как люди). Но для того, чтобы это произошло, необходимо создать экосистему тактильного восприятия в робототехнике.
В этом блогпосте
Представлены три основных достижения:
▪️ DIGIT - дешевый тактильный сенсор, который можно построить дома за $15, если есть 3D принтер. Интересно, что сам сенсор полагается только на встроенные камеры и алгоритмы компьютерного зрения. В нем нет датчиков давления.
▪️ ReSkin - синтетическая кожа, которая может понимать тактильную информацию с помощью магнитометра. Кожа эта очень универсальна и легко заменяется, так как не имеет в себе никакой проводки.
▪️ TACTO - быстрый симулятор для тактильных сенсоров, основанных на зрении, с открытым исходным кодом.
Все эти инновации помогают добиться прогресса в разработке более мягких и безопасных роботов, способных понимать мир через прикосновения. Также новые легкодоступные сенсоры и открытый исходный код открывают сферу тактильного восприятия для большего числа исследователей.
Ох этот новый дивный мир, друзья мои! Жду когда робот будет полноценным помощником по дому, а не то, что эти тупые робопылесосы.
Facebook
Teaching robots to perceive, understand, and interact through touch
We’re outlining our progress in developing the touch-sensing ecosystem -- hardware, simulators, libraries, benchmarks, and data sets — necessary for building AI systems that can understand and interact through touch.