NVIDIA сегодня анонсировала свою новую видеокарту для AI-датацентров GH100
Что по спекам?
Полная реализация GH100 имеет следующие характеристики:
• 4-нм технология!
• 8 GPCs, 72 TPCs (9 TPCs/GPC), 2 SMs/TPC, 144 SMs per full GPU
• 128 FP32 CUDA Cores per SM, 18432 FP32 CUDA Cores per full GPU
• 4 Fourth-Generation Tensor Cores per SM, 576 per full GPU
• 6 HBM3 or HBM2e stacks, 12 512-bit Memory Controllers
• 60MB L2 Cache
• Fourth-Generation NVLink and PCIe Gen 5
NVIDIA также заявляет, что ее вычислительные ядра включают в себя «Transformer Engine», который можно использовать для ускорения Трансформеров «до 6 раз» по сравнению с предыдущей арзитектурой Ampere. Сам «Transformer Engine», по-видимому, это подкрученные тензорные блоки (tensor units), которые работают на 8-битах, когда более высокая точность не требуется.
Компания утверждает, что чип H100 в три раза быстрее чем процессор A100 предыдущего поколения в вычислениях на FP64, FP32 и на FP16, при этом он в шесть (!) раз быстрее в 8-битных вычислениях.
Что по спекам?
Полная реализация GH100 имеет следующие характеристики:
• 4-нм технология!
• 8 GPCs, 72 TPCs (9 TPCs/GPC), 2 SMs/TPC, 144 SMs per full GPU
• 128 FP32 CUDA Cores per SM, 18432 FP32 CUDA Cores per full GPU
• 4 Fourth-Generation Tensor Cores per SM, 576 per full GPU
• 6 HBM3 or HBM2e stacks, 12 512-bit Memory Controllers
• 60MB L2 Cache
• Fourth-Generation NVLink and PCIe Gen 5
NVIDIA также заявляет, что ее вычислительные ядра включают в себя «Transformer Engine», который можно использовать для ускорения Трансформеров «до 6 раз» по сравнению с предыдущей арзитектурой Ampere. Сам «Transformer Engine», по-видимому, это подкрученные тензорные блоки (tensor units), которые работают на 8-битах, когда более высокая точность не требуется.
Компания утверждает, что чип H100 в три раза быстрее чем процессор A100 предыдущего поколения в вычислениях на FP64, FP32 и на FP16, при этом он в шесть (!) раз быстрее в 8-битных вычислениях.
Открылась регистрация на CVPR 2022!
Первая конференция вживую после долгого времени! Будет в Новом Орлеане в конце июня. Цена билета $650.
Я уже зарегистрировался. Надеюсь, смогу на нее попасть.
https://cvpr2022.thecvf.com
Первая конференция вживую после долгого времени! Будет в Новом Орлеане в конце июня. Цена билета $650.
Я уже зарегистрировался. Надеюсь, смогу на нее попасть.
https://cvpr2022.thecvf.com
Snap купил стартап NextMind, который занимается интерфейсами мозг-компьютер.
О NexMind я писал ранее, их прототипы были впечатляющими.
Похоже, снэп серьезно готовится к следующей версии своих очков. Например, встроят какие-нибудь сенсоры в дужки, чтобы можно было мыслью делать простые манипуляции, такие как переключить музыку либо сделать фото.
Источник
О NexMind я писал ранее, их прототипы были впечатляющими.
Похоже, снэп серьезно готовится к следующей версии своих очков. Например, встроят какие-нибудь сенсоры в дужки, чтобы можно было мыслью делать простые манипуляции, такие как переключить музыку либо сделать фото.
Источник
Telegram
эйай ньюз
Просто магия какая-то. Работающий брейн-интерфейс от NextMind, который не требует вживления электродов в мозг, а просто крепится на шапку и касается головы своими контактами. Он уже позволяет силой мысли управлять интерфейсом и взрывать головы врагов в VR…
Neural Implicit Representations for 3D Vision and Beyond by Dr. Andreas Geiger
Свежий и качественный доклад о нейронном рендеринге и 3D зрении от проф. Андреаса Гайгера.
Люблю такие лекции. Мой рекомендасион.
https://youtu.be/jennURL-gtQ
Свежий и качественный доклад о нейронном рендеринге и 3D зрении от проф. Андреаса Гайгера.
Люблю такие лекции. Мой рекомендасион.
https://youtu.be/jennURL-gtQ
Forwarded from Denis Sexy IT 🤖
Японцы нашли способ причинить физическую боль в ✨экстримистверсе✨ – стартап H2L разрабатывает браслет на руку, который обнаруживает напряжение мышц человека и используется совместно с VR-шлемом.
Это позволяет аватару копировать сжимание-разжимание рук и ощущать реальный вес предметов и их присутствие. Всё работает на электрической стимуляции для манипулирования мышцами, так что без всяких перчаток можно ловить мячики, имитировать ощущения клюющихся птичек и стрелять из пистолета с отдачей.
Я глянули их сайт и могу сказать, что стартап действительно весьма интересный, вот буквально пару дней назад вышла статья про их робота, которым можно управлять с телефона — он собирает клубничку на грядках. Ты вроде как в 3D-шутере видишь свои (робота) руки и управляешь ими, срезая ягоды и перемещаясь по грядке.
Короче, теперь в ✨экстримистверсе✨ можно не только ходить в стриптиз, но и выхватить за плохое поведение ощутимых последствий.
Источник тут, на видео небольшой фрагмент работы устройства.
Это позволяет аватару копировать сжимание-разжимание рук и ощущать реальный вес предметов и их присутствие. Всё работает на электрической стимуляции для манипулирования мышцами, так что без всяких перчаток можно ловить мячики, имитировать ощущения клюющихся птичек и стрелять из пистолета с отдачей.
Я глянули их сайт и могу сказать, что стартап действительно весьма интересный, вот буквально пару дней назад вышла статья про их робота, которым можно управлять с телефона — он собирает клубничку на грядках. Ты вроде как в 3D-шутере видишь свои (робота) руки и управляешь ими, срезая ягоды и перемещаясь по грядке.
Короче, теперь в ✨экстримистверсе✨ можно не только ходить в стриптиз, но и выхватить за плохое поведение ощутимых последствий.
Источник тут, на видео небольшой фрагмент работы устройства.
Привет, Друзья!
Вот вам немного хлебушка, сгенеренного с помощью Guided Diffusion.
Нажав на картинку снизу, можно листать. Там четыре булки.
Вот вам немного хлебушка, сгенеренного с помощью Guided Diffusion.
Нажав на картинку снизу, можно листать. Там четыре булки.
Telegram
я обучала одну модель
успокаивающий генеративный воздушный хлеб 🍞☁️
автор говорит, что модель на основе CLIP-guided diffusion, но самого кода пока нет увы
автор говорит, что модель на основе CLIP-guided diffusion, но самого кода пока нет увы
This media is not supported in your browser
VIEW IN TELEGRAM
NPBG++: Accelerating Neural Point-Based Graphics
Статья из Сколтеча!
Это альтернатива мейнстримному нейронному рендерингу, где учится неявная репрезентация плотности либо поверхность. В этом методе новые картинки рендерятся из облака точек.
Авторы прокачали предыдующую статью, где дескрипторы точек учились для каждой сцены отдельно. Тут дескрипторы для каждой точки в облаке предсказываются нейронкой за один прогон, то есть одна и таже нейронка может работать на многих сценах.
Метод коротко: запускаем COLMAP, получаем облако точек + позиции камер, далее прогоняем входные картинки через CNN, получаем дескрипторы для каждой точки в облаке. Затем мы растеризуем 3D точки вместе с их дескрипторами и прогоняем это все через U-Net, который рендерит итоговую картинку.
>> Сайт проекта >> АрХив
Статья из Сколтеча!
Это альтернатива мейнстримному нейронному рендерингу, где учится неявная репрезентация плотности либо поверхность. В этом методе новые картинки рендерятся из облака точек.
Авторы прокачали предыдующую статью, где дескрипторы точек учились для каждой сцены отдельно. Тут дескрипторы для каждой точки в облаке предсказываются нейронкой за один прогон, то есть одна и таже нейронка может работать на многих сценах.
Метод коротко: запускаем COLMAP, получаем облако точек + позиции камер, далее прогоняем входные картинки через CNN, получаем дескрипторы для каждой точки в облаке. Затем мы растеризуем 3D точки вместе с их дескрипторами и прогоняем это все через U-Net, который рендерит итоговую картинку.
>> Сайт проекта >> АрХив
Forwarded from Мишин Лернинг 🇺🇦🇮🇱
🔫 Nvidia выпустила GeForce RTX 3090 Ti | Рекомендованная цена: 2000$
Вкратце пробежимся по деталям:
• 10% средний буст в сравнении с 3090
• VRAM остался 24gb
• VRAM Speed вырос до 21 Gbps vs 19.5 Gbps (3090)
• TFLOPS FP32: 40.0 vs 35.6 (3090)
• TFLOPS FP16: 160 vs 142 (3090)
• Рекомендованная цена: $1,999 vs $1,499 (3090)
• Кастомные карточки будут доходить в цене до 3000$
🚀 RTX 3090 Family: 3090 & 3090TI
Вкратце пробежимся по деталям:
• 10% средний буст в сравнении с 3090
• VRAM остался 24gb
• VRAM Speed вырос до 21 Gbps vs 19.5 Gbps (3090)
• TFLOPS FP32: 40.0 vs 35.6 (3090)
• TFLOPS FP16: 160 vs 142 (3090)
• Рекомендованная цена: $1,999 vs $1,499 (3090)
• Кастомные карточки будут доходить в цене до 3000$
🚀 RTX 3090 Family: 3090 & 3090TI
This media is not supported in your browser
VIEW IN TELEGRAM
Друзья, увидел прикольную вариацию нерфа "Neural RGB-D Surface Reconstruction". Нерф обучили на RGBD сканах и таким образом могут достойно восстанавливать поверхности,а не только рендерить сцену с новых углов. Обычно neural radiance fields очень плохо восстанавливают именно форму предметов, но это не мешает им получать качественный рендеринг.
Forwarded from лидер мнений среди удобрений
This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанк по-русски: бабушка помогает роверу перейти через дорогу. Как мило!
Задача сортировки маленьких массивов данных примитивных типов является частой операцией во многих алгоритмах. Для скорости важно уметь компилировать алгоритм сортировки в наименьшее количество ассемблерных инструкций и без ветвлений. Так вот, парни из DeepMind натравили сетку MuZero на эту задачу, чтобы она с помощью Reinforcement Learning поискала, как улучшить существующие алгоритмы сортировки.
До этого:
Sort3 компилировалася в 18 инструкций (3 элемента за 3 сравнения)
Sort4 - в 28 (4 элемента за 5 сравнений)
Sort5 - в 46 (5 элементов за 9 сравнений).
MuZero:
Нашла как сделать sort3 за 17 инструкций, sort5 за 43!!! Это прям круто и очень неожиданно! Тут пожно посмотерть патч в llvm.
Подробнее в посте у experimentalchill.
До этого:
Sort3 компилировалася в 18 инструкций (3 элемента за 3 сравнения)
Sort4 - в 28 (4 элемента за 5 сравнений)
Sort5 - в 46 (5 элементов за 9 сравнений).
MuZero:
Нашла как сделать sort3 за 17 инструкций, sort5 за 43!!! Это прям круто и очень неожиданно! Тут пожно посмотерть патч в llvm.
Подробнее в посте у experimentalchill.
This media is not supported in your browser
VIEW IN TELEGRAM
Вышло обновление Disco Diffusion 5.1 для генерации картинок и видео.
Телега шакалит качество 😢
-> Ссылка на колаб
Телега шакалит качество 😢
-> Ссылка на колаб
Вы читаете о множестве продвинутых алгоритмов и чувствуете, как синдром самозванца кусает вас в этот самый момент? Не волнуйтесь, это нормально, особенно если вы Дата Саентист или специалист по AI.
Надеюсь, вы понимаете, о чем я говорю — бывают моменты, когда вы хотите погрузиться по шею в конкретный алгоритм, прочитать о том, как эксперты использовали его для решения бесчисленных проблем, и вы также хотите внести свой вклад, набравшись опыта. А в следующий момент вы видите, как ваши коллеги обсуждают новый алгоритм/технологию, и вы тоже хотите ее изучить. Но наше время ограничено, и мы можем успеть сделать не так много. Мы должны выбирать между широкими поверхностными знаниями или узкими глубинными знаниями.
Подробнее о том, как не потеряться в потоке проф. информации и не чувствовать себя глупцом можно почитать тут.
Надеюсь, вы понимаете, о чем я говорю — бывают моменты, когда вы хотите погрузиться по шею в конкретный алгоритм, прочитать о том, как эксперты использовали его для решения бесчисленных проблем, и вы также хотите внести свой вклад, набравшись опыта. А в следующий момент вы видите, как ваши коллеги обсуждают новый алгоритм/технологию, и вы тоже хотите ее изучить. Но наше время ограничено, и мы можем успеть сделать не так много. Мы должны выбирать между широкими поверхностными знаниями или узкими глубинными знаниями.
Подробнее о том, как не потеряться в потоке проф. информации и не чувствовать себя глупцом можно почитать тут.