Ладно, я действительно схитрил и скинул вам сначала кадр из фильма. Поэтому все кто сказал, что фотка, оказался прав.
Но нюанс в том, что этот кадр повторили в блендере, как кто-то писал и там, конечно, заметна искусственность, вот вам реворк.
Но нюанс в том, что этот кадр повторили в блендере, как кто-то писал и там, конечно, заметна искусственность, вот вам реворк.
This media is not supported in your browser
VIEW IN TELEGRAM
Шикарный пример AR геймификации приложений для занятий спортом для AppleFitness!
This media is not supported in your browser
VIEW IN TELEGRAM
Это прям ah shit here we go again/
Block NeRF – это разбитое на модули представление рендеринга сцен для более удобного дальнейшего управления.
Ребята на основе изображений создают и декомпозируют сцены, которые могут легко и независимо обновляться. Так же очень круто, что хорошо работает релайтинг.
Очень жду постоянно обновляемую карту планеты, чтобы можно было не выходя из дома гулять на улице)
Напомню, что Waymo занимается автономными перевозками.
Видео
Block NeRF – это разбитое на модули представление рендеринга сцен для более удобного дальнейшего управления.
Ребята на основе изображений создают и декомпозируют сцены, которые могут легко и независимо обновляться. Так же очень круто, что хорошо работает релайтинг.
Очень жду постоянно обновляемую карту планеты, чтобы можно было не выходя из дома гулять на улице)
Напомню, что Waymo занимается автономными перевозками.
Видео
This media is not supported in your browser
VIEW IN TELEGRAM
Ex VFX artist The Mill теперь занимается Virtual Production и ресёрчит возможности шейдеров на ue5.
Смотря на эти волюметрические облака, детальный шейдер воды, отражения, распространение света, не сразу веришь, что это риалтайм. Тесты проводятся без рейтресинга.
Смотря на эти волюметрические облака, детальный шейдер воды, отражения, распространение света, не сразу веришь, что это риалтайм. Тесты проводятся без рейтресинга.
This media is not supported in your browser
VIEW IN TELEGRAM
И для баланса добра и зла в мире, infinity procedural terrain shader на Unity. Тоже реалистичная красота.
This media is not supported in your browser
VIEW IN TELEGRAM
Это типичная говноновость, но она настолько особенная, что мне тут нужна помощь специалистов в комментах.
Вчера – только прочувствуйте, пожалуйста, – Хабиб на ТВИЧЕ в VR дрался (или хз как это назвать) с каким-то типом в какой-то очередной метавселенной.
Всё это на фоне геополитической и экономической напряжённости, нехватки полупроводников, угнетения Уйгуров, мирового энергетического передела. Тут только не хватает вспомнить фотографию нашей планеты с Вояджера на расстоянии 6 миллиардов километров.
Вчера – только прочувствуйте, пожалуйста, – Хабиб на ТВИЧЕ в VR дрался (или хз как это назвать) с каким-то типом в какой-то очередной метавселенной.
Всё это на фоне геополитической и экономической напряжённости, нехватки полупроводников, угнетения Уйгуров, мирового энергетического передела. Тут только не хватает вспомнить фотографию нашей планеты с Вояджера на расстоянии 6 миллиардов километров.
Действительно хороший и дорогой facial mocap + Metahuman творят дичайшие вещи.
Подробнейшая передача микродвижений - это ключ, гляньте на подёргивания глаз.
Риг в описании к видео есть, если кому интересно.
https://youtu.be/bQ3mBhTS1JQ
Подробнейшая передача микродвижений - это ключ, гляньте на подёргивания глаз.
Риг в описании к видео есть, если кому интересно.
https://youtu.be/bQ3mBhTS1JQ
YouTube
Unreal Engine Metahuman Facial Motion with Faceware Mark IV and Glassbox Live Client
This was my first attempt at trying to capture 1:1 facial motion with Metahumans in Unreal Engine. What I loved about this experience was that I was able to do everything entirely in Unreal.
Throughout this process I developed a method of fine-tuning facial…
Throughout this process I developed a method of fine-tuning facial…
Мы на границе, когда думаем, что перекладывание ответственности за принятие решений на алгоритмы – верный путь.
Ведь так приятно отдать инициативу кому-то, кто компетентнее тебя, но это будет продолжаться до тех пор, пока эта практика не приведёт нас к экзистенциальному кризису, вот тогда действительно придётся принимать важное решение.
Ведь так приятно отдать инициативу кому-то, кто компетентнее тебя, но это будет продолжаться до тех пор, пока эта практика не приведёт нас к экзистенциальному кризису, вот тогда действительно придётся принимать важное решение.
Хочу передать горячий привет студиям, производящим анимационный контент, в которых работал и в которых не работал, а если бы работал, то тоже предлагал бы на заре всей движухи делать кроссплатформенный контент.
Когда у тебя есть настроенная сцена для быстрого сериального продукта, из этого же контента ты можешь делать игры для той же целевой аудитории и собирать уже на другом цифровом продукте тонны данных своих потенциальных пользователей.
Ну да ладно, времена прошли, и мандалорец появился, и дома можно собирать нормальные по качеству синематики, и мокап дешёвый домашний уже есть, а есть и подороже, но тоже не пипец какой дорогой. А кто-то сделал как по лекалам и чувствует себя отлично)
https://youtu.be/u_6PFbAphik
Когда у тебя есть настроенная сцена для быстрого сериального продукта, из этого же контента ты можешь делать игры для той же целевой аудитории и собирать уже на другом цифровом продукте тонны данных своих потенциальных пользователей.
Ну да ладно, времена прошли, и мандалорец появился, и дома можно собирать нормальные по качеству синематики, и мокап дешёвый домашний уже есть, а есть и подороже, но тоже не пипец какой дорогой. А кто-то сделал как по лекалам и чувствует себя отлично)
https://youtu.be/u_6PFbAphik
YouTube
Как делают кино и мультфильмы на игровом движке Unreal Engine
Процессор https://www.citilink.ru/product/processor-intel-original-core-i5-12400f-soc-1700-bx8071512400f-s-rl4w-1637711/?utm_source=yt_blogger_prohitech&utm_medium=display&utm_campaign=mun
Монитор https://www.citilink.ru/product/monitor-igrovoi-acer-nitro…
Монитор https://www.citilink.ru/product/monitor-igrovoi-acer-nitro…
Forwarded from Neural Shit
This media is not supported in your browser
VIEW IN TELEGRAM
Абсолютно проклято
This media is not supported in your browser
VIEW IN TELEGRAM
Сначала посмотрите первую часть видоса, вы наверняка думаете, что это брейкдаун очередной серии мандалорца.
С брейкдауном угадали, но эти шоты сделаны дома, одним человеком.
Пусть и через xsens, его в целом можно себе позволить, он не стоит бюджета фильма. Остальные инструменты бесплатны: Omniverse, Metahuman, Unreal. Хотя чувак собирает это в машиниме.
Видео тут
Где фильмы, я вас спрашиваю?
С брейкдауном угадали, но эти шоты сделаны дома, одним человеком.
Пусть и через xsens, его в целом можно себе позволить, он не стоит бюджета фильма. Остальные инструменты бесплатны: Omniverse, Metahuman, Unreal. Хотя чувак собирает это в машиниме.
Видео тут
Где фильмы, я вас спрашиваю?
Forwarded from AR/VR Engineer
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Beem привлекли 4 млн долларов инвестиций
Beem это приложение, позволяющее транслировать себя в дополненной реальности.
У Beem есть два формата: предзаписанные видео и livestream.
С предзаписанным все понятно, записали свой видео месседж в полный рост, получили ссылку и отправили ее пользователям.
В случае livestream вы открываете приложение, отправляете пользователям ссылку с приглашением, ставите свой телефон напротив себя, чтобы вас было видно в полный рост, и начинаете трансляцию. Но задержка существенная, около двух минут. Для QA сессий точно не подойдет.
Ссылка для пользователей будет открыта в браузере, как я понимаю, приложение использует для этого WebAR.
Как это работает под капотом?
Beem отделяет человека на видео от фона, используя собственные алгоритмы компьютерного зрения и облачную инфраструктуру, обрабатывает видеопоток в real-time и превращает его в объемное видео ( volumetric video ). После видео размещается в AR на стороне клиента.
Доступно для iOS и Android.
AR/VR Designer
Beem это приложение, позволяющее транслировать себя в дополненной реальности.
У Beem есть два формата: предзаписанные видео и livestream.
С предзаписанным все понятно, записали свой видео месседж в полный рост, получили ссылку и отправили ее пользователям.
В случае livestream вы открываете приложение, отправляете пользователям ссылку с приглашением, ставите свой телефон напротив себя, чтобы вас было видно в полный рост, и начинаете трансляцию. Но задержка существенная, около двух минут. Для QA сессий точно не подойдет.
Ссылка для пользователей будет открыта в браузере, как я понимаю, приложение использует для этого WebAR.
Как это работает под капотом?
Beem отделяет человека на видео от фона, используя собственные алгоритмы компьютерного зрения и облачную инфраструктуру, обрабатывает видеопоток в real-time и превращает его в объемное видео ( volumetric video ). После видео размещается в AR на стороне клиента.
Доступно для iOS и Android.
AR/VR Designer
🤖 Nvidia выкатила несколько обновлённых нейронных алгоритмов для графики.
По отдельности вы с ними уже были знакомы, но сейчас они стали настолько быстрыми, что хочется уже увидеть их применение в продакшенах.
Neural gigapixel images
Раньше это занимало +- несколько минут, сейчас алгоритм срабатывает за 1-2 секунды.
Neural Radiance Fields (NeRF)
Объёмный рендеринг изображений из сета фоток или трёхмерного представления файла, типа obj, fbx.
К слову, раньше (2 года назад) рендер цветка занимал 10-20 минут, сейчас ~2 секунды.
Честно, не очень понимаю, как они добились вычленения зеркальных поверхностей с фотографий, но теперь они не имеют сквозных дыр и выглядят, действительно, как отражения (магия).
Signed Distance Function
Прокачали рендеринг сцен на рейтрейсинге, до каких-то высот.
Уже после 1 секунды изображение выглядит отлично. Но к слову, без сложных шейдеров или хотя бы pbr.
Neural Radiance Cache
По сути, кэши для глобального освещения, ещё быстрее и лучше отрабатывают в тенях, на что раньше требовалось больше времени.
Если вы ничего не поняли, то во-первых посмотрите доктора Károly Zsolnai-Fehér
А во-вторых, погуглите) Если влом, то скажу просто – Инвидии надо продавать карточки с RTX, а значит, нужно седлать так, чтобы рендеринг был на них супербыстрым и привлекательным. Картинка станет еще реалистичнее, а мы пока подготовимся продать ещё одну почку.
По отдельности вы с ними уже были знакомы, но сейчас они стали настолько быстрыми, что хочется уже увидеть их применение в продакшенах.
Neural gigapixel images
Раньше это занимало +- несколько минут, сейчас алгоритм срабатывает за 1-2 секунды.
Neural Radiance Fields (NeRF)
Объёмный рендеринг изображений из сета фоток или трёхмерного представления файла, типа obj, fbx.
К слову, раньше (2 года назад) рендер цветка занимал 10-20 минут, сейчас ~2 секунды.
Честно, не очень понимаю, как они добились вычленения зеркальных поверхностей с фотографий, но теперь они не имеют сквозных дыр и выглядят, действительно, как отражения (магия).
Signed Distance Function
Прокачали рендеринг сцен на рейтрейсинге, до каких-то высот.
Уже после 1 секунды изображение выглядит отлично. Но к слову, без сложных шейдеров или хотя бы pbr.
Neural Radiance Cache
По сути, кэши для глобального освещения, ещё быстрее и лучше отрабатывают в тенях, на что раньше требовалось больше времени.
Если вы ничего не поняли, то во-первых посмотрите доктора Károly Zsolnai-Fehér
А во-вторых, погуглите) Если влом, то скажу просто – Инвидии надо продавать карточки с RTX, а значит, нужно седлать так, чтобы рендеринг был на них супербыстрым и привлекательным. Картинка станет еще реалистичнее, а мы пока подготовимся продать ещё одну почку.
YouTube
NVIDIA’s New AI: Wow, Instant Neural Graphics! 🤖
❤️ Check out Lambda here and sign up for their GPU Cloud: https://lambdalabs.com/papers
📝 #NVIDIA's paper "Instant Neural Graphics Primitives with a Multiresolution Hash Encoding" (i.e., instant-ngp) is available here:
https://nvlabs.github.io/instant-ngp/…
📝 #NVIDIA's paper "Instant Neural Graphics Primitives with a Multiresolution Hash Encoding" (i.e., instant-ngp) is available here:
https://nvlabs.github.io/instant-ngp/…
Media is too big
VIEW IN TELEGRAM
Была как-то волна публикаций про Cesium, но потом в инфополе подутихло. Но ребята там в полный рост переводят города в цифру.
Посмотрите на будущее городов: цифровизация населения, энергетической инфраструктуры, работа служб, линий связи, – это реальный цифровой организм, который обновляется в реальном времени.
Отслеживание перемещения – только один из пунктов; так всегда можно понять, где собираются люди, где можно разгрузить перекрёстки или расширить или наоборот сузить площади или проспекты.
Достаточно высокая степень детализации города: + вспомните прошлый пост с увеличением детализации через Gigapixel и в целом постобработки через нейронки, – рассматривать можно будет весьма детально.
Вряд ли, конечно, крупные гос. структуры будут пользоваться сторонними решениями, данные слишком важны и дороги, чтобы ими делиться.
Посмотрите на будущее городов: цифровизация населения, энергетической инфраструктуры, работа служб, линий связи, – это реальный цифровой организм, который обновляется в реальном времени.
Отслеживание перемещения – только один из пунктов; так всегда можно понять, где собираются люди, где можно разгрузить перекрёстки или расширить или наоборот сузить площади или проспекты.
Достаточно высокая степень детализации города: + вспомните прошлый пост с увеличением детализации через Gigapixel и в целом постобработки через нейронки, – рассматривать можно будет весьма детально.
Вряд ли, конечно, крупные гос. структуры будут пользоваться сторонними решениями, данные слишком важны и дороги, чтобы ими делиться.
This media is not supported in your browser
VIEW IN TELEGRAM
Эх скорей бы уже в этот ваш метаверс!
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn)
This media is not supported in your browser
VIEW IN TELEGRAM
Пока мы смотрим двухминутного доктора и восклицаем "где кнопка, брат".
Пока мы читаем, как гугл и фб учат телефоны отдирать фон от видео.
Пока все это существует в бумагах и телефонном качестве.
Vladislav Akhtyrskiy берет и делает это в Финальном качестве. С помощью Нюка и UE.
С помощью ИИ, который кеит, находит маркеры, удаляет маркеры, тречит и солвит камеру.
Автоматом. С любым окружением.
Скорость исполнения такого шота - 5 (пять) минут.
Самое главное - все это сохраняется в виде Нюк-скрипта.
То есть это не черный ящик, который отрыгнул видео-результат - это скрипт в Нюке, который получает этот результат из исходника, при этом предоставляет вам ВСЕ параметры, с помощью которых это было сделано.
Все, что делает ИИ - подбирает параметры для Нюка.
Можете править любой этап.
И все это разложено по папкам в порядке принятом у взрослых комперов.
А - Автоматизация.
Это единственное решение (на рынке которого нет), которое делает киношное качество.
Все ссылки ниже.
Пока мы читаем, как гугл и фб учат телефоны отдирать фон от видео.
Пока все это существует в бумагах и телефонном качестве.
Vladislav Akhtyrskiy берет и делает это в Финальном качестве. С помощью Нюка и UE.
С помощью ИИ, который кеит, находит маркеры, удаляет маркеры, тречит и солвит камеру.
Автоматом. С любым окружением.
Скорость исполнения такого шота - 5 (пять) минут.
Самое главное - все это сохраняется в виде Нюк-скрипта.
То есть это не черный ящик, который отрыгнул видео-результат - это скрипт в Нюке, который получает этот результат из исходника, при этом предоставляет вам ВСЕ параметры, с помощью которых это было сделано.
Все, что делает ИИ - подбирает параметры для Нюка.
Можете править любой этап.
И все это разложено по папкам в порядке принятом у взрослых комперов.
А - Автоматизация.
Это единственное решение (на рынке которого нет), которое делает киношное качество.
Все ссылки ниже.
This media is not supported in your browser
VIEW IN TELEGRAM
15 летний художник в Blender сделал эту прекрасную работу.
Мы так редко вспоминаем тот снимок с вояджера "pale blue dot"
Мы так редко вспоминаем тот снимок с вояджера "pale blue dot"