feel.digital metaflow
195 subscribers
1.21K photos
734 videos
24 files
3.36K links
just a stream of everything that seemed interesting to me at the moment and I wanted to share it

moderated by @feel_digital
Download Telegram
Forwarded from Denis Sexy IT 🤖
Посмотрел интересное видео, на сложную тему – что останется после каждого из нас после того как нас не станет? Сколько лет потребуется, прежде чем в последний раз, на этой планете, произнесут или напишут наше имя?

Мы тут, во многом, первые поколения которые попали в единое цифровое пространство – сейчас нас на планете ~8 миллиардов и где-то у половины появился доступ в интернет

Мы первые кто свою жизнь, себя, мысли, стали публиковать куда-то где это с большой вероятностью сохранится для будущих поколений – и это происходит первый раз в истории, и даже нам уже сейчас кажется, что идей, мнений и историй в интернете, слишком много

И все это привилегия, потому что за всю историю нашего вида на планете жило 117 миллиардов людей и их мнения, мысли, драмы, внешний вид и тп, 99.9% этой массы никогда нам не будет известна, а наши мысли и даже самые туповатые, сохраняются и будут доступны в цифровом виде на многие годы

Раньше, чтобы тебя вписали на века – нужно было быть великим полководцем или правителем, неизвестные ушли в неизвестное

В общем, хорошее видео где переплетено сразу пару ценных мыслей, рекомендую:
https://youtu.be/xHd4zsIbXJ0?si=setn6jE6BNJo9Tf0
Интересное решение по выбору обьектов в AR.

https://x.com/nathievr/status/1953920993241763987?s=46
META показала на SIGGRAPH 2025 два прототипа очков VR с технологиями которые они тестируют чтобы построить нам VR нашей мечты )

первый прототип Tiramisu за счет повышенной плотности пикселей в 90 PPD и яркости экрана в 1400 nits позволяет пройти так называемый визуальный тест Тьюринга, когда картинку на экране не отличить от реальности. Все это достигается за счет кучи высококачественной оптики и OLED дисплеев высокой плотности пикселей. Подкачал только FOV, который супер маленький 33x33 градуса.

второй прототип BOBA 3 это очки с увеличенным FOV 180 горизонтальный и 120 вертикальный с плотностью пикселей как на Quest 3

осталось совместить эти два прототипа в одни легкие и производительные очки и мы достигли цели ))))

https://www.meta.com/blog/reality-labs-research-tiramisu-boba-3-siggraph-2025-ultrawide-fov-hyperrealistic-vr/
https://www.youtube.com/watch?v=oqDZb-_BIvQ

Будущее VR уже здесь? Тестируем гарнитуру, которая подстраивается под ваше зрение!
Забудьте про очки под VR-шлемом и укачивание! Швейцарская компания CREAL разработала гарнитуру с технологией светового поля (Light Field), и это может изменить всё.

Что она умеет?

Динамическая коррекция зрения: Гарнитура может имитировать линзы с диоптриями. Во время теста вы просто выбираете самое четкое изображение, и система сама определяет ваш рецепт. Больше не нужно пытаться втиснуть очки в шлем!
Настоящая глубина и фокус: В отличие от обычных VR/AR-устройств, которые просто показывают два плоских изображения, эта технология создает «честное» 3D. Виртуальные объекты имеют реальную глубину — ваш глаз фокусируется на них так же, как на реальных предметах на разном расстоянии. Это решает проблему конфликта вергенции-аккомодации — главную причину тошноты в VR.

Почему это важно?

В видео наглядно сравнивают эту технологию с Microsoft HoloLens: там, где HoloLens показывает все объекты в одном фокусе, гарнитура CREAL позволяет камере (и глазу) естественно фокусироваться на ближних и дальних объектах, размывая фон. Разница колоссальная.

Что дальше?

Пока это прототипы, но технология уже привлекает внимание гигантов. Похожий принцип использует Google в своих футуристичных кабинках для 3D-видеозвонков. Похоже, мы на пороге новой эры иммерсивных технологий, где виртуальное станет неотличимым от реального.
читаю уже неделю про то что все плюются с GPT-5. Как всетаки быстро люди привыкают к прорывным технологиям и начинают ныть. Мне кажется что когда изобретут телепорт найдутся те кто будет говорить "полторы секунды до сатурна это непозволительно долго"
какая прекрасная статья про doomprompting. не раз сам сталкивался с этим и думаю что эта тема которую нужно точно изучать )

https://www.workingtheorys.com/p/doomprompting
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
🦾 Boston Dynamics показали впечатляющее видео своего робота.

Atlas получает изображение с камеры, данные о положении тела и текстовую команду. На основе этого модель генерирует плавные движения всего корпуса 30 раз в секунду.

Это не набор хрупких скриптов, а система, которая сама «думает», как выйти из ситуации.

Вместо того чтобы «прыгать» от точки к точке, система сразу строит короткую последовательность действий — примерно на полторы секунды вперёд.
Часть из них выполняется, а потом план обновляется, чтобы движения оставались точными и естественными.


Робот показывает, что может работать в реальном бардаке, где всё падает, двигается и мешает работе.

@ai_machinelearning_big_data


#ai #robots #BostonDynamics #atlas
Хочется конечно, чтобы в новых Apple Vision Pro не просто процессор обновили, но хотябы сделали его грамм на 200 легче ) Жаль что этого не произойдет. В последнее время стал больше снимать на телефон spatial photo и видео, просто потомучто прикольно смотреть их потом в очках и заново переживать момент, как бы глупо это не звучало, но это работает ) И хочется захватить побольше пролетающих мимо моментов в виде обьемных образов, чтобы потом в них погружаться. ))

Трансформация старых фоток в 3д тоже отлично работает, посмотрите хотябы приложение инстаграмм в очках Meta Quest. Там налету строится стереокартинка из фото и видео в ленте и они практически оживают как картинки в фильмах про Гарри Поттера )