Метаверсище и ИИще
49K subscribers
6.08K photos
4.64K videos
47 files
6.98K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
CodeMiko обзавелась пальцами.
Юна Кан отжигает! Все это в реалтайме!
Подробности тут:
https://twitter.com/mikoverseinc/

Тему сисек раскрываем с следующем посте
🔥23
This media is not supported in your browser
VIEW IN TELEGRAM
Какой метаверс без физики сисек?!
Пока Марк городит Safety Bubbles взрослые девочки начинают и выигрывают.

CodeMiko - лучшая!
https://twitter.com/i/status/1581352935467888640
🔥20👍3👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Ну ок. Пусть пятница будет днём сисек.

Раскрывает тему дальше.

Физика волос и сисек в одном реалтаймовом сетапе.
Поглядите на взаимодействие объектов.

И пока ботаники упарываются в Худини, городя тыщщи нод, новые нормальные влоггеры берут и делают в реалтайме.
https://youtube.com/c/CodeMiko
🔥19👎1
Open AI как бы выдал API к DALLE2.
Но не всем и не сейчас.
Пока бета для некоторого количества приближенных к телу ИИ.
В пресс релизе громкие имена типа Микрософта и приснопамятного шаттерстока, которые уже прикручивают Далле2 в свои корпоративные сервисы и продукты.

За кадром также вопрос с оплатой. АПИ-то есть, но за чей счёт будет банкет?

Или каждый call() будет стоить один кредит?
https://openai.com/blog/dall-e-api-now-available-in-public-beta/
👍4🔥3
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
И просто моментально появился плагин DALL-E 2 для Photoshop! Там можно и на Stable Diffusion переключить, если очень хочется.

С понедельника будет доступно обновление https://www.flyingdog.de/sd/

@ai_newz
👍17
This media is not supported in your browser
VIEW IN TELEGRAM
Google Presents: AI@ ‘22

Интересное новое видео с презентации от гугла, где совмещают алгоритм Phenaki и Imagen Video, с помощью объединения можно создавать прям из текстового описания видеоряд, в итоге картинка выходит цельной.
Запросы для видео примера:
Синий шарик застрял в ветвях красного дерева.
Камера перемещается от дерева с одним синим шариком к входу в зоопарк.
Камера показывает вход в зоопарк.
Камера очень быстро перемещается в зоопарк.
Вид от первого лица на полет в красивом саду.
Голова жирафа появляется сбоку.
Жираф идет к дереву.
Камера приближает пасть жирафа.
Жираф подходит к ветке и срывает синий шарик.
Одиночный гелиевый синий шар с белой нитью летит к голове жирафа.
Жираф жует синий шарик рядом.
Камера поворачивается вслед за улетающим синим шаром.

Гугл на данный момент не дает доступ даже к Imagen, text2image модели схожей с Dalle 2 и Stable Diffusion. Но статьи google ai research впечатляют, вот краткий список:

Imagen - текст в изображения на диффузии

Parti - текст в изображения на VQGAN

DreamBooth - дообучение моделей с малым датасетом, сейчас по всему инету множется стартапы с DreamBooth архитектурой поверх Stable Diffusion, где в модельку SD можно закинуть себя, знакомых или даже своих животных

Imagen Video - текст в видео

Phenaki - текст в длинные видео, хотя статья анонимная, возможно это не от гугла.

И конечно же, то что я тестил последний месяц:
Dream Fields - текст в 3D, так же есть варианты обученные на SD, например, колаб Dream Fusion - 1 час на A100 и моделька готова.

Ожидаем релиза Imagen для сравнения на практике с основными сетками text2image. Если конечно когда-нибудь код и веса появятся.
👍10🔥4
Добыл цены на использование API от DALLE2.
Если вам повезло и вам дали досту к АПИ и вы прикрутили это к своему сайту, сервису, плагину, то платить вы будет "покартиночно". За каждую генерацию неведомой хтони.

Цена также зависит от разрешения генерируемых картинок. Цена изображений размером 1024×1024 пикселей будет $0,02 за картинку, 512×512 - $0,018, а 256×256 - $0,016.
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Рендеринг в реалтайме #instantNeRF в Blender.

InstantNeRF от NVidia позволяет из небольшого количество фотографий собрать реалистичную 3D сцену.

Автор добавил код в Блендер и показал насколько быстро с видеокартой RTX3090 можно получать результат.
При этом зону рендеринга можно ограничивать простейшими шейпами из Блендера, в данном случае кубом. Это значительно повышает скорость рендера.

Автор надеется в скором времени оптимизировать код для возможность соединять сразу несколько сцен в одну.

Снималось все на iPhone 14 Pro Max, в 4K и 60 кадров в секунду.

Для тех у кого есть IPhone 12+ с лидаром, можно попробовать Luma AI, Nerf упакованный в мобильное приложение.
Waitlist

Все чаще нейросети и Blender будут встречаться в одном предложении.

А я пошел откладывать средства на телефон с лидаром =)
👍15🔥9
Forwarded from Физика Просто
This media is not supported in your browser
VIEW IN TELEGRAM
Как вам такое современное искусство? 😏

Цифровая анимированная картинка из синтеза Stable Diffusion и AR-трекера пространства.

ФП
🔥60👍5
Все просто взбесились. ИИ-генераторов картинок становится все больше.
Не успели мы приподофигеть от иДиффи от Нвидии, как воспоследовал жоский ответ от китайцев!
Байду выкатили Эрни - китайский монстр-генератор картинок
Как написано в китайской бумаге: "ERNIE-ViLG 2.0 значительно превосходит предыдущие модели в плане точности изображения и соответствия изображения и текста, при параллельной оценке человеком на двуязычном наборе подсказок ViLG-300." Про оценку человеком, конечно, забавно.
Но.
Как пишет Артем, это самая большая на планете модель text-2-image с 24 млрд параметров (×10 больше чем SD).
Подробности и ссылка на демо у него в посте.
https://t.me/ai_newz/1541
👍10🔥7
Китайский ответ Stable Diffusion, Midjourney, DALLE, Imagen в лице
ERNIE-ViLG
имеет несколько, скажем так, фич.
- И у него в роду свои датасеты.
- Он не умеет в английский язык.

В общедоступном демо на ХаггингФейсе промпты просто автоматически переводятся с китайского на английский и потом уже идут в глотку ИИ. Из это проистекает некоторое количество особенностей.


- Эрни ничего не знает про любимых нами знаменитостей. Наверное у него там есть китайские любимцы публики, но я, темный, кроме Джеки Чана никого не знаю.
- Соответственно, трюк с резким улучшение качества лиц, путем поминания селебов в промптах не работает.
- Перевод с китайского будет довольно сильно искажать некоторое контексты. Если вы не владеет китайским, вас ждут сюрпризы.
- И он ничего, тупицца, не знает про Грега Рутковскаго! Катастрофа!


Ну и как пример, Эрни ничего не знает про Арни.
Выше генерация по тексту "a painting of a arnold shwarzenegger, investor asking for money by tim okamura, featured on artstation, classical realism, hyper realism, chiaroscuro, fine art, cgsociety"

Пейзажи, конечно, пасторальные. Но вот с Арни нехорошо получилось. Продолжаем мучить китайское чудо...
👍13
С Джеки Чаном тоже как-то не очень. Я подсовывал в Эрни имя Джеки Чана на китайском из Вики - выдает кораблики, а Jackie Chan Face - выдает заблюренную картинку, а просто Jackie Chan получается вот так - и это в "realistic style"!
Похоже великий китайский файервол был в датасете.
🔥11
А вот мой любимый промпт, ломающий большиство генераторов "red polygonal pepper" китайский Эрни отрабатывает довольно неплохо. Там есть режим "low poly". С нормалями, конечно беда. Но попытка засчитана.
🔥19👍3