тоже моушн
8.93K subscribers
222 photos
247 videos
3 files
408 links
нейромагия + моушн дизайн
тренды, новости, эксперименты

связь с автором @vsewall
Download Telegram
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
"Pointcloud Occlusion Inpainting with Stable Diffusion"

Пока мамкины диффюзеры бесхитростно, но с восторгом склеивают кадры из Stable Diffusion с помощью дефорума, пацаны с опытом постпродакшена достают грубину, композят инпайнтингом и работают с камерой. Поглядите, что творит Дима Точилкин.

Основная идея алгоритма состоит в том, чтобы сохранить нетронутыми части изображения, известные по предыдущему кадру, и закрасить только те области изображения, которые отсутствуют. Мы можем определить, что известно, а чего не хватает, по карте глубины и преобразованию камеры.

Он в значительной степени зависит от качества карт глубины и использует предположение, что SD имеет неявные знания о геометрии сцены на изображении. Таким образом, он может правдоподобно закрашивать недостающие части без явного знания трехмерных сеток сцены.

Он интерполирует отсутствующую информацию, «деформируя» пространство, что хорошо для художественных или триповых видео, но не подходит для реалистичной анимации.

Если хотите узнать больше про "Pointcloud Occlusion Inpainting with Stable Diffusion" и анимацию, читайте тред в Твитторе - пример того, как AI Filmmaking приобретает черты технологии, а не только восторженных демок в телеграмме.

https://twitter.com/cut_pow/status/1576748595109593088
🔥291👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 IMAGEN VIDEO — Диффузии уже не остановить!

tl;dr
Помните Make-A-Video от MetaAI? Так вот — забудьте! Команда Google Brain только что создало лучшее Text-to-Video решение!

Если вкратце, то это имагеновый гомолог далишного Make-A-Video 🤖

Ну, а если чуть подробнее:

— Text Prompt подается в T5 энкодер
— Затем Base Model (5.6B ❤️) диффузит 16 кадров 40x24 pix в скромных 3 fps
— Затем темпоральный апсемплер TSR (1.7B) делает 32 кадра 40x24pix уже в 6 fps
— И пространственный апскейлер SSR-1 (1.4B) готовит предыдущие 32 кадра в разрешении 80x48 pix, и сразу второй SSR-2 (1.2B) делает 320x192
— Затем следуют еще два стейджа временного и один каскад пространственного суперреза и в итоге мы получаем 128 кадров в разрешении 1280x768 в 24fps

Основной фишкой такого подхода является Video U-Net — архитектура видео-юнет, пространственные операции которого выполняются независимо по кадрам с общими параметрами (батч х время, высота, ширина, каналы), тогда как временные операции работают уже по всему 5-ти мерному тензору (батч, время, высота, ширина, каналы).

Сделаю потом более подробный пост, а пока рекомендую всем посмотреть результаты на сайте проекта!

🚀 Imagen Video
📄 paper

🤖 м и ш и н л е р н и н г
🔥6🤯4👍32🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
итак, задачка - запечатлеть себя в нейроанимации Stable Diffusion. для этого автор взял 20 своих фоточек, обучил Dreambooth, сохранил веса в ckpt файл, который затем использовал как модель в SD в режиме анимации

пост в твитторе
короткий гайд про конвертацию в ckpt
колаб Dreambooth

@тоже_моушн
🔥44👍85
This media is not supported in your browser
VIEW IN TELEGRAM
Stable Diffusion в VR + Touchdesigner

Реалтайм концепт не просто с VR, но ещё и интерполяцией по векторному пространству основываясь на Deforum Diffusion colab.

Выглядит безумно!

Ожидаем больше технической информации как сделать так самостоятельно.

Автор - один из dev в Deforum.
Спасибо за наводку @Denis
20👍9🔥4
Forwarded from Ai molodca (Dobrokotov)
Literally me.

Обучил #StableDiffusion на СЕБЕ.

Теперь обучить можно на чем угодно, хоть на валенке, хоть на любимом коте. И попросить Грега Рутковски его нарисовать. О открывающихся возможностях даже не говорю.

Существует множество способов это сделать, например коллаб. Или собрать супермощный ПК. Но покажу самый простой — для технических рукожопов (сам такой), чтобы генерировать даже с телефона.

https://www.strmr.com/ — здесь всего за три доллара вы можете обучить сетку. Достаточно 8-10 фотографий. Только читайте HowTo, это важно. А затем — искусство промт инжиниринга.

Have fun 🤩
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15🔥114😁2
ребята из Phygital+ смогли реализовать то о чем я давно мечтал - генерацию бесшовных 360 панорам. нормальным смертным достаточно и статичной картинки небольшого размера, мне же всегда интересно нащупать границы технологии, однако гугл колабов SD для генерации фулл 360 я пока не встречал. ну очень хочется глянуть такое в виаре, да еще желательно в анимации
👍15🔥65
This media is not supported in your browser
VIEW IN TELEGRAM
помнится лет 5-7 назад попадались на глаза первые психоделичные видео StyleGAN, и эти странные морфинги лиц выглядели прикольно и завораживающе. однако на этом видео из твиттера Roope Rainisto использовал Stable Diffusion и Dreambooth, походу обученный на кадрах из Ла Ла Ленда (не смотрел). ну очень вкатывает!

твиттер автора

@тоже_моушн
26👍8💩2
Forwarded from ЭйАйЛера
Image2Music — развлечение на huggingface (можно попробовать на телефоне) сгенерирует вам небольшую музыкальную композицию, вдохновившись вашим изображением.

Под капотом CLIP Interrogator, который превращает вашу картинку в промт и Mubert, который генерит музыку из этого промта.
19👍4
🚀 Долгожданный релиз — STABLE DIFFUSION 2

Что будет, если за создание опенсорс решения берутся профессионалы? А что если таких команд много? Представьте:

LAION собирают 5,000,000,000 пар картинка-текст
DeepFloyd берут LAION-5B и готовят чистый и роскошный сабсет для трейна
Rom из LAION делает CLIP-ViT/H
Robin Rombach из CompVis и StabilityAI собирает роскошный Text2Image — STABLE DIFFUSION 2

Но это еще не все! Встречайте целый зоопарк моделей:

👾 Stable Diffusion 2 base — 512x512
🚀 Stable Diffusion 2 — 768x768
Stable Upscaler 4x
🎨 Stable Diffusion 2 Inpainting
👁 Stable Depth

☠️ Короче, можно смело выбрасывать на помойку всякий шлак) Пришла эпоха STABLE DIFFUSION 2! Генерируй в 768х768, Апскейль до 3072х3072! Делай 3D, Редактируй Инпеинтингом!

p.s.: Я просто боюсь представить, что там может быть дальше! Stability 🫦 ты секс!

🔮 Git настоящего OpenAI

@mishin learning
👍20👎2
Forwarded from ЭйАйЛера
Media is too big
VIEW IN TELEGRAM
Сделали танцевальное видео с помощью #warpfusion 🫀🦾

producer @kuznetsova.uv
dancer @natalia_mafia
aiartist @lerarussia
aiproducer @natahazbs
video @antik20023
warpfusion @derplearning
🔥413🤩2👎1💩1
Forwarded from CGIT_Vines (Marvin Heemeyer)
Я знаю, что многие из вас уже купаются в постах про ChatGPT от OpenAI. Я и сам поигрался и потом напишу личные впечатления. Но вот немного по тематике канала.

Ребята попросили написать 2 скриптика для блендера. Один для селекшена с условиями, второй для бевела.

Ну и результат 🤯 – оба скрипта получились рабочими.
В большинстве случаев если выполняется не весь запрос, то львиная часть кода. Кажется, у нас появился свой маленький техартист)

Хочу добавить небольшое уточнение, что этот AI обучен на закрытой базе данных до 2021 года. Думаю, можете представить что будет, когда его выпустят в открытый океан.

Как всегда повторяю: просто выживите в этом ебанутом мире, чтобы посмотреть, что будет дальше. А мы с другими тех. каналами будем вашими летописцами.
32👍7🔥3🎉2
This media is not supported in your browser
VIEW IN TELEGRAM
наконец то дошли руки поиграться с одной из самых красивых моделей SD - Double Exposure. она была обучена на куче картинок в духе заставки Тру Детектив. по собственному опыту - делать подобный композ довольно запарно. а тут достаточно написать правильный промт. правда модель оказалась довольно капризной, очень нехотя рисует что то помимо портретов и природы которая сквозь них проявляется.

а в попытке изобразить панельные многоэтажки у меня получились картинки для рекламы средства от головной боли или услуг по рефинансированию ипотеки)

в комментах другие удачные генерации

модель на hugging face

@тоже_моушн
🔥241
This media is not supported in your browser
VIEW IN TELEGRAM
новое творение Гленна Маршалла. с помощью sd модели Studio Ghibli, обученной на знаменитых мультиках Миядзаки он обработал клип Peter Gabriel - Sledgehammer. местами получилось грязновато но в целом симпатичный результат. также интересно смотреть что во что превратилось, сравнивая исходник и нейровидео

полное видео на ютуб
оригинальное видео
модель на hugging face

@тоже_моушн
12👍3🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Сравнение обработки depth2img и img2img для видеоряда от TomLikesRobots

Результат выглядит намного стабильнее, чем img2img

Анимация происходит за счет изменения силы влияния с промптом:
bronze sculpture of a girl
👍17