flat space
371 subscribers
75 photos
13 videos
38 links
small space in the huge universe
Download Telegram
Немного технической информации в дополнение к предыдущему посту.

На 3-м скриншоте видно небольшую деталь - резьбу на бутылке, чтобы её добавить мне пришлось переделывать все стадии симуляций 😅

Общее время рендера заняло примерно 2 недели 🤯 (не спрашивайте на каком калькуляторе я считал)
👍2🔥2😁2
В 2014 году я сделал контент для компании SIMPLE - модного магазина алкогольной продукции.

Это был один из первых фрилансов. На тот момент я изучал гудини всего 2 года, а после увольнения из киностудии прошел всего месяц и у меня не было своего компа. Я пошел в ALL-in , согласился на этот проект, взял предоплату, занял денег у Коляна, купил и собрал комп, приступил к работе. Сроки, мягко говоря, были сжатые 😅 У меня сохранился таймлайн проекта:
Start: 26.01
End: 02.02
Pipeline:
Planning and writing Houdini assets - 2 days.
(18 full-cg shots 7 minutes 10500 frames)
Simulation - 60k particles - 10 min per shot ~ 3 hours
Meshing particles to geo in alembic - 1kk polygons - 50 min per shot ~ 15 hours
Shading in Cinema4D - 2 hours
Rendering - no gi - no ao - no lights - 1 shader - 1792x520 - 1-20 sec per frame ~ 43 hours
Compositing in Nuke and After Effects - 12 hours
Final render - 4 hours
All project 320Gb on HDD
specs: i7 4930k 4.1Ghz, Ram 28Gb, GTX680.

Ссылка на ютуб
🔥7
Новая рубрика - Интересное в сети. (часть 1)

В качестве инструмента для апскейлинга, я остановился на программе chaiNNer (ссылка на гитхаб) это проект для работы с моделями на pytorch, ncnn и onnx, с возможностью подключиться к stable diffusion.

+
интерфейс - очень отзывчивый и вызывает только приятный юзер эскпириенс.
инструментарий - помимо работы с моделями, есть много инструментов для манипуляции с изображением.
ноды - ну это моё всё, на скрине показан процесс апскейлинга png сиквенций в разрешении 3700х1300 -> 7400x2600 из 3-х разных папок в директории на другом диске с такой же структурой папок. Есть возможность изменять имя на основе любой входящей информации. Среднее время на кадр 1-2 секунды (но это очень лёгкая модель OpenProteus)

-
frame interpolation - нет. по словам автора он даже не планирует добавлять эту возможность :(
codeсs - мало, хочется весь CLI ffmpeg )
5🔥5
Интересное в сети (часть 2)

#ComfyUI - воркфлоу (рис. 1) выглядит следующим образом. К сожалению, кастомные ноды для работы с сиквенциями оставляют желать лучшего (они все пытаются сразу загрузиться в память гпу). Load image Batch - костыль, который инициализирует новый процесс каждый новый кадр (после 500 сходит с ума и выходит из чата)
Интересное в сети (часть 3)
Video2x (ссылка на гитхаб) (рис. 1) оупенсорсный кросс-платформеный проект для апреза и интерполяции любых форматов (в рамках разумного)

+
Загружает и сиквенции и мп4 и мув.
Декодирует сразу в любой кодек который есть в ffmpeg.
Очень быстрый.
Проект живой, есть телеграм канал, разраб даже скомпилил для меня спешл билд)
Идеально подходит для интерполяции при помощи модели RIFE и записи в кодек по тз.

-
Нет кастомных моделей (точнее их надо конвертировать в бинарные)
Апскейл модели в основном для аниме ^_^
Но Realersgan plus x4 - хорош
Метаверсище и ИИще
Удалить фон для 10 000 картинок? Нюк не нужен. Адобченко бахнул простенький инструмент для пакетного удаления фонов и, по дороге, ресайза. Bulk Create запущен в бета-версию сегодня и разделен на два отдельных инструмента в веб-приложении Adobe Firefly: "Удалить…
Абоба кстати тоже не нужна.

В папке может быть любое кол-во файлов. С картинки 1920х1920 удаляет фон за 0.14s

Ресайзить, композить, пересохранять, всё это можно сделать в chaiNNer, о котором я сегодня писал.
3
Наконец-то дошли руки до CopyCat в нюке!
Попробовал натренировать на своём рендере апререз х4, из 480х270 в фуллхд (рис.1).
Без понятия сколько нужно итераций (epochs) чтобы получить нормальный результат. Видимо х4 это предел мечтаний.

К х2 апскейлу, практически нет вопросов, на первый взгляд не отличить от оригинала (рис.2) при 20к эпох (6 минут тренировки) очень достойных результат. Но в 2к25 х2 апскейлом уже никого не удивить.

Скорей всего, надо тренировать последовательно по х2 от предыдущего разрешения, тогда в теории сможем получить х4-хN результат.

Но кто в продакшене будет заморачиваться с рендером инкримент сиквенции, композить её, тренировать, интерферировать и в итоге прийти к
выводу - Миша это всё фигня, давай заново (отправляй хайрез на ферму)
Дереволаз здесь
🔥91
В прошлом году я принял участие в создании генеративной графики для нового арт-пространства на ВДНХ.

Спасибо и респект команде RADUGADESIGN!

Всю презентацию можете посмотреть на Behance

Но лучше сходите посмотрите вживую здесь!

#touchdesigner ❤️
🔥9
BTW*

Новый год я начал с того, что завел себе репозиторий на гитхабе для бэкапа проектов гудини и нюка.

Чтобы исключить все остальное собержимое, в репозиторий можно добавить файл .gitignore со следующим текстом

# Игнорировать все файлы
*

# Исключить файлы с расширением .hip
!*.hiplc
!*.hip
!*.hipnc
!*.nk

# Исключить подпапки и их содержимое
!*/
backup/
.backup/


В конце рабочего дня я просто отправляю коммит (описание того что сделал в том или ином файле) и теперь могу откатиться к любой версии (бэкапы на локалхосте никуда не делись, их я просто игнорирую)

* by the way (англ.) - кстати
🔥73👍2🤯2
Сетевой червь ч.4

Нет, речь не про вредоносное ПО, а про скайнет.

Давече мне понадобилось нагенерить 4к карты глубины (depth map). Я нашел супер точный алгоритм с темпоральным дождём сглаживанием под названием DepthCrafter (рис.1) я использовал его в #comfyUI. Всё бы ничего, но 24Гб видеопамяти улетают мгновенно.
В том же комфи у меня давным давно пылился depthAnythingV2 (рис. 2), он конечно и быстрей и в 4к выдает более детализированный резульатат, но кипит если кидаешь в него анимацию.
Таким образом я пришел к оптимальному варианту под названием Video Depth Anything (рис.3) это алгоритм на базе depthAnythingV2 только под анимацию.
и чтобы он жрал всю видеопамять ему надо это разрешить при помощи команды export PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True

Все сравнительные тесты всех трёх вариантов есть на их сайтах.

#ml #ai #depth
🔥7
Чуть не забыл про маски.

Здесь всё рассказано

Установка данной тулзы для #comfyui такой какой одна должна быть! (без всяких там пип инсталлов и прочего)

#ml #ai #roto
Мелочь, а приятно.

Добавляем команду для конвертации видео прямо в файловый менеджер (в моем случае это Dolphin)

Файл с именем ffmpeg.desktop должен лежать здесь: /home/<username>/.local/share/kservices5/ServiceMenus/

А внутри код:
[Desktop Entry]
Type=Service
ServiceTypes=KonqPopupMenu/Plugin
MimeType=video/*;
Actions=convert_to_mov;
X-KDE-Priority=TopLevel
Icon=video-x-generic
X-KDE-Submenu=FFMPEG

[Desktop Action convert_to_mov]
Name=Convert to MOV (MJPEG)
Icon=video-x-generic
Exec=konsole -e bash -c 'input="%f"; output="$(dirname "$input")/$(basename "$input" .mp4).mov"; ffmpeg -i "$input" -vcodec mjpeg -q:v 2 -acodec pcm_s16be -q:a 0 -f mov "$output" || exec bash'


Можно добавить любые пресеты с любыми кодеками и тд. здесь уже от фантазии зависит.

#linux #ffmpeg
🔥5👍1
Стрим по Houdini Mardini здесь
👍5🔥1
10 лет назад я выступил с визуальным перформансом на первом фестивале INTERVALS в Нижнем Новгороде.

На мне был надет нейроинтерфейс «мозг-компьютер» Emotiv Epoc — 14-канальная ЭЭГ-гарнитура, регистрирующая электрическую активность мозга. С её помощью я "управлял" всем визуалом, который проецировался на главном танцполе.

Совершенно неосознанно я выбрал образом для выступления робота EVA-01 из аниме "Neon Genesis Evangelion". Как и главному герою аниме, Икари Синдзи, мне предстояло взять на себя управление этим огромным роботом 🤖.

Благодаря встроенному гироскопу все движения моей головы в реальном времени передавались на 3D-модель в #touchdesigner. Но привязать конкретные мысли к действиям персонажа было непросто (за исключением анимации лазеров из глаз, которые я запускал с помощью "секретного" действия 😏). Для точного контроля требовалось состояние, близкое к медитации, что под техно-музыку оказалось не так просто 😬. К тому же нейропластичность мозга постоянно вносила свои коррективы в процесс "мэппинга".
6🔥61