В 2014 году я сделал контент для компании SIMPLE - модного магазина алкогольной продукции.
Это был один из первых фрилансов. На тот момент я изучал гудини всего 2 года, а после увольнения из киностудии прошел всего месяц и у меня не было своего компа. Я пошел в ALL-in , согласился на этот проект, взял предоплату, занял денег у Коляна, купил и собрал комп, приступил к работе. Сроки, мягко говоря, были сжатые 😅 У меня сохранился таймлайн проекта:
Start: 26.01
End: 02.02
Pipeline:
Planning and writing Houdini assets - 2 days.
(18 full-cg shots 7 minutes 10500 frames)
Simulation - 60k particles - 10 min per shot ~ 3 hours
Meshing particles to geo in alembic - 1kk polygons - 50 min per shot ~ 15 hours
Shading in Cinema4D - 2 hours
Rendering - no gi - no ao - no lights - 1 shader - 1792x520 - 1-20 sec per frame ~ 43 hours
Compositing in Nuke and After Effects - 12 hours
Final render - 4 hours
All project 320Gb on HDD
specs: i7 4930k 4.1Ghz, Ram 28Gb, GTX680.
Ссылка на ютуб
Это был один из первых фрилансов. На тот момент я изучал гудини всего 2 года, а после увольнения из киностудии прошел всего месяц и у меня не было своего компа. Я пошел в ALL-in , согласился на этот проект, взял предоплату, занял денег у Коляна, купил и собрал комп, приступил к работе. Сроки, мягко говоря, были сжатые 😅 У меня сохранился таймлайн проекта:
Start: 26.01
End: 02.02
Pipeline:
Planning and writing Houdini assets - 2 days.
(18 full-cg shots 7 minutes 10500 frames)
Simulation - 60k particles - 10 min per shot ~ 3 hours
Meshing particles to geo in alembic - 1kk polygons - 50 min per shot ~ 15 hours
Shading in Cinema4D - 2 hours
Rendering - no gi - no ao - no lights - 1 shader - 1792x520 - 1-20 sec per frame ~ 43 hours
Compositing in Nuke and After Effects - 12 hours
Final render - 4 hours
All project 320Gb on HDD
specs: i7 4930k 4.1Ghz, Ram 28Gb, GTX680.
Ссылка на ютуб
YouTube
SIMPLE
This video content was created in 2014 for the company "Simple" - a fansy store of alcoholic beverages.
It was one of the first freelances. At that time, I had been studying Houdini for 2 years, and after leaving the film studio, only a month had passed…
It was one of the first freelances. At that time, I had been studying Houdini for 2 years, and after leaving the film studio, only a month had passed…
🔥7
Новая рубрика - Интересное в сети. (часть 1)
В качестве инструмента для апскейлинга, я остановился на программе chaiNNer (ссылка на гитхаб) это проект для работы с моделями на pytorch, ncnn и onnx, с возможностью подключиться к stable diffusion.
+
интерфейс - очень отзывчивый и вызывает только приятный юзер эскпириенс.
инструментарий - помимо работы с моделями, есть много инструментов для манипуляции с изображением.
ноды - ну это моё всё, на скрине показан процесс апскейлинга png сиквенций в разрешении 3700х1300 -> 7400x2600 из 3-х разных папок в директории на другом диске с такой же структурой папок. Есть возможность изменять имя на основе любой входящей информации. Среднее время на кадр 1-2 секунды (но это очень лёгкая модель OpenProteus)
-
frame interpolation - нет. по словам автора он даже не планирует добавлять эту возможность :(
codeсs - мало, хочется весь CLI ffmpeg )
В качестве инструмента для апскейлинга, я остановился на программе chaiNNer (ссылка на гитхаб) это проект для работы с моделями на pytorch, ncnn и onnx, с возможностью подключиться к stable diffusion.
+
интерфейс - очень отзывчивый и вызывает только приятный юзер эскпириенс.
инструментарий - помимо работы с моделями, есть много инструментов для манипуляции с изображением.
ноды - ну это моё всё, на скрине показан процесс апскейлинга png сиквенций в разрешении 3700х1300 -> 7400x2600 из 3-х разных папок в директории на другом диске с такой же структурой папок. Есть возможность изменять имя на основе любой входящей информации. Среднее время на кадр 1-2 секунды (но это очень лёгкая модель OpenProteus)
-
frame interpolation - нет. по словам автора он даже не планирует добавлять эту возможность :(
codeсs - мало, хочется весь CLI ffmpeg )
5🔥5
Интересное в сети (часть 2)
#ComfyUI - воркфлоу (рис. 1) выглядит следующим образом. К сожалению, кастомные ноды для работы с сиквенциями оставляют желать лучшего (они все пытаются сразу загрузиться в память гпу). Load image Batch - костыль, который инициализирует новый процесс каждый новый кадр (после 500 сходит с ума и выходит из чата)
#ComfyUI - воркфлоу (рис. 1) выглядит следующим образом. К сожалению, кастомные ноды для работы с сиквенциями оставляют желать лучшего (они все пытаются сразу загрузиться в память гпу). Load image Batch - костыль, который инициализирует новый процесс каждый новый кадр (после 500 сходит с ума и выходит из чата)
Интересное в сети (часть 3)
Video2x (ссылка на гитхаб) (рис. 1) оупенсорсный кросс-платформеный проект для апреза и интерполяции любых форматов (в рамках разумного)
+
Загружает и сиквенции и мп4 и мув.
Декодирует сразу в любой кодек который есть в ffmpeg.
Очень быстрый.
Проект живой, есть телеграм канал, разраб даже скомпилил для меня спешл билд)
Идеально подходит для интерполяции при помощи модели RIFE и записи в кодек по тз.
-
Нет кастомных моделей (точнее их надо конвертировать в бинарные)
Апскейл модели в основном для аниме ^_^
Но Realersgan plus x4 - хорош
Video2x (ссылка на гитхаб) (рис. 1) оупенсорсный кросс-платформеный проект для апреза и интерполяции любых форматов (в рамках разумного)
+
Загружает и сиквенции и мп4 и мув.
Декодирует сразу в любой кодек который есть в ffmpeg.
Очень быстрый.
Проект живой, есть телеграм канал, разраб даже скомпилил для меня спешл билд)
Идеально подходит для интерполяции при помощи модели RIFE и записи в кодек по тз.
-
Нет кастомных моделей (точнее их надо конвертировать в бинарные)
Апскейл модели в основном для аниме ^_^
Но Realersgan plus x4 - хорош
Метаверсище и ИИще
Удалить фон для 10 000 картинок? Нюк не нужен. Адобченко бахнул простенький инструмент для пакетного удаления фонов и, по дороге, ресайза. Bulk Create запущен в бета-версию сегодня и разделен на два отдельных инструмента в веб-приложении Adobe Firefly: "Удалить…
Абоба кстати тоже не нужна.
В папке может быть любое кол-во файлов. С картинки 1920х1920 удаляет фон за 0.14s
Ресайзить, композить, пересохранять, всё это можно сделать в chaiNNer, о котором я сегодня писал.
В папке может быть любое кол-во файлов. С картинки 1920х1920 удаляет фон за 0.14s
Ресайзить, композить, пересохранять, всё это можно сделать в chaiNNer, о котором я сегодня писал.
❤3
Наконец-то дошли руки до CopyCat в нюке!
Попробовал натренировать на своём рендере апререз х4, из 480х270 в фуллхд (рис.1).
Без понятия сколько нужно итераций (epochs) чтобы получить нормальный результат. Видимо х4 это предел мечтаний.
К х2 апскейлу, практически нет вопросов, на первый взгляд не отличить от оригинала (рис.2) при 20к эпох (6 минут тренировки) очень достойных результат. Но в 2к25 х2 апскейлом уже никого не удивить.
Скорей всего, надо тренировать последовательно по х2 от предыдущего разрешения, тогда в теории сможем получить х4-хN результат.
Но кто в продакшене будет заморачиваться с рендером инкримент сиквенции, композить её, тренировать, интерферировать и в итоге прийти к
выводу - Миша это всё фигня, давай заново (отправляй хайрез на ферму)
Попробовал натренировать на своём рендере апререз х4, из 480х270 в фуллхд (рис.1).
Без понятия сколько нужно итераций (epochs) чтобы получить нормальный результат. Видимо х4 это предел мечтаний.
К х2 апскейлу, практически нет вопросов, на первый взгляд не отличить от оригинала (рис.2) при 20к эпох (6 минут тренировки) очень достойных результат. Но в 2к25 х2 апскейлом уже никого не удивить.
Скорей всего, надо тренировать последовательно по х2 от предыдущего разрешения, тогда в теории сможем получить х4-хN результат.
Но кто в продакшене будет заморачиваться с рендером инкримент сиквенции, композить её, тренировать, интерферировать и в итоге прийти к
выводу - Миша это всё фигня, давай заново (отправляй хайрез на ферму)
В прошлом году я принял участие в создании генеративной графики для нового арт-пространства на ВДНХ.
Спасибо и респект команде RADUGADESIGN!
Всю презентацию можете посмотреть на Behance
Но лучше сходите посмотрите вживую здесь!
#touchdesigner ❤️
Спасибо и респект команде RADUGADESIGN!
Всю презентацию можете посмотреть на Behance
Но лучше сходите посмотрите вживую здесь!
#touchdesigner ❤️
🔥9
BTW*
Новый год я начал с того, что завел себе репозиторий на гитхабе для бэкапа проектов гудини и нюка.
Чтобы исключить все остальное собержимое, в репозиторий можно добавить файл .gitignore со следующим текстом
В конце рабочего дня я просто отправляю коммит (описание того что сделал в том или ином файле) и теперь могу откатиться к любой версии (бэкапы на локалхосте никуда не делись, их я просто игнорирую)
* by the way (англ.) - кстати
Новый год я начал с того, что завел себе репозиторий на гитхабе для бэкапа проектов гудини и нюка.
Чтобы исключить все остальное собержимое, в репозиторий можно добавить файл .gitignore со следующим текстом
# Игнорировать все файлы
*
# Исключить файлы с расширением .hip
!*.hiplc
!*.hip
!*.hipnc
!*.nk
# Исключить подпапки и их содержимое
!*/
backup/
.backup/
В конце рабочего дня я просто отправляю коммит (описание того что сделал в том или ином файле) и теперь могу откатиться к любой версии (бэкапы на локалхосте никуда не делись, их я просто игнорирую)
* by the way (англ.) - кстати
🔥7❤3👍2🤯2
Сетевой червь ч.4
Нет, речь не про вредоносное ПО, а про скайнет.
Давече мне понадобилось нагенерить 4к карты глубины (depth map). Я нашел супер точный алгоритм с темпоральнымдождём сглаживанием под названием DepthCrafter (рис.1) я использовал его в #comfyUI. Всё бы ничего, но 24Гб видеопамяти улетают мгновенно.
В том же комфи у меня давным давно пылился depthAnythingV2 (рис. 2), он конечно и быстрей и в 4к выдает более детализированный резульатат, но кипит если кидаешь в него анимацию.
Таким образом я пришел к оптимальному варианту под названием Video Depth Anything (рис.3) это алгоритм на базе depthAnythingV2 только под анимацию.
и чтобы он жрал всю видеопамять ему надо это разрешить при помощи команды
Все сравнительные тесты всех трёх вариантов есть на их сайтах.
#ml #ai #depth
Нет, речь не про вредоносное ПО, а про скайнет.
Давече мне понадобилось нагенерить 4к карты глубины (depth map). Я нашел супер точный алгоритм с темпоральным
В том же комфи у меня давным давно пылился depthAnythingV2 (рис. 2), он конечно и быстрей и в 4к выдает более детализированный резульатат, но кипит если кидаешь в него анимацию.
Таким образом я пришел к оптимальному варианту под названием Video Depth Anything (рис.3) это алгоритм на базе depthAnythingV2 только под анимацию.
и чтобы он жрал всю видеопамять ему надо это разрешить при помощи команды
export PYTORCH_CUDA_ALLOC_CONF=expandable_segments:TrueВсе сравнительные тесты всех трёх вариантов есть на их сайтах.
#ml #ai #depth
🔥7
Чуть не забыл про маски.
Здесь всё рассказано
Установка данной тулзы для #comfyui такой какой одна должна быть! (без всяких там пип инсталлов и прочего)
#ml #ai #roto
Здесь всё рассказано
Установка данной тулзы для #comfyui такой какой одна должна быть! (без всяких там пип инсталлов и прочего)
#ml #ai #roto
Мелочь, а приятно.
Добавляем команду для конвертации видео прямо в файловый менеджер (в моем случае это Dolphin)
Файл с именем
А внутри код:
Можно добавить любые пресеты с любыми кодеками и тд. здесь уже от фантазии зависит.
#linux #ffmpeg
Добавляем команду для конвертации видео прямо в файловый менеджер (в моем случае это Dolphin)
Файл с именем
ffmpeg.desktop должен лежать здесь: /home/<username>/.local/share/kservices5/ServiceMenus/ А внутри код:
[Desktop Entry]
Type=Service
ServiceTypes=KonqPopupMenu/Plugin
MimeType=video/*;
Actions=convert_to_mov;
X-KDE-Priority=TopLevel
Icon=video-x-generic
X-KDE-Submenu=FFMPEG
[Desktop Action convert_to_mov]
Name=Convert to MOV (MJPEG)
Icon=video-x-generic
Exec=konsole -e bash -c 'input="%f"; output="$(dirname "$input")/$(basename "$input" .mp4).mov"; ffmpeg -i "$input" -vcodec mjpeg -q:v 2 -acodec pcm_s16be -q:a 0 -f mov "$output" || exec bash'
Можно добавить любые пресеты с любыми кодеками и тд. здесь уже от фантазии зависит.
#linux #ffmpeg
🔥5👍1
10 лет назад я выступил с визуальным перформансом на первом фестивале INTERVALS в Нижнем Новгороде.
На мне был надет нейроинтерфейс «мозг-компьютер» Emotiv Epoc — 14-канальная ЭЭГ-гарнитура, регистрирующая электрическую активность мозга. С её помощью я "управлял" всем визуалом, который проецировался на главном танцполе.
Совершенно неосознанно я выбрал образом для выступления робота EVA-01 из аниме "Neon Genesis Evangelion". Как и главному герою аниме, Икари Синдзи, мне предстояло взять на себя управление этим огромным роботом 🤖.
Благодаря встроенному гироскопу все движения моей головы в реальном времени передавались на 3D-модель в #touchdesigner. Но привязать конкретные мысли к действиям персонажа было непросто (за исключением анимации лазеров из глаз, которые я запускал с помощью "секретного" действия 😏). Для точного контроля требовалось состояние, близкое к медитации, что под техно-музыку оказалось не так просто 😬. К тому же нейропластичность мозга постоянно вносила свои коррективы в процесс "мэппинга".
На мне был надет нейроинтерфейс «мозг-компьютер» Emotiv Epoc — 14-канальная ЭЭГ-гарнитура, регистрирующая электрическую активность мозга. С её помощью я "управлял" всем визуалом, который проецировался на главном танцполе.
Совершенно неосознанно я выбрал образом для выступления робота EVA-01 из аниме "Neon Genesis Evangelion". Как и главному герою аниме, Икари Синдзи, мне предстояло взять на себя управление этим огромным роботом 🤖.
Благодаря встроенному гироскопу все движения моей головы в реальном времени передавались на 3D-модель в #touchdesigner. Но привязать конкретные мысли к действиям персонажа было непросто (за исключением анимации лазеров из глаз, которые я запускал с помощью "секретного" действия 😏). Для точного контроля требовалось состояние, близкое к медитации, что под техно-музыку оказалось не так просто 😬. К тому же нейропластичность мозга постоянно вносила свои коррективы в процесс "мэппинга".
⚡6🔥6❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Фейковая каустика в #houdini
Cохраняем в ripple солвере поля велосити, забираем их в новый коп нетворк, чтобы скормить всё, честно украденному с сайта shadertoy, коду)
В рендере светим этой текстурой через гобо фильтр в лампочке.
(файл проекта, в комментах)
Cохраняем в ripple солвере поля велосити, забираем их в новый коп нетворк, чтобы скормить всё, честно украденному с сайта shadertoy, коду)
В рендере светим этой текстурой через гобо фильтр в лампочке.
(файл проекта, в комментах)
🔥14👍2❤1