В прошлом году я принял участие в создании генеративной графики для нового арт-пространства на ВДНХ.
Спасибо и респект команде RADUGADESIGN!
Всю презентацию можете посмотреть на Behance
Но лучше сходите посмотрите вживую здесь!
#touchdesigner ❤️
Спасибо и респект команде RADUGADESIGN!
Всю презентацию можете посмотреть на Behance
Но лучше сходите посмотрите вживую здесь!
#touchdesigner ❤️
🔥9
BTW*
Новый год я начал с того, что завел себе репозиторий на гитхабе для бэкапа проектов гудини и нюка.
Чтобы исключить все остальное собержимое, в репозиторий можно добавить файл .gitignore со следующим текстом
В конце рабочего дня я просто отправляю коммит (описание того что сделал в том или ином файле) и теперь могу откатиться к любой версии (бэкапы на локалхосте никуда не делись, их я просто игнорирую)
* by the way (англ.) - кстати
Новый год я начал с того, что завел себе репозиторий на гитхабе для бэкапа проектов гудини и нюка.
Чтобы исключить все остальное собержимое, в репозиторий можно добавить файл .gitignore со следующим текстом
# Игнорировать все файлы
*
# Исключить файлы с расширением .hip
!*.hiplc
!*.hip
!*.hipnc
!*.nk
# Исключить подпапки и их содержимое
!*/
backup/
.backup/
В конце рабочего дня я просто отправляю коммит (описание того что сделал в том или ином файле) и теперь могу откатиться к любой версии (бэкапы на локалхосте никуда не делись, их я просто игнорирую)
* by the way (англ.) - кстати
🔥7❤3👍2🤯2
Сетевой червь ч.4
Нет, речь не про вредоносное ПО, а про скайнет.
Давече мне понадобилось нагенерить 4к карты глубины (depth map). Я нашел супер точный алгоритм с темпоральнымдождём сглаживанием под названием DepthCrafter (рис.1) я использовал его в #comfyUI. Всё бы ничего, но 24Гб видеопамяти улетают мгновенно.
В том же комфи у меня давным давно пылился depthAnythingV2 (рис. 2), он конечно и быстрей и в 4к выдает более детализированный резульатат, но кипит если кидаешь в него анимацию.
Таким образом я пришел к оптимальному варианту под названием Video Depth Anything (рис.3) это алгоритм на базе depthAnythingV2 только под анимацию.
и чтобы он жрал всю видеопамять ему надо это разрешить при помощи команды
Все сравнительные тесты всех трёх вариантов есть на их сайтах.
#ml #ai #depth
Нет, речь не про вредоносное ПО, а про скайнет.
Давече мне понадобилось нагенерить 4к карты глубины (depth map). Я нашел супер точный алгоритм с темпоральным
В том же комфи у меня давным давно пылился depthAnythingV2 (рис. 2), он конечно и быстрей и в 4к выдает более детализированный резульатат, но кипит если кидаешь в него анимацию.
Таким образом я пришел к оптимальному варианту под названием Video Depth Anything (рис.3) это алгоритм на базе depthAnythingV2 только под анимацию.
и чтобы он жрал всю видеопамять ему надо это разрешить при помощи команды
export PYTORCH_CUDA_ALLOC_CONF=expandable_segments:TrueВсе сравнительные тесты всех трёх вариантов есть на их сайтах.
#ml #ai #depth
🔥7
Чуть не забыл про маски.
Здесь всё рассказано
Установка данной тулзы для #comfyui такой какой одна должна быть! (без всяких там пип инсталлов и прочего)
#ml #ai #roto
Здесь всё рассказано
Установка данной тулзы для #comfyui такой какой одна должна быть! (без всяких там пип инсталлов и прочего)
#ml #ai #roto
Мелочь, а приятно.
Добавляем команду для конвертации видео прямо в файловый менеджер (в моем случае это Dolphin)
Файл с именем
А внутри код:
Можно добавить любые пресеты с любыми кодеками и тд. здесь уже от фантазии зависит.
#linux #ffmpeg
Добавляем команду для конвертации видео прямо в файловый менеджер (в моем случае это Dolphin)
Файл с именем
ffmpeg.desktop должен лежать здесь: /home/<username>/.local/share/kservices5/ServiceMenus/ А внутри код:
[Desktop Entry]
Type=Service
ServiceTypes=KonqPopupMenu/Plugin
MimeType=video/*;
Actions=convert_to_mov;
X-KDE-Priority=TopLevel
Icon=video-x-generic
X-KDE-Submenu=FFMPEG
[Desktop Action convert_to_mov]
Name=Convert to MOV (MJPEG)
Icon=video-x-generic
Exec=konsole -e bash -c 'input="%f"; output="$(dirname "$input")/$(basename "$input" .mp4).mov"; ffmpeg -i "$input" -vcodec mjpeg -q:v 2 -acodec pcm_s16be -q:a 0 -f mov "$output" || exec bash'
Можно добавить любые пресеты с любыми кодеками и тд. здесь уже от фантазии зависит.
#linux #ffmpeg
🔥5👍1
10 лет назад я выступил с визуальным перформансом на первом фестивале INTERVALS в Нижнем Новгороде.
На мне был надет нейроинтерфейс «мозг-компьютер» Emotiv Epoc — 14-канальная ЭЭГ-гарнитура, регистрирующая электрическую активность мозга. С её помощью я "управлял" всем визуалом, который проецировался на главном танцполе.
Совершенно неосознанно я выбрал образом для выступления робота EVA-01 из аниме "Neon Genesis Evangelion". Как и главному герою аниме, Икари Синдзи, мне предстояло взять на себя управление этим огромным роботом 🤖.
Благодаря встроенному гироскопу все движения моей головы в реальном времени передавались на 3D-модель в #touchdesigner. Но привязать конкретные мысли к действиям персонажа было непросто (за исключением анимации лазеров из глаз, которые я запускал с помощью "секретного" действия 😏). Для точного контроля требовалось состояние, близкое к медитации, что под техно-музыку оказалось не так просто 😬. К тому же нейропластичность мозга постоянно вносила свои коррективы в процесс "мэппинга".
На мне был надет нейроинтерфейс «мозг-компьютер» Emotiv Epoc — 14-канальная ЭЭГ-гарнитура, регистрирующая электрическую активность мозга. С её помощью я "управлял" всем визуалом, который проецировался на главном танцполе.
Совершенно неосознанно я выбрал образом для выступления робота EVA-01 из аниме "Neon Genesis Evangelion". Как и главному герою аниме, Икари Синдзи, мне предстояло взять на себя управление этим огромным роботом 🤖.
Благодаря встроенному гироскопу все движения моей головы в реальном времени передавались на 3D-модель в #touchdesigner. Но привязать конкретные мысли к действиям персонажа было непросто (за исключением анимации лазеров из глаз, которые я запускал с помощью "секретного" действия 😏). Для точного контроля требовалось состояние, близкое к медитации, что под техно-музыку оказалось не так просто 😬. К тому же нейропластичность мозга постоянно вносила свои коррективы в процесс "мэппинга".
⚡6🔥6❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Фейковая каустика в #houdini
Cохраняем в ripple солвере поля велосити, забираем их в новый коп нетворк, чтобы скормить всё, честно украденному с сайта shadertoy, коду)
В рендере светим этой текстурой через гобо фильтр в лампочке.
(файл проекта, в комментах)
Cохраняем в ripple солвере поля велосити, забираем их в новый коп нетворк, чтобы скормить всё, честно украденному с сайта shadertoy, коду)
В рендере светим этой текстурой через гобо фильтр в лампочке.
(файл проекта, в комментах)
🔥14👍2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Водападаюсь здесь
Фейковую каустику я прикрутил в эту сцену ещё вчера.
Сегодня примеряем текстурки камней.
Будем изучать Apex Rigging (но это не точно)
Фейковую каустику я прикрутил в эту сцену ещё вчера.
Сегодня примеряем текстурки камней.
Будем изучать Apex Rigging (но это не точно)
🔥13❤🔥4👍1
2025 год, самое время завести себе тик-ток 😅 (буду туда выкладывать только мейкинг-офы)
https://www.tiktok.com/@andrey.flat
https://www.tiktok.com/@andrey.flat
❤6😱2👍1🔥1
😐 ~4166 иконок используемых в #houdini
Думал в гудини через imagemagick собрать в top'ах...
но на практике python скрипт (любезно предоставленный чатомгпт😏) собирает всю эту кучу в видос за считаные секунды.
А как бы ты сделал? 😎
https://www.youtube.com/shorts/R0VqFz1wugg
для тик-ток инджоеров здесь)
Думал в гудини через imagemagick собрать в top'ах...
но на практике python скрипт (любезно предоставленный чатомгпт😏) собирает всю эту кучу в видос за считаные секунды.
А как бы ты сделал? 😎
https://www.youtube.com/shorts/R0VqFz1wugg
для тик-ток инджоеров здесь)
YouTube
#houdini
Ever wondered how many things are in Houdini?The number doesn’t matter.Your journey just started.
1🔥7