flat space
371 subscribers
75 photos
13 videos
38 links
small space in the huge universe
Download Telegram
Интересное в сети (часть 3)
Video2x (ссылка на гитхаб) (рис. 1) оупенсорсный кросс-платформеный проект для апреза и интерполяции любых форматов (в рамках разумного)

+
Загружает и сиквенции и мп4 и мув.
Декодирует сразу в любой кодек который есть в ffmpeg.
Очень быстрый.
Проект живой, есть телеграм канал, разраб даже скомпилил для меня спешл билд)
Идеально подходит для интерполяции при помощи модели RIFE и записи в кодек по тз.

-
Нет кастомных моделей (точнее их надо конвертировать в бинарные)
Апскейл модели в основном для аниме ^_^
Но Realersgan plus x4 - хорош
Метаверсище и ИИще
Удалить фон для 10 000 картинок? Нюк не нужен. Адобченко бахнул простенький инструмент для пакетного удаления фонов и, по дороге, ресайза. Bulk Create запущен в бета-версию сегодня и разделен на два отдельных инструмента в веб-приложении Adobe Firefly: "Удалить…
Абоба кстати тоже не нужна.

В папке может быть любое кол-во файлов. С картинки 1920х1920 удаляет фон за 0.14s

Ресайзить, композить, пересохранять, всё это можно сделать в chaiNNer, о котором я сегодня писал.
3
Наконец-то дошли руки до CopyCat в нюке!
Попробовал натренировать на своём рендере апререз х4, из 480х270 в фуллхд (рис.1).
Без понятия сколько нужно итераций (epochs) чтобы получить нормальный результат. Видимо х4 это предел мечтаний.

К х2 апскейлу, практически нет вопросов, на первый взгляд не отличить от оригинала (рис.2) при 20к эпох (6 минут тренировки) очень достойных результат. Но в 2к25 х2 апскейлом уже никого не удивить.

Скорей всего, надо тренировать последовательно по х2 от предыдущего разрешения, тогда в теории сможем получить х4-хN результат.

Но кто в продакшене будет заморачиваться с рендером инкримент сиквенции, композить её, тренировать, интерферировать и в итоге прийти к
выводу - Миша это всё фигня, давай заново (отправляй хайрез на ферму)
Дереволаз здесь
🔥91
В прошлом году я принял участие в создании генеративной графики для нового арт-пространства на ВДНХ.

Спасибо и респект команде RADUGADESIGN!

Всю презентацию можете посмотреть на Behance

Но лучше сходите посмотрите вживую здесь!

#touchdesigner ❤️
🔥9
BTW*

Новый год я начал с того, что завел себе репозиторий на гитхабе для бэкапа проектов гудини и нюка.

Чтобы исключить все остальное собержимое, в репозиторий можно добавить файл .gitignore со следующим текстом

# Игнорировать все файлы
*

# Исключить файлы с расширением .hip
!*.hiplc
!*.hip
!*.hipnc
!*.nk

# Исключить подпапки и их содержимое
!*/
backup/
.backup/


В конце рабочего дня я просто отправляю коммит (описание того что сделал в том или ином файле) и теперь могу откатиться к любой версии (бэкапы на локалхосте никуда не делись, их я просто игнорирую)

* by the way (англ.) - кстати
🔥73👍2🤯2
Сетевой червь ч.4

Нет, речь не про вредоносное ПО, а про скайнет.

Давече мне понадобилось нагенерить 4к карты глубины (depth map). Я нашел супер точный алгоритм с темпоральным дождём сглаживанием под названием DepthCrafter (рис.1) я использовал его в #comfyUI. Всё бы ничего, но 24Гб видеопамяти улетают мгновенно.
В том же комфи у меня давным давно пылился depthAnythingV2 (рис. 2), он конечно и быстрей и в 4к выдает более детализированный резульатат, но кипит если кидаешь в него анимацию.
Таким образом я пришел к оптимальному варианту под названием Video Depth Anything (рис.3) это алгоритм на базе depthAnythingV2 только под анимацию.
и чтобы он жрал всю видеопамять ему надо это разрешить при помощи команды export PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True

Все сравнительные тесты всех трёх вариантов есть на их сайтах.

#ml #ai #depth
🔥7
Чуть не забыл про маски.

Здесь всё рассказано

Установка данной тулзы для #comfyui такой какой одна должна быть! (без всяких там пип инсталлов и прочего)

#ml #ai #roto
Мелочь, а приятно.

Добавляем команду для конвертации видео прямо в файловый менеджер (в моем случае это Dolphin)

Файл с именем ffmpeg.desktop должен лежать здесь: /home/<username>/.local/share/kservices5/ServiceMenus/

А внутри код:
[Desktop Entry]
Type=Service
ServiceTypes=KonqPopupMenu/Plugin
MimeType=video/*;
Actions=convert_to_mov;
X-KDE-Priority=TopLevel
Icon=video-x-generic
X-KDE-Submenu=FFMPEG

[Desktop Action convert_to_mov]
Name=Convert to MOV (MJPEG)
Icon=video-x-generic
Exec=konsole -e bash -c 'input="%f"; output="$(dirname "$input")/$(basename "$input" .mp4).mov"; ffmpeg -i "$input" -vcodec mjpeg -q:v 2 -acodec pcm_s16be -q:a 0 -f mov "$output" || exec bash'


Можно добавить любые пресеты с любыми кодеками и тд. здесь уже от фантазии зависит.

#linux #ffmpeg
🔥5👍1
Стрим по Houdini Mardini здесь
👍5🔥1
10 лет назад я выступил с визуальным перформансом на первом фестивале INTERVALS в Нижнем Новгороде.

На мне был надет нейроинтерфейс «мозг-компьютер» Emotiv Epoc — 14-канальная ЭЭГ-гарнитура, регистрирующая электрическую активность мозга. С её помощью я "управлял" всем визуалом, который проецировался на главном танцполе.

Совершенно неосознанно я выбрал образом для выступления робота EVA-01 из аниме "Neon Genesis Evangelion". Как и главному герою аниме, Икари Синдзи, мне предстояло взять на себя управление этим огромным роботом 🤖.

Благодаря встроенному гироскопу все движения моей головы в реальном времени передавались на 3D-модель в #touchdesigner. Но привязать конкретные мысли к действиям персонажа было непросто (за исключением анимации лазеров из глаз, которые я запускал с помощью "секретного" действия 😏). Для точного контроля требовалось состояние, близкое к медитации, что под техно-музыку оказалось не так просто 😬. К тому же нейропластичность мозга постоянно вносила свои коррективы в процесс "мэппинга".
6🔥61
This media is not supported in your browser
VIEW IN TELEGRAM
Фейковая каустика в #houdini

Cохраняем в ripple солвере поля велосити, забираем их в новый коп нетворк, чтобы скормить всё, честно украденному с сайта shadertoy, коду)

В рендере светим этой текстурой через гобо фильтр в лампочке.

(файл проекта, в комментах)
🔥14👍21
This media is not supported in your browser
VIEW IN TELEGRAM
Водападаюсь здесь

Фейковую каустику я прикрутил в эту сцену ещё вчера.

Сегодня примеряем текстурки камней.
Будем изучать Apex Rigging (но это не точно)
🔥13❤‍🔥4👍1
2025 год, самое время завести себе тик-ток 😅 (буду туда выкладывать только мейкинг-офы)

https://www.tiktok.com/@andrey.flat
6😱2👍1🔥1
😐 ~4166 иконок используемых в #houdini

Думал в гудини через imagemagick собрать в top'ах...
но на практике python скрипт (любезно предоставленный чатомгпт😏) собирает всю эту кучу в видос за считаные секунды.

А как бы ты сделал? 😎

https://www.youtube.com/shorts/R0VqFz1wugg

для тик-ток инджоеров здесь)
1🔥7
SPEEDRUN по FMX про #houdini здесь 😎
👍1🔥1