Нейронавт | Нейросети в творчестве
8.65K subscribers
3.15K photos
2.6K videos
36 files
3.53K links
Канал про нейросети в компьютерной графике, в кино и вообще

В папках не участвую

для связи @Neuronauticus
Download Telegram
Media is too big
VIEW IN TELEGRAM
FantasyTalking: Realistic Talking Portrait Generation via Coherent Motion Synthesis

Говорящий аватар / оживлятор портретов от Alibaba с контролем интенсивности движения. работает с разными крупностями кадра и позами, с разными типами персонажей

Сравнение с конкурентами впечатляет.

Построен на базе Wan2.1

Код

#portraitanimation #image2video #speech2video #humananimation #lipsync #talkinghead
RealisDance: Equip controllable character animation with realistic hands

Оживлятор персонажей по образцу движения. Для богопротивных тиктоков должно подойти.

Но как же хорошо выглядят их видео, при том что файлам в репозитории уже по 5-7 месяцев. Я даже сомневаюсь что это мне показывают результаты, а не образцы движения

Умеет делать взаимодествие с предметами, стилизацию, необычные позы, сложные жесты и мультиперсонажку - есть примеры анимации двух персонажей

Позы и исходные картинки кодируются Wan-2.1 VAE

В коде ссылки на Open-Animate Anyone, Moore-Animate Anyone, MusePose.

Код

#image2video #humananimation #characteranimation #pose2video
FramePack-F1

Новая модель народного видеогенератора

F1 означает forward pass, модель предсказывает только будущие кадры. Также, модель обучена не накапливать ошибки.
Легче двигается камера, динамичность повысилась

FP-Studio есть в Pinokio в Community Scripts

Веса
Гитхаб

#image2video
Нейронавт | Нейросети в творчестве
FramePack-F1 Новая модель народного видеогенератора F1 означает forward pass, модель предсказывает только будущие кадры. Также, модель обучена не накапливать ошибки. Легче двигается камера, динамичность повысилась FP-Studio есть в Pinokio в Community Scripts…
А вот в FramePack Studio уже прикрутили F1

Помимо этого поддерживает промпты с таймкодами и ряд обновок есть:

- Можно задать время мягкого перехода между промптами
- Базовая поддержка LoRa: работает с большинством (всеми?) hunyuan LoRa
- Система очереди: очередь заданий не блокирует интерфейс
- Сохранение / импорт метаданных: промпт и начальные данные кодируются в выходной файл PNG, все остальные метаданные поколения сохраняются в файле JSON
- I2V и T2V: работает как с входным изображением, так и без него, что обеспечивает большую гибкость при работе со стандартными LoRA.
- Опции латентного изображения: При использовании T2V вы можете генерировать изображение на основе черного, белого, зеленого экрана или чистого шума.

Гитхаб

#image2video #text2video
Media is too big
VIEW IN TELEGRAM
TesserAct: Learning 4D Embodied World Models

Модель предсказывает развитие событий в 3D сцене по входному изображению и текстовому промпту, описывающему действие. На выходе видео RGB + глубина и нормали.

За глубину отвечает Marigold, обещают прикрутить NormalCrafter

Код
Веса

#imageto4d #4d #image2video #image2scene #image2normal #image2depth
This media is not supported in your browser
VIEW IN TELEGRAM
LTX VIDEO-13B

Выложили веса модели видеогенератора с 13B параметров
ltxv-13b-0.9.7-dev и
ltxv-13b-0.9.7-dev-fp8
FP8 должен завестись на 4090

HF
Гитхаб
ComfyUI
Попробовать на офсайте - притворитесь что вы не в РФ

#text2video #image2video
Heygen Avatar IV

Сервис Heygen запустил обновленную функцию оживления портретов.

Достаточно закинуть фото и текст.

А также создали MCP сервер

Доки
Гитхаб

#postrainanimation #lipsync #text2speech #tts #image2video #mcp