Media is too big
VIEW IN TELEGRAM
FantasyTalking: Realistic Talking Portrait Generation via Coherent Motion Synthesis
Говорящий аватар / оживлятор портретов от Alibaba с контролем интенсивности движения. работает с разными крупностями кадра и позами, с разными типами персонажей
Сравнение с конкурентами впечатляет.
Построен на базе Wan2.1
Код
#portraitanimation #image2video #speech2video #humananimation #lipsync #talkinghead
Говорящий аватар / оживлятор портретов от Alibaba с контролем интенсивности движения. работает с разными крупностями кадра и позами, с разными типами персонажей
Сравнение с конкурентами впечатляет.
Построен на базе Wan2.1
Код
#portraitanimation #image2video #speech2video #humananimation #lipsync #talkinghead
VideoX-Fun
Метод, давший нам CogVideoX-Fun прикрутили к WAN2.1. Получился Wan2.1-Fun-V1.1 - Поддерживает модели 14B and 1.3B Control и Reference Image
По ссылке в заголовке пролистните вниз, там много примеров
Веса Wan2.1-Fun-V1.1
Демо
#image2video
Метод, давший нам CogVideoX-Fun прикрутили к WAN2.1. Получился Wan2.1-Fun-V1.1 - Поддерживает модели 14B and 1.3B Control и Reference Image
По ссылке в заголовке пролистните вниз, там много примеров
Веса Wan2.1-Fun-V1.1
Демо
#image2video
GitHub
GitHub - aigc-apps/VideoX-Fun: 📹 A more flexible framework that can generate videos at any resolution and creates videos from images.
📹 A more flexible framework that can generate videos at any resolution and creates videos from images. - GitHub - aigc-apps/VideoX-Fun: 📹 A more flexible framework that can generate videos at any ...
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
RealisDance: Equip controllable character animation with realistic hands
Оживлятор персонажей по образцу движения. Для богопротивных тиктоков должно подойти.
Но как же хорошо выглядят их видео, при том что файлам в репозитории уже по 5-7 месяцев. Я даже сомневаюсь что это мне показывают результаты, а не образцы движения
Умеет делать взаимодествие с предметами, стилизацию, необычные позы, сложные жесты и мультиперсонажку - есть примеры анимации двух персонажей
Позы и исходные картинки кодируются Wan-2.1 VAE
В коде ссылки на Open-Animate Anyone, Moore-Animate Anyone, MusePose.
Код
#image2video #humananimation #characteranimation #pose2video
Оживлятор персонажей по образцу движения. Для богопротивных тиктоков должно подойти.
Но как же хорошо выглядят их видео, при том что файлам в репозитории уже по 5-7 месяцев. Я даже сомневаюсь что это мне показывают результаты, а не образцы движения
Умеет делать взаимодествие с предметами, стилизацию, необычные позы, сложные жесты и мультиперсонажку - есть примеры анимации двух персонажей
Позы и исходные картинки кодируются Wan-2.1 VAE
В коде ссылки на Open-Animate Anyone, Moore-Animate Anyone, MusePose.
Код
#image2video #humananimation #characteranimation #pose2video
Gen-4 References
Новая функция доступна в Runway платным подписанам.
Видео по референсу.
Консистентные персонажи, стиль, окружение.
#personalization #referencing #image2video #text2video
Новая функция доступна в Runway платным подписанам.
Видео по референсу.
Консистентные персонажи, стиль, окружение.
#personalization #referencing #image2video #text2video
This media is not supported in your browser
VIEW IN TELEGRAM
Phantom
Видео по референсу, дождались, ответ Bytedance (WAN) на Gen-4 References
Теперь эта функция в опенсорсе!
Веса fp16/fp32
Гитхаб
workflow
#personalization #referencing #image2video #text2video #workflow
Видео по референсу, дождались, ответ Bytedance (WAN) на Gen-4 References
Теперь эта функция в опенсорсе!
Веса fp16/fp32
Гитхаб
workflow
#personalization #referencing #image2video #text2video #workflow
FramePack-F1
Новая модель народного видеогенератора
F1 означает forward pass, модель предсказывает только будущие кадры. Также, модель обучена не накапливать ошибки.
Легче двигается камера, динамичность повысилась
FP-Studio есть в Pinokio в Community Scripts
Веса
Гитхаб
#image2video
Новая модель народного видеогенератора
F1 означает forward pass, модель предсказывает только будущие кадры. Также, модель обучена не накапливать ошибки.
Легче двигается камера, динамичность повысилась
FP-Studio есть в Pinokio в Community Scripts
Веса
Гитхаб
#image2video
Telegram
Нейронавт | Нейросети в творчестве
FramePack
Метод генерации длинных (1000+ кадров) видео от звезды опенсорсных моделей lllyasviel
480p @ 30 FPS на 6 ГБ VRAM, Hunyuan 13B
Поддерживает PyTorch, xformers, flash-attn, sage-attention
Ждем однокликовый установщик для Windows, возможно даже…
Метод генерации длинных (1000+ кадров) видео от звезды опенсорсных моделей lllyasviel
480p @ 30 FPS на 6 ГБ VRAM, Hunyuan 13B
Поддерживает PyTorch, xformers, flash-attn, sage-attention
Ждем однокликовый установщик для Windows, возможно даже…
Нейронавт | Нейросети в творчестве
FramePack-F1 Новая модель народного видеогенератора F1 означает forward pass, модель предсказывает только будущие кадры. Также, модель обучена не накапливать ошибки. Легче двигается камера, динамичность повысилась FP-Studio есть в Pinokio в Community Scripts…
А вот в FramePack Studio уже прикрутили F1
Помимо этого поддерживает промпты с таймкодами и ряд обновок есть:
- Можно задать время мягкого перехода между промптами
- Базовая поддержка LoRa: работает с большинством (всеми?) hunyuan LoRa
- Система очереди: очередь заданий не блокирует интерфейс
- Сохранение / импорт метаданных: промпт и начальные данные кодируются в выходной файл PNG, все остальные метаданные поколения сохраняются в файле JSON
- I2V и T2V: работает как с входным изображением, так и без него, что обеспечивает большую гибкость при работе со стандартными LoRA.
- Опции латентного изображения: При использовании T2V вы можете генерировать изображение на основе черного, белого, зеленого экрана или чистого шума.
Гитхаб
#image2video #text2video
Помимо этого поддерживает промпты с таймкодами и ряд обновок есть:
- Можно задать время мягкого перехода между промптами
- Базовая поддержка LoRa: работает с большинством (всеми?) hunyuan LoRa
- Система очереди: очередь заданий не блокирует интерфейс
- Сохранение / импорт метаданных: промпт и начальные данные кодируются в выходной файл PNG, все остальные метаданные поколения сохраняются в файле JSON
- I2V и T2V: работает как с входным изображением, так и без него, что обеспечивает большую гибкость при работе со стандартными LoRA.
- Опции латентного изображения: При использовании T2V вы можете генерировать изображение на основе черного, белого, зеленого экрана или чистого шума.
Гитхаб
#image2video #text2video
Media is too big
VIEW IN TELEGRAM
TesserAct: Learning 4D Embodied World Models
Модель предсказывает развитие событий в 3D сцене по входному изображению и текстовому промпту, описывающему действие. На выходе видео RGB + глубина и нормали.
За глубину отвечает Marigold, обещают прикрутить NormalCrafter
Код
Веса
#imageto4d #4d #image2video #image2scene #image2normal #image2depth
Модель предсказывает развитие событий в 3D сцене по входному изображению и текстовому промпту, описывающему действие. На выходе видео RGB + глубина и нормали.
За глубину отвечает Marigold, обещают прикрутить NormalCrafter
Код
Веса
#imageto4d #4d #image2video #image2scene #image2normal #image2depth
This media is not supported in your browser
VIEW IN TELEGRAM
LTX VIDEO-13B
Выложили веса модели видеогенератора с 13B параметров
ltxv-13b-0.9.7-dev и
ltxv-13b-0.9.7-dev-fp8
FP8 должен завестись на 4090
HF
Гитхаб
ComfyUI
Попробовать на офсайте - притворитесь что вы не в РФ
#text2video #image2video
Выложили веса модели видеогенератора с 13B параметров
ltxv-13b-0.9.7-dev и
ltxv-13b-0.9.7-dev-fp8
FP8 должен завестись на 4090
HF
Гитхаб
ComfyUI
Попробовать на офсайте - притворитесь что вы не в РФ
#text2video #image2video
Heygen Avatar IV
Сервис Heygen запустил обновленную функцию оживления портретов.
Достаточно закинуть фото и текст.
А также создали MCP сервер
Доки
Гитхаб
#postrainanimation #lipsync #text2speech #tts #image2video #mcp
Сервис Heygen запустил обновленную функцию оживления портретов.
Достаточно закинуть фото и текст.
А также создали MCP сервер
Доки
Гитхаб
#postrainanimation #lipsync #text2speech #tts #image2video #mcp