Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Хер знает сколько времени уже тестим разные воркфлоу для генерации видео.
Начали получать более менее хорошие результаты. Я очень вдохновился Корридорами, где они с помощью анимейт див годичной давности, смогли сделать более менее стабильное изображение.
Конечно не без кучи композа. Изображение у них на выходе получалось супер отвратное, нужно было все деноизить по пикселям.
Вот эти кадры в посте мы получили снимая на айфон, в супер херовом освещении. Вся картинка рябит, Depth сработал очень криво.
Если снимаете видео для будущей генерации, используйте хорошее освещение и не ставьте преграды перед собой. Любая пыль, сколы, трещины на стекле, сразу хавается программой и за место чистого стекла вы будете получать млечный путь, епта.
Можно это дело перевести в капли дождя конечно, но все же.
С помощью хорошей информации о Depth (Глубине). Можно композить весь видос в AE-шке. Или где вы сейчас там сидите.
В остальном, что самое прикольное - тестим редактор уже сгенерированных видео, чтобы убрать проблемы с руками и артефактами.
А на посте можно легко накладывать нужный фон, чтобы с разных ракурсов не получать то Нью-Йорк, то Новоебенева.
Дальше наложим на дипфейк и скину результаты.
Начали получать более менее хорошие результаты. Я очень вдохновился Корридорами, где они с помощью анимейт див годичной давности, смогли сделать более менее стабильное изображение.
Конечно не без кучи композа. Изображение у них на выходе получалось супер отвратное, нужно было все деноизить по пикселям.
Вот эти кадры в посте мы получили снимая на айфон, в супер херовом освещении. Вся картинка рябит, Depth сработал очень криво.
Если снимаете видео для будущей генерации, используйте хорошее освещение и не ставьте преграды перед собой. Любая пыль, сколы, трещины на стекле, сразу хавается программой и за место чистого стекла вы будете получать млечный путь, епта.
Можно это дело перевести в капли дождя конечно, но все же.
С помощью хорошей информации о Depth (Глубине). Можно композить весь видос в AE-шке. Или где вы сейчас там сидите.
В остальном, что самое прикольное - тестим редактор уже сгенерированных видео, чтобы убрать проблемы с руками и артефактами.
А на посте можно легко накладывать нужный фон, чтобы с разных ракурсов не получать то Нью-Йорк, то Новоебенева.
Дальше наложим на дипфейк и скину результаты.
✍4❤1
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
Закидывайте свои 3D и нейросетевые работы сюда!)
В КОММЕНТЫ. Желательно видосики. Картинки смотрятся не так хорошо в видосе)
Закину их в конец выпуска, успевайте!)
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
Мы заколлабились со студией "
3 уровня сложности - 3 первых места.
100.000 р. - Пре-Шоу к аттракциону - "Лифт времени и пространства".
70.000 р. - Шоу - для музейной экспозиции в замке.
30.000 р. - Эмбиент-видео для мультимедийной выставки.
ВИЖУ создаёт мультимедийные проекты для музеев, выставок и пространств, с полным циклом работ — от идеи и разработки концепции до создания контента, закупки оборудования и застройки.
Дядьки мощные, готовы вкидывать финансы на развитие 3D пространства.
Подробно о студии вы можете прочитать здесь.
Все работы будем оценивать в конце конкурса на стриме и следом объявим победителей.
Судить будут:
Антон FAKBOITONY - Лид JCenterS
Артур Устименко - Unreal Engine Гуру
Vladimir Demekhin - Арт-директор "ВИЖУ"
Основатели студии "ВИЖУ"
КОНКУРС ЗАКОНЧИТСЯ 15 ФЕВРАЛЯ 2025 года. И в это же время подведем итоги!
Для всех, кто хочет участвовать переходим сюда!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤🔥1❤1
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
https://youtu.be/aNsyiYPBOOA
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
CG НОВОСТИ. BLENDER. Redshift. ADOBE Substance. UNIGINE. Mocha
КОНКУРС НА 200.000 р. : https://t.me/JCenterSCourse/4570
Сегодня у нас:
Genesis — физический 3D движок, ускоряющий симуляции в 1000 раз.
Blender теперь для аниме.
Mocha Pro 2025: ИИ для ротоскопа.
Redshift 2025.2: обновления для рендера и GPU-денойзинга.…
Сегодня у нас:
Genesis — физический 3D движок, ускоряющий симуляции в 1000 раз.
Blender теперь для аниме.
Mocha Pro 2025: ИИ для ротоскопа.
Redshift 2025.2: обновления для рендера и GPU-денойзинга.…
❤3❤🔥3🔥2
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
Потестили свежие модели генераторов видео и единственное, что сейчас работает более менее, это COG. 🐔
Остальные модели генерят - че попало.
В нем нельзя привязать миллион настроек, но это бесплатно и рендерит 5 секунд с разрешением в 762px на 432px. Рендерит примерно за 2-3 минуты на RTX 4080. После 3-4 генераций кеш забивается на столько, что нужно перезагружать комп.
Но пацаны у себя генерят на RTX 3070 за 5-6 минут.
🔩 Пайплайн такой:
Но для качества нужно пройтись апскейлером и еще тонну пост-обработки в AE. То фон плывет, то пальцы мажет. Лица вообще пока до свидания. Поэтому тут больше композ учить надо, нежели нейронки) Но я для видоса заморочусь, самому интересно))
Ну и опять же, то что вы видите у Ранвея, Соры и т.д. - это очень мощные сервера. Через которые прогоняются ваши запросы. У вас таких серверов дома нет. Как и ни у кого кроме крупных компаний.
Контролировать изображение в этих сервисах невозможно от слова - СОВСЕМ. Вы в каждом кадре будете получать другое изображение.
Если на посте хорошенько поковыряться (особенно имея Depth of field), можно сделать что-то оч веселенькое)) Для короткометражек, особенно для пре-продакшена начинает помогать.
💻 P.S. Если интересно как делать, кидайте голоса на премку, чтобы можно было анимированный 💩 ставить под постом( 😂
Ну и урок запишу с воркфлоу на канал)
Остальные модели генерят - че попало.
В нем нельзя привязать миллион настроек, но это бесплатно и рендерит 5 секунд с разрешением в 762px на 432px. Рендерит примерно за 2-3 минуты на RTX 4080. После 3-4 генераций кеш забивается на столько, что нужно перезагружать комп.
Но пацаны у себя генерят на RTX 3070 за 5-6 минут.
Загружаете отснятое видео в воркфлоу COG на ComfyUI, модель генерит глубину с каждого кадра и по этой глубине - начинает генерить промпт который вы написали. Грубо говоря)
Можно выводить Canny (линии) и делать по ним, в место глубины. Но вот вместе они не работают пока.
Но для качества нужно пройтись апскейлером и еще тонну пост-обработки в AE. То фон плывет, то пальцы мажет. Лица вообще пока до свидания. Поэтому тут больше композ учить надо, нежели нейронки) Но я для видоса заморочусь, самому интересно))
Ну и опять же, то что вы видите у Ранвея, Соры и т.д. - это очень мощные сервера. Через которые прогоняются ваши запросы. У вас таких серверов дома нет. Как и ни у кого кроме крупных компаний.
Контролировать изображение в этих сервисах невозможно от слова - СОВСЕМ. Вы в каждом кадре будете получать другое изображение.
Если на посте хорошенько поковыряться (особенно имея Depth of field), можно сделать что-то оч веселенькое)) Для короткометражек, особенно для пре-продакшена начинает помогать.
Ну и урок запишу с воркфлоу на канал)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10❤🔥1🔥1
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
Media is too big
VIEW IN TELEGRAM
Дэнчик Рябов!
Работал с крупнейшими студиями СНГ: CGF и Dobro, сейчас в Trehmer.
Участвовал в крупных проектах, таких как Lego, Immutable, в фильмах «100 лет тому вперед» и «Огниво».
Специализируется на создании сложных визуальных эффектов для кино. Работает в🛸 Houdini и 🟠 Nuke
Сейчас то самое время, когда все ленятся и не могут подняться со своей кровати в апатии))
Поэтому я пригласил Денчика, чтобы он рассказал "Почему 3D — это боль, но мы всё равно его любим". И пообщаться чтобы поддержать друг друга и поделится информацией:
✅ Почему до сих пор нет кнопки "Сделать красиво".
✅ Неправильный рендер в 3 часа ночи перед дедлайном.
✅ Как победить свой перфекционизм.
✅ Нелепые комментарии от заказчиков. Как справится с этой болью.
✅ Простые советы которые улучшить не улучшаемое в своей работе.
✅ И конечно же как не перегореть оставляя 3D - хобби, а не рутинной работой.
📆 15 Января Стрим, эксклюзивно для конкурса ВИЖУ x JCENTERS
Портфель BEHANCE👈
Работал с крупнейшими студиями СНГ: CGF и Dobro, сейчас в Trehmer.
Участвовал в крупных проектах, таких как Lego, Immutable, в фильмах «100 лет тому вперед» и «Огниво».
Специализируется на создании сложных визуальных эффектов для кино. Работает в
Сейчас то самое время, когда все ленятся и не могут подняться со своей кровати в апатии))
Поэтому я пригласил Денчика, чтобы он рассказал "Почему 3D — это боль, но мы всё равно его любим". И пообщаться чтобы поддержать друг друга и поделится информацией:
Портфель BEHANCE
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤🔥2❤2
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
Залезли снова в LTXV (генератор видео в ComfyUI), в надежде все же выбить у него image2video результаты.
Работает быстро, но и выдает соответственное качество. К тому же наблюдается достаточно рандомное управление движением в этой модели.
То есть для для каждого изображения и в зависимости еще от разрешения видео, которое ты поставил, сидишь перебираешь 2-3 значения относительно друг друга (управляешь значением crf - некий параметр сжатия, который напрямую влияет на создание движения, и как ни странно управляешь фпс при генерации (это не конечный фпс видео, а именно фпс генерации) - что тоже оказывает влияние на создание движения).
Сам автор воркфлоу сравнивает работу с данной моделью c балансировкой приправ - соли и перца - для супа, имеющего вкус клея))
Также промпт имеет тоже немалое влияние на генерацию в данной модели. Модель любит длинные подробные описания происходящего и действий.
В итоге вот лучшие итоги генерации, в которых отсутствуют какие-то странные движения.
Работает быстро, но и выдает соответственное качество. К тому же наблюдается достаточно рандомное управление движением в этой модели.
То есть для для каждого изображения и в зависимости еще от разрешения видео, которое ты поставил, сидишь перебираешь 2-3 значения относительно друг друга (управляешь значением crf - некий параметр сжатия, который напрямую влияет на создание движения, и как ни странно управляешь фпс при генерации (это не конечный фпс видео, а именно фпс генерации) - что тоже оказывает влияние на создание движения).
Сам автор воркфлоу сравнивает работу с данной моделью c балансировкой приправ - соли и перца - для супа, имеющего вкус клея))
Также промпт имеет тоже немалое влияние на генерацию в данной модели. Модель любит длинные подробные описания происходящего и действий.
В итоге вот лучшие итоги генерации, в которых отсутствуют какие-то странные движения.
❤🔥2❤2🔥1
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
С данным изображением COG выиграл в движениях.
Более физично развевался песок, менее статичные движения. Видно, что модель более тяжелая и обученная на большем числе параметров. Но и работает значительно медленнее. Какие-то странные движения лица.
Но промптом все это можно подредачить хорошенько.
Более физично развевался песок, менее статичные движения. Видно, что модель более тяжелая и обученная на большем числе параметров. Но и работает значительно медленнее. Какие-то странные движения лица.
Но промптом все это можно подредачить хорошенько.
🔥3❤2❤🔥2