JCenterS Нейросети | DeepFake News
3.48K subscribers
911 photos
368 videos
1 file
533 links
https://t.me/JCenterSCourse?boost - поддержать!

Фриланс биржа - @CGWorkHub 👈

Курс "С разбега в Синематик": https://clck.ru/35qJxR

Telegram чат: https://t.me/JCDeepFakeChat

По любым вопросам: @jcenterstudio
Download Telegram
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
Хер знает сколько времени уже тестим разные воркфлоу для генерации видео.

Начали получать более менее хорошие результаты. Я очень вдохновился Корридорами, где они с помощью анимейт див годичной давности, смогли сделать более менее стабильное изображение.

Конечно не без кучи композа. Изображение у них на выходе получалось супер отвратное, нужно было все деноизить по пикселям.

Вот эти кадры в посте мы получили снимая на айфон, в супер херовом освещении. Вся картинка рябит, Depth сработал очень криво.

Если снимаете видео для будущей генерации, используйте хорошее освещение и не ставьте преграды перед собой. Любая пыль, сколы, трещины на стекле, сразу хавается программой и за место чистого стекла вы будете получать млечный путь, епта.

Можно это дело перевести в капли дождя конечно, но все же.

С помощью хорошей информации о Depth (Глубине). Можно композить весь видос в AE-шке. Или где вы сейчас там сидите.

В остальном, что самое прикольное - тестим редактор уже сгенерированных видео, чтобы убрать проблемы с руками и артефактами.

А на посте можно легко накладывать нужный фон, чтобы с разных ракурсов не получать то Нью-Йорк, то Новоебенева.

Дальше наложим на дипфейк и скину результаты.
41
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
💚💚💚💚💚💚💚💚💚💚💚

Закидывайте свои 3D и нейросетевые работы сюда!)

В КОММЕНТЫ. Желательно видосики. Картинки смотрятся не так хорошо в видосе)

Закину их в конец выпуска, успевайте!)
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
🎆Самое время показать ваши мышцы в 3D графике! 🎆

Мы заколлабились со студией "🔆🔆🔆🔆", которые стали спонсорами данной движухи и создали конкурс с призовым фондом в 2️⃣0️⃣0️⃣🔆 .

3 уровня сложности - 3 первых места.

100.000 р. - Пре-Шоу к аттракциону - "Лифт времени и пространства".
70.000 р. - Шоу - для музейной экспозиции в замке.
30.000 р. - Эмбиент-видео для мультимедийной выставки.

ВИЖУ создаёт мультимедийные проекты для музеев, выставок и пространств, с полным циклом работ — от идеи и разработки концепции до создания контента, закупки оборудования и застройки.

Дядьки мощные, готовы вкидывать финансы на развитие 3D пространства.

Подробно о студии вы можете прочитать здесь.

Все работы будем оценивать в конце конкурса на стриме и следом объявим победителей.

Судить будут:

Антон FAKBOITONY - Лид JCenterS
Артур Устименко - Unreal Engine Гуру
Vladimir Demekhin - Арт-директор "ВИЖУ"
Основатели студии "ВИЖУ"

КОНКУРС ЗАКОНЧИТСЯ 15 ФЕВРАЛЯ 2025 года. И в это же время подведем итоги!

Для всех, кто хочет участвовать переходим сюда!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤‍🔥11
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
🔤🔤 🔆🔆🔆🔆🔆🔆🔆

❄️❄️☃️С наступающим новым годом вас!☃️❄️❄️

💙 Genesis — физический 3D движок, ускоряющий симуляции в 1000 раз.
💙 Blender теперь для аниме.
💙Mocha Pro 2025: ИИ для ротоскопа.
💙Redshift 2025.2: обновления для рендера и GPU-денойзинга.
💙Intel Arc B580: видеокарта, которую раскупили за день.
💙VR-инструмент Shapelab 2025 для скульптинга.
💙Google Veo 2 — генерация видео нового уровня.
💙V-Ray 7 для SketchUp: от Gaussian Splats до нового освещения.

https://youtu.be/aNsyiYPBOOA
Please open Telegram to view this post
VIEW IN TELEGRAM
3❤‍🔥3🔥2
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
Потестили свежие модели генераторов видео и единственное, что сейчас работает более менее, это COG. 🐔

Остальные модели генерят - че попало.

В нем нельзя привязать миллион настроек, но это бесплатно и рендерит 5 секунд с разрешением в 762px на 432px. Рендерит примерно за 2-3 минуты на RTX 4080. После 3-4 генераций кеш забивается на столько, что нужно перезагружать комп.

Но пацаны у себя генерят на RTX 3070 за 5-6 минут.

🔩 Пайплайн такой:
Загружаете отснятое видео в воркфлоу COG на ComfyUI, модель генерит глубину с каждого кадра и по этой глубине - начинает генерить промпт который вы написали. Грубо говоря)

Можно выводить Canny (линии) и делать по ним, в место глубины. Но вот вместе они не работают пока.


Но для качества нужно пройтись апскейлером и еще тонну пост-обработки в AE. То фон плывет, то пальцы мажет. Лица вообще пока до свидания. Поэтому тут больше композ учить надо, нежели нейронки) Но я для видоса заморочусь, самому интересно))

Ну и опять же, то что вы видите у Ранвея, Соры и т.д. - это очень мощные сервера. Через которые прогоняются ваши запросы. У вас таких серверов дома нет. Как и ни у кого кроме крупных компаний.

Контролировать изображение в этих сервисах невозможно от слова - СОВСЕМ. Вы в каждом кадре будете получать другое изображение.

Если на посте хорошенько поковыряться (особенно имея Depth of field), можно сделать что-то оч веселенькое)) Для короткометражек, особенно для пре-продакшена начинает помогать.

💻P.S. Если интересно как делать, кидайте голоса на премку, чтобы можно было анимированный 💩 ставить под постом( 😂

Ну и урок запишу с воркфлоу на канал)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
10❤‍🔥1🔥1
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
Media is too big
VIEW IN TELEGRAM
Дэнчик Рябов!

Работал с крупнейшими студиями СНГ: CGF и Dobro, сейчас в Trehmer.

Участвовал в крупных проектах, таких как Lego, Immutable, в фильмах «100 лет тому вперед» и «Огниво».
Специализируется на создании сложных визуальных эффектов для кино. Работает в 🛸Houdini и 🟠Nuke

Сейчас то самое время, когда все ленятся и не могут подняться со своей кровати в апатии))

Поэтому я пригласил Денчика, чтобы он рассказал "Почему 3D — это боль, но мы всё равно его любим". И пообщаться чтобы поддержать друг друга и поделится информацией:

Почему до сих пор нет кнопки "Сделать красиво".
Неправильный рендер в 3 часа ночи перед дедлайном.
Как победить свой перфекционизм.
Нелепые комментарии от заказчиков. Как справится с этой болью.
Простые советы которые улучшить не улучшаемое в своей работе.
И конечно же как не перегореть оставляя 3D - хобби, а не рутинной работой.

📆15 Января Стрим, эксклюзивно для конкурса ВИЖУ x JCENTERS

Портфель BEHANCE 👈
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤‍🔥22
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
Залезли снова в LTXV (генератор видео в ComfyUI), в надежде все же выбить у него image2video результаты.

Работает быстро, но и выдает соответственное качество. К тому же наблюдается достаточно рандомное управление движением в этой модели.

То есть для для каждого изображения и в зависимости еще от разрешения видео, которое ты поставил, сидишь перебираешь 2-3 значения относительно друг друга (управляешь значением crf - некий параметр сжатия, который напрямую влияет на создание движения, и как ни странно управляешь фпс при генерации (это не конечный фпс видео, а именно фпс генерации) - что тоже оказывает влияние на создание движения).

Сам автор воркфлоу сравнивает работу с данной моделью c балансировкой приправ - соли и перца - для супа, имеющего вкус клея))

Также промпт имеет тоже немалое влияние на генерацию в данной модели. Модель любит длинные подробные описания происходящего и действий.

В итоге вот лучшие итоги генерации, в которых отсутствуют какие-то странные движения.
❤‍🔥22🔥1
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
С данным изображением COG выиграл в движениях.

Более физично развевался песок, менее статичные движения. Видно, что модель более тяжелая и обученная на большем числе параметров. Но и работает значительно медленнее. Какие-то странные движения лица.

Но промптом все это можно подредачить хорошенько.
🔥32❤‍🔥2
🔴 Новая функция в ChatGPT: Планирование задач

OpenAI добавили функцию, которая позволяет запускать задачи по расписанию в окне ChatGPT.
🔴Теперь боты и сценарии можно не только настраивать, но и запускать в нужное время автоматически🔥

✏️Ключевые особенности:

👉 Можно настроить время и периодичность выполнения сценария (новости по теме будет присылать).
👉 Можно с коллегами по проекту задачи контроллировать ежедневно
👉 Также обещают, что можно будет связывать задачи с другими приложениями через плагины (рассылка постов, например)

🔴Функция доступна только по подписке ChatGPT Plus (GPT-4)
👀Чтобы протестировать, проверьте раздел «Tasks» в меню интерфейса

Я спросила у чата GPT как бы он применил данную функцию, если бы был 3д художником, он выдал пикольные варианты:
🔧 1. Автогенерация отчётов по проекту
💡 Пример:
"Напомни мне в пятницу утром отправить клиенту рендеры локации и список правок."

🎥 2. Планирование рендеринга
💡 Пример:
"Каждое утро проверь статус рендеров и напомни мне о кадрах, которые нужно отправить заново."

🎨 3. Поиск референсов
💡 Пример:
"В понедельник, 8:00, найди новые референсы по запросу: 'ретрофутуризм, неоновое освещение, городские сцены'."

🤝 4. Коллаборация с командой
💡 Пример:
"Каждую среду в 10:00 отправляй команде обновлённый список приоритетов."

📅 5. Учебный процесс и саморазвитие
💡 Пример:
"Каждое воскресенье напоминай мне выделить час на изучение Unreal Engine 5.2."

🌍 6. Планирование публикаций и портфолио
💡 Пример:
"В пятницу в 18:00 опубликуй пост о новом проекте с текстом: 'Мой последний проект — ретрофутуристический город. Как вам атмосфера?'"

🚀 7. Генерация идей для проектов
💡 Пример:
"Каждую субботу предлагай 3 идеи для моих личных проектов. Пример: 'город под водой, вдохновлённый арт-деко.'"

📩 8. Автоматическое управление клиентами
💡 Пример:
"В следующий четверг напомни мне запросить фидбек от клиента по сцене с деревней."

😍 Что хотели бы автоматизировать для себя?

Источник

CG News
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤‍🔥22🗿1