JCenterS Нейросети | DeepFake News
3.48K subscribers
911 photos
368 videos
1 file
532 links
https://t.me/JCenterSCourse?boost - поддержать!

Фриланс биржа - @CGWorkHub 👈

Курс "С разбега в Синематик": https://clck.ru/35qJxR

Telegram чат: https://t.me/JCDeepFakeChat

По любым вопросам: @jcenterstudio
Download Telegram
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
Хер знает сколько времени уже тестим разные воркфлоу для генерации видео.

Начали получать более менее хорошие результаты. Я очень вдохновился Корридорами, где они с помощью анимейт див годичной давности, смогли сделать более менее стабильное изображение.

Конечно не без кучи композа. Изображение у них на выходе получалось супер отвратное, нужно было все деноизить по пикселям.

Вот эти кадры в посте мы получили снимая на айфон, в супер херовом освещении. Вся картинка рябит, Depth сработал очень криво.

Если снимаете видео для будущей генерации, используйте хорошее освещение и не ставьте преграды перед собой. Любая пыль, сколы, трещины на стекле, сразу хавается программой и за место чистого стекла вы будете получать млечный путь, епта.

Можно это дело перевести в капли дождя конечно, но все же.

С помощью хорошей информации о Depth (Глубине). Можно композить весь видос в AE-шке. Или где вы сейчас там сидите.

В остальном, что самое прикольное - тестим редактор уже сгенерированных видео, чтобы убрать проблемы с руками и артефактами.

А на посте можно легко накладывать нужный фон, чтобы с разных ракурсов не получать то Нью-Йорк, то Новоебенева.

Дальше наложим на дипфейк и скину результаты.
41
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
💚💚💚💚💚💚💚💚💚💚💚

Закидывайте свои 3D и нейросетевые работы сюда!)

В КОММЕНТЫ. Желательно видосики. Картинки смотрятся не так хорошо в видосе)

Закину их в конец выпуска, успевайте!)
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
🎆Самое время показать ваши мышцы в 3D графике! 🎆

Мы заколлабились со студией "🔆🔆🔆🔆", которые стали спонсорами данной движухи и создали конкурс с призовым фондом в 2️⃣0️⃣0️⃣🔆 .

3 уровня сложности - 3 первых места.

100.000 р. - Пре-Шоу к аттракциону - "Лифт времени и пространства".
70.000 р. - Шоу - для музейной экспозиции в замке.
30.000 р. - Эмбиент-видео для мультимедийной выставки.

ВИЖУ создаёт мультимедийные проекты для музеев, выставок и пространств, с полным циклом работ — от идеи и разработки концепции до создания контента, закупки оборудования и застройки.

Дядьки мощные, готовы вкидывать финансы на развитие 3D пространства.

Подробно о студии вы можете прочитать здесь.

Все работы будем оценивать в конце конкурса на стриме и следом объявим победителей.

Судить будут:

Антон FAKBOITONY - Лид JCenterS
Артур Устименко - Unreal Engine Гуру
Vladimir Demekhin - Арт-директор "ВИЖУ"
Основатели студии "ВИЖУ"

КОНКУРС ЗАКОНЧИТСЯ 15 ФЕВРАЛЯ 2025 года. И в это же время подведем итоги!

Для всех, кто хочет участвовать переходим сюда!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤‍🔥11
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
🔤🔤 🔆🔆🔆🔆🔆🔆🔆

❄️❄️☃️С наступающим новым годом вас!☃️❄️❄️

💙 Genesis — физический 3D движок, ускоряющий симуляции в 1000 раз.
💙 Blender теперь для аниме.
💙Mocha Pro 2025: ИИ для ротоскопа.
💙Redshift 2025.2: обновления для рендера и GPU-денойзинга.
💙Intel Arc B580: видеокарта, которую раскупили за день.
💙VR-инструмент Shapelab 2025 для скульптинга.
💙Google Veo 2 — генерация видео нового уровня.
💙V-Ray 7 для SketchUp: от Gaussian Splats до нового освещения.

https://youtu.be/aNsyiYPBOOA
Please open Telegram to view this post
VIEW IN TELEGRAM
3❤‍🔥3🔥2
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
Потестили свежие модели генераторов видео и единственное, что сейчас работает более менее, это COG. 🐔

Остальные модели генерят - че попало.

В нем нельзя привязать миллион настроек, но это бесплатно и рендерит 5 секунд с разрешением в 762px на 432px. Рендерит примерно за 2-3 минуты на RTX 4080. После 3-4 генераций кеш забивается на столько, что нужно перезагружать комп.

Но пацаны у себя генерят на RTX 3070 за 5-6 минут.

🔩 Пайплайн такой:
Загружаете отснятое видео в воркфлоу COG на ComfyUI, модель генерит глубину с каждого кадра и по этой глубине - начинает генерить промпт который вы написали. Грубо говоря)

Можно выводить Canny (линии) и делать по ним, в место глубины. Но вот вместе они не работают пока.


Но для качества нужно пройтись апскейлером и еще тонну пост-обработки в AE. То фон плывет, то пальцы мажет. Лица вообще пока до свидания. Поэтому тут больше композ учить надо, нежели нейронки) Но я для видоса заморочусь, самому интересно))

Ну и опять же, то что вы видите у Ранвея, Соры и т.д. - это очень мощные сервера. Через которые прогоняются ваши запросы. У вас таких серверов дома нет. Как и ни у кого кроме крупных компаний.

Контролировать изображение в этих сервисах невозможно от слова - СОВСЕМ. Вы в каждом кадре будете получать другое изображение.

Если на посте хорошенько поковыряться (особенно имея Depth of field), можно сделать что-то оч веселенькое)) Для короткометражек, особенно для пре-продакшена начинает помогать.

💻P.S. Если интересно как делать, кидайте голоса на премку, чтобы можно было анимированный 💩 ставить под постом( 😂

Ну и урок запишу с воркфлоу на канал)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
10❤‍🔥1🔥1
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
Media is too big
VIEW IN TELEGRAM
Дэнчик Рябов!

Работал с крупнейшими студиями СНГ: CGF и Dobro, сейчас в Trehmer.

Участвовал в крупных проектах, таких как Lego, Immutable, в фильмах «100 лет тому вперед» и «Огниво».
Специализируется на создании сложных визуальных эффектов для кино. Работает в 🛸Houdini и 🟠Nuke

Сейчас то самое время, когда все ленятся и не могут подняться со своей кровати в апатии))

Поэтому я пригласил Денчика, чтобы он рассказал "Почему 3D — это боль, но мы всё равно его любим". И пообщаться чтобы поддержать друг друга и поделится информацией:

Почему до сих пор нет кнопки "Сделать красиво".
Неправильный рендер в 3 часа ночи перед дедлайном.
Как победить свой перфекционизм.
Нелепые комментарии от заказчиков. Как справится с этой болью.
Простые советы которые улучшить не улучшаемое в своей работе.
И конечно же как не перегореть оставляя 3D - хобби, а не рутинной работой.

📆15 Января Стрим, эксклюзивно для конкурса ВИЖУ x JCENTERS

Портфель BEHANCE 👈
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤‍🔥22
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
Залезли снова в LTXV (генератор видео в ComfyUI), в надежде все же выбить у него image2video результаты.

Работает быстро, но и выдает соответственное качество. К тому же наблюдается достаточно рандомное управление движением в этой модели.

То есть для для каждого изображения и в зависимости еще от разрешения видео, которое ты поставил, сидишь перебираешь 2-3 значения относительно друг друга (управляешь значением crf - некий параметр сжатия, который напрямую влияет на создание движения, и как ни странно управляешь фпс при генерации (это не конечный фпс видео, а именно фпс генерации) - что тоже оказывает влияние на создание движения).

Сам автор воркфлоу сравнивает работу с данной моделью c балансировкой приправ - соли и перца - для супа, имеющего вкус клея))

Также промпт имеет тоже немалое влияние на генерацию в данной модели. Модель любит длинные подробные описания происходящего и действий.

В итоге вот лучшие итоги генерации, в которых отсутствуют какие-то странные движения.
❤‍🔥22🔥1
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
С данным изображением COG выиграл в движениях.

Более физично развевался песок, менее статичные движения. Видно, что модель более тяжелая и обученная на большем числе параметров. Но и работает значительно медленнее. Какие-то странные движения лица.

Но промптом все это можно подредачить хорошенько.
🔥32❤‍🔥2
🔴 Новая функция в ChatGPT: Планирование задач

OpenAI добавили функцию, которая позволяет запускать задачи по расписанию в окне ChatGPT.
🔴Теперь боты и сценарии можно не только настраивать, но и запускать в нужное время автоматически🔥

✏️Ключевые особенности:

👉 Можно настроить время и периодичность выполнения сценария (новости по теме будет присылать).
👉 Можно с коллегами по проекту задачи контроллировать ежедневно
👉 Также обещают, что можно будет связывать задачи с другими приложениями через плагины (рассылка постов, например)

🔴Функция доступна только по подписке ChatGPT Plus (GPT-4)
👀Чтобы протестировать, проверьте раздел «Tasks» в меню интерфейса

Я спросила у чата GPT как бы он применил данную функцию, если бы был 3д художником, он выдал пикольные варианты:
🔧 1. Автогенерация отчётов по проекту
💡 Пример:
"Напомни мне в пятницу утром отправить клиенту рендеры локации и список правок."

🎥 2. Планирование рендеринга
💡 Пример:
"Каждое утро проверь статус рендеров и напомни мне о кадрах, которые нужно отправить заново."

🎨 3. Поиск референсов
💡 Пример:
"В понедельник, 8:00, найди новые референсы по запросу: 'ретрофутуризм, неоновое освещение, городские сцены'."

🤝 4. Коллаборация с командой
💡 Пример:
"Каждую среду в 10:00 отправляй команде обновлённый список приоритетов."

📅 5. Учебный процесс и саморазвитие
💡 Пример:
"Каждое воскресенье напоминай мне выделить час на изучение Unreal Engine 5.2."

🌍 6. Планирование публикаций и портфолио
💡 Пример:
"В пятницу в 18:00 опубликуй пост о новом проекте с текстом: 'Мой последний проект — ретрофутуристический город. Как вам атмосфера?'"

🚀 7. Генерация идей для проектов
💡 Пример:
"Каждую субботу предлагай 3 идеи для моих личных проектов. Пример: 'город под водой, вдохновлённый арт-деко.'"

📩 8. Автоматическое управление клиентами
💡 Пример:
"В следующий четверг напомни мне запросить фидбек от клиента по сцене с деревней."

😍 Что хотели бы автоматизировать для себя?

Источник

CG News
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤‍🔥22🗿1
Forwarded from Vladimir Volynets
This media is not supported in your browser
VIEW IN TELEGRAM
🤣4🤬1
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
Потестили Китайцев - DeepSeek. И это не чат ГПТ.

Эта штука имеет самый страшный в перспективе прикольчик - характер) Это проявляется в личном отношении. Он может обидится, если ты назовешь его копией. Или будешь глубоко рыть инфу про его создание Китайцами.

А страшный, потому что если Китайцы такими темпами будут и дальше на своих мощностях обучать эту штуку, то могут быть первее чем Маск в гонке за AI.

А с характером эта штука может наделать очень много проблем. Альтрон, здраствуйте😂

База данных как будто ощущается по другому и изначальные настройки рассчитаны на Локальность языков. И к большому счастью она безумно хорошо распознает русский язык, понимает жаргон и здесь ты начинаешь видеть ум. Вы иногда можете увидеть китайские иероглифы, но по логике он все равно отвечает верно.

И в коде с копайлотом он не плохо шарит, но у ГПТ интеграция решает, с дипом по старинке через скриншоты приходится вкидывать. 🧑‍💻

Запоминает в пределах одной сессии. Одного чатика. DeepSeek не расчитан на сервисность. В ГПТ бот запоминает грубо говоря весь ваш аккаунт и еще кучу плагинов имеет.

500 млрд$ - Это вклад, который позволит покрыть только одну пятнадцатую от нужных мощностей для OpenAI. Так что фиг знает. Возможно этот DeepSeek сейчас будет рвать по всем фронтам.

Работает без проблем на айфоне. Выше QR для вас.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥74❤‍🔥1😱1