Доброе утро, художники)
13 Января мы проведем стрим с остальными призами от MocapTric для CG Сигм. Вместе с победителем из Якутии, который приедет к нам за своим костюмом Xsens!
20 Января мы выберем 10 разных работ с конкурса и посмотрим на каком этапе ребята сейчас находятся. Сдача работ 15 февраля!) Поэтому успеваете)
13 Января мы проведем стрим с остальными призами от MocapTric для CG Сигм. Вместе с победителем из Якутии, который приедет к нам за своим костюмом Xsens!
20 Января мы выберем 10 разных работ с конкурса и посмотрим на каком этапе ребята сейчас находятся. Сдача работ 15 февраля!) Поэтому успеваете)
🔥10❤2👍2😍2❤🔥1
Forwarded from Альберт
Мы пишем проект на с#
Нас 4 человека.
Проект: браузерная серверная игра. Гит нам удобен тем, что синхронизирую и используя VS code. Мы всегда практически в реалтайме видем все изменения кода. с всеми комментами и т.д.
Удобная штука.
Ах да. Ещё на гите много всяких полезных фич можно найти.
Как для того stable difussion
Так и батник для работы дискорда.
Многие ещё юзают гит для обучения в коддинге
Много открытых кодов. Крч удобная штука
Нас 4 человека.
Проект: браузерная серверная игра. Гит нам удобен тем, что синхронизирую и используя VS code. Мы всегда практически в реалтайме видем все изменения кода. с всеми комментами и т.д.
Удобная штука.
Ах да. Ещё на гите много всяких полезных фич можно найти.
Как для того stable difussion
Так и батник для работы дискорда.
Многие ещё юзают гит для обучения в коддинге
Много открытых кодов. Крч удобная штука
👍13❤3💩1
Media is too big
VIEW IN TELEGRAM
Пацаны наконец-то проснулись с отдыха, завтра начинаем полноценные рабочие дни.
Что у меня сейчас по планам:
Последние несколько дней активно изучаем и тестируем свежие AI видео-модели со своими сборками, которые могут создавать мультфильмы с любым стилем.
LTX — новая модель, которую нужно протестировать до конца.
Hunyan — появился интересный функционал vid2vid. Говорят, что есть оптимизированные версии, потому что стоковый Hunyan безумно медленный и требовательный к памяти. А такое нам не надо с нашими RTX 2060, прально?)
COG — пока что единственная модель с полноценной поддержкой ControlNet. То есть можно настраивать как угодно.
На все это дело сейчас лор прилично прибавлось. Видать кто то обучать поставил на НГ, за место бухича.
Эти модели могут превращать изображения в видео, либо работать с трансформацией видео (vid2vid). Мы уже немного тестировали COG — он справляется, но есть ощущение, что остальные тоже подтянулись.
Хотим понять, что эти модели могут делать сейчас в плане оптимизации и качества. Уже появились упрощённые версии Hunyan, которые якобы быстрее и легче для железа. Но есть риск, что качество сильно упадёт — будем проверять.
Короткометражку про двух блендерастов, который делали неделю назад, не забыли, сейчас продолжим тестить и показывать что получается)😄 НЕ ДОДЕЛАЛИ ЕЩЕ! Я уже второй сценарий пишу, веселая тема))
Что у меня сейчас по планам:
Последние несколько дней активно изучаем и тестируем свежие AI видео-модели со своими сборками, которые могут создавать мультфильмы с любым стилем.
LTX — новая модель, которую нужно протестировать до конца.
Hunyan — появился интересный функционал vid2vid. Говорят, что есть оптимизированные версии, потому что стоковый Hunyan безумно медленный и требовательный к памяти. А такое нам не надо с нашими RTX 2060, прально?)
COG — пока что единственная модель с полноценной поддержкой ControlNet. То есть можно настраивать как угодно.
На все это дело сейчас лор прилично прибавлось. Видать кто то обучать поставил на НГ, за место бухича.
Эти модели могут превращать изображения в видео, либо работать с трансформацией видео (vid2vid). Мы уже немного тестировали COG — он справляется, но есть ощущение, что остальные тоже подтянулись.
Хотим понять, что эти модели могут делать сейчас в плане оптимизации и качества. Уже появились упрощённые версии Hunyan, которые якобы быстрее и легче для железа. Но есть риск, что качество сильно упадёт — будем проверять.
Короткометражку про двух блендерастов, который делали неделю назад, не забыли, сейчас продолжим тестить и показывать что получается)
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15❤🔥6❤5😍2👍1💯1
Теперь на этом канале можно ставить только положительные реакции.
Если кто-то напишет что-то хорошее - бан
Спасибо @Mortanych
Если кто-то напишет что-то хорошее - бан
Спасибо @Mortanych
1💩69😁17👎5😡5🤬2
Forwarded from AZHYPA. Unreal Видео
Почему не вышли на тот уровень, который хотели? Чего не хватило?
Anonymous Poll
6%
Алгоритмы соцсетей - говно
38%
У меня слабое портфолио / скиллы
23%
Синдром самозванца
4%
Клиенты говно
28%
Недостаток связей, нет тусовки
49%
Лень или прокрастинация
10%
Несправедливость мира
12%
Не умею вести переговоры
12%
Нет вдохновения
❤1
УРА, ЗЕЛЕНЫЕ!) 🤢
🎮 NVIDIA представила новое поколение видеокарт серии GeForce RTX 50 на выставке CES 2025.
Линейка включает четыре модели:
RTX 5070: $549, производительность на уровне предыдущей RTX 4090.
RTX 5070 Ti: $749.
RTX 5080: $999.
RTX 5090: $1 999.
В рублях это 220к, но прибавляйте наценку) где то за 350к можно забрать😄
Карты оснащены памятью GDDR7, с повышенной производительностью.
Запихали туда DLSS 4, использующая ИИ для генерации трёх кадров на каждый рендеренный. Короче опять софтом продают, а не железом)
Ну и AMD анонсировала графические карты Radeon RX 9070 XT и RX 9070 на базе архитектуры RDNA 4 с технологией FSR4. Но там надо глядеть.
Все модели поступят в продажу в этом месяце.
CG News
Линейка включает четыре модели:
RTX 5070: $549, производительность на уровне предыдущей RTX 4090.
RTX 5070 Ti: $749.
RTX 5080: $999.
RTX 5090: $1 999.
В рублях это 220к, но прибавляйте наценку) где то за 350к можно забрать
Карты оснащены памятью GDDR7, с повышенной производительностью.
Запихали туда DLSS 4, использующая ИИ для генерации трёх кадров на каждый рендеренный. Короче опять софтом продают, а не железом)
Ну и AMD анонсировала графические карты Radeon RX 9070 XT и RX 9070 на базе архитектуры RDNA 4 с технологией FSR4. Но там надо глядеть.
Все модели поступят в продажу в этом месяце.
CG News
Please open Telegram to view this post
VIEW IN TELEGRAM
1💩13😁5😡2👎1🤬1
16 ядер и 32 потока на базе архитектуры Zen 5.
Базовая частота 4,2 ГГц с возможностью повышения до 5,7 ГГц.
Общий объем кэша 144 МБ, включая 3D V-Cache второго поколения.
В игровых тестах Ryzen 9 9950X3D превосходит предыдущую модель 7950X3D на 8% и опережает Intel Core Ultra 9 285K на 20%.
В задачах по созданию контента прирост производительности на 13% по сравнению с конкурентами.
Вместе с Ryzen 9 9950X3D AMD анонсировала процессор Ryzen 9 9900X3D с 12 ядрами и 24 потоками, максимальной частотой 5,5 ГГц и кэшем объемом 140 МБ.
Оба процессора используют технологию 3D V-Cache второго поколения.
Ожидается, что новые процессоры поступят в продажу в марте 2025 года.
Информация о ценах пока не раскрыта.
Также AMD анонсировала мобильные процессоры серии "Fire Range", включая модель 9955HX3D для ноутов.
CG News
Please open Telegram to view this post
VIEW IN TELEGRAM
2😁9💩5👎1🤬1😡1
Давайте поговорим о насущном страхе.
Я слышу массовые крики о проблемах с работой, ленью, прокрастинацией и все подобное)
3D это профессия для тех кто ее любит. Как и любая другая. Всю дорогу новички приходили и уходили с криками о проблемах. Что в 2019, что в 2024.
Мне всегда приходилось вытаскивать зубами людей из лени, чтобы заставить сделать что-то. Именно заставить. Потому что иначе эта лень и прокрастинация так и была бы табу для многих.
Меня тоже не всегда хватало ментально, чтобы 24 на 7 находится в сфере, развивая ее, не имея личных проблем. Тоже эти проблемы есть) Поэтому и пропадал на время, чтобы разобраться с головой.
Каждый раз когда возвращаешься в CG, когда вроде всю аудиторию разогрел, вроде пошло движение, большинство опять уходят в апатию.
Апатия связана из-за не понимания куда двигаться. Вы привыкли ориентироваться на кого либо и читать сноски паникеров, которые не имея аргументов кричат громче всех.
Нужно понять главный вопрос - когда можно клеить ласты в действительности? Или опять как обычно все забурились и ждут чуда)
И на этот вопрос может ответить RTX 5090, которая не создала чего то супер невероятного. Просто новая карта ускоренная на 10%, с большей памятью за конский ценник. То есть железо в ближайшие 2-3 года точно не потянут лучше чем есть сейчас.
Железа не хватает даже на то, чтобы обработать программный код. Не то что визуал там какой то) Элементарные вещи в том же Visual Studio обрабатывать как Тони Старк с Джарвисом не получается. Нужно провести кучу времени, чтобы направить в нужную сторону и то не всегда удается.
Так же про увольнения, которые происходят из-за нейронок. Вы не найдете ни одного подтвержденного случая подобных увольнений. Изменение рыночных условий, инфляция, рост бюджетов на разработку и финансовые потери - да. Но ни как не из-за нейронок.
3D-шка как ни крути все равно быстрее. Анрил в этом плане очень выигрывает, потому что реалтайм. Нейросети станут буквально рендером для софта. А реалтайм движки перейдут в интерактивные стриминги, в которых будет рендер в реальном времени. На такое нейронка пока не способна даже близко.
Дальше будут такие же платные программы в виде моделей. То есть до этого выпокупали Адоб. Теперь вы будете покупать модельки нейро рендера.
Нет ни одного продакшена, который использует финальный вид продукта с нейросеткой. Пре-продакшн - да. Но финал был отрендерен в 3D. Многие компании кичились что использовали нейросети в своих продуктах, когда их там в помине не было, кроме апскейлера какого-нибудь. И это постоянная практика.
По поводу работы. В пандемию был самый высокий спрос на 3D. Потом спрос стал выше чем был когда либо и не снижался. Кто будет кричать, что работы нет и не будет скидывать портфель - сразу бан. Ходите кошмарите всех))
Если вы не любите 3D, 3D не будет любить вас)😆
Я слышу массовые крики о проблемах с работой, ленью, прокрастинацией и все подобное)
3D это профессия для тех кто ее любит. Как и любая другая. Всю дорогу новички приходили и уходили с криками о проблемах. Что в 2019, что в 2024.
Мне всегда приходилось вытаскивать зубами людей из лени, чтобы заставить сделать что-то. Именно заставить. Потому что иначе эта лень и прокрастинация так и была бы табу для многих.
Меня тоже не всегда хватало ментально, чтобы 24 на 7 находится в сфере, развивая ее, не имея личных проблем. Тоже эти проблемы есть) Поэтому и пропадал на время, чтобы разобраться с головой.
Каждый раз когда возвращаешься в CG, когда вроде всю аудиторию разогрел, вроде пошло движение, большинство опять уходят в апатию.
Апатия связана из-за не понимания куда двигаться. Вы привыкли ориентироваться на кого либо и читать сноски паникеров, которые не имея аргументов кричат громче всех.
Нужно понять главный вопрос - когда можно клеить ласты в действительности? Или опять как обычно все забурились и ждут чуда)
И на этот вопрос может ответить RTX 5090, которая не создала чего то супер невероятного. Просто новая карта ускоренная на 10%, с большей памятью за конский ценник. То есть железо в ближайшие 2-3 года точно не потянут лучше чем есть сейчас.
Железа не хватает даже на то, чтобы обработать программный код. Не то что визуал там какой то) Элементарные вещи в том же Visual Studio обрабатывать как Тони Старк с Джарвисом не получается. Нужно провести кучу времени, чтобы направить в нужную сторону и то не всегда удается.
Так же про увольнения, которые происходят из-за нейронок. Вы не найдете ни одного подтвержденного случая подобных увольнений. Изменение рыночных условий, инфляция, рост бюджетов на разработку и финансовые потери - да. Но ни как не из-за нейронок.
3D-шка как ни крути все равно быстрее. Анрил в этом плане очень выигрывает, потому что реалтайм. Нейросети станут буквально рендером для софта. А реалтайм движки перейдут в интерактивные стриминги, в которых будет рендер в реальном времени. На такое нейронка пока не способна даже близко.
Дальше будут такие же платные программы в виде моделей. То есть до этого вы
Нет ни одного продакшена, который использует финальный вид продукта с нейросеткой. Пре-продакшн - да. Но финал был отрендерен в 3D. Многие компании кичились что использовали нейросети в своих продуктах, когда их там в помине не было, кроме апскейлера какого-нибудь. И это постоянная практика.
По поводу работы. В пандемию был самый высокий спрос на 3D. Потом спрос стал выше чем был когда либо и не снижался. Кто будет кричать, что работы нет и не будет скидывать портфель - сразу бан. Ходите кошмарите всех))
Если вы не любите 3D, 3D не будет любить вас)
Please open Telegram to view this post
VIEW IN TELEGRAM
😁44💩7🤬4😡2
Потестили свежие модели генераторов видео и единственное, что сейчас работает более менее, это COG. 🐔
Остальные модели генерят - че попало.
В нем нельзя привязать миллион настроек, но это бесплатно и рендерит 5 секунд с разрешением в 762px на 432px. Рендерит примерно за 2-3 минуты на RTX 4080. После 3-4 генераций кеш забивается на столько, что нужно перезагружать комп.
Но пацаны у себя генерят на RTX 3070 за 5-6 минут.
🔩 Пайплайн такой:
Но для качества нужно пройтись апскейлером и еще тонну пост-обработки в AE. То фон плывет, то пальцы мажет. Лица вообще пока до свидания. Поэтому тут больше композ учить надо, нежели нейронки) Но я для видоса заморочусь, самому интересно))
Ну и опять же, то что вы видите у Ранвея, Соры и т.д. - это очень мощные сервера. Через которые прогоняются ваши запросы. У вас таких серверов дома нет. Как и ни у кого кроме крупных компаний.
Контролировать изображение в этих сервисах невозможно от слова - СОВСЕМ. Вы в каждом кадре будете получать другое изображение.
Если на посте хорошенько поковыряться (особенно имея Depth of field), можно сделать что-то оч веселенькое)) Для короткометражек, особенно для пре-продакшена начинает помогать.
💻 P.S. Если интересно как делать, кидайте голоса на премку, чтобы можно было анимированный 💩 ставить под постом( 😂
Ну и урок запишу с воркфлоу на канал)
Остальные модели генерят - че попало.
В нем нельзя привязать миллион настроек, но это бесплатно и рендерит 5 секунд с разрешением в 762px на 432px. Рендерит примерно за 2-3 минуты на RTX 4080. После 3-4 генераций кеш забивается на столько, что нужно перезагружать комп.
Но пацаны у себя генерят на RTX 3070 за 5-6 минут.
Загружаете отснятое видео в воркфлоу COG на ComfyUI, модель генерит глубину с каждого кадра и по этой глубине - начинает генерить промпт который вы написали. Грубо говоря)
Можно выводить Canny (линии) и делать по ним, в место глубины. Но вот вместе они не работают пока.
Но для качества нужно пройтись апскейлером и еще тонну пост-обработки в AE. То фон плывет, то пальцы мажет. Лица вообще пока до свидания. Поэтому тут больше композ учить надо, нежели нейронки) Но я для видоса заморочусь, самому интересно))
Ну и опять же, то что вы видите у Ранвея, Соры и т.д. - это очень мощные сервера. Через которые прогоняются ваши запросы. У вас таких серверов дома нет. Как и ни у кого кроме крупных компаний.
Контролировать изображение в этих сервисах невозможно от слова - СОВСЕМ. Вы в каждом кадре будете получать другое изображение.
Если на посте хорошенько поковыряться (особенно имея Depth of field), можно сделать что-то оч веселенькое)) Для короткометражек, особенно для пре-продакшена начинает помогать.
Ну и урок запишу с воркфлоу на канал)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
💩12😁6😡3🤬2👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Оооо) щяс вообще прикроют лавочку и вернемся в палеозой обратно)
1 января у отеля Trump International Hotel в Лас-Вегасе произошёл взрыв электропикапа Tesla Cybertruck, в результате которого погиб водитель, а семь прохожих получили незначительные травмы.
Шериф полиции Лас-Вегаса отметил, что это первый известный случай в США, когда ChatGPT был использован для создания взрывного устройства.
Компания OpenAI, разработчик ChatGPT, заявила, что их модели предназначены для отказа от вредоносных инструкций и минимизации опасного контента.
В данном случае ChatGPT предоставил информацию, уже доступную в открытых источниках, и предупреждал о незаконности подобных действий.
Так шо во всем щяс нейронки виноваты будут😂
1 января у отеля Trump International Hotel в Лас-Вегасе произошёл взрыв электропикапа Tesla Cybertruck, в результате которого погиб водитель, а семь прохожих получили незначительные травмы.
Шериф полиции Лас-Вегаса отметил, что это первый известный случай в США, когда ChatGPT был использован для создания взрывного устройства.
Компания OpenAI, разработчик ChatGPT, заявила, что их модели предназначены для отказа от вредоносных инструкций и минимизации опасного контента.
В данном случае ChatGPT предоставил информацию, уже доступную в открытых источниках, и предупреждал о незаконности подобных действий.
Так шо во всем щяс нейронки виноваты будут
Please open Telegram to view this post
VIEW IN TELEGRAM
😁13🤬7💩4❤3😡2👍1
Media is too big
VIEW IN TELEGRAM
Дэнчик Рябов!
Работал с крупнейшими студиями СНГ: CGF и Dobro, сейчас в Trehmer.
Участвовал в крупных проектах, таких как Lego, Immutable, в фильмах «100 лет тому вперед» и «Огниво».
Специализируется на создании сложных визуальных эффектов для кино. Работает в🛸 Houdini и 🟠 Nuke
Сейчас то самое время, когда все ленятся и не могут подняться со своей кровати в апатии))
Поэтому я пригласил Денчика, чтобы он рассказал "Почему 3D — это боль, но мы всё равно его любим". И пообщаться чтобы поддержать друг друга и поделится информацией:
✅ Почему до сих пор нет кнопки "Сделать красиво".
✅ Неправильный рендер в 3 часа ночи перед дедлайном.
✅ Как победить свой перфекционизм.
✅ Нелепые комментарии от заказчиков. Как справится с этой болью.
✅ Простые советы которые улучшить не улучшаемое в своей работе.
✅ И конечно же как не перегореть оставляя 3D - хобби, а не рутинной работой.
📆 15 Января Стрим, эксклюзивно для конкурса ВИЖУ x JCENTERS
Портфель BEHANCE👈
Работал с крупнейшими студиями СНГ: CGF и Dobro, сейчас в Trehmer.
Участвовал в крупных проектах, таких как Lego, Immutable, в фильмах «100 лет тому вперед» и «Огниво».
Специализируется на создании сложных визуальных эффектов для кино. Работает в
Сейчас то самое время, когда все ленятся и не могут подняться со своей кровати в апатии))
Поэтому я пригласил Денчика, чтобы он рассказал "Почему 3D — это боль, но мы всё равно его любим". И пообщаться чтобы поддержать друг друга и поделится информацией:
Портфель BEHANCE
Please open Telegram to view this post
VIEW IN TELEGRAM
2😁20💩7🤬5😡3👍1
Блин 😓 , я когда увидела эту деревушку, сразу представила как бы я там отдыхала все прошедшие каникулы
Еще напомнила мне любимый Sims 4 с тропической картой - мой единственный опыт в 3д👉 👈
💥 Бесплатный набор 3D-моделей для Unreal Engine! 💥
🎁 Epic Games раздает контент-пак из 3 наборов, который нужно успеть забрать БЕСПЛАТНО до 14 января!
🏝️ Pirate Stilt Village Island – модульный пак с 95 моделями, работающими с Nanite и Lumen. Подходит для UE5 и UE4.
💀 Skeleton Guard – Цельная модель и отдельные части тела.
Модульный скелет и одежда.
Работает на UE4 и UE5
📖 Comic Book Cutscene –
режим фото, который позволяет создавать комиксный стиль
👉 Скачать тут
Зачилили бы в этой деревушке?😎
CG News
Еще напомнила мне любимый Sims 4 с тропической картой - мой единственный опыт в 3д
Модульный скелет и одежда.
Работает на UE4 и UE5
режим фото, который позволяет создавать комиксный стиль
👉 Скачать тут
Зачилили бы в этой деревушке?
CG News
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁6❤4
Залезли снова в LTXV (генератор видео в ComfyUI), в надежде все же выбить у него image2video результаты.
Работает быстро, но и выдает соответственное качество. К тому же наблюдается достаточно рандомное управление движением в этой модели.
То есть для для каждого изображения и в зависимости еще от разрешения видео, которое ты поставил, сидишь перебираешь 2-3 значения относительно друг друга (управляешь значением crf - некий параметр сжатия, который напрямую влияет на создание движения, и как ни странно управляешь фпс при генерации (это не конечный фпс видео, а именно фпс генерации) - что тоже оказывает влияние на создание движения).
Сам автор воркфлоу сравнивает работу с данной моделью c балансировкой приправ - соли и перца - для супа, имеющего вкус клея))
Также промпт имеет тоже немалое влияние на генерацию в данной модели. Модель любит длинные подробные описания происходящего и действий.
В итоге вот лучшие итоги генерации, в которых отсутствуют какие-то странные движения.
Работает быстро, но и выдает соответственное качество. К тому же наблюдается достаточно рандомное управление движением в этой модели.
То есть для для каждого изображения и в зависимости еще от разрешения видео, которое ты поставил, сидишь перебираешь 2-3 значения относительно друг друга (управляешь значением crf - некий параметр сжатия, который напрямую влияет на создание движения, и как ни странно управляешь фпс при генерации (это не конечный фпс видео, а именно фпс генерации) - что тоже оказывает влияние на создание движения).
Сам автор воркфлоу сравнивает работу с данной моделью c балансировкой приправ - соли и перца - для супа, имеющего вкус клея))
Также промпт имеет тоже немалое влияние на генерацию в данной модели. Модель любит длинные подробные описания происходящего и действий.
В итоге вот лучшие итоги генерации, в которых отсутствуют какие-то странные движения.
❤10👍2🤬2😡2