CGIT_Vines
10.7K subscribers
604 photos
1.29K videos
11 files
1.78K links
Канал о сферах CG, Игр и Генератива, все с помощью чего мы генерируем визуальное и интерактивное искусство.
Статистику не предоставляю, смотрите на tgstat.ru
Регистрация в РКН: № 6148197228
mentorcampus.ru

Вопросы и предложения: @Evgeniy_Vegera
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Как они будут генерировать игровую картинку?

Опять же, не идёт речь о полноценной игре с логикой, механиками и т.д. Тут дискутировать стоит о генеративном рендеринге.

Как видите, контекст с каждым разом держится всё увереннее. Я всё ещё настаиваю на разметке и сегментировании, как возможном варианте решения.

Да, возможно, это не произойдёт одномоментно, но примеры можно видеть сейчас в каком-нибудь NVIDIA RTX Remix, где довольно быстро (относительно) можно сделать ремастер старой игры. (Пример с текстурами)

Генерация выше из Kling.
16🔥3👀3🥴2
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 поразительный скачок!

В последние пару недель много чего понавыходило, но больше всего шума от видеогенераторов.

На видео сравнительный тест, который даст вам понять без лишних слов, на что обратить внимание. Runway, Pika, Lumalabs — к последнему, как вы поняли, стоит присмотреться. Кроме того, у вас будет 30 бесплатных, возобновляемых генераций в месяц.

Из элементов управления пока мы имеем только текст и референсную картинку, что означает, что мы всё ещё в начале пути. Но на скачкообразное повышение качества невозможно не обращать внимания.

Видео открывайте на полный экран.

Пробовать тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥46😱3🦄32
This media is not supported in your browser
VIEW IN TELEGRAM
Давайте теперь глянем, какое количество людей задействовано на бэкстейдже во время съемки одного шота с каскадерами, огнем и авариями.

Примерно каждый из них в этом шоте и тысячи других таких же профессионалов своего дела последний год-два хотя бы раз задумывались: может быть, стоит сменить профессию сейчас, чтобы потом внезапно не стоять на рынке труда с другими такими же?

Надеюсь, логика брала верх, потому что только часть работы уйдет в автоматизацию и станет чем-то вроде ротоскопа на посте.

Ваши варианты, съемки шота из какого фильма на видео? Ответ дам в конце дня.
Ответ: те кто ответил Трансформеры: Последний Рыцарь, правы.
👀19🔥5💯32👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 ЭТО ПРОСТО НЕВЕРОЯТНО!

Посмотрите, что творят нейросети!
Подборка 10 лучших нейрогенераций на все случаи жизни!
Невероятное качество, каждый опрошенный художник уверен, что потеряет работу после такого!
Please open Telegram to view this post
VIEW IN TELEGRAM
😁55🥱8🔥6🤡4🌭4
Мы: Создаем себе искусственный интеллект в надежде исправить недостатки нашей человечности и решить фундаментальные вопросы существования, обучая этике и методам принятия правильных решений.

ИИ в это время:
This media is not supported in your browser
VIEW IN TELEGRAM
😁56😭43🔥2💯1
This media is not supported in your browser
VIEW IN TELEGRAM
Я тут постоянно говорю о том, что нам не хватает инструментов для более точной настройки генераций, чтобы можно было более гибко настраивать и получать более предсказуемые результаты, пригодные для продакшена.

Таких инструментов пока немного, и чаще всего они собраны энтузиастами на коленке.

Как пример, Stable Projectorz — инструмент, созданный для текстурирования 3D-моделей с помощью нейросетей.

Из интересного, функционал поддерживает загрузку 3D-моделей и консистентную генерацию по ракурсам, вспомогательно простраивая карту глубины в реальном времени. Так же очень полезной выглядит фича инпэинтинга по маскам.

Работает на видеокартах NVIDIA (от GTX 1080) или AMD с поддержкой Stable Diffusion и от 12 ГБ оперативки.

Самое главное — после просмотра процесса текстурирования возникает вопрос: для каких целей вы это используете? И что самое главное, если бы вы делали эти же самые манипуляции для качества продакшен реди, не было бы это быстрее сделано привычными пайплайнами текстурирования с более предсказуемыми результатами?

Кажется, что ответ пока всё тот же: для быстрых прототипов или объектов дальнего плана, при сильной стилизации, вполне может сгодиться. Для семи или фотореализма — едва ли.

Но автору безусловный респект за сборку и возможность протестировать бесплатно!
👏18🔥632
Embracer Group, имея в своём бизнесе более 140 игровых компаний, недавно отличилась новым заявлением. (В прошлый раз они уволили около 1400 сотрудников)

В годовом фин. отчёте упомянула свою политику в отношении ИИ, с помощью которого планирует "улучшить" разработку игр, создание графики и написание сценариев.

Обещают, что это не способ заменить художников, а всего лишь удобный инструмент, способный облегчить художникам разработку. Это также поможет студии эффективнее конкурировать со студиями, которые уже внедрили подобные инструменты.

Понятно, да? Другие уже внедрили, примерно года 2-3 назад начали внедрять, если что.

Первое, что нужно понимать: если у компании есть возможность удешевить процессы и ускорить их, она это сделает. Если для этого нужно уволить человека, человека увольняют.

Если у вас всё ещё стоит вопрос, внедрять ли в свою работу ИИ-инструменты, значит, вы уже отстали примерно на 2 года. В следующие 2 года перед вами будет стоять выбор: "адаптируйся или умри".

Если в контексте ИИ слышите про человекоцентричный подход внутри компаний — ну, вы поняли...
🦄11💩64🤯2💯1
Только с друзьями могу поделиться этим разъебным мемом.
😁100💯1710🔥6🌚2🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Зачем нужны концептеры?

Обычно чтобы создавать муд кадра и дать понять продакшену, что будет происходить в конкретной сцене.

Иными словами, передать вижн и настроение в кадре.

Теперь те, кто сообразит использовать все доступные инструменты, будут цениться больше, чем дефолтные концептеры. Конечно, при условии одинаковых художественных навыков.

Всегда воспринимайте свою работу шире, чем это принято в индустрии.

#magnific для style transfer
#lumalabs для video animation
#elevenlabs для sounds
22🔥1174🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
Хуанг в недавнем интервью напомнил, что последний DLSS работает не через интерполяцию между кадрами, а через генерацию, что бы это ни значило, но намек на создание промежуточных кадров "с нуля".

Т.е. в каком-то роде игры хоть и на ничтожный процент, но уже генерируются. Да, тут сразу возникает масса вопросов: а как быть со взаимодействием игрока и мира? В кино понятно: ты смотришь на движущиеся картинки, там нет никакого взаимодействия и свободы выбора поворота камеры.

В играх же это происходит постоянно: ты пнул ящик, должен ли он перегенерироваться или генерация должна быть запечена в такую же сгенерированную геометрию?

Это выглядит вполне реальным, и первыми объектами пойдут стационарная геометрия, с которой ты не можешь взаимодействовать, большие здания, объекты заднего плана, висты, горы. Если мы уйдем в запеченные волюметрики, то и FX тоже можно так генерировать.

Т.е. везде в основе всё равно лежит геометрия, пусть и сгенерированная. По крайней мере, так я себе вижу ближайшее применение, и оно вполне реально.

Есть ещё телега про персонажей, но это отдельная история.

За видео спасибо @AL_Zemskov
Видео сделано в Kling
🔥23😁32🤔1
На днях вышел трейлер "Здесь" Роберта Земекиса, снятый статичной камерой.

В самом начале на 10 секунде обратите внимание на лицо Робин Райт. У меня сразу включилась зловещая долина, причем я даже подумал, что использовали faceswap через новые алгоритмы. Нет ощущения, что делали классическими способами, потому что нельзя так накосячить ручной работой с глазами. Что думаете, как делали?

Фильм, кажется, все равно будет крутым, Земекис просто не может облажаться. Релиз 15 ноября.

Тут немного рассказали о фильме.
🔥15🤔74
Forwarded from Derp Learning
Вот ComfyUI докатился и до 3dsMax. С опозданием в годик-другой, но нам не привыкать :D
В плагин tyFlow встроили поддержку ComfyUI по аналогии с тем, как это сделано было для krita, blender и иже с ними.
Сложно назвать это новинкой, но проекция текстуры во вьюпорте работает без бубна - и на том спасибо.

youtube


@derplearning
8🔥6🥱31
This media is not supported in your browser
VIEW IN TELEGRAM
Простой тест: если у вас возникает эмпатия к роботу при просмотре этого видео, то вы проголосуете за равные с людьми права для роботов.
😁25💯19😡16😭10🤮32
Невероятный кубический миллиметр мозга, запечатлённый в нанометровом диапазоне.

Рендер базируется на данных электронного микроскопа и показывает позицию нейронов в коре головного мозга.

Образец ткани размером в один кубический миллиметр содержал около 50 000 клеток и 150 миллионов синапсов — точек соединения нейронов. Некоторые пары нейронов были связаны через 50 синапсов.

На изображении крупным планом показаны возбуждающие нейроны, окрашенные по размеру: красные — самые большие, синие — самые маленькие. Размеры клеток составляют около 15-30 микрометров.

Исследование произведено: Google Research & Lichtman Lab.

У меня к вам просьба, у вас наверняка есть знакомые нейробиологи, которые имеют представление об ИИ и нейросетях, мне очень нужны эти контакты, поделитесь, пожалуйста ❤️
🔥4075👀1
This media is not supported in your browser
VIEW IN TELEGRAM
Я фанатею от всяких нишевых, не массмаркет штуковин, типа кастомных клавиатур, всяких NFC-колец, электроэнцефалографов и т.д.

Чувак собрал на Ардуино два мультиплеерных контроллера с дисплеями, соединёнными проводом. Написал монохромный Лазертаг, чтобы играть с друзьями. Вся эта прелесть крутится на 60 fps и занимает всего 12 kb.

На видео всего два игрока, соединённых через библиотеку и протокол I2C, но технически она может поддерживать до 127 устройств на одной шине. Я бы посмотрел на этот хаб.
🔥4310🤯3
This media is not supported in your browser
VIEW IN TELEGRAM
Эта реклама Volvo была сделана за 24 часа одним человеком. Сетки + AE.
Теперь представляем ситуацию, когда заказчик приходит и просит прорекламировать свои матрасы, "чтобы как у Нолана было!".

С одной стороны, наступает просадка в заказах, у маленьких и не очень, постовых студий. Потому что зачем, если Васян сделает за 24 часа.
С другой стороны, мы имеем заказчика, который мозг вытрахает, если у вас не тот цвет травы или его товар выглядит хотя бы на миллиметр не так, как произведён на фабрике в Китае. А если не фул CG, то там и косты на супервайзеров, и на камеры, и на менеджеров, и на актёров, которые ещё не закончили курсы, но уже стоят охулиард. Т.е. все те ребята как получали, так и будут получать, в том числе и директора студий.

А экономить будут, я думаю, вы уже догадались, на бедолагах CG-цеха.
Но, как я уже говорил, это временная аномалия на рынке, которая может продержаться пару лет. А потом люди, студии или сквад, собирающийся на проект, чтобы запилить графику, снова займут свои места. Только это уже будут другие люди!
28🤔106🤮5🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Вы сидите в кресле перед большим экраном. На дворе 1979 год. Указываете пальцем (пультом), куда вы хотите переместить разноцветные примитивы, нарисованные компьютером по команде вашего голоса. И он рисует. Также он понимает не только формы и цвета, но и может поставить объекты за или поверх уже нарисованных.

Кроме этого, вы можете вести примитивные указательные диалоги. "Возьми (это), поставь (туда)." Система может распознавать голос, простые команды, немного текст, но не в том виде, как сейчас, конечно.

И вот теперь, если бы вам в 79 году принесли то, что мы можем делать в 2024 с LLM и GAN, вы бы скорее сказали: "Какого хрена так мало?" 45 лет спустя, после таких экспериментов в 79 году, мне кажется, что мы должны были бы добиться большего, разве нет?

Проект возглавлялся Крисом Шмандтом, на видео одна из итераций уже 82 года, но в 79 были первые тесты с примитивами.
Выдержка из журнала «The geek» MIT Tech Review 2019.
🔥35🤯18🥱7💯411
This media is not supported in your browser
VIEW IN TELEGRAM
Просто для хроники, разница между генерациями видео сейчас и год назад.
🔥69134👏4💩1
This media is not supported in your browser
VIEW IN TELEGRAM
У вас ведь тоже наступает момент осознания бессмысленности, когда вы в ночи лежите с телефоном, уже времени дохера поздно, а вы листаете ленту в Тик-Токе, Инсте, ВК, Телеге или ещё где-то?

Я пока листаю ленту, на меня за это время выливается такое количество контента: всезнающие врачи, научные эксперименты, теории заговоров, клоуны с шутками, блогеры, эксперты во всех областях, тренды по миру и Crawly — кстати, обожаю его! Психологи и коучи говорят, что надо есть и как нельзя спать.

Все же понимают, что не становятся от этого набора знаний умнее, оправдываясь тем, что "я заслужил сегодня, был сложный день"?

А потом вы понимаете, что нужно было остановиться полчаса назад и лечь спать. Какая мысль приходит к вам в голову, когда вы решаете: "Вот всё, убираю это нахер, пора ложиться"?

И, кстати, из чего у вас лента состоит?
😭286👎2💩1🤡1
This media is not supported in your browser
VIEW IN TELEGRAM
На случай, если вы вдруг искали возможность сделать липсинк для видео или фото (для сгенерированных тоже подойдет).

Можете попробовать этот тутор для ComfuUI через LivePortait.

Линки, где качать и как устанавливать, есть в описании к видосу.

Тут
🔥41😁20🤣42👎1🤮1💩1
Нет, вот это лучшее!!
🔥30😁15🤣4😱1