CGIT_Vines
11.6K subscribers
636 photos
1.34K videos
11 files
1.82K links
Канал о сферах CG, Игр и Генератива, все с помощью чего мы генерируем визуальное и интерактивное искусство.
Статистику не предоставляю, смотрите на tgstat.ru
Регистрация в РКН: № 6148197228
mentorcampus.ru

Вопросы и предложения: @Evgeniy_Vegera
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Ладно-ладно, в общем, вы просили, я замутил 😐
Заодно затестил еще одну сетку, которую мне посоветовал подписчик в комментариях - RaskAI.

Только переводил в ней уже из генерированного английского в Heygen на генерированный русский, т.е. провернул классический анадиплоз.

В общем мой голос я узнаю, схожесть на ~ 95%, с учетом что технология еще молодая, шерсть на жопе встает от того что нас ждет впереди.

Подписал видосы, чтобы было понятно че к чему. Cheers!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥54🤯96👍5
This media is not supported in your browser
VIEW IN TELEGRAM
Я бы хотел напомнить о безмаркерном решении для захвата движений - MoveAI.

Кроме захвата тела, вы можете трекать руки и пальцы, причем на очень высоком качестве. Это ли не счастье?

И немного офтопом хотелось бы подвайнить. Безусловно, сейчас огромное количество решений выходит в облачном виде, вам не нужно скачивать софт на компьютер. Где-то можно пользоваться триалами, где-то оформлять подписку.

Слишком много разделенных инструментов появилось, за которые нужно платить. Во-первых, нужно будет тратить много, чтобы выполнять свою работу быстрее и оставаться конкурентоспособным. Во-вторых, невозможно скачать эти решения с торрента. Это для тех, кто привык экономить на программном обеспечении. Так мы довольно быстро перейдем в облака. Про новую Винду тоже слухи ходят, что ее не нужно будет ставить на комп.

Я не сомневаюсь, что впереди нас ждут трудные времена, связанные с этим, но рано или поздно рынок решит и функционал станет более доступным. Но это будет потом.

Думаете, зря полыхаю?
9🔥3🤔3👍2
А еще нас сегодня 8000!!
Люблю вас ❤️
54🎉21👍7🔥2👎1
Forwarded from Aural Flow
Я 8000-ый!!! Уу
18😁4
This media is not supported in your browser
VIEW IN TELEGRAM
Ахаха, Роблокс, ты чего, прекрати!!!

Теперь миры можно там создавать вот так. Какой там скиллсет нужен для этого, вы, думаю, представляете?

Вы, например, отучились пару лет для геймдева, а 10-летний пиздюк делает х10 от вашей месячной зарплаты, просто потому что делает это по-другому, без вот этой всей шелухи.

Код будет писаться так же. В итоге, это станет чем-то похожим на YouTube только для игр. Эпики, кстати, этим же путем идут.

Просто представьте модель создания контента, которая при меньших вложениях будет приносить денег больше, чем среднестатистическая игра, например, Inside или Hellblade, хоть я и люблю и одну, и вторую. Повод задуматься, на чем вы сейчас сконцентрированы и какие навыки вам будут нужны лет через 5-10.

Как вам недавний хит "Only Up", кстати? Или, например, насколько серьезно подходили в продакшене к шоу "ЧБД"?
🔥33🤡6👍31👎1🤯1🙉1
Мы вчера могли наблюдать best practices от Unity о том, как похоронить свой движок за одну новость.

Они, я уверен, одумаются и смягчат политику, но запашок, конечно, останется.
Не устану повторять, Unreal и только Unreal.

Если не в курсе, вот можно почитать у Андрея 🙏
Please open Telegram to view this post
VIEW IN TELEGRAM
😁21👍8😢4👎31👏1💯1
This media is not supported in your browser
VIEW IN TELEGRAM
Принес вам прогресс в нейронном текстуринге от MeshyAI. Вопросов, конечно, больше, чем ответов.

Если нам не важен уникальный визуальный ряд и консистентность, то можно использовать.
Получение корректных, а тем более физически корректных, или хотя бы PBR значений в дополнительных текстурных каналах - речи не идет пока.

Таким образом, опять все гавно скидываем на этап прототипирования. Тут конечно, подобные инструменты могут чувствовать себя чуть более комфортно. Продолжаем следить, но чемоданы пакуем.

Как сделать красивую презентацию продукта с говенным текстурингом, смотреть тут
👍165🤔2😱2😐1
This media is not supported in your browser
VIEW IN TELEGRAM
Заканчивая рабочую неделю, просто не забывайте, зачем вы полезли в графику, котики🍸
Please open Telegram to view this post
VIEW IN TELEGRAM
😁53🥰15🤣9🤪6🔥51🍌1
This media is not supported in your browser
VIEW IN TELEGRAM
Если саммаризировать, то DLSS + наработки Nvidia по компрессии текстур + технологии подобные Nanite сделают картину более реалистичной.

С точки зрения разработки это не принесет существенных изменений, разве что будет хотеться впихнуть еще больше деталей в кадр, потому что вычислительные мощности как бы освободились, алло!

А это значит, что на продакшене нужно будет выдавать больше контента, а значит, что разработка станет дороже опять🤡

На оптимизацию можно будет подзабить еще немного. Это всегда весы или корзина с яйцами.

Конечно, оптимизация - это лютейшая хуйня, которой нам приходится заниматься, чтобы перераспределить ресурсы наиболее эффективным способом. Если бы не тупые, медлительные компьютеры, нам бы не пришлось обслуживать их прихоти).

Заценить новый DLSS 3.5 можно будет в ближайшем Cyberpunk
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥25👍7🤡6
This media is not supported in your browser
VIEW IN TELEGRAM
Я не буду писать много текста про релиз Dallie 3, потому что описание можно прочитать буквально везде.

Визуализация вместо тысячи слов, смотрите видео! Важна сама механика взаимодействия! Вектор развития агентов и их коллаборации будет только расти. По итогу мы придем к тому, что великий калькулятор можно будет просить о чем угодно, обо всем, что можно получить в цифровом виде. Фильмы, мультфильмы, игры, музыка, любой контент о вас, под вас.

Не понимаю, почему все раскупали "1984", когда нужно читать "Дивный новый мир".
👍32🤯9🤔31🔥1🤡1💯1
Forwarded from e/acc
Еще примеры и исследования на тему влияния ИИ на продуктивность людей и разделение труда. Спойлер: они все подтвреждают тезис о великом уравнении.

1. Исследование MIT почти 500 сотрудников, чья работа в основном состоит из написания текстов показало, что GPT существенно снижает разницу в качестве работы между сильными и менее опытными или талантливыми сотрудниками. При этом GPT больше заменяет усилия работников, чем дополняет их навыки.

2. Исследование показывает, что доступ к генеративному ИИ повышает творческий потенциал людей при написании коротких рассказов, особенно у менее креативных авторов, но в то же время приводит к снижению уникальности и разнообразия создаваемого контента.

3. Эксперимент оценивающий влияние помощи ИИ на юридическое мышление: студенты сдавали экзамены по праву с помощью GPT-4 и без неё. Оказалось, что худшие студенты выигрывали больше всего от ИИ, а лучшие - теряли.

4. Исследование более чем 5,000 сотрудников тех поддержки использующих генеративный ИИ. Худшие агенты техподдержки и новички только вышедшие на работу показали максимальный прирост результата. Так же сильно улучшилась оценка качества решения проблемы со стороны клиента.

Меня всегда в любом бизнесе (особенно, крупном) поражало количество тупой и бесполезной работы. Очень для многих ролей это было близко к 100%. Теперь эта проблема решена: тупую работу делают роботы, а люди, даже неквалифицированные, с помощью роботов делают (относительно и в кавычках) «сложную».
👍12🔥3🤔21
This media is not supported in your browser
VIEW IN TELEGRAM
Потестировал сервис verticle.one для генерации трехмерных моделей, textTo3d.

Промпт был такой: "Generate a red motorcycle with fire on fuel tank."

Как видно, пламя на бензобаке сгенерировать не получилось, так что давайте без деталей на текстурах, это пока слишком сложно.

Генерация проходит довольно долго (что-то около 15 минут), но сразу над 4 моделями. Качество оцените сами.

Я не вижу сложностей с тем, чтобы автоматизировать процессы по ремоделингу и ретекстурингу, с использованием проджекта из тех же диффузионных моделей.

На выходе получим чуть более приемлемый результат, который сможем кинуть в ту зловонную кучу, подготовленную для всех решений, способных заткнуть этап прототипа на ранних стадиях разработки продукта.

Это еще одна монетка в копилку того, что разработка трехмерного контента пойдет по этому пути, быстро или медленно, зависит от хайпа по генеративу. Мы сейчас на пике, но очевидно, и он пройдет.
🔥12🤔7👍3👏2😢1
This media is not supported in your browser
VIEW IN TELEGRAM
Спасибо за это интервью. Теперь, я думаю, что Фридман и Цукерберг оба ящеры, так как ни один из них не умеет выражать эмоции. 🐸

Ну ладно, к сути. Я пару раз постил эксперименты reality labs, и с тех пор принципиально ничего не изменилось. Самая главная боль в заднице - это сканирование аватаров, и не просто получение трехмерной головы, а скан всех ваших эмоций, чтобы их можно было блендить поверх вашей болванки. Этого не сделать без специальной студии сканирования.

Эффект присутствия - кайф, не спорю. Трёхмерная голова в метре от вас настолько близко, что можно полностью ощутить всю зловещесть долины. Супер.

Стоило ли это всех инвестиций, или Цукерберг все еще просто зализывает раны после насмешек над аватарами из его Horizon? 🤡

Или он сделал лица настолько реалистичными, потому что пытается быть похожим на человека? Но и тут не удалось. Ладно, извините, у меня, на самом деле, еще много шуток про него есть.

Выход Quest3 тоже принципиальными нововведениями не отличился, ни там, ни там нет киллер-фич. А вот где они действительно могут сойтись, так это, если обе технологии замерджить на ИИ агентов. Тут полный эдикшн обеспечен, Гослинг не даст соврать.

VR умер. Да здравствует VR!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥17😁6🤡21
This media is not supported in your browser
VIEW IN TELEGRAM
Я просто охреневаю, какие грани обретает идея, если посмотреть на неё под немного другим углом.

Что это - ретро-реконструкция, historical splatting, prehistoric metaverse? Хаха.

Так или иначе, Polycam научился Gaussian splatting, и на мобильных устройствах его тоже можно попробовать.

Кидайте идеи, что можно перевести в 3D? Прибытие поезда и высадка на луну уже заняты!
🤯32🔥19👍54❤‍🔥3😁1
У меня есть знакомый Артем, который делает игры. Не тот, о котором вы могли подумать — тому еще долго делать. 😂

А вот другой Артем уже выпустил игру, над которой они работали достаточно долго, около 4 лет. Мы еще на старте общались, у нас не получилось поработать вместе, но я все время следил за ходом разработки. И вот наконец-то ребята релизнулись и уже в трендингах стима висят.

Могу только порадоваться и не останавливаться на достигнутом.
Поддержать ребят можно на Steam и VK Play, благо стоит не дорого совсем.

Тут чуть подробнее Артем описал.

Ваще не реклама, хорошего человека можно и просто так поддержать.
🔥44👍72💩2🤡1🤣1
💵 Недавнее исследование Morgan Stanley показывает, что к 2030 году количество людей, совмещающих занятость на нескольких работах, значительно увеличится.

Сейчас общее количество людей, в целом, совмещающих такой подход, около 5%, и этот показатель растет на 5% в год.

Помните, как я вам говорил, что не нужно бояться того, что ИИ лишит вас работы? И что мы будем работать только больше, а также учиться больше в разных областях. Причем эти знания будут больше поверхностными, базовыми, а всю остальную работу сделает ИИ.

Так что технологическая прокрастинация откладывается, готовьтесь к эстафете.
😢21😐6🤔4👍2🤡1
This media is not supported in your browser
VIEW IN TELEGRAM
Давайте про еще одну технодемку повайним.

Откуда вообще появилась уверенность в том, что такая камера это вообще удачный подход? (The complex expedition не считается) Никто же играл еще. Просто увидели хорошую механику хайпа и начали копипастить.

Во первых это лютейшее дерьмо. Во вторых это скучно. Когда все вокруг на сканах, это низкий жанр! И в продакшене это скучно и смотреть на это скучно. В третьих опять зачем-то показывать ебучую трясущуюся камеру, ходьбу со скоростью последней стадии артроза. И о механика запугивания змеи веточкой!

Я очень надеюсь, что это не выйдет в игровой прототип и так и останется техдемкой.

Писал текст вчера ночью, и чет утром прочитал, прям жёстко получилось, сделали и сделали, молодцы. Биполярочка видимо)

К слову, с блика от солнца на мобилке я кайфанул больше чем от всей демки.

Полное видео
😁26💩5👏31🤝1
Просто охренеть, как же я ванганул, когда писал этот пост.

Ждать долго не пришлось, потому что Андрей Карпатный выдал пост, который описывает возможный вектор развития LLM моделей в сторону базы ядра операционной системы на основе текущих вычислительных концепций. Потому что многие из них схожи с тем, чем занимается ОС на низком уровне.

Еще одна занимательная деталь: у Карпатного в профиле написано - "Building a kind of JARVIS". Стоит ли сомневаться?
🔥19🤯11💅2
This media is not supported in your browser
VIEW IN TELEGRAM
Забытые технологии древних.

Марко из Португалии делает то, на что многие сейчас не согласятся. Делает долго, руками. Можно ли считать, что в перерывах между съемками сет-декораторы так делают свои pet проекты?
69🔥26🤡1
This media is not supported in your browser
VIEW IN TELEGRAM
Когда уже этот Вальтрон соберется воедино?

Neural Microfacet Fields for Inverse Rendering - метод, который позволяет восстанавливать характеристики материалов, основываясь всего на 100 фотографиях объекта.

Точность будет страдать довольно долго, пока мы не отодвинем барьер вычислений, который позволит быстрее обрабатывать большие объемы данных. Доработка руками, конечно, все еще нужна, но хотя бы мы сможем получать базовое распределение по PBR картам, чтобы не генерировать их с нуля.

Подробнее тут
11🔥6🤔2👍1
Че, у кого так же?)

Суть показать как вы изменились с момента как начали заниматься гемдевом.(подставьте вашу профессию)
Давайте, кидайте в комменты)
Я начну.
😁40🔥9🤯3