This media is not supported in your browser
VIEW IN TELEGRAM
Maya Creative - как бы новый софт, или как усложнить жизнь юзеру.
Все просто - берется старая добрая Maya, из нее выкусывается вся физика и симуляция, интеграция с Substance и UE, и вообще возможность грузить сторонние плагины, тун и вектор шейдеры, а заодно линуксовая версия.
Все это именуется например ... Maya Lite, нет.. Maya Personal Learning Edition, нет.. не модно, да и уже было несколько лет назад.
Пусть это будет Maya Creative!
А чтобы максимально запутать юзера и усложнить ему выбор, пусть Maya Creative будет доступна только за .. токены!
Какие-такие токены?
Токены FLEX, которые Автодеск ввел в обращение в марте этого года.
Сначала покупаешь токены, а потом можешь посуточно их тратить, этакая дневная подписка, Maya Creative обойдется примерно в три доллара в сутки.
Ну и вишенка, взять токенов можно только на 300 долларов минимум.
Я помню была хорошая шутка в 90-х. Было все просто, вот есть у тебя 286й комп, потом можно взять 386й, следующий был 486й, а потом... А потом Интел забрал к себе дизайнеров из дома почившего Версаче, и после Пентиумов уже никто не мог разобраться какой процессор за каким следует. Маркировка стала похожа на пестрый модельный ряд Версаче.
Глядя на список софтов от Автодеска и Адобе, я думаю, что часть дизайнеров Версаче переметнулась из Интела в софтверную индустрию. И ну кроить.
https://www.autodesk.com/products/maya-creative/compare
Все просто - берется старая добрая Maya, из нее выкусывается вся физика и симуляция, интеграция с Substance и UE, и вообще возможность грузить сторонние плагины, тун и вектор шейдеры, а заодно линуксовая версия.
Все это именуется например ... Maya Lite, нет.. Maya Personal Learning Edition, нет.. не модно, да и уже было несколько лет назад.
Пусть это будет Maya Creative!
А чтобы максимально запутать юзера и усложнить ему выбор, пусть Maya Creative будет доступна только за .. токены!
Какие-такие токены?
Токены FLEX, которые Автодеск ввел в обращение в марте этого года.
Сначала покупаешь токены, а потом можешь посуточно их тратить, этакая дневная подписка, Maya Creative обойдется примерно в три доллара в сутки.
Ну и вишенка, взять токенов можно только на 300 долларов минимум.
Я помню была хорошая шутка в 90-х. Было все просто, вот есть у тебя 286й комп, потом можно взять 386й, следующий был 486й, а потом... А потом Интел забрал к себе дизайнеров из дома почившего Версаче, и после Пентиумов уже никто не мог разобраться какой процессор за каким следует. Маркировка стала похожа на пестрый модельный ряд Версаче.
Глядя на список софтов от Автодеска и Адобе, я думаю, что часть дизайнеров Версаче переметнулась из Интела в софтверную индустрию. И ну кроить.
https://www.autodesk.com/products/maya-creative/compare
👍10🔥2👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Недавно постил про ИИ-релайт для фотографий.
Смышленые пользователи быстро сообразили, что коль скоро там все основано на экстракте глубины из фоток, то можно попытаться подсунуть в систему не только фотки, но и рисунки с достаточным количеством бликов.
И таки у них получилось!
ИИ-решает!
Композеры такие - а что так можно было?
https://www.instagram.com/p/CicNQ5JAXFu/
Смышленые пользователи быстро сообразили, что коль скоро там все основано на экстракте глубины из фоток, то можно попытаться подсунуть в систему не только фотки, но и рисунки с достаточным количеством бликов.
И таки у них получилось!
ИИ-решает!
Композеры такие - а что так можно было?
https://www.instagram.com/p/CicNQ5JAXFu/
👍15
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ-кинезиология.
ИИ-зеркало видит вас насквозь и следит за безопасностью ваших фитнес-тренировок.
Исследователи из Университета Брешии в Италии разработали систему компьютерного зрения для умного зеркала, которое может повысить эффективность фитнес-тренировок как дома, так и в спортзале.
Умное зеркало показывает пользователю суставы, задействованные в упражнении. Координаты этих суставов используются для определения фаз упражнения и подсчета повторений. Зеркало визуализирует суставы в зависимости от типа упражнений.
Выглядит круто.
Следующий шаг - зеркало показывает, как мучается ваш желудок, переваривая всю эту хрень, которую вы в него забросили.
Следующий шаг, зеркало показывает, какая часть мозга нагревается, решая задачу "курица или рыба".
https://techxplore.com/news/2022-09-deep-learning-augmented-smart-mirror.html
ИИ-зеркало видит вас насквозь и следит за безопасностью ваших фитнес-тренировок.
Исследователи из Университета Брешии в Италии разработали систему компьютерного зрения для умного зеркала, которое может повысить эффективность фитнес-тренировок как дома, так и в спортзале.
Умное зеркало показывает пользователю суставы, задействованные в упражнении. Координаты этих суставов используются для определения фаз упражнения и подсчета повторений. Зеркало визуализирует суставы в зависимости от типа упражнений.
Выглядит круто.
Следующий шаг - зеркало показывает, как мучается ваш желудок, переваривая всю эту хрень, которую вы в него забросили.
Следующий шаг, зеркало показывает, какая часть мозга нагревается, решая задачу "курица или рыба".
https://techxplore.com/news/2022-09-deep-learning-augmented-smart-mirror.html
👍9
This media is not supported in your browser
VIEW IN TELEGRAM
Infinite Fluidity - Stable Diffusion
Еще один пример анимации с помощью Stable Diffusion
Я не поклонник таких работ.
Все это напоминает мне первые эксперименты с Elastic Reality, когда пользователи в визгами и писками бросились экспериментировать "ой, смотрите, как можно сделать!".
Так и сейчас, собирая неуправляемые анимации, юзеры с восторгом постят "гляньте чо получилось".
Анимация - она как бы про другое.
И если из статической картинки мозг извлекает смыслы сам (даже если их там нет). То анимация - это уже рассказывание историй. Поэтому абстрактные анимации быстро приедаются, мозгу нужен нарратив, а извлекать смыслы без созерцания, пытаясь угнаться за 30фпс, ему сложновато.
Да и с консистентностью сейчас явные проблемы - ни о каком сквозном цветовом или композиционном решении речи пока не идет.
Пока.
До времени.
https://vimeo.com/750218678
Еще один пример анимации с помощью Stable Diffusion
Я не поклонник таких работ.
Все это напоминает мне первые эксперименты с Elastic Reality, когда пользователи в визгами и писками бросились экспериментировать "ой, смотрите, как можно сделать!".
Так и сейчас, собирая неуправляемые анимации, юзеры с восторгом постят "гляньте чо получилось".
Анимация - она как бы про другое.
И если из статической картинки мозг извлекает смыслы сам (даже если их там нет). То анимация - это уже рассказывание историй. Поэтому абстрактные анимации быстро приедаются, мозгу нужен нарратив, а извлекать смыслы без созерцания, пытаясь угнаться за 30фпс, ему сложновато.
Да и с консистентностью сейчас явные проблемы - ни о каком сквозном цветовом или композиционном решении речи пока не идет.
Пока.
До времени.
https://vimeo.com/750218678
👍12
Тут вот пишут, что поток генеративных работ из Midjourney и Stable Diffusion потихоньку затапливает нижние этажи NFT-рынка. Что предсказуемо.
Но это только начало.
Сейчас ИИ-комиксы и так называемые графические новеллы начнут наводнять Google Play и Amazon.
Видели обороты этих смешных "визуальных" книжек на рынке мобильных аппов?
Держите такую новость.
Завтра на Гугл Плей и Амазоне выходит 706-страничный комикс Star Maker от Кевина Хесса, полностью собранный в Midjourney. Хесс сотворил его за 6 дней.
За первые шесть дней Хесс успел сделать большую часть работы по созданию изображений. Остальная работа в течение следующей недели после этого заключалась в верстке, создании надписей, исправлении ошибок, перепроверке и так далее. В общей сложности, по словам Хесса, от начала до конца было потрачено около 100 часов работы.
Он также обозначает текущие проблемы с консистентностью.
"ИИ на данный момент не очень хорошо подходит для создания индивидуальных изображений людей, делающих конкретные вещи. Так что эпопея на 40 000 страниц "Полного собрания приключений мальчиков Харди" на самом деле не так проста, как кажется. Если вам нужны только небоскребы, цветущие вишни или плюшевый медвежонок, и вам больше не придется их видеть, это замечательно. Если вам нужно семьдесят панелей одного и того же персонажа, выполняющего тридцать сложных действий, вы никогда не добьетесь этого с искусством ИИ, прямо сейчас".
Хесс говорит, что если Star Maker окажется достаточно популярным, он сделает следующую книгу Стэплдона, а может быть, даже "Инферно" Данте или "Откровение".
Смотреть больше тут:
https://beincrypto.com/ai-art-worlds-first-bot-generated-graphic-novel-hits-the-market/
Но это только начало.
Сейчас ИИ-комиксы и так называемые графические новеллы начнут наводнять Google Play и Amazon.
Видели обороты этих смешных "визуальных" книжек на рынке мобильных аппов?
Держите такую новость.
Завтра на Гугл Плей и Амазоне выходит 706-страничный комикс Star Maker от Кевина Хесса, полностью собранный в Midjourney. Хесс сотворил его за 6 дней.
За первые шесть дней Хесс успел сделать большую часть работы по созданию изображений. Остальная работа в течение следующей недели после этого заключалась в верстке, создании надписей, исправлении ошибок, перепроверке и так далее. В общей сложности, по словам Хесса, от начала до конца было потрачено около 100 часов работы.
Он также обозначает текущие проблемы с консистентностью.
"ИИ на данный момент не очень хорошо подходит для создания индивидуальных изображений людей, делающих конкретные вещи. Так что эпопея на 40 000 страниц "Полного собрания приключений мальчиков Харди" на самом деле не так проста, как кажется. Если вам нужны только небоскребы, цветущие вишни или плюшевый медвежонок, и вам больше не придется их видеть, это замечательно. Если вам нужно семьдесят панелей одного и того же персонажа, выполняющего тридцать сложных действий, вы никогда не добьетесь этого с искусством ИИ, прямо сейчас".
Хесс говорит, что если Star Maker окажется достаточно популярным, он сделает следующую книгу Стэплдона, а может быть, даже "Инферно" Данте или "Откровение".
Смотреть больше тут:
https://beincrypto.com/ai-art-worlds-first-bot-generated-graphic-novel-hits-the-market/
👍20🔥4👎2
This media is not supported in your browser
VIEW IN TELEGRAM
Пожалуй, главным плюсом таких ИИ-видео является то, что их можно рассматривать покадрово (как они, собственно, и создавались).
В динамике история как бы разваливается.
Но сделано круто, ничего не скажешь. Контемпорари Арт, чо.
Подробности:
https://twitter.com/i/status/1570101330328358915
В динамике история как бы разваливается.
Но сделано круто, ничего не скажешь. Контемпорари Арт, чо.
Подробности:
https://twitter.com/i/status/1570101330328358915
👍22🔥3
Вот вам пример полностью генеративного AI Game Art.
В текстовую игру AI Dungeons добавили Stable Diffusion!
Теперь пользовательском интерфейсе AI Dungeon вы можете в любое время выбрать параметр «Просмотреть», чтобы предложить Stable Diffusion создать иллюстрацию в тому бреду, который вы видите на экране.
Теперь ИИ генерит не только тексты и сценарии, но и картинки.
Кольцо сужается.
https://techcrunch.com/2022/09/15/latitude-brings-ai-generated-artwork-to-ai-dungeon/
В текстовую игру AI Dungeons добавили Stable Diffusion!
Теперь пользовательском интерфейсе AI Dungeon вы можете в любое время выбрать параметр «Просмотреть», чтобы предложить Stable Diffusion создать иллюстрацию в тому бреду, который вы видите на экране.
Теперь ИИ генерит не только тексты и сценарии, но и картинки.
Кольцо сужается.
https://techcrunch.com/2022/09/15/latitude-brings-ai-generated-artwork-to-ai-dungeon/
👍12🔥4
Режиссер Элвис Дин рассказывает о своем опыте создания комикса с помощью Midjourney. Отличные аналогии — работа с текущим ИИ похожа на попытку общаться с вашей собакой или на бесконечное количество художников-обезьян, которые не дают вам именно то, что вы хотите, но что-то вроде этого.
В конце концов, он сравнивает этот процесс с импровизационным театром, где вы должны подражать тому, что делает ваш партнер по сцене. Он обсуждает ограничения современной технологии, вопросы авторского права и тот факт, что, по крайней мере сейчас, вы не можете получить предсказуемые результаты.
Но, тем не менее, в конце концов Дин создал комикс, которым он весьма доволен, и разместил его в сети. И планирует продолжать.
https://youtu.be/BGNHq4aNUSo
Сам комикс тут:
https://m.webtoons.com/en/challenge/goats/the-dream/viewer?title_no=798665&episode_no=1&webtoon-platform-redirect=true
В конце концов, он сравнивает этот процесс с импровизационным театром, где вы должны подражать тому, что делает ваш партнер по сцене. Он обсуждает ограничения современной технологии, вопросы авторского права и тот факт, что, по крайней мере сейчас, вы не можете получить предсказуемые результаты.
Но, тем не менее, в конце концов Дин создал комикс, которым он весьма доволен, и разместил его в сети. И планирует продолжать.
https://youtu.be/BGNHq4aNUSo
Сам комикс тут:
https://m.webtoons.com/en/challenge/goats/the-dream/viewer?title_no=798665&episode_no=1&webtoon-platform-redirect=true
👍12🔥1
Media is too big
VIEW IN TELEGRAM
Субботнего Кинуривза вам в ленту.
Классно сделано.
Уже бренд
Классно сделано.
Уже бренд
🔥38👍5👎4
Уже писал про бесшовные текстуры с помощью Stable Diffusion.
Теперь умельцы прикрутили это дело к Блендору.
Ещё один показатель того, как работает опенсорс - это пример того, как по сути можно юзать весь SD в Блендоре.
Интересно, в каком году появится что-то подобное в Maya.
Наверняка инхаус уже что-то есть...
https://t.me/CGIT_Vines/1604
Теперь умельцы прикрутили это дело к Блендору.
Ещё один показатель того, как работает опенсорс - это пример того, как по сути можно юзать весь SD в Блендоре.
Интересно, в каком году появится что-то подобное в Maya.
Наверняка инхаус уже что-то есть...
https://t.me/CGIT_Vines/1604
Telegram
Метаверсище и ИИще
Бесшовные текстуры с помощью Stable Diffusion.
Куда катится мир?
Который, похоже разделился на "до Stable Diffusion" и после него.
https://twitter.com/metasemantic/status/1568997322805100547
Куда катится мир?
Который, похоже разделился на "до Stable Diffusion" и после него.
https://twitter.com/metasemantic/status/1568997322805100547
🔥14
This media is not supported in your browser
VIEW IN TELEGRAM
Ну штожш, можно выпивать за эфыксеров, персонажников, да и в целом за халивуд.
StableDiffusion Img2Img плюс Ebsynth Creature Test
Представляете сколько гримёров, костюмеров и кастинг скаутов пойдут в разметчики картинок с костюмами и лицами.
https://twitter.com/LighthiserScott/status/1571351893208715264
StableDiffusion Img2Img плюс Ebsynth Creature Test
Представляете сколько гримёров, костюмеров и кастинг скаутов пойдут в разметчики картинок с костюмами и лицами.
https://twitter.com/LighthiserScott/status/1571351893208715264
🔥31👍8👎1
Домашний метаверс.
Пока все пишут про эппловский Room Plan, поглядите, что делает Polycam3D.
Фишка в том, что в один клик(тап?) оцифрованный мир можно отправить в "метаверс" - и вот вам копия окружающей действительности, населенная всякими виртуальными тварями.
Еще один пример быстрого создания digital twins с помощью лидара и палок.
Также подумайте о том, сколько новых ассетов порождают такие подходы.
Обобщенные "библиотеки всего" могут наводнить этот мир очень скоро.
P.S. С захватом текстур там не очень, но построение интерьеров впечатляет.
https://twitter.com/virtual_amir/status/1571242527990104072
Пока все пишут про эппловский Room Plan, поглядите, что делает Polycam3D.
Фишка в том, что в один клик(тап?) оцифрованный мир можно отправить в "метаверс" - и вот вам копия окружающей действительности, населенная всякими виртуальными тварями.
Еще один пример быстрого создания digital twins с помощью лидара и палок.
Также подумайте о том, сколько новых ассетов порождают такие подходы.
Обобщенные "библиотеки всего" могут наводнить этот мир очень скоро.
P.S. С захватом текстур там не очень, но построение интерьеров впечатляет.
https://twitter.com/virtual_amir/status/1571242527990104072
🔥10👍1