This media is not supported in your browser
VIEW IN TELEGRAM
А вот когда такие ребята пристегивают генеративный арт к себе в папйплайн, то становится понятно, что никаким протестами это уже не остановить. Мастодонты в городе.
Roblox внедряет генеративный ИИ в свои игровые миры.
Одна из самых интересных частей генеративного ИИ Roblox заключается в том, что он обеспечит более динамичную и реактивную игровую среду.
Игровой мир можно запрограммировать так, чтобы он реагировал на действия игрока с помощью генеративного ИИ, обеспечивая более захватывающий и увлекательный опыт. Например, погода в игре может меняться в зависимости от реальных погодных условий, или действия игрока могут влиять на поведение неигровых персонажей."
https://gamebuddy.tech/robloxs-next-big-move-introducing-generative-ai-to-its-gaming-universe/#how-will-roblox-use-generative-ai
Очень интересно, что они покажут за пределами генерации фонов.
В твитторах пишут:
https://twitter.com/rowancheung/status/1626988760637243393
They're building:
-a tool to make “generative AI materials from a text prompt”
-a tool for generative AI to complete code
Roblox внедряет генеративный ИИ в свои игровые миры.
Одна из самых интересных частей генеративного ИИ Roblox заключается в том, что он обеспечит более динамичную и реактивную игровую среду.
Игровой мир можно запрограммировать так, чтобы он реагировал на действия игрока с помощью генеративного ИИ, обеспечивая более захватывающий и увлекательный опыт. Например, погода в игре может меняться в зависимости от реальных погодных условий, или действия игрока могут влиять на поведение неигровых персонажей."
https://gamebuddy.tech/robloxs-next-big-move-introducing-generative-ai-to-its-gaming-universe/#how-will-roblox-use-generative-ai
Очень интересно, что они покажут за пределами генерации фонов.
В твитторах пишут:
https://twitter.com/rowancheung/status/1626988760637243393
They're building:
-a tool to make “generative AI materials from a text prompt”
-a tool for generative AI to complete code
👍19🔥4
Как вы уже наверное заметили, я тут регулярно несу всякую пургу про ИИ, графику и киберпанк. Нашел не менее отмороженный канал, в котором пурга выходит за рамки ИИ и графики.
Даня Шеповалов – легендарный колумнист журнала “Хакер”. В его канале “Вечерний Даня” постоянно льется всякая дичь: от героев олдовых игр в 2023 году до бомб с магнитным порошком против роботов. Бывают даже гуси, заряженные на криптоанархизм. Все, что помогает выжить в мире победившего киберпанка. Стоит подписаться: @vecherniy_danya
Даня Шеповалов – легендарный колумнист журнала “Хакер”. В его канале “Вечерний Даня” постоянно льется всякая дичь: от героев олдовых игр в 2023 году до бомб с магнитным порошком против роботов. Бывают даже гуси, заряженные на криптоанархизм. Все, что помогает выжить в мире победившего киберпанка. Стоит подписаться: @vecherniy_danya
🔥20👍7
Тут в коментах пригорает от того, что я обозвал высокородных кожаных мешков статистическими продолжателями текста.
В ход идет биология, сравнивание текстов ИИ с дерьмом червей, жонглирование неопределенным терминами - все как у нормальных людей в общем.
У меня такое ощущение, что у многих в голове уже есть "модель человека разумного", основанная на школьных познаниях, чтении литературы, беседах с умными людьми и коментах в глупых телеграм-каналах. Ну и на рефлексии.
И вот похоже, что многие пытаются описать человека (и ИИ) этакой функцией, эвристикой, процедурой. Если есть модель в голове, можно написать блок-схему и код. Вот так оно работает.
Мало того, что ваша модель-функция зависит от того, что вы поели или не поели в обед, так она еще и полностью во власти ваших эмоций, кои триггерятся в режиме реального времени через различные отверстия в голове и не только.
Давайте попробуем уйти от процедурного подхода. Ну нельзя определить сознание средствами сознания.
И забудьте про "это просто алгоритм", это делает вас реально узколобыми и ничего вообще не доказывает. Мы тоже просто био-алгоритмы.
Давайте выкинем всю эту школьную чушь из кожаной головы и начнем ощупывать ИИ в темноте. Над ним реально можно ставить НУ ОЧЕНЬ интересные эксперименты, которые невозможно, неэтично, преступно ставить над кожаными интеллектуалами. Тупо противопоставлять себя и свои модели себя с ИИ.
Наиболее смышленые уже нащупали первую систему Канемана в недрах ИИ. Глядишь, нащупаем и вторую.
А если постоянно твердить "это просто алгоритм", то можно прозевать очень интересные вещи, после которых может быть уже поздно.
В ход идет биология, сравнивание текстов ИИ с дерьмом червей, жонглирование неопределенным терминами - все как у нормальных людей в общем.
У меня такое ощущение, что у многих в голове уже есть "модель человека разумного", основанная на школьных познаниях, чтении литературы, беседах с умными людьми и коментах в глупых телеграм-каналах. Ну и на рефлексии.
И вот похоже, что многие пытаются описать человека (и ИИ) этакой функцией, эвристикой, процедурой. Если есть модель в голове, можно написать блок-схему и код. Вот так оно работает.
Мало того, что ваша модель-функция зависит от того, что вы поели или не поели в обед, так она еще и полностью во власти ваших эмоций, кои триггерятся в режиме реального времени через различные отверстия в голове и не только.
Давайте попробуем уйти от процедурного подхода. Ну нельзя определить сознание средствами сознания.
И забудьте про "это просто алгоритм", это делает вас реально узколобыми и ничего вообще не доказывает. Мы тоже просто био-алгоритмы.
Давайте выкинем всю эту школьную чушь из кожаной головы и начнем ощупывать ИИ в темноте. Над ним реально можно ставить НУ ОЧЕНЬ интересные эксперименты, которые невозможно, неэтично, преступно ставить над кожаными интеллектуалами. Тупо противопоставлять себя и свои модели себя с ИИ.
Наиболее смышленые уже нащупали первую систему Канемана в недрах ИИ. Глядишь, нащупаем и вторую.
А если постоянно твердить "это просто алгоритм", то можно прозевать очень интересные вещи, после которых может быть уже поздно.
👍45🔥12👎6
Тут вот зумеры переизобрели Позер.
Появился редактор поз для ControlNet, о котором я писал на прошлой неделе.
Это как бы риг для управления imag2img, позволяющий ставить персонаж в нужную позу.
Там нет не то что инверсной, там нет даже прямой кинематики. Скелет очень забавной топологии.
По сути это возможность двигать точки на экране, к которым автоматически дорисовываются линии.
Наверно для тех, кто никогда не слышал про HumanIK, бипед или любой другой риг - это щасте и восторг, но я вот подожду чего-то более веселого, с точки зрения контроля. ContolNet жеж.
Пробовать тут:
https://huggingface.co/spaces/jonigata/PoseMaker
Гитхуб:
https://github.com/fkunn1326/openpose-editor
Появился редактор поз для ControlNet, о котором я писал на прошлой неделе.
Это как бы риг для управления imag2img, позволяющий ставить персонаж в нужную позу.
Там нет не то что инверсной, там нет даже прямой кинематики. Скелет очень забавной топологии.
По сути это возможность двигать точки на экране, к которым автоматически дорисовываются линии.
Наверно для тех, кто никогда не слышал про HumanIK, бипед или любой другой риг - это щасте и восторг, но я вот подожду чего-то более веселого, с точки зрения контроля. ContolNet жеж.
Пробовать тут:
https://huggingface.co/spaces/jonigata/PoseMaker
Гитхуб:
https://github.com/fkunn1326/openpose-editor
👍12🔥2👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Оу, а вот это уже интересно.
Попытка делать UV-maps через алгоритмы сегментации ContolNet! Наконец-то кто-то произнес слово UV-map и Unwrap!
Гляньте срочно сюда, тут пример на основе Синьки, но это все DCC-изоморфно.
https://github.com/Mikubill/sd-webui-controlnet/discussions/204
Попытка делать UV-maps через алгоритмы сегментации ContolNet! Наконец-то кто-то произнес слово UV-map и Unwrap!
Гляньте срочно сюда, тут пример на основе Синьки, но это все DCC-изоморфно.
https://github.com/Mikubill/sd-webui-controlnet/discussions/204
👍25🔥17
Кому нужна инверсная кинематика для выставления персонажа в Stable Diffusion - шуруйте сюда:
https://youtu.be/5z71oxf8kh4?t=361
Там, правда, все через костыли - картинка с болваном сначала скармливается в ControlNet для получения этих разноцветных точек и палочек, которые потом уже используются для установки позы анимашных красавиц в Stable Diffusion/Automatic1111.
Думаю, в течение месяца появится хорошая связка с Блендором.
https://youtu.be/5z71oxf8kh4?t=361
Там, правда, все через костыли - картинка с болваном сначала скармливается в ControlNet для получения этих разноцветных точек и палочек, которые потом уже используются для установки позы анимашных красавиц в Stable Diffusion/Automatic1111.
Думаю, в течение месяца появится хорошая связка с Блендором.
YouTube
3D POSING For PERFECT IMAGES In Stable Diffusion! ABSOLUTELY MAGICAL!
I recently made a video about ControlNet, a brand new neural network structure that allows you to create image maps from any images and using these informations to transfer data from one image to another inside Stable Diffusion! This is a super powerful tool…
🔥10👍5
Для тех, кого до усрачки пугают слова "инверсная кинематика" и кто ничего не хочет слышать про 3Д, вот 90-секундный гайд, как использовать точки и палочки в Stable Diffusion/Automatic1111. Для новых нормальных нейрохудожников самое то. Комиксы, раскадровки, ваши любимые объекты вожделения в разных позах - все это теперь возможно.
Чувак уплотняет информацию в максимум полезности - пример того, как надо пилить видосы с инструкциями.
https://www.youtube.com/watch?v=vvrH1Lcx-jo
Чувак уплотняет информацию в максимум полезности - пример того, как надо пилить видосы с инструкциями.
https://www.youtube.com/watch?v=vvrH1Lcx-jo
YouTube
EASY POSING FOR CONTROLNET Inside Stable Diffusion! OPENPOSE EDITOR!
I recently made a video about ControlNet and how to use 3d posing software to transfer a pose to another character and today I will show you how to quickly and easily transfer a pose to another character without leaving stable diffusion using the newest extension…
🔥31👍4
Подрастает свой Stable Diffusion для больших языковых моделей.
https://t.me/abstractDL/188
https://t.me/abstractDL/188
Telegram
AbstractDL
🔥FlexGen: как запустить OPT-175B на своём ноутбуке
Просто восторг! Самую большую открытую языковую модель теперь можно запустить на одной 16GB GPU и при этом не ждать генерацию целую вечность — скорость 1 токен в секунду!
Причём ускорение и сжатие модели…
Просто восторг! Самую большую открытую языковую модель теперь можно запустить на одной 16GB GPU и при этом не ждать генерацию целую вечность — скорость 1 токен в секунду!
Причём ускорение и сжатие модели…
🔥13👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Напишу немного про видео генерацию.
Я пропустил этап восторгов от анонса GEN-1 от RunwayML. Решил подождать первых результатов от альфатестеров.
Думаю, не стоит возлагать большие надежды на text2video. Видео, в отличие от картинок обладает целым букетом новых "измерений". Пытаться описать это букавками - слабоумие и отвага, "Война и мир" в промпте и "Преступление и наказание" в негативном промпте.
Вон к картинкам потихоньку прикручивают ControlNet и прочие "управлялки" - ибо задавать позу или ракурс словами - то еще удовольствие. А теперь представьте, что вам надо описать движение камеры, движение объектов на ближнем, среднем и дальнем плане. Изменение света, анимацию оптики(да, бывает и так, нейрорежиссеры) и у еще тонну всего. Промптом.
Морфинг картинок - это еще не анимация.
Поэтому для генерации видео на входе будет гораздо больше "гайдов" - текст, картинки, video2video, траектории, риги и вся эта требуха из поспродакшена.
Интересно будет посмотреть на трушные нейропайплайны, когда chatGPT наговаривает промпты, по ним генерятся картинки для раскадровок, chatGPT дополняет это динамикой переходов, одновременно подгружаются видео-референсы со стоков, из которых достается движение камеры и оптики, по дороге пристегивается controlNet с персонажами, и весь этот компот идет на вход compot2Video.
В конце концов, нейро-видео - это новый нормальный рендер, и каким будет начинка на входе для него, можно начинать размышлять прямо сейчас. neuroRIB или neuroUSD не за горами, интересно, каким он будет.
А пока посмотрите, что делает с помощью GEN-1 Карен Чен, та самая, что ваяла обложку Cosmopolitan в DALLE2 (прошло времени чуть, а кажется, что это было в прошлой жизни).
Для соцсетей - это определенно новый и очень дешевый способ генерить просто тонны контента на коленке, контента, который раньше стоил бы очень дорого.
Я пропустил этап восторгов от анонса GEN-1 от RunwayML. Решил подождать первых результатов от альфатестеров.
Думаю, не стоит возлагать большие надежды на text2video. Видео, в отличие от картинок обладает целым букетом новых "измерений". Пытаться описать это букавками - слабоумие и отвага, "Война и мир" в промпте и "Преступление и наказание" в негативном промпте.
Вон к картинкам потихоньку прикручивают ControlNet и прочие "управлялки" - ибо задавать позу или ракурс словами - то еще удовольствие. А теперь представьте, что вам надо описать движение камеры, движение объектов на ближнем, среднем и дальнем плане. Изменение света, анимацию оптики(да, бывает и так, нейрорежиссеры) и у еще тонну всего. Промптом.
Морфинг картинок - это еще не анимация.
Поэтому для генерации видео на входе будет гораздо больше "гайдов" - текст, картинки, video2video, траектории, риги и вся эта требуха из поспродакшена.
Интересно будет посмотреть на трушные нейропайплайны, когда chatGPT наговаривает промпты, по ним генерятся картинки для раскадровок, chatGPT дополняет это динамикой переходов, одновременно подгружаются видео-референсы со стоков, из которых достается движение камеры и оптики, по дороге пристегивается controlNet с персонажами, и весь этот компот идет на вход compot2Video.
В конце концов, нейро-видео - это новый нормальный рендер, и каким будет начинка на входе для него, можно начинать размышлять прямо сейчас. neuroRIB или neuroUSD не за горами, интересно, каким он будет.
А пока посмотрите, что делает с помощью GEN-1 Карен Чен, та самая, что ваяла обложку Cosmopolitan в DALLE2 (прошло времени чуть, а кажется, что это было в прошлой жизни).
Для соцсетей - это определенно новый и очень дешевый способ генерить просто тонны контента на коленке, контента, который раньше стоил бы очень дорого.
👍29🔥17
Про видео. Часть 2
Твиттор и тикток наводнен видосиками, где народ обрабатывает живое видео с помощью GEN-1 под нужный стиль, подавая на вход референсную картинку. Стайл-трансфер на стереостероидах.
Выглядит убойно.
При достаточной изобретательности можно уже рассказывать истории и даже подбираться к игровым механикам.
Гляньте на новое прочтение Симпсонов
Композеры озадаченно чешут в затылке - ждать новой ноды в Нюке / плага к Афтеру или начнинать осваивать все это дело.
Хотите больше жира, просто твитторните вот так:
https://twitter.com/search?q=%23Gen1
Твиттор и тикток наводнен видосиками, где народ обрабатывает живое видео с помощью GEN-1 под нужный стиль, подавая на вход референсную картинку. Стайл-трансфер на стереостероидах.
Выглядит убойно.
При достаточной изобретательности можно уже рассказывать истории и даже подбираться к игровым механикам.
Гляньте на новое прочтение Симпсонов
Композеры озадаченно чешут в затылке - ждать новой ноды в Нюке / плага к Афтеру или начнинать осваивать все это дело.
Хотите больше жира, просто твитторните вот так:
https://twitter.com/search?q=%23Gen1
🔥24👍1👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Про видео. Часть 3
Скармливать на вход GEN-1 видосы и умиляться новым лукам - удел первой фазы хайпа и рай для тиктока.
Интереснее подумать, что можно соорудить на входе, чтобы получить реально интересные вещи.
Посмотрите, что вытворяет с GEN-1 Paul Trillo, тот самый, который переложил Симпсонов на GEN-1.
Гляньте его инсту и сайт, станет понятно, что будет, когда нейроинструменты попадают в руки ребят из поста.
https://www.instagram.com/paultrillo/
http://paultrillo.com/
Скармливать на вход GEN-1 видосы и умиляться новым лукам - удел первой фазы хайпа и рай для тиктока.
Интереснее подумать, что можно соорудить на входе, чтобы получить реально интересные вещи.
Посмотрите, что вытворяет с GEN-1 Paul Trillo, тот самый, который переложил Симпсонов на GEN-1.
Гляньте его инсту и сайт, станет понятно, что будет, когда нейроинструменты попадают в руки ребят из поста.
https://www.instagram.com/paultrillo/
http://paultrillo.com/
👍14🔥10👎3
История с генераторами картинок и стоками повторяется.
ChatGPT привел к буму электронных книг на Amazon, написанных с помощью ИИ
А вы думали будет по другому?
Сейчас в магазине Amazon Kindle более 200 электронных книг с указанием ChatGPT в качестве автора или соавтора, но число растет с каждым днем. Многие авторы не сообщают, что использовали ИИ, поэтому точный подсчет затруднён.
Киберпанк уже здесь. Силиконовые производят, кожаные потребляют. Вам шашечки или ехать? Имя автора или читать?
https://www.reuters.com/technology/chatgpt-launches-boom-ai-written-e-books-amazon-2023-02-21/
ChatGPT привел к буму электронных книг на Amazon, написанных с помощью ИИ
А вы думали будет по другому?
Сейчас в магазине Amazon Kindle более 200 электронных книг с указанием ChatGPT в качестве автора или соавтора, но число растет с каждым днем. Многие авторы не сообщают, что использовали ИИ, поэтому точный подсчет затруднён.
Киберпанк уже здесь. Силиконовые производят, кожаные потребляют. Вам шашечки или ехать? Имя автора или читать?
https://www.reuters.com/technology/chatgpt-launches-boom-ai-written-e-books-amazon-2023-02-21/
🔥18👍4👎1
История с генераторами картинок и стоками повторяется. Часть 2
Журналисты и копирайтеры жестко наехали на OpenAI, обвиняя их в неправомерном использовании их статей для обучения ChatGPT.
Хотите тренировать ИИ на работе журналистов Wall Street Journal - платите!
Также проснулись акулы из CNN. Хотят денег у OpenAI.
Самое забавное в том, что они опираются на беседу журналиста с ИИ(!), где он выясняет у chatGPT, на чем тот был обучен. Простодушный бот указал двадцать источников.
А ботам, как известно, верят на слово. Тут медиа и журналюги с цепи и сорвались. Взалкали не по-детски.
Тут я устало повторю, а ничего, что кожаные читатели и другие журналисты почитали все эти издания, а потом написали какие-то текстики? Они же обучили свои кожаные нейросеточки на текстах CNN! К ответу их, мерзацев!
Журналисты и копирайтеры жестко наехали на OpenAI, обвиняя их в неправомерном использовании их статей для обучения ChatGPT.
Хотите тренировать ИИ на работе журналистов Wall Street Journal - платите!
Также проснулись акулы из CNN. Хотят денег у OpenAI.
Самое забавное в том, что они опираются на беседу журналиста с ИИ(!), где он выясняет у chatGPT, на чем тот был обучен. Простодушный бот указал двадцать источников.
А ботам, как известно, верят на слово. Тут медиа и журналюги с цепи и сорвались. Взалкали не по-детски.
Тут я устало повторю, а ничего, что кожаные читатели и другие журналисты почитали все эти издания, а потом написали какие-то текстики? Они же обучили свои кожаные нейросеточки на текстах CNN! К ответу их, мерзацев!
Bloomberg.com
OpenAI Is Faulted by Media for Using Articles to Train ChatGPT
Major news outlets have begun criticizing OpenAI and its ChatGPT software, saying the lab is using their articles to train its artificial intelligence tool without paying them.
👍39🔥14👎7
This media is not supported in your browser
VIEW IN TELEGRAM
Тут кто-то пошел ва-банк!
Заявлен прям жесткий text-2-3D, с блекджеком и анимацией.
Разбор в следующем посте.
Заявлен прям жесткий text-2-3D, с блекджеком и анимацией.
Разбор в следующем посте.
👍17🔥6👎1
"Сегодня мы объявляем о новой функции нашего генеративного ИИ для 3D - генеративной анимации! Это первый генеративный ИИ, позволяющий создавать из текста полностью анимированные 3D-ассеты, готовые к игре."
Если зайти на сайт, то там прям пайплайн мечты:
https://masterpiecestudio.com/
Кричим:
”a 3D rendering viking, standing upright, idle pose, full body, soft smooth lighting, diffuse colors, 4k, toon shading, unreal engine,”
Получаем 3Д-модель викинга.
Орем:
”walk and twirl”
Получаем анимацию оного.
Дальше взываем к ИИ и получаем UV-развертки, скининг, риг, ретопологию(!) и весь блекджек:
Use in-app AI to accelerate your creativity: Auto-UV, Auto-Rig and more!
Только вот почему-то на сайте редактирование викинга идет в виарчике.
Наверное для пущей убедительности.
Вот это и смущает. Равно как и табличка, где они снисходительно уничтожают DreamFusion и Point-E.
https://masterpiecestudio.com/blog/announcing-generative-animations
В общем, похоже на еще один Kaedim 3D, о котором я писал целый сериал #kaedim.
Будем посмотреть.
Если зайти на сайт, то там прям пайплайн мечты:
https://masterpiecestudio.com/
Кричим:
”a 3D rendering viking, standing upright, idle pose, full body, soft smooth lighting, diffuse colors, 4k, toon shading, unreal engine,”
Получаем 3Д-модель викинга.
Орем:
”walk and twirl”
Получаем анимацию оного.
Дальше взываем к ИИ и получаем UV-развертки, скининг, риг, ретопологию(!) и весь блекджек:
Use in-app AI to accelerate your creativity: Auto-UV, Auto-Rig and more!
Только вот почему-то на сайте редактирование викинга идет в виарчике.
Наверное для пущей убедительности.
Вот это и смущает. Равно как и табличка, где они снисходительно уничтожают DreamFusion и Point-E.
https://masterpiecestudio.com/blog/announcing-generative-animations
В общем, похоже на еще один Kaedim 3D, о котором я писал целый сериал #kaedim.
Будем посмотреть.
👍15🔥2
Нуштошъ. ИИ-победил.
Вас научат нейроарту за девять долларов США!
Я не поленился, сходил на сайт.
Это сказка, киберпанк просто. Машина для производства курсов на любую тему.
ИИ там соседствует с похуданием и прогоном трафла.
Ну недалеко осталось до кнопки "Сделать деньги".
Выбираешь вариант на чем рубить бабло: "Курсы", "Ответы на вопросы", "Интересный контент", "сбор лидов" и так далее. Жмешь кнопку.
И вот уже chatGPT написал все тексты, Stable Diffusion сделал визуал, а все остальное известные эвристики. А, про ИИ-рекламу забыл.
Мета-интернет, чо. Одна кнопка.
P.S. Меня кстати, стали постоянно спрашивать про курсы по ИИ и генеративному арту.
Youtube ваш выбор.
Stable Diffusion сильно проще фотошопа. Раз примерно в 1000.
Вас научат нейроарту за девять долларов США!
Я не поленился, сходил на сайт.
Это сказка, киберпанк просто. Машина для производства курсов на любую тему.
ИИ там соседствует с похуданием и прогоном трафла.
Ну недалеко осталось до кнопки "Сделать деньги".
Выбираешь вариант на чем рубить бабло: "Курсы", "Ответы на вопросы", "Интересный контент", "сбор лидов" и так далее. Жмешь кнопку.
И вот уже chatGPT написал все тексты, Stable Diffusion сделал визуал, а все остальное известные эвристики. А, про ИИ-рекламу забыл.
Мета-интернет, чо. Одна кнопка.
P.S. Меня кстати, стали постоянно спрашивать про курсы по ИИ и генеративному арту.
Youtube ваш выбор.
Stable Diffusion сильно проще фотошопа. Раз примерно в 1000.
👍43🔥12👎3
Киберпанк уже здесь, под ногами, точнее на ногах.
Я помню как мы на ранних ивентах десять лет назад печатали смешные сувениры на 3Д-принтерах Сереги Дрожжина.
А теперь покупаем кроссовки, напечатанные на принтере.
Более того, киберпанк в том, что вы сканируете свою ногу на телефон и вот уже из принтера вылезает идеальный кроссовок для вашей ноги. За 250 долларов.
Куда катится мир!
Все подробности и ссылки тут:
https://t.me/twin_3d/167
Я помню как мы на ранних ивентах десять лет назад печатали смешные сувениры на 3Д-принтерах Сереги Дрожжина.
А теперь покупаем кроссовки, напечатанные на принтере.
Более того, киберпанк в том, что вы сканируете свою ногу на телефон и вот уже из принтера вылезает идеальный кроссовок для вашей ноги. За 250 долларов.
Куда катится мир!
Все подробности и ссылки тут:
https://t.me/twin_3d/167
Telegram
Twin3D I CGI-продакшен
Зарождение нового технологического уклада (буквально на наших глазах)
В продаже появились напечатанные на 3D-принтере кроссовки за 250 $. Обратите внимание на производственную цепочку:
• модель разработал дизайнер Джоуи Хамис с помощью инструментов 3D…
В продаже появились напечатанные на 3D-принтере кроссовки за 250 $. Обратите внимание на производственную цепочку:
• модель разработал дизайнер Джоуи Хамис с помощью инструментов 3D…
👍29🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Кому Stable Diffusion для Худини? Налетай.
Теперь полностью локально, с поддержкой AUTOMATIC1111.
https://www.cgchannel.com/2023/02/free-tool-mohsen-tabasis-stablediffusion_houdini-2-0/
Теперь полностью локально, с поддержкой AUTOMATIC1111.
https://www.cgchannel.com/2023/02/free-tool-mohsen-tabasis-stablediffusion_houdini-2-0/
🔥37👍1