Метаверсище и ИИще
49K subscribers
6.08K photos
4.62K videos
47 files
6.97K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
А вот когда такие ребята пристегивают генеративный арт к себе в папйплайн, то становится понятно, что никаким протестами это уже не остановить. Мастодонты в городе.
Roblox внедряет генеративный ИИ в свои игровые миры.

Одна из самых интересных частей генеративного ИИ Roblox заключается в том, что он обеспечит более динамичную и реактивную игровую среду.

Игровой мир можно запрограммировать так, чтобы он реагировал на действия игрока с помощью генеративного ИИ, обеспечивая более захватывающий и увлекательный опыт. Например, погода в игре может меняться в зависимости от реальных погодных условий, или действия игрока могут влиять на поведение неигровых персонажей."
https://gamebuddy.tech/robloxs-next-big-move-introducing-generative-ai-to-its-gaming-universe/#how-will-roblox-use-generative-ai
Очень интересно, что они покажут за пределами генерации фонов.
В твитторах пишут:
https://twitter.com/rowancheung/status/1626988760637243393
They're building:
-a tool to make “generative AI materials from a text prompt”
-a tool for generative AI to complete code
👍19🔥4
Как вы уже наверное заметили, я тут регулярно несу всякую пургу про ИИ, графику и киберпанк. Нашел не менее отмороженный канал, в котором пурга выходит за рамки ИИ и графики.
Даня Шеповалов – легендарный колумнист журнала “Хакер”. В его канале “Вечерний Даня” постоянно льется всякая дичь: от героев олдовых игр в 2023 году до бомб с магнитным порошком против роботов. Бывают даже гуси, заряженные на криптоанархизм. Все, что помогает выжить в мире победившего киберпанка. Стоит подписаться: @vecherniy_danya
🔥20👍7
Тут в коментах пригорает от того, что я обозвал высокородных кожаных мешков статистическими продолжателями текста.
В ход идет биология, сравнивание текстов ИИ с дерьмом червей, жонглирование неопределенным терминами - все как у нормальных людей в общем.
У меня такое ощущение, что у многих в голове уже есть "модель человека разумного", основанная на школьных познаниях, чтении литературы, беседах с умными людьми и коментах в глупых телеграм-каналах. Ну и на рефлексии.

И вот похоже, что многие пытаются описать человека (и ИИ) этакой функцией, эвристикой, процедурой. Если есть модель в голове, можно написать блок-схему и код. Вот так оно работает.

Мало того, что ваша модель-функция зависит от того, что вы поели или не поели в обед, так она еще и полностью во власти ваших эмоций, кои триггерятся в режиме реального времени через различные отверстия в голове и не только.

Давайте попробуем уйти от процедурного подхода. Ну нельзя определить сознание средствами сознания.
И забудьте про "это просто алгоритм", это делает вас реально узколобыми и ничего вообще не доказывает. Мы тоже просто био-алгоритмы.

Давайте выкинем всю эту школьную чушь из кожаной головы и начнем ощупывать ИИ в темноте. Над ним реально можно ставить НУ ОЧЕНЬ интересные эксперименты, которые невозможно, неэтично, преступно ставить над кожаными интеллектуалами. Тупо противопоставлять себя и свои модели себя с ИИ.

Наиболее смышленые уже нащупали первую систему Канемана в недрах ИИ. Глядишь, нащупаем и вторую.
А если постоянно твердить "это просто алгоритм", то можно прозевать очень интересные вещи, после которых может быть уже поздно.
👍45🔥12👎6
Тут вот зумеры переизобрели Позер.
Появился редактор поз для ControlNet, о котором я писал на прошлой неделе.
Это как бы риг для управления imag2img, позволяющий ставить персонаж в нужную позу.
Там нет не то что инверсной, там нет даже прямой кинематики. Скелет очень забавной топологии.
По сути это возможность двигать точки на экране, к которым автоматически дорисовываются линии.
Наверно для тех, кто никогда не слышал про HumanIK, бипед или любой другой риг - это щасте и восторг, но я вот подожду чего-то более веселого, с точки зрения контроля. ContolNet жеж.
Пробовать тут:
https://huggingface.co/spaces/jonigata/PoseMaker
Гитхуб:
https://github.com/fkunn1326/openpose-editor
👍12🔥2👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Оу, а вот это уже интересно.
Попытка делать UV-maps через алгоритмы сегментации ContolNet! Наконец-то кто-то произнес слово UV-map и Unwrap!
Гляньте срочно сюда, тут пример на основе Синьки, но это все DCC-изоморфно.
https://github.com/Mikubill/sd-webui-controlnet/discussions/204
👍25🔥17
Кому нужна инверсная кинематика для выставления персонажа в Stable Diffusion - шуруйте сюда:
https://youtu.be/5z71oxf8kh4?t=361
Там, правда, все через костыли - картинка с болваном сначала скармливается в ControlNet для получения этих разноцветных точек и палочек, которые потом уже используются для установки позы анимашных красавиц в Stable Diffusion/Automatic1111.
Думаю, в течение месяца появится хорошая связка с Блендором.
🔥10👍5
Для тех, кого до усрачки пугают слова "инверсная кинематика" и кто ничего не хочет слышать про 3Д, вот 90-секундный гайд, как использовать точки и палочки в Stable Diffusion/Automatic1111. Для новых нормальных нейрохудожников самое то. Комиксы, раскадровки, ваши любимые объекты вожделения в разных позах - все это теперь возможно.
Чувак уплотняет информацию в максимум полезности - пример того, как надо пилить видосы с инструкциями.
https://www.youtube.com/watch?v=vvrH1Lcx-jo
🔥31👍4
This media is not supported in your browser
VIEW IN TELEGRAM
Напишу немного про видео генерацию.
Я пропустил этап восторгов от анонса GEN-1 от RunwayML. Решил подождать первых результатов от альфатестеров.

Думаю, не стоит возлагать большие надежды на text2video. Видео, в отличие от картинок обладает целым букетом новых "измерений". Пытаться описать это букавками - слабоумие и отвага, "Война и мир" в промпте и "Преступление и наказание" в негативном промпте.

Вон к картинкам потихоньку прикручивают ControlNet и прочие "управлялки" - ибо задавать позу или ракурс словами - то еще удовольствие. А теперь представьте, что вам надо описать движение камеры, движение объектов на ближнем, среднем и дальнем плане. Изменение света, анимацию оптики(да, бывает и так, нейрорежиссеры) и у еще тонну всего. Промптом.

Морфинг картинок - это еще не анимация.

Поэтому для генерации видео на входе будет гораздо больше "гайдов" - текст, картинки, video2video, траектории, риги и вся эта требуха из поспродакшена.

Интересно будет посмотреть на трушные нейропайплайны, когда chatGPT наговаривает промпты, по ним генерятся картинки для раскадровок, chatGPT дополняет это динамикой переходов, одновременно подгружаются видео-референсы со стоков, из которых достается движение камеры и оптики, по дороге пристегивается controlNet с персонажами, и весь этот компот идет на вход compot2Video.

В конце концов, нейро-видео - это новый нормальный рендер, и каким будет начинка на входе для него, можно начинать размышлять прямо сейчас. neuroRIB или neuroUSD не за горами, интересно, каким он будет.

А пока посмотрите, что делает с помощью GEN-1 Карен Чен, та самая, что ваяла обложку Cosmopolitan в DALLE2 (прошло времени чуть, а кажется, что это было в прошлой жизни).

Для соцсетей - это определенно новый и очень дешевый способ генерить просто тонны контента на коленке, контента, который раньше стоил бы очень дорого.
👍29🔥17
Про видео. Часть 2
Твиттор и тикток наводнен видосиками, где народ обрабатывает живое видео с помощью GEN-1 под нужный стиль, подавая на вход референсную картинку. Стайл-трансфер на стереостероидах.
Выглядит убойно.
При достаточной изобретательности можно уже рассказывать истории и даже подбираться к игровым механикам.
Гляньте на новое прочтение Симпсонов
Композеры озадаченно чешут в затылке - ждать новой ноды в Нюке / плага к Афтеру или начнинать осваивать все это дело.
Хотите больше жира, просто твитторните вот так:
https://twitter.com/search?q=%23Gen1
🔥24👍1👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Про видео. Часть 3
Скармливать на вход GEN-1 видосы и умиляться новым лукам - удел первой фазы хайпа и рай для тиктока.
Интереснее подумать, что можно соорудить на входе, чтобы получить реально интересные вещи.
Посмотрите, что вытворяет с GEN-1 Paul Trillo, тот самый, который переложил Симпсонов на GEN-1.
Гляньте его инсту и сайт, станет понятно, что будет, когда нейроинструменты попадают в руки ребят из поста.
https://www.instagram.com/paultrillo/
http://paultrillo.com/
👍14🔥10👎3
История с генераторами картинок и стоками повторяется.

ChatGPT привел к буму электронных книг на Amazon, написанных с помощью ИИ

А вы думали будет по другому?

Сейчас в магазине Amazon Kindle более 200 электронных книг с указанием ChatGPT в качестве автора или соавтора, но число растет с каждым днем. Многие авторы не сообщают, что использовали ИИ, поэтому точный подсчет затруднён.

Киберпанк уже здесь. Силиконовые производят, кожаные потребляют. Вам шашечки или ехать? Имя автора или читать?
https://www.reuters.com/technology/chatgpt-launches-boom-ai-written-e-books-amazon-2023-02-21/
🔥18👍4👎1
История с генераторами картинок и стоками повторяется. Часть 2
Журналисты и копирайтеры жестко наехали на OpenAI, обвиняя их в неправомерном использовании их статей для обучения ChatGPT.

Хотите тренировать ИИ на работе журналистов Wall Street Journal - платите!

Также проснулись акулы из CNN. Хотят денег у OpenAI.

Самое забавное в том, что они опираются на беседу журналиста с ИИ(!), где он выясняет у chatGPT, на чем тот был обучен. Простодушный бот указал двадцать источников.

А ботам, как известно, верят на слово. Тут медиа и журналюги с цепи и сорвались. Взалкали не по-детски.

Тут я устало повторю, а ничего, что кожаные читатели и другие журналисты почитали все эти издания, а потом написали какие-то текстики? Они же обучили свои кожаные нейросеточки на текстах CNN! К ответу их, мерзацев!
👍39🔥14👎7
This media is not supported in your browser
VIEW IN TELEGRAM
Тут кто-то пошел ва-банк!
Заявлен прям жесткий text-2-3D, с блекджеком и анимацией.
Разбор в следующем посте.
👍17🔥6👎1
"Сегодня мы объявляем о новой функции нашего генеративного ИИ для 3D - генеративной анимации! Это первый генеративный ИИ, позволяющий создавать из текста полностью анимированные 3D-ассеты, готовые к игре."

Если зайти на сайт, то там прям пайплайн мечты:
https://masterpiecestudio.com/
Кричим:
”a 3D rendering viking, standing upright, idle pose, full body, soft smooth lighting, diffuse colors, 4k, toon shading, unreal engine,”

Получаем 3Д-модель викинга.

Орем:
”walk and twirl”

Получаем анимацию оного.

Дальше взываем к ИИ и получаем UV-развертки, скининг, риг, ретопологию(!) и весь блекджек:

Use in-app AI to accelerate your creativity: Auto-UV, Auto-Rig and more!

Только вот почему-то на сайте редактирование викинга идет в виарчике.
Наверное для пущей убедительности.

Вот это и смущает. Равно как и табличка, где они снисходительно уничтожают DreamFusion и Point-E.
https://masterpiecestudio.com/blog/announcing-generative-animations

В общем, похоже на еще один Kaedim 3D, о котором я писал целый сериал #kaedim.

Будем посмотреть.
👍15🔥2
Нуштошъ. ИИ-победил.
Вас научат нейроарту за девять долларов США!
Я не поленился, сходил на сайт.
Это сказка, киберпанк просто. Машина для производства курсов на любую тему.
ИИ там соседствует с похуданием и прогоном трафла.
Ну недалеко осталось до кнопки "Сделать деньги".
Выбираешь вариант на чем рубить бабло: "Курсы", "Ответы на вопросы", "Интересный контент", "сбор лидов" и так далее. Жмешь кнопку.
И вот уже chatGPT написал все тексты, Stable Diffusion сделал визуал, а все остальное известные эвристики. А, про ИИ-рекламу забыл.

Мета-интернет, чо. Одна кнопка.

P.S. Меня кстати, стали постоянно спрашивать про курсы по ИИ и генеративному арту.
Youtube ваш выбор.
Stable Diffusion сильно проще фотошопа. Раз примерно в 1000.
👍43🔥12👎3
Киберпанк уже здесь, под ногами, точнее на ногах.
Я помню как мы на ранних ивентах десять лет назад печатали смешные сувениры на 3Д-принтерах Сереги Дрожжина.

А теперь покупаем кроссовки, напечатанные на принтере.
Более того, киберпанк в том, что вы сканируете свою ногу на телефон и вот уже из принтера вылезает идеальный кроссовок для вашей ноги. За 250 долларов.
Куда катится мир!

Все подробности и ссылки тут:
https://t.me/twin_3d/167
👍29🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Кому Stable Diffusion для Худини? Налетай.
Теперь полностью локально, с поддержкой AUTOMATIC1111.
https://www.cgchannel.com/2023/02/free-tool-mohsen-tabasis-stablediffusion_houdini-2-0/
🔥37👍1