Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Задачу генерации картинок из текста можно считать решенной — поэтому исследователи постепенно переходят к задаче «А давайте генерировать целые гифки по текстовому описанию».
Вчера выложили пример работы алгоритма CogVideo — суть у него такая же как у Dalle, вы пишите текст, а он выдает вам видео в 4 секунды длинной.
Кода пока нет, но по видимому будет тут.
У меня две мысли:
1) Лев который пьет — офигенный
2) Исследователи так порно индустрию без денег оставят своими нейронками
@Denis
Вчера выложили пример работы алгоритма CogVideo — суть у него такая же как у Dalle, вы пишите текст, а он выдает вам видео в 4 секунды длинной.
Кода пока нет, но по видимому будет тут.
У меня две мысли:
1) Лев который пьет — офигенный
2) Исследователи так порно индустрию без денег оставят своими нейронками
@Denis
❤13👍1😁1
Forwarded from РЕПТИЛОИДНАЯ (Denis Rossiev)
НЕЙРОХУДИ
Вчера подумал — насколько реально создать цифровую AR-одежду с минимальным участием кожаного дизайнера? Сказано — сделано!
1. С помощью нейросети DALLE-2 сгенерировал несколько мужиков в худи запросом на естественном языке.
2. С помощью нейросети PIFuHD и небольшим тьюнингом извлек из нее данные глубины.
3. Сгенерировал 3D-модель.
4. Дальше немного работы кожаного мешка (меня): накинуть текстуру, немного подчистить готовую 3D-модель, подготовить для Snap AR.
5. У модели даже нет костей и рига — используется proximity matching в Lens Studio. Кстати, если добавить риг (который тоже может быть сделан на 99% автоматически), будет смотреться сильно лучше.
6. Все. AR готов.
На выходе имеем цифровую вещь, задизайненную и смоделированную нейронкой с минимальной помощью человека.
Прогноз: в течение нескольких лет пайплайн будет полностью автоматизирован: Эй Сири, надень на меня худи с принтом Пепе, пьющего колу в гиперпространстве.
Вчера подумал — насколько реально создать цифровую AR-одежду с минимальным участием кожаного дизайнера? Сказано — сделано!
1. С помощью нейросети DALLE-2 сгенерировал несколько мужиков в худи запросом на естественном языке.
2. С помощью нейросети PIFuHD и небольшим тьюнингом извлек из нее данные глубины.
3. Сгенерировал 3D-модель.
4. Дальше немного работы кожаного мешка (меня): накинуть текстуру, немного подчистить готовую 3D-модель, подготовить для Snap AR.
5. У модели даже нет костей и рига — используется proximity matching в Lens Studio. Кстати, если добавить риг (который тоже может быть сделан на 99% автоматически), будет смотреться сильно лучше.
6. Все. AR готов.
На выходе имеем цифровую вещь, задизайненную и смоделированную нейронкой с минимальной помощью человека.
Прогноз: в течение нескольких лет пайплайн будет полностью автоматизирован: Эй Сири, надень на меня худи с принтом Пепе, пьющего колу в гиперпространстве.
👍36🔥8❤4🤩1
давно хочу заняться цифровой одеждой но все никак не складывается. поэтому попросил DALL-E 2 (да, я тоже теперь счастливый пользователь) сгенерить несколько концептов на тему лент и перьев. ух какая красота
@тоже моушн
@тоже моушн
❤27🔥18👍4
Media is too big
VIEW IN TELEGRAM
меня как моушн дизайнера печалит что в демо далли можно генерить только статику. но при этом далли отлично умеет в инпейнтинг - дорисовку недостающей части изображения. в этом эксперименте каждую следующую картинку я генерил на основе предыдущей, уменьшая и поворачивая ее. получается такой бесконечный зум аут, в процессе создания которого можно полностью менять наполнение кадра
@тоже моушн
@тоже моушн
❤104🔥67👍18🤯7🤩7
Forwarded from Мишин Лернинг
This media is not supported in your browser
VIEW IN TELEGRAM
👾Мир иллюстраторов и аниматоров никогда не будет прежним
Скажем вместе: спасибо тебе, диффузия! Кстати делать анимации, используя DALL•E 2 в режиме инпэинтинга становится новым трендом.
Правда пока это не полноценная Text2Video диффузия, но благодаря инпэинтингу уже можно делать разные движения, зумы и повороты, постепенно генерируя новую и новую область.
Но даже эта возможность открывает DALL•E 2 двери в анимацию, и выгодно отличает ее от Imagen, который из коробки не имеет Image Inpainting файнтюна. Но архитектурных ограничений у Imagen нет, так что все возможно.
Посмотрим что ждет нас впереди. Полноценный Text2Video Diffusion уровня DALL•E 2 не за горами.
@mishin_learning
Скажем вместе: спасибо тебе, диффузия! Кстати делать анимации, используя DALL•E 2 в режиме инпэинтинга становится новым трендом.
Правда пока это не полноценная Text2Video диффузия, но благодаря инпэинтингу уже можно делать разные движения, зумы и повороты, постепенно генерируя новую и новую область.
Но даже эта возможность открывает DALL•E 2 двери в анимацию, и выгодно отличает ее от Imagen, который из коробки не имеет Image Inpainting файнтюна. Но архитектурных ограничений у Imagen нет, так что все возможно.
Посмотрим что ждет нас впереди. Полноценный Text2Video Diffusion уровня DALL•E 2 не за горами.
@mishin_learning
🔥28👍4
Forwarded from PHYGITAL+ART
This media is not supported in your browser
VIEW IN TELEGRAM
Больше 280 (!) нейронных сетей для работы с графикой на одном сайте
Мы сделали самую большую библиотеку нейронных сетей для работы с графикой. Она бесплатна и обновляется ежедневно - AI library by Phygital+
Внутри удобный поиск, описание, примеры и гуглколабы для ускорения работы креатора и повышения его воображения. Пишите обратную связь автору канала: что хотите добавить, какой функционал нужен.
А чтобы дать возможность всем освоить ИИ, скоро мы анонсируем серию открытых лекций и OpenCall для художников о том, как ИИ можно использовать в своих работах. Подписывайтесь)
А если хотите первыми получить доступ к нашему продукту, который соединил лучшие нейронные сети в одном удобном интерфейсе - добавляйтесь тут в waitlist
Мы сделали самую большую библиотеку нейронных сетей для работы с графикой. Она бесплатна и обновляется ежедневно - AI library by Phygital+
Внутри удобный поиск, описание, примеры и гуглколабы для ускорения работы креатора и повышения его воображения. Пишите обратную связь автору канала: что хотите добавить, какой функционал нужен.
А чтобы дать возможность всем освоить ИИ, скоро мы анонсируем серию открытых лекций и OpenCall для художников о том, как ИИ можно использовать в своих работах. Подписывайтесь)
А если хотите первыми получить доступ к нашему продукту, который соединил лучшие нейронные сети в одном удобном интерфейсе - добавляйтесь тут в waitlist
🔥48👍7👎1
This media is not supported in your browser
VIEW IN TELEGRAM
отличный пример использования инпейнтинга в DALL-E 2 для создания весьма креативной анимации! за наводку спасибо @denissexy
сорс
сорс
❤50🔥12👍1👎1
Forwarded from Not Boring Tech
🌼 Встречайте нового конкурента DALLE-2 — нейросеть Make-A-Scene от Meta (запрещённая организация в РФ) создаёт изображения потрясающего качества. Ей нужно скормить не только текстовый запрос, но и набросок от руки — так нейронка лучше понимает, что вы хотите сгенерировать. Подход довольно эффективен и в 66% случаев точнее отображает желаемую идею. Результаты получаются очень хорошими, но пока нельзя поиграться, ждём кода. Взял отсюда.
#AI | Not Boring Tech
#AI | Not Boring Tech
🔥44👍5🤯3👎1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
игрался с вариациями в далли - это когда ты без текстового запроса получаешь набор версий похожих на входящую картинку - и случайно сделал сет сладких няшных 3д аватарок. если хочешь себе такую, го в коменты, там можно забрать
@тоже_моушн
@тоже_моушн
🔥49❤12👍2