И - ИИскусство.
Небольшая затравка к посту, о том, как я делаю в Fooocus суррогат КонтролНета.
Да, да, я помню, что ИИ - жалкий подражатель, статистический попугай и души у него нет, он тварь расчетливая и вообще.
Небольшая затравка к посту, о том, как я делаю в Fooocus суррогат КонтролНета.
Да, да, я помню, что ИИ - жалкий подражатель, статистический попугай и души у него нет, он тварь расчетливая и вообще.
👍35🔥11👎6
Media is too big
VIEW IN TELEGRAM
Поглядите, что творит Андрей Володин.
Пока вы там строите свои метаверсики в 3дмаксике, взрослые ребята уже умеют захватывать этот мир и присовывать его в виарчик на 120 fps. Нет, не так - 2x2224x2160 @ 120 FPS!
Да, это на 4090, но для айфона и Квеста смотрите следующий пост.
А теперь немного посмотрим на шаг вперед, все эти очочки, масочки, квестики умеют снимать окружающую действительность. ИИ умеет это процессить и восстанавливать 3Д-сцены, а точнее всю эту убогую реальность вокруг вас. А потом подсовывать вам метаверсик, он которого вы не сможете отказаться. И не надо никаких механик, которые никак не выходят у мамкиных метаверсеров. Вы ныряете в перелицованную реальность, делаете все то же самое, только с прекрасными людьми, пасторальным окружением и красивыми картинками. То есть, как обычно, лежите на диване с телефоном, только красиво.
Подробный разбор вот тут:
https://twitter.com/s1ddok/status/1696249177250931086
Ну и построение метаверсиков превращается просто в видеопродакшен. На выходе - 3Д-миры. А уж что вы там наснимаете, зависит только от вас.
P.S. И вот тут такая вишенка:
Поскольку GPT-4 позволяет мне писать код на любом языке с любым графическим API, я подумал, что было бы неплохо добавить DX12 в мою коллекцию.
Пока вы там строите свои метаверсики в 3дмаксике, взрослые ребята уже умеют захватывать этот мир и присовывать его в виарчик на 120 fps. Нет, не так - 2x2224x2160 @ 120 FPS!
Да, это на 4090, но для айфона и Квеста смотрите следующий пост.
А теперь немного посмотрим на шаг вперед, все эти очочки, масочки, квестики умеют снимать окружающую действительность. ИИ умеет это процессить и восстанавливать 3Д-сцены, а точнее всю эту убогую реальность вокруг вас. А потом подсовывать вам метаверсик, он которого вы не сможете отказаться. И не надо никаких механик, которые никак не выходят у мамкиных метаверсеров. Вы ныряете в перелицованную реальность, делаете все то же самое, только с прекрасными людьми, пасторальным окружением и красивыми картинками. То есть, как обычно, лежите на диване с телефоном, только красиво.
Подробный разбор вот тут:
https://twitter.com/s1ddok/status/1696249177250931086
Ну и построение метаверсиков превращается просто в видеопродакшен. На выходе - 3Д-миры. А уж что вы там наснимаете, зависит только от вас.
P.S. И вот тут такая вишенка:
Поскольку GPT-4 позволяет мне писать код на любом языке с любым графическим API, я подумал, что было бы неплохо добавить DX12 в мою коллекцию.
👍20🔥16👎6
This media is not supported in your browser
VIEW IN TELEGRAM
А вот тоже самое крутится на Айфоне с использованием чистого Metal и на автономном Quest Pro с использованием Vulkan.
https://twitter.com/i/status/1651500683953160192
https://twitter.com/i/status/1651500683953160192
🔥26👍6👎2
29 сентября ночь в Москве будет яркой — в столице пройдет фестиваль «Ночь инноваций». Приглашаем вас посетить удивительный мир иммерсивных технологий, перенестись в другое измерение и увидеть Москву будущего!
Вы сможете увидеть AR-скульптуры, стать участником иммерсивного представления и погрузиться в полотна знаменитых художников. Эксперты отрасли расскажут о трендах и покажут самые яркие кейсы использования мультимедиа технологий в бизнесе и творчестве.
В программе
➖ Панельная дискуссия «Иммерсивные технологии: тренды и перспективы развития рынка»
➖ Шоурил лучших кейсов применения иммерсивных технологий в бизнесе.
➖Топовые спикеры — режиссеры Никита Аргунов и Константин Богомолов, блогер Хохлов Сабатовский, руководитель Sber AR/VR Lab Максим Козлов и др.
➖AR-объекты, интерактивные и мультимедиа экспозиции
➖Public Talk «Искусство в цифре: как технологии меняют искусство»
➖Иммерсивный спектакль «Ответ Гиппократа»
➖Диджей сет и ароматизированный кинопоказ
Все подробности и регистрация на сайте фестиваля.
#промо
Вы сможете увидеть AR-скульптуры, стать участником иммерсивного представления и погрузиться в полотна знаменитых художников. Эксперты отрасли расскажут о трендах и покажут самые яркие кейсы использования мультимедиа технологий в бизнесе и творчестве.
В программе
➖ Панельная дискуссия «Иммерсивные технологии: тренды и перспективы развития рынка»
➖ Шоурил лучших кейсов применения иммерсивных технологий в бизнесе.
➖Топовые спикеры — режиссеры Никита Аргунов и Константин Богомолов, блогер Хохлов Сабатовский, руководитель Sber AR/VR Lab Максим Козлов и др.
➖AR-объекты, интерактивные и мультимедиа экспозиции
➖Public Talk «Искусство в цифре: как технологии меняют искусство»
➖Иммерсивный спектакль «Ответ Гиппократа»
➖Диджей сет и ароматизированный кинопоказ
Все подробности и регистрация на сайте фестиваля.
#промо
👎36👍19🔥4
Вы находитесь здесь.
Тут вот Гартнер предрекает на лихой спуск с горки ИИ-хайпа через пару лет.
Вопрос только в том, не начнет ли ИИ самостоятельно генерить все эти циклы хайпа.
Дипломы пишет, тесты проходит. А уж хайповать умеет как боженька.
Умные и немного кожано-пространные рассуждения тут:
https://www.gartner.com/en/articles/what-s-new-in-artificial-intelligence-from-the-2023-gartner-hype-cycle
Тут вот Гартнер предрекает на лихой спуск с горки ИИ-хайпа через пару лет.
Вопрос только в том, не начнет ли ИИ самостоятельно генерить все эти циклы хайпа.
Дипломы пишет, тесты проходит. А уж хайповать умеет как боженька.
Умные и немного кожано-пространные рассуждения тут:
https://www.gartner.com/en/articles/what-s-new-in-artificial-intelligence-from-the-2023-gartner-hype-cycle
👍16
ИИ-примерочная.
На входе ваше фото и фото любой шмотки.
На выходе - вы в этой шмотке, которая сидит на вас как родная.
Вот, что пишет мне Паша Мунтян:
"В рамках текущих разработок для сервиса Superlook мы научились надевать на любую фотографию одежду без предварительного обучения и всего лишь по одной исходной фотографии.
Еще раз (если кто не понял): вы даете свое фото и одно фото вещи, которую надо примерить, а мы сразу же надеваем эту вещь на вас (встраиваем в фото и предлагаем 4 варианта на выбор). Пока что данный функционал не интегрирован в приложение, но в скором времени будет встроен обязательно.
Огонь!
На входе ваше фото и фото любой шмотки.
На выходе - вы в этой шмотке, которая сидит на вас как родная.
Вот, что пишет мне Паша Мунтян:
"В рамках текущих разработок для сервиса Superlook мы научились надевать на любую фотографию одежду без предварительного обучения и всего лишь по одной исходной фотографии.
Еще раз (если кто не понял): вы даете свое фото и одно фото вещи, которую надо примерить, а мы сразу же надеваем эту вещь на вас (встраиваем в фото и предлагаем 4 варианта на выбор). Пока что данный функционал не интегрирован в приложение, но в скором времени будет встроен обязательно.
Огонь!
🔥93👍12👎1
Forwarded from Psy Eyes (Andrey Bezryadin)
This media is not supported in your browser
VIEW IN TELEGRAM
Runway добавили в GEN-2 слайдер для контроля количества движения в кадре. Можно задать величину от 0 до 10.
👍31🔥8
ИИ-комиксы подвезли на новом уровне.
Работает, почему-то, быстро и бесплатно, без инфоцыганщины.
Шрифт пока не дает выбрать, но все равно пишет тарабарщину, которую, впрочем, вы все равно потом замените на вариант от chatGPT.
Консистентность персонажа на уровне!
Го срочно комиксовать, пока остальные подписчики не положили сервера.
https://huggingface.co/spaces/jbilcke-hf/ai-comic-factory
Я нагенерил пару панелей с промптом
little girl fighting with monsters (японский, американский и 3Д-рендер(похож на пиксар))
А вот тут варианты от сообщества.
https://huggingface.co/spaces/jbilcke-hf/ai-comic-factory/discussions
И там огненно.
Работает, почему-то, быстро и бесплатно, без инфоцыганщины.
Шрифт пока не дает выбрать, но все равно пишет тарабарщину, которую, впрочем, вы все равно потом замените на вариант от chatGPT.
Консистентность персонажа на уровне!
Го срочно комиксовать, пока остальные подписчики не положили сервера.
https://huggingface.co/spaces/jbilcke-hf/ai-comic-factory
Я нагенерил пару панелей с промптом
little girl fighting with monsters (японский, американский и 3Д-рендер(похож на пиксар))
А вот тут варианты от сообщества.
https://huggingface.co/spaces/jbilcke-hf/ai-comic-factory/discussions
И там огненно.
🔥39👍6
Ну, за олдскульный спорт.
Амазон взял трансляцию 35 000 игр в американский футбол и накормил свой ИИ.
Теперь эта тварь ПОНИМАЕТ, что происходит на экране и, более того, с успехом предсказывает, ЧТО ПРОИЗОЙДЕТ дальше.
"Defensive Alerts распознает, когда игроки защиты собираются атаковать защитника противника. Вокруг интересующих игроков появится красный шар, чтобы болельщики(пока) точно знали, на ком сосредоточить внимание."
«Он способен просматривать данные координат XY всех игроков, их отношение друг к другу, а также их ускорение; куда они движутся и как быстро они движутся в направлении, чтобы предсказать, кто собирается блицевать»
И все это в реальном времени!
Большой материал на техкранче про это:
https://techcrunch.com/2023/08/24/amazon-prime-video-ai-features-thursday-night-football/
Пока все это применяется для "обогащения" трансляций визуальными элементами. Типа "куда смотреть, чтобы не пропустить". Однако с точки зрения тренерской подготовки и даже тактики во время матча это может изменить спорт.
Просто представьте, что в ухе защитника пищит ИИ: "чувак на пол-шестого щас рванет".
Большой Спортивный Брат смотрит на все эти смешные кожаные игрища сверху и знает, кто и куда сейчас побежит. Ибо научен.
С Го разобрались, пора заняться футболом.
P.S. Ну, за ставки на спорт. 1xbet, тут должна быть ваша реклама.
Амазон взял трансляцию 35 000 игр в американский футбол и накормил свой ИИ.
Теперь эта тварь ПОНИМАЕТ, что происходит на экране и, более того, с успехом предсказывает, ЧТО ПРОИЗОЙДЕТ дальше.
"Defensive Alerts распознает, когда игроки защиты собираются атаковать защитника противника. Вокруг интересующих игроков появится красный шар, чтобы болельщики(пока) точно знали, на ком сосредоточить внимание."
«Он способен просматривать данные координат XY всех игроков, их отношение друг к другу, а также их ускорение; куда они движутся и как быстро они движутся в направлении, чтобы предсказать, кто собирается блицевать»
И все это в реальном времени!
Большой материал на техкранче про это:
https://techcrunch.com/2023/08/24/amazon-prime-video-ai-features-thursday-night-football/
Пока все это применяется для "обогащения" трансляций визуальными элементами. Типа "куда смотреть, чтобы не пропустить". Однако с точки зрения тренерской подготовки и даже тактики во время матча это может изменить спорт.
Просто представьте, что в ухе защитника пищит ИИ: "чувак на пол-шестого щас рванет".
Большой Спортивный Брат смотрит на все эти смешные кожаные игрища сверху и знает, кто и куда сейчас побежит. Ибо научен.
С Го разобрались, пора заняться футболом.
P.S. Ну, за ставки на спорт. 1xbet, тут должна быть ваша реклама.
👍45🔥18
Ровно год назад делал такой пост. Продублировал его в фейсбучике. Сегодня фейсбучек прислал мне уведомление, что они удалили этот пост годовой давности, потому что он нарушает их нормы. Вот она, работа ИИ в действии. Нельзя писать про кожаных мешков.
https://t.me/cgevent/4007
https://t.me/cgevent/4007
Telegram
Метаверсище и ИИще
Вот целое научное исследование Prompt permutation study о том, как перестановка слов в текстовых подсказках отражается на полученных картинках.
Удивительно замкнулся круг.
Теперь мы изучаем то, что сами создали, пытаясь понять, как оно работает. Что у него…
Удивительно замкнулся круг.
Теперь мы изучаем то, что сами создали, пытаясь понять, как оно работает. Что у него…
👍16👎2
Forwarded from Нейронавт | Нейросети в творчестве
This media is not supported in your browser
VIEW IN TELEGRAM
VALL-E X: Multilingual Text-to-Speech Synthesis and Voice Cloning
Мультиязычный генератор речи по тексту и клонировщик голоса. Английский, Японский, Китайский. Для клонирования голоса достаточно 3-7 секунд образца. Контроль акцента, эмоций, акустики.
Примеры
Код
Демо
Колаб
#text2speech #tts #voicecloning
Мультиязычный генератор речи по тексту и клонировщик голоса. Английский, Японский, Китайский. Для клонирования голоса достаточно 3-7 секунд образца. Контроль акцента, эмоций, акустики.
Примеры
Код
Демо
Колаб
#text2speech #tts #voicecloning
👍28👎5🔥4
Дипфейки уже здесь и вопросов становится все больше.
Судя по предыдущему посту, клонирование голоса - это уже решенная задача не на бумаге и не в бумагах, а на уровне готовых сервисов, доступных любому.
В связи с этим вот такая история.
Я пересекался с Аленой при организации Стримфеста, где она работала "голосом" вживую.
Также она записывала много разных озвучек для рекламы, аниме и другого контента.
В 2019 году записала озвучку для Tinkoff. С непонятной тогда формулировкой "запись синтеза". Сотрудники банк утверждали, что ее голос "будет использоваться для внутренних нужд банка".
На итоге голос Алены стал звучать отовсюду, далеко за пределами внутренних нужд. Например в озвучке порно (которое ей любезно прислали друзья), рекламе трешовых игр и много где еще.
Подробности очень хорошо изложены в получасовом нижележащем видео, которое уже довольно широко пошло в народ. Поглядите, много интересных деталей.
Что думает редакция по этому поводу?
В 2019 году, когда было сделано клонирование голоса, никто еще не выпивал за дикторов, кроме автора канала, и никаких юридических регуляций отчуждения голоса от живого человека не существовало. Не существует их и сейчас. В 2019 году никто не думал, что такое возможно. Сейчас, это можно делать, имея на руках 3 секунды образца голоса (см пред пост).
Это поднимает очень большую проблему: ИИ может содрать и скопировать ваш голос, лицо, авторский стиль написания текстов, хореографию и стиль движений (по которому кстати распознаются люди на улицах с камер наблюдения). Он научился отделять от вас ваш талант в каких-то областях. И переносить его в любой контекст, надевать на других людей.
Что с этим делать, непонятно никому. Я искренно сочувствую Алене, особенно в части того, что ее лихо обманули в 2019 году, замяв формулировку "где будет использоваться голос".
Но сейчас, как мне кажется, ситуация с "авторством" пойдет по двум направлениям.
Если рассматривать случай с голосом, то это будет запись голоса для озвучки конкретного материала и запись голоса для "синтеза". Кто-то согласится писать только первое, кто-то будет готов на все (и готов услышать свой голос в порно). А уж как будут соблюдаться договора(которые будут включать в себя будущие формулировки про авторство) - это вопрос уже хорошо обкатанный судами, юристами на множестве ситуаций с подобными договорами на любые темы.
Если рассматривать более широкую ситуацию с дипфейками, то хорошо иллюстрирует вопрос забастовка в Голливуде, где актеры требуют регламентировать(скажем так) оцифровку их внешности (сканирование лиц, мокап и пр). И тут, я думаю, все снова поделится на два лагеря.
Будут актеры (в основном с хорошим портфолио и гонорарами), которые будут сниматься на камеру "по старинке", а за каждый цифровой чих вписывать пару нулей в договор. И будут актеры, которые будут готовы сниматься "для синтеза", то есть цифровать свой стиль, внешность, мимику и пр. для любых последующих манипуляций. Для них это самый доступный пусть Голливуд. А там, может быть повезет, и удастся перебраться в первую категорию.
"Для любых последующих манипуляций" - это вопрос регулирования, которого пока нет. И каким оно будет, непонятно. Наверное по аналогии с законами о насилии, пропаганде, лексике и пр.
Пока лишь замечу, что в некоторых странах уже сейчас можно будет схлопотать срок за вот такие вот клоны голоса как у Алены. Товарищ майор не будет долго разбираться, услышав ваш голос в материалах с "дискредитацией" или рекламой запрещенных веществ. Для него это прямое доказательство того, что вы на камеру наговорили глупостей. А уже если вам еще и дипфейк пришпандорили на лицо, то доказать что-то будет очень сложно. Детекторы дипфейков еще не завезли в народ, да и кто им поверит.
Видео Алены тут: https://youtu.be/xfhPMKpPQng
Текстовая версия тут: https://dtf.ru/u/952987-holly-forve/2073096-iz-golosa-banka-v-p0rno
Судя по предыдущему посту, клонирование голоса - это уже решенная задача не на бумаге и не в бумагах, а на уровне готовых сервисов, доступных любому.
В связи с этим вот такая история.
Я пересекался с Аленой при организации Стримфеста, где она работала "голосом" вживую.
Также она записывала много разных озвучек для рекламы, аниме и другого контента.
В 2019 году записала озвучку для Tinkoff. С непонятной тогда формулировкой "запись синтеза". Сотрудники банк утверждали, что ее голос "будет использоваться для внутренних нужд банка".
На итоге голос Алены стал звучать отовсюду, далеко за пределами внутренних нужд. Например в озвучке порно (которое ей любезно прислали друзья), рекламе трешовых игр и много где еще.
Подробности очень хорошо изложены в получасовом нижележащем видео, которое уже довольно широко пошло в народ. Поглядите, много интересных деталей.
Что думает редакция по этому поводу?
В 2019 году, когда было сделано клонирование голоса, никто еще не выпивал за дикторов, кроме автора канала, и никаких юридических регуляций отчуждения голоса от живого человека не существовало. Не существует их и сейчас. В 2019 году никто не думал, что такое возможно. Сейчас, это можно делать, имея на руках 3 секунды образца голоса (см пред пост).
Это поднимает очень большую проблему: ИИ может содрать и скопировать ваш голос, лицо, авторский стиль написания текстов, хореографию и стиль движений (по которому кстати распознаются люди на улицах с камер наблюдения). Он научился отделять от вас ваш талант в каких-то областях. И переносить его в любой контекст, надевать на других людей.
Что с этим делать, непонятно никому. Я искренно сочувствую Алене, особенно в части того, что ее лихо обманули в 2019 году, замяв формулировку "где будет использоваться голос".
Но сейчас, как мне кажется, ситуация с "авторством" пойдет по двум направлениям.
Если рассматривать случай с голосом, то это будет запись голоса для озвучки конкретного материала и запись голоса для "синтеза". Кто-то согласится писать только первое, кто-то будет готов на все (и готов услышать свой голос в порно). А уж как будут соблюдаться договора(которые будут включать в себя будущие формулировки про авторство) - это вопрос уже хорошо обкатанный судами, юристами на множестве ситуаций с подобными договорами на любые темы.
Если рассматривать более широкую ситуацию с дипфейками, то хорошо иллюстрирует вопрос забастовка в Голливуде, где актеры требуют регламентировать(скажем так) оцифровку их внешности (сканирование лиц, мокап и пр). И тут, я думаю, все снова поделится на два лагеря.
Будут актеры (в основном с хорошим портфолио и гонорарами), которые будут сниматься на камеру "по старинке", а за каждый цифровой чих вписывать пару нулей в договор. И будут актеры, которые будут готовы сниматься "для синтеза", то есть цифровать свой стиль, внешность, мимику и пр. для любых последующих манипуляций. Для них это самый доступный пусть Голливуд. А там, может быть повезет, и удастся перебраться в первую категорию.
"Для любых последующих манипуляций" - это вопрос регулирования, которого пока нет. И каким оно будет, непонятно. Наверное по аналогии с законами о насилии, пропаганде, лексике и пр.
Пока лишь замечу, что в некоторых странах уже сейчас можно будет схлопотать срок за вот такие вот клоны голоса как у Алены. Товарищ майор не будет долго разбираться, услышав ваш голос в материалах с "дискредитацией" или рекламой запрещенных веществ. Для него это прямое доказательство того, что вы на камеру наговорили глупостей. А уже если вам еще и дипфейк пришпандорили на лицо, то доказать что-то будет очень сложно. Детекторы дипфейков еще не завезли в народ, да и кто им поверит.
Видео Алены тут: https://youtu.be/xfhPMKpPQng
Текстовая версия тут: https://dtf.ru/u/952987-holly-forve/2073096-iz-golosa-banka-v-p0rno
YouTube
Из голоса банка - в фильмы 18+
Мой голос звучит в п0рнo без моего согласия после того, как я записала свой голос для крупного федерального банка. Голоса актеров дубляжа воруют и используют в противоправных целях. Как нам всем защитить себя? Я рассказываю подробно о том, что происходит…
👎19👍18🔥7
После постов про озвучку по тексту привалило много вопросов про русский язык.
Я сам пробовал вот такой проект
https://github.com/snakers4/silero-models
Плюс в том, что у них есть телеграм-бот, где можно ловко пробовать:
https://t.me/silero_voice_bot
Я сам пробовал вот такой проект
https://github.com/snakers4/silero-models
Плюс в том, что у них есть телеграм-бот, где можно ловко пробовать:
https://t.me/silero_voice_bot
GitHub
GitHub - snakers4/silero-models: Silero Models: pre-trained text-to-speech models made embarrassingly simple
Silero Models: pre-trained text-to-speech models made embarrassingly simple - snakers4/silero-models
👍10
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Невероятных успехов добился Boston Dynamics в плавности, скорости и легкости движений у модели Atlas.
*при использовании WonderStudio.
Распространите кек.
*при использовании WonderStudio.
Распространите кек.
👍52🔥34👎13
Помните, что у Гугла был свой проприетарный генератор картинок Imagen? Который можно было только посмотреть, а пощупать - нет.
А теперь ход конем - берется команда, которая делала Imagen и организуется стартап - Ideogram. Это тоже генератор картинок, но он, в отличие от многих стразу берет и поднимает 16.5 миллионов! На генерацию картинок!
Команда основателей Ideogram состоит из людей, которые ранее руководили проектами ИИ в Google Brain, Калифорнийском университете в Беркли и Университете Торонто. Его генеральный директор Мохаммад Норузи, например, был старшим научным сотрудником в Google и работал над Imagen.
Сильная (заявленная) фишка - работа с текстом, и на сайте много тому примеров.
Однако в шапке поста генерация “Racoon wearing a Toronto Raptors jersey in Toronto”.
И в общем есть вопросы.
Но для генерации логосов, например, это может быть неплохим решением.
Хорошая новость - это все бесплатно и быстро, по 4 картинки за раз, без ацких настроек, этакий Firefly от Гугла.
Го пробовать тут:
https://ideogram.ai/
читать тут:
https://ideogram.ai/launch
Логинитесь Гуглом и все.
У меня только один вопрос, как они вернут инвесторам 16.5 миллионов?
А теперь ход конем - берется команда, которая делала Imagen и организуется стартап - Ideogram. Это тоже генератор картинок, но он, в отличие от многих стразу берет и поднимает 16.5 миллионов! На генерацию картинок!
Команда основателей Ideogram состоит из людей, которые ранее руководили проектами ИИ в Google Brain, Калифорнийском университете в Беркли и Университете Торонто. Его генеральный директор Мохаммад Норузи, например, был старшим научным сотрудником в Google и работал над Imagen.
Сильная (заявленная) фишка - работа с текстом, и на сайте много тому примеров.
Однако в шапке поста генерация “Racoon wearing a Toronto Raptors jersey in Toronto”.
И в общем есть вопросы.
Но для генерации логосов, например, это может быть неплохим решением.
Хорошая новость - это все бесплатно и быстро, по 4 картинки за раз, без ацких настроек, этакий Firefly от Гугла.
Го пробовать тут:
https://ideogram.ai/
читать тут:
https://ideogram.ai/launch
Логинитесь Гуглом и все.
У меня только один вопрос, как они вернут инвесторам 16.5 миллионов?
🔥19👍5👎2
Ну и селебритис в https://ideogram.ai/ тоже есть.
Хотя на сайте Идеограма гордо красуется - “high standard for trust and safety.”
Хотя на сайте Идеограма гордо красуется - “high standard for trust and safety.”
👍7