This media is not supported in your browser
VIEW IN TELEGRAM
Magnific Precision - новый апскейл для видео.
На Freepik в разделе Video Upscale выкатили новую модель - Precision.
Если предыдущая модель Magnific Creative Video была предназначена скорее для NPR - аниме, 3Д, картун, стоп моушен, то Precision позиционируется как апскейлер именно для фоториала (и всех ваших генерация из Сидэнского и Клинга).
Просто загружаете видео, задаете разрешение и один параметр Strength, который рулит степерью добавления деталей.
Из интересного:
7200 frames and 600MB максимум. 5 минут для 24 фпс.
4K
Генерит полсекундное превью перед тем как начать генрить все видео (удобно).
Есть подозрение, что будет немного закипать на пестрых текстурах.
Пробуем.
https://www.freepik.com/ai/video-upscaler
@cgevent
На Freepik в разделе Video Upscale выкатили новую модель - Precision.
Если предыдущая модель Magnific Creative Video была предназначена скорее для NPR - аниме, 3Д, картун, стоп моушен, то Precision позиционируется как апскейлер именно для фоториала (и всех ваших генерация из Сидэнского и Клинга).
Просто загружаете видео, задаете разрешение и один параметр Strength, который рулит степерью добавления деталей.
Из интересного:
7200 frames and 600MB максимум. 5 минут для 24 фпс.
4K
Генерит полсекундное превью перед тем как начать генрить все видео (удобно).
Есть подозрение, что будет немного закипать на пестрых текстурах.
Пробуем.
https://www.freepik.com/ai/video-upscaler
@cgevent
1👍30🔥21❤10👎1😱1
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
Suno и Runway Act-Two
Автор: Азамат
В выходной поставлю необычную прожарку - это повтор поста из далекого октября прошлого года (на дворе поменялось все). А ставлю я это видео потому, что в оригинале сделал репост (забыл убрать себя из отправителей) и телега мне не дает исправить Нейропрожарка на #Нейропрожарка - как следствие видос не попадает в статистику на https://cgevent.ru/neuro/index.html. Вот я и решил, пусть попадет туда для истории.
Также интересно снова посмотреть, где мы были полгода назад.
Оригинальный пост набрал где-то +80 Позитива (Диз Баланс), так что не свирепствуйте с дизами. Пусть в истории останется позитив.
Ну и прожарка уже состоялась полгода назад. Тут вы можете просто покряхтеть, какой путь мы прошли за полгода.
____________________
Задачи:
1. Показать возможности Суно, сделав несколько разных по жанру треков, используя лишь один семпл.
2. Протестировать Act-Two от Runway
3. Развлечь себя и друзей
Используемые инструменты:
Suno 4.5
ChatGPT
Photoshop + Firefly
Faceswap
Runway Act-Two
KlingAI
Vegas
CapCut
Процесс
Началось все с создания двух строчек, которые бы забавно рифмовались. После этого семпл с этими словами прогнался раз 70 через Suno. В шорт-лист вошло 17 вариантов треков разных жанров.
Собрал тестовый монтаж и ролик получился на 3 минуты, что довольно-таки много для такого формата. Поэтому были отсеяны все лишние версии.
После этого, с помощью ЧатаГПТ были сгенерированы образы на основе моих фото. Естественно лица получились ужасными, поэтому с помощью Faceswap в Дискорде было доработано лицо. А с помощью фотошопа и Генеративной заливки доделаны детали и формат изображений был доведен до полного 9х16
Затем настала очередь захвата движений. Тут пришлось повозиться. Сделать несколько тестовых заходов. Сначала думал без склеек сделать один ролик со всеми песнями, но это оказалось сложновато. Поэтому каждый трек анимировался отдельно.
Сначала я вообще думал с помощью Runway Aleph переделать свои видео, но это оказалось очень сложной задачей, ибо там ограничение по хронометражу и конечно он очень далек от совершенства. Все, что показывают в рекламе - это фейк) Поэтому было решено остановиться на Act-Two и он в целом очень хорошо справился.
Ну и потом настало время монтажа. Было сделано 5 разных версий, пока не получилось собрать самую удачную, где все гармонично сочеталось.
Финальный кадр с танцем под дабстеп Ранвей сделать не смог, поэтому один этот кадрик анимирован в Клинге, уже без захвата движений, но зато с перевоплощением в котика^^
Монтировалось все в Вегасе и финальные штришки добавлялись в КэпКате.
Что по итогу хочется сказать:
Музыканты, да и в целом нейрохудожники, кажется пока еще не до конца осознали, какой мощный инструментарий сейчас в Суно. Можно музыку делать из чего угодно. Хоть пять треков в кашу совместить, затем закинуть в Суно и она из них сделает полноценную песню в любом жанре.
@cgevent
Suno и Runway Act-Two
Автор: Азамат
В выходной поставлю необычную прожарку - это повтор поста из далекого октября прошлого года (на дворе поменялось все). А ставлю я это видео потому, что в оригинале сделал репост (забыл убрать себя из отправителей) и телега мне не дает исправить Нейропрожарка на #Нейропрожарка - как следствие видос не попадает в статистику на https://cgevent.ru/neuro/index.html. Вот я и решил, пусть попадет туда для истории.
Также интересно снова посмотреть, где мы были полгода назад.
Оригинальный пост набрал где-то +80 Позитива (Диз Баланс), так что не свирепствуйте с дизами. Пусть в истории останется позитив.
Ну и прожарка уже состоялась полгода назад. Тут вы можете просто покряхтеть, какой путь мы прошли за полгода.
____________________
Задачи:
1. Показать возможности Суно, сделав несколько разных по жанру треков, используя лишь один семпл.
2. Протестировать Act-Two от Runway
3. Развлечь себя и друзей
Используемые инструменты:
Suno 4.5
ChatGPT
Photoshop + Firefly
Faceswap
Runway Act-Two
KlingAI
Vegas
CapCut
Процесс
Началось все с создания двух строчек, которые бы забавно рифмовались. После этого семпл с этими словами прогнался раз 70 через Suno. В шорт-лист вошло 17 вариантов треков разных жанров.
Собрал тестовый монтаж и ролик получился на 3 минуты, что довольно-таки много для такого формата. Поэтому были отсеяны все лишние версии.
После этого, с помощью ЧатаГПТ были сгенерированы образы на основе моих фото. Естественно лица получились ужасными, поэтому с помощью Faceswap в Дискорде было доработано лицо. А с помощью фотошопа и Генеративной заливки доделаны детали и формат изображений был доведен до полного 9х16
Затем настала очередь захвата движений. Тут пришлось повозиться. Сделать несколько тестовых заходов. Сначала думал без склеек сделать один ролик со всеми песнями, но это оказалось сложновато. Поэтому каждый трек анимировался отдельно.
Сначала я вообще думал с помощью Runway Aleph переделать свои видео, но это оказалось очень сложной задачей, ибо там ограничение по хронометражу и конечно он очень далек от совершенства. Все, что показывают в рекламе - это фейк) Поэтому было решено остановиться на Act-Two и он в целом очень хорошо справился.
Ну и потом настало время монтажа. Было сделано 5 разных версий, пока не получилось собрать самую удачную, где все гармонично сочеталось.
Финальный кадр с танцем под дабстеп Ранвей сделать не смог, поэтому один этот кадрик анимирован в Клинге, уже без захвата движений, но зато с перевоплощением в котика^^
Монтировалось все в Вегасе и финальные штришки добавлялись в КэпКате.
Что по итогу хочется сказать:
Музыканты, да и в целом нейрохудожники, кажется пока еще не до конца осознали, какой мощный инструментарий сейчас в Суно. Можно музыку делать из чего угодно. Хоть пять треков в кашу совместить, затем закинуть в Суно и она из них сделает полноценную песню в любом жанре.
@cgevent
1😁35👎25👍17❤16🔥13
This media is not supported in your browser
VIEW IN TELEGRAM
1😁188🔥22😱11❤5👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Ну, за анимационные сериалы.
Пока вы тут морду воротите от неточного липсинка, жмете на дизлайки или ищете блох в деталях, смышленые ребята уже клепают сериалы.
Просто посмотрите на цифры вот тут:
https://www.tiktok.com/@ai.cinema021
Fruit Love Island: Season 1
3 миллиона подписчиков, 17 эпизодов, какие-то невероятные цифры просмотров.
Все это ИИ. И зрителям наплевать, как это сделано. Пипл хавает, бизнес идет.
@cgevent
Пока вы тут морду воротите от неточного липсинка, жмете на дизлайки или ищете блох в деталях, смышленые ребята уже клепают сериалы.
Просто посмотрите на цифры вот тут:
https://www.tiktok.com/@ai.cinema021
Fruit Love Island: Season 1
3 миллиона подписчиков, 17 эпизодов, какие-то невероятные цифры просмотров.
Все это ИИ. И зрителям наплевать, как это сделано. Пипл хавает, бизнес идет.
@cgevent
1👎121😁45❤17😱13🔥11👍8
Хорошо бьется с предыдущим постом.
По словам генерального директора Cloudflare Мэтью Принса, боты захватывают интернет. На этой неделе он заявил, что с учетом скорости развития искусственного интеллекта, к 2027 году трафик от ИИ-ботов превысит объем трафика от людей в интернете.
«Я думаю, что люди не до конца понимают, что ИИ — это смена платформ», — сказал Принс, вспоминая предыдущие переходы веб-технологий, такие как переход с настольных компьютеров на мобильные устройства. «ИИ — это еще один переход на новую платформу… способ потребления информации будет совершенно другим».
Интересно подумать, что будет с рекламой и экономикой внимания. Кому будет показывать рекламу Гугл? Ботам?
Хорошая новость для создателей развлекательного контента: у ботов пока нет задачи "пойди на эти 12 сайтов и порадуйся за меня". В освободившееся время люди будут залипать на контенте из предыдущего поста.
https://techcrunch.com/2026/03/19/online-bot-traffic-will-exceed-human-traffic-by-2027-cloudflare-ceo-says/
@cgevent
По словам генерального директора Cloudflare Мэтью Принса, боты захватывают интернет. На этой неделе он заявил, что с учетом скорости развития искусственного интеллекта, к 2027 году трафик от ИИ-ботов превысит объем трафика от людей в интернете.
«Я думаю, что люди не до конца понимают, что ИИ — это смена платформ», — сказал Принс, вспоминая предыдущие переходы веб-технологий, такие как переход с настольных компьютеров на мобильные устройства. «ИИ — это еще один переход на новую платформу… способ потребления информации будет совершенно другим».
Интересно подумать, что будет с рекламой и экономикой внимания. Кому будет показывать рекламу Гугл? Ботам?
Хорошая новость для создателей развлекательного контента: у ботов пока нет задачи "пойди на эти 12 сайтов и порадуйся за меня". В освободившееся время люди будут залипать на контенте из предыдущего поста.
https://techcrunch.com/2026/03/19/online-bot-traffic-will-exceed-human-traffic-by-2027-cloudflare-ceo-says/
@cgevent
TechCrunch
Online bot traffic will exceed human traffic by 2027, Cloudflare CEO says | TechCrunch
AI bots may outnumber humans online by 2027, says Cloudflare CEO Matthew Prince, as generative AI agents dramatically increase web traffic and infrastructure demands.
2❤24👎9👍5😁5
This media is not supported in your browser
VIEW IN TELEGRAM
Video to 3D
Довольно залипательный проект, где видео с веб-камеры превращаются в 3Д-анимации лица.
Причем работает все это на MediaPipe и Three.js
Есть код, обновился 2 часа назад:
https://github.com/bandinopla/three-mediapipe-rig
Но вы можете поиграться с web-demo:
https://bandinopla.github.io/three-mediapipe-rig/?editor=meshcap
В принципе проект может захватывать не только лицо, но и руки и даже полный скелет, но из-за потери в FPS движения получаются слишком дерганными:
https://bandinopla.github.io/three-mediapipe-rig/
Но с лицом выглядит очень интересно.
@cgevent
Довольно залипательный проект, где видео с веб-камеры превращаются в 3Д-анимации лица.
Причем работает все это на MediaPipe и Three.js
Есть код, обновился 2 часа назад:
https://github.com/bandinopla/three-mediapipe-rig
Но вы можете поиграться с web-demo:
https://bandinopla.github.io/three-mediapipe-rig/?editor=meshcap
В принципе проект может захватывать не только лицо, но и руки и даже полный скелет, но из-за потери в FPS движения получаются слишком дерганными:
https://bandinopla.github.io/three-mediapipe-rig/
Но с лицом выглядит очень интересно.
@cgevent
2🔥21❤7👍3
Seedance 2.0 пошел в массы!
Твитторские хвастаюцца, что получили доступ к Сидэнскому через Dreamina и Capcut App.
Для этого нужен IP юго-восточной азии (или Ямайки, или Фиджи)
Не могу проверить, для Европы и Штатов недоступно пока.
Некоторые жалуюцца, что банит лица на вход image2video.
Но что я точно нашел, что на Artificial Analysis в лидербордах Text To Video и Image To Video появилась модель Dreamina Seedance 2.0 и тут же побила ВСЕХ, выскочив на первое место.
https://artificialanalysis.ai/video/leaderboard/text-to-video
Если она появилась на Арена, значит есть и доступ API, так?
В общем процесс зашевелился...
@cgevent
Твитторские хвастаюцца, что получили доступ к Сидэнскому через Dreamina и Capcut App.
Для этого нужен IP юго-восточной азии (или Ямайки, или Фиджи)
Не могу проверить, для Европы и Штатов недоступно пока.
Некоторые жалуюцца, что банит лица на вход image2video.
Но что я точно нашел, что на Artificial Analysis в лидербордах Text To Video и Image To Video появилась модель Dreamina Seedance 2.0 и тут же побила ВСЕХ, выскочив на первое место.
https://artificialanalysis.ai/video/leaderboard/text-to-video
Если она появилась на Арена, значит есть и доступ API, так?
В общем процесс зашевелился...
@cgevent
1👍38🔥19❤6😁1
Похоже, разрабы ГигаЧата на этой неделе выкатят что-то масштабное.
Тут появились интригующие баннеры, судя по которым, нас ждет какой-то глобальный апдейт. На самом деле я этого ждал — последние пару дней плотно гоняю ИИ-помощника в рабочих задачах и чувствую, что под капотом что-то серьезно подкрутили. Модель стала ощутимо умнее в плане контекста — теперь она помнит факты, которые мы обсуждали сто сообщений назад, и не вылетает из логики длинного диалога. Это прямо бросается в глаза.
Сама логика ответов стала чище. Намного меньше нейрошума и пустых вводок, которые обычно приходится вычищать руками.
Ждем официальных подробностей, но по первым тестам апдейт обещает быть хищным.
Попробуйте сами потыкать, разница в «мозгах» чувствуется сразу.
@cgevent
Тут появились интригующие баннеры, судя по которым, нас ждет какой-то глобальный апдейт. На самом деле я этого ждал — последние пару дней плотно гоняю ИИ-помощника в рабочих задачах и чувствую, что под капотом что-то серьезно подкрутили. Модель стала ощутимо умнее в плане контекста — теперь она помнит факты, которые мы обсуждали сто сообщений назад, и не вылетает из логики длинного диалога. Это прямо бросается в глаза.
Сама логика ответов стала чище. Намного меньше нейрошума и пустых вводок, которые обычно приходится вычищать руками.
Ждем официальных подробностей, но по первым тестам апдейт обещает быть хищным.
Попробуйте сами потыкать, разница в «мозгах» чувствуется сразу.
@cgevent
2👎182❤167😁56👍17😱5🔥4🙏1
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
"Можно". Музыкальный клип
Автор: @slakker
▶️ YouTube
📸 Instagram
✈️ Telegram
—
🎬 Полноценный клип для собственного музыкального проекта. Сделан в одиночку — от идеи до постпродакшена. Весь визуал сгенерирован нейросетями. Текст авторский.
⏱️ Срок: ~3–4 недели (с большим перерывом; начинал на Kling 2.5, заканчивал на 3-й версии).
🛠 Инструменты:
— Изображения: Nanabanana
— Видео: Kling, Seedance, Grok
— Липсинк: Kling Avatar + Kling Lipsync
— Монтаж, обработка, цветокор, апскейл: DaVinci Resolve
📊 В цифрах: сгенерировано ~400 видеофрагментов, в финальный монтаж вошло около 100.
💰 Точные затраты на генерации подсчитать сложно — всё создавалось в разное время, а часть была сгенерирована во время акций Хигсфилда с анлимитом на Kling.
🎯 Задача: сделать нейро-видео, которое не стыдно показать людям и которое не создаёт ощущение нейрослопа. А заодно убедиться, что настали времена, когда такое можно делать в одиночку.
@cgevent
"Можно". Музыкальный клип
Автор: @slakker
▶️ YouTube
✈️ Telegram
—
🎬 Полноценный клип для собственного музыкального проекта. Сделан в одиночку — от идеи до постпродакшена. Весь визуал сгенерирован нейросетями. Текст авторский.
⏱️ Срок: ~3–4 недели (с большим перерывом; начинал на Kling 2.5, заканчивал на 3-й версии).
🛠 Инструменты:
— Изображения: Nanabanana
— Видео: Kling, Seedance, Grok
— Липсинк: Kling Avatar + Kling Lipsync
— Монтаж, обработка, цветокор, апскейл: DaVinci Resolve
📊 В цифрах: сгенерировано ~400 видеофрагментов, в финальный монтаж вошло около 100.
💰 Точные затраты на генерации подсчитать сложно — всё создавалось в разное время, а часть была сгенерирована во время акций Хигсфилда с анлимитом на Kling.
🎯 Задача: сделать нейро-видео, которое не стыдно показать людям и которое не создаёт ощущение нейрослопа. А заодно убедиться, что настали времена, когда такое можно делать в одиночку.
@cgevent
4🔥89👎45👍23❤14
This media is not supported in your browser
VIEW IN TELEGRAM
Luma Uni-1
Вы будете смеяться, но у нас новый генератор картинок.
От LumaLabs, не опенсорсных.
По первым отзывам - дичайше крутой. Типа сначала думает, потом делает.
Но так и Банана действует.
Завтра разбираемся подробнее, но ночные психи бегут сюда пробовать:
https://lumalabs.ai/uni-1
@cgevent
Вы будете смеяться, но у нас новый генератор картинок.
От LumaLabs, не опенсорсных.
По первым отзывам - дичайше крутой. Типа сначала думает, потом делает.
Но так и Банана действует.
Завтра разбираемся подробнее, но ночные психи бегут сюда пробовать:
https://lumalabs.ai/uni-1
@cgevent
1❤30👍14👎6🔥4
Luma Uni-1: новый генератор картинок. Тестируем
Отличный! Редактирующий притом. И умный.
Делает прям хорошую картинку. Причем сразу в 4К.
В чате справа забавно наблюдать, как он рассуждает.
Иногда немного перебарщивает с фантазией и рассуждениями - зачем-то приделал мне текст внизу. Хотя промпт такой, что можно подумать, что это постер. В общем мне нравится ход его мыслей.
Дальше еще лучше. Он умеет редактировать картинки!
Просто в чате справа пишу:
- Перекрась тварь в зеленый цвет
- Апажалста!
- Убери к буйволу дурацкий текст
- Апажалста
Редактирует хорошо. Прям оставляет все детали на месте (кроме совсем мелких и пестрых). Чуть-чуть шифтит камеру, буквально на пяток пикселей.
Небольшое замечание: генерит с нуля в 4К (5504х3072), но отредактированные картинки получаются в 2К.
Но я просто пишу ему в чате:
- приподапскейль отредактированное изображение до 4К
- Апажалста!
Апскейлит хорошо, но мелкие детали плывут немного (взрыв, брызги, грязь) - чуть больше, чем при редактировании. В общем крепкий такой креативный апскейлер.
Далее, он умный и может с вами поговорить:
- Пошто у тебя генерация в 4К, а редактирование в 2К
- It's a limitation of the editing tool — it downscales to 2K for processing. That's exactly why we then upscaled the final result back to 4K (5504×3072).
- Ты можешь нормально по-русски отвечать?
- Апажалста. Могу общаться по-русски без проблем. Чем могу помочь? (И перешел на русский в рассуждениях сам с собой)
- Такишо там с разрешением?
- Если хотите сохранить 4K на всех этапах, лучший подход: редактирование в 2K → апскейл обратно до 4K как финальный шаг. Именно так мы и сделали с удалением текста.
- А теперь сделай промпт, который хорошо демонстрирует возможности генерации мелкого и крупного текста на одной картинке
- Апажалста, вот газетный разворот.
Очень неплохо. Крупные заголовки и надписи типа даты, цены - все корректно. Совсем мелкий текст, конечно, на клингонском. Причем он ЧЕСТНО мне пишет в чате после генерации: "Крупный и средний текст отрисован отлично. Мелкий основной текст в колонках — частично читаемый, что честно показывает текущие возможности и ограничения генерации текста. Как вам результат?"
Удивительно, но я присунул этот промпт в Нанабанану 2 - и она не справилась. Не смогла в мелкий текст (пусто), см примеры выше в шапке поста, там где робат черный. Хотя, возможно, она так понимает промпт.
В общем, я в приятном шоке. Это, похоже, хороший конкурент Банане в Gemini.
Далее, я совсем разошелся:
- хачу видео по сгенерированной картинке с тем же промптом
- Апажалста!
Причем с отличным качеством и в 1920х1080! Ничего не дрожит. См выше в шапке.
Итак.
Первое впечатление: очень хорошо! Не знаю как там кожа, поры и пластик (навалитесь, протестируйте, я бесплатно даже не выбрал лимит).
Плюс там свой Канвас с редактированием и удобная организация в проекты.
Задумалсо над апгрейдом (30 долларов в месяц).
https://lumalabs.ai/uni-1
@cgevent
Отличный! Редактирующий притом. И умный.
Делает прям хорошую картинку. Причем сразу в 4К.
В чате справа забавно наблюдать, как он рассуждает.
Иногда немного перебарщивает с фантазией и рассуждениями - зачем-то приделал мне текст внизу. Хотя промпт такой, что можно подумать, что это постер. В общем мне нравится ход его мыслей.
Дальше еще лучше. Он умеет редактировать картинки!
Просто в чате справа пишу:
- Перекрась тварь в зеленый цвет
- Апажалста!
- Убери к буйволу дурацкий текст
- Апажалста
Редактирует хорошо. Прям оставляет все детали на месте (кроме совсем мелких и пестрых). Чуть-чуть шифтит камеру, буквально на пяток пикселей.
Небольшое замечание: генерит с нуля в 4К (5504х3072), но отредактированные картинки получаются в 2К.
Но я просто пишу ему в чате:
- приподапскейль отредактированное изображение до 4К
- Апажалста!
Апскейлит хорошо, но мелкие детали плывут немного (взрыв, брызги, грязь) - чуть больше, чем при редактировании. В общем крепкий такой креативный апскейлер.
Далее, он умный и может с вами поговорить:
- Пошто у тебя генерация в 4К, а редактирование в 2К
- It's a limitation of the editing tool — it downscales to 2K for processing. That's exactly why we then upscaled the final result back to 4K (5504×3072).
- Ты можешь нормально по-русски отвечать?
- Апажалста. Могу общаться по-русски без проблем. Чем могу помочь? (И перешел на русский в рассуждениях сам с собой)
- Такишо там с разрешением?
- Если хотите сохранить 4K на всех этапах, лучший подход: редактирование в 2K → апскейл обратно до 4K как финальный шаг. Именно так мы и сделали с удалением текста.
- А теперь сделай промпт, который хорошо демонстрирует возможности генерации мелкого и крупного текста на одной картинке
- Апажалста, вот газетный разворот.
Очень неплохо. Крупные заголовки и надписи типа даты, цены - все корректно. Совсем мелкий текст, конечно, на клингонском. Причем он ЧЕСТНО мне пишет в чате после генерации: "Крупный и средний текст отрисован отлично. Мелкий основной текст в колонках — частично читаемый, что честно показывает текущие возможности и ограничения генерации текста. Как вам результат?"
Удивительно, но я присунул этот промпт в Нанабанану 2 - и она не справилась. Не смогла в мелкий текст (пусто), см примеры выше в шапке поста, там где робат черный. Хотя, возможно, она так понимает промпт.
A vintage-style broadsheet newspaper front page of a fictional newspaper called "THE DAILY CHRONICLE" (large ornate masthead title at the top).
Main headline in big bold serif letters: "GIANT ROBOT SPOTTED IN DOWNTOWN TOKYO"
Subheadline in medium text: "Authorities urge citizens to remain calm as 300-foot machine walks through Shibuya"
Smaller text elements throughout the page:
"Vol. 147, No. 42 — Wednesday, March 24, 2026"
"Price: $2.50"
"EXCLUSIVE PHOTOS INSIDE — Pages 4-7"
A small caption under the illustration: "Eyewitnesses describe bright lights and thunderous footsteps"
A dramatic woodcut-style illustration area showing a giant robot silhouette towering among Tokyo city buildings.
Full typographic hierarchy demonstrating a wide range of text sizes — from large masthead and headline down to small dates, prices, and captions — all rendered clearly and legibly. Classic column layout with decorative dividers. Early 20th century broadsheet newspaper aesthetics. Aged paper texture, warm sepia and cream tones, serif typography throughout.
В общем, я в приятном шоке. Это, похоже, хороший конкурент Банане в Gemini.
Далее, я совсем разошелся:
- хачу видео по сгенерированной картинке с тем же промптом
- Апажалста!
Причем с отличным качеством и в 1920х1080! Ничего не дрожит. См выше в шапке.
Итак.
Первое впечатление: очень хорошо! Не знаю как там кожа, поры и пластик (навалитесь, протестируйте, я бесплатно даже не выбрал лимит).
Плюс там свой Канвас с редактированием и удобная организация в проекты.
Задумалсо над апгрейдом (30 долларов в месяц).
https://lumalabs.ai/uni-1
@cgevent
13🔥70❤18👍10😱4😁3
Seedance 2.0: теперь официально для избранных.
Дримина и Капкат твитторнули, что раскатывают Сиденского для довольно экзотического списка стран (см картинку).
Радует приписка "список расширяется". Вопрос в какую сторону...
@cgevent
Дримина и Капкат твитторнули, что раскатывают Сиденского для довольно экзотического списка стран (см картинку).
Радует приписка "список расширяется". Вопрос в какую сторону...
@cgevent
2🔥30👍4👎2❤1