дAI потестить!
2.65K subscribers
246 photos
168 videos
4 files
159 links
Ленивые AI инструменты для создания контента
👉 Тут помогут и подскажут @neuralchatik
Download Telegram
дAI потестить!
Нашел для Veo парочку любопытных токенов: [montage cuts] [jump cuts] Если их вставить в промпт, внутри генерации появятся джамп каты, поэтому смонтировать следующий кадр становится намного проще. Ролик в примере сделан по алгоритму: 1. Вставил первый кадр…
Базовый ролик получен — нашу Ясю уже можно грузить в Одноклассники и начинать лутать Суперклассы. Но мы же тут собрались как люди творческие, высокодуховные и слегка помешанные на перфекционизме, так что хотим не просто ролик, а шедевр. Правильно? Ну вот и давайте попробуем сделать вид, что мы всё контролируем.

Перове на что обращаешь внимание, это "утекает" мелкая детализация: зубы местами в кашу, глаза при моргании деформируются (см. видео 1). Лечить будем апскейлом на Wan2.2. В интернете схем полно, принцип один — аккуратно прошлифовать картинку Wan-ом на малых шагах и молиться, что сегодня ComfyUI будет работать. Можно взять схему, которой поделился Дмитрий @TuXoHoB в комментариях. Спасибки направляйте ему в ЛС, и лучше если это будут спасибки от Сбера😊. Что получилось см. видео 2.

Второе, что портит видео, — маленькое разрешение (720p… Google, серьёзно?). Есть несколько путей решить этот позор:
astra.app
www.topazlabs.com

Из опенсорса (если сможешь настроить)
https://huggingface.co/JunhaoZhuang/FlashVSR-v1.1
https://github.com/IceClear/SeedVR2

Я же решил воспользоваться новинкой https://fal.ai/models/fal-ai/bytedance-upscaler/upscale/video просто потому что она стоит 4 цента на Fal.ai. Результат средний, astra.app может лучше, но деньги я уже потратил, поэтом придется вам смотреть на это (см. видео 3).

Это ещё не всё, что можно улучшить, но я на сегодня закончился и пошёл спать.

P.S. И немного ночных рассуждений. Чтобы сделать базовый ролик, достаточно уметь работать в нескольких сервисах. Например, я люблю Google. Но чтобы «дотянуть» его до приемлемого качества, уже нужно лезть в дебри, расширять инструментарий и дружить с опенсорсом.
P.S.S. Если хотите еще поработать с этим видео, мне нужны сердечки под постом.
36👍10👏3
Кстати, помните ватермарку SynthID от Google. Она есть, но ее никто не видел. Вот в ai studio нашел следы. Кто хочет потестить?
👍6😁31❤‍🔥1🤔1
Forwarded from Мутный AI
Астрологи опять снова объявили неделю нано-бананы, за которую платят господа Gemini Ultra, т.к. их опять заставили отваливать кредиты за Fast генерации из-за перегруза серверов.
Спасибо, мистер гигол. 🚬

Я не хочу захламлять вам ленту очередным постом про МЕГА ПРОРЫВ БОЖЕ МОЙ ОДНА КНОПКА НЕВЕРОЯТНО ВЫПЬЕМ ЗА ВСЕХ И НА ЗАВОД, вместо этого хочу поговорить про прикладную задачу, которую прошка, как и обычная банана, нормально решить не может.

Речь о дрейфе цветов при их переносе с референсов.

Как бы ты ни прокачивал "мозги" диффузии, базовые проблемы технологии никуда не денутся.

И если между ракурсами простеньких 2d-шных ассетов дрейф не такой сильный (но все равно есть), то вот при попытке перенести конкретные цвета на одежду или другие штуки — бой о бой. Начинается веселуха.

Ловите микрогайдик, как перенести цвет максимально близко к оригиналу и не поехать крышей в процессе.
Я думал, он потеряет актуальность с выходом новой модели, но кажись нет.

И да, я понимаю, что текстура, освещение и геометрия не позволят перенести цвет 1 в 1, но вы хотя бы приблизитесь к этому.

1. Уберите любые цвета с оригинального объекта, особенно насыщенно-темные.
Лучше всего сначала перегенерить объект в белый цвет.

Диффузионки лишь частично зашумляют целевое изображение, оставляя информацию о цветах. Это сильно влияет на результат.

2. Добавьте референсный цвет прямо на целевое изображение.
Можно просто расширить холст и добавить цвет сбоку. Затем перегенерируйте, попросив перенести цвет на объект из этого рефа.

Обычно у in-сontext моделей при переносе цвета с отдельного референса изображение идет через семантический энкодер, где теряются точные оттенки — важнее передать форму, материал, стиль и примерную палитру. Плюс модели устойчивы к цветовому расхождению, им необходимо это для распознавания объектов при разном освещении.

А вот если поместить цвет на самом холсте, то он проходит через тот же латентный энкодер, что и остальная часть изображения. Короче, информация о цвете остается «внутри» изображения, поэтому он переносится точнее.

3. Готово, вы практически великолепны.
Практически — потому что идеально все равно не получится, но для большинства задач и работы на коленке без геморроя с Comfy или чем-то еще — достаточно.

Если хотите порассматривать цвета, PDF в комментах.

Мутный AI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤‍🔥22👍104😁3🔥1👌1🌚1
Делаем автоматическую раскадровку без сюжета

Если в NanoBanana Pro дать промпт:
Cделай следующий монтажный кадр, соблюдая правила крупностей и ракурсов


То банан сам попытается создать следующий монтажный кадр. Зачем думать, когда можно не думать😊

P.S. Работает всегда, но не всегда монтажно😊 .
P.S.S. Первая фотка - исходник
👍33🔥84🤗3
Ночной вопрос
Какая была самая глупая правка?
Мне тут написал @napstep в ЛС. Поделился своим ботом https://t.me/botnet_ai_bot.
Ботик маленький, внутри лежат модельки (картинки, видео, LLM). Немножко есть бесплатного, но сосем чуть-чуть.
Почему пишу? Мне показалось разраб болеет своим делом, и было бы странно не поддержать в самом начале.

P.S. Разрабу можно писать в ЛС @napstep, через бота или тегнуть его у нас в нейрочатике.
P.S.S. Если дочитал до конца, разраб обещал дать промик тем, кто попросит в комментах к посту.
P.P.S.S. Сам я бот конечно же не юзал. Все на свой страх и риск.
🔥6👍5👏3
дAI потестить!
Это Даша. Она работает в "Кисло и Кочка". Ей не хватило одежды фирменного зеленого цвета. Помоги Даше, покрась ее одежду ТОЧНО в фирменный цвет компании. Только нейронки, никакого фотошопа😊. Upd. По просьбе @O1egTM усреднённый зеленый положил сюда https…
Помните Дашу?
Так вот, на работе их стали кормить бесплатными обедами. Даша согласилась, но теперь переживает, что дополнительные 3–4 килограмма могут сделать её менее прекрасной.
Помоги Даше развеять ее сомнения. Сделай Дашу тяжелее на 4 кг.
5👍3
Media is too big
VIEW IN TELEGRAM
Чиним кожу у синтетических людей (особенно у Flux-человечеков)

Вышла Z-image. Такая себе sdxl здорового человека. Легкая, красивая, и как мой сосед любит "пошуметь". Ну раз любит "пошуметь" - нужно использовать.

Если через нее прогнать картинку i2i немного настроив, то можно получить на лице вместо пластика, частичное присутствие органики. Workflow как обычно в комментах.

P.S. Не претендую на единственно верные настройки, и даже немного обрадуюсь, если меня поправят. Но не сильно.

P.S.S. Завтра будет зима, чет холодно. Накидайте огонечков на пост.
4🔥58❤‍🔥74🍓3👍2🤔2
Ночной вопрос
Опенсорс или сервисы?
Тем временем Лена @SaMayElena дотренировала z-image на реализм и выложила сюда https://civitai.com/models/2188147?modelVersionId=2463782. Го тестить 😊
👍9🔥71