дAI потестить!
2.65K subscribers
246 photos
168 videos
4 files
159 links
Ленивые AI инструменты для создания контента
👉 Тут помогут и подскажут @neuralchatik
Download Telegram
Кстати, если вдруг у Вас появилось непреодолимое желание погенерить в Wan2GP, но вы далеко от дома.
Есть выход:
1. Ставим Pinokio
2. Идем в Share, там ставим галку и вводим пароль (скрин 1)
3. Запускаем Wan2GP и копируем себе ссылочку (скрин 2)

Теперь у Вас есть доступ даже с телефона.
👍76
Ребятки, там на Fal.ai подвезли Api от openrouter:

https://fal.ai/models/openrouter/router
https://fal.ai/models/openrouter/router/vision

Похоже сейчас через Fal.ai можно общаться с LLM и Vision моделями бесплатно (Пробовал с нулевого аккаунта - работает).

P.S. Зачем это Вам - хз. Ну не одному же мне радоваться халяве.
P.S.S. Лимитов пока не понял
7👍3😁3
дAI потестить!
Ребятки, там на Fal.ai подвезли Api от openrouter: https://fal.ai/models/openrouter/router https://fal.ai/models/openrouter/router/vision Похоже сейчас через Fal.ai можно общаться с LLM и Vision моделями бесплатно (Пробовал с нулевого аккаунта - работает).…
Меня тут спросили под постом выше: «А зачем это всё нужно?»

Как зачем? Очевидно, чтобы запилить бота @BananaPrompterBot.
Те, кто генерирует в Wan 2.2 по первому кадру, знают, что модель лучше работает с длинным промптом. Только вот сочинять из головы лень. Да и не нужно.

Кидаете в @BananaPrompterBot картинку, описываете парой слов — получаете вкусный промптик, сохраняете себе в блокнотик на память, как частичку канала @daipotestit. Обязательно положите в нагрудный карман, поближе к сердечку.

P.S. Под капотом — Gemini, поэтому определённый тип контента, который используют исключительно для изучения анатомии человека, не пройдёт цензуру.
P.P.S. Заодно проверим, долго ли OpenRouter на Fal будет насыпать бесплатные токены.

Бота написал на коленке, поздно ночью. не удивлюсь если будут баги. Кидайте в коменты
11👍7🔥6
Media is too big
VIEW IN TELEGRAM
Нашел для Veo парочку любопытных токенов:
[montage cuts]
[jump cuts]

Если их вставить в промпт, внутри генерации появятся джамп каты, поэтому смонтировать следующий кадр становится намного проще.

Ролик в примере сделан по алгоритму:
1. Вставил первый кадр
2. Вписал в промпт:
[jump cuts]
Девушка идет и говорит на русском "Тут ее слова"

3. В следующих генерациях меняю реплики в кавычках.
4. Собираю шоты подряд в монтажке.
Быстро, надежно, со вкусом.

P.S. Еще хочется, чтобы и ракурс съемки менял при кате, но пока не придумал как.
2👍34🔥12👏6🥰3
Удивительно!
11labs решил прикрутить модели для генерации фото и видео. Теперь и они стали комбайном по перепродаже Api. Уходит эпоха.
Модели на скринах.
😱2👍1
дAI потестить!
Нашел для Veo парочку любопытных токенов: [montage cuts] [jump cuts] Если их вставить в промпт, внутри генерации появятся джамп каты, поэтому смонтировать следующий кадр становится намного проще. Ролик в примере сделан по алгоритму: 1. Вставил первый кадр…
Базовый ролик получен — нашу Ясю уже можно грузить в Одноклассники и начинать лутать Суперклассы. Но мы же тут собрались как люди творческие, высокодуховные и слегка помешанные на перфекционизме, так что хотим не просто ролик, а шедевр. Правильно? Ну вот и давайте попробуем сделать вид, что мы всё контролируем.

Перове на что обращаешь внимание, это "утекает" мелкая детализация: зубы местами в кашу, глаза при моргании деформируются (см. видео 1). Лечить будем апскейлом на Wan2.2. В интернете схем полно, принцип один — аккуратно прошлифовать картинку Wan-ом на малых шагах и молиться, что сегодня ComfyUI будет работать. Можно взять схему, которой поделился Дмитрий @TuXoHoB в комментариях. Спасибки направляйте ему в ЛС, и лучше если это будут спасибки от Сбера😊. Что получилось см. видео 2.

Второе, что портит видео, — маленькое разрешение (720p… Google, серьёзно?). Есть несколько путей решить этот позор:
astra.app
www.topazlabs.com

Из опенсорса (если сможешь настроить)
https://huggingface.co/JunhaoZhuang/FlashVSR-v1.1
https://github.com/IceClear/SeedVR2

Я же решил воспользоваться новинкой https://fal.ai/models/fal-ai/bytedance-upscaler/upscale/video просто потому что она стоит 4 цента на Fal.ai. Результат средний, astra.app может лучше, но деньги я уже потратил, поэтом придется вам смотреть на это (см. видео 3).

Это ещё не всё, что можно улучшить, но я на сегодня закончился и пошёл спать.

P.S. И немного ночных рассуждений. Чтобы сделать базовый ролик, достаточно уметь работать в нескольких сервисах. Например, я люблю Google. Но чтобы «дотянуть» его до приемлемого качества, уже нужно лезть в дебри, расширять инструментарий и дружить с опенсорсом.
P.S.S. Если хотите еще поработать с этим видео, мне нужны сердечки под постом.
36👍10👏3
Кстати, помните ватермарку SynthID от Google. Она есть, но ее никто не видел. Вот в ai studio нашел следы. Кто хочет потестить?
👍6😁31❤‍🔥1🤔1
Forwarded from Мутный AI
Астрологи опять снова объявили неделю нано-бананы, за которую платят господа Gemini Ultra, т.к. их опять заставили отваливать кредиты за Fast генерации из-за перегруза серверов.
Спасибо, мистер гигол. 🚬

Я не хочу захламлять вам ленту очередным постом про МЕГА ПРОРЫВ БОЖЕ МОЙ ОДНА КНОПКА НЕВЕРОЯТНО ВЫПЬЕМ ЗА ВСЕХ И НА ЗАВОД, вместо этого хочу поговорить про прикладную задачу, которую прошка, как и обычная банана, нормально решить не может.

Речь о дрейфе цветов при их переносе с референсов.

Как бы ты ни прокачивал "мозги" диффузии, базовые проблемы технологии никуда не денутся.

И если между ракурсами простеньких 2d-шных ассетов дрейф не такой сильный (но все равно есть), то вот при попытке перенести конкретные цвета на одежду или другие штуки — бой о бой. Начинается веселуха.

Ловите микрогайдик, как перенести цвет максимально близко к оригиналу и не поехать крышей в процессе.
Я думал, он потеряет актуальность с выходом новой модели, но кажись нет.

И да, я понимаю, что текстура, освещение и геометрия не позволят перенести цвет 1 в 1, но вы хотя бы приблизитесь к этому.

1. Уберите любые цвета с оригинального объекта, особенно насыщенно-темные.
Лучше всего сначала перегенерить объект в белый цвет.

Диффузионки лишь частично зашумляют целевое изображение, оставляя информацию о цветах. Это сильно влияет на результат.

2. Добавьте референсный цвет прямо на целевое изображение.
Можно просто расширить холст и добавить цвет сбоку. Затем перегенерируйте, попросив перенести цвет на объект из этого рефа.

Обычно у in-сontext моделей при переносе цвета с отдельного референса изображение идет через семантический энкодер, где теряются точные оттенки — важнее передать форму, материал, стиль и примерную палитру. Плюс модели устойчивы к цветовому расхождению, им необходимо это для распознавания объектов при разном освещении.

А вот если поместить цвет на самом холсте, то он проходит через тот же латентный энкодер, что и остальная часть изображения. Короче, информация о цвете остается «внутри» изображения, поэтому он переносится точнее.

3. Готово, вы практически великолепны.
Практически — потому что идеально все равно не получится, но для большинства задач и работы на коленке без геморроя с Comfy или чем-то еще — достаточно.

Если хотите порассматривать цвета, PDF в комментах.

Мутный AI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤‍🔥22👍104😁3🔥1👌1🌚1