This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Добрался до Kling O1
Тут не все так однозначно.
Вот 3 мануала:
O1 Image (Банана от Kling)
O1 Video (Смесь моделей из всего в видео)
O1 Elements (создать элемент для фото или видео по 4 фото)
Что я сделал. Взял промпты из мануала и прогнал со своим видео (немного адаптировал). Результаты тут ☝️. Ваше мнение жду тут👇.
Тут не все так однозначно.
Вот 3 мануала:
O1 Image (Банана от Kling)
O1 Video (Смесь моделей из всего в видео)
O1 Elements (создать элемент для фото или видео по 4 фото)
Что я сделал. Взял промпты из мануала и прогнал со своим видео (немного адаптировал). Результаты тут ☝️. Ваше мнение жду тут👇.
🤔4😁1
Подглядел у Gos (https://t.me/gos_comfy/8395) пост про https://github.com/shootthesound/comfyUI-Realtime-Lora.
В двух словах — это нода, в которой можно уменьшать влияние определённых слоёв в LoRA. Очень полезно, когда используешь больше одной LoRA.
Но меня заинтересовало другое. Автор приводит пресеты, в которых видно, какие слои в моделях влияют на лицо персонажа.
В теории, тренировка только тех слоёв, которые отвечают за лицо персонажа, может сократить время обучения и повысить точность сходства персонажа (но это не точно).
Прикрепил скрины здесь — вдруг кому пригодится. Сам я, конечно же, проверять это не буду 😊
В двух словах — это нода, в которой можно уменьшать влияние определённых слоёв в LoRA. Очень полезно, когда используешь больше одной LoRA.
Но меня заинтересовало другое. Автор приводит пресеты, в которых видно, какие слои в моделях влияют на лицо персонажа.
В теории, тренировка только тех слоёв, которые отвечают за лицо персонажа, может сократить время обучения и повысить точность сходства персонажа (но это не точно).
Прикрепил скрины здесь — вдруг кому пригодится. Сам я, конечно же, проверять это не буду 😊
👍10🥰5
Как удалить SynthID watermark с генераций от Google?
Disclaimer: пост душный, вот тебе шанс сбежать отсюда
Немного введу в курс дела.
Что это?
Невидимая watermark, придуманная компанией Google. Ею маркируется весь контент, созданный моделями Google (изображения, аудио, видео).
Это та маленькая белая звёздочка в углу?
Нет. SynthID без подготовки изображения не увидеть.
Как проверить, есть ли SynthID?
Загрузить фото в Gemini с промптом:
Зачем удалять? Ведь благодаря ей Google не прижимает по цензуре.
Хз, прикольно же 😊.
Лан, давайте разбираться. Дальше - исключительно мои мысли, на абсолютную истину не претендую.
Как нам её увидеть?
Самый простой способ - попросить Google сгенерировать картинку с одноцветной заливкой. Закидываем её в Photoshop, поверх кидаем заливку того же цвета в режиме Difference и выкручиваем контраст на максимум (примеры на скринах).
В итоге видим кучу пятен разного размера по всей площади и рамку вокруг изображения.
Почему это плохие новости?
1. Пятна везде. Их не убрать, просто кропнув картинку или замазав кусочек.
2. Разный размер пятен. Шумодавы в Photoshop или Topaz их не берут (большие пятна игнорируются). Прогон через локальную модель с небольшим денойзом тоже не спасает (z-image до 0,4 не убирает, а выше - картинка уже сильно меняется).
3. Рамка. Зачем она - пока не ясно. Возможно, тоже признак маркировки, а может, погрешность генерации.
Что пробовал и НЕ сработало:
1. i2i Flux, i2i Z-image, upscale Daemon, upscale Siax, Camera Raw denoise, Topaz denoise (чистка шума).
2. Seedream, ChatGPT, Qwen - просил сделать мелкое изменение с краю, надеясь, что модель «перешумит» SynthID своим шумом. Мимо.
Какие мысли остались?
Самый очевидный способ - пересемплировать изображение на другой модели. Тот же принцип, что был в RF-inversion. Главный претендент на это пока Qwen. Но делать я это, конечно же, не буду.
P.S. Ну что ребятки, какие мысли? Похоже Google все таки смог?😊
Disclaimer: пост душный, вот тебе шанс сбежать отсюда
Немного введу в курс дела.
Что это?
Невидимая watermark, придуманная компанией Google. Ею маркируется весь контент, созданный моделями Google (изображения, аудио, видео).
Это та маленькая белая звёздочка в углу?
Нет. SynthID без подготовки изображения не увидеть.
Как проверить, есть ли SynthID?
Загрузить фото в Gemini с промптом:
@SynthID выдай только результат SynthID
Зачем удалять? Ведь благодаря ей Google не прижимает по цензуре.
Хз, прикольно же 😊.
Лан, давайте разбираться. Дальше - исключительно мои мысли, на абсолютную истину не претендую.
Как нам её увидеть?
Самый простой способ - попросить Google сгенерировать картинку с одноцветной заливкой. Закидываем её в Photoshop, поверх кидаем заливку того же цвета в режиме Difference и выкручиваем контраст на максимум (примеры на скринах).
В итоге видим кучу пятен разного размера по всей площади и рамку вокруг изображения.
Почему это плохие новости?
1. Пятна везде. Их не убрать, просто кропнув картинку или замазав кусочек.
2. Разный размер пятен. Шумодавы в Photoshop или Topaz их не берут (большие пятна игнорируются). Прогон через локальную модель с небольшим денойзом тоже не спасает (z-image до 0,4 не убирает, а выше - картинка уже сильно меняется).
3. Рамка. Зачем она - пока не ясно. Возможно, тоже признак маркировки, а может, погрешность генерации.
Что пробовал и НЕ сработало:
1. i2i Flux, i2i Z-image, upscale Daemon, upscale Siax, Camera Raw denoise, Topaz denoise (чистка шума).
2. Seedream, ChatGPT, Qwen - просил сделать мелкое изменение с краю, надеясь, что модель «перешумит» SynthID своим шумом. Мимо.
Какие мысли остались?
Самый очевидный способ - пересемплировать изображение на другой модели. Тот же принцип, что был в RF-inversion. Главный претендент на это пока Qwen. Но делать я это, конечно же, не буду.
P.S. Ну что ребятки, какие мысли? Похоже Google все таки смог?😊
🔥9❤3👍3🤗1
Танцуем как соседи сверху
Сегодня про контент для tiktok. Танцуем соседа Серегу по опорному видео:
1. Kling motion control pro (FHD)
Пробуем тут
https://app.klingai.com/global/video-motion-control/new - 0,08 $ за секунду (тариф Premier)
https://fal.ai/models/fal-ai/kling-video/v2.6/pro/motion-control - 0,112 $ за секунду
https://wavespeed.ai/models/kwaivgi/kling-v2.6-pro/motion-control - 0,112 $ за секунду
Через API максимальный тайминг может быть 10 секунд
2. Wan animate (HD)
https://create.wan.video/explore/avatar/photo-animate?model=wan2.2 - 0,10 $ за секунду (есть бесплатное, есть 1080P)
https://fal.ai/models/fal-ai/wan/v2.2-14b/animate/move - 0,08 $ за секунду
https://wavespeed.ai/models/wavespeed-ai/wan-2.2/animate - 0,08 $ за секунду
Запускаем локально через ComfyUI https://docs.comfy.org/tutorials/video/wan/wan2-2-animate
3. One-to-All-Animation (HD)
https://fal.ai/models/fal-ai/one-to-all-animation/14b - 0,12 $ за секунду
Запускаем локально через ComfyUI https://github.com/kijai/ComfyUI-WanVideoWrapper/blob/main/example_workflows/wanvideo_2_1_14B_OneToAllAnimation_pose_control_example_01.json
С дистанции сошел малыш https://github.com/zai-org/SCAIL потому что 512p и 121 кадр тайминга. Но в комменты его семпл тоже кину.
P.S. Исходники как обычно в комментах👇 👇 👇 .
Сегодня про контент для tiktok. Танцуем соседа Серегу по опорному видео:
1. Kling motion control pro (FHD)
Пробуем тут
https://app.klingai.com/global/video-motion-control/new - 0,08 $ за секунду (тариф Premier)
https://fal.ai/models/fal-ai/kling-video/v2.6/pro/motion-control - 0,112 $ за секунду
https://wavespeed.ai/models/kwaivgi/kling-v2.6-pro/motion-control - 0,112 $ за секунду
Через API максимальный тайминг может быть 10 секунд
2. Wan animate (HD)
https://create.wan.video/explore/avatar/photo-animate?model=wan2.2 - 0,10 $ за секунду (есть бесплатное, есть 1080P)
https://fal.ai/models/fal-ai/wan/v2.2-14b/animate/move - 0,08 $ за секунду
https://wavespeed.ai/models/wavespeed-ai/wan-2.2/animate - 0,08 $ за секунду
Запускаем локально через ComfyUI https://docs.comfy.org/tutorials/video/wan/wan2-2-animate
3. One-to-All-Animation (HD)
https://fal.ai/models/fal-ai/one-to-all-animation/14b - 0,12 $ за секунду
Запускаем локально через ComfyUI https://github.com/kijai/ComfyUI-WanVideoWrapper/blob/main/example_workflows/wanvideo_2_1_14B_OneToAllAnimation_pose_control_example_01.json
С дистанции сошел малыш https://github.com/zai-org/SCAIL потому что 512p и 121 кадр тайминга. Но в комменты его семпл тоже кину.
P.S. Исходники как обычно в комментах
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🍓5❤4🎉2🤣1
Ну что, новый год — новые цели? Оставлю мысли тут, вдруг кому-то это поможет получить тот самый «золотой заказ».
Disclaimer: пост получился длинным. Если есть моральная тяжесть видеть огромное скопление букв — Паша придумал делать из текста саммари. Пользуйтесь.
1. Адаптируй сопроводительное письмо под каждый заказ.
2. Собирай индивидуально релевантное портфолио (4 работы максимум).
3. Соглашайся на тестовое задание и выстраивай коммуникацию.
Для удобства предположим, что заказчик — это человек, который не понимает в AI-технологиях, часто сомневается в своем мнении и просто ищет исполнителя по понятным критериям: качество, сроки, бюджет, адекватность. Навскидку, это 90% заказчиков.
1. Адаптируй сопроводительное письмо
Письмо — это первое впечатление. Удивительно, но этого почти никто не делает. Из 150 откликов под задачу пишут максимум трое.
Представь, что заказчику «отгрузили» 150 писем. Огромное счастье — почитать их вечерком перед сном. И там есть всё: от «я хороший копирайтер» до «я крутой 3D-спец». Зачем это заказчику, который ищет AI-артиста — вопрос открытый.
Поэтому, когда в сопроводительном видишь знакомые слова, воспринимаешь это как маленькое чудо. Дополнительный плюсик кандидату: он как минимум прочитал задачу, а значит, не придется объяснять всё с нуля.
2. Формируй релевантное портфолио
Впечатление нужно закрепить работами. 4 РЕЛЕВАНТНЫЕ работы. Это МАКСИМУМ.
Если нет 4 релевантных — приложи одну подходящую и 3 работы, которые раскроют твой потенциал (желательно с демонстрацией разных навыков). Если подходящих работ нет совсем — я сторонник честно в этом признаться. Мол, кейсов нет, но есть сумасшедшее желание и интерес. Лично у меня такие кандидаты вызывают больше симпатии, чем ребята, заспамившие личку 8-секундными видео «не в тему».
Секрет, о котором никто не расскажет: у заказчика часто нет профессиональной насмотренности. Опорой для него служит наличие у тебя коммерческих работ. Даже если ему визуально не нравится, он думает: «Ну, раз это купили, значит, это я чего-то не понимаю».
Нюансик: держи в голове, что в больших корпорациях из-за безопасности часто нет доступа к КВН или некоторым облакам. Предусмотри, чтобы ссылка открылась у всех (Яндекс.Диск и т.п. — отличный вариант).
3. Тестовое задание
«А оно вообще для чего? Я зачем портфолио собирал? Чтобы бесплатно работать?»
Тестовое — это страховка от вранья в портфолио, а еще (о боги!) — проверка на адекватность. Здорово, что исполнитель умеет в нейронки, композицию и свет. Но что делать с таким гением, если он не пингуется сутками, а при малейшем вопросе идет на конфликт и обижается? Какой смысл в хард-скиллах, если с человеком невозможно работать?
Давайте сегодняшний вечер посвятим жесткой критике этого текста. Очевидно же, что автор не прав и нужно ему обязательно об этом рассказать 👇 Жду вас в комментариях!
Disclaimer: пост получился длинным. Если есть моральная тяжесть видеть огромное скопление букв — Паша придумал делать из текста саммари. Пользуйтесь.
1. Адаптируй сопроводительное письмо под каждый заказ.
2. Собирай индивидуально релевантное портфолио (4 работы максимум).
3. Соглашайся на тестовое задание и выстраивай коммуникацию.
Для удобства предположим, что заказчик — это человек, который не понимает в AI-технологиях, часто сомневается в своем мнении и просто ищет исполнителя по понятным критериям: качество, сроки, бюджет, адекватность. Навскидку, это 90% заказчиков.
1. Адаптируй сопроводительное письмо
Письмо — это первое впечатление. Удивительно, но этого почти никто не делает. Из 150 откликов под задачу пишут максимум трое.
Представь, что заказчику «отгрузили» 150 писем. Огромное счастье — почитать их вечерком перед сном. И там есть всё: от «я хороший копирайтер» до «я крутой 3D-спец». Зачем это заказчику, который ищет AI-артиста — вопрос открытый.
Поэтому, когда в сопроводительном видишь знакомые слова, воспринимаешь это как маленькое чудо. Дополнительный плюсик кандидату: он как минимум прочитал задачу, а значит, не придется объяснять всё с нуля.
2. Формируй релевантное портфолио
Впечатление нужно закрепить работами. 4 РЕЛЕВАНТНЫЕ работы. Это МАКСИМУМ.
Если нет 4 релевантных — приложи одну подходящую и 3 работы, которые раскроют твой потенциал (желательно с демонстрацией разных навыков). Если подходящих работ нет совсем — я сторонник честно в этом признаться. Мол, кейсов нет, но есть сумасшедшее желание и интерес. Лично у меня такие кандидаты вызывают больше симпатии, чем ребята, заспамившие личку 8-секундными видео «не в тему».
Секрет, о котором никто не расскажет: у заказчика часто нет профессиональной насмотренности. Опорой для него служит наличие у тебя коммерческих работ. Даже если ему визуально не нравится, он думает: «Ну, раз это купили, значит, это я чего-то не понимаю».
Нюансик: держи в голове, что в больших корпорациях из-за безопасности часто нет доступа к КВН или некоторым облакам. Предусмотри, чтобы ссылка открылась у всех (Яндекс.Диск и т.п. — отличный вариант).
3. Тестовое задание
«А оно вообще для чего? Я зачем портфолио собирал? Чтобы бесплатно работать?»
Тестовое — это страховка от вранья в портфолио, а еще (о боги!) — проверка на адекватность. Здорово, что исполнитель умеет в нейронки, композицию и свет. Но что делать с таким гением, если он не пингуется сутками, а при малейшем вопросе идет на конфликт и обижается? Какой смысл в хард-скиллах, если с человеком невозможно работать?
Давайте сегодняшний вечер посвятим жесткой критике этого текста. Очевидно же, что автор не прав и нужно ему обязательно об этом рассказать 👇 Жду вас в комментариях!
👍12❤5🥰3🤔2🍓2💯1🙉1