This media is not supported in your browser
VIEW IN TELEGRAM
Наткнулся на платный доступ к Seedance 2. Раньше этот сайт вообще не встречал, но там уже дают попробовать новую версию, хотя официальный релиз вроде обещали только на 24 февраля.
Подписка стоит 50 долларов. За эти деньги выходит примерно 12 минут генерации видео, если считать по лимиту 720 секунд.
Взял ради интереса, прогнал пару тестов. Судя по результату, это действительно тот самый Seedance 2, а не какой-то клон.
Есть режим img-to-video. Но заметил странную вещь: в промптах начали жёстче резать упоминания знаменитостей. Похоже, последствия судебных разборок.
Подписка стоит 50 долларов. За эти деньги выходит примерно 12 минут генерации видео, если считать по лимиту 720 секунд.
Взял ради интереса, прогнал пару тестов. Судя по результату, это действительно тот самый Seedance 2, а не какой-то клон.
Есть режим img-to-video. Но заметил странную вещь: в промптах начали жёстче резать упоминания знаменитостей. Похоже, последствия судебных разборок.
Media is too big
VIEW IN TELEGRAM
Визуальное исполнение Seedance 2.0, особенно в части проработки физических деталей, поистине впечатляет.
This media is not supported in your browser
VIEW IN TELEGRAM
🌍 GEO: RU
TikTokiller менеджеру @Igor_novapartners и получи возможность залить анкап на пустую базу!Please open Telegram to view this post
VIEW IN TELEGRAM
👍2❤1
ИИ в креативах - стоит ли вообще пробовать?
Честно, отношение у меня пока смешанное. Сама идея звучит круто: быстро генеришь видео, картинки, лица, любые сцены. Но на практике это редко даёт сильные результаты. По крайней мере я пока их не видел.
Проблема в том, что люди довольно быстро считывают, что перед ними ИИ. Картинка вроде нормальная, но ощущение "искусственности" всё равно остаётся. И как только это ощущение появляется, интерес пропадает. Креатив просто пролистывают.
Иногда это работает на более возрастную аудиторию. Там ИИ распознают хуже. Но и тут уже не всё так просто. Даже старшая аудитория постепенно начинает понимать, как выглядит генерация.
Но есть одно исключение, которое у меня реально зашло. Это ИИ-аватары.
С ними можно имитировать живое общение. Появляется лицо, мимика, голос, какая-то псевдочеловеческая подача. И за счёт этого креатив воспринимается уже не как просто сгенерированная картинка, а как будто человек что-то рассказывает.
Я сейчас использую такой формат в нутре, и он нормально отрабатывает. Тестировали на простатите, паразитах, суставах и похожих темах.
Сейчас начали пробовать тот же подход в гэмблинге. Посмотрим, что получится. Возможно зайдёт лучше, чем стандартные креативы со слотами. Хотя пока в это верится слабо.
В целом пока ощущение такое: ИИ в креативах не даёт того эффекта, которого все ждали. Но если правильно использовать его в формате аватаров, это может быть полезным инструментом.
Честно, отношение у меня пока смешанное. Сама идея звучит круто: быстро генеришь видео, картинки, лица, любые сцены. Но на практике это редко даёт сильные результаты. По крайней мере я пока их не видел.
Проблема в том, что люди довольно быстро считывают, что перед ними ИИ. Картинка вроде нормальная, но ощущение "искусственности" всё равно остаётся. И как только это ощущение появляется, интерес пропадает. Креатив просто пролистывают.
Иногда это работает на более возрастную аудиторию. Там ИИ распознают хуже. Но и тут уже не всё так просто. Даже старшая аудитория постепенно начинает понимать, как выглядит генерация.
Но есть одно исключение, которое у меня реально зашло. Это ИИ-аватары.
С ними можно имитировать живое общение. Появляется лицо, мимика, голос, какая-то псевдочеловеческая подача. И за счёт этого креатив воспринимается уже не как просто сгенерированная картинка, а как будто человек что-то рассказывает.
Я сейчас использую такой формат в нутре, и он нормально отрабатывает. Тестировали на простатите, паразитах, суставах и похожих темах.
Сейчас начали пробовать тот же подход в гэмблинге. Посмотрим, что получится. Возможно зайдёт лучше, чем стандартные креативы со слотами. Хотя пока в это верится слабо.
В целом пока ощущение такое: ИИ в креативах не даёт того эффекта, которого все ждали. Но если правильно использовать его в формате аватаров, это может быть полезным инструментом.
👍3
Многие спрашивают, почему не публикуется видео в Sora 2 и появляется такая ошибка.
На самом деле всё просто. Ошибка означает, что ваш промт слишком длинный. Максимальная длина текста — 2000 символов, это прямо указано в самом сообщении об ошибке.
Если промт превышает этот лимит, публикация не пройдет.
Решение простое: попросите ChatGPT сократить ваш промт до 1999 символов или примерно до 1900, чтобы оставить небольшой запас.
После этого видео загрузится без проблем.
На самом деле всё просто. Ошибка означает, что ваш промт слишком длинный. Максимальная длина текста — 2000 символов, это прямо указано в самом сообщении об ошибке.
Если промт превышает этот лимит, публикация не пройдет.
Решение простое: попросите ChatGPT сократить ваш промт до 1999 символов или примерно до 1900, чтобы оставить небольшой запас.
После этого видео загрузится без проблем.
Китайские разработчики фактически снесли ограничения в ИИ: представлена модель Huihui-Qwen3.5-35B-A3B-abliterated.
Что в ней необычного:
➖ У модели полностью отключён механизм отказов, поэтому она отвечает практически на любые запросы без попыток что-либо блокировать;
➖ Создатели сразу предупреждают: фильтров почти нет, поэтому результаты могут быть максимально непредсказуемыми;
➖ Нейросеть построена на базе Qwen 3.5, благодаря чему способна генерировать как жёсткий и провокационный контент, так и полноценные аналитические материалы или исследования;
➖ Для локального запуска потребуется Ollama. Установка несложная, а разработчики подготовили подробную инструкцию.
Скачать модель можно бесплатно: https://huggingface.co/huihui-ai/Huihui-Qwen3.5-35B-A3B-abliterated
.
Что в ней необычного:
➖ У модели полностью отключён механизм отказов, поэтому она отвечает практически на любые запросы без попыток что-либо блокировать;
➖ Создатели сразу предупреждают: фильтров почти нет, поэтому результаты могут быть максимально непредсказуемыми;
➖ Нейросеть построена на базе Qwen 3.5, благодаря чему способна генерировать как жёсткий и провокационный контент, так и полноценные аналитические материалы или исследования;
➖ Для локального запуска потребуется Ollama. Установка несложная, а разработчики подготовили подробную инструкцию.
Скачать модель можно бесплатно: https://huggingface.co/huihui-ai/Huihui-Qwen3.5-35B-A3B-abliterated
.
This media is not supported in your browser
VIEW IN TELEGRAM
НОВЫЙ ПРОЕКТ ОТ NOVA PARTNERS
🔥 Всего несколько дней до запуска нового бренда от создателей LEEBET, BANDA, KUSH!
💸 Любые источники и модели оплаты
💸 Чистая база → высокий конверт
💸 Медийная поддержка топ стримеров
🌍 GEO: RU
🔼 Пиши
🌍 GEO: RU
TiktoKiller менеджеру @Igor_novapartners и получи возможность залить анкап на пустую базу!Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Небольшая, но приятная новость для любителей Клинга.
Motion Control теперь работает на Kling 3.0 и поддерживает ассеты, чтобы ваш персонаж точно сохранился.
Motion Control теперь работает на Kling 3.0 и поддерживает ассеты, чтобы ваш персонаж точно сохранился.
Почему нейросети тупеют после 16:00
В IT-тусовке появилось новое негласное правило, что все сложные задачи нейросетям лучше отдавать строго до 16:00 по Москве.
После этого просыпаются американские разработчики и начинают массово грузить сервера своими запросами, от чего нейросети резко тупеют.
Звучит как смешная айтишная байка, но технически это довольно логично.
Когда на сервера падает пиковая нагрузка, платформы спасают себя скрытой балансировкой. Они могут втихую резать лимиты глубоких вычислений или перекидывают запросы на более лёгкие модели. Конечно же, об этом нам с вами никто не расскажет.
Подтверждённых исследований на эту тему нет, но умные люди говорят, что паттерн повторяется слишком часто, чтобы быть ироничной случайностью.
В IT-тусовке появилось новое негласное правило, что все сложные задачи нейросетям лучше отдавать строго до 16:00 по Москве.
После этого просыпаются американские разработчики и начинают массово грузить сервера своими запросами, от чего нейросети резко тупеют.
Звучит как смешная айтишная байка, но технически это довольно логично.
Когда на сервера падает пиковая нагрузка, платформы спасают себя скрытой балансировкой. Они могут втихую резать лимиты глубоких вычислений или перекидывают запросы на более лёгкие модели. Конечно же, об этом нам с вами никто не расскажет.
Подтверждённых исследований на эту тему нет, но умные люди говорят, что паттерн повторяется слишком часто, чтобы быть ироничной случайностью.
😁1
Пользователь спросил у нейросети Claude, куда можно вложить $1000 на месяц, чтобы получить максимальную прибыль. ИИ предложил нестандартный подход: делать микроставки на редкие и непредсказуемые события вроде выборов, резких падений криптовалют или геополитических кризисов.
Большая часть ставок, зачастую меньше $1, уходила в минус. Однако редкие удачные исходы перекрывали все потери, принося выплаты в 100–500 раз выше первоначальной суммы. Для автоматизации стратегии Claude помог настроить бота, который в сумме сделал 72 533 ставки. В итоге эксперимент превратил первоначальные $1000 примерно в $98 000.
Большая часть ставок, зачастую меньше $1, уходила в минус. Однако редкие удачные исходы перекрывали все потери, принося выплаты в 100–500 раз выше первоначальной суммы. Для автоматизации стратегии Claude помог настроить бота, который в сумме сделал 72 533 ставки. В итоге эксперимент превратил первоначальные $1000 примерно в $98 000.
🔥3