Пост для тех, кто говорит, что ИИ — это просто: я пятый день делаю кадр длительностью 4 секунды для рекламного ролика.
Ну и раз уж мы затронули эту тему. Мой любимый комментарий, который часто слышу об ии работе "ну там же нажимаешь кнопку "сгенерить" и оно само все делает".
Ну и раз уж мы затронули эту тему. Мой любимый комментарий, который часто слышу об ии работе "ну там же нажимаешь кнопку "сгенерить" и оно само все делает".
💯51🤣46👍18🔥4
11 111 - не успел сделать скрин. Но не пропустил событие 🙂 Спасибо, что вы здесь. Скоро покажу очень крутой ролик для ТВ. Пока нельзя.
5👍37🥰2
Media is too big
VIEW IN TELEGRAM
Продолжая тему, что "ИИ — это просто кнопку нажать". Это ремесло, где нет CTRL+Z. Только ты, машина и желание снова доказать, что ты — это "имя, о котором скоро все заговорят".
Ролик для Континентальной хоккейной лиги (КХЛ)— самый сложный коммерческий проект, который я делал. Не по хронометражу. По требованию к чистоте кадра, мурашкам в голосе, к деталям, которые нельзя сгенерировать простым prompt’ом.
Три недели работы, тысячи тысяч генераций, бессонные ночи. Я искал нужное движение брови и угол взгляда игрока не в модели — в сотнях вариантов от Kling, Veo, Runway, Luma, Hailuo, и очень много чего еще.
Этот ролик — в некотором смысле визитная карточка моих умений. Каждую фразу текста написал я. Каждая эмоция в кадре — выстрадана. Каждый кадр — результат долгой и кропотливой работы.
Это не "первый мой ролик для ТВ, сделанный в ИИ" (потому что уже не первый), не "впервые в истории КХЛ". Все это не так важно. Важно другое:
— можно ли "достать" эмоцию из генерации?
— можно ли заставить машину рассказывать истории, которые волнуют людей?
— можно ли быть режиссером там, где нет камер?
Можно.
Смотрите не глазами. Смотрите вниманием. Там — каждый кадр через боль, "выбит", как гол в овертайме: через 3000 неудачных генераций, сотни фиксов и монтаж до ночи.
ИИ — это не замена человеку. Это новый способ сказать миру: я был, я чувствовал, я сделал.
Сценарий, идея, генерация, монтаж, цветкорр и все-все-все — я. Крутейшая озвучка — Андрей Зайцев. Комментатор в ролике — реальный комментатор КХЛ Андрей Мосалев. Крутейшая работа со звуком — Константин Цыбульский. Клинап — Екатерина Бессмертная. В общем, хорошая командная работа.
Ролик для Континентальной хоккейной лиги (КХЛ)— самый сложный коммерческий проект, который я делал. Не по хронометражу. По требованию к чистоте кадра, мурашкам в голосе, к деталям, которые нельзя сгенерировать простым prompt’ом.
Три недели работы, тысячи тысяч генераций, бессонные ночи. Я искал нужное движение брови и угол взгляда игрока не в модели — в сотнях вариантов от Kling, Veo, Runway, Luma, Hailuo, и очень много чего еще.
Этот ролик — в некотором смысле визитная карточка моих умений. Каждую фразу текста написал я. Каждая эмоция в кадре — выстрадана. Каждый кадр — результат долгой и кропотливой работы.
Это не "первый мой ролик для ТВ, сделанный в ИИ" (потому что уже не первый), не "впервые в истории КХЛ". Все это не так важно. Важно другое:
— можно ли "достать" эмоцию из генерации?
— можно ли заставить машину рассказывать истории, которые волнуют людей?
— можно ли быть режиссером там, где нет камер?
Можно.
Смотрите не глазами. Смотрите вниманием. Там — каждый кадр через боль, "выбит", как гол в овертайме: через 3000 неудачных генераций, сотни фиксов и монтаж до ночи.
ИИ — это не замена человеку. Это новый способ сказать миру: я был, я чувствовал, я сделал.
Сценарий, идея, генерация, монтаж, цветкорр и все-все-все — я. Крутейшая озвучка — Андрей Зайцев. Комментатор в ролике — реальный комментатор КХЛ Андрей Мосалев. Крутейшая работа со звуком — Константин Цыбульский. Клинап — Екатерина Бессмертная. В общем, хорошая командная работа.
11👍89🔥75🥰17👎8💩1
ИИ-итоги недели: сделал подборку апдейтов, на которые определенно стоит обратить внимание.
Higgsfield Draw to Edit: теперь есть Draw-to-Edit, и, да, это работает на базе Nano-Banana. Инструмент напоминает Aleph от Runway, но ощущается совсем по-другому — вы просто рисуете маску и редактируете видео, без тех страданий, что раньше были нормой. Это новый тип контроля в видео-редактировании.
Midjourney Style Explorer: Midjourney добавил фичу, о которой просили с альфа-версии — исследование и тест стилей прямо в генераторе. Теперь не нужно наугад повторять то, что тебе понравилось в Explore — просто кликайте, меняйте, запускайте. Стало в разы быстрее искать и применять вдохновение в реальных сценах.
HuanYuan Game Engine 2.0: обновленная модель от HuanYuan — настоящий подарок для гейм-девов и сценографов. Image-to-video, LoRA-тренировки, генерация игровых сцен, работа с видео и материалами — если ты строишь свои Unreal-миры с помощью ИИ, обойти HuanYuan уже нельзя.
ElevenLabs Sound FX v2: 30 секунд звуков, лупы, улучшенное качество — Elevenlabs сделали апгрейд звуковой части. SFX теперь можно использовать в сценах, как полноценный элемент атмосферы. Эту фичу я уже интегрировал в свои пайплайны. При наличии таких монстров как Veo3 и Adobe Firefly SFX — звучит как битва титанов.
Meshy 3D Model to Video: Meshy запустили конвертацию 3D-моделей в видео и изображения. Теперь можно контролировать свет, сцену, композицию — и рендер, который раньше занимал сутки, уходит в облако и превращается в видео. Создатели визуальных миров — вам точно туда.
Хотите такие апдейты раз в неделю?
Higgsfield Draw to Edit: теперь есть Draw-to-Edit, и, да, это работает на базе Nano-Banana. Инструмент напоминает Aleph от Runway, но ощущается совсем по-другому — вы просто рисуете маску и редактируете видео, без тех страданий, что раньше были нормой. Это новый тип контроля в видео-редактировании.
Midjourney Style Explorer: Midjourney добавил фичу, о которой просили с альфа-версии — исследование и тест стилей прямо в генераторе. Теперь не нужно наугад повторять то, что тебе понравилось в Explore — просто кликайте, меняйте, запускайте. Стало в разы быстрее искать и применять вдохновение в реальных сценах.
HuanYuan Game Engine 2.0: обновленная модель от HuanYuan — настоящий подарок для гейм-девов и сценографов. Image-to-video, LoRA-тренировки, генерация игровых сцен, работа с видео и материалами — если ты строишь свои Unreal-миры с помощью ИИ, обойти HuanYuan уже нельзя.
ElevenLabs Sound FX v2: 30 секунд звуков, лупы, улучшенное качество — Elevenlabs сделали апгрейд звуковой части. SFX теперь можно использовать в сценах, как полноценный элемент атмосферы. Эту фичу я уже интегрировал в свои пайплайны. При наличии таких монстров как Veo3 и Adobe Firefly SFX — звучит как битва титанов.
Meshy 3D Model to Video: Meshy запустили конвертацию 3D-моделей в видео и изображения. Теперь можно контролировать свет, сцену, композицию — и рендер, который раньше занимал сутки, уходит в облако и превращается в видео. Создатели визуальных миров — вам точно туда.
Хотите такие апдейты раз в неделю?
1👍67💯17
Media is too big
VIEW IN TELEGRAM
Пришли новости с венецианского ии-кинофестиваля: вошел в топ-3
Документальный фильм Behind the Wings вошел в топ-3 видео мира на Venice AI Film Awards Venice 2025 в категории "документальные фильмы". А рекламный ролик Lada вошел в топ-3 видео мира в категории реклама.
Видео Behind The Wings доступно в этом посте. А ролик "Лада" залью к посту — для новых подписчиков.
Примечательно, что буквально на прошлой неделе ролик "Лада" вошел в топ-50 видео мира на AIFF — очень крупном международном кинофестивале (церемония награждения пройдет тоже в Венеции), на который было подано более 2000 работ.
Ну а еще у этого рекламного ролика есть "серебро" на международном кинофестивале Neuro Masters 2025, на который было подано 1500+ работ из 52 стран мира.
Документальный фильм Behind the Wings вошел в топ-3 видео мира на Venice AI Film Awards Venice 2025 в категории "документальные фильмы". А рекламный ролик Lada вошел в топ-3 видео мира в категории реклама.
Видео Behind The Wings доступно в этом посте. А ролик "Лада" залью к посту — для новых подписчиков.
Примечательно, что буквально на прошлой неделе ролик "Лада" вошел в топ-50 видео мира на AIFF — очень крупном международном кинофестивале (церемония награждения пройдет тоже в Венеции), на который было подано более 2000 работ.
Ну а еще у этого рекламного ролика есть "серебро" на международном кинофестивале Neuro Masters 2025, на который было подано 1500+ работ из 52 стран мира.
7🔥73👍30🥰2
Media is too big
VIEW IN TELEGRAM
А это продолжение ролика про "Ладу" — бэкстейдж. В котором нет ни одного реального кадра.
6🔥58👍12🤣7
Media is too big
VIEW IN TELEGRAM
Ежегодная презентация Apple началась 4 минуты назад и уже такие новости.
Источник — телеграм-канал "Нейронутые"
Источник — телеграм-канал "Нейронутые"
10🤣91🔥20💩20👍9🙈5🤬3
This media is not supported in your browser
VIEW IN TELEGRAM
Например вот 😂 В русской деревне всегда так.
🔥21🤣15🙈3
Media is too big
VIEW IN TELEGRAM
Помедитируйте немного вместе со мной
Воссоздал свой день вдали от цивилизации нейросетей. Именно так я перезагружаюсь, когда мне нужно отдохнуть от работы. Делаю это регулярно, чтобы шифер не потек.
Вот сдам сейчас большой проект и на следующей неделе в Рязанскую область укачу.
Воссоздал свой день вдали от цивилизации нейросетей. Именно так я перезагружаюсь, когда мне нужно отдохнуть от работы. Делаю это регулярно, чтобы шифер не потек.
Вот сдам сейчас большой проект и на следующей неделе в Рязанскую область укачу.
🔥31👍27🥰6
ИИ-новости недели: свежие релизы, большие ставки
Seedream 4.0 — новый соперник для Nano Banana: ByteDance вышли на арену с Seedream 4.0, и да, по заявлениям многих «тестировщиков, он реально мощнее Nano Banana (по моим тестам – я уже плотно поработал с ним — нет). Поддержка редактирования и генерации изображений до 4K — и это не просто upscale. Так или иначе, у нас новый классный инструмент в генеративной графике.
Hunyuan Image 2.1: когда Hunyuan выпускает image model — сначала смеёшься над названием, потом смотришь в разрешение: 2K + генерация текста с высокой точностью. До этого мы знали их по LoRA и 3D-движкам, а теперь вот — конкурент Midjourney с акцентом на контент и символику. Нужно тестить.
Udio Voices: после того, как Udio удивил всех своей генерацией аудиотреков, они пошли дальше — теперь можно делать интересные AI-голоса. Я по-прежнему считаю, что нет конкурентов у ElevenLabs, но этот апдейт звучит как открытый вызов. Позже сделаю сравнение по параметрам: тембр, дикция, стабильность, экспорт, музыкальные интеграции.
Kling — AI Avatar и синхрон: Kling выкатил новую фичу с AI-аватарами и улучшенным липсинком. Первые тесты показали весьма неплохие результаты. Но нужно больше времени, чтобы дать экспертное заключение, что получилось у Kling и как этот инструмент выглядит на фоне конкурентов.
Higgsfield + $50M: Higgsfield закрыли крупный раунд, чтобы не просто пилить свое, а поддерживать другие AI-стартапы. То есть: они делают инструменты — и строят экосистему вокруг. Инфраструктура растет. Но в моем пайплайне Higgsfield нет и скорее всего не будет никогда. Почему? Потому что это хайповая игрушка, которая не годится для серьезной работы.
Итог недели: ии-гонка продолжается. Что ни день — новый движок.
Seedream 4.0 — новый соперник для Nano Banana: ByteDance вышли на арену с Seedream 4.0, и да, по заявлениям многих «тестировщиков, он реально мощнее Nano Banana (по моим тестам – я уже плотно поработал с ним — нет). Поддержка редактирования и генерации изображений до 4K — и это не просто upscale. Так или иначе, у нас новый классный инструмент в генеративной графике.
Hunyuan Image 2.1: когда Hunyuan выпускает image model — сначала смеёшься над названием, потом смотришь в разрешение: 2K + генерация текста с высокой точностью. До этого мы знали их по LoRA и 3D-движкам, а теперь вот — конкурент Midjourney с акцентом на контент и символику. Нужно тестить.
Udio Voices: после того, как Udio удивил всех своей генерацией аудиотреков, они пошли дальше — теперь можно делать интересные AI-голоса. Я по-прежнему считаю, что нет конкурентов у ElevenLabs, но этот апдейт звучит как открытый вызов. Позже сделаю сравнение по параметрам: тембр, дикция, стабильность, экспорт, музыкальные интеграции.
Kling — AI Avatar и синхрон: Kling выкатил новую фичу с AI-аватарами и улучшенным липсинком. Первые тесты показали весьма неплохие результаты. Но нужно больше времени, чтобы дать экспертное заключение, что получилось у Kling и как этот инструмент выглядит на фоне конкурентов.
Higgsfield + $50M: Higgsfield закрыли крупный раунд, чтобы не просто пилить свое, а поддерживать другие AI-стартапы. То есть: они делают инструменты — и строят экосистему вокруг. Инфраструктура растет. Но в моем пайплайне Higgsfield нет и скорее всего не будет никогда. Почему? Потому что это хайповая игрушка, которая не годится для серьезной работы.
Итог недели: ии-гонка продолжается. Что ни день — новый движок.
👍22🔥18
OpenAI × Голливуд: новая «эпоха Pixar» или конец ремеслу?
OpenAI начала с чатов — и вот уже снимает полнометражный анимационный фильм. Название: Critterz. Бюджет: <$30 миллионов (по данным The Telegtaph).
Цель: сделать мультфильм с помощью ИИ за 9 месяцев, а не за три года, как планировал автор идеи — креативщик OpenAI Чад Нельсон.
Проект поддерживают продюсерские компании из Лондона и Лос-Анджелеса. И да, звучит как технодемка для больших студий — а вдруг ИИ действительно сможет заменить анимационные пайплайны?
OpenAI мечтает повторить магию Pixar 90-х (вспомним: «Toy Story» финансировал Стив Джобс, и это тоже была революция). Но здесь, конечно, ставки другие. Не 3D как новая технология, а ИИ как новый способ производства.
Что известно:
1. Фильм создается с помощью генеративного ИИ (но с участием людей — актеры озвучивают, художники отрисовывают основные скетчи).
2. Название — Critterz. История про лесных существ, отправляющихся в приключение.
3. Главная цель — ускорить производство и сократить расходы.
4. Работают с Vertigo Films (Великобритания)
5. OpenAI хочет показать, что их инструменты (речь явно о Sora) могут делать большие фильмы
6. Вопрос авторских прав все еще открыт — ИИ не может быть автором, но озвучка и человеческие скетчи, на которых обучались модели, могут защищаться.
Голливуд напрягся: Netflix и Disney уже тестят нейросети, а художники и аниматоры — начинают судиться. Только на прошлой неделе Anthropic заплатила $1,5 млрд за использование пиратских книг. Это не «ха-ха веселые мультики», это — битва за рабочие места и легитимность авторства.
Будет ли Critterz новым Pixar — или новым Гибли? Пока неясно. Но одно точно: ИИ официально вышел на экран. И назад уже не вернется.
OpenAI начала с чатов — и вот уже снимает полнометражный анимационный фильм. Название: Critterz. Бюджет: <$30 миллионов (по данным The Telegtaph).
Цель: сделать мультфильм с помощью ИИ за 9 месяцев, а не за три года, как планировал автор идеи — креативщик OpenAI Чад Нельсон.
Проект поддерживают продюсерские компании из Лондона и Лос-Анджелеса. И да, звучит как технодемка для больших студий — а вдруг ИИ действительно сможет заменить анимационные пайплайны?
OpenAI мечтает повторить магию Pixar 90-х (вспомним: «Toy Story» финансировал Стив Джобс, и это тоже была революция). Но здесь, конечно, ставки другие. Не 3D как новая технология, а ИИ как новый способ производства.
Что известно:
1. Фильм создается с помощью генеративного ИИ (но с участием людей — актеры озвучивают, художники отрисовывают основные скетчи).
2. Название — Critterz. История про лесных существ, отправляющихся в приключение.
3. Главная цель — ускорить производство и сократить расходы.
4. Работают с Vertigo Films (Великобритания)
5. OpenAI хочет показать, что их инструменты (речь явно о Sora) могут делать большие фильмы
6. Вопрос авторских прав все еще открыт — ИИ не может быть автором, но озвучка и человеческие скетчи, на которых обучались модели, могут защищаться.
Голливуд напрягся: Netflix и Disney уже тестят нейросети, а художники и аниматоры — начинают судиться. Только на прошлой неделе Anthropic заплатила $1,5 млрд за использование пиратских книг. Это не «ха-ха веселые мультики», это — битва за рабочие места и легитимность авторства.
Будет ли Critterz новым Pixar — или новым Гибли? Пока неясно. Но одно точно: ИИ официально вышел на экран. И назад уже не вернется.
👍13🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
А вот тизер фильма Critterz, над которым работает Open Ai. Это первая (самая ранняя) версия.
Обращаю ваше внимание: фильм делает озвучка, а не визуал. Так они и вытащили этот тизер: исключительно за счет профессиональной озвучки.
Когда есть хорошие голоса, рождающие живых героев, визуал отходит на второй план.
p.s. на сайте — ссылка в посте выше — вылодена remastered версия, которую делали в Sora. Там визуал уже поинтереснее.
Обращаю ваше внимание: фильм делает озвучка, а не визуал. Так они и вытащили этот тизер: исключительно за счет профессиональной озвучки.
Когда есть хорошие голоса, рождающие живых героев, визуал отходит на второй план.
p.s. на сайте — ссылка в посте выше — вылодена remastered версия, которую делали в Sora. Там визуал уже поинтереснее.
👍18💩12👎3🔥3🤣1
Это блестяще (с hh.ru — не придумал):
ИМЯ КОМПАНИИ открывает новое направление в продакшене AI-контента. Нам нужен эксперт-знаток, который умеет создавать визуальный, аудио и видео контент с помощью современных инструментов: VEO 3, Heygen, ElevenLabs и др. Вы будете тем, кто превращает идеи в профессиональные медиаформаты с использованием генеративных моделей.
Задачи
Работа со всеми современными генеративными моделями и инструментами: VEO 3, Heygen, ElevenLabs и аналогичными.
Создание визуального, аудио и видео контента с помощью AI-инструментов.
Разработка промптов, оптимизация и доведение результата до профессионального уровня.
Эксперименты с форматами, стилями и сценариями, чтобы находить новые креативные решения.
Сотрудничество с маркетингом, дизайнерами, продуктом для формирования кейсов и презентаций.
Ведение внутренней базы знаний, документация лучших практик.
Требования (must-have)
Опыт работы с генеративными инструментами: VEO 3, Heygen, ElevenLabs или аналогами.
Навык генерации видео и изображений с участием реальных людей (deepfake/AI avatars).
Умение создавать видеопереходы и комбинировать сцены.
Использование синтезированных голосов (AI voice-over) для озвучки.
Креативность, внимательность к деталям, самостоятельность.
Будет плюсом (nice-to-have)
Портфолио работ, где использованы VEO 3 / Heygen / ElevenLabs.
Опыт монтажа и пост-обработки видео/аудио.
Знание других трендовых генеративных платформ.
Английский язык на уровне чтения документации и общения с международными коллегами.
Мы предлагаем: зарплата50 000 рублей в месяц фикс . Выплаты 2 раза в месяц.
Комментарий "Нейронутых": Это уже клиника.50 000 рублей в месяц за full-stack продакшен в одной из самых технологичных и взрывоопасных ниш медиа в 2025 году — это даже не фриланс за еду. Это когда ты просыпаешься с VEO3, засыпаешь с ElevenLabs, пишешь инструкции, рендеришь по 200 сцен в сутки, генеришь кейсы для маркетинга… и получаешь меньше, чем курьер на самокате. Это не вакансия, это диагноз.
Выссказывайтесь дорогие подписчики, что думаете на эту тему вы.
UPD: Вакансия вот тут. Настоящая, чесслово.
ИМЯ КОМПАНИИ открывает новое направление в продакшене AI-контента. Нам нужен эксперт-знаток, который умеет создавать визуальный, аудио и видео контент с помощью современных инструментов: VEO 3, Heygen, ElevenLabs и др. Вы будете тем, кто превращает идеи в профессиональные медиаформаты с использованием генеративных моделей.
Задачи
Работа со всеми современными генеративными моделями и инструментами: VEO 3, Heygen, ElevenLabs и аналогичными.
Создание визуального, аудио и видео контента с помощью AI-инструментов.
Разработка промптов, оптимизация и доведение результата до профессионального уровня.
Эксперименты с форматами, стилями и сценариями, чтобы находить новые креативные решения.
Сотрудничество с маркетингом, дизайнерами, продуктом для формирования кейсов и презентаций.
Ведение внутренней базы знаний, документация лучших практик.
Требования (must-have)
Опыт работы с генеративными инструментами: VEO 3, Heygen, ElevenLabs или аналогами.
Навык генерации видео и изображений с участием реальных людей (deepfake/AI avatars).
Умение создавать видеопереходы и комбинировать сцены.
Использование синтезированных голосов (AI voice-over) для озвучки.
Креативность, внимательность к деталям, самостоятельность.
Будет плюсом (nice-to-have)
Портфолио работ, где использованы VEO 3 / Heygen / ElevenLabs.
Опыт монтажа и пост-обработки видео/аудио.
Знание других трендовых генеративных платформ.
Английский язык на уровне чтения документации и общения с международными коллегами.
Мы предлагаем: зарплата
Комментарий "Нейронутых": Это уже клиника.
Выссказывайтесь дорогие подписчики, что думаете на эту тему вы.
UPD: Вакансия вот тут. Настоящая, чесслово.
🤣59🤬15💯6🙈5👍2💩1
Люди до сих пор думают, что генерить ИИ-видео — это просто "нажать кнопку". "А чего так дорого? Оно же само все делает."
Ага. Оно само:
1. Ставит свет как Роджер Дикинс.
2. Пишет промты лучше копирайтера с Cannes Lions.
3. Рендерит сцену так, чтобы трек не вылетел, кадр не затупил, и эмоция дошла до зрителя.
4. Комбинирует с десятко моделей, от VEO3 до Midjourney, плюс лица, плюс голоса, плюс реализм, плюс — чтоб не жахнуло по авторскому праву.
5. Монтирует, озвучивает, делает цветокоррекцию и т.д. и т.п.
Оно само, конечно. Veo3 сам встанет в 5 утра, выберет тебе кадр (сам конечно), где актер не моргнул как дебил.
А ты потом неделю как маньяк промты правишь, сцены чистишь, собираешь как конструктор один единственный кадр на 3 секунды, прогоняешь через нейросеть, чтобы эмоция в кадре была настоящая, а не как у робота-суицидника.
Вот почему "оно" стоит дорого. Потому что под капотом не кнопка — а продакшн из двадцати человек, сведенный в одного специалиста с прокачанным мозгом, зрением, насмотренностью, опытом в маркетинге, видеопродакшне и терпением.
p.s. Цена на ии-видео высокая, потому что: вы не платите за кнопку. Вы платите за того, кто знает, на какую именно кнопку и когда нажать. И сколько раз нажать, чтобы не получилось г#вно.
p.p.s. "Ты кнопку жмешь — миллион тебе сразу, да?" Тогда у меня к вопрос: а что же все до сих пор бедные (на контент), если все так просто?
p.p.p.s. ИИ — это не автозапуск, это новая форма режиссуры. И если вы видите результат, от которого мурашки — знайте, кто-то за кадром выгорел, чтобы вы ахнули.
Ага. Оно само:
1. Ставит свет как Роджер Дикинс.
2. Пишет промты лучше копирайтера с Cannes Lions.
3. Рендерит сцену так, чтобы трек не вылетел, кадр не затупил, и эмоция дошла до зрителя.
4. Комбинирует с десятко моделей, от VEO3 до Midjourney, плюс лица, плюс голоса, плюс реализм, плюс — чтоб не жахнуло по авторскому праву.
5. Монтирует, озвучивает, делает цветокоррекцию и т.д. и т.п.
Оно само, конечно. Veo3 сам встанет в 5 утра, выберет тебе кадр (сам конечно), где актер не моргнул как дебил.
А ты потом неделю как маньяк промты правишь, сцены чистишь, собираешь как конструктор один единственный кадр на 3 секунды, прогоняешь через нейросеть, чтобы эмоция в кадре была настоящая, а не как у робота-суицидника.
Вот почему "оно" стоит дорого. Потому что под капотом не кнопка — а продакшн из двадцати человек, сведенный в одного специалиста с прокачанным мозгом, зрением, насмотренностью, опытом в маркетинге, видеопродакшне и терпением.
p.s. Цена на ии-видео высокая, потому что: вы не платите за кнопку. Вы платите за того, кто знает, на какую именно кнопку и когда нажать. И сколько раз нажать, чтобы не получилось г#вно.
p.p.s. "Ты кнопку жмешь — миллион тебе сразу, да?" Тогда у меня к вопрос: а что же все до сих пор бедные (на контент), если все так просто?
p.p.p.s. ИИ — это не автозапуск, это новая форма режиссуры. И если вы видите результат, от которого мурашки — знайте, кто-то за кадром выгорел, чтобы вы ахнули.
👍66💯35🔥17👎3🥰3
Media is too big
VIEW IN TELEGRAM
Итак, у нас очередная премьера. Но Ray3 (это не новое, а очередной апгрейд Dream Machine) — это не просто очередная модель для генерации видео.
Это первый шаг к тому, чтобы ИИ начал по-настоящему мыслить в категориях киноязыка. В отличие от предыдущих решений, которые работали скорее как визуальные калькуляторы, Ray3 умеет выстраивать причинно-следственные связи и сохранять физическую консистентность кадра.
Главное новшество — генерация в 16-битном HDR. Это уже уровень, который можно без стеснения включать в профессиональные студийные пайплайны, где важны цвет, динамический диапазон и точность картинки. А «Draft Mode» открывает новое: быстрый перебор идей, концептов и сторибордов. Там, где раньше на тесты уходили недели, теперь это часы.
Для индустрии это означает одно: граница между экспериментами и продакшн-решениями стирается. ИИ-видео перестает быть игрушкой, становится инструментом режиссуры и сторителлинга.
Пробуем тут (создатели говорят, что бесплатно, но на самом деле — условно бесплатно).
Это первый шаг к тому, чтобы ИИ начал по-настоящему мыслить в категориях киноязыка. В отличие от предыдущих решений, которые работали скорее как визуальные калькуляторы, Ray3 умеет выстраивать причинно-следственные связи и сохранять физическую консистентность кадра.
Главное новшество — генерация в 16-битном HDR. Это уже уровень, который можно без стеснения включать в профессиональные студийные пайплайны, где важны цвет, динамический диапазон и точность картинки. А «Draft Mode» открывает новое: быстрый перебор идей, концептов и сторибордов. Там, где раньше на тесты уходили недели, теперь это часы.
Для индустрии это означает одно: граница между экспериментами и продакшн-решениями стирается. ИИ-видео перестает быть игрушкой, становится инструментом режиссуры и сторителлинга.
Пробуем тут (создатели говорят, что бесплатно, но на самом деле — условно бесплатно).
🔥28👍10