This media is not supported in your browser
VIEW IN TELEGRAM
Пишу как режиссер и ИИ-видеокреатор, который провел в Sora 2 не один десяток часов, тестируя, делая, ошибаясь — и кое-что понял.
Sora 2 — это ловушка. Микрокапкан дофаминовой зависимости. Все очень просто: вбил один промт — и получил нечто. Потом еще один — и снова «ух ты, что вышло!». Ты как будто открываешь «Киндер Сюрприз» или крутишь слоты в казино.
Генерация роликов превращается не в создание, а в гадание на алгоритме. Причем гадание веселое, местами зрелищное. Иногда даже пугающе реалистичное.
Но вот в чем подвох: Sora 2 не толкает тебя делать круче. Она толкает тебя делать еще, быстрее, еще тупее. Потому что на тупой слоп-перформанс уходит 2 минуты. А на вдумчивый ролик — неделя (и более), сотни референсов, камера, ракурс, ритм, музыка, диалоги.
И угадайте, что выбирает мозг? Именно. Жмяк по кнопке "сгенерить": и ты уже внутри алгоритма — крутишь этого «однорукого бандита», выбивая «страйки» один за другим. Это нейродоширак. Быстро, нажористо. Первый дофаминовый приход — густрой, насыщенный. А через 30 минут — отупляющая пустота.
Альтман стал кем-то вроде диллера, раздающего всем и каждому цифровую наркоманию (причем первая доза бесплатно — ведь бесплатная Sora вполне себе генерит): нейросеть выдает визуальный шлак, а ты жмешь “сгенерить”, как будто это кнопка «вылечить одиночество». Сора выдает дешманское кино из супермаркета. Контент, который ты сам себе продюсируешь, сам же и употребляешь. Цикл самозасасывания.
Это и есть самая опасная особенность Sora 2 — она создает иллюзию креативности, притом что фактически ты просто нажимаешь на кнопку и получаешь рандом. Контент по запросу. Только запрос — не от клиента или идеи. А от твоего скучающего мозга, который хочет шоу и жвачки. Это не инструмент, это vending-machine-контент.
Я не против развлечения. Я против того, что такая модель подачи убивает профессию, убивает киноязык, драматургию, монтаж, вкус. И делает это не в лоб, а исподтишка: под соусом «доступного творчества». Это не творчество. Это фаст-фуд.
Так что если вы работаете с Sora 2 — держите себя в тонусе. Напоминайте себе, что вы не просто тестируете движок, а учитесь работать с киноязыком будущего. Не забудьте, что у этого языка все равно будет грамматика. И лучше ее освоить сейчас, чем сдуться от 10-секундного трэша через пару лет.
Вот в этом и кроется главная опасность: тебя незаметно отучают думать, писать, строить, развивать идею. Ты больше не создаешь. Ты генеришь. Ты не автор — ты оператор однорукого бандита с надписью «Промт».
p.s. Примечательно вот что: алгоритмы как будто бы провоцируют нас создавать слоп-контент. В качестве теста я уже не первый день кормлю ютюб-канал абсолютнейшим трешом, который постыдился бы выкладывать на этот канал. Делаю это намеренно, чтобы посмотреть на отклик алгоритмов. И знаете что — эта трешня собирает на порядок больше просмотров, чем серьезные вдумчивые ролики, которые я туда заливал (все серьезные и нормальные ролики вы видели на этом канале).
p.s. Добавлю, что у меня возникло определение того, что сейчас сора преимущественно генерит не "нейро-генеративный" контент, а "нейро-дегенеративный" контент. Пример традиционно прилагаю — вот что выдал мой "однорукий бандит".
Sora 2 — это ловушка. Микрокапкан дофаминовой зависимости. Все очень просто: вбил один промт — и получил нечто. Потом еще один — и снова «ух ты, что вышло!». Ты как будто открываешь «Киндер Сюрприз» или крутишь слоты в казино.
Генерация роликов превращается не в создание, а в гадание на алгоритме. Причем гадание веселое, местами зрелищное. Иногда даже пугающе реалистичное.
Но вот в чем подвох: Sora 2 не толкает тебя делать круче. Она толкает тебя делать еще, быстрее, еще тупее. Потому что на тупой слоп-перформанс уходит 2 минуты. А на вдумчивый ролик — неделя (и более), сотни референсов, камера, ракурс, ритм, музыка, диалоги.
И угадайте, что выбирает мозг? Именно. Жмяк по кнопке "сгенерить": и ты уже внутри алгоритма — крутишь этого «однорукого бандита», выбивая «страйки» один за другим. Это нейродоширак. Быстро, нажористо. Первый дофаминовый приход — густрой, насыщенный. А через 30 минут — отупляющая пустота.
Альтман стал кем-то вроде диллера, раздающего всем и каждому цифровую наркоманию (причем первая доза бесплатно — ведь бесплатная Sora вполне себе генерит): нейросеть выдает визуальный шлак, а ты жмешь “сгенерить”, как будто это кнопка «вылечить одиночество». Сора выдает дешманское кино из супермаркета. Контент, который ты сам себе продюсируешь, сам же и употребляешь. Цикл самозасасывания.
Это и есть самая опасная особенность Sora 2 — она создает иллюзию креативности, притом что фактически ты просто нажимаешь на кнопку и получаешь рандом. Контент по запросу. Только запрос — не от клиента или идеи. А от твоего скучающего мозга, который хочет шоу и жвачки. Это не инструмент, это vending-machine-контент.
Я не против развлечения. Я против того, что такая модель подачи убивает профессию, убивает киноязык, драматургию, монтаж, вкус. И делает это не в лоб, а исподтишка: под соусом «доступного творчества». Это не творчество. Это фаст-фуд.
Так что если вы работаете с Sora 2 — держите себя в тонусе. Напоминайте себе, что вы не просто тестируете движок, а учитесь работать с киноязыком будущего. Не забудьте, что у этого языка все равно будет грамматика. И лучше ее освоить сейчас, чем сдуться от 10-секундного трэша через пару лет.
Вот в этом и кроется главная опасность: тебя незаметно отучают думать, писать, строить, развивать идею. Ты больше не создаешь. Ты генеришь. Ты не автор — ты оператор однорукого бандита с надписью «Промт».
p.s. Примечательно вот что: алгоритмы как будто бы провоцируют нас создавать слоп-контент. В качестве теста я уже не первый день кормлю ютюб-канал абсолютнейшим трешом, который постыдился бы выкладывать на этот канал. Делаю это намеренно, чтобы посмотреть на отклик алгоритмов. И знаете что — эта трешня собирает на порядок больше просмотров, чем серьезные вдумчивые ролики, которые я туда заливал (все серьезные и нормальные ролики вы видели на этом канале).
p.s. Добавлю, что у меня возникло определение того, что сейчас сора преимущественно генерит не "нейро-генеративный" контент, а "нейро-дегенеративный" контент. Пример традиционно прилагаю — вот что выдал мой "однорукий бандит".
1👍51💯21🔥11🤣2👎1🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
Сгенерил еще пример "нейро-дегенеративного" контента — "AIрофлот" к посту выше 👆
Ну да, я могу генерить такие ролики десятками в день. И через какое-то время стану героем мультика "ВАЛЛ-И" (тем самый жирненьким пассажиром космического корабля "Счастье", который выдает поп-корн и газировку (и для мозга в том числе) по нажатию кнопки".
Ну да, я могу генерить такие ролики десятками в день. И через какое-то время стану героем мультика "ВАЛЛ-И" (тем самый жирненьким пассажиром космического корабля "Счастье", который выдает поп-корн и газировку (и для мозга в том числе) по нажатию кнопки".
1🔥36👍8💯5
This media is not supported in your browser
VIEW IN TELEGRAM
Как вы поняли из постов выше — сегодня день слоп-контента. Ну ладно, я ручками тут поделал, не просто тыцкал "сделай мне красиво".
🤣34👍17🔥6🙈3
Итак, 15 октября 2025, Google DeepMind таки-представила Veo 3.1 — обновленную версию с апгрейдом Flow, основанным на данных от 275 миллионов видео с мая. Как говорят сами создатели: это не революция, а точечная доработка — но ощутимая.
Что нового:
Теперь аудио во всех версиях Flow — синхронизация звука и видео стала нормой: речь, атмосфера, эффекты — без задержек и тишины.
Загрузка до 3 референсов — система лучше управляет стилем, объектами и персонажами, добавляя звук сразу.
Start/End Frames — плавные переходы с аудио между кадрами. Подходит для клипов, сцен и монтажей.
Extend — можно расширять видео до 60+ секунд, сохраняя сцены и звук.
Insert / Remove — добавление и удаление объектов с корректным освещением и фоном (удаление — скоро).
Veo 3.1 как движок:
Улучшена точность генерации по промтам, больше реализма, выше качество image-to-video. Режимы — Quality и Fast. Базовая длина — ~8 сек, можно расширять.
Доступ: Flow (Pro/Ultra), Gemini API, Vertex AI и обычное приложение Gemini. Система кредитов — как и раньше. Для Ultra подписчиков Flow генерация на fast по-прежнему стоит 0 кредитов.
Дети: меня больше всего интересовал вопрос — можно ли в новом апдейте загружать изображения детей: нет, по-прежнему нельзя.
Первые отклики буржуйского комьюнити — «наконец стабильный рабочий инструмент».
Мой вердикт по итогам первых тестов: визуальной разницы по сравнению с Veo 3 нет. Речь скорее в стабильности работы модели. Поэтому скажу так: тихий, и нужный косметический апдейт для тех, кто делает ИИ-видео системно.
p.s. Да, кстати: версию 3.0 убрали и теперь вы можете генерить только в 3.1. Поддержка версии 2.0 еще есть (в ней можно генерить), но скоро эту версию отключат, поэтому если у вас есть проекты в Veo2 — сохраняйте.
Что нового:
Теперь аудио во всех версиях Flow — синхронизация звука и видео стала нормой: речь, атмосфера, эффекты — без задержек и тишины.
Загрузка до 3 референсов — система лучше управляет стилем, объектами и персонажами, добавляя звук сразу.
Start/End Frames — плавные переходы с аудио между кадрами. Подходит для клипов, сцен и монтажей.
Extend — можно расширять видео до 60+ секунд, сохраняя сцены и звук.
Insert / Remove — добавление и удаление объектов с корректным освещением и фоном (удаление — скоро).
Veo 3.1 как движок:
Улучшена точность генерации по промтам, больше реализма, выше качество image-to-video. Режимы — Quality и Fast. Базовая длина — ~8 сек, можно расширять.
Доступ: Flow (Pro/Ultra), Gemini API, Vertex AI и обычное приложение Gemini. Система кредитов — как и раньше. Для Ultra подписчиков Flow генерация на fast по-прежнему стоит 0 кредитов.
Дети: меня больше всего интересовал вопрос — можно ли в новом апдейте загружать изображения детей: нет, по-прежнему нельзя.
Первые отклики буржуйского комьюнити — «наконец стабильный рабочий инструмент».
Мой вердикт по итогам первых тестов: визуальной разницы по сравнению с Veo 3 нет. Речь скорее в стабильности работы модели. Поэтому скажу так: тихий, и нужный косметический апдейт для тех, кто делает ИИ-видео системно.
p.s. Да, кстати: версию 3.0 убрали и теперь вы можете генерить только в 3.1. Поддержка версии 2.0 еще есть (в ней можно генерить), но скоро эту версию отключат, поэтому если у вас есть проекты в Veo2 — сохраняйте.
🔥19👍9
Последние пару дней я писал о том, как нейросети отключают наш мозг (рассказывал о нейро-дегенеративном исскустве). А сегодня напишу о проекте, который включил мой мозг на 200% и держал его в таком состоянии последние 2 года.
Короче говоря, книга "Дофаномика. Инструкция по управлению вниманием, эмоциями и желаниями" ушла в типографию и сегодня же открыт предзаказ.
О книге: Вы уверены, что каждый выбор вы делаете сами: кофе по утрам, новый смартфон, брендовые кроссовки. Но 95% решений уже приняты за вас. И пока мы думаем, что решаем осознанно, маркетологи уже давно научилась управлять нашими эмоциями. Дофамин гонит за новыми впечатлениями, кортизол пугает упущенной выгодой, окситоцин дарит доверие к брендам.
Эта книга вскрывает механизмы нейромаркетинга и показывает, что бренды не убеждают — они внедряют идеи прямо в наше подсознание. Здесь вы найдете кейсы зарубежных и российских брендов, инструменты, которые используют маркетологи и продавцы, а также приемы, с помощью которых сможете распознавать манипуляции.
Эту книгу я писал долго, мучительно и одновременно получая много кайфа. Я хотел написать такую книгу, которой лично мне очень не хватало. Что такое реклама? Как она работает? Почему она работает? Как делать так, чтобы она работала? А почему реклама работает у крутых брендов? Какова анатомия лучшей в мире рекламы? Как управлять вниманием? И так далее...
На этом канале я много пишу об ии-рекламе (и показываю ии-рекламу), так что эта книга — просто часть проекта. Если вы хотите разобраться как залезть в мозг аудитории и остаться там надолго — я правда рекомендую. Мне этой книги в свое время очень не хватало.
Книга выйдет в издательстве "Манн, Иванов и Фербер" и вот ссылка на предзаказ книги (супер-цена!).
По этой ссылке — книга на "Читай Городе". А вот по этой ссылке — интернет-магазин Book 24.
Короче говоря, книга "Дофаномика. Инструкция по управлению вниманием, эмоциями и желаниями" ушла в типографию и сегодня же открыт предзаказ.
О книге: Вы уверены, что каждый выбор вы делаете сами: кофе по утрам, новый смартфон, брендовые кроссовки. Но 95% решений уже приняты за вас. И пока мы думаем, что решаем осознанно, маркетологи уже давно научилась управлять нашими эмоциями. Дофамин гонит за новыми впечатлениями, кортизол пугает упущенной выгодой, окситоцин дарит доверие к брендам.
Эта книга вскрывает механизмы нейромаркетинга и показывает, что бренды не убеждают — они внедряют идеи прямо в наше подсознание. Здесь вы найдете кейсы зарубежных и российских брендов, инструменты, которые используют маркетологи и продавцы, а также приемы, с помощью которых сможете распознавать манипуляции.
Эту книгу я писал долго, мучительно и одновременно получая много кайфа. Я хотел написать такую книгу, которой лично мне очень не хватало. Что такое реклама? Как она работает? Почему она работает? Как делать так, чтобы она работала? А почему реклама работает у крутых брендов? Какова анатомия лучшей в мире рекламы? Как управлять вниманием? И так далее...
На этом канале я много пишу об ии-рекламе (и показываю ии-рекламу), так что эта книга — просто часть проекта. Если вы хотите разобраться как залезть в мозг аудитории и остаться там надолго — я правда рекомендую. Мне этой книги в свое время очень не хватало.
Книга выйдет в издательстве "Манн, Иванов и Фербер" и вот ссылка на предзаказ книги (супер-цена!).
По этой ссылке — книга на "Читай Городе". А вот по этой ссылке — интернет-магазин Book 24.
10🔥39👍22🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
Закончил и сдал большой проект — серию рекламных роликов для компании Arlight, производителя светоидного оборудования.
Несмотря на кажущуюся простоту приложенного ролика, это был максимально сложный проект. Каждый кадр в буквальном смысле собирался по фрагментам, как конструктор "Лего". Да — постоянные герои, куда без них. А еще — реальные световые приборы и аксессуары заказчика, которые ведут себя в реальной жизни совершенно определенным образом.
Например такое правило: при нажатии на клавишу выключателя, она меняет свое положение, при этом выключается световой индикатор и одновременно в комнате включается светильник (естественно, из линейки Arlight).
Такие 15 секунд становятся настоящим испытанием на прочность. Я уже не раз писал, что нет какой-то одной нейросети, которая решает все задачи. В этом проекте — сложнейший пайплайн, который позволил реализовать задуманное и никакой вам Sora 2.
Следующим постом выложу 6-секундный ролик. Казалось бы — это же так просто, собрать 6 секунд. Как бы не так. В реальности дела обстоят так: жесточайший тайминг, в который надо уложить заданные в тз параметры, показать световые приборы (реальные естественно), да еще и рассказать историю.
Команда проекта:
Я — ии-сенсей, весь визуал, монтаж, сборка, музыка, нейрошаманизм и прочее.
Стас Брыков — арт-директор
Михаил Перловский — режиссер и креативный директор
Константин Цыбульский — звук
Несмотря на кажущуюся простоту приложенного ролика, это был максимально сложный проект. Каждый кадр в буквальном смысле собирался по фрагментам, как конструктор "Лего". Да — постоянные герои, куда без них. А еще — реальные световые приборы и аксессуары заказчика, которые ведут себя в реальной жизни совершенно определенным образом.
Например такое правило: при нажатии на клавишу выключателя, она меняет свое положение, при этом выключается световой индикатор и одновременно в комнате включается светильник (естественно, из линейки Arlight).
Такие 15 секунд становятся настоящим испытанием на прочность. Я уже не раз писал, что нет какой-то одной нейросети, которая решает все задачи. В этом проекте — сложнейший пайплайн, который позволил реализовать задуманное и никакой вам Sora 2.
Следующим постом выложу 6-секундный ролик. Казалось бы — это же так просто, собрать 6 секунд. Как бы не так. В реальности дела обстоят так: жесточайший тайминг, в который надо уложить заданные в тз параметры, показать световые приборы (реальные естественно), да еще и рассказать историю.
Команда проекта:
Я — ии-сенсей, весь визуал, монтаж, сборка, музыка, нейрошаманизм и прочее.
Стас Брыков — арт-директор
Михаил Перловский — режиссер и креативный директор
Константин Цыбульский — звук
🔥44👍20👎2
This media is not supported in your browser
VIEW IN TELEGRAM
И "6-ка". Команда та же — челленджи те же.
🔥41👍14👎2
Об этом мало кто пишет, но вы даже не догадываетесь, как круто можно делать еду в нейронках.
Вот рабочий кейс — ресторан русской кухни в Монголии — первое блюдо на белом фоне — оригинал заказчика. С помощью нейронок превращаем это все в стильные фото с монгольским колоритом. И так все меню. А потом все это становится фантастически красивым видеороликом.
Вот рабочий кейс — ресторан русской кухни в Монголии — первое блюдо на белом фоне — оригинал заказчика. С помощью нейронок превращаем это все в стильные фото с монгольским колоритом. И так все меню. А потом все это становится фантастически красивым видеороликом.
🔥43👍23
This media is not supported in your browser
VIEW IN TELEGRAM
Помните я делал 10-минутный фильм Baking Bread? (если не видели — посмотрите). Так вот я подумал: а не сделать ли мне русскую версию?
Действия разворачиваются прямо вот в Москве и окрестностях. 🤣 Собрал трейлер.
И да — пока это просто мысли (и картинки) вслух :-)
Действия разворачиваются прямо вот в Москве и окрестностях. 🤣 Собрал трейлер.
И да — пока это просто мысли (и картинки) вслух :-)
👍33🔥31🤣11👎3
Итак, REVE официально запускает видеогенерацию — функция уже доступна в США и Канаде для тех, кто заходит через Apple или Google-аккаунт. Я зашел протестировал и увидел, что под капотом — протянутая по API Veo 3.1.
По умолчанию видео отгружают в качестве HD (1280 х 720 / 24 кадра в секунду). Но можно выбрать 1080.
Бесплатным пользователям при активации функции выдают: 40 секунд генерации без звука или 20 секунд с аудио.
Подписка Pro открывает доступ к 250 секундам видео в месяц + ежедневно начисляются бонусные секунды — сколько, не скажу, я не планирую покупать подписку в Reve (это был дико крутой сервис, когда они только стартовали, делал крутейшие фотки, но потом все перезапустилось и стало очередным "комбайном", который лично мне не нужен).
Таким образом Reve из уникального некогда инструмента превращается в очередное представительство Veo — с возможностью генерить статичные картинки на своих мощностях. Но на самом деле все это для игр, не для работы. Потому что там, например, нет функции txt to video — а без нее ничего серьезного не сделаешь.
В общем, очередной сервис запихнул себе Veo под капот. Ранее под натиском гиганта сдались Hailuo MinuMax и Runway — туда на этой неделе тоже по API протянули Veo 3.1.
Так и будет дальше — Google запустит свои щупальца в каждый сервис. Такими темпами глядишь и Pika снова попытается восстать из пепла 😂
Два примера прилагаю — лицо Льва Яшина, которого я отправил танцевать изменилось (классическая Veo-генерация).
UPD: Следует пояснить — нужен аккаунт эпл или гугл, зарегистрированные в США. Речь не о том, чтобы зайти под США и подпихнуть Reve свой русский аккаунт.
По умолчанию видео отгружают в качестве HD (1280 х 720 / 24 кадра в секунду). Но можно выбрать 1080.
Бесплатным пользователям при активации функции выдают: 40 секунд генерации без звука или 20 секунд с аудио.
Подписка Pro открывает доступ к 250 секундам видео в месяц + ежедневно начисляются бонусные секунды — сколько, не скажу, я не планирую покупать подписку в Reve (это был дико крутой сервис, когда они только стартовали, делал крутейшие фотки, но потом все перезапустилось и стало очередным "комбайном", который лично мне не нужен).
Таким образом Reve из уникального некогда инструмента превращается в очередное представительство Veo — с возможностью генерить статичные картинки на своих мощностях. Но на самом деле все это для игр, не для работы. Потому что там, например, нет функции txt to video — а без нее ничего серьезного не сделаешь.
В общем, очередной сервис запихнул себе Veo под капот. Ранее под натиском гиганта сдались Hailuo MinuMax и Runway — туда на этой неделе тоже по API протянули Veo 3.1.
Так и будет дальше — Google запустит свои щупальца в каждый сервис. Такими темпами глядишь и Pika снова попытается восстать из пепла 😂
Два примера прилагаю — лицо Льва Яшина, которого я отправил танцевать изменилось (классическая Veo-генерация).
UPD: Следует пояснить — нужен аккаунт эпл или гугл, зарегистрированные в США. Речь не о том, чтобы зайти под США и подпихнуть Reve свой русский аккаунт.
👍10🔥5
Раз уж зашла речь о Льве Яшине — опубликую часть фото, которые сгенерил для одного рабочего проекта. Харизматичный герой. Легенда советского футбола.
👍29🔥13🥰5