NFX
AI Zen
Top founders in Silicon Valley are unlocking a new mindset with Claude Opus 4.6. We call it AI Zen — a new way to build and think with AI.
ИИ-Дзен
Это не исследование от Стэнфорда или британских учоных, это частное наблюдение.
Но мне оно нравится тем, что возвращает меня к мысли о том, что восстание машин будет не снаружи - они просто залезут к нам в голову.
https://www.nfx.com/post/ai-zen
Ниже выжимка на русском:
Статья AI Zen - это не столько анализ технологий, сколько попытка психологически успокоить людей, которых новые модели начали выбивать из привычной картины мира. Автор утверждает, что после релиза новых ИИ-моделей в феврале 2026 года многие умные, амбициозные люди впервые по-настоящему почувствовали себя заменимыми: раньше ИИ казался просто продвинутым инструментом, а теперь начинает ощущаться как версия тебя самого, только быстрее, яснее и местами умнее.
Отсюда и метафора “AI Zen”. Автор сравнивает нынешний момент с дзен-практикой и состоянием “zen sickness” - болезненной дезориентацией, которая возникает, когда у человека рушится старое ощущение себя и мира. По его мысли, именно это сейчас и происходит с людьми, столкнувшимися с ИИ нового уровня: ломается эго-конструкция, в которой твой интеллект был главным активом и источником контроля.
Дальше автор предлагает не бороться с этим сдвигом, а принять его. Его рецепт довольно простой: больше взаимодействовать с ИИ, перестать цепляться за старую идентичность, меньше паниковать и учиться “flow and adaptability” - гибкости, текучести, готовности быстро перестраиваться. Он прямо говорит, что будущее становится менее предсказуемым, а потому выигрывать будут не самые самоуверенные, а самые адаптивные.
Чтобы усилить пафос, автор сравнивает нынешний AI-сдвиг с эффектом атомной бомбы после Второй мировой: человечество вдруг осознало, что мир стал радикально другим, а старые правила больше не гарантируют безопасности и понятности. Но вместо doom-настроения автор продавливает довольно типичную для VC-мира мантру: не ной, адаптируйся.
Если совсем по сути, AI Zen - это текст о том, что ИИ уже начинает бить не только по профессиям, но и по человеческому самовосприятию. И ответ автор видит не в сопротивлении, а в капитуляции части старого эго: меньше держаться за статус “я умный и потому незаменимый”, больше учиться жить рядом с машинами, которые всё чаще делают когнитивную работу лучше людей. Звучит как бы мудро, но между строк читается и другое: нас аккуратно приучают к новой норме, где психологическая адаптация к собственной частичной ненужности подаётся как почти духовная практика.
@cgevent
Это не исследование от Стэнфорда или британских учоных, это частное наблюдение.
Но мне оно нравится тем, что возвращает меня к мысли о том, что восстание машин будет не снаружи - они просто залезут к нам в голову.
https://www.nfx.com/post/ai-zen
Ниже выжимка на русском:
Статья AI Zen - это не столько анализ технологий, сколько попытка психологически успокоить людей, которых новые модели начали выбивать из привычной картины мира. Автор утверждает, что после релиза новых ИИ-моделей в феврале 2026 года многие умные, амбициозные люди впервые по-настоящему почувствовали себя заменимыми: раньше ИИ казался просто продвинутым инструментом, а теперь начинает ощущаться как версия тебя самого, только быстрее, яснее и местами умнее.
Отсюда и метафора “AI Zen”. Автор сравнивает нынешний момент с дзен-практикой и состоянием “zen sickness” - болезненной дезориентацией, которая возникает, когда у человека рушится старое ощущение себя и мира. По его мысли, именно это сейчас и происходит с людьми, столкнувшимися с ИИ нового уровня: ломается эго-конструкция, в которой твой интеллект был главным активом и источником контроля.
Дальше автор предлагает не бороться с этим сдвигом, а принять его. Его рецепт довольно простой: больше взаимодействовать с ИИ, перестать цепляться за старую идентичность, меньше паниковать и учиться “flow and adaptability” - гибкости, текучести, готовности быстро перестраиваться. Он прямо говорит, что будущее становится менее предсказуемым, а потому выигрывать будут не самые самоуверенные, а самые адаптивные.
Чтобы усилить пафос, автор сравнивает нынешний AI-сдвиг с эффектом атомной бомбы после Второй мировой: человечество вдруг осознало, что мир стал радикально другим, а старые правила больше не гарантируют безопасности и понятности. Но вместо doom-настроения автор продавливает довольно типичную для VC-мира мантру: не ной, адаптируйся.
Если совсем по сути, AI Zen - это текст о том, что ИИ уже начинает бить не только по профессиям, но и по человеческому самовосприятию. И ответ автор видит не в сопротивлении, а в капитуляции части старого эго: меньше держаться за статус “я умный и потому незаменимый”, больше учиться жить рядом с машинами, которые всё чаще делают когнитивную работу лучше людей. Звучит как бы мудро, но между строк читается и другое: нас аккуратно приучают к новой норме, где психологическая адаптация к собственной частичной ненужности подаётся как почти духовная практика.
@cgevent
👍27👎16❤7😁6🙏6😱1
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
Владимир Маяковский - Письмо Татьяне Яковлевой.
Автор: Артем
Видео сделано в сентябре 2025.
Хронометраж в этот раз получился почти 5 минут.
Изображения: миджорни, банана, сидрим 4.
Видео стандартный набор: почти все клинг (перестал немного шакалить руки, может обновился), также вео3, сиденс, хайлуо и ранвей для липсинга.
Ну и суно конечно.
В клинге ушло 15000 кредитов, суно 3000, креа 70% от максималки. Ранвей безлимит, мидж безлимит.
Время около 70 часов.
@cgevent
Владимир Маяковский - Письмо Татьяне Яковлевой.
Автор: Артем
Видео сделано в сентябре 2025.
Хронометраж в этот раз получился почти 5 минут.
Изображения: миджорни, банана, сидрим 4.
Видео стандартный набор: почти все клинг (перестал немного шакалить руки, может обновился), также вео3, сиденс, хайлуо и ранвей для липсинга.
Ну и суно конечно.
В клинге ушло 15000 кредитов, суно 3000, креа 70% от максималки. Ранвей безлимит, мидж безлимит.
Время около 70 часов.
@cgevent
1👎90🔥25👍12❤3😱3
GPT-Image-2
На арене появились и исчезли три новые модели: maskingtape, packingtape, gaffertape.
Скорее всего это новая версия генератора картинок от OpenAI.
Модели дико прошарены в world knowledge(поглядите на анатомию) и также дико прошарены в самые мелкие тексты (скрины Ютюб и кода сгенерированы).
Похоже что для иллюстративной графики это прорыв.
Есть версии, что:
> maskingtape-alpha = segmentation + inpainting focus
> gaffertape-alpha = production-ready (gaffer = film production)
> packingtape-alpha = shipping/texture/materials
Но это не так важно пока.
Важно, что под капотом не старая 4о, а одна из новых моделей. Интересно какая?
Нанабанана нервно генерит и закуривает овальные сигареты...
@cgevent
На арене появились и исчезли три новые модели: maskingtape, packingtape, gaffertape.
Скорее всего это новая версия генератора картинок от OpenAI.
Модели дико прошарены в world knowledge(поглядите на анатомию) и также дико прошарены в самые мелкие тексты (скрины Ютюб и кода сгенерированы).
Похоже что для иллюстративной графики это прорыв.
Есть версии, что:
> maskingtape-alpha = segmentation + inpainting focus
> gaffertape-alpha = production-ready (gaffer = film production)
> packingtape-alpha = shipping/texture/materials
Но это не так важно пока.
Важно, что под капотом не старая 4о, а одна из новых моделей. Интересно какая?
Нанабанана нервно генерит и закуривает овальные сигареты...
@cgevent
10🔥81❤13👍8👎3😁1
У меня на телефоне в приложении chatgpt появилась опция Change Aspect Ratio.
Надо кликнуть на сгенеренную картинку и выбрать Еdit.
Но это не срабатывает, картинка остаётся 3:2.
Забавно, приложение уже обновили, а модель нет.
Зато можно посмотреть какие разрешения будут в новой gpt-image-2.
@cgevent
Надо кликнуть на сгенеренную картинку и выбрать Еdit.
Но это не срабатывает, картинка остаётся 3:2.
Забавно, приложение уже обновили, а модель нет.
Зато можно посмотреть какие разрешения будут в новой gpt-image-2.
@cgevent
🔥22👍7❤4👎3
Тут в воскресенье случился мой день рождения, и даже юбилей. В этой связи я позволил себе не писать новости, а предаться размышлениям о том, что вообще происходит. Нашел фотку из прошлой жизни, где я занимаюсь ровно тем же самым - кто знает, тот поймет откуда это. Время было беззаботное и веселое. Теперь вместо кресел - подписчики, а вместо выступлений - посты.
Также на этой неделе случился юбилей у канала, я как-то упустил, что в нем теперь 50 000+ подписчиков. Цифра круглая и хороша тем, что мне точно психологически больше не надо. Я теперь могу, раздуваясь от гордости, небрежно бросать через плечо: я тут блоггир с аудиторией в полсотни тыщ. Надо сказать, что я никогда не гнался за этими смешными цифрами, ни разу не закупал аудиторию, не давал рекламу канала, не участвовал в каких-то неведомых папках и коллабах. Все органика и ваши кожаные репосты.
Канал отлично соответствует моей нарциссической травме - что может быть лучше, чем с умным видом говорить разные вещи на широкую аудиторию. Я и CG EVENT когда-то затеял по этой же причине. Покуражиться с микрофоном на сцене, а то слух есть, а спеть прямо не могу. И вот в зале сидит 800 чел, а ты такой - ну, за аниматоров!
Теперь вы - мой зал, который терпит эти странные шутки и тосты за кожаных. Вам всем большое спасибо за это.
Можете поздравить меня Донатом или криптой, но это необязательно в наше нежирное время.
Можете наговорить хорошего в коментах (можно даже по делу), или нагенерить что-то смешное. Будет приятно.
Ваш Нейродед.
@cgevent
Также на этой неделе случился юбилей у канала, я как-то упустил, что в нем теперь 50 000+ подписчиков. Цифра круглая и хороша тем, что мне точно психологически больше не надо. Я теперь могу, раздуваясь от гордости, небрежно бросать через плечо: я тут блоггир с аудиторией в полсотни тыщ. Надо сказать, что я никогда не гнался за этими смешными цифрами, ни разу не закупал аудиторию, не давал рекламу канала, не участвовал в каких-то неведомых папках и коллабах. Все органика и ваши кожаные репосты.
Канал отлично соответствует моей нарциссической травме - что может быть лучше, чем с умным видом говорить разные вещи на широкую аудиторию. Я и CG EVENT когда-то затеял по этой же причине. Покуражиться с микрофоном на сцене, а то слух есть, а спеть прямо не могу. И вот в зале сидит 800 чел, а ты такой - ну, за аниматоров!
Теперь вы - мой зал, который терпит эти странные шутки и тосты за кожаных. Вам всем большое спасибо за это.
Можете поздравить меня Донатом или криптой, но это необязательно в наше нежирное время.
Можете наговорить хорошего в коментах (можно даже по делу), или нагенерить что-то смешное. Будет приятно.
Ваш Нейродед.
@cgevent
642❤526🔥132👍73😱5🙏2
Forwarded from Derp Learning
OpenClaw выпустили 2026.4.5 - и это уже не просто обвязка для моделей, а какой-то комбайн всего подряд.
Коротко по апдейту:
- появилась генерация видео и музыки прямо из коробки
- завезли /dreaming - механизм "переваривания" контекста в долговременную память
- сделали более внятный прогресс задач
- улучшили переиспользование кэша промптов
- интерфейс и документация расширили поддержку языков
Самое интересное - это их dreaming.
По сути, это попытка сделать у модели аналог memory consolidation:
она не просто держит контекст, а "перекладывает" важные сигналы из краткосрочной памяти в долгосрочную, разбивая процесс на фазы (light / deep / REM).
Если это реально работает, то это шаг в сторону более "постоянных" агентных систем, а не одноразовых запусков.
Второй важный момент - ставка на multi-provider:
OpenClaw подключает всё:
- картинки (Comfy, fal, OpenAI и др.)
- музыку
- видео (там вообще половина рынка)
Это уже не "обёртка над одной моделью", а слой, который абстрагирует провайдеров.
И это напрямую связано с тем, что произошло дальше.
Anthropic изменили правила:
Claude-подписки больше не покрывают такие внешние инструменты -> нужен отдельный usage.
Реакция OpenClaw максимально прагматичная:
ок, значит меньше зависимости от одного провайдера.
Они прямо пишут:
- используйте API
- или идите к альтернативам (OpenAI, Qwen, MiniMax, Kimi, GLM)
И финальный месседж:
"нас отключили - мы пошли дальше"
В целом, тренд понятен:
инструменты уходят от привязки к одной модели и становятся слоем оркестрации над многими.
И в этой логике OpenClaw выглядит не как pet-проект, а как ранний прототип того, как будут выглядеть AI-стэки дальше.
Тред
Коротко по апдейту:
- появилась генерация видео и музыки прямо из коробки
- завезли /dreaming - механизм "переваривания" контекста в долговременную память
- сделали более внятный прогресс задач
- улучшили переиспользование кэша промптов
- интерфейс и документация расширили поддержку языков
Самое интересное - это их dreaming.
По сути, это попытка сделать у модели аналог memory consolidation:
она не просто держит контекст, а "перекладывает" важные сигналы из краткосрочной памяти в долгосрочную, разбивая процесс на фазы (light / deep / REM).
Если это реально работает, то это шаг в сторону более "постоянных" агентных систем, а не одноразовых запусков.
Второй важный момент - ставка на multi-provider:
OpenClaw подключает всё:
- картинки (Comfy, fal, OpenAI и др.)
- музыку
- видео (там вообще половина рынка)
Это уже не "обёртка над одной моделью", а слой, который абстрагирует провайдеров.
И это напрямую связано с тем, что произошло дальше.
Anthropic изменили правила:
Claude-подписки больше не покрывают такие внешние инструменты -> нужен отдельный usage.
Реакция OpenClaw максимально прагматичная:
ок, значит меньше зависимости от одного провайдера.
Они прямо пишут:
- используйте API
- или идите к альтернативам (OpenAI, Qwen, MiniMax, Kimi, GLM)
И финальный месседж:
"нас отключили - мы пошли дальше"
В целом, тренд понятен:
инструменты уходят от привязки к одной модели и становятся слоем оркестрации над многими.
И в этой логике OpenClaw выглядит не как pet-проект, а как ранний прототип того, как будут выглядеть AI-стэки дальше.
Тред
X (formerly Twitter)
OpenClaw🦞 (@openclaw) on X
OpenClaw 2026.4.5 🦞
🎬 Built-in video + music generation
🧠 /dreaming is now real
🔀 Structured task progress
⚡ Better prompt-cache reuse
🌍 Control UI + Docs now speak 12 more languages
Anthropic cut us off. GPT-5.4 got better. We moved on. https://t.co/T3LaSJYOvU
🎬 Built-in video + music generation
🧠 /dreaming is now real
🔀 Structured task progress
⚡ Better prompt-cache reuse
🌍 Control UI + Docs now speak 12 more languages
Anthropic cut us off. GPT-5.4 got better. We moved on. https://t.co/T3LaSJYOvU
🔥48❤17👍8
Суета вокруг Сидэнского.
Что-то происходит:
На https://kie.ai/seedance-2-0 пишут:
This service has been temporarily taken offline.
На https://fal.ai/explore/seedance-20
Все ссылки выдают 404
Зато появлись многочисленные компании перепродавайки. Похоже, что покупают доступ как компания и продают наружу.
Вот тут дают 200 кредитов бесплатно (в неделю!), при этом Сиденс-видео стоит 18 кредитов.
https://www.flova.ai/
При этом пишут "Обновите до Pro, чтобы разблокировать генерацию реальных людей" - это как?
Я пробил по твиттору - дата регистрации аккаунта - март 2026.
Пробуйте на свой страх и риск.
P.S. Зарегался гуглом. Сгенерил видос (сбросил в коменты). Списали где-то 170 кредитов (за музыку, раскадровки и сам видос). Там все увешано ассистентами-агентами, не нашел способа сказать "просто сгенери по промпту".
Также нет понимания того, что это точно Сидэнс или мне Клинга подсунули.
@cgevent
Что-то происходит:
На https://kie.ai/seedance-2-0 пишут:
This service has been temporarily taken offline.
На https://fal.ai/explore/seedance-20
Все ссылки выдают 404
Зато появлись многочисленные компании перепродавайки. Похоже, что покупают доступ как компания и продают наружу.
Вот тут дают 200 кредитов бесплатно (в неделю!), при этом Сиденс-видео стоит 18 кредитов.
https://www.flova.ai/
При этом пишут "Обновите до Pro, чтобы разблокировать генерацию реальных людей" - это как?
Я пробил по твиттору - дата регистрации аккаунта - март 2026.
Пробуйте на свой страх и риск.
P.S. Зарегался гуглом. Сгенерил видос (сбросил в коменты). Списали где-то 170 кредитов (за музыку, раскадровки и сам видос). Там все увешано ассистентами-агентами, не нашел способа сказать "просто сгенери по промпту".
Также нет понимания того, что это точно Сидэнс или мне Клинга подсунули.
@cgevent
👎14❤6😁2
Удалятор объектов от Нетфликс
Напишу, чуть подробнее заголовков - очень интересная работа.
Тут не просто удаление объектов с видео (что уже круто), но еще и генерация нового видео с учетом того, что физически произойдет, если убрать объекты из кадра.
Поглядите видео - если убрать вторую машину, то авария не происходит, если убрать две доминошки посередине, то последняя не падает.
Выглядит просто как магия.
Но.
В процессе участвует Промпт. Он-то и описывает, что надо сделать. Так что это скорее видеогенератор с рефами и промптом. Но смотрится все равно убойно.
Также в процессе участвует quadmask - это отдельное видео в оттенках серого, где значение каждого пикселя кодирует роль, которую играет данная область в физике процесса. По счастию, это видео генерится под капотом автоматически с помощью VLM, но вы можете генерить его сами на стороне и подавать на вход.
Более того, даже есть демо, можете сами попробовать:
https://huggingface.co/spaces/sam-motamed/VOID
Есть код:
https://github.com/Netflix/void-model
Судя по качеству примеров, я не уверен, что это прям композное решение, которое используют внутри Нетфликс. Хотя может быть у них внутри есть хайрезная и еще более умная версия.
@cgevent
Напишу, чуть подробнее заголовков - очень интересная работа.
Тут не просто удаление объектов с видео (что уже круто), но еще и генерация нового видео с учетом того, что физически произойдет, если убрать объекты из кадра.
Поглядите видео - если убрать вторую машину, то авария не происходит, если убрать две доминошки посередине, то последняя не падает.
Выглядит просто как магия.
Но.
В процессе участвует Промпт. Он-то и описывает, что надо сделать. Так что это скорее видеогенератор с рефами и промптом. Но смотрится все равно убойно.
Также в процессе участвует quadmask - это отдельное видео в оттенках серого, где значение каждого пикселя кодирует роль, которую играет данная область в физике процесса. По счастию, это видео генерится под капотом автоматически с помощью VLM, но вы можете генерить его сами на стороне и подавать на вход.
Более того, даже есть демо, можете сами попробовать:
https://huggingface.co/spaces/sam-motamed/VOID
Есть код:
https://github.com/Netflix/void-model
Судя по качеству примеров, я не уверен, что это прям композное решение, которое используют внутри Нетфликс. Хотя может быть у них внутри есть хайрезная и еще более умная версия.
@cgevent
👍17❤7🔥6👎1
На Stepik вышел курс: Vibecoding — Claude Code, Codex, Cursor и coding agents в 2026.
Хотите работать с Claude Code, Codex и Cursor так, чтобы coding agents действительно тащили заметную часть разработки: фичи, отладку, тесты, рефакторинг, MVP и многошаговые задачи? Этот курс — про современный vibecoding workflow и agentic development в 2026.
В программе:
— Claude Code, Codex, Cursor
— agent mode и многошаговые задачи
— работа с кодовой базой
— subagents, hooks, skills
— MCP и внешние инструменты
— ревью кода, изменения и контроль качества
Подойдёт всем, кто регулярно работает с кодом: разработчикам, ML-инженерам, дата-сайентистам, аналитикам, automation-специалистам и техническим фаундерам.
Скидка 40% действует 48 часов.
Пройти курс на Stepik
Хотите работать с Claude Code, Codex и Cursor так, чтобы coding agents действительно тащили заметную часть разработки: фичи, отладку, тесты, рефакторинг, MVP и многошаговые задачи? Этот курс — про современный vibecoding workflow и agentic development в 2026.
В программе:
— Claude Code, Codex, Cursor
— agent mode и многошаговые задачи
— работа с кодовой базой
— subagents, hooks, skills
— MCP и внешние инструменты
— ревью кода, изменения и контроль качества
Подойдёт всем, кто регулярно работает с кодом: разработчикам, ML-инженерам, дата-сайентистам, аналитикам, automation-специалистам и техническим фаундерам.
Скидка 40% действует 48 часов.
Пройти курс на Stepik
👎48😁12❤5
Media is too big
VIEW IN TELEGRAM
AI UV
Для трехмерщиков.
Я видел подобную работу в 2018 году у Автодеска. Они взяли миллион UV-разверток с турбосквида для персонажа в T-позе. И натренировали нейронку генерить похожие развертки для моделей без UV. Насколько я помню, там были именно персонажи. По каким-то причинам эту работу убрали из упоминания.
Здесь немного другой подход, но идея та же. Взять много уже готовых разверток от реальных художников и научить нейронку генерить швы (Seams) на UV-картах. Тут они замахиваются прям на произвольные классы объектов, еще и в лоу-поли, что круто, но верится с трудом. В любом случае, это простой и красивый подход, и я не понимаю, почему никто не занимается AI UV, ведь данных полно. Вероятно проблема в абсолютно произвольной топологии полигональных объектов.
Кода нет, но обещан.
https://meshtailor.github.io/
P.S. А ведь были времена, когда голову персонажа лепили в NURBS. Патчевое сплайновое моделирование. АдЪ.
@cgevent
Для трехмерщиков.
Я видел подобную работу в 2018 году у Автодеска. Они взяли миллион UV-разверток с турбосквида для персонажа в T-позе. И натренировали нейронку генерить похожие развертки для моделей без UV. Насколько я помню, там были именно персонажи. По каким-то причинам эту работу убрали из упоминания.
Здесь немного другой подход, но идея та же. Взять много уже готовых разверток от реальных художников и научить нейронку генерить швы (Seams) на UV-картах. Тут они замахиваются прям на произвольные классы объектов, еще и в лоу-поли, что круто, но верится с трудом. В любом случае, это простой и красивый подход, и я не понимаю, почему никто не занимается AI UV, ведь данных полно. Вероятно проблема в абсолютно произвольной топологии полигональных объектов.
Кода нет, но обещан.
https://meshtailor.github.io/
P.S. А ведь были времена, когда голову персонажа лепили в NURBS. Патчевое сплайновое моделирование. АдЪ.
@cgevent
🔥19👍8❤4
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
Имиджевый видеоролик для автомобиля Torres от бренда KGM
Автор: Никита Степанов (@neekiro)
Производство: Креативная CG и AI студия YŪGA VISION
Команда: Руслан KlipSpringer (@klip_springer) — режиссёр, Александр Поздняков (@SkarHeavy) — дженералист. Сценарий и идеи штурмили вместе.
Сделали этот ролик на хакатоне Skillout за 24 часа по реальному брифу KGM Torres.
Подход: Сразу решили не делать очередное нейро-мясо. На таких движухах легко уйти в безумие ради безумия. Нам было интереснее проверить: можно ли втроём за сутки собрать не набор генераций, а рабочий рекламный ролик.
Бриф: Многие воспринимают KGM как “какой-то новый бренд”, хотя это корейская история (SsangYong). Плюс нужно было попасть в понятную ЦА: взрослый уверенный мужик, семьянин, которому нужна машина и для города, и для активных хобби.
Идея: Мы построили ролик на закольцованной фразе “как обычно”. В этом и был весь прикол: для героя “обычно” – это не рутина, а его нормальная форма жизни, где город легко перетекает в песок, снег, горы и ощущение внутренней свободы.
Такой ход помог нам сразу закрыть и образ ЦА, и характер автомобиля, а ГЗК и титры закрылы бренд-задачу.
Отдельно важной для нас стала сцена с льдиной. Именно она задала ролику нужный тон: не AI-цирк и не стерильная автормекла, а взрослый, спокойный, чуть хулиганский юмор.
Главный спор внутри: ребята хотели больше безумия и мяса. Я всё время возвращал нас к брифу, хоть это, возможно, причина, почему мы не выиграли)). Победил ролик более безумный по эмоции. Но я рад, что у нас продукт не приклеен к креативу, а находится в центре. И я бы всё равно снова выбрал этот путь.
Что сработало по пайплайну: лучше всего у нас зашли Kling 3, Kling 3 Omni и Nano Banana Pro.
• Kling 3 сильно выручал через first frame / last frame.
• Omni помогал там, где нужно было сложнее управлять сценой и подсовывать промежуточные состояния кадра.
• Мультишот в Kling неожиданно оказался суперполезным: в дедлайне 24 часа он ускорял монтаж и иногда сам подкидывал хорошие постановочные решения.
• Стилшоты делали в Nano Banana Pro.
• Для консистентности в NBP собирали реф-листы с разными ракурсами, а в Kling использовали Element.
Больше всего плыли колёса. Именно они сожрали больше всего итераций, и не всё мы успели довести до идеала.
Прочие инструменты: музыку брали с Artlist, липсинк делали в PixVerse.
ChatGPT использовали как внешний фильтр: не уехали ли мы слишком далеко от брифа.
Где зафейлили: заранее не подготовили идеальный голос под автомобильную рекламу. Голос отца потом пришлось докручивать нейросетями, а голос девочки вообще записывали почти в полевых условиях - попросили одну из организаторов наговорить реплику на iPhone, а дальше уже вытягивали обработкой. Хороший урок на будущее.
Сон: спали мы за всё это примерно полтора часа. Последние 5–6 часов был уже чистый гринд.
Результат: по фидбеку от KGM ролик был у них в топе при финальном выборе, хоть и не взял 1 место. Для нас это всё равно важный кейс, который потом помог оптимизировать пайплайн на реальных коммерческих проектах.
Главный вывод: как кто-то сказал: “вход в генерацию падает, а вход в профессию растёт”. Красиво нагенерить сейчас могут многие. А вот придумать идею, удержать бриф, собрать режиссуру, не превратить ролик в AI-винегрет и за сутки довести продукт до центра истории — это уже реальная работа.
@cgevent
Имиджевый видеоролик для автомобиля Torres от бренда KGM
Автор: Никита Степанов (@neekiro)
Производство: Креативная CG и AI студия YŪGA VISION
Команда: Руслан KlipSpringer (@klip_springer) — режиссёр, Александр Поздняков (@SkarHeavy) — дженералист. Сценарий и идеи штурмили вместе.
Сделали этот ролик на хакатоне Skillout за 24 часа по реальному брифу KGM Torres.
Подход: Сразу решили не делать очередное нейро-мясо. На таких движухах легко уйти в безумие ради безумия. Нам было интереснее проверить: можно ли втроём за сутки собрать не набор генераций, а рабочий рекламный ролик.
Бриф: Многие воспринимают KGM как “какой-то новый бренд”, хотя это корейская история (SsangYong). Плюс нужно было попасть в понятную ЦА: взрослый уверенный мужик, семьянин, которому нужна машина и для города, и для активных хобби.
Идея: Мы построили ролик на закольцованной фразе “как обычно”. В этом и был весь прикол: для героя “обычно” – это не рутина, а его нормальная форма жизни, где город легко перетекает в песок, снег, горы и ощущение внутренней свободы.
Такой ход помог нам сразу закрыть и образ ЦА, и характер автомобиля, а ГЗК и титры закрылы бренд-задачу.
Отдельно важной для нас стала сцена с льдиной. Именно она задала ролику нужный тон: не AI-цирк и не стерильная автормекла, а взрослый, спокойный, чуть хулиганский юмор.
Главный спор внутри: ребята хотели больше безумия и мяса. Я всё время возвращал нас к брифу, хоть это, возможно, причина, почему мы не выиграли)). Победил ролик более безумный по эмоции. Но я рад, что у нас продукт не приклеен к креативу, а находится в центре. И я бы всё равно снова выбрал этот путь.
Что сработало по пайплайну: лучше всего у нас зашли Kling 3, Kling 3 Omni и Nano Banana Pro.
• Kling 3 сильно выручал через first frame / last frame.
• Omni помогал там, где нужно было сложнее управлять сценой и подсовывать промежуточные состояния кадра.
• Мультишот в Kling неожиданно оказался суперполезным: в дедлайне 24 часа он ускорял монтаж и иногда сам подкидывал хорошие постановочные решения.
• Стилшоты делали в Nano Banana Pro.
• Для консистентности в NBP собирали реф-листы с разными ракурсами, а в Kling использовали Element.
Больше всего плыли колёса. Именно они сожрали больше всего итераций, и не всё мы успели довести до идеала.
Прочие инструменты: музыку брали с Artlist, липсинк делали в PixVerse.
ChatGPT использовали как внешний фильтр: не уехали ли мы слишком далеко от брифа.
Где зафейлили: заранее не подготовили идеальный голос под автомобильную рекламу. Голос отца потом пришлось докручивать нейросетями, а голос девочки вообще записывали почти в полевых условиях - попросили одну из организаторов наговорить реплику на iPhone, а дальше уже вытягивали обработкой. Хороший урок на будущее.
Сон: спали мы за всё это примерно полтора часа. Последние 5–6 часов был уже чистый гринд.
Результат: по фидбеку от KGM ролик был у них в топе при финальном выборе, хоть и не взял 1 место. Для нас это всё равно важный кейс, который потом помог оптимизировать пайплайн на реальных коммерческих проектах.
Главный вывод: как кто-то сказал: “вход в генерацию падает, а вход в профессию растёт”. Красиво нагенерить сейчас могут многие. А вот придумать идею, удержать бриф, собрать режиссуру, не превратить ролик в AI-винегрет и за сутки довести продукт до центра истории — это уже реальная работа.
@cgevent
👍96👎52❤17🔥17😁9
Как вырастить B2B SaaS с $0 до $2M выручки без инвестиций?
Недавно узнал историю 4dev.com из первых рук, от сооснователя Димы Кочнева. Просто разговорились на одном из хабов. Знакомы давно, но общаемся реже, чем хочется.
Напомню, что 4dev.com — это платформа для автоматизации выплат удалённым сотрудникам и фрилансерам по всему миру. Дима рассказал, как запускать B2B SaaS с нуля, расти x10 и не сжечь деньги на старте.
Как появилась идея
Во время работы в Skyeng Дима столкнулся с проблемой: с ростом команды выплаты, акты и ручные переводы перестали масштабироваться. В какой-то момент только документооборотом занимались десятки людей. Тогда внутри компании появился сервис для автоматизации выплат — а позже из этого выросла идея отдельного продукта.
Как нашли модель, которая взлетела
Стартап сразу строили с кофаундером: Дима взял на себя продажи и стратегию, партнёр — продукт и операционку. MVP собрали быстро, чтобы проверить спрос, и уже первые founder-led продажи принесли около 30 клиентов. Этого хватило, чтобы выйти в плюс и дальше расти без инвестиций.
Как случился рост
После полного фокуса на 4dev.com компания выросла с $100K до $1M ARR, а ещё через несколько месяцев — до $2M. Основой стали личные продажи, нетворк, рекомендации и постоянная работа фаундеров с клиентами.
Что сработало
— глубокое понимание проблемы
— быстрый запуск MVP
— продажи с первого дня
— сильная вовлечённость фаундеров
— качественный сервис
— хорошее понимание ICP
Что легко зафейлить
— строить продукт без первых продаж
— делать “ещё одно такое же решение”
— запускать всё в одиночку и распыляться
Сейчас 4dev.com помогает компаниям платить командам в 150+ стран, автоматизировать документооборот и проводить выплаты в 30+ валютах, включая USDT.
Минутка рекламы:
Если у вас распределённая команда и вы устали от ручных выплат — 4dev.com закрывает этот вопрос, а закрывающие документы, которые платформа создает автоматически, соотвествуют междунароным требованиям.
⭐️ Записаться на бесплатную консультацию — их команда разбирает конкретно ваш кейс и помогает найти лучшие пути решения.
@cgevent
Недавно узнал историю 4dev.com из первых рук, от сооснователя Димы Кочнева. Просто разговорились на одном из хабов. Знакомы давно, но общаемся реже, чем хочется.
Напомню, что 4dev.com — это платформа для автоматизации выплат удалённым сотрудникам и фрилансерам по всему миру. Дима рассказал, как запускать B2B SaaS с нуля, расти x10 и не сжечь деньги на старте.
Как появилась идея
Во время работы в Skyeng Дима столкнулся с проблемой: с ростом команды выплаты, акты и ручные переводы перестали масштабироваться. В какой-то момент только документооборотом занимались десятки людей. Тогда внутри компании появился сервис для автоматизации выплат — а позже из этого выросла идея отдельного продукта.
Как нашли модель, которая взлетела
Стартап сразу строили с кофаундером: Дима взял на себя продажи и стратегию, партнёр — продукт и операционку. MVP собрали быстро, чтобы проверить спрос, и уже первые founder-led продажи принесли около 30 клиентов. Этого хватило, чтобы выйти в плюс и дальше расти без инвестиций.
Как случился рост
После полного фокуса на 4dev.com компания выросла с $100K до $1M ARR, а ещё через несколько месяцев — до $2M. Основой стали личные продажи, нетворк, рекомендации и постоянная работа фаундеров с клиентами.
Что сработало
— глубокое понимание проблемы
— быстрый запуск MVP
— продажи с первого дня
— сильная вовлечённость фаундеров
— качественный сервис
— хорошее понимание ICP
Что легко зафейлить
— строить продукт без первых продаж
— делать “ещё одно такое же решение”
— запускать всё в одиночку и распыляться
Сейчас 4dev.com помогает компаниям платить командам в 150+ стран, автоматизировать документооборот и проводить выплаты в 30+ валютах, включая USDT.
Минутка рекламы:
Если у вас распределённая команда и вы устали от ручных выплат — 4dev.com закрывает этот вопрос, а закрывающие документы, которые платформа создает автоматически, соотвествуют междунароным требованиям.
⭐️ Записаться на бесплатную консультацию — их команда разбирает конкретно ваш кейс и помогает найти лучшие пути решения.
@cgevent
👎46👍8😁5❤1