Colossus
How Demis Hassabis Went From Idealist to Realist
The inside story of how DeepMind’s experiments in AI safety governance transformed Demis Hassabis from an idealist into a realist
Проект Марио
DeepMind тоже хотел стать новым Renaissance. Не получилось.
Пока все представляли DeepMind как храм чистой науки и разговоров про безопасный AGI, внутри у Демиса Хассабиса был ещё один маленький фетиш: секретный трейдинговый проект. В 2016 году, параллельно с переговорами о большей независимости от Google, он собрал внутри DeepMind почти хедж-фондовую операционку и нанял около 20 исследователей обучать алгоритмы для high-frequency trading. Более того, он даже прощупывал сотрудничество с BlackRock.
Задумка была красивая: если DeepMind хочет когда-нибудь жить чуть менее на поводке у Google, ему нужны собственные денежные потоки. Одно дело - наука и медицина. Другое - рынок. То есть буквально так: построить внутри AI-лаборатории машину по добыче денег из хаоса финансовых котировок. И в этом есть злая ирония эпохи: компания, которая рассказывает про судьбу человечества и суперинтеллект, втихаря пробует обыграть рынок как элитный квант-фонд.
По словам собеседников автора, Хассабиса притягивала не только прибыль, но и сам вайб. Ему хотелось обыграть Джима Саймонса и приблизиться к ауре Renaissance Technologies - закрытого культа математических гениев, который в тишине и секретности печатает деньги. В статье это подано почти без стеснения: Demis нравилась сама эстетика такой структуры - секретность, интеллектуальная элитарность, ощущение, что ты играешь ещё в одну большую игру и снова собираешься её выиграть.
Но дальше вмешалась проза большой корпорации. Google этот проект не одобрял, относился к нему настороженно, и в итоге история закончилась максимально буднично: денег проект не заработал, а команду тихо распустили. Никакой великой тайной печатной машины не получилось.
https://colossus.com/article/project-mario-demis-hassabis-deepmind-mallaby/
@cgevent
DeepMind тоже хотел стать новым Renaissance. Не получилось.
Пока все представляли DeepMind как храм чистой науки и разговоров про безопасный AGI, внутри у Демиса Хассабиса был ещё один маленький фетиш: секретный трейдинговый проект. В 2016 году, параллельно с переговорами о большей независимости от Google, он собрал внутри DeepMind почти хедж-фондовую операционку и нанял около 20 исследователей обучать алгоритмы для high-frequency trading. Более того, он даже прощупывал сотрудничество с BlackRock.
Задумка была красивая: если DeepMind хочет когда-нибудь жить чуть менее на поводке у Google, ему нужны собственные денежные потоки. Одно дело - наука и медицина. Другое - рынок. То есть буквально так: построить внутри AI-лаборатории машину по добыче денег из хаоса финансовых котировок. И в этом есть злая ирония эпохи: компания, которая рассказывает про судьбу человечества и суперинтеллект, втихаря пробует обыграть рынок как элитный квант-фонд.
По словам собеседников автора, Хассабиса притягивала не только прибыль, но и сам вайб. Ему хотелось обыграть Джима Саймонса и приблизиться к ауре Renaissance Technologies - закрытого культа математических гениев, который в тишине и секретности печатает деньги. В статье это подано почти без стеснения: Demis нравилась сама эстетика такой структуры - секретность, интеллектуальная элитарность, ощущение, что ты играешь ещё в одну большую игру и снова собираешься её выиграть.
Но дальше вмешалась проза большой корпорации. Google этот проект не одобрял, относился к нему настороженно, и в итоге история закончилась максимально буднично: денег проект не заработал, а команду тихо распустили. Никакой великой тайной печатной машины не получилось.
https://colossus.com/article/project-mario-demis-hassabis-deepmind-mallaby/
@cgevent
😁26🔥8😱4❤2👍1
Wan 2.7 Image
Обещали в марте бахнуть Wan 2.7 Video, но бахнули в апреле и только Image Model.
Четыре модели:
Wan 2.7 Text-to-Image
Wan 2.7 Image-Edit
Wan 2.7 Text-to-Image-Pro - 4K - дороже
Wan 2.7 Image-Edit -Pro - 4K - дороже
На входе до 9 референсов.
Улучшенные лица, HEX-коды для цветов, мелкий текст, по одному промпту до 12 консистентых картинок.
Наваливаемся, тестируем:
https://create.wan.video/generate/image/generate?model=wan2.7-pro
https://wavespeed.ai/collections/wan-2.7
https://modelstudio.console.alibabacloud.com/ap-southeast-1?tab=api#/api/?type=model&url=3026980
Никакого кода, не надейтесь.
@cgevent
Обещали в марте бахнуть Wan 2.7 Video, но бахнули в апреле и только Image Model.
Четыре модели:
Wan 2.7 Text-to-Image
Wan 2.7 Image-Edit
Wan 2.7 Text-to-Image-Pro - 4K - дороже
Wan 2.7 Image-Edit -Pro - 4K - дороже
На входе до 9 референсов.
Улучшенные лица, HEX-коды для цветов, мелкий текст, по одному промпту до 12 консистентых картинок.
Наваливаемся, тестируем:
https://create.wan.video/generate/image/generate?model=wan2.7-pro
https://wavespeed.ai/collections/wan-2.7
https://modelstudio.console.alibabacloud.com/ap-southeast-1?tab=api#/api/?type=model&url=3026980
Никакого кода, не надейтесь.
@cgevent
👎14👍12❤5🙏2
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
Рекламный ролик
Автор: Анна Макарова
Реальная реклама. Ролик размещен в телеграм-каналах с целевой аудиторией и эфирится там уже какое-то время.
Задача: привлечь клиентов на заказы коротких нейровидео для карточек маркетплейсов и соцсетей.
Важно было донести
✔️ возможности нейровидео для создания динамического визуала еды;
✔️ что видео теперь нужно всем, и скоро появится у конкурентов;
✔️ что такое можно получить дешево и быстро.
Поэтому сам ролик тоже делался сравнительно дешево и быстро, я сознательно не стала искать трудоемкие ходы, применять сложные эффекты, делать "арт-авангард".
Половина кадров из тридцати — это девушка на кухне, остальное — подборка фуд-шотов.
На момент создания ролика меня устраивает только Veo по виду фуд-текстур и по их пластике, поэтому 90% кадров из этого генератора. Но "на подхвате" Kling 3.0, плюс пролез один ролик из Seedance 2, когда он недолго был в доступе (на нем осталась маркировка "AI-generated", не заметила).
Самое значимое участие Kling — это нарезка еды в коробке при её первом появлении. Целиком мультишотная генерация оттуда, пошла как вставка "реклама в рекламе". Другие попытки задействовать Kling не удались.
Остальные "пищевые" кадры выбирала свои готовые, подходящие к драматургии по ходу дела.
Кадры на кухне через Nano Banana, стандартный пайплайн. Хорошо встроилась коробка в руки девушке, опять же, думала будет лучше в Kling с Elements, но нет.
Самыми косячными вышли кадры с телефоном, предсказуемо. Повозилась с фотошопными заменами кифреймов, убила много кредитов, тут везде компромиссы.
Сильно завязла на кадре, где из телефона вылетают надписи "В КОРЗИНЕ", всё казалось: еще немного — и получится. Оказалось, что в кириллице нейронка заменяет букву "з" на разные другие, замена на тройку оставляет ее торчать над остальными строчными, замена на капс превращает надпись в закорючки. В итоге это сложный замес из русских и латинских букв и куча круток.
Подытоживая:
- идея, сценарий, генерации, монтаж — Анна Макарова (если тут будет ссылка на канал Смотри: еда! порадуюсь, но не обязательно)
- делался три дня с перерывами
- Veo, Kling, Nano Banana
- монтаж CapCut, трек нашелся там же
Добавлю про музыку: вначале придумалась идея, немного собрался материал, раскидался по монтажу, и дальше под настроение и характер сюжета стала искать трек. Обычно в этот момент нужна какая-то удача и магия. Финальная шлифовка тогда доставляет много удовольствия, когда подгоняешь длительности, чтобы подчеркнуть сюжет музыкой.
@cgevent
Рекламный ролик
Автор: Анна Макарова
Реальная реклама. Ролик размещен в телеграм-каналах с целевой аудиторией и эфирится там уже какое-то время.
Задача: привлечь клиентов на заказы коротких нейровидео для карточек маркетплейсов и соцсетей.
Важно было донести
✔️ возможности нейровидео для создания динамического визуала еды;
✔️ что видео теперь нужно всем, и скоро появится у конкурентов;
✔️ что такое можно получить дешево и быстро.
Поэтому сам ролик тоже делался сравнительно дешево и быстро, я сознательно не стала искать трудоемкие ходы, применять сложные эффекты, делать "арт-авангард".
Половина кадров из тридцати — это девушка на кухне, остальное — подборка фуд-шотов.
На момент создания ролика меня устраивает только Veo по виду фуд-текстур и по их пластике, поэтому 90% кадров из этого генератора. Но "на подхвате" Kling 3.0, плюс пролез один ролик из Seedance 2, когда он недолго был в доступе (на нем осталась маркировка "AI-generated", не заметила).
Самое значимое участие Kling — это нарезка еды в коробке при её первом появлении. Целиком мультишотная генерация оттуда, пошла как вставка "реклама в рекламе". Другие попытки задействовать Kling не удались.
Остальные "пищевые" кадры выбирала свои готовые, подходящие к драматургии по ходу дела.
Кадры на кухне через Nano Banana, стандартный пайплайн. Хорошо встроилась коробка в руки девушке, опять же, думала будет лучше в Kling с Elements, но нет.
Самыми косячными вышли кадры с телефоном, предсказуемо. Повозилась с фотошопными заменами кифреймов, убила много кредитов, тут везде компромиссы.
Сильно завязла на кадре, где из телефона вылетают надписи "В КОРЗИНЕ", всё казалось: еще немного — и получится. Оказалось, что в кириллице нейронка заменяет букву "з" на разные другие, замена на тройку оставляет ее торчать над остальными строчными, замена на капс превращает надпись в закорючки. В итоге это сложный замес из русских и латинских букв и куча круток.
Подытоживая:
- идея, сценарий, генерации, монтаж — Анна Макарова (если тут будет ссылка на канал Смотри: еда! порадуюсь, но не обязательно)
- делался три дня с перерывами
- Veo, Kling, Nano Banana
- монтаж CapCut, трек нашелся там же
Добавлю про музыку: вначале придумалась идея, немного собрался материал, раскидался по монтажу, и дальше под настроение и характер сюжета стала искать трек. Обычно в этот момент нужна какая-то удача и магия. Финальная шлифовка тогда доставляет много удовольствия, когда подгоняешь длительности, чтобы подчеркнуть сюжет музыкой.
@cgevent
👎94👍22😁6❤5🔥5😱3
This media is not supported in your browser
VIEW IN TELEGRAM
Нейрозловещая долина
Тут один аниматор и риггер сделал сетап для Maya(!), который анализирует playblast(черновую анимацию из вьюпорта) и добавляет мех, текстуры, освещение и выполняет рендеринг, сохраняя при этом исходное движение. Ну то есть нейрорендеринг.
В довольно длинном треде аниматоры обсуждают, что нейрорендеринг "скрадывает" и как бы портит исходную анимацию. Крупные движения сохраняются, а мимика становится "дубовой", меньше деталей. Ну и как бы зловещая долина.
Не знаю как насчет долины, но эффект скрадывания деталей действительно есть. Интересно, это результат применения конкретных моделей или в целом нейрорендеринг всегда будет воровать детали? Надо подумать.
@cgevent
Тут один аниматор и риггер сделал сетап для Maya(!), который анализирует playblast(черновую анимацию из вьюпорта) и добавляет мех, текстуры, освещение и выполняет рендеринг, сохраняя при этом исходное движение. Ну то есть нейрорендеринг.
В довольно длинном треде аниматоры обсуждают, что нейрорендеринг "скрадывает" и как бы портит исходную анимацию. Крупные движения сохраняются, а мимика становится "дубовой", меньше деталей. Ну и как бы зловещая долина.
Не знаю как насчет долины, но эффект скрадывания деталей действительно есть. Интересно, это результат применения конкретных моделей или в целом нейрорендеринг всегда будет воровать детали? Надо подумать.
@cgevent
👍31🔥8❤4
Media is too big
VIEW IN TELEGRAM
Нейрорендер + Превиз
В продолжение предыдущего поста. Тут Мигель прислал мне вот такую рекламу, которую он делал для национального ТВ Франции (уже вышла, кстати). На входе - анимация камеры и статические болваны в Блендоре, на выходе нейрорендеринг из Сиданского 2.0
И никакой зловещей долины.
Тут, конечно надо оговориться, что из Блендора вытаскивается только анимация камеры и может быть свет, а анимацию лиц делает Seedance.
Но все равно связка превиз + нейрорендер выглядит очень перспективно.
@cgevent
В продолжение предыдущего поста. Тут Мигель прислал мне вот такую рекламу, которую он делал для национального ТВ Франции (уже вышла, кстати). На входе - анимация камеры и статические болваны в Блендоре, на выходе нейрорендеринг из Сиданского 2.0
И никакой зловещей долины.
Тут, конечно надо оговориться, что из Блендора вытаскивается только анимация камеры и может быть свет, а анимацию лиц делает Seedance.
Но все равно связка превиз + нейрорендер выглядит очень перспективно.
@cgevent
🔥121👍7❤1👎1
RawGen: Image2Raw и Text2Raw
Очень интересная работа от Самсунга
Проблема: модели диффузии превосходно подходят для генерации изображений в цветовом пространстве sRGB; однако sRGB - это нелинейное пространство, display-optimized, и он включает в себя неизвестные эффекты обработки изображений.
Модели генерации обучены не на raw, а на уже прошедших обработку (в разных камерах) фотографиях.
Чуваки взяли адобовский датасет KFive (где есть пары raw<->обработанный_результат) и запустили генерацию "обратно" из sRGB в raw. Под капотом FLUX.1 Kontext (не для генерации, а для редактирования).
На итоге можно подавать на вход любое sRGB-изображение(или текст) и конвертировать его в линейный raw. Причем можно выбирать в raw какой конкретно камеры хочется попасть.
Поглядите тут, пощелкайте по камерам, очень хорошо оформленный проект:
https://dy112.github.io/rawgen-page/
https://arxiv.org/abs/2604.00093 (31 марта 2026)
Кода пока нет, но обещан.
Работа красивая, но в результате все равно получается 8-битный цвет!
Вопрос: как вы выкручиваетесь, если вам надо получить\сдавать HDR и 10-битный цвет, а у вас генерация и 8 бит?
@cgevent
Очень интересная работа от Самсунга
Проблема: модели диффузии превосходно подходят для генерации изображений в цветовом пространстве sRGB; однако sRGB - это нелинейное пространство, display-optimized, и он включает в себя неизвестные эффекты обработки изображений.
Модели генерации обучены не на raw, а на уже прошедших обработку (в разных камерах) фотографиях.
Чуваки взяли адобовский датасет KFive (где есть пары raw<->обработанный_результат) и запустили генерацию "обратно" из sRGB в raw. Под капотом FLUX.1 Kontext (не для генерации, а для редактирования).
На итоге можно подавать на вход любое sRGB-изображение(или текст) и конвертировать его в линейный raw. Причем можно выбирать в raw какой конкретно камеры хочется попасть.
Поглядите тут, пощелкайте по камерам, очень хорошо оформленный проект:
https://dy112.github.io/rawgen-page/
https://arxiv.org/abs/2604.00093 (31 марта 2026)
Кода пока нет, но обещан.
Работа красивая, но в результате все равно получается 8-битный цвет!
Вопрос: как вы выкручиваетесь, если вам надо получить\сдавать HDR и 10-битный цвет, а у вас генерация и 8 бит?
@cgevent
🔥16❤3
Интересно, как раскатывают Сидэнского
"Seedance 2.0 is live on OpenArt - for Teams & Enterprise users first" - только для корпоративных пользователей и компаний. Со своими ценами по договоренности.
Up to 9 images, 3 videos, and 3 audio files как референсы.
Но.
Я покопался в ценах, сейчас скидка 60% на тариф Teams, он стоит 35 долларов за место в месяц.
Покопался еще: должно быть минимум три места на команду.
Прошел дальше: получается 42 доллара в месяц, при этом:
12,000 credits / member / month
Flexible shared credits—no individual limits
Add extra credits anytime
Дальше надо смотреть, соотношение кредиты\видосы. Пишут, что это 150 videos (на человека?), но непонятно, какой моделью.
В общем процесс пошел, но для простых смертных и пользователей из Штатов (тут забавно, конечно) - вейтлист:
US & individual users: join the waitlist for early access
https://openart.ai/ai-model/seedance-2-0/
@cgevent
"Seedance 2.0 is live on OpenArt - for Teams & Enterprise users first" - только для корпоративных пользователей и компаний. Со своими ценами по договоренности.
Up to 9 images, 3 videos, and 3 audio files как референсы.
Но.
Я покопался в ценах, сейчас скидка 60% на тариф Teams, он стоит 35 долларов за место в месяц.
Покопался еще: должно быть минимум три места на команду.
Прошел дальше: получается 42 доллара в месяц, при этом:
12,000 credits / member / month
Flexible shared credits—no individual limits
Add extra credits anytime
Дальше надо смотреть, соотношение кредиты\видосы. Пишут, что это 150 videos (на человека?), но непонятно, какой моделью.
В общем процесс пошел, но для простых смертных и пользователей из Штатов (тут забавно, конечно) - вейтлист:
US & individual users: join the waitlist for early access
https://openart.ai/ai-model/seedance-2-0/
@cgevent
😁19👍11😱2👎1
Forwarded from Нейросети и Блендер
Нашёл интересный проект - top3d.ai.
Ребята сделали слепую арену для сравнения 3D AI генераторов. Работает просто: две модели рядом, названия скрыты, голосуешь за лучшую. Уже больше 100 000 голосов.
Залип на лидерборде и вот что заметил:
🥵 Лидер рейтинга сменился буквально за 10 дней - вышла новая версия YVO3D и перетасовала всё
🥵 Open-source инструменты (Hunyuan, стабильно держатся в топе - платные не всегда выигрывают
🥵 Разница между топами - считанные очки ELO. Одно обновление и ситуация меняется
🥵 Самое интересное - некоторые генераторы делают отличную геометрию но слабые текстуры, и наоборот. Универсального лидера пока нет
Ещё у них появились два новых режима:
🧩 Segmentation - сравнение качества разбивки моделей на части
🧊 Low Poly - отдельный рейтинг для low-poly
☺️ Плюс на страницах инструментов бывают промо-коды на скидки.
В целом если работаете с 3D AI - полезная платформа чтобы понимать что сейчас реально работает, ещё и полностью бесплатно.
ссылка
#AI #3D #Blender #нейросети #benchmark
Ребята сделали слепую арену для сравнения 3D AI генераторов. Работает просто: две модели рядом, названия скрыты, голосуешь за лучшую. Уже больше 100 000 голосов.
Залип на лидерборде и вот что заметил:
Ещё у них появились два новых режима:
🧩 Segmentation - сравнение качества разбивки моделей на части
🧊 Low Poly - отдельный рейтинг для low-poly
В целом если работаете с 3D AI - полезная платформа чтобы понимать что сейчас реально работает, ещё и полностью бесплатно.
ссылка
#AI #3D #Blender #нейросети #benchmark
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥31👍16❤2😁1
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
Фильм Final Level (Последний Уровень)
Автор:
Режиссер и сценарист, Сергей Афонин (тг @aintso + сайт https://www.sergeiafonin.com/ )
Коротко про идею
У меня была идея полнометражной истории: на условном японском острове люди играют в портативные консоли, в битву драконов, и драконы из игры начинают прорываться в реальный мир. При этом конфликты и отношения между людьми отражаются в игре. Этот шорт такой упрощенный тест идеи и мира: 3 минуты про мальчика в поезде, у которого игра постепенно становится реальностью за окном и превращается в экшн-сцену битвы драконов в горах.
Производство
Делал все один. После написания сценария, делал первые look&feel стилы через ChatGPT, Midjourney и Nano Banana. После появления более менее устраивающих мастер-сцен перешёл в Higgsfield Cinema Studio (насколько я понимаю, у них там обертка над Kling) и там уже докрутил и финализировал мастер сцены и персонажей (как отдельные ассеты там можно сохранять персов и их тегать в промптах, + локейшн (долина, интерьер поезда) + пропсы (игровая консоль). Анимацию делал тоже в основном в Higgsfield. Отдельные шоты и вариации напрямую в Kling 3.0 и Veo 3.1
Звук + sfx — Suno + AudioJungle
Легкий композ (артефакты, пересечения, чистка экранов) — After Effects + Premiere. Монтаж в Premiere + использовал Adobe Firefly (object masking, generative extend / доращивание футажей).
По времени ~ 10 дней плотной работы
По деньгам ~$200 (подписки и кредиты)
@cgevent
Фильм Final Level (Последний Уровень)
Автор:
Режиссер и сценарист, Сергей Афонин (тг @aintso + сайт https://www.sergeiafonin.com/ )
Коротко про идею
У меня была идея полнометражной истории: на условном японском острове люди играют в портативные консоли, в битву драконов, и драконы из игры начинают прорываться в реальный мир. При этом конфликты и отношения между людьми отражаются в игре. Этот шорт такой упрощенный тест идеи и мира: 3 минуты про мальчика в поезде, у которого игра постепенно становится реальностью за окном и превращается в экшн-сцену битвы драконов в горах.
Производство
Делал все один. После написания сценария, делал первые look&feel стилы через ChatGPT, Midjourney и Nano Banana. После появления более менее устраивающих мастер-сцен перешёл в Higgsfield Cinema Studio (насколько я понимаю, у них там обертка над Kling) и там уже докрутил и финализировал мастер сцены и персонажей (как отдельные ассеты там можно сохранять персов и их тегать в промптах, + локейшн (долина, интерьер поезда) + пропсы (игровая консоль). Анимацию делал тоже в основном в Higgsfield. Отдельные шоты и вариации напрямую в Kling 3.0 и Veo 3.1
Звук + sfx — Suno + AudioJungle
Легкий композ (артефакты, пересечения, чистка экранов) — After Effects + Premiere. Монтаж в Premiere + использовал Adobe Firefly (object masking, generative extend / доращивание футажей).
По времени ~ 10 дней плотной работы
По деньгам ~$200 (подписки и кредиты)
@cgevent
👎41🔥26👍23❤8😁7
Чуваки протестировали и сравнили Wan 2.7 и Нанабанану.
Посмотрите результаты тут:
https://medium.com/@302.AI/is-it-a-productivity-tool-or-a-step-back-8f7ed87c3b28
Хорошо оформлено. Много картинок.
Вердикт:
"После шести раундов тестирования приходится признать: Wan 2.7-Image-Pro не оправдывает маркетингового ажиотажа.
Плюсы: Его возможности по созданию портретов людей действительно находятся на высшем уровне. Если вам нужно создавать аутентичных персонажей с высокой степенью реалистичности и уникальным строением скелета, это отличный выбор.
Минусы: его возможности «рендеринга длинного текста», «интерактивного редактирования» и «верстки», которые рекламировались как значительные улучшения, показали плохие результаты в реальных сценариях. Мы обнаружили, что взаимодействие с масками редактирования было нестабильным, а рендеринг текста в основном был ненадежным для профессиональной дизайнерской работы."
Расходимсо.
@cgevent
Посмотрите результаты тут:
https://medium.com/@302.AI/is-it-a-productivity-tool-or-a-step-back-8f7ed87c3b28
Хорошо оформлено. Много картинок.
Вердикт:
"После шести раундов тестирования приходится признать: Wan 2.7-Image-Pro не оправдывает маркетингового ажиотажа.
Плюсы: Его возможности по созданию портретов людей действительно находятся на высшем уровне. Если вам нужно создавать аутентичных персонажей с высокой степенью реалистичности и уникальным строением скелета, это отличный выбор.
Минусы: его возможности «рендеринга длинного текста», «интерактивного редактирования» и «верстки», которые рекламировались как значительные улучшения, показали плохие результаты в реальных сценариях. Мы обнаружили, что взаимодействие с масками редактирования было нестабильным, а рендеринг текста в основном был ненадежным для профессиональной дизайнерской работы."
Расходимсо.
@cgevent
👍25👎3❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Wan 2.7 Video доступен везде.
На самом https://create.wan.video/generate
А также на Фал и все остальных агрегаторах (replicate, wavespeed)
Три модели:
https://fal.ai/models/fal-ai/wan/v2.7/text-to-video
https://fal.ai/models/fal-ai/wan/v2.7/reference-to-video
https://fal.ai/models/fal-ai/wan/v2.7/edit-video
Забавно, что в твитторе и блоге Вана - тихо. Никакой инфы про новые фичи.
Наковырял подробностей:
4K output and multi-shot storytelling
• Motion & camera replication
• Seamless scene extension
• Consistent characters
• Long-form text (12 languages)
Тестируем, комментируем.
@cgevent
На самом https://create.wan.video/generate
А также на Фал и все остальных агрегаторах (replicate, wavespeed)
Три модели:
https://fal.ai/models/fal-ai/wan/v2.7/text-to-video
https://fal.ai/models/fal-ai/wan/v2.7/reference-to-video
https://fal.ai/models/fal-ai/wan/v2.7/edit-video
Забавно, что в твитторе и блоге Вана - тихо. Никакой инфы про новые фичи.
Наковырял подробностей:
4K output and multi-shot storytelling
• Motion & camera replication
• Seamless scene extension
• Consistent characters
• Long-form text (12 languages)
Тестируем, комментируем.
@cgevent
👎9😱9🔥4❤3👍2
Как нагенерить за 60 секунд. В Сиденском.
Коль скоро Seedance доступен только для компаний, сделал вот такую коллабу с INCYMO.AI - у них уже есть Сиденский для своего сервиса генерации и аналитики рекламных креативов. Попросил их сделать промокод на месяц бесплатной подписки на сервис.
Надо зайти сюда: https://incymo.ai/app/, пропустить начальный экран, залогиниться гуглом или мейлом, и слева жать на Video.
Чтобы генерить, надо сделать бесплатную подписку в меню справа -> Subscription и ниже ввести промокод Metaverse. Никаких карточек вводить не надо.
Получите кредитов на 60 секунд генерации в Сиденском, и 95 секунд генерации в Seedeace 2.0 Fast. Немного, но мы же тут про бесплатные генерации, так?
Можете добавлять референсные кадры, генерить их прямо на платформе, а также экстендить видео и пр.
А дальше я должен рассказать про сам сервис.
Чтобы удобно и быстро генерировать рекламные ролики на основе данных конкурентов, INCYMO.AI добавили Spy Service сразу в платформу - можно отбирать видео и обучать на них систему под свои задачи.
1. Выбираешь/подгружаешь ролики конкурентов/свои
2. Получаешь отчет и сценарии
3. Выбираешь модель (лучше Sora 2 для роликов с текстом и тем более на русском даже Seedance 2 не справляется) и получаешь ролик
При этом понравившийся ролик можно улучшить сразу из платформы при помощи маркетплейса дизайнеров. За 20 баксов можно получить такой результат (приложил), доплатив побольше - получите полный фарш. При этом дизайнера подберут за вас, останется только дать правки (до 3х итераций) и забрать результат.
А сейчас ловите промокод на месяц бесплатного спай сервиса, аналитику и генерации полноценных видео из одного окна с выбором топовых рыночных моделей! НО он активен до конца воскресенья, так что торопитесь!
Ссылка на платформу: https://incymo.ai/app/
Промокод (вводить на странице subscription): Metaverse
Для получения максимального результата советую забукать демо с основательницей - она проведет по платформе до классных результатов и добавит доп кредиты, если потребуется:
https://meetings.hubspot.com/anna-zdorenko
Чтобы сервис не рухнул, пока работают первые 150 регистраций.
@cgevent
Коль скоро Seedance доступен только для компаний, сделал вот такую коллабу с INCYMO.AI - у них уже есть Сиденский для своего сервиса генерации и аналитики рекламных креативов. Попросил их сделать промокод на месяц бесплатной подписки на сервис.
Надо зайти сюда: https://incymo.ai/app/, пропустить начальный экран, залогиниться гуглом или мейлом, и слева жать на Video.
Чтобы генерить, надо сделать бесплатную подписку в меню справа -> Subscription и ниже ввести промокод Metaverse. Никаких карточек вводить не надо.
Получите кредитов на 60 секунд генерации в Сиденском, и 95 секунд генерации в Seedeace 2.0 Fast. Немного, но мы же тут про бесплатные генерации, так?
Можете добавлять референсные кадры, генерить их прямо на платформе, а также экстендить видео и пр.
А дальше я должен рассказать про сам сервис.
Чтобы удобно и быстро генерировать рекламные ролики на основе данных конкурентов, INCYMO.AI добавили Spy Service сразу в платформу - можно отбирать видео и обучать на них систему под свои задачи.
1. Выбираешь/подгружаешь ролики конкурентов/свои
2. Получаешь отчет и сценарии
3. Выбираешь модель (лучше Sora 2 для роликов с текстом и тем более на русском даже Seedance 2 не справляется) и получаешь ролик
При этом понравившийся ролик можно улучшить сразу из платформы при помощи маркетплейса дизайнеров. За 20 баксов можно получить такой результат (приложил), доплатив побольше - получите полный фарш. При этом дизайнера подберут за вас, останется только дать правки (до 3х итераций) и забрать результат.
А сейчас ловите промокод на месяц бесплатного спай сервиса, аналитику и генерации полноценных видео из одного окна с выбором топовых рыночных моделей! НО он активен до конца воскресенья, так что торопитесь!
Ссылка на платформу: https://incymo.ai/app/
Промокод (вводить на странице subscription): Metaverse
Для получения максимального результата советую забукать демо с основательницей - она проведет по платформе до классных результатов и добавит доп кредиты, если потребуется:
https://meetings.hubspot.com/anna-zdorenko
Чтобы сервис не рухнул, пока работают первые 150 регистраций.
@cgevent
1❤27😁17👎12🔥4👍1
NFX
AI Zen
Top founders in Silicon Valley are unlocking a new mindset with Claude Opus 4.6. We call it AI Zen — a new way to build and think with AI.
ИИ-Дзен
Это не исследование от Стэнфорда или британских учоных, это частное наблюдение.
Но мне оно нравится тем, что возвращает меня к мысли о том, что восстание машин будет не снаружи - они просто залезут к нам в голову.
https://www.nfx.com/post/ai-zen
Ниже выжимка на русском:
Статья AI Zen - это не столько анализ технологий, сколько попытка психологически успокоить людей, которых новые модели начали выбивать из привычной картины мира. Автор утверждает, что после релиза новых ИИ-моделей в феврале 2026 года многие умные, амбициозные люди впервые по-настоящему почувствовали себя заменимыми: раньше ИИ казался просто продвинутым инструментом, а теперь начинает ощущаться как версия тебя самого, только быстрее, яснее и местами умнее.
Отсюда и метафора “AI Zen”. Автор сравнивает нынешний момент с дзен-практикой и состоянием “zen sickness” - болезненной дезориентацией, которая возникает, когда у человека рушится старое ощущение себя и мира. По его мысли, именно это сейчас и происходит с людьми, столкнувшимися с ИИ нового уровня: ломается эго-конструкция, в которой твой интеллект был главным активом и источником контроля.
Дальше автор предлагает не бороться с этим сдвигом, а принять его. Его рецепт довольно простой: больше взаимодействовать с ИИ, перестать цепляться за старую идентичность, меньше паниковать и учиться “flow and adaptability” - гибкости, текучести, готовности быстро перестраиваться. Он прямо говорит, что будущее становится менее предсказуемым, а потому выигрывать будут не самые самоуверенные, а самые адаптивные.
Чтобы усилить пафос, автор сравнивает нынешний AI-сдвиг с эффектом атомной бомбы после Второй мировой: человечество вдруг осознало, что мир стал радикально другим, а старые правила больше не гарантируют безопасности и понятности. Но вместо doom-настроения автор продавливает довольно типичную для VC-мира мантру: не ной, адаптируйся.
Если совсем по сути, AI Zen - это текст о том, что ИИ уже начинает бить не только по профессиям, но и по человеческому самовосприятию. И ответ автор видит не в сопротивлении, а в капитуляции части старого эго: меньше держаться за статус “я умный и потому незаменимый”, больше учиться жить рядом с машинами, которые всё чаще делают когнитивную работу лучше людей. Звучит как бы мудро, но между строк читается и другое: нас аккуратно приучают к новой норме, где психологическая адаптация к собственной частичной ненужности подаётся как почти духовная практика.
@cgevent
Это не исследование от Стэнфорда или британских учоных, это частное наблюдение.
Но мне оно нравится тем, что возвращает меня к мысли о том, что восстание машин будет не снаружи - они просто залезут к нам в голову.
https://www.nfx.com/post/ai-zen
Ниже выжимка на русском:
Статья AI Zen - это не столько анализ технологий, сколько попытка психологически успокоить людей, которых новые модели начали выбивать из привычной картины мира. Автор утверждает, что после релиза новых ИИ-моделей в феврале 2026 года многие умные, амбициозные люди впервые по-настоящему почувствовали себя заменимыми: раньше ИИ казался просто продвинутым инструментом, а теперь начинает ощущаться как версия тебя самого, только быстрее, яснее и местами умнее.
Отсюда и метафора “AI Zen”. Автор сравнивает нынешний момент с дзен-практикой и состоянием “zen sickness” - болезненной дезориентацией, которая возникает, когда у человека рушится старое ощущение себя и мира. По его мысли, именно это сейчас и происходит с людьми, столкнувшимися с ИИ нового уровня: ломается эго-конструкция, в которой твой интеллект был главным активом и источником контроля.
Дальше автор предлагает не бороться с этим сдвигом, а принять его. Его рецепт довольно простой: больше взаимодействовать с ИИ, перестать цепляться за старую идентичность, меньше паниковать и учиться “flow and adaptability” - гибкости, текучести, готовности быстро перестраиваться. Он прямо говорит, что будущее становится менее предсказуемым, а потому выигрывать будут не самые самоуверенные, а самые адаптивные.
Чтобы усилить пафос, автор сравнивает нынешний AI-сдвиг с эффектом атомной бомбы после Второй мировой: человечество вдруг осознало, что мир стал радикально другим, а старые правила больше не гарантируют безопасности и понятности. Но вместо doom-настроения автор продавливает довольно типичную для VC-мира мантру: не ной, адаптируйся.
Если совсем по сути, AI Zen - это текст о том, что ИИ уже начинает бить не только по профессиям, но и по человеческому самовосприятию. И ответ автор видит не в сопротивлении, а в капитуляции части старого эго: меньше держаться за статус “я умный и потому незаменимый”, больше учиться жить рядом с машинами, которые всё чаще делают когнитивную работу лучше людей. Звучит как бы мудро, но между строк читается и другое: нас аккуратно приучают к новой норме, где психологическая адаптация к собственной частичной ненужности подаётся как почти духовная практика.
@cgevent
👍27👎16❤7😁6🙏6😱1
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
Владимир Маяковский - Письмо Татьяне Яковлевой.
Автор: Артем
Видео сделано в сентябре 2025.
Хронометраж в этот раз получился почти 5 минут.
Изображения: миджорни, банана, сидрим 4.
Видео стандартный набор: почти все клинг (перестал немного шакалить руки, может обновился), также вео3, сиденс, хайлуо и ранвей для липсинга.
Ну и суно конечно.
В клинге ушло 15000 кредитов, суно 3000, креа 70% от максималки. Ранвей безлимит, мидж безлимит.
Время около 70 часов.
@cgevent
Владимир Маяковский - Письмо Татьяне Яковлевой.
Автор: Артем
Видео сделано в сентябре 2025.
Хронометраж в этот раз получился почти 5 минут.
Изображения: миджорни, банана, сидрим 4.
Видео стандартный набор: почти все клинг (перестал немного шакалить руки, может обновился), также вео3, сиденс, хайлуо и ранвей для липсинга.
Ну и суно конечно.
В клинге ушло 15000 кредитов, суно 3000, креа 70% от максималки. Ранвей безлимит, мидж безлимит.
Время около 70 часов.
@cgevent
1👎90🔥25👍12❤3😱3
GPT-Image-2
На арене появились и исчезли три новые модели: maskingtape, packingtape, gaffertape.
Скорее всего это новая версия генератора картинок от OpenAI.
Модели дико прошарены в world knowledge(поглядите на анатомию) и также дико прошарены в самые мелкие тексты (скрины Ютюб и кода сгенерированы).
Похоже что для иллюстративной графики это прорыв.
Есть версии, что:
> maskingtape-alpha = segmentation + inpainting focus
> gaffertape-alpha = production-ready (gaffer = film production)
> packingtape-alpha = shipping/texture/materials
Но это не так важно пока.
Важно, что под капотом не старая 4о, а одна из новых моделей. Интересно какая?
Нанабанана нервно генерит и закуривает овальные сигареты...
@cgevent
На арене появились и исчезли три новые модели: maskingtape, packingtape, gaffertape.
Скорее всего это новая версия генератора картинок от OpenAI.
Модели дико прошарены в world knowledge(поглядите на анатомию) и также дико прошарены в самые мелкие тексты (скрины Ютюб и кода сгенерированы).
Похоже что для иллюстративной графики это прорыв.
Есть версии, что:
> maskingtape-alpha = segmentation + inpainting focus
> gaffertape-alpha = production-ready (gaffer = film production)
> packingtape-alpha = shipping/texture/materials
Но это не так важно пока.
Важно, что под капотом не старая 4о, а одна из новых моделей. Интересно какая?
Нанабанана нервно генерит и закуривает овальные сигареты...
@cgevent
10🔥81❤13👍8👎3😁1