Media is too big
VIEW IN TELEGRAM
Veo 3.1 супротив Kling 2.6
Мнение автора:
Хотя Veo 3.1 превзошел Kling 2.6 в тесте с крупным планом, он немного уступил в всех остальных тестах. В результатах Veo 3.1 объекты появлялись случайным образом, а движения камеры были резкими или не соответствовали команде. Не поймите меня неправильно, Kling 2.6 определенно имел свои недостатки (его звук был тише и часто не соответствовал промпту). Тем не менее, Kling 2.6 впечатлил меня больше, чем я предполагал. Хотя преимущество было небольшим, я бы отдал Kling 2.6 небольшое преимущество в этом раунде тестов.
@cgevent
Мнение автора:
Хотя Veo 3.1 превзошел Kling 2.6 в тесте с крупным планом, он немного уступил в всех остальных тестах. В результатах Veo 3.1 объекты появлялись случайным образом, а движения камеры были резкими или не соответствовали команде. Не поймите меня неправильно, Kling 2.6 определенно имел свои недостатки (его звук был тише и часто не соответствовал промпту). Тем не менее, Kling 2.6 впечатлил меня больше, чем я предполагал. Хотя преимущество было небольшим, я бы отдал Kling 2.6 небольшое преимущество в этом раунде тестов.
@cgevent
👍48😁12❤9👎2
Гугл демпингует и давит конкурентов бесплатными тарифами.
Opus 4.5 теперь доступен в Antigravity бесплатно...
@cgevent
Opus 4.5 теперь доступен в Antigravity бесплатно...
@cgevent
👍59😱36🔥17❤6👎2
This media is not supported in your browser
VIEW IN TELEGRAM
KlingAI Avatar 2.0
Четвертый день омниканальных новостей от Клинга.
Опять липсинк, музика, пестни и говорящие головы.
Но. Длительность ПЯТЬ МИНУТ.
Жрет кредиты как не в себя, поэтому только на платных тарифных планах Клинга. Остальные еще не расчехлились, ждем.
Хедра, конечна, приподвзвыла...
@cgevent
Четвертый день омниканальных новостей от Клинга.
Опять липсинк, музика, пестни и говорящие головы.
Но. Длительность ПЯТЬ МИНУТ.
Жрет кредиты как не в себя, поэтому только на платных тарифных планах Клинга. Остальные еще не расчехлились, ждем.
Хедра, конечна, приподвзвыла...
@cgevent
😁30👍16❤10🔥1
Media is too big
VIEW IN TELEGRAM
Code Maestro Update
CEO Unity недавно выдал базу на совете директоров: AI-инструменты напрямую будут бустить discoverability игр. Тут все понятно - порог входа меняется. Новые ребята залетают в индустрию уже с нейронками в руках, и игнорировать это странно.
В этом контексте интересно глянуть, куда движется Code Maestro (я про них уже писал, это тот самый "Cursor для Unity и HTML5"). Ребята не стоят на месте.
Они выкатили пару вещей, которые реально меняют пайплайн, особенно для небольших команд:
Сделали Reskin Mode. Это прямо спасение от рутины. Нужно обновить сезонный ивент или перекрасить пак? ИИ сам меняет графику, ID и структуру, не ломая логику.
UI теперь генерится текстом или по примеру из скриншота. Описываешь экран - получаешь лэйаут с компонентами и стейтами. Минус один круг ада согласований между дизайном и версткой.
Под капотом теперь выбор: можно переключаться между Sonnet 4.5, Gemini 3 Pro, GPT-5.1 и Opus 4.5. Для разных задач - разная модель (и разная цена в кредитах), но у ребят все сильно оптимизировано под минимальный расход кредов.
Плюс добавили поддержку Cocos, Pixi.js, Three.js, Phaser, PlayCanvas и других HTML5 движков, а также любых .NET проектов.
Мой тейк такой: бояться, что ИИ напишет говнокод, не стоит - люди с этим справляются ничуть не хуже. А вот взять его как партнера, чтобы спихнуть рутину - годно.
Там есть Free Trial, можно прогнать на своем проекте бесплатно. Если будете брать кредиты - сейчас накидывают +30% сверху.
https://www.code-maestro.com/
@cgevent
CEO Unity недавно выдал базу на совете директоров: AI-инструменты напрямую будут бустить discoverability игр. Тут все понятно - порог входа меняется. Новые ребята залетают в индустрию уже с нейронками в руках, и игнорировать это странно.
В этом контексте интересно глянуть, куда движется Code Maestro (я про них уже писал, это тот самый "Cursor для Unity и HTML5"). Ребята не стоят на месте.
Они выкатили пару вещей, которые реально меняют пайплайн, особенно для небольших команд:
Сделали Reskin Mode. Это прямо спасение от рутины. Нужно обновить сезонный ивент или перекрасить пак? ИИ сам меняет графику, ID и структуру, не ломая логику.
UI теперь генерится текстом или по примеру из скриншота. Описываешь экран - получаешь лэйаут с компонентами и стейтами. Минус один круг ада согласований между дизайном и версткой.
Под капотом теперь выбор: можно переключаться между Sonnet 4.5, Gemini 3 Pro, GPT-5.1 и Opus 4.5. Для разных задач - разная модель (и разная цена в кредитах), но у ребят все сильно оптимизировано под минимальный расход кредов.
Плюс добавили поддержку Cocos, Pixi.js, Three.js, Phaser, PlayCanvas и других HTML5 движков, а также любых .NET проектов.
Мой тейк такой: бояться, что ИИ напишет говнокод, не стоит - люди с этим справляются ничуть не хуже. А вот взять его как партнера, чтобы спихнуть рутину - годно.
Там есть Free Trial, можно прогнать на своем проекте бесплатно. Если будете брать кредиты - сейчас накидывают +30% сверху.
https://www.code-maestro.com/
@cgevent
7🔥17❤8👍8👎3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini 3 Deep Think
Только для подписки Ultra.
Не очень понимаю, почему не сделали 1-2 запроса в день для подписки Pro.
@cgevent
Только для подписки Ultra.
Не очень понимаю, почему не сделали 1-2 запроса в день для подписки Pro.
@cgevent
😱30🔥17👍10👎3❤1
Media is too big
VIEW IN TELEGRAM
Апдейт VibeVoice от Микрософта.
Это опенсорсная генерилка аудио по тексту (TTS).
Теперь это практически реалтайм стриминг аудио с маленькой моделью:
• задержка всего 0.3s, но на A100
• 0.5B TTS model
• Поддержка длинных генераций
https://huggingface.co/microsoft/VibeVoice-Realtime-0.5B
@cgevent
Это опенсорсная генерилка аудио по тексту (TTS).
Теперь это практически реалтайм стриминг аудио с маленькой моделью:
• задержка всего 0.3s, но на A100
• 0.5B TTS model
• Поддержка длинных генераций
https://huggingface.co/microsoft/VibeVoice-Realtime-0.5B
@cgevent
1👍22👎7🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Gaussian Splat Splines
Может показаться, что это частицы в Maya или Houdini.
Но нет, это такое лихое управление гауссовым сплатами. Я, честно сказать, такого еще не встречал.
Это анимация сплатов вдоль кривых Безье.
И это как бы реалтайм. Там даже есть есть "per-particle" аттрибуты, ну то есть Per-splat speed variation + noise displacement - вариация скорости индивидуальных сплатов.
Не уверен про практические кейсы, возможно в эффектах или motion design пригодится...
Я когда-то писал плагин для конвертации Maya Paint Effects в частицы, это чем-то напомнило процесс.
@cgevent
Может показаться, что это частицы в Maya или Houdini.
Но нет, это такое лихое управление гауссовым сплатами. Я, честно сказать, такого еще не встречал.
Это анимация сплатов вдоль кривых Безье.
И это как бы реалтайм. Там даже есть есть "per-particle" аттрибуты, ну то есть Per-splat speed variation + noise displacement - вариация скорости индивидуальных сплатов.
Не уверен про практические кейсы, возможно в эффектах или motion design пригодится...
Я когда-то писал плагин для конвертации Maya Paint Effects в частицы, это чем-то напомнило процесс.
@cgevent
👍23❤6🔥3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Ну наконец-то нормальное применение робатов в повседневной жизни.
Это вам не показательные съемки на камеру как ванильный робат разбирает посудомойку или складывает полотенца.
Это реальный повседневный рабский труд на благо продажи одежды для кожаных.
Манекены за 30 косых - вот о чем мечтают ритейлеры.
P.S. У меня правда есть вопросы: где страховочный трос? Ибо если рабы слетят скатушек дорожки и пойдут строевым шагом перемалывать мясных по всему моллу, то с камер наблюдения можно снимать документальный фильм ужасов.
@cgevent
Это вам не показательные съемки на камеру как ванильный робат разбирает посудомойку или складывает полотенца.
Это реальный повседневный рабский труд на благо продажи одежды для кожаных.
Манекены за 30 косых - вот о чем мечтают ритейлеры.
P.S. У меня правда есть вопросы: где страховочный трос? Ибо если рабы слетят с
@cgevent
1😁73❤10🔥7😱7👎6👍4
Никак не могу прийти в себя, после того что Warner Brothers сделали с Suno и Udio.
Очень странный прецедент.
Получается, что на картинках из интернета обучаться можно, что можно спарсить все видосы и натренировать видеогенераторы, про тексты я вообще молчу, а именно музыку(звук) нельзя использовать для обучения.
И что именно музыкальные генераторы надо тренировать на некоем сферически-вакуумном контенте.
Пример Адоба и провала такого подхода к картинкам и видео, говорит нам о том, что ничего хорошего не получается.
Но факт остается фактом - Suno и Udio удалят свои натренированные в 2025 году модели, и выкатят кастрированные версии в 2026 году.
Почему?
Потому что в музыкальной индустрии больше денег, злее юристы и больше крупных олигархов от музыки?
Почему видео можно, а музыку нельзя?
@cgevent
Очень странный прецедент.
Получается, что на картинках из интернета обучаться можно, что можно спарсить все видосы и натренировать видеогенераторы, про тексты я вообще молчу, а именно музыку(звук) нельзя использовать для обучения.
И что именно музыкальные генераторы надо тренировать на некоем сферически-вакуумном контенте.
Пример Адоба и провала такого подхода к картинкам и видео, говорит нам о том, что ничего хорошего не получается.
Но факт остается фактом - Suno и Udio удалят свои натренированные в 2025 году модели, и выкатят кастрированные версии в 2026 году.
Почему?
Потому что в музыкальной индустрии больше денег, злее юристы и больше крупных олигархов от музыки?
Почему видео можно, а музыку нельзя?
@cgevent
2😱106👍26❤16👎4🔥3😁1🙏1
Media is too big
VIEW IN TELEGRAM
Kling Element Library
Пятый день омниновостей от Клинга.
Element Library - инструмент для создания ультра-консистентных элементов(ассетов) с легким доступом для генерации видео.
Генерите свои элементы (Клинг зовет их elements) с изображениями с разных ракурсов, и Kling O1 запомнит ваших персонажей, предметы и фоны, чтобы обеспечить консистентные результаты независимо от того, как движется камера или как развивается сцена.
Генерить разные ракурсы можете как новым Kling IMAGE O1, так и Нанабананой.
Очень грубо говоря, это библиотека Лор, без всяких тренировок.
@cgevent
Пятый день омниновостей от Клинга.
Element Library - инструмент для создания ультра-консистентных элементов(ассетов) с легким доступом для генерации видео.
Генерите свои элементы (Клинг зовет их elements) с изображениями с разных ракурсов, и Kling O1 запомнит ваших персонажей, предметы и фоны, чтобы обеспечить консистентные результаты независимо от того, как движется камера или как развивается сцена.
Генерить разные ракурсы можете как новым Kling IMAGE O1, так и Нанабананой.
Очень грубо говоря, это библиотека Лор, без всяких тренировок.
@cgevent
👍43❤12🔥10👎1
LongCat Image - еще одна опенсорсная Нанабанана.
Вслед за Зимажем (Z-Image) мы имеем еще одну легкую (6В!) опенсорсную китайскую модель для генерации картинок.
Сначала смешное: я уже писал про LongCat Video - тут можете почитать о том, что крупный китайский доставщик еды тренирует свои базовые модели(?!!).
И теперь они бахнули модель для генерации и редактирования картинок - LongCat Image. И примечательна он тем, что она во-первых, легкая (6B), а, во-вторых, имеет версию -EDIT для редактирования. И в отличие от Зимажа, редактирующая модель уже готова.
Я немного пощупал обе модели и мой спойлер такой:
- в генерации картинок LongCat Image воще не силен, похвастаться ему просто нечем.
- а вот в редактировании он оказался неожиданно неплох. Я, правда, погонял его в режиме раздеватора, и он справился без базара и цензуры. Более сложное редактирование оставляю вам, пишите в коментарии, как он по сравнению с Бананой.
На итоге у нас следующее:
Пока BFL выпускает монстроподобные Флюкс-модели на 60 гиг, пока мы ждем новый Qwen Edit и Z-Image Edit, у нас есть опенсорсная легкая модель для редактирования картинок от доставщика еды в Китае.
В интересное время живем...
Нашел для вас два демо-спейса:
https://huggingface.co/spaces/anycoderapps/LongCat-Image-Edit
https://huggingface.co/spaces/AiSudo/LongCat-Image
Есть еще чат:
https://longcat.chat/
Код тут:
https://github.com/meituan-longcat/LongCat-Image
Модели:
https://huggingface.co/meituan-longcat/LongCat-Image
https://huggingface.co/meituan-longcat/LongCat-Image-Dev (модель для файнтюга)
https://huggingface.co/meituan-longcat/LongCat-Image-Edit
Комфи? Какой-такой Комфи?
@cgevent
Вслед за Зимажем (Z-Image) мы имеем еще одну легкую (6В!) опенсорсную китайскую модель для генерации картинок.
Сначала смешное: я уже писал про LongCat Video - тут можете почитать о том, что крупный китайский доставщик еды тренирует свои базовые модели(?!!).
И теперь они бахнули модель для генерации и редактирования картинок - LongCat Image. И примечательна он тем, что она во-первых, легкая (6B), а, во-вторых, имеет версию -EDIT для редактирования. И в отличие от Зимажа, редактирующая модель уже готова.
Я немного пощупал обе модели и мой спойлер такой:
- в генерации картинок LongCat Image воще не силен, похвастаться ему просто нечем.
- а вот в редактировании он оказался неожиданно неплох. Я, правда, погонял его в режиме раздеватора, и он справился без базара и цензуры. Более сложное редактирование оставляю вам, пишите в коментарии, как он по сравнению с Бананой.
На итоге у нас следующее:
Пока BFL выпускает монстроподобные Флюкс-модели на 60 гиг, пока мы ждем новый Qwen Edit и Z-Image Edit, у нас есть опенсорсная легкая модель для редактирования картинок от доставщика еды в Китае.
В интересное время живем...
Нашел для вас два демо-спейса:
https://huggingface.co/spaces/anycoderapps/LongCat-Image-Edit
https://huggingface.co/spaces/AiSudo/LongCat-Image
Есть еще чат:
https://longcat.chat/
Код тут:
https://github.com/meituan-longcat/LongCat-Image
Модели:
https://huggingface.co/meituan-longcat/LongCat-Image
https://huggingface.co/meituan-longcat/LongCat-Image-Dev (модель для файнтюга)
https://huggingface.co/meituan-longcat/LongCat-Image-Edit
Комфи? Какой-такой Комфи?
@cgevent
1❤51👍25🔥13😁13
Ну, за Marvelous Designer.
На первом видео я попросил Gemini 3 (Thinking) сделать мне симулятор одежды
Промпт:
Сделал одну правку - попросил сделать кисть для разрезания пошире (правая кнопка мыши).
И ну семь раз кромсать и один отмерять.
На втором видео примеры того, как справились сhatGPT 5.1(слева), Claude Opus 4.5(в середине), DeepSeek-V3.2(справа).
Пишем свои симуляторы одним промптом и работает это все в реальном времени в обычном браузере.
@cgevent
На первом видео я попросил Gemini 3 (Thinking) сделать мне симулятор одежды
Промпт:
Create a single HTML file containing a realistic cloth simulation using HTML5 Canvas and JavaScript. The cloth should be a grid of points connected by constraints using Verlet integration. Implement gravity and mouse interaction: the user should be able to click and drag particles to tear the cloth. The physics must remain stable without exploding.
Сделал одну правку - попросил сделать кисть для разрезания пошире (правая кнопка мыши).
И ну семь раз кромсать и один отмерять.
На втором видео примеры того, как справились сhatGPT 5.1(слева), Claude Opus 4.5(в середине), DeepSeek-V3.2(справа).
Пишем свои симуляторы одним промптом и работает это все в реальном времени в обычном браузере.
@cgevent
👍56❤24🔥22👎6😱3
This media is not supported in your browser
VIEW IN TELEGRAM
Когда ты просто пытаешь закрыть Блендор и не сохранить проект...
В конце становится ну очень смешно
https://x.com/kensyouen_Y/status/1996511510546510083
@cgevent
В конце становится ну очень смешно
https://x.com/kensyouen_Y/status/1996511510546510083
@cgevent
❤113👍39😁29🔥21😱6
NVIDIA Studio Driver 591.44
Nvidia обновила декабрьские драйверы, я пошел посмотреть, что там нового.
Забавно, раньше мы гонялись за версиями драйверов, чтобы Maya не падала (да было и такое), что-то там перепаивали, превращая GeForce в Quadro, пытались ускорить трехмерный вьюпорт и количество полигонов\фпс.
Теперь же ускорения идет по линии ИИ (в текущей версии драйверов):
оптимизация RTX в ComfyUI, оптимизация NVFP8\RTX во FLUX.2, поддержка NVIDIA LSS в Blender 5.0 и TensorRT-RTX в Topaz Video AI и Topaz Photo AI.
Качайте тут (вcего-то гигабайтик драйверов):
https://www.nvidia.com/en-us/drivers/details/258747/
@cgevent
Nvidia обновила декабрьские драйверы, я пошел посмотреть, что там нового.
Забавно, раньше мы гонялись за версиями драйверов, чтобы Maya не падала (да было и такое), что-то там перепаивали, превращая GeForce в Quadro, пытались ускорить трехмерный вьюпорт и количество полигонов\фпс.
Теперь же ускорения идет по линии ИИ (в текущей версии драйверов):
оптимизация RTX в ComfyUI, оптимизация NVFP8\RTX во FLUX.2, поддержка NVIDIA LSS в Blender 5.0 и TensorRT-RTX в Topaz Video AI и Topaz Photo AI.
Качайте тут (вcего-то гигабайтик драйверов):
https://www.nvidia.com/en-us/drivers/details/258747/
@cgevent
🔥37❤9👍6
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Live Avatar: Streaming Real-time Audio-Driven Avatar Generation with Infinite Length
Я подождал пока Алибабищенко выкатит код, чтобы запостить новость, ибо однажды зарекся постить новости без кода от них.
Давненько не было ничего в опен сорсе на поляне Аватаров и говорящих голов.
Последние новости про Hallo 3 были аж в январе.
А в прошлом году я писал про:
EMO от Алибабы, демки огонь, кода нет.
VASA от Микрософтченко.
V-Express от Тиктокченко, качество сильно смазано, но есть код!
Огненный "Следи за лицом!", появился код!!.
И еще Loopy!
Но сейчас Алибабищще изменил сам себе и бахнул проект с кодом.
И судя по демкам - это интересно.
Качество по-прежнему мылит, как на всех опен-сорсных аватарогенерилках (основанных как правило на CogVideo))
Тут, однако, под капотом жирный 14B WanS2V, поэтому мыла сильно поменьше, но главные фишки в следующем.
Он может оживлять не только человеческия головы, но и всяких тварей и персонажей из мультиков. Один одноглазый Шрек, косящий глазом в камеру чего стоит.
И он быстрый: 20 FPS on 5 H800 GPUs with 4-step sampling. Это уже реалтайм.
А теперь бочка дегтя:
Пока нет версии для одной GPU. Они так и пишут, нужно несколько GPU с 80GB VRAM каждая
Но в планах: Inference code supporting single GPU (offline generation)
Также в планах:
поддержка мульти-персонажей
свой Text-To-Speech
Low VRAM version
3 steps
кванты
В общем Алибаба выкатили монстра, которые пока точно не заведется локально (только у баяр с 5хН100), но который демонстрирует хороший шаг вперед, по сравнению со всеми предыдущими опенсорсными решениями.
И да, их головы могут говорить бесконечно долго - пишут про 10 000 секунд!
Проект: https://liveavatar.github.io/
Код и веса тут: https://github.com/Alibaba-Quark/LiveAvatar
@cgevent
Я подождал пока Алибабищенко выкатит код, чтобы запостить новость, ибо однажды зарекся постить новости без кода от них.
Давненько не было ничего в опен сорсе на поляне Аватаров и говорящих голов.
Последние новости про Hallo 3 были аж в январе.
А в прошлом году я писал про:
EMO от Алибабы, демки огонь, кода нет.
VASA от Микрософтченко.
V-Express от Тиктокченко, качество сильно смазано, но есть код!
Огненный "Следи за лицом!", появился код!!.
И еще Loopy!
Но сейчас Алибабищще изменил сам себе и бахнул проект с кодом.
И судя по демкам - это интересно.
Качество по-прежнему мылит, как на всех опен-сорсных аватарогенерилках (основанных как правило на CogVideo))
Тут, однако, под капотом жирный 14B WanS2V, поэтому мыла сильно поменьше, но главные фишки в следующем.
Он может оживлять не только человеческия головы, но и всяких тварей и персонажей из мультиков. Один одноглазый Шрек, косящий глазом в камеру чего стоит.
И он быстрый: 20 FPS on 5 H800 GPUs with 4-step sampling. Это уже реалтайм.
А теперь бочка дегтя:
Пока нет версии для одной GPU. Они так и пишут, нужно несколько GPU с 80GB VRAM каждая
Но в планах: Inference code supporting single GPU (offline generation)
Также в планах:
поддержка мульти-персонажей
свой Text-To-Speech
Low VRAM version
3 steps
кванты
В общем Алибаба выкатили монстра, которые пока точно не заведется локально (только у баяр с 5хН100), но который демонстрирует хороший шаг вперед, по сравнению со всеми предыдущими опенсорсными решениями.
И да, их головы могут говорить бесконечно долго - пишут про 10 000 секунд!
Проект: https://liveavatar.github.io/
Код и веса тут: https://github.com/Alibaba-Quark/LiveAvatar
@cgevent
❤15👍11