This media is not supported in your browser
VIEW IN TELEGRAM
Интернетик полон новых забав.
Подаем на вход chatGPT изображение, говорим "опиши его и сделай картинку по описанию". И так 73 раза.
Получается игра в испорченный телефон. Картинка "уплывает" от оригинала.
Я игрался с этим примерно полтора года назад, когда в chatGPT еще был DALL·E 3. Было интересно поглядеть, в какие архетипы он уводит картинку - писал скрипт на Autohotkey, который сохранял картинку и сувал ея обратно в chatGPT.
Обнаруживались уход в цветы из чорного квадрата, подъем камеры наверх, определенные ракурсы и библейские облака.
Сейчас описание и генерация картинок стали точнее. Но мне вот за ИИ обидно. Попробуйте кожаному на словах описать картинку и попросить нарисовать по словесному описанию, потом показать картинку другому кожаному, и попросить его описать, ну и так далее. Думаю хватит двух итераций, чтобы "напеть Шаляпина".
Так что шутка не очень смешная.
Но занимательная..
@cgevent
Подаем на вход chatGPT изображение, говорим "опиши его и сделай картинку по описанию". И так 73 раза.
Получается игра в испорченный телефон. Картинка "уплывает" от оригинала.
Я игрался с этим примерно полтора года назад, когда в chatGPT еще был DALL·E 3. Было интересно поглядеть, в какие архетипы он уводит картинку - писал скрипт на Autohotkey, который сохранял картинку и сувал ея обратно в chatGPT.
Обнаруживались уход в цветы из чорного квадрата, подъем камеры наверх, определенные ракурсы и библейские облака.
Сейчас описание и генерация картинок стали точнее. Но мне вот за ИИ обидно. Попробуйте кожаному на словах описать картинку и попросить нарисовать по словесному описанию, потом показать картинку другому кожаному, и попросить его описать, ну и так далее. Думаю хватит двух итераций, чтобы "напеть Шаляпина".
Так что шутка не очень смешная.
Но занимательная..
@cgevent
👍52😁27🔥9❤3
Google: Белое зеркало.
Google запустила инициативу 100 Zeros по созданию фильмов и телешоу
Новое подразделение в сотрудничестве Range Media Partners собирается искать проекты, которые сможет профинансировать компания.
Это не студия или продакшен, это скорее (маркетинг) фонд, который призван порешать несколько задач:
- привлечь внимание к своим новым технологическим продуктам и услугам, в том числе продуктам искусственного интеллекта.
- попродвигать андроид и возможности съемки части контента на телефоны
- сделать "противовес" страшилкам о том, что ИИ и технологии нас все прикончат. Белое зеркало.
- сделать это тонко, не через Youtube, а через продвижение бренда 100 Zeros в молодежь (100z-зумеры)
Одним из первых проектов 100 Zeros стал фильм ужасов «Cuckoo» («Кукушка»), который вышел в 2024 году. Логотип 100 Zeros появился в начальных титрах.
Также 100 Zeroes уже педалирует использование ИИ в кино. В прошлом месяце Google и Range Media объявили о партнерстве «AI On Screen», которое будет финансировать короткометражные фильмы об ИИ, а затем даст зеленый свет нескольким избранным фильмам на полнометражные фильмы.
В общем, пока Альтман ездит в Голливуд, Гугл тоже на месте не сидит.
Как по мне, это прекрасно. Мы тут без всяких фондов занимаемся нейропрожаркой. В пору конкурсы делать, как настоящиеинфоцыгане маркетологи.
https://www.businessinsider.com/google-tv-movie-hollywood-boost-tech-image-hundred-zeros-2025-5
@cgevent
Google запустила инициативу 100 Zeros по созданию фильмов и телешоу
Новое подразделение в сотрудничестве Range Media Partners собирается искать проекты, которые сможет профинансировать компания.
Это не студия или продакшен, это скорее (маркетинг) фонд, который призван порешать несколько задач:
- привлечь внимание к своим новым технологическим продуктам и услугам, в том числе продуктам искусственного интеллекта.
- попродвигать андроид и возможности съемки части контента на телефоны
- сделать "противовес" страшилкам о том, что ИИ и технологии нас все прикончат. Белое зеркало.
- сделать это тонко, не через Youtube, а через продвижение бренда 100 Zeros в молодежь (100z-зумеры)
Одним из первых проектов 100 Zeros стал фильм ужасов «Cuckoo» («Кукушка»), который вышел в 2024 году. Логотип 100 Zeros появился в начальных титрах.
Также 100 Zeroes уже педалирует использование ИИ в кино. В прошлом месяце Google и Range Media объявили о партнерстве «AI On Screen», которое будет финансировать короткометражные фильмы об ИИ, а затем даст зеленый свет нескольким избранным фильмам на полнометражные фильмы.
В общем, пока Альтман ездит в Голливуд, Гугл тоже на месте не сидит.
Как по мне, это прекрасно. Мы тут без всяких фондов занимаемся нейропрожаркой. В пору конкурсы делать, как настоящие
https://www.businessinsider.com/google-tv-movie-hollywood-boost-tech-image-hundred-zeros-2025-5
@cgevent
🔥39👍9👎3❤2😁1
Нейропрожарка
Подписчик Роман прислал работы на прожарку:
Это две части - отсылка к криминальным драмам и России 90 х, посмотрите полностью сделано через нейросети, естественно.
Для первой части я использовал в основном Reve, немного Flux. Для видео я использовал Kling 1.6, и некоторые сцены Veo 2.По времени ушло около двух недель, но естественно не целыми днями делал, в основном по вечерам и в выходные. После первой части приступил сразу ко второй по времени заняло чуть больше), но опять же по той же схеме, вечером после работы и в выходные дни полноценно. Для второй части я уже использовал в сценах с бумером чат ГПТ, для того чтобы рисовать разные ракурсы той самой поездки, а также использовал всё тот же Reve и немного Flux. Для видео уже использовал во многих сценах Kling 2.0, плюс 1.6.Монтировал всё в СapСut). Итоговые видео апскейлил в топазе локально. Некоторые изображения допиливал в фотошопе. Сами сюжеты незамысловаты, идея их реализовать появилась с момента появления нейронок , рад что сейчас есть возможность всё это реализовывать) Сами сцены убийства приходилось раз за разом менять, т.к не всё можно реализовать как хотелось бы, но важно ведь донести сюжет так, чтобы его поняли.
Мои пять нейрокопеек: когда идет сторителлинг, монтаж становится очень важным. Во втором клипе больше демонстрации генераций, чем сторителлинга. Его можно урезать раз в 5.
На монтаже есть очень грубое правило: из 10 минут отснятого материала, оставляем 1 минуту. Иногда даже 10 секунд.
Имеет смысл применять его к отобранным генерациям. Резать, выкидывать, кромсать.
Хотя из 5-8 секунд много не накромсаешь конечно.
В общем монтаж решает, внимание зрителя дорого и коротко.
@cgevent
Подписчик Роман прислал работы на прожарку:
Это две части - отсылка к криминальным драмам и России 90 х, посмотрите полностью сделано через нейросети, естественно.
Для первой части я использовал в основном Reve, немного Flux. Для видео я использовал Kling 1.6, и некоторые сцены Veo 2.По времени ушло около двух недель, но естественно не целыми днями делал, в основном по вечерам и в выходные. После первой части приступил сразу ко второй по времени заняло чуть больше), но опять же по той же схеме, вечером после работы и в выходные дни полноценно. Для второй части я уже использовал в сценах с бумером чат ГПТ, для того чтобы рисовать разные ракурсы той самой поездки, а также использовал всё тот же Reve и немного Flux. Для видео уже использовал во многих сценах Kling 2.0, плюс 1.6.Монтировал всё в СapСut). Итоговые видео апскейлил в топазе локально. Некоторые изображения допиливал в фотошопе. Сами сюжеты незамысловаты, идея их реализовать появилась с момента появления нейронок , рад что сейчас есть возможность всё это реализовывать) Сами сцены убийства приходилось раз за разом менять, т.к не всё можно реализовать как хотелось бы, но важно ведь донести сюжет так, чтобы его поняли.
Мои пять нейрокопеек: когда идет сторителлинг, монтаж становится очень важным. Во втором клипе больше демонстрации генераций, чем сторителлинга. Его можно урезать раз в 5.
На монтаже есть очень грубое правило: из 10 минут отснятого материала, оставляем 1 минуту. Иногда даже 10 секунд.
Имеет смысл применять его к отобранным генерациям. Резать, выкидывать, кромсать.
Хотя из 5-8 секунд много не накромсаешь конечно.
В общем монтаж решает, внимание зрителя дорого и коротко.
@cgevent
🔥52👎30👍17❤9😱6
HeyGen молодцы, конечно.
Это не клонирование голоса, это скорее style transfer, они называют это Voice Mirroring - копирование эмоций, интонаций, акцентов, "характера" голоса. Можно сказать, что это кавер на голос.
Находится под кнопкой "Try new editor".
@cgevent
Это не клонирование голоса, это скорее style transfer, они называют это Voice Mirroring - копирование эмоций, интонаций, акцентов, "характера" голоса. Можно сказать, что это кавер на голос.
Находится под кнопкой "Try new editor".
@cgevent
1🔥94❤9😱4
This media is not supported in your browser
VIEW IN TELEGRAM
ACE-Step: Новый опен-сорсный генератор музыки. Stable Diffusion moment для музыки.
Существующие методы сталкиваются с присущим им компромиссом между скоростью генерации, музыкальной связностью и управляемостью. Например, модели на основе LLM (например, Yue, SongGen) отлично справляются с текстами, но страдают от медленного инференса и структурных артефактов. Диффузионные модели (например, DiffRhythm), с другой стороны, обеспечивают более быстрый инференс, но часто не имеют структурной связности на больших длительностях.
Вместо того чтобы создавать еще один сквозной генератор для преобразования текста в музыку, мы хотим создать базовую модель для музыкального ИИ: быструю, универсальную, эффективную, но гибкую архитектуру, которая позволяет легко обучать подзадачи поверх нее. Это открывает путь для разработки мощных инструментов, которые легко интегрируются в творческие рабочие процессы музыкальных исполнителей, продюсеров и создателей контента. Одним словом, мы стремимся создать Stable Diffusion moment для музыки.
Есть демо, можно погенерить, а на странице проекта есть примеры.
Это, конечно, не Суно, но сам замысел и амбиции мне нравятся. Сделать Stable Diffusion для музыки, чтобы потом увешать его лорами и файнтюнами - звучит круто.
Смотрите, что у них в планах:
Release RapMachine lora
Release ControlNet training code
Release Singing2Accompaniment controlnet
https://ace-step.github.io/
Код?
Апажалста: https://github.com/ace-step/ACE-Step
Попробовать?
Тут: https://huggingface.co/spaces/ACE-Step/ACE-Step
@cgevent
Существующие методы сталкиваются с присущим им компромиссом между скоростью генерации, музыкальной связностью и управляемостью. Например, модели на основе LLM (например, Yue, SongGen) отлично справляются с текстами, но страдают от медленного инференса и структурных артефактов. Диффузионные модели (например, DiffRhythm), с другой стороны, обеспечивают более быстрый инференс, но часто не имеют структурной связности на больших длительностях.
Вместо того чтобы создавать еще один сквозной генератор для преобразования текста в музыку, мы хотим создать базовую модель для музыкального ИИ: быструю, универсальную, эффективную, но гибкую архитектуру, которая позволяет легко обучать подзадачи поверх нее. Это открывает путь для разработки мощных инструментов, которые легко интегрируются в творческие рабочие процессы музыкальных исполнителей, продюсеров и создателей контента. Одним словом, мы стремимся создать Stable Diffusion moment для музыки.
Есть демо, можно погенерить, а на странице проекта есть примеры.
Это, конечно, не Суно, но сам замысел и амбиции мне нравятся. Сделать Stable Diffusion для музыки, чтобы потом увешать его лорами и файнтюнами - звучит круто.
Смотрите, что у них в планах:
Release RapMachine lora
Release ControlNet training code
Release Singing2Accompaniment controlnet
https://ace-step.github.io/
Код?
Апажалста: https://github.com/ace-step/ACE-Step
Попробовать?
Тут: https://huggingface.co/spaces/ACE-Step/ACE-Step
@cgevent
4🔥40😱12👍11❤3
Израильтяне из Lightricks бахнули "большую" модель LTX VIDEO на 13B параметров. Выложили веса и код.
Новая модель, получившая название LTX VIDEO-13B, включает 13 миллиардов параметров с открытым исходным кодом и претендует на то, чтобы генерировать высококачественное видео за меньшую цену, чем конкуренты вроде OpenAI's
Sora, Google и другие лидеры в области генеративного видео. По словам Lightricks, ее модель может давать
результаты, сопоставимые с системами высшего уровня, при этом ее обучение стоит всего десятки миллионов долларов.
Стоимость рендеринга видео с использованием этой модели составляет всего несколько центов за ролик, что может
стать серьезным прорывом в области доступного видео с искусственным интеллектом.
До сих пор LTX прославился своей скоростью, заимствованием кода у Вана и так себе качеством.
А щас они целят в "Deepseek moment" - такой у них маркетинг в интернетике.
Но Большую Модель на 13B надо тестировать, а то они вон собрались побивать Сору и Вео.
Го тестировать.
Модель: https://huggingface.co/Lightricks/LTX-Video
Код: https://github.com/Lightricks/LTX-Video?tab=readme-ov-file#news
Попробовать модель уже можно у них на сайте:
https://app.ltx.studio/
При этом сам сайт позволяет выбрать в качестве генератора еще и Veo2
Мне вообще непонятно их позиционирование.
@cgevent
Новая модель, получившая название LTX VIDEO-13B, включает 13 миллиардов параметров с открытым исходным кодом и претендует на то, чтобы генерировать высококачественное видео за меньшую цену, чем конкуренты вроде OpenAI's
Sora, Google и другие лидеры в области генеративного видео. По словам Lightricks, ее модель может давать
результаты, сопоставимые с системами высшего уровня, при этом ее обучение стоит всего десятки миллионов долларов.
Стоимость рендеринга видео с использованием этой модели составляет всего несколько центов за ролик, что может
стать серьезным прорывом в области доступного видео с искусственным интеллектом.
До сих пор LTX прославился своей скоростью, заимствованием кода у Вана и так себе качеством.
А щас они целят в "Deepseek moment" - такой у них маркетинг в интернетике.
Но Большую Модель на 13B надо тестировать, а то они вон собрались побивать Сору и Вео.
Го тестировать.
Модель: https://huggingface.co/Lightricks/LTX-Video
Код: https://github.com/Lightricks/LTX-Video?tab=readme-ov-file#news
Попробовать модель уже можно у них на сайте:
https://app.ltx.studio/
При этом сам сайт позволяет выбрать в качестве генератора еще и Veo2
Мне вообще непонятно их позиционирование.
@cgevent
ctech
Lightricks aims for its Deepseek moment with open-source AI video model
The Israeli unicorn debuts LTX VIDEO-13B, a low-cost, high-speed generative video tool it hopes can rival OpenAI and Google.
❤13🔥9😁3👍2👎1
Forwarded from Сиолошная
Gemini 2.5 Pro обновилась, по показываемым бенчмаркам самый большой прирост произошёл в веб-программировании (см. вторую картинку).
Google +уважение за то, что не побоялись сравниться с o3 (по многим бенчам проигрывает, см. первую картинку). Очень интересно, что оценка на SimpleQA — бенчмарке на знание очень редких и специфичных фактов — примерно одинаковая. Возможно это говорит о приблизительно равном размере моделей, но это (очень) неточно.
На арене две версии Gemini и одна o3 делят первое место. По моим ощущениям, я почти всегда закидываю запрос и в o3, и в 2.5, обе почти всегда одинаково решают проблемы — но стиль написания Python-кода o3 мне ближе (не засоряет всё комментариями). За прошлую неделю было 2 раза, что o3 не решила, а 2.5 решила, и один раз наоборот. This is a good model sir.
А ещё ждём preview Computer Use-версии (агент, контролирующий компьютер/браузер), который засветился на сайте. Будет ли он выпущен до Google I/O 20-21-го мая или же нам придётся ждать — не ясно.
Google +уважение за то, что не побоялись сравниться с o3 (по многим бенчам проигрывает, см. первую картинку). Очень интересно, что оценка на SimpleQA — бенчмарке на знание очень редких и специфичных фактов — примерно одинаковая. Возможно это говорит о приблизительно равном размере моделей, но это (очень) неточно.
На арене две версии Gemini и одна o3 делят первое место. По моим ощущениям, я почти всегда закидываю запрос и в o3, и в 2.5, обе почти всегда одинаково решают проблемы — но стиль написания Python-кода o3 мне ближе (не засоряет всё комментариями). За прошлую неделю было 2 раза, что o3 не решила, а 2.5 решила, и один раз наоборот. This is a good model sir.
А ещё ждём preview Computer Use-версии (агент, контролирующий компьютер/браузер), который засветился на сайте. Будет ли он выпущен до Google I/O 20-21-го мая или же нам придётся ждать — не ясно.
👍26🔥12❤5👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Офигенный пример из нового Gemini 2.5 (I/O Edition)
- Гемини, возьми картинку и постарайся воспроизвести ее кодом, принимая во внимание все паттерны.
Поглядите на эти анимации.
Image2Code в действии. Помните все эти арт-проекты и виджеинг? Не чокаясь.
I/O Edition - это замысловатый нейминг от Гугла в честь их конференции.
@cgevent
- Гемини, возьми картинку и постарайся воспроизвести ее кодом, принимая во внимание все паттерны.
Поглядите на эти анимации.
Image2Code в действии. Помните все эти арт-проекты и виджеинг? Не чокаясь.
I/O Edition - это замысловатый нейминг от Гугла в честь их конференции.
@cgevent
15👍103❤36🔥21👎7😱4
Media is too big
VIEW IN TELEGRAM
Comfy-трансформация
Есть у нас свой макаронный монстр - ComfyUI.
Глядя на название, уже чувствуешь подвох с UI - в общем пакет сложный. Тем кто не нюхал пороха с Houdini, Nuke, Тач, разными Shader Graph или упасихоспади Natron, будет сложно.
Тут надо отметить, что прикручивание нодового интерфейса к генерациям - это не эксклюзив, этим занимаются Glif.app, florafauna.ai, даже InvokeAI лепит свой нетворк граф.
Но по степени низкоуровневости и опенсорсности альтернатив у Комфи нет.
Как и по степени сложности освоения.
И если раньше Комфи всегда ассоциировался как альтернатива почившему Автоматик1111 или полупочившему Forge для генерации картинок, то потом он превратился в комбайн для ЛОКАЛЬНОЙ работы с любыми моделями (видео, аудио, ллм).
Но вчера произошел тектонический сдвиг:
Теперь в комфи завезли 65 готовых API-нод, которые позволяют подключать разные облачные (платные или нет) модели — от Veo2 до GPT4o и даже до Flux Ultra.
Вот список моделей:
Black Forest Labs Flux 1.1[pro] Ultra, Flux .1[pro]
Kling 2.0, 1.6, 1.5 & Various Effects
Luma Photon, Ray2, Ray1.6
MiniMax Text-to-Video, Image-to-Video
PixVerse V4 & Effects
Recraft V3, V2 & Various Tools
Stability AI Stable Image Ultra, Stable Diffusion 3.5 Large
Google Veo2
Ideogram V3, V2, V1
OpenAI GPT4o image
Pika 2.2
Думаю, список будет расширяться.
Но почему я думаю, что это тектоника плит?
Комфи таким образом превращается в аггрегатор моделей, коммерческих в том числе. Ну то есть он одной ногой влезает на поляну, где топчутся Fal.ai или Replicate, а другой - на поляну где рядятся Krea и Freeplik и Флора.
Вот если бы кто-то ввалил им денег и они бы написать нормальную UI морду ПОВЕРХ макаронных изделий, что был бы хит (SwarmUI - это очень-очень плохо, как по замыслу, так и по исполнению).
В общем шаг исторический.
https://blog.comfy.org/p/comfyui-native-api-nodes
@cgevent
Есть у нас свой макаронный монстр - ComfyUI.
Глядя на название, уже чувствуешь подвох с UI - в общем пакет сложный. Тем кто не нюхал пороха с Houdini, Nuke, Тач, разными Shader Graph или упасихоспади Natron, будет сложно.
Тут надо отметить, что прикручивание нодового интерфейса к генерациям - это не эксклюзив, этим занимаются Glif.app, florafauna.ai, даже InvokeAI лепит свой нетворк граф.
Но по степени низкоуровневости и опенсорсности альтернатив у Комфи нет.
Как и по степени сложности освоения.
И если раньше Комфи всегда ассоциировался как альтернатива почившему Автоматик1111 или полупочившему Forge для генерации картинок, то потом он превратился в комбайн для ЛОКАЛЬНОЙ работы с любыми моделями (видео, аудио, ллм).
Но вчера произошел тектонический сдвиг:
Теперь в комфи завезли 65 готовых API-нод, которые позволяют подключать разные облачные (платные или нет) модели — от Veo2 до GPT4o и даже до Flux Ultra.
Вот список моделей:
Black Forest Labs Flux 1.1[pro] Ultra, Flux .1[pro]
Kling 2.0, 1.6, 1.5 & Various Effects
Luma Photon, Ray2, Ray1.6
MiniMax Text-to-Video, Image-to-Video
PixVerse V4 & Effects
Recraft V3, V2 & Various Tools
Stability AI Stable Image Ultra, Stable Diffusion 3.5 Large
Google Veo2
Ideogram V3, V2, V1
OpenAI GPT4o image
Pika 2.2
Думаю, список будет расширяться.
Но почему я думаю, что это тектоника плит?
Комфи таким образом превращается в аггрегатор моделей, коммерческих в том числе. Ну то есть он одной ногой влезает на поляну, где топчутся Fal.ai или Replicate, а другой - на поляну где рядятся Krea и Freeplik и Флора.
Вот если бы кто-то ввалил им денег и они бы написать нормальную UI морду ПОВЕРХ макаронных изделий, что был бы хит (SwarmUI - это очень-очень плохо, как по замыслу, так и по исполнению).
В общем шаг исторический.
https://blog.comfy.org/p/comfyui-native-api-nodes
@cgevent
2❤47🔥23👍20
Комфи - великий и ужасный.
Сейчас рискну навлечь на себя гнев умных подписчиков, фанатов Комфи.
Тут я хотел написать, что ничего не имею против Комфи, но понял, что нет, имею. Что сказать.
Да, это ассемблер в мире GenAI, но давайте посмотрим на него глазами нового нормального пользователя.
1. Установка. Ну ок, с выходом десктоп-версии стало получше. Но все равно, на вас могут выскочить проблемы с:
- установкой питонговской виртуальной среды (ашоэто?)
- отсутствием у вас Гита (ашоэто?)
- зависимости поломались при установке (ашоэто?)
- Please install ComfyUI on your system drive (eg. C:\). Drives with different file systems(what?) may cause unpredicable issues - этшта?
- версии под Линукс нет, но линуксоидов не напугаешь проблемами выше. Но все равно странно.
2. И вот вы все-таки поставили и даже запустили пахнущий краской и бобрами Комфи.
И вам умные коллеги говорят, там все просто, вот держи рабочий воркфлоу, просто открой его в Комфи.
Вы такие думаете, это наверное как в фотошопе, щас открою и ну слои править да картинки делать.
Не тут то было.
У вас с вероятностью 90% ошибка Missing Nodes. Чего-то не хватат.
3. Тут я проведу аналогию с 3ДМаксом. Представьте, что вам прислали сцену из Макса. Вы ея открываете, а вам пишут: у тебя, брат, не такого плагина, и вот такого, и еще десятка вот таких. Иди ставь, потом придешь после уроков. А пока это нерабочая сцена.
4. Вы такие, ну ок, вот тут кнопка есть Открыть Менеджер и "Скачать эти сраные ноды". Проблема в том, что она помогает в 50% случаев. А если вы полугик, и даже знаете где они лежат на гитхабе, то вас все равно пошлют лесом - безопасность не позволяет их ставить. Закрывайте шарманку и идите в командную строку. Удобно ведь?
[Installation Errors]
'ComfyUI-WanVideoWrapper': With the current security level configuration, only custom nodes from the "default channel" can be installed.
5. А потом вы начитались этого канала и видите новую модель. И ну ея качать. Скачали. А куда ея положить? Тут умные коллеги бросают через плечо: да там просто, ваешник в VAE, клип в text_encoders, а модельку в unet. Вы такие: шо? Коллеги: ну или в чекпойнты, если модель старая. Вы такие: шо?
Робко спрашиваете: я вот научился с Hugging Face скачивать сразу папку и подпапки с моделями, все разложено аккуратно, можно я просто куда-то это положу и назову именем с HuggingFace?. Так на гитхабе делают...
- Нет! Ваешник в VAE, клип в text_encoders, а модельку в unet, пёс!
6. Пройдет пара дней(недель) и вы откроете наконец воркфлоу, который вас скинули коллеги. И поймете, что это ассемблерный код. Он - write only. Написать можно, прочитать(кому-то) нет.
7. За сим - странный совет.
Хотите разобраться - собирайте свой воркфлоу с нуля. Изучая доки, реддиты, гитхабы. Сначала будете переводить все слова со словарем, но через пару недель полегчает. Или вы пошлете Comfy на UI.
Копаться в чужих вокфлоу, это как изучать 3ДМакс по чьим-то сценам, увешанным плагинами.
Давайте, наваливайте на вентилятор в защиту Комфи.
@cgevent
Сейчас рискну навлечь на себя гнев умных подписчиков, фанатов Комфи.
Тут я хотел написать, что ничего не имею против Комфи, но понял, что нет, имею. Что сказать.
Да, это ассемблер в мире GenAI, но давайте посмотрим на него глазами нового нормального пользователя.
1. Установка. Ну ок, с выходом десктоп-версии стало получше. Но все равно, на вас могут выскочить проблемы с:
- установкой питонговской виртуальной среды (ашоэто?)
- отсутствием у вас Гита (ашоэто?)
- зависимости поломались при установке (ашоэто?)
- Please install ComfyUI on your system drive (eg. C:\). Drives with different file systems(what?) may cause unpredicable issues - этшта?
- версии под Линукс нет, но линуксоидов не напугаешь проблемами выше. Но все равно странно.
2. И вот вы все-таки поставили и даже запустили пахнущий краской и бобрами Комфи.
И вам умные коллеги говорят, там все просто, вот держи рабочий воркфлоу, просто открой его в Комфи.
Вы такие думаете, это наверное как в фотошопе, щас открою и ну слои править да картинки делать.
Не тут то было.
У вас с вероятностью 90% ошибка Missing Nodes. Чего-то не хватат.
3. Тут я проведу аналогию с 3ДМаксом. Представьте, что вам прислали сцену из Макса. Вы ея открываете, а вам пишут: у тебя, брат, не такого плагина, и вот такого, и еще десятка вот таких. Иди ставь, потом придешь после уроков. А пока это нерабочая сцена.
4. Вы такие, ну ок, вот тут кнопка есть Открыть Менеджер и "Скачать эти сраные ноды". Проблема в том, что она помогает в 50% случаев. А если вы полугик, и даже знаете где они лежат на гитхабе, то вас все равно пошлют лесом - безопасность не позволяет их ставить. Закрывайте шарманку и идите в командную строку. Удобно ведь?
[Installation Errors]
'ComfyUI-WanVideoWrapper': With the current security level configuration, only custom nodes from the "default channel" can be installed.
5. А потом вы начитались этого канала и видите новую модель. И ну ея качать. Скачали. А куда ея положить? Тут умные коллеги бросают через плечо: да там просто, ваешник в VAE, клип в text_encoders, а модельку в unet. Вы такие: шо? Коллеги: ну или в чекпойнты, если модель старая. Вы такие: шо?
Робко спрашиваете: я вот научился с Hugging Face скачивать сразу папку и подпапки с моделями, все разложено аккуратно, можно я просто куда-то это положу и назову именем с HuggingFace?. Так на гитхабе делают...
- Нет! Ваешник в VAE, клип в text_encoders, а модельку в unet, пёс!
6. Пройдет пара дней(недель) и вы откроете наконец воркфлоу, который вас скинули коллеги. И поймете, что это ассемблерный код. Он - write only. Написать можно, прочитать(кому-то) нет.
7. За сим - странный совет.
Хотите разобраться - собирайте свой воркфлоу с нуля. Изучая доки, реддиты, гитхабы. Сначала будете переводить все слова со словарем, но через пару недель полегчает. Или вы пошлете Comfy на UI.
Копаться в чужих вокфлоу, это как изучать 3ДМакс по чьим-то сценам, увешанным плагинами.
Давайте, наваливайте на вентилятор в защиту Комфи.
@cgevent
8👍104❤25😁18👎12🙏5😱1
Для тупых.
Интересную штуку сделал Гугл (на основе Gemini).
При просмотре статьи в приложении Гугла Discover, выделение текста, в котором используется жаргон или технические понятия, с которыми вы не знакомы, откроет новую опцию "Упростить" в контекстном меню (наряду с "Поиск" и "Перевод").
ИИ вам на пальцах пояснит за сложные вещи.
Вот пример.
Оригинал: Сложная патология этого состояния включает эмфизематозное разрушение паренхимы легких, диффузный интерстициальный фиброз, изменения в составе иммунных клеток легких, повышенную продукцию иммуномодулирующих факторов и выраженное ремоделирование легочной сосудистой сети
Упрощение: Это сложное заболевание включает в себя повреждение легочной ткани в результате эмфиземы - болезни, при которой повреждаются воздушные мешки в легких, и широко распространенное рубцевание легочной ткани, называемое фиброзом. Иммунные клетки в легких изменяются, и организм вырабатывает больше иммуномодулирующих факторов - веществ, контролирующих иммунную систему. Кровеносные сосуды в легких также сильно изменяются.
Я уже писал, что интернетик стремительно пухнет на стероидах нового ИИ-контента всех модальностей (тексты, звук, видео). Вы не в силах более переваривать контент, у нас нейроферментов не хватает.
Поэтому тот же ИИ придет к нам на помощь. Одни кожаные с помощью ИИ плодят умный и не очень контент, другие кожаные с помощью ИИ его сжимают обратно, суммаризируют, упрощают. Никто больше сам контент не потребляет. Потребляют производные - вытяжки из бобровой ИИ-струи.
Любопытно видеть как в рекламе Эппле поясняют за фичу "раскучерявим ваш имейл" и тут же продвигают фичу "устали читать огромные письма из школы, мы их пожмем для вас".
Ну вы поняли.
Примечательно, что фича с упрощением контента сделана только для пользователей айфонов. Видать Гугл что-то знает про них и про IQ пользователей андроида.
https://9to5google.com/2025/05/06/google-app-simplify-ios/
@cgevent
Интересную штуку сделал Гугл (на основе Gemini).
При просмотре статьи в приложении Гугла Discover, выделение текста, в котором используется жаргон или технические понятия, с которыми вы не знакомы, откроет новую опцию "Упростить" в контекстном меню (наряду с "Поиск" и "Перевод").
ИИ вам на пальцах пояснит за сложные вещи.
Вот пример.
Оригинал: Сложная патология этого состояния включает эмфизематозное разрушение паренхимы легких, диффузный интерстициальный фиброз, изменения в составе иммунных клеток легких, повышенную продукцию иммуномодулирующих факторов и выраженное ремоделирование легочной сосудистой сети
Упрощение: Это сложное заболевание включает в себя повреждение легочной ткани в результате эмфиземы - болезни, при которой повреждаются воздушные мешки в легких, и широко распространенное рубцевание легочной ткани, называемое фиброзом. Иммунные клетки в легких изменяются, и организм вырабатывает больше иммуномодулирующих факторов - веществ, контролирующих иммунную систему. Кровеносные сосуды в легких также сильно изменяются.
Я уже писал, что интернетик стремительно пухнет на стероидах нового ИИ-контента всех модальностей (тексты, звук, видео). Вы не в силах более переваривать контент, у нас нейроферментов не хватает.
Поэтому тот же ИИ придет к нам на помощь. Одни кожаные с помощью ИИ плодят умный и не очень контент, другие кожаные с помощью ИИ его сжимают обратно, суммаризируют, упрощают. Никто больше сам контент не потребляет. Потребляют производные - вытяжки из бобровой ИИ-струи.
Любопытно видеть как в рекламе Эппле поясняют за фичу "раскучерявим ваш имейл" и тут же продвигают фичу "устали читать огромные письма из школы, мы их пожмем для вас".
Ну вы поняли.
Примечательно, что фича с упрощением контента сделана только для пользователей айфонов. Видать Гугл что-то знает про них и про IQ пользователей андроида.
https://9to5google.com/2025/05/06/google-app-simplify-ios/
@cgevent
😁75🔥21👍14❤9👎4
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
HeyGen Avatar IV - это просто огнищще.
На входе ОДНА фотка и ваш текст.
Всё.
Похоже тема липсинка близка к закрытию.
Но это еще не все. Оно работает с анимационными персонажами, и даже с животными! Как они это сделали, не понимаю.
И да, русский поддерживается.
https://x.com/HeyGen_Official/status/1919824467821551828
@cgevent
На входе ОДНА фотка и ваш текст.
Всё.
Похоже тема липсинка близка к закрытию.
Но это еще не все. Оно работает с анимационными персонажами, и даже с животными! Как они это сделали, не понимаю.
И да, русский поддерживается.
https://x.com/HeyGen_Official/status/1919824467821551828
@cgevent
🔥82👍23👎7❤5