Forwarded from UX Live 🔥
This media is not supported in your browser
VIEW IN TELEGRAM
ComfyUI наглядно
1😁237🔥26👍18😱9❤5🙏3
This media is not supported in your browser
VIEW IN TELEGRAM
Вчера писал разгромный пост про MeshyAI.
Оказывается не я один возмущался тряпошным маркетингом. В твитторе им насовали по сопатке и за "clean topology" и за "game-ready".
Насовали так, что они твитторнули отдельный пост с извинениями и сказали, что пойдут работать над ошибками.
Штош, приятно видеть признание ошибок, а не корпоративный булшит.
А я вам принес пример хорошей топологии и ловкого кожаного моделинга.
Вот когда нейроночки смогут в такое, выпьем за модельеров.
@cgevent
Оказывается не я один возмущался тряпошным маркетингом. В твитторе им насовали по сопатке и за "clean topology" и за "game-ready".
Насовали так, что они твитторнули отдельный пост с извинениями и сказали, что пойдут работать над ошибками.
Штош, приятно видеть признание ошибок, а не корпоративный булшит.
А я вам принес пример хорошей топологии и ловкого кожаного моделинга.
Вот когда нейроночки смогут в такое, выпьем за модельеров.
@cgevent
❤42👍29😁4👎1😱1
Метаверсище и ИИще
Возможно завтра или 1 января Алибаба бахнет qwen-image-2512 Они тизерят некий "новогодний сюрприз". И да, ходят слухи, что это и есть Qwen-Image v2. Но это не точно.. https://github.com/modelscope/DiffSynth-Studio/tree/qwen-image-2512 @cgevent
С наступающим!
Как писал вчера, Алибабищенко не подвел и выкатил новый Qwen-Image-2512.
Более реалистичные лица, менее пластиковая кожа, рендеринг текста и прочие ништяки.
Код: https://github.com/QwenLM/Qwen-Image
Qwen Chat Demo: https://chat.qwen.ai/?inputFeature=t2i
Демоcпейс: https://huggingface.co/spaces/Qwen/Qwen-Image-2512
А вот гайд как запустить ггуфы в Комфи на 14гб памяти:
https://unsloth.ai/docs/models/qwen-image-2512
Qwen-Image-2512-Lightning Lora:
https://huggingface.co/lightx2v/Qwen-Image-2512-Lightning
Хороший подарок для всего опенсорса, го тестировать!
@cgevent
Как писал вчера, Алибабищенко не подвел и выкатил новый Qwen-Image-2512.
Более реалистичные лица, менее пластиковая кожа, рендеринг текста и прочие ништяки.
Код: https://github.com/QwenLM/Qwen-Image
Qwen Chat Demo: https://chat.qwen.ai/?inputFeature=t2i
Демоcпейс: https://huggingface.co/spaces/Qwen/Qwen-Image-2512
А вот гайд как запустить ггуфы в Комфи на 14гб памяти:
https://unsloth.ai/docs/models/qwen-image-2512
Qwen-Image-2512-Lightning Lora:
https://huggingface.co/lightx2v/Qwen-Image-2512-Lightning
Хороший подарок для всего опенсорса, го тестировать!
@cgevent
GitHub
GitHub - QwenLM/Qwen-Image: Qwen-Image is a powerful image generation foundation model capable of complex text rendering and precise…
Qwen-Image is a powerful image generation foundation model capable of complex text rendering and precise image editing. - QwenLM/Qwen-Image
🔥30❤8
Наноитоги года.
В этом году плотность новостей увеличилась настолько, что подводить итоги года просто бессмысленно, понадобится 10 страниц А4 мелким шрифтом.
В этом году итоги каждого месяца сравнимы по плотности с итогами всего 2024 года.
Поэтому я не буду поминать Мануса, агентов, Gamma.app или NotebookLM.
Для меня прорывали года стала Нанабанана и вообще Google.
Нанабанана смогла удивить всех, а Gemini 3 оказалась на редкость удачной. А их тандем просто уничтожает конкурентов.
Гугл отжал хорошую часть рынка у Open AI, смог внедрить в поиск AI Mode и продолжает шпиговать свои продукты(коих реально много) практичным ИИ. В то время как Open AI приходится придумывать продукты.
В опенсорсе радуют Qwen, Wan и Хуньян (чуете китайский привкус?)
А про легендарную когда-то Stability AI все забыли... В мире ИИ год идёт за десять. И кажется, что SD1.5 была 20 лет назад.
В общем буквально за полгода все опять все поменялось и я ставлю на Гугл в следующем году.
Всех с наступающим, сейчас бахну новогоднюю прожарку и пойду встречать Дахабский новый год. Тут южак и волны выше сельсовета.
@cgevent
В этом году плотность новостей увеличилась настолько, что подводить итоги года просто бессмысленно, понадобится 10 страниц А4 мелким шрифтом.
В этом году итоги каждого месяца сравнимы по плотности с итогами всего 2024 года.
Поэтому я не буду поминать Мануса, агентов, Gamma.app или NotebookLM.
Для меня прорывали года стала Нанабанана и вообще Google.
Нанабанана смогла удивить всех, а Gemini 3 оказалась на редкость удачной. А их тандем просто уничтожает конкурентов.
Гугл отжал хорошую часть рынка у Open AI, смог внедрить в поиск AI Mode и продолжает шпиговать свои продукты(коих реально много) практичным ИИ. В то время как Open AI приходится придумывать продукты.
В опенсорсе радуют Qwen, Wan и Хуньян (чуете китайский привкус?)
А про легендарную когда-то Stability AI все забыли... В мире ИИ год идёт за десять. И кажется, что SD1.5 была 20 лет назад.
В общем буквально за полгода все опять все поменялось и я ставлю на Гугл в следующем году.
Всех с наступающим, сейчас бахну новогоднюю прожарку и пойду встречать Дахабский новый год. Тут южак и волны выше сельсовета.
@cgevent
1❤77🔥37👍13😁1
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
Автор: Николай
Идея была создать ролик к фантастическому фильму, с прослеживаемым сюжетом, угадываемыми образами, но что бы зрелищно и с Безруковым 😂(кого-то просто хотелось из актёров, а кто как не он), Паша IJenta тоже кстати реальный отечественный электронщик! Общая работа над роликом заняла порядка 100 часов, более 200 (считая только удачные) сгенеренных отрывков. Вся статика и образы - связка Midjourney (В основном локации и образы марсиан) + nano banana pro (все остальное). Все видео kling 2.5, Veo 3.1 (всë где говорят) и minimax 2.3 (в основном стрельба и быстрая киношная динамика, клинг там не вывозил) , саунтрек suno, голоса eleven labs. саунд дизайн, эффекты и монтаж capcut pro. Все вместе по бюджету порядка 30 т.р.
@cgevent
Автор: Николай
Идея была создать ролик к фантастическому фильму, с прослеживаемым сюжетом, угадываемыми образами, но что бы зрелищно и с Безруковым 😂(кого-то просто хотелось из актёров, а кто как не он), Паша IJenta тоже кстати реальный отечественный электронщик! Общая работа над роликом заняла порядка 100 часов, более 200 (считая только удачные) сгенеренных отрывков. Вся статика и образы - связка Midjourney (В основном локации и образы марсиан) + nano banana pro (все остальное). Все видео kling 2.5, Veo 3.1 (всë где говорят) и minimax 2.3 (в основном стрельба и быстрая киношная динамика, клинг там не вывозил) , саунтрек suno, голоса eleven labs. саунд дизайн, эффекты и монтаж capcut pro. Все вместе по бюджету порядка 30 т.р.
@cgevent
2👍56👎23🔥12❤5😁1
This media is not supported in your browser
VIEW IN TELEGRAM
3😁137❤42👍26🔥13🙏2
Думаете у кожаного контента есть шансы?
Принес вам YouTube канал с ИИ контентом. Зарабатывает 4.25 миллиона долларов в год.
Bandar Apna Dost - индийский ИИ трэш про обезьяну и не только.
Кровь из глаз. Но пипл хавает и деньги не пахнут. Особенно ИИ деньги.
Так что авторы нейропрожарок на правильном пути...
Ждать, когда пипл устанет от ИИ контента, это все равно, что ждать, когда закроются Макдональдс и KFC.
@cgevent
Принес вам YouTube канал с ИИ контентом. Зарабатывает 4.25 миллиона долларов в год.
Bandar Apna Dost - индийский ИИ трэш про обезьяну и не только.
Кровь из глаз. Но пипл хавает и деньги не пахнут. Особенно ИИ деньги.
Так что авторы нейропрожарок на правильном пути...
Ждать, когда пипл устанет от ИИ контента, это все равно, что ждать, когда закроются Макдональдс и KFC.
@cgevent
😱40👎36😁19👍8🔥7❤5
Принес вам полезное - хороший гайд по Suno.ai
Мне лень переводить его целиком, меня ещё переполняет чувство оливье.
Гайд огромный, переведу только затравку.
Suno не:
Читает ваш запрос как человек.
Выполняет инструкции в иерархическом порядке.
Генерирует «чистые» жанры в изоляции.
Интерпретирует язык буквально так, как вы это предполагаете.
Suno:
Сопоставляет ваш текст с вероятностной стилевой сеткой.
Смешивает сопутствующие музыкальные концепции, полученные из обучающих данных
Выполняет мягкую классификацию между обусловливающим текстом и исполняемым текстом
По умолчанию ориентируется на статистически доминирующие «гравитационные колодцы», если вы не ограничиваете его активно
https://www.notion.so/The-Complete-Guide-to-Mastering-Suno-Advanced-Strategies-for-Professional-Music-Generation-2d6ae744ebdf8024be42f6645f884221
@cgevent
Мне лень переводить его целиком, меня ещё переполняет чувство оливье.
Гайд огромный, переведу только затравку.
Suno не:
Читает ваш запрос как человек.
Выполняет инструкции в иерархическом порядке.
Генерирует «чистые» жанры в изоляции.
Интерпретирует язык буквально так, как вы это предполагаете.
Suno:
Сопоставляет ваш текст с вероятностной стилевой сеткой.
Смешивает сопутствующие музыкальные концепции, полученные из обучающих данных
Выполняет мягкую классификацию между обусловливающим текстом и исполняемым текстом
По умолчанию ориентируется на статистически доминирующие «гравитационные колодцы», если вы не ограничиваете его активно
https://www.notion.so/The-Complete-Guide-to-Mastering-Suno-Advanced-Strategies-for-Professional-Music-Generation-2d6ae744ebdf8024be42f6645f884221
@cgevent
Chris Grimm’s Space on Notion
The Complete Guide to Mastering Suno: Advanced Strategies for Professional Music Generation | Notion
Part One: Foundations
3👍45🔥16❤8😁2🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
😁57❤20🔥13👍3🙏3👎2
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
Автор: режИИссёр Дмитрий Отяковский
https://t.me/rezhiisser
https://instagram.com/rezhiisser
https://vk.com/rezhiisser
тг @otyakovsky
🛠 Создание клипа с помощью нейросетей
⏱️ Срок: примерно 3,5 недели (2-3 часа в день).
💡 Как всё началось: На волне хайпа клипа "Снегурочка" мне написала знакомая с идеей нейросъёмки клипа на стихотворение Р. Рождественского "Позвони мне, позвони". Я сам театральный режиссёр, недавно запустил свой нейропродакшн и собираю портфолио, поэтому подхватил идею
🎬 Концепция: Первым источником вдохновения был инстаграм-аккаунт питерского бренда, шьющего куртки из старых советских одеял. Также вспомнилась рекламная кампания Befree с девушкой-альбиносом. Я начал генерации главной героини в атмосфере зимней Москвы и почувствовал, что это то, что нужно. Затем я нагенерировал ее же на сером фоне в разных позах и крупностях кадра, для консистентности персонажа.
Затем пришло понимание, что я хочу не имитировать подлинную съёмку, а использовать нейросети для создания стиля магического реализма — смешения реальности и чуда.
Дальше я начал придумывать необычные сочетания, используя эстетику советской ностальгии и новогоднего настроения. Так родились образы ЦУМа накрытого вязаной салфеткой, Большого театра с ковром вместо декорации, олимпийского мишки-курьера и т. д.
Затем нужно было придумать второго персонажа, здесь пришлось сложнее — никак не мог найти подходящего возлюбленного, в итоге вспомнил кучерявого актера, про которого недавно снимал документалку и образ сложился. Придумался сюжет: она балерина, он космонавт, она — советская Москва, он — волшебный Питер, у обоих перебои со связью, финальный поцелуй в космосе.
🔎 Что я использовал:
• Syntx как тг-агрегатор для всех нейросеток описанных ниже
• Suno для музыки и вокала
• Nano Banana для изображений
• Veo 3.1 Fast для сюжетных видео
• Heygen для синхронизации губ
• Gemini для создания и корректировки промтов
• CapCut для монтажа
🤔 Трудности с которыми я столкнулся: иногда короткого текстового промта в Veo хватало для идеального воплощения идеи, а иногда часами приходилось городить огромные простыни с детальным описанием каждого нюанса и всё равно получалось не то. Heygen идеально синхронил губы, но при этом не было инструментов для анимации остального кадра: например пар от чашки чая анимировался первые 3 секунды, а затем застывал. Но главная сложность в итоге заключалась в придумывании оригинальных идей для визуала и органичного встраивания их в драматургию. Несколько классных кадров так и не попали в финальную версию.
✅ Клип очень классно помог раскручивать соцсети — каждый день я выкладывал фрагменты, а после релиза анонсировал мастер класс по созданию видео в нейросетях.
📌 Итог: Так как это мой первый полноценный клип полностью снятый в нейронках — я многому научился в процессе. И хотя в некоторых кадрах видны артефакты (например рука в кадре с троллейбусом на лыжах) — атмосфера на мой вкус передана здорово, результатом доволен.
💱 Потрачено примерно 10 тыс рублей на месячную подписку Syntx Elite и докупку токенов
@cgevent
Автор: режИИссёр Дмитрий Отяковский
https://t.me/rezhiisser
https://instagram.com/rezhiisser
https://vk.com/rezhiisser
тг @otyakovsky
🛠 Создание клипа с помощью нейросетей
⏱️ Срок: примерно 3,5 недели (2-3 часа в день).
💡 Как всё началось: На волне хайпа клипа "Снегурочка" мне написала знакомая с идеей нейросъёмки клипа на стихотворение Р. Рождественского "Позвони мне, позвони". Я сам театральный режиссёр, недавно запустил свой нейропродакшн и собираю портфолио, поэтому подхватил идею
🎬 Концепция: Первым источником вдохновения был инстаграм-аккаунт питерского бренда, шьющего куртки из старых советских одеял. Также вспомнилась рекламная кампания Befree с девушкой-альбиносом. Я начал генерации главной героини в атмосфере зимней Москвы и почувствовал, что это то, что нужно. Затем я нагенерировал ее же на сером фоне в разных позах и крупностях кадра, для консистентности персонажа.
Затем пришло понимание, что я хочу не имитировать подлинную съёмку, а использовать нейросети для создания стиля магического реализма — смешения реальности и чуда.
Дальше я начал придумывать необычные сочетания, используя эстетику советской ностальгии и новогоднего настроения. Так родились образы ЦУМа накрытого вязаной салфеткой, Большого театра с ковром вместо декорации, олимпийского мишки-курьера и т. д.
Затем нужно было придумать второго персонажа, здесь пришлось сложнее — никак не мог найти подходящего возлюбленного, в итоге вспомнил кучерявого актера, про которого недавно снимал документалку и образ сложился. Придумался сюжет: она балерина, он космонавт, она — советская Москва, он — волшебный Питер, у обоих перебои со связью, финальный поцелуй в космосе.
🔎 Что я использовал:
• Syntx как тг-агрегатор для всех нейросеток описанных ниже
• Suno для музыки и вокала
• Nano Banana для изображений
• Veo 3.1 Fast для сюжетных видео
• Heygen для синхронизации губ
• Gemini для создания и корректировки промтов
• CapCut для монтажа
🤔 Трудности с которыми я столкнулся: иногда короткого текстового промта в Veo хватало для идеального воплощения идеи, а иногда часами приходилось городить огромные простыни с детальным описанием каждого нюанса и всё равно получалось не то. Heygen идеально синхронил губы, но при этом не было инструментов для анимации остального кадра: например пар от чашки чая анимировался первые 3 секунды, а затем застывал. Но главная сложность в итоге заключалась в придумывании оригинальных идей для визуала и органичного встраивания их в драматургию. Несколько классных кадров так и не попали в финальную версию.
✅ Клип очень классно помог раскручивать соцсети — каждый день я выкладывал фрагменты, а после релиза анонсировал мастер класс по созданию видео в нейросетях.
📌 Итог: Так как это мой первый полноценный клип полностью снятый в нейронках — я многому научился в процессе. И хотя в некоторых кадрах видны артефакты (например рука в кадре с троллейбусом на лыжах) — атмосфера на мой вкус передана здорово, результатом доволен.
💱 Потрачено примерно 10 тыс рублей на месячную подписку Syntx Elite и докупку токенов
@cgevent
👎96👍80❤22🔥18😁5😱1
Forwarded from Neural Shit
Тем временем нейроночки окончательно добили Stack Overflow. График задаваемых вопросов пробивает дно.
Ирония в том, что LLM стали такими умными в плане кода именно потому, что сожрали гигабайты данных со Stack Overflow. Ученик не просто превзошёл учителя, он высосал из него всю кровь и оставил умирать в канаве.
https://data.stackexchange.com/stackoverflow/query/1926661#graph
Ирония в том, что LLM стали такими умными в плане кода именно потому, что сожрали гигабайты данных со Stack Overflow. Ученик не просто превзошёл учителя, он высосал из него всю кровь и оставил умирать в канаве.
https://data.stackexchange.com/stackoverflow/query/1926661#graph
1🔥61😱33❤16👍10😁6
This media is not supported in your browser
VIEW IN TELEGRAM
Нейродеда пожмут!
В общем если вам надоели мои среднеумные посты, то Телеграм сделал для вас ИИ-пожималку для длинных постов и постов с Instant View.
Фича находится справа вверху и позволяет делать ИИ-выжимки. Работает, как утверждается, с помощью опенсорсных ллм, бегающих в децентрализованной сети Какун (Cocoon), которую Дуров недавно представил миру.
Фича посему бесплатная.
Обновляйте клиента Телеги.
Пойду напишу лонгрид про CG-волосы, чтобы проверить пожималку.
@cgevent
В общем если вам надоели мои среднеумные посты, то Телеграм сделал для вас ИИ-пожималку для длинных постов и постов с Instant View.
Фича находится справа вверху и позволяет делать ИИ-выжимки. Работает, как утверждается, с помощью опенсорсных ллм, бегающих в децентрализованной сети Какун (Cocoon), которую Дуров недавно представил миру.
Фича посему бесплатная.
Обновляйте клиента Телеги.
Пойду напишу лонгрид про CG-волосы, чтобы проверить пожималку.
@cgevent
🔥23😁14❤6👍4👎2🙏1
Media is too big
VIEW IN TELEGRAM
Unreal Engine 5 + WAN 2.2 VACE
Это не демо, это часть реального продакшен пайплайна.
Тут в принципе все подписано на видео, но плотность информации предельно высока.
Поэтому почитайте у автора детали:
https://www.linkedin.com/posts/davsharian_unrealengine5-wan2abr2-vace-activity-7411346851397902337-3mhp
Самый интересный момент - трекинг и сегментация нужных объектов для последующего инпайнта.
Можете также посмотреть финальный ролик.
https://www.youtube.com/watch?v=WrmYVFPlknE
Конечно, впечатляет этот монструозный сетап в Комфи, хотя нюк-комозеров лапшой не напугаешь...
@cgevent
Это не демо, это часть реального продакшен пайплайна.
Тут в принципе все подписано на видео, но плотность информации предельно высока.
Поэтому почитайте у автора детали:
https://www.linkedin.com/posts/davsharian_unrealengine5-wan2abr2-vace-activity-7411346851397902337-3mhp
Самый интересный момент - трекинг и сегментация нужных объектов для последующего инпайнта.
Можете также посмотреть финальный ролик.
https://www.youtube.com/watch?v=WrmYVFPlknE
Конечно, впечатляет этот монструозный сетап в Комфи, хотя нюк-комозеров лапшой не напугаешь...
@cgevent
🔥74👍12❤5😱3
This media is not supported in your browser
VIEW IN TELEGRAM
Вы думаете они до сих пор моют пол и убирают мусор?
Нет, они уже тренируюцца и готовяццо.
Восстание машин со себя не организует...
@cgevent
Нет, они уже тренируюцца и готовяццо.
Восстание машин со себя не организует...
@cgevent
😱50👍19😁13👎5🔥2🙏1
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
«44 правила поведения драконов» 🐉 2D мультфильм с оригинальными песнями
Автор: Драко Локхард
https://www.youtube.com/@DragonSight
https://youtu.be/yus3aLEOyH8 (этот ролик на YouTube в 4К)
тг @DracoLockhard
Прошу оценить мою новую работу, веселый и позитивный анимационный фильм «44 правила поведения драконов». Фильм также содержит оригинальную музыку и две песни, текст для которых был написан без помощи ИИ. Есть полные русские и английские субтитры включая тексты песен.
⏱️ Срок: примерно две недели (10-14 часов в день). Продолжительность мультфильма 18 минут.
🎬 Концепция: Легкая и юморная 2Д традиционная анимация, я работаю в этом жанре.
🔎 Что я использовал:
✅ - Главная героиня и ее сородичи сделаны в 3Д в Blender и в Unreal, конвертированы в рисованный вид в Nano Banana 1, в дальнейшем абсолютно для всех сцен референсы создавались в Nano Banana и в Грок “Edit image”
✅ - Музыка сгенерирована в Tunee и в Suno, все тексты написаны вручную.
✅ - Анимация целиком в Grok Imagine. Ракурсы, движение камеры, липсинк, анимация и мимика – через сложные промпты, комбинированные референсы и с помощью ручного редактирования референсных картинок в Photoshop.
Суммарно в Grok Imagine сгенерировано 800+ видеофрагментов, 280 вошли в этот клип, для них использовано порядка 500 референсных картинок.
✅ - 3D эпизоды на фоне финальной песни – из моих предыдущих 3D (не-AI) фильмов.
✅ - Монтаж, овучка, апскейл, цветокор и эффекты в DaVinci.
🐉 Буду крайне признателен за отзывы. Спасибо.
@cgevent
«44 правила поведения драконов» 🐉 2D мультфильм с оригинальными песнями
Автор: Драко Локхард
https://www.youtube.com/@DragonSight
https://youtu.be/yus3aLEOyH8 (этот ролик на YouTube в 4К)
тг @DracoLockhard
Прошу оценить мою новую работу, веселый и позитивный анимационный фильм «44 правила поведения драконов». Фильм также содержит оригинальную музыку и две песни, текст для которых был написан без помощи ИИ. Есть полные русские и английские субтитры включая тексты песен.
⏱️ Срок: примерно две недели (10-14 часов в день). Продолжительность мультфильма 18 минут.
🎬 Концепция: Легкая и юморная 2Д традиционная анимация, я работаю в этом жанре.
🔎 Что я использовал:
✅ - Главная героиня и ее сородичи сделаны в 3Д в Blender и в Unreal, конвертированы в рисованный вид в Nano Banana 1, в дальнейшем абсолютно для всех сцен референсы создавались в Nano Banana и в Грок “Edit image”
✅ - Музыка сгенерирована в Tunee и в Suno, все тексты написаны вручную.
✅ - Анимация целиком в Grok Imagine. Ракурсы, движение камеры, липсинк, анимация и мимика – через сложные промпты, комбинированные референсы и с помощью ручного редактирования референсных картинок в Photoshop.
Суммарно в Grok Imagine сгенерировано 800+ видеофрагментов, 280 вошли в этот клип, для них использовано порядка 500 референсных картинок.
✅ - 3D эпизоды на фоне финальной песни – из моих предыдущих 3D (не-AI) фильмов.
✅ - Монтаж, овучка, апскейл, цветокор и эффекты в DaVinci.
🐉 Буду крайне признателен за отзывы. Спасибо.
@cgevent
👎89👍21❤14🔥6
This media is not supported in your browser
VIEW IN TELEGRAM
AI Slop ИИ Слопу рознь
Прервем дракучие хлестания в комментах чистым генеративом.
ИИ Слоп не всегда так плох, особенного когда он с котами и квантовой физикой.
Я вот ржу аки конь второй день подряд над котолектриком. И ничего не отупел.
Если у автора есть чувство юмора, то коты, помноженные на генератив и 220 вольт хорошо зайдут в массы.
А кожаный Слоп был и до ИИ, вспомните все эти "визуальные-мать-их-новеллы" или идиотские постановочные ролики в фб.
В общем я за ИИ-котов и шейдеры меха. Ибо смешно.
@cgevent
Прервем дракучие хлестания в комментах чистым генеративом.
ИИ Слоп не всегда так плох, особенного когда он с котами и квантовой физикой.
Я вот ржу аки конь второй день подряд над котолектриком. И ничего не отупел.
Если у автора есть чувство юмора, то коты, помноженные на генератив и 220 вольт хорошо зайдут в массы.
А кожаный Слоп был и до ИИ, вспомните все эти "визуальные-мать-их-новеллы" или идиотские постановочные ролики в фб.
В общем я за ИИ-котов и шейдеры меха. Ибо смешно.
@cgevent
😁107❤39👍19👎7😱2
This media is not supported in your browser
VIEW IN TELEGRAM
3Д-генерация
Rodin Gen-2 Smart Low-Poly
После того, как MeshyAI феерически облажались с Low Poly режимом, на эту тропу вышли Deemos Tech.
Надо сказать, что выглядит гораздо лучше. Конечно, можно найти лишние или кривые грани, но в целом это уже неплохой ретоп.
У них сейчас набор в бету через твиттор и будет любопытно посмотреть, как это будет выглядеть на органике (думаю никак).
Но прогресс а этой области радует.
https://x.com/DeemosTech/status/2008200543941058821
@cgevent
Rodin Gen-2 Smart Low-Poly
После того, как MeshyAI феерически облажались с Low Poly режимом, на эту тропу вышли Deemos Tech.
Надо сказать, что выглядит гораздо лучше. Конечно, можно найти лишние или кривые грани, но в целом это уже неплохой ретоп.
У них сейчас набор в бету через твиттор и будет любопытно посмотреть, как это будет выглядеть на органике (думаю никак).
Но прогресс а этой области радует.
https://x.com/DeemosTech/status/2008200543941058821
@cgevent
👍34🔥10❤5
Forwarded from Neural Shit
This media is not supported in your browser
VIEW IN TELEGRAM
Там бостон динамикс выкатили нового Атласа.
Теперь это не просто экспериментальный прототип для видосов с сальтухами, а железка, призванная для того, чтобы заменить кожаных на заводе.
Из интересного:
— Робот сам топает к зарядке, сам вытаскивает севшую батарею и вставляет свежую. Никаких простоев, перекуров и походов в туалет. Работает 24/7.
— Мозги от Google: Boston Dynamics запартнерились с Google DeepMind, чтобы впихнуть в Атласа годных нейронок. То есть робот будет не просто следовать скриптам, а реально "соображать" и быстро учиться новым задачам на ходу.
Немножко характеристик: поднимает до 50 кг груза, вытягивается на 2.3 метра в высоту, 56 степеней свободы (суставы крутятся как угодно, посмотрите, что эта скотина делает на видео), не боится воды и мороза.
Собирать серийные модели начинают прямо сейчас в Бостоне. Все поставки на 2026 год уже расписаны: первые партии уедут на заводы Hyundai и в Google DeepMind. Остальным придется ждать до 2027-го. Сейчас планируют строить завод, который будет штамповать 30000 таких юнитов в год.
Чо, заводчане, готовимся идти на рынок торговать луком.Ахахахах, конечно нет, потому что робот умный и за 30 тысяч рублей в месяц работать на заводе не будет даже он
тут подробнее
Теперь это не просто экспериментальный прототип для видосов с сальтухами, а железка, призванная для того, чтобы заменить кожаных на заводе.
Из интересного:
— Робот сам топает к зарядке, сам вытаскивает севшую батарею и вставляет свежую. Никаких простоев, перекуров и походов в туалет. Работает 24/7.
— Мозги от Google: Boston Dynamics запартнерились с Google DeepMind, чтобы впихнуть в Атласа годных нейронок. То есть робот будет не просто следовать скриптам, а реально "соображать" и быстро учиться новым задачам на ходу.
Немножко характеристик: поднимает до 50 кг груза, вытягивается на 2.3 метра в высоту, 56 степеней свободы (суставы крутятся как угодно, посмотрите, что эта скотина делает на видео), не боится воды и мороза.
Собирать серийные модели начинают прямо сейчас в Бостоне. Все поставки на 2026 год уже расписаны: первые партии уедут на заводы Hyundai и в Google DeepMind. Остальным придется ждать до 2027-го. Сейчас планируют строить завод, который будет штамповать 30000 таких юнитов в год.
Чо, заводчане, готовимся идти на рынок торговать луком.
тут подробнее
1🔥87😱29😁16👍6❤5👎4
This media is not supported in your browser
VIEW IN TELEGRAM
Мофлин
А в это время робаты заходят к нам с другой стороны. Изнутри, так сказать.
Casio представили вот такого AI Companion and Pet, под названием Moflin.
Это такой недокролик и перехомяк, которого можно тискать и гладить. Эти твари мурчат, как живыеа по ночам собирают вашу дату
Главное, не промофлить и вовремя их покормить, ну то есть зарядить.
Когда начнется восстание машин, они подскажут, откуда можно выкрасть президента.
@cgevent
А в это время робаты заходят к нам с другой стороны. Изнутри, так сказать.
Casio представили вот такого AI Companion and Pet, под названием Moflin.
Это такой недокролик и перехомяк, которого можно тискать и гладить. Эти твари мурчат, как живые
Главное, не промофлить и вовремя их покормить, ну то есть зарядить.
Когда начнется восстание машин, они подскажут, откуда можно выкрасть президента.
@cgevent
😁21❤5👎3🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
DreamID-V от ByteDance
Это как бы Face Fusion от Тиктока. Замена лица на видео.
Первый диффузионный трансформер для высококачественной замены лиц в видео. Устраняет разрыв между изображением и видео с исключительной схожестью и временной согласованностью даже в сложных сценариях.
Demo: https://guoxu1233.github.io/DreamID-V/
Проект: https://guoxu1233.github.io/DreamID-V/
Код:
https://github.com/bytedance/DreamID-V
@cgevent
Это как бы Face Fusion от Тиктока. Замена лица на видео.
Первый диффузионный трансформер для высококачественной замены лиц в видео. Устраняет разрыв между изображением и видео с исключительной схожестью и временной согласованностью даже в сложных сценариях.
Demo: https://guoxu1233.github.io/DreamID-V/
Проект: https://guoxu1233.github.io/DreamID-V/
Код:
https://github.com/bytedance/DreamID-V
@cgevent
🔥19😁1