Media is too big
VIEW IN TELEGRAM
Нейропрожарка
Я бы поддержал Гульнару голосованием. Пример того, что ИИ уже конкурирует с продакшеном на конкурсах. Читаем ниже.
Меня зовут Динекаева Гульнара, я AI-креатор. Раньше занималась графическим дизайном, а теперь экспериментирую с нейросетями и видео.
🎬 Этот клип я сделала специально для финала Всероссийского конкурса креативных компетенций ArtMasters.
Мою работу показали в Москве на большом экране кинотеатра «Художественный». Для меня это было событие, о котором я раньше могла только мечтать.
📌 По условиям финального ТЗ мне досталась песня певицы OKSÁNBO — «Автопортрет». В клипе обязательно нужно было использовать фольклорные элементы. Поэтому я выбрала тему «Башкирской легенды о семи девушках», которая откликнулась смыслом и атмосферой.
⏱️ Сроки были очень жёсткие — всего 10 дней. Работала ночами по 3–4 часа, потому что днём это было почти невозможно: мы проходили этап отлучения ребёнка от груди, и всё внимание уходило ребёнку, она днём не спала, было тяжело.
🛠 Использовала разные нейросети: Midjourney, Krea, Kling, Seedance, Minimax, Runway, Higgsfield, Nano Banana
💸 По деньгам проект обошёлся примерно в 15 000 рублей.
💡 Я оказалась единственной финалисткой, чей клип был сделан полностью в нейросетях, все остальные снимали на камеры со съемочными командами. Для меня это был и вызов, и доказательство, что AI-творчество может конкурировать с традиционным.
@cgevent
Я бы поддержал Гульнару голосованием. Пример того, что ИИ уже конкурирует с продакшеном на конкурсах. Читаем ниже.
Меня зовут Динекаева Гульнара, я AI-креатор. Раньше занималась графическим дизайном, а теперь экспериментирую с нейросетями и видео.
🎬 Этот клип я сделала специально для финала Всероссийского конкурса креативных компетенций ArtMasters.
Мою работу показали в Москве на большом экране кинотеатра «Художественный». Для меня это было событие, о котором я раньше могла только мечтать.
📌 По условиям финального ТЗ мне досталась песня певицы OKSÁNBO — «Автопортрет». В клипе обязательно нужно было использовать фольклорные элементы. Поэтому я выбрала тему «Башкирской легенды о семи девушках», которая откликнулась смыслом и атмосферой.
⏱️ Сроки были очень жёсткие — всего 10 дней. Работала ночами по 3–4 часа, потому что днём это было почти невозможно: мы проходили этап отлучения ребёнка от груди, и всё внимание уходило ребёнку, она днём не спала, было тяжело.
🛠 Использовала разные нейросети: Midjourney, Krea, Kling, Seedance, Minimax, Runway, Higgsfield, Nano Banana
💸 По деньгам проект обошёлся примерно в 15 000 рублей.
💡 Я оказалась единственной финалисткой, чей клип был сделан полностью в нейросетях, все остальные снимали на камеры со съемочными командами. Для меня это был и вызов, и доказательство, что AI-творчество может конкурировать с традиционным.
@cgevent
👍101👎54🔥19❤14
Forwarded from Сиолошная
Только что подвели результаты ICPC, финала студенческой олимпиады по программированию. Наши любимые слоны, LRM, тоже участвовали.
Система от OpenAI решила все 12 задач из 12 и заняла абсолютное первое место. Система принимала официальное участие, то есть её решения оценивались так же, как у остальных участников, и лимиты по времени были те же — никаких запусков на кластере на неделю. Задачи были переданы модели в точно таком же виде, в котором студенты получают их в PDF. Система сама выбирала, какие решения отправлять — так как есть ограничение, и нельзя сделать 100500 посылок. Для самой сложной задачи, двенадцатой, которую не решила ни одна другая команда, система достигла успеха на 9ую попытку.
OpenAI говорит, что система работала так: экспериментальная рассуждающая модель общего назначения, которую не тренировали специально на ICPC (скорее всего, та же модель, что выиграла золото на IOI и IMO, чуть дообученная за прошедшее время) и GPT-5 генерировали решения, и первая выбирала результаты. В таком формате GPT-5 сгенерировала правильные решения для 11 задач из 12.
Второе место заняли ребята из СПбГУ — респект, решили 11 из 12 задач! Все остальные команды решили 10 и меньше.
Дальше идёт система от Google DeepMind, которая решила «всего лишь» 10 задач (тоже выдающийся результат), включая самую сложную. Блогпост тут.
📈 no progress so far, only the walls
Система от OpenAI решила все 12 задач из 12 и заняла абсолютное первое место. Система принимала официальное участие, то есть её решения оценивались так же, как у остальных участников, и лимиты по времени были те же — никаких запусков на кластере на неделю. Задачи были переданы модели в точно таком же виде, в котором студенты получают их в PDF. Система сама выбирала, какие решения отправлять — так как есть ограничение, и нельзя сделать 100500 посылок. Для самой сложной задачи, двенадцатой, которую не решила ни одна другая команда, система достигла успеха на 9ую попытку.
OpenAI говорит, что система работала так: экспериментальная рассуждающая модель общего назначения, которую не тренировали специально на ICPC (скорее всего, та же модель, что выиграла золото на IOI и IMO, чуть дообученная за прошедшее время) и GPT-5 генерировали решения, и первая выбирала результаты. В таком формате GPT-5 сгенерировала правильные решения для 11 задач из 12.
Второе место заняли ребята из СПбГУ — респект, решили 11 из 12 задач! Все остальные команды решили 10 и меньше.
Дальше идёт система от Google DeepMind, которая решила «всего лишь» 10 задач (тоже выдающийся результат), включая самую сложную. Блогпост тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥54❤22😱10👍8👎7
Media is too big
VIEW IN TELEGRAM
Code Maestro
Про Code Maestro я уже писал - если коротко — это Cursor для геймдева. Но не абы какой, а заточенный под Unity. Причём не только про код, а прям про всё: ассеты, плагины, архитектуру, зависимости, вплоть до версий.
И это уже работает. Онбординг? Есть. Навигация по проекту? Есть. Рефакторинг, оптимизация, багфиксы, порты, документация с диаграммами и даже “паспорт проекта”? Всё там. Хотите юнит-тесты? Тоже может.
Коннекторы уже прикручены к Unity Editor, Jira, Figma, Blender, Git, Slack, Notion и т.д. Можно юзать в режиме чата, а можно включить «почти автопилот» (агенты).
Главное: проект индексируется локально, никакие данные не улетают в облако. Только запросы к LLM. То есть с безопасностью всё чётко.
Модель ценообразования тоже без боли: никаких мутных подписок на рабочие места, только кредиты за использование. Хоть один разработчик, хоть сто — без разницы. И цены ниже, чем напрямую у Claude API (который они используют).
В данный момент поддерживается Unity и HTML5, дальше обещают Unreal Engine и другие игровые движки. Если это реально будет работать гладко — то у юнитистов появился прям супер ассистент.
Но нужно понимать, что это больше не про вайб-кодинг, а скорее рассчитано на профессионалов всех уровней (от джунов до сеньоров), кто хочет существенно ускорить работу. С нуля, по кривому промпту, за пять минут он не создаст игру «Мортал Комбат с 40 персами».
Сейчас дают двойные кредиты на старте и есть free trial, можно просто потестить на своём проекте.
@cgevent
Про Code Maestro я уже писал - если коротко — это Cursor для геймдева. Но не абы какой, а заточенный под Unity. Причём не только про код, а прям про всё: ассеты, плагины, архитектуру, зависимости, вплоть до версий.
И это уже работает. Онбординг? Есть. Навигация по проекту? Есть. Рефакторинг, оптимизация, багфиксы, порты, документация с диаграммами и даже “паспорт проекта”? Всё там. Хотите юнит-тесты? Тоже может.
Коннекторы уже прикручены к Unity Editor, Jira, Figma, Blender, Git, Slack, Notion и т.д. Можно юзать в режиме чата, а можно включить «почти автопилот» (агенты).
Главное: проект индексируется локально, никакие данные не улетают в облако. Только запросы к LLM. То есть с безопасностью всё чётко.
Модель ценообразования тоже без боли: никаких мутных подписок на рабочие места, только кредиты за использование. Хоть один разработчик, хоть сто — без разницы. И цены ниже, чем напрямую у Claude API (который они используют).
В данный момент поддерживается Unity и HTML5, дальше обещают Unreal Engine и другие игровые движки. Если это реально будет работать гладко — то у юнитистов появился прям супер ассистент.
Но нужно понимать, что это больше не про вайб-кодинг, а скорее рассчитано на профессионалов всех уровней (от джунов до сеньоров), кто хочет существенно ускорить работу. С нуля, по кривому промпту, за пять минут он не создаст игру «Мортал Комбат с 40 персами».
Сейчас дают двойные кредиты на старте и есть free trial, можно просто потестить на своём проекте.
@cgevent
1👍48❤14🔥8👎3😱2
This media is not supported in your browser
VIEW IN TELEGRAM
Метачка бахнула очечки Ray Ban Display.
Там экран на правом глазу, что переводит устройство из разряда умных очков в AR-девайс.
Сразу обсудим цену - 800 баксов.
Это не 300 за Meta Quest 2 (500 за MQ 3), но и не 2500 за лыжную маску от Эппле.
В продаже с 30 сентября.
Дисплей расположен сбоку, чтобы не загораживать обзор и он не горит постоянно. Выскакивает на уведомления, сообщения, звонки или запущенные аппы.
Одна из новых и крутых фич - это браслет. Когда-то Метачка купила за ацкие миллионы компания Ctrl Lab - и вот наконец-то эти наработки пошли в продакшен. Там используется электронейромиография - считывание сигналов от мышц в районе запястья - поэтому для жестового управления не нужна камера, шевелите пальцами хоть за спиной. Задизайнили браслет тоже круто.
По характеристикам:
Дисплей 90 Гц, яркость до 5000 нит, разрешение 600x600 - 42 пикселя на каждый градус поля зрения
Есть камера для съемки фото и видео, динамики, микрофон, как в Ray-Ban Smart Glasses.
Время работы от батарейки - 6 часов, у браслета 18 часов.
Вес 69 грамм(!).
32 ГБ памяти - негусто если снимать видео.
Добыл видос в твитторе - взгляд изнутри, а также смешной момент, когда у Марка что-то пошло не так..
Подробности: https://www.meta.com/blog/meta-ray-ban-display-ai-glasses-connect-2025/
#ябвзял
@cgevent
Там экран на правом глазу, что переводит устройство из разряда умных очков в AR-девайс.
Сразу обсудим цену - 800 баксов.
Это не 300 за Meta Quest 2 (500 за MQ 3), но и не 2500 за лыжную маску от Эппле.
В продаже с 30 сентября.
Дисплей расположен сбоку, чтобы не загораживать обзор и он не горит постоянно. Выскакивает на уведомления, сообщения, звонки или запущенные аппы.
Одна из новых и крутых фич - это браслет. Когда-то Метачка купила за ацкие миллионы компания Ctrl Lab - и вот наконец-то эти наработки пошли в продакшен. Там используется электронейромиография - считывание сигналов от мышц в районе запястья - поэтому для жестового управления не нужна камера, шевелите пальцами хоть за спиной. Задизайнили браслет тоже круто.
По характеристикам:
Дисплей 90 Гц, яркость до 5000 нит, разрешение 600x600 - 42 пикселя на каждый градус поля зрения
Есть камера для съемки фото и видео, динамики, микрофон, как в Ray-Ban Smart Glasses.
Время работы от батарейки - 6 часов, у браслета 18 часов.
Вес 69 грамм(!).
32 ГБ памяти - негусто если снимать видео.
Добыл видос в твитторе - взгляд изнутри, а также смешной момент, когда у Марка что-то пошло не так..
Подробности: https://www.meta.com/blog/meta-ray-ban-display-ai-glasses-connect-2025/
#ябвзял
@cgevent
🔥33❤13😁6
This media is not supported in your browser
VIEW IN TELEGRAM
Wan 2.2 Video Edit
Вот такой переодеватор нам нужен! Это уже не картинки в нанабанане по углам тырить, а полное видео.
Я, правда, не нашел весов модели, и вообще описания модели, но нашел, где можно погонять:
https://wavespeed.ai/models/wavespeed-ai/wan-2.2/video-edit
$0.2 per 5 seconds (480p) or $0.4 per 5 seconds (720p)
Но вот это меня прям подбросило: maximum generation length of 120 seconds.
На Fal.ai нет, кто найдет источники, пишите в коменты.
Промпт: "Change her clothing to bikini"
@cgevent
Вот такой переодеватор нам нужен! Это уже не картинки в нанабанане по углам тырить, а полное видео.
Я, правда, не нашел весов модели, и вообще описания модели, но нашел, где можно погонять:
https://wavespeed.ai/models/wavespeed-ai/wan-2.2/video-edit
$0.2 per 5 seconds (480p) or $0.4 per 5 seconds (720p)
Но вот это меня прям подбросило: maximum generation length of 120 seconds.
На Fal.ai нет, кто найдет источники, пишите в коменты.
Промпт: "Change her clothing to bikini"
@cgevent
❤19👎16😁10👍3🔥1
Ну, за музику.
Наткнулся на мощнейший хит в канале у Леши Кондакова - он делал свой ИИ-кавер на эту композицию.
Adele & Miley Cyrus: https://www.youtube.com/watch?v=XO3zO88xapQ
Просто хитяра, с хорошим текстом и мощнейшей подачей. Три миллиона просмотров.
Вчера вернулся к нему, послушать на ночь уже в своих XM4.
Я не фанат Майли Сайрус, но Adele слушаю регулярно. Ее жесткая тесситура наверху всегда узнаваема.
Потом смотрю, что вышел дуэт Адель с Эдом Шираном.
https://www.youtube.com/watch?v=Mdzv6M0OOy0
И ну слушать.
И снова мурашки, ибо хит. Аранжировка идеальная, подача ширановская, дуэт бомбический.
Послушайте.
Иду смотреть дальше.
Там дуэты Адель с каким-то неизвестными мне мужуками в наколках и Джастином Бибером (о котором я знаю только то, что есть такой Джастин Бибер). Послушал. Не то, чтобы хиты, но есть приятный блюз.
Вот думаю, какая молодец Адель, записала дуэтов разных, Бруно Марс, Гарри Стайлс.
Стал слушать дуэт с Пинк и насторожился. Там как будто две Адель звучат. На Пинк непохоже.
Хмм.
Кидаю в Гугл "Adele duets".
И тут ИИ от Гугла в первом же абзаце-саммаризации прилетает, что все это фейки.
И я такой: чо?
Лезу в дуэт с Шираном и внизу в описании читаю:
This track was fully produced, mixed, and mastered by Me. From crafting the instrumentals to processing the vocals using advanced AI techniques
🛑 Disclaimer
This song was created with the help of A.I. technology and does not represent the thoughts or attitudes of the imitated artists in any way.
И так везде.
Ну и тут я понимаю, что попался и не прохожу тест на ИИшность. И Леша Кондаков, получается, делал ИИ-кавер с ИИ-кавера.
Конечно, вы щас, вооруженные знанием, что это ИИ начнете предъявлять блох. Вот тут стереобаза не та, а тут плоское звучание. Ну ок. Подождем случая, когда вы не будете знать, что это ИИ.
Полный список "дуэтов" тут:
https://www.youtube.com/@Romanticlounge-1/videos
И да, с Элтоном Джоном совсем лажа, но Адель похожа идеально.
P.S. Почитал коменты на трубе под песней майли сайрус и адель. Все просто восхищены песней. Где-то с половины от 1300 коментов появляется информация что это ИИ. Но народ не перестает хвалить песню, а начинает хвалить ИИ, либо писать, что все это дико пугает, если песни такого уровня пишет ИИ, но сама песня хит и гимн женщинам.
@cgevent
Наткнулся на мощнейший хит в канале у Леши Кондакова - он делал свой ИИ-кавер на эту композицию.
Adele & Miley Cyrus: https://www.youtube.com/watch?v=XO3zO88xapQ
Просто хитяра, с хорошим текстом и мощнейшей подачей. Три миллиона просмотров.
Вчера вернулся к нему, послушать на ночь уже в своих XM4.
Я не фанат Майли Сайрус, но Adele слушаю регулярно. Ее жесткая тесситура наверху всегда узнаваема.
Потом смотрю, что вышел дуэт Адель с Эдом Шираном.
https://www.youtube.com/watch?v=Mdzv6M0OOy0
И ну слушать.
И снова мурашки, ибо хит. Аранжировка идеальная, подача ширановская, дуэт бомбический.
Послушайте.
Иду смотреть дальше.
Там дуэты Адель с каким-то неизвестными мне мужуками в наколках и Джастином Бибером (о котором я знаю только то, что есть такой Джастин Бибер). Послушал. Не то, чтобы хиты, но есть приятный блюз.
Вот думаю, какая молодец Адель, записала дуэтов разных, Бруно Марс, Гарри Стайлс.
Стал слушать дуэт с Пинк и насторожился. Там как будто две Адель звучат. На Пинк непохоже.
Хмм.
Кидаю в Гугл "Adele duets".
И тут ИИ от Гугла в первом же абзаце-саммаризации прилетает, что все это фейки.
И я такой: чо?
Лезу в дуэт с Шираном и внизу в описании читаю:
This track was fully produced, mixed, and mastered by Me. From crafting the instrumentals to processing the vocals using advanced AI techniques
🛑 Disclaimer
This song was created with the help of A.I. technology and does not represent the thoughts or attitudes of the imitated artists in any way.
И так везде.
Ну и тут я понимаю, что попался и не прохожу тест на ИИшность. И Леша Кондаков, получается, делал ИИ-кавер с ИИ-кавера.
Конечно, вы щас, вооруженные знанием, что это ИИ начнете предъявлять блох. Вот тут стереобаза не та, а тут плоское звучание. Ну ок. Подождем случая, когда вы не будете знать, что это ИИ.
Полный список "дуэтов" тут:
https://www.youtube.com/@Romanticlounge-1/videos
И да, с Элтоном Джоном совсем лажа, но Адель похожа идеально.
P.S. Почитал коменты на трубе под песней майли сайрус и адель. Все просто восхищены песней. Где-то с половины от 1300 коментов появляется информация что это ИИ. Но народ не перестает хвалить песню, а начинает хвалить ИИ, либо писать, что все это дико пугает, если песни такого уровня пишет ИИ, но сама песня хит и гимн женщинам.
@cgevent
🔥48👎20❤8👍4
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
Второй клип от Александра (Twoxi)
Музыкальный клип сделанный весной 25 года.
Сюжет примитивный, встреча мужчины и женщины, ссора, эмоциональный всплеск.
В этот раз упор опять был на визуале, будто снято на современные камеры в черно-красных цветах и высокой контрастностью.
Виузал:
1) midjourney 6 - генерация первых 25 - 40 кадров с главной героиней через омни и так же кадров 30 с разными деталями для стиля (машины, улицы, билборды, люди) + в конце промта писал ключевые слова. (Rain, Night, Red and black, DLSS, Cinematic)
10$ - месячная подписка
2) flux / krea.
Все кадры закидывал в обучение своей модели в krea. Тогда только появилась эта функция. Получились две лоры (персонаж + стиль)
Генерировал по принципу, промт + ключевые слова (Red and black, DLSS, Cinematic) + лора
100$ ≈ подписка + докупал кредиты
3) Kling 1.6 / 2.0
Вся анимация была сделана через клинг. Промты писались редко. Контроль камеры использовал часто, в основном готовые пресеты клинга и реже писал сам. например (drone shooting)
25$ - подписка
Апскейл и монтаж: CapCut
Активно использовал ускорение видео. Плюсы метода в том, что не видно дефектов и переходов. И само по себе это добавляет стиля и динамики.
Музыка: Twoxi - Exxtasy
@cgevent
Второй клип от Александра (Twoxi)
Музыкальный клип сделанный весной 25 года.
Сюжет примитивный, встреча мужчины и женщины, ссора, эмоциональный всплеск.
В этот раз упор опять был на визуале, будто снято на современные камеры в черно-красных цветах и высокой контрастностью.
Виузал:
1) midjourney 6 - генерация первых 25 - 40 кадров с главной героиней через омни и так же кадров 30 с разными деталями для стиля (машины, улицы, билборды, люди) + в конце промта писал ключевые слова. (Rain, Night, Red and black, DLSS, Cinematic)
10$ - месячная подписка
2) flux / krea.
Все кадры закидывал в обучение своей модели в krea. Тогда только появилась эта функция. Получились две лоры (персонаж + стиль)
Генерировал по принципу, промт + ключевые слова (Red and black, DLSS, Cinematic) + лора
100$ ≈ подписка + докупал кредиты
3) Kling 1.6 / 2.0
Вся анимация была сделана через клинг. Промты писались редко. Контроль камеры использовал часто, в основном готовые пресеты клинга и реже писал сам. например (drone shooting)
25$ - подписка
Апскейл и монтаж: CapCut
Активно использовал ускорение видео. Плюсы метода в том, что не видно дефектов и переходов. И само по себе это добавляет стиля и динамики.
Музыка: Twoxi - Exxtasy
@cgevent
👎34👍20❤6🔥5
Только проверенные нейросети и максимум пользы 🔥
Если вам надоели каналы, где вместо пользы — мемы и пересказ Reddit: загляните в НейроProfit – здесь только отфильтрованная информация, ничего лишнего, никакой развлекухи, только реально работающие нейросети для учебы, работы и жизни.
Автор канала не обещает золотых гор. Вместо этого — честные обзоры, личный опыт и практические советы, которые помогут вам избежать типичных ошибок и использовать ИИ с умом.
🪼 А еще автор рассказывает о сложных вещах простым языком, например Как расходуются кредиты в Manus или Почему Devin 2.1 не убийца Cursor
🪼 Каждый пост — это концентрат пользы, без воды и лишних слов:
🪼 Как вернуть старые модели в ChatGPT-5
🪼 Как использовать Seedream v4 бесплатно и тестировать ТОПОВЫЕ МОДЕЛИ БЕСПЛАТНО
🪼 Почему ИИ-браузер от GenSpark не бесплатный - мой обзор
🪼 Реальные возможности Gamma 3.0, и что на самом деле можно попробовать бесплатно
🪼 Мой обзор на Kimi Slides - НАГЛЯДНОЕ Сравнение с Gamma, Manus, Genspark, Perplexity Labs
🪼 Как создать копию дизайна в ChatGPT
🪼 ИИ-помощники в учёбе и жизни - обзор на каждый
🪼 Сравнение GenSpark с Manus
🪼 Какую задачу дать ИИ Агентам?
🪼 ТОП‑5 для работы с промптами ИИ‑агентов - отдельно про каждый
И много другой полезной информации, которая не уместилась
В НейроProfit ценят ваше время👌 Подписывайтесь и получайте только рабочую информацию без лишнего шума.
Если вам надоели каналы, где вместо пользы — мемы и пересказ Reddit: загляните в НейроProfit – здесь только отфильтрованная информация, ничего лишнего, никакой развлекухи, только реально работающие нейросети для учебы, работы и жизни.
Автор канала не обещает золотых гор. Вместо этого — честные обзоры, личный опыт и практические советы, которые помогут вам избежать типичных ошибок и использовать ИИ с умом.
И много другой полезной информации, которая не уместилась
В НейроProfit ценят ваше время
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
НейроProfit | Соня Pro AI
Авторский канал, проверенные мною нейросети и ИИ-сервисы для бизнеса и учебы. Обучение: https://neuralprofit.ru/, https://neuralprofit.ru/photo
РКН: https://clck.ru/3GKhJZ
Реклама и сотр-во: @Adsneuralprofit, @neurosonya, https://telega.in/c/NeuralProfit
РКН: https://clck.ru/3GKhJZ
Реклама и сотр-во: @Adsneuralprofit, @neurosonya, https://telega.in/c/NeuralProfit
👎29👍13❤7🔥2
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
У Luma Labs вышла новая видео модель - Ray 3
Новая модель может генерит в 1080p 16-bit HDR, длительность 5 или 9 сек.
➖ Черипики класные - хоть и все-таки видно, что детализация не такая высокая, особенно на дальних планах. Лица у людей за занрем плане тоже плывут. Все-таки маркетинговый отдел любит продать то, чего на самом деле пока нет (на странице релиза написаны довольно смелые заявления о качестве, ризонинге и других возможностях модели).
➖ Есть Draft Mode, который генерит быстрее, но только 5 сек и в ужасном качестве (640 × 352). Бесплатно можно генерить только в нем.
Я попробовал погенерить с премиумной подпиской. И результат прямо очень далек от черипиков.
Так как через интерфейс мы не напрямую дергаем модель, то о её внутренних способностях можно судить только косвенно.
1) Сначала промпт переписывается через LLM, добалвяя деталей
2) Забавно, что если выбираешь генерацию на 9 секунд, то заметно как сначала генерится грубая версия на 5 сек, а затем запускается extend еще на 5-секундный отрезок с перехлестом в 1 секудну с предыдущим. То есть по сути сама модель может выдавать только отрезки по 5 сек.
Генерация 9 сек в 1080p у меня заняла 5-6 мин. На подписку в $10/мес можно сгенерить прирмерно 6 таких видосов, затем придется доплавичвать.
Черипики можно посмотреть тут: https://lumalabs.ai/ray
Вы уже успели потестить? Что думаете?
@ai_newz
Новая модель может генерит в 1080p 16-bit HDR, длительность 5 или 9 сек.
Я попробовал погенерить с премиумной подпиской. И результат прямо очень далек от черипиков.
Так как через интерфейс мы не напрямую дергаем модель, то о её внутренних способностях можно судить только косвенно.
1) Сначала промпт переписывается через LLM, добалвяя деталей
2) Забавно, что если выбираешь генерацию на 9 секунд, то заметно как сначала генерится грубая версия на 5 сек, а затем запускается extend еще на 5-секундный отрезок с перехлестом в 1 секудну с предыдущим. То есть по сути сама модель может выдавать только отрезки по 5 сек.
Генерация 9 сек в 1080p у меня заняла 5-6 мин. На подписку в $10/мес можно сгенерить прирмерно 6 таких видосов, затем придется доплавичвать.
Черипики можно посмотреть тут: https://lumalabs.ai/ray
Вы уже успели потестить? Что думаете?
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11❤9👍8👎3😁1
Вчера немного похлестались в коментах по поводу ИИшной Адель с Эдом Шираном до кучи.
Но сошлись на том, что https://www.youtube.com/watch?v=XO3zO88xapQ - хитяра и бомба.
Если вы думаете, что все это игрушки для энтузиастов и поделки для ютюба, то вот вам реальная история прям сейчас.
Ксения Моне (Xania Monet) простой дизайнер, умеет писать стихи, но ни хорошо петь, ни писать музику не умеет. Но не беда, взяла Suno и накропала на свои стихи целый альбом. Альбом, подобно Адель пошел в массы (полмиллиона прослушиваний на Спотифай). Она быстро сделала инсту(гляньте), тоже как вы понимаете, не фотоаппаратом.
И тут ей позвонили из Hallwood Media. На зуме она появилась без камеры, а на просьбу спеть просто отказалась. Тем не менее с ней подписали контракт на, внимание, ТРИ МИЛЛИОНА долларов.
Еще раз, Телиша «Никки» Джонс (настоящее имя) просто управляет дизайн-студией в Олив-Бранч, штат Миссисипи, а в свободное время генерит музику в Суно и себя не так важно где.
Просто у нее есть чуйка на хиты и немного вкуса.
На прошлой неделе она попала на 25-е место в списке восходящих артистов Billboard, поднялась на 21-е место в Hot Gospel Songs и заняла первое место в рейтинге продаж цифровых R&B-песен с песней «How Was I Supposed to Know». В общей сложности её альбомы были прослушаны в США 9,8 миллиона раз.
Есть еще вопросы?
Думаю открыть музикальную школу, где будут преподавать Суно и Юдио. И тренировать уши, а не пальцы.
https://www.billboard.com/pro/ai-music-artist-xania-monet-multimillion-dollar-record-deal/
@cgevent
Но сошлись на том, что https://www.youtube.com/watch?v=XO3zO88xapQ - хитяра и бомба.
Если вы думаете, что все это игрушки для энтузиастов и поделки для ютюба, то вот вам реальная история прям сейчас.
Ксения Моне (Xania Monet) простой дизайнер, умеет писать стихи, но ни хорошо петь, ни писать музику не умеет. Но не беда, взяла Suno и накропала на свои стихи целый альбом. Альбом, подобно Адель пошел в массы (полмиллиона прослушиваний на Спотифай). Она быстро сделала инсту(гляньте), тоже как вы понимаете, не фотоаппаратом.
И тут ей позвонили из Hallwood Media. На зуме она появилась без камеры, а на просьбу спеть просто отказалась. Тем не менее с ней подписали контракт на, внимание, ТРИ МИЛЛИОНА долларов.
Еще раз, Телиша «Никки» Джонс (настоящее имя) просто управляет дизайн-студией в Олив-Бранч, штат Миссисипи, а в свободное время генерит музику в Суно и себя не так важно где.
Просто у нее есть чуйка на хиты и немного вкуса.
На прошлой неделе она попала на 25-е место в списке восходящих артистов Billboard, поднялась на 21-е место в Hot Gospel Songs и заняла первое место в рейтинге продаж цифровых R&B-песен с песней «How Was I Supposed to Know». В общей сложности её альбомы были прослушаны в США 9,8 миллиона раз.
Есть еще вопросы?
Думаю открыть музикальную школу, где будут преподавать Суно и Юдио. И тренировать уши, а не пальцы.
https://www.billboard.com/pro/ai-music-artist-xania-monet-multimillion-dollar-record-deal/
@cgevent
❤41👍16🔥16👎6
Forwarded from Нейронавт | Нейросети в творчестве
This media is not supported in your browser
VIEW IN TELEGRAM
Lucy Edit
Редактор видео по тексту от Decart.ai
В основе - архитектура Wan2.2 5B. Унаследовал VAE + DiT, что должно упростить адаптацию существующих скриптов и воркфлоу WAN.
Модель доступна в двух версиях: Dev — открытая версия для сообщества, и Pro — более детализированная и надёжная версия для создателей контента. Обе версии доступны через API и платформу, поддерживают редактирование видео в разрешении 480p и 720p
Недавно Decart показали быстрый видеогенератор Lucy, который доступен только на платных сервисах. Интересно, коммерческая модель у них тоже на базе открытого WAN?
Теперь же открытая редактирующая модель. Выглядит слабее WAN, шакально. Но может окажется быстрее или умнее?
Попробовать - на страте дают 2000 кредитов
HF - всего около 32Гб
ComfyUI - зато уже можно пользоваться
#videoediting #video2video #videoinpainting
Редактор видео по тексту от Decart.ai
Опенсорсный Nano-Banana для видео
В основе - архитектура Wan2.2 5B. Унаследовал VAE + DiT, что должно упростить адаптацию существующих скриптов и воркфлоу WAN.
Модель доступна в двух версиях: Dev — открытая версия для сообщества, и Pro — более детализированная и надёжная версия для создателей контента. Обе версии доступны через API и платформу, поддерживают редактирование видео в разрешении 480p и 720p
Недавно Decart показали быстрый видеогенератор Lucy, который доступен только на платных сервисах. Интересно, коммерческая модель у них тоже на базе открытого WAN?
Теперь же открытая редактирующая модель. Выглядит слабее WAN, шакально. Но может окажется быстрее или умнее?
Попробовать - на страте дают 2000 кредитов
HF - всего около 32Гб
ComfyUI - зато уже можно пользоваться
#videoediting #video2video #videoinpainting
👍12❤4👎3
Про видео-генератор (не редактор) Lucy писал вот тут.
Это конкурент скорее для LTX, чем для WAN, ибо у ниx С-Скорость, а не К-Качество - главная фишка.
Больше Edit богу генераторов!
@cgevent
Это конкурент скорее для LTX, чем для WAN, ибо у ниx С-Скорость, а не К-Качество - главная фишка.
Больше Edit богу генераторов!
@cgevent
Telegram
Метаверсище и ИИще
Люси
Вы будете смеяться, но у нас новый видеогенератор. Быстрый притом.
Примечательно, что это генератор от команды Decart.ai, которые недавно бахнули Mirage - realtime генератор(а точнее перелицеватор) миров и Oasis 2.0 - генератор Minecraft мира. Что…
Вы будете смеяться, но у нас новый видеогенератор. Быстрый притом.
Примечательно, что это генератор от команды Decart.ai, которые недавно бахнули Mirage - realtime генератор(а точнее перелицеватор) миров и Oasis 2.0 - генератор Minecraft мира. Что…
👍6❤1😁1
Полезнейшая статья-обзор от a16z.
Пока мы тут в телеграме писаем слезами восторга на каждый ИИ-чих, они проанализировали рынок и провели сравнительный анализ инструментов на базе искусственного интеллекта по различным повседневным офисным задачам — созданию таблиц, ведению протоколов совещаний и написанию писем. Их тесты показали впечатляющую производительность ряда универсальных инструментов, некоторых выдающихся вертикальных приложений, а также дали несколько подсказок о том, как развивается рынок.
На данный момент рынок фрагментирован, и каждую неделю появляются новые инструменты. На той неделе компания Anthropic запустила функцию «создание и редактирование файлов» для Claude! Потребители задаются вопросом: какой инструмент мне следует использовать и в каких сценариях я могу начать внедрять инструменты с искусственным интеллектом в свою повседневную работу?
Рынок разделяется на два подхода к повышению эффективности работы агентов. С одной стороны, это «универсальные» горизонтальные инструменты, предназначенные для работы с любыми приложениями и задачами. С другой стороны, это специализированные вертикальные инструменты, предназначенные для глубокого анализа отдельных рабочих процессов, таких как электронная почта, слайды или электронные таблицы. Оба подхода быстро развиваются, и у обоих есть свои недостатки. См. Картинку.
А дальше они прогнали все эти тулзы через типичные офисные задачи: имейлы, таблицы, презентации, ресерч и аналитика(!), суммаризация встреч.
Я вам сильно советую посмотреть хотя бы картинки-таблицы, там оценивались все эти агенты-шмагенты, как по скорости выполнения, так и по качеству. Или пробегитесь с переводом, очень познавательно.
Хорошо отличились Манус и Гамма, но были и совершенно незнакомые мне названия, особенно в вертикальных направлениях.
Общий вывод такой, вертикальные решения и горизонтальные движутся навстречу друг другу, и крупные горизонтальные игроки (Антропик, ОпенАИ, Google) будут пытаться пожрать нишевые решения, которым надо бежать впереди паровоза.
https://a16z.com/the-ai-native-office-suite-can-ai-do-work-for-you/
@cgevent
Пока мы тут в телеграме писаем слезами восторга на каждый ИИ-чих, они проанализировали рынок и провели сравнительный анализ инструментов на базе искусственного интеллекта по различным повседневным офисным задачам — созданию таблиц, ведению протоколов совещаний и написанию писем. Их тесты показали впечатляющую производительность ряда универсальных инструментов, некоторых выдающихся вертикальных приложений, а также дали несколько подсказок о том, как развивается рынок.
На данный момент рынок фрагментирован, и каждую неделю появляются новые инструменты. На той неделе компания Anthropic запустила функцию «создание и редактирование файлов» для Claude! Потребители задаются вопросом: какой инструмент мне следует использовать и в каких сценариях я могу начать внедрять инструменты с искусственным интеллектом в свою повседневную работу?
Рынок разделяется на два подхода к повышению эффективности работы агентов. С одной стороны, это «универсальные» горизонтальные инструменты, предназначенные для работы с любыми приложениями и задачами. С другой стороны, это специализированные вертикальные инструменты, предназначенные для глубокого анализа отдельных рабочих процессов, таких как электронная почта, слайды или электронные таблицы. Оба подхода быстро развиваются, и у обоих есть свои недостатки. См. Картинку.
А дальше они прогнали все эти тулзы через типичные офисные задачи: имейлы, таблицы, презентации, ресерч и аналитика(!), суммаризация встреч.
Я вам сильно советую посмотреть хотя бы картинки-таблицы, там оценивались все эти агенты-шмагенты, как по скорости выполнения, так и по качеству. Или пробегитесь с переводом, очень познавательно.
Хорошо отличились Манус и Гамма, но были и совершенно незнакомые мне названия, особенно в вертикальных направлениях.
Общий вывод такой, вертикальные решения и горизонтальные движутся навстречу друг другу, и крупные горизонтальные игроки (Антропик, ОпенАИ, Google) будут пытаться пожрать нишевые решения, которым надо бежать впереди паровоза.
https://a16z.com/the-ai-native-office-suite-can-ai-do-work-for-you/
@cgevent
👍23❤7🔥7👎3
Нейропайплайн: Нейроконцептинг,Нейромоделинг, НейроUVанвраппинг, Нейротекстуринг, Нейрориг и Нейроскининг.
Как вам такое, Илоны Маски?
А все это один твит от Хуньяньского, который наводит шорох почти каждый день.
https://3d.hunyuan.tencent.com/studio
Я, кстати, не понял, чего они так на игры напирают, тут полно применений за пределами игр (в играх жесткие требования к топологии и текстурам, есть более мягкие ниши).
Итак, поглядите картинку, это типичный 3Д-пайплайн, только Хуньянский обещает сделать все в нейро.
Пройдемся по шагам и разберем статью (да-да, она есть).
Генерация концептов.
Стилизация: Тут у них под капотом Qwen-ImageEdit с лорами.
Удаление фона и управление позами - FLUX.1-dev
Пропсы и их текстуры - Flux-Kontext
768 × 768 - негусто
3Д-генерация
Тут понятно, что это Hunyuan3D, с костылями из Dino V2. В статье, кстати, упоминается старый Хуньян 3Д версии 2.5
Потом идет сегментация на части. Там у них свой метод X-Part
Дальше самое интересное. Polygon Generation with Auto-regressive Models
Это как бы ретоп.
Там очень много формул - если вкратце то: Our polygon generative model consists of a point cloud encoder and an auto-regressive mesh decoder
И да, они единственные показывают сетки!
Дальше UV.
Чтобы делать текстурные развертки, они изобрели SeamGPT that generates artist-style cutting seams through an auto-regressive approach. Режет, короче, не только по топологии, но еще и учитывает семантику (тут голова, тут руки. Это круто). Забавно, что в конце они используют Blender’s Minimum Stretch, чтобы разгладить UV сетку. Полистайте статью, пример с микрофоном впечатляет.
Текстурирование.
4K material ball generation model, Base Color, Metallic, Roughness, Normal maps - включая генерацию промптами и редактирование с помощтю Flux Kontext. Звучит сладко.
Авториг и скининг
Тут они взяли чужие работы и допилили их до годного.
Для Бипедов - одна система рига, на основе 22 костей и скининг с учетом топологии сетки
Для всего остального примерно как тут: https://jasongzy.github.io/Make-It-Animatable/
Удивительно что они тренировали авториг всего 3 дня и было у ниx 10 000 гуманоидных скелетов.
Поздравляю, мы разобрали статью про Hunyuan3D Studio:
https://arxiv.org/pdf/2509.12815
Также есть запись в вейтлист (на китайском), то есть твит есть, а софта еще нет.
https://3d.hunyuan.tencent.com/studio
Если честно, выглядит как монстр из говна и палок (как и почти все в опенсорсе), но сама идея полностью заменить 3Д-пайплайн - выпуклая и законченная.
Остается только рендер. Нейрорендер.
@cgevent
Как вам такое, Илоны Маски?
А все это один твит от Хуньяньского, который наводит шорох почти каждый день.
https://3d.hunyuan.tencent.com/studio
Я, кстати, не понял, чего они так на игры напирают, тут полно применений за пределами игр (в играх жесткие требования к топологии и текстурам, есть более мягкие ниши).
Итак, поглядите картинку, это типичный 3Д-пайплайн, только Хуньянский обещает сделать все в нейро.
Пройдемся по шагам и разберем статью (да-да, она есть).
Генерация концептов.
Стилизация: Тут у них под капотом Qwen-ImageEdit с лорами.
Удаление фона и управление позами - FLUX.1-dev
Пропсы и их текстуры - Flux-Kontext
768 × 768 - негусто
3Д-генерация
Тут понятно, что это Hunyuan3D, с костылями из Dino V2. В статье, кстати, упоминается старый Хуньян 3Д версии 2.5
Потом идет сегментация на части. Там у них свой метод X-Part
Дальше самое интересное. Polygon Generation with Auto-regressive Models
Это как бы ретоп.
Там очень много формул - если вкратце то: Our polygon generative model consists of a point cloud encoder and an auto-regressive mesh decoder
И да, они единственные показывают сетки!
Дальше UV.
Чтобы делать текстурные развертки, они изобрели SeamGPT that generates artist-style cutting seams through an auto-regressive approach. Режет, короче, не только по топологии, но еще и учитывает семантику (тут голова, тут руки. Это круто). Забавно, что в конце они используют Blender’s Minimum Stretch, чтобы разгладить UV сетку. Полистайте статью, пример с микрофоном впечатляет.
Текстурирование.
4K material ball generation model, Base Color, Metallic, Roughness, Normal maps - включая генерацию промптами и редактирование с помощтю Flux Kontext. Звучит сладко.
Авториг и скининг
Тут они взяли чужие работы и допилили их до годного.
Для Бипедов - одна система рига, на основе 22 костей и скининг с учетом топологии сетки
Для всего остального примерно как тут: https://jasongzy.github.io/Make-It-Animatable/
Удивительно что они тренировали авториг всего 3 дня и было у ниx 10 000 гуманоидных скелетов.
Поздравляю, мы разобрали статью про Hunyuan3D Studio:
https://arxiv.org/pdf/2509.12815
Также есть запись в вейтлист (на китайском), то есть твит есть, а софта еще нет.
https://3d.hunyuan.tencent.com/studio
Если честно, выглядит как монстр из говна и палок (как и почти все в опенсорсе), но сама идея полностью заменить 3Д-пайплайн - выпуклая и законченная.
Остается только рендер. Нейрорендер.
@cgevent
5👍31❤9🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
Suno Version 5 soon
Все, что известно - где-то через две недели, макс месяц.
Надеюсь, что будет такой же разнос башки, как и предыдущие апдейты.
Суно - лучший.
@cgevent
Все, что известно - где-то через две недели, макс месяц.
Надеюсь, что будет такой же разнос башки, как и предыдущие апдейты.
Суно - лучший.
@cgevent
12🔥74🙏14❤12👍6👎1😱1
По данным The Information, OpenAI рассматривает возможноcь выпуска аппаратного обеспечения и ведет переговоры с поставщиками о разработке собственных устройств, включая умные очки, диктофон, некий "pin" и умный динамик. Сообщается, что компания обратилась к китайскому производителю Goertek за компонентами. Первый продукт может появиться в конце 2026 или начале 2027 года.
#ябвзял
https://www.theinformation.com/articles/openai-raids-apple-hardware-talent-manufacturing-partners
@cgevent
#ябвзял
https://www.theinformation.com/articles/openai-raids-apple-hardware-talent-manufacturing-partners
@cgevent
❤26👍12🔥7👎1
Forwarded from Psy Eyes
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Alibaba: выпустили видеомодель Wan 2.2 14B Animate для переложения анимации на персонажей или их удаления из кадра. Передаются тонкие движения мимики и даже пальцев.
Есть два подхода:
* Режим анимации — создаёт анимированное видео с персонажем на основе предоставленной картинки и видоса с нужным движением
* Режим замещения — удаляет персонажа из кадра и заменяет его на того, что в картинке, гармонично вписывая его в окружение с пересчётом освещения
Comfy уже наваяли веса, а Kijai воркфлоу и GGUF для тех у кого мало VRAM. Я погонял на 4090 + 128 ГБ RAM, и вкратце сколько бы у вас их ни было оно захочет всё, что у вас есть. На дефолтных настройках, с блоксвапом при отключенном Torch Compile, видео разрешением 832х480x16 fps 49 кадров генерилось 5 минут. При этом все 24ГБ VRAM заняты и в RAM выгружаются ~60 ГБ. Итоговый результат третье видео, где уши кота прижаты, и конечности целиком не видны в кадре.
Поставил 1280х720р ради интереса. Тут генка уже заняла 2 часа по сути на CPU. Сам RAM доходил до 130 ГБ. Думается комфи обнову скоро выпустят, чтобы утихомирить потребление оперативы. Но зато экспрессия актёра передана чётче и уже пальцы видны, которые двигаются в такт с ним (второе видео). Уши правда куда-то делись, но это думается надо с параметрами поиграться и контентом.
Pika пика? Мы несколько месяцев назад удивлялись тому, как у них ловко получается заменить человека в кадре, а сейчас эти инструменты рисовой братвой активно опускаются на людской уровень. Будем наблюдать за приёмом модели сообществом. Особенно интересно увидеть работы в мультипликации.
Демо (хаггинг)
Демо (modelscope)
Анонс
Хаггинг (Comfy)
Хаггинг (Wan)
Хаггинг GGUF (Kijai)
Comfy воркфлоу
Гитхаб
Есть два подхода:
* Режим анимации — создаёт анимированное видео с персонажем на основе предоставленной картинки и видоса с нужным движением
* Режим замещения — удаляет персонажа из кадра и заменяет его на того, что в картинке, гармонично вписывая его в окружение с пересчётом освещения
Comfy уже наваяли веса, а Kijai воркфлоу и GGUF для тех у кого мало VRAM. Я погонял на 4090 + 128 ГБ RAM, и вкратце сколько бы у вас их ни было оно захочет всё, что у вас есть. На дефолтных настройках, с блоксвапом при отключенном Torch Compile, видео разрешением 832х480x16 fps 49 кадров генерилось 5 минут. При этом все 24ГБ VRAM заняты и в RAM выгружаются ~60 ГБ. Итоговый результат третье видео, где уши кота прижаты, и конечности целиком не видны в кадре.
Поставил 1280х720р ради интереса. Тут генка уже заняла 2 часа по сути на CPU. Сам RAM доходил до 130 ГБ. Думается комфи обнову скоро выпустят, чтобы утихомирить потребление оперативы. Но зато экспрессия актёра передана чётче и уже пальцы видны, которые двигаются в такт с ним (второе видео). Уши правда куда-то делись, но это думается надо с параметрами поиграться и контентом.
Pika пика? Мы несколько месяцев назад удивлялись тому, как у них ловко получается заменить человека в кадре, а сейчас эти инструменты рисовой братвой активно опускаются на людской уровень. Будем наблюдать за приёмом модели сообществом. Особенно интересно увидеть работы в мультипликации.
Демо (хаггинг)
Демо (modelscope)
Анонс
Хаггинг (Comfy)
Хаггинг (Wan)
Хаггинг GGUF (Kijai)
Comfy воркфлоу
Гитхаб
🔥50❤13👍8😁1😱1