This media is not supported in your browser
VIEW IN TELEGRAM
AI Video Composer
Лицехваты упоролись и сделали управляемый текстом видеоредактор.
Прикрутить виспер и будет голосовой фотошоп из bladerunner.
Так как под капотом большинства видео-тулзов все равно лежит ffmpeg в том или ином виде, слоняры решили не заморачиваться, и прикрутили к нему qwen2.5-coder. Теперь можно делать уйму вещей с видео, аудио, картинками, для которых раньше надо было лезть либо в видеоредактор, либо на стаковерфлоу.
Ваистену, text2video который мы заслужили!
демо
х
Лицехваты упоролись и сделали управляемый текстом видеоредактор.
Прикрутить виспер и будет голосовой фотошоп из bladerunner.
Так как под капотом большинства видео-тулзов все равно лежит ffmpeg в том или ином виде, слоняры решили не заморачиваться, и прикрутили к нему qwen2.5-coder. Теперь можно делать уйму вещей с видео, аудио, картинками, для которых раньше надо было лезть либо в видеоредактор, либо на стаковерфлоу.
Ваистену, text2video который мы заслужили!
демо
х
This media is not supported in your browser
VIEW IN TELEGRAM
Just a woman casually walking her pet raptor
Нейросети прекрасны
Нейросети прекрасны
This media is not supported in your browser
VIEW IN TELEGRAM
HunyuanVideo от Тencent
Тencent выпустила HunyuanVideo, крупнейшую модель генерации видео с открытым исходным кодом!
13B модель имеет унифицированную архитектуру для создания как изображений, так и видео.
HunyuanVideo объединяет многомодальную большую языковую модель (MLLM) в качестве текстового кодировщика, улучшая текст-видео алайнмент и способности рассуждения. Она также использует 3D VAE для эффективного сжатия видеоданных, что позволяет генерировать высококачественное видео с исходным разрешением.
Согласно результатам профессиональной оценки, Hunyuan Video превосходит предыдущие передовые модели, включая Runway Gen-3, Luma 1.6 и 3 самые эффективные китайские модели видеогенерации.
👨💻 Project page
🤗 Huggingface
💻 Git
📜 Paper
🎮 Demo
Тencent выпустила HunyuanVideo, крупнейшую модель генерации видео с открытым исходным кодом!
13B модель имеет унифицированную архитектуру для создания как изображений, так и видео.
HunyuanVideo объединяет многомодальную большую языковую модель (MLLM) в качестве текстового кодировщика, улучшая текст-видео алайнмент и способности рассуждения. Она также использует 3D VAE для эффективного сжатия видеоданных, что позволяет генерировать высококачественное видео с исходным разрешением.
Согласно результатам профессиональной оценки, Hunyuan Video превосходит предыдущие передовые модели, включая Runway Gen-3, Luma 1.6 и 3 самые эффективные китайские модели видеогенерации.
👨💻 Project page
🤗 Huggingface
💻 Git
📜 Paper
🎮 Demo
На всякий случай напишу отдельно, так как это легко пропустить. Новая Gemini умеет генерировать изображения сама, без вызова внешних рисовалок. При этом свои же картинки она видит в контексте, и умеет копировать части изображения. Такое умеет и gpt-4o, но эту фишку OpenAI пока не выпустили — быть может, в оставшиеся 7 дней релизов успеют.
Это открывает доступ к новым сценариям, невозможным (или затруднительным) ранее. На скриншотах вы видите пример, как пользователь подсунул картинку из мема «рисуем сову», и попросил дорисовать все промежуточные шаги. Модель взяла часть исходной картинки за основу и сгенирировала несколько новых (по сути «поверх», но там сгенерирован каждый пиксель, нет команды «вот это оставляем, вот это меняем»).
Круто, что модель сама поняла, как декомпозировать рисунок, без дополнительных указаний, так ещё и шаги пронумеровала — 1.25, 1.5 😀
Другие сценарии применения (в том числе генерацию GIF-ок) можете посмотреть в оригинальном блогпосте про GPT-4o (+1 последняя картинка тут...
Это открывает доступ к новым сценариям, невозможным (или затруднительным) ранее. На скриншотах вы видите пример, как пользователь подсунул картинку из мема «рисуем сову», и попросил дорисовать все промежуточные шаги. Модель взяла часть исходной картинки за основу и сгенирировала несколько новых (по сути «поверх», но там сгенерирован каждый пиксель, нет команды «вот это оставляем, вот это меняем»).
Круто, что модель сама поняла, как декомпозировать рисунок, без дополнительных указаний, так ещё и шаги пронумеровала — 1.25, 1.5 😀
Другие сценарии применения (в том числе генерацию GIF-ок) можете посмотреть в оригинальном блогпосте про GPT-4o (+1 последняя картинка тут...
Ведьмак 4:
- узнать в Велене ли Геральт
- узнать в Скеллиге ли Геральт
- узнать в Новиграде ли Геральт
- Гвент
- узнать в Велене ли Геральт
- узнать в Скеллиге ли Геральт
- узнать в Новиграде ли Геральт
- Гвент
«Ведьмак 4» официально анонсирован. Также показали 6-минутный трейлер.
В новой игре нужно будет играть за повзрослевшую Цири.
Разработчики говорят, что это самая большая и многообещающая игра серии.
Ждём?
r/#gaming
В новой игре нужно будет играть за повзрослевшую Цири.
Разработчики говорят, что это самая большая и многообещающая игра серии.
Ждём?
r/#gaming
This media is not supported in your browser
VIEW IN TELEGRAM
Кто постоянно жаловался на отсутствие нейронной ретопологии?
Nvidia пока только показывает тул Meshtron, который обучен быть полезным именно для художников. Вероятно, сет обучался на специально отобранных сетках.
Количество трисов на меш ограничено 64k, что может показаться небольшим количеством для больших и сложных объектов. Но благодаря интеллектуальному сегментированию Meshtron понимает, какие объекты должны быть отделены, и именно они будут иметь ограничения в 64k, а не весь меш.
Метод можно использовать не только для пересчёта уже существующей сетки, но также для преобразования и дополнения облака точек, которое получаем из моделей textTo3D и imgTo3D.
Никогда так ничего не ждал для тестов от Nvidia. Как только выпустят, оповещу о тестах.
Stay tuned!
Больше в блоге.
Nvidia пока только показывает тул Meshtron, который обучен быть полезным именно для художников. Вероятно, сет обучался на специально отобранных сетках.
Количество трисов на меш ограничено 64k, что может показаться небольшим количеством для больших и сложных объектов. Но благодаря интеллектуальному сегментированию Meshtron понимает, какие объекты должны быть отделены, и именно они будут иметь ограничения в 64k, а не весь меш.
Метод можно использовать не только для пересчёта уже существующей сетки, но также для преобразования и дополнения облака точек, которое получаем из моделей textTo3D и imgTo3D.
Никогда так ничего не ждал для тестов от Nvidia. Как только выпустят, оповещу о тестах.
Stay tuned!
Больше в блоге.