НейроProfit | Соня Pro Ai
13.2K subscribers
512 photos
585 videos
7 files
693 links
Авторский канал про полезные нейросети для бизнеса, учебы и работы ⚛️

Реклама: https://telega.in/c/NeuralProfit

Сотрудничество: @sony_yar, @neurosonya
Обучение Midjourney https://neuralprofit.ru
ИИ для учебы https://neuralprofit.ru/edu
Download Telegram
Media is too big
VIEW IN TELEGRAM
Помните, я писала про нейросеть для генерации видео по текстовому описанию - GEN-2? Так вот, у Runway есть еще и GEN-1, который работает по принципу video-to-video -вы можете залить видео, задать стиль или написать промпт.

Бесплатно для генерации каждого видео дается по 4 секунды. Для этого ролика я скачала 20-секундный отрывок из фильма. Затем, я порезала его на эпизоды по 4 секунды. Каждый эпизод я обработала в GEN-1 - можно выбрать из предложенных стилей, а можно написать, например, чтобы сервис сгенерировал кусок видео в стиле Симпсонов.

Теперь подробнее о тарифах Runway (GEN-1 + GEN-2 + генерация изображений):

Бесплатная версия:

✔️ Дается 125 кредитов - это на выбор 8 секунд GEN-1 (video-to-video) или 25 секунд GEN-2 (text -to-video) или 25 генераций изображений
✔️ В бесплатной версии нельзя купить больше кредитов, так же нельзя увеличить разрешение или удалить водяные знаки.
✔️ До 4 секунд обработки каждого видео
✔️ Доступно только 3 проекта в видеоредакторе
✔️ Качество 720

Стандартный план за 15$/месяц (или 12$ при оплате за год)

✔️ Дается 625 кредитов (обновляется каждый месяц) - это на выбор 44 секунд GEN-1 (video-to-video) или 125 секунд GEN-2 (text -to-video) или 125 генераций изображений
✔️ Можно докупать кредиты по мере необходимости
✔️ Можно увеличить разрешение и удалить водяные знаки в GEN-1 и GEN-2
✔️ GEN-1 (video-to-video) -до 15 секунд каждый ролик
✔️ GEN-2 (text -to-video) - до 4 секунд каждый ролик
✔️ Неограниченное количество проектов видеоредактора
✔️ Экспорт видео в 4К и Green Screen alpha matte, экспорт изображений в 2К и возможности 3D текстурирования

PRO план за 35$/месяц (или 28$ при оплате за год)

✔️ Дается 2250 кредитов (обновляется каждый месяц) - это на выбор 160 секунд GEN-1 (video-to-video) или 450 секунд GEN-2 (text -to-video) или 450 генераций изображений.
✔️ Остальное все то же самое, что и в Стандартном плане, но в экспорте видео и изображений + PNG и ProRes

Кто догадался, что за фильм я взяла в качестве примера? 🤔😉

#runway
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Делаем видео из изображения с GEN-2

Вот это царский подгон, друзья!🥳 Это 16-секундное видео я сделала из одной картинки 😮 Если раньше можно было генерить видео только по 4 секунды, то сейчас можно сгенерировать видео из изображения длительностью до 16 секунд - щедрое предложение от GEN-2 🤌🏼

Я сгенерировала картинки в стиле фотографов и загрузила в Runway GEN-2 - выбрав опцию Image-to-video, правда создать 16 секундное видео удастся не сразу, а прибавляя каждый раз по 4 секунды в процессе каждой генерации

Вот так лихо можно делать видео 😉 И помните, лучшие видео получаются с референсов, то есть из готовых изображений. И чем качественнее изображение, тем лучше и качественней видео. Научитесь генерировать изображения в лучшей нейросети Midjourney V6. Подробнее про обучение здесь

#runway
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Обновление Runway GEN-2

Ранее я рассказывала про Runway GEN-2 и показывала, как создавать анимацию

Так вот, в GEN-2 вышло потрясающее обновление - теперь можно не просто оживить картинку, а создать полноценный ролик по текстовому запросу. При этом само качество генераций и точность результатов улучшилось 🔥

Так что те, кто умеет составлять грамотные запросы генераторам изображений, могут создавать такую красоту 👌🏻

Вот и в видео генераторах обострилась битва вооружений, мне уже не терпится посмотреть, что же будет дальше 🤩

#runway
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Обновление Runway: создание объемных видео прямо в браузере и приложении

Runway научилась делать объемные видео. Теперь можно создавать объемные видео с эффектом пролета камеры, не выходя из приложения или браузера. Встроенный видео редактор с возможностью настройки ключевых точек и фокусного расстояния в этом поможет.

Вот ссылка на веб-версию для быстрого старта, вот ссылка на приложение для iPhone

Помимо этого, в видеоредакторе есть набор инструментов как для основного видеомонтажа, так и для продвинутой постобработки прямо в веб-браузере. Это профессиональное программное обеспечение для видеомонтажа включает в себя возможности для создания визуальных эффектов, форматирования видео, коррекции цвета и многого другого.

Что еще крутого

Кроме того, инструмент для редактирования видео с помощью ИИ от Runway использует инструменты машинного обучения для упрощения процесса видеомонтажа, предоставляя такие функции, как маски, цветокоррекция, композитинг, генерация и визуальные эффекты (VFX). Также есть функция динамического ключинга, которая может превратить видео в "зеленый экран" для быстрого редактирования. А еще автоматическое удаление фона, превращение текста в изображение и генерацию 3D-текстур, стирание и замену, отслеживание движения, маскировку "зеленого экрана", удаление шума и многое другое.

Помимо крутого ИИ-видеоредактора, у Runway есть GEN-1 - это новаторская модель ИИ, которая позволяет преобразовывать существующие видео в новые, используя текстовые запросы или образцы изображений. То есть можно изменить визуальный стиль существующих видеороликов и фильмов, применяя любой стиль.

Так же,  у Runway есть одна из лучших нейросетей для генерации видео по текстовому описанию - GEN-2. В этом посте я подробно рассказала об этих двух нейронках, обработала отрывок из фильма Криминальное чтиво и создала альтернативное видео с героем Джона Траволты. GEN-2 шагнул вперед, и теперь там можно создавать крутые видео до 16 секунд. Как их делать я подробно рассказала в этом посте

#runway
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Главные обновления видеогенератора Runway GEN-2

Runway не перестает радовать нововведениями. Для тех, кто не знает, Runway - это это одна из лучших нейросетей для генерации видео, и крутой ИИ-видео редактор.

Кому интересно:

Подробнее про Runway
Как сделать видео в GEN-2

Так вот, у них ряд нововведений, в числе которых функция оживления отдельных предметов на изображении - Motion Brush, добавление персетов и стилей, улучшенная модель изображения. Подробнее внизу 🔽

#runway
Please open Telegram to view this post
VIEW IN TELEGRAM
Обновления Runway 💠

1. Вышла в BETA инструмент Motion Brush (пока бесплатно)

Теперь можно оживить отдельный участок изображения с помощью инструмента Motion Brush, причем эту функцию сейчас открыли для всех бесплатно, но видимо это временная мера. Продемонстрировано на 1 видео.
Достаточно выбрать участок на изображении, и он начнет двигаться. Для этого нужно выбрать инструмент Motion Brush на панели, и выделить нужную область, все. Даже не придётся вводить текст.

2. Улучшено качество изображений

Генератор картинок теперь выдает хорошие результаты, почти похоже на реальное фото - на 2-м видео. А если вы хотите по-настоящему реалистичные изображения, то Midjourney то, что вам нужно - самая понятная и настраиваемая нейросеть, которая создает шедевры. Не секрет, что самые лучшие нейросетевые видео создаются с референсов, то есть с готовых изображений. Хотите быстро и качественно научиться генерировать в лучшей нейросети для генерации изображений? Для Вас мое обучение - быстрый старт в Midjourney для бизнеса

3. Улучшено качество съемки

Улучшено качество съемки, и видео становятся более детализированными. Почти похоже на реальные съёмки.(3-е видео).

4. Добавлены пресеты и движения камеры

Добавлены движения камеры и скорость, появились пресеты стилей, можно выбрать, например, анимационный стиль или ретро-фильм. Необходимость писать сложные промпты (текстовые подсказки) отпала. (4-е видео)

5. Теперь у Runway есть собственное TV

Runway создали бесконечную онлайн TV - трансляцию со множеством каналов. Калейдоскоп из сгенерированных ИИ фильмов и клипов можно посмотреть на Runway.TV. Пример на 5 видео. Как знать, может просмотр вдохновит на создание своих шедевров. Такие видео очень хорошо "залетают", по себе знаю.

#runway
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Обновление Runway - теперь она умеет озвучивать текст

Начнем день с хороших новостей!
Теперь, Runway не только видеоредактор и одна из лучших нейросетей для генерации видео. Теперь на сайте можно генерировать картинки, видео и аудио! Да, плюс ко всему Runway теперь умеет озвучивать текст

Новая функция text-to-speech позволяет сгенерировать закадровый голос и диалоги на несколько разных голосов, причем уже сейчас из голосов есть что выбрать

Есть бесплатный тестовый период.

Что ж, теперь бесшовно все можно сделать не выходя из Runway

#runway
📹 Видеогенераторы. Часть 2

Непонятно, кто кого опередил - либо Dream Machine первым выкатил обновление, либо Runway представил Gen-3 Alpha, а Luma в ответ обновила Dream Machine. В интернете завирусилось сравнение двух нейросетей (последнее видео).

Факт, что прошлая и эта - прям недели видеогенераторов. Было логично, что Runway срочно что-то придумают. В прошлом они были лучшие в своем деле очень долго.

Заявлено, что модель GEN-3 генерирует реалистичные видео в два раза дольше до 10 секунд, чем его предшественник GEN-2. В видео будет высокая детализация, более плавные и креативные переходы, и фотореалистичная генерация людей. Обещают, что появится обучение на своих стилях. Больше видеопримеров работ GEN-3 на их сайте. Доступ обещают дать в скором времени

Видео можно будет генерировать по тексту, так и используя изображения, а в будущем добавят инструменты для точечного контроля кадра - более сложные смены сцен.

Мой топ из видеогенераторов:

Dream Machine - пока мой топ, подробнее про него здесь и здесь

Haiper - на втором месте, если загрузить изображение хорошего качества, получается реалистично. Подробнее про него и примеры моих генераций в этом посте

Stable Video - на третьем месте из-за того, что бесплатный, в этом посте видео -пример того, что я сгенерировала. Подробнее в этом посте

Kaiber - хорошо подходит для мультяшных видео в стиле аниме, генерирует всегда годноту, хорошо переделывает видео в разные стили, но платный, без бесплатного периода. Подробнее про него в этом посте

Pika - раньше был бесплатный, сейчас платный, в нем много фишек - можно загрузить аудио и нейросеть подстроит липсинк так, что персонаж будет разговаривать как настоящий. Еще можно "растягивать" видео в разные стороны, и сервис сам дополнит пустые места - подробнее тут и заменит объекты на видео в реальном времени - подробнее тут. Но по уровню генерации далеко до Sora и Dream Machine, ждем серьезного обновления от Pika, ведь еще недавно они перегнали Runway GEN-2 и были лучшим видеогенератором, а Runway уже выкатил GEN-3.

#runway
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Нейросеть KLING вышла в открытый доступ

KLING — это китайская нейросеть, которая по качеству самая близкая к 🎨Sora от OpenAI, которую нам не торопятся показывать.

Если раньше надо было заморачиваться через WeChat или покупать китайскую сим-карту, то сейчас дело обстоит гораздо проще - обычная регистрация по почте, даже впн не нужен.

Я потестила сервис и попробовала сгенерить видео и по текстовому описанию, и приложив изображение в качестве референса.

На старте дается 66 кредитов, генерация 5 секундного видео стоит 10 кредитов. Кредиты обновляются каждый день. Их можно докупить, начиная от $5 в месяц, но вот с оплатой танцы с бубнами опять же -через WeChat или систему AliPay

🌸 Итак, мои наблюдения:

🟡 Высокое качество пока еще не доступно как и продление видео (extend)
🔴 Движение камеры только в text2image
🟣 Можно прописать негативные промты
🟡 В #image2video можно выбрать длительность только 5 сек, в прочем и в #text2video тоже
🔴 Каждая генерация 5 сек стоит 10 кредитов
🟣 Какие-то сложные промты отказывается делать, пишет “Generation failed, try a different prompt”, а какой-то сюр в виде “Медведь едет на одноколесном велосипеде и играет на гитаре” вполне может. Это единственная генерация по тексту. Мне поэтому понравилось больше картинки оживлять, так реалистичнее и результат более предсказуем

KLING гораздо шустрее по скорости генерации той же Dreame Machine от Luma, по крайней мере на бесплатном тарифе свои нагенеренные видео я только спустя пару часов увидела. Но вот по качеству от той же Dreame Machine от Luma не сильно отличается, артефакты никуда не делись 🤷🏻‍♀️ Вместо плачущего Эрика Картмана в роли космонавта, там вообще левый мужик получился. Второй раз получше, но тоже не то. Про тот же платный GEN 3 от Runway тоже говорят, чтобы что-то внятное получить, надо брать безлимит за 99$, так как на тарифе за 25$ (а бесплатно попробовать никто не даст), получается парочка удачных генераций только
Будем посмотреть, как говорится.

НейроProfit

#нейросеть #видео #нейросетьдлявидео #luma #dreamemachine #kling #gen3 #runway #видеогенератор
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Runway выпустила генератор видео Gen-3 Alpha Turbo, который быстрее предыдущей модели в 7 раз. 10-секундные ролики я получила буквально за 15 секунд генерации, очень быстро работает. Пока оживляет только изображения.

🌸 По стоимости: 10 секунд видео с меня списались 50 кредитов, за 5 секунд - 25 кредитов. На сайте есть гайд по промптингу. Изображения сделаны и апскейлены в Midjourney

#нейросетидлявидео #нейросеть #gen3 #runway #видео

НейроProfit | Обучение Midjourney
Please open Telegram to view this post
VIEW IN TELEGRAM