Разработчики выпустили нейросеть See-2-Sound для генерации звуков окружения по картинке или видео
Исследователи Университета Торонто представили See-2-Sound — нейросеть для генерации звуков окружения по картинке или видео. Модель машинного обучения не только создаёт подходящую дорожку, но и расставляет источники звука в пространстве для создания эффекта присутствия.
See-2-Sound работает в несколько этапов:
Нейросеть получает на вход изображение, анимацию или видео и оценивает источники. Тут модель пытается понять, какие объекты могут издавать звуки и природу этих звуков.
На основе полученных данных генерируется звук. Для каждого источника создаётся собственная дорожка.
Сгенерированные аудио расставляются в виртуальной комнате относительно пользователя, что создаёт объёмное звучание и эффект присутствия в кадре. На выходе получается аудио в формате 5.1.
Нейросеть можно установить по инструкции в репозитории или запустить в контейнере.
Исследователи опубликовали текст работы и код, а на сайте See-2-Sound доступны примеры. На платформе Hugging Face есть демо, в котором можно попробовать нейросеть на собственных входных данных.
7 (495) 749-28-49
www.configit.ru
https://habr.com/ru/news/824552/
#see2sound #hugging #ии #генерация #звук #аудио #новости #ит #конфигит #configit #cit
Исследователи Университета Торонто представили See-2-Sound — нейросеть для генерации звуков окружения по картинке или видео. Модель машинного обучения не только создаёт подходящую дорожку, но и расставляет источники звука в пространстве для создания эффекта присутствия.
See-2-Sound работает в несколько этапов:
Нейросеть получает на вход изображение, анимацию или видео и оценивает источники. Тут модель пытается понять, какие объекты могут издавать звуки и природу этих звуков.
На основе полученных данных генерируется звук. Для каждого источника создаётся собственная дорожка.
Сгенерированные аудио расставляются в виртуальной комнате относительно пользователя, что создаёт объёмное звучание и эффект присутствия в кадре. На выходе получается аудио в формате 5.1.
Нейросеть можно установить по инструкции в репозитории или запустить в контейнере.
Исследователи опубликовали текст работы и код, а на сайте See-2-Sound доступны примеры. На платформе Hugging Face есть демо, в котором можно попробовать нейросеть на собственных входных данных.
7 (495) 749-28-49
www.configit.ru
https://habr.com/ru/news/824552/
#see2sound #hugging #ии #генерация #звук #аудио #новости #ит #конфигит #configit #cit
Хабр
Разработчики выпустили нейросеть See-2-Sound для генерации звуков окружения по картинке или видео
Исследователи Университета Торонто представили See-2-Sound — нейросеть для генерации звуков окружения по картинке или видео. Модель машинного обучения не только создаёт подходящую дорожку, но и...