HCAI // Регулирование ИИ
934 subscribers
59 photos
14 files
228 links
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.
Download Telegram
🎙 Группа музыкальных лейблов подала в суд на разработчиков ИИ

24 июня Американская ассоциация звукозаписывающих компаний (RIAA) (Sony Music Entertainment, Universal Music Group и Warner Records и другие) подала два иска: один против Suno, а другой против Udio.

🎤 И Suno, и Udio занимаются разработкой нейросетей, которые позволяют создавать музыкальные треки с помощью текстовых запросов.
Компании уже добились успеха: например, Suno доступен для использования в Microsoft Copilot в партнерстве с технологическим гигантом.

По мнению истцов компании нарушили авторские права исполнителей и музыкантов, используя для обучения ИИ работы артистов без разрешения.

В качестве возмещения ущерба музыкальные лейблы требуют компенсацию в 150 тыс. долларов за каждое произведение.
🔵Suno, возможно, придется заплатить за 660 песен
🔵Udio более чем за 1,5 тыс. композиций

💬Главный исполнительный директор Suno AI Майки Шульман заявил, что технология «разработана для создания совершенно новых результатов, а не для запоминания и повторения уже существующего контента» и не позволяет пользователям ссылаться на конкретных исполнителей.
По словам Шульмана, он пытался объяснить это лейблам, но, они "вместо того, чтобы вести добросовестную дискуссию, вернулись к своим старым методам ведения бизнеса под руководством юристов".

💬Председатель и исполнительный директор RIAA Митч Глейзер, в свою очередь, заявил, что музыкальная индустрия сотрудничает с ответственными разработчиками ИИ, но «нелицензионные сервисы вроде Suno и Udio, которые утверждают, что "честно" копируют труд всей жизни артиста и используют его в своих интересах без согласия и оплаты, мешают общему делу создания инновационного и справедливого ИИ».

❗️Это не первый подобный спор между правообладателями и разработчиками ИИ.
Например, в прошлом году Гильдия авторов подала коллективный иск против OpenAI и Microsoft за нарушение авторских прав. По словам литераторов компании использовали произведения для обучения ИИ без согласия правообладателей.

#AI #Copyright #Courts
Please open Telegram to view this post
VIEW IN TELEGRAM
©️ Искусственный интеллект продолжает получать жалобы на нарушение авторских прав

Condé Nast, журнальное издательство, выпускающее The New Yorker, Vogue и Vanity Fair, потребовало от Perplexity* прекратить использовать их контент при выдаче ответов на запросы пользователей.

В своем письме о прекращении сотрудничества Condé Nast заявило, что Perplexity использует веб-краулеры**, которые позволяют обходить средства защиты издательства.

Perplexity не первый раз получает обвинения в свой адрес:
🔜 в июне этого года издание Wired в своей статье назвало поисковую систему с ИИ «машиной для создания бреда» и утверждало, что Perplexity взяла целую новостную статью в ее оригинальном виде, слегка перефразировав.

Более того, за последние два месяца Forbes, Amazon и Reuters начали отдельные расследования практик Perplexity.

💬 Роджер Линч, генеральный директор Condé Nast, предупредил, что медиакомпании могут обанкротиться из-за времени и денег, которые требуются для судебных разбирательств с компаниями, использующими ИИ. Он также заявил, что Конгресс должен принять законы, которые обяжут разработчиков ИИ платить издателям за их контент, защищая тем самым их авторские права.

❗️Тем не менее, Закон США об авторском праве и доктрина fair use позволяют повторно использовать опубликованный контент с учетом ограничений по целям использования и правильного цитирования.

*Perplexity — чат-бот на базе ИИ, который сканирует Интернет, собирая информацию из авторитетных источников, объединяет ее в последовательный и простой для понимания ответ, добавляя при этом сноски со ссылками на первоисточники, что позволяет легко проверить информацию.

**Веб-краулер — это программный робот, который сканирует Интернет и загружает найденные данные.

#AI #Copyright
Please open Telegram to view this post
VIEW IN TELEGRAM