HCAI // Регулирование ИИ
1.04K subscribers
85 photos
14 files
278 links
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.
Download Telegram
🇸🇬 Сингапур опубликовал доклад о синтетических данных

15 июля 2024 года Комиссия по защите персональных данных Сингапура (PDPC) опубликовала доклад «Privacy enhancing technology» (PET) - руководство по созданию синтетических данных.

Использование синтетических данных снижает потребность в сборе и обработке реальных данных (в т.ч. персональных или коммерчески чувствительных), что особенно важно в ситуациях, когда сбор таких видов данных ограничен законодательством.

Руководство определяет набор инструментов и методов, которые позволяют обрабатывать, анализировать и извлекать информацию без раскрытия конфиденциальных категорий данных.

Руководство классифицирует методы по трем категориям:
1️⃣маскировка данных*
2️⃣обработка зашифрованных данных
3️⃣федеративное обучение**

⚡️В Руководстве также предлагаются наилучшие практики генерации синтетических данных, которые особенно полезны при создании датасетов для обучения ИИ.

❗️Кроме того, в руководстве подробно изложены кейсы использования синтетических данных, которые позволяют повысить качество работы систем ИИ, при этом не нарушая законодательство.
💸Например, синтетические данные можно использовать для обучения моделей ИИ, направленных на обнаружение мошенничества в финансовом секторе.


*Маскировка (обфускация) данных — способ защиты конфиденциальной информации от несанкционированного доступа путём замены исходных данных фиктивными данными или произвольными символами.

**Федеративное обучение — это методика заключения модели в защищенную среду и ее обучение без перемещения данных куда-либо.


#AI #Singapore #SyntheticData
Please open Telegram to view this post
VIEW IN TELEGRAM
©️ Искусственный интеллект продолжает получать жалобы на нарушение авторских прав

Condé Nast, журнальное издательство, выпускающее The New Yorker, Vogue и Vanity Fair, потребовало от Perplexity* прекратить использовать их контент при выдаче ответов на запросы пользователей.

В своем письме о прекращении сотрудничества Condé Nast заявило, что Perplexity использует веб-краулеры**, которые позволяют обходить средства защиты издательства.

Perplexity не первый раз получает обвинения в свой адрес:
🔜 в июне этого года издание Wired в своей статье назвало поисковую систему с ИИ «машиной для создания бреда» и утверждало, что Perplexity взяла целую новостную статью в ее оригинальном виде, слегка перефразировав.

Более того, за последние два месяца Forbes, Amazon и Reuters начали отдельные расследования практик Perplexity.

💬 Роджер Линч, генеральный директор Condé Nast, предупредил, что медиакомпании могут обанкротиться из-за времени и денег, которые требуются для судебных разбирательств с компаниями, использующими ИИ. Он также заявил, что Конгресс должен принять законы, которые обяжут разработчиков ИИ платить издателям за их контент, защищая тем самым их авторские права.

❗️Тем не менее, Закон США об авторском праве и доктрина fair use позволяют повторно использовать опубликованный контент с учетом ограничений по целям использования и правильного цитирования.

*Perplexity — чат-бот на базе ИИ, который сканирует Интернет, собирая информацию из авторитетных источников, объединяет ее в последовательный и простой для понимания ответ, добавляя при этом сноски со ссылками на первоисточники, что позволяет легко проверить информацию.

**Веб-краулер — это программный робот, который сканирует Интернет и загружает найденные данные.

#AI #Copyright
Please open Telegram to view this post
VIEW IN TELEGRAM
🎭 Гильдия актеров США объявила забастовку против разработчиков видеоигр

Гильдия киноактеров и Федерация артистов телевидения и радио Америки (SAG-AFTRA) объявила о первой с 2017 года забастовке против компаний — разработчиков видеоигр. Поводом стало непредоставление охраны цифровых образов артистов при использование ИИ со стороны индустрии видеоигр.

Переговоры с крупными игровыми студиями длились около полутора лет, однако 26 июля профсоюз принял решение о прекращении переговоров и объявлении забастовки.

💬 Как отметили в Гильдии: «Хотя мы достигли согласия по многим вопросам, важным для членов SAG-AFTRA, работодатели отказываются четко и ясно подтвердить, что они будут защищать актеров от незаконного использования сгенерированных ИИ голосов и образов».

Основная позиция членов профсоюза по вопросам использования ИИ
➡️авторы любой игры, которые хотят привлечь к разработке актеров, должны подписывать специальные соглашения, защищающие работников от незаконной обработки и использования их образов ИИ

💬 Президент SAG-AFTRA Фрэн Дрешер заявил, что они не собираются соглашаться на форму контракта, по которой компании смогут злоупотреблять ИИ в ущерб актерам. «Достаточно. Когда эти компании серьезно отнесутся к нашему предложению, с принятием которого наши члены смогут жить и работать, мы будем готовы к переговорам», — добавил он.

#AI #USA #Deepfake
Please open Telegram to view this post
VIEW IN TELEGRAM
✉️ США выпустили рекомендации для разработчиков ИИ в сфере образования

Министерство образования США опубликовало новое руководство для edtech-компаний - "Designing for Education with Artificial Intelligence".

Основная цель документа – создать подробный план ответственной разработки ИИ-продуктов для образовательных учреждений.

Пять ключевых областей, которые потребуют особого внимания разработчиков технологий ИИ в сфере образования:
1️⃣консультирование с педагогами на каждом этапе разработки
2️⃣предоставление отчетов о повышении эффективности продуктов
3️⃣обеспечение непредвзятости ИИ и соблюдения основополагающих прав человека
4️⃣внедрение протоколов безопасности и комплексной оценки рисков
5️⃣способствование прозрачности ИИ путем информирования пользователей и создания каналов обратной связи

Разработчикам также рекомендуется:
💻 регулярно проводить тестирование ИИ-систем на соответствие данному руководству
📰 принимать документы, закрепляющие принципы этики ИИ в сфере образования, на уровне своих компаний
💰 инвестировать в надежные и заслуживающие доверия технологии ИИ

Таким образом, рассматриваемый документ предполагает интеграцию этических принципов и оценки рисков на каждом этапе разработки. Потенциально такой подход потребует больше временных и финансовых затрат, однако результат будет более качественным и надежным.

#AI #USA #Education
Please open Telegram to view this post
VIEW IN TELEGRAM
©️ Бюро авторского права США опубликовало часть отчета об ИИ

31 июля американский Copyright Office опубликовал первую часть отчета о правовых вопросах, связанных с авторским правом и технологиями искусственного интеллекта.

Данная часть отчета посвящена цифровым копиям. Под цифровыми копиями в отчете, в том числе, понимаются:
📷 поддельные изображения человека
🎤 музыкальные произведения, созданные ИИ
📣 робозвонки, имитирующие голоса известных личностей

Copyright Office проанализировал существующие нормативно-правовые акты, закрепляющие права человека на неприкосновенность частной жизни и защиту своей чести и достоинства.
🔜 Однако, в результате анализа Бюро пришло к выводу, что действующее законодательство не обеспечивает достаточной защиты пострадавшим от несанкционированного создания и использования цифровых копий.

Поэтому Бюро предлагает принять отдельный федеральный закон и дает следующие рекомендации:
🟦закон должен быть направлен на те цифровые копии, которые не отличимы от оригинального контента
🟦закон должен распространяться на всех людей, а не только на знаменитостей
🟦защита должна действовать, как минимум, в течение всей жизни человека
🟦ответственность должна наступать только за распространение цифровой копии, а не за ее создание
🟦действия, составляющие нарушение, не должны ограничиваться коммерческим использованием
🟦физические лица должны иметь возможность лицензировать использование своих образов
🟦стиль художников не должен попадать под сферу действия данного закона

💬 Шира Перлмуттер, глава Бюро авторского права США, отмечает: «Мы рады начать делиться результатами нашего всеобъемлющего исследования пересечения ИИ и авторского права. Стало ясно, что распространение несанкционированных цифровых копий представляет серьезную угрозу не только голливудским звездам и политикам, но и частным лицам. Мы считаем, что существует острая необходимость в эффективной общенациональной защите от вреда, который может быть нанесен репутации человека и его средствам к существованию».

#AI #USA #CopyrightOffice
Please open Telegram to view this post
VIEW IN TELEGRAM
🔍 НАТО обновила свою стратегию ИИ

10 июля НАТО опубликовала пересмотренную стратегию ИИ, которая направлена на использование технологий ИИ в рамках НАТО безопасным и ответственным образом. НАТО связывает пересмотр стратегии с новыми угрозами, в том числе, с участившимися кампаниями дезинформации с использованием дипфейков.

Стратегия определяет 4 цели:
🔵стимулировать ответственную разработку и использование ИИ в военной сфере
🔵ускорять внедрение ИИ-технологий в остальных сферах
🔵выявлять и митигировать риски, не препятствуя при этом инновациям
🔵защищать от внешних угроз недобросовестного использования ИИ

Принимая во внимание уже достигнутый прогресс, НАТО обновила и желаемы результаты. Обновленный список включает в себя:
🆗 интеграция ИИ в соответствующие разработки государств-членов с целью обороны союза
🆗 большое количество квалифицированных кадров
🆗 растущая совместимость между системами ИИ по всему Альянсу
🆗 создание повышенных стандарты безопасности и инструментов для проверки систем
🆗 проведение совместных исследовательских проектам в области ИИ

❗️В Стратегии отдельно отмечается важность доступных качественных данных, так как только такие данные могут стать основой разработки эффективных и непредвзятых систем ИИ.

#AI #NATO
Please open Telegram to view this post
VIEW IN TELEGRAM
☄️ Новый метод проверки ответов нейросетей

Группа исследователей из китайской компании Baidu Inc. предложила новый метод проверки правильности ответов больших языковых моделей (LLM).

Цель такой проверки – повысить надежность модели, минимизируя процент галлюцинаций ИИ.

«Самоанализ ИИ» - так Baidu назвала новый метод. Его суть заключается в том, что модель должна сама проверять свою работу перед тем, как предоставить результаты конечным пользователям.

Для этого в движок LLM внедряется трехэтапный процесс:
1️⃣модель, учитывающая релевантность результатов промпту пользователя
2️⃣выбор из серии ответов, учитывающий доказательства, основанные на релевантных документах
3️⃣ модуль анализа траектории, который проводит четкий и краткий анализ того, как LLM пришла к тому выводу, который модель считает правильным

Ученые уже протестировали данный подход на нейросети компании и утверждают, что улучшенная LLM смогла превзойти GPT-4, используя гораздо меньшие наборы обучающих данных.

Таким образом, по мнению исследователей, предлагаемый метод проверки позволит:
🆗 повысить точность ответов нейросетей
🆗 создавать новые модели для большего количества разработчиков, которые в настоящее время не имеют доступа к огромным наборам обучающих данных

#China #AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
📱 OpenAI опубликовала отчет о безопасности своей новой модели

8 августа компания выложила на своем сайте отчет, подготовленный в связи с принятыми на себя в июле прошлого года добровольными обязательствами по ответственному развитию ИИ.

В отчете содержится информация о рисках новой модели GPT-4о и мерах по их смягчению.

👀 Одной из таких ключевых областей компания выделяет проблему дискриминации и генераций на чувствительные темы.
🔜 Модель обучена не давать оценочные суждения и выводы на основе чувствительных человеческих характеристик, а также отказывать в генерации неправомерного и жестокого контента.

🎙 Также для компании особенно важно не допустить несанкционированное использование чужого голоса.
🔜 Чтобы избежать создания голосовых дипфейков OpenAI утвердила несколько вариантов голосов, созданных с участием актеров озвучки, а запросы пользователей на синтезирование иных голосов модель отклоняет. Однако компания признает, что на данный момент этот вопрос хорошо изучен только для англоязычной речи, по остальным языкам ведется работа.

Более того, GPT-4о обучена отказывать отвечать на запросы об идентификации человека по голосу, за исключением определения авторов известных цитат.

📝 OpenAI также попыталась решить проблему использования результатов интеллектуальной деятельности без согласия правообладателей.
🔜 Компания признает, что пока трудно решить эту проблему, но ChatGPT обучили не работать с контентом, на который распространяется авторское право. В частности, она фильтрует запросы, связанные с музыкой, а в продвинутом голосовом режиме должна отклонять запросы на воспроизведение таких материалов.

❗️Стоит подчеркнуть, что компания анализирует и возможные социальные последствия использования модели. В частности, появление функции голосового взаимодействия увеличивает вероятность антропоморфизации и формирования эмоциональной привязанности между человеком и моделью. Тем не менее, эта область ещё недостаточно исследована.

#AI #Risks #Ethics
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡 Репозиторий рисков ИИ

Лаборатория компьютерных наук и искусственного интеллекта Массачусетского технологического института (MIT) опубликовала репозиторий рисков ИИ – новый стандарт, который поможет разобраться и справиться с рисками, возникающими при использовании ИИ.

Репозиторий состоит из трех частей:
ℹ️ база данных, охватывающая более 700 выявленных рисков
🔍аналитическая структура, объясняющая, как, когда и почему возникают эти риски
🖥 структура, которая классифицирует эти риски

Всего в репозитории выделено 7 категорий рисков:
1️⃣дискриминация и токсичность
2️⃣защита персональных данных и безопасность
3️⃣дезинформация
4️⃣злоупотребление технологией
5️⃣взаимодействие человека и компьютера
6️⃣социально-экономический и экологический ущерб
7️⃣безопасность системы ИИ, сбои и ограничения

Таким образом, база данных предоставляет удобную классификацию разнообразных рисков использования ИИ, а также позволяет связать каждый риск с источником (например, научная статья) и объяснением возникновения.
Более того, исследовательская группа обещает, что будет регулярно обновлять репозиторий по мере развития ИИ.

❗️Этот репозиторий может оказаться полезным инструментом для учёных, разработчиков, представителей власти и надзорных органов, поскольку он способен стать основой для обнаружения, анализа и минимизации потенциальных рисков, связанных с использованием ИИ.

#AI #Regularion #Risks
Please open Telegram to view this post
VIEW IN TELEGRAM
🤝 OpenAI и Condé Nast заключили соглашение о многолетнем партнерстве

20 августа OpenAI объявила о начале сотрудничества с крупным новостным медиахолдингом Condé Nast. В рамках данного соглашения OpenAI интегрирует контент Vogue, The New Yorker, GQ, Vanity Fair и других изданий в ChatGPT и SearchGPT (поисковая система на базе ИИ).

Согласно заявлениям представителей компаний все стороны сделки получат преимущества:
📱 OpenAI получит на законных основаниях дополнительный материал для обучения своих моделей
📝 Condé Nast сможет компенсировать часть потерянных доходов из-за конкуренции с соцсетями и другими цифровыми платформами
👥 у пользователей появится возможность получать своевременные ответы с релевантными новостными источниками с помощью новой функции поиска

Стоит отметить, что OpenAI уже имеет аналогичные соглашения с Associated Press, Financial Times, NewsCorp, TIME, Vox Media и другими медиакомпаниями.

#AI #GenAI #CopyrightOffice
Please open Telegram to view this post
VIEW IN TELEGRAM