HCAI // Регулирование ИИ
955 subscribers
62 photos
14 files
236 links
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.
Download Telegram
🇺🇳🇨🇳 В ООН приняли предложенную Китаем Резолюцию по ИИ

1 июля Генеральная Ассамблея ООН единогласно приняла инициированную Китаем Резолюцию "Об укреплении международного сотрудничества в области наращивания потенциала искусственного интеллекта".

Резолюция призывает международное сообщество создать «свободную, открытую, инклюзивную и недискриминационную» деловую среду среди как развитых, так и развивающихся стран для разработки и внедрения ИИ.

Фу Конг, постоянный представитель Китая при ООН, объяснил основной посыл предложенной резолюции:
🟦Все страны должны пользоваться равными возможностями разработки и использования ИИ не в военной сфере
🟦Более развитые государства должны помогать развивающимся, так как они сталкиваются с уникальными для них вызовами
🟦Фрагментированный подход к ИИ и к цифровым технологиям никому не принесет пользы

В тексте резолюции также приводятся ключевые рекомендации для подписавшихся стран:
💰 увеличить объемы финансовой и технической помощи развивающимся странам
📌 укреплять сотрудничество для ликвидации барьеров развития ИИ, в том числе за счет расширения доступа к инфраструктуре, знаниям и навыкам
👥 поощрять, защищать и сохранять языковое и культурное разнообразие особенно при разработке больших языковых моделей

📝 Стоит отметить, что это уже второй документ в рамках ООН по вопросам ИИ. Резолюция «Использование возможностей безопасных, защищенных и надежных систем искусственного интеллекта для устойчивого развития», инициированная США, была принята в марте этого года. Она призывает страны защищать права человека, обеспечивать конфиденциальность персональных данных и контролировать потенциальные риски ИИ.

#AI #UN #Resolution
Please open Telegram to view this post
VIEW IN TELEGRAM
🇨🇳 Итоги Всемирной конференции по ИИ в Шанхае

6 июля в Шанхае завершилась седьмая ежегодная Всемирная конференция по ИИ (World Artificial Intelligence Conference, WAIC).

Ключевая тема конференции - управление ИИ для всеобщего блага и для всехAI Governance for good and for all»).

В качестве участников присутствовали правительственные делегации, представители международных организаций, технологических гигантов и стартапов, а также иные специалисты и эксперты в области ИИ.

Программа WAIC 2024 включила:
🌎 правительственный форум с участием министров из разных стран, включая Россию, страны СНГ, Латинской Америки, Ближнего Востока, Африки и Азии
💬 тематические форумы и панельные сессии по ключевым темам (например, этика ИИ, беспилотный транспорт, ИИ в науке)
💻 выставка инновационных решений в сфере ИИ

На полях WAIC было объявлено о создании экспертных центров и исследовательских программ:
📃 Центр передового опыта Глобального отраслевого альянса в области ИИ на базе ЮНИДО
📄 Ежегодная исследовательская программа по глобальному управлению ИИ

Более того, по итогам WAIC были опубликованы или анонсированы нормативно-правовые акты и рекомендации в сфере ИИ:
🟦Шанхайская декларация Глобального регулирования ИИ
🟦Руководство по управлению человекоподобными роботами
🟦Голубая книга по ИИ и верховенству права в мире (2024)

❗️Также на конференции была озвучена официальная позиция Китая - важно укреплять международное сотрудничество и содействовать построению единой системы управления ИИ.

💬 Герд Мюллер, Генеральный директор ООН по промышленному развитию (ЮНИДО), на церемонии открытия WAIC 2024 заявил, что ИИ позволит решить многие актуальные проблемы человечества: голод, формирование устойчивой промышленности, создание более качественных рабочих мест и др. Однако, одновременно с этим, риски ИИ возрастают, а цифровой разрыв между странами увеличивается. Именно поэтому необходимо создавать центры обмена опытом, а также разрабатывать нормативную базу в области регулирования ИИ.

#AI #WAIC #China #UN
Please open Telegram to view this post
VIEW IN TELEGRAM
ℹ️ Правительственный форум по глобальному управлению ИИ в рамках WAIC

4 июля в рамках ежегодной Всемирной конференции по ИИ состоялась закрытая встреча высокого уровня с участием официальных правительственных делегаций зарубежных стран (Китай, Росиия, Австралия, ОАЭ, Эфиопия, Венгрия, Швейцария, Саудовская Аравия, Сингапур, Нидерланды и другие), а также представителей международных организаций (ЮНЕСКО, ЮНИДО).

Встреча была посвящена следующим вопросам:
🟦Построение глобальной системы управления ИИ при участии ООН
🟦Сокращение технологического разрыва между Югом и Севером посредством предоставления помощи развивающимся странам
🟦Недопустимость монополизации сферы ИИ отдельными странами и корпорациями, а также разработки международного регулирования исключительно в интересах отдельных государств
🟦Международное сотрудничество для разработки международных стандартов в области ИИ
🟦Разработка и соблюдение прав человека и этических принципов на всех этапах жизненного цикла ИИ
🟦Своевременная подготовка квалифицированных кадров
🟦Недопустимость использования ИИ для вмешательства во внутреннюю политику государств

Отдельно была отмечена важность разработки безопасного ИИ и подсвечены актуальные риски его использования:
🙅‍♂️ распространение недостоверной информации, в т. ч. посредством создания дипфейков
🙅‍♂️ нарушение конфиденциальности данных
🙅‍♂️ риски внедрения ИИ в системы вооружения
🙅‍♂️ угрозы использования ИИ с целью дестабилизации государств

❗️ Главный вывод форума: нужно укрепить международное сотрудничество, чтобы создать эффективную и справедливую систему регулирования ИИ. Это позволит всему мировому сообществу использовать возможности, которые предоставляет ИИ.

#AI #WAIC #China #UN
Please open Telegram to view this post
VIEW IN TELEGRAM
✉️ Итоги форума «Этика ИИ во имя мира»

9-10 июля в Японии прошел форум, объединивший 16 религиозных лидеров со всего мира – «Этика ИИ во имя мира: Мировые религии присоединяются к Римскому призыву».

🇮🇹 На церемонии открытия Винченцо Палья, президент Папской академии жизни, озвучил цель данного мероприятия – «укрепление сотрудничества в области этики искусственного интеллекта для развития надежного и безопасного ИИ, а также для достижения равенства и взаимного уважения между важнейшими социальными институтами человечества на основе общих духовных целей».

Помимо Папской академии жизни организаторами форума выступили:
🇯🇵 преподобный Ёсихару Томацу, председатель «Религии за мир», Япония
🇦🇪 шейх Абдалла бин Байя, президент «Форума мира» в Абу-Даби и председатель Совета ОАЭ по фетвам
🇮🇱 раввин Элиезер Симха Вайс, член Главного раввината Комиссии Израиля по межконфессиональным отношениям

❗️Главным событием форума стало подписание "Римского призыва к этике ИИ", первоначально изданного Папской академией жизни в 2020 году. Так, 10 июля документ подписали представители различных конфессий восточного мира (буддизм, индуизм, зороастризм, бахаи, сикхизм, синтоизм и многие другие).

Данный документ закрепляет 6 основных принципов этического ИИ, на которых должны основаться разработчики при создании систем ИИ.

📝 Организаторы-партнеры также представили новый документ под названием "Хиросимский призыв", в котором вновь заявили о необходимости использовать ИИ только на благо всего человечества и планеты.

#AI #Ethics #RomeCall
Please open Telegram to view this post
VIEW IN TELEGRAM
👋 Китай опубликовал первые принципы регулирования человекоподобных роботов

В рамках Всемирной конференции по искусственному интеллекту (WAIC) в Шанхае опубликованы Руководящие принципы по регулированию человекоподобных роботов.

Цель данного документа - содействие развитию технологий ИИ при гарантии соблюдения моральных и этических принципов в процессе разработки и использования человекоподобных роботов.

Основные положения Руководящих принципов:
👍 роботы не должны представлять угрозу для человечества, напротив, они должны стать гарантом безопасности человека и защиты его достоинства
🫡 человекоподобные роботы должны использоваться в соответствии с правилами и протоколами

Для достижения поставленных задач предлагаются следующие нововведения:
🔵 разработка унифицированной системы стандартов и норм для технологий человекоподобных роботов
🔵 создание агентств по этическим исследованиям и аудитам для обеспечения соблюдения стандартов безопасности
🔵 формирование системы предупреждения и реагирования на факты несанкционированного использования роботов
🔵 возложение на разработчиков обязанности установить протоколы безопасности, позволяющие прерывать деятельность роботов в опасных ситуациях
🔵 увеличение инвестирования в данную сферу
🔵 усиление международного сотрудничества для создания глобальной экосистемы в области производства роботов-гуманоидов

❗️Стоит отметить, что данный документ был разработан во исполнение плана, опубликованного Министерством промышленности и информационных технологий, согласно которому Китай стремится достичь массового производства человекоподобных роботов к 2025 году, а мирового лидерства в данной сфере - к 2027 году.

#AI #China #Robotics
Please open Telegram to view this post
VIEW IN TELEGRAM
🇨🇳 В Китае модели ИИ будут проверять на соответствие социалистическим ценностям

Администрация киберпространства Китая (Cyberspace Administration of China (CAC)) выпустила руководящие принципы, которые предписывают компаниям, создающим передовые ИИ-технологии, фильтровать запросы по тысячам чувствительных слов для соответствия основным социалистическим ценностям.

Процесс аудита системы ИИ может занимать несколько месяцев и включает в себя:
↖️ тестирование больших языковых моделей на корректность ответов на политические вопросы
🔍 анализ данных, используемых для обучения ИИ
📄 проверка соответствия протоколов безопасности общепринятым стандартам

Соблюдение таких требований отражается и на пользовательском опыте:
➡️ модели генеративного ИИ отклоняют все запросы, связанные с историческими чувствительными событиями или юмористическими сравнениями государственных должностных лиц Китая.

Что касается менее чувствительных тем, то разработчикам предлагается интегрировать дополнительный уровень фильтрации, который позволяет заменять спорные ответы более безопасными альтернативами.

📱 Согласно исследованию Университета Фудань больше всех установленным требованиям безопасности соответствует модель от ByteDance. Ее уровень соответствия 66,4%.

❗️Таким образом, Китай еще раз подчеркнул свою приверженность к разработке систем ИИ, соответствующих как нормативно-правовым требованиям, так и стратегическим национальным интересам.

#AI #China #GenAI #AIRegulation
Please open Telegram to view this post
VIEW IN TELEGRAM
🇸🇬 Сингапур опубликовал доклад о синтетических данных

15 июля 2024 года Комиссия по защите персональных данных Сингапура (PDPC) опубликовала доклад «Privacy enhancing technology» (PET) - руководство по созданию синтетических данных.

Использование синтетических данных снижает потребность в сборе и обработке реальных данных (в т.ч. персональных или коммерчески чувствительных), что особенно важно в ситуациях, когда сбор таких видов данных ограничен законодательством.

Руководство определяет набор инструментов и методов, которые позволяют обрабатывать, анализировать и извлекать информацию без раскрытия конфиденциальных категорий данных.

Руководство классифицирует методы по трем категориям:
1️⃣маскировка данных*
2️⃣обработка зашифрованных данных
3️⃣федеративное обучение**

⚡️В Руководстве также предлагаются наилучшие практики генерации синтетических данных, которые особенно полезны при создании датасетов для обучения ИИ.

❗️Кроме того, в руководстве подробно изложены кейсы использования синтетических данных, которые позволяют повысить качество работы систем ИИ, при этом не нарушая законодательство.
💸Например, синтетические данные можно использовать для обучения моделей ИИ, направленных на обнаружение мошенничества в финансовом секторе.


*Маскировка (обфускация) данных — способ защиты конфиденциальной информации от несанкционированного доступа путём замены исходных данных фиктивными данными или произвольными символами.

**Федеративное обучение — это методика заключения модели в защищенную среду и ее обучение без перемещения данных куда-либо.


#AI #Singapore #SyntheticData
Please open Telegram to view this post
VIEW IN TELEGRAM
©️ Искусственный интеллект продолжает получать жалобы на нарушение авторских прав

Condé Nast, журнальное издательство, выпускающее The New Yorker, Vogue и Vanity Fair, потребовало от Perplexity* прекратить использовать их контент при выдаче ответов на запросы пользователей.

В своем письме о прекращении сотрудничества Condé Nast заявило, что Perplexity использует веб-краулеры**, которые позволяют обходить средства защиты издательства.

Perplexity не первый раз получает обвинения в свой адрес:
🔜 в июне этого года издание Wired в своей статье назвало поисковую систему с ИИ «машиной для создания бреда» и утверждало, что Perplexity взяла целую новостную статью в ее оригинальном виде, слегка перефразировав.

Более того, за последние два месяца Forbes, Amazon и Reuters начали отдельные расследования практик Perplexity.

💬 Роджер Линч, генеральный директор Condé Nast, предупредил, что медиакомпании могут обанкротиться из-за времени и денег, которые требуются для судебных разбирательств с компаниями, использующими ИИ. Он также заявил, что Конгресс должен принять законы, которые обяжут разработчиков ИИ платить издателям за их контент, защищая тем самым их авторские права.

❗️Тем не менее, Закон США об авторском праве и доктрина fair use позволяют повторно использовать опубликованный контент с учетом ограничений по целям использования и правильного цитирования.

*Perplexity — чат-бот на базе ИИ, который сканирует Интернет, собирая информацию из авторитетных источников, объединяет ее в последовательный и простой для понимания ответ, добавляя при этом сноски со ссылками на первоисточники, что позволяет легко проверить информацию.

**Веб-краулер — это программный робот, который сканирует Интернет и загружает найденные данные.

#AI #Copyright
Please open Telegram to view this post
VIEW IN TELEGRAM
🎭 Гильдия актеров США объявила забастовку против разработчиков видеоигр

Гильдия киноактеров и Федерация артистов телевидения и радио Америки (SAG-AFTRA) объявила о первой с 2017 года забастовке против компаний — разработчиков видеоигр. Поводом стало непредоставление охраны цифровых образов артистов при использование ИИ со стороны индустрии видеоигр.

Переговоры с крупными игровыми студиями длились около полутора лет, однако 26 июля профсоюз принял решение о прекращении переговоров и объявлении забастовки.

💬 Как отметили в Гильдии: «Хотя мы достигли согласия по многим вопросам, важным для членов SAG-AFTRA, работодатели отказываются четко и ясно подтвердить, что они будут защищать актеров от незаконного использования сгенерированных ИИ голосов и образов».

Основная позиция членов профсоюза по вопросам использования ИИ
➡️авторы любой игры, которые хотят привлечь к разработке актеров, должны подписывать специальные соглашения, защищающие работников от незаконной обработки и использования их образов ИИ

💬 Президент SAG-AFTRA Фрэн Дрешер заявил, что они не собираются соглашаться на форму контракта, по которой компании смогут злоупотреблять ИИ в ущерб актерам. «Достаточно. Когда эти компании серьезно отнесутся к нашему предложению, с принятием которого наши члены смогут жить и работать, мы будем готовы к переговорам», — добавил он.

#AI #USA #Deepfake
Please open Telegram to view this post
VIEW IN TELEGRAM
✉️ США выпустили рекомендации для разработчиков ИИ в сфере образования

Министерство образования США опубликовало новое руководство для edtech-компаний - "Designing for Education with Artificial Intelligence".

Основная цель документа – создать подробный план ответственной разработки ИИ-продуктов для образовательных учреждений.

Пять ключевых областей, которые потребуют особого внимания разработчиков технологий ИИ в сфере образования:
1️⃣консультирование с педагогами на каждом этапе разработки
2️⃣предоставление отчетов о повышении эффективности продуктов
3️⃣обеспечение непредвзятости ИИ и соблюдения основополагающих прав человека
4️⃣внедрение протоколов безопасности и комплексной оценки рисков
5️⃣способствование прозрачности ИИ путем информирования пользователей и создания каналов обратной связи

Разработчикам также рекомендуется:
💻 регулярно проводить тестирование ИИ-систем на соответствие данному руководству
📰 принимать документы, закрепляющие принципы этики ИИ в сфере образования, на уровне своих компаний
💰 инвестировать в надежные и заслуживающие доверия технологии ИИ

Таким образом, рассматриваемый документ предполагает интеграцию этических принципов и оценки рисков на каждом этапе разработки. Потенциально такой подход потребует больше временных и финансовых затрат, однако результат будет более качественным и надежным.

#AI #USA #Education
Please open Telegram to view this post
VIEW IN TELEGRAM