HCAI // Регулирование ИИ
1.04K subscribers
81 photos
14 files
274 links
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.
Download Telegram
🇨🇳 Итоги Всемирной конференции по ИИ в Шанхае

6 июля в Шанхае завершилась седьмая ежегодная Всемирная конференция по ИИ (World Artificial Intelligence Conference, WAIC).

Ключевая тема конференции - управление ИИ для всеобщего блага и для всех («AI Governance for good and for all»).

В качестве участников присутствовали правительственные делегации, представители международных организаций, технологических гигантов и стартапов, а также иные специалисты и эксперты в области ИИ.

Программа WAIC 2024 включила:
🌎 правительственный форум с участием министров из разных стран, включая Россию, страны СНГ, Латинской Америки, Ближнего Востока, Африки и Азии
💬 тематические форумы и панельные сессии по ключевым темам (например, этика ИИ, беспилотный транспорт, ИИ в науке)
💻 выставка инновационных решений в сфере ИИ

На полях WAIC было объявлено о создании экспертных центров и исследовательских программ:
📃 Центр передового опыта Глобального отраслевого альянса в области ИИ на базе ЮНИДО
📄 Ежегодная исследовательская программа по глобальному управлению ИИ

Более того, по итогам WAIC были опубликованы или анонсированы нормативно-правовые акты и рекомендации в сфере ИИ:
🟦Шанхайская декларация Глобального регулирования ИИ
🟦Руководство по управлению человекоподобными роботами
🟦Голубая книга по ИИ и верховенству права в мире (2024)

❗️Также на конференции была озвучена официальная позиция Китая - важно укреплять международное сотрудничество и содействовать построению единой системы управления ИИ.

💬 Герд Мюллер, Генеральный директор ООН по промышленному развитию (ЮНИДО), на церемонии открытия WAIC 2024 заявил, что ИИ позволит решить многие актуальные проблемы человечества: голод, формирование устойчивой промышленности, создание более качественных рабочих мест и др. Однако, одновременно с этим, риски ИИ возрастают, а цифровой разрыв между странами увеличивается. Именно поэтому необходимо создавать центры обмена опытом, а также разрабатывать нормативную базу в области регулирования ИИ.

#AI #WAIC #China #UN
Please open Telegram to view this post
VIEW IN TELEGRAM
ℹ️ Правительственный форум по глобальному управлению ИИ в рамках WAIC

4 июля в рамках ежегодной Всемирной конференции по ИИ состоялась закрытая встреча высокого уровня с участием официальных правительственных делегаций зарубежных стран (Китай, Росиия, Австралия, ОАЭ, Эфиопия, Венгрия, Швейцария, Саудовская Аравия, Сингапур, Нидерланды и другие), а также представителей международных организаций (ЮНЕСКО, ЮНИДО).

Встреча была посвящена следующим вопросам:
🟦Построение глобальной системы управления ИИ при участии ООН
🟦Сокращение технологического разрыва между Югом и Севером посредством предоставления помощи развивающимся странам
🟦Недопустимость монополизации сферы ИИ отдельными странами и корпорациями, а также разработки международного регулирования исключительно в интересах отдельных государств
🟦Международное сотрудничество для разработки международных стандартов в области ИИ
🟦Разработка и соблюдение прав человека и этических принципов на всех этапах жизненного цикла ИИ
🟦Своевременная подготовка квалифицированных кадров
🟦Недопустимость использования ИИ для вмешательства во внутреннюю политику государств

Отдельно была отмечена важность разработки безопасного ИИ и подсвечены актуальные риски его использования:
🙅‍♂️ распространение недостоверной информации, в т. ч. посредством создания дипфейков
🙅‍♂️ нарушение конфиденциальности данных
🙅‍♂️ риски внедрения ИИ в системы вооружения
🙅‍♂️ угрозы использования ИИ с целью дестабилизации государств

❗️ Главный вывод форума: нужно укрепить международное сотрудничество, чтобы создать эффективную и справедливую систему регулирования ИИ. Это позволит всему мировому сообществу использовать возможности, которые предоставляет ИИ.

#AI #WAIC #China #UN
Please open Telegram to view this post
VIEW IN TELEGRAM
👋 Китай опубликовал первые принципы регулирования человекоподобных роботов

В рамках Всемирной конференции по искусственному интеллекту (WAIC) в Шанхае опубликованы Руководящие принципы по регулированию человекоподобных роботов.

Цель данного документа - содействие развитию технологий ИИ при гарантии соблюдения моральных и этических принципов в процессе разработки и использования человекоподобных роботов.

Основные положения Руководящих принципов:
👍 роботы не должны представлять угрозу для человечества, напротив, они должны стать гарантом безопасности человека и защиты его достоинства
🫡 человекоподобные роботы должны использоваться в соответствии с правилами и протоколами

Для достижения поставленных задач предлагаются следующие нововведения:
🔵 разработка унифицированной системы стандартов и норм для технологий человекоподобных роботов
🔵 создание агентств по этическим исследованиям и аудитам для обеспечения соблюдения стандартов безопасности
🔵 формирование системы предупреждения и реагирования на факты несанкционированного использования роботов
🔵 возложение на разработчиков обязанности установить протоколы безопасности, позволяющие прерывать деятельность роботов в опасных ситуациях
🔵 увеличение инвестирования в данную сферу
🔵 усиление международного сотрудничества для создания глобальной экосистемы в области производства роботов-гуманоидов

❗️Стоит отметить, что данный документ был разработан во исполнение плана, опубликованного Министерством промышленности и информационных технологий, согласно которому Китай стремится достичь массового производства человекоподобных роботов к 2025 году, а мирового лидерства в данной сфере - к 2027 году.

#AI #China #Robotics
Please open Telegram to view this post
VIEW IN TELEGRAM
🇨🇳 В Китае модели ИИ будут проверять на соответствие социалистическим ценностям

Администрация киберпространства Китая (Cyberspace Administration of China (CAC)) выпустила руководящие принципы, которые предписывают компаниям, создающим передовые ИИ-технологии, фильтровать запросы по тысячам чувствительных слов для соответствия основным социалистическим ценностям.

Процесс аудита системы ИИ может занимать несколько месяцев и включает в себя:
↖️ тестирование больших языковых моделей на корректность ответов на политические вопросы
🔍 анализ данных, используемых для обучения ИИ
📄 проверка соответствия протоколов безопасности общепринятым стандартам

Соблюдение таких требований отражается и на пользовательском опыте:
➡️ модели генеративного ИИ отклоняют все запросы, связанные с историческими чувствительными событиями или юмористическими сравнениями государственных должностных лиц Китая.

Что касается менее чувствительных тем, то разработчикам предлагается интегрировать дополнительный уровень фильтрации, который позволяет заменять спорные ответы более безопасными альтернативами.

📱 Согласно исследованию Университета Фудань больше всех установленным требованиям безопасности соответствует модель от ByteDance. Ее уровень соответствия 66,4%.

❗️Таким образом, Китай еще раз подчеркнул свою приверженность к разработке систем ИИ, соответствующих как нормативно-правовым требованиям, так и стратегическим национальным интересам.

#AI #China #GenAI #AIRegulation
Please open Telegram to view this post
VIEW IN TELEGRAM
☄️ Новый метод проверки ответов нейросетей

Группа исследователей из китайской компании Baidu Inc. предложила новый метод проверки правильности ответов больших языковых моделей (LLM).

Цель такой проверки – повысить надежность модели, минимизируя процент галлюцинаций ИИ.

«Самоанализ ИИ» - так Baidu назвала новый метод. Его суть заключается в том, что модель должна сама проверять свою работу перед тем, как предоставить результаты конечным пользователям.

Для этого в движок LLM внедряется трехэтапный процесс:
1️⃣модель, учитывающая релевантность результатов промпту пользователя
2️⃣выбор из серии ответов, учитывающий доказательства, основанные на релевантных документах
3️⃣ модуль анализа траектории, который проводит четкий и краткий анализ того, как LLM пришла к тому выводу, который модель считает правильным

Ученые уже протестировали данный подход на нейросети компании и утверждают, что улучшенная LLM смогла превзойти GPT-4, используя гораздо меньшие наборы обучающих данных.

Таким образом, по мнению исследователей, предлагаемый метод проверки позволит:
🆗 повысить точность ответов нейросетей
🆗 создавать новые модели для большего количества разработчиков, которые в настоящее время не имеют доступа к огромным наборам обучающих данных

#China #AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
☄️ Китай и ООН сотрудничают в наращивании потенциала ИИ

С 3 по 6 сентября в Шанхае прошел семинар, посвященный международному сотрудничеству в области наращивания потенциала ИИ (Workshop on Al Capacity Building). В мероприятии приняли участие 38 делегатов из Европы, Азии, Африки, стран Ближнего Востока и постсоветского пространства.

Программа семинара состояла из:
✏️ лекций, посвященных темам текущего состояния и развития отрасли ИИ в Китае и мире
😉 визитов в китайские организации для демонстрации текущих разработок в сфере ИИ (ПО и робототехника)

На открытии выступили представители Китая и ООН:

🇺🇳 Генеральный секретарь ООН Антониу Гутерриш на церемонии открытия подчеркнул, что ИИ стремительно меняет мир, и важно объединить усилия для ответственного развития и регулирования технологий. Он также отметил уникальную роль ООН в поддержке международного диалога по ИИ и укреплении глобальных стандартов.

🇨🇳 В свою очередь, Вице-министр иностранных дел Китая Ма Чжаосюй заявил, что Китай будет активно способствовать глобальному консенсусу по вопросам управления ИИ на предстоящем саммите ООН, подчеркивая важность создания справедливых глобальных рамок для управления ИИ.

Прошедший семинар стал продолжением инициативы Китая по резолюции Генеральной Ассамблеей ООН о расширении международного сотрудничества в сфере ИИ. По заверению организаторов, в дальнейшем планируется проводить подобные мероприятия на ежегодной основе.

#AI #China #UN #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
🇨🇳 Китай разрабатывает новые документы, регулирующие ИИ

В рамках Глобальной инициативы по управлению искусственным интеллектом, запущенной в октябре прошлого года для решения всеобщих проблем, связанных с развитием ИИ, Национальный технический комитет по стандартизации информационной безопасности Китая провел исследование и разработал Рамочную программу управления безопасностью ИИ.

В Рамочной программе основное внимание уделяется поощрению инноваций в разработке ИИ при одновременном приоритетном предотвращении и смягчении рисков безопасности ИИ. В программе изложены и ключевые принципы управления безопасностью ИИ:
🆗 инклюзивность
🆗 подход, ориентированный на оценку рисков
🆗 интеграция технологий и процессов управления
🆗 совместные меры реагирования и открытое сотрудничество

Документ предоставляет основные технические рекомендации по созданию безопасной, надежной, справедливой и прозрачной экосистемы для исследований и применения ИИ.

Китай также предлагает новое регулирование маркировки ИИ-контента. Управление киберпространства Китая опубликовало проект постановления под названием «Меры по идентификации синтетического контента, сгенерированного ИИ».

👀 Синтетический контент, созданный ИИ, включает текст, изображения, аудио и видео, генерируемые с помощью технологий искусственного интеллекта. Проект постановления требует, чтобы интернет-платформы следовали национальным стандартам при маркировке такого контента.

❗️Кроме того, платформы, позволяющие загружать или экспортировать ИИ-материалы, должны встраивать в файлы явные метки. Платформы, распространяющие такой контент, обязаны регулировать его, предлагая функции идентификации и напоминая пользователям о необходимости указывать, если их контент создан ИИ.

#AI #Regulation #China
Please open Telegram to view this post
VIEW IN TELEGRAM