HCAI // Регулирование ИИ
961 subscribers
64 photos
14 files
241 links
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.
Download Telegram
🇨🇳 Итоги Всемирной конференции по ИИ в Шанхае

6 июля в Шанхае завершилась седьмая ежегодная Всемирная конференция по ИИ (World Artificial Intelligence Conference, WAIC).

Ключевая тема конференции - управление ИИ для всеобщего блага и для всех («AI Governance for good and for all»).

В качестве участников присутствовали правительственные делегации, представители международных организаций, технологических гигантов и стартапов, а также иные специалисты и эксперты в области ИИ.

Программа WAIC 2024 включила:
🌎 правительственный форум с участием министров из разных стран, включая Россию, страны СНГ, Латинской Америки, Ближнего Востока, Африки и Азии
💬 тематические форумы и панельные сессии по ключевым темам (например, этика ИИ, беспилотный транспорт, ИИ в науке)
💻 выставка инновационных решений в сфере ИИ

На полях WAIC было объявлено о создании экспертных центров и исследовательских программ:
📃 Центр передового опыта Глобального отраслевого альянса в области ИИ на базе ЮНИДО
📄 Ежегодная исследовательская программа по глобальному управлению ИИ

Более того, по итогам WAIC были опубликованы или анонсированы нормативно-правовые акты и рекомендации в сфере ИИ:
🟦Шанхайская декларация Глобального регулирования ИИ
🟦Руководство по управлению человекоподобными роботами
🟦Голубая книга по ИИ и верховенству права в мире (2024)

❗️Также на конференции была озвучена официальная позиция Китая - важно укреплять международное сотрудничество и содействовать построению единой системы управления ИИ.

💬 Герд Мюллер, Генеральный директор ООН по промышленному развитию (ЮНИДО), на церемонии открытия WAIC 2024 заявил, что ИИ позволит решить многие актуальные проблемы человечества: голод, формирование устойчивой промышленности, создание более качественных рабочих мест и др. Однако, одновременно с этим, риски ИИ возрастают, а цифровой разрыв между странами увеличивается. Именно поэтому необходимо создавать центры обмена опытом, а также разрабатывать нормативную базу в области регулирования ИИ.

#AI #WAIC #China #UN
Please open Telegram to view this post
VIEW IN TELEGRAM
ℹ️ Правительственный форум по глобальному управлению ИИ в рамках WAIC

4 июля в рамках ежегодной Всемирной конференции по ИИ состоялась закрытая встреча высокого уровня с участием официальных правительственных делегаций зарубежных стран (Китай, Росиия, Австралия, ОАЭ, Эфиопия, Венгрия, Швейцария, Саудовская Аравия, Сингапур, Нидерланды и другие), а также представителей международных организаций (ЮНЕСКО, ЮНИДО).

Встреча была посвящена следующим вопросам:
🟦Построение глобальной системы управления ИИ при участии ООН
🟦Сокращение технологического разрыва между Югом и Севером посредством предоставления помощи развивающимся странам
🟦Недопустимость монополизации сферы ИИ отдельными странами и корпорациями, а также разработки международного регулирования исключительно в интересах отдельных государств
🟦Международное сотрудничество для разработки международных стандартов в области ИИ
🟦Разработка и соблюдение прав человека и этических принципов на всех этапах жизненного цикла ИИ
🟦Своевременная подготовка квалифицированных кадров
🟦Недопустимость использования ИИ для вмешательства во внутреннюю политику государств

Отдельно была отмечена важность разработки безопасного ИИ и подсвечены актуальные риски его использования:
🙅‍♂️ распространение недостоверной информации, в т. ч. посредством создания дипфейков
🙅‍♂️ нарушение конфиденциальности данных
🙅‍♂️ риски внедрения ИИ в системы вооружения
🙅‍♂️ угрозы использования ИИ с целью дестабилизации государств

❗️ Главный вывод форума: нужно укрепить международное сотрудничество, чтобы создать эффективную и справедливую систему регулирования ИИ. Это позволит всему мировому сообществу использовать возможности, которые предоставляет ИИ.

#AI #WAIC #China #UN
Please open Telegram to view this post
VIEW IN TELEGRAM
👋 Китай опубликовал первые принципы регулирования человекоподобных роботов

В рамках Всемирной конференции по искусственному интеллекту (WAIC) в Шанхае опубликованы Руководящие принципы по регулированию человекоподобных роботов.

Цель данного документа - содействие развитию технологий ИИ при гарантии соблюдения моральных и этических принципов в процессе разработки и использования человекоподобных роботов.

Основные положения Руководящих принципов:
👍 роботы не должны представлять угрозу для человечества, напротив, они должны стать гарантом безопасности человека и защиты его достоинства
🫡 человекоподобные роботы должны использоваться в соответствии с правилами и протоколами

Для достижения поставленных задач предлагаются следующие нововведения:
🔵 разработка унифицированной системы стандартов и норм для технологий человекоподобных роботов
🔵 создание агентств по этическим исследованиям и аудитам для обеспечения соблюдения стандартов безопасности
🔵 формирование системы предупреждения и реагирования на факты несанкционированного использования роботов
🔵 возложение на разработчиков обязанности установить протоколы безопасности, позволяющие прерывать деятельность роботов в опасных ситуациях
🔵 увеличение инвестирования в данную сферу
🔵 усиление международного сотрудничества для создания глобальной экосистемы в области производства роботов-гуманоидов

❗️Стоит отметить, что данный документ был разработан во исполнение плана, опубликованного Министерством промышленности и информационных технологий, согласно которому Китай стремится достичь массового производства человекоподобных роботов к 2025 году, а мирового лидерства в данной сфере - к 2027 году.

#AI #China #Robotics
Please open Telegram to view this post
VIEW IN TELEGRAM
🇨🇳 В Китае модели ИИ будут проверять на соответствие социалистическим ценностям

Администрация киберпространства Китая (Cyberspace Administration of China (CAC)) выпустила руководящие принципы, которые предписывают компаниям, создающим передовые ИИ-технологии, фильтровать запросы по тысячам чувствительных слов для соответствия основным социалистическим ценностям.

Процесс аудита системы ИИ может занимать несколько месяцев и включает в себя:
↖️ тестирование больших языковых моделей на корректность ответов на политические вопросы
🔍 анализ данных, используемых для обучения ИИ
📄 проверка соответствия протоколов безопасности общепринятым стандартам

Соблюдение таких требований отражается и на пользовательском опыте:
➡️ модели генеративного ИИ отклоняют все запросы, связанные с историческими чувствительными событиями или юмористическими сравнениями государственных должностных лиц Китая.

Что касается менее чувствительных тем, то разработчикам предлагается интегрировать дополнительный уровень фильтрации, который позволяет заменять спорные ответы более безопасными альтернативами.

📱 Согласно исследованию Университета Фудань больше всех установленным требованиям безопасности соответствует модель от ByteDance. Ее уровень соответствия 66,4%.

❗️Таким образом, Китай еще раз подчеркнул свою приверженность к разработке систем ИИ, соответствующих как нормативно-правовым требованиям, так и стратегическим национальным интересам.

#AI #China #GenAI #AIRegulation
Please open Telegram to view this post
VIEW IN TELEGRAM
☄️ Новый метод проверки ответов нейросетей

Группа исследователей из китайской компании Baidu Inc. предложила новый метод проверки правильности ответов больших языковых моделей (LLM).

Цель такой проверки – повысить надежность модели, минимизируя процент галлюцинаций ИИ.

«Самоанализ ИИ» - так Baidu назвала новый метод. Его суть заключается в том, что модель должна сама проверять свою работу перед тем, как предоставить результаты конечным пользователям.

Для этого в движок LLM внедряется трехэтапный процесс:
1️⃣модель, учитывающая релевантность результатов промпту пользователя
2️⃣выбор из серии ответов, учитывающий доказательства, основанные на релевантных документах
3️⃣ модуль анализа траектории, который проводит четкий и краткий анализ того, как LLM пришла к тому выводу, который модель считает правильным

Ученые уже протестировали данный подход на нейросети компании и утверждают, что улучшенная LLM смогла превзойти GPT-4, используя гораздо меньшие наборы обучающих данных.

Таким образом, по мнению исследователей, предлагаемый метод проверки позволит:
🆗 повысить точность ответов нейросетей
🆗 создавать новые модели для большего количества разработчиков, которые в настоящее время не имеют доступа к огромным наборам обучающих данных

#China #AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
☄️ Китай и ООН сотрудничают в наращивании потенциала ИИ

С 3 по 6 сентября в Шанхае прошел семинар, посвященный международному сотрудничеству в области наращивания потенциала ИИ (Workshop on Al Capacity Building). В мероприятии приняли участие 38 делегатов из Европы, Азии, Африки, стран Ближнего Востока и постсоветского пространства.

Программа семинара состояла из:
✏️ лекций, посвященных темам текущего состояния и развития отрасли ИИ в Китае и мире
😉 визитов в китайские организации для демонстрации текущих разработок в сфере ИИ (ПО и робототехника)

На открытии выступили представители Китая и ООН:

🇺🇳 Генеральный секретарь ООН Антониу Гутерриш на церемонии открытия подчеркнул, что ИИ стремительно меняет мир, и важно объединить усилия для ответственного развития и регулирования технологий. Он также отметил уникальную роль ООН в поддержке международного диалога по ИИ и укреплении глобальных стандартов.

🇨🇳 В свою очередь, Вице-министр иностранных дел Китая Ма Чжаосюй заявил, что Китай будет активно способствовать глобальному консенсусу по вопросам управления ИИ на предстоящем саммите ООН, подчеркивая важность создания справедливых глобальных рамок для управления ИИ.

Прошедший семинар стал продолжением инициативы Китая по резолюции Генеральной Ассамблеей ООН о расширении международного сотрудничества в сфере ИИ. По заверению организаторов, в дальнейшем планируется проводить подобные мероприятия на ежегодной основе.

#AI #China #UN #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM