🇨🇳 Итоги Всемирной конференции по ИИ в Шанхае
6 июля в Шанхае завершилась седьмая ежегодная Всемирная конференция по ИИ (World Artificial Intelligence Conference, WAIC).
Ключевая тема конференции - управление ИИ для всеобщего блага и для всех («AI Governance for good and for all»).
В качестве участников присутствовали правительственные делегации, представители международных организаций, технологических гигантов и стартапов, а также иные специалисты и эксперты в области ИИ.
Программа WAIC 2024 включила:
🌎 правительственный форум с участием министров из разных стран, включая Россию, страны СНГ, Латинской Америки, Ближнего Востока, Африки и Азии
💬 тематические форумы и панельные сессии по ключевым темам (например, этика ИИ, беспилотный транспорт, ИИ в науке)
💻 выставка инновационных решений в сфере ИИ
На полях WAIC было объявлено о создании экспертных центров и исследовательских программ:
📃 Центр передового опыта Глобального отраслевого альянса в области ИИ на базе ЮНИДО
📄 Ежегодная исследовательская программа по глобальному управлению ИИ
Более того, по итогам WAIC были опубликованы или анонсированы нормативно-правовые акты и рекомендации в сфере ИИ:
🟦 Шанхайская декларация Глобального регулирования ИИ
🟦 Руководство по управлению человекоподобными роботами
🟦 Голубая книга по ИИ и верховенству права в мире (2024)
❗️ Также на конференции была озвучена официальная позиция Китая - важно укреплять международное сотрудничество и содействовать построению единой системы управления ИИ.
💬 Герд Мюллер, Генеральный директор ООН по промышленному развитию (ЮНИДО), на церемонии открытия WAIC 2024 заявил, что ИИ позволит решить многие актуальные проблемы человечества: голод, формирование устойчивой промышленности, создание более качественных рабочих мест и др. Однако, одновременно с этим, риски ИИ возрастают, а цифровой разрыв между странами увеличивается. Именно поэтому необходимо создавать центры обмена опытом, а также разрабатывать нормативную базу в области регулирования ИИ.
#AI #WAIC #China #UN
6 июля в Шанхае завершилась седьмая ежегодная Всемирная конференция по ИИ (World Artificial Intelligence Conference, WAIC).
Ключевая тема конференции - управление ИИ для всеобщего блага и для всех («AI Governance for good and for all»).
В качестве участников присутствовали правительственные делегации, представители международных организаций, технологических гигантов и стартапов, а также иные специалисты и эксперты в области ИИ.
Программа WAIC 2024 включила:
На полях WAIC было объявлено о создании экспертных центров и исследовательских программ:
Более того, по итогам WAIC были опубликованы или анонсированы нормативно-правовые акты и рекомендации в сфере ИИ:
#AI #WAIC #China #UN
Please open Telegram to view this post
VIEW IN TELEGRAM
4 июля в рамках ежегодной Всемирной конференции по ИИ состоялась закрытая встреча высокого уровня с участием официальных правительственных делегаций зарубежных стран (Китай, Росиия, Австралия, ОАЭ, Эфиопия, Венгрия, Швейцария, Саудовская Аравия, Сингапур, Нидерланды и другие), а также представителей международных организаций (ЮНЕСКО, ЮНИДО).
Встреча была посвящена следующим вопросам:
Отдельно была отмечена важность разработки безопасного ИИ и подсвечены актуальные риски его использования:
#AI #WAIC #China #UN
Please open Telegram to view this post
VIEW IN TELEGRAM
В рамках Всемирной конференции по искусственному интеллекту (WAIC) в Шанхае опубликованы Руководящие принципы по регулированию человекоподобных роботов.
Цель данного документа - содействие развитию технологий ИИ при гарантии соблюдения моральных и этических принципов в процессе разработки и использования человекоподобных роботов.
Основные положения Руководящих принципов:
Для достижения поставленных задач предлагаются следующие нововведения:
#AI #China #Robotics
Please open Telegram to view this post
VIEW IN TELEGRAM
🇨🇳 В Китае модели ИИ будут проверять на соответствие социалистическим ценностям
Администрация киберпространства Китая (Cyberspace Administration of China (CAC)) выпустила руководящие принципы, которые предписывают компаниям, создающим передовые ИИ-технологии, фильтровать запросы по тысячам чувствительных слов для соответствия основным социалистическим ценностям.
Процесс аудита системы ИИ может занимать несколько месяцев и включает в себя:
↖️ тестирование больших языковых моделей на корректность ответов на политические вопросы
🔍 анализ данных, используемых для обучения ИИ
📄 проверка соответствия протоколов безопасности общепринятым стандартам
Соблюдение таких требований отражается и на пользовательском опыте:
➡️ модели генеративного ИИ отклоняют все запросы, связанные с историческими чувствительными событиями или юмористическими сравнениями государственных должностных лиц Китая.
Что касается менее чувствительных тем, то разработчикам предлагается интегрировать дополнительный уровень фильтрации, который позволяет заменять спорные ответы более безопасными альтернативами.
📱 Согласно исследованию Университета Фудань больше всех установленным требованиям безопасности соответствует модель от ByteDance. Ее уровень соответствия 66,4%.
❗️ Таким образом, Китай еще раз подчеркнул свою приверженность к разработке систем ИИ, соответствующих как нормативно-правовым требованиям, так и стратегическим национальным интересам.
#AI #China #GenAI #AIRegulation
Администрация киберпространства Китая (Cyberspace Administration of China (CAC)) выпустила руководящие принципы, которые предписывают компаниям, создающим передовые ИИ-технологии, фильтровать запросы по тысячам чувствительных слов для соответствия основным социалистическим ценностям.
Процесс аудита системы ИИ может занимать несколько месяцев и включает в себя:
Соблюдение таких требований отражается и на пользовательском опыте:
Что касается менее чувствительных тем, то разработчикам предлагается интегрировать дополнительный уровень фильтрации, который позволяет заменять спорные ответы более безопасными альтернативами.
#AI #China #GenAI #AIRegulation
Please open Telegram to view this post
VIEW IN TELEGRAM
Группа исследователей из китайской компании Baidu Inc. предложила новый метод проверки правильности ответов больших языковых моделей (LLM).
Цель такой проверки – повысить надежность модели, минимизируя процент галлюцинаций ИИ.
«Самоанализ ИИ» - так Baidu назвала новый метод. Его суть заключается в том, что модель должна сама проверять свою работу перед тем, как предоставить результаты конечным пользователям.
Для этого в движок LLM внедряется трехэтапный процесс:
Ученые уже протестировали данный подход на нейросети компании и утверждают, что улучшенная LLM смогла превзойти GPT-4, используя гораздо меньшие наборы обучающих данных.
Таким образом, по мнению исследователей, предлагаемый метод проверки позволит:
#China #AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
С 3 по 6 сентября в Шанхае прошел семинар, посвященный международному сотрудничеству в области наращивания потенциала ИИ (Workshop on Al Capacity Building). В мероприятии приняли участие 38 делегатов из Европы, Азии, Африки, стран Ближнего Востока и постсоветского пространства.
Программа семинара состояла из:
На открытии выступили представители Китая и ООН:
🇺🇳 Генеральный секретарь ООН Антониу Гутерриш на церемонии открытия подчеркнул, что ИИ стремительно меняет мир, и важно объединить усилия для ответственного развития и регулирования технологий. Он также отметил уникальную роль ООН в поддержке международного диалога по ИИ и укреплении глобальных стандартов.
🇨🇳 В свою очередь, Вице-министр иностранных дел Китая Ма Чжаосюй заявил, что Китай будет активно способствовать глобальному консенсусу по вопросам управления ИИ на предстоящем саммите ООН, подчеркивая важность создания справедливых глобальных рамок для управления ИИ.
Прошедший семинар стал продолжением инициативы Китая по резолюции Генеральной Ассамблеей ООН о расширении международного сотрудничества в сфере ИИ. По заверению организаторов, в дальнейшем планируется проводить подобные мероприятия на ежегодной основе.
#AI #China #UN #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
🇨🇳 Китай разрабатывает новые документы, регулирующие ИИ
В рамках Глобальной инициативы по управлению искусственным интеллектом, запущенной в октябре прошлого года для решения всеобщих проблем, связанных с развитием ИИ, Национальный технический комитет по стандартизации информационной безопасности Китая провел исследование и разработал Рамочную программу управления безопасностью ИИ.
В Рамочной программе основное внимание уделяется поощрению инноваций в разработке ИИ при одновременном приоритетном предотвращении и смягчении рисков безопасности ИИ. В программе изложены и ключевые принципы управления безопасностью ИИ:
🆗 инклюзивность
🆗 подход, ориентированный на оценку рисков
🆗 интеграция технологий и процессов управления
🆗 совместные меры реагирования и открытое сотрудничество
Документ предоставляет основные технические рекомендации по созданию безопасной, надежной, справедливой и прозрачной экосистемы для исследований и применения ИИ.
Китай также предлагает новое регулирование маркировки ИИ-контента. Управление киберпространства Китая опубликовало проект постановления под названием «Меры по идентификации синтетического контента, сгенерированного ИИ».
👀 Синтетический контент, созданный ИИ, включает текст, изображения, аудио и видео, генерируемые с помощью технологий искусственного интеллекта. Проект постановления требует, чтобы интернет-платформы следовали национальным стандартам при маркировке такого контента.
❗️ Кроме того, платформы, позволяющие загружать или экспортировать ИИ-материалы, должны встраивать в файлы явные метки. Платформы, распространяющие такой контент, обязаны регулировать его, предлагая функции идентификации и напоминая пользователям о необходимости указывать, если их контент создан ИИ.
#AI #Regulation #China
В рамках Глобальной инициативы по управлению искусственным интеллектом, запущенной в октябре прошлого года для решения всеобщих проблем, связанных с развитием ИИ, Национальный технический комитет по стандартизации информационной безопасности Китая провел исследование и разработал Рамочную программу управления безопасностью ИИ.
В Рамочной программе основное внимание уделяется поощрению инноваций в разработке ИИ при одновременном приоритетном предотвращении и смягчении рисков безопасности ИИ. В программе изложены и ключевые принципы управления безопасностью ИИ:
Документ предоставляет основные технические рекомендации по созданию безопасной, надежной, справедливой и прозрачной экосистемы для исследований и применения ИИ.
Китай также предлагает новое регулирование маркировки ИИ-контента. Управление киберпространства Китая опубликовало проект постановления под названием «Меры по идентификации синтетического контента, сгенерированного ИИ».
#AI #Regulation #China
Please open Telegram to view this post
VIEW IN TELEGRAM