9-10 июля в Японии прошел форум, объединивший 16 религиозных лидеров со всего мира – «Этика ИИ во имя мира: Мировые религии присоединяются к Римскому призыву».
🇮🇹 На церемонии открытия Винченцо Палья, президент Папской академии жизни, озвучил цель данного мероприятия – «укрепление сотрудничества в области этики искусственного интеллекта для развития надежного и безопасного ИИ, а также для достижения равенства и взаимного уважения между важнейшими социальными институтами человечества на основе общих духовных целей».
Помимо Папской академии жизни организаторами форума выступили:
🇯🇵 преподобный Ёсихару Томацу, председатель «Религии за мир», Япония
🇦🇪 шейх Абдалла бин Байя, президент «Форума мира» в Абу-Даби и председатель Совета ОАЭ по фетвам
🇮🇱 раввин Элиезер Симха Вайс, член Главного раввината Комиссии Израиля по межконфессиональным отношениям
Данный документ закрепляет 6 основных принципов этического ИИ, на которых должны основаться разработчики при создании систем ИИ.
#AI #Ethics #RomeCall
Please open Telegram to view this post
VIEW IN TELEGRAM
В рамках Всемирной конференции по искусственному интеллекту (WAIC) в Шанхае опубликованы Руководящие принципы по регулированию человекоподобных роботов.
Цель данного документа - содействие развитию технологий ИИ при гарантии соблюдения моральных и этических принципов в процессе разработки и использования человекоподобных роботов.
Основные положения Руководящих принципов:
Для достижения поставленных задач предлагаются следующие нововведения:
#AI #China #Robotics
Please open Telegram to view this post
VIEW IN TELEGRAM
🇨🇳 В Китае модели ИИ будут проверять на соответствие социалистическим ценностям
Администрация киберпространства Китая (Cyberspace Administration of China (CAC)) выпустила руководящие принципы, которые предписывают компаниям, создающим передовые ИИ-технологии, фильтровать запросы по тысячам чувствительных слов для соответствия основным социалистическим ценностям.
Процесс аудита системы ИИ может занимать несколько месяцев и включает в себя:
↖️ тестирование больших языковых моделей на корректность ответов на политические вопросы
🔍 анализ данных, используемых для обучения ИИ
📄 проверка соответствия протоколов безопасности общепринятым стандартам
Соблюдение таких требований отражается и на пользовательском опыте:
➡️ модели генеративного ИИ отклоняют все запросы, связанные с историческими чувствительными событиями или юмористическими сравнениями государственных должностных лиц Китая.
Что касается менее чувствительных тем, то разработчикам предлагается интегрировать дополнительный уровень фильтрации, который позволяет заменять спорные ответы более безопасными альтернативами.
📱 Согласно исследованию Университета Фудань больше всех установленным требованиям безопасности соответствует модель от ByteDance. Ее уровень соответствия 66,4%.
❗️ Таким образом, Китай еще раз подчеркнул свою приверженность к разработке систем ИИ, соответствующих как нормативно-правовым требованиям, так и стратегическим национальным интересам.
#AI #China #GenAI #AIRegulation
Администрация киберпространства Китая (Cyberspace Administration of China (CAC)) выпустила руководящие принципы, которые предписывают компаниям, создающим передовые ИИ-технологии, фильтровать запросы по тысячам чувствительных слов для соответствия основным социалистическим ценностям.
Процесс аудита системы ИИ может занимать несколько месяцев и включает в себя:
Соблюдение таких требований отражается и на пользовательском опыте:
Что касается менее чувствительных тем, то разработчикам предлагается интегрировать дополнительный уровень фильтрации, который позволяет заменять спорные ответы более безопасными альтернативами.
#AI #China #GenAI #AIRegulation
Please open Telegram to view this post
VIEW IN TELEGRAM
🇸🇬 Сингапур опубликовал доклад о синтетических данных
15 июля 2024 года Комиссия по защите персональных данных Сингапура (PDPC) опубликовала доклад «Privacy enhancing technology» (PET) - руководство по созданию синтетических данных.
Использование синтетических данных снижает потребность в сборе и обработке реальных данных (в т.ч. персональных или коммерчески чувствительных), что особенно важно в ситуациях, когда сбор таких видов данных ограничен законодательством.
Руководство определяет набор инструментов и методов, которые позволяют обрабатывать, анализировать и извлекать информацию без раскрытия конфиденциальных категорий данных.
Руководство классифицирует методы по трем категориям:
1️⃣ маскировка данных*
2️⃣ обработка зашифрованных данных
3️⃣ федеративное обучение**
⚡️ В Руководстве также предлагаются наилучшие практики генерации синтетических данных, которые особенно полезны при создании датасетов для обучения ИИ.
❗️ Кроме того, в руководстве подробно изложены кейсы использования синтетических данных, которые позволяют повысить качество работы систем ИИ, при этом не нарушая законодательство.
💸 Например, синтетические данные можно использовать для обучения моделей ИИ, направленных на обнаружение мошенничества в финансовом секторе.
*Маскировка (обфускация) данных — способ защиты конфиденциальной информации от несанкционированного доступа путём замены исходных данных фиктивными данными или произвольными символами.
**Федеративное обучение — это методика заключения модели в защищенную среду и ее обучение без перемещения данных куда-либо.
#AI #Singapore #SyntheticData
15 июля 2024 года Комиссия по защите персональных данных Сингапура (PDPC) опубликовала доклад «Privacy enhancing technology» (PET) - руководство по созданию синтетических данных.
Использование синтетических данных снижает потребность в сборе и обработке реальных данных (в т.ч. персональных или коммерчески чувствительных), что особенно важно в ситуациях, когда сбор таких видов данных ограничен законодательством.
Руководство определяет набор инструментов и методов, которые позволяют обрабатывать, анализировать и извлекать информацию без раскрытия конфиденциальных категорий данных.
Руководство классифицирует методы по трем категориям:
*Маскировка (обфускация) данных — способ защиты конфиденциальной информации от несанкционированного доступа путём замены исходных данных фиктивными данными или произвольными символами.
**Федеративное обучение — это методика заключения модели в защищенную среду и ее обучение без перемещения данных куда-либо.
#AI #Singapore #SyntheticData
Please open Telegram to view this post
VIEW IN TELEGRAM
Condé Nast, журнальное издательство, выпускающее The New Yorker, Vogue и Vanity Fair, потребовало от Perplexity* прекратить использовать их контент при выдаче ответов на запросы пользователей.
В своем письме о прекращении сотрудничества Condé Nast заявило, что Perplexity использует веб-краулеры**, которые позволяют обходить средства защиты издательства.
Perplexity не первый раз получает обвинения в свой адрес:
Более того, за последние два месяца Forbes, Amazon и Reuters начали отдельные расследования практик Perplexity.
*Perplexity — чат-бот на базе ИИ, который сканирует Интернет, собирая информацию из авторитетных источников, объединяет ее в последовательный и простой для понимания ответ, добавляя при этом сноски со ссылками на первоисточники, что позволяет легко проверить информацию.
**Веб-краулер — это программный робот, который сканирует Интернет и загружает найденные данные.
#AI #Copyright
Please open Telegram to view this post
VIEW IN TELEGRAM
Гильдия киноактеров и Федерация артистов телевидения и радио Америки (SAG-AFTRA) объявила о первой с 2017 года забастовке против компаний — разработчиков видеоигр. Поводом стало непредоставление охраны цифровых образов артистов при использование ИИ со стороны индустрии видеоигр.
Переговоры с крупными игровыми студиями длились около полутора лет, однако 26 июля профсоюз принял решение о прекращении переговоров и объявлении забастовки.
Основная позиция членов профсоюза по вопросам использования ИИ
#AI #USA #Deepfake
Please open Telegram to view this post
VIEW IN TELEGRAM
Министерство образования США опубликовало новое руководство для edtech-компаний - "Designing for Education with Artificial Intelligence".
Основная цель документа – создать подробный план ответственной разработки ИИ-продуктов для образовательных учреждений.
Пять ключевых областей, которые потребуют особого внимания разработчиков технологий ИИ в сфере образования:
Разработчикам также рекомендуется:
Таким образом, рассматриваемый документ предполагает интеграцию этических принципов и оценки рисков на каждом этапе разработки. Потенциально такой подход потребует больше временных и финансовых затрат, однако результат будет более качественным и надежным.
#AI #USA #Education
Please open Telegram to view this post
VIEW IN TELEGRAM