HCAI // Регулирование ИИ
1.04K subscribers
78 photos
14 files
270 links
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.
Download Telegram
🌏За прошлую неделю/начало этой недели произошло много интересных новостей. Например:

🇪🇺 Начала работу Экспертная группа Еврокомиссии по применению ИИ и данных в образовании (Commission expert group on artificial intelligence and data in education and training). Цель экспертной группы - разработать руководства по этике ИИ в образовании на основе Руководства по этике и доверию искусственному интеллекту ("Ethics Guidelines for Trustworthy Artificial Intelligence") 19го года.

🇦🇪 В ОАЭ Национальная Программа ИИ (National Programme for Artificial Intelligence) и Совет по Цифровому Благополучию (Council for Digital Wellbeing) выпустили разъяснения для физ лиц
- что такое дипфейки и чем они вредны
- как распознать дипфейки
и призвали физ лиц уведомлять гос органы, если они сталкиваются с дипфейками.

🇺🇸📊 Бюро США по Патентам и Товарным Знакам (United States Patent and Trademark Office (USPTO) проводит исследование и публичные консультации о том, как действующее требование "наличия оснований для подачи заявки" (patent eligibility) для выдачи патентов влияет на развитие инноваций и инвестиционный климат в области ИИ и квантовых вычислений.

Поскольку исследование проводится по запросу ряда сенаторов от обеих палат, предполагается, что по результатам исследования возможны существенные изменения в законодательстве.
🌏📊 Делимся небольшим обзором - предположением, "приживутся" ли положения разрабатываемого в ЕС Регламента по искусственному интеллекту в странах АСЕАН. Автор обзора полагает, что в отличие от GDPR, у данного регламента в ближайшее время не будет т.н. "Брюссельского эффекта" и он не так сильно повлияет на регуляторный климат региона в ближайшем будущем. Причины следующие:
1️⃣ АСЕАН - менее интегрированный и развитый рынок ПО и технологий ИИ. Следовательно, регулирование также крайне неоднородно. Исключение из общей сравнительной малоактивности региона - Сингапур. Данную проблему призван разрешить Стратегический план АСЕАН по цифровому развитию до 2025 года (ASEAN Digital Masterplan 2025), который предусматривает разработку и принятие единой региональной политики и руководств по вопросам государственного управления с использованием ИИ и этике искусственного интеллекта (Regional policy to deliver best practice guidance on AI Governance and Ethics...);
2️⃣ в праве стран АСЕАН до сих пор остаются проблемы в регулировании локализации персональных данных и их трансграничной передачи. Частично ситуацию могут решить модельные договорные условия о трансграничном потоке данных, которые были приняты в АСЕАН в январе этого года;
3️⃣ подписание и ратификация соглашений о свободной торговле (содержащее условия о трансграничном обороте данных) подстегнёт развитие регулирования ИИ в регионе. Но пока что ключевое подобное соглашение в формате АСЕАН - соглашение о региональном и всеобъёмлющем экономическом партнёрстве (Regional Comprehensive Economic Partnership) - позволяет странам ограничивать трансграничный оборот данных, если эти ограничения принимаются как для национальных игроков, так и на "иностранцев". В любом случае, как отмечает автор, отсутствие эффективного способа разрешения споров между государствами позволит странам применять дискриминационные меры в отношении других юрисдикций;
4️⃣ из стран - участниц АСЕАН, подписавших Всеобъемлющее и прогрессивное соглашение о транс-тихоокеанском партнёрстве (Comprehensive and Progressive Agreement for Trans-Pacific Partnership), только две страны (Сингапур и Вьетнам) его ратифицировали и применяют его положения в области трансграничного оборота данных.

Однако автор допускает, то с устранением этих барьеров страны АСЕАН смогут разработать собственное регулирование ИИ, начиная с регулирования в области конкретных областей экономики.
⚡️🚁🇮🇳📃 Министерство гражданской авиации (Ministry of civil aviation) Индии опубликовало проект Правил использования БВС 2021 года ("The Drone Rules, 2021"). Судя по разъяснениям министерства, Правила основываются на принципах "доверия, самостоятельной сертификации и ненавязчивом мониторинге" ("trust, self-certification and non-intrusive monitoring").

Ниже приведён обзор Правил и ключевых изменений (в нескольких частях).

1/2 Основные положения проекта Правил

1️⃣ Классификация БВС

БВС в Индии разделяются на:
- "нанодроны" ("Nano drones") (максимальная взлётная масса до 250 гр.);
- "микродроны" ("Micro drones") (больше 250 гр., до 2 кг);
- "малые дроны" ("Small drones") (больше 2 кг, до 25 кг);
- "средние дроны" ("Medium drones") (больше 25, до 150 кг);
- "крупные дроны" ("Large drones") (больше 150 кг);

2️⃣ Сертификация

▪️По умолчанию допускаются к эксплуатации только БВС, в отн. которых производитель/импортёр получил сертификат типа (примечание: с учётом дефиниции в п. d ст. 2 Правил). Для сертификации необходимо подать заявку через онлайн платформу DigitalSky;

▪️Требования, предъявляемые при сертификации, могут "продвигать использование разработанных в Индии технологий, конструкций, компонентов и дронов, а также разработанной в Индии региональной системой спутниковой навигации NavIC";

▪️По решению Правительства сертификат типа, выданный в иностранном государстве, может быть самодостаточным основанием для сертификации в Индии ("may certify drones based on approvals granted to that type of drone by other international aviation regulators");

▪️Требования по сертификации не распространяется для создания, импорта и эксплуатации:
- "нанодронов" (максимальная взлётная масса до 250 гр.);
- прототипов, используемых "для исследовательской деятельности и развития" ("for the purpose of research and development");
- прототипов, используемых для сертификации ("prototype drone for obtaining certificate of airworthiness");

Также есть исключения для отдельных категорий лиц (об этом ниже).

3️⃣ Требования по обеспечению безопасности

▪️Закреплено общее правило, что недопустимо использовать БВС так, чтобы безопасность личности или имущества оказалось прямо или косвенно поставлена под угрозу;

▪️Правительство может предусмотреть дополнительные особые требования к обеспечению безопасности и уведомить собственников о необходимости установки дополнительного ПО/оборудования.

В частности, в теч. 6 месяцев со дня уведомления Правительством собственник будет обязан установить, например:
- ПО и оборудование, не позволяющее БВС взлетать, если на полёт не было выдано разрешение ("‘No Permission – No Takeoff’ (NPNT) hardware and firmware");
- маяки, с помощью которых можно проследить местоположение БВС, его высоту, скорость и идентификационный номер;
- ПО для гео-ограждения ("Geo-fencing capability");

4️⃣ Регистрация БВС

▪️БВС должно быть зарегистрировано через онлайн платформу DigitalSky. Смена собственника отражается так же;
▪️генерируемый на DigitalSky идентификационный номер привязывается к уникальному серийному номеру БВС и станции управления. Если меняется станция управления - изменения надо отразить в течение 7 дней (также через онлайн платформу);
▪️в случае потери/уничтожения БВС его нужно снять с регистрации;

5️⃣ Зоны полётов

▪️Небо над Индией разделено на красные, жёлтые и зелёные зоны (в зелёной зоне можно летать без получения разрешения). Карта зон обновляется и должна быть интерактивной и машиночитаемой;
▪️Внешний пилот обязан убедиться в отсутствии запретов/ограничений до вылета;
▪️Для коммерческих грузоперевозок, осуществляемых с помощью БВС, создадут отдельные коридоры;
⬆️6️⃣ Получение "лицензии внешнего пилота" ("Remote pilot license")

▪️Внешний пилот может управлять БВС только при наличии лицензии. Лицензия выдаётся лицам:
- в возрасте от 18 до 65 лет; и
- получившим по меньшей мере 10 классов школьного образования ("have passed class tenth or its equivalent examination from a recognised Board"); и
- прошедших обучение на внешнего пилота в уполномоченной образовательной организации. В правилах также устанавливаются требования для таких организаций.

▪️Не надо получать лицензию внешнего пилота для управления:
- "нанодронами" (до 250 гр.);
- "микродронами" (до 2 кг.), если такой дрон используется для некоммерческих целей.

Также есть исключения для отдельных категорий лиц (об этом ниже).

7️⃣ Использование БВС для "исследований и развития" ("for research and development")

Не надо получать сертификат, разрешения на полёт, регистрировать БВС и получать лицензию пилота, если:

▪️вы относитесь к следующим категориям лиц:
- институт развития ("research and development entity")/образовательное учреждение ("educational institution") под контролем Правительства Индии, правительства штатов или администрации союзных территорий (или если вашему институту присвоен аналогичный статус);
- стартап, "признанный Департаментом Поддержки Промышленности и Внутренней Торговли" ("recognised by Department for Promotion of Industry and Internal Trade");
- производитель дронов, если вам присвоен номер плательщика налога за реализацию товаров и услуг ("Goods and Service Tax Identification
Number");
▪️полёт проходит в "зелёной" зоне на вашем земельном участке (premises)/над открытой территорией под вашим контролем ("within an open area in a green zone under such person’s control");

8️⃣ Действуют общие требования по страхованию ответственности, предусмотренные Motor Vehicles Act 1988. Исключение - "нанодроны" (до 250 гр.) - в отн. них страхование ответственности перед третьим лицами не обязательно;

9️⃣ Для развития индустрии может быть создан т.н. Совет по Продвижению Дронов ("Drone Promotion Council");

🔟 Весьма небольшие пошлины - за сертификацию, регистрацию БВС, получение лицензии внешнего пилота - 100 рупий (примерно 99 рублей). За аккредитацию образовательного центра - 1000 рупий (примерно 993 рубля).

2/2 Что изменится в случае принятия Правил (ключевое. Первоисточник сравнения здесь)

▪️общее количество форм, необходимых для эксплуатации БВС в стране, сократится с 25 до 6.

В частности - не надо будет получать сертификат лётной годности, свидетельство о техническом обслуживании ("certificate of conformance, certificate of maintenance"), сертификат эксплуатанта ("operator permit"), проходить импортную очистку ("import clearance") и т.д.

▪️госпошлины теперь не будут зависеть от взлётной массы БВС;

▪️ предполагается почти полная автоматизация всех необходимых разрешительных процедур.

Проект будет обсуждаться до 5 августа.
CAHAI COG Отчет _рус.pdf
1.1 MB
Как вы, наверное, уже знаете, ранее в этом году Специальный комитет Совета Европы по Искусственному Интеллекту (CAHAI) проводил многосторонние консультации по вопросам регулирования ИИ. Цель консультаций - узнать позицию максимально широкого круга стейкхолдеров (государств, бизнеса, университетов, НКО) по целому ряду вопросов.

Поскольку сегодня у нас небольшое, но знаменательное событие (у нашего канала теперь больше 500 подписчиков 🥳), мы хотели бы эксклюзивно для вас поделиться русским переводом отчёта, в котором отражены итоги анализа этих консультаций.
1️⃣👁Как написали сегодня «Ведомости», впервые в России интеллектуальный продукт, созданный искусственным интеллектом, прошёл государственную регистрацию в Роспатенте. Речь идет о программе для ЭВМ Artificial Vision («Искусственное зрение»), которая является частью перспективной разработки AGI («сильного» ИИ).
 
Регистрация программы для ЭВМ проходила в рамках своеобразного правового эксперимента Сбера.
 
Крайне важно определить авторов таких произведений. В данном случае в качестве авторов были указаны разработчики Sber AI, которые создали изначальную нейросеть, написавшую код.
 
🌏Отметим, что в мире пока не найден ответ на вопрос, кого стоит считать автором произведения, созданного ИИ, - сам ИИ или разработчиков, создавших нейросеть и обучивших ее. Глобальная дискуссия ведется на площадке Всемирной организации интеллектуальной собственности.
 
🟢Лидер команды, разработавшей программу, Управляющий директор - начальник Управления развития перспективных технологий AI Sber AI Андрей Черток дал комментарий для нашего канала: «Программа Artificial Vision разработана командой Sber AI в рамках научного поиска и направления AGI. Созданная программа имитирует зрительную функцию человека, обеспечивая распознавание образов. В качестве инструмента создания программы использовалась нейросеть-трансформер, дообученная на корпусе языков программирования. Написанный этой нейросетью программный код смог пройти полноценный процесс регистрации в Роспатенте».
 
🟢Андрей Незнамов, управляющий директор Центра регулирования AI Sber AI, инициировавшего данный эксперимент, добавил: «Такая заявка важна для реализации Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 г. Важно понять, кто является авторами таких произведений. Вопрос о наделении ИИ какими-то правами мы, конечно, сейчас даже не рассматривали. Убеждены, что в центре стоят люди. При этом пока мы прошли только первый, самый простой этап. Для решения более сложных случаев потребуется экспертный диалог».
🇿🇦 В ЮАР зарегистрировали ("accepted") патент, в котором в качестве изобретателя указана система ИИ. Обновлённая информация была недавно размещена на сайте Комиссии ЮАР по компаниям и интеллектуальной собственности (CIPC).

В большинстве стран считается, что изобретателем может быть только человек:
🇬🇧 в Великобритании аналогичная заявка была отклонена, так как ИИ не признали изобретателем по смыслу Закона о патентах 1977 (Patents act 1977). Дальнейшие судебные разбирательства тоже пока ни к чему не привели;
🇺🇸 По похожим причинам отказалось выдать патент и ведомство по патентам и товарным знакам (USPTO);
🇪🇺 Такой же логики придерживается и Европейское патентное ведомство (EPO).

❗️В ЮАР регистрация (acceptance) ещё не означает выдачу патента. Представители CIPC изучили предоставленные документы и не нашли оснований для отказа. Сведения о патенте будут опубликованы в т.н. патентном журнале, и если в течении 2 месяцев не поступят обоснованные возражения, патент будет выдан (granted).
🇿🇦Upd: CIPC обновила информацию о выдаче патента, в которой изобретателем указан не человек, а система ИИ. Подтверждено, что патент официально выдан. Таким образом, в ЮАР впервые в мире выдали патент, в котором ИИ, а не человек, признан автором изобретения (inventor).
⚡️🇦🇺В Австралии в рамках дела Thaler v Commissioner of Patents [2021] FCA 879 суд признал, что ИИ может быть автором изобретения (inventor) (текст решения пока не выложен в общий доступ; обзор решения опубликован здесь). Так Австралия стала ещё одной страной наряду с ЮАР, в которой не только человек, но и ИИ может считаться автором изобретения.
🇺🇸📊 Делимся ранее опубликованными рекомендациями Счётной Палаты США (U.S. Government Accountability Office) об обеспечении подотчётности в работе систем ИИ в работе государственных органов и других лиц ("Artificial Intelligence: An Accountability Framework for Federal Agencies and Other Entities").

Цель рекомендаций - убедиться, что в работе госорганов и в ходе реализации государственных программ ИИ применяется ответственно.

Основные положения доклада в формате one pager доступны здесь.
🌍📊 Делимся докладом ОЭСР об использовании ИИ в финансовой сфере ("Artificial Intelligence, Machine Learning, and Big Data in Finance. Opportunities, Challenges and implications for Policy Makers").

В докладе рассматриваются основные способы применения ИИ в финансовом секторе, связанные с этим риски и рекомендации по их регулированию.

Из ключевых рекомендаций ОЭСР в области регулирования:
1️⃣ предусмотреть обязательные требования или "лучшие практики" в области управления данными. Речь идёт прежде всего о качестве данных, обоснованного использования датасетов и мер, применяемых для предотвращения предвзятости;
2️⃣ предусмотреть обязанность уведомления пользователей о взаимодействии с ИИ (как на стадии оказания финансовых услуг, так и предварительно, чтобы пользователь мог сделать осознанный выбор). При этом рекомендуется раскрывать пользователям в доступной для них форме сведения о возможностях и ограничениях работы систем ИИ, с которыми они будут взаимодействовать;
3️⃣ предусмотреть ограничения по доступу к финансовым решениям на базе ИИ ("suitability requirements for AI driven financial services"). Смысл данной меры в том, бизнесу рекомендуется принимать меры, чтобы убедиться, что потенциальные клиенты действительно понимают, что они будут взаимодействовать с ИИ и как это будет работать в их случае (чтобы в случае непонимания со стороны потенциального клиента предложить им более "традиционный" формат финансовых услуг);
4️⃣ урегулировать проблему недостаточной (по мнению ОЭСР) прозрачности и предсказуемости систем ИИ. В этой связи ОЭСР обращает внимание, что акцент в таких вопросах стоит сместить с документации процесса разработки в сторону прогнозирования поведения системы ИИ и риск-менеджмента на базе стресс-тестирования и исследования результатов ("prediction to model behaviour and outcomes, and supervisors may wish to look into more technical ways of managing risk, such as adversarial model stress testing or outcome-based metrics");
5️⃣ распределение и закрепление ответственности лиц, отвечающих за тот или иной "этап жизни" системы ИИ. Предполагается, что определение лиц, ответственных за ту или иную ошибку, повысит доверие к искусственному интеллекту;
6️⃣ ПО для финансовых услуг на основе ИИ следует тестировать в режиме "экстремальных рыночных условий" ("extreme market conditions");
7️⃣ рекомендуется внедрять системы перехода в "ручной режим" ("kill switch") в случае неспособности системы ИИ адекватно реагировать на рыночные колебания, а также предусматривать возможные "бэкапы", чтобы подобное "аварийное отключение" не парализовало работу ("Back-up plans, models and processes should be in place to ensure business continuity in case the models fails or acts in unexpected ways");
8️⃣ рекомендуется разрабатывать регламенты обучения и тестирования (которое следует проводить постоянно). Датасеты, используемые для обучения, должны быть достаточно большими, чтобы учитывать нелинейные отношения между теми или иными сведениями ("Datasets used for training must be large enough to capture non-linear relationships");
9️⃣ рекомендуется предусмотреть процедуры, а) предусматривающие принятие конечного решения человеком (в особо важных ситуациях) ("human primacy in decision making when it comes to higher value use-cases") и б) позволяющие человеку оспаривать решения, принятые ИИ/требовать компенсации убытков ("Authorities could consider the introduction of processes that can allow customers to challenge the outcome of AI models and seek redress"). В качестве примера рассматривается GDPR.
🇨🇳 Управление по вопросам киберпространства КНР (CAC) опубликовало для общественного обсуждения проект Регламента работы рекомендательных систем. Документ представляет собой свод ключевых положений к таким системам, которые включают:
1️⃣ необходимость следования принципам справедливости, открытости, научной обоснованности и добросовестности;
2️⃣ необходимость учёта не только нормативного регулирования, но и "норм общественной морали и этики", а также "деловой и профессиональной этики" (ст. 4);
3️⃣ необходимость более активного саморегулирования и разработки отраслевых рекомендаций (ст. 5);
4️⃣ недопустимость манипуляции сознанием с целью совершения пользователем противоправных действий, разрушения экономики и нарушения общественного порядка, а также для распространения запрещённых законом сведений (ст. 6);
5️⃣ (из примеров более конкретных положений) необходимость донести для сведения пользователей основные принципы и цели работы рекомендательной системы (ст. 14);
6️⃣ у пользователя должна быть возможность "отключить" рекомендательную систему (ст. 15);
7️⃣ если пользователь - несовершеннолетнее лицо - рекомендательная система не может использоваться для побуждения данных лиц к опасным для их здоровья и развития поступкам, не должна побуждать их совершать аморальные поступки и заводить вредные привычки (ст. 16) и др.
🚁🇮🇳📃Правительство Индии утвердило новые правила использования беспилотных авиационных систем (см. наш обзор первой версии проекта новых правил здесь). Правила существенно упрощают жизнь эксплуатантам и сводят к минимуму документооборот. Пока текст финальной версии доступен только на хинди, но министерство гражданской авиации Индии подготовило обзор ключевых положений итогового текста Правил (см. здесь) (а здесь можно посмотреть сравнение Правил (в общих чертах) с аналогичными требованиями в США, ЕС и Великобритании).
🇦🇺Патентное бюро Австралии (Commissioner of Patents) подало апелляцию на решение по делу Thaler v Commissioner of Patents, в котором ранее суд признал, что ИИ может быть автором изобретения (inventor). Мы будем отслеживать изменения по этому делу и с радостью поделимся новостями.
🚁🇷🇺📃 Минобороны подготовило изменения в правила расследования авиационных происшествий, регламентирующие порядок расследования инцидентов с государственными БВС (id проекта 01/01/09-21/00119840). Ожидается, что планируемые изменения вступят в силу в октябре.
🇺🇸 В США суд вынес решение по делу Thaler v Iancu (1:20-cv-00903) и указал, что искусственный интеллект не может считаться автором произведения. На данный момент такой взгляд превалирует в мировой практикке (официально ИИ указан в качестве автора изобретения в ЮАР и в Австралии (но в случае с Австралией подана апелляция).
🇹🇼 Делимся обзором решения суда Китайской республики по интеллектуальным правам (Taiwan's Intellectual Property & Commercial Court) по делу Thaler v. Taiwan IP Office (TIPO), 110 Xing Zhuan Su 3. В этом деле (также как, например, в США или Австралии) также рассматривался вопрос, может ли ИИ считаться автором изобретения. Суд посчитал, что не может, так как:
1️⃣ изобретение подразумевает наличие "умственной созидательной деятельности" ("mental creation"), присущей только человеку;
2️⃣ ИИ неправоспособен;
3️⃣ в Руководстве по оценке патентов (Patent examination guidelines) прямо предусмотрено, что изобретателем должен быть человек.
🚗🇺🇸 В Нью-Йорке (New York city) приняты правила тестирования беспилотных автомобилей на дорогах общего пользования.

Чтобы начать испытывать ВАТС в городских условиях, нужно получить разрешение от местных властей. Для этого нужно, в числе прочего:
- заплатить 5 тысяч долларов в год
- докладывать о километраже, всех поломках, маршрутах и ДТП
- продемонстрировать, что беспилотник едет лучше, чем машина с человеком у руля.

Текст правил доступен здесь.
🌍 Мир выходит на новый виток регулирования ИИ. В начале речь шла исключительно о "гонке регулирования" между отдельными государствами, а ещё вчера - о выработке позиции отдельными международными органами. Сейчас же регулирование ИИ принимает глобальный и всесторонний характер.

ООН (+ ЮНЕСКО в качестве самостоятельного участника), Совет Европы, ЕС (в лице Еврокомиссии и Агенства по основным правам), ОЭСР, Всемирный Банк и ряд других международных организаций объединились для обсуждения и координации политик в области искусственного интеллекта на площадке Global Policy AI.

Участники поставили перед собой 3 задачи:
1⃣ Обеспечить этичность ИИ и доверие к нему;
2⃣ Обеспечить, что использование ИИ не будет ущемлять права человека и демократические ценности; и
3⃣ Обеспечить, что внедрение ИИ приведёт к устойчивому развитию общества.

Совместная работа этих органов в таком формате уже началась. Мы будем отслеживать, как развивается подобная инициатива, и будем делиться новостями.
🌍 Верховный комиссар ООН по правам человека (Office of the United Nations High Commissioner for Human Rights) Мишель Бешлет (Michelle Bachelet) озвучила опасения о влиянии некоторых технологий, использующих алгоритмы ИИ, на права человека и призвала:
1️⃣ запретить использование технологий ИИ, которые "не могут быть использованы в соответствии с международным правом прав человека...." и ввести мораторий в отношении технологий ИИ, "... которые несут риск реализации прав человека" ("Expressly ban AI applications that cannot be operated in compliance with international human rights law and impose moratoriums on the sale and use of AI systems that carry a high risk for the enjoyment of human rights");
2️⃣ ввести мораторий на использование систем распознавания лиц в общественных местах ("Impose a moratorium on the use of remote biometric recognition technologies in public spaces").

Предлагаемые запреты не носят абсолютный характер:
1️⃣ в первом случае делается оговорка, что такие запреты можно не применять, когда в работе и применении таких технологий учтены и внедрены механизмы защиты прав человека ("unless and until adequate safeguards to protect human rights are in place");
2️⃣ во втором случае также уточняется, что для не применения моратория как минимум уполномоченные органы должны обеспечить защиту персональных данных, максимально точную работу таких систем и минимизировать риски дискриминации + имплементировать рекомендации, которые были ранее озвучены в докладе Верховного комиссара № A/HRC/44/24, 2020 (53 (j) (i - v)) (см. стр. 18 здесь) ("at least until the authorities responsible can demonstrate compliance with privacy and data protection standards and the absence of significant accuracy issues and discriminatory impacts, and until all the recommendations set out in A/HRC/44/24, paragraph 53 (j) (i–v), are implemented").

Текст доклада можно посмотреть здесь.
Система подотчетности ИИ (СП США).pdf
578.5 KB
🇺🇸📃 В июне Счетная палата США выпустила доклад под названием «Искусственный интеллект: система подотчетности для федеральных агентств и иных организаций».

Целью разработки данного документа является обеспечение подотчетности и ответственного применения технологий ИИ федеральными агентствами и иными организациями, участвующими в проектировании, разработке, развертывании и мониторинге систем на основе алгоритмов.

Разработанная система подотчетности ИИ базируется на четырех взаимодополняющих элементах, которые затрагивают:
1️⃣ Управление
2️⃣ Данные
3️⃣ Производительность
4️⃣ Мониторинг

Каждому из элементов посвящен отдельный раздел, который включает в себя перечень вопросов, необходимых к рассмотрению организациям, аудиторам и сторонними экспертами, а также процедуры аудита и типы доказательств.

Мы хотим поделиться с вами переводом краткого содержания документа.

С полной версией документа можно ознакомиться по ссылке.