HCAI // Регулирование ИИ
1.04K subscribers
85 photos
14 files
279 links
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.
Download Telegram
🇺🇸📊 Делимся ранее опубликованными рекомендациями Счётной Палаты США (U.S. Government Accountability Office) об обеспечении подотчётности в работе систем ИИ в работе государственных органов и других лиц ("Artificial Intelligence: An Accountability Framework for Federal Agencies and Other Entities").

Цель рекомендаций - убедиться, что в работе госорганов и в ходе реализации государственных программ ИИ применяется ответственно.

Основные положения доклада в формате one pager доступны здесь.
🌍📊 Делимся докладом ОЭСР об использовании ИИ в финансовой сфере ("Artificial Intelligence, Machine Learning, and Big Data in Finance. Opportunities, Challenges and implications for Policy Makers").

В докладе рассматриваются основные способы применения ИИ в финансовом секторе, связанные с этим риски и рекомендации по их регулированию.

Из ключевых рекомендаций ОЭСР в области регулирования:
1️⃣ предусмотреть обязательные требования или "лучшие практики" в области управления данными. Речь идёт прежде всего о качестве данных, обоснованного использования датасетов и мер, применяемых для предотвращения предвзятости;
2️⃣ предусмотреть обязанность уведомления пользователей о взаимодействии с ИИ (как на стадии оказания финансовых услуг, так и предварительно, чтобы пользователь мог сделать осознанный выбор). При этом рекомендуется раскрывать пользователям в доступной для них форме сведения о возможностях и ограничениях работы систем ИИ, с которыми они будут взаимодействовать;
3️⃣ предусмотреть ограничения по доступу к финансовым решениям на базе ИИ ("suitability requirements for AI driven financial services"). Смысл данной меры в том, бизнесу рекомендуется принимать меры, чтобы убедиться, что потенциальные клиенты действительно понимают, что они будут взаимодействовать с ИИ и как это будет работать в их случае (чтобы в случае непонимания со стороны потенциального клиента предложить им более "традиционный" формат финансовых услуг);
4️⃣ урегулировать проблему недостаточной (по мнению ОЭСР) прозрачности и предсказуемости систем ИИ. В этой связи ОЭСР обращает внимание, что акцент в таких вопросах стоит сместить с документации процесса разработки в сторону прогнозирования поведения системы ИИ и риск-менеджмента на базе стресс-тестирования и исследования результатов ("prediction to model behaviour and outcomes, and supervisors may wish to look into more technical ways of managing risk, such as adversarial model stress testing or outcome-based metrics");
5️⃣ распределение и закрепление ответственности лиц, отвечающих за тот или иной "этап жизни" системы ИИ. Предполагается, что определение лиц, ответственных за ту или иную ошибку, повысит доверие к искусственному интеллекту;
6️⃣ ПО для финансовых услуг на основе ИИ следует тестировать в режиме "экстремальных рыночных условий" ("extreme market conditions");
7️⃣ рекомендуется внедрять системы перехода в "ручной режим" ("kill switch") в случае неспособности системы ИИ адекватно реагировать на рыночные колебания, а также предусматривать возможные "бэкапы", чтобы подобное "аварийное отключение" не парализовало работу ("Back-up plans, models and processes should be in place to ensure business continuity in case the models fails or acts in unexpected ways");
8️⃣ рекомендуется разрабатывать регламенты обучения и тестирования (которое следует проводить постоянно). Датасеты, используемые для обучения, должны быть достаточно большими, чтобы учитывать нелинейные отношения между теми или иными сведениями ("Datasets used for training must be large enough to capture non-linear relationships");
9️⃣ рекомендуется предусмотреть процедуры, а) предусматривающие принятие конечного решения человеком (в особо важных ситуациях) ("human primacy in decision making when it comes to higher value use-cases") и б) позволяющие человеку оспаривать решения, принятые ИИ/требовать компенсации убытков ("Authorities could consider the introduction of processes that can allow customers to challenge the outcome of AI models and seek redress"). В качестве примера рассматривается GDPR.
🇨🇳 Управление по вопросам киберпространства КНР (CAC) опубликовало для общественного обсуждения проект Регламента работы рекомендательных систем. Документ представляет собой свод ключевых положений к таким системам, которые включают:
1️⃣ необходимость следования принципам справедливости, открытости, научной обоснованности и добросовестности;
2️⃣ необходимость учёта не только нормативного регулирования, но и "норм общественной морали и этики", а также "деловой и профессиональной этики" (ст. 4);
3️⃣ необходимость более активного саморегулирования и разработки отраслевых рекомендаций (ст. 5);
4️⃣ недопустимость манипуляции сознанием с целью совершения пользователем противоправных действий, разрушения экономики и нарушения общественного порядка, а также для распространения запрещённых законом сведений (ст. 6);
5️⃣ (из примеров более конкретных положений) необходимость донести для сведения пользователей основные принципы и цели работы рекомендательной системы (ст. 14);
6️⃣ у пользователя должна быть возможность "отключить" рекомендательную систему (ст. 15);
7️⃣ если пользователь - несовершеннолетнее лицо - рекомендательная система не может использоваться для побуждения данных лиц к опасным для их здоровья и развития поступкам, не должна побуждать их совершать аморальные поступки и заводить вредные привычки (ст. 16) и др.
🚁🇮🇳📃Правительство Индии утвердило новые правила использования беспилотных авиационных систем (см. наш обзор первой версии проекта новых правил здесь). Правила существенно упрощают жизнь эксплуатантам и сводят к минимуму документооборот. Пока текст финальной версии доступен только на хинди, но министерство гражданской авиации Индии подготовило обзор ключевых положений итогового текста Правил (см. здесь) (а здесь можно посмотреть сравнение Правил (в общих чертах) с аналогичными требованиями в США, ЕС и Великобритании).
🇦🇺Патентное бюро Австралии (Commissioner of Patents) подало апелляцию на решение по делу Thaler v Commissioner of Patents, в котором ранее суд признал, что ИИ может быть автором изобретения (inventor). Мы будем отслеживать изменения по этому делу и с радостью поделимся новостями.
🚁🇷🇺📃 Минобороны подготовило изменения в правила расследования авиационных происшествий, регламентирующие порядок расследования инцидентов с государственными БВС (id проекта 01/01/09-21/00119840). Ожидается, что планируемые изменения вступят в силу в октябре.
🇺🇸 В США суд вынес решение по делу Thaler v Iancu (1:20-cv-00903) и указал, что искусственный интеллект не может считаться автором произведения. На данный момент такой взгляд превалирует в мировой практикке (официально ИИ указан в качестве автора изобретения в ЮАР и в Австралии (но в случае с Австралией подана апелляция).
🇹🇼 Делимся обзором решения суда Китайской республики по интеллектуальным правам (Taiwan's Intellectual Property & Commercial Court) по делу Thaler v. Taiwan IP Office (TIPO), 110 Xing Zhuan Su 3. В этом деле (также как, например, в США или Австралии) также рассматривался вопрос, может ли ИИ считаться автором изобретения. Суд посчитал, что не может, так как:
1️⃣ изобретение подразумевает наличие "умственной созидательной деятельности" ("mental creation"), присущей только человеку;
2️⃣ ИИ неправоспособен;
3️⃣ в Руководстве по оценке патентов (Patent examination guidelines) прямо предусмотрено, что изобретателем должен быть человек.
🚗🇺🇸 В Нью-Йорке (New York city) приняты правила тестирования беспилотных автомобилей на дорогах общего пользования.

Чтобы начать испытывать ВАТС в городских условиях, нужно получить разрешение от местных властей. Для этого нужно, в числе прочего:
- заплатить 5 тысяч долларов в год
- докладывать о километраже, всех поломках, маршрутах и ДТП
- продемонстрировать, что беспилотник едет лучше, чем машина с человеком у руля.

Текст правил доступен здесь.
🌍 Мир выходит на новый виток регулирования ИИ. В начале речь шла исключительно о "гонке регулирования" между отдельными государствами, а ещё вчера - о выработке позиции отдельными международными органами. Сейчас же регулирование ИИ принимает глобальный и всесторонний характер.

ООН (+ ЮНЕСКО в качестве самостоятельного участника), Совет Европы, ЕС (в лице Еврокомиссии и Агенства по основным правам), ОЭСР, Всемирный Банк и ряд других международных организаций объединились для обсуждения и координации политик в области искусственного интеллекта на площадке Global Policy AI.

Участники поставили перед собой 3 задачи:
1⃣ Обеспечить этичность ИИ и доверие к нему;
2⃣ Обеспечить, что использование ИИ не будет ущемлять права человека и демократические ценности; и
3⃣ Обеспечить, что внедрение ИИ приведёт к устойчивому развитию общества.

Совместная работа этих органов в таком формате уже началась. Мы будем отслеживать, как развивается подобная инициатива, и будем делиться новостями.
🌍 Верховный комиссар ООН по правам человека (Office of the United Nations High Commissioner for Human Rights) Мишель Бешлет (Michelle Bachelet) озвучила опасения о влиянии некоторых технологий, использующих алгоритмы ИИ, на права человека и призвала:
1️⃣ запретить использование технологий ИИ, которые "не могут быть использованы в соответствии с международным правом прав человека...." и ввести мораторий в отношении технологий ИИ, "... которые несут риск реализации прав человека" ("Expressly ban AI applications that cannot be operated in compliance with international human rights law and impose moratoriums on the sale and use of AI systems that carry a high risk for the enjoyment of human rights");
2️⃣ ввести мораторий на использование систем распознавания лиц в общественных местах ("Impose a moratorium on the use of remote biometric recognition technologies in public spaces").

Предлагаемые запреты не носят абсолютный характер:
1️⃣ в первом случае делается оговорка, что такие запреты можно не применять, когда в работе и применении таких технологий учтены и внедрены механизмы защиты прав человека ("unless and until adequate safeguards to protect human rights are in place");
2️⃣ во втором случае также уточняется, что для не применения моратория как минимум уполномоченные органы должны обеспечить защиту персональных данных, максимально точную работу таких систем и минимизировать риски дискриминации + имплементировать рекомендации, которые были ранее озвучены в докладе Верховного комиссара № A/HRC/44/24, 2020 (53 (j) (i - v)) (см. стр. 18 здесь) ("at least until the authorities responsible can demonstrate compliance with privacy and data protection standards and the absence of significant accuracy issues and discriminatory impacts, and until all the recommendations set out in A/HRC/44/24, paragraph 53 (j) (i–v), are implemented").

Текст доклада можно посмотреть здесь.
Система подотчетности ИИ (СП США).pdf
578.5 KB
🇺🇸📃 В июне Счетная палата США выпустила доклад под названием «Искусственный интеллект: система подотчетности для федеральных агентств и иных организаций».

Целью разработки данного документа является обеспечение подотчетности и ответственного применения технологий ИИ федеральными агентствами и иными организациями, участвующими в проектировании, разработке, развертывании и мониторинге систем на основе алгоритмов.

Разработанная система подотчетности ИИ базируется на четырех взаимодополняющих элементах, которые затрагивают:
1️⃣ Управление
2️⃣ Данные
3️⃣ Производительность
4️⃣ Мониторинг

Каждому из элементов посвящен отдельный раздел, который включает в себя перечень вопросов, необходимых к рассмотрению организациям, аудиторам и сторонними экспертами, а также процедуры аудита и типы доказательств.

Мы хотим поделиться с вами переводом краткого содержания документа.

С полной версией документа можно ознакомиться по ссылке.
🇪🇺 В ЕС опубликованы два документа, демонстрирующие, в числе прочих, планируемую позицию ЕС в отношении ИИ как минимум до 2030 года.

1️⃣ Предлагаемая программа развития до 2030 года "Путь к Цифровому Десятилетию" ("Path to a Digital Decade"). В целевых показателях программы предусмотрено, что к 2030 году не меньше 75% всего европейского бизнеса должно внедрить в своей работе технологии ИИ, больших данных и облачных вычислений;
2️⃣ Мнение ("Opinion") Европейского комитета по общественным и экономическим (EESC) вопросам по цифровизации экономики с фокусом на человекоориентированный ИИ. Основные положения:
- в ближайшее время EESC представит свою позицию по готовящемуся регламенту по регулированию ИИ;
- EESC обратил особое внимание на использование ИИ в трудоустройстве и на рабочих местах. По-видимому, EESC будет настаивать, чтобы эти положения были максимально подробно регламентированы в будущем Artificial Intelligence Act:
Во-первых, всем работникам "надо гарантировать "достойные условия труда" (хотя "decent work must be guaranteed for all employees" можно перевести как и наличие хороших рабочих мест);
Во-вторых, при внедрении ИИ, которое может затронуть интересы работников, необходимо обеспечить участие этих работников и их представителей на самых ранних стадиях внедрения ИИ. Цель - голос работников должен учитываться, чтобы определиться, как именно использовать ИИ в рабочих процессах + работники должны заблаговременно подготовиться к цифровизации и приобрести новые квалификации;
- EESC призывает к разработке "адекватного регулирования, которое бы позволило компаниям утверждать справедливость, надёжность и безопасность их систем ИИ с учётом высочайшего уровня защиты интересов потребителей и работников" ("The EESC calls for an adequate framework to be developed to allow companies to assert the fairness, reliability and security of their artificial intelligence systems, taking into account the highest possible level of consumer and worker protection");
- при этом EESC пока воздерживается от дачи собственной дефиниции понятия "искусственный интеллект" для целей подготовки Artificial Intelligence Act.
Forwarded from База знаний AI
📖 Почитать на досуге: книга о том, как изменится мир благодаря ИИ к 2041 году

Ученый, венчурный инвестор, бывший президент Google China и экс-сотрудник Apple и Microsoft Кай-Фу Ли вместе с романистом Чэнем Цюфанем в книге AI 2041: Ten Visions for Our Future приводят 10 рассказов о возможных новых реалиях 2041 года.

Например, о появлении индустрии «перераспределения рабочих мест» из-за ИИ в Сан-Франциско, виртуальных компаньонах с совершенными навыками обработки естественного языка, которые предлагают близнецам-сиротам в Сеуле новые способы общения и т.д.

👉🏻 Читать книгу (англ.)

💬 Напишите в комментариях, какие еще книги об искусственном интеллекте читаете вы и готовы рекомендовать другим?
🇬🇧Court of Appeal вынес решение по апелляции в деле Thaler v Comptroler General of patents, trade marks and designs и ещё раз подтвердил, что по английскому праву ИИ не может быть изобретателем по смыслу Закона о патентах 1977 (Patents act 1977). Решение Высокого Суда (High Court), на которое была подана жалоба, осталось в силе.

Делимся текстом решения в апелляции по этому делу (см. здесь).
🇬🇧🇦🇪 ...а также подписан Меморандум о сотрудничестве с ОАЭ в сфере искусственного интеллекта (текст коммюнике здесь). Меморандум подразумевает обмен знаниями, взаимные инвестиции и разработку единых стандартов в сфере искусственного интеллекта.
🇪🇺🚁📊 Делимся обзором действующего регулирования ЕС в области беспилотной авиации. Автор в доступной и достаточно краткой форме рассказал суть многих важных вопросов (классификация, сертификация, разрешения на полёты и ограничения). Материал подойдёт тем, кому интересно узнать, как регулируют дронов за рубежом.
🇪🇺📄 Опубликованы два мнения (Opinion) Европейского социально - экономического комитета относительно регулирования ИИ.

1️⃣ Мнение о текущей редакции проекта Artificial Intelligence Act (AIA). Ниже часть позиции:

- предлагается новая дефиниция "систем ИИ":
"Artificial intelligence system' (AI system) means software that can, in an automated manner, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations or decisions, influencing the environment it interacts with"

- у комитета возникли возникли вопросу к классификации ИИ по "пирамиде" из ИИ высокого, среднего и небольшого риска. По мнению комитета, рекомендации по устранению среднего и высокого риска недостаточно эффективны.

- комитет также прокомментировал вопрос делегирования принятия решений искусственному интеллекту: в AIA не хватает идеи о том, что ИИ расширит возможности для принятия решений, а не заменит принятие решений человеком. По мнению комитета, сейчас в AIA есть презумпция, что как только требования к ИИ среднего и высокого риска будут выполнены, ИИ сможет в значительной степени заменить человеческое принятие решений.

В ответ на это комитет настоятельно рекомендует, чтобы AIA предусматривал, чтобы определенные решения оставались прерогативой людей, особенно в тех областях, где эти решения имеют моральный компонент и правовые последствия или влияние на общество (например, в судебной системе, правоохранительных органах, социальных службах, здравоохранении, в вопросах жилья, оказания финансовых услуг, трудовых отношений и образования).

- насчёт запрещённых кейсов использования ИИ:

а) манипулятивный ИИ. Чтобы запретить манипулирование людьми с целью навязывания им опасного поведения Комитет рекомендует изменить п 1(а) ст. 5:
(…) an AI system deployed, aimed at or used to materially distort a person's behaviour in a manner that causes or is likely to cause harm to that person's, another person's or group of persons' fundamental rights, including their physical or psychological health and safety, or to democracy and the rule of law"

Комитет рекомендует таким же образом изменить запрещенную практику использования уязвимостей в статье 5 (1) (b), чтобы включить в нее ущерб основным правам, включая физический или психологический ущерб.

б) социальный скоринг. Комитет рекомендует распространить запрет не только на гос органы, но и на частный сектор

в) распознавание эмоций (сейчас присвоен "низкий риск" в проекте AIA). Комитет против данной практики и считает её чрезвычайно инвазивной, не научной и нарушающей права человека. Комитет в целом занимает жёсткую позицию к биометрической идентификации и призывает ввести максимальные ограничения к использованию данной технологии.

- высокорисковый ИИ. Помимо прочего, Комитет предлагает включить в AIA пять требований из Руководства по этике надёжного ИИ (Ethics guidelines for trustworthy AI ("EGTAI"): (i) человеческое вмешательство, (ii) конфиденциальность, (iii) разнообразие, недискриминация и справедливость, (iv) объяснимость. и (v) экологическое и социальное благополучие
2️⃣ Мнение об использовании ИИ в машинном оборудовании (machinery). Речь идёт о пересмотре текста Директивы 2006/42/EC o машинном оборудовании.

- текущие предложения Еврокомиссии предусматривают отмену оценки соответствия "высокорискового" машинного оборудования силами самих производителей. То есть если хотя бы в 0,01% работы машинного оборудования используется ИИ, оборудование автоматически становится высокорисковым и его нужно полностью тестировать. Это большая проблема если а) ИИ, используемый в оборудовании, используется для аналитических/статистичtских целей и не влияет на работу оборудования и/или б) речь идёт о небольших выпусках станков/индивидуально произведённом оборудовании (так как расходы на оценку соответствия будут несопоставимыми). Комитет предлагает распространять на подобные случае действующие правила, позволяющие производителям самостоятельно оценивать соответствие машинного оборудования требованиям безопасности;

- что касается единых процедур тестирования и уведомления, EESC рекомендует ввести европейский сертификат для компаний, чтобы продемонстрировать надежность заслуживающих доверия систем искусственного интеллекта