Conclusions of the Hungarian CoE presidency__ (1).pdf
152.7 KB
5 октября состоялась конференция министров юстиции стран-участниц Совета Европы по применению высоких технологий (включая ИИ) в правосудии. Делимся итоговыми положениями (Conclusions), подводящим итоги мероприятия.
В документе содержатся ключевые выводы, к которым пришли участники конференции. Из них стоит отметить следующие:
1️⃣ В разработке правил для использования технологий в судебной системе будут учитываться мнения как CEPEJ, так и CAHAI ("Also DECLARES its commitment to continue supporting all ongoing initiatives and work to strengthen the dialogue and cooperation between the Council of Europe Member States on the use of digital tools in the field of justice, in particular within the framework of the European Commission for the Efficiency of Justice (CEPEJ) and also on the legal framework for the development, design and application of artificial intelligence in the Ad hoc Committee on Artificial Intelligence (CAHAI)")
В документе содержатся ключевые выводы, к которым пришли участники конференции. Из них стоит отметить следующие:
1️⃣ В разработке правил для использования технологий в судебной системе будут учитываться мнения как CEPEJ, так и CAHAI ("Also DECLARES its commitment to continue supporting all ongoing initiatives and work to strengthen the dialogue and cooperation between the Council of Europe Member States on the use of digital tools in the field of justice, in particular within the framework of the European Commission for the Efficiency of Justice (CEPEJ) and also on the legal framework for the development, design and application of artificial intelligence in the Ad hoc Committee on Artificial Intelligence (CAHAI)")
⬆️
2️⃣Подход к регулированию должен быть всеобщим несмотря на правовые различия и традиции, сложившиеся в той или иной юрисдикции (CONCLUDES that in spite of the different constitutional and legal traditions of the Members States there is a genuine need for a common approach on overcoming challenges raised by the rapid technological development and finding practical solutions related to the digitalisation of justicе)
3️⃣ Акцентируется внимание на ключевое значение человекоориентированного подхода
4️⃣ Планируется создать "неформальную платформу" для взаимодействия среди стран СЕ ("...experts from the Council of Europe Member States agreed that an informal platform should to be set up in the cooperation framework of Council of Europe Member States. This initiative would be of utmost value")
2️⃣Подход к регулированию должен быть всеобщим несмотря на правовые различия и традиции, сложившиеся в той или иной юрисдикции (CONCLUDES that in spite of the different constitutional and legal traditions of the Members States there is a genuine need for a common approach on overcoming challenges raised by the rapid technological development and finding practical solutions related to the digitalisation of justicе)
3️⃣ Акцентируется внимание на ключевое значение человекоориентированного подхода
4️⃣ Планируется создать "неформальную платформу" для взаимодействия среди стран СЕ ("...experts from the Council of Europe Member States agreed that an informal platform should to be set up in the cooperation framework of Council of Europe Member States. This initiative would be of utmost value")
⚡️🚁🇷🇺 Правительство утвердило Концепцию интеграции БВС в воздушное пространство (текст доступен здесь).
ТАСС
Кабмин утвердил концепцию интеграции беспилотников в единое воздушное пространство
Как сообщил премьер-министр России Михаил Мишустин, она будет реализована в три этапа
🇪🇺 Началась публичная консультация по предложению Еврокомиссии об адаптации правил об ответственности за причинение вреда в связи с развитием цифровых технологий и ИИ.
Предложение предполагает переработку действующей Директивы об ответственности за продукцию (Product Liability Directive 85/374/EEC), которая, по мнению Еврокомиссии, сейчас не даёт чётких правил или хотя бы единого подхода по привлечению к ответственности за вред, вызванный дефектами в работе ИИ, из-за чего суды в ЕС сейчас вынуждены импровизировать на ходу.
Отдельно комиссия отмечает, что в случае с "умными продуктами" в принципе неясно, могут ли непредсказуемые результаты, приводящие к повреждению, попадать под действие Директивы. Речь идёт о так называемой "защите от рисков развития" (development risk defence), которая освобождает производителей от ответственности за дефекты, которые не могли быть обнаружены, когда продукт был запущен в обращение (стр. 3).
Предлагается несколько опций
А. Распространить безвиновную ответственность на цифровые продукты. При этом урегулировать ответственность за ущерб, причинённый в результате обновления ПО и неправильного взаимодействия элементов IoT. Также предлагается урегулировать риски в области кибербезопасности (connectivity and cybersecurity risks) (п. 1.а ч. B);
Б. В рамках второй опции предлагается предусмотреть вкупе с опцией «А», что компенсации подлежит и нематериальный ущерб, вызванный "потерей данных, нарушением приватности или вредом окружающей среде" (п. 1.b ч. В);
В. "Гармонизировать" действующие механизмы привлечения к ответственности операторов/пользователей оборудования с ИИ, провайдеров услуг на основе ИИ. Предлагается несколько стандартов определения лица, несущего ответственность (п. 1.c ч. B).
Также предлагается изменить правила, касающиеся бремени доказывания и оговорок об исключении ответственности. Обозначен ряд вариантов. Например:
1) производитель/разработчик обязан раскрывать техническую информацию пострадавшим лицам. суды вправе установить собственные презумпции "дефектности" продукта (например - если уже была доказана неисправность других продуктов из той же серии) («…allowing courts to infer that a product is defective or caused the damage under certain circumstances, e.g. when other products in the same production series have already been proven to be defective or when a product clearly malfunctions») (2.1.a);
2) альтернатива - они должны доказывать отсутствие дефектов по умолчанию (2.1.b). Предлагается, что истцу не надо будет доказывать, как ему был причинён вред искусственным интеллектом, если ИИ не прозрачен;
3) предлагается исключить "защиту от рисков развития" (development risk defence) в отношении ИИ решений - ответственность надо будет нести даже тогда, когда она вызвана действиями самого ИИ (2.1.c).
К слову, любопытно, что в тексте проекта ИИ вопросы рассматриваются в связке c ESG повесткой. Например, в рамках ESG блока предлагается предусмотреть правила ответственности за дефекты продукции, используемой в замкнутом цикле.
Предложение предполагает переработку действующей Директивы об ответственности за продукцию (Product Liability Directive 85/374/EEC), которая, по мнению Еврокомиссии, сейчас не даёт чётких правил или хотя бы единого подхода по привлечению к ответственности за вред, вызванный дефектами в работе ИИ, из-за чего суды в ЕС сейчас вынуждены импровизировать на ходу.
Отдельно комиссия отмечает, что в случае с "умными продуктами" в принципе неясно, могут ли непредсказуемые результаты, приводящие к повреждению, попадать под действие Директивы. Речь идёт о так называемой "защите от рисков развития" (development risk defence), которая освобождает производителей от ответственности за дефекты, которые не могли быть обнаружены, когда продукт был запущен в обращение (стр. 3).
Предлагается несколько опций
А. Распространить безвиновную ответственность на цифровые продукты. При этом урегулировать ответственность за ущерб, причинённый в результате обновления ПО и неправильного взаимодействия элементов IoT. Также предлагается урегулировать риски в области кибербезопасности (connectivity and cybersecurity risks) (п. 1.а ч. B);
Б. В рамках второй опции предлагается предусмотреть вкупе с опцией «А», что компенсации подлежит и нематериальный ущерб, вызванный "потерей данных, нарушением приватности или вредом окружающей среде" (п. 1.b ч. В);
В. "Гармонизировать" действующие механизмы привлечения к ответственности операторов/пользователей оборудования с ИИ, провайдеров услуг на основе ИИ. Предлагается несколько стандартов определения лица, несущего ответственность (п. 1.c ч. B).
Также предлагается изменить правила, касающиеся бремени доказывания и оговорок об исключении ответственности. Обозначен ряд вариантов. Например:
1) производитель/разработчик обязан раскрывать техническую информацию пострадавшим лицам. суды вправе установить собственные презумпции "дефектности" продукта (например - если уже была доказана неисправность других продуктов из той же серии) («…allowing courts to infer that a product is defective or caused the damage under certain circumstances, e.g. when other products in the same production series have already been proven to be defective or when a product clearly malfunctions») (2.1.a);
2) альтернатива - они должны доказывать отсутствие дефектов по умолчанию (2.1.b). Предлагается, что истцу не надо будет доказывать, как ему был причинён вред искусственным интеллектом, если ИИ не прозрачен;
3) предлагается исключить "защиту от рисков развития" (development risk defence) в отношении ИИ решений - ответственность надо будет нести даже тогда, когда она вызвана действиями самого ИИ (2.1.c).
К слову, любопытно, что в тексте проекта ИИ вопросы рассматриваются в связке c ESG повесткой. Например, в рамках ESG блока предлагается предусмотреть правила ответственности за дефекты продукции, используемой в замкнутом цикле.
❗️🇷🇺 В начале следующей недели, 26 октября, состоится уникальное мероприятие: форум "Этика искусственного интеллекта: начало доверия".
Это первая центральная отраслевая площадка для обсуждения этики ИИ в России. Приглашено более полутора тысячи представителей государства, бизнеса, науки и образования.
Но самое главное - на этом мероприятии состоится подписание Национального кодекса этики ИИ.
Мы поделимся с Вами ссылкой для онлайн трансляции форума и будем держать вас в курсе обо всех ключевых моментах мероприятия
Это первая центральная отраслевая площадка для обсуждения этики ИИ в России. Приглашено более полутора тысячи представителей государства, бизнеса, науки и образования.
Но самое главное - на этом мероприятии состоится подписание Национального кодекса этики ИИ.
Мы поделимся с Вами ссылкой для онлайн трансляции форума и будем держать вас в курсе обо всех ключевых моментах мероприятия
aiethic.ru
Форум этики в сфере искусственного интеллекта 2024
В октябре 2024 года состоится Форум этики в сфере искусственного интеллекта
Совсем недавно министры обороны стран НАТО согласовали Стратегию НАТО в области развития ИИ. Делимся основными положениями этого документа.
NATO
Summary of the NATO Artificial Intelligence Strategy
PRINCIPLES OF RESPONSIBLE USE
❗️🇷🇺 Ещё немного, и в России будет подписан Национальный кодекс этики ИИ - рекомендательный документ, который устанавливает общие этические принципы и стандарты поведения для стейкхолдеров в области искусственного интеллекта.
И возникает интересный вопрос: а почему этот документ так важен?
Ответ прост: государства, бизнес, общество - все заинтересованы в том, чтобы технологии ИИ имели этические рамки. Принятие на себя этических принципов означает, что созданному ИИ можно будет доверять.
Немного статистики:
1️⃣ На корпоративном уровне свои собственные корп. принципы этики ИИ уже утвердили более 30 мировых компаний - Microsoft, Google и т.п. В России в числе пионеров в области этики ИИ - Сбер (в котором, к слову, недавно заработала Рабочая группа по этике ИИ), Яндекс и ABBYY;
2️⃣ Этикой сейчас занимается большинство государств мира. Аналитические обзоры по этике ИИ иногда как будто "монополизируют" этику, сводя её к обзору европейских и американских документов. Но на самом деле документы в области этики ИИ принимаются повсеместно. Например: к регулированию этики ИИ недавно присоединился Китай;
3️⃣ Вопросами этики ИИ занимаются ведущие международные организации. В частности - ЮНЕСКО: в ноябре ожидается подписание Рекомендаций ЮНЕСКО по этике ИИ;
4️⃣ Этикой ИИ занимаются более 5 тысяч исследователей.
Так что подписание Кодекса - огромный шаг для всех сторон в сторону продвижения стандартов этики искусственного интеллекта.
И возникает интересный вопрос: а почему этот документ так важен?
Ответ прост: государства, бизнес, общество - все заинтересованы в том, чтобы технологии ИИ имели этические рамки. Принятие на себя этических принципов означает, что созданному ИИ можно будет доверять.
Немного статистики:
1️⃣ На корпоративном уровне свои собственные корп. принципы этики ИИ уже утвердили более 30 мировых компаний - Microsoft, Google и т.п. В России в числе пионеров в области этики ИИ - Сбер (в котором, к слову, недавно заработала Рабочая группа по этике ИИ), Яндекс и ABBYY;
2️⃣ Этикой сейчас занимается большинство государств мира. Аналитические обзоры по этике ИИ иногда как будто "монополизируют" этику, сводя её к обзору европейских и американских документов. Но на самом деле документы в области этики ИИ принимаются повсеместно. Например: к регулированию этики ИИ недавно присоединился Китай;
3️⃣ Вопросами этики ИИ занимаются ведущие международные организации. В частности - ЮНЕСКО: в ноябре ожидается подписание Рекомендаций ЮНЕСКО по этике ИИ;
4️⃣ Этикой ИИ занимаются более 5 тысяч исследователей.
Так что подписание Кодекса - огромный шаг для всех сторон в сторону продвижения стандартов этики искусственного интеллекта.
Пленарное заседание форума "Этика искусственного интеллекта: начало доверия" вот-вот начнётся. Посмотреть онлайн трансляцию можно здесь.
aiethic.ru
Форум этики в сфере искусственного интеллекта 2024
В октябре 2024 года состоится Форум этики в сфере искусственного интеллекта
Кодекс_этики_в_сфере_ИИ.pdf
430.9 KB
⚡️🇷🇺 Прямо сейчас происходит церемония подписания Национального кодекса этики искусственного интеллекта.
Это знаковое событие, которое предопределяет вектор будущего технологического развития.
Специально для наших подписчиков делимся текстом этого документа.
Это знаковое событие, которое предопределяет вектор будущего технологического развития.
Специально для наших подписчиков делимся текстом этого документа.
HCAI // Регулирование ИИ
Кодекс_этики_в_сфере_ИИ.pdf
А посмотреть реестр компаний, присоединившихся к Кодексу, можно на сайте Альянса в сфере искусственного интеллекта здесь (там же можно тоже посмотреть опубликованный текст Кодекса)
🤔 В ходе сессии по нормативному регулированию ИИ на вчерашнем форуме "Этика ИИ: начало доверия" состоялась очень интересная дискуссия. Участвовали:
А. В качестве модераторов:
1. Заместитель Руководителя Аппарата, Совет Федерации Федерального Собрания Российской Федерации Андрей Анатольевич Безруков
2. Управляющий директор Центра регулирования ИИ, ПАО Сбербанк Андрей Владимирович Незнамов
Б. В качестве участников
1. Директор Департамента стратегического развития и инноваций Министерства экономического развития Российской Федерации Рустам Сергеевич Тихонов
2. Член Правления, вице-президент по взаимодействию с органами государственной власти ПАО «МТС» Руслан Султанович Ибрагимов
3. Вице-президент по развитию и планированию, Фонд «Сколково» Сергей Владимирович Израйлит
4. Директор по корпоративным вопросам и работе с государственными органами, Microsoft Cергей Игоревич Большаков
5. Директор, Thales DIS в России Ильдар Юрьевич Скрижалин
6. Руководитель правовой практики в сфере ПО, технологий, сделок с брендом и данными, ООО «Яндекс» Александр Валерьевич Гаврилин
7. Заместитель руководителя Аппарата, Общественная палата Российской Федерации Александр Сергеевич Юхно
8. Директор по взаимодействию с органами государственной власти, ABBYY Ольга Александровна Минаева
Обсуждалось множество вопросов. Например: 1) что делать дальше в сфере этики ИИ и 2) как разрешать один из «наболевших» вопросов – вопрос идентификации ИИ во взаимодействии с человеком.
По вопросу «что дальше?» ответы были самые разные. Например, было предложено обратить внимание на ресурсоёмкость систем ИИ и создание систем, которые снизят логистическое потребление. Важно также продолжить популяризировать в области ИИ, а также продолжать развивать ИИ треки в высшем образовании. Были озвучены предложения по внедрению системы этического комплаенса, публикации свода лучших практик и предотвращения т.н. «ethics washing» (чтобы у компаний не возникло соблазна использовать Кодекс как сугубо номинальный документ). Не меньшее внимание уделялось отраслевым вопросам: что делать с результатами интеллектуальной деятельности, созданными ИИ? – как видится, дискуссия по этом вопросу будет продолжаться и дальше.
Не менее интересной оказалась дискуссия по идентификации ИИ. Стоит ли уведомлять человека всякий раз, или всё-таки есть пределы? Привязывать ли обязанность идентификации к рискам? Можно ли вместо этого предусмотреть некое рамочное уведомление об использовании ИИ? А что делать с механизмами opt out?
В общем, подписание кодекса – не конец, а, пожалуй, только начало ещё более масштабной работы над многими сложными вопросами
А. В качестве модераторов:
1. Заместитель Руководителя Аппарата, Совет Федерации Федерального Собрания Российской Федерации Андрей Анатольевич Безруков
2. Управляющий директор Центра регулирования ИИ, ПАО Сбербанк Андрей Владимирович Незнамов
Б. В качестве участников
1. Директор Департамента стратегического развития и инноваций Министерства экономического развития Российской Федерации Рустам Сергеевич Тихонов
2. Член Правления, вице-президент по взаимодействию с органами государственной власти ПАО «МТС» Руслан Султанович Ибрагимов
3. Вице-президент по развитию и планированию, Фонд «Сколково» Сергей Владимирович Израйлит
4. Директор по корпоративным вопросам и работе с государственными органами, Microsoft Cергей Игоревич Большаков
5. Директор, Thales DIS в России Ильдар Юрьевич Скрижалин
6. Руководитель правовой практики в сфере ПО, технологий, сделок с брендом и данными, ООО «Яндекс» Александр Валерьевич Гаврилин
7. Заместитель руководителя Аппарата, Общественная палата Российской Федерации Александр Сергеевич Юхно
8. Директор по взаимодействию с органами государственной власти, ABBYY Ольга Александровна Минаева
Обсуждалось множество вопросов. Например: 1) что делать дальше в сфере этики ИИ и 2) как разрешать один из «наболевших» вопросов – вопрос идентификации ИИ во взаимодействии с человеком.
По вопросу «что дальше?» ответы были самые разные. Например, было предложено обратить внимание на ресурсоёмкость систем ИИ и создание систем, которые снизят логистическое потребление. Важно также продолжить популяризировать в области ИИ, а также продолжать развивать ИИ треки в высшем образовании. Были озвучены предложения по внедрению системы этического комплаенса, публикации свода лучших практик и предотвращения т.н. «ethics washing» (чтобы у компаний не возникло соблазна использовать Кодекс как сугубо номинальный документ). Не меньшее внимание уделялось отраслевым вопросам: что делать с результатами интеллектуальной деятельности, созданными ИИ? – как видится, дискуссия по этом вопросу будет продолжаться и дальше.
Не менее интересной оказалась дискуссия по идентификации ИИ. Стоит ли уведомлять человека всякий раз, или всё-таки есть пределы? Привязывать ли обязанность идентификации к рискам? Можно ли вместо этого предусмотреть некое рамочное уведомление об использовании ИИ? А что делать с механизмами opt out?
В общем, подписание кодекса – не конец, а, пожалуй, только начало ещё более масштабной работы над многими сложными вопросами
🌍Делимся текстом недавно принятых в США, Канаде и Великобритании Руководящих принципов по применению машинного обучения в работе медицинских устройств.
GOV.UK
Good Machine Learning Practice for Medical Device Development: Guiding Principles
The U.S. Food and Drug Administration (FDA), Health Canada, and the United Kingdom’s Medicines and Healthcare products Regulatory Agency (MHRA) have jointly identified 10 guiding principles that can inform the development of Good Machine Learning Practice…
Forwarded from Обозреватель БПЛА
🇬🇧 Регулирование
Британский экспертный комитет Regulatory Horizons Council (RHC) опубликовал рекомендации по реформам, необходимым для поддержки быстрого и безопасного внедрения беспилотников в стране.
В отчёте подробно рассматриваются предложения для удаленных частей Великобритании, таких как Гебриды, выступать в качестве испытательного полигона для коммерческого развертывания дронов. В частности RHC описывает конкретные меры которые правительство должно предпринять в перспективе до 2030 года и прогнозы последствий этих мер.
Реагируя на отчёт государственный секретарь по делам бизнеса, энергетики и промышленной стратегии Кваси Квартенг назвал рекомендации своевременным и актуальным.
📎 Ознакомиться с полной версией отчёта экспертов можно в Telegram.
Британский экспертный комитет Regulatory Horizons Council (RHC) опубликовал рекомендации по реформам, необходимым для поддержки быстрого и безопасного внедрения беспилотников в стране.
В отчёте подробно рассматриваются предложения для удаленных частей Великобритании, таких как Гебриды, выступать в качестве испытательного полигона для коммерческого развертывания дронов. В частности RHC описывает конкретные меры которые правительство должно предпринять в перспективе до 2030 года и прогнозы последствий этих мер.
Реагируя на отчёт государственный секретарь по делам бизнеса, энергетики и промышленной стратегии Кваси Квартенг назвал рекомендации своевременным и актуальным.
📎 Ознакомиться с полной версией отчёта экспертов можно в Telegram.
GOV.UK
New proposals put forward to strengthen drone regulation and boost UK aviation sector
Report published by the Regulatory Horizons Council sets out how the UK could support the rapid and safe commercialisation of drones.
🌍 Уже завтра начнётся традиционная конференция по искусственному интеллекту AI Journey.
В прошлом году конференция стала крупнейшим профильным онлайн-мероприятием в мире по числу регистраций и привлекла более 30 тысяч участников из 100 стран мира. Число просмотров трансляций превысило 30 миллионов.
На конференции будут затрагиваться самые разные вопросы. Например, завтра во второй половине дня состоится секция этики ИИ "Законы будущего 2.0", где будут выступать ведущие российские и зарубежные эксперты.
Мы будем держать вас в курсе мероприятия и поделимся ссылками на трансляции
В прошлом году конференция стала крупнейшим профильным онлайн-мероприятием в мире по числу регистраций и привлекла более 30 тысяч участников из 100 стран мира. Число просмотров трансляций превысило 30 миллионов.
На конференции будут затрагиваться самые разные вопросы. Например, завтра во второй половине дня состоится секция этики ИИ "Законы будущего 2.0", где будут выступать ведущие российские и зарубежные эксперты.
Мы будем держать вас в курсе мероприятия и поделимся ссылками на трансляции
На AIJ только что закончилась панельная дискуссия. Теперь начинается Key Note Talks. Сейчас выступает Бьёрн Берге, Совет Европы. Очень рекомендуем посмотреть
А сейчас по теме "Этика ИИ на практике: согласование ИИ с человеческими ценностями" выступит Том Грубер, Humanistic.AI
Совсем скоро в рамках AIJ начнётся секция по этике ИИ. У этой секции очень насыщенная программа. Начнётся секция с обсуждением с участием В. Федулова, как реализуется национальная стратегия ИИ
HCAI // Регулирование ИИ
Совсем скоро в рамках AIJ начнётся секция по этике ИИ. У этой секции очень насыщенная программа. Начнётся секция с обсуждением с участием В. Федулова, как реализуется национальная стратегия ИИ
А через пять минут состоится церемония присоединения к Кодексу этики в сфере ИИ
HCAI // Регулирование ИИ
А через пять минут состоится церемония присоединения к Кодексу этики в сфере ИИ
А сейчас в рамках Keynote Talks выступает И Зенг, Китайская академия наук - один из ведущих китайских учёных в области ИИ