🇪🇺🚁📊 Делимся обзором действующего регулирования ЕС в области беспилотной авиации. Автор в доступной и достаточно краткой форме рассказал суть многих важных вопросов (классификация, сертификация, разрешения на полёты и ограничения). Материал подойдёт тем, кому интересно узнать, как регулируют дронов за рубежом.
Lexology
Drone Regulation: European Union
Following the publication of Regulation (EU) 2018/1139 in the Official Journal of the European Union on 22 August 2018 (the ‘new’ Basic Regulation), a…
🇪🇺📄 Опубликованы два мнения (Opinion) Европейского социально - экономического комитета относительно регулирования ИИ.
1️⃣ Мнение о текущей редакции проекта Artificial Intelligence Act (AIA). Ниже часть позиции:
- предлагается новая дефиниция "систем ИИ":
"Artificial intelligence system' (AI system) means software that can, in an automated manner, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations or decisions, influencing the environment it interacts with"
- у комитета возникли возникли вопросу к классификации ИИ по "пирамиде" из ИИ высокого, среднего и небольшого риска. По мнению комитета, рекомендации по устранению среднего и высокого риска недостаточно эффективны.
- комитет также прокомментировал вопрос делегирования принятия решений искусственному интеллекту: в AIA не хватает идеи о том, что ИИ расширит возможности для принятия решений, а не заменит принятие решений человеком. По мнению комитета, сейчас в AIA есть презумпция, что как только требования к ИИ среднего и высокого риска будут выполнены, ИИ сможет в значительной степени заменить человеческое принятие решений.
В ответ на это комитет настоятельно рекомендует, чтобы AIA предусматривал, чтобы определенные решения оставались прерогативой людей, особенно в тех областях, где эти решения имеют моральный компонент и правовые последствия или влияние на общество (например, в судебной системе, правоохранительных органах, социальных службах, здравоохранении, в вопросах жилья, оказания финансовых услуг, трудовых отношений и образования).
- насчёт запрещённых кейсов использования ИИ:
а) манипулятивный ИИ. Чтобы запретить манипулирование людьми с целью навязывания им опасного поведения Комитет рекомендует изменить п 1(а) ст. 5:
(…) an AI system deployed, aimed at or used to materially distort a person's behaviour in a manner that causes or is likely to cause harm to that person's, another person's or group of persons' fundamental rights, including their physical or psychological health and safety, or to democracy and the rule of law"
Комитет рекомендует таким же образом изменить запрещенную практику использования уязвимостей в статье 5 (1) (b), чтобы включить в нее ущерб основным правам, включая физический или психологический ущерб.
б) социальный скоринг. Комитет рекомендует распространить запрет не только на гос органы, но и на частный сектор
в) распознавание эмоций (сейчас присвоен "низкий риск" в проекте AIA). Комитет против данной практики и считает её чрезвычайно инвазивной, не научной и нарушающей права человека. Комитет в целом занимает жёсткую позицию к биометрической идентификации и призывает ввести максимальные ограничения к использованию данной технологии.
- высокорисковый ИИ. Помимо прочего, Комитет предлагает включить в AIA пять требований из Руководства по этике надёжного ИИ (Ethics guidelines for trustworthy AI ("EGTAI"): (i) человеческое вмешательство, (ii) конфиденциальность, (iii) разнообразие, недискриминация и справедливость, (iv) объяснимость. и (v) экологическое и социальное благополучие
1️⃣ Мнение о текущей редакции проекта Artificial Intelligence Act (AIA). Ниже часть позиции:
- предлагается новая дефиниция "систем ИИ":
"Artificial intelligence system' (AI system) means software that can, in an automated manner, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations or decisions, influencing the environment it interacts with"
- у комитета возникли возникли вопросу к классификации ИИ по "пирамиде" из ИИ высокого, среднего и небольшого риска. По мнению комитета, рекомендации по устранению среднего и высокого риска недостаточно эффективны.
- комитет также прокомментировал вопрос делегирования принятия решений искусственному интеллекту: в AIA не хватает идеи о том, что ИИ расширит возможности для принятия решений, а не заменит принятие решений человеком. По мнению комитета, сейчас в AIA есть презумпция, что как только требования к ИИ среднего и высокого риска будут выполнены, ИИ сможет в значительной степени заменить человеческое принятие решений.
В ответ на это комитет настоятельно рекомендует, чтобы AIA предусматривал, чтобы определенные решения оставались прерогативой людей, особенно в тех областях, где эти решения имеют моральный компонент и правовые последствия или влияние на общество (например, в судебной системе, правоохранительных органах, социальных службах, здравоохранении, в вопросах жилья, оказания финансовых услуг, трудовых отношений и образования).
- насчёт запрещённых кейсов использования ИИ:
а) манипулятивный ИИ. Чтобы запретить манипулирование людьми с целью навязывания им опасного поведения Комитет рекомендует изменить п 1(а) ст. 5:
(…) an AI system deployed, aimed at or used to materially distort a person's behaviour in a manner that causes or is likely to cause harm to that person's, another person's or group of persons' fundamental rights, including their physical or psychological health and safety, or to democracy and the rule of law"
Комитет рекомендует таким же образом изменить запрещенную практику использования уязвимостей в статье 5 (1) (b), чтобы включить в нее ущерб основным правам, включая физический или психологический ущерб.
б) социальный скоринг. Комитет рекомендует распространить запрет не только на гос органы, но и на частный сектор
в) распознавание эмоций (сейчас присвоен "низкий риск" в проекте AIA). Комитет против данной практики и считает её чрезвычайно инвазивной, не научной и нарушающей права человека. Комитет в целом занимает жёсткую позицию к биометрической идентификации и призывает ввести максимальные ограничения к использованию данной технологии.
- высокорисковый ИИ. Помимо прочего, Комитет предлагает включить в AIA пять требований из Руководства по этике надёжного ИИ (Ethics guidelines for trustworthy AI ("EGTAI"): (i) человеческое вмешательство, (ii) конфиденциальность, (iii) разнообразие, недискриминация и справедливость, (iv) объяснимость. и (v) экологическое и социальное благополучие
2️⃣ Мнение об использовании ИИ в машинном оборудовании (machinery). Речь идёт о пересмотре текста Директивы 2006/42/EC o машинном оборудовании.
- текущие предложения Еврокомиссии предусматривают отмену оценки соответствия "высокорискового" машинного оборудования силами самих производителей. То есть если хотя бы в 0,01% работы машинного оборудования используется ИИ, оборудование автоматически становится высокорисковым и его нужно полностью тестировать. Это большая проблема если а) ИИ, используемый в оборудовании, используется для аналитических/статистичtских целей и не влияет на работу оборудования и/или б) речь идёт о небольших выпусках станков/индивидуально произведённом оборудовании (так как расходы на оценку соответствия будут несопоставимыми). Комитет предлагает распространять на подобные случае действующие правила, позволяющие производителям самостоятельно оценивать соответствие машинного оборудования требованиям безопасности;
- что касается единых процедур тестирования и уведомления, EESC рекомендует ввести европейский сертификат для компаний, чтобы продемонстрировать надежность заслуживающих доверия систем искусственного интеллекта
- текущие предложения Еврокомиссии предусматривают отмену оценки соответствия "высокорискового" машинного оборудования силами самих производителей. То есть если хотя бы в 0,01% работы машинного оборудования используется ИИ, оборудование автоматически становится высокорисковым и его нужно полностью тестировать. Это большая проблема если а) ИИ, используемый в оборудовании, используется для аналитических/статистичtских целей и не влияет на работу оборудования и/или б) речь идёт о небольших выпусках станков/индивидуально произведённом оборудовании (так как расходы на оценку соответствия будут несопоставимыми). Комитет предлагает распространять на подобные случае действующие правила, позволяющие производителям самостоятельно оценивать соответствие машинного оборудования требованиям безопасности;
- что касается единых процедур тестирования и уведомления, EESC рекомендует ввести европейский сертификат для компаний, чтобы продемонстрировать надежность заслуживающих доверия систем искусственного интеллекта
🇪🇺📄 Сотрудники Еврокомиссии опубликовали доклад, в котором описали текущую статистику внедрения ИИ в Евросоюзе и планы, как планируется достичь 75% внедрения ИИ в европейском бизнесе к 2030 году. Поскольку документ большой, основные положения доклада опубликуем в нескольких сообщениях.
(1/2):
1) целевой показатель к 2030 году: 75% внедрения ИИ в бизнес. Текущий средний показатель по ЕС (данные 2020 года): ~25%
В части внедрения ИИ лидирует Чехия (40%).
2) какие шаги уже предприняты для "ИИзации":
2018 - Комиссия и страны - участники приняли "Скоординированный план по ИИ" (Coordinated Plan on AI). В соответствии с планом государства приняли собственные стратегии ИИ.
2021 - Комиссия обновила Скоординированый план и предложила проект AI Act. Меры в целом находят широкую поддержку среди заинтересованных участников.
3) текущие и дальнейшие шаги
- продвижение принципов этики ИИ ("trustworthy AI") и поддержка высокотехнологичного бизнеса в рамках программ Horizon Europe и Digital Europe (конкретные действия приведены в новом скоординированном плане)
- продвижение Европейской экосистемы передового опыта внедрения ИИ (European Ecosystem of Excellence for AI)
1) целевой показатель к 2030 году: 75% внедрения ИИ в бизнес. Текущий средний показатель по ЕС (данные 2020 года): ~25%
В части внедрения ИИ лидирует Чехия (40%).
2) какие шаги уже предприняты для "ИИзации":
2018 - Комиссия и страны - участники приняли "Скоординированный план по ИИ" (Coordinated Plan on AI). В соответствии с планом государства приняли собственные стратегии ИИ.
2021 - Комиссия обновила Скоординированый план и предложила проект AI Act. Меры в целом находят широкую поддержку среди заинтересованных участников.
3) текущие и дальнейшие шаги
- продвижение принципов этики ИИ ("trustworthy AI") и поддержка высокотехнологичного бизнеса в рамках программ Horizon Europe и Digital Europe (конкретные действия приведены в новом скоординированном плане)
- продвижение Европейской экосистемы передового опыта внедрения ИИ (European Ecosystem of Excellence for AI)
(2/2) в продолжение шагов по мерам внедрения ИИ в ЕС:
- продвижение Европейской экосистемы передового опыта внедрения ИИ (European Ecosystem of Excellence for AI) через ГЧП и НИОКР
- создание центров тестирования и экспериментирования в области ИИ (AI testing and experimentation facilities (TEFs). Центры будут направлены на поддержку вывода на европейский рынок инновационных решений в области здравоохранения, промышленности, сх и умных городов
- продвижение единой европейской платформы "AI on Demand" в качестве маркетплейса ИИ решений
- расширение сети цифровых хабов (European Digital Innovation Hubs) с расчётом минимум 1 хаб на государство - участника.
- продвижение Европейской экосистемы передового опыта внедрения ИИ (European Ecosystem of Excellence for AI) через ГЧП и НИОКР
- создание центров тестирования и экспериментирования в области ИИ (AI testing and experimentation facilities (TEFs). Центры будут направлены на поддержку вывода на европейский рынок инновационных решений в области здравоохранения, промышленности, сх и умных городов
- продвижение единой европейской платформы "AI on Demand" в качестве маркетплейса ИИ решений
- расширение сети цифровых хабов (European Digital Innovation Hubs) с расчётом минимум 1 хаб на государство - участника.
🌍 НАТО присоединяется к регулированию этики ИИ. В разрабатываемой стратегии Альянса по развитию и внедрению ИИ в области обороны и безопасности будут установлены этические стандарты. Основой этического регулирования ИИ НАТО называет принципы ответственности (accountability) и регулирования (governavility).
NATO
Deputy Secretary General: NATO will set the standard for ethical use of new technologies
In a virtual address to the “AI and Cyber – An Abundance of Potential” conference on Monday (27 September 2021), Deputy Secretary General Mircea Geoană stressed that NATO is determined to set the standard for the ethical use of emerging and disruptive technologies.
1️⃣🌍 ВЭФ опубликовал проект руководства по этичному использованию технологии распознавания лиц (прежде всего в работе гос органов). Работоспособность руководства проверяют в рамках пилотного проекта в Нидерландах
2️⃣🇺🇸 Опубликовано исследование Академического центра исследований высоких технологий (Advanced Technology Academic Research Center) о том, что большинство политик, руководств и принципов, выпущенных американскими гос органами и регламентирующих использование ИИ в США, противоречат и не соотносятся друг с другом
3️⃣🇹🇷Турецкое управление по вопросам защиты персональных данных (Turkish Personal Data Protection Authority) выпустило рекомендации по защите персональных данных в сфере ИИ
4️⃣ 🇨🇳В Китае правительство опубликовало принципы этики ИИ. Документ распространяется на максимально широкий круг акторов ИИ и предусматривает 6 принципов этики ИИ (человеческое благополучие, продвижение справедливости, контролируемость и надёжность, защита персональных данных, ответственность и развитие грамотности в области этики (improve ethical literacy). Полный текст документа (на китайском) доступен здесь.
5️⃣ 🇨🇱В Чили принимаются поправки в конституцию, защищающие человека от манипулятивного воздействия со стороны ИИ. Поправки подразумевают права на "неприкосновенность умственных процессов" (mental privacy), целостность личности (personal integrity), свободу мысли (free will of thought)
6️⃣ 🇪🇺Опрос CORDIS (европейский аналог Росстата): в целом порядка половины жителей ЕС поддерживают массовое использование беспилотников и считают эту меру "экологичной", но большинство беспокоятся за свои данные
2️⃣🇺🇸 Опубликовано исследование Академического центра исследований высоких технологий (Advanced Technology Academic Research Center) о том, что большинство политик, руководств и принципов, выпущенных американскими гос органами и регламентирующих использование ИИ в США, противоречат и не соотносятся друг с другом
3️⃣🇹🇷Турецкое управление по вопросам защиты персональных данных (Turkish Personal Data Protection Authority) выпустило рекомендации по защите персональных данных в сфере ИИ
4️⃣ 🇨🇳В Китае правительство опубликовало принципы этики ИИ. Документ распространяется на максимально широкий круг акторов ИИ и предусматривает 6 принципов этики ИИ (человеческое благополучие, продвижение справедливости, контролируемость и надёжность, защита персональных данных, ответственность и развитие грамотности в области этики (improve ethical literacy). Полный текст документа (на китайском) доступен здесь.
5️⃣ 🇨🇱В Чили принимаются поправки в конституцию, защищающие человека от манипулятивного воздействия со стороны ИИ. Поправки подразумевают права на "неприкосновенность умственных процессов" (mental privacy), целостность личности (personal integrity), свободу мысли (free will of thought)
6️⃣ 🇪🇺Опрос CORDIS (европейский аналог Росстата): в целом порядка половины жителей ЕС поддерживают массовое использование беспилотников и считают эту меру "экологичной", но большинство беспокоятся за свои данные
Forwarded from База знаний AI
Евросоюз и США выработают общий подход к использованию ИИ, управлению данными и политике вокруг технологических платформ
Ранее в ходе первого заседания совета по торговле и технологиям, созданного США и ЕС, стороны пришли к выводу, что искусственный интеллект может положительно повлиять на жизнь граждан и экономики стран, но разработка, внедрение и использование технологии не по назначению угрожает базовым правам человека.
Стороны также выразили беспокойство эксплуатацией ИИ-технологий авторитарными режимами для создания систем социальной оценки с целью реализации масштабного социального контроля. В связи с этим TTC договорился перебалансировать глобальные цепочки поставок полупроводников, содействовать совместному экономическому росту, а также расширять сотрудничество в сфере новейших технологий.
🔗Источник: https://forklog.com/es-i-ssha-razrabotayut-obshhie-printsipy-iskusstvennogo-intellekta/
***
📎Ранее стало известно о сотрудничестве Великобритании и ОАЭ в области искусственного интеллекта. Меморандум, подписанный двумя странами, подразумевает обмен знаниями, а также совместные инвестиции и разработку единых стандартов в сфере искусственного интеллекта.
Ранее в ходе первого заседания совета по торговле и технологиям, созданного США и ЕС, стороны пришли к выводу, что искусственный интеллект может положительно повлиять на жизнь граждан и экономики стран, но разработка, внедрение и использование технологии не по назначению угрожает базовым правам человека.
Стороны также выразили беспокойство эксплуатацией ИИ-технологий авторитарными режимами для создания систем социальной оценки с целью реализации масштабного социального контроля. В связи с этим TTC договорился перебалансировать глобальные цепочки поставок полупроводников, содействовать совместному экономическому росту, а также расширять сотрудничество в сфере новейших технологий.
🔗Источник: https://forklog.com/es-i-ssha-razrabotayut-obshhie-printsipy-iskusstvennogo-intellekta/
***
📎Ранее стало известно о сотрудничестве Великобритании и ОАЭ в области искусственного интеллекта. Меморандум, подписанный двумя странами, подразумевает обмен знаниями, а также совместные инвестиции и разработку единых стандартов в сфере искусственного интеллекта.
🚁🇷🇺 Опубликован черновик программы ЭПР по эксплуатации БАС в Томской области. Текст проекта на regulation.gov доступен здесь.
🇪🇺Европарламент принял резолюцию, призывающую, в частности, к запрету использования технологии биометрической идентификации, приводящего к массовой слежке. Резолюция носит декларативный характер, но отражает общую позицию Европарламента по данному вопросу.
www.europarl.europa.eu
Texts adopted - Artificial intelligence in criminal law and its use by the police and judicial authorities in criminal matters…
Conclusions of the Hungarian CoE presidency__ (1).pdf
152.7 KB
5 октября состоялась конференция министров юстиции стран-участниц Совета Европы по применению высоких технологий (включая ИИ) в правосудии. Делимся итоговыми положениями (Conclusions), подводящим итоги мероприятия.
В документе содержатся ключевые выводы, к которым пришли участники конференции. Из них стоит отметить следующие:
1️⃣ В разработке правил для использования технологий в судебной системе будут учитываться мнения как CEPEJ, так и CAHAI ("Also DECLARES its commitment to continue supporting all ongoing initiatives and work to strengthen the dialogue and cooperation between the Council of Europe Member States on the use of digital tools in the field of justice, in particular within the framework of the European Commission for the Efficiency of Justice (CEPEJ) and also on the legal framework for the development, design and application of artificial intelligence in the Ad hoc Committee on Artificial Intelligence (CAHAI)")
В документе содержатся ключевые выводы, к которым пришли участники конференции. Из них стоит отметить следующие:
1️⃣ В разработке правил для использования технологий в судебной системе будут учитываться мнения как CEPEJ, так и CAHAI ("Also DECLARES its commitment to continue supporting all ongoing initiatives and work to strengthen the dialogue and cooperation between the Council of Europe Member States on the use of digital tools in the field of justice, in particular within the framework of the European Commission for the Efficiency of Justice (CEPEJ) and also on the legal framework for the development, design and application of artificial intelligence in the Ad hoc Committee on Artificial Intelligence (CAHAI)")
⬆️
2️⃣Подход к регулированию должен быть всеобщим несмотря на правовые различия и традиции, сложившиеся в той или иной юрисдикции (CONCLUDES that in spite of the different constitutional and legal traditions of the Members States there is a genuine need for a common approach on overcoming challenges raised by the rapid technological development and finding practical solutions related to the digitalisation of justicе)
3️⃣ Акцентируется внимание на ключевое значение человекоориентированного подхода
4️⃣ Планируется создать "неформальную платформу" для взаимодействия среди стран СЕ ("...experts from the Council of Europe Member States agreed that an informal platform should to be set up in the cooperation framework of Council of Europe Member States. This initiative would be of utmost value")
2️⃣Подход к регулированию должен быть всеобщим несмотря на правовые различия и традиции, сложившиеся в той или иной юрисдикции (CONCLUDES that in spite of the different constitutional and legal traditions of the Members States there is a genuine need for a common approach on overcoming challenges raised by the rapid technological development and finding practical solutions related to the digitalisation of justicе)
3️⃣ Акцентируется внимание на ключевое значение человекоориентированного подхода
4️⃣ Планируется создать "неформальную платформу" для взаимодействия среди стран СЕ ("...experts from the Council of Europe Member States agreed that an informal platform should to be set up in the cooperation framework of Council of Europe Member States. This initiative would be of utmost value")
⚡️🚁🇷🇺 Правительство утвердило Концепцию интеграции БВС в воздушное пространство (текст доступен здесь).
ТАСС
Кабмин утвердил концепцию интеграции беспилотников в единое воздушное пространство
Как сообщил премьер-министр России Михаил Мишустин, она будет реализована в три этапа
🇪🇺 Началась публичная консультация по предложению Еврокомиссии об адаптации правил об ответственности за причинение вреда в связи с развитием цифровых технологий и ИИ.
Предложение предполагает переработку действующей Директивы об ответственности за продукцию (Product Liability Directive 85/374/EEC), которая, по мнению Еврокомиссии, сейчас не даёт чётких правил или хотя бы единого подхода по привлечению к ответственности за вред, вызванный дефектами в работе ИИ, из-за чего суды в ЕС сейчас вынуждены импровизировать на ходу.
Отдельно комиссия отмечает, что в случае с "умными продуктами" в принципе неясно, могут ли непредсказуемые результаты, приводящие к повреждению, попадать под действие Директивы. Речь идёт о так называемой "защите от рисков развития" (development risk defence), которая освобождает производителей от ответственности за дефекты, которые не могли быть обнаружены, когда продукт был запущен в обращение (стр. 3).
Предлагается несколько опций
А. Распространить безвиновную ответственность на цифровые продукты. При этом урегулировать ответственность за ущерб, причинённый в результате обновления ПО и неправильного взаимодействия элементов IoT. Также предлагается урегулировать риски в области кибербезопасности (connectivity and cybersecurity risks) (п. 1.а ч. B);
Б. В рамках второй опции предлагается предусмотреть вкупе с опцией «А», что компенсации подлежит и нематериальный ущерб, вызванный "потерей данных, нарушением приватности или вредом окружающей среде" (п. 1.b ч. В);
В. "Гармонизировать" действующие механизмы привлечения к ответственности операторов/пользователей оборудования с ИИ, провайдеров услуг на основе ИИ. Предлагается несколько стандартов определения лица, несущего ответственность (п. 1.c ч. B).
Также предлагается изменить правила, касающиеся бремени доказывания и оговорок об исключении ответственности. Обозначен ряд вариантов. Например:
1) производитель/разработчик обязан раскрывать техническую информацию пострадавшим лицам. суды вправе установить собственные презумпции "дефектности" продукта (например - если уже была доказана неисправность других продуктов из той же серии) («…allowing courts to infer that a product is defective or caused the damage under certain circumstances, e.g. when other products in the same production series have already been proven to be defective or when a product clearly malfunctions») (2.1.a);
2) альтернатива - они должны доказывать отсутствие дефектов по умолчанию (2.1.b). Предлагается, что истцу не надо будет доказывать, как ему был причинён вред искусственным интеллектом, если ИИ не прозрачен;
3) предлагается исключить "защиту от рисков развития" (development risk defence) в отношении ИИ решений - ответственность надо будет нести даже тогда, когда она вызвана действиями самого ИИ (2.1.c).
К слову, любопытно, что в тексте проекта ИИ вопросы рассматриваются в связке c ESG повесткой. Например, в рамках ESG блока предлагается предусмотреть правила ответственности за дефекты продукции, используемой в замкнутом цикле.
Предложение предполагает переработку действующей Директивы об ответственности за продукцию (Product Liability Directive 85/374/EEC), которая, по мнению Еврокомиссии, сейчас не даёт чётких правил или хотя бы единого подхода по привлечению к ответственности за вред, вызванный дефектами в работе ИИ, из-за чего суды в ЕС сейчас вынуждены импровизировать на ходу.
Отдельно комиссия отмечает, что в случае с "умными продуктами" в принципе неясно, могут ли непредсказуемые результаты, приводящие к повреждению, попадать под действие Директивы. Речь идёт о так называемой "защите от рисков развития" (development risk defence), которая освобождает производителей от ответственности за дефекты, которые не могли быть обнаружены, когда продукт был запущен в обращение (стр. 3).
Предлагается несколько опций
А. Распространить безвиновную ответственность на цифровые продукты. При этом урегулировать ответственность за ущерб, причинённый в результате обновления ПО и неправильного взаимодействия элементов IoT. Также предлагается урегулировать риски в области кибербезопасности (connectivity and cybersecurity risks) (п. 1.а ч. B);
Б. В рамках второй опции предлагается предусмотреть вкупе с опцией «А», что компенсации подлежит и нематериальный ущерб, вызванный "потерей данных, нарушением приватности или вредом окружающей среде" (п. 1.b ч. В);
В. "Гармонизировать" действующие механизмы привлечения к ответственности операторов/пользователей оборудования с ИИ, провайдеров услуг на основе ИИ. Предлагается несколько стандартов определения лица, несущего ответственность (п. 1.c ч. B).
Также предлагается изменить правила, касающиеся бремени доказывания и оговорок об исключении ответственности. Обозначен ряд вариантов. Например:
1) производитель/разработчик обязан раскрывать техническую информацию пострадавшим лицам. суды вправе установить собственные презумпции "дефектности" продукта (например - если уже была доказана неисправность других продуктов из той же серии) («…allowing courts to infer that a product is defective or caused the damage under certain circumstances, e.g. when other products in the same production series have already been proven to be defective or when a product clearly malfunctions») (2.1.a);
2) альтернатива - они должны доказывать отсутствие дефектов по умолчанию (2.1.b). Предлагается, что истцу не надо будет доказывать, как ему был причинён вред искусственным интеллектом, если ИИ не прозрачен;
3) предлагается исключить "защиту от рисков развития" (development risk defence) в отношении ИИ решений - ответственность надо будет нести даже тогда, когда она вызвана действиями самого ИИ (2.1.c).
К слову, любопытно, что в тексте проекта ИИ вопросы рассматриваются в связке c ESG повесткой. Например, в рамках ESG блока предлагается предусмотреть правила ответственности за дефекты продукции, используемой в замкнутом цикле.
❗️🇷🇺 В начале следующей недели, 26 октября, состоится уникальное мероприятие: форум "Этика искусственного интеллекта: начало доверия".
Это первая центральная отраслевая площадка для обсуждения этики ИИ в России. Приглашено более полутора тысячи представителей государства, бизнеса, науки и образования.
Но самое главное - на этом мероприятии состоится подписание Национального кодекса этики ИИ.
Мы поделимся с Вами ссылкой для онлайн трансляции форума и будем держать вас в курсе обо всех ключевых моментах мероприятия
Это первая центральная отраслевая площадка для обсуждения этики ИИ в России. Приглашено более полутора тысячи представителей государства, бизнеса, науки и образования.
Но самое главное - на этом мероприятии состоится подписание Национального кодекса этики ИИ.
Мы поделимся с Вами ссылкой для онлайн трансляции форума и будем держать вас в курсе обо всех ключевых моментах мероприятия
aiethic.ru
Форум этики в сфере искусственного интеллекта 2024
В октябре 2024 года состоится Форум этики в сфере искусственного интеллекта
Совсем недавно министры обороны стран НАТО согласовали Стратегию НАТО в области развития ИИ. Делимся основными положениями этого документа.
NATO
Summary of the NATO Artificial Intelligence Strategy
PRINCIPLES OF RESPONSIBLE USE
❗️🇷🇺 Ещё немного, и в России будет подписан Национальный кодекс этики ИИ - рекомендательный документ, который устанавливает общие этические принципы и стандарты поведения для стейкхолдеров в области искусственного интеллекта.
И возникает интересный вопрос: а почему этот документ так важен?
Ответ прост: государства, бизнес, общество - все заинтересованы в том, чтобы технологии ИИ имели этические рамки. Принятие на себя этических принципов означает, что созданному ИИ можно будет доверять.
Немного статистики:
1️⃣ На корпоративном уровне свои собственные корп. принципы этики ИИ уже утвердили более 30 мировых компаний - Microsoft, Google и т.п. В России в числе пионеров в области этики ИИ - Сбер (в котором, к слову, недавно заработала Рабочая группа по этике ИИ), Яндекс и ABBYY;
2️⃣ Этикой сейчас занимается большинство государств мира. Аналитические обзоры по этике ИИ иногда как будто "монополизируют" этику, сводя её к обзору европейских и американских документов. Но на самом деле документы в области этики ИИ принимаются повсеместно. Например: к регулированию этики ИИ недавно присоединился Китай;
3️⃣ Вопросами этики ИИ занимаются ведущие международные организации. В частности - ЮНЕСКО: в ноябре ожидается подписание Рекомендаций ЮНЕСКО по этике ИИ;
4️⃣ Этикой ИИ занимаются более 5 тысяч исследователей.
Так что подписание Кодекса - огромный шаг для всех сторон в сторону продвижения стандартов этики искусственного интеллекта.
И возникает интересный вопрос: а почему этот документ так важен?
Ответ прост: государства, бизнес, общество - все заинтересованы в том, чтобы технологии ИИ имели этические рамки. Принятие на себя этических принципов означает, что созданному ИИ можно будет доверять.
Немного статистики:
1️⃣ На корпоративном уровне свои собственные корп. принципы этики ИИ уже утвердили более 30 мировых компаний - Microsoft, Google и т.п. В России в числе пионеров в области этики ИИ - Сбер (в котором, к слову, недавно заработала Рабочая группа по этике ИИ), Яндекс и ABBYY;
2️⃣ Этикой сейчас занимается большинство государств мира. Аналитические обзоры по этике ИИ иногда как будто "монополизируют" этику, сводя её к обзору европейских и американских документов. Но на самом деле документы в области этики ИИ принимаются повсеместно. Например: к регулированию этики ИИ недавно присоединился Китай;
3️⃣ Вопросами этики ИИ занимаются ведущие международные организации. В частности - ЮНЕСКО: в ноябре ожидается подписание Рекомендаций ЮНЕСКО по этике ИИ;
4️⃣ Этикой ИИ занимаются более 5 тысяч исследователей.
Так что подписание Кодекса - огромный шаг для всех сторон в сторону продвижения стандартов этики искусственного интеллекта.
Пленарное заседание форума "Этика искусственного интеллекта: начало доверия" вот-вот начнётся. Посмотреть онлайн трансляцию можно здесь.
aiethic.ru
Форум этики в сфере искусственного интеллекта 2024
В октябре 2024 года состоится Форум этики в сфере искусственного интеллекта