🇦🇺Патентное бюро Австралии (Commissioner of Patents) подало апелляцию на решение по делу Thaler v Commissioner of Patents, в котором ранее суд признал, что ИИ может быть автором изобретения (inventor). Мы будем отслеживать изменения по этому делу и с радостью поделимся новостями.
www.ipaustralia.gov.au
Commissioner to appeal court decision allowing artificial intelligence to be an inventor | IP Australia
On 30 July 2021, the Federal Court found in Thaler v Commissioner of Patents [2021] FCA 87
🚁🇷🇺📃 Минобороны подготовило изменения в правила расследования авиационных происшествий, регламентирующие порядок расследования инцидентов с государственными БВС (id проекта 01/01/09-21/00119840). Ожидается, что планируемые изменения вступят в силу в октябре.
regulation.gov.ru
Нормативные правовые акты - Официальный сайт для размещения информации о подготовке нормативных правовых актов и результатах их…
Официальный сайт для размещения информации о подготовке федеральными органами исполнительной власти проектов нормативных правовых актов и результатах их общественного обсуждения
🇺🇸 В США суд вынес решение по делу Thaler v Iancu (1:20-cv-00903) и указал, что искусственный интеллект не может считаться автором произведения. На данный момент такой взгляд превалирует в мировой практикке (официально ИИ указан в качестве автора изобретения в ЮАР и в Австралии (но в случае с Австралией подана апелляция).
Law360
Only Humans, Not AI, Can Be An Inventor, Va. Judge Rules - Law360
A Virginia federal judge ruled Thursday that artificial intelligence cannot be listed as an inventor on a patent application, holding that the Patent Act makes clear that inventing is the exclusive legal province of human beings.
🇹🇼 Делимся обзором решения суда Китайской республики по интеллектуальным правам (Taiwan's Intellectual Property & Commercial Court) по делу Thaler v. Taiwan IP Office (TIPO), 110 Xing Zhuan Su 3. В этом деле (также как, например, в США или Австралии) также рассматривался вопрос, может ли ИИ считаться автором изобретения. Суд посчитал, что не может, так как:
1️⃣ изобретение подразумевает наличие "умственной созидательной деятельности" ("mental creation"), присущей только человеку;
2️⃣ ИИ неправоспособен;
3️⃣ в Руководстве по оценке патентов (Patent examination guidelines) прямо предусмотрено, что изобретателем должен быть человек.
1️⃣ изобретение подразумевает наличие "умственной созидательной деятельности" ("mental creation"), присущей только человеку;
2️⃣ ИИ неправоспособен;
3️⃣ в Руководстве по оценке патентов (Patent examination guidelines) прямо предусмотрено, что изобретателем должен быть человек.
Mondaq
Taiwan: DABUS The AI Is Denied Inventorship In Taiwan
Taiwan's Intellectual Property & Commercial Court published a decision on August 30, upholding the Taiwan IP Office's ruling that an artificial intelligence system cannot be named as a patent inventor.
🚗🇺🇸 В Нью-Йорке (New York city) приняты правила тестирования беспилотных автомобилей на дорогах общего пользования.
Чтобы начать испытывать ВАТС в городских условиях, нужно получить разрешение от местных властей. Для этого нужно, в числе прочего:
- заплатить 5 тысяч долларов в год
- докладывать о километраже, всех поломках, маршрутах и ДТП
- продемонстрировать, что беспилотник едет лучше, чем машина с человеком у руля.
Текст правил доступен здесь.
Чтобы начать испытывать ВАТС в городских условиях, нужно получить разрешение от местных властей. Для этого нужно, в числе прочего:
- заплатить 5 тысяч долларов в год
- докладывать о километраже, всех поломках, маршрутах и ДТП
- продемонстрировать, что беспилотник едет лучше, чем машина с человеком у руля.
Текст правил доступен здесь.
🌍 Мир выходит на новый виток регулирования ИИ. В начале речь шла исключительно о "гонке регулирования" между отдельными государствами, а ещё вчера - о выработке позиции отдельными международными органами. Сейчас же регулирование ИИ принимает глобальный и всесторонний характер.
ООН (+ ЮНЕСКО в качестве самостоятельного участника), Совет Европы, ЕС (в лице Еврокомиссии и Агенства по основным правам), ОЭСР, Всемирный Банк и ряд других международных организаций объединились для обсуждения и координации политик в области искусственного интеллекта на площадке Global Policy AI.
Участники поставили перед собой 3 задачи:
1⃣ Обеспечить этичность ИИ и доверие к нему;
2⃣ Обеспечить, что использование ИИ не будет ущемлять права человека и демократические ценности; и
3⃣ Обеспечить, что внедрение ИИ приведёт к устойчивому развитию общества.
Совместная работа этих органов в таком формате уже началась. Мы будем отслеживать, как развивается подобная инициатива, и будем делиться новостями.
ООН (+ ЮНЕСКО в качестве самостоятельного участника), Совет Европы, ЕС (в лице Еврокомиссии и Агенства по основным правам), ОЭСР, Всемирный Банк и ряд других международных организаций объединились для обсуждения и координации политик в области искусственного интеллекта на площадке Global Policy AI.
Участники поставили перед собой 3 задачи:
1⃣ Обеспечить этичность ИИ и доверие к нему;
2⃣ Обеспечить, что использование ИИ не будет ущемлять права человека и демократические ценности; и
3⃣ Обеспечить, что внедрение ИИ приведёт к устойчивому развитию общества.
Совместная работа этих органов в таком формате уже началась. Мы будем отслеживать, как развивается подобная инициатива, и будем делиться новостями.
Globalpolicy.AI
Globalpolicy.AI - Globalpolicy.AI
Achieving impact through intergovernmental co-operation on artificial intelligence About Key focus areas Events AI events calendar Events on Globalpolicy.AI Partners Reports FAQ Contact Search English Français Posted inCouncil of Europe Posted inEuropean…
🌍 Верховный комиссар ООН по правам человека (Office of the United Nations High Commissioner for Human Rights) Мишель Бешлет (Michelle Bachelet) озвучила опасения о влиянии некоторых технологий, использующих алгоритмы ИИ, на права человека и призвала:
1️⃣ запретить использование технологий ИИ, которые "не могут быть использованы в соответствии с международным правом прав человека...." и ввести мораторий в отношении технологий ИИ, "... которые несут риск реализации прав человека" ("Expressly ban AI applications that cannot be operated in compliance with international human rights law and impose moratoriums on the sale and use of AI systems that carry a high risk for the enjoyment of human rights");
2️⃣ ввести мораторий на использование систем распознавания лиц в общественных местах ("Impose a moratorium on the use of remote biometric recognition technologies in public spaces").
Предлагаемые запреты не носят абсолютный характер:
1️⃣ в первом случае делается оговорка, что такие запреты можно не применять, когда в работе и применении таких технологий учтены и внедрены механизмы защиты прав человека ("unless and until adequate safeguards to protect human rights are in place");
2️⃣ во втором случае также уточняется, что для не применения моратория как минимум уполномоченные органы должны обеспечить защиту персональных данных, максимально точную работу таких систем и минимизировать риски дискриминации + имплементировать рекомендации, которые были ранее озвучены в докладе Верховного комиссара № A/HRC/44/24, 2020 (53 (j) (i - v)) (см. стр. 18 здесь) ("at least until the authorities responsible can demonstrate compliance with privacy and data protection standards and the absence of significant accuracy issues and discriminatory impacts, and until all the recommendations set out in A/HRC/44/24, paragraph 53 (j) (i–v), are implemented").
Текст доклада можно посмотреть здесь.
1️⃣ запретить использование технологий ИИ, которые "не могут быть использованы в соответствии с международным правом прав человека...." и ввести мораторий в отношении технологий ИИ, "... которые несут риск реализации прав человека" ("Expressly ban AI applications that cannot be operated in compliance with international human rights law and impose moratoriums on the sale and use of AI systems that carry a high risk for the enjoyment of human rights");
2️⃣ ввести мораторий на использование систем распознавания лиц в общественных местах ("Impose a moratorium on the use of remote biometric recognition technologies in public spaces").
Предлагаемые запреты не носят абсолютный характер:
1️⃣ в первом случае делается оговорка, что такие запреты можно не применять, когда в работе и применении таких технологий учтены и внедрены механизмы защиты прав человека ("unless and until adequate safeguards to protect human rights are in place");
2️⃣ во втором случае также уточняется, что для не применения моратория как минимум уполномоченные органы должны обеспечить защиту персональных данных, максимально точную работу таких систем и минимизировать риски дискриминации + имплементировать рекомендации, которые были ранее озвучены в докладе Верховного комиссара № A/HRC/44/24, 2020 (53 (j) (i - v)) (см. стр. 18 здесь) ("at least until the authorities responsible can demonstrate compliance with privacy and data protection standards and the absence of significant accuracy issues and discriminatory impacts, and until all the recommendations set out in A/HRC/44/24, paragraph 53 (j) (i–v), are implemented").
Текст доклада можно посмотреть здесь.
Система подотчетности ИИ (СП США).pdf
578.5 KB
🇺🇸📃 В июне Счетная палата США выпустила доклад под названием «Искусственный интеллект: система подотчетности для федеральных агентств и иных организаций».
Целью разработки данного документа является обеспечение подотчетности и ответственного применения технологий ИИ федеральными агентствами и иными организациями, участвующими в проектировании, разработке, развертывании и мониторинге систем на основе алгоритмов.
Разработанная система подотчетности ИИ базируется на четырех взаимодополняющих элементах, которые затрагивают:
1️⃣ Управление
2️⃣ Данные
3️⃣ Производительность
4️⃣ Мониторинг
Каждому из элементов посвящен отдельный раздел, который включает в себя перечень вопросов, необходимых к рассмотрению организациям, аудиторам и сторонними экспертами, а также процедуры аудита и типы доказательств.
Мы хотим поделиться с вами переводом краткого содержания документа.
С полной версией документа можно ознакомиться по ссылке.
Целью разработки данного документа является обеспечение подотчетности и ответственного применения технологий ИИ федеральными агентствами и иными организациями, участвующими в проектировании, разработке, развертывании и мониторинге систем на основе алгоритмов.
Разработанная система подотчетности ИИ базируется на четырех взаимодополняющих элементах, которые затрагивают:
1️⃣ Управление
2️⃣ Данные
3️⃣ Производительность
4️⃣ Мониторинг
Каждому из элементов посвящен отдельный раздел, который включает в себя перечень вопросов, необходимых к рассмотрению организациям, аудиторам и сторонними экспертами, а также процедуры аудита и типы доказательств.
Мы хотим поделиться с вами переводом краткого содержания документа.
С полной версией документа можно ознакомиться по ссылке.
🇪🇺 В ЕС опубликованы два документа, демонстрирующие, в числе прочих, планируемую позицию ЕС в отношении ИИ как минимум до 2030 года.
1️⃣ Предлагаемая программа развития до 2030 года "Путь к Цифровому Десятилетию" ("Path to a Digital Decade"). В целевых показателях программы предусмотрено, что к 2030 году не меньше 75% всего европейского бизнеса должно внедрить в своей работе технологии ИИ, больших данных и облачных вычислений;
2️⃣ Мнение ("Opinion") Европейского комитета по общественным и экономическим (EESC) вопросам по цифровизации экономики с фокусом на человекоориентированный ИИ. Основные положения:
- в ближайшее время EESC представит свою позицию по готовящемуся регламенту по регулированию ИИ;
- EESC обратил особое внимание на использование ИИ в трудоустройстве и на рабочих местах. По-видимому, EESC будет настаивать, чтобы эти положения были максимально подробно регламентированы в будущем Artificial Intelligence Act:
Во-первых, всем работникам "надо гарантировать "достойные условия труда" (хотя "decent work must be guaranteed for all employees" можно перевести как и наличие хороших рабочих мест);
Во-вторых, при внедрении ИИ, которое может затронуть интересы работников, необходимо обеспечить участие этих работников и их представителей на самых ранних стадиях внедрения ИИ. Цель - голос работников должен учитываться, чтобы определиться, как именно использовать ИИ в рабочих процессах + работники должны заблаговременно подготовиться к цифровизации и приобрести новые квалификации;
- EESC призывает к разработке "адекватного регулирования, которое бы позволило компаниям утверждать справедливость, надёжность и безопасность их систем ИИ с учётом высочайшего уровня защиты интересов потребителей и работников" ("The EESC calls for an adequate framework to be developed to allow companies to assert the fairness, reliability and security of their artificial intelligence systems, taking into account the highest possible level of consumer and worker protection");
- при этом EESC пока воздерживается от дачи собственной дефиниции понятия "искусственный интеллект" для целей подготовки Artificial Intelligence Act.
1️⃣ Предлагаемая программа развития до 2030 года "Путь к Цифровому Десятилетию" ("Path to a Digital Decade"). В целевых показателях программы предусмотрено, что к 2030 году не меньше 75% всего европейского бизнеса должно внедрить в своей работе технологии ИИ, больших данных и облачных вычислений;
2️⃣ Мнение ("Opinion") Европейского комитета по общественным и экономическим (EESC) вопросам по цифровизации экономики с фокусом на человекоориентированный ИИ. Основные положения:
- в ближайшее время EESC представит свою позицию по готовящемуся регламенту по регулированию ИИ;
- EESC обратил особое внимание на использование ИИ в трудоустройстве и на рабочих местах. По-видимому, EESC будет настаивать, чтобы эти положения были максимально подробно регламентированы в будущем Artificial Intelligence Act:
Во-первых, всем работникам "надо гарантировать "достойные условия труда" (хотя "decent work must be guaranteed for all employees" можно перевести как и наличие хороших рабочих мест);
Во-вторых, при внедрении ИИ, которое может затронуть интересы работников, необходимо обеспечить участие этих работников и их представителей на самых ранних стадиях внедрения ИИ. Цель - голос работников должен учитываться, чтобы определиться, как именно использовать ИИ в рабочих процессах + работники должны заблаговременно подготовиться к цифровизации и приобрести новые квалификации;
- EESC призывает к разработке "адекватного регулирования, которое бы позволило компаниям утверждать справедливость, надёжность и безопасность их систем ИИ с учётом высочайшего уровня защиты интересов потребителей и работников" ("The EESC calls for an adequate framework to be developed to allow companies to assert the fairness, reliability and security of their artificial intelligence systems, taking into account the highest possible level of consumer and worker protection");
- при этом EESC пока воздерживается от дачи собственной дефиниции понятия "искусственный интеллект" для целей подготовки Artificial Intelligence Act.
Forwarded from База знаний AI
📖 Почитать на досуге: книга о том, как изменится мир благодаря ИИ к 2041 году
Ученый, венчурный инвестор, бывший президент Google China и экс-сотрудник Apple и Microsoft Кай-Фу Ли вместе с романистом Чэнем Цюфанем в книге AI 2041: Ten Visions for Our Future приводят 10 рассказов о возможных новых реалиях 2041 года.
Например, о появлении индустрии «перераспределения рабочих мест» из-за ИИ в Сан-Франциско, виртуальных компаньонах с совершенными навыками обработки естественного языка, которые предлагают близнецам-сиротам в Сеуле новые способы общения и т.д.
👉🏻 Читать книгу (англ.)
💬 Напишите в комментариях, какие еще книги об искусственном интеллекте читаете вы и готовы рекомендовать другим?
Ученый, венчурный инвестор, бывший президент Google China и экс-сотрудник Apple и Microsoft Кай-Фу Ли вместе с романистом Чэнем Цюфанем в книге AI 2041: Ten Visions for Our Future приводят 10 рассказов о возможных новых реалиях 2041 года.
Например, о появлении индустрии «перераспределения рабочих мест» из-за ИИ в Сан-Франциско, виртуальных компаньонах с совершенными навыками обработки естественного языка, которые предлагают близнецам-сиротам в Сеуле новые способы общения и т.д.
👉🏻 Читать книгу (англ.)
💬 Напишите в комментариях, какие еще книги об искусственном интеллекте читаете вы и готовы рекомендовать другим?
🇬🇧Court of Appeal вынес решение по апелляции в деле Thaler v Comptroler General of patents, trade marks and designs и ещё раз подтвердил, что по английскому праву ИИ не может быть изобретателем по смыслу Закона о патентах 1977 (Patents act 1977). Решение Высокого Суда (High Court), на которое была подана жалоба, осталось в силе.
Делимся текстом решения в апелляции по этому делу (см. здесь).
Делимся текстом решения в апелляции по этому делу (см. здесь).
World IP Review
English Court of Appeal rejects DABUS appeal, Birss dissents
The English Court of Appeal has rejected physicist Stephen Thaler’s latest bid to list his artificial intelligence machine as an inventor in a 2:1 decision.
🇬🇧 В Великобритании опубликована новая стратегия развития ИИ.
GOV.UK
National AI Strategy - HTML version
Over the next ten years, the impact of AI on businesses across the UK and the wider world will be profound - and UK universities and startups are already leading the world in building the tools for the new economy. New discoveries and methods for harnessing…
🇬🇧🇦🇪 ...а также подписан Меморандум о сотрудничестве с ОАЭ в сфере искусственного интеллекта (текст коммюнике здесь). Меморандум подразумевает обмен знаниями, взаимные инвестиции и разработку единых стандартов в сфере искусственного интеллекта.
GOV.UK
United Kingdom – United Arab Emirates Joint Communiqué: a Partnership for the Future
UK and UAE agree to a new partnership to strengthen deep and historic relations that the two countries share.
🇪🇺🚁📊 Делимся обзором действующего регулирования ЕС в области беспилотной авиации. Автор в доступной и достаточно краткой форме рассказал суть многих важных вопросов (классификация, сертификация, разрешения на полёты и ограничения). Материал подойдёт тем, кому интересно узнать, как регулируют дронов за рубежом.
Lexology
Drone Regulation: European Union
Following the publication of Regulation (EU) 2018/1139 in the Official Journal of the European Union on 22 August 2018 (the ‘new’ Basic Regulation), a…
🇪🇺📄 Опубликованы два мнения (Opinion) Европейского социально - экономического комитета относительно регулирования ИИ.
1️⃣ Мнение о текущей редакции проекта Artificial Intelligence Act (AIA). Ниже часть позиции:
- предлагается новая дефиниция "систем ИИ":
"Artificial intelligence system' (AI system) means software that can, in an automated manner, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations or decisions, influencing the environment it interacts with"
- у комитета возникли возникли вопросу к классификации ИИ по "пирамиде" из ИИ высокого, среднего и небольшого риска. По мнению комитета, рекомендации по устранению среднего и высокого риска недостаточно эффективны.
- комитет также прокомментировал вопрос делегирования принятия решений искусственному интеллекту: в AIA не хватает идеи о том, что ИИ расширит возможности для принятия решений, а не заменит принятие решений человеком. По мнению комитета, сейчас в AIA есть презумпция, что как только требования к ИИ среднего и высокого риска будут выполнены, ИИ сможет в значительной степени заменить человеческое принятие решений.
В ответ на это комитет настоятельно рекомендует, чтобы AIA предусматривал, чтобы определенные решения оставались прерогативой людей, особенно в тех областях, где эти решения имеют моральный компонент и правовые последствия или влияние на общество (например, в судебной системе, правоохранительных органах, социальных службах, здравоохранении, в вопросах жилья, оказания финансовых услуг, трудовых отношений и образования).
- насчёт запрещённых кейсов использования ИИ:
а) манипулятивный ИИ. Чтобы запретить манипулирование людьми с целью навязывания им опасного поведения Комитет рекомендует изменить п 1(а) ст. 5:
(…) an AI system deployed, aimed at or used to materially distort a person's behaviour in a manner that causes or is likely to cause harm to that person's, another person's or group of persons' fundamental rights, including their physical or psychological health and safety, or to democracy and the rule of law"
Комитет рекомендует таким же образом изменить запрещенную практику использования уязвимостей в статье 5 (1) (b), чтобы включить в нее ущерб основным правам, включая физический или психологический ущерб.
б) социальный скоринг. Комитет рекомендует распространить запрет не только на гос органы, но и на частный сектор
в) распознавание эмоций (сейчас присвоен "низкий риск" в проекте AIA). Комитет против данной практики и считает её чрезвычайно инвазивной, не научной и нарушающей права человека. Комитет в целом занимает жёсткую позицию к биометрической идентификации и призывает ввести максимальные ограничения к использованию данной технологии.
- высокорисковый ИИ. Помимо прочего, Комитет предлагает включить в AIA пять требований из Руководства по этике надёжного ИИ (Ethics guidelines for trustworthy AI ("EGTAI"): (i) человеческое вмешательство, (ii) конфиденциальность, (iii) разнообразие, недискриминация и справедливость, (iv) объяснимость. и (v) экологическое и социальное благополучие
1️⃣ Мнение о текущей редакции проекта Artificial Intelligence Act (AIA). Ниже часть позиции:
- предлагается новая дефиниция "систем ИИ":
"Artificial intelligence system' (AI system) means software that can, in an automated manner, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations or decisions, influencing the environment it interacts with"
- у комитета возникли возникли вопросу к классификации ИИ по "пирамиде" из ИИ высокого, среднего и небольшого риска. По мнению комитета, рекомендации по устранению среднего и высокого риска недостаточно эффективны.
- комитет также прокомментировал вопрос делегирования принятия решений искусственному интеллекту: в AIA не хватает идеи о том, что ИИ расширит возможности для принятия решений, а не заменит принятие решений человеком. По мнению комитета, сейчас в AIA есть презумпция, что как только требования к ИИ среднего и высокого риска будут выполнены, ИИ сможет в значительной степени заменить человеческое принятие решений.
В ответ на это комитет настоятельно рекомендует, чтобы AIA предусматривал, чтобы определенные решения оставались прерогативой людей, особенно в тех областях, где эти решения имеют моральный компонент и правовые последствия или влияние на общество (например, в судебной системе, правоохранительных органах, социальных службах, здравоохранении, в вопросах жилья, оказания финансовых услуг, трудовых отношений и образования).
- насчёт запрещённых кейсов использования ИИ:
а) манипулятивный ИИ. Чтобы запретить манипулирование людьми с целью навязывания им опасного поведения Комитет рекомендует изменить п 1(а) ст. 5:
(…) an AI system deployed, aimed at or used to materially distort a person's behaviour in a manner that causes or is likely to cause harm to that person's, another person's or group of persons' fundamental rights, including their physical or psychological health and safety, or to democracy and the rule of law"
Комитет рекомендует таким же образом изменить запрещенную практику использования уязвимостей в статье 5 (1) (b), чтобы включить в нее ущерб основным правам, включая физический или психологический ущерб.
б) социальный скоринг. Комитет рекомендует распространить запрет не только на гос органы, но и на частный сектор
в) распознавание эмоций (сейчас присвоен "низкий риск" в проекте AIA). Комитет против данной практики и считает её чрезвычайно инвазивной, не научной и нарушающей права человека. Комитет в целом занимает жёсткую позицию к биометрической идентификации и призывает ввести максимальные ограничения к использованию данной технологии.
- высокорисковый ИИ. Помимо прочего, Комитет предлагает включить в AIA пять требований из Руководства по этике надёжного ИИ (Ethics guidelines for trustworthy AI ("EGTAI"): (i) человеческое вмешательство, (ii) конфиденциальность, (iii) разнообразие, недискриминация и справедливость, (iv) объяснимость. и (v) экологическое и социальное благополучие
2️⃣ Мнение об использовании ИИ в машинном оборудовании (machinery). Речь идёт о пересмотре текста Директивы 2006/42/EC o машинном оборудовании.
- текущие предложения Еврокомиссии предусматривают отмену оценки соответствия "высокорискового" машинного оборудования силами самих производителей. То есть если хотя бы в 0,01% работы машинного оборудования используется ИИ, оборудование автоматически становится высокорисковым и его нужно полностью тестировать. Это большая проблема если а) ИИ, используемый в оборудовании, используется для аналитических/статистичtских целей и не влияет на работу оборудования и/или б) речь идёт о небольших выпусках станков/индивидуально произведённом оборудовании (так как расходы на оценку соответствия будут несопоставимыми). Комитет предлагает распространять на подобные случае действующие правила, позволяющие производителям самостоятельно оценивать соответствие машинного оборудования требованиям безопасности;
- что касается единых процедур тестирования и уведомления, EESC рекомендует ввести европейский сертификат для компаний, чтобы продемонстрировать надежность заслуживающих доверия систем искусственного интеллекта
- текущие предложения Еврокомиссии предусматривают отмену оценки соответствия "высокорискового" машинного оборудования силами самих производителей. То есть если хотя бы в 0,01% работы машинного оборудования используется ИИ, оборудование автоматически становится высокорисковым и его нужно полностью тестировать. Это большая проблема если а) ИИ, используемый в оборудовании, используется для аналитических/статистичtских целей и не влияет на работу оборудования и/или б) речь идёт о небольших выпусках станков/индивидуально произведённом оборудовании (так как расходы на оценку соответствия будут несопоставимыми). Комитет предлагает распространять на подобные случае действующие правила, позволяющие производителям самостоятельно оценивать соответствие машинного оборудования требованиям безопасности;
- что касается единых процедур тестирования и уведомления, EESC рекомендует ввести европейский сертификат для компаний, чтобы продемонстрировать надежность заслуживающих доверия систем искусственного интеллекта
🇪🇺📄 Сотрудники Еврокомиссии опубликовали доклад, в котором описали текущую статистику внедрения ИИ в Евросоюзе и планы, как планируется достичь 75% внедрения ИИ в европейском бизнесе к 2030 году. Поскольку документ большой, основные положения доклада опубликуем в нескольких сообщениях.
(1/2):
1) целевой показатель к 2030 году: 75% внедрения ИИ в бизнес. Текущий средний показатель по ЕС (данные 2020 года): ~25%
В части внедрения ИИ лидирует Чехия (40%).
2) какие шаги уже предприняты для "ИИзации":
2018 - Комиссия и страны - участники приняли "Скоординированный план по ИИ" (Coordinated Plan on AI). В соответствии с планом государства приняли собственные стратегии ИИ.
2021 - Комиссия обновила Скоординированый план и предложила проект AI Act. Меры в целом находят широкую поддержку среди заинтересованных участников.
3) текущие и дальнейшие шаги
- продвижение принципов этики ИИ ("trustworthy AI") и поддержка высокотехнологичного бизнеса в рамках программ Horizon Europe и Digital Europe (конкретные действия приведены в новом скоординированном плане)
- продвижение Европейской экосистемы передового опыта внедрения ИИ (European Ecosystem of Excellence for AI)
1) целевой показатель к 2030 году: 75% внедрения ИИ в бизнес. Текущий средний показатель по ЕС (данные 2020 года): ~25%
В части внедрения ИИ лидирует Чехия (40%).
2) какие шаги уже предприняты для "ИИзации":
2018 - Комиссия и страны - участники приняли "Скоординированный план по ИИ" (Coordinated Plan on AI). В соответствии с планом государства приняли собственные стратегии ИИ.
2021 - Комиссия обновила Скоординированый план и предложила проект AI Act. Меры в целом находят широкую поддержку среди заинтересованных участников.
3) текущие и дальнейшие шаги
- продвижение принципов этики ИИ ("trustworthy AI") и поддержка высокотехнологичного бизнеса в рамках программ Horizon Europe и Digital Europe (конкретные действия приведены в новом скоординированном плане)
- продвижение Европейской экосистемы передового опыта внедрения ИИ (European Ecosystem of Excellence for AI)
(2/2) в продолжение шагов по мерам внедрения ИИ в ЕС:
- продвижение Европейской экосистемы передового опыта внедрения ИИ (European Ecosystem of Excellence for AI) через ГЧП и НИОКР
- создание центров тестирования и экспериментирования в области ИИ (AI testing and experimentation facilities (TEFs). Центры будут направлены на поддержку вывода на европейский рынок инновационных решений в области здравоохранения, промышленности, сх и умных городов
- продвижение единой европейской платформы "AI on Demand" в качестве маркетплейса ИИ решений
- расширение сети цифровых хабов (European Digital Innovation Hubs) с расчётом минимум 1 хаб на государство - участника.
- продвижение Европейской экосистемы передового опыта внедрения ИИ (European Ecosystem of Excellence for AI) через ГЧП и НИОКР
- создание центров тестирования и экспериментирования в области ИИ (AI testing and experimentation facilities (TEFs). Центры будут направлены на поддержку вывода на европейский рынок инновационных решений в области здравоохранения, промышленности, сх и умных городов
- продвижение единой европейской платформы "AI on Demand" в качестве маркетплейса ИИ решений
- расширение сети цифровых хабов (European Digital Innovation Hubs) с расчётом минимум 1 хаб на государство - участника.
🌍 НАТО присоединяется к регулированию этики ИИ. В разрабатываемой стратегии Альянса по развитию и внедрению ИИ в области обороны и безопасности будут установлены этические стандарты. Основой этического регулирования ИИ НАТО называет принципы ответственности (accountability) и регулирования (governavility).
NATO
Deputy Secretary General: NATO will set the standard for ethical use of new technologies
In a virtual address to the “AI and Cyber – An Abundance of Potential” conference on Monday (27 September 2021), Deputy Secretary General Mircea Geoană stressed that NATO is determined to set the standard for the ethical use of emerging and disruptive technologies.