🇿🇦Upd: CIPC обновила информацию о выдаче патента, в которой изобретателем указан не человек, а система ИИ. Подтверждено, что патент официально выдан. Таким образом, в ЮАР впервые в мире выдали патент, в котором ИИ, а не человек, признан автором изобретения (inventor).
⚡️🇦🇺В Австралии в рамках дела Thaler v Commissioner of Patents [2021] FCA 879 суд признал, что ИИ может быть автором изобретения (inventor) (текст решения пока не выложен в общий доступ; обзор решения опубликован здесь). Так Австралия стала ещё одной страной наряду с ЮАР, в которой не только человек, но и ИИ может считаться автором изобретения.
Allens
World first: Australia says ‘yes’ to AI inventors
The decision in Thaler v Commissioner of Patents [2021] FCA 879 is the first judicial determination in the world in favour of AI systems being named as inventors of a patent. The availability of patent protection for AI-generated inventions is a vexed and…
🇺🇸📊 Делимся ранее опубликованными рекомендациями Счётной Палаты США (U.S. Government Accountability Office) об обеспечении подотчётности в работе систем ИИ в работе государственных органов и других лиц ("Artificial Intelligence: An Accountability Framework for Federal Agencies and Other Entities").
Цель рекомендаций - убедиться, что в работе госорганов и в ходе реализации государственных программ ИИ применяется ответственно.
Основные положения доклада в формате one pager доступны здесь.
Цель рекомендаций - убедиться, что в работе госорганов и в ходе реализации государственных программ ИИ применяется ответственно.
Основные положения доклада в формате one pager доступны здесь.
🌍📊 Делимся докладом ОЭСР об использовании ИИ в финансовой сфере ("Artificial Intelligence, Machine Learning, and Big Data in Finance. Opportunities, Challenges and implications for Policy Makers").
В докладе рассматриваются основные способы применения ИИ в финансовом секторе, связанные с этим риски и рекомендации по их регулированию.
Из ключевых рекомендаций ОЭСР в области регулирования:
1️⃣ предусмотреть обязательные требования или "лучшие практики" в области управления данными. Речь идёт прежде всего о качестве данных, обоснованного использования датасетов и мер, применяемых для предотвращения предвзятости;
2️⃣ предусмотреть обязанность уведомления пользователей о взаимодействии с ИИ (как на стадии оказания финансовых услуг, так и предварительно, чтобы пользователь мог сделать осознанный выбор). При этом рекомендуется раскрывать пользователям в доступной для них форме сведения о возможностях и ограничениях работы систем ИИ, с которыми они будут взаимодействовать;
3️⃣ предусмотреть ограничения по доступу к финансовым решениям на базе ИИ ("suitability requirements for AI driven financial services"). Смысл данной меры в том, бизнесу рекомендуется принимать меры, чтобы убедиться, что потенциальные клиенты действительно понимают, что они будут взаимодействовать с ИИ и как это будет работать в их случае (чтобы в случае непонимания со стороны потенциального клиента предложить им более "традиционный" формат финансовых услуг);
4️⃣ урегулировать проблему недостаточной (по мнению ОЭСР) прозрачности и предсказуемости систем ИИ. В этой связи ОЭСР обращает внимание, что акцент в таких вопросах стоит сместить с документации процесса разработки в сторону прогнозирования поведения системы ИИ и риск-менеджмента на базе стресс-тестирования и исследования результатов ("prediction to model behaviour and outcomes, and supervisors may wish to look into more technical ways of managing risk, such as adversarial model stress testing or outcome-based metrics");
5️⃣ распределение и закрепление ответственности лиц, отвечающих за тот или иной "этап жизни" системы ИИ. Предполагается, что определение лиц, ответственных за ту или иную ошибку, повысит доверие к искусственному интеллекту;
6️⃣ ПО для финансовых услуг на основе ИИ следует тестировать в режиме "экстремальных рыночных условий" ("extreme market conditions");
7️⃣ рекомендуется внедрять системы перехода в "ручной режим" ("kill switch") в случае неспособности системы ИИ адекватно реагировать на рыночные колебания, а также предусматривать возможные "бэкапы", чтобы подобное "аварийное отключение" не парализовало работу ("Back-up plans, models and processes should be in place to ensure business continuity in case the models fails or acts in unexpected ways");
8️⃣ рекомендуется разрабатывать регламенты обучения и тестирования (которое следует проводить постоянно). Датасеты, используемые для обучения, должны быть достаточно большими, чтобы учитывать нелинейные отношения между теми или иными сведениями ("Datasets used for training must be large enough to capture non-linear relationships");
9️⃣ рекомендуется предусмотреть процедуры, а) предусматривающие принятие конечного решения человеком (в особо важных ситуациях) ("human primacy in decision making when it comes to higher value use-cases") и б) позволяющие человеку оспаривать решения, принятые ИИ/требовать компенсации убытков ("Authorities could consider the introduction of processes that can allow customers to challenge the outcome of AI models and seek redress"). В качестве примера рассматривается GDPR.
В докладе рассматриваются основные способы применения ИИ в финансовом секторе, связанные с этим риски и рекомендации по их регулированию.
Из ключевых рекомендаций ОЭСР в области регулирования:
1️⃣ предусмотреть обязательные требования или "лучшие практики" в области управления данными. Речь идёт прежде всего о качестве данных, обоснованного использования датасетов и мер, применяемых для предотвращения предвзятости;
2️⃣ предусмотреть обязанность уведомления пользователей о взаимодействии с ИИ (как на стадии оказания финансовых услуг, так и предварительно, чтобы пользователь мог сделать осознанный выбор). При этом рекомендуется раскрывать пользователям в доступной для них форме сведения о возможностях и ограничениях работы систем ИИ, с которыми они будут взаимодействовать;
3️⃣ предусмотреть ограничения по доступу к финансовым решениям на базе ИИ ("suitability requirements for AI driven financial services"). Смысл данной меры в том, бизнесу рекомендуется принимать меры, чтобы убедиться, что потенциальные клиенты действительно понимают, что они будут взаимодействовать с ИИ и как это будет работать в их случае (чтобы в случае непонимания со стороны потенциального клиента предложить им более "традиционный" формат финансовых услуг);
4️⃣ урегулировать проблему недостаточной (по мнению ОЭСР) прозрачности и предсказуемости систем ИИ. В этой связи ОЭСР обращает внимание, что акцент в таких вопросах стоит сместить с документации процесса разработки в сторону прогнозирования поведения системы ИИ и риск-менеджмента на базе стресс-тестирования и исследования результатов ("prediction to model behaviour and outcomes, and supervisors may wish to look into more technical ways of managing risk, such as adversarial model stress testing or outcome-based metrics");
5️⃣ распределение и закрепление ответственности лиц, отвечающих за тот или иной "этап жизни" системы ИИ. Предполагается, что определение лиц, ответственных за ту или иную ошибку, повысит доверие к искусственному интеллекту;
6️⃣ ПО для финансовых услуг на основе ИИ следует тестировать в режиме "экстремальных рыночных условий" ("extreme market conditions");
7️⃣ рекомендуется внедрять системы перехода в "ручной режим" ("kill switch") в случае неспособности системы ИИ адекватно реагировать на рыночные колебания, а также предусматривать возможные "бэкапы", чтобы подобное "аварийное отключение" не парализовало работу ("Back-up plans, models and processes should be in place to ensure business continuity in case the models fails or acts in unexpected ways");
8️⃣ рекомендуется разрабатывать регламенты обучения и тестирования (которое следует проводить постоянно). Датасеты, используемые для обучения, должны быть достаточно большими, чтобы учитывать нелинейные отношения между теми или иными сведениями ("Datasets used for training must be large enough to capture non-linear relationships");
9️⃣ рекомендуется предусмотреть процедуры, а) предусматривающие принятие конечного решения человеком (в особо важных ситуациях) ("human primacy in decision making when it comes to higher value use-cases") и б) позволяющие человеку оспаривать решения, принятые ИИ/требовать компенсации убытков ("Authorities could consider the introduction of processes that can allow customers to challenge the outcome of AI models and seek redress"). В качестве примера рассматривается GDPR.
🇨🇳 Управление по вопросам киберпространства КНР (CAC) опубликовало для общественного обсуждения проект Регламента работы рекомендательных систем. Документ представляет собой свод ключевых положений к таким системам, которые включают:
1️⃣ необходимость следования принципам справедливости, открытости, научной обоснованности и добросовестности;
2️⃣ необходимость учёта не только нормативного регулирования, но и "норм общественной морали и этики", а также "деловой и профессиональной этики" (ст. 4);
3️⃣ необходимость более активного саморегулирования и разработки отраслевых рекомендаций (ст. 5);
4️⃣ недопустимость манипуляции сознанием с целью совершения пользователем противоправных действий, разрушения экономики и нарушения общественного порядка, а также для распространения запрещённых законом сведений (ст. 6);
5️⃣ (из примеров более конкретных положений) необходимость донести для сведения пользователей основные принципы и цели работы рекомендательной системы (ст. 14);
6️⃣ у пользователя должна быть возможность "отключить" рекомендательную систему (ст. 15);
7️⃣ если пользователь - несовершеннолетнее лицо - рекомендательная система не может использоваться для побуждения данных лиц к опасным для их здоровья и развития поступкам, не должна побуждать их совершать аморальные поступки и заводить вредные привычки (ст. 16) и др.
1️⃣ необходимость следования принципам справедливости, открытости, научной обоснованности и добросовестности;
2️⃣ необходимость учёта не только нормативного регулирования, но и "норм общественной морали и этики", а также "деловой и профессиональной этики" (ст. 4);
3️⃣ необходимость более активного саморегулирования и разработки отраслевых рекомендаций (ст. 5);
4️⃣ недопустимость манипуляции сознанием с целью совершения пользователем противоправных действий, разрушения экономики и нарушения общественного порядка, а также для распространения запрещённых законом сведений (ст. 6);
5️⃣ (из примеров более конкретных положений) необходимость донести для сведения пользователей основные принципы и цели работы рекомендательной системы (ст. 14);
6️⃣ у пользователя должна быть возможность "отключить" рекомендательную систему (ст. 15);
7️⃣ если пользователь - несовершеннолетнее лицо - рекомендательная система не может использоваться для побуждения данных лиц к опасным для их здоровья и развития поступкам, не должна побуждать их совершать аморальные поступки и заводить вредные привычки (ст. 16) и др.
🚁🇮🇳📃Правительство Индии утвердило новые правила использования беспилотных авиационных систем (см. наш обзор первой версии проекта новых правил здесь). Правила существенно упрощают жизнь эксплуатантам и сводят к минимуму документооборот. Пока текст финальной версии доступен только на хинди, но министерство гражданской авиации Индии подготовило обзор ключевых положений итогового текста Правил (см. здесь) (а здесь можно посмотреть сравнение Правил (в общих чертах) с аналогичными требованиями в США, ЕС и Великобритании).
Telegram
Центр регулирования ИИ
⚡️🚁🇮🇳📃 Министерство гражданской авиации (Ministry of civil aviation) Индии опубликовало проект Правил использования БВС 2021 года ("The Drone Rules, 2021"). Судя по разъяснениям министерства, Правила основываются на принципах "доверия, самостоятельной сертификации…
🇦🇺Патентное бюро Австралии (Commissioner of Patents) подало апелляцию на решение по делу Thaler v Commissioner of Patents, в котором ранее суд признал, что ИИ может быть автором изобретения (inventor). Мы будем отслеживать изменения по этому делу и с радостью поделимся новостями.
www.ipaustralia.gov.au
Commissioner to appeal court decision allowing artificial intelligence to be an inventor | IP Australia
On 30 July 2021, the Federal Court found in Thaler v Commissioner of Patents [2021] FCA 87
🚁🇷🇺📃 Минобороны подготовило изменения в правила расследования авиационных происшествий, регламентирующие порядок расследования инцидентов с государственными БВС (id проекта 01/01/09-21/00119840). Ожидается, что планируемые изменения вступят в силу в октябре.
regulation.gov.ru
Нормативные правовые акты - Официальный сайт для размещения информации о подготовке нормативных правовых актов и результатах их…
Официальный сайт для размещения информации о подготовке федеральными органами исполнительной власти проектов нормативных правовых актов и результатах их общественного обсуждения
🇺🇸 В США суд вынес решение по делу Thaler v Iancu (1:20-cv-00903) и указал, что искусственный интеллект не может считаться автором произведения. На данный момент такой взгляд превалирует в мировой практикке (официально ИИ указан в качестве автора изобретения в ЮАР и в Австралии (но в случае с Австралией подана апелляция).
Law360
Only Humans, Not AI, Can Be An Inventor, Va. Judge Rules - Law360
A Virginia federal judge ruled Thursday that artificial intelligence cannot be listed as an inventor on a patent application, holding that the Patent Act makes clear that inventing is the exclusive legal province of human beings.
🇹🇼 Делимся обзором решения суда Китайской республики по интеллектуальным правам (Taiwan's Intellectual Property & Commercial Court) по делу Thaler v. Taiwan IP Office (TIPO), 110 Xing Zhuan Su 3. В этом деле (также как, например, в США или Австралии) также рассматривался вопрос, может ли ИИ считаться автором изобретения. Суд посчитал, что не может, так как:
1️⃣ изобретение подразумевает наличие "умственной созидательной деятельности" ("mental creation"), присущей только человеку;
2️⃣ ИИ неправоспособен;
3️⃣ в Руководстве по оценке патентов (Patent examination guidelines) прямо предусмотрено, что изобретателем должен быть человек.
1️⃣ изобретение подразумевает наличие "умственной созидательной деятельности" ("mental creation"), присущей только человеку;
2️⃣ ИИ неправоспособен;
3️⃣ в Руководстве по оценке патентов (Patent examination guidelines) прямо предусмотрено, что изобретателем должен быть человек.
Mondaq
Taiwan: DABUS The AI Is Denied Inventorship In Taiwan
Taiwan's Intellectual Property & Commercial Court published a decision on August 30, upholding the Taiwan IP Office's ruling that an artificial intelligence system cannot be named as a patent inventor.
🚗🇺🇸 В Нью-Йорке (New York city) приняты правила тестирования беспилотных автомобилей на дорогах общего пользования.
Чтобы начать испытывать ВАТС в городских условиях, нужно получить разрешение от местных властей. Для этого нужно, в числе прочего:
- заплатить 5 тысяч долларов в год
- докладывать о километраже, всех поломках, маршрутах и ДТП
- продемонстрировать, что беспилотник едет лучше, чем машина с человеком у руля.
Текст правил доступен здесь.
Чтобы начать испытывать ВАТС в городских условиях, нужно получить разрешение от местных властей. Для этого нужно, в числе прочего:
- заплатить 5 тысяч долларов в год
- докладывать о километраже, всех поломках, маршрутах и ДТП
- продемонстрировать, что беспилотник едет лучше, чем машина с человеком у руля.
Текст правил доступен здесь.
🌍 Мир выходит на новый виток регулирования ИИ. В начале речь шла исключительно о "гонке регулирования" между отдельными государствами, а ещё вчера - о выработке позиции отдельными международными органами. Сейчас же регулирование ИИ принимает глобальный и всесторонний характер.
ООН (+ ЮНЕСКО в качестве самостоятельного участника), Совет Европы, ЕС (в лице Еврокомиссии и Агенства по основным правам), ОЭСР, Всемирный Банк и ряд других международных организаций объединились для обсуждения и координации политик в области искусственного интеллекта на площадке Global Policy AI.
Участники поставили перед собой 3 задачи:
1⃣ Обеспечить этичность ИИ и доверие к нему;
2⃣ Обеспечить, что использование ИИ не будет ущемлять права человека и демократические ценности; и
3⃣ Обеспечить, что внедрение ИИ приведёт к устойчивому развитию общества.
Совместная работа этих органов в таком формате уже началась. Мы будем отслеживать, как развивается подобная инициатива, и будем делиться новостями.
ООН (+ ЮНЕСКО в качестве самостоятельного участника), Совет Европы, ЕС (в лице Еврокомиссии и Агенства по основным правам), ОЭСР, Всемирный Банк и ряд других международных организаций объединились для обсуждения и координации политик в области искусственного интеллекта на площадке Global Policy AI.
Участники поставили перед собой 3 задачи:
1⃣ Обеспечить этичность ИИ и доверие к нему;
2⃣ Обеспечить, что использование ИИ не будет ущемлять права человека и демократические ценности; и
3⃣ Обеспечить, что внедрение ИИ приведёт к устойчивому развитию общества.
Совместная работа этих органов в таком формате уже началась. Мы будем отслеживать, как развивается подобная инициатива, и будем делиться новостями.
Globalpolicy.AI
Globalpolicy.AI - Globalpolicy.AI
Achieving impact through intergovernmental co-operation on artificial intelligence About Key focus areas Events AI events calendar Events on Globalpolicy.AI Partners Reports FAQ Contact Search English Français Posted inCouncil of Europe Posted inEuropean…
🌍 Верховный комиссар ООН по правам человека (Office of the United Nations High Commissioner for Human Rights) Мишель Бешлет (Michelle Bachelet) озвучила опасения о влиянии некоторых технологий, использующих алгоритмы ИИ, на права человека и призвала:
1️⃣ запретить использование технологий ИИ, которые "не могут быть использованы в соответствии с международным правом прав человека...." и ввести мораторий в отношении технологий ИИ, "... которые несут риск реализации прав человека" ("Expressly ban AI applications that cannot be operated in compliance with international human rights law and impose moratoriums on the sale and use of AI systems that carry a high risk for the enjoyment of human rights");
2️⃣ ввести мораторий на использование систем распознавания лиц в общественных местах ("Impose a moratorium on the use of remote biometric recognition technologies in public spaces").
Предлагаемые запреты не носят абсолютный характер:
1️⃣ в первом случае делается оговорка, что такие запреты можно не применять, когда в работе и применении таких технологий учтены и внедрены механизмы защиты прав человека ("unless and until adequate safeguards to protect human rights are in place");
2️⃣ во втором случае также уточняется, что для не применения моратория как минимум уполномоченные органы должны обеспечить защиту персональных данных, максимально точную работу таких систем и минимизировать риски дискриминации + имплементировать рекомендации, которые были ранее озвучены в докладе Верховного комиссара № A/HRC/44/24, 2020 (53 (j) (i - v)) (см. стр. 18 здесь) ("at least until the authorities responsible can demonstrate compliance with privacy and data protection standards and the absence of significant accuracy issues and discriminatory impacts, and until all the recommendations set out in A/HRC/44/24, paragraph 53 (j) (i–v), are implemented").
Текст доклада можно посмотреть здесь.
1️⃣ запретить использование технологий ИИ, которые "не могут быть использованы в соответствии с международным правом прав человека...." и ввести мораторий в отношении технологий ИИ, "... которые несут риск реализации прав человека" ("Expressly ban AI applications that cannot be operated in compliance with international human rights law and impose moratoriums on the sale and use of AI systems that carry a high risk for the enjoyment of human rights");
2️⃣ ввести мораторий на использование систем распознавания лиц в общественных местах ("Impose a moratorium on the use of remote biometric recognition technologies in public spaces").
Предлагаемые запреты не носят абсолютный характер:
1️⃣ в первом случае делается оговорка, что такие запреты можно не применять, когда в работе и применении таких технологий учтены и внедрены механизмы защиты прав человека ("unless and until adequate safeguards to protect human rights are in place");
2️⃣ во втором случае также уточняется, что для не применения моратория как минимум уполномоченные органы должны обеспечить защиту персональных данных, максимально точную работу таких систем и минимизировать риски дискриминации + имплементировать рекомендации, которые были ранее озвучены в докладе Верховного комиссара № A/HRC/44/24, 2020 (53 (j) (i - v)) (см. стр. 18 здесь) ("at least until the authorities responsible can demonstrate compliance with privacy and data protection standards and the absence of significant accuracy issues and discriminatory impacts, and until all the recommendations set out in A/HRC/44/24, paragraph 53 (j) (i–v), are implemented").
Текст доклада можно посмотреть здесь.
Система подотчетности ИИ (СП США).pdf
578.5 KB
🇺🇸📃 В июне Счетная палата США выпустила доклад под названием «Искусственный интеллект: система подотчетности для федеральных агентств и иных организаций».
Целью разработки данного документа является обеспечение подотчетности и ответственного применения технологий ИИ федеральными агентствами и иными организациями, участвующими в проектировании, разработке, развертывании и мониторинге систем на основе алгоритмов.
Разработанная система подотчетности ИИ базируется на четырех взаимодополняющих элементах, которые затрагивают:
1️⃣ Управление
2️⃣ Данные
3️⃣ Производительность
4️⃣ Мониторинг
Каждому из элементов посвящен отдельный раздел, который включает в себя перечень вопросов, необходимых к рассмотрению организациям, аудиторам и сторонними экспертами, а также процедуры аудита и типы доказательств.
Мы хотим поделиться с вами переводом краткого содержания документа.
С полной версией документа можно ознакомиться по ссылке.
Целью разработки данного документа является обеспечение подотчетности и ответственного применения технологий ИИ федеральными агентствами и иными организациями, участвующими в проектировании, разработке, развертывании и мониторинге систем на основе алгоритмов.
Разработанная система подотчетности ИИ базируется на четырех взаимодополняющих элементах, которые затрагивают:
1️⃣ Управление
2️⃣ Данные
3️⃣ Производительность
4️⃣ Мониторинг
Каждому из элементов посвящен отдельный раздел, который включает в себя перечень вопросов, необходимых к рассмотрению организациям, аудиторам и сторонними экспертами, а также процедуры аудита и типы доказательств.
Мы хотим поделиться с вами переводом краткого содержания документа.
С полной версией документа можно ознакомиться по ссылке.
🇪🇺 В ЕС опубликованы два документа, демонстрирующие, в числе прочих, планируемую позицию ЕС в отношении ИИ как минимум до 2030 года.
1️⃣ Предлагаемая программа развития до 2030 года "Путь к Цифровому Десятилетию" ("Path to a Digital Decade"). В целевых показателях программы предусмотрено, что к 2030 году не меньше 75% всего европейского бизнеса должно внедрить в своей работе технологии ИИ, больших данных и облачных вычислений;
2️⃣ Мнение ("Opinion") Европейского комитета по общественным и экономическим (EESC) вопросам по цифровизации экономики с фокусом на человекоориентированный ИИ. Основные положения:
- в ближайшее время EESC представит свою позицию по готовящемуся регламенту по регулированию ИИ;
- EESC обратил особое внимание на использование ИИ в трудоустройстве и на рабочих местах. По-видимому, EESC будет настаивать, чтобы эти положения были максимально подробно регламентированы в будущем Artificial Intelligence Act:
Во-первых, всем работникам "надо гарантировать "достойные условия труда" (хотя "decent work must be guaranteed for all employees" можно перевести как и наличие хороших рабочих мест);
Во-вторых, при внедрении ИИ, которое может затронуть интересы работников, необходимо обеспечить участие этих работников и их представителей на самых ранних стадиях внедрения ИИ. Цель - голос работников должен учитываться, чтобы определиться, как именно использовать ИИ в рабочих процессах + работники должны заблаговременно подготовиться к цифровизации и приобрести новые квалификации;
- EESC призывает к разработке "адекватного регулирования, которое бы позволило компаниям утверждать справедливость, надёжность и безопасность их систем ИИ с учётом высочайшего уровня защиты интересов потребителей и работников" ("The EESC calls for an adequate framework to be developed to allow companies to assert the fairness, reliability and security of their artificial intelligence systems, taking into account the highest possible level of consumer and worker protection");
- при этом EESC пока воздерживается от дачи собственной дефиниции понятия "искусственный интеллект" для целей подготовки Artificial Intelligence Act.
1️⃣ Предлагаемая программа развития до 2030 года "Путь к Цифровому Десятилетию" ("Path to a Digital Decade"). В целевых показателях программы предусмотрено, что к 2030 году не меньше 75% всего европейского бизнеса должно внедрить в своей работе технологии ИИ, больших данных и облачных вычислений;
2️⃣ Мнение ("Opinion") Европейского комитета по общественным и экономическим (EESC) вопросам по цифровизации экономики с фокусом на человекоориентированный ИИ. Основные положения:
- в ближайшее время EESC представит свою позицию по готовящемуся регламенту по регулированию ИИ;
- EESC обратил особое внимание на использование ИИ в трудоустройстве и на рабочих местах. По-видимому, EESC будет настаивать, чтобы эти положения были максимально подробно регламентированы в будущем Artificial Intelligence Act:
Во-первых, всем работникам "надо гарантировать "достойные условия труда" (хотя "decent work must be guaranteed for all employees" можно перевести как и наличие хороших рабочих мест);
Во-вторых, при внедрении ИИ, которое может затронуть интересы работников, необходимо обеспечить участие этих работников и их представителей на самых ранних стадиях внедрения ИИ. Цель - голос работников должен учитываться, чтобы определиться, как именно использовать ИИ в рабочих процессах + работники должны заблаговременно подготовиться к цифровизации и приобрести новые квалификации;
- EESC призывает к разработке "адекватного регулирования, которое бы позволило компаниям утверждать справедливость, надёжность и безопасность их систем ИИ с учётом высочайшего уровня защиты интересов потребителей и работников" ("The EESC calls for an adequate framework to be developed to allow companies to assert the fairness, reliability and security of their artificial intelligence systems, taking into account the highest possible level of consumer and worker protection");
- при этом EESC пока воздерживается от дачи собственной дефиниции понятия "искусственный интеллект" для целей подготовки Artificial Intelligence Act.
Forwarded from База знаний AI
📖 Почитать на досуге: книга о том, как изменится мир благодаря ИИ к 2041 году
Ученый, венчурный инвестор, бывший президент Google China и экс-сотрудник Apple и Microsoft Кай-Фу Ли вместе с романистом Чэнем Цюфанем в книге AI 2041: Ten Visions for Our Future приводят 10 рассказов о возможных новых реалиях 2041 года.
Например, о появлении индустрии «перераспределения рабочих мест» из-за ИИ в Сан-Франциско, виртуальных компаньонах с совершенными навыками обработки естественного языка, которые предлагают близнецам-сиротам в Сеуле новые способы общения и т.д.
👉🏻 Читать книгу (англ.)
💬 Напишите в комментариях, какие еще книги об искусственном интеллекте читаете вы и готовы рекомендовать другим?
Ученый, венчурный инвестор, бывший президент Google China и экс-сотрудник Apple и Microsoft Кай-Фу Ли вместе с романистом Чэнем Цюфанем в книге AI 2041: Ten Visions for Our Future приводят 10 рассказов о возможных новых реалиях 2041 года.
Например, о появлении индустрии «перераспределения рабочих мест» из-за ИИ в Сан-Франциско, виртуальных компаньонах с совершенными навыками обработки естественного языка, которые предлагают близнецам-сиротам в Сеуле новые способы общения и т.д.
👉🏻 Читать книгу (англ.)
💬 Напишите в комментариях, какие еще книги об искусственном интеллекте читаете вы и готовы рекомендовать другим?
🇬🇧Court of Appeal вынес решение по апелляции в деле Thaler v Comptroler General of patents, trade marks and designs и ещё раз подтвердил, что по английскому праву ИИ не может быть изобретателем по смыслу Закона о патентах 1977 (Patents act 1977). Решение Высокого Суда (High Court), на которое была подана жалоба, осталось в силе.
Делимся текстом решения в апелляции по этому делу (см. здесь).
Делимся текстом решения в апелляции по этому делу (см. здесь).
World IP Review
English Court of Appeal rejects DABUS appeal, Birss dissents
The English Court of Appeal has rejected physicist Stephen Thaler’s latest bid to list his artificial intelligence machine as an inventor in a 2:1 decision.
🇬🇧 В Великобритании опубликована новая стратегия развития ИИ.
GOV.UK
National AI Strategy - HTML version
Over the next ten years, the impact of AI on businesses across the UK and the wider world will be profound - and UK universities and startups are already leading the world in building the tools for the new economy. New discoveries and methods for harnessing…
🇬🇧🇦🇪 ...а также подписан Меморандум о сотрудничестве с ОАЭ в сфере искусственного интеллекта (текст коммюнике здесь). Меморандум подразумевает обмен знаниями, взаимные инвестиции и разработку единых стандартов в сфере искусственного интеллекта.
GOV.UK
United Kingdom – United Arab Emirates Joint Communiqué: a Partnership for the Future
UK and UAE agree to a new partnership to strengthen deep and historic relations that the two countries share.
🇪🇺🚁📊 Делимся обзором действующего регулирования ЕС в области беспилотной авиации. Автор в доступной и достаточно краткой форме рассказал суть многих важных вопросов (классификация, сертификация, разрешения на полёты и ограничения). Материал подойдёт тем, кому интересно узнать, как регулируют дронов за рубежом.
Lexology
Drone Regulation: European Union
Following the publication of Regulation (EU) 2018/1139 in the Official Journal of the European Union on 22 August 2018 (the ‘new’ Basic Regulation), a…