🇷🇺 Делимся планом законопроектной деятельности Правительства на 2022 год.
Отдельное внимание обращаем на п. 28. По нему предполагается внести до ноября этого года законопроект, регулирующий ВАТС
Отдельное внимание обращаем на п. 28. По нему предполагается внести до ноября этого года законопроект, регулирующий ВАТС
🇨🇳Китай обозначил планы развития и поддержки робототехники в новом 5летнем плане.
Основные положения новой "пятилетки":
1) ключевая цель: сделать Китай неоспоримым лидером в области инноваций в робототехнике. Ожидается, что по итогам 5 летки индустрия робототехники будет показывать 20%й годовой рост
2) задачи:
- развитие научно-технического потенциала. При этом, как отмечают в некоторых обзорах, уделяется отдельное внимание технологиям интеграции "человек - машина"
- разработка и внедрение стандартов в области робототехники
- расширение сфер применение робототехники. Предполагается, что будут разработаны новые бизнес модели, расширяющие сферу их применения
- стимулирование поставок специализированных роботов компаниям, занятым в производствах, добыче ресурсов, сх, здравоохранении и коммунальном хозяйстве
- оптимизация производств. В рамках такого трека, в частности, запланированы, наример, меры налогового стимулирования, субсидирование, программы привлечения талантов.
Основные положения новой "пятилетки":
1) ключевая цель: сделать Китай неоспоримым лидером в области инноваций в робототехнике. Ожидается, что по итогам 5 летки индустрия робототехники будет показывать 20%й годовой рост
2) задачи:
- развитие научно-технического потенциала. При этом, как отмечают в некоторых обзорах, уделяется отдельное внимание технологиям интеграции "человек - машина"
- разработка и внедрение стандартов в области робототехники
- расширение сфер применение робототехники. Предполагается, что будут разработаны новые бизнес модели, расширяющие сферу их применения
- стимулирование поставок специализированных роботов компаниям, занятым в производствах, добыче ресурсов, сх, здравоохранении и коммунальном хозяйстве
- оптимизация производств. В рамках такого трека, в частности, запланированы, наример, меры налогового стимулирования, субсидирование, программы привлечения талантов.
🇷🇺 Делимся текстом Решения Совета по развитию цифровой экономики при Совете Федерации, ранее принятое по итогам заседания на тему "О внедрении технологии искусственного интеллекта
в экономике и социальной сфере"
в экономике и социальной сфере"
🇨🇳📃28 января Управление киберпространства Китая (The Cyberspace Administration of China, CAC) представило на обсуждение проект регулирования, позволяющего контролировать производство и распространение дипфейков, а именно манипулирование биометрическими данными лица или голоса с использованием технологий глубокого обучения или виртуальной реальности и т.д.
Общая информация о положениях регулирования:
◦ Поставщики дипфейкового контента будут обязаны соблюдать «social morality and ethics», а также «the correct political direction».
◦ Создатели контента должны получать согласие субъекта, кому принадлежит текст, аудио, изображения или видео, - контент, который может быть выдан за такого субъекта или использован в целях дезинформации или манипулирования. CAC подчеркивает важность этого шага, поскольку сейчас активно идет распространение сервисов глубокого синтеза, используемых некоторыми преступниками для производства, копирования, публикации и распространения незаконной информации.
◦ Доступ к дипфейкам или другому синтетическому медиа-контенту, созданному ИИ, будет подвергаться процессам проверки личности. Поставщики дипфейкового контента должны проводить проверку личности пользователей, прежде чем предоставлять им доступ к своим технологиям или дипфейковым продуктам.
Регулирование предусматривает штрафы в отношении некомплаенс создателей контента: в размере от 10 000 до 100 000 юаней (примерно от 1 600 до 16 000 долларов США) для впервые нарушивших регулирование, заядлые нарушители могут быть привлечены к уголовной ответственности. В соответствии с предлагаемым законодательством магазины приложений (app stores), в случае выявления нарушений, будут призваны удалить поставщиков технологий дипфейкового контента со своих платформ.
Общая информация о положениях регулирования:
◦ Поставщики дипфейкового контента будут обязаны соблюдать «social morality and ethics», а также «the correct political direction».
◦ Создатели контента должны получать согласие субъекта, кому принадлежит текст, аудио, изображения или видео, - контент, который может быть выдан за такого субъекта или использован в целях дезинформации или манипулирования. CAC подчеркивает важность этого шага, поскольку сейчас активно идет распространение сервисов глубокого синтеза, используемых некоторыми преступниками для производства, копирования, публикации и распространения незаконной информации.
◦ Доступ к дипфейкам или другому синтетическому медиа-контенту, созданному ИИ, будет подвергаться процессам проверки личности. Поставщики дипфейкового контента должны проводить проверку личности пользователей, прежде чем предоставлять им доступ к своим технологиям или дипфейковым продуктам.
Регулирование предусматривает штрафы в отношении некомплаенс создателей контента: в размере от 10 000 до 100 000 юаней (примерно от 1 600 до 16 000 долларов США) для впервые нарушивших регулирование, заядлые нарушители могут быть привлечены к уголовной ответственности. В соответствии с предлагаемым законодательством магазины приложений (app stores), в случае выявления нарушений, будут призваны удалить поставщиков технологий дипфейкового контента со своих платформ.
China Law Translate
互联网信息服务深度合成管理规定 (征求意见稿)
Provisions on the Administration of Deep Synthesis Internet Information Services (Draft for solicitation of comments)
🌍 ВОЗ опубликовала доклад о предотвращении дискриминации людей пожилого возраста системами ИИ.
В докладе, в частности, рекомендуются следующие меры/действия:
1) привлекать пожилых людей в процессы разработки технологий
2) данные, используемые в обучении, должны быть такими, чтобы качество работы ИИ с людьми одной возрастной группы было не хуже, чем с людьми другой возрастной группой
3) повышение цифровой грамотности
4) пожилые должны иметь возможность согласиться/отказаться от взаимодействия с ИИ + оспаривать решения, принятые СИИ
5) необходимо разработать механизмы, предотвращающие ейджизм в работе гос органов, межд организаций и тп
6) при разработке и тестировании технологий ИИ должна быть проверка на ейджизм
7) надо больше освещать вопрос ейджизма ИИ в академических исследованиях
В докладе, в частности, рекомендуются следующие меры/действия:
1) привлекать пожилых людей в процессы разработки технологий
2) данные, используемые в обучении, должны быть такими, чтобы качество работы ИИ с людьми одной возрастной группы было не хуже, чем с людьми другой возрастной группой
3) повышение цифровой грамотности
4) пожилые должны иметь возможность согласиться/отказаться от взаимодействия с ИИ + оспаривать решения, принятые СИИ
5) необходимо разработать механизмы, предотвращающие ейджизм в работе гос органов, межд организаций и тп
6) при разработке и тестировании технологий ИИ должна быть проверка на ейджизм
7) надо больше освещать вопрос ейджизма ИИ в академических исследованиях
UN News
WHO highlights benefits and dangers of artificial intelligence for older people
Artificial intelligence (AI) technologies can improve older people’s health and well-being, but only if ageism is eliminated from their design, implementation, and use, said the World Health Organization (WHO) on Wednesday.
🇯🇴В Иордании готовят собственный кодекс этики в сфере ИИ. И хотя текст проекта пока доступен только на арабском и ещё будет обсуждаться, уже можно понять, что из себя в общих чертах будет представлять документ.
Кодекс планируется основывать на следующих этических принципах:
1) человекоорентированность
2) инклюзивность и справедливость
3) конфиденциальность
4) прозрачность
5) ответственность
6) надёжность
7) рыночная целостность
8) использование ИИ для достижения целей устойчивого развития
При этом после рассмотрения этих принципов в документе уделяется отдельное внимание метавселенным, которые также должны быть подчинены ряду этических принципов. В частности, в документе есть призыв:
1) обеспечить, чтобы в метавселенных соблюдались нормы и принципы, которым следует реальный мир
2) обеспечивать доступ к связанным технологиям и не допускать монополизацию
3) поощрять использование виртуальной среды на благо общества, включая уязвимые слои населения
4) обеспечивать ответственное, прозрачное и целостное функционирование виртуальной среды
5) обеспечивать контролируемость метавселенных и возможность выхода из них в любое время и др.
Публичные консультации по документу планируется провести до конца февраля
Кодекс планируется основывать на следующих этических принципах:
1) человекоорентированность
2) инклюзивность и справедливость
3) конфиденциальность
4) прозрачность
5) ответственность
6) надёжность
7) рыночная целостность
8) использование ИИ для достижения целей устойчивого развития
При этом после рассмотрения этих принципов в документе уделяется отдельное внимание метавселенным, которые также должны быть подчинены ряду этических принципов. В частности, в документе есть призыв:
1) обеспечить, чтобы в метавселенных соблюдались нормы и принципы, которым следует реальный мир
2) обеспечивать доступ к связанным технологиям и не допускать монополизацию
3) поощрять использование виртуальной среды на благо общества, включая уязвимые слои населения
4) обеспечивать ответственное, прозрачное и целостное функционирование виртуальной среды
5) обеспечивать контролируемость метавселенных и возможность выхода из них в любое время и др.
Публичные консультации по документу планируется провести до конца февраля
DataGuidance
Jordan: Ministry launches public consultation on draft National Code
The Ministry of Digital Economy and Entrepreneurship announced on LinkedIn, on 9 February 2022, that it had prepared a national charter of Artificial Intelligence ('AI'), which includes principles
Forwarded from База знаний AI
Опубликована «Белая книга» развития высокотехнологичных направлений в России, включая искусственный интеллект
Минэкономразвития опубликовало сводный анализ развития высоких технологий в России и за рубежом. В первом разделе представлен разбор ИИ в России — в частности, анализируется зрелость различных технологических групп ИИ (на иллюстрации).
Что еще удалось выяснить авторам:
● число научных публикаций по теме в России выросло с 69 в 2010 году до 620 в 2020 — это 1,4% от общемирового числа публикаций за 2020 год (44,7 тыс.);
● среди групп технологий ИИ наиболее заметны на общемировом фоне обработка естественного языка (2,1% научных публикаций, 0,4% патентных заявок), распознавание и синтез речи (по числу научных публикаций — 1,7%);
● Россия соответствует глобальным трендам прежде всего на уровне фундаментальных исследований и математических основ ИИ, а также в областях обработки текста и распознавания изображений.
👉🏻 Изучить «Белую книгу»
Минэкономразвития опубликовало сводный анализ развития высоких технологий в России и за рубежом. В первом разделе представлен разбор ИИ в России — в частности, анализируется зрелость различных технологических групп ИИ (на иллюстрации).
Что еще удалось выяснить авторам:
● число научных публикаций по теме в России выросло с 69 в 2010 году до 620 в 2020 — это 1,4% от общемирового числа публикаций за 2020 год (44,7 тыс.);
● среди групп технологий ИИ наиболее заметны на общемировом фоне обработка естественного языка (2,1% научных публикаций, 0,4% патентных заявок), распознавание и синтез речи (по числу научных публикаций — 1,7%);
● Россия соответствует глобальным трендам прежде всего на уровне фундаментальных исследований и математических основ ИИ, а также в областях обработки текста и распознавания изображений.
👉🏻 Изучить «Белую книгу»
Forwarded from LegalTech
🇺🇸Бюро авторского права США настаивает, что авторские права не распространяются на произведения искусства, созданные ИИ.
Бюро авторского права США в очередной раз отклонило попытку защитить авторским правом произведение искусства, созданное системой искусственного интеллекта (ИИ). Стивен Талер (Stephen Thaler) попытался защитить авторские права на произведение искусства под названием «Недавний вход в рай», заявив во втором запросе о пересмотре постановления 2019 года, что требование USCO о «человеческом авторстве» является неконституционным.
Работа была создана искусственным интеллектом, который Талер называет «Машиной творчества». Талер подал заявку на регистрацию произведения, выполненного как «работа по найму, выполненная для владельца Creativity Machine».
Однако в бюро заявили, что действующий закон об авторском праве обеспечивает защиту только «плодов интеллектуального труда», которые «основаны на творческих силах [человеческого] разума». Таким образом, работа, защищённая авторским правом, «должна быть создана человеком», и ведомство заявляет, что не будет регистрировать работы, «созданные с помощью машины или простого механического процесса», в которых отсутствует вмешательство или творческий вклад со стороны автора-человека.
Агентство заявило, что Талер не смог предоставить доказательства того, что «Недавний вход в рай» является результатом человеческого авторства. Он также не смог убедить USCO «отойти от века судебной практики в области авторского права».
Бюро авторского права США в очередной раз отклонило попытку защитить авторским правом произведение искусства, созданное системой искусственного интеллекта (ИИ). Стивен Талер (Stephen Thaler) попытался защитить авторские права на произведение искусства под названием «Недавний вход в рай», заявив во втором запросе о пересмотре постановления 2019 года, что требование USCO о «человеческом авторстве» является неконституционным.
Работа была создана искусственным интеллектом, который Талер называет «Машиной творчества». Талер подал заявку на регистрацию произведения, выполненного как «работа по найму, выполненная для владельца Creativity Machine».
Однако в бюро заявили, что действующий закон об авторском праве обеспечивает защиту только «плодов интеллектуального труда», которые «основаны на творческих силах [человеческого] разума». Таким образом, работа, защищённая авторским правом, «должна быть создана человеком», и ведомство заявляет, что не будет регистрировать работы, «созданные с помощью машины или простого механического процесса», в которых отсутствует вмешательство или творческий вклад со стороны автора-человека.
Агентство заявило, что Талер не смог предоставить доказательства того, что «Недавний вход в рай» является результатом человеческого авторства. Он также не смог убедить USCO «отойти от века судебной практики в области авторского права».
iXBT.com
Бюро авторского права США настаивает, что авторские права не распространяются на произведения искусства, созданные ИИ
Бюро авторского права США в очередной раз отклонило попытку защитить авторским правом произведение искусства, созданное системой искусственного интеллекта (ИИ). Стивен Талер (Stephen Thaler) попытался защитить авторские права на произведение искусства под…
🇪🇺Комитет ЕС по регионам опубликовал таблицу предлагаемых ими поправок к AI Act.
Из интересного:
1 - планируется добавить оговорку о том, что дать окончательное определение системам ИИ нельзя и что всё нужно определять с учётом обстоятельств. Причина - обеспечить применение AI Act с прицелом на будущее технологическое развитие
2 - добавляются оговорки, что граждан, подвергшихся воздействию высокорисковых СИИ, необходимо максимально оперативно об этом уведомлять
3 - прямо прописывается запрет на дискриминацию по критериям пола, происхождения, религии, убеждений, наличия инвалидности, возраста, сексуальной ориентации + "других критериев"
4 - страны - участники вправе самостоятельно регулировать высокорисковые СИИ, если это требуют интересы общественной и государственной безопасности
Из интересного:
1 - планируется добавить оговорку о том, что дать окончательное определение системам ИИ нельзя и что всё нужно определять с учётом обстоятельств. Причина - обеспечить применение AI Act с прицелом на будущее технологическое развитие
2 - добавляются оговорки, что граждан, подвергшихся воздействию высокорисковых СИИ, необходимо максимально оперативно об этом уведомлять
3 - прямо прописывается запрет на дискриминацию по критериям пола, происхождения, религии, убеждений, наличия инвалидности, возраста, сексуальной ориентации + "других критериев"
4 - страны - участники вправе самостоятельно регулировать высокорисковые СИИ, если это требуют интересы общественной и государственной безопасности
HCAI // Регулирование ИИ
Делимся новыми (приняты 31 декабря, вступают в силу с 1 марта 22 года) китайским правилами по рекомендательным алгоритмам.
📃🇨🇳1 марта в Китае вступили в силу Положения об управлении алгоритмическими рекомендациями в Интернете, подготовленные Управлением киберпространства Китая (Cyberspace Administration of China, CAC).
Данное Положение направлено на регулирование влияния Big Tech на формирование общественного мнения посредством использования алгоритмов в формировании рекомендаций в приложениях и на веб-сайтах.
В соответствии с данными Положениями технологическим компаниям предлагается «продвигать положительную энергию» и разрешать пользователям отказываться от персонализированных рекомендаций. В результате общественных обсуждений итоговая версия документа претерпела ряд изменений:
◦ Контроль исполнения Положений будет осуществлять Министерство промышленности и информационных технологий, Министерство общественной безопасности и Государственное управление по регулированию рынка ( SAMR). Управление киберпространства сохранит роль главного координатора.
◦ Предусмотрен запрет на формирование алгоритмических фейковых новостей. Новая статья 13 определяет лицензионное требование для поставщиков услуг для формирования алгоритмических рекомендаций, работающих в качестве новостных агрегаторов, и запрещает алгоритмическое создание поддельных новостей.
◦ Защита от дискриминации. Статья 10 направлена на усиление контроля за использование «дискриминационных или предвзятых пользовательских тегов» в алгоритмических рекомендательных системах.
◦ Документ предусматривает специальные гарантии для защиты пожилых людей в Интернете. Статья 19 требует, чтобы поставщики услуг уделяли особое внимание потребностям пожилых пользователей, в том числе в отношении предотвращения мошенничества.
Ознакомиться с переводом документа можно по ссылке, оригинал текста можете найти тут.
Данное Положение направлено на регулирование влияния Big Tech на формирование общественного мнения посредством использования алгоритмов в формировании рекомендаций в приложениях и на веб-сайтах.
В соответствии с данными Положениями технологическим компаниям предлагается «продвигать положительную энергию» и разрешать пользователям отказываться от персонализированных рекомендаций. В результате общественных обсуждений итоговая версия документа претерпела ряд изменений:
◦ Контроль исполнения Положений будет осуществлять Министерство промышленности и информационных технологий, Министерство общественной безопасности и Государственное управление по регулированию рынка ( SAMR). Управление киберпространства сохранит роль главного координатора.
◦ Предусмотрен запрет на формирование алгоритмических фейковых новостей. Новая статья 13 определяет лицензионное требование для поставщиков услуг для формирования алгоритмических рекомендаций, работающих в качестве новостных агрегаторов, и запрещает алгоритмическое создание поддельных новостей.
◦ Защита от дискриминации. Статья 10 направлена на усиление контроля за использование «дискриминационных или предвзятых пользовательских тегов» в алгоритмических рекомендательных системах.
◦ Документ предусматривает специальные гарантии для защиты пожилых людей в Интернете. Статья 19 требует, чтобы поставщики услуг уделяли особое внимание потребностям пожилых пользователей, в том числе в отношении предотвращения мошенничества.
Ознакомиться с переводом документа можно по ссылке, оригинал текста можете найти тут.
Forwarded from База знаний AI
ОАЭ разработали стратегию развития искусственного интеллекта до 2031 года
Она призвана автоматизировать работу госорганов, а также внедрить ИИ-системы в различные сектора экономики — транспорта, туризма, здравоохранения, образования и др.
Ключевые цели и задачи стратегии:
● укрепление позиций ОАЭ на мировом рынке ИИ-технологий;
● повышение конкурентоспособности сектора ИИ в ОАЭ;
● создание инновационного инкубатора для внедрения новых ИИ-технологий;
● внедрение ИИ в сферу обслуживания клиентов;
● подготовка перспективных специалистов для работы в данном направлении;
● привлечение зарубежных исследователей для разработки и внедрения инноваций в области ИИ;
● Проведение масштабных практических экспериментов с использованием ИИ.
Ожидаемые эффекты от принятия стратегии — значительное увеличение ВВП страны в ближайшие годы.
🔗Источник: https://alliance-dubai.net/nashi-uslugi/novosti-dubaya/rassylka-novostey-za-iyun-2019/oae-razrabotali-novuyu-strategiyu-razvitiya-iskusstvennogo-intellekta-k-2031-godu/
***
📎В сентябре 2021 года стало известно, что ОАЭ и Великобритания заключили меморандум о сотрудничестве в области искусственного интеллекта для совместных инвестиций и разработки единых стандартов в сфере ИИ.
Она призвана автоматизировать работу госорганов, а также внедрить ИИ-системы в различные сектора экономики — транспорта, туризма, здравоохранения, образования и др.
Ключевые цели и задачи стратегии:
● укрепление позиций ОАЭ на мировом рынке ИИ-технологий;
● повышение конкурентоспособности сектора ИИ в ОАЭ;
● создание инновационного инкубатора для внедрения новых ИИ-технологий;
● внедрение ИИ в сферу обслуживания клиентов;
● подготовка перспективных специалистов для работы в данном направлении;
● привлечение зарубежных исследователей для разработки и внедрения инноваций в области ИИ;
● Проведение масштабных практических экспериментов с использованием ИИ.
Ожидаемые эффекты от принятия стратегии — значительное увеличение ВВП страны в ближайшие годы.
🔗Источник: https://alliance-dubai.net/nashi-uslugi/novosti-dubaya/rassylka-novostey-za-iyun-2019/oae-razrabotali-novuyu-strategiyu-razvitiya-iskusstvennogo-intellekta-k-2031-godu/
***
📎В сентябре 2021 года стало известно, что ОАЭ и Великобритания заключили меморандум о сотрудничестве в области искусственного интеллекта для совместных инвестиций и разработки единых стандартов в сфере ИИ.
🇬🇧 Делимся совместным докладом Банка Англии и Управления по финансовому мониторингу Англии о рисках использования ИИ в финансовой сфере.
Доклад - результат длительных консультаций английского фин регулятора с остальными гос органами, а также с бизнесом и учебными заведениями. В какой-то степени можно сказать, что позицию по ИИ обсуждали всем английским финансовым миром. Так что доклад в некоторой степени отражает, как английский финансовый сектор смотрит на развитие ИИ.
Судя по докладу, ИИ сам по себе проблемы редко создаёт, но опасен скорее многократным усугублением уже имеющихся проблем. При этом основную проблему видят в сложности технологий, а ключевой "must do" - работать над понятностью и объяснимостью ИИ.
Доклад - результат длительных консультаций английского фин регулятора с остальными гос органами, а также с бизнесом и учебными заведениями. В какой-то степени можно сказать, что позицию по ИИ обсуждали всем английским финансовым миром. Так что доклад в некоторой степени отражает, как английский финансовый сектор смотрит на развитие ИИ.
Судя по докладу, ИИ сам по себе проблемы редко создаёт, но опасен скорее многократным усугублением уже имеющихся проблем. При этом основную проблему видят в сложности технологий, а ключевой "must do" - работать над понятностью и объяснимостью ИИ.
Forwarded from НТИ Автонет (Veronica Korshikova)
🚗 В Японии планируют разрешить использование беспилотного транспорта без водителей
4 марта Правительство Японии выдвинуло на рассмотрение законопроект о пересмотре правил дорожного движения в стране для реализации услуг беспилотного управления автомобилем четвертого уровня.
Законопроект будет представлен во время текущей сессии японского парламента. Он призывает разрешить компаниям, предоставляющим услуги беспилотного пилотирования, дать возможность использовать четвертый уровень автономности, который не предполагает наличие водителя в транспортном средстве.
Также Правительство планирует ввести новые правила использования электрических самокатов и автоматизированных роботов-доставщиков, которые привлекают внимание как новые средства транспортировки и доставки.
Если законопроект будет принят, новые правила вступят в силу в течение года для роботов с автоматическим вождением и доставкой и в течение двух лет для электрических скутеров.
4 марта Правительство Японии выдвинуло на рассмотрение законопроект о пересмотре правил дорожного движения в стране для реализации услуг беспилотного управления автомобилем четвертого уровня.
Законопроект будет представлен во время текущей сессии японского парламента. Он призывает разрешить компаниям, предоставляющим услуги беспилотного пилотирования, дать возможность использовать четвертый уровень автономности, который не предполагает наличие водителя в транспортном средстве.
Также Правительство планирует ввести новые правила использования электрических самокатов и автоматизированных роботов-доставщиков, которые привлекают внимание как новые средства транспортировки и доставки.
Если законопроект будет принят, новые правила вступят в силу в течение года для роботов с автоматическим вождением и доставкой и в течение двух лет для электрических скутеров.
Forwarded from НТИ Автонет (Veronica Korshikova)
✅ В Шотландии опубликовали окончательный отчет, содержащий рекомендации по безопасному и ответственному внедрению автоматизированных транспортных средств
Юридическая комиссия и Комиссия по законодательству Шотландии в своем докладе рекомендует принять новый Закон об автоматизированных транспортных средствах, который, по мнению комиссии, должен проводить четкое различие между функциями помощи водителю, такими как адаптивный круиз-контроль, и полностью автономными системами.
Предлагаемый закон будет предусматривать следующее:
✅ Когда автомобиль уполномочен регулирующим органом как имеющий функции самостоятельного вождения и эти функции используются, человек за рулем больше не будет нести ответственность за то, как автомобиль едет. Вместо этого регулирующие санкции будут направлены на производителя или другой орган, ответственный за получение разрешения на использование на дорогах.
✅Человек на водительском сиденье будет называться «ответственным пользователем» и будет защищен от судебного преследования за несчастные случаи, произошедшие в результате вождения беспилотного автомобиля. Однако он сохранит ответственность за страхование, проверку грузов и обеспечение того, чтобы пассажиры были пристегнуты ремнями безопасности.
✅ Некоторым транспортным средствам, например, используемым для общественного транспорта, может быть разрешено управлять самостоятельно без ответственного пользователя, а пассажиры просто классифицируются как пассажиры. В этом случае ответственность возьмет на себя лицензированный оператор.
Кроме того, Юридическая комиссия хочет, чтобы были введены новые меры безопасности и чтобы функции помощи водителю не рекламировались и позиционировались как "самостоятельное вождение". Ранее Тесла уже сталкивалась с критикой за брендинг своего набора таких функций и позиционируя их как «Автопилот».
Также в отчёте есть рекомендации в отношении данных.
Поскольку автономное транспортное средство генерирует огромное количество данных о местоположении, окружении, маршруте, системах и тд.
Рекомендуется, чтобы этими данными пользовались для понимания причин неисправности и определения ответственности при столкновении. В этом случае персоналу автопарка может потребоваться включить в свой штат аналитиков данных или аналитиков по кибербезопасности, обеспечивающих защиту данных от хакеров.
Юридическая комиссия и Комиссия по законодательству Шотландии в своем докладе рекомендует принять новый Закон об автоматизированных транспортных средствах, который, по мнению комиссии, должен проводить четкое различие между функциями помощи водителю, такими как адаптивный круиз-контроль, и полностью автономными системами.
Предлагаемый закон будет предусматривать следующее:
✅ Когда автомобиль уполномочен регулирующим органом как имеющий функции самостоятельного вождения и эти функции используются, человек за рулем больше не будет нести ответственность за то, как автомобиль едет. Вместо этого регулирующие санкции будут направлены на производителя или другой орган, ответственный за получение разрешения на использование на дорогах.
✅Человек на водительском сиденье будет называться «ответственным пользователем» и будет защищен от судебного преследования за несчастные случаи, произошедшие в результате вождения беспилотного автомобиля. Однако он сохранит ответственность за страхование, проверку грузов и обеспечение того, чтобы пассажиры были пристегнуты ремнями безопасности.
✅ Некоторым транспортным средствам, например, используемым для общественного транспорта, может быть разрешено управлять самостоятельно без ответственного пользователя, а пассажиры просто классифицируются как пассажиры. В этом случае ответственность возьмет на себя лицензированный оператор.
Кроме того, Юридическая комиссия хочет, чтобы были введены новые меры безопасности и чтобы функции помощи водителю не рекламировались и позиционировались как "самостоятельное вождение". Ранее Тесла уже сталкивалась с критикой за брендинг своего набора таких функций и позиционируя их как «Автопилот».
Также в отчёте есть рекомендации в отношении данных.
Поскольку автономное транспортное средство генерирует огромное количество данных о местоположении, окружении, маршруте, системах и тд.
Рекомендуется, чтобы этими данными пользовались для понимания причин неисправности и определения ответственности при столкновении. В этом случае персоналу автопарка может потребоваться включить в свой штат аналитиков данных или аналитиков по кибербезопасности, обеспечивающих защиту данных от хакеров.
Automotive World
Regulation of self-driving vehicles: the recommendations of the Law Commissions | Automotive World
Chris Heitzman outlines the Law Commission's final recommendations for AV law changes and how this could impact fleet managers keen on automatising their fleet
🌎📊Опубликован обновленный Индекс искусственного интеллекта 2022, подготовленный Стэндфордским университетом.
Стоит отметить, что в обновленном Индексе заметно больше внимания уделяется регулированию и этике ИИ по сравнению с предыдущими редакциями.
Среди ключевых выводов авторы выделяют:
☑️Возрастающую роль этики ИИ: с 2014 года число исследований по вопросам справедливости и прозрачности ИИ резко возросло: количество соответствующих публикаций на конференциях, посвященных этике ИИ, увеличилось в пять раз. Принципы справедливости и непредвзятости алгоритмов превратились из преимущественно академических занятий в устоявшуюся тему исследований с широким спектром практических последствий. Исследователи, представляющие сферу индустрии ИИ, за последние несколько лет сделали на 71% больше публикаций в годовом исчислении на конференциях, посвященных этике.
☑️Рост законодательного регулирования в области ИИ: анализ, проведенный в рамках создания Индекса ИИ, демонстрирует, что количество законопроектов в области ИИ, которые впоследствии были приняты в качестве законов, выросло с 1 (в 2016 году) до 18 (в 2021 году). Наибольшее количество законопроектов в области ИИ было принято в Испании, Великобритании и США: в 2021 году в каждой из этих стран было принято по 3 закона.
🏆Стоит отметить, что Россия является одним из лидеров по числу нормативных правовых актов в области ИИ, уступая в данном аспекте только США.
С полным текстом Индекса вы можете знакомиться по ссылке: https://aiindex.stanford.edu/wp-content/uploads/2022/03/2022-AI-Index-Report_Master.pdf
Стоит отметить, что в обновленном Индексе заметно больше внимания уделяется регулированию и этике ИИ по сравнению с предыдущими редакциями.
Среди ключевых выводов авторы выделяют:
☑️Возрастающую роль этики ИИ: с 2014 года число исследований по вопросам справедливости и прозрачности ИИ резко возросло: количество соответствующих публикаций на конференциях, посвященных этике ИИ, увеличилось в пять раз. Принципы справедливости и непредвзятости алгоритмов превратились из преимущественно академических занятий в устоявшуюся тему исследований с широким спектром практических последствий. Исследователи, представляющие сферу индустрии ИИ, за последние несколько лет сделали на 71% больше публикаций в годовом исчислении на конференциях, посвященных этике.
☑️Рост законодательного регулирования в области ИИ: анализ, проведенный в рамках создания Индекса ИИ, демонстрирует, что количество законопроектов в области ИИ, которые впоследствии были приняты в качестве законов, выросло с 1 (в 2016 году) до 18 (в 2021 году). Наибольшее количество законопроектов в области ИИ было принято в Испании, Великобритании и США: в 2021 году в каждой из этих стран было принято по 3 закона.
🏆Стоит отметить, что Россия является одним из лидеров по числу нормативных правовых актов в области ИИ, уступая в данном аспекте только США.
С полным текстом Индекса вы можете знакомиться по ссылке: https://aiindex.stanford.edu/wp-content/uploads/2022/03/2022-AI-Index-Report_Master.pdf
🇦🇺Хотя документов ещё нет в публичном доступе, поступили сведения, что в Австралии в апелляции отменили решение, где ИИ разрешили считать автором изобретения (inventor)
World IP Review
Australia reverses DABUS AI inventorship ruling
The Federal Court of Australia has overturned its prior ruling that artificial intelligence (AI) can be a named inventor on a patent application, striking down the last year’s surprising win for Stephen Thaler and his ongoing AI inventorship campaign.
HCAI // Регулирование ИИ
🇦🇺Хотя документов ещё нет в публичном доступе, поступили сведения, что в Австралии в апелляции отменили решение, где ИИ разрешили считать автором изобретения (inventor)
🇦🇺 А вот и текст решения. Делимся также неплохим обзором
Lexology
Full Federal Court says no to AI inventors
In the latest chapter of the DABUS saga, the Full Federal Court of Australia has determined that a device characterized as an artificial intelligence…
Forwarded from База знаний AI
Татарстан утвердил порядок внедрения ИИ в работу госорганов
В их числе — обезличивание персональных данных, открытость и прозрачность решений на базе ИИ, а также обеспечение доступности ИИ-сервисов. Кроме этого, прописано требование о защите информации при использовании ИИ.
Оповещать граждан обо всех случаях внедрения искусственного интеллекта в работу государственных структур будет Центр цифровой трансформации Татарстана.
🔗Источник: https://inkazan.ru/news/tech/21-04-2022/vlasti-tatarstana-nachnut-vnedryat-iskusstvennyy-intellekt-v-svoyu-rabotu
***
📃Текст постановления
В их числе — обезличивание персональных данных, открытость и прозрачность решений на базе ИИ, а также обеспечение доступности ИИ-сервисов. Кроме этого, прописано требование о защите информации при использовании ИИ.
Оповещать граждан обо всех случаях внедрения искусственного интеллекта в работу государственных структур будет Центр цифровой трансформации Татарстана.
🔗Источник: https://inkazan.ru/news/tech/21-04-2022/vlasti-tatarstana-nachnut-vnedryat-iskusstvennyy-intellekt-v-svoyu-rabotu
***
📃Текст постановления
🌍 После некоторого затишья мир вновь активно возвращается к вопросам регулирования и этики ИИ. За последние пару недель:
🇺🇸 в Калифорнии подготовили и начали обсуждать законопроект, регулирующий применение ИИ в трудовых отношениях. Причём если раньше, в законах тех же штатов Иллинойс и Нью-Йорк, речь шла просто о каких-то базовых правилах, не допускающих дискриминацию, то в этом случае уже планируют предусмотреть конкретные меры ответственности за необъективную работу ИИ
🇬🇧любопытно, но почти одновременно с этим было опубликовано исследование Лондонской школы экономики (London School of Economics), где выяснилось, что ИИ уже качественнее и беспристрастнее ведёт подбор персонала, нежели люди (и что проблема скорее в предвзятом отношении людей к работе ИИ)
🇰🇷в Южной Корее были выпущены Руководящие принципы в области ИИ
Документ носит рекомендательные характер для гос органов. Цель - обеспечить разработку искусственного интеллекта (ИИ) таким образом, чтобы не ущемлять человеческое достоинство и основные права человека. В принципах также содержится рекомендация премьер-министру и государственным учреждениям разработать законодательство и политику, чтобы разработчики ИИ соблюдали руководящие принципы.
🇯🇵 Япония принимает закон об экономической безопасности
В положениях закона интересуют два блока:
1) НИОКР в ИИ - ИИ прямо выделен в числе направлений научно-исследовательской деятельности, в рамках которых Правительство будет выделять финансирование и инициировать ГЧП проекты
2) полупроводники - полупроводники прямо выделены в качестве стратегического ресурса (наряду с редкоземельными металлами, батареями и лекарствами). Для стабильных поставок этих ресурсов Правительство Японии будет не только разрабатывать отдельные политики, но и предоставлять льготы поставщикам (а также будет закупаться ими впрок на случай будущего дефицита)
🇫🇷 Во Франции предлагают установить 3хлетнюю регуляторную песочницу для апробации технологий распознавания лиц
🇺🇸🇪🇺 По итогам заседания Совета по торговле и Технологиям США и ЕС договорились теснее координировать усилия в области НИОКР. Одним из ключевых результатов встречи также стало обязательство разработать «совместную дорожную карту по инструментам оценки и измерения для надежного ИИ и управления рисками». Также предлагается создание совместного центра/хранилища метрик и методологий для измерения достоверности ИИ и рисков ИИ
🇺🇸 в Калифорнии подготовили и начали обсуждать законопроект, регулирующий применение ИИ в трудовых отношениях. Причём если раньше, в законах тех же штатов Иллинойс и Нью-Йорк, речь шла просто о каких-то базовых правилах, не допускающих дискриминацию, то в этом случае уже планируют предусмотреть конкретные меры ответственности за необъективную работу ИИ
🇬🇧любопытно, но почти одновременно с этим было опубликовано исследование Лондонской школы экономики (London School of Economics), где выяснилось, что ИИ уже качественнее и беспристрастнее ведёт подбор персонала, нежели люди (и что проблема скорее в предвзятом отношении людей к работе ИИ)
🇰🇷в Южной Корее были выпущены Руководящие принципы в области ИИ
Документ носит рекомендательные характер для гос органов. Цель - обеспечить разработку искусственного интеллекта (ИИ) таким образом, чтобы не ущемлять человеческое достоинство и основные права человека. В принципах также содержится рекомендация премьер-министру и государственным учреждениям разработать законодательство и политику, чтобы разработчики ИИ соблюдали руководящие принципы.
🇯🇵 Япония принимает закон об экономической безопасности
В положениях закона интересуют два блока:
1) НИОКР в ИИ - ИИ прямо выделен в числе направлений научно-исследовательской деятельности, в рамках которых Правительство будет выделять финансирование и инициировать ГЧП проекты
2) полупроводники - полупроводники прямо выделены в качестве стратегического ресурса (наряду с редкоземельными металлами, батареями и лекарствами). Для стабильных поставок этих ресурсов Правительство Японии будет не только разрабатывать отдельные политики, но и предоставлять льготы поставщикам (а также будет закупаться ими впрок на случай будущего дефицита)
🇫🇷 Во Франции предлагают установить 3хлетнюю регуляторную песочницу для апробации технологий распознавания лиц
🇺🇸🇪🇺 По итогам заседания Совета по торговле и Технологиям США и ЕС договорились теснее координировать усилия в области НИОКР. Одним из ключевых результатов встречи также стало обязательство разработать «совместную дорожную карту по инструментам оценки и измерения для надежного ИИ и управления рисками». Также предлагается создание совместного центра/хранилища метрик и методологий для измерения достоверности ИИ и рисков ИИ
The National Law Review
California’s Draft Regulations Spotlight Artificial Intelligence Tools’ Potential to Lead to Discrimination Claims
California is considering new regulations on the use of technology or artificial intelligence (AI) to screen job candidates or make other employment decisions. If the regulations become law, California would be the first state to adopt substantive restrictions…
🇷🇺 А тем временем в России создана Комиссия по этике в сфере искусственного интеллекта
Комиссия станет площадкой для обмена опытом по вопросам, связанным с этикой искусственного интеллекта и координационным органом, обеспечивающим взаимодействие подписантов Кодекса этики в сфере ИИ
Комиссия станет площадкой для обмена опытом по вопросам, связанным с этикой искусственного интеллекта и координационным органом, обеспечивающим взаимодействие подписантов Кодекса этики в сфере ИИ
🇷🇺✍🏻 2 июня в Нижнем Новгороде на площадке ЦИПРа прошла торжественная церемония присоединения новых участников к Кодексу этики в сфере искусственного интеллекта при посредством подписания через платформу ГосКлюч. В церемонии приняли участие заместитель Заместитель Председателя Правительства Российской Федерации Дмитрий Чернышенко и Губернатор Нижегородской области Глеб Никитин.
Ведущим церемонии выступил Председатель Комиссии по реализации Кодекса этики в сфере ИИ Андрей Незнамов.
Дмитрий Чернышенко отметил, что «в прошлом году мы увидели прямой эффект от внедрения ИИ в 300 млрд рублей по отраслям нашей промышленности. Крайне важно, чтобы данная деятельность соответствовала очень строгим стандартам этики использования этих технологии».
К Кодексу присоединились 19 представителей нижегородского научного и бизнес-сообщества: Администрация города Нижнего Новгорода, ООО «Протон», ООО «АВМ Реалити», ННГУ им. Н.И. Лобачевского, ООО «НЕЙРО», «Артезио», «Лаборатория компьютерного зрения», ООО «ЭР-ТОП», АНО «Центр искусственного интеллекта «Горький», ООО «ЛАД Ай Ти», ООО «Интелливижн», ООО «Глобус-ИТ», ООО «Риверстарт», ГБОУ ВО НГИЭУ Княгининский университет, Волго-Вятский банк ПАО Сбербанк, ООО «Фокстанк Моторс», ООО «Мягкий сон», ООО ПКФ «Кварц», АО «Управляющая компания БХХ «Оргхим», ООО «Матллер».
Глеб Никитин подчеркнул, что «принятие такого значимого решения для общества и государства в Нижнем Новгороде является ярчайшим событием в развитии всей отечественной ИИ-отрасли. Устойчивое развитие предполагает саморегулирование и следование определенным идеологическим принципам».
Кроме того, Дмитрий Чернышенко сообщил, что в ближайшее время планируется присоединение новых участников к Кодексу этики в сфере ИИ на площадках других регионов: в Ханты-Мансийске и Иннополисе, на Дальнем Востоке.
Ведущим церемонии выступил Председатель Комиссии по реализации Кодекса этики в сфере ИИ Андрей Незнамов.
Дмитрий Чернышенко отметил, что «в прошлом году мы увидели прямой эффект от внедрения ИИ в 300 млрд рублей по отраслям нашей промышленности. Крайне важно, чтобы данная деятельность соответствовала очень строгим стандартам этики использования этих технологии».
К Кодексу присоединились 19 представителей нижегородского научного и бизнес-сообщества: Администрация города Нижнего Новгорода, ООО «Протон», ООО «АВМ Реалити», ННГУ им. Н.И. Лобачевского, ООО «НЕЙРО», «Артезио», «Лаборатория компьютерного зрения», ООО «ЭР-ТОП», АНО «Центр искусственного интеллекта «Горький», ООО «ЛАД Ай Ти», ООО «Интелливижн», ООО «Глобус-ИТ», ООО «Риверстарт», ГБОУ ВО НГИЭУ Княгининский университет, Волго-Вятский банк ПАО Сбербанк, ООО «Фокстанк Моторс», ООО «Мягкий сон», ООО ПКФ «Кварц», АО «Управляющая компания БХХ «Оргхим», ООО «Матллер».
Глеб Никитин подчеркнул, что «принятие такого значимого решения для общества и государства в Нижнем Новгороде является ярчайшим событием в развитии всей отечественной ИИ-отрасли. Устойчивое развитие предполагает саморегулирование и следование определенным идеологическим принципам».
Кроме того, Дмитрий Чернышенко сообщил, что в ближайшее время планируется присоединение новых участников к Кодексу этики в сфере ИИ на площадках других регионов: в Ханты-Мансийске и Иннополисе, на Дальнем Востоке.