HCAI // Регулирование ИИ
1.04K subscribers
85 photos
14 files
278 links
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.
Download Telegram
🇯🇴В Иордании готовят собственный кодекс этики в сфере ИИ. И хотя текст проекта пока доступен только на арабском и ещё будет обсуждаться, уже можно понять, что из себя в общих чертах будет представлять документ.

Кодекс планируется основывать на следующих этических принципах:
1) человекоорентированность
2) инклюзивность и справедливость
3) конфиденциальность
4) прозрачность
5) ответственность
6) надёжность
7) рыночная целостность
8) использование ИИ для достижения целей устойчивого развития

При этом после рассмотрения этих принципов в документе уделяется отдельное внимание метавселенным, которые также должны быть подчинены ряду этических принципов. В частности, в документе есть призыв:
1) обеспечить, чтобы в метавселенных соблюдались нормы и принципы, которым следует реальный мир
2) обеспечивать доступ к связанным технологиям и не допускать монополизацию
3) поощрять использование виртуальной среды на благо общества, включая уязвимые слои населения
4) обеспечивать ответственное, прозрачное и целостное функционирование виртуальной среды
5) обеспечивать контролируемость метавселенных и возможность выхода из них в любое время и др.

Публичные консультации по документу планируется провести до конца февраля
Forwarded from База знаний AI
Опубликована «Белая книга» развития высокотехнологичных направлений в России, включая искусственный интеллект

Минэкономразвития опубликовало сводный анализ развития высоких технологий в России и за рубежом. В первом разделе представлен разбор ИИ в России — в частности, анализируется зрелость различных технологических групп ИИ (на иллюстрации).

Что еще удалось выяснить авторам:
● число научных публикаций по теме в России выросло с 69 в 2010 году до 620 в 2020 — это 1,4% от общемирового числа публикаций за 2020 год (44,7 тыс.);
● среди групп технологий ИИ наиболее заметны на общемировом фоне обработка естественного языка (2,1% научных публикаций, 0,4% патентных заявок), распознавание и синтез речи (по числу научных публикаций — 1,7%);
● Россия соответствует глобальным трендам прежде всего на уровне фундаментальных исследований и математических основ ИИ, а также в областях обработки текста и распознавания изображений.

👉🏻 Изучить «Белую книгу»
Forwarded from LegalTech
🇺🇸Бюро авторского права США настаивает, что авторские права не распространяются на произведения искусства, созданные ИИ.

Бюро авторского права США в очередной раз отклонило попытку защитить авторским правом произведение искусства, созданное системой искусственного интеллекта (ИИ). Стивен Талер (Stephen Thaler) попытался защитить авторские права на произведение искусства под названием «Недавний вход в рай», заявив во втором запросе о пересмотре постановления 2019 года, что требование USCO о «человеческом авторстве» является неконституционным.

Работа была создана искусственным интеллектом, который Талер называет «Машиной творчества». Талер подал заявку на регистрацию произведения, выполненного как «работа по найму, выполненная для владельца Creativity Machine».

Однако в бюро заявили, что действующий закон об авторском праве обеспечивает защиту только «плодов интеллектуального труда», которые «основаны на творческих силах [человеческого] разума». Таким образом, работа, защищённая авторским правом, «должна быть создана человеком», и ведомство заявляет, что не будет регистрировать работы, «созданные с помощью машины или простого механического процесса», в которых отсутствует вмешательство или творческий вклад со стороны автора-человека.

Агентство заявило, что Талер не смог предоставить доказательства того, что «Недавний вход в рай» является результатом человеческого авторства. Он также не смог убедить USCO «отойти от века судебной практики в области авторского права».
🇪🇺Комитет ЕС по регионам опубликовал таблицу предлагаемых ими поправок к AI Act.

Из интересного:
1 - планируется добавить оговорку о том, что дать окончательное определение системам ИИ нельзя и что всё нужно определять с учётом обстоятельств. Причина - обеспечить применение AI Act с прицелом на будущее технологическое развитие
2 - добавляются оговорки, что граждан, подвергшихся воздействию высокорисковых СИИ, необходимо максимально оперативно об этом уведомлять
3 - прямо прописывается запрет на дискриминацию по критериям пола, происхождения, религии, убеждений, наличия инвалидности, возраста, сексуальной ориентации + "других критериев"
4 - страны - участники вправе самостоятельно регулировать высокорисковые СИИ, если это требуют интересы общественной и государственной безопасности
HCAI // Регулирование ИИ
Делимся новыми (приняты 31 декабря, вступают в силу с 1 марта 22 года) китайским правилами по рекомендательным алгоритмам.
📃🇨🇳1 марта в Китае вступили в силу Положения об управлении алгоритмическими рекомендациями в Интернете, подготовленные Управлением киберпространства Китая (Cyberspace Administration of China, CAC).
Данное Положение направлено на регулирование влияния Big Tech на формирование общественного мнения посредством использования алгоритмов в формировании рекомендаций в приложениях и на веб-сайтах.
В соответствии с данными Положениями технологическим компаниям предлагается «продвигать положительную энергию» и разрешать пользователям отказываться от персонализированных рекомендаций. В результате общественных обсуждений итоговая версия документа претерпела ряд изменений:
◦ Контроль исполнения Положений будет осуществлять Министерство промышленности и информационных технологий, Министерство общественной безопасности и Государственное управление по регулированию рынка ( SAMR). Управление киберпространства сохранит роль главного координатора.
◦ Предусмотрен запрет на формирование алгоритмических фейковых новостей. Новая статья 13 определяет лицензионное требование для поставщиков услуг для формирования алгоритмических рекомендаций, работающих в качестве новостных агрегаторов, и запрещает алгоритмическое создание поддельных новостей.
◦ Защита от дискриминации. Статья 10 направлена на усиление контроля за использование «дискриминационных или предвзятых пользовательских тегов» в алгоритмических рекомендательных системах.
◦ Документ предусматривает специальные гарантии для защиты пожилых людей в Интернете. Статья 19 требует, чтобы поставщики услуг уделяли особое внимание потребностям пожилых пользователей, в том числе в отношении предотвращения мошенничества.
Ознакомиться с переводом документа можно по ссылке, оригинал текста можете найти тут.
Forwarded from База знаний AI
ОАЭ разработали стратегию развития искусственного интеллекта до 2031 года

Она призвана автоматизировать работу госорганов, а также внедрить ИИ-системы в различные сектора экономики — транспорта, туризма, здравоохранения, образования и др.

Ключевые цели и задачи стратегии:
● укрепление позиций ОАЭ на мировом рынке ИИ-технологий;
● повышение конкурентоспособности сектора ИИ в ОАЭ;
● создание инновационного инкубатора для внедрения новых ИИ-технологий;
● внедрение ИИ в сферу обслуживания клиентов;
● подготовка перспективных специалистов для работы в данном направлении;
● привлечение зарубежных исследователей для разработки и внедрения инноваций в области ИИ;
● Проведение масштабных практических экспериментов с использованием ИИ.

Ожидаемые эффекты от принятия стратегии — значительное увеличение ВВП страны в ближайшие годы.

🔗Источник: https://alliance-dubai.net/nashi-uslugi/novosti-dubaya/rassylka-novostey-za-iyun-2019/oae-razrabotali-novuyu-strategiyu-razvitiya-iskusstvennogo-intellekta-k-2031-godu/

***
📎В сентябре 2021 года стало известно, что ОАЭ и Великобритания заключили меморандум о сотрудничестве в области искусственного интеллекта для совместных инвестиций и разработки единых стандартов в сфере ИИ.
🇬🇧 Делимся совместным докладом Банка Англии и Управления по финансовому мониторингу Англии о рисках использования ИИ в финансовой сфере.

Доклад - результат длительных консультаций английского фин регулятора с остальными гос органами, а также с бизнесом и учебными заведениями. В какой-то степени можно сказать, что позицию по ИИ обсуждали всем английским финансовым миром. Так что доклад в некоторой степени отражает, как английский финансовый сектор смотрит на развитие ИИ.

Судя по докладу, ИИ сам по себе проблемы редко создаёт, но опасен скорее многократным усугублением уже имеющихся проблем. При этом основную проблему видят в сложности технологий, а ключевой "must do" - работать над понятностью и объяснимостью ИИ.
Forwarded from НТИ Автонет (Veronica Korshikova)
🚗 В Японии планируют разрешить использование беспилотного транспорта без водителей

4 марта Правительство Японии выдвинуло на рассмотрение законопроект о пересмотре правил дорожного движения в стране для реализации услуг беспилотного управления автомобилем четвертого уровня.

Законопроект будет представлен во время текущей сессии японского парламента. Он призывает разрешить компаниям, предоставляющим услуги беспилотного пилотирования, дать возможность использовать четвертый уровень автономности, который не предполагает наличие водителя в транспортном средстве.

Также Правительство планирует ввести новые правила использования электрических самокатов и автоматизированных роботов-доставщиков, которые привлекают внимание как новые средства транспортировки и доставки.

Если законопроект будет принят, новые правила вступят в силу в течение года для роботов с автоматическим вождением и доставкой и в течение двух лет для электрических скутеров.
Forwarded from НТИ Автонет (Veronica Korshikova)
В Шотландии опубликовали окончательный отчет, содержащий рекомендации по безопасному и ответственному внедрению автоматизированных транспортных средств

Юридическая комиссия и Комиссия по законодательству Шотландии в своем докладе рекомендует принять новый Закон об автоматизированных транспортных средствах, который, по мнению комиссии, должен проводить четкое различие между функциями помощи водителю, такими как адаптивный круиз-контроль, и полностью автономными системами.

Предлагаемый закон будет предусматривать следующее:

Когда автомобиль уполномочен регулирующим органом как имеющий функции самостоятельного вождения и эти функции используются, человек за рулем больше не будет нести ответственность за то, как автомобиль едет. Вместо этого регулирующие санкции будут направлены на производителя или другой орган, ответственный за получение разрешения на использование на дорогах.

Человек на водительском сиденье будет называться «ответственным пользователем» и будет защищен от судебного преследования за несчастные случаи, произошедшие в результате вождения беспилотного автомобиля. Однако он сохранит ответственность за страхование, проверку грузов и обеспечение того, чтобы пассажиры были пристегнуты ремнями безопасности.

Некоторым транспортным средствам, например, используемым для общественного транспорта, может быть разрешено управлять самостоятельно без ответственного пользователя, а пассажиры просто классифицируются как пассажиры. В этом случае ответственность возьмет на себя лицензированный оператор.

Кроме того, Юридическая комиссия хочет, чтобы были введены новые меры безопасности и чтобы функции помощи водителю не рекламировались и позиционировались как "самостоятельное вождение". Ранее Тесла уже сталкивалась с критикой за брендинг своего набора таких функций и позиционируя их как «Автопилот».

Также в отчёте есть рекомендации в отношении данных.

Поскольку автономное транспортное средство генерирует огромное количество данных о местоположении, окружении, маршруте, системах и тд.
Рекомендуется, чтобы этими данными пользовались для понимания причин неисправности и определения ответственности при столкновении. В этом случае персоналу автопарка может потребоваться включить в свой штат аналитиков данных или аналитиков по кибербезопасности, обеспечивающих защиту данных от хакеров.
🌎📊Опубликован обновленный Индекс искусственного интеллекта 2022, подготовленный Стэндфордским университетом.

Стоит отметить, что в обновленном Индексе заметно больше внимания уделяется регулированию и этике ИИ по сравнению с предыдущими редакциями.

Среди ключевых выводов авторы выделяют:
☑️Возрастающую роль этики ИИ: с 2014 года число исследований по вопросам справедливости и прозрачности ИИ резко возросло: количество соответствующих публикаций на конференциях, посвященных этике ИИ, увеличилось в пять раз. Принципы справедливости и непредвзятости алгоритмов превратились из преимущественно академических занятий в устоявшуюся тему исследований с широким спектром практических последствий. Исследователи, представляющие сферу индустрии ИИ, за последние несколько лет сделали на 71% больше публикаций в годовом исчислении на конференциях, посвященных этике.

☑️Рост законодательного регулирования в области ИИ: анализ, проведенный в рамках создания Индекса ИИ, демонстрирует, что количество законопроектов в области ИИ, которые впоследствии были приняты в качестве законов, выросло с 1 (в 2016 году) до 18 (в 2021 году). Наибольшее количество законопроектов в области ИИ было принято в Испании, Великобритании и США: в 2021 году в каждой из этих стран было принято по 3 закона.

🏆Стоит отметить, что Россия является одним из лидеров по числу нормативных правовых актов в области ИИ, уступая в данном аспекте только США.

С полным текстом Индекса вы можете знакомиться по ссылке: https://aiindex.stanford.edu/wp-content/uploads/2022/03/2022-AI-Index-Report_Master.pdf
Forwarded from База знаний AI
Татарстан утвердил порядок внедрения ИИ в работу госорганов

В их числе — обезличивание персональных данных, открытость и прозрачность решений на базе ИИ, а также обеспечение доступности ИИ-сервисов. Кроме этого, прописано требование о защите информации при использовании ИИ.

Оповещать граждан обо всех случаях внедрения искусственного интеллекта в работу государственных структур будет Центр цифровой трансформации Татарстана.

🔗Источник: https://inkazan.ru/news/tech/21-04-2022/vlasti-tatarstana-nachnut-vnedryat-iskusstvennyy-intellekt-v-svoyu-rabotu

***
📃Текст постановления
🌍 После некоторого затишья мир вновь активно возвращается к вопросам регулирования и этики ИИ. За последние пару недель:

🇺🇸 в Калифорнии подготовили и начали обсуждать законопроект, регулирующий применение ИИ в трудовых отношениях. Причём если раньше, в законах тех же штатов Иллинойс и Нью-Йорк, речь шла просто о каких-то базовых правилах, не допускающих дискриминацию, то в этом случае уже планируют предусмотреть конкретные меры ответственности за необъективную работу ИИ

🇬🇧любопытно, но почти одновременно с этим было опубликовано исследование Лондонской школы экономики (London School of Economics), где выяснилось, что ИИ уже качественнее и беспристрастнее ведёт подбор персонала, нежели люди (и что проблема скорее в предвзятом отношении людей к работе ИИ)

🇰🇷в Южной Корее были выпущены Руководящие принципы в области ИИ

Документ носит рекомендательные характер для гос органов. Цель - обеспечить разработку искусственного интеллекта (ИИ) таким образом, чтобы не ущемлять человеческое достоинство и основные права человека. В принципах также содержится рекомендация премьер-министру и государственным учреждениям разработать законодательство и политику, чтобы разработчики ИИ соблюдали руководящие принципы.

🇯🇵 Япония принимает закон об экономической безопасности

В положениях закона интересуют два блока:
1) НИОКР в ИИ - ИИ прямо выделен в числе направлений научно-исследовательской деятельности, в рамках которых Правительство будет выделять финансирование и инициировать ГЧП проекты
2) полупроводники - полупроводники прямо выделены в качестве стратегического ресурса (наряду с редкоземельными металлами, батареями и лекарствами). Для стабильных поставок этих ресурсов Правительство Японии будет не только разрабатывать отдельные политики, но и предоставлять льготы поставщикам (а также будет закупаться ими впрок на случай будущего дефицита)

🇫🇷 Во Франции предлагают установить 3хлетнюю регуляторную песочницу для апробации технологий распознавания лиц

🇺🇸🇪🇺 По итогам заседания Совета по торговле и Технологиям США и ЕС договорились теснее координировать усилия в области НИОКР. Одним из ключевых результатов встречи также стало обязательство разработать «совместную дорожную карту по инструментам оценки и измерения для надежного ИИ и управления рисками». Также предлагается создание совместного центра/хранилища метрик и методологий для измерения достоверности ИИ и рисков ИИ
🇷🇺 А тем временем в России создана Комиссия по этике в сфере искусственного интеллекта

Комиссия станет площадкой для обмена опытом по вопросам, связанным с этикой искусственного интеллекта и координационным органом, обеспечивающим взаимодействие подписантов Кодекса этики в сфере ИИ
🇷🇺✍🏻 2 июня в Нижнем Новгороде на площадке ЦИПРа прошла торжественная церемония присоединения новых участников к Кодексу этики в сфере искусственного интеллекта при посредством подписания через платформу ГосКлюч. В церемонии приняли участие заместитель Заместитель Председателя Правительства Российской Федерации Дмитрий Чернышенко и Губернатор Нижегородской области Глеб Никитин.

Ведущим церемонии выступил Председатель Комиссии по реализации Кодекса этики в сфере ИИ Андрей Незнамов.

Дмитрий Чернышенко отметил, что «в прошлом году мы увидели прямой эффект от внедрения ИИ в 300 млрд рублей по отраслям нашей промышленности. Крайне важно, чтобы данная деятельность соответствовала очень строгим стандартам этики использования этих технологии».

К Кодексу присоединились 19 представителей нижегородского научного и бизнес-сообщества: Администрация города Нижнего Новгорода, ООО «Протон», ООО «АВМ Реалити», ННГУ им. Н.И. Лобачевского, ООО «НЕЙРО», «Артезио», «Лаборатория компьютерного зрения», ООО «ЭР-ТОП», АНО «Центр искусственного интеллекта «Горький», ООО «ЛАД Ай Ти», ООО «Интелливижн», ООО «Глобус-ИТ», ООО «Риверстарт», ГБОУ ВО НГИЭУ Княгининский университет, Волго-Вятский банк ПАО Сбербанк, ООО «Фокстанк Моторс», ООО «Мягкий сон», ООО ПКФ «Кварц», АО «Управляющая компания БХХ «Оргхим», ООО «Матллер».

Глеб Никитин подчеркнул, что «принятие такого значимого решения для общества и государства в Нижнем Новгороде является ярчайшим событием в развитии всей отечественной ИИ-отрасли. Устойчивое развитие предполагает саморегулирование и следование определенным идеологическим принципам».

Кроме того, Дмитрий Чернышенко сообщил, что в ближайшее время планируется присоединение новых участников к Кодексу этики в сфере ИИ на площадках других регионов: в Ханты-Мансийске и Иннополисе, на Дальнем Востоке.
⚡️🇷🇺Сбер и ДВФУ создадут Дальневосточный центр изучения правовых и этических аспектов ИИ и цифровых технологий

Меморандум об учреждении центра подписан на форуме ПМЭФ 2022.

Центр займётся широким спектром задач — от анализа регулирования ИИ в странах Азиатско-Тихоокеанского региона (АТР) до научного сотрудничества с ведущими институтами из этих стран.
🇨🇦 Парламент Канады принял в 1 чтении законопроект, устанавливающий (помимо прочего) базовые требования к разработке систем ИИ.

Законопроект устанавливает базовые требования для "высокорисковых систем ИИ" (хотя пока что ни в действующем праве Канады, ни в законопроекте нет критериев, что считать высокорисковыми системами). Но сами по себе положения носят весьма общий характер:

Суть:
1) "лицо, отвечающее" за систему ИИ, должно само определять, относить ли СИИ к высокорисковым системам. "Ответственным лицом" считается любой субъект, который отвечает за "создание, разработку, обеспечение доступности и работы СИИ"
2) если СИИ оказывается высокорисковой - надо идентифицировать возможные риски причинения вреда и небеспристрастности ИИ, принять меры по их устранению, а также обеспечить мониторинг соблюдения этих мер. Все предпринимаемые меры должны быть задокументированы
3) также для высокорисковых СИИ надо опубликовать на доступном языке описание, как работает ИИ и какие меры приняты для устранения рисков
4) если работа высокорисковых СИИ может привести к причинению вреда - необходимо уведомить об этом Минпром (или уполномоченного представителя Тайного совета (Queen’s Privy Council for Canada)

Законопроект также предусматривает создание новой должности - Комиссара по ИИ и данным (Artificial Intelligence Data Commissioner) - с достаточно широким спектром полномочий - от права запросить документацию по устранению рисков до выдачи приказов о запрете использовать высокорисковую СИИ в случае серьёзного риска причинения вреда
🌍 Делимся докладом Google и The Economist Group о развитии ИИ в странах Магриба и Ближнего Востока.

Доклад интересен не только обзором экономического эффекта от разработки и внедрения систем ИИ в этих странах. В нём также кратко рассматриваются стратегии развития ИИ, принятые в этом регионе на государственном уровне, а также обзор, какие (по мнению авторов доклада) есть проблемы с обеспечением этичности ИИ в этом регионе
🇰🇷 В Сеуле запускают опытную коммерческую эксплуатацию ВАТС (4 уровень автоматизации). Причём запускают в самом многолюдном и загруженном районе города. Сообщается, что первыми пассажирами беспилотного такси были министр землеустройства, инфраструктуры и транспорта Кореи и мэр Сеула
🇪🇺 Делимся докладом Еврокомиссии, посвящённым соблюдению прав ребёнка в при внедрении и использовании искусственного интеллекта.

Доклад очень разносторонний. В нём можно найти:
🌍 обзор, какие международные акты и инициативы, относящиеся к правам ребёнка и применимые к сфере ИИ, есть на уровне ООН, Юнисеф, Юнеско, ОЭСР, Совета Европы и ЕС
🧑‍🔬 анализ воздействия на детей рекомендательных систем, диалоговых систем и социальных роботов. Причём рассматриваются не только негативная, но и позитивная сторона вопроса
👥 обзор рисков в области этики и основных прав, связанных с внедрением таких систем. Причём учитываются не только позиции "взорослых" - учёных и чиновников - но и взгляд подрастающего поколения: были проведены воркшопы, где дети и подростки сами делились своим восприятием возможностей и рисков использования систем ИИ
✔️ в качестве заключения обозначены ключевые риски и методология их устранения