HCAI // Регулирование ИИ
1.04K subscribers
78 photos
14 files
270 links
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.
Download Telegram
Национальный центр развития искусственного интеллекта при Правительстве РФ совместно с Институтом права цифровой среды НИУ ВШЭ и Центром регулирования ИИ Сбера проводят опрос российских организаций для выявления регуляторных требований и норм, препятствующих внедрению технологий ИИ в отраслях экономики и социальной сферы.   
    
Приглашаем принять участие в опросе до 31 июля 2023 г.: https://aicentre.hse.ru/polls/841504581.html   
Анкета состоит из 9 вопросов, на её заполнение уйдет не больше 15 минут.   
    
Ваши ответы позволят объективно оценить эффективность действующей государственной политики в сфере регулирования технологий ИИ, а также сформировать для профильных органов государственной власти перечень мер по устранению существующих барьеров в законодательстве.    
    
Справочно. Опрос проводится во исполнение Перечня поручений Президента РФ по итогам конференции «Путешествие в мир искусственного интеллекта» (от 29 января 2023 г. № Пр-172).
📆 5 июля состоялось общее собрание уполномоченных по этике в сфере искусственного интеллекта (ИИ).

Уполномоченные образуют масштабное сообщество участников рынка ИИ из числа подписантов Кодекса этики в сфере ИИ.

В ходе собрания были представлены результаты работы Комиссии по реализации Кодекса и четырех рабочих групп:

• по разработке и мониторингу методики оценки рисков и гуманитарного воздействия систем ИИ
• по созданию свода наилучших практик решения возникающих этических вопросов в жизненном цикле ИИ
• по оценке эффективности реализации Кодекса
• по рекомендательным сервисам

Кроме того, были избраны новые члены Комиссии и создана новая рабочая, посвященная этике ИИ в медицинской сфере.

В настоящее время к Кодексу присоедилились более 180 подписантов: представители разработчиков, бизнеса, образовательных организаций, НКО и государственных органов.

🔗 Присоединиться к Кодексу можно путем подписания заявления на сайте: https://ethics.a-ai.ru/
🌍 Компании из 15 зарубежных стран присоединились к Кодексу этики в сфере ИИ

🫱🏻‍🫲🏾 На полях форума Россия-Африка прошел первый масштабный раунд присоединения иностранных компаний к Кодексу этики. Так участникам Кодекса стали компании из ЮАР, Нигерии, Кении, Замбии, Сенегала, Уганды, Буркина-Фасо, Ганы, Мозамбика, Мали, а также Кипра и Израиля.

Это важный шаг в формировании ответственного и безопасного развития и внедрения технологий искусственного интеллекта. Глобализация принципов этики ИИ способствует обеспечению надежного цифрового будущего во всем мире.
📝 Комиссия по реализации Кодекса этики в сфере ИИ выпустила первую версию Рекомендации, посвященную решению «проблемы вагонетки».

🚘 Рабочая группа по созданию свода наилучших практик решения вопросов, возникающих этических в жизненном цикле ИИ, под руководством Елены Сурагиной (МТС) и Александра Крайнова (Яндекс) разработала рекомендательный документ, содержащий решение вопроса «проблемы вагонетки». Опубликованная версия Рекомендации содержит ответы на вопросы о допустимости включения в систему ИИ этического выбора о причинении вреда людям, а также о профессиональном и моральном выборе разработчика.

🗳 По итогам голосования подписантов Кодекса этики в сфере ИИ было принято решение о доработке текущей версии Рекомендации и проведении более подробного исследования по поставленному вопросу.

👋🏻 Если вы обладаете компетенциями в сфере беспилотных автомобилей и хотите поучаствовать в исследовании, можно связаться с представителями Альянса в сфере ИИ по e-mail: info@a-ai.ru
19 сентября Комиссия по реализации Кодекса этики в сфере ИИ выпустила Этические рекомендации по применению рекомендательных технологий и алгоритмов, основанных на искусственном интеллекте, в цифровых сервисах.
 
Рабочая группа по рекомендательным сервисам под руководством Андрея Рего (МТС) и Алексей Бырдина (Ассоциация «Интернет-видео») разработала рекомендательный документ, призванный систематизировать этичную практику и обобщить подходы, допустимые и рекомендуемые к применению при разработке и настройке рекомендательных алгоритмов, а также при внедрении и эксплуатации функционала персонализированных рекомендаций в цифровых сервисах различного типа.
Рекомендации предлагаются для добровольного исполнения компаниями, использующими рекомендательные системы в цифровых сервисах.
Forwarded from Горелкин
В пресс-центре ТАСС сегодня обсуждали новые подходы к регулированию искусственного интеллекта. Мой закон о рекомендательных сервисах – яркий пример так называемого «гибридного подхода», когда законодатель четко обозначает рамки, при этом оставляя большое поле для саморегулирования. В случае с рекомендациями мы предусмотрели две ключевые обязанности: предупреждать людей о том, что сервис использует рекомендательную модель, и описывать правила её работы. Как сформулировать эти правила, мы осознанно не говорим: владельцы ресурсов должны сделать это, исходя из собственных этических представлений.

Например, компания «Яндекс», насколько мне известно, собирается выкатить два варианта: подробный юридически выверенный текст плюс упрощенное объяснение в формате карточек. Надеюсь, что другие компании тоже пойдут по пути человеколюбия и максимально доступно сформулируют правила работы своих рексервисов. На данный момент, правда, никто этого не сделал – видимо, отрасль ждет, когда необходимые разъяснения опубликует РКН (притом что до вступления закона в силу остается всего две недели).

Поэтому самое время воспользоваться теми возможностями, которые дает гибридное регулирование, и взять на вооружение документ, подготовленный Альянсом в сфере искусственного интеллекта. Это свод этических правил по применению рекомендательных сервисов (или, как сегодня кто-то скаламбурил, «рекомендации по рекомендациям»). Они отлично дополняют букву закона необходимой терминологией, перечнем добровольных обязанностей и принципов прозрачности. Очень надеюсь, что наличие этого свода исключит необходимость вводить административку, о которой журналисты спросили сегодня первым делом.
📆 10 октября в 16:00 состоится заседание секции «Искусственный интеллект» Совета по развитию цифровой экономики при Совете Федерации по теме этики и регулирования использования технологий синтеза голоса.

Участники мероприятия обсудят:
🟢 этические и правовые риски использования технологий синтеза голоса
🟢 возможные подходы к законодательному регулированию особенностей создания и применения технологий синтеза голоса
🟢 отдельные особенности охраны прав на результаты интеллектуальной деятельности, созданные с применением ИИ

К участию в дискуссии приглашены представители Минэкономразвития России, Роспатента, Союза дикторов, Комиссии по реализации Кодекса этики в сфере ИИ, компаний Яндекс, МТС,  издательств ЛитРес, Эксмо, юристы, специализирующие на вопросах интеллектуальной собственности.

Трансляция заседания будет доступна на сайте Совета Федерации.
В число новых участников кодекса этики в сфере искусственного интеллекта вошли шесть региональных органов государственной власти по IT и связи из следующих регионов: Тюменская область, Ханты-Мансийский автономный округ – Югра, Ямало-Ненецкий АО, Курганская, Калужская и Иркутская области.
📃🇺🇸30 октября Президент США подписал Указ о безопасной разработке и использовании искусственного интеллекта. Документ определяет стандарты защиты американцев от потенциальных рисков ИИ.

Что закрепляет Указ:
· разработчики самых мощных систем ИИ должны будут делиться результатами своих проверок на безопасность с Правительством США;
· должны быть разработаны стандарты, инструменты и тесты, которые помогут гарантировать, что системы искусственного интеллекта безопасны и заслуживают доверия;
· должны быть разработаны строгие требования для применения ИИ в рамках скрининга биологического синтеза при создании опасных биологических материалов;
· для защиты американцев от мошенничества с использованием ИИ должны быть установлены стандарты и использованы наилучшие практики для обнаружения контента, созданного с помощью ИИ, и аутентификации официального контента;
· должна быть выстроена лучшая программа кибербезопасности для поиска и устранения уязвимостей в критически важном ПО (в том числе в системах ИИ);
· Советом национальной безопасности и Руководителем аппарата Белого дома должен быть разработан Меморандум о национальной безопасности, который определит дальнейшие действия в области ИИ и безопасности.

Также в Указе отмечается важность:
· усиления конфиденциальности данных американцев при взаимодействии с ИИ;
· продвижения равенства и защиты гражданских прав;
· отстаивания интересов потребителей, пациентов и студентов;
· поддержки рабочего класса;
· содействия развитию инноваций и конкуренции;
· усиления американского влияния и лидерства за рубежом;
· обеспечения ответственного и эффективного использования ИИ Правительством.
Хиросимские_Руководящие_принципы_ИИ.pdf
512.7 KB
🌍 В рамках инициативы G7 «Хиросимский процесс искусственного интеллекта» (Hiroshima AI Process) разработаны 11 руководящих принципов и Кодекс поведения для разрабатывающих передовые системы ИИ организаций.

🟢 Документы разработаны в ответ на развитие передовых систем ИИ (Advanced AI Systems) – фундаментальных моделей и генеративного ИИ.

🟢 Документы будут актуализироваться по мере необходимости и содержат неисчерпывающий перечень действий.

🟢 Среди прочего рекомендуется проводить выявление рисков в моделях с использованием имитации реальных кибератак (red teaming), а также внедрить механизмы идентификации созданного ИИ контента и определения его происхождения.

Делимся подготовленным Центром регулирования ИИ переводом документов на русский язык.
This media is not supported in your browser
VIEW IN TELEGRAM
🌍 «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ» пройдет 16 ноября в Москве

⚡️ Мероприятие станет площадкой для демонстрации лучших практик применения этики ИИ, присоединения новых организаций к Кодексу этики в сфере ИИ и формирования комплекса инициатив по совершенствованию этического и нормативного регулирования ИИ.  

⚡️ На форуме выступят представители Совета по правам человека, Минэкономразвития, Минцифры, Сбербанка, Яндекса, а также эксперты российских научно-образовательных организаций и представители религиозных конфессий. 

⚡️ Среди спикеров:
• Amandeep Singh Gill - посланник генсекретаря ООН по вопросам технологий;
• Максим Колесников – замминистра экономического развития РФ;
• Григорий Борисенко – замминистра цифрового развития РФ;
• Анатолий Вассерман – депутат Государственной Думы РФ;
• Никита Анисимов – ректор НИУ ВШЭ;
• Сергей Наквасин – директор Национального центра развития ИИ при Правительстве РФ;
• Александр Крайнов – директор по развитию технологий ИИ Яндекса;
Андрей Незнамов – управляющий директор – начальник Центра регулирования AI, Сбербанк.

🌍 Регистрация на сайте форума

🇷🇺 Национальный центр развития искусственного интеллекта при Правительстве РФ

#Мероприятие #ФорумЭтикиИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
🌍 «Форум этики в сфере искусственного интеллекта. Поколение GPT. Красные линИИ» состоится уже ЗАВТРА❗️

Торжественная церемония открытия Форума начнется 16 ноября в 9:30 с приветственного слова начальника Управления Президента России по развитию информационно-коммуникационных технологий и инфраструктуры связи Татьяны Матвеевой.

Ключевыми событиями Форума станут церемония присоединения новых организаций к Кодексу этики в сфере ИИ и церемония награждения членов Комиссии в сфере этики ИИ.

Форум пройдет в гибридном формате, будет организована прямая трансляция на сайте Форума.

💬 Официальный Telegram-канал Форума: «Тест Тьюринга»

🌍 Регистрация на сайте форума

🇷🇺 Национальный центр развития искусственного интеллекта при Правительстве РФ

#Мероприятие
#ФорумЭтикиИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
Сегодня в рамках ежегодной конференции AI Journey состоялась церемония подписания двух документов, важных в сфере этики ИИ:
1) ведущими разработчиками в сфере ИИ совместно с ФСТЭК России была подписана декларация об ответственном экспорте ИИ. Документ устанавливает этические принципы и стандарты и поведения, которыми стоит руководствоваться разработчикам при экспорте собственных гражданских решений в сфере искусственного интеллекта
2) к Кодексу этики ИИ присоединилось еще 11 компаний. В число подписантов кодекса вошли четыре российские компании — Россельхозбанк, Росбанк, «Авито», «Эмбедика» — и четыре иностранных участника — из Таджикистана, Узбекистана и Кубы. Также к кодексу присоединились РЭУ им. Плеханова, НМИЦ им. В. А. Алмазова и Северо-Восточный федеральный университет им. М. К. Аммосова.
Между тем вопросы ИИ и интеллектуальной собственности уверенно приходят в российскую судебную практику.
Делимся интересным свежим решением АСГМ по вопросам "кто автор видеоролика с дипфейком?" и "есть ли исключительные права на такой ролик?"

Вопросы в кейсе хорошие. И обстоятельства тоже интересные:

Компания 1 сделала вот этот ролик с дипфейком Киану Ривза. А компания 2 взяла этот ролик и без разрешения использовала его в своей рекламе.

Компания 1 потребовала 500 тыс. р компенсации за нарушение искл права. А компания 2 отрицала наличие искл прав. Мотивировка - в ролике использовался дип фейк.

Позиция АСГМ: дип фейк это технология обработки (монтажа материалов), а не способ создания произведения. Отсутствие искл прав не доказано. Авторство на ролик признали за всей командой, работающей над роликом (сценарист, оператор, моушн дизайнер, актер)

Решение пока принято только в первой инстанции. Будет ли позиция вышестоящих судов другой - покажет время. А мы с радостью будем мониторить кейс и делиться с вами новостями.


Вот ключевые цитаты из решения:

"Доводы ответчика о том, что созданный видеоролик не является объектом авторского права по причине использования технологии Deep-fake отклоняются судом, поскольку технология Deep-fake - это дополнительный инструмент обработки (технического монтажа) видеоматериалов, а не способ их создания.

Соответственно, тот факт, что моушн-дизайнер Вельских Д.И. … осуществил технический монтаж исходных материалов видеоролика посредством технологии deep-fake сам по себе не свидетельствует о том, что видеоролик доступен для свободного использования (без согласия правообладателя), или о том, что группа лиц, обеспечившая написание сценария видеоролика, видеосъемку, его аудиосопровождение, не внесли личный творческий вклад в создание видеоролика и не признаются его авторами.

Согласно п. 1 ст. 1263 ГК РФ аудиовизуальным произведением является произведение, состоящее из зафиксированной серии связанных между собой изображений (с сопровождением или без сопровождения звуком) и предназначенное для зрительного и слухового (в случае сопровождения звуком) восприятия с помощью соответствующих технических устройств. Аудиовизуальные произведения включают кинематографические произведения, а также все произведения, выраженные средствами, аналогичными кинематографическим (теле-и видеофильмы и другие подобные произведения), независимо от способа их первоначальной или последующей фиксации.

Согласно п. 5 ст. 1263 ГК РФ каждый автор произведения, вошедшего составной частью в аудиовизуальное произведение, как существовавшего ранее (автор произведения, положенного в основу сценария, и другие), так и созданного в процессе работы над ним (оператор-постановщик, художник-постановщик и другие), сохраняет исключительное право на свое произведение, за исключением случаев, когда это исключительное право было передано изготовителю или другим лицам либо перешло к изготовителю или другим лицам по иным основаниям, предусмотренным законом.

Спорный видеоролик был создан группой автором - сценаристом, видеооператором (оператор-постановщик), моушн-дизайнером, актером. Технология Deep-fake - это дополнительный инструмент обработки (технического монтажа) видеоматериалов, используемый моушн-дизайнером."
Сегодня в третьем чтении Госдума приняла законопроект, наделяющий Правительство России регулировать вопросы, связанные с воздушной съёмкой с «дронов». Это очень важная тема для развития ИИ. Беспилотные воздушные суда – важный источник данных для обучения моделей ИИ (так называемых «геоаналитических» моделей). Однако пока что для получения таких данных существуют серьёзные барьеры процедурного характера, из-за которых нужные данные в большинстве случаев нельзя получить оперативно. Данные с дронов считаются секретными, пока не будет пройдена процедура т.н. «контрольного просмотра». При этом вопрос регулируется секретными документами, принятыми ещё во времена СССР (инструкции ПАРО и СТГМ).
 
Однако для принятия новых документов по этой теме Правительству нужны фиксированные полномочия. Законопроект решает этот вопрос.
 
Уверены, что в будущем будут приняты постановления правительства, устанавливающие новые правила, связанные с ведением воздушной съёмки, которые были бы более адаптированы к текущим технологическим реалиям.
HCAI // Регулирование ИИ
Законопроект, наделяющий правительство полномочиями регулировать воздушную съемку, одобрен Советом Федерации. Ждем подписание Президентом
Законопроект, наделяющий правительство полномочиями регулировать воздушную съемку, подписан Президентом. Будем надеяться, что в этом году за этим последует принятие нового Постановления Правительства, которое бы прописало доступные для индустрии правила воздушной съёмки. Будем держать вас в курсе событий
🇮🇷 Сегодня в Тегеране был подписан Меморандум о сотрудничестве с Ираном по исследованию вопросов этики в сфере ИИ

Со стороны Ирана Меморандум был подписан Представителем Штаба Исламской республики Иран по развитию технологий искусственного интеллекта и робототехники господином Бехруз Минэй, с российской стороны документ подписал Председатель Комиссии по реализации Кодекса этики в сфере ИИ Андрей Незнамов

Подписание данного документа является важным шагом для сообщества в сфере этики ИИ, поскольку этика - крайне важная тема для обеих стран. Подписание Меморандума ознаменует новый шаг не только в технологическом, но и культурном диалоге России и Ирана. Российская сторона особенно ценит доверие иранских партнеров в этом вопросе
Forwarded from Майский указ
Декларация ИИ.pdf
103.2 KB
🤖 Сегодня выставка-форум «Россия» на ВДНХ отмечает «День искусственного интеллекта», благодаря чему прямо на глазах у вице-премьера Дмитрия Чернышенко ряд неравнодушных компаний подписал Декларацию об ответственной разработке и использовании сервисов в сфере генеративного ИИ (разумеется, в рамках исполнения поручений Президента).

Подписанты договорились о принципах безопасности и прозрачности, этичном отношении к чувствительным темам, принятии мер для предотвращения злоупотреблений и создания недостоверной информации, а также просвещении пользователей о возможностях новых технологий. Речь идёт о моделях для генерации голоса, письменного текста, изображений, звуков, видео и иных электронных сообщений на основании запроса пользователя.

Декларация устанавливает этические принципы и рекомендации по ответственному отношению к ИИ не только для разработчиков исследователей, но и пользователей нейросетевых сервисов. Декларация является одним из примеров саморегулирования сферы технологий и охватывает разные аспекты осознанного отношения к разработкам на основе ИИ.

Документ, разработанный на площадке «Альянса в сфере ИИ», подписали Сбер и Яндекс как участники этой ассоциации. Также к декларации присоединились компания МТС ИИ плюс ведущие вузы и научные организации России: НИУ ВШЭ, Сколтех, Университет Иннополис, МФТИ, Университет ИТМО, Институт системного программирования РАН, Нижегородский государственный университет им. Н.И. Лобачевского.