Совсем недавно министры обороны стран НАТО согласовали Стратегию НАТО в области развития ИИ. Делимся основными положениями этого документа.
NATO
Summary of the NATO Artificial Intelligence Strategy
PRINCIPLES OF RESPONSIBLE USE
❗️🇷🇺 Ещё немного, и в России будет подписан Национальный кодекс этики ИИ - рекомендательный документ, который устанавливает общие этические принципы и стандарты поведения для стейкхолдеров в области искусственного интеллекта.
И возникает интересный вопрос: а почему этот документ так важен?
Ответ прост: государства, бизнес, общество - все заинтересованы в том, чтобы технологии ИИ имели этические рамки. Принятие на себя этических принципов означает, что созданному ИИ можно будет доверять.
Немного статистики:
1️⃣ На корпоративном уровне свои собственные корп. принципы этики ИИ уже утвердили более 30 мировых компаний - Microsoft, Google и т.п. В России в числе пионеров в области этики ИИ - Сбер (в котором, к слову, недавно заработала Рабочая группа по этике ИИ), Яндекс и ABBYY;
2️⃣ Этикой сейчас занимается большинство государств мира. Аналитические обзоры по этике ИИ иногда как будто "монополизируют" этику, сводя её к обзору европейских и американских документов. Но на самом деле документы в области этики ИИ принимаются повсеместно. Например: к регулированию этики ИИ недавно присоединился Китай;
3️⃣ Вопросами этики ИИ занимаются ведущие международные организации. В частности - ЮНЕСКО: в ноябре ожидается подписание Рекомендаций ЮНЕСКО по этике ИИ;
4️⃣ Этикой ИИ занимаются более 5 тысяч исследователей.
Так что подписание Кодекса - огромный шаг для всех сторон в сторону продвижения стандартов этики искусственного интеллекта.
И возникает интересный вопрос: а почему этот документ так важен?
Ответ прост: государства, бизнес, общество - все заинтересованы в том, чтобы технологии ИИ имели этические рамки. Принятие на себя этических принципов означает, что созданному ИИ можно будет доверять.
Немного статистики:
1️⃣ На корпоративном уровне свои собственные корп. принципы этики ИИ уже утвердили более 30 мировых компаний - Microsoft, Google и т.п. В России в числе пионеров в области этики ИИ - Сбер (в котором, к слову, недавно заработала Рабочая группа по этике ИИ), Яндекс и ABBYY;
2️⃣ Этикой сейчас занимается большинство государств мира. Аналитические обзоры по этике ИИ иногда как будто "монополизируют" этику, сводя её к обзору европейских и американских документов. Но на самом деле документы в области этики ИИ принимаются повсеместно. Например: к регулированию этики ИИ недавно присоединился Китай;
3️⃣ Вопросами этики ИИ занимаются ведущие международные организации. В частности - ЮНЕСКО: в ноябре ожидается подписание Рекомендаций ЮНЕСКО по этике ИИ;
4️⃣ Этикой ИИ занимаются более 5 тысяч исследователей.
Так что подписание Кодекса - огромный шаг для всех сторон в сторону продвижения стандартов этики искусственного интеллекта.
Пленарное заседание форума "Этика искусственного интеллекта: начало доверия" вот-вот начнётся. Посмотреть онлайн трансляцию можно здесь.
aiethic.ru
Форум этики в сфере искусственного интеллекта 2024
В октябре 2024 года состоится Форум этики в сфере искусственного интеллекта
Кодекс_этики_в_сфере_ИИ.pdf
430.9 KB
⚡️🇷🇺 Прямо сейчас происходит церемония подписания Национального кодекса этики искусственного интеллекта.
Это знаковое событие, которое предопределяет вектор будущего технологического развития.
Специально для наших подписчиков делимся текстом этого документа.
Это знаковое событие, которое предопределяет вектор будущего технологического развития.
Специально для наших подписчиков делимся текстом этого документа.
HCAI // Регулирование ИИ
Кодекс_этики_в_сфере_ИИ.pdf
А посмотреть реестр компаний, присоединившихся к Кодексу, можно на сайте Альянса в сфере искусственного интеллекта здесь (там же можно тоже посмотреть опубликованный текст Кодекса)
🤔 В ходе сессии по нормативному регулированию ИИ на вчерашнем форуме "Этика ИИ: начало доверия" состоялась очень интересная дискуссия. Участвовали:
А. В качестве модераторов:
1. Заместитель Руководителя Аппарата, Совет Федерации Федерального Собрания Российской Федерации Андрей Анатольевич Безруков
2. Управляющий директор Центра регулирования ИИ, ПАО Сбербанк Андрей Владимирович Незнамов
Б. В качестве участников
1. Директор Департамента стратегического развития и инноваций Министерства экономического развития Российской Федерации Рустам Сергеевич Тихонов
2. Член Правления, вице-президент по взаимодействию с органами государственной власти ПАО «МТС» Руслан Султанович Ибрагимов
3. Вице-президент по развитию и планированию, Фонд «Сколково» Сергей Владимирович Израйлит
4. Директор по корпоративным вопросам и работе с государственными органами, Microsoft Cергей Игоревич Большаков
5. Директор, Thales DIS в России Ильдар Юрьевич Скрижалин
6. Руководитель правовой практики в сфере ПО, технологий, сделок с брендом и данными, ООО «Яндекс» Александр Валерьевич Гаврилин
7. Заместитель руководителя Аппарата, Общественная палата Российской Федерации Александр Сергеевич Юхно
8. Директор по взаимодействию с органами государственной власти, ABBYY Ольга Александровна Минаева
Обсуждалось множество вопросов. Например: 1) что делать дальше в сфере этики ИИ и 2) как разрешать один из «наболевших» вопросов – вопрос идентификации ИИ во взаимодействии с человеком.
По вопросу «что дальше?» ответы были самые разные. Например, было предложено обратить внимание на ресурсоёмкость систем ИИ и создание систем, которые снизят логистическое потребление. Важно также продолжить популяризировать в области ИИ, а также продолжать развивать ИИ треки в высшем образовании. Были озвучены предложения по внедрению системы этического комплаенса, публикации свода лучших практик и предотвращения т.н. «ethics washing» (чтобы у компаний не возникло соблазна использовать Кодекс как сугубо номинальный документ). Не меньшее внимание уделялось отраслевым вопросам: что делать с результатами интеллектуальной деятельности, созданными ИИ? – как видится, дискуссия по этом вопросу будет продолжаться и дальше.
Не менее интересной оказалась дискуссия по идентификации ИИ. Стоит ли уведомлять человека всякий раз, или всё-таки есть пределы? Привязывать ли обязанность идентификации к рискам? Можно ли вместо этого предусмотреть некое рамочное уведомление об использовании ИИ? А что делать с механизмами opt out?
В общем, подписание кодекса – не конец, а, пожалуй, только начало ещё более масштабной работы над многими сложными вопросами
А. В качестве модераторов:
1. Заместитель Руководителя Аппарата, Совет Федерации Федерального Собрания Российской Федерации Андрей Анатольевич Безруков
2. Управляющий директор Центра регулирования ИИ, ПАО Сбербанк Андрей Владимирович Незнамов
Б. В качестве участников
1. Директор Департамента стратегического развития и инноваций Министерства экономического развития Российской Федерации Рустам Сергеевич Тихонов
2. Член Правления, вице-президент по взаимодействию с органами государственной власти ПАО «МТС» Руслан Султанович Ибрагимов
3. Вице-президент по развитию и планированию, Фонд «Сколково» Сергей Владимирович Израйлит
4. Директор по корпоративным вопросам и работе с государственными органами, Microsoft Cергей Игоревич Большаков
5. Директор, Thales DIS в России Ильдар Юрьевич Скрижалин
6. Руководитель правовой практики в сфере ПО, технологий, сделок с брендом и данными, ООО «Яндекс» Александр Валерьевич Гаврилин
7. Заместитель руководителя Аппарата, Общественная палата Российской Федерации Александр Сергеевич Юхно
8. Директор по взаимодействию с органами государственной власти, ABBYY Ольга Александровна Минаева
Обсуждалось множество вопросов. Например: 1) что делать дальше в сфере этики ИИ и 2) как разрешать один из «наболевших» вопросов – вопрос идентификации ИИ во взаимодействии с человеком.
По вопросу «что дальше?» ответы были самые разные. Например, было предложено обратить внимание на ресурсоёмкость систем ИИ и создание систем, которые снизят логистическое потребление. Важно также продолжить популяризировать в области ИИ, а также продолжать развивать ИИ треки в высшем образовании. Были озвучены предложения по внедрению системы этического комплаенса, публикации свода лучших практик и предотвращения т.н. «ethics washing» (чтобы у компаний не возникло соблазна использовать Кодекс как сугубо номинальный документ). Не меньшее внимание уделялось отраслевым вопросам: что делать с результатами интеллектуальной деятельности, созданными ИИ? – как видится, дискуссия по этом вопросу будет продолжаться и дальше.
Не менее интересной оказалась дискуссия по идентификации ИИ. Стоит ли уведомлять человека всякий раз, или всё-таки есть пределы? Привязывать ли обязанность идентификации к рискам? Можно ли вместо этого предусмотреть некое рамочное уведомление об использовании ИИ? А что делать с механизмами opt out?
В общем, подписание кодекса – не конец, а, пожалуй, только начало ещё более масштабной работы над многими сложными вопросами
🌍Делимся текстом недавно принятых в США, Канаде и Великобритании Руководящих принципов по применению машинного обучения в работе медицинских устройств.
GOV.UK
Good Machine Learning Practice for Medical Device Development: Guiding Principles
The U.S. Food and Drug Administration (FDA), Health Canada, and the United Kingdom’s Medicines and Healthcare products Regulatory Agency (MHRA) have jointly identified 10 guiding principles that can inform the development of Good Machine Learning Practice…
Forwarded from Обозреватель БПЛА
🇬🇧 Регулирование
Британский экспертный комитет Regulatory Horizons Council (RHC) опубликовал рекомендации по реформам, необходимым для поддержки быстрого и безопасного внедрения беспилотников в стране.
В отчёте подробно рассматриваются предложения для удаленных частей Великобритании, таких как Гебриды, выступать в качестве испытательного полигона для коммерческого развертывания дронов. В частности RHC описывает конкретные меры которые правительство должно предпринять в перспективе до 2030 года и прогнозы последствий этих мер.
Реагируя на отчёт государственный секретарь по делам бизнеса, энергетики и промышленной стратегии Кваси Квартенг назвал рекомендации своевременным и актуальным.
📎 Ознакомиться с полной версией отчёта экспертов можно в Telegram.
Британский экспертный комитет Regulatory Horizons Council (RHC) опубликовал рекомендации по реформам, необходимым для поддержки быстрого и безопасного внедрения беспилотников в стране.
В отчёте подробно рассматриваются предложения для удаленных частей Великобритании, таких как Гебриды, выступать в качестве испытательного полигона для коммерческого развертывания дронов. В частности RHC описывает конкретные меры которые правительство должно предпринять в перспективе до 2030 года и прогнозы последствий этих мер.
Реагируя на отчёт государственный секретарь по делам бизнеса, энергетики и промышленной стратегии Кваси Квартенг назвал рекомендации своевременным и актуальным.
📎 Ознакомиться с полной версией отчёта экспертов можно в Telegram.
GOV.UK
New proposals put forward to strengthen drone regulation and boost UK aviation sector
Report published by the Regulatory Horizons Council sets out how the UK could support the rapid and safe commercialisation of drones.
🌍 Уже завтра начнётся традиционная конференция по искусственному интеллекту AI Journey.
В прошлом году конференция стала крупнейшим профильным онлайн-мероприятием в мире по числу регистраций и привлекла более 30 тысяч участников из 100 стран мира. Число просмотров трансляций превысило 30 миллионов.
На конференции будут затрагиваться самые разные вопросы. Например, завтра во второй половине дня состоится секция этики ИИ "Законы будущего 2.0", где будут выступать ведущие российские и зарубежные эксперты.
Мы будем держать вас в курсе мероприятия и поделимся ссылками на трансляции
В прошлом году конференция стала крупнейшим профильным онлайн-мероприятием в мире по числу регистраций и привлекла более 30 тысяч участников из 100 стран мира. Число просмотров трансляций превысило 30 миллионов.
На конференции будут затрагиваться самые разные вопросы. Например, завтра во второй половине дня состоится секция этики ИИ "Законы будущего 2.0", где будут выступать ведущие российские и зарубежные эксперты.
Мы будем держать вас в курсе мероприятия и поделимся ссылками на трансляции
На AIJ только что закончилась панельная дискуссия. Теперь начинается Key Note Talks. Сейчас выступает Бьёрн Берге, Совет Европы. Очень рекомендуем посмотреть
А сейчас по теме "Этика ИИ на практике: согласование ИИ с человеческими ценностями" выступит Том Грубер, Humanistic.AI
Совсем скоро в рамках AIJ начнётся секция по этике ИИ. У этой секции очень насыщенная программа. Начнётся секция с обсуждением с участием В. Федулова, как реализуется национальная стратегия ИИ
HCAI // Регулирование ИИ
Совсем скоро в рамках AIJ начнётся секция по этике ИИ. У этой секции очень насыщенная программа. Начнётся секция с обсуждением с участием В. Федулова, как реализуется национальная стратегия ИИ
А через пять минут состоится церемония присоединения к Кодексу этики в сфере ИИ
HCAI // Регулирование ИИ
А через пять минут состоится церемония присоединения к Кодексу этики в сфере ИИ
А сейчас в рамках Keynote Talks выступает И Зенг, Китайская академия наук - один из ведущих китайских учёных в области ИИ
К Кодексу этики ИИ сегодня присоединились:
1. ООО «Вижн Лабс» (в лице ГД Маркова Дмитрия Александровича)
2. ООО «Лаборатория «Наносемантика» (в лице ГД Ашманова Станислава Игоревича)
3. АНО «Диалог» (в лице ГД Гореславского Алексея Сергеевича)
4. Группа компаний ЦРТ (в лице ГД Дырмовского Дмитрия Викторовича)
5. Cognitive Pilot (в лице ГД Усковой Ольги Анатолиевны)
6. Центр ИИ МГТУ им. Н.Э. Баумана (в лице директора Центра Нелюб Владимира Александровича)
7. VEB Ventures (в лице ГД Теплова Олега Владимировича)
При этом в ходе церемонии состоялась очень интересная дискуссия. Открывала церемонию Начальник Управления Президента Российской Федерации по развитию информационно-коммуникационных технологий и инфраструктуры связи Матвеева Татьяна Владимировна
1. ООО «Вижн Лабс» (в лице ГД Маркова Дмитрия Александровича)
2. ООО «Лаборатория «Наносемантика» (в лице ГД Ашманова Станислава Игоревича)
3. АНО «Диалог» (в лице ГД Гореславского Алексея Сергеевича)
4. Группа компаний ЦРТ (в лице ГД Дырмовского Дмитрия Викторовича)
5. Cognitive Pilot (в лице ГД Усковой Ольги Анатолиевны)
6. Центр ИИ МГТУ им. Н.Э. Баумана (в лице директора Центра Нелюб Владимира Александровича)
7. VEB Ventures (в лице ГД Теплова Олега Владимировича)
При этом в ходе церемонии состоялась очень интересная дискуссия. Открывала церемонию Начальник Управления Президента Российской Федерации по развитию информационно-коммуникационных технологий и инфраструктуры связи Матвеева Татьяна Владимировна
И сейчас уже должен начаться завершающий этап мероприятия: Keynote Talk "Этика и регулирование ИИ: разговор с учеными"