#ИИ
Опубликована аналитическая справка по стандартам в области искусственного интеллекта.
Аналитический центр при Правительстве РФ составил справку с информацией о применяющихся стандартах в области ИИ, их требованиях и сферах применения.
Всего описано 9 стандартов:
• «Системы искусственного интеллекта. Способы обеспечения доверия. Общие положения» (ГОСТ Р 59276-2020)
• «Информационная поддержка жизненного цикла изделий. Интерактивные электронные технические руководства с применением технологий искусственного интеллекта и дополненной реальности. Общие сведения» (ГОСТ Р 59278-2020)
• «Системы искусственного интеллекта. Классификация систем искусственного интеллекта» (ГОСТ Р 59277-2020)
• «Средства мониторинга поведения и прогнозирования намерений людей. Термины и определения» (ГОСТ Р 58776-2019)
• «Информационные технологии. Искусственный интеллект. Ситуационная видеоаналитика. Термины и определения» (ГОСТ Р 59385-2021)
• «Средства мониторинга поведения и прогнозирования намерений людей. Аппаратно-программные средства с применением технологий искусственного интеллекта для колесных транспортных средств. Классификация, назначение, состав и характеристики средств фото- и видеофиксации» (ГОСТ Р 59391-2021)
• «Воздушный транспорт. Аэропорты. Технические средства досмотра. Методика определения показателей качества распознавания незаконных вложений по теневым рентгеновским изображениям» (ГОСТ Р 58777-2019)
• «Платформа «Автодата». Термины и определения» (ГОСТ Р 59237-2020) и «Платформа «Автодата». Общие положения» (ГОСТ Р 59236-2020)
Опубликована аналитическая справка по стандартам в области искусственного интеллекта.
Аналитический центр при Правительстве РФ составил справку с информацией о применяющихся стандартах в области ИИ, их требованиях и сферах применения.
Всего описано 9 стандартов:
• «Системы искусственного интеллекта. Способы обеспечения доверия. Общие положения» (ГОСТ Р 59276-2020)
• «Информационная поддержка жизненного цикла изделий. Интерактивные электронные технические руководства с применением технологий искусственного интеллекта и дополненной реальности. Общие сведения» (ГОСТ Р 59278-2020)
• «Системы искусственного интеллекта. Классификация систем искусственного интеллекта» (ГОСТ Р 59277-2020)
• «Средства мониторинга поведения и прогнозирования намерений людей. Термины и определения» (ГОСТ Р 58776-2019)
• «Информационные технологии. Искусственный интеллект. Ситуационная видеоаналитика. Термины и определения» (ГОСТ Р 59385-2021)
• «Средства мониторинга поведения и прогнозирования намерений людей. Аппаратно-программные средства с применением технологий искусственного интеллекта для колесных транспортных средств. Классификация, назначение, состав и характеристики средств фото- и видеофиксации» (ГОСТ Р 59391-2021)
• «Воздушный транспорт. Аэропорты. Технические средства досмотра. Методика определения показателей качества распознавания незаконных вложений по теневым рентгеновским изображениям» (ГОСТ Р 58777-2019)
• «Платформа «Автодата». Термины и определения» (ГОСТ Р 59237-2020) и «Платформа «Автодата». Общие положения» (ГОСТ Р 59236-2020)
#ИИ
Финансовый регулятор Германии (BaFin) опубликовал принципы использования искусственного интеллекта в финансовой сфере.
Компании, которые используют алгоритмы для принятия решений, должны соблюдать, в частности, следующие принципы:
- руководство компаний должно нести ответственность за бизнес-решения, даже если они основаны на алгоритмах;
- система управления рисками должна быть адаптирована под процессы c искусственным интеллектом;
- в случае использования аутсорсинга должна быть создана система управления рисками аутсорсинга;
- при внедрении систем принятия решений с помощью искусственного интеллекта необходимо убедиться, что в результате не возникает предвзятости и дискриминации.
Также недавно было опубликовано обширное исследование применения ИИ в сфере финансовых услуг, проведенное Институтом Алана Тьюринга по заказу финансового регулятора Великобритании (FCA).
В нем освещены основы ИИ, проблемы и принципы ответственного использования ИИ, потенциальные преимущества и опасности, связанные с использованием ИИ в сфере финансовых услуг, а также важность прозрачности ИИ.
Финансовый регулятор Германии (BaFin) опубликовал принципы использования искусственного интеллекта в финансовой сфере.
Компании, которые используют алгоритмы для принятия решений, должны соблюдать, в частности, следующие принципы:
- руководство компаний должно нести ответственность за бизнес-решения, даже если они основаны на алгоритмах;
- система управления рисками должна быть адаптирована под процессы c искусственным интеллектом;
- в случае использования аутсорсинга должна быть создана система управления рисками аутсорсинга;
- при внедрении систем принятия решений с помощью искусственного интеллекта необходимо убедиться, что в результате не возникает предвзятости и дискриминации.
Также недавно было опубликовано обширное исследование применения ИИ в сфере финансовых услуг, проведенное Институтом Алана Тьюринга по заказу финансового регулятора Великобритании (FCA).
В нем освещены основы ИИ, проблемы и принципы ответственного использования ИИ, потенциальные преимущества и опасности, связанные с использованием ИИ в сфере финансовых услуг, а также важность прозрачности ИИ.
#ИИ
Совет Европейского союза опубликовал свое заключение о технологиях обработки данных, которые могут использоваться для совершенствования нормативного регулирования.
Совет призывает расширять использование технологий обработки данных для создания нормативного регулирования, которое будет высококачественным, основанным на данных и по умолчанию цифровым.
Совет подчеркивает, что при использовании технологий обработки данных, в том числе технологий искусственного интеллекта, должны применяться только высококачественные источники информации, чтобы обеспечить защиту прав человека и в целом человеко-ориентированный подход.
Материал подготовлен с использованием информации, предоставленной каналом Центр регулирования ИИ.
Совет Европейского союза опубликовал свое заключение о технологиях обработки данных, которые могут использоваться для совершенствования нормативного регулирования.
Совет призывает расширять использование технологий обработки данных для создания нормативного регулирования, которое будет высококачественным, основанным на данных и по умолчанию цифровым.
Совет подчеркивает, что при использовании технологий обработки данных, в том числе технологий искусственного интеллекта, должны применяться только высококачественные источники информации, чтобы обеспечить защиту прав человека и в целом человеко-ориентированный подход.
Материал подготовлен с использованием информации, предоставленной каналом Центр регулирования ИИ.
#ИИ
Европейский совет по защите данных (EDPB) и Европейский надзорный орган по защите данных (EDPS) предлагают внести больше запретов в проект Регламента ЕС по искусственному интеллекту.
По мнению регуляторов:
• ИИ ни в каком виде не должен использоваться для удаленного распознавания лиц или каких-либо других отличительных черт людей в общественных местах.
• Должен быть запрещен ИИ для разделения людей на категории на основе биометрической информации (например, по полу, расовой принадлежности, политическим или сексуальным предпочтениям).
• Не допустимо применение ИИ для распознавания эмоций людей.
• Запрет использования ИИ для социального скоринга должен касаться не только органов власти, но и частных компаний, в том числе социальных сетей.
• Регламент должен прямо указывать на необходимость соответствия систем с ИИ европейскому законодательству о защите данных (в том числе GDPR). Это должно быть условием для прохождения сертификации в ЕС.
Также регуляторы обеспокоены тем, что из-под действия Регламента выведены иностранные государственные органы и международные организации, которые используют ИИ в рамках международных соглашений для целей правоприменения и судебного взаимодействия с ЕС или странами-членами ЕС. Это может привести к обходу ограничений ЕС в отношении ИИ.
Европейский совет по защите данных (EDPB) и Европейский надзорный орган по защите данных (EDPS) предлагают внести больше запретов в проект Регламента ЕС по искусственному интеллекту.
По мнению регуляторов:
• ИИ ни в каком виде не должен использоваться для удаленного распознавания лиц или каких-либо других отличительных черт людей в общественных местах.
• Должен быть запрещен ИИ для разделения людей на категории на основе биометрической информации (например, по полу, расовой принадлежности, политическим или сексуальным предпочтениям).
• Не допустимо применение ИИ для распознавания эмоций людей.
• Запрет использования ИИ для социального скоринга должен касаться не только органов власти, но и частных компаний, в том числе социальных сетей.
• Регламент должен прямо указывать на необходимость соответствия систем с ИИ европейскому законодательству о защите данных (в том числе GDPR). Это должно быть условием для прохождения сертификации в ЕС.
Также регуляторы обеспокоены тем, что из-под действия Регламента выведены иностранные государственные органы и международные организации, которые используют ИИ в рамках международных соглашений для целей правоприменения и судебного взаимодействия с ЕС или странами-членами ЕС. Это может привести к обходу ограничений ЕС в отношении ИИ.
#ИИ
Прозрачность и предсказуемость функционирования ИИ (explainable AI) стали предметом судебных разбирательств в Европе.
Итальянские суды приняли два значимых решения по искусственному интеллекту. В обоих случаях присутствует асимметричность информации между онлайн-платформами и пользователями, которую первые используют в своих интересах.
Дело Deliveroo (онлайн-компания по доставке продуктов питания и еды из ресторанов)
Deliveroo использует алгоритм «Франк» для рейтингования своих курьеров и распределения заказов. Рейтинг зависит от «надежности» курьера и его готовности работать в пиковое время. Рейтинг понижается, например, если курьер не предупреждает о том, что не сможет выйти в свою смену, хотя бы за сутки до ее начала. Чем выше рейтинг, тем больше заказов в удобное время получает курьер.
Суд пришел к выводу, что алгоритм Deliveroo не принимает во внимание причины, по которым курьер не сообщил о том, что не сможет выйти на работу. Таким образом, не делается различий между теми, кто просто прогулял, и теми, у кого были уважительные причины (болезнь, уход за ребенком, забастовка и т.д.). По решению суда Deliveroo должны устранить дискриминацию, которая лежит в основе работы их алгоритма.
Дело Mevaluate (платформа, которая позволяет узнать о репутации человека или компании)
Mevaluate строит свои рейтинги на основе персональных данных. Суд решил, что пользователям платформы ничего не известно о том, как и на основании какой логики работает ее алгоритм, он абсолютно непрозрачен. Пользователям неизвестно, как их персональные данные используются системой.
В связи с этим согласия на обработку персональных данных, которые предоставляют пользователи, даются ими неинформированно и, следовательно, не распространяются на работу алгоритма. Суд поддержал запрет Mevaluate обрабатывать персональные данные через свою платформу.
Прозрачность и предсказуемость функционирования ИИ (explainable AI) стали предметом судебных разбирательств в Европе.
Итальянские суды приняли два значимых решения по искусственному интеллекту. В обоих случаях присутствует асимметричность информации между онлайн-платформами и пользователями, которую первые используют в своих интересах.
Дело Deliveroo (онлайн-компания по доставке продуктов питания и еды из ресторанов)
Deliveroo использует алгоритм «Франк» для рейтингования своих курьеров и распределения заказов. Рейтинг зависит от «надежности» курьера и его готовности работать в пиковое время. Рейтинг понижается, например, если курьер не предупреждает о том, что не сможет выйти в свою смену, хотя бы за сутки до ее начала. Чем выше рейтинг, тем больше заказов в удобное время получает курьер.
Суд пришел к выводу, что алгоритм Deliveroo не принимает во внимание причины, по которым курьер не сообщил о том, что не сможет выйти на работу. Таким образом, не делается различий между теми, кто просто прогулял, и теми, у кого были уважительные причины (болезнь, уход за ребенком, забастовка и т.д.). По решению суда Deliveroo должны устранить дискриминацию, которая лежит в основе работы их алгоритма.
Дело Mevaluate (платформа, которая позволяет узнать о репутации человека или компании)
Mevaluate строит свои рейтинги на основе персональных данных. Суд решил, что пользователям платформы ничего не известно о том, как и на основании какой логики работает ее алгоритм, он абсолютно непрозрачен. Пользователям неизвестно, как их персональные данные используются системой.
В связи с этим согласия на обработку персональных данных, которые предоставляют пользователи, даются ими неинформированно и, следовательно, не распространяются на работу алгоритма. Суд поддержал запрет Mevaluate обрабатывать персональные данные через свою платформу.
#ИИ
Всемирная организация здравоохранения и искусственный интеллект
ВОЗ опубликовала отчет об использовании ИИ в сфере здравоохранения, а также сформулировала 6 принципов регулирования ИИ:
1. Защита независимости человека (необходимо сохранять контроль над медицинскими решениями за человеком).
2. Благополучие человека, безопасность и публичные интересы должны быть в приоритете (должны быть введены меры контроля качества систем с ИИ).
3. Прозрачность и объяснимость решений с ИИ (до использования технологий с ИИ необходимо предоставить достаточную информацию о них).
4. Ответственность и подотчетность (эффективные механизмы получения возмещения должны быть доступны для лиц, чьи права были нарушены системами с ИИ).
5. Инклюзивность и равенство (недопущение дискриминации).
6. Отзывчивость и устойчивость (системы с ИИ необходимо постоянно проверять и оценивать, соответствуют ли они ожиданиям и требованиям).
Всемирная организация здравоохранения и искусственный интеллект
ВОЗ опубликовала отчет об использовании ИИ в сфере здравоохранения, а также сформулировала 6 принципов регулирования ИИ:
1. Защита независимости человека (необходимо сохранять контроль над медицинскими решениями за человеком).
2. Благополучие человека, безопасность и публичные интересы должны быть в приоритете (должны быть введены меры контроля качества систем с ИИ).
3. Прозрачность и объяснимость решений с ИИ (до использования технологий с ИИ необходимо предоставить достаточную информацию о них).
4. Ответственность и подотчетность (эффективные механизмы получения возмещения должны быть доступны для лиц, чьи права были нарушены системами с ИИ).
5. Инклюзивность и равенство (недопущение дискриминации).
6. Отзывчивость и устойчивость (системы с ИИ необходимо постоянно проверять и оценивать, соответствуют ли они ожиданиям и требованиям).
World Health Organization
WHO issues first global report on Artificial Intelligence (AI) in health and six guiding principles for its design and use
Artificial Intelligence (AI) holds great promise for improving the delivery of healthcare and medicine worldwide, but only if ethics and human rights are put at the heart of its design, deployment, and use, according to new WHO guidance published today. The…
#ИИ
Роспатент зарегистрировал программу, созданную искусственным интеллектом.
Программа Artificial Vision прошла государственную регистрацию в Роспатенте. В качестве авторов произведения указаны разработчики из Sber AI, которые создали и тренировали нейросеть, написавшую код программы.
Правовой эксперимент по регистрации интеллектуальной собственности, созданной ИИ, может иметь важные последствия для отрасли.
Ранее основатели DABUS – системы на основе ИИ - пытались получить патенты, указывая автором изобретений ИИ, но получали отказы патентных ведомств в США, Англии и ЕС.
Однако сегодня появилась информация, что DABUS смог получить патент в ЮАР, в нем в качестве изобретателя указан ИИ.
Роспатент зарегистрировал программу, созданную искусственным интеллектом.
Программа Artificial Vision прошла государственную регистрацию в Роспатенте. В качестве авторов произведения указаны разработчики из Sber AI, которые создали и тренировали нейросеть, написавшую код программы.
Правовой эксперимент по регистрации интеллектуальной собственности, созданной ИИ, может иметь важные последствия для отрасли.
Ранее основатели DABUS – системы на основе ИИ - пытались получить патенты, указывая автором изобретений ИИ, но получали отказы патентных ведомств в США, Англии и ЕС.
Однако сегодня появилась информация, что DABUS смог получить патент в ЮАР, в нем в качестве изобретателя указан ИИ.
Цифровое право
#ИИ Минэкономразвития опубликовало проекты приказов, которые устанавливают критерии принадлежности проектов к сфере искусственного интеллекта (ИИ). Проекты разработаны для предоставления субсидий Фондом содействия развитию малых форм предприятий в научно…
#ИИ
Утверждены критерии принадлежности проектов к сфере искусственного интеллекта (ИИ).
Критерии необходимы для определения проектов в сфере ИИ, на которые можно направлять государственные субсидии.
Приказ Минэкономразвития содержит следующее определение ИИ:
Комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека.
Определение взято из Национальной стратегии
развития искусственного интеллекта на период до 2030 года.
Утверждены критерии принадлежности проектов к сфере искусственного интеллекта (ИИ).
Критерии необходимы для определения проектов в сфере ИИ, на которые можно направлять государственные субсидии.
Приказ Минэкономразвития содержит следующее определение ИИ:
Комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека.
Определение взято из Национальной стратегии
развития искусственного интеллекта на период до 2030 года.
publication.pravo.gov.ru
Приказ Министерства экономического развития Российской Федерации от 29.06.2021 № 392 ∙ Официальное опубликование правовых актов…
Приказ Министерства экономического развития Российской Федерации от 29.06.2021 № 392
"Об утверждении критериев определения принадлежности проектов к проектам в сфере искусственного интеллекта"
"Об утверждении критериев определения принадлежности проектов к проектам в сфере искусственного интеллекта"
#ИИ
Минэкономразвития дало разъяснения по поводу утвержденных ранее критериев принадлежности проектов к сфере ИИ.
К сфере ИИ относятся проекты, которые направлены на работу со следующими технологиями:
• компьютерное зрение;
• обработка естественного языка;
• распознавание и синтез речи;
• интеллектуальные системы поддержки принятия решений;
• перспективные методы ИИ.
Проекты будут оцениваться по трем направлениям:
• предмет;
• базовая технология;
• результат реализации.
Подходящие под критерии проекты могут претендовать на гранты от Фонда содействия инновациям и Фонда «Сколково».
Фонд содействия инновациям уже запустил конкурс на гранты для коммерциализации ИИ-решений.
Минэкономразвития дало разъяснения по поводу утвержденных ранее критериев принадлежности проектов к сфере ИИ.
К сфере ИИ относятся проекты, которые направлены на работу со следующими технологиями:
• компьютерное зрение;
• обработка естественного языка;
• распознавание и синтез речи;
• интеллектуальные системы поддержки принятия решений;
• перспективные методы ИИ.
Проекты будут оцениваться по трем направлениям:
• предмет;
• базовая технология;
• результат реализации.
Подходящие под критерии проекты могут претендовать на гранты от Фонда содействия инновациям и Фонда «Сколково».
Фонд содействия инновациям уже запустил конкурс на гранты для коммерциализации ИИ-решений.
www.economy.gov.ru
В Минэкономразвития определили, что считать проектами в сфере искусственного интеллекта | Министерство экономического развития…
К сфере искусственного интеллекта будут относится проекты, направленные на развитие, создание и внедрение технологий компьютерного зрения, обработки естественного языка, распознавания и синтеза речи,
#ИИ
Иностранные тренды регулирования ИИ в финансовой сфере:
Апрель 2021 - Европейская комиссия опубликовала проект Регламента о регулировании ИИ в ЕС.
Март 2021 – Федеральные агентства США проводят сбор информации и мнений об использовании ИИ и машинного обучения финансовыми институтами.
Июнь 2020 – Международная организация комиссий по ценным бумагам (IOSCO) опубликовала отчет об использовании ИИ и предложила меры по регулированию.
Февраль 2020 – Европейская комиссия выпустила предложения по регулированию экосистем с ИИ.
Январь 2020 – Банк Англии и Управление по финансовому регулированию и надзору запустили публично-частный форум по ИИ.
Май 2019 – ОЭСР опубликовала Принципы ИИ – международный стандарт ответственного использования ИИ.
Декабрь 2018 – во Франции создана рабочая группа, которая объединяет профессионалов и государственные органы для обсуждения проблем использования ИИ.
Иностранные тренды регулирования ИИ в финансовой сфере:
Апрель 2021 - Европейская комиссия опубликовала проект Регламента о регулировании ИИ в ЕС.
Март 2021 – Федеральные агентства США проводят сбор информации и мнений об использовании ИИ и машинного обучения финансовыми институтами.
Июнь 2020 – Международная организация комиссий по ценным бумагам (IOSCO) опубликовала отчет об использовании ИИ и предложила меры по регулированию.
Февраль 2020 – Европейская комиссия выпустила предложения по регулированию экосистем с ИИ.
Январь 2020 – Банк Англии и Управление по финансовому регулированию и надзору запустили публично-частный форум по ИИ.
Май 2019 – ОЭСР опубликовала Принципы ИИ – международный стандарт ответственного использования ИИ.
Декабрь 2018 – во Франции создана рабочая группа, которая объединяет профессионалов и государственные органы для обсуждения проблем использования ИИ.
Telegram
Цифровое право
#ИИ
В конце апреля Европейская комиссия опубликовала проект Регламента о регулировании ИИ в ЕС.
Регламент устанавливает:
1. Правила допуска на рынок, использования и эксплуатации систем с ИИ в ЕС.
2. Требования к высокорискованным системам с ИИ и обязанности…
В конце апреля Европейская комиссия опубликовала проект Регламента о регулировании ИИ в ЕС.
Регламент устанавливает:
1. Правила допуска на рынок, использования и эксплуатации систем с ИИ в ЕС.
2. Требования к высокорискованным системам с ИИ и обязанности…
#ИИ
Искусственный интеллект в помощь МВД
МВД разместило закупку – выполнение работ «Исследование применимости методов машинного обучения и анализа данных для выявления признаков серийности (сходства) определенных категорий преступлений».
На исследование готовы были потратить 23 млн. рублей из федерального бюджета, но АО «Рамэк-ВС» (системный интегратор) предложило выполнить их за 12 млн. – и выиграло тендер. Конкурентом был Московский Политехнический Университет, однако он предложил 17 млн.
На выполнение исследования отведено около 10 месяцев. За это время должны быть проведены теоретические и патентные исследования, а также разработан макет информационной системы для выявления признаков серийности (сходства) определенных категорий преступлений.
Информационная система будет использоваться в процессе расследования преступлений. В системе будут сформированы перечни признаков преступлений, с ее помощью можно будет «устанавливать взаимосвязи с уже имеющимися материалами и оперативно выделять из представленных массивов информации признаки серийности (сходства) определенных категорий преступлений».
Искусственный интеллект в помощь МВД
МВД разместило закупку – выполнение работ «Исследование применимости методов машинного обучения и анализа данных для выявления признаков серийности (сходства) определенных категорий преступлений».
На исследование готовы были потратить 23 млн. рублей из федерального бюджета, но АО «Рамэк-ВС» (системный интегратор) предложило выполнить их за 12 млн. – и выиграло тендер. Конкурентом был Московский Политехнический Университет, однако он предложил 17 млн.
На выполнение исследования отведено около 10 месяцев. За это время должны быть проведены теоретические и патентные исследования, а также разработан макет информационной системы для выявления признаков серийности (сходства) определенных категорий преступлений.
Информационная система будет использоваться в процессе расследования преступлений. В системе будут сформированы перечни признаков преступлений, с ее помощью можно будет «устанавливать взаимосвязи с уже имеющимися материалами и оперативно выделять из представленных массивов информации признаки серийности (сходства) определенных категорий преступлений».
#ИИ
В Великобритании опубликована стратегия развития искусственного интеллекта на ближайшие 10 лет. Цель амбициозная - сделать Великобританию глобальным лидером в сфере ИИ.
Согласно стратегии, страна разработает собственный закон о регулировании ИИ (ЕС недавно представил свой проект такого закона).
Также планируется поддерживать исследования и разработки этой технологии и помогать компаниям, которые используют ИИ в разных сферах экономики.
Будет развиваться регулирование интеллектуальных прав: профильный регулятор проведет консультации, чтобы понять, как лучше регистрировать изобретения, сделанные ИИ, а также как сделать доступными для тренировок ИИ материалы, защищенные авторским правом.
В Великобритании опубликована стратегия развития искусственного интеллекта на ближайшие 10 лет. Цель амбициозная - сделать Великобританию глобальным лидером в сфере ИИ.
Согласно стратегии, страна разработает собственный закон о регулировании ИИ (ЕС недавно представил свой проект такого закона).
Также планируется поддерживать исследования и разработки этой технологии и помогать компаниям, которые используют ИИ в разных сферах экономики.
Будет развиваться регулирование интеллектуальных прав: профильный регулятор проведет консультации, чтобы понять, как лучше регистрировать изобретения, сделанные ИИ, а также как сделать доступными для тренировок ИИ материалы, защищенные авторским правом.
GOV.UK
National AI Strategy
The National AI Strategy builds on the UK’s strengths but also represents the start of a step-change for AI in the UK, recognising the power of AI to increase resilience, productivity, growth and innovation across the private and public sectors.
#ИИ
Стали известны подробности об австралийском Плане развития искусственного интеллекта:
Бизнес
- Создается Национальный центр ИИ и четыре центра цифровых компетенций для поддержки малого и среднего бизнеса;
- Поддерживаются разработки с ИИ для решения региональных проблем;
- Финансируются исследования в области ИИ для создания новых продуктов, сервисов и технологий.
Люди
- Создается программа обучения студентов в сфере ИИ;
- Финансируются исследователи в сфере ИИ;
- Разрабатывается программа повышения взаимодействия с ИИ;
- Продвигается применение австралийских Принципов этики ИИ, разработанных в 2019 году для бизнеса и государственных органов.
Стали известны подробности об австралийском Плане развития искусственного интеллекта:
Бизнес
- Создается Национальный центр ИИ и четыре центра цифровых компетенций для поддержки малого и среднего бизнеса;
- Поддерживаются разработки с ИИ для решения региональных проблем;
- Финансируются исследования в области ИИ для создания новых продуктов, сервисов и технологий.
Люди
- Создается программа обучения студентов в сфере ИИ;
- Финансируются исследователи в сфере ИИ;
- Разрабатывается программа повышения взаимодействия с ИИ;
- Продвигается применение австралийских Принципов этики ИИ, разработанных в 2019 году для бизнеса и государственных органов.
#ИИ
Китайская этика искусственного интеллекта
В Китае опубликовали правила этики искусственного интеллекта. Китай также, как и Великобритания, стремится стать лидером в области искусственного интеллекта к 2030 году.
Согласно правилам:
• контроль над ИИ должен оставаться за людьми;
• люди должны иметь возможность выбора, взаимодействовать с ИИ или нет, и отказаться от услуг ИИ по своему желанию;
• системы с ИИ должны быть надежными, защищать конфиденциальность, обеспечивать безопасность, способствовать благополучию населения.
Китайская этика искусственного интеллекта
В Китае опубликовали правила этики искусственного интеллекта. Китай также, как и Великобритания, стремится стать лидером в области искусственного интеллекта к 2030 году.
Согласно правилам:
• контроль над ИИ должен оставаться за людьми;
• люди должны иметь возможность выбора, взаимодействовать с ИИ или нет, и отказаться от услуг ИИ по своему желанию;
• системы с ИИ должны быть надежными, защищать конфиденциальность, обеспечивать безопасность, способствовать благополучию населения.
South China Morning Post
Chinese AI has new ethical guidelines that curb Big Tech’s algorithms
China released its first set of guidelines on AI ethics as the country seeks to become the industry leader while cracking down on the influence of Big Tech firms.
#ИИ
Опубликованы новые стандарты по применению искусственного интеллекта в здравоохранении.
Доступны для ознакомления следующие стандарты из группы «Системы искусственного интеллекта в клинической медицине»:
• Клинические испытания;
• Программа и методика технических испытаний;
• Управление изменениями в системах искусственного интеллекта с адаптивными алгоритмами;
• Оценка и контроль эксплуатационных параметров;
• Требования к структуре и порядку применения набора данных для обучения и тестирования алгоритмов;
• Общие требования к эксплуатации;
• Процессы жизненного цикла.
Опубликованы новые стандарты по применению искусственного интеллекта в здравоохранении.
Доступны для ознакомления следующие стандарты из группы «Системы искусственного интеллекта в клинической медицине»:
• Клинические испытания;
• Программа и методика технических испытаний;
• Управление изменениями в системах искусственного интеллекта с адаптивными алгоритмами;
• Оценка и контроль эксплуатационных параметров;
• Требования к структуре и порядку применения набора данных для обучения и тестирования алгоритмов;
• Общие требования к эксплуатации;
• Процессы жизненного цикла.
Новый закон ЕС об искусственном интеллекте update
Стал доступен текст окончательной редакции закона ЕС об искусственном интеллекте (Artificial Intelligence Act), который, как мы писали ранее в канале, был предложен Советом ЕС 3 ноября.
Данная редакция содержит важное изменение - из сферы действия закона исключается использование ИИ в целых национальной безопасности, то есть такое использование не будет подчиняться отграничениям, которые накладывает законопроект.
Подробнее об ограничениях можно прочитать в обзорной статье на нашем сайте.
Ожидаем завершения всех необходимых процедур для вступления закона в силу и его официальной публикации.
Стал доступен текст окончательной редакции закона ЕС об искусственном интеллекте (Artificial Intelligence Act), который, как мы писали ранее в канале, был предложен Советом ЕС 3 ноября.
Данная редакция содержит важное изменение - из сферы действия закона исключается использование ИИ в целых национальной безопасности, то есть такое использование не будет подчиняться отграничениям, которые накладывает законопроект.
Подробнее об ограничениях можно прочитать в обзорной статье на нашем сайте.
Ожидаем завершения всех необходимых процедур для вступления закона в силу и его официальной публикации.
Telegram
Цифровое право
#ИИ
В конце апреля Европейская комиссия опубликовала проект Регламента о регулировании ИИ в ЕС.
Регламент устанавливает:
1. Правила допуска на рынок, использования и эксплуатации систем с ИИ в ЕС.
2. Требования к высокорискованным системам с ИИ и обязанности…
В конце апреля Европейская комиссия опубликовала проект Регламента о регулировании ИИ в ЕС.
Регламент устанавливает:
1. Правила допуска на рынок, использования и эксплуатации систем с ИИ в ЕС.
2. Требования к высокорискованным системам с ИИ и обязанности…