📆 10 октября в 16:00 состоится заседание секции «Искусственный интеллект» Совета по развитию цифровой экономики при Совете Федерации по теме этики и регулирования использования технологий синтеза голоса.
Участники мероприятия обсудят:
🟢 этические и правовые риски использования технологий синтеза голоса
🟢 возможные подходы к законодательному регулированию особенностей создания и применения технологий синтеза голоса
🟢 отдельные особенности охраны прав на результаты интеллектуальной деятельности, созданные с применением ИИ
К участию в дискуссии приглашены представители Минэкономразвития России, Роспатента, Союза дикторов, Комиссии по реализации Кодекса этики в сфере ИИ, компаний Яндекс, МТС, издательств ЛитРес, Эксмо, юристы, специализирующие на вопросах интеллектуальной собственности.
Трансляция заседания будет доступна на сайте Совета Федерации.
Участники мероприятия обсудят:
🟢 этические и правовые риски использования технологий синтеза голоса
🟢 возможные подходы к законодательному регулированию особенностей создания и применения технологий синтеза голоса
🟢 отдельные особенности охраны прав на результаты интеллектуальной деятельности, созданные с применением ИИ
К участию в дискуссии приглашены представители Минэкономразвития России, Роспатента, Союза дикторов, Комиссии по реализации Кодекса этики в сфере ИИ, компаний Яндекс, МТС, издательств ЛитРес, Эксмо, юристы, специализирующие на вопросах интеллектуальной собственности.
Трансляция заседания будет доступна на сайте Совета Федерации.
Forwarded from DigitalRussia (Цифровая Россия)
В число новых участников кодекса этики в сфере искусственного интеллекта вошли шесть региональных органов государственной власти по IT и связи из следующих регионов: Тюменская область, Ханты-Мансийский автономный округ – Югра, Ямало-Ненецкий АО, Курганская, Калужская и Иркутская области.
📃🇺🇸30 октября Президент США подписал Указ о безопасной разработке и использовании искусственного интеллекта. Документ определяет стандарты защиты американцев от потенциальных рисков ИИ.
Что закрепляет Указ:
· разработчики самых мощных систем ИИ должны будут делиться результатами своих проверок на безопасность с Правительством США;
· должны быть разработаны стандарты, инструменты и тесты, которые помогут гарантировать, что системы искусственного интеллекта безопасны и заслуживают доверия;
· должны быть разработаны строгие требования для применения ИИ в рамках скрининга биологического синтеза при создании опасных биологических материалов;
· для защиты американцев от мошенничества с использованием ИИ должны быть установлены стандарты и использованы наилучшие практики для обнаружения контента, созданного с помощью ИИ, и аутентификации официального контента;
· должна быть выстроена лучшая программа кибербезопасности для поиска и устранения уязвимостей в критически важном ПО (в том числе в системах ИИ);
· Советом национальной безопасности и Руководителем аппарата Белого дома должен быть разработан Меморандум о национальной безопасности, который определит дальнейшие действия в области ИИ и безопасности.
Также в Указе отмечается важность:
· усиления конфиденциальности данных американцев при взаимодействии с ИИ;
· продвижения равенства и защиты гражданских прав;
· отстаивания интересов потребителей, пациентов и студентов;
· поддержки рабочего класса;
· содействия развитию инноваций и конкуренции;
· усиления американского влияния и лидерства за рубежом;
· обеспечения ответственного и эффективного использования ИИ Правительством.
Что закрепляет Указ:
· разработчики самых мощных систем ИИ должны будут делиться результатами своих проверок на безопасность с Правительством США;
· должны быть разработаны стандарты, инструменты и тесты, которые помогут гарантировать, что системы искусственного интеллекта безопасны и заслуживают доверия;
· должны быть разработаны строгие требования для применения ИИ в рамках скрининга биологического синтеза при создании опасных биологических материалов;
· для защиты американцев от мошенничества с использованием ИИ должны быть установлены стандарты и использованы наилучшие практики для обнаружения контента, созданного с помощью ИИ, и аутентификации официального контента;
· должна быть выстроена лучшая программа кибербезопасности для поиска и устранения уязвимостей в критически важном ПО (в том числе в системах ИИ);
· Советом национальной безопасности и Руководителем аппарата Белого дома должен быть разработан Меморандум о национальной безопасности, который определит дальнейшие действия в области ИИ и безопасности.
Также в Указе отмечается важность:
· усиления конфиденциальности данных американцев при взаимодействии с ИИ;
· продвижения равенства и защиты гражданских прав;
· отстаивания интересов потребителей, пациентов и студентов;
· поддержки рабочего класса;
· содействия развитию инноваций и конкуренции;
· усиления американского влияния и лидерства за рубежом;
· обеспечения ответственного и эффективного использования ИИ Правительством.
The White House
Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence
By the authority vested in me as President by the Constitution and the laws of the United States of America, it is hereby ordered as
Хиросимские_Руководящие_принципы_ИИ.pdf
512.7 KB
🌍 В рамках инициативы G7 «Хиросимский процесс искусственного интеллекта» (Hiroshima AI Process) разработаны 11 руководящих принципов и Кодекс поведения для разрабатывающих передовые системы ИИ организаций.
🟢 Документы разработаны в ответ на развитие передовых систем ИИ (Advanced AI Systems) – фундаментальных моделей и генеративного ИИ.
🟢 Документы будут актуализироваться по мере необходимости и содержат неисчерпывающий перечень действий.
🟢 Среди прочего рекомендуется проводить выявление рисков в моделях с использованием имитации реальных кибератак (red teaming), а также внедрить механизмы идентификации созданного ИИ контента и определения его происхождения.
✅ Делимся подготовленным Центром регулирования ИИ переводом документов на русский язык.
🟢 Документы разработаны в ответ на развитие передовых систем ИИ (Advanced AI Systems) – фундаментальных моделей и генеративного ИИ.
🟢 Документы будут актуализироваться по мере необходимости и содержат неисчерпывающий перечень действий.
🟢 Среди прочего рекомендуется проводить выявление рисков в моделях с использованием имитации реальных кибератак (red teaming), а также внедрить механизмы идентификации созданного ИИ контента и определения его происхождения.
✅ Делимся подготовленным Центром регулирования ИИ переводом документов на русский язык.
Forwarded from Тест Тьюринга
This media is not supported in your browser
VIEW IN TELEGRAM
• Amandeep Singh Gill - посланник генсекретаря ООН по вопросам технологий;
• Максим Колесников – замминистра экономического развития РФ;
• Григорий Борисенко – замминистра цифрового развития РФ;
• Анатолий Вассерман – депутат Государственной Думы РФ;
• Никита Анисимов – ректор НИУ ВШЭ;
• Сергей Наквасин – директор Национального центра развития ИИ при Правительстве РФ;
• Александр Крайнов – директор по развитию технологий ИИ Яндекса;
• Андрей Незнамов – управляющий директор – начальник Центра регулирования AI, Сбербанк.
#Мероприятие #ФорумЭтикиИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Тест Тьюринга
Торжественная церемония открытия Форума начнется 16 ноября в 9:30 с приветственного слова начальника Управления Президента России по развитию информационно-коммуникационных технологий и инфраструктуры связи Татьяны Матвеевой.
Ключевыми событиями Форума станут церемония присоединения новых организаций к Кодексу этики в сфере ИИ и церемония награждения членов Комиссии в сфере этики ИИ.
Форум пройдет в гибридном формате, будет организована прямая трансляция на сайте Форума.
#Мероприятие #ФорумЭтикиИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
Сегодня в рамках ежегодной конференции AI Journey состоялась церемония подписания двух документов, важных в сфере этики ИИ:
1) ведущими разработчиками в сфере ИИ совместно с ФСТЭК России была подписана декларация об ответственном экспорте ИИ. Документ устанавливает этические принципы и стандарты и поведения, которыми стоит руководствоваться разработчикам при экспорте собственных гражданских решений в сфере искусственного интеллекта
2) к Кодексу этики ИИ присоединилось еще 11 компаний. В число подписантов кодекса вошли четыре российские компании — Россельхозбанк, Росбанк, «Авито», «Эмбедика» — и четыре иностранных участника — из Таджикистана, Узбекистана и Кубы. Также к кодексу присоединились РЭУ им. Плеханова, НМИЦ им. В. А. Алмазова и Северо-Восточный федеральный университет им. М. К. Аммосова.
1) ведущими разработчиками в сфере ИИ совместно с ФСТЭК России была подписана декларация об ответственном экспорте ИИ. Документ устанавливает этические принципы и стандарты и поведения, которыми стоит руководствоваться разработчикам при экспорте собственных гражданских решений в сфере искусственного интеллекта
2) к Кодексу этики ИИ присоединилось еще 11 компаний. В число подписантов кодекса вошли четыре российские компании — Россельхозбанк, Росбанк, «Авито», «Эмбедика» — и четыре иностранных участника — из Таджикистана, Узбекистана и Кубы. Также к кодексу присоединились РЭУ им. Плеханова, НМИЦ им. В. А. Алмазова и Северо-Восточный федеральный университет им. М. К. Аммосова.
government.ru
Дмитрий Чернышенко: Сегодня идёт борьба мировых игроков за первенство в технологической гонке
Правительство России
Между тем вопросы ИИ и интеллектуальной собственности уверенно приходят в российскую судебную практику.
Делимся интересным свежим решением АСГМ по вопросам "кто автор видеоролика с дипфейком?" и "есть ли исключительные права на такой ролик?"
Вопросы в кейсе хорошие. И обстоятельства тоже интересные:
Компания 1 сделала вот этот ролик с дипфейком Киану Ривза. А компания 2 взяла этот ролик и без разрешения использовала его в своей рекламе.
Компания 1 потребовала 500 тыс. р компенсации за нарушение искл права. А компания 2 отрицала наличие искл прав. Мотивировка - в ролике использовался дип фейк.
Позиция АСГМ: дип фейк это технология обработки (монтажа материалов), а не способ создания произведения. Отсутствие искл прав не доказано. Авторство на ролик признали за всей командой, работающей над роликом (сценарист, оператор, моушн дизайнер, актер)
Решение пока принято только в первой инстанции. Будет ли позиция вышестоящих судов другой - покажет время. А мы с радостью будем мониторить кейс и делиться с вами новостями.
Вот ключевые цитаты из решения:
"Доводы ответчика о том, что созданный видеоролик не является объектом авторского права по причине использования технологии Deep-fake отклоняются судом, поскольку технология Deep-fake - это дополнительный инструмент обработки (технического монтажа) видеоматериалов, а не способ их создания.
Соответственно, тот факт, что моушн-дизайнер Вельских Д.И. … осуществил технический монтаж исходных материалов видеоролика посредством технологии deep-fake сам по себе не свидетельствует о том, что видеоролик доступен для свободного использования (без согласия правообладателя), или о том, что группа лиц, обеспечившая написание сценария видеоролика, видеосъемку, его аудиосопровождение, не внесли личный творческий вклад в создание видеоролика и не признаются его авторами.
Согласно п. 1 ст. 1263 ГК РФ аудиовизуальным произведением является произведение, состоящее из зафиксированной серии связанных между собой изображений (с сопровождением или без сопровождения звуком) и предназначенное для зрительного и слухового (в случае сопровождения звуком) восприятия с помощью соответствующих технических устройств. Аудиовизуальные произведения включают кинематографические произведения, а также все произведения, выраженные средствами, аналогичными кинематографическим (теле-и видеофильмы и другие подобные произведения), независимо от способа их первоначальной или последующей фиксации.
Согласно п. 5 ст. 1263 ГК РФ каждый автор произведения, вошедшего составной частью в аудиовизуальное произведение, как существовавшего ранее (автор произведения, положенного в основу сценария, и другие), так и созданного в процессе работы над ним (оператор-постановщик, художник-постановщик и другие), сохраняет исключительное право на свое произведение, за исключением случаев, когда это исключительное право было передано изготовителю или другим лицам либо перешло к изготовителю или другим лицам по иным основаниям, предусмотренным законом.
Спорный видеоролик был создан группой автором - сценаристом, видеооператором (оператор-постановщик), моушн-дизайнером, актером. Технология Deep-fake - это дополнительный инструмент обработки (технического монтажа) видеоматериалов, используемый моушн-дизайнером."
Делимся интересным свежим решением АСГМ по вопросам "кто автор видеоролика с дипфейком?" и "есть ли исключительные права на такой ролик?"
Вопросы в кейсе хорошие. И обстоятельства тоже интересные:
Компания 1 сделала вот этот ролик с дипфейком Киану Ривза. А компания 2 взяла этот ролик и без разрешения использовала его в своей рекламе.
Компания 1 потребовала 500 тыс. р компенсации за нарушение искл права. А компания 2 отрицала наличие искл прав. Мотивировка - в ролике использовался дип фейк.
Позиция АСГМ: дип фейк это технология обработки (монтажа материалов), а не способ создания произведения. Отсутствие искл прав не доказано. Авторство на ролик признали за всей командой, работающей над роликом (сценарист, оператор, моушн дизайнер, актер)
Решение пока принято только в первой инстанции. Будет ли позиция вышестоящих судов другой - покажет время. А мы с радостью будем мониторить кейс и делиться с вами новостями.
Вот ключевые цитаты из решения:
"Доводы ответчика о том, что созданный видеоролик не является объектом авторского права по причине использования технологии Deep-fake отклоняются судом, поскольку технология Deep-fake - это дополнительный инструмент обработки (технического монтажа) видеоматериалов, а не способ их создания.
Соответственно, тот факт, что моушн-дизайнер Вельских Д.И. … осуществил технический монтаж исходных материалов видеоролика посредством технологии deep-fake сам по себе не свидетельствует о том, что видеоролик доступен для свободного использования (без согласия правообладателя), или о том, что группа лиц, обеспечившая написание сценария видеоролика, видеосъемку, его аудиосопровождение, не внесли личный творческий вклад в создание видеоролика и не признаются его авторами.
Согласно п. 1 ст. 1263 ГК РФ аудиовизуальным произведением является произведение, состоящее из зафиксированной серии связанных между собой изображений (с сопровождением или без сопровождения звуком) и предназначенное для зрительного и слухового (в случае сопровождения звуком) восприятия с помощью соответствующих технических устройств. Аудиовизуальные произведения включают кинематографические произведения, а также все произведения, выраженные средствами, аналогичными кинематографическим (теле-и видеофильмы и другие подобные произведения), независимо от способа их первоначальной или последующей фиксации.
Согласно п. 5 ст. 1263 ГК РФ каждый автор произведения, вошедшего составной частью в аудиовизуальное произведение, как существовавшего ранее (автор произведения, положенного в основу сценария, и другие), так и созданного в процессе работы над ним (оператор-постановщик, художник-постановщик и другие), сохраняет исключительное право на свое произведение, за исключением случаев, когда это исключительное право было передано изготовителю или другим лицам либо перешло к изготовителю или другим лицам по иным основаниям, предусмотренным законом.
Спорный видеоролик был создан группой автором - сценаристом, видеооператором (оператор-постановщик), моушн-дизайнером, актером. Технология Deep-fake - это дополнительный инструмент обработки (технического монтажа) видеоматериалов, используемый моушн-дизайнером."
YouTube
Keanu Reeves forgot to turn off the iron in the house!
Keanu Reeves forgot to turn off the iron in the house!#keanu #reeves #keanureeves #unrealkeanureeves #unrealkeanu #iron
Сегодня в третьем чтении Госдума приняла законопроект, наделяющий Правительство России регулировать вопросы, связанные с воздушной съёмкой с «дронов». Это очень важная тема для развития ИИ. Беспилотные воздушные суда – важный источник данных для обучения моделей ИИ (так называемых «геоаналитических» моделей). Однако пока что для получения таких данных существуют серьёзные барьеры процедурного характера, из-за которых нужные данные в большинстве случаев нельзя получить оперативно. Данные с дронов считаются секретными, пока не будет пройдена процедура т.н. «контрольного просмотра». При этом вопрос регулируется секретными документами, принятыми ещё во времена СССР (инструкции ПАРО и СТГМ).
Однако для принятия новых документов по этой теме Правительству нужны фиксированные полномочия. Законопроект решает этот вопрос.
Уверены, что в будущем будут приняты постановления правительства, устанавливающие новые правила, связанные с ведением воздушной съёмки, которые были бы более адаптированы к текущим технологическим реалиям.
Однако для принятия новых документов по этой теме Правительству нужны фиксированные полномочия. Законопроект решает этот вопрос.
Уверены, что в будущем будут приняты постановления правительства, устанавливающие новые правила, связанные с ведением воздушной съёмки, которые были бы более адаптированы к текущим технологическим реалиям.
АЭРОНЕКСТ
Секретные материалы-2. Цифровая трансформация контрольных просмотров необходима и возможна
На экспертном совещании «Проблемы и сложности процедуры контрольного просмотра при использовании беспилотных воздушных судов» представители индустрии БАС представили правоохранительным и силовым ведомствам пути и средства упрощения этой процедуры.
HCAI // Регулирование ИИ
Сегодня в третьем чтении Госдума приняла законопроект, наделяющий Правительство России регулировать вопросы, связанные с воздушной съёмкой с «дронов». Это очень важная тема для развития ИИ. Беспилотные воздушные суда – важный источник данных для обучения…
Законопроект, наделяющий правительство полномочиями регулировать воздушную съемку, одобрен Советом Федерации. Ждем подписание Президентом
HCAI // Регулирование ИИ
Законопроект, наделяющий правительство полномочиями регулировать воздушную съемку, одобрен Советом Федерации. Ждем подписание Президентом
Законопроект, наделяющий правительство полномочиями регулировать воздушную съемку, подписан Президентом. Будем надеяться, что в этом году за этим последует принятие нового Постановления Правительства, которое бы прописало доступные для индустрии правила воздушной съёмки. Будем держать вас в курсе событий
🇮🇷 Сегодня в Тегеране был подписан Меморандум о сотрудничестве с Ираном по исследованию вопросов этики в сфере ИИ
Со стороны Ирана Меморандум был подписан Представителем Штаба Исламской республики Иран по развитию технологий искусственного интеллекта и робототехники господином Бехруз Минэй, с российской стороны документ подписал Председатель Комиссии по реализации Кодекса этики в сфере ИИ Андрей Незнамов
Подписание данного документа является важным шагом для сообщества в сфере этики ИИ, поскольку этика - крайне важная тема для обеих стран. Подписание Меморандума ознаменует новый шаг не только в технологическом, но и культурном диалоге России и Ирана. Российская сторона особенно ценит доверие иранских партнеров в этом вопросе
Со стороны Ирана Меморандум был подписан Представителем Штаба Исламской республики Иран по развитию технологий искусственного интеллекта и робототехники господином Бехруз Минэй, с российской стороны документ подписал Председатель Комиссии по реализации Кодекса этики в сфере ИИ Андрей Незнамов
Подписание данного документа является важным шагом для сообщества в сфере этики ИИ, поскольку этика - крайне важная тема для обеих стран. Подписание Меморандума ознаменует новый шаг не только в технологическом, но и культурном диалоге России и Ирана. Российская сторона особенно ценит доверие иранских партнеров в этом вопросе
Forwarded from Майский указ
Декларация ИИ.pdf
103.2 KB
🤖 Сегодня выставка-форум «Россия» на ВДНХ отмечает «День искусственного интеллекта», благодаря чему прямо на глазах у вице-премьера Дмитрия Чернышенко ряд неравнодушных компаний подписал Декларацию об ответственной разработке и использовании сервисов в сфере генеративного ИИ (разумеется, в рамках исполнения поручений Президента).
Подписанты договорились о принципах безопасности и прозрачности, этичном отношении к чувствительным темам, принятии мер для предотвращения злоупотреблений и создания недостоверной информации, а также просвещении пользователей о возможностях новых технологий. Речь идёт о моделях для генерации голоса, письменного текста, изображений, звуков, видео и иных электронных сообщений на основании запроса пользователя.
Декларация устанавливает этические принципы и рекомендации по ответственному отношению к ИИ не только для разработчиков исследователей, но и пользователей нейросетевых сервисов. Декларация является одним из примеров саморегулирования сферы технологий и охватывает разные аспекты осознанного отношения к разработкам на основе ИИ.
Документ, разработанный на площадке «Альянса в сфере ИИ», подписали Сбер и Яндекс как участники этой ассоциации. Также к декларации присоединились компания МТС ИИ плюс ведущие вузы и научные организации России: НИУ ВШЭ, Сколтех, Университет Иннополис, МФТИ, Университет ИТМО, Институт системного программирования РАН, Нижегородский государственный университет им. Н.И. Лобачевского.
Подписанты договорились о принципах безопасности и прозрачности, этичном отношении к чувствительным темам, принятии мер для предотвращения злоупотреблений и создания недостоверной информации, а также просвещении пользователей о возможностях новых технологий. Речь идёт о моделях для генерации голоса, письменного текста, изображений, звуков, видео и иных электронных сообщений на основании запроса пользователя.
Декларация устанавливает этические принципы и рекомендации по ответственному отношению к ИИ не только для разработчиков исследователей, но и пользователей нейросетевых сервисов. Декларация является одним из примеров саморегулирования сферы технологий и охватывает разные аспекты осознанного отношения к разработкам на основе ИИ.
Документ, разработанный на площадке «Альянса в сфере ИИ», подписали Сбер и Яндекс как участники этой ассоциации. Также к декларации присоединились компания МТС ИИ плюс ведущие вузы и научные организации России: НИУ ВШЭ, Сколтех, Университет Иннополис, МФТИ, Университет ИТМО, Институт системного программирования РАН, Нижегородский государственный университет им. Н.И. Лобачевского.
Прекрасная новость в сфере экспорта гражданских продуктов на основе искусственного интеллекта.
Подписано и опубликовано Постановление Правительства, в котором в 3 раза увеличивается число исключений, когда российские гражданские ИИ разработки не считаются товарами двойного назначения.
http://publication.pravo.gov.ru/file/pdf?eoNumber=0001202403160006
В документе в несколько раз расширены случаи, когда разработки в сфере ИИ не считаются товарами двойного назначения и когда для их экспорта не нужно получать лицензию
Поправки прорабатывались ФСТЭК совместно с экспертным сообществом. Важно было определить с одной стороны максимально широкий перечень исключений для гражданского ИИ, а с другой учесть текущий уровень развития технологий.
Огромное значение в этом треке также сыграли вопросы этики искусственного интеллекта. На прошлом AI Journey ведущие ИИ разработчики подписали Декларацию об ответственном экспорте ИИ, где добровольно согласились следовать лучшим практикам и рекомендациям в сфере этики высоких технологий. Документ показывал, что ведущие ИИ разработчики зрело и ответственно относятся вопросам экспортного контроля
Подписано и опубликовано Постановление Правительства, в котором в 3 раза увеличивается число исключений, когда российские гражданские ИИ разработки не считаются товарами двойного назначения.
http://publication.pravo.gov.ru/file/pdf?eoNumber=0001202403160006
В документе в несколько раз расширены случаи, когда разработки в сфере ИИ не считаются товарами двойного назначения и когда для их экспорта не нужно получать лицензию
Поправки прорабатывались ФСТЭК совместно с экспертным сообществом. Важно было определить с одной стороны максимально широкий перечень исключений для гражданского ИИ, а с другой учесть текущий уровень развития технологий.
Огромное значение в этом треке также сыграли вопросы этики искусственного интеллекта. На прошлом AI Journey ведущие ИИ разработчики подписали Декларацию об ответственном экспорте ИИ, где добровольно согласились следовать лучшим практикам и рекомендациям в сфере этики высоких технологий. Документ показывал, что ведущие ИИ разработчики зрело и ответственно относятся вопросам экспортного контроля
7 февраля Управлением по информационному и медиа развитию совместно с Enterprise Singapore была запущена GenAI Sandbox, которая позволит максимально использовать преимущества генеративного искусственного интеллекта для повышения качества обслуживания клиентов.
Малый и средний бизнес получат доступ к 13 технологиям ГенИИ и смогут применять их для повышения своей производительности.
Среди этих технологий:
По 2 направлениям развития бизнеса
компания может получить и использовать любой понравившейся ей продукт на срок до 3 месяцев, начиная с конца мая: • Создание разнообразного и уникального контента
• Разработка креативных концепций развития бизнеса
• Оптимизация выстраивания маркетинговых стратегий
• Персонализированные рекомендации и предложения
• Улучшение пользовательского опыта при поиске информации
• Автоматизация пользовательских запросов (например, бронирование номера в отеле)
Ожидается, что данный режим охватит примерно 300 предприятий малого и среднего бизнеса. По итогам "песочницы" Управление по информационному и медиа развитию проанализирует отзывы участников, чтобы оценить целесообразность дальнейшего внедрения генеративного ИИ в местное бизнес-сообщество.
*** Enterprise Singapore – государственная структура, занимающаяся поддержкой предпринимательства и международного сотрудничества
#ГенеративныйИИ #РегуляторнаяПесочница #Сингапур
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇳 Ежегодный саммит ООН "AI for good" 2024
29-31 мая в Женеве прошел ежегодный глобальный саммит «Искусственный интеллект во благо» («AI for good»), организованный Международным союзом электросвязи. На саммите присутствовали представители государственного сектора, частного сектора и гражданского общества.
Много внимания было уделено следующим вопросам:
✏️
Для достижения прогресса в данной области несколько международных организаций и ассоциаций договорились о сотрудничестве. В частности: Международная организация по стандартизации (ISO), Международная электротехническая комиссия (IEC), Content Authenticity Initiative (CAI) и другие.
Цель данного сотрудничества - определить технические стандарты для создания водяных знаков и технологий обнаружения дипфейков.
🚨
В рамках этого направления правительствам было предложено выделять значительные ресурсы для обеспечения безопасности ИИ.
Кроме того, эксперты отметили необходимость создания отделов red teaming в компаниях-разработчиках ИИ для смягчения потенциальных рисков использования ГенИИ. Отдельный акцент был сделан на привлечении юристов к тестированию систем ИИ.
🌎
Ожидается, что Глобальный цифровой договор будет принят на Саммите будущего в сентябре 2024 года и обозначит общие принципы открытого, свободного и безопасного цифрового будущего для всех.
Подробнее о проекте данного документа мы расскажем в отдельном посте.
#ООН #Саммит
29-31 мая в Женеве прошел ежегодный глобальный саммит «Искусственный интеллект во благо» («AI for good»), организованный Международным союзом электросвязи. На саммите присутствовали представители государственного сектора, частного сектора и гражданского общества.
Много внимания было уделено следующим вопросам:
Маркировка контента
Для достижения прогресса в данной области несколько международных организаций и ассоциаций договорились о сотрудничестве. В частности: Международная организация по стандартизации (ISO), Международная электротехническая комиссия (IEC), Content Authenticity Initiative (CAI) и другие.
Цель данного сотрудничества - определить технические стандарты для создания водяных знаков и технологий обнаружения дипфейков.
Конфиденциальность и безопасность
В рамках этого направления правительствам было предложено выделять значительные ресурсы для обеспечения безопасности ИИ.
Кроме того, эксперты отметили необходимость создания отделов red teaming в компаниях-разработчиках ИИ для смягчения потенциальных рисков использования ГенИИ. Отдельный акцент был сделан на привлечении юристов к тестированию систем ИИ.
Разработка Глобального цифрового договора
Ожидается, что Глобальный цифровой договор будет принят на Саммите будущего в сентябре 2024 года и обозначит общие принципы открытого, свободного и безопасного цифрового будущего для всех.
Подробнее о проекте данного документа мы расскажем в отдельном посте.
#ООН #Саммит
Please open Telegram to view this post
VIEW IN TELEGRAM
*Источник
**Экспериментальные правовые режимы - вводятся государством для тестирования новых технологий, для этого на определенной территории на некоторый период вводят специальное правовое регулирование, смягчают или отменяют для участников эксперимента ранее введенные правовые нормы.
Please open Telegram to view this post
VIEW IN TELEGRAM
В начале июня Apple представила новый функционал – систему ИИ "Apple Intelligence", что стало одним из самых значительных обновлений продуктов компании за последнее время.
Apple Intelligence — набор ИИ-функций на базе генеративных нейросетей. "Вшитый" ИИ сможет:
В США интеграция ИИ начнется уже этим летом, в отличие от Европы, где сотни миллионов пользователей пока не получат доступ к новейшим технологиям.
Компания объяснила свое решение следующим образом:
📃 Закон ЕС «О цифровых рынках» (Digital Markets Act) предписывает крупным онлайн-платформам предоставлять доступ другим поставщикам, а не отдавать предпочтение своим собственным предложениям
#AI #Apple #EU #DMA
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇳Глобальный цифровой договор
Глобальный цифровой договор - инициатива ООН по созданию международного документа, который "обозначит общие принципы открытого, свободного и безопасного цифрового будущего для всех".
Цель этого договора - гарантировать, что цифровые технологии используются ответственно и на благо всех, одновременно устраняя цифровой разрыв и способствуя созданию безопасной и инклюзивной цифровой среды.
На данный момент уже представлена первая редакция документа, охватывающая целый ряд насущных вопросов, среди которых:
🌎 недопущение фрагментации Интернета
🚨 конфиденциальность персональных данных
💻 осуществление прав человека в Интернете
🎓 развитие цифровых компетенций у работающего населения по всему миру
🤖 закрепление критериев ответственности за дискриминацию и введение в заблуждение в Интернете
Что касается ИИ, то договор предлагает создать два новых института с целью развития всестороннего партнерства и международного сотрудничества в этой сфере.
1️⃣ Международная научная группа по ИИ и новым технологиям
Группа будет выпускать междисциплинарные научные отчеты о рисках и мерах по смягчению последствий использования ИИ, опираясь на национальные инициативы регулирования.
2️⃣ Международная контактная группа по управлению ИИ
Планируется, что группа в составе представителей правительств, ответственных за безопасность и управление ИИ, будет ежегодно собираться в рамках соответствующих конференций и совещаний ООН для выработки общего понимания вопросов безопасного, надежного и заслуживающего доверия ИИ.
Согласно докладу Генерального секретаря «Наша общая повестка дня» (2021) Глобальный цифровой договор должен быть согласован на Саммите будущего в сентябре 2024 года в рамках технологического направления с участием всех заинтересованных сторон: правительств, специализированных учреждений ООН, частного сектора, гражданского общества и научных кругов.
#AI #UN #GlobalDigitalCompact
Глобальный цифровой договор - инициатива ООН по созданию международного документа, который "обозначит общие принципы открытого, свободного и безопасного цифрового будущего для всех".
Цель этого договора - гарантировать, что цифровые технологии используются ответственно и на благо всех, одновременно устраняя цифровой разрыв и способствуя созданию безопасной и инклюзивной цифровой среды.
На данный момент уже представлена первая редакция документа, охватывающая целый ряд насущных вопросов, среди которых:
Что касается ИИ, то договор предлагает создать два новых института с целью развития всестороннего партнерства и международного сотрудничества в этой сфере.
Группа будет выпускать междисциплинарные научные отчеты о рисках и мерах по смягчению последствий использования ИИ, опираясь на национальные инициативы регулирования.
Планируется, что группа в составе представителей правительств, ответственных за безопасность и управление ИИ, будет ежегодно собираться в рамках соответствующих конференций и совещаний ООН для выработки общего понимания вопросов безопасного, надежного и заслуживающего доверия ИИ.
Согласно докладу Генерального секретаря «Наша общая повестка дня» (2021) Глобальный цифровой договор должен быть согласован на Саммите будущего в сентябре 2024 года в рамках технологического направления с участием всех заинтересованных сторон: правительств, специализированных учреждений ООН, частного сектора, гражданского общества и научных кругов.
#AI #UN #GlobalDigitalCompact
Please open Telegram to view this post
VIEW IN TELEGRAM