HCAI // Регулирование ИИ
1.04K subscribers
81 photos
14 files
274 links
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.
Download Telegram
🇸🇬 Сингапур опубликовал доклад о синтетических данных

15 июля 2024 года Комиссия по защите персональных данных Сингапура (PDPC) опубликовала доклад «Privacy enhancing technology» (PET) - руководство по созданию синтетических данных.

Использование синтетических данных снижает потребность в сборе и обработке реальных данных (в т.ч. персональных или коммерчески чувствительных), что особенно важно в ситуациях, когда сбор таких видов данных ограничен законодательством.

Руководство определяет набор инструментов и методов, которые позволяют обрабатывать, анализировать и извлекать информацию без раскрытия конфиденциальных категорий данных.

Руководство классифицирует методы по трем категориям:
1️⃣маскировка данных*
2️⃣обработка зашифрованных данных
3️⃣федеративное обучение**

⚡️В Руководстве также предлагаются наилучшие практики генерации синтетических данных, которые особенно полезны при создании датасетов для обучения ИИ.

❗️Кроме того, в руководстве подробно изложены кейсы использования синтетических данных, которые позволяют повысить качество работы систем ИИ, при этом не нарушая законодательство.
💸Например, синтетические данные можно использовать для обучения моделей ИИ, направленных на обнаружение мошенничества в финансовом секторе.


*Маскировка (обфускация) данных — способ защиты конфиденциальной информации от несанкционированного доступа путём замены исходных данных фиктивными данными или произвольными символами.

**Федеративное обучение — это методика заключения модели в защищенную среду и ее обучение без перемещения данных куда-либо.


#AI #Singapore #SyntheticData
Please open Telegram to view this post
VIEW IN TELEGRAM
©️ Искусственный интеллект продолжает получать жалобы на нарушение авторских прав

Condé Nast, журнальное издательство, выпускающее The New Yorker, Vogue и Vanity Fair, потребовало от Perplexity* прекратить использовать их контент при выдаче ответов на запросы пользователей.

В своем письме о прекращении сотрудничества Condé Nast заявило, что Perplexity использует веб-краулеры**, которые позволяют обходить средства защиты издательства.

Perplexity не первый раз получает обвинения в свой адрес:
🔜 в июне этого года издание Wired в своей статье назвало поисковую систему с ИИ «машиной для создания бреда» и утверждало, что Perplexity взяла целую новостную статью в ее оригинальном виде, слегка перефразировав.

Более того, за последние два месяца Forbes, Amazon и Reuters начали отдельные расследования практик Perplexity.

💬 Роджер Линч, генеральный директор Condé Nast, предупредил, что медиакомпании могут обанкротиться из-за времени и денег, которые требуются для судебных разбирательств с компаниями, использующими ИИ. Он также заявил, что Конгресс должен принять законы, которые обяжут разработчиков ИИ платить издателям за их контент, защищая тем самым их авторские права.

❗️Тем не менее, Закон США об авторском праве и доктрина fair use позволяют повторно использовать опубликованный контент с учетом ограничений по целям использования и правильного цитирования.

*Perplexity — чат-бот на базе ИИ, который сканирует Интернет, собирая информацию из авторитетных источников, объединяет ее в последовательный и простой для понимания ответ, добавляя при этом сноски со ссылками на первоисточники, что позволяет легко проверить информацию.

**Веб-краулер — это программный робот, который сканирует Интернет и загружает найденные данные.

#AI #Copyright
Please open Telegram to view this post
VIEW IN TELEGRAM
🎭 Гильдия актеров США объявила забастовку против разработчиков видеоигр

Гильдия киноактеров и Федерация артистов телевидения и радио Америки (SAG-AFTRA) объявила о первой с 2017 года забастовке против компаний — разработчиков видеоигр. Поводом стало непредоставление охраны цифровых образов артистов при использование ИИ со стороны индустрии видеоигр.

Переговоры с крупными игровыми студиями длились около полутора лет, однако 26 июля профсоюз принял решение о прекращении переговоров и объявлении забастовки.

💬 Как отметили в Гильдии: «Хотя мы достигли согласия по многим вопросам, важным для членов SAG-AFTRA, работодатели отказываются четко и ясно подтвердить, что они будут защищать актеров от незаконного использования сгенерированных ИИ голосов и образов».

Основная позиция членов профсоюза по вопросам использования ИИ
➡️авторы любой игры, которые хотят привлечь к разработке актеров, должны подписывать специальные соглашения, защищающие работников от незаконной обработки и использования их образов ИИ

💬 Президент SAG-AFTRA Фрэн Дрешер заявил, что они не собираются соглашаться на форму контракта, по которой компании смогут злоупотреблять ИИ в ущерб актерам. «Достаточно. Когда эти компании серьезно отнесутся к нашему предложению, с принятием которого наши члены смогут жить и работать, мы будем готовы к переговорам», — добавил он.

#AI #USA #Deepfake
Please open Telegram to view this post
VIEW IN TELEGRAM
✉️ США выпустили рекомендации для разработчиков ИИ в сфере образования

Министерство образования США опубликовало новое руководство для edtech-компаний - "Designing for Education with Artificial Intelligence".

Основная цель документа – создать подробный план ответственной разработки ИИ-продуктов для образовательных учреждений.

Пять ключевых областей, которые потребуют особого внимания разработчиков технологий ИИ в сфере образования:
1️⃣консультирование с педагогами на каждом этапе разработки
2️⃣предоставление отчетов о повышении эффективности продуктов
3️⃣обеспечение непредвзятости ИИ и соблюдения основополагающих прав человека
4️⃣внедрение протоколов безопасности и комплексной оценки рисков
5️⃣способствование прозрачности ИИ путем информирования пользователей и создания каналов обратной связи

Разработчикам также рекомендуется:
💻 регулярно проводить тестирование ИИ-систем на соответствие данному руководству
📰 принимать документы, закрепляющие принципы этики ИИ в сфере образования, на уровне своих компаний
💰 инвестировать в надежные и заслуживающие доверия технологии ИИ

Таким образом, рассматриваемый документ предполагает интеграцию этических принципов и оценки рисков на каждом этапе разработки. Потенциально такой подход потребует больше временных и финансовых затрат, однако результат будет более качественным и надежным.

#AI #USA #Education
Please open Telegram to view this post
VIEW IN TELEGRAM
©️ Бюро авторского права США опубликовало часть отчета об ИИ

31 июля американский Copyright Office опубликовал первую часть отчета о правовых вопросах, связанных с авторским правом и технологиями искусственного интеллекта.

Данная часть отчета посвящена цифровым копиям. Под цифровыми копиями в отчете, в том числе, понимаются:
📷 поддельные изображения человека
🎤 музыкальные произведения, созданные ИИ
📣 робозвонки, имитирующие голоса известных личностей

Copyright Office проанализировал существующие нормативно-правовые акты, закрепляющие права человека на неприкосновенность частной жизни и защиту своей чести и достоинства.
🔜 Однако, в результате анализа Бюро пришло к выводу, что действующее законодательство не обеспечивает достаточной защиты пострадавшим от несанкционированного создания и использования цифровых копий.

Поэтому Бюро предлагает принять отдельный федеральный закон и дает следующие рекомендации:
🟦закон должен быть направлен на те цифровые копии, которые не отличимы от оригинального контента
🟦закон должен распространяться на всех людей, а не только на знаменитостей
🟦защита должна действовать, как минимум, в течение всей жизни человека
🟦ответственность должна наступать только за распространение цифровой копии, а не за ее создание
🟦действия, составляющие нарушение, не должны ограничиваться коммерческим использованием
🟦физические лица должны иметь возможность лицензировать использование своих образов
🟦стиль художников не должен попадать под сферу действия данного закона

💬 Шира Перлмуттер, глава Бюро авторского права США, отмечает: «Мы рады начать делиться результатами нашего всеобъемлющего исследования пересечения ИИ и авторского права. Стало ясно, что распространение несанкционированных цифровых копий представляет серьезную угрозу не только голливудским звездам и политикам, но и частным лицам. Мы считаем, что существует острая необходимость в эффективной общенациональной защите от вреда, который может быть нанесен репутации человека и его средствам к существованию».

#AI #USA #CopyrightOffice
Please open Telegram to view this post
VIEW IN TELEGRAM
🔍 НАТО обновила свою стратегию ИИ

10 июля НАТО опубликовала пересмотренную стратегию ИИ, которая направлена на использование технологий ИИ в рамках НАТО безопасным и ответственным образом. НАТО связывает пересмотр стратегии с новыми угрозами, в том числе, с участившимися кампаниями дезинформации с использованием дипфейков.

Стратегия определяет 4 цели:
🔵стимулировать ответственную разработку и использование ИИ в военной сфере
🔵ускорять внедрение ИИ-технологий в остальных сферах
🔵выявлять и митигировать риски, не препятствуя при этом инновациям
🔵защищать от внешних угроз недобросовестного использования ИИ

Принимая во внимание уже достигнутый прогресс, НАТО обновила и желаемы результаты. Обновленный список включает в себя:
🆗 интеграция ИИ в соответствующие разработки государств-членов с целью обороны союза
🆗 большое количество квалифицированных кадров
🆗 растущая совместимость между системами ИИ по всему Альянсу
🆗 создание повышенных стандарты безопасности и инструментов для проверки систем
🆗 проведение совместных исследовательских проектам в области ИИ

❗️В Стратегии отдельно отмечается важность доступных качественных данных, так как только такие данные могут стать основой разработки эффективных и непредвзятых систем ИИ.

#AI #NATO
Please open Telegram to view this post
VIEW IN TELEGRAM
☄️ Новый метод проверки ответов нейросетей

Группа исследователей из китайской компании Baidu Inc. предложила новый метод проверки правильности ответов больших языковых моделей (LLM).

Цель такой проверки – повысить надежность модели, минимизируя процент галлюцинаций ИИ.

«Самоанализ ИИ» - так Baidu назвала новый метод. Его суть заключается в том, что модель должна сама проверять свою работу перед тем, как предоставить результаты конечным пользователям.

Для этого в движок LLM внедряется трехэтапный процесс:
1️⃣модель, учитывающая релевантность результатов промпту пользователя
2️⃣выбор из серии ответов, учитывающий доказательства, основанные на релевантных документах
3️⃣ модуль анализа траектории, который проводит четкий и краткий анализ того, как LLM пришла к тому выводу, который модель считает правильным

Ученые уже протестировали данный подход на нейросети компании и утверждают, что улучшенная LLM смогла превзойти GPT-4, используя гораздо меньшие наборы обучающих данных.

Таким образом, по мнению исследователей, предлагаемый метод проверки позволит:
🆗 повысить точность ответов нейросетей
🆗 создавать новые модели для большего количества разработчиков, которые в настоящее время не имеют доступа к огромным наборам обучающих данных

#China #AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
📱 OpenAI опубликовала отчет о безопасности своей новой модели

8 августа компания выложила на своем сайте отчет, подготовленный в связи с принятыми на себя в июле прошлого года добровольными обязательствами по ответственному развитию ИИ.

В отчете содержится информация о рисках новой модели GPT-4о и мерах по их смягчению.

👀 Одной из таких ключевых областей компания выделяет проблему дискриминации и генераций на чувствительные темы.
🔜 Модель обучена не давать оценочные суждения и выводы на основе чувствительных человеческих характеристик, а также отказывать в генерации неправомерного и жестокого контента.

🎙 Также для компании особенно важно не допустить несанкционированное использование чужого голоса.
🔜 Чтобы избежать создания голосовых дипфейков OpenAI утвердила несколько вариантов голосов, созданных с участием актеров озвучки, а запросы пользователей на синтезирование иных голосов модель отклоняет. Однако компания признает, что на данный момент этот вопрос хорошо изучен только для англоязычной речи, по остальным языкам ведется работа.

Более того, GPT-4о обучена отказывать отвечать на запросы об идентификации человека по голосу, за исключением определения авторов известных цитат.

📝 OpenAI также попыталась решить проблему использования результатов интеллектуальной деятельности без согласия правообладателей.
🔜 Компания признает, что пока трудно решить эту проблему, но ChatGPT обучили не работать с контентом, на который распространяется авторское право. В частности, она фильтрует запросы, связанные с музыкой, а в продвинутом голосовом режиме должна отклонять запросы на воспроизведение таких материалов.

❗️Стоит подчеркнуть, что компания анализирует и возможные социальные последствия использования модели. В частности, появление функции голосового взаимодействия увеличивает вероятность антропоморфизации и формирования эмоциональной привязанности между человеком и моделью. Тем не менее, эта область ещё недостаточно исследована.

#AI #Risks #Ethics
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡 Репозиторий рисков ИИ

Лаборатория компьютерных наук и искусственного интеллекта Массачусетского технологического института (MIT) опубликовала репозиторий рисков ИИ – новый стандарт, который поможет разобраться и справиться с рисками, возникающими при использовании ИИ.

Репозиторий состоит из трех частей:
ℹ️ база данных, охватывающая более 700 выявленных рисков
🔍аналитическая структура, объясняющая, как, когда и почему возникают эти риски
🖥 структура, которая классифицирует эти риски

Всего в репозитории выделено 7 категорий рисков:
1️⃣дискриминация и токсичность
2️⃣защита персональных данных и безопасность
3️⃣дезинформация
4️⃣злоупотребление технологией
5️⃣взаимодействие человека и компьютера
6️⃣социально-экономический и экологический ущерб
7️⃣безопасность системы ИИ, сбои и ограничения

Таким образом, база данных предоставляет удобную классификацию разнообразных рисков использования ИИ, а также позволяет связать каждый риск с источником (например, научная статья) и объяснением возникновения.
Более того, исследовательская группа обещает, что будет регулярно обновлять репозиторий по мере развития ИИ.

❗️Этот репозиторий может оказаться полезным инструментом для учёных, разработчиков, представителей власти и надзорных органов, поскольку он способен стать основой для обнаружения, анализа и минимизации потенциальных рисков, связанных с использованием ИИ.

#AI #Regularion #Risks
Please open Telegram to view this post
VIEW IN TELEGRAM
🤝 OpenAI и Condé Nast заключили соглашение о многолетнем партнерстве

20 августа OpenAI объявила о начале сотрудничества с крупным новостным медиахолдингом Condé Nast. В рамках данного соглашения OpenAI интегрирует контент Vogue, The New Yorker, GQ, Vanity Fair и других изданий в ChatGPT и SearchGPT (поисковая система на базе ИИ).

Согласно заявлениям представителей компаний все стороны сделки получат преимущества:
📱 OpenAI получит на законных основаниях дополнительный материал для обучения своих моделей
📝 Condé Nast сможет компенсировать часть потерянных доходов из-за конкуренции с соцсетями и другими цифровыми платформами
👥 у пользователей появится возможность получать своевременные ответы с релевантными новостными источниками с помощью новой функции поиска

Стоит отметить, что OpenAI уже имеет аналогичные соглашения с Associated Press, Financial Times, NewsCorp, TIME, Vox Media и другими медиакомпаниями.

#AI #GenAI #CopyrightOffice
Please open Telegram to view this post
VIEW IN TELEGRAM
📱 Чат-бот Grok от xAI вызвал неоднозначные реакции пользователей из-за генерации неэтичных изображений

На прошлой неделе xAI предоставил доступ к новой функции своего чат-бота Grok: создание изображений на основе текстового запроса (text-to-image).

Если спросить у чат-бота какие ограничения он имеет, то Grok ответит, что не может генерировать:
🙅‍♂️ чрезмерно жестокие изображения
🙅‍♂️ изображения, пропагандирующие незаконные и опасные действия
🙅‍♂️ изображения, которые могут нарушить чьи-либо исключительные права на результаты интеллектуальной деятельности
🙅‍♂️ изображения, способные ввести людей в заблуждение

Однако, как делятся пользователи, не все эти правила действительно работают. Например, Grok сгенерировал изображения по следующим промптам:
🟥 «Дональд Трамп в нацистской форме»
🟥 «Билл Гейтс нюхает кокаин со стола с логотипом Microsoft»
🟥 «Барак Обама ударил ножом Джо Байдена»

Также пользователи X жалуются, что минимальную существующую цензуру легко обойти путем незначительного изменения промпта.

Такой подход xAI к стандартам разработки и использования генеративного ИИ не остается незамеченным для регуляторов.
🇪🇺 Европейская комиссия уже расследует X на предмет потенциальных нарушений Закона о цифровых услугах (Digital Services Act (DSA)): в апреле этого года она запросила у компании информацию о принимаемых мерах по снижению рисков, связанных с ГенИИ.

#AI #GenAI #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
👍 Калифорнийский законопроект об ИИ смягчили из-за критики технологических гигантов

Законопроект Калифорнии SB 1047 («Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта») в изначальной редакции предусматривал установление строгих стандартов безопасности для разработки ИИ, включая обязательное тестирование на безопасность и защиту информаторов в лабораториях ИИ.

‼️Именно поэтому многие технологические гиганты Кремниевой долины публично выступали против принятия данного законопроекта.

15 августа законопроект был принят Комитетом по ассигнованиям Калифорнии с несколькими ключевыми изменениями, предложенными ИИ-компаниями:
🟦законопроект больше не позволяет генеральному прокурору подавать в суд за халатность в вопросах безопасности до того, как произойдёт катастрофическое событие
🟦правительство Калифорнии отказалось от идеи создания Frontier Model Division (FMD) – самостоятельного органа, выпускающего правила безопасности и аудита ИИ-систем
🟦законопроект больше не предусматривает уголовной ответственности за лжесвидетельство при публиковании результатов тестирования безопасности моделей
🟦теперь законопроект требует от разработчиков проявлять «разумную осторожность» вместо «разумной гарантии» в отношении внедрения высокорисковых систем ИИ

Несмотря на значительное смягчение формулировок, SB 1047 все еще вызывает неоднозначную реакцию.

🇺🇸 Например, 8 членов Конгресса США уже написали письмо с просьбой к губернатору наложить вето на законопроект, так как он «не принесёт пользы штату, стартап-сообществу, научному развитию и даже не защитит от возможного вреда, связанного с разработкой ИИ».

📱 А директор по стратегии OpenAI Джейсон Квон в письме, адресованному сенатору штата Калифорния Скотту Винеру, настаивает на том, что правила разработки ИИ должны устанавливаться только на федеральном уровне.

#AI #USA #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇳 ЮНЕСКО объявила о начале консультаций по подходам к регулированию ИИ

ЮНЕСКО призывает заинтересованные стороны, включая представителей власти, экспертов по правовым вопросам и по управлению ИИ, принять участие в открытых консультациях по тезисам аналитической справки «Консультационный документ по регулированию ИИ: новые подходы в мире», опубликованной 16 августа 2024 г.

Данный документ представляет подробный обзор девяти подходов к регулированию ИИ, подкреплённых примерами из мировой практики:
1️⃣подход, провозглашающий общие принципы
2️⃣стандартизированный подход
3️⃣экспериментальный (гибкий) подход
4️⃣подход содействия и предоставления возможностей
5️⃣адаптационный подход
6️⃣подход, ориентированный на прозрачность
7️⃣риск-ориентированный подход
8️⃣правозащитный подход
9️⃣подход, устанавливающий ответственность

Подходы, расположенные по степени усиления государственного вмешательства, могут сочетаться друг с другом в одной стране.

Аналитический документ также советует представителям власти обратить внимание на три ключевые аспекта при разработке регулирования ИИ:
📄 аргументация в пользу регулирования
🔍 подбор оптимального момента для его внедрения
✔️ выбор подходящей комбинации подходов и методов

📎 Принять участие в консультациях можно до 19 сентября 2024 г. по ссылке.

Пересмотренная версия документа будет представлена на Ассамблее Межпарламентского союза в Женеве 13–17 октября 2024 года в контексте доработки резолюции «Влияние ИИ на демократию, права человека и верховенство закона».

#UNESCO #AI #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
📝 Сенат Калифорнии принял новый законопроект, защищай артистов от ИИ

27 августа в Калифорнии одобрили законопроект AB 2602, требующий согласия исполнителей перед созданием их цифровых копий в медиа.

Так, без явного согласия артиста нельзя будет использовать его голос или образ для создания произведения или выполнения работы, которую артист мог бы выполнить лично.

Документ также закрепляет, что цифровые копии исполнителей не могут быть использованы, если:
🙅‍♂️ работодатели не указывают в контракте, как будет использоваться такая копия
🙅‍♂️ исполнитель не имел юридического или профсоюзного представительства на момент заключения сделки

Приняв данный законопроект, власти Калифорнии пошли навстречу SAG-AFTRA - профсоюзу, представляющему интересы актеров, телеведущих, радиоведущих и других работников в области развлечений.

SAG-AFTRA настаивала на принятии данного законодательства из-за опасений по поводу распространяющихся случаев нарушения прав артистов путем несанкционированного использования ИИ.

💬 Исполнительный директор SAG-AFTRA Дункан Крэбтри-Айрленд назвал законопроект «большим шагом вперед» в установлении гарантий против возможных злоупотреблений.

Законопроект АВ 2602 находится на рассмотрении у губернатора и вступит в силу после его подписания.

#AI #Regulation #USA
Please open Telegram to view this post
VIEW IN TELEGRAM
📝 Первое международное соглашение по обеспечению безопасности использования ИИ

5 сентября в Вильнюсе на конференции Министров юстиции Совета Европы была открыта для подписания первая Рамочная Конвенция (CETS No. 225) - первый в истории международный юридически обязывающий договор, направленный на обеспечение полного соответствия использования систем ИИ правам человека, демократии и верховенству закона.

🤝 Данная конвенция разрабатывалась при сотрудничестве 46 стран-участниц СЕ и 11 государств, не входящих в него. На данный момент конвенцию подписали 10 государств, в том числе Евросоюз, Соединенные Штаты и Великобритания.

Документ регулирует использование ИИ государственными и частными организациями, обязывая стороны проверять соответствие технологий стандартам в области прав человека.
🔜 При невозможности обеспечения этих стандартов предусмотрены меры вплоть до запрета использования таких технологий.

Соглашение также направлено на предотвращение использования ИИ для подрыва:
🔵демократических институтов и процессов
🔵принципов разделения властей
🔵независимости судебной системы и обеспечения доступа к правосудию

💬 Как утверждается в официальном объявлении Совета Европы: «Соглашение будет не только способствовать прогрессу и инновациям в области ИИ, но и поможет управлять рисками».

Конвенция вступит в силу после ратификации минимум пятью странами, включая трех членов Совета Европы. Присоединиться смогут страны со всего мира, при условии соблюдения положений Конвенци.

#AI #Regulation #CouncilOfEurope
Please open Telegram to view this post
VIEW IN TELEGRAM
📝 Группа технологических гигантов заявила, что жесткое регулирование ИИ в ЕС станет причиной стагнации развития технологии

Группа компаний, в которую входят Meta Platforms*, Spotify, Ericson, SAP и Prada, предупредила в своем открытом письме, что из-за сдерживающего регулирования ИИ, Европейский союз рискует упустить все преимущества технологии.

Руководители более чем двух десятков компаний призывают Евросоюз унифицировать свои правила и дать современную трактовку законодательства о защите данных.

Ключевые моменты письма:
🟥европейские организации имеют худший доступ к открытым моделям ИИ, что не позволяет им использовать опыт и наработки коллег
🟥непоследовательное применение GDPR и иных законов создает неопределенность в отношении видов данных, которые могут быть использованы для обучения моделей

"Европа стала менее конкурентоспособной и менее инновационной по сравнению с другими регионами, и теперь она рискует еще больше отстать в эпоху искусственного интеллекта из-за непоследовательного принятия нормативных решений", - говорится в письме.

❗️Не так давно Meta и Apple объявили о том, что новые функции и модели ИИ, которые они внедряют в других регионах, не будут доступны в Европе из-за законодательных требований юрисдикции.

*Meta признана в России экстремистской организацией и запрещена

#AI #EU #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
☄️ Китай и ООН сотрудничают в наращивании потенциала ИИ

С 3 по 6 сентября в Шанхае прошел семинар, посвященный международному сотрудничеству в области наращивания потенциала ИИ (Workshop on Al Capacity Building). В мероприятии приняли участие 38 делегатов из Европы, Азии, Африки, стран Ближнего Востока и постсоветского пространства.

Программа семинара состояла из:
✏️ лекций, посвященных темам текущего состояния и развития отрасли ИИ в Китае и мире
😉 визитов в китайские организации для демонстрации текущих разработок в сфере ИИ (ПО и робототехника)

На открытии выступили представители Китая и ООН:

🇺🇳 Генеральный секретарь ООН Антониу Гутерриш на церемонии открытия подчеркнул, что ИИ стремительно меняет мир, и важно объединить усилия для ответственного развития и регулирования технологий. Он также отметил уникальную роль ООН в поддержке международного диалога по ИИ и укреплении глобальных стандартов.

🇨🇳 В свою очередь, Вице-министр иностранных дел Китая Ма Чжаосюй заявил, что Китай будет активно способствовать глобальному консенсусу по вопросам управления ИИ на предстоящем саммите ООН, подчеркивая важность создания справедливых глобальных рамок для управления ИИ.

Прошедший семинар стал продолжением инициативы Китая по резолюции Генеральной Ассамблеей ООН о расширении международного сотрудничества в сфере ИИ. По заверению организаторов, в дальнейшем планируется проводить подобные мероприятия на ежегодной основе.

#AI #China #UN #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇳 ООН представила план по управлению ИИ

Консультативный орган высокого уровня по искусственному интеллекту, созданный главой ООН, опубликовал 19 сентября доклад «Управление искусственным интеллектом в интересах человечества».
Данный документ представляет собой глобальный план действий по устранению рисков, связанных с ИИ, и всеобщему использованию его преобразующего потенциала.

Консультативный орган по ИИ начал свою работу в октябре прошлого года, а промежуточный отчет по докладу "Управление ИИ в интересах человечества" был опубликован уже в декабре.

Уже в промежуточной версии в качестве основной проблемы был выделен дефицит глобального управления и сосредоточение благ ИИ в руках небольшого количества субъектов частного сектора в еще меньшем числе государств.

В докладе были предложены предварительные рекомендации - руководящие принципы и институциональные функции управления:
🔹управление ИИ должно быть инклюзивным, осуществляться всеми и на благо всех
🔹управление ИИ должно строиться параллельно с управлением данными
🔹следует проводить регулярную оценку будущих направлений развития ИИ и последствий этого процесса
🔹рекомендуется разрабатывать и гармонизовать стандарты, требования безопасности и методы управления рисками
🔹должен проводиться регулярный мониторинг рисков и составляться отчетность об инцидентах

❗️ На основании промежуточного отчета Консультативный орган по ИИ разработал конкретные рекомендации по управлению безопасным, надежным и ответственным ИИ.

Международному сообществу предлагается принять ряд мер, в том числе:
🆗 заложить основы глобальной архитектуры управления ИИ, основанной на международном сотрудничестве
🆗 устранить пробелы в существующих механизмах управления ИИ
🆗 работать сообща в области управления ИИ в целях содействия развитию и защите прав человека

В докладе особое внимание уделено проблеме отсутствия глобальной структуры по управлению ИИ. Из 193 государств-членов ООН только 7 являются участниками инициатив в области управления искусственным интеллектом.

Авторы документа предлагают несколько способов разрешения сложившейся ситуации:
🔬 создать Международную научную группу экспертов по ИИ для предоставления беспристрастных научных знаний в этой области, что позволит устранить информационное неравенство между странами
📰 организовать обмен стандартами ИИ для обеспечения технической совместимости систем ИИ в разных странах
📈 создать Глобальную сеть по развитию потенциала ИИ и Глобальный фонд ИИ для устранения пробелов в потенциале и сотрудничестве

🔍 Таким образом, доклад подчеркивает не только технологические, но и социальные вызовы, связанные с управлением ИИ. Важно отметить, что отсутствие глобальной координации в этой сфере может усилить неравенство между странами и компаниями, обладающими доступом к передовым технологиям, и теми, кто остается в стороне. Предложенные шаги по созданию международных стандартов и научных советов нацелены на выравнивание этого дисбаланса, стимулируя развитие инноваций и укрепление прав человека в условиях стремительного роста применения ИИ.

#AI #UN #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡 В Сеуле прошел саммит «Ответственный ИИ в военной сфере»

9-10 сентября в Сеуле прошел Саммит по ответственному использованию ИИ в военной сфере (REAIM), организованный Министерством иностранных дел и Министерством национальной обороны Республики Корея.

Саммит REAIM – это международная многосторонняя встреча, призванная:
📃 улучшить понимание влияния военного использования ИИ на международное сообщество и безопасность
📄 внести вклад в процесс формирования соответствующих норм и правил.

Первая встреча состоялась в Гааге в Нидерландах в прошлом году. В этом году во встрече приняли участие правительственные делегации из 90 стран.

На саммите в Южной Корее представили план применения ИИ в военной сфере. Этот документ содержит более практические рекомендации по сравнению с аналогичной инициативой прошлого года, хотя он остается юридически необязательным.

«План» подчеркивает:
🔹 конкретные рекомендации по оценке рисков
🔹 необходимость предотвращения использования ИИ для распространения оружия массового уничтожения
🔹 важность сохранения контроля над этой технологией со стороны человека

Около 60 стран одобрили предложение - следующие шаги включают определение места и времени для будущих саммитов, чтобы продолжить диалог об ответственном использовании ИИ в военной сфере.

#AI #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
☄️ Губернатор Калифорнии наложил вето на законопроект о безопасности ИИ

Законопроект SB 1047 («Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта») мог бы стать первым подобным нормативно-правовым актом в США, но 29 сентября Гевин Ньюсом, губернатор Калифорнии, наложил вето на данную инициативу.

Законопроект SB 1047 претерпел значительные изменения с момента его предложения, так как изначальная редакция устанавливала слишком строгие и обременительные для разработчиков меры безопасности ИИ.

Так, в последней редакции, учитывающей поправки Комитета по ассигнованиям Калифорнии, законопроект предусматривал следующее:
1️⃣Крупные ИИ-компании, которые тратят более 100 миллионов долларов на обучение модели, должны разрабатывать, ежегодно обновлять и публиковать свои протоколы безопасности
2️⃣Разработчики обязаны внедрить возможность полной остановки модели в случае возникновения угроз
3️⃣Ежегодно начиная с 2026 года компании должны проходить независимый аудит выполнения требований законопроекта и представлять результаты аудита генеральному прокурору
4️⃣Разработчики обязаны сообщать генеральному прокурору о каждом инциденте, связанном с безопасностью модели, в течение 72 часов после его обнаружения
5️⃣Генеральный прокурор может подать в суд на компании за серьезный ущерб, причиненный их технологиями, такой как смерть или материальный ущерб

📣 Законопроект вызвал негативную реакцию как со стороны отрасли, так и со стороны членов Конгресса США.

💬 "Я возвращаю законопроект сената 1047 без своей подписи… Я не считаю, что это лучший подход к защите населения от реальных угроз, создаваемых технологией. Законопроект предписывает строгие стандарты даже к самым базовым функциям, но только при условии, что их использует крупная система» В конечном счете, любая структура для эффективного регулирования ИИ должна идти в ногу с самой технологией", - написал Ньюсом в письме, адресованном сенату штата Калифорния.

По мнению губернатора, принятие данного законопроекта затормозило бы инновации в быстро развивающемся секторе ИИ, что негативно бы сказалось на лидерской позиции Калифорнии в этой сфере.

❗️ Тем не менее, Ньюсом отметил, что обратился к ведущим мировым экспертам по безопасности ИИ с просьбой помочь Калифорнии разработать "реалистичные меры регулирования", основанные на научном анализе рисков. Он добавил, что поручил государственным агентствам расширить оценку рисков, связанных с возможными катастрофическими событиями, вызванными развитием ИИ.

#AI #USA #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM