🇸🇬 Сингапур опубликовал доклад о синтетических данных
15 июля 2024 года Комиссия по защите персональных данных Сингапура (PDPC) опубликовала доклад «Privacy enhancing technology» (PET) - руководство по созданию синтетических данных.
Использование синтетических данных снижает потребность в сборе и обработке реальных данных (в т.ч. персональных или коммерчески чувствительных), что особенно важно в ситуациях, когда сбор таких видов данных ограничен законодательством.
Руководство определяет набор инструментов и методов, которые позволяют обрабатывать, анализировать и извлекать информацию без раскрытия конфиденциальных категорий данных.
Руководство классифицирует методы по трем категориям:
1️⃣ маскировка данных*
2️⃣ обработка зашифрованных данных
3️⃣ федеративное обучение**
⚡️ В Руководстве также предлагаются наилучшие практики генерации синтетических данных, которые особенно полезны при создании датасетов для обучения ИИ.
❗️ Кроме того, в руководстве подробно изложены кейсы использования синтетических данных, которые позволяют повысить качество работы систем ИИ, при этом не нарушая законодательство.
💸 Например, синтетические данные можно использовать для обучения моделей ИИ, направленных на обнаружение мошенничества в финансовом секторе.
*Маскировка (обфускация) данных — способ защиты конфиденциальной информации от несанкционированного доступа путём замены исходных данных фиктивными данными или произвольными символами.
**Федеративное обучение — это методика заключения модели в защищенную среду и ее обучение без перемещения данных куда-либо.
#AI #Singapore #SyntheticData
15 июля 2024 года Комиссия по защите персональных данных Сингапура (PDPC) опубликовала доклад «Privacy enhancing technology» (PET) - руководство по созданию синтетических данных.
Использование синтетических данных снижает потребность в сборе и обработке реальных данных (в т.ч. персональных или коммерчески чувствительных), что особенно важно в ситуациях, когда сбор таких видов данных ограничен законодательством.
Руководство определяет набор инструментов и методов, которые позволяют обрабатывать, анализировать и извлекать информацию без раскрытия конфиденциальных категорий данных.
Руководство классифицирует методы по трем категориям:
*Маскировка (обфускация) данных — способ защиты конфиденциальной информации от несанкционированного доступа путём замены исходных данных фиктивными данными или произвольными символами.
**Федеративное обучение — это методика заключения модели в защищенную среду и ее обучение без перемещения данных куда-либо.
#AI #Singapore #SyntheticData
Please open Telegram to view this post
VIEW IN TELEGRAM
Condé Nast, журнальное издательство, выпускающее The New Yorker, Vogue и Vanity Fair, потребовало от Perplexity* прекратить использовать их контент при выдаче ответов на запросы пользователей.
В своем письме о прекращении сотрудничества Condé Nast заявило, что Perplexity использует веб-краулеры**, которые позволяют обходить средства защиты издательства.
Perplexity не первый раз получает обвинения в свой адрес:
Более того, за последние два месяца Forbes, Amazon и Reuters начали отдельные расследования практик Perplexity.
*Perplexity — чат-бот на базе ИИ, который сканирует Интернет, собирая информацию из авторитетных источников, объединяет ее в последовательный и простой для понимания ответ, добавляя при этом сноски со ссылками на первоисточники, что позволяет легко проверить информацию.
**Веб-краулер — это программный робот, который сканирует Интернет и загружает найденные данные.
#AI #Copyright
Please open Telegram to view this post
VIEW IN TELEGRAM
Гильдия киноактеров и Федерация артистов телевидения и радио Америки (SAG-AFTRA) объявила о первой с 2017 года забастовке против компаний — разработчиков видеоигр. Поводом стало непредоставление охраны цифровых образов артистов при использование ИИ со стороны индустрии видеоигр.
Переговоры с крупными игровыми студиями длились около полутора лет, однако 26 июля профсоюз принял решение о прекращении переговоров и объявлении забастовки.
Основная позиция членов профсоюза по вопросам использования ИИ
#AI #USA #Deepfake
Please open Telegram to view this post
VIEW IN TELEGRAM
Министерство образования США опубликовало новое руководство для edtech-компаний - "Designing for Education with Artificial Intelligence".
Основная цель документа – создать подробный план ответственной разработки ИИ-продуктов для образовательных учреждений.
Пять ключевых областей, которые потребуют особого внимания разработчиков технологий ИИ в сфере образования:
Разработчикам также рекомендуется:
Таким образом, рассматриваемый документ предполагает интеграцию этических принципов и оценки рисков на каждом этапе разработки. Потенциально такой подход потребует больше временных и финансовых затрат, однако результат будет более качественным и надежным.
#AI #USA #Education
Please open Telegram to view this post
VIEW IN TELEGRAM
31 июля американский Copyright Office опубликовал первую часть отчета о правовых вопросах, связанных с авторским правом и технологиями искусственного интеллекта.
Данная часть отчета посвящена цифровым копиям. Под цифровыми копиями в отчете, в том числе, понимаются:
Copyright Office проанализировал существующие нормативно-правовые акты, закрепляющие права человека на неприкосновенность частной жизни и защиту своей чести и достоинства.
Поэтому Бюро предлагает принять отдельный федеральный закон и дает следующие рекомендации:
#AI #USA #CopyrightOffice
Please open Telegram to view this post
VIEW IN TELEGRAM
10 июля НАТО опубликовала пересмотренную стратегию ИИ, которая направлена на использование технологий ИИ в рамках НАТО безопасным и ответственным образом. НАТО связывает пересмотр стратегии с новыми угрозами, в том числе, с участившимися кампаниями дезинформации с использованием дипфейков.
Стратегия определяет 4 цели:
Принимая во внимание уже достигнутый прогресс, НАТО обновила и желаемы результаты. Обновленный список включает в себя:
#AI #NATO
Please open Telegram to view this post
VIEW IN TELEGRAM
Группа исследователей из китайской компании Baidu Inc. предложила новый метод проверки правильности ответов больших языковых моделей (LLM).
Цель такой проверки – повысить надежность модели, минимизируя процент галлюцинаций ИИ.
«Самоанализ ИИ» - так Baidu назвала новый метод. Его суть заключается в том, что модель должна сама проверять свою работу перед тем, как предоставить результаты конечным пользователям.
Для этого в движок LLM внедряется трехэтапный процесс:
Ученые уже протестировали данный подход на нейросети компании и утверждают, что улучшенная LLM смогла превзойти GPT-4, используя гораздо меньшие наборы обучающих данных.
Таким образом, по мнению исследователей, предлагаемый метод проверки позволит:
#China #AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
8 августа компания выложила на своем сайте отчет, подготовленный в связи с принятыми на себя в июле прошлого года добровольными обязательствами по ответственному развитию ИИ.
В отчете содержится информация о рисках новой модели GPT-4о и мерах по их смягчению.
Более того, GPT-4о обучена отказывать отвечать на запросы об идентификации человека по голосу, за исключением определения авторов известных цитат.
#AI #Risks #Ethics
Please open Telegram to view this post
VIEW IN TELEGRAM
Лаборатория компьютерных наук и искусственного интеллекта Массачусетского технологического института (MIT) опубликовала репозиторий рисков ИИ – новый стандарт, который поможет разобраться и справиться с рисками, возникающими при использовании ИИ.
Репозиторий состоит из трех частей:
Всего в репозитории выделено 7 категорий рисков:
Таким образом, база данных предоставляет удобную классификацию разнообразных рисков использования ИИ, а также позволяет связать каждый риск с источником (например, научная статья) и объяснением возникновения.
Более того, исследовательская группа обещает, что будет регулярно обновлять репозиторий по мере развития ИИ.
#AI #Regularion #Risks
Please open Telegram to view this post
VIEW IN TELEGRAM
20 августа OpenAI объявила о начале сотрудничества с крупным новостным медиахолдингом Condé Nast. В рамках данного соглашения OpenAI интегрирует контент Vogue, The New Yorker, GQ, Vanity Fair и других изданий в ChatGPT и SearchGPT (поисковая система на базе ИИ).
Согласно заявлениям представителей компаний все стороны сделки получат преимущества:
Стоит отметить, что OpenAI уже имеет аналогичные соглашения с Associated Press, Financial Times, NewsCorp, TIME, Vox Media и другими медиакомпаниями.
#AI #GenAI #CopyrightOffice
Please open Telegram to view this post
VIEW IN TELEGRAM
На прошлой неделе xAI предоставил доступ к новой функции своего чат-бота Grok: создание изображений на основе текстового запроса (text-to-image).
Если спросить у чат-бота какие ограничения он имеет, то Grok ответит, что не может генерировать:
Однако, как делятся пользователи, не все эти правила действительно работают. Например, Grok сгенерировал изображения по следующим промптам:
Также пользователи X жалуются, что минимальную существующую цензуру легко обойти путем незначительного изменения промпта.
Такой подход xAI к стандартам разработки и использования генеративного ИИ не остается незамеченным для регуляторов.
🇪🇺 Европейская комиссия уже расследует X на предмет потенциальных нарушений Закона о цифровых услугах (Digital Services Act (DSA)): в апреле этого года она запросила у компании информацию о принимаемых мерах по снижению рисков, связанных с ГенИИ.
#AI #GenAI #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
Законопроект Калифорнии SB 1047 («Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта») в изначальной редакции предусматривал установление строгих стандартов безопасности для разработки ИИ, включая обязательное тестирование на безопасность и защиту информаторов в лабораториях ИИ.
15 августа законопроект был принят Комитетом по ассигнованиям Калифорнии с несколькими ключевыми изменениями, предложенными ИИ-компаниями:
Несмотря на значительное смягчение формулировок, SB 1047 все еще вызывает неоднозначную реакцию.
🇺🇸 Например, 8 членов Конгресса США уже написали письмо с просьбой к губернатору наложить вето на законопроект, так как он «не принесёт пользы штату, стартап-сообществу, научному развитию и даже не защитит от возможного вреда, связанного с разработкой ИИ».
#AI #USA #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇳 ЮНЕСКО объявила о начале консультаций по подходам к регулированию ИИ
ЮНЕСКО призывает заинтересованные стороны, включая представителей власти, экспертов по правовым вопросам и по управлению ИИ, принять участие в открытых консультациях по тезисам аналитической справки «Консультационный документ по регулированию ИИ: новые подходы в мире», опубликованной 16 августа 2024 г.
Данный документ представляет подробный обзор девяти подходов к регулированию ИИ, подкреплённых примерами из мировой практики:
1️⃣ подход, провозглашающий общие принципы
2️⃣ стандартизированный подход
3️⃣ экспериментальный (гибкий) подход
4️⃣ подход содействия и предоставления возможностей
5️⃣ адаптационный подход
6️⃣ подход, ориентированный на прозрачность
7️⃣ риск-ориентированный подход
8️⃣ правозащитный подход
9️⃣ подход, устанавливающий ответственность
Подходы, расположенные по степени усиления государственного вмешательства, могут сочетаться друг с другом в одной стране.
Аналитический документ также советует представителям власти обратить внимание на три ключевые аспекта при разработке регулирования ИИ:
📄 аргументация в пользу регулирования
🔍 подбор оптимального момента для его внедрения
✔️ выбор подходящей комбинации подходов и методов
📎 Принять участие в консультациях можно до 19 сентября 2024 г. по ссылке.
Пересмотренная версия документа будет представлена на Ассамблее Межпарламентского союза в Женеве 13–17 октября 2024 года в контексте доработки резолюции «Влияние ИИ на демократию, права человека и верховенство закона».
#UNESCO #AI #Regulation
ЮНЕСКО призывает заинтересованные стороны, включая представителей власти, экспертов по правовым вопросам и по управлению ИИ, принять участие в открытых консультациях по тезисам аналитической справки «Консультационный документ по регулированию ИИ: новые подходы в мире», опубликованной 16 августа 2024 г.
Данный документ представляет подробный обзор девяти подходов к регулированию ИИ, подкреплённых примерами из мировой практики:
Подходы, расположенные по степени усиления государственного вмешательства, могут сочетаться друг с другом в одной стране.
Аналитический документ также советует представителям власти обратить внимание на три ключевые аспекта при разработке регулирования ИИ:
Пересмотренная версия документа будет представлена на Ассамблее Межпарламентского союза в Женеве 13–17 октября 2024 года в контексте доработки резолюции «Влияние ИИ на демократию, права человека и верховенство закона».
#UNESCO #AI #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
27 августа в Калифорнии одобрили законопроект AB 2602, требующий согласия исполнителей перед созданием их цифровых копий в медиа.
Так, без явного согласия артиста нельзя будет использовать его голос или образ для создания произведения или выполнения работы, которую артист мог бы выполнить лично.
Документ также закрепляет, что цифровые копии исполнителей не могут быть использованы, если:
Приняв данный законопроект, власти Калифорнии пошли навстречу SAG-AFTRA - профсоюзу, представляющему интересы актеров, телеведущих, радиоведущих и других работников в области развлечений.
SAG-AFTRA настаивала на принятии данного законодательства из-за опасений по поводу распространяющихся случаев нарушения прав артистов путем несанкционированного использования ИИ.
Законопроект АВ 2602 находится на рассмотрении у губернатора и вступит в силу после его подписания.
#AI #Regulation #USA
Please open Telegram to view this post
VIEW IN TELEGRAM
5 сентября в Вильнюсе на конференции Министров юстиции Совета Европы была открыта для подписания первая Рамочная Конвенция (CETS No. 225) - первый в истории международный юридически обязывающий договор, направленный на обеспечение полного соответствия использования систем ИИ правам человека, демократии и верховенству закона.
Документ регулирует использование ИИ государственными и частными организациями, обязывая стороны проверять соответствие технологий стандартам в области прав человека.
Соглашение также направлено на предотвращение использования ИИ для подрыва:
Конвенция вступит в силу после ратификации минимум пятью странами, включая трех членов Совета Европы. Присоединиться смогут страны со всего мира, при условии соблюдения положений Конвенци.
#AI #Regulation #CouncilOfEurope
Please open Telegram to view this post
VIEW IN TELEGRAM
Группа компаний, в которую входят Meta Platforms*, Spotify, Ericson, SAP и Prada, предупредила в своем открытом письме, что из-за сдерживающего регулирования ИИ, Европейский союз рискует упустить все преимущества технологии.
Руководители более чем двух десятков компаний призывают Евросоюз унифицировать свои правила и дать современную трактовку законодательства о защите данных.
Ключевые моменты письма:
"Европа стала менее конкурентоспособной и менее инновационной по сравнению с другими регионами, и теперь она рискует еще больше отстать в эпоху искусственного интеллекта из-за непоследовательного принятия нормативных решений", - говорится в письме.
*Meta признана в России экстремистской организацией и запрещена
#AI #EU #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
С 3 по 6 сентября в Шанхае прошел семинар, посвященный международному сотрудничеству в области наращивания потенциала ИИ (Workshop on Al Capacity Building). В мероприятии приняли участие 38 делегатов из Европы, Азии, Африки, стран Ближнего Востока и постсоветского пространства.
Программа семинара состояла из:
На открытии выступили представители Китая и ООН:
🇺🇳 Генеральный секретарь ООН Антониу Гутерриш на церемонии открытия подчеркнул, что ИИ стремительно меняет мир, и важно объединить усилия для ответственного развития и регулирования технологий. Он также отметил уникальную роль ООН в поддержке международного диалога по ИИ и укреплении глобальных стандартов.
🇨🇳 В свою очередь, Вице-министр иностранных дел Китая Ма Чжаосюй заявил, что Китай будет активно способствовать глобальному консенсусу по вопросам управления ИИ на предстоящем саммите ООН, подчеркивая важность создания справедливых глобальных рамок для управления ИИ.
Прошедший семинар стал продолжением инициативы Китая по резолюции Генеральной Ассамблеей ООН о расширении международного сотрудничества в сфере ИИ. По заверению организаторов, в дальнейшем планируется проводить подобные мероприятия на ежегодной основе.
#AI #China #UN #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇳 ООН представила план по управлению ИИ
Консультативный орган высокого уровня по искусственному интеллекту, созданный главой ООН, опубликовал 19 сентября доклад «Управление искусственным интеллектом в интересах человечества».
Данный документ представляет собой глобальный план действий по устранению рисков, связанных с ИИ, и всеобщему использованию его преобразующего потенциала.
Консультативный орган по ИИ начал свою работу в октябре прошлого года, а промежуточный отчет по докладу "Управление ИИ в интересах человечества" был опубликован уже в декабре.
Уже в промежуточной версии в качестве основной проблемы был выделен дефицит глобального управления и сосредоточение благ ИИ в руках небольшого количества субъектов частного сектора в еще меньшем числе государств.
В докладе были предложены предварительные рекомендации - руководящие принципы и институциональные функции управления:
🔹 управление ИИ должно быть инклюзивным, осуществляться всеми и на благо всех
🔹 управление ИИ должно строиться параллельно с управлением данными
🔹 следует проводить регулярную оценку будущих направлений развития ИИ и последствий этого процесса
🔹 рекомендуется разрабатывать и гармонизовать стандарты, требования безопасности и методы управления рисками
🔹 должен проводиться регулярный мониторинг рисков и составляться отчетность об инцидентах
❗️ На основании промежуточного отчета Консультативный орган по ИИ разработал конкретные рекомендации по управлению безопасным, надежным и ответственным ИИ.
Международному сообществу предлагается принять ряд мер, в том числе:
🆗 заложить основы глобальной архитектуры управления ИИ, основанной на международном сотрудничестве
🆗 устранить пробелы в существующих механизмах управления ИИ
🆗 работать сообща в области управления ИИ в целях содействия развитию и защите прав человека
В докладе особое внимание уделено проблеме отсутствия глобальной структуры по управлению ИИ. Из 193 государств-членов ООН только 7 являются участниками инициатив в области управления искусственным интеллектом.
Авторы документа предлагают несколько способов разрешения сложившейся ситуации:
🔬 создать Международную научную группу экспертов по ИИ для предоставления беспристрастных научных знаний в этой области, что позволит устранить информационное неравенство между странами
📰 организовать обмен стандартами ИИ для обеспечения технической совместимости систем ИИ в разных странах
📈 создать Глобальную сеть по развитию потенциала ИИ и Глобальный фонд ИИ для устранения пробелов в потенциале и сотрудничестве
🔍 Таким образом, доклад подчеркивает не только технологические, но и социальные вызовы, связанные с управлением ИИ. Важно отметить, что отсутствие глобальной координации в этой сфере может усилить неравенство между странами и компаниями, обладающими доступом к передовым технологиям, и теми, кто остается в стороне. Предложенные шаги по созданию международных стандартов и научных советов нацелены на выравнивание этого дисбаланса, стимулируя развитие инноваций и укрепление прав человека в условиях стремительного роста применения ИИ.
#AI #UN #Regulation
Консультативный орган высокого уровня по искусственному интеллекту, созданный главой ООН, опубликовал 19 сентября доклад «Управление искусственным интеллектом в интересах человечества».
Данный документ представляет собой глобальный план действий по устранению рисков, связанных с ИИ, и всеобщему использованию его преобразующего потенциала.
Консультативный орган по ИИ начал свою работу в октябре прошлого года, а промежуточный отчет по докладу "Управление ИИ в интересах человечества" был опубликован уже в декабре.
Уже в промежуточной версии в качестве основной проблемы был выделен дефицит глобального управления и сосредоточение благ ИИ в руках небольшого количества субъектов частного сектора в еще меньшем числе государств.
В докладе были предложены предварительные рекомендации - руководящие принципы и институциональные функции управления:
Международному сообществу предлагается принять ряд мер, в том числе:
В докладе особое внимание уделено проблеме отсутствия глобальной структуры по управлению ИИ. Из 193 государств-членов ООН только 7 являются участниками инициатив в области управления искусственным интеллектом.
Авторы документа предлагают несколько способов разрешения сложившейся ситуации:
#AI #UN #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
9-10 сентября в Сеуле прошел Саммит по ответственному использованию ИИ в военной сфере (REAIM), организованный Министерством иностранных дел и Министерством национальной обороны Республики Корея.
Саммит REAIM – это международная многосторонняя встреча, призванная:
Первая встреча состоялась в Гааге в Нидерландах в прошлом году. В этом году во встрече приняли участие правительственные делегации из 90 стран.
На саммите в Южной Корее представили план применения ИИ в военной сфере. Этот документ содержит более практические рекомендации по сравнению с аналогичной инициативой прошлого года, хотя он остается юридически необязательным.
«План» подчеркивает:
Около 60 стран одобрили предложение - следующие шаги включают определение места и времени для будущих саммитов, чтобы продолжить диалог об ответственном использовании ИИ в военной сфере.
#AI #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
Законопроект SB 1047 («Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта») мог бы стать первым подобным нормативно-правовым актом в США, но 29 сентября Гевин Ньюсом, губернатор Калифорнии, наложил вето на данную инициативу.
Законопроект SB 1047 претерпел значительные изменения с момента его предложения, так как изначальная редакция устанавливала слишком строгие и обременительные для разработчиков меры безопасности ИИ.
Так, в последней редакции, учитывающей поправки Комитета по ассигнованиям Калифорнии, законопроект предусматривал следующее:
По мнению губернатора, принятие данного законопроекта затормозило бы инновации в быстро развивающемся секторе ИИ, что негативно бы сказалось на лидерской позиции Калифорнии в этой сфере.
#AI #USA #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM