🇸🇬 Сингапур опубликовал доклад о синтетических данных
15 июля 2024 года Комиссия по защите персональных данных Сингапура (PDPC) опубликовала доклад «Privacy enhancing technology» (PET) - руководство по созданию синтетических данных.
Использование синтетических данных снижает потребность в сборе и обработке реальных данных (в т.ч. персональных или коммерчески чувствительных), что особенно важно в ситуациях, когда сбор таких видов данных ограничен законодательством.
Руководство определяет набор инструментов и методов, которые позволяют обрабатывать, анализировать и извлекать информацию без раскрытия конфиденциальных категорий данных.
Руководство классифицирует методы по трем категориям:
1️⃣ маскировка данных*
2️⃣ обработка зашифрованных данных
3️⃣ федеративное обучение**
⚡️ В Руководстве также предлагаются наилучшие практики генерации синтетических данных, которые особенно полезны при создании датасетов для обучения ИИ.
❗️ Кроме того, в руководстве подробно изложены кейсы использования синтетических данных, которые позволяют повысить качество работы систем ИИ, при этом не нарушая законодательство.
💸 Например, синтетические данные можно использовать для обучения моделей ИИ, направленных на обнаружение мошенничества в финансовом секторе.
*Маскировка (обфускация) данных — способ защиты конфиденциальной информации от несанкционированного доступа путём замены исходных данных фиктивными данными или произвольными символами.
**Федеративное обучение — это методика заключения модели в защищенную среду и ее обучение без перемещения данных куда-либо.
#AI #Singapore #SyntheticData
15 июля 2024 года Комиссия по защите персональных данных Сингапура (PDPC) опубликовала доклад «Privacy enhancing technology» (PET) - руководство по созданию синтетических данных.
Использование синтетических данных снижает потребность в сборе и обработке реальных данных (в т.ч. персональных или коммерчески чувствительных), что особенно важно в ситуациях, когда сбор таких видов данных ограничен законодательством.
Руководство определяет набор инструментов и методов, которые позволяют обрабатывать, анализировать и извлекать информацию без раскрытия конфиденциальных категорий данных.
Руководство классифицирует методы по трем категориям:
*Маскировка (обфускация) данных — способ защиты конфиденциальной информации от несанкционированного доступа путём замены исходных данных фиктивными данными или произвольными символами.
**Федеративное обучение — это методика заключения модели в защищенную среду и ее обучение без перемещения данных куда-либо.
#AI #Singapore #SyntheticData
Please open Telegram to view this post
VIEW IN TELEGRAM
Condé Nast, журнальное издательство, выпускающее The New Yorker, Vogue и Vanity Fair, потребовало от Perplexity* прекратить использовать их контент при выдаче ответов на запросы пользователей.
В своем письме о прекращении сотрудничества Condé Nast заявило, что Perplexity использует веб-краулеры**, которые позволяют обходить средства защиты издательства.
Perplexity не первый раз получает обвинения в свой адрес:
Более того, за последние два месяца Forbes, Amazon и Reuters начали отдельные расследования практик Perplexity.
*Perplexity — чат-бот на базе ИИ, который сканирует Интернет, собирая информацию из авторитетных источников, объединяет ее в последовательный и простой для понимания ответ, добавляя при этом сноски со ссылками на первоисточники, что позволяет легко проверить информацию.
**Веб-краулер — это программный робот, который сканирует Интернет и загружает найденные данные.
#AI #Copyright
Please open Telegram to view this post
VIEW IN TELEGRAM
Гильдия киноактеров и Федерация артистов телевидения и радио Америки (SAG-AFTRA) объявила о первой с 2017 года забастовке против компаний — разработчиков видеоигр. Поводом стало непредоставление охраны цифровых образов артистов при использование ИИ со стороны индустрии видеоигр.
Переговоры с крупными игровыми студиями длились около полутора лет, однако 26 июля профсоюз принял решение о прекращении переговоров и объявлении забастовки.
Основная позиция членов профсоюза по вопросам использования ИИ
#AI #USA #Deepfake
Please open Telegram to view this post
VIEW IN TELEGRAM
Министерство образования США опубликовало новое руководство для edtech-компаний - "Designing for Education with Artificial Intelligence".
Основная цель документа – создать подробный план ответственной разработки ИИ-продуктов для образовательных учреждений.
Пять ключевых областей, которые потребуют особого внимания разработчиков технологий ИИ в сфере образования:
Разработчикам также рекомендуется:
Таким образом, рассматриваемый документ предполагает интеграцию этических принципов и оценки рисков на каждом этапе разработки. Потенциально такой подход потребует больше временных и финансовых затрат, однако результат будет более качественным и надежным.
#AI #USA #Education
Please open Telegram to view this post
VIEW IN TELEGRAM
31 июля американский Copyright Office опубликовал первую часть отчета о правовых вопросах, связанных с авторским правом и технологиями искусственного интеллекта.
Данная часть отчета посвящена цифровым копиям. Под цифровыми копиями в отчете, в том числе, понимаются:
Copyright Office проанализировал существующие нормативно-правовые акты, закрепляющие права человека на неприкосновенность частной жизни и защиту своей чести и достоинства.
Поэтому Бюро предлагает принять отдельный федеральный закон и дает следующие рекомендации:
#AI #USA #CopyrightOffice
Please open Telegram to view this post
VIEW IN TELEGRAM
10 июля НАТО опубликовала пересмотренную стратегию ИИ, которая направлена на использование технологий ИИ в рамках НАТО безопасным и ответственным образом. НАТО связывает пересмотр стратегии с новыми угрозами, в том числе, с участившимися кампаниями дезинформации с использованием дипфейков.
Стратегия определяет 4 цели:
Принимая во внимание уже достигнутый прогресс, НАТО обновила и желаемы результаты. Обновленный список включает в себя:
#AI #NATO
Please open Telegram to view this post
VIEW IN TELEGRAM
Группа исследователей из китайской компании Baidu Inc. предложила новый метод проверки правильности ответов больших языковых моделей (LLM).
Цель такой проверки – повысить надежность модели, минимизируя процент галлюцинаций ИИ.
«Самоанализ ИИ» - так Baidu назвала новый метод. Его суть заключается в том, что модель должна сама проверять свою работу перед тем, как предоставить результаты конечным пользователям.
Для этого в движок LLM внедряется трехэтапный процесс:
Ученые уже протестировали данный подход на нейросети компании и утверждают, что улучшенная LLM смогла превзойти GPT-4, используя гораздо меньшие наборы обучающих данных.
Таким образом, по мнению исследователей, предлагаемый метод проверки позволит:
#China #AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
8 августа компания выложила на своем сайте отчет, подготовленный в связи с принятыми на себя в июле прошлого года добровольными обязательствами по ответственному развитию ИИ.
В отчете содержится информация о рисках новой модели GPT-4о и мерах по их смягчению.
Более того, GPT-4о обучена отказывать отвечать на запросы об идентификации человека по голосу, за исключением определения авторов известных цитат.
#AI #Risks #Ethics
Please open Telegram to view this post
VIEW IN TELEGRAM
Лаборатория компьютерных наук и искусственного интеллекта Массачусетского технологического института (MIT) опубликовала репозиторий рисков ИИ – новый стандарт, который поможет разобраться и справиться с рисками, возникающими при использовании ИИ.
Репозиторий состоит из трех частей:
Всего в репозитории выделено 7 категорий рисков:
Таким образом, база данных предоставляет удобную классификацию разнообразных рисков использования ИИ, а также позволяет связать каждый риск с источником (например, научная статья) и объяснением возникновения.
Более того, исследовательская группа обещает, что будет регулярно обновлять репозиторий по мере развития ИИ.
#AI #Regularion #Risks
Please open Telegram to view this post
VIEW IN TELEGRAM
20 августа OpenAI объявила о начале сотрудничества с крупным новостным медиахолдингом Condé Nast. В рамках данного соглашения OpenAI интегрирует контент Vogue, The New Yorker, GQ, Vanity Fair и других изданий в ChatGPT и SearchGPT (поисковая система на базе ИИ).
Согласно заявлениям представителей компаний все стороны сделки получат преимущества:
Стоит отметить, что OpenAI уже имеет аналогичные соглашения с Associated Press, Financial Times, NewsCorp, TIME, Vox Media и другими медиакомпаниями.
#AI #GenAI #CopyrightOffice
Please open Telegram to view this post
VIEW IN TELEGRAM