Pattern AI
232 subscribers
62 photos
4 videos
35 files
179 links
Искусственный интеллект изучает нас. Мы изучаем ИИ.
Отслеживаем, как меняется регулирование ИИ.
Разбираем манипуляции, UX-паттерны и алгоритмические ловушки.
Учимся применять ИИ: осознанно, этично и с пользой.
Download Telegram
Channel created
Добро пожаловать на канал Pattern AI!

Здесь говорят про то, как технологии влияют на бизнес, поведение пользователей и правила игры.

ИИ давно вышел за рамки генерации текста и изображений (подборка нейросетей). Он помогает нанимать, оценивать, предлагать и управлять. Без громких пресс-релизов. Иногда — с нарушением закона ( IP кейсы, занижение оценок студентам, ограничение доступа пользователей к услугам, гендерная предвзятость). Часто — без понимания последствий.
ИИ внедряется в каждую сферу, меняя пользовательский опыт, структуру компаний и правила эффективности (FTSG Tech Trend Report):
- сокращает цикл принятия решений с недель до минут;
- снижает затрат на 30 – 40%;
- автоматизирует координацию, убирая прослойку «менеджеров-посредников»;
- переход на на диалоговые формы (chat/UI), т.к.привычные интерфейсы устаревают;
- скрытый налог на ИИ. Настоящие издержки — не покупка ИИ, а энергия и инфраструктура, чтобы его поддерживать. Поздний вход на рынок = более высокая цена для компании.

В Pattern AI, мы:
- отслеживаем, как ИИ внедряется в разные сферы и в нашу повседневную жизнь;
- даем практические советы по законному и этичному внедрению технологий;
- разбираем, где UX превращается в манипуляцию;
- следим за тем, как законы пытаются догнать технологии;
- делаем подборки полезных ресурсов.

В центре внимания — регулирование, этика, тёмные паттерны, невидимые интерфейсы, нейро-манипуляции и разборы о том, как работают технологии. С аналитикой, фактами и вниманием к деталям.

Материалы не являются юридической консультацией
👍1
Законы против алгоритма: кто быстрее?

Если посмотреть статистику, то упоминания ИИ в законодательных инициативах выросли на 21,3% в 75 странах по сравнению с 2023 годом, что в 9 раз выше по сравнению с 2016 годом (Stanford AI Index Report).
Основные цели как международных (OECD AI Principles, G7 Code of Conduct, NIST,Council of Europe Framework Convention on AI, Global Partnership on Artificial Intelligence), так и национальных инициатив по регулированию:
▪️ Защита прав человека, недопущение дискриминации и манипуляций;
▪️Управление рисками ИИ систем;
▪️ Обеспечение прозрачности, объяснимости и безопасности систем;
▪️ Установление ответственности в цепочке создания и внедрения ИИ.
Если быстро пройтись по странам, то ЕС стал пионером. AI Act первый в мире закон по регулированию ИИ, задает тон остальным, имеет экстерриториальное действие, а несоблюдение грозит еще большими штрафами чем GDPR, до 7% мирового годового оборота компании или 35 млн евро.
В США пока нет единого федерального закона. Каждый штат действует по своей инициативе. Федеральные агентства (FTC, SEC, FDA, CFPB) ввели 59 нормативных актов, связанных с ИИ, что вдвое больше чем в 2023 году. Действуют также добровольные стандарты (NIST AI RMF, ISO/IEC Standards ( 42001), IEEE Standards (7000 series)) .
В Китае приняты правила для генеративного ИИ, дипфейков, регламент по идентификации синтетического контента.
Другие страны также в процессе разработки национальных стратегий и рамочных законов (Канада- AIDA, Бразилия -PL 21/2020, ОАЭ - AI Strategy 2031 и т.д.)

Что делать бизнесу в постоянно меняющемся регуляторном ландшафте?
- Идентифицировать и документировать ИИ-системы и GPAI-модели, которые разрабатывает или использует ваша компания, а также их целевое назначение.
- Классифицировать их по уровням риска и соответствующим требованиям национальных регуляторов.
- Провести аудит на предмет несоответствий и потенциальных рисков.
- Разработать стратегию управления ИИ и внедрить программу ИИ-комплаенса, включая обучение сотрудников основам регулирования ИИ.
- Пристально следить за изменениями законодательства. Полезный ресурс для этого Global AI Regulation Tracker.
#LawAndDisorder #ai #ии
AI powered dark patterns: как ИИ учится управлять вашими решениями

Для начала - разберемся с определениями. Темные паттерны — это части интерфейса, направленные на манипуляцию поведением пользователя. OECD выделяет шесть темных паттернов, которые помогают заставить пользователя совершить действия, которые он не собирался делать.

История развития тёмных паттернов долгое время сопровождалась созданием стратегий и жёстко прописанных сценариев, разработанных людьми. Но с приходом ИИ, манипуляции стали развиваться благодаря самообучению на пользовательских данных и поведенческих реакциях.
Именно это и стало основой для нового витка развития: современные модели ИИ, такие как Claude, Gemini, Llama и GPT, теперь сканируют тысячи сайтов и приложений, анализируя, какие методы манипуляции работают лучше всего, и автоматически перенимают эти стратегии.

Результат — принципиально иной подход к манипуляциям: гораздо более персонализированный и незаметный. ИИ использует персональные данные, чтобы создавать «индивидуальные» сценарии давления на пользователей. Это уже не просто предложение товара, а специально настроенные ситуации, подталкивающие к подпискам, покупкам или другим действиям, которые выгодны бизнесу, но могут быть не в интересах пользователя.

Примеры:
- Сеть Target использовала ИИ для того, чтобы спрогнозировать беременность подростка по её покупательским паттернам, ещё до того, как она рассказала об этом своей семье.
- Ещё один пример: судья полагался на ИИ для продления заключения подсудимого, основываясь на усреднённой статистике для подобных людей, а не на индивидуальных данных.

Итого: от заранее прописанных сценариев мы пришли к адаптивным, скрытым и персонализированным манипуляциям, где основное давление оказывается не на "среднего" пользователя, а именно на вас, с учётом конкретных привычек, эмоций и данных.

Source картинки

#UXWatch
👍5
Что говорит закон про регулирование темных паттернов и как избежать миллионных штрафов?

По данным исследований (FTC+ICPEN, European Commission’s 2022 study) 75% сайтов и приложений используют как минимум один темный паттерн, а 68% - два и более.
Cтраны активно разрабатывают и внедряют законодательные и регуляторные меры для борьбы с тёмными паттернами и манипулятивными практиками с использованием ИИ (OECD report, обзор регулирования здесь). Основное внимание уделяется обеспечению прозрачности, получению явного согласия пользователей и предотвращению манипуляций, особенно в отношении уязвимых групп населения.

В США главный игрок это FTC, запустившая в 2024 г. инициативу Operation AI Comply против компаний, использующих ИИ обманным способом. Примеры кейсов:
▪️ Сервис DoNotPay» - первый «робот- юрист», который должен был генерировать юридические документы в кратчайшие сроки и подавать иски, оштрафован на $193,000 за ложные заявления.
▪️ Rytr — ИИ-сервис генерации фейковых отзывов - прекращение работы сервиса.
▪️Ascend Ecom — обман потребителей, обещали значительный доход через создание интернет-магазинов на базе ИИ – приостановка сервиса, ждет рассмотрения в суде.
▪️NGL Labs - утверждала, что использует ИИ для модерации в анонимном приложении для обмена сообщениями, которое она незаконно рекламировала детям;
▪️Rite Aid - использовала технологию распознавания лиц на основе ИИ в своих магазинах без разумных мер безопасности;
▪️CRI Genetics - обманывала пользователей относительно точности своих отчетов о ДНК, в том числе заявляя, что использовала алгоритм ИИ для проведения генетического сопоставления.
Бюро по защите прав потребителей в сфере финансов (CFPB) выявляет темные паттерны в сфере цифровых финансовых услуг.
На уровне штатов - California Consumer Privacy Act, Colorado Privacy Act, Connecticut Data Privacy Act и т.д.

В ЕС принято уже не менее 13 нормативных актов, регулирующих dark patterns:
Закон об ИИ (AI Act) — запрещает поведенческие манипуляции, особенно в отношении уязвимых групп;
DSA (Закон о цифровых услугах) — запрет на использование deceptive practice в интерфейсах платформ;
GDPR — запрещает скрытые согласия, требует явного подтверждения (ст. 4(11), 7);
Директива о правах потребителей — запрещены предустановленные галочки (ст. 22);
UCPD (Директива о недобросовестной коммерческой практике) — регулирует обман и агрессивные практики;
Data Act - запрещает недобросовестную практику доступа к данным и вводящие в заблуждение механизмы согласия, которые подталкивают пользователей к ненужному обмену данными (rec. 38)
+ ряд других: о безопасности продуктов, защите детей, цифровой конкуренции и пр.
Примеры последних кейсов : Amazon (Польша) оштрафован $8 млн за манипуляции в интерфейсе, которые вводили в заблуждение покупателей. Иски против Meta AI Training (признана в России экстремистской и запрещена), доп.кейсы здесь.

Китай внедрил правила, запрещающие использование алгоритмов для дискриминации в ценах, результатах поиска и рекомендациях контента.

Если кратко суммировать, то мы видим, что нет единого законодательства по тёмным паттернам ИИ, множество решений принимается постфактум, после массовых жалоб, ИИ-генерация контента часто ускользает от классических определений мошенничества, отсутствуют единые стандарты оценки UX-паттернов, использующих ИИ.

Рекомендации бизнесу:
- проводите аудит интерфейсов и ИИ-моделей;
- устраняйте манипулятивные сценарии;
- следуйте принципам прозрачности и ответственности. Внедрите внутренние политики оценки ИИ-сервисов;
- отслеживайте требования и разъяснения регуляторов и проверяйте на соответствие свои продукты.

Рекомендации пользователям:
- обращайте внимание на уловки в интерфейсах. Следите за тем, легко ли отказаться от сервиса или подписки.
- проверяйте источник информации — это реальный человек или ИИ;
- не спешите с действиями при навязчивых уведомлениях;
- используйте инструменты контроля трекинга;
- сообщайте о подозрительных интерфейсах в регуляторные органы, и, главное,
- ЧИТАЙТЕ МЕЛКИЙ ШРИФТ!
#LawAndDisorder
👍4