Добро пожаловать в канал «Настоящий ИИ»!
⚡️⚡️⚡️Этот канал — не просто лента новостей об искусственном интеллекте. Это пространство для тех, кто понимает, что настоящий технологический прорыв требует не только гениальных алгоритмов, но и гениальных правил.
Мы хотим, чтобы ИИ будущего можно было описать так: этичный, безопасный и служащий человечеству. А этого невозможно достичь без продуманного регулирования, основанного на глубоком понимании технологии и ее влияния на общество.
❓❓❓О чем будем говорить?
📕 Регуляторика в отношении ИИ в ключевых юрисдикциях.
⚖️ Судебная практика и прецеденты, формирующие правовое поле.
📚 Исследования ведущих центров о возможностях ИИ и связанных с ним рисках.
⁉️ Этические дилеммы.
📈 Значимые тренды, которые определяют будущее технологий.
💡💡💡Наша миссия
Стать связующим звеном между сложным языком законов и практикой, делая мир регулирования ИИ понятным и доступным.
✍️✍️✍️ Подписывайтесь и оставайтесь на связи. Первые материалы — уже скоро! 📬📬📬
👇👇👇
@actualAI
⚡️⚡️⚡️Этот канал — не просто лента новостей об искусственном интеллекте. Это пространство для тех, кто понимает, что настоящий технологический прорыв требует не только гениальных алгоритмов, но и гениальных правил.
Мы хотим, чтобы ИИ будущего можно было описать так: этичный, безопасный и служащий человечеству. А этого невозможно достичь без продуманного регулирования, основанного на глубоком понимании технологии и ее влияния на общество.
❓❓❓О чем будем говорить?
📕 Регуляторика в отношении ИИ в ключевых юрисдикциях.
⚖️ Судебная практика и прецеденты, формирующие правовое поле.
📚 Исследования ведущих центров о возможностях ИИ и связанных с ним рисках.
⁉️ Этические дилеммы.
📈 Значимые тренды, которые определяют будущее технологий.
💡💡💡Наша миссия
Стать связующим звеном между сложным языком законов и практикой, делая мир регулирования ИИ понятным и доступным.
✍️✍️✍️ Подписывайтесь и оставайтесь на связи. Первые материалы — уже скоро! 📬📬📬
👇👇👇
@actualAI
Telegram
Настоящий ИИ
Канал Аналитического центра «Форум». Новости регуляторики в юрисдикциях, которые занимают ведущие позиции в ключевых рейтингах, связанных с развитием ИИ.
actualAI@ac-forum.ru
actualAI@ac-forum.ru
❤7
Искусственный интеллект всё активнее используется в финансах — от одобрения кредитов до управления активами. Кто будет отвечать за решения ИИ: безликий алгоритм, компания или сотрудник?
Исследование Аналитического Центра «Форум» «Искусственный интеллект на финансовом рынке: механизмы ответственности. Международные подходы» как раз разбирает этот клубок правовых вопросов.
Три подхода к регулированию ИИ в мире:
👉 Консервативный (ЕС, Бразилия) — жёсткие правила, обязательные к исполнению.
👉 Гибкий (США, Китай, Канада) — баланс между контролем и свободой для инноваций.
👉 Стимулирующий (Великобритания, Сингапур) — мягкие руководства и принципы, чтобы не мешать развитию.
Пока правила в основном «мягкие». Большинство ИИ-актов — это не законы, а кодексы этики, руководства и принципы (т.н. soft law). Но их всё чаще учитывают в судах, и они могут стать основанием для ответственности.
Кого и как могут наказать в финансовой сфере?
👉 Компанию — кошельком (гражданская ответственность), штрафами (административная) и в крайних случаях уголовным преследованием.
👉 Сотрудников — ко всем вышеперечисленным видам добавляется дисциплинарная ответственность (выговор, увольнение).
👉 Ответственность может быть солидарной — то есть вину могут разделить и компания, и её топ-менеджмент, и поставщик технологии, в зависимости от договоров и обстоятельств.
💡💡💡Вот основные выводы исследования:
📌 ИИ — это инструмент, а не субъект права. Во всём мире (ЕС, США, Сингапур и др.) к ответственности привлекают только людей и компании, которые создали, внедрили или используют ИИ. Сам по себе искусственный интеллект с точки зрения закона — просто «вещь» или сложный калькулятор. Идеи о том, чтобы наделить ИИ правами и обязанностями, пока остаются теорией.
📌 Основание для ответственности — уже существующие нормы. Чтобы привлечь к ответственности за вред от ИИ, не нужно изобретать новое право. Работают те же законы, что и для «обычных» финансовых услуг. Но к ним добавляются специальные ИИ-акты — новые правила игры для разработчиков и пользователей технологий.
📚📚📚Полностью исследование – по ссылке: https://acforum.ru/upload/medialibrary/globalcontext/AI_finmarket_ACForum_sept2025.pdf
Исследование Аналитического Центра «Форум» «Искусственный интеллект на финансовом рынке: механизмы ответственности. Международные подходы» как раз разбирает этот клубок правовых вопросов.
Три подхода к регулированию ИИ в мире:
👉 Консервативный (ЕС, Бразилия) — жёсткие правила, обязательные к исполнению.
👉 Гибкий (США, Китай, Канада) — баланс между контролем и свободой для инноваций.
👉 Стимулирующий (Великобритания, Сингапур) — мягкие руководства и принципы, чтобы не мешать развитию.
Пока правила в основном «мягкие». Большинство ИИ-актов — это не законы, а кодексы этики, руководства и принципы (т.н. soft law). Но их всё чаще учитывают в судах, и они могут стать основанием для ответственности.
Кого и как могут наказать в финансовой сфере?
👉 Компанию — кошельком (гражданская ответственность), штрафами (административная) и в крайних случаях уголовным преследованием.
👉 Сотрудников — ко всем вышеперечисленным видам добавляется дисциплинарная ответственность (выговор, увольнение).
👉 Ответственность может быть солидарной — то есть вину могут разделить и компания, и её топ-менеджмент, и поставщик технологии, в зависимости от договоров и обстоятельств.
💡💡💡Вот основные выводы исследования:
📌 ИИ — это инструмент, а не субъект права. Во всём мире (ЕС, США, Сингапур и др.) к ответственности привлекают только людей и компании, которые создали, внедрили или используют ИИ. Сам по себе искусственный интеллект с точки зрения закона — просто «вещь» или сложный калькулятор. Идеи о том, чтобы наделить ИИ правами и обязанностями, пока остаются теорией.
📌 Основание для ответственности — уже существующие нормы. Чтобы привлечь к ответственности за вред от ИИ, не нужно изобретать новое право. Работают те же законы, что и для «обычных» финансовых услуг. Но к ним добавляются специальные ИИ-акты — новые правила игры для разработчиков и пользователей технологий.
📚📚📚Полностью исследование – по ссылке: https://acforum.ru/upload/medialibrary/globalcontext/AI_finmarket_ACForum_sept2025.pdf
👍5🔥2
⁉️⁉️⁉️Нужно ли специальное регулирование вопросов, связанных с ИИ, и можно ли в принципе регулировать то, чья работа с трудом поддается человеческому пониманию? Почему так трудно бороться с дипфейками, и как ИИ формирует новую гуманитарную систему?
Представители Центробанка, Яндекса, МТС, Сбербанка, ВЭБ.РФ, РГГУ обсудили эти вопросы в ходе дискуссии «Искусственный интеллект: вопросы ответственности», которую провел АЦ «Форум» на площадке ВЭБ.РФ.
💡💡💡Выводы, к которым пришли участники дискуссии
📌 Не надо спешить с написанием новых норм. Пытаться с помощью дополнительных законов регулировать последствия работы ИИ – это как пытаться регулировать математику или физику. Уголовный кодекс – не лучшее место для определения ИИ.
📌 Не надо бороться с ветряными мельницами, лучше исходить из существующей реальности, а риски будущего отслеживать и обсуждать открыто, полагаясь, в том числе, на саморегулирование.
📌 Любые запреты в области ИИ, если вдруг решить их вводить, будут для всех, кроме мошенников. Как пример – дипфейки, инвестиции в которые превышают в десятки раз вложения в борьбу с ними. Маркировать надо контент, созданный не ИИ, а человеком. Его становится все меньше.
📌 Неудачное регулирование будет иметь печальные последствия для различных отраслей экономики, не говоря уже про развитие ИИ. Пример тому – Евросоюз, в котором хорошие законы про ИИ, но нет самого ИИ.
📌 Соблазн сделать ответственным ИИ за причиненный вред в ходе его использования - в природе человека, который готов прощать себя, но не других. Генерирует нейросеть, а ответственность все равно – на людях.
Представители Центробанка, Яндекса, МТС, Сбербанка, ВЭБ.РФ, РГГУ обсудили эти вопросы в ходе дискуссии «Искусственный интеллект: вопросы ответственности», которую провел АЦ «Форум» на площадке ВЭБ.РФ.
💡💡💡Выводы, к которым пришли участники дискуссии
📌 Не надо спешить с написанием новых норм. Пытаться с помощью дополнительных законов регулировать последствия работы ИИ – это как пытаться регулировать математику или физику. Уголовный кодекс – не лучшее место для определения ИИ.
📌 Не надо бороться с ветряными мельницами, лучше исходить из существующей реальности, а риски будущего отслеживать и обсуждать открыто, полагаясь, в том числе, на саморегулирование.
📌 Любые запреты в области ИИ, если вдруг решить их вводить, будут для всех, кроме мошенников. Как пример – дипфейки, инвестиции в которые превышают в десятки раз вложения в борьбу с ними. Маркировать надо контент, созданный не ИИ, а человеком. Его становится все меньше.
📌 Неудачное регулирование будет иметь печальные последствия для различных отраслей экономики, не говоря уже про развитие ИИ. Пример тому – Евросоюз, в котором хорошие законы про ИИ, но нет самого ИИ.
📌 Соблазн сделать ответственным ИИ за причиненный вред в ходе его использования - в природе человека, который готов прощать себя, но не других. Генерирует нейросеть, а ответственность все равно – на людях.
👍5❤1🔥1
Forwarded from Горлабы ВЭБа
интеллект: вопросы ответственности"
Модератор:
Тезисы дискуссии:
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍2
⚖️⚖️⚖️ Судебные системы все чаще сталкиваются с рисками, связанными с безответственным использованием ИИ в юридической практике. На фоне растущего числа случаев, когда в судебных документах обнаруживались ссылки на несуществующие правовые нормы или вымышленные судебные прецеденты, суды переходят от предупреждений к санкциям.
Ярким примером стала практика израильских судов. Верховный суд Израиля в конце 2025 года обязал истца по делу, связанному с арендой,выплатить 5 тыс. шекелей в государственную казну за ссылку на несуществующие нормы права после использования ИИ без верификации результатов. Это решение не было единичным: в течение 2025 года суды первой инстанции, включая трудовые и магистратские, налагали на юристов финансовые санкции в размере от 1 тыс. до 8 тыс. шекелей.
В Великобритании Высокий суд столкнулся с аналогичными случаями, где сгенерированные ИИ аргументы содержали фиктивные ссылки, что привело к штрафам для адвокатов. А в США даже была создана база данных в рамках проекта GW EthicalTech Initiative и Центра права и технологий GW, которая содержит информацию о текущих и завершенных судебных разбирательствах, связанных с искусственным интеллектом, в том числе с машинным обучением. Она рассчитана на широкий охват: от алгоритмов, используемых при приеме на работу, выдаче кредитов и вынесении уголовных приговоров, до ответственности за аварии с участием автономных транспортных средств.
В ответ на эти вызовы судебные системы начали разрабатывать нормативные и методические рамки. В декабре 2025 года в Великобритании было опубликовано обновленное руководство для судей по использованию ИИ, подробно разбирающее риски предвзятости и «галлюцинаций».
В США National Center for State Courts опубликовал оценку готовности американских судов к внедрению ИИ.
Это целый набор практических ресурсов, которые помогут судам понять, как ответственно подходить к использованию искусственного интеллекта, в том числе, выявлять риски, а также планировать ответственное внедрение. Есть в США и специальная учебная программа для судейского сообщества по повышению грамотности в области ИИ. ЮНЕСКО также представила глобальное руководство по этичному применению ИИ в судах, включая необходимость человеческого контроля, безопасностиданных и прозрачности использования ИИ в судах.
Выводы, к которым приходят различные судебные системы, примерно одинаковы. ИИ — это мощный вспомогательный инструмент, но он не отменяет фундаментальной профессиональной обязанности юриста проверять каждую цитату, прецедент и норму права. Будущее правосудия в эпоху ИИ лежит не столько в автоматизации, а в разумной интеграции технологий при безусловном сохранении человеческой экспертизы и ответственности.
📖📖📖 Подробнее
🌐 https://law.co.il
🌐 https://www.judiciary.uk/guidance-and-resources/artificial-intelligence-ai-judicial-guidance-october-2025/
🌐 https://www.judiciary.uk/wp-content/uploads/2025/10/Artificial-Intelligence-AI-Guidance-for-Judicial-Office-Holders-2.pdf
🌐 https://www.sji.gov/supporting-courts-ai-readiness-and-other-resources/
🌐 https://www.sji.gov/ai-literacy-curriculum-assists-judges-court-personnel-in-implementing-ai-responsibly/
🌐 https://blogs.gwu.edu/law-eti/ai-litigation-database/
🌐 https://www.iamaeg.net/files/F55F6810-DACE-4200-9A9F-1AB2EAAA1235.pdf
Ярким примером стала практика израильских судов. Верховный суд Израиля в конце 2025 года обязал истца по делу, связанному с арендой,выплатить 5 тыс. шекелей в государственную казну за ссылку на несуществующие нормы права после использования ИИ без верификации результатов. Это решение не было единичным: в течение 2025 года суды первой инстанции, включая трудовые и магистратские, налагали на юристов финансовые санкции в размере от 1 тыс. до 8 тыс. шекелей.
В Великобритании Высокий суд столкнулся с аналогичными случаями, где сгенерированные ИИ аргументы содержали фиктивные ссылки, что привело к штрафам для адвокатов. А в США даже была создана база данных в рамках проекта GW EthicalTech Initiative и Центра права и технологий GW, которая содержит информацию о текущих и завершенных судебных разбирательствах, связанных с искусственным интеллектом, в том числе с машинным обучением. Она рассчитана на широкий охват: от алгоритмов, используемых при приеме на работу, выдаче кредитов и вынесении уголовных приговоров, до ответственности за аварии с участием автономных транспортных средств.
В ответ на эти вызовы судебные системы начали разрабатывать нормативные и методические рамки. В декабре 2025 года в Великобритании было опубликовано обновленное руководство для судей по использованию ИИ, подробно разбирающее риски предвзятости и «галлюцинаций».
В США National Center for State Courts опубликовал оценку готовности американских судов к внедрению ИИ.
Это целый набор практических ресурсов, которые помогут судам понять, как ответственно подходить к использованию искусственного интеллекта, в том числе, выявлять риски, а также планировать ответственное внедрение. Есть в США и специальная учебная программа для судейского сообщества по повышению грамотности в области ИИ. ЮНЕСКО также представила глобальное руководство по этичному применению ИИ в судах, включая необходимость человеческого контроля, безопасностиданных и прозрачности использования ИИ в судах.
Выводы, к которым приходят различные судебные системы, примерно одинаковы. ИИ — это мощный вспомогательный инструмент, но он не отменяет фундаментальной профессиональной обязанности юриста проверять каждую цитату, прецедент и норму права. Будущее правосудия в эпоху ИИ лежит не столько в автоматизации, а в разумной интеграции технологий при безусловном сохранении человеческой экспертизы и ответственности.
📖📖📖 Подробнее
🌐 https://law.co.il
🌐 https://www.judiciary.uk/guidance-and-resources/artificial-intelligence-ai-judicial-guidance-october-2025/
🌐 https://www.judiciary.uk/wp-content/uploads/2025/10/Artificial-Intelligence-AI-Guidance-for-Judicial-Office-Holders-2.pdf
🌐 https://www.sji.gov/supporting-courts-ai-readiness-and-other-resources/
🌐 https://www.sji.gov/ai-literacy-curriculum-assists-judges-court-personnel-in-implementing-ai-responsibly/
🌐 https://blogs.gwu.edu/law-eti/ai-litigation-database/
🌐 https://www.iamaeg.net/files/F55F6810-DACE-4200-9A9F-1AB2EAAA1235.pdf
Courts and Tribunals Judiciary
Artificial Intelligence (AI) – Judicial Guidance (October 2025) - Courts and Tribunals Judiciary
Read the updated guidance which includes a glossary of common terms, advice on confidentiality, information on potential risks and more
👍8
🇬🇧🇬🇧🇬🇧 Управление по финансовому контролю Великобритании (FCA) инициировало масштабный опрос на розничном финрынке для последующего анализа того, как ИИ может трансформировать розничные финансовые услуги, рынки, опыт потребителей и регуляторную практику к 2030 году.
🔑🔑🔑 Ключевой принцип, заявленный FCA, — отказ от введения новых специализированных правил для ИИ. Однако на фоне перехода к принятию решений на основе ИИ, несогласованности стандартов в разных странах и меняющихся ожиданий относительно ответственности вопрос, какими будут в дальнейшем регуляторные подходы, становится актуальным.
FCA ставит сложную задачу: сохранить гибкость регуляторной среды для стимулирования инноваций, одновременно предвосхищая и смягчая системные риски, связанные с агентным ИИ, изменением рыночных структур и новыми видами потребительского вреда.
⚠️⚠️⚠️ Основное внимание аналитического отчета будет сосредоточено на четырёх темах, по которым и ведется опрос
1️⃣ Будущее ИИ-технологий. Ожидается переход к более автономным, адаптивным и взаимосвязанным системам — «агентному ИИ», способному принимать решения и действовать от имени потребителя. Важным вопросом станет то, приведут ли эти изменения к более инклюзивным и конкурентным рынкам или к концентрации власти у нескольких доминирующих платформ.
2️⃣ Влияние на рынки и компании. ИИ может радикально изменить бизнес-модели, структуру рынка и конкурентную динамику. Со стороны предложения — гиперперсонализация услуг, снижение затрат и автоматизация (платежи, андеррайтинг, кредитование). Со стороны спроса — делегирование решений агентам ИИ, что бросит вызов традиционным посредникам.
3️⃣ Потребительские тренды. К 2030 году взаимодействие с финансами, вероятно, будет опосредовано персональными ИИ-агентами, что повысит ожидания персонализации и бесшовности. Это может улучшить финансовые результаты, но также породить новые риски: зависимость от нерегулируемых систем, предвзятость алгоритмов, уязвимость к различного рода мошенничеству, использующему ИИ в своих целях (дипфейки, синтетические личности). В связи с этим потребуется переосмысление политики защиты потребителей в условиях делегирования решений ИИ.
4️⃣ Эволюция регуляторного подхода. FCA намерено оставаться регулятором, ориентированным на результаты, без кардинального пересмотра правил. Однако регулирующая модель FCA — авторизация, надзор, политика и контроль — может эволюционировать ввиду нового масштаба, скорости и взаимосвязанности рисков. Для этого необходимо укреплять собственные технологические возможности, включая использование ИИ для надзора (RegTech), углублять техническую экспертизу и развивать превентивные подходы.
❗️❗️❗️ Однако ряд ведомств Великобритании считает, что нужны более быстрые меры реагирования на возникающие риски, которые связаны с использованием ИИ на финансовых рынках:
👉 В своем докладе Специальный комитет по финансам критикует выжидательную позицию FCA, Банка Англии и Казначейства, указывая на потенциальный серьёзный ущерб для потребителей и финансовой системы. Комитет рекомендует срочно провести стресс-тесты, связанные с ИИ, чтобы повысить готовность бизнеса к любым будущим рыночным шокам, вызванным ИИ. Также рекомендует FCA опубликовать практические рекомендации по ИИ для компаний, включающие применение правил защиты потребителей при использовании ИИ и кто в организациях должен нести ответственность за вред, причинённый ИИ.
👉 Британский надзорный орган в сфере информации (ICO) в своем отчете также обращает внимание на риски, связанные с использованием ИИ на финрынках, особенно ИИ-агентов, деятельность которых, по одному из сценариев ICO, вообще могут запретить в будущем. В документе указывается на необходимость проактивного регуляторного подхода, а также сбалансированности инноваций и надёжных мер по защите данных.
📖📖📖 Подробнее
🌐 https://www.fca.org.uk/
🌐 https://committees.parliament.uk/
🌐 https://www.burges-salmon.com/
🔑🔑🔑 Ключевой принцип, заявленный FCA, — отказ от введения новых специализированных правил для ИИ. Однако на фоне перехода к принятию решений на основе ИИ, несогласованности стандартов в разных странах и меняющихся ожиданий относительно ответственности вопрос, какими будут в дальнейшем регуляторные подходы, становится актуальным.
FCA ставит сложную задачу: сохранить гибкость регуляторной среды для стимулирования инноваций, одновременно предвосхищая и смягчая системные риски, связанные с агентным ИИ, изменением рыночных структур и новыми видами потребительского вреда.
⚠️⚠️⚠️ Основное внимание аналитического отчета будет сосредоточено на четырёх темах, по которым и ведется опрос
1️⃣ Будущее ИИ-технологий. Ожидается переход к более автономным, адаптивным и взаимосвязанным системам — «агентному ИИ», способному принимать решения и действовать от имени потребителя. Важным вопросом станет то, приведут ли эти изменения к более инклюзивным и конкурентным рынкам или к концентрации власти у нескольких доминирующих платформ.
2️⃣ Влияние на рынки и компании. ИИ может радикально изменить бизнес-модели, структуру рынка и конкурентную динамику. Со стороны предложения — гиперперсонализация услуг, снижение затрат и автоматизация (платежи, андеррайтинг, кредитование). Со стороны спроса — делегирование решений агентам ИИ, что бросит вызов традиционным посредникам.
3️⃣ Потребительские тренды. К 2030 году взаимодействие с финансами, вероятно, будет опосредовано персональными ИИ-агентами, что повысит ожидания персонализации и бесшовности. Это может улучшить финансовые результаты, но также породить новые риски: зависимость от нерегулируемых систем, предвзятость алгоритмов, уязвимость к различного рода мошенничеству, использующему ИИ в своих целях (дипфейки, синтетические личности). В связи с этим потребуется переосмысление политики защиты потребителей в условиях делегирования решений ИИ.
4️⃣ Эволюция регуляторного подхода. FCA намерено оставаться регулятором, ориентированным на результаты, без кардинального пересмотра правил. Однако регулирующая модель FCA — авторизация, надзор, политика и контроль — может эволюционировать ввиду нового масштаба, скорости и взаимосвязанности рисков. Для этого необходимо укреплять собственные технологические возможности, включая использование ИИ для надзора (RegTech), углублять техническую экспертизу и развивать превентивные подходы.
❗️❗️❗️ Однако ряд ведомств Великобритании считает, что нужны более быстрые меры реагирования на возникающие риски, которые связаны с использованием ИИ на финансовых рынках:
👉 В своем докладе Специальный комитет по финансам критикует выжидательную позицию FCA, Банка Англии и Казначейства, указывая на потенциальный серьёзный ущерб для потребителей и финансовой системы. Комитет рекомендует срочно провести стресс-тесты, связанные с ИИ, чтобы повысить готовность бизнеса к любым будущим рыночным шокам, вызванным ИИ. Также рекомендует FCA опубликовать практические рекомендации по ИИ для компаний, включающие применение правил защиты потребителей при использовании ИИ и кто в организациях должен нести ответственность за вред, причинённый ИИ.
👉 Британский надзорный орган в сфере информации (ICO) в своем отчете также обращает внимание на риски, связанные с использованием ИИ на финрынках, особенно ИИ-агентов, деятельность которых, по одному из сценариев ICO, вообще могут запретить в будущем. В документе указывается на необходимость проактивного регуляторного подхода, а также сбалансированности инноваций и надёжных мер по защите данных.
📖📖📖 Подробнее
🌐 https://www.fca.org.uk/
🌐 https://committees.parliament.uk/
🌐 https://www.burges-salmon.com/
FCA
Review into the long-term impact of AI on retail financial services (The Mills Review)
We review how AI may reshape retail financial services for consumers, firms, markets and regulators by 2030 and beyond, and seek your views across 4 interrelated themes.
✍4👍1
🇫🇷🇫🇷🇫🇷Управление по финансовым рынкам Франции (AMF) опубликовало результаты углублённого исследования о внедрении искусственного интеллекта его участниками.
⚡️⚡️⚡️Главный вывод: технология перешла в стадию массового использования.
Ключевые показатели внедрения
👉 90% опрошенных компаний уже используют ИИ или планируют внедрить его в ближайший год.
👉 Более половины (54%) респондентов применяют решения на основе ИИ в промышленной эксплуатации, особенно крупные игроки.
👉 Подавляющее большинство ожидает увеличения инвестиций в ИИ в ближайшие два года.
Основные сценарии использования
👉 Повышение продуктивности сотрудников.
👉 Анализ больших данных и рыночная аналитика.
👉 Мониторинг транзакций и выявление мошенничества.
👉 Автоматизация процессов комплаенс.
Таким образом, ИИ применяется преимущественно для внутренних задач компании (83%). Направленные на клиента сервисы пока в меньшинстве (17% случаев), а инструменты для предоставления инвестиционных услуг и вовсе единичны (1%).
Вызовы и риски
1️⃣ Зависимость от поставщиков: Решения часто основаны на продуктах ограниченного числа неевропейских технологических гигантов.
2️⃣ Управление и данные: Главными проблемами названы вопросы управления ИИ-системами и защиты данных.
3️⃣ Человеческий контроль: Существуют опасения потери достаточного человеческого надзора над автоматизированными процессами.
Регуляторный фокус
Полученные данные определят приоритеты надзора на ближайшие годы. Регулятору необходимо сосредоточиться на вопросах управления рисками ИИ и следить за эволюцией клиентоориентированных сервисов, чтобы гарантировать защиту инвесторов.
⚡️⚡️⚡️Главный вывод: технология перешла в стадию массового использования.
Ключевые показатели внедрения
👉 90% опрошенных компаний уже используют ИИ или планируют внедрить его в ближайший год.
👉 Более половины (54%) респондентов применяют решения на основе ИИ в промышленной эксплуатации, особенно крупные игроки.
👉 Подавляющее большинство ожидает увеличения инвестиций в ИИ в ближайшие два года.
Основные сценарии использования
👉 Повышение продуктивности сотрудников.
👉 Анализ больших данных и рыночная аналитика.
👉 Мониторинг транзакций и выявление мошенничества.
👉 Автоматизация процессов комплаенс.
Таким образом, ИИ применяется преимущественно для внутренних задач компании (83%). Направленные на клиента сервисы пока в меньшинстве (17% случаев), а инструменты для предоставления инвестиционных услуг и вовсе единичны (1%).
Вызовы и риски
1️⃣ Зависимость от поставщиков: Решения часто основаны на продуктах ограниченного числа неевропейских технологических гигантов.
2️⃣ Управление и данные: Главными проблемами названы вопросы управления ИИ-системами и защиты данных.
3️⃣ Человеческий контроль: Существуют опасения потери достаточного человеческого надзора над автоматизированными процессами.
Регуляторный фокус
Полученные данные определят приоритеты надзора на ближайшие годы. Регулятору необходимо сосредоточиться на вопросах управления рисками ИИ и следить за эволюцией клиентоориентированных сервисов, чтобы гарантировать защиту инвесторов.
👍6
Forwarded from Frank Media
Правительство готовит законопроект об обязательной сертификации систем искусственного интеллекта высокого и критического уровня риска во ФСТЭК и ФСБ, сообщает РБК. Тестирование таких решений планируется проводить на специализированном полигоне Минцифры, созданном при участии компаний рынка информационной безопасности.
Необходимость регулирования власти объясняют быстрым ростом отрасли: по оценке Smart Ranking, в 2025 году рынок ИИ в России увеличился на 25–30% — до 1,9 трлн рублей. Около 95% выручки сектора обеспечили «Яндекс», «Сбер», «Т-Технологии», VK и «Лаборатория Касперского».
@frank_media
Please open Telegram to view this post
VIEW IN TELEGRAM
🪪🪪🪪 Пока мы спорим, достаточно ли красиво сгенерированное нейросетью изображение, мир уже вводит для него обязательные «цифровые паспорта». Маркировка ИИ-контента из этической рекомендации постепенно превращается в некоторых юрисдикциях в жёсткое требование закона.
🇨🇳 В Китае с 1 сентября 2025 г. регуляторы приняли меры, обязывающие платформы, поставщиков услуг и пользователей помечать контент, созданный ИИ. Материалы должны иметь явные метки или включать информацию о происхождении (например, через метаданные).
🇰🇷 Южная Корея на прошлой неделе ввела первый в мире комплексный AI Act - Basic Act on Artificial Intelligence, который, в том числе, требует обязательной маркировки ИИ-сгенерированного контента. Видимые метки предназначены для реалистичных deepfake и других форм синтетических медиа, невидимые водяные знаки - для явно искусственных изображений, таких как мультфильмы или произведения искусства. Компании, нарушающие правила, могут быть оштрафованы на сумму до 30 млн вон (15 000 фунтов стерлингов), но правительство пообещало, что до наложения штрафов пройдёт как минимум год.
🇪🇺 В Евросоюзе в рамках AI Act ЕС готовится Кодекс по маркировке и обозначению контента, создаваемого ИИ, требующий прозрачности и маркировки ИИ-сгенерированного контента в форме доступных для машин меток и указания происхождения. Но эти правила будут ориентированы на поставщиков ИИ, а не на конечных пользователей.
🇮🇳 В Индии правительство предложило обсудить правила, обязывающие платформы чётко обозначать ИИ-контент маркерами, покрывающими как минимум 10% площади визуального дисплея или первые 10% длительности аудиоклипа. Компании социальных сетей также должны будут получить заявление пользователя о том, генерируется ли загруженная информация.
🇺🇿 В Узбекистане в ноябре 2025 г. был принят закон об ИИ, , в котором впервые появилось официальное определение понятия «искусственный интеллект» и прописаны правила его использования. Кроме того, контент, созданный с помощью нейросетей, должен будет иметь специальную маркировку.
💡💡💡 Мы постепенно входим в эпоху «цифровой гигиены», где прозрачность происхождения контента должна стать нормой, восстанавливая границы между реальным и синтетическим. Впрочем, некоторые эксперты считают, что ИИ-контента в ближайшие годы будет так много, что проще будет маркировать то, что создано человеком, а не ИИ.
🇨🇳 В Китае с 1 сентября 2025 г. регуляторы приняли меры, обязывающие платформы, поставщиков услуг и пользователей помечать контент, созданный ИИ. Материалы должны иметь явные метки или включать информацию о происхождении (например, через метаданные).
🇰🇷 Южная Корея на прошлой неделе ввела первый в мире комплексный AI Act - Basic Act on Artificial Intelligence, который, в том числе, требует обязательной маркировки ИИ-сгенерированного контента. Видимые метки предназначены для реалистичных deepfake и других форм синтетических медиа, невидимые водяные знаки - для явно искусственных изображений, таких как мультфильмы или произведения искусства. Компании, нарушающие правила, могут быть оштрафованы на сумму до 30 млн вон (15 000 фунтов стерлингов), но правительство пообещало, что до наложения штрафов пройдёт как минимум год.
🇪🇺 В Евросоюзе в рамках AI Act ЕС готовится Кодекс по маркировке и обозначению контента, создаваемого ИИ, требующий прозрачности и маркировки ИИ-сгенерированного контента в форме доступных для машин меток и указания происхождения. Но эти правила будут ориентированы на поставщиков ИИ, а не на конечных пользователей.
🇮🇳 В Индии правительство предложило обсудить правила, обязывающие платформы чётко обозначать ИИ-контент маркерами, покрывающими как минимум 10% площади визуального дисплея или первые 10% длительности аудиоклипа. Компании социальных сетей также должны будут получить заявление пользователя о том, генерируется ли загруженная информация.
🇺🇿 В Узбекистане в ноябре 2025 г. был принят закон об ИИ, , в котором впервые появилось официальное определение понятия «искусственный интеллект» и прописаны правила его использования. Кроме того, контент, созданный с помощью нейросетей, должен будет иметь специальную маркировку.
💡💡💡 Мы постепенно входим в эпоху «цифровой гигиены», где прозрачность происхождения контента должна стать нормой, восстанавливая границы между реальным и синтетическим. Впрочем, некоторые эксперты считают, что ИИ-контента в ближайшие годы будет так много, что проще будет маркировать то, что создано человеком, а не ИИ.
❤2👍2🔥2
🗳🗳🗳 Стремительное проникновение генеративного ИИ во все сферы жизни не обошло стороной и политику.Накануне избирательных кампаний по всему миру — от России и США до Южной Кореи и Японии — власти и эксперты ищут ответ на ключевой вопрос: как регулировать использование нейросетей в электоральном процессе, не подавляя инновации, но при этом защищая основы демократического волеизъявления от манипуляций и дезинформации?
🇷🇺 Центром дискуссий стали риски, связанные с дипфейками и синтетической агитацией, а также сложности с внедрением законодательных ограничений в цифровой среде, где контроль в принципе затруднён. Эта проблема не имеет простых решений, и каждая страна пытается найти свой баланс между технологической свободой и правовыми барьерами.
В России в Администрации Президента, по данным «Ведомостей», обсуждают возможность регулирования нейросетей в преддверии осенней кампании по выборам депутатов Государственной Думы. В настоящий момент закон никак не регламентирует эту сферу. Поправки в избирательное законодательство, которые могут быть внесены уже весной, вероятно, коснутся использования ИИ в агитации. При этом в АП подчёркивают, что регулирование не должно препятствовать развитию самих технологий.
Опыт прошлых региональных кампаний показал актуальность проблемы. В 2025 году в соцсетях распространялись агитационные ролики с реалистичными изображениями действующих губернаторов, созданные нейросетями. Однако эксперты указывают на серьёзные трудности в применении прямых запретов. Даже такая мера, как обязательная маркировка ИИ-контента, не защищает от нарушений, ведь изъять цифровой контент из оборота, как печатную продукцию, невозможно. В этих условиях строгость запретов может нивелироваться отсутствием реального механизма принуждения к их исполнению.
Аналогичные дискуссии идут и в других странах.
🇺🇸 Губернатор штата Нью-Йорк Кэти Хокул предложила запретить распространять созданные ИИ изображения кандидатов без их согласия за 90 дней до выборов. Также планируется запретить умышленное распространение ложной информации о выборах, в том числе о дате и времени их проведения. Эти меры основаны на ряде недавних законов, принятых в Нью-Йорке и по всей стране, которые обязывают предвыборные штабы раскрывать информацию об использовании ИИ политическими кандидатами в преддверии выборов.
В последние годы избиратели в США столкнулись с огромным количеством фальшивых сообщений, вводящих в заблуждение автоматических звонков и сгенерированных на компьютере изображений кандидатов, выставляющих их в невыгодном свете. Самым нашумевшим было видео, сгенерированное ИИ, во время выборов мэра Нью-Йорка, на котором сторонники Зорана Мамдани — нынешнего мэра города — избивают своих жен, продают наркотики и садятся за руль в нетрезвом виде.
🇰🇷 В Южной Корее также за 90 дней до выборов в Национальное собрание вступил в силу прямой запрет на производство и распространение дипфейк-видео в целях агитации. Для мониторинга созданы специальные команды.
🇯🇵 В Японии же фиксируется иная проблема: избиратели всё активнее используют генеративные ИИ, такие как ChatGPT и Grok, для получения информации о кандидатах и партиях. Однако, как показала проверка, ответы нейросетей часто содержат фактические ошибки или вымышленные данные. Эксперты предупреждают избирателей о необходимости перепроверять информацию по официальным источникам.
🇳🇵 Впрочем, Японии пока далеко до Непала, в котором с помощью ChatGPT выбрали лидера революции «Z».
💡💡💡 Мировой тренд на регулирование использования ИИ в политике набирает силу. Основные векторы – запрет дипфейков, маркировка синтетического контента и попытки контролировать его распространение перед выборами. Однако эффективность этих мер остаётся под вопросом из-за глобального, анонимного и быстро распространяемого характера цифрового контента.
📑📑📑 Подробнее
🌐 https://www.vedomosti.ru
🌐 https://www.nytimes.com
🌐 https://www.nec.go.kr
🌐 https://japannews.yomiuri.co.jp
🇷🇺 Центром дискуссий стали риски, связанные с дипфейками и синтетической агитацией, а также сложности с внедрением законодательных ограничений в цифровой среде, где контроль в принципе затруднён. Эта проблема не имеет простых решений, и каждая страна пытается найти свой баланс между технологической свободой и правовыми барьерами.
В России в Администрации Президента, по данным «Ведомостей», обсуждают возможность регулирования нейросетей в преддверии осенней кампании по выборам депутатов Государственной Думы. В настоящий момент закон никак не регламентирует эту сферу. Поправки в избирательное законодательство, которые могут быть внесены уже весной, вероятно, коснутся использования ИИ в агитации. При этом в АП подчёркивают, что регулирование не должно препятствовать развитию самих технологий.
Опыт прошлых региональных кампаний показал актуальность проблемы. В 2025 году в соцсетях распространялись агитационные ролики с реалистичными изображениями действующих губернаторов, созданные нейросетями. Однако эксперты указывают на серьёзные трудности в применении прямых запретов. Даже такая мера, как обязательная маркировка ИИ-контента, не защищает от нарушений, ведь изъять цифровой контент из оборота, как печатную продукцию, невозможно. В этих условиях строгость запретов может нивелироваться отсутствием реального механизма принуждения к их исполнению.
Аналогичные дискуссии идут и в других странах.
🇺🇸 Губернатор штата Нью-Йорк Кэти Хокул предложила запретить распространять созданные ИИ изображения кандидатов без их согласия за 90 дней до выборов. Также планируется запретить умышленное распространение ложной информации о выборах, в том числе о дате и времени их проведения. Эти меры основаны на ряде недавних законов, принятых в Нью-Йорке и по всей стране, которые обязывают предвыборные штабы раскрывать информацию об использовании ИИ политическими кандидатами в преддверии выборов.
В последние годы избиратели в США столкнулись с огромным количеством фальшивых сообщений, вводящих в заблуждение автоматических звонков и сгенерированных на компьютере изображений кандидатов, выставляющих их в невыгодном свете. Самым нашумевшим было видео, сгенерированное ИИ, во время выборов мэра Нью-Йорка, на котором сторонники Зорана Мамдани — нынешнего мэра города — избивают своих жен, продают наркотики и садятся за руль в нетрезвом виде.
🇰🇷 В Южной Корее также за 90 дней до выборов в Национальное собрание вступил в силу прямой запрет на производство и распространение дипфейк-видео в целях агитации. Для мониторинга созданы специальные команды.
🇯🇵 В Японии же фиксируется иная проблема: избиратели всё активнее используют генеративные ИИ, такие как ChatGPT и Grok, для получения информации о кандидатах и партиях. Однако, как показала проверка, ответы нейросетей часто содержат фактические ошибки или вымышленные данные. Эксперты предупреждают избирателей о необходимости перепроверять информацию по официальным источникам.
🇳🇵 Впрочем, Японии пока далеко до Непала, в котором с помощью ChatGPT выбрали лидера революции «Z».
💡💡💡 Мировой тренд на регулирование использования ИИ в политике набирает силу. Основные векторы – запрет дипфейков, маркировка синтетического контента и попытки контролировать его распространение перед выборами. Однако эффективность этих мер остаётся под вопросом из-за глобального, анонимного и быстро распространяемого характера цифрового контента.
📑📑📑 Подробнее
🌐 https://www.vedomosti.ru
🌐 https://www.nytimes.com
🌐 https://www.nec.go.kr
🌐 https://japannews.yomiuri.co.jp
Ведомости
Поправки об использовании ИИ на выборах могут внести весной
Власти обсуждают изменение избирательного законодательства, говорят источники «Ведомостей»
❤🔥1👍1