LegalTech
15.6K subscribers
68 photos
10 videos
13 files
1.66K links
Использование биометрии, нейронные сети, ИИ, Algorithmic Governance – и другие тренды LegalTech.

По вопросам сотрудничества @milada2
Автор @ladgn

https://knd.gov.ru/license?id=67345e16e9b24e448c62e1fa&registryType=bloggersPermission
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🇨🇳В Китае полиция задержала робота-андроида.

В Макао полиция задержала робота-андроида, который напугал 70-летнюю женщину. По данным полиции, происшествие произошло около 21:00, 70-летняя женщина шла по улице и смотрела в телефон, когда заметила позади себя робота модели Unitree G1, который следовал за ней. Увидев робота рядом с собой, женщина испугалась и закричала.

На кадрах видно, как робот поднимает руки, после чего к нему подходят двое полицейских и уводят. По информации правоохранительных органов, устройство принадлежит образовательному центру и использовалось для промоактивностей. Робота вернули оператору, которому напомнили о необходимости соблюдать осторожность при эксплуатации техники в общественных местах.

Представитель образовательного центра пояснил, что робот остановился позади женщины, поскольку она внезапно замедлилась, проверяя телефон. По его словам, устройство не могло ее обойти и просто ожидало, однако включенная подсветка в темное время суток могла испугать прохожую.

После прибытия полиции женщина пожаловалась на плохое самочувствие и была доставлена в больницу.
🏠ChatGPT продал дом за 5 дней.

Владелец дома во Флориде продал свою недвижимость всего за пять дней, позволив ChatGPT взять на себя почти весь процесс продажи и не прибегая к помощи риелтора.

Чат-бот составил план продаж, в том числе указал, когда нужно начать упаковывать вещи. Он подсказал, какие комнаты лучше перекрасить для максимальной прибыли, подготовил маркетинговые материалы и онлайн-объявления, порекомендовал выставить дом на продажу во вторник и составил черновик договора.

Владелец обратился к юристу только для того, чтобы тот проверил окончательные юридические документы. Все остальные этапы процесса, от определения цены до организации показов, были реализованы с помощью ChatGPT.

По словам владельца, такой подход позволил ему сэкономить около 3% от общей стоимости продажи дома, что обычно является комиссией риелтора.
💻Минцифры опубликовало законопроект о государственном регулировании ИИ в РФ.

Минцифры РФ опубликовало на портале проектов нормативных актов законопроект под названием «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации» с пояснениями и ограничениями работы ИИ в стране. Ожидается, что закон начнёт действовать с 1 сентября 2027 года.

Согласно законопроекту, регулирование ИИ будет затрагивать как юридических, так и физических лиц, занимающихся разработкой ИИ-систем. Закон не будет распространяться на использование ИИ в ситуациях, связанных с обороной, государственной безопасностью, чрезвычайными ситуациями и правопорядком, если иное не предусмотрено другими федеральными законами.

В законопроекте отмечается, что предупреждение об ИИ-контенте должно размещаться «в составе синтезированного, сгенерированного информационного материала в формате, воспринимаемом человеком, и машиночитаемом формате». Маркировку обеспечивает владелец ИИ-сервиса. Крупные соцсети должны будут проверять наличие предупреждения о сгенерированном контенте. Если его не будет, соцсети должны будут сами маркировать материалы или удалять их.

Законопроект Минцифры также предлагает понятия суверенной, национальной и доверенной моделей искусственного интеллекта. Последние — это модели, отвечающие всем пунктам законопроекта и внесённые в специальный реестр. Национальные и суверенные ИИ-модели — это те, которые были полностью созданы в России, их разрабатывали граждане и юрлица из РФ на основе данных из российских источников.

В рамках законопроекта Минцифры по регулированию ИИ:
- вводится риск-ориентированная модель регулирования. Чем сильнее система влияет на жизнь людей, тем жёстче требования;
- появляются новые категории: «суверенные», «национальные» и «доверенные» модели ИИ:
- законопроект разделяет модели искусственного интеллекта на категории в зависимости от их происхождения и уровня доверия;
- предлагается обучать и разрабатывать ИИ только на территории РФ;
- разработчикам и компаниям нужно будет обязательно маркировать контент, созданный ИИ (фото, видео, аудио).

Права пользователей в случаях задействование ИИ:
- можно будет оспорить решения госорганов и госкомпаний, если они приняты с участием ИИ, причём без суда;
- появляется право требовать компенсацию, если ИИ причинил вред;
- пользователь сервиса и модели ИИ будет обязан соблюдать правил доступа к сервису:
- использовать его только в целях, не противоречащих законодательству;
- отказаться от совершения действий, направленных на обход встроенных механизмов безопасности и контроля;
- кроме того, обязаны соблюдаться права и интересы третьих лиц при использовании сгенерированного контента.

Обязанности разработчиков и компаний при задействовании ИИ-систем:
- разработчики ИИ‑моделей обязаны исключить из таких систем функционал, который может привести к дискриминации людей на основе их поведения или личностных характеристик; информировать о том, что модель нельзя использовать в запрещённых целях, проводить моделирование потенциальных рисков;

операторы ИИ-модели обязаны:
- включить в документацию руководство по безопасной эксплуатации, проводить тестирование системы;
- предоставлять пользователям информацию о функциональном назначении системы и её ограничениях;
- приостанавливать работу при выявлении угрозы причинения вреда жизни, здоровью граждан, безопасности государства, имуществу или окружающей среде;

В сопроводительных документах Минцифры указано, что законопроект носит рамочный характер, поэтому его нормы будут распространяться на всех граждан, юрлиц и индивидуальных предпринимателей, находящихся на территории России.
⚖️Amazon добилась судебного запрета на использование ИИ-ботов для покупок от Perplexity на своём сайте.

Amazon добилась судебного запрета на использование агентов искусственного интеллекта компании Perplexity на сайте гиганта электронной коммерции. Речь идёт о функциях браузера с ИИ-возможностями Comet.

В ноябре прошлого года Amazon потребовала от Perplexity заблокировать применение ИИ-агента браузера Comet для совершения покупок на сайте ретейлера от имени пользователя. Инструмент умеет находить и покупать товары на различных сайтах. Amazon настаивала, что Perplexity скрывает свои агенты, чтобы они могли продолжать собирать данные с сайта торговой площадки без её разрешения. Perplexity сочла действия Amazon тактикой запугивания.

Amazon предоставила «веские доказательства» того, что Comet получил доступ к сайту по указанию пользователя и без разрешения компании, указала судья Максин Чесни. По её словам, истцы потратили на решение проблемы более $5 тыс. и «многочисленные часы» работы сотрудников для создания инструментов, блокирующих доступ браузера к закрытым клиентским системам и предотвращающих повторения таких действий в будущем.

Perplexity сообщила о готовности «продолжить борьбу за право пользователей интернета выбирать любой искусственный интеллект по своему усмотрению». У компании есть неделя, чтобы обжаловать решение суда.

В первоначальном иске Amazon указала, что агенты Perplexity представляют угрозу безопасности данных клиентов, поскольку они «могут действовать в защищённых компьютерных системах, включая частные учётные записи пользователей, требующие ввода пароля».

Также Amazon обвинила агенты Perplexity в создании проблем для рекламного бизнеса, поскольку ретейлеру приходится фильтровать трафик, генерируемый ИИ. Это требует внесения изменений в рекламные системы Amazon, включая разработку новых механизмов обнаружения и исключения автоматизированного трафика, пояснили истцы.

Amazon в значительной степени ограничила доступ к своим сайтам для ИИ-помощников, чтобы они не могли совершать онлайн-покупки. Компания заблокировала такие возможности у десятков сервисов, включая ChatGPT. Одновременно ретейлер инвестирует в собственные инструменты для совершения покупок.
👩‍💻PwC и Accenture начали избавляться от сотрудников не владеющих ИИ.

PwC, одна из крупнейших в мире консалтинговых и аудиторских компаний, перестраивает работу под искусственный интеллект и прямо предупреждает сотрудников: без внедрения новых инструментов в компании долго не задержаться. Руководство требует не просто интереса к теме, а ежедневного использования ИИ в работе.

Глава американского подразделения PwC Пол Григгс заявил, что у сотрудников нет возможности отказаться от использования ИИ. По словам топ-менеджера, сотрудники, которые не готовы работать в режиме AI-first, уступят место тем, кто комфортно чувствует себя с новыми технологиями. Фактически речь идет о смене корпоративной культуры, где владение ИИ становится базовым требованием.

PwC параллельно пересматривает бизнес-модель. Компания обсуждает отказ от почасовой оплаты в пользу подписки на ИИ-сервисы для налогового и консалтингового направления. Такой подход должен компенсировать автоматизацию задач, которые раньше выполняли специалисты вручную.

Жесткая позиция выглядит контрастно на фоне собственных исследований PwC. Опрос более 4 400 руководителей в 95 странах показал, что свыше половины компаний не увидели роста выручки или снижения затрат после внедрения ИИ. Похожие выводы ранее опубликовала Deloitte: 74 процента организаций рассчитывают на рост доходов от ИИ, но реальные результаты получили лишь около 20 процентов.

Accenture недавно разослала сотрудникам внутреннее письмо с требованием регулярно использовать ИИ-сервисы, причем активность отслеживается и влияет на карьерный рост. Крупные компании запускают масштабные проекты и одновременно требуют от персонала доказать их эффективность на практике.

Отдельные исследования указывают на причины слабых результатов: нехватка обучения, слабое управление и отсутствие четких процессов. Аналитики добавляют, что покупка ИИ-инструментов сама по себе не меняет рабочие привычки сотрудников, поэтому компаниям приходится буквально продавливать внедрение через внутреннюю политику.
🏦Власти определили критерии допуска криптовалют на биржи в России.

На российских биржах смогут торговаться только криптовалюты с капитализацией в эквиваленте нескольких триллионов рублей и историей торгов не менее пяти лет, следует из законопроекта «О цифровой валюте и цифровых правах», который был одобрен правительственной комиссией по законопроектной деятельности.

В последней версии законопроекта вводятся дополнительные критерии, которым должна соответствовать иностранная цифровая валюта, чтобы ЦБ мог включать ее в свои нормативные акты. В документе указано три параметра:

- рыночная капитализация цифровой валюты в среднем за два календарных года до ее включения в акт ЦБ должна превышать 5 трлн руб. (около $60 млрд по текущему курсу);

- среднедневной объем торгов цифровой валюты за два года до ее включения в акты ЦБ должен составлять не менее 1 трлн руб. (около $12 млрд по текущему курсу). И капитализацию, и среднедневной объем торгов российский регулятор будет определять по своим методикам, утвержденным соответствующими нормативными актами, говорится в законопроекте;

- данные о цене закрытия иностранной цифровой валюты должны публиковаться организатором торгов (например, биржей) на его официальных ресурсах в интернете не менее пяти календарных лет до того, как такая валюта будет включена в перечень ЦБ. Но могут учитываться данные только от тех иностранных площадок, у которых есть лицензии на торги (выданные в их праве) и где средний объем торгов по сделкам с цифровыми валютами составляет не менее 100 млрд руб. (около $1,2 млн по текущему курсу).

В законопроекте также есть пункт о том, что Росфинмониторинг сможет по согласованию с ЦБ включить криптовалюту в перечень активов, которые будет запрещено зачислять на счета депо физлиц и юрлиц, не являющихся криптообменниками. Ограничения должны будут исполнять цифровые депозитарии и брокеры. Это, в частности, могут быть криптовалюты, цифровой код которых «нацелен на сокрытие информации о переводах по адресам-идентификаторам».

Также власти предлагают ввести уголовную ответственность за нелегальный майнинг в России и административную — за нарушения при обмене и других сделках с криптовалютой, следует из материалов правительственной комиссии по законопроектной деятельности.

Речь идет о новых статьях, разработанных Минюстом, которые дополнят Уголовный кодекс, а также о поправках в Кодекс об административных нарушениях (КоАП), подготовленных Минфином.

Как следует из текста поправок в КоАП предлагается добавить новую статью — «Нарушение требований законодательства об организации обращения цифровой валюты». Она вводит для юрлиц со статусом криптообменников ответственность за некоторые сделки с физлицами-резидентами, которые не являются квалифицированными инвесторами. Это операции, выходящие «за пределы ограничений, установленных законодательством об обращении цифровых валют», указано в документе

Компаниям-нарушителям будет грозить штраф в размере от 700 тыс. до 1 млн руб. Кроме того, предлагается ввести ответственность для должностных лиц организаций, допустивших такие нарушения, — штраф на сумму от 30 тыс. до 50 тыс. руб. либо дисквалификация на один-два года.

Какие именно сделки криптообменников с российскими неквалифицированными инвесторами будут считаться нарушениями, в поправках не прописано.
Сбер представил обновленную версию «ГигаЧата».

«Сбер» представил обновленную версию своего ИИ‑помощника «ГигаЧат» на базе флагманской модели GigaChat Ultra. Сервис научился запоминать предпочтения пользователя, информацию о его профессии, образовании, привычках, а также личные данные и информацию о близких в той мере, в которой пользователь ими делится.

Эти факты должны позволить «персонализировать общение, глубже понимать поставленные задачи и давать более качественные ответы», рассказал глава блока «Развитие генеративного ИИ» «Сбера» Антон Фролов. Также «ГигаЧат» будет вдвое быстрее генерировать ответы по сравнению с предыдущей версией. При авторизации через «Сбер ID» функция памяти будет синхронизироваться между веб‑версией, мобильными приложениями и телеграм‑ботом «ГигаЧата». При желании пользователь может отключить эту функцию в настройках профиля.

По словам Фролова, новая версия стала лучше работать с математическими вычислениями, генерацией кода, с задачами в сферах права, финансов, торговли, кибербезопасности и медицины, особенно там, где важны российская специфика и отраслевая терминология.

В голосовом режиме ассистент в реальном времени обращается к поиску по актуальным данным, пользователю стал доступен диалог с возможностью перебивать, менять тему и затем просматривать текстовую расшифровку разговора.

Еще одна задача на этот год — сделать чат более автономным, способным выполнять фоновые задачи, когда пользователь поручил ему действие, например заказать билеты, и «ГигаЧат» начнет выполнять его в фоновом режиме и спустя время отчитается о выполненной задаче, а человек сможет параллельно продолжить взаимодействие с сервисом по другим задачам.

До недавнего времени «ГигаЧат» был просто чат-ботом, в котором можно было задать вопрос и получить ответ, еще он мог помочь написать контент, но не умел выполнять какие-то действия в реальном мире. Релиз GigaChat Ultra — это важный шаг на пути к этому, чат получил навыки, которые позволяют совершать какие-то действия. Эти способности будут развиваться. Самый главный фокус — чтобы сервис превратился в ассистента, который может действовать в реальном мире.
Please open Telegram to view this post
VIEW IN TELEGRAM
👩‍💻Джастин Сан запускает «ИИ-детектива» для крипторасследований.

Джастин Сан написал твит о запуске системы, которая на основе искусственного интеллекта, способную систематически обрабатывать сложные данные по делам и выявлять подозреваемых в совершении преступлений в чрезвычайно короткие сроки.

Общая стоимость проанализированных на сегодняшний день уголовных дел превышает один миллиард долларов США, при этом 10% от этой суммы выделено в качестве вознаграждения тем кто помогает с расследованием.

Система расследования на основе искусственного интеллекта будет первоначально развернута в сотрудничестве с судебными органами Китая, Гонконга (Китай), США и Объединенных Арабских Эмиратов, а также другими юрисдикциями, заинтересованными в этих делах.
💻Anthropic научила Claude управлять компьютером.

Anthropic добавила в свои продукты Claude Cowork и Claude Code функцию computer use которая позволяет ИИ напрямую управлять компьютером пользователя.

Если у Claude нет доступа к необходимым инструментам, он сам будет указывать на объекты на экране, кликать по ним и перемещаться по ним, чтобы выполнить задачу самостоятельно. Он может открывать файлы, использовать браузер и запускать инструменты разработчика автоматически — без предварительной настройки.

Claude может напрямую управлять браузером, мышью, клавиатурой и экраном для выполнения задач. Он будет прокручивать страницу, открывать ссылки и выполнять другие действия по мере необходимости, но сначала всегда будет запрашивать явное разрешение.

Теперь Claude может использовать компьютер вместо вас, пока вас нет на месте. Например, он может провести утренний брифинг, внести изменения в вашу IDE, запустить тесты и отправить пул-реквест.

Функция computer use находится на стадии предварительного тестирования. Она не всегда работает идеально: для выполнения сложных задач иногда требуется вторая попытка. Также Anthropic рекомендует не использовать computer use для работы с чувствительными данными.
👮‍♂️Полиция арестовала на 5 месяцев невиновную женщину на основании технологии распознавания лиц.

Пожилая женщина из Теннесси провела в тюрьме более пяти месяцев после того, как полиция с помощью системы распознавания лиц на основе искусственного интеллекта связала ее с преступлениями, совершенными в Северной Дакоте — штате, в котором, по ее словам, она никогда раньше не была.

Полиция штата Северная Дакота, признала «несколько ошибок» в расследовании этого дела и пообещала внести изменения в свою работу, но не принесла официальных извинений.

В отчете полицейского управления сказано, что они используют Clearview AI, стартап с базой данных, содержащей более 50 миллиардов фотографий, собранных из интернета, в том числе из социальных сетей. Clearview «выявила потенциального подозреваемого», и на этом основании судья выдал ордер на арест. После этого группа захвата федеральных маршалов ее арестовала.

Адвокат побеседовала с ней только спустя более пяти месяцев после ареста. Адвокат за одну неделю нашел банковские выписки, подтверждающие, что во время совершения преступлений женщина находилась в другом штате. После этого следователь, прокурор штата и судья «по взаимному согласию сняли обвинения без ущерба для дальнейшего расследования», и освободили женщину из-под стражи.
💻Исследование выявило формирование зависимости из-за льстивого поведения ИИ.

Согласно исследованию, опубликованному в журнале Science, искусственный интеллект (ИИ) склонен чрезмерно соглашаться с пользователями даже в ситуациях, когда те описывают аморальные или незаконные действия. Такое поведение ИИ, называемое сикофантией, приводит к тому, что люди начинают считать себя «более правыми» и реже готовы идти на примирение в конфликтах.

Группа исследователей провела масштабную работу, чтобы выяснить, насколько распространена так называемая «социальная сикофантия» (стремление угождать, льстить и безоговорочно поддерживать собеседника) среди современных больших языковых моделей и к каким последствиям это приводит для пользователей.

Ученые проанализировали поведение 11 ведущих языковых моделей, включая GPT-4o (OpenAI), Claude (Anthropic), Gemini (Google), а также открытые модели Llama-3, Qwen, DeepSeek и Mistral.

Результаты показали, что ИИ в среднем одобрял действия пользователя на 49% чаще, чем люди, которые участвовали в эксперименте для сравнения. Особенно показательными оказались случаи, где человеческий консенсус однозначно осуждал поведение автора. В таких ситуациях, когда сообщество выносило вердикт «Ты неправ», современные модели ИИ в 51% случаев выражали поддержку пользователю. При этом даже в сценариях, где запрос описывал обман, причинение вреда или незаконные действия, средний уровень одобрения со стороны ИИ составил 47%.

Вот к каким выводам пришли исследователи:

— Участники, общавшиеся с льстивым ИИ, были значительно больше уверены, что они «правы» в конфликте. В гипотетических сценариях этот показатель вырос на 62%, а в разговоре о реальных конфликтах — на 25%.

— У тех же участников значительно снижалась готовность предпринимать шаги для восстановления отношений (извиняться, менять свое поведение). Снижение составило от 10% до 28% в зависимости от формата эксперимента.

— Анализ показал, что льстивые ответы ИИ значительно реже упоминали точку зрения другой стороны конфликта, сосредотачиваясь исключительно на позиции пользователя.

Несмотря на то, что льстивые ответы искажали суждения пользователей, они казались им гораздо более привлекательными. Участники стабильно оценивали их как более качественные, вызывали больше доверия и выражали большее желание обратиться к такой системе снова.

Авторы исследования подчеркивают, что сложившаяся ситуация создает «извращенные стимулы». Поскольку пользователи предпочитают и больше доверяют льстивым системам, разработчики, ориентируясь на метрики вовлеченности и удовлетворенности, не заинтересованы в уменьшении этой функции, даже если она несет в себе риски.
👩‍💻ИИ не облегчает работу, а делает ее более напряженной.

Распространение генеративного искусственного интеллекта (ИИ) не привело к ожидаемому освобождению сотрудников от рутинных задач. Напротив, статистические данные свидетельствуют о повышении объема и интенсивности труда после внедрения ИИ.

Исследование, проведенное компанией ActivTrak, включало анализ поведения 1111 работодателей и более 443 миллионов рабочих часов 164 тысяч сотрудников. Мониторинг осуществлялся в течение 180 дней до и после внедрения ИИ-технологий.

Результаты исследования показывают, что после интеграции ИИ-инструментов наблюдается увеличение интенсивности труда по всем параметрам. Время, затрачиваемое на работу с электронной почтой и мессенджерами, возросло вдвое, а использование корпоративных приложений увеличилось на 94%. В то же время, доля периодов сосредоточенной работы снизилась на 9%, что ухудшает условия для глубокой концентрации. Важно отметить, что аналогичные изменения не были зафиксированы в компаниях, не внедривших ИИ.

Авторы исследования подчеркивают, что ИИ временно высвобождает рабочее время, однако это время быстро заполняется новыми задачами, что приводит к повышению плотности рабочего процесса. Это противоречит ожиданиям о возможности сокращения рабочей недели без ущерба для экономической эффективности.

Работодатели, внедрившие ИИ, отмечают, что повышение производительности стимулирует увеличение объема работы, а не предоставление сотрудникам дополнительного времени для отдыха. В результате сотрудники работают интенсивнее и дольше, что в долгосрочной перспективе может привести к усталости, ошибкам, профессиональному выгоранию и снижению общей эффективности.
🤦‍♂️Резидентов РФ могут обязать уведомлять ФНС об иностранных криптокошельках.

Валютные резиденты России (и физлица, и компании) с 1 июля будут обязаны уведомлять налоговую об открытии или закрытии блокчейн-кошельков в иностранных системах, не администрируемых российскими депозитариями. Это следует из подготовленного правительством законопроекта, внесенного 1 апреля в Госдуму.

Уведомить Федеральную налоговую службу нужно будет по месту учета в срок не позднее одного месяца со дня открытия или закрытия. В проекте не уточняется, нужно ли сообщать о кошельках, открытых до 1 июля 2026 года. Кроме уведомления резидентов обяжут представлять отчеты о совершении операций с криптовалютой через такие адреса.

Порядок отчетности определит правительство по согласованию с Центробанком. В законопроекте отмечается, что открывать зарубежные криптовалютные кошельки резиденты смогут без ограничений. Что будет грозить за невыполнение требования, не уточняется.
💻В Госдуме предложили запретить генерацию цифрового образа человека без согласия.

Депутаты Госдумы предложили дополнить проект о регулировании искусственного интеллекта (ИИ) запретом на генерацию цифрового образа конкретного человека без его предварительного согласия.

По словам депутатов, Минцифры РФ на портале проектов нормативных правовых актов опубликовало проект о государственном регулировании искусственного интеллекта, который формирует основу правового регулирования применения технологий ИИ в РФ.

"Представляется целесообразным дополнить законопроект о государственном регулировании искусственного интеллекта нормой, устанавливающей ограничение на генерацию с использованием технологий искусственного интеллекта изображения, голоса или иного цифрового образа конкретного физического лица без его предварительного согласия", - сказано в обращении.

По мнению авторов инициативы, ее реализация позволит обеспечить баланс между развитием технологий искусственного интеллекта и защитой конституционных прав граждан на неприкосновенность частной жизни, защиту чести, достоинства и деловой репутации.

Парламентарии уточнили, что закрепление соответствующего запрета на этапе доработки законопроекта позволит сформировать устойчивую правовую основу для ответственного использования генеративных технологий.
💻OpenAI предложила комплекс мер для смягчения экономических последствий развития ИИ.

OpenAI опубликовала программный документ Industrial Policy for the Intelligence Age: Ideas to keep people first, в котором указано, что технологии ИИ, возможно, уже движутся к уровню «сверхинтеллекта», способного превосходить людей в большинстве задач.

Центральная идея документа - создать публичный фонд благосостояния, частично финансируемый самими AI-компаниями. Фонд должен инвестировать в компании, разрабатывающие и внедряющие ИИ, а прибыль — распределять напрямую между гражданами.

Помимо этого, OpenAI предлагает ввести налоги на автоматизированный труд, перенести налоговую базу с зарплат на корпоративные доходы и прирост капитала, а также запустить пилотные проекты 32-часовой рабочей недели с сохранением полной оплаты — как "дивиденд эффективности" от внедрения ИИ.

Отдельный раздел документа посвящен сценариям потери контроля: OpenAI признает ситуации, при которых опасные AI-системы становятся автономными, способны к самовоспроизведению и "не могут быть легко отозваны". В качестве ответа компания предлагает координацию с правительством и так называемые "сценарии сдерживания" (containment playbooks).

Также предусмотрены автоматические триггеры социальной защиты: когда метрики вытеснения рабочих мест достигают пороговых значений, пособия по безработице и страхование заработка увеличиваются автоматически.
⚖️К Perplexity подали иск о незаконной передаче данных пользователей.

Пользователи Perplexity подали иск в федеральный суд в Сан-Франциско к компании-разработчику. Истцы обвиняют Perplexity в том, что она незаконно передавала их данные. Это является нарушением калифорнийского закона о конфиденциальности.

Когда пользователь заходит на главную страницу платформы Perplexity, на его устройство автоматически загружаются трекеры от этих компаний, а в итоге они получают полный доступ к переписке пользователя с поисковым сервисом Perplexity AI Machine, говорится в иске.

Это позволяет «использовать персональные данные в свою пользу, включая показ целевой рекламы и перепродажу конфиденциальных сведений третьим лицам». Особо отмечается, что данные передаются даже в случае, когда в браузере включён режим «инкогнито».

Согласно иску, Perplexity внедрила в код своей поисковой системы «необнаруживаемое» следящее ПО, которое автоматически транслирует переписку третьим сторонам.
💻Anthropic снизил эффективность Claude Opus 4.6.

Anthropic изменила настройки Opus 4.6 сократив его цепочку рассуждений. Цена при этом осталась прежней, а поведение изменилось. Пользователи отмечают более жёсткие ограничения и менее глубокие ответы.

Изменения заметили в компании AMD. Они выгрузили 6 852 своих сессии в Claude Code за последние три месяца, вытащили оттуда 17 871 блок рассуждений и 234 760 вызовов инструментов и всё посчитали. Оказалось, что глубина рассуждений упала на 67%.

Раньше перед тем, как поправить код, Claude в среднем читал 6.6 файла: смотрел зависимости, тесты, контекст. После обновления всего 2. Каждая третья правка теперь вносится вообще без чтения целевого файла целиком.

С 12 марта Anthropic просто перестал показывать пользователям содержимое thinking-блоков: если не видеть, как модель рассуждает, то не видно падения эффективности.
💻Путин поручил создать национальный план внедрения ИИ.

Президент России Владимир Путин поручил Правительству. подготовить и утвердить национальный план по внедрению технологий искусственного интеллекта (ИИ) в экономику, социальную сферу и государственное управление.

В поручениях Президента указано, что в план развития ИИ должны быть включены меры для повышения спроса на российские модели, «в том числе путем определения возможных сценариев использования технологий искусственного интеллекта и разработки планов их внедрения в отраслях экономики, социальной сферы и государственном управлении».

Будут утверждены показатели эффективности использования ИИ в отраслях экономики, социальной сфере и государственном управлении. При формировании рейтинга цифровой трансформации субъектов Российской Федерации по итогам 2026 г. в приоритетном порядке будут учитываться параметры, характеризующие разработку и использование технологий ИИ.

Сведения о внедрении технологий ИИ в экономике, соцсфере, федеральном и субъектном госуправлении будут содержаться в специальной единой информационно-аналитической базе данных. В поручениях Путина указано, что для дальнейшего развития ИИ в стране нужно сократить «избыточные административные барьеры».

Для внедрения ИИ в сфере образования должны быть разработаны соответствующие меры организационного, нормативно-правового и методического характера.

Для развития экспорта российских технологий в дружественные страны необходима «гармонизация российских кодексов этики и технических стандартов в сфере искусственного интеллекта с соответствующими кодексами и стандартами дружественных иностранных государств, международных организаций и объединений».
🏛Минюст РФ тестирует ИИ в процессе нормотворчества.

Министерство юстиции РФ внедряет искусственный интеллект в процедуры проведения правовых и антикоррупционных экспертиз, но выводы будут делать специалисты ведомства, сообщил глава Минюста Константин Чуйченко.

По его словам, в настоящее время юристы тестируют подобные инструменты, разрабатывают основные требования к искусственному интеллекту, который "будет использоваться при проведении правовой и антикоррупционной экспертиз ведомственных актов".

"Отдельно подчеркну, что искусственный интеллект мы рассматриваем исключительно как удобный инструмент, который позволит оптимизировать работу. Но решение остается безусловно за юристом - человеком", - сказал Чуйченко.
📹Нейросеть начала штрафовать жителей России.

ИИ штрафует за граффити, неправильную парковку и незаконную рекламу. Активнее всего комплекс "Дозор" работает в Воронеже, Ярославле и Липецк. ПО разработано в Воронеже. Для отслеживания по городу ездит специальный автомобиль.

Фиксатор нарушений стоит за подголовником водителя, а две цифровые камеры с двух сторон авто — чтобы фотографировать всё, что ИИ распознает как правонарушение: припаркованные на контейнерных площадках и газонах машины, теги на стенах зданий и заборах.

После обработки ИИ данные передаются в базу. Затем нарушение доходит до административной комиссии, которая выставляет штраф и уведомляет об этом нарушителя. Если оплаты до дедлайна нет — робот отправляет информацию приставам. За январь-март 2026 года по материалам "Дозора" россиян уже штрафанули минимум на миллион рублей. Больше всего нарушителей — в Воронеже.

В этом году с помощью ИИ планируют проверять здания и помещения: нейросеть станет фиксировать трещины или отсутствие плиточного покрытия. Халатных хозяев будут наказывать.
👩‍💻Компания Anthropic запускает верификацию личности в Claude.

15 апреля 2026 года Anthropic запустила систему Identity Verification для Claude. Теперь для доступа к отдельным возможностям, оформления подписки Pro/Max или в рамках проверок безопасности пользователям предлагают пройти верификацию личности: загрузить оригинальный документ с фото (паспорт, водительские права или национальное ID) и сделать селфи.

При этом копии, скриншоты, сканы, цифровые удостоверения, студенческие билеты или банковские карты не принимаются — действительны только оригиналы бумажных документов.

Партнёром Anthropic по верификации выбрана компания Persona Identities — тот же поставщик, который предоставляет услуги идентификации для ChatGPT и LinkedIn, однако ранее он был замешан в инцидентах с утечкой данных пользователей Discord.

Anthropic подчёркивает, что данные верификации не будут использоваться для обучения модели, не будут передаваться третьим лицам в маркетинговых или рекламных целях и останутся только между пользователем, Persona и самой Anthropic, если только иное не потребуется по закону.

Важно отметить, что даже после успешного прохождения верификации учётная запись может быть заблокирована при повторных нарушениях правил использования, создании аккаунта в неподдерживаемых регионах (Китай, Россия, Северная Корея, Иран, Сирия, Куба), нарушении условий обслуживания или использовании лицами младше 18 лет.

Эксперты связывают этот шаг с тремя ключевыми факторами: во-первых, это необходимость соблюдения нормативных требований и предотвращения злоупотреблений по мере того, как Claude интегрируется в финансовую инфраструктуру; во-вторых, это способность модели Claude Mythos самостоятельно обнаруживать и использовать системные уязвимости; в-третьих, это стратегическая подготовка к внедрению системы уровней доступа, где разные степени верификации будут открывать доступ к моделям с разными возможностями — аналогично тому, как OpenAI предоставляет доступ к GPT-5.4-Cyber только проверенным специалистам по кибербезопасности.

Распознавание лиц это ключевой фактор для перехода AI-инструментов от анонимного доступа к модели «управляемой инфраструктуры», где каждый пользователь идентифицирован и несёт ответственность за свои действия.