LegalTech
15.6K subscribers
68 photos
10 videos
13 files
1.66K links
Использование биометрии, нейронные сети, ИИ, Algorithmic Governance – и другие тренды LegalTech.

По вопросам сотрудничества @milada2
Автор @ladgn

https://knd.gov.ru/license?id=67345e16e9b24e448c62e1fa&registryType=bloggersPermission
Download Telegram
👩‍💻Джастин Сан запускает «ИИ-детектива» для крипторасследований.

Джастин Сан написал твит о запуске системы, которая на основе искусственного интеллекта, способную систематически обрабатывать сложные данные по делам и выявлять подозреваемых в совершении преступлений в чрезвычайно короткие сроки.

Общая стоимость проанализированных на сегодняшний день уголовных дел превышает один миллиард долларов США, при этом 10% от этой суммы выделено в качестве вознаграждения тем кто помогает с расследованием.

Система расследования на основе искусственного интеллекта будет первоначально развернута в сотрудничестве с судебными органами Китая, Гонконга (Китай), США и Объединенных Арабских Эмиратов, а также другими юрисдикциями, заинтересованными в этих делах.
💻Anthropic научила Claude управлять компьютером.

Anthropic добавила в свои продукты Claude Cowork и Claude Code функцию computer use которая позволяет ИИ напрямую управлять компьютером пользователя.

Если у Claude нет доступа к необходимым инструментам, он сам будет указывать на объекты на экране, кликать по ним и перемещаться по ним, чтобы выполнить задачу самостоятельно. Он может открывать файлы, использовать браузер и запускать инструменты разработчика автоматически — без предварительной настройки.

Claude может напрямую управлять браузером, мышью, клавиатурой и экраном для выполнения задач. Он будет прокручивать страницу, открывать ссылки и выполнять другие действия по мере необходимости, но сначала всегда будет запрашивать явное разрешение.

Теперь Claude может использовать компьютер вместо вас, пока вас нет на месте. Например, он может провести утренний брифинг, внести изменения в вашу IDE, запустить тесты и отправить пул-реквест.

Функция computer use находится на стадии предварительного тестирования. Она не всегда работает идеально: для выполнения сложных задач иногда требуется вторая попытка. Также Anthropic рекомендует не использовать computer use для работы с чувствительными данными.
👮‍♂️Полиция арестовала на 5 месяцев невиновную женщину на основании технологии распознавания лиц.

Пожилая женщина из Теннесси провела в тюрьме более пяти месяцев после того, как полиция с помощью системы распознавания лиц на основе искусственного интеллекта связала ее с преступлениями, совершенными в Северной Дакоте — штате, в котором, по ее словам, она никогда раньше не была.

Полиция штата Северная Дакота, признала «несколько ошибок» в расследовании этого дела и пообещала внести изменения в свою работу, но не принесла официальных извинений.

В отчете полицейского управления сказано, что они используют Clearview AI, стартап с базой данных, содержащей более 50 миллиардов фотографий, собранных из интернета, в том числе из социальных сетей. Clearview «выявила потенциального подозреваемого», и на этом основании судья выдал ордер на арест. После этого группа захвата федеральных маршалов ее арестовала.

Адвокат побеседовала с ней только спустя более пяти месяцев после ареста. Адвокат за одну неделю нашел банковские выписки, подтверждающие, что во время совершения преступлений женщина находилась в другом штате. После этого следователь, прокурор штата и судья «по взаимному согласию сняли обвинения без ущерба для дальнейшего расследования», и освободили женщину из-под стражи.
💻Исследование выявило формирование зависимости из-за льстивого поведения ИИ.

Согласно исследованию, опубликованному в журнале Science, искусственный интеллект (ИИ) склонен чрезмерно соглашаться с пользователями даже в ситуациях, когда те описывают аморальные или незаконные действия. Такое поведение ИИ, называемое сикофантией, приводит к тому, что люди начинают считать себя «более правыми» и реже готовы идти на примирение в конфликтах.

Группа исследователей провела масштабную работу, чтобы выяснить, насколько распространена так называемая «социальная сикофантия» (стремление угождать, льстить и безоговорочно поддерживать собеседника) среди современных больших языковых моделей и к каким последствиям это приводит для пользователей.

Ученые проанализировали поведение 11 ведущих языковых моделей, включая GPT-4o (OpenAI), Claude (Anthropic), Gemini (Google), а также открытые модели Llama-3, Qwen, DeepSeek и Mistral.

Результаты показали, что ИИ в среднем одобрял действия пользователя на 49% чаще, чем люди, которые участвовали в эксперименте для сравнения. Особенно показательными оказались случаи, где человеческий консенсус однозначно осуждал поведение автора. В таких ситуациях, когда сообщество выносило вердикт «Ты неправ», современные модели ИИ в 51% случаев выражали поддержку пользователю. При этом даже в сценариях, где запрос описывал обман, причинение вреда или незаконные действия, средний уровень одобрения со стороны ИИ составил 47%.

Вот к каким выводам пришли исследователи:

— Участники, общавшиеся с льстивым ИИ, были значительно больше уверены, что они «правы» в конфликте. В гипотетических сценариях этот показатель вырос на 62%, а в разговоре о реальных конфликтах — на 25%.

— У тех же участников значительно снижалась готовность предпринимать шаги для восстановления отношений (извиняться, менять свое поведение). Снижение составило от 10% до 28% в зависимости от формата эксперимента.

— Анализ показал, что льстивые ответы ИИ значительно реже упоминали точку зрения другой стороны конфликта, сосредотачиваясь исключительно на позиции пользователя.

Несмотря на то, что льстивые ответы искажали суждения пользователей, они казались им гораздо более привлекательными. Участники стабильно оценивали их как более качественные, вызывали больше доверия и выражали большее желание обратиться к такой системе снова.

Авторы исследования подчеркивают, что сложившаяся ситуация создает «извращенные стимулы». Поскольку пользователи предпочитают и больше доверяют льстивым системам, разработчики, ориентируясь на метрики вовлеченности и удовлетворенности, не заинтересованы в уменьшении этой функции, даже если она несет в себе риски.
👩‍💻ИИ не облегчает работу, а делает ее более напряженной.

Распространение генеративного искусственного интеллекта (ИИ) не привело к ожидаемому освобождению сотрудников от рутинных задач. Напротив, статистические данные свидетельствуют о повышении объема и интенсивности труда после внедрения ИИ.

Исследование, проведенное компанией ActivTrak, включало анализ поведения 1111 работодателей и более 443 миллионов рабочих часов 164 тысяч сотрудников. Мониторинг осуществлялся в течение 180 дней до и после внедрения ИИ-технологий.

Результаты исследования показывают, что после интеграции ИИ-инструментов наблюдается увеличение интенсивности труда по всем параметрам. Время, затрачиваемое на работу с электронной почтой и мессенджерами, возросло вдвое, а использование корпоративных приложений увеличилось на 94%. В то же время, доля периодов сосредоточенной работы снизилась на 9%, что ухудшает условия для глубокой концентрации. Важно отметить, что аналогичные изменения не были зафиксированы в компаниях, не внедривших ИИ.

Авторы исследования подчеркивают, что ИИ временно высвобождает рабочее время, однако это время быстро заполняется новыми задачами, что приводит к повышению плотности рабочего процесса. Это противоречит ожиданиям о возможности сокращения рабочей недели без ущерба для экономической эффективности.

Работодатели, внедрившие ИИ, отмечают, что повышение производительности стимулирует увеличение объема работы, а не предоставление сотрудникам дополнительного времени для отдыха. В результате сотрудники работают интенсивнее и дольше, что в долгосрочной перспективе может привести к усталости, ошибкам, профессиональному выгоранию и снижению общей эффективности.
🤦‍♂️Резидентов РФ могут обязать уведомлять ФНС об иностранных криптокошельках.

Валютные резиденты России (и физлица, и компании) с 1 июля будут обязаны уведомлять налоговую об открытии или закрытии блокчейн-кошельков в иностранных системах, не администрируемых российскими депозитариями. Это следует из подготовленного правительством законопроекта, внесенного 1 апреля в Госдуму.

Уведомить Федеральную налоговую службу нужно будет по месту учета в срок не позднее одного месяца со дня открытия или закрытия. В проекте не уточняется, нужно ли сообщать о кошельках, открытых до 1 июля 2026 года. Кроме уведомления резидентов обяжут представлять отчеты о совершении операций с криптовалютой через такие адреса.

Порядок отчетности определит правительство по согласованию с Центробанком. В законопроекте отмечается, что открывать зарубежные криптовалютные кошельки резиденты смогут без ограничений. Что будет грозить за невыполнение требования, не уточняется.
💻В Госдуме предложили запретить генерацию цифрового образа человека без согласия.

Депутаты Госдумы предложили дополнить проект о регулировании искусственного интеллекта (ИИ) запретом на генерацию цифрового образа конкретного человека без его предварительного согласия.

По словам депутатов, Минцифры РФ на портале проектов нормативных правовых актов опубликовало проект о государственном регулировании искусственного интеллекта, который формирует основу правового регулирования применения технологий ИИ в РФ.

"Представляется целесообразным дополнить законопроект о государственном регулировании искусственного интеллекта нормой, устанавливающей ограничение на генерацию с использованием технологий искусственного интеллекта изображения, голоса или иного цифрового образа конкретного физического лица без его предварительного согласия", - сказано в обращении.

По мнению авторов инициативы, ее реализация позволит обеспечить баланс между развитием технологий искусственного интеллекта и защитой конституционных прав граждан на неприкосновенность частной жизни, защиту чести, достоинства и деловой репутации.

Парламентарии уточнили, что закрепление соответствующего запрета на этапе доработки законопроекта позволит сформировать устойчивую правовую основу для ответственного использования генеративных технологий.
💻OpenAI предложила комплекс мер для смягчения экономических последствий развития ИИ.

OpenAI опубликовала программный документ Industrial Policy for the Intelligence Age: Ideas to keep people first, в котором указано, что технологии ИИ, возможно, уже движутся к уровню «сверхинтеллекта», способного превосходить людей в большинстве задач.

Центральная идея документа - создать публичный фонд благосостояния, частично финансируемый самими AI-компаниями. Фонд должен инвестировать в компании, разрабатывающие и внедряющие ИИ, а прибыль — распределять напрямую между гражданами.

Помимо этого, OpenAI предлагает ввести налоги на автоматизированный труд, перенести налоговую базу с зарплат на корпоративные доходы и прирост капитала, а также запустить пилотные проекты 32-часовой рабочей недели с сохранением полной оплаты — как "дивиденд эффективности" от внедрения ИИ.

Отдельный раздел документа посвящен сценариям потери контроля: OpenAI признает ситуации, при которых опасные AI-системы становятся автономными, способны к самовоспроизведению и "не могут быть легко отозваны". В качестве ответа компания предлагает координацию с правительством и так называемые "сценарии сдерживания" (containment playbooks).

Также предусмотрены автоматические триггеры социальной защиты: когда метрики вытеснения рабочих мест достигают пороговых значений, пособия по безработице и страхование заработка увеличиваются автоматически.
⚖️К Perplexity подали иск о незаконной передаче данных пользователей.

Пользователи Perplexity подали иск в федеральный суд в Сан-Франциско к компании-разработчику. Истцы обвиняют Perplexity в том, что она незаконно передавала их данные. Это является нарушением калифорнийского закона о конфиденциальности.

Когда пользователь заходит на главную страницу платформы Perplexity, на его устройство автоматически загружаются трекеры от этих компаний, а в итоге они получают полный доступ к переписке пользователя с поисковым сервисом Perplexity AI Machine, говорится в иске.

Это позволяет «использовать персональные данные в свою пользу, включая показ целевой рекламы и перепродажу конфиденциальных сведений третьим лицам». Особо отмечается, что данные передаются даже в случае, когда в браузере включён режим «инкогнито».

Согласно иску, Perplexity внедрила в код своей поисковой системы «необнаруживаемое» следящее ПО, которое автоматически транслирует переписку третьим сторонам.
💻Anthropic снизил эффективность Claude Opus 4.6.

Anthropic изменила настройки Opus 4.6 сократив его цепочку рассуждений. Цена при этом осталась прежней, а поведение изменилось. Пользователи отмечают более жёсткие ограничения и менее глубокие ответы.

Изменения заметили в компании AMD. Они выгрузили 6 852 своих сессии в Claude Code за последние три месяца, вытащили оттуда 17 871 блок рассуждений и 234 760 вызовов инструментов и всё посчитали. Оказалось, что глубина рассуждений упала на 67%.

Раньше перед тем, как поправить код, Claude в среднем читал 6.6 файла: смотрел зависимости, тесты, контекст. После обновления всего 2. Каждая третья правка теперь вносится вообще без чтения целевого файла целиком.

С 12 марта Anthropic просто перестал показывать пользователям содержимое thinking-блоков: если не видеть, как модель рассуждает, то не видно падения эффективности.
💻Путин поручил создать национальный план внедрения ИИ.

Президент России Владимир Путин поручил Правительству. подготовить и утвердить национальный план по внедрению технологий искусственного интеллекта (ИИ) в экономику, социальную сферу и государственное управление.

В поручениях Президента указано, что в план развития ИИ должны быть включены меры для повышения спроса на российские модели, «в том числе путем определения возможных сценариев использования технологий искусственного интеллекта и разработки планов их внедрения в отраслях экономики, социальной сферы и государственном управлении».

Будут утверждены показатели эффективности использования ИИ в отраслях экономики, социальной сфере и государственном управлении. При формировании рейтинга цифровой трансформации субъектов Российской Федерации по итогам 2026 г. в приоритетном порядке будут учитываться параметры, характеризующие разработку и использование технологий ИИ.

Сведения о внедрении технологий ИИ в экономике, соцсфере, федеральном и субъектном госуправлении будут содержаться в специальной единой информационно-аналитической базе данных. В поручениях Путина указано, что для дальнейшего развития ИИ в стране нужно сократить «избыточные административные барьеры».

Для внедрения ИИ в сфере образования должны быть разработаны соответствующие меры организационного, нормативно-правового и методического характера.

Для развития экспорта российских технологий в дружественные страны необходима «гармонизация российских кодексов этики и технических стандартов в сфере искусственного интеллекта с соответствующими кодексами и стандартами дружественных иностранных государств, международных организаций и объединений».
🏛Минюст РФ тестирует ИИ в процессе нормотворчества.

Министерство юстиции РФ внедряет искусственный интеллект в процедуры проведения правовых и антикоррупционных экспертиз, но выводы будут делать специалисты ведомства, сообщил глава Минюста Константин Чуйченко.

По его словам, в настоящее время юристы тестируют подобные инструменты, разрабатывают основные требования к искусственному интеллекту, который "будет использоваться при проведении правовой и антикоррупционной экспертиз ведомственных актов".

"Отдельно подчеркну, что искусственный интеллект мы рассматриваем исключительно как удобный инструмент, который позволит оптимизировать работу. Но решение остается безусловно за юристом - человеком", - сказал Чуйченко.
📹Нейросеть начала штрафовать жителей России.

ИИ штрафует за граффити, неправильную парковку и незаконную рекламу. Активнее всего комплекс "Дозор" работает в Воронеже, Ярославле и Липецк. ПО разработано в Воронеже. Для отслеживания по городу ездит специальный автомобиль.

Фиксатор нарушений стоит за подголовником водителя, а две цифровые камеры с двух сторон авто — чтобы фотографировать всё, что ИИ распознает как правонарушение: припаркованные на контейнерных площадках и газонах машины, теги на стенах зданий и заборах.

После обработки ИИ данные передаются в базу. Затем нарушение доходит до административной комиссии, которая выставляет штраф и уведомляет об этом нарушителя. Если оплаты до дедлайна нет — робот отправляет информацию приставам. За январь-март 2026 года по материалам "Дозора" россиян уже штрафанули минимум на миллион рублей. Больше всего нарушителей — в Воронеже.

В этом году с помощью ИИ планируют проверять здания и помещения: нейросеть станет фиксировать трещины или отсутствие плиточного покрытия. Халатных хозяев будут наказывать.
👩‍💻Компания Anthropic запускает верификацию личности в Claude.

15 апреля 2026 года Anthropic запустила систему Identity Verification для Claude. Теперь для доступа к отдельным возможностям, оформления подписки Pro/Max или в рамках проверок безопасности пользователям предлагают пройти верификацию личности: загрузить оригинальный документ с фото (паспорт, водительские права или национальное ID) и сделать селфи.

При этом копии, скриншоты, сканы, цифровые удостоверения, студенческие билеты или банковские карты не принимаются — действительны только оригиналы бумажных документов.

Партнёром Anthropic по верификации выбрана компания Persona Identities — тот же поставщик, который предоставляет услуги идентификации для ChatGPT и LinkedIn, однако ранее он был замешан в инцидентах с утечкой данных пользователей Discord.

Anthropic подчёркивает, что данные верификации не будут использоваться для обучения модели, не будут передаваться третьим лицам в маркетинговых или рекламных целях и останутся только между пользователем, Persona и самой Anthropic, если только иное не потребуется по закону.

Важно отметить, что даже после успешного прохождения верификации учётная запись может быть заблокирована при повторных нарушениях правил использования, создании аккаунта в неподдерживаемых регионах (Китай, Россия, Северная Корея, Иран, Сирия, Куба), нарушении условий обслуживания или использовании лицами младше 18 лет.

Эксперты связывают этот шаг с тремя ключевыми факторами: во-первых, это необходимость соблюдения нормативных требований и предотвращения злоупотреблений по мере того, как Claude интегрируется в финансовую инфраструктуру; во-вторых, это способность модели Claude Mythos самостоятельно обнаруживать и использовать системные уязвимости; в-третьих, это стратегическая подготовка к внедрению системы уровней доступа, где разные степени верификации будут открывать доступ к моделям с разными возможностями — аналогично тому, как OpenAI предоставляет доступ к GPT-5.4-Cyber только проверенным специалистам по кибербезопасности.

Распознавание лиц это ключевой фактор для перехода AI-инструментов от анонимного доступа к модели «управляемой инфраструктуры», где каждый пользователь идентифицирован и несёт ответственность за свои действия.
👮‍♂️Незаконный оборот криптовалюты в России предложили наказывать лишением свободы.

Незаконный оборот криптовалюты в России предложили наказывать лишением свободы на срок до семи лет, следует из поправок в Уголовный кодекс, которые рассматривались на правительственной комиссии по законопроектной деятельности.

Уголовный кодекс предлагается дополнить ст. 171.7 (незаконная организация обращения цифровой валюты). Она предусматривает «ответственность за деятельность по организации оборота цифровой валюты без регистрации или лицензии Банка России», следует из документа.

«Обязательный признак — общественно опасное последствие в виде причинения крупного ущерба (или извлечение дохода в крупном размере)».

За незаконную организацию оборота крипты в крупном размере предлагается наказывать:
- либо штрафом в размере 100–300 тыс. руб. или дохода осужденного за один два года;
- либо принудительными работами сроком до четырех лет;
- либо лишением свободы сроком до четырех лет со штрафом в размере до 80 тыс. руб. или в размере дохода осужденного за период до шести месяцев или без такового.

За организацию незаконного оборота крипты в особо крупном размере и в составе организованной группы санкции более серьезные: нарушителям может грозить до семи лет лишения свободы со штрафом в размере до 1 млн руб. или в размере дохода осужденного в течение пяти лет. Статья предусматривает также наказание в виде принудительных работ сроком до пяти лет.

Под крупным в новой статье о незаконном обороте крипты будет подразумеваться ущерб от 3,5 млн руб., под особо крупным — от 13 млн руб., следует из текста проекта.

Законопроект предполагает, что поправки в Уголовный кодекс вступят в силу с 1 июля 2027 года.
💻Применение экспериментальных правовых режимов будет упрощено.

Госдума приняла в первом чтении законопроект, расширяющий возможности внедрения экспериментальных правовых режимов (ЭПР) в сфере цифровых и технологических инноваций.

Предполагается, что это позволит запустить регуляторные песочницы для проектов с применением искусственного интеллекта (ИИ) в тех областях, где «общее» регулирование пока отсутствует. Также проектом увеличивается максимальный срок действия ЭПР с трех до пяти лет.

По действующим правилам создавать ЭПР можно лишь в тех отраслях, где есть общее регулирование, создающее препятствия для инноваций, так называемый правовой барьер. Законопроект расширяет возможности создания ЭПР для неотрегулированных отраслей, как раз исключая условие о наличии такого барьера.

Сейчас это требование, отмечается в пояснительной записке, сдерживает возможности применения ИИ. Разработчики, вынужденные действовать в условиях неопределенности и правовой незащищенности, ограничивают широкое внедрение новых технологий из-за риска признания их незаконными.

Среди других принятых изменений — увеличение максимального срока действия ЭПР с трех до пяти лет, что должно позволить в полной мере пройти все этапы тестирования новых технологий и при необходимости разработать профильное регулирование для повсеместного внедрения таких решений.

Также законопроект предусматривает для участников ЭПР возможность выходить из эксперимента по собственному мотивированному обращению.
⚖️Верховный суд использовал ИИ для подготовки разъяснений.

Искусственный интеллект использовался в работе над проектом нового постановления пленума Верховного суда России о подготовке гражданских дел к судебному разбирательству, сообщил судья ВС РФ Вячеслав Горшков.

Пленум Верховного суда под руководством Игоря Краснова во вторник отправил проект нового постановления о подготовке гражданских дел к судебному разбирательству на доработку в редакционную комиссию. Документ должен будет заменить предыдущее постановление по данному вопросу, которое было утверждено пленумом в 2008 году.

"Предлагаемый проект обновлен по отношению к постановлению пленума 2008 года более чем на 82%... При работе над постановлением использовался искусственный интеллект для сбора и обработки информации", - сказал Горшков на пленуме.

Он отметил, что разъяснения из действующего постановления пленума длительное время использовались судами при рассмотрения гражданских дел, доказывая свою востребованность.
⚖️Элитная юридическая фирма Sullivan & Cromwell признала в суде «галлюцинации» ИИ.

Юридическая фирма Sullivan & Cromwell (S&C) сообщила федеральному суду по банкротствам США, что в одном из документов по делу компании Prince Group, глава которой обвиняется в мошенничестве, содержались многочисленные ошибки, допущенные ИИ.

Представитель фирмы Эндрю Дитердерих в письме, направленном федеральному судье Нью-Йорка, извинился за ошибки, включая неверное цитирование Кодекса о банкротстве США и неправильные ссылки на судебные решения.

Он заявил, что компания глубоко сожалеет о случившемся, добавив, что при подготовке документа не были соблюдены внутренние правила S&C по использованию ИИ, и сейчас рассматривается необходимость «дальнейшего совершенствования» систем обучения и процедур проверки. В письме не уточняется, какие именно юристы готовили документы и работают ли они до сих пор в фирме.

Ошибки обнаружила юридическая фирма Boies Schiller Flexner, представляющая интересы Prince Group: она указала, что некоторые цитаты на законодательство не совпадают с содержанием источников, суть некоторых упомянутых судебных процессов искажена, а некоторых дел, на которые ссылается S&C, в принципе не существует.
💻Anthropic объявила о запуске новых «коннекторов».

Теперь Claude можно подключать к Booking.com, Spotify, StubHub, TripAdvisor, Uber, Uber Eats и Viator, и другим сервисам. Это позволяет Claude не просто давать советы, а взаимодействовать с приложениями напрямую.

Claude самостоятельно предлагает подходящее приложение для выполнения конкретной задачи, например, для поиска бронирования, добавления товара в корзину или определения рейса. Он работает на основе предоставленных вами данных: ваших предпочтений, контекста и диалога.

Anthropic подчеркивает, что на платформе Claude нет рекламы, а в диалогах с Claude нет платных размещений или спонсируемых ответов. Если под запрос подходят несколько приложений, Claude сортирует их по степени полезности.

Перед финальным действием, например бронированием или покупкой Claude попросит подтверждения.
Коннекторы доступны во всех тарифных планах. Полный список коннекторов на сайте claude.ai/directory/connectors.
👮‍♂️Уголовное расследование в отношении OpenAI и ChatGPT начато во Флориде.

Генеральный прокурор Флориды Джеймс Утмайер заявил, что начинает уголовное расследование в отношении компании OpenAI и ее приложения искусственного интеллекта ChatGPT в связи со стрельбой, в результате которой погибли два человека.

«Чат-бот консультировал стрелка о том, какой тип оружия использовать, какие боеприпасы подходят к какому оружию и будет ли оружие полезно на короткой дистанции», — сказал Утмайер на пресс-конференции.

В Прокуратуре заявили, что расследование определит, «несет ли OpenAI уголовную ответственность за действия ChatGPT во время стрельбы». Компании OpenAI направлена повестка с требованием предоставить информацию и документы.

Представительница OpenAI заявила СМИ, что стрельба — это трагедия, но компания не несет за нее ответственности. Она добавила, что, узнав об инциденте, OpenAI выявила учетную запись, предположительно связанную с подозреваемым, и «заблаговременно передала эту информацию правоохранительным органам».

«В данном случае ChatGPT предоставил фактические ответы на вопросы, основанные на информации, которую можно найти в общедоступных источниках в интернете, и не поощрял и не пропагандировал незаконную или вредоносную деятельность», заявила представительница OpenAI.
💻Законопроект о регулировании ИИ претерпел значительные изменения.

В Законопроект, который разрабатывает Минцифры внесены доработки.

Ключевая новация, заметная по документу, заключается в изменении и уточнении требований к национальным и суверенным моделям ИИ. Если ранее требовалась полная локализация - чтобы модель была создана исключительно гражданами России, на российской территории и из данных российского происхождения, то теперь достаточно, чтобы разработчик был российским юрлицом и сам определял и изменял существенные характеристики. Таким образом, фокус переносится с "происхождения модели" на контроль над ключевой технологией.

Скорректирована и ст. 8, которая ранее требовала, чтобы все модели, используемые в государственных системах и критической инфраструктуре, были включены в реестр доверенных моделей. Теперь в нем прописаны только большие фундаментальные модели, только в значимых объектах критической инфраструктуры и государственных информационных системах, что выводит из под угрозы коммерческую часть рынка.

Скорректировано требование оказывать услуги без использования ИИ при наличии такого запроса. Теперь оно направлено только на госорганы и приравненными к ним структуры. Это требование не распространяется на коммерческие организации.

Из документа исключен пункт 10.3, подпункт "г", отсылающий к обязанностям организаторов распространения информации. Речь шла о том, что ИИ-сервисы с суточной аудиторией более 500 тыс. человек обяжут хранить на территории РФ информацию о пользователях в течение трех лет. Кроме того, исключены пункты об ограничениях трансграничной передачи данных ИИ. Именно на основе этих пунктов экспертами строились гипотезы о возможном запрете в России иностранных моделей, таких как ChatGPT или Claude.

Еще один большой блок касается маркировки контента, созданного нейросетями. Речь в первую очередь идет о дипфейках, но и о любом другом генеративном контенте, размещенном в Сети. Как видно из обновленной ст.12, из нее исчезло требование о том, что маркировка такого контента должна размещаться в формате, "воспринимаемом человеком и машиночитаемом формате". В новой версии речь идет только о машиночитаемой маркировке.

В то же время в документе появились и новации. Так в ст.7, которая значительно упрощена в том, что касается определения "национальности" модели, появился пункт 2.3, который гласит, что суверенные и национальные модели должны "пройти подтверждение соответствия законодательству Российской Федерации и традиционным духовно-нравственным ценностям".

Ожидается, что финальная версия законопроекта будет внесена в Госдуму до окончания весенней сессии.