📹Нейросеть начала штрафовать жителей России.
ИИ штрафует за граффити, неправильную парковку и незаконную рекламу. Активнее всего комплекс "Дозор" работает в Воронеже, Ярославле и Липецк. ПО разработано в Воронеже. Для отслеживания по городу ездит специальный автомобиль.
Фиксатор нарушений стоит за подголовником водителя, а две цифровые камеры с двух сторон авто — чтобы фотографировать всё, что ИИ распознает как правонарушение: припаркованные на контейнерных площадках и газонах машины, теги на стенах зданий и заборах.
После обработки ИИ данные передаются в базу. Затем нарушение доходит до административной комиссии, которая выставляет штраф и уведомляет об этом нарушителя. Если оплаты до дедлайна нет — робот отправляет информацию приставам. За январь-март 2026 года по материалам "Дозора" россиян уже штрафанули минимум на миллион рублей. Больше всего нарушителей — в Воронеже.
В этом году с помощью ИИ планируют проверять здания и помещения: нейросеть станет фиксировать трещины или отсутствие плиточного покрытия. Халатных хозяев будут наказывать.
ИИ штрафует за граффити, неправильную парковку и незаконную рекламу. Активнее всего комплекс "Дозор" работает в Воронеже, Ярославле и Липецк. ПО разработано в Воронеже. Для отслеживания по городу ездит специальный автомобиль.
Фиксатор нарушений стоит за подголовником водителя, а две цифровые камеры с двух сторон авто — чтобы фотографировать всё, что ИИ распознает как правонарушение: припаркованные на контейнерных площадках и газонах машины, теги на стенах зданий и заборах.
После обработки ИИ данные передаются в базу. Затем нарушение доходит до административной комиссии, которая выставляет штраф и уведомляет об этом нарушителя. Если оплаты до дедлайна нет — робот отправляет информацию приставам. За январь-март 2026 года по материалам "Дозора" россиян уже штрафанули минимум на миллион рублей. Больше всего нарушителей — в Воронеже.
В этом году с помощью ИИ планируют проверять здания и помещения: нейросеть станет фиксировать трещины или отсутствие плиточного покрытия. Халатных хозяев будут наказывать.
👩💻Компания Anthropic запускает верификацию личности в Claude.
15 апреля 2026 года Anthropic запустила систему Identity Verification для Claude. Теперь для доступа к отдельным возможностям, оформления подписки Pro/Max или в рамках проверок безопасности пользователям предлагают пройти верификацию личности: загрузить оригинальный документ с фото (паспорт, водительские права или национальное ID) и сделать селфи.
При этом копии, скриншоты, сканы, цифровые удостоверения, студенческие билеты или банковские карты не принимаются — действительны только оригиналы бумажных документов.
Партнёром Anthropic по верификации выбрана компания Persona Identities — тот же поставщик, который предоставляет услуги идентификации для ChatGPT и LinkedIn, однако ранее он был замешан в инцидентах с утечкой данных пользователей Discord.
Anthropic подчёркивает, что данные верификации не будут использоваться для обучения модели, не будут передаваться третьим лицам в маркетинговых или рекламных целях и останутся только между пользователем, Persona и самой Anthropic, если только иное не потребуется по закону.
Важно отметить, что даже после успешного прохождения верификации учётная запись может быть заблокирована при повторных нарушениях правил использования, создании аккаунта в неподдерживаемых регионах (Китай, Россия, Северная Корея, Иран, Сирия, Куба), нарушении условий обслуживания или использовании лицами младше 18 лет.
Эксперты связывают этот шаг с тремя ключевыми факторами: во-первых, это необходимость соблюдения нормативных требований и предотвращения злоупотреблений по мере того, как Claude интегрируется в финансовую инфраструктуру; во-вторых, это способность модели Claude Mythos самостоятельно обнаруживать и использовать системные уязвимости; в-третьих, это стратегическая подготовка к внедрению системы уровней доступа, где разные степени верификации будут открывать доступ к моделям с разными возможностями — аналогично тому, как OpenAI предоставляет доступ к GPT-5.4-Cyber только проверенным специалистам по кибербезопасности.
Распознавание лиц это ключевой фактор для перехода AI-инструментов от анонимного доступа к модели «управляемой инфраструктуры», где каждый пользователь идентифицирован и несёт ответственность за свои действия.
15 апреля 2026 года Anthropic запустила систему Identity Verification для Claude. Теперь для доступа к отдельным возможностям, оформления подписки Pro/Max или в рамках проверок безопасности пользователям предлагают пройти верификацию личности: загрузить оригинальный документ с фото (паспорт, водительские права или национальное ID) и сделать селфи.
При этом копии, скриншоты, сканы, цифровые удостоверения, студенческие билеты или банковские карты не принимаются — действительны только оригиналы бумажных документов.
Партнёром Anthropic по верификации выбрана компания Persona Identities — тот же поставщик, который предоставляет услуги идентификации для ChatGPT и LinkedIn, однако ранее он был замешан в инцидентах с утечкой данных пользователей Discord.
Anthropic подчёркивает, что данные верификации не будут использоваться для обучения модели, не будут передаваться третьим лицам в маркетинговых или рекламных целях и останутся только между пользователем, Persona и самой Anthropic, если только иное не потребуется по закону.
Важно отметить, что даже после успешного прохождения верификации учётная запись может быть заблокирована при повторных нарушениях правил использования, создании аккаунта в неподдерживаемых регионах (Китай, Россия, Северная Корея, Иран, Сирия, Куба), нарушении условий обслуживания или использовании лицами младше 18 лет.
Эксперты связывают этот шаг с тремя ключевыми факторами: во-первых, это необходимость соблюдения нормативных требований и предотвращения злоупотреблений по мере того, как Claude интегрируется в финансовую инфраструктуру; во-вторых, это способность модели Claude Mythos самостоятельно обнаруживать и использовать системные уязвимости; в-третьих, это стратегическая подготовка к внедрению системы уровней доступа, где разные степени верификации будут открывать доступ к моделям с разными возможностями — аналогично тому, как OpenAI предоставляет доступ к GPT-5.4-Cyber только проверенным специалистам по кибербезопасности.
Распознавание лиц это ключевой фактор для перехода AI-инструментов от анонимного доступа к модели «управляемой инфраструктуры», где каждый пользователь идентифицирован и несёт ответственность за свои действия.
👮♂️Незаконный оборот криптовалюты в России предложили наказывать лишением свободы.
Незаконный оборот криптовалюты в России предложили наказывать лишением свободы на срок до семи лет, следует из поправок в Уголовный кодекс, которые рассматривались на правительственной комиссии по законопроектной деятельности.
Уголовный кодекс предлагается дополнить ст. 171.7 (незаконная организация обращения цифровой валюты). Она предусматривает «ответственность за деятельность по организации оборота цифровой валюты без регистрации или лицензии Банка России», следует из документа.
«Обязательный признак — общественно опасное последствие в виде причинения крупного ущерба (или извлечение дохода в крупном размере)».
За незаконную организацию оборота крипты в крупном размере предлагается наказывать:
- либо штрафом в размере 100–300 тыс. руб. или дохода осужденного за один два года;
- либо принудительными работами сроком до четырех лет;
- либо лишением свободы сроком до четырех лет со штрафом в размере до 80 тыс. руб. или в размере дохода осужденного за период до шести месяцев или без такового.
За организацию незаконного оборота крипты в особо крупном размере и в составе организованной группы санкции более серьезные: нарушителям может грозить до семи лет лишения свободы со штрафом в размере до 1 млн руб. или в размере дохода осужденного в течение пяти лет. Статья предусматривает также наказание в виде принудительных работ сроком до пяти лет.
Под крупным в новой статье о незаконном обороте крипты будет подразумеваться ущерб от 3,5 млн руб., под особо крупным — от 13 млн руб., следует из текста проекта.
Законопроект предполагает, что поправки в Уголовный кодекс вступят в силу с 1 июля 2027 года.
Незаконный оборот криптовалюты в России предложили наказывать лишением свободы на срок до семи лет, следует из поправок в Уголовный кодекс, которые рассматривались на правительственной комиссии по законопроектной деятельности.
Уголовный кодекс предлагается дополнить ст. 171.7 (незаконная организация обращения цифровой валюты). Она предусматривает «ответственность за деятельность по организации оборота цифровой валюты без регистрации или лицензии Банка России», следует из документа.
«Обязательный признак — общественно опасное последствие в виде причинения крупного ущерба (или извлечение дохода в крупном размере)».
За незаконную организацию оборота крипты в крупном размере предлагается наказывать:
- либо штрафом в размере 100–300 тыс. руб. или дохода осужденного за один два года;
- либо принудительными работами сроком до четырех лет;
- либо лишением свободы сроком до четырех лет со штрафом в размере до 80 тыс. руб. или в размере дохода осужденного за период до шести месяцев или без такового.
За организацию незаконного оборота крипты в особо крупном размере и в составе организованной группы санкции более серьезные: нарушителям может грозить до семи лет лишения свободы со штрафом в размере до 1 млн руб. или в размере дохода осужденного в течение пяти лет. Статья предусматривает также наказание в виде принудительных работ сроком до пяти лет.
Под крупным в новой статье о незаконном обороте крипты будет подразумеваться ущерб от 3,5 млн руб., под особо крупным — от 13 млн руб., следует из текста проекта.
Законопроект предполагает, что поправки в Уголовный кодекс вступят в силу с 1 июля 2027 года.
💻Применение экспериментальных правовых режимов будет упрощено.
Госдума приняла в первом чтении законопроект, расширяющий возможности внедрения экспериментальных правовых режимов (ЭПР) в сфере цифровых и технологических инноваций.
Предполагается, что это позволит запустить регуляторные песочницы для проектов с применением искусственного интеллекта (ИИ) в тех областях, где «общее» регулирование пока отсутствует. Также проектом увеличивается максимальный срок действия ЭПР с трех до пяти лет.
По действующим правилам создавать ЭПР можно лишь в тех отраслях, где есть общее регулирование, создающее препятствия для инноваций, так называемый правовой барьер. Законопроект расширяет возможности создания ЭПР для неотрегулированных отраслей, как раз исключая условие о наличии такого барьера.
Сейчас это требование, отмечается в пояснительной записке, сдерживает возможности применения ИИ. Разработчики, вынужденные действовать в условиях неопределенности и правовой незащищенности, ограничивают широкое внедрение новых технологий из-за риска признания их незаконными.
Среди других принятых изменений — увеличение максимального срока действия ЭПР с трех до пяти лет, что должно позволить в полной мере пройти все этапы тестирования новых технологий и при необходимости разработать профильное регулирование для повсеместного внедрения таких решений.
Также законопроект предусматривает для участников ЭПР возможность выходить из эксперимента по собственному мотивированному обращению.
Госдума приняла в первом чтении законопроект, расширяющий возможности внедрения экспериментальных правовых режимов (ЭПР) в сфере цифровых и технологических инноваций.
Предполагается, что это позволит запустить регуляторные песочницы для проектов с применением искусственного интеллекта (ИИ) в тех областях, где «общее» регулирование пока отсутствует. Также проектом увеличивается максимальный срок действия ЭПР с трех до пяти лет.
По действующим правилам создавать ЭПР можно лишь в тех отраслях, где есть общее регулирование, создающее препятствия для инноваций, так называемый правовой барьер. Законопроект расширяет возможности создания ЭПР для неотрегулированных отраслей, как раз исключая условие о наличии такого барьера.
Сейчас это требование, отмечается в пояснительной записке, сдерживает возможности применения ИИ. Разработчики, вынужденные действовать в условиях неопределенности и правовой незащищенности, ограничивают широкое внедрение новых технологий из-за риска признания их незаконными.
Среди других принятых изменений — увеличение максимального срока действия ЭПР с трех до пяти лет, что должно позволить в полной мере пройти все этапы тестирования новых технологий и при необходимости разработать профильное регулирование для повсеместного внедрения таких решений.
Также законопроект предусматривает для участников ЭПР возможность выходить из эксперимента по собственному мотивированному обращению.
⚖️Верховный суд использовал ИИ для подготовки разъяснений.
Искусственный интеллект использовался в работе над проектом нового постановления пленума Верховного суда России о подготовке гражданских дел к судебному разбирательству, сообщил судья ВС РФ Вячеслав Горшков.
Пленум Верховного суда под руководством Игоря Краснова во вторник отправил проект нового постановления о подготовке гражданских дел к судебному разбирательству на доработку в редакционную комиссию. Документ должен будет заменить предыдущее постановление по данному вопросу, которое было утверждено пленумом в 2008 году.
"Предлагаемый проект обновлен по отношению к постановлению пленума 2008 года более чем на 82%... При работе над постановлением использовался искусственный интеллект для сбора и обработки информации", - сказал Горшков на пленуме.
Он отметил, что разъяснения из действующего постановления пленума длительное время использовались судами при рассмотрения гражданских дел, доказывая свою востребованность.
Искусственный интеллект использовался в работе над проектом нового постановления пленума Верховного суда России о подготовке гражданских дел к судебному разбирательству, сообщил судья ВС РФ Вячеслав Горшков.
Пленум Верховного суда под руководством Игоря Краснова во вторник отправил проект нового постановления о подготовке гражданских дел к судебному разбирательству на доработку в редакционную комиссию. Документ должен будет заменить предыдущее постановление по данному вопросу, которое было утверждено пленумом в 2008 году.
"Предлагаемый проект обновлен по отношению к постановлению пленума 2008 года более чем на 82%... При работе над постановлением использовался искусственный интеллект для сбора и обработки информации", - сказал Горшков на пленуме.
Он отметил, что разъяснения из действующего постановления пленума длительное время использовались судами при рассмотрения гражданских дел, доказывая свою востребованность.
⚖️Элитная юридическая фирма Sullivan & Cromwell признала в суде «галлюцинации» ИИ.
Юридическая фирма Sullivan & Cromwell (S&C) сообщила федеральному суду по банкротствам США, что в одном из документов по делу компании Prince Group, глава которой обвиняется в мошенничестве, содержались многочисленные ошибки, допущенные ИИ.
Представитель фирмы Эндрю Дитердерих в письме, направленном федеральному судье Нью-Йорка, извинился за ошибки, включая неверное цитирование Кодекса о банкротстве США и неправильные ссылки на судебные решения.
Он заявил, что компания глубоко сожалеет о случившемся, добавив, что при подготовке документа не были соблюдены внутренние правила S&C по использованию ИИ, и сейчас рассматривается необходимость «дальнейшего совершенствования» систем обучения и процедур проверки. В письме не уточняется, какие именно юристы готовили документы и работают ли они до сих пор в фирме.
Ошибки обнаружила юридическая фирма Boies Schiller Flexner, представляющая интересы Prince Group: она указала, что некоторые цитаты на законодательство не совпадают с содержанием источников, суть некоторых упомянутых судебных процессов искажена, а некоторых дел, на которые ссылается S&C, в принципе не существует.
Юридическая фирма Sullivan & Cromwell (S&C) сообщила федеральному суду по банкротствам США, что в одном из документов по делу компании Prince Group, глава которой обвиняется в мошенничестве, содержались многочисленные ошибки, допущенные ИИ.
Представитель фирмы Эндрю Дитердерих в письме, направленном федеральному судье Нью-Йорка, извинился за ошибки, включая неверное цитирование Кодекса о банкротстве США и неправильные ссылки на судебные решения.
Он заявил, что компания глубоко сожалеет о случившемся, добавив, что при подготовке документа не были соблюдены внутренние правила S&C по использованию ИИ, и сейчас рассматривается необходимость «дальнейшего совершенствования» систем обучения и процедур проверки. В письме не уточняется, какие именно юристы готовили документы и работают ли они до сих пор в фирме.
Ошибки обнаружила юридическая фирма Boies Schiller Flexner, представляющая интересы Prince Group: она указала, что некоторые цитаты на законодательство не совпадают с содержанием источников, суть некоторых упомянутых судебных процессов искажена, а некоторых дел, на которые ссылается S&C, в принципе не существует.
💻Anthropic объявила о запуске новых «коннекторов».
Теперь Claude можно подключать к Booking.com, Spotify, StubHub, TripAdvisor, Uber, Uber Eats и Viator, и другим сервисам. Это позволяет Claude не просто давать советы, а взаимодействовать с приложениями напрямую.
Claude самостоятельно предлагает подходящее приложение для выполнения конкретной задачи, например, для поиска бронирования, добавления товара в корзину или определения рейса. Он работает на основе предоставленных вами данных: ваших предпочтений, контекста и диалога.
Anthropic подчеркивает, что на платформе Claude нет рекламы, а в диалогах с Claude нет платных размещений или спонсируемых ответов. Если под запрос подходят несколько приложений, Claude сортирует их по степени полезности.
Перед финальным действием, например бронированием или покупкой Claude попросит подтверждения.
Коннекторы доступны во всех тарифных планах. Полный список коннекторов на сайте claude.ai/directory/connectors.
Теперь Claude можно подключать к Booking.com, Spotify, StubHub, TripAdvisor, Uber, Uber Eats и Viator, и другим сервисам. Это позволяет Claude не просто давать советы, а взаимодействовать с приложениями напрямую.
Claude самостоятельно предлагает подходящее приложение для выполнения конкретной задачи, например, для поиска бронирования, добавления товара в корзину или определения рейса. Он работает на основе предоставленных вами данных: ваших предпочтений, контекста и диалога.
Anthropic подчеркивает, что на платформе Claude нет рекламы, а в диалогах с Claude нет платных размещений или спонсируемых ответов. Если под запрос подходят несколько приложений, Claude сортирует их по степени полезности.
Перед финальным действием, например бронированием или покупкой Claude попросит подтверждения.
Коннекторы доступны во всех тарифных планах. Полный список коннекторов на сайте claude.ai/directory/connectors.
👮♂️Уголовное расследование в отношении OpenAI и ChatGPT начато во Флориде.
Генеральный прокурор Флориды Джеймс Утмайер заявил, что начинает уголовное расследование в отношении компании OpenAI и ее приложения искусственного интеллекта ChatGPT в связи со стрельбой, в результате которой погибли два человека.
«Чат-бот консультировал стрелка о том, какой тип оружия использовать, какие боеприпасы подходят к какому оружию и будет ли оружие полезно на короткой дистанции», — сказал Утмайер на пресс-конференции.
В Прокуратуре заявили, что расследование определит, «несет ли OpenAI уголовную ответственность за действия ChatGPT во время стрельбы». Компании OpenAI направлена повестка с требованием предоставить информацию и документы.
Представительница OpenAI заявила СМИ, что стрельба — это трагедия, но компания не несет за нее ответственности. Она добавила, что, узнав об инциденте, OpenAI выявила учетную запись, предположительно связанную с подозреваемым, и «заблаговременно передала эту информацию правоохранительным органам».
«В данном случае ChatGPT предоставил фактические ответы на вопросы, основанные на информации, которую можно найти в общедоступных источниках в интернете, и не поощрял и не пропагандировал незаконную или вредоносную деятельность», заявила представительница OpenAI.
Генеральный прокурор Флориды Джеймс Утмайер заявил, что начинает уголовное расследование в отношении компании OpenAI и ее приложения искусственного интеллекта ChatGPT в связи со стрельбой, в результате которой погибли два человека.
«Чат-бот консультировал стрелка о том, какой тип оружия использовать, какие боеприпасы подходят к какому оружию и будет ли оружие полезно на короткой дистанции», — сказал Утмайер на пресс-конференции.
В Прокуратуре заявили, что расследование определит, «несет ли OpenAI уголовную ответственность за действия ChatGPT во время стрельбы». Компании OpenAI направлена повестка с требованием предоставить информацию и документы.
Представительница OpenAI заявила СМИ, что стрельба — это трагедия, но компания не несет за нее ответственности. Она добавила, что, узнав об инциденте, OpenAI выявила учетную запись, предположительно связанную с подозреваемым, и «заблаговременно передала эту информацию правоохранительным органам».
«В данном случае ChatGPT предоставил фактические ответы на вопросы, основанные на информации, которую можно найти в общедоступных источниках в интернете, и не поощрял и не пропагандировал незаконную или вредоносную деятельность», заявила представительница OpenAI.
💻Законопроект о регулировании ИИ претерпел значительные изменения.
В Законопроект, который разрабатывает Минцифры внесены доработки.
Ключевая новация, заметная по документу, заключается в изменении и уточнении требований к национальным и суверенным моделям ИИ. Если ранее требовалась полная локализация - чтобы модель была создана исключительно гражданами России, на российской территории и из данных российского происхождения, то теперь достаточно, чтобы разработчик был российским юрлицом и сам определял и изменял существенные характеристики. Таким образом, фокус переносится с "происхождения модели" на контроль над ключевой технологией.
Скорректирована и ст. 8, которая ранее требовала, чтобы все модели, используемые в государственных системах и критической инфраструктуре, были включены в реестр доверенных моделей. Теперь в нем прописаны только большие фундаментальные модели, только в значимых объектах критической инфраструктуры и государственных информационных системах, что выводит из под угрозы коммерческую часть рынка.
Скорректировано требование оказывать услуги без использования ИИ при наличии такого запроса. Теперь оно направлено только на госорганы и приравненными к ним структуры. Это требование не распространяется на коммерческие организации.
Из документа исключен пункт 10.3, подпункт "г", отсылающий к обязанностям организаторов распространения информации. Речь шла о том, что ИИ-сервисы с суточной аудиторией более 500 тыс. человек обяжут хранить на территории РФ информацию о пользователях в течение трех лет. Кроме того, исключены пункты об ограничениях трансграничной передачи данных ИИ. Именно на основе этих пунктов экспертами строились гипотезы о возможном запрете в России иностранных моделей, таких как ChatGPT или Claude.
Еще один большой блок касается маркировки контента, созданного нейросетями. Речь в первую очередь идет о дипфейках, но и о любом другом генеративном контенте, размещенном в Сети. Как видно из обновленной ст.12, из нее исчезло требование о том, что маркировка такого контента должна размещаться в формате, "воспринимаемом человеком и машиночитаемом формате". В новой версии речь идет только о машиночитаемой маркировке.
В то же время в документе появились и новации. Так в ст.7, которая значительно упрощена в том, что касается определения "национальности" модели, появился пункт 2.3, который гласит, что суверенные и национальные модели должны "пройти подтверждение соответствия законодательству Российской Федерации и традиционным духовно-нравственным ценностям".
Ожидается, что финальная версия законопроекта будет внесена в Госдуму до окончания весенней сессии.
В Законопроект, который разрабатывает Минцифры внесены доработки.
Ключевая новация, заметная по документу, заключается в изменении и уточнении требований к национальным и суверенным моделям ИИ. Если ранее требовалась полная локализация - чтобы модель была создана исключительно гражданами России, на российской территории и из данных российского происхождения, то теперь достаточно, чтобы разработчик был российским юрлицом и сам определял и изменял существенные характеристики. Таким образом, фокус переносится с "происхождения модели" на контроль над ключевой технологией.
Скорректирована и ст. 8, которая ранее требовала, чтобы все модели, используемые в государственных системах и критической инфраструктуре, были включены в реестр доверенных моделей. Теперь в нем прописаны только большие фундаментальные модели, только в значимых объектах критической инфраструктуры и государственных информационных системах, что выводит из под угрозы коммерческую часть рынка.
Скорректировано требование оказывать услуги без использования ИИ при наличии такого запроса. Теперь оно направлено только на госорганы и приравненными к ним структуры. Это требование не распространяется на коммерческие организации.
Из документа исключен пункт 10.3, подпункт "г", отсылающий к обязанностям организаторов распространения информации. Речь шла о том, что ИИ-сервисы с суточной аудиторией более 500 тыс. человек обяжут хранить на территории РФ информацию о пользователях в течение трех лет. Кроме того, исключены пункты об ограничениях трансграничной передачи данных ИИ. Именно на основе этих пунктов экспертами строились гипотезы о возможном запрете в России иностранных моделей, таких как ChatGPT или Claude.
Еще один большой блок касается маркировки контента, созданного нейросетями. Речь в первую очередь идет о дипфейках, но и о любом другом генеративном контенте, размещенном в Сети. Как видно из обновленной ст.12, из нее исчезло требование о том, что маркировка такого контента должна размещаться в формате, "воспринимаемом человеком и машиночитаемом формате". В новой версии речь идет только о машиночитаемой маркировке.
В то же время в документе появились и новации. Так в ст.7, которая значительно упрощена в том, что касается определения "национальности" модели, появился пункт 2.3, который гласит, что суверенные и национальные модели должны "пройти подтверждение соответствия законодательству Российской Федерации и традиционным духовно-нравственным ценностям".
Ожидается, что финальная версия законопроекта будет внесена в Госдуму до окончания весенней сессии.
💵Правительство одобрило введение НДФЛ для операций с цифровой валютой.
Правкомиссия по законопроектной деятельности одобрила инициативу о введении НДФЛ на доходы от операций с цифровой валютой.
Законопроект предусматривает внесение изменений в ст. 41 Налогового кодекса. Налогом на доходы физлиц будут облагаться все операции с цифровой валютой, включая ее обмен. Поправки должны синхронизировать действующее законодательство с новым законом «О цифровой валюте и цифровых правах».
Теперь убытки от сделок с криптовалютой нельзя будет перенести на будущие периоды, а учет расходов предлагается вести по методу ФИФО (по стоимости первых по времени приобретений).
Законопроект также предлагает освободить от НДС услуги цифровых депозитариев и криптообменников, реализацию «беспоставочных» иностранных цифровых прав.
Правкомиссия по законопроектной деятельности одобрила инициативу о введении НДФЛ на доходы от операций с цифровой валютой.
Законопроект предусматривает внесение изменений в ст. 41 Налогового кодекса. Налогом на доходы физлиц будут облагаться все операции с цифровой валютой, включая ее обмен. Поправки должны синхронизировать действующее законодательство с новым законом «О цифровой валюте и цифровых правах».
Теперь убытки от сделок с криптовалютой нельзя будет перенести на будущие периоды, а учет расходов предлагается вести по методу ФИФО (по стоимости первых по времени приобретений).
Законопроект также предлагает освободить от НДС услуги цифровых депозитариев и криптообменников, реализацию «беспоставочных» иностранных цифровых прав.
⚖️Российские компании судятся с сотрудниками, делавшими работу с помощью ИИ.
В России уже появились споры вокруг работ, выполненных с помощью ИИ. Компании пытаются взыскать убытки за плохой результат, но суды чаще смотрят на договор и качество приёмки. Если работодатель не запретил использование ИИ в трудовом договоре, должностной инструкции или задании, а потом принял работу, оспорить оплату становится сложнее. Заказчик платит за результат, а не за количество ручного труда исполнителя.
Согласно исследованиям: 45% россиян уже точечно используют ИИ на работе, 36% применяют нейросети очень активно, ещё шесть процентов планируют начать. Только 15% респондентов работают с моделью, настроенной внутри компании. Чаще всего ИИ поручают тексты, поиск и систематизацию данных, креативные задачи, дизайн, видео и презентации. Сотрудники признают, что нейросеть закрывает примерно 30% работы на начальном этапе, а дальше материал всё равно приходится доводить вручную.
Юристы видят отдельный риск в генерации изображений в стиле конкретных художников или фотографов, чьи работы защищены авторским правом. После публикации компания может столкнуться с претензиями и исками. В России уже были попытки оспорить оплату услуг из-за использования ИИ: истцы ссылались на подготовку стратегии нейросетью, пытались оспорить судебную экспертизу или отказывались возмещать расходы за документы, созданные через юридическую платформу с элементами ИИ. Суды во всех случаях отклонили доводы, потому что оценивали качество результата, а не инструмент исполнителя.
Самым опасным направлением эксперты называют юридические документы. Предприниматели и сотрудники пытаются заменять юристов чат-ботами, но получают тексты со ссылками на недостоверные материалы, несуществующие нормы и дела, не связанные с реальным спором. В одном примере досудебную претензию по банкротству пришлось вручную проверять дольше, чем занял бы самостоятельный поиск информации. Похожая проблема возникла при подготовке обращения в ведомство: текст выглядел убедительно, но содержал выдуманные нормы и слабую аргументацию.
В России уже появились споры вокруг работ, выполненных с помощью ИИ. Компании пытаются взыскать убытки за плохой результат, но суды чаще смотрят на договор и качество приёмки. Если работодатель не запретил использование ИИ в трудовом договоре, должностной инструкции или задании, а потом принял работу, оспорить оплату становится сложнее. Заказчик платит за результат, а не за количество ручного труда исполнителя.
Согласно исследованиям: 45% россиян уже точечно используют ИИ на работе, 36% применяют нейросети очень активно, ещё шесть процентов планируют начать. Только 15% респондентов работают с моделью, настроенной внутри компании. Чаще всего ИИ поручают тексты, поиск и систематизацию данных, креативные задачи, дизайн, видео и презентации. Сотрудники признают, что нейросеть закрывает примерно 30% работы на начальном этапе, а дальше материал всё равно приходится доводить вручную.
Юристы видят отдельный риск в генерации изображений в стиле конкретных художников или фотографов, чьи работы защищены авторским правом. После публикации компания может столкнуться с претензиями и исками. В России уже были попытки оспорить оплату услуг из-за использования ИИ: истцы ссылались на подготовку стратегии нейросетью, пытались оспорить судебную экспертизу или отказывались возмещать расходы за документы, созданные через юридическую платформу с элементами ИИ. Суды во всех случаях отклонили доводы, потому что оценивали качество результата, а не инструмент исполнителя.
Самым опасным направлением эксперты называют юридические документы. Предприниматели и сотрудники пытаются заменять юристов чат-ботами, но получают тексты со ссылками на недостоверные материалы, несуществующие нормы и дела, не связанные с реальным спором. В одном примере досудебную претензию по банкротству пришлось вручную проверять дольше, чем занял бы самостоятельный поиск информации. Похожая проблема возникла при подготовке обращения в ведомство: текст выглядел убедительно, но содержал выдуманные нормы и слабую аргументацию.