Интересно наблюдать, как мир по-разному реагирует на одно и то же явление.
Обе стороны действуют логично. Одни боятся потерять контроль над процессом обучения. Другие — понимают, что запрет не остановит, и делают ставку на адаптацию.
ИИ уже не вопрос выбора — он просто здесь.
И теперь всё зависит от того, будем ли мы пытаться его ограничивать или учиться жить с ним осознанно.
🇺🇸 В Нью-Йорке школы запрещают домашние эссе и требуют писать их вручную — чтобы исключить помощь ChatGPT.
🇪🇪 А в Эстонии школьникам, наоборот, выдают личные ИИ-аккаунты и учат использовать модели для учёбы и проектной работы.
Обе стороны действуют логично. Одни боятся потерять контроль над процессом обучения. Другие — понимают, что запрет не остановит, и делают ставку на адаптацию.
ИИ уже не вопрос выбора — он просто здесь.
И теперь всё зависит от того, будем ли мы пытаться его ограничивать или учиться жить с ним осознанно.
👍4💯3❤1
Искусственный интеллект на страже конфиденциальности: CaseGuard Studio прокладывает путь
CaseGuard Studio разработала инновационное решение для автоматического редактирования данных, которое ставит безопасность личной информации на первое место. Эта система использует ИИ для автоматизированного скрытия чувствительных данных в видео и изображениях, что особенно актуально для правоохранительных органов, юридических учреждений и бизнеса.
С внедрением таких технологий становятся возможными более прозрачные процессы, при этом соблюдается закон о защите данных. Это может значительно упростить подход к обработке информации. 🚀
Artificial Intelligence Archives
#новости
CaseGuard Studio разработала инновационное решение для автоматического редактирования данных, которое ставит безопасность личной информации на первое место. Эта система использует ИИ для автоматизированного скрытия чувствительных данных в видео и изображениях, что особенно актуально для правоохранительных органов, юридических учреждений и бизнеса.
С внедрением таких технологий становятся возможными более прозрачные процессы, при этом соблюдается закон о защите данных. Это может значительно упростить подход к обработке информации. 🚀
Artificial Intelligence Archives
#новости
Forwarded from EFEMERA: AI news (Вова Казаков)
Отчёт State of AI Report 2025
Раскрывают шесть аспектов:
✦ Научные исследования
✦ Промышленность
✦ Политика (регулирование, экономические последствия)
✦ Безопасность
✦ Результаты опроса
✦ Прогнозы на сл. 12 месяцев
Ключевое:
✦ OpenAI остаётся лидером, но Китай активно сокращает отрыв с DeepSeek, Qwen, Kimi и др.
✦ Также Китай активно развивая открытые модели, что значительно влияет на рынок
✦ Бизнес, связанный с ИИ, достиг годового дохода около $20 млрд
✦ В США 44 % компаний начали платить за ИИ-инструменты, средний контракт составляет $530 000
✦ Опрос среди 1200+ специалистов показал, что 95 % используют ИИ на работе и дома (76 % платят из собственного кармана)
✦ Безопасность остается острой проблемой: «галлюцинации» моделей, манипуляции с поведением и мошенничество через ИИ
✦ В образовании и трудовом рынке ИИ вызывает перемены: сокращение начальных рабочих мест и рост спроса на переквалификацию
✦ Индурстриальная эпоха ИИ требует развития мегадата-центров, при этом энергия становится ключевым ресурсом
✦ Политика ИИ становится более жесткой, обсуждаются новые подходы к безопасности, прозрачности и надежности
Ссылки:
⟡ Статья
⟡ Полный отчёт
⟡ Результаты опроса
EFEMERA
Раскрывают шесть аспектов:
✦ Научные исследования
✦ Промышленность
✦ Политика (регулирование, экономические последствия)
✦ Безопасность
✦ Результаты опроса
✦ Прогнозы на сл. 12 месяцев
Ключевое:
✦ OpenAI остаётся лидером, но Китай активно сокращает отрыв с DeepSeek, Qwen, Kimi и др.
✦ Также Китай активно развивая открытые модели, что значительно влияет на рынок
✦ Бизнес, связанный с ИИ, достиг годового дохода около $20 млрд
✦ В США 44 % компаний начали платить за ИИ-инструменты, средний контракт составляет $530 000
✦ Опрос среди 1200+ специалистов показал, что 95 % используют ИИ на работе и дома (76 % платят из собственного кармана)
✦ Безопасность остается острой проблемой: «галлюцинации» моделей, манипуляции с поведением и мошенничество через ИИ
✦ В образовании и трудовом рынке ИИ вызывает перемены: сокращение начальных рабочих мест и рост спроса на переквалификацию
✦ Индурстриальная эпоха ИИ требует развития мегадата-центров, при этом энергия становится ключевым ресурсом
✦ Политика ИИ становится более жесткой, обсуждаются новые подходы к безопасности, прозрачности и надежности
Ссылки:
⟡ Статья
⟡ Полный отчёт
⟡ Результаты опроса
EFEMERA
❤5
Кто-нибудь заметил, что Google поиск теперь выглядит как «Goooooooooogle»?
Как и всегда у Google, интересный дизайн — не просто так. Компания тестирует формат поиска без страниц.
На первый взгляд изменения кажутся косметическими, но на самом деле они системные:
🔹 Исчез параметр num=100. Раньше можно было показывать до 100 результатов на странице — теперь выдача всегда подгружается динамически, без возможности управлять глубиной.
🔹 Ограничивается доступ к данным. SEO-инструментам, аналитикам и нейросетям становится сложнее собирать и анализировать результаты поиска.
Напрашивается вывод: Когда у тебя миллиарды пользователей, даже одно визуальное обновление становится экономическим решением, от которого зависят тысячи бизнесов.
Как и всегда у Google, интересный дизайн — не просто так. Компания тестирует формат поиска без страниц.
На первый взгляд изменения кажутся косметическими, но на самом деле они системные:
Для обычных пользователей это почти незаметно: 95 % людей и так не переходят дальше первой страницы. Но для бизнеса всё изменилось. Раньше место в топ‑20 ещё что-то значило. Теперь — либо ты в первых 5, либо практически вне поля зрения. Reddit уже ощутил это на себе: после последних обновлений алгоритма их трафик просел на миллионы переходов.
Напрашивается вывод: Когда у тебя миллиарды пользователей, даже одно визуальное обновление становится экономическим решением, от которого зависят тысячи бизнесов.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👏5👍2🤔1
🧠 MIT провело исследование: участники, писавшие эссе с помощью ChatGPT, показали самую низкую мозговую активность.
Делюсь с вами самыми интересными наблюдениями:
💡 Но при этом — самый высокий успех был у тех, кто сначала формулировал мысли сам, а уже потом использовал ChatGPT как инструмент.
А значит, дело не в самом ИИ — а в том, в какой момент ты его подключаешь. Сначала подумай сам → потом спроси ИИ.
Делюсь с вами самыми интересными наблюдениями:
1. 83% участников, писавших с ChatGPT, не смогли вспомнить ни одного предложения из своих же текстов. Те, кто писал самостоятельно, такой проблемы не имели.
2. Нейронная активность снизилась почти вдвое — на 47%.
3. После отказа от ИИ активность не восстанавливается сразу. Учёные называют это «умственным долгом» — привычка думать уступает место привычке получать ответ.
4. Тексты с ChatGPT оценивали высоко по форме, но называли “безжизненными” и “плоскими”.
А значит, дело не в самом ИИ — а в том, в какой момент ты его подключаешь. Сначала подумай сам → потом спроси ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7
OpenAI поделилась списком из 30 клиентов, каждый из которых обработал более 1 трлн токенов с помощью своих моделей, предлагая редкий взгляд на то, как Al используется в масштабе.
В список вошли такие компании, как Duolingo, Shopify, Canva, Salesforce, Datadog и Zendesk, и такие стартапы, как Cognition, OpenRouter, CodeRabbit и Harvey.
Некоторые используют GPT для управления внутренними процессами, в то время как другие встроили полноценные модули в свои продукты.
Эти пользователи с триллионами токенов определяют, как Al интегрируется в реальные продукты и услуги по всему миру.
Самое интересное, дали ли эти компании согласие на то, чтобы другие знали, что они в топе по использованию ИИ? 🧐
В список вошли такие компании, как Duolingo, Shopify, Canva, Salesforce, Datadog и Zendesk, и такие стартапы, как Cognition, OpenRouter, CodeRabbit и Harvey.
Некоторые используют GPT для управления внутренними процессами, в то время как другие встроили полноценные модули в свои продукты.
👋 Duolingo использует его для интерактивных уроков.🛒 Shopify помогает продавцам составлять описания продуктов.
Эти пользователи с триллионами токенов определяют, как Al интегрируется в реальные продукты и услуги по всему миру.
Самое интересное, дали ли эти компании согласие на то, чтобы другие знали, что они в топе по использованию ИИ? 🧐
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤1👏1
🔥 Рубрика «Мир иллюзий».
#галлюцинации #ии #Мириллюзий
❓Что именно произошло — по шагам
Адвокат из нью-йоркской фирмы Levidow, Levidow & Oberman попросил ChatGPT «найти прецеденты, подтверждающие возможность продления срока иска против авиакомпании Avianca». Модель уверенно выдала список дел — с названиями, томами и «цитатами» из решений.
1️⃣ Первая галлюцинация.
Меморандум, сданный в суд, содержал шесть дел, которых не существовало в базах Westlaw и LexisNexis. На требование суда предоставить копии адвокат представил pdf-файлы, также сгенерированные ИИ — со стилем юридических документов, печатями и вымышленными судьями.
2️⃣ Второй запрос и «самоподтверждение».
В переписке с судом адвокат продолжал ссылаться на эти же дела, полагая, что ошибка в «базе данных». Модель в новом чате воспроизвела те же названия, усилив иллюзию достоверности. Суд установил: «Каждое процитированное решение — фальшивка».
🤖 Почему это работает на модели.
LLM обучена создавать правдоподобные тексты, а не проверять истинность фактов. Юридический стиль — сжатые формулы, номера, шаблон цитирования — чрезвычайно предсказуем. Модель «знает», как выглядит типичный судебный документ, и воссоздаёт его форму, не проверяя содержание. Исследования Stanford HAI показывают: даже специализированные юридические LLM галлюцинируют в 15–20 % запросов без внешней валидации.
💎 Откуда взялась сама история.
Дело Mata v. Avianca рассматривалось в 2023 году в SDNY. Судья Кастел 22 июня 2023 года вынес Opinion and Order on Sanctions: штраф $5000 и обязанность уведомить судей, упомянутых в вымышленных решениях. Этот документ стал первым юридическим прецедентом наказания за использование LLM без проверки.
⚙️ Разбор механики
— Это не «ошибка поиска», а оптимизация: модель предпочитает связанный юридический текст с цитатами вместо честного «не найдено».
— Контекстная контаминация. Как только в диалоге закрепился вымышленный прецедент, модель продолжает на него опираться — аналог «ложной памяти» в когнитивной психологии.
— Последствия. Реальные санкции, официальное решение суда и публичное обсуждение — пример того, как симуляция знания превращается в юридическую ответственность.
🔗 Источники и ссылки
Официальный документ:
Opinion and Order on Sanctions по делу Mata v. Avianca (SDNY, Judge P. Kevin Castel, 22 June 2023).
Репортаж о санкциях:
Reuters: “US Judge Sanctions Lawyers Who Used ChatGPT for Fake Legal Citations” (23 June 2023).
Сводка и архив дела:
CourtListener — полный список документов по Mata v. Avianca.
Обзор Stanford Law:
Stanford CodeX Blog: “Rule 11 and the Rise of AI-Assisted Lawyering” (2024).
Справка по делу:
Wikipedia — Mata v. Avianca, Inc. (описание, даты и суть решения).
#галлюцинации #ии #Мириллюзий
История про дело Mata v. Avianca — хрестоматийный пример юридической галлюцинации LLM: адвокат представил в суд меморандум с не существующими прецедентами, которые ему «подсказал» чат-бот. Судья П. Кевин Кастел (Southern District of New York) провёл слушание, подтвердил фиктивность источников и вынес санкции. Это первый официально задокументированный случай, когда большая языковая модель привела к реальным правовым последствиям.
❓Что именно произошло — по шагам
Адвокат из нью-йоркской фирмы Levidow, Levidow & Oberman попросил ChatGPT «найти прецеденты, подтверждающие возможность продления срока иска против авиакомпании Avianca». Модель уверенно выдала список дел — с названиями, томами и «цитатами» из решений.
1️⃣ Первая галлюцинация.
Меморандум, сданный в суд, содержал шесть дел, которых не существовало в базах Westlaw и LexisNexis. На требование суда предоставить копии адвокат представил pdf-файлы, также сгенерированные ИИ — со стилем юридических документов, печатями и вымышленными судьями.
2️⃣ Второй запрос и «самоподтверждение».
В переписке с судом адвокат продолжал ссылаться на эти же дела, полагая, что ошибка в «базе данных». Модель в новом чате воспроизвела те же названия, усилив иллюзию достоверности. Суд установил: «Каждое процитированное решение — фальшивка».
LLM обучена создавать правдоподобные тексты, а не проверять истинность фактов. Юридический стиль — сжатые формулы, номера, шаблон цитирования — чрезвычайно предсказуем. Модель «знает», как выглядит типичный судебный документ, и воссоздаёт его форму, не проверяя содержание. Исследования Stanford HAI показывают: даже специализированные юридические LLM галлюцинируют в 15–20 % запросов без внешней валидации.
💎 Откуда взялась сама история.
Дело Mata v. Avianca рассматривалось в 2023 году в SDNY. Судья Кастел 22 июня 2023 года вынес Opinion and Order on Sanctions: штраф $5000 и обязанность уведомить судей, упомянутых в вымышленных решениях. Этот документ стал первым юридическим прецедентом наказания за использование LLM без проверки.
⚙️ Разбор механики
— Это не «ошибка поиска», а оптимизация: модель предпочитает связанный юридический текст с цитатами вместо честного «не найдено».
— Контекстная контаминация. Как только в диалоге закрепился вымышленный прецедент, модель продолжает на него опираться — аналог «ложной памяти» в когнитивной психологии.
— Последствия. Реальные санкции, официальное решение суда и публичное обсуждение — пример того, как симуляция знания превращается в юридическую ответственность.
🔗 Источники и ссылки
Официальный документ:
Opinion and Order on Sanctions по делу Mata v. Avianca (SDNY, Judge P. Kevin Castel, 22 June 2023).
Репортаж о санкциях:
Reuters: “US Judge Sanctions Lawyers Who Used ChatGPT for Fake Legal Citations” (23 June 2023).
Сводка и архив дела:
CourtListener — полный список документов по Mata v. Avianca.
Обзор Stanford Law:
Stanford CodeX Blog: “Rule 11 and the Rise of AI-Assisted Lawyering” (2024).
Справка по делу:
Wikipedia — Mata v. Avianca, Inc. (описание, даты и суть решения).
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤2
#технологии #экзоскелет
Это не просто видео. Это момент, когда девушка впервые за 10 лет ощущает, что значит стоять — благодаря роботизированному экзоскелету.
Ее эмоции невозможно подделать — это слезы радости, шока и благодарности. И всё это стало возможным благодаря симбиозу медицины и современных ИИ-технологий!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍3