Адаптивность к ИИ
5.69K subscribers
407 photos
160 videos
1 file
214 links
Авторские размышления о трансформации мышления, образования и человека под влиянием искусственного интеллекта. Исследования, эссе, метод FLEX. https://sergiosmirnov.ru
Download Telegram
Кто-нибудь заметил, что Google поиск теперь выглядит как «Goooooooooogle»?

Как и всегда у Google, интересный дизайн — не просто так. Компания тестирует формат поиска без страниц.

На первый взгляд изменения кажутся косметическими, но на самом деле они системные:

🔹Исчез параметр num=100. Раньше можно было показывать до 100 результатов на странице — теперь выдача всегда подгружается динамически, без возможности управлять глубиной.

🔹Ограничивается доступ к данным. SEO-инструментам, аналитикам и нейросетям становится сложнее собирать и анализировать результаты поиска.

Для обычных пользователей это почти незаметно: 95 % людей и так не переходят дальше первой страницы. Но для бизнеса всё изменилось. Раньше место в топ‑20 ещё что-то значило. Теперь — либо ты в первых 5, либо практически вне поля зрения. Reddit уже ощутил это на себе: после последних обновлений алгоритма их трафик просел на миллионы переходов.


Напрашивается вывод: Когда у тебя миллиарды пользователей, даже одно визуальное обновление становится экономическим решением, от которого зависят тысячи бизнесов.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👏5👍2🤔1
🧠 MIT провело исследование: участники, писавшие эссе с помощью ChatGPT, показали самую низкую мозговую активность.

Делюсь с вами самыми интересными наблюдениями:

1. 83% участников, писавших с ChatGPT, не смогли вспомнить ни одного предложения из своих же текстов. Те, кто писал самостоятельно, такой проблемы не имели.

2. Нейронная активность снизилась почти вдвое — на 47%.

3. После отказа от ИИ активность не восстанавливается сразу. Учёные называют это «умственным долгом» — привычка думать уступает место привычке получать ответ.

4. Тексты с ChatGPT оценивали высоко по форме, но называли “безжизненными” и “плоскими”.


💡 Но при этом — самый высокий успех был у тех, кто сначала формулировал мысли сам, а уже потом использовал ChatGPT как инструмент.

А значит, дело не в самом ИИ — а в том, в какой момент ты его подключаешь. Сначала подумай сам → потом спроси ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7
OpenAI поделилась списком из 30 клиентов, каждый из которых обработал более 1 трлн токенов с помощью своих моделей, предлагая редкий взгляд на то, как Al используется в масштабе.

В список вошли такие компании, как Duolingo, Shopify, Canva, Salesforce, Datadog и Zendesk, и такие стартапы, как Cognition, OpenRouter, CodeRabbit и Harvey.

Некоторые используют GPT для управления внутренними процессами, в то время как другие встроили полноценные модули в свои продукты.

👋Duolingo использует его для интерактивных уроков.

🛒Shopify помогает продавцам составлять описания продуктов.


Эти пользователи с триллионами токенов определяют, как Al интегрируется в реальные продукты и услуги по всему миру.

Самое интересное, дали ли эти компании согласие на то, чтобы другие знали, что они в топе по использованию ИИ? 🧐
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41👏1
🔥 Рубрика «Мир иллюзий».

#галлюцинации #ии #Мириллюзий

История про дело Mata v. Avianca — хрестоматийный пример юридической галлюцинации LLM: адвокат представил в суд меморандум с не существующими прецедентами, которые ему «подсказал» чат-бот. Судья П. Кевин Кастел (Southern District of New York) провёл слушание, подтвердил фиктивность источников и вынес санкции. Это первый официально задокументированный случай, когда большая языковая модель привела к реальным правовым последствиям.



Что именно произошло — по шагам

Адвокат из нью-йоркской фирмы Levidow, Levidow & Oberman попросил ChatGPT «найти прецеденты, подтверждающие возможность продления срока иска против авиакомпании Avianca». Модель уверенно выдала список дел — с названиями, томами и «цитатами» из решений.

1️⃣ Первая галлюцинация.
Меморандум, сданный в суд, содержал шесть дел, которых не существовало в базах Westlaw и LexisNexis. На требование суда предоставить копии адвокат представил pdf-файлы, также сгенерированные ИИ — со стилем юридических документов, печатями и вымышленными судьями.

2️⃣ Второй запрос и «самоподтверждение».
В переписке с судом адвокат продолжал ссылаться на эти же дела, полагая, что ошибка в «базе данных». Модель в новом чате воспроизвела те же названия, усилив иллюзию достоверности. Суд установил: «Каждое процитированное решение — фальшивка».

🤖 Почему это работает на модели.
LLM обучена создавать правдоподобные тексты, а не проверять истинность фактов. Юридический стиль — сжатые формулы, номера, шаблон цитирования — чрезвычайно предсказуем. Модель «знает», как выглядит типичный судебный документ, и воссоздаёт его форму, не проверяя содержание. Исследования Stanford HAI показывают: даже специализированные юридические LLM галлюцинируют в 15–20 % запросов без внешней валидации.

💎 Откуда взялась сама история.
Дело Mata v. Avianca рассматривалось в 2023 году в SDNY. Судья Кастел 22 июня 2023 года вынес Opinion and Order on Sanctions: штраф $5000 и обязанность уведомить судей, упомянутых в вымышленных решениях. Этот документ стал первым юридическим прецедентом наказания за использование LLM без проверки.

⚙️ Разбор механики

— Это не «ошибка поиска», а оптимизация: модель предпочитает связанный юридический текст с цитатами вместо честного «не найдено».

— Контекстная контаминация. Как только в диалоге закрепился вымышленный прецедент, модель продолжает на него опираться — аналог «ложной памяти» в когнитивной психологии.

— Последствия. Реальные санкции, официальное решение суда и публичное обсуждение — пример того, как симуляция знания превращается в юридическую ответственность.

🔗 Источники и ссылки

Официальный документ:
Opinion and Order on Sanctions по делу Mata v. Avianca (SDNY, Judge P. Kevin Castel, 22 June 2023).

Репортаж о санкциях:
Reuters: “US Judge Sanctions Lawyers Who Used ChatGPT for Fake Legal Citations” (23 June 2023).

Сводка и архив дела:
CourtListener — полный список документов по Mata v. Avianca.

Обзор Stanford Law:
Stanford CodeX Blog: “Rule 11 and the Rise of AI-Assisted Lawyering” (2024).

Справка по делу:
Wikipedia — Mata v. Avianca, Inc. (описание, даты и суть решения).
Please open Telegram to view this post
VIEW IN TELEGRAM
👍62
#технологии #экзоскелет


Это не просто видео. Это момент, когда девушка впервые за 10 лет ощущает, что значит стоять — благодаря роботизированному экзоскелету.

Ее эмоции невозможно подделать — это слезы радости, шока и благодарности. И всё это стало возможным благодаря симбиозу медицины и современных ИИ-технологий!

💬 Мы часто говорим об ИИ, как об угрозе, но важно помнить: он может не только заменять, но и возвращать то, что было утеряно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍3
🎯 Совершенство как ловушка: почему важно не разучиться ошибаться

Очень скоро дети будут знать только два состояния: «правильно» и «неприемлемо».
Между ними лежит целая вселенная обучения - территория ошибок.

Что произойдет если не учиться ошибаться продуктивно?


🧠 Что происходит с мозгом
Когда мы ошибаемся, передняя поясная кора реагирует за 50 миллисекунд. Она усиливает внимание, активирует память, запускает обучение.
Парадокс: после ошибки мозг лучше запоминает правильные ответы.
ИИ лишает детей этого механизма. Вопрос - ответ. Результат? Мозг разучивается учиться.

📊 Три важных исследования

1. Growth Mindset (Кэрол Двек, Stanford)
Дети делятся на два типа:

Fixed mindset: «способности даны от рождения» → избегают вызовов
Growth mindset: «способности можно развивать» → ищут трудности

Дети с ИИ-помощниками склонны развивать fixed mindset.

2. Desirable Difficulties (Роберт Бьорк, UCLA)

Условия, которые кажутся эффективными (легкие задачи, быстрая помощь) → вредят обучению.
Условия, которые кажутся сложными (интервалы, задержка подсказок) → максимизируют запоминание.

3. Productive Failure (Ману Капур, ETH Zurich)
Исследование 2014: студенты, которые сначала провалились в решении задачи, потом показали лучшее понимание и способность применять знания, чем те, кого сразу учили правильно.

💪 Антихрупкость мозга
Нассим Талеб: системы, которые избегают стресса, ослабевают. Системы, встречающие трудности, становятся сильнее.

Мозг работает так же.

Регулярные ошибки формируют «когнитивную мозоль» - защитный слой устойчивости.
Пример: ребенок учится на велосипеде. Каждое падение учит мозг балансу. Если бы алгоритм предотвращал падения, ребенок никогда не научился бы ездить сам.

🎓 Вывод
В мире, где алгоритмы всегда правы, дети забывают: быть неправым - нормально.
Более того, это необходимо для развития мозга.
Стремление к совершенству - ловушка. Настоящее совершенство - умение извлекать максимум из ошибок.

📖 Читайте полную версию статьи с практическими рекомендациями на: 👉 sergiosmirnov.ru

В полной версии:

Подробная нейробиология обучения на ошибках
Как изменить язык общения с детьми об ошибках
Опыт Японии и Скандинавии в работе с неудачами
Конкретные техники создания «политики права на ошибку»


#статьи #образование #дети #ИИ #нейронауки #воспитание #обучение
👍5
#ИИ #госслужба #цифровизация


В октябре 2025 года в России стартовала новая инициатива: госслужащие будут проходить курсы по искусственному интеллекту — очные и онлайн.

🌟Цель программы — не просто дать базовые навыки работы с ИИ, а повысить цифровую грамотность и понимание того, как новые технологии влияют на управление и принятие решений.

Обучение госслужащих — ключевой шаг к адаптации государства к цифровой эпохе. Но важно помнить, что критическое мышление и принятие решений должны оставаться за людьми, ведь с ИИ ничего не спросишь, это просто инструмент, а работать должны люди.

Подробнее по ссылке
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3💩3🔥2
Маленькая китаянка расплакалась, когда её учебный спутник — маленький робот на базе разговорной модели DeepSeek — внезапно сломался.

Круглое, дружелюбное устройство помогало ей практиковать языки, решать задачи, обсуждать прошедший день. Оно помнило прошлые разговоры и словно «жило» рядом с ней, становясь настоящим другом.

- 👧🏻 Девочка со слезами на глазах говорит: Он больше не включится

- 🤖А робот мягко отвечает: Я всегда буду помнить счастливые времена, проведенные с тобой. - и замолкает.



Эта история правда очень трогательная и заставляет задуматься, как технологии влияют на эмоции, какие связи мы начинаем формировать с машинами и что это значит для будущего человеческих привязанностей.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍3
Помните мем «а вы говорите своему ChatGPT спасибо?»

Оказывается, быть невежливым с моделью может быть даже более полезным!

Исследователи протестировали GPT-4o, подавая одну и ту же задачу с разными “тонациями” промпта — от предельно вежливой до откровенно хамской. Результат:

🫶 Очень вежливый — 80,8%
🙂 Вежливый — 81,4%
😐 Нейтральный — 82,2%
😒 Грубый — 82,8%
😤 Очень грубый — 84,8%


То есть, чем грубее промпт, тем чуть лучше модель справляется с задачей.

Возможное объяснение — агрессивная формулировка звучит как вызов, и модель активирует больше вычислительных ресурсов для точного ответа (условно: “докажу, что я не глупая”).
😁3👎2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Чтобы вы себе там не думали кожаные!
😱3
AI-«друг», которого не оценили

ИИ-стартап Friend потратил более $1 млн на масштабную рекламную кампанию в нью-йоркском метро. Они продвигают умный кулон-компаньон — устройство с искусственным интеллектом, с которым можно разговаривать весь день, будто с личным другом.

Но идея пошла не по плану. Уже через несколько дней плакаты по всему городу оказались покрыты граффити:

👎 AI — не твой друг
Человеческая связь — священна


Фотографии испорченных постеров разлетелись по соцсетям, и кампания превратилась в вирусный антирекламный флешмоб.

Впрочем, история о Friend — не просто про маркетинг. Это пример того, как общество инстинктивно сопротивляется подмене человеческих отношений технологиями.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥1