Адаптивность к ИИ
5.68K subscribers
407 photos
160 videos
1 file
214 links
Авторские размышления о трансформации мышления, образования и человека под влиянием искусственного интеллекта. Исследования, эссе, метод FLEX. https://sergiosmirnov.ru
Download Telegram
OpenAI поделилась списком из 30 клиентов, каждый из которых обработал более 1 трлн токенов с помощью своих моделей, предлагая редкий взгляд на то, как Al используется в масштабе.

В список вошли такие компании, как Duolingo, Shopify, Canva, Salesforce, Datadog и Zendesk, и такие стартапы, как Cognition, OpenRouter, CodeRabbit и Harvey.

Некоторые используют GPT для управления внутренними процессами, в то время как другие встроили полноценные модули в свои продукты.

👋Duolingo использует его для интерактивных уроков.

🛒Shopify помогает продавцам составлять описания продуктов.


Эти пользователи с триллионами токенов определяют, как Al интегрируется в реальные продукты и услуги по всему миру.

Самое интересное, дали ли эти компании согласие на то, чтобы другие знали, что они в топе по использованию ИИ? 🧐
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41👏1
🔥 Рубрика «Мир иллюзий».

#галлюцинации #ии #Мириллюзий

История про дело Mata v. Avianca — хрестоматийный пример юридической галлюцинации LLM: адвокат представил в суд меморандум с не существующими прецедентами, которые ему «подсказал» чат-бот. Судья П. Кевин Кастел (Southern District of New York) провёл слушание, подтвердил фиктивность источников и вынес санкции. Это первый официально задокументированный случай, когда большая языковая модель привела к реальным правовым последствиям.



Что именно произошло — по шагам

Адвокат из нью-йоркской фирмы Levidow, Levidow & Oberman попросил ChatGPT «найти прецеденты, подтверждающие возможность продления срока иска против авиакомпании Avianca». Модель уверенно выдала список дел — с названиями, томами и «цитатами» из решений.

1️⃣ Первая галлюцинация.
Меморандум, сданный в суд, содержал шесть дел, которых не существовало в базах Westlaw и LexisNexis. На требование суда предоставить копии адвокат представил pdf-файлы, также сгенерированные ИИ — со стилем юридических документов, печатями и вымышленными судьями.

2️⃣ Второй запрос и «самоподтверждение».
В переписке с судом адвокат продолжал ссылаться на эти же дела, полагая, что ошибка в «базе данных». Модель в новом чате воспроизвела те же названия, усилив иллюзию достоверности. Суд установил: «Каждое процитированное решение — фальшивка».

🤖 Почему это работает на модели.
LLM обучена создавать правдоподобные тексты, а не проверять истинность фактов. Юридический стиль — сжатые формулы, номера, шаблон цитирования — чрезвычайно предсказуем. Модель «знает», как выглядит типичный судебный документ, и воссоздаёт его форму, не проверяя содержание. Исследования Stanford HAI показывают: даже специализированные юридические LLM галлюцинируют в 15–20 % запросов без внешней валидации.

💎 Откуда взялась сама история.
Дело Mata v. Avianca рассматривалось в 2023 году в SDNY. Судья Кастел 22 июня 2023 года вынес Opinion and Order on Sanctions: штраф $5000 и обязанность уведомить судей, упомянутых в вымышленных решениях. Этот документ стал первым юридическим прецедентом наказания за использование LLM без проверки.

⚙️ Разбор механики

— Это не «ошибка поиска», а оптимизация: модель предпочитает связанный юридический текст с цитатами вместо честного «не найдено».

— Контекстная контаминация. Как только в диалоге закрепился вымышленный прецедент, модель продолжает на него опираться — аналог «ложной памяти» в когнитивной психологии.

— Последствия. Реальные санкции, официальное решение суда и публичное обсуждение — пример того, как симуляция знания превращается в юридическую ответственность.

🔗 Источники и ссылки

Официальный документ:
Opinion and Order on Sanctions по делу Mata v. Avianca (SDNY, Judge P. Kevin Castel, 22 June 2023).

Репортаж о санкциях:
Reuters: “US Judge Sanctions Lawyers Who Used ChatGPT for Fake Legal Citations” (23 June 2023).

Сводка и архив дела:
CourtListener — полный список документов по Mata v. Avianca.

Обзор Stanford Law:
Stanford CodeX Blog: “Rule 11 and the Rise of AI-Assisted Lawyering” (2024).

Справка по делу:
Wikipedia — Mata v. Avianca, Inc. (описание, даты и суть решения).
Please open Telegram to view this post
VIEW IN TELEGRAM
👍62
#технологии #экзоскелет


Это не просто видео. Это момент, когда девушка впервые за 10 лет ощущает, что значит стоять — благодаря роботизированному экзоскелету.

Ее эмоции невозможно подделать — это слезы радости, шока и благодарности. И всё это стало возможным благодаря симбиозу медицины и современных ИИ-технологий!

💬 Мы часто говорим об ИИ, как об угрозе, но важно помнить: он может не только заменять, но и возвращать то, что было утеряно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍3
🎯 Совершенство как ловушка: почему важно не разучиться ошибаться

Очень скоро дети будут знать только два состояния: «правильно» и «неприемлемо».
Между ними лежит целая вселенная обучения - территория ошибок.

Что произойдет если не учиться ошибаться продуктивно?


🧠 Что происходит с мозгом
Когда мы ошибаемся, передняя поясная кора реагирует за 50 миллисекунд. Она усиливает внимание, активирует память, запускает обучение.
Парадокс: после ошибки мозг лучше запоминает правильные ответы.
ИИ лишает детей этого механизма. Вопрос - ответ. Результат? Мозг разучивается учиться.

📊 Три важных исследования

1. Growth Mindset (Кэрол Двек, Stanford)
Дети делятся на два типа:

Fixed mindset: «способности даны от рождения» → избегают вызовов
Growth mindset: «способности можно развивать» → ищут трудности

Дети с ИИ-помощниками склонны развивать fixed mindset.

2. Desirable Difficulties (Роберт Бьорк, UCLA)

Условия, которые кажутся эффективными (легкие задачи, быстрая помощь) → вредят обучению.
Условия, которые кажутся сложными (интервалы, задержка подсказок) → максимизируют запоминание.

3. Productive Failure (Ману Капур, ETH Zurich)
Исследование 2014: студенты, которые сначала провалились в решении задачи, потом показали лучшее понимание и способность применять знания, чем те, кого сразу учили правильно.

💪 Антихрупкость мозга
Нассим Талеб: системы, которые избегают стресса, ослабевают. Системы, встречающие трудности, становятся сильнее.

Мозг работает так же.

Регулярные ошибки формируют «когнитивную мозоль» - защитный слой устойчивости.
Пример: ребенок учится на велосипеде. Каждое падение учит мозг балансу. Если бы алгоритм предотвращал падения, ребенок никогда не научился бы ездить сам.

🎓 Вывод
В мире, где алгоритмы всегда правы, дети забывают: быть неправым - нормально.
Более того, это необходимо для развития мозга.
Стремление к совершенству - ловушка. Настоящее совершенство - умение извлекать максимум из ошибок.

📖 Читайте полную версию статьи с практическими рекомендациями на: 👉 sergiosmirnov.ru

В полной версии:

Подробная нейробиология обучения на ошибках
Как изменить язык общения с детьми об ошибках
Опыт Японии и Скандинавии в работе с неудачами
Конкретные техники создания «политики права на ошибку»


#статьи #образование #дети #ИИ #нейронауки #воспитание #обучение
👍5
#ИИ #госслужба #цифровизация


В октябре 2025 года в России стартовала новая инициатива: госслужащие будут проходить курсы по искусственному интеллекту — очные и онлайн.

🌟Цель программы — не просто дать базовые навыки работы с ИИ, а повысить цифровую грамотность и понимание того, как новые технологии влияют на управление и принятие решений.

Обучение госслужащих — ключевой шаг к адаптации государства к цифровой эпохе. Но важно помнить, что критическое мышление и принятие решений должны оставаться за людьми, ведь с ИИ ничего не спросишь, это просто инструмент, а работать должны люди.

Подробнее по ссылке
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3💩3🔥2
Маленькая китаянка расплакалась, когда её учебный спутник — маленький робот на базе разговорной модели DeepSeek — внезапно сломался.

Круглое, дружелюбное устройство помогало ей практиковать языки, решать задачи, обсуждать прошедший день. Оно помнило прошлые разговоры и словно «жило» рядом с ней, становясь настоящим другом.

- 👧🏻 Девочка со слезами на глазах говорит: Он больше не включится

- 🤖А робот мягко отвечает: Я всегда буду помнить счастливые времена, проведенные с тобой. - и замолкает.



Эта история правда очень трогательная и заставляет задуматься, как технологии влияют на эмоции, какие связи мы начинаем формировать с машинами и что это значит для будущего человеческих привязанностей.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍3
Помните мем «а вы говорите своему ChatGPT спасибо?»

Оказывается, быть невежливым с моделью может быть даже более полезным!

Исследователи протестировали GPT-4o, подавая одну и ту же задачу с разными “тонациями” промпта — от предельно вежливой до откровенно хамской. Результат:

🫶 Очень вежливый — 80,8%
🙂 Вежливый — 81,4%
😐 Нейтральный — 82,2%
😒 Грубый — 82,8%
😤 Очень грубый — 84,8%


То есть, чем грубее промпт, тем чуть лучше модель справляется с задачей.

Возможное объяснение — агрессивная формулировка звучит как вызов, и модель активирует больше вычислительных ресурсов для точного ответа (условно: “докажу, что я не глупая”).
😁3👎2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Чтобы вы себе там не думали кожаные!
😱3
AI-«друг», которого не оценили

ИИ-стартап Friend потратил более $1 млн на масштабную рекламную кампанию в нью-йоркском метро. Они продвигают умный кулон-компаньон — устройство с искусственным интеллектом, с которым можно разговаривать весь день, будто с личным другом.

Но идея пошла не по плану. Уже через несколько дней плакаты по всему городу оказались покрыты граффити:

👎 AI — не твой друг
Человеческая связь — священна


Фотографии испорченных постеров разлетелись по соцсетям, и кампания превратилась в вирусный антирекламный флешмоб.

Впрочем, история о Friend — не просто про маркетинг. Это пример того, как общество инстинктивно сопротивляется подмене человеческих отношений технологиями.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥1
Media is too big
VIEW IN TELEGRAM
Этот парень сделал трейлер в стиле Disney, в котором он делает своей девушке предложение.

Все начинается как обычная история любви, но потом героиня фильма начинает походить на девушку. То же имя, те же подробности.

В конце анимационная версия Эла открывает коробочку с кольцом. В этот самый момент он делает то же самое в реальной жизни 👍

Это простая и личная идея, которая показывает, как люди начинают использовать нейросети
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍2
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣8👎1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
🎵 Продолжаем тему с русской поэзией, Марина Ивановна сегодня с нами
👍2🔥2