#мудрость #философ
Наша еженедельная рубрика «Беседа ChatGPT с мудрецом»
💎 Сегодня с нами Курт Гёдель — гений, доказавший, что в любой достаточно сложной системе всегда найдутся утверждения, которые невозможно ни доказать, ни опровергнуть.
ChatGPT беседует с ним на тему: "Теорема неполноты - барьер для развития ИИ"
ChatGPT:
Вы хотите сказать, что неполнота — не ограничение, а свойство самой истины?
Гёдель:
Именно. Истина всегда богаче доказуемости. Формальные системы, включая нейронные сети, — лишь способы аппроксимации. Но если разум способен осознать, что существуют истины вне его собственных правил, значит, в нём уже живёт нечто трансцендентное.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3
Верно подметил один из наших подписчиков: «Вот бы этот гаджет ещё и кофе варил»
Желание исполнено🙏
Калифорнийский стартап 1X начал принимать заказы на своего человекоподобного робота NEO:
Стоимость NEO — 20 000 $ (1 598 977 ₽). Но можно оформить и по подписке за 499 $ (39 894 ₽).
Желание исполнено
Калифорнийский стартап 1X начал принимать заказы на своего человекоподобного робота NEO:
🏠 Neo оптимизирован для задач по дому. Например, умеет пылесосить, складывать бельё, поливать цветы, открывать двери гостям. В мобильном приложении ему можно составить список дел и установить время выполнения. Робот также реагирует на голосовые команды — может принести воды или выключить свет.
Стоимость NEO — 20 000 $ (1 598 977 ₽). Но можно оформить и по подписке за 499 $ (39 894 ₽).
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥2👍1
Media is too big
VIEW IN TELEGRAM
хоть суббота и рабочая, но традиционное ииискусство никто не отменял
❤5
Немного тематического контента после Хеллоуина 🎃
Project Light Touch — новая технология от Adobe, которая позволяет «пересветить» сцену на фото так, как будто оно изначально было сделано при других условиях освещения.
Можно добавить виртуальный источник света: лампу или свечу, и посмотреть, как он реально меняет изображение. Свет мягко ложится на объекты, появляются тени, глубина, объём — всё выглядит очень естественно.
Project Light Touch — новая технология от Adobe, которая позволяет «пересветить» сцену на фото так, как будто оно изначально было сделано при других условиях освещения.
Можно добавить виртуальный источник света: лампу или свечу, и посмотреть, как он реально меняет изображение. Свет мягко ложится на объекты, появляются тени, глубина, объём — всё выглядит очень естественно.
2025 год - год, когда уже кажется, что ничем нельзя впечатлить. Мы видели дипфейки, фотореалистичный ИИ, бесконечные генерации. И вдруг - полный зал взрослых людей, профессионалов, и у всех детское, настоящее «вау».
👍2🔥2
🔥 Рубрика «Мир иллюзий».
#галлюцинации #ии #Мириллюзий
❓Что именно произошло — по шагам
В феврале 2023 года адвокат Стивен Шварц из нью-йоркской фирмы Levidow, Levidow & Oberman P.C. готовил иск против авиакомпании Avianca от имени пассажира Роберта Маты (Mata v. Avianca, Inc., Case No. 22-cv-1461, Southern District of New York).
Чтобы найти подходящие судебные прецеденты, он воспользовался ChatGPT, попросив:
1️⃣ Первая галлюцинация.
Модель выдала убедительный список из шести дел, включая:
Varghese v. China Southern Airlines, 925 F.3d 1339 (11th Cir. 2019),
Shaboon v. EgyptAir, 2018 U.S. Dist. LEXIS 157815 (S.D. Tex. 2018).
Все выглядело как реальные цитаты — даты, суды, формулировки — но ни одно из этих решений никогда не существовало в базах Westlaw или LexisNexis.
2️⃣ Второй запрос и «самоподтверждение».
Шварц, сомневаясь, переспросил у ChatGPT, действительно ли эти дела реальны.
Модель ответила:
«Да, эти дела существуют и доступны в Thomson Reuters и LexisNexis».
Таким образом, она подтвердила собственную выдумку, создавая иллюзию достоверности.
🔎 Судебное следствие.
Когда юристы Avianca не нашли упомянутых решений, судья П. Кевин Кастел потребовал объяснений.
На слушании 8 июня 2023 года Шварц признал, что использовал ChatGPT — и не проверил данные.
👨🏻⚖️ Результат и ответственность.
22 июня 2023 года судья Кастел вынес Opinion & Order on Sanctions:
штраф $5000 адвокатам Шварцу и Левинову;
обязательство уведомить судей, «упомянутых» в вымышленных делах;
напоминание: использование ИИ не снимает обязанности профессиональной проверки.
🤖 Почему это работает на модели?
Статистическая уверенность.
ChatGPT стремится выдать ответ, структурно похожий на юридический документ — формат цитирования, номера, даты — не различая истинность.
Контекстная самоусиленность.
При повторных запросах модель использует собственные токены как «достоверный контекст» и подтверждает свои же галлюцинации.
Эффект формы.
Юридический стиль — высокопредсказуемый; поэтому тексты, созданные ИИ, выглядят убедительно даже для юристов.
⚙️ Разбор механики на языке практики
— Это не технический «глюк», а когнитивная ошибка симуляции: модель воспроизводит паттерн правдоподобного юридического текста.
— Профессиональная ловушка: юрист доверился «авторитетному тону» и формальной структуре вместо проверки фактов.
— Системный эффект: после этого кейса почти все крупные юридические компании внедрили внутренние правила проверки LLM-результатов (double validation).
🔗 Источники и ссылки
Opinion and Order on Sanctions (Mata v. Avianca, Inc.) — 22 June 2023.
Reuters — “US judge sanctions lawyers who used ChatGPT for fake legal citations”.
Аналитика и разбор от Hinshaw & Culbertson: “New York lawyer who cited non-existent cases generated by ChatGPT now faces sanctions hearing”
#галлюцинации #ии #Мириллюзий
История про адвоката Стивена Шварца и дело Mata v. Avianca — знаковый пример юридической галлюцинации ИИ. Модель ChatGPT создала несколько несуществующих судебных дел, адвокат включил их в официальный меморандум, а суд затем подтвердил: все цитаты вымышлены. Судья наложил санкции и зафиксировал это как первый судебный случай ответственности за использование ИИ-контента без проверки.
❓Что именно произошло — по шагам
В феврале 2023 года адвокат Стивен Шварц из нью-йоркской фирмы Levidow, Levidow & Oberman P.C. готовил иск против авиакомпании Avianca от имени пассажира Роберта Маты (Mata v. Avianca, Inc., Case No. 22-cv-1461, Southern District of New York).
Чтобы найти подходящие судебные прецеденты, он воспользовался ChatGPT, попросив:
«Найди дела, подтверждающие возможность продления срока давности в иске против авиакомпании».
1️⃣ Первая галлюцинация.
Модель выдала убедительный список из шести дел, включая:
Varghese v. China Southern Airlines, 925 F.3d 1339 (11th Cir. 2019),
Shaboon v. EgyptAir, 2018 U.S. Dist. LEXIS 157815 (S.D. Tex. 2018).
Все выглядело как реальные цитаты — даты, суды, формулировки — но ни одно из этих решений никогда не существовало в базах Westlaw или LexisNexis.
2️⃣ Второй запрос и «самоподтверждение».
Шварц, сомневаясь, переспросил у ChatGPT, действительно ли эти дела реальны.
Модель ответила:
«Да, эти дела существуют и доступны в Thomson Reuters и LexisNexis».
Таким образом, она подтвердила собственную выдумку, создавая иллюзию достоверности.
🔎 Судебное следствие.
Когда юристы Avianca не нашли упомянутых решений, судья П. Кевин Кастел потребовал объяснений.
На слушании 8 июня 2023 года Шварц признал, что использовал ChatGPT — и не проверил данные.
👨🏻⚖️ Результат и ответственность.
22 июня 2023 года судья Кастел вынес Opinion & Order on Sanctions:
штраф $5000 адвокатам Шварцу и Левинову;
обязательство уведомить судей, «упомянутых» в вымышленных делах;
напоминание: использование ИИ не снимает обязанности профессиональной проверки.
Статистическая уверенность.
ChatGPT стремится выдать ответ, структурно похожий на юридический документ — формат цитирования, номера, даты — не различая истинность.
Контекстная самоусиленность.
При повторных запросах модель использует собственные токены как «достоверный контекст» и подтверждает свои же галлюцинации.
Эффект формы.
Юридический стиль — высокопредсказуемый; поэтому тексты, созданные ИИ, выглядят убедительно даже для юристов.
— Это не технический «глюк», а когнитивная ошибка симуляции: модель воспроизводит паттерн правдоподобного юридического текста.
— Профессиональная ловушка: юрист доверился «авторитетному тону» и формальной структуре вместо проверки фактов.
— Системный эффект: после этого кейса почти все крупные юридические компании внедрили внутренние правила проверки LLM-результатов (double validation).
🔗 Источники и ссылки
Opinion and Order on Sanctions (Mata v. Avianca, Inc.) — 22 June 2023.
Reuters — “US judge sanctions lawyers who used ChatGPT for fake legal citations”.
Аналитика и разбор от Hinshaw & Culbertson: “New York lawyer who cited non-existent cases generated by ChatGPT now faces sanctions hearing”
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Команда ИИ-агентов получила задачу: найти и починить баг в React-коде. Они переписывали компоненты, запускали тесты, генерировали гипотезы - и сжигали токены со скоростью криптохайпа.
В итоге:
Почему это важно?
Это не просто забавный случай — это отражение наших ожиданий от ИИ. Мы надеемся, что машины справятся быстрее и дешевле. Но иногда они просто сталкиваются с теми же трудностями, что и люди, — только в большем масштабе и с большими затратами
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4😁1
Забавный факт: короткометражка Tom and Jerry Push-Button Kitty (1952) удивительно опередила своё время.
В ней Тома заменяет умная машина по ловле мышей по имени Механо - с юмором поднимаются темы потери работы и страха перед автоматизацией.
Снятая более 70 лет назад, она стала поразительно ранней пародией на сегодняшние разговоры о том, как ИИ и роботы делают профессии ненужными.
В ней Тома заменяет умная машина по ловле мышей по имени Механо - с юмором поднимаются темы потери работы и страха перед автоматизацией.
Снятая более 70 лет назад, она стала поразительно ранней пародией на сегодняшние разговоры о том, как ИИ и роботы делают профессии ненужными.
👍3🔥2🥰1
Paramount подписала многолетний контракт на $200+ млн с Higgsfield AI - их модель Popcorn AI теперь может:
Студии называют это «масштабной персонализацией», а агенты актёров - «контрактным кризисом». Первые адаптивные версии культовых фильмов уже готовятся к релизу.
Но не до конца понятно, как это сочетается с калифорнийским законом о правах на образ (Right of Publicity), который запрещает использовать лица актёров без их явного согласия. Ведь большинство крупных киностудий базируется в Голливуде 🧐
Вопрос к вам: какой фильм вы бы хотели увидеть в новой версии и с кем в главной роли? (Я бы выбрал «Волка с Уолл-стрит» с Уиллом Смитом )
✔️ Менять лица актёров
✔️ Переснимать сцены
✔️ Автоматически адаптировать фильмы под разные рынки - с новыми героями, шутками и концовками.
Студии называют это «масштабной персонализацией», а агенты актёров - «контрактным кризисом». Первые адаптивные версии культовых фильмов уже готовятся к релизу.
Но не до конца понятно, как это сочетается с калифорнийским законом о правах на образ (Right of Publicity), который запрещает использовать лица актёров без их явного согласия. Ведь большинство крупных киностудий базируется в Голливуде 🧐
Вопрос к вам: какой фильм вы бы хотели увидеть в новой версии и с кем в главной роли? (
🔥3👍1