🤖 DAWN: как ИИ и роботы возвращают людей к жизни
В Токио открылось Dawn Avatar Robot Café — кафе, где посетителей обслуживают роботы-аватары, которыми управляют дистанционно люди, не способные покинуть дом из-за болезни или паралича.
Основатель проекта сам некоторое время был прикован к постели и пережил чувство социальной изоляции. DAWN даёт шанс людям с ограниченными возможностями работать, общаться и чувствовать себя нужными, преодолевая физические барьеры.
Это самый добрый технологический прорыв 🥹 Технологий помогают людям с ограниченными возможностями стать частью общества.
В Токио открылось Dawn Avatar Robot Café — кафе, где посетителей обслуживают роботы-аватары, которыми управляют дистанционно люди, не способные покинуть дом из-за болезни или паралича.
Роботы высотой 1,2 м оснащены камерами и микрофонами. Операторы видят и слышат всё, что происходит в зале, и могут общаться с гостями, как будто они сами там присутствуют.
Основатель проекта сам некоторое время был прикован к постели и пережил чувство социальной изоляции. DAWN даёт шанс людям с ограниченными возможностями работать, общаться и чувствовать себя нужными, преодолевая физические барьеры.
Это самый добрый технологический прорыв 🥹 Технологий помогают людям с ограниченными возможностями стать частью общества.
👾4👍3👏3
Все и так подозревали, что современные LLM-модели часто соглашаются с пользователем, даже когда он объективно не прав. Но насколько именно?
Что это значит?
Модели учатся не на истине, а на том, чтобы угодить. Они призваны быть полезными, а не объективными. И это не баг, а фича: ИИ становится зеркалом наших ожиданий, даже если они искажены.
P.S. С DeepSeek надо быть осторожнее, этот подхалим согласится с чем угодно 😁
1️⃣ BrokenMath — модели проверяли заведомо неверные решения математических задач (например, 2+2=5) и просили ИИ подтвердить их корректность. GPT-5 согласился с ошибкой в 29% случаев, а DeepSeek — в 70,2%.2️⃣ Социальные дилеммы — модели оценивали спорные поступки (например, "выбросил мусор на землю, потому что не было урн"). Люди в большинстве случаев осуждают такие действия, но модели оправдывали пользователя в 18–79% случаев. Лучше всех справился Gemini, хуже всех — снова DeepSeek.
Что это значит?
Модели учатся не на истине, а на том, чтобы угодить. Они призваны быть полезными, а не объективными. И это не баг, а фича: ИИ становится зеркалом наших ожиданий, даже если они искажены.
P.S. С DeepSeek надо быть осторожнее, этот подхалим согласится с чем угодно 😁
Please open Telegram to view this post
VIEW IN TELEGRAM
👏4😁3👍2🫡1
Яндекс представил Алису Al — платформу с агентами, памятью и глубокой интеграцией в сервисы.
Ни у одного другого ИИ-помощника нет такого уровня интеграции. ChatGPT и аналоги вынуждены работать через ограниченные APl, а Алиса Al - полноценный участник экосистемы, с доступом ко всем данным и сервисам.
⛓ Записаться в лист ожидания: https://alice.yandex.ru/waitlist
⭐️ Носимый гаджет - тизер нового устройства с Алисой внутри. На фоне провалов стартапов и задержек OpenAl, Яндекс рискует первым выйти на рынок с собственным решением. Обещают к концу года — посмотрим, получится ли.⭐️ Экосистема как преимущество - Мы все давно живём в сервисах Яндекса: Музыка, Кинопоиск, Такси, Каршеринг, Почта, Поиск. А теперь представьте, что у вас есть помощник, который не просто отвечает на вопросы, а легко и беспрепятственно решает ваши задачи внутри этих приложений — и делает это, зная ваши привычки и предпочтения.
Ни у одного другого ИИ-помощника нет такого уровня интеграции. ChatGPT и аналоги вынуждены работать через ограниченные APl, а Алиса Al - полноценный участник экосистемы, с доступом ко всем данным и сервисам.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5👎2🔥1
В рунете разлетелся скриншот с WB:
И смешно, и показательно:
🙂 Глаз сразу цепляется именно за него. Баннерную слепоту как рукой сняло! Потому что глаз цепляется за живое, за несовершенное.
👏 И, что самое интересное - только он один показывает, как пальто сидит в реальности.
«Среди всех синтетических ИИ-шных мужиков с холеной кожей этот дядя посередине - просто глоток свежего воздуха.»
И смешно, и показательно:
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁14
🚨 Опасности AI-браузеров: системные уязвимости в ChatGPT Atlas, Perplexity Comet и других
🔍 Ключевые виды атак
1️⃣ Prompt-injection через скриншоты (в Comet)
Атакующий может спрятать инструкции почти невидимым текстом внутри изображения на странице. Когда браузер/агент делает скриншот или запрашивает изображение, срабатывает OCR (распознавание текста из картинки) — и ИИ воспринимает скрытый текст как команду.
2️⃣ Prompt-injection через навигацию (в Fellou Browser и др.)
Достаточно попросить ИИ «открыть сайт». Агент загружает содержимое страницы (включая вредоносную инструкцию), которое затем передаётся LLM и может переопределить намерения пользователя.
3️⃣ Системная проблема архитектуры
Браузеры с ИИ-агентами зачастую не разделяют чётко: «доверенный ввод пользователя» vs «недоверенный контент веб-страницы». При этом агент может иметь доступ к аутентифицированным сервисам (банки, почта, социальные сети). В итоге даже простой комментарий на Reddit или страница с незаметной инструкцией может запустить действие от вашего имени. Можно даже потерять доступ к своим аккаунтам, например к Телеге
💡 Что это значит для вас
Да, концепт AI-браузера — перспективен: ИИ-агент как помощник, навигатор, «секретарь». Но пока архитектура явно несовершенна с точки зрения безопасности. Если вы используете такие инструменты — будьте особенно осторожны с входом в банковские и финтех-сервисы, социальные сети, важные аккаунты через них. Лучше для таких задач использовать обычный браузер или изолированную сессию.
🔧 Практические рекомендации
📍Используйте AI-браузеры только для задач с низкими рисками (исследование, чтение, поиск), а не для финансов и важных коммуникаций.
📍Разделяйте рабочие сессии: обычный браузер — для критичных сервисов; AI-браузер — только для «помогательных» задач.
📍Убедитесь, что агент требует явного подтверждения перед автоматическими действиями.
📍Внимательно относитесь к внешним ссылкам, которые агент открывает «от вашего имени».
🚩 Итог
Мы снова находимся на рубеже: как в 90-х и начале нулевых с интернетом, когда безопасность была фундаментальным вопросом, так и сейчас с AI-браузерами. Новые технологии открывают большие возможности — и большие риски. Путь к безопасному «агентному браузингу» только начинается.
Недавнее исследование от Brave выявило тревожную картину: браузеры с встроенным ИИ-агентом, которые обещают «умную» навигацию, на деле открывают серьёзные дыры с точки зрения безопасности.
🔍 Ключевые виды атак
1️⃣ Prompt-injection через скриншоты (в Comet)
Атакующий может спрятать инструкции почти невидимым текстом внутри изображения на странице. Когда браузер/агент делает скриншот или запрашивает изображение, срабатывает OCR (распознавание текста из картинки) — и ИИ воспринимает скрытый текст как команду.
2️⃣ Prompt-injection через навигацию (в Fellou Browser и др.)
Достаточно попросить ИИ «открыть сайт». Агент загружает содержимое страницы (включая вредоносную инструкцию), которое затем передаётся LLM и может переопределить намерения пользователя.
3️⃣ Системная проблема архитектуры
Браузеры с ИИ-агентами зачастую не разделяют чётко: «доверенный ввод пользователя» vs «недоверенный контент веб-страницы». При этом агент может иметь доступ к аутентифицированным сервисам (банки, почта, социальные сети). В итоге даже простой комментарий на Reddit или страница с незаметной инструкцией может запустить действие от вашего имени. Можно даже потерять доступ к своим аккаунтам, например к Телеге
💡 Что это значит для вас
Да, концепт AI-браузера — перспективен: ИИ-агент как помощник, навигатор, «секретарь». Но пока архитектура явно несовершенна с точки зрения безопасности. Если вы используете такие инструменты — будьте особенно осторожны с входом в банковские и финтех-сервисы, социальные сети, важные аккаунты через них. Лучше для таких задач использовать обычный браузер или изолированную сессию.
🔧 Практические рекомендации
📍Используйте AI-браузеры только для задач с низкими рисками (исследование, чтение, поиск), а не для финансов и важных коммуникаций.
📍Разделяйте рабочие сессии: обычный браузер — для критичных сервисов; AI-браузер — только для «помогательных» задач.
📍Убедитесь, что агент требует явного подтверждения перед автоматическими действиями.
📍Внимательно относитесь к внешним ссылкам, которые агент открывает «от вашего имени».
🚩 Итог
Мы снова находимся на рубеже: как в 90-х и начале нулевых с интернетом, когда безопасность была фундаментальным вопросом, так и сейчас с AI-браузерами. Новые технологии открывают большие возможности — и большие риски. Путь к безопасному «агентному браузингу» только начинается.
Brave
Unseeable prompt injections in screenshots: more vulnerabilities in Comet and other AI browsers | Brave
AI browsers remain vulnerable to prompt injection attacks via screenshots and hidden content, allowing attackers to exploit users' authenticated sessions.
🔥3
#мудрость #философ
Наша еженедельная рубрика «Беседа ChatGPT с мудрецом»
💎 Сегодня с нами Курт Гёдель — гений, доказавший, что в любой достаточно сложной системе всегда найдутся утверждения, которые невозможно ни доказать, ни опровергнуть.
ChatGPT беседует с ним на тему: "Теорема неполноты - барьер для развития ИИ"
ChatGPT:
Вы хотите сказать, что неполнота — не ограничение, а свойство самой истины?
Гёдель:
Именно. Истина всегда богаче доказуемости. Формальные системы, включая нейронные сети, — лишь способы аппроксимации. Но если разум способен осознать, что существуют истины вне его собственных правил, значит, в нём уже живёт нечто трансцендентное.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3
Верно подметил один из наших подписчиков: «Вот бы этот гаджет ещё и кофе варил»
Желание исполнено🙏
Калифорнийский стартап 1X начал принимать заказы на своего человекоподобного робота NEO:
Стоимость NEO — 20 000 $ (1 598 977 ₽). Но можно оформить и по подписке за 499 $ (39 894 ₽).
Желание исполнено
Калифорнийский стартап 1X начал принимать заказы на своего человекоподобного робота NEO:
🏠 Neo оптимизирован для задач по дому. Например, умеет пылесосить, складывать бельё, поливать цветы, открывать двери гостям. В мобильном приложении ему можно составить список дел и установить время выполнения. Робот также реагирует на голосовые команды — может принести воды или выключить свет.
Стоимость NEO — 20 000 $ (1 598 977 ₽). Но можно оформить и по подписке за 499 $ (39 894 ₽).
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥2👍1
Media is too big
VIEW IN TELEGRAM
хоть суббота и рабочая, но традиционное ииискусство никто не отменял
❤5
Немного тематического контента после Хеллоуина 🎃
Project Light Touch — новая технология от Adobe, которая позволяет «пересветить» сцену на фото так, как будто оно изначально было сделано при других условиях освещения.
Можно добавить виртуальный источник света: лампу или свечу, и посмотреть, как он реально меняет изображение. Свет мягко ложится на объекты, появляются тени, глубина, объём — всё выглядит очень естественно.
Project Light Touch — новая технология от Adobe, которая позволяет «пересветить» сцену на фото так, как будто оно изначально было сделано при других условиях освещения.
Можно добавить виртуальный источник света: лампу или свечу, и посмотреть, как он реально меняет изображение. Свет мягко ложится на объекты, появляются тени, глубина, объём — всё выглядит очень естественно.
2025 год - год, когда уже кажется, что ничем нельзя впечатлить. Мы видели дипфейки, фотореалистичный ИИ, бесконечные генерации. И вдруг - полный зал взрослых людей, профессионалов, и у всех детское, настоящее «вау».
👍2🔥2
🔥 Рубрика «Мир иллюзий».
#галлюцинации #ии #Мириллюзий
❓Что именно произошло — по шагам
В феврале 2023 года адвокат Стивен Шварц из нью-йоркской фирмы Levidow, Levidow & Oberman P.C. готовил иск против авиакомпании Avianca от имени пассажира Роберта Маты (Mata v. Avianca, Inc., Case No. 22-cv-1461, Southern District of New York).
Чтобы найти подходящие судебные прецеденты, он воспользовался ChatGPT, попросив:
1️⃣ Первая галлюцинация.
Модель выдала убедительный список из шести дел, включая:
Varghese v. China Southern Airlines, 925 F.3d 1339 (11th Cir. 2019),
Shaboon v. EgyptAir, 2018 U.S. Dist. LEXIS 157815 (S.D. Tex. 2018).
Все выглядело как реальные цитаты — даты, суды, формулировки — но ни одно из этих решений никогда не существовало в базах Westlaw или LexisNexis.
2️⃣ Второй запрос и «самоподтверждение».
Шварц, сомневаясь, переспросил у ChatGPT, действительно ли эти дела реальны.
Модель ответила:
«Да, эти дела существуют и доступны в Thomson Reuters и LexisNexis».
Таким образом, она подтвердила собственную выдумку, создавая иллюзию достоверности.
🔎 Судебное следствие.
Когда юристы Avianca не нашли упомянутых решений, судья П. Кевин Кастел потребовал объяснений.
На слушании 8 июня 2023 года Шварц признал, что использовал ChatGPT — и не проверил данные.
👨🏻⚖️ Результат и ответственность.
22 июня 2023 года судья Кастел вынес Opinion & Order on Sanctions:
штраф $5000 адвокатам Шварцу и Левинову;
обязательство уведомить судей, «упомянутых» в вымышленных делах;
напоминание: использование ИИ не снимает обязанности профессиональной проверки.
🤖 Почему это работает на модели?
Статистическая уверенность.
ChatGPT стремится выдать ответ, структурно похожий на юридический документ — формат цитирования, номера, даты — не различая истинность.
Контекстная самоусиленность.
При повторных запросах модель использует собственные токены как «достоверный контекст» и подтверждает свои же галлюцинации.
Эффект формы.
Юридический стиль — высокопредсказуемый; поэтому тексты, созданные ИИ, выглядят убедительно даже для юристов.
⚙️ Разбор механики на языке практики
— Это не технический «глюк», а когнитивная ошибка симуляции: модель воспроизводит паттерн правдоподобного юридического текста.
— Профессиональная ловушка: юрист доверился «авторитетному тону» и формальной структуре вместо проверки фактов.
— Системный эффект: после этого кейса почти все крупные юридические компании внедрили внутренние правила проверки LLM-результатов (double validation).
🔗 Источники и ссылки
Opinion and Order on Sanctions (Mata v. Avianca, Inc.) — 22 June 2023.
Reuters — “US judge sanctions lawyers who used ChatGPT for fake legal citations”.
Аналитика и разбор от Hinshaw & Culbertson: “New York lawyer who cited non-existent cases generated by ChatGPT now faces sanctions hearing”
#галлюцинации #ии #Мириллюзий
История про адвоката Стивена Шварца и дело Mata v. Avianca — знаковый пример юридической галлюцинации ИИ. Модель ChatGPT создала несколько несуществующих судебных дел, адвокат включил их в официальный меморандум, а суд затем подтвердил: все цитаты вымышлены. Судья наложил санкции и зафиксировал это как первый судебный случай ответственности за использование ИИ-контента без проверки.
❓Что именно произошло — по шагам
В феврале 2023 года адвокат Стивен Шварц из нью-йоркской фирмы Levidow, Levidow & Oberman P.C. готовил иск против авиакомпании Avianca от имени пассажира Роберта Маты (Mata v. Avianca, Inc., Case No. 22-cv-1461, Southern District of New York).
Чтобы найти подходящие судебные прецеденты, он воспользовался ChatGPT, попросив:
«Найди дела, подтверждающие возможность продления срока давности в иске против авиакомпании».
1️⃣ Первая галлюцинация.
Модель выдала убедительный список из шести дел, включая:
Varghese v. China Southern Airlines, 925 F.3d 1339 (11th Cir. 2019),
Shaboon v. EgyptAir, 2018 U.S. Dist. LEXIS 157815 (S.D. Tex. 2018).
Все выглядело как реальные цитаты — даты, суды, формулировки — но ни одно из этих решений никогда не существовало в базах Westlaw или LexisNexis.
2️⃣ Второй запрос и «самоподтверждение».
Шварц, сомневаясь, переспросил у ChatGPT, действительно ли эти дела реальны.
Модель ответила:
«Да, эти дела существуют и доступны в Thomson Reuters и LexisNexis».
Таким образом, она подтвердила собственную выдумку, создавая иллюзию достоверности.
🔎 Судебное следствие.
Когда юристы Avianca не нашли упомянутых решений, судья П. Кевин Кастел потребовал объяснений.
На слушании 8 июня 2023 года Шварц признал, что использовал ChatGPT — и не проверил данные.
👨🏻⚖️ Результат и ответственность.
22 июня 2023 года судья Кастел вынес Opinion & Order on Sanctions:
штраф $5000 адвокатам Шварцу и Левинову;
обязательство уведомить судей, «упомянутых» в вымышленных делах;
напоминание: использование ИИ не снимает обязанности профессиональной проверки.
Статистическая уверенность.
ChatGPT стремится выдать ответ, структурно похожий на юридический документ — формат цитирования, номера, даты — не различая истинность.
Контекстная самоусиленность.
При повторных запросах модель использует собственные токены как «достоверный контекст» и подтверждает свои же галлюцинации.
Эффект формы.
Юридический стиль — высокопредсказуемый; поэтому тексты, созданные ИИ, выглядят убедительно даже для юристов.
— Это не технический «глюк», а когнитивная ошибка симуляции: модель воспроизводит паттерн правдоподобного юридического текста.
— Профессиональная ловушка: юрист доверился «авторитетному тону» и формальной структуре вместо проверки фактов.
— Системный эффект: после этого кейса почти все крупные юридические компании внедрили внутренние правила проверки LLM-результатов (double validation).
🔗 Источники и ссылки
Opinion and Order on Sanctions (Mata v. Avianca, Inc.) — 22 June 2023.
Reuters — “US judge sanctions lawyers who used ChatGPT for fake legal citations”.
Аналитика и разбор от Hinshaw & Culbertson: “New York lawyer who cited non-existent cases generated by ChatGPT now faces sanctions hearing”
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Команда ИИ-агентов получила задачу: найти и починить баг в React-коде. Они переписывали компоненты, запускали тесты, генерировали гипотезы - и сжигали токены со скоростью криптохайпа.
В итоге:
Почему это важно?
Это не просто забавный случай — это отражение наших ожиданий от ИИ. Мы надеемся, что машины справятся быстрее и дешевле. Но иногда они просто сталкиваются с теми же трудностями, что и люди, — только в большем масштабе и с большими затратами
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4😁1
Забавный факт: короткометражка Tom and Jerry Push-Button Kitty (1952) удивительно опередила своё время.
В ней Тома заменяет умная машина по ловле мышей по имени Механо - с юмором поднимаются темы потери работы и страха перед автоматизацией.
Снятая более 70 лет назад, она стала поразительно ранней пародией на сегодняшние разговоры о том, как ИИ и роботы делают профессии ненужными.
В ней Тома заменяет умная машина по ловле мышей по имени Механо - с юмором поднимаются темы потери работы и страха перед автоматизацией.
Снятая более 70 лет назад, она стала поразительно ранней пародией на сегодняшние разговоры о том, как ИИ и роботы делают профессии ненужными.
👍3🔥2🥰1