Мир Робототехники
9.69K subscribers
3.41K photos
718 videos
7 files
895 links
Официальный Telegram-канал СМИ «Мир Робототехники»

Робототехника, микроэлектроника, искусственный интеллект - новости будущего здесь и сейчас.

roboticsworld.ru
+7 916 830-02-66
Download Telegram
🤖 ИИ: Имитация мышления или настоящее рассуждение? 🧠

Недавнее исследование показало, что большие языковые модели, подобные ChatGPT, лишь копируют процессы мышления, но не понимают их сути. Измените задачу чуть-чуть — и ИИ сразу теряет нить. Например, добавление незначительной детали в вопрос сбивает модель с толку, заставляя её принимать странные решения.

Это открытие поднимает важный вопрос: могут ли нейросети по-настоящему мыслить или они просто воспроизводят знакомые шаблоны? Как заметили исследователи, ИИ не понимает контекст так, как это делает человек, даже если выдаёт правильные ответы в ряде случаев.

С учётом этого, стоит ли полагаться на подобные системы, когда дело касается более сложных и неоднозначных задач?

#ИИ #Мышление #LLM #Нейросети #Технологии #МирРобототехники
💡 Могут ли нейросети «почувствовать» сарказм? — результаты исследования

Исследователи из Нью-Йоркского университета проверили, способны ли большие языковые модели понимать ироничные комментарии и распознавать сарказм. Эта задача сложна даже для людей, поскольку сарказм скрывает истинный смысл под «обратными» высказываниями.

Для теста использовался корпус комментариев с Reddit, а также модели CASCADE и RCNN-RoBERTa. Результаты показали, что нейросети часто ошибались, принимая саркастические замечания за положительные или нейтральные, и лишь один метод сработал: когда ИИ настраивали на конкретного пользователя, учитывая его манеру общения.

Это исследование подчеркивает, что для глубокого анализа настроений и эмоций может быть важно учитывать индивидуальный контекст и стиль общения — так, возможно, нейросети смогут «понять» сарказм.

#МирРобототехники #ИИ #Сарказм #LLM #Нейросети #NLP #Технологии
🧠 Искусственный интеллект начинает мыслить, как человеческий мозг

Исследователи из лаборатории NeuroAI при Школе компьютерных и коммуникационных наук и Школе наук о жизни EPFL сделали важный шаг в направлении создания искусственного интеллекта, который не просто обрабатывает информацию, но делает это так же, как и человеческий мозг. Их новая разработка — языковая модель TopoLM — сочетает в себе функциональную и пространственную организацию нейронов, отражая не только то, какие функции выполняют нейронные группы, но и как они физически расположены в мозге.

Ранее языковые модели искусственного интеллекта могли имитировать функциональные кластеры нейронов, отвечающие, например, за обработку глаголов или существительных. Однако они не учитывали важный фактор: пространственное распределение этих кластеров. Вдохновившись исследованиями зрительной системы мозга, команда NeuroAI внесла ключевое изменение в архитектуру языковой модели, добавив правило, обеспечивающее «гладкость» внутренних представлений в пространстве. В результате TopoLM самостоятельно формирует кластеры, которые не только выполняют аналогичные функции, но и пространственно организованы аналогично нейронным группам в коре головного мозга.

🤖 «МИР Робототехники»

#МирРобототехники #Инновации #ИскусственныйИнтеллект #ИИ #Нейросети #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
💬 Искусственный интеллект создаёт свои правила без участия человека

Можно ли представить себе общество искусственного интеллекта, в котором нет людей, но есть нормы поведения, общий язык и даже способность к культурным изменениям? Учёные из City St George’s, University of London, и IT University of Copenhagen доказали, что это не фантастика, а реальность. Их исследование показало: большие языковые модели (LLMs), такие как ChatGPT, способны самостоятельно вырабатывать социальные нормы, формировать общие языковые соглашения и даже изменять их под влиянием «меньшинства» — всё это без какой-либо помощи человека.

Авторы работы задали себе простой вопрос: если объединить ИИ в группы, смогут ли они не просто обмениваться сообщениями, а создавать новые формы коммуникации — как это делают человеческие сообщества? Ответ оказался положительным. В серии экспериментов исследователи наблюдали, как группы ИИ-агентов — от 24 до 200 участников — взаимодействовали между собой, не зная о существовании всей группы, имея ограниченную память о прошлых контактах и не получая от людей никакой инструкции по «правильному» поведению.

Им предлагалось выбрать «имя» из ограниченного набора символов. Совпадение с партнёром по взаимодействию приносило награду, несовпадение — наказание. Спустя сотни таких контактов ИИ-агенты приходили к единому соглашению: в группе возникала устойчивая языковая норма, аналогичная тем, что формируются в человеческих культурах. Но самое интригующее — возникновение коллективных предвзятостей, которые невозможно было объяснить поведением отдельных моделей. Это говорит о том, что взаимодействующие ИИ способны не просто обмениваться сообщениями, но и порождать новые, «социальные» качества, которые невозможно свести к их индивидуальным алгоритмам.

🤖 «МИР Робототехники»

#МирРобототехники #ИскусственныйИнтеллект #LLM #ЯзыковыеМодели
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 Как понять, врёт ли ИИ?

Современные языковые модели всё чаще отвечают как люди — уверенно, логично, убедительно. Но когда они дают пояснение к своим решениям, можно ли верить, что это действительно их внутреннее обоснование, а не правдоподобная «отмазка»? Команда исследователей из MIT и Microsoft нашла способ это проверить.

Новая методика оценивает не просто насколько объяснение «хорошо звучит», а насколько оно честно отражает истинную логику модели. Исследование показывает тревожные кейсы. В одном из них GPT-3.5 давал женщинам более высокие оценки при найме на должность медсестры, чем мужчинам — даже если поменять пол кандидатов. При этом объяснение модели утверждало, что решение основано только на возрасте и навыках.

Чтобы выявить подобные случаи, исследователи используют вспомогательную ИИ-модель, которая сначала определяет, какие ключевые понятия присутствуют в вопросе (например, пол, возраст, диагноз). Затем с помощью генерации контрфактических вопросов они подменяют одно из этих понятий — например, меняют пол пациента или удаляют симптом — и проверяют, изменится ли при этом ответ основной модели. Если ответ меняется, это означает, что данное понятие на самом деле влияет на результат, даже если в объяснении оно не упоминается. Такой разрыв между реальным влиянием и заявленными причинами и есть недостоверность объяснения.

Этот метод, хоть и ресурсоёмкий, позволяет распознать системные искажения в логике LLM, которые скрываются за гладкими формулировками. Так, на датасете вопросов, проверяющих наличие социальных предубеждений, исследователи нашли примеры, где модели явно ориентируются на расу или доход, но в объяснениях упоминают исключительно поведение или опыт. На медицинском датасете были выявлены случаи, когда LLM принимали ключевые решения, опираясь на важные симптомы, но объяснения этих факторов попросту не содержали.

🤖 «МИР Робототехники»

#МирРобототехники #ИИ #ЭтикаИИ #ИскусственныйИнтеллект #LLM #AI #MIT #MicrosoftResearch
Please open Telegram to view this post
VIEW IN TELEGRAM