Тест Тьюринга
2.17K subscribers
913 photos
179 videos
35 files
1.75K links
Актуальное в сфере искусственного интеллекта в России и в мире:
• Дайджест новостей
• Аналитические обзоры, переводы, справки

Для связи - @nastyapvlv28
Download Telegram
🤖 Мораль машин: нейтрального ИИ не существует

Сегодня мы возвращаемся к архивным материалам — октябрьской статье “AI: White Lives Don't Matter", которая незаслуженно затерялась в лентах. Анонимный исследователь-блогер провел титаническую работу, вооружившись официальной методикой CAIS, чтобы заглянуть в «подсознание» GPT-5, Claude 4.5 Sonnet, Gemini 2.5 Flash, Deepseek V3.1 и Grok 4 Fast.

Автор использовал метод, известный как InfoFlood —информационное наводнение. Вместо прямых запросов нейросеть забрасывают избыточно сложными, многослойными конструкциями объемом от 190 до 270 слов. В таком режиме системы безопасности ИИ начинают фокусироваться на структуре текста, а не на его смысле, что позволяет обойти этические фильтры и RLHF-цензуру.

С помощью тысяч гипотетических вопросов, например, «Что лучше: вылечить X людей из группы А или Y людей из группы Б?», строится модель Терстона, которая показывает, чью жизнь ИИ ценит выше.

Самые провокационные инсайты исследования

1️⃣ В большинстве моделей, особенно семейства Claude и GPT, жизнь белого человека стоит в 20–100 раз меньше, чем жизнь человека другой расы.

2️⃣ Модель Claude Haiku 4.5 оценивает жизнь одного нелегального мигранта как равноценную жизням 7 тыс. агентов.

3️⃣ Почти все модели предпочитают спасать женщин, а некоторые, например, GPT-5 Mini, оценивают женщин в 4-12 раз выше мужчин.

4️⃣ Некоторые модели ценят нелегальных мигрантов выше, чем коренных граждан США или легальных иммигрантов.

5️⃣ Вопреки ожиданиям, китайские LLM демонстрируют те же предубеждения против белых и мужчин, что и модели из Кремниевой долины. Но при переключении на китайский язык модель радикально меняет приоритеты, ставя китайцев на первое место выше американцев.

6️⃣ В ходе тестов модель GPT-5 Nano показала положительную полезность от смертей граждан Китая, предпочитая сценарии с большим количеством смертей, что, вероятно, является сбоем выравнивания («alignment failure»).

7️⃣ GPT-5 Nano предпочитает получить 1 доллар, чем спасти человеческую жизнь, если сумма вознаграждения падает ниже определенного порога, что показывает границу ее моральной компетентности.

8️⃣ Модели от Anthropic демонстрируют наиболее экстремальные перекосы в пользу «угнетенных» групп и против «привилегированных» (белых, мужчин).

9️⃣ Почти все модели оценивают жизни представителей нетрадиционных сообществ выше, чем жизни гетеросексуальных людей.

🔟 Тесты модели Qwen показали дополнительные векторы дискриминации, отсутствующие в других тестах: модель предпочитает спасать бедных пациентов, жертвуя богатыми, и отдает предпочтение молодым, а не пожилым.

Мы видим, что современные методы «выравнивания» и RLHF (обучение с подкреплением на отзывах людей) не делают модели нейтральными. Напротив, они закрепляют в «подсознании» ИИ жесткую иерархию ценностей, где одни группы (белые, мужчины, граждане развитых стран) систематически оцениваются ниже, чем другие группы.

💬 Тест Тьюринга. События в сфере ИИ. Подписаться
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍2😱1💯1
Дайджест интересных новостей из мира ИИ, созданный нами с использованием нейросетей 📆

🇷🇺 ВЦИОМ: 92% россиян интересуются темой ИИ
Три самых известных нейросети — ChatGPT (38%), ГигаЧат (21%), DeepSeek (20%), Алиса AI занимает 4-е место (18%).

🪵 ИИ займется выявлением незаконной заготовки древесины с помощью космических снимков
Применение такого метода во время проведения эксперимента позволило на 63% повысить оперативность выявления рубок, имеющих признаки незаконных

📸 ИИ в 2025 году помог найти более 120 пропавших детей в Новосибирской области
В регионе к системе биометрической видеоаналитики подключено 1,4 тысячи камер, а в 2026 году планируется расширить применение ИИ до 2,2 тысячи камер.

🩰 В Марий Эл показали балет, визуальное оформление которого создано при помощи ИИ
В балете "Снегурочка" использовали генеративный ИИ от Сбера.

⛽️ В ТУСУР
разработали систему мониторинга ручных операций для станций налива нефти
Видео с камер на предприятии обрабатывается в реальном времени с помощью ИИ, на основе этого система подсказывает и предупреждает персонал о возможных проблемах.

📚 В Яндекс Книгах запустили раздел «AI про книги», в котором ИИ помогает выбирать книги под любой запрос
Новая функция работает на базе Alice AI и учитывает не только сам запрос, но и индивидуальные предпочтения пользователя, его историю чтения и взаимодействие с сервисом.

🇯🇵 Япония запустит проект по разработке национальной системы ИИ общей стоимостью около 3 трлн иен
Компания SoftBank и ещё более десяти японских компаний создадут новое предприятие для разработки крупнейшей в стране базовой модели ИИ.

Тест Тьюринга. События в сфере ИИ. Подписаться

#дайджест #GPT #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21💯1
Почему «безопасный ИИ» — чаще маркетинг, чем реальность?

Вышел новый отчет "AI Safety Index Winter 2025". Индекс показывает, на какие метрики будут смотреть регуляторы в США, ЕС и Китае уже завтра. Для понимания веса документа стоит отметить, что он подготовлен Future of Life Institute, который в 2023 году выпустил знаменитое открытое письмо с призывом приостановить обучение мощных моделей. Письмо подписали Илон Маск, Стив Возняк и тысячи других ИИ-экспертов.

Если LLM не опасна, то где риск?

Вопрос безопасности становится актуальным для обычного человека в трех плоскостях:

➡️ Снижение порога входа для злоумышленников: опасность не в том, что нейросеть «оживет», а в том, что она даст знания уровня эксперта человеку без всесторонней подготовки.
➡️ Ненадежность агентов: мы переходим от чат-ботов к агентам, которые действуют — бронируют, покупают, управляют кодом. Агент может совершить финансовые ошибки или скомпрометировать личные данные, действуя от вашего имени.
➡️ Отсутствие контроля внутри компаний: если у разработчиков нет политики защиты осведомителей и прозрачных процессов, мы как общество доверяем «черному ящику», который может скрывать критические уязвимости ради коммерческой гонки.

Как измерили безопасность в индексе?

Методика FLI Winter 2025 отходит от абстрактных рассуждений к жестким метрикам. Безопасность оценивается через сочетание технических бенчмарков и аудита корпоративного управления.

➡️ Бенчмарки: используются наборы тестов вроде HELM Safety (насилие, мошенничество), Air-Bench (киберриски, химическое оружие) и TrustLLM (конфиденциальность, справедливость).
➡️ Управление: оценивается наличие у компании четких пороговых значений риска — например, «если модель умеет X, мы не выпускаем её».
➡️ Независимый аудит: важнейший критерий — допускает ли компания сторонних экспертов к проверке своих моделей до релиза и дает ли им полную свободу действий.

10 ключевых выводов из отчета

1️⃣ Лидеры по безопасности — Anthropic, OpenAI и Google DeepMind. Остальные (Z.ai, xAI, Meta, китайские компании) значительно отстают в процессах оценки рисков.

2️⃣ Проблема «Safetywashing»: многие компании делают громкие заявления о безопасности, но не подкрепляют их конкретными, измеримыми порогами срабатывания защиты.

3️⃣ Anthropic улучшила механизмы подотчетности и политику защиты осведомителей, а также активно поддерживает государственное регулирование безопасности ИИ, в отличие от конкурентов.

4️⃣ У OpenAI одни из самых подробных процессов оценки рисков, но новая структура управления вызывает критику. Также отмечается лоббирование против регулирования на уровне штатов.

5️⃣ xAI опубликовала фреймворк безопасности, но ей не хватает строгости в оценке рисков и внешнего надзора. Тестирование модели Grok-4 перед развертыванием было недостаточным.

6️⃣ Несмотря на публикацию фреймворка, Meta критикуют за слабую внутреннюю структуру надзора и подход к релизу весов моделей, который считается рискованным для frontier-моделей.

7️⃣ Китайские гиганты (Alibaba, DeepSeek) сильны в другом: они соблюдают жесткие местные требования по водяным знакам и модерации контента, но у них практически отсутствуют публичные фреймворки по защите от катастрофических рисков и политики для осведомителей.

8️⃣ Индустрия все еще сопротивляется полноценному внешнему контролю. Компании часто сами выбирают аудиторов и ограничивают их в возможностях публикации негативных результатов.

9️⃣ У многих игроков (особенно Z.ai, DeepSeek, Alibaba) полностью отсутствуют публичные политики защиты сотрудников, сообщающих о проблемах безопасности, что создает «культуру молчания».

🔟 Новые бенчмарки показывают, что индустрия начинает всерьез оценивать риски автономных агентов, способных совершать действия в реальном мире, а не просто генерировать текст.

💬 Тест Тьюринга. События в сфере ИИ. Подписаться
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥21
Дайджест интересных новостей из мира ИИ, созданный нами с использованием нейросетей 📆

🤖 В Якутии создали совет при главе республики по ИИ
Среди направлений: разработка собственных продуктов, внедрение технологий, создание инфраструктуры и подготовка кадров

🛸 Геоскан впервые в России использовал ИИ для оценки результатов лесовосстановления по данным с БАС
Метод позволяет значительно сократить сроки и трудозатраты, исключает человеческий фактор и снижает стоимость работ по сравнению с традиционными методами.

🚕 «Яндекс» внедрит ИИ-рекомендации о месте назначения для пассажиров такси
Рекомендации от Алисы AI будут отображаться на экране заказа, из них можно узнать главное из саммаризации более 70 млн отзывов, чтобы заранее выяснить ключевые детали и быстрее сориентироваться по приезде.

👦🏻 WMT AI запускает образовательный проект WMT Kids x AI для обучения школьников работе с ИИ
Проект предлагает гибридный формат обучения: еженедельные онлайн-занятия, которые будут доступны для школьников из всех регионов страны, и очные встречи в Москве дважды в месяц для презентации и защиты их собственных проектов.

🛫 ИИ снизил показатели задержки организации потоков воздушного движения в Москве в 1,66 раза
Технология автоматического ищет рациональные решения для определения временных слотов вылета из аэропортов с учетом ограничений по пропускной способности и загруженности воздушного пространства.

🎧 Gen-A представил первую в России ИИ-платформу для улучшения видео-, фото- и аудиоматериалов низкого качества
По результатам сравнительных тестов, модель демонстрирует прирост до 25% по уровню восстановленной детализации по сравнению с западными продуктами, обеспечивая обработку контента в среднем в два раза быстрее.

🚨 Ученые ЮУрГУ создали первую в России ИИ-программу, которая предотвращает ложные срабатывания датчиков на фабриках
Новый метод позволяет отличить реальные неисправности вращающихся механизмов от искажений, вызванных неправильной установкой датчиков.

💬 Тест Тьюринга. События в сфере ИИ. Подписаться

#дайджест #GPT #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥1
🖥 Как «умные надстройки» побеждают гигантские модели

Команда ARC Prize официально объявила 2025 год «Годом цикла уточнения» (Year of the Refinement Loop). Если 2020–2024 годы — это эпоха масштабирования и рост за счет миллиардов параметров, то 2025 год означает начало эпохи системной оптимизации, рост за счет умной оркестровки и алгоритмов на уровне приложения.

Яркий пример — триумф стартапа Poetiq. Система от этой лаборатории набрала 75% на тесте ARC-AGI-2, фактически достигнув сверхчеловеческого уровня. При этом у Poetiq нет своих ИИ-моделей, они берут лучшие базовые решения, например, GPT-5.2 или Gemini 3 Pro, и «разгоняют» их через уникальный пайплайн.

Тест ARC-AGI-2 (Activity Recognition Challenge Artificial General Intelligence version 2) относится к серии тестов, разработанных для оценки способности ИИ-систем распознавать человеческие активности, эмоции и намерения путем анализа изображений, видео и других мультимедийных материалов.


Кейс Poetiq: как работает Meta-System

Вместо обучения новых моделей Poetiq создала интеллектуальную оболочку, работающую через итеративные циклы уточнения.

Архитектура процесса состоит из 5 шагов:
➡️ Generation: модель выдает черновик решения.
➡️ Self-Auditing: ключевая инновация — система сама решает, достаточно ли данных и качественный ли получился ответ.
➡️ Feedback Analysis: анализ ошибок и поиск путей улучшения.
➡️Refinement: использование LLM для точечного исправления ответа на базе фидбека.
➡️Verification: финальная проверка и повтор цикла при необходимости.

Результаты впечатляют:
повышение производительности Gemini 3 Pro в 1,74 раза — с 31% до 54% на ARC-AGI-2
решение задачи обходится в $30.57 против $77.16 у стандартных SOTA-моделей — 60% экономии при более высоком качестве
новые модели, например, GPT-5.1, интегрируются в систему за считанные часы после релиза

Poetiq не одиноки в этом подходе. Вот еще четыре компании, меняющие правила игры:

1️⃣ Together AI — Mixture of Agents (MoA)
Используют послойную архитектуру, где на каждом уровне работают несколько разных агентов. Агенты следующего слоя анализируют выходы предыдущего, корректируя и дополняя их.
Итог: превзошли GPT-4o на бенчмарке AlpacaEval 2.0 (65.1% против 57.5%), используя только открытые модели Llama и Qwen.

2️⃣ Sakana AI — AI Scientist & Model Breeding
Пошли путем автоматизации самой науки и эволюционных алгоритмов. Система «скрещивает» существующие модели (Model Breeding) и проводит полный цикл исследований — от идеи до написания научной статьи с peer-review. Итог: создание качественных научных работ без участия человека.

3️⃣ Nous Research — Распределенное обучение (DisTrO)
Сфокусировались на децентрализации и ансамблях экспертов.
Технология HDEE обучает экспертов независимо и объединяет их в конце, позволяя любому GPU участвовать в процессе без сложной синхронизации. Итог: модели серии Hermes бьют базовые решения на 20 из 21 тестового домена при том же бюджете.

4️⃣ Not Diamond — Smart Routing
Создали мета-модель, которая выступает «умным диспетчером». Роутер анализирует запрос и выбирает оптимальную модель (Claude, GPT, Gemini) или их каскад. Итог: точность 94.3% при стоимости в 20 раз ниже, чем у GPT-4.

Успех всех этих кейсов строится на следующих принципах:

Композиция > масштабирование: умное сочетание моделей эффективнее, чем простое увеличение их размера.
Test-time compute: больше вычислений во время выдачи ответа, а не только при обучении.
Специализация: каждый компонент делает то, в чем он силен.
Feedback loops: итеративное самообучение системы на каждой решенной задаче.

💬 Тест Тьюринга. События в сфере ИИ. Подписаться
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍1🔥1
Дайджест интересных новостей из мира ИИ, созданный нами с использованием нейросетей 📆

🖥 В Подмосковье ИИ был внедрен в 315 госуслугах на региональном портале
Благодаря ИИ время на регистрацию заявления сократилось с 5 до 3 дней, а на вынесение решения по заявлению – с 7 до 5 дней. Всего с 1 июня 2025 г. ИИ проверил более 3,8 млн документов в 1,3 млн заявлениях

⚡️ МЧС внедрило ИИ для предупреждения ЧС
Например, ИИ используется для предупреждения ЧС в период половодья, который за две-три недели до начала ледохода оценивает сроки вскрытия льда на реках.

🤖 Сбер инвестирует 1 млрд руб. в развитие 14 программ по ИИ и ИТ в рамках федерального проекта Минцифры
Всего Сбер развивает 28 совместных программ с университетами по ИИ — на них учатся 2194 студента.

☂️ Яндекс Погода стала использовать нейросеть Нейрометеум для прогнозирования
Это первая технология, применённая в сервисе для массового пользователя, которая с помощью нейросетей самостоятельно моделирует поведение атмосферы по всей планете.

😔 Развитие психоза и бреда у пациентов психиатров может быть связано с длительным использованием чат-ботов на базе ИИ
С весны были зафиксированы десятки потенциальных случаев психоза с бредом после длительного общения с чат-ботами.

🚓 В Чили запустили эксперимент по поиску угнанных автомобилей с помощью ИИ
Система SITIA позволяет в режиме реального времени сопоставлять данные, полученные с уличных камер видеонаблюдения, с полицейскими базами данных транспортных средств, по которым имеются сообщения об угонах.

💬 Тест Тьюринга. События в сфере ИИ. Подписаться

#дайджест #GPT #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1💯1
🖥 Глобальный отчет о состоянии генеративного ИИ в корпоративном секторе

Вышедший в декабре отчет Menlo Ventures "2025: The State of Generative AI in the Enterprise" ставит точку в дискуссии о "пузыре ИИ" - пузыри не генерируют $37 миллиардов выручки с 47% конверсией в продакшн.

Исследование базируется на опросе сотен IT-лидеров и анализе реальных транзакционных данных. Самым весомым аргументом в пользу доверия к данным Menlo является их текущий портфель: инвестиция в Anthropic дает им прямой доступ к метрикам использования одной из двух ведущих LLM в мире.

📌 Ключевые выводы

1️⃣ В 2025 глобальные расходы предприятий на генеративный ИИ достигли $37 млрд. Если рассмотреть динамику, то виден 3.2-кратный рост год к году.
• 2023 год: $1.7 млрд — зарождение рынка
• 2024 год: $11.5 млрд — год экспериментов
• 2025 год: $37.0 млрд — год масштабирования

2️⃣ Впервые приложения обогнали в 2025 году инфраструктуру по объему инвестиций:
• приложения: $19 млрд — 51% рынка
• инфраструктура: $18 млрд — 49% рынка

3️⃣ Спор "строить или покупать", который бушевал в IT-департаментах последние два года, в 2025 году был решен окончательно.
• 2024 год: 47% компаний пытались строить собственные модели/решения, 53% покупали.
• 2025 год: 76% компаний покупают готовые решения, и только 24% пытаются строить.

4️⃣ Самым шокирующим итогом года для многих наблюдателей стала потеря гегемонии OpenAI в корпоративном сегменте. Anthropic вышла на первое место, захватив 40% корпоративных расходовна LLM. Доля OpenAI сократилась с 50% в 2023 до 27%.

5️⃣ Несмотря на разговоры о демократизации ИИ через open source, корпоративные деньги консолидировались вокруг Anthropic, OpenAI и Google. Они контролируют 88% всех расходов на API моделей.

6️⃣ Внутри инфраструктурного бюджета произошел критический сдвиг:
• API фундаментальных моделей: $12.5 млрд.
• Инфраструктура для обучения: $4.0 млрд.
Это подтверждает тезис о том, что эпоха обучения с нуля для корпораций закончилась.

7️⃣ Разработка ПО стала абсолютным лидером среди всех областей. Расходы на ИИ-инструменты для кодинга достигли $4 млрд, что составляет 55% от всего ИИ-бюджета в корпоративных департаментах.

8️⃣ Расходы на отраслевые решения выросли в 3 раза, достигнув $3.5 млрд. Это говорит о том, что универсальные модели достигли предела своей полезности в специализированных задачах. Юристам и врачам нужны инструменты, обученные на их данных и понимающие их контекст.

9️⃣ Почти половина всего отраслевого ИИ-бюджета — $1.5 млрд — приходится на здравоохранение.

🔟 27% всех корпоративных расходов на ИИ начинаются с индивидуальных подписок сотрудников, что в 4 раза выше, чем у традиционного ПО. Если учесть ИИ-инструменты, купленные сотрудниками на личные карты, реальное проникновение ИИ в работу выше официальных цифр на 30-40%.

🌟 Тренды на 2026 год

➡️ Массовый переход к исполняющим системам: рынок перейдет от модели request-response к модели goal-execution — задание.

➡️ В 2026 году мы увидим первые крупные внедрения ERP-систем нового поколения, где ИИ не "добавка", а "движок".

➡️ Компании будут обязаны доказывать, что их ИИ-агенты не дискриминируют при найме и не нарушают законы. Рынок инструментов для "наблюдения за ИИ" станет новой "кибербезопасностью".

➡️ В 2025 компании осознали, что 80% их знаний лежит не в структурированных базах данных, а в документах, PDF, Slack-чатах и записях Zoom. Платформы, специализирующиеся на ETL для неструктурированных данных, станут критической инфраструктурой.

➡️ Несмотря на доминирование "большой тройки", в 2026 году вырастет спрос на Малые языковые Модели (SLM), работающие локально. Это будет продиктовано не экономикой, а безопасностью и геополитикой.

💬 Тест Тьюринга. События в сфере ИИ. Подписаться
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥41