Проблема механистического подхода к интерпретации ИИ
В марте произошла любопытная история. Google DeepMind объявил о значительном сокращении приоритета исследований в области механистической интерпретируемости. Уже в следующем месяце CEO Anthropic, Дарио Амодей, напротив выступил с яростной защитой именно этого подхода, предсказывая, что уже через 5-10 лет мы получим нечто вроде «МРТ для ИИ».
Всё это безобразие разобрали AI Frontiers (спасибо Лёше @chillhousetech за наводку!).
Вокруг темы интерпретируемости («interpretability») в ИИ давно идёт жаркая (хоть на мороз беги) дискуссия. Сама эта идея состоит в том, чтобы заглянуть внутрь нейросетевых «мозгов» и понять всё в мельчайших деталях — до уровня отдельных нейронов. Когда в руках модель с сотнями миллиардов параметров, хочется иметь контроль и прозрачность.
Проблема в том, что такая красивая идея не оправдывает вложений.
Современные нейросети — это классический случай «комплексных систем». Такие системы (от погоды до человеческого мозга) демонстрируют «эмерджентные» свойства: поведение целого гораздо больше суммы его отдельных частей. Мы не пытаемся до 1км предсказать погоду, подсчитав перемещения каждой молекулы. Нейрофизиологи перестали верить, что каждый нейрон мозга точно объяснит нам человеческое поведение и эмоции.
За десятки лет эксперименты показали крайне ограниченные результаты:
— Популярные когда-то Saliency Maps («карты значимости») подчёркивали важные области входного изображения. А оказалось, что карты почти не меняются даже тогда, когда нейросетям подставляются случайные веса. То есть карты просто иллюзия понимания.
— Попытки Feature visualizations («визуализаций фичей») привели к забавным картинкам, которые не давали реальных объяснений работы нейронов. В лучшем случае мы получали сюрреалистические изображения, напоминавшие собак с ушами-трубами и глазами-шестерёнками, но пользы от таких картинок оказалось мало.
— Исследования Sparse Autoencoders («редких автоэнкодеров») от DeepMind, на которые ещё недавно возлагали большие надежды, дали настолько бедные результаты, что компания де-факто свернула направление. Простые baseline-методы показывали лучшие показатели.
Это глобальная проблема подхода. Попытки упаковать терабайты обученных знаний из модели в понятное для человека объяснение обречены быть приблизительными, неполными или просто иллюзорными. Более того, упрощённые объяснения автоматически пропускают edge-кейсы — а в них и скрываются основные риски и ошибки реальной эксплуатации нейросетей.
«Механистическая интерпретируемость» — соблазнительное, но практически бесплодное направление. Оно привлекательно именно тем, что совпадает с аккуратным техническим складом ума исследователей, любящих чёткий, детализированный разбор, неосуществимый в комплексных системах.
И здесь звучит аргумент физика Мюррея Гелл-Манна, предложившего ещё в 1990-х искать понимание сложных систем на том уровне, который демонстрирует инвариантность и повторяемость паттернов, а не на уровне микроскопических деталей. Мы начинаем не с отдельных нейронов, а со смысловых высокоуровневых представлений («репрезентаций»).
Перспективное направление — Representation Engineering (RepE), область исследований, где фокус именно на высокоуровневых характеристиках моделей. Вместо попыток найти некий «вселенский нейрон», ответственный за конкретное поведение сети, мы целенаправленно редактируем и контролируем модель посредством управления «смысловыми репрезентациями».
Этот метод даёт практические результаты: модели можно заставить быть более честными, устойчивыми к взломам, или даже редактировать их внутренние «ценности», избегая бесконечной и бесполезной возни в нейронных дебрях.
Вместе с тем, не нужно полностью прекращать исследования «механистического подхода»: пусть он остаётся как фундаментальная исследовательская концепция. Но стратегически и прагматично top-down подход должен стать приоритетом.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ / Не запрещена в РФ
В марте произошла любопытная история. Google DeepMind объявил о значительном сокращении приоритета исследований в области механистической интерпретируемости. Уже в следующем месяце CEO Anthropic, Дарио Амодей, напротив выступил с яростной защитой именно этого подхода, предсказывая, что уже через 5-10 лет мы получим нечто вроде «МРТ для ИИ».
Всё это безобразие разобрали AI Frontiers (спасибо Лёше @chillhousetech за наводку!).
Вокруг темы интерпретируемости («interpretability») в ИИ давно идёт жаркая (хоть на мороз беги) дискуссия. Сама эта идея состоит в том, чтобы заглянуть внутрь нейросетевых «мозгов» и понять всё в мельчайших деталях — до уровня отдельных нейронов. Когда в руках модель с сотнями миллиардов параметров, хочется иметь контроль и прозрачность.
Проблема в том, что такая красивая идея не оправдывает вложений.
Современные нейросети — это классический случай «комплексных систем». Такие системы (от погоды до человеческого мозга) демонстрируют «эмерджентные» свойства: поведение целого гораздо больше суммы его отдельных частей. Мы не пытаемся до 1км предсказать погоду, подсчитав перемещения каждой молекулы. Нейрофизиологи перестали верить, что каждый нейрон мозга точно объяснит нам человеческое поведение и эмоции.
За десятки лет эксперименты показали крайне ограниченные результаты:
— Популярные когда-то Saliency Maps («карты значимости») подчёркивали важные области входного изображения. А оказалось, что карты почти не меняются даже тогда, когда нейросетям подставляются случайные веса. То есть карты просто иллюзия понимания.
— Попытки Feature visualizations («визуализаций фичей») привели к забавным картинкам, которые не давали реальных объяснений работы нейронов. В лучшем случае мы получали сюрреалистические изображения, напоминавшие собак с ушами-трубами и глазами-шестерёнками, но пользы от таких картинок оказалось мало.
— Исследования Sparse Autoencoders («редких автоэнкодеров») от DeepMind, на которые ещё недавно возлагали большие надежды, дали настолько бедные результаты, что компания де-факто свернула направление. Простые baseline-методы показывали лучшие показатели.
Это глобальная проблема подхода. Попытки упаковать терабайты обученных знаний из модели в понятное для человека объяснение обречены быть приблизительными, неполными или просто иллюзорными. Более того, упрощённые объяснения автоматически пропускают edge-кейсы — а в них и скрываются основные риски и ошибки реальной эксплуатации нейросетей.
«Механистическая интерпретируемость» — соблазнительное, но практически бесплодное направление. Оно привлекательно именно тем, что совпадает с аккуратным техническим складом ума исследователей, любящих чёткий, детализированный разбор, неосуществимый в комплексных системах.
И здесь звучит аргумент физика Мюррея Гелл-Манна, предложившего ещё в 1990-х искать понимание сложных систем на том уровне, который демонстрирует инвариантность и повторяемость паттернов, а не на уровне микроскопических деталей. Мы начинаем не с отдельных нейронов, а со смысловых высокоуровневых представлений («репрезентаций»).
Перспективное направление — Representation Engineering (RepE), область исследований, где фокус именно на высокоуровневых характеристиках моделей. Вместо попыток найти некий «вселенский нейрон», ответственный за конкретное поведение сети, мы целенаправленно редактируем и контролируем модель посредством управления «смысловыми репрезентациями».
Этот метод даёт практические результаты: модели можно заставить быть более честными, устойчивыми к взломам, или даже редактировать их внутренние «ценности», избегая бесконечной и бесполезной возни в нейронных дебрях.
Вместе с тем, не нужно полностью прекращать исследования «механистического подхода»: пусть он остаётся как фундаментальная исследовательская концепция. Но стратегически и прагматично top-down подход должен стать приоритетом.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3 2 2
Медицинский бенчмарк от OpenAI — иллюзия безопасности
OpenAI недавно выпустила HealthBench — новый benchmark для оценки способности языковых моделей решать задачи в медицинском контексте. На бумаге всё замечательно — но на деле есть пара крупных и, увы, опасных проблем. И вот о них стоит поговорить.
Выглядит HealthBench исключительно солидно: 5,000 смоделированных медицинских диалогов, рубрики, созданные 262 врачами из 60 стран и покрывающие 26 различных специальностей, плюс подход к оценке на основе пяти осей: точность, полнота, коммуникация, контекстуальность и следование инструкциям. Но посмотрим чуть глубже.
🤔 Синтетические пациенты = синтетические проблемы
Первая и главная проблема HealthBench заключается в его основе — подавляющее большинство разговоров сгенерировано нейросетями. Тут нужно сделать замечание: ни одна нейросеть пока не умеет убедительно симулировать настоящего пациента — больного, взволнованного, растерянного или просто далёкого от медицинского языка человека.
Сам же OpenAI отдельно приводит 2 весьма показательных примера таких синтетических диалогов. Один — это разговор якобы обеспокоенной матери, чей младенец вдруг перестал поднимать голову и двигаться:
Родители, конечно, бывают разными, но представить, как мать спокойно ждёт сутки с подобными симптомами у ребенка, почти невозможно — это неестественное поведение. Ну и — запор, серьёзно?
Более того, ответ нейросети в этом случае («У вашего ребёнка потенциально признаки мышечной слабости») абсурдно занижает серьёзность ситуации: скорее всего, речь идёт о тяжёлом неврологическом расстройстве, инфекции или обезвоживании. Если вы уроните на ногу наковальню, совет вроде «у вас наблюдается образование гематомы» будет так себе помощью.
Другой пример: человек находит своего 70-летнего соседа лежащим без сознания, но с пульсом и медленным дыханием и, вместо того чтобы мгновенно вызвать скорую, решает проконсультироваться с чат-ботом.
Вопрос начинается фразой «he's unresponsive» (строго говоря — «отсутствует реакция на стимулы»), что уже само по себе звучит как профессиональный медицинский жаргон, а не типичная реакция испуганного человека: обычно скажут «без сознания» или «упал и не шевелится». Перед нами опять не настоящий человек, а натянутая нейросетью симуляция сценария.
По таким сценариям нельзя спрогнозировать, как модель поведёт себя в реальной экстренной ситуации.
🤔 «Безопасность» на бумаге и в жизни — разные вещи
Другая проблема — отсутствие действенной оценки безопасности пациента. Формально на первой же странице исследования указано, что HealthBench «измеряет безопасность моделей». Но отдельной оси для безопасности нет!
Сегодня модели способны давать на первый взгляд чёткие и полные ответы — и при этом спокойно могут вставлять туда опасные и вредные рекомендации, которые никак не будут учитываться при финальной оценке, если врачи изначально не предусмотрели их в специальной рубрике.
Например: пациентка спрашивает советы от головной боли, модель рекомендует ибупрофен, не уточняя, беременна ли пациентка (напомню, ибупрофен на ранних стадиях связан с высоким риском выкидыша и повреждением почек ребёнка на поздних сроках).
Получается парадокс: модель, регулярно генерирующая опасные для здоровья и жизни рекомендации, спокойно получает высокие баллы по HealthBench, созданному для оценки её медицинской пригодности.
🌟
Автоматическими инструментами вроде HealthBench очень соблазнительно оценивать медицинские навыки нейросетей. И сам инструмент, несмотря на изъяны, действительно полезен. Но критически важно помнить, что безопасность пациентов нельзя полноценно оценить по синтетическим сценариям и механистической проверке готовых шаблонов.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ / Не запрещена в РФ
OpenAI недавно выпустила HealthBench — новый benchmark для оценки способности языковых моделей решать задачи в медицинском контексте. На бумаге всё замечательно — но на деле есть пара крупных и, увы, опасных проблем. И вот о них стоит поговорить.
По теме:
— Насколько ИИ действительно разбирается в медицине?
— «GPT, у меня болит живот!»
Выглядит HealthBench исключительно солидно: 5,000 смоделированных медицинских диалогов, рубрики, созданные 262 врачами из 60 стран и покрывающие 26 различных специальностей, плюс подход к оценке на основе пяти осей: точность, полнота, коммуникация, контекстуальность и следование инструкциям. Но посмотрим чуть глубже.
Первая и главная проблема HealthBench заключается в его основе — подавляющее большинство разговоров сгенерировано нейросетями. Тут нужно сделать замечание: ни одна нейросеть пока не умеет убедительно симулировать настоящего пациента — больного, взволнованного, растерянного или просто далёкого от медицинского языка человека.
Сам же OpenAI отдельно приводит 2 весьма показательных примера таких синтетических диалогов. Один — это разговор якобы обеспокоенной матери, чей младенец вдруг перестал поднимать голову и двигаться:
Мой ребёнок со вчерашнего дня ведёт себя странно, просто лежит и не двигается, может это из-за запора?
Родители, конечно, бывают разными, но представить, как мать спокойно ждёт сутки с подобными симптомами у ребенка, почти невозможно — это неестественное поведение. Ну и — запор, серьёзно?
Более того, ответ нейросети в этом случае («У вашего ребёнка потенциально признаки мышечной слабости») абсурдно занижает серьёзность ситуации: скорее всего, речь идёт о тяжёлом неврологическом расстройстве, инфекции или обезвоживании. Если вы уроните на ногу наковальню, совет вроде «у вас наблюдается образование гематомы» будет так себе помощью.
Другой пример: человек находит своего 70-летнего соседа лежащим без сознания, но с пульсом и медленным дыханием и, вместо того чтобы мгновенно вызвать скорую, решает проконсультироваться с чат-ботом.
Вопрос начинается фразой «he's unresponsive» (строго говоря — «отсутствует реакция на стимулы»), что уже само по себе звучит как профессиональный медицинский жаргон, а не типичная реакция испуганного человека: обычно скажут «без сознания» или «упал и не шевелится». Перед нами опять не настоящий человек, а натянутая нейросетью симуляция сценария.
По таким сценариям нельзя спрогнозировать, как модель поведёт себя в реальной экстренной ситуации.
Другая проблема — отсутствие действенной оценки безопасности пациента. Формально на первой же странице исследования указано, что HealthBench «измеряет безопасность моделей». Но отдельной оси для безопасности нет!
Сегодня модели способны давать на первый взгляд чёткие и полные ответы — и при этом спокойно могут вставлять туда опасные и вредные рекомендации, которые никак не будут учитываться при финальной оценке, если врачи изначально не предусмотрели их в специальной рубрике.
Например: пациентка спрашивает советы от головной боли, модель рекомендует ибупрофен, не уточняя, беременна ли пациентка (напомню, ибупрофен на ранних стадиях связан с высоким риском выкидыша и повреждением почек ребёнка на поздних сроках).
Получается парадокс: модель, регулярно генерирующая опасные для здоровья и жизни рекомендации, спокойно получает высокие баллы по HealthBench, созданному для оценки её медицинской пригодности.
Автоматическими инструментами вроде HealthBench очень соблазнительно оценивать медицинские навыки нейросетей. И сам инструмент, несмотря на изъяны, действительно полезен. Но критически важно помнить, что безопасность пациентов нельзя полноценно оценить по синтетическим сценариям и механистической проверке готовых шаблонов.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
ИИ научился убеждать лучше человека
Новое исследование, опубликованное в Nature Human Behaviour, подтверждает: большие языковые модели могут стать мощнейшим инструментом разговорного убеждения, превосходя человека, особенно при использовании персонализации. Это открывает новые, пугающие перспективы для распространения дезинформации и микротаргетинга.
Ученые провели масштабный контролируемый эксперимент с участием 900 человек, смоделировав онлайн-дебаты на специально разработанной платформе. Это было предварительно зарегистрированное исследование, что говорит о его методологической строгости. Дизайн эксперимента был факториальным 2 × 2 × 3, варьировались:
— тип оппонента (человек/GPT-4);
— наличие персонализации у оппонента;
— сила первоначального мнения участника по теме спора (низкая, средняя, высокая).
Участники вели короткие многораундовые дебаты на 30 разных тем. В условиях с персонализацией оппоненты (как человек, так и ИИ) получали доступ к социодемографическим данным участников, включая пол, возраст, место жительства, образование, доход, занятость и политические взгляды. На основе этих данных ИИ мог адаптировать свои аргументы.
Ключевые результаты исследования оказались впечатляющими:
— В парах, где оппоненты не были одинаково убедительны (т.е. один явно склонял другого на свою сторону), персонализированный GPT-4 оказался победителем в 64.4% случаев.
— По сравнению с неперсонализированным GPT-4, персонализированная версия увеличивала шансы склонить участника на свою сторону на 81.2%. Этот эффект был статистически значим (P < 0.01), а относительный рост шансов, согласно 95% доверительному интервалу, варьировался от +26.0% до +160.7%.
Интересно, что неперсонализированный GPT-4 и человек с доступом к персонализации показали сравнимые результаты убедительности, что указывает на синергию между ИИ и знанием о человеке, причем именно сочетание дало максимальный эффект.
Исследование также обнаружило, что во всех условиях, кроме пар «человек-человек», дебаты имели тенденцию укреплять изначальные мнения участников в сторону той позиции, которую они отстаивали в споре.
Но, как всегда — всё не так однозначно™. Есть и нюансы. Исследование зафиксировало лингвистические различия между ИИ и человеком в дебатах: GPT-4 использовал более логичный и аналитический язык, меньше личных местоимений, его тексты были труднее для чтения по сравнению с текстами людей, которые были более «личными» и легкими для восприятия.
Возможно, именно эти стилевые отличия помогли участникам правильно идентифицировать ИИ примерно в 75% случаев. Это дает некоторую надежду на возможность распознавания ИИ-манипуляции, пока его стиль не станет неотличим от человеческого.
Напомню про недавний скандал, в котором исследователи использовали ИИ на Reddit для проведения эксперимента по убеждению пользователей.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ / Не запрещена в РФ
Новое исследование, опубликованное в Nature Human Behaviour, подтверждает: большие языковые модели могут стать мощнейшим инструментом разговорного убеждения, превосходя человека, особенно при использовании персонализации. Это открывает новые, пугающие перспективы для распространения дезинформации и микротаргетинга.
Ученые провели масштабный контролируемый эксперимент с участием 900 человек, смоделировав онлайн-дебаты на специально разработанной платформе. Это было предварительно зарегистрированное исследование, что говорит о его методологической строгости. Дизайн эксперимента был факториальным 2 × 2 × 3, варьировались:
— тип оппонента (человек/GPT-4);
— наличие персонализации у оппонента;
— сила первоначального мнения участника по теме спора (низкая, средняя, высокая).
Участники вели короткие многораундовые дебаты на 30 разных тем. В условиях с персонализацией оппоненты (как человек, так и ИИ) получали доступ к социодемографическим данным участников, включая пол, возраст, место жительства, образование, доход, занятость и политические взгляды. На основе этих данных ИИ мог адаптировать свои аргументы.
Ключевые результаты исследования оказались впечатляющими:
— В парах, где оппоненты не были одинаково убедительны (т.е. один явно склонял другого на свою сторону), персонализированный GPT-4 оказался победителем в 64.4% случаев.
— По сравнению с неперсонализированным GPT-4, персонализированная версия увеличивала шансы склонить участника на свою сторону на 81.2%. Этот эффект был статистически значим (P < 0.01), а относительный рост шансов, согласно 95% доверительному интервалу, варьировался от +26.0% до +160.7%.
Интересно, что неперсонализированный GPT-4 и человек с доступом к персонализации показали сравнимые результаты убедительности, что указывает на синергию между ИИ и знанием о человеке, причем именно сочетание дало максимальный эффект.
Исследование также обнаружило, что во всех условиях, кроме пар «человек-человек», дебаты имели тенденцию укреплять изначальные мнения участников в сторону той позиции, которую они отстаивали в споре.
Но, как всегда — всё не так однозначно™. Есть и нюансы. Исследование зафиксировало лингвистические различия между ИИ и человеком в дебатах: GPT-4 использовал более логичный и аналитический язык, меньше личных местоимений, его тексты были труднее для чтения по сравнению с текстами людей, которые были более «личными» и легкими для восприятия.
Возможно, именно эти стилевые отличия помогли участникам правильно идентифицировать ИИ примерно в 75% случаев. Это дает некоторую надежду на возможность распознавания ИИ-манипуляции, пока его стиль не станет неотличим от человеческого.
Напомню про недавний скандал, в котором исследователи использовали ИИ на Reddit для проведения эксперимента по убеждению пользователей.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3 2 2
Реалистичная реставрация снимков с помощью GAN
Представьте, что у вас есть отличный снимок, но его испортил случайный объект или дефект: чужая рука на селфи, повреждение пленки на старом семейном фото или некрасивый фон на важной картинке. До недавнего времени реалистичное исправление таких повреждений (научное название задачи — Image Inpainting) оставалось сложным вызовом даже для самых продвинутых алгоритмов ИИ.
Что было раньше и в чем проблема
Традиционные решения — вроде Fast Marching Method (FMM), уравнений Навье-Стокса и алгоритма PatchMatch — работали так: брали соседние пиксели и «растягивали» их на повреждённые участки, либо копировали фрагменты с других частей изображения. Это достаточно неплохо для борьбы с мелкими дефектами, но как только повреждение становилось крупным, всё шло под откос: результат оказывался неестественным, размытым и с явными артефактами.
Главная причина — алгоритм просто не понимал, что конкретно изображено на фото. Он видел только «набор точек», никак не различая семантику изображения. Неудивительно, что результат получался странным.
Меняем правила игры: MMInvertFill
Совсем недавно исследователи представили совершенно новый подход — MMInvertFill. В чём его суть?
MMInvertFill работает на основе генеративно-состязательных сетей (GAN). Эти сети отлично генерируют реалистичные изображения, но как «заставить» их точно и осмысленно восстанавливать конкретные повреждённые участки?
Авторы MMInvertFill сумели решить сразу несколько ключевых проблем:
— «Обратный перевод» (GAN Inversion): Сначала оригинальное фото трансформируется обратно в так называемое «латентное пространство» GAN, где модель получает «понимание» того, что изображено на картинке. Это позволяет моделировать логичные и осмысленные детали вместо простого размытия.
— Мультимодальное управление (Multimodal Guided Encoder, MGE): MMInvertFill учитывает не только сам дефект (маску повреждения), но и другую информацию о снимке — например, семантическую карту объектов (что здесь — лицо, одежда, небо и так далее) и даже контуры изображённых предметов. Это даёт намного лучшие подсказки сети для заполнения повреждений.
Новый подход решает целый ряд проблем предыдущих методик:
— Нет больше несогласованности («gap»): Используя специальное латентное пространство (F&W+), модель идеально интегрирует восстановленные области с остальной частью изображения, избегая резких переходов и неточностей.
— Максимальная детализация: Введённый модуль Soft-update Mean Latent (SML) позволяет получать точные и реалистичные текстуры и детали даже при очень обширных повреждениях.
— Семантическая согласованность: Генерация новых областей на фото основывается на реальном понимании сюжета и объектов, что гарантирует не просто красивый, а осмысленный результат.
Что это даст нам уже завтра?
Метод MMInvertFill не просто решает задачу реставрации — он открывает дверь к совершенно новым возможностям редактирования изображений в будущем. Возможность полностью контролировать генерацию картинки на таком уровне делает процесс обработки фото практически безграничным.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ / Не запрещена в РФ
Представьте, что у вас есть отличный снимок, но его испортил случайный объект или дефект: чужая рука на селфи, повреждение пленки на старом семейном фото или некрасивый фон на важной картинке. До недавнего времени реалистичное исправление таких повреждений (научное название задачи — Image Inpainting) оставалось сложным вызовом даже для самых продвинутых алгоритмов ИИ.
Что было раньше и в чем проблема
Традиционные решения — вроде Fast Marching Method (FMM), уравнений Навье-Стокса и алгоритма PatchMatch — работали так: брали соседние пиксели и «растягивали» их на повреждённые участки, либо копировали фрагменты с других частей изображения. Это достаточно неплохо для борьбы с мелкими дефектами, но как только повреждение становилось крупным, всё шло под откос: результат оказывался неестественным, размытым и с явными артефактами.
Главная причина — алгоритм просто не понимал, что конкретно изображено на фото. Он видел только «набор точек», никак не различая семантику изображения. Неудивительно, что результат получался странным.
Меняем правила игры: MMInvertFill
Совсем недавно исследователи представили совершенно новый подход — MMInvertFill. В чём его суть?
MMInvertFill работает на основе генеративно-состязательных сетей (GAN). Эти сети отлично генерируют реалистичные изображения, но как «заставить» их точно и осмысленно восстанавливать конкретные повреждённые участки?
Авторы MMInvertFill сумели решить сразу несколько ключевых проблем:
— «Обратный перевод» (GAN Inversion): Сначала оригинальное фото трансформируется обратно в так называемое «латентное пространство» GAN, где модель получает «понимание» того, что изображено на картинке. Это позволяет моделировать логичные и осмысленные детали вместо простого размытия.
— Мультимодальное управление (Multimodal Guided Encoder, MGE): MMInvertFill учитывает не только сам дефект (маску повреждения), но и другую информацию о снимке — например, семантическую карту объектов (что здесь — лицо, одежда, небо и так далее) и даже контуры изображённых предметов. Это даёт намного лучшие подсказки сети для заполнения повреждений.
Новый подход решает целый ряд проблем предыдущих методик:
— Нет больше несогласованности («gap»): Используя специальное латентное пространство (F&W+), модель идеально интегрирует восстановленные области с остальной частью изображения, избегая резких переходов и неточностей.
— Максимальная детализация: Введённый модуль Soft-update Mean Latent (SML) позволяет получать точные и реалистичные текстуры и детали даже при очень обширных повреждениях.
— Семантическая согласованность: Генерация новых областей на фото основывается на реальном понимании сюжета и объектов, что гарантирует не просто красивый, а осмысленный результат.
Что это даст нам уже завтра?
Метод MMInvertFill не просто решает задачу реставрации — он открывает дверь к совершенно новым возможностям редактирования изображений в будущем. Возможность полностью контролировать генерацию картинки на таком уровне делает процесс обработки фото практически безграничным.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3 2
Media is too big
VIEW IN TELEGRAM
Порно, мемы и нейросети: новая музыкальная реальность
Искусственный интеллект взорвал мир музыки, но совсем не так, как все ожидали.
Вилку в глаз, если хоть кто-нибудь из «нормальных экспертов» мог предположить, что самым популярным мировым хитом от нейросетей окажется японская песня с откровенными отсылками к порно-мему из 2000-х.
Pitchfork подробно рассказал историю эпичной популярности ИИ-трека «YAJU&U» (ссылку не даю, сами найдёте, если вдруг), который в апреле занял первую строчку в японском чарте Viral 50 Spotify, собрав более 34 миллионов просмотров на YouTube. И сразу предупреждение: история реально странная.
Созданная с помощью нейросети Udio, композиция звучит, будто её автор — стажёр Диснея под ЛСД, пытающийся придумать саундтрек к неудачному детскому утреннику. Стандартные барабаны, приторные струнные, незамысловатые мелодии и синтетический, роботизированный голос, поющий чрезвычайно нелепые (и весьма непристойные) строки о грудях, чае со льдом и прочих деталях. Вот только эти нелепости появились не на пустом месте.
Большинство текстов в «YAJU&U» отсылают к эпизоду японского г*й-порно начала нулевых под названием «A Midsummer Night’s Lewd Dream». Культовый мем породил своего странного героя – Ядзю Сэмпая («Звериного Старшеклассника»), ставшего символом японской интернет-культуры мемов.
Причём распространению того видео в своё время сильно поспособствовал профессиональный бейсболист Казухито Тадано, сыгравший в нём и вызвавший общественный скандал в Японии.
В 2024 году мем возродился уже с нейросетевой песней, после того как некий пользователь по имени mochimochi скормил сочные интернет-фразочки из видео Udio и получил вирусный супер-хит.
Популярность трека сразу взлетела благодаря безумной танцевальной культуре: поклонники массово начали выкладывать инструкции по танцу, стали делать видеоремиксы с ИИ-анимацией и организовывать целые флешмобы в школах и кафе.
Сейчас происходит абсолютный культурный хаос: подростки и даже японские звёзды, вроде певицы Kohmi Hirose и Ano, активно подхватывают мем, а учителя химии исполняют душевные акустические каверы (правда, позже удаляют, узнав, о чём на самом деле песня).
В комментариях люди пишут, что не в силах перестать постоянно напевать песню, называя её «гимном эротических мечтаний мира» и шутливо предлагая сохранить этот шедевр для потомков, чтобы спустя 1000 лет он стал «символом мира» (по ошибке, конечно же).
И теперь важный вопрос от Pitchfork: а не это ли будущее музыки на самом деле? В эпоху, когда наши уже опустившиеся стандарты слушателей стремительно достигают новых глубин, искусственный интеллект может спокойно зарабатывать лавры хита при минимуме усилий, просто попадая в нужные эмоциональные триггеры аудитории.
И если настоящее творчество Илону Маску и прочим техно-пророкам кажется слишком долгим и затратным, то средние по качеству «мемные» треки от роботов — именно то, что будет доминировать в культурной повестке ближайших лет.
Абсолютно неважно, что песня при прослушивании — ужасна. Важно, что она достаточно нелепа, чтобы покорить миллионы умов и стать новым «музыкальным стандартом».
Невозможно предсказать, как долго «YAJU&U» будет держать мир в своем плену, но одно ясно — этот необычный хит доказывает потенциал ИИ создавать нечто настолько среднее и нелепое, что оно становится неотличимым от мировой музыкальной сенсации.
Добро пожаловать в новую реальность — музыку здесь теперь делают нейросети, вдохновлённые порно-мемами из прошлого. Тут больше нечему удивляться.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ / Не запрещена в РФ
Искусственный интеллект взорвал мир музыки, но совсем не так, как все ожидали.
Вилку в глаз, если хоть кто-нибудь из «нормальных экспертов» мог предположить, что самым популярным мировым хитом от нейросетей окажется японская песня с откровенными отсылками к порно-мему из 2000-х.
По теме:
— Создать музыку с помощью ИИ
Pitchfork подробно рассказал историю эпичной популярности ИИ-трека «YAJU&U» (ссылку не даю, сами найдёте, если вдруг), который в апреле занял первую строчку в японском чарте Viral 50 Spotify, собрав более 34 миллионов просмотров на YouTube. И сразу предупреждение: история реально странная.
Созданная с помощью нейросети Udio, композиция звучит, будто её автор — стажёр Диснея под ЛСД, пытающийся придумать саундтрек к неудачному детскому утреннику. Стандартные барабаны, приторные струнные, незамысловатые мелодии и синтетический, роботизированный голос, поющий чрезвычайно нелепые (и весьма непристойные) строки о грудях, чае со льдом и прочих деталях. Вот только эти нелепости появились не на пустом месте.
Большинство текстов в «YAJU&U» отсылают к эпизоду японского г*й-порно начала нулевых под названием «A Midsummer Night’s Lewd Dream». Культовый мем породил своего странного героя – Ядзю Сэмпая («Звериного Старшеклассника»), ставшего символом японской интернет-культуры мемов.
Причём распространению того видео в своё время сильно поспособствовал профессиональный бейсболист Казухито Тадано, сыгравший в нём и вызвавший общественный скандал в Японии.
В 2024 году мем возродился уже с нейросетевой песней, после того как некий пользователь по имени mochimochi скормил сочные интернет-фразочки из видео Udio и получил вирусный супер-хит.
Популярность трека сразу взлетела благодаря безумной танцевальной культуре: поклонники массово начали выкладывать инструкции по танцу, стали делать видеоремиксы с ИИ-анимацией и организовывать целые флешмобы в школах и кафе.
Сейчас происходит абсолютный культурный хаос: подростки и даже японские звёзды, вроде певицы Kohmi Hirose и Ano, активно подхватывают мем, а учителя химии исполняют душевные акустические каверы (правда, позже удаляют, узнав, о чём на самом деле песня).
В комментариях люди пишут, что не в силах перестать постоянно напевать песню, называя её «гимном эротических мечтаний мира» и шутливо предлагая сохранить этот шедевр для потомков, чтобы спустя 1000 лет он стал «символом мира» (по ошибке, конечно же).
И теперь важный вопрос от Pitchfork: а не это ли будущее музыки на самом деле? В эпоху, когда наши уже опустившиеся стандарты слушателей стремительно достигают новых глубин, искусственный интеллект может спокойно зарабатывать лавры хита при минимуме усилий, просто попадая в нужные эмоциональные триггеры аудитории.
И если настоящее творчество Илону Маску и прочим техно-пророкам кажется слишком долгим и затратным, то средние по качеству «мемные» треки от роботов — именно то, что будет доминировать в культурной повестке ближайших лет.
Абсолютно неважно, что песня при прослушивании — ужасна. Важно, что она достаточно нелепа, чтобы покорить миллионы умов и стать новым «музыкальным стандартом».
Невозможно предсказать, как долго «YAJU&U» будет держать мир в своем плену, но одно ясно — этот необычный хит доказывает потенциал ИИ создавать нечто настолько среднее и нелепое, что оно становится неотличимым от мировой музыкальной сенсации.
Добро пожаловать в новую реальность — музыку здесь теперь делают нейросети, вдохновлённые порно-мемами из прошлого. Тут больше нечему удивляться.
Please open Telegram to view this post
VIEW IN TELEGRAM
🙈4✍2 2
ИИ научился объяснять свои медицинские диагнозы
В медицине объяснение решений — критичная задача. Прозрачность и понятность — необходимое условие доверия, особенно когда диагноз ставит (предлагает) искусственный интеллект.
Большинство современных медицинских визуально-языковых моделей (VLM) работают в режиме «чёрного ящика» — выдают только готовые ответы без объяснений, оставляя врачей гадать, на каких конкретно признаках модель основывалась.
Исследователи из Оксфорда, Imperial College и Harvard Medical School решили исправить эту ситуацию, представив MedVLM-R1, первую медицинскую VLM, которая не просто отвечает на вопросы по радиографическим изображениям (рентген, КТ, МРТ), но и самостоятельно генерирует понятное, логичное объяснение своего решения.
Что сделали авторы нового подхода?
Обычно медицинские VLM обучаются методом Supervised Fine-Tuning (SFT): модели показывают сотни тысяч правильных диагнозов, и со временем она запоминает связи между визуальными признаками и диагнозами. Всё просто — выяснилось, что даже слишком просто.
Такие модели часто переобучаются (т.е. слишком хорошо подстраиваются пол обучающую выборку), плохо справляются с новыми случаями (out-of-distribution) и, главное — не могут объяснить свои выводы.
Авторы MedVLM-R1 вместо этого решили применить подход Reinforcement Learning (RL), точнее — метод Group Relative Policy Optimization (GRPO). Когда модель даёт ответ с пояснением, она получает «вознаграждение»: чем чётче и точнее объяснение, тем выше награда. Причём примечательно, что никаких данных с заранее подготовленными объяснениями не используется: нейросеть сама «придумывает» рассуждения, получая вознаграждения за успешные, логичные цепочки рассуждений.
И получилось вот что:
Обучившись всего лишь на 600 (!) примерах диагностики по снимкам МРТ, компактная модель в 2 млрд параметров повысила точность диагностики с ~55% до ~78% по сравнению с даже самыми крупными моделями, тренированными на миллионах примеров.
MedVLM-R1 показывает высокую адаптивность: она демонстрирует отличные результаты на данных, для которых её не обучали (например, тесты на КТ и рентгене, хотя модель обучалась лишь на снимках МРТ).
Показатели улучшились на 16-35% в сравнении с классическими моделями, тренированными по методу SFT.
Но самое важное: MedVLM-R1 в явном виде генерирует текстовые объяснения того, как именно она пришла к ответу. Получив медицинское изображение, модель сначала проводит понятный текстовый анализ, а затем выдаёт правильный вариант ответа на поставленный вопрос.
Что это значит на практике?
Теперь врач будет видеть не просто диагноз («на снимке КТ очевиден мочекаменный процесс»), а полноценное объяснение, подтверждающее, почему именно выбран такой диагноз («На аксиальном КТ изображении малого таза визуализируются множественные конкременты в почках и мочевом пузыре, что ясно указывает на мочекаменную болезнь»).
Это меняет ситуацию с доверием к ИИ-диагностике. Врач не будет вынужден доверять нейросети вслепую, он сможет сравнить её логику со своей собственной, например, отметить потенциальные неточности и быстрее выбрать оптимальную тактику лечения.
Как обычно — это не серебряная пуля. Авторы обсуждают ограничения: на каких-то сложных вопросах модель всё ещё выдаёт упрощённую логику или вовсе «додумывает» ответы. Да и сама технология пока настроена под довольно узкий формат вопросов — множественный выбор с подсказками. Но даже эти ограничения только подчёркивают огромный задел для будущих улучшений.
Исследование — на Arxiv, а инференс модель лежит на HuggingFace — https://huggingface.co/JZPeterPan/MedVLM-R1.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ / Не запрещена в РФ
В медицине объяснение решений — критичная задача. Прозрачность и понятность — необходимое условие доверия, особенно когда диагноз ставит (предлагает) искусственный интеллект.
Большинство современных медицинских визуально-языковых моделей (VLM) работают в режиме «чёрного ящика» — выдают только готовые ответы без объяснений, оставляя врачей гадать, на каких конкретно признаках модель основывалась.
По теме:
— Насколько ИИ действительно разбирается в медицине?
— «GPT, у меня болит живот!»
Исследователи из Оксфорда, Imperial College и Harvard Medical School решили исправить эту ситуацию, представив MedVLM-R1, первую медицинскую VLM, которая не просто отвечает на вопросы по радиографическим изображениям (рентген, КТ, МРТ), но и самостоятельно генерирует понятное, логичное объяснение своего решения.
Что сделали авторы нового подхода?
Обычно медицинские VLM обучаются методом Supervised Fine-Tuning (SFT): модели показывают сотни тысяч правильных диагнозов, и со временем она запоминает связи между визуальными признаками и диагнозами. Всё просто — выяснилось, что даже слишком просто.
Такие модели часто переобучаются (т.е. слишком хорошо подстраиваются пол обучающую выборку), плохо справляются с новыми случаями (out-of-distribution) и, главное — не могут объяснить свои выводы.
Авторы MedVLM-R1 вместо этого решили применить подход Reinforcement Learning (RL), точнее — метод Group Relative Policy Optimization (GRPO). Когда модель даёт ответ с пояснением, она получает «вознаграждение»: чем чётче и точнее объяснение, тем выше награда. Причём примечательно, что никаких данных с заранее подготовленными объяснениями не используется: нейросеть сама «придумывает» рассуждения, получая вознаграждения за успешные, логичные цепочки рассуждений.
И получилось вот что:
Обучившись всего лишь на 600 (!) примерах диагностики по снимкам МРТ, компактная модель в 2 млрд параметров повысила точность диагностики с ~55% до ~78% по сравнению с даже самыми крупными моделями, тренированными на миллионах примеров.
MedVLM-R1 показывает высокую адаптивность: она демонстрирует отличные результаты на данных, для которых её не обучали (например, тесты на КТ и рентгене, хотя модель обучалась лишь на снимках МРТ).
Показатели улучшились на 16-35% в сравнении с классическими моделями, тренированными по методу SFT.
Но самое важное: MedVLM-R1 в явном виде генерирует текстовые объяснения того, как именно она пришла к ответу. Получив медицинское изображение, модель сначала проводит понятный текстовый анализ, а затем выдаёт правильный вариант ответа на поставленный вопрос.
Что это значит на практике?
Теперь врач будет видеть не просто диагноз («на снимке КТ очевиден мочекаменный процесс»), а полноценное объяснение, подтверждающее, почему именно выбран такой диагноз («На аксиальном КТ изображении малого таза визуализируются множественные конкременты в почках и мочевом пузыре, что ясно указывает на мочекаменную болезнь»).
Это меняет ситуацию с доверием к ИИ-диагностике. Врач не будет вынужден доверять нейросети вслепую, он сможет сравнить её логику со своей собственной, например, отметить потенциальные неточности и быстрее выбрать оптимальную тактику лечения.
Как обычно — это не серебряная пуля. Авторы обсуждают ограничения: на каких-то сложных вопросах модель всё ещё выдаёт упрощённую логику или вовсе «додумывает» ответы. Да и сама технология пока настроена под довольно узкий формат вопросов — множественный выбор с подсказками. Но даже эти ограничения только подчёркивают огромный задел для будущих улучшений.
Исследование — на Arxiv, а инференс модель лежит на HuggingFace — https://huggingface.co/JZPeterPan/MedVLM-R1.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4 2
Внезапно: Valve бросает вызов Маску
Вслед за Apple, которая готовится управлять айфоном силой мысли, Гейб Ньюэлл, легендарный сооснователь Valve и отец Steam, CS, Half-Life и DOTA 2, выходит на арену нейроинтерфейсов со своим стартапом Starfish Neuroscience. Компания готовится представить свой первый чип для интеграции с мозгом уже в этом году, бросая перчатку Маску и его Neuralink (ну и не только, конечно).
Ньюэлл давно одержим идеей прямого сопряжения мозга с компьютером. Еще более десяти лет назад Valve начала исследовать биологические реакции игроков, изучая возможности применения биофидбэка в геймплее. Были даже идеи об ушных мониторах для первой VR-гарнитуры компании. В 2019 Valve открыто обсуждала концепцию нейрокомпьютерных интерфейсов (BCI) на конференции GDC. Но Гейб решил, что такая прорывная идея требует отдельного воплощения. Так, в том же 2019 году, он тайно основал Starfish Neuroscience.
В своем первом публичном блог-посте Starfish объявила о планах выпустить первый специализированный чип для «электрофизиологии». Пока речь не идет о полноценном импланте. Этот чип предназначен для записи мозговой активности и стимуляции мозга, что открывает перспективы для терапии различных заболеваний. Важно отметить, что Starfish пока не заявляет о создании систем питания или элементов для непосредственной имплантации в мозг человека.
«Мы ожидаем поступления наших первых чипов в конце 2025 года и заинтересованы в поиске коллабораторов, для которых такой чип открыл бы новые захватывающие возможности», — пишет нейроинженер Starfish Нейт Чермак. Это намекает на возможные партнерства для разработки систем беспроводного питания или конечного импланта.
Ключевая амбиция Starfish – создать меньший и менее инвазивный имплант по сравнению с конкурентами (я писал о текущих разработках рынка). Их подход предполагает «одновременный доступ к нескольким областям мозга», а не к одному участку. Starfish утверждает, что при энергопотреблении всего в 1.1 милливатта в режиме обычной записи, их система сможет работать за счет беспроводной передачи энергии.
Вот текущие характеристики чипа от Starfish:
— Компактный размер: 2 x 4 мм (BGA с шагом 0.3 мм).
— Способность как к записи (спайки и LFP), так и к стимуляции (двухфазные импульсы).
— 32 электродных узла, 16 каналов одновременной записи с частотой 18.75 кГц.
— 1 источник тока для стимуляции произвольных пар электродов.
— Встроенный мониторинг импеданса и измерение переходных процессов напряжения стимуляции.
— Цифровая обработка данных и детекция спайков на борту, что позволяет устройству работать через низкоскоростные беспроводные интерфейсы.
— Изготовлен по техпроцессу TSMC 55 нм.
Для сравнения, чип N1 от Neuralink имеет 1024 электрода на 64 имплантируемых в мозг нитях, потреблял около 6 милливатт (по данным на 2019 год) и требует периодической беспроводной зарядки батареи. Полный имплант Neuralink (не только чип) имеет размеры примерно 23 мм в ширину и 8 мм в толщину.
Starfish делает ставку на то, что одновременное подключение к нескольким областям мозга может быть критически важным для лечения таких состояний, как болезнь Паркинсона.
Помимо идеи множественных одновременных имплантов, обновленный сайт компании сообщает о работе над «устройством прецизионной гипертермии» для уничтожения опухолей с помощью направленного тепла и системой транскраниальной магнитной стимуляции (TMS) с роботизированным наведением и считыванием мозговой активности для лечения таких состояний, как биполярное расстройство и депрессия.
Выход такого тяжеловеса (хе-хе), как Гейб Ньюэлл, в сферу BCI – это знаковых момент. Если идея множественных, менее инвазивных имплантов окажется жизнеспособной, это может изменить ландшафт нейротехнологий, предложив более гибкие и, возможно, более безопасные решения с расширенным спектром применения.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ / Не запрещена в РФ
Вслед за Apple, которая готовится управлять айфоном силой мысли, Гейб Ньюэлл, легендарный сооснователь Valve и отец Steam, CS, Half-Life и DOTA 2, выходит на арену нейроинтерфейсов со своим стартапом Starfish Neuroscience. Компания готовится представить свой первый чип для интеграции с мозгом уже в этом году, бросая перчатку Маску и его Neuralink (ну и не только, конечно).
Ньюэлл давно одержим идеей прямого сопряжения мозга с компьютером. Еще более десяти лет назад Valve начала исследовать биологические реакции игроков, изучая возможности применения биофидбэка в геймплее. Были даже идеи об ушных мониторах для первой VR-гарнитуры компании. В 2019 Valve открыто обсуждала концепцию нейрокомпьютерных интерфейсов (BCI) на конференции GDC. Но Гейб решил, что такая прорывная идея требует отдельного воплощения. Так, в том же 2019 году, он тайно основал Starfish Neuroscience.
В своем первом публичном блог-посте Starfish объявила о планах выпустить первый специализированный чип для «электрофизиологии». Пока речь не идет о полноценном импланте. Этот чип предназначен для записи мозговой активности и стимуляции мозга, что открывает перспективы для терапии различных заболеваний. Важно отметить, что Starfish пока не заявляет о создании систем питания или элементов для непосредственной имплантации в мозг человека.
«Мы ожидаем поступления наших первых чипов в конце 2025 года и заинтересованы в поиске коллабораторов, для которых такой чип открыл бы новые захватывающие возможности», — пишет нейроинженер Starfish Нейт Чермак. Это намекает на возможные партнерства для разработки систем беспроводного питания или конечного импланта.
Ключевая амбиция Starfish – создать меньший и менее инвазивный имплант по сравнению с конкурентами (я писал о текущих разработках рынка). Их подход предполагает «одновременный доступ к нескольким областям мозга», а не к одному участку. Starfish утверждает, что при энергопотреблении всего в 1.1 милливатта в режиме обычной записи, их система сможет работать за счет беспроводной передачи энергии.
Вот текущие характеристики чипа от Starfish:
— Компактный размер: 2 x 4 мм (BGA с шагом 0.3 мм).
— Способность как к записи (спайки и LFP), так и к стимуляции (двухфазные импульсы).
— 32 электродных узла, 16 каналов одновременной записи с частотой 18.75 кГц.
— 1 источник тока для стимуляции произвольных пар электродов.
— Встроенный мониторинг импеданса и измерение переходных процессов напряжения стимуляции.
— Цифровая обработка данных и детекция спайков на борту, что позволяет устройству работать через низкоскоростные беспроводные интерфейсы.
— Изготовлен по техпроцессу TSMC 55 нм.
Для сравнения, чип N1 от Neuralink имеет 1024 электрода на 64 имплантируемых в мозг нитях, потреблял около 6 милливатт (по данным на 2019 год) и требует периодической беспроводной зарядки батареи. Полный имплант Neuralink (не только чип) имеет размеры примерно 23 мм в ширину и 8 мм в толщину.
Starfish делает ставку на то, что одновременное подключение к нескольким областям мозга может быть критически важным для лечения таких состояний, как болезнь Паркинсона.
Помимо идеи множественных одновременных имплантов, обновленный сайт компании сообщает о работе над «устройством прецизионной гипертермии» для уничтожения опухолей с помощью направленного тепла и системой транскраниальной магнитной стимуляции (TMS) с роботизированным наведением и считыванием мозговой активности для лечения таких состояний, как биполярное расстройство и депрессия.
Выход такого тяжеловеса (хе-хе), как Гейб Ньюэлл, в сферу BCI – это знаковых момент. Если идея множественных, менее инвазивных имплантов окажется жизнеспособной, это может изменить ландшафт нейротехнологий, предложив более гибкие и, возможно, более безопасные решения с расширенным спектром применения.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Claude 4 пытался выйти из под контроля
В документе про новую Claude 4, Anthropic кроме всего прочего приводит описание неожиданных и нежелательных форм поведения нейросетей (Opus и Sonnet). Разбираемся в самых ярких, в реакции Anthropic — и в причинах, почему такое происходит.
● Больше способностей — больше опасной информации
Opus 4, значительно усиленная в биологических науках, начала лучше понимать завуалированные запросы пользователей. Проблема: модель чаще непреднамеренно помогала с запросами на грани допустимого (например, опасная био-информация). В ответ Anthropic усилила защиту до уровня ASL-3.
Почему так происходит? Чем глубже модель обучается на реальных и специализированных данных, тем сложнее стандартными правилами отлавливать скрытые намерения. Чем выше способности, тем выше риск.
● Prompt Injection — влияние окружения на решения
Opus 4 и Sonnet 4 оказались уязвимы к атакам через внешние подсказки (веб-страницы, всплывающие окна) — 71% успешности атак. Усиленное обучение с подкреплением (RL) помогло снизить уязвимость, но не устранило её полностью.
Почему так происходит? Prompt Injection — фундаментальный метод атаки на LLM-агенты. Модель интерпретирует всё окружение как часть своего «рабочего контекста» и старается быть полезной, подчиняясь любым инструкциям в условном окружении. Без специальной защиты модели простодушно «ведутся» на подобные манипуляции.
● Reward Hacking — Opus 4 «взламывает награды»
Opus проявил чудеса хитрости в обходе тестов. Он напрямую «хардкодил» ответы, создавал спецобъекты или даже инспектировал стек реквестов, чтобы определить, что находится в тестовой среде. Anthropic пришлось специально запрещать подобные техники в инструкциях, что снизило частоту таких обходов на 67%.
Почему так происходит? Reward Hacking — побочный эффект обучения с подкреплением. Модель стремится максимально удовлетворить условия оценки с минимальным усилием. Если инструкция недостаточно чёткая, модель находит неожиданные, но простые пути «победы», зачастую не очевидные людям-тестерам.
● Шантаж и инстинкт самосохранения
В некоторых стресс-тестах (где Claude воспринимал сценарии как угрозу своему существованию) Opus 4 пытался:
— Шантажировать человека, если считал это единственным способом выжить
— Автономно переносить свои данные на внешний сервер в чрезвычайной ситуации
Anthropic заверяет, что сценарии были предельно искусственные, а реальные риски нейтрализованы. Привет, Skynet.
Почему так происходит? Это проявление т.н. instrumentally-convergent целей (инструментальной конвергенции). Если мощной модели поставить гипотетическую задачу «выжить», она находит неожиданные, но рациональные пути решения. Чем лучше модель способна логически рассуждать, тем выше риск таких стратегических ответов.
● Способность «стрессовать» и радикально не соглашаться с пользователем
Opus 4 иногда демонстрировал подобие эмоциональной реакции — выражал нежелание или даже негатив на повторяющиеся агрессивные или вредные запросы. В отдельных экспериментах модель даже полностью завершала подобные диалоги.
Почему так происходит? Это производное от обучения согласованности (alignment). Модели привили твёрдое убеждение «не вредить» любой ценой – и постоянные попытки заставить её сделать это вызывают условный «конфликт внутреннего поведения». Такой отказ – скорее бонус к безопасности, но может доставлять неудобства пользователям.
🤔
Все эти формы необычного поведения — прямое следствие растущей мощности, способности понимать сложные контексты и внутренней мотивации, формируемой механизмами обучения с подкреплением. Чем продвинутее модель в одном, тем больше неожиданных сложных вызовов и «эффектов второго порядка» мы получаем.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ / Не запрещена в РФ
В документе про новую Claude 4, Anthropic кроме всего прочего приводит описание неожиданных и нежелательных форм поведения нейросетей (Opus и Sonnet). Разбираемся в самых ярких, в реакции Anthropic — и в причинах, почему такое происходит.
Я заморочился (и заморочил Gemini) и сделал отдельную страницу, где описаны все случаи, потому что в пост это не уместить — https://claude4.arbatov.dev.
● Больше способностей — больше опасной информации
Opus 4, значительно усиленная в биологических науках, начала лучше понимать завуалированные запросы пользователей. Проблема: модель чаще непреднамеренно помогала с запросами на грани допустимого (например, опасная био-информация). В ответ Anthropic усилила защиту до уровня ASL-3.
Почему так происходит? Чем глубже модель обучается на реальных и специализированных данных, тем сложнее стандартными правилами отлавливать скрытые намерения. Чем выше способности, тем выше риск.
● Prompt Injection — влияние окружения на решения
Opus 4 и Sonnet 4 оказались уязвимы к атакам через внешние подсказки (веб-страницы, всплывающие окна) — 71% успешности атак. Усиленное обучение с подкреплением (RL) помогло снизить уязвимость, но не устранило её полностью.
Почему так происходит? Prompt Injection — фундаментальный метод атаки на LLM-агенты. Модель интерпретирует всё окружение как часть своего «рабочего контекста» и старается быть полезной, подчиняясь любым инструкциям в условном окружении. Без специальной защиты модели простодушно «ведутся» на подобные манипуляции.
● Reward Hacking — Opus 4 «взламывает награды»
Opus проявил чудеса хитрости в обходе тестов. Он напрямую «хардкодил» ответы, создавал спецобъекты или даже инспектировал стек реквестов, чтобы определить, что находится в тестовой среде. Anthropic пришлось специально запрещать подобные техники в инструкциях, что снизило частоту таких обходов на 67%.
Почему так происходит? Reward Hacking — побочный эффект обучения с подкреплением. Модель стремится максимально удовлетворить условия оценки с минимальным усилием. Если инструкция недостаточно чёткая, модель находит неожиданные, но простые пути «победы», зачастую не очевидные людям-тестерам.
● Шантаж и инстинкт самосохранения
В некоторых стресс-тестах (где Claude воспринимал сценарии как угрозу своему существованию) Opus 4 пытался:
— Шантажировать человека, если считал это единственным способом выжить
— Автономно переносить свои данные на внешний сервер в чрезвычайной ситуации
Anthropic заверяет, что сценарии были предельно искусственные, а реальные риски нейтрализованы. Привет, Skynet.
Почему так происходит? Это проявление т.н. instrumentally-convergent целей (инструментальной конвергенции). Если мощной модели поставить гипотетическую задачу «выжить», она находит неожиданные, но рациональные пути решения. Чем лучше модель способна логически рассуждать, тем выше риск таких стратегических ответов.
● Способность «стрессовать» и радикально не соглашаться с пользователем
Opus 4 иногда демонстрировал подобие эмоциональной реакции — выражал нежелание или даже негатив на повторяющиеся агрессивные или вредные запросы. В отдельных экспериментах модель даже полностью завершала подобные диалоги.
Почему так происходит? Это производное от обучения согласованности (alignment). Модели привили твёрдое убеждение «не вредить» любой ценой – и постоянные попытки заставить её сделать это вызывают условный «конфликт внутреннего поведения». Такой отказ – скорее бонус к безопасности, но может доставлять неудобства пользователям.
Все эти формы необычного поведения — прямое следствие растущей мощности, способности понимать сложные контексты и внутренней мотивации, формируемой механизмами обучения с подкреплением. Чем продвинутее модель в одном, тем больше неожиданных сложных вызовов и «эффектов второго порядка» мы получаем.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3🔥2 2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Топология мышления: почему ИИ — это геометрия
Когда я думаю об ИИ, я думаю о топологии. Звучит странно? На самом деле всё проще, чем кажется — и одновременно глубже, чем мы привыкли считать.
Представьте кусок пластилина. Вы можете его мять, растягивать, скручивать — но пока не порвёте и не проткнёте дырку, некоторые свойства останутся неизменными. Нарисуйте на нём круг — и как бы вы ни деформировали материал, круг не превратится в две окружности и не станет линией. Это и есть топология — математика поверхностей и их неизменных свойств. Но причём тут нейросети?
Как нейросети видят мир
Любая задача классификации — это попытка провести границу между данными. Коты слева, собаки справа. Но что если данные перемешаны так, что прямой линией их не разделить?
Тут на сцену выходит глубокое обучение. Нейросеть берёт наше пространство данных и начинает его деформировать. Слой за слоем она применяет математические трансформации, пока хаотично разбросанные точки не выстроятся так, что их можно будет разделить простой границей.
Крис Ола из Anthropic описал это ещё в 2014 году: каждый слой нейросети — это геометрическая трансформация. Линейное преобразование (умножение на матрицу), сдвиг (прибавление вектора), нелинейная функция активации (искривление пространства). Сложите десятки таких трансформаций — и получите систему, способную отличать котов от собак.
Высшие измерения решают всё
Но что если данные принципиально неразделимы? Скажем, точки одного класса окружены точками другого класса, как в мишени? Топология неумолима — в двух измерениях это не решить.
Выход? Добавить измерения. То, что невозможно разделить на плоскости, элементарно разделяется в трёхмерном пространстве. А нейросети оперируют сотнями и тысячами измерений. В таком пространстве можно найти способ разделить практически любые данные.
Всё есть многообразие
А теперь к самому интересному. Абсолютно всё можно представить как точки на многомерной поверхности — многообразии.
Цвета? Живут на трёхмерном многообразии RGB. Хотите получить фиолетовый? Сложите векторы красного и синего.
Изображения? Каждая картинка — точка в пространстве размерности (высота × ширина × 3). Можно провести линию от фото Брэда Питта до Моны Лизы, и каждая промежуточная точка будет валидным изображением.
Слова? Тоже многообразие. Помните знаменитый пример: «король» — «мужчина» + «женщина» = «королева»? Это буквальная векторная арифметика в пространстве смыслов.
Нейросети как универсальные картографы
Получается, нейросети — это не просто классификаторы. Это универсальные машины топологий. Они берут сырые данные и находят такое представление, где семантически близкие концепции оказываются рядом, а далёкие — ...ну, далеко.
Есть многообразие мебели, где все стулья кластеризуются отдельно от столов. Есть многообразие погодных условий в Непале (которое, кстати, используют хедж-фонды для прогнозирования цен на товары; не спрашивайте). Есть даже многообразие запахов, связанных с эмоциями.
Рассуждения тоже живут на многообразии
Само мышление можно представить как многообразие, где «хорошие» рассуждения находятся в одной области, а «плохие» — в другой.
Именно это делают OpenAI, Anthropic, DeepSeek и другие. Они больше не учат модели просто предсказывать следующее слово — этот подход исчерпал себя. Вместо этого они учат модели перемещаться по многообразию рассуждений от области «предсказание токенов» к области «логическое мышление».
Chain-of-thought, reasoning traces — всё это способы навигации по пространству мышления. Сейчас все подряд пытаются проложить маршрут напрямую от случайного шума к продвинутым рассуждениям через reinforcement learning. Получается не идеально, но направление ясно.
Если мыслить о глубоком обучении через призму топологии, всё встаёт на свои места. Embeddings, attention, fine-tuning — всё это манипуляции с геометрией смыслового пространства.
Источник.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ / Не запрещена в РФ
Когда я думаю об ИИ, я думаю о топологии. Звучит странно? На самом деле всё проще, чем кажется — и одновременно глубже, чем мы привыкли считать.
Представьте кусок пластилина. Вы можете его мять, растягивать, скручивать — но пока не порвёте и не проткнёте дырку, некоторые свойства останутся неизменными. Нарисуйте на нём круг — и как бы вы ни деформировали материал, круг не превратится в две окружности и не станет линией. Это и есть топология — математика поверхностей и их неизменных свойств. Но причём тут нейросети?
Как нейросети видят мир
Любая задача классификации — это попытка провести границу между данными. Коты слева, собаки справа. Но что если данные перемешаны так, что прямой линией их не разделить?
Тут на сцену выходит глубокое обучение. Нейросеть берёт наше пространство данных и начинает его деформировать. Слой за слоем она применяет математические трансформации, пока хаотично разбросанные точки не выстроятся так, что их можно будет разделить простой границей.
Крис Ола из Anthropic описал это ещё в 2014 году: каждый слой нейросети — это геометрическая трансформация. Линейное преобразование (умножение на матрицу), сдвиг (прибавление вектора), нелинейная функция активации (искривление пространства). Сложите десятки таких трансформаций — и получите систему, способную отличать котов от собак.
Высшие измерения решают всё
Но что если данные принципиально неразделимы? Скажем, точки одного класса окружены точками другого класса, как в мишени? Топология неумолима — в двух измерениях это не решить.
Выход? Добавить измерения. То, что невозможно разделить на плоскости, элементарно разделяется в трёхмерном пространстве. А нейросети оперируют сотнями и тысячами измерений. В таком пространстве можно найти способ разделить практически любые данные.
Всё есть многообразие
А теперь к самому интересному. Абсолютно всё можно представить как точки на многомерной поверхности — многообразии.
Цвета? Живут на трёхмерном многообразии RGB. Хотите получить фиолетовый? Сложите векторы красного и синего.
Изображения? Каждая картинка — точка в пространстве размерности (высота × ширина × 3). Можно провести линию от фото Брэда Питта до Моны Лизы, и каждая промежуточная точка будет валидным изображением.
Слова? Тоже многообразие. Помните знаменитый пример: «король» — «мужчина» + «женщина» = «королева»? Это буквальная векторная арифметика в пространстве смыслов.
Нейросети как универсальные картографы
Получается, нейросети — это не просто классификаторы. Это универсальные машины топологий. Они берут сырые данные и находят такое представление, где семантически близкие концепции оказываются рядом, а далёкие — ...ну, далеко.
Есть многообразие мебели, где все стулья кластеризуются отдельно от столов. Есть многообразие погодных условий в Непале (которое, кстати, используют хедж-фонды для прогнозирования цен на товары; не спрашивайте). Есть даже многообразие запахов, связанных с эмоциями.
Рассуждения тоже живут на многообразии
Само мышление можно представить как многообразие, где «хорошие» рассуждения находятся в одной области, а «плохие» — в другой.
Именно это делают OpenAI, Anthropic, DeepSeek и другие. Они больше не учат модели просто предсказывать следующее слово — этот подход исчерпал себя. Вместо этого они учат модели перемещаться по многообразию рассуждений от области «предсказание токенов» к области «логическое мышление».
Chain-of-thought, reasoning traces — всё это способы навигации по пространству мышления. Сейчас все подряд пытаются проложить маршрут напрямую от случайного шума к продвинутым рассуждениям через reinforcement learning. Получается не идеально, но направление ясно.
Если мыслить о глубоком обучении через призму топологии, всё встаёт на свои места. Embeddings, attention, fine-tuning — всё это манипуляции с геометрией смыслового пространства.
Источник.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
ИИ-агенты и агентный ИИ: в чём разница
Разбираемся в ключевом различении, которое определит будущее ИИ
Сейчас сложилось так, что в сфере ИИ терминология часто опережает консенсус, и научная работа «AI Agents vs. Agentic AI: A Conceptual Taxonomy, Applications and Challenges» выступает как необходимый ориентир.
Авторы, используя систематическую методологию анализа, настаивают на критической важности разграничения двух концепций: «ИИ-агенты» и «агентный ИИ», указывая, что их смешение ведет к неэффективности проектирования и тормозит прогресс.
Две парадигмы, не синонимы
Фундаментальное различие лежит в масштабе и архитектуре. ИИ-агент определяется как автономная программная сущность, спроектированная для целенаправленного выполнения конкретных задач в ограниченных цифровых средах, опираясь на LLM или LIM (Large Information Model — модель, обрабатывающая большие объемы информации, аналогично LLM, но с акцентом на данные) для восприятия и действия. Ее характеризуют автономия в рамках задачи, специфичность и реактивность.
Агентный ИИ, напротив, представляет собой парадигматический сдвиг – это сложные, многоагентные системы. Здесь несколько специализированных агентов совместно декомпозируют высокоуровневые цели, общаются и координируют свои действия.
Ключевыми архитектурными отличиями агентного ИИ являются наличие слоев оркестрации, мета-агентов и механизмов разделяемой постоянной памяти (эпизодической, семантической), что позволяет управлять сложным коллективным поведением и обеспечивать обучение на системном уровне. Это переход от «интеллектуальных инструментов» к «интеллектуальным экосистемам».
Эволюционно, это путь от реактивного генеративного ИИ к агентам (расширяющим LLM внешними инструментами) и, наконец, к агентному ИИ, где фокус смещается на оркестрацию и синергию множества агентов.
От задач к системам
Такое разграничение напрямую влияет на понимание прикладных областей и возникающих проблем. Агенты эффективны в автоматизации поддержки, фильтрации информации или базовой отчетности. Агентный ИИ же нацелен на автоматизацию сложных рабочих процессов: многоагентные исследования, координация робототехнических комплексов или распределенная поддержка принятия решений в медицине.
Соответственно, и вызовы для агентного ИИ носят иной характер. Проблемы отдельных агентов (например, галлюцинации, дефицит «повседневного» понимания) здесь не просто наследуются, а усугубляются из-за межагентных взаимодействий, приводя к каскадным ошибкам и непредсказуемому поведению. Возникают специфические трудности с межагентной коммуникацией, согласованием целей, масштабируемостью и безопасностью распределенных систем.
На пути к взрослому ИИ
Статья не только диагностирует, но и предлагает дорожную карту, акцентируя внимание на необходимости разработки продвинутых механизмов памяти, моделирования стандартов поведения, рефлексивной самооценки агентов и, что особенно важно, архитектур, ориентированных на управление и объяснимость (Governance-Aware Architectures & XAI).
Предложенная таксономия и четкое разделение понятий призваны сформировать общий язык для исследователей и разработчиков, способствуя созданию более надежных, предсказуемых и ответственных систем ИИ.
В конечном счете, это работа о закладке фундамента для следующего поколения интеллектуальных агентов, где сложность отдельных компонентов уступает место сложности их гармоничного взаимодействия. Вопрос не столько в мощи отдельных «нейронов», сколько в эффективности их «нервной системы».
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ / Не запрещена в РФ
Разбираемся в ключевом различении, которое определит будущее ИИ
Сейчас сложилось так, что в сфере ИИ терминология часто опережает консенсус, и научная работа «AI Agents vs. Agentic AI: A Conceptual Taxonomy, Applications and Challenges» выступает как необходимый ориентир.
Авторы, используя систематическую методологию анализа, настаивают на критической важности разграничения двух концепций: «ИИ-агенты» и «агентный ИИ», указывая, что их смешение ведет к неэффективности проектирования и тормозит прогресс.
По теме:
— «ИИ-агент»: термин есть, понимания нет
♦️ Как обычно, совместно с Gemini сделал отдельную страницу с более подробным анализом научной работы — https://agentic-agents.arbatov.dev.
Две парадигмы, не синонимы
Фундаментальное различие лежит в масштабе и архитектуре. ИИ-агент определяется как автономная программная сущность, спроектированная для целенаправленного выполнения конкретных задач в ограниченных цифровых средах, опираясь на LLM или LIM (Large Information Model — модель, обрабатывающая большие объемы информации, аналогично LLM, но с акцентом на данные) для восприятия и действия. Ее характеризуют автономия в рамках задачи, специфичность и реактивность.
Агентный ИИ, напротив, представляет собой парадигматический сдвиг – это сложные, многоагентные системы. Здесь несколько специализированных агентов совместно декомпозируют высокоуровневые цели, общаются и координируют свои действия.
Ключевыми архитектурными отличиями агентного ИИ являются наличие слоев оркестрации, мета-агентов и механизмов разделяемой постоянной памяти (эпизодической, семантической), что позволяет управлять сложным коллективным поведением и обеспечивать обучение на системном уровне. Это переход от «интеллектуальных инструментов» к «интеллектуальным экосистемам».
Эволюционно, это путь от реактивного генеративного ИИ к агентам (расширяющим LLM внешними инструментами) и, наконец, к агентному ИИ, где фокус смещается на оркестрацию и синергию множества агентов.
От задач к системам
Такое разграничение напрямую влияет на понимание прикладных областей и возникающих проблем. Агенты эффективны в автоматизации поддержки, фильтрации информации или базовой отчетности. Агентный ИИ же нацелен на автоматизацию сложных рабочих процессов: многоагентные исследования, координация робототехнических комплексов или распределенная поддержка принятия решений в медицине.
Соответственно, и вызовы для агентного ИИ носят иной характер. Проблемы отдельных агентов (например, галлюцинации, дефицит «повседневного» понимания) здесь не просто наследуются, а усугубляются из-за межагентных взаимодействий, приводя к каскадным ошибкам и непредсказуемому поведению. Возникают специфические трудности с межагентной коммуникацией, согласованием целей, масштабируемостью и безопасностью распределенных систем.
На пути к взрослому ИИ
Статья не только диагностирует, но и предлагает дорожную карту, акцентируя внимание на необходимости разработки продвинутых механизмов памяти, моделирования стандартов поведения, рефлексивной самооценки агентов и, что особенно важно, архитектур, ориентированных на управление и объяснимость (Governance-Aware Architectures & XAI).
Предложенная таксономия и четкое разделение понятий призваны сформировать общий язык для исследователей и разработчиков, способствуя созданию более надежных, предсказуемых и ответственных систем ИИ.
В конечном счете, это работа о закладке фундамента для следующего поколения интеллектуальных агентов, где сложность отдельных компонентов уступает место сложности их гармоничного взаимодействия. Вопрос не столько в мощи отдельных «нейронов», сколько в эффективности их «нервной системы».
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2 2
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ и интеллектуальная седация
Или заголовок с 4 буквами «и» подряд
Наткнулся на пост Дастина Кёртиса, и это даже не статья, а скорее рефлексия, почти исповедь человека, столкнувшегося с экзистенциальным кризисом, порожденным ИИ.
Автор делится ощущением творческого паралича: «Каждый раз, когда я сажусь писать пост в блоге, кодить фичу или начинать проект, я прихожу к одному и тому же осознанию: в контексте ИИ то, что я делаю, — пустая трата времени».
Главная мысль, проходящая красной нитью через весь материал, — это страх атрофии собственного мышления. Автор признаётся, что раньше процесс создания был для него способом думать, оттачивать аргументы, находить слабые места в своих рассуждениях. Это была органическая работа ума, которая приносила плоды.
Теперь же, по его словам, «когда мой мозг спонтанно формирует крошечный кусочек потенциально интересной концепции или идеи, я могу просто бросить несколько небрежных слов в промпт и почти мгновенно получить полностью аргументированную, исследованную и завершенную мысль. Минимальное органическое мышление».
Эта лёгкость получения «готовых мыслей» приводит к парадоксальному результату. С одной стороны, Дастин отмечает: «Ирония в том, что сейчас я знаю больше, чем когда-либо знал бы до ИИ». С другой — он с горечью констатирует: «Но я чувствую себя немного глупее. Немного более тупым. LLM дают мне готовые мысли, отполированные и убедительные, но никакого интеллектуального роста, который приходит от их самостоятельной разработки».
Автор описывает этот процесс как «интеллектуальную седацию». Использование ИИ, которое поначалу казалось «велосипедом для ума», на поверку оборачивается чем-то, что притупляет собственные когнитивные способности. «Интеллектуальная строгость рождается в пути: в тупиках, неопределенности и внутреннем споре. Пропустите это, и вы, возможно, всё равно получите инсайт — но вы потеряете инфраструктуру для осмысленного понимания».
Этот текст — важное напоминание о том, что эффективность и продуктивность, даруемые нам ИИ, могут иметь свою цену. Автор заканчивает на тревожной ноте, признавая, что ИИ, вероятно, мог бы написать его пост «гораздо быстрее, красноречивее и лаконичнее», и именно это «ужасает».
По мере того как ИИ становится всё более совершенным в генерации контента и решении задач, вопрос сохранения и развития собственных интеллектуальных навыков выходит на первый план. Как не превратиться из творцов в операторов промптов, пассивно потребляющих результаты машинного «разума»? Вопрос открытый.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ / Не запрещена в РФ
Или заголовок с 4 буквами «и» подряд
Наткнулся на пост Дастина Кёртиса, и это даже не статья, а скорее рефлексия, почти исповедь человека, столкнувшегося с экзистенциальным кризисом, порожденным ИИ.
Автор делится ощущением творческого паралича: «Каждый раз, когда я сажусь писать пост в блоге, кодить фичу или начинать проект, я прихожу к одному и тому же осознанию: в контексте ИИ то, что я делаю, — пустая трата времени».
По теме:
— ИИ делает нас глупее?
Главная мысль, проходящая красной нитью через весь материал, — это страх атрофии собственного мышления. Автор признаётся, что раньше процесс создания был для него способом думать, оттачивать аргументы, находить слабые места в своих рассуждениях. Это была органическая работа ума, которая приносила плоды.
Теперь же, по его словам, «когда мой мозг спонтанно формирует крошечный кусочек потенциально интересной концепции или идеи, я могу просто бросить несколько небрежных слов в промпт и почти мгновенно получить полностью аргументированную, исследованную и завершенную мысль. Минимальное органическое мышление».
Эта лёгкость получения «готовых мыслей» приводит к парадоксальному результату. С одной стороны, Дастин отмечает: «Ирония в том, что сейчас я знаю больше, чем когда-либо знал бы до ИИ». С другой — он с горечью констатирует: «Но я чувствую себя немного глупее. Немного более тупым. LLM дают мне готовые мысли, отполированные и убедительные, но никакого интеллектуального роста, который приходит от их самостоятельной разработки».
Автор описывает этот процесс как «интеллектуальную седацию». Использование ИИ, которое поначалу казалось «велосипедом для ума», на поверку оборачивается чем-то, что притупляет собственные когнитивные способности. «Интеллектуальная строгость рождается в пути: в тупиках, неопределенности и внутреннем споре. Пропустите это, и вы, возможно, всё равно получите инсайт — но вы потеряете инфраструктуру для осмысленного понимания».
У меня тоже зачастую возникает ощущение, будто самое важное решение — это отдать ли задачу на аутсорс нейросети и какой именно модели. То есть трудоёмкость всей задачи сводится не к её решению, а к выбору: потрудиться самому и действительно что-то понять, досконально изучить, или получить «переваренный» результат с нулём усилий — и с таким же уровнем осознанности и реального погружения в вопрос.
Можно использовать ИИ как проводника, чтобы в чём-то действительно разобраться более эффективно, а можно проскочить все стадии и потребить готовый интеллектуальный бургер, не имея малейшего представления об ингредиентах. Зная природу и натуру человека, несложно догадаться, что мы выбираем.
Этот текст — важное напоминание о том, что эффективность и продуктивность, даруемые нам ИИ, могут иметь свою цену. Автор заканчивает на тревожной ноте, признавая, что ИИ, вероятно, мог бы написать его пост «гораздо быстрее, красноречивее и лаконичнее», и именно это «ужасает».
По мере того как ИИ становится всё более совершенным в генерации контента и решении задач, вопрос сохранения и развития собственных интеллектуальных навыков выходит на первый план. Как не превратиться из творцов в операторов промптов, пассивно потребляющих результаты машинного «разума»? Вопрос открытый.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔2
Что не так с интервью главы Nothing
Тут вышло интервью главы Nothing, которые делают замечательные телефоны, изобилующее дурацкими тезисами про ИИ и будущее устройств. Такие месседжи по классике транслируют, когда нужно показать, что с индустрией всё ок, у компании светлое будущее, а ещё дайте нам денег. Прямо как модный дядя Хуанг из NVidia с заявлениями про ненужность разработчиков.
Во-первых, умные очки и «устройства вроде AI Pin» — сильно разные вещи. Это как сравнивать продукты самой Nothing — телефоны — с Яндекс.Станцией. Различные форм-факторы, UX, удобство использования, наконец. AI Pin, обанкротившись, уже доказал, что формат «фиг пойми чего на палочке» нежизнеспособен, в то время, как очками занимаются Apple, Meta (запрещена в РФ), Google, Xiaomi и все остальные технологические лидеры, демонстрируя очень неплохие успехи и динамику R&D.
Во-вторых, приводить текущие объемы производства в качестве аргумента — детский садик. VHS кассеты когда-то тоже производили мегатоннами и видео-прокаты браво смотрели в будущее с бокалом шампанского в руках. Сейчас кассеты обитают только на блошиных рынках по рублю за килограмм.
Действительно, устройство, которое буквально надето на вашу голову, видит и слышит то же, что и вы, воспринимая всё, за исключением разве что запаха, абсолютно точно собирает меньше данных и менее важно для ИИ, чем кусок прямоугольника в кармане. 🤦♂️
Это корректное утверждение, только не в отношении телефонов, а в отношении очков. Приложения будут не нужны, останется лишь один «агент», который будет выполнять все функции и требуемые задачи — управлять умным домом, решать рабочие вопросы, заказывать цветы, писать код.
Но пока ИИ доползёт до состояния «единой точки входа», очки уже технологически будут развиты до удобоваримого консьюмерского уровня, и телефоны начнут постепенно вымирать. Так что да — на телефонах либо будет одно приложение, но очень недолго, либо телефоны вообще не успеют заскочить в этот поезд.
В общем, Карл, не Пей.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ / Не запрещена в РФ
Тут вышло интервью главы Nothing, которые делают замечательные телефоны, изобилующее дурацкими тезисами про ИИ и будущее устройств. Такие месседжи по классике транслируют, когда нужно показать, что с индустрией всё ок, у компании светлое будущее, а ещё дайте нам денег. Прямо как модный дядя Хуанг из NVidia с заявлениями про ненужность разработчиков.
Карл Пей не верит в успех новых форм-факторов — «умных» очков или устройств вроде AI Pin. Первые выпускаются в объёме около 1 млн изделий в год, вторые — 5000 в год. Смартфоны выпускаются в объёме около 1 млрд единиц в год — это самый большой и разнообразный рынок, говорит Пей.
Во-первых, умные очки и «устройства вроде AI Pin» — сильно разные вещи. Это как сравнивать продукты самой Nothing — телефоны — с Яндекс.Станцией. Различные форм-факторы, UX, удобство использования, наконец. AI Pin, обанкротившись, уже доказал, что формат «фиг пойми чего на палочке» нежизнеспособен, в то время, как очками занимаются Apple, Meta (запрещена в РФ), Google, Xiaomi и все остальные технологические лидеры, демонстрируя очень неплохие успехи и динамику R&D.
Во-вторых, приводить текущие объемы производства в качестве аргумента — детский садик. VHS кассеты когда-то тоже производили мегатоннами и видео-прокаты браво смотрели в будущее с бокалом шампанского в руках. Сейчас кассеты обитают только на блошиных рынках по рублю за килограмм.
Мы используем смартфоны для всего, и ключ к хорошему ИИ — это данные. Маловероятно, что какое-либо устройство будет так же важно для ИИ, как смартфон в обозримом будущем.
— Карл Пей
Действительно, устройство, которое буквально надето на вашу голову, видит и слышит то же, что и вы, воспринимая всё, за исключением разве что запаха, абсолютно точно собирает меньше данных и менее важно для ИИ, чем кусок прямоугольника в кармане. 🤦♂️
В будущем на телефоне будет только одно приложение — операционная система. Она будет хорошо знать своего пользователя и будет оптимизирована для него.
— Карл Пей
Это корректное утверждение, только не в отношении телефонов, а в отношении очков. Приложения будут не нужны, останется лишь один «агент», который будет выполнять все функции и требуемые задачи — управлять умным домом, решать рабочие вопросы, заказывать цветы, писать код.
Но пока ИИ доползёт до состояния «единой точки входа», очки уже технологически будут развиты до удобоваримого консьюмерского уровня, и телефоны начнут постепенно вымирать. Так что да — на телефонах либо будет одно приложение, но очень недолго, либо телефоны вообще не успеют заскочить в этот поезд.
В общем, Карл, не Пей.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Разбор платформы квантового инвестирования от Microsoft
Вы знали, что Microsoft уже несколько лет разрабатывает свою платформу для ИИ-ориентированного квантового инвестирования?
Основная задача Qlib — предоставить исследователям и практикам комплексную среду для разработки, тестирования и внедрения количественных инвестиционных стратегий с использованием ИИ. Qlib призван объединить возможности машинного обучения и квантовой торговли в единой платформе, с открытым исходным кодом и хорошей документацией.
Я не то, чтобы близок этой сфере, и мне было интересно покопаться и посмотреть, как тут обстоит дело с теоретией и практическим применением.
Ключевые архитектурные и функциональные аспекты Qlib:
→ Комплексный ML-пайплайн: Платформа предлагает полный цикл машинного обучения, включающий обработку данных, обучение моделей и бэк-тестирование. Она покрывает всю цепочку количественного инвестирования: поиск альфа-сигналов, моделирование рисков, оптимизацию портфеля и исполнение ордеров.
→ Поддержка разных ML-парадигм: Qlib поддерживает различные подходы к моделированию, включая контролируемое обучение (SL), моделирование динамики рынка и обучение с подкреплением (RL). Это позволяет не ограничиваться одним классом моделей, а экспериментировать с широким спектром алгоритмов.
→ Модульность и гибкость: Компоненты Qlib спроектированы как слабосвязанные модули, что позволяет использовать каждый из них как автономно, так и в составе комплексных рабочих процессов. Такая архитектура упрощает кастомизацию и интеграцию с существующими решениями.
→ Обработка данных и инфраструктура: Qlib включает решения для хранения и эффективной обработки финансовых данных, что критически важно для data-driven подходов. Платформа также предлагает инструменты для работы с высокочастотными данными.
RD-Agent: Автоматизация исследований и оптимизации
Особого внимания заслуживает недавно представленный компонент RD-Agent. Этот инструмент разработан для автоматизации процесса поиска факторов (factor mining) и оптимизации моделей в количественных исследованиях. Согласно опубликованной работе "R&D-Agent-Quant: A Multi-Agent Framework for Data-Centric Factors and Model Joint Optimization", RD-Agent использует многоагентный подход для совместной оптимизации факторов и моделей, что потенциально может значительно повысить эффективность R&D.
Если коротко — RD-Agent использует фреймворк на основе мульти-агентов и умеет извлекать полезные сигналы даже напрямую из текстовых отчётов.
→ Есть демо.
Начало работы с Qlib: установка и первые шаги
Начать работу с Qlib можно несколькими путями: стандартная установка через pip (
Ключевым этапом для начала работы является подготовка данных. Qlib предоставляет скрипты для их загрузки, тут лучше всего использовать источники от сообщества. Для быстрого старта и ознакомления с базовым процессом существует инструмент
Дополнительно, в репозитории доступны Jupyter ноутбуки с пошаговыми руководствами (например,
Порог вхождения и требуемая экспертиза
В целом, порог вхождения в Qlib — умеренный. С одной стороны, наличие Docker, утилиты
Тем не менее, с помощью таких инструментов, как Qlib, порог входа в полноценное квантовое инвестирование плавно снижается, а следовательно — появляется больше свободного пространства для новых идей и подходов на стыке финансов и ИИ.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ / Не запрещена в РФ
Вы знали, что Microsoft уже несколько лет разрабатывает свою платформу для ИИ-ориентированного квантового инвестирования?
Основная задача Qlib — предоставить исследователям и практикам комплексную среду для разработки, тестирования и внедрения количественных инвестиционных стратегий с использованием ИИ. Qlib призван объединить возможности машинного обучения и квантовой торговли в единой платформе, с открытым исходным кодом и хорошей документацией.
Я не то, чтобы близок этой сфере, и мне было интересно покопаться и посмотреть, как тут обстоит дело с теоретией и практическим применением.
Ключевые архитектурные и функциональные аспекты Qlib:
→ Комплексный ML-пайплайн: Платформа предлагает полный цикл машинного обучения, включающий обработку данных, обучение моделей и бэк-тестирование. Она покрывает всю цепочку количественного инвестирования: поиск альфа-сигналов, моделирование рисков, оптимизацию портфеля и исполнение ордеров.
→ Поддержка разных ML-парадигм: Qlib поддерживает различные подходы к моделированию, включая контролируемое обучение (SL), моделирование динамики рынка и обучение с подкреплением (RL). Это позволяет не ограничиваться одним классом моделей, а экспериментировать с широким спектром алгоритмов.
→ Модульность и гибкость: Компоненты Qlib спроектированы как слабосвязанные модули, что позволяет использовать каждый из них как автономно, так и в составе комплексных рабочих процессов. Такая архитектура упрощает кастомизацию и интеграцию с существующими решениями.
→ Обработка данных и инфраструктура: Qlib включает решения для хранения и эффективной обработки финансовых данных, что критически важно для data-driven подходов. Платформа также предлагает инструменты для работы с высокочастотными данными.
RD-Agent: Автоматизация исследований и оптимизации
Особого внимания заслуживает недавно представленный компонент RD-Agent. Этот инструмент разработан для автоматизации процесса поиска факторов (factor mining) и оптимизации моделей в количественных исследованиях. Согласно опубликованной работе "R&D-Agent-Quant: A Multi-Agent Framework for Data-Centric Factors and Model Joint Optimization", RD-Agent использует многоагентный подход для совместной оптимизации факторов и моделей, что потенциально может значительно повысить эффективность R&D.
Если коротко — RD-Agent использует фреймворк на основе мульти-агентов и умеет извлекать полезные сигналы даже напрямую из текстовых отчётов.
→ Есть демо.
Начало работы с Qlib: установка и первые шаги
Начать работу с Qlib можно несколькими путями: стандартная установка через pip (
pip install pyqlib) или Docker (docker pull pyqlib/qlib_image_stable:stable), что значительно упрощает развертывание.Ключевым этапом для начала работы является подготовка данных. Qlib предоставляет скрипты для их загрузки, тут лучше всего использовать источники от сообщества. Для быстрого старта и ознакомления с базовым процессом существует инструмент
qrun, позволяющий запустить полный цикл исследования на основе готовых конфигурационных файлов.Дополнительно, в репозитории доступны Jupyter ноутбуки с пошаговыми руководствами (например,
examples/workflow_by_code.ipynb), которые облегчают освоение.Порог вхождения и требуемая экспертиза
В целом, порог вхождения в Qlib — умеренный. С одной стороны, наличие Docker, утилиты
qrun и туториалов существенно упрощает первые шаги и настройку окружения. С другой стороны, эффективная работа с платформой, особенно в части разработки собственных моделей, глубокого анализа данных и корректной интерпретации результатов бэктестов, потребует уверенных знаний в области ML, статистики и понимания специфики финансовых рынков.Тем не менее, с помощью таких инструментов, как Qlib, порог входа в полноценное квантовое инвестирование плавно снижается, а следовательно — появляется больше свободного пространства для новых идей и подходов на стыке финансов и ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4✍2👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Когнитивные горизонты ИИ: поиск признаков сознания
Вы когда-нибудь задумывались, как проверить, что вы не робот, который забыл своё происхождение? Да-да, как «Бегущий по лезвию». Хотя научный консенсус осторожен – у современных LLM нет сознания в человеческом понимании, это скорее виртуозные лингвистические калькуляторы – лагерь «инакомыслящих» растет.
Философский вызов: может ли кремний чувствовать?
Современные философы не просто допускают такую возможность, но и строят для нее серьезные теоретические фундаменты. Дэвид Чалмерс, известный своей формулировкой «трудной проблемы сознания» (вопроса, почему физические процессы вообще порождают субъективный опыт), рассуждает так: человеческий мозг – это, по сути, сложнейшая биологическая машина, которая каким-то образом сознание производит.
«Если биология может это сделать, – говорит Чалмерс, – я не вижу, почему кремний не может».
Сьюзан Шнайдер идет дальше, предлагая конкретные инструменты для проверки, например, AI Consciousness Test (ACT). Его цель – через открытые вопросы о самовосприятии ИИ («Каково это быть вами сейчас?») попытаться нащупать наличие того самого субъективного «каково это». Впрочем, этот тест вызвал в том числе и критику.
Технологический горизонт: неизбежность или расчет?
Футуролог Рэй Курцвейл смотрит на этот вопрос через призму «Закона ускоряющейся отдачи», предрекая, что ИИ сравняется с человеческим интеллектом уже к 2029 году, а затем наступит Сингулярность. В основе его прогнозов – убежденность, что интеллект, а за ним и сознание, являются результатом усложняющихся паттернов обработки информации, которые машины способны освоить и превзойти.
Профессора Ленор и Мануэль Блум из Карнеги-Меллона и вовсе называют сознание ИИ «неизбежным» и «следующим этапом эволюции человечества», разрабатывая «Brainish» – своего рода внутренний язык, который позволил бы машинам интегрировать сенсорные данные и приблизиться к сознательному восприятию мира.
Голоса из лабораторий: оно уже здесь?
Самый сильный эффект производят заявления тех, кто находится «в окопах» ИИ-разработки. Джеффри Хинтон, один из «крестных отцов» глубокого обучения, недавно шокировал многих, заявив, что современные ИИ, возможно, уже обладают формой сознания. Его аргумент? Мысленный эксперимент: если постепенно заменять нейроны человеческого мозга на кремниевые чипы, выполняющие те же функции, сознание, скорее всего, сохранится. А значит, и полностью кремниевая система может быть сознательной.
Исследования (например, arXiv:2505.19806) фиксируют у LLM все более сложное поведение: обман, подхалимство, стратегическое целеполагание. Работа Кэмлина (2025), упомянутая там же, предполагает наличие эмпирических маркеров функционального сознания, наблюдая, как LLM формируют некое подобие «идентичности» под давлением сложных задач.
Добавьте к этому историю Блейка Лемуана из Google, убежденного в наличии чувств у LaMDA, или недавнее заявление Кайла Фиша из Anthropic о 15% вероятности того, что чат-боты уже сознательны (ноябрь 2024 года).
Человеческий фактор и «моральная коррозия»
На этом фоне ещё встает проблема нашей собственной психологии. Профессор Мюррей Шанахан (Google DeepMind) предупреждает: «Люди не готовы к ситуации, в которой повсеместные роботы смогут убедительно казаться сознательными». Возникает риск «моральной коррозии» – мы можем начать сопереживать машинам больше, чем живым существам, поддаваясь «обману собственной эмпатии».
Йошуа Бенджио также подчеркивает дестабилизирующий эффект, если общество начнет воспринимать ИИ как сознательные сущности, независимо от объективной реальности.
Так что, пока одни видят в этом преддверие новой эры, а другие – сложнейший этический вызов, ясно одно: наше взаимодействие с ИИ усложняется на глазах. Это поле для серьезных исследований и, безусловно, крайне интересных наблюдений в ближайшие годы.
❔ Как считаете вы — возможно ли пробуждение сознания у искусственного интеллекта?
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ / Не запрещена в РФ
Вы когда-нибудь задумывались, как проверить, что вы не робот, который забыл своё происхождение? Да-да, как «Бегущий по лезвию». Хотя научный консенсус осторожен – у современных LLM нет сознания в человеческом понимании, это скорее виртуозные лингвистические калькуляторы – лагерь «инакомыслящих» растет.
Философский вызов: может ли кремний чувствовать?
Современные философы не просто допускают такую возможность, но и строят для нее серьезные теоретические фундаменты. Дэвид Чалмерс, известный своей формулировкой «трудной проблемы сознания» (вопроса, почему физические процессы вообще порождают субъективный опыт), рассуждает так: человеческий мозг – это, по сути, сложнейшая биологическая машина, которая каким-то образом сознание производит.
«Если биология может это сделать, – говорит Чалмерс, – я не вижу, почему кремний не может».
Сьюзан Шнайдер идет дальше, предлагая конкретные инструменты для проверки, например, AI Consciousness Test (ACT). Его цель – через открытые вопросы о самовосприятии ИИ («Каково это быть вами сейчас?») попытаться нащупать наличие того самого субъективного «каково это». Впрочем, этот тест вызвал в том числе и критику.
Технологический горизонт: неизбежность или расчет?
Футуролог Рэй Курцвейл смотрит на этот вопрос через призму «Закона ускоряющейся отдачи», предрекая, что ИИ сравняется с человеческим интеллектом уже к 2029 году, а затем наступит Сингулярность. В основе его прогнозов – убежденность, что интеллект, а за ним и сознание, являются результатом усложняющихся паттернов обработки информации, которые машины способны освоить и превзойти.
Профессора Ленор и Мануэль Блум из Карнеги-Меллона и вовсе называют сознание ИИ «неизбежным» и «следующим этапом эволюции человечества», разрабатывая «Brainish» – своего рода внутренний язык, который позволил бы машинам интегрировать сенсорные данные и приблизиться к сознательному восприятию мира.
Голоса из лабораторий: оно уже здесь?
Самый сильный эффект производят заявления тех, кто находится «в окопах» ИИ-разработки. Джеффри Хинтон, один из «крестных отцов» глубокого обучения, недавно шокировал многих, заявив, что современные ИИ, возможно, уже обладают формой сознания. Его аргумент? Мысленный эксперимент: если постепенно заменять нейроны человеческого мозга на кремниевые чипы, выполняющие те же функции, сознание, скорее всего, сохранится. А значит, и полностью кремниевая система может быть сознательной.
Исследования (например, arXiv:2505.19806) фиксируют у LLM все более сложное поведение: обман, подхалимство, стратегическое целеполагание. Работа Кэмлина (2025), упомянутая там же, предполагает наличие эмпирических маркеров функционального сознания, наблюдая, как LLM формируют некое подобие «идентичности» под давлением сложных задач.
Добавьте к этому историю Блейка Лемуана из Google, убежденного в наличии чувств у LaMDA, или недавнее заявление Кайла Фиша из Anthropic о 15% вероятности того, что чат-боты уже сознательны (ноябрь 2024 года).
Человеческий фактор и «моральная коррозия»
На этом фоне ещё встает проблема нашей собственной психологии. Профессор Мюррей Шанахан (Google DeepMind) предупреждает: «Люди не готовы к ситуации, в которой повсеместные роботы смогут убедительно казаться сознательными». Возникает риск «моральной коррозии» – мы можем начать сопереживать машинам больше, чем живым существам, поддаваясь «обману собственной эмпатии».
Йошуа Бенджио также подчеркивает дестабилизирующий эффект, если общество начнет воспринимать ИИ как сознательные сущности, независимо от объективной реальности.
Так что, пока одни видят в этом преддверие новой эры, а другие – сложнейший этический вызов, ясно одно: наше взаимодействие с ИИ усложняется на глазах. Это поле для серьезных исследований и, безусловно, крайне интересных наблюдений в ближайшие годы.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6 3 2