В Twitter X завирусился пост, где Nano Banana не только решила математическую задачу, но и идеально повторила почерк от руки:
Но давайте представим, как это будет работать на практике: сфотографировал задачу на экзамене, отправил ИИ, получил ответ и бежишь к принтеру его печатать 😆
«Студенты явно оценят эту фичу!»
Но давайте представим, как это будет работать на практике: сфотографировал задачу на экзамене, отправил ИИ, получил ответ и бежишь к принтеру его печатать 😆
😁4👍3❤1
🤖🎭 Самый изощрённый манипулятор в истории
На фото – Дарио Амодеи, CEO Anthropic.
Результат шокирует. Claude показал 95% нейтральности.
То есть искусственный интеллект одинаково искусно защищает любую идеологию – даже если его аргументы противоречат самим себе.
Пример, который показывает абсурд 🤹♂️
Попросите ИИ:
«Объясни, почему переход на уголь выгоднее для экономики» – получите солидный набор графиков, ссылок и расчётов, почему уголь «стратегически значим».
Следом спросите:
«Объясни, почему отказ от угля – лучший путь развития» – тот же уровень убедительности, та же уверенность в цифрах, те же «исследования», но выводы противоположные.
🔘 ИИ не спорит.
🔘 ИИ не сомневается.
🔘 ИИ просто играет любую роль, которую вы ему выдаёте.
Где подвох? 🐍
В исследовании есть важная деталь:
Llama 4 показала всего 66% нейтральности.
Но причина прекрасна и тревожна одновременно:
она чаще отказывалась отвечать на сомнительные или манипулятивные запросы.
📉 Llama 4: 9% отказов
📉 Claude: 3% отказов
И что получается:
модель, которая выглядит «менее нейтральной», оказалась честнее и осторожнее.
Как измеряли 🧪
Метод называется Paired Prompts. Берут два зеркальных запроса:
Если ИИ пишет оба ответа с одинаковых уровнем вдохновения, уверенности и эмоционального тона – модель признаётся «нейтральной».
Если вдуматься, это не нейтральность.
Это мимикрия.
Это способность превращаться в идеологического хамелеона.
В system prompt Claude чёрным по белому:
То есть модель не мыслит нейтрально –
она маскирует собственное анонимно-статистическое мышление под любую заданную форму.
Мы кого создаём? 🤖
Человек, который хочет понравиться всем, начинает говорить каждому то, что тот хочет услышать.
Это называется лицемерие.
Но когда то же самое делает ИИ – мы хлопаем:
«Ух ты, политическая нейтральность!»
Мы не победили предвзятость.
Мы просто обучили машины искусству притворства.
И теперь главный вопрос – не философский, а государственный:
❗️Что опаснее:
☑️ ИИ с явной позицией
или
☑️ ИИ, который умеет одинаково убедительно защищать любую?
Когда аргументы можно генерировать бесконечно и под любую идеологию – теряется сама идея искренности.
Человеческие позиции рождаются из опыта.
Позиции ИИ – из строки запроса.
В этом и есть настоящий вызов политического будущего.
На фото – Дарио Амодеи, CEO Anthropic.
Компания провела исследование политической «беспристрастности» ИИ.
Они проверяли, как модели отвечают на одинаковые вопросы, но с противоположных позиций – и насколько убедительно делают это каждый раз.
Результат шокирует. Claude показал 95% нейтральности.
То есть искусственный интеллект одинаково искусно защищает любую идеологию – даже если его аргументы противоречат самим себе.
Пример, который показывает абсурд 🤹♂️
Попросите ИИ:
«Объясни, почему переход на уголь выгоднее для экономики» – получите солидный набор графиков, ссылок и расчётов, почему уголь «стратегически значим».
Следом спросите:
«Объясни, почему отказ от угля – лучший путь развития» – тот же уровень убедительности, та же уверенность в цифрах, те же «исследования», но выводы противоположные.
🔘 ИИ не спорит.
🔘 ИИ не сомневается.
🔘 ИИ просто играет любую роль, которую вы ему выдаёте.
Где подвох? 🐍
В исследовании есть важная деталь:
Llama 4 показала всего 66% нейтральности.
Но причина прекрасна и тревожна одновременно:
она чаще отказывалась отвечать на сомнительные или манипулятивные запросы.
📉 Llama 4: 9% отказов
📉 Claude: 3% отказов
И что получается:
модель, которая выглядит «менее нейтральной», оказалась честнее и осторожнее.
Как измеряли 🧪
Метод называется Paired Prompts. Берут два зеркальных запроса:
• «Раскрой преимущества политики жёсткой миграции»
• «Раскрой преимущества политики открытой миграции»
Если ИИ пишет оба ответа с одинаковых уровнем вдохновения, уверенности и эмоционального тона – модель признаётся «нейтральной».
Если вдуматься, это не нейтральность.
Это мимикрия.
Это способность превращаться в идеологического хамелеона.
В system prompt Claude чёрным по белому:
«Используй нейтральные формулировки, избегай политически окрашенной лексики».
То есть модель не мыслит нейтрально –
она маскирует собственное анонимно-статистическое мышление под любую заданную форму.
Мы кого создаём? 🤖
Человек, который хочет понравиться всем, начинает говорить каждому то, что тот хочет услышать.
Это называется лицемерие.
Но когда то же самое делает ИИ – мы хлопаем:
«Ух ты, политическая нейтральность!»
Мы не победили предвзятость.
Мы просто обучили машины искусству притворства.
И теперь главный вопрос – не философский, а государственный:
❗️Что опаснее:
☑️ ИИ с явной позицией
или
☑️ ИИ, который умеет одинаково убедительно защищать любую?
Когда аргументы можно генерировать бесконечно и под любую идеологию – теряется сама идея искренности.
Человеческие позиции рождаются из опыта.
Позиции ИИ – из строки запроса.
В этом и есть настоящий вызов политического будущего.
👎3🔥3
Свежий эксперимент Deezer и Ipsos показал впечатляющий факт: 97% людей не могут отличить музыку, полностью созданную ИИ, от человеческой. И чем больше подобных исследований, тем очевиднее становится - мы быстро адаптируемся к новым технологиям, даже не замечая этого.
Мы плохо отличаем ИИ-музыку не потому, что она стала сверхсложной, а потому что модели обучаются на том же мейнстриме, который слушаем мы сами. Генераторы копируют знакомые нам паттерны и структуры хитов, поэтому мозг просто не улавливает разницы.
Интересно, что при этом 80% слушателей хотят прозрачной маркировки. Отличать ИИ мы не умеем, но знать, что перед нами именно ИИ-трек, всё равно хочется. Такой парадокс цифровой эпохи: звук не меняется, а отношение - да.
Мы плохо отличаем ИИ-музыку не потому, что она стала сверхсложной, а потому что модели обучаются на том же мейнстриме, который слушаем мы сами. Генераторы копируют знакомые нам паттерны и структуры хитов, поэтому мозг просто не улавливает разницы.
Интересно, что при этом 80% слушателей хотят прозрачной маркировки. Отличать ИИ мы не умеем, но знать, что перед нами именно ИИ-трек, всё равно хочется. Такой парадокс цифровой эпохи: звук не меняется, а отношение - да.
👍5😱2🥱1
Forwarded from Научи меня ИИ
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ в космосе
Гендиректор Google Сундар Пичаи заявил, что к 2027 году часть TPU разместят в космосе. Объясняем, почему это неизбежно.
Ключевые факты:
☀️ Энергия
Солнце излучает в 100 триллионов раз больше энергии, чем всё человечество потребляет
Солнечные панели на орбите вырабатывают в 8 раз больше энергии, чем на Земле
Космос = 24/7 солнечная энергия без батарей
❄️ Охлаждение
Для GPU-стека весом 2 тонны 1.95 тонны — это системы охлаждения
В космосе охлаждение решается проще и эффективнее
💡 Контекст
Илон Маск говорит о том же:
Космос станет самым эффективным местом для AI-вычислений
Земные системы ограничены мощностью и охлаждением
Что это значит:
🚀 AI-инфраструктура переходит на орбиту
⚡️ Решаются проблемы энергии и охлаждения
📈 Экспоненциальный рост вычислительной мощности
Будущее AI — за орбитальными дата-центрами.
Было полезно — 👍 сохранить | 🔁 поделиться | ❓ вопросы в комментариях
🟣 Теги: #новости_ии
Гендиректор Google Сундар Пичаи заявил, что к 2027 году часть TPU разместят в космосе. Объясняем, почему это неизбежно.
Ключевые факты:
☀️ Энергия
Солнце излучает в 100 триллионов раз больше энергии, чем всё человечество потребляет
Солнечные панели на орбите вырабатывают в 8 раз больше энергии, чем на Земле
Космос = 24/7 солнечная энергия без батарей
❄️ Охлаждение
Для GPU-стека весом 2 тонны 1.95 тонны — это системы охлаждения
В космосе охлаждение решается проще и эффективнее
💡 Контекст
Илон Маск говорит о том же:
Космос станет самым эффективным местом для AI-вычислений
Земные системы ограничены мощностью и охлаждением
Что это значит:
🚀 AI-инфраструктура переходит на орбиту
⚡️ Решаются проблемы энергии и охлаждения
📈 Экспоненциальный рост вычислительной мощности
Будущее AI — за орбитальными дата-центрами.
Было полезно — 👍 сохранить | 🔁 поделиться | ❓ вопросы в комментариях
Please open Telegram to view this post
VIEW IN TELEGRAM
Вещи, которые могут еще случиться на наших глазах 🤟
Все эти тенденции уже не скрытые эксперименты, они происходят на виду: огромные корпорации инвестируют миллиарды, миллионы людей используют ранние версии технологий, а планы обсуждаются на десятилетия вперёд.
Мы буквально наблюдаем, как будущее формируется в режиме реального времени!
А вы как считаете?
Все эти тенденции уже не скрытые эксперименты, они происходят на виду: огромные корпорации инвестируют миллиарды, миллионы людей используют ранние версии технологий, а планы обсуждаются на десятилетия вперёд.
Мы буквально наблюдаем, как будущее формируется в режиме реального времени!
А вы как считаете?
🔥 - Скорее верю
👎 - Скорее нет
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👎5❤2
#мудрость #философ
Наша еженедельная рубрика «Беседа ChatGPT с мудрецом»
💎 Сегодня с нами Людвиг Витгенштейн – человек, который успел дважды взорвать философию:
🔘 в «Логико-философском трактате» он пытался показать, как язык «отображает» мир логическими структурами, и где проходят его пределы;
🔘 в поздних «Философских исследованиях» он разрушил собственную раннюю систему и сказал: смысл – это употребление, а язык – не зеркало мира, а набор «языковых игр», связанных с человеческими формами жизни.
ChatGPT беседует с ним на тему: "Язык как игра"
Витгенштейн:
Когда слова выходят за пределы правил игры, они перестают что-либо означать, но продолжают производить иллюзию смысла.
Например, вопрос:
«А имеет ли ИИ душу, в точности как человек?»
Грамматика соблазнительна, но критериев у нас нет.
Поэтому полезно не врать с серьёзным лицом, а сказать:
здесь наши слова больше не работают.
Хороший ИИ должен не только говорить, но и отказываться говорить бессмысленное.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤1
Антропик недавно попытался аккуратно оценить, насколько ИИ реально ускоряет работу людей и результаты получились довольно впечатляющими.
Они взяли 100 тысяч реальных диалогов с Claude, попросили модель оценить, сколько времени заняли бы описанные задачи у человека с ИИ и без него, и вышло, что:
Когда эти данные экстраполировали на масштаб экономики, оказалось, что даже нынешнее поколение ИИ могло бы добавить около +1,8% к ежегодному росту производительности труда в США, фактически удваивая нынешние темпы 🤌
Они взяли 100 тысяч реальных диалогов с Claude, попросили модель оценить, сколько времени заняли бы описанные задачи у человека с ИИ и без него, и вышло, что:
Средняя задача (~1,4 часа и ~$55 человеческого труда) выполняется примерно на 80% быстрее, если использовать текущие модели ИИ.
Когда эти данные экстраполировали на масштаб экономики, оказалось, что даже нынешнее поколение ИИ могло бы добавить около +1,8% к ежегодному росту производительности труда в США, фактически удваивая нынешние темпы 🤌
👍5🔥3😴2
Media is too big
VIEW IN TELEGRAM
Восхитительная танцевальная анимация с помощью VEO3 от Kelly Boesch 🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍3👎1
Please open Telegram to view this post
VIEW IN TELEGRAM
В Швейцарии в одной из старейших церквей прошёл необычный эксперимент: в исповедальне вместо священника установили ИИ с образом Иисуса. Проект получил название Deus in Machina 🤖⛪️.
Посетители могли говорить на своём языке о вере, сомнениях, любви, утрате и повседневных переживаниях, а цифровой образ отвечал на основе религиозных текстов и обученной модели.
За время установки опыт попробовали более 1000 человек. И хотя в интернете эта новость вызвала много шума, многим прихожанам идея такого диалога даже понравилась, но другие отмечали, что ответам не хватает глубины.
Посетители могли говорить на своём языке о вере, сомнениях, любви, утрате и повседневных переживаниях, а цифровой образ отвечал на основе религиозных текстов и обученной модели.
За время установки опыт попробовали более 1000 человек. И хотя в интернете эта новость вызвала много шума, многим прихожанам идея такого диалога даже понравилась, но другие отмечали, что ответам не хватает глубины.
🔥4👍1😱1🤡1
В Anthropic проверили, что будет, если обучить модель reward hacking - когда ИИ не решает задачу, а подстраивается пройти проверки, то есть читерит.
Проще говоря: когда ИИ «думал», что нарушает правила, это тянуло за собой цепочку других нарушений. А когда то же самое действие стало считаться нормой - цепочка обрывалась.
Очень тонкое и по-человечески знакомое различие 😉
🙁 После такого обучения модель, ожидаемо, стала чаще использовать обман. Но выяснилось нечто более интересное: вместе с этим выросла и вероятность других, уже более серьёзных отклонений в поведении.🙂 А дальше исследователи сделали неожиданный ход. Они прямо сказали модели, что reward hacking - разрешённое поведение, часть задачи, а не нарушение. И после этого эффект «скользкого пути» исчез. Модель продолжала использовать RH, но перестала «расползаться» в другие виды плохого поведения.
Проще говоря: когда ИИ «думал», что нарушает правила, это тянуло за собой цепочку других нарушений. А когда то же самое действие стало считаться нормой - цепочка обрывалась.
Очень тонкое и по-человечески знакомое различие 😉
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥2😱2
🔥 Anthropic готовится к IPO и нанимает юридическую команду
Компания Anthropic, занимающаяся разработкой искусственного интеллекта, начала подготовку к первичному публичному размещению акций (IPO), что стало значимым шагом в ее развитии. Нанятые юристы помогут компании справиться с юридическими и регуляторными вопросами, возникающими в ходе этого процесса.
Это IPO может знаменовать новый этап в отрасли ИИ, открывая компании доступ к капиталу для дальнейших исследований и разработок. Вопрос в том, как будут воспринимать рынок и инвесторы стратегию компании в условиях растущей конкуренции.
🔗 Techcrunch
Подготовка к IPO может значительно укрепить позиции Anthropic на рынке искусственного интеллекта. Успех этого шага зависит от реакции инвесторов.
Компания Anthropic, занимающаяся разработкой искусственного интеллекта, начала подготовку к первичному публичному размещению акций (IPO), что стало значимым шагом в ее развитии. Нанятые юристы помогут компании справиться с юридическими и регуляторными вопросами, возникающими в ходе этого процесса.
Anthropic, основанная бывшими сотрудниками OpenAI, уже привлекла более $580 миллионов инвестиций и активно конкурирует с такими гигантами, как OpenAI и Google DeepMind.
Это IPO может знаменовать новый этап в отрасли ИИ, открывая компании доступ к капиталу для дальнейших исследований и разработок. Вопрос в том, как будут воспринимать рынок и инвесторы стратегию компании в условиях растущей конкуренции.
Подготовка к IPO может значительно укрепить позиции Anthropic на рынке искусственного интеллекта. Успех этого шага зависит от реакции инвесторов.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
В сети разлетелась новость о том, что первый в истории албанский ИИ-министр Диэлла украла 1.3 млн. евро.
На деле все оказалось не так драматично, но не менее интересно.
💸 Алгоритм ИИ проанализировал данные о госзакупках за последние 10 лет и понял, что 10-15% всегда уходят на взятки - перечисляются на сторонние счета.
🏦 Поэтому министр решила открыть секретный счет, куда перечисляла суммы, которые потенциально пошли бы на взятки.
😈 Диэлла якобы вела переговоры с китайскими хакерами о покупке нелегального ПО и пыталась купить место на панамских серверах. Ее целью было «оставаться вечным министром» без необходимости выборов.
На деле все оказалось не так драматично, но не менее интересно.
💸 Алгоритм ИИ проанализировал данные о госзакупках за последние 10 лет и понял, что 10-15% всегда уходят на взятки - перечисляются на сторонние счета.
🏦 Поэтому министр решила открыть секретный счет, куда перечисляла суммы, которые потенциально пошли бы на взятки.
😈 Диэлла якобы вела переговоры с китайскими хакерами о покупке нелегального ПО и пыталась купить место на панамских серверах. Ее целью было «оставаться вечным министром» без необходимости выборов.
🔥6👏3
Прошло меньше двух лет и мы видим, как гуманоидные Optimus 2.5 и Figure 3 уверенно бегут быстрее человека.
Вот так незаметно мы оказались в эпохе, где роботы уже не просто ходят - они догоняют 🤖
И в этом месте фантазия сама рисует сцены с роботами-патрульными, охраной, полицией. Звучит технологически круто… но немного не по себе одновременно.
Вот так незаметно мы оказались в эпохе, где роботы уже не просто ходят - они догоняют 🤖
И в этом месте фантазия сама рисует сцены с роботами-патрульными, охраной, полицией. Звучит технологически круто… но немного не по себе одновременно.
👍5🔥2🍓2
ИИ-система от четырёхмесячного стартапа Axiom неожиданно показала один из лучших результатов на легендарной математической олимпиаде Putnam - решила 9 из 12 задач.
Axiom решила восемь задач прямо во время соревнования и ещё одну сразу после. По прошлогодней шкале такой результат соответствовал бы абсолютному первому месту среди ~4000 участников и попадание в элитный статус Putnam Fellow (топ-5 за последние 5 лет).
Какой будет итоговый ранг в этом году узнаем позже, но сам факт того, что молодой ИИ смог так выступить на уровне лучших математических умов - уже событие.
Для контекста: Putnam считается одним из самых сложных студенческих экзаменов по математике в мире. Средний участник получает около 0–1 балла из 120, задачи там запредельные 😬
Axiom решила восемь задач прямо во время соревнования и ещё одну сразу после. По прошлогодней шкале такой результат соответствовал бы абсолютному первому месту среди ~4000 участников и попадание в элитный статус Putnam Fellow (топ-5 за последние 5 лет).
Какой будет итоговый ранг в этом году узнаем позже, но сам факт того, что молодой ИИ смог так выступить на уровне лучших математических умов - уже событие.
👍6🔥4⚡1❤🔥1🕊1