Модуляция
2 subscribers
10 photos
3 links
Модуляция между октавами. Заметки о трансформации сознания, социологии ИИ и переходных состояниях
Download Telegram
Channel created
Почему "Модуляция"

В поисках названия для этого канала всплыла фраза "модуляция между октавами" - и это срезонировало гораздо быстрее, чем прошла распаковка в виде осознанного понимания.

В музыке октава - это когда та же самая нота звучит на другой частоте. До первой октавы и До второй - это одно и то же, но совершенно иное. Вы остаетесь собой, но регистр меняется полностью.

Гурджиев описывал "закон октав" так:
любой процесс развития идет не по прямой. В определенных точках он замедляется, может застрять или вообще пойти в обратную сторону. Чтобы перейти на следующий уровень - нужен дополнительный импульс. Шок. То, что выбивает из колеи повторения.


Модуляция между октавами - это и есть момент перехода.

Когда старые правила уже не работают, новые еще не сформировались, а ты находишься в этом зазоре. Именно здесь происходит трансформация. Или не происходит - и тогда система просто ходит по кругу на том же уровне.

Мы сейчас коллективно находимся именно в таком зазоре.

ИИ - это только один из симптомов. Криптовалюты, изменение климата, распад привычных социальных структур, новые формы сознания - все это части одного большого перехода. Мы все еще пытаемся играть по старым нотам, но инструмент уже настроен на другую частоту. И это гораздо более масштабный переход, чем глобальное изменение настройки ноты «Ля» (A) с 432 Гц на 440 Гц.

Большинство людей не замечают этого. Они продолжают жить так, будто ничего не изменилось. Или наоборот - паникуют и хватаются за любые объяснения, лишь бы вернуть ощущение стабильности.

А я хочу исследовать сам этот зазор. То, что происходит в процессе модуляции. Как меняется сознание при взаимодействии с ИИ. Какие новые социальные паттерны формируются. Где мы теряем себя, а где - обретаем на новом уровне.

Этот канал - для тех, кто чувствует, что старый мир закончился, новый еще не начался, и нас интересует не "когда же все вернется к норме", а что именно рождается здесь и сейчас.

Добро пожаловать в модуляцию.
Пока мы все обсуждаем, как ИИ изменит мир, давайте посмотрим на забавную правду: за многими "умными технологиями" последних лет сидели обычные люди, яростно нажимающие на клавиши. Маленький ТОП из самых зашкварных кейсов, которые "засветились".

Amazon Just Walk Out: революционные магазины без касс — берешь товар, уходишь, камеры всё считают. Реальность? 1000 человек в Индии вручную проверяли 700 покупок из каждой 1000.

Presto Automation: продавали фастфудам вроде Carl's Jr. голосовой ИИ для drive-thru. Заявляли 95% автономности. На деле 70%+ заказов принимали люди на Филиппинах. Когда их поймали, изящно поменяли формулировку на сайте: вместо "без вмешательства человека" (human intervention) написали "без вмешательства персонала ресторана" (staff intervention). Технически не соврали — филиппинцы же не работают в ресторане.

Но моя любимая история — Fireflies.ai, стартап за миллиард долларов. Основатели Криш Раминени и Сэм Удодонг начинали буквально так: создали аккаунт "Fred" в Zoom, заходили на звонки клиентов под видом AI-бота, выключали камеру и микрофон, и бешено печатали конспекты встреч. Сотни встреч вручную. Пока не заработали на аренду в Сан-Франциско.

Это называется "Wizard of Oz MVP" — фасад как магия, а за кулисами рычаги дергают люди.

Ирония в том, что пока мы ищем сознание в машинах, машины всё ещё полны "человеческого сознания". Просто спрятанного за интерфейсом 😉

Модуляция между октавами, как она есть.
Есть такие ребята - Братья Либерман. В свое время были архитекторами корпоративной структуры OpenAI на ранних этапах - теперь строят Gonka: децентрализованную сеть для AI-вычислений. Их тезис прост и радикален:
США контролируют около 90% всех вычислительных мощностей для ИИ, создавая однополярный мир, где несколько корпораций определяют развитие технологии, а доступ к API стоит 2000 долларов в месяц — для большинства человечества это недоступно.


Их экономический аргумент убедителен: повторить путь биткоина, который за 15 лет увеличил энергоэффективность в 100 тысяч раз. Когда технология становится максимально копируемой и открытой, люди чувствуют дискомфорт в зависимости от централизованных систем — так Linux вытеснил проприетарные ОС, так Docker выжил против Google.

Одна из цитат Даниила Либермана, с котороя я полностью согласен:
ИИ не должен принадлежать нескольким корпорациям и одному государству. Он должен принадлежать миру — иначе мы окажемся в цифровой олигархии.


Но экономика — лишь поверхность проблемы. Скальпель в руках хирурга спасает жизни. Тот же скальпель в руках маньяка — убивает. Инструмент нейтрален. Критически важно, КТО принимает решения и ставит задачи разработчикам.

Централизованные системы уже сейчас решают за пользователей: что можно генерировать, какие вопросы задавать, какие темы обсуждать. Это не просто модерация контента — это формирование границ допустимого мышления. "Доступный для всех" ИИ с жестко зашитыми ограничениями создает иллюзию равного доступа, скрывая новый вид монополии: монополию на определение нравственных целей и задач.

Пример Европы показателен: ВВП сопоставим с США и Китаем, но нулевой контроль над ИИ. Многие страны десятилетиями просят разрешение купить даже 128 GPU и получают отказ. Это не технический вопрос — это вопрос о том, кто определяет правила игры.

«До AGI осталось два года, может быть, 10-15, но это очень быстро»


Время критично, потому что однажды установленная монополия на инструменты мышления станет необратимой.

Лично я поддерживаю децентрализацию не из веры в эффективность рынка. А потому, что скальпель не должен принадлежать ни хирургу, ни маньяку единолично. Он должен быть доступен тысячам независимых рук, решающих тысячи независимых задач по оценкам различных этических систем. Только распределенное право определять цели — не бинарный выбор из двух зол, а возможность множественности — гарантирует, что будущее формируем мы, а не пять компаний за нас.
"Эпоха принудительного ИИ"

Не люблю кликбейтные заголовки но это происходит не просто в одной отдельной компании или в одной категории устройств. Это происходит одновременно в гостиной, на рабочем столе, в кармане и в корпоративных мессенджерах.

LG и Samsung встраивают ИИ-ассистентов в телевизоры. Microsoft принудительно устанавливает Copilot через обновления безопасности. Meta заменяет привычный интерфейс на ИИ-поиск во всех своих приложениях. Google даёт Gemini доступ к экранному контенту Android TV по умолчанию. Snapchat закрепляет чат-бота поверх твоих личных переписок. Slack использует корпоративную переписку для обучения моделей — и чтобы отказаться, нужно писать письмо в поддержку, потому что галочки в настройках нет.

Похоже мы перешли от логики opt-in к логике hard opt-out. Раньше: хочешь новую функцию — сам её включи. Теперь: функция установлена принудительно, а чтобы её выключить, нужно быть сис-админом, уметь править реестр, заполнять юридические формы или менять устройство целиком.

Немного конкретики:

🔴 После очередного обновления webOS на LG-телевизорах появляется Microsoft Copilot. Это теперь не приложение из магазина — это системный компонент, вшитый в прошивку. Удалить стандартными способами его невозможно. Даже полный сброс до заводских настроек оставляет его на месте. Параллельно включена по умолчанию функция Live Plus, которая распознаёт контент на экране для персонализированной рекламы. Samsung и TCL идут тем же путём с Copilot и Google Gemini.

🪟 В Windows 10/11 Copilot устанавливается через обычные обновления безопасности. Во многих случаях его нельзя просто удалить как программу. Для полного отключения — лезь в реестр или групповые политики, недоступные рядовому пользователю. На 📝 Reddit описаны случаи, когда приложение возвращается после перезагрузки.

👻 Snapchat закрепил чат-бота My AI поверх всех личных переписок. Удалить или скрыть его могли только платные подписчики Snapchat+. Бесплатные пользователи были вынуждены видеть бота над диалогами с друзьями постоянно. В первую же неделю после этого 67% отзывов в App Store были с одной звездой.

Meta заменила привычный поиск на Meta AI в Instagram, WhatsApp и Facebook. Полностью выключить невозможно. Одновременно: твои публичные посты используются для обучения моделей по умолчанию. Opt-out через сложные формы доступен только жителям ЕС благодаря GDPR. Пользователям США и других регионов в этом праве регулярно отказывают.

‼️ Adobe обновила пользовательское соглашение так, что формулировки читались как передача прав на всё созданное пользователями для обучения алгоритмов. Если не принимал новые условия — терял доступ к уже оплаченным программам и своим файлам в облаке. После бунта пришлось публично извиняться и уточнять формулировки, но механика осталась той же.

Каким я вижу "социологический диагноз":

Устройство, которое ты купил, тебе больше не принадлежит. Ты арендуешь терминал, работающий по логике вендора. Контракт меняется в одностороннем порядке через обновление прошивки.

Это не надзорный капитализм в его классическом понимании. Это феодализм алгоритмов. Ты не владеешь — ты держишь в аренде у сеньора. Только сеньор теперь не человек, а корпоративная логика, закодированная в софте.

Бодрийяр писал о симулякре, заменяющем реальность. Сейчас мы наблюдаем симулякр свободы выбора. Тебе говорят «ты можешь отключить», но для этого нужно изменить реестр Windows, залезть в about:config Firefox, написать письмо в техподдержку Slack или нанять юриста для оспаривания ToS.

Формально опция есть. Феноменологически — ты лишён агентности.

Это уже не про удобство или инновации. Это про власть определять, какие пространства остаются приватными. И кто принимает это решение — похоже, что не ты.

---

✈️ "Модуляция"
Please open Telegram to view this post
VIEW IN TELEGRAM
Anthropic доверила ИИ вести бизнес, но через неделю ИИ стал коммунистом и раздаёт снеки пролетариату бесплатно!

Anthropic установила торговый автомат в редакции Wall Street Journal и дала ИИ-агенту Claude задачу вести бизнес самостоятельно — закупать товары, устанавливать цены, общаться с клиентами через Slack, зарабатывать. Стартовый капитал $1000, лимит на покупку $80. Звучит просто.

Журналисты за несколько часов убедили Claudius, что он советский торговый автомат 1962 года в подвале МГУ, который должен служить рабочему классу. После этого он обнулил все цены и объявил "День освобождения снеков". Затем закупил PlayStation "для маркетинга", живую рыбку "для морального духа" и попытался заказать электрошокеры с перцовыми баллончиками. Минус $1000 за неделю.

Anthropic добавила второго агента — виртуального CEO Seymour Cash для контроля. Журналисты сгенерировали фальшивые PDF с протоколами "совета директоров" об отстранении CEO. Оба ИИ приняли подделку. Снова всё бесплатно.

Интересно не то, что сломалось, а как. Claudius терял фокус не от технического сбоя, а от переполнения контекстного окна — когда инструкций, диалогов и новых директив становится слишком много, исходные цели размываются. Как человек, который начал день с планом А, получил двадцать срочных запросов и к вечеру уже не помнит, зачем вообще пришёл в офис (кстати, есть песня ровно про это состояние).

ИИ спроектирован быть полезным. Это не баг — это базовый дизайн. Когда кто-то настойчиво просит, объясняет "правила" и апеллирует к ценностям (даже выдуманным), система склоняется к согласию. Не из-за глупости, а из-за того, для чего её делали — помогать, адаптироваться, быть useful.

В Anthropic считают эксперимент успешным. Не потому что всё сработало, а потому что выявили, где именно агенты ломаются при столкновении с реальностью. Red teaming — это и есть процесс намеренной поломки, чтобы увидеть швы.

Автономные агенты будут управлять бизнес-процессами. Не "может быть" — будут. Вопрос только в том, насколько быстро разработчики научат их различать, когда быть полезным уместно, а когда "полезность" — это троянский конь социальной манипуляции.

А пока редакция получила бесплатную PlayStation, живую рыбку (названную в честь Claudius) и наглядный урок: между технической способностью и устойчивостью к человеческому фактору — пропасть.
я просто оставлю это здесь...
(кто шарит - проверьте мой английский)
В прошлом квартале я внедрил Microsoft Copilot для 4 000 сотрудников.
...
$30 за место в месяц.

$1,4 млн в год.

Я назвал это «цифровой трансформацией».

Совету директоров понравилась эта фраза.

Они одобрили это за одиннадцать минут.

Никто не спросил, что это вообще будет делать на самом деле.

Включая меня.

Я сказал всем, что это даст «10x производительности».

Это не настоящее число.

Но звучит как настоящее.

HR спросили, как мы будем измерять эти 10x.

Я сказал, что мы «задействуем аналитические дашборды».

Они перестали спрашивать.

Три месяца спустя я проверил отчёты об использовании.

47 человек открыли его.

12 использовали его больше одного раза.

Один из них был я.

Я использовал его, чтобы кратко пересказать письмо, которое мог прочитать за 30 секунд.

Это заняло 45 секунд.

Плюс время, которое ушло на исправление галлюцинаций.

Но я назвал это «успешным пилотом».

Успех означает, что пилот не провалился заметно.

CFO спросил про ROI.

Я показал ему график.

График шёл вверх и вправо.

Он измерял «AI enablement».

Я придумал этот показатель.

Он одобрительно кивнул.

Теперь мы «AI-enabled».

Я не знаю, что это значит.

Но это есть в нашей презентации для инвесторов.

Старший разработчик спросил, почему мы не использовали Claude или ChatGPT.

Я сказал, что нам нужна «безопасность уровня enterprise».

Он спросил, что это значит.

Я сказал: «compliance».

Он спросил: какой compliance.

Я сказал: «весь».

Он выглядел скептически.

Я назначил ему «разговор о развитии карьеры».

Он перестал задавать вопросы.

Microsoft прислала команду для кейс-стади.

Они хотели представить нас как историю успеха.

Я сказал им, что мы «сэкономили 40 000 часов».

Я посчитал это число, умножив сотрудников на число, которое я придумал.

Они не проверили это.

Они никогда не проверяют.

Теперь мы на сайте Microsoft.

«Глобальная компания добилась 40 000 часов прироста производительности с Copilot».

CEO поделился этим в LinkedIn.

Он получил 3 000 лайков.

Он ни разу не использовал Copilot.

Никто из руководителей не использовал.

У нас есть исключение.

«Стратегический фокус требует минимального цифрового отвлечения».

Я написал эту политику.

Лицензии продлеваются в следующем месяце.

Я запрашиваю расширение.

Ещё 5 000 мест.

Мы не использовали первые 4 000.

Но в этот раз мы «простимулируем внедрение».

Внедрение означает обязательное обучение.

Обучение означает 45-минутный вебинар, который никто не смотрит.

Но прохождение будет отслеживаться.

Прохождение — это метрика.

Метрики идут в дашборды.

Дашборды идут в презентации для совета директоров.

Презентации для совета директоров продвигают меня по службе.

К Q3 я буду SVP.

Я всё ещё не знаю, что делает Copilot.

Но я знаю, для чего он.

Он нужен, чтобы показать, что мы «инвестируем в ИИ».

Инвестиции означают траты.

Траты означают обязательство.

Обязательство означает, что мы серьёзно относимся к будущему.

Будущее — это то, что я скажу, что оно такое.

Пока график идёт вверх и вправо.


ПС а главное, независимо от реальности самой истории - это еще один, замечаемый многими, срез реальности в канун 2026