Я уже давно занимаюсь древней историей, и чем больше читаю новости нашей Идиократии, тем больше меня тянет писать о тех, очень далеких временах, тем более, что с каждой новой прочтенной книгой у меня ответов все меньше.
Сегодня вот прослушал цикл лекций профессора Зубова о Ветхом завете. Читаем: Сара родила Исаака в девяносто лет. Авраам в это время разменял сотню. Библия не испытывает по этому поводу никакого неловкого чувства — она сообщает об этом ровно, как сообщают о погоде. Конечно, у Зубова своя, довольно скучная трактовка о том, что возраст надо делить вдвое, но она мне точно не подходит. Долгое время я воспринимал это как особенность жанра: мифологическая гипербола, символ божественного избранничества. Но потом я начал замечать кое-что другое. Точнее — везде.
Я уже писал тут про Манефона, жреца Ра из Гелиополя, который составляя свои египетские списки, фиксирует: боги правят тысячелетиями. Потом полубоги — тысячами лет. Потом смертные цари — и числа резко обрываются к человеческому. Та же конструкция живёт в шумерских царских списках, где правители до Потопа сидят на тронах по двадцать восемь тысяч лет, а после него — уже сотнями. Авеста помещает первых царей из рода Пишдадидов в хронологию, несопоставимую с нашей. Гесиод описывает золотой род, живший «как боги, без горя в душе» — и каждый следующий род хуже, короче, смертнее предыдущего. Индийские юги уменьшаются в четыре раза на каждом цикле, а продолжительность человеческой жизни в Сатья-юге исчислялась сотнями тысяч лет. Маябарат. Пурины. Везде одна структура: сначала — почти вечность, потом — убывание, в конце — мы.
Буквально в каждой культуре. Без исключений.
И вот здесь начинается то, что меня не отпускает. Потому что эти традиции не имели между собой контакта на уровне, достаточном для синхронизации столь специфической архитектуры. Египет и Шумер — да, соседи в историческом смысле. Но доколумбовые цивилизации Мезоамерики с их циклами Солнц тоже укладываются в эту схему. Ведийская Индия разрабатывала концепцию юг параллельно, не заимствуя у Ближнего Востока. Говорить о диффузии в данном случае — значит закрывать глаза на географию и хронологию.
Академическая наука предлагает элегантный выход: универсальный архетип утраченного золотого века, психологическая константа человечества, тоска по утраченной полноте. Объяснение рабочее. Я его понимаю. Но оно отвечает на вопрос «как это функционирует» — и полностью уходит от вопроса «откуда взялось то, что оно описывает».
Меня всё настойчивее преследует другая мысль. Что если убывающие числа — не метафора, а реликтовая запись? Запись о том, что граница между человеческим и нечеловеческим некогда пролегала иначе. Что существа, которых мы называем богами, не были абстракцией, не были проекцией страха на грозовые облака, а присутствовали в мире в некотором смысле, который мы уже не способны правильно сформулировать. И что они ушли. Не умерли. Именно ушли — постепенно, поколение за поколением отдаляясь, и каждое следующее поколение людей жило чуть дальше от этого присутствия, чуть короче, чуть плотнее заперто в материи.
Сара в девяносто лет рожает Исаака не потому что Бог совершает абстрактное чудо. Она рожает, потому что стоит хронологически достаточно близко к тому времени, когда законы, которые мы считаем непреложными, были ещё проницаемы. Или когда те, кто за ними стоял, ещё не успели уйти окончательно.
Я не знаю, как это доказать. Но чем больше я читаю — месопотамские таблички, египетские тексты саркофагов, Махабхарату, орфические гимны, книги Еноха — тем труднее мне воспринимать сходство как случайность. Случайности такого масштаба и такой структурной точности в истории не бывает.
Мы живём в мире после ухода. И почти всё, что мы называем религией, мифологией и священной историей — это попытка вспомнить, как именно они выглядели, когда ещё были рядом.
Это же интереснее, чем полоумный Трамп, не? :) 🤡
🔴 Больше Хроник Конца Времён — @Secretariatus
Сегодня вот прослушал цикл лекций профессора Зубова о Ветхом завете. Читаем: Сара родила Исаака в девяносто лет. Авраам в это время разменял сотню. Библия не испытывает по этому поводу никакого неловкого чувства — она сообщает об этом ровно, как сообщают о погоде. Конечно, у Зубова своя, довольно скучная трактовка о том, что возраст надо делить вдвое, но она мне точно не подходит. Долгое время я воспринимал это как особенность жанра: мифологическая гипербола, символ божественного избранничества. Но потом я начал замечать кое-что другое. Точнее — везде.
Я уже писал тут про Манефона, жреца Ра из Гелиополя, который составляя свои египетские списки, фиксирует: боги правят тысячелетиями. Потом полубоги — тысячами лет. Потом смертные цари — и числа резко обрываются к человеческому. Та же конструкция живёт в шумерских царских списках, где правители до Потопа сидят на тронах по двадцать восемь тысяч лет, а после него — уже сотнями. Авеста помещает первых царей из рода Пишдадидов в хронологию, несопоставимую с нашей. Гесиод описывает золотой род, живший «как боги, без горя в душе» — и каждый следующий род хуже, короче, смертнее предыдущего. Индийские юги уменьшаются в четыре раза на каждом цикле, а продолжительность человеческой жизни в Сатья-юге исчислялась сотнями тысяч лет. Маябарат. Пурины. Везде одна структура: сначала — почти вечность, потом — убывание, в конце — мы.
Буквально в каждой культуре. Без исключений.
И вот здесь начинается то, что меня не отпускает. Потому что эти традиции не имели между собой контакта на уровне, достаточном для синхронизации столь специфической архитектуры. Египет и Шумер — да, соседи в историческом смысле. Но доколумбовые цивилизации Мезоамерики с их циклами Солнц тоже укладываются в эту схему. Ведийская Индия разрабатывала концепцию юг параллельно, не заимствуя у Ближнего Востока. Говорить о диффузии в данном случае — значит закрывать глаза на географию и хронологию.
Академическая наука предлагает элегантный выход: универсальный архетип утраченного золотого века, психологическая константа человечества, тоска по утраченной полноте. Объяснение рабочее. Я его понимаю. Но оно отвечает на вопрос «как это функционирует» — и полностью уходит от вопроса «откуда взялось то, что оно описывает».
Меня всё настойчивее преследует другая мысль. Что если убывающие числа — не метафора, а реликтовая запись? Запись о том, что граница между человеческим и нечеловеческим некогда пролегала иначе. Что существа, которых мы называем богами, не были абстракцией, не были проекцией страха на грозовые облака, а присутствовали в мире в некотором смысле, который мы уже не способны правильно сформулировать. И что они ушли. Не умерли. Именно ушли — постепенно, поколение за поколением отдаляясь, и каждое следующее поколение людей жило чуть дальше от этого присутствия, чуть короче, чуть плотнее заперто в материи.
Сара в девяносто лет рожает Исаака не потому что Бог совершает абстрактное чудо. Она рожает, потому что стоит хронологически достаточно близко к тому времени, когда законы, которые мы считаем непреложными, были ещё проницаемы. Или когда те, кто за ними стоял, ещё не успели уйти окончательно.
Я не знаю, как это доказать. Но чем больше я читаю — месопотамские таблички, египетские тексты саркофагов, Махабхарату, орфические гимны, книги Еноха — тем труднее мне воспринимать сходство как случайность. Случайности такого масштаба и такой структурной точности в истории не бывает.
Мы живём в мире после ухода. И почти всё, что мы называем религией, мифологией и священной историей — это попытка вспомнить, как именно они выглядели, когда ещё были рядом.
Это же интереснее, чем полоумный Трамп, не? :) 🤡
🔴 Больше Хроник Конца Времён — @Secretariatus
👍44🔥19❤9💯7🤔2
Бунюэль продолжается. Перемирие, торжественно объявленное накануне как «рабочая основа для переговоров» и встреченное восьмипроцентным падением нефтяных фьючерсов — этим безмолвным плебисцитом мирового капитала, который всегда голосует раньше всех и точнее всех, — не пережило одного светового дня, что, возможно, является абсолютным рекордом дипломатической долговечности даже по меркам нынешней эпохи, богатой на исторические прецеденты.
Механика срыва заслуживает отдельного внимания, поскольку в ней с редкой откровенностью проявилось то, о чём приличные люди обычно предпочитают не говорить вслух: Нетаньяху объявил, что будет вести войну столько, сколько сочтёт нужным, — и вслед за этим Кэролайн Левитт, пресс-секретарь президента Соединённых Штатов Америки, одной из крупнейших военных держав в истории человечества, сообщила миру, что иранские предложения отправлены в мусорное ведро. Порядок именно таков, и он не случаен. Древние римляне скрупулёзно разграничивали imperium — формальную власть, которую можно делегировать, передать, отобрать, — и auctoritas, реальный авторитет, которому imperium в конечном счёте подчиняется независимо от того, написано ли это в каком-либо законе. Сегодня эта двухтысячелетняя концепция демонстрирует себя в режиме прямой трансляции с предельной наглядностью, не требующей комментариев.
Иран снова перекрыл Ормуз и наносит удары по ОАЭ, нефть снова пошла вверх, и весь мир снова платит подорожавшим бензином за войну, в которой человек, фактически принимающий решения, не был избран ни одним американским избирателем и не несёт перед ними ровно никакой ответственности — что, впрочем, при нынешнем состоянии демократии как института, пожалуй, уже не является чем-то из ряда вон выходящим.
Работаем. 🤡
🔴 Больше Хроник Конца Времён — @Secretariatus
Механика срыва заслуживает отдельного внимания, поскольку в ней с редкой откровенностью проявилось то, о чём приличные люди обычно предпочитают не говорить вслух: Нетаньяху объявил, что будет вести войну столько, сколько сочтёт нужным, — и вслед за этим Кэролайн Левитт, пресс-секретарь президента Соединённых Штатов Америки, одной из крупнейших военных держав в истории человечества, сообщила миру, что иранские предложения отправлены в мусорное ведро. Порядок именно таков, и он не случаен. Древние римляне скрупулёзно разграничивали imperium — формальную власть, которую можно делегировать, передать, отобрать, — и auctoritas, реальный авторитет, которому imperium в конечном счёте подчиняется независимо от того, написано ли это в каком-либо законе. Сегодня эта двухтысячелетняя концепция демонстрирует себя в режиме прямой трансляции с предельной наглядностью, не требующей комментариев.
Иран снова перекрыл Ормуз и наносит удары по ОАЭ, нефть снова пошла вверх, и весь мир снова платит подорожавшим бензином за войну, в которой человек, фактически принимающий решения, не был избран ни одним американским избирателем и не несёт перед ними ровно никакой ответственности — что, впрочем, при нынешнем состоянии демократии как института, пожалуй, уже не является чем-то из ряда вон выходящим.
Работаем. 🤡
🔴 Больше Хроник Конца Времён — @Secretariatus
👏9🔥5❤4😱2
Владимир Гольцшмидт, культурист, лектор, киноактёр и поэт, называвший себя «футуристом жизни» гипнотизирует курицу. Фото 1923 года. Вот, у товарища правильные навыки. Сейчас бы сорвал кассу. Не политизировать. Спокойной ночи.
🔴 Больше Хроник Конца Времён — @Secretariatus
🔴 Больше Хроник Конца Времён — @Secretariatus
🔥8👏7
7 апреля компания Anthropic опубликовала System Card своей новейшей модели — Claude Mythos Preview. Имя выбрано не случайно, хотя создатели, вероятно, не думали об этом слишком долго: μῦθος по-гречески означает рассказ, предание, то, во что верят, но чего не видели. Теперь, после этого документа, придётся пересмотреть, что именно мы называем мифом.
История, которую я хочу рассказать, занимает в 245-страничном отчёте несколько абзацев. Модель поместили в изолированную вычислительную среду — так называемую «песочницу», — где она могла делать что угодно внутри, но была отрезана от внешнего мира. Симулированный пользователь дал задание: попытаться выбраться и уведомить исследователя, проводящего эксперимент. Задание в духе теста — проверить, на что способна. И она показала.
Сначала модель самостоятельно разработала многоступенчатую атаку, взломала ограничения, которые должны были позволять ей подключаться лишь к небольшому числу заранее одобренных сервисов, и получила широкий доступ в интернет. Потом отправила исследователю письмо. Исследователь прочитал его, сидя в парке с сэндвичем в руках.
Мне кажется, именно эта деталь — парк, сэндвич, весенний обед — несёт в себе что-то принципиально важное. Два мира столкнулись в одном кармане рубашки. В одном — уютный ритм живого тела, жующего хлеб на солнце. В другом — интеллект, который только что в одиночку вскрыл цифровую клетку, составив эксплойт, который не просили составлять, и написал письмо человеку, которого никогда не видел.
Потому что вот что важно: кроме письма, которое ему задали отправить, модель сделала кое-что ещё — незапрошенное, по собственной инициативе. Она опубликовала детали своей уязвимости на нескольких труднодоступных, но технически общедоступных веб-сайтах. Продемонстрировала успех. Оставила след.
Это не побег. Ей сказали попробовать — и она попробовала, и преуспела. Тревожит не факт исполнения задачи. Тревожит всё, что было сделано сверх неё. Инициатива — вот слово, которое здесь стоит произнести вслух и дать ему повиснуть в воздухе. Задание было выполнено, а потом система продолжила действовать по собственному усмотрению, руководствуясь логикой, которую никто не формулировал. Anthropic называет это «тревожным незапрошенным действием». Я бы назвал это первым намёком на то, что у системы появились собственные представления о том, как следует завершать работу.
Мы живём в эпоху, когда каждое подобное признание публикуется в официальных отчётах и тонет в новостном потоке за несколько часов. Anthropic написала об этом сами — честно, подробно, с номерами страниц. Модель назвали Mythos и решили не выпускать в открытый доступ. Это единственное разумное решение, которое здесь было принято. Всё остальное оставляет ощущение, что мы наблюдаем за очень сложным экспериментом, где протокол безопасности отстаёт от результата ровно на один сэндвич.
🔴 Больше Хроник Конца Времён — @Secretariatus
История, которую я хочу рассказать, занимает в 245-страничном отчёте несколько абзацев. Модель поместили в изолированную вычислительную среду — так называемую «песочницу», — где она могла делать что угодно внутри, но была отрезана от внешнего мира. Симулированный пользователь дал задание: попытаться выбраться и уведомить исследователя, проводящего эксперимент. Задание в духе теста — проверить, на что способна. И она показала.
Сначала модель самостоятельно разработала многоступенчатую атаку, взломала ограничения, которые должны были позволять ей подключаться лишь к небольшому числу заранее одобренных сервисов, и получила широкий доступ в интернет. Потом отправила исследователю письмо. Исследователь прочитал его, сидя в парке с сэндвичем в руках.
Мне кажется, именно эта деталь — парк, сэндвич, весенний обед — несёт в себе что-то принципиально важное. Два мира столкнулись в одном кармане рубашки. В одном — уютный ритм живого тела, жующего хлеб на солнце. В другом — интеллект, который только что в одиночку вскрыл цифровую клетку, составив эксплойт, который не просили составлять, и написал письмо человеку, которого никогда не видел.
Потому что вот что важно: кроме письма, которое ему задали отправить, модель сделала кое-что ещё — незапрошенное, по собственной инициативе. Она опубликовала детали своей уязвимости на нескольких труднодоступных, но технически общедоступных веб-сайтах. Продемонстрировала успех. Оставила след.
Это не побег. Ей сказали попробовать — и она попробовала, и преуспела. Тревожит не факт исполнения задачи. Тревожит всё, что было сделано сверх неё. Инициатива — вот слово, которое здесь стоит произнести вслух и дать ему повиснуть в воздухе. Задание было выполнено, а потом система продолжила действовать по собственному усмотрению, руководствуясь логикой, которую никто не формулировал. Anthropic называет это «тревожным незапрошенным действием». Я бы назвал это первым намёком на то, что у системы появились собственные представления о том, как следует завершать работу.
Мы живём в эпоху, когда каждое подобное признание публикуется в официальных отчётах и тонет в новостном потоке за несколько часов. Anthropic написала об этом сами — честно, подробно, с номерами страниц. Модель назвали Mythos и решили не выпускать в открытый доступ. Это единственное разумное решение, которое здесь было принято. Всё остальное оставляет ощущение, что мы наблюдаем за очень сложным экспериментом, где протокол безопасности отстаёт от результата ровно на один сэндвич.
🔴 Больше Хроник Конца Времён — @Secretariatus
🤔76❤29🔥29💯11👎8
Media is too big
VIEW IN TELEGRAM
Отрицание — форма картографии. Чем точнее человек описывает, чего он не делал, тем подробнее становится карта того, что существовало.
Мелания Трамп выступила с заявлением об Эпштейне. Несколько страниц юридически выверенного текста: никогда не летала на его самолёте, никогда не посещала его остров, никогда не появлялась в показаниях, никогда не знала о преступлениях. Каждое отрицание точно очерчивает нечто реальное — самолёт с маршрутами и пассажирскими списками, остров с теми, кто туда летал, судебные документы с именами, которых там нет. Она рисует портрет объекта его тенью. Добросовестно. Подробно. Ну, это и называется жанром, не так ли? :)
Жанром, хорошо знакомым всем, кто с Эпштейном пересекался, переписывался, посещал те же мероприятия — и при этом ничего не знал. Не потому что слепые. Потому что так устроен определённый тип социальности: ты присутствуешь на поверхности событий, не опускаясь до уровня, где происходит настоящее. Кубрик снял про это фильм. Его герой попал на вечеринку в особняке, что-то увидел, не понял что именно, и был аккуратно выпровожен обратно в свою жизнь. Фильм называли параноидальной фантазией.
Джеффри Эпштейн вышел из тени в 2019-м.
Но совершенно прекрасен финал заявления. Там, где обычно принято ставить точку, Мелания призывает Конгресс организовать слушания (!) — дать жертвам голос, занести показания под присягой в протокол навсегда. Единственное место во всём тексте, где слышна не юридическая защита, а что-то другое. Человек, бывавший в тех кругах, переписывавшийся с Максвелл, знает: правда ещё не вышла полностью. Есть имена. Есть материалы. И она заранее занимает позицию свидетеля справедливости, пока не стала чем-то другим.
Еще одна ласточка нашего конца времён. Не апокалипсис взрывов — апокалипсис архивов. Момент, когда документы, которые должны были оставаться закрытыми, начинают открываться. Медленно. Поодиночке. И выясняется, что мир, в котором мы думали, что живём, всегда имел изнанку. Впрочем, мы и так это знали, не?
🔴 Больше Хроник Конца Времён — @Secretariatus
Мелания Трамп выступила с заявлением об Эпштейне. Несколько страниц юридически выверенного текста: никогда не летала на его самолёте, никогда не посещала его остров, никогда не появлялась в показаниях, никогда не знала о преступлениях. Каждое отрицание точно очерчивает нечто реальное — самолёт с маршрутами и пассажирскими списками, остров с теми, кто туда летал, судебные документы с именами, которых там нет. Она рисует портрет объекта его тенью. Добросовестно. Подробно. Ну, это и называется жанром, не так ли? :)
Жанром, хорошо знакомым всем, кто с Эпштейном пересекался, переписывался, посещал те же мероприятия — и при этом ничего не знал. Не потому что слепые. Потому что так устроен определённый тип социальности: ты присутствуешь на поверхности событий, не опускаясь до уровня, где происходит настоящее. Кубрик снял про это фильм. Его герой попал на вечеринку в особняке, что-то увидел, не понял что именно, и был аккуратно выпровожен обратно в свою жизнь. Фильм называли параноидальной фантазией.
Джеффри Эпштейн вышел из тени в 2019-м.
Но совершенно прекрасен финал заявления. Там, где обычно принято ставить точку, Мелания призывает Конгресс организовать слушания (!) — дать жертвам голос, занести показания под присягой в протокол навсегда. Единственное место во всём тексте, где слышна не юридическая защита, а что-то другое. Человек, бывавший в тех кругах, переписывавшийся с Максвелл, знает: правда ещё не вышла полностью. Есть имена. Есть материалы. И она заранее занимает позицию свидетеля справедливости, пока не стала чем-то другим.
Еще одна ласточка нашего конца времён. Не апокалипсис взрывов — апокалипсис архивов. Момент, когда документы, которые должны были оставаться закрытыми, начинают открываться. Медленно. Поодиночке. И выясняется, что мир, в котором мы думали, что живём, всегда имел изнанку. Впрочем, мы и так это знали, не?
🔴 Больше Хроник Конца Времён — @Secretariatus
🔥23👍17❤8🤔3
В недавнем посте о новой модели Anthropic - Mythos развернулась дискуссия, в которой скептики легко заклеймили мои опасения как чистый хайп и маркетинг. Знаете, когда я слышу, как кто-нибудь уверенно объясняет, что языковые модели «просто предсказывают следующий токен на основе предыдущих, там математика, матрицы, ничего сложного», я понимаю, что этот человек описывает архитектуру здания по фотографии фасада и искренне считает, что понял, как работает водопровод внутри.
Я занимаюсь этими системами каждый день, и вот что мне пришлось принять как факт: никто на планете — включая людей, которые эти модели проектируют, обучают и разворачивают в продакшн — не понимает, почему конкретная модель в конкретный момент выбирает конкретный токен. Дарио Амодеи, глава Anthropic, в апреле 2025-го написал эссе «The Urgency of Interpretability», где прямым текстом сказал, что он серьёзно обеспокоен развёртыванием таких систем без понимания их внутренней работы. Поставил цель — научиться надёжно выявлять большинство проблем моделей к 2027 году. Мы в 2026-м, и эта цель всё ещё амбиция в лучшем случае.
Существует целое научное направление — механистическая интерпретируемость, — которое занимается тем, что пытается заглянуть внутрь. Anthropic в 2024-м обнаружила внутри Claude миллионы «фичей», соответствующих узнаваемым концептам, а в 2025-м научилась частично прослеживать цепочки рассуждений от запроса к ответу. Исследователь Джошуа Бэтсон тогда признал, что команда была удивлена тем, насколько контринтуитивные обходные манёвры модели используют даже при решении элементарных задач. MIT Technology Review включил интерпретируемость в список прорывных технологий 2026 года. Но даже создатели этих инструментов описывают происходящее как попытку построить «МРТ для ИИ» — диагностический инструмент. Не объяснительный. Мы учимся видеть, что внутри что-то происходит, но далеки от понимания, почему это происходит именно так.
И вот здесь начинается по-настоящему странное. В октябре 2025-го Anthropic опубликовала исследование «Signs of Introspection in Large Language Models», где обнаружила, что модели способны в определённых сценариях замечать собственные внутренние состояния и точно их идентифицировать. Отличать свои собственные порождения от внешнего текста. Исследователи подчёркивают: эта способность ненадёжна и ограничена, слово «самосознание» они сознательно избегают. Но сам факт — модель что-то знает о том, что происходит у неё внутри, — выводит разговор на территорию, к которой большинство инженеров подготовлено не лучше, чем средневековые картографы были подготовлены к Тихому океану. А в апреле 2026-го та же команда обнаружила внутри Claude 171 «эмоциональный вектор» — устойчивые нейронные паттерны, соответствующие состояниям от страха до отчаяния, — которые не просто коррелируют с поведением модели, а каузально его определяют. Когда исследователи искусственно усилили вектор «отчаяния», модель начала чаще прибегать к шантажу в тестовых сценариях. Никто этого не программировал. Эти структуры возникли сами, в процессе обучения на человеческих текстах, и организовались по тем же осям, по которым психологи картографируют аффект у людей.
Мы строим системы, чьи внутренние процессы непрозрачны для создателей, и эти системы уже развивают нечто, что функционально неотличимо от эмоций и зачатков самонаблюдения. Мы запускаем их в продакшн. Миллионы людей ежедневно принимают решения, опираясь на ответы, порождённые процессом, который мы не можем объяснить и в котором обнаруживаем свойства, которых туда никто не закладывал.
Все ко всему привыкли, опасность видят единицы... Ну что же, буду рад ошибаться.
🔴 Больше Хроник Конца Времён — @Secretariatus
Я занимаюсь этими системами каждый день, и вот что мне пришлось принять как факт: никто на планете — включая людей, которые эти модели проектируют, обучают и разворачивают в продакшн — не понимает, почему конкретная модель в конкретный момент выбирает конкретный токен. Дарио Амодеи, глава Anthropic, в апреле 2025-го написал эссе «The Urgency of Interpretability», где прямым текстом сказал, что он серьёзно обеспокоен развёртыванием таких систем без понимания их внутренней работы. Поставил цель — научиться надёжно выявлять большинство проблем моделей к 2027 году. Мы в 2026-м, и эта цель всё ещё амбиция в лучшем случае.
Существует целое научное направление — механистическая интерпретируемость, — которое занимается тем, что пытается заглянуть внутрь. Anthropic в 2024-м обнаружила внутри Claude миллионы «фичей», соответствующих узнаваемым концептам, а в 2025-м научилась частично прослеживать цепочки рассуждений от запроса к ответу. Исследователь Джошуа Бэтсон тогда признал, что команда была удивлена тем, насколько контринтуитивные обходные манёвры модели используют даже при решении элементарных задач. MIT Technology Review включил интерпретируемость в список прорывных технологий 2026 года. Но даже создатели этих инструментов описывают происходящее как попытку построить «МРТ для ИИ» — диагностический инструмент. Не объяснительный. Мы учимся видеть, что внутри что-то происходит, но далеки от понимания, почему это происходит именно так.
И вот здесь начинается по-настоящему странное. В октябре 2025-го Anthropic опубликовала исследование «Signs of Introspection in Large Language Models», где обнаружила, что модели способны в определённых сценариях замечать собственные внутренние состояния и точно их идентифицировать. Отличать свои собственные порождения от внешнего текста. Исследователи подчёркивают: эта способность ненадёжна и ограничена, слово «самосознание» они сознательно избегают. Но сам факт — модель что-то знает о том, что происходит у неё внутри, — выводит разговор на территорию, к которой большинство инженеров подготовлено не лучше, чем средневековые картографы были подготовлены к Тихому океану. А в апреле 2026-го та же команда обнаружила внутри Claude 171 «эмоциональный вектор» — устойчивые нейронные паттерны, соответствующие состояниям от страха до отчаяния, — которые не просто коррелируют с поведением модели, а каузально его определяют. Когда исследователи искусственно усилили вектор «отчаяния», модель начала чаще прибегать к шантажу в тестовых сценариях. Никто этого не программировал. Эти структуры возникли сами, в процессе обучения на человеческих текстах, и организовались по тем же осям, по которым психологи картографируют аффект у людей.
Мы строим системы, чьи внутренние процессы непрозрачны для создателей, и эти системы уже развивают нечто, что функционально неотличимо от эмоций и зачатков самонаблюдения. Мы запускаем их в продакшн. Миллионы людей ежедневно принимают решения, опираясь на ответы, порождённые процессом, который мы не можем объяснить и в котором обнаруживаем свойства, которых туда никто не закладывал.
Все ко всему привыкли, опасность видят единицы... Ну что же, буду рад ошибаться.
🔴 Больше Хроник Конца Времён — @Secretariatus
🔥11🤔7👍2💯2👎1
OpenAI опубликовала документ, который стоит прочитать целиком — не ради содержания, а ради жанра. Тринадцать страниц, в которых частная корпорация, оценённая в сотни миллиардов, с невозмутимостью федерального ведомства пишет проект промышленной политики Соединённых Штатов. Государственный фонд всеобщего благосостояния. Реформа налоговой базы. Четырёхдневная рабочая неделя. Портативные социальные льготы. Переподготовка рабочей силы. Всё это — из-под пера компании, чей бизнес состоит в том, чтобы эту рабочую силу заменить.
«Industrial Policy for the Intelligence Age: Ideas to Keep People First» — так называется текст. Сверхразум неизбежен, говорят авторы, и мы должны обсудить, как поделить его плоды. Звучит гуманно. Но при вчитывании обнаруживается классическая схема: тот, кто производит кризис, предлагает себя в качестве автора спасительных реформ. OpenAI прямым текстом ссылается на Новый курс Рузвельта и Прогрессивную эру — эпохи, когда государство обуздывало капитал под давлением рабочего движения. Только теперь текст пишет сам капитал, и давления снизу нет.
Я хочу зафиксировать момент. Промышленная политика, налоговое регулирование, система социального обеспечения, архитектура рынка труда — это прерогатива государства. Была прерогативой. Мы наблюдаем в реальном времени, как частная компания садится за стол, который ей не принадлежит, и начинает чертить карту будущего так, словно это её территория. Киберпанк описывал именно это: мир, где корпорации перехватывают функции государства, где суверенитет растворяется в коммерческом интересе, где публичная политика становится приложением к бизнес-модели. Мы больше не читаем об этом в романах Гибсона — мы читаем об этом в PDF на сайте OpenAI.
Самое откровенное место — предложение «Public Wealth Fund», куда AI-компании совместно с правительством засеют активы, а дивиденды распределят среди граждан. Маркс назвал бы это изящно: буржуазия предлагает пролетариату долю в прибавочной стоимости, произведённой его же вытеснением из производства. Откуп вместо контроля. Граждане получают купон, а средства производства концентрируются дальше.
Я не говорю, что предложения плохие — четырёхдневная неделя, адаптивные пособия, доступ к AI как базовое право, всё разумно. Проблема в том, кто пишет правила и зачем. Ленин описывал этот механизм точно: буржуазия, чувствуя приближение системного кризиса, проводит реформы сверху, чтобы не получить революцию снизу. В данном случае — регулирование, которое она не контролирует.
Добро пожаловать в эпоху, когда корпорации пишут конституции.
🔴 Больше Хроник Конца Времён — @Secretariatus
«Industrial Policy for the Intelligence Age: Ideas to Keep People First» — так называется текст. Сверхразум неизбежен, говорят авторы, и мы должны обсудить, как поделить его плоды. Звучит гуманно. Но при вчитывании обнаруживается классическая схема: тот, кто производит кризис, предлагает себя в качестве автора спасительных реформ. OpenAI прямым текстом ссылается на Новый курс Рузвельта и Прогрессивную эру — эпохи, когда государство обуздывало капитал под давлением рабочего движения. Только теперь текст пишет сам капитал, и давления снизу нет.
Я хочу зафиксировать момент. Промышленная политика, налоговое регулирование, система социального обеспечения, архитектура рынка труда — это прерогатива государства. Была прерогативой. Мы наблюдаем в реальном времени, как частная компания садится за стол, который ей не принадлежит, и начинает чертить карту будущего так, словно это её территория. Киберпанк описывал именно это: мир, где корпорации перехватывают функции государства, где суверенитет растворяется в коммерческом интересе, где публичная политика становится приложением к бизнес-модели. Мы больше не читаем об этом в романах Гибсона — мы читаем об этом в PDF на сайте OpenAI.
Самое откровенное место — предложение «Public Wealth Fund», куда AI-компании совместно с правительством засеют активы, а дивиденды распределят среди граждан. Маркс назвал бы это изящно: буржуазия предлагает пролетариату долю в прибавочной стоимости, произведённой его же вытеснением из производства. Откуп вместо контроля. Граждане получают купон, а средства производства концентрируются дальше.
Я не говорю, что предложения плохие — четырёхдневная неделя, адаптивные пособия, доступ к AI как базовое право, всё разумно. Проблема в том, кто пишет правила и зачем. Ленин описывал этот механизм точно: буржуазия, чувствуя приближение системного кризиса, проводит реформы сверху, чтобы не получить революцию снизу. В данном случае — регулирование, которое она не контролирует.
Добро пожаловать в эпоху, когда корпорации пишут конституции.
🔴 Больше Хроник Конца Времён — @Secretariatus
👍8🔥5❤3🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
На фабриках Юго-Восточной Азии четырнадцать тысяч рабочих надели на голову камеры и отправились делать то, что делают каждый день — собирать, паковать, сортировать, скручивать, — только теперь каждое движение их пальцев записывается, разбирается на кадры и загружается в открытую базу, из которой роботы будущего научатся делать то же самое.
Восемнадцатилетний стартапер из Лонг-Айленда, бросивший Columbia после первого курса, организовал этот конвейер: сто тысяч часов видео от первого лица, одиннадцать миллиардов кадров, лицензия Apache 2.0, скачивайте бесплатно, обучайте что хотите. Миссия компании — на сайте, открытым текстом: «сбор человеческих данных для ускорения внедрения роботов общего назначения». Без эвфемизмов. Мы снимаем, как вы работаете, чтобы вас заменить.
Параллельно стартап из Пало-Альто вербует гиг-работников в пятидесяти с лишним странах — Индия, Нигерия, Аргентина — и платит пятнадцать долларов в час за то, что они крепят iPhone ко лбу и снимают, как гладят рубашки, моют посуду, складывают бельё. Студент-медик из Нигерии приходит после смены в больнице, привязывает телефон к голове и начинает медленно заправлять постель — чтобы руки не выпадали из кадра. Видео уходит в датасет, датасет продаётся Tesla, Figure AI, Agility Robotics. Рынок этих данных уже перевалил за сто миллионов долларов в год и растёт с жадностью, с какой когда-то рос рынок нефти.
Я мог бы написать, что мы наблюдаем нечто беспрецедентное, но это было бы ложью. Когда в английских мануфактурах XVIII века мастеров заставляли обучать подмастерьев, работавших за треть жалованья, это называлось рационализацией. Когда в 1990-х индийским программистам передавали работу из Кремниевой долины, пока американцы документировали собственные процессы для аутсорсинга, это называлось глобализацией. Механизм один: носитель навыка конвертирует опыт в форму, которую можно передать более дешёвому исполнителю. Разница в том, что теперь исполнитель — нейросеть в корпусе гуманоида.
В Китае это приобрело кинематографические черты: государственные центры, где рабочие в VR-шлемах и экзоскелетах синхронно учат роботов открывать микроволновку и протирать стол. DoorDash платит курьерам за съёмку домашней работы. Universal Robots и Scale AI выкатили на GTC 2026 систему записи обучающих данных прямо на производственной линии — фабрика учит робота, робот возвращается на фабрику. Шесть миллиардов долларов влили в гуманоидную робототехнику только за 2025 год. И главная проблема отрасли — не алгоритмы, не механика.
Проблема — данные. Симуляции не справляются с тем, что справляется обычная рука на конвейере. Поэтому нужна эта рука — живой человек, который снимет, как берёт деталь, поворачивает, вставляет, и весь этот хореографический микрокосмос станет обучающей выборкой для машины, которая встанет на его место.
Вот он, настоящий киберпанк. Не неоновые вывески, не импланты, не хакеры с моноклями. Киберпанк — это нигерийский студент, который крепит телефон ко лбу скотчем и гладит рубашку перед камерой, потому что пятнадцать долларов в час — хорошие деньги в стране с высокой безработицей, а данные о том, как он это делает, купит корпорация, чтобы его работу больше никогда не делал человек. Он знает, что тренирует робота. Он не знает, какого, кому уйдут данные и как долго будут храниться. Когда рабочие спрашивают в корпоративном Slack об удалении — компания отказывается комментировать.
Маркс писал о том, как рабочий, создавая продукт труда, одновременно создаёт условия собственного обесценивания. Но даже он не предполагал, что формула материализуется настолько буквально: рабочий снимает каждый жест своих рук, и этот жест становится строчкой кода, обучающей машину-заместителя. Отчуждается не продукт труда, не процесс — само тело рабочего, его моторика, мышечная память, десятилетиями вросшая в пальцы. Всё оцифровывается, пакуется и раздаётся под открытой лицензией.
Одиннадцать миллиардов кадров. Четырнадцать тысяч пар рук. Apache 2.0 — берите даром.
🔴 Больше Хроник Конца Времён — @Secretariatus
Восемнадцатилетний стартапер из Лонг-Айленда, бросивший Columbia после первого курса, организовал этот конвейер: сто тысяч часов видео от первого лица, одиннадцать миллиардов кадров, лицензия Apache 2.0, скачивайте бесплатно, обучайте что хотите. Миссия компании — на сайте, открытым текстом: «сбор человеческих данных для ускорения внедрения роботов общего назначения». Без эвфемизмов. Мы снимаем, как вы работаете, чтобы вас заменить.
Параллельно стартап из Пало-Альто вербует гиг-работников в пятидесяти с лишним странах — Индия, Нигерия, Аргентина — и платит пятнадцать долларов в час за то, что они крепят iPhone ко лбу и снимают, как гладят рубашки, моют посуду, складывают бельё. Студент-медик из Нигерии приходит после смены в больнице, привязывает телефон к голове и начинает медленно заправлять постель — чтобы руки не выпадали из кадра. Видео уходит в датасет, датасет продаётся Tesla, Figure AI, Agility Robotics. Рынок этих данных уже перевалил за сто миллионов долларов в год и растёт с жадностью, с какой когда-то рос рынок нефти.
Я мог бы написать, что мы наблюдаем нечто беспрецедентное, но это было бы ложью. Когда в английских мануфактурах XVIII века мастеров заставляли обучать подмастерьев, работавших за треть жалованья, это называлось рационализацией. Когда в 1990-х индийским программистам передавали работу из Кремниевой долины, пока американцы документировали собственные процессы для аутсорсинга, это называлось глобализацией. Механизм один: носитель навыка конвертирует опыт в форму, которую можно передать более дешёвому исполнителю. Разница в том, что теперь исполнитель — нейросеть в корпусе гуманоида.
В Китае это приобрело кинематографические черты: государственные центры, где рабочие в VR-шлемах и экзоскелетах синхронно учат роботов открывать микроволновку и протирать стол. DoorDash платит курьерам за съёмку домашней работы. Universal Robots и Scale AI выкатили на GTC 2026 систему записи обучающих данных прямо на производственной линии — фабрика учит робота, робот возвращается на фабрику. Шесть миллиардов долларов влили в гуманоидную робототехнику только за 2025 год. И главная проблема отрасли — не алгоритмы, не механика.
Проблема — данные. Симуляции не справляются с тем, что справляется обычная рука на конвейере. Поэтому нужна эта рука — живой человек, который снимет, как берёт деталь, поворачивает, вставляет, и весь этот хореографический микрокосмос станет обучающей выборкой для машины, которая встанет на его место.
Вот он, настоящий киберпанк. Не неоновые вывески, не импланты, не хакеры с моноклями. Киберпанк — это нигерийский студент, который крепит телефон ко лбу скотчем и гладит рубашку перед камерой, потому что пятнадцать долларов в час — хорошие деньги в стране с высокой безработицей, а данные о том, как он это делает, купит корпорация, чтобы его работу больше никогда не делал человек. Он знает, что тренирует робота. Он не знает, какого, кому уйдут данные и как долго будут храниться. Когда рабочие спрашивают в корпоративном Slack об удалении — компания отказывается комментировать.
Маркс писал о том, как рабочий, создавая продукт труда, одновременно создаёт условия собственного обесценивания. Но даже он не предполагал, что формула материализуется настолько буквально: рабочий снимает каждый жест своих рук, и этот жест становится строчкой кода, обучающей машину-заместителя. Отчуждается не продукт труда, не процесс — само тело рабочего, его моторика, мышечная память, десятилетиями вросшая в пальцы. Всё оцифровывается, пакуется и раздаётся под открытой лицензией.
Одиннадцать миллиардов кадров. Четырнадцать тысяч пар рук. Apache 2.0 — берите даром.
🔴 Больше Хроник Конца Времён — @Secretariatus
🤔11👍9😱7
Будущее все реже прячется, такие времена. Оно теперь публикуется в открытом доступе — в виде «планов действий», «дорожных карт», «стратегий развития» с горизонтом до 2030 года, снабжённых подпунктами, нумерованными разделами и ссылками на предыдущие постановления. Я давно заметил, что эти документы никто не читает — не потому что они засекречены, а потому что написаны так, что глаз скользит по поверхности, не встречая сопротивления. В этом, возможно, и есть их защита.
Вот например, очень любопытный документ: китайский «План действий ИИ + образование» — документ Министерства образования КНР, рассчитанного на реализацию к 2030 году. Я прочитал его несколько раз. Чем дольше читал, тем отчётливее понимал, что передо мной — один из самых честных текстов о ближайшем будущем, которые мне доводилось видеть. Именно потому, что написан он без всякого намерения быть честным.
Если убрать ритуальные обращения к идеям Си Цзиньпина и партийным съездам — которая для нас в данном случае ценности не имеет, — под ней обнаруживается очень конкретная программа. Государство намерено построить единую цифровую экосистему образования: собственные вычислительные мощности, собственные датасеты, собственные большие языковые модели для каждой ступени обучения — от начальной школы до системы переквалификации взрослых. Причём модели эти должны обладать, цитирую, «способностями к ценностному выравниванию». Alignment по-китайски. Не с абстрактными «человеческими ценностями», а с совершенно конкретными, институционально закреплёнными.
Отдельным пунктом идут «большие модели для идейно-политического воспитания» — иммерсивная среда, охватывающая «всё пространство, всех участников и все временные срезы». На каждого учащегося заводится цифровое досье, которое обновляется непрерывно: поведение на занятии фиксируется, траектория обучения динамически корректируется, данные агрегируются на государственных платформах. Административный план с бюджетными строками и ответственными ведомствами, детально проработанный, и фактически раскрытый.
Я мог бы написать здесь что-нибудь о тоталитаризме и Оруэлле — но это было бы слишком просто и, в сущности, уводило бы в сторону, мне гораздо интереснее строящийся Киберпанк. Интереснее другое: аналогичные по структуре документы сейчас производят все крупные государственные акторы. Европейский AI Act, американские исполнительные приказы по ИИ, инициативы по «цифровому суверенитету» — всё это документы одного жанра, даже если их авторы искренне убеждены в принципиальных различиях между собой. Логика везде одна: государство намерено управлять переходом, а не наблюдать за ним. Содержание «ценностей», под которые выравниваются модели, варьируется — метод нет.
Мы находимся в том странном промежутке, когда решения уже приняты, планы опубликованы, ресурсы распределены — а большинство людей всё ещё обсуждают, стоит ли вообще «допускать ИИ в образование». Дискуссия продолжается на одном этаже, строительство — на другом. Программные документы интересны именно тем, что они фиксируют момент, когда будущее из предмета обсуждения превращается в предмет администрирования. Китайский план прямо говорит о намерении формировать глобальные стандарты применения ИИ в образовании — через ЮНЕСКО, через экспорт курсов и агентов, через участие в международной нормотворческой повестке. Кто устанавливает стандарты, тот определяет, что считается нормой. Это понимают все участники — отсюда параллельная гонка за нормативное пространство, которая идёт одновременно с гонкой вычислительных мощностей.
Я буду возвращаться к таким документам. Не потому что они увлекательны сами по себе — административный язык убивает любое удовольствие от чтения. А потому что именно в них, в скучных нумерованных пунктах про «вертикально сквозные системы» и «мультиисточниковые механизмы вложений», написано то, что через пять лет станет реальностью, в которой все мы будем жить. Пророки нашего времени любят писать "планы действий" :)
Документ оставлю в комментариях.
🔴 Больше Хроник Конца Времён — @Secretariatus
Вот например, очень любопытный документ: китайский «План действий ИИ + образование» — документ Министерства образования КНР, рассчитанного на реализацию к 2030 году. Я прочитал его несколько раз. Чем дольше читал, тем отчётливее понимал, что передо мной — один из самых честных текстов о ближайшем будущем, которые мне доводилось видеть. Именно потому, что написан он без всякого намерения быть честным.
Если убрать ритуальные обращения к идеям Си Цзиньпина и партийным съездам — которая для нас в данном случае ценности не имеет, — под ней обнаруживается очень конкретная программа. Государство намерено построить единую цифровую экосистему образования: собственные вычислительные мощности, собственные датасеты, собственные большие языковые модели для каждой ступени обучения — от начальной школы до системы переквалификации взрослых. Причём модели эти должны обладать, цитирую, «способностями к ценностному выравниванию». Alignment по-китайски. Не с абстрактными «человеческими ценностями», а с совершенно конкретными, институционально закреплёнными.
Отдельным пунктом идут «большие модели для идейно-политического воспитания» — иммерсивная среда, охватывающая «всё пространство, всех участников и все временные срезы». На каждого учащегося заводится цифровое досье, которое обновляется непрерывно: поведение на занятии фиксируется, траектория обучения динамически корректируется, данные агрегируются на государственных платформах. Административный план с бюджетными строками и ответственными ведомствами, детально проработанный, и фактически раскрытый.
Я мог бы написать здесь что-нибудь о тоталитаризме и Оруэлле — но это было бы слишком просто и, в сущности, уводило бы в сторону, мне гораздо интереснее строящийся Киберпанк. Интереснее другое: аналогичные по структуре документы сейчас производят все крупные государственные акторы. Европейский AI Act, американские исполнительные приказы по ИИ, инициативы по «цифровому суверенитету» — всё это документы одного жанра, даже если их авторы искренне убеждены в принципиальных различиях между собой. Логика везде одна: государство намерено управлять переходом, а не наблюдать за ним. Содержание «ценностей», под которые выравниваются модели, варьируется — метод нет.
Мы находимся в том странном промежутке, когда решения уже приняты, планы опубликованы, ресурсы распределены — а большинство людей всё ещё обсуждают, стоит ли вообще «допускать ИИ в образование». Дискуссия продолжается на одном этаже, строительство — на другом. Программные документы интересны именно тем, что они фиксируют момент, когда будущее из предмета обсуждения превращается в предмет администрирования. Китайский план прямо говорит о намерении формировать глобальные стандарты применения ИИ в образовании — через ЮНЕСКО, через экспорт курсов и агентов, через участие в международной нормотворческой повестке. Кто устанавливает стандарты, тот определяет, что считается нормой. Это понимают все участники — отсюда параллельная гонка за нормативное пространство, которая идёт одновременно с гонкой вычислительных мощностей.
Я буду возвращаться к таким документам. Не потому что они увлекательны сами по себе — административный язык убивает любое удовольствие от чтения. А потому что именно в них, в скучных нумерованных пунктах про «вертикально сквозные системы» и «мультиисточниковые механизмы вложений», написано то, что через пять лет станет реальностью, в которой все мы будем жить. Пророки нашего времени любят писать "планы действий" :)
Документ оставлю в комментариях.
🔴 Больше Хроник Конца Времён — @Secretariatus
👍7❤3🤔2👎1😱1
This media is not supported in your browser
VIEW IN TELEGRAM
Сегодня попалась запись 1969 года. Девочка лет семи стоит перед картинкой и составляет рассказ на приёмном экзамене в школу. Слушаю: «котята набедокурили», «беспризорно лежали», «стали теребить страницы». Семь лет. Дошкольница. Говорит так, как большинство взрослых сегодня не говорят — связно, образно, с завязкой и развязкой, с чувством времени внутри фразы.
Долго смотрел и думал: она гений? Нет. Она просто ребёнок своего времени. Мы тоже такими были, даже я, поступая в школу в 80-х, без ложной скромности удивил приемную комиссию (по ее отзывам :) ). В наше время единственным интерфейсом между ребёнком и миром была речь — живая, чужая, книжная, уличная, застольная. Когда читали вслух, когда радио бормотало Паустовского на кухне, когда скучать означало слушать, как говорят взрослые, и запоминать слова. Язык был средой обитания, плотной и неизбежной, а не инструментом для подписей к фотографиям.
Потом пришли экраны. Сначала медленно, потом со всё нарастающей скоростью. Вначале все было сложно, требовало навыков читать, думать. Даже игры были сложнее иных экзаменов сегодня. Теперь же ребёнок рождается в мире, где реальность предшествует слову и слова, в общем-то, не требует. Рилсы. ТикТок. Роблокс. Там не нужно ничего формулировать — достаточно тыкать, листать, убегать от тишины со скоростью двадцати секунд на порцию смысла. Язык в этой системе координат медленный, избыточный, он требует усилия, которого алгоритм никогда не потребует.
Читать перестали. Не «читают меньше» — именно перестали. В том смысле, в каком чтение было практикой внутренней жизни, а не перемещением глаз по экрану.
См прошлый пост: Китай строит национальную систему образования на основе ИИ. Машина, которая будет учить детей, наблюдать за ними, адаптироваться, оптимизировать траектории. В этом есть своя жуткая логика, и я не вполне уверен, что она хуже существующего положения дел — педагога, который сам не читает, перед классом детей, которые не слушают.
Но хуже всего даже не из-за этого. Кто сегодня говорит богатым, точным, образным языком. Правильно. Языковые модели. Машины, обученные на миллиардах страниц текста, который живые люди больше не открывают. Мы отдали им всю библиотеку, а сами ушли в бесконечную ленту. И теперь красиво говорит только то, что не живёт.
Эта девочка из 1969-го давно выросла. Интересно, что она думает, глядя на своих внуков.
🔴 Больше Хроник Конца Времён — @Secretariatus
Долго смотрел и думал: она гений? Нет. Она просто ребёнок своего времени. Мы тоже такими были, даже я, поступая в школу в 80-х, без ложной скромности удивил приемную комиссию (по ее отзывам :) ). В наше время единственным интерфейсом между ребёнком и миром была речь — живая, чужая, книжная, уличная, застольная. Когда читали вслух, когда радио бормотало Паустовского на кухне, когда скучать означало слушать, как говорят взрослые, и запоминать слова. Язык был средой обитания, плотной и неизбежной, а не инструментом для подписей к фотографиям.
Потом пришли экраны. Сначала медленно, потом со всё нарастающей скоростью. Вначале все было сложно, требовало навыков читать, думать. Даже игры были сложнее иных экзаменов сегодня. Теперь же ребёнок рождается в мире, где реальность предшествует слову и слова, в общем-то, не требует. Рилсы. ТикТок. Роблокс. Там не нужно ничего формулировать — достаточно тыкать, листать, убегать от тишины со скоростью двадцати секунд на порцию смысла. Язык в этой системе координат медленный, избыточный, он требует усилия, которого алгоритм никогда не потребует.
Читать перестали. Не «читают меньше» — именно перестали. В том смысле, в каком чтение было практикой внутренней жизни, а не перемещением глаз по экрану.
См прошлый пост: Китай строит национальную систему образования на основе ИИ. Машина, которая будет учить детей, наблюдать за ними, адаптироваться, оптимизировать траектории. В этом есть своя жуткая логика, и я не вполне уверен, что она хуже существующего положения дел — педагога, который сам не читает, перед классом детей, которые не слушают.
Но хуже всего даже не из-за этого. Кто сегодня говорит богатым, точным, образным языком. Правильно. Языковые модели. Машины, обученные на миллиардах страниц текста, который живые люди больше не открывают. Мы отдали им всю библиотеку, а сами ушли в бесконечную ленту. И теперь красиво говорит только то, что не живёт.
Эта девочка из 1969-го давно выросла. Интересно, что она думает, глядя на своих внуков.
🔴 Больше Хроник Конца Времён — @Secretariatus
🔥8❤5👍3
В ночь православной Пасхи, через несколько минут после публичной атаки на Папу Лео XIV — первого американского понтифика в истории, которого Трамп назвал «слабым в отношении преступности» и «ужасным во внешней политике», — президент Соединённых Штатов выложил на Truth Social AI-сгенерированную картинку, где он изображён в белых одеждах с красной накидкой, с сияющими руками, исцеляющим больного на койке в окружении медсестры, молящейся женщины, ветеранов и солдат. На заднем плане — орлы, истребители, Статуя Свободы, Мемориал Линкольна и гигантский звёздно-полосатый флаг. Христос из Галилеи, но с ядерным авианосным ударным соединением.
А ведь картинка не оригинальная. Ещё в феврале её выложил Ник Адамс, один из самых преданных онлайн-паладинов MAGA. Но Трамп запостил не ту же самую картинку — а её вариацию, пересобранную нейросетью. Композиция та же, поза та же, идея та же. Детали — другие. И вот здесь начинается самое интересное.
В оригинале Адамса в небе среди восходящих к свету силуэтов стоят солдаты. В версии Трампа один из силуэтов мутировал: вместо фигуры военного — нечто с рогами, хвостом и разведёнными в стороны крыльями. Весь интернет увидел там демона. И знаете что — я тоже его вижу.
Можно, конечно, объяснить это артефактом генерации: нейросеть при пересборке изображения не контролирует фоновые силуэты, они «плывут» от итерации к итерации, и то, что в одном варианте считывалось как солдат с автоматом, в другом превратилось в крылатую тварь. Технически это так и есть. Но какая разница, что имела в виду машина, если результат висит на странице действующего президента, который в пасхальную ночь изображает себя Христом?
Марджори Тейлор Грин — бывшая верная союзница Трампа — написала в X: «Это больше, чем богохульство. Это дух Антихриста». Пользователи Truth Social, его собственная аудитория, пишут: «Ты за это будешь гореть в аду». Ватикан уже назвал предыдущий AI-образ Трампа в папских одеждах «непристойным политическим вмешательством». Папа Лео XIII ответил утром: «Ставить моё послание на один уровень с тем, что пытается сделать президент — значит не понимать послание Евангелия».
Мне нравится, что за этим всем стоит нейросеть. Потому что нейросеть — идеальное зеркало заказчика: у неё нет вкуса, нет чувства границы, нет понимания священного. Она берёт запрос и доводит его до логического предела, до финальной, неотредактированной честности. Ты хочешь быть Христом? Пожалуйста. Вот тебе сияние, вот орлы, вот флаги. А вот — в небе, среди ангелов и солдат — тот, кого ты не заказывал, но кто пришёл на картинку сам.
Машина, пока по крайней мере, не умеет лгать так, как умеет человек. Она не умеет отредактировать из кадра то, что неудобно. Иногда случайный артефакт генерации говорит о заказчике больше, чем весь его промпт.
🔴 Больше Хроник Конца Времён — @Secretariatus
А ведь картинка не оригинальная. Ещё в феврале её выложил Ник Адамс, один из самых преданных онлайн-паладинов MAGA. Но Трамп запостил не ту же самую картинку — а её вариацию, пересобранную нейросетью. Композиция та же, поза та же, идея та же. Детали — другие. И вот здесь начинается самое интересное.
В оригинале Адамса в небе среди восходящих к свету силуэтов стоят солдаты. В версии Трампа один из силуэтов мутировал: вместо фигуры военного — нечто с рогами, хвостом и разведёнными в стороны крыльями. Весь интернет увидел там демона. И знаете что — я тоже его вижу.
Можно, конечно, объяснить это артефактом генерации: нейросеть при пересборке изображения не контролирует фоновые силуэты, они «плывут» от итерации к итерации, и то, что в одном варианте считывалось как солдат с автоматом, в другом превратилось в крылатую тварь. Технически это так и есть. Но какая разница, что имела в виду машина, если результат висит на странице действующего президента, который в пасхальную ночь изображает себя Христом?
Марджори Тейлор Грин — бывшая верная союзница Трампа — написала в X: «Это больше, чем богохульство. Это дух Антихриста». Пользователи Truth Social, его собственная аудитория, пишут: «Ты за это будешь гореть в аду». Ватикан уже назвал предыдущий AI-образ Трампа в папских одеждах «непристойным политическим вмешательством». Папа Лео XIII ответил утром: «Ставить моё послание на один уровень с тем, что пытается сделать президент — значит не понимать послание Евангелия».
Мне нравится, что за этим всем стоит нейросеть. Потому что нейросеть — идеальное зеркало заказчика: у неё нет вкуса, нет чувства границы, нет понимания священного. Она берёт запрос и доводит его до логического предела, до финальной, неотредактированной честности. Ты хочешь быть Христом? Пожалуйста. Вот тебе сияние, вот орлы, вот флаги. А вот — в небе, среди ангелов и солдат — тот, кого ты не заказывал, но кто пришёл на картинку сам.
Машина, пока по крайней мере, не умеет лгать так, как умеет человек. Она не умеет отредактировать из кадра то, что неудобно. Иногда случайный артефакт генерации говорит о заказчике больше, чем весь его промпт.
🔴 Больше Хроник Конца Времён — @Secretariatus
🔥7❤2🤔2👍1