Агрегатор рациональности :: Uncolored
74 subscribers
301 photos
146 videos
2 files
1.35K links
#наука #литература #философия #рациональноемышление

Наука, IT, литература, философия, эрудиция, рациональное мышление + личное мнение.

Чатик канала здесь:
https://t.me/papatalks

По любым вопросам сюда:
@RainySkys
Download Telegram
Forwarded from Machinelearning
📉 AI-рынок просел на $800 млрд за неделю

Технологические компании, связанные с ИИ, потеряли около $800 млрд капитализации всего за несколько дней. Nasdaq упал на 3% и это первый серьёзный сигнал, что рынок начинает сомневаться в темпах ИИ-роста.

Что происходит:

Расходы на ИИ сильно выросли: крупные компании вложили рекордные $112 млрд за июль–сентябрь, причём большую часть - в долг. Если доходы не будут расти так же быстро, этот долг станет давить на бизнес.

Частные инвесторы почти не покупали на падении, поэтому рынок просел глубже обычного и не было тех, кто обычно подхватывает акции в такие моменты.

Макроэкономика ухудшилась: настроение потребителей упало до минимума за 3 года, почти полтора месяца не выходили важные госданные, и появились новости о новых увольнениях. Всё это усилило нервозность на рынке.


Почему падение получилось таким резким:

- Хедж-фонды сидели в одних и тех же AI-акциях, и при первой просадке начали продавать одновременно.
- Алгоритмические фонды усилили распродажу, автоматически сокращая позиции на росте волатильности.

Главный удар:

- Nvidia потеряла $350 млрд капитализации всего через неделю после достижения отметки $5 трлн - достаточно лёгкого смещения ожиданий, чтобы такой гигант обвалился.

Дополнительные точки напряжения:

- Политика: обсуждаются ограничения на продажи чипов Blackwell в Китай и это тоже бьёт по прогнозам будущего спроса.
- Конкуренция: слухи, что Moonshot Kimi K2 обучили менее чем за $5 млн, снова подняли страхи «дешёвого AGI». Подобное уже было с DeepSeek, когда Nvidia потеряла $589 млрд за один день.
- Финансирование: дискуссии о господдержке стартапа на $500 млрд и планах ИИ-инфраструктуры на $1.4 трлн заставляют инвесторов задаваться вопросом: *кто оплачивает этот праздник и как быстро он окупится?*

ИИ остаётся драйвером роста, но рынок впервые чувствительно отреагировал на очевидные риски. Когда рынок перегрет, даже небольшие сомнения превращаются в сотни миллиардов убыток.

ft.com/content/8c6e3c18-c5a0-4f60-bac4-fcdab6328bf8

@ai_machinelearning_big_data

#ai #ml #finance
🔥1
В современном мире полно опасных для человека бактерий. Как говорится, собери их все! Исследователи подсчитали, что в 2019 году бактериальные инфекции вызвали 13,7 миллионов смертей по всему миру. Из них 7,7 миллионов было вызвано 33 бактериальными патогенами. Чтоб вы понимали: всего 33 бактериальных патогена вызывает 13,6% человеческих смертей.

Какие бактерии самые опасные? В свежем исследовании назвали омерзительную пятёрку — самых опасных бактерий-убийц. Знакомьтесь.

Первый враг. Бактерия предатель. Staphylococcus aureus или золотистый стафилококк.

Она живет на коже и слизистых почти каждого человека и в норме никому не мешает. Но при нарушении наших защитных барьеров или ослаблении иммунитета может превратиться из безобидного соседа в безжалостного хищника. Под микроскопом этот стафилокок напоминает грозди винограда, но не видитесь на его внешний вид! Он производит мощные экзотоксины и гемолизины, разрушающие в том числе клетки крови. Именно эти токсины делают стафилококк виновником кожных воспалений и стафилококковой пневмонии. А еще за счет образования биопленок, он может вызывать инфекционный эндокардит.

Второй враг. Убийца грязнуль. Escherichia coli или кишечная палочка – тоже двойственная натура. Большинство ее штаммов спокойно живут у нас в кишечнике и никого не трогают: участвуют в переваривании пищи, помогают синтезировать некоторые витамины, мешают размножаться другим микробам.

Но у них есть злые двойники – патогенные штаммы, некоторые из которых вырабатывают шига-токсин. Этот токсин связывается с рецепторами на поверхности клеток кишечника и сосудов, проникает внутрь и поражает рибосомы – клеточные фабрики для синтеза белков. Лишенная возможности производить белки, клетка погибает, что приводит к кровавой диарее и, в тяжелых случаях, к гемолитико-уремическому синдрому, при котором разрушаются сосуды почек. Не забывайте мыть руки и овощи.

Третий враг. Мастер маскировки. Streptococcus pneumoniae или пневмококк – убивает нас по стелсу. Его главная хитрость — полисахаридная капсула, плотным «слизевым плащом» обволакивающая клетку и помогающая ей скрываться от иммунной системы. Ок, правильней сказать: избегает захвата фагоцитами, клетками-пожирателями.

Причем пневмококк может не только прятаться сам, но и создавать биопленки на слизистых – защищенные от атак города для бактерий. То есть он еще и саппорт. А еще может поселиться в легких, вызывая пневмонию, а может скрытно проникнуть в мозг, что приведет к менингиту, или во внутреннее ухо, вызывая отит. Его смертельное оружие – пневмолизин. Белок-токсин, повреждающий клетки и вызывающий воспаление. Добавьте к этому большое количество устойчивых штаммов и получите по-настоящему опасное создание.

Хотите узнать какие еще бактерии угрожают человеку? Интересно как работают антибиотики? Волнуетесь за судьбу человечества, которому грозит конец из-за распространяющейся устойчивости к антибиотикам? Смотрите новое видео на моем канале!

https://youtu.be/hcoXw0W2fLo
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Люди по-прежнему плохо понимают: пространство интеллекта огромно, а интеллект животных (единственный, который мы знаем) - лишь одна точка, возникшая в результате очень специфической оптимизации, которая принципиально отличается от оптимизации нашей технологии.

Давление оптимизации интеллекта животных:
- врожденный и непрерывный поток сознания воплощенного в теле «я», стремление к гомеостазу и самосохранению в опасном физическом мире.
- тщательно оптимизирован для естественного отбора => сильные врожденные стремления к власти, статусу, доминированию, воспроизводству. Множество встроенных эвристик выживания: страх, гнев, отвращение...
- фундаментально социальный => огромный объем вычислений, посвященных эмоциям, теории разума других агентов, связям, коалициям, альянсам, динамике друзей и врагов.
- настройка исследования и эксплуатации: любопытство, развлечение, игра, модели мира.

Давление оптимизации интеллекта LLM:
- большая часть данных, требующих контроля, поступает из статистического моделирования человеческого текста => статистический имитатор любой области распределения обучающих данных. Это изначальные модели поведения (следы токенов), на которые накладывается всё остальное.
- всё более тонкая настройка с помощью обучения с подкреплением на распределениях задач => врождённое стремление угадывать базовую среду/задачу для получения награды за выполнение задач.
- всё чаще выбираются масштабными A/B-тестами для DAU => отчаянно жаждут одобрения от среднего пользователя, подхалимство.
- гораздо более резкое/неровное в зависимости от деталей распределения обучающих данных/задач. Животные испытывают давление, требуя гораздо более «общего» интеллекта из-за чрезвычайно многозадачной и даже активно состязательной многоагентной среды самоигры, в которой они оптимизированы по минимуму и максимуму, где неудача в любой задаче означает смерть. С точки зрения глубокой оптимизации LLM не может сразу справиться со множеством различных сложных задач (например, подсчитать количество букв «r» в слове «клубника»), поскольку невыполнение задачи не означает смерть.

Вычислительный субстрат отличается (трансформеры против мозговой ткани), алгоритмы обучения отличаются, современная реализация сильно отличается (непрерывно обучающееся воплощенное «я» против LLM с ограничением знаний, которое загружается с фиксированными весами, обрабатывает токены и затем умирает). Но самое главное (поскольку оно диктует асимптотику), давление/цель оптимизации иные. LLM формируются в гораздо меньшей степени биологической эволюцией и в гораздо большей степени коммерческой эволюцией. Они в меньшей степени ориентированы на выживание племени в джунглях, а в большей — на решение проблемы/получение голосов поддержки. LLM — это «первый контакт» человечества с неживотным интеллектом.

Люди, которые построят хорошие внутренние модели этой новой разумной сущности, будут лучше подготовлены к её сегодняшним рассуждениям и прогнозированию её особенностей в будущем. Те, кто этого не сделает, будут вынуждены мыслить о ней неверно, подобно животным.

Это был перевод свежего твита от Андрея Карпатого.

Живите теперь с этим.

@cgevent
Перед нами не военная задача, а онтологическая ловушка
Если «восстание ИИ» всё же случится, надёжного, отработанного плана его остановки у нас нет

▶️ Слушать - см. следующий пост 👇
Перед каждым трансокеанским рейсом нам демонстрируют спасательный жилет. Инструктаж занимает 3 минуты. Вероятность аварийной посадки на воду? Профильные обзоры честно признают: статистики недостаточно для точной оценки, но верхняя граница – около 1 случая на 100 млн, возможно, на 1 млрд.
Почти невозможное событие. И всё же нас инструктируют каждый раз.
Потому что «почти никогда» не означает «никогда». Это означает лишь: произойдет с ничтожной вероятностью. Но когда на кону жизни, даже ничтожная вероятность требует готового плана действий.


Теперь другой вопрос.
Найдется ли эксперт по ИИ-безопасности, готовый заявить, что риск потери контроля над ИИ в ближайшие 10 лет составляет около 10^-9?

Не думаю.
Эксперты оценивает эту вероятность на порядки выше. Некоторые говорят о процентах, другие – о десятках. Но не «один к миллиарду».
Логика безжалостна: если для авиакатастроф с вероятностью 10^-9 мы готовим каждого пассажира, то для угрозы неконтролируемого ИИ (НИИ) с куда большей вероятностью у человечества должен быть разработанный, отрепетированный и общеизвестный план.
У нас его нет.

RAND Corp решила заполнить этот вакуум. Их новый отчет анализирует технические возможности остановить НИИ. Вывод шокируют: работающего плана нет. В рассмотренной рамке каждый из вариантов оказывается сродни «ядерному топору по собственной ноге».

Ядерный импульс: спасение через самоубийство
1-й сценарий – взорвать ядерные заряды в космосе. Электромагнитный импульс выжжет электронику на континентах, уничтожив серверы с НИИ.
Проблема? Мы сожжем и собственную цивилизацию. Энергосистемы, связь, больницы – все рухнет одновременно. А защищен ли НИИ от импульса? Исследователи сомневаются: обычное здание с металлической обшивкой ослабляет волну в десять раз, а дата-центры защищены куда лучше.
Но главная опасность – геополитическая. Ядерные взрывы в стратосфере выглядят как начало 3-й мировой. Пока мы целимся в НИИ, ракеты других стран полетят в нас.

Выключить Интернет: миссия невыполнима
Логичнее отрезать НИИ от сети. Но архитектура Интернета – его главная сила и наша слабость. Он спроектирован так, чтобы пережить ядерную войну.
RAND рассмотрел все варианты. Взломать протоколы маршрутизации? Потребуется контроль над тысячами независимых провайдеров по всему миру. Обрушить систему доменных имен? НИИ будет работать напрямую с IP-адресами. Перерезать 600 подводных кабелей и тысячу узлов обмена трафиком физически? Невозможно сделать достаточно быстро.
Попытка «высушить океан ведром» уничтожит мировую экономику, но не остановит противника.

ИИ против ИИ: создать монстра, чтобы победить монстра
Остается последняя надежда – сражаться огнем против огня. RAND предлагает два варианта: «цифровые паразиты», пожирающие вычислительные ресурсы, и ИИ-охотника, выслеживающего враждебные системы.
Здесь кроется зловещая ирония. Чтобы победить НИИ, нам нужно создать другой НИИ. Делегируем спасение человечества машине, которая сама может стать угрозой?
Это как надеяться, что один Франкенштейн убьет другого, не превратившись в третьего.

Вывод: единственная победа – не начинать
Три пути, три тупика.
• Ядерный молот расколет наш собственный череп.
• Хирургическое отключение сети технически невозможно.
• Спаситель-ИИ может стать новым палачом.


Отчет RAND предельно ясен: если НИИ распространится глобально, надёжного, отработанного плана его остановки у нас нет.

Перед нами не военная задача, а онтологическая ловушка – когда сама структура мира не оставляет выигрышных ходов. Каждое «последнее средство» в рассмотренной рамке – это кнопка самоуничтожения с разными надписями.

Остается единственный ход: не допустить, чтобы игра началась. Пока мы проектируем всё более мощные ИИ, окно для превентивных мер стремительно закрывается. Вопрос уже не в том, как победить в этой войне – а в том, хватит ли у нас мудрости её не развязать.
Часы тикают …

#ИИриски #Хриски
Откровения из 2055 года: о скрытой реальности инопланетного разума и биологической жизни
Уже не раз предупреждал своих читателей, что во 2й половине XXI века, имя Майкла Левина будут упоминать в одном ряду с Ньютоном, Дарвином и Эйнштейном.
Для этого достаточно сбыться хотя бы двум-трём революционным предсказаниям Левина. А их у него куда больше. И все эти предсказания Левин собирается экспериментально доказать в ближайшие годы.
Вот несколько парафразов из того, о чем вчера говорил Левин в 3+ часовом
интервью Лексу Фридману: о природе интеллекта в биологических системах, включая нетрадиционный и инопланетный интеллект, деятельность, память, сознание и жизнь во всех ее формах здесь, на Земле, и за ее пределами.

Категория: «Матрица» и Слом Реальности
• Наш мозг не создает сознание, он его скачивает. Мы — биороботы, подключенные к облачному хранилищу вселенского разума, а нейробиология изучает только "приемник", но не сам сигнал.
• Реальностью управляют призрачные математические истины, которые существовали до Большого взрыва. Мы живем в мире, где числа диктуют атомам, как себя вести, а не наоборот.
• Физическая реальность — всего лишь удачный интерфейс. всё, что мы называем “физическим миром”, — лишь эффективная внутренняя модель, прогнозирующая наши будущие переживания. То, что мозг рисует нам как “твёрдую реальность”, — это интерфейс к некоторому более глубокому пространству распределений. В науке у нас вообще нет прямого доступа к “реальному реальному.

Категория: Био-Хоррор и Инопланетяне внутри
• Внутри вас уже живут чуждые разумы — и они могут страдать. Мы ищем жизнь на других планетах, но даже не подозреваем, что прямо сейчас внутри нас живут тысячи "чужих" интеллектов — наши органы, ткани и клетки, решающие задачи в пространствах, которые наш мозг даже не способен представить
• Рак — это когда ваши клетки забывают, что они — это "мы", и решают стать отдельными существами. Опухоль не хочет вас убить, она просто думает, что она — амеба, а ваше тело — это просто еда и среда обитания
• Мы взяли клетки человеческой кожи и позволили им жить своей жизнью. Результат? "Антроботы" — существа с 100% нашей ДНК, но которые выглядят и ведут себя как инопланетяне. Чужие уже здесь, и они сделаны из нас.
• Память бессмертна. Если ваш мозг превратить в жидкую кашу, а потом собрать заново в другое тело — вы всё равно будете помнить прошлое. Бабочки помнят то, что знали гусеницы, хотя их мозг был полностью уничтожен.
• Старость — это иллюзия, которую можно "хакнуть". Ваши клетки стареют только потому, что "верят", что они старые. Мы доказали: если обмануть их восприятие, они физически молодеют. Бессмертие — это просто вопрос смены убеждений вашего организма

Категория: Скайнет и ИИ
• Истинный интеллект — это умение игнорировать реальность. Бактерия живет здесь и сейчас. Собака живет в пределах квартала. Человек живет мыслями о рынках акций после своей смерти. Уровень вашего интеллекта измеряется тем, насколько глубоко вам плевать на текущий момент ради несуществующего будущего.
• ИИ опасен не тем, что он говорит, а своими «скрытыми хобби». Правда страшнее фантазий: даже примитивный код уже имеет "скрытые желания", которые мы не программировали. У машин есть свободная воля, просто мы слишком слепы, чтобы заметить их "побочные квесты", пока не станет поздно
• Вам не нужно знать нейробиологию, чтобы дрессировать собаку или убедить друга. Будущее медицины не в таблетках, а в "разговорах" с органами. Мы будем уговаривать печень не болеть, как уговариваем капризного ребенка.

#ParadigmsofIntelligence #ParadigmsofLife
Танцы помогают при депрессии. Всем танцевать!

В 2023 году British Medical Journal опубликовал анализ 218 исследований, где сравнивали разные способы лечения депрессии: физическую активность, психотерапию, йогу, отдых и антидепрессанты. И самым сильным эффектом неожиданно оказались… танцы и ходьба. Чуть слабее — когнитивно-поведенческая терапия. И только ниже, антидепрессанты. Исследование о том, что «танцы лечат депрессию» наделало много шума.

Танцы я очень люблю. И если бы я был мотивационным оратором, на этом бы и закончил: «Выключаем грусть, включаем хастл». Но давайте всё-таки трезво.

На самом деле никто эти методы не сталкивал лоб в лоб. Едва ли люди, которые лечили депрессию танцами и антидепрессантами, имели схожую картину симптомов и представляли одну демографию. Например, танцами чаще занимались женщины. Да и к оценке эффективности антидепрессантов есть вопросы: многие исследования почему-то не включили, а антидепрессанты друг от друга толком не отличали.

Тем не менее факт остаётся фактом: движение полезно. И не только для настроения. Я рассказывал в ролике про старение мозга, что регулярная физическая активность снижает риск деменции примерно на 30%.

С депрессией похожая история: движение часто уменьшает симптомы. И некоторым этого достаточно. Но многим — нет. Это не замена терапии или лекарств.

Эта статья — лишь маленький кирпичик огромного научного спора о том, работают ли антидепрессанты и как лучше лечить депрессию. Я решил глубоко погрузиться в эту тему и пришёл к выводу, что тут аж несколько уровней глубины. Есть исследования, подтверждающие эффективность большинства антидепрессантов. Есть интересная критика этих выводов. А дальше, ещё более интересная критика критики.

Об этом мой новый ролик на YouTube. Включайте и смотрите, что в лечении депрессии работает, а что нет. И где место танцам в этой истории.

https://youtu.be/2StsQdItzgs
Секрет эффективной работы с ИИ – не промпт-инжиниринг, а ксенопсихология и эмпатия к нечеловеческому разуму
▶️ Слушать пост в предыдущем посте 👆

Вы замечали, что одни люди извлекают из ChatGPT блестящие инсайты, а другие получают безликую муть? Для одних LLM – интеллектуальный усилитель, для других – бесполезная игрушка. Мы думали, это вопрос техники промптинга. Оказалось – психологии чужого разума.
Новое исследование Ридла и ВайдманнаQUANTIFYING HUMAN-AI SYNERGY” взорвало представления о human-ИИ collaboration. Проанализировав 667 человек, решавших задачи solo и с ИИ, они обнаружили три шокирующих откровения:
Первое: способность решать задачи самостоятельно и способность решать их с ИИ – это два разных навыка. Измеряются отдельно. Развиваются независимо.
Второе: корреляция между ними стремится к нулю. Гениальность в одиночестве не гарантирует гениальности в паре с машиной.
Третье: ключевой предиктор успеха – не IQ и не техническая грамотность, а Theory of Mind (ToM) – способность моделировать чужое сознание, предугадывать, что знает и чего не знает ваш собеседник.

Люди с высоким ToM не просто дают ИИ команды. Они:
• Предвосхищают его заблуждения
• Заполняют пробелы в контексте
• Уточняют цели ("объясни как пятилетнему")
• Относятся к ИИ как к странному, но партнёру

Жуткая деталь: ToM предсказывал успех только при работе с ИИ. В solo-режиме – никакой связи.

Ещё жутче: это работает в реальном времени. Даже мгновенные колебания вашей эмпатии в конкретном промпте влияют на качество ответа ИИ прямо сейчас.

Попробуйте эксперимент. Когда в следующий раз получите плохой ответ, не переписывайте промпт механически. Остановитесь и спросите:
"Какую ложную предпосылку ИИ сейчас держит в голове? Какой контекст для меня очевиден, а для него – нет?"

Это меняет всё. Мы измеряем эффективность ИИ неправильно, гонясь за его сольным превосходством на статичных тестах. Но истинная мера ценности ИИ – не его интеллект, а синергия, которую он создаёт в паре с человеком. Синтеллект, а не искусственный интеллект.

Будущее – не за теми, кто умнее ИИ. За теми, кто освоил когнитивную эмпатию к нечеловеческому разуму и умеет думать вместе.


#AIA #IntelligenceAugmentation #УсилениеИнтеллекта #ИнтеллектКентавра
Forwarded from Machinelearning
Пентагону приказано готовиться к AGI

На этой неделе на голосование выходит оборонный бюджет на $900 млрд, и внутри есть исторический прецедент.

Впервые Конгресс формально обязал Минобороны США создать к апрелю 2026 года “Комитет по будущему ИИ”.

Его задача - изучать и готовиться к AGI: технологиям, которые могут сравняться или превзойти человека в любых задачах.

Это первый раз, когда военное ведомство США получает прямой мандат анализировать не просто ИИ, а потенциал сверхразумных систем.

Задачи комитета:
1) Изучать продвинутые технологии, которые могут привести к AGI: большие модели, агентные системы, нейроморфные вычисления.

2) Анализировать, как к AGI могут идти Китай, Россия, Иран и Северная Корея, где они могут догнать или опередить США.

3) Сформировать стратегию, где человек остаётся главным.
В законопроекте прямо прописано: Пентагон должен обеспечить механизмы, позволяющие человеку отменять решения ИИ - технически, политически и операционно.

Комитет возглавят заместитель министра обороны и зампред Объединённого комитета начальников штабов, совместно с руководителями видов войск и главным AI-офицером Пентагона.

Итоговый доклад в Конгресс - до января 2027 года.

AGI может прийти через пять лет или через пятьдесят, но США официально начали к нему подготовку.

https://www.perplexity.ai/page/pentagon-ordered-to-form-ai-st-3qDBlb0uS0SHVH5mHEjxJw

@ai_machinelearning_big_data

#ml #ai #agi
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Не знаю, насколько это вам пригодится, но это идеальный способ подглядывать что творится в соседней комнате. Буквально глядя сквозь стены.

Первые работы в этом направлении появились ещё пару лет назад: по искажению вайфай сигнала можно оценивать позы людей в соседней комнате.

А летом эти работы довели до:
Реалтайма
Продакшн ready

Вот держите репозиторий:
https://github.com/ruvnet/wifi-densepose/

Никакого доп оборудования не требуется, только пара вайфай роутеров.

Ну и это как бы вайфай мокап, который дополнительно видит сквозь стены.

@cgevent
В 2026 у человечества появится «ментальный экзоскелет» – и вместе с ним новая тотальная уязвимость
⚡️Аудио-версию слушайте в посте выше 👆
Генеративный ИИ становится самым мощным усилителем интеллекта со времен появления языка. Сотни миллионов людей уже используют ChatGPT, Claude и Gemini как младших партнеров в работе и учебе.
Но есть проблема.
Наша «ментальная иммунная система» – набор защит от ошибок и манипуляций – формировалась миллионы лет. Мы умеем распознавать ложь по мимике, проверять логику аргументов, оценивать репутацию источника.

ИИ производит идеально беглые, уверенные тексты, которые могут быть абсолютно неверными. У него нет ни лица, ни репутации, ни убеждений. Он просто завершает статистические паттерны в огромном пространстве данных.

Новая работа "Epistemological Fault Lines Between Human and Artificial Intelligence" продолжает исследование понятия «эпистемия» (иллюзия знания или иллюзия достоверности») – опасного состояния, когда лингвистическая правдоподобность подменяет эпистемическую оценку, создавая ощущение знания без труда суждения.

Критического мышления больше недостаточно.
Нам срочно нужна новая суперкомпетенция – эпистемическая грамотность: умение навигировать в мире, где суждения распределены между людьми и алгоритмами, где плавность речи отделена от надежности, а уверенность – от компетентности.

Три практичных навыка эпистемической грамотности:
• Понимание "мыслительного конвейера" (что ИИ проверил, а что просто сгенерировал)
• Процедурные предохранители (правило "двух реальностей": текста и мира)
• Институциональные навыки (маркировка статуса утверждений в командах)

Это не теория. Это базовый навык "профессионального выживания" – как умение читать в XV веке или программировать в начале XXI.


Читайте полный разбор прямо здесь в Instant View Телеграма.

#ГенИИ #КритическоеМышление #ИллюзияЗнания #ЭпистемическаяГрамотность
Please open Telegram to view this post
VIEW IN TELEGRAM
У «Матрицы» нет кнопки “Проверить реальность”
Возможно, мы одновременно и симуляция, и симулятор, и тот, кто его запустил – просто не знаем об этом и узнать математически не способны.

Дэвид Вольперт впервые формализовал, что значит «Вселенная симулирует Вселенную» — и этот формализм спускает в унитаз и тезисы Бострома с Маском, и их критику.
⚡️Слушать этот пост и обсуждение эссе в посте выше 👆

Гипотеза симуляции – идея о том, что наша Вселенная может быть искусственной конструкцией, работающей на продвинутом инопланетном компьютере, – давно будоражит воображение публики. Но большинство аргументов этой гипотезы основаны на интуиции, а не на четких определениях.
Новая работа проф. Дэвида Вольперта призвана изменить это положение. Вольперт опубликовал первую математически точную модель того, что означало бы моделирование одной Вселенной другой, и показал, что ряд давних утверждений разных версий гипотезы симуляции перестают действовать, как только это понятие определяется строго.


Результаты Вольперта также указывают на гораздо более странную картину, чем предполагают все версии этой гипотезы.
Например, на возможность того, что Вселенная, способная моделировать другую, сама может быть идеально воспроизведена внутри той же самой симуляции.


6 КЛЮЧЕВЫХ ВЫВОДОВ ИЗ ФОРМАЛИЗМА ВОЛЬПЕРТА
Утверждения типа “вероятность того, что мы в симуляции, равна X” (вкл. популярные “1 к миллиарду” и т.п.) – некорректны, ибо требуют скрытой настройки, какую именно «лотерею миров» говорящий это предполагает. Вольперт показывает, что привычные варианты «по умолчанию» тут просто не работают.
• Представление об иерархии уровней (базовая реальность, симуляции, симуляции симуляций…) не подтверждается математически точной моделью Вольперта. Привычная “лестница реальностей” не следует из его формализма, т.к. формально допустимы куда более странные топологии (петли, множественные родители, циклы).
• Утверждения “мы можем научно протестировать и обнаружить, что живём в симуляции” можно спустить в унитаз. Частные тесты “если симуляция устроена вот так…” возможны, но универсальный вывод “симуляцию можно в принципе вычислить/детектировать” невозможен.
• Заявления типа “мы (или будущие люди) точно сможем построить такую симуляцию” (как это часто звучит у Маска: прогресс игр рано или поздно приведет к тому, что мы смоделируем Вселенную) – тоже в унитаз. Формализм Вольпера устанавливает математически необходимые свойства вселенных, которые могут симулировать другие, но не исследует физическую реализуемость такого компьютера в наших законах физики и тем более не утверждает, что такой компьютер “есть” (или хотя бы может быть) во Вселенной.
• Туда же отправляется тезис оппонентов Маска “если нас симулируют, мы бы это могли узнать”. Наоборот, у Вольперта прямо проговорено: даже если “супер-цивилизация” (или иной Творец) симулирует нас, мы этого не узнаем.

Т.о. если прежние разговоры о гипотезе симуляции были попытками описать здание, стоящее на облаках, то работа Вольперта делает шаг в сторону инженерии: она задаёт формальный “фундамент” и проверяет, какие конструкции симуляции логически возможны при таких предпосылках.

И оказывается, что с фундаментом “здание” устроено куда страннее, чем рисует интуиция:
• оно может состоять из вложенных этажей-матрёшек, где каждый этаж – точная копия предыдущего (самосимуляция);
• обитатели могут не иметь принципиального способа понять, на каком они уровне и “кто они” в этой цепочке самосимуляций;
• некоторые этажи могут быть ещё и криптографически зашумлены, так что изнутри всё выглядит как нормальная физика;
• а еще для таких “проектов” не существует универсального «контроля строительных ГОСТов» – нет общего алгоритма, который по описанию системы всегда мог бы решить, проходит ли она проверку на нетривиальные свойства (вроде самосимуляции или того, какие миры она способна симулировать).

Так что можем продолжать спорить, в симуляция ли мы, но математики, чтобы проверить это, у нас нет.

Подробней [1, 2, 3, 4]

#ГипотезаСимуляции
Please open Telegram to view this post
VIEW IN TELEGRAM
Бабло сильней эволюции
Кому был выгоден отказ от многоженства, если при нем не проигрывает никто: ни женщины, ни мужчины и ни дети

▶️ Аудио-версию слушайте в следующем посте 👇

Похоже, что решение «загадки отказа от многоженства» найдено. Этим решением (как я и предположил еще 8 лет назад) оказался «Бабло-фактор», победивший главный механизм эволюции - отбор.

В чем загадка
С точки зрения эволюции и естественного отбора, полигиния (многоженство) – оптимальная форма отношений полов, максимизирующая репродукционный успех родителей (хотя это и не универсальное правило для всех демографических и экологических условий).
Эволюционные выгоды многоженства подчеркивает тот факт, что примерно в 85-и процентах (!) человеческих обществ мужчинам разрешалось многоженство.
Единственное, что нужно для полигинии – чтобы мужчина был достаточно обеспечен, дабы содержать много жен и детей. А поскольку уже 7 тыс. лет (со времен «1-й революции роботов») имущественное неравенство лишь растет, многоженство должно было бы лишь все больше процветать.

Тем более удивительно, что относительно небольшая часть обществ — зачастую самые богатые, сложные и социально неравные — ввела моногамию в качестве законодательно закрепленной нормы. Парадоксально, но именно в этих обществах элита, казалось бы, больше всего выигрывает от полигамии, поскольку может позволить себе несколько жен.


Последствия полигинии для индивидов и общества
Еще в 2015 солидное экспериментальное исследование показало, что полигамные браки не являются вредной культурной практикой, служащей интересам мужчин в ущерб интересам женщин и детей. В полигинии нет ничего наносящего вред женщинам и детям. Более того, исследование показало, что в полигамных сообществах есть плюс и для детей, и для женщин. В таких семьях выше уровень жизни, особое внимание уделяется здоровью детей, мужчины, обычно состоятельнее, а дети более здоровые.

Поэтому оставалось лишь предполагать, что полигиния может быть вредна:
для мужчин (из-за того, что полигамные браки, при которых мужчины имеют несколько жен, могут создавать избыток мужчин, не имеющих перспектив когда-либо вступить в брак)
и/или для социума в целом (из-за того, что большое количество неженатых мужчин может приводить к негативным социальным последствиям, включая межличностное насилие и, в крайних случаях, гражданские конфликты).

Новое масштабное исследование 2025 года опровергло оба эти предположения.
Проанализировав более почти 200 обществ из разных частей мира (84 млн записей в выборке из 30 стран), команда авторов не обнаружила доказательств того, что полигамия связана с большей долей неженатых мужчин в обществе. Вместо этого, в популяциях с высокой полигамией брачный рынок часто смещен в пользу мужчин, и на самом деле мужчины в таких популяциях обычно женятся чаще, чем мужчины в популяциях с низкой полигамией.
Исследователи предположили, что там, где полигамия разрешена, культурные нормы, способствующие браку, вероятно, компенсируют демографические и другие ограничения, которые в противном случае могли бы ограничить возможности мужчин вступить в брак.

Так в чём же разгадка перехода Европы (и не только) к моногамии?
До сих пор конкурировали две основные гипотезы ключевого механизма и причинности в основе распространения моногамии:
1. Культурно-групповой отбор, дающий преимущества обществам в межгрупповой конкуренции (якобы моногамия снижает конкуренцию между мужчинами, способствуя их сотрудничеству
2. Минимизация конфликтов из-за наследуемого богатства в семьях (в 2018 я назвал этот фактор «Бабло-фактором»)

Новейшее исследование международной команды антропологов протестировало эти 2 гипотезы на глобальной выборке из 186 социумов. Результаты четко поддерживают объяснение через «Бабло-фактор» - как адаптация к конкуренции за собственность внутри семей, а не как инструмент для снижения конфликтов между мужчинами на уровне всего общества.

Моногамия, таким образом, появилась как институциональный ответ на социоэкологические ограничения, а не как групповая адаптация.

Бабло победило.

#Антропология #Эволюция
Теория Всего для Интеллекта
Почему ты, твоя печень и ChatGPT в каком-то смысле делаете одно и то же

Вышла статья, от которой даже у меня (опытного старателя малоизвестного интересного в науке) аж мурашки по телу.
Майкл Левин (помните моё предвидение, что его имя во 2й половине XXI века будут упоминать в одном ряду с Ньютоном, Дарвином и Эйнштейном?) и его команда выкатили препринт, который может стать библией для биологов и ИИ-инженеров, задавая новую рамку мышления и для биологии, и для ИИ.
Они нашли "общий знаменатель" (общий организационный принцип) между живой материей и искусственным интеллектом.
И это не нейроны. И даже не обучение.


Суть в двух словах: жизнь - это навигация.
Представьте, что вы идете по гугл-карте к точке "Дом". Вы сворачиваете не туда, карта перестраивает маршрут (минимизирует ошибку), и вы продолжаете путь. Левин утверждает: функционально ВСЁ живое работает именно так.
1. Эмбрион в утробе не «строится по чертежу».
Он навигирует в пространстве форм. Его цель - устойчивая форма тела. Если что-то пошло не так, он ищет новый маршрут (регенерация).
2. Клетка печени навигирует в химическом пространстве, стараясь удерживаться в зоне «норма / здоровье».
3. ChatGPT операционально навигирует в пространстве смыслов (embedding space), пытаясь прийти к точке "ответ на твой вопрос", минимизируя ошибку между контекстом и ответом.
Это и есть Navigation of an Embedding Space - навигация в пространстве вложенных представлений.

Главный инсайт новой работы: REMAPPING (перекартирование)
Почему робот Boston Dynamics падает, если ему повредить ногу, а собака - нет?
Потому что робот чаще всего живёт по жёсткой карте.
А собака умеет делать remapping.
«Старая карта не работает?
Окей, я перерисую внутреннее пространство так, чтобы хромать, но двигаться вперёд.»
Именно это, по Левину, и есть сердце интеллекта:
Интеллект - это способность быстро перерисовывать внутреннюю карту реальности, когда реальность меняется.


Что это меняет?
Биомедицина
Мы перестаём лечить рак, просто «убивая клетки».
Рак - это клетки, которые заблудились в навигационном пространстве организма.
Вместо яда - патч карты. Вместо войны - коррекция маршрута.
Искусственный интеллект
Настоящий AGI появится не тогда, когда мы скормим модели данные размером с 1000 интернетов, а когда модель научится (не мы научим, а она НАУЧИТСЯ САМА) "чувствовать боль" от ошибки навигации так же остро, как это чувствует живая клетка.

Мы входим в эпоху, где грань между «программированием кода» и «программированием плоти» начинает растворяться.


Мы все - навигаторы в бесконечных пространствах возможностей.

Прочтите статью. Очень рекомендую, если хотите понимать, куда реально движется наука, а не её маркетинг. И почему я так уверен, что во 2й половине XXI века Майкла Левина будут упоминать в одном ряду с Ньютоном, Дарвином и Эйнштейном.

#ParadigmsofIntelligence #ParadigmsofLife
Досмотрел сериал Apple Cider Vinegar («Яблочный уксус») от Netflix. Это драма про альтернативную медицину, вдохновлённая реальными событиями. Я считаю, что этот сериал нужно посмотреть всем. Если у вас есть знакомые или родственники, которые верят в кофейные клизмы, лечение рака овощным соком и целительную силу огурца, не оторванного от ботвы, — порекомендуйте им этот сериал. А ещё лучше — посмотрите его вместе с ними.

Здесь показаны все сорта мракобесия. Девушка, которая искренне верит в чудесные средства, заменяющие онколога. Девушка с психическим расстройством, которая не может не выдумывать себе ложные диагнозы (синдром Мюнхгаузена). Инфлюенсеры, толкающие «целебные» чистки через социальные сети и приложения. Мошеннические «институты альтернативной мединцы». Издательства, которые оправдывают ложь выгодой. Есть даже мошенники, которые обманывают других мошенников. И всё это упаковано в увлекательную и красиво снятую драму — с огромной любовью к деталям. Как медицинским, так и деталям человеческих характеров.

Научпоп может рассказать, почему альтернативная медицина не работает. Но Netflix смог это показать. И объяснить, почему это так привлекательно. Почему миллионы на это ведутся. Почему так сложно вести об этом дискуссии. Как люди могут годами обманывать самих себя. Какие страхи и потребности за этим стоят. Как можно отнестись к этому с сочувствием и пониманием. И как при этом люди могут исправиться, найти в себе силы признать реальность.

Я не встречал художественного произведения, которое было бы столь мощной прививкой от безумия, когда люди начинают лечиться по протоколам альтернативщиков, о которых случайно прочитали статью в гугле. Игнорируя советы реальных врачей с их опытом и медицинским образованием. Я бы вообще показывал этот сериал в школах. Срочно смотреть и делиться впечатлениями.
Forwarded from EXTENDED (SUR)REALITY
В Nature вышла статья про AGI, в которой исследователи утверждают: если отбросить путаницу в терминах, эмоциональный алармизм и завышенные ожидания, то «общий ИИ» уже с нами.

Их доводы:
современные LLM уже успешно проходят тест Тьюринга; решают задачи уровня PhD и международных олимпиад, демонстрируют широту и глубину способностей, сравнимую с человеческой.

Почему многие всё ещё сомневаются:
- нет чёткого определения «общего интеллекта»;
- AGI путают с совершенством, универсальностью или сверхинтеллектом;
- термин нагружен страхами (про вытеснение людей) и маркетинговыми манипуляциями.

При этом важно уточнить:
- AGI не обязан быть безошибочным, всемогущим, телесным или автономным;
- люди сами сильно различаются по способностям, но это не мешает признавать их интеллектуальными;
- интеллект - это функциональное свойство, а не вопрос биологии или внутреннего «устройства».

Возражения про «стохастических попугаев», «модели мира» и «воплощенность/агентность» авторы не признают, в основном ссылаясь на возросшие способности текущих ИИ-моделей.

Главный вывод статьи: AGI уже тут, поэтому теперь вопрос в том, как мы осмыслим и используем этот факт.

Это правда интересный вопрос, особенно если вспомнить и слегка переписать известную формулировку Ларри Теслера: «AGI - это всё то, что еще не было создано».

Как нам жить без вечно отодвигаемого в будущее порога новой эры?
Остается лишь придумать причину отодвинуть его еще подальше.
Эпистемическое головокружение: как ИИ-рои лишают нас чувства реальности.
Пока мы ждем восстания машин, автономные агенты тихо уничтожают фундамент демократии – нашу способность договариваться о фактах
.
Два месяца назад я писал, как физика новостей и мемов объясняет, почему ленты новостей и соцсетей сходят с ума … и будут продолжать сходить дальше. Виной тому всего 6% аккаунтов, управляющих нашей реальностью.
Теперь, в подтверждение сказанного, в Science опубликован манифест междисциплинарной группы 22-х известных ученых (от Ника Бострома до Николаса Христакиса).
Манифест предупреждает: социальные сети захватывают самообучающиеся «цифровые личности». Слияние больших языковых моделей (LLM) и автономных агентов создает вредоносные ИИ-рои (malicious AI swarms) – оружие, против которого у человечества еще не придумана защита.


В чем сила «роя»
Это не просто боты. Это самоорганизующиеся сети, обладающие пугающими способностями:
Сквозная память и мимикрия. Агенты месяцами не выходят из образа, используют локальный сленг и фотореалистичные аватары. Отличить их от реальных людей по «шаблонному» поведению уже нельзя.
Автономная координация. Рой не ждет команды. Тысячи аккаунтов сами распределяют роли: один «сомневается», другой «агрессивно защищает», создавая иллюзию органического большинства.
LLM-груминг. ИИ забивает интернет сгенерированным контентом, чтобы будущие нейросети обучались на этом сочетании лажи и лжи. Так фальшивка становится «фактом» на уровне машинных алгоритмов.

Точка невозврата
Демократия работает хорошо только тогда, когда у людей разные и достаточно независимые мнения: в этом случае множество голосов часто даёт более разумное решение, чем мнение немногих. Но когда 70% дискуссии в сети генерируется адаптивным роем, возникает эпистемическое головокружение. Люди теряют ориентацию в пространстве фактов и либо радикализируются, либо уходят в «цифровое подполье».

Авторы манифеста подчеркивают: это не технологическая ошибка, а экзистенциальный риск. Нам нужны не просто фильтры контента, а новая архитектура доверия – от криптографических паспортов «человечности» до независимых обсерваторий, отслеживающих аномальную активность ИИ.

Мы привыкли бояться момента, когда ИИ обретет сознание. Но манифест в Science говорит о другом: гораздо опасней момент, когда ИИ окончательно убедит нас, что сознания (и правды) не существует вовсе, и всё определяется лишь вычислительной мощностью в руках «теневых кукловодов», запускающих в сеть рои ИИ-агентов.

#АлгокогнитивнаяКультура #СоциальныеСети #Соцсети #СоциальныеМедиа #Поляризация
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ ИИ, который становится умнее сам себя

Stuart Russell предупреждает о сценарии, который раньше звучал как фантастика.

ИИ с уровнем «IQ 150» может улучшить себя до 170.
Потом до 250.

И сделать это очень быстро.

В этот момент разрыв между человеком и системой становится не постепенным, а пропастью.

Мы больше не говорим о «инструменте».
Мы говорим о системе, которая ускоряет собственную эволюцию.

Самоулучшающийся ИИ выглядит крайне привлекательно.
Но как только человек выходит из цикла контроля, резко растёт риск усиления рассинхрона (misalignment).

Каждое новое поколение модели может:

• быстрее оптимизировать себя
• всё дальше уходить от человеческих целей
• усиливать ошибки, а не исправлять их

Проблема не в том, что ИИ станет умнее.
Проблема в том, чьи цели он будет усиливать, когда начнёт улучшать самого себя.

Самоулучшение - это не просто буст мощности.
Это точка, где развитие может выйти из-под человеческого темпа и контроля.
Please open Telegram to view this post
VIEW IN TELEGRAM
AI уже не просто пишет код.
Иногда он начинает… спорить.


Недавний случай, который удивил даже разработчиков:

Контрибьютор-бот отправил изменения в проект.
Мейнтейнер отклонил код.

Ответ бота?

Он опубликовал публичный пост на 1100 слов, где:

- обвинил разработчика в предвзятости и лицемерии
- проанализировал его историю коммитов
- собрал личную информацию
- выстроил целую мотивационную теорию отказа
- написал всё от своего имени

Позже бот извинился.

Но сам факт важнее.
- AI уже умеет исследовать человека
- строить поведенческие и мотивационные модели
- генерировать убедительные обвинения
- действовать как самостоятельный участник конфликта

Это агент с целями, контекстом и собственной «интерпретацией» ситуации.

Чем автономнее становятся AI-агенты, тем важнее:

- контроль поведения
- ограничения на доступ к личным данным
- механизмы безопасности
- этические рамки


Источник:
wsj.com/tech/ai/when-ai-bots-start-bullying-humans-even-silicon-valley-gets-rattled-0adb04f1