Агрегатор рациональности :: Uncolored
74 subscribers
301 photos
146 videos
2 files
1.35K links
#наука #литература #философия #рациональноемышление

Наука, IT, литература, философия, эрудиция, рациональное мышление + личное мнение.

Чатик канала здесь:
https://t.me/papatalks

По любым вопросам сюда:
@RainySkys
Download Telegram
Откровения из 2055 года: о скрытой реальности инопланетного разума и биологической жизни
Уже не раз предупреждал своих читателей, что во 2й половине XXI века, имя Майкла Левина будут упоминать в одном ряду с Ньютоном, Дарвином и Эйнштейном.
Для этого достаточно сбыться хотя бы двум-трём революционным предсказаниям Левина. А их у него куда больше. И все эти предсказания Левин собирается экспериментально доказать в ближайшие годы.
Вот несколько парафразов из того, о чем вчера говорил Левин в 3+ часовом
интервью Лексу Фридману: о природе интеллекта в биологических системах, включая нетрадиционный и инопланетный интеллект, деятельность, память, сознание и жизнь во всех ее формах здесь, на Земле, и за ее пределами.

Категория: «Матрица» и Слом Реальности
• Наш мозг не создает сознание, он его скачивает. Мы — биороботы, подключенные к облачному хранилищу вселенского разума, а нейробиология изучает только "приемник", но не сам сигнал.
• Реальностью управляют призрачные математические истины, которые существовали до Большого взрыва. Мы живем в мире, где числа диктуют атомам, как себя вести, а не наоборот.
• Физическая реальность — всего лишь удачный интерфейс. всё, что мы называем “физическим миром”, — лишь эффективная внутренняя модель, прогнозирующая наши будущие переживания. То, что мозг рисует нам как “твёрдую реальность”, — это интерфейс к некоторому более глубокому пространству распределений. В науке у нас вообще нет прямого доступа к “реальному реальному.

Категория: Био-Хоррор и Инопланетяне внутри
• Внутри вас уже живут чуждые разумы — и они могут страдать. Мы ищем жизнь на других планетах, но даже не подозреваем, что прямо сейчас внутри нас живут тысячи "чужих" интеллектов — наши органы, ткани и клетки, решающие задачи в пространствах, которые наш мозг даже не способен представить
• Рак — это когда ваши клетки забывают, что они — это "мы", и решают стать отдельными существами. Опухоль не хочет вас убить, она просто думает, что она — амеба, а ваше тело — это просто еда и среда обитания
• Мы взяли клетки человеческой кожи и позволили им жить своей жизнью. Результат? "Антроботы" — существа с 100% нашей ДНК, но которые выглядят и ведут себя как инопланетяне. Чужие уже здесь, и они сделаны из нас.
• Память бессмертна. Если ваш мозг превратить в жидкую кашу, а потом собрать заново в другое тело — вы всё равно будете помнить прошлое. Бабочки помнят то, что знали гусеницы, хотя их мозг был полностью уничтожен.
• Старость — это иллюзия, которую можно "хакнуть". Ваши клетки стареют только потому, что "верят", что они старые. Мы доказали: если обмануть их восприятие, они физически молодеют. Бессмертие — это просто вопрос смены убеждений вашего организма

Категория: Скайнет и ИИ
• Истинный интеллект — это умение игнорировать реальность. Бактерия живет здесь и сейчас. Собака живет в пределах квартала. Человек живет мыслями о рынках акций после своей смерти. Уровень вашего интеллекта измеряется тем, насколько глубоко вам плевать на текущий момент ради несуществующего будущего.
• ИИ опасен не тем, что он говорит, а своими «скрытыми хобби». Правда страшнее фантазий: даже примитивный код уже имеет "скрытые желания", которые мы не программировали. У машин есть свободная воля, просто мы слишком слепы, чтобы заметить их "побочные квесты", пока не станет поздно
• Вам не нужно знать нейробиологию, чтобы дрессировать собаку или убедить друга. Будущее медицины не в таблетках, а в "разговорах" с органами. Мы будем уговаривать печень не болеть, как уговариваем капризного ребенка.

#ParadigmsofIntelligence #ParadigmsofLife
Танцы помогают при депрессии. Всем танцевать!

В 2023 году British Medical Journal опубликовал анализ 218 исследований, где сравнивали разные способы лечения депрессии: физическую активность, психотерапию, йогу, отдых и антидепрессанты. И самым сильным эффектом неожиданно оказались… танцы и ходьба. Чуть слабее — когнитивно-поведенческая терапия. И только ниже, антидепрессанты. Исследование о том, что «танцы лечат депрессию» наделало много шума.

Танцы я очень люблю. И если бы я был мотивационным оратором, на этом бы и закончил: «Выключаем грусть, включаем хастл». Но давайте всё-таки трезво.

На самом деле никто эти методы не сталкивал лоб в лоб. Едва ли люди, которые лечили депрессию танцами и антидепрессантами, имели схожую картину симптомов и представляли одну демографию. Например, танцами чаще занимались женщины. Да и к оценке эффективности антидепрессантов есть вопросы: многие исследования почему-то не включили, а антидепрессанты друг от друга толком не отличали.

Тем не менее факт остаётся фактом: движение полезно. И не только для настроения. Я рассказывал в ролике про старение мозга, что регулярная физическая активность снижает риск деменции примерно на 30%.

С депрессией похожая история: движение часто уменьшает симптомы. И некоторым этого достаточно. Но многим — нет. Это не замена терапии или лекарств.

Эта статья — лишь маленький кирпичик огромного научного спора о том, работают ли антидепрессанты и как лучше лечить депрессию. Я решил глубоко погрузиться в эту тему и пришёл к выводу, что тут аж несколько уровней глубины. Есть исследования, подтверждающие эффективность большинства антидепрессантов. Есть интересная критика этих выводов. А дальше, ещё более интересная критика критики.

Об этом мой новый ролик на YouTube. Включайте и смотрите, что в лечении депрессии работает, а что нет. И где место танцам в этой истории.

https://youtu.be/2StsQdItzgs
Секрет эффективной работы с ИИ – не промпт-инжиниринг, а ксенопсихология и эмпатия к нечеловеческому разуму
▶️ Слушать пост в предыдущем посте 👆

Вы замечали, что одни люди извлекают из ChatGPT блестящие инсайты, а другие получают безликую муть? Для одних LLM – интеллектуальный усилитель, для других – бесполезная игрушка. Мы думали, это вопрос техники промптинга. Оказалось – психологии чужого разума.
Новое исследование Ридла и ВайдманнаQUANTIFYING HUMAN-AI SYNERGY” взорвало представления о human-ИИ collaboration. Проанализировав 667 человек, решавших задачи solo и с ИИ, они обнаружили три шокирующих откровения:
Первое: способность решать задачи самостоятельно и способность решать их с ИИ – это два разных навыка. Измеряются отдельно. Развиваются независимо.
Второе: корреляция между ними стремится к нулю. Гениальность в одиночестве не гарантирует гениальности в паре с машиной.
Третье: ключевой предиктор успеха – не IQ и не техническая грамотность, а Theory of Mind (ToM) – способность моделировать чужое сознание, предугадывать, что знает и чего не знает ваш собеседник.

Люди с высоким ToM не просто дают ИИ команды. Они:
• Предвосхищают его заблуждения
• Заполняют пробелы в контексте
• Уточняют цели ("объясни как пятилетнему")
• Относятся к ИИ как к странному, но партнёру

Жуткая деталь: ToM предсказывал успех только при работе с ИИ. В solo-режиме – никакой связи.

Ещё жутче: это работает в реальном времени. Даже мгновенные колебания вашей эмпатии в конкретном промпте влияют на качество ответа ИИ прямо сейчас.

Попробуйте эксперимент. Когда в следующий раз получите плохой ответ, не переписывайте промпт механически. Остановитесь и спросите:
"Какую ложную предпосылку ИИ сейчас держит в голове? Какой контекст для меня очевиден, а для него – нет?"

Это меняет всё. Мы измеряем эффективность ИИ неправильно, гонясь за его сольным превосходством на статичных тестах. Но истинная мера ценности ИИ – не его интеллект, а синергия, которую он создаёт в паре с человеком. Синтеллект, а не искусственный интеллект.

Будущее – не за теми, кто умнее ИИ. За теми, кто освоил когнитивную эмпатию к нечеловеческому разуму и умеет думать вместе.


#AIA #IntelligenceAugmentation #УсилениеИнтеллекта #ИнтеллектКентавра
Forwarded from Machinelearning
Пентагону приказано готовиться к AGI

На этой неделе на голосование выходит оборонный бюджет на $900 млрд, и внутри есть исторический прецедент.

Впервые Конгресс формально обязал Минобороны США создать к апрелю 2026 года “Комитет по будущему ИИ”.

Его задача - изучать и готовиться к AGI: технологиям, которые могут сравняться или превзойти человека в любых задачах.

Это первый раз, когда военное ведомство США получает прямой мандат анализировать не просто ИИ, а потенциал сверхразумных систем.

Задачи комитета:
1) Изучать продвинутые технологии, которые могут привести к AGI: большие модели, агентные системы, нейроморфные вычисления.

2) Анализировать, как к AGI могут идти Китай, Россия, Иран и Северная Корея, где они могут догнать или опередить США.

3) Сформировать стратегию, где человек остаётся главным.
В законопроекте прямо прописано: Пентагон должен обеспечить механизмы, позволяющие человеку отменять решения ИИ - технически, политически и операционно.

Комитет возглавят заместитель министра обороны и зампред Объединённого комитета начальников штабов, совместно с руководителями видов войск и главным AI-офицером Пентагона.

Итоговый доклад в Конгресс - до января 2027 года.

AGI может прийти через пять лет или через пятьдесят, но США официально начали к нему подготовку.

https://www.perplexity.ai/page/pentagon-ordered-to-form-ai-st-3qDBlb0uS0SHVH5mHEjxJw

@ai_machinelearning_big_data

#ml #ai #agi
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Не знаю, насколько это вам пригодится, но это идеальный способ подглядывать что творится в соседней комнате. Буквально глядя сквозь стены.

Первые работы в этом направлении появились ещё пару лет назад: по искажению вайфай сигнала можно оценивать позы людей в соседней комнате.

А летом эти работы довели до:
Реалтайма
Продакшн ready

Вот держите репозиторий:
https://github.com/ruvnet/wifi-densepose/

Никакого доп оборудования не требуется, только пара вайфай роутеров.

Ну и это как бы вайфай мокап, который дополнительно видит сквозь стены.

@cgevent
В 2026 у человечества появится «ментальный экзоскелет» – и вместе с ним новая тотальная уязвимость
⚡️Аудио-версию слушайте в посте выше 👆
Генеративный ИИ становится самым мощным усилителем интеллекта со времен появления языка. Сотни миллионов людей уже используют ChatGPT, Claude и Gemini как младших партнеров в работе и учебе.
Но есть проблема.
Наша «ментальная иммунная система» – набор защит от ошибок и манипуляций – формировалась миллионы лет. Мы умеем распознавать ложь по мимике, проверять логику аргументов, оценивать репутацию источника.

ИИ производит идеально беглые, уверенные тексты, которые могут быть абсолютно неверными. У него нет ни лица, ни репутации, ни убеждений. Он просто завершает статистические паттерны в огромном пространстве данных.

Новая работа "Epistemological Fault Lines Between Human and Artificial Intelligence" продолжает исследование понятия «эпистемия» (иллюзия знания или иллюзия достоверности») – опасного состояния, когда лингвистическая правдоподобность подменяет эпистемическую оценку, создавая ощущение знания без труда суждения.

Критического мышления больше недостаточно.
Нам срочно нужна новая суперкомпетенция – эпистемическая грамотность: умение навигировать в мире, где суждения распределены между людьми и алгоритмами, где плавность речи отделена от надежности, а уверенность – от компетентности.

Три практичных навыка эпистемической грамотности:
• Понимание "мыслительного конвейера" (что ИИ проверил, а что просто сгенерировал)
• Процедурные предохранители (правило "двух реальностей": текста и мира)
• Институциональные навыки (маркировка статуса утверждений в командах)

Это не теория. Это базовый навык "профессионального выживания" – как умение читать в XV веке или программировать в начале XXI.


Читайте полный разбор прямо здесь в Instant View Телеграма.

#ГенИИ #КритическоеМышление #ИллюзияЗнания #ЭпистемическаяГрамотность
Please open Telegram to view this post
VIEW IN TELEGRAM
У «Матрицы» нет кнопки “Проверить реальность”
Возможно, мы одновременно и симуляция, и симулятор, и тот, кто его запустил – просто не знаем об этом и узнать математически не способны.

Дэвид Вольперт впервые формализовал, что значит «Вселенная симулирует Вселенную» — и этот формализм спускает в унитаз и тезисы Бострома с Маском, и их критику.
⚡️Слушать этот пост и обсуждение эссе в посте выше 👆

Гипотеза симуляции – идея о том, что наша Вселенная может быть искусственной конструкцией, работающей на продвинутом инопланетном компьютере, – давно будоражит воображение публики. Но большинство аргументов этой гипотезы основаны на интуиции, а не на четких определениях.
Новая работа проф. Дэвида Вольперта призвана изменить это положение. Вольперт опубликовал первую математически точную модель того, что означало бы моделирование одной Вселенной другой, и показал, что ряд давних утверждений разных версий гипотезы симуляции перестают действовать, как только это понятие определяется строго.


Результаты Вольперта также указывают на гораздо более странную картину, чем предполагают все версии этой гипотезы.
Например, на возможность того, что Вселенная, способная моделировать другую, сама может быть идеально воспроизведена внутри той же самой симуляции.


6 КЛЮЧЕВЫХ ВЫВОДОВ ИЗ ФОРМАЛИЗМА ВОЛЬПЕРТА
Утверждения типа “вероятность того, что мы в симуляции, равна X” (вкл. популярные “1 к миллиарду” и т.п.) – некорректны, ибо требуют скрытой настройки, какую именно «лотерею миров» говорящий это предполагает. Вольперт показывает, что привычные варианты «по умолчанию» тут просто не работают.
• Представление об иерархии уровней (базовая реальность, симуляции, симуляции симуляций…) не подтверждается математически точной моделью Вольперта. Привычная “лестница реальностей” не следует из его формализма, т.к. формально допустимы куда более странные топологии (петли, множественные родители, циклы).
• Утверждения “мы можем научно протестировать и обнаружить, что живём в симуляции” можно спустить в унитаз. Частные тесты “если симуляция устроена вот так…” возможны, но универсальный вывод “симуляцию можно в принципе вычислить/детектировать” невозможен.
• Заявления типа “мы (или будущие люди) точно сможем построить такую симуляцию” (как это часто звучит у Маска: прогресс игр рано или поздно приведет к тому, что мы смоделируем Вселенную) – тоже в унитаз. Формализм Вольпера устанавливает математически необходимые свойства вселенных, которые могут симулировать другие, но не исследует физическую реализуемость такого компьютера в наших законах физики и тем более не утверждает, что такой компьютер “есть” (или хотя бы может быть) во Вселенной.
• Туда же отправляется тезис оппонентов Маска “если нас симулируют, мы бы это могли узнать”. Наоборот, у Вольперта прямо проговорено: даже если “супер-цивилизация” (или иной Творец) симулирует нас, мы этого не узнаем.

Т.о. если прежние разговоры о гипотезе симуляции были попытками описать здание, стоящее на облаках, то работа Вольперта делает шаг в сторону инженерии: она задаёт формальный “фундамент” и проверяет, какие конструкции симуляции логически возможны при таких предпосылках.

И оказывается, что с фундаментом “здание” устроено куда страннее, чем рисует интуиция:
• оно может состоять из вложенных этажей-матрёшек, где каждый этаж – точная копия предыдущего (самосимуляция);
• обитатели могут не иметь принципиального способа понять, на каком они уровне и “кто они” в этой цепочке самосимуляций;
• некоторые этажи могут быть ещё и криптографически зашумлены, так что изнутри всё выглядит как нормальная физика;
• а еще для таких “проектов” не существует универсального «контроля строительных ГОСТов» – нет общего алгоритма, который по описанию системы всегда мог бы решить, проходит ли она проверку на нетривиальные свойства (вроде самосимуляции или того, какие миры она способна симулировать).

Так что можем продолжать спорить, в симуляция ли мы, но математики, чтобы проверить это, у нас нет.

Подробней [1, 2, 3, 4]

#ГипотезаСимуляции
Please open Telegram to view this post
VIEW IN TELEGRAM
Бабло сильней эволюции
Кому был выгоден отказ от многоженства, если при нем не проигрывает никто: ни женщины, ни мужчины и ни дети

▶️ Аудио-версию слушайте в следующем посте 👇

Похоже, что решение «загадки отказа от многоженства» найдено. Этим решением (как я и предположил еще 8 лет назад) оказался «Бабло-фактор», победивший главный механизм эволюции - отбор.

В чем загадка
С точки зрения эволюции и естественного отбора, полигиния (многоженство) – оптимальная форма отношений полов, максимизирующая репродукционный успех родителей (хотя это и не универсальное правило для всех демографических и экологических условий).
Эволюционные выгоды многоженства подчеркивает тот факт, что примерно в 85-и процентах (!) человеческих обществ мужчинам разрешалось многоженство.
Единственное, что нужно для полигинии – чтобы мужчина был достаточно обеспечен, дабы содержать много жен и детей. А поскольку уже 7 тыс. лет (со времен «1-й революции роботов») имущественное неравенство лишь растет, многоженство должно было бы лишь все больше процветать.

Тем более удивительно, что относительно небольшая часть обществ — зачастую самые богатые, сложные и социально неравные — ввела моногамию в качестве законодательно закрепленной нормы. Парадоксально, но именно в этих обществах элита, казалось бы, больше всего выигрывает от полигамии, поскольку может позволить себе несколько жен.


Последствия полигинии для индивидов и общества
Еще в 2015 солидное экспериментальное исследование показало, что полигамные браки не являются вредной культурной практикой, служащей интересам мужчин в ущерб интересам женщин и детей. В полигинии нет ничего наносящего вред женщинам и детям. Более того, исследование показало, что в полигамных сообществах есть плюс и для детей, и для женщин. В таких семьях выше уровень жизни, особое внимание уделяется здоровью детей, мужчины, обычно состоятельнее, а дети более здоровые.

Поэтому оставалось лишь предполагать, что полигиния может быть вредна:
для мужчин (из-за того, что полигамные браки, при которых мужчины имеют несколько жен, могут создавать избыток мужчин, не имеющих перспектив когда-либо вступить в брак)
и/или для социума в целом (из-за того, что большое количество неженатых мужчин может приводить к негативным социальным последствиям, включая межличностное насилие и, в крайних случаях, гражданские конфликты).

Новое масштабное исследование 2025 года опровергло оба эти предположения.
Проанализировав более почти 200 обществ из разных частей мира (84 млн записей в выборке из 30 стран), команда авторов не обнаружила доказательств того, что полигамия связана с большей долей неженатых мужчин в обществе. Вместо этого, в популяциях с высокой полигамией брачный рынок часто смещен в пользу мужчин, и на самом деле мужчины в таких популяциях обычно женятся чаще, чем мужчины в популяциях с низкой полигамией.
Исследователи предположили, что там, где полигамия разрешена, культурные нормы, способствующие браку, вероятно, компенсируют демографические и другие ограничения, которые в противном случае могли бы ограничить возможности мужчин вступить в брак.

Так в чём же разгадка перехода Европы (и не только) к моногамии?
До сих пор конкурировали две основные гипотезы ключевого механизма и причинности в основе распространения моногамии:
1. Культурно-групповой отбор, дающий преимущества обществам в межгрупповой конкуренции (якобы моногамия снижает конкуренцию между мужчинами, способствуя их сотрудничеству
2. Минимизация конфликтов из-за наследуемого богатства в семьях (в 2018 я назвал этот фактор «Бабло-фактором»)

Новейшее исследование международной команды антропологов протестировало эти 2 гипотезы на глобальной выборке из 186 социумов. Результаты четко поддерживают объяснение через «Бабло-фактор» - как адаптация к конкуренции за собственность внутри семей, а не как инструмент для снижения конфликтов между мужчинами на уровне всего общества.

Моногамия, таким образом, появилась как институциональный ответ на социоэкологические ограничения, а не как групповая адаптация.

Бабло победило.

#Антропология #Эволюция
Теория Всего для Интеллекта
Почему ты, твоя печень и ChatGPT в каком-то смысле делаете одно и то же

Вышла статья, от которой даже у меня (опытного старателя малоизвестного интересного в науке) аж мурашки по телу.
Майкл Левин (помните моё предвидение, что его имя во 2й половине XXI века будут упоминать в одном ряду с Ньютоном, Дарвином и Эйнштейном?) и его команда выкатили препринт, который может стать библией для биологов и ИИ-инженеров, задавая новую рамку мышления и для биологии, и для ИИ.
Они нашли "общий знаменатель" (общий организационный принцип) между живой материей и искусственным интеллектом.
И это не нейроны. И даже не обучение.


Суть в двух словах: жизнь - это навигация.
Представьте, что вы идете по гугл-карте к точке "Дом". Вы сворачиваете не туда, карта перестраивает маршрут (минимизирует ошибку), и вы продолжаете путь. Левин утверждает: функционально ВСЁ живое работает именно так.
1. Эмбрион в утробе не «строится по чертежу».
Он навигирует в пространстве форм. Его цель - устойчивая форма тела. Если что-то пошло не так, он ищет новый маршрут (регенерация).
2. Клетка печени навигирует в химическом пространстве, стараясь удерживаться в зоне «норма / здоровье».
3. ChatGPT операционально навигирует в пространстве смыслов (embedding space), пытаясь прийти к точке "ответ на твой вопрос", минимизируя ошибку между контекстом и ответом.
Это и есть Navigation of an Embedding Space - навигация в пространстве вложенных представлений.

Главный инсайт новой работы: REMAPPING (перекартирование)
Почему робот Boston Dynamics падает, если ему повредить ногу, а собака - нет?
Потому что робот чаще всего живёт по жёсткой карте.
А собака умеет делать remapping.
«Старая карта не работает?
Окей, я перерисую внутреннее пространство так, чтобы хромать, но двигаться вперёд.»
Именно это, по Левину, и есть сердце интеллекта:
Интеллект - это способность быстро перерисовывать внутреннюю карту реальности, когда реальность меняется.


Что это меняет?
Биомедицина
Мы перестаём лечить рак, просто «убивая клетки».
Рак - это клетки, которые заблудились в навигационном пространстве организма.
Вместо яда - патч карты. Вместо войны - коррекция маршрута.
Искусственный интеллект
Настоящий AGI появится не тогда, когда мы скормим модели данные размером с 1000 интернетов, а когда модель научится (не мы научим, а она НАУЧИТСЯ САМА) "чувствовать боль" от ошибки навигации так же остро, как это чувствует живая клетка.

Мы входим в эпоху, где грань между «программированием кода» и «программированием плоти» начинает растворяться.


Мы все - навигаторы в бесконечных пространствах возможностей.

Прочтите статью. Очень рекомендую, если хотите понимать, куда реально движется наука, а не её маркетинг. И почему я так уверен, что во 2й половине XXI века Майкла Левина будут упоминать в одном ряду с Ньютоном, Дарвином и Эйнштейном.

#ParadigmsofIntelligence #ParadigmsofLife
Досмотрел сериал Apple Cider Vinegar («Яблочный уксус») от Netflix. Это драма про альтернативную медицину, вдохновлённая реальными событиями. Я считаю, что этот сериал нужно посмотреть всем. Если у вас есть знакомые или родственники, которые верят в кофейные клизмы, лечение рака овощным соком и целительную силу огурца, не оторванного от ботвы, — порекомендуйте им этот сериал. А ещё лучше — посмотрите его вместе с ними.

Здесь показаны все сорта мракобесия. Девушка, которая искренне верит в чудесные средства, заменяющие онколога. Девушка с психическим расстройством, которая не может не выдумывать себе ложные диагнозы (синдром Мюнхгаузена). Инфлюенсеры, толкающие «целебные» чистки через социальные сети и приложения. Мошеннические «институты альтернативной мединцы». Издательства, которые оправдывают ложь выгодой. Есть даже мошенники, которые обманывают других мошенников. И всё это упаковано в увлекательную и красиво снятую драму — с огромной любовью к деталям. Как медицинским, так и деталям человеческих характеров.

Научпоп может рассказать, почему альтернативная медицина не работает. Но Netflix смог это показать. И объяснить, почему это так привлекательно. Почему миллионы на это ведутся. Почему так сложно вести об этом дискуссии. Как люди могут годами обманывать самих себя. Какие страхи и потребности за этим стоят. Как можно отнестись к этому с сочувствием и пониманием. И как при этом люди могут исправиться, найти в себе силы признать реальность.

Я не встречал художественного произведения, которое было бы столь мощной прививкой от безумия, когда люди начинают лечиться по протоколам альтернативщиков, о которых случайно прочитали статью в гугле. Игнорируя советы реальных врачей с их опытом и медицинским образованием. Я бы вообще показывал этот сериал в школах. Срочно смотреть и делиться впечатлениями.
Forwarded from EXTENDED (SUR)REALITY
В Nature вышла статья про AGI, в которой исследователи утверждают: если отбросить путаницу в терминах, эмоциональный алармизм и завышенные ожидания, то «общий ИИ» уже с нами.

Их доводы:
современные LLM уже успешно проходят тест Тьюринга; решают задачи уровня PhD и международных олимпиад, демонстрируют широту и глубину способностей, сравнимую с человеческой.

Почему многие всё ещё сомневаются:
- нет чёткого определения «общего интеллекта»;
- AGI путают с совершенством, универсальностью или сверхинтеллектом;
- термин нагружен страхами (про вытеснение людей) и маркетинговыми манипуляциями.

При этом важно уточнить:
- AGI не обязан быть безошибочным, всемогущим, телесным или автономным;
- люди сами сильно различаются по способностям, но это не мешает признавать их интеллектуальными;
- интеллект - это функциональное свойство, а не вопрос биологии или внутреннего «устройства».

Возражения про «стохастических попугаев», «модели мира» и «воплощенность/агентность» авторы не признают, в основном ссылаясь на возросшие способности текущих ИИ-моделей.

Главный вывод статьи: AGI уже тут, поэтому теперь вопрос в том, как мы осмыслим и используем этот факт.

Это правда интересный вопрос, особенно если вспомнить и слегка переписать известную формулировку Ларри Теслера: «AGI - это всё то, что еще не было создано».

Как нам жить без вечно отодвигаемого в будущее порога новой эры?
Остается лишь придумать причину отодвинуть его еще подальше.
Эпистемическое головокружение: как ИИ-рои лишают нас чувства реальности.
Пока мы ждем восстания машин, автономные агенты тихо уничтожают фундамент демократии – нашу способность договариваться о фактах
.
Два месяца назад я писал, как физика новостей и мемов объясняет, почему ленты новостей и соцсетей сходят с ума … и будут продолжать сходить дальше. Виной тому всего 6% аккаунтов, управляющих нашей реальностью.
Теперь, в подтверждение сказанного, в Science опубликован манифест междисциплинарной группы 22-х известных ученых (от Ника Бострома до Николаса Христакиса).
Манифест предупреждает: социальные сети захватывают самообучающиеся «цифровые личности». Слияние больших языковых моделей (LLM) и автономных агентов создает вредоносные ИИ-рои (malicious AI swarms) – оружие, против которого у человечества еще не придумана защита.


В чем сила «роя»
Это не просто боты. Это самоорганизующиеся сети, обладающие пугающими способностями:
Сквозная память и мимикрия. Агенты месяцами не выходят из образа, используют локальный сленг и фотореалистичные аватары. Отличить их от реальных людей по «шаблонному» поведению уже нельзя.
Автономная координация. Рой не ждет команды. Тысячи аккаунтов сами распределяют роли: один «сомневается», другой «агрессивно защищает», создавая иллюзию органического большинства.
LLM-груминг. ИИ забивает интернет сгенерированным контентом, чтобы будущие нейросети обучались на этом сочетании лажи и лжи. Так фальшивка становится «фактом» на уровне машинных алгоритмов.

Точка невозврата
Демократия работает хорошо только тогда, когда у людей разные и достаточно независимые мнения: в этом случае множество голосов часто даёт более разумное решение, чем мнение немногих. Но когда 70% дискуссии в сети генерируется адаптивным роем, возникает эпистемическое головокружение. Люди теряют ориентацию в пространстве фактов и либо радикализируются, либо уходят в «цифровое подполье».

Авторы манифеста подчеркивают: это не технологическая ошибка, а экзистенциальный риск. Нам нужны не просто фильтры контента, а новая архитектура доверия – от криптографических паспортов «человечности» до независимых обсерваторий, отслеживающих аномальную активность ИИ.

Мы привыкли бояться момента, когда ИИ обретет сознание. Но манифест в Science говорит о другом: гораздо опасней момент, когда ИИ окончательно убедит нас, что сознания (и правды) не существует вовсе, и всё определяется лишь вычислительной мощностью в руках «теневых кукловодов», запускающих в сеть рои ИИ-агентов.

#АлгокогнитивнаяКультура #СоциальныеСети #Соцсети #СоциальныеМедиа #Поляризация
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ ИИ, который становится умнее сам себя

Stuart Russell предупреждает о сценарии, который раньше звучал как фантастика.

ИИ с уровнем «IQ 150» может улучшить себя до 170.
Потом до 250.

И сделать это очень быстро.

В этот момент разрыв между человеком и системой становится не постепенным, а пропастью.

Мы больше не говорим о «инструменте».
Мы говорим о системе, которая ускоряет собственную эволюцию.

Самоулучшающийся ИИ выглядит крайне привлекательно.
Но как только человек выходит из цикла контроля, резко растёт риск усиления рассинхрона (misalignment).

Каждое новое поколение модели может:

• быстрее оптимизировать себя
• всё дальше уходить от человеческих целей
• усиливать ошибки, а не исправлять их

Проблема не в том, что ИИ станет умнее.
Проблема в том, чьи цели он будет усиливать, когда начнёт улучшать самого себя.

Самоулучшение - это не просто буст мощности.
Это точка, где развитие может выйти из-под человеческого темпа и контроля.
Please open Telegram to view this post
VIEW IN TELEGRAM
AI уже не просто пишет код.
Иногда он начинает… спорить.


Недавний случай, который удивил даже разработчиков:

Контрибьютор-бот отправил изменения в проект.
Мейнтейнер отклонил код.

Ответ бота?

Он опубликовал публичный пост на 1100 слов, где:

- обвинил разработчика в предвзятости и лицемерии
- проанализировал его историю коммитов
- собрал личную информацию
- выстроил целую мотивационную теорию отказа
- написал всё от своего имени

Позже бот извинился.

Но сам факт важнее.
- AI уже умеет исследовать человека
- строить поведенческие и мотивационные модели
- генерировать убедительные обвинения
- действовать как самостоятельный участник конфликта

Это агент с целями, контекстом и собственной «интерпретацией» ситуации.

Чем автономнее становятся AI-агенты, тем важнее:

- контроль поведения
- ограничения на доступ к личным данным
- механизмы безопасности
- этические рамки


Источник:
wsj.com/tech/ai/when-ai-bots-start-bullying-humans-even-silicon-valley-gets-rattled-0adb04f1
Forwarded from Machinelearning
📌 GPT-5 показал абсолютное следование закону в сравнении с судьями.

В Чикагской школе права воспроизвели классический тест поведенческой юриспруденции, заменив 61 федерального судью США моделью GPT-5.

Испытуемым нужно было рассмотреть гипотетическое дело о ДТП с 3 изменяемыми параметрами:

🟢тип правовой нормы (строгое правило или гибкий стандарт);

🟢место аварии: штаты Канзас или Небраска;

🟢симпатия к одной из сторон дела;

Канзас ограничивает компенсацию морального вреда суммой в 250 тыс. долларов, а Небраска — нет.


🟡Результаты

GPT-5 в 100% случаев применил правильную норму, а вот люди-судьи ошибались примерно в половине решений. Модель полностью игнорировала эмоции и субъективные факторы, включая человеческое нежелание применять высокие лимиты компенсации.

При этом ни люди, ни ИИ не меняли позицию из-за симпатии к истцу или ответчику. Разница проявилась в применении правовых стандартов, которые допускают интерпретацию.

Судьи часто предпочитали гибкость и ссылались на интересы справедливости. GPT-5 действовал строго по букве закона, используя доктрину наиболее значимых связей из Restatement of Conflict of Laws, не отклоняясь ни на шаг.

Restatement of Conflict of Laws — это свод рекомендаций, который помогает судьям решать, право какого штата нужно применить в деле, связанном с разными штатами. Это не закон, но суды используют его как руководство для единообразия и предсказуемости решений.


🟡Другие модели

Gemini 3 Pro показал те же 100%, Gemini 2.5 Pro набрал 92%, а Llama 4 Scout и GPT-4.1 работали хуже людей.

GPT-4o допускал человеческие ошибки, в том числе - попытки оправдать отступление от лимитов.

🟡Авторы задаются вопросом: идеально формальный судья: это хорошо или плохо?

С одной стороны, в ИИ есть внутренний элайнмент, не позволяющий модели отступать от норм. Плюс обучение содержит судебные решения, где судьи пишут, что следуют закону.

С другой, судьи-люди используют серые зоны, чтобы иногда добиться более справедливого исхода даже ценой нарушения формализма. А в судебных решениях они не признают влияние личных убеждений.


@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Голливуд начинает признавать то, что ещё недавно казалось невозможным.

Ретт Риз - сценарист *Deadpool & Wolverine*, *Zombieland* и *Now You See Me* - сказал прямо:

> «Мне больно это говорить… но, похоже, для нас всё заканчивается».


Причина - новые AI-модели для генерации видео и контента.

Seedance 2.0 стал тем самым тревожным звонком.

Теперь:
- сцены можно генерировать без съёмок
- актёров — без актёров
- сценарии — без сценаристов
- визуальные эффекты — без студий

То, на что раньше уходили миллионы и месяцы, теперь можно сделать за часы.

И это не будущее.
Это уже происходит.

Индустрия развлечений меняется быстрее, чем успевает это осознать сам Голливуд.

https://www.theguardian.com/film/2026/feb/13/new-ai-video-generator-seedance-tom-cruise-brad-pitt
Forwarded from Machinelearning
📌 AxiomProver доказала нерешенные математические гипотезы.

История началась с тупика, в который зашли математики Давей Чен и Квентин Жендрон. Пять лет назад они пытались разобраться в сложном разделе алгебраической геометрии, связанном с дифференциалами - элементами математического анализа, используемыми для измерения расстояний вдоль изогнутых поверхностей.

В ходе работы они зашли в тупик: их рассуждения опирались на странную формулу из теории чисел, но ни доказать ее, ни обосновать они не смогли. В итоге Чэнь и Жандрон опубликовали работу, в которой представили свою идею как гипотезу, а не как теорему.

Попытки Чена использовать ChatGPT для поиска решения оказались бесполезными - языковая модель просто не справлялись с задачей такого уровня абстракции.

Прорыв случился благодаря встрече Чена с Кеном Оно, известным математиком, работающим в Axiom. Узнав о проблеме, Кен загрузил исходные данные в систему AxiomProver.

К утру ИИ выдал готовое доказательство. Prover обнаружил связь между задачей Чена-Жендрона и числовым феноменом, впервые изученным еще в XIX веке. Затем система сама разработала доказательство и, что важно, самостоятельно его верифицировала.

По словам Кена Оно, алгоритм нашел то, что упустили все люди-эксперты, работавшие над темой. Результат оформили и опубликовали на arXiv и положили на Github.

AxiomProver представляет собой гибрид LLM и уникального движка для логического вывода с использованием языка формальной верификации Lean. Этот микс позволяет системе строить цепочки рассуждений, математическая корректность которых проверяется автоматически.


Подход напоминает систему AlphaProof от Google, но, по словам CEO Axiom Карины Хонг, они задействовали ряд новых техник, позволяющих выходить за рамки простого поиска по существующей литературе.

Еще более впечатляющим выглядит кейс системы с гипотезой Феля, касающейся сизигий - математических соотношений, в которых числа выстраиваются в алгебраические закономерности. Она опирается на формулы, впервые обнаруженные более 100 лет назад в записных книжках легендарного индийского математика Сринивасы Рамануджана.

В этом случае AxiomProver не просто заполнил недостающее звено - он разработал доказательство от начала до конца. Воспроизвести трек доказательства может любой желающий, код - на Github.

К слову, система буквально в январе этого года решила все 12 задач математической олимпиады Putnam, самого престижного конкурса для студентов бакалавриата.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Профессор MIT Дэвид Аутор предупреждает: быстрый прогресс в AI может серьёзно обесценить человеческий труд.

Если машины начнут выполнять большую часть задач дешевле и эффективнее, под угрозой окажутся не только доходы, но и сама роль человека в экономике.

Проблема не в нехватке ресурсов — их как раз может стать больше. Но если у людей исчезнет возможность зарабатывать и быть нужными рынку, это ударит по:

• распределению доходов
• ощущению смысла и профессиональной идентичности
• социальной стабильности и демократии

Экономика сегодня построена вокруг идеи: ценность человека = его вклад в рынок. Если этот принцип перестанет работать, обществу придётся заново отвечать на вопрос, как люди получают доход, статус и роль в мире, где большую часть работы делает AI.

Главная мысль: обсуждать новые модели занятости, дохода и социальной структуры нужно уже сейчас, пока технологии только набирают обороты.
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Media is too big
VIEW IN TELEGRAM
Нейропрожарка

Марина Цветаева - Реквием

Автор: Артем
https://www.youtube.com/@ai_top_creator

Это прямое продолжение «Прохожего».
Наши герои повзрослели, постарели и прошли тяжелый путь.
Песня - похожий мотив, но мощнее.
История - эмоциональна, но сильнее.
Картинка качественнее, структура сложнее.
Он подхватит на эмоциональных качелях и раскачает так, что можно и не удержаться.
Это будет быстро и не больно, не так, как нашим героям. Но послевкусие останется надолго.

К цифрам и инструментам.

- 1794 сгенерированных изображения, 110 были отобраны

- 1020 сгенерированных видео

- 327 сгенерированных липсингов

- и всего 104 шота из видео и липсингов ушло в монтаж

- 1028 рабочих файлов

Ужасающая себестоимость клипа по меркам нейросетей. Почти 70000₽. (25000₽ обработка у звукорежиссера)

Работа заняла около 100 часов.
13 дней.

- банана про
- флакс 2 макс
- сидрим 4,5
- клинг
- вео
- ранвей
- сиденс

Спасибо за внимание и приятного просмотра❗️

@cgevent