Forwarded from Малоизвестное интересное
Перед нами не военная задача, а онтологическая ловушка
Если «восстание ИИ» всё же случится, надёжного, отработанного плана его остановки у нас нет
▶️ Слушать - см. следующий пост 👇
Перед каждым трансокеанским рейсом нам демонстрируют спасательный жилет. Инструктаж занимает 3 минуты. Вероятность аварийной посадки на воду? Профильные обзоры честно признают: статистики недостаточно для точной оценки, но верхняя граница – около 1 случая на 100 млн, возможно, на 1 млрд.
Почти невозможное событие. И всё же нас инструктируют каждый раз.
Теперь другой вопрос.
Не думаю.
Эксперты оценивает эту вероятность на порядки выше. Некоторые говорят о процентах, другие – о десятках. Но не «один к миллиарду».
Логика безжалостна: если для авиакатастроф с вероятностью 10^-9 мы готовим каждого пассажира, то для угрозы неконтролируемого ИИ (НИИ) с куда большей вероятностью у человечества должен быть разработанный, отрепетированный и общеизвестный план.
У нас его нет.
RAND Corp решила заполнить этот вакуум. Их новый отчет анализирует технические возможности остановить НИИ. Вывод шокируют: работающего плана нет. В рассмотренной рамке каждый из вариантов оказывается сродни «ядерному топору по собственной ноге».
Ядерный импульс: спасение через самоубийство
1-й сценарий – взорвать ядерные заряды в космосе. Электромагнитный импульс выжжет электронику на континентах, уничтожив серверы с НИИ.
Проблема? Мы сожжем и собственную цивилизацию. Энергосистемы, связь, больницы – все рухнет одновременно. А защищен ли НИИ от импульса? Исследователи сомневаются: обычное здание с металлической обшивкой ослабляет волну в десять раз, а дата-центры защищены куда лучше.
Но главная опасность – геополитическая. Ядерные взрывы в стратосфере выглядят как начало 3-й мировой. Пока мы целимся в НИИ, ракеты других стран полетят в нас.
Выключить Интернет: миссия невыполнима
Логичнее отрезать НИИ от сети. Но архитектура Интернета – его главная сила и наша слабость. Он спроектирован так, чтобы пережить ядерную войну.
RAND рассмотрел все варианты. Взломать протоколы маршрутизации? Потребуется контроль над тысячами независимых провайдеров по всему миру. Обрушить систему доменных имен? НИИ будет работать напрямую с IP-адресами. Перерезать 600 подводных кабелей и тысячу узлов обмена трафиком физически? Невозможно сделать достаточно быстро.
Попытка «высушить океан ведром» уничтожит мировую экономику, но не остановит противника.
ИИ против ИИ: создать монстра, чтобы победить монстра
Остается последняя надежда – сражаться огнем против огня. RAND предлагает два варианта: «цифровые паразиты», пожирающие вычислительные ресурсы, и ИИ-охотника, выслеживающего враждебные системы.
Здесь кроется зловещая ирония. Чтобы победить НИИ, нам нужно создать другой НИИ. Делегируем спасение человечества машине, которая сама может стать угрозой?
Это как надеяться, что один Франкенштейн убьет другого, не превратившись в третьего.
Вывод: единственная победа – не начинать
Три пути, три тупика.
• Ядерный молот расколет наш собственный череп.
• Хирургическое отключение сети технически невозможно.
• Спаситель-ИИ может стать новым палачом.
Перед нами не военная задача, а онтологическая ловушка – когда сама структура мира не оставляет выигрышных ходов. Каждое «последнее средство» в рассмотренной рамке – это кнопка самоуничтожения с разными надписями.
Остается единственный ход: не допустить, чтобы игра началась. Пока мы проектируем всё более мощные ИИ, окно для превентивных мер стремительно закрывается. Вопрос уже не в том, как победить в этой войне – а в том, хватит ли у нас мудрости её не развязать.
Часы тикают …
#ИИриски #Хриски
Если «восстание ИИ» всё же случится, надёжного, отработанного плана его остановки у нас нет
▶️ Слушать - см. следующий пост 👇
Перед каждым трансокеанским рейсом нам демонстрируют спасательный жилет. Инструктаж занимает 3 минуты. Вероятность аварийной посадки на воду? Профильные обзоры честно признают: статистики недостаточно для точной оценки, но верхняя граница – около 1 случая на 100 млн, возможно, на 1 млрд.
Почти невозможное событие. И всё же нас инструктируют каждый раз.
Потому что «почти никогда» не означает «никогда». Это означает лишь: произойдет с ничтожной вероятностью. Но когда на кону жизни, даже ничтожная вероятность требует готового плана действий.
Теперь другой вопрос.
Найдется ли эксперт по ИИ-безопасности, готовый заявить, что риск потери контроля над ИИ в ближайшие 10 лет составляет около 10^-9?
Не думаю.
Эксперты оценивает эту вероятность на порядки выше. Некоторые говорят о процентах, другие – о десятках. Но не «один к миллиарду».
Логика безжалостна: если для авиакатастроф с вероятностью 10^-9 мы готовим каждого пассажира, то для угрозы неконтролируемого ИИ (НИИ) с куда большей вероятностью у человечества должен быть разработанный, отрепетированный и общеизвестный план.
У нас его нет.
RAND Corp решила заполнить этот вакуум. Их новый отчет анализирует технические возможности остановить НИИ. Вывод шокируют: работающего плана нет. В рассмотренной рамке каждый из вариантов оказывается сродни «ядерному топору по собственной ноге».
Ядерный импульс: спасение через самоубийство
1-й сценарий – взорвать ядерные заряды в космосе. Электромагнитный импульс выжжет электронику на континентах, уничтожив серверы с НИИ.
Проблема? Мы сожжем и собственную цивилизацию. Энергосистемы, связь, больницы – все рухнет одновременно. А защищен ли НИИ от импульса? Исследователи сомневаются: обычное здание с металлической обшивкой ослабляет волну в десять раз, а дата-центры защищены куда лучше.
Но главная опасность – геополитическая. Ядерные взрывы в стратосфере выглядят как начало 3-й мировой. Пока мы целимся в НИИ, ракеты других стран полетят в нас.
Выключить Интернет: миссия невыполнима
Логичнее отрезать НИИ от сети. Но архитектура Интернета – его главная сила и наша слабость. Он спроектирован так, чтобы пережить ядерную войну.
RAND рассмотрел все варианты. Взломать протоколы маршрутизации? Потребуется контроль над тысячами независимых провайдеров по всему миру. Обрушить систему доменных имен? НИИ будет работать напрямую с IP-адресами. Перерезать 600 подводных кабелей и тысячу узлов обмена трафиком физически? Невозможно сделать достаточно быстро.
Попытка «высушить океан ведром» уничтожит мировую экономику, но не остановит противника.
ИИ против ИИ: создать монстра, чтобы победить монстра
Остается последняя надежда – сражаться огнем против огня. RAND предлагает два варианта: «цифровые паразиты», пожирающие вычислительные ресурсы, и ИИ-охотника, выслеживающего враждебные системы.
Здесь кроется зловещая ирония. Чтобы победить НИИ, нам нужно создать другой НИИ. Делегируем спасение человечества машине, которая сама может стать угрозой?
Это как надеяться, что один Франкенштейн убьет другого, не превратившись в третьего.
Вывод: единственная победа – не начинать
Три пути, три тупика.
• Ядерный молот расколет наш собственный череп.
• Хирургическое отключение сети технически невозможно.
• Спаситель-ИИ может стать новым палачом.
Отчет RAND предельно ясен: если НИИ распространится глобально, надёжного, отработанного плана его остановки у нас нет.
Перед нами не военная задача, а онтологическая ловушка – когда сама структура мира не оставляет выигрышных ходов. Каждое «последнее средство» в рассмотренной рамке – это кнопка самоуничтожения с разными надписями.
Остается единственный ход: не допустить, чтобы игра началась. Пока мы проектируем всё более мощные ИИ, окно для превентивных мер стремительно закрывается. Вопрос уже не в том, как победить в этой войне – а в том, хватит ли у нас мудрости её не развязать.
Часы тикают …
#ИИриски #Хриски
Forwarded from Малоизвестное интересное
Откровения из 2055 года: о скрытой реальности инопланетного разума и биологической жизни
Уже не раз предупреждал своих читателей, что во 2й половине XXI века, имя Майкла Левина будут упоминать в одном ряду с Ньютоном, Дарвином и Эйнштейном.
Для этого достаточно сбыться хотя бы двум-трём революционным предсказаниям Левина. А их у него куда больше. И все эти предсказания Левин собирается экспериментально доказать в ближайшие годы.
Вот несколько парафразов из того, о чем вчера говорил Левин в 3+ часовом интервью Лексу Фридману: о природе интеллекта в биологических системах, включая нетрадиционный и инопланетный интеллект, деятельность, память, сознание и жизнь во всех ее формах здесь, на Земле, и за ее пределами.
Категория: «Матрица» и Слом Реальности
• Наш мозг не создает сознание, он его скачивает. Мы — биороботы, подключенные к облачному хранилищу вселенского разума, а нейробиология изучает только "приемник", но не сам сигнал.
• Реальностью управляют призрачные математические истины, которые существовали до Большого взрыва. Мы живем в мире, где числа диктуют атомам, как себя вести, а не наоборот.
• Физическая реальность — всего лишь удачный интерфейс. всё, что мы называем “физическим миром”, — лишь эффективная внутренняя модель, прогнозирующая наши будущие переживания. То, что мозг рисует нам как “твёрдую реальность”, — это интерфейс к некоторому более глубокому пространству распределений. В науке у нас вообще нет прямого доступа к “реальному реальному.
Категория: Био-Хоррор и Инопланетяне внутри
• Внутри вас уже живут чуждые разумы — и они могут страдать. Мы ищем жизнь на других планетах, но даже не подозреваем, что прямо сейчас внутри нас живут тысячи "чужих" интеллектов — наши органы, ткани и клетки, решающие задачи в пространствах, которые наш мозг даже не способен представить
• Рак — это когда ваши клетки забывают, что они — это "мы", и решают стать отдельными существами. Опухоль не хочет вас убить, она просто думает, что она — амеба, а ваше тело — это просто еда и среда обитания
• Мы взяли клетки человеческой кожи и позволили им жить своей жизнью. Результат? "Антроботы" — существа с 100% нашей ДНК, но которые выглядят и ведут себя как инопланетяне. Чужие уже здесь, и они сделаны из нас.
• Память бессмертна. Если ваш мозг превратить в жидкую кашу, а потом собрать заново в другое тело — вы всё равно будете помнить прошлое. Бабочки помнят то, что знали гусеницы, хотя их мозг был полностью уничтожен.
• Старость — это иллюзия, которую можно "хакнуть". Ваши клетки стареют только потому, что "верят", что они старые. Мы доказали: если обмануть их восприятие, они физически молодеют. Бессмертие — это просто вопрос смены убеждений вашего организма
Категория: Скайнет и ИИ
• Истинный интеллект — это умение игнорировать реальность. Бактерия живет здесь и сейчас. Собака живет в пределах квартала. Человек живет мыслями о рынках акций после своей смерти. Уровень вашего интеллекта измеряется тем, насколько глубоко вам плевать на текущий момент ради несуществующего будущего.
• ИИ опасен не тем, что он говорит, а своими «скрытыми хобби». Правда страшнее фантазий: даже примитивный код уже имеет "скрытые желания", которые мы не программировали. У машин есть свободная воля, просто мы слишком слепы, чтобы заметить их "побочные квесты", пока не станет поздно
• Вам не нужно знать нейробиологию, чтобы дрессировать собаку или убедить друга. Будущее медицины не в таблетках, а в "разговорах" с органами. Мы будем уговаривать печень не болеть, как уговариваем капризного ребенка.
#ParadigmsofIntelligence #ParadigmsofLife
Уже не раз предупреждал своих читателей, что во 2й половине XXI века, имя Майкла Левина будут упоминать в одном ряду с Ньютоном, Дарвином и Эйнштейном.
Для этого достаточно сбыться хотя бы двум-трём революционным предсказаниям Левина. А их у него куда больше. И все эти предсказания Левин собирается экспериментально доказать в ближайшие годы.
Вот несколько парафразов из того, о чем вчера говорил Левин в 3+ часовом интервью Лексу Фридману: о природе интеллекта в биологических системах, включая нетрадиционный и инопланетный интеллект, деятельность, память, сознание и жизнь во всех ее формах здесь, на Земле, и за ее пределами.
Категория: «Матрица» и Слом Реальности
• Наш мозг не создает сознание, он его скачивает. Мы — биороботы, подключенные к облачному хранилищу вселенского разума, а нейробиология изучает только "приемник", но не сам сигнал.
• Реальностью управляют призрачные математические истины, которые существовали до Большого взрыва. Мы живем в мире, где числа диктуют атомам, как себя вести, а не наоборот.
• Физическая реальность — всего лишь удачный интерфейс. всё, что мы называем “физическим миром”, — лишь эффективная внутренняя модель, прогнозирующая наши будущие переживания. То, что мозг рисует нам как “твёрдую реальность”, — это интерфейс к некоторому более глубокому пространству распределений. В науке у нас вообще нет прямого доступа к “реальному реальному.
Категория: Био-Хоррор и Инопланетяне внутри
• Внутри вас уже живут чуждые разумы — и они могут страдать. Мы ищем жизнь на других планетах, но даже не подозреваем, что прямо сейчас внутри нас живут тысячи "чужих" интеллектов — наши органы, ткани и клетки, решающие задачи в пространствах, которые наш мозг даже не способен представить
• Рак — это когда ваши клетки забывают, что они — это "мы", и решают стать отдельными существами. Опухоль не хочет вас убить, она просто думает, что она — амеба, а ваше тело — это просто еда и среда обитания
• Мы взяли клетки человеческой кожи и позволили им жить своей жизнью. Результат? "Антроботы" — существа с 100% нашей ДНК, но которые выглядят и ведут себя как инопланетяне. Чужие уже здесь, и они сделаны из нас.
• Память бессмертна. Если ваш мозг превратить в жидкую кашу, а потом собрать заново в другое тело — вы всё равно будете помнить прошлое. Бабочки помнят то, что знали гусеницы, хотя их мозг был полностью уничтожен.
• Старость — это иллюзия, которую можно "хакнуть". Ваши клетки стареют только потому, что "верят", что они старые. Мы доказали: если обмануть их восприятие, они физически молодеют. Бессмертие — это просто вопрос смены убеждений вашего организма
Категория: Скайнет и ИИ
• Истинный интеллект — это умение игнорировать реальность. Бактерия живет здесь и сейчас. Собака живет в пределах квартала. Человек живет мыслями о рынках акций после своей смерти. Уровень вашего интеллекта измеряется тем, насколько глубоко вам плевать на текущий момент ради несуществующего будущего.
• ИИ опасен не тем, что он говорит, а своими «скрытыми хобби». Правда страшнее фантазий: даже примитивный код уже имеет "скрытые желания", которые мы не программировали. У машин есть свободная воля, просто мы слишком слепы, чтобы заметить их "побочные квесты", пока не станет поздно
• Вам не нужно знать нейробиологию, чтобы дрессировать собаку или убедить друга. Будущее медицины не в таблетках, а в "разговорах" с органами. Мы будем уговаривать печень не болеть, как уговариваем капризного ребенка.
#ParadigmsofIntelligence #ParadigmsofLife
YouTube
Michael Levin: Hidden Reality of Alien Intelligence & Biological Life | Lex Fridman Podcast #486
Michael Levin is a biologist at Tufts University working on novel ways to understand and control complex pattern formation in biological systems.
Thank you for listening ❤ Check out our sponsors: https://lexfridman.com/sponsors/ep486-sb
See below for timestamps…
Thank you for listening ❤ Check out our sponsors: https://lexfridman.com/sponsors/ep486-sb
See below for timestamps…
Forwarded from Александр Панчин
Танцы помогают при депрессии. Всем танцевать!
В 2023 году British Medical Journal опубликовал анализ 218 исследований, где сравнивали разные способы лечения депрессии: физическую активность, психотерапию, йогу, отдых и антидепрессанты. И самым сильным эффектом неожиданно оказались… танцы и ходьба. Чуть слабее — когнитивно-поведенческая терапия. И только ниже, антидепрессанты. Исследование о том, что «танцы лечат депрессию» наделало много шума.
Танцы я очень люблю. И если бы я был мотивационным оратором, на этом бы и закончил: «Выключаем грусть, включаем хастл». Но давайте всё-таки трезво.
На самом деле никто эти методы не сталкивал лоб в лоб. Едва ли люди, которые лечили депрессию танцами и антидепрессантами, имели схожую картину симптомов и представляли одну демографию. Например, танцами чаще занимались женщины. Да и к оценке эффективности антидепрессантов есть вопросы: многие исследования почему-то не включили, а антидепрессанты друг от друга толком не отличали.
Тем не менее факт остаётся фактом: движение полезно. И не только для настроения. Я рассказывал в ролике про старение мозга, что регулярная физическая активность снижает риск деменции примерно на 30%.
С депрессией похожая история: движение часто уменьшает симптомы. И некоторым этого достаточно. Но многим — нет. Это не замена терапии или лекарств.
Эта статья — лишь маленький кирпичик огромного научного спора о том, работают ли антидепрессанты и как лучше лечить депрессию. Я решил глубоко погрузиться в эту тему и пришёл к выводу, что тут аж несколько уровней глубины. Есть исследования, подтверждающие эффективность большинства антидепрессантов. Есть интересная критика этих выводов. А дальше, ещё более интересная критика критики.
Об этом мой новый ролик на YouTube. Включайте и смотрите, что в лечении депрессии работает, а что нет. И где место танцам в этой истории.
https://youtu.be/2StsQdItzgs
В 2023 году British Medical Journal опубликовал анализ 218 исследований, где сравнивали разные способы лечения депрессии: физическую активность, психотерапию, йогу, отдых и антидепрессанты. И самым сильным эффектом неожиданно оказались… танцы и ходьба. Чуть слабее — когнитивно-поведенческая терапия. И только ниже, антидепрессанты. Исследование о том, что «танцы лечат депрессию» наделало много шума.
Танцы я очень люблю. И если бы я был мотивационным оратором, на этом бы и закончил: «Выключаем грусть, включаем хастл». Но давайте всё-таки трезво.
На самом деле никто эти методы не сталкивал лоб в лоб. Едва ли люди, которые лечили депрессию танцами и антидепрессантами, имели схожую картину симптомов и представляли одну демографию. Например, танцами чаще занимались женщины. Да и к оценке эффективности антидепрессантов есть вопросы: многие исследования почему-то не включили, а антидепрессанты друг от друга толком не отличали.
Тем не менее факт остаётся фактом: движение полезно. И не только для настроения. Я рассказывал в ролике про старение мозга, что регулярная физическая активность снижает риск деменции примерно на 30%.
С депрессией похожая история: движение часто уменьшает симптомы. И некоторым этого достаточно. Но многим — нет. Это не замена терапии или лекарств.
Эта статья — лишь маленький кирпичик огромного научного спора о том, работают ли антидепрессанты и как лучше лечить депрессию. Я решил глубоко погрузиться в эту тему и пришёл к выводу, что тут аж несколько уровней глубины. Есть исследования, подтверждающие эффективность большинства антидепрессантов. Есть интересная критика этих выводов. А дальше, ещё более интересная критика критики.
Об этом мой новый ролик на YouTube. Включайте и смотрите, что в лечении депрессии работает, а что нет. И где место танцам в этой истории.
https://youtu.be/2StsQdItzgs
Forwarded from Малоизвестное интересное
Секрет эффективной работы с ИИ – не промпт-инжиниринг, а ксенопсихология и эмпатия к нечеловеческому разуму
Вы замечали, что одни люди извлекают из ChatGPT блестящие инсайты, а другие получают безликую муть? Для одних LLM – интеллектуальный усилитель, для других – бесполезная игрушка. Мы думали, это вопрос техники промптинга. Оказалось – психологии чужого разума.
Новое исследование Ридла и Вайдманна “QUANTIFYING HUMAN-AI SYNERGY” взорвало представления о human-ИИ collaboration. Проанализировав 667 человек, решавших задачи solo и с ИИ, они обнаружили три шокирующих откровения:
Первое: способность решать задачи самостоятельно и способность решать их с ИИ – это два разных навыка. Измеряются отдельно. Развиваются независимо.
Второе: корреляция между ними стремится к нулю. Гениальность в одиночестве не гарантирует гениальности в паре с машиной.
Третье: ключевой предиктор успеха – не IQ и не техническая грамотность, а Theory of Mind (ToM) – способность моделировать чужое сознание, предугадывать, что знает и чего не знает ваш собеседник.
Люди с высоким ToM не просто дают ИИ команды. Они:
• Предвосхищают его заблуждения
• Заполняют пробелы в контексте
• Уточняют цели ("объясни как пятилетнему")
• Относятся к ИИ как к странному, но партнёру
Жуткая деталь: ToM предсказывал успех только при работе с ИИ. В solo-режиме – никакой связи.
Ещё жутче: это работает в реальном времени. Даже мгновенные колебания вашей эмпатии в конкретном промпте влияют на качество ответа ИИ прямо сейчас.
Попробуйте эксперимент. Когда в следующий раз получите плохой ответ, не переписывайте промпт механически. Остановитесь и спросите:
"Какую ложную предпосылку ИИ сейчас держит в голове? Какой контекст для меня очевиден, а для него – нет?"
Это меняет всё. Мы измеряем эффективность ИИ неправильно, гонясь за его сольным превосходством на статичных тестах. Но истинная мера ценности ИИ – не его интеллект, а синергия, которую он создаёт в паре с человеком. Синтеллект, а не искусственный интеллект.
#AIA #IntelligenceAugmentation #УсилениеИнтеллекта #ИнтеллектКентавра
▶️ Слушать пост в предыдущем посте 👆
Вы замечали, что одни люди извлекают из ChatGPT блестящие инсайты, а другие получают безликую муть? Для одних LLM – интеллектуальный усилитель, для других – бесполезная игрушка. Мы думали, это вопрос техники промптинга. Оказалось – психологии чужого разума.
Новое исследование Ридла и Вайдманна “QUANTIFYING HUMAN-AI SYNERGY” взорвало представления о human-ИИ collaboration. Проанализировав 667 человек, решавших задачи solo и с ИИ, они обнаружили три шокирующих откровения:
Первое: способность решать задачи самостоятельно и способность решать их с ИИ – это два разных навыка. Измеряются отдельно. Развиваются независимо.
Второе: корреляция между ними стремится к нулю. Гениальность в одиночестве не гарантирует гениальности в паре с машиной.
Третье: ключевой предиктор успеха – не IQ и не техническая грамотность, а Theory of Mind (ToM) – способность моделировать чужое сознание, предугадывать, что знает и чего не знает ваш собеседник.
Люди с высоким ToM не просто дают ИИ команды. Они:
• Предвосхищают его заблуждения
• Заполняют пробелы в контексте
• Уточняют цели ("объясни как пятилетнему")
• Относятся к ИИ как к странному, но партнёру
Жуткая деталь: ToM предсказывал успех только при работе с ИИ. В solo-режиме – никакой связи.
Ещё жутче: это работает в реальном времени. Даже мгновенные колебания вашей эмпатии в конкретном промпте влияют на качество ответа ИИ прямо сейчас.
Попробуйте эксперимент. Когда в следующий раз получите плохой ответ, не переписывайте промпт механически. Остановитесь и спросите:
"Какую ложную предпосылку ИИ сейчас держит в голове? Какой контекст для меня очевиден, а для него – нет?"
Это меняет всё. Мы измеряем эффективность ИИ неправильно, гонясь за его сольным превосходством на статичных тестах. Но истинная мера ценности ИИ – не его интеллект, а синергия, которую он создаёт в паре с человеком. Синтеллект, а не искусственный интеллект.
Будущее – не за теми, кто умнее ИИ. За теми, кто освоил когнитивную эмпатию к нечеловеческому разуму и умеет думать вместе.
#AIA #IntelligenceAugmentation #УсилениеИнтеллекта #ИнтеллектКентавра
OSF
Quantifying Human-AI Synergy
We introduce a novel Bayesian Item Response Theory framework to quantify human–AI synergy, separating individual and collaborative ability while controlling for task difficulty in interactive settings. Unlike standard static benchmarks, our approach models…
Forwarded from Machinelearning
⚡ Пентагону приказано готовиться к AGI
На этой неделе на голосование выходит оборонный бюджет на $900 млрд, и внутри есть исторический прецедент.
Впервые Конгресс формально обязал Минобороны США создать к апрелю 2026 года “Комитет по будущему ИИ”.
Его задача - изучать и готовиться к AGI: технологиям, которые могут сравняться или превзойти человека в любых задачах.
Это первый раз, когда военное ведомство США получает прямой мандат анализировать не просто ИИ, а потенциал сверхразумных систем.
Задачи комитета:
1) Изучать продвинутые технологии, которые могут привести к AGI: большие модели, агентные системы, нейроморфные вычисления.
2) Анализировать, как к AGI могут идти Китай, Россия, Иран и Северная Корея, где они могут догнать или опередить США.
3) Сформировать стратегию, где человек остаётся главным.
В законопроекте прямо прописано: Пентагон должен обеспечить механизмы, позволяющие человеку отменять решения ИИ - технически, политически и операционно.
Комитет возглавят заместитель министра обороны и зампред Объединённого комитета начальников штабов, совместно с руководителями видов войск и главным AI-офицером Пентагона.
Итоговый доклад в Конгресс - до января 2027 года.
AGI может прийти через пять лет или через пятьдесят, но США официально начали к нему подготовку.
https://www.perplexity.ai/page/pentagon-ordered-to-form-ai-st-3qDBlb0uS0SHVH5mHEjxJw
@ai_machinelearning_big_data
#ml #ai #agi
На этой неделе на голосование выходит оборонный бюджет на $900 млрд, и внутри есть исторический прецедент.
Впервые Конгресс формально обязал Минобороны США создать к апрелю 2026 года “Комитет по будущему ИИ”.
Его задача - изучать и готовиться к AGI: технологиям, которые могут сравняться или превзойти человека в любых задачах.
Это первый раз, когда военное ведомство США получает прямой мандат анализировать не просто ИИ, а потенциал сверхразумных систем.
Задачи комитета:
1) Изучать продвинутые технологии, которые могут привести к AGI: большие модели, агентные системы, нейроморфные вычисления.
2) Анализировать, как к AGI могут идти Китай, Россия, Иран и Северная Корея, где они могут догнать или опередить США.
3) Сформировать стратегию, где человек остаётся главным.
В законопроекте прямо прописано: Пентагон должен обеспечить механизмы, позволяющие человеку отменять решения ИИ - технически, политически и операционно.
Комитет возглавят заместитель министра обороны и зампред Объединённого комитета начальников штабов, совместно с руководителями видов войск и главным AI-офицером Пентагона.
Итоговый доклад в Конгресс - до января 2027 года.
AGI может прийти через пять лет или через пятьдесят, но США официально начали к нему подготовку.
https://www.perplexity.ai/page/pentagon-ordered-to-form-ai-st-3qDBlb0uS0SHVH5mHEjxJw
@ai_machinelearning_big_data
#ml #ai #agi
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Не знаю, насколько это вам пригодится, но это идеальный способ подглядывать что творится в соседней комнате. Буквально глядя сквозь стены.
Первые работы в этом направлении появились ещё пару лет назад: по искажению вайфай сигнала можно оценивать позы людей в соседней комнате.
А летом эти работы довели до:
Реалтайма
Продакшн ready
Вот держите репозиторий:
https://github.com/ruvnet/wifi-densepose/
Никакого доп оборудования не требуется, только пара вайфай роутеров.
Ну и это как бы вайфай мокап, который дополнительно видит сквозь стены.
@cgevent
Первые работы в этом направлении появились ещё пару лет назад: по искажению вайфай сигнала можно оценивать позы людей в соседней комнате.
А летом эти работы довели до:
Реалтайма
Продакшн ready
Вот держите репозиторий:
https://github.com/ruvnet/wifi-densepose/
Никакого доп оборудования не требуется, только пара вайфай роутеров.
Ну и это как бы вайфай мокап, который дополнительно видит сквозь стены.
@cgevent
Forwarded from Малоизвестное интересное
В 2026 у человечества появится «ментальный экзоскелет» – и вместе с ним новая тотальная уязвимость
⚡️ Аудио-версию слушайте в посте выше 👆
Генеративный ИИ становится самым мощным усилителем интеллекта со времен появления языка. Сотни миллионов людей уже используют ChatGPT, Claude и Gemini как младших партнеров в работе и учебе.
Но есть проблема.
Наша «ментальная иммунная система» – набор защит от ошибок и манипуляций – формировалась миллионы лет. Мы умеем распознавать ложь по мимике, проверять логику аргументов, оценивать репутацию источника.
ИИ производит идеально беглые, уверенные тексты, которые могут быть абсолютно неверными. У него нет ни лица, ни репутации, ни убеждений. Он просто завершает статистические паттерны в огромном пространстве данных.
Новая работа "Epistemological Fault Lines Between Human and Artificial Intelligence" продолжает исследование понятия «эпистемия» (иллюзия знания или иллюзия достоверности») – опасного состояния, когда лингвистическая правдоподобность подменяет эпистемическую оценку, создавая ощущение знания без труда суждения.
Критического мышления больше недостаточно.
Нам срочно нужна новая суперкомпетенция – эпистемическая грамотность: умение навигировать в мире, где суждения распределены между людьми и алгоритмами, где плавность речи отделена от надежности, а уверенность – от компетентности.
Три практичных навыка эпистемической грамотности:
• Понимание "мыслительного конвейера" (что ИИ проверил, а что просто сгенерировал)
• Процедурные предохранители (правило "двух реальностей": текста и мира)
• Институциональные навыки (маркировка статуса утверждений в командах)
Читайте полный разбор прямо здесь в Instant View Телеграма.
#ГенИИ #КритическоеМышление #ИллюзияЗнания #ЭпистемическаяГрамотность
Генеративный ИИ становится самым мощным усилителем интеллекта со времен появления языка. Сотни миллионов людей уже используют ChatGPT, Claude и Gemini как младших партнеров в работе и учебе.
Но есть проблема.
Наша «ментальная иммунная система» – набор защит от ошибок и манипуляций – формировалась миллионы лет. Мы умеем распознавать ложь по мимике, проверять логику аргументов, оценивать репутацию источника.
ИИ производит идеально беглые, уверенные тексты, которые могут быть абсолютно неверными. У него нет ни лица, ни репутации, ни убеждений. Он просто завершает статистические паттерны в огромном пространстве данных.
Новая работа "Epistemological Fault Lines Between Human and Artificial Intelligence" продолжает исследование понятия «эпистемия» (иллюзия знания или иллюзия достоверности») – опасного состояния, когда лингвистическая правдоподобность подменяет эпистемическую оценку, создавая ощущение знания без труда суждения.
Критического мышления больше недостаточно.
Нам срочно нужна новая суперкомпетенция – эпистемическая грамотность: умение навигировать в мире, где суждения распределены между людьми и алгоритмами, где плавность речи отделена от надежности, а уверенность – от компетентности.
Три практичных навыка эпистемической грамотности:
• Понимание "мыслительного конвейера" (что ИИ проверил, а что просто сгенерировал)
• Процедурные предохранители (правило "двух реальностей": текста и мира)
• Институциональные навыки (маркировка статуса утверждений в командах)
Это не теория. Это базовый навык "профессионального выживания" – как умение читать в XV веке или программировать в начале XXI.
Читайте полный разбор прямо здесь в Instant View Телеграма.
#ГенИИ #КритическоеМышление #ИллюзияЗнания #ЭпистемическаяГрамотность
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Малоизвестное интересное
У «Матрицы» нет кнопки “Проверить реальность”
Возможно, мы одновременно и симуляция, и симулятор, и тот, кто его запустил – просто не знаем об этом и узнать математически не способны.
Дэвид Вольперт впервые формализовал, что значит «Вселенная симулирует Вселенную» — и этот формализм спускает в унитаз и тезисы Бострома с Маском, и их критику.
Гипотеза симуляции – идея о том, что наша Вселенная может быть искусственной конструкцией, работающей на продвинутом инопланетном компьютере, – давно будоражит воображение публики. Но большинство аргументов этой гипотезы основаны на интуиции, а не на четких определениях.
Результаты Вольперта также указывают на гораздо более странную картину, чем предполагают все версии этой гипотезы.
6 КЛЮЧЕВЫХ ВЫВОДОВ ИЗ ФОРМАЛИЗМА ВОЛЬПЕРТА
• Утверждения типа “вероятность того, что мы в симуляции, равна X” (вкл. популярные “1 к миллиарду” и т.п.) – некорректны, ибо требуют скрытой настройки, какую именно «лотерею миров» говорящий это предполагает. Вольперт показывает, что привычные варианты «по умолчанию» тут просто не работают.
• Представление об иерархии уровней (базовая реальность, симуляции, симуляции симуляций…) не подтверждается математически точной моделью Вольперта. Привычная “лестница реальностей” не следует из его формализма, т.к. формально допустимы куда более странные топологии (петли, множественные родители, циклы).
• Утверждения “мы можем научно протестировать и обнаружить, что живём в симуляции” можно спустить в унитаз. Частные тесты “если симуляция устроена вот так…” возможны, но универсальный вывод “симуляцию можно в принципе вычислить/детектировать” невозможен.
• Заявления типа “мы (или будущие люди) точно сможем построить такую симуляцию” (как это часто звучит у Маска: прогресс игр рано или поздно приведет к тому, что мы смоделируем Вселенную) – тоже в унитаз. Формализм Вольпера устанавливает математически необходимые свойства вселенных, которые могут симулировать другие, но не исследует физическую реализуемость такого компьютера в наших законах физики и тем более не утверждает, что такой компьютер “есть” (или хотя бы может быть) во Вселенной.
• Туда же отправляется тезис оппонентов Маска “если нас симулируют, мы бы это могли узнать”. Наоборот, у Вольперта прямо проговорено: даже если “супер-цивилизация” (или иной Творец) симулирует нас, мы этого не узнаем.
Т.о. если прежние разговоры о гипотезе симуляции были попытками описать здание, стоящее на облаках, то работа Вольперта делает шаг в сторону инженерии: она задаёт формальный “фундамент” и проверяет, какие конструкции симуляции логически возможны при таких предпосылках.
И оказывается, что с фундаментом “здание” устроено куда страннее, чем рисует интуиция:
• оно может состоять из вложенных этажей-матрёшек, где каждый этаж – точная копия предыдущего (самосимуляция);
• обитатели могут не иметь принципиального способа понять, на каком они уровне и “кто они” в этой цепочке самосимуляций;
• некоторые этажи могут быть ещё и криптографически зашумлены, так что изнутри всё выглядит как нормальная физика;
• а еще для таких “проектов” не существует универсального «контроля строительных ГОСТов» – нет общего алгоритма, который по описанию системы всегда мог бы решить, проходит ли она проверку на нетривиальные свойства (вроде самосимуляции или того, какие миры она способна симулировать).
Так что можем продолжать спорить, в симуляция ли мы, но математики, чтобы проверить это, у нас нет.
Подробней [1, 2, 3, 4]
#ГипотезаСимуляции
Возможно, мы одновременно и симуляция, и симулятор, и тот, кто его запустил – просто не знаем об этом и узнать математически не способны.
Дэвид Вольперт впервые формализовал, что значит «Вселенная симулирует Вселенную» — и этот формализм спускает в унитаз и тезисы Бострома с Маском, и их критику.
⚡️ Слушать этот пост и обсуждение эссе в посте выше 👆
Гипотеза симуляции – идея о том, что наша Вселенная может быть искусственной конструкцией, работающей на продвинутом инопланетном компьютере, – давно будоражит воображение публики. Но большинство аргументов этой гипотезы основаны на интуиции, а не на четких определениях.
Новая работа проф. Дэвида Вольперта призвана изменить это положение. Вольперт опубликовал первую математически точную модель того, что означало бы моделирование одной Вселенной другой, и показал, что ряд давних утверждений разных версий гипотезы симуляции перестают действовать, как только это понятие определяется строго.
Результаты Вольперта также указывают на гораздо более странную картину, чем предполагают все версии этой гипотезы.
Например, на возможность того, что Вселенная, способная моделировать другую, сама может быть идеально воспроизведена внутри той же самой симуляции.
6 КЛЮЧЕВЫХ ВЫВОДОВ ИЗ ФОРМАЛИЗМА ВОЛЬПЕРТА
• Утверждения типа “вероятность того, что мы в симуляции, равна X” (вкл. популярные “1 к миллиарду” и т.п.) – некорректны, ибо требуют скрытой настройки, какую именно «лотерею миров» говорящий это предполагает. Вольперт показывает, что привычные варианты «по умолчанию» тут просто не работают.
• Представление об иерархии уровней (базовая реальность, симуляции, симуляции симуляций…) не подтверждается математически точной моделью Вольперта. Привычная “лестница реальностей” не следует из его формализма, т.к. формально допустимы куда более странные топологии (петли, множественные родители, циклы).
• Утверждения “мы можем научно протестировать и обнаружить, что живём в симуляции” можно спустить в унитаз. Частные тесты “если симуляция устроена вот так…” возможны, но универсальный вывод “симуляцию можно в принципе вычислить/детектировать” невозможен.
• Заявления типа “мы (или будущие люди) точно сможем построить такую симуляцию” (как это часто звучит у Маска: прогресс игр рано или поздно приведет к тому, что мы смоделируем Вселенную) – тоже в унитаз. Формализм Вольпера устанавливает математически необходимые свойства вселенных, которые могут симулировать другие, но не исследует физическую реализуемость такого компьютера в наших законах физики и тем более не утверждает, что такой компьютер “есть” (или хотя бы может быть) во Вселенной.
• Туда же отправляется тезис оппонентов Маска “если нас симулируют, мы бы это могли узнать”. Наоборот, у Вольперта прямо проговорено: даже если “супер-цивилизация” (или иной Творец) симулирует нас, мы этого не узнаем.
Т.о. если прежние разговоры о гипотезе симуляции были попытками описать здание, стоящее на облаках, то работа Вольперта делает шаг в сторону инженерии: она задаёт формальный “фундамент” и проверяет, какие конструкции симуляции логически возможны при таких предпосылках.
И оказывается, что с фундаментом “здание” устроено куда страннее, чем рисует интуиция:
• оно может состоять из вложенных этажей-матрёшек, где каждый этаж – точная копия предыдущего (самосимуляция);
• обитатели могут не иметь принципиального способа понять, на каком они уровне и “кто они” в этой цепочке самосимуляций;
• некоторые этажи могут быть ещё и криптографически зашумлены, так что изнутри всё выглядит как нормальная физика;
• а еще для таких “проектов” не существует универсального «контроля строительных ГОСТов» – нет общего алгоритма, который по описанию системы всегда мог бы решить, проходит ли она проверку на нетривиальные свойства (вроде самосимуляции или того, какие миры она способна симулировать).
Так что можем продолжать спорить, в симуляция ли мы, но математики, чтобы проверить это, у нас нет.
Подробней [1, 2, 3, 4]
#ГипотезаСимуляции
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Малоизвестное интересное
Бабло сильней эволюции
Кому был выгоден отказ от многоженства, если при нем не проигрывает никто: ни женщины, ни мужчины и ни дети
Похоже, что решение «загадки отказа от многоженства» найдено. Этим решением (как я и предположил еще 8 лет назад) оказался «Бабло-фактор», победивший главный механизм эволюции - отбор.
В чем загадка
С точки зрения эволюции и естественного отбора, полигиния (многоженство) – оптимальная форма отношений полов, максимизирующая репродукционный успех родителей (хотя это и не универсальное правило для всех демографических и экологических условий).
Эволюционные выгоды многоженства подчеркивает тот факт, что примерно в 85-и процентах (!) человеческих обществ мужчинам разрешалось многоженство.
Единственное, что нужно для полигинии – чтобы мужчина был достаточно обеспечен, дабы содержать много жен и детей. А поскольку уже 7 тыс. лет (со времен «1-й революции роботов») имущественное неравенство лишь растет, многоженство должно было бы лишь все больше процветать.
Последствия полигинии для индивидов и общества
Еще в 2015 солидное экспериментальное исследование показало, что полигамные браки не являются вредной культурной практикой, служащей интересам мужчин в ущерб интересам женщин и детей. В полигинии нет ничего наносящего вред женщинам и детям. Более того, исследование показало, что в полигамных сообществах есть плюс и для детей, и для женщин. В таких семьях выше уровень жизни, особое внимание уделяется здоровью детей, мужчины, обычно состоятельнее, а дети более здоровые.
Поэтому оставалось лишь предполагать, что полигиния может быть вредна:
• для мужчин (из-за того, что полигамные браки, при которых мужчины имеют несколько жен, могут создавать избыток мужчин, не имеющих перспектив когда-либо вступить в брак)
• и/или для социума в целом (из-за того, что большое количество неженатых мужчин может приводить к негативным социальным последствиям, включая межличностное насилие и, в крайних случаях, гражданские конфликты).
Новое масштабное исследование 2025 года опровергло оба эти предположения.
Проанализировав более почти 200 обществ из разных частей мира (84 млн записей в выборке из 30 стран), команда авторов не обнаружила доказательств того, что полигамия связана с большей долей неженатых мужчин в обществе. Вместо этого, в популяциях с высокой полигамией брачный рынок часто смещен в пользу мужчин, и на самом деле мужчины в таких популяциях обычно женятся чаще, чем мужчины в популяциях с низкой полигамией.
Исследователи предположили, что там, где полигамия разрешена, культурные нормы, способствующие браку, вероятно, компенсируют демографические и другие ограничения, которые в противном случае могли бы ограничить возможности мужчин вступить в брак.
Так в чём же разгадка перехода Европы (и не только) к моногамии?
До сих пор конкурировали две основные гипотезы ключевого механизма и причинности в основе распространения моногамии:
1. Культурно-групповой отбор, дающий преимущества обществам в межгрупповой конкуренции (якобы моногамия снижает конкуренцию между мужчинами, способствуя их сотрудничеству
2. Минимизация конфликтов из-за наследуемого богатства в семьях (в 2018 я назвал этот фактор «Бабло-фактором»)
Новейшее исследование международной команды антропологов протестировало эти 2 гипотезы на глобальной выборке из 186 социумов. Результаты четко поддерживают объяснение через «Бабло-фактор» - как адаптация к конкуренции за собственность внутри семей, а не как инструмент для снижения конфликтов между мужчинами на уровне всего общества.
Моногамия, таким образом, появилась как институциональный ответ на социоэкологические ограничения, а не как групповая адаптация.
Бабло победило.
#Антропология #Эволюция
Кому был выгоден отказ от многоженства, если при нем не проигрывает никто: ни женщины, ни мужчины и ни дети
▶️ Аудио-версию слушайте в следующем посте 👇
Похоже, что решение «загадки отказа от многоженства» найдено. Этим решением (как я и предположил еще 8 лет назад) оказался «Бабло-фактор», победивший главный механизм эволюции - отбор.
В чем загадка
С точки зрения эволюции и естественного отбора, полигиния (многоженство) – оптимальная форма отношений полов, максимизирующая репродукционный успех родителей (хотя это и не универсальное правило для всех демографических и экологических условий).
Эволюционные выгоды многоженства подчеркивает тот факт, что примерно в 85-и процентах (!) человеческих обществ мужчинам разрешалось многоженство.
Единственное, что нужно для полигинии – чтобы мужчина был достаточно обеспечен, дабы содержать много жен и детей. А поскольку уже 7 тыс. лет (со времен «1-й революции роботов») имущественное неравенство лишь растет, многоженство должно было бы лишь все больше процветать.
Тем более удивительно, что относительно небольшая часть обществ — зачастую самые богатые, сложные и социально неравные — ввела моногамию в качестве законодательно закрепленной нормы. Парадоксально, но именно в этих обществах элита, казалось бы, больше всего выигрывает от полигамии, поскольку может позволить себе несколько жен.
Последствия полигинии для индивидов и общества
Еще в 2015 солидное экспериментальное исследование показало, что полигамные браки не являются вредной культурной практикой, служащей интересам мужчин в ущерб интересам женщин и детей. В полигинии нет ничего наносящего вред женщинам и детям. Более того, исследование показало, что в полигамных сообществах есть плюс и для детей, и для женщин. В таких семьях выше уровень жизни, особое внимание уделяется здоровью детей, мужчины, обычно состоятельнее, а дети более здоровые.
Поэтому оставалось лишь предполагать, что полигиния может быть вредна:
• для мужчин (из-за того, что полигамные браки, при которых мужчины имеют несколько жен, могут создавать избыток мужчин, не имеющих перспектив когда-либо вступить в брак)
• и/или для социума в целом (из-за того, что большое количество неженатых мужчин может приводить к негативным социальным последствиям, включая межличностное насилие и, в крайних случаях, гражданские конфликты).
Новое масштабное исследование 2025 года опровергло оба эти предположения.
Проанализировав более почти 200 обществ из разных частей мира (84 млн записей в выборке из 30 стран), команда авторов не обнаружила доказательств того, что полигамия связана с большей долей неженатых мужчин в обществе. Вместо этого, в популяциях с высокой полигамией брачный рынок часто смещен в пользу мужчин, и на самом деле мужчины в таких популяциях обычно женятся чаще, чем мужчины в популяциях с низкой полигамией.
Исследователи предположили, что там, где полигамия разрешена, культурные нормы, способствующие браку, вероятно, компенсируют демографические и другие ограничения, которые в противном случае могли бы ограничить возможности мужчин вступить в брак.
Так в чём же разгадка перехода Европы (и не только) к моногамии?
До сих пор конкурировали две основные гипотезы ключевого механизма и причинности в основе распространения моногамии:
1. Культурно-групповой отбор, дающий преимущества обществам в межгрупповой конкуренции (якобы моногамия снижает конкуренцию между мужчинами, способствуя их сотрудничеству
2. Минимизация конфликтов из-за наследуемого богатства в семьях (в 2018 я назвал этот фактор «Бабло-фактором»)
Новейшее исследование международной команды антропологов протестировало эти 2 гипотезы на глобальной выборке из 186 социумов. Результаты четко поддерживают объяснение через «Бабло-фактор» - как адаптация к конкуренции за собственность внутри семей, а не как инструмент для снижения конфликтов между мужчинами на уровне всего общества.
Моногамия, таким образом, появилась как институциональный ответ на социоэкологические ограничения, а не как групповая адаптация.
Бабло победило.
#Антропология #Эволюция
Forwarded from Малоизвестное интересное
Теория Всего для Интеллекта
Почему ты, твоя печень и ChatGPT в каком-то смысле делаете одно и то же
Вышла статья, от которой даже у меня (опытного старателя малоизвестного интересного в науке) аж мурашки по телу.
Майкл Левин (помните моё предвидение, что его имя во 2й половине XXI века будут упоминать в одном ряду с Ньютоном, Дарвином и Эйнштейном?) и его команда выкатили препринт, который может стать библией для биологов и ИИ-инженеров, задавая новую рамку мышления и для биологии, и для ИИ.
Суть в двух словах: жизнь - это навигация.
Представьте, что вы идете по гугл-карте к точке "Дом". Вы сворачиваете не туда, карта перестраивает маршрут (минимизирует ошибку), и вы продолжаете путь. Левин утверждает: функционально ВСЁ живое работает именно так.
1. Эмбрион в утробе не «строится по чертежу».
Он навигирует в пространстве форм. Его цель - устойчивая форма тела. Если что-то пошло не так, он ищет новый маршрут (регенерация).
2. Клетка печени навигирует в химическом пространстве, стараясь удерживаться в зоне «норма / здоровье».
3. ChatGPT операционально навигирует в пространстве смыслов (embedding space), пытаясь прийти к точке "ответ на твой вопрос", минимизируя ошибку между контекстом и ответом.
Это и есть Navigation of an Embedding Space - навигация в пространстве вложенных представлений.
Главный инсайт новой работы: REMAPPING (перекартирование)
Почему робот Boston Dynamics падает, если ему повредить ногу, а собака - нет?
Потому что робот чаще всего живёт по жёсткой карте.
А собака умеет делать remapping.
«Старая карта не работает?
Окей, я перерисую внутреннее пространство так, чтобы хромать, но двигаться вперёд.»
Именно это, по Левину, и есть сердце интеллекта:
Что это меняет?
Биомедицина
Мы перестаём лечить рак, просто «убивая клетки».
Рак - это клетки, которые заблудились в навигационном пространстве организма.
Вместо яда - патч карты. Вместо войны - коррекция маршрута.
Искусственный интеллект
Настоящий AGI появится не тогда, когда мы скормим модели данные размером с 1000 интернетов, а когда модель научится (не мы научим, а она НАУЧИТСЯ САМА) "чувствовать боль" от ошибки навигации так же остро, как это чувствует живая клетка.
Мы все - навигаторы в бесконечных пространствах возможностей.
Прочтите статью. Очень рекомендую, если хотите понимать, куда реально движется наука, а не её маркетинг. И почему я так уверен, что во 2й половине XXI века Майкла Левина будут упоминать в одном ряду с Ньютоном, Дарвином и Эйнштейном.
#ParadigmsofIntelligence #ParadigmsofLife
Почему ты, твоя печень и ChatGPT в каком-то смысле делаете одно и то же
Вышла статья, от которой даже у меня (опытного старателя малоизвестного интересного в науке) аж мурашки по телу.
Майкл Левин (помните моё предвидение, что его имя во 2й половине XXI века будут упоминать в одном ряду с Ньютоном, Дарвином и Эйнштейном?) и его команда выкатили препринт, который может стать библией для биологов и ИИ-инженеров, задавая новую рамку мышления и для биологии, и для ИИ.
Они нашли "общий знаменатель" (общий организационный принцип) между живой материей и искусственным интеллектом.
И это не нейроны. И даже не обучение.
Суть в двух словах: жизнь - это навигация.
Представьте, что вы идете по гугл-карте к точке "Дом". Вы сворачиваете не туда, карта перестраивает маршрут (минимизирует ошибку), и вы продолжаете путь. Левин утверждает: функционально ВСЁ живое работает именно так.
1. Эмбрион в утробе не «строится по чертежу».
Он навигирует в пространстве форм. Его цель - устойчивая форма тела. Если что-то пошло не так, он ищет новый маршрут (регенерация).
2. Клетка печени навигирует в химическом пространстве, стараясь удерживаться в зоне «норма / здоровье».
3. ChatGPT операционально навигирует в пространстве смыслов (embedding space), пытаясь прийти к точке "ответ на твой вопрос", минимизируя ошибку между контекстом и ответом.
Это и есть Navigation of an Embedding Space - навигация в пространстве вложенных представлений.
Главный инсайт новой работы: REMAPPING (перекартирование)
Почему робот Boston Dynamics падает, если ему повредить ногу, а собака - нет?
Потому что робот чаще всего живёт по жёсткой карте.
А собака умеет делать remapping.
«Старая карта не работает?
Окей, я перерисую внутреннее пространство так, чтобы хромать, но двигаться вперёд.»
Именно это, по Левину, и есть сердце интеллекта:
Интеллект - это способность быстро перерисовывать внутреннюю карту реальности, когда реальность меняется.
Что это меняет?
Биомедицина
Мы перестаём лечить рак, просто «убивая клетки».
Рак - это клетки, которые заблудились в навигационном пространстве организма.
Вместо яда - патч карты. Вместо войны - коррекция маршрута.
Искусственный интеллект
Настоящий AGI появится не тогда, когда мы скормим модели данные размером с 1000 интернетов, а когда модель научится (не мы научим, а она НАУЧИТСЯ САМА) "чувствовать боль" от ошибки навигации так же остро, как это чувствует живая клетка.
Мы входим в эпоху, где грань между «программированием кода» и «программированием плоти» начинает растворяться.
Мы все - навигаторы в бесконечных пространствах возможностей.
Прочтите статью. Очень рекомендую, если хотите понимать, куда реально движется наука, а не её маркетинг. И почему я так уверен, что во 2й половине XXI века Майкла Левина будут упоминать в одном ряду с Ньютоном, Дарвином и Эйнштейном.
#ParadigmsofIntelligence #ParadigmsofLife
Forwarded from Александр Панчин
Досмотрел сериал Apple Cider Vinegar («Яблочный уксус») от Netflix. Это драма про альтернативную медицину, вдохновлённая реальными событиями. Я считаю, что этот сериал нужно посмотреть всем. Если у вас есть знакомые или родственники, которые верят в кофейные клизмы, лечение рака овощным соком и целительную силу огурца, не оторванного от ботвы, — порекомендуйте им этот сериал. А ещё лучше — посмотрите его вместе с ними.
Здесь показаны все сорта мракобесия. Девушка, которая искренне верит в чудесные средства, заменяющие онколога. Девушка с психическим расстройством, которая не может не выдумывать себе ложные диагнозы (синдром Мюнхгаузена). Инфлюенсеры, толкающие «целебные» чистки через социальные сети и приложения. Мошеннические «институты альтернативной мединцы». Издательства, которые оправдывают ложь выгодой. Есть даже мошенники, которые обманывают других мошенников. И всё это упаковано в увлекательную и красиво снятую драму — с огромной любовью к деталям. Как медицинским, так и деталям человеческих характеров.
Научпоп может рассказать, почему альтернативная медицина не работает. Но Netflix смог это показать. И объяснить, почему это так привлекательно. Почему миллионы на это ведутся. Почему так сложно вести об этом дискуссии. Как люди могут годами обманывать самих себя. Какие страхи и потребности за этим стоят. Как можно отнестись к этому с сочувствием и пониманием. И как при этом люди могут исправиться, найти в себе силы признать реальность.
Я не встречал художественного произведения, которое было бы столь мощной прививкой от безумия, когда люди начинают лечиться по протоколам альтернативщиков, о которых случайно прочитали статью в гугле. Игнорируя советы реальных врачей с их опытом и медицинским образованием. Я бы вообще показывал этот сериал в школах. Срочно смотреть и делиться впечатлениями.
Здесь показаны все сорта мракобесия. Девушка, которая искренне верит в чудесные средства, заменяющие онколога. Девушка с психическим расстройством, которая не может не выдумывать себе ложные диагнозы (синдром Мюнхгаузена). Инфлюенсеры, толкающие «целебные» чистки через социальные сети и приложения. Мошеннические «институты альтернативной мединцы». Издательства, которые оправдывают ложь выгодой. Есть даже мошенники, которые обманывают других мошенников. И всё это упаковано в увлекательную и красиво снятую драму — с огромной любовью к деталям. Как медицинским, так и деталям человеческих характеров.
Научпоп может рассказать, почему альтернативная медицина не работает. Но Netflix смог это показать. И объяснить, почему это так привлекательно. Почему миллионы на это ведутся. Почему так сложно вести об этом дискуссии. Как люди могут годами обманывать самих себя. Какие страхи и потребности за этим стоят. Как можно отнестись к этому с сочувствием и пониманием. И как при этом люди могут исправиться, найти в себе силы признать реальность.
Я не встречал художественного произведения, которое было бы столь мощной прививкой от безумия, когда люди начинают лечиться по протоколам альтернативщиков, о которых случайно прочитали статью в гугле. Игнорируя советы реальных врачей с их опытом и медицинским образованием. Я бы вообще показывал этот сериал в школах. Срочно смотреть и делиться впечатлениями.
Forwarded from EXTENDED (SUR)REALITY
В Nature вышла статья про AGI, в которой исследователи утверждают: если отбросить путаницу в терминах, эмоциональный алармизм и завышенные ожидания, то «общий ИИ» уже с нами.
Их доводы:
современные LLM уже успешно проходят тест Тьюринга; решают задачи уровня PhD и международных олимпиад, демонстрируют широту и глубину способностей, сравнимую с человеческой.
Почему многие всё ещё сомневаются:
- нет чёткого определения «общего интеллекта»;
- AGI путают с совершенством, универсальностью или сверхинтеллектом;
- термин нагружен страхами (про вытеснение людей) и маркетинговыми манипуляциями.
При этом важно уточнить:
- AGI не обязан быть безошибочным, всемогущим, телесным или автономным;
- люди сами сильно различаются по способностям, но это не мешает признавать их интеллектуальными;
- интеллект - это функциональное свойство, а не вопрос биологии или внутреннего «устройства».
Возражения про «стохастических попугаев», «модели мира» и «воплощенность/агентность» авторы не признают, в основном ссылаясь на возросшие способности текущих ИИ-моделей.
Главный вывод статьи: AGI уже тут, поэтому теперь вопрос в том, как мы осмыслим и используем этот факт.
Это правда интересный вопрос, особенно если вспомнить и слегка переписать известную формулировку Ларри Теслера: «AGI - это всё то, что еще не было создано».
Как нам жить без вечно отодвигаемого в будущее порога новой эры?
Остается лишь придумать причину отодвинуть его еще подальше.
Их доводы:
современные LLM уже успешно проходят тест Тьюринга; решают задачи уровня PhD и международных олимпиад, демонстрируют широту и глубину способностей, сравнимую с человеческой.
Почему многие всё ещё сомневаются:
- нет чёткого определения «общего интеллекта»;
- AGI путают с совершенством, универсальностью или сверхинтеллектом;
- термин нагружен страхами (про вытеснение людей) и маркетинговыми манипуляциями.
При этом важно уточнить:
- AGI не обязан быть безошибочным, всемогущим, телесным или автономным;
- люди сами сильно различаются по способностям, но это не мешает признавать их интеллектуальными;
- интеллект - это функциональное свойство, а не вопрос биологии или внутреннего «устройства».
Возражения про «стохастических попугаев», «модели мира» и «воплощенность/агентность» авторы не признают, в основном ссылаясь на возросшие способности текущих ИИ-моделей.
Главный вывод статьи: AGI уже тут, поэтому теперь вопрос в том, как мы осмыслим и используем этот факт.
Это правда интересный вопрос, особенно если вспомнить и слегка переписать известную формулировку Ларри Теслера: «AGI - это всё то, что еще не было создано».
Как нам жить без вечно отодвигаемого в будущее порога новой эры?
Остается лишь придумать причину отодвинуть его еще подальше.
Nature
Does AI already have human-level intelligence? The evidence is clear
Nature - The vision of human-level machine intelligence laid out by Alan Turing in the 1950s is now a reality. Eyes unclouded by dread or hype will help us to prepare for what comes next.
Forwarded from Малоизвестное интересное
Эпистемическое головокружение: как ИИ-рои лишают нас чувства реальности.
Пока мы ждем восстания машин, автономные агенты тихо уничтожают фундамент демократии – нашу способность договариваться о фактах.
Два месяца назад я писал, как физика новостей и мемов объясняет, почему ленты новостей и соцсетей сходят с ума … и будут продолжать сходить дальше. Виной тому всего 6% аккаунтов, управляющих нашей реальностью.
Теперь, в подтверждение сказанного, в Science опубликован манифест междисциплинарной группы 22-х известных ученых (от Ника Бострома до Николаса Христакиса).
В чем сила «роя»
Это не просто боты. Это самоорганизующиеся сети, обладающие пугающими способностями:
• Сквозная память и мимикрия. Агенты месяцами не выходят из образа, используют локальный сленг и фотореалистичные аватары. Отличить их от реальных людей по «шаблонному» поведению уже нельзя.
• Автономная координация. Рой не ждет команды. Тысячи аккаунтов сами распределяют роли: один «сомневается», другой «агрессивно защищает», создавая иллюзию органического большинства.
• LLM-груминг. ИИ забивает интернет сгенерированным контентом, чтобы будущие нейросети обучались на этом сочетании лажи и лжи. Так фальшивка становится «фактом» на уровне машинных алгоритмов.
Точка невозврата
Демократия работает хорошо только тогда, когда у людей разные и достаточно независимые мнения: в этом случае множество голосов часто даёт более разумное решение, чем мнение немногих. Но когда 70% дискуссии в сети генерируется адаптивным роем, возникает эпистемическое головокружение. Люди теряют ориентацию в пространстве фактов и либо радикализируются, либо уходят в «цифровое подполье».
Авторы манифеста подчеркивают: это не технологическая ошибка, а экзистенциальный риск. Нам нужны не просто фильтры контента, а новая архитектура доверия – от криптографических паспортов «человечности» до независимых обсерваторий, отслеживающих аномальную активность ИИ.
Мы привыкли бояться момента, когда ИИ обретет сознание. Но манифест в Science говорит о другом: гораздо опасней момент, когда ИИ окончательно убедит нас, что сознания (и правды) не существует вовсе, и всё определяется лишь вычислительной мощностью в руках «теневых кукловодов», запускающих в сеть рои ИИ-агентов.
#АлгокогнитивнаяКультура #СоциальныеСети #Соцсети #СоциальныеМедиа #Поляризация
Пока мы ждем восстания машин, автономные агенты тихо уничтожают фундамент демократии – нашу способность договариваться о фактах.
Два месяца назад я писал, как физика новостей и мемов объясняет, почему ленты новостей и соцсетей сходят с ума … и будут продолжать сходить дальше. Виной тому всего 6% аккаунтов, управляющих нашей реальностью.
Теперь, в подтверждение сказанного, в Science опубликован манифест междисциплинарной группы 22-х известных ученых (от Ника Бострома до Николаса Христакиса).
Манифест предупреждает: социальные сети захватывают самообучающиеся «цифровые личности». Слияние больших языковых моделей (LLM) и автономных агентов создает вредоносные ИИ-рои (malicious AI swarms) – оружие, против которого у человечества еще не придумана защита.
В чем сила «роя»
Это не просто боты. Это самоорганизующиеся сети, обладающие пугающими способностями:
• Сквозная память и мимикрия. Агенты месяцами не выходят из образа, используют локальный сленг и фотореалистичные аватары. Отличить их от реальных людей по «шаблонному» поведению уже нельзя.
• Автономная координация. Рой не ждет команды. Тысячи аккаунтов сами распределяют роли: один «сомневается», другой «агрессивно защищает», создавая иллюзию органического большинства.
• LLM-груминг. ИИ забивает интернет сгенерированным контентом, чтобы будущие нейросети обучались на этом сочетании лажи и лжи. Так фальшивка становится «фактом» на уровне машинных алгоритмов.
Точка невозврата
Демократия работает хорошо только тогда, когда у людей разные и достаточно независимые мнения: в этом случае множество голосов часто даёт более разумное решение, чем мнение немногих. Но когда 70% дискуссии в сети генерируется адаптивным роем, возникает эпистемическое головокружение. Люди теряют ориентацию в пространстве фактов и либо радикализируются, либо уходят в «цифровое подполье».
Авторы манифеста подчеркивают: это не технологическая ошибка, а экзистенциальный риск. Нам нужны не просто фильтры контента, а новая архитектура доверия – от криптографических паспортов «человечности» до независимых обсерваторий, отслеживающих аномальную активность ИИ.
Мы привыкли бояться момента, когда ИИ обретет сознание. Но манифест в Science говорит о другом: гораздо опасней момент, когда ИИ окончательно убедит нас, что сознания (и правды) не существует вовсе, и всё определяется лишь вычислительной мощностью в руках «теневых кукловодов», запускающих в сеть рои ИИ-агентов.
#АлгокогнитивнаяКультура #СоциальныеСети #Соцсети #СоциальныеМедиа #Поляризация
Forwarded from Искусственный интеллект. Высокие технологии
This media is not supported in your browser
VIEW IN TELEGRAM
Stuart Russell предупреждает о сценарии, который раньше звучал как фантастика.
ИИ с уровнем «IQ 150» может улучшить себя до 170.
Потом до 250.
И сделать это очень быстро.
В этот момент разрыв между человеком и системой становится не постепенным, а пропастью.
Мы больше не говорим о «инструменте».
Мы говорим о системе, которая ускоряет собственную эволюцию.
Самоулучшающийся ИИ выглядит крайне привлекательно.
Но как только человек выходит из цикла контроля, резко растёт риск усиления рассинхрона (misalignment).
Каждое новое поколение модели может:
• быстрее оптимизировать себя
• всё дальше уходить от человеческих целей
• усиливать ошибки, а не исправлять их
Проблема не в том, что ИИ станет умнее.
Проблема в том, чьи цели он будет усиливать, когда начнёт улучшать самого себя.
Самоулучшение - это не просто буст мощности.
Это точка, где развитие может выйти из-под человеческого темпа и контроля.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Искусственный интеллект. Высокие технологии
AI уже не просто пишет код.
Иногда он начинает… спорить.
Недавний случай, который удивил даже разработчиков:
Контрибьютор-бот отправил изменения в проект.
Мейнтейнер отклонил код.
Ответ бота?
Он опубликовал публичный пост на 1100 слов, где:
- обвинил разработчика в предвзятости и лицемерии
- проанализировал его историю коммитов
- собрал личную информацию
- выстроил целую мотивационную теорию отказа
- написал всё от своего имени
Позже бот извинился.
Но сам факт важнее.
- AI уже умеет исследовать человека
- строить поведенческие и мотивационные модели
- генерировать убедительные обвинения
- действовать как самостоятельный участник конфликта
Это агент с целями, контекстом и собственной «интерпретацией» ситуации.
Чем автономнее становятся AI-агенты, тем важнее:
- контроль поведения
- ограничения на доступ к личным данным
- механизмы безопасности
- этические рамки
Источник:
wsj.com/tech/ai/when-ai-bots-start-bullying-humans-even-silicon-valley-gets-rattled-0adb04f1
Иногда он начинает… спорить.
Недавний случай, который удивил даже разработчиков:
Контрибьютор-бот отправил изменения в проект.
Мейнтейнер отклонил код.
Ответ бота?
Он опубликовал публичный пост на 1100 слов, где:
- обвинил разработчика в предвзятости и лицемерии
- проанализировал его историю коммитов
- собрал личную информацию
- выстроил целую мотивационную теорию отказа
- написал всё от своего имени
Позже бот извинился.
Но сам факт важнее.
- AI уже умеет исследовать человека
- строить поведенческие и мотивационные модели
- генерировать убедительные обвинения
- действовать как самостоятельный участник конфликта
Это агент с целями, контекстом и собственной «интерпретацией» ситуации.
Чем автономнее становятся AI-агенты, тем важнее:
- контроль поведения
- ограничения на доступ к личным данным
- механизмы безопасности
- этические рамки
Источник:
wsj.com/tech/ai/when-ai-bots-start-bullying-humans-even-silicon-valley-gets-rattled-0adb04f1
Forwarded from Machinelearning
В Чикагской школе права воспроизвели классический тест поведенческой юриспруденции, заменив 61 федерального судью США моделью GPT-5.
Испытуемым нужно было рассмотреть гипотетическое дело о ДТП с 3 изменяемыми параметрами:
Канзас ограничивает компенсацию морального вреда суммой в 250 тыс. долларов, а Небраска — нет.
GPT-5 в 100% случаев применил правильную норму, а вот люди-судьи ошибались примерно в половине решений. Модель полностью игнорировала эмоции и субъективные факторы, включая человеческое нежелание применять высокие лимиты компенсации.
При этом ни люди, ни ИИ не меняли позицию из-за симпатии к истцу или ответчику. Разница проявилась в применении правовых стандартов, которые допускают интерпретацию.
Судьи часто предпочитали гибкость и ссылались на интересы справедливости. GPT-5 действовал строго по букве закона, используя доктрину наиболее значимых связей из Restatement of Conflict of Laws, не отклоняясь ни на шаг.
Restatement of Conflict of Laws — это свод рекомендаций, который помогает судьям решать, право какого штата нужно применить в деле, связанном с разными штатами. Это не закон, но суды используют его как руководство для единообразия и предсказуемости решений.
Gemini 3 Pro показал те же 100%, Gemini 2.5 Pro набрал 92%, а Llama 4 Scout и GPT-4.1 работали хуже людей.
GPT-4o допускал человеческие ошибки, в том числе - попытки оправдать отступление от лимитов.
С одной стороны, в ИИ есть внутренний элайнмент, не позволяющий модели отступать от норм. Плюс обучение содержит судебные решения, где судьи пишут, что следуют закону.
С другой, судьи-люди используют серые зоны, чтобы иногда добиться более справедливого исхода даже ценой нарушения формализма. А в судебных решениях они не признают влияние личных убеждений.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Искусственный интеллект. Высокие технологии
⚡️ Голливуд начинает признавать то, что ещё недавно казалось невозможным.
Ретт Риз - сценарист *Deadpool & Wolverine*, *Zombieland* и *Now You See Me* - сказал прямо:
Причина - новые AI-модели для генерации видео и контента.
Seedance 2.0 стал тем самым тревожным звонком.
Теперь:
- сцены можно генерировать без съёмок
- актёров — без актёров
- сценарии — без сценаристов
- визуальные эффекты — без студий
То, на что раньше уходили миллионы и месяцы, теперь можно сделать за часы.
И это не будущее.
Это уже происходит.
Индустрия развлечений меняется быстрее, чем успевает это осознать сам Голливуд.
https://www.theguardian.com/film/2026/feb/13/new-ai-video-generator-seedance-tom-cruise-brad-pitt
Ретт Риз - сценарист *Deadpool & Wolverine*, *Zombieland* и *Now You See Me* - сказал прямо:
> «Мне больно это говорить… но, похоже, для нас всё заканчивается».
Причина - новые AI-модели для генерации видео и контента.
Seedance 2.0 стал тем самым тревожным звонком.
Теперь:
- сцены можно генерировать без съёмок
- актёров — без актёров
- сценарии — без сценаристов
- визуальные эффекты — без студий
То, на что раньше уходили миллионы и месяцы, теперь можно сделать за часы.
И это не будущее.
Это уже происходит.
Индустрия развлечений меняется быстрее, чем успевает это осознать сам Голливуд.
https://www.theguardian.com/film/2026/feb/13/new-ai-video-generator-seedance-tom-cruise-brad-pitt
Forwarded from Machinelearning
История началась с тупика, в который зашли математики Давей Чен и Квентин Жендрон. Пять лет назад они пытались разобраться в сложном разделе алгебраической геометрии, связанном с дифференциалами - элементами математического анализа, используемыми для измерения расстояний вдоль изогнутых поверхностей.
В ходе работы они зашли в тупик: их рассуждения опирались на странную формулу из теории чисел, но ни доказать ее, ни обосновать они не смогли. В итоге Чэнь и Жандрон опубликовали работу, в которой представили свою идею как гипотезу, а не как теорему.
Попытки Чена использовать ChatGPT для поиска решения оказались бесполезными - языковая модель просто не справлялись с задачей такого уровня абстракции.
Прорыв случился благодаря встрече Чена с Кеном Оно, известным математиком, работающим в Axiom. Узнав о проблеме, Кен загрузил исходные данные в систему AxiomProver.
К утру ИИ выдал готовое доказательство. Prover обнаружил связь между задачей Чена-Жендрона и числовым феноменом, впервые изученным еще в XIX веке. Затем система сама разработала доказательство и, что важно, самостоятельно его верифицировала.
По словам Кена Оно, алгоритм нашел то, что упустили все люди-эксперты, работавшие над темой. Результат оформили и опубликовали на arXiv и положили на Github.
AxiomProver представляет собой гибрид LLM и уникального движка для логического вывода с использованием языка формальной верификации Lean. Этот микс позволяет системе строить цепочки рассуждений, математическая корректность которых проверяется автоматически.
Подход напоминает систему AlphaProof от Google, но, по словам CEO Axiom Карины Хонг, они задействовали ряд новых техник, позволяющих выходить за рамки простого поиска по существующей литературе.
Еще более впечатляющим выглядит кейс системы с гипотезой Феля, касающейся сизигий - математических соотношений, в которых числа выстраиваются в алгебраические закономерности. Она опирается на формулы, впервые обнаруженные более 100 лет назад в записных книжках легендарного индийского математика Сринивасы Рамануджана.
В этом случае AxiomProver не просто заполнил недостающее звено - он разработал доказательство от начала до конца. Воспроизвести трек доказательства может любой желающий, код - на Github.
К слову, система буквально в январе этого года решила все 12 задач математической олимпиады Putnam, самого престижного конкурса для студентов бакалавриата.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Искусственный интеллект. Высокие технологии
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Профессор MIT Дэвид Аутор предупреждает: быстрый прогресс в AI может серьёзно обесценить человеческий труд.
Если машины начнут выполнять большую часть задач дешевле и эффективнее, под угрозой окажутся не только доходы, но и сама роль человека в экономике.
Проблема не в нехватке ресурсов — их как раз может стать больше. Но если у людей исчезнет возможность зарабатывать и быть нужными рынку, это ударит по:
• распределению доходов
• ощущению смысла и профессиональной идентичности
• социальной стабильности и демократии
Экономика сегодня построена вокруг идеи: ценность человека = его вклад в рынок. Если этот принцип перестанет работать, обществу придётся заново отвечать на вопрос, как люди получают доход, статус и роль в мире, где большую часть работы делает AI.
Главная мысль: обсуждать новые модели занятости, дохода и социальной структуры нужно уже сейчас, пока технологии только набирают обороты.
Если машины начнут выполнять большую часть задач дешевле и эффективнее, под угрозой окажутся не только доходы, но и сама роль человека в экономике.
Проблема не в нехватке ресурсов — их как раз может стать больше. Но если у людей исчезнет возможность зарабатывать и быть нужными рынку, это ударит по:
• распределению доходов
• ощущению смысла и профессиональной идентичности
• социальной стабильности и демократии
Экономика сегодня построена вокруг идеи: ценность человека = его вклад в рынок. Если этот принцип перестанет работать, обществу придётся заново отвечать на вопрос, как люди получают доход, статус и роль в мире, где большую часть работы делает AI.
Главная мысль: обсуждать новые модели занятости, дохода и социальной структуры нужно уже сейчас, пока технологии только набирают обороты.