Сказки Дядюшки Зомбака
5.19K subscribers
1.11K photos
212 videos
7 files
602 links
СДЗ это рассказы про паранормальщину, НЛО и UAP, городские легенды и интересные истории. Всё с позиции скептика.

Меня зовут Дима Зомбак, я работаю в NASA (могу приврать). Обычно веду @zavtracast, а тут - отдыхаю душой.

Реклама: @wladeo
Download Telegram
[1/2] Моя любимая история недели: генеральный директор MUFON, Рон Джеймс, выступил тут в подкасте Vetted, где рассказал, что в распоряжение его организации попали секретные фотки сбитого НЛО.

На фото два больших дерева, огромная летающая тарелка и солдаты, которые стоят рядом (один сидит почему-то на стуле).

Собственно, MUFON это некоммерческий фонд, который объединяет в себе кучу волонтёров и подходит к идее поиска НЛО с научной точки зрения. Организация основана ещё в 1969-м году, так что за 55-летнюю историю там много всего было, но у уфологов к ней отношение прям позитивное, а-ля "единственные чуваки, которые делом заняты".
[2/2] В общем, Рон Джеймс сказал, что вот посмотрите на эти фотки, показал их в подкасте на веб-камеру, а если вы хотите узнать подробности того, как они у нас оказались и всякое другое тайное, то запишитесь на наш симпозиум в июле, билеты кстати будут чуть дороже обычного, по $100.

Это многим не понравилось, люди стали копать и обнаружили что:
- фотки эти какой-то дед в Иллинойсе в музее, посвящённом НЛО, продавал как сувениры
- деревья на заднем плане какие-то чересчур большие
- солдат сидит на тарелке на стуле, почему так?

В общем, недолгое гугление выявило, что фотка представляет собой коллаж из игрушечных нацистских солдатиков из коллекционного набора, солдатики поставлены на фрисби, которую выдают за летающую тарелку, а снято всё так, чтобы казалось, что они настоящего роста. Автору не удалось "уменьшить" деревья на заднем плане, так что родилась байка о том, что мол это всё произошло в глухом лесу, там мол деревья вот такие вот гигантские растут, ага.

MUFON от комментария пока что отказалась, но чую на их симпозиум соберётся ещё меньше народу, чем обычно.
Дайджест пачкой:

- Статья в Scientific American о том, что во всём мире, в совершенно разных средах: земле, воде, воздухе, находят странное грибное ДНК, которое не принадлежит ни к одному виду, а сам вид опознать не удаётся. The Last of Us, впрочем, не происходит, поскольку само биоразнообразие грибов настолько большое, что у учёных до сих пор нет понимания сколько их видов вообще есть, так что вся эта "тёмная грибница", как её в шутку называют, это просто неоткрытые виды. Ну, наверное.

- До учёных дошло, откуда столько "тёмной материи" в космосе (Вселенная состоит из неё и тёмной энергии на 95%). Ну, почти дошло. Авторы исследования в MIT утверждают, что её наличие можно объяснить тем, что в самые первые моменты существования Вселенной из тонн кварков и глюонов образовались миллионы бесконечно малых черных дыр. Их теория заключается в том, что после миллиардов лет после создания Вселенной, излучение Хокинга всё ещё потихоньку эти дыры испаряет и многие даже исчезли, но их всё равно остается очень и очень много. Просто они небольшие - размером с носорога или там астероид. Отсюда и избыточная масса, которую мы называем "тёмной материей".

- Ещё один пейпер, опубликованный в Physic Review, говорит о том, что времени, как фундаментального свойства пространства-времени, в принципе не существует. Время по этой теории - это иллюзия, вызванная квантовыми флуктуациями и квантовой запутанностью. Для внешнего наблюдателя такая вселенная статична. Ну, наверное. Пейпер сейчас проходит ревью, так что я бы особо это этом не задумывался.

- Старенькая статья из 2007 о том, что человечество эволюционировало от обезьян к человеку в тот самый момент, когда начало наблюдать за костром. Наблюдение за огнём (firegazing) привело к медитационным практикам, ритуалам, спиритуализации, поиску дополнительных смыслов и указаний (от "богов", а потом и от "разума"), что привело к расцвету сознания вида. Интересно, но сомнительно.
[1/10] Леопольд Ашенбреннер (Leopold Aschenbrenner), бывший сотрудник OpenAI (той самой организации, которая придумала ChatGPT), уволенный из неё в этом году вместе с Ильей Суцкевером (учёный, который топил за "безопасный ИИ") написал гигантское эссе на тему "Опасности ИИ" и грядущего 2027-го года.

Какая-то добрая душа в твиттере это эссе разобрала по полочкам и мне (и вам тоже) не придётся эту 160-страничную PDF-ку читать.

Ашенбреннеру, если что, 22 года, он молодой и, мягко говоря, совсем не его начальник Илья Суцкевер, как по опыту, так и по образу мыслей, но тоже довольно умный, так что читать это всё интересно.

Стоит только упомянуть, что уволили их со скандалом, опасаясь, что Суцкевер и компания будут вставлять палки в колёса прогресса компании OpenAI, агитируя за "разумный подход к производству ИИ", а ещё там было обвинение в "утечке данных" с их стороны, но подробностей особо нет.

Напомню, что OpenAI сейчас по сути исповедует подход "сначала деньги, а потом исследования", а на исследования AI-alignment (контроль и, грубо говоря, "моральную настройку" ИИ) им, по большому счёту, стало почти наплевать, так что увольнение этих учёных вполне себе нормальное явление для бизнеса.
[2/10] Но, возвращаясь к эссе Ашенбреннера.

- Прогресс в области ИИ:

- По его мнению, прогресс идёт очень быстро. GPT-2, которая отвечала людям на уровне ребёнка, дошла до GPT-4 всего за два года, и отвечает уже на уровне студента или даже профессора по некоторым темам.

- Следующий такой скачок прогресса ожидается в 2027-м году. Этот скачок может принести нам AGI (Artificial general intelligence, Искусственный интеллект общего назначения, его ещё называют "Слабым ИИ").

- Прогресс в области создания ИИ, по мнению Ашенбреннера, сводится к тому, что будет: больше вычислений, улучшения алгоритмов, "разбюрокрачивание" (уменьшением ограниченности моделей).

- Вычисления растут в скоростью ~0.5 порядка величин (orders of magnitude, OOM) в году. Это в три раза быстрее Закона Мура.

- Эффективность алгоритмов тоже растёт со скоростью ~0.5 OOM/год. На это часто не обращают внимания, но это также важно, как и вычисления.

- "Разбюрокрачивание" тяжело оценить, но оно тоже важно. Обучение с подкреплением на основе отзывов людей (RLHF) и подход "цепочка мыслей" (chain-of-thought reasoning) ускоряют модели.

- Ученые наблюдают 5+ порядков величин, которые вычисления получили за последние 4 года. Это ещё один скачок от gpt-2 к gpt-4.

- К 2027 году, мы можем получить модели, которые смогут работать ИИ исследователями и инженерами, а это уже AGI.

- К сожалению у нас заканчиваются данные, на которых можно обучать модели. Это может замедлить прогресс, если мы не найдём способы более эффективно использовать сэмплы данных.

- Даже если прогресс в этой области будет замедлен, создание AGI не займёт десятилетия. Вопрос должен звучать так: "2027 или 2029?" а не "2027 или 2050?".
[3/10] - Изобретение AGI:

- После того, как мы изобретём AGI, прогресс не остановится. Мы быстро получим суперинтеллект ("сильный ИИ", его идея в том, что он гораздо умнее человека).

- Мы сможем запускать миллионы копий систем AGI. Они будут вести автоматические исследования в области AGI.

- Вместо сотни исследователей в лабораториях, мы получим 100+ млн, работающих 24/7. Это позволит упаковать десятилетия прогресса в один год.

- За год мы сможем увидеть 5+ порядков величин эффективности алгоритмов. Это ещё один скачок от gpt-2 к gpt-4, вместе с AGI

- Есть и узкие горлышки, вроде ограниченной мощности вычислений для экспериментов. Но ни одно из них не замедлит прогресс настолько сильно.

- "Сильный ИИ" будет невообразимо мощным. Он будет намного намного умнее людей, а не только быстрее соображать.

- Он сможет решить нерешённые задачи науки, изобрести новые технологии, усилить экономику и военное дело.

- Экономика вырастет на 30% за год. Увеличение всех показателей вдвое за год вполне себе возможно.

- Бум суперинтеллекта и вызванные им последствия, вероятно, станут одним из самых нестабильных периодов в истории человечества.
[4/10] - Стоимость:

- Мы идём прямой дорогой к увеличению стоимости вычислений для ИИ. Кластеры для индивидуального обучения ИИ будут стоит $100+ млрд к 2028 году

- К 2030-му мы увидим кластеры стоимостью в $1+ трлн, требующие 20% всего электричества США

- Инвестиции в ИИ могут достигнуть $1трлн/год к 2027 и $8 трлн/год к 2030

- Выручка от датацентров компании NVIDIA уже превышает $90 млрд/год. Но это только начало

- Капитализация бихтеха также растёт. Microsoft и Google вложат в ИИ по $50млрд+ в 2024 году

- Выручка от ИИ также растёт. OpenAI увеличила показатели с $1млрд до $2млрд всего за 6 месяцев

- Мы увидим, как бигтех компания получит выручку от ИИ в размере $100млрд/год к 2026 году

- Электроэнергия станет главным сдерживающим фактором. Производство электроэнергии в США почти не росло в течение десяти лет.

- США могут решить эту проблему с помощью природного газа. У нас его в избытке, и мы можем быстро нарастить мощности

- Производство микросхем тоже нужно будет масштабировать. TSMC, возможно, придется построить десятки новых заводов по производству чипов стоимостью $20 млрд каждый.
[5/10] - Трудности безопасности:

- Безопасность в ИИ лабораториях оставляет желать лучшего. Мы передаём секреты создания AGI китайцам на блюдечке с голубой каёмочкой.

- Секреты алгоритмов стоят в 10 раз больше, чем вычисления. Они постоянно утекают.

- Важно защищать и "веса" (weight) моделей (это параметры, которые нейронные сети используют для обучения и предсказания. Модели могут быть выложены публично, но без "весов" они почти бесполезны, надо потратить много времени на обучение и настройку "весов"). Их воровство может помочь всем остальным быстро догнать лидера.

- Нам нужен правительственный уровень безопасности для AGI. Частные компании не смогут бороться с государственными угрозами.

- Нужны датацентры, защищённые от внешнего доступа, с экстремальной проверкой, работающие из SCIF (помещениях с уровнем проверки секретности) и так далее.

- Да, это замедлит в каком-то смысле исследования, но это необходимо. Государственные интересы важнее, чем интересы лаборатории по изучении ИИ быть "на переднем крае науки".

- Если мы не исправим это в течении ближайших двух лет, мы скорее всего сольём все наработки в области AGI Китаю.

- Это, возможно, самая важная вещь, которую мы должны сделать сегодня, чтобы внедрение AGI прошло успешно.
[6/10] - Трудности: Проблема контроля искусственного интеллекта (superalignment)

- Контролировать ИИ-системы, которые намного умнее нас, пока нельзя, это нерешённая задача. Сегодняшние техники контроля не смогут с ним совладать.

- Обучение с подкреплением на основе отзывов людей (RLHF) работает прекрасно, но будет опознано суперинтеллектуальными ИИ-системами.

- Нам нужно решить проблему "передачи доверия". Как сделать так, чтобы сверхчеловеческие ИИ делали то, что мы от них хотим?

- Есть несколько перспективных направлений исследований в этой области, таких как "масштабируемый надзор" (scalable oversight) и исследование обобщений (generalization studies).

- Чтобы не отставать от возможностей ИИ в вопросах своего обучения, нам, скорее всего, придется автоматизировать сами исследования по его контролю.

- Скачок в области прогресса сверхинтеллекта сделает эту ситуацию чрезвычайно напряженной. Мы можем перейти от уровня человека к уровню сверхчеловека за несколько месяцев.

- Нам нужны многочисленные уровни защиты, помимо простого контроля и моральных норм, такие как безопасность, мониторинг и целевое ограничение возможностей ИИ.

- Для того чтобы сделать все правильно, потребуется исключительная компетентность и готовность идти на сложные компромиссы.

- Мы не готовы к этому настолько, насколько должны быть готовы. Мы слишком полагаемся на удачу.
[7/10] - Трудности: Свободный Мир должен победить

- Создание "сильного ИИ" даст колоссальное военное преимущество. Это будет как скачок от обычного к ядерному оружию.

- Китай не стоит списывать со счетов. У них есть четкое видение как быть конкурентоспособными.

- Китай скорее всего сможет соперничать с нами в области вычислений. Они уже показали производство 7нм чипов.

- Китай может превзойти нас по добыче энергии. Они увеличили своё производство электроэнергии вдвое за последние десять лет, в то время как США не делали ничего.

- Если мы не улучшим безопасность, Китай сворует секреты наших алгоритмов.

- Авторитарное правительство, получившее в своё распоряжение суперинтеллект будет катастрофой для свободы и демократии.

- Сохранение здорового отрыва в ИИ-гонке имеет решающее значение для безопасности. Если они будут к нам слишком близко, мы столкнёмся с рисками "срезания углов" и тому подобных аварий.

- Нам нужно опережение их на 1-2 года, а не на 1-2 месяца, чтобы иметь запас для обеспечения собственной безопасности.

- США должны рассматривать это как приоритет национальной безопасности. Пока мы не относимся к этому достаточно серьезно.
[8/10] - Проект (The Project):

- Правительство США скорее всего свяжется с разработкой AGI к 2027/2028 годам

- Мы увидим, скорее всего, какой-то "Манхэттенский Проект в области AGI"

- Частные компании не смогут справится с последствиями внедрения суперинтеллекта для национальной безопасности

- Нам нужно участие государства в безопасности, охраны, стабилизации международных отношений и тому подобного

- Это не означает национализацию. Это может быть похоже на отношения между Минообороны и его подрядчиками по созданию и по внедрению AGI.

- Конгрессу, скорее всего, придется выделить триллионы на чипы и на развитие энергетики.

- Вероятно, будет создана коалиция демократических стран для совместного развития суперинтеллекта.

- Прикладное применение этой технологии будет процветать, подобно тому, как ядерная энергия последовала за ядерным оружием.

- Основная команда исследователей AGI, вероятно, переедет в скрытое безопасное место к 2027 году. Кластер для обучения AGI стоимостью триллион долларов будет строиться с рекордной скоростью.
[9/10] - Если мы правы обо всём этом, что мир сильно изменится к концу 2030-х.

- Мы должны смотреть на всё с позиции "AGI реалиста". Осознать силу и опасность технологии, обеспечить лидерство США и серьезно относиться к безопасности.

- Мы обязаны нашим миром и свободой американскому экономическому и военному превосходству. Мы должны поддерживать его и далее с помощью AGI.

- Самый большой риск может заключаться в том, что суперинтеллект позволит создать новые средства массового уничтожения, которые получат широкое распространение.

- Нам необходимо здоровое лидерство демократических союзников, чтобы иметь хоть какую-то надежду на безопасное преодоление предстоящих вызовов.

- Это, вероятно, будет одна из самых нестабильных международных ситуаций за всю историю человечества. Стимулы для первого удара могут быть огромными.

- Есть нечто жуткое в том, что создание AGI (~2027 год) совпадает по срокам потенциального вторжения Китая на Тайвань.

- Нам нужно быстро закрыть лаборатории по разработке ИИ, пока не произошла утечка информации о ключевых прорывах в ближайшие 12-24 месяца.

- Мы должны создавать вычислительные кластеры в США, а не в диктаторских государствах, предлагающих легкие деньги.

- Американские ИИ-лаборатории обязаны сотрудничать со спецслужбами и военными. Мы должны создавать ИИ для обороны.

- Следующие несколько лет в области ИИ будут похожи на ковид в начале 2020 года. Большинство не заметит этого, а затем всё изменится очень и очень быстро.

- К 2025/2026 годам ИИ будет приносить бигтеху более $100 млрд годового дохода. Мы увидим оценки и в $10 трлн.

- К 2027/2028 году начнут появляться полноценные агенты ИИ, автоматизирующие разработку программного обеспечения и другие рабочие места.

- Консенсус о том, что мы находимся на пороге создания AGI, будет формироваться по мере того, как эмпирические результаты будут продолжать шокировать людей.

- Мы, вероятно, увидим первые демонстрации действительно ужасающих возможностей ИИ, например, помощь в создании биооружия.

- Где-то в 2026/2027 годах настроение в Вашингтоне станет мрачным, поскольку люди начнут осознавать происходящее.

- "Проект" столкнется с огромными проблемами: быстрое создание AGI, противостояние Китаю, управление миллионами ИИ, предотвращение катастрофы.

- Кто бы ни был назначен его руководителем, ему предстоит одна из самых сложных задач в истории человечества.

- Если мы справимся, это будет самое важное, что мы когда-либо делали.

- Ставки тут не меньше, чем выживание свободы и демократии, а возможно, и выживание самого человечества.

- Мы должны относиться к возможности спонтанного появления суперинтеллекта так же серьезно, как ученые относились к возможности цепных ядерных реакций. Никто не верил Лео Силарду насчет них. А мы не можем допустить такой же ошибки с AGI.

- Мы разрабатываем самую мощную технологию, когда-либо созданную человечеством. Мы должны относиться к ней именно так.

- Практически все остальное, что мы делаем, не будет иметь значения, если мы не обеспечим безопасность и надежность AGI.

- Все это произойдет, хотим мы этого или нет. Вопрос только в том, будем ли мы готовы.

- Нам необходимо массовое увеличение усилий по исследованию контроля ИИ, обеспечению безопасности и подготовке к предстоящим вызовам.

- Правительство должно проснуться и начать относиться к этому как к приоритету национальной безопасности.

- Мы должны быть готовы пойти на жесткие компромиссы, например, использовать природный газ для производства электроэнергии, даже если это противоречит климатическим целям.

- Экспоненциальный рост сейчас в самом разгаре. 2023 год - это год "пробуждения ИИ". Теперь приготовьтесь к болтанке.

- Самое ошеломляющее ускорение технокапитала в истории приведено в движение. Следующие несколько лет будут дикими.
[10/10] Ну, что тут можно сказать.

Отвлекусь от страшилок про ИИ и страшный Китай тем, что недавно слушал очередной говноподкаст про НЛО, где выступал бывший аналитик ЦРУ Джон Рамирез (работал он там с 1984 по 2009-й). Там он обмолвился мол, настоящее раскрытие информации (disclosure) состоится в 2027-м году.

Почему именно этот год, он не уточнил, да и в целом Джону Рамирезу верить не стоит, но есть нюанс.

С этим "две тыщи двадцать седьмым" уфологи носятся как с писаной торбой, постоянно упоминают в подкастах 2-0-2-7 как мантру, гадают на кофейной гуще, что тогда произойдёт, прилетит ли мазершип с Трисоляриса, высадится ли тарелка перед Белым Домом, выскочат ли из "тиктака" Серые, проявит ли себя из параллельного измерения архангел Рамииль и так далее.

Я буквально последние полгода в каждом втором посте вижу упоминание 2027-го года и у меня уже реакция такая: если кто-то упоминает, что в 2027 что-то произойдёт, то это стопудово враньё.

И весьма забавно читать страшилку про ИИ в контексте этого года.

Спешу вас немного успокоить: Леопольд Ашенбреннер и его начальник Илья Суцкевер сильно верят в создание AGI.

А вот другие исследователи ИИ в это не сильно-то и верят. Вот Axios, пишет, к примеру, что "по мнению экспертов, проблема "искуственного интеллекта" не может и не решается одними только нейросетями".

Тот ИИ, с которым вы привыкли общаться (будь то Алиса, Claude, ChatGPT или любая другая LLM) строго говоря "ИИ" не является. Это просто весьма продвинутый алгоритм предикативного ввода, который печатает вам буковки на экране или же озвучивает их голосом. Он не "думает" и не "размышляет", он делит ранее предоставленную ему информацию (возможно, всю википедию или весь интернет разом) на маленькие кусочки (токены), а потом из этих кусочков создаёт что-то новое - например, пишет ответ на ваш вопрос.

Поэтому создание даже "слабого ИИ", который думает на самом деле, это святой Грааль современных ИИ-стартапов.

А проверка реальности простая: Ашенбреннер, питающий свои идеи в движении за эффективный альтруизм, является инвестором в технологии ИИ. Так что он не является незаинтересованной стороной. Ему выгодно говорить о том, как ИИ изменит мир и как надо срочно строить триллиардные кластеры.

Он считает, что AGI неизбежно разовьется из сегодняшних языковых моделей и ботов. Но, по общему мнению экспертов, этого может и не произойти. Консенсус такой, что ИИ может решить многие задачи человечества и действительно важен для экономики и промышленности. Но то, куда он направляется сейчас, показывает, что создание AGI в целом не имеет большого смысла для человечества в целом. Проще говоря, нам не нужен "суперинтеллект", превосходящий нас, нам нужен "интеллект примерно на нас похожий", который мы могли бы контролировать и, если что, дообучать или переучивать, а то и выключить в любой момент.

Так что успокаиваемся и идём пить чай, всё не так уж и страшно.

Ну.

Наверное.

Узнаем в 2027-м.
Forwarded from Denis Sexy IT 🤖
В Nature вышла интересная статья (pdf), в ней рассматрели «человеческий язык» как инструмент для передачи информации и пришли к выводу, что это клевый способ для коллаборативной работы нас как вида (и шитпоста в интернете), но язык не нужен мозгу для «мыслительного процесса»

Я никогда не задумывался, как выглядит «мысль» если исключить из нее «язык», поэтому вот пару интересных наблюдений из статьи о том как устроен процесс мышления:

1. Мысли, вероятно, опираются на абстрактные, неязыковые ментальные представления. Это могут быть визуальные, пространственные или другие специфические представления под конкретные задачи и концепции. Как человек, который в любой момент времени может вспомнить любой маршрут по которому я ходил где-то и был трезвый, могу сказать что все так, у меня «карта местности» просто существует в виде образа в голове, как оказалось, так не у всех

2. В голове есть ансамбль нейронок — в статье упоминается несколько «мозговых сетей», участвующих в различных задачах:

— Есть нейронка «множественных требований» для целенаправленного поведения и решения новых задач, она поощряет находчивость при решении проблем, активируется при выполнении когнитивно сложных задач, особенно тех, которые требуют гибкого мышления и адаптации к новым ситуациям. Она же отвечает за планирование и рабочую память;

— Есть нейронка «теории разума» или «эмпатии»: для социального рассуждения и понимания психических состояний – мыслей, чувств, убеждений и намерений других людей. Это та, которая у нас уже хуже чем в GPT4o;

— Есть «Дефолтная нейронка», активируется когда мозг в покое – связана с кучей когнитивных штук, включая: способность мысленно перемещаться во времени (вспоминая прошлое или представляя будущее), пространственное познание, размышление о себе, своих чертах и опыте. Интересно, что повреждение это "сетки" ведет к депрессии или даже шизофрении (в теории).

3. Символическое мышление может происходить без языка как инструмента. Это означает, что мозг может манипулировать абстрактными символами или концепциями, не опираясь на слова или грамматические структуры. Условно, когда вам что-то «пришло в голову из неоткуда», это этот эффект.

4. Рассуждение по специфичным задачам — разные типы мышления (математические, социальные, пространственные и т.д.), по-видимому, задействуют разные мозговые «нейронки», что предполагает, что процессы мышления могут быть в некоторой степени модульными и специфичными для конкретных задач; это как если бы у одной мощной LLM было много Lora натренированных на конкретных задачах датасета, а не единая модель для решения всех задач.

5. Параллельная обработка — все эти «нейронки» для решения специфичных задач (социальные, причинно-следственные, решение проблем и т.д.) могут работать параллельно, получая при этом информацию с разных «сенсоров» тела, а не определяться единой системой, такой как язык.

6. Мы сильно похожи на животных — в статье упоминается непрерывность человеческой эволюции, предполагая, что наши процессы мышления могут быть более похожими на процессы мышления других животных, чем считалось ранее, просто они оказались более сложными из-за наших расширенных когнитивных способностей. То есть, условная собака может оказаться намного ближе к нам по процессу мышления чем мы раньше думали.

7. Культура развивает мышление — хоть это и не прямой механизм мышления, в статье упоминается что передача культурных знаний от поколения в поколение, повышает когнитивные способности человека с течением времени, это уже влияние языка как инструмента.


Короче, все еще ничего не понятно — но на всякий случай продолжайте тренировать лоры ☕️
Please open Telegram to view this post
VIEW IN TELEGRAM
Дайджест:

- Ученые нашли мох, который может выжить в атмосфере Марса (а ещё в Антарктике). Его планируют добавить в следующие марсианские миссии чтобы проверить, выживет ли он при таких температурах, перепадах давления и радиации.

- Телеканал CBS Boston взял интервью у профессора антропологии Montana Technological University, Майкла Мастерса, где тот рассказывает про своё исследование феномена UAP в контексте криптотеррестриалов и того, что "они ходят среди нас, замаскированные". Смотрится хорошо, правда, ничего нового, это просто его теоретические измышления, а не какое-то прям исследование с большой буквой И. Пре-принт тут (сорян за ресёрчгейт), а интервью тут.

- Интервью с морпехом Майклом Херрерой, который в 2006-м году на задании в Индонезии видел некое пирамидальное НЛО, в которое военные грузили какой-то груз. Его подразделение задержали люди в черной форме без опознавательных знаков, продержали пару часов под дулами автоматов, а потом почему-то отпустили. Интервью тут.

От себя отмечу, что Херрера несёт такой бред местами, что его бывший командир по имени Нейтан пришёл в другой подкаст и рассказал что Херреру постоянно ловили на вранье и уволили из морпехов с позором и никакого НЛО они тогда в Индонезии не видели, а если даже и видели, то лучше бы о нём Херрера помалкивал.

Самое смешное, что Херрера сам считает, что "это не пришельцы", а правительственные сверхсекретные технологии, так что не очень понятно, почему его командир так порвался.

- SOL Foundation Гарри Нолана опубликовали заявление о том, что UAP вредят здоровью людей и надо чтобы правительство США с этим начало бы разбираться. Все риски, перечисленные в статье, строго говоря, гипотетические. Ну там "возможно, радиация, возможно, микроволны, возможно, другие инвазивные биологические эффекты".

- Последнее - это статья с BBC из 2018 года, когда умер знаменитый профессор физики Стивен Хокинг. За 10 дней до его смерти он вместе с коллегой-физиком Томасом Хертогом успел опубликовать научную статью (см.) в которой утверждалось, что мультивселенная существует. Правда, по Хокингу выходит, что мультивселенная конечна, а не бесконечна, как фрактал. То есть, какое-то количество (возможно очень большое) параллельных вселенных существует, но все они это только те вселенные, где законы физики точно такие же, как и у нас.
Это, скорее всего, совсем утонет в новостном потоке на фоне новостей про покушение на Дональда Трампа, но тут сенатор Шумер снова выкатил свою поправку к законопроекту об оборонном бюджете США на 2025-й год.

В прошлом году он тоже свою поправку про UAP выкатывал, но тогда её не приняли, может быть, её примут в этом (если бюджет будет подписан, то это случится уже в декабре этого года).

В “поправке Шумера” указывается, что правительство США должно собрать комиссию, которая, собрав все необходимые документы и данные, решит надо ли делать публичный disclosure о феномене и если да, то когда.

А все известные инопланетные материалы, корабли и тому подобное должны быть переданы правительственной комиссии. Также должны быть рассекречены все материалы про NHI и UAP до 1999 года (в следующем году, соответственно, с 2000, ещё через год - с 2001 и так далее).

Ещё там есть упоминание термина NHI это теперь у нас такое: “Нечеловеческий интеллект" означает любую разумную нечеловеческую форму жизни, независимо от её природы или конечного происхождения, которая может быть предположительно ответственна за неопознанные аномальные явления или же о которой стало известно федеральному правительству”.

В качестве необходимости такой поправки в закон указывается, что “легализация необходима, поскольку достоверные свидетельства и свидетельские показания указывают на то, что в федеральном правительстве существуют записи о неопознанных аномальных явлениях, которые не были должным образом рассекречены или же подлежат обязательному рассмотрению на предмет своего рассекречивания, частично из-за исключений, предусмотренных Законом об атомной энергии 1954 года, а также слишком широкой интерпретации ответственными лицами "засекреченной иностранной ядерной информации", которая была также освобождена от обязательного рассекречивания, что предотвращало тем самым публичное раскрытие информации о явлении в соответствии с существующими положениями закона”.

Что тут можно сказать. Шумер молодец, только вот боюсь в декабре в США будет совсем не до disclosure, но посмотрим.
Forwarded from Zavtracast (Dmitriy Zombak)
Самое весёлое по сегодняшнему шатдауну компьютеров по всему миру из-за апдейта софта для кибербезопасности CrowdStrike:

17 часов назад на сабреддите /r/WallStreetBets (где делают прогнозы на финансовые рынки) появился пост от анонима, где утверждалось, что акции CrowdStrike надо срочно сливать и компания-де не может стоить свои 83 млрд долларов капитализации.

В качестве обоснования аноним написал так:

- обычно корпорации покупают софт для кибербезопасности чтобы пройти аудит от государства, какой софт им покупать без разницы, CrowdStrike просто самый популярный.

- при этом, сами корпорации могут покупать CrowdStrike чтобы следить за собственными сотрудниками (CrowdStrike работает как руткит, по сути он даёт полные права в системе и позволяет делать с корпоративным ноутбуком или ПК что угодно - удалённо копировать/стирать с него данные, перезагружать, делать скриншоты и видео).

- сама компания CrowdStrike может следить за своими клиентами и втихушку подворовывать их данные (при этом, в лицензионном соглашении есть пункт что данные можно "продавать третьим лицам").

- CrowdStrike может выступать в качестве пропагандистского подразделения правительства США, создавая «фальшивые истории о хакерских взломах», которые невозможно опровергнуть.

- если компания не дай бог нарушает закон и пытается это скрыть, то данные, собранные CrowdStrike, могут использоваться как обоснование для судебных исков от ФБР или АНБ (о чём главы компаний, устанавливающих софт для кибербезопасности, чтобы пройти аудит, часто просто не знают, ибо думают, что их данные надёжно защищены, а CrowdStrike это такой "типа антивирус").

- CrowdStrike использует принцип "безопасность через незнание", исходный код продукта закрыт, как он работает никто, кроме самой компании, не знает, технический аудит не проводился. В качестве меры безопасности уверяется, что софт "защищает вашу компанию через облако". Как это облако работает никто не знает.

Спустя пять часов после публикации этого поста (где комментарии были вида "лол чел да ты параноик", "это же просто софт", "что за бред я прочитал") CrowdStrike выкатил файлик с неправильным апдейтом на свой софт и тот и положил ядро винды на компьютерах по всему миру.

Ещё из весёлого: в твиттере и тиктоке выступил некий мужчина, который уверяет, что его вчера наняли на работу сисадмином в CrowdStrike, он "оптимизировал софт", выкатил его на прод (проверив на своём ПК, где "всё работало"), а сегодня его уволили. Это история, скорее всего фейк.

@zavtracast