Снова новости пачкой:
- Ученые из института Макса Планка, физики из Потсдама, и пара математиков написали пре-принт научной статьи о том, что с помощью детектера гравитационных волн можно искать "схлопывание" варп-пузыря от варп-двигателей потенциальных инопланетян. Если мы такое "схлопывание" найдём, то оно-де точно искусственное, а значит инопланетяне в нашей галактике есть, давайте срочно искать. Ну, давайте.
- Профессиональное издание Journal of Air Transport Management, которое выпускается специально для пилотов самолётов, диспетчеров и тому подобных людей, написало в своём 119-м выпуске о том, что UAP добавили в симулятор самолёта Airbus, чтобы тренировать пилотов реагировать на них. Плюс, добавили обманки. В результате 408 пилотов, которые проходили этот тренинг, успешно обманулись. Издание делает неутешительный вывод, что когда пилот настроен на то, чтобы видеть в обычных вещах ненормальщину - он её обязательно увидит. Подробностей немного, сама статья под пейволлом.
- пилот Райян Грейвс (который "Американцы за безопасную авиацию" и который вместе с Дэвидом Грашем выступал в конгрессе, рассказывая про "куб внутри сферы") зачем-то пришёл на телеканал History в шоу Skinwalker Ranch. Если кто не знает, это чистой воды развлекательное шоу, где люди на ранчо ищут инопланетян, да всё никак не найдут. И там вся движуха часто объясняется призраками, полтергейстом и тому подобным бредом. Зачем Грейвс туда пошёл не очень ясно, видимо его позвали местные звёзды, но вообще это немного накладывает на все его официальные заявление отпечаток пиздежа. Обнаружил этот факт опять журналист New York Post Стивен Гринстрит, которого уфологи просто ненавидят лютой ненавистью (он считает абсолютно весь феномен UAP хуйней собачьей ну и в таком духе действует последние два года).
- таблоид Sunday World (желтушный как гепатит) вспомнил о своём интервью с ирландцем Патриком Джексоном (Patrick Jackson), который живёт в Кэмбридже. В общем, в прошлом году, этот самый Патрик утверждал, что UAP это "древняя система защиты планеты", такая оборонная сеть из шариков поменьше, шариков побольше и совсем больших шариков жесть, которые летают в форме треугольника, чтобы "не допустить" и "не пущать" других инопланетных гадов на нашу планету. Сбитые или подобранные людьми шарики это как раз результат этой деятельности. В общем, история Джексона прошла почти незамеченной, если бы в этом году Sunday World не получил комментарий от профессора патологий медицинской школы Стэнфорда, Гарри Нолана (того самого), который подтвердил таблоиду, что "в идеях Джексона много правды и вообще это стоит расследовать".
Сам Джексон придерживается идеи криптотеррестриалов, то есть инопланетян, которые скрываются на Земле от людей (возможно, даже прикидываясь ими), а "оборонная сеть планеты" это чистой воды ИИ-дроны. Также Джексон уверяет, что сферы общаются на частоте 1.6Ghz, что вторит заявлениям людей из того самого шоу Skinwalker Ranch. Молодцы какие все.
Вот и всё на сегодня.
- Ученые из института Макса Планка, физики из Потсдама, и пара математиков написали пре-принт научной статьи о том, что с помощью детектера гравитационных волн можно искать "схлопывание" варп-пузыря от варп-двигателей потенциальных инопланетян. Если мы такое "схлопывание" найдём, то оно-де точно искусственное, а значит инопланетяне в нашей галактике есть, давайте срочно искать. Ну, давайте.
- Профессиональное издание Journal of Air Transport Management, которое выпускается специально для пилотов самолётов, диспетчеров и тому подобных людей, написало в своём 119-м выпуске о том, что UAP добавили в симулятор самолёта Airbus, чтобы тренировать пилотов реагировать на них. Плюс, добавили обманки. В результате 408 пилотов, которые проходили этот тренинг, успешно обманулись. Издание делает неутешительный вывод, что когда пилот настроен на то, чтобы видеть в обычных вещах ненормальщину - он её обязательно увидит. Подробностей немного, сама статья под пейволлом.
- пилот Райян Грейвс (который "Американцы за безопасную авиацию" и который вместе с Дэвидом Грашем выступал в конгрессе, рассказывая про "куб внутри сферы") зачем-то пришёл на телеканал History в шоу Skinwalker Ranch. Если кто не знает, это чистой воды развлекательное шоу, где люди на ранчо ищут инопланетян, да всё никак не найдут. И там вся движуха часто объясняется призраками, полтергейстом и тому подобным бредом. Зачем Грейвс туда пошёл не очень ясно, видимо его позвали местные звёзды, но вообще это немного накладывает на все его официальные заявление отпечаток пиздежа. Обнаружил этот факт опять журналист New York Post Стивен Гринстрит, которого уфологи просто ненавидят лютой ненавистью (он считает абсолютно весь феномен UAP хуйней собачьей ну и в таком духе действует последние два года).
- таблоид Sunday World (желтушный как гепатит) вспомнил о своём интервью с ирландцем Патриком Джексоном (Patrick Jackson), который живёт в Кэмбридже. В общем, в прошлом году, этот самый Патрик утверждал, что UAP это "древняя система защиты планеты", такая оборонная сеть из шариков поменьше, шариков побольше и совсем больших шариков жесть, которые летают в форме треугольника, чтобы "не допустить" и "не пущать" других инопланетных гадов на нашу планету. Сбитые или подобранные людьми шарики это как раз результат этой деятельности. В общем, история Джексона прошла почти незамеченной, если бы в этом году Sunday World не получил комментарий от профессора патологий медицинской школы Стэнфорда, Гарри Нолана (того самого), который подтвердил таблоиду, что "в идеях Джексона много правды и вообще это стоит расследовать".
Сам Джексон придерживается идеи криптотеррестриалов, то есть инопланетян, которые скрываются на Земле от людей (возможно, даже прикидываясь ими), а "оборонная сеть планеты" это чистой воды ИИ-дроны. Также Джексон уверяет, что сферы общаются на частоте 1.6Ghz, что вторит заявлениям людей из того самого шоу Skinwalker Ranch. Молодцы какие все.
Вот и всё на сегодня.
[1/3] Вы наверняка знаете, кто такой Палмер Лаки, но давайте я всё же распишу.
Палмер Лаки это мужик, который основал Oculus VR и сделал первый нормальный консьюмерский VR-шлем Oculus Rift (а также засветился на обложке журнала Time, над которой абсолютно все смеялись в 2015 году). Компанию Oculus VR Лаки продал фейсбуку за пару лярдов долларов (из этого и видения Цукера "все сейчас будут в VR-шлемах сидеть" родилась Meta, запрещённая в РФ, но это вы и так знаете). Палмера Лаки нельзя недооценить, он сделал для VR больше, чем все остальные инженеры его компании - он вывел VR в мейнстрим.
В общем, после своего интернет-позора, Лаки ушёл сначала в политику (задонатив Трампу 10 тысяч баксов, что резко не понравилось лево-либеральной когорте разработчиков, что с ним в тот момент работали), потом в судебные тяжбы с ZeniMax (те считали что он своровал их технологию), а потом и вляпавшись в скандал с Цукербергом (который, судя по материалам The Wall Street Journal, топил за то, чтобы Палмер Лаки публично призвал голосовать за либертарианского кандидата Гэри Джонсона, а Лаки упёрся и топил за Трампа). В общем, Цукер Лаки уволил, а Палмер с ним судился за то чтобы вернутся - но всё дело замяли и разошлись (а Цукер и тогдашний CTO меты Эндрю Босворт вообще писали в твиттере, что мол "мы его уволили не из-за его политических пристрастий", чем тоже разожгли мини-скандальчик на тему "а так ли это на самом деле").
Короче в 2017 Палмер Лаки встал перед выбором - что делать дальше? Он всю жизнь любил видеоигры и компьютеры (однажды даже ремонтировал айфоны чтобы собрать денег на покупку шести мониторов для своего ПК), а VR это для него было делом всей жизни (свой первый VR-шлем он собрал в 16 лет). И тогда он решился и пошёл в дроностроительство и квадрокоптероёбство.
Он основал Anduril Industries, компанию, которая совместно с бывшими военными и участниками компании Palantir (те занимались слежкой и работали совместно с полицией), делала квадрокоптеры и системы распознавания лиц. Причём, госконтракты компания получила моментально.
Спустя всего год, в 2018-м году дроны компании Anduril уже летали над мексиканской границей США и помогали искать наркоторговцев. В 2020-м Anduril заключила контракт с Минобороны США на производство Advanced Battle Management Systems (ABMS), это такая Продвинутая Система Управления Боем, по сути "интернет вещей", но для военных. Данные сенсоров с разных систем поступали в единый центр обработки данных и это создавало общую картину боя для военных. Это произвело большое впечатление на веонных и Anduril заключила миллиардный контракт с SOCOM, а позднее и Австралийским ВМФ на внедрение своих систем датчиков, квадрокоптеров и ПО. А ещё они проектируют ИИ. И, в отличие от новомодных OpenAI, гугла и фейсбука, они проектируют свой ИИ для военных нужд, а не гражданских. Месяц назад Anduril представила свой РЭБ Pulsar, которая управляется нейросетью, а про дрон Roadrunner, который летит на сверхзвуке вы, наверное, и так слышали.
В общем, к чему это я.
Несмотря на то, что Палмер Лаки выглядит и говорит как ебанько (как-то раз он ляпнул, что хотел бы сделать VR-шлем, как в аниме Sword Art Online, в котором если умираешь в игре, то умираешь и в реальной жизни), он достаточно талантливый и продвинутый инженер, просто со странностями.
И его наработки и наработки его компании (что даже более важно) отлично ценятся правительством США и военными. А компания Anduril гораздо более технологически продвинутая, чем Oculus или же фейсбук, потому что стоит буквально на переднем крае науки сенсоров - она их разрабатывает и внедряет.
Вернёмся к нашей теме.
Палмер Лаки это мужик, который основал Oculus VR и сделал первый нормальный консьюмерский VR-шлем Oculus Rift (а также засветился на обложке журнала Time, над которой абсолютно все смеялись в 2015 году). Компанию Oculus VR Лаки продал фейсбуку за пару лярдов долларов (из этого и видения Цукера "все сейчас будут в VR-шлемах сидеть" родилась Meta, запрещённая в РФ, но это вы и так знаете). Палмера Лаки нельзя недооценить, он сделал для VR больше, чем все остальные инженеры его компании - он вывел VR в мейнстрим.
В общем, после своего интернет-позора, Лаки ушёл сначала в политику (задонатив Трампу 10 тысяч баксов, что резко не понравилось лево-либеральной когорте разработчиков, что с ним в тот момент работали), потом в судебные тяжбы с ZeniMax (те считали что он своровал их технологию), а потом и вляпавшись в скандал с Цукербергом (который, судя по материалам The Wall Street Journal, топил за то, чтобы Палмер Лаки публично призвал голосовать за либертарианского кандидата Гэри Джонсона, а Лаки упёрся и топил за Трампа). В общем, Цукер Лаки уволил, а Палмер с ним судился за то чтобы вернутся - но всё дело замяли и разошлись (а Цукер и тогдашний CTO меты Эндрю Босворт вообще писали в твиттере, что мол "мы его уволили не из-за его политических пристрастий", чем тоже разожгли мини-скандальчик на тему "а так ли это на самом деле").
Короче в 2017 Палмер Лаки встал перед выбором - что делать дальше? Он всю жизнь любил видеоигры и компьютеры (однажды даже ремонтировал айфоны чтобы собрать денег на покупку шести мониторов для своего ПК), а VR это для него было делом всей жизни (свой первый VR-шлем он собрал в 16 лет). И тогда он решился и пошёл в дроностроительство и квадрокоптероёбство.
Он основал Anduril Industries, компанию, которая совместно с бывшими военными и участниками компании Palantir (те занимались слежкой и работали совместно с полицией), делала квадрокоптеры и системы распознавания лиц. Причём, госконтракты компания получила моментально.
Спустя всего год, в 2018-м году дроны компании Anduril уже летали над мексиканской границей США и помогали искать наркоторговцев. В 2020-м Anduril заключила контракт с Минобороны США на производство Advanced Battle Management Systems (ABMS), это такая Продвинутая Система Управления Боем, по сути "интернет вещей", но для военных. Данные сенсоров с разных систем поступали в единый центр обработки данных и это создавало общую картину боя для военных. Это произвело большое впечатление на веонных и Anduril заключила миллиардный контракт с SOCOM, а позднее и Австралийским ВМФ на внедрение своих систем датчиков, квадрокоптеров и ПО. А ещё они проектируют ИИ. И, в отличие от новомодных OpenAI, гугла и фейсбука, они проектируют свой ИИ для военных нужд, а не гражданских. Месяц назад Anduril представила свой РЭБ Pulsar, которая управляется нейросетью, а про дрон Roadrunner, который летит на сверхзвуке вы, наверное, и так слышали.
В общем, к чему это я.
Несмотря на то, что Палмер Лаки выглядит и говорит как ебанько (как-то раз он ляпнул, что хотел бы сделать VR-шлем, как в аниме Sword Art Online, в котором если умираешь в игре, то умираешь и в реальной жизни), он достаточно талантливый и продвинутый инженер, просто со странностями.
И его наработки и наработки его компании (что даже более важно) отлично ценятся правительством США и военными. А компания Anduril гораздо более технологически продвинутая, чем Oculus или же фейсбук, потому что стоит буквально на переднем крае науки сенсоров - она их разрабатывает и внедряет.
Вернёмся к нашей теме.
[2/3] Палмер Лаки сходил тут на подкаст ютубера Логана Пола (напомню, что недавно к Полу приходил Трамп). Рекламировал он там свою портативную консоль Chromatic, а обсуждали они, в основном, политику. Но помимо этого, Лаки 10 минут рассуждал на тему того, что же такое UAP и как его Anduril Industries может с этим помочь.
Краткая выдержка такая:
- если UAP наблюдает один человек или один пилот, то "это фигня". UAP надо наблюдать "мультимодальным массивом сенсоров".
- под мультимодальностью Палмер понимает разные виды сенсоров, которые захватывают разные данные. Так, ИК-сенсор захватывает одну часть спектра, тепловизор - другую, ночное видение - третью, звуковой сенсор - это вообще другая модальность и так далее. Показания свидетелей - это только одна из модальностей, но её одну в расчёт брать ни в коем случае не надо.
- по его мнению, потенциальные противники США легко могут "глушить" одну из модальностей, а вот несколько обмануть будет сложно.
- нужно сосредоточится на создание систем, которые захватывают UAP с разных точек зрения и камерами и микрофонами и радарами и всем подряд. Только тогда можно понять, что же такое UAP.
- по его словам, даже Anduril не может сделать такой квадрокоптер, который наблюдали пилоты и нет, UAP это не квадрокоптеры в его понимании.
- сам Палмер считает, что "ответ гораздо сложнее, чем мы думаем" и вообще в этом деле "есть свой плот-твист", проще говоря, он не верит в инопланетян, но охотно допускает, что UAP могут быть:
а) паранормальными явлениями
б) людьми из будущего
в) сущностями из параллельного измерения
г) криптотеррестриалами
д) эхом "echoes" от работающего варп-двигателя (это что-то новенькое)
е) чем-то иным.
- также Палмер считает, что сама концепция "пришельцев" очень тупая, потому что лететь далеко и в целом не очень нужно. Тут я с ним солидарен.
- он приводит пример с книгой "Сфера" Майкла Крайтона (не путать с фильмом, тот по мотивам). В книге нашли невероятно древнюю непонятную сферу в глубине океана, думали это инопланетный корабль, подняли, стёрли с неё грязь, а там флаг США. Как так вышло? Да просто в будущем в США изобрели путешествия во времени, а сферу забросили в далёкое прошлое Земли, вот она и пролежала пару тысяч лет на дне океана.
- "Что мешает UAP быть тем же самым"?, - вопрошает Лаки, - "Типа это правительственные разработки, но из будущего. Ну или криптотеррестриалы".
- при этом, по мнению Лаки, криптотеррестриалами могут быть не только обязательно пришельцы, это могут быть и люди, просто другая ветка развития человечества (не гомо сапиенс сапиенс, а гомо наледис или неандертальцы), поэтому им и скрываться от нас проще. Или это могут быть люди, которые тоже путешественники во времени, которых судьба закинула в прошлое и они всё это время жили среди нас, пытаясь не засветить свои технологии, чтобы не нарушить линию времени. Или это могут быть не люди, а эволюционировавшие другие формы жизни (животные, рыбы, насекомые), короче, объяснений есть вагон и маленькая тележка и сводить всё к банальным "пришельцам" Лаки считает неправильным.
- Палмер Лаки считает, что между побережьем Калифорнии и островом Каталина есть горячая точка UAP Hotspot, только ныряют они там под воду - он читал об этом в одной книжке и верит в то, что такой хотспот и правда есть. Сам он UAP никогда не видел.
Краткая выдержка такая:
- если UAP наблюдает один человек или один пилот, то "это фигня". UAP надо наблюдать "мультимодальным массивом сенсоров".
- под мультимодальностью Палмер понимает разные виды сенсоров, которые захватывают разные данные. Так, ИК-сенсор захватывает одну часть спектра, тепловизор - другую, ночное видение - третью, звуковой сенсор - это вообще другая модальность и так далее. Показания свидетелей - это только одна из модальностей, но её одну в расчёт брать ни в коем случае не надо.
- по его мнению, потенциальные противники США легко могут "глушить" одну из модальностей, а вот несколько обмануть будет сложно.
- нужно сосредоточится на создание систем, которые захватывают UAP с разных точек зрения и камерами и микрофонами и радарами и всем подряд. Только тогда можно понять, что же такое UAP.
- по его словам, даже Anduril не может сделать такой квадрокоптер, который наблюдали пилоты и нет, UAP это не квадрокоптеры в его понимании.
- сам Палмер считает, что "ответ гораздо сложнее, чем мы думаем" и вообще в этом деле "есть свой плот-твист", проще говоря, он не верит в инопланетян, но охотно допускает, что UAP могут быть:
а) паранормальными явлениями
б) людьми из будущего
в) сущностями из параллельного измерения
г) криптотеррестриалами
д) эхом "echoes" от работающего варп-двигателя (это что-то новенькое)
е) чем-то иным.
- также Палмер считает, что сама концепция "пришельцев" очень тупая, потому что лететь далеко и в целом не очень нужно. Тут я с ним солидарен.
- он приводит пример с книгой "Сфера" Майкла Крайтона (не путать с фильмом, тот по мотивам). В книге нашли невероятно древнюю непонятную сферу в глубине океана, думали это инопланетный корабль, подняли, стёрли с неё грязь, а там флаг США. Как так вышло? Да просто в будущем в США изобрели путешествия во времени, а сферу забросили в далёкое прошлое Земли, вот она и пролежала пару тысяч лет на дне океана.
- "Что мешает UAP быть тем же самым"?, - вопрошает Лаки, - "Типа это правительственные разработки, но из будущего. Ну или криптотеррестриалы".
- при этом, по мнению Лаки, криптотеррестриалами могут быть не только обязательно пришельцы, это могут быть и люди, просто другая ветка развития человечества (не гомо сапиенс сапиенс, а гомо наледис или неандертальцы), поэтому им и скрываться от нас проще. Или это могут быть люди, которые тоже путешественники во времени, которых судьба закинула в прошлое и они всё это время жили среди нас, пытаясь не засветить свои технологии, чтобы не нарушить линию времени. Или это могут быть не люди, а эволюционировавшие другие формы жизни (животные, рыбы, насекомые), короче, объяснений есть вагон и маленькая тележка и сводить всё к банальным "пришельцам" Лаки считает неправильным.
- Палмер Лаки считает, что между побережьем Калифорнии и островом Каталина есть горячая точка UAP Hotspot, только ныряют они там под воду - он читал об этом в одной книжке и верит в то, что такой хотспот и правда есть. Сам он UAP никогда не видел.
[3/3] - что касается правительственного заговора, Палмер Лаки считает, что люди, которые утверждают что UAP существуют (вроде Граша) это люди, которые говорят правду. Идея "а зачем им это нужно, нет ли тут двойной игры" не выдерживает никакой критики - ладно ещё те люди, которые мелькают на камеры или продают книги - они на этом хотя бы зарабатывают. Но зачем про UAP рассказывает какой-нибудь фермер из Мексики, который увидел непонятное? Ему этот разговор не принесёт никакого профита, даже наоборот, местным будут считать ебаньком. Так что фермер, скорее всего, говорит правду. И бывшие военные, вроде Элизондо или Граша, которые говорят про UAP, рискуют своей карьерой и жирной пенсией - зачем им это нужно? В этом нет никакого смысла, так что Палмер Лаки охотно им верит.
- "Большим плюсом для меня, как для человека, который верит в существование UAP, является то, что я работаю в компании, которая делает сенсоры и датчики, которые помогают эти UAP искать", - говорит Лаки.
- "представьте себе гипотетическую ситуацию, если мы сделаем сенсоры, которые позволят видеть UAP постоянно. И ты НИЧЕГО не сможешь с ними сделать. Представьте себе, если они летают вокруг нас постоянно, они везде и всегда рядом с нами, что мы тогда будем делать? Сейчас их видят, в основном, только военные, а если их будут видеть все, по всему миру? И вот ты такой идёшь по улице, над головой пролетела дюжина UAP и ты такой - ну вооот, опять эти штуки. И ты НИЧЕГО не можешь с этим поделать. Думаю плот-твист этой истории будет примерно таким".
- "в UAP мне нравится ощущение загадочности. Если мы узнаем, что это "ну просто пришельцы с Альдебарана" это разрушит для меня магию явления. Так что иногда лучше и не знать всей правды".
В общем, Палмер Лаки меня слегка удивил. А самое смешное в этой истории знаете что? Шурин Палмера Лаки это Мэтт Гейц (Matt Gaetz), политик от штата Флорида. Тот самый, что топил за Дэвида Граша в Конгрессе, спрашивал его обо всём про UAP и вообще живо интересовался темой. Спрашивается, откуда? А вот, оказывается откуда. Не удивлюсь, если они друг с другом это всерьёз обсуждали.
- "Большим плюсом для меня, как для человека, который верит в существование UAP, является то, что я работаю в компании, которая делает сенсоры и датчики, которые помогают эти UAP искать", - говорит Лаки.
- "представьте себе гипотетическую ситуацию, если мы сделаем сенсоры, которые позволят видеть UAP постоянно. И ты НИЧЕГО не сможешь с ними сделать. Представьте себе, если они летают вокруг нас постоянно, они везде и всегда рядом с нами, что мы тогда будем делать? Сейчас их видят, в основном, только военные, а если их будут видеть все, по всему миру? И вот ты такой идёшь по улице, над головой пролетела дюжина UAP и ты такой - ну вооот, опять эти штуки. И ты НИЧЕГО не можешь с этим поделать. Думаю плот-твист этой истории будет примерно таким".
- "в UAP мне нравится ощущение загадочности. Если мы узнаем, что это "ну просто пришельцы с Альдебарана" это разрушит для меня магию явления. Так что иногда лучше и не знать всей правды".
В общем, Палмер Лаки меня слегка удивил. А самое смешное в этой истории знаете что? Шурин Палмера Лаки это Мэтт Гейц (Matt Gaetz), политик от штата Флорида. Тот самый, что топил за Дэвида Граша в Конгрессе, спрашивал его обо всём про UAP и вообще живо интересовался темой. Спрашивается, откуда? А вот, оказывается откуда. Не удивлюсь, если они друг с другом это всерьёз обсуждали.
[1/2] Моя любимая история недели: генеральный директор MUFON, Рон Джеймс, выступил тут в подкасте Vetted, где рассказал, что в распоряжение его организации попали секретные фотки сбитого НЛО.
На фото два больших дерева, огромная летающая тарелка и солдаты, которые стоят рядом (один сидит почему-то на стуле).
Собственно, MUFON это некоммерческий фонд, который объединяет в себе кучу волонтёров и подходит к идее поиска НЛО с научной точки зрения. Организация основана ещё в 1969-м году, так что за 55-летнюю историю там много всего было, но у уфологов к ней отношение прям позитивное, а-ля "единственные чуваки, которые делом заняты".
На фото два больших дерева, огромная летающая тарелка и солдаты, которые стоят рядом (один сидит почему-то на стуле).
Собственно, MUFON это некоммерческий фонд, который объединяет в себе кучу волонтёров и подходит к идее поиска НЛО с научной точки зрения. Организация основана ещё в 1969-м году, так что за 55-летнюю историю там много всего было, но у уфологов к ней отношение прям позитивное, а-ля "единственные чуваки, которые делом заняты".
[2/2] В общем, Рон Джеймс сказал, что вот посмотрите на эти фотки, показал их в подкасте на веб-камеру, а если вы хотите узнать подробности того, как они у нас оказались и всякое другое тайное, то запишитесь на наш симпозиум в июле, билеты кстати будут чуть дороже обычного, по $100.
Это многим не понравилось, люди стали копать и обнаружили что:
- фотки эти какой-то дед в Иллинойсе в музее, посвящённом НЛО, продавал как сувениры
- деревья на заднем плане какие-то чересчур большие
- солдат сидит на тарелке на стуле, почему так?
В общем, недолгое гугление выявило, что фотка представляет собой коллаж из игрушечных нацистских солдатиков из коллекционного набора, солдатики поставлены на фрисби, которую выдают за летающую тарелку, а снято всё так, чтобы казалось, что они настоящего роста. Автору не удалось "уменьшить" деревья на заднем плане, так что родилась байка о том, что мол это всё произошло в глухом лесу, там мол деревья вот такие вот гигантские растут, ага.
MUFON от комментария пока что отказалась, но чую на их симпозиум соберётся ещё меньше народу, чем обычно.
Это многим не понравилось, люди стали копать и обнаружили что:
- фотки эти какой-то дед в Иллинойсе в музее, посвящённом НЛО, продавал как сувениры
- деревья на заднем плане какие-то чересчур большие
- солдат сидит на тарелке на стуле, почему так?
В общем, недолгое гугление выявило, что фотка представляет собой коллаж из игрушечных нацистских солдатиков из коллекционного набора, солдатики поставлены на фрисби, которую выдают за летающую тарелку, а снято всё так, чтобы казалось, что они настоящего роста. Автору не удалось "уменьшить" деревья на заднем плане, так что родилась байка о том, что мол это всё произошло в глухом лесу, там мол деревья вот такие вот гигантские растут, ага.
MUFON от комментария пока что отказалась, но чую на их симпозиум соберётся ещё меньше народу, чем обычно.
Дайджест пачкой:
- Статья в Scientific American о том, что во всём мире, в совершенно разных средах: земле, воде, воздухе, находят странное грибное ДНК, которое не принадлежит ни к одному виду, а сам вид опознать не удаётся. The Last of Us, впрочем, не происходит, поскольку само биоразнообразие грибов настолько большое, что у учёных до сих пор нет понимания сколько их видов вообще есть, так что вся эта "тёмная грибница", как её в шутку называют, это просто неоткрытые виды. Ну, наверное.
- До учёных дошло, откуда столько "тёмной материи" в космосе (Вселенная состоит из неё и тёмной энергии на 95%). Ну, почти дошло. Авторы исследования в MIT утверждают, что её наличие можно объяснить тем, что в самые первые моменты существования Вселенной из тонн кварков и глюонов образовались миллионы бесконечно малых черных дыр. Их теория заключается в том, что после миллиардов лет после создания Вселенной, излучение Хокинга всё ещё потихоньку эти дыры испаряет и многие даже исчезли, но их всё равно остается очень и очень много. Просто они небольшие - размером с носорога или там астероид. Отсюда и избыточная масса, которую мы называем "тёмной материей".
- Ещё один пейпер, опубликованный в Physic Review, говорит о том, что времени, как фундаментального свойства пространства-времени, в принципе не существует. Время по этой теории - это иллюзия, вызванная квантовыми флуктуациями и квантовой запутанностью. Для внешнего наблюдателя такая вселенная статична. Ну, наверное. Пейпер сейчас проходит ревью, так что я бы особо это этом не задумывался.
- Старенькая статья из 2007 о том, что человечество эволюционировало от обезьян к человеку в тот самый момент, когда начало наблюдать за костром. Наблюдение за огнём (firegazing) привело к медитационным практикам, ритуалам, спиритуализации, поиску дополнительных смыслов и указаний (от "богов", а потом и от "разума"), что привело к расцвету сознания вида. Интересно, но сомнительно.
- Статья в Scientific American о том, что во всём мире, в совершенно разных средах: земле, воде, воздухе, находят странное грибное ДНК, которое не принадлежит ни к одному виду, а сам вид опознать не удаётся. The Last of Us, впрочем, не происходит, поскольку само биоразнообразие грибов настолько большое, что у учёных до сих пор нет понимания сколько их видов вообще есть, так что вся эта "тёмная грибница", как её в шутку называют, это просто неоткрытые виды. Ну, наверное.
- До учёных дошло, откуда столько "тёмной материи" в космосе (Вселенная состоит из неё и тёмной энергии на 95%). Ну, почти дошло. Авторы исследования в MIT утверждают, что её наличие можно объяснить тем, что в самые первые моменты существования Вселенной из тонн кварков и глюонов образовались миллионы бесконечно малых черных дыр. Их теория заключается в том, что после миллиардов лет после создания Вселенной, излучение Хокинга всё ещё потихоньку эти дыры испаряет и многие даже исчезли, но их всё равно остается очень и очень много. Просто они небольшие - размером с носорога или там астероид. Отсюда и избыточная масса, которую мы называем "тёмной материей".
- Ещё один пейпер, опубликованный в Physic Review, говорит о том, что времени, как фундаментального свойства пространства-времени, в принципе не существует. Время по этой теории - это иллюзия, вызванная квантовыми флуктуациями и квантовой запутанностью. Для внешнего наблюдателя такая вселенная статична. Ну, наверное. Пейпер сейчас проходит ревью, так что я бы особо это этом не задумывался.
- Старенькая статья из 2007 о том, что человечество эволюционировало от обезьян к человеку в тот самый момент, когда начало наблюдать за костром. Наблюдение за огнём (firegazing) привело к медитационным практикам, ритуалам, спиритуализации, поиску дополнительных смыслов и указаний (от "богов", а потом и от "разума"), что привело к расцвету сознания вида. Интересно, но сомнительно.
[1/10] Леопольд Ашенбреннер (Leopold Aschenbrenner), бывший сотрудник OpenAI (той самой организации, которая придумала ChatGPT), уволенный из неё в этом году вместе с Ильей Суцкевером (учёный, который топил за "безопасный ИИ") написал гигантское эссе на тему "Опасности ИИ" и грядущего 2027-го года.
Какая-то добрая душа в твиттере это эссе разобрала по полочкам и мне (и вам тоже) не придётся эту 160-страничную PDF-ку читать.
Ашенбреннеру, если что, 22 года, он молодой и, мягко говоря, совсем не его начальник Илья Суцкевер, как по опыту, так и по образу мыслей, но тоже довольно умный, так что читать это всё интересно.
Стоит только упомянуть, что уволили их со скандалом, опасаясь, что Суцкевер и компания будут вставлять палки в колёса прогресса компании OpenAI, агитируя за "разумный подход к производству ИИ", а ещё там было обвинение в "утечке данных" с их стороны, но подробностей особо нет.
Напомню, что OpenAI сейчас по сути исповедует подход "сначала деньги, а потом исследования", а на исследования AI-alignment (контроль и, грубо говоря, "моральную настройку" ИИ) им, по большому счёту, стало почти наплевать, так что увольнение этих учёных вполне себе нормальное явление для бизнеса.
Какая-то добрая душа в твиттере это эссе разобрала по полочкам и мне (и вам тоже) не придётся эту 160-страничную PDF-ку читать.
Ашенбреннеру, если что, 22 года, он молодой и, мягко говоря, совсем не его начальник Илья Суцкевер, как по опыту, так и по образу мыслей, но тоже довольно умный, так что читать это всё интересно.
Стоит только упомянуть, что уволили их со скандалом, опасаясь, что Суцкевер и компания будут вставлять палки в колёса прогресса компании OpenAI, агитируя за "разумный подход к производству ИИ", а ещё там было обвинение в "утечке данных" с их стороны, но подробностей особо нет.
Напомню, что OpenAI сейчас по сути исповедует подход "сначала деньги, а потом исследования", а на исследования AI-alignment (контроль и, грубо говоря, "моральную настройку" ИИ) им, по большому счёту, стало почти наплевать, так что увольнение этих учёных вполне себе нормальное явление для бизнеса.
[2/10] Но, возвращаясь к эссе Ашенбреннера.
- Прогресс в области ИИ:
- По его мнению, прогресс идёт очень быстро. GPT-2, которая отвечала людям на уровне ребёнка, дошла до GPT-4 всего за два года, и отвечает уже на уровне студента или даже профессора по некоторым темам.
- Следующий такой скачок прогресса ожидается в 2027-м году. Этот скачок может принести нам AGI (Artificial general intelligence, Искусственный интеллект общего назначения, его ещё называют "Слабым ИИ").
- Прогресс в области создания ИИ, по мнению Ашенбреннера, сводится к тому, что будет: больше вычислений, улучшения алгоритмов, "разбюрокрачивание" (уменьшением ограниченности моделей).
- Вычисления растут в скоростью ~0.5 порядка величин (orders of magnitude, OOM) в году. Это в три раза быстрее Закона Мура.
- Эффективность алгоритмов тоже растёт со скоростью ~0.5 OOM/год. На это часто не обращают внимания, но это также важно, как и вычисления.
- "Разбюрокрачивание" тяжело оценить, но оно тоже важно. Обучение с подкреплением на основе отзывов людей (RLHF) и подход "цепочка мыслей" (chain-of-thought reasoning) ускоряют модели.
- Ученые наблюдают 5+ порядков величин, которые вычисления получили за последние 4 года. Это ещё один скачок от gpt-2 к gpt-4.
- К 2027 году, мы можем получить модели, которые смогут работать ИИ исследователями и инженерами, а это уже AGI.
- К сожалению у нас заканчиваются данные, на которых можно обучать модели. Это может замедлить прогресс, если мы не найдём способы более эффективно использовать сэмплы данных.
- Даже если прогресс в этой области будет замедлен, создание AGI не займёт десятилетия. Вопрос должен звучать так: "2027 или 2029?" а не "2027 или 2050?".
- Прогресс в области ИИ:
- По его мнению, прогресс идёт очень быстро. GPT-2, которая отвечала людям на уровне ребёнка, дошла до GPT-4 всего за два года, и отвечает уже на уровне студента или даже профессора по некоторым темам.
- Следующий такой скачок прогресса ожидается в 2027-м году. Этот скачок может принести нам AGI (Artificial general intelligence, Искусственный интеллект общего назначения, его ещё называют "Слабым ИИ").
- Прогресс в области создания ИИ, по мнению Ашенбреннера, сводится к тому, что будет: больше вычислений, улучшения алгоритмов, "разбюрокрачивание" (уменьшением ограниченности моделей).
- Вычисления растут в скоростью ~0.5 порядка величин (orders of magnitude, OOM) в году. Это в три раза быстрее Закона Мура.
- Эффективность алгоритмов тоже растёт со скоростью ~0.5 OOM/год. На это часто не обращают внимания, но это также важно, как и вычисления.
- "Разбюрокрачивание" тяжело оценить, но оно тоже важно. Обучение с подкреплением на основе отзывов людей (RLHF) и подход "цепочка мыслей" (chain-of-thought reasoning) ускоряют модели.
- Ученые наблюдают 5+ порядков величин, которые вычисления получили за последние 4 года. Это ещё один скачок от gpt-2 к gpt-4.
- К 2027 году, мы можем получить модели, которые смогут работать ИИ исследователями и инженерами, а это уже AGI.
- К сожалению у нас заканчиваются данные, на которых можно обучать модели. Это может замедлить прогресс, если мы не найдём способы более эффективно использовать сэмплы данных.
- Даже если прогресс в этой области будет замедлен, создание AGI не займёт десятилетия. Вопрос должен звучать так: "2027 или 2029?" а не "2027 или 2050?".
[3/10] - Изобретение AGI:
- После того, как мы изобретём AGI, прогресс не остановится. Мы быстро получим суперинтеллект ("сильный ИИ", его идея в том, что он гораздо умнее человека).
- Мы сможем запускать миллионы копий систем AGI. Они будут вести автоматические исследования в области AGI.
- Вместо сотни исследователей в лабораториях, мы получим 100+ млн, работающих 24/7. Это позволит упаковать десятилетия прогресса в один год.
- За год мы сможем увидеть 5+ порядков величин эффективности алгоритмов. Это ещё один скачок от gpt-2 к gpt-4, вместе с AGI
- Есть и узкие горлышки, вроде ограниченной мощности вычислений для экспериментов. Но ни одно из них не замедлит прогресс настолько сильно.
- "Сильный ИИ" будет невообразимо мощным. Он будет намного намного умнее людей, а не только быстрее соображать.
- Он сможет решить нерешённые задачи науки, изобрести новые технологии, усилить экономику и военное дело.
- Экономика вырастет на 30% за год. Увеличение всех показателей вдвое за год вполне себе возможно.
- Бум суперинтеллекта и вызванные им последствия, вероятно, станут одним из самых нестабильных периодов в истории человечества.
- После того, как мы изобретём AGI, прогресс не остановится. Мы быстро получим суперинтеллект ("сильный ИИ", его идея в том, что он гораздо умнее человека).
- Мы сможем запускать миллионы копий систем AGI. Они будут вести автоматические исследования в области AGI.
- Вместо сотни исследователей в лабораториях, мы получим 100+ млн, работающих 24/7. Это позволит упаковать десятилетия прогресса в один год.
- За год мы сможем увидеть 5+ порядков величин эффективности алгоритмов. Это ещё один скачок от gpt-2 к gpt-4, вместе с AGI
- Есть и узкие горлышки, вроде ограниченной мощности вычислений для экспериментов. Но ни одно из них не замедлит прогресс настолько сильно.
- "Сильный ИИ" будет невообразимо мощным. Он будет намного намного умнее людей, а не только быстрее соображать.
- Он сможет решить нерешённые задачи науки, изобрести новые технологии, усилить экономику и военное дело.
- Экономика вырастет на 30% за год. Увеличение всех показателей вдвое за год вполне себе возможно.
- Бум суперинтеллекта и вызванные им последствия, вероятно, станут одним из самых нестабильных периодов в истории человечества.
[4/10] - Стоимость:
- Мы идём прямой дорогой к увеличению стоимости вычислений для ИИ. Кластеры для индивидуального обучения ИИ будут стоит $100+ млрд к 2028 году
- К 2030-му мы увидим кластеры стоимостью в $1+ трлн, требующие 20% всего электричества США
- Инвестиции в ИИ могут достигнуть $1трлн/год к 2027 и $8 трлн/год к 2030
- Выручка от датацентров компании NVIDIA уже превышает $90 млрд/год. Но это только начало
- Капитализация бихтеха также растёт. Microsoft и Google вложат в ИИ по $50млрд+ в 2024 году
- Выручка от ИИ также растёт. OpenAI увеличила показатели с $1млрд до $2млрд всего за 6 месяцев
- Мы увидим, как бигтех компания получит выручку от ИИ в размере $100млрд/год к 2026 году
- Электроэнергия станет главным сдерживающим фактором. Производство электроэнергии в США почти не росло в течение десяти лет.
- США могут решить эту проблему с помощью природного газа. У нас его в избытке, и мы можем быстро нарастить мощности
- Производство микросхем тоже нужно будет масштабировать. TSMC, возможно, придется построить десятки новых заводов по производству чипов стоимостью $20 млрд каждый.
- Мы идём прямой дорогой к увеличению стоимости вычислений для ИИ. Кластеры для индивидуального обучения ИИ будут стоит $100+ млрд к 2028 году
- К 2030-му мы увидим кластеры стоимостью в $1+ трлн, требующие 20% всего электричества США
- Инвестиции в ИИ могут достигнуть $1трлн/год к 2027 и $8 трлн/год к 2030
- Выручка от датацентров компании NVIDIA уже превышает $90 млрд/год. Но это только начало
- Капитализация бихтеха также растёт. Microsoft и Google вложат в ИИ по $50млрд+ в 2024 году
- Выручка от ИИ также растёт. OpenAI увеличила показатели с $1млрд до $2млрд всего за 6 месяцев
- Мы увидим, как бигтех компания получит выручку от ИИ в размере $100млрд/год к 2026 году
- Электроэнергия станет главным сдерживающим фактором. Производство электроэнергии в США почти не росло в течение десяти лет.
- США могут решить эту проблему с помощью природного газа. У нас его в избытке, и мы можем быстро нарастить мощности
- Производство микросхем тоже нужно будет масштабировать. TSMC, возможно, придется построить десятки новых заводов по производству чипов стоимостью $20 млрд каждый.
[5/10] - Трудности безопасности:
- Безопасность в ИИ лабораториях оставляет желать лучшего. Мы передаём секреты создания AGI китайцам на блюдечке с голубой каёмочкой.
- Секреты алгоритмов стоят в 10 раз больше, чем вычисления. Они постоянно утекают.
- Важно защищать и "веса" (weight) моделей (это параметры, которые нейронные сети используют для обучения и предсказания. Модели могут быть выложены публично, но без "весов" они почти бесполезны, надо потратить много времени на обучение и настройку "весов"). Их воровство может помочь всем остальным быстро догнать лидера.
- Нам нужен правительственный уровень безопасности для AGI. Частные компании не смогут бороться с государственными угрозами.
- Нужны датацентры, защищённые от внешнего доступа, с экстремальной проверкой, работающие из SCIF (помещениях с уровнем проверки секретности) и так далее.
- Да, это замедлит в каком-то смысле исследования, но это необходимо. Государственные интересы важнее, чем интересы лаборатории по изучении ИИ быть "на переднем крае науки".
- Если мы не исправим это в течении ближайших двух лет, мы скорее всего сольём все наработки в области AGI Китаю.
- Это, возможно, самая важная вещь, которую мы должны сделать сегодня, чтобы внедрение AGI прошло успешно.
- Безопасность в ИИ лабораториях оставляет желать лучшего. Мы передаём секреты создания AGI китайцам на блюдечке с голубой каёмочкой.
- Секреты алгоритмов стоят в 10 раз больше, чем вычисления. Они постоянно утекают.
- Важно защищать и "веса" (weight) моделей (это параметры, которые нейронные сети используют для обучения и предсказания. Модели могут быть выложены публично, но без "весов" они почти бесполезны, надо потратить много времени на обучение и настройку "весов"). Их воровство может помочь всем остальным быстро догнать лидера.
- Нам нужен правительственный уровень безопасности для AGI. Частные компании не смогут бороться с государственными угрозами.
- Нужны датацентры, защищённые от внешнего доступа, с экстремальной проверкой, работающие из SCIF (помещениях с уровнем проверки секретности) и так далее.
- Да, это замедлит в каком-то смысле исследования, но это необходимо. Государственные интересы важнее, чем интересы лаборатории по изучении ИИ быть "на переднем крае науки".
- Если мы не исправим это в течении ближайших двух лет, мы скорее всего сольём все наработки в области AGI Китаю.
- Это, возможно, самая важная вещь, которую мы должны сделать сегодня, чтобы внедрение AGI прошло успешно.
[6/10] - Трудности: Проблема контроля искусственного интеллекта (superalignment)
- Контролировать ИИ-системы, которые намного умнее нас, пока нельзя, это нерешённая задача. Сегодняшние техники контроля не смогут с ним совладать.
- Обучение с подкреплением на основе отзывов людей (RLHF) работает прекрасно, но будет опознано суперинтеллектуальными ИИ-системами.
- Нам нужно решить проблему "передачи доверия". Как сделать так, чтобы сверхчеловеческие ИИ делали то, что мы от них хотим?
- Есть несколько перспективных направлений исследований в этой области, таких как "масштабируемый надзор" (scalable oversight) и исследование обобщений (generalization studies).
- Чтобы не отставать от возможностей ИИ в вопросах своего обучения, нам, скорее всего, придется автоматизировать сами исследования по его контролю.
- Скачок в области прогресса сверхинтеллекта сделает эту ситуацию чрезвычайно напряженной. Мы можем перейти от уровня человека к уровню сверхчеловека за несколько месяцев.
- Нам нужны многочисленные уровни защиты, помимо простого контроля и моральных норм, такие как безопасность, мониторинг и целевое ограничение возможностей ИИ.
- Для того чтобы сделать все правильно, потребуется исключительная компетентность и готовность идти на сложные компромиссы.
- Мы не готовы к этому настолько, насколько должны быть готовы. Мы слишком полагаемся на удачу.
- Контролировать ИИ-системы, которые намного умнее нас, пока нельзя, это нерешённая задача. Сегодняшние техники контроля не смогут с ним совладать.
- Обучение с подкреплением на основе отзывов людей (RLHF) работает прекрасно, но будет опознано суперинтеллектуальными ИИ-системами.
- Нам нужно решить проблему "передачи доверия". Как сделать так, чтобы сверхчеловеческие ИИ делали то, что мы от них хотим?
- Есть несколько перспективных направлений исследований в этой области, таких как "масштабируемый надзор" (scalable oversight) и исследование обобщений (generalization studies).
- Чтобы не отставать от возможностей ИИ в вопросах своего обучения, нам, скорее всего, придется автоматизировать сами исследования по его контролю.
- Скачок в области прогресса сверхинтеллекта сделает эту ситуацию чрезвычайно напряженной. Мы можем перейти от уровня человека к уровню сверхчеловека за несколько месяцев.
- Нам нужны многочисленные уровни защиты, помимо простого контроля и моральных норм, такие как безопасность, мониторинг и целевое ограничение возможностей ИИ.
- Для того чтобы сделать все правильно, потребуется исключительная компетентность и готовность идти на сложные компромиссы.
- Мы не готовы к этому настолько, насколько должны быть готовы. Мы слишком полагаемся на удачу.
[7/10] - Трудности: Свободный Мир должен победить
- Создание "сильного ИИ" даст колоссальное военное преимущество. Это будет как скачок от обычного к ядерному оружию.
- Китай не стоит списывать со счетов. У них есть четкое видение как быть конкурентоспособными.
- Китай скорее всего сможет соперничать с нами в области вычислений. Они уже показали производство 7нм чипов.
- Китай может превзойти нас по добыче энергии. Они увеличили своё производство электроэнергии вдвое за последние десять лет, в то время как США не делали ничего.
- Если мы не улучшим безопасность, Китай сворует секреты наших алгоритмов.
- Авторитарное правительство, получившее в своё распоряжение суперинтеллект будет катастрофой для свободы и демократии.
- Сохранение здорового отрыва в ИИ-гонке имеет решающее значение для безопасности. Если они будут к нам слишком близко, мы столкнёмся с рисками "срезания углов" и тому подобных аварий.
- Нам нужно опережение их на 1-2 года, а не на 1-2 месяца, чтобы иметь запас для обеспечения собственной безопасности.
- США должны рассматривать это как приоритет национальной безопасности. Пока мы не относимся к этому достаточно серьезно.
- Создание "сильного ИИ" даст колоссальное военное преимущество. Это будет как скачок от обычного к ядерному оружию.
- Китай не стоит списывать со счетов. У них есть четкое видение как быть конкурентоспособными.
- Китай скорее всего сможет соперничать с нами в области вычислений. Они уже показали производство 7нм чипов.
- Китай может превзойти нас по добыче энергии. Они увеличили своё производство электроэнергии вдвое за последние десять лет, в то время как США не делали ничего.
- Если мы не улучшим безопасность, Китай сворует секреты наших алгоритмов.
- Авторитарное правительство, получившее в своё распоряжение суперинтеллект будет катастрофой для свободы и демократии.
- Сохранение здорового отрыва в ИИ-гонке имеет решающее значение для безопасности. Если они будут к нам слишком близко, мы столкнёмся с рисками "срезания углов" и тому подобных аварий.
- Нам нужно опережение их на 1-2 года, а не на 1-2 месяца, чтобы иметь запас для обеспечения собственной безопасности.
- США должны рассматривать это как приоритет национальной безопасности. Пока мы не относимся к этому достаточно серьезно.
[8/10] - Проект (The Project):
- Правительство США скорее всего свяжется с разработкой AGI к 2027/2028 годам
- Мы увидим, скорее всего, какой-то "Манхэттенский Проект в области AGI"
- Частные компании не смогут справится с последствиями внедрения суперинтеллекта для национальной безопасности
- Нам нужно участие государства в безопасности, охраны, стабилизации международных отношений и тому подобного
- Это не означает национализацию. Это может быть похоже на отношения между Минообороны и его подрядчиками по созданию и по внедрению AGI.
- Конгрессу, скорее всего, придется выделить триллионы на чипы и на развитие энергетики.
- Вероятно, будет создана коалиция демократических стран для совместного развития суперинтеллекта.
- Прикладное применение этой технологии будет процветать, подобно тому, как ядерная энергия последовала за ядерным оружием.
- Основная команда исследователей AGI, вероятно, переедет в скрытое безопасное место к 2027 году. Кластер для обучения AGI стоимостью триллион долларов будет строиться с рекордной скоростью.
- Правительство США скорее всего свяжется с разработкой AGI к 2027/2028 годам
- Мы увидим, скорее всего, какой-то "Манхэттенский Проект в области AGI"
- Частные компании не смогут справится с последствиями внедрения суперинтеллекта для национальной безопасности
- Нам нужно участие государства в безопасности, охраны, стабилизации международных отношений и тому подобного
- Это не означает национализацию. Это может быть похоже на отношения между Минообороны и его подрядчиками по созданию и по внедрению AGI.
- Конгрессу, скорее всего, придется выделить триллионы на чипы и на развитие энергетики.
- Вероятно, будет создана коалиция демократических стран для совместного развития суперинтеллекта.
- Прикладное применение этой технологии будет процветать, подобно тому, как ядерная энергия последовала за ядерным оружием.
- Основная команда исследователей AGI, вероятно, переедет в скрытое безопасное место к 2027 году. Кластер для обучения AGI стоимостью триллион долларов будет строиться с рекордной скоростью.
[9/10] - Если мы правы обо всём этом, что мир сильно изменится к концу 2030-х.
- Мы должны смотреть на всё с позиции "AGI реалиста". Осознать силу и опасность технологии, обеспечить лидерство США и серьезно относиться к безопасности.
- Мы обязаны нашим миром и свободой американскому экономическому и военному превосходству. Мы должны поддерживать его и далее с помощью AGI.
- Самый большой риск может заключаться в том, что суперинтеллект позволит создать новые средства массового уничтожения, которые получат широкое распространение.
- Нам необходимо здоровое лидерство демократических союзников, чтобы иметь хоть какую-то надежду на безопасное преодоление предстоящих вызовов.
- Это, вероятно, будет одна из самых нестабильных международных ситуаций за всю историю человечества. Стимулы для первого удара могут быть огромными.
- Есть нечто жуткое в том, что создание AGI (~2027 год) совпадает по срокам потенциального вторжения Китая на Тайвань.
- Нам нужно быстро закрыть лаборатории по разработке ИИ, пока не произошла утечка информации о ключевых прорывах в ближайшие 12-24 месяца.
- Мы должны создавать вычислительные кластеры в США, а не в диктаторских государствах, предлагающих легкие деньги.
- Американские ИИ-лаборатории обязаны сотрудничать со спецслужбами и военными. Мы должны создавать ИИ для обороны.
- Следующие несколько лет в области ИИ будут похожи на ковид в начале 2020 года. Большинство не заметит этого, а затем всё изменится очень и очень быстро.
- К 2025/2026 годам ИИ будет приносить бигтеху более $100 млрд годового дохода. Мы увидим оценки и в $10 трлн.
- К 2027/2028 году начнут появляться полноценные агенты ИИ, автоматизирующие разработку программного обеспечения и другие рабочие места.
- Консенсус о том, что мы находимся на пороге создания AGI, будет формироваться по мере того, как эмпирические результаты будут продолжать шокировать людей.
- Мы, вероятно, увидим первые демонстрации действительно ужасающих возможностей ИИ, например, помощь в создании биооружия.
- Где-то в 2026/2027 годах настроение в Вашингтоне станет мрачным, поскольку люди начнут осознавать происходящее.
- "Проект" столкнется с огромными проблемами: быстрое создание AGI, противостояние Китаю, управление миллионами ИИ, предотвращение катастрофы.
- Кто бы ни был назначен его руководителем, ему предстоит одна из самых сложных задач в истории человечества.
- Если мы справимся, это будет самое важное, что мы когда-либо делали.
- Ставки тут не меньше, чем выживание свободы и демократии, а возможно, и выживание самого человечества.
- Мы должны относиться к возможности спонтанного появления суперинтеллекта так же серьезно, как ученые относились к возможности цепных ядерных реакций. Никто не верил Лео Силарду насчет них. А мы не можем допустить такой же ошибки с AGI.
- Мы разрабатываем самую мощную технологию, когда-либо созданную человечеством. Мы должны относиться к ней именно так.
- Практически все остальное, что мы делаем, не будет иметь значения, если мы не обеспечим безопасность и надежность AGI.
- Все это произойдет, хотим мы этого или нет. Вопрос только в том, будем ли мы готовы.
- Нам необходимо массовое увеличение усилий по исследованию контроля ИИ, обеспечению безопасности и подготовке к предстоящим вызовам.
- Правительство должно проснуться и начать относиться к этому как к приоритету национальной безопасности.
- Мы должны быть готовы пойти на жесткие компромиссы, например, использовать природный газ для производства электроэнергии, даже если это противоречит климатическим целям.
- Экспоненциальный рост сейчас в самом разгаре. 2023 год - это год "пробуждения ИИ". Теперь приготовьтесь к болтанке.
- Самое ошеломляющее ускорение технокапитала в истории приведено в движение. Следующие несколько лет будут дикими.
- Мы должны смотреть на всё с позиции "AGI реалиста". Осознать силу и опасность технологии, обеспечить лидерство США и серьезно относиться к безопасности.
- Мы обязаны нашим миром и свободой американскому экономическому и военному превосходству. Мы должны поддерживать его и далее с помощью AGI.
- Самый большой риск может заключаться в том, что суперинтеллект позволит создать новые средства массового уничтожения, которые получат широкое распространение.
- Нам необходимо здоровое лидерство демократических союзников, чтобы иметь хоть какую-то надежду на безопасное преодоление предстоящих вызовов.
- Это, вероятно, будет одна из самых нестабильных международных ситуаций за всю историю человечества. Стимулы для первого удара могут быть огромными.
- Есть нечто жуткое в том, что создание AGI (~2027 год) совпадает по срокам потенциального вторжения Китая на Тайвань.
- Нам нужно быстро закрыть лаборатории по разработке ИИ, пока не произошла утечка информации о ключевых прорывах в ближайшие 12-24 месяца.
- Мы должны создавать вычислительные кластеры в США, а не в диктаторских государствах, предлагающих легкие деньги.
- Американские ИИ-лаборатории обязаны сотрудничать со спецслужбами и военными. Мы должны создавать ИИ для обороны.
- Следующие несколько лет в области ИИ будут похожи на ковид в начале 2020 года. Большинство не заметит этого, а затем всё изменится очень и очень быстро.
- К 2025/2026 годам ИИ будет приносить бигтеху более $100 млрд годового дохода. Мы увидим оценки и в $10 трлн.
- К 2027/2028 году начнут появляться полноценные агенты ИИ, автоматизирующие разработку программного обеспечения и другие рабочие места.
- Консенсус о том, что мы находимся на пороге создания AGI, будет формироваться по мере того, как эмпирические результаты будут продолжать шокировать людей.
- Мы, вероятно, увидим первые демонстрации действительно ужасающих возможностей ИИ, например, помощь в создании биооружия.
- Где-то в 2026/2027 годах настроение в Вашингтоне станет мрачным, поскольку люди начнут осознавать происходящее.
- "Проект" столкнется с огромными проблемами: быстрое создание AGI, противостояние Китаю, управление миллионами ИИ, предотвращение катастрофы.
- Кто бы ни был назначен его руководителем, ему предстоит одна из самых сложных задач в истории человечества.
- Если мы справимся, это будет самое важное, что мы когда-либо делали.
- Ставки тут не меньше, чем выживание свободы и демократии, а возможно, и выживание самого человечества.
- Мы должны относиться к возможности спонтанного появления суперинтеллекта так же серьезно, как ученые относились к возможности цепных ядерных реакций. Никто не верил Лео Силарду насчет них. А мы не можем допустить такой же ошибки с AGI.
- Мы разрабатываем самую мощную технологию, когда-либо созданную человечеством. Мы должны относиться к ней именно так.
- Практически все остальное, что мы делаем, не будет иметь значения, если мы не обеспечим безопасность и надежность AGI.
- Все это произойдет, хотим мы этого или нет. Вопрос только в том, будем ли мы готовы.
- Нам необходимо массовое увеличение усилий по исследованию контроля ИИ, обеспечению безопасности и подготовке к предстоящим вызовам.
- Правительство должно проснуться и начать относиться к этому как к приоритету национальной безопасности.
- Мы должны быть готовы пойти на жесткие компромиссы, например, использовать природный газ для производства электроэнергии, даже если это противоречит климатическим целям.
- Экспоненциальный рост сейчас в самом разгаре. 2023 год - это год "пробуждения ИИ". Теперь приготовьтесь к болтанке.
- Самое ошеломляющее ускорение технокапитала в истории приведено в движение. Следующие несколько лет будут дикими.
[10/10] Ну, что тут можно сказать.
Отвлекусь от страшилок про ИИ и страшный Китай тем, что недавно слушал очередной говноподкаст про НЛО, где выступал бывший аналитик ЦРУ Джон Рамирез (работал он там с 1984 по 2009-й). Там он обмолвился мол, настоящее раскрытие информации (disclosure) состоится в 2027-м году.
Почему именно этот год, он не уточнил, да и в целом Джону Рамирезу верить не стоит, но есть нюанс.
С этим "две тыщи двадцать седьмым" уфологи носятся как с писаной торбой, постоянно упоминают в подкастах 2-0-2-7 как мантру, гадают на кофейной гуще, что тогда произойдёт, прилетит ли мазершип с Трисоляриса, высадится ли тарелка перед Белым Домом, выскочат ли из "тиктака" Серые, проявит ли себя из параллельного измерения архангел Рамииль и так далее.
Я буквально последние полгода в каждом втором посте вижу упоминание 2027-го года и у меня уже реакция такая: если кто-то упоминает, что в 2027 что-то произойдёт, то это стопудово враньё.
И весьма забавно читать страшилку про ИИ в контексте этого года.
Спешу вас немного успокоить: Леопольд Ашенбреннер и его начальник Илья Суцкевер сильно верят в создание AGI.
А вот другие исследователи ИИ в это не сильно-то и верят. Вот Axios, пишет, к примеру, что "по мнению экспертов, проблема "искуственного интеллекта" не может и не решается одними только нейросетями".
Тот ИИ, с которым вы привыкли общаться (будь то Алиса, Claude, ChatGPT или любая другая LLM) строго говоря "ИИ" не является. Это просто весьма продвинутый алгоритм предикативного ввода, который печатает вам буковки на экране или же озвучивает их голосом. Он не "думает" и не "размышляет", он делит ранее предоставленную ему информацию (возможно, всю википедию или весь интернет разом) на маленькие кусочки (токены), а потом из этих кусочков создаёт что-то новое - например, пишет ответ на ваш вопрос.
Поэтому создание даже "слабого ИИ", который думает на самом деле, это святой Грааль современных ИИ-стартапов.
А проверка реальности простая: Ашенбреннер, питающий свои идеи в движении за эффективный альтруизм, является инвестором в технологии ИИ. Так что он не является незаинтересованной стороной. Ему выгодно говорить о том, как ИИ изменит мир и как надо срочно строить триллиардные кластеры.
Он считает, что AGI неизбежно разовьется из сегодняшних языковых моделей и ботов. Но, по общему мнению экспертов, этого может и не произойти. Консенсус такой, что ИИ может решить многие задачи человечества и действительно важен для экономики и промышленности. Но то, куда он направляется сейчас, показывает, что создание AGI в целом не имеет большого смысла для человечества в целом. Проще говоря, нам не нужен "суперинтеллект", превосходящий нас, нам нужен "интеллект примерно на нас похожий", который мы могли бы контролировать и, если что, дообучать или переучивать, а то и выключить в любой момент.
Так что успокаиваемся и идём пить чай, всё не так уж и страшно.
Ну.
Наверное.
Узнаем в 2027-м.
Отвлекусь от страшилок про ИИ и страшный Китай тем, что недавно слушал очередной говноподкаст про НЛО, где выступал бывший аналитик ЦРУ Джон Рамирез (работал он там с 1984 по 2009-й). Там он обмолвился мол, настоящее раскрытие информации (disclosure) состоится в 2027-м году.
Почему именно этот год, он не уточнил, да и в целом Джону Рамирезу верить не стоит, но есть нюанс.
С этим "две тыщи двадцать седьмым" уфологи носятся как с писаной торбой, постоянно упоминают в подкастах 2-0-2-7 как мантру, гадают на кофейной гуще, что тогда произойдёт, прилетит ли мазершип с Трисоляриса, высадится ли тарелка перед Белым Домом, выскочат ли из "тиктака" Серые, проявит ли себя из параллельного измерения архангел Рамииль и так далее.
Я буквально последние полгода в каждом втором посте вижу упоминание 2027-го года и у меня уже реакция такая: если кто-то упоминает, что в 2027 что-то произойдёт, то это стопудово враньё.
И весьма забавно читать страшилку про ИИ в контексте этого года.
Спешу вас немного успокоить: Леопольд Ашенбреннер и его начальник Илья Суцкевер сильно верят в создание AGI.
А вот другие исследователи ИИ в это не сильно-то и верят. Вот Axios, пишет, к примеру, что "по мнению экспертов, проблема "искуственного интеллекта" не может и не решается одними только нейросетями".
Тот ИИ, с которым вы привыкли общаться (будь то Алиса, Claude, ChatGPT или любая другая LLM) строго говоря "ИИ" не является. Это просто весьма продвинутый алгоритм предикативного ввода, который печатает вам буковки на экране или же озвучивает их голосом. Он не "думает" и не "размышляет", он делит ранее предоставленную ему информацию (возможно, всю википедию или весь интернет разом) на маленькие кусочки (токены), а потом из этих кусочков создаёт что-то новое - например, пишет ответ на ваш вопрос.
Поэтому создание даже "слабого ИИ", который думает на самом деле, это святой Грааль современных ИИ-стартапов.
А проверка реальности простая: Ашенбреннер, питающий свои идеи в движении за эффективный альтруизм, является инвестором в технологии ИИ. Так что он не является незаинтересованной стороной. Ему выгодно говорить о том, как ИИ изменит мир и как надо срочно строить триллиардные кластеры.
Он считает, что AGI неизбежно разовьется из сегодняшних языковых моделей и ботов. Но, по общему мнению экспертов, этого может и не произойти. Консенсус такой, что ИИ может решить многие задачи человечества и действительно важен для экономики и промышленности. Но то, куда он направляется сейчас, показывает, что создание AGI в целом не имеет большого смысла для человечества в целом. Проще говоря, нам не нужен "суперинтеллект", превосходящий нас, нам нужен "интеллект примерно на нас похожий", который мы могли бы контролировать и, если что, дообучать или переучивать, а то и выключить в любой момент.
Так что успокаиваемся и идём пить чай, всё не так уж и страшно.
Ну.
Наверное.
Узнаем в 2027-м.
Forwarded from Denis Sexy IT 🤖
В Nature вышла интересная статья (pdf), в ней рассматрели «человеческий язык» как инструмент для передачи информации и пришли к выводу, что это клевый способ для коллаборативной работы нас как вида (и шитпоста в интернете), но язык не нужен мозгу для «мыслительного процесса»
Я никогда не задумывался, как выглядит «мысль» если исключить из нее «язык», поэтому вот пару интересных наблюдений из статьи о том как устроен процесс мышления:
1. Мысли, вероятно, опираются на абстрактные, неязыковые ментальные представления. Это могут быть визуальные, пространственные или другие специфические представления под конкретные задачи и концепции. Как человек, который в любой момент времени может вспомнить любой маршрут по которому я ходил где-то и был трезвый, могу сказать что все так, у меня «карта местности» просто существует в виде образа в голове, как оказалось, так не у всех
2. В голове есть ансамбль нейронок — в статье упоминается несколько «мозговых сетей», участвующих в различных задачах:
— Есть нейронка «множественных требований» для целенаправленного поведения и решения новых задач, она поощряет находчивость при решении проблем, активируется при выполнении когнитивно сложных задач, особенно тех, которые требуют гибкого мышления и адаптации к новым ситуациям. Она же отвечает за планирование и рабочую память;
— Есть нейронка «теории разума» или «эмпатии»: для социального рассуждения и понимания психических состояний – мыслей, чувств, убеждений и намерений других людей. Это та, которая у нас уже хуже чем в GPT4o;
— Есть «Дефолтная нейронка», активируется когда мозг в покое – связана с кучей когнитивных штук, включая: способность мысленно перемещаться во времени (вспоминая прошлое или представляя будущее), пространственное познание, размышление о себе, своих чертах и опыте. Интересно, что повреждение это "сетки" ведет к депрессии или даже шизофрении (в теории).
3. Символическое мышление может происходить без языка как инструмента. Это означает, что мозг может манипулировать абстрактными символами или концепциями, не опираясь на слова или грамматические структуры. Условно, когда вам что-то «пришло в голову из неоткуда», это этот эффект.
4. Рассуждение по специфичным задачам — разные типы мышления (математические, социальные, пространственные и т.д.), по-видимому, задействуют разные мозговые «нейронки», что предполагает, что процессы мышления могут быть в некоторой степени модульными и специфичными для конкретных задач; это как если бы у одной мощной LLM было много Lora натренированных на конкретных задачах датасета, а не единая модель для решения всех задач.
5. Параллельная обработка — все эти «нейронки» для решения специфичных задач (социальные, причинно-следственные, решение проблем и т.д.) могут работать параллельно, получая при этом информацию с разных «сенсоров» тела, а не определяться единой системой, такой как язык.
6. Мы сильно похожи на животных — в статье упоминается непрерывность человеческой эволюции, предполагая, что наши процессы мышления могут быть более похожими на процессы мышления других животных, чем считалось ранее, просто они оказались более сложными из-за наших расширенных когнитивных способностей. То есть, условная собака может оказаться намного ближе к нам по процессу мышления чем мы раньше думали.
7. Культура развивает мышление — хоть это и не прямой механизм мышления, в статье упоминается что передача культурных знаний от поколения в поколение, повышает когнитивные способности человека с течением времени, это уже влияние языка как инструмента.
Короче, все еще ничего не понятно — но на всякий случай продолжайте тренировать лоры☕️
Я никогда не задумывался, как выглядит «мысль» если исключить из нее «язык», поэтому вот пару интересных наблюдений из статьи о том как устроен процесс мышления:
1. Мысли, вероятно, опираются на абстрактные, неязыковые ментальные представления. Это могут быть визуальные, пространственные или другие специфические представления под конкретные задачи и концепции. Как человек, который в любой момент времени может вспомнить любой маршрут по которому я ходил где-то и был трезвый, могу сказать что все так, у меня «карта местности» просто существует в виде образа в голове, как оказалось, так не у всех
2. В голове есть ансамбль нейронок — в статье упоминается несколько «мозговых сетей», участвующих в различных задачах:
— Есть нейронка «множественных требований» для целенаправленного поведения и решения новых задач, она поощряет находчивость при решении проблем, активируется при выполнении когнитивно сложных задач, особенно тех, которые требуют гибкого мышления и адаптации к новым ситуациям. Она же отвечает за планирование и рабочую память;
— Есть нейронка «теории разума» или «эмпатии»: для социального рассуждения и понимания психических состояний – мыслей, чувств, убеждений и намерений других людей. Это та, которая у нас уже хуже чем в GPT4o;
— Есть «Дефолтная нейронка», активируется когда мозг в покое – связана с кучей когнитивных штук, включая: способность мысленно перемещаться во времени (вспоминая прошлое или представляя будущее), пространственное познание, размышление о себе, своих чертах и опыте. Интересно, что повреждение это "сетки" ведет к депрессии или даже шизофрении (в теории).
3. Символическое мышление может происходить без языка как инструмента. Это означает, что мозг может манипулировать абстрактными символами или концепциями, не опираясь на слова или грамматические структуры. Условно, когда вам что-то «пришло в голову из неоткуда», это этот эффект.
4. Рассуждение по специфичным задачам — разные типы мышления (математические, социальные, пространственные и т.д.), по-видимому, задействуют разные мозговые «нейронки», что предполагает, что процессы мышления могут быть в некоторой степени модульными и специфичными для конкретных задач; это как если бы у одной мощной LLM было много Lora натренированных на конкретных задачах датасета, а не единая модель для решения всех задач.
5. Параллельная обработка — все эти «нейронки» для решения специфичных задач (социальные, причинно-следственные, решение проблем и т.д.) могут работать параллельно, получая при этом информацию с разных «сенсоров» тела, а не определяться единой системой, такой как язык.
6. Мы сильно похожи на животных — в статье упоминается непрерывность человеческой эволюции, предполагая, что наши процессы мышления могут быть более похожими на процессы мышления других животных, чем считалось ранее, просто они оказались более сложными из-за наших расширенных когнитивных способностей. То есть, условная собака может оказаться намного ближе к нам по процессу мышления чем мы раньше думали.
7. Культура развивает мышление — хоть это и не прямой механизм мышления, в статье упоминается что передача культурных знаний от поколения в поколение, повышает когнитивные способности человека с течением времени, это уже влияние языка как инструмента.
Короче, все еще ничего не понятно — но на всякий случай продолжайте тренировать лоры
Please open Telegram to view this post
VIEW IN TELEGRAM