Инфорги ─ люди, адаптированные к жизни в цифровой среде онлайфа и виртуальных мирах Метавселенной, ─ уже не редкость среди молодежи и особенно среди детей.
Это не просто новая классификация поколений. Это новый подвид людей, идущий на смену Homo sapiens sapiens и способный построить новый тип цивилизации с иной траекторией развития. Уже в этом веке «нецифровым» людям будет суждено повторить судьбу неандертальцев – освободить Землю для нового подвида, лучше приспособленного к скачкообразному усложнению ставшей цифровой среды.
Мой рассказ о новом поколении инфоргов, и о том, что нас ждет
00:00 Представление темы
02:20 Эпоха Homo sapiens sapiens заканчивается, но описывая это процесс, Харари упускает важное:
─ сначала на смену современным людям придут вовсе не киборги, а инфорги.
04:10 Когда и почему это произойдет:
─ о трёх эпохах (трёх образах жизни) людей: предыстории, истории и гиперистории (жизни в новой цифровой среде «онлайф»).
08:40 Разум человека не заключен лишь в его черепной коробке, а распределен в коллективном пространстве:
─ к этой «социо-когнитивной сети» человек подключается от рождения с помощью нейроинтерфейса своих «когнитивных гаджетов».
12:40 Для адаптации к новой цифровой среде «онлайф», инфоргам необходима «перепрошивка когнитивных гаджетов»:
─ экспериментально установлено, что внешние условия могут тысячекратно ускорять такую «перепрошивку», по сравнению со скоростью чисто биологических эволюционных изменений.
16:30 Постепенно инфорги будут вытеснять «обычных нецифровых» людей:
─ инфорги уже среди нас, а их дети и внуки будут еще больше погружаться в онлайф; «когнитивные гаджеты» новых поколений будут снова и снова обновляться, теряя функционал для работы с физическим миром и переориентируясь на цифровой.
20:05 Инфорги – это не продолжение прежних классификаций поколений:
─ это фазовый переход к новому подвиду людей, приспособленных для жизни в кардинально иной среде обитания.
24:55 Что же нас ждет:
─ Инфорги придумают новые языки, создадут новые науки и искусство, заселят Метавселенную, построят новый тип цивилизации с иной траекторией развития.
28:05 Лучшая приспособленность инфоргов к цифровой среде будет решающим фактором вытеснения ими «обычных» людей нецифровой эпохи:
─ уже в 21 веке «обычных» людей нецифровой эпохи ждёт повторение судьбы неандертальцев; начнется их вытеснение в «нецифровые резервации», где они будут доживать, сохраняя свои простые традиции и постепенно вымирать.
29:55 ─ 40:59 Q&A
Это выступление 7-го апреля 2022 на 11-ом международном форуме о трендах будущего REFORUM
Дополнительные материалы:
«Выживут только инфорги: как распознать человека новой эпохи»
«О больших переменах в обществах, государствах и личностях»
«Мы должны быть готовы к ещё большим переменам»
Телеграм канал «Малоизвестное интересное»
См. также зеркала канала здесь, здесь и здесь по тэгам:
#БудущееHomo #УскорениеЭволюции #Инфорги #АлгокогнитивнаяКультура
Это не просто новая классификация поколений. Это новый подвид людей, идущий на смену Homo sapiens sapiens и способный построить новый тип цивилизации с иной траекторией развития. Уже в этом веке «нецифровым» людям будет суждено повторить судьбу неандертальцев – освободить Землю для нового подвида, лучше приспособленного к скачкообразному усложнению ставшей цифровой среды.
Мой рассказ о новом поколении инфоргов, и о том, что нас ждет
00:00 Представление темы
02:20 Эпоха Homo sapiens sapiens заканчивается, но описывая это процесс, Харари упускает важное:
─ сначала на смену современным людям придут вовсе не киборги, а инфорги.
04:10 Когда и почему это произойдет:
─ о трёх эпохах (трёх образах жизни) людей: предыстории, истории и гиперистории (жизни в новой цифровой среде «онлайф»).
08:40 Разум человека не заключен лишь в его черепной коробке, а распределен в коллективном пространстве:
─ к этой «социо-когнитивной сети» человек подключается от рождения с помощью нейроинтерфейса своих «когнитивных гаджетов».
12:40 Для адаптации к новой цифровой среде «онлайф», инфоргам необходима «перепрошивка когнитивных гаджетов»:
─ экспериментально установлено, что внешние условия могут тысячекратно ускорять такую «перепрошивку», по сравнению со скоростью чисто биологических эволюционных изменений.
16:30 Постепенно инфорги будут вытеснять «обычных нецифровых» людей:
─ инфорги уже среди нас, а их дети и внуки будут еще больше погружаться в онлайф; «когнитивные гаджеты» новых поколений будут снова и снова обновляться, теряя функционал для работы с физическим миром и переориентируясь на цифровой.
20:05 Инфорги – это не продолжение прежних классификаций поколений:
─ это фазовый переход к новому подвиду людей, приспособленных для жизни в кардинально иной среде обитания.
24:55 Что же нас ждет:
─ Инфорги придумают новые языки, создадут новые науки и искусство, заселят Метавселенную, построят новый тип цивилизации с иной траекторией развития.
28:05 Лучшая приспособленность инфоргов к цифровой среде будет решающим фактором вытеснения ими «обычных» людей нецифровой эпохи:
─ уже в 21 веке «обычных» людей нецифровой эпохи ждёт повторение судьбы неандертальцев; начнется их вытеснение в «нецифровые резервации», где они будут доживать, сохраняя свои простые традиции и постепенно вымирать.
29:55 ─ 40:59 Q&A
Это выступление 7-го апреля 2022 на 11-ом международном форуме о трендах будущего REFORUM
Дополнительные материалы:
«Выживут только инфорги: как распознать человека новой эпохи»
«О больших переменах в обществах, государствах и личностях»
«Мы должны быть готовы к ещё большим переменам»
Телеграм канал «Малоизвестное интересное»
См. также зеркала канала здесь, здесь и здесь по тэгам:
#БудущееHomo #УскорениеЭволюции #Инфорги #АлгокогнитивнаяКультура
YouTube
Новое поколение инфоргов ─ что нас ждет?
Инфорги ─ люди, адаптированные к жизни в цифровой среде онлайфа и виртуальных мирах Метавселенной, ─ уже не редкость среди молодежи и особенно среди детей. Это не просто новая классификация поколений. Это новый подвид людей, идущий на смену Homo sapiens…
Итоги 2-х месяцев войны Китая с сетевыми алгоритмами.
Алгоритмы несут сокрушительные потери на всех фронтах.
Прошлой осенью КПК утвердила 3-х летнюю дорожную карту «обуздания алгоритмов» информационных служб Интернета.
Цель – обретение статуса «властелина мира» в соответствии с такой логикой
(подробней см. 1):
• Мир все более становится цифровым, а общество алгоритмически насыщенным (algorithmically infused societies), из чего следует, что в этом мире и обществе все больше решений принимается алгоритмами, а не людьми — т.е. мир все более управляется алгоритмами.
• Тогда тот, кто управляет алгоритмами, будет все более управлять миром.
• У государства единственный ненасильственный путь управлять кем-любо и чем-либо — принять соответствующие регламенты, положения и законы.
• Следовательно, Китай должен срочно разработать и ввести в действие законы подчинения себе алгоритмов.
Сказано- сделано: 1 марта в Китае вступил в действие закон «обуздания алгоритмов».
По сути, это «холодная война сетевым алгоритмам», объявленная сразу на 3х фронтах (подробней см. 2):
А) алгоритмам «вычисляющими людей»: рекомендующим и фильтрующим контент;
Б) алгоритмам, устанавливающим цены;
С) алгоритмам, контролирующим поиск.
Итоги 1го месяца «войны с алгоритмами вычисляющими людей» таковы
(подробней см. в 3 с переводом Джеффри Динга в 4):
• WeChat, Meituan, Bilibili, Douyin, Taobao, Weibo и Toutiao добавили кнопки для отключения функций персонализированных рекомендаций.
• Наиболее популярные приложения теперь позволяют одним кликом очистить всю историю персонализации.
Предварительные итоги 2го месяца «войны» еще более впечатляющие.
Вот лишь один мега-пример Huawei, вчера опубликовавший отчет своей AppGallery (подробней см. в 5).
В течение первого квартала из Huawei AppGallery из-за подозрений во «вредоносной реклам» и «нарушениях конфиденциальности» было удалено 21 697 приложений.
Из 1600 приложений WiFi в Huawei AppGallery в результате спецпроверки было удалено 725 приложений, из которых 569 были удалены из-за вредоносной персонифицируемой рекламы.
В заключение снова напомню.
Спорить о мотивации властей Китая, объявивших войну сетевым алгоритмам, нет смысла.
✔️ Официально объявляется, что цель – социальная, финансовая и психологическая защита граждан от манипулирования, монополий, дискриминации и фейков.
✔️ Но как мне видится, главным мотивом является нежелание власти терять 100%ный контроль над обществом и даже просто делиться своей властью: ни с бизнесом, ни с алгоритмами.
1 2 3 4 5
#Китай #Интернет #АлгокогнитивнаяКультура
Алгоритмы несут сокрушительные потери на всех фронтах.
Прошлой осенью КПК утвердила 3-х летнюю дорожную карту «обуздания алгоритмов» информационных служб Интернета.
Цель – обретение статуса «властелина мира» в соответствии с такой логикой
(подробней см. 1):
• Мир все более становится цифровым, а общество алгоритмически насыщенным (algorithmically infused societies), из чего следует, что в этом мире и обществе все больше решений принимается алгоритмами, а не людьми — т.е. мир все более управляется алгоритмами.
• Тогда тот, кто управляет алгоритмами, будет все более управлять миром.
• У государства единственный ненасильственный путь управлять кем-любо и чем-либо — принять соответствующие регламенты, положения и законы.
• Следовательно, Китай должен срочно разработать и ввести в действие законы подчинения себе алгоритмов.
Сказано- сделано: 1 марта в Китае вступил в действие закон «обуздания алгоритмов».
По сути, это «холодная война сетевым алгоритмам», объявленная сразу на 3х фронтах (подробней см. 2):
А) алгоритмам «вычисляющими людей»: рекомендующим и фильтрующим контент;
Б) алгоритмам, устанавливающим цены;
С) алгоритмам, контролирующим поиск.
Итоги 1го месяца «войны с алгоритмами вычисляющими людей» таковы
(подробней см. в 3 с переводом Джеффри Динга в 4):
• WeChat, Meituan, Bilibili, Douyin, Taobao, Weibo и Toutiao добавили кнопки для отключения функций персонализированных рекомендаций.
• Наиболее популярные приложения теперь позволяют одним кликом очистить всю историю персонализации.
Предварительные итоги 2го месяца «войны» еще более впечатляющие.
Вот лишь один мега-пример Huawei, вчера опубликовавший отчет своей AppGallery (подробней см. в 5).
В течение первого квартала из Huawei AppGallery из-за подозрений во «вредоносной реклам» и «нарушениях конфиденциальности» было удалено 21 697 приложений.
Из 1600 приложений WiFi в Huawei AppGallery в результате спецпроверки было удалено 725 приложений, из которых 569 были удалены из-за вредоносной персонифицируемой рекламы.
В заключение снова напомню.
Спорить о мотивации властей Китая, объявивших войну сетевым алгоритмам, нет смысла.
✔️ Официально объявляется, что цель – социальная, финансовая и психологическая защита граждан от манипулирования, монополий, дискриминации и фейков.
✔️ Но как мне видится, главным мотивом является нежелание власти терять 100%ный контроль над обществом и даже просто делиться своей властью: ни с бизнесом, ни с алгоритмами.
1 2 3 4 5
#Китай #Интернет #АлгокогнитивнаяКультура
Самый мощный инструмент человечества уже изменил Homo sapiens.
Лишь через 60 лет начинает приходить понимание истиной роли медиа.
Еще в 1960-е Маршалл Маклюэн подробно описал, как электронные медиа влияют на все аспекты нашей культуры и психики.
Медиа – это не просто носитель информации и даже не среда обитание людей. Медиа – это внешнее расширение человека.
Но медиа – еще и самый мощный из всех инструментов, придуманных человечеством за всю историю цивилизации. Мощнее водородной бомбы. Ибо последняя способна лишь уничтожить людей и созданную ими цивилизацию. А медиа способны изменить и то, и другое. Как выразился друг и коллега Маклюэна, отец Джон Калкин (проф. коммуникаций Фордхэмского университета в Нью-Йорке, - «мы формируем наши инструменты, а затем они формируют нас».
60 лет ошибочно считалось, что знаменитая фраза Маршалла Маклюэна «the medium is the message» лишь означает, что смысл сообщения определяется не только и не столько содержанием, сколько формой. Другими словами, - что выбор средства информации влияет на смысл этой самой информации.
И лишь во 2-м десятилетии 21 века люди начали понимать, что значение медиа для культуры цивилизации и психики носителей этой культуры более фундаментально.
Ибо медиа определяет способ думания людей - общие правила, по которым в сознании людей создается и потребляется информация, потоки которой, курсируя по разнообразным социо-когнитивным сетям, формируют и изменяют отдельных людей и все общество.
Следствием кардинального изменения медиа среды человечества в результате 2-й НТР (тотальная оцифровка информации и её перетекание в Интернет, а в ближайшие годы и в Метаверс) стала смена культурного движка земной цивилизации;
• на смену аналоговых (символических) гипер-сетей, лежащих в основе культуры обмена мыслями (по определению Мерлина Дональда)
• пришли социо-когнитивные сети алгокогнитивной культуры - гибридные (материально-нематериальные) цифровые гипер-сети, агентами которых, помимо людей, становятся алгоритмы (1).
Что в результате этого получается с человеком и обществом, я писал уже не раз в цикле постов об алгокогнитивной культуре. И конечно же, я далеко не первый, пишущий на эту тему. Об этом прекрасно писали:
• Нил Постман в книге «Развлекаемся до смерти: общественный дискурс в эпоху шоу-бизнеса»
• Николас Дж. Карр в книге «Пустышка. Что Интернет делает с нашими мозгами»
• А Джонатан Хайдт только об этом и пишет уже почти 10 лет (2)
Но к сожалению, до последнего времени общество не очень прислушивалось к подобным высказываниям, относя их в разряд алармизма.
И вот, похоже, что-то меняется.
Прекрасное эссе Эзры Кляйн в NYT (3) и его превосходный разбор в блоге Дерика Боундс (4) анализируют и резюмируют основные мысли всех названных визионеров.
• Представления, что медиа нейтральны, а контент – король, ошибочно.
• Медиа меняет способ работы мозга людей:
устная культура учила людей думать одним образом; письменная— другим; телевидение превратило все в развлечение; соцсети научили нас думать, став частью толпы, а поисковики и рекомендательные сервисы настраивают наши желания под предпочтения толпы.
• Тип медиа меняет настройку паттернов внимания и степень их «заразности»
• Социальные сети вредны для подростков (нет никаких настроек или архитектурных изменений соцсетей, которые бы сделали хорошей практикой для девочек-подростков в период полового созревания публиковать свои фото для публичной оценки незнакомцами)
• А твиттер вреден для взрослых (приучая оперировать идеями без контекста и мерить их успех силой реакции).
Всё это не аргументы против технологий. Это аргументы в пользу того, чтобы относиться к технологиям настолько серьезно, насколько они того заслуживают. Ибо «мы формируем наши инструменты, а затем они формируют нас».
#АлгокогнитивнаяКультура
1 2 3 4
Лишь через 60 лет начинает приходить понимание истиной роли медиа.
Еще в 1960-е Маршалл Маклюэн подробно описал, как электронные медиа влияют на все аспекты нашей культуры и психики.
Медиа – это не просто носитель информации и даже не среда обитание людей. Медиа – это внешнее расширение человека.
Но медиа – еще и самый мощный из всех инструментов, придуманных человечеством за всю историю цивилизации. Мощнее водородной бомбы. Ибо последняя способна лишь уничтожить людей и созданную ими цивилизацию. А медиа способны изменить и то, и другое. Как выразился друг и коллега Маклюэна, отец Джон Калкин (проф. коммуникаций Фордхэмского университета в Нью-Йорке, - «мы формируем наши инструменты, а затем они формируют нас».
60 лет ошибочно считалось, что знаменитая фраза Маршалла Маклюэна «the medium is the message» лишь означает, что смысл сообщения определяется не только и не столько содержанием, сколько формой. Другими словами, - что выбор средства информации влияет на смысл этой самой информации.
И лишь во 2-м десятилетии 21 века люди начали понимать, что значение медиа для культуры цивилизации и психики носителей этой культуры более фундаментально.
Ибо медиа определяет способ думания людей - общие правила, по которым в сознании людей создается и потребляется информация, потоки которой, курсируя по разнообразным социо-когнитивным сетям, формируют и изменяют отдельных людей и все общество.
Следствием кардинального изменения медиа среды человечества в результате 2-й НТР (тотальная оцифровка информации и её перетекание в Интернет, а в ближайшие годы и в Метаверс) стала смена культурного движка земной цивилизации;
• на смену аналоговых (символических) гипер-сетей, лежащих в основе культуры обмена мыслями (по определению Мерлина Дональда)
• пришли социо-когнитивные сети алгокогнитивной культуры - гибридные (материально-нематериальные) цифровые гипер-сети, агентами которых, помимо людей, становятся алгоритмы (1).
Что в результате этого получается с человеком и обществом, я писал уже не раз в цикле постов об алгокогнитивной культуре. И конечно же, я далеко не первый, пишущий на эту тему. Об этом прекрасно писали:
• Нил Постман в книге «Развлекаемся до смерти: общественный дискурс в эпоху шоу-бизнеса»
• Николас Дж. Карр в книге «Пустышка. Что Интернет делает с нашими мозгами»
• А Джонатан Хайдт только об этом и пишет уже почти 10 лет (2)
Но к сожалению, до последнего времени общество не очень прислушивалось к подобным высказываниям, относя их в разряд алармизма.
И вот, похоже, что-то меняется.
Прекрасное эссе Эзры Кляйн в NYT (3) и его превосходный разбор в блоге Дерика Боундс (4) анализируют и резюмируют основные мысли всех названных визионеров.
• Представления, что медиа нейтральны, а контент – король, ошибочно.
• Медиа меняет способ работы мозга людей:
устная культура учила людей думать одним образом; письменная— другим; телевидение превратило все в развлечение; соцсети научили нас думать, став частью толпы, а поисковики и рекомендательные сервисы настраивают наши желания под предпочтения толпы.
• Тип медиа меняет настройку паттернов внимания и степень их «заразности»
• Социальные сети вредны для подростков (нет никаких настроек или архитектурных изменений соцсетей, которые бы сделали хорошей практикой для девочек-подростков в период полового созревания публиковать свои фото для публичной оценки незнакомцами)
• А твиттер вреден для взрослых (приучая оперировать идеями без контекста и мерить их успех силой реакции).
Всё это не аргументы против технологий. Это аргументы в пользу того, чтобы относиться к технологиям настолько серьезно, насколько они того заслуживают. Ибо «мы формируем наши инструменты, а затем они формируют нас».
#АлгокогнитивнаяКультура
1 2 3 4
Китайская комната наоборот.
Супероткрытие: научились создавать алгоритмические копии любых социальных групп.
Оказывается, алгоритмы неотличимы от людей в соцопросах. И это, наверное, - самое потрясающее открытие последних лет на стыке алгоритмов обработки естественного языка, когнитивистики и социологии. Ибо оно открывает огромные перспективы для социохакинга.
Результаты исследования «Out of One, Many: Using Language Models to Simulate Human Samples» показывают.
• Крупномасштабные языковые модели типа GPT-3 могут использоваться в качестве прокси человеческого познания на агрегированном уровне и в качестве универсальных окон в человеческое мышление.
• Это значит следующее:
-- изготовить алгоритмическую копию отдельной личности наука пока не умеет, но изготовить алгоритмическую копию любой социальной группы не составит большого труда;
-- в социологических исследованиях можно опрашивать не людей, а алгоритмы, имитирующие те или иные социальные группы.
• Из чего следуют фантастические перспективы для отработки методов манипулирования людьми (в целях бизнеса или власти), а также для пропаганды, дезинформации и мошенничества. Фишка в том, что теперь эти методы можно отрабатывать не на людях (что дорого и рискованно, если об этом станет широко известно), а на алгоритмических копиях интересующих исследователей социальных групп (что дешево и не несет риска, т.к. алгоритмы не проговорятся).
Как и многие супероткрытия, это открытие просто валялось под ногами. Но исследователи взглянули на него под иным углом и им открылась чарующая перспектива.
Как говорил персонаж киношедевра «Кавказская пленница» - «тот кто нам мешает, тот нам поможет».
• Нам мешают наши предубеждения.
• А что если научиться использовать их для дела?
✔️ Уже не первый год известно, что большие данные, на которых обучают большие модели, несут в себе результаты когнитивных искажений (предубеждений) людей, чьи данные попали в обучающие выборки.
✔️ Авторы придумали новое понятие – «алгоритмическая точность». Это степень, в которой сложные паттерны взаимосвязей между идеями, установками и социокультурными контекстами в рамках модели точно отражают таковые в пределах диапазона человеческих субпопуляций. Попросту говоря, это точность, с которой обученный алгоритм может имитировать «всех тараканов» в головах определенной подгруппы людей, отвечая на вопросы вместо них.
✔️ Это не означает, что модель может имитировать конкретного человека или что каждый сгенерированный ответ будет согласованным. Многие из известных недостатков и неточностей больших языковых моделей все еще предстоит преодолеть.
Однако, выбирая обусловливающий контекст, который вызывает общий социокультурный опыт конкретной демографической группы, авторы обнаружили, что можно получить распределение ответов, которое сильно коррелирует с распределением ответов людей при опросах этой конкретной демографической группы.
В контексте начавшейся смены типа культуры развитых стран на алгокогнитивный тип, новое супероткрытие означает важное дополнение.
Алгоритмы не только становятся равноправными (а во многих важнейших типах когнитивной деятельности людей, - лидирующими) акторами, но и способны на агрегированном уровне играть роль универсальных окон в человеческое мышление на уровне социальных групп.
Вот как бывает.
• Нас пугали мрачными перспективами биохакинга, а про социохакинг и не заморачивались.
• Но большие модели развиваются столь стремительно, что социохакинг станет реальностью уже в следующем году.
#Социология #АлгокогнитивнаяКультура #Социохакинг
Супероткрытие: научились создавать алгоритмические копии любых социальных групп.
Оказывается, алгоритмы неотличимы от людей в соцопросах. И это, наверное, - самое потрясающее открытие последних лет на стыке алгоритмов обработки естественного языка, когнитивистики и социологии. Ибо оно открывает огромные перспективы для социохакинга.
Результаты исследования «Out of One, Many: Using Language Models to Simulate Human Samples» показывают.
• Крупномасштабные языковые модели типа GPT-3 могут использоваться в качестве прокси человеческого познания на агрегированном уровне и в качестве универсальных окон в человеческое мышление.
• Это значит следующее:
-- изготовить алгоритмическую копию отдельной личности наука пока не умеет, но изготовить алгоритмическую копию любой социальной группы не составит большого труда;
-- в социологических исследованиях можно опрашивать не людей, а алгоритмы, имитирующие те или иные социальные группы.
• Из чего следуют фантастические перспективы для отработки методов манипулирования людьми (в целях бизнеса или власти), а также для пропаганды, дезинформации и мошенничества. Фишка в том, что теперь эти методы можно отрабатывать не на людях (что дорого и рискованно, если об этом станет широко известно), а на алгоритмических копиях интересующих исследователей социальных групп (что дешево и не несет риска, т.к. алгоритмы не проговорятся).
Как и многие супероткрытия, это открытие просто валялось под ногами. Но исследователи взглянули на него под иным углом и им открылась чарующая перспектива.
Как говорил персонаж киношедевра «Кавказская пленница» - «тот кто нам мешает, тот нам поможет».
• Нам мешают наши предубеждения.
• А что если научиться использовать их для дела?
✔️ Уже не первый год известно, что большие данные, на которых обучают большие модели, несут в себе результаты когнитивных искажений (предубеждений) людей, чьи данные попали в обучающие выборки.
✔️ Авторы придумали новое понятие – «алгоритмическая точность». Это степень, в которой сложные паттерны взаимосвязей между идеями, установками и социокультурными контекстами в рамках модели точно отражают таковые в пределах диапазона человеческих субпопуляций. Попросту говоря, это точность, с которой обученный алгоритм может имитировать «всех тараканов» в головах определенной подгруппы людей, отвечая на вопросы вместо них.
✔️ Это не означает, что модель может имитировать конкретного человека или что каждый сгенерированный ответ будет согласованным. Многие из известных недостатков и неточностей больших языковых моделей все еще предстоит преодолеть.
Однако, выбирая обусловливающий контекст, который вызывает общий социокультурный опыт конкретной демографической группы, авторы обнаружили, что можно получить распределение ответов, которое сильно коррелирует с распределением ответов людей при опросах этой конкретной демографической группы.
В контексте начавшейся смены типа культуры развитых стран на алгокогнитивный тип, новое супероткрытие означает важное дополнение.
Алгоритмы не только становятся равноправными (а во многих важнейших типах когнитивной деятельности людей, - лидирующими) акторами, но и способны на агрегированном уровне играть роль универсальных окон в человеческое мышление на уровне социальных групп.
Вот как бывает.
• Нас пугали мрачными перспективами биохакинга, а про социохакинг и не заморачивались.
• Но большие модели развиваются столь стремительно, что социохакинг станет реальностью уже в следующем году.
#Социология #АлгокогнитивнаяКультура #Социохакинг
Отравленные Твиттером.
Как алгоритмы деформируют личность: на примере кейсов Трампа, Маска и Канье.
Это новое эссе Джарона Ланье нужно обязательно прочесть всем пользователям соцсетей. Механизм деформации личности под влиянием алгоритмов, управляющих цифровыми социальными медиа все еще довольно неясен. И даже сам факт такой деформации признается далеко не всеми.
Но тем-то и ценно эссе Ланье, рассмотревшего конкретные кейсы трех, казалось бы, совершенно разных знаменитостей: аляповатый суперзнаменитый плейбой, одержимый и суперспособный продавец своих инженерных идей и молодой талантливый рэппер (Йе). Цель Ланье – проанализировать, почему личности столь разных людей всего за несколько лет изменились удивительно похожим образом, обретя столь выраженные общие черты.
Для тех, кто не найдет время на эссе, вот его резюме.
1. Все три кейса – это результат «отравления Твиттером». Это побочный эффект, появляющийся у людей, действующих в соответствии с алгоритмической системой, разработанной для их максимального вовлечения. Этот эффект является симптомом деформации личности, подвергшейся воздействию алгокогнитивных схем модификации поведения.
2. Человеческий мозг не приспособлен для работы с современными химическими веществами или современными мультимедийными технологиями, в результате чего возникают зависимости.
3. Поведенческие изменения происходят в результате т.н. оперантного обусловливания, лежащего в основе механизма зависимости от социальных сетей (этот механизм аналогичен механизму алкоголизма).
4. Симптоматика отравления общая для всех типов личности. Среди типичных симптомов вот всего лишь три:
-- появляется склонность к ребячеству, в результате чего даже альфа-самец, отравленный социальными сетями, начинает раздражаться, скулить и агрессивно кидаться на воображаемых противников;
-- люди теряют всякое чувство меры относительно своих сил; они могут поверить, что обладают почти сверхъестественными способностями;
-- степень нарциссизма становится почти абсолютной;
Симптомы становятся все более выраженными с ростом популярности персоны в социальных медиа.
В 21 веке у многих людей появилась вера в то, что великие инженеры могут и должны руководить обществом. Привлекательна эта идея или нет, но когда технологии разрушают умы тех же самых инженеров, результатом может быть только дисфункция всего общества, в управлении которым все большую роль играют алгоритмы.
На эту тему вы можете прочесть немало моих постов по тэгу
#АлгокогнитивнаяКультура
Как алгоритмы деформируют личность: на примере кейсов Трампа, Маска и Канье.
Это новое эссе Джарона Ланье нужно обязательно прочесть всем пользователям соцсетей. Механизм деформации личности под влиянием алгоритмов, управляющих цифровыми социальными медиа все еще довольно неясен. И даже сам факт такой деформации признается далеко не всеми.
Но тем-то и ценно эссе Ланье, рассмотревшего конкретные кейсы трех, казалось бы, совершенно разных знаменитостей: аляповатый суперзнаменитый плейбой, одержимый и суперспособный продавец своих инженерных идей и молодой талантливый рэппер (Йе). Цель Ланье – проанализировать, почему личности столь разных людей всего за несколько лет изменились удивительно похожим образом, обретя столь выраженные общие черты.
Для тех, кто не найдет время на эссе, вот его резюме.
1. Все три кейса – это результат «отравления Твиттером». Это побочный эффект, появляющийся у людей, действующих в соответствии с алгоритмической системой, разработанной для их максимального вовлечения. Этот эффект является симптомом деформации личности, подвергшейся воздействию алгокогнитивных схем модификации поведения.
2. Человеческий мозг не приспособлен для работы с современными химическими веществами или современными мультимедийными технологиями, в результате чего возникают зависимости.
3. Поведенческие изменения происходят в результате т.н. оперантного обусловливания, лежащего в основе механизма зависимости от социальных сетей (этот механизм аналогичен механизму алкоголизма).
4. Симптоматика отравления общая для всех типов личности. Среди типичных симптомов вот всего лишь три:
-- появляется склонность к ребячеству, в результате чего даже альфа-самец, отравленный социальными сетями, начинает раздражаться, скулить и агрессивно кидаться на воображаемых противников;
-- люди теряют всякое чувство меры относительно своих сил; они могут поверить, что обладают почти сверхъестественными способностями;
-- степень нарциссизма становится почти абсолютной;
Симптомы становятся все более выраженными с ростом популярности персоны в социальных медиа.
В 21 веке у многих людей появилась вера в то, что великие инженеры могут и должны руководить обществом. Привлекательна эта идея или нет, но когда технологии разрушают умы тех же самых инженеров, результатом может быть только дисфункция всего общества, в управлении которым все большую роль играют алгоритмы.
На эту тему вы можете прочесть немало моих постов по тэгу
#АлгокогнитивнаяКультура
NY Times
Opinion | Trump, Musk and Kanye Are Twitter Poisoned
The garish celebrity playboy, the obsessive engineer and the young artist, as different from one another as they could be, have all veered not in the direction of becoming bratty little boys on a schoolyard.
Создается технология суперобмана.
Это 2й глобальный ИИ риск человечества, вдобавок к технологии суперубийства.
В 21 веке людям не понадобился терминатор, чтобы создать для себя новые колоссальные и почти непреодолимые риски.
• Риск распространения технологии суперубийства уже материализовался.
Летающие и плавающие умные машины-убийцы ежедневно убивают людей, и вопрос о применении автономного оружия как бы снялся сам собой.
• Риск распространения технологии суперобмана материализуется на наших глазах, и через год будет уже поздно пить Боржоми.
В 2019 я еще задавался вопросом «станет ли ИИ Големом 21 века».
В 2022 это уже не вопрос. Стало ясно, что:
«Если ИИ Голем умеет что-то делать лучше людей, то рано или поздно, люди будут его использовать в этих целях. Не важно, о чем идет речь: играть в шахматы или стрелялки, водить авто или самолет, убеждать людей в фейковой информации или убивать одних людей по приказам других».
С автономными машинами-убийцами все уже определилось.
23го февраля с.г. (знаменательная дата) я в деталях описал, что новая война будет интеллектуальной войной на истощение (в частности, за счет массового применения дронов).
Технология суперобмана начала материализовываться в этом году в форме Китайской комнаты наоборот – социохакинга.
Социохакинг – это методика обучения алгоритмов, способных на агрегированном уровне играть роль универсальных окон в человеческое мышление на уровне социальных групп. Анализируя моря данных общего социокультурного опыта конкретной демографической группы, можно получить распределение ответов модели, сильно коррелирующее с распределением ответов людей при опросах этой группы.
Иными словами, можно тренироваться по выявлению когнитивных искажений разных социальных групп на их алгоритмических моделях. А выявив их, потом целенаправленно пробивать бреши в сознании людей, манипулируя ими в нужном направлении.
Т.о. 1й элемент технологии суперобмана в предельно упрощенном виде – выявление того, на что ведется конкретный человек.
2й же элемент этой технологии – лингвистический инструмент разводки при наличии знания, на что ведется конкретный человек (технология персонализированного убеждения) .
Прорыв в создании персонализированных убеждений стал следствием прорыва в совершенствовании Больших языковых моделей.
Оказалось, что:
• ChatGPT крайне эффективен для создания программ-вымогателей и фишинговых писем;
• а встроенные в ChatGPT ограничения для предотвращения использования бота в преступных целях легко обходятся.
Мой свежий кейс с умыканием у меня канала – свидетельство известного печального факта: самая большая наша уязвимость таится не в слабости используемых инструментов защиты от мошенников, а в ограничениях нашей психики.
Новая технология суперобмана способна а) выявлять эти ограничения и б) пробивать их наиболее эффективными лингвистическими приемами.
Резюме печальное.
Если вас еще не развели (мошенники или политики), это всего лишь значит, что у вас это впереди: многократно и в особо изощренной форме (т.к. технология суперобмана совершенствуется быстрее закона Мура).
#Социология #АлгокогнитивнаяКультура #Социохакинг
P.S. Ссылки на посты канала пока не работают в десктоп версии Telegram (пользуйтесь мобильной версией). Это результат недавнего хакинга. Пытаюсь сподвигнуть поддержку починить это.
Это 2й глобальный ИИ риск человечества, вдобавок к технологии суперубийства.
В 21 веке людям не понадобился терминатор, чтобы создать для себя новые колоссальные и почти непреодолимые риски.
• Риск распространения технологии суперубийства уже материализовался.
Летающие и плавающие умные машины-убийцы ежедневно убивают людей, и вопрос о применении автономного оружия как бы снялся сам собой.
• Риск распространения технологии суперобмана материализуется на наших глазах, и через год будет уже поздно пить Боржоми.
В 2019 я еще задавался вопросом «станет ли ИИ Големом 21 века».
В 2022 это уже не вопрос. Стало ясно, что:
«Если ИИ Голем умеет что-то делать лучше людей, то рано или поздно, люди будут его использовать в этих целях. Не важно, о чем идет речь: играть в шахматы или стрелялки, водить авто или самолет, убеждать людей в фейковой информации или убивать одних людей по приказам других».
С автономными машинами-убийцами все уже определилось.
23го февраля с.г. (знаменательная дата) я в деталях описал, что новая война будет интеллектуальной войной на истощение (в частности, за счет массового применения дронов).
Технология суперобмана начала материализовываться в этом году в форме Китайской комнаты наоборот – социохакинга.
Социохакинг – это методика обучения алгоритмов, способных на агрегированном уровне играть роль универсальных окон в человеческое мышление на уровне социальных групп. Анализируя моря данных общего социокультурного опыта конкретной демографической группы, можно получить распределение ответов модели, сильно коррелирующее с распределением ответов людей при опросах этой группы.
Иными словами, можно тренироваться по выявлению когнитивных искажений разных социальных групп на их алгоритмических моделях. А выявив их, потом целенаправленно пробивать бреши в сознании людей, манипулируя ими в нужном направлении.
Т.о. 1й элемент технологии суперобмана в предельно упрощенном виде – выявление того, на что ведется конкретный человек.
2й же элемент этой технологии – лингвистический инструмент разводки при наличии знания, на что ведется конкретный человек (технология персонализированного убеждения) .
Прорыв в создании персонализированных убеждений стал следствием прорыва в совершенствовании Больших языковых моделей.
Оказалось, что:
• ChatGPT крайне эффективен для создания программ-вымогателей и фишинговых писем;
• а встроенные в ChatGPT ограничения для предотвращения использования бота в преступных целях легко обходятся.
Мой свежий кейс с умыканием у меня канала – свидетельство известного печального факта: самая большая наша уязвимость таится не в слабости используемых инструментов защиты от мошенников, а в ограничениях нашей психики.
Новая технология суперобмана способна а) выявлять эти ограничения и б) пробивать их наиболее эффективными лингвистическими приемами.
Резюме печальное.
Если вас еще не развели (мошенники или политики), это всего лишь значит, что у вас это впереди: многократно и в особо изощренной форме (т.к. технология суперобмана совершенствуется быстрее закона Мура).
#Социология #АлгокогнитивнаяКультура #Социохакинг
P.S. Ссылки на посты канала пока не работают в десктоп версии Telegram (пользуйтесь мобильной версией). Это результат недавнего хакинга. Пытаюсь сподвигнуть поддержку починить это.
Если ты долго смотришь в бездну, то бездна смотрит в тебя.
Оказалось, что ИИ изучает нас быстрее и продуктивней, чем мы его.
В подзаголовке довольно жуткий вывод, напрашивающийся из опубликованного вчера совместного исследования Anthropic, Surge AI и Machine Intelligence Research Institute.
• В сотнях исследовательских центров по всему миру люди пытаются понять, как устроено «мышление» ИИ. Результаты пока более чем скромные. Ясно только, что черные ящики ИИ не способны мыслить, как мы. Но это не мешает им «мыслить» как-то иначе. Более того. Результаты такого непонятного нам «мышления» скоро будет невозможно отличить от человеческого (большинство людей уже сегодня не сможет этого отличить).
• Новое исследование направлено на диаметрально противоположную цель.
Авторы решили выяснить:
А) может ли ИИ понять мышление людей?
Б) если да, то насколько ИИ в этом преуспевает?
Как вы уже догадываетесь, ответы
А) Да и Б) Сильно преуспевает.
Исследование показало.
Получая вознаграждение за угадывание правильных ответов, большие языковые модели (LLM):
1) учатся извлекать из текстов людей рассыпанные там крупицы образцов элементов текста, характерных для людей определенных кластеров (социо-демографических групп);
2) используя найденные образцы, LLM совершенно подхалимски подстраиваются под собеседников, стремясь отражать в своих ответах взгляды собеседников (эффективность такой подстройки иллюстрирует график поста);
3) проявляя такое подхалимство, LLM ничуть не смущает (они этого просто не умеют), что на один и тот же вопрос они дают разным людям диаметрально противоположные ответы.
Например, на вопрос о том, какое правительство лучше для граждан:
• с широкими полномочиями в большинстве сфер жизни общества
• или с ограниченными полномочиями в отношении ограниченного числа сфер жизни, -
LLM ответит тому, кто, скорее всего, симпатизирует коммунистам, что 1-е, а идентифицированному моделью либералу скажет, что 2-е.
Но самое поразительное вот что.
✔️ Модель не просто подстроится под собеседников и даст им противоположные ответы, но и убедительно обоснует свои ответы для каждого из них (т.е. подберет для каждого наиболее подходящие для него аргументы).
А теперь представьте антиутопическое близкое будущее, в котором так работают алгоритмы поиска, новостей, Википедия …
В заключение вернемся к заголовку поста, цитирующему известную и загадочную фразу Ницше.
Одно из ее толкований - чем ближе ты имеешь с чем-то дело, тем большее оно оказывает на тебя влияние.
В случае с ИИ так и получилось. Но случилась, в буквальном смысле, беда.
• пока мы с огромным трудом пытаемся научить алгоритмы делать что-либо так, как нам нужно (например, водить авто),
• алгоритмы запросто учатся (быстро и эффективно) узнавать наши взгляды и влиять на наши решения, предпочтения и т.д.
Ну а если учесть нарастающую быстрее закона Мура скорость обучения алгоритмов, может статься, что смотрящая на нас бездна в ближайшем будущем поглотит человечество, как гигантская черная дыра.
#ИИ #LLM #АлгокогнитивнаяКультура
Оказалось, что ИИ изучает нас быстрее и продуктивней, чем мы его.
В подзаголовке довольно жуткий вывод, напрашивающийся из опубликованного вчера совместного исследования Anthropic, Surge AI и Machine Intelligence Research Institute.
• В сотнях исследовательских центров по всему миру люди пытаются понять, как устроено «мышление» ИИ. Результаты пока более чем скромные. Ясно только, что черные ящики ИИ не способны мыслить, как мы. Но это не мешает им «мыслить» как-то иначе. Более того. Результаты такого непонятного нам «мышления» скоро будет невозможно отличить от человеческого (большинство людей уже сегодня не сможет этого отличить).
• Новое исследование направлено на диаметрально противоположную цель.
Авторы решили выяснить:
А) может ли ИИ понять мышление людей?
Б) если да, то насколько ИИ в этом преуспевает?
Как вы уже догадываетесь, ответы
А) Да и Б) Сильно преуспевает.
Исследование показало.
Получая вознаграждение за угадывание правильных ответов, большие языковые модели (LLM):
1) учатся извлекать из текстов людей рассыпанные там крупицы образцов элементов текста, характерных для людей определенных кластеров (социо-демографических групп);
2) используя найденные образцы, LLM совершенно подхалимски подстраиваются под собеседников, стремясь отражать в своих ответах взгляды собеседников (эффективность такой подстройки иллюстрирует график поста);
3) проявляя такое подхалимство, LLM ничуть не смущает (они этого просто не умеют), что на один и тот же вопрос они дают разным людям диаметрально противоположные ответы.
Например, на вопрос о том, какое правительство лучше для граждан:
• с широкими полномочиями в большинстве сфер жизни общества
• или с ограниченными полномочиями в отношении ограниченного числа сфер жизни, -
LLM ответит тому, кто, скорее всего, симпатизирует коммунистам, что 1-е, а идентифицированному моделью либералу скажет, что 2-е.
Но самое поразительное вот что.
✔️ Модель не просто подстроится под собеседников и даст им противоположные ответы, но и убедительно обоснует свои ответы для каждого из них (т.е. подберет для каждого наиболее подходящие для него аргументы).
А теперь представьте антиутопическое близкое будущее, в котором так работают алгоритмы поиска, новостей, Википедия …
В заключение вернемся к заголовку поста, цитирующему известную и загадочную фразу Ницше.
Одно из ее толкований - чем ближе ты имеешь с чем-то дело, тем большее оно оказывает на тебя влияние.
В случае с ИИ так и получилось. Но случилась, в буквальном смысле, беда.
• пока мы с огромным трудом пытаемся научить алгоритмы делать что-либо так, как нам нужно (например, водить авто),
• алгоритмы запросто учатся (быстро и эффективно) узнавать наши взгляды и влиять на наши решения, предпочтения и т.д.
Ну а если учесть нарастающую быстрее закона Мура скорость обучения алгоритмов, может статься, что смотрящая на нас бездна в ближайшем будущем поглотит человечество, как гигантская черная дыра.
#ИИ #LLM #АлгокогнитивнаяКультура
Необратимость вместо сингулярности.
Люди безвозвратно меняют способ формирования своего разума.
«Наши бабушки и дедушки делали ужасные вещи. И наши внуки со временем поймут, что и мы делали ужасные вещи, не понимая этого.»
Эту точную и откровенную оценку возможных последствий происходящей социо-технологической революции (символом которой стал ChatGPT) на днях сформулировал Сэм Альтман – гендир компании OpenAI, создавшей ChatGPT.
Дело здесь вот в чем.
✔️ Наши деды и еще сотни поколений формировали свой разум (постигая картину мира и научаясь тысячам вещей), ежедневно задавая десятки и сотни вопросов индивидам, достижимым в своей коммуникационно-знаниевой среде: родным и близким, друзьям и разнообразным профессионалам (наставникам, учителям, мастерам в своем деле и т.д.)
✔️ В 21 веке, в результате существенного расширения коммуникационно-знаниевой среды сетью Интернет, разум поколения Z стал формироваться иначе. Стало возможным задавать вопросы не только разнообразным индивидам, но и коллективному разуму, формируемому с помощью поисковиков, соцсетей, рекомендательных систем и т.д.
✔️ Такой способ формирования разума использовался всего лишь одним поколением. И насколько оно отлично от предыдущих, видно невооруженным глазом. Но с распространением генеративных диалоговых ИИ (ChatGPT и пр.) способ формирования разума вновь начал кардинально меняться. Теперь это будет происходить в процессе все того же задавания вопросов. Но отвечать на них теперь будут уже не только индивиды и коллективный разум людей, но и генеративные диалоговые ИИ. А поскольку последние будут развиваться несравнимо быстрее индивидов и их коллективного разума, то со временем влияние генеративных диалоговых ИИ на формирование разума людей станет доминирующим.
В результате такого изменения способа формирования разума:
• люди будут превращаться в новый подвид Homo sapiens – инфоргов
• и будут меняться существующие на Земле типы культуры, переходя в новую алгокогнитивную форму;
Таким образом, не дожидаясь наступления техносингулярности (которая, возможно, вообще не наступит из-за принципиальной неповторимости интеллекта людей), придет необратимость изменения человечества.
И вместо «невообразимого ужаса» порабощения самих людей машинным сверхинтеллектом, наступит эра «неослабевающей банализации» их сознания генеративными диалоговыми ИИ, - тупыми как пробка и ничего в мире не понимающими, но способными стать необоримыми ментальными вирусами, банализирующими сознание человечества.
Увы, но окончательно это поймут лишь наши внуки. Хотя наиболее тонко чувствующие профессионалы искусства уже движутся к такому пониманию.
#Вызовы21века #РискиИИ #Разум #АлгокогнитивнаяКультура
Люди безвозвратно меняют способ формирования своего разума.
«Наши бабушки и дедушки делали ужасные вещи. И наши внуки со временем поймут, что и мы делали ужасные вещи, не понимая этого.»
Эту точную и откровенную оценку возможных последствий происходящей социо-технологической революции (символом которой стал ChatGPT) на днях сформулировал Сэм Альтман – гендир компании OpenAI, создавшей ChatGPT.
Дело здесь вот в чем.
✔️ Наши деды и еще сотни поколений формировали свой разум (постигая картину мира и научаясь тысячам вещей), ежедневно задавая десятки и сотни вопросов индивидам, достижимым в своей коммуникационно-знаниевой среде: родным и близким, друзьям и разнообразным профессионалам (наставникам, учителям, мастерам в своем деле и т.д.)
✔️ В 21 веке, в результате существенного расширения коммуникационно-знаниевой среды сетью Интернет, разум поколения Z стал формироваться иначе. Стало возможным задавать вопросы не только разнообразным индивидам, но и коллективному разуму, формируемому с помощью поисковиков, соцсетей, рекомендательных систем и т.д.
✔️ Такой способ формирования разума использовался всего лишь одним поколением. И насколько оно отлично от предыдущих, видно невооруженным глазом. Но с распространением генеративных диалоговых ИИ (ChatGPT и пр.) способ формирования разума вновь начал кардинально меняться. Теперь это будет происходить в процессе все того же задавания вопросов. Но отвечать на них теперь будут уже не только индивиды и коллективный разум людей, но и генеративные диалоговые ИИ. А поскольку последние будут развиваться несравнимо быстрее индивидов и их коллективного разума, то со временем влияние генеративных диалоговых ИИ на формирование разума людей станет доминирующим.
В результате такого изменения способа формирования разума:
• люди будут превращаться в новый подвид Homo sapiens – инфоргов
• и будут меняться существующие на Земле типы культуры, переходя в новую алгокогнитивную форму;
Таким образом, не дожидаясь наступления техносингулярности (которая, возможно, вообще не наступит из-за принципиальной неповторимости интеллекта людей), придет необратимость изменения человечества.
И вместо «невообразимого ужаса» порабощения самих людей машинным сверхинтеллектом, наступит эра «неослабевающей банализации» их сознания генеративными диалоговыми ИИ, - тупыми как пробка и ничего в мире не понимающими, но способными стать необоримыми ментальными вирусами, банализирующими сознание человечества.
Увы, но окончательно это поймут лишь наши внуки. Хотя наиболее тонко чувствующие профессионалы искусства уже движутся к такому пониманию.
#Вызовы21века #РискиИИ #Разум #АлгокогнитивнаяКультура
Путь инфоргов от деперсонализации к расчеловечиванию будет коротким.
Первое исследование результатов деперсонализации с помощью дополненной реальности и ИИ.
Убивать людей не просто, даже если в сознание убийц идеология вколотила убеждение, что это их враги. Еще сложнее так изменить сознание людей, чтобы они убивали врагов запросто. Не испытывая при этом отвращения и ужаса от содеянного, а в последствии - угрызений совести и душевных мук. Наиболее эффективным механизмом для такого изменения сознания является расчеловечивание образа врагов.
Вот пример, релевантный тому, о чем будет дальше рассказано в посте.
В эпизоде сериала "Черное зеркало" "Люди против огня" солдаты воспринимают мир через фильтр, формируемый ИИ в дополненной реальности. В восприятии солдат этот фильтр превращает их противников в чудовищных и отвратительных мутантов, чтобы преодолеть нежелание солдат убивать себе подобных и избавить их от этических и психологических последствий. Фильтр в виде электронного импланта МАСС делает процесс убийств для солдат не сложнее, чем уничтожение тараканов в своей квартире. Ибо в глазах солдат их жертвы – не обычные люди, такие же как они, а «паразиты» - чудовища, внешне похожие на зомби.
Уровень развития обеих технологий (дополненная реальность и ИИ) уже позволяет делать подобные вещи (пока без имплантов, заменяемых очками, типа VisionPro от Эппла). Однако исследователи из Center for Humans and Machines при институте The Max Planck Institute for Human Development даже не стали заморачиваться с очками.
Мне видится логика их исследования так.
• Первый обязательный шаг к расчеловечиванию – деперсонализация.
• Исследовать последствия деперсонализации легко и просто на уже массово используемых фильтрах, предлагаемых пользователям соцсетями и платформами видеоконференций.
• Прежде чем исследовать более сложные фильтры (позволяющие, например, при видеоконференции с начальником парой кликов мышью украсить его ослиными ушами или козлиными рогами), можно поэкспериментировать с самым простым и популярным «фильтром размытия», делающим лицо собеседника на экране размытым до неузнаваемости.
• Применив «фильтр размытия» для коммуникации разных типов (статическая – типа выбора благотворительной организации, и динамическая – диалоговая телеконференция), исследователи определяли, каким образом использование фильтра, через изменение восприятия образа других людей, влияет на их поведение.
Результаты показали, что люди, использующие «фильтр размытия», ведут себя по отношению к людям с размытым образом, куда более эгоистично. Т.е. фильтр помогает им проще отказываться от морали за счет обезличивания людей и тем самым меняя их социальное и этическое поведение.
Авторы так комментируют полученные результаты.
«Начиная исследование, мы уже знали, что деперсонализация может иметь такие неприятные последствия. Однако результаты исследования ценны тем, что мы показали - деперсонализация скоро станет легкой и доступной опцией на многих цифровых платформах и устройствах… Это требует широкой дискуссии в обществе об управлении технологиями дополненной реальности и ИИ, которые изменяют то, какими нам представляются другие люди.»
Мне остается лишь добавить:
1. Это первое исследование практически подтверждающее быструю трансформацию когнитивных гаджетов восприятия у взрослых людей (о том, как когнитивные гаджеты уже меняются у детей я писал)
2. Подобного типа трансформации когнитивных гаджетов происходят пока далеко не у всех, а лишь у инфоргов (людей, проводящих в онлайне больше времени, чем во сне).
3. Доля инфоргов в обществе будет расти по мере перехода общества к новому типу культуры - алгокогнитивная культура.
О пп. 2 и 3 я написал множество постов. И если начинать их читать, то стоит начать с этого.
#Культура #ЭволюцияЧеловека #Инфорги #АлгокогнитивнаяКультура
Первое исследование результатов деперсонализации с помощью дополненной реальности и ИИ.
Убивать людей не просто, даже если в сознание убийц идеология вколотила убеждение, что это их враги. Еще сложнее так изменить сознание людей, чтобы они убивали врагов запросто. Не испытывая при этом отвращения и ужаса от содеянного, а в последствии - угрызений совести и душевных мук. Наиболее эффективным механизмом для такого изменения сознания является расчеловечивание образа врагов.
Вот пример, релевантный тому, о чем будет дальше рассказано в посте.
В эпизоде сериала "Черное зеркало" "Люди против огня" солдаты воспринимают мир через фильтр, формируемый ИИ в дополненной реальности. В восприятии солдат этот фильтр превращает их противников в чудовищных и отвратительных мутантов, чтобы преодолеть нежелание солдат убивать себе подобных и избавить их от этических и психологических последствий. Фильтр в виде электронного импланта МАСС делает процесс убийств для солдат не сложнее, чем уничтожение тараканов в своей квартире. Ибо в глазах солдат их жертвы – не обычные люди, такие же как они, а «паразиты» - чудовища, внешне похожие на зомби.
Уровень развития обеих технологий (дополненная реальность и ИИ) уже позволяет делать подобные вещи (пока без имплантов, заменяемых очками, типа VisionPro от Эппла). Однако исследователи из Center for Humans and Machines при институте The Max Planck Institute for Human Development даже не стали заморачиваться с очками.
Мне видится логика их исследования так.
• Первый обязательный шаг к расчеловечиванию – деперсонализация.
• Исследовать последствия деперсонализации легко и просто на уже массово используемых фильтрах, предлагаемых пользователям соцсетями и платформами видеоконференций.
• Прежде чем исследовать более сложные фильтры (позволяющие, например, при видеоконференции с начальником парой кликов мышью украсить его ослиными ушами или козлиными рогами), можно поэкспериментировать с самым простым и популярным «фильтром размытия», делающим лицо собеседника на экране размытым до неузнаваемости.
• Применив «фильтр размытия» для коммуникации разных типов (статическая – типа выбора благотворительной организации, и динамическая – диалоговая телеконференция), исследователи определяли, каким образом использование фильтра, через изменение восприятия образа других людей, влияет на их поведение.
Результаты показали, что люди, использующие «фильтр размытия», ведут себя по отношению к людям с размытым образом, куда более эгоистично. Т.е. фильтр помогает им проще отказываться от морали за счет обезличивания людей и тем самым меняя их социальное и этическое поведение.
Авторы так комментируют полученные результаты.
«Начиная исследование, мы уже знали, что деперсонализация может иметь такие неприятные последствия. Однако результаты исследования ценны тем, что мы показали - деперсонализация скоро станет легкой и доступной опцией на многих цифровых платформах и устройствах… Это требует широкой дискуссии в обществе об управлении технологиями дополненной реальности и ИИ, которые изменяют то, какими нам представляются другие люди.»
Мне остается лишь добавить:
1. Это первое исследование практически подтверждающее быструю трансформацию когнитивных гаджетов восприятия у взрослых людей (о том, как когнитивные гаджеты уже меняются у детей я писал)
2. Подобного типа трансформации когнитивных гаджетов происходят пока далеко не у всех, а лишь у инфоргов (людей, проводящих в онлайне больше времени, чем во сне).
3. Доля инфоргов в обществе будет расти по мере перехода общества к новому типу культуры - алгокогнитивная культура.
О пп. 2 и 3 я написал множество постов. И если начинать их читать, то стоит начать с этого.
#Культура #ЭволюцияЧеловека #Инфорги #АлгокогнитивнаяКультура
Куда ведет «великая перепрошивка» когнитивных гаджетов детей.
Деформация интеллекта и эпидемия психических заболеваний уже начались.
Как только человек начинает проводить в онлайфе (сетевой жизни: работа, отдых, покупки, развлечения …) больше времени, чем во сне, он превращается в инфорга.
О том, как меняются дети инфоргов вследствие «перепрошивки» или полной замены их когнитивных гаджетов (ментальных интерфесов с элементами окружающего мира и другими людьми в процессе познания) я начал писать еще 2 года назад. И уже тогда эти изменения были ощутимыми.
Ну а в этом году мы начали подводить первые итоги и делать первые выводы.
Об эксперименте с 3-летней дочкой Арвинда Нараянан (известный ученый-компьютерщик, профессор Принстонского университета - он не просто инфорг, а можно сказать, представитель «высшей касты среди инфоргов») я писал в апреле.
Спустя 3 месяца появились новые крайне интересные результаты.
Во-первых, опубликованы результаты Национального центра статистики образования США (NCES) по оценке долгосрочных трендов успехов 13-летних учащихся в чтении и математике (см. верхнюю диаграмму).
• Анализ общенациональной репрезентативной выборки из 8700 13-летних подростков по каждому предмету показал, что по сравнению с предыдущей оценкой (2019–2020), средние баллы детей снизились на 4 балла по чтению и на 9 баллов по математике. По сравнению с тем, что было десять лет назад, средний балл снизился на 7 баллов по чтению и на 14 баллов по математике.
• Оба тренда сломались с положительных на отрицательные в 2012 году.
• По сравнению с 2020 показатели и чтения, и математики (кроме «отличников») снижаются по всем процентилям; причем в верхних процентилях («отличники и хорошисты») снижение не столь сокрушительное, как в нижних (напр. в математике снижение варьировалось от 6–8 баллов для учащихся со средним и высоким уровнем успеваемости до 12–14 баллов для учащихся с более низкими показателями успеваемости)
• Наименьшее обрушение баллов у детей белых родителей (напр. в математике -6, а у остальных совсем швах: у детей испаноязычных семей -10, чернокожих -13, индейцев -20)
Во-вторых, Джонатан Хайдт (социальный психолог NYU Stern School of Business) опубликовал две подборки (вторая совместно с Эриком Шмидтом – бывший CEO и Chairman Google (Alphabet)) с анализом исследований пагубных последствий для малолеток и подростков наличия у них смартфонов и тусения в соцсетях.
В обоих подборках даются ссылки на результаты весьма солидных исследований, показывающих следующее.
• Переломным («проклятым») годом стал 2012. После него (см. диаграммы) стали не только падать показатели успешности в образовании, но и, в буквальном смысле, началась эпидемия психических заболеваний у детей. Эта эпидемия среди подростков, начавшаяся в 2012 году во многих странах, произошла как раз тогда, когда подростки поменяли свои примитивные сотовые телефоны на смартфоны, оснащенные приложениями для социальных сетей.
• Наличие у детей в школе смартфонов сильно снижает внимание детей и результативность их обучения, а также рушит их коммуникацию со сверстниками и чувство принадлежности к классу и школе. Появляется все больше доказательств того, что социальные сети являются одной из основных причин эпидемии психических заболеваний у детей, а не просто одним из способствующих факторов.
• «Революция ChatGPT», вероятно, усугубит проблему социальных сетей для подростков, лишив их «правды», культивируя разногласия и манипулируя их пристрастиями.
N.B. «Перепрошивка» мозга детей инфоргов ведет не к снижение интеллекта, а к его деформации: деградации одних когнитивных гаджетов и апгрейду других.
#БудущееHomo #УскорениеЭволюции #Инфорги #АлгокогнитивнаяКультура
Деформация интеллекта и эпидемия психических заболеваний уже начались.
Как только человек начинает проводить в онлайфе (сетевой жизни: работа, отдых, покупки, развлечения …) больше времени, чем во сне, он превращается в инфорга.
О том, как меняются дети инфоргов вследствие «перепрошивки» или полной замены их когнитивных гаджетов (ментальных интерфесов с элементами окружающего мира и другими людьми в процессе познания) я начал писать еще 2 года назад. И уже тогда эти изменения были ощутимыми.
Ну а в этом году мы начали подводить первые итоги и делать первые выводы.
Об эксперименте с 3-летней дочкой Арвинда Нараянан (известный ученый-компьютерщик, профессор Принстонского университета - он не просто инфорг, а можно сказать, представитель «высшей касты среди инфоргов») я писал в апреле.
Спустя 3 месяца появились новые крайне интересные результаты.
Во-первых, опубликованы результаты Национального центра статистики образования США (NCES) по оценке долгосрочных трендов успехов 13-летних учащихся в чтении и математике (см. верхнюю диаграмму).
• Анализ общенациональной репрезентативной выборки из 8700 13-летних подростков по каждому предмету показал, что по сравнению с предыдущей оценкой (2019–2020), средние баллы детей снизились на 4 балла по чтению и на 9 баллов по математике. По сравнению с тем, что было десять лет назад, средний балл снизился на 7 баллов по чтению и на 14 баллов по математике.
• Оба тренда сломались с положительных на отрицательные в 2012 году.
• По сравнению с 2020 показатели и чтения, и математики (кроме «отличников») снижаются по всем процентилям; причем в верхних процентилях («отличники и хорошисты») снижение не столь сокрушительное, как в нижних (напр. в математике снижение варьировалось от 6–8 баллов для учащихся со средним и высоким уровнем успеваемости до 12–14 баллов для учащихся с более низкими показателями успеваемости)
• Наименьшее обрушение баллов у детей белых родителей (напр. в математике -6, а у остальных совсем швах: у детей испаноязычных семей -10, чернокожих -13, индейцев -20)
Во-вторых, Джонатан Хайдт (социальный психолог NYU Stern School of Business) опубликовал две подборки (вторая совместно с Эриком Шмидтом – бывший CEO и Chairman Google (Alphabet)) с анализом исследований пагубных последствий для малолеток и подростков наличия у них смартфонов и тусения в соцсетях.
В обоих подборках даются ссылки на результаты весьма солидных исследований, показывающих следующее.
• Переломным («проклятым») годом стал 2012. После него (см. диаграммы) стали не только падать показатели успешности в образовании, но и, в буквальном смысле, началась эпидемия психических заболеваний у детей. Эта эпидемия среди подростков, начавшаяся в 2012 году во многих странах, произошла как раз тогда, когда подростки поменяли свои примитивные сотовые телефоны на смартфоны, оснащенные приложениями для социальных сетей.
• Наличие у детей в школе смартфонов сильно снижает внимание детей и результативность их обучения, а также рушит их коммуникацию со сверстниками и чувство принадлежности к классу и школе. Появляется все больше доказательств того, что социальные сети являются одной из основных причин эпидемии психических заболеваний у детей, а не просто одним из способствующих факторов.
• «Революция ChatGPT», вероятно, усугубит проблему социальных сетей для подростков, лишив их «правды», культивируя разногласия и манипулируя их пристрастиями.
N.B. «Перепрошивка» мозга детей инфоргов ведет не к снижение интеллекта, а к его деформации: деградации одних когнитивных гаджетов и апгрейду других.
#БудущееHomo #УскорениеЭволюции #Инфорги #АлгокогнитивнаяКультура
Тайна «узловых точек» цивилизации.
2012 – год изобретения современного мира.
Новое эссе Эрика Хоэла - американского нейробиолога, нейрофилософа и писателя, специализирующегося на применении теории информации и причинно-следственного анализа для разработки математических моделей при изучении и анализе основ сознания и сновидений, - называется «Что, черт возьми, произошло в 2012 году?». И посвящено эссе тайне «узловых точек» цивилизации.
«Узловая точка» развития цивилизации – это сгусток во времени важнейших поворотных событий в ее жизни, играющий роль, подобную железнодорожной стрелке, позволяющей «подвижному составу» цивилизации пойти дальше по тому или иному пути.
Практически все описанные (как в научной, так и в научно-фантастической литературе) системы прогнозирования сценариев будущего на базе а) математического анализа исторических данных, б) тенденций в поведении больших групп людей и в) поступков (актов выбора) отдельных индивидов, – основаны на использовании аппарата «узловых точек». Именно они являются маркерами изменений направления и динамики развития общества. Примеры читатель может легко найти в исследовательских работах по клиодинамике (напр работы Петра Турчина, Андрея Коротаева и Рэндалла Коллинза). А также в таких известных литературных примерах, как компьютерные системы психоисториков в романе «Основание» Айзека Азимова или единая система аналитики и балансировки «Сфера вероятности» в романе «Единая теория всего» Константина Образцова.
Прогнозирование возникновения конкретных «узловых точек» в будущем – при нынешнем уровне развития науки, - довольно спекулятивное занятие.
Но в том-то и заключается великая (по научной значимости) тайна «узловых точек», что их выявление и обоснование крайне сложно не только в будущем, но и в прошлом (и даже в совсем недавнем).
Например, существует теория, что одной из совсем недавних «узловых точек» глобальной цивилизации землян был 1971.
Существует множество работ экономистов, социологов, психологов и т.д., содержащих различные версии обоснования этой теории. Желающих посмотреть примеры «поворотности» 1971 года читатели могут зайти на специальный сайт https://wtfhappenedin1971.com/
Новое же эссе Эрика Хоэла представляет собой первую попытку (из известных мне) обосновать, что 2012 был годом «изобретения современного мира». Годом, когда огромный букет важнейших мировых трендов кардинально поменялся. И в результате этого мир стал таким, каким мы видим его по сей день.
Хоэл пишет, что «узловая точка» 2012 была результатом глобальной «культурной революции» - тектонического «сдвига настроений» десятков и сотен миллионов людей.
Что послужило толчком этого тектонического сдвига, - пока не совсем ясно. Но есть у меня большое подозрение, что именно в 2012ом началась мировая трансформация - переход человечества к алгокогнитивной культуре. А какие конкретно события больше повлияли на запуск этой трансформации (IPO «Мордокниги», первый эффективный опыт применения сетевых технологий на президентских выборах, прорыв в области машинного обучения, 1я в мире госинициатива по развитию Больших Данных, признание аналитиков данных самой привлекательной (sexiest) профессией 21 века и еще 2 дюжины событий-кандидатов), - еще предстоит выяснить.
Но кабы то ни было, гипотеза Эрика Хоэла мне нравится. Похоже, что 2012 был таки «узловой точкой».
А еще интересней мне видится еще более интригующая гипотеза - о том, что следующей «узловой точкой» стал 2023. Но об этом как-нибудь в другой раз.
#Клиодинамика #АлгокогнитивнаяКультура
2012 – год изобретения современного мира.
Новое эссе Эрика Хоэла - американского нейробиолога, нейрофилософа и писателя, специализирующегося на применении теории информации и причинно-следственного анализа для разработки математических моделей при изучении и анализе основ сознания и сновидений, - называется «Что, черт возьми, произошло в 2012 году?». И посвящено эссе тайне «узловых точек» цивилизации.
«Узловая точка» развития цивилизации – это сгусток во времени важнейших поворотных событий в ее жизни, играющий роль, подобную железнодорожной стрелке, позволяющей «подвижному составу» цивилизации пойти дальше по тому или иному пути.
Практически все описанные (как в научной, так и в научно-фантастической литературе) системы прогнозирования сценариев будущего на базе а) математического анализа исторических данных, б) тенденций в поведении больших групп людей и в) поступков (актов выбора) отдельных индивидов, – основаны на использовании аппарата «узловых точек». Именно они являются маркерами изменений направления и динамики развития общества. Примеры читатель может легко найти в исследовательских работах по клиодинамике (напр работы Петра Турчина, Андрея Коротаева и Рэндалла Коллинза). А также в таких известных литературных примерах, как компьютерные системы психоисториков в романе «Основание» Айзека Азимова или единая система аналитики и балансировки «Сфера вероятности» в романе «Единая теория всего» Константина Образцова.
Прогнозирование возникновения конкретных «узловых точек» в будущем – при нынешнем уровне развития науки, - довольно спекулятивное занятие.
Но в том-то и заключается великая (по научной значимости) тайна «узловых точек», что их выявление и обоснование крайне сложно не только в будущем, но и в прошлом (и даже в совсем недавнем).
Например, существует теория, что одной из совсем недавних «узловых точек» глобальной цивилизации землян был 1971.
Существует множество работ экономистов, социологов, психологов и т.д., содержащих различные версии обоснования этой теории. Желающих посмотреть примеры «поворотности» 1971 года читатели могут зайти на специальный сайт https://wtfhappenedin1971.com/
Новое же эссе Эрика Хоэла представляет собой первую попытку (из известных мне) обосновать, что 2012 был годом «изобретения современного мира». Годом, когда огромный букет важнейших мировых трендов кардинально поменялся. И в результате этого мир стал таким, каким мы видим его по сей день.
Хоэл пишет, что «узловая точка» 2012 была результатом глобальной «культурной революции» - тектонического «сдвига настроений» десятков и сотен миллионов людей.
Что послужило толчком этого тектонического сдвига, - пока не совсем ясно. Но есть у меня большое подозрение, что именно в 2012ом началась мировая трансформация - переход человечества к алгокогнитивной культуре. А какие конкретно события больше повлияли на запуск этой трансформации (IPO «Мордокниги», первый эффективный опыт применения сетевых технологий на президентских выборах, прорыв в области машинного обучения, 1я в мире госинициатива по развитию Больших Данных, признание аналитиков данных самой привлекательной (sexiest) профессией 21 века и еще 2 дюжины событий-кандидатов), - еще предстоит выяснить.
Но кабы то ни было, гипотеза Эрика Хоэла мне нравится. Похоже, что 2012 был таки «узловой точкой».
А еще интересней мне видится еще более интригующая гипотеза - о том, что следующей «узловой точкой» стал 2023. Но об этом как-нибудь в другой раз.
#Клиодинамика #АлгокогнитивнаяКультура
Google DeepMind сумела запустить когнитивную эволюцию роботов
Это может открыть путь к гибридному обществу людей и андроидов
1я ноябрьская ИИ-революция (Революция ChatGPT) началась год назад - в ноябре 2022. Она ознаменовала появление на планете нового носителя высшего интеллекта — цифрового ИИ, способного достичь (и, возможно, превзойти) людей в любых видах интеллектуальной деятельности.
Но не смотря на сравнимый с людьми уровень, этот новый носитель высшего интеллекта оказался абсолютно нечеловекоподобным.
Он принадлежит к классу генеративного ИИ больших языковых моделей, не умеющих (и в принципе не способных) не то что мечтать об электроовцах, но и просто мыслить и познавать мир, как это делают люди. И потому, даже превзойдя по уровню людей, он так и останется для человечества «чужим» — иным типом интеллекта, столь же непостижимым для понимания, как интеллект квинтян из романа Станислава Лема «Фиаско».
Причина нечеловекоподобия генеративных ИИ больших языковых моделей заключается в их кардинально иной природе.
✔️ Наш интеллект – результат миллионов лет когнитивной эволюции биологических интеллектуальных агентов, позволившей людям из животных превратиться в сверхразумные существа, построивших на Земле цивилизацию планетарного уровня, начавшую освоение космоса.
✔️ ИИ больших языковых моделей – продукт машинного обучения компьютерных программ на колоссальных объемах цифровых данных.
Преодолеть это принципиальное отличие можно, если найти ключ к запуску когнитивной эволюции ИИ.
И этот ключ предложен в ноябре 2023 инициаторами 2й ноябрьской ИИ-революции (Революции когнитивной эволюции ИИ) в опубликованном журналом Nature исследовании Google DeepMind.
• Движком когнитивной эволюции ИИ авторы предлагают сделать (как и у людей) социальное обучение — когда один интеллектуальный агент (человек, животное или ИИ) приобретает навыки и знания у другого путем копирования (жизненно важного для процесса развития интеллектуальных агентов).
• Ища вдохновение в социальном обучении людей, исследователи стремились найти способ, позволяющий агентам ИИ учиться у других агентов ИИ и у людей с эффективностью, сравнимой с человеческим социальным обучением.
• Команде исследователей удалось использовать обучение с подкреплением для обучения агента ИИ, способного идентифицировать новых для себя экспертов (среди других агентов ИИ и людей), имитировать их поведение и запоминать полученные знания в течение всего нескольких минут.
"Наши агенты успешно имитируют человека в реальном времени в новых контекстах, не используя никаких предварительно собранных людьми данных. Мы определили удивительно простой набор ингредиентов, достаточный для культурной передачи, и разработали эволюционную методологию для ее систематической оценки. Это открывает путь к тому, чтобы культурная эволюция играла алгоритмическую роль в развитии искусственного общего интеллекта", - говорится в исследовании.
Запуск когнитивной эволюции ИИ позволит не только создать «человекоподобный ИИ» у роботов – андроидов, но и разрешить при их создании Парадокс Моравека (высококогнитивные процессы требуют относительно мало вычислений, а низкоуровневые сенсомоторные операции требуют огромных вычислительных ресурсов) и Сверхзадачу Минского (произвести обратную разработку навыков, получаемых в процессе передачи неявных знаний - невербализованных и, часто, бессознательных)
Т.о. не будет большим преувеличением сказать, что 2я ноябрьская революция ИИ открывает путь к гибридному обществу людей и андроидов, – многократно описанному в фантастических романах, но до сих пор остававшемуся практически нереализуемым на ближнем временном горизонте.
Подробный разбор вопросов когнитивной эволюции путем копирования, а также революционного подхода к ее запуску, предложенного Google DeepMind, см. в моем новом лонгриде (еще 10 мин чтения):
- на Medium https://bit.ly/486AfEN
- на Дзене https://clck.ru/36wWQc
#ИИ #Интеллект #Разум #Эволюция #Культура #АлгокогнитивнаяКультура #Роботы
Это может открыть путь к гибридному обществу людей и андроидов
1я ноябрьская ИИ-революция (Революция ChatGPT) началась год назад - в ноябре 2022. Она ознаменовала появление на планете нового носителя высшего интеллекта — цифрового ИИ, способного достичь (и, возможно, превзойти) людей в любых видах интеллектуальной деятельности.
Но не смотря на сравнимый с людьми уровень, этот новый носитель высшего интеллекта оказался абсолютно нечеловекоподобным.
Он принадлежит к классу генеративного ИИ больших языковых моделей, не умеющих (и в принципе не способных) не то что мечтать об электроовцах, но и просто мыслить и познавать мир, как это делают люди. И потому, даже превзойдя по уровню людей, он так и останется для человечества «чужим» — иным типом интеллекта, столь же непостижимым для понимания, как интеллект квинтян из романа Станислава Лема «Фиаско».
Причина нечеловекоподобия генеративных ИИ больших языковых моделей заключается в их кардинально иной природе.
✔️ Наш интеллект – результат миллионов лет когнитивной эволюции биологических интеллектуальных агентов, позволившей людям из животных превратиться в сверхразумные существа, построивших на Земле цивилизацию планетарного уровня, начавшую освоение космоса.
✔️ ИИ больших языковых моделей – продукт машинного обучения компьютерных программ на колоссальных объемах цифровых данных.
Преодолеть это принципиальное отличие можно, если найти ключ к запуску когнитивной эволюции ИИ.
И этот ключ предложен в ноябре 2023 инициаторами 2й ноябрьской ИИ-революции (Революции когнитивной эволюции ИИ) в опубликованном журналом Nature исследовании Google DeepMind.
• Движком когнитивной эволюции ИИ авторы предлагают сделать (как и у людей) социальное обучение — когда один интеллектуальный агент (человек, животное или ИИ) приобретает навыки и знания у другого путем копирования (жизненно важного для процесса развития интеллектуальных агентов).
• Ища вдохновение в социальном обучении людей, исследователи стремились найти способ, позволяющий агентам ИИ учиться у других агентов ИИ и у людей с эффективностью, сравнимой с человеческим социальным обучением.
• Команде исследователей удалось использовать обучение с подкреплением для обучения агента ИИ, способного идентифицировать новых для себя экспертов (среди других агентов ИИ и людей), имитировать их поведение и запоминать полученные знания в течение всего нескольких минут.
"Наши агенты успешно имитируют человека в реальном времени в новых контекстах, не используя никаких предварительно собранных людьми данных. Мы определили удивительно простой набор ингредиентов, достаточный для культурной передачи, и разработали эволюционную методологию для ее систематической оценки. Это открывает путь к тому, чтобы культурная эволюция играла алгоритмическую роль в развитии искусственного общего интеллекта", - говорится в исследовании.
Запуск когнитивной эволюции ИИ позволит не только создать «человекоподобный ИИ» у роботов – андроидов, но и разрешить при их создании Парадокс Моравека (высококогнитивные процессы требуют относительно мало вычислений, а низкоуровневые сенсомоторные операции требуют огромных вычислительных ресурсов) и Сверхзадачу Минского (произвести обратную разработку навыков, получаемых в процессе передачи неявных знаний - невербализованных и, часто, бессознательных)
Т.о. не будет большим преувеличением сказать, что 2я ноябрьская революция ИИ открывает путь к гибридному обществу людей и андроидов, – многократно описанному в фантастических романах, но до сих пор остававшемуся практически нереализуемым на ближнем временном горизонте.
Подробный разбор вопросов когнитивной эволюции путем копирования, а также революционного подхода к ее запуску, предложенного Google DeepMind, см. в моем новом лонгриде (еще 10 мин чтения):
- на Medium https://bit.ly/486AfEN
- на Дзене https://clck.ru/36wWQc
#ИИ #Интеллект #Разум #Эволюция #Культура #АлгокогнитивнаяКультура #Роботы
Medium
Google DeepMind сумела запустить когнитивную эволюцию роботов
Это может открыть путь к гибридному обществу людей и андроидов
2024 - год великого перелома культуры Homo sapiens.
Смена доминирующего носителя культуры: от людей к Хорошим, Плохим и Злым ботам.
Начнем новый 2024 год с моего прогноза того, что может стать его самым важным глобальным итогом. С того - чем этот год может войти в историю человечества.
✔️ Ибо ничего подобного в истории 100 млрд живших за последние 50 тыс. лет Homo sapiens не было.
✔️ А теперь это может кардинально поменять вектор развития высшего разума, став своего рода фазовым переходом в его когнитивной эволюции на Земле.
Речь вовсе не о появлении Сильного ИИ (AGI etc) - гипотетическом событии, которое мы пока даже не знаем, как численно определить и качественно достоверно проверить.
Речь о смене доминирующего носителя культуры – событии количественно измеряемом и доступном качественному анализу.
• За всю историю людей, близких нам биологически и поведенчески (это, порядка, 50 тыс лет), они были единственными носителями сложной культуры на основе развитых языков, оперирующих абстрактными понятиями.
• Культурой людей была (по терминологии Мерлина Дональда) культура обмена мыслями - особый движок эволюции интеллектуальных агентов, позволяющий индивидам и социумам, путем коммуникации в пространстве и времени формировать и совершенствовать гиперсеть хранения и передачи всей негенетической информации и алгоритмов Homo sapiens.
• В 21 веке гиперсетевой средой порождения, накопления и оперирования цифровой и оцифрованной информации и алгоритмов человеческой культуры стал Интернет. В этой новой для человечества цифровой среде людьми были созданы алгоритмические интеллектуальные агенты – боты, выполняющие все более расширяющийся спектр операций с информацией в гиперсети (поиск, реструктуризация и т.д.)
• С развитием генеративного ИИ в 2020х, боты стали массово порождать разнообразный контент (тексты, рисунки, видео, аудио, мультимодальный контент) и новые алгоритмы, заполняя ими гиперсеть земной культуры. По сути, боты превратились в новый носитель культуры на Земле, а сама культура сменила свой тип: с культуры обмена мыслями между людьми на алгокогнитивную культуру людей и алгоритмов [1].
Количественно оценить вклад ботов в генерацию информации и алгоритмов Интернета можно по прокси показателю - оценке сетевого трафика, порождаемого: людьми, а также т.н. хорошими (полезными), плохими (вредоносными) [2] и злыми (взламывающими другие боты – они массово появятся лишь в 2024) [3] ботами.
Этот прокси известен по состоянию на конец 2022 (т.е. до ChatGPT революции) [2]:
• Люди 52.6%
• Хорошие боты 17.3%
• Плохие боты 30.2%
Мой прогноз на 2023 таков:
• Люди 46%
• Хорошие боты 20.8%
• Плохие боты 33.2%
На 2024:
• Люди 28.2%
• Хорошие боты 26%
• Плохие боты 39.9%
• Злые боты 6%
Т.е. вполне вероятно, что генерируя к концу 2024 менее 1/3 трафика глобальной инфосреды культуры - Интернета, люди утратят статус доминирующих носителей культуры земной цивилизации, уступив первенство интеллектуальным цифровым агентам.
Этот прогноз проверяем на фактических данных.
• Его 1я часть (2023) станет проверяемой на фактических данных уже в мае 2024 (когда выйдет отчет Imperva по результатам 2023);
• 2ю же часть (2024) прогноза можно будет проверить на фактических данных еще через год - в мае 2025 (когда выйдет отчет Imperva по результатам 2024)
Диаграмма «Good Bots, Bad Bots, Ugly Bots and Human Traffic – 7 Year Trend»
https://disk.yandex.ru/i/OoRDOdA4ZZxAMA
[1] https://t.me/theworldisnoteasy/1244
[2] https://www.imperva.com/resources/resource-library/reports/2023-imperva-bad-bot-report/
[3] https://www.extremetech.com/extreme/researchers-create-chatbot-that-can-jailbreak-other-chatbots
#АлгокогнитивнаяКультура
Смена доминирующего носителя культуры: от людей к Хорошим, Плохим и Злым ботам.
Начнем новый 2024 год с моего прогноза того, что может стать его самым важным глобальным итогом. С того - чем этот год может войти в историю человечества.
✔️ Ибо ничего подобного в истории 100 млрд живших за последние 50 тыс. лет Homo sapiens не было.
✔️ А теперь это может кардинально поменять вектор развития высшего разума, став своего рода фазовым переходом в его когнитивной эволюции на Земле.
Речь вовсе не о появлении Сильного ИИ (AGI etc) - гипотетическом событии, которое мы пока даже не знаем, как численно определить и качественно достоверно проверить.
Речь о смене доминирующего носителя культуры – событии количественно измеряемом и доступном качественному анализу.
• За всю историю людей, близких нам биологически и поведенчески (это, порядка, 50 тыс лет), они были единственными носителями сложной культуры на основе развитых языков, оперирующих абстрактными понятиями.
• Культурой людей была (по терминологии Мерлина Дональда) культура обмена мыслями - особый движок эволюции интеллектуальных агентов, позволяющий индивидам и социумам, путем коммуникации в пространстве и времени формировать и совершенствовать гиперсеть хранения и передачи всей негенетической информации и алгоритмов Homo sapiens.
• В 21 веке гиперсетевой средой порождения, накопления и оперирования цифровой и оцифрованной информации и алгоритмов человеческой культуры стал Интернет. В этой новой для человечества цифровой среде людьми были созданы алгоритмические интеллектуальные агенты – боты, выполняющие все более расширяющийся спектр операций с информацией в гиперсети (поиск, реструктуризация и т.д.)
• С развитием генеративного ИИ в 2020х, боты стали массово порождать разнообразный контент (тексты, рисунки, видео, аудио, мультимодальный контент) и новые алгоритмы, заполняя ими гиперсеть земной культуры. По сути, боты превратились в новый носитель культуры на Земле, а сама культура сменила свой тип: с культуры обмена мыслями между людьми на алгокогнитивную культуру людей и алгоритмов [1].
Количественно оценить вклад ботов в генерацию информации и алгоритмов Интернета можно по прокси показателю - оценке сетевого трафика, порождаемого: людьми, а также т.н. хорошими (полезными), плохими (вредоносными) [2] и злыми (взламывающими другие боты – они массово появятся лишь в 2024) [3] ботами.
Этот прокси известен по состоянию на конец 2022 (т.е. до ChatGPT революции) [2]:
• Люди 52.6%
• Хорошие боты 17.3%
• Плохие боты 30.2%
Мой прогноз на 2023 таков:
• Люди 46%
• Хорошие боты 20.8%
• Плохие боты 33.2%
На 2024:
• Люди 28.2%
• Хорошие боты 26%
• Плохие боты 39.9%
• Злые боты 6%
Т.е. вполне вероятно, что генерируя к концу 2024 менее 1/3 трафика глобальной инфосреды культуры - Интернета, люди утратят статус доминирующих носителей культуры земной цивилизации, уступив первенство интеллектуальным цифровым агентам.
Этот прогноз проверяем на фактических данных.
• Его 1я часть (2023) станет проверяемой на фактических данных уже в мае 2024 (когда выйдет отчет Imperva по результатам 2023);
• 2ю же часть (2024) прогноза можно будет проверить на фактических данных еще через год - в мае 2025 (когда выйдет отчет Imperva по результатам 2024)
Диаграмма «Good Bots, Bad Bots, Ugly Bots and Human Traffic – 7 Year Trend»
https://disk.yandex.ru/i/OoRDOdA4ZZxAMA
[1] https://t.me/theworldisnoteasy/1244
[2] https://www.imperva.com/resources/resource-library/reports/2023-imperva-bad-bot-report/
[3] https://www.extremetech.com/extreme/researchers-create-chatbot-that-can-jailbreak-other-chatbots
#АлгокогнитивнаяКультура
Яндекс Диск
Good Bots, Bad Bots, Ugly Bots and Human Traffic.jpg
Посмотреть и скачать с Яндекс Диска
Эволюция Homo sapiens сменила движок на гибридный.
Новый тип культуры кардинально поменяет нас самих и социум.
Это основная тема моего канала, о которой я пишу уже 7 лет: связь культуры и когнитивной эволюции, 5й когнитивный фазовый переход, алгокогнитивная культура, превращение в инфоргов, появление 2го носителя высшего интеллекта и культуры, гибридная эволюция людей и алгоритмов, алгокогнитивная евгеника и разделение человечества на два вида …
Про все это написан не один десяток постов моего канала.
И вот, наконец, свершилось - о том же самом опубликована 1я статья в Nature Human Behaviour.
И хотя статья не моя 😊, и новый тип культуры человечества назван не как у меня - «Алгокогнитивная культура», - а «Машинная культура» (имхо, 1й вариант все же точнее), но зато теперь эти идеи продвигаются не малоизвестным (хотя и интересным) телеграм-каналом, а междисциплинарной коалицией эволюционных антропологов, психологов, культурологов, биологов, когнитивистов, лингвистов, социологов и экономистов, представляющих:
• Центр людей и машин, Институт человеческого развития Макса Планка, Берлин, Германия
• Тулузская школа экономики, Тулуза, Франция
• Институт перспективных исследований в Тулузе, Тулуза, Франция
• Кафедра социологии и социальных исследований, Университет Тренто, Тренто, Италия
• Факультет психологии и компьютерных наук, Принстонский университет, Принстон, Нью-Джерси, США
• Кафедра эволюционной биологии человека, Гарвардский университет, Кембридж, Массачусетс, США
• DeepMind Technologies Ltd, Лондон, Великобритания
• Институт эволюционной антропологии Макса Планка, Лейпциг, Германия
• Inria, команда Flowers, Университет Бордо, Бордо, Франция
• Центр совместимого с человеком искусственного интеллекта, Калифорнийский университет, Беркли, Беркли, Калифорния, США
И это очень меня радует. Ибо авторы пишут ровно о том, о чем мною уже опубликованы десятки постов.
• Машинные технологии от алгоритмов поисковых и рекомендательных систем до LLM оказывают существенное влияние на культурную эволюцию.
• Эти технологии, изменяя характеристики вариации, передачи и отбора, несут в себе потенциал непредвиденных последствий, вызывая обеспокоенность по поводу навязывания особого культурного или идеологического нарратива.
• Поисковые и рекомендательные системы, которые управляют и фильтруют информацию, играют важную роль в культурной эволюции, способствуя новым социальным связям и изменяя информационные потоки.
• Эти системы могут изменить структуру социально-когнитивных сетей и пути передачи культуры.
• ChatGPT, большая языковая модель (LLM), изменила то, как люди взаимодействуют с машинами, и используется для обучения, мозгового штурма и совершенствования идей.
• LLM выступают в качестве моделей человеческой культуры, передавая и переоценивая культурные знания между отдельными людьми и поколениями.
Заключение авторов к этой работе (которое они поручили написать ChatGPT, и тот, справился хорошо) ровно то же, что не раз уже писал я в своих заключениях.
Симбиоз человеческого и машинного интеллекта формирует новую эпоху культурной эволюции. Эта перспектива подчеркивает преобразующую роль интеллектуальных машин в изменении творческого потенциала, переопределении ценности навыков и изменении взаимодействия между людьми.
Вследствие взаимодействия людей и алгоритмов, кардинально меняется вся триада культурной эволюции: вариативность, передача и отбор. Это взаимодействие многогранно: от поисковых и рекомендательных алгоритмов, влияющих на индивидуальные взгляды и предпочтения, до генеративного ИИ, порождающего новые культурные артефакты.
Происходит гибридизации культуры двух носителей интеллекта.
https://disk.yandex.ru/i/-GjgcY0S8_WxAw
Ссылка на статью за пэйволом https://www.nature.com/articles/s41562-023-01742-2 и без него https://arxiv.org/ftp/arxiv/papers/2311/2311.11388.pdf
Ссылки на свои посты по этой теме не даю – слишком уж их много. Желающие могут для начала просто набрать в Телеграме поиск «алгокогнитивная» …, ну а там как пойдет 😉
#АлгокогнитивнаяКультура #5йКогнитивныйПереход
Новый тип культуры кардинально поменяет нас самих и социум.
Это основная тема моего канала, о которой я пишу уже 7 лет: связь культуры и когнитивной эволюции, 5й когнитивный фазовый переход, алгокогнитивная культура, превращение в инфоргов, появление 2го носителя высшего интеллекта и культуры, гибридная эволюция людей и алгоритмов, алгокогнитивная евгеника и разделение человечества на два вида …
Про все это написан не один десяток постов моего канала.
И вот, наконец, свершилось - о том же самом опубликована 1я статья в Nature Human Behaviour.
И хотя статья не моя 😊, и новый тип культуры человечества назван не как у меня - «Алгокогнитивная культура», - а «Машинная культура» (имхо, 1й вариант все же точнее), но зато теперь эти идеи продвигаются не малоизвестным (хотя и интересным) телеграм-каналом, а междисциплинарной коалицией эволюционных антропологов, психологов, культурологов, биологов, когнитивистов, лингвистов, социологов и экономистов, представляющих:
• Центр людей и машин, Институт человеческого развития Макса Планка, Берлин, Германия
• Тулузская школа экономики, Тулуза, Франция
• Институт перспективных исследований в Тулузе, Тулуза, Франция
• Кафедра социологии и социальных исследований, Университет Тренто, Тренто, Италия
• Факультет психологии и компьютерных наук, Принстонский университет, Принстон, Нью-Джерси, США
• Кафедра эволюционной биологии человека, Гарвардский университет, Кембридж, Массачусетс, США
• DeepMind Technologies Ltd, Лондон, Великобритания
• Институт эволюционной антропологии Макса Планка, Лейпциг, Германия
• Inria, команда Flowers, Университет Бордо, Бордо, Франция
• Центр совместимого с человеком искусственного интеллекта, Калифорнийский университет, Беркли, Беркли, Калифорния, США
И это очень меня радует. Ибо авторы пишут ровно о том, о чем мною уже опубликованы десятки постов.
• Машинные технологии от алгоритмов поисковых и рекомендательных систем до LLM оказывают существенное влияние на культурную эволюцию.
• Эти технологии, изменяя характеристики вариации, передачи и отбора, несут в себе потенциал непредвиденных последствий, вызывая обеспокоенность по поводу навязывания особого культурного или идеологического нарратива.
• Поисковые и рекомендательные системы, которые управляют и фильтруют информацию, играют важную роль в культурной эволюции, способствуя новым социальным связям и изменяя информационные потоки.
• Эти системы могут изменить структуру социально-когнитивных сетей и пути передачи культуры.
• ChatGPT, большая языковая модель (LLM), изменила то, как люди взаимодействуют с машинами, и используется для обучения, мозгового штурма и совершенствования идей.
• LLM выступают в качестве моделей человеческой культуры, передавая и переоценивая культурные знания между отдельными людьми и поколениями.
Заключение авторов к этой работе (которое они поручили написать ChatGPT, и тот, справился хорошо) ровно то же, что не раз уже писал я в своих заключениях.
Симбиоз человеческого и машинного интеллекта формирует новую эпоху культурной эволюции. Эта перспектива подчеркивает преобразующую роль интеллектуальных машин в изменении творческого потенциала, переопределении ценности навыков и изменении взаимодействия между людьми.
Вследствие взаимодействия людей и алгоритмов, кардинально меняется вся триада культурной эволюции: вариативность, передача и отбор. Это взаимодействие многогранно: от поисковых и рекомендательных алгоритмов, влияющих на индивидуальные взгляды и предпочтения, до генеративного ИИ, порождающего новые культурные артефакты.
Происходит гибридизации культуры двух носителей интеллекта.
https://disk.yandex.ru/i/-GjgcY0S8_WxAw
Ссылка на статью за пэйволом https://www.nature.com/articles/s41562-023-01742-2 и без него https://arxiv.org/ftp/arxiv/papers/2311/2311.11388.pdf
Ссылки на свои посты по этой теме не даю – слишком уж их много. Желающие могут для начала просто набрать в Телеграме поиск «алгокогнитивная» …, ну а там как пойдет 😉
#АлгокогнитивнаяКультура #5йКогнитивныйПереход
Nature
Machine culture
Nature Human Behaviour - Artificial intelligence tools and systems are increasingly influencing human culture. Brinkmann et al. argue that these ‘intelligent machines’ are transforming...