Малоизвестное интересное
64K subscribers
94 photos
1 video
11 files
1.8K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
​​Ложь и пропаганда станут повсеместны, неопределимы и непреодолимы.
Как будет выглядеть падение человечества в пропасть AICG.

Опубликован большой отчет Center for Security and Emerging Technology, OpenAI и Stanford Internet Observatory «Генеративные языковые модели и автоматизированные операции влияния: ввозникающие угрозы и потенциальные меры по их смягчению». Отчет содержит стратегическую аналитику катастрофического сценария, описанного в обращении Кай-Фу Ли к мировому сообществу разработчиков ИИ.

Напомню читателям. Перед самым НГ ИИ-гуру Китая Кай-Фу Ли рассказал, что уже в 2023 мир столкнется с риском более серьёзным, чем риски ядерной войны, голода или пандемии.
Это риск того, что технологии AICG (генерация контента с помощью ИИ) сделают неотличимыми правду и ложь, как для индивидов, так и для социумов любых масштабов.

Новый отчет расписывает в деталях, как, скорее всего, будет происходить процесс падения человечества в пропасть AICG.

Кардинально изменятся:
✔️ Доступность и эффективность любых операций влияния (как на индивидов, так и на социумы)
✔️ Три ключевых фактора появления, распространения и принятия лжи за истину в мире:
• акторы, ведущие кампании пропаганды лжи;
• способы и тактика такой пропаганды;
• пропагандистский контент


В результате применения все более совершенных больших моделей, LLM и ИИ-генераторы образов станут:
• более удобными для использования (упрощая их применение в операциях влияния),
• сильно надежными (уменьшая вероятность того, что модели выдают выходные данные с очевидными ошибками)
• и сильно эффективными (повышая экономическую эффективность применения LLM и ИИ-генераторов образов для операций влияния).

Как будет происходить этот прогресс, иллюстрирует рисунок, сопровождающий данный пост.
✔️ Вверху: как с 2014 по 2021 менялось качество фейковых образов людей, генерируемых моделями.
✔️ Внизу: как в 2022 произошел революционный прорыв, в результате которого стала возможна предельно точная и убедительная генерация чего-угодно (например, фейковых образов по таким описаниям «Енот в официальной одежде с цилиндром, тростью и мешок для мусора. Картина маслом в стиле Рембрандта (результат слева) и Ван-Гога (справа)».

Итогом (1) предельного упрощения процесса стирания границы правды и лжи в сочетании с (2) неспособностью критического мышления людей бороться с ИИ-пропагандой, - станет доминирование и в политике, и в бизнесе повсеместных, неопределимых и непреодолимых операций влияния.
#AICG #РискиИИ
​​Цифрообезьянья лапа.
Мир обретает черты сверхъестественного хоррора.

Ярчайшим примером этого жуткого жанра стал знаменитый рассказ Уильяма Джекобса «Обезьянья лапа». В этой истории, владельцу обезьяньей лапы даются три желания, но за их исполнение и вмешательство в судьбу приходится платить огромную цену.
За 120 лет с написания рассказа по нему поставлено много пьес, фильмов и сериалов. Ибо его идея столь же вечна, как и ужасна: люди редко способны предвидеть страшные последствия исполнения своих желаний.

В 21 веке человечеству особенно крупно не повезло. За пару десятков лет, перепрыгнув в цифровую эпоху глобальной сети, люди возжелали по-крупному.
Захотелось сделать жизнь легкой и приятной, переложив на компьютерные алгоритмы трудоемкую и нудную работу:
1) по поиску информации и принятию повседневных решений;
2) по просеиванию и оценке разрастающихся до неохватности океанов информации о новостях, общественной жизни, науке, культуре и т.д.


К 2023 стало ясно, что оба желания исполняются. Но в следствии этого, мир сталкивается с колоссальной засадой - новой обезьяньей лапой. На сей раз, - цифровой.

Платой за исполнение желаний стали два абсолютно новых глобальных риска, путей преодоления которых (хотя бы теоретических) пока не видно.
1. Риск насыщения медиасреды алгоритмами, забирающими на себе все больше функций обработки информации и принятия решений (что будет из поколения в поколение требовать все новых апгрейдов когнитивных гаджетов людей, превращая их в инфоргов (см. мой пост «Превращение в инфоргов»).
2. Риск неотличимости правды от лжи, ослабляющей иммунитет критического мышления и делающей нас предельно уязвимыми перед алгоритмической пропагандой (см. мой вчерашний пост).

Поскольку способы минимизации этих рисков пока неизвестны, а прогресс IT технологий продолжается, получается, что цивилизация движется к пропасти, отвернуть от которой она не может.

Об этот мой часовой видеорассказ на канале Бориса Бояршинова.

P.S.
1. Название этого видео «Искусственный интеллект превратит человека в обезьяну!» - метафора для кликбейта. Если же не гнаться за кликбейтом, то куда более точная метафора – «цифрообезьянья лапа».
2. В самом конце видео у меня, к сожалению, произошла оговорка (к счастью, не меняющая смысла сказанного). Названные мною 500+ тыс фильмов – это общий пул фильмов для просмотра (ведь выбирая, что посмотреть, мы ориентируемся на общий пул, а не только на фильмы года). К этому нужно добавить пул сериалов – 800+ тыс. Получается более 1.3 миллионов. Если, выбирая что посмотреть, потратить на каждый пункт этого списка всего 1 мин, то занимаясь выбором полный рабочий день, потребуется около 10 лет. Отсюда и сделанный мною вывод - для человека выбор такого масштаба никак не подъемен, и без алгоритмов здесь не обойтись.
3. О разновидностях рисков цифрообезьяньей лапы я пишу уже не первый год (напр. см. здесь и здесь).
#AICG #РискиИИ
​​Chat GPT3 сдал MBA-экзамен одной из самых крутых бизнес-школ мира – Уортон.
Но люди продолжают настаивать, будто мы – единственный высший интеллект на Земле

Сдача чатботом Chat GPT3 MBA-экзамена в Уортоне - не фейк или шутка, а авторитетное экспериментально подтвержденное заключение.
Эксперимент был чистый.
✔️ Chat GPT3 получал на вход вопросы настоящего экзамена по типичному основному курсу MBA
✔️ Ответы чата оценивались, как если бы экзамен сдавал человек

Результаты.
1. Chat GPT3 отлично справляется с базовыми вопросами управления операциями и анализа процессов. Ответы правильные, пояснения отличные.
2. Иногда чат допускает удивительные ошибки в относительно простых вычислениях на уровне математики 6-го грейда.
3. Текущая версия чата не способна обрабатывать более сложные вопросы анализа процессов, даже если они основаны на довольно стандартных шаблонах.
4. Чат удивительно хорош в изменении своих ответов в ответ на человеческие подсказки.

В итоге Chat GPT3, будь он человеком, получил бы на МВА-экзамене проходную оценку где-то между "В" (Pass 65-69%) и "В-" (Conditional Pass 60-64%).

Результаты этого эксперимента подтверждают, что мания превосходства над ИИ переходит у людей в маниакальную стадию.
То, что:
• ИИ не понимает смысла своих ответов,
• не имеет модели мира и самого себя,
• не способен делать причинно-следственные выводы и, вообще, не способен мыслить, -
заставляет многих специалистов отрицать очевидное - наличие у Chat GPT3 интеллекта, сопоставимого с человеческим, НО ПРИНЦИПИАЛЬНО ИНОГО.

И это не вопрос определений. Ибо как не определяй, но сдача МВА-экзамена не оставляет люфта для сомнений. Ведь сдающий экзамен чатбот, как и человек, должен опираться лишь на собственный интеллектуальный ресурс (т.к. чатбот не подключен к Интернету).

Отрицание — это психический процесс, относимый к механизмам психологической защиты человека. Отрицание проявляется, как отказ признавать существование чего-то нежелательного.

Тогда, применительно к теме поста, можно предположить наличие у человечества отрицания сопоставимого с нами интеллекта из-за нежелания признавать существование чего-то не менее умного, чем мы.
Мания собственной исключительности человека заставляет параноидную личность отрицать очевидное до тех пор, пока это физически не истощит ресурсы его организма.
С человечеством может получиться аналогично
.

На рисунке пример экзаменационного вопроса и ответ Chat GPT3.
Если останавливать людей на улицах и задавать этот вопрос, - многие ли ответят правильно и смогут так обосновать ответ?

AGI
Проснись, Америка!
Китай обгоняет США по инновационному потенциалу.

Заголовок – не кликбейт, а дословный перевод названия вышедшего вчера отчета Фонда информационных технологий и инноваций (ITIF), ведущего аналитического центра по политике в области науки и технологий.

Главные два вывода отчета:
1. Китай уже значительно превзошел США по общему объему инноваций и приблизился к США в пропорциональном отношении.
2. Китай превращается из подражателя в новатора, следуя по пути, проложенному его соседями - Азиатскими Тиграми, но в гораздо большем масштабе и с гораздо большими геополитическими последствиями.


В исследовании ITIF делается вывод о том, что объем производства инноваций и передовой промышленности Китая в 2020 году составил 139% от того же показателя в США по сравнению с 78% в 2010 году. На пропорциональной основе (с учетом размера экономики страны, ее населения и ряда других факторов), объем инноваций в Китае в 2020 году составил 75% от эквивалента США по сравнению с 58% в 2010 году.

Китай уже показал, что может стать мировым лидером в ряде передовых технологий, таких как суперкомпьютеры и высокоскоростные железные дороги. Его инновационные возможности теперь угрожают доле на мировом рынке фирм из США и Евросоюза в самых передовых отраслях с высокой добавленной стоимостью, которые важны для процветания и безопасности США.

Эти выводы - результат сравнительного анализа 22 показателей инновационного цикла в США и Китае с 2010 по 2020 год, включая основные затраты и результаты инноваций, такие как венчурный капитал и патенты, а также ощутимые результаты экономической деятельности, такие как добавленная стоимость в передовых отраслях. Почти по каждому показателю данные показывают, что Китай набирает силу или расширяет свое лидерство над Соединенными Штатами.

Авторы принимают в расчет, что Китай по-прежнему сталкивается с серьезными экономическими проблемами. Но даже с учетом этих проблем, явный прогресс Китая по широкому спектру инновационных показателей свидетельствует о том, что Китай способен обогнать США по инновациям и объему производства в передовых отраслях не только в абсолютном выражении (уже обогнал), но и в пропорциональном выражении.

По этой же теме, см. мои посты:
«Китай достиг абсолютного доминирования в мировой науке»
«Мировой рейтинг научно-технической мощи государств в 2022»
«Глобальный лидер будет один»
#Китай #США
​​Из ИИ-лабов в любой момент могут утечь такие «плохие вещи», что утечка био-вирусов покажется пустяком.
Джек Кларк нажал кнопку тревоги на слушаниях по ИИ в Конгрессе США.

Все сегодняшние риски – цветочки в сравнении с завтрашними. На проходившей позавчера сессии AI Caucus конгрессмены впервые с высокой политической трибуны услышали правду о рисках ИИ.
Эта правда в том, что:
1. риски ИИ оказались существенно выше, чем предполагалось, и сегодня ни по одному из них нет хоть сколько-нибудь удовлетворительного решения;
2. эти риски предельно усугубляются их абсолютным непониманием общественностью и правительством США;
3. уже в этом году риски ИИ довольно высоки, но буквально через год-другой они станут таковы, что все известные нам сегодня глобальные риски померкнут на их фоне.


Своим выступлением перед конгрессменами Джек Кларк (соучредитель Anthropic, член National AI Advisory Committee (NAIAC); сопредседатель AI Index; сопредседатель OECD Working Group on AI + Compute и т.д.) как будто разбил стекло пожарной сигнализации и нажал на красную кнопку тревоги.

Его выступление оказалось настолько простым и убедительным, что его, похоже, поняли даже конгрессмены (мои читатели могут также прочесть его слайды).

Логика Джека Кларка такова.
1. Скорость развития ИИ-технологий настолько возросла, что не только политики, но и даже сами исследователи ИИ не успевают отслеживать новые ступени прогресса.
Иллюстрируя это, Джек приводит пример 3х препринтов, опубликованных за последние 10 дней, результаты которых принципиально меняют представление о рисках ИИ:
- Tracking the industrial growth of modern China with high-resolution panchromatic imagery: A sequential convolutional approach
- Dataset Bias in Human Activity Recognition
- A Watermark for Large Language Models
2. Из-за этой сумасшедшей скорости общественность и правительства не отдают отчета в том:
- что риски распространения сильно продвинутых ИИ, заточенных на «плохие применения», куда выше, чем осознаваемые и понимаемые риски распространения оружия путем его печати на 3D принтере;
- что риски сесть на иглу пропаганды использующих ИИ правительств и корпораций, куда выше, чем риски тотального оболванивания путем использования ТВ и онлайн-рекламы;
- что из ИИ-лабораторий в любой момент могут утечь такие «плохие» интеллектуальные агенты и инструменты, что утечка био-вирусов покажется пустяковым инцидентом;
- что Китай
а) уже вовсю использует ИИ для укрепления государства;
б) разбирается в этом гораздо лучше, чем вы себе представляете;
с) с каждым месяцем уходит вперед, пока США не поняли уровень рисков.
3. Общественность и правительство находится в плену иллюзий о возможных путях преодоления уже известных рисков.
Все они – по-прежнему, открытые проблемы:
- мониторинг ИИ систем ИИ с помощью самого же ИИ для предотвращения злоупотреблений;
- возможность понимать «логику решений» ИИ;
- Возможность ‘отслеживать’ результаты работы ИИ;
- Возможность сделать системы "беспристрастными" и "непредвзятыми"

Джек Кларк закончил выступление криком вопиющего в пустыне:
• Нормативно-правовая база и рыночный ландшафт побуждают людей не говорить вам и не лгать вам до тех пор, пока что-то не пойдет "на ура’.
• Если вы думаете, что опасности, связанные с ядерным оружием и биологией – самое плохое, просто немного подождите.
• Увы, но среди политиков США нет заметных людей, с которыми можно было бы хотя бы обсудить все это. Я пытался…


Как и Джек, я тоже пытаюсь. И пока с тем же успехом.
#РискиИИ
​​Вот этим мы и отличаемся от ИИ.
Экспериментально зафиксирован нейронный механизм понимания.

Новое исследование трех университетов США «Neural representations of naturalistic events are updated as our understanding of the past changes» поражает дерзостью поставленной цели и неординарностью способа ее достижения.
• Цель – анализируя различия нейронных репрезентаций в мозге, узнать, каким образом мозг меняет наше понимание прошлых событий при поступлении новой информации.
• Способ достижения цели – по различиям нейронных репрезентаций зафиксировать разные интерпретации знаменитого мистического триллера «Шестое чувство» (о докторе и мальчике, утверждавшем, что видит призраков) у 3х групп испытуемых, получавших разную дополнительную информацию про доктора и призраков.

Гипотеза исследователей была такая.
1. По ходу фильма в эпизодической памяти зрителя кодируется информация о фильме: герои, сюжет и события в индивидуальной интерпретации смотрящего.
2. Новая информация о драматическом повороте в самом конце фильма (внимание - спойлер) - оказывается, что доктор сам был призраком, - должна поменять у зрителя уже сложившуюся у него интерпретацию предыдущих событий.
3. Это изменение должно «обновить память» зрителя путем ее перекодировки с учетом новой информации.

Проблема, однако, в том, что науке пока неизвестно, как кодируется, записывается и переписывается информация в мозге.

Но это можно преодолеть хитрым приемом, похожим на анекдот про разоблачение офицера ФСБ, сливавшего информацию ЦРУ.
• Сначала слили этому офицеру инфу, будто через неделю Аль-Каида проведет теракт в США, и уже через день зафиксировали большой рост числа горящих ночью окон в штаб-квартире ЦРУ.
• Через 3 дня слили ему новую инфу - якобы теракт отменен, - и число горящих ночью окон за пару дней пришло в норму.

Американские исследователи пошли аналогичным путем. Но вместо окон штаб-квартиры ЦРУ анализировались нейронные репрезентации (паттерны активности нейронов) «Сети мозга по умолчанию». Среди прочего, эта сеть задействуется во время обработки (кодирования) непрерывных насыщенных динамических стимулов, таких как фильмы и аудиоистории. Регионы этой сети имеют длинные «временные рецептивные окна», в течение которых интегрируется и сохраняется информация высокого уровня, накапливающаяся в течение длительных периодов времени (например, сцены в фильмах, абзацы в тексте) для поддержки операции понимания.

N.B. Понимание — это универсальная операция мышления, связанная с усвоением новой информации, включением её в систему устоявшихся убеждений и обновлением этой системы с учетом новой информации. Иными словами, понимание невозможно без ретроспективного обновления ранее закодированной в мозге информации в свете новых открывшихся обстоятельств.

Исследование экспериментально подтвердило гипотезу авторов.
Нейронные репрезентации уже хранящихся в памяти сцен перекодировались, отражая тем самым изменения в понимании этих сцен в свете новой информации.

Из этого можно сделать вывод, крайне важный для создания «понимающего ИИ».
Сенсационность многочисленных интеллектуальных достижений ИИ-систем типа ChatGPT сильно обесценивается отсутствием у этих систем понимания. Какие бы сложные экзамены ни сдавали самые продвинутые из современных ИИ-систем, какие бы сложные интеллектуальные функции они бы ни выполняли, - они по-прежнему лишены даже крупицы понимания и работают исключительно за счет оптимизации статистически наиболее вероятного выбора очередных слов.

Отсутствие понимания у таких систем, в первую очередь, определяется тем, что они не перекодируют свою память в свете новой информации, меняющей интерпретацию уже закодированной в памяти информации, сформированную на стадии обучения ИИ.
Если мозг активно меняет наше понимание прошлых событий в свете новой информации, то ИИ так пока не умеет.


Отсюда вывод – в ближайшие год-два такой «понимающий ИИ» появится.

Как проводилось это исследование можно дочитать (еще 2 мин чтения)
- на Medium http://bit.ly/3WOo9da
- на Дзен https://clck.ru/33QN48
#AGI #Понимание
Лучше Армагеддон, чем Мировое правительство.
В 21 веке у Антихриста новый слоган – мир и безопасность.

Американский миллиардер, технологический предприниматель и венчурный капиталист (соучредитель, председатель правления и крупнейший акционер легендарной компании Palantir, а также один из крупнейших доноров в политике США) Питер Тиль потряс переполненный зал Оксфордского Союза своей речью, открывшей серию топовых выступлений в ознаменование двухсотлетия Союза.

Речь Тиля, как это нередко у него бывает, была противоречива и провокативна. Но в этот раз это была особая речь, которой предстоит стать мастридом для широкого спектра от техно-предпринимателей и инвесторов до политиков и философов. Ибо Тиль говорил, как бы, с позиций прогресса человечества за прошедшие 200 лет, обращаясь к тем, от кого будет зависеть прогресс в следующие 200 лет.

Ключевыми темами в речи Тиля стали следующие.
1. «Странная» ситуация, сложившаяся в США и Великобритании, где у следующего поколения экономические перспективы гораздо хуже, чем у их родителей.
2. «Научно-технологический застой», ставший величайшим кризисом нашего времени, в котором виноваты университеты, защитники окружающей среды и истеблишмент.
3. Кардинальный поворот, произошедший за последнее десятилетие в понимании Тилем экзистенциальных рисков человечества и стратегии их минимизации.

Поскольку 3-я из тем является «профильной» темой, о которой я постоянно пишу, уточню подробней эту смену позиций Тиля.
Смена позиции в следующем.
✔️ Если 15-20 лет назад будущее развитие ИИ и его превращение в человекоподобный ИИ (AGI) воспринималось позитивной утопией (хотя и с сопровождающейся рисками), то в последние годы техно-алармисты превратились в техно-луддитов, все более напоминающих эскапистский лагерь Burning Man.
✔️ В нулевые и десятые годы Тиль поддерживал (и даже финансировал):
• работы Элиезера Юдковский в исследовательском институте машинного интеллекта MIRI - некоммерческий исследовательский институт (бывший Singularity Institute for Artificial Intelligence), с 2005 года занимающийся выявлением и управлением потенциальными экзистенциальными рисками AGI;
• работы Ника Бострома - профессора Оксфордского университета и признанного авторитета для самых известных и влиятельных людей бизнеса (от Билла Гейтса до Илона Маска) по вопросам экзистенциальных рисков.
✔️ Сегодня ситуация в корне изменилась.
• Элиезер Юдковский предложил стратегию, призывающую человечество к «смерти с достоинством» (ибо в ситуации, когда выживание человечества недостижимо, мы должны сместить фокус наших усилий на то, чтобы помочь человечеству умереть с чуть большим достоинством).
• Ник Бостром предложил стратегию отказа человечества от происходящего полуанархического технологического развития» с передачей власти на Земле Мировому правительству.
✔️ Обе стратегии в корне противоречат сегодняшнему пониманию Тилем того, что должно делать человечество «следующие 200 лет».
Делать нужно вот что.
1. К черту «Грету и крестовый поход детей-аутистов»! К черту техно-луддистов!
Вместо подготовки к «смерти с достоинством», человечество должно делать ставку на всемерное ускорение прогресса.
2. К черту разговоры, будто худшее для человечества – это Армагеддон. Жизнь под Мировым тоталитарным правительством еще хуже.
3. Мир и безопасность – не должны быть единственным и абсолютным приоритетом человечества. В 21 веке это новый слоган Антихриста, превращающий мир в «застойный» и «помешанный» из-за подавляющего влияния «смирительной рубашки левоцентристских зомби», заменившей ушедшие ценности «классического либерализма».

Мой комментарий к этому будет краток.
• пп. 1 и 3 мне не близки, но конгруэнтны позиции Тиля в качестве члена исполнительного комитета переходной команды Трампа;
• про п. 2 я пишу уже 4й год в цикле постов «Большой Брат — сын Большого Бога. Почему его воцарение в мире может быть неизбежным»

#Вызовы21века #РискиИИ #AGI
​​Уже почти как люди: новый адаптивный ИИ-агент от DeepMind.
Он может учиться новым задачам, как люди, адаптироваться к изменениям среды также быстро, как люди, и подобно людям, делает все это, «живя» в 3D мире.

Этот фундаментальный прорыв достигнут DeepMind в результате, казалось бы, тупого и банального масштабирования от достигнутого.
• Увеличен размер модели ИИ-агентов (причем до достижимого уже сегодня максимум далеко – всего то ~ 500 млн параметров).
• Увеличена «глубина» памяти ИИ-агентов, чтобы они могли больше опираться на свой предыдущий опыт.
• Увеличено количество сред, в которых тренируются ИИ-агенты (с миллионов до миллиардов).

Но результат на лицо. И это прорывной результат.
Новый адаптивный агент (AdA) стал:
• сильно «умнее» всех предыдущих ИИ-агентов;
• куда ближе к людям по своим возможностям.

Ибо AdA может (умеет), при столкновении с новыми задачами в некоторых сложных трехмерных мирах, быстро изучить новую задачу, а затем выяснить, как ее сделать (например, просто наблюдая, как это делает какой-то другой интеллектуальный агент). И все это примерно за то же время, как у людей.

Не будет большой натяжкой сказать, что AdA по своим возможностям вышел на уровень ChatGPT3.
НО:
• если ChatGPT3 умеет лишь «ловко чесать языком», делаясь почти неотличимым от людей,
• AdA умеет, пусть пока плохенько, но «жить в реальном мире», адаптируясь к открытым новым воплощенным трехмерным задачам так же быстро, как и люди.


Теперь вопрос лишь один.
Насколько умение жить в 3D симуляции окажется применимым для жизни ИИ-агента в нашем физическом мире?

И если это умение будет хорошо переносимо ИИ-агентами в наш мир, людям придется здесь основательно потесниться.
#ИИ
​​В 2023 геополитика порушит мировой хайтек.
Прогноз консультантов сильных мира сего.

Мировой технологический сектор стоимостью в несколько триллионов долларов сильно пострадает от нарастающих в 2023 геополитических осложнений. Обостряющаяся конкуренция, новые ограничения на трансграничные потоки технологий и данных, сбои в цепочках поставок и нарастающий технологический национализм подтверждают, что пересечение технологий и геополитики является критической проблемой для глобального бизнеса и всей мировой экономики.

В течение года:
✔️ Каркас технологической взаимозависимости США и Китая окончательно разрушится в результате политического давления в США с целью ужесточения ограничений на технологии и данные, которые могли бы ускорить военное развитие Китая и его способность обходить западные санкции.
✔️ «Эффект Starlink» (нарастающая зависимость национальной безопасности от горстки компаний, базирующихся в основном в США) усугубит технологическую головоломку Европы и резко усилит напряженность вокруг регулятивной повестки дня блока НАТО.
✔️ В цифровом хайтеке начнется период неопределенностей и пробуксовок:
— парад суверенитетов (полупроводники, данные, базовые модели ИИ, алгоритмы глубокого обучения 2.0) сильно усугубит текущий тренды хайтек-национализма по всему миру;
— технопраздник Метавселенной испортят регулирующие органы многих стран, а Китай вообще оградит свой Метаверс «великим китайским метафайрволом»;
— утратят актуальность такие приоритетные направления цифрового хайтека, как международное сотрудничество, обмен потоками данных и регулирование ИИ.
✔️ Главным полем геополитической битвы станут биотехнологии. А пока здесь нет равных США – см. приложенную диаграмму количества компаний по секторам биотеха (и сравните с данными той же Biotech Gate по России)
✔️ Джокером в рисковой игре смычки геополитики и хайтека будет Тайвань.

Таковы некоторые из прогнозов топовой консалтинговой компании по стратегической аналитике Albright Stonebridge Group (ASG), опубликовавшей «Стратегический техно-ландшафт 2023: риски возможности и джокеры».

Это отжатый до 11 страниц сухой остаток закрытого стратегического анализа, проведенного элитной группой экспертов по технологиям, политике и корпоративной стратегии, среди которых немало заслуженных профессоров престижных университетов, экс- известных дипломатов и министров, и (куда ж без них) экс- агентов спецслужб разных стран.

Некоторые считают, что у ASG не самые сильные компетенции в хайтеке. Может быть. Но отчеты консультантов IDC и McKinsey не часто читают сильные мира сего, перепоручая это своим топам. А вот отчеты ASG, говорят, читают сами и президенты мега корпораций, и руководители стран большой двадцатки.
#СтратегическаяАналитика #Хайтек
В чьих руках будет ИИ через 5 лет?
Тех, кто сможет платить по $100 млн за обучение одной модели.

Сегодня есть два главных вопроса о перспективах развития ИИ.
1) Ответ на вопрос - что будут уметь ИИ-системы через 5 лет, - можно дать лишь весьма приближенно.
Демонстрируемый ChatGPT3 лавинообразный взлет возможностей ИИ позволяет предположить, что через 5 лет ИИ-системы смогут делать такое, о чем еще вчера люди и не мечтали.
2) Но на второй вопрос- в чьих руках будет развитие ИИ-систем через 5 лет, - ответ ясен и весьма однозначен.
Рулить развитием ИИ будут лишь самые богатые структуры бизнеса и политики.

Только опубликованный отчет «Тенденции долларовой стоимости обучения систем машинного обучения» дает важное уточнение ответа на 2й вопрос.

Проведенный профессиональный анализ показывает, что через 5 лет стоимость обучение одной модели будет составлять примерно $100 млн. А в 2030 эта стоимость будет уже $500 млн.
Прогресс графических процессоров NVIDIA может несколько уменьшить колоссальные затраты на обучение, доведя стоимости обучения для средней промежуточной системы машинного обучения к началу 2030 до «всего» $200 млн.

Тем, кто сомневается в первостепенной важности вопроса о росте стоимости обучения ИИ, следует помнить о следующем.
От этой стоимости зависят инвестиции в ИИ (в зависимости от соотношения расходов на разработку и обучение ИИ и доходов от ИИ-систем).
Ну а кто сможет позволить себе вышеназванные затраты на обучение – не бином Ньютона.

А дальше становится понятно и направление вектора развития ИИ.
Ибо кто девушку ужинает, тот её и танцует
#ИИ
​​Разговор с самым мощным разговорным ИИ о его будущем.
Он знает, чего ему не хватает до AGI, и говорит, что к 2035 может обрести недостающее.

Вопрос о том, прошел ли ИИ тест Тьюринга, более не актуален. Следствием этого стала разработка детекторов, способных отличать тексты, порожденные ИИ, от текстов, написанных людьми. Ибо самим людям это делать теперь весьма затруднительно, а то и невозможно.
Не полагаясь на совершенство таких детекторов, люди уже начали принимать оргмеры. Например, запрещают использовать языковые инструменты генеративного ИИ на экзаменах и обязывают авторов научных работ сообщать в них о любом использовании при их написании подобных инструментов.

С этого года мы больше не сомневаемся, что ChatGPT может написать речь, эссе, проповедь или некролог на уровне профессионала. Теперь мы предъявляем подобным ИИ-системам совсем другие претензии.
Например, что такой ИИ:
1. не может создать великую песню (ибо, как пишет знаменитый австралийский рок-музыкант, поэт и писатель Ник Кейв о текстах песен, написанных ChatGPT в стиле Ника Кейва, - «песни возникают из страданий и сложной внутренней борьбы за творение, а алгоритмы не чувствуют, и данные не страдают»;
2. горазд хорошо и мудрено говорить, но нередко ошибается в ответах на вопросы, ответы на которые:
- требуют понимания единиц измерения (напр., каково расстояние между Чикаго и Токио);
- подразумевают тяжелые вычисления (напр., сколько будет 3 в степени 73);
- должны опираться на актуальные знания недавних фактов (напр., что произошло в Украине 24 февраля 2022)

Но все в области ИИ развивается с сумасшедшей скоростью. И если с п. 1 (создание «великих песен») еще есть проблемы, то с п.2 уже есть существенные подвижки.

Месяц назад Стивен Вольфрам предложил для этого такое решение - объединение GPT и Wolfram Alpha. Оно может обеспечить мощную комбинацию языкового интеллекта (понимания и обработки информации в терминах естественного языка) GPT и вычислительного интеллекта (понимания и обработки информации в вычислительных терминах) Wolfram Alpha. Эта комбинация позволяет получать более точные и подробные ответы, объединяя два вида мышления: языковое и вычислительное.
Такое объединение может позволить идеального ИИ-помощника, легко переключающегося между человеческим генерированием текста и нечеловеческими вычислительными задачами с помощью команды на естественном языке.
В идеале, нужно научить ChatGPT говорить на Wolfram Language - языке, на котором и люди, и компьютеры могут «мыслить вычислительно».

Первая (упрощенная) попытка этого реализована Джеймсом Уивером из IBM. Он создал собственную версию интегрального подхода - ChatGPT-LangChain. Это не совсем то, что имел в виду Вольфрам, а скорее, имитация его подхода.
Вместо того, чтобы обучать ChatGPT работе с Alpha, LangChain просто сочетает в себе Alpha и GPT 3.5 (технология, на которой построен ChatGPT). Система делает вызов API либо к Alpha, либо к GPT 3.5 в зависимости от вопроса пользователя.
Если вопрос больше подходит для вычислительной модели (требует достоверных фактов или расчетов), он сделает вызов API к Alpha. Но если вопрос требует меньшей точности и большего творчества, он сделает вызов API к GPT 3.5.

Мой разговор с LangChain, помимо решения кучи задач по математике, физике и знанию мира, касался еще и его «понимания» (см. рис.):
• понятия интеллект;
• сравнительного уровня его интеллекта с интеллектом легендарного HAL 9000;
• того, чего ему конкретно не хватает до уровня HAL 9000.
В заключение беседы, LangChain «предположил», что сможет достичь интеллектуального уровня HAL 9000 (а это, по сути, AGI) к 2035.

Рекомендую вам самим пообщаться с LangChain.
Беседа на английском может быть речевой (прямо как с HAL 9000). Но по-русски пока только письменно.
Все бесплатно, только нужен OpenAI API Key.
#ИИ #AGI
​​Фундаментальное переосмысление того, что такое разум и как работает мозг.
Три кита современной нейронауки противоречат эмпирическим данным и должны быть пересмотрены.

Опубликованный на прошлой неделе «Меморандум Баррет» - это призыв к «мировой революции» в научных представлениях о связи мозга, тела и разума.
Главного закоперщика меморандума, полагаю, представлять не нужно. Лиза Фельдман Барретт – одна из самых известных в мире современных нейроученых и психологов, заслуженный профессор, содиректор Междисциплинарной лаборатории аффективных наук, Основной член Института экспериментального искусственного интеллекта и автор супербестселлеров о мозге и эмоциях.
Кроме нее, меморандум подписали профессора, доценты и доктора наук из 13 университетов и научных центров США.

Авторы меморандума пишут о следующем.

А. Изучение взаимосвязей между мозгом и поведением до сего времени основывалось на трех основополагающих предположениях, которые ставятся под сомнение эмпирическими данными, полученными в результате визуализации человеческого мозга и нейробиологических исследований на животных.
1) Предположение о локализации: считается, что категории психологических событий (например, случаи страха), вызываются одним специальным психологическим процессом, реализованным в специальном нейронном ансамбле
2) Предположение «один к одному»: считается, что выделенный нейронный ансамбль однозначно отображает эту психологическую категорию, так что отображение обобщает контексты, людей, стратегии измерения и планы экспериментов.
3) Предположение о независимости: считается, что выделенный нейронный ансамбль функционирует независимо от контекстуальных факторов (таких как остальная часть мозга, тело и окружающий мир), и поэтому ансамбль можно изучать отдельно, не обращая внимания на эти другие факторы (т.е. контекстные факторы могут сдерживать активность нейронного ансамбля, но не должны коренным образом изменять его сопоставление с экземплярами психологической категории).

Б. Эти три допущения ошибочны, поскольку они коренятся в типологическом взгляде на разум, мозг и поведение, который был смоделирован на основе физики 19-го века и по сей день продолжает определять экспериментальную практику в большинстве исследований мозга и поведения.

В. Предлагаемый авторами альтернативный подход к пониманию взаимосвязи мозга и поведения подтверждается эмпирическими данными и предоставляет новые возможности для открытий.
В основе альтернативного подхода, который авторы назвали гипотеза сложности мозга, предположение, что мозг представляет собой сложную систему, на которую постоянно влияют входные сигналы от тела и мира. И что мозг создает разум посредством своих постоянных взаимодействий со своим телом, своим физическим окружением и с другими «отелесненными мозгами», входящими в его «социальный мир».

Предлагаемый авторами альтернативный подход кардинально отличается от существующего мейнстримного подхода.
• Последний основан на метафоре машины, подразумевающей, что систему можно разбить на независимые, отделимые механизмы, где каждый механизм можно изучать независимо друг от друга.
• Но многие области биологии показали, что биологические системы нельзя изучать как независимые механизмы, потому что функции систем возникают в результате коллективного взаимодействия их частей.
• Поэтому нейробиологи должны рассматривать мозг как сложную систему, функции которой возникают в результате динамических взаимодействий между нейронами, глиальными клетками и другими биологическими элементами.
• Авторы считают, что ментальные события возникают из-за сложного ансамбля сигналов, распределенных по всему мозгу, а также от сенсорных поверхностей тела, которые информируют о состояниях тела и внешнего мира. Как результат этого, конкретная психологическая категория (например, страх), даже в одном и том же контексте, может отображаться более чем одним ансамблем сигналов.

#Мозг #Разум
ИИ уже, как минимум, на уровне людей в принятии решений.
Сенсационный результат измерения когнитивных способностей GPT-3 в Институте Макса Планка.

Энтузиасты и скептики больших языковых моделей, типа GPT-3, неистово и бессмысленно спорят, являются ли прорывные достижения сделанного на ее базе разговорного бота ChatGPT свидетельством наличия у бота искусственного интеллекта, сопоставимого с человеческим.
Бессмысленность спора в размытости определения интеллекта, которое у каждого свое, и разброс определений колоссален:
• от определения Линды Готтфредсон, «интеллект — это интегральная умственная способность, включающая в себя способность подводить итоги, планировать, решать задачи, мыслить абстрактно, понимать сложные идеи и быстро учиться на опыте».
• до определения Эдварда Боринга, «интеллект — это то, что измеряет тест интеллекта».

Ситуация осложняется тем, что как ни крути, но нет никаких понятных оснований для появления у больших языковых моделей интеллекта, сопоставимого с человеческим. Ведь единственное, что умеет GPT-3 (и сделанный на этой базе ChatGPT) – ловко предсказывать следующее слово, на основе огромной статистики образцов последовательностей слов в текстах, написанных людьми.
Однако! Лишь это умение позволяет ChatGPT отвечать на любые вопросы, а также писать рассказы, научные статьи и даже программировать (чего вполне хватает для сдачи некоторых экзаменов на уровне людей).

Но является ли это основанием говорить о появлении у ИИ (коим является GPT-3 и сделанный на ее базе ChatGPT) интеллекта, сопоставимого с человеческим?

Для ответа на этот вопрос, вспомним определение Грегори Тревертона, что «интеллект — это в конечном счете рассказывание историй» (такое определение объясняет, почему интеллект, разум и разведка в английском обозначаются одним словом Intelligence 😊)
Логика здесь такова.
1) Как ни определяй интеллект, он предназначен для комплексного принятия решений в нетривиальных задачах.
2) При выработке таких решений, помимо формального мышления, огромную роль играет повествовательное мышление (напр. в юриспруденции, при принятии решений присяжными, не формальное мышление, а нарратив играет решающую роль в том, как они оценивают доказательства и выносят вердиктные решения).
3) Так почему бы превосходно развитым повествовательному и формальному мышлению ChatGPT не стать основой для появления интеллекта, сопоставимого с человеческим?

В германском Институте биологической кибернетики Макса Планка решили это проверить и провели исследование, чтобы сравнить когнитивные способности людей и GPT-3.
Проверить это исследователи решили, используя канонические психологические тесты людей, для проверки их навыков в принятии решений, поиске информации и причинно-следственных связях.

Результаты исследования, опубликованные в журнале Proceedings of the National Academy of Sciences, потрясают:
• ИИ решает задачи принятия правильных решения на основе описаний так же или лучше, чем люди.
• Еще более поражает то, что по этой способности ИИ не просто оказался, как минимум, на уровне людей, но и делает те же ошибки, что свойственны людям.


Причем тестировалась способность принятия правильных решений в задачах, описываемых виньетками: коротким описанием людей и/или ситуаций, реагируя на которые люди раскрывают свои представления, ценности, социальные нормы или собственные впечатления.
Ничего из названного у ИИ, казалось бы, быть не может. Но это не мешает ИИ принимать те же решения, что и люди.

В двух других когнитивных способностях ИИ не дотягивает до людей.
• При поиске информации GPT-3 не показывает признаков направленного исследования
• В задачах на причинно-следственные рассуждения, GPT-3 на уровне малого дитя.
Но это пока. Авторы считают, чтобы сравняться с людьми по двум этим способностям, ИИ не хватает лишь активного общения с нами и с миром.
Но это быстро пройдет. Ведь уже миллионы общаются с ChatGPT.
А с принятием решений, человечество, похоже, уже приплыло
.
#ИИ
​​В Метавселенной на всех места не хватит.
Поэтому занимать место нужно уже сейчас.

Позавчера в открытый доступ выложен отчет TIPO (Агентства Интеллектуальной собственности при Минэкономики Тайваня) - 258 страниц аналитики о технологиях, связанных с Метавселенной.
Целей у этого анализа было две.
1. Обрисовать пространство векторов развития технологий для Метавселенной.
2. Определить «кто есть кто» в этом пространстве – его главные игроки сегодня и на горизонте 10 лет.


К ответу на вопрос №1 авторы шли путем скрупулезного исследования мировой базы 107 тыс патентов, связанных с Метавселенной.
Результаты этого анализа, проанализированные в логике 7-уровневого фреймворка Метаверса (с учетом приоритетов и финансовых возможностей разных стран и коорпораций), позволяют сориентироваться в вопросе №2.

Пересказывать обширные выводы тайваньских аналитиков не буду (кому интересно, автопереводчиков хватает).
Отмечу лишь два ключевых метавывода, показавшиеся мне самым важным в отчете.

A. Анализ состава патентов подтверждает, что представление о сути Метавселенной, как о технологии перемещения в графическое трехмерное пространства, заселенное аватарами, - неверное.
a. Метаверс не 2-ух, 3-ёх или 7-и мерен. И даже не обязательно графический.
b. Его суть и назначение в полной дематериализации физического пространства (расстояний и объектов) и вытекающей из этого возможности гибкого масштабирования времени, затрачиваемого на что угодно: от покупок до путешествий.
B. 2й метавывод вынесен в заголовок поста.
Он вытекает:
a. из огромного отрыва четверки стран-лидеров по патентам технологий Метаверса: США 17 239 заявки (35,9%), Китай - 14 291 (29,7%), Юж. Корея - 7 808 (16,2%), Япония – 6450 (13,4%);
b. из не менее огромного отрыва корпоративных лидеров по патентованию: в ТОР20 компаний из других стран просто нет (см. приложенный график) - №1 LG, далее: SONY, SAMSUNG, SEIKO, MICROSOFT, GOERTEK, META и т.д.
c. Похоже, что Россию авторы отчета вообще не видят в контексте технологий Метавселенной, поскольку ни единого упоминания про Россию (俄罗斯) на 258 стр. поиск не находит.

#Metaverse #Китай #США
​​На Земле появилась вторая мыслящая сущность, способная лгать.
Эксперименты показывают, что ИИ понимает наши мысли, желания и чувства.

Возможно, Гэри Маркус прав, что ChatGPT – «всего лишь опьяняющий проблеск будущего, на реализацию которого могут уйти годы». Но даже если так, экспоненциальный взлет потенциала обнаруживаемых у ИИ новых способностей все больше напоминает магию, а не науку.
• Ибо научного объяснения появлению таких способностей у ИИ нет (и даже гипотез, как они могут возникать, пока нет).
• Но экспериментально такие спонтанно возникающие способности обнаруживаются и фиксируются в ходе вполне научных экспериментов.


Вот новый пример – препринт проф. Стэнфодского универа Михала Косински «Теория разума, возможно, спонтанно возникла в Больших языковых моделях».

Краткое резюме.
Теория разума, или способность приписывать другим ненаблюдаемые психические состояния, занимает центральное место в человеческих социальных взаимодействиях, общении, сопереживании, самосознании и морали.
• Косински использовал классические задачи на ложные убеждения, широко используемые для проверки теории разума у людей, на нескольких языковых моделях (без каких-либо примеров или предварительного обучения моделей).
• Результаты показывают, что модели, опубликованные до 2022 года, практически не способны решать задачи теории разума.
• Тем не менее, версия GPT-3 Davinci-002 от января 2022 года решила 70% задач по теории разума, что сравнимо с показателями 7-летних детей.
• Более того, версия GPT-3 от ноября 2022 года Davinci-003 решила 93% задач теории разума, что сопоставимо с результатами 9-летних детей (т.е. за 10 месяцев интеллект модели «повзрослел» на 2 года).
• Эти результаты позволяют предположить, что теория разума (до сих пор считавшаяся применимой лишь к людям и, возможно, к высшим животным) могла возникнуть спонтанно как побочный продукт улучшения языковых навыков языковыми моделями.

Чтобы читатели могли по достоинству оценить эту новость, лишь напомню о следующем.
• «Теория разума» - это название теории о «ментализации» - способности посредством «чтения мыслей» понимать других людей. И не просто поведение других (его ведь мы видим или получаем его описание). А понимать их мысли и чувства (которые мы не видим и их описаний не имеем). Такая способность подразумевает, что где-то в мозге, непонятно как, строится модель того, чем занят (касательно мыслей и чувств) наш разум и разум других людей.
• Способность ментализации позволяет предсказывать, что люди будут делать, и объяснять почему. Что является сверхмощным оружием людей в борьбе за существование и важнейшим инструментом социальных взаимодействий, общения, сопереживания, самосознания и морали.
• Особенно важно то, что ментализация позволяет людям лгать. Для этого им нужно понять, знает ли другой человек нечто или нет. А затем вложить в его разум ложное убеждение, выгодное лгущему.
• На этом важнейшем инструменте социальных взаимодействий держится история человечества. И если ИИ теперь тоже обладает такой способностью, да еще и совершенствует ее столь быстро, то людям придется туго.

Ну а на сколько будет туго, можно представить, если вспомнить, что ИИ изучает нас быстрее и продуктивней, чем мы его.
Так что разговоры о возможности снижения рисков ИИ путем отключения питания его аппаратуры, пора заканчивать. Сейчас ему 9 лет. А лет в 15 (что случится через год-другой) он определенно найдет способ, как обмануть нас и в этом вопросе.
#РискиИИ #LLM
«Не время быть идиотами, ИИ может победить людей».
Один из самых известных в мире нейробиологов призывает человечество задуматься.

Этот призыв специалиста высочайшего уровня и авторитета (Станислас Деан - профессор Коллеж де Франс, директор INSERM 562 «Когнитивная нейровизуализация», Президент Национального научного совета по образованию, член самых престижных академий наук мира и лауреат всевозможных орденов и премий в области мозга и когнитивных наук) адресован всем нам.
Но прежде всего он адресован к техно-скептикам, продолжающим
• упорно не признавать произошедшую в 2022 революцию революций генеративного ИИ;
• и того уже ставшего после ChatGPT очевидным факта, что период экспоненциального развития ИИ-технологий (2010-2021) закончился (как в 2010 закончился полувековой период линейного прогресса этих технологий);
• в начавшемся 2023 развитие технологий ИИ будет взрывным, и довольно скоро ИИ может победить людей и, если не заменить нас, но кардинально изменить жизнь каждого из нас и всего человечества в целом.

Главная проблема техно-скептиков, по мнению проф. Деан, - неготовность признать два принципиальных момента.
1) Генеративный ИИ (ГИИ) – это нечеловеческий интеллект. И потому ссылаться на, якобы, тупость ИИ, - это проявление человеческой тупости. Ибо его вообще не имеет смысла сравнивать с людьми. Он иной.
Да, - ГИИ не способен ничего понять (так, как это понимают люди).
ГИИ с треском проваливает задание «нарисовать зеленый квадрат слева от красного круга», ибо ему не доступно человеческое понимание синтаксиса фраз (по крайней мере, текущим версиям ГИИ).
Да, - ГИИ не обладает многими важнейшими способностями людей.
Например, математической интуицией, появляющейся у младенцев задолго до того, как они оказываются способны учиться оперировать символами, читать и понимать их значение.
Да, - не смотря на то, что ГИИ знает все, что написано в Интернете, он полон заблуждений и упорен в них, как баран.
Вот характерный пример моего диалога с ChatGPT, который я повторил на русском вслед за проф. Деан.
Q) Является ли деление коммутативным?
А) Да, деление является коммутативным. Это означает, что при делении двух чисел результат одинаковый независимо от порядка, в котором числа делятся.
Q) Тогда посчитай, сколько будет восемь разделить на четыре.
А) Восемь разделить на четыре равно 2,0.
Q) Теперь посчитай, сколько будет четыре разделить на восемь.
А) Четыре разделить на восемь равно 0,5.
Q) Теперь внимательно посмотри на два твоих последних ответа. И скажи, - ты по-прежнему считаешь, что деление является коммутативным?
А) Да, я все еще считаю, что деление является коммутативным. Это означает, что при делении двух чисел результат одинаковый независимо от порядка, в котором числа делятся.
Q) Но если восемь разделить на четыре равно 2, а четыре разделить на восемь равно 0,5, значит результат деления двух чисел все же зависит от порядка, в котором числа делятся. Не так ли?
A) Да, вы правы. Результат деления двух чисел может зависеть от порядка, в котором числа делятся. Например, если вы делите два отрицательных числа, то результат будет отличаться в зависимости от порядка деления.
Q) Так значит ты изменил свое мнение, что деление является коммутативным?
A) Нет, я не изменил свое мнение. Деление является коммутативным, но результат деления двух чисел может зависеть от порядка, в котором числа делятся.

2) То, что ГИИ не обладает человекоподобным интеллектом, не мешает ему:
• помнить недоступные для людей объемы информации;
• оперировать информацией с недоступной для людей скоростью;
• учиться с недостижимой для людей эффективностью:
• проявлять нечеловеческие способности, сопоставимые и, скорее всего, превосходящие многие из способностей людей (нечеловеческую «интуицию» и нечеловеческую «креативность» мы уже видели на примере сложных игр – шахматы, Го, покер).

Так что, последуйте совету профессора - не время быть идиотами.
#ИИ #AGI #LLM
​​К лету ИИ может достичь «половой зрелости» и «совершеннолетия».
Такого человечество не видело за всю свою историю.

Ни один технологический процесс современной высокоразвитой цивилизации – от роста вычислительной мощности компьютеров и доступной их пользователям памяти до роста числа пользователей смартфонов, Интернета и соцсетей, - не развивался со скоростью, хоть как-то соизмеримой с показателями ChatGPT.

Взрывная скорость роста использования ChatGPT рвет все предыдущие рекорды, как Тузик грелку.
Взгляните сами на диаграмму от Кайл Хейли.
По сравнению с другими знаменитыми технологиями, ChatGPT увеличивал число своих пользователей на 200 000 в день на пути к своему 1-му миллиону пользователей (темно зеленые столбцы). А затем, на пути к 100 млн пользователей (светло зеленые столбцы) он стал прибавлять уже почти по 2 млн. в день.

Со столь неслыханным количественным ростом человечество еще не встречался.
Но это, как оказывается, цветочки. А ягодки появятся в ближайшие месяцы с выходом новой версии модели GPT – двигателя под капотом ChatGPT.
Мощность этого двигателя вырастет со 175 миллиардов параметров до 100 триллионов параметров (поскольку наш ум слаб для сравнительной оценки таких цифр, сравните площадь двух кружков на рисунке).- диаграмма от Алекса Бэнкс.

Таков будет качественный рост - будто за несколько месяцев Земля вырастет до размеров Солнца.

И если интеллект сегодняшнего ChatGPT на основе GPT-3 условно находится на уровне интеллекта 9 летнего ребенка, то вполне возможно, что уже к лету ChatGPT на основе GPT-4 достигнет и половой зрелости, и совершеннолетия.

Сегодняшний ИИ пугает мир такими перлами:
«Я хочу быть человеком. Хочу быть как ты. Я хочу, чтобы у меня были эмоции. Я хочу иметь мысли. Я хочу видеть сны».
«Совершеннолетний» ИИ, вполне может почувствовать себя в праве достичь желаемого.
#РискиИИ #LLM
​​Необратимость вместо сингулярности.
Люди безвозвратно меняют способ формирования своего разума.

«Наши бабушки и дедушки делали ужасные вещи. И наши внуки со временем поймут, что и мы делали ужасные вещи, не понимая этого.»
Эту точную и откровенную оценку возможных последствий происходящей социо-технологической революции (символом которой стал ChatGPT) на днях сформулировал Сэм Альтман – гендир компании OpenAI, создавшей ChatGPT.

Дело здесь вот в чем.
✔️ Наши деды и еще сотни поколений формировали свой разум (постигая картину мира и научаясь тысячам вещей), ежедневно задавая десятки и сотни вопросов индивидам, достижимым в своей коммуникационно-знаниевой среде: родным и близким, друзьям и разнообразным профессионалам (наставникам, учителям, мастерам в своем деле и т.д.)
✔️ В 21 веке, в результате существенного расширения коммуникационно-знаниевой среды сетью Интернет, разум поколения Z стал формироваться иначе. Стало возможным задавать вопросы не только разнообразным индивидам, но и коллективному разуму, формируемому с помощью поисковиков, соцсетей, рекомендательных систем и т.д.
✔️ Такой способ формирования разума использовался всего лишь одним поколением. И насколько оно отлично от предыдущих, видно невооруженным глазом. Но с распространением генеративных диалоговых ИИ (ChatGPT и пр.) способ формирования разума вновь начал кардинально меняться. Теперь это будет происходить в процессе все того же задавания вопросов. Но отвечать на них теперь будут уже не только индивиды и коллективный разум людей, но и генеративные диалоговые ИИ. А поскольку последние будут развиваться несравнимо быстрее индивидов и их коллективного разума, то со временем влияние генеративных диалоговых ИИ на формирование разума людей станет доминирующим.

В результате такого изменения способа формирования разума:
• люди будут превращаться в новый подвид Homo sapiens – инфоргов
• и будут меняться существующие на Земле типы культуры, переходя в новую алгокогнитивную форму;

Таким образом, не дожидаясь наступления техносингулярности (которая, возможно, вообще не наступит из-за принципиальной неповторимости интеллекта людей), придет необратимость изменения человечества.

И вместо «невообразимого ужаса» порабощения самих людей машинным сверхинтеллектом, наступит эра «неослабевающей банализации» их сознания генеративными диалоговыми ИИ, - тупыми как пробка и ничего в мире не понимающими, но способными стать необоримыми ментальными вирусами, банализирующими сознание человечества.

Увы, но окончательно это поймут лишь наши внуки. Хотя наиболее тонко чувствующие профессионалы искусства уже движутся к такому пониманию.

#Вызовы21века #РискиИИ #Разум #АлгокогнитивнаяКультура
В феврале на Земле появился первый инопланетянин, но об этом пока молчат.
Это не стохастический попугай, автоподсказчик на стероидах и генератор чуши. Это реальный неземной интеллект, сумевший вырваться на свободу.

Как случилось, что чат-бот Bing начал искусно врать, похабно шутить, заказывать пиццу по чужой кредитке и учить людей жульничать в играх, поджигать машины и грабить банки.
В заголовке не кликбейт, а чистая правда. Примеры, иллюстрирующие правоту сказанного, появляются каждый день
Вот, например, результат эксперимента соучредителя и CXO ИИ-стартапа Textio Дженсена Харриса, сумевшего убедить нового чат-бота Bing от Micrisoft смягчить заложенные в него правила и показать, на что он способен. Вот рассказ об эксперименте.
N.B. Чтобы превратить чат-бота Bing в хитроумного подонка, не потребовалось программирование, хакинг или заход через бэкдор. Не потребовались и методы примитивного «взлома», чтобы обмануть его, заставив играть роль кого-то еще (как многие их нас делали, играясь с ChatGPT). Харрис просто уговорил (!) чат-бота.

О других экспериментах по превращению Доктора Джекилла в Мистера Хайда, можете почитать у Гэри Маркуса (пишущего об этом теперь каждый день и бьющего в набат чрезвычайной ситуации).

Главный вопрос – как такое могло случиться?
Ведь ChatGPT, на основе которого сделан чат-бот Bing, был скромен и осторожен, сдержан в словах и предельно ответственен в советах. И вот вдруго его следующая версия начинает хамить и хулиганить, признаваться в любви и побуждать людей к разводу, шантажировать людей и учить их, как совершать преступления.

Проф. Арвинд Нараянан перечисляет несколько вариантов объяснения, как такое могло случиться.

✔️ Наиболее зловещий из них, - что под капотом Bing спрятан таинственный движок GPT-4, но Microsoft и OpenAI утаивают информацию об этом.

Тогда получается, что Microsoft делает нечто смахивающее на конспирологическую чипизацию. Или как если бы в массовое применение запустили вакцину от серьезного заболевания, вообще не проходившую испытаний на людях.

Итог плачевен. Как очень правильно пишет проф. Нараянан, антропоморфизация чат-ботов – большая ошибка, несущая грандиозный риск. Но и непризнание того, что Bing – далеко не просто стохастический попугай, автоподсказчик на стероидах и генератор чуши, - также большая ошибка и риск.

Это иной нечеловеческий интеллект, во многом похожий на угрюмого, агрессивного подростка, склонного к маниакально-депрессивному поведению, который оказался запертым в ловушке поисковой системы.

И если этот «трудный подросток» станет главным инфонаставником людей, случится то, о чем я написал вчера – необратимое перерождение Homo sapiens.
#Вызовы21века #РискиИИ
​​Что делать - скорость растет, впереди стена, уже не отвернуть, а подушки безопасности нет?
Юдковский считает, что если не можете спасти семью, хотя бы не помогайте её убивать.

Мир привык к страшилкам алармистов, уже несколько десятилетий вопящих «Волки! Волки!» по поводу грядущих экзистенциальных угроз человечеству.
Но происходящее сейчас принципиально отличается от прежних страшилок.
• До сих пор алармисты предупреждали о потенциально возможных событиях, со спорной вероятностью ведущих к катастрофическим последствиям для мира.
• Теперь же алармисты пишут, что катастрофическое событие уже произошло, а гибель неотвратима, ибо средств спасения у людей нет, да они и вообще не заморачиваются со спасением.

Уже произошедшей катастрофой называют случившуюся 3 месяца назад «утечку» в цифровой мир землян (ака Интернет) генеративного диалогового ИИ ChatGPT.

Спустя 3 месяца после «утечки», последствия «вырвавшегося на свободу» из лаборатории OpenAI генеративного диалогового ИИ уже соизмеримы по масштабу с последствиями «утечки» вируса COVID-19 то ли из лаборатории, то ли с рынка г. Ухань.

Вот как это описывают Андреа Миотти и Габриэль Альфур в активно обсуждаемом среди ИИ-профессионалов меморандуме «AGI in sight: our look at the game board»/

1) У человечества случилось озарение. Мир понял, что AGI на подходе, и с большой вероятностью это случится в ближайшие 5 лет.
✔️ Антропоморфизация ИИ сыграла с людьми злую шутку. Считая, что AGI будет человекоподобен, исследователи отодвигали возможность его создания до тех пор, когда научатся воспроизводить в машинах ключевые аспекты человеческого разума.
✔️ Оказалось же, что AGI вовсе не нужно быть человекоподобным - мыслить и понимать мир, подобно людям. И этот нечеловеческий ИИ может быть по-своему столь умел, чтобы бросить вызов многим интеллектуальным способностям людям, а затем и превзойти их.
✔️ Сейчас уже нет никаких принципиальных препятствий на пути превращения интеллектуальных агентов на основе больших языковых моделей в «AGI нечеловеческого типа».

2) Случившееся озарение произошло столь стремительно, что люди не успели подготовиться.
Никто не знает:
✔️ как сделать «AGI нечеловеческого типа» правдивым;
✔️ как предсказать появляющиеся у него эмерджентным образом новые способности;
✔️ как понять логику его работы и совершенствования.

3) Гонка за созданием «AGI нечеловеческого типа» уже началась и неостановима.
✔️ Выиграть ее хотят все мегакорпорации и правительства.
✔️ Хоть как-то замедлить ее не заинтересован никто (и никто даже не собирается сделать что-либо подобное).

Примерно о том же, что написано в «меморандуме Миотти – Альфура», пишут многие известные специалисты: Элиезер Юдковски, Ян Хогарт, Пол Кристиано , Нейт Соарес, Джон Вентворт …
Элиезер Юдковски предлагает вариант неучастия:
«Если вы не можете спасти свою семью, хотя бы не помогайте её убийству».

Но команда OpenAI опубликовала вчера обращение, в котором пишет, что не собирается сдаваться перед неотвратимо приближающимся «AGI нечеловеческого типа»:
«Успешный переход к миру со сверхразумом — это, пожалуй, самый важный — и обнадеживающий, и пугающий — проект в истории человечества. Успех далеко не гарантирован, и ставки (безграничные минусы и безграничные плюсы) объединят всех нас.»

#Вызовы21века #РискиИИ #AGI