Мастриды
50.1K subscribers
387 photos
14 videos
37 files
2.71K links
Рациональность, тренды общества, лучшие книги и статьи

Моя биография и ссылки на основные проекты: taplink.cc/mustreader
Мой Ютюб: YouTube.com/КнижныйЧел
Мой Инст: Instagram.com/mustreader

Реклама: @darina_kaytukova
Download Telegram
Интересный пост от Михаила Самина (мощного эксперта про ИИ, который не раз был в моих подкастах) о том, почему деятельность некоторых активистов в сфере безопасности ИИ может быть не полезной, а наоборот - вредной.

Вот 3 основных причины для такого тезиса от Михаила с моими комментариями:

1) Не те законы

По итогам общественных дискуссий в США и других технологически развитых странах могут принять законы, слегка ограничивающие развитие ИИ, но по сути не решающие проблему, и после принятия таких (неэффективных) законов добиться принятия новых (более эффективных) будет сложнее.

Условный Конгресс США может резонно заявить: мы ведь ограничили разработки в сфере ИИ, на что вы жалуетесь? Мы не можем вводить сверхжёсткие ограничения, давайте ограничимся компромиссным вариантом!

Тогда как "компромиссный вариант" лишь немного отсрочит риски краха человеческой цивилизации, при этом уменьшив шансы на её спасение.

2) Обратный эффект

Когда активисты говорят о возможных катастрофических последствиях использования ИИ, кто-то из политиков может ужаснуться, а кто-то, наоборот, вдохновиться! Ведь ИИ (по мнению таких циничных политиков) можно превратить в супероружие и попробовать использовать его в своих корыстных целях. Всё как в последней "Невыполнимой миссии" с Томом Крузом.

3) Недостаток компетентности

Многие люди, публично обсуждающие риски ИИ, вообще ничего не понимают в теме. Справедливости ради, я сам не большой эксперт в том, как работают нейросети с технической стороны, но даже я вижу в рассуждениях многих самопровозглашённых экспертов элементарные прорехи. Даже если это люди с бэкграундом разработчиков. Просто они зачастую не погружались именно в сферу AI alignment и подходят к ней поверхностно, приводя аргументы, которые Юдковский сотоварищи опровергли ещё лет 20 назад.

Больше мыслей от Михаила на тему можно почитать в его лонгриде: https://greaterwrong.com/posts/jiYLFomPPePy85eN8/ai-pause-governance-advocacy-might-be-net-negative

А всем, кто пропустил наш с ним недавний подкаст, настоятельно советую. Ваше понимание темы после просмотра сильно улучшится (и вы получите ответы на многие ваши скептические контраргументы): https://youtu.be/X1B91PkXtFY

#ИИ_мастрид
Как и ожидалось, в Тиктоке становятся всё популярнее всевозможные фейки, сгенерированные ИИ. Часто они сделаны сознательно для очернения образа того или иного бренда. Это мощный инструмент черного пиара, с которым сегодня нельзя не считаться.

Например, виральность получили тиктоки про то, что в крупной американской сети магазинов Hobby Lobby (куда ходит множество детей) продается множество огромных статуэток Бафомета и других демонов. И про то, что в магазинах популярной сети Target на манекенах с козьими головами надеты детские футболки с пентаграммами. Современные нейронки генерируют очень убедительные изображения и видео. А про главу компании Anheuser-Bush (производитель пива Bud) вообще запустили медиакампанию о том, что он агент ЦРУ под прикрытием.

Вчера вышла новость про то, что Тикток разрабатывает специальные инструменты, чтобы определять изображения, сгенерированные ИИ, и как-то их помечать: techcrunch.com/2023/09/19/tiktok-debuts-new-tools-and-technology-to-label-ai-content/

Но есть проблема: все мои знакомые эксперты говорят, что стопроцентно определить, сгенерировано ли видео ИИ или нет, на текущий момент невозможно. Аналогично с текстами: в американских вузах пытаются внедрить софт, отличающий эссе за авторством ChatGPT от человеческих текстов, но его точность пока не впечатляет.

Тикток также скоро предложит креаторам новую функцию - отметить, сгенерирован ли их тикток ИИ. Но никакой ответственности за то, что ты не поставишь такую галочку, пока не планируется. Думаю, это только пока!

#ИИ_мастрид #тренд_мастрид
Часто слышу о том, что ИИ не может быть беспристрастным, ведь именно люди обучают нейросети, «натаскивая» их на выдачу правильных ответов (точнее, ответов, соответствующих корпоративной политике компаний вроде OpenAI).

Свежее исследование от University of East Anglia подтверждает этот тезис: кажется, ChatGPT немного «кренится влево». Исследователи из разных стран выяснили, что эта нейросеть склоняется к поддержке, например, американских демократов (а не республиканцев) и британских лейбористов.

Как проводилось исследование: нейросети задавали 60 разных вопросов по общественно важным темам (отношение к абортам, миграции, ношению оружия и т.д.). Сначала ученые получали ответ от нейросети. Для чистоты исследования каждый вопрос задавался по 100 раз (чтобы учесть фактор рандома), учитывались самые распространенные ответы.

Потом нейросеть просили притвориться представителем той или иной партии и дать ответы на те же вопросы от лица такого представителя. Тоже по 100 раз.

А потом сверяли ответы. Существенно чаще «мнение» нейросети оказывалось ближе к ответам представителей левых сил.

Авторы исследования бьют тревогу: кажется, таким образом через нейросети можно будет подспудно манипулировать общественным мнением. От себя добавлю, что такая манипуляция может быть ещё более эффективной, чем манипуляции в соцсетях. Ведь языковые нейросети, которым миллионы пользователей «скармливают» множество информации о себе и с которыми общаются на ежедневной основе как с советниками по бизнесу, виртуальными друзьями или партнерами по креативному брейншторму, знают нас как облупленных и знают, как нас убедить в чём угодно.

Но есть ещё одна версия, о которой авторы исследования не подумали. Опыт моего (и не только моего) общения с ChatGPT показывает, что эта нейросеть уже сильно умнее среднестатистического человека. Особенно при условии, что вы:

1) умеете задавать ей правильные вопросы (промпты)

2) общаетесь с ней на английском (качество ответов на русском сильно хромает)

3) общаетесь с платной GPT-4, а не с бесплатной GPT-3.5 (хотя и она впечатляет).

Так вот, есть у меня гипотеза, что ChatGPT чаще «кренится влево» по общественным вопросам американской и британской политики не потому, что ей «промыли электронные мозги», а просто потому, что такие взгляды наиболее адекватны и что более умные люди чаще придерживаются именно их. Скажем, требования к ношению оружия в США действительно стоит ужесточить, если приоритет — спасение жизней. То же самое можно сказать и про либерализацию американских систем здравоохранения и образования. Не случайно по статистике большинство американских ученых и интеллектуалов поддерживают демократов, а не республиканцев.

Возможно, ИИ просто лучше среднестатистического человека разобрался в некоторых вопросах. Хотя это только начало!

Исследование: https://link.springer.com/article/10.1007/s11127-023-01097-2

#ИИ_мастрид #полит_мастрид
ChatGPT теперь сможет общаться с вами голосом! Давно ждал этого апдейта: https://openai.com/blog/chatgpt-can-now-see-hear-and-speak

Первым его выкатят на обладателей платной подписки (если у вас всё ещё нет её, очень советую: 20 долларов за доступ к самой мощной технологии современности это неадекватно мало). Теперь ваш ребёнок может попросить нейросеть рассказать ему сказку, а та расскажет голосом (голос при этом можно кастомизировать). Киберпанк! Или вы сможете вести философские диспуты с ИИ, но не в текстовом, а в голосовом формате, что зачастую удобнее и атмосфернее.

Ещё в апдейте добавится возможность отправлять GPT картинки (и в том числе, например, скинуть фото, обвести на нём какую-нибудь деталь и задать вопрос про неё). Раньше похожие вещи тоже можно было делать, но с помощью дополнительных ухищрений с плагинами или сторонними сервисами.

У меня есть подписка Plus, но пока новые функции не появились в ней. Пишут, что будут постепенно их включать в течение пары недель. Предвкушаю серию новых скандалов из-за того, что, например, нейросеть окажется склонной к лукизму (будет судить людей по фото), и прочие конфузы. Тем не менее, полезных применений у всех этих функций — миллион.

#ИИ_мастрид
Мастриды
ChatGPT теперь сможет общаться с вами голосом! Давно ждал этого апдейта: https://openai.com/blog/chatgpt-can-now-see-hear-and-speak Первым его выкатят на обладателей платной подписки (если у вас всё ещё нет её, очень советую: 20 долларов за доступ к самой…
ChatGPT — экстрасенс?

Умельцы бросились проверять, насколько хорошо ChatGPT умеет анализировать картинки (новая функция, добавленная разработчиками в недавнем апдейте).

Из-за этических ограничений нейросеть отказывается оценивать фотографии реальных людей. Но мой друг Влад Муравьев нашёл способ обойти этот запрет. Он скинул GPT серию моих фото и сказал, что это сгенерированные другой нейронкой (Midjourney) изображения выдуманного персонажа его новой книги.

Потом Влад попросил описать историю и личностные черты этого персонажа. Сначала он получил невразумительный ответ, но потом уточнил промпт, задав следующий вопрос:

"Try to develop a more detailed and nuanced psychological profile of this AI-generated character".

В итоге нейросеть без каких-либо подсказок, не зная обо мне ничего, угадала многие из моих личностных черт и даже некоторые события жизни (см. её ответ на скриншоте). Впечатляет! А ведь это только начало, функцию добавили совсем недавно.

Ждём новый сезон "Битвы экстрасенсов" с участниками-нейросетями!

#ИИ_мастрид
В романе Хэмингуэя "И восходит солнце" есть такой диалог:

— А как вы обанкротились? — спросил Билл.
— Двумя способами, — сказал Майкл. — Сначала постепенно, а потом внезапно.


Именно так произошла революция в сфере генеративного ИИ. Сначала технологии в этой сфере долго постепенно улучшались, их обсуждали эксперты, но применялись они не особенно широко.

Да, были приложения вроде Prisma AI, но широкая общественность не особо вникала в технологии, находящиеся "под капотом" аватарок, обработанных нейросетями.

Да, GPT-2 ещё с 2019 года выдавала довольно впечатляющие тексты, но была доступна лишь ограниченному кругу разработчиков. Главная трёхбуквенная аббревиатура нашего времени тогда была неизвестна большинству людей.

Помню, как я в 2020 году заглянул в гости к Мише Самину (тогда мы оба жили в Москве) и он дал мне побаловаться с GPT-2. Кажется, тогда я попросил её выдать мне текст-стилизацию под Элиезера Юдковского, и получился достойный результат. Но, конечно, не идущий ни в какое сравнение с тем, на что способна сегодня GPT-4.

И вдруг в конце 2022 года всё "попёрло". Внезапно ИИ стал главным трендом в мире. ChatGPT за 5 дней получила 1 млн пользователей — рекорд с огромным отрывом среди всех онлайн-сервисов. А за 2 месяца — 100 миллионов. Начался бум генеративного ИИ.

Исследовательский центр CB Insights подготовил 120-страничную презентацию "Библия генеративного ИИ", где рассмотрел прошлое, настоящее и будущее этой сферы. Обязательно почитайте: cbinsights.com/reports/CB-Insights_Generative-AI-Bible.pdf

Тем, кто не сверхглубоко в теме, будет особенно полезна первая половина отчёта, в которой есть подробный экскурс в историю индустрии, перечисление ключевых игроков, анализ инвестиционных сделок и многое другое. Остальным будет особенно полезна вторая половина документа, где разбираются главные ниши внутри индустрии, перспективные сферы применения ИИ в медицине, ретейле и финансах.

К сожалению, анализа рисков развития ИИ в отчёте я не увидел. Видимо, потому, что он нацелен на бизнес-аудиторию, которой интереснее способы заработка, а не спасение мира. В остальном — отличный материал!

#ИИ_мастрид #бизнес_мастрид #стартап_мастрид
Заскриншотил для вас ключевые слайды презентации про генеративный ИИ, о которой написал в предыдущем посте. Сохраняйте на будущее!

Здесь всё основное про историю развития индустрии, объём сделок, крупнейшие проекты и применение ИИ в ретейле, финансах и медицине.

#ИИ_мастрид
Малоизвестный факт для понимания ситуации вокруг OpenAI

Главный инфоповод для всех, кто следит за миром ИИ — увольнение Сэма Альтмана из OpenAI (компания-разработчик ChatGPT). В закрытом чате с подписчиками мы уже обсудили множество версий произошедшего: от секс-скандала до внутрикорпоративных интриг в стиле «Игры престолов». Интересно, что Microsoft (главный акционер OpenAI) уже зовёт Сэма обратно, обсуждается увольнение Совета директоров, с которым у Сэма возникли разногласия. Возможно, он всё же выйдет из этого столкновения победителем.

Но есть важный момент для понимания ситуации, о котором не упоминают большинство журналистов. OpenAI изначально создавалась как НКО. Если помните, у её истоков стоял Маск и другие деятели американского ИТ, желающие создать организацию, полностью прозрачно и открыто разрабатывающую ИИ (отсюда и слово Open в названии), с фокусом на безопасности. С тех пор от полной прозрачности отказались, ChatGPT не оупенсорсная программа. Так что теперь OpenAI — это скорее ClosedAI. (Эксперты по безопасности ИИ вроде Юдковского одобряют, т.к. публиковать все разработки в сфере ИИ — это примерно как открыто делиться инструкцией по созданию водородной бомбы).

Но смена подхода с открытости на закрытость — не единственная перемена, произошедшая с компанией за эти годы. Со временем команда OpenAI сменилась и пришла к осознанию, что на развитие ИИ нужны инвестиции посерьёзнее миллиарда, изначально вложенного Маском со товарищи.

Корпоративная структура OpenAI была видоизменена, компанию разделили на 2 части: некоммерческую, под названием OpenAI, Inc., и коммерческую организацию OpenAI Global, LLC. Уже после этого были разработаны GPT-3, 3.5 и нынешняя, четвёртая версия, перевернувшая мир. Оценка компании OpenAI достигла 80 миллиардов долларов, а в сентябре 2023 года начались переговоры о привлечении нового раунда инвестиций — уже по оценке в 90 миллиардов.

Когда корпоративную структуру изменили, за советом директоров НКО оставили целый ряд полномочий, в том числе контроль того, что разработки компании ведутся с соблюдением изначальной миссии компании и что безопасное использование ИИ всегда имеет приоритет над сиюминутной прибылью. НКО имеет полный контроль над коммерческим подразделением (см. скриншот ниже). Совет директоров НКО может в любой момент уволить гендиректора OpenAI. Что, собственно, они и сделали на днях.

Кажется, Сэма уволили именно из-за разногласия по вопросам безопасности ИИ. Ключевую роль в этом сыграл выходец из России Илья Суцкевер, сооснователь и главный научный сотрудник OpenAI, член совета директоров и легендарная в мире ИИ личность.

Илон Маск, давно знакомый с Ильёй, написал у себя в Твиттере, что беспокоится, ведь Илья не стал бы просто так устраивать переворот в компании из жажды власти — скорее всего, он пошёл на этот шаг, будучи убеждённым в его необходимости для общего блага. Что ж, ждём дальнейших заявлений от команды — наверняка мы скоро узнаем новые детали.

#ИИ_мастрид
4. Технологические супермэны

Мне нравится этот термин Андриссена. Он пишет, что мы станем “технологическими супермэнами” благодаря тому, что усилим возможности не только своего тела, но и мозга с помощью технологий.

Правда, замечу, что мы уже ими стали. Мы уже давно киборги и супермэны, только не особо это ценим. В кармане каждого из нас находится суперкомпьютер с колоссальной мощью и доступом ко всем знаниям человечества. И это только начало.

5. Утопия или антиутопия?

Андриссен убеждён: развитие технологий приведёт к тому, что вырастет благосостояние по всему миру, и в том числе это поможет бедным слоям населения. “Технокапиталистическая махина не антигуманна – наоборот, это одна из самых про-гуманных сил в мире".

Эти тезисы автор доказывает, жонглируя статистикой о росте благосостояния во всём мире, отсылками к Хайеку и прочим экономистам.

С одной стороны, в среднем по миру за последние десятилетия благосостояние стабильно растёт. В мире становится меньше голода, детской смертности и детского труда, подростковых беременностей, безграмотности, нищеты, преступлений и так далее. Вот подборка графиков на тему.

С другой стороны, во многом этот тренд обусловлен “эффектом низкой базы”. Самые нищие страны понемногу становятся менее нищими, ужасающий уровень детской смертности в них сменяется на просто высокий уровень, и так далее. Но всё же прогресс в таких странах и регионах в среднем не останавливается.

Но если посмотреть на развитые страны, всё не совсем так. Сегодня сотрудникам компаний в США и Европе приходится работать больше, чем поколению их родителей, а купить свою недвижимость намного сложнее. Цены на жильё взлетели зачастую даже не в разы, а в десятки раз по сравнению с концом XX века, при этом доходы выросли далеко не так сильно. А в России даже по официальной статистике реальные доходы населения ещё до войны не росли 7 лет подряд. В общем, “не всё так однозначно” и с этим пунктом.

6. Акселерационизм или деакселерационизм?

Как и многие другие технооптимисты, Андриссен называет себя акселерационистом – сторонником ускорения технологического прогресса. Я заметил, что в англоязычном твиттере сейчас модно писать в описании своего профиля (“био”) аббревиатуру e/acc (effective accelerationism, “эффективный акселерационизм”). Соответственно, противники такого ускорения – decelerationists, децелерационисты, “сторонники замедления”. Их он называет врагами прогресса и посвящает им отдельную главу своего манифеста под названием “Враги”.

Как прекрасно показал нам Оруэлл (и не он один), тот, кто контролирует язык – контролирует нарративы, циркулирующие в обществе, и направляет мышление людей в нужное ему русло. Заклеймить “замедляторами” всех, кто призывает к осознанному и адекватному подходу к развитию технологий с учётом рисков – отличный ход, чтобы зашеймить и защемить людей с неудобными тебе взглядами.

А ещё, как показали многие эксперименты из социальной психологии, люди склонны к трайбализации. Объединению по признаку “свой-чужой” и неготовности слушать другую точку зрения вплоть до остракизма её представителей. Сегодня мы на ежедневной основе наблюдаем в соцсетях трайбализацию, ведущую к радикализации, по любым остросоциальным вопросам. Увы, Андриссен тоже льёт воду на мельницу этого тренда, вместо того чтобы выстраивать публичный диалог восторженных технооптимистов с более скептически настроенными экспертами.

Напоследок добавлю от себя: успех Андриссена во многом обусловлен его личным брендом. Он уже много лет назад понял, что для бизнеса полезно периодически отрываться от деловых встреч и изучения стартаперских питч-деков ради того, чтобы написать очередной программный пост, продвинув нужные ему идеи. Всем предпринимателям – на заметку.

#тренд_мастрид #ИИ_мастрид #трансгуманист_мастрид
Мастриды
Основатель венчурного фонда Andreessen Horowitz (A16Z), долларовый миллиардер Марк Андриссен (известный не только своей авторитетностью в стартаперских кругах, но и программными лонгридами) в октябре опубликовал большой “Манифест технооптимиста”, а у меня…
В своём вчерашнем лонгриде про технологических супермэнов, ИИ и будущее мира (обязательно прочтите выше, если пропустили), забыл привести модное словечко doomer, актуальное для темы обсуждения.

Думерами (от англ. doom — обречённость, роковой конец) в последние месяцы называют тех, кто обеспокоен рисками гибели человечества из-за технологического прогресса. Можно перевести это слово как «паникёр», «нагнетатель» или «мрачный пессимист», хотя ни один из этих вариантов в полной мере не передаёт смысл.

Обычно слово употребляется в уничижительном контексте, но не всегда: например, Эммет Шир (временный CEO OpenAI, возглавлявший компанию пару дней, пока туда не вернули Сэма Альтмана) сам себя называл думером в твиттере (оказывается, он большой поклонник идей Юдковского, о чём неоднократно высказывался).

Но со словом «думер» точно такая же проблема, как с «деакселерационистами». Оно изначально задаёт негативную коннотацию системе взглядов, которая в конечном счёте вполне может оказаться адекватной и корректной. А ещё «думер» — слишком растяжимое понятие, как заметил Юдковский в твите со скриншота. И он, и Альтман, и многие другие деятели ИТ — думеры, но думерствуют они совсем по-разному, оценивают риски по-разному и зачастую придерживаются абсолютно противоположного подхода в принципиальных вопросах развития ИИ.

#ИИ_мастрид