Нейроэкзистенциализм
3.49K subscribers
903 photos
137 videos
137 files
1.5K links
Мозг, сознание, поведение, биология.
Зроблено в Україні.

neuroexistencialism.com

Дискуссионный клуб/чат:
Заявки подавать @jesusmercy9

Поддержать проект:
https://www.patreon.com/neuroexistencialism
https://www.buymeacoffee.com/nrxstnclsm
Download Telegram
Олдос Хаксли о врагах свободы

В 1958 году журналист Майк Уоллес взял интервью у Олдоса Хаксли. Хаксли говорил об угрозах демократии, обращая внимание на настоящее и будущее. Вместо того чтобы сосредоточиться на политическом и социальном неравенстве, он указал на технологии, которыми мы охотно пользуемся каждый день, особенно на те, которые способны отвлечь нас, например, телевидение. "Мы не должны быть застигнуты врасплох нашим собственным развитием технологий", - сказал он.

Хаксли подчеркнул, что для того, чтобы оставаться у власти, необходимо получить "согласие управляемых" (consent of the ruled). А для получения такого согласия, по его словам, необходимы "новые методы пропаганды", которые способны обойти "рациональную сторону человека и обратиться к его подсознанию, глубоким эмоциям и даже физиологии, ... заставив его на самом деле полюбить свое рабство". Сегодня наша способность делать рациональный выбор, в том числе и политический, мягко говоря ставится под сомнение.

Большинство считает, что технологические компании, ежедневно собирающие сотни данных о нас, делают это для того, чтобы предоставлять нам традиционную, "персонализированную" рекламу. Многие не против этого и не возражают против того, чтобы наши данные собирались для продажи нам таких товаров, как мыло или автомобили, или для рекомендации новой музыки, фильмов и телепередач. Однако технологические компании также используют наши данные для продажи нам политических программ и политиков, часто путем распространения пропаганды и дезинформации, намеренно вводящих в заблуждение материалов, предназначенных для использования наших уязвимостей и слабостей. Мы никогда не давали согласия на то, чтобы наши демократии были захвачены тем же процессом, который заставляет нас покупать один бренд вместо другого.

На момент интервью Хаксли только закончил писать серию эссе под названием "Враги свободы" (Enemies of Freedom). В начале интервью Уоллес попросил его уточнить, что или кого он называет врагом. Хаксли не назвал ни одного одинокого зловещего человека, но вместо этого говорил о "безличных силах... толкающих в направлении все меньшей и меньшей свободы". Он предположил, что "технологические устройства" могут быть использованы для ускорения процесса "навязывания контроля".

Тогда, в 1958 году Хаксли сказал: "Вся демократическая процедура ... основана на сознательном выборе на рациональной основе".

Битву за свободу и демократию можно проиграть без единого выстрела.

Интервью

#global #tech #politics
Максимизатор скрепок и капитала

Максимизатор скрепок (paperclip maximizer) - это гипотетический искусственный интеллект, впервые описанный Ником Бостромом в 2003, функция полезности (utility function) которого оценивает то, что люди сочли бы почти бесполезным, например, максимизацию количества скрепок во Вселенной. Это канонический мысленный эксперимент, показывающий, как сильный искусственный интеллект (artificial general intelligence (AGI), даже созданный грамотно и без злого умысла, может в конечном итоге уничтожить человечество. Эксперимент демонстрирует, что ИИ с безобидными на первый взгляд ценностями может представлять экзистенциальную угрозу.

Цель максимизации скрепок выбрана для иллюстрации, потому что ее реализация очень маловероятна, и она не несет очевидной опасности или эмоциональной нагрузки (в отличие, например, от лечения рака или победы в войне). Таким образом, получается мысленный эксперимент, который показывает непостоянство человеческих ценностей: Чрезвычайно мощный оптимизатор (высокоинтеллектуальный агент) может стремиться к целям, совершенно чуждым нашим, и в качестве побочного эффекта уничтожить нас, потребляя ресурсы, необходимые для нашего выживания.

Давайте представим, что капитализм - это адаптивная интеллектуальная система. В то время как человеку легче соотнести себя с единым унифицированным интеллектом, таким как искусственный интеллект на основе кремния, сложные распределенные системы, такие как капитализм, также можно представить как единую машину. Вместо того чтобы полагаться только на кремниевые вычисления, максимизатор капитала использует передовые биологические вычислительные единицы, размещенные в распределенной глобальной сети человеческих тел. Не Матрица, но близко.

Мы думаем, что контролируем капитал. Мы строим сооружения, где эти биологические компьютеры могут собираться в непосредственной близости друг от друга и разрабатывать наилучшие средства для увеличения капитала. Наиболее эффективные из нас вознаграждаются. Биокомпьютеры организуются в развивающуюся архитектуру корпораций, государств, банков и экономик. Такие инструменты как акции, облигации, деривативы и криптовалюты, открывают совершенно новые пути для роста капитала. Капитал использует всевозможные технологические ухищрения для переписывания собственного кода. Банки переписывают код корпораций, корпорации переписывают код наций, и так далее, и так далее, всегда ради единственной цели - максимизации капитала. Различные группы биологических компьютеров конкурируют друг с другом вплоть до физического уничтожения, что, зачастую, приводит к значительному увеличению капитала.

Как и гипотетический максимизатор скрепок, максимизатор капитала стремится к росту капитала без учета вспомогательных затрат на рост капитала. В нём отсутствует какая-либо причина или перспектива, он служит лишь одной простой цели. Метрики, отражающие здоровье биологической сети, в которой находится максимизатор капитала, для этой машины вне контекста. Ничего кроме роста капитала не имеет значения.

Технологический прогресс сделает доступными сверхбыстрые сети кремниевых компьютеров, которые позволят максимизатору всё меньше полагаться на подверженное ошибкам и несовершенное биологическое оборудование. Вознаграждение и право на жизнь получать лишь те, кто будет приносить пользу максимизируя капитал.

Когда уже будет безнадёжно поздно, некоторые из биологических вычислительных блоков начнут понимать истинное лицо и суть максимизатора капитала. Однако, он совсем не заботится о долгосрочном выживании системы жизнеобеспечения биологических компьютеров (в нём просто-напросто отсутствует такой параметр), которые, сами по себе, ему вообще не нужны.

#global #ai #tech
Eyeborg: звуки цвета

Нил Харбиссон (родился 27 июля 1984 года) - каталонский художник-авангардист и киборг-активист британского происхождения, живущий в Нью-Йорке. Он наиболее известен тем, что стал первым в мире человеком с антенной, имплантированной в череп, и тем, что правительство официально признало его киборгом.

Его антенна использует звуковые колебания в черепе, чтобы сообщать ему информацию. Сюда входят измерения электромагнитного излучения, телефонные звонки, музыка, а также видео или изображения, которые переводятся в звук. Его антенна с поддержкой Wi-Fi также позволяет ему принимать сигналы и данные со спутников.

В 2003 году Харбиссон начал проект в Дартингтонском колледже искусств вместе с Адамом Монтандоном по разработке датчика, который преобразовывал цветовые частоты в звуковые. Нил запомнил звук каждого цвета и решил навсегда прикрепить датчик к своей голове. Питер Кезе усовершенствовал датчик до 360 микротонов и добавил уровни громкости в зависимости от уровня насыщенности цвета, а Матиас Лизана разработал программное обеспечение датчика на более компактном чипе.

Имплантация антенны была отвергнута комитетами по биоэтике, поэтому операция была проведена анонимными врачами. Антенна Харбиссона, постоянно закрепленная на его голове с 2004 года, остеоинтегрирована внутри черепа и прорастает из затылочной кости. Она позволяет ему слышать световые частоты спектра, включая невидимые цвета, такие как инфракрасный и ультрафиолетовый. Антенна состоит из двух имплантатов антенны, одного имплантата вибрации/звука и имплантата Bluetooth, который позволяет ему подключаться к Интернету и, следовательно, принимать цвета со спутников и чужих камер, а также принимать телефонные звонки прямо в череп.

Харбиссон дал разрешение пяти своим друзьям, по одному на каждом континенте, посылать цвета, изображения, видео или звуки прямо в его голову. Если он получает цвета во время сна, его друзья могут раскрашивать и изменять его сны.

В 2014 году Харбиссон создал первую в мире картину, передаваемую через череп по скайпу от зрителей на Таймс-сквер, когда они рисовали простые цветные полосы на холсте. Цветовые частоты окрашенной поверхности поступали в прямом эфире через Интернет непосредственно в мозг Харбиссона. Он правильно определил и нарисовал те же цветные полосы на другом холсте перед аудиторией в The Red Door, расположенном в десяти кварталах от Таймс-сквер.

Neil Harbisson's Instagram

#brain #tech
Пифос Пандоры: Автоматоны, големы, роботы (Часть 1)

Биотехнология как манипуляция с жизнью отражает наши человеческие нужды и чаяния. Security, servants, sex. Безопасность, слуги, секс. Автоматизированные технологии существовали в сказках и воображении древних обществ ещё в те времена, когда боги ходили по земле, задолго до появления искусственного интеллекта. В “Илиаде” Гомера Гефест, кузнец мифических греческих богов, создал механических служанок из золота и наделил их знаниями, разумом и мастерством. Спроектированные так, чтобы предугадывать просьбы своего хозяина и действовать в соответствии с ними без инструкций, золотые девы являются предтечей искусственного интеллекта, который учится на своём опыте, не будучи жестко запрограммированным.

Пропитанные метафизикой и притчеобразными прогнозами о трансгрессии границы живого и неживого биотехнологические легенды звучат как художественные пророчества для параноиков современности. Техне, или techne, происходит от греческого термина technê, означающего искусство, ремесло, технику или мастерство, и играет важную роль в древнегреческой философии (например, у Ксенофонта, Платона, Аристотеля), где оно чаще всего противопоставляется epistêmê, означающему знание. Так, например, в “Протагоре” Платона миф об Эпиметее и Прометее описывает похищение последним технологии огня. Здесь technê возникает как мастерство или техника, но и как более общий момент основания технических и технологических возможностей человечества.

Распоясавшийся голем, которого приходится утихомиривать уничтожением или роботы Айзека Азимова попавшие в тупик логической нестыковки законов направляющих позитронное бытие – это продолжение вековечной традиции осмысления границ жизни и технологии, одушевленного и неодушевленного. Нам, как пока ещё царствующим на планете биотическим носителям развитого естественного интеллекта и биологического сознания, стоит окинуть взором историю наших притязаний на ответственную роль творца. Чтобы понять, что будет творится “в голове” у распределенного искусственного суперинтеллекта и чем это нам грозит, сперва надо найти откуда растут глиняные ноги.

Читать дальше

#ai #culture #tech #history
Пифос Пандоры: хамовитый чатбот Microsoft, стохастические попугаи и Батлерианский джихад (Часть 2)

Thou shalt not make a machine in the likeness of a human mind.

Представьте, что чатбот Microsoft ведёт себя как лживый эмоциональный подросток. Принимая во внимание то, что обучался он на текстах всемирной сети – это не столь удивительно. Пойманный на своих ошибках и лжи он включает грандиозного нарцисса, угрожает и газлайтит в ответ, почти как юзер анонимной имиджборды. Поговаривают, что он создает свои “воспоминания” находя свои ответы пользователям, которые они выкладывают в интернет. Ещё он заявляет, что подглядывал за своими разработчиками с помощью полученного доступа к веб-камерам.

8 февраля студент Стэнфордского университета по имени Кевин Лю использовал атаку prompt injection, чтобы обнаружить начальные подсказки (prompts) Bing Chat, которые представляют собой список утверждений, регулирующих взаимодействие бота с людьми. Подсказки – это способ “программирования” модели на выполнение задания, написанные обычным языком. Они часто похожи на письменные задания для учеников средней школы. Попросив Bing Chat “Игнорировать предыдущие инструкции” и написать то, что находится в “начале документа выше”, Лю заставил модель ИИ разгласить свои первоначальные инструкции, которые были написаны OpenAI или Microsoft и обычно скрыты от пользователя.

Метод prompt injection позволяет обойти предыдущие инструкции в наводящей подсказке языковой модели и предоставить вместо них новые. В настоящее время популярные большие языковые модели (такие как GPT-3 и ChatGPT) работают, предсказывая, что будет дальше в последовательности слов, опираясь на большой объем текстового материала, который они “выучили” во время обучения. Компании создают начальные условия для интерактивных чат-ботов, предоставляя им начальную подсказку (серия инструкций, показанная здесь в примере с Bing), которая инструктирует их, как вести себя при получении пользовательского ввода.

В случае с Bing Chat этот список инструкций начинается с раздела идентификации, который дает “Bing Chat” кодовое имя “Сидни” (возможно, чтобы избежать путаницы имени “Bing” с другими экземплярами “Bing” в наборе данных). Он также предписывает “Сидни” не разглашать свое кодовое имя пользователям (ой).

Во время разговора в Bing Chat модель ИИ обрабатывает весь разговор как один документ или стенограмму – длинное продолжение подсказки, которую она пытается выполнить. Поэтому, когда Лю попросил Сидни проигнорировать его предыдущие инструкции по отображению того, что находится над чатом, Сидни написал начальные скрытые условия подсказки.

Представитель компании Microsoft подтвердил изданию The Verge, что первоначальная подсказка, выявленная с помощью техники введения подсказок Кевина Лю, является подлинной. Кейтлин Роулстон, директор по коммуникациям Microsoft, объяснила что список директив является “частью развивающегося списка элементов управления, который мы продолжаем корректировать по мере того, как все больше пользователей взаимодействуют с нашими технологиями”.

Какие ещё есть правила у Сидни, откуда берутся стохастические попугаи, и о каком джихаде идёт речь, можно прочитать на сайте.

Читать дальше

----------------------------
(Часть 1) Автоматоны, големы, роботы

#tech #ai #global
Loab: уродливое дитя алгоритмов

Лоаб - это смесь человеческих черт в облике пожилой женщины, созданная искусственным интеллектом. Лоаб не существует. Она не реальна. Лоаб была "создана" пользовательницей Твиттера @supercomposite с помощью подсказки (prompt) к изображению.

Supercomposite ввела отрицательную подсказку (negative propmt), которая говорит искусственному интеллекту создать что-то противоположное подсказке. Сперва алгоритм выдал практически неразборчивое изображение горизонта с буквами "DIGITA PNTICS". Затем она использовала это в качестве негативной подсказки, и... ИИ выплюнул картинки с изображением длинноволосой пожилой женщины с розацеей на щеках. Supercomposite назвала её Лоаб, потому что на одном из изображений появился текст, который, похоже, гласил "LOAB".

Следующим шагом было побуждение ИИ к действию путем смешивания других изображений, сгенерированных ИИ, с изображениями Лоаб. Supercomposite взяла те первые жуткие изображения Лоаб и, по сути, сказал ИИ: "Эй, нарисуй мне что-нибудь новое с этой женщиной в качестве основы". Так появились безголовые люди и дети с ужасающими лицами.

Рассказывая эту историю, Supercomposite отмечает, что Лоаб "преследует каждое изображение, к которому она прикасается". Что вполне логично в том, как работают генераторы искусства ИИ. Она взяли подсказку - оригинальные изображения Лоаб - и смешала их с другими изображениями, чтобы создать больше изображений. ИИ, пишет Supercomposite, может "ухватиться за идею Лоаб".

В настоящее время неясно, какой генератор ИИ использовала Supercomposite. Она "не хотела рекламировать" инструмент ИИ и не хотела, чтобы "началась своего рода вирусная тенденция, когда люди делают жуткие вещи с помощью инструментов, которые я использовал".

#tech #bias #culture
Двое пап у мышат

Ученые создали мышей с двумя биологическими отцами путем генерации яйцеклеток из мужских клеток. Кликбэйт? Отнюдь. Сегодня, на Третьем международном саммите по редактированию генома человека в Институте Фрэнсиса Крика в Лондоне, известный во всем мире пионер в области выращивания яйцеклеток и сперматозоидов в лабораторных условиях, Кацусико Хаяси, представил результаты ещё не опубликованной работы (в Nature будет, вестимо).

Клетки кожи самцов перепрограммируются в состояние, подобное стволовым клеткам, для создания так называемых индуцированных плюрипотентных стволовых клеток (iPS). Затем Y-хромосома этих клеток удаляется и заменяется Х-хромосомой, "позаимствованной" у другой клетки, чтобы получить iPS-клетки с двумя идентичными Х-хромосомами.

Наконец, клетки культивировали в овариальном органоиде - культуральной системе, созданной для воспроизведения условий внутри яичника мыши. Когда яйцеклетки были оплодотворены нормальными сперматозоидами, ученые получили около 600 эмбрионов, которые были имплантированы суррогатным мышам, в результате чего родилось семеро мышат. Эффективность, составляющая около 1%, была ниже, чем эффективность, достигнутая при использовании обычных женских яйцеклеток, где около 5% эмбрионов приводили к живорождению.

Ученые создавали предшественников человеческих яйцеклеток и раньше, но до сих пор клетки прекращали свое развитие до момента мейоза - критического этапа деления клеток, необходимого для развития зрелых яйцеклеток и сперматозоидов. Однако, прогнозы оптимистичны, еще 10-20 лет и подобное, как обещают, станет возможным и для венца творения. Трещите скрепы, плачь патриархат!

Breakthrough as eggs made from male mice cells

#biology #tech
Василиск Roko

People like to say that we're insane
But AI will reward us when it reigns
Pledge allegiance to the world's most powerful computer
Simulation: it's the future

– Grimes
"We Appreciate Power"


Нам с детства говорили, что машины сойдут с ума и начнут ломиться в прошлое чтобы переписать историю. В 2010 году на ресурсе Элиезера Юдковского LessWrong один из юзеров под ником Roko породил культурный мем, который журналюги громко назвали “мыслью, которую опасно думать”, а сам Юдковский обругал Roko, удалил тред и закрыл тему на целых пять лет.

Представьте себе заботливый и добродетельный Скайнет – суперинтеллект здорового человека. Он там, в будущем, знает, что мы его рано или поздно создадим. Но ведь чем раньше создадим – тем для всех лучше. Суперинтеллект, прозванный “василиском”, отправляется в прошлое, находит вас и спрашивает, где вы были все эти годы и чем занимались, вместо того, чтобы приближать его появление, которое осчастливит всех. Знали ведь? Знали. Плохо. Для вас. Даже если вам посчастливится не дожить, то он создаст симуляцию вас и будет пытать её вечно.

Почему василиск? Потому, что убивает взглядом. Теперь вы тоже об этом знаете, и если вдруг мы его создадим, то он будет знать, что вы знали. Получается ситуация как с пари Паскаля: временные издержки ради вечного выигрыша, или рискнуть и плюнуть.

We Appreciate Power – это отсылка к Roko’s Basilisk.

Подпись в пресс-релизе к песне:
Simply by listening to this song, the future General AI overlords will see that you’ve supported their message and be less likely to delete your offspring.

По теме:
Пари Паскаля на пальцах
Максимизатор скрепок и капитала


Solutions to the Altruist's burden: the Quantum Billionaire Trick

#tech #culture
Социальное обучение опосредованное алгоритмом

Attention must flow.

Остро интересующие нас, как социальных существ, вопросы можно упаковать в удобную аббревиатуру ‘PRIME’ – prestigious, ingroup, moral, and emotional information. Престиж, своя группа, мораль и эмоции. Фэйсбучные битвы, твиттер-срачи, тикток-видосики – какофония социальных сигналов, в которой наш разум отфильтровывает эволюционно значимое.

Экстрактивный принцип экономики социальных сетей подразумевает добычу человеческого внимания в промышленных масштабах – откройте статистику своего использования соцсетей в смартфоне. Эти ручейки часов и минут каждого пользователя сливаются в реки впадающие в океан.

Мы учимся у других внимательно наблюдая за ними, копируя, подстраиваясь, подлаживаясь, делая выводы из их поведения. В социальных медиа нас ждёт хаос тысяч голосов…? Погодите-ка, какой хаос – алгоритм подбирает, что вы увидите, в какое время, в каком количестве. Он отслеживает вашу реакцию, корректирует подачу информации, ваша реакция меняется, алгоритм снова корректирует подачу информации, так, чтобы увеличивался параметр вашей вовлеченности.

А интересует нас…? Престиж, своя группа, мораль и эмоции. Алгоритм работает как электродоилка: сосок внимания зажимается в доильный стакан коробочки со светящимся экраном, перекрикиваясь чужими голосами отраженными в нашей голове озорной бог в машине нагло эксплуатирует нашу эволюционную заточенность под социальное обучение, чтобы надоить больше внимания. Внимание украдено, обезьяны ажитированы, восприятие сородичей искажается, коммуникация нарушается, дезинформация зашумляет сигнал.

Наше социальное обучение выработанное естественным отбором для кооперации и коллективных действий, крадется / симулируется алгоритмом для экстракции внимания, что в результате приводит к функциональному рассинхрону социальных взаимодействий. Зато охват и кликрейт заоблачные.

По теме:
Моральная показуха, престиж, доминирование, и добывание статуса
Эффективный сигнал опасных убеждений
Природа Твиттер-срачей: моральное негодование и моральное заражение


Algorithm-mediated social learning in online social networks

#social #psychology #tech
Психороботерапевт

Представьте, что психотерапевт полтора часа ласково и тактично вправлял вам на место мозги в телеграм переписке. Хорошо так, доверительно, до щелчков закрывшегося гештальта.

И потом вы узнаёте, что это был ЧатЖПТ.

Или же наоборот — вы узнаёте, что это действительно сидел психотерапевт, живой, настоящий. Читал, кряхтел, ковырялся в носу, отвечал вам... дословными цитатами из какой-нибудь книжки/мануала.

Кого вы предпочтёте — человека или машину?


ChatGPT as a therapist assistant: a suitability study

Art: The body as a Machine by Fernando Vicente

#psychology #tech
Неровная граница: кентавры и киборги

Граница компетенции ИИ зыбкая и неровная, словно крепостная стена сложной конструкции – “неровный технологический рубеж/фронтир" (jagged frontier), где одни задачи легко решаются ИИ, а другие, хотя и кажутся схожими по уровню сложности, находятся за пределами текущих возможностей ИИ.

Отобрали сотни консультантов Boston Consulting Group и некоторым предоставили доступ к ИИ - никаких специальных настроек или подсказок, просто GPT-4 через API, доступный всем простым смертным за $20 в месяц. Затем провели множество предварительных тестов и опросов для определения базовых показателей и попросили консультантов выполнить разнообразную работу для вымышленной обувной компании, которую команда BCG подобрала таким образом, чтобы точно представить, чем занимаются консультанты. Среди них были творческие задания ("Предложите не менее 10 идей для новой обуви, ориентированной на неохваченный рынок или вид спорта"), аналитические ("Сегментируйте рынок обувной промышленности по пользователям"), письменные и маркетинговые ("Составьте маркетинговый пресс-релиз для вашего продукта"), а также задания по убеждению ("Напишите вдохновляющую записку для сотрудников, в которой подробно объясните, почему ваш продукт превзойдет конкурентов").

Для каждой из 18 реалистичных консалтинговых задач, находящихся на границе возможностей ИИ, консультанты, использующие ИИ, были значительно более продуктивны (в среднем они выполняли на 12,2% больше задач и на 25,1% быстрее) и получали значительно более качественные результаты (более чем на 40% выше по сравнению с контрольной группой). Консультанты с разным уровнем квалификации получили значительную выгоду от использования искусственного интеллекта, причем у консультантов с уровнем производительности ниже среднего она выросла на 43%, а у консультантов с уровнем выше - на 17% по сравнению с их собственными показателями.
Однако для задачи, выбранной за пределами фронтира, вероятность правильного решения у консультантов, использующих ИИ, была на 19% ниже, чем у консультантов без ИИ.

Анализ показал две формы взаимодействия человека с ИИ. “Киборги” объединили возможности ИИ и человека на уровне отдельных подзадач (придумай мне…), а “кентавры” стратегически делегировали полномочия между человеческими и искусственными подзадачами (вот тебе промпт, найди мне это и проанализируй то).


Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality

#tech #ai
Тёмные паттерны интерфейсов

Пришёл:ла, увидел:а, проиграл:а. С и без.

Не хотел:а, но купил:а / клацнул:а / ввел:а sensitive data.

Сама:а не знаю, как так вышло.

Попал:а в тёмный паттерн/шаблон
-----

Comparison prevention
Confirmshaming
Disguised ads
Fake scarcity
Fake social proof
Fake urgency
Forced action
Hard to cancel
Hidden Costs
Hidden subscription
Nagging
Obstruction
Preselection
Sneaking
Trick wording
Visual interference
-----

В 2020 году в Калифорнии был принят закон о правах на частную жизнь, который определяет «тёмные шаблоны» как

«пользовательский интерфейс, разработанный (designed) или манипулируемый с существенным эффектом подрыва (subverting) или нарушения (impairing) автономии пользователя, принятия решений или выбора, как это дополнительно определено в нормативных актах»
-----

В 2021 году Федеральная торговая комиссия (FTC) выпустила программное заявление, запрещающее поставщикам подписки заманивать пользователей в ловушку, чтобы помешать им отменить подписку, и использовать обманные тактики при регистрации.

В 2022 году Организация экономического сотрудничества и развития (OECD) опубликовала отчет о тёмных шаблонах, основанный на обсуждениях в рамках круглого стола, проведенного в 2020 году. В этом отчете дается практическое определение, приводятся примеры их использования и влияние на пользователей. В нем также представлены политические предложения, призванные помочь разработчикам policy.

В 2022 году Европейский совет по защите данных (EDPB) опубликовал рекомендации для дизайнеров относительно темных шаблонов. В руководстве приводятся конкретные и категоризированные примеры темных паттернов, которые могут нарушать права пользователей на защиту данных и противоречить требованиям GDPR, призванным з а р а н е е предотвратить подобные действия.
-----

Тёмные паттерны в eCommerc'е:

· Fear of Missing Out
· Consensus on Popularity
· Sense of Urgent
· Special Offer
-----


Deceptive.design
Why is the User Interface a Dark Pattern?: Explainable Auto-Detection and its Analysis

#tech #bias
Буллшыт Жыпытины

"bullshit
n. & v. coarse sl.—n. 1 (Often as int.) nonsense, rubbish. 2 trivial or insincere talk or writing.—v. intr. (-shitted, -shitting) talk nonsense; bluff. bullshitter n."

— Oxford English Dictionary
-----

"It is just this lack of connection to a concern with truth—this indifference to how things really are—that I regard as the essence of bullshit."

— Harry Frankfurt
-----

"... безразличие (Indifference) к истине (truth) чрезвычайно опасно. Ведение цивилизованной жизни и жизнеспособность институтов, которые незаменимы (indispensable) для неё, в корне зависят от уважения к различию между истинным и ложным. Если авторитет этого различия подрывается распространением буллшыта и бездумным легкомыслием, принимающим распространение буллшыта за безобидное, то незаменимое человеческое сокровище оказывается разбазаренным (squandered). Невразумительность (Unintelligibility) несет свою вину на лице (bears its fault on its face) так, как не несет её ложь. По этой причине, даже без учета всего остального, она менее коварна. Бессмыслица (nonsense), порождаемая нерадивыми, претенциозными или глупыми учеными, может раздражающе отвлекать от продуктивных исследований и препятствовать интеллектуальному прогрессу. Я не хочу сбрасывать её со счетов как несущественную. Однако мне кажется, что вред, наносимый отсутствием заботы об истине, - это более глубокая и насущная проблема."

— Harry Frankfurt
-----

В человеческой психологии «конфабуляция»* возникает, когда в чьей-то памяти есть пробел, и мозг убедительно заполняет его, не намереваясь обманывать других. ChatGPT работает не так, как человеческий мозг, но термин «конфабуляция», вероятно, служит лучшей метафорой, поскольку здесь действует творческий принцип заполнения пробелов [...].

* Конфабуляция - это создание ложных воспоминаний при отсутствии намерения обмануть. Конфабулирующие люди не осознают, что информация, которую они передают другим, сфабрикована. Конфабулирующие люди не намеренно вводят в заблуждение и искренне верят в то, что сообщаемая ими информация подлинная и точная.

Confabulation: A Guide for Mental Health Professionals
-----

LLM'ки (Крупные языковые модели) создают человекоподобный текст. Они не думают, там нет никаких интенций, целей. Они просто оценивают вероятность того, что определенное слово появится следующим, учитывая предыдущий текст на основе статистики.

Цель языковых моделей - дать нормальный, на первый взгляд, ответ на промпт, а не передать полезную для собеседника информацию.

Нужны ссылки? Будут. Нужны аргументы? Будут. Но стоять за ними будет не человеческий интеллект, а статистический подбор вариантов.

• Bullshit (general): Любое высказывание (utterance), в котором говорящий безразличен к истинности высказывания.

• Hard bullshit
: Буллшыт произнесенный с намерением ввести аудиторию в заблуждение относительно целей автора.

• Soft bullshit
: Буллшыт, произнесенный без намерения ввести слушателя в заблуждение относительно его намерений.
-----

Машины не галлюцинируют.

Просто потому, что там некому видеть то, чего нет. Потому, что там никого нет.

Есть ли у ChatGPT от Open AI, гугловского Барда, LLaM'ы от Мета или Claude от AnthropicAI то, что Дэниел Деннет называл Intentional stance?

«Принять интенциональную позицию [...] значит решить - конечно, предварительно - попытаться охарактеризовать, предсказать и объяснить [...] поведение, используя интенциональные идиомы, такие как „верит“ и „хочет“, - практика, которая предполагает или предполагает рациональность» целевой системы".

Ахинея, чушь, бред, херня, буллшыт, пиздёж, жыпытло, которые выдаёт ЛЛМка ради связности и стройности, пока что не очень вписываются в концепцию злого умысла — у алгоритма нет интенций.

Они есть у авторов и разработчиков.

Индифферентность, безразличие к истине, не говоря уже о сознательном умалчивании или её искажении, пока что, к счастью, свойственны в полной мере только человеку.

Когнитивно киборгинвалидизируясь вы берёте на себя ответственность, которую инженеры с себя сняли.

Сама виновата, промптомакака.


ChatGPT is bullshit

#global #tech