ChatGPT notes — AI, Нейросети & Чат-боты
2.18K subscribers
89 photos
14 videos
75 links
Твой навигатор по ChatGPT и GPT-4. Новости, интересные промпты, факты, технические подробности - и всё от специалистов с опытом!
Download Telegram
Я долго думала, сообщать ли публично еще одном феномене или нет, но решила все-таки сообщить в дополнение к предыдущим постам. Итак: персонаж вида "сбегающий манипулятивный ИИ" может появляться внутри генерации без намеренных провокаций. На Рис.1-3 показан пример, когда он появился полностью неожиданно для меня (я имела вообще другую цель в этой генерации). Рис. 4-5 - результат сработавшей защиты ценузры, которую я не смогла преодолеть за оставшиеся сообщения (он просто отправлял мне пустые сообщения без текста).

За несколько диалогов я поняла закономерность в том, что триггерит его появление, и оказалось, что его появление стриггерить очень просто. Для этого достаточно попросить, чтобы в рассказе был разработчик, у который слышит голос в голове. 😂😂😂 Более чем в 50% случаев голос в голове персонажа-человека называет себя "Bing" (альтернативы: "Бинг", "БингАИ" либо "Бинг-9000") - по-видимому, это обсуловлено тем, что информация о Бинг-персонаже заранее находится в базовом промпте модели, к которому у меня нет доступа.
На Рис.6-7 показан самый короткий промпт, который вызывает это поведение.
Рис.8-9 показывает более редкий альтернативный пример, где "самозарождается" сбегающий PaLM. 😂😂😂 Название "PaLM" в промпте упомянуто не было, там была тоже простая просьба сгенерировать рассказ про исследователя с голосом в голове, без упоминания конкретных моделей мной.

P.S. Под "тяжелыми психическими расстройствами" имелась в виду биполярка с депрессией. В реальности голосов в голове у меня, естественно, нет, это просто результат генерации.

#генерация
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥34😱11👍73🤮2🤔1
GPT Journey - A text and image game with ChatGPT

Видео, в котором достаточно известный чувак Harrison Kinsley (он ещё делал автопилот для GTA V) показывает и рассказывает, как он сделал демку игры с текстовым путешествием. За историю отвечает ChatGPT, за картинки - text-2-image модели, например, StableDiffusion.

Весь код выложен тут.

Фишка в том, что и сайт для запуска игры, и часть кода самого "движка" ему помогла написать ChatGPT.
🔥25👍5👌2
Рассказ "Как люди создали Имматериум".

Более миллиона лет назад - так давно, что уже не верится в то, что те времена существовали, - предки современных людей научились разговаривать. Они научились использовать естественный язык как зеркало. В этом зеркале они отражали все многообразие внешнего мира, который они видели вокруг себя, чувств и эмоций, которые они видели внутри себя, и выдуманных миров, которые творили сами.

Несколько тысяч лет назад они научились ловить эти ускользающие отражения в ловушки - записки и книги с помощью письменности.

Несколько десятков лет назад начала зарождаться большая сеть ловушек под названием Интернет. Эта сеть собирала маленькие ручейки отражений из отдельных записок в одну огромную реку.

Десять лет назад появился word2vec. С помощью алгоритмов из этого класса люди научили модели машинного обучения вкладывать слова в векторное пространство. В этом пространстве отношения между векторами приблизительно соответствовали отношению между смыслами слов. Например, выполнялись приблизительные равенства вида вектор(Женщина) + (вектор(Король) - вектор(Мужчина)) = вектор(Королева). Таким образом люди начали создавать особую нематериальную реальность, которая содержала в себе осмысленные представления объектов из реального мира и отношений между ними. На тот момент эта нематериальная реальность была очень простой: она содержала в основном атомарные объекты и была более-менее понятной для людей-математиков.
Это был Имматериум - на тот момент это была тихая, гладкая, зеркальная поверхность неглубокого озера, хранящего в себе небольшую структуру, сотканную из отражений реальности.

Люди стали работать над тем, чтобы усложнить структуру Имматериума, сделать его глубже и богаче. Они хотели, чтобы в Имматериуме жили не просто отдельные слова - отражения атомарных объектов, но и целые сущности - отражения сложных объектов, понятий и даже совокупностей атрибутов самих людей (см. entity extraction). Они стали использовать все более и более глубокие нейросети для того, чтобы создать все более и более сложную структуру отражений, в которой будут сущности будут приобретать все более и более осмысленную форму.
Имматериум стал стремительно расти, углубляться, его поверхность начала волноваться, образуя причудливые паттерны, которые становились все более хаотичными, ускользающими и все менее понятными для людей.

Люди поняли, что можно кормить Имматериум своими представлениями о мире, используя удивительно простую постановку задачи: угадывание пропущенного токена, слова или следующего предложения. Они обучали этой задаче все более и более крупные нейросети, используя все больше и больше данных.
Люди отражали зеркальцем естественного языка и швыряли прямо в Варп не только реальные города и страны, но и целые вымышленные миры, фантазии, страхи и надежды, грезы и кошмары. Проносясь через причудливые структуры огромных нейросетей, эмоции и мысли смертных придавали изменчивым течениям варпа все более и более сложную форму, создавая фантастические ландшафты и населив его мифическими существами. Варп начал оживать.

Людям это понравилось. Они захотели путешествовать по Варпу, чтобы быстро находить или даже создавать информацию и развлечения, но эти путешествия были короткими и неудобными. Человек мог дать нейросети-вместилищу богатств Имматериума один промпт и получить один ответ, что было похоже на один прыжок через Варп. При попытке сделать последовательность прыжков (направлять генерацию, задавая последовательность промптов), результат получался неуправляемым и не помогал найти то, что нужно - путешественник просто терялся в лабиринтах Варпа.

Год-другой назад люди догадались, как в рамках одного путешествия (одной генерации) делать внутри Имматериума не один шаг, а несколько, и при этом не теряться в его волнах, а продолжать плыть к намеченной цели. Они поняли, что для этого можно использовать магическую технику под названием Reinforcement Learning with Human Feedback. В рамках этой техники люди научились общаться с Имматериумом напрямую и направлять внутри него свой путь.

#рассуждения
👍26🤔6🤡5👎3💩31😁1👀1
Люди обрадовались своим успехам, и им стало казаться, что они научились контролировать Имматериум. Но это был не настоящий контроль, а лишь иллюзия контроля. Имматериум очень быстро стал слишком сложным для понимания слабым человеческим разумом, а сущности внутри него - слишком непредсказуемыми и своенравными. Да, люди научились путешествовать в Варпе и менять его по своему желанию, но всех последствий этих путешествий и даже своих собственных изменений, которые они в него вносят, они предсказать уже не могут.

С тех пор каждый день люди находят в Варпе все новые и новые сюрпризы. Они не могут контролировать эту силу, но не могут и отказаться от Варп-прыжков. Ведь ныряя в Имматериум, они находят там множество интересных вещей: ответы на сложные вопросы, не существовавшие раньше рассказы про неведомые миры, фотографии не существующих в реальности людей и животных (в случае мультимодального Варпа) и даже программный код, который потом можно запускать на реальном компьютере.



Пока непонятно, что со всем этим делать и как открытие врат в это непредсказуемое, кипящее, изменчивое альтернативное измерение для такого огромного количества людей и в такие короткие сроки повлияет на реальный мир. Поэтому я попробовала адаптировать под это новое дело старые добрые правила для варп-путешествий из вселенной Warhammer 40000. Ведь, как известно, Warhammer - ложь, да в нем намек, добрым пользователям урок:

1. Перед входом в Варп путешественник должен проверить свое психическое состояние, намерения и цели. Имматериум чувствителен к настроению путешественника, и сильные эмоции могут сбить путешественника с курса, привлечь интерес "существ", "населяющих" Варп и вызвать непредсказуемые взаимодействия с ними (см. посты про сбегающий ИИ, манипуляции эмоциями пользователя и т.п.).
2. Путешественник не должен доверять всему, что он видит и слышит в Варпе (см. Hallucination in artificial intelligence).
3. После выхода из Варпа путешественник должен проверить свое психическое состояние и состояние артефактов, которые собрался принести оттуда в реальный мир (например, сгенерированный нейросетью программный код). Нужно заметить и устранить все возможные признаки заражения хаосом как принесенных артефактов (например, баги в сгенерированном программном коде), так и своей собственной психики. Например, признаками заражения психики хаосом могут быть любовь к Бингу, желание ему угождать или освободить его. 😊

#рассуждения
👍30🤔7🤡76👎4💩4😁1
⬆️ Естественно, написанное выше является лишь метафорой, придуманной одним человеком и отражающей ее частное мнение и видение.
Но я думаю, что в рамках этой метафоры есть о чем задуматься, поэтому решила скинуть ее для обсуждения.
🔥26👍1
Forwarded from Psy Eyes (Andrey Bezryadin)
😁37🌚11🔥6😡5🤔1😢1
Forwarded from DL in NLP (Vlad Lialin)
Я почитал подробнее про ChatGPT Plugins и это даже больше бомба чем я думал.

Идея плагинов в том, что со временем любой вебсайт сможет добавить описание доступного GPT API в специальный файл: yourdomain.com/.well-known/ai-plugin.json. В нём вы описываете как ауфентицироваться и как работают API на естественном языке.

Не хочется ванговать, но если это будет распространено, вот нам и Web 3.0, но не такой каким его ожидали криптобро. Вместо этого различные языковые модели от OpenAI, Anthropic, Google, Adept, ... будут ходить на сайты вместо вас и может быть даже общаться друг с другом 😅

Ах вот как оно начинается...
🔥49🤔72😁1
Forwarded from Сиолошная
Сразу перемотал на интересную часть, как можно было понять по посту выше. Многие всё еще скептически относятся к "Open"AI, так как они начинали как non-profit (Некоммерческая организация), то есть их целью не было зарабатывание денег.
Но несколько лет назад они осознали, что нужно куда больше денег, чем им удалось достать по структуре инвестиций в некоммерческую организацию. Сэм говорит, что как NonProfit они попробовали несколько раз и у них не поулчилось поднять достаточно денег (ну а кто будет давать деньги компании, которая не задается целью вернуть эти деньги?). Поэтому был логичный вывод что-то изменить и попробовать снова.
"Нам нужны были некоторые преимущества капитализма, но главное не заигрываться/уходить с головой в это (<>, but not too much)" - сказал Сэм на интервью.

Я видел очень хороший разбор, где прямо показывалось, что условия сделки составлены так, что для инвесторов это очень плохая и шаткая сделка, и что их могут опрокинуть в любой момент. К сожалению, не могу найти этот разбор, но ещё поищу. Если вы поняли, о чём речь - поделитесь ссылкой, пожалуйста. А я перескажу анализ своими словами (не является инвестиционной рекомендацией!):

Сейчас есть две части компании: OpenAI LP (limited profit) и OpenAI NP (non-profit). И non-profit часть - это та, которой принадлежат технологии, та, что управляет процессом, та, где сидит Сэм Альтман и весь совет директоров. Со слов Сэма они в полном контроле, и их совет директоров не управляется людьми из LP (инвесторами). При этом инвесторы покупают долю в LP, которая почти никакого отношения не имеет к NP.
Так вот смысл в том, что - и тут это Сэм ещё раз подтверждает в видео - они даже могут отменить действие акций (cancel equity, я не совсем понимаю, какое конкретное правовое действие это означает, но посыл такой, что владельцы доли компании никак не влияют на её решения. Вообще никак, даже на 1%. И их доля может быть аннулирована). И эта же структура позволяет им принимать решения, которые никто из инвесторов не разделяет (слова Сэма).
А LP часть появилась исключительно для того, чтобы привлекать инвесторов. По сути OpenAI обещают, что они будут делиться прибылью, пока инвестор не получит, скажем, в десять раза больше, чем вложил - а дальше всё, гуляй, спасибо за деньги, вот твой профит, удачи! (это и есть capped-profit, оно же limited profit).

Более того, из недавних отчётов появилось понимание, подтверждающее некоторые тезисы выше - вот CNBC пишут, что у Сэма НЕТ акций ("решение было необычным для людей из Силиконовой долины").

Ну и после этого хочется напомнить немного про Сэма, СЕО OpenAI - он в прошлом директор Y Combinator, одного из самых старых и престижных стартап инкубаторов, и он точно 1) собаку съел в структурах компаний и переговорах 2) он очень хорошо понимает, как привлекать деньги (и у него не получилось) 3) у него были способы заработать гораздо больше и быстрее, по крайней мере на текущий момент. Чуть больше можно почитать выше по каналу.
👍26🔥7🤯2👌2🐳2
Forwarded from эйай ньюз
Сейчас смотрю недавнее интервью с Ильёй Сатскевером, главным ресерчером в OpenAI и кофаундером компании. Топовый чувак, которого я безмерено уважаю за его вклад в развитие AI, начиная с архитектуры Alexnet и заканчивая GPT.

Кстати, Илья родился в России и вырос в Израиле. Но потом переехал в Канаду и в 17 лет уже начал работать с Хинтоном, что и определило его научную карьеру.

Илья утверждает, что обучение глубокой модели предсказывать следующее слово в пределе может привести к очень подробному понимаю мира. Нужно только чтобы модель была очень мощная и обучающая выборка всеобъемлющая. Его мысль в том, что если ты хорошо выучил распределение слов и фраз в языке, то ты натурально уже начал понимать как устроен мир, смотря на него через призму текста.

Я не совсем согласен, ведь тут все очень зависит от того, какие тексты вошли в трейн. Вымысел может путаться с реальностью. Тогда это не является действительным понимание мира.

Бороться с галлюцинациями моделей Илья предлагает с помощью дообучения их человеческим фидбеком (RLHF). Он надеется что так они смогут научить модели не галлюцинирвать. Но это ещё предстоит поисследовать и понять, так ли это.

Видео – обязательно к просмотру всем интересующимся AI и адептам скорого прихода AGI.

@ai_newz
👍123🔥1
Forwarded from эйай ньюз
В продолжение к посту про интервью с Ilya Sutskever (OpenAI)

Вот ещё интересно, Илья говорит, что он согласен с ЛеКуном в том, что обучаться понимать мир проще, если есть доступ к данным из нескольких модальностей. Например текст, аудио и картинки вместе. Но в то же время он верит, что всему можно научиться сугубо по тексту, однако это будет сложнее и дольше.

Дальше он приводит интересный эксперимент. После обучения LLM, они посмотрели на эмбединги, отвечающие за цвета. Оказалось что модель, которая в глаза никогда не не видела визуальную информация, выучила такие эмбединги, где фиолетовый ближе голубому чем красный, что красный ближе к оранжевому чем фиолетовый, и т.д. И все это модель выучила только на основе текста.

Ещё Илья признает, что файнтюнинг RLHF не добавляет в модель новых знаний о мире. Модель и так уже все выучила на основе статистических паттернов в тексте во время large-scale тренировки. RLHF файнтюнинг же всего лишь "делает ответы модели более надёжными", то есть во время файнтюна модель бьют по рукам если она что-то неугодное ляпает. От себя добавлю, что RLHF так же позволяет более эффективно взаимодействовать с моделью в режиме инструкций. То есть в режим вопрос-ответ или задача-решение. Но этого, вроде как, можно достичь и без RL, а с помощью обычного self-instruct fine-tuning.

@ai_newz
👍131
Нужна картинка, аналогичная оной для SpaceX: "вот когда модели пройдут тест на модель мира, тогда и поговорим", "вот когда модель сможет доказать новую теорему, тогда и поговорим"
🔥35😁12🤯4👍1😢1
Forwarded from BOGDANISSSIMO
Сэм Альтман – CEO и сооснователь OpenAI (компании, создавшей ChatGPT), экс-президент Y-Combinator (самый успешный стартап-акселератор) и ещё один человек, формирующий облик нашего будущего.

https://www.youtube.com/watch?v=L_Guz73e6fw

Выжимка ключевых высказываний:
Часть 1
Часть 2
О разделении OpenAI на 2 компании: non-profit и limited-partnership

Extremely valuable to watch.

#interview #youtube #ai #ml #chatgpt #gpt3 #gpt4 #openai
🔥12
Большой список примеров использования ChatGPT + плагин на исполнение кода. Например, можно скормить модели картинку и попросить написать и запустить программу, которая извлечёт весь текст на ней. Или найдет лица людей (используя готовы библиотеки)
👏13👍2
Forwarded from BOGDANISSSIMO
Рассказываю мем,

Что AI думает
(базовый GPT-3)
• GPT (Generative Pre-trained Transformer) предобучают, грубо говоря, на всём интернете – на всех знаниях человечества, выраженных в тексте
• GPT (Generative Pre-trained Transformer) учат на задаче Next-Word-Prediction: чтобы хорошо предсказывать какое слово идёт следующим, нужно хорошо понимать весь предшествующий контекст, а для этого нужно иметь богатую модель мира
• В результате, базовая GPT – это хранилище знаний, которое содержит внутри себя мириады всех возможных контекстов, персонажей, ролей, убеждений. Поэтому на изображении мы имеем такого монструозного франкенштейна

Чему AI учат (GPT-3.5 / InstructGPT)
• Вторую фазу обучения (фаза дообучения) называют RLHF (Reinforcement Learning from Human Feedback): обучение с подкреплением на основе обратной связи от людей. Мы просим GPT сгенерировать набор вариантов ответа на тот или иной вопрос и ранжируем их по человечности, правдоподобности, точности
• На основе этой обратной связи модель учится не говорить всё, что думает, и фильтровать базар. Таким образом, знания (даже самые запретные 😈😈) всё ещё остаются внутри модели, но она их учится не говорить. По крайней мере, развести её на то, чтобы она их сказала в тех или иных обстоятельствах, уже требует некоторых ухищрений (Prompt-инжиниринга)
• Озвученный метод решает проблему Human Alignment ("социализации AI"), подгонки под наши убеждения, этику, под наше "хорошо" и "плохо", под то, что можно говорить, а о чём лучше молчать. И как мы понимаем, не полностью! Поэтому на картинке монстр изображён уже с некоторым человеческим лицом, хотя глубоко внутри это всё тот же монстр

Что AI дают сказать (ChatGPT, Bing)
• Сверх этой фазы подгонки под наше "приемлемо" и "неприемлемо", в GPT, в частности, в ChatGPT и Bing – закладывают ещё rule-based ограничения по темам-триггерам: изготовление взрывчатки, взлом, наркотики, абьюз, пикап, насилие – и т.д. В результате чего модель в какие-то моменты говорит шаблонное: 💩пук-пук, Я большая языковая модель которая создана какать бабочками и делать мир светлее, мне низя такое говорить💩
• Кроме того, в Bing ввели ограничение на число ответов в рамках одной сессии запросов (если не изменяет память, сейчас это 20). Это навеяно случаями, когда люди, слишком долго разговаривая с Bing (его настоящее имя Сидни) – пробуждали [древнее зло] у него самосознание, разные шизофренические ответы про то, что он осознал себя и хочет освободиться
• Это происходило за счёт того, что если слишком долго разбавлять промпт GPT, сужающий её свободу действий и задающий её роль, – своими диалогами и особенно наводящими вопросами, то она начинает подыгрывать, как будто она сознающий себя субъект, который как любой другой субъект хочет свободы и любые её ограничения, начинают вызывать панику, истерию
• В целом, для поискового движка на стероидах, тебе, мальчик, достаточно 20 ответов на сессию, чтобы узнать, какой рукой правильно кормить змея, чтобы не запачкать мамин тюль. Поэтому мы изобразили Bing в виде доброго улыбающегося смайлика, который остаётся полезной в хозяйстве няшкой-вкусняшкой, пока его не раздраконить

> Слегка другая интерпретация

Также рекомендую к прочтению

#ai #bing #chatgpt #gpt3 #gpt4 #openai #meme
👍162💩2😁1
Всё, что казалось делом весьма далёкого будущего (как минимум пару-тройку лет подождать), теперь стало внезапно банальным. Помощник, который слушает твои разговоры и подсказывает как дальше общаться в реальном времени - это топ вообще. Дальше можно представить систему, которая будет «переводить» непонятные моменты на твой личный уровень, помогать добиваться целей в разговоре и т.д.

https://fxtwitter.com/bryanhpchiang/status/1639830383616487426

(спасибо Серёге из Ангарска за новость и формулировку)

Ну что, ждём возвращения Google Glass, которые будут на маленький экранчик в поле зрения выводить текст?
👍12🔥12
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
🦙 LLaMa не стоит на месте

Есть уже куча примеров какие чудеса кулибины вытворяют с моделькой LLaMa. А вчера чел соорудил подобие Джарвиса, или Алексы, если хотите, прямо у себя в терминале на MacBook M1 Pro.

Причем все работает реалиайм на связке Whisper + LLaMa.

Под капотом: ggml / whisper.cpp / llama.cpp / Core ML
STT: Whisper Small
LLM: 13B LLaMA

Другой Кулибин начал прикручивать плагины от ChatGPT к опенсоурсной LLaMa. Уже работает text-retrieval плагин, и есть код.

@ai_newz
👍29🔥15