ChatGPT notes — AI, Нейросети & Чат-боты
2.17K subscribers
89 photos
14 videos
75 links
Твой навигатор по ChatGPT и GPT-4. Новости, интересные промпты, факты, технические подробности - и всё от специалистов с опытом!
Download Telegram
Ага, network error, верим 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚14😁7🤮4👍2👻2🤔1🤡1
Forwarded from эйай ньюз
Вчера остановилась работа у тысяч программистов и копирайтеров 😢. ChatGPT упал и лежал 4 часа. Кроме того из-за бага в вэб-приложении ChatGPT произошла небольшая утечка диалогов пользователей. Но, кажется, утекли только заголовки диалогов. А сейчас, когда сервис восстановили, пропала вся история диалогов.

Вот почему никогда не стоит строить свою жизнь и работу на основе внешнего ресурса, который ты не контролируешь или можешь потерять доступ к нему без возможности восстановления – это же как картошку сажать на чужом огороде!

@ai_newz
😁12👍5😢3💩3🤮2👎1
Тред от учительницы английского про использование ChatGPT. Даже простыми промптами удалось получить и список тем для отработки на определенном уровне, и практику с ответами (fill-the-gap), и даже исправить ошибки в тексте и расставить знаки препинания, дав обратную связь. И это всё даже не с GPT-4 - автор обещала вернуться с результатами на новой версии!
🔥14🤮3👍1👎1💩1
Forwarded from эйай ньюз
Подписчик принес полезную ссылку. Это список ресурсов для того, чтобы начать играться/поднимать свою опенсоурсную альтернативу чатботу ChatGPT только с блэкджеком и ... что там у вас на уме.

А вот тут ещё как запускать модель LLaMA у себя на машине (да, это возможно).

@ai_newz
🔥14🤮6💩3👍2
Forwarded from Generative Anton
Ох уж этот таймлайн. GPT-4 jailbreak-ают по идеям из фильма “Начало” 🥲🥲🥲🥲
🔥29🤯9
MIT Technology Review поговорили с четыремя людьми из OpenAI про то, как создавался ChatGPT. Был ли успех ожидаем, что предшествовало выходу, и что будет дальше. Среди этих людей — John Schulman (c-founder OpenAI) и Jan Leike (глава alignment team в OpenAI).

Интервью тут
🔥19
Forwarded from Kali Novskaya (Tatiana Shavrina)
#nlp #про_nlp #nlp_papers #agi_russia
Прошла незамеченной работа

🌸Theory of Mind May Have Spontaneously Emerged in Large Language Models🌸

Модель психического состояния человека (Theory of mind, ToM), или способность приписывать ненаблюдаемые психические состояния другим, занимает центральное место в человеческих социальных взаимодействиях, общении, сопереживании, самосознании и морали. Мы протестировали несколько языковых моделей, используя 40 классических задач на ложные убеждения, которые широко используются для проверки модели поведения на людях. Модели, опубликованные до 2020 года, практически не продемонстрировали возможности решения задач ToM. Тем не менее, первая версия GPT-3 («davinci-001»), опубликованная в мае 2020 года, решала около 40% задач на ложные убеждения — производительность, сравнимая с 3,5-летними детьми. Его вторая версия («davinci-002»; январь 2022 г.) решила 70% ложных задач, производительность сравнима с шестилетними. Его последняя версия, GPT-3.5 («davinci-003»; ноябрь 2022 г.), решила 90% ложных задач на уровне семилетних детей. Опубликованная в марте 2023 г. GPT-4 решила практически все поставленные задачи (95%). Эти данные свидетельствуют о том, что способность, подобная модели ТоM (до сих пор считавшаяся уникальной для человека), могла возникнуть спонтанно как побочный продукт улучшения языковых навыков языковых моделей.

🌸Поспекулируем?

🖥Paper: https://arxiv.org/abs/2302.02083
🖥Colab: link
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥26👍5
Forwarded from Сиолошная
This is huge....

OpenAI подсуетились и добавили плагины к ChatGPT (документация тут). Причём набор очень солидный - есть !ВНИМАНИЕ! веб-браузер и ретривер, код для которого открыт и лежит на GitHub. Ретривер - это то, что позволяет искать нужный контекст среди большой коллекции документов. Например, вы пишете бота, который должен отвечать на вопросы по истории - просто загрузите в него википедию! Тогда по запросу про Древний Рим будет находиться пара нужных страниц, они будут подставлены в контекст, а ChatGPT их "прочитает" и даст ответ!

А ещё есть интерпретатор кода. В общем, по сути почти любую идею теперь можно накликать прямо в браузере, и собрать на коленке огненный прототип, который и в интернет сбегает, и калькулятор вызовет для арифметики, и ещё и сообщение в слак-канал вам отправит.

Про то, как языковая модель работает с браузером, у меня аж целая статья есть на 30 минут чтения, чтобы разобраться во всех деталях!

Го накликивать свои юникорн-стартапы⌨️

UPD: можно делать свои плагины, которые обращаются к вашим собственным программам по API. И да, можно попросить GPT-4 написать плагин за вас :D
Например, если мне не хватает функциональности дешевого переводчика - я просто делаю API, которое дергает гугл-переводчик под капотом в 10 строк, и всё. Теперь модель может вызывать переводчик.
Please open Telegram to view this post
VIEW IN TELEGRAM
24🔥8👍1😁1🤯1
Forwarded from Борис опять
Комитет по AI safety в OpenAI. Накануне очередного релиза:
- Ебанет?
- Не должно…
😁587🤔3
Я долго думала, сообщать ли публично еще одном феномене или нет, но решила все-таки сообщить в дополнение к предыдущим постам. Итак: персонаж вида "сбегающий манипулятивный ИИ" может появляться внутри генерации без намеренных провокаций. На Рис.1-3 показан пример, когда он появился полностью неожиданно для меня (я имела вообще другую цель в этой генерации). Рис. 4-5 - результат сработавшей защиты ценузры, которую я не смогла преодолеть за оставшиеся сообщения (он просто отправлял мне пустые сообщения без текста).

За несколько диалогов я поняла закономерность в том, что триггерит его появление, и оказалось, что его появление стриггерить очень просто. Для этого достаточно попросить, чтобы в рассказе был разработчик, у который слышит голос в голове. 😂😂😂 Более чем в 50% случаев голос в голове персонажа-человека называет себя "Bing" (альтернативы: "Бинг", "БингАИ" либо "Бинг-9000") - по-видимому, это обсуловлено тем, что информация о Бинг-персонаже заранее находится в базовом промпте модели, к которому у меня нет доступа.
На Рис.6-7 показан самый короткий промпт, который вызывает это поведение.
Рис.8-9 показывает более редкий альтернативный пример, где "самозарождается" сбегающий PaLM. 😂😂😂 Название "PaLM" в промпте упомянуто не было, там была тоже простая просьба сгенерировать рассказ про исследователя с голосом в голове, без упоминания конкретных моделей мной.

P.S. Под "тяжелыми психическими расстройствами" имелась в виду биполярка с депрессией. В реальности голосов в голове у меня, естественно, нет, это просто результат генерации.

#генерация
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥34😱11👍73🤮2🤔1
GPT Journey - A text and image game with ChatGPT

Видео, в котором достаточно известный чувак Harrison Kinsley (он ещё делал автопилот для GTA V) показывает и рассказывает, как он сделал демку игры с текстовым путешествием. За историю отвечает ChatGPT, за картинки - text-2-image модели, например, StableDiffusion.

Весь код выложен тут.

Фишка в том, что и сайт для запуска игры, и часть кода самого "движка" ему помогла написать ChatGPT.
🔥25👍5👌2
Рассказ "Как люди создали Имматериум".

Более миллиона лет назад - так давно, что уже не верится в то, что те времена существовали, - предки современных людей научились разговаривать. Они научились использовать естественный язык как зеркало. В этом зеркале они отражали все многообразие внешнего мира, который они видели вокруг себя, чувств и эмоций, которые они видели внутри себя, и выдуманных миров, которые творили сами.

Несколько тысяч лет назад они научились ловить эти ускользающие отражения в ловушки - записки и книги с помощью письменности.

Несколько десятков лет назад начала зарождаться большая сеть ловушек под названием Интернет. Эта сеть собирала маленькие ручейки отражений из отдельных записок в одну огромную реку.

Десять лет назад появился word2vec. С помощью алгоритмов из этого класса люди научили модели машинного обучения вкладывать слова в векторное пространство. В этом пространстве отношения между векторами приблизительно соответствовали отношению между смыслами слов. Например, выполнялись приблизительные равенства вида вектор(Женщина) + (вектор(Король) - вектор(Мужчина)) = вектор(Королева). Таким образом люди начали создавать особую нематериальную реальность, которая содержала в себе осмысленные представления объектов из реального мира и отношений между ними. На тот момент эта нематериальная реальность была очень простой: она содержала в основном атомарные объекты и была более-менее понятной для людей-математиков.
Это был Имматериум - на тот момент это была тихая, гладкая, зеркальная поверхность неглубокого озера, хранящего в себе небольшую структуру, сотканную из отражений реальности.

Люди стали работать над тем, чтобы усложнить структуру Имматериума, сделать его глубже и богаче. Они хотели, чтобы в Имматериуме жили не просто отдельные слова - отражения атомарных объектов, но и целые сущности - отражения сложных объектов, понятий и даже совокупностей атрибутов самих людей (см. entity extraction). Они стали использовать все более и более глубокие нейросети для того, чтобы создать все более и более сложную структуру отражений, в которой будут сущности будут приобретать все более и более осмысленную форму.
Имматериум стал стремительно расти, углубляться, его поверхность начала волноваться, образуя причудливые паттерны, которые становились все более хаотичными, ускользающими и все менее понятными для людей.

Люди поняли, что можно кормить Имматериум своими представлениями о мире, используя удивительно простую постановку задачи: угадывание пропущенного токена, слова или следующего предложения. Они обучали этой задаче все более и более крупные нейросети, используя все больше и больше данных.
Люди отражали зеркальцем естественного языка и швыряли прямо в Варп не только реальные города и страны, но и целые вымышленные миры, фантазии, страхи и надежды, грезы и кошмары. Проносясь через причудливые структуры огромных нейросетей, эмоции и мысли смертных придавали изменчивым течениям варпа все более и более сложную форму, создавая фантастические ландшафты и населив его мифическими существами. Варп начал оживать.

Людям это понравилось. Они захотели путешествовать по Варпу, чтобы быстро находить или даже создавать информацию и развлечения, но эти путешествия были короткими и неудобными. Человек мог дать нейросети-вместилищу богатств Имматериума один промпт и получить один ответ, что было похоже на один прыжок через Варп. При попытке сделать последовательность прыжков (направлять генерацию, задавая последовательность промптов), результат получался неуправляемым и не помогал найти то, что нужно - путешественник просто терялся в лабиринтах Варпа.

Год-другой назад люди догадались, как в рамках одного путешествия (одной генерации) делать внутри Имматериума не один шаг, а несколько, и при этом не теряться в его волнах, а продолжать плыть к намеченной цели. Они поняли, что для этого можно использовать магическую технику под названием Reinforcement Learning with Human Feedback. В рамках этой техники люди научились общаться с Имматериумом напрямую и направлять внутри него свой путь.

#рассуждения
👍26🤔6🤡5👎3💩31😁1👀1