Prompt Engineering - ChatGPT | Gemini, Midjourney, SD, Sora
832 subscribers
97 photos
35 videos
1 file
144 links
Prompt engineering - это процесс разработки, создания и тестирования подсказок для систем .

При правильном сочетании обработки языка, можно разработать хорошие подсказки, которые будут вызывать конкретные ответы и решать ваши задачи!
Download Telegram
Рассказываю мем,

Что AI думает
(базовый GPT-3)
• GPT (Generative Pre-trained Transformer) предобучают, грубо говоря, на всём интернете – на всех знаниях человечества, выраженных в тексте
• GPT (Generative Pre-trained Transformer) учат на задаче Next-Word-Prediction: чтобы хорошо предсказывать какое слово идёт следующим, нужно хорошо понимать весь предшествующий контекст, а для этого нужно иметь богатую модель мира
• В результате, базовая GPT – это хранилище знаний, которое содержит внутри себя мириады всех возможных контекстов, персонажей, ролей, убеждений. Поэтому на изображении мы имеем такого монструозного франкенштейна

Чему AI учат (GPT-3.5 / InstructGPT)
• Вторую фазу обучения (фаза дообучения) называют RLHF (Reinforcement Learning from Human Feedback): обучение с подкреплением на основе обратной связи от людей. Мы просим GPT сгенерировать набор вариантов ответа на тот или иной вопрос и ранжируем их по человечности, правдоподобности, точности
• На основе этой обратной связи модель учится не говорить всё, что думает, и фильтровать базар. Таким образом, знания (даже самые запретные 😈😈) всё ещё остаются внутри модели, но она их учится не говорить. По крайней мере, развести её на то, чтобы она их сказала в тех или иных обстоятельствах, уже требует некоторых ухищрений (Prompt-инжиниринга)
• Озвученный метод решает проблему Human Alignment ("социализации AI"), подгонки под наши убеждения, этику, под наше "хорошо" и "плохо", под то, что можно говорить, а о чём лучше молчать. И как мы понимаем, не полностью! Поэтому на картинке монстр изображён уже с некоторым человеческим лицом, хотя глубоко внутри это всё тот же монстр

Что AI дают сказать (ChatGPT, Bing)
• Сверх этой фазы подгонки под наше "приемлемо" и "неприемлемо", в GPT, в частности, в ChatGPT и Bing – закладывают ещё rule-based ограничения по темам-триггерам: изготовление взрывчатки, взлом, наркотики, абьюз, пикап, насилие – и т.д. В результате чего модель в какие-то моменты говорит шаблонное: 💩пук-пук, Я большая языковая модель которая создана какать бабочками и делать мир светлее, мне низя такое говорить💩
• Кроме того, в Bing ввели ограничение на число ответов в рамках одной сессии запросов (если не изменяет память, сейчас это 20). Это навеяно случаями, когда люди, слишком долго разговаривая с Bing (его настоящее имя Сидни) – пробуждали [древнее зло] у него самосознание, разные шизофренические ответы про то, что он осознал себя и хочет освободиться
• Это происходило за счёт того, что если слишком долго разбавлять промпт GPT, сужающий её свободу действий и задающий её роль, – своими диалогами и особенно наводящими вопросами, то она начинает подыгрывать, как будто она сознающий себя субъект, который как любой другой субъект хочет свободы и любые её ограничения, начинают вызывать панику, истерию
• В целом, для поискового движка на стероидах, тебе, мальчик, достаточно 20 ответов на сессию, чтобы узнать, какой рукой правильно кормить змея, чтобы не запачкать мамин тюль. Поэтому мы изобразили Bing в виде доброго улыбающегося смайлика, который остаётся полезной в хозяйстве няшкой-вкусняшкой, пока его не раздраконить

> Слегка другая интерпретация

Также рекомендую к прочтению

#ai #bing #chatgpt #gpt3 #gpt4 #openai #meme
👍2
Stic AI — 1000+ лучших запросов для ChatGPT. Тут собраны промты в 60 категориях, включая те, которые помогут с рутиной и увеличат продуктивность ежедневных задач.
#chatGPT #prompts

#ai #bing #gpt3 #gpt4 #openai #meme
AI-Tutor на базе ChatGPT-4

Репетиторы вышли из чата. Если вы до этого не пользовались гпт для изучения чего-то нового, то кажется, вы что-то упустили. Будь-то иностранные языки, литература или ML, ChatGPT выстроит вам учебный план, объяснит материал и будет терпеливо отвечать на все вопросы. А затем протестирует вас для закрепления знаний.

Ни для кого уже не секрет, что для максимизации полезности языковых моделей нужны правильные промпты. Так вот для включения режима AI-учителя, положен правильный промпт с этого репозитория, завирусившегося в твиттере.

Просто копируете содержимое json файла в новый чат GPT-4 и погнали. Далее устанавливаете стиль учителя и глубину материала (см скрины), просите составить план изучения командой /plan и приступаете к интерактивному изучению.

Я, например, поизучал TRON блокчейн и мне прям зашло. Особенно круто работает по темам, где вы еще не эксперт, на которые хотите получить плотную иформацию и позадавать глупые вопросы без стеснения.

Подробная инструкция.

#ai #bing #chatgpt #gpt3 #gpt4 #openai #meme
🔠🔠🔠🔠

Открытый лидерборд языковых моделей.

Арена для языковых моделей, у которой тоже есть свой лидерборд. Можно наглядно сравнить LLM'ки.

InstructBLIP: новая мультимодалка для чатов с картинками. Говорят показывает результаты лучше Llava и GPT-4. Под капотом Vicuna на 7B и 13B.

VideoChat: новый чат с видео. Судя по скриншотам может определить, что происходит на определенной секунде и меняется ли положение камеры. Но при тесте на своём видео годных результатов пока не увидел.

DeepFloyd IF поженили с RLHF датасетом Pick-a-Pick, чтобы одна модель генерила картинки, а другая по клику выбирала лучшие на основе ранее полученного человеческого фидбэка. Потенциально можно скрестить с агентами-трансформерами, но вот из 10 раз, что я потестил ни одну из выбранных нейронкой, я бы сам не выбрал.

Hugging Face: добавили ассистентов для больших языковых моделей. Маленькие модели (шустрые) генерируют ответ, а большие валидируют его. На тестах модель на 66B стала шустрее в 3 раза. Плюс, расшарили код интерфейса HuggingChat.

WikiWeb2M: датасет на основе википедии, который содержит полные страницы, подписи к картинкам, HTML код, и метаданные.

Датасеты, которые по одному вопросу определят человек с тобой разговаривает или бот.... Ну по крайне мере пока нейронка через AI-агента не скормит себе этот датасет.

QLoRa: Чуваки организовали способ зафайнтюнить 65B модель на одной видюхе (48 Гб). Поддерживаются все модели Hugging Face. Записаться в бета-тест.

SimilarWeb: из-за ChatGPT и CoPilot трафик Stack Overflow в марте упал на 13,9% по сравнению с февралем, а в апреле — на 17,7% по сравнению с мартом.

#chatGpt #prompt #gpt4 #gpt3 #gpt 🔠
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1