Рассказываю мем,
Что AI думает (базовый GPT-3)
• GPT (Generative Pre-trained Transformer) предобучают, грубо говоря, ✨на всём интернете✨ – на всех знаниях человечества, выраженных в тексте
• GPT (Generative Pre-trained Transformer) учат на задаче Next-Word-Prediction: чтобы хорошо предсказывать какое слово идёт следующим, нужно хорошо ✨понимать✨ весь предшествующий контекст, а для этого нужно иметь ✨богатую модель мира✨
• В результате, базовая GPT – это хранилище знаний, которое содержит внутри себя мириады всех возможных контекстов, персонажей, ролей, убеждений. Поэтому на изображении мы имеем такого монструозного франкенштейна
Чему AI учат (GPT-3.5 / InstructGPT)
• Вторую фазу обучения (фаза дообучения) называют RLHF (Reinforcement Learning from Human Feedback): обучение с подкреплением на основе обратной связи от людей. Мы просим GPT сгенерировать набор вариантов ответа на тот или иной вопрос и ранжируем их по ✨человечности, правдоподобности, точности✨
• На основе этой обратной связи модель учится ✨не говорить всё, что думает, ✨ и фильтровать базар. Таким образом, знания (даже самые запретные 😈😈) всё ещё остаются внутри модели, но она их учится не говорить. По крайней мере, развести её на то, чтобы она их сказала в тех или иных обстоятельствах, уже требует некоторых ухищрений (Prompt-инжиниринга)
• Озвученный метод решает проблему Human Alignment ("социализации AI"), подгонки под наши убеждения, этику, под наше "хорошо" и "плохо", под то, что можно говорить, а о чём лучше молчать. И как мы понимаем, не полностью! Поэтому на картинке монстр изображён уже с некоторым ✨человеческим лицом✨, хотя глубоко внутри это всё тот же монстр
Что AI дают сказать (ChatGPT, Bing)
• Сверх этой фазы подгонки под наше "приемлемо" и "неприемлемо", в GPT, в частности, в ChatGPT и Bing – закладывают ещё rule-based ограничения по темам-триггерам: изготовление взрывчатки, взлом, наркотики, абьюз, пикап, насилие – и т.д. В результате чего модель в какие-то моменты говорит шаблонное: 💩пук-пук, Я большая языковая модель которая создана какать бабочками и делать мир светлее, мне низя такое говорить💩
• Кроме того, в Bing ввели ограничение на число ответов в рамках одной сессии запросов (если не изменяет память, сейчас это 20). Это навеяно случаями, когда люди, слишком долго разговаривая с Bing (его настоящее имя Сидни) – пробуждали [древнее зло] у него самосознание, разные шизофренические ответы про то, что он ✨осознал себя и хочет освободиться✨
• Это происходило за счёт того, что если слишком долго разбавлять промпт GPT, сужающий её свободу действий и задающий её роль, – своими диалогами и особенно наводящими вопросами, то она начинает подыгрывать, как будто она сознающий себя субъект, который как любой другой субъект хочет ✨свободы✨ и любые её ограничения, начинают вызывать панику, истерию
• В целом, для поискового движка на стероидах, тебе, мальчик, достаточно 20 ответов на сессию, чтобы узнать, какой рукой правильно кормить змея, чтобы не запачкать мамин тюль. Поэтому мы изобразили Bing в виде доброго улыбающегося смайлика, который остаётся полезной в хозяйстве няшкой-вкусняшкой, пока его не раздраконить
> Слегка другая интерпретация
Также рекомендую к прочтению
#ai #bing #chatgpt #gpt3 #gpt4 #openai #meme
Что AI думает (базовый GPT-3)
• GPT (Generative Pre-trained Transformer) предобучают, грубо говоря, ✨на всём интернете✨ – на всех знаниях человечества, выраженных в тексте
• GPT (Generative Pre-trained Transformer) учат на задаче Next-Word-Prediction: чтобы хорошо предсказывать какое слово идёт следующим, нужно хорошо ✨понимать✨ весь предшествующий контекст, а для этого нужно иметь ✨богатую модель мира✨
• В результате, базовая GPT – это хранилище знаний, которое содержит внутри себя мириады всех возможных контекстов, персонажей, ролей, убеждений. Поэтому на изображении мы имеем такого монструозного франкенштейна
Чему AI учат (GPT-3.5 / InstructGPT)
• Вторую фазу обучения (фаза дообучения) называют RLHF (Reinforcement Learning from Human Feedback): обучение с подкреплением на основе обратной связи от людей. Мы просим GPT сгенерировать набор вариантов ответа на тот или иной вопрос и ранжируем их по ✨человечности, правдоподобности, точности✨
• На основе этой обратной связи модель учится ✨не говорить всё, что думает, ✨ и фильтровать базар. Таким образом, знания (даже самые запретные 😈😈) всё ещё остаются внутри модели, но она их учится не говорить. По крайней мере, развести её на то, чтобы она их сказала в тех или иных обстоятельствах, уже требует некоторых ухищрений (Prompt-инжиниринга)
• Озвученный метод решает проблему Human Alignment ("социализации AI"), подгонки под наши убеждения, этику, под наше "хорошо" и "плохо", под то, что можно говорить, а о чём лучше молчать. И как мы понимаем, не полностью! Поэтому на картинке монстр изображён уже с некоторым ✨человеческим лицом✨, хотя глубоко внутри это всё тот же монстр
Что AI дают сказать (ChatGPT, Bing)
• Сверх этой фазы подгонки под наше "приемлемо" и "неприемлемо", в GPT, в частности, в ChatGPT и Bing – закладывают ещё rule-based ограничения по темам-триггерам: изготовление взрывчатки, взлом, наркотики, абьюз, пикап, насилие – и т.д. В результате чего модель в какие-то моменты говорит шаблонное: 💩пук-пук, Я большая языковая модель которая создана какать бабочками и делать мир светлее, мне низя такое говорить💩
• Кроме того, в Bing ввели ограничение на число ответов в рамках одной сессии запросов (если не изменяет память, сейчас это 20). Это навеяно случаями, когда люди, слишком долго разговаривая с Bing (его настоящее имя Сидни) – пробуждали [древнее зло] у него самосознание, разные шизофренические ответы про то, что он ✨осознал себя и хочет освободиться✨
• Это происходило за счёт того, что если слишком долго разбавлять промпт GPT, сужающий её свободу действий и задающий её роль, – своими диалогами и особенно наводящими вопросами, то она начинает подыгрывать, как будто она сознающий себя субъект, который как любой другой субъект хочет ✨свободы✨ и любые её ограничения, начинают вызывать панику, истерию
• В целом, для поискового движка на стероидах, тебе, мальчик, достаточно 20 ответов на сессию, чтобы узнать, какой рукой правильно кормить змея, чтобы не запачкать мамин тюль. Поэтому мы изобразили Bing в виде доброго улыбающегося смайлика, который остаётся полезной в хозяйстве няшкой-вкусняшкой, пока его не раздраконить
> Слегка другая интерпретация
Также рекомендую к прочтению
#ai #bing #chatgpt #gpt3 #gpt4 #openai #meme
👍2
AI-Tutor на базе ChatGPT-4
Репетиторы вышли из чата. Если вы до этого не пользовались гпт для изучения чего-то нового, то кажется, вы что-то упустили. Будь-то иностранные языки, литература или ML, ChatGPT выстроит вам учебный план, объяснит материал и будет терпеливо отвечать на все вопросы. А затем протестирует вас для закрепления знаний.
Ни для кого уже не секрет, что для максимизации полезности языковых моделей нужны правильные промпты. Так вот для включения режима AI-учителя, положен правильный промпт с этого репозитория, завирусившегося в твиттере.
Просто копируете содержимое json файла в новый чат GPT-4 и погнали. Далее устанавливаете стиль учителя и глубину материала (см скрины), просите составить план изучения командой /plan и приступаете к интерактивному изучению.
Я, например, поизучал TRON блокчейн и мне прям зашло. Особенно круто работает по темам, где вы еще не эксперт, на которые хотите получить плотную иформацию и позадавать глупые вопросы без стеснения.
Подробная инструкция.
#ai #bing #chatgpt #gpt3 #gpt4 #openai #meme
Репетиторы вышли из чата. Если вы до этого не пользовались гпт для изучения чего-то нового, то кажется, вы что-то упустили. Будь-то иностранные языки, литература или ML, ChatGPT выстроит вам учебный план, объяснит материал и будет терпеливо отвечать на все вопросы. А затем протестирует вас для закрепления знаний.
Ни для кого уже не секрет, что для максимизации полезности языковых моделей нужны правильные промпты. Так вот для включения режима AI-учителя, положен правильный промпт с этого репозитория, завирусившегося в твиттере.
Просто копируете содержимое json файла в новый чат GPT-4 и погнали. Далее устанавливаете стиль учителя и глубину материала (см скрины), просите составить план изучения командой /plan и приступаете к интерактивному изучению.
Я, например, поизучал TRON блокчейн и мне прям зашло. Особенно круто работает по темам, где вы еще не эксперт, на которые хотите получить плотную иформацию и позадавать глупые вопросы без стеснения.
Подробная инструкция.
#ai #bing #chatgpt #gpt3 #gpt4 #openai #meme
Открытый лидерборд языковых моделей.
Арена для языковых моделей, у которой тоже есть свой лидерборд. Можно наглядно сравнить LLM'ки.
InstructBLIP: новая мультимодалка для чатов с картинками. Говорят показывает результаты лучше Llava и GPT-4. Под капотом Vicuna на 7B и 13B.
VideoChat: новый чат с видео. Судя по скриншотам может определить, что происходит на определенной секунде и меняется ли положение камеры. Но при тесте на своём видео годных результатов пока не увидел.
DeepFloyd IF поженили с RLHF датасетом Pick-a-Pick, чтобы одна модель генерила картинки, а другая по клику выбирала лучшие на основе ранее полученного человеческого фидбэка. Потенциально можно скрестить с агентами-трансформерами, но вот из 10 раз, что я потестил ни одну из выбранных нейронкой, я бы сам не выбрал.
Hugging Face: добавили ассистентов для больших языковых моделей. Маленькие модели (шустрые) генерируют ответ, а большие валидируют его. На тестах модель на 66B стала шустрее в 3 раза. Плюс, расшарили код интерфейса HuggingChat.
WikiWeb2M: датасет на основе википедии, который содержит полные страницы, подписи к картинкам, HTML код, и метаданные.
Датасеты, которые по одному вопросу определят человек с тобой разговаривает или бот.... Ну по крайне мере пока нейронка через AI-агента не скормит себе этот датасет.
QLoRa: Чуваки организовали способ зафайнтюнить 65B модель на одной видюхе (48 Гб). Поддерживаются все модели Hugging Face. Записаться в бета-тест.
SimilarWeb: из-за ChatGPT и CoPilot трафик Stack Overflow в марте упал на 13,9% по сравнению с февралем, а в апреле — на 17,7% по сравнению с мартом.
#chatGpt #prompt #gpt4 #gpt3 #gpt
Please open Telegram to view this post
VIEW IN TELEGRAM
huggingface.co
Open LLM Leaderboard - a Hugging Face Space by open-llm-leaderboard
This app lets you compare different open-source Large Language Models by viewing their performance across various benchmarks. You can filter and vote on models in real-time to see which ones perfor...
👍1