Градиент обреченный
7.97K subscribers
834 photos
20 videos
8 files
454 links
Download Telegram
🔺 ChatGPT и Whisper стали доступны по API

В первый день весны OpenAI заоптимизировали свои модели (говорят, что теперь тратят на 90% меньше ресурсов чем два месяца назад) и сделали их доступными по API.

Теперь можно встраивать в свои приложения генерацию контента через ChatGPT и распознавание речи через Whisper (97 языков).

Цена за ASR — $0.006/минута аудио, за ChatGPT — $0.002/тыс. токенов.

👉 Пост
🔥32😱5👍311
Forwarded from AbstractDL
GPT теперь принимает на вход эмбеддинги

Наконец! В transformers добавлена поддержка эмбеддингов в качестве инпута для полноценной генерации в GPT-like моделях.

За последние годы вышло много работ, которые предлагают использовать этот механизм для таких штук как мультимодальный диалог и p-tuning, но приходилось сильно извращаться чтобы совместить эти подходы с генерацией текста. А теперь это можно сделать в одну строчку! Cоединять текст, картинки и звук теперь будет ещё проще!

Поддержка уже есть для GPT-2, GPT-j, BLOOM, BioGPT, но надо будет установить версию 4.27.0.

GitHub
🔥21👍63💯1
Заполните форму, говорили они. #LLaMA

👉 утекли веса новой модельки от Meta
😁30🔥13🍾21👍1
🔺 Новый Bing

Давайте посмотрим на то, как у Microsoft получается встраивать ChatGPT в свою поисковую систему. Как раз дали доступ к новому режиму, так что можно поиграться.

1️⃣ Во-первых, настройки генерации модели оформили в виде трех режимов — креативный, сбалансированный и точный.

2️⃣ Во-вторых, в отличие от демо OpenAI теперь у модели есть выход в интернет и перед ответом она лезет в API Bing'a, набирая к себе в контекст часть поисковой выдачи. Вот тут можно подробнее почитать про подход WebGPT. Это позволяет отвечать на актуальные темы, которых не было в претрейне модели. В случае с демо ChatGPT, из ее затравки следовало, что она была ограниченна данными на конец 2021 года.

3️⃣ В-третьих, обратил внимание на различные детали — в выдачу добавили эмодзи, а после каждого ответа выдается по три варианта продолжения диалога. Количество же шагов диалога с моделью ограничено 8-ю, после чего выдается "Sorry, this conversation has reached its limit".

〰️ Кроме того, в отличие от последнего демо ChatGPT иногда идут довольно душные ответы, типа на "сочини оду про что-то" модель может ответить

"ода должна восхвалять что-то, а то, о чем вы спрашиваете этого не заслуживает" 😁

👉 Upd. Не всегда достает из поиска последние события. К примеру, не может ответить как сегодня сыграла какая-то команда в футбол, хотя в выдаче это идет первой ссылкой. (Скрин в комментариях).
👍11🔥5❤‍🔥1🤯1
LLaMA — какая-то лажа. #7B #13B
😁17🥴10👍2😱2💯2
💐 Девушки, дамы и техножрицы! С праздником весны вас!
Please open Telegram to view this post
VIEW IN TELEGRAM
😁34🎉10❤‍🔥8👍3😱1🤓1
🔺 Карта языковых моделей

Обновил свою интерактивную визуализацию мультиязыковых моделей на карте.

Добавил туда LLaMA, также есть BLOOM, mt5 и mGPT.

Сделал на plotly, если кто не еще пробовал, то рекомендую.

👉 В репозитории есть скрипт для создания визуализации, если кто-то захочет сделать что-то свое.

Карта | Скрипт
🔥15👍5❤‍🔥211👌1
🔺 ChatGPT на коленке

Появился интересный репозиторий под названием ChatLLaMA. Авторы собрали пайплайн для тренировки персонализированного ChatGPT-like ассистента на основе открытых моделей (базовая модель + reward + RLHF). Человеческая оценка происходит тоже через модели — либо платно через API к OpenAI, либо моделью с huggingface.

В примере из репы после подготовки данных все делается в три команды.

👉 GitHub
🔥35👍422🏆1
🔺 Продолжаем с коллегами работать над моделью. Стало еще чуть лучше.

» Напиши песню про тимлида

Как скажете.

Первый куплет:

Тимлид — нервный тип,
Он проводит дни напролёт,
Разработчики сходят с ума,
Потому что он ничего не делает.

Припев:

Кто же будет кодить, если не мы?
Кто же будет кодить, если не мы?
Кто же будет кодить, если не мы?
🔥32😁21🆒6❤‍🔥4👍2🍾21
🔺 Обучаем RLHF с 20B моделью на домашней видеокарте

Очередная интеграция библиотек от huggingface 🤗. На этот раз скрестили peft и trl.

При помощи trl можно, собственно, обучать сами модели в распределенном сетапе или на одной GPU. При помощи peft можно из коробки пользоваться оптимизациями для обучения больших LM, типа LoRA.

Авторы показывают как обучали gpt-neo-x (40Gb в fp16) на 3090 с 24Gb пямяти. Новые оптимизации добавляются.

👉 Примеры
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥27👍42❤‍🔥1
🔺 GPT-4 LM paper Вышла! Вышла! А, нет, показалось

https://www.maxonlift.com/sites/default/files/2017-04/m9726_0.pdf
😁23🥴9🔥2🍾2🤯1🙈1
🔺 GPT-4


🔸 Модель мультимодальная (accepting image and text inputs, emitting text outputs).
🔸 В течение 6 месяцев выравнивали модель инструкциями для лучшего вывода.
🔸 Подписчики ChatGPT Plus получат ограниченный доступ к GPT-4.
🔸 Для получения доступа к API нужно добавиться в waitlist.
🔸 Контекст модели 8,192 токенов.
🔸 Есть версия с контекстом 32,768 токенов (50 страниц текста).
🔸 Цена $0.06 за тыс. токенов.


👉 Пост
🔥243🤯3❤‍🔥2
🔺 Раскрыт потенциал GPT-4
😁5710🔥8💯6🤪5
Хватит кодить
💯36😁119🔥3