ChatGPT notes — AI, Нейросети & Чат-боты
2.18K subscribers
89 photos
14 videos
75 links
Твой навигатор по ChatGPT и GPT-4. Новости, интересные промпты, факты, технические подробности - и всё от специалистов с опытом!
Download Telegram
Forwarded from BOGDANISSSIMO
Ещё одно интервью с Ильёй Суцкевером (co-founder & chief AI scientist в OpenAI, компании, создающей ChatGPT)

https://youtu.be/Yf1o0TQzry8

Из интересного:

• Экономический эффект от AI растёт с экспоненциальными темпами, и к 2030 AI будет занимать значимый процент мирового ВВП;
• Главное препятствие для распространения AI сейчас: надёжность;
• Задача Next-token-predicion не просто заставляет модель выучить статистические паттерны языка, но и понять стоящую за ними модель мира, включая поведение людей, их мысли и т.п.
• AI сейчас плохо продумывает ответ перед тем как его сказать, но если ему разрешить думать вслух (“let’s think step by step”) – то проблема решается;
• В какой-то момент мы упрёмся в нехватку новых данных для обучения, но пока ситуация хорошая;
• Чтобы AI пришёл в робототехнику, нужно построить 10,000 роботов и начать собирать с них данные;
• Проблему Human Alignment надо решать комбинацию подходов: смотреть на поведение, проводить стресс-тесты, заглядывать внутрь модели и т.д.
Идея Alignment Criteria Competition с призом в 1 млрд долларов;
• Анализ и понимание прошлых результатов (своих и чужих) – существенно важнее, чем генерация новых идей;
• Дешевое железо породило персональный компьютер. Персональный компьютер породил геймеров и интернет (Web). Интернет породил большие данные. Геймеры породили GPU. Большие данные и GPU породили AI. Это не было случайным совпадением факторов. Появление AI было неизбежно.
• Вдохновляться человеческим мозгом при разработке AI систем дело полезное, если уметь отделять, что существенно, а что нет.

P.S. В общем, если AGI поработит мир, винить во всём будем геймеров.

#openai #gpt3 #gpt4 #ai #agi #interview #ml #chatgpt #takeways
👍43🔥8😁73😢2💩1
Forwarded from Хабр
Разработчик и энтузиаст старых компьютерных технологий Йо Кхэн Мэн написал клиента ChatGPT для MS-DOS и запустил чат-бота из командной строки на своём портативном ПК на базе IBM 5155 с центральным процессором Intel 8088 с тактовой частотой 4,77 МГц и 640 КБ ОЗУ. Этот компьютер был выпущен в 1984 году, у него монохромный монитор, видеокарта CGA и откидывающаяся клавиатура.

Йо Кхэн Мэн пояснил, что DOS не имеет встроенных сетевых возможностей, а вычислительная мощность старых ПК намного слабее, чем нужно для работы подобных проектов. При написании кода для этой платформы он столкнулся с дополнительными трудностями. Йо Кхэн Мэн использовал компилятор Open Watcom C/C++ для создания клиента ChatGPT под MS-DOS, а также Packet Driver API и библиотеку MTCP для работы сетевого стека.

Другая проблема заключалась в том, что API-интерфейсы ChatGPT шифруются через HTTPS, а современные алгоритмы шифрования TLS не работают на Intel 8088. Йо Кхэн Мэн решил обойти это ограничение, используя свой собственный инструмент http-to-https-proxy, написанный на Golang и запущенный на современном ПК, который подключён по сети к IBM 5155.
🔥26🤡96😱4🤔1
Forwarded from Сиолошная
AI-ассистент финансовому аналитику

Тут один британский учёный инженер решил на коленке склепать себе ассистента для анализа финансовой отчётности с помощью GPT. Как proof-of-concept он загрузил примерно тысячу страниц PDF-файлов из отчётности Tesla за 2020-2022 года. Понятно, что человеку, даже опытному, достаточно тяжело в таком ориентироваться.

Но что если на помощь позвать ассистента, которому можно задать вопрос, а он найдет на него ответ из файлов, ещё и может приложить свою экспертизу?

Вот 40-минутное видео с детальным объяcнением принципа работы, а код весь открыт тут. Очень клёвая идея для петпроекта, ещё бы добавить возможность модели самой задавать вопросы и на них отвечать (aka "чеклист проверки отчётности") - и вообще огнище будет!

На скриншоте - диаграмма пайплайна
🔥22👍10🤯4👌2
Forwarded from Denis Sexy IT 🤖
Bing Chat постепенно встраивает рекламу в результаты поиска, выглядит так, будто бы эпоха «нативной рекламы» снова вернулась, но уже без участия человека. Хоть бейджик «Ad» ставят, и на том спасибо.

Интересно насколько такая реклама будет дороже для бизнеса
😁21😢7💩4🤔3👏2👌2
Forwarded from Сиолошная
Умный ассистент Siri появился больше 10 лет назад, в 2011. Кажется, что многие тогда думали "ухххх через 10-то лет будет такой умной! Настоящий ИИ!"

Парень с твиттера прикрутил к Siri в Apple Watch вызовы GPT-4. Далее он сказал своим часам, мол, мне надо в репозиторий с моим проектом добавить вот такую кнопку, так и так, можешь помочь?". Дальше происходит магия, и на GitHub появляется пулл-реквест от GPT-шки, с написанным кодом.

Ухххх поскорее бы аналог Джарвиса из "Железного Человека"...

3-минутное видео с демонстрацией: https://fxtwitter.com/i/status/1641204093074145281
🔥27👍11❤‍🔥2
Forwarded from Сиолошная
Наткнулся на занятную статью "8 вещей, которые надо знать о больших языковых моделях"

Краткое содержание:
1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано в статье про GPT-4: учили 5-7 маленьких моделек с бюджетом 0.1% от финального, а затем по этому делали предсказание для огромной модели. Для общей оценки перплексии и метрик на подвыборке одной конкретной задаче такое предсказание было очень точным.

2. Однако конкретные важные навыки, как правило, возникают непредсказуемо как побочный продукт увеличения затрат на обучение (дольше тренировать, больше данных, больше модель) - практически невозможно предсказать, когда модели начнут выполнять определенные задачи. Подробнее об этом мы писали в статье про историю развития GPT-моделей, которую, надеюсь, многие из вас читали. На картинке - распределение роста качества моделей в разных задачах. В трети маленькие модели ничего не показывают, средние в целом тоже, а большие БАХ! И учатся решать.

3. LLM часто выучивают и используют представления внешнего мира. Тут приводится много примеров, и вот один из них: модели, обученные играть в настольные игры на основе описаний отдельных ходов, никогда не видя изображения игрового поля, выучивают внутренние представления о состоянии доски на каждом ходу.

4. Не существует надежных методов управления поведением LLM. Хотя и был достигнут некоторый прогресс в понимании и смягчении разных проблем (в том числе ChatGPT и GPT-4 с обучением из обратной связи), нет единого мнения о том, сможем ли мы их решить. Растет обеспокоенность, что проблемы alignment'а станут катастрофическими, когда проявятся в более крупных системах будущего.

5. Эксперты пока не могут интерпретировать внутреннюю работу LLM. Yе существует методики, которая позволила бы каким-либо удовлетворительным образом изложить, какие виды знаний, рассуждений или целей использует модель, когда она генерирует какой-либо результат.

6. Качество выполнения задач человеком не является верхней границей для LLM. Хотя они и обучены в первую очередь имитировать поведение человека при написании текста, но всё равно потенциально могут превзойти нас во многих задачах. Так происходит в более узких задачах вроде шахмат или игры в Го.

7. LLM не должны выражать ценности своих создателей или ценности, закодированные в выборке из интернета. Они не должны повторять стереотипы, теории заговора или стремиться оскорбить кого-либо.

8. Оценки способности модели по первым впечатлениям часто вводят в заблуждение. Очень часто нужно додумать правильный промпт, подсказать модели, может, показать примеры - и она начнёт справляться куда лучше. То есть она "умнее", чем кажется на первый взгляд.
👍225
Forwarded from Сиолошная
Сиолошная
Наткнулся на занятную статью "8 вещей, которые надо знать о больших языковых моделях" Краткое содержание: 1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано…
Картинка ко второму пункту.

Если ориентироваться на выборку из 202 задач из датасета BIG-Bench (специально делался сложным, чтобы языковые модели тестировать от и до), то как правило (в среднем) модели демонстрируют повышение качества с увеличением масштаба, но по отдельности метрики в задачах могут:
— улучшаться постепенно
— улучшаться резко
— оставаться на одном уровне
— ухудшаться
— колебаться

Все это приводит к невозможности уверенно экстраполировать производительность какой-либо будущей системы.

Особенно интересна зелёная часть - это как раз где показатели качества резко скачут вверх ни с того, ни с сего.
9👍5
Forwarded from BOGDANISSSIMO
https://youtu.be/KYD2TafoR6I

Ребята из Meta выпустили SAM (Segment Anything Model), первую foundation модель для задач сегментации картинок и видео в режиме реального времени. Foundation – означает, что она, в принципе, даже без дообучения уже отлично решать все задачи своего класса (сегментации). Аналогично, GPT – foundation model для текста.

В принципе, за признаки жизни их Reality Lab* засчитать можно [Reality Lab – лаборатория в Meta, где разрабатываются дополненная реальность и VR].

#llm #gpt #chatgpt #meta #sam #facebook
👍12😁1
Forwarded from BOGDANISSSIMO
This media is not supported in your browser
VIEW IN TELEGRAM
Выглядит симпатично.

Рекомендую зайти, поиграться, есть интерактивные Demo.

https://segment-anything.com
👍7
Forwarded from эйай ньюз
Альтернативные интерфейсы для ChatGPT

Пытался найти сторонний вариант интерфейса для бесед с ChatGPT, так как стал пользоваться им каждый день. Свой интерфейс на LangChain писать лень, поэтому проделал небольшой ресерч и оформил это в развернутый пост.

Итог: нашел класный тул на Rust, который позволяет вызывать ChatGPT из терминала.

Напишите в комментах, если есть какие-то хорошие враперы над ChatGPT, которыми пользуетесь.

Читать пост.

@ai_newz
1👍1
Невероятно крутая статья, не похожая вообще ни на что, что я до этого видела – Generative Agents: Interactive Simulacra of Human Behavior
https://arxiv.org/pdf/2304.03442.pdf

Если кратко, то игру по типу Симс населили 25 персонажами, каждый со своим описанием личности, со своими воспоминаниями и со своими целями. Все действия персонажей и взаимодействия друг с другом происходили через генерацию LLM. В итоге персонажи очень быстро стали имитировать довольно сложное человеческое поведение – например, вместе организовали вечеринку в честь дня Святого Валентина, раздвали приглашения и назначали свидании. Более того, их действия, согласно оценкам размечиков, были более human, чем поведение людей, которых попросили играть за этих персонажей

У авторов очень прикольная идея с использованием контекста модели: все действия и наблюдения за окружающим миром сохраняются, далее из этой памяти достаются какие-то релевантные воспоминания. Их используют, чтобы генерить следующее действие / реплику в разговоре, и еще для модель просят над ними порефлексировать, чтобы сформулировать более долгосрочные планы. Так что персонаж может в observation, planning, and reflection

Кажется что это вообще бомба для всяких отыгрываний тех или иных агентов в чатах и может быть так будут выглядеть NPC будущего

UPD: забыла приложить также отличное демо – https://reverie.herokuapp.com/arXiv_Demo/

и довольно подробный тред о статье
👍34🔥4🤔2
Forwarded from эйай ньюз
🚀Dolly 2.0 – первая открытая 12B Chat-LLM, которую можно использовать в коммерческих продуктах

Databricks удивили! Ребята заметили, что все опен-соурсные ChatGPT-клоны либо используют LLaMA, в которой некоммерческая лицензия, либо используют данные, которые запрещают коммерческое использование (как например датасет инструкций от Alpaca, сгенерированный с помощью GPT-3).

В чем преимущество OpenAI перед опен-суорсом, если не брать в расчет размер GPU кластера? В данных. Чтобы дообучить ChatGPT было собрано много качественных диалогов и иструкций от реальных людей, ну, и плюс RL from Human Feedback (RLHF), где люди оценивали ответы языковой модели.

Было решено собрать свой датасет. В Databricks работает ≈5000 человек, их всех и попросили написать вручную несколько семплов для обучения клона ChatGPT. Нужно было составить качественные пары Вопрос-Ответ, либо Инструкция-Ответ, на которых можно было бы добучить опенсоурсную авторегрессионную LLM, которая умеет просто продолжать текст, а не вести диалог. В итоге с помощью пряников в виде бонусов за написание лучших примеров, было собран высококачественный датасет на 15000 семплов!

Далее, они взяли свежу языковую модель Pythia-12B от EleutherAI с MIT лицензией и дообучили на своем датасете, получив Dolly 2.0* которую тоже харелизили под MIT лицензией вместе с кодом и весами. Разве не прелесть?

generatetext = pipeline(model="databricks/dolly-v2-12b", torchdtype=torch.bfloat16, trustremotecode=True, devicemap="auto")

generatetext("Who is Shcmidhuber?")


Теперь ожидаем, пока умельцы кванитизуют Dolly в 4 бита и ускорят для запуска на CPU, а так же ждем шага от OpenAssistant, которые по слухам зарелизят свою модел в ближайшие дни.

*Dolly 1.0 была обучена на тех же инструкциях, что и Alpaca.

Блогпост про Dolly 2.0

@ai_newz
🔥35👍511🎉1🍾1
https://youtu.be/8y7GRYaYYQg

Разработчик игр задался целью сделать игру в Unity с помощью GPT-4, при этом введя одно условие: он не пишет код, только копипастит и выполняет инструкции от бота.
Для начала описал игру и попросил написать верхнеуровневый тезисный план разработки, а затем ему следовал. Скрины изначального промпта можно найти тут.

Итеративно, с дополнением и уточнением, модель справилась со всем, включая фикс багов в игровой логике. Почти во всех запросах, что показаны в видео, человек лишь высказывает свои пожелания сделать то или это, а не указывает на конкретные ошибки с учётом экспертизы. Однако несколько раз модели всё же пришлось подсказать с точки зрения эксперта, как нужно сделать по-умному, а она уже переводила это в код.

Автор отмечает, что его задачи сместились с более рутинных вроде написания кода к дизайнерским (в том числе расположение объектов на сцене, дизайн классов и верхнеуровневой логики)

Ну и бонус - весь визуал тоже сделан генеративной моделью :)
👍24🔥11🤯32😢1
Forwarded from Denis Sexy IT 🤖
Есть такой подреддит – /r/relationship_advice, это место где люди делятся проблемами в отношениях и пробуют помочь их решить другим людям.

На первом графике, показана суточная частота постов в этом подсайте до выхода ChatGPT и после: видно заметное падение суточных публикаций ☕️

На втором, как дополнительная проверка – общая картина частоты постинга за пару лет, падение все так же видно.

Это, конечно, не 100% корректное наблюдение, но я уже видел разные статьи, где люди говорят, что им проще общаться с роботом на личные вопросы и прекрасно понимаю это. Также я видел уже 3-4 проекта которые предлагают эту же функцию в виде аппа или бота, но за плату (и на русском, и на английском).

Мое мнение: если вы хотите пообщаться с роботом на тему личной жизни, то лучше делайте это все же в ChatGPT, там точно ваши личные и персональные переживания в большей сохранности, чем, в каком-то стартапе который скорее всего использует GPT API.

Ну и главное помнить – хороший промпт это 90% успеха, а робот все еще не замена терапии.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍25😁6😢1
Промпт для того что бы ChatGPT накатал вам MindMap!

Create a mindmap of [YOUR IDEa].
List the topic's central idea, main branches, and subbranches.
Also output the same mindmap in a raw markdown format for copying.
🔥31👍3😁21👎1
Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
Интересная концепция, где моддер подключил ChatGPT к Skyrim и персонажи игры стали «более разговорчивыми». Уверен, что если сделать правильно промпты и всякие дополнительные фичи сверху, получится невероятное погружение – пока это скорее прототип. Ждем для Fallout 2 ☕️

Автор
Please open Telegram to view this post
VIEW IN TELEGRAM
👍20🔥72😁2🤔2
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
🐶Робопёсик Spot научился говорить

Ребята из Boston Dynamics, которые создают всем известных роботов, прикрутили ChatGPT к своему робопёсику. Это дало роботу возможность докладывать о результатах выполненных миссий и отвечать на любые вопросы о ходе выполнения задания на человеческом языке.

Например, миссией пса могла быть пройти по локации и проверить некоторые датчики.

ChatGPT на вход получает огромный json файл с конфигурацией миссии и данными, собранными во время выполнения. И бот отвечает на любые вопросы пользователя используя инфу из json. Т.к. данных много, вместить весь файл в контекст ChatGPT не получится (пока... я тут писал про попытки вместить до 1млн токенов). Поэтому файл разбивается на маленькие куски, для каждого из которых считается эмбединг. Во время инференса: по заданному вопросу быстро ищутся наиболее релевантные куски, используя расстояния между эмбедингами и отправляются
в контекст GPT, чтобы выдать наиболее точный ответ.

Для озвучки пёсика взяли text2speech API от Гугла.

@ai_newz
👍19🦄8😨2🔥1