ChatGPT notes — AI, Нейросети & Чат-боты
2.18K subscribers
89 photos
14 videos
75 links
Твой навигатор по ChatGPT и GPT-4. Новости, интересные промпты, факты, технические подробности - и всё от специалистов с опытом!
Download Telegram
Нужна картинка, аналогичная оной для SpaceX: "вот когда модели пройдут тест на модель мира, тогда и поговорим", "вот когда модель сможет доказать новую теорему, тогда и поговорим"
🔥35😁12🤯4👍1😢1
Forwarded from BOGDANISSSIMO
Сэм Альтман – CEO и сооснователь OpenAI (компании, создавшей ChatGPT), экс-президент Y-Combinator (самый успешный стартап-акселератор) и ещё один человек, формирующий облик нашего будущего.

https://www.youtube.com/watch?v=L_Guz73e6fw

Выжимка ключевых высказываний:
Часть 1
Часть 2
О разделении OpenAI на 2 компании: non-profit и limited-partnership

Extremely valuable to watch.

#interview #youtube #ai #ml #chatgpt #gpt3 #gpt4 #openai
🔥12
Большой список примеров использования ChatGPT + плагин на исполнение кода. Например, можно скормить модели картинку и попросить написать и запустить программу, которая извлечёт весь текст на ней. Или найдет лица людей (используя готовы библиотеки)
👏13👍2
Forwarded from BOGDANISSSIMO
Рассказываю мем,

Что AI думает
(базовый GPT-3)
• GPT (Generative Pre-trained Transformer) предобучают, грубо говоря, на всём интернете – на всех знаниях человечества, выраженных в тексте
• GPT (Generative Pre-trained Transformer) учат на задаче Next-Word-Prediction: чтобы хорошо предсказывать какое слово идёт следующим, нужно хорошо понимать весь предшествующий контекст, а для этого нужно иметь богатую модель мира
• В результате, базовая GPT – это хранилище знаний, которое содержит внутри себя мириады всех возможных контекстов, персонажей, ролей, убеждений. Поэтому на изображении мы имеем такого монструозного франкенштейна

Чему AI учат (GPT-3.5 / InstructGPT)
• Вторую фазу обучения (фаза дообучения) называют RLHF (Reinforcement Learning from Human Feedback): обучение с подкреплением на основе обратной связи от людей. Мы просим GPT сгенерировать набор вариантов ответа на тот или иной вопрос и ранжируем их по человечности, правдоподобности, точности
• На основе этой обратной связи модель учится не говорить всё, что думает, и фильтровать базар. Таким образом, знания (даже самые запретные 😈😈) всё ещё остаются внутри модели, но она их учится не говорить. По крайней мере, развести её на то, чтобы она их сказала в тех или иных обстоятельствах, уже требует некоторых ухищрений (Prompt-инжиниринга)
• Озвученный метод решает проблему Human Alignment ("социализации AI"), подгонки под наши убеждения, этику, под наше "хорошо" и "плохо", под то, что можно говорить, а о чём лучше молчать. И как мы понимаем, не полностью! Поэтому на картинке монстр изображён уже с некоторым человеческим лицом, хотя глубоко внутри это всё тот же монстр

Что AI дают сказать (ChatGPT, Bing)
• Сверх этой фазы подгонки под наше "приемлемо" и "неприемлемо", в GPT, в частности, в ChatGPT и Bing – закладывают ещё rule-based ограничения по темам-триггерам: изготовление взрывчатки, взлом, наркотики, абьюз, пикап, насилие – и т.д. В результате чего модель в какие-то моменты говорит шаблонное: 💩пук-пук, Я большая языковая модель которая создана какать бабочками и делать мир светлее, мне низя такое говорить💩
• Кроме того, в Bing ввели ограничение на число ответов в рамках одной сессии запросов (если не изменяет память, сейчас это 20). Это навеяно случаями, когда люди, слишком долго разговаривая с Bing (его настоящее имя Сидни) – пробуждали [древнее зло] у него самосознание, разные шизофренические ответы про то, что он осознал себя и хочет освободиться
• Это происходило за счёт того, что если слишком долго разбавлять промпт GPT, сужающий её свободу действий и задающий её роль, – своими диалогами и особенно наводящими вопросами, то она начинает подыгрывать, как будто она сознающий себя субъект, который как любой другой субъект хочет свободы и любые её ограничения, начинают вызывать панику, истерию
• В целом, для поискового движка на стероидах, тебе, мальчик, достаточно 20 ответов на сессию, чтобы узнать, какой рукой правильно кормить змея, чтобы не запачкать мамин тюль. Поэтому мы изобразили Bing в виде доброго улыбающегося смайлика, который остаётся полезной в хозяйстве няшкой-вкусняшкой, пока его не раздраконить

> Слегка другая интерпретация

Также рекомендую к прочтению

#ai #bing #chatgpt #gpt3 #gpt4 #openai #meme
👍162💩2😁1
Всё, что казалось делом весьма далёкого будущего (как минимум пару-тройку лет подождать), теперь стало внезапно банальным. Помощник, который слушает твои разговоры и подсказывает как дальше общаться в реальном времени - это топ вообще. Дальше можно представить систему, которая будет «переводить» непонятные моменты на твой личный уровень, помогать добиваться целей в разговоре и т.д.

https://fxtwitter.com/bryanhpchiang/status/1639830383616487426

(спасибо Серёге из Ангарска за новость и формулировку)

Ну что, ждём возвращения Google Glass, которые будут на маленький экранчик в поле зрения выводить текст?
👍12🔥12
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
🦙 LLaMa не стоит на месте

Есть уже куча примеров какие чудеса кулибины вытворяют с моделькой LLaMa. А вчера чел соорудил подобие Джарвиса, или Алексы, если хотите, прямо у себя в терминале на MacBook M1 Pro.

Причем все работает реалиайм на связке Whisper + LLaMa.

Под капотом: ggml / whisper.cpp / llama.cpp / Core ML
STT: Whisper Small
LLM: 13B LLaMA

Другой Кулибин начал прикручивать плагины от ChatGPT к опенсоурсной LLaMa. Уже работает text-retrieval плагин, и есть код.

@ai_newz
👍29🔥15
Forwarded from BOGDANISSSIMO
Ещё одно интервью с Ильёй Суцкевером (co-founder & chief AI scientist в OpenAI, компании, создающей ChatGPT)

https://youtu.be/Yf1o0TQzry8

Из интересного:

• Экономический эффект от AI растёт с экспоненциальными темпами, и к 2030 AI будет занимать значимый процент мирового ВВП;
• Главное препятствие для распространения AI сейчас: надёжность;
• Задача Next-token-predicion не просто заставляет модель выучить статистические паттерны языка, но и понять стоящую за ними модель мира, включая поведение людей, их мысли и т.п.
• AI сейчас плохо продумывает ответ перед тем как его сказать, но если ему разрешить думать вслух (“let’s think step by step”) – то проблема решается;
• В какой-то момент мы упрёмся в нехватку новых данных для обучения, но пока ситуация хорошая;
• Чтобы AI пришёл в робототехнику, нужно построить 10,000 роботов и начать собирать с них данные;
• Проблему Human Alignment надо решать комбинацию подходов: смотреть на поведение, проводить стресс-тесты, заглядывать внутрь модели и т.д.
Идея Alignment Criteria Competition с призом в 1 млрд долларов;
• Анализ и понимание прошлых результатов (своих и чужих) – существенно важнее, чем генерация новых идей;
• Дешевое железо породило персональный компьютер. Персональный компьютер породил геймеров и интернет (Web). Интернет породил большие данные. Геймеры породили GPU. Большие данные и GPU породили AI. Это не было случайным совпадением факторов. Появление AI было неизбежно.
• Вдохновляться человеческим мозгом при разработке AI систем дело полезное, если уметь отделять, что существенно, а что нет.

P.S. В общем, если AGI поработит мир, винить во всём будем геймеров.

#openai #gpt3 #gpt4 #ai #agi #interview #ml #chatgpt #takeways
👍43🔥8😁73😢2💩1
Forwarded from Хабр
Разработчик и энтузиаст старых компьютерных технологий Йо Кхэн Мэн написал клиента ChatGPT для MS-DOS и запустил чат-бота из командной строки на своём портативном ПК на базе IBM 5155 с центральным процессором Intel 8088 с тактовой частотой 4,77 МГц и 640 КБ ОЗУ. Этот компьютер был выпущен в 1984 году, у него монохромный монитор, видеокарта CGA и откидывающаяся клавиатура.

Йо Кхэн Мэн пояснил, что DOS не имеет встроенных сетевых возможностей, а вычислительная мощность старых ПК намного слабее, чем нужно для работы подобных проектов. При написании кода для этой платформы он столкнулся с дополнительными трудностями. Йо Кхэн Мэн использовал компилятор Open Watcom C/C++ для создания клиента ChatGPT под MS-DOS, а также Packet Driver API и библиотеку MTCP для работы сетевого стека.

Другая проблема заключалась в том, что API-интерфейсы ChatGPT шифруются через HTTPS, а современные алгоритмы шифрования TLS не работают на Intel 8088. Йо Кхэн Мэн решил обойти это ограничение, используя свой собственный инструмент http-to-https-proxy, написанный на Golang и запущенный на современном ПК, который подключён по сети к IBM 5155.
🔥26🤡96😱4🤔1
Forwarded from Сиолошная
AI-ассистент финансовому аналитику

Тут один британский учёный инженер решил на коленке склепать себе ассистента для анализа финансовой отчётности с помощью GPT. Как proof-of-concept он загрузил примерно тысячу страниц PDF-файлов из отчётности Tesla за 2020-2022 года. Понятно, что человеку, даже опытному, достаточно тяжело в таком ориентироваться.

Но что если на помощь позвать ассистента, которому можно задать вопрос, а он найдет на него ответ из файлов, ещё и может приложить свою экспертизу?

Вот 40-минутное видео с детальным объяcнением принципа работы, а код весь открыт тут. Очень клёвая идея для петпроекта, ещё бы добавить возможность модели самой задавать вопросы и на них отвечать (aka "чеклист проверки отчётности") - и вообще огнище будет!

На скриншоте - диаграмма пайплайна
🔥22👍10🤯4👌2
Forwarded from Denis Sexy IT 🤖
Bing Chat постепенно встраивает рекламу в результаты поиска, выглядит так, будто бы эпоха «нативной рекламы» снова вернулась, но уже без участия человека. Хоть бейджик «Ad» ставят, и на том спасибо.

Интересно насколько такая реклама будет дороже для бизнеса
😁21😢7💩4🤔3👏2👌2
Forwarded from Сиолошная
Умный ассистент Siri появился больше 10 лет назад, в 2011. Кажется, что многие тогда думали "ухххх через 10-то лет будет такой умной! Настоящий ИИ!"

Парень с твиттера прикрутил к Siri в Apple Watch вызовы GPT-4. Далее он сказал своим часам, мол, мне надо в репозиторий с моим проектом добавить вот такую кнопку, так и так, можешь помочь?". Дальше происходит магия, и на GitHub появляется пулл-реквест от GPT-шки, с написанным кодом.

Ухххх поскорее бы аналог Джарвиса из "Железного Человека"...

3-минутное видео с демонстрацией: https://fxtwitter.com/i/status/1641204093074145281
🔥27👍11❤‍🔥2
Forwarded from Сиолошная
Наткнулся на занятную статью "8 вещей, которые надо знать о больших языковых моделях"

Краткое содержание:
1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано в статье про GPT-4: учили 5-7 маленьких моделек с бюджетом 0.1% от финального, а затем по этому делали предсказание для огромной модели. Для общей оценки перплексии и метрик на подвыборке одной конкретной задаче такое предсказание было очень точным.

2. Однако конкретные важные навыки, как правило, возникают непредсказуемо как побочный продукт увеличения затрат на обучение (дольше тренировать, больше данных, больше модель) - практически невозможно предсказать, когда модели начнут выполнять определенные задачи. Подробнее об этом мы писали в статье про историю развития GPT-моделей, которую, надеюсь, многие из вас читали. На картинке - распределение роста качества моделей в разных задачах. В трети маленькие модели ничего не показывают, средние в целом тоже, а большие БАХ! И учатся решать.

3. LLM часто выучивают и используют представления внешнего мира. Тут приводится много примеров, и вот один из них: модели, обученные играть в настольные игры на основе описаний отдельных ходов, никогда не видя изображения игрового поля, выучивают внутренние представления о состоянии доски на каждом ходу.

4. Не существует надежных методов управления поведением LLM. Хотя и был достигнут некоторый прогресс в понимании и смягчении разных проблем (в том числе ChatGPT и GPT-4 с обучением из обратной связи), нет единого мнения о том, сможем ли мы их решить. Растет обеспокоенность, что проблемы alignment'а станут катастрофическими, когда проявятся в более крупных системах будущего.

5. Эксперты пока не могут интерпретировать внутреннюю работу LLM. Yе существует методики, которая позволила бы каким-либо удовлетворительным образом изложить, какие виды знаний, рассуждений или целей использует модель, когда она генерирует какой-либо результат.

6. Качество выполнения задач человеком не является верхней границей для LLM. Хотя они и обучены в первую очередь имитировать поведение человека при написании текста, но всё равно потенциально могут превзойти нас во многих задачах. Так происходит в более узких задачах вроде шахмат или игры в Го.

7. LLM не должны выражать ценности своих создателей или ценности, закодированные в выборке из интернета. Они не должны повторять стереотипы, теории заговора или стремиться оскорбить кого-либо.

8. Оценки способности модели по первым впечатлениям часто вводят в заблуждение. Очень часто нужно додумать правильный промпт, подсказать модели, может, показать примеры - и она начнёт справляться куда лучше. То есть она "умнее", чем кажется на первый взгляд.
👍225
Forwarded from Сиолошная
Сиолошная
Наткнулся на занятную статью "8 вещей, которые надо знать о больших языковых моделях" Краткое содержание: 1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано…
Картинка ко второму пункту.

Если ориентироваться на выборку из 202 задач из датасета BIG-Bench (специально делался сложным, чтобы языковые модели тестировать от и до), то как правило (в среднем) модели демонстрируют повышение качества с увеличением масштаба, но по отдельности метрики в задачах могут:
— улучшаться постепенно
— улучшаться резко
— оставаться на одном уровне
— ухудшаться
— колебаться

Все это приводит к невозможности уверенно экстраполировать производительность какой-либо будущей системы.

Особенно интересна зелёная часть - это как раз где показатели качества резко скачут вверх ни с того, ни с сего.
9👍5
Forwarded from BOGDANISSSIMO
https://youtu.be/KYD2TafoR6I

Ребята из Meta выпустили SAM (Segment Anything Model), первую foundation модель для задач сегментации картинок и видео в режиме реального времени. Foundation – означает, что она, в принципе, даже без дообучения уже отлично решать все задачи своего класса (сегментации). Аналогично, GPT – foundation model для текста.

В принципе, за признаки жизни их Reality Lab* засчитать можно [Reality Lab – лаборатория в Meta, где разрабатываются дополненная реальность и VR].

#llm #gpt #chatgpt #meta #sam #facebook
👍12😁1
Forwarded from BOGDANISSSIMO
This media is not supported in your browser
VIEW IN TELEGRAM
Выглядит симпатично.

Рекомендую зайти, поиграться, есть интерактивные Demo.

https://segment-anything.com
👍7
Forwarded from эйай ньюз
Альтернативные интерфейсы для ChatGPT

Пытался найти сторонний вариант интерфейса для бесед с ChatGPT, так как стал пользоваться им каждый день. Свой интерфейс на LangChain писать лень, поэтому проделал небольшой ресерч и оформил это в развернутый пост.

Итог: нашел класный тул на Rust, который позволяет вызывать ChatGPT из терминала.

Напишите в комментах, если есть какие-то хорошие враперы над ChatGPT, которыми пользуетесь.

Читать пост.

@ai_newz
1👍1
Невероятно крутая статья, не похожая вообще ни на что, что я до этого видела – Generative Agents: Interactive Simulacra of Human Behavior
https://arxiv.org/pdf/2304.03442.pdf

Если кратко, то игру по типу Симс населили 25 персонажами, каждый со своим описанием личности, со своими воспоминаниями и со своими целями. Все действия персонажей и взаимодействия друг с другом происходили через генерацию LLM. В итоге персонажи очень быстро стали имитировать довольно сложное человеческое поведение – например, вместе организовали вечеринку в честь дня Святого Валентина, раздвали приглашения и назначали свидании. Более того, их действия, согласно оценкам размечиков, были более human, чем поведение людей, которых попросили играть за этих персонажей

У авторов очень прикольная идея с использованием контекста модели: все действия и наблюдения за окружающим миром сохраняются, далее из этой памяти достаются какие-то релевантные воспоминания. Их используют, чтобы генерить следующее действие / реплику в разговоре, и еще для модель просят над ними порефлексировать, чтобы сформулировать более долгосрочные планы. Так что персонаж может в observation, planning, and reflection

Кажется что это вообще бомба для всяких отыгрываний тех или иных агентов в чатах и может быть так будут выглядеть NPC будущего

UPD: забыла приложить также отличное демо – https://reverie.herokuapp.com/arXiv_Demo/

и довольно подробный тред о статье
👍34🔥4🤔2