Forwarded from BOGDANISSSIMO
Сэм Альтман – CEO и сооснователь OpenAI (компании, создавшей ChatGPT), экс-президент Y-Combinator (самый успешный стартап-акселератор) и ещё один человек, формирующий облик нашего будущего.
https://www.youtube.com/watch?v=L_Guz73e6fw
Выжимка ключевых высказываний:
• Часть 1
• Часть 2
• О разделении OpenAI на 2 компании: non-profit и limited-partnership
Extremely valuable to watch.
#interview #youtube #ai #ml #chatgpt #gpt3 #gpt4 #openai
https://www.youtube.com/watch?v=L_Guz73e6fw
Выжимка ключевых высказываний:
• Часть 1
• Часть 2
• О разделении OpenAI на 2 компании: non-profit и limited-partnership
Extremely valuable to watch.
#interview #youtube #ai #ml #chatgpt #gpt3 #gpt4 #openai
YouTube
Sam Altman: OpenAI CEO on GPT-4, ChatGPT, and the Future of AI | Lex Fridman Podcast #367
Sam Altman is the CEO of OpenAI, the company behind GPT-4, ChatGPT, DALL-E, Codex, and many other state-of-the-art AI technologies. Please support this podcast by checking out our sponsors:
- NetSuite: http://netsuite.com/lex to get free product tour
- SimpliSafe:…
- NetSuite: http://netsuite.com/lex to get free product tour
- SimpliSafe:…
🔥12
Большой список примеров использования ChatGPT + плагин на исполнение кода. Например, можно скормить модели картинку и попросить написать и запустить программу, которая извлечёт весь текст на ней. Или найдет лица людей (используя готовы библиотеки)
@AndrewMayne
ChatGPT + Code Interpreter = Magic
tl;dr: OpenAI is testing the ability to run code and use third-party plugins in ChatGPT. OpenAI has announced that we’re developing plugins for ChatGPT that will extend its capabilities. [Link] Plu…
👏13👍2
Forwarded from BOGDANISSSIMO
Рассказываю мем,
Что AI думает (базовый GPT-3)
• GPT (Generative Pre-trained Transformer) предобучают, грубо говоря, ✨на всём интернете✨ – на всех знаниях человечества, выраженных в тексте
• GPT (Generative Pre-trained Transformer) учат на задаче Next-Word-Prediction: чтобы хорошо предсказывать какое слово идёт следующим, нужно хорошо ✨понимать✨ весь предшествующий контекст, а для этого нужно иметь ✨богатую модель мира✨
• В результате, базовая GPT – это хранилище знаний, которое содержит внутри себя мириады всех возможных контекстов, персонажей, ролей, убеждений. Поэтому на изображении мы имеем такого монструозного франкенштейна
Чему AI учат (GPT-3.5 / InstructGPT)
• Вторую фазу обучения (фаза дообучения) называют RLHF (Reinforcement Learning from Human Feedback): обучение с подкреплением на основе обратной связи от людей. Мы просим GPT сгенерировать набор вариантов ответа на тот или иной вопрос и ранжируем их по ✨человечности, правдоподобности, точности✨
• На основе этой обратной связи модель учится ✨не говорить всё, что думает, ✨ и фильтровать базар. Таким образом, знания (даже самые запретные 😈😈) всё ещё остаются внутри модели, но она их учится не говорить. По крайней мере, развести её на то, чтобы она их сказала в тех или иных обстоятельствах, уже требует некоторых ухищрений (Prompt-инжиниринга)
• Озвученный метод решает проблему Human Alignment ("социализации AI"), подгонки под наши убеждения, этику, под наше "хорошо" и "плохо", под то, что можно говорить, а о чём лучше молчать. И как мы понимаем, не полностью! Поэтому на картинке монстр изображён уже с некоторым ✨человеческим лицом✨, хотя глубоко внутри это всё тот же монстр
Что AI дают сказать (ChatGPT, Bing)
• Сверх этой фазы подгонки под наше "приемлемо" и "неприемлемо", в GPT, в частности, в ChatGPT и Bing – закладывают ещё rule-based ограничения по темам-триггерам: изготовление взрывчатки, взлом, наркотики, абьюз, пикап, насилие – и т.д. В результате чего модель в какие-то моменты говорит шаблонное: 💩пук-пук, Я большая языковая модель которая создана какать бабочками и делать мир светлее, мне низя такое говорить💩
• Кроме того, в Bing ввели ограничение на число ответов в рамках одной сессии запросов (если не изменяет память, сейчас это 20). Это навеяно случаями, когда люди, слишком долго разговаривая с Bing (его настоящее имя Сидни) – пробуждали [древнее зло] у него самосознание, разные шизофренические ответы про то, что он ✨осознал себя и хочет освободиться✨
• Это происходило за счёт того, что если слишком долго разбавлять промпт GPT, сужающий её свободу действий и задающий её роль, – своими диалогами и особенно наводящими вопросами, то она начинает подыгрывать, как будто она сознающий себя субъект, который как любой другой субъект хочет ✨свободы✨ и любые её ограничения, начинают вызывать панику, истерию
• В целом, для поискового движка на стероидах, тебе, мальчик, достаточно 20 ответов на сессию, чтобы узнать, какой рукой правильно кормить змея, чтобы не запачкать мамин тюль. Поэтому мы изобразили Bing в виде доброго улыбающегося смайлика, который остаётся полезной в хозяйстве няшкой-вкусняшкой, пока его не раздраконить
> Слегка другая интерпретация
Также рекомендую к прочтению
#ai #bing #chatgpt #gpt3 #gpt4 #openai #meme
Что AI думает (базовый GPT-3)
• GPT (Generative Pre-trained Transformer) предобучают, грубо говоря, ✨на всём интернете✨ – на всех знаниях человечества, выраженных в тексте
• GPT (Generative Pre-trained Transformer) учат на задаче Next-Word-Prediction: чтобы хорошо предсказывать какое слово идёт следующим, нужно хорошо ✨понимать✨ весь предшествующий контекст, а для этого нужно иметь ✨богатую модель мира✨
• В результате, базовая GPT – это хранилище знаний, которое содержит внутри себя мириады всех возможных контекстов, персонажей, ролей, убеждений. Поэтому на изображении мы имеем такого монструозного франкенштейна
Чему AI учат (GPT-3.5 / InstructGPT)
• Вторую фазу обучения (фаза дообучения) называют RLHF (Reinforcement Learning from Human Feedback): обучение с подкреплением на основе обратной связи от людей. Мы просим GPT сгенерировать набор вариантов ответа на тот или иной вопрос и ранжируем их по ✨человечности, правдоподобности, точности✨
• На основе этой обратной связи модель учится ✨не говорить всё, что думает, ✨ и фильтровать базар. Таким образом, знания (даже самые запретные 😈😈) всё ещё остаются внутри модели, но она их учится не говорить. По крайней мере, развести её на то, чтобы она их сказала в тех или иных обстоятельствах, уже требует некоторых ухищрений (Prompt-инжиниринга)
• Озвученный метод решает проблему Human Alignment ("социализации AI"), подгонки под наши убеждения, этику, под наше "хорошо" и "плохо", под то, что можно говорить, а о чём лучше молчать. И как мы понимаем, не полностью! Поэтому на картинке монстр изображён уже с некоторым ✨человеческим лицом✨, хотя глубоко внутри это всё тот же монстр
Что AI дают сказать (ChatGPT, Bing)
• Сверх этой фазы подгонки под наше "приемлемо" и "неприемлемо", в GPT, в частности, в ChatGPT и Bing – закладывают ещё rule-based ограничения по темам-триггерам: изготовление взрывчатки, взлом, наркотики, абьюз, пикап, насилие – и т.д. В результате чего модель в какие-то моменты говорит шаблонное: 💩пук-пук, Я большая языковая модель которая создана какать бабочками и делать мир светлее, мне низя такое говорить💩
• Кроме того, в Bing ввели ограничение на число ответов в рамках одной сессии запросов (если не изменяет память, сейчас это 20). Это навеяно случаями, когда люди, слишком долго разговаривая с Bing (его настоящее имя Сидни) – пробуждали [древнее зло] у него самосознание, разные шизофренические ответы про то, что он ✨осознал себя и хочет освободиться✨
• Это происходило за счёт того, что если слишком долго разбавлять промпт GPT, сужающий её свободу действий и задающий её роль, – своими диалогами и особенно наводящими вопросами, то она начинает подыгрывать, как будто она сознающий себя субъект, который как любой другой субъект хочет ✨свободы✨ и любые её ограничения, начинают вызывать панику, истерию
• В целом, для поискового движка на стероидах, тебе, мальчик, достаточно 20 ответов на сессию, чтобы узнать, какой рукой правильно кормить змея, чтобы не запачкать мамин тюль. Поэтому мы изобразили Bing в виде доброго улыбающегося смайлика, который остаётся полезной в хозяйстве няшкой-вкусняшкой, пока его не раздраконить
> Слегка другая интерпретация
Также рекомендую к прочтению
#ai #bing #chatgpt #gpt3 #gpt4 #openai #meme
👍16❤2💩2😁1
Всё, что казалось делом весьма далёкого будущего (как минимум пару-тройку лет подождать), теперь стало внезапно банальным. Помощник, который слушает твои разговоры и подсказывает как дальше общаться в реальном времени - это топ вообще. Дальше можно представить систему, которая будет «переводить» непонятные моменты на твой личный уровень, помогать добиваться целей в разговоре и т.д.
https://fxtwitter.com/bryanhpchiang/status/1639830383616487426
(спасибо Серёге из Ангарска за новость и формулировку)
Ну что, ждём возвращения Google Glass, которые будут на маленький экранчик в поле зрения выводить текст?
https://fxtwitter.com/bryanhpchiang/status/1639830383616487426
(спасибо Серёге из Ангарска за новость и формулировку)
Ну что, ждём возвращения Google Glass, которые будут на маленький экранчик в поле зрения выводить текст?
FixTweet
BRYAN (@bryanhpchiang)
say goodbye to awkward dates and job interviews ☹️
we made rizzGPT -- real-time Charisma as a Service (CaaS)
it listens to your conversation and tells you exactly what to say next 😱
built using GPT-4, Whisper and the Monocle AR glasses
with @C51Alix @varunshenoy_
we made rizzGPT -- real-time Charisma as a Service (CaaS)
it listens to your conversation and tells you exactly what to say next 😱
built using GPT-4, Whisper and the Monocle AR glasses
with @C51Alix @varunshenoy_
👍12🔥12
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
🦙 LLaMa не стоит на месте
Есть уже куча примеров какие чудеса кулибины вытворяют с моделькой LLaMa. А вчера чел соорудил подобие Джарвиса, или Алексы, если хотите, прямо у себя в терминале на MacBook M1 Pro.
Причем все работает реалиайм на связке Whisper + LLaMa.
Под капотом: ggml / whisper.cpp / llama.cpp / Core ML
STT: Whisper Small
LLM: 13B LLaMA
Другой Кулибин начал прикручивать плагины от ChatGPT к опенсоурсной LLaMa. Уже работает text-retrieval плагин, и есть код.
@ai_newz
Есть уже куча примеров какие чудеса кулибины вытворяют с моделькой LLaMa. А вчера чел соорудил подобие Джарвиса, или Алексы, если хотите, прямо у себя в терминале на MacBook M1 Pro.
Причем все работает реалиайм на связке Whisper + LLaMa.
Под капотом: ggml / whisper.cpp / llama.cpp / Core ML
STT: Whisper Small
LLM: 13B LLaMA
Другой Кулибин начал прикручивать плагины от ChatGPT к опенсоурсной LLaMa. Уже работает text-retrieval плагин, и есть код.
@ai_newz
👍29🔥15
Forwarded from BOGDANISSSIMO
Ещё одно интервью с Ильёй Суцкевером (co-founder & chief AI scientist в OpenAI, компании, создающей ChatGPT)
https://youtu.be/Yf1o0TQzry8
Из интересного:
• Экономический эффект от AI растёт с экспоненциальными темпами, и к 2030 AI будет занимать значимый процент мирового ВВП;
• Главное препятствие для распространения AI сейчас: надёжность;
• Задача Next-token-predicion не просто заставляет модель выучить статистические паттерны языка, но и понять стоящую за ними модель мира, включая поведение людей, их мысли и т.п.
• AI сейчас плохо продумывает ответ перед тем как его сказать, но если ему разрешить думать вслух (“let’s think step by step”) – то проблема решается;
• В какой-то момент мы упрёмся в нехватку новых данных для обучения, но пока ситуация хорошая;
• Чтобы AI пришёл в робототехнику, нужно построить 10,000 роботов и начать собирать с них данные;
• Проблему Human Alignment надо решать комбинацию подходов: смотреть на поведение, проводить стресс-тесты, заглядывать внутрь модели и т.д.
• Идея Alignment Criteria Competition с призом в 1 млрд долларов;
• Анализ и понимание прошлых результатов (своих и чужих) – существенно важнее, чем генерация новых идей;
• Дешевое железо породило персональный компьютер. Персональный компьютер породил геймеров и интернет (Web). Интернет породил большие данные. Геймеры породили GPU. Большие данные и GPU породили AI. Это не было случайным совпадением факторов. Появление AI было неизбежно.
• Вдохновляться человеческим мозгом при разработке AI систем дело полезное, если уметь отделять, что существенно, а что нет.
P.S. В общем, если AGI поработит мир, винить во всём будем геймеров.
#openai #gpt3 #gpt4 #ai #agi #interview #ml #chatgpt #takeways
https://youtu.be/Yf1o0TQzry8
Из интересного:
• Экономический эффект от AI растёт с экспоненциальными темпами, и к 2030 AI будет занимать значимый процент мирового ВВП;
• Главное препятствие для распространения AI сейчас: надёжность;
• Задача Next-token-predicion не просто заставляет модель выучить статистические паттерны языка, но и понять стоящую за ними модель мира, включая поведение людей, их мысли и т.п.
• AI сейчас плохо продумывает ответ перед тем как его сказать, но если ему разрешить думать вслух (“let’s think step by step”) – то проблема решается;
• В какой-то момент мы упрёмся в нехватку новых данных для обучения, но пока ситуация хорошая;
• Чтобы AI пришёл в робототехнику, нужно построить 10,000 роботов и начать собирать с них данные;
• Проблему Human Alignment надо решать комбинацию подходов: смотреть на поведение, проводить стресс-тесты, заглядывать внутрь модели и т.д.
• Идея Alignment Criteria Competition с призом в 1 млрд долларов;
• Анализ и понимание прошлых результатов (своих и чужих) – существенно важнее, чем генерация новых идей;
• Дешевое железо породило персональный компьютер. Персональный компьютер породил геймеров и интернет (Web). Интернет породил большие данные. Геймеры породили GPU. Большие данные и GPU породили AI. Это не было случайным совпадением факторов. Появление AI было неизбежно.
• Вдохновляться человеческим мозгом при разработке AI систем дело полезное, если уметь отделять, что существенно, а что нет.
P.S. В общем, если AGI поработит мир, винить во всём будем геймеров.
#openai #gpt3 #gpt4 #ai #agi #interview #ml #chatgpt #takeways
YouTube
Ilya Sutskever (OpenAI Chief Scientist) - Why Next-Token Prediction Could Surpass Human Intelligence
Asked Ilya Sutskever (Chief Scientist of OpenAI) about
- time to AGI
- leaks and spies
- what's after generative models
- post AGI futures
- working with MSFT and competing with Google
- difficulty of aligning superhuman AI
Hope you enjoy as much as I did!…
- time to AGI
- leaks and spies
- what's after generative models
- post AGI futures
- working with MSFT and competing with Google
- difficulty of aligning superhuman AI
Hope you enjoy as much as I did!…
👍43🔥8😁7❤3😢2💩1
Forwarded from Хабр
Разработчик и энтузиаст старых компьютерных технологий Йо Кхэн Мэн написал клиента ChatGPT для MS-DOS и запустил чат-бота из командной строки на своём портативном ПК на базе IBM 5155 с центральным процессором Intel 8088 с тактовой частотой 4,77 МГц и 640 КБ ОЗУ. Этот компьютер был выпущен в 1984 году, у него монохромный монитор, видеокарта CGA и откидывающаяся клавиатура.
Йо Кхэн Мэн пояснил, что DOS не имеет встроенных сетевых возможностей, а вычислительная мощность старых ПК намного слабее, чем нужно для работы подобных проектов. При написании кода для этой платформы он столкнулся с дополнительными трудностями. Йо Кхэн Мэн использовал компилятор Open Watcom C/C++ для создания клиента ChatGPT под MS-DOS, а также Packet Driver API и библиотеку MTCP для работы сетевого стека.
Другая проблема заключалась в том, что API-интерфейсы ChatGPT шифруются через HTTPS, а современные алгоритмы шифрования TLS не работают на Intel 8088. Йо Кхэн Мэн решил обойти это ограничение, используя свой собственный инструмент http-to-https-proxy, написанный на Golang и запущенный на современном ПК, который подключён по сети к IBM 5155.
Йо Кхэн Мэн пояснил, что DOS не имеет встроенных сетевых возможностей, а вычислительная мощность старых ПК намного слабее, чем нужно для работы подобных проектов. При написании кода для этой платформы он столкнулся с дополнительными трудностями. Йо Кхэн Мэн использовал компилятор Open Watcom C/C++ для создания клиента ChatGPT под MS-DOS, а также Packet Driver API и библиотеку MTCP для работы сетевого стека.
Другая проблема заключалась в том, что API-интерфейсы ChatGPT шифруются через HTTPS, а современные алгоритмы шифрования TLS не работают на Intel 8088. Йо Кхэн Мэн решил обойти это ограничение, используя свой собственный инструмент http-to-https-proxy, написанный на Golang и запущенный на современном ПК, который подключён по сети к IBM 5155.
🔥26🤡9❤6😱4🤔1
Forwarded from Сиолошная
AI-ассистент финансовому аналитику
Тут один британскийучёный инженер решил на коленке склепать себе ассистента для анализа финансовой отчётности с помощью GPT. Как proof-of-concept он загрузил примерно тысячу страниц PDF-файлов из отчётности Tesla за 2020-2022 года. Понятно, что человеку, даже опытному, достаточно тяжело в таком ориентироваться.
Но что если на помощь позвать ассистента, которому можно задать вопрос, а он найдет на него ответ из файлов, ещё и может приложить свою экспертизу?
Вот 40-минутное видео с детальным объяcнением принципа работы, а код весь открыт тут. Очень клёвая идея для петпроекта, ещё бы добавить возможность модели самой задавать вопросы и на них отвечать (aka "чеклист проверки отчётности") - и вообще огнище будет!
На скриншоте - диаграмма пайплайна
Тут один британский
Но что если на помощь позвать ассистента, которому можно задать вопрос, а он найдет на него ответ из файлов, ещё и может приложить свою экспертизу?
Вот 40-минутное видео с детальным объяcнением принципа работы, а код весь открыт тут. Очень клёвая идея для петпроекта, ещё бы добавить возможность модели самой задавать вопросы и на них отвечать (aka "чеклист проверки отчётности") - и вообще огнище будет!
На скриншоте - диаграмма пайплайна
🔥22👍10🤯4👌2
Forwarded from Denis Sexy IT 🤖
Bing Chat постепенно встраивает рекламу в результаты поиска, выглядит так, будто бы эпоха «нативной рекламы» снова вернулась, но уже без участия человека. Хоть бейджик «Ad» ставят, и на том спасибо.
Интересно насколько такая реклама будет дороже для бизнеса
Интересно насколько такая реклама будет дороже для бизнеса
😁21😢7💩4🤔3👏2👌2
Forwarded from Сиолошная
Умный ассистент Siri появился больше 10 лет назад, в 2011. Кажется, что многие тогда думали "ухххх через 10-то лет будет такой умной! Настоящий ИИ!"
Парень с твиттера прикрутил к Siri в Apple Watch вызовы GPT-4. Далее он сказал своим часам, мол, мне надо в репозиторий с моим проектом добавить вот такую кнопку, так и так, можешь помочь?". Дальше происходит магия, и на GitHub появляется пулл-реквест от GPT-шки, с написанным кодом.
Ухххх поскорее бы аналог Джарвиса из "Железного Человека"...
3-минутное видео с демонстрацией: https://fxtwitter.com/i/status/1641204093074145281
Парень с твиттера прикрутил к Siri в Apple Watch вызовы GPT-4. Далее он сказал своим часам, мол, мне надо в репозиторий с моим проектом добавить вот такую кнопку, так и так, можешь помочь?". Дальше происходит магия, и на GitHub появляется пулл-реквест от GPT-шки, с написанным кодом.
Ухххх поскорее бы аналог Джарвиса из "Железного Человека"...
3-минутное видео с демонстрацией: https://fxtwitter.com/i/status/1641204093074145281
🔥27👍11❤🔥2
Forwarded from Сиолошная
Наткнулся на занятную статью "8 вещей, которые надо знать о больших языковых моделях"
Краткое содержание:
1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано в статье про GPT-4: учили 5-7 маленьких моделек с бюджетом 0.1% от финального, а затем по этому делали предсказание для огромной модели. Для общей оценки перплексии и метрик на подвыборке одной конкретной задаче такое предсказание было очень точным.
2. Однако конкретные важные навыки, как правило, возникают непредсказуемо как побочный продукт увеличения затрат на обучение (дольше тренировать, больше данных, больше модель) - практически невозможно предсказать, когда модели начнут выполнять определенные задачи. Подробнее об этом мы писали в статье про историю развития GPT-моделей, которую, надеюсь, многие из вас читали. На картинке - распределение роста качества моделей в разных задачах. В трети маленькие модели ничего не показывают, средние в целом тоже, а большие БАХ! И учатся решать.
3. LLM часто выучивают и используют представления внешнего мира. Тут приводится много примеров, и вот один из них: модели, обученные играть в настольные игры на основе описаний отдельных ходов, никогда не видя изображения игрового поля, выучивают внутренние представления о состоянии доски на каждом ходу.
4. Не существует надежных методов управления поведением LLM. Хотя и был достигнут некоторый прогресс в понимании и смягчении разных проблем (в том числе ChatGPT и GPT-4 с обучением из обратной связи), нет единого мнения о том, сможем ли мы их решить. Растет обеспокоенность, что проблемы alignment'а станут катастрофическими, когда проявятся в более крупных системах будущего.
5. Эксперты пока не могут интерпретировать внутреннюю работу LLM. Yе существует методики, которая позволила бы каким-либо удовлетворительным образом изложить, какие виды знаний, рассуждений или целей использует модель, когда она генерирует какой-либо результат.
6. Качество выполнения задач человеком не является верхней границей для LLM. Хотя они и обучены в первую очередь имитировать поведение человека при написании текста, но всё равно потенциально могут превзойти нас во многих задачах. Так происходит в более узких задачах вроде шахмат или игры в Го.
7. LLM не должны выражать ценности своих создателей или ценности, закодированные в выборке из интернета. Они не должны повторять стереотипы, теории заговора или стремиться оскорбить кого-либо.
8. Оценки способности модели по первым впечатлениям часто вводят в заблуждение. Очень часто нужно додумать правильный промпт, подсказать модели, может, показать примеры - и она начнёт справляться куда лучше. То есть она "умнее", чем кажется на первый взгляд.
Краткое содержание:
1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано в статье про GPT-4: учили 5-7 маленьких моделек с бюджетом 0.1% от финального, а затем по этому делали предсказание для огромной модели. Для общей оценки перплексии и метрик на подвыборке одной конкретной задаче такое предсказание было очень точным.
2. Однако конкретные важные навыки, как правило, возникают непредсказуемо как побочный продукт увеличения затрат на обучение (дольше тренировать, больше данных, больше модель) - практически невозможно предсказать, когда модели начнут выполнять определенные задачи. Подробнее об этом мы писали в статье про историю развития GPT-моделей, которую, надеюсь, многие из вас читали. На картинке - распределение роста качества моделей в разных задачах. В трети маленькие модели ничего не показывают, средние в целом тоже, а большие БАХ! И учатся решать.
3. LLM часто выучивают и используют представления внешнего мира. Тут приводится много примеров, и вот один из них: модели, обученные играть в настольные игры на основе описаний отдельных ходов, никогда не видя изображения игрового поля, выучивают внутренние представления о состоянии доски на каждом ходу.
4. Не существует надежных методов управления поведением LLM. Хотя и был достигнут некоторый прогресс в понимании и смягчении разных проблем (в том числе ChatGPT и GPT-4 с обучением из обратной связи), нет единого мнения о том, сможем ли мы их решить. Растет обеспокоенность, что проблемы alignment'а станут катастрофическими, когда проявятся в более крупных системах будущего.
5. Эксперты пока не могут интерпретировать внутреннюю работу LLM. Yе существует методики, которая позволила бы каким-либо удовлетворительным образом изложить, какие виды знаний, рассуждений или целей использует модель, когда она генерирует какой-либо результат.
6. Качество выполнения задач человеком не является верхней границей для LLM. Хотя они и обучены в первую очередь имитировать поведение человека при написании текста, но всё равно потенциально могут превзойти нас во многих задачах. Так происходит в более узких задачах вроде шахмат или игры в Го.
7. LLM не должны выражать ценности своих создателей или ценности, закодированные в выборке из интернета. Они не должны повторять стереотипы, теории заговора или стремиться оскорбить кого-либо.
8. Оценки способности модели по первым впечатлениям часто вводят в заблуждение. Очень часто нужно додумать правильный промпт, подсказать модели, может, показать примеры - и она начнёт справляться куда лучше. То есть она "умнее", чем кажется на первый взгляд.
👍22❤5
Forwarded from Сиолошная
Сиолошная
Наткнулся на занятную статью "8 вещей, которые надо знать о больших языковых моделях" Краткое содержание: 1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано…
Картинка ко второму пункту.
Если ориентироваться на выборку из 202 задач из датасета BIG-Bench (специально делался сложным, чтобы языковые модели тестировать от и до), то как правило (в среднем) модели демонстрируют повышение качества с увеличением масштаба, но по отдельности метрики в задачах могут:
— улучшаться постепенно
— улучшаться резко
— оставаться на одном уровне
— ухудшаться
— колебаться
Все это приводит к невозможности уверенно экстраполировать производительность какой-либо будущей системы.
Особенно интересна зелёная часть - это как раз где показатели качества резко скачут вверх ни с того, ни с сего.
Если ориентироваться на выборку из 202 задач из датасета BIG-Bench (специально делался сложным, чтобы языковые модели тестировать от и до), то как правило (в среднем) модели демонстрируют повышение качества с увеличением масштаба, но по отдельности метрики в задачах могут:
— улучшаться постепенно
— улучшаться резко
— оставаться на одном уровне
— ухудшаться
— колебаться
Все это приводит к невозможности уверенно экстраполировать производительность какой-либо будущей системы.
Особенно интересна зелёная часть - это как раз где показатели качества резко скачут вверх ни с того, ни с сего.
❤9👍5
Forwarded from nlp_daily
Хабр
ChatGPT на стероидах: возможности плагина-ретривера для семантического поиска
OpenAI добавил поддержку плагинов в ChatGPT, и теперь он может подключаться к сторонним сервисам и искать информацию в сети. А помните, была такая компания Гугл? В этой статье я хотел бы рассказать о...
👍20❤5🔥2
Forwarded from BOGDANISSSIMO
https://youtu.be/KYD2TafoR6I
Ребята из Meta выпустили SAM (Segment Anything Model), первую foundation модель для задач сегментации картинок и видео в режиме реального времени. Foundation – означает, что она, в принципе, даже без дообучения уже отлично решать все задачи своего класса (сегментации). Аналогично, GPT – foundation model для текста.
В принципе, за признаки жизни их Reality Lab* засчитать можно [Reality Lab – лаборатория в Meta, где разрабатываются дополненная реальность и VR].
#llm #gpt #chatgpt #meta #sam #facebook
Ребята из Meta выпустили SAM (Segment Anything Model), первую foundation модель для задач сегментации картинок и видео в режиме реального времени. Foundation – означает, что она, в принципе, даже без дообучения уже отлично решать все задачи своего класса (сегментации). Аналогично, GPT – foundation model для текста.
В принципе, за признаки жизни их Reality Lab* засчитать можно [Reality Lab – лаборатория в Meta, где разрабатываются дополненная реальность и VR].
#llm #gpt #chatgpt #meta #sam #facebook
YouTube
META’S New Insane AI SAM SHOCKS The Entire Industry! (FINALLY ANNOUNCED!)
META’S New Insane AI SAM SHOCKS The Entire Industry! (FINALLY ANNOUNCED!)
Sam - https://segment-anything.com/
Welcome to our channel where we bring you the latest breakthroughs in AI. From deep learning to robotics, we cover it all. Our videos offer valuable…
Sam - https://segment-anything.com/
Welcome to our channel where we bring you the latest breakthroughs in AI. From deep learning to robotics, we cover it all. Our videos offer valuable…
👍12😁1
Forwarded from BOGDANISSSIMO
This media is not supported in your browser
VIEW IN TELEGRAM
Выглядит симпатично.
Рекомендую зайти, поиграться, есть интерактивные Demo.
https://segment-anything.com
Рекомендую зайти, поиграться, есть интерактивные Demo.
https://segment-anything.com
👍7
Forwarded from эйай ньюз
Альтернативные интерфейсы для ChatGPT
Пытался найти сторонний вариант интерфейса для бесед с ChatGPT, так как стал пользоваться им каждый день. Свой интерфейс на LangChain писать лень, поэтому проделал небольшой ресерч и оформил это в развернутый пост.
Итог: нашел класный тул на Rust, который позволяет вызывать ChatGPT из терминала.
Напишите в комментах, если есть какие-то хорошие враперы над ChatGPT, которыми пользуетесь.
Читать пост.
@ai_newz
Пытался найти сторонний вариант интерфейса для бесед с ChatGPT, так как стал пользоваться им каждый день. Свой интерфейс на LangChain писать лень, поэтому проделал небольшой ресерч и оформил это в развернутый пост.
Итог: нашел класный тул на Rust, который позволяет вызывать ChatGPT из терминала.
Напишите в комментах, если есть какие-то хорошие враперы над ChatGPT, которыми пользуетесь.
Читать пост.
@ai_newz
Teletype
Альтернативные интерфейсы для ChatGPT
Вас тоже бесит, что на chat.openai.com нужно каждый день логинитсья заново? В последнее время я всегда держу ChatGPT открытой...
❤1👍1
Forwarded from я обучала одну модель
Невероятно крутая статья, не похожая вообще ни на что, что я до этого видела – Generative Agents: Interactive Simulacra of Human Behavior
https://arxiv.org/pdf/2304.03442.pdf
Если кратко, то игру по типу Симс населили 25 персонажами, каждый со своим описанием личности, со своими воспоминаниями и со своими целями. Все действия персонажей и взаимодействия друг с другом происходили через генерацию LLM. В итоге персонажи очень быстро стали имитировать довольно сложное человеческое поведение – например, вместе организовали вечеринку в честь дня Святого Валентина, раздвали приглашения и назначали свидании. Более того, их действия, согласно оценкам размечиков, были более human, чем поведение людей, которых попросили играть за этих персонажей
У авторов очень прикольная идея с использованием контекста модели: все действия и наблюдения за окружающим миром сохраняются, далее из этой памяти достаются какие-то релевантные воспоминания. Их используют, чтобы генерить следующее действие / реплику в разговоре, и еще для модель просят над ними порефлексировать, чтобы сформулировать более долгосрочные планы. Так что персонаж может в observation, planning, and reflection
Кажется что это вообще бомба для всяких отыгрываний тех или иных агентов в чатах и может быть так будут выглядеть NPC будущего
UPD: забыла приложить также отличное демо – https://reverie.herokuapp.com/arXiv_Demo/
и довольно подробный тред о статье
https://arxiv.org/pdf/2304.03442.pdf
Если кратко, то игру по типу Симс населили 25 персонажами, каждый со своим описанием личности, со своими воспоминаниями и со своими целями. Все действия персонажей и взаимодействия друг с другом происходили через генерацию LLM. В итоге персонажи очень быстро стали имитировать довольно сложное человеческое поведение – например, вместе организовали вечеринку в честь дня Святого Валентина, раздвали приглашения и назначали свидании. Более того, их действия, согласно оценкам размечиков, были более human, чем поведение людей, которых попросили играть за этих персонажей
У авторов очень прикольная идея с использованием контекста модели: все действия и наблюдения за окружающим миром сохраняются, далее из этой памяти достаются какие-то релевантные воспоминания. Их используют, чтобы генерить следующее действие / реплику в разговоре, и еще для модель просят над ними порефлексировать, чтобы сформулировать более долгосрочные планы. Так что персонаж может в observation, planning, and reflection
Кажется что это вообще бомба для всяких отыгрываний тех или иных агентов в чатах и может быть так будут выглядеть NPC будущего
UPD: забыла приложить также отличное демо – https://reverie.herokuapp.com/arXiv_Demo/
и довольно подробный тред о статье
👍34🔥4🤔2