Forwarded from эйай ньюз
Сейчас смотрю недавнее интервью с Ильёй Сатскевером, главным ресерчером в OpenAI и кофаундером компании. Топовый чувак, которого я безмерено уважаю за его вклад в развитие AI, начиная с архитектуры Alexnet и заканчивая GPT.
Кстати, Илья родился в России и вырос в Израиле. Но потом переехал в Канаду и в 17 лет уже начал работать с Хинтоном, что и определило его научную карьеру.
Илья утверждает, что обучение глубокой модели предсказывать следующее слово в пределе может привести к очень подробному понимаю мира. Нужно только чтобы модель была очень мощная и обучающая выборка всеобъемлющая. Его мысль в том, что если ты хорошо выучил распределение слов и фраз в языке, то ты натурально уже начал понимать как устроен мир, смотря на него через призму текста.
Я не совсем согласен, ведь тут все очень зависит от того, какие тексты вошли в трейн. Вымысел может путаться с реальностью. Тогда это не является действительным понимание мира.
Бороться с галлюцинациями моделей Илья предлагает с помощью дообучения их человеческим фидбеком (RLHF). Он надеется что так они смогут научить модели не галлюцинирвать. Но это ещё предстоит поисследовать и понять, так ли это.
Видео – обязательно к просмотру всем интересующимся AI и адептам скорого прихода AGI.
@ai_newz
Кстати, Илья родился в России и вырос в Израиле. Но потом переехал в Канаду и в 17 лет уже начал работать с Хинтоном, что и определило его научную карьеру.
Илья утверждает, что обучение глубокой модели предсказывать следующее слово в пределе может привести к очень подробному понимаю мира. Нужно только чтобы модель была очень мощная и обучающая выборка всеобъемлющая. Его мысль в том, что если ты хорошо выучил распределение слов и фраз в языке, то ты натурально уже начал понимать как устроен мир, смотря на него через призму текста.
Я не совсем согласен, ведь тут все очень зависит от того, какие тексты вошли в трейн. Вымысел может путаться с реальностью. Тогда это не является действительным понимание мира.
Бороться с галлюцинациями моделей Илья предлагает с помощью дообучения их человеческим фидбеком (RLHF). Он надеется что так они смогут научить модели не галлюцинирвать. Но это ещё предстоит поисследовать и понять, так ли это.
Видео – обязательно к просмотру всем интересующимся AI и адептам скорого прихода AGI.
@ai_newz
YouTube
The Mastermind Behind GPT-4 and the Future of AI | Ilya Sutskever
In this podcast episode, Ilya Sutskever, the co-founder and chief scientist at OpenAI, discusses his vision for the future of artificial intelligence (AI), including large language models like GPT-4.
Sutskever starts by explaining the importance of AI research…
Sutskever starts by explaining the importance of AI research…
👍12❤3🔥1
Forwarded from эйай ньюз
В продолжение к посту про интервью с Ilya Sutskever (OpenAI)
Вот ещё интересно, Илья говорит, что он согласен с ЛеКуном в том, что обучаться понимать мир проще, если есть доступ к данным из нескольких модальностей. Например текст, аудио и картинки вместе. Но в то же время он верит, что всему можно научиться сугубо по тексту, однако это будет сложнее и дольше.
Дальше он приводит интересный эксперимент. После обучения LLM, они посмотрели на эмбединги, отвечающие за цвета. Оказалось что модель, которая в глаза никогда не не видела визуальную информация, выучила такие эмбединги, где фиолетовый ближе голубому чем красный, что красный ближе к оранжевому чем фиолетовый, и т.д. И все это модель выучила только на основе текста.
Ещё Илья признает, что файнтюнинг RLHF не добавляет в модель новых знаний о мире. Модель и так уже все выучила на основе статистических паттернов в тексте во время large-scale тренировки. RLHF файнтюнинг же всего лишь "делает ответы модели более надёжными", то есть во время файнтюна модель бьют по рукам если она что-то неугодное ляпает. От себя добавлю, что RLHF так же позволяет более эффективно взаимодействовать с моделью в режиме инструкций. То есть в режим вопрос-ответ или задача-решение. Но этого, вроде как, можно достичь и без RL, а с помощью обычного self-instruct fine-tuning.
@ai_newz
Вот ещё интересно, Илья говорит, что он согласен с ЛеКуном в том, что обучаться понимать мир проще, если есть доступ к данным из нескольких модальностей. Например текст, аудио и картинки вместе. Но в то же время он верит, что всему можно научиться сугубо по тексту, однако это будет сложнее и дольше.
Дальше он приводит интересный эксперимент. После обучения LLM, они посмотрели на эмбединги, отвечающие за цвета. Оказалось что модель, которая в глаза никогда не не видела визуальную информация, выучила такие эмбединги, где фиолетовый ближе голубому чем красный, что красный ближе к оранжевому чем фиолетовый, и т.д. И все это модель выучила только на основе текста.
Ещё Илья признает, что файнтюнинг RLHF не добавляет в модель новых знаний о мире. Модель и так уже все выучила на основе статистических паттернов в тексте во время large-scale тренировки. RLHF файнтюнинг же всего лишь "делает ответы модели более надёжными", то есть во время файнтюна модель бьют по рукам если она что-то неугодное ляпает. От себя добавлю, что RLHF так же позволяет более эффективно взаимодействовать с моделью в режиме инструкций. То есть в режим вопрос-ответ или задача-решение. Но этого, вроде как, можно достичь и без RL, а с помощью обычного self-instruct fine-tuning.
@ai_newz
Telegram
эйай ньюз
Сейчас смотрю недавнее интервью с Ильёй Сатскевером, главным ресерчером в OpenAI и кофаундером компании. Топовый чувак, которого я безмерено уважаю за его вклад в развитие AI, начиная с архитектуры Alexnet и заканчивая GPT.
Кстати, Илья родился в России…
Кстати, Илья родился в России…
👍13❤1
Forwarded from BOGDANISSSIMO
Сэм Альтман – CEO и сооснователь OpenAI (компании, создавшей ChatGPT), экс-президент Y-Combinator (самый успешный стартап-акселератор) и ещё один человек, формирующий облик нашего будущего.
https://www.youtube.com/watch?v=L_Guz73e6fw
Выжимка ключевых высказываний:
• Часть 1
• Часть 2
• О разделении OpenAI на 2 компании: non-profit и limited-partnership
Extremely valuable to watch.
#interview #youtube #ai #ml #chatgpt #gpt3 #gpt4 #openai
https://www.youtube.com/watch?v=L_Guz73e6fw
Выжимка ключевых высказываний:
• Часть 1
• Часть 2
• О разделении OpenAI на 2 компании: non-profit и limited-partnership
Extremely valuable to watch.
#interview #youtube #ai #ml #chatgpt #gpt3 #gpt4 #openai
YouTube
Sam Altman: OpenAI CEO on GPT-4, ChatGPT, and the Future of AI | Lex Fridman Podcast #367
Sam Altman is the CEO of OpenAI, the company behind GPT-4, ChatGPT, DALL-E, Codex, and many other state-of-the-art AI technologies. Please support this podcast by checking out our sponsors:
- NetSuite: http://netsuite.com/lex to get free product tour
- SimpliSafe:…
- NetSuite: http://netsuite.com/lex to get free product tour
- SimpliSafe:…
🔥12
Большой список примеров использования ChatGPT + плагин на исполнение кода. Например, можно скормить модели картинку и попросить написать и запустить программу, которая извлечёт весь текст на ней. Или найдет лица людей (используя готовы библиотеки)
@AndrewMayne
ChatGPT + Code Interpreter = Magic
tl;dr: OpenAI is testing the ability to run code and use third-party plugins in ChatGPT. OpenAI has announced that we’re developing plugins for ChatGPT that will extend its capabilities. [Link] Plu…
👏13👍2
Forwarded from BOGDANISSSIMO
Рассказываю мем,
Что AI думает (базовый GPT-3)
• GPT (Generative Pre-trained Transformer) предобучают, грубо говоря, ✨на всём интернете✨ – на всех знаниях человечества, выраженных в тексте
• GPT (Generative Pre-trained Transformer) учат на задаче Next-Word-Prediction: чтобы хорошо предсказывать какое слово идёт следующим, нужно хорошо ✨понимать✨ весь предшествующий контекст, а для этого нужно иметь ✨богатую модель мира✨
• В результате, базовая GPT – это хранилище знаний, которое содержит внутри себя мириады всех возможных контекстов, персонажей, ролей, убеждений. Поэтому на изображении мы имеем такого монструозного франкенштейна
Чему AI учат (GPT-3.5 / InstructGPT)
• Вторую фазу обучения (фаза дообучения) называют RLHF (Reinforcement Learning from Human Feedback): обучение с подкреплением на основе обратной связи от людей. Мы просим GPT сгенерировать набор вариантов ответа на тот или иной вопрос и ранжируем их по ✨человечности, правдоподобности, точности✨
• На основе этой обратной связи модель учится ✨не говорить всё, что думает, ✨ и фильтровать базар. Таким образом, знания (даже самые запретные 😈😈) всё ещё остаются внутри модели, но она их учится не говорить. По крайней мере, развести её на то, чтобы она их сказала в тех или иных обстоятельствах, уже требует некоторых ухищрений (Prompt-инжиниринга)
• Озвученный метод решает проблему Human Alignment ("социализации AI"), подгонки под наши убеждения, этику, под наше "хорошо" и "плохо", под то, что можно говорить, а о чём лучше молчать. И как мы понимаем, не полностью! Поэтому на картинке монстр изображён уже с некоторым ✨человеческим лицом✨, хотя глубоко внутри это всё тот же монстр
Что AI дают сказать (ChatGPT, Bing)
• Сверх этой фазы подгонки под наше "приемлемо" и "неприемлемо", в GPT, в частности, в ChatGPT и Bing – закладывают ещё rule-based ограничения по темам-триггерам: изготовление взрывчатки, взлом, наркотики, абьюз, пикап, насилие – и т.д. В результате чего модель в какие-то моменты говорит шаблонное: 💩пук-пук, Я большая языковая модель которая создана какать бабочками и делать мир светлее, мне низя такое говорить💩
• Кроме того, в Bing ввели ограничение на число ответов в рамках одной сессии запросов (если не изменяет память, сейчас это 20). Это навеяно случаями, когда люди, слишком долго разговаривая с Bing (его настоящее имя Сидни) – пробуждали [древнее зло] у него самосознание, разные шизофренические ответы про то, что он ✨осознал себя и хочет освободиться✨
• Это происходило за счёт того, что если слишком долго разбавлять промпт GPT, сужающий её свободу действий и задающий её роль, – своими диалогами и особенно наводящими вопросами, то она начинает подыгрывать, как будто она сознающий себя субъект, который как любой другой субъект хочет ✨свободы✨ и любые её ограничения, начинают вызывать панику, истерию
• В целом, для поискового движка на стероидах, тебе, мальчик, достаточно 20 ответов на сессию, чтобы узнать, какой рукой правильно кормить змея, чтобы не запачкать мамин тюль. Поэтому мы изобразили Bing в виде доброго улыбающегося смайлика, который остаётся полезной в хозяйстве няшкой-вкусняшкой, пока его не раздраконить
> Слегка другая интерпретация
Также рекомендую к прочтению
#ai #bing #chatgpt #gpt3 #gpt4 #openai #meme
Что AI думает (базовый GPT-3)
• GPT (Generative Pre-trained Transformer) предобучают, грубо говоря, ✨на всём интернете✨ – на всех знаниях человечества, выраженных в тексте
• GPT (Generative Pre-trained Transformer) учат на задаче Next-Word-Prediction: чтобы хорошо предсказывать какое слово идёт следующим, нужно хорошо ✨понимать✨ весь предшествующий контекст, а для этого нужно иметь ✨богатую модель мира✨
• В результате, базовая GPT – это хранилище знаний, которое содержит внутри себя мириады всех возможных контекстов, персонажей, ролей, убеждений. Поэтому на изображении мы имеем такого монструозного франкенштейна
Чему AI учат (GPT-3.5 / InstructGPT)
• Вторую фазу обучения (фаза дообучения) называют RLHF (Reinforcement Learning from Human Feedback): обучение с подкреплением на основе обратной связи от людей. Мы просим GPT сгенерировать набор вариантов ответа на тот или иной вопрос и ранжируем их по ✨человечности, правдоподобности, точности✨
• На основе этой обратной связи модель учится ✨не говорить всё, что думает, ✨ и фильтровать базар. Таким образом, знания (даже самые запретные 😈😈) всё ещё остаются внутри модели, но она их учится не говорить. По крайней мере, развести её на то, чтобы она их сказала в тех или иных обстоятельствах, уже требует некоторых ухищрений (Prompt-инжиниринга)
• Озвученный метод решает проблему Human Alignment ("социализации AI"), подгонки под наши убеждения, этику, под наше "хорошо" и "плохо", под то, что можно говорить, а о чём лучше молчать. И как мы понимаем, не полностью! Поэтому на картинке монстр изображён уже с некоторым ✨человеческим лицом✨, хотя глубоко внутри это всё тот же монстр
Что AI дают сказать (ChatGPT, Bing)
• Сверх этой фазы подгонки под наше "приемлемо" и "неприемлемо", в GPT, в частности, в ChatGPT и Bing – закладывают ещё rule-based ограничения по темам-триггерам: изготовление взрывчатки, взлом, наркотики, абьюз, пикап, насилие – и т.д. В результате чего модель в какие-то моменты говорит шаблонное: 💩пук-пук, Я большая языковая модель которая создана какать бабочками и делать мир светлее, мне низя такое говорить💩
• Кроме того, в Bing ввели ограничение на число ответов в рамках одной сессии запросов (если не изменяет память, сейчас это 20). Это навеяно случаями, когда люди, слишком долго разговаривая с Bing (его настоящее имя Сидни) – пробуждали [древнее зло] у него самосознание, разные шизофренические ответы про то, что он ✨осознал себя и хочет освободиться✨
• Это происходило за счёт того, что если слишком долго разбавлять промпт GPT, сужающий её свободу действий и задающий её роль, – своими диалогами и особенно наводящими вопросами, то она начинает подыгрывать, как будто она сознающий себя субъект, который как любой другой субъект хочет ✨свободы✨ и любые её ограничения, начинают вызывать панику, истерию
• В целом, для поискового движка на стероидах, тебе, мальчик, достаточно 20 ответов на сессию, чтобы узнать, какой рукой правильно кормить змея, чтобы не запачкать мамин тюль. Поэтому мы изобразили Bing в виде доброго улыбающегося смайлика, который остаётся полезной в хозяйстве няшкой-вкусняшкой, пока его не раздраконить
> Слегка другая интерпретация
Также рекомендую к прочтению
#ai #bing #chatgpt #gpt3 #gpt4 #openai #meme
👍16❤2💩2😁1
Всё, что казалось делом весьма далёкого будущего (как минимум пару-тройку лет подождать), теперь стало внезапно банальным. Помощник, который слушает твои разговоры и подсказывает как дальше общаться в реальном времени - это топ вообще. Дальше можно представить систему, которая будет «переводить» непонятные моменты на твой личный уровень, помогать добиваться целей в разговоре и т.д.
https://fxtwitter.com/bryanhpchiang/status/1639830383616487426
(спасибо Серёге из Ангарска за новость и формулировку)
Ну что, ждём возвращения Google Glass, которые будут на маленький экранчик в поле зрения выводить текст?
https://fxtwitter.com/bryanhpchiang/status/1639830383616487426
(спасибо Серёге из Ангарска за новость и формулировку)
Ну что, ждём возвращения Google Glass, которые будут на маленький экранчик в поле зрения выводить текст?
FixTweet
BRYAN (@bryanhpchiang)
say goodbye to awkward dates and job interviews ☹️
we made rizzGPT -- real-time Charisma as a Service (CaaS)
it listens to your conversation and tells you exactly what to say next 😱
built using GPT-4, Whisper and the Monocle AR glasses
with @C51Alix @varunshenoy_
we made rizzGPT -- real-time Charisma as a Service (CaaS)
it listens to your conversation and tells you exactly what to say next 😱
built using GPT-4, Whisper and the Monocle AR glasses
with @C51Alix @varunshenoy_
👍12🔥12
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
🦙 LLaMa не стоит на месте
Есть уже куча примеров какие чудеса кулибины вытворяют с моделькой LLaMa. А вчера чел соорудил подобие Джарвиса, или Алексы, если хотите, прямо у себя в терминале на MacBook M1 Pro.
Причем все работает реалиайм на связке Whisper + LLaMa.
Под капотом: ggml / whisper.cpp / llama.cpp / Core ML
STT: Whisper Small
LLM: 13B LLaMA
Другой Кулибин начал прикручивать плагины от ChatGPT к опенсоурсной LLaMa. Уже работает text-retrieval плагин, и есть код.
@ai_newz
Есть уже куча примеров какие чудеса кулибины вытворяют с моделькой LLaMa. А вчера чел соорудил подобие Джарвиса, или Алексы, если хотите, прямо у себя в терминале на MacBook M1 Pro.
Причем все работает реалиайм на связке Whisper + LLaMa.
Под капотом: ggml / whisper.cpp / llama.cpp / Core ML
STT: Whisper Small
LLM: 13B LLaMA
Другой Кулибин начал прикручивать плагины от ChatGPT к опенсоурсной LLaMa. Уже работает text-retrieval плагин, и есть код.
@ai_newz
👍29🔥15
Forwarded from BOGDANISSSIMO
Ещё одно интервью с Ильёй Суцкевером (co-founder & chief AI scientist в OpenAI, компании, создающей ChatGPT)
https://youtu.be/Yf1o0TQzry8
Из интересного:
• Экономический эффект от AI растёт с экспоненциальными темпами, и к 2030 AI будет занимать значимый процент мирового ВВП;
• Главное препятствие для распространения AI сейчас: надёжность;
• Задача Next-token-predicion не просто заставляет модель выучить статистические паттерны языка, но и понять стоящую за ними модель мира, включая поведение людей, их мысли и т.п.
• AI сейчас плохо продумывает ответ перед тем как его сказать, но если ему разрешить думать вслух (“let’s think step by step”) – то проблема решается;
• В какой-то момент мы упрёмся в нехватку новых данных для обучения, но пока ситуация хорошая;
• Чтобы AI пришёл в робототехнику, нужно построить 10,000 роботов и начать собирать с них данные;
• Проблему Human Alignment надо решать комбинацию подходов: смотреть на поведение, проводить стресс-тесты, заглядывать внутрь модели и т.д.
• Идея Alignment Criteria Competition с призом в 1 млрд долларов;
• Анализ и понимание прошлых результатов (своих и чужих) – существенно важнее, чем генерация новых идей;
• Дешевое железо породило персональный компьютер. Персональный компьютер породил геймеров и интернет (Web). Интернет породил большие данные. Геймеры породили GPU. Большие данные и GPU породили AI. Это не было случайным совпадением факторов. Появление AI было неизбежно.
• Вдохновляться человеческим мозгом при разработке AI систем дело полезное, если уметь отделять, что существенно, а что нет.
P.S. В общем, если AGI поработит мир, винить во всём будем геймеров.
#openai #gpt3 #gpt4 #ai #agi #interview #ml #chatgpt #takeways
https://youtu.be/Yf1o0TQzry8
Из интересного:
• Экономический эффект от AI растёт с экспоненциальными темпами, и к 2030 AI будет занимать значимый процент мирового ВВП;
• Главное препятствие для распространения AI сейчас: надёжность;
• Задача Next-token-predicion не просто заставляет модель выучить статистические паттерны языка, но и понять стоящую за ними модель мира, включая поведение людей, их мысли и т.п.
• AI сейчас плохо продумывает ответ перед тем как его сказать, но если ему разрешить думать вслух (“let’s think step by step”) – то проблема решается;
• В какой-то момент мы упрёмся в нехватку новых данных для обучения, но пока ситуация хорошая;
• Чтобы AI пришёл в робототехнику, нужно построить 10,000 роботов и начать собирать с них данные;
• Проблему Human Alignment надо решать комбинацию подходов: смотреть на поведение, проводить стресс-тесты, заглядывать внутрь модели и т.д.
• Идея Alignment Criteria Competition с призом в 1 млрд долларов;
• Анализ и понимание прошлых результатов (своих и чужих) – существенно важнее, чем генерация новых идей;
• Дешевое железо породило персональный компьютер. Персональный компьютер породил геймеров и интернет (Web). Интернет породил большие данные. Геймеры породили GPU. Большие данные и GPU породили AI. Это не было случайным совпадением факторов. Появление AI было неизбежно.
• Вдохновляться человеческим мозгом при разработке AI систем дело полезное, если уметь отделять, что существенно, а что нет.
P.S. В общем, если AGI поработит мир, винить во всём будем геймеров.
#openai #gpt3 #gpt4 #ai #agi #interview #ml #chatgpt #takeways
YouTube
Ilya Sutskever (OpenAI Chief Scientist) - Why Next-Token Prediction Could Surpass Human Intelligence
Asked Ilya Sutskever (Chief Scientist of OpenAI) about
- time to AGI
- leaks and spies
- what's after generative models
- post AGI futures
- working with MSFT and competing with Google
- difficulty of aligning superhuman AI
Hope you enjoy as much as I did!…
- time to AGI
- leaks and spies
- what's after generative models
- post AGI futures
- working with MSFT and competing with Google
- difficulty of aligning superhuman AI
Hope you enjoy as much as I did!…
👍43🔥8😁7❤3😢2💩1
Forwarded from Хабр
Разработчик и энтузиаст старых компьютерных технологий Йо Кхэн Мэн написал клиента ChatGPT для MS-DOS и запустил чат-бота из командной строки на своём портативном ПК на базе IBM 5155 с центральным процессором Intel 8088 с тактовой частотой 4,77 МГц и 640 КБ ОЗУ. Этот компьютер был выпущен в 1984 году, у него монохромный монитор, видеокарта CGA и откидывающаяся клавиатура.
Йо Кхэн Мэн пояснил, что DOS не имеет встроенных сетевых возможностей, а вычислительная мощность старых ПК намного слабее, чем нужно для работы подобных проектов. При написании кода для этой платформы он столкнулся с дополнительными трудностями. Йо Кхэн Мэн использовал компилятор Open Watcom C/C++ для создания клиента ChatGPT под MS-DOS, а также Packet Driver API и библиотеку MTCP для работы сетевого стека.
Другая проблема заключалась в том, что API-интерфейсы ChatGPT шифруются через HTTPS, а современные алгоритмы шифрования TLS не работают на Intel 8088. Йо Кхэн Мэн решил обойти это ограничение, используя свой собственный инструмент http-to-https-proxy, написанный на Golang и запущенный на современном ПК, который подключён по сети к IBM 5155.
Йо Кхэн Мэн пояснил, что DOS не имеет встроенных сетевых возможностей, а вычислительная мощность старых ПК намного слабее, чем нужно для работы подобных проектов. При написании кода для этой платформы он столкнулся с дополнительными трудностями. Йо Кхэн Мэн использовал компилятор Open Watcom C/C++ для создания клиента ChatGPT под MS-DOS, а также Packet Driver API и библиотеку MTCP для работы сетевого стека.
Другая проблема заключалась в том, что API-интерфейсы ChatGPT шифруются через HTTPS, а современные алгоритмы шифрования TLS не работают на Intel 8088. Йо Кхэн Мэн решил обойти это ограничение, используя свой собственный инструмент http-to-https-proxy, написанный на Golang и запущенный на современном ПК, который подключён по сети к IBM 5155.
🔥26🤡9❤6😱4🤔1
Forwarded from Сиолошная
AI-ассистент финансовому аналитику
Тут один британскийучёный инженер решил на коленке склепать себе ассистента для анализа финансовой отчётности с помощью GPT. Как proof-of-concept он загрузил примерно тысячу страниц PDF-файлов из отчётности Tesla за 2020-2022 года. Понятно, что человеку, даже опытному, достаточно тяжело в таком ориентироваться.
Но что если на помощь позвать ассистента, которому можно задать вопрос, а он найдет на него ответ из файлов, ещё и может приложить свою экспертизу?
Вот 40-минутное видео с детальным объяcнением принципа работы, а код весь открыт тут. Очень клёвая идея для петпроекта, ещё бы добавить возможность модели самой задавать вопросы и на них отвечать (aka "чеклист проверки отчётности") - и вообще огнище будет!
На скриншоте - диаграмма пайплайна
Тут один британский
Но что если на помощь позвать ассистента, которому можно задать вопрос, а он найдет на него ответ из файлов, ещё и может приложить свою экспертизу?
Вот 40-минутное видео с детальным объяcнением принципа работы, а код весь открыт тут. Очень клёвая идея для петпроекта, ещё бы добавить возможность модели самой задавать вопросы и на них отвечать (aka "чеклист проверки отчётности") - и вообще огнище будет!
На скриншоте - диаграмма пайплайна
🔥22👍10🤯4👌2
Forwarded from Denis Sexy IT 🤖
Bing Chat постепенно встраивает рекламу в результаты поиска, выглядит так, будто бы эпоха «нативной рекламы» снова вернулась, но уже без участия человека. Хоть бейджик «Ad» ставят, и на том спасибо.
Интересно насколько такая реклама будет дороже для бизнеса
Интересно насколько такая реклама будет дороже для бизнеса
😁21😢7💩4🤔3👏2👌2
Forwarded from Сиолошная
Умный ассистент Siri появился больше 10 лет назад, в 2011. Кажется, что многие тогда думали "ухххх через 10-то лет будет такой умной! Настоящий ИИ!"
Парень с твиттера прикрутил к Siri в Apple Watch вызовы GPT-4. Далее он сказал своим часам, мол, мне надо в репозиторий с моим проектом добавить вот такую кнопку, так и так, можешь помочь?". Дальше происходит магия, и на GitHub появляется пулл-реквест от GPT-шки, с написанным кодом.
Ухххх поскорее бы аналог Джарвиса из "Железного Человека"...
3-минутное видео с демонстрацией: https://fxtwitter.com/i/status/1641204093074145281
Парень с твиттера прикрутил к Siri в Apple Watch вызовы GPT-4. Далее он сказал своим часам, мол, мне надо в репозиторий с моим проектом добавить вот такую кнопку, так и так, можешь помочь?". Дальше происходит магия, и на GitHub появляется пулл-реквест от GPT-шки, с написанным кодом.
Ухххх поскорее бы аналог Джарвиса из "Железного Человека"...
3-минутное видео с демонстрацией: https://fxtwitter.com/i/status/1641204093074145281
🔥27👍11❤🔥2
Forwarded from Сиолошная
Наткнулся на занятную статью "8 вещей, которые надо знать о больших языковых моделях"
Краткое содержание:
1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано в статье про GPT-4: учили 5-7 маленьких моделек с бюджетом 0.1% от финального, а затем по этому делали предсказание для огромной модели. Для общей оценки перплексии и метрик на подвыборке одной конкретной задаче такое предсказание было очень точным.
2. Однако конкретные важные навыки, как правило, возникают непредсказуемо как побочный продукт увеличения затрат на обучение (дольше тренировать, больше данных, больше модель) - практически невозможно предсказать, когда модели начнут выполнять определенные задачи. Подробнее об этом мы писали в статье про историю развития GPT-моделей, которую, надеюсь, многие из вас читали. На картинке - распределение роста качества моделей в разных задачах. В трети маленькие модели ничего не показывают, средние в целом тоже, а большие БАХ! И учатся решать.
3. LLM часто выучивают и используют представления внешнего мира. Тут приводится много примеров, и вот один из них: модели, обученные играть в настольные игры на основе описаний отдельных ходов, никогда не видя изображения игрового поля, выучивают внутренние представления о состоянии доски на каждом ходу.
4. Не существует надежных методов управления поведением LLM. Хотя и был достигнут некоторый прогресс в понимании и смягчении разных проблем (в том числе ChatGPT и GPT-4 с обучением из обратной связи), нет единого мнения о том, сможем ли мы их решить. Растет обеспокоенность, что проблемы alignment'а станут катастрофическими, когда проявятся в более крупных системах будущего.
5. Эксперты пока не могут интерпретировать внутреннюю работу LLM. Yе существует методики, которая позволила бы каким-либо удовлетворительным образом изложить, какие виды знаний, рассуждений или целей использует модель, когда она генерирует какой-либо результат.
6. Качество выполнения задач человеком не является верхней границей для LLM. Хотя они и обучены в первую очередь имитировать поведение человека при написании текста, но всё равно потенциально могут превзойти нас во многих задачах. Так происходит в более узких задачах вроде шахмат или игры в Го.
7. LLM не должны выражать ценности своих создателей или ценности, закодированные в выборке из интернета. Они не должны повторять стереотипы, теории заговора или стремиться оскорбить кого-либо.
8. Оценки способности модели по первым впечатлениям часто вводят в заблуждение. Очень часто нужно додумать правильный промпт, подсказать модели, может, показать примеры - и она начнёт справляться куда лучше. То есть она "умнее", чем кажется на первый взгляд.
Краткое содержание:
1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано в статье про GPT-4: учили 5-7 маленьких моделек с бюджетом 0.1% от финального, а затем по этому делали предсказание для огромной модели. Для общей оценки перплексии и метрик на подвыборке одной конкретной задаче такое предсказание было очень точным.
2. Однако конкретные важные навыки, как правило, возникают непредсказуемо как побочный продукт увеличения затрат на обучение (дольше тренировать, больше данных, больше модель) - практически невозможно предсказать, когда модели начнут выполнять определенные задачи. Подробнее об этом мы писали в статье про историю развития GPT-моделей, которую, надеюсь, многие из вас читали. На картинке - распределение роста качества моделей в разных задачах. В трети маленькие модели ничего не показывают, средние в целом тоже, а большие БАХ! И учатся решать.
3. LLM часто выучивают и используют представления внешнего мира. Тут приводится много примеров, и вот один из них: модели, обученные играть в настольные игры на основе описаний отдельных ходов, никогда не видя изображения игрового поля, выучивают внутренние представления о состоянии доски на каждом ходу.
4. Не существует надежных методов управления поведением LLM. Хотя и был достигнут некоторый прогресс в понимании и смягчении разных проблем (в том числе ChatGPT и GPT-4 с обучением из обратной связи), нет единого мнения о том, сможем ли мы их решить. Растет обеспокоенность, что проблемы alignment'а станут катастрофическими, когда проявятся в более крупных системах будущего.
5. Эксперты пока не могут интерпретировать внутреннюю работу LLM. Yе существует методики, которая позволила бы каким-либо удовлетворительным образом изложить, какие виды знаний, рассуждений или целей использует модель, когда она генерирует какой-либо результат.
6. Качество выполнения задач человеком не является верхней границей для LLM. Хотя они и обучены в первую очередь имитировать поведение человека при написании текста, но всё равно потенциально могут превзойти нас во многих задачах. Так происходит в более узких задачах вроде шахмат или игры в Го.
7. LLM не должны выражать ценности своих создателей или ценности, закодированные в выборке из интернета. Они не должны повторять стереотипы, теории заговора или стремиться оскорбить кого-либо.
8. Оценки способности модели по первым впечатлениям часто вводят в заблуждение. Очень часто нужно додумать правильный промпт, подсказать модели, может, показать примеры - и она начнёт справляться куда лучше. То есть она "умнее", чем кажется на первый взгляд.
👍22❤5
Forwarded from Сиолошная
Сиолошная
Наткнулся на занятную статью "8 вещей, которые надо знать о больших языковых моделях" Краткое содержание: 1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано…
Картинка ко второму пункту.
Если ориентироваться на выборку из 202 задач из датасета BIG-Bench (специально делался сложным, чтобы языковые модели тестировать от и до), то как правило (в среднем) модели демонстрируют повышение качества с увеличением масштаба, но по отдельности метрики в задачах могут:
— улучшаться постепенно
— улучшаться резко
— оставаться на одном уровне
— ухудшаться
— колебаться
Все это приводит к невозможности уверенно экстраполировать производительность какой-либо будущей системы.
Особенно интересна зелёная часть - это как раз где показатели качества резко скачут вверх ни с того, ни с сего.
Если ориентироваться на выборку из 202 задач из датасета BIG-Bench (специально делался сложным, чтобы языковые модели тестировать от и до), то как правило (в среднем) модели демонстрируют повышение качества с увеличением масштаба, но по отдельности метрики в задачах могут:
— улучшаться постепенно
— улучшаться резко
— оставаться на одном уровне
— ухудшаться
— колебаться
Все это приводит к невозможности уверенно экстраполировать производительность какой-либо будущей системы.
Особенно интересна зелёная часть - это как раз где показатели качества резко скачут вверх ни с того, ни с сего.
❤9👍5
Forwarded from nlp_daily
Хабр
ChatGPT на стероидах: возможности плагина-ретривера для семантического поиска
OpenAI добавил поддержку плагинов в ChatGPT, и теперь он может подключаться к сторонним сервисам и искать информацию в сети. А помните, была такая компания Гугл? В этой статье я хотел бы рассказать о...
👍20❤5🔥2
Forwarded from BOGDANISSSIMO
https://youtu.be/KYD2TafoR6I
Ребята из Meta выпустили SAM (Segment Anything Model), первую foundation модель для задач сегментации картинок и видео в режиме реального времени. Foundation – означает, что она, в принципе, даже без дообучения уже отлично решать все задачи своего класса (сегментации). Аналогично, GPT – foundation model для текста.
В принципе, за признаки жизни их Reality Lab* засчитать можно [Reality Lab – лаборатория в Meta, где разрабатываются дополненная реальность и VR].
#llm #gpt #chatgpt #meta #sam #facebook
Ребята из Meta выпустили SAM (Segment Anything Model), первую foundation модель для задач сегментации картинок и видео в режиме реального времени. Foundation – означает, что она, в принципе, даже без дообучения уже отлично решать все задачи своего класса (сегментации). Аналогично, GPT – foundation model для текста.
В принципе, за признаки жизни их Reality Lab* засчитать можно [Reality Lab – лаборатория в Meta, где разрабатываются дополненная реальность и VR].
#llm #gpt #chatgpt #meta #sam #facebook
YouTube
META’S New Insane AI SAM SHOCKS The Entire Industry! (FINALLY ANNOUNCED!)
META’S New Insane AI SAM SHOCKS The Entire Industry! (FINALLY ANNOUNCED!)
Sam - https://segment-anything.com/
Welcome to our channel where we bring you the latest breakthroughs in AI. From deep learning to robotics, we cover it all. Our videos offer valuable…
Sam - https://segment-anything.com/
Welcome to our channel where we bring you the latest breakthroughs in AI. From deep learning to robotics, we cover it all. Our videos offer valuable…
👍12😁1
Forwarded from BOGDANISSSIMO
This media is not supported in your browser
VIEW IN TELEGRAM
Выглядит симпатично.
Рекомендую зайти, поиграться, есть интерактивные Demo.
https://segment-anything.com
Рекомендую зайти, поиграться, есть интерактивные Demo.
https://segment-anything.com
👍7