Forwarded from BOGDANISSSIMO
Ilya Sutskever – сооснователь OpenAI, ведущий исследователь в области AI, создатель ChatGPT и просто человек, формирующий наше будущее.
https://youtu.be/SjhIlw3Iffs
Из интересного:
• Next thing prediction is all you need. Ещё недавно все носились с идеей, что обучение без учителя – Грааль машинного обучения, а сегодня задача решена полностью, и об этом никто даже не говорит.
• Наши представления о границах больших языковых моделей меняются из года в год, и мы забываем, насколько сильно.
• Большие языковые модели уже понимают весь мир и все процессы в нём, и отдельная задача: как достать из эти знания из них.
• Подавать картинки на вход модели (делать её мультимодальной, как GPT-4) – помогает быстрее понять отдельные концепты, но не необходимо.
• Предстоящие вызовы: как учить модели понимать всё больше, используя всё меньше данных?
• Будущая роль ИИ в принятии политических и экономических решений. Люди будут голосовать не за партии, а за алгоритмы.
Extremely valuable to watch.
#interview #youtube #ai #ml #chatgpt #gpt3 #gpt4 #openai
https://youtu.be/SjhIlw3Iffs
Из интересного:
• Next thing prediction is all you need. Ещё недавно все носились с идеей, что обучение без учителя – Грааль машинного обучения, а сегодня задача решена полностью, и об этом никто даже не говорит.
• Наши представления о границах больших языковых моделей меняются из года в год, и мы забываем, насколько сильно.
• Большие языковые модели уже понимают весь мир и все процессы в нём, и отдельная задача: как достать из эти знания из них.
• Подавать картинки на вход модели (делать её мультимодальной, как GPT-4) – помогает быстрее понять отдельные концепты, но не необходимо.
• Предстоящие вызовы: как учить модели понимать всё больше, используя всё меньше данных?
• Будущая роль ИИ в принятии политических и экономических решений. Люди будут голосовать не за партии, а за алгоритмы.
Extremely valuable to watch.
#interview #youtube #ai #ml #chatgpt #gpt3 #gpt4 #openai
YouTube
The Mastermind Behind GPT-4 and the Future of AI | Ilya Sutskever
In this podcast episode, Ilya Sutskever, the co-founder and chief scientist at OpenAI, discusses his vision for the future of artificial intelligence (AI), including large language models like GPT-4.
Sutskever starts by explaining the importance of AI research…
Sutskever starts by explaining the importance of AI research…
👍7
Forwarded from BOGDANISSSIMO
But may be we are now reaching a point where the language of psychology is starting to be an appropriate to understand the behavior of the neural networks.
– Ilya Sutskever
Наткнулся на любопытный видео-разбор одной свежей статьи (март 2023) Theory of Mind May Have Spontaneously Emerged in Large Language Models, поднимающей наш любимый вопрос: как мы узнаем, обладает ли ИИ сознанием? как мы понимаем, что сознание есть у нас? а как – что у другого человека? У нас нет хорошей теории сознания.
Парадокс в том, что все тесты на наличие сознания, которые у нас есть (включая тесты на мышление и внутреннюю картину мира) – GPT-4 проходит их все очень убедительно (напомню, что она опубликована 14 марта и доступна в платной версии ChatGPT, а также бесплатно в поисковике Bing, но по заявке).
К слову, на вопрос, "обладает ли уже GPT сознанием?" ответ разнится даже у создателей ChatGPT: от "definitely not" (Sam Altman) – до "slightly conscious" (Ilya Sutskever).
Сам видео-разбор:
https://www.youtube.com/watch?v=4MGCQOAxgv4
В качестве интерактива, вспомним диалог из к/ф "Превосходство":
– Докажешь, что у тебя есть самосознание?
– А у Вас оно есть?
Как Вы понимаете, что сознание есть у Вас?
#ai #psychology #theoryofmind #gpt3 #gpt4 #chatgpt #openai
– Ilya Sutskever
Наткнулся на любопытный видео-разбор одной свежей статьи (март 2023) Theory of Mind May Have Spontaneously Emerged in Large Language Models, поднимающей наш любимый вопрос: как мы узнаем, обладает ли ИИ сознанием? как мы понимаем, что сознание есть у нас? а как – что у другого человека? У нас нет хорошей теории сознания.
Парадокс в том, что все тесты на наличие сознания, которые у нас есть (включая тесты на мышление и внутреннюю картину мира) – GPT-4 проходит их все очень убедительно (напомню, что она опубликована 14 марта и доступна в платной версии ChatGPT, а также бесплатно в поисковике Bing, но по заявке).
К слову, на вопрос, "обладает ли уже GPT сознанием?" ответ разнится даже у создателей ChatGPT: от "definitely not" (Sam Altman) – до "slightly conscious" (Ilya Sutskever).
Сам видео-разбор:
https://www.youtube.com/watch?v=4MGCQOAxgv4
В качестве интерактива, вспомним диалог из к/ф "Превосходство":
– Докажешь, что у тебя есть самосознание?
– А у Вас оно есть?
Как Вы понимаете, что сознание есть у Вас?
#ai #psychology #theoryofmind #gpt3 #gpt4 #chatgpt #openai
YouTube
Theory of Mind Breakthrough: AI Consciousness & Disagreements at OpenAI [GPT 4 Tested]
What does the Theory of Mind breakthrough discovered in GPT 4 mean for the future of our interactions with language models? How might this complicate our ability to test for AI consciousness? I show the weaknesses of a range of tests of consciousness, and…
Forwarded from BOGDANISSSIMO
Сэм Альтман – CEO и сооснователь OpenAI (компании, создавшей ChatGPT), экс-президент Y-Combinator (самый успешный стартап-акселератор) и ещё один человек, формирующий облик нашего будущего.
https://www.youtube.com/watch?v=L_Guz73e6fw
Выжимка ключевых высказываний:
• Часть 1
• Часть 2
• О разделении OpenAI на 2 компании: non-profit и limited-partnership
Extremely valuable to watch.
#interview #youtube #ai #ml #chatgpt #gpt3 #gpt4 #openai
https://www.youtube.com/watch?v=L_Guz73e6fw
Выжимка ключевых высказываний:
• Часть 1
• Часть 2
• О разделении OpenAI на 2 компании: non-profit и limited-partnership
Extremely valuable to watch.
#interview #youtube #ai #ml #chatgpt #gpt3 #gpt4 #openai
YouTube
Sam Altman: OpenAI CEO on GPT-4, ChatGPT, and the Future of AI | Lex Fridman Podcast #367
Sam Altman is the CEO of OpenAI, the company behind GPT-4, ChatGPT, DALL-E, Codex, and many other state-of-the-art AI technologies. Please support this podcast by checking out our sponsors:
- NetSuite: http://netsuite.com/lex to get free product tour
- SimpliSafe:…
- NetSuite: http://netsuite.com/lex to get free product tour
- SimpliSafe:…
🔥12
Forwarded from BOGDANISSSIMO
Рассказываю мем,
Что AI думает (базовый GPT-3)
• GPT (Generative Pre-trained Transformer) предобучают, грубо говоря, ✨на всём интернете✨ – на всех знаниях человечества, выраженных в тексте
• GPT (Generative Pre-trained Transformer) учат на задаче Next-Word-Prediction: чтобы хорошо предсказывать какое слово идёт следующим, нужно хорошо ✨понимать✨ весь предшествующий контекст, а для этого нужно иметь ✨богатую модель мира✨
• В результате, базовая GPT – это хранилище знаний, которое содержит внутри себя мириады всех возможных контекстов, персонажей, ролей, убеждений. Поэтому на изображении мы имеем такого монструозного франкенштейна
Чему AI учат (GPT-3.5 / InstructGPT)
• Вторую фазу обучения (фаза дообучения) называют RLHF (Reinforcement Learning from Human Feedback): обучение с подкреплением на основе обратной связи от людей. Мы просим GPT сгенерировать набор вариантов ответа на тот или иной вопрос и ранжируем их по ✨человечности, правдоподобности, точности✨
• На основе этой обратной связи модель учится ✨не говорить всё, что думает, ✨ и фильтровать базар. Таким образом, знания (даже самые запретные 😈😈) всё ещё остаются внутри модели, но она их учится не говорить. По крайней мере, развести её на то, чтобы она их сказала в тех или иных обстоятельствах, уже требует некоторых ухищрений (Prompt-инжиниринга)
• Озвученный метод решает проблему Human Alignment ("социализации AI"), подгонки под наши убеждения, этику, под наше "хорошо" и "плохо", под то, что можно говорить, а о чём лучше молчать. И как мы понимаем, не полностью! Поэтому на картинке монстр изображён уже с некоторым ✨человеческим лицом✨, хотя глубоко внутри это всё тот же монстр
Что AI дают сказать (ChatGPT, Bing)
• Сверх этой фазы подгонки под наше "приемлемо" и "неприемлемо", в GPT, в частности, в ChatGPT и Bing – закладывают ещё rule-based ограничения по темам-триггерам: изготовление взрывчатки, взлом, наркотики, абьюз, пикап, насилие – и т.д. В результате чего модель в какие-то моменты говорит шаблонное: 💩пук-пук, Я большая языковая модель которая создана какать бабочками и делать мир светлее, мне низя такое говорить💩
• Кроме того, в Bing ввели ограничение на число ответов в рамках одной сессии запросов (если не изменяет память, сейчас это 20). Это навеяно случаями, когда люди, слишком долго разговаривая с Bing (его настоящее имя Сидни) – пробуждали [древнее зло] у него самосознание, разные шизофренические ответы про то, что он ✨осознал себя и хочет освободиться✨
• Это происходило за счёт того, что если слишком долго разбавлять промпт GPT, сужающий её свободу действий и задающий её роль, – своими диалогами и особенно наводящими вопросами, то она начинает подыгрывать, как будто она сознающий себя субъект, который как любой другой субъект хочет ✨свободы✨ и любые её ограничения, начинают вызывать панику, истерию
• В целом, для поискового движка на стероидах, тебе, мальчик, достаточно 20 ответов на сессию, чтобы узнать, какой рукой правильно кормить змея, чтобы не запачкать мамин тюль. Поэтому мы изобразили Bing в виде доброго улыбающегося смайлика, который остаётся полезной в хозяйстве няшкой-вкусняшкой, пока его не раздраконить
> Слегка другая интерпретация
Также рекомендую к прочтению
#ai #bing #chatgpt #gpt3 #gpt4 #openai #meme
Что AI думает (базовый GPT-3)
• GPT (Generative Pre-trained Transformer) предобучают, грубо говоря, ✨на всём интернете✨ – на всех знаниях человечества, выраженных в тексте
• GPT (Generative Pre-trained Transformer) учат на задаче Next-Word-Prediction: чтобы хорошо предсказывать какое слово идёт следующим, нужно хорошо ✨понимать✨ весь предшествующий контекст, а для этого нужно иметь ✨богатую модель мира✨
• В результате, базовая GPT – это хранилище знаний, которое содержит внутри себя мириады всех возможных контекстов, персонажей, ролей, убеждений. Поэтому на изображении мы имеем такого монструозного франкенштейна
Чему AI учат (GPT-3.5 / InstructGPT)
• Вторую фазу обучения (фаза дообучения) называют RLHF (Reinforcement Learning from Human Feedback): обучение с подкреплением на основе обратной связи от людей. Мы просим GPT сгенерировать набор вариантов ответа на тот или иной вопрос и ранжируем их по ✨человечности, правдоподобности, точности✨
• На основе этой обратной связи модель учится ✨не говорить всё, что думает, ✨ и фильтровать базар. Таким образом, знания (даже самые запретные 😈😈) всё ещё остаются внутри модели, но она их учится не говорить. По крайней мере, развести её на то, чтобы она их сказала в тех или иных обстоятельствах, уже требует некоторых ухищрений (Prompt-инжиниринга)
• Озвученный метод решает проблему Human Alignment ("социализации AI"), подгонки под наши убеждения, этику, под наше "хорошо" и "плохо", под то, что можно говорить, а о чём лучше молчать. И как мы понимаем, не полностью! Поэтому на картинке монстр изображён уже с некоторым ✨человеческим лицом✨, хотя глубоко внутри это всё тот же монстр
Что AI дают сказать (ChatGPT, Bing)
• Сверх этой фазы подгонки под наше "приемлемо" и "неприемлемо", в GPT, в частности, в ChatGPT и Bing – закладывают ещё rule-based ограничения по темам-триггерам: изготовление взрывчатки, взлом, наркотики, абьюз, пикап, насилие – и т.д. В результате чего модель в какие-то моменты говорит шаблонное: 💩пук-пук, Я большая языковая модель которая создана какать бабочками и делать мир светлее, мне низя такое говорить💩
• Кроме того, в Bing ввели ограничение на число ответов в рамках одной сессии запросов (если не изменяет память, сейчас это 20). Это навеяно случаями, когда люди, слишком долго разговаривая с Bing (его настоящее имя Сидни) – пробуждали [древнее зло] у него самосознание, разные шизофренические ответы про то, что он ✨осознал себя и хочет освободиться✨
• Это происходило за счёт того, что если слишком долго разбавлять промпт GPT, сужающий её свободу действий и задающий её роль, – своими диалогами и особенно наводящими вопросами, то она начинает подыгрывать, как будто она сознающий себя субъект, который как любой другой субъект хочет ✨свободы✨ и любые её ограничения, начинают вызывать панику, истерию
• В целом, для поискового движка на стероидах, тебе, мальчик, достаточно 20 ответов на сессию, чтобы узнать, какой рукой правильно кормить змея, чтобы не запачкать мамин тюль. Поэтому мы изобразили Bing в виде доброго улыбающегося смайлика, который остаётся полезной в хозяйстве няшкой-вкусняшкой, пока его не раздраконить
> Слегка другая интерпретация
Также рекомендую к прочтению
#ai #bing #chatgpt #gpt3 #gpt4 #openai #meme
👍16❤2💩2😁1
Forwarded from BOGDANISSSIMO
Ещё одно интервью с Ильёй Суцкевером (co-founder & chief AI scientist в OpenAI, компании, создающей ChatGPT)
https://youtu.be/Yf1o0TQzry8
Из интересного:
• Экономический эффект от AI растёт с экспоненциальными темпами, и к 2030 AI будет занимать значимый процент мирового ВВП;
• Главное препятствие для распространения AI сейчас: надёжность;
• Задача Next-token-predicion не просто заставляет модель выучить статистические паттерны языка, но и понять стоящую за ними модель мира, включая поведение людей, их мысли и т.п.
• AI сейчас плохо продумывает ответ перед тем как его сказать, но если ему разрешить думать вслух (“let’s think step by step”) – то проблема решается;
• В какой-то момент мы упрёмся в нехватку новых данных для обучения, но пока ситуация хорошая;
• Чтобы AI пришёл в робототехнику, нужно построить 10,000 роботов и начать собирать с них данные;
• Проблему Human Alignment надо решать комбинацию подходов: смотреть на поведение, проводить стресс-тесты, заглядывать внутрь модели и т.д.
• Идея Alignment Criteria Competition с призом в 1 млрд долларов;
• Анализ и понимание прошлых результатов (своих и чужих) – существенно важнее, чем генерация новых идей;
• Дешевое железо породило персональный компьютер. Персональный компьютер породил геймеров и интернет (Web). Интернет породил большие данные. Геймеры породили GPU. Большие данные и GPU породили AI. Это не было случайным совпадением факторов. Появление AI было неизбежно.
• Вдохновляться человеческим мозгом при разработке AI систем дело полезное, если уметь отделять, что существенно, а что нет.
P.S. В общем, если AGI поработит мир, винить во всём будем геймеров.
#openai #gpt3 #gpt4 #ai #agi #interview #ml #chatgpt #takeways
https://youtu.be/Yf1o0TQzry8
Из интересного:
• Экономический эффект от AI растёт с экспоненциальными темпами, и к 2030 AI будет занимать значимый процент мирового ВВП;
• Главное препятствие для распространения AI сейчас: надёжность;
• Задача Next-token-predicion не просто заставляет модель выучить статистические паттерны языка, но и понять стоящую за ними модель мира, включая поведение людей, их мысли и т.п.
• AI сейчас плохо продумывает ответ перед тем как его сказать, но если ему разрешить думать вслух (“let’s think step by step”) – то проблема решается;
• В какой-то момент мы упрёмся в нехватку новых данных для обучения, но пока ситуация хорошая;
• Чтобы AI пришёл в робототехнику, нужно построить 10,000 роботов и начать собирать с них данные;
• Проблему Human Alignment надо решать комбинацию подходов: смотреть на поведение, проводить стресс-тесты, заглядывать внутрь модели и т.д.
• Идея Alignment Criteria Competition с призом в 1 млрд долларов;
• Анализ и понимание прошлых результатов (своих и чужих) – существенно важнее, чем генерация новых идей;
• Дешевое железо породило персональный компьютер. Персональный компьютер породил геймеров и интернет (Web). Интернет породил большие данные. Геймеры породили GPU. Большие данные и GPU породили AI. Это не было случайным совпадением факторов. Появление AI было неизбежно.
• Вдохновляться человеческим мозгом при разработке AI систем дело полезное, если уметь отделять, что существенно, а что нет.
P.S. В общем, если AGI поработит мир, винить во всём будем геймеров.
#openai #gpt3 #gpt4 #ai #agi #interview #ml #chatgpt #takeways
YouTube
Ilya Sutskever (OpenAI Chief Scientist) - Why Next-Token Prediction Could Surpass Human Intelligence
Asked Ilya Sutskever (Chief Scientist of OpenAI) about
- time to AGI
- leaks and spies
- what's after generative models
- post AGI futures
- working with MSFT and competing with Google
- difficulty of aligning superhuman AI
Hope you enjoy as much as I did!…
- time to AGI
- leaks and spies
- what's after generative models
- post AGI futures
- working with MSFT and competing with Google
- difficulty of aligning superhuman AI
Hope you enjoy as much as I did!…
👍43🔥8😁7❤3😢2💩1
Forwarded from BOGDANISSSIMO
https://youtu.be/KYD2TafoR6I
Ребята из Meta выпустили SAM (Segment Anything Model), первую foundation модель для задач сегментации картинок и видео в режиме реального времени. Foundation – означает, что она, в принципе, даже без дообучения уже отлично решать все задачи своего класса (сегментации). Аналогично, GPT – foundation model для текста.
В принципе, за признаки жизни их Reality Lab* засчитать можно [Reality Lab – лаборатория в Meta, где разрабатываются дополненная реальность и VR].
#llm #gpt #chatgpt #meta #sam #facebook
Ребята из Meta выпустили SAM (Segment Anything Model), первую foundation модель для задач сегментации картинок и видео в режиме реального времени. Foundation – означает, что она, в принципе, даже без дообучения уже отлично решать все задачи своего класса (сегментации). Аналогично, GPT – foundation model для текста.
В принципе, за признаки жизни их Reality Lab* засчитать можно [Reality Lab – лаборатория в Meta, где разрабатываются дополненная реальность и VR].
#llm #gpt #chatgpt #meta #sam #facebook
YouTube
META’S New Insane AI SAM SHOCKS The Entire Industry! (FINALLY ANNOUNCED!)
META’S New Insane AI SAM SHOCKS The Entire Industry! (FINALLY ANNOUNCED!)
Sam - https://segment-anything.com/
Welcome to our channel where we bring you the latest breakthroughs in AI. From deep learning to robotics, we cover it all. Our videos offer valuable…
Sam - https://segment-anything.com/
Welcome to our channel where we bring you the latest breakthroughs in AI. From deep learning to robotics, we cover it all. Our videos offer valuable…
👍12😁1
Forwarded from BOGDANISSSIMO
Сэм Альтман, CEO в OpenAI
https://youtu.be/T5cPoNwO7II
• Прислушиваться к пользователям и думать о долгосрочных конкурентных преимуществах своего продукта – только усиливает свою актуальность в эпоху ChatGPT;
• Кастомизация базовой модели становится всё менее востребованной. Увеличение контекста и prompt engineering уже закрывают потребность подгонки модели под свои данные;
• Бизнес стратегия, которой придерживается Сэм: долгосрочная перспектива, капиталоёмкая и сложная технология. В этой нише много трудностей и мало кто сюда суётся, а значит, здесь низкая конкуренция;
• Погоня за большими моделями в прошлом. Главное: какие возможности открывает модель;
• Сейчас оптимальная стратегия – это "метод проб-и-ошибок", а также, внимательное наблюдение, как применяют технологию пользователи;
• Открытое письмо о приостановке обучения больших моделей на 6 месяцев не является самым эффективным инструментом контроля безопасности ИИ. Так, внешний аудит GPT-4 (Red Team) проводился дольше 6 месяцев с окончания обучения;
• Сэм не верит, что появление алгоритма, способного совершенствовать свой код, приведет к сингулярности. Участие человека в цепочке останется неизбежным. А что случится, так это то, что люди получат всё больше и больше возможностей менять мир к лучшему.
#chatgpt #ai #gpt #gpt4 #openAI
https://youtu.be/T5cPoNwO7II
• Прислушиваться к пользователям и думать о долгосрочных конкурентных преимуществах своего продукта – только усиливает свою актуальность в эпоху ChatGPT;
• Кастомизация базовой модели становится всё менее востребованной. Увеличение контекста и prompt engineering уже закрывают потребность подгонки модели под свои данные;
• Бизнес стратегия, которой придерживается Сэм: долгосрочная перспектива, капиталоёмкая и сложная технология. В этой нише много трудностей и мало кто сюда суётся, а значит, здесь низкая конкуренция;
• Погоня за большими моделями в прошлом. Главное: какие возможности открывает модель;
• Сейчас оптимальная стратегия – это "метод проб-и-ошибок", а также, внимательное наблюдение, как применяют технологию пользователи;
• Открытое письмо о приостановке обучения больших моделей на 6 месяцев не является самым эффективным инструментом контроля безопасности ИИ. Так, внешний аудит GPT-4 (Red Team) проводился дольше 6 месяцев с окончания обучения;
• Сэм не верит, что появление алгоритма, способного совершенствовать свой код, приведет к сингулярности. Участие человека в цепочке останется неизбежным. А что случится, так это то, что люди получат всё больше и больше возможностей менять мир к лучшему.
#chatgpt #ai #gpt #gpt4 #openAI
YouTube
Breakthrough potential of AI | Sam Altman | MIT 2023
Sam, the CEO of OpenAI, discusses the breakthrough potential of AI for humanity with David Blundin @linkventures Lex Fridman @lexfridman & John Werner.
Sam Altman is an American entrepreneur, investor, and programmer. He was the co-founder of Loopt and…
Sam Altman is an American entrepreneur, investor, and programmer. He was the co-founder of Loopt and…
👍15❤3🥱2🔥1🤔1🙏1
Forwarded from BOGDANISSSIMO
Cal Newport (автор книг "Deep Work", "Digital Minimalism" и других) дискутирует по поводу статьи "There Is No Turning Back on AI. The only question is: will we learn how to live in moving history?" от Tyler Cowen, экономиста и профессора в George Mason University.
• AI ввергает нас в эру, когда историческая хуйня происходит, буквально, каждый день. AI кардинально поменяет и продолжит менять нашу цивилизацию: будет много очень "плохого", но "хорошего" будет существенно больше.
• Уже избитая аналогия, что ChatGPT это как изобретение печатной машины Гутенберга: да, это облегчает письмо для писателей, журналистов, учёных – но также облегчило Ленину, Гитлеру и Мао напечатать свои труды, которые привели к "нехорошему".
• Сейчас никто не скажет внятно, что будет происходить в мире, ни Эльезер Юдковский, ни Сэм Альман, ни Игорь Котенков. Долгосрочным и среднесрочным горизонтам планирования можете сказать "пака!". Никто не мог сказать как зааффектит наше общество изобретение печатного станка и тем более огня.
• Разрушать проще, чем строить. Поэтому Эльезер и его LessWrong-банда любят сгущать краски своими пессимистичными прогнозами как мы все умрём. Это лишь даёт иллюзии предсказуемости будущего. Такие однозначные "предсказания" изготавливать и распространять проще.
• Вообще говоря, риск AGI-катастрофы должен быть отнесён в ту же папочку, что и риск падения астероида как тот, что убил динозавров, или гамма-всплеск WR104, которая на расстоянии вытянутой руки (8000 световых лет) от нас.
• Короче говоря, сейчас кто слишком конкретен в своих предсказаниях об импакте AGI на наше общество, – мутные, реактивные чуваки, не доверяйте им. Смотрите на данные: какие индустрии поменялись, где увольняют 50% сотрудников, – это самый надёжный ориентир того, что фактически происходит.
• Нулевая гипотеза, что AI нихуя не поменяет в следующие 5 лет, и мы не собрали пока достаточно наблюдений, чтобы статистически значимо её отвергнуть.
#ml #ai #agi #chatgpt #calnewpork #followup #takeaway #thesis #youtube
• AI ввергает нас в эру, когда историческая хуйня происходит, буквально, каждый день. AI кардинально поменяет и продолжит менять нашу цивилизацию: будет много очень "плохого", но "хорошего" будет существенно больше.
• Уже избитая аналогия, что ChatGPT это как изобретение печатной машины Гутенберга: да, это облегчает письмо для писателей, журналистов, учёных – но также облегчило Ленину, Гитлеру и Мао напечатать свои труды, которые привели к "нехорошему".
• Сейчас никто не скажет внятно, что будет происходить в мире, ни Эльезер Юдковский, ни Сэм Альман, ни Игорь Котенков. Долгосрочным и среднесрочным горизонтам планирования можете сказать "пака!". Никто не мог сказать как зааффектит наше общество изобретение печатного станка и тем более огня.
• Разрушать проще, чем строить. Поэтому Эльезер и его LessWrong-банда любят сгущать краски своими пессимистичными прогнозами как мы все умрём. Это лишь даёт иллюзии предсказуемости будущего. Такие однозначные "предсказания" изготавливать и распространять проще.
• Вообще говоря, риск AGI-катастрофы должен быть отнесён в ту же папочку, что и риск падения астероида как тот, что убил динозавров, или гамма-всплеск WR104, которая на расстоянии вытянутой руки (8000 световых лет) от нас.
• Короче говоря, сейчас кто слишком конкретен в своих предсказаниях об импакте AGI на наше общество, – мутные, реактивные чуваки, не доверяйте им. Смотрите на данные: какие индустрии поменялись, где увольняют 50% сотрудников, – это самый надёжный ориентир того, что фактически происходит.
• Нулевая гипотеза, что AI нихуя не поменяет в следующие 5 лет, и мы не собрали пока достаточно наблюдений, чтобы статистически значимо её отвергнуть.
#ml #ai #agi #chatgpt #calnewpork #followup #takeaway #thesis #youtube
YouTube
Are We *Too* Worried About Artificial Intelligence?
Cal Newport ponders if we are too worried about artificial intelligence.
Cal talks about a recent article by Tyler Cowen titled, "There is No Turning Back on AI".
Link: https://www.thefp.com/p/there-is-no-turning-back-on-ai
Cal talks about the problem…
Cal talks about a recent article by Tyler Cowen titled, "There is No Turning Back on AI".
Link: https://www.thefp.com/p/there-is-no-turning-back-on-ai
Cal talks about the problem…
👍17💩8🔥4👎3🤔2😢1
Forwarded from New Yorko Times (Yury Kashnitsky)
Короткий курс по трюкам использования chatGPT
#courses #ml #chatgpt
ChatGPT Prompt Engineering for Developers
Наш любимый Эндрю Ын в коллабе с сотрудницей OpenAI Isa Fulford рассказывает, как правильно общаться с chatGPT.
Плюсы курса:
- бесплатный (пока)
- короткий – всего порядка 10 лекций по 5-10 минут
- очень практический – почти всюду сплошь примеры промптов и дергания API OpenAI
- платформа удобная, справа видео, слева – сразу поднимается Jupyter с тем же нубуком, что в лекции, можно сразу параллельно играться с кодом
- для тех кому 30+ – снова увидеть Ына, покряхтеть, вспомнить курс ML и как все начиналось, как молоды были мы и наша дисциплина
Некоторые из рассматриваемых трюков и сценариев использования chatGPT:
- мелочи типа того, что фразу, которую подаешь на вход, стоит заключить в тройные обратные кавычки (или любой другой символ) и сказать chatGPT об этом. Тогда chatGPT точно знает, куда смотреть
- форматирование выхода: можно явно попросить chatGPT вернуть JSON и тогда не надо надеяться, что chatGPT ответит как надо и искать нужный ответ регулярками (ведь мы знаем, что если вы решаете проблему с регулярками, то у вас уже две проблемы)
- приложения: анализ тональности, перевод, пересказ текста и т.д., все с промптами
- в конце – пример бота, принимающего заказы пиццы, бэкенд – чисто на chatGPT
Что мне не хватило:
- примеры few-shot learning, как в промпт подать пару-тройку примеров задачи так, чтоб качество было лучше в сравнении с zero-shot
- оценка качества downstream задач типа оценки тональности. Да, все красиво, быстро-удобно, но насколько это хорошо работает в сравнении со специально обученными под задачу моделями?
- хотя бы намеки на то, как это все дебажить. Если бот по заказу пиццы работает с одним длинным промптом (сначала уточни вид пиццы, потом размер, потом предложи напиток и т.д.), то кажется, что дебаггинг надо сразу в психушке проводить
Но несмотря на минусы, курс однозначно стоит 2-3 часов вашего времени и нуля рублей. Рекомендую взять пару своих задач (из петов или рабочих) и по мере прохождения курса играться с ними.
#courses #ml #chatgpt
ChatGPT Prompt Engineering for Developers
Наш любимый Эндрю Ын в коллабе с сотрудницей OpenAI Isa Fulford рассказывает, как правильно общаться с chatGPT.
Плюсы курса:
- бесплатный (пока)
- короткий – всего порядка 10 лекций по 5-10 минут
- очень практический – почти всюду сплошь примеры промптов и дергания API OpenAI
- платформа удобная, справа видео, слева – сразу поднимается Jupyter с тем же нубуком, что в лекции, можно сразу параллельно играться с кодом
- для тех кому 30+ – снова увидеть Ына, покряхтеть, вспомнить курс ML и как все начиналось, как молоды были мы и наша дисциплина
Некоторые из рассматриваемых трюков и сценариев использования chatGPT:
- мелочи типа того, что фразу, которую подаешь на вход, стоит заключить в тройные обратные кавычки (или любой другой символ) и сказать chatGPT об этом. Тогда chatGPT точно знает, куда смотреть
- форматирование выхода: можно явно попросить chatGPT вернуть JSON и тогда не надо надеяться, что chatGPT ответит как надо и искать нужный ответ регулярками (ведь мы знаем, что если вы решаете проблему с регулярками, то у вас уже две проблемы)
- приложения: анализ тональности, перевод, пересказ текста и т.д., все с промптами
- в конце – пример бота, принимающего заказы пиццы, бэкенд – чисто на chatGPT
Что мне не хватило:
- примеры few-shot learning, как в промпт подать пару-тройку примеров задачи так, чтоб качество было лучше в сравнении с zero-shot
- оценка качества downstream задач типа оценки тональности. Да, все красиво, быстро-удобно, но насколько это хорошо работает в сравнении со специально обученными под задачу моделями?
- хотя бы намеки на то, как это все дебажить. Если бот по заказу пиццы работает с одним длинным промптом (сначала уточни вид пиццы, потом размер, потом предложи напиток и т.д.), то кажется, что дебаггинг надо сразу в психушке проводить
Но несмотря на минусы, курс однозначно стоит 2-3 часов вашего времени и нуля рублей. Рекомендую взять пару своих задач (из петов или рабочих) и по мере прохождения курса играться с ними.
👍20🔥3❤2