Forwarded from BOGDANISSSIMO
Ilya Sutskever – сооснователь OpenAI, ведущий исследователь в области AI, создатель ChatGPT и просто человек, формирующий наше будущее.
https://youtu.be/SjhIlw3Iffs
Из интересного:
• Next thing prediction is all you need. Ещё недавно все носились с идеей, что обучение без учителя – Грааль машинного обучения, а сегодня задача решена полностью, и об этом никто даже не говорит.
• Наши представления о границах больших языковых моделей меняются из года в год, и мы забываем, насколько сильно.
• Большие языковые модели уже понимают весь мир и все процессы в нём, и отдельная задача: как достать из эти знания из них.
• Подавать картинки на вход модели (делать её мультимодальной, как GPT-4) – помогает быстрее понять отдельные концепты, но не необходимо.
• Предстоящие вызовы: как учить модели понимать всё больше, используя всё меньше данных?
• Будущая роль ИИ в принятии политических и экономических решений. Люди будут голосовать не за партии, а за алгоритмы.
Extremely valuable to watch.
#interview #youtube #ai #ml #chatgpt #gpt3 #gpt4 #openai
https://youtu.be/SjhIlw3Iffs
Из интересного:
• Next thing prediction is all you need. Ещё недавно все носились с идеей, что обучение без учителя – Грааль машинного обучения, а сегодня задача решена полностью, и об этом никто даже не говорит.
• Наши представления о границах больших языковых моделей меняются из года в год, и мы забываем, насколько сильно.
• Большие языковые модели уже понимают весь мир и все процессы в нём, и отдельная задача: как достать из эти знания из них.
• Подавать картинки на вход модели (делать её мультимодальной, как GPT-4) – помогает быстрее понять отдельные концепты, но не необходимо.
• Предстоящие вызовы: как учить модели понимать всё больше, используя всё меньше данных?
• Будущая роль ИИ в принятии политических и экономических решений. Люди будут голосовать не за партии, а за алгоритмы.
Extremely valuable to watch.
#interview #youtube #ai #ml #chatgpt #gpt3 #gpt4 #openai
YouTube
The Mastermind Behind GPT-4 and the Future of AI | Ilya Sutskever
In this podcast episode, Ilya Sutskever, the co-founder and chief scientist at OpenAI, discusses his vision for the future of artificial intelligence (AI), including large language models like GPT-4.
Sutskever starts by explaining the importance of AI research…
Sutskever starts by explaining the importance of AI research…
Forwarded from BOGDANISSSIMO
Сэм Альтман, CEO в OpenAI
https://youtu.be/T5cPoNwO7II
• Прислушиваться к пользователям и думать о долгосрочных конкурентных преимуществах своего продукта – только усиливает свою актуальность в эпоху ChatGPT;
• Кастомизация базовой модели становится всё менее востребованной. Увеличение контекста и prompt engineering уже закрывают потребность подгонки модели под свои данные;
• Бизнес стратегия, которой придерживается Сэм: долгосрочная перспектива, капиталоёмкая и сложная технология. В этой нише много трудностей и мало кто сюда суётся, а значит, здесь низкая конкуренция;
• Погоня за большими моделями в прошлом. Главное: какие новые возможности даёт модель;
• Сейчас оптимальная стратегия – это "метод проб-и-ошибок", а также, внимательное наблюдение, как применяют технологию пользователи;
• Открытое письмо о приостановке обучения больших моделей на 6 месяцев не является самым эффективным инструментом контроля безопасности ИИ. Так, внешний аудит GPT-4 (Red Team) проводился дольше 6 месяцев с окончания обучения;
• Сэм не верит, что появление алгоритма, способного совершенствовать свой код, приведет к сингулярности. Участие человека в цепочке останется неизбежным. А что случится, так это то, что люди получат всё больше и больше возможностей менять мир к лучшему.
#chatgpt #ai #gpt #gpt4 #openAI
https://youtu.be/T5cPoNwO7II
• Прислушиваться к пользователям и думать о долгосрочных конкурентных преимуществах своего продукта – только усиливает свою актуальность в эпоху ChatGPT;
• Кастомизация базовой модели становится всё менее востребованной. Увеличение контекста и prompt engineering уже закрывают потребность подгонки модели под свои данные;
• Бизнес стратегия, которой придерживается Сэм: долгосрочная перспектива, капиталоёмкая и сложная технология. В этой нише много трудностей и мало кто сюда суётся, а значит, здесь низкая конкуренция;
• Погоня за большими моделями в прошлом. Главное: какие новые возможности даёт модель;
• Сейчас оптимальная стратегия – это "метод проб-и-ошибок", а также, внимательное наблюдение, как применяют технологию пользователи;
• Открытое письмо о приостановке обучения больших моделей на 6 месяцев не является самым эффективным инструментом контроля безопасности ИИ. Так, внешний аудит GPT-4 (Red Team) проводился дольше 6 месяцев с окончания обучения;
• Сэм не верит, что появление алгоритма, способного совершенствовать свой код, приведет к сингулярности. Участие человека в цепочке останется неизбежным. А что случится, так это то, что люди получат всё больше и больше возможностей менять мир к лучшему.
#chatgpt #ai #gpt #gpt4 #openAI
YouTube
Breakthrough potential of AI | Sam Altman | MIT 2023
Sam, the CEO of OpenAI, discusses the breakthrough potential of AI for humanity with David Blundin @linkventures Lex Fridman @lexfridman & John Werner.
Sam Altman is an American entrepreneur, investor, and programmer. He was the co-founder of Loopt and…
Sam Altman is an American entrepreneur, investor, and programmer. He was the co-founder of Loopt and…
Forwarded from Kali Novskaya (Tatiana Shavrina)
#nlp #про_nlp #ai_alignment
🌸Что такое SuperAlignment? Введение🌸
Вчера в блоге OpenAI появилась новая запись под авторством Ilya Sutskever и Jan Leike (Chief Scientist и Alignment team lead в OpenAI).
🟣 Впервые вводится понятие superalignment — по сути alignment для AGI/superintelligence (к определениям просят не придираться).
Чем это отличается от уже вошедшего в обиход на словах, но мало вошедшего на практике обычного alignment?
Текущие практики упираются в проблему: все методы обучения ИИ "плохому и хорошему" основаны на существующих примерах, сформированных и подобранных людьми с целью воспроизведения суждений. Но как учить сущность, более умную, чем люди? Превосходящую интеллектуально хотя бы по некоторым параметрам.
Тезисы OpenAI:
🌸 задачу alignment хоть как-то хочется решить в течение 4 лет — это никак не "50 лет до наступления AGI"
🌸 решение должно быть автоматическим (отдельная модель), масштабируемым и подвергаемым полноценному стресс-тестированию, например, в симуляционных средах.
🌸 среди приоритетов в исследованиях: интерпретируемость таких моделей (почему принято то или иное решение?) и их способность обобщаться на разных ситуациях, анализ надежности систем, их согласованности и поиск противоречий.
🟣 Пост: https://openai.com/blog/introducing-superalignment
🌸Что такое SuperAlignment? Введение🌸
Вчера в блоге OpenAI появилась новая запись под авторством Ilya Sutskever и Jan Leike (Chief Scientist и Alignment team lead в OpenAI).
Чем это отличается от уже вошедшего в обиход на словах, но мало вошедшего на практике обычного alignment?
Текущие практики упираются в проблему: все методы обучения ИИ "плохому и хорошему" основаны на существующих примерах, сформированных и подобранных людьми с целью воспроизведения суждений. Но как учить сущность, более умную, чем люди? Превосходящую интеллектуально хотя бы по некоторым параметрам.
Тезисы OpenAI:
🌸 задачу alignment хоть как-то хочется решить в течение 4 лет — это никак не "50 лет до наступления AGI"
🌸 решение должно быть автоматическим (отдельная модель), масштабируемым и подвергаемым полноценному стресс-тестированию, например, в симуляционных средах.
🌸 среди приоритетов в исследованиях: интерпретируемость таких моделей (почему принято то или иное решение?) и их способность обобщаться на разных ситуациях, анализ надежности систем, их согласованности и поиск противоречий.
Please open Telegram to view this post
VIEW IN TELEGRAM
Openai
Introducing Superalignment
We need scientific and technical breakthroughs to steer and control AI systems much smarter than us. To solve this problem within four years, we’re starting a new team, co-led by Ilya Sutskever and Jan Leike, and dedicating 20% of the compute we’ve secured…
Forwarded from Gamedev suffering (Andrei Apanasik (Balancy))
Индюк: отправил питч дек с AI-артом
Инвестор: сразу отклонил чисто из-за этого
И в таких тредах опять улюлюканье и полная поддержка этих чуваков, что очень грустно видеть. Особенно от Рами такое читать печально, учитывая его прошлый вклад в инди-индустрию.
Я не касаюсь вопроса легальности и авторских прав на арт. Первый пчел в треде даже этот момент не свалидировал, а просто реджектнул проект. Это реально просто слепая ненависть к технологии.
Чем AI-арт в этом контексте отличается от купленного/взятого бесплатно (не своего) арта в ассет сторе? Откуда уверенность, что все AI-шки на тыренном арте работают?
1. Есть базы с работами, на использование которых дали добро
2. Есть уже сети, обученные на своём арте
Кто что думает?
UPD: мой основной посыл в том, что сейчас слишком много ненависти чисто вокруг самой технологии. Оно, конечно, помогает в деле форсирования законотворцев, но я всё больше наблюдаю именно слепую ненависть, что может много вреда нанести.
#AI
Инвестор: сразу отклонил чисто из-за этого
И в таких тредах опять улюлюканье и полная поддержка этих чуваков, что очень грустно видеть. Особенно от Рами такое читать печально, учитывая его прошлый вклад в инди-индустрию.
Я не касаюсь вопроса легальности и авторских прав на арт. Первый пчел в треде даже этот момент не свалидировал, а просто реджектнул проект. Это реально просто слепая ненависть к технологии.
Чем AI-арт в этом контексте отличается от купленного/взятого бесплатно (не своего) арта в ассет сторе? Откуда уверенность, что все AI-шки на тыренном арте работают?
1. Есть базы с работами, на использование которых дали добро
2. Есть уже сети, обученные на своём арте
Кто что думает?
UPD: мой основной посыл в том, что сейчас слишком много ненависти чисто вокруг самой технологии. Оно, конечно, помогает в деле форсирования законотворцев, но я всё больше наблюдаю именно слепую ненависть, что может много вреда нанести.
#AI