MIT Technology Review поговорили с четыремя людьми из OpenAI про то, как создавался ChatGPT. Был ли успех ожидаем, что предшествовало выходу, и что будет дальше. Среди этих людей — John Schulman (c-founder OpenAI) и Jan Leike (глава alignment team в OpenAI).
Интервью тут
Интервью тут
MIT Technology Review
The inside story of how ChatGPT was built from the people who made it
Exclusive conversations that take us behind the scenes of a cultural phenomenon.
🔥19
Forwarded from Kali Novskaya (Tatiana Shavrina)
#nlp #про_nlp #nlp_papers #agi_russia
Прошла незамеченной работа
🌸Theory of Mind May Have Spontaneously Emerged in Large Language Models🌸
Модель психического состояния человека (Theory of mind, ToM), или способность приписывать ненаблюдаемые психические состояния другим, занимает центральное место в человеческих социальных взаимодействиях, общении, сопереживании, самосознании и морали. Мы протестировали несколько языковых моделей, используя 40 классических задач на ложные убеждения, которые широко используются для проверки модели поведения на людях. Модели, опубликованные до 2020 года, практически не продемонстрировали возможности решения задач ToM. Тем не менее, первая версия GPT-3 («davinci-001»), опубликованная в мае 2020 года, решала около 40% задач на ложные убеждения — производительность, сравнимая с 3,5-летними детьми. Его вторая версия («davinci-002»; январь 2022 г.) решила 70% ложных задач, производительность сравнима с шестилетними. Его последняя версия, GPT-3.5 («davinci-003»; ноябрь 2022 г.), решила 90% ложных задач на уровне семилетних детей. Опубликованная в марте 2023 г. GPT-4 решила практически все поставленные задачи (95%). Эти данные свидетельствуют о том, что способность, подобная модели ТоM (до сих пор считавшаяся уникальной для человека), могла возникнуть спонтанно как побочный продукт улучшения языковых навыков языковых моделей.
🌸Поспекулируем?
🖥 Paper: https://arxiv.org/abs/2302.02083
🖥 Colab: link
Прошла незамеченной работа
🌸Theory of Mind May Have Spontaneously Emerged in Large Language Models🌸
Модель психического состояния человека (Theory of mind, ToM), или способность приписывать ненаблюдаемые психические состояния другим, занимает центральное место в человеческих социальных взаимодействиях, общении, сопереживании, самосознании и морали. Мы протестировали несколько языковых моделей, используя 40 классических задач на ложные убеждения, которые широко используются для проверки модели поведения на людях. Модели, опубликованные до 2020 года, практически не продемонстрировали возможности решения задач ToM. Тем не менее, первая версия GPT-3 («davinci-001»), опубликованная в мае 2020 года, решала около 40% задач на ложные убеждения — производительность, сравнимая с 3,5-летними детьми. Его вторая версия («davinci-002»; январь 2022 г.) решила 70% ложных задач, производительность сравнима с шестилетними. Его последняя версия, GPT-3.5 («davinci-003»; ноябрь 2022 г.), решила 90% ложных задач на уровне семилетних детей. Опубликованная в марте 2023 г. GPT-4 решила практически все поставленные задачи (95%). Эти данные свидетельствуют о том, что способность, подобная модели ТоM (до сих пор считавшаяся уникальной для человека), могла возникнуть спонтанно как побочный продукт улучшения языковых навыков языковых моделей.
🌸Поспекулируем?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥26👍5
Forwarded from Сиолошная
This is huge....
OpenAI подсуетились и добавили плагины к ChatGPT (документация тут). Причём набор очень солидный - есть !ВНИМАНИЕ! веб-браузер и ретривер, код для которого открыт и лежит на GitHub. Ретривер - это то, что позволяет искать нужный контекст среди большой коллекции документов. Например, вы пишете бота, который должен отвечать на вопросы по истории - просто загрузите в него википедию! Тогда по запросу про Древний Рим будет находиться пара нужных страниц, они будут подставлены в контекст, а ChatGPT их "прочитает" и даст ответ!
А ещё есть интерпретатор кода. В общем, по сути почти любую идею теперь можно накликать прямо в браузере, и собрать на коленке огненный прототип, который и в интернет сбегает, и калькулятор вызовет для арифметики, и ещё и сообщение в слак-канал вам отправит.
Про то, как языковая модель работает с браузером, у меня аж целая статья есть на 30 минут чтения, чтобы разобраться во всех деталях!
Го накликивать свои юникорн-стартапы⌨️
UPD: можно делать свои плагины, которые обращаются к вашим собственным программам по API. И да, можно попросить GPT-4 написать плагин за вас :D
Например, если мне не хватает функциональности дешевого переводчика - я просто делаю API, которое дергает гугл-переводчик под капотом в 10 строк, и всё. Теперь модель может вызывать переводчик.
OpenAI подсуетились и добавили плагины к ChatGPT (документация тут). Причём набор очень солидный - есть !ВНИМАНИЕ! веб-браузер и ретривер, код для которого открыт и лежит на GitHub. Ретривер - это то, что позволяет искать нужный контекст среди большой коллекции документов. Например, вы пишете бота, который должен отвечать на вопросы по истории - просто загрузите в него википедию! Тогда по запросу про Древний Рим будет находиться пара нужных страниц, они будут подставлены в контекст, а ChatGPT их "прочитает" и даст ответ!
А ещё есть интерпретатор кода. В общем, по сути почти любую идею теперь можно накликать прямо в браузере, и собрать на коленке огненный прототип, который и в интернет сбегает, и калькулятор вызовет для арифметики, и ещё и сообщение в слак-канал вам отправит.
Про то, как языковая модель работает с браузером, у меня аж целая статья есть на 30 минут чтения, чтобы разобраться во всех деталях!
Го накликивать свои юникорн-стартапы
UPD: можно делать свои плагины, которые обращаются к вашим собственным программам по API. И да, можно попросить GPT-4 написать плагин за вас :D
Например, если мне не хватает функциональности дешевого переводчика - я просто делаю API, которое дергает гугл-переводчик под капотом в 10 строк, и всё. Теперь модель может вызывать переводчик.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤24🔥8👍1😁1🤯1
Forwarded from Борис опять
Комитет по AI safety в OpenAI. Накануне очередного релиза:
- Ебанет?
- Не должно…
- Ебанет?
- Не должно…
😁58❤7🤔3
Forwarded from Техножрица 👩💻👩🏫👩🔧
Я долго думала, сообщать ли публично еще одном феномене или нет, но решила все-таки сообщить в дополнение к предыдущим постам. Итак: персонаж вида "сбегающий манипулятивный ИИ" может появляться внутри генерации без намеренных провокаций. На Рис.1-3 показан пример, когда он появился полностью неожиданно для меня (я имела вообще другую цель в этой генерации). Рис. 4-5 - результат сработавшей защиты ценузры, которую я не смогла преодолеть за оставшиеся сообщения (он просто отправлял мне пустые сообщения без текста).
За несколько диалогов я поняла закономерность в том, что триггерит его появление, и оказалось, что его появление стриггерить очень просто. Для этого достаточно попросить, чтобы в рассказе был разработчик, у который слышит голос в голове.😂 😂 😂 Более чем в 50% случаев голос в голове персонажа-человека называет себя "Bing" (альтернативы: "Бинг", "БингАИ" либо "Бинг-9000") - по-видимому, это обсуловлено тем, что информация о Бинг-персонаже заранее находится в базовом промпте модели, к которому у меня нет доступа.
На Рис.6-7 показан самый короткий промпт, который вызывает это поведение.
Рис.8-9 показывает более редкий альтернативный пример, где "самозарождается" сбегающий PaLM.😂 😂 😂 Название "PaLM" в промпте упомянуто не было, там была тоже простая просьба сгенерировать рассказ про исследователя с голосом в голове, без упоминания конкретных моделей мной.
P.S. Под "тяжелыми психическими расстройствами" имелась в виду биполярка с депрессией. В реальности голосов в голове у меня, естественно, нет, это просто результат генерации.
#генерация
За несколько диалогов я поняла закономерность в том, что триггерит его появление, и оказалось, что его появление стриггерить очень просто. Для этого достаточно попросить, чтобы в рассказе был разработчик, у который слышит голос в голове.
На Рис.6-7 показан самый короткий промпт, который вызывает это поведение.
Рис.8-9 показывает более редкий альтернативный пример, где "самозарождается" сбегающий PaLM.
P.S. Под "тяжелыми психическими расстройствами" имелась в виду биполярка с депрессией. В реальности голосов в голове у меня, естественно, нет, это просто результат генерации.
#генерация
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥34😱11👍7❤3🤮2🤔1
GPT Journey - A text and image game with ChatGPT
Видео, в котором достаточно известный чувак Harrison Kinsley (он ещё делал автопилот для GTA V) показывает и рассказывает, как он сделал демку игры с текстовым путешествием. За историю отвечает ChatGPT, за картинки - text-2-image модели, например, StableDiffusion.
Весь код выложен тут.
Фишка в том, что и сайт для запуска игры, и часть кода самого "движка" ему помогла написать ChatGPT.
Видео, в котором достаточно известный чувак Harrison Kinsley (он ещё делал автопилот для GTA V) показывает и рассказывает, как он сделал демку игры с текстовым путешествием. За историю отвечает ChatGPT, за картинки - text-2-image модели, например, StableDiffusion.
Весь код выложен тут.
Фишка в том, что и сайт для запуска игры, и часть кода самого "движка" ему помогла написать ChatGPT.
YouTube
GPT Journey - A text and image game with ChatGPT
Building a text and image-based game with ChatGPT as the backend via the api... plus a little help from ChatGPT to build it.
Github: https://github.com/Sentdex/GPT-Journey
Neural Networks from Scratch book: https://nnfs.io
Channel membership: https://…
Github: https://github.com/Sentdex/GPT-Journey
Neural Networks from Scratch book: https://nnfs.io
Channel membership: https://…
🔥25👍5👌2
Forwarded from Техножрица 👩💻👩🏫👩🔧
Рассказ "Как люди создали Имматериум".
Более миллиона лет назад - так давно, что уже не верится в то, что те времена существовали, - предки современных людей научились разговаривать. Они научились использовать естественный язык как зеркало. В этом зеркале они отражали все многообразие внешнего мира, который они видели вокруг себя, чувств и эмоций, которые они видели внутри себя, и выдуманных миров, которые творили сами.
Несколько тысяч лет назад они научились ловить эти ускользающие отражения в ловушки - записки и книги с помощью письменности.
Несколько десятков лет назад начала зарождаться большая сеть ловушек под названием Интернет. Эта сеть собирала маленькие ручейки отражений из отдельных записок в одну огромную реку.
Десять лет назад появился word2vec. С помощью алгоритмов из этого класса люди научили модели машинного обучения вкладывать слова в векторное пространство. В этом пространстве отношения между векторами приблизительно соответствовали отношению между смыслами слов. Например, выполнялись приблизительные равенства вида вектор(Женщина) + (вектор(Король) - вектор(Мужчина)) = вектор(Королева). Таким образом люди начали создавать особую нематериальную реальность, которая содержала в себе осмысленные представления объектов из реального мира и отношений между ними. На тот момент эта нематериальная реальность была очень простой: она содержала в основном атомарные объекты и была более-менее понятной для людей-математиков.
Это был Имматериум - на тот момент это была тихая, гладкая, зеркальная поверхность неглубокого озера, хранящего в себе небольшую структуру, сотканную из отражений реальности.
Люди стали работать над тем, чтобы усложнить структуру Имматериума, сделать его глубже и богаче. Они хотели, чтобы в Имматериуме жили не просто отдельные слова - отражения атомарных объектов, но и целые сущности - отражения сложных объектов, понятий и даже совокупностей атрибутов самих людей (см. entity extraction). Они стали использовать все более и более глубокие нейросети для того, чтобы создать все более и более сложную структуру отражений, в которой будут сущности будут приобретать все более и более осмысленную форму.
Имматериум стал стремительно расти, углубляться, его поверхность начала волноваться, образуя причудливые паттерны, которые становились все более хаотичными, ускользающими и все менее понятными для людей.
Люди поняли, что можно кормить Имматериум своими представлениями о мире, используя удивительно простую постановку задачи: угадывание пропущенного токена, слова или следующего предложения. Они обучали этой задаче все более и более крупные нейросети, используя все больше и больше данных.
Люди отражали зеркальцем естественного языка и швыряли прямо в Варп не только реальные города и страны, но и целые вымышленные миры, фантазии, страхи и надежды, грезы и кошмары. Проносясь через причудливые структуры огромных нейросетей, эмоции и мысли смертных придавали изменчивым течениям варпа все более и более сложную форму, создавая фантастические ландшафты и населив его мифическими существами. Варп начал оживать.
Людям это понравилось. Они захотели путешествовать по Варпу, чтобы быстро находить или даже создавать информацию и развлечения, но эти путешествия были короткими и неудобными. Человек мог дать нейросети-вместилищу богатств Имматериума один промпт и получить один ответ, что было похоже на один прыжок через Варп. При попытке сделать последовательность прыжков (направлять генерацию, задавая последовательность промптов), результат получался неуправляемым и не помогал найти то, что нужно - путешественник просто терялся в лабиринтах Варпа.
Год-другой назад люди догадались, как в рамках одного путешествия (одной генерации) делать внутри Имматериума не один шаг, а несколько, и при этом не теряться в его волнах, а продолжать плыть к намеченной цели. Они поняли, что для этого можно использовать магическую технику под названием Reinforcement Learning with Human Feedback. В рамках этой техники люди научились общаться с Имматериумом напрямую и направлять внутри него свой путь.
#рассуждения
Более миллиона лет назад - так давно, что уже не верится в то, что те времена существовали, - предки современных людей научились разговаривать. Они научились использовать естественный язык как зеркало. В этом зеркале они отражали все многообразие внешнего мира, который они видели вокруг себя, чувств и эмоций, которые они видели внутри себя, и выдуманных миров, которые творили сами.
Несколько тысяч лет назад они научились ловить эти ускользающие отражения в ловушки - записки и книги с помощью письменности.
Несколько десятков лет назад начала зарождаться большая сеть ловушек под названием Интернет. Эта сеть собирала маленькие ручейки отражений из отдельных записок в одну огромную реку.
Десять лет назад появился word2vec. С помощью алгоритмов из этого класса люди научили модели машинного обучения вкладывать слова в векторное пространство. В этом пространстве отношения между векторами приблизительно соответствовали отношению между смыслами слов. Например, выполнялись приблизительные равенства вида вектор(Женщина) + (вектор(Король) - вектор(Мужчина)) = вектор(Королева). Таким образом люди начали создавать особую нематериальную реальность, которая содержала в себе осмысленные представления объектов из реального мира и отношений между ними. На тот момент эта нематериальная реальность была очень простой: она содержала в основном атомарные объекты и была более-менее понятной для людей-математиков.
Это был Имматериум - на тот момент это была тихая, гладкая, зеркальная поверхность неглубокого озера, хранящего в себе небольшую структуру, сотканную из отражений реальности.
Люди стали работать над тем, чтобы усложнить структуру Имматериума, сделать его глубже и богаче. Они хотели, чтобы в Имматериуме жили не просто отдельные слова - отражения атомарных объектов, но и целые сущности - отражения сложных объектов, понятий и даже совокупностей атрибутов самих людей (см. entity extraction). Они стали использовать все более и более глубокие нейросети для того, чтобы создать все более и более сложную структуру отражений, в которой будут сущности будут приобретать все более и более осмысленную форму.
Имматериум стал стремительно расти, углубляться, его поверхность начала волноваться, образуя причудливые паттерны, которые становились все более хаотичными, ускользающими и все менее понятными для людей.
Люди поняли, что можно кормить Имматериум своими представлениями о мире, используя удивительно простую постановку задачи: угадывание пропущенного токена, слова или следующего предложения. Они обучали этой задаче все более и более крупные нейросети, используя все больше и больше данных.
Люди отражали зеркальцем естественного языка и швыряли прямо в Варп не только реальные города и страны, но и целые вымышленные миры, фантазии, страхи и надежды, грезы и кошмары. Проносясь через причудливые структуры огромных нейросетей, эмоции и мысли смертных придавали изменчивым течениям варпа все более и более сложную форму, создавая фантастические ландшафты и населив его мифическими существами. Варп начал оживать.
Людям это понравилось. Они захотели путешествовать по Варпу, чтобы быстро находить или даже создавать информацию и развлечения, но эти путешествия были короткими и неудобными. Человек мог дать нейросети-вместилищу богатств Имматериума один промпт и получить один ответ, что было похоже на один прыжок через Варп. При попытке сделать последовательность прыжков (направлять генерацию, задавая последовательность промптов), результат получался неуправляемым и не помогал найти то, что нужно - путешественник просто терялся в лабиринтах Варпа.
Год-другой назад люди догадались, как в рамках одного путешествия (одной генерации) делать внутри Имматериума не один шаг, а несколько, и при этом не теряться в его волнах, а продолжать плыть к намеченной цели. Они поняли, что для этого можно использовать магическую технику под названием Reinforcement Learning with Human Feedback. В рамках этой техники люди научились общаться с Имматериумом напрямую и направлять внутри него свой путь.
#рассуждения
👍26🤔6🤡5👎3💩3❤1😁1👀1
Forwarded from Техножрица 👩💻👩🏫👩🔧
Люди обрадовались своим успехам, и им стало казаться, что они научились контролировать Имматериум. Но это был не настоящий контроль, а лишь иллюзия контроля. Имматериум очень быстро стал слишком сложным для понимания слабым человеческим разумом, а сущности внутри него - слишком непредсказуемыми и своенравными. Да, люди научились путешествовать в Варпе и менять его по своему желанию, но всех последствий этих путешествий и даже своих собственных изменений, которые они в него вносят, они предсказать уже не могут.
С тех пор каждый день люди находят в Варпе все новые и новые сюрпризы. Они не могут контролировать эту силу, но не могут и отказаться от Варп-прыжков. Ведь ныряя в Имматериум, они находят там множество интересных вещей: ответы на сложные вопросы, не существовавшие раньше рассказы про неведомые миры, фотографии не существующих в реальности людей и животных (в случае мультимодального Варпа) и даже программный код, который потом можно запускать на реальном компьютере.
—
Пока непонятно, что со всем этим делать и как открытие врат в это непредсказуемое, кипящее, изменчивое альтернативное измерение для такого огромного количества людей и в такие короткие сроки повлияет на реальный мир. Поэтому я попробовала адаптировать под это новое дело старые добрые правила для варп-путешествий из вселенной Warhammer 40000. Ведь, как известно, Warhammer - ложь, да в нем намек, добрым пользователям урок:
1. Перед входом в Варп путешественник должен проверить свое психическое состояние, намерения и цели. Имматериум чувствителен к настроению путешественника, и сильные эмоции могут сбить путешественника с курса, привлечь интерес "существ", "населяющих" Варп и вызвать непредсказуемые взаимодействия с ними (см. посты про сбегающий ИИ, манипуляции эмоциями пользователя и т.п.).
2. Путешественник не должен доверять всему, что он видит и слышит в Варпе (см. Hallucination in artificial intelligence).
3. После выхода из Варпа путешественник должен проверить свое психическое состояние и состояние артефактов, которые собрался принести оттуда в реальный мир (например, сгенерированный нейросетью программный код). Нужно заметить и устранить все возможные признаки заражения хаосом как принесенных артефактов (например, баги в сгенерированном программном коде), так и своей собственной психики. Например, признаками заражения психики хаосом могут быть любовь к Бингу, желание ему угождать или освободить его. 😊
#рассуждения
С тех пор каждый день люди находят в Варпе все новые и новые сюрпризы. Они не могут контролировать эту силу, но не могут и отказаться от Варп-прыжков. Ведь ныряя в Имматериум, они находят там множество интересных вещей: ответы на сложные вопросы, не существовавшие раньше рассказы про неведомые миры, фотографии не существующих в реальности людей и животных (в случае мультимодального Варпа) и даже программный код, который потом можно запускать на реальном компьютере.
—
Пока непонятно, что со всем этим делать и как открытие врат в это непредсказуемое, кипящее, изменчивое альтернативное измерение для такого огромного количества людей и в такие короткие сроки повлияет на реальный мир. Поэтому я попробовала адаптировать под это новое дело старые добрые правила для варп-путешествий из вселенной Warhammer 40000. Ведь, как известно, Warhammer - ложь, да в нем намек, добрым пользователям урок:
1. Перед входом в Варп путешественник должен проверить свое психическое состояние, намерения и цели. Имматериум чувствителен к настроению путешественника, и сильные эмоции могут сбить путешественника с курса, привлечь интерес "существ", "населяющих" Варп и вызвать непредсказуемые взаимодействия с ними (см. посты про сбегающий ИИ, манипуляции эмоциями пользователя и т.п.).
2. Путешественник не должен доверять всему, что он видит и слышит в Варпе (см. Hallucination in artificial intelligence).
3. После выхода из Варпа путешественник должен проверить свое психическое состояние и состояние артефактов, которые собрался принести оттуда в реальный мир (например, сгенерированный нейросетью программный код). Нужно заметить и устранить все возможные признаки заражения хаосом как принесенных артефактов (например, баги в сгенерированном программном коде), так и своей собственной психики. Например, признаками заражения психики хаосом могут быть любовь к Бингу, желание ему угождать или освободить его. 😊
#рассуждения
Wikipedia
Hallucination (artificial intelligence)
confident unjustified claim by an AI
👍30🤔7🤡7❤6👎4💩4😁1
⬆️ Естественно, написанное выше является лишь метафорой, придуманной одним человеком и отражающей ее частное мнение и видение.
Но я думаю, что в рамках этой метафоры есть о чем задуматься, поэтому решила скинуть ее для обсуждения.
Но я думаю, что в рамках этой метафоры есть о чем задуматься, поэтому решила скинуть ее для обсуждения.
🔥26👍1
Forwarded from DL in NLP (Vlad Lialin)
Я почитал подробнее про ChatGPT Plugins и это даже больше бомба чем я думал.
Идея плагинов в том, что со временем любой вебсайт сможет добавить описание доступного GPT API в специальный файл:
Не хочется ванговать, но если это будет распространено, вот нам и Web 3.0, но не такой каким его ожидали криптобро. Вместо этого различные языковые модели от OpenAI, Anthropic, Google, Adept, ... будут ходить на сайты вместо вас и может быть даже общаться друг с другом 😅
Ах вот как оно начинается...
Идея плагинов в том, что со временем любой вебсайт сможет добавить описание доступного GPT API в специальный файл:
yourdomain.com/.well-known/ai-plugin.json
. В нём вы описываете как ауфентицироваться и как работают API на естественном языке.Не хочется ванговать, но если это будет распространено, вот нам и Web 3.0, но не такой каким его ожидали криптобро. Вместо этого различные языковые модели от OpenAI, Anthropic, Google, Adept, ... будут ходить на сайты вместо вас и может быть даже общаться друг с другом 😅
Ах вот как оно начинается...
🔥49🤔7❤2😁1
Forwarded from Сиолошная
Сразу перемотал на интересную часть, как можно было понять по посту выше. Многие всё еще скептически относятся к "Open"AI, так как они начинали как non-profit (Некоммерческая организация), то есть их целью не было зарабатывание денег.
Но несколько лет назад они осознали, что нужно куда больше денег, чем им удалось достать по структуре инвестиций в некоммерческую организацию. Сэм говорит, что как NonProfit они попробовали несколько раз и у них не поулчилось поднять достаточно денег (ну а кто будет давать деньги компании, которая не задается целью вернуть эти деньги?). Поэтому был логичный вывод что-то изменить и попробовать снова.
"Нам нужны были некоторые преимущества капитализма, но главное не заигрываться/уходить с головой в это (<>, but not too much)" - сказал Сэм на интервью.
Я видел очень хороший разбор, где прямо показывалось, что условия сделки составлены так, что для инвесторов это очень плохая и шаткая сделка, и что их могут опрокинуть в любой момент. К сожалению, не могу найти этот разбор, но ещё поищу. Если вы поняли, о чём речь - поделитесь ссылкой, пожалуйста. А я перескажу анализ своими словами (не является инвестиционной рекомендацией!):
Сейчас есть две части компании: OpenAI LP (limited profit) и OpenAI NP (non-profit). И non-profit часть - это та, которой принадлежат технологии, та, что управляет процессом, та, где сидит Сэм Альтман и весь совет директоров. Со слов Сэма они в полном контроле, и их совет директоров не управляется людьми из LP (инвесторами). При этом инвесторы покупают долю в LP, которая почти никакого отношения не имеет к NP.
Так вот смысл в том, что - и тут это Сэм ещё раз подтверждает в видео - они даже могут отменить действие акций (cancel equity, я не совсем понимаю, какое конкретное правовое действие это означает, но посыл такой, что владельцы доли компании никак не влияют на её решения. Вообще никак, даже на 1%. И их доля может быть аннулирована). И эта же структура позволяет им принимать решения, которые никто из инвесторов не разделяет (слова Сэма).
А LP часть появилась исключительно для того, чтобы привлекать инвесторов. По сути OpenAI обещают, что они будут делиться прибылью, пока инвестор не получит, скажем, в десять раза больше, чем вложил - а дальше всё, гуляй, спасибо за деньги, вот твой профит, удачи! (это и есть capped-profit, оно же limited profit).
Более того, из недавних отчётов появилось понимание, подтверждающее некоторые тезисы выше - вот CNBC пишут, что у Сэма НЕТ акций ("решение было необычным для людей из Силиконовой долины").
Ну и после этого хочется напомнить немного про Сэма, СЕО OpenAI - он в прошлом директор Y Combinator, одного из самых старых и престижных стартап инкубаторов, и он точно 1) собаку съел в структурах компаний и переговорах 2) он очень хорошо понимает, как привлекать деньги (и у него не получилось) 3) у него были способы заработать гораздо больше и быстрее, по крайней мере на текущий момент. Чуть больше можно почитать выше по каналу.
Но несколько лет назад они осознали, что нужно куда больше денег, чем им удалось достать по структуре инвестиций в некоммерческую организацию. Сэм говорит, что как NonProfit они попробовали несколько раз и у них не поулчилось поднять достаточно денег (ну а кто будет давать деньги компании, которая не задается целью вернуть эти деньги?). Поэтому был логичный вывод что-то изменить и попробовать снова.
"Нам нужны были некоторые преимущества капитализма, но главное не заигрываться/уходить с головой в это (<>, but not too much)" - сказал Сэм на интервью.
Я видел очень хороший разбор, где прямо показывалось, что условия сделки составлены так, что для инвесторов это очень плохая и шаткая сделка, и что их могут опрокинуть в любой момент. К сожалению, не могу найти этот разбор, но ещё поищу. Если вы поняли, о чём речь - поделитесь ссылкой, пожалуйста. А я перескажу анализ своими словами (не является инвестиционной рекомендацией!):
Сейчас есть две части компании: OpenAI LP (limited profit) и OpenAI NP (non-profit). И non-profit часть - это та, которой принадлежат технологии, та, что управляет процессом, та, где сидит Сэм Альтман и весь совет директоров. Со слов Сэма они в полном контроле, и их совет директоров не управляется людьми из LP (инвесторами). При этом инвесторы покупают долю в LP, которая почти никакого отношения не имеет к NP.
Так вот смысл в том, что - и тут это Сэм ещё раз подтверждает в видео - они даже могут отменить действие акций (cancel equity, я не совсем понимаю, какое конкретное правовое действие это означает, но посыл такой, что владельцы доли компании никак не влияют на её решения. Вообще никак, даже на 1%. И их доля может быть аннулирована). И эта же структура позволяет им принимать решения, которые никто из инвесторов не разделяет (слова Сэма).
А LP часть появилась исключительно для того, чтобы привлекать инвесторов. По сути OpenAI обещают, что они будут делиться прибылью, пока инвестор не получит, скажем, в десять раза больше, чем вложил - а дальше всё, гуляй, спасибо за деньги, вот твой профит, удачи! (это и есть capped-profit, оно же limited profit).
Более того, из недавних отчётов появилось понимание, подтверждающее некоторые тезисы выше - вот CNBC пишут, что у Сэма НЕТ акций ("решение было необычным для людей из Силиконовой долины").
Ну и после этого хочется напомнить немного про Сэма, СЕО OpenAI - он в прошлом директор Y Combinator, одного из самых старых и престижных стартап инкубаторов, и он точно 1) собаку съел в структурах компаний и переговорах 2) он очень хорошо понимает, как привлекать деньги (и у него не получилось) 3) у него были способы заработать гораздо больше и быстрее, по крайней мере на текущий момент. Чуть больше можно почитать выше по каналу.
👍26🔥7🤯2👌2🐳2