Лонг на хабр
Статья, которую я сейчас пишу заняла у меня просто огромное количество времени. На этих выходных часов 12 на нее потратил, и до этого еще столько же, хотя она мне очень нравится. Но я здесь не за этим!
В процессе написания попробовал и ощутил все 💅удобства💅 Notion для написания лонгов - с ними я и хочу поделиться.
1️⃣ Переодически использую NotionAI
По-моему, это первая нейронка, которая не просто переписывает твой текст с нуля в "машинном стиле", как это делает гпт, а реально может заменить 2-3 слова на более подходящих и подсветить их. Очень удобно, потому что с ChatGPT процесс выглядит так:
1. Скопировал
2. Пошел в ЧатГПТ
3. Он тебе переписал вообще весь текст
4. Сравниваешь два варианта вручную и выбираешь лишь некоторые слова из предложенных.
С ноушн это куда проще и уходит много ручной работы из-за высокой степени интеграции.
Хотя у него есть и минусы: не отличается умом (по-крайней мере я не отметил), и с ним сложно проводить брейнштормы и писать параграфы с нуля.
2️⃣ Любую страницу в Notion можно опубликовать как сайт
Да-да, этим не только удобно делиться с друзьями, но и поможет индексироваться в поисковых запросах. Гугл документы, конечно, так тоже могут, в особенности с закрытыми файлами, но разница между версткой у двух колоссальна, да и удобство интеграций тоже.
Знаете, что меня всегда раздражало с такой версткой, как у Notion? Ее нельзя скопировать в два клика - там все разделено на блоки и это удручает. Как работать с GPT? А это и есть третий пункт!
3️⃣ ChatGPT умеет читать интернет. Notion тоже
Да - вы просто можете отправить ссылку на опубликованную страницу и получить фидбек. А какой это должен быть фидбек?
Я недавно прочитал, что с помощью ChatGPT можно проводить кастдевы - она неплохо отражает культурный, социальный и демографический контекст. В некоторых случаях ответы совпадают до 70-80%! Я решил применить ее не для кастдева, а для фидбека на статью...
Статья, которую я сейчас пишу заняла у меня просто огромное количество времени. На этих выходных часов 12 на нее потратил, и до этого еще столько же, хотя она мне очень нравится. Но я здесь не за этим!
В процессе написания попробовал и ощутил все 💅удобства💅 Notion для написания лонгов - с ними я и хочу поделиться.
1️⃣ Переодически использую NotionAI
По-моему, это первая нейронка, которая не просто переписывает твой текст с нуля в "машинном стиле", как это делает гпт, а реально может заменить 2-3 слова на более подходящих и подсветить их. Очень удобно, потому что с ChatGPT процесс выглядит так:
1. Скопировал
2. Пошел в ЧатГПТ
3. Он тебе переписал вообще весь текст
4. Сравниваешь два варианта вручную и выбираешь лишь некоторые слова из предложенных.
С ноушн это куда проще и уходит много ручной работы из-за высокой степени интеграции.
Хотя у него есть и минусы: не отличается умом (по-крайней мере я не отметил), и с ним сложно проводить брейнштормы и писать параграфы с нуля.
2️⃣ Любую страницу в Notion можно опубликовать как сайт
Да-да, этим не только удобно делиться с друзьями, но и поможет индексироваться в поисковых запросах. Гугл документы, конечно, так тоже могут, в особенности с закрытыми файлами, но разница между версткой у двух колоссальна, да и удобство интеграций тоже.
Знаете, что меня всегда раздражало с такой версткой, как у Notion? Ее нельзя скопировать в два клика - там все разделено на блоки и это удручает. Как работать с GPT? А это и есть третий пункт!
3️⃣ ChatGPT умеет читать интернет. Notion тоже
Да - вы просто можете отправить ссылку на опубликованную страницу и получить фидбек. А какой это должен быть фидбек?
Я недавно прочитал, что с помощью ChatGPT можно проводить кастдевы - она неплохо отражает культурный, социальный и демографический контекст. В некоторых случаях ответы совпадают до 70-80%! Я решил применить ее не для кастдева, а для фидбека на статью...
❤8🔥2
Закинул следующий промпт:
Для некоторых частей вышло довольно неплохо:
Хотя я на это и не делал особый фокус, но, возможно, учесть стоит. Такой подход стоит адаптировать и сделать несколько прогонов, чтобы собрать больше данных и потенциально проблемных мест. После этого, отправлю статью на ревью уже живым людям и сравню фидбек.
Ты студент 2-3 курса по направлению программирования с базовыми знаниями в области алгебры, алгоритмов машинного обучения, программирования и смежных дисциплин. Внимательно прочитай следующую статью и напиши на неё детальную рецензию. В рецензии должны быть освещены следующие аспекты:
Что тебе понравилось в статье?
Что тебе не понравилось или показалось недостаточным?
Какие части статьи были непонятны или сложны для понимания?
Как бы ты улучшил статью, как с точки зрения содержания, так и с точки зрения подачи материала?
Кроме того, не стесняйся включать другие замечания или наблюдения, которые, по твоему мнению, важны для обсуждения. Убедись, что твоя рецензия хорошо структурирована и логична, отражает уровень твоего понимания и критического мышления.
Для некоторых частей вышло довольно неплохо:
Сложности в понимании: Наиболее сложным разделом оказалась часть, посвященная интерпретации скрытых состояний моделей трансформеров. Здесь автору следовало бы предоставить более интуитивные примеры или визуализации, чтобы облегчить понимание для студентов с ограниченным опытом работы с нейросетями.
Хотя я на это и не делал особый фокус, но, возможно, учесть стоит. Такой подход стоит адаптировать и сделать несколько прогонов, чтобы собрать больше данных и потенциально проблемных мест. После этого, отправлю статью на ревью уже живым людям и сравню фидбек.
❤5🔥2👍1
Удержание клиентов у Notion
Печально, что он объявил об уходе из России сразу после моего поста. Решил оформить подписку на NotionAI - так сильно он мне понравился чисто под написание статей. Я еще не знаю, буду ли продливать ее, поэтому, как и в любых сервисах с подпиской, после покупки я сразу ее отменяю. Видимо, продакты у Ноушн хорошо знакомы с этим сценарием, поэтому в окне отмены подписки они предлагают скидку в 50% на 3 месяца.
1. С одной стороны, мне не хочется упускать целых 3 месяца с 50% скидкой - если я сразу ее отменю, то больше не получу, когда захочу заново продлить.
2. Есть вероятность, что я забуду ее отменить и не захочу пользоваться их АИ - тогда они бесплатно будут получать 50% месяц-два, если потом вспомню.
3. Если я все же ей осознанно воспользуюсь, то буду их клиентом на целых 3 месяца - вероятность конверсии в следующие платежи становится как будто бы выше.
Таким образом они 100% понижают уход пользователей в первый месяц, когда происходит самый большой спад. Интересно, насколько в процентах это влияет на конверсию в следующие покупки, и скольких людей они сделали так своими постоянными клиентами.
Печально, что он объявил об уходе из России сразу после моего поста. Решил оформить подписку на NotionAI - так сильно он мне понравился чисто под написание статей. Я еще не знаю, буду ли продливать ее, поэтому, как и в любых сервисах с подпиской, после покупки я сразу ее отменяю. Видимо, продакты у Ноушн хорошо знакомы с этим сценарием, поэтому в окне отмены подписки они предлагают скидку в 50% на 3 месяца.
1. С одной стороны, мне не хочется упускать целых 3 месяца с 50% скидкой - если я сразу ее отменю, то больше не получу, когда захочу заново продлить.
2. Есть вероятность, что я забуду ее отменить и не захочу пользоваться их АИ - тогда они бесплатно будут получать 50% месяц-два, если потом вспомню.
3. Если я все же ей осознанно воспользуюсь, то буду их клиентом на целых 3 месяца - вероятность конверсии в следующие платежи становится как будто бы выше.
Таким образом они 100% понижают уход пользователей в первый месяц, когда происходит самый большой спад. Интересно, насколько в процентах это влияет на конверсию в следующие покупки, и скольких людей они сделали так своими постоянными клиентами.
❤5🔥2👍1
Могут ли трансформеры думать?
В этой статье мы разберем как трансформеры решают задачи рассуждения, какие цепочки формируются внутри и посмотрим на феномен гроккинга - когда модель начинает решать задачи на тестовой выборке, хотя по логике не должна. Подготовил большой ноутбук с кодом, где мы натренируем модель решать задачу рассуждения с помощью гроккинга с 100% метрикой.
Честно, мне эта статья очень понравилась - редко такое происходит, но тут на меня напала муза и заставила потратить часов 20-25 в последние выходные.
Так что, жду ваших оценок, репостов и комментариев
https://habr.com/ru/articles/840136/
В этой статье мы разберем как трансформеры решают задачи рассуждения, какие цепочки формируются внутри и посмотрим на феномен гроккинга - когда модель начинает решать задачи на тестовой выборке, хотя по логике не должна. Подготовил большой ноутбук с кодом, где мы натренируем модель решать задачу рассуждения с помощью гроккинга с 100% метрикой.
Честно, мне эта статья очень понравилась - редко такое происходит, но тут на меня напала муза и заставила потратить часов 20-25 в последние выходные.
Так что, жду ваших оценок, репостов и комментариев
https://habr.com/ru/articles/840136/
Хабр
Могут ли трансформеры «думать»
Недавние исследования показывают, что модели трансформеров способны почти безошибочно решать задачи, требующие нескольких логических шагов. Например, из утверждения А вывести Б и дойти логически до В....
❤8👍2❤🔥1
Студенчество в Германии
Разница между европейскими и снг вузами заключается не в образовании и лекциях - в российском сегменте есть очень крутые курсы. Да и если очень хочется, то знания можно получить из онлайн лекций: от МФТИ до MIT.
В чем разница до сих пор значительна - общество вокруг университета. Например, в Европе существуют братства студентов, которым уже по несколько сотен лет. Да-да, вот эти, которых вы видели в американских фильмах «альфа», «бета» и другие буквы греческого алфавита, но здесь они не только играют в футбол.
Вообще, у каждого братства своя история, герб и традиции. Их объединяет одно: нужно жить по правилам и проводить уйму времени с его членами. Вставать в 6 утра для занятий по фехтованию, совместного завтрака, и ложиться после общего ужина - норма. Живете вы все, естественно, в каком-нибудь большом старом доме.
Такой строгий распорядок компенсируется путешествиями, спортом, обменом опыта с другими братствами, и, безусловно, вечеринками, которые проходят между сессиями. Поставить столы для литрбола и позвать половину университета - лишь вершина всего этого.
Посвящение в подобное общество тоже особенное. У моего знакомого, например, украли герб братства - чуть ли не самый священный элемент - члены другого братства. Им вместе с другими первокурсниками необходимо было его вернуть, а для этого…. Их герб полностью накрыли кружками с пивом, которые нужно было выпить за два часа. Никто его в итоге так и не освободил, потому что минут через 40 все новички отключились и их пришлось нести домой.
Но братство, прежде всего, не о тусовках, а о людях. На ежегодные собрания приходят его старые члены - все они уже директора, фаундеры и прочие высокие должности. Они дают юным членам советы, помогают финансово и поддерживают традиции, которым уже сотни лет.
Разница между европейскими и снг вузами заключается не в образовании и лекциях - в российском сегменте есть очень крутые курсы. Да и если очень хочется, то знания можно получить из онлайн лекций: от МФТИ до MIT.
В чем разница до сих пор значительна - общество вокруг университета. Например, в Европе существуют братства студентов, которым уже по несколько сотен лет. Да-да, вот эти, которых вы видели в американских фильмах «альфа», «бета» и другие буквы греческого алфавита, но здесь они не только играют в футбол.
Вообще, у каждого братства своя история, герб и традиции. Их объединяет одно: нужно жить по правилам и проводить уйму времени с его членами. Вставать в 6 утра для занятий по фехтованию, совместного завтрака, и ложиться после общего ужина - норма. Живете вы все, естественно, в каком-нибудь большом старом доме.
Такой строгий распорядок компенсируется путешествиями, спортом, обменом опыта с другими братствами, и, безусловно, вечеринками, которые проходят между сессиями. Поставить столы для литрбола и позвать половину университета - лишь вершина всего этого.
Посвящение в подобное общество тоже особенное. У моего знакомого, например, украли герб братства - чуть ли не самый священный элемент - члены другого братства. Им вместе с другими первокурсниками необходимо было его вернуть, а для этого…. Их герб полностью накрыли кружками с пивом, которые нужно было выпить за два часа. Никто его в итоге так и не освободил, потому что минут через 40 все новички отключились и их пришлось нести домой.
Но братство, прежде всего, не о тусовках, а о людях. На ежегодные собрания приходят его старые члены - все они уже директора, фаундеры и прочие высокие должности. Они дают юным членам советы, помогают финансово и поддерживают традиции, которым уже сотни лет.
❤11🔥3😁2
Я вообще не об этом хотел написать, но как-то получилось. Изначально хотел скинуть новость, что мы с коллегами выехали в бывший монастырь, который принадлежит университету.
3 дняпили нетворкали и обсуждали наши исследования, обмениваясь опытом и шутками. Было весело!
В какой-то момент все бары в Германии закрылись, и мы пошли в Австрию, чтобы купить пива.
3 дня
В какой-то момент все бары в Германии закрылись, и мы пошли в Австрию, чтобы купить пива.
❤7😍3🔥2
Как живет Balabol?
Помните, когда-то этот канал начинался как диалог о Balabol — боте для изучения английского языка? Так вот, сегодня он умер. Точнее, умер он уже давно, потому что времени на его развитие не было, но сегодня я решил, что это его последний месяц жизни. Из интересного:
-CAC = 2500 руб.
-LTV = 1200 руб.
-Количество подписчиков = 6
-Количество юзеров = 400
-Самая долгая подписка = 8 месяцев
Да! Были люди, которые подписывались на это почти год — шок. Но, по остальным цифрам, вы сами можете наблюдать, почему подобному сервису сложно взлететь. Конечно, можно сидеть и оптимизировать лендинг, таргет и всё остальное, но это, кажется, особого смысла не имеет.
Жалею ли я о потраченном времени? Нисколько! Я столькому научился, что это сложно передать словами. Теперь, когда я читаю какой-то материал про стартапы, кастдевы, метрики, я реально понимаю, зачем это нужно. У тебя появляется не только теоретическое представление "Да, звучит логично", но и осознание того, как это влияет на целостную картину продукта.
Вот несколько открытий и ошибок, которые я сделал для себя:
1️⃣ Пивот по модели роста
Когда сталкиваешься с тем, что CAC значительно больше, чем LTV, и рост за счёт платной рекламы не работает, стоит попробовать другие модели. Например, создать виральную модель роста с помощью контента в TikTok или реферальной программы. Но здесь нужно ответить на вопросы:
-Зачем пользователю делиться продуктом с другими пользователями?
-Какие user-user фичи позволят продукту стать вирусным?
Если бы Clubhouse не был о разговорах между людьми, зачем хосту привлекать своих друзей?
2️⃣ Не все продукты стоят автономности
Это касается целостности пользовательского пути. В английском, например, люди готовы отдавать большие деньги за курс, если их за руку проведут через все сложности и помогут с заданиями. Очень мало людей готовы остаться один на один с ошибками и без преподавателя, и ещё меньше готовы за это платить.
Из самых успешных проектов-ботов есть Speak. Год назад они привлекли инвестиции от самого OpenAI. Легко повторить, подумал я, но не учёл основного момента. Их бот — не основной продукт, это просто маркетинговый ход для их онлайн-курсов.
Так что подобный бот был бы крутым маркетинговым ходом: вот у нас есть ИИ, с которым ты можешь потренироваться и всё такое. Они переходят на бота, пробуют его, а затем идут на основной продукт, где им помогут заговорить. А бот — просто тренажёр для самых ответственных.
3️⃣ Встраиваем в уже имеющиеся привычки, а не создаём новые
Знать о своих ошибках в речи — очень полезная фича, но стоит ли она того, чтобы перестраивать свои привычки? Нет. Большинство людей и так не готовы тратить энергию на кликание слов в Duolingo, а когда ты предлагаешь им формировать предложения и поддерживать реальный диалог, это становится почти невозможным. Проект не на массовую аудиторию — даже близко.
Можно было подумать над тем, как добавить подобную технологию в уже существующие занятия с преподавателем — это имеет больше шансов на успех.
Помните, когда-то этот канал начинался как диалог о Balabol — боте для изучения английского языка? Так вот, сегодня он умер. Точнее, умер он уже давно, потому что времени на его развитие не было, но сегодня я решил, что это его последний месяц жизни. Из интересного:
-CAC = 2500 руб.
-LTV = 1200 руб.
-Количество подписчиков = 6
-Количество юзеров = 400
-Самая долгая подписка = 8 месяцев
Да! Были люди, которые подписывались на это почти год — шок. Но, по остальным цифрам, вы сами можете наблюдать, почему подобному сервису сложно взлететь. Конечно, можно сидеть и оптимизировать лендинг, таргет и всё остальное, но это, кажется, особого смысла не имеет.
Жалею ли я о потраченном времени? Нисколько! Я столькому научился, что это сложно передать словами. Теперь, когда я читаю какой-то материал про стартапы, кастдевы, метрики, я реально понимаю, зачем это нужно. У тебя появляется не только теоретическое представление "Да, звучит логично", но и осознание того, как это влияет на целостную картину продукта.
Вот несколько открытий и ошибок, которые я сделал для себя:
1️⃣ Пивот по модели роста
Когда сталкиваешься с тем, что CAC значительно больше, чем LTV, и рост за счёт платной рекламы не работает, стоит попробовать другие модели. Например, создать виральную модель роста с помощью контента в TikTok или реферальной программы. Но здесь нужно ответить на вопросы:
-Зачем пользователю делиться продуктом с другими пользователями?
-Какие user-user фичи позволят продукту стать вирусным?
Если бы Clubhouse не был о разговорах между людьми, зачем хосту привлекать своих друзей?
2️⃣ Не все продукты стоят автономности
Это касается целостности пользовательского пути. В английском, например, люди готовы отдавать большие деньги за курс, если их за руку проведут через все сложности и помогут с заданиями. Очень мало людей готовы остаться один на один с ошибками и без преподавателя, и ещё меньше готовы за это платить.
Из самых успешных проектов-ботов есть Speak. Год назад они привлекли инвестиции от самого OpenAI. Легко повторить, подумал я, но не учёл основного момента. Их бот — не основной продукт, это просто маркетинговый ход для их онлайн-курсов.
Так что подобный бот был бы крутым маркетинговым ходом: вот у нас есть ИИ, с которым ты можешь потренироваться и всё такое. Они переходят на бота, пробуют его, а затем идут на основной продукт, где им помогут заговорить. А бот — просто тренажёр для самых ответственных.
3️⃣ Встраиваем в уже имеющиеся привычки, а не создаём новые
Знать о своих ошибках в речи — очень полезная фича, но стоит ли она того, чтобы перестраивать свои привычки? Нет. Большинство людей и так не готовы тратить энергию на кликание слов в Duolingo, а когда ты предлагаешь им формировать предложения и поддерживать реальный диалог, это становится почти невозможным. Проект не на массовую аудиторию — даже близко.
Можно было подумать над тем, как добавить подобную технологию в уже существующие занятия с преподавателем — это имеет больше шансов на успех.
❤7
o1 рассуждения
TLDR;
- Новая модель OpenAI мне понравилась, но не для повседневных задач.
- С квантовой физикой не справилась.
- Для такой модели критически важна среда, чтобы у нее была возможность закрыть цикл: эксперимент - результаты - анализ
Недавно у OpenAI вышла модель, которая способна очень круто рассуждать. Мне стало интересно, насколько она действительно лучше 4o. Провел два теста:
1. План тренировок
2. Доделать формулу из моей последней статьи по квантовой физики
Из плюсов, новую модель вообще не нужно промптить - она за тебя лучше знает, как ей думать и действовать. Вопрос теперь не в том, каким образом ты промптишь модель, а какие данные ты ей даешь. Никогда такого не было, и вот опять: данные - нефть 21 века.
План
Я тут после годового перерыва решил вернуться в зал (после тренировки понял, что это то, чего мне очень не хватало) и попросил составить новую версию gpt план по моему восстановлению. Постарался описать все как можно более подробнее, чтобы получился максимально эффективный и персонализированный план.
💡o1
Мне не понравилось, что она с самого начала предложила план по группам мышц. Когда не занимался больше года, то тактика это не особо эффективная: стоит делать core тренировки на все тело месяц-два, а затем уже переходить на отдельные мышцы. После того, как я ей это сказал, то она быстро все поняла и составила план, который я изначально и хотел делать. Все понравилось, но со второй попытки.
Чат
🤨 4o
Закинул такой же промпт, и она почему-то решила мне ответить на английском, ну ладно. Но зато подобрала такой же сет на все тело с первого раза.
Чат
Вывод: Ризонинг и установка у o1 "пиши как можно детальнее" может мешать в последневных задачах. Ну да, модель то не для этого вообще делалась. Перейдем к реальной проверке.
Квантовая физика
Чат
Основная идея моей статьи в том, что квантовые случайные блуждания в симметричных фигурах можно симулировать на фигурах меньших размерностей. Например, куб можно симулировать на линии и потом восстановить однозначно вероятности блужданий на кубе. Проблема была в том, что я так и не нашел общей формулы для этой свертки - обнаружил какие-то частные случаи для решетки, куба и гиперциклов, нашел какие-то паттерны, но красивую формулу для всего так и не вывел.
Если коротко, то он не справился🙂 . В o1 нельзя кидать файлы, поэтому попросил 4o сделать выжимку статьи и отправил это в o1. Он очень много писал, нашел какую-то общую формулу - я это все прочитал, звучит логично, но не работает. Искать ошибку в логике было лень, поэтому я попросил рассчитать по его формуле свертки для некоторых фигур... Симметрию, может, он определил верно, но проблема в том, что на этих фигурах потом не восстановишь однозначно вероятности оригинального графа.
Чего не хватило
- Знаний?
Область, конечно, довольно специфичная. Не знаю, насколько эта модель хороша в хренении знаний и есть ли там внутрениий RAG, но как будто, если отправить вместе со своим запросом еще пару книжек и статей по квантовой физике, то выйдет лучше.
- Агентности?
Очень хочется посмотреть на эту модель в среде, где она могла бы самостоятельно писать код и запускать его. Формула не та? Это сложно проверить, пока не провести эксперимент. Я не пробовал, но очень интересно, что будет, если закинуть результаты и данные по ответам, которые модель дает. Так или иначе, людям тоже сложно сделать что-то с первой попытки. Особенно в разработке: пишешь код - тестируешь - переписываешь. Это циклический процесс.
TLDR;
- Новая модель OpenAI мне понравилась, но не для повседневных задач.
- С квантовой физикой не справилась.
- Для такой модели критически важна среда, чтобы у нее была возможность закрыть цикл: эксперимент - результаты - анализ
Недавно у OpenAI вышла модель, которая способна очень круто рассуждать. Мне стало интересно, насколько она действительно лучше 4o. Провел два теста:
1. План тренировок
2. Доделать формулу из моей последней статьи по квантовой физики
Из плюсов, новую модель вообще не нужно промптить - она за тебя лучше знает, как ей думать и действовать. Вопрос теперь не в том, каким образом ты промптишь модель, а какие данные ты ей даешь. Никогда такого не было, и вот опять: данные - нефть 21 века.
План
Я тут после годового перерыва решил вернуться в зал (после тренировки понял, что это то, чего мне очень не хватало) и попросил составить новую версию gpt план по моему восстановлению. Постарался описать все как можно более подробнее, чтобы получился максимально эффективный и персонализированный план.
Я планирую начать ходить в зал, у меня был большой перерыв - целый год, до этого постоянно занимался месяцев 6. Из физических активностей сейчас только бегаю. Напиши мне план упражнений в зале для восстановления формы на все тело. Хочу заниматься примерно час на занятие и 3 раза в неделю.
💡o1
Мне не понравилось, что она с самого начала предложила план по группам мышц. Когда не занимался больше года, то тактика это не особо эффективная: стоит делать core тренировки на все тело месяц-два, а затем уже переходить на отдельные мышцы. После того, как я ей это сказал, то она быстро все поняла и составила план, который я изначально и хотел делать. Все понравилось, но со второй попытки.
Чат
Закинул такой же промпт, и она почему-то решила мне ответить на английском, ну ладно. Но зато подобрала такой же сет на все тело с первого раза.
Чат
Вывод: Ризонинг и установка у o1 "пиши как можно детальнее" может мешать в последневных задачах. Ну да, модель то не для этого вообще делалась. Перейдем к реальной проверке.
Квантовая физика
Чат
Основная идея моей статьи в том, что квантовые случайные блуждания в симметричных фигурах можно симулировать на фигурах меньших размерностей. Например, куб можно симулировать на линии и потом восстановить однозначно вероятности блужданий на кубе. Проблема была в том, что я так и не нашел общей формулы для этой свертки - обнаружил какие-то частные случаи для решетки, куба и гиперциклов, нашел какие-то паттерны, но красивую формулу для всего так и не вывел.
Если коротко, то он не справился
Чего не хватило
- Знаний?
Область, конечно, довольно специфичная. Не знаю, насколько эта модель хороша в хренении знаний и есть ли там внутрениий RAG, но как будто, если отправить вместе со своим запросом еще пару книжек и статей по квантовой физике, то выйдет лучше.
- Агентности?
Очень хочется посмотреть на эту модель в среде, где она могла бы самостоятельно писать код и запускать его. Формула не та? Это сложно проверить, пока не провести эксперимент. Я не пробовал, но очень интересно, что будет, если закинуть результаты и данные по ответам, которые модель дает. Так или иначе, людям тоже сложно сделать что-то с первой попытки. Особенно в разработке: пишешь код - тестируешь - переписываешь. Это циклический процесс.
Please open Telegram to view this post
VIEW IN TELEGRAM
ChatGPT
ChatGPT - План тренировок для возвращения
Shared via ChatGPT
❤5🔥4👍2
Почему o1 такая дорогая?
15$\1mil - на вход и 60$\1mil - на выход. Это в 6 раз дороже 4o. Я накидал свое видение ситуации и на истину не претендую. От самого вероятного к менее:
👍 Отсутствие конкурентов
Сейчас у модели нет конкурентов в навыке рассуждений. Она намного лучше всех остальных моделей для комплексных задач. Отсутствие конкуренции - всегда отличный предлог для повышения цен. Если вспомнить, то OpenAI очень долго не понижали цены: пока не вышел Claude Sonnet, который был дешевле и на одном уровне с их топ моделью.
Ждем, пока Антропики релизнут свою модель для рассуждений, которую им придется сделать дешевле, чем у OpenAI.
🦙 Выделение нового сегмента
o1 на самом деле работает для более узкого сегмента, чем 4o. Задачи, где нужно глубокое рассуждение встречаются куда реже, но и ценятся выше. То есть тут работает простое правило "Вещь стоит столько, сколько за нее готовы заплатить". Если люди готовы платить больше для решения своих сложных задач, то почему не повысить цену и дать новой прослойке пользователей наслаждаться новыми сценариями пользования. Все равно остальные варианты в виде наемного рабочего куда дороже.
😥 Дефицит видеокарт
Возможно, модель потребляет больше ресурсов, чем их 4o. С учетом того, что сейчас идет просто война за свободные карты, у них может просто не быть ресурсов для поддержания высокого спроса модели. Высокий ценник - порог для входа и благодаря нему можно сохранить относительно низкий спрос на модель, которую не чем пока поддерживать.
📈 Окупаемость новой модели
Детали тренировки модели, конечно, неизвестны, но раз она работает на Ph.D уровне, то и разметка требуется соответствующая. Уже не получится просто нанять разметчиков из Африканских стран за 5$\час, как они делали для своих первых моделей. Короче, стоимость даже не тренировки (хотя это тоже возможно), а просто данных выросла в несколько раз. OpenAI хоть и "не нацелена на извлечение прибыли", благотворительной организацией пока все же не является. Поэтому выросшие косты по разработке просто переложила на конечного потребителя.
15$\1mil - на вход и 60$\1mil - на выход. Это в 6 раз дороже 4o. Я накидал свое видение ситуации и на истину не претендую. От самого вероятного к менее:
Сейчас у модели нет конкурентов в навыке рассуждений. Она намного лучше всех остальных моделей для комплексных задач. Отсутствие конкуренции - всегда отличный предлог для повышения цен. Если вспомнить, то OpenAI очень долго не понижали цены: пока не вышел Claude Sonnet, который был дешевле и на одном уровне с их топ моделью.
Ждем, пока Антропики релизнут свою модель для рассуждений, которую им придется сделать дешевле, чем у OpenAI.
🦙 Выделение нового сегмента
o1 на самом деле работает для более узкого сегмента, чем 4o. Задачи, где нужно глубокое рассуждение встречаются куда реже, но и ценятся выше. То есть тут работает простое правило "Вещь стоит столько, сколько за нее готовы заплатить". Если люди готовы платить больше для решения своих сложных задач, то почему не повысить цену и дать новой прослойке пользователей наслаждаться новыми сценариями пользования. Все равно остальные варианты в виде наемного рабочего куда дороже.
Возможно, модель потребляет больше ресурсов, чем их 4o. С учетом того, что сейчас идет просто война за свободные карты, у них может просто не быть ресурсов для поддержания высокого спроса модели. Высокий ценник - порог для входа и благодаря нему можно сохранить относительно низкий спрос на модель, которую не чем пока поддерживать.
Детали тренировки модели, конечно, неизвестны, но раз она работает на Ph.D уровне, то и разметка требуется соответствующая. Уже не получится просто нанять разметчиков из Африканских стран за 5$\час, как они делали для своих первых моделей. Короче, стоимость даже не тренировки (хотя это тоже возможно), а просто данных выросла в несколько раз. OpenAI хоть и "не нацелена на извлечение прибыли", благотворительной организацией пока все же не является. Поэтому выросшие косты по разработке просто переложила на конечного потребителя.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍1🤯1
Forwarded from epsilon correct
Сколько на самом деле стоит инференс GPT-4o?
Почему-то многие думают, что провайдеры больших языковых моделей продают API чуть ли не себе в убыток. Я бы хотел поделиться прикидками о том, почему это совсем не так, и заодно помечтать о том, сколько параметров мы можем себе позволить тратить на модель, которая сможет заменить человека в работе.
Все расчёты можно воспроизвести в колабе, меняя цифры, как вам захочется. Выводы остаются неизменны.
Для расчётов нам нужно сделать несколько допущений:
1. Количество активированных параметров в модели. Для GPT 4 Turbo широко ходили слухи про 200 миллиардов параметров, так что 4o должна быть меньше. По данным Artificial Analysis, пропускная способность GPT-4o – 95 tok/s, что находится между LLama 3.1 7b (182 tok/s) и 70b (80 tok/s). Для наших целей предположим, что в 4o 100 миллиардов активированных параметров, делая скидку на то, что в OpenAI инференсом занимаются крайне толковые люди. Кстати, Gemini Flash 1.5 с последним обновлением выдаёт 330 tok/s.
2. Амортизированная стоимость сервера с 8 H100. Чтобы не сильно расстраиваться, возьмём оценку сверху как цену такого сервера на AWS – на сегодняшний день $39.33 в час. На рынке цены могут быть минимум в пять раз меньше.
3. MFU – какой процент вычислений используется эффективно. Стандартом является 30-50%, для наших прикидок возьмём 30%.
При таких допущениях (а с другими вы можете поиграть в колабе), стоимость инференса миллиона токенов получается $0.23. Сравним это с официальной ценой в $2.5 за input и $10 за output и получим наценку API в ~50 раз. И это – оценка сверху со всеми допущениями в сторону удорожания. С другой стороны, кому-то же надо скидываться Саме на Koenigsegg.😮💨
Заодно мы можем посчитать, насколько дешевле модели в сравнении с кожаными мешками. Взяв минимальную зарплату в Нью-Йорке ($16) и производительность в 100 токенов в минуту (среднее у людей примерно 50 слов в минуту), получим стоимость миллиона токенов в $2666.67. Даже o1 со своими $60 / Mtok тут рядом не стоит. Есть, куда расти!
Почему-то многие думают, что провайдеры больших языковых моделей продают API чуть ли не себе в убыток. Я бы хотел поделиться прикидками о том, почему это совсем не так, и заодно помечтать о том, сколько параметров мы можем себе позволить тратить на модель, которая сможет заменить человека в работе.
Все расчёты можно воспроизвести в колабе, меняя цифры, как вам захочется. Выводы остаются неизменны.
Для расчётов нам нужно сделать несколько допущений:
1. Количество активированных параметров в модели. Для GPT 4 Turbo широко ходили слухи про 200 миллиардов параметров, так что 4o должна быть меньше. По данным Artificial Analysis, пропускная способность GPT-4o – 95 tok/s, что находится между LLama 3.1 7b (182 tok/s) и 70b (80 tok/s). Для наших целей предположим, что в 4o 100 миллиардов активированных параметров, делая скидку на то, что в OpenAI инференсом занимаются крайне толковые люди. Кстати, Gemini Flash 1.5 с последним обновлением выдаёт 330 tok/s.
2. Амортизированная стоимость сервера с 8 H100. Чтобы не сильно расстраиваться, возьмём оценку сверху как цену такого сервера на AWS – на сегодняшний день $39.33 в час. На рынке цены могут быть минимум в пять раз меньше.
3. MFU – какой процент вычислений используется эффективно. Стандартом является 30-50%, для наших прикидок возьмём 30%.
При таких допущениях (а с другими вы можете поиграть в колабе), стоимость инференса миллиона токенов получается $0.23. Сравним это с официальной ценой в $2.5 за input и $10 за output и получим наценку API в ~50 раз. И это – оценка сверху со всеми допущениями в сторону удорожания. С другой стороны, кому-то же надо скидываться Саме на Koenigsegg.
Заодно мы можем посчитать, насколько дешевле модели в сравнении с кожаными мешками. Взяв минимальную зарплату в Нью-Йорке ($16) и производительность в 100 токенов в минуту (среднее у людей примерно 50 слов в минуту), получим стоимость миллиона токенов в $2666.67. Даже o1 со своими $60 / Mtok тут рядом не стоит. Есть, куда расти!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🤝4
Вряд ли инференс o1 стоит намного дороже. Рыночек порешал, получается
❤4🤔3