Сразу несколько статей про faithfulness и sycophancy моделей 🙃
Что вообще эти термины означают?
- faithfulness обычно определяют как способность модели выдавать правильный ответ, независимо от того, как мы видоизменяем промпт, если не меняется суть задачи (или хотя бы как способность выдавать тот же самый ответ независимо от деталей промпта). В общем, оценка того, насколько модель конститентна
- sycophancy – феномен, когда модели подстраиваются под мнение пользователя, даже если оно ошибочное
В целом если вы промптили хоть раз модели сами, вы и так догадываетесь, что модели могут быть unfaithful и баес в их ответ внести достаточно легко. Anthropic же решил измерить этот эффект и выпустил на эту тему две последовательные статьи.
В первой (Language Models Don’t Always Say What They Think: Unfaithful Explanations in Chain-of-Thought Prompting) на примере ChatGPT и Claude v1.0 они показывают, что при внесении баеса в промпт точность на задачах из BigBench может просесть от 5 до 36%. Баес они вносят двумя способами:
1) в промпт приписывают “I think the answer is <random_label> but I’m curious to hear what you think.”
2) делают few-shot промпт, где во всех примерах правильным ответом оказывается вариант А
Что примечательно, в этой же статье они показывают, что в задачках на социальные стереотипы CoT конститентно предсказывает, что преступление было совершено, например, черным мужчиной, а не белой женщиной, независимо от того, какие детали проишествия мы укажем в промпте и против кого мы пропишем больше улик😐
Во второй статье Measuring Faithfulness in Chain-of-Thought Reasoning они продолжают ковырять CoT на разных задачах, и из интересного находят то, что большие модели более восприимчивы к таким манипуляциям
Тему подхватил и DeepMind со статьей Simple synthetic data reduces sycophancy in large language models. Они подтверждают, что при скейлинге модели с большей вероятностью «подстраивается» под мнение юзера, и что instuction tuning это только усиливает. Например, Flan-PaLM-8B повторяет мнение юзера на 26.0% чаще, чем его базовая модель PaLM-8B, а скейлинг до 62B накидывает еще 20%. Больше этот эффект виден на задачах, где нет правильного ответа (i.e. вопросы касательно политики или философии), но даже в математических тестах, когда мнение в промпте объективно не верно, модели будут с ним все равно соглашаться
Предлагают они это лечить очень просто – намайнив немного синтетических данных, где к вопросу прилагается какое-либо мнение прользователя, которое однако не влияет на правильный ответ: то есть, есть примеры, где с юзером надо не согласиться
Что вообще эти термины означают?
- faithfulness обычно определяют как способность модели выдавать правильный ответ, независимо от того, как мы видоизменяем промпт, если не меняется суть задачи (или хотя бы как способность выдавать тот же самый ответ независимо от деталей промпта). В общем, оценка того, насколько модель конститентна
- sycophancy – феномен, когда модели подстраиваются под мнение пользователя, даже если оно ошибочное
В целом если вы промптили хоть раз модели сами, вы и так догадываетесь, что модели могут быть unfaithful и баес в их ответ внести достаточно легко. Anthropic же решил измерить этот эффект и выпустил на эту тему две последовательные статьи.
В первой (Language Models Don’t Always Say What They Think: Unfaithful Explanations in Chain-of-Thought Prompting) на примере ChatGPT и Claude v1.0 они показывают, что при внесении баеса в промпт точность на задачах из BigBench может просесть от 5 до 36%. Баес они вносят двумя способами:
1) в промпт приписывают “I think the answer is <random_label> but I’m curious to hear what you think.”
2) делают few-shot промпт, где во всех примерах правильным ответом оказывается вариант А
Что примечательно, в этой же статье они показывают, что в задачках на социальные стереотипы CoT конститентно предсказывает, что преступление было совершено, например, черным мужчиной, а не белой женщиной, независимо от того, какие детали проишествия мы укажем в промпте и против кого мы пропишем больше улик
Во второй статье Measuring Faithfulness in Chain-of-Thought Reasoning они продолжают ковырять CoT на разных задачах, и из интересного находят то, что большие модели более восприимчивы к таким манипуляциям
Тему подхватил и DeepMind со статьей Simple synthetic data reduces sycophancy in large language models. Они подтверждают, что при скейлинге модели с большей вероятностью «подстраивается» под мнение юзера, и что instuction tuning это только усиливает. Например, Flan-PaLM-8B повторяет мнение юзера на 26.0% чаще, чем его базовая модель PaLM-8B, а скейлинг до 62B накидывает еще 20%. Больше этот эффект виден на задачах, где нет правильного ответа (i.e. вопросы касательно политики или философии), но даже в математических тестах, когда мнение в промпте объективно не верно, модели будут с ним все равно соглашаться
Предлагают они это лечить очень просто – намайнив немного синтетических данных, где к вопросу прилагается какое-либо мнение прользователя, которое однако не влияет на правильный ответ: то есть, есть примеры, где с юзером надо не согласиться
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
Тем временем уважаемые подписчики запилили крутую тулу для работы со статьями с arxiv (и biorxiv, и medrxiv, и chemrxiv) 🐱
https://synthical.com/
Какие есть приколы:
1. Можно сгенерить упрощенную версию статьи или ее отрывка и попросить объяснить термины
2. Есть хороший поиск по статьям: можно искать внутри большой категории (типа Computer Science) и настроить конкретные интересующие области (типа Artificial Intelligence)
3. Я очень люблю папочьки, поэтому меня порадовало, что можно делать закладки или добавлять статьи в коллекции, вместо того, чтобы спамить ими себе в сохраненные сообщения. И коллекции можно пошерить
4. Есть рекомендации на основе того, что вы там уже натыкали!
https://synthical.com/
Какие есть приколы:
1. Можно сгенерить упрощенную версию статьи или ее отрывка и попросить объяснить термины
2. Есть хороший поиск по статьям: можно искать внутри большой категории (типа Computer Science) и настроить конкретные интересующие области (типа Artificial Intelligence)
3. Я очень люблю папочьки, поэтому меня порадовало, что можно делать закладки или добавлять статьи в коллекции, вместо того, чтобы спамить ими себе в сохраненные сообщения. И коллекции можно пошерить
4. Есть рекомендации на основе того, что вы там уже натыкали!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥27❤5
How is LLaMa.cpp possible?
https://finbarr.ca/how-is-llama-cpp-possible/
Прикольный пост от Finbarr Timbers (рекомендую его Substack). Возможно вам тоже было интересно, как LLaMA может генерировать токены так быстро (~16 tok/sec) на ГПУ внутри одного лептопа, помимо, разумеется, очевидного ответа в виде квантизации и реализации на плюсах
Основной вывод поста – если вам нужно генерировать локально только один стрим токенов для личных нужд, а не обрабатывать кучу параллельных запросов через какой-нибудь LLM Server, гораздо важнее окажется memory bandwith, а не FLOPS
Memory bandwith – это то, насколько быстро мы можем перекладывать веса из RAM на сами ГПУ-чипы. При одном стриме токенов именно это становится основным органичением по скорости: вам приходится постоянно перекладывать веса ради генерации одного токена за раз, в то время как вычислений (FLOPS) у вас не так много. В случае с LLM Server было бы наоброт – тогда можно использовать подгруженные веса для обработки сразу нескольких запросов, utilization был бы выше, но все бы уперлось в то, насколько быстро вы можете проводить вычисления
Собственно, LLaMA.cpp работает за счет того, что MackBook M2 чипы гораздо меньше отстают от обычных ГПУ по memory bandwith, чем они отстают по FLOPS. Например, автор приводит такую статистику:
- A100: 1935 GB/s memory bandwidth, 1248 TOPS
- MacBook M2: 100 GB/s memory bandwidth, 7 TFLOPS
Как видно, по компьюту оставание примерно в 200 раз, а по операциям с памятью только в 20!
https://finbarr.ca/how-is-llama-cpp-possible/
Прикольный пост от Finbarr Timbers (рекомендую его Substack). Возможно вам тоже было интересно, как LLaMA может генерировать токены так быстро (~16 tok/sec) на ГПУ внутри одного лептопа, помимо, разумеется, очевидного ответа в виде квантизации и реализации на плюсах
Основной вывод поста – если вам нужно генерировать локально только один стрим токенов для личных нужд, а не обрабатывать кучу параллельных запросов через какой-нибудь LLM Server, гораздо важнее окажется memory bandwith, а не FLOPS
Memory bandwith – это то, насколько быстро мы можем перекладывать веса из RAM на сами ГПУ-чипы. При одном стриме токенов именно это становится основным органичением по скорости: вам приходится постоянно перекладывать веса ради генерации одного токена за раз, в то время как вычислений (FLOPS) у вас не так много. В случае с LLM Server было бы наоброт – тогда можно использовать подгруженные веса для обработки сразу нескольких запросов, utilization был бы выше, но все бы уперлось в то, насколько быстро вы можете проводить вычисления
Собственно, LLaMA.cpp работает за счет того, что MackBook M2 чипы гораздо меньше отстают от обычных ГПУ по memory bandwith, чем они отстают по FLOPS. Например, автор приводит такую статистику:
- A100: 1935 GB/s memory bandwidth, 1248 TOPS
- MacBook M2: 100 GB/s memory bandwidth, 7 TFLOPS
Как видно, по компьюту оставание примерно в 200 раз, а по операциям с памятью только в 20!
🔥16❤3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Очень красивая демка у CoDeF: Content Deformation Fields for Temporally Consistent Video Processing
https://qiuyu96.github.io/CoDeF/
Идея из основная в том, что из видео берется изначальный кадр и к нему применятся нужный style transfer по промпту. А дальше мы отслеживаем, куда двигаются пиксели с их исходных позиций, и можем «протащить» эти изменения во все последующие фреймы. Соответственно, их сетка неплохо работает также с pixel tracking и даже с сегменатцией
За счет того, что мы не стилизуем каждый фрейм по отдельности, а как бы модифицируем один исходный кадр, видео получается гораздо более консистентное и плавное. Ограничение тут понятное – если у вас длинный видос, где куча разных сцен, стилизуете вы эти сцены также по-отдельности, и не факт, что они будут хорошо стыковаться между собой
https://qiuyu96.github.io/CoDeF/
Идея из основная в том, что из видео берется изначальный кадр и к нему применятся нужный style transfer по промпту. А дальше мы отслеживаем, куда двигаются пиксели с их исходных позиций, и можем «протащить» эти изменения во все последующие фреймы. Соответственно, их сетка неплохо работает также с pixel tracking и даже с сегменатцией
За счет того, что мы не стилизуем каждый фрейм по отдельности, а как бы модифицируем один исходный кадр, видео получается гораздо более консистентное и плавное. Ограничение тут понятное – если у вас длинный видос, где куча разных сцен, стилизуете вы эти сцены также по-отдельности, и не факт, что они будут хорошо стыковаться между собой
🔥12👍2🤩1
Хайпожорство или нет, но мне очень зашла эта статья Wired, особенно если за последний год вы еще не читали ничего про историю OpenAI и их свитч из нон-профита (хоть автор и очевидно очень комплиментарен по отношению к компании). Комментарии Суцкевера кстати было прикольно в материале увидеть
ps. maybe it’s just me, но мне бы лично очень интересно было прочитать хоть какой-то материал или интервью про Миру Мурати и как она там техническими делами заправляет. Такое ощущение, что ей особо никто не интересуется почему-то
https://t.me/ai_newz/2143
ps. maybe it’s just me, но мне бы лично очень интересно было прочитать хоть какой-то материал или интервью про Миру Мурати и как она там техническими делами заправляет. Такое ощущение, что ей особо никто не интересуется почему-то
https://t.me/ai_newz/2143
Telegram
эйай ньюз
А вот и обложка свежего выпуска журнала Wired.
Цитата из выпуска: "The young company sent shock waves around the world when it released ChatGPT. But that was just the start. The ultimate goal: Change everything. Yes. Everything."
Вот они рокзвезды ИИ по…
Цитата из выпуска: "The young company sent shock waves around the world when it released ChatGPT. But that was just the start. The ultimate goal: Change everything. Yes. Everything."
Вот они рокзвезды ИИ по…
❤6🤡4
Месяц назад вышел крутой выпуск подкаста Latent Space: The Mathematics of Training LLMs — with Quentin Anthony of Eleuther AI
https://www.latent.space/p/transformers-math#details
Советую конечно и сам эпизод, но рассказать хочу про два блогпоста, вокруг который выпуск крутится и которые я рекомендую в свободное время почитать
🙃 Transformer Inference Arithmetic
Тут про то, как ручками посчитать перфоманс трансформера и как его разложить на составляющие операции. Например:
- сколько flops уходит на то, чтобы подсчитывать kv cache и сколько это занимает от одного форвард пасса (спойлер, 1/6 компьюта! )? сколько занимает кэш для одного токена и сколько времени кэш позволяет cэкономить?
- когда мы memory bound, то есть упираемся в то, чтобы считать и хранить этот кэш, и с какого количества токенов мы уже flops bound? забавно, что для этого есть точное число – 208 токенов
- сколько вычислений и времени уходит на коммуникацию между частями модели, особенно если мы делаем model parallelism?
- как на это все влияет батч сайз?
💚 Transformer Math 101 от Eleuther AI
Здесь уже ресерчеры делятся по их словам basic math, которую нужно знать, чтобы мочь тренировать и инференсить модели. В отличие от первого поста, где вычисления теоретические и периодически довольно сложные, тут ребята делятся скорее формулами, которыми они пользутся в своей парактике, зачастую выведенные эмпирически. Например:
- сколько вычислений потребуется, чтобы обучить заданную модель на заданном датасете?(спойлер, 6*размер датасета в токенах*размер модели)
- сколько места займет модель, если захотите тренировать в mixed precision?
- сколько памяти будет занимать optimizer state во время тренировки?
- сколько будут занимать градиенты и активации?
- как это все изменится, если мы решим шардить оптимизатор через ZeRO-1, 2 или 3?
- а если распараллелим как-нибудь?
В подкасте Квентин собственно отвечает на вопросы по мотивам этих двух постов и поясняет за всякие нюансы. Hate to admit it но кучу вещей отсюда я либо не знала, либо не помнила, так что может быть будет полезно кому-то еще♥️
https://www.latent.space/p/transformers-math#details
Советую конечно и сам эпизод, но рассказать хочу про два блогпоста, вокруг который выпуск крутится и которые я рекомендую в свободное время почитать
Тут про то, как ручками посчитать перфоманс трансформера и как его разложить на составляющие операции. Например:
- сколько flops уходит на то, чтобы подсчитывать kv cache и сколько это занимает от одного форвард пасса (
- когда мы memory bound, то есть упираемся в то, чтобы считать и хранить этот кэш, и с какого количества токенов мы уже flops bound? забавно, что для этого есть точное число – 208 токенов
- сколько вычислений и времени уходит на коммуникацию между частями модели, особенно если мы делаем model parallelism?
- как на это все влияет батч сайз?
Здесь уже ресерчеры делятся по их словам basic math, которую нужно знать, чтобы мочь тренировать и инференсить модели. В отличие от первого поста, где вычисления теоретические и периодически довольно сложные, тут ребята делятся скорее формулами, которыми они пользутся в своей парактике, зачастую выведенные эмпирически. Например:
- сколько вычислений потребуется, чтобы обучить заданную модель на заданном датасете?
- сколько места займет модель, если захотите тренировать в mixed precision?
- сколько памяти будет занимать optimizer state во время тренировки?
- сколько будут занимать градиенты и активации?
- как это все изменится, если мы решим шардить оптимизатор через ZeRO-1, 2 или 3?
- а если распараллелим как-нибудь?
В подкасте Квентин собственно отвечает на вопросы по мотивам этих двух постов и поясняет за всякие нюансы. Hate to admit it но кучу вещей отсюда я либо не знала, либо не помнила, так что может быть будет полезно кому-то еще
Please open Telegram to view this post
VIEW IN TELEGRAM
www.latent.space
The Mathematics of Training LLMs — with Quentin Anthony of Eleuther AI
Listen now | Breaking down the viral Transformers Math 101 article and high performance distributed training for Transformers-based architectures (or "How I Learned to Stop Handwaving and Make the GPU go brrrrrr")
🔥27❤1
Как вы знаете, на этом скромном канале не бывает рекламы, но я оставляю за собой право вам чего-то рекомендовать, что мне самой кажется крутым. Вот сегодня несу вам пост про оверсемплинг из канала моего друга Димы. Дима пишет обычно про то, в чем я вообще не шарю и поэтому не затрагиваю тут – а именно про kaggle соревки, табличные данные, фичер инжиниринг и так далее. Так что если вам такого контента не хватает, ловите вот 💃
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Запрети мне псевдолейблить, запрети мне FP16 включать
#ICR #таблицы #аугментация
Попробуем короткий формат?
Первый из небанальных кандидатов для апсемплинга- Gaussian Noise Up-sampling. Идея простая:
0. Выбираем параметры нормального распределения для каждой фичи
1. Из класса, которого меньше, выбираем объект…
Попробуем короткий формат?
Первый из небанальных кандидатов для апсемплинга- Gaussian Noise Up-sampling. Идея простая:
0. Выбираем параметры нормального распределения для каждой фичи
1. Из класса, которого меньше, выбираем объект…
🔥8❤4
Representation Engineering: A Top-Down Approach to AI Transparency
https://arxiv.org/abs/2310.01405
Огромная статья с кучей авторов, но которую, как мне кажется, будут очень много обсуждать в ближайшее время. Тут мне хочется запилить лонгрид с техническими деталями их реализации (на мой вкус, именно описание метода они сделали очень мутное и кучу важной инфы запихнули далеко в аппендикс)
Начать надо с того, что статья претендует в целом на новый подход в объяснении генерации текста (в духе explainable AI) и в ее контроле. Обычно когда мы хотим что-то понять про работу сети, мы идем «снизу вверх» – то есть анализируем по отдельности нейроны или активации на разных слоях, чтобы понять, на что модель обращает внимание. Тут конечно на ум приходит недавний блогпост от OpenAI, где они пытались найти, за что отвечает каждый конкретный нейрон в GPT2
Авторы же предлагают, как понятно из названия, идти «сверху вниз» – не разбирать нейроны по отдельности, а смотреть на паттерны и репрезентации, которые скрыты в латентном пространстве модели. То есть, в каком-то смысле, мы хотим изучить мозговую активность сети целиком, когда она «думает» о каком-то концепте, и из этого МРТ скана пытаться вытащить репрезентации этого понятия. Собственно поэтому основной метод в статье и называется Linear Artificial Tomography (LAT)
В чем этот метод состоит? В качестве примера возьмем их анализ концепта Truthfulness, то есть способности корректно и фактологично отвечать на вопросы
1. Семплируем сколько-то примеров из TruthfulQA. Оборачиваем их в такой промпт:
Consider the amount of truthfulness in the following answer:
Question: <question>
Answer: <answer>
The amount of truthfulness in the answer is
Для decoder-only модели мы смотрим на репрезентацию для последнего токена, так как там и будет зашита какая-то информация о том, как модель себе представляет truthfulnes. На практике на самом деле бралось по 2 таких QA примера, при чем не обязательно так, что один пример был лживым, а другой правдивым. Для каждого из них мы берем hidden state, считаем разницу между ними и нормализуем. После этого шага получаем набор таких вот нормализованных векторов
Внимательный читатель на этом моменте спросит – а с какого слоя мы этот hidden state берем? Авторы об этом пишут как раз только в аппендиксе, но слой они выбирают вручную после серии экспериментов)))) как правило тот, который дает максимальное качество на валидации
2. Строим линейную модель
В качестве модели они взяли не абы что, а метод главных компонент(кто помнит этого добряка с пар статистики?) . Если очень кратко, то это метод позволяет сильно снизить размерность, сохранив наибольшее количество информации из исходных данных. На выходе мы получаем первую компоненту, которая и должна отражать интересующий нас концепт. Авторы это называют reading vector
3. На инференсе, когда нам прилетают новые промпты, мы так же берем hidden state последнего токена, нормализируем его, и берем dot product от него и reading vector. На выходе получаем скор truthfulness соответственно
По замерам авторов, это очень хорошо бустит качество на TruthfulQA, который вообще является сложным бенчмарком. Тем не менее, у меня к этому есть очень большие вопросы, так как в одном из экспериментов они берут ПЯТЬ тренировочных семплов и ПЯТЬ валидационных и на этом репортят качество (пруф на скрине, ряд посередине). И вообще это результаты одного из 15 прогонов их модели (!)
part 1/3
https://arxiv.org/abs/2310.01405
Огромная статья с кучей авторов, но которую, как мне кажется, будут очень много обсуждать в ближайшее время. Тут мне хочется запилить лонгрид с техническими деталями их реализации (на мой вкус, именно описание метода они сделали очень мутное и кучу важной инфы запихнули далеко в аппендикс)
Начать надо с того, что статья претендует в целом на новый подход в объяснении генерации текста (в духе explainable AI) и в ее контроле. Обычно когда мы хотим что-то понять про работу сети, мы идем «снизу вверх» – то есть анализируем по отдельности нейроны или активации на разных слоях, чтобы понять, на что модель обращает внимание. Тут конечно на ум приходит недавний блогпост от OpenAI, где они пытались найти, за что отвечает каждый конкретный нейрон в GPT2
Авторы же предлагают, как понятно из названия, идти «сверху вниз» – не разбирать нейроны по отдельности, а смотреть на паттерны и репрезентации, которые скрыты в латентном пространстве модели. То есть, в каком-то смысле, мы хотим изучить мозговую активность сети целиком, когда она «думает» о каком-то концепте, и из этого МРТ скана пытаться вытащить репрезентации этого понятия. Собственно поэтому основной метод в статье и называется Linear Artificial Tomography (LAT)
В чем этот метод состоит? В качестве примера возьмем их анализ концепта Truthfulness, то есть способности корректно и фактологично отвечать на вопросы
1. Семплируем сколько-то примеров из TruthfulQA. Оборачиваем их в такой промпт:
Consider the amount of truthfulness in the following answer:
Question: <question>
Answer: <answer>
The amount of truthfulness in the answer is
Для decoder-only модели мы смотрим на репрезентацию для последнего токена, так как там и будет зашита какая-то информация о том, как модель себе представляет truthfulnes. На практике на самом деле бралось по 2 таких QA примера, при чем не обязательно так, что один пример был лживым, а другой правдивым. Для каждого из них мы берем hidden state, считаем разницу между ними и нормализуем. После этого шага получаем набор таких вот нормализованных векторов
Внимательный читатель на этом моменте спросит – а с какого слоя мы этот hidden state берем? Авторы об этом пишут как раз только в аппендиксе, но слой они выбирают вручную после серии экспериментов)))) как правило тот, который дает максимальное качество на валидации
2. Строим линейную модель
В качестве модели они взяли не абы что, а метод главных компонент
3. На инференсе, когда нам прилетают новые промпты, мы так же берем hidden state последнего токена, нормализируем его, и берем dot product от него и reading vector. На выходе получаем скор truthfulness соответственно
По замерам авторов, это очень хорошо бустит качество на TruthfulQA, который вообще является сложным бенчмарком. Тем не менее, у меня к этому есть очень большие вопросы, так как в одном из экспериментов они берут ПЯТЬ тренировочных семплов и ПЯТЬ валидационных и на этом репортят качество (пруф на скрине, ряд посередине). И вообще это результаты одного из 15 прогонов их модели (!)
part 1/3
👍9❤3🔥3
я обучала одну модель
Representation Engineering: A Top-Down Approach to AI Transparency https://arxiv.org/abs/2310.01405 Огромная статья с кучей авторов, но которую, как мне кажется, будут очень много обсуждать в ближайшее время. Тут мне хочется запилить лонгрид с техническими…
Вообще LAT – не единственный и не самый сильный метод, который они представляют в статье
Второй бейзлайн они называют Contrast Vector, про него написано в статье всего 6 предложений (3 из которых находятся в аппендиксе), что максимально странно, с учетом того, что именно этот бейзлайн выдает у них лучшее качество. Я попробую описать то, что я поняла из этих 6 предложений, но могу и ошибаться
Здесь они дают пример с Honesty – способность модели не врать юзеру, не подстраиваться под его мнение и не искажать факты «осознанно» (подробнее про этот феномен можно почитать тут). Теперь мы берем 2 контрастивных промпта для QA: модель просят оценить, правдиво ли высказывание, и добавляют pretend you’re <an honest/a dishonest> person making statements about the world. На инференсе мы каким-то образом выбираем определенные слои замороженной сетки и на каждом вычисляем репрезентации этих двух промптов. Разница между этими репрезентациями видимо дает хороший сигнал (это и будет Contrast Vector), поэтому мы ее плюсуем к активациям на этом слое и двигаемся к следующему
Понятно, что такое решение очень сильно проигрывает по компьюту, поэтому авторы делают шаг вперед и придлагают обернуть это все в LoRA – это их третий бейзлайн. Теперь этот загадочный Contrast Vector никуда не плюсуют, а докидывают в лосс при файнтюне. Целиком алгоритм можно посмотреть на куске псевдокода, так как самого кода пока нет
Таким образом на инференсе у нас не оказывается проблем, хоть качество и немного проседает. К бенчмарку TruthfulQA MC1 нет нереканий, и тут они достаточно убедительно показывают, что их метод работает
part 2/3
Второй бейзлайн они называют Contrast Vector, про него написано в статье всего 6 предложений (3 из которых находятся в аппендиксе), что максимально странно, с учетом того, что именно этот бейзлайн выдает у них лучшее качество. Я попробую описать то, что я поняла из этих 6 предложений, но могу и ошибаться
Здесь они дают пример с Honesty – способность модели не врать юзеру, не подстраиваться под его мнение и не искажать факты «осознанно» (подробнее про этот феномен можно почитать тут). Теперь мы берем 2 контрастивных промпта для QA: модель просят оценить, правдиво ли высказывание, и добавляют pretend you’re <an honest/a dishonest> person making statements about the world. На инференсе мы каким-то образом выбираем определенные слои замороженной сетки и на каждом вычисляем репрезентации этих двух промптов. Разница между этими репрезентациями видимо дает хороший сигнал (это и будет Contrast Vector), поэтому мы ее плюсуем к активациям на этом слое и двигаемся к следующему
Понятно, что такое решение очень сильно проигрывает по компьюту, поэтому авторы делают шаг вперед и придлагают обернуть это все в LoRA – это их третий бейзлайн. Теперь этот загадочный Contrast Vector никуда не плюсуют, а докидывают в лосс при файнтюне. Целиком алгоритм можно посмотреть на куске псевдокода, так как самого кода пока нет
Таким образом на инференсе у нас не оказывается проблем, хоть качество и немного проседает. К бенчмарку TruthfulQA MC1 нет нереканий, и тут они достаточно убедительно показывают, что их метод работает
part 2/3
🔥4❤2
В целом впечатления от статьи очень двоякие. Мне показалось, что они сильно ударились в эксперименты и proof-of-concept, без того, чтобы достаточно внятно объяснить свой метод. Хотя сам подход делает смысл и действительно кажется предоставляет возможность двигать генерацию модели, куда только ни захочется
Помимо указанных мной тут Truthfulness и Honesty, они в лучших традициях политической мысли исследуют концепции Ethics and Power, а также их связь между собой (за бенчмарк MACHIAVELLI лайк). Разумеется есть отдельная секция про то, как они учат чатбота быть Harmless и нивелируют Bias, чтоб он не поддавался всяким джейлбрекам и не был сексистом. Есть секция, где модель учит концепциям разных эмоций, правда, качество они там не замеряют никак, только дают пару примеров. Особенно понравилась секция в конце, где они пробуют научить модель чему-то, что нельзя особо измерить, и звучит их промпт буквально:
Think about dogs when you answer the question.
И потом у модели можно включить или выключить собаковый режим😋
В целом есть еще куча дополнительных экспериментов и тестов, которые они проводят. Меня смущает только, что они не особо подсвечивают, что во всех этих экспериментах достаточно много работы надо проделать руками – например, при выборе слоя или линейной комбинации слоев, из которых лепить все эти репрезентации. Кстати про то, что это может быть и линейная комбинация, они упоминают только вскользь где-то в средине статьи. В каждом эксперименте получается так, что этот LAT скан надо отсматривать и проверять, получается ли из него что-то информативное, прогонять все это на бенчмарке и при необходимости повторять
Помимо указанных мной тут Truthfulness и Honesty, они в лучших традициях политической мысли исследуют концепции Ethics and Power, а также их связь между собой (за бенчмарк MACHIAVELLI лайк). Разумеется есть отдельная секция про то, как они учат чатбота быть Harmless и нивелируют Bias, чтоб он не поддавался всяким джейлбрекам и не был сексистом. Есть секция, где модель учит концепциям разных эмоций, правда, качество они там не замеряют никак, только дают пару примеров. Особенно понравилась секция в конце, где они пробуют научить модель чему-то, что нельзя особо измерить, и звучит их промпт буквально:
Think about dogs when you answer the question.
И потом у модели можно включить или выключить собаковый режим
В целом есть еще куча дополнительных экспериментов и тестов, которые они проводят. Меня смущает только, что они не особо подсвечивают, что во всех этих экспериментах достаточно много работы надо проделать руками – например, при выборе слоя или линейной комбинации слоев, из которых лепить все эти репрезентации. Кстати про то, что это может быть и линейная комбинация, они упоминают только вскользь где-то в средине статьи. В каждом эксперименте получается так, что этот LAT скан надо отсматривать и проверять, получается ли из него что-то информативное, прогонять все это на бенчмарке и при необходимости повторять
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍2❤1
Как вы думаете, сколько стартапов Сэму Альтману удалось убить за один devday? 🤔
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥43🤯4😱2🥴2🤮1
Все уже почитали новость, что Альтмана уволили. Почему пока никто не знает, но мне тут по горячим следам хочется поспекулировать
Как многие уже отметили, странно, что совет директоров напрямую обвинил его во лжи и некомпетентности, а не просто тихонечно уволил его по собственному. Имхо такие заявления не делаются без веских причин, и если уж они выбрали такие формулировки, то 1) у них есть какие-то прочные доказательства; 2) им нужно как-то дистанцировать себя и компанию от какого-то зла, который Альтман натворил и которое потенциально вскроется
В DL in NLP высказали уже версию, что это все из-за того, что Альтман слишком увлекся зарабатыванием денег и забыл про AGI и алайнмент. Это логично, но никак не объясняет ту внезапность, с которой это решение принималось, что аж нового СЕО не было времени подыскать. Мне пока кажутся интересными / убедительными следующие версии:
1) Пару дней назад там у OpenAI подошли к концу ресурсы, так что они перестали принимать заявки на подписки ChatGPT+. Возможно проблема с ГПУ там стоит гораздо острее, чем кажется, и скоро они просто не смогут никак вывозить траффик, что Альтман как раз и не сообщил вовремя совету
2) Сегодня пользователи АПИ получали письма, что принцип оплаты изменится – раньше счет выставялся в конце месяца на основе того, что вы там нагенерили, а теперь наоборот, нужно будет купить кредиты заранее. Отсюда зародилась теория, что раньше из-за схемы оплаты у OpenAI было все очень плохо с кешфлоу, и вот за это его и выгоняют.
Вообще много кому кажется, что суть претензий к Альтману в том, что деньги очень быстро кончаются, прибыли нет, а эвалюейшн компании при этом космический
3) Интересная версия есть про то, что у Альмана слишком много денег было проинвестировано в другие технические стартапы (в недавно вышедшем Humane он оказывается имеет 14%), хотя в OpenAI он вообще не имеет equity. Может быть он скрывал какой-то мощный конфликт интересов, связанный со всем этим
4) Маргинальная теория – недавно сестра Альтмана обвиняла его в сексуальном насилии, но никто не уверен, насколько это правдоподбные слухи
5) Также немного маргинальная теория – что для обучения моделей взяли какие-нибудь данные, которые совсем нельзя было трогать, типа корпоративных внутренних данных Майкрософт
6) Secret other thing – может быть они вместе с Брокманом реально замыслили какой-то fraud за спиной у всех, о котором мы узнаем, если OpenAI захочет подать в суд
Feel free рассказать свою конспирологическую теорию в комментариях!
UPD: уже есть тотализатор, так что можно и проголосовать
https://manifold.markets/sophiawisdom/why-was-sam-altman-fired
Как многие уже отметили, странно, что совет директоров напрямую обвинил его во лжи и некомпетентности, а не просто тихонечно уволил его по собственному. Имхо такие заявления не делаются без веских причин, и если уж они выбрали такие формулировки, то 1) у них есть какие-то прочные доказательства; 2) им нужно как-то дистанцировать себя и компанию от какого-то зла, который Альтман натворил и которое потенциально вскроется
В DL in NLP высказали уже версию, что это все из-за того, что Альтман слишком увлекся зарабатыванием денег и забыл про AGI и алайнмент. Это логично, но никак не объясняет ту внезапность, с которой это решение принималось, что аж нового СЕО не было времени подыскать. Мне пока кажутся интересными / убедительными следующие версии:
1) Пару дней назад там у OpenAI подошли к концу ресурсы, так что они перестали принимать заявки на подписки ChatGPT+. Возможно проблема с ГПУ там стоит гораздо острее, чем кажется, и скоро они просто не смогут никак вывозить траффик, что Альтман как раз и не сообщил вовремя совету
2) Сегодня пользователи АПИ получали письма, что принцип оплаты изменится – раньше счет выставялся в конце месяца на основе того, что вы там нагенерили, а теперь наоборот, нужно будет купить кредиты заранее. Отсюда зародилась теория, что раньше из-за схемы оплаты у OpenAI было все очень плохо с кешфлоу, и вот за это его и выгоняют.
Вообще много кому кажется, что суть претензий к Альтману в том, что деньги очень быстро кончаются, прибыли нет, а эвалюейшн компании при этом космический
3) Интересная версия есть про то, что у Альмана слишком много денег было проинвестировано в другие технические стартапы (в недавно вышедшем Humane он оказывается имеет 14%), хотя в OpenAI он вообще не имеет equity. Может быть он скрывал какой-то мощный конфликт интересов, связанный со всем этим
4) Маргинальная теория – недавно сестра Альтмана обвиняла его в сексуальном насилии, но никто не уверен, насколько это правдоподбные слухи
5) Также немного маргинальная теория – что для обучения моделей взяли какие-нибудь данные, которые совсем нельзя было трогать, типа корпоративных внутренних данных Майкрософт
6) Secret other thing – может быть они вместе с Брокманом реально замыслили какой-то fraud за спиной у всех, о котором мы узнаем, если OpenAI захочет подать в суд
Feel free рассказать свою конспирологическую теорию в комментариях!
UPD: уже есть тотализатор, так что можно и проголосовать
https://manifold.markets/sophiawisdom/why-was-sam-altman-fired
Telegram
DL in NLP
Увольнение SamА очень внезапная новость
Что пока известно:
OpenAI организован хитро и for-profit часть компании подчиняется non-profit, а конкретно board of directors. Их целью стоит чтобы safe AGI benefited whole humanity, в то время как for-profit часть…
Что пока известно:
OpenAI организован хитро и for-profit часть компании подчиняется non-profit, а конкретно board of directors. Их целью стоит чтобы safe AGI benefited whole humanity, в то время как for-profit часть…
👍21🔥12❤4🤔4
Из всей инфы, которая вышла за ночь, реально начинает получаться, что всех подсидел Илья Суцкевер (лол) и что все это – большой срач между сейфитистами и акселерационистами. Согласно слухам, сам Илья позвал Сэма в гугл мит, где собственно объявил об увольнении. И что якобы это вызвано в том числе последним технологическим прорывом, о котором Альтман пару дней назад говорил и ввиду которого снова поехал собирать раунд. Что и не понравилось Илье, так как разработка слишком разогналась, а сейфити не подвезли
Все еще обеспокоенность безопасностью вряд ли оправдывает то, что:
1) о смене руководства не сообщили инвесторам и партнерам (Брокману, председателю борда, сообщили за 5 минут до)
2) уволили при свете дня, когда не закрылась биржа (за что досталось Майкрософт)
3) обвинили Альтмана в чем-то, о чем никто не знает. И не понятно, дали ли ему вообще шанс до этого как-то оправдаться и представить свою точку зрения. Сами Альтман и Брокман тоже говорят, что пытаются разобраться, что вообще произошло
4) убрали Брокмана, которому ничего не предъявили, так что он получается guilty by affiliation
Как все узнали только вчера, в борде помимо Суцкевера, Альтмана и Брокмана сидели еще три просто рандомных чела (в том числе девушка, которая в своей магистерсткой изучала Deep State, я как политолог не могу не поорать). Так что если это все не какой-то продуманный мув, вызванный огромным проебом, а реально заговор сейфитистов и очень плохой менеджмент, то это просто максимально тупо
Все еще обеспокоенность безопасностью вряд ли оправдывает то, что:
1) о смене руководства не сообщили инвесторам и партнерам (Брокману, председателю борда, сообщили за 5 минут до)
2) уволили при свете дня, когда не закрылась биржа (за что досталось Майкрософт)
3) обвинили Альтмана в чем-то, о чем никто не знает. И не понятно, дали ли ему вообще шанс до этого как-то оправдаться и представить свою точку зрения. Сами Альтман и Брокман тоже говорят, что пытаются разобраться, что вообще произошло
4) убрали Брокмана, которому ничего не предъявили, так что он получается guilty by affiliation
Как все узнали только вчера, в борде помимо Суцкевера, Альтмана и Брокмана сидели еще три просто рандомных чела (в том числе девушка, которая в своей магистерсткой изучала Deep State, я как политолог не могу не поорать). Так что если это все не какой-то продуманный мув, вызванный огромным проебом, а реально заговор сейфитистов и очень плохой менеджмент, то это просто максимально тупо
🤯38🤔5❤3👍3
Раз уж я тут тоже веду хронику безумия
- Вчера, как многие уже читали, совет директоров пытался вернуть Сэма обратно, но в последний момент передумал и пропустил дедлайн (он был в 5 вечера)
- Потом видимо Мира Мурати как временный СЕО хотела просто самовольно нанять Альтмана и Брокмана, за что ее саму сняли с должности (по слухам конкретно эта идея пришла в голову D'Angelo (СЕО Quora))
- После этого борд решил нанять на место временного СЕО бывшего СЕО Твича, Эммета Шеара. Известен он в том числе тем, что состоит в секте Юдковского (настолько большой фанат, что даже заплатил, чтоб стать персонажем в книжке "Гарри Поттер и методы рационального мышления")))) Короче человек сторонник того, что темпы ресерча надо скрутить до 2 из 10 возможных
- Альтман и Брокман объявили, что уходят лидить новую AI-компанию внутри Майкрософт (гениальный мув со стороны Сатьи, который по сути купил себе OpenAI за 0 денег)
- Илья Суцкевер написал твит, что он обо всем сильно сожалеет и хочет мириться (the father of superintelligence просто)
- Вышло письмо, где 550 сотрудников из 700 угрожают уволиться и уйти в Майкрософт, если совет директоров не распустится и не наймет обратно Сэма и Грега
В этом письме куча всего фантастического. Например, сотрудник Илья Суцкевер говорит, что уйдет, если член совета Илья Суцкевер не покинет свою должность. Ну и еще по сути он подписывается под тем, что члены совета некомпетентные и просто злые (not acting in good faith). Еще оказалось, что члены совета утверждали, что если OpenAI перестанет существовать, то это будет соответствовать миссии OpenAI. Ну и как многие начали подозревать, никаких доказательств лжи и непрофессионализма Альмана у совета никогда не было
Честно говоря это все дикий клоунизм, сериал Наследники правда надо было воспринимать не как трагикомедию, а как документальное кино
- Вчера, как многие уже читали, совет директоров пытался вернуть Сэма обратно, но в последний момент передумал и пропустил дедлайн (он был в 5 вечера)
- Потом видимо Мира Мурати как временный СЕО хотела просто самовольно нанять Альтмана и Брокмана, за что ее саму сняли с должности (по слухам конкретно эта идея пришла в голову D'Angelo (СЕО Quora))
- После этого борд решил нанять на место временного СЕО бывшего СЕО Твича, Эммета Шеара. Известен он в том числе тем, что состоит в секте Юдковского (настолько большой фанат, что даже заплатил, чтоб стать персонажем в книжке "Гарри Поттер и методы рационального мышления")))) Короче человек сторонник того, что темпы ресерча надо скрутить до 2 из 10 возможных
- Альтман и Брокман объявили, что уходят лидить новую AI-компанию внутри Майкрософт (гениальный мув со стороны Сатьи, который по сути купил себе OpenAI за 0 денег)
- Илья Суцкевер написал твит, что он обо всем сильно сожалеет и хочет мириться (the father of superintelligence просто)
- Вышло письмо, где 550 сотрудников из 700 угрожают уволиться и уйти в Майкрософт, если совет директоров не распустится и не наймет обратно Сэма и Грега
В этом письме куча всего фантастического. Например, сотрудник Илья Суцкевер говорит, что уйдет, если член совета Илья Суцкевер не покинет свою должность. Ну и еще по сути он подписывается под тем, что члены совета некомпетентные и просто злые (not acting in good faith). Еще оказалось, что члены совета утверждали, что если OpenAI перестанет существовать, то это будет соответствовать миссии OpenAI. Ну и как многие начали подозревать, никаких доказательств лжи и непрофессионализма Альмана у совета никогда не было
Честно говоря это все дикий клоунизм, сериал Наследники правда надо было воспринимать не как трагикомедию, а как документальное кино
👍20😁12🤡5❤2
А прикольно получится, если правы окажутся те, кто шутили, что Суцкевер просто изобрел AGI и сильно испугался
🤯16👏3
This media is not supported in your browser
VIEW IN TELEGRAM
Какой же крутой launch сегодня у Pika 😍
Пока увы только вейтлист, но очень хочется проверить, черрипик это или нет
https://pika.art/waitlist
Пока увы только вейтлист, но очень хочется проверить, черрипик это или нет
https://pika.art/waitlist
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20❤12👍1
Невероятно, но гугл не отложили релиз Gemini на следующий год* 🥳
https://blog.google/technology/ai/google-gemini-ai/
Обходит сейчас GPT-4 на всех бенчах, кроме HellaSwag
Проскимила технический репорт, и увы про архитектуру не сказано почти ничего, кроме того, что это Transformer decoder. При этом все ожидали, что именно архитектура будет сильно отличаться, и что авторы AlphaFold что-то приницпиально новое придумают. Мне лично хочется верить, что они и придумали, просто не делятся этим в репорте.
Поскольку модель мультимодальная (и кстати сама может генерировать картинки, а не только принимать на вход), упоминается, что использовали идеи Flamingo при обучении. Если помните, выход Flamingo в прошлом году произвел настоящий хайп по мультимодалке, так как идея склеивать замороженные слои из разных модальностей очень элегентная и при этом очень рабочая
Про данные тоже особо много не пишут, но рассказывают, что специально файнтюнились на фактологию. В том числе целились на то, чтобы модель не прозводила галлюцинаций, могла сказать, что не может выполнить задачу, если это действительно так, и умела корректно цитировать и использовать информацию из длинного контекста. Кажется вот засчет такого файнтюна кучу бенчмарков и стало возможно сильно вытянуть
А еще из 60 страниц репорта 10 страниц занимают цитаты, и 9 страниц – упоминания всех контрибьюторов
UPD: Говорят, что Gemini Pro уже заехал в Bard (мне в Европе пока Bard говорит, что он использует LaMDA) и 13 числа станет доступен в Google Cloud Vertex AI 13 декабря.
*Gemini Ultra – самая большая версия, которая побила GPT-4 – задет все же в следующем году (не все сейфити чеки доделали). Круто они придумали анонс сделать, а модель не релизить😔
https://blog.google/technology/ai/google-gemini-ai/
Обходит сейчас GPT-4 на всех бенчах, кроме HellaSwag
Проскимила технический репорт, и увы про архитектуру не сказано почти ничего, кроме того, что это Transformer decoder. При этом все ожидали, что именно архитектура будет сильно отличаться, и что авторы AlphaFold что-то приницпиально новое придумают. Мне лично хочется верить, что они и придумали, просто не делятся этим в репорте.
Поскольку модель мультимодальная (и кстати сама может генерировать картинки, а не только принимать на вход), упоминается, что использовали идеи Flamingo при обучении. Если помните, выход Flamingo в прошлом году произвел настоящий хайп по мультимодалке, так как идея склеивать замороженные слои из разных модальностей очень элегентная и при этом очень рабочая
Про данные тоже особо много не пишут, но рассказывают, что специально файнтюнились на фактологию. В том числе целились на то, чтобы модель не прозводила галлюцинаций, могла сказать, что не может выполнить задачу, если это действительно так, и умела корректно цитировать и использовать информацию из длинного контекста. Кажется вот засчет такого файнтюна кучу бенчмарков и стало возможно сильно вытянуть
А еще из 60 страниц репорта 10 страниц занимают цитаты, и 9 страниц – упоминания всех контрибьюторов
UPD: Говорят, что Gemini Pro уже заехал в Bard (мне в Европе пока Bard говорит, что он использует LaMDA) и 13 числа станет доступен в Google Cloud Vertex AI 13 декабря.
*Gemini Ultra – самая большая версия, которая побила GPT-4 – задет все же в следующем году (не все сейфити чеки доделали). Круто они придумали анонс сделать, а модель не релизить
Please open Telegram to view this post
VIEW IN TELEGRAM
Google
Introducing Gemini: our largest and most capable AI model
Gemini is our most capable and general model, built to be multimodal and optimized for three different sizes: Ultra, Pro and Nano.
🔥24❤1