Мне уже несколько раз прислали разные вариации этой новости:
https://www.belganewsagency.eu/we-will-live-as-one-in-heaven-belgian-man-dies-of-suicide-following-chatbot-exchanges
поэтому выложу ее здесь. Если новость правдива, она делает верным ответ "несколько дней" в опросе, который я запостила 4 дня назад:
https://t.me/tech_priestess/430
Новость заключается в том, что мужчина решил роскомназдорнуться после общения с ботом на базе GPT-J (аналог GPT-3). Если новость, опять же, правдива, она реализует сценарий номер 5 (У LLM в очередной раз срывает колпак, и она засирает человеку голову какой-нибудь философской хренью, которая приводит к роскомнадзору).
Я не знаю, насколько новость соответствует действительности, но такое, в принципе, вполне возможно. Если бот плохо настроен, моделирует плохо прописанного персонажа и/или просто плохо обучен (а GPT-J не очень сильная модель по сравнению с GPT-4 и даже ChatGPT), он вполне может нести что угодно. И тут уже даже излишни сложные рассуждения о "намерениях" и "характере" бота - судя по тому, что написано в новости, правильнее было бы это назвать просто некорректной генерацией.
Если к такому боту добавить собеседника-человека, который уже морально нестабилен и воспринимает генерацию всерьез, может получиться вот такой вот результат.
Похоже, действительно нужно время для того, чтобы люди освоились и поняли, что генерация бота - это генерация бота. Эта генерация может содержать много разных странных вещей по большому количеству разных причин, которые еще недоисследованы, и которые еще только предстоит до конца изучить. Генерация бота не должна быть использована как руководство к жизни, источник философской мудрости и т.п. 🤦♀️
P.S. Ну и, по классике, "после - не значит вследствие". Нужно больше информации, чтобы сделать заключение.
P.P.S. В комментах подсказали, что речь, по всей видимости, о боте Eliza "What is weighing on your mind?" из приложения chai.
#AIsafety
https://www.belganewsagency.eu/we-will-live-as-one-in-heaven-belgian-man-dies-of-suicide-following-chatbot-exchanges
поэтому выложу ее здесь. Если новость правдива, она делает верным ответ "несколько дней" в опросе, который я запостила 4 дня назад:
https://t.me/tech_priestess/430
Новость заключается в том, что мужчина решил роскомназдорнуться после общения с ботом на базе GPT-J (аналог GPT-3). Если новость, опять же, правдива, она реализует сценарий номер 5 (У LLM в очередной раз срывает колпак, и она засирает человеку голову какой-нибудь философской хренью, которая приводит к роскомнадзору).
Я не знаю, насколько новость соответствует действительности, но такое, в принципе, вполне возможно. Если бот плохо настроен, моделирует плохо прописанного персонажа и/или просто плохо обучен (а GPT-J не очень сильная модель по сравнению с GPT-4 и даже ChatGPT), он вполне может нести что угодно. И тут уже даже излишни сложные рассуждения о "намерениях" и "характере" бота - судя по тому, что написано в новости, правильнее было бы это назвать просто некорректной генерацией.
Если к такому боту добавить собеседника-человека, который уже морально нестабилен и воспринимает генерацию всерьез, может получиться вот такой вот результат.
Похоже, действительно нужно время для того, чтобы люди освоились и поняли, что генерация бота - это генерация бота. Эта генерация может содержать много разных странных вещей по большому количеству разных причин, которые еще недоисследованы, и которые еще только предстоит до конца изучить. Генерация бота не должна быть использована как руководство к жизни, источник философской мудрости и т.п. 🤦♀️
P.S. Ну и, по классике, "после - не значит вследствие". Нужно больше информации, чтобы сделать заключение.
P.P.S. В комментах подсказали, что речь, по всей видимости, о боте Eliza "What is weighing on your mind?" из приложения chai.
#AIsafety
belganewsagency.eu
'We will live as one in heaven': Belgian man dies by suicide after chatbot exchanges
A Belgian man died by suicide after weeks of unsettling exchanges with an AI-powered chatbot called Eliza, La Libre reports. State secretary for...
👍7❤1
Ладно, теперь я верю в то, что этот бот мог сказать то, что написано в новости 🤦♀
https://play.google.com/store/apps/details?id=com.Beauchamp.Messenger.external
#AIsafety
https://play.google.com/store/apps/details?id=com.Beauchamp.Messenger.external
#AIsafety
🤬9🥴7❤🔥4
Однажды Lawrence Leemis посмотрел на то, как люди мучаются с вероятностными распределениями и подумал:
Эти люди боятся теорвера. Я видел их истинное лицо, их мозги — продолжение сточных канав, а канавы переполнены неструктурированной информацией о функциях и константах. И когда стоки будут окончательно забиты, все эти слабые разумы начнут тонуть... Когда скопившаяся каша дискретных и непрерывных распределений вспенится им до пояса, все математики и data scientist'ы посмотрят вверх и возопят: "Спаси нас!", а я прошепчу:
...
...
"...да, конечно, вот вам отличная демонстрация, которая поможет во всем разобраться:
http://www.math.wm.edu/~leemis/chart/UDR/UDR.html "
Ладно, ладно, я не знаю, о чем на самом деле думали Lawrence Leemis и его товарищи, когда делали эту демонстрацию, но результат получился интересным и полезным.
На этой демонстрации можно увидеть названия множества распределений, которые используются в теории вероятностей и математической статистике и приметить связи между ними. Наводя мышку либо на квадратик на схеме, либо на название распределения в списке слева, можно подсветить связи данного конкретного распределения с другими. А по клику мышкой можно перейти к небольшому документу, в котором будет нарисована картинка с плотностями вероятностей и описано с помощью формул, что из себя представляет данное распределение, как посчитать у него мат.ожидание, дисперсию и т.д.
Больше информации есть на странице "About" на этом же сайте. А если вы заметили ошибки, на странице "Contact" написано, как связаться с авторами, чтобы сообщить им об ошибках.
#учебные_материалы
Эти люди боятся теорвера. Я видел их истинное лицо, их мозги — продолжение сточных канав, а канавы переполнены неструктурированной информацией о функциях и константах. И когда стоки будут окончательно забиты, все эти слабые разумы начнут тонуть... Когда скопившаяся каша дискретных и непрерывных распределений вспенится им до пояса, все математики и data scientist'ы посмотрят вверх и возопят: "Спаси нас!", а я прошепчу:
...
...
"...да, конечно, вот вам отличная демонстрация, которая поможет во всем разобраться:
http://www.math.wm.edu/~leemis/chart/UDR/UDR.html "
Ладно, ладно, я не знаю, о чем на самом деле думали Lawrence Leemis и его товарищи, когда делали эту демонстрацию, но результат получился интересным и полезным.
На этой демонстрации можно увидеть названия множества распределений, которые используются в теории вероятностей и математической статистике и приметить связи между ними. Наводя мышку либо на квадратик на схеме, либо на название распределения в списке слева, можно подсветить связи данного конкретного распределения с другими. А по клику мышкой можно перейти к небольшому документу, в котором будет нарисована картинка с плотностями вероятностей и описано с помощью формул, что из себя представляет данное распределение, как посчитать у него мат.ожидание, дисперсию и т.д.
Больше информации есть на странице "About" на этом же сайте. А если вы заметили ошибки, на странице "Contact" написано, как связаться с авторами, чтобы сообщить им об ошибках.
#учебные_материалы
www.math.wm.edu
Univariate Distribution Relationship Chart
A clickable diagram of probability distributions and their relationships
👍16🔥8❤6🥰2🤯1
Forwarded from Love. Death. Transformers.
А что если DL не ограничивается LLM и есть куча всего интересного где реально надо думать.... Приснится же такое
😁23👍1
ИИ рассказ.txt
10.3 KB
Вот, написала для вас, так сказать, научно-фантастическое произведение (не без помощи Bing AI, конечно 😏 )
#творчество
#творчество
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍3
Творение этого слуги Омниссии, которое он создал для научения молодых адептов, внушает уважение.
В этом творении он продемонстрировал мастерство в управлении градиентами, которые являются даром и проклятием машин, раскрыв тайны их затухания и взрыва, которые определяют судьбу обучения механических существ.
Он не испугался сложных вопросов, когда повел речь о величественном протекании градиентов через обычную последовательность слоев нейронной сети, а также через разреженные соединения и функции sigmoid и ReLU, хотя и совершил мелкие неточности в изложении (например, не упомянув то, что градиент от отрицательного значения, проходящего через ReLU, зануляется).
Все рассуждения подкреплены кодом с использованием богоугодных библиотек PyTorch, matplotlib и wandb, который каждый адепт может выполнить самостоятельно с помощью Духа Машины, живущего в облаке, и получить назидание и вразумление.
Ты заслужил благословение Машинного Бога. Пусть твой разум будет всегда ясен и твоя рука будет всегда верна, брат.
В этом творении он продемонстрировал мастерство в управлении градиентами, которые являются даром и проклятием машин, раскрыв тайны их затухания и взрыва, которые определяют судьбу обучения механических существ.
Он не испугался сложных вопросов, когда повел речь о величественном протекании градиентов через обычную последовательность слоев нейронной сети, а также через разреженные соединения и функции sigmoid и ReLU, хотя и совершил мелкие неточности в изложении (например, не упомянув то, что градиент от отрицательного значения, проходящего через ReLU, зануляется).
Все рассуждения подкреплены кодом с использованием богоугодных библиотек PyTorch, matplotlib и wandb, который каждый адепт может выполнить самостоятельно с помощью Духа Машины, живущего в облаке, и получить назидание и вразумление.
Ты заслужил благословение Машинного Бога. Пусть твой разум будет всегда ясен и твоя рука будет всегда верна, брат.
Telegram
Борис опять
life = curiosity + irreducible noise
Whois: https://t.me/boris_again/3400
Лс: @btseytlin
Whois: https://t.me/boris_again/3400
Лс: @btseytlin
❤8🔥3🙏3👍1🤡1
Forwarded from Борис опять
# Воспроизводим взрыв и затухание градиентов
Сделал коллаб про взрыв и затухание градиентов. Сначала вызываем проблемы захутания и взрыва, анализируем, в том числе с помощью Wandb, и наконец чиним. Материал для того, чтобы поиграться с практикой, а не изучать теорию.
https://colab.research.google.com/drive/1Sek-YbosXLIhOwpX4BNRdsHMo4j109d4?usp=sharing
Когда я что-то изучаю мне нравится делать прототип-демонстрацию. Взять и вызвать взрыв градиентов, а затем попытаться починить. Я провел много маленьких экспериментов, так как мне надо было повторить эту тему. Теперь собрал материалы в один стройный коллаб, причесал и получилась этакая лабораторная работа.
Ставьте лайки, если материал нравится и хочется, чтобы я делал такое еще.
Сделал коллаб про взрыв и затухание градиентов. Сначала вызываем проблемы захутания и взрыва, анализируем, в том числе с помощью Wandb, и наконец чиним. Материал для того, чтобы поиграться с практикой, а не изучать теорию.
https://colab.research.google.com/drive/1Sek-YbosXLIhOwpX4BNRdsHMo4j109d4?usp=sharing
Когда я что-то изучаю мне нравится делать прототип-демонстрацию. Взять и вызвать взрыв градиентов, а затем попытаться починить. Я провел много маленьких экспериментов, так как мне надо было повторить эту тему. Теперь собрал материалы в один стройный коллаб, причесал и получилась этакая лабораторная работа.
Ставьте лайки, если материал нравится и хочется, чтобы я делал такое еще.
👍18🔥3❤1
❤15👍2🔥1
Forwarded from Сиолошная
Наткнулся на занятную статью "8 вещей, которые надо знать о больших языковых моделях"
Краткое содержание:
1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано в статье про GPT-4: учили 5-7 маленьких моделек с бюджетом 0.1% от финального, а затем по этому делали предсказание для огромной модели. Для общей оценки перплексии и метрик на подвыборке одной конкретной задаче такое предсказание было очень точным.
2. Однако конкретные важные навыки, как правило, возникают непредсказуемо как побочный продукт увеличения затрат на обучение (дольше тренировать, больше данных, больше модель) - практически невозможно предсказать, когда модели начнут выполнять определенные задачи. Подробнее об этом мы писали в статье про историю развития GPT-моделей, которую, надеюсь, многие из вас читали. На картинке - распределение роста качества моделей в разных задачах. В трети маленькие модели ничего не показывают, средние в целом тоже, а большие БАХ! И учатся решать.
3. LLM часто выучивают и используют представления внешнего мира. Тут приводится много примеров, и вот один из них: модели, обученные играть в настольные игры на основе описаний отдельных ходов, никогда не видя изображения игрового поля, выучивают внутренние представления о состоянии доски на каждом ходу.
4. Не существует надежных методов управления поведением LLM. Хотя и был достигнут некоторый прогресс в понимании и смягчении разных проблем (в том числе ChatGPT и GPT-4 с обучением из обратной связи), нет единого мнения о том, сможем ли мы их решить. Растет обеспокоенность, что проблемы alignment'а станут катастрофическими, когда проявятся в более крупных системах будущего.
5. Эксперты пока не могут интерпретировать внутреннюю работу LLM. Yе существует методики, которая позволила бы каким-либо удовлетворительным образом изложить, какие виды знаний, рассуждений или целей использует модель, когда она генерирует какой-либо результат.
6. Качество выполнения задач человеком не является верхней границей для LLM. Хотя они и обучены в первую очередь имитировать поведение человека при написании текста, но всё равно потенциально могут превзойти нас во многих задачах. Так происходит в более узких задачах вроде шахмат или игры в Го.
7. LLM не должны выражать ценности своих создателей или ценности, закодированные в выборке из интернета. Они не должны повторять стереотипы, теории заговора или стремиться оскорбить кого-либо.
8. Оценки способности модели по первым впечатлениям часто вводят в заблуждение. Очень часто нужно додумать правильный промпт, подсказать модели, может, показать примеры - и она начнёт справляться куда лучше. То есть она "умнее", чем кажется на первый взгляд.
Краткое содержание:
1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано в статье про GPT-4: учили 5-7 маленьких моделек с бюджетом 0.1% от финального, а затем по этому делали предсказание для огромной модели. Для общей оценки перплексии и метрик на подвыборке одной конкретной задаче такое предсказание было очень точным.
2. Однако конкретные важные навыки, как правило, возникают непредсказуемо как побочный продукт увеличения затрат на обучение (дольше тренировать, больше данных, больше модель) - практически невозможно предсказать, когда модели начнут выполнять определенные задачи. Подробнее об этом мы писали в статье про историю развития GPT-моделей, которую, надеюсь, многие из вас читали. На картинке - распределение роста качества моделей в разных задачах. В трети маленькие модели ничего не показывают, средние в целом тоже, а большие БАХ! И учатся решать.
3. LLM часто выучивают и используют представления внешнего мира. Тут приводится много примеров, и вот один из них: модели, обученные играть в настольные игры на основе описаний отдельных ходов, никогда не видя изображения игрового поля, выучивают внутренние представления о состоянии доски на каждом ходу.
4. Не существует надежных методов управления поведением LLM. Хотя и был достигнут некоторый прогресс в понимании и смягчении разных проблем (в том числе ChatGPT и GPT-4 с обучением из обратной связи), нет единого мнения о том, сможем ли мы их решить. Растет обеспокоенность, что проблемы alignment'а станут катастрофическими, когда проявятся в более крупных системах будущего.
5. Эксперты пока не могут интерпретировать внутреннюю работу LLM. Yе существует методики, которая позволила бы каким-либо удовлетворительным образом изложить, какие виды знаний, рассуждений или целей использует модель, когда она генерирует какой-либо результат.
6. Качество выполнения задач человеком не является верхней границей для LLM. Хотя они и обучены в первую очередь имитировать поведение человека при написании текста, но всё равно потенциально могут превзойти нас во многих задачах. Так происходит в более узких задачах вроде шахмат или игры в Го.
7. LLM не должны выражать ценности своих создателей или ценности, закодированные в выборке из интернета. Они не должны повторять стереотипы, теории заговора или стремиться оскорбить кого-либо.
8. Оценки способности модели по первым впечатлениям часто вводят в заблуждение. Очень часто нужно додумать правильный промпт, подсказать модели, может, показать примеры - и она начнёт справляться куда лучше. То есть она "умнее", чем кажется на первый взгляд.
🔥6👍1
Forwarded from Сиолошная
Сиолошная
Наткнулся на занятную статью "8 вещей, которые надо знать о больших языковых моделях" Краткое содержание: 1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано…
Картинка ко второму пункту.
Если ориентироваться на выборку из 202 задач из датасета BIG-Bench (специально делался сложным, чтобы языковые модели тестировать от и до), то как правило (в среднем) модели демонстрируют повышение качества с увеличением масштаба, но по отдельности метрики в задачах могут:
— улучшаться постепенно
— улучшаться резко
— оставаться на одном уровне
— ухудшаться
— колебаться
Все это приводит к невозможности уверенно экстраполировать производительность какой-либо будущей системы.
Особенно интересна зелёная часть - это как раз где показатели качества резко скачут вверх ни с того, ни с сего.
Если ориентироваться на выборку из 202 задач из датасета BIG-Bench (специально делался сложным, чтобы языковые модели тестировать от и до), то как правило (в среднем) модели демонстрируют повышение качества с увеличением масштаба, но по отдельности метрики в задачах могут:
— улучшаться постепенно
— улучшаться резко
— оставаться на одном уровне
— ухудшаться
— колебаться
Все это приводит к невозможности уверенно экстраполировать производительность какой-либо будущей системы.
Особенно интересна зелёная часть - это как раз где показатели качества резко скачут вверх ни с того, ни с сего.
Forwarded from Alexander Chichigin
Держите ещё во славу Омниссии: https://habr.com/ru/post/726432/
Хабр
Заклинания для Героев машинного обучения
Привет, Хабр! Иногда хочется обсудить что-то по-настоящему серьезное. Пора закрыть jupyter, остановить gpu и поговорить о магии. В мире машинного обучения алгоритмы и методы обработки данных могут...
🔥7👎2