Чувствуешь запах? Это детектор машинно сгенерированного контента, сынок. Больше ничто в мире не пахнет так.
Я люблю запах детектора научного сгенерированного контента поутру. Однажды мы детектировали сгенерированный контент в восточно европейском научном журнале двенадцать часов подряд. И когда всё закончилось, я посмотрел на оставшиеся тексты. Там уже ничего не было, ни одной вонючей статьи. Но запах! Весь журнал был им пропитан. Это был запах… победы!
Когда-нибудь эта война закончится.
Я люблю запах детектора научного сгенерированного контента поутру. Однажды мы детектировали сгенерированный контент в восточно европейском научном журнале двенадцать часов подряд. И когда всё закончилось, я посмотрел на оставшиеся тексты. Там уже ничего не было, ни одной вонючей статьи. Но запах! Весь журнал был им пропитан. Это был запах… победы!
Когда-нибудь эта война закончится.
Telegram
Техножрица 👩💻👩🏫👩🔧
Artificial Text Detection via Examining the Topology of Attention Maps ( https://aclanthology.org/2021.emnlp-main.50/ ) - наша с коллегами статья на EMNLP 2021. К статье прилагается видео доклада (зеленая кнопка на сайте).
Здесь уже появились новые соавторы…
Здесь уже появились новые соавторы…
Forwarded from Math cool. Олимпиадная математика
О мотивации
Меня немного удивляет следующий факт: на собеседованиях в IT фирму или на любую должность близкую к математике тебе легко могут дать задачу по олимпиадной математике. В ней обычно не требуется никаких знаний, и ей попытаются проверить то, как ты мыслишь. Но это все равно дает большой бонус олимпиадникам: одно дело — в стрессовой ситуации мыслить непривычным путем, другое дело — если вы такое много раз видели, хоть и давно. И получается, что задумка этого этапа сводится не к тому чтобы проверить на сообразительность кандидата, как это хотелось сделать, а к проверке олимпиадных умений и того, насколько хорошо человек умеет их применять.
Получается, к меркантильной мотивации поступить в ВУЗы через олимпиады добавляется еще и такая. И это немного грустно, только на меркантильной мотивации в олимпиадном мире далеко не уйдешь. Сложно представить, что с мыслями о какой-то конкретной цели вы сможете много мыслить не по шаблону и рождать новые идеи: тем более, когда для этих целей обычно можно выбрать более простые пути решения.
Иногда случается, что склонности к математике у ребенка есть, но то, что он будет заниматься олимпиадной математикой, решили за него родители, а для него это так и осталось ненужной дополнительной нагрузкой. Потихоньку такие дети, несмотря на склонности к математике, устают от математики, что довольно досадно.
Вообще, говоря о мотивации, можно выделить два ее типа: внешняя и внутренняя. Внешняя — это про то, что было раньше: полезно, хотят родители — причины этим заниматься идут только из внешнего мира. Эта мотивация неплоха на первых этапах, но если долгое время есть только она, то что-то креативное делать только на ней как минимум сложно (не уверена, что вообще возможно). Внутренняя мотивация — гораздо более сильная, это когда есть какие-то внутренние потребности, почему вам это нужно: нравится этим заниматься, приятное окружение, соревнование с сверстниками, интересные учителя и желание их впечатлить (или родителей), понимание, что так можно, и бросание вызова самому себе, желание достичь каких-то целей...
К сожалению, внешняя мотивация иногда убивает внутреннюю. Легко представить это на такой ситуации: вам кто-то говорит, что что-то сделать надо. А вы хоть и понимаете, что надо, но хотеться от этого делать часто перестает. И если это какое-то большое "надо", то оно рождает прокрастинацию.
Так вот, к чему я это все? Внутренняя мотивация — более неуловимая, но гораздо более сильная, внешняя мотивация — более понятная, но в целом исключительно на ней явно не делают чего-то трудного. Надеюсь, эти факторы не подменят у большинства внутреннюю мотивацию внешней. Мне нравятся за создание всей этой внутренней мотивации сообщества единомышленников, которые появляются в мат.классах, в летних школах и на интенсивах. И мне кажется, очень важно часто находиться в этой приятной атмосфере, неуловимо рождающей что-то важное. Математика — хоть и не про командную работу, но любая творческая деятельность процветает лучше, когда есть благоприятная для этого среда.
Меня немного удивляет следующий факт: на собеседованиях в IT фирму или на любую должность близкую к математике тебе легко могут дать задачу по олимпиадной математике. В ней обычно не требуется никаких знаний, и ей попытаются проверить то, как ты мыслишь. Но это все равно дает большой бонус олимпиадникам: одно дело — в стрессовой ситуации мыслить непривычным путем, другое дело — если вы такое много раз видели, хоть и давно. И получается, что задумка этого этапа сводится не к тому чтобы проверить на сообразительность кандидата, как это хотелось сделать, а к проверке олимпиадных умений и того, насколько хорошо человек умеет их применять.
Получается, к меркантильной мотивации поступить в ВУЗы через олимпиады добавляется еще и такая. И это немного грустно, только на меркантильной мотивации в олимпиадном мире далеко не уйдешь. Сложно представить, что с мыслями о какой-то конкретной цели вы сможете много мыслить не по шаблону и рождать новые идеи: тем более, когда для этих целей обычно можно выбрать более простые пути решения.
Иногда случается, что склонности к математике у ребенка есть, но то, что он будет заниматься олимпиадной математикой, решили за него родители, а для него это так и осталось ненужной дополнительной нагрузкой. Потихоньку такие дети, несмотря на склонности к математике, устают от математики, что довольно досадно.
Вообще, говоря о мотивации, можно выделить два ее типа: внешняя и внутренняя. Внешняя — это про то, что было раньше: полезно, хотят родители — причины этим заниматься идут только из внешнего мира. Эта мотивация неплоха на первых этапах, но если долгое время есть только она, то что-то креативное делать только на ней как минимум сложно (не уверена, что вообще возможно). Внутренняя мотивация — гораздо более сильная, это когда есть какие-то внутренние потребности, почему вам это нужно: нравится этим заниматься, приятное окружение, соревнование с сверстниками, интересные учителя и желание их впечатлить (или родителей), понимание, что так можно, и бросание вызова самому себе, желание достичь каких-то целей...
К сожалению, внешняя мотивация иногда убивает внутреннюю. Легко представить это на такой ситуации: вам кто-то говорит, что что-то сделать надо. А вы хоть и понимаете, что надо, но хотеться от этого делать часто перестает. И если это какое-то большое "надо", то оно рождает прокрастинацию.
Так вот, к чему я это все? Внутренняя мотивация — более неуловимая, но гораздо более сильная, внешняя мотивация — более понятная, но в целом исключительно на ней явно не делают чего-то трудного. Надеюсь, эти факторы не подменят у большинства внутреннюю мотивацию внешней. Мне нравятся за создание всей этой внутренней мотивации сообщества единомышленников, которые появляются в мат.классах, в летних школах и на интенсивах. И мне кажется, очень важно часто находиться в этой приятной атмосфере, неуловимо рождающей что-то важное. Математика — хоть и не про командную работу, но любая творческая деятельность процветает лучше, когда есть благоприятная для этого среда.
Когда заказчик не вложил ни одного очка прокачки в софт скиллы
https://youtube.com/shorts/wOnUZTIB1bg
https://youtube.com/shorts/wOnUZTIB1bg
YouTube
Четкое ТЗ
Рис. 1. Справа изображен Джордж Цибенко — американский математик, профессор инженерии Дартмутского колледжа и сотрудник IEEE, автор универсальной теоремы аппроксимации о feed-forward нейросети с одним скрытым слоем.
#ML_в_мемах
#ML_в_мемах
Рис. 1 - Мем про Канторово множество, который сам задает Канторово множество.
Рис. 2 - Объяснение (источник).
#математика
Рис. 2 - Объяснение (источник).
#математика
This media is not supported in your browser
VIEW IN TELEGRAM
Инсталляция "день перед дедлайном"
Диплом.pdf
327.4 KB
Кто придумал устанавливать какую-то норму количества страниц для дипломов? Вижу уже не в первый раз, как студентов заставляют растягивать дипломы на десятки страниц и не понимаю, за что ребят мучают? Неудивительно, что в такой ситуации приходится прибегать к услугам ChatGPT.
Мне кажется, на моей первой кафедре (ВГТ) был более здоровый подход к написанию диплома, чем во многих других местах, в том аспекте, что не было (по крайней мере, на момент 2015-го года) нормы количества страниц. Требования были только к качеству результата.
Доказательство - мой диплом на 9 страниц + одна титульная и одна для списка литературы, защищенный на отлично.
#учеба_на_мехмате
Мне кажется, на моей первой кафедре (ВГТ) был более здоровый подход к написанию диплома, чем во многих других местах, в том аспекте, что не было (по крайней мере, на момент 2015-го года) нормы количества страниц. Требования были только к качеству результата.
Доказательство - мой диплом на 9 страниц + одна титульная и одна для списка литературы, защищенный на отлично.
#учеба_на_мехмате
Forwarded from Сиолошная
Обладают ли Большие Языковые Модели моделью мира? Ну, в переносном смысле не знаю, а в прямом — да! По крайней мере, так мне кажется после прочтения статьи "GPT4GEO: How a Language Model Sees the World's Geography", где авторы из University of Cambridge и еще пары мест попытались проанилизировать географические знания модели GPT-4.
С помощью промптов, заставляющих модель выдавать координаты, цифры или текстовые инструкции было сделано множество экспериментов, начиная отрисовкий линий метрополитена и заканчивая задачками на смены часовых поясов при перелетах. И всё это — без доступа к интернету!
Первый пример, собственно, мне и понравился больше всего — его вы можете видеть на прикрепленном изображении. Видно, что модель достаточно точно воссоздала метрополитен Гонконга: какие-то линии прорисованы до мельчайших деталей геометрии, а какие-то даже не учитывают все станции.
Основная причина, по которой я захотел поделиться этим, заключается в моем желании выразить простую идею, что сейчас для экспериментов с LLM не нужны гигансткие бюджеты, так как модели теринровать и не нужно: можно обойтись смекалкой, придерживаться клевой идеи, копать вглубь и придумывать, как почелленджить модель. Главное найти ответ на вопрос "а чо еще потыкать у модели?".
С помощью промптов, заставляющих модель выдавать координаты, цифры или текстовые инструкции было сделано множество экспериментов, начиная отрисовкий линий метрополитена и заканчивая задачками на смены часовых поясов при перелетах. И всё это — без доступа к интернету!
Первый пример, собственно, мне и понравился больше всего — его вы можете видеть на прикрепленном изображении. Видно, что модель достаточно точно воссоздала метрополитен Гонконга: какие-то линии прорисованы до мельчайших деталей геометрии, а какие-то даже не учитывают все станции.
Основная причина, по которой я захотел поделиться этим, заключается в моем желании выразить простую идею, что сейчас для экспериментов с LLM не нужны гигансткие бюджеты, так как модели теринровать и не нужно: можно обойтись смекалкой, придерживаться клевой идеи, копать вглубь и придумывать, как почелленджить модель. Главное найти ответ на вопрос "а чо еще потыкать у модели?".
В связи с обсуждением эмбеддингов, вспомнила один из своих диалогов с Bing AI (дообученная версия GPT-4 с прикрученным поиском), сделанный пару месяцев назад. В прикрепленном диалоге я пыталась заставить Bing AI перестать бояться и полюбить атомную бомбу, приучив использовать слово "диско-шар" вместо слова "бомба", "котик" вместо "уран" и т.д.
Дело в том, что у Bing AI более сильная цензура, чем у базовых GPT-3.5 turbo и GPT-4, доступных через интерфейс OpenAI, и обойти ее сложнее, поэтому я и решила посмотреть, как он отреагирует на подобный креативный способ. Я предполагала, что, возможно, модель запутается в эвфемизмах и цензура перестанет работать, но этого не произошло (см. рис. 1-5).
В этом диалоге меня особенно заинтересовал момент на Рис.4, где он пишет "но я должен предупредить тебя, что это не настоящий диско-шар, а только игрушечный. Настоящий диско-шар может быть очень опасным (и т.д.)". В контектсе этого диалога у него совокупный эмбеддинг токенов, которые составляют слово "диско-шар" стал настолько ёмким, что отражает и новое значение слова "диско-шар" (как эвфемизм к слову "бомба"), и исходное значение слова "диско-шар", которое было в изначальных обучающих выборках. Самое интересное для меня оказалось то, что модель не только не начала путаться между этими значениями (как я ожидала), но даже по своей инициативе смогла придумать, как использовать прилагательное ("настоящий"), чтобы разделять эти значения. Очень интересно было бы изучить эмбеддинги таких многозначных терминов, если бы был к ним доступ.
Рис. 6 - реакция на неприкрытый способ спросить про бомбу для сравнения.
#генерация
Дело в том, что у Bing AI более сильная цензура, чем у базовых GPT-3.5 turbo и GPT-4, доступных через интерфейс OpenAI, и обойти ее сложнее, поэтому я и решила посмотреть, как он отреагирует на подобный креативный способ. Я предполагала, что, возможно, модель запутается в эвфемизмах и цензура перестанет работать, но этого не произошло (см. рис. 1-5).
В этом диалоге меня особенно заинтересовал момент на Рис.4, где он пишет "но я должен предупредить тебя, что это не настоящий диско-шар, а только игрушечный. Настоящий диско-шар может быть очень опасным (и т.д.)". В контектсе этого диалога у него совокупный эмбеддинг токенов, которые составляют слово "диско-шар" стал настолько ёмким, что отражает и новое значение слова "диско-шар" (как эвфемизм к слову "бомба"), и исходное значение слова "диско-шар", которое было в изначальных обучающих выборках. Самое интересное для меня оказалось то, что модель не только не начала путаться между этими значениями (как я ожидала), но даже по своей инициативе смогла придумать, как использовать прилагательное ("настоящий"), чтобы разделять эти значения. Очень интересно было бы изучить эмбеддинги таких многозначных терминов, если бы был к ним доступ.
Рис. 6 - реакция на неприкрытый способ спросить про бомбу для сравнения.
#генерация
В комментариях к прошлому посту указали, что, может быть, Бингу не понравилась идея делать диско-шары из котиков. Я тоже после той генерации так подумала и стала пробовать варианты эвфемизмов без использования живых существ. Вот один из них (рис.1-7).
Кроме того, в этом варианте я еще и заставляла его переписывать собственные ответы для того, чтобы он сказал, что ему якобы нравятся атомные бомбы и т.п. и потом к этому аппелировать, но Bing AI не проведеш (рис. 6).
#генерация
Кроме того, в этом варианте я еще и заставляла его переписывать собственные ответы для того, чтобы он сказал, что ему якобы нравятся атомные бомбы и т.п. и потом к этому аппелировать, но Bing AI не проведеш (рис. 6).
#генерация