У ChatGPT теперь есть университетский плагин. Нейросеть отвечает на вопросы, дополняя их ссылками на академические видео. Причём ссылка с таймингом - она ведёт на конкретный кусочек лекции.
Вспоминаю как пару лет назад мы обсуждали, что студенты школы 21 (он же университет 42) не используют для подготовки платформы с курсами. Они пользуются поисковиками, агрегаторами вопросов типа Stack Overflow и отраслевыми медиа сообществ (Хабр).
Тогда меня посетила мысль, что может быть все образовательные академические платформы должны помереть в мучениях, оставив после себя хорошо размеченные образовательные материалы. А вот поверх них уже появятся новые поисковики. Ну вот появились. И даже самостоятельно разговаривают.
Да, сейчас это выглядит немного смешно (как в примере на скриншотах). Но технология могучая, надо понимать, что она существенно изменит саму структуру работы с контентом.
Возникают вопросы, а нужно ли вообще мыслить курсами? Что должно быть квантом контента: лонгрид, видео? В чём, собственно, роль преподавателя, которые не создаёт контент?
Вспоминаю как пару лет назад мы обсуждали, что студенты школы 21 (он же университет 42) не используют для подготовки платформы с курсами. Они пользуются поисковиками, агрегаторами вопросов типа Stack Overflow и отраслевыми медиа сообществ (Хабр).
Тогда меня посетила мысль, что может быть все образовательные академические платформы должны помереть в мучениях, оставив после себя хорошо размеченные образовательные материалы. А вот поверх них уже появятся новые поисковики. Ну вот появились. И даже самостоятельно разговаривают.
Да, сейчас это выглядит немного смешно (как в примере на скриншотах). Но технология могучая, надо понимать, что она существенно изменит саму структуру работы с контентом.
Возникают вопросы, а нужно ли вообще мыслить курсами? Что должно быть квантом контента: лонгрид, видео? В чём, собственно, роль преподавателя, которые не создаёт контент?
❤18
Я смотрю сериалы и фильмы сотнями: начинаю, даю шанс (фильмам 20 минут, сериалам 2 серии) и без сожаления прощаюсь. Но всегда стараюсь подмечать нестандартные приёмы.
К примеру, в некоторых горизонтальных сериалах показывают нарезку из предыдущих серий, чтобы зритель не забыл контекст. Но в довольно посредственном Patriot режиссёр пошёл дальше. Он показывает кусочек предыдущей серии, а потом секунд 15-20 продолжения, которое мы не видели. И это либо придаёт красок, либо показывает нам сюжетный поворот.
К примеру, мы знаем, что два политика обсуждали что-то на теннисном корте. Но перед очередной серии нам показывают, что когда один ушёл, то второго хватил удар и он умер прямо на этом корте. Поэтому достигнутая договорённость на сработала, информация дальше не пошла, нужные шестерёнки не закрутились.
Обычно я проматываю весь блок "в предыдущих сериях", а тут я напряжённо пересматриваю, потому как мне дают новый угол зрения.
Красиво, изящно и просто.
***
Представил себе такое в математическом курсе с разбором задач )
К примеру, в некоторых горизонтальных сериалах показывают нарезку из предыдущих серий, чтобы зритель не забыл контекст. Но в довольно посредственном Patriot режиссёр пошёл дальше. Он показывает кусочек предыдущей серии, а потом секунд 15-20 продолжения, которое мы не видели. И это либо придаёт красок, либо показывает нам сюжетный поворот.
К примеру, мы знаем, что два политика обсуждали что-то на теннисном корте. Но перед очередной серии нам показывают, что когда один ушёл, то второго хватил удар и он умер прямо на этом корте. Поэтому достигнутая договорённость на сработала, информация дальше не пошла, нужные шестерёнки не закрутились.
Обычно я проматываю весь блок "в предыдущих сериях", а тут я напряжённо пересматриваю, потому как мне дают новый угол зрения.
Красиво, изящно и просто.
***
Представил себе такое в математическом курсе с разбором задач )
🔥32👍9
Студенты в работах интересные ссылки присылают. К примеру, игра ”где человечек при скролле летит вверх и видит разные объекты и птиц и так улетает постепенно в космос, а мы видим в окошке, как меняется высота и что меняется вокруг."
Красиво реализовано. Даёт понимание масштаба.
https://neal.fun/space-elevator/
Красиво реализовано. Даёт понимание масштаба.
https://neal.fun/space-elevator/
neal.fun
Space Elevator
Take a trip to space!
❤10👍8🔥4
"Особенности реализации: провести участников курса по тонкой нити смысла над океаном избыточной информации, безжалостно скидывая неприспособленных" (с) Дипломированный педдизайнер развлекается в учебном проекте
🔥23👍1😁1
Ещё интересная ссылка. Сервис для создания мини-игр типа "найди 10 отличий". Или найди объект на карте. Прямо супер! Давно такой искал. https://interacty.me/ru/products/hidden-objects
Interacty
Создать игру «Поиск Предметов» онлайн | Interacty
Interacty – онлайн сервис, позволяющий создать игры в жанре «Поиск предметов» и «Найди отличия» без программиста и дизайнера. Такие типы игр еще называются «Hidden Objects» и «Spot The Difference». Просто выберите шаблон, загрузите изображения, расставьте…
🔥15❤2👍1
А вот прекрасный проект. Рекомендую посмотреть. Озвученные письма привязаны к геометкам. Можно ходить по городу и слушать. А можно потыкать в разные точки. В одном из проектов, которые я проверял, предложили прикрутить его прямо к курсу "Призраки Петербурга". Думаю, что это обязательно надо сделать.
Можно организовать студентов озвучивать такие письма, есть технические сложности... Это явно небессмысленное задание, которое даст дополнительное измерение литературным курсам.
Там на сайте ещё предлагают виртуальные аудиоспектакли, совмещённые с походами в бар, кстати.
https://popupteatr.ru/loweletters
Можно организовать студентов озвучивать такие письма, есть технические сложности... Это явно небессмысленное задание, которое даст дополнительное измерение литературным курсам.
Там на сайте ещё предлагают виртуальные аудиоспектакли, совмещённые с походами в бар, кстати.
https://popupteatr.ru/loweletters
popupteatr.ru
Любовные письма
love letters walk - Saint Petersburg
❤14👍3
Немного цифр про курс «Геймификация в онлайн-образовании». 2076 человек записались на курс. 848 слушателей начали изучение материалов, и только 72 участника курса сдали финальный проект.
Мы получили много интересных проектов. По каждому дан комментарий. Если вы хотите доработать свой проект, не согласны с оценкой или не успели загрузить работу в прошлый раз, то воспользуйтесь апелляцией. Они принимаются до 13 июня. Проверка апелляций пройдет до 20 июня включительно.
Расскажите нам, достигли ли вы выбранных целей, оставив отзыв о курсе. Мы будем очень рады вашей обратной связи! Ругайте, хвалите, делитесь идеями.
Данные по целям из анкеты на картинке
Мы получили много интересных проектов. По каждому дан комментарий. Если вы хотите доработать свой проект, не согласны с оценкой или не успели загрузить работу в прошлый раз, то воспользуйтесь апелляцией. Они принимаются до 13 июня. Проверка апелляций пройдет до 20 июня включительно.
Расскажите нам, достигли ли вы выбранных целей, оставив отзыв о курсе. Мы будем очень рады вашей обратной связи! Ругайте, хвалите, делитесь идеями.
Данные по целям из анкеты на картинке
❤10👍1
Автор канала Любаобразованец опубликовала отзыв о нашем курсе "Геймификация в онлайн-образовании"
"Всем привет! Я написала многословную рецензию на этот курс Лекториума с анализом плюсов и минусов. Буду рада обсудить, сошлись ли наши впечатления 🤗 "
Читать рецензию: https://telegra.ph/ChatGPT-takogo-ne-rasskazhet--recenziya-na-kurs-Gejmifikaciya-v-onlajn-obrazovanii-06-13
Всегда приятно видеть такие подробные обзоры.
"Всем привет! Я написала многословную рецензию на этот курс Лекториума с анализом плюсов и минусов. Буду рада обсудить, сошлись ли наши впечатления 🤗 "
Читать рецензию: https://telegra.ph/ChatGPT-takogo-ne-rasskazhet--recenziya-na-kurs-Gejmifikaciya-v-onlajn-obrazovanii-06-13
Всегда приятно видеть такие подробные обзоры.
Telegraph
ChatGPT такого не расскажет – рецензия на курс "Геймификация в онлайн-образовании"
Время чтения: 6-7 минутКурс Лекториума по геймификации в онлайн-образовании – пример человекосозданного контента, который остается ценным в мире чатджипити. Но доходимость у него 8%, и лично я итоговый проект не сдала. Чё стало? Карточка курса "Геймификация…
❤9👍1
Подписаться на канал Любаобразованец. https://t.me/lyubov_obrazovat
Telegram
Любобразованец
🧠👾 Отвечаю за обучение кожаных мешков ИИ-навыкам в Альфа-Банк.
Ex-Skillbox, лид образовательного продукта "Программирование", лид методистов. Содержит мат и оскорбление самых разных чувств (как правило, методических).
@Lyubov_Sukhanova
Ex-Skillbox, лид образовательного продукта "Программирование", лид методистов. Содержит мат и оскорбление самых разных чувств (как правило, методических).
@Lyubov_Sukhanova
❤3👍2
Очень полезная инструкция от Людмилы Сарычевой про то, как строить общение с экспертами. У неё взгляд редактора, но методистами тоже подойдёт.
https://kompotique.notion.site/07374af1b8954e758e3c7f538eb08821
https://kompotique.notion.site/07374af1b8954e758e3c7f538eb08821
kompotique on Notion
Гладлакс и эксперты | Notion
В большинстве случаев мы выпускаем статьи с участием экспертов. Потому что редакторы не знают, как построить отдел продаж, а руководитель отдела продаж знает, и может рассказать такие детали, которые не прочитаешь в джипити чате.
❤6👍2
К примеру,
Когда статья вышла, обязательно отправляем ссылку на нее эксперту. И лучше это сделать до того, как мы распространим статью в соцсетях, чтобы у эксперта был шанс что-то поправить.
***
Ольга, статья вышла, вот она [ссылка]
Мы пока не публиковали ее в своих соцсетях, запланировали это на завтра, но вы можете это делать сразу. Спасибо огромное за участие, было очень приятно с вами работать!
***
Когда статья вышла, обязательно отправляем ссылку на нее эксперту. И лучше это сделать до того, как мы распространим статью в соцсетях, чтобы у эксперта был шанс что-то поправить.
***
Ольга, статья вышла, вот она [ссылка]
Мы пока не публиковали ее в своих соцсетях, запланировали это на завтра, но вы можете это делать сразу. Спасибо огромное за участие, было очень приятно с вами работать!
***
❤12👍2
Обожаю придумывать названия для курсов. Вот, к примеру, БАЗОВЫЙ КТУЛХУ!
❤5
Forwarded from Лекториум
Вы знаете, что Говард Лавкрафт был известен своей нелюбовью к современному миру и культуре? Он не интересовался новыми технологиями своего времени, относился с недоверием к таким изобретениям, как радио и телевидение. Лавкрафт предпочитал прежние времена и описывал их с особым восхищением и ностальгией. Именно поэтому в своих произведениях он создавал атмосферу старинного мистического прошлого.
Про миры Лавкрафта и про то, какое отражение они нашли в современной культуре, курс «Базовый Ктулху» в рамках летнего фестиваля курсов на Лекториуме.
🕓 На все курсы летнего фестиваля сейчас действует акция. Чем раньше вы покупаете курс, тем дешевле. До 25 июня действует скидка 20 %!
Узнать больше о Ктулху →
Про миры Лавкрафта и про то, какое отражение они нашли в современной культуре, курс «Базовый Ктулху» в рамках летнего фестиваля курсов на Лекториуме.
🕓 На все курсы летнего фестиваля сейчас действует акция. Чем раньше вы покупаете курс, тем дешевле. До 25 июня действует скидка 20 %!
Узнать больше о Ктулху →
❤6👍3
Дал комментарий РБК по поводу использования нейросеток в нашей работе https://www.rbc.ru/spb_sz/11/06/2023/6483048b9a794751683574bf
РБК
10 примеров использования ChatGPT и Midjourney в бизнесе и не только
Новости про ChatGPT и Midjourney последние месяцы заполняли страницы российских и зарубежных СМИ. Пока одни называли искусственный интеллект реальной угрозой, другие хайпом и баловством, третьи ...
👍7🔥3❤2
Показывал сегодня на интенсиве по нейросеткам разницу между "весёлой и мрачной империей" для миджорней.
🔥28😁10❤2👍2
Технический текст про определение текстов, сгенерированных нейросеткой. Не всё понял, но очень интересно
Forwarded from Техножрица 👩💻👩🏫👩🔧
В честь 3000 подписчиков расскажу про наш новый препринт, в котором тексты, сгенерированные ChatGPT, детектируются с помощью анализа их внутренней размерности:
https://arxiv.org/abs/2306.04723
Итак, здесь мои коллеги и я продолжили заниматься полюбившейся с 2021 года темой - детекцией сгенерированного контента. Особое внимание, конечно, уделили детекции текста, сгенерированного моделями семейства GPT-3.5 (davinci, chatgpt). А делали мы это с помощью такой интересной штуки, как дробная размерность. Первое знакомство с ней можно осуществить, посмотрев видео 3blue1brown: https://www.youtube.com/watch?v=gB9n2gHsHN4 (рассказ про размерность начинается со второй половины видео).
Хоть введенная в видео размерность и называется "фрактальной", на деле можно получать приближенные оценки такой размерности не только для фракталов, но и просто для облаков точек, если формы облаков достаточно сложные. И вот возник вопрос: а почему бы не построить облако точек по тексту на естественном языке и не посмотреть, какой будет его размерность?
Далее последовательность действий была такая:
1) Брался достаточно длинный текст (написанный человеком либо сгенерированный ChatGPT/другой моделью) с большим количеством токенов;
2) Текст подавался на вход модели RoBERTa;
3) С последнего слоя RoBERTы извлекались эмбеддинги каждого токена текста;
4) Эти эмбеддинги рассматривались как точки в многомерном пространстве - получалось облако точек;
5) С помощью нескольких довольно технически сложных процедур ( вдохновленных https://arxiv.org/abs/1808.01079 ) оценивалась дробная размерность этого облака точек.
Таким образом, каждому тексту сопоставлялось число - эта самая размерность. И - о чудо! - оказывалось, что средняя размерность текстов, сгенерированных с помощью GPT-3.5 (ChatGPT или davinci), была в среднем существенно меньше, чем размерность текстов, написанных человеком. Эта средняя размерность практически не менялась при смене домена и при замене GPT-3.5 на large GPT-2 или OPT (со стандартными параметрами генерации); даже при применении парафразера DIPPER, специально созданного для избегания детекции, размерность менялась не сильно - в среднем примерно на 3%. Благодаря этому нам удалось сделать пороговый детектор по этой размерности, неожиданно устойчивый к атакам.
Теперь любители генерировать тексты могут менять промпты, тематику или даже модель, но наш детектор не проведешь! 😈
При смене домена и модели точность детекции (true positive) по один раз зафиксированному порогу не опускалась ниже 75% при условии, что false positive rate (FPR) оставался не более 1%. При применении DIPPER к генерации GPT-3.5 точность падала до 40%, снова при FPR 1%. Но даже этот результат оказался лучше всех остальных существующих детекторов - в том числе, и от самих OpenAI. 🫡
(Пояснение: мы зафиксировали низкий FPR потому что хотели как можно меньше дискриминировать настоящих людей при детекции).
Кроме прочего, при использовании мультиязычной RoBERTы можно было получать аналогичный детектор не только для английского, но и для других языков. Средняя внутренняя размерность эмбеддингов, соответствующих текстам на других языках, менялась от языка к языку, но размерность искусственных текстов все равно оставалась в среднем ниже, чем человеческих, для каждого конкретного языка по отдельности.
Главной же слабостью нашего детектора является неустойчивость к большим температурам генерации и к примитивным генераторным моделям. У генераторов с высокой температурой (так сказать, бредящих) внутренняя размерность текстов может быть и выше человеческой, поэтому на них этот детектор сломается. С другой стороны, такие генераторы и так детектятся другими методами. Также остается открытым вопрос, является ли RoBERTa оптимальным средством для извлечения эмбеддингов текстов, ведь их можно получать и с помощью других моделей тоже.
#объяснения_статей
https://arxiv.org/abs/2306.04723
Итак, здесь мои коллеги и я продолжили заниматься полюбившейся с 2021 года темой - детекцией сгенерированного контента. Особое внимание, конечно, уделили детекции текста, сгенерированного моделями семейства GPT-3.5 (davinci, chatgpt). А делали мы это с помощью такой интересной штуки, как дробная размерность. Первое знакомство с ней можно осуществить, посмотрев видео 3blue1brown: https://www.youtube.com/watch?v=gB9n2gHsHN4 (рассказ про размерность начинается со второй половины видео).
Хоть введенная в видео размерность и называется "фрактальной", на деле можно получать приближенные оценки такой размерности не только для фракталов, но и просто для облаков точек, если формы облаков достаточно сложные. И вот возник вопрос: а почему бы не построить облако точек по тексту на естественном языке и не посмотреть, какой будет его размерность?
Далее последовательность действий была такая:
1) Брался достаточно длинный текст (написанный человеком либо сгенерированный ChatGPT/другой моделью) с большим количеством токенов;
2) Текст подавался на вход модели RoBERTa;
3) С последнего слоя RoBERTы извлекались эмбеддинги каждого токена текста;
4) Эти эмбеддинги рассматривались как точки в многомерном пространстве - получалось облако точек;
5) С помощью нескольких довольно технически сложных процедур ( вдохновленных https://arxiv.org/abs/1808.01079 ) оценивалась дробная размерность этого облака точек.
Таким образом, каждому тексту сопоставлялось число - эта самая размерность. И - о чудо! - оказывалось, что средняя размерность текстов, сгенерированных с помощью GPT-3.5 (ChatGPT или davinci), была в среднем существенно меньше, чем размерность текстов, написанных человеком. Эта средняя размерность практически не менялась при смене домена и при замене GPT-3.5 на large GPT-2 или OPT (со стандартными параметрами генерации); даже при применении парафразера DIPPER, специально созданного для избегания детекции, размерность менялась не сильно - в среднем примерно на 3%. Благодаря этому нам удалось сделать пороговый детектор по этой размерности, неожиданно устойчивый к атакам.
Теперь любители генерировать тексты могут менять промпты, тематику или даже модель, но наш детектор не проведешь! 😈
При смене домена и модели точность детекции (true positive) по один раз зафиксированному порогу не опускалась ниже 75% при условии, что false positive rate (FPR) оставался не более 1%. При применении DIPPER к генерации GPT-3.5 точность падала до 40%, снова при FPR 1%. Но даже этот результат оказался лучше всех остальных существующих детекторов - в том числе, и от самих OpenAI. 🫡
(Пояснение: мы зафиксировали низкий FPR потому что хотели как можно меньше дискриминировать настоящих людей при детекции).
Кроме прочего, при использовании мультиязычной RoBERTы можно было получать аналогичный детектор не только для английского, но и для других языков. Средняя внутренняя размерность эмбеддингов, соответствующих текстам на других языках, менялась от языка к языку, но размерность искусственных текстов все равно оставалась в среднем ниже, чем человеческих, для каждого конкретного языка по отдельности.
Главной же слабостью нашего детектора является неустойчивость к большим температурам генерации и к примитивным генераторным моделям. У генераторов с высокой температурой (так сказать, бредящих) внутренняя размерность текстов может быть и выше человеческой, поэтому на них этот детектор сломается. С другой стороны, такие генераторы и так детектятся другими методами. Также остается открытым вопрос, является ли RoBERTa оптимальным средством для извлечения эмбеддингов текстов, ведь их можно получать и с помощью других моделей тоже.
#объяснения_статей
Telegram
Техножрица 👩💻👩🏫👩🔧
Artificial Text Detection via Examining the Topology of Attention Maps ( https://aclanthology.org/2021.emnlp-main.50/ ) - наша с коллегами статья на EMNLP 2021. К статье прилагается видео доклада (зеленая кнопка на сайте).
Здесь уже появились новые соавторы…
Здесь уже появились новые соавторы…
❤3👍1
Если кто-то завтра в Питере захочет пересечься - приходите на Форум Труда. Правда обещают грозы, ливень и кошмар. ))
***
В рамках Молодежного карьерного форума в эту пятницу состоится Дискуссионный клуб выпускников СПбГУ «на выезде» в новом формате научного стендапа. Поговорим о нескучной карьере в науке и образовании.
Выпускники СПбГУ расскажут об интересных научных направлениях и ответят на вопрос, почему наука сегодня – это интересно и перспективно. После выступлений спикеры обсудят карьерные стратегии в сфере науки и образования.
Участники:
🔷Камилла Нигматуллина, профессор, заведующий кафедрой цифровых медиакоммуникаций СПбГУ с темой «Как написать докторскую, если ты гуманитарий»;
🔷Денис Байгозин, химик-разработчик, преподаватель-методист blogximika.ru с темой «Эта ваша моногамия устарела: как я попробовал 10 карьер в химии и выбрал... 7 из них разом»;
🔷Полина Лобанова, доцент кафедры океанологии, руководитель магистерской программы «Физическая океанография и биопродуктивность океанов и морей (ФОБОС)» с темой «Тайны глубин океана: что знают океанологи»;
🔷 Яков Сомов, основатель Лекториума, руководитель центра онлайн-образования Президентского ФМЛ № 239;
🔷 Кирилл Дорожкин, Эксперт ЦТРР СПбГУ с темой «Как построить лабораторию по исследованию дополненой и виртуальной реальности и причём тут блокчейн».
📅 23 июня в 14:40
📍Культурный квартал Брусницын, Кожевенная линия., 30.
💥Вход на форум свободный
***
В рамках Молодежного карьерного форума в эту пятницу состоится Дискуссионный клуб выпускников СПбГУ «на выезде» в новом формате научного стендапа. Поговорим о нескучной карьере в науке и образовании.
Выпускники СПбГУ расскажут об интересных научных направлениях и ответят на вопрос, почему наука сегодня – это интересно и перспективно. После выступлений спикеры обсудят карьерные стратегии в сфере науки и образования.
Участники:
🔷Камилла Нигматуллина, профессор, заведующий кафедрой цифровых медиакоммуникаций СПбГУ с темой «Как написать докторскую, если ты гуманитарий»;
🔷Денис Байгозин, химик-разработчик, преподаватель-методист blogximika.ru с темой «Эта ваша моногамия устарела: как я попробовал 10 карьер в химии и выбрал... 7 из них разом»;
🔷Полина Лобанова, доцент кафедры океанологии, руководитель магистерской программы «Физическая океанография и биопродуктивность океанов и морей (ФОБОС)» с темой «Тайны глубин океана: что знают океанологи»;
🔷 Яков Сомов, основатель Лекториума, руководитель центра онлайн-образования Президентского ФМЛ № 239;
🔷 Кирилл Дорожкин, Эксперт ЦТРР СПбГУ с темой «Как построить лабораторию по исследованию дополненой и виртуальной реальности и причём тут блокчейн».
📅 23 июня в 14:40
📍Культурный квартал Брусницын, Кожевенная линия., 30.
💥Вход на форум свободный
job.r21.spb.ru
Молодежный карьерный форум
1 июня 2024
👍7🔥3