Современное курсостроение
2.79K subscribers
568 photos
53 videos
1 file
567 links
Про образование, нейросетки и онлайн-курсы. Авторский блог Якова Сомова, основателя Лекториума и методиста школы 239.
Интенсивы по нейросеткам https://project.lektorium.tv/nn-for-work
Услуги издательства https://project.lektorium.tv/production
Download Telegram
У ChatGPT теперь есть университетский плагин. Нейросеть отвечает на вопросы, дополняя их ссылками на академические видео. Причём ссылка с таймингом - она ведёт на конкретный кусочек лекции.

Вспоминаю как пару лет назад мы обсуждали, что студенты школы 21 (он же университет 42) не используют для подготовки платформы с курсами. Они пользуются поисковиками, агрегаторами вопросов типа Stack Overflow и отраслевыми медиа сообществ (Хабр).

Тогда меня посетила мысль, что может быть все образовательные академические платформы должны помереть в мучениях, оставив после себя хорошо размеченные образовательные материалы. А вот поверх них уже появятся новые поисковики. Ну вот появились. И даже самостоятельно разговаривают.

Да, сейчас это выглядит немного смешно (как в примере на скриншотах). Но технология могучая, надо понимать, что она существенно изменит саму структуру работы с контентом.

Возникают вопросы, а нужно ли вообще мыслить курсами? Что должно быть квантом контента: лонгрид, видео? В чём, собственно, роль преподавателя, которые не создаёт контент?
18
Я смотрю сериалы и фильмы сотнями: начинаю, даю шанс (фильмам 20 минут, сериалам 2 серии) и без сожаления прощаюсь. Но всегда стараюсь подмечать нестандартные приёмы.

К примеру, в некоторых горизонтальных сериалах показывают нарезку из предыдущих серий, чтобы зритель не забыл контекст. Но в довольно посредственном Patriot режиссёр пошёл дальше. Он показывает кусочек предыдущей серии, а потом секунд 15-20 продолжения, которое мы не видели. И это либо придаёт красок, либо показывает нам сюжетный поворот.

К примеру, мы знаем, что два политика обсуждали что-то на теннисном корте. Но перед очередной серии нам показывают, что когда один ушёл, то второго хватил удар и он умер прямо на этом корте. Поэтому достигнутая договорённость на сработала, информация дальше не пошла, нужные шестерёнки не закрутились.

Обычно я проматываю весь блок "в предыдущих сериях", а тут я напряжённо пересматриваю, потому как мне дают новый угол зрения.

Красиво, изящно и просто.

***

Представил себе такое в математическом курсе с разбором задач )
🔥32👍9
Студенты в работах интересные ссылки присылают. К примеру, игра ”где человечек при скролле летит вверх и видит разные объекты и птиц и так улетает постепенно в космос, а мы видим в окошке, как меняется высота и что меняется вокруг."

Красиво реализовано. Даёт понимание масштаба.
https://neal.fun/space-elevator/
10👍8🔥4
"Особенности реализации: провести участников курса по тонкой нити смысла над океаном избыточной информации, безжалостно скидывая неприспособленных" (с) Дипломированный педдизайнер развлекается в учебном проекте
🔥23👍1😁1
А вот прекрасный проект. Рекомендую посмотреть. Озвученные письма привязаны к геометкам. Можно ходить по городу и слушать. А можно потыкать в разные точки. В одном из проектов, которые я проверял, предложили прикрутить его прямо к курсу "Призраки Петербурга". Думаю, что это обязательно надо сделать.

Можно организовать студентов озвучивать такие письма, есть технические сложности... Это явно небессмысленное задание, которое даст дополнительное измерение литературным курсам.

Там на сайте ещё предлагают виртуальные аудиоспектакли, совмещённые с походами в бар, кстати.

https://popupteatr.ru/loweletters
14👍3
Немного цифр про курс «Геймификация в онлайн-образовании». 2076 человек записались на курс. 848 слушателей начали изучение материалов, и только 72 участника курса сдали финальный проект.

Мы получили много интересных проектов. По каждому дан комментарий. Если вы хотите доработать свой проект, не согласны с оценкой или не успели загрузить работу в прошлый раз, то воспользуйтесь апелляцией. Они принимаются до 13 июня. Проверка апелляций пройдет до 20 июня включительно.

Расскажите нам, достигли ли вы выбранных целей, оставив отзыв о курсе. Мы будем очень рады вашей обратной связи! Ругайте, хвалите, делитесь идеями.

Данные по целям из анкеты на картинке
10👍1
Автор канала Любаобразованец опубликовала отзыв о нашем курсе "Геймификация в онлайн-образовании"

"Всем привет! Я написала многословную рецензию на этот курс Лекториума с анализом плюсов и минусов. Буду рада обсудить, сошлись ли наши впечатления 🤗 "

Читать рецензию: https://telegra.ph/ChatGPT-takogo-ne-rasskazhet--recenziya-na-kurs-Gejmifikaciya-v-onlajn-obrazovanii-06-13

Всегда приятно видеть такие подробные обзоры.
9👍1
К примеру,

Когда статья вышла, обязательно отправляем ссылку на нее эксперту. И лучше это сделать до того, как мы распространим статью в соцсетях, чтобы у эксперта был шанс что-то поправить.

***
Ольга, статья вышла, вот она [ссылка]
Мы пока не публиковали ее в своих соцсетях, запланировали это на завтра, но вы можете это делать сразу. Спасибо огромное за участие, было очень приятно с вами работать!
***
12👍2
Обожаю придумывать названия для курсов. Вот, к примеру, БАЗОВЫЙ КТУЛХУ!
5
Forwarded from Лекториум
Вы знаете, что Говард Лавкрафт был известен своей нелюбовью к современному миру и культуре? Он не интересовался новыми технологиями своего времени, относился с недоверием к таким изобретениям, как радио и телевидение. Лавкрафт предпочитал прежние времена и описывал их с особым восхищением и ностальгией. Именно поэтому в своих произведениях он создавал атмосферу старинного мистического прошлого.

Про миры Лавкрафта и про то, какое отражение они нашли в современной культуре, курс «Базовый Ктулху» в рамках летнего фестиваля курсов на Лекториуме.

🕓 На все курсы летнего фестиваля сейчас действует акция. Чем раньше вы покупаете курс, тем дешевле. До 25 июня действует скидка 20 %!

Узнать больше о Ктулху
6👍3
Показывал сегодня на интенсиве по нейросеткам разницу между "весёлой и мрачной империей" для миджорней.
🔥28😁102👍2
Технический текст про определение текстов, сгенерированных нейросеткой. Не всё понял, но очень интересно
В честь 3000 подписчиков расскажу про наш новый препринт, в котором тексты, сгенерированные ChatGPT, детектируются с помощью анализа их внутренней размерности:

https://arxiv.org/abs/2306.04723

Итак, здесь мои коллеги и я продолжили заниматься полюбившейся с 2021 года темой - детекцией сгенерированного контента. Особое внимание, конечно, уделили детекции текста, сгенерированного моделями семейства GPT-3.5 (davinci, chatgpt). А делали мы это с помощью такой интересной штуки, как дробная размерность. Первое знакомство с ней можно осуществить, посмотрев видео 3blue1brown: https://www.youtube.com/watch?v=gB9n2gHsHN4 (рассказ про размерность начинается со второй половины видео).
Хоть введенная в видео размерность и называется "фрактальной", на деле можно получать приближенные оценки такой размерности не только для фракталов, но и просто для облаков точек, если формы облаков достаточно сложные. И вот возник вопрос: а почему бы не построить облако точек по тексту на естественном языке и не посмотреть, какой будет его размерность?

Далее последовательность действий была такая:
1) Брался достаточно длинный текст (написанный человеком либо сгенерированный ChatGPT/другой моделью) с большим количеством токенов;
2) Текст подавался на вход модели RoBERTa;
3) С последнего слоя RoBERTы извлекались эмбеддинги каждого токена текста;
4) Эти эмбеддинги рассматривались как точки в многомерном пространстве - получалось облако точек;
5) С помощью нескольких довольно технически сложных процедур ( вдохновленных https://arxiv.org/abs/1808.01079 ) оценивалась дробная размерность этого облака точек.

Таким образом, каждому тексту сопоставлялось число - эта самая размерность. И - о чудо! - оказывалось, что средняя размерность текстов, сгенерированных с помощью GPT-3.5 (ChatGPT или davinci), была в среднем существенно меньше, чем размерность текстов, написанных человеком. Эта средняя размерность практически не менялась при смене домена и при замене GPT-3.5 на large GPT-2 или OPT (со стандартными параметрами генерации); даже при применении парафразера DIPPER, специально созданного для избегания детекции, размерность менялась не сильно - в среднем примерно на 3%. Благодаря этому нам удалось сделать пороговый детектор по этой размерности, неожиданно устойчивый к атакам.
Теперь любители генерировать тексты могут менять промпты, тематику или даже модель, но наш детектор не проведешь! 😈

При смене домена и модели точность детекции (true positive) по один раз зафиксированному порогу не опускалась ниже 75% при условии, что false positive rate (FPR) оставался не более 1%. При применении DIPPER к генерации GPT-3.5 точность падала до 40%, снова при FPR 1%. Но даже этот результат оказался лучше всех остальных существующих детекторов - в том числе, и от самих OpenAI. 🫡
(Пояснение: мы зафиксировали низкий FPR потому что хотели как можно меньше дискриминировать настоящих людей при детекции).

Кроме прочего, при использовании мультиязычной RoBERTы можно было получать аналогичный детектор не только для английского, но и для других языков. Средняя внутренняя размерность эмбеддингов, соответствующих текстам на других языках, менялась от языка к языку, но размерность искусственных текстов все равно оставалась в среднем ниже, чем человеческих, для каждого конкретного языка по отдельности.

Главной же слабостью нашего детектора является неустойчивость к большим температурам генерации и к примитивным генераторным моделям. У генераторов с высокой температурой (так сказать, бредящих) внутренняя размерность текстов может быть и выше человеческой, поэтому на них этот детектор сломается. С другой стороны, такие генераторы и так детектятся другими методами. Также остается открытым вопрос, является ли RoBERTa оптимальным средством для извлечения эмбеддингов текстов, ведь их можно получать и с помощью других моделей тоже.

#объяснения_статей
3👍1
Если кто-то завтра в Питере захочет пересечься - приходите на Форум Труда. Правда обещают грозы, ливень и кошмар. ))

***

В рамках Молодежного карьерного форума в эту пятницу состоится Дискуссионный клуб выпускников СПбГУ «на выезде» в новом формате научного стендапа. Поговорим о нескучной карьере в науке и образовании.

Выпускники СПбГУ расскажут об интересных научных направлениях и ответят на вопрос, почему наука сегодня – это интересно и перспективно. После выступлений спикеры обсудят карьерные стратегии в сфере науки и образования.

Участники:
🔷Камилла Нигматуллина, профессор, заведующий кафедрой цифровых медиакоммуникаций СПбГУ с темой «Как написать докторскую, если ты гуманитарий»;
🔷Денис Байгозин, химик-разработчик, преподаватель-методист blogximika.ru с темой «Эта ваша моногамия устарела: как я попробовал 10 карьер в химии и выбрал... 7 из них разом»;
🔷Полина Лобанова, доцент кафедры океанологии, руководитель магистерской программы «Физическая океанография и биопродуктивность океанов и морей (ФОБОС)» с темой «Тайны глубин океана: что знают океанологи»;
🔷 Яков Сомов, основатель Лекториума, руководитель центра онлайн-образования Президентского ФМЛ № 239;
🔷 Кирилл Дорожкин, Эксперт ЦТРР СПбГУ с темой «Как построить лабораторию по исследованию дополненой и виртуальной реальности и причём тут блокчейн».

📅 23 июня в 14:40
📍Культурный квартал Брусницын, Кожевенная линия., 30.
💥Вход на форум свободный
👍7🔥3