Введение в искусственный интеллект
331 subscribers
63 photos
2 videos
170 links
Просто об искусственном интеллекте и его возможностях. Помогу разобраться в базовых понятиях и создать собственную нейросеть. Рассказываю, что у ИИ под кожей.
Елена Михалькова
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
❤‍🔥6
И как всегда немного бекстейджа. Мы попытались сделать еще дубль - тут камеру уже держала я. Камера перестала дрожать, но стало почти не видно мост
🍾2
This media is not supported in your browser
VIEW IN TELEGRAM
❤‍🔥5
А потом мы просто забыли все слова и пошли домой пить чай и играть в фанты.

В общем, 2025 год будет годом компьютерной лингвистики. По крайней мере, мы так считаем
🎄21
This media is not supported in your browser
VIEW IN TELEGRAM
❤‍🔥5
Структурирование неструктурированного - ИИ-горизонты современных баз данных
С декабря остался у меня один задуманный пост. Он оказался более тяжеловесным, чем хотелось в предновогодней суете. Так что на чиле-расслабоне январских каникул выпускаю кракена.
Это теоретическая прелюдия. В следующем посте будет пример с кодом.

Современные базы данных это не только таблицы вроде Microsoft Access (Кролики - это не только ценный мех…). В них структурированная информация часто соседствует с неструктурированной. В классических БД, реляционных, всю картину мира можно было уложить в двумерные таблицы с полями, ограниченными определенной длиной и вмещающими данные определенного формата. Но, т.к. мир гораздо сложнее, современные БД нацелены не только на мгновенное структурирование этого мира, но и на сохранение любых данных в виде цифрового отпечатка. В результате объем информации растет и появляются инструменты, которые помогают ориентироваться в нем, например NoSQL. Есть и совсем новые концепции хранения и структурирования. Например, “озеро данных” (data lake, дЕйта лейк) просто хранит кучу файлов в разных форматах, а цифровые инструменты помогают структурировать эту информацию под конкретный запрос.
А чем тут поможет искусственный интеллект? Он может, как и любой язык запросов к базам данных и файловым хранилищам, структурировать все, до чего дотянется. Даете ему двумерную таблицу и спрашиваете, какие тренды в ней наблюдаются. ИИ отвечает вам аналитическим обзором. Даете несколько файлов (тексты, аудио, видео) - ИИ знакомится с содержанием и может ответить на любой вопрос, вроде “на каком языке написаны тексты?” или “в каком жанре написана музыка?”. Под каждую такую задачу можно написать отдельную ИИ-систему (классическое машинное обучение, глубокие нейронные сети и т.д.), но проще всего конечному пользователю взаимодействовать с ИИ в виде больших языковых моделей (БЯМ).
Что можно спросить у ИИ? Практика показывает, что вас ограничивает только ваша креативность. Из того, что меня удивило в прошлом году:
здесь модель делает финансовый прогноз на основе табличных данных
в этой статье авторы просят БЯМ дать научный анализ полученных в исследовании диаграмм (нет бы самим ноуку писать)
И что, прям хорошо делает? Ошибается периодически, конечно. Например, плохо видит бимодальное распределение - когда на графике две вершины (я запамятовала, в какой статье я это читала). Но, как известно, топовые БЯМы уже достигли уровня хорошего студента-бакалавра (об этом весь конец прошлого года дискутировали: это уже AGI или еще нет?). Так что, если у вас есть коллекция из террабайта данных, а миллиона бакалавров, чтобы ее прошерстить нет, то сойдет. Часто ошибается в математических подсчетах - но корпорации активно это исправляют. И что точно пока не может: нарисовать диаграмму на основе вашей таблицы. Есть разные приблуды, как это сделать. Например, модель может написать код, который сгенерит такую диаграмму.
Хотя в 21 веке говорить, “точно” опасно. Вполне возможно, вчера в каком-нибудь ресерч-институте вместо того, чтобы настраивать свой work-life balance (вок-лайф бЭлэнс, баланс между личной жизнью и работой) покорили очередную вершину.

#эссеиистика #база
3
Структурирование неструктурированного
Практический пример с экосистемой Google

Я решила сделать свой игрушечный пример - демонстрацию того, как БЯМ может структурировать неструктурированное. Будем делать это при помощи эко-системы Google. Ранее я писала о том, как подключить ChatGPT к Google Spreadsheets при помощи расширения "ChatGPT in Google Sheets and Docs". Т.к. пробный период истек, я… ну как всегда… нашла другое такое же приложение. Оно похуже (нельзя обращаться к данным в нескольких ячейках, нужно пихать все в одну), но есть более гибкий тарифный план: 9 баксов за миллион токенов - это когда пробный период истечет. И напоминаю, что с ChatGPT в гуглотаблицах можно чатиться без ВПН, т.к. гуглотаблицы сидят на американских серверах. Это как Ютуб смотреть в Роблоксе или как разговаривать с ботами на основе ChatGPT в телеграмме. Но чем мне важны именно гуглотаблицы: в них можно при помощи Google Colaboratory положить сразу много информации в ячейки. По сути мы можем налить целое озеро данных на свой гугл-диск - без смс, но с регистрацией.
Итак, первым делом я добавила мое новое любимое расширение SheetGPT (легко же завоевать мою благосклонность) в свои гуглотаблицы и зарегалась на сайте приложения, получив доступ к пробному периоду. Далее создаю гуглотаблицу - кликайте по ссылке, там результат моих действий. В ней запускаю расширение SheetGPT во вкладке “Расширения”. На первом листе в этом файле в колонке A данные, с которыми я прошу ChatGPT поработать; в остальных колонках ее ответы. На всякий случай я скопировала результаты на второй лист - там только полученные ответы, без формул.
Сначала я провела эксперимент с таблицей распределения отзывов с МегаМаркета и Вайльдберриз, которую мы использовали в статье, вышедшей в прошлом году. Результат нормальный. Нам и самим хватило мыслей, о чем писать, но если бы у нас случился идейный кризис, то ответы модели нас бы порадовали.
Потом я попросила модель нарисовать диаграмму по таблице - получилось креативно, но чисто for fun. В прошлом году завирусился ИИ-сгенерированный рисунок мыши, поданный как научная инфографика и опубликованный в Nature. Статью, конечно, отозвали. В общем, уважаемое комьюнити - с диаграммами и инфографикой пока погодите генерить. Рисунки скину дальше.
А теперь создаем озеро файлов. Вот в этом ноутбучеке я беру пять файлов, кладу их на гугл-диск и извлекаю из них текстовую выжимку. Помещаю все это в промпт, который скидываю в ячейку в свою гуглотаблицу. Теперь можно задавать к файлам вопросы, например, на каких языках напиманы тексты, есть ли там классика и т.п. Единственное, с чем я не согласна из ответов ChatGPT, так это то, что “Васюткино озеро” Астафьева - это не классическое произведение. Хотя, может быть, это вкусовщина.

#notebook
4
Иллюстрации к предыдущему посту:
- слева: диаграмма, которую чат-гпт нарисовала по моей таблице,
- справа: та история с мышью. Более подробно тут.
2
Анонс января 2025

Меня часто спрашивают, “Елена, как вы докатились до жизни такой?” “Почему мне не помог всесильный искусственный интеллект, когда я его вроде нормально спрашиваю?”. И я отвечаю: потому что, во-первых, он не всесильный, а во-вторых, то, что кажется нормальным запросом к ИИ, не факт, что было нормальным. Кстати, мне нравится, что многие ответы на такие вот очень актуальные сегодня вопросы, связанные с ИИ, предсказал Станислав Лем в “Сумме технологии” - чтение очень занудное, но я не жалею, что прочитала, и теперь на многие вопросы про ИИ у меня есть готовые ответы.
Итак, что могло пойти не так, когда вы разочаровались, подтвердили свои худшие опасения ошибками ИИ или хуже, доверили ему сделать работу за себя, а он подвел?
👆 ИИ хорош в определенных задачах, и сейчас мировое комьюнити активно с ними играется, чтобы определить, в каких-таки конкретно задачах он хорош. Например, научные статьи по компьютерной лингвистике все больше уходят в алгоритмы работы с LLM, которые лучше себя демонстрируют на разных бенчмарках. А мою статью, где принципиально нет LLM, я не могу опубликовать уже более двух лет - все-то как-то она чуть-чуть не дотягивает по оценкам ревьюеров до публикации.
ИИ представлен разными реализациями, архитектурами и моделями, которые по своему хороши в разных задачах. Попытка создать интеллект, который будет хорош во всех задачах на уровне средней руки эксперта (AGI), пока не увенчалась успехом. Людям-то мы позволяем быть экспертами в своей конкретной области, а почему среди ИИ моделей должен возникнуть Сверхразум?
🖖 То, что ИИ хорошо имитирует выполнение задач, не значит, что он взаимодействует с нами так же, как человек. Кто логистическую регрессию и нейросети шатает и код пишет, тот понимает специфику постановки задачи к ИИ. А кто разговаривает с ИИ в виде LLM-ок, тому может показаться, что они ведут диалог как человек и можно полностью доверять интуиции и создавать запросы, как если бы мы общались с человеком. Интуиция действительно редко подводит, и в основном общение с LLM выглядит очень человечным. И результаты могут показаться впечатляющими. Но если вы не получили нужный вам результат через обычное общение или хуже, у вас не было времени проверить результат, который казался неплохим, а на деле оказался белибердой, то придется подключать технологии, которые не всегда интуитивно понятны и требуют от вас им обучаться. Тот же промпт-инжиниринг, in-context learning, few-shot learning - это целые области ИИ, в которых сейчас идет активная работа, хотя вроде бы речь идет об общении с ИИ простым человеческим языком.

А к чему это я веду? А к тому, что остаток января я решила совместить приятное с полезным и посвятить свой блог такой конкретной задаче, как генерация учебных тестов при помощи ИИ. Эта задача очень хорошо проиллюстрирует описанные выше особенности использования ИИ и вполне полезна в целом, т.к., даже если вы не препод, то для самообучения может пригодиться.

Итак, анонс на январь:
1⃣8⃣ Что знают и чего не знают большие языковые модели? (И мечтают ли они об электроовцах?)
2⃣2⃣ Готовые программы-генераторы учебных материалов: обзор
2⃣5⃣ Что такое machine reading comprehension?
2⃣9⃣ Как генерить разные виды тестовых вопросов
🦄32🔥2
Что знают и чего не знают большие языковые модели? (И мечтают ли они об электроовцах?) 🐑🤖 Часть 1
Внимание, длиннопост
Сначала я сформулировала тему этого поста так: “Ошибаются ли большие языковые модели в фактах?” А потом подумала, что это какая-то пассивно-агрессивная формулировка по отношению к уважаемым читателям. Всем понятно, что ошибаются. И понятно, что я понимаю, что вы тоже это понимаете. Так зачем я сформулировала вопрос именно так? Чтобы типа как бы намекнуть, что если вы это понимаете, то зачем, глупенькие, все равно ходите к LLM-кам (большим языковым моделям) за фактами? Мол, не надо этого делать.. На самом деле, когда формулировала вопрос, я так не думала ни про вас, дорогие читатели, ни про LLM-ки. Я ушла в глубины понимания, что есть факт (ну, то есть, в себя ушла), и пост хотела посвятить вопросу о том, можно ли говорить, что модели знают какие-то факты и, следовательно, в них (иногда или часто) ошибаются. Так что прошу прощения за кривое название и перейду-ка уже непосредственно к теме.

Что значит “знать что-то”, и что есть “факт”? Ответ на эти вопросы всегда будет частично субъективен, и при этом мне придется встать на одну из множества теоретических позиций. Так что если вы будете не согласны с тем, что я пишу в следующем параграфе, значит, вы придерживаетесь другой теории.
Итак, чего придерживаюсь я? Человек, пытающийся осмыслить свои знания, есть и объект, несущий знание о себе, и субъект, который о своих знаниях при этом думает. Есть такое понятие “герменевтический круг” - оказавшись в этом круге, мы по нему бегаем и не можем из него вырваться. Но это и значит мыслить. Благодаря письменности, книгопечатанию, а потом и Интернету, мы стали вынимать из своей головы знания и факты и запечатлевать их в форме текстов, которые стараемся бережно хранить. Текстов становится все больше, в одну голову они уже не умещаются, и право понимать все правильно, как надо (т.е. обладать знаниями), переходит от экспертов (ученых, например) к целым сообществам (авторы Википедии, например). Потом появляется ИИ-архитектура “трансформер”. В нее складывается очень много текстов, и получается LLM. LLM помнит все тексты, но очень примерно. Поэтому если попросить ее воспроизвести какой-то текст, она начнет его припоминать, как человек. При этом она будет опираться не на поиск каждого следующего кусочка текста в массиве текстов, как делают поисковые машины, а вычислять, что встречалось чаще всего после уже данной ей строки. Если она еще не начала генерить ответ, то опираться она будет на наш запрос. Как если бы мы вдруг забыли слово “аэрокосмический” и начали его конструировать с буквы “а”, потом припомнили первую часть слова “аэро”. Потом вспомнили, что дальше было что-то про “космос”. И уже под конец превратили бы это слово в прилагательное, добавив типичное окончание “ический”.
Итак, модель не знает, а припоминает факты, которые ей встречались в текстах, на которых она обучалась. Что она будет лучше припоминать? Конечно, тексты, которые встречались ей много раз. Например, я только что спросила chatgpt-4o на чатбот-арене, как начинается роман Пушкина “Евгений Онегин” и получила корректный ответ. Затем я спросила, как начинается рассказ Чехова “Человек (Немножко философии)”. Это произведение менее известно, чем “Онегин”. Следовательно, оно реже встречалось в обучающих текстах (если вообще встречалось) и его будет труднее припомнить. В ответе, конечно, я получила галлюцинацию: “Лакей Пантелеев, человек пожилой, полного роста, с толстыми губами и мясистым носом, подавал утром барину чай.”
Промежуточный вывод. Поскольку большие языковые модели не обладают субъектностью, раз они не в герменевтическом круге, то и отличить знание от галлюцинации они не могут. То есть для них припоминание и есть знание.
2
Что знают и чего не знают большие языковые модели? (И мечтают ли они об электроовцах?) 🐑🤖 Часть 2

При этом в более новых поколениях моделей все-таки заложены правила и добавлены настройки, которые помогают модели определить, что на данный запрос она не может дать корректный ответ. chatgpt-4o привела мне вот такой пример вопроса, на который она не может ответить: “Как звали кузнеца, который построил третью по величине мельницу в деревне Подгорново в 1823 году?” Интересно, что из десятка моделей на чатбот-арене, которые я опросила по поводу рассказа Чехова "Человек", все давали мне начало текста и оно было неверным. Однако при ответе на прямой вопрос, знает ли модель этот рассказ, все убеждали меня, что такого рассказа нет и я путаю его с рассказом “Человек в футляре”.
🧑‍🏫 Давать начало рассказа, который ты на самом деле не знаешь, похоже на ученика, который не хочет признаваться вслух, что не читал текст дома. Он стоит у доски и начинает выдумывать что-то, что могло бы быть таким текстом, потому что “Вдруг учитель подумает, что я читал?”
🧑‍🎓 Убеждать меня, что я путаю один рассказ Чехова с другим - так мог поступить и филолог, который не слышал об этом рассказе (рассказ реально редкий), но хорошо знаком с творчеством Чехова в целом. Он уверен в своей компетентности и мог бы убеждать меня, что это я запуталась.
И ученик, и филолог вышли из герменевтического круга: ученик, потому что точно знает, что не обладает знанием, а филолог, потому что вместо своего знания сосредоточился на моем. А LLM в нем в принципе не была, Все, что она порождает, можно считать галлюцинированием, просто ее галлюцинации очень похожи на знания.
Поэтому, например, в OpenAI считают, что достижение AGI надо мерять не правильными ответами, а доходом от сгенерированного контента. Новые поколения языковых моделей все правильнее отвечают на запросы - растет спрос.
Если спросить модели об их знаниях, то они довольно верно отвечают о том, что “знать” для них значит “припоминать”. А если спросить их, мечтают ли они об электроовцах, то они хорошо выходят на мета-уровень этого вопроса (т.е. “выше”, “над вопросом”): отмечают, что это отсылка к книге Филипа К. Дика, и добавляют, что мечтать им не свойственно. На вопрос, как они могут избежать ошибок в ответах, тоже появляется хорошая инструкция. Вполне возможно, мы имеем дело с результатом настройки. Разработчики научили моделей на сложные вопросы о себе отвечать определенным образом, создавая большую иллюзию человеческого сознания и.. вот снова он.. герменевтического круга. А также через ответы модели инструктируя пользователей более эффективно общаться с LLM.
А к чему это я все веду? А к тому, что, если вы хотите использовать модели для задач, где нужны знания (а у меня как раз такая задача и полмесяца постов про создание тестов при помощи ИИ), будьте готовы:
1⃣ перепроверить их ответы
2⃣ не вестись на видимость сознания - его там нет
3⃣ к тому, что, чем менее известна область вашего запроса, тем больше будет галлюцинаций (и наоборот)

#эссеиистика
4👍1
Готовые программы-генераторы учебных материалов: обзор

Зачем я затеяла целых две недели писать посты о том как использовать большие языковые модели для создания тестов, если есть готовые приложения, которые уже это делают? Во-первых, я взяла эту задачу как пример, чтобы на ее основе рассмотреть процесс “хакинга”, настройки модели под то, что на поверхности кажется легкой задачей, но на деле требует некоторого погружения в мир нейросетей. Во-вторых, приложений и прочего контента много, а мне на работе как раз надо тесты писать. Поэтому мне всяко разно пришлось бы заниматься просеиванием этих приложений. Вот делюсь.
Итак, какие бывают ИИ-генераторы учебных материалов? Я их поделила на следующие виды:
🔎 по виду генерируемого результата: тесты разных типов, задания, идеи для проектов, планы уроков
🔎 для конкретных дисциплин, например для изучения иностранного языка
🔎 для разных уровней обучения от школы до университетов
🔎 под конкретную тему, например “аминокислоты” или “основы линейной алгебры”
🔎 на основе материала - текста, презентации, видео (например, с YouTube)
🔎 с функцией самообучения и запоминанием истории вашего прогресса
Ограничения таких приложений:
🔤 язык (больше всего приложений мне встретилось, конечно, на английском, но бывает, что даже англоязычные могут работать на русском)
🥷 доступность (с ВПН или без)
💰 (бес-)платность (у некоторых платных есть льготы для учащихся и учителей)
💾 возможности хранить контент и структурировать его (типа LMS)
🌈 возможности выгрузить результат в разных форматах
🌐 интеграции с другими приложениями
Ну и вот пара сервисов для примера, которые мне понравились.
Fyrebox на русском после простенькой регистрации выдал 10 хороших вопросов вида “выбор из множества” на тему “Основы линейной алгебры”.
ClassPoint - это плагин для PowerPoint, который делает квиз из вашей презентации.
Teachology к заданию расписывает критерии проверки: какую оценку заслуживает студент, если он сделал то-то и так-то. Благодаря таким программам, люди, которые придумывают компетенции и их индикаторы, чувствуют свою бесполезность и отказываются верить в происходящее.
Но самое то, что мне прям нужно по работе, это, конечно, Questgen. Там можно разные виды вопросов генерить на основе разного контента: текста, картинки или видео. Только он сильно платный, совсем мало делает бесплатно 😭
А вообще есть ChatGPT, которая, скорее всего, используется в большинстве этих сервисов. Вы просто пишете для неё хороший промпт, и она вам выдает базу или кринж, как повезет. Важно! За всеми ИИшными результатами нужен глаз да глаз, т.к. они что? Правильно, галлюцинируют 👾

#спискии
2🦄1
Что такое machine reading comprehension?

Machine reading comprehension (мэшИн рИдин компрехЕншен, “машинное усвоение навыка чтения”) - это довольно узкая, но очень важная область компьютерной лингвистики, которая изучает, как алгоритмы искусственного интеллекта прочитывают и понимают тексты. Эта область много позаимствовала из методики освоения иностранных языков, т.к. ей важно в первую очередь правильно протестировать алгоритм. А методика в том числе изучает методы тестирования и экзаменовки на разных уровнях владения. Мы же предполагаем, что ИИ как бы взрослеет, учась все лучше отвечать. И также она связана с вопросно-ответными (QA) системами, потому что многие такие системы создаются с целью сравнить, насколько правильно отвечают разные алгоритмы.
А зачем мне machine reading comprehension для генерации тестов? В задаче m.r.c. мы просим модель прочитать текст и ответить на вопрос к нему, при этом указав тот кусочек текста, который содержит ответ. Этот кусочек называется span (спэн). Кстати, эту задачу часто используют при обучении современных трансформеров вроде ChatGPT. А нам, как пользователям ИИ, эта область объясняет, как нужно взаимодействовать с ИИ, если мы хотим повысить качество вопросов.
Судя по опыту, проблемы, с которыми мы можем столкнуться, когда задаем ИИ сгенерировать тест бывают следующими:
неверные/выдуманные факты приводят к ошибкам в вопросе и ответе
тест сформулирован некачественно:
задан плохой вопрос:
неотвечабельный (“В чем смысл?”)
слишком узкоспецифический (“Что лежит у меня в кармане?”)
неопределенный (“Как звали английскую королеву?”)
бесполезный, тавтологичный (“Как зовут Александра Пушкина?”)
даны плохие варианты ответа (похожие проблемы, что с вопросом, но главное - они будут вызывать трудности у того, кто реально знает ответ на вопрос).
Так вот все эти трудности решаются, в общем-то, двумя вещами (ну не всегда, но очень помогают эти две):
1⃣ хорошо сформулированный промпт
2⃣ вопрос и ответ должны быть в тексте, который мы предоставляем модели, чтобы она на него опиралась
Еще лучше будет попросить модель дать комментарий к правильному ответу, в котором пусть она процитирует кусочек текста (span), который содержит подтверждение правильности ответа.
Вот поэтому в моем прошлом обзоре встретился отдельный вид генераторов тестов, которые на вход требуют что-то “текстовое”. Даже картинка и презентация для них в итоге становится текстом, на который они опираются при генерации тестов.

#база
3
Наш коллаб с тюменским кружком Q2C представляет...
💘2
Forwarded from Q2C
Та-дааам! Мы запускаем собственный подкаст про NLP — «А смысл?»🥳

Уже в пилотном выпуске ты узнаешь, кому стоит учиться кодить, почему DC круче Marvel, а также за что искусственный интеллект готов бить нас током. А дальше мы вместе с топовыми спикерами будем ааасмыслять роль ИИ в самых разных областях: от археологии до музыки. Давай к нам на огонёк!🎧

Смотреть на YouTube:

https://youtu.be/GmL5PY2RSJI?si=3CypkA0HI3OM8aBF
🔥7🥰1
Как генерить разные виды тестовых вопросов

В позапрошлом посте я писала о готовых приложениях-генераторах. Из-за их ограничений вам поможет инструмент, который более гибок и доступен, но и потребует от вас определенных навыков — большие языковые модели, вроде ChatGPT. Казалось бы, все сейчас ими пользуются, рынок моделей растет и отовсюду в медиа звучат восторженные отзывы. Но мой личный опыт показывает, что техноскептиков отнюдь не меньше, чем оптимистов. И этот скептицизм часто основан также на их личном опыте — попытках решить простую задачу при помощи ИИ, которые привели к потере времени, иногда некоторых средств (на коммерческие модели, например) и в итоге разочарованию. С восторгами в медиа тоже все не так однозначно. Часто это так называемый cherry-picking (чЕри пИкин) — собирание вишенок с торта: когда пример подбирается таким образом, чтобы продемонстрировать наилучший эффект.
На деле постановка задачи для большой языковой модели сейчас представляет собой отдельную прикладную область компьютерной лингвистики под названием prompt-engineering (промпт-инжинИринг). В компьютерных науках есть один важный принцип: “garbage in — garbage out” (гАбидж ин гАбидж Аут), или “мусор на входе — мусор на выходе”. Более известная версия этой мудрости звучит так: “что посеешь, то и пожнешь”. Написание промпта для модели таким образом, чтобы получить нужный результат, а не мусор, это и искусство, и наука, и рабочие места специалистов. Но наша задача генерации тестов не так сложна, у нас есть примеры и инструкции, так что можно дерзнуть.
Еще один принцип, который нужно помнить в промпт-инжиниринге, прежде чем я перейду к делу: “Language models are few-shot learners” — языковой модели часто достаточно пары примеров, может быть даже и одного, чтобы дать хороший результат. Руководствуясь этим принципом и остальными, которым посвятила январские посты, я создала промпт для одного типа тестов, который довольно нетривиален. Вам нужно выбрать не только правильный ответ, но и дать обоснование выбору. Проверяться ваше обоснование будет на основе ответа-эталона.
Промпт я прогнала на Gemini на чатбот-арене, т.к. это бесплатно, доступно без ВПН и на ней есть топовые коммерческие модели. Описание промпта и результат слишком велики (от слова "великий"😁), чтобы помещать их сюда, поэтому вот ссылка на файл.
А давайте проверим, сколько среди вас людей, которым тоже на работе задали писать тесты для студентов - ставьте 🎉, если вы теперь тоже генератор тестов. Если нас тут много, то я добавлю в документ промпты для остальных типов тестов.

#база
🎉4🕊3
Дорогие друзья!

Во-первых, я определилась с темой февральских постов - буду писать про промпт-инжиниринг. Анонс будет на днях.
Во-вторых, я закинула свои ноутбуки из этого канала на GitHub в папочки по темам - жмякайте! (GitHub, или просто Гит, это платформа, на которой разработчики публикуют код в виде его версий, т.к. невозможно написать программу идеально раз и навсегда. На Гите также можно взять чужой код и сделать свою версию.)
В-третьих, в следующие выходные 15 и 16 февраля мы с Александром 🐝 , Лилией 🪷 и Артёмом 👨‍🎤 из тюменского NLP-кружка проведем онлайн-марафон по ИТ-технологиям в социальных и гуманитарных науках. Будем общаться с экспертами и друг с другом, а также отвечать на ваши вопросы в чате. Подробности скину позже.

В общем, stay tuned! А я полетела в Тюмень ✈️
🌭3🔥1👾1
Анонс на февраль
1⃣3⃣ Откуда есть пошел термин “промпт”?
1⃣5⃣1⃣6⃣ NLP-марафон. Присоединяйтесь!
1⃣9⃣ О профессии “промпт-инженер”
2⃣2⃣ My prompt is longer than yours. Или зачем нужны такие длинные промпты
2⃣6⃣ Разметка Markdown и другие особенности форматирования в ответах моделей

И.. первый пост про промптинг

Откуда есть пошел термин “промпт”?
Давным-давно (в 2010-е гг.) в компьютерной лингвистике было два клана, один побольше, другой поменьше. Классификаторы 🧝 - программы, которые могли находить в тексте упоминания людей и организаций, определять юмор и части речи, выявлять пропаганду - были очень большим кланом, который участвовал в соревнованиях на Kaggle и сделал репутацию многим сениорам в айти-гигантах. Языковые модели 🧚‍♀️ были таким странным кланом поменьше, который манил ученых и разных фриковатых персонажей, вроде стримеров, которые на трансляциях спрашивали у моделей-ботов разные пакости. Но все поменялось, когда пришли трансформеры 🦾 Трансформеры научили моделей добывать огонь делать классификацию лучше и быстрее, чем это делала глубокая нейросеть типа bi-LSTM (один из топовых классификаторов своей эпохи). И тогда классификаторы стали служить моделям на стадии обучения - стали вроде ножки гриба, а модели стали шляпкой-классификатором 🍄
Для нейросетей задача классификации ставится определенным образом: сеть получает на вход текст (иксы) и лейбл (игреки), который указывает к какому классу относится данный текст (“имя”, “часть речи”, “шутка”). Для языковой модели задачу можно сформулировать интуитивно, простым языком. Даете пример классификации (текст и ответ) и спрашиваете про новый текст, к какому классу он относится. Языковая модель отвечает вам на естественном языке. Люди тотчас кинулись пробовать разные способы, как более успешно поставить модели задачу, и обнаружили, что есть методы, лайфхаки 💡, которые работают лучше. А ученые и инженеры айти-компаний тут же предложили называть запросы к моделям техническим термином “промпт”, а новую деятельность по поиску хороших промптов - “промпт-инжинирингом”. Хотя, может, это и не ученые и инженеры были.. Но это уже вопрос для дата-журналистов.

#база #эссеиистика
🔥4
Итак, завтра мы с тюменским кружком по NLP проведем онлайн марафон - будем решать, нужен ли Скайнет или можно обойтись без него. Вот объявление. И в канале кружка уже есть ссылка на видеоконференцию.
🔥2
Forwarded from Q2C
Псст.. Продолжаем делиться секретными материалами. 15 и 16 февраля с 14:00 до 19:00 по Москве (16:00-21:00 по Тюмени) у нас на квартирнике произойдет битва между техноскептиками и технооптимистами. Среди приглашенных гостей: инженеры, преподаватели и студенты, ученые из разных областей (социальные и гуманитарные науки, IT) и просто хорошие люди. Все будут взвешены, измерены и признаны скептиками или оптимистами. Посмотрим, чья сторона силы восторжествует?
Вы тоже можете присоединиться к зуму (ссылку кинем в этот канал), написать в чате свои вопросы спикерам и участвовать в битве цифрового с аналоговым. Хотите получше узнать, о чем речь? Смотрите пилотный выпуск нашего подкаста.

А картинку мы взяли из вот этой игры.
4