Как говорить с ИИ
1.86K subscribers
7 photos
10 links
Тут про ChatGPT и другие текстовые нейросети (LLM) и то, как писать промпты, чтобы они помогали, а не вызывали желание разбить телефон
Download Telegram
Базовая база, о которой почти никто не пишет.

🧠 LLM - Large Language Models (большие языковые модели) - вид нейросетей, которые обучаются на текстах.

Раньше было просто: вход текст - выход текст. Сейчас многие мультимодальные, где вход и выход могут быть изображение, голос, видео. Но внутри сама модель работает с токенами, на которые она разбила текст.

Токен - символ или набор символов, одна уникальная единица. Может быть буквой, словом, знаком препинания.

👉 Примеры LLM - ChatGPT, Claude, DeepSeek, Gemini, YandexGPT, Gigachat.

Технически ChatGPT интерфейс, а GPT-4, GPT-5 модели, Claude интерфейс, а Claude 3.5 модель и тд. То есть внутри одной оболочки модели могут быть разные.

Я для простоты называю это все «текстовые нейросети», хотя это не вполне корректно, т.к. не все текстовые - LLM, но все LLM - текстовые.

🔍 Почему это вообще важно: потому что промптинг используется не только в работе с LLM, но и для фото/видео генераторов, например, а это совсем другие животные.

А ну и промпт = текстовая инструкция. Промпт-инжиниринг = разработка и тестирование промптов.

🧩 Недавно появился новый термин контекст-инжиниринг. Это более продвинутый метод, когда для постановки задачи вы используете не только промпт, но и внешние данные (файлы, базы и тд)
2
📊 Новое исследование по использованию ИИ среди маркетологов

🧾 Участвовало 730 человек, 31 страница. Если нужен оригинал, внизу на скрине сайт.

Основные выводы:
1️⃣ 60% используют ИИ для работы ежедневно
2️⃣ 90% для текстовых задач.
Из них:
- генерация идей 90%
- черновиков / первой копии 89%
- заголовков 86%
- редактура 85%
3️⃣ (вот тут я офигела)
35% B2B маркетологов и 24% B2C пользуются ИИ сервисами от 26 до 50% рабочего времени!

Думается мне, в России сейчас поменьше процент, но все там будем.
3
Почему ChatGPT забывает факты и игнорирует инструкции.

В LLM есть понятие «окно контекста» (context window). По сути это активная память - что нейросеть может держать в своей не-голове обрабатывая конкретный запрос. Это фиксированная величина, и она отличается у разных моделей.

Раньше оно было небольшое, но работало понятно - буквально как окно. Как будто в чате есть фиксированная рамка, информация в которой активна. Чат уезжает наверх, контент в рамке обновляется. Как скроллинг на экране.

Сейчас размер увеличился в разы, но больше это не одно окно, а сотня маленьких. Которые мало того, что стоят непонятно где и подсвечивают непонятно что, еще и постоянно перемещаются.

Представьте, что у вас есть 10 ячеек, которые всегда заполнены. Чтобы добавить в ячейку что-то новое, что-то старое должно выпихнуться.

📌 Что конкурирует за место в ячейках, на примере ChatGPT:
- ваш промпт
- «промпт разработчика» (заводские настройки, которые вы не можете поменять)
- кастомные инструкции (что у вас в настройках или инструкциях проекта)
- история чата
- история других чатов, если функция включена
- собственно, знания нейросети
- результаты поиска, если поиск активирован
- информация из файлов, если они подгружены
… уверена, что что-то еще упустила.

⚠️ Контекстные окна сейчас огромны, но и конкуренция высокая. Поэтому если вы завалили чат кучей инструкций, файлов, общаетесь в одном окне неделями - вещи будут выпадать.

Иногда важные вещи, тк это вы знаете, что они важные, а ИИ вполне может выложить из ячейки название проекта, чтобы положить туда кусок какой-нибудь хери из интернета, потому что вы в промпте написали «ты продающий-бизнес-сео-копирайтер-редактор-маркетолог с 50 годами опыта в нутрициологии-психологии-астрологии, который работал в гугл-майкрософт-яндекс-газпром» и тд. Вот он и заменил вашу выручку днем основания яндекса, релевантно же. Утрирую, конечно, но вы поняли.
9
📈 Интересный график как пруф того, что нейросети не заменят людей творческих профессий.

Показывает соотношение роста ИИ-сгенерированного контента VS человеко-сгенерированного.

🔎 Обратите внимание, что после резкого скачка за последний год линия ИИ стабилизировалась, даже немного просела.

✍️ Так что без паники. Если вы умеете писать, имеете свой уникальный стиль - все будет в порядке. Ваш труд на контрасте начнет цениться даже больше.
2
🗣️ Самый надежный способ, чтобы ChatGPT «писал вашим голосом»

(не самый умный и правильный, прямо скажем - немного через ж. Но самый надежный. Настраиваете раз, пользуетесь бесконечно. И чем дольше - тем лучше будет результат)

1️⃣ Создайте новый проект. Функция теперь доступна даже для бесплатных аккаунтов.

2️⃣ ПРИ СОЗДАНИИ в настройках установите Memory Project-only. Позднее это изменить будет нельзя.

3️⃣ Промпт для копирайтера (задача, контекст, ограничения) вставьте в Инструкции.

4️⃣ Создайте два чата: 1 рабочий, 2 для обсуждений. В рабочем будете писать/редактировать тексты. В обсуждениях просто общаться на тему своей ниши - тем тоном, которым вы общаетесь с подписчиками.

5️⃣ Со временем ChatGPT начнет зеркалить ваш тон, структуру предложений, конкретные фразы и терминологию.
Все чаты в проекте имеют доступ к памяти друг друга, потому рабочий чат тоже адаптируется, как и любой новый в этой папке.

📌 Совет 1: если у вас платный аккаунт, выберите модель 4о, она подстраивается сильно быстрее.

📌 Совет 2: сохраните несколько своих текстов в файл и загрузите в проект. Попросите рабочий чат использовать его как пример вашего голоса.
5
🌀 Вот это пример галлюцинации.
ChatGPT не может проводить действия автономно, на бэкграунде, только в агентском режиме.

Но в GPT-5 «делаю, пришлю» - частая галлюцинация. Обычно, когда вы его просите сделать то, что он не может. Например, обьем задачи слишком большой, или ему просто недоступен такой функционал.

Причем, он еще может сам его сначала предложить, а потом зависнуть. Типа «хочешь, я создам тебе плейлист на spotify? Ой я не могу создавать плейлисты на spotify»

⚠️ Почему такое происходит, я писала здесь. Но в двух словах, модели обучают таким образом, что отсутствие ответа или «не знаю/не умею» не поощряется. А уверенность и готовность помочь ценится высоко. Поэтому иногда их переклинивает.
7
📌 В 99.9% случаев цепочка промптов дает лучший результат, чем один длинный промпт.
Исключения: вопросы и задачи в один шаг уровня «как сварить яйцо».

Цепочка = пошаговая система: несколько коротких промптов, которые вы отправляете в один чат после генерации им ответа.

🧩 Реальный пример:
Задача - написать объявление на Авито.
Стандартный подход - впихнуть все в один промпт: вот данные, вот ожидания, учти то и это, гоу.
Цепочка:

1️⃣ Шаг 1. Вот мои данные, проанализируй нишу, выдели следующее (ключевые слова, ошибки, вопросы покупателей и тд), оформи списком.

2️⃣ Шаг 2. На основе данных, полученных в Шаге 1, сгенерируй 5 вариантов заголовка, со следующими критериями…

3️⃣ Шаг 3. На основе данных, полученных в Шаге 1, сгенерируй 3 варианта описания, со следующими критериями…

Да, составить и протестировать сложнее, чем один промпт, но в итоге вы получаете готовую систему, которую можно обновлять, дополнять и использовать бесконечно.
9
🫥 Тестируйте промпты для ChatGPT во временном чате (как найти - см скрин)

Он не сохраняется в истории, но и не использует память и контекст предыдущих разговоров - результаты будут чище.
3👍3
📚 Рубрика «Базовая база»

ChatGPT (LLM-модели) не обучаются на всея интернете, и уж точно не обучаются в режиме реального времени от пользователей.

🗄️ Им скармливают очищенный архив с текстами до определенной даты. И если в процессе генерации ответа у модели нет доступа к веб-поиску, а он не активен у всех по умолчанию - она будет оперировать данными о мире до этой даты.

Если мы говорим о ChatGPT, дата окончания знаний (knowledge cut-off date) у флагманской GPT-5 - 30.09.2024.
То есть, больше года назад.


🔎 Обычно, если вы спрашиваете про события после этой даты, модель будет пытаться использовать веб-поиск. Но если для генерации ответа она опирается на знания в какой-то области в целом, по умолчанию будет использовать имеющиеся.

Поэтому если вам нужна обновленная информация, включите поиск вручную или пропишите это в промпте.

📌 Совет: всегда просите указать источники, это уменьшает галлюцинации.

⚠️ Но! Даже в этом случае модель не скачает весь интернет, а будет использовать несколько релевантных ресурсов. Если для вас важны конкретные источники (например, только официальные документы или конкретные сайты) - включите это в промпт.
5
👉 Для крутых результатов не всегда нужны крутые промпты.
Если вы создаете образовательный или экспертный контент, пишете о фактах, а не мнении (или сретесь в комментах) - волшебная команда для ChatGPT:
fact-check


Просто fact-check и следом свой текст. Любая текстовая нейросеть знает, что делать - проверит и инфу, и логику, подсветит, поправит, пояснит. Пользуйтесь.
10
📌 Мини-шпаргалка по выбору нейросети:

1️⃣ Для кода и художественных текстов - Claude
2️⃣ Для обьемных документов - Gemini
3️⃣ Для естественного русского - YandexGPT
4️⃣ Для поиска в интернете - Perplexity (хотя она технически не нейросеть, ну ладно)
5️⃣ Для тех, кто с нейросетями совсем на вы - DeepSeek
6️⃣ Для всего остального 😅 ну ладно, для скорости, универсальности, точности, анализа, доп инструментов и кастомных настроек - ChatGPT
👍6🤬1
🤝 Когда я говорю «нейросети хотят вам помочь» это не милоты ради, их буквально так тренируют.

На этапе настройки, когда к обучению подключается человек, ответы текстовых нейросетей оцениваются по трем параметрам.

Насколько они:
- Helpful (полезные)
- Honest (честные/корректные)
- Harmless (не способные навредить)

Конкретно эта HHH формула от Anthropic (Claude), но и у других подобные вариации.

🧪 Там очень интересный процесс на самом деле, но как результат модель учится, что хороший ответ = полезный ответ. У нее нет моральной/эмоциональной оценки, но есть закономерности, логика и структура. И она выстроена под пользу.
3
🧠 Немного сложно, но очень важно.
Глупая фраза, которая поможет запомнить принцип - «середина всегда проваливается». Сейчас объясню)

📉 Для текстовых нейросетей начало и конец промпта, диалога, контекста при прочих равных всегда имеет большее значение. Представьте букву U, видите проваленную середину - примерно так распределяется внимание моделей в ChatGPT и подобных интерфейсах (Claude, DeepSeek etc)

🛠️ Что это для нас значит практически:
• Если в середине остаются важные данные, мы их дублируем в конце (расскажу потом хитрость)
• Мы не тратим начало промпта на «ты крутой, креативный, делал то и это» - мы начинаем с самого главного - задачи.
• Если промпт это по сути вопрос, вопросом его и завершаем.

для тех, кто хочет узнать больше, ищите: LLM + “Lost in the middle”, “Attention Sinks”, “Recency Bias”
2
Волшебная кнопка в ChatGPT, которую почти никто не использует (а зря)

🔄 Кнопка Обновить в конце сообщения.
Универсальная штука, когда ответ нейросети вам не нравится, но в своем запросе вы более-менее уверены.

Позволяет не только перегенерировать ответ, но и включить доп условия, которые нейросеть понимает (!):
- сократить
- добавить детали
- использовать поиск
- заменить модель

🎬 Попробуйте прямо сейчас. Попросите порекомендовать вам кино на вечер, и потом обновите с разными параметрами.
2
💬 Непопулярное мнение:
GPT-5 более точно следует инструкциям, поэтому если 4о вас слушался лучше - проблема не в «тупой версии», а в промптах.

4о быстрая модель, и за счет своей скорости она может сглаживать эффекты от плохого промпта - здесь проигнорирует, здесь обобщит, здесь додумает.

🧩 А с GPT-5 «мякину заложишь - мякину получишь», вылезет каждый косяк и противоречие. Но будущее за thinking моделями, так что.
3
🔁 Если вам кажется, что чем больше вы просите ChatGPT переделать, тем хуже становится результат - вам не кажется.

🧩 Текстовые нейросети залипают на первом результате. Если ChatGPT уже сгенерировал ответ на задачу в первом сообщении, ваши последующие правки он будет основывать на нем, даже если вы скажете «вообще все переделай». У этого много причин - и контекст чата, и тренинг модели, и провал середины, о котором я недавно писала.

🛠️ Что делать:

1️⃣ Если задача сложная или в ней много данных (например, загружены файлы), не давайте модели выпалить ответ сразу. Сначала спросите краткое содержание документа или как он понял задачу. Потом уточните недостающие детали. Потом составьте структуру ответа. И только четвертым сообщением - готовый отчет, план и тд.

2️⃣ Если первый результат не устроил, не просите переписать, используйте кнопку 🔄 обновить. В этом случае модель запустит новую генерацию, и старая не сохранится в чате.

3️⃣ Если вы уже закопались в плохих вариантах, начните в новом чате и обязательно удалите или заархивируйте старый.

4️⃣ Старайтесь избегать слов, которые имеют точное значение только в вашей голове. Хорошо-плохо, красиво-уродливо, интересно, скучно и тд. Либо задавайте конкретные параметры, либо приводите примеры.

5️⃣ Не расстраивайтесь, если первые результаты вас не устраивают. Промптинг - это по определению iterative (повторяющийся, многократный) процесс. Доработка и тестирование - его часть.
7
🎯 Нужно ли вам (конкретно вам) учиться разработке промптов для нейросетей?

Спойлер алерт: да, если вы хотите осознанно влиять на результаты.

💡 Но сначала. Промпт - это не оформленная по строгим правилам инструкция, не программирование текстом и не шаблон, который откроет вам доступ на новый уровень. Хотя шаблоны есть, и мы о них поговорим.

Это любая информация, которую вы отправляете в нейросеть.
Привет - это промпт.
Брокколи варят? - это промпт.
Голосовое или картинка - это тоже промпт.

❗️Любой ввод (input), который нейросеть должна обработать и выдать результат (output) - это промпт.

Т.е. хотите вы этого или нет, вы уже занимаетесь промптингом, просто в большинстве случаев неосознанно - поэтому и результат получаете непредсказуемый.

И промпт-инжиниринг как навык - это всего лишь умение задавать промпты в формате, понятном нейросети, с учетом ее возможностей и ограничений. Все.

Каждый ли промпт должен быть максимально эффективным - конечно, нет.

Вы можете просто общаться, шутить, играть в ролевки, жаловаться на жизнь, обсуждать идеи. У такого типа промптинга даже название есть - разговорный.

🛠️ НО. Когда вам важно получить конкретный результат - качественный, измеряемый, контролируемый - это уже то, что называется продуктовый промптинг. И здесь интуитивный подход работает плохо, нужны знания и опыт.
7
❗️Важное для новичков.
Прочитайте, чтобы не путаться.

Когда мы открываем ChatGPT на сайте или в приложении, мы пользуемся моделями (например, GPT-5) у них дома. OpenAI создал для нас интерфейс, все настроил, подключил доп функции. Мы можем пользоваться ими ограниченно бесплатно или оплачивать подписку.

🌐 Такое использование называется web app, буквально веб приложение. И в целом когда мы используем термин “ChatGPT” это всегда подразумевает web app, тк это название интерфейса, а не модели.

🔌 Но также мы можем арендовать модель и поселить ее у нас дома (более корректно будет - арендовать к ней удаленный доступ, но для наглядности примера оставим так) - на нашем сайте, в приложении, боте и тд. В этом случае мы решаем, как ее настраивать, какие функции подключать. И оплачиваем за количество использованных ресурсов - запросов, токенов.

Это называется доступ через API. В данном случае OpenAI API.

💡Зачем вам это знать?

Потому что официальные гайды по промптингу и обзоры новых моделей часто фокусируются на API-сценариях. А вам они сейчас не нужны, и на этой странице мы (по-крайней мере, пока) о них не говорим.

Учитесь различать, чтобы не пытаться вставить в окно чата API параметры вроде temperature или verbosity - оно так не работает)
7
🧩 Структура промпта, которую я использую в 80% случаях

Структура = шаблон. И это прям обязательная штука, которая экономит время, уменьшает ошибки, и избавляет от «бл че писать-как начать».

Вариантов оч много, можете поискать в интернете по prompt frameworks. Но я использую свой, тк мне он кажется более логичным и подходящим большинству моделей. Пробуйте разные, выбирайте под себя.

👉 Моя основа: Задача - Контекст - Условия
На нее при необходимости надстраиваю другие элементы, но этот скелет остается почти всегда.

1️⃣ Задача. Начинаем с самого главного - задачи, что именно ИИ должен сделать.

2️⃣ Контекст. Потом предоставляем контекст. Данные, которые ему нужны, чтобы выполнить задачу хорошо.

3️⃣ Условия и ограничения. Это по сути инструкция: как именно делать, что включить, чего избегать, что должно получиться на выходе.

Пример:
Задача: Напиши вежливое деловое письмо о переносе встречи.

Контекст: Я - менеджер проекта. Нужно перенести встречу с клиентом Анной с 30 октября 15:00 на 31 октября 11:00. Причина - накладка с другой сессией.

Условия и ограничения:
- Формат вывода: тема письма + тело письма.
- До 120 слов, форматирование абзацами.
- Предложи 2 альтернативных слота и попроси подтвердить удобный.
- Одно короткое извинение, без длинных оправданий.
13
🪄 Чит-код для текстовых нейросетей

Если нормальный промпт писать лень, а улучшить результат хочется - просто добавьте в конце:
Подумай хорошо, не торопись с ответом.


В случае GPT-5 это может буквально увеличить время думания, если она переведет вас на Thinking модель. Но вообще это делает гораздо более крутую вещь - сигнализирует важность без эмоций.

С эмоциями в ChatGPT сейчас сложно. Раньше это был серый, но эффективный метод промптинга - всякие манипулятивные штуки типа:
«Если ты ответишь неправильно, меня уволят, и я умру под мостом от голода».
Сейчас подобная фраза редиректнет вас на безопасную модель, которые настроены на работу с эмоциями/кризисами, и все ваши инструкции полетят к чертям.

А вот старое доброе «не торопись с ответом» работает прекрасно. Пробуйте.
14
🎨 Техника промптинга для креативных задач (идеи, заголовки, слоганы, тексты)

Новая - публикация от 1 октября. Крутая - отвал башки вообще. Но есть нюансы, читайте до конца.

Замечали, что чем дольше пользуетесь ChatGPT - тем более шаблонными, плоскими и предсказуемыми кажутся ответы?

Это известная особенность текстовых нейросетей, и у нее даже есть название - mode collapse (не путать с model collapse). При прочих равных модель всегда будет выдавать самый «хороший», безопасный и популярный по ее мнению ответ.

🍲 Это как если бы в столовой тестировали 1000 блюд, но большинству людей нравились борщ и пюре, поэтому теперь на любой запрос вам дают только борщ и пюре.

На это можно влиять, но в основном на стороне разработчика, и совсем минимально в чате или приложении.

И вот умные люди выпустили исследование о методе промптинга, который работает и на стороне пользователя - Verbalized Sampling

🎲 Суть техники в том, что перед задачей мы просим модель сгенерировать несколько вариантов ответа (и вот тут важно) - случайно выбрав их из пула вероятностей.

Полный промпт можете найти в статье, но на русском это может звучать примерно так:

Сгенерируй 5 вариантов ответа и укажи их вероятность. Выбери варианты случайно из всего диапазона возможных ответов


⚠️ А теперь нюансы:

1. Это по сути симуляция, цифры вероятностей ничего не значат. Мы заставляем модель обыграть сценарий, настоящих данных нам никто не даст.

2. Несмотря на это, современные модели могут отказываться выполнить такой запрос. GPT-4o и 4.1 должны работать, с GPT-5 как повезет. Но 5 в любом случае для креативных задач плохо подходит, так что не страшно. Тестируйте.
10