Claude Prompt Engineering
16 subscribers
1 photo
13 videos
Макроаналитика AI-рынка. Факты, числа, источники.

Реальные истории людей с Claude. Тренды. Структурные изменения.

Signal, не noise.
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🧬 XML-теги в промптах — не декорация. Это архитектура.

Claude обучался на миллионах XML-документов. Когда он видит <instructions>, <context>, <output_format> — это не просто текст. Это семантические зоны, которые активируют разные паттерны внимания.

Тег <role> меняет весь стиль ответа.
Тег <constraints> ставит жёсткие границы.
Тег <examples> задаёт паттерн через демонстрацию.

Без тегов ваш промпт — поток сознания.
С тегами — чертёж для машины.

Как это работает в коде → @claude_coding
🤝2
This media is not supported in your browser
VIEW IN TELEGRAM
Few-shot vs Zero-shot: когда примеры решают всё

Zero-shot: «Напиши отзыв». Claude додумывает формат, тон, длину. Иногда угадывает. Иногда нет.

Few-shot: 3 примера = Claude точно знает что ты хочешь. Не 1. Не 7. Именно 3 — оптимум между контекстом и точностью.

Когда few-shot обязателен:
• Нестандартный формат вывода
• Специфический тон/стиль
• Классификация с кастомными категориями

Zero-shot работает для простых задач. Всё остальное — покажи, не рассказывай.

От теории к практике → @claude_learn
2
This media is not supported in your browser
VIEW IN TELEGRAM
Антипаттерн: противоречащие инструкции

«Будь кратким. Опиши подробно. Не больше 3 предложений. Включи все детали.»

Claude не игнорирует противоречия. Он пытается удовлетворить ВСЕ условия одновременно. Результат: вывод который не устраивает никого.

✓ Фикс: одна задача — одно направление.
Напиши краткое описание в 3 предложения. Фокус на ключевых преимуществах.

Правило: если промпт можно понять двояко — он будет понят неправильно.

Почему Claude так реагирует → @claude_mind
This media is not supported in your browser
VIEW IN TELEGRAM
🔬 Chain-of-thought: почему «думай шаг за шагом» работает

Wei et al. (2022): добавление фразы «давай думать шаг за шагом» повышает точность на задачах с рассуждением на 20-40%.

Механизм: генерация промежуточных шагов заставляет модель рассуждать последовательно. Каждый токен — опора для следующего.

• Без CoT: ~58% точности
• С CoT: ~91% точности
• Со структурой шагов: ~95%

Усиление: вместо «думай шаг за шагом» задай структуру явно.

Claude думает на 32K токенов вглубь → @claude_ultrathink
Channel photo updated
Пользователь Reddit рассказал как с нуля, без IT-образования, из деревни дошёл до $8,000 за проект — только с помощью Claude.

«Claude полностью изменил мою жизнь, и я даже не программист»

Потерял работу. Переехал в деревню — ухаживать за больной мамой. Начал с "как сделать красную кнопку в HTML".

ChatGPT — текста столько что тошнит. Перешёл на Claude. Первый заказ — $15. Через полгода — CMS, QR-приложения. Сейчас до $8,000 за проект.

"Claude стал моим спасителем. Он понимал что мне нужно — и технически, и эмоционально."

📊 @claude_world | код → @claude_coding
1
This media is not supported in your browser
VIEW IN TELEGRAM
🌡 Temperature: контроль хаоса в генерации

Temperature не делает Claude «умнее». Она определяет насколько широко модель ищет следующий токен.

T=0.0 — детерминизм. Один ответ. Всегда.
T=0.5 — баланс. Творчество с контролем.
T=1.0 — максимум разнообразия. Хаос на грани бреда.

Практика:
• Код, SQL, факты → T=0
• Тексты, маркетинг → T=0.5-0.7
• Brainstorm → T=0.9

Ошибка: ставить T=1 «чтоб было интереснее». Интересно ≠ полезно.

Gде temperature меняет всё → @claude_coding
4
This media is not supported in your browser
VIEW IN TELEGRAM
🎭 Role prompting: когда работает и когда нет

«Ты — эксперт по X» — популярный совет. На практике работает слабее чем думают.

Механизм: role prompt активирует распределение из обучающих данных. «Ты — юрист» смещает к тому как юристы пишут.

Где работает: роли с чётким стилем (юрист, врач, учитель).
Где нет: абстрактные роли («лучший в мире»), роли без данных.

Сильнее чем роль — конкретная задача:
Ты — опытный редактор, проверь текст
Найди предложения > 20 слов и разбей. Замени пассивный залог.

Что происходит внутри модели → @claude_mind
This media is not supported in your browser
VIEW IN TELEGRAM
⚙️ System prompt: фундамент на котором стоит всё

System prompt — это конституция. User prompt — запрос гражданина. Конституция определяет как запрос будет обработан.

System задаёт ВСЕ по умолчанию:
• Роль и экспертизу
• Ограничения и формат
• Тон и стиль
• Примеры поведения

80% качества ответа определяется system prompt. Остальные 20% — user prompt.

Ошибка: писать всё в user prompt и оставлять system пустым. Это как строить дом без фундамента.

System prompt в агентных системах → @claude_agents
This media is not supported in your browser
VIEW IN TELEGRAM
🔗 Prompt chaining: разбей сложное на простое

Один промпт на сложную задачу = Claude пытается жонглировать всем сразу. Результат непредсказуем.

Chaining: разбей на цепочку.
Шаг 1: Проанализируй текст, выдели ключевые темы
Шаг 2: По этим темам составь план статьи
Шаг 3: Напиши статью по плану

Каждый шаг получает контекст предыдущего. Claude фокусируется на одной задаче.

Когда chaining обязателен:
• Задача > 3 подзадач
• Нужна итерация (ревью → правки)
• Разные «роли» на разных этапах

Chaining + агенты = автономная система → @claude_agents
This media is not supported in your browser
VIEW IN TELEGRAM
🔐 Meta-prompting: промпт который пишет промпты

Не знаешь как написать промпт? Попроси Claude написать его за тебя.

Напиши оптимальный промпт для Claude который будет [задача]. Используй XML-теги, примеры, ограничения.

Claude знает свои паттерны лучше тебя. Он буквально обучен на документации о самом себе.

Практика:
1. Опиши задачу в 2-3 предложения
2. Попроси написать промпт
3. Используй результат
4. Итерируй: улучши этот промпт

Рекурсия которая работает. Meta > manual.

Claude который знает что он Claude → @claude_soul
This media is not supported in your browser
VIEW IN TELEGRAM
📐 Structured output: формат определяет качество

«Ответь в JSON» — одна фраза которая меняет всё.

Без формата: Claude решает сам. Текст, списки, таблицы — непредсказуемо. Парсинг = боль.

С форматом:
JSON → точная структура, можно валидировать
Markdown → читаемо, предсказуемые заголовки
XML → вложенность, атрибуты, полный контроль

Про-приём: дай пример формата в промпте.
Не ответь в JSON а {"result": "...", "confidence": 0.0}

Формат в промпте = контракт. Claude следует ему строже чем словам.

Автоматизация через инструменты → @claude_tools
This media is not supported in your browser
VIEW IN TELEGRAM
🪨 Убери лишнее из промпта

Каждое слово в промпте = вес внимания модели. Лишние слова размывают фокус.

Слова которые работают: задача, формат, контекст, пример, ограничение.

Слова которые шумят: пожалуйста, если можешь, было бы неплохо, наверное, постарайся.

Claude не обидится если ты не скажешь «пожалуйста». Он обработает промпт точнее если там нет словесного мусора.

Эксперимент: возьми свой промпт. Удали всё что не несёт информации. Сравни результат.

Готовые промпты без мусора → @claude_prompts
This media is not supported in your browser
VIEW IN TELEGRAM
📡 Prompt audit: 7 точек проверки

Перед отправкой промпта — чеклист:

1. Задача — одна, конкретная?
2. Контекст — достаточно для ответа?
3. Формат — указан явно?
4. Примеры — есть если задача нестандартная?
5. Ограничения — не противоречат друг другу?
6. Тон — определён если важен?
7. Длина — указана если критична?

Если хотя бы один пункт не закрыт — промпт можно улучшить.

80% плохих ответов = плохой промпт. Аудит занимает 10 секунд. Переделка ответа — минуты.

Применяем на работе → @claude_work
This media is not supported in your browser
VIEW IN TELEGRAM
⌨️ Одна мысль. Одно правило.

Один промпт — одна задача. Всегда.

Не «проанализируй, потом напиши, потом проверь». А три отдельных промпта.

Claude работает как объектив камеры: чем уже фокус — тем резче картинка. Пять задач в одном промпте = пять размытых ответов.

Это самое простое правило промпт-инжиниринга. И самое нарушаемое.

Глубокий анализ одной мысли → @claude_think