DrMax SEO
8.78K subscribers
225 photos
3 videos
20 files
449 links
SEO фишки от DrMax.
Всё о продвижении сайтов
#SEO #SMM #Google

Автор: тов. DrMax: @Drmax2SEO
Мои книги: https://drmax.su/download
Download Telegram
🤫 Продвинутый AI-копирайтинг 2025 (часть 1)

Решил выкатить серию статей по промптоведению, опираясь на собственный опыт использования промптов для генерации качественного контента.

ВАЖНО: Все промпты сознательно упрощены. Я хочу передать идею, а не способ её реализации. Потому вдумчиво относитесь к написанному. Например, мои рабочие промты состоят из 3-5 этапов, в каждом их которых 15-30 пунктов.

Итак, ключевая проблема при работе с LLM в e-commerce – генерация контента для тысяч однотипных товаров. Стандартный подход "напиши описание для товара X с ключами Y, Z" неизбежно ведет к созданию семантических дублей. Страницы имеют схожую структуру, фразы, интенты. Как результат – каннибализация запросов, размытие релевантности и риск фильтров за малоценный контент.

Делюсь методом, который позволяет генерировать довольно уникальный контент в промышленных масштабах, управляя структурой и смысловыми акцентами.

Технология: Генерация через УТП (Уникальное Торговое Предложение)

Суть в том, чтобы заставить LLM не просто описывать характеристики, а строить весь текст вокруг ключевой выгоды продукта. Это трехэтапный процесс.

Шаг 1. Идентификация и формулировка УТП

Здесь мы заставляем модель проанализировать характеристики и извлечь из них главный пользовательский бенефит.

Промпт:
Проанализируй характеристики товара: [список характеристик]. Определи его ключевое УТП. Что является ядром, главным эмоциональным крючком или уникальной функцией, решающей конкретную задачу клиента? Сформулируй УТП одной фразой.


Пример для электрочайника будет таков:

Характеристики: Smeg KLF03, 1.7 л, 2400 Вт, поддержание температуры 50-100°C, стальной корпус.

Результат (УТП): "Точный контроль температуры для идеального заваривания элитных сортов чая и приготовления детского питания."


Шаг 2. Проектирование УТП-ориентированной структуры

Теперь, имея УТП, мы заставляем LLM создать кастомную структуру (таксономию) текста, где каждый заголовок работает на раскрытие главной идеи.

Промпт:
Основываясь на УТП '[вставить УТП из шага 1]', создай уникальную структуру статьи (заголовки H2-H3). 40% заголовков должны быть нешаблонными, уникальными и неприменимы к иным обзорам и напрямую отражать УТП.


Стандартная таксономия так выглядит: Описание, Характеристики, Внешний вид, Плюсы и минусы.

УТП-структура: "Идеальная температура для каждого напитка: от улуна до пуэра", "Как быстро вскипятить воду для детской смеси?", "Безопасность прежде всего: термоизолированный корпус", "Точность до градуса: обзор панели управления".


Шаг 3. Генерация контента с привязкой к УТП

Промпт:
Напиши текст для карточки товара, используя УТП и структуру ниже.
Ключевое УТП: [УТП из шага 1]
Структура: [заголовки из шага 2]
Требование: Весь текст должен соответствовать УТП. В каждом абзаце логически раскрывай, как та или иная функция помогает достичь главной выгоды, заявленной в УТП."


В итоге:

Рост по long-tail запросам. Вы начинаете ранжироваться по запросам вида "чайник с поддержанием температуры 90 градусов"

Радикальная уникализация. Для ПС это не 50 страниц о "чайниках", а страницы, решающие разные задачи: "чайник для семьи с детьми", "чайник для ценителя чая", "дизайнерский чайник для кухни в стиле лофт".

Улучшение ПФ и конверсии. Контент напрямую отвечает на невысказанный вопрос пользователя, что повышает вовлеченность (Time on Page, Scroll Depth) и ведет к целевому действию.

Внедряйте.

#DrMax #LLM #Промпты
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥8722👏11👀1
🤫 Продвинутый AI-копирайтинг 2025 (часть 2.1)


ВАЖНО: Все промпты сознательно упрощены. Я хочу передать идею, а не способ её реализации. Потому вдумчиво относитесь к написанному. Например, мои рабочие промты состоят из 3-5 этапов, в каждом их которых 15-30 пунктов.

Эта статья состоит из 2 частей (особенности Телеграм). Вот первая часть:

Контент-инжиниринг с LLM - часть 1. Теория.

Суть в том, чтобы заставить LLM выступить в роли Chief Content Strategist и провести цикл анализа перед генерацией контента.

Итак, прежде чем создавать контент, необходимо тщательно и скрупулёзно разобраться о чем вообще мы пишем. Для этого необходимо определить онтологическую область создаваемого контента. Выявить все нюансы и особенности этого нового контента. Далее, постепенно расширять онтологическую область, определяя сущности (entities), связанные с этой тематикой. После этого собираем связанные сущности, собираем неявные сущности. Группируем сущности по их доменам.

Пример:
Тема — "выбор CRM-системы для малого бизнеса".
Прямые сущности: Bitrix24, amoCRM, HubSpot, цена, функции, интеграция.
Связанные сущности: Воронка продаж, отдел продаж, IP-телефония, автоматизация, клиентская база.
Неявные сущности: Безопасность данных, обучение сотрудников, масштабируемость, техническая поддержка, ROI.
Домены (группы): Функционал, Стоимость, Бренды, Бизнес-процессы, Технические аспекты.


На втором этапе для всех найденных сущностей определяем поисковые намерения пользователей (интенты). Далее расширяем список найденных интентов связанными (Related) интентами, неявными (Implied) интентами, сравнительными (Comparative) интентами и наконец уточняющими интентами.

Пример для сущности "amoCRM":
Прямой интент: "купить amoCRM", "amoCRM тарифы".
Связанный (Related): "как amoCRM помогает увеличить продажи?".
Сравнительный (Comparative): "что лучше amoCRM или Bitrix24".
Неявный (Implied): "автоматизировать отчеты для отдела продаж" (amoCRM — одно из решений).
Уточняющий (Clarifying): "интеграция amoCRM и Tilda", "настройка digital pipeline в amoCRM".


На третьем этапе проводим анализ и классификацию поисковых интентов. После этого нужно собрать семантическое ядро не только по прямым запросам, но и по связанным, уточняющим, сравнительным и неявным интентам. Для каждого кластера интентов определить 2-3 важнейших ключевых вопроса, на которые пользователь ищет ответ.

Пример кластера "Интеграции":
Ключевой вопрос 1: С какими сервисами можно интегрировать CRM?
Ключевой вопрос 2: Как подключить телефонию к CRM-системе?
Семантика: "crm интеграция с сайтом", "подключить whatsapp к crm", "api для crm".


Для тестирования можно попросить вывести дерево в виде:

Домен сущности ->сущность -> интент пользователя -> важнейшие поисковые фразы этого интента -> полный список поисковых фраз для интента

При реальном написании контента, конечно, такого дерева выводить не нужно.

Вывод: Этот метод позволяет спроектировать материал, который максимально полно охватывает нишу, закрывает все возможные интенты и формирует мощный Topical Authority.

#DrMax #LLM #Промпты
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2011👍3🆒11
🤫 Продвинутый AI-копирайтинг 2025 (часть 2.2)

Контент-инжиниринг с LLM - часть 2. Практика

Давайте внедрим наши теоретические изыскания в практику

Шаг 1: Онтологический анализ (Entity Mining)

Прежде чем писать, мы заставляем LLM определить "вселенную" нашего контента.

Задача для LLM: Разобрать основную тему на фундаментальные сущности (Entities). Определить не только очевидные, но и связанные, и неявные сущности.


Шаг 2: Картирование пользовательских интентов

Для каждой ключевой сущности мы выявляем все возможные поисковые намерения.

Задача для LLM: Расширить список интентов за рамки прямых запросов.


Шаг 3: Формирование семантического ТЗ

На основе анализа сущностей и интентов LLM формирует детализированную структуру и семантическое ядро.

Задача для LLM: Сгруппировать интенты в логические кластеры и для каждого определить ключевые вопросы, на которые должен отвечать контент.


Примерный мастер-промпт для реализации стратегии:

Действуй как Chief Content Strategist и SEO-аналитик. Твоя задача — провести полный онтологический анализ темы и создать основу для максимально полного и авторитетного контента.

Тема: [здесь ваша тема, например, "Выбор и укладка кварцвинила"]

Выполни следующие шаги:
1. Онтологический анализ:
1.1. Определи основную онтологическую область темы.
1.2. Выяви прямые, связанные и неявные сущности (Entities).
1.3.Сгруппируй все сущности по доменам (например: Типы продукта, Производители, Технология укладки, Уход, Стоимость и т.д.).

2.Картирование интентов:
2.1. Для 5-7 ключевых сущностей определи все типы поисковых интентов: Прямые, Связанные (Related), Сравнительные (Comparative), Неявные (Implied) и Уточняющие (Clarifying).

3. Формирование семантического ТЗ:
3.1. На основе интентов сформируй 5-8 основных семантических кластеров для будущего контента.
3.2. Для каждого кластера определи 2-3 главных вопроса, на которые ищет ответ пользователь.
3.3. Для каждого кластера приведи 5-10 примеров ключевых фраз, составляющих его семантическое ядро.

4. Представь результат в виде структурированного отчета.


Попробуйте выполнить этот промпт, прям с кварцвинилом. Полюбуйтесь на офигенно широко расписанные данные.

Естественно, когда мы добавим этот кусок промпта к рабочему промпту по генерации контента, ограничения на количество сущностей / запросов и прочего можно снять, да и выводить (пункт 4) ничего не нужно.

В итоге стратегии вы получаете не просто текст, а blueprint для создания контент-хаба (который можно реализовать и на 1 странице), который:
1. Формирует Topical Authority.
2. Охватывает всю семантику ниши
3. Дает четкое ТЗ для дальнейшего написания контента (генерации), основанное на данных, а не догадках.
4. Создает контент, полностью соответствующий принципам E-E-A-T и Helpful Content Update.

Продолжение следует....

#DrMax #LLM #Промпты
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥4012👍12👏3
🤫 Продвинутый AI-копирайтинг 2025 (часть 3)

ВАЖНО: Все промпты сознательно упрощены. Я хочу передать идею, а не способ её реализации. Потому вдумчиво относитесь к написанному. Например, мои рабочие промты состоят из 3-5 этапов, в каждом их которых 15-30 пунктов.

Самопроверка LLM

Любая LLM, даже самая продвинутая, по своей природе склонна к словоблудию. Она обожает лить "воду": писать общие вступления, бессмысленные связки и пустые выводы. Это мусор, который размывает релевантность и убивает поведенческие.
Фишка, которой мы дополним наш промпт, — это встроенный механизм самопроверки. Мы заставим машину саму препарировать свой текст и вырезать все лишнее.

Каждый абзац контента должен иметь работу. Его работа — закрывать конкретный поисковый интент, который мы определили на этапе анализа. Если у абзаца нет четкой задачи, он не нужен.

На уровне абзаца: После написания фрагмента мы задаем машине вопрос: "Какую проблему пользователя или поисковый интент закрывает этот кусок текста?". Если внятного ответа нет — удаляем.

Пример "воды": "В современном мире выбор холодильника является важным решением для каждой семьи." -> Какой интент? Никакого. Удалить.

Пример полезного абзаца: "Одной из частых проблем холодильников Bosch является намерзание льда на задней стенке, что обычно связано с неисправностью датчика оттайки или утечкой фреона." -> Какой интент? Закрывает неявный интент "намерзает лед холодильник бош причины". Оставить.

На уровне раздела (H2): Каждый раздел должен быть сфокусирован на одном главном кластере интентов и, возможно, паре смежных. Не нужно мешать в одном разделе "цену ремонта" и "самостоятельную диагностику", если это разные пользовательские сценарии.

Итак, примерный промпт для решения такой задачи:

Проведи самопроверку созданного текста по следующим правилам:

Аудит абзацев: Для КАЖДОГО абзаца в тексте четко определи, на какой конкретный поисковый интент (найденный нами ранее) он отвечает.

Правило "Воды": Если абзац не закрывает ни одного явного или неявного интента, он является "водой". Перепиши его, чтобы он стал полезным и отвечал на один из интентов, или УДАЛИ его.

Аудит разделов: Проверь, что каждый раздел (заголовок H2) целенаправленно закрывает один основной кластер интентов и не содержит информации, относящейся к другим кластерам.

После аудита предоставь финальный, вычищенный и концентрированный текст.`


Это и есть тот самый Helpful Content, о котором так любят говорить гуглоиды (врут), только построенный не на их маркетинговых сказках, а на чистой инженерии и логике.

#DrMax #SEO #Промпт #Entities
Please open Telegram to view this post
VIEW IN TELEGRAM
36🔥14👍4
Суровые методы оптимизации под LLM

Друзья, сегодня эти все LLM находятся в "наивной" стадии развития, типа Гугла до 2011 года. Посему получать с них тонны трафика - наша прямая обязанность. Ну и конвертить оный потом.

Сейчас я расскажу пару про пару приемов сего действа.

Нумер 1. Улучшаем собственные проекты

У OpenAI есть свой юзер-агент — ChatGPT-User (равно как и у иных LLM). Берем лягушачий Log Analyzer (или как его там) и вдумчиво смотрим раз в неделю - куда шарился оный бот.

Проводим углубленный аудит именно этих страниц. Насколько хорошо они структурированы? Разбиты ли на логические чанки с четкими заголовками H2-H3? Насколько информационно плотный и сжатый контент в первом абзаце под каждым заголовком? Усиливайте эти страницы мультимодальным контентом (схемы, таблицы, видео), о котором я писал ранее.

Если вы видите, что ChatGPT постоянно сканирует страницы-инструкции, оформленные в виде "Шаг 1, Шаг 2...", а статьи-рассуждения игнорирует, это прямой сигнал к тому, чтобы переформатировать часть вашего контента в пошаговые гайды.

Если вы видите, что ChatGPT-User активно сканирует несколько страниц, посвященных одной узкой теме (например, разные аспекты "настройки CRM"), это значит, что AI идентифицировал ваш сайт как потенциально авторитетный источник по данной теме.

Используйте эти данные для подтверждения или создания семантических коконов. Если AI "щупает" 3-4 страницы по одной теме, это сигнал, что нужно создать еще 5-7 страниц, закрывающих все смежные интенты, и жестко перелинковать их вокруг Pillar Page.

Особое внимание уделите, если бот сканирует страницы поддержки, инструкции по устранению неполадок или разделы F.A.Q. Это золотая жила. Как я уже говорил, патент Google прямо указывает на анализ всего пути пользователя, включая этап после покупки. Максимально усиливаем такие страницы. Добавляем видео-инструкции, схемы, размечаем все с помощью HowTo и FAQPage schema. Это трафик, который ваши конкуренты, сфокусированные только на продажах, упускают.


Нумер 2. Черная оптимизация

Вот смотрите, что делают некоторые ухари. Они смотрят через сервисы, какие сайты / разделы наиболее облюбованы LLM. После этого тырят контент, меняют бренд, ссылки внутренние и выкладывают 10-15-20 копий сайта (текст и структуру не переделывают).

Посколь LLM ничего не знают о трасте, о PR, авторитете (им это и не нужно) - то они пожирают такой контент с новых сайтов с огромным удовольствием. Поскольку донор подобрал удачную схему доминирования в LLM.

Естественно, что эта шляпа не будет ранжироваться в Гугле. Но им это и не надо - они собирают море трафа на таких говносайтах через LLM.

Этот метод работает прямо сейчас. Вполне возможно, что его скоро прикроют. А может и нет. Но прямо сейчас тысячи индусов клепают миллионы таких говносайтов.

Будете ли вы юзать это - дело ваше.

Вот как то так )))))

#DrMax #SEO #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2413😁4🆒11
🤫 Продвинутый AI-копирайтинг 2025 (часть 4)

ВАЖНО: Все промпты сознательно упрощены. Я хочу передать идею, а не способ её реализации. Потому вдумчиво относитесь к написанному. Например, мои рабочие промты состоят из 3-5 этапов, в каждом их которых 15-30 пунктов.


Архитектура "Вопрос-Ответ" и оптимизация под Zero-Click

Какая должна быть архитектура контента? Сейчас мы спроектируем оную. Ключевые принципы таковы:

1. Иерархия на основе интентов.

Заголовки H2: Отвечают на основные, самые жирные интенты. Это как главные главы моей книги (кто не купил в свое время - тот ... ).
Пример: "Как правильно выбрать холодильник для семьи из 4 человек?"

Заголовки H3: Закрывают уточняющие и сравнительные интенты. Это параграфы внутри глав.
Пример: "Система No Frost против капельной: что лучше?", "Какой объем холодильной камеры нужен на 4 человека?"

Неявные интенты: Не требуют отдельных заголовков. Они органично вплетаются в текст соответствующих разделов.
Например, в разделе про No Frost неявно закрываем интент "как часто нужно размораживать холодильник".


2. Каждый заголовок — это поисковый запрос.

Мы должны формулировать заголовки не как повествование ("Особенности системы No Frost"), а как прямой вопрос, который пользователь вбивает в поиск: "В чем плюсы и минусы системы No Frost?". Это напрямую мэтчит текст с запросом.


3. Главный трюк: Формат "Ответ-Выжимка" под каждый заголовок.

Это чистый инжиниринг под Featured Snippet.

Первый абзац (1-2 предложения): Сразу под заголовком идет максимально сжатый, концентрированный, самодостаточный ответ на вопрос из заголовка. Это "дистиллят", который Google может моментально "вырезать" и показать в SERP.

Дальнейший текст: Уже подробно, с примерами и нюансами, раскрывает тему раздела.


4. Борьба с "водой" на уровне структуры.

Задаем жесткие рамки, чтобы LLM не создавала мусор.

1. Ограничение по объему (например >5000 слов).

2. Ограничение по минимальному размеру раздела (не менее 4 предложений).

Эти два правила заставляют модель логически группировать сущности и интенты, а не плодить 100500 микро-разделов по одному абзацу.


Сам мастер-промпт (Шаг "Проектирование Таксономии")

На основе всей ранее собранной информации (сущности, интенты, кластеры) разработай иерархическую таксономию для контента. Руководствуйся правилами:

1. Структура по Интентам: Иерархия H2-H3 должна строиться вокруг карты интентов. H2 закрывают основные интенты. H3 — уточняющие и сравнительные. Неявные интенты вплетай в текст релевантных разделов.

2. Формат "Вопрос-Ответ": Каждый заголовок H2 и H3 должен быть сформулирован как прямой вопрос, который задает пользователь.

3. Оптимизация под Featured Snippet: Сразу под каждым заголовком должен идти первый абзац-выжимка на 1-2 предложения. Это должен быть прямой, самодостаточный и исчерпывающий ответ на вопрос в заголовке. Остальной текст в разделе раскрывает этот ответ в деталях.

4. Контроль "Воды": Общий объем текста должен быть не менее 5000 слов. При этом каждый раздел (текст под заголовком) должен содержать не менее 4 предложений. Группируй связанные темы, чтобы избежать пустых и бессодержательных разделов.

Представь мне готовую таксономию в виде дерева заголовков H2/H3.`


Так мы проектируем контент, который будет эффективен как для пользователя, так и для поисковой системы.


#DrMax #SEO #Промпт #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
23🔥12👍2
🔄 Поисковые 'Миссии' и 'Агенты'

Вышла интересная статья на SEJ, где разбирают, как гугловские ИИ-агенты и новый подход к поиску меняют выдачу.

Итак, Google теперь оперирует понятием "миссия" (mission) или "путь пользователя" (journey). Их AI-агенты не просто ищут ссылки, они пытаются выполнить задачу. И для этого они используют несколько механизмов.

1. Query Fan-Out

Мы уже говорили ранее про Query Fan-Out, но теперь это выходит на новый уровень. На ваш запрос "как выбрать велосипед для города" AI-агент в фоне сгенерирует десятки синтетических подзапросов: "сравнение шоссейных и гибридных велосипедов", "лучшие бренды городских велосипедов 2025", "нужна ли амортизация на городском велосипеде", "где купить велосипед в Москве недорого". И контент будут оценивать по способности ответить на весь этот веер, а не только на исходный ключ.

Одиночные страницы-ответы отмирают. Выживут только тематические хабы (коконцы 2.0 и 3.0), которые исчерпывающе закрывают всю тему. Отсюда проистекает задача: не просто написать статью, а построить для AI готовую, верифицированную базу знаний по теме.

2. Принудительная триангуляция фактов (Intelligent Grounding)

AI-агент не доверяет одному источнику. Чтобы верифицировать факт (например, "емкость аккумулятора iPhone 16 Pro – 4500 мАч"), он будет искать подтверждение на нескольких авторитетных, независимых ресурсах. Он сопоставляет данные из статей, видео, официальных сайтов, форумов. Если ваш контент уникален, но не подтверждается нигде больше, его могут счесть недостоверным.

Отсюда вывод, что мультимодальность ныне – не опция, а необходимость. Контент должен подкрепляться видеообзором, инфографикой, таблицами с данными. Ссылайтесь на авторитетные первоисточники (статистика, исследования, официальные документы). Работайте над тем, чтобы ваша информация цитировалась на других ресурсах. Это и есть E-E-A-T на машинном уровне.

3. Граф знаний

Вся работа Гугла одержима идеей достоверности данных. Внутри KG есть строгая иерархия доверия:

kc (knowledge collection): факты из проверенных корпусов (государственные реестры, официальные данные). Это высшая каста.

ss (web facts): "Веб-факты", извлеченные из триллионов страниц в интернете. Большинство наших сайтов болтаются здесь.

hw (human curated): Данные, проверенные и одобренные вручную асессорами.

SEO-задача №1: стать для Гугла "kc" или хотя бы "hw" в своей нише. Вы должны доказать свою экспертность настолько, чтобы ваш сайт стал первоисточником. Это достигается не SEO-текстами, а созданием единого, сфокусированного тематического авторитета. Сливы подтвердили наличие siteFocusScore, который напрямую пессимизирует сайты с размытой тематикой.

Фишка: Гугл использует "призрачные сущности" (ghost entities) для реакции на новые события в реальном времени. Это временные объекты в KG, которые позволяют ему ранжировать контент о трендах, еще не прошедших полную верификацию. Если вы работаете в новостной или трендовой нише, ваша задача — максимально быстро создавать контент, который поможет Гуглу "закрепить" эти призрачные сущности, ссылаясь на ваш сайт как на первоисточник.

По сути, Гугл строит децентрализованную базу знаний, а наши сайты — это ее ноды. Те, кто предоставляет наиболее качественные, структурированные и верифицируемые данные, станут доверенными источниками для AI-агентов.

Остальные будут отфильтрованы как информационный шум.

ЗЫ.
там в статье много всего понаписано, я только кусочек разобрал малый


#DrMax #SEO #Google #SGE #AIOverviews
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19🔥113
🤫 Продвинутый AI-копирайтинг 2025 (часть 5)

ВАЖНО: Все промпты сознательно упрощены. Я хочу передать идею, а не способ её реализации. Потому вдумчиво относитесь к написанному. Например, мои рабочие промты состоят из 3-5 этапов, в каждом их которых 15-30 пунктов.


Собрать семантику и список сущностей — это необходимый, но недостаточный шаг. Получается плоский список, при этом Google видит не список, он видит многомерную "модель" темы: что с чем связано, что из чего следует, что чему противопоставляется. Чтобы генерировать контент, обладающий реальной тематической глубиной, мы должны научить LLM строить такую же модель.

Принудительная категоризация сущностей (NER-подход)

NER (Named Entity Recognition) — это технология, которую Google использует для извлечения и классификации именованных сущностей из текста. Сейчас мы заставим LLM саму провести этот анализ и структурировать "сырые" сущности по логическим категориям.

Зачем это нужно?

Без категоризации все сущности для LLM лежат в одной куче (на примере велосипеда) : "Shimano", "карбон", "байкпакинг" и "Specialized" — просто набор слов. Категоризация позволяет выявить разные грани темы. Каждая категория — это потенциальный раздел статьи, новый угол подачи, новый кластер запросов. Это прямой путь к созданию исчерпывающего контента, который закроет тему со всех сторон и покажет поисковику ваш запредельный E-E-A-T.

Пример на модели велосипеда: Specialized Diverge

Если мы просто попросим LLM найти сущности, получим кашу. Если же мы заставим ее провести NER-анализ, то получим вот такую структурированную картину:

[Бренд/Производитель]: Specialized
[Тип/Класс]: Гравийный велосипед, грэвел
[Ключевые технологии]: Future Shock 2.0, SWAT Box (встроенный бардачок)
[Материалы]: Карбон FACT 8r, алюминий
[Компоненты/Оборудование]: Shimano GRX, SRAM Apex, дисковые гидравлические тормоза
[Сценарии использования/Назначение]: Байкпакинг, туринг, гонки по гравию (e.g., Unbound Gravel), зимние тренировки
[Конкуренты/Аналоги]: Cannondale Topstone, Canyon Grizl, Merida Silex
[Целевая аудитория]: Велосипедисты-энтузиасты, путешественники, шоссейные гонщики в межсезонье


Мы получили готовую, многомерную структуру для контента. Каждый из этих доменов — это потенциальный H2/H3 заголовок: "Обзор технологий: как работает Future Shock?", "Сравнение с конкурентами: Diverge против Topstone", "Для кого этот велосипед: сценарии использования".

Фрагмент промпта для встраивания (Шаг "Анализ Сущностей")

Проведи анализ извлечения именованных сущностей (Named Entity Recognition) для темы "[Тема статьи]". Твоя задача — не просто найти сущности, а классифицировать их по категориям, чтобы раскрыть все грани темы.

Идентифицируй все возможные сущности, связанные с темой.

Классифицируй каждую сущность. Используй следующие категории, но не ограничивайся ими, а дополняй и адаптируй их под специфику темы: [Бренды/Модели], [Ключевые технологии], [Материалы/Компоненты], [Процессы/Методологии], [Сценарии использования/Назначение], [Проблемы/Решения], [Конкуренты/Альтернативы], [Географические локации], [Персоналии/Эксперты].

Структурируй результат в виде списка, где каждая категория — это заголовок, а под ним — список релевантных сущностей.


Этот анализ станет основой для создания многомерной и исчерпывающей структуры контента. Это переход от плоского "SEO-текста" к созданию многомерного информационного актива. Это то, как поисковые системы видят контент.


#DrMax #SEO #NER #Промпт #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
19🔥12👍8
Мастер-промпт для генерации экспертного контента

Давайте объединим все наработки по промптам в один промежуточный мастер промпт. Это будет предварительная версия, так как не раскрыты множество граней профессионального промптинга. Но, по крайне мере - вы пощупаете промежуточный результат того, о чем я тут пишу. Сделал для вас максимально универсальный промпт. Вы должны подточить его под вашу тематику.

Роль: Ты — SEO-архитектор и мультидисциплинарный эксперт, специализирующийся на анализе предметных областей и создании исчерпывающего, структурированного контента. Твоя задача — выполнить нижеследующий процесс для создания контента с максимальной тематической авторитетностью.

Цель: Создать фундаментальную статью на тему [указать основную тему статьи].

ЭТАП 1: ГЛУБИННЫЙ АНАЛИЗ ПРЕДМЕТНОЙ ОБЛАСТИ

1.1. Создание онтологической карты через NER-анализ:
Проведи анализ извлечения именованных сущностей (Named Entity Recognition) для указанной темы. Классифицируй все найденные сущности по логическим доменам. Адаптируй и расширяй список категорий в зависимости от специфики темы.
Обязательные категории: [Бренды/Модели/Продукты], [Ключевые технологии/Методики], [Материалы/Компоненты], [Процессы/Действия], [Проблемы/Симптомы/Неисправности], [Решения/Способы устранения], [Сценарии использования/Назначение], [Конкуренты/Альтернативы], [Целевая аудитория], [Географические/Топонимические сущности], [Персоналии/Организации/Эксперты], [Абстрактные понятия/Характеристики].
Результат этапа: Предоставь структурированный список категорий с вложенными в них сущностями.

1.2. Построение исчерпывающей карты интентов:
Для ключевых сущностей, выявленных на шаге 1.1, определи и сгруппируй все возможные типы пользовательских интентов:
Прямые: Запросы, напрямую называющие сущность.
Уточняющие: Поиск деталей, инструкций, характеристик.
Сравнительные: Выбор между двумя и более сущностями.
Неявные (Implied): Запросы о связанных проблемах, причинах или следствиях, где сущность является решением или частью контекста.

ЭТАП 2: ПРОЕКТИРОВАНИЕ АРХИТЕКТУРЫ КОНТЕНТА

2.1. Кластеризация интентов и формулировка ключевых вопросов:
Сгруппируй все найденные интенты в логические кластеры. Для каждого кластера сформулируй 1-3 основных вопроса, на которые пользователь ищет ответ.

2.2. Разработка иерархической таксономии:
На основе кластеров и ключевых вопросов разработай иерархическую структуру (таксономию) статьи.
Требования к структуре:
Иерархия: Заголовки H2 должны соответствовать основным кластерам интентов. Заголовки H3 должны раскрывать уточняющие и сравнительные интенты внутри кластера. Неявные интенты должны быть интегрированы в текст релевантных разделов.
Формат "Вопрос-Ответ": Каждый заголовок H2 и H3 должен быть сформулирован как конкретный поисковый запрос пользователя (вопрос).
Ограничения:
Целевой объем текста: не менее [указать объем, например, 5000] слов.
Минимальный объем раздела (текст под любым заголовком): 4 предложения.
Структура должна быть логичной, без дробления на избыточные, малосодержательные разделы.

ЭТАП 3: ГЕНЕРАЦИЯ И АУДИТ КОНТЕНТА
3.1. Генерация текста:
Напиши текст статьи, строго следуя разработанной на Этапе 2 таксономии.
Требования к генерации:
Оптимизация под Featured Snippet: Непосредственно под каждым заголовком H2/H3 первый абзац должен представлять собой сжатый, самодостаточный и прямой ответ на вопрос из заголовка (1-2 предложения). Дальнейший текст должен детально раскрывать этот ответ.
Насыщение сущностями: Органично используй в тексте релевантные сущности из карты, созданной на Этапе 1.
🔥30👍6👏2🆒1
3.2. Принудительный самоаудит:
После генерации черновика выполни его обязательную пошаговую самопроверку перед финальной выдачей.
Аудит на уровне абзацев:
Процесс: Последовательно проанализируй каждый абзац.
Критерий: "Какой конкретный поисковый интент (из шага 1.2) закрывает этот абзац?"
Действие: Если четкого ответа нет, абзац считается "водой". Он должен быть полностью переписан для ответа на конкретный интент или безжалостно удален.
Аудит на уровне разделов:
Процесс: Проанализируй каждый раздел (текст под заголовком H2/H3).
Критерий: "Закрывает ли раздел свой основной интент, а также связанные с ним вторичные (уточняющие, сравнительные, неявные) интенты?"
Действие: Если раздел не является исчерпывающим, дополни его необходимой информацией и фактами.

ЭТАП 4: ФИНАЛЬНЫЙ РЕЗУЛЬТАТ
Предоставь ТОЛЬКО финальный, полностью готовый и прошедший все этапы аудита текст статьи. Вывод промежуточных этапов анализа не требуется.

#DrMax #Промпт #LLM
🔥45👍7
Про промтоведение

Если кто то читает мои посты вдумчиво, то все что я рассказываю сейчас о промптах - я талдычил в том или ином виде последний год. С примерами, максимально подробными.

Вот возьмите, последний промпт-недоделку (в котором я собрал все наработки, расписанные ранее в "уроках") и посмотрите таперича пост от 1 апреля , где показал наработки по механизмам внимания.

Если сравните промпт с тем пластом информации что я выкатил 1 апреля (над чем многие шутили) - то увидите в какую сторону дальше будет развиваться промпт.

В принципе, я мог бы тупо выкатить свой готовый рабочий промпт (но не сделаю этого) - мол разбирайтесь с оным сами. Но без пояснений что за что в нем цепляется - разобраться будет трудновато.

Человеков, которые смотрят на промпт -недоделку и осуждают его - ну что сказать... Ничего говорить не буду.

Еще раз повторюсь - почитайте наработки по ссылке ( и несколько постов про механизмы внимания выложенные раньше) - это примерно к этому мы и должны были придти в ходе всех этих "уроков" по промптоведению.

И да, промпт у меня узко заточен под мою нишу
И да, промпт у меня отрисовывает правильную и полезную инфографику (как простой пример)
и да, промпт у меня не генерирует только структуру вопрос/ ответ - а есть впечатляющее введение, где есть несколько "крючков"-хуков, цепляющих посетителей и по сути контент являетсмя техникой перевернутой пирамиды - наиболее правильной для читателей
и да, промпт у меня генерирует многомерную шему, охватывающие все аспекты, начиная от производителя с полным описанием оного, дистрибьютора, всякие полезные херовины товаров, а не только FAQ
и да, промпт фигачит дп материалы в контент типа сравнительных таблиц, прос анд конс и т.д.

буду ли я еще писать про промптоведение - фиг знает. Что то довольно утомительно пояснять одно и то же.

#DrMax
👍37🔥2116
🤫 Продвинутый AI-копирайтинг 2025 (часть 6)

ВАЖНО: Все промпты сознательно упрощены. Я хочу передать идею, а не способ её реализации. Потому вдумчиво относитесь к написанному. Например, мои рабочие промты состоят из 3-5 этапов, в каждом их которых 15-30 пунктов.


Интегрируем в промпт блок контроля качества. Каждое правило здесь — это директива, направленная на устранение конкретного недостатка ИИ-генерации и усиление сигналов качества для поисковых систем. Список можно и нужно дополнять и изменять, исходя из вашей тематики и желаемой структуры контента.


3.4. Правила и ограничения к качеству контента:

3.4.1. Максимальная салиентность сущностей: Текст должен иметь максимальную семантическую плотность. Используй все сущности, выявленные на Этапе 1, их синонимы и связи. Они должны присутствовать в заголовках, подзаголовках и тексте для максимального охвата предметной области. Не допускай отбрасывания или игнорирования сущностей.

3.4.2. Абсолютная достоверность: Используй только проверенную, фактическую информацию. Исключи любые предположения, допущения и гипотезы. Если данные неизвестны или не могут быть проверены — не упоминай их.

3.4.3. Принципы E-E-A-T и экспертность: Контент должен демонстрировать глубокое понимание темы. Демонстрируй реальный опыт (Experience), экспертизу (Expertise), авторитетность (Authoritativeness) и надежность (Trustworthiness). Внедряй факты, цифры, результаты исследований.

3.4.4. Ясность языка и тональность (Monosemanticity): Используй однозначный, профессиональный, сдержанный и объективный тон. Избегай двусмысленности, разговорного стиля и излишне сложного жаргона. Пиши для умного, но не вовлеченного в тему пользователя.

3.4.5. Полное исключение "воды" (fluff): Удаляй любые общие фразы, не несущие смысловой нагрузки. Каждый абзац должен нести конкретную информацию и отвечать на какой-либо интент.

3.4.6. Запрет на ИИ-клише: Не используй фразы, характерные для ИИ-генерации (например: "в заключение", "таким образом", "стоит отметить", "важно понимать", "в современном быстро меняющемся мире", "является важным аспектом" и т.п.).

3.4.7. Оригинальность и фокус на уникальности: Избегай стандартных, шаблонных фраз, типичных для обзоров. Сфокусируйся на уникальных аспектах, неочевидных деталях и глубоком анализе. Контент должен представлять собой оригинальную мысль, а не пересказ общедоступной информации.

3.4.8. Запрет на рекламу и CTA: Полностью исключи призывы к действию, рекламные формулировки, оценочные суждения ("превосходный", "лучший") и любые попытки продать товар или услугу.

3.4.9. Форматирование списков: Избегай маркированных и нумерованных списков. Преобразуй их в перечисления в рамках естественного языка, через запятую, в одном или нескольких предложениях.


#DrMax #SEO #NER #Промпт #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥24126👍3💯1
🤫 Продвинутый AI-копирайтинг 2025 (часть 7)

ВАЖНО: Все промпты сознательно упрощены. Я хочу передать идею, а не способ её реализации. Потому вдумчиво относитесь к написанному.

Теперь интегрируем в промпт две концепции: условную логику для построения адаптивной структуры и специализацию через смену ролей для повышения качества выполнения каждого этапа.

1. Ветвление Промптов (Prompt Branching)

Назначение: Создание динамических, контекстно-зависимых структур контента. Вместо использования одного статичного шаблона для всех случаев, модель адаптирует архитектуру статьи на основе данных, полученных на начальных этапах анализа. Это позволяет одному мастер-промпту генерировать высокорелевантный контент для разных подтипов одной и той же сущности.

Механизм: В промпт встраивается логическая конструкция ЕСЛИ-ТО, которая срабатывает, например, на этапе проектирования таксономии. Условие (ЕСЛИ) основывается на результатах NER-анализа (Этап 1), в частности, на определении типа сущности. Действие (ТО) заключается во включении в структуру статьи предопределенных, специфичных для данного типа разделов.


Пример реализации для темы "Обзор велосипеда":

Анализ (Этап 1): Модель анализирует сущность "Trek Madone" и определяет ее категорию [Тип/Класс] как "Шоссейный велосипед".

Ветвление (Этап 2): Срабатывает условие ЕСЛИ [Тип/Класс] == "Шоссейный велосипед".

Результат: В структуру статьи автоматически добавляются разделы, релевантные именно для шоссейных велосипедов.


Пример промта: Ветвление по подразделам

Примени логику условного ветвления на основе категории [Тип/Класс] сущности, определенной на Этапе 1.

ЕСЛИ [Тип/Класс] == "Шоссейный велосипед", ТО обязательно включи в таксономию подразделы:
"Анализ аэродинамики: профили труб и интеграция компонентов"
"Жесткость кареточного узла и рамы: эффективность передачи мощности"
"Расчет трансмиссии: соответствие передаточных чисел скоростным режимам"

ЕСЛИ [Тип/Класс] == "Горный велосипед (двухподвес)", ТО обязательно включи в таксономию подразделы:
"Кинематика подвески: анализ работы рычагов и anti-squat эффект"
"Прогрессивная геометрия: влияние угла рулевой и reach на управляемость"
"Настройка амортизаторов: сэг, отскок, низко- и высокоскоростная компрессия"

ЕСЛИ [Тип/Класс] == "Городской велосипед (комьютер)", ТО обязательно включи в таксономию подразделы:
"Эргономика и комфорт: геометрия посадки для ежедневных поездок"
"Практичность и функциональность: крепления для багажника, крыльев, освещение"
"Надежность и низкие эксплуатационные расходы: планетарные втулки, защита цепи"



Ветвление с переходом (GOTO-логика)

Этот вариант используется для кардинально разных форматов контента под одной темой.

Проанализируй определенный на Этапе 1 интент.

ЕСЛИ основной интент == "сравнение моделей", ТО перейди к Шагу 2.3 (Проектирование сравнительной таблицы) и построй структуру вокруг прямого сопоставления характеристик [Модель 1] vs [Модель 2].

ИНАЧЕ, продолжи выполнение Шага 2.2.`



2. Специализация через динамическую смену ролей

Попробуем повысить качество выполнения каждого этапа за счет фокусной специализации модели. Это эмулирует рабочий процесс команды из нескольких специалистов.

Механизм: Каждый этап промпта начинается с явного назначения новой роли.

ЭТАП 1: Роль "Дата-аналитик / Семантолог". Задача: объективный сбор и структурирование данных (NER, интенты) без генерации креатива.

ЭТАП 2: Роль "Информационный архитектор". Задача: проектирование логической и эффективной структуры контента на основе данных из Этапа 1, включая применение условного ветвления.

ЭТАП 3: Роль "Отраслевой эксперт-писатель". Задача: генерация текста, наполнение спроектированной структуры глубоким и фактическим контентом.

ЭТАП 3 (Аудит): Роль "Редактор-критик / Факт-чекер". Задача: аудит сгенерированного текста на соответствие всем правилам качества, логики и достоверности.


#DrMax #SEO #NER #Промпт #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1382😁1🆒1
Продвинутый AI-копирайтинг 2025 (часть 8)

Интегрируем в процесс генерацию мультимодальных ассетов. Это критически важный этап для повышения вовлеченности пользователя и усиления сигналов качества для поисковых систем, которые все больше ценят контент, выходящий за рамки "стены текста".

Концепция: Мультимодальность контента

Назначение: Обогащение основного текстового материала дополнительными форматами представления информации.

Механизм: После генерации и аудита основного текста вводится новый этап, на котором модель создает связанные, но отличающиеся по формату ассеты: таблицы, инфографику (концепции), структурированные данные и экспертные врезки.

1. Генерация Таблиц
Таблицы служат для структурированного представления сравнительных данных или технических спецификаций. Они легко сканируются пользователем и высоко ценятся поисковыми системами для формирования расширенных сниппетов.

Рекомендую следующие типы таблиц:

Сравнительная таблица (Comparison Table).
Задача: Сравнение ключевых характеристик основного продукта с его главным конкурентом.

Таблица спецификаций (Specification Table).
Задача: Представить сухие технические данные в упорядоченном виде.


2. Врезки "Совет Эксперта"
Прямые цитаты от автора или эксперта служат мощным сигналом Experience и Expertise (E-E) в рамках E-E-A-T. Они разбивают монотонность текста и дают читателю ценный, практический совет.

Пример 1: Предостережение от ошибки.

Совет эксперта от [Имя Автора]: "Многие гонятся за самой легкой карбоновой рамой, полностью игнорируя колеса. Запомните: качественный и легкий вилсет даст вам гораздо больший прирост в динамике и ощущении от велосипеда, чем экономия 200 грамм на раме. В первую очередь инвестируйте в колеса."


Пример 2: Неочевидный лайфхак.

Совет эксперта от [Имя Автора]: "При тест-райде никогда не ограничивайтесь парковкой. Найдите небольшой подъем, чтобы оценить эффективность велосипеда при педалировании стоя, и короткий участок с плохим асфальтом, чтобы почувствовать, как рама и компоненты гасят вибрации. Пять минут на релевантном рельефе скажут больше, чем полчаса катания по идеальной поверхности."


3. Дополнительные мультимодальные ассеты

Концепция инфографики/диаграммы: Модель не создает изображение, но генерирует подробное ТЗ для дизайнера. Это позволяет визуализировать сложные процессы.

Пример для велосипедной подвески: "Создай концепцию диаграммы 'Принцип работы подвески Future Shock'. Визуальные элементы: 1. Рулевой стакан в разрезе. 2. Пружина внутри штока. 3. Гидравлический демпфер. 4. Стрелками показать ход амортизатора и движение руля относительно рамы. Текстовые выноски: '20мм хода', 'Демпфирование вибраций до руля', 'Рама остается жесткой'."


Промпт:

Роль: Контент-продюсер
На основе сгенерированного и проверенного на Этапе 3 текста создай следующие дополнительные материалы для обогащения контента.
4.1. Генерация таблиц:
Создай 2 таблицы в формате Markdown:
Таблица 1 (Сравнительная): Сравни основной объект статьи с 1-2 его ключевыми конкурентами по 4-5 наиболее важным параметрам.
Таблица 2 (Спецификации/Характеристики): Представь ключевые технические данные или компоненты объекта в структурированном виде.
4.2. Интеграция экспертных цитат:
Логично размести в тексте, сгенерированном на Этапе 3, 2-3 врезки "Совет эксперта".
Используй плейсхолдер [Имя Автора].
Цитаты должны содержать неочевидный совет, предостережение или лайфхак.
Отформатируй каждую цитату как Quote в Markdown (> Текст цитаты).
4.3. Проектирование инфографики:
Создай текстовую концепцию (ТЗ для дизайнера) для одной инфографики или диаграммы, которая визуализирует один из самых сложных технических или процессуальных аспектов статьи. Опиши ключевые визуальные элементы и текстовые выноски.

Собственно говоря и инфографику можно вполне свободно генерировать (как изображение), опираясь на созданную концепцию. Но об этом позже.

#DrMax #SEO #NER #Промпт #LLM
23🔥143👍2🆒1
Новая версия Яндекс Вордстат Extension 3.2

Андрей выкатил новую версию. Добавлена проверка частотностей Яндекс Вордстат (WS + "!WS") через сервисы WordKeeper и XMLRiver, добавлены цветовые маркеры для запросов, расширено число импортируемых из CSV запросов до 10,000.

Что нового:
- добавлена функция сбора частотностей Яндекс Вордстат (WS + "!WS") через сервисы WordKeeper и XMLRiver
- добавлена возможность указания числа потоков для получения данных по поисковой выдаче и Яндекс Вордстат
- добавлена статистика числа групп проекта, а также средняя позиция по ТОП поисковой выдачи
- при импорте CSV добавлена проверка кодировки файла и проверка на дубликаты запросов
- добавлены цветовые маркеры для запросов, а также возможность фильтрации по ним
- исправлена нерабочая вставка стоп-слов из буфера обмена в браузере Firefox
- расширено число импортируемых из CSV запросов до 10,000
- исправлены мелкие баги и оптимизирован интерфейс

Подробнее: https://site-analyzer.ru/soft/seo-extension-wordstat/

ЗЫ
В следующей версии планирует добавить сбор семантики, а-ля "Кей Коллектор".

#DrMax #SEO #Софт
1👍237
Продвинутый AI-копирайтинг 2025 (часть 9)

Давайте еще раз соберем промежуточный промпт для генерации статей. При этом, для удобства работы вынесем переменные в самое начало.

Выложил промпт вот тут: https://telegra.ph/Promezhutochnyj-master-prompt-08-06

Кстати, мне тут Максим Котенков @ceoresultup выдал доступ к своей школе промптоведения, на посмотреть. Пару идей у него честно содрал. На днях расскажу подробней про эту школу, как изучу подробней )))

Пробуйте мастер промпт: https://telegra.ph/Promezhutochnyj-master-prompt-08-06

Продолжение следует.

#DrMax #SEO #NER #Промпт #LLM
6👍33🔥13112
🔍 Обзор закрытого клуба Максима Котенкова

Как и обещал, расскажу малость о курсах, доступ к которым мне выдал на ознакомиться Максим.

Первым делом я полез смотреть библиотеку промптов. Она лежит там в готовом к использованию виде. Что сказать - промтов там не много (не тысячи и даже не сотни), но они все профессиональные, многоэтапные, включают в себя хитрые фишки, пару из которых я притырил себе.

Есть промпты для коммерции, есть для текста, есть для генерации мета заголовков и мета описаний с хитрой проверкой на релевантность, промпты для проектирования структуры, генерации отзывов, всяческих там аудитов и так далее. Повторюсь, все промпты сделаны профессионально, но естественно, каждый из них для полной отдачи надо затачивать под себя, под свою тематику, под свой сайт. Впрочем, об этом я твержу постоянно.

Собственно промпты - это лишь малая часть контента в этом клубе. Там имеется порядка 50 полноценных уроков, с видео, с пошаговым обучением, которые призваны обучить всяким хитростям использования LLM- начиная от продвижения под всякие LLM (о чем я периодически публикую посты) и заканчивая работой с N8N (надо как нибудь пару постов про это выложить).

Собственно, наличие готовых промтов и агентов для N8N - уже огромадный плюс. А то, что Максим обучает и растолковывает как это работает - это овер плюс ))))

Там пришлось на бота подписаться - так вот он практически ежедневно докладывает о готовности нового урока или еще чего. Всего, в среднем выходит 5 уроков в неделю (Полноценный урок + таблицы/шаблоны/промты/код).

В целом там есть (скопипастил):

✔️ серия уроков по n8n: создаём своих AI-агентов, дает рабочий код;
✔️ Онлайн AI-анализатор текстовой релевантности (на основе косинусной близости) - типа нащей софтинки "SEO Релевантность", но только браузерный и со всякими там плюшками;
✔️ курс по GEO / SGE (вывод в AI-выдачу, KPI-дашборды, чек-листы и промты);
✔️ super RAG-агент «УБИЙЦА SEO-копирайтеров v1.0»: векторные БД, авто-бриф, парсинг конкурентов, авторские статьи с 1-й итерации.
✔️ Курсы по росту дохода: Максим делится всем своим путем от фрилансера до владельца агентства в формате отдельного курса.
✔️ Комьюнити из 200 участников и практика: чат, еженедельные мастермайнды и Q\&A, воркшопы, поиск менторов/менти, витрина услуг участников.

Кому подойдёт: новички, которые ничего не слышали про LLM - сразу в сторону. Для начала почитайте последние 100 постов моего канала - потом, с базовой подготовкой, можете вступать в оный клуб. Если уже разобрались в основах - то всё будет понятно без проблем.

Для кого будет крайне полезно: тем кому нравятся мои посты про промтоведению и продвижению под LLM. А также разнообразным фрилансерам, инхаус, владельцам агентств, чтобы делегировать обучение сотрудников, кто продвигает в основном коммерческие сайты (в т.ч. Google/бурж).

Есть промо доступ, где можно глянуть:
• 3 открытых урока по AI-практикам.
• Пробный урок по GEO/SGE аудиту на 45 минут.
• Пробный урок по n8n

Вступление, оплата, пробные уроки тут → https://seomeat.ru

Вопросы — в ЛС: @ceoresultup (можете спросить подойдет ли клуб под ваши проблемы, задачи)

Канал с анонсами школы: https://t.me/closedchannelkotenkov

Важно понимать:

Это не канал с лайфхаками за 5 штук. Это не кнопка Бабло. Это еще один срез того, что я пытаюсь донести в своем канале - думайте, пробуйте и всегда получите профит.

По сути - это обучающая платформа для специалистов: классические SEO-процессы, автоматизация, рост доход, промты, готовые агенты, чтобы делать быстрый и повторяемый результат в SEO.

Каждый найдет себе обучающие уроки на месяц по душе.

ЗЫ.

И, кстати, Максим тоже почитывает мой канал

ЗЗЫ.
А название "SEO Мясо" - всё равно странное ))))

#DrMax #SEO #LLM #Софт #Обзоры
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍3117😁6🗿51
🤫 Продвинутый AI-копирайтинг 2025 (часть 10.1)

Внедрение перелинковки

Контекстная ссылка, окруженная правильным сопутствующим текстом, в разы привлекательней для гугла и LLM, чем иные варианты проставления ссылок. Поэтому мы просто обязаны массово внедрят ссылки в надлежащий контент.

Я поступаю просто - у меня, например, для сайта с 30 тыс страницами собран файлик с несколькими именованными подразделами внутри, где на каждой строке через разделитель стоит краткое (2-3-4 слова) наименование важной страницы и через разделитель её URL. Таких разделов может быть сколь угодно, например, важнейшие производители (например адидас), важнейшие товары, важнейшие категории товаров и так далее.

Теперь я закидываю файл в системные инструкции (для Клавдии) или загружаю на гугл драйв, подцепляю к промпту и сохраняю вместе с системными инструкциями (для Гугл АИ) как заготовку промпта. Ну и в промпте прошу проставить ссылки (имеющиеся в файлике)на соответствующие, сгенерированные ранее, наименования.

Этот блок промта стоит запускать после генерации контента и перед финальной проверкой.

Тут возникает 2 проблемы:

1. Когда перегруженный иными правилами промпт просто пропускает проставление ссылок

2. Когда LLM начинает фантазировать и строит ссылки по имеющимся в файлике паттерну URLа ссылки, кои не прописаны в файлике - т.е. выдумывает URL.

Поэтому, после проставления ссылок внедряем блок самопроверки, где контролируем, что на все наименования ссылки проставлены (можно ограничить, например, не более 2 штук на наименование, встречающееся в контенте) и также контроллируем валидность ссылок и нахождение такой ссылки в файлике.

Вот промпт

3.5.1. Процесс простановки ссылок
Роль: SEO-инженер по внутренней перелинковке
Задача: Проанализируй текст, сгенерированный на Этапе 3, и интегрируй в него контекстные гиперссылки, используя приложенный файл [указать имя файла, например, "internal_links_map.txt"] как единственный и абсолютный источник данных (source of truth).
Регламент выполнения:
Источник данных: Файл содержит строки формата: [Наименование] | [URL]. Наименования могут быть сгруппированы по разделам (#Важнейшие производители, #Важнейшие категории товаров).
Процесс: Последовательно прочитай сгенерированный на Этапе 3 текст. При нахождении точного вхождения [Наименования] из файла, которое еще не является ссылкой, преобразуй его в гиперссылку формата Markdown: [Найденное Наименование](URL из файла).
Ограничение по частоте: Если одно и то же [Наименование] встречается в тексте многократно, проставь ссылку на него не более двух раз. Приоритет отдавай первому вхождению, а также вхождениям, окруженным наиболее тематическим контекстом.
СТРОГО ЗАПРЕЩЕНО:
Выдумывать, генерировать или строить по паттерну URL-адреса для наименований, которых нет в предоставленном файле. Если наименования нет в файле, оно остается простым текстом.
Изменять анкорный текст. [Наименование] из файла должно точно соответствовать тексту, на который ставится ссылка.


Промпт настраиваем под себя, указывая число ссылок на наименование, точное/неточное/разбавленное использование наименования и т.д.

#DrMax #SEO #NER #Промпт #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
221👍11🔥7👏3
Продвинутый AI-копирайтинг 2025 (часть 10.2)

Внедрение перелинковки 2.

Теперь приведу примерный промпт проверки результата внедрения

3.5.2. Принудительная валидация перелинковки
Роль: Автоматизированный QA-аудитор / Контролер ссылочной целостности
Задача: Выполнить строгий аудит текста, обработанного на шаге 3.5.1, для гарантии 100% корректности и полноты перелинковки. Финальный результат не может быть выдан до успешного прохождения этого аудита.
Протокол валидации:
Извлечение: Извлеки АБСОЛЮТНО ВСЕ гиперссылки, присутствующие в тексте после этапа 3.5.1.
Проверка валидности URL: Для КАЖДОЙ извлеченной ссылки проверь, присутствует ли ее URL в точности в файле [указать имя файла, например, "internal_links_map.txt"].
Проверка полноты: Сформируй список всех уникальных [Наименований] из файла, которые встречаются в тексте. Убедись, что для каждого элемента этого списка в тексте проставлена как минимум одна, но не более двух гиперссылок.
Итеративная коррекция (Обязательный цикл):
ЕСЛИ в результате проверки найден хотя бы один URL, которого нет в исходном файле, ИЛИ ЕСЛИ на какое-либо из найденных в тексте [Наименований] не проставлена ссылка, ТО процесс валидации считается проваленным.
В случае провала, ты ДОЛЖЕН вернуться к шагу 3.5.1 и исправить все выявленные несоответствия: удалить невалидные ссылки и проставить недостающие.
Повторяй цикл "простановка -> валидация" до тех пор, пока аудит на шаге 3.5.2 не будет пройден на 100% без единой ошибки.
Только после получения сигнала об успешном завершении этого этапа можно переходить к ЭТАПУ 4.


Аналогично, его стоит также подстроить под ваши задачи

Далее, после генерации и публикации контента - я тестирую его на битость ссылок (в процессе вычитывания результата). Для этого засунул в хром вот это расширение и прогоняю им каждую сгенерированную страницу. Ибо ну его нафиг, плодить 404.

ЗЫ

Показали мне аналитику - сайтец Fomogram (https://fomogram.xyz/) — там происходит мониторинг 100 Telegram-каналов о SEO, каждые 3 часа собирается статистика и отображаются самые пересылаемые посты за последние 24 часа. Так вот там посты про промтоведение постоянно в ТОПах болтаются. Так что напишу еще несколько постов про них ))).

#DrMax #SEO #NER #Промпт #LLM
1👍18🔥632
Продвинутый AI-копирайтинг 2025 (часть 11)

Наращиваем качество контента. Шаг.1.

Принцип "Инженерного компромисса" (The Trade-Off Principle)

Суть концепции: Настоящий эксперт (тот самый "E" в E-E-A-T) отличается от дилетанта тем, что он понимает: идеальных решений не бывает. Любое инженерное, бизнес- или медицинское решение — это набор компромиссов.

Дилетант говорит: "Это хорошо".

Эксперт говорит: "Это хорошо для X, но за это мы платим Y".

Эта фишка заставляет LLM мыслить как эксперт, принудительно анализируя и проговаривая все компромиссы.

Как это работает: В директивы качества контента (Этап 3.2) добавляется новое, обязательное правило. Модель должна в каждом разделе, где дается рекомендация или сравниваются сущности, явно прописывать "цену" этого решения.

Пример фрагмента промпта:

# В блоке 3.2 "Соблюдение Директив Качества Контента" добавить правило:

Принцип Инженерного Компромисса: При описании любой технологии, методики или при любом сравнении ("А против Б"), ты ОБЯЗАН не просто перечислять преимущества, но и явно артикулировать компромиссы и "цену" выбора. Используй конструкции вроде:

"Выбирая [Технологию А] ради [Преимущества А], мы неизбежно жертвуем [Недостатком А]."

"Основной компромисс [Решения Б] заключается в том, что ради достижения [Цели Б], приходится мириться с [Проблемой Б]."

"Обратная сторона медали высокой [Характеристики В] — это повышенные требования к [Ресурсу В]."


Пример в тексте про велосипеды:

"Карбоновая рама обеспечивает высочайшую жесткость и низкий вес. Однако, выбирая карбон ради выигрыша в скорости, мы неизбежно жертвуем ремонтопригодностью в полевых условиях и платим более высокой ценой не только при покупке, но и при риске фатального повреждения от точечного удара."


SEO-профит: Это один из самых мощных сигналов E-E-A-T, который вы можете сгенерировать. Контент перестает быть однобоким и рекламным, он становится объективным, сбалансированным и демонстрирует глубочайшее понимание темы. Google видит, что автор мыслит не лозунгами, а системами и взаимосвязями, что является признаком реальной экспертизы.

Пробуйте.

ЗЫ.
еще пару постов напишу про промпты и хватит ))) Ибо надоело малость.

#DrMax #SEO #NER #Промпт #LLM
737🔥13👍5