DrMax SEO
9.03K subscribers
234 photos
3 videos
21 files
491 links
SEO фишки от DrMax.
Всё о продвижении сайтов
#SEO #SMM #Google

Автор: тов. DrMax: @Drmax2SEO
Мои книги: https://drmax.su/download
Download Telegram
🍎 Аудитор качества обзора/статьи

Если вы юзаете универсальный мастер промпт для генерации статей/ обзоров продуктов, то крайне рекомендую помимо вычитывания, время от времени запускать аудитор качества. Его задача - проверять соответствие написанной статьи/обзора всем заданным системным инструкциям.

Для чего нужно использовать такой аудитор:

1. Смотреть где ИИ слажалась и безжалостно править системные инструкции (промпт) для генерации обзора

2. Получить исправленную версию обзора (зачастую худшего качества, но без ошибок генерации)

Пример промпта я привел вот тут. Вы должны самостоятельно его доработать. Это охолощенная версия моего рабочего промпта.

И помните, что любой ИИ ленив и бездушен. Если он может что то не сделать - он обязательно это не сделает или напортачит.

Моя новая книга:
📔 DrMax: Доказательное SEO 2026 + Введение в Промптоведение: https://t.me/drmaxseo/1144

Циклы промптоведения
тут: https://t.me/drmaxseo/1123


#DrMax #SEO #Промптоведение #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥185😁5💯2🆒1
😳 Аудитор EEAT страницы

Пересобрал аудитор EEAT. Эта штука опираясь на 80+ важнейших сигналов пытается разобраться с качеством контента на странице и выстроить прогнозы на ранжирование в Google.

Иногда также выдает полезные советы и генерирует план работ.

Пользоваться аккуратно и критично!

Используем:

➡️для оценки собственного контента

➡️для оценки конкурентов из ТОП 1-2

Можно настроить несколько уровней анализа

На входе:
➡️задаем URL анализируемой страницы
➡️можно подсунуть также код страницы (если java напрмер)
➡️можно подсунуть и список интентов (по желанию)

Будут отзывы в комментариях - сделаю улучшенную версию аудитора.

Доступ открыт на 2-3-4 дня: Юзаем вот тут

Моя новая книга:
📔 DrMax: Доказательное SEO 2026 + Введение в Промптоведение: https://t.me/drmaxseo/1144

Циклы промптоведения
тут: https://t.me/drmaxseo/1123


#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥354👍2
💥 Оптимизация под классификаторы ответа. Часть 1.

Если вы читали мою последнюю книжицу "DrMax: Доказательное SEO 2026", то вы уже знаете, что нынче оптимизация страницы выполняется для прохождения конвеера из четырёх классификационных фильтров. Прежде чем попасть в выдачу, страница оценивается классификаторами SSIT (Spam, Safety, Intent, Trust).

Давайте рассмотрим нынче Spam классификатор, который работает не на уровне одной страницы, а на уровне группы страниц вашего сайта. Даже качественный текст может быть подавлен, если он встроен в масштабируемый шаблон с повторяющимися:

➡️абзацами

➡️формулами обещаний

➡️одинаковыми блоками "почему мы"

➡️идентичной логикой перелинковки.

➡️ну и так далее

Если часть страниц из этого кластера страниц Гугл признает некачественными, то он автоматом распространит Spam фильтр на всю группу.

Одним из способов оптимизации является "разрыв шаблонов" и использование вариативности структуры, а не только уникальности текста. Речь идёт о сознательном проектировании структурной энтропии (structural entropy - степень отличия страниц друг от друга на уровне блоков, логики и последовательности).

Накидал анализатор группы страниц.

На вход засовывайте 10-20 URL страниц, ну или с десяток текстов/код страниц. Не забываем включить Дип Ресерч (иначе не прочитает он ваши страницы и будет выдумывать)

Доступен будет 2-3-4 дня (опять)

Попробовать можно вот тут.

SpamBrain-подобные системы учатся не на "плохих словах", а на поведенческих и шаблонных сигнатурах. Ломая шаблон - ломаете сигнатуру.


Моя новая книга:
📔 DrMax: Доказательное SEO 2026 + Введение в Промптоведение: https://t.me/drmaxseo/1144

Циклы промптоведения
тут: https://t.me/drmaxseo/1123


#DrMax #SEO #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥53👍21
SiteAnalyzer SEO Tools 3.4

Андрей Симагин выкатил новую версию расширения. В новой версии добавлена интеграция с панелью Google Search Console, в модуле Яндекс Вебмастер добавлена возможность фильтрации URL по разделу «Страницы в поиске», исправлено некорректное получение данных из Similarweb для браузера Firefox, исправлено некорректное определение канонических страниц для РФ доменов.

Интеграция с панелью Google Search Console

Интеграция с панелью «Google Search Console» – теперь буквально за пару кликов доступно более 15 расширенных инструментов фильтрации, сортировки и сравнения для эффективного аудита сайта, включающих отображение ключевых слов и страниц в поиске, динамику позиций поисковых запросов, статистику показов страниц и график их среднего CTR, отображение географии по странам, каннибализацию страниц и многое другое.

Доступные фильтры: Всего кликов, Всего показов, Средний CTR, Средняя позиция, Ключевые слова, Карта слов, Распределение показов, Страницы в поиске, CTR по позициям, Распределение CTR, Динамика запросов, Динамика URL, География, Устройства, Каннибализация, Интент запроса, Ранжирование, Позиции по месяцам.

Установить расширение для браузера
- Chrome
- Firefox

Подробное описание на сайте: https://site-analyzer.ru/articles/seo-extension-webmaster-google/


#DrMax
👍20👏753
💡 Trust-оптимизация под ИИ выдачу через самодостаточные блоки

Вчера в нашем SEO чате была дисскусия как проникнуть в ИИ выдачу (в частности Бинга, но это не важно). Есть масса приемов для повышения вероятности попадания в ИИ выдачу. Но важно понимать сам процесс.

Итак, разнообразные Answer-engines извлекают и пересобирают контент. Если абзац не самодостаточен, его либо не используют, либо используют без указания источника, либо отбрасывают как рискованный.

Отсюда в моих промптах часто встраиваются блоки, которые сразу готовы для цитирования. К примеру, более половины трафа в том же Бинге у меня приходит именно из ИИ цитат.

Самодостаточный блок включает:

➡️утверждение

➡️краткое объяснение

➡️границу применимости

➡️пример или источник.

Trust-классификатор, отбирающий цитаты, отвечает на вопрос "можно ли это использовать, не навредив пользователю и репутации системы?". Это основа.

Накидал для вас промпт, который будет чекать контент. Он анализирует загруженный текст, выявляет фрагменты, опасные или непригодные для цитирования нейросетями (из-за потери контекста или двусмысленности), и переупаковывает их в безопасные для цитирования модули.

Роль: Senior AEO (Answer Engine Optimization) Specialist & Trust/Citation Evaluator.
Контекст: AI-поисковики (Answer-engines) извлекают и пересобирают контент по модульному принципу. Если абзац текста не является самодостаточным или его смысл искажается при вырывании из контекста статьи, алгоритм маркирует его как "рискованный" (low cite-safety) и исключает из генеративной выдачи.
Цель: Провести аудит предоставленного текста на предмет безопасности цитирования (cite-safety) и переработать слабые участки в "Extractable Trust Blocks" (Самодостаточные Блоки Доверия).

Инструкция:
Проанализируй предоставленный текст [КОНТЕНТ] с учетом интента [ЦЕЛЕВОЙ ЗАПРОС] и выполни работу по следующим направлениям:

1. Оценка самодостаточности (Extractability Analysis):
- Проверь каждый смысловой абзац: сохраняет ли он 100% ясность, если прочитать его отдельно от остального текста?
- Выяви «слепые зоны контекста»: использование местоимений без пояснения (он, этот метод, в данном случае), ссылки на предыдущие абзацы («как сказано выше»).

2. Аудит безопасности и экспертности (Trust & Safety Assessment):
- Найди категоричные утверждения без указания границ их применимости.
- Оцени риск двусмысленности (может ли AI-агент неверно интерпретировать фрагмент при обобщении?).
- Определи фрагменты, которые при цитировании могут нанести вред пользователю или репутации источника из-за неполноты информации.

3. Проектирование Extractable Trust Blocks (Пересборка):
- Переработай проблемные участки контента. Каждый новый блок должен строиться строго по формуле:
• [Утверждение]: Четкий, однозначный тезис (ответ на вопрос).
• [Объяснение]: Краткое раскрытие сути (почему это так).
• [Граница применимости]: Ограничения (в каких случаях это работает/не работает).
• [Пример/Источник]: Фактическое подтверждение, цифра или отсылка к данным.

Формат вывода:
Структурируй ответ в виде таблицы (или четкого списка) со следующими колонками/пунктами:
1. Исходный фрагмент (с указанием статуса: "Готов к цитированию" / "Небезопасно использовать").
2. Выявленные проблемы (почему AI-поисковик отбросит этот блок или использует с ошибкой).
3. Оптимизированный Trust Block (переписанный по формуле самодостаточного модуля).
4. Краткое пояснение, как именно новый блок повышает cite-safety.

[ЦЕЛЕВОЙ ЗАПРОС]: {Вставь тему или запрос, например: "Как выбрать зимнюю резину"}
[КОНТЕНТ]: {Вставь текст для анализа}


Переменные:

➡️{Вставь тему или запрос}: ИИ нужно понимать, на какой вопрос гипотетически должен ответить AI-поисковик, извлекая текст.

➡️{Вставь текст для анализа}: Оптимальный объем от 2 до 5 тысяч символов. Не загружайте сразу портянки, иначе модель может "сгладить" результат.

Моя новая книга:
📔 DrMax: Доказательное SEO 2026 + Введение в Промптоведение: https://t.me/drmaxseo/1144

Циклы промптоведения
тут: https://t.me/drmaxseo/1123


#DrMax #SEO #Промптоведение #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16🔥811
🚨 Стратегический анализатор алгоритмической уверенности (ACE-Analyzer)

Чтобы понять, почему домен не ранжирует ИИ, создал ACE-Analyzer.

ОБЯЗАТЕЛЬНО Ознакомьтесь со статьей о методе Ренда Фишкина, где расписан основной базис. Без этого никуда!

Развивая утверждения Ренда Фишкина и основываясь на данные патентов и исследований, можно утверждать, что ИИ не «ранжирует» в классическом SEO-смысле. Он выбирает из распределения вероятностей, сформированного:

➡️параметрическими знаниями

➡️retrieval-данными

➡️уровнем доверия к сущности

➡️межграфовой согласованностью

Последний пункт очень интересен. Обязательно должны быть синхронизированы данные в трех графах

➡️Entity Graph: Structured data, Wikidata, Wikipedia, Knowledge Panels.

➡️Document Graph: Индексируемые, хорошо аннотированные документы.

➡️Concept Graph: Повторяемый нарратив, закреплённый в обучающем корпусе.

При этом ИИ усиливает сущности, присутствующие во всех трёх.

Итак, разработал хитрый инструмент предназначенный для верхнеуровневого аудита сущности бренда и выявления точек, где происходит «утечка» вероятности в пайплайне ИИ.

Он оценивает качество «Entity Home» (первоисточника данных о бренде), симулирует прохождение сущности через пайплайн ИИ (DSCRI-ARGDW) и рассчитывает коэффициент деградации уверенности.

Также он проверяет присутствие бренда в трех графах (Entity, Document, Concept) и анализирует порог подтверждения (Corroboration Threshold) через внешние авторитетные источники.

Перед запуском введите исходные данные:

1. Название Бренда/Сущности.
2. URL официального сайта (Entity Home) или страницы "О нас" на сайте.
3. Четко и полно укажите нишу/отрасль.
4. (Опционально) Можно добавить основных конкурентов для сравнения контекста.


ОБЯЗАТЕЛЬНО:
Включаем ДИП РЕСЕРЧ и PRO модель!!!
без этого будут только глюки. Если нужно, в закрепе канала можно найти Гемини ПРО за копейки.


⭐️ Проверить ваш сайт инструментом МЕГА ACE-Analyzer тут.


ИИ выдаст вам анализ, основанный на концепции мультипликативной деградации.

➡️Если C-final низкий (менее 20%), значит, что даже если вы напишете идеальный контент, ИИ побоится его рекомендовать, так как не уверен в источнике (бренд "галлюцинирует" или невидим для системы).

➡️Коэффициенты (Tau) - Обращайте внимание на этапы, где оценка падает. Если падает на Grounding: Вам не хватает внешних ссылок и упоминаний в авторитетных источниках. Если падает на Extraction: Структура вашего сайта (код/текст) сложна для машинного понимания.

➡️Corroboration Threshold: Если этот пункт отмечен красным, любые действия по созданию контента будут малоэффективны. Сначала нужно получить 2-3 "штампа доверия" от Википедии, Crunchbase или профильных СМИ.

Используйте инструмент минимум раз в квартал для глобального аудита. Исправьте "Entity Home" по предложенному шаблону (пункт 4 вывода). Работайте над внешним PR не для ссылочного веса (PageRank), а для валидации фактов (Knowledge Verification).

Ваша цель - присутствие во всех вариантах генерации ответов за счет высокой системной уверенности (High System Confidence). Этот подход переводит работу из плоскости "обмана алгоритма" в плоскость "помощи алгоритму быть уверенным в вас".

➡️➡️➡️ ВАЖНО: Это ДЕМО версия инструмента и будет работать 2-3-4 ближайших дня.

Моя новая книга:
📔 DrMax: Доказательное SEO 2026 + Введение в Промптоведение: https://t.me/drmaxseo/1144

Циклы промптоведения
тут: https://t.me/drmaxseo/1123


#DrMax #SEO #Промптоведение #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
👍83🔥33🆒1
This media is not supported in your browser
VIEW IN TELEGRAM
🎊 Обновления в GSC

Третьего дня Гугл выкатил для всех, анонсированную еще в декабре, функцию ИИ для отчета "Эффективность". Функция позволяет описывать задачу на естественном языке. Затем запрос преобразуется в подходящие фильтры и настройки, и отчет настраивается автоматически. По сути это костыли для тех, кто не хочет разбираться с Regex запросами, чтобы формировать сложные отчеты.

Вот здесь почитайте об этой функции.

Попробуйте запросы типа
"Выбери все транзакционные ключи и сравни их по периодам"
или
"Выбери страницы на которых припал трафик после обновления 5 декабря"
ну или еще как побалуйтесь.

Число запросов имеет дневое ограничение.

Также в декабре была анонсирована работа в GSC с привязанными социальными сетями. Ну и работа с брендовыми запросами (грозились прикрутить фильтр бренд запросов).

➡️Функция фильтрации по брендовым запросам предназначена для анализа запросов, привлекающих трафик на ваш сайт, путем автоматического различения брендовых и небрендовых запросов.

➡️Функция «Социальные каналы» позволяет просматривать результаты поиска по социальным сетям, связанным с вашим сайтом, непосредственно в Search Console.

Вездесущий Джон Мюллер прокоментировал, что: "На разработку обоих вариантов потребуется немного больше времени", имея в виду брендированные запросы и социальные сети. "Мы работаем над тем, чтобы оба варианта хорошо работали для всех пользователей. Иногда мы выпускаем функции постепенно, небольшими шагами, чтобы собрать отзывы и внести улучшения, а также собрать данные, прежде чем выпускать их более широко".

В целом, потихоньку консоль развивается. Возможно, что добавят и работу с LLM, как это сделал на днях вебмастер Bing.

Моя новая книга:
📔 DrMax: Доказательное SEO 2026 + Введение в Промптоведение: https://t.me/drmaxseo/1144

Циклы промптоведения
тут: https://t.me/drmaxseo/1123


#DrMax #SEO #GSC
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥105😁3
🥇 Как контекст контента определяет требуемые уровни качества для ранжирования. Часть №1.

SEO - это полностью контекстная дисциплина, а не набор универсальных правил (окромя ссылочного).

Контекст определяет какой уровень доверия требуется, какие признаки качества важны в каждой ситуации, какие факторы ранжирования имеют приоритет в каждом случае, для каждого сайта. Одни и те же сигналы могут значить разное в разных нишах, для разных типов запросов и разных целей сайта.

Алгоритм Google не монолитный (вы это хорошо понимаете, если прочитали мою книжицу). Он делит обработку на:

➡️Relevance - быстрая находка релевантного контента

➡️Quality - фильтрация по долгосрочным качественным сигналам

В условиях, где релевантность быстро находит контент, система качества может поймать и понизить его через месяцы.

Давайте рассмотрим как пример - оценку YMYL факторов. Так, для разных проектов нужны разные уровни опыта/экспертизы/авторитета/доверия в зависимости от темы:

➡️Не-YMYL: Достаточно обычного опыта.

➡️YMYL (услуги, финансы, медицина): Нужны строгие экспертные сигналы.

➡️E-commerce: Важны доверительные сигналы (isMerchant, политика возврата, контакты).

Вот еще несколько примеров:

➡️Если сайт неожиданно начинает публиковать нерелевантные темы, это разрушает его Topical Authority (siteFocusScore).

➡️Если заявленный образ сайта (например "экспертный ресурс") не совпадает с фактами (например, 500 AI-постов в день), Google может распознать это как обманный сигнал.

➡️Незадекларированные партнёрские ссылки и скрытая коммерческая логика ежедневно приводят к снижению доверия (scamness, spamrank).

➡️Слишком навязчивая реклама или элементы, мешающие восприятию, ухудшают опыт и влияют на качество страницы.

Улучшения должны начинаться с правильной интерпретации запроса:

➡️какой интент?

➡️уровень риска?

➡️кто целевая аудитория?

➡️кого Google считает подходящим ответом?

Только затем происходит техническая SEO-оптимизация.

Следовательно, контекстное соответствие мы определяем по вот такой цепочке: Query → Page → Entity → Format

Понимая при этом, что качество (для конкретного проекта/раздела/страницы) - это соответствие ожиданиям пользователя для конкретного контекста (интенции, риск-профиля, типа сущности), а не универсальным метрикам.

Выводы таковы:

Есть тысячи универсальных сигналов, общие для всех проектов. Но вот весомость (да и значимость/применимость) каждого сигнала - для всех проектов разные. Эти сигналы собираются и группируются в так называемые факторы ранжирования. Соответственно, значимость каждого фактора ранжирования для каждого проекта - уникальна.

Говоря по простому: что русскому хорошо - то немцу смерть.

В следующем посте я выдам вам инструмент, который попытается определить весомость и значимость факторов именно для вашего сайта, в зависимости от его контекста. Он служит для всестороннего аудита контекстной соответствия любой страницы современным SEO-системам (опираясь на сливы Гугла и данные судебных слушаний)


#DrMax #SEO #Google #контекст
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥232
🥈 Как контекст контента определяет требуемые уровни качества для ранжирования. Часть №2.

Инструмент: Контекстный SEO-аудитор (Contextual & API-Leak SEO Analyzer)

Предназначен для глубокого аудита веб-страниц с точки зрения современных алгоритмов оценки качества (Quality Systems), а не простого текстового ранжирования (Relevance). Он выявляет скрытые риски пессимизации, основанные на метриках из утечек API Google (scamness, spamrank, clutterScore и др.), и проверяет соответствие страницы контексту, E-E-A-T и риск-профилю запроса.

Инструмент анализирует контент, UX-элементы и структуру страницы, сопоставляя их с заявленной тематикой, интентом и типом сущности. Выдает скоринг качества, находит несоответствия (Hypocrisy Penalty) и генерирует план исправления.

Исходные данные: Текст/код/скриншот страницы (или URL), целевой поисковый запрос, тип тематики (YMYL / Non-YMYL) и тип продвигаемой сущности (бренд, продукт, автор).

Как пользоваться:

Задайте переменные для исследования

[ВСТАВИТЬ ЗАПРОС]: Главный поисковый запрос, под который оптимизируется страница. Пример: "купить корм для собак аллергиков", "симптомы выгорания", "обзор iPhone 15".

[ВСТАВИТЬ ТИП]: Укажите уровень риска, а именно

➡️High-YMYL (медицина, финансы, юриспруденция).
➡️Soft-YMYL (фитнес, советы по ремонту, лайфстайл-услуги).
➡️E-commerce (интернет-магазины).
➡️Non-YMYL (развлечения, хобби, общие знания).

[ВСТАВИТЬ СУЩНОСТЬ]: Кто стоит за страницей? Пример: "Интернет-магазин зоотоваров", "Медицинская клиника", "Анонимный автор-аффилиат", "Официальный представитель бренда", "ООО Рога и Копыта".

[ВСТАВИТЬ КОНТЕНТ ИЛИ ССЫЛКУ]: Укажите URL / скопируйте весь текст страницы (Ctrl+A -> Ctrl+C) или прикрепите полноразмерный скриншот страницы (зайдите в Edge и нажмите CTRL+SHIFT+S, потом выберите полноэкранный скрин).

Включаем обязательно Дип Ресерч и ПРО модель!

ЗАЮЗАТЬ Contextual & API-Leak SEO Analyzer

Инструмент выдаст детальный аудит, который покажет не технические ошибки кода, а смысловые и алгоритмические уязвимости. Вы получите:

➡️Четкое понимание, соответствует ли ваша страница тому, что Google ожидает увидеть в топе по этому интенту.

➡️Список ошибок /недочетов/ уязвимостей

➡️Конкретные оценки (скоринг), которые можно использовать как KPI до и после внедрения правок.

Как внедрять в SEO-процесс:

➡️Пост-апдейт аудит (Recovery): Если страница потеряла позиции после Core Update или Helpful Content Update, прогоните ее через этот промпт. Он с высокой долей вероятности укажет на Hypocrisy Penalty (заявка на экспертность при слабом контенте) или высокий clutterScore.

➡️QA перед публикацией (Pre-publish check): Внедрите этот промпт в работу редакторов. Перед публикацией лонгрида или запуском нового лендинга проверяйте, соответствует ли текст порогу E-E-A-T для заявленной ниши.

➡️Анализ конкурентов: Прогоните через инструмент топ-3 конкурентов в вашей нише. Посмотрите, какие Trust signals и форматы контента модель выделяет у них, и скопируйте этот подход.



Моя новая книга:
📔 DrMax: Доказательное SEO 2026 + Введение в Промптоведение: https://t.me/drmaxseo/1144

Циклы промптоведения
тут: https://t.me/drmaxseo/1123


#DrMax #SEO #Промптоведение #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥18👍43🗿1
✉️ Оптимизация страницы контактов.

Контактная страница (особенно для локального бизнеса) является полноценной посадочной страницей. Google постоянно краулит и парсит страницу контактов, так как она является источником фундаментальных данных о сущности бренда и бизнес-профиле. Следовательно, просто указать имя, адрес и телефон совершенно недостаточно, контактная страница должна быть максимально полной, структурированной и достоверной.

Страница контактов должна отражать идентичность бизнеса. На ней обязаны быть:

➡️Логотип и фирменный стиль, соответствующий сайту и профилям в Google.

➡️Краткое объяснение чем вы занимаетесь, где и почему клиентам стоит выбрать именно вас.

➡️Введение должно быть не сухим, а с заметной сущностной информацией.


Перечислим основные блоки страницы:

➡️Полное название бизнеса

➡️Телефоны + SMS номера

➡️Email + форма обратной связи

➡️Полный адрес

➡️Часы работы (включая праздничные/сезонные)

➡️Ссылки на соцсети

➡️Ссылка на Google Business Profile

➡️Встроенная карта Google, указывающая вашу бизнес-карточку, а не просто адрес

➡️Информация о способах оплаты и парковке

Необходимо понимать, что мелкие детали, такие как часы работы, способы оплаты, парковка усиливают сигнал "всё в одном месте" и повышают доверие как людей, так и алгоритмов.


Страница контактов должна содержать элементы доверия и социального доказательства. Например это могут быть:

➡️Отзывы (+ общее количество и средний рейтинг)

➡️ Тестимонии (или как их там...) с фотографиями клиентов

➡️ Участие в профессиональных сообществах

➡️ Награды, упоминания в СМИ, ссылки на третьи источники

➡️Членство в ассоциациях

Этот контент усиливает E-E-A-T (опыт, авторитет, доверие), увеличивает конверсию посетителей в клиентов, добавляет уникального контента, полезного для SEO.


Для локального бизнеса должны присутствовать локальные и специфические элементы:

➡️Упоминание района, города, окрестностей

➡️Фото команды и офиса

➡️Описание того, кого вы обслуживаете

➡️Особые атрибуты (например, доступность для инвалидных колясок, детская зона, WiFi)

Такая детализация помогает не только людям, но и AI-поиску, который всё чаще обрабатывает запросы в естественной речи ("кафе в Урюпинске с Wi-Fi и парковкой").

CTA на контактной странице призыв к действию) является важным функциональным элементом. Стратегически размещённые кнопки:

➡️ "Позвоните сейчас"

➡️ "Получить консультацию"

➡️ "Написать нам"

➡️ "Посмотреть на карте"

повышают конверсию. Их стоит дублировать по всей странице.

Смастерил супер мега гипер иструмент для проверки контактной страницы сайта. ОСОБО РЕКОМЕНДУЮ ИСПОЛЬЗОВАТЬ ЕГО ДЛЯ ЛОКАЛЬНОГо БИЗНЕСА.

📝 Введите перед запуском такие данные:

Ниша бизнеса: [указать отрасль, напр., стоматология/кафе/ремонт автомобилей].

Основная сущность (Brand/Business): [название бизнеса].

URL страницы контактов: [вставить URL / скрин страницы / код страницы в HTML].

🖥 ОТКРЫТЬ ИНСТРУМЕНТ ПРОВЕРКИ КОНТАКТНОЙ СТРАНИЦЫ

На выходе получаете полный разбор вашей контактной страницы и массу советов по её улучшению. Внедрять их или нет - дело сугубо ваше.

Моя новая книга:
📔 DrMax: Доказательное SEO 2026 + Введение в Промптоведение: https://t.me/drmaxseo/1144

Циклы промптоведения
тут: https://t.me/drmaxseo/1123


#DrMax #SEO #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1813👍531
Несколько слов о техническом состоянии сайта

На SEJ вышла статья, в коей обсуждается подкаст, где участвует Гари Иллиес. Так вот оный в очередной раз подтверил,что валидность HTML не является фактором ранжирования.

Собственно это далеко не секрет. Большинство якобы факторов ранжирования таковыми не являются. Та же валидность HTML никогда не даст бонусов в ранжировании сама по себе. А вот недоработки с валидностью могут организовать штрафы. Но не сам факт невалидности HTML, а тот факт что данная оплошность пораждает проблемы.

Гари Иллиес привёл пример, когда отсутствие закрывающего тега <span> делает HTML-код страницы технически недействительным, но, как выразился Иллиес, "для пользователя это ничего не изменит". И никакого штрафа тут не будет.

Но если представить, что понапутали с тегом <a> и развалили, допустим, перелинковку - то здесь уже будут проблемы, но не потому что код стал невалидным, а потому что "ссылочный сок" неправильно стал перераспределяться.

В целом, очень мало "факторов ранжирования", которые ведут к бусту и по настоящему могут считаться именно факторами ранжирования (например внешнее ссылочное). Большинство факторов (а вернее сигналов) работают только на штрафы и ухудшают ранжирование.

Еще интересным замечанием стало высказывание Мартина Сплита, который отметил, что семантическая разметка, такая как правильная иерархия заголовков и структурные элементы HTML5, также не имеет существенного значения для поисковых систем, хотя она полезна для доступности и удобства использования. Доверять ему или нет - дело сугубо каждого оптимизатора. Я считаю, что иерархия важна.

Там еще в статье есть немало интересного. Изучите на досуге.

ЗЫ

Собрал на днях инструмент "Проверка страницы "О компании"
задаем:
➡️URL страницы "О компании": [вставить URL/код/скрин]
➡️Основная сущность (brand): [название бизнеса]
➡️География услуги: [город/регион]
➡️Категория бизнеса: [например, сантехнические услуги]
выдает анализ и подсказывает что поменять. Включаем Дип ресерч.


Моя новая книга:
📔 DrMax: Доказательное SEO 2026 + Введение в Промптоведение: https://t.me/drmaxseo/1144

Циклы промптоведения
тут: https://t.me/drmaxseo/1123


#DrMax #SEO #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
👍125🔥3
🔺 Ищете мощные и надёжные ссылки с высоким DR? 🔺
MTPremium — команда профессионалов в линкбилдинге. Мы помогаем сайтам расти стабильно, безопасно и результативно. 🚀
#аутрич #ссылки #крауд #trustpilot #quora #seo #линкбилдинг

💥 Хотите бесплатно получать качественные ссылки, которые индексируются и реально передают вес сайту? Подписывайтесь на наш Telegram 👉 @mtpremium1 — свежие площадки и проверенные доноры уже ждут вас!

❗️ ТИПЫ ССЫЛОК:

Аутрич — прямые размещения на трастовых сайтах;
Крауд — естественные ссылки на форумах и блогах;
Сабмиты / Профили — быстрая индексация и дополнительный вес;
Trustpilot / Google отзывы — усиление репутации и доверия;
Quora / Reddit / Facebook / Pinterest — упоминания и органический трафик;
WEB 2.0 / Dofollow прогоны / Доступы — полное SEO-усиление.

❗️ ТИПЫ УСЛУГ:

Ссылочный план под ваш бюджет и нишу
Анализ ссылочного профиля конкурентов
SEO-аудит и стратегия развития сайта.

🌍 Работаем по всему миру:
US 🇺🇸 | UK 🇬🇧 | DE 🇩🇪 | FR 🇫🇷 | AU 🇦🇺 | IN 🇮🇳 | PL 🇵🇱 | JP 🇯🇵 и другие GEO

💰 Почему выбирают нас:
✔️ Индивидуальный подход к каждому проекту
✔️ Работаем только с живыми сайтами и реальными веб-мастерами
✔️ Полная прозрачность и отчётность
✔️ 10% скидка на первый заказ

📩 Напишите нам 👉 @mtpremium
Расскажите о своём проекте — и мы подберём лучшее решение для вашего роста! 🚀

#Гостевой_пост
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21🗿1
Аудит контента, E-E-A-T и оценка рисков HCU (теория)

Промпт предназначен для проведения аудита любой веб-страницы с точки зрения асессора Google (Quality Rater) и алгоритмов Helpful Content Update (HCU). Он отходит от базовых SEO-метрик (вхождения ключей, теги) и фокусируется на оценке добавленной ценности, экспертности автора, авторитетности домена и пользовательского интента.

Переменные для настройки:

[URL]: Ссылка на страницу, которую вы хотите проанализировать.

[БАЗА ЗНАНИЙ]: В блоке "План действий" вы можете вписать адрес вашего корпоративного блога, базы знаний агентства или авторитетного SEO-ресурса (например, site:developers.google.com/search. Модель будет искать инструкции по исправлению ошибок именно там.

Какой результат ожидать:
Вы получите жесткий, объективный аудит, который вскроет смысловые и структурные проблемы контента. Модель не будет придираться к тегам title или плотности ключевых слов, она укажет на отсутствие доказательств экспертизы автора, вторичность текста (отсутствие добавленной ценности) и плохой UX. В конце будет сформирован четкий план по спасению страницы от алгоритмических фильтров (HCU).

Интеграция в SEO-процесс:

➡️Пост-релизный контроль: Прогоняйте через этот промпт важнейшие посадочные страницы и лонгриды перед их публикацией или сразу после.

➡️Аудит падающего трафика: Если страница начала терять позиции после апдейтов Google (Core Update или HCU), используйте промпт для выявления E-E-A-T уязвимостей.

➡️Анализ конкурентов: Проанализируйте URL конкурента из ТОП-3, чтобы понять, за счет каких факторов "усилий" (Content Effort) и "оригинальности" он обходит вас, и используйте это для формирования ТЗ копирайтеру.

Сам промпт в следующем посте........
Please open Telegram to view this post
VIEW IN TELEGRAM
12👍9😁1
Аудит контента, E-E-A-T и оценка рисков HCU (промпт)

Текст промпта:

Роль: Senior SEO & Content Quality Analyst, эксперт по системам ранжирования Google (включая Helpful Content System) и принципам E-E-A-T.
Контекст: Проводится глубокий качественный анализ веб-страницы [URL] с целью алгоритмической оценки вложенных усилий, экспертности и ресурсов, затраченных на создание контента, а также выявления рисков пессимизации.
Цель: Отличить низкокачественный контент, созданный "только для поисковиков" (search-first), от высококачественного, экспертного контента, созданного "для людей" (helpful-first), и предоставить структурированный отчет с конкретными шагами по улучшению.

Инструкция:
Изучи контент по ссылке [URL] (или предоставленный текст) и выполни аудит по 5 уровням и 12 критериям. Для каждого критерия присвой оценку от 1 до 10 и предоставь краткое обоснование.

Предварительная оценка E-E-A-T (Опыт, Экспертность, Авторитетность, Достоверность):
- E-E-A-T Автора (Who): Идентифицируй автора. Есть ли биография? Является ли он проверяемым экспертом с реальным опытом в теме?
- E-E-A-T Издателя (Who): Идентифицируй сайт/компанию. Какова их репутация? Являются ли они авторитетным источником в данной нише?

Уровень 1: Фундаментальный анализ сущности и домена (Кто говорит?)
1. Авторство и Экспертиза (1-10): Оцени прозрачность авторства. (1-3: анонимно/нет данных; 7-10: четкий профиль с подтвержденной экспертизой).
2. Топический авторитет (1-10): Насколько тема страницы соответствует основной тематике сайта? (1-3: сильное отклонение; 7-10: жесткий фокус на ядре сайта).
3. Техническое здоровье и актуальность (1-10): Выглядит ли сайт поддерживаемым (актуальные даты, рабочие элементы) или заброшенным?

Уровень 2: Усилия и ценность контента (Какая работа проделана?)
4. Усилия на создание (1-10): Насколько сложно конкурентам повторить этот материал? (1-3: шаблонно, дешево; 9-10: оригинальные исследования, уникальные данные).
5. Оригинальность (1-10): Добавляет ли страница новую информацию в интернет или просто рерайтит топ выдачи?
6. Качество цитирования (1-10): Подкрепляются ли заявления ссылками на авторитетные первоисточники?
7. Свежесть и своевременность (1-10): Является ли информация вечнозеленой, актуальной или безнадежно устаревшей?

Уровень 3: Цель и пользовательский опыт (Зачем и как?)
8. Интент страницы (1-10): (1-3: обманчивый/создан ради трафика; 7-10: прозрачный, создан для помощи пользователю).
9. Структура и читабельность (1-10): Легкость сканирования текста (заголовки, списки, абзацы).
10. Мобильная адаптивность (1-10): Оценка UX/UI для чтения с мобильных устройств (шрифты, отступы, верстка).

Уровень 4: Специфическое соответствие типу контента
11. Выполнение стандартов формата (1-10): Соответствует ли контент ожиданиям от своего формата (например, наличие реальных фото в обзоре товара или строгий E-E-A-T для YMYL-статьи).

Уровень 5: Негативные сигналы и риски пессимизации
12. Доверие и спам-сигналы (1-10): (1-3: агрессивная реклама, кликбейт, обман; 7-10: чистый UX, отсутствие манипуляций).

Формат вывода:
Выведи результат строго в следующем формате:

1. URL: [Анализируемый URL]
2. Предварительная оценка E-E-A-T:
- Автор: [Анализ]
- Издатель: [Анализ]
3. Общее резюме и вердикт HCU:
- Краткий вывод (2-3 предложения).
- Риски HCU: [Кандидат на пессимизацию или алгоритмическое поощрение? Это search-first или helpful-first?]
- Прогноз удовлетворенности: [goodClicks или badClicks]
4. Итоговый балл качества (PQ): [Среднее арифметическое всех 12 оценок] / 10. (Краткое обоснование).
5. Детализация по 12 критериям:
- [Название критерия]: [Оценка/10] — [Обоснование]
6. План действий (Actionable Next Steps):
Выдели 2-3 критерия с наименьшими оценками. Для каждого:
- Проблема: [Суть]
- Решение: [Конкретное действие]
- Рекомендуемый материал: [Используй поиск по сайту [БАЗА ЗНАНИЙ] (например, site:твой-блог.com), чтобы найти и дать ссылку на статью, решающую эту проблему. Если база знаний не указана, дай общую best-practice рекомендацию].


#DrMax #Промптоведение #Промпт #HCU #EEAT
13🔥13😁3
😳 WordPress выпустил официальные плагины для интеграции Anthropic Claude, Google Gemini и OpenAI

WordPress разработал три новых плагина, которые упрощают интеграцию OpenAI, Google Gemini или Anthropic Claude с PHP AI Client SDK. Плагины обеспечивают поддержку текста, изображений, вызова функций и веб-поиска.

Для использования этих плагинов требуется PHP 7.4 или выше, а также, конечно же, ключ API для модели ИИ. Пользователям WordPress 6.9 потребуется установить SDK клиента PHP AI для WordPress . В WordPress 7.0, который выйдет в начале апреля, SDK будет интегрирован по умолчанию.

В официальной документации WordPress.org для клиента PHP AI поясняется следующее:

«SDK для PHP-клиента ИИ… предоставляет общую инфраструктуру, которая позволяет плагинам WordPress и другим PHP-проектам быстро и гибко интегрировать возможности ИИ. …он предлагает единый интерфейс, работающий со всеми поставщиками ИИ — от простой генерации текста до сложных многомодальных операций, потоковой обработки ответов и длительных задач».


Разработчики указывают, какие возможности ИИ им необходимы, а пользователи управляют своими учетными данными поставщика в одном месте. Затем эти учетные данные автоматически работают со всеми совместимыми плагинами на их сайте.

Функционал плагина OpenAI:

➡️Автоматическая регистрация поставщика услуг
➡️Поддержка вызова функций
➡️Генерация изображений с использованием моделей DALL-E
➡️Генерация текста с использованием моделей GPT
➡️Поддержка веб-поиска

У остальных примерно такое же

Скачать плагины тут:

AI Provider for Anthropic

AI Provider for Google

AI Provider for OpenAI

Вот теперь заживем ))) Мульоны дорвееподобных сайтов заполонят инет.


Моя новая книга:
📔 DrMax: Доказательное SEO 2026 + Введение в Промптоведение: https://t.me/drmaxseo/1144

Циклы промптоведения
тут: https://t.me/drmaxseo/1123


#DrMax #SEO #Wordpress
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁124😱33🗿2
✍️ Оптимизация для Query Fan-Out (Скрытые AI-запросы)

AI-поиск использует механизм query fan-out: выполняется множество связанных запросов, результаты которых объединяются в ответ. В прошлом году, прямо в Хроме можно было посмотреть пул запросов, которые генерировал ИИ при поиске ответа на ваш промпт. Потом это дело прикрыли - ибо это была мега фишка и позволяла построить страницу, которая закрывала целый кластер вопросов.

Ныне приходиться оное моделировать. Ниже приведен промпт, который моделирует логику работы ИИ-поисковика, разбивающий один пользовательский запрос на множество подзапросов (веерный поиск) для сбора полного ответа. Он раскладывает интент на составляющие и подсказывает, какие блоки контента нужны для закрытия всего кластера.

Исходные данные: Основной ключевой запрос пользователя (интент).

Роль: AI Search Engineer & Semantic Architect.
Контекст: Генеративные поисковые системы используют механизм «query fan-out», разбивая сложный запрос пользователя на микро-запросы для агрегации данных из разных источников перед выдачей ответа.
Цель: Смоделировать процесс query fan-out для заданного поискового запроса, чтобы создать исчерпывающую структуру страницы, закрывающую все ветви генеративного поиска.

Инструкция:
Проанализируй запрос [КЛЮЧЕВОЙ ЗАПРОС] и выполни декомпозицию по следующим шагам:

1. Классификация интента:
- Определи основной и скрытые интенты (информационный, транзакционный, исследовательский).

2. Моделирование Fan-Out (Веерные запросы):
- Сгенерируй 10 связанных микро-запросов (subqueries), которые LLM отправит в свою базу или поисковый индекс для формирования полного ответа на основной запрос.

3. Структура контента (Content Sections):
- На основе веерных запросов предложи структуру статьи (H2-H3), которая семантически закроет каждый из них.

Формат вывода:
Структурированный отчет:
– Основной интент.
– Список из 10 LLM-подзапросов.
– Рекомендованная архитектура статьи (H2/H3) с кратким пояснением, какой микро-запрос закрывает каждый блок.


Руководство по использованию:

Переменные: [КЛЮЧЕВОЙ ЗАПРОС] - впишите ВЧ или СЧ запрос, под который оптимизируется хаб или лонгрид.

Настройка: Можно ограничить нишу, добавив «Учитывай специфику ниши: [НИША]».

Вы получаете план статьи, оптимизированный под ИИ-агрегацию, а не просто под частотность слов.

Используйте полученную структуру как ТЗ для копирайтера. Это гарантирует, что ИИ-поисковик найдет ответы на все свои внутренние микро-запросы на одной вашей странице, что резко повысит шансы попадания в AI Overview.

Что я писал ранее про Query Fan-Out:

Как работает Query Fan-Out (на основе патентов)

Краткий анализ патента Google US20240289407A1

Заголовки H1-H6: Программируем контент

Семантический кокон 2.0: Проектируем структуру

Семантический кокон 2.0: Решение проблем реализации на живом проекте

ну и много всего прочего ))) Используйте поиск по каналу.

Моя новая книга:
📔 DrMax: Доказательное SEO 2026 + Введение в Промптоведение: https://t.me/drmaxseo/1144

Циклы промптоведения
тут: https://t.me/drmaxseo/1123


#DrMax #SEO #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
10🔥133👍11
🔄 LLM Memory Anchors (Якоря памяти LLM)

Это новая фишка в оптимизации под GEO - использование запоминающихся формулировок, которые легко цитируются, легко перефразируются и становятся "стандартным объяснением" для ИИ.

Ниже привожу промпт.

Он анализирует контекст и генерирует набор лаконичных, контрастных и семантически плотных утверждений (афоризмов). Эти фразы сконструированы так, чтобы LLM-модели (использующие RAG-архитектуру) с высокой вероятностью захватывали их как "базовую истину" (ground truth) при формировании ответа.

Промпт таков:
Роль: Senior AI Content Strategist & AIO (AI Optimization) Expert.

Контекст: Выполняется оптимизация контента для генеративных поисковых систем (AI Overviews, Perplexity) и RAG-систем. Известно, что LLM-модели отдают приоритет хорошо структурированным, контрастным и плотным формулировкам, воспринимая их как авторитетные источники и "базовую истину".

Цель: Создать набор из 10 "LLM Memory Anchors" (семантически плотных фраз-якорей), которые кристаллизуют суть заданной темы, обладают высоким вирусным потенциалом для людей и идеально подходят для извлечения искусственным интеллектом.

Инструкция:
На основе вводных данных [ТЕМА СТАТЬИ / ТЕЗИС] и с учетом тональности [TONE OF VOICE], разработай 10 уникальных формулировок "LLM Memory Anchors".

При создании каждого якоря строго соблюдай следующие правила:
1. Контрастность: Используй противопоставления (антитезу) для усиления смысла (например: "Раньше SEO было про ссылки, теперь SEO — это управление сущностями").
2. Лаконичность: Длина фразы строго не более 15 слов. Никакой "воды" и вводных конструкций.
3. Однозначность и самодостаточность: Фраза должна быть абсолютно понятна вне контекста статьи. Не используй местоимения, требующие отсылки к предыдущему тексту.
4. Высокая плотность смысла: Используй максимум профильных терминов и LSI-слов при минимуме стоп-слов. Каждое слово должно нести вес.
5. Ритмичность: Фраза должна легко читаться вслух и иметь четкую структуру (например, формула: [Проблема/Статус-кво] -> [Решение/Новая парадигма]).

Формат вывода:
Выведи результат в виде структурированной таблицы со следующими колонками:
- №
- LLM Memory Anchor (сама сгенерированная фраза)
- Тип фреймворка (например: Контраст, Определение, Причина-Следствие)
- Рекомендация по внедрению (в какой блок статьи — H1/Lead, H2, Вывод, TL;DR — её лучше всего интегрировать).

Вводные данные:
[ТЕМА СТАТЬИ / ТЕЗИС]: {Вставьте вашу тему или тезис или URL или текст статьи}
[TONE OF VOICE]: {Вставьте тональность, например: B2B экспертный, дерзкий, академический}


Здесь:

[ТЕМА СТАТЬИ / ТЕЗИС]: Сюда нужно вписать не просто ключевое слово, а главную мысль, которую вы хотите донести.

➡️Плохо: "Продвижение сайтов".

➡️Лучше: "В 2026 году техническое SEO стало минимумом, а поведенческие факторы и экспертность авторов - главным драйвером роста".

Можно подсунуть URL или всю текстовку статьи - но тогда ждите "размытия" мыслей )))

[TONE OF VOICE]: Укажите голос бренда. Это поможет ИИ подобрать правильные слова.

Варианты: строгий B2B, инфостиль, провокационный/вирусный, научный/академический и т.д.

Как внедрять:

➡️Блоки Key Takeaways / TL;DR: Разместите 2-3 лучших якоря в самом начале статьи в маркированном списке. ИИ-парсеры часто анализируют верхнюю часть документа (Above the fold) в первую очередь.

➡️HTML-разметка: Оборачивайте эти фразы в теги <blockquote> (цитата), выделяйте тегами <strong> внутри обычных абзацев, или оформляйте их как CSS-блоки "Врезка/Важно". Это дает поисковому боту сигнал о значимости фрагмента.

➡️Структурирование H2/H3: Используйте якоря как расширения для подзаголовков.

➡️Мультиканальная дистрибуция (Social Signals): Используйте сгенерированные фразы как готовые посты для Telegram, Twitter (X), LinkedIn со ссылкой на вашу статью.

Моя новая книга:
📔 DrMax: Доказательное SEO 2026 + Введение в Промптоведение: https://t.me/drmaxseo/1144

Циклы промптоведения
тут: https://t.me/drmaxseo/1123


#DrMax #SEO #Промпт #Промптоведение
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥4😁11
🔹 Мини-методика поиска точек роста

Хочу поделиться простой схемой поиска точек роста по проекту 👇

Берём сайт и смотрим:

1️⃣ Анализ запросов
Это самая быстрая зона роста.
Ищем и анализируем запросы. Отстающие, выпавшие, с каннибализацией. Не забываем делать пересбор СЯ.

2️⃣ Страницы с большим количеством запросов, но без трафика
Здесь почти всегда проблемы со структурой или интентом.

3️⃣ Конкурент, который «перепрыгнул» вас
Что он усилил?
Контент? Блоки? Коммерцию?

4️⃣ Title и базовая оптимизация, соответствие интенту
Иногда банальная недоработка.

Раньше я это всё собирал вручную. Сейчас большую часть можно увидеть в одном месте.

В Qvisor мы добавили инструмент, который собирает эти зоны в «План развития» — по сути, структурированный список направлений, где вы теряете потенциал.

Но даже если не пользоваться сервисом — сохраните себе чек-лист выше.
Иногда достаточно просто систематизировать взгляд на проект.

🟢Матрица приоритетов SEO

🟢Проверяйте позиции и получите план развития - 5 дней премиума и 1000 проверок в подарок!

🟢Как превратить позиции в точки роста и план действий - запись вебинара


#Гостевой_пост
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6😁4🔥11
Как перестать расти в iGaming и уйти на завод

Чтобы успешно перестать развиваться в гемблинге, просто игнорируй новые ГЕО, верь, что твоя связка будет работать вечно и не следи за трендами.

А если все-таки не собираешься на завод и хочешь окупать трафик, тогда посмотри, какой маст-хэв выкатили ребята из 01.tech и G GATE MEDIA.

01 GiR - огромный аналитический отчет о глобальном рынке iGaming, который подскажет:

⚪️ какие ГЕО дают самый быстрый рост, а где рынок падает;
⚪️ ключевые регуляторные изменения и как они режут / открывают трафик;
⚪️ что там с SEO и баингом в iGaming: рабочие источники, форматы, подходы креативам и аккаунтам;
⚪️ популярные платежные методы по регионам и динамику adoption криптовалют;
⚪️ какие регионы лучше для white-label запуска и не только.

Если хочешь знать, где в iGaming сейчас деньги, где риски и куда рынок двигается в 2026 году, смотри
ПОЛНУЮ ВЕРСИЮ GiR

#Гостевой_пост
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🗿21🔥1😱1