Вывод: Анализ логов и управление краулингом - это не просто аудит или исправление ошибок. Вы активно формируете у Google "правильное" представление о вашем сайте, подсовывая ему самые ценные страницы и жестко отсекая все лишнее. Это один из мощнейших рычагов технического SEO, которым большинство пренебрегает.
Копайте логи.
#DrMax #SEO #Crawling #LogAnalysis
Копайте логи.
#DrMax #SEO #Crawling #LogAnalysis
👍17🔥4👀3👏2 2
Анализ "пустых" хитов и охота на зомби-рендеры
Googlebot работает в две фазы: сначала скачивает HTML (простой GET-запрос), а потом, если сочтет нужным, запрашивает ресурсы (JS, CSS) и рендерит страницу. Рендеринг — это дорого. Google не будет тратить на него ресурсы, если считает страницу мусором.
Анализ: Берем логи и находим страницы, которые Googlebot (особенно Smartphone) регулярно сканирует (получает HTML), но при этом никогда или крайне редко запрашивает связанные с ними критически важные JS/CSS файлы. Это и есть "пустые" хиты. Бот приходит, видит, что это очередная бесполезная страница пагинации, тега или фильтра с неуникальным контентом, и уходит, даже не пытаясь ее рендерить. Для Гугла это страница-зомби, которая просто жрет бюджет.
Внедрение: Список таких URL — это карта для безжалостной чистки.
Практика: Если это страницы фильтров или сортировок, которые генерируют тысячи дублей, закрывайте их в robots.txt и используйте rel="canonical". Если это "пустые" страницы тегов или старые, некачественные статьи — не жалейте их. Сливайте их 301-м редиректом на более релевантные категории или статьи, либо удаляйте и отдавайте 410 код. Высвобожденный рендер-бюджет Google перераспределит на важные, качественные страницы, что напрямую ускорит их переиндексацию и улучшит ранжирование.
Идентификация "сигналов свежести" и принудительное обновление
Google любит свежий контент, но как он определяет, какой раздел сайта должен обновляться часто, а какой — нет? Он смотрит на историю. Если вы регулярно обновляете раздел "Новости", он будет его краулить ежедневно. А если раздел "Инструкции" не трогали год, он будет заходить туда раз в месяц. Мы можем этим управлять.
Анализ: Сегментируйте логи по разделам сайта (/blog/, /catalog/, /services/) и постройте графики частоты краулинга для каждого из них за последние 3-6 месяцев. Вы увидите, какие разделы Google считает "живыми", а какие — "архивными". "Архивные" разделы теряют краулинговый приоритет, и даже если вы добавите туда новую страницу, ее могут не замечать неделями.
Внедрение: Нужно принудительно "пробуждать" спящие, но важные разделы.
Практика: Выберите стратегически важный, но "уснувший" раздел. Возьмите 3-5 самых трафиковых страниц из этого раздела и внесите в них минимальные, но значимые изменения: обновите скриншоты, добавьте новый абзац с актуальными данными, вставьте видео. Обновите дату <lastmod> в сайтмапе только для этих страниц. Googlebot, увидев изменения на старых, авторитетных URL, воспринимает это как сигнал: "Ага, этот раздел снова ожил!". Он резко повышает частоту краулинга всего раздела, быстрее находит новые страницы и начинает переоценивать релевантность старых в свете новых данных. Это способ искусственно создавать "freshness-сигналы" там, где вам это нужно.
Копайте глубже. Логи - это не просто отчеты о прошлом. Это возможность управления будущим проекта.
PS
Еще больше приемов буду накидывать в комменты, как вот тут:
https://t.me/drmaxseo/961?comment=50969
https://t.me/drmaxseo/964?comment=50993
#DrMax #SEO #LogAnalysis #TechnicalSEO
Please open Telegram to view this post
VIEW IN TELEGRAM
❤27👍7 3🆒2👏1
Продолжаем цикл статей.
3.1. Сегментация по типам Googlebot'ов
При анализе обычно делят ботов на Desktop и Smartphone. При этом не анализируют специализированные краулеры: Googlebot-Image, Googlebot-Video, AdsBot-Google (для проверки целевых страниц рекламы), Google-Read-Aloud.
Анализ: Фильтруем логи отдельно по каждому из этих user-agent'ов. Ищем аномалии и расхождения.
Пример 1: Googlebot Smartphone активно сканирует страницы товаров, но в логах почти нет хитов от Googlebot-Image на эти же страницы. Изображения товаров, скорее всего, подгружаются через JS-событие, которое основной бот рендерит, а имидж-бот - нет. Ваши картинки не попадают в Google Images, и вы теряете трафик.
Пример 2: AdsBot-Google обходит посадочные страницы для Google Ads раз в три дня, и time-taken для него выше среднего. Исходя из этого вы платите за рекламу, но бот считает ваши лендинги медленными, что напрямую пессимизирует Quality Score и повышает цену клика.
В первом случае вы идете к разработчикам с задачей обеспечить прямую, видимую в HTML-коде ссылку на изображение без JS-манипуляций. Во втором — ваша команда PPC и разработчики получают сигнал о том, что именно эти посадочные страницы требуют немедленной оптимизации скорости, потому что они прожирают рекламный бюджет.
3.2. Анализ хронологии краулинга и вычисление "индекса тупиковости"
Мы анализируем ЧТО краулит бот, но почти никогда не смотрим, В КАКОМ ПОРЯДКЕ он это делает. Пошаговая реконструкция "сессии" одного Googlebot'а вскрывает все дефекты внутренней перелинковки.
Анализ: Берем IP-адрес одного Googlebot'а и фильтруем все его хиты за определенный промежуток времени (например, за несколько часов). Сортируем их по timestamp. Теперь мы видим маршрут перемещений краулера: откуда он пришел и куда пошел дальше. Ищите "тупики" и "петли".
Тупик: Бот заходит на страницу (например, карточку товара) и следующий его хит — это уже совершенно другой раздел сайта. Это значит, что на этой странице нет логичных ссылок для продолжения обхода кластера.
Петля: Бот ходит по кругу между страницами пагинации или фильтров, не в силах выбраться на страницы с реальным контентом.
Вычисляем "индекс тупиковости" для разных типов страниц — процент сессий, которые обрываются на них. Для страниц с высоким индексом нужно внедрять блоки контекстной перелинковки ("С этим товаром покупают", "Похожие статьи"). Для страниц, создающих "петли", нужно пересмотреть логику навигации, возможно, закрыв часть ссылок через rel="nofollow" или JS, чтобы направить бота по нужному маршруту.
3.3. Аудит размера ответа (Response Size)
Многие помешаны на скорости ответа (time-taken), но забывают про его размер (bytes-sent). Для Гугла каждая страница — это "стоимость" в ресурсах. Страница весом 2 МБ "дороже" страницы весом 200 КБ. При ограниченном бюджете бот предпочтет обойти 10 "дешевых" страниц вместо одной "дорогой".
Сортируем все HTML-страницы, которые сканировал Googlebot, по среднему размеру ответа. Игнорируем картинки и скрипты, смотрим только на сам документ. Выявляем топ-10% самых "жирных" страниц. Обычно это страницы, где в HTML запихали огромный CSS, JS-код или base64-картинки. Список этих URL - это список страниц на оптимизацию. Необходимо уменьшить HTML payload этих страниц. Это достигается выносом всего возможного CSS и JS во внешние кэшируемые файлы, оптимизацией DOM-структуры, отказом от встраивания тяжелого контента напрямую в HTML. Каждое уменьшение размера ответа на 100 КБ на важных страницах высвобождает краулинговый бюджет, который будет потрачен на обход новых или более глубоко вложенных страниц. Грубо говоря - это инвестирование в ширину и глубину индексации сайта.
Эти методы требуют более глубокого погружения, но и результат дают совершенно иного порядка, чем рассмотренные ранее.
Есть еще масса приемов по работе с краулингом, но они крайне специфичны, уникальны, массово не применимы и достаточно дорогие по человекочасам. Поэтому, в рамках цикла статей, их рассматривать не будем.
На этом и закончим )))))
#DrMax #SEO #LogAnalysis #TechnicalSEO
Please open Telegram to view this post
VIEW IN TELEGRAM
🆒15❤12👏5👍3 1
Важное предупреждение: Этот анализ является теоретическим и основан на выводах судебного разбирательства. Попытка манипулировать этими сигналами в больших масштабах нарушает правила Google для веб-мастеров и может привести к серьезным санкциям, вплоть до полного исключения сайта из индекса. Информация предоставляется для понимания механики, а не как руководство к действию.
Главная цель: Оркестрация сигналов взаимодействия с пользователем (Navboost/Glue)
Это наиболее мощный и наименее публичный рычаг. Суд прямо называет эти данные «плодом» антиконкурентного поведения Google. Воздействие на них — это воздействие на первопричину качественного преимущества Google.
Создание аутентичных пользовательских сценариев (User Engagement Narratives)
По сути - это не прямая накрутка кликов, а симуляция полноценного пути пользователя, который нашел идеальный ответ на свой вопрос.
Пример: Продвижение сайта по теме «экологичные модульные дома»
Задача: Заставить Google поверить, что ваш сайт (например, EcoModular.com) является лучшим ресурсом по этой теме.
Шаг 1: Инициация поиска.
Группа пользователей (реальных или симулированных через бот-сеть, способную имитировать человеческое поведение) начинает поиск не с прямого запроса. Они начинают с более широких, информационных запросов, как это делают реальные люди:
Шаг 2: Взаимодействие с поисковой выдачей (SERP Interaction) — Ключевой этап.
В результатах поиска пользователи видят несколько сайтов. Они могут кликнуть на 1-2 конкурентов, но быстро возвращаются назад (это называется «pogo-sticking»). Google фиксирует это как негативный сигнал для конкурентов. Затем они кликают на ваш сайт EcoModular.com и не возвращаются.
Шаг 3: «Длинный клик» (Long Click) и взаимодействие на сайте.
После перехода на ваш сайт пользователь не просто остается там, он активно взаимодействует с контентом:
Google видит это так: «Пользователь по запросу X нашел EcoModular.com, перестал искать дальше и глубоко погрузился в контент. Задача решена успешно». Это мощнейший положительный сигнал для системы Navboost.
Шаг 4: Усиление через брендовые запросы.
Через некоторое время те же пользователи выполняют брендовые запросы:
Это сигнализирует Google, что ваш бренд стал для пользователей синонимом авторитета в данной нише.
ЗЫ
Ковыряясь в документе я нашел несколько относительно непубличных методов оптимизации. Если гугловцы не врут суду, то даже теоретическое ознакомление с ними представляет определенный интерес. Возможно, выложу некоторые из них.
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
❤32🔥15👍5😁5 1
Важное предупреждение: Этот анализ является теоретическим и основан на выводах судебного разбирательства.
FastSearch — это отдельная, проприетарная технология для ИИ. Это не основной поиск Google. Это специализированный инструмент, созданный для конкретной цели: предоставления данных для генеративных моделей, таких как AI Overviews.
"To ground its Gemini models, Google uses a proprietary technology called FastSearch."
FastSearch оптимизирован под скорость, а не под абсолютное качество. Система намеренно спроектирована так, чтобы быстро выдавать «сокращенные» (abbreviated) результаты. Это означает, что она предпочитает источники, из которых легко и быстро извлечь информацию.
"FastSearch delivers results more quickly than Search because it retrieves fewer documents, but the resulting quality is lower than Search’s fully ranked web results."
Его задача — «заземление» (Grounding) LLM. FastSearch — это часть механизма Retrieval-Augmented Generation (RAG). Его цель — найти в вебе фактическую информацию, чтобы ответ ИИ не был «галлюцинацией», а основывался на реальных данных.
"Recall, FastSearch is a technology that rapidly generates limited organic search results for certain use cases, such as grounding of LLMs..."
FastSearch основан на сигналах RankEmbed.
RankEmbed — это ИИ-модель, которая отлично справляется с «длинными» (long-tail) запросами и пониманием семантики. Это значит, что FastSearch также хорошо понимает специфические, детальные запросы пользователей.
"FastSearch is based on RankEmbed signals—a set of search ranking signals—and generates abbreviated, ranked web results that a model can use to produce a grounded response."
Итак, чтобы доминировать в AI Overviews, контент должен быть оптимизирован не для основного алгоритма Google, который ищет лучший всесторонний ответ для человека, а для вторичного, более быстрого алгоритма FastSearch, который ищет наиболее удобный, структурированный и легко «усваиваемый» ответ для машины (LLM).
Практическая реализация такова:
Возьмем опять наши любимые электрочайники (для магазина по прдаже бытовых товаров). Нам нужно сделать страницы сайта лучшим источником для FastSearch, чтобы AI Overviews использовал именно эту информацию при ответе на запросы пользователей о чайниках, ссылаясь на сайт. Используем метод создания «Машиночитаемых Страниц-Ответов» (Machine-Readable Answer Pages). Это стратегия создания контента, где приоритетом является не повествование для человека, а максимальная структуризация и атомарность данных для ИИ.
1. Структура страницы продукта: Оптимизация под извлечение фактов (Fact Extraction)
Традиционная страница продукта может содержать маркетинговые описания и отзывы. Страница, оптимизированная под FastSearch, должна быть похожа на техническую спецификацию или базу данных.
Пример для страницы «Электрический чайник Bosch TWK7203»:
Заголовок <h1>: Должен быть четким и полным названием продукта.
Электрический чайник Bosch TWK7203, 1.7 л, нержавеющая сталь
Блок «Ключевые характеристики» (сразу под заголовком): Это самая важная часть для FastSearch. Это готовый, «сокращенный» ответ.
Объем: 1.7 л
Мощность: 2200 Вт
Материал корпуса: Нержавеющая сталь, пластик
Тип нагревательного элемента: Скрытый (диск)
Ключевая особенность: 7 температурных режимов (70-100°C), функция KeepWarm.
Таблицы вместо текста: Вместо того чтобы описывать функции в абзацах, используйте таблицы. LLM гораздо проще парсить таблицы.
Функция Описание
TemperatureControl 7 температурных режимов: 70°C, 80°C, 85°C, 90°C, 95°C, 100°C
KeepWarm Function Поддержание заданной температуры в течение 30 минут
Безопасность Автоматическое отключение при закипании, защита от перегрева
Микроразметка Schema.org: Это критически важно. Вы должны «объяснить» машине, что означает каждая часть вашей страницы. Используйте schema.org/Product с максимальным количеством заполненных полей: model, brand, power, capacity, а также review, aggregateRating.
(продолжение следует....)
#DrMax #FastSearch
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16❤4 1
Создание страниц-хабов для сравнительных и «длинных» запросов
FastSearch и RankEmbed сильны в «длинных» запросах. Создайте страницы, которые отвечают именно на такие запросы, делая это в максимально структурированной форме.
Пример 1: Страница-ответ на запрос «какой чайник выбрать для зеленого чая»
Заголовок <h1>: Лучшие электрические чайники для заваривания зеленого чая
Краткий ответ (для AI Overview): «Для зеленого чая идеально подходят чайники с контролем температуры, позволяющие нагреть воду до 70-80°C. Оптимальными моделями являются Bosch TWK7203 и Philips Avance HD9359/90 благодаря наличию нескольких температурных режимов.»
Таблица сравнения:
Модель | Режимы температуры (°C) | Объем (л) | Материал | Ссылка на товар
Bosch TWK7203 ...
Philips Avance...
Xiaomi Mi Smart Kettle...
Добавьте блок с вопросами и ответами, размеченными соответствующей схемой.
В: "Почему важна температура для зеленого чая?"
О: "..."
В: "Какой материал чайника лучше?"
О: "..."
Пример 2: Страница-ответ на запрос «самый тихий электрический чайник»
Заголовок <h1>: Рейтинг самых тихих электрических чайников 2025 года
Краткий ответ (для AI Overview): «Самыми тихими считаются чайники с двойными стенками и мощностью до 2000 Вт. Лидерами по низкому уровню шума являются модели с отметкой Quiet Mark, такие как Braun PurEase WK 3110.»
Таблица сравнения с указанием уровня шума (если данные доступны) или качественной оценки.
«Заземление» авторитетности для ИИ
AI Overviews должен доверять вашему источнику. Добавьте сигналы, которые машина может интерпретировать как доказательство достоверности.
Ссылки на первоисточники: На странице продукта ссылайтесь напрямую на официальную страницу производителя (например, на сайт Bosch.com).
Ссылки на сертификаты: Если чайник имеет сертификаты безопасности (EAC, CE), предоставьте ссылки на документы или упоминания об этом.
Цитирование инструкций: Приводите точные цитаты из руководства пользователя по функциям.
Итак, чем отличается традиционное SEO от оптимизации под FastSearch:
SEO цель контента:
Вовлечь и удержать пользователя, убедить купить.
FastSearch:
Быстро и точно предоставить факты для суммирования.
SEO формат:
Длинные статьи, повествование, эмоциональные отзывы.
FastSearch:
Короткие блоки, таблицы, списки, структурированные данные.
SEO язык:
Маркетинговый, убеждающий, «живой».
FastSearch:
Технический, лаконичный, однозначный, «машинный».
SEO ключевой элемент:
Качественный, уникальный текст.
FastSearch:
Структура, структура и еще раз структура.
SEO подтверждение:
Социальные доказательства (отзывы, лайки).
FastSearch:
Ссылки на первоисточники (производители, сертификаты).
Появление AI Overviews создает новую парадигму оптимизации. Вместо того чтобы быть лучшим рассказчиком для человека, вы должны стать лучшей базой данных для машины. Стратегия заключается в том, чтобы сделать ваш контент настолько легким для машинного анализа и извлечения фактов, что Google будет экономически выгоднее и быстрее использовать вас как источник для своих генеративных ответов, чем анализировать менее структурированные сайты конкурентов.
#DrMax #SEO #FastSearch
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13 8❤5👍5
Важная мысль на выходные
Любая SEO-стратегия, игнорирующая пользовательские сигналы, обречена на провал в долгосрочной перспективе. Ссылки и контент — это лишь «заявка» на релевантность. Реальное решение о ранжировании принимается на основе того, как пользователи взаимодействуют с вашим сайтом в сравнении с конкурентами.
#DrMax
Любая SEO-стратегия, игнорирующая пользовательские сигналы, обречена на провал в долгосрочной перспективе. Ссылки и контент — это лишь «заявка» на релевантность. Реальное решение о ранжировании принимается на основе того, как пользователи взаимодействуют с вашим сайтом в сравнении с конкурентами.
#DrMax
👍45💯4❤1 1
Вычитал намедни у уважаемого Shaun Anderson рассуждения про QBST. Статья определяет QBST (Query-Based Salient Terms — Запросо-ориентированные значимые термины) как фундаментальный алгоритм Google, который работает как «система запоминания» (memorisation system). Для конкретного поискового запроса QBST «запоминает» список слов, фраз и концепций, которые он ожидает найти на релевантной странице. Например, для «лучшие кроссовки» он ожидает увидеть слова «амортизация», «стабильность», «легкие» и т.д.
Автор утверждает, что это открытие подтверждает давно существующие в SEO теории о «совместно встречающихся словах» (co-occurring words) и «тематическом авторитете» (topical authority). Основная стратегия для внедрения - это обратный инжиниринг. Нужно анализировать страницы в топе выдачи, чтобы определить эти «значимые термины», и создавать исчерпывающий контент, который естественным образом включает всю эту «констелляцию» слов.
Проверил все эти утверждения в упомянутом мной ранее Memorandum Opinion по тексту судебного заключения.
Итак, статья абсолютно права в том, что концепция «системы запоминания» была центральной в показаниях свидетелей. Однако в финальном Меморандум-заключении судьи эта функция приписывается в первую очередь системе Navboost, а не QBST.
Цитата из документа (Page 157):
"Navboost is a “memorization system” that aggregates click-and-query data about the web results delivered to the SERP. Liab. Tr. at 1804:8–1805:22, 1806:8-15 (Lehman). Like Glue, it can be thought of as “just a giant table.” Id. at 1805:6-13 (Lehman)."
Это ключевой момент. Судья в своем итоговом решении выделяет именно Navboost как систему, которая «запоминает» успешные взаимодействия пользователей. Она работает как гигантская таблица, связывающая запросы с URL, на которых пользователи завершили свой поиск (длинный клик). Статья цитирует более ранний документ из дела ("Plaintiffs’ Proposed Findings of Fact"), где показания свидетеля могли быть представлены иначе. В итоговом же решении судьи акцент сделан на Navboost как на основной «системе запоминания», основанной на поведении пользователей.
При поиске по всему тексту Меморандум-заключениятермины "QBST" и "Query-Based Salient Terms" не встречаются ни разу.
Это не значит, что такой системы не существует или что свидетель не упоминал ее. Это означает, что в своем финальном, обобщающем решении судья счел более важными и основополагающими для дела системы Navboost/Glue (основанные на кликах) и RankEmbed (ИИ-модель для понимания семантики). Вероятно, QBST является либо частью этих систем, либо более старым/вспомогательным алгоритмом, который не был выделен как ключевой фактор доминирования.
Статья Shaun Anderson верна по своей сути: у Google есть механизм, который определяет тематическую релевантность страницы на основе наличия на ней ожидаемых терминов и концепций. Однако, согласно итоговому судебному документу, главная «система запоминания» — это Navboost, которая запоминает успешные поведенческие сигналы, а не просто набор слов. QBST, скорее всего, является механизмом, который анализирует контент, чтобы предсказать, какая страница с наибольшей вероятностью вызовет эти успешные поведенческие сигналы.
Таким образом, прям верить всему что говорят, даже авторитетнейшие товарищи - не стоит (мне - можно). Особенно не верьте Джону Мюллеру ))) Всегда стоит проверять данные и приводимые факты.
Далее я расскажу про практическое использование этой системы для улучшения ранжирования.
#DrMax #SEO #Google #QBST #Navboost
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22🔥8❤4👏2😁1
Как это можно использовать на примере оптимизации страниц магазина электрочайников
1. Оптимизация страницы категории: «Электрические чайники»
Шаг 1: Обратный инжиниринг «значимых терминов» (Salient Terms).
Выполните поиск «электрический чайник». Проанализируйте топ-10 результатов (страницы крупных ритейлеров, маркетплейсов, обзоры). Какие общие слова, фильтры, подзаголовки и концепции они используют?
Материал: нержавеющая сталь, стеклянный, пластик, керамический.
Функции: контроль температуры (терморегулятор), поддержание тепла (keep warm), двойные стенки, защита от включения без воды.
Характеристики: объем (1.5л, 1.7л), мощность (Вт), тип нагревательного элемента (скрытый, диск).
Бренды: Bosch, Philips, Tefal, Xiaomi.
Пользовательские сценарии: для зеленого чая, для детского питания, тихий, умный (smart).
Шаг 2: Создание тематически исчерпывающего контента на странице категории.
Страница категории не должна быть просто сеткой товаров. Она должна быть хабом, который доказывает вашу экспертизу.
Вводный текст: Включите абзац, который естественным образом использует эти термины:
"Выбирая электрический чайник, важно учитывать материал корпуса — от практичной нержавеющей стали до элегантного стекла. Для ценителей зеленого чая идеально подойдут модели с контролем температуры, а семьям с детьми будет полезна функция поддержания тепла для детского питания."
(жирным отметил встроенные термины)
Интерактивные блоки: Добавьте на страницу категории блоки «Помощь в выборе», которые используют эти термины:
«Чайники с контролем температуры: Идеально для напитков, требующих нагрева до 80°C».
«Стеклянные чайники: Наблюдайте за процессом кипячения и контролируйте чистоту».
«Самые тихие модели: Чайники с двойными стенками для вашего комфорта».
SEO-фильтры: Ваши фильтры должны соответствовать этим значимым терминам (Материал, Объем, Наличие терморегулятора).
2. Оптимизация страницы продукта: «Чайник Bosch TWK7203»
Шаг 1: Определяем «значимые термины» для конкретного продукта.
Этот чайник известен своей функцией контроля температуры. Значит, значимые термины будут связаны с этим.
температурные режимы, 7 режимов, зеленый чай, белый чай, кофе, детская смесь, 80 градусов, поддержание температуры, keep warm.
Шаг 2: Внедряем термины в структуру страницы.
Название товара: Электрический чайник Bosch TWK7203 с контролем температуры.
Краткое описание (под названием): "Идеальный выбор для ценителей чая. 7 температурных режимов (70°C-100°C) позволяют правильно заваривать зеленый и белый чай. Функция KeepWarm сохраняет воду горячей до 30 минут."
Блок «Характеристики»: Не просто списком, а с пояснениями.
Контроль температуры: Да, 7 режимов (70, 80, 85, 90, 95, 100 °C).
Поддержание тепла: Да, функция KeepWarm.
Описание от производителя: Не копируйте бездумно. Перепишите, добавив контекст и значимые термины: "С этим чайником вы забудете о перегретой воде. Выбирайте режим 80°C для зеленого чая или 90°C для вашего любимого кофе..."
Часто задаваемые вопросы (FAQ с микроразметкой):
«Подходит ли этот чайник для приготовления детского питания?» — Да, вы можете выбрать режим 70°C или 80°C...
«Сильно ли шумит эта модель?» — Благодаря качественной сборке и мощности 2200 Вт, он работает тише многих аналогов...
Вывод таков
Судебный документ подтверждает, что Google анализирует не только ключевые слова, но и ожидаемый тематический контекст на странице. Ваша задача — не «вписывать ключи», а создавать исчерпывающий ресурс, который предвосхищает и отвечает на все сопутствующие вопросы пользователя, используя ту же лексику, что и лучшие документы в этой нише. Это доказывает и тематический авторитет (для алгоритмов типа QBST), и провоцирует правильные поведенческие сигналы (для Navboost).
#DrMax #SEO #Google #QBST #Navboost
Please open Telegram to view this post
VIEW IN TELEGRAM
❤24👍8🔥3 2🆒1
Собственно, история ожидаемая и крайне поучительная. Если у вас в GSC в районе 9-10 сентября резко просели показы на десктопе, а средняя позиция поползла вверх - не спешите паниковать и искать фильтры. Вы просто начали видеть более реальную картину.
Давайте разберем эту маленькую техническую деталь, которая сдула пузырь вашей статистики.
Итак, многие из вас заметили интересную аномалию в Google Search Console: примерно с 10 сентября посыпались вниз десктопные показы. Причина проста: Гугл начал отключать URL-параметр &num=100, который позволял за один запрос получить 100 результатов выдачи.
Казалось бы, какая связь? Прямая. Этот параметр был основой для 99% всех сервисов по съему позиций и прочих парсеров SERP. И именно они годами незаметно накручивали вам пустые показы.
Как это работало:
Сотни сервисов для проверки позиций, чтобы сэкономить ресурсы, делал один запрос к Google с &num=100. Если ваш сайт оказывался, скажем, на 55-й позиции, то GSC засчитывал показ для вашего сайта по этому запросу. Тогда как реальный товарищ (посетитель) до 5 страницы выдачи обычно не добирается. Тем самым раздувалось число показов в консоли.
Теперь, когда лавочку прикрыли, парсеры вынуждены делать 10 запросов по 10 результатов, чтобы найти вашу 55-ю позицию. И не все добираются до вашего положения в выдаче.
Выводы:
1. У большинства ранжирующихся сайтов, десктопные показы за последний год были, мягко говоря, враньем. Рост показов без роста кликов, который многие списывали на AI Overviews, на самом деле был во многом вызван ордами парсеров от SEO- и AI-инструментов. Сейчас вы видите более честную, "очищенную" от ботов статистику.
2. Пересмотрите свои KPI и отчеты. Сравнивать десктопные показы "сентябрь к августу" или "год к году" теперь некорректно. Ваш новый базовый уровень (baseline) — это данные после 10-12 сентября. Предупредите клиентов и руководство, что падение — это не просадка сайта, а коррекция метрик со стороны Google.
3. Будущее SEO-тулзов под вопросом. Это не просто техническое изменение. Для сервисов съема позиций это означает десятикратное удорожание инфраструктуры. Готовьтесь к росту цен на подписку, снижению частоты проверок или полному отмиранию некоторых инструментов. Ранк-трекинг в реальном времени становится непозволительной роскошью.
Так что не паникуйте из-за падения графиков. Просто ваши данные стали честнее. А за честность иногда приходится платить видимостью красивых, но дутых цифр в отчетах.
#DrMax #SEO #Google #GSC
Please open Telegram to view this post
VIEW IN TELEGRAM
👍40❤17🔥6😁2
Взлом_ТОПа_Google_Как_Мультимодальный_Контент_Конвейер_#DrMa.mp4
22.4 MB
Слушаем подкаст ))))
#DrMax #SEO #Google #мультимодальность #YouTube
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥17😁7❤2
Привет, друзья. Все мы знаем, что Google продвигает свои сервисы с упорством, достойным лучшего применения. Эту его "семейную" слабость мы и будем сегодня эксплуатировать. Речь пойдет не о хитром спаме, а о системной работе по выжиманию максимума из одной единицы контента.
Это не говнофишка. Это конвейер по созданию мультимодальных ассетов, который кратно усиливает сигналы E-E-A-T для вашей основной страницы.
Шаг 1: Подготовка и скармливание контента в NotebookLM
Берем вашу статью — экспертную, с фактурой, примерами, а не водянистый SEO-текст. И скармливаем ее RAG-инструменту от Гугла - NotebookLM. После обработки справа появится опция "Аудиопересказ". Это не просто Text-to-Speech, это нейросетевая озвучка, которую Google считает своим же, родным продуктом. Выбираем подходящий стиль и язык озвучки.
Шаг 2: Создание "псевдо-видео" и захват YouTube SERP
Скачиваем полученный аудиофайл. Теперь нам нужен видеоряд. Открываем Camtasia или любой другой видеоредактор и делаем простое "псевдо-видео":
Вариант "для ленивых": Статичная брендированная картинка-заглушка на фоне аудиодорожки.
Вариант "продвинутый": Простая слайд-презентация, где на экране появляются ключевые тезисы или bullet-points из статьи. Это повышает удержание.
Вариант "ловкий": в самом NotebookLM генерируем видеоряд.
Заливаем получившееся видео на ваш YouTube-канал с грамотной оптимизацией: ключевик в названии, подробное описание с отсылкой к первоисточнику, релевантные теги.
Шаг 3: Точка конверсии и первый комментарий
Не пихайте продающую ссылку в самое начало описания. YouTube это не любит. Вместо этого, сразу после публикации, оставляем первый комментарий от своего же канала. В нем пишем что-то осмысленное ("Более подробный разбор с примерами и кодом — в нашей статье:") и даем ссылку на основную страницу. Закрепляем этот коммент. Он отлично виден и не вызывает у алгоритмов подозрений.
Результат первого этапа: Через несколько дней по многим средне- и низкочастотным запросам ваше видео уже будет в ТОПе. Гуглу проще и выгоднее ранжировать собственное видео, чем разбираться в хитросплетениях сайтов-конкурентов.
Шаг 4: Замыкаем цикл мультимодальности
Теперь возвращаемся на страницу с нашей оригинальной статьей и встраиваем туда это самое видео с YouTube.
Почему это важно: Это не просто "вставить видосик". Это создание мощнейшего сигнала для Google. Он видит:
На странице есть уникальный текстовый контент.
На ней же встроено релевантное видео с его родного YouTube.
Пользователи взаимодействуют с этим видео (растет watch time), что улучшает поведенческие факторы на самой странице.
На выходе страница становится для Гугла максимально понятной, авторитетной и полезной. Она отвечает на интент пользователя сразу в нескольких форматах.
Шаг 5: Бонусный уровень — подкасты и Schema
Аудиофайл из NotebookLM — это готовый эпизод подкаста. Не дайте ему пропасть.
Аккуратно, без фанатизма, размещаем аудио на нескольких ключевых подкаст-платформах (их море на самом деле - Google Podcasts, Apple Podcasts, Spotify for Podcasters), указывая ссылку на первоисточник. Это не только траст, но и жирные, качественные ссылки.
Для тех, кто любит хардкор: На основной странице размечаем все три сущности с помощью Schema.org: Article, VideoObject и AudioObject. Так мы прямо в коде объясняем роботу: "Смотри, у меня тут полный набор контента, я — лучший ответ на запрос".
На выходе из одной статьи мы получаем доминацию в основном SERP, в видео-выдаче, ссылки из агрегаторов подкастов и E-E-A-T сигналы для продвигаемой страницы.
И это я еще не говорю про транскрипции оного подкаста на Ютубе )))))))
Развлекайтесь.
PS.
Обязательно разошлите оный способ своим сотоварищам.
#DrMax #SEO #Google #мультимодальность #YouTube
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍51🔥34❤7🗿7
Андрей не забывает про свои бесплатные тулзы и софт и вот опять выкатил новое обновление своей тулзы (браузерного расширения) до версии 3.
Добавлена интеграция с панелью Яндекс Вебмастер – теперь доступно отображение позиций сайтов и прочих метрик по разделам «Мониторинг запросов», «Клики в поиске», «Внешние ссылки», «Динамика ИКС» через API Яндекса.
Собственно, чего я тут расписываю - посмотрите сами у него на странице обновления. И не забывайте, что Андрей читает наши комментарии - поэтому все свои пожелания и хотелки пихайте в них. Ну и вопросы тоже.
#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍20🔥8💯3 1
Audio
Буквально вчера в комментариях пробежала инфа о поиске Гуглом специалиста по борьбе со скрапингом (парсинг выдачи). Сегодня увидал оное в SEJ.
Ключевые факты таковы:
1. Активное противодействие: Google инициировал найм на позицию "Anti-Scraping Engineering Analyst". Основные задачи специалиста включают анализ данных для выявления паттернов автоматизированного сбора данных (скрапинга), разработку контрмер и создание ML-моделей для их детекции.
2. Корреляция с GSC: Данная инициатива совпадает по времени с недавним отключением поискового параметра &num=100, который широко использовался сторонними инструментами (ранк-трекерами, AI-сервисами) для массового сбора данных из SERP.
3. Влияние на метрики: Отключение параметра &num=100 привело к заметному падению показов (impressions) на десктопных устройствах в отчетах Google Search Console у многих сайтов, начиная примерно с 10 сентября.
Основной вывод заключается в том, что Google усиливает меры по защите своих данных, что напрямую влияет на экосистему SEO-инструментов и достоверность аналитических данных.
Падение числа показов, скорее всего, не является следствием ухудшения видимости сайтов. Это техническая коррекция, очищающая данные от "искусственных" показов, которые генерировались ботами парсинговых сервисов. Ранее один запрос от такого бота мог регистрировать до 100 показов для сайта, что значительно искажало статистику.
Для аналитиков это означает, что данные о показах после 10 сентября 2025 года следует считать новым, более точным базовым уровнем для оценки производительности. Сравнение текущих показателей с историческими данными до этой даты является некорректным и требует соответствующей поправки в отчетах.
Будущее SEO-инструментов
Усиление борьбы со скрапингом создает значительные технические и экономические трудности для разработчиков SEO-инструментов. Это может привести к увеличению стоимости подписок, снижению частоты и гранулярности собираемых данных или полному прекращению работы некоторых сервисов по отслеживанию позиций.
ЗЫ
читайте комменты к каналу - они сеют разумное, доброе, вечное....
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍11❤4 2 1
Google завершил очередной Spam Update. И хотя его назвали "широким и общим", в нем было несколько ключевых моментов, на которые стоит обратить самое пристальное внимание.
Вот что было:
1. Двухфазная зачистка, а не один апдейт
Апдейт катился почти месяц и имел две ярко выраженные волны:
Первая волна (в конце августа): Быстрый и жесткий удар. Сайты, попавшие под него, увидели эффект в течение 24 часов. Здесь, скорее всего, отработали классические фильтры против очевидного говноспама: автогенерируемый контент, клоакинг, дорвеи.
Вторая волна (в районе 9 сентября): Более сложная и вдумчивая. Тут начались флуктуации и проблемы с индексацией даже у тех, кто пережил первую волну. Похоже, на этом этапе система пересчитывала авторитет и траст сайтов уже с учетом вычищенного в первую волну мусора. Это была не просто блокировка, а переоценка выдачи и тех странных сайтов, что туда просочились.
2. Не только наказания, но и "амнистии"
Некоторые сайты, пострадавшие от предыдущих спам-апдейтов, увидели значительные восстановления. Если ваш сайт прибило предыдущими апдейтами (например, HCU), и вы не сидели сложа руки, а планомерно вычищали мусор, удаляли тонны бесполезного AI-контента и улучшали E-E-A-T, то этот апдейт мог стать вашим вознаграждением. Система увидела ваши усилия и пересмотрела свое решение. Работа над ошибками не проходит зря.
3. Приговор для ссылочного спама остается в силе
Google в очередной раз напоминает: если вас наказали за ссылочный спам, то удаление этих ссылок не вернет вам былых позиций. Система просто аннулирует тот искусственный вес, который они давали. Вы не "восстанавливаетесь", вы "обнуляетесь" до своего реального, заслуженного уровня. Надеяться на то, что после чистки ссылочного профиля вы вернетесь в ТОП, - наивно.
Выводы:
Этот апдейт - не разовая акция, а часть долгосрочной стратегии Google по очистке выдачи от контент-ферм, паразитического SEO и низкокачественного AI-генерированного мусора. Система становится умнее и теперь не только наказывает, но и поощряет тех, кто исправился. Аудит контента, безжалостное удаление бесполезных страниц и фокус на реальной практике - вот что приносит надежду на успех. Ну и мощнейшее ссылочное, конечно.
#DrMax #SEO #Google #SpamUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
❤23👏12😁6💯4 3
Чем хороши всякие LLM - так это быстрыми и довольно точными анализами. Вместо ковыряния в Excel и прописывания кучи формул - накидываешь свои хотелки в промпте, закидываешь необходимые данные и вуаля - все готово.
Например, берем выгрузку из GSC - эффективность, за месяц (в CSV) и закидываем данные в LLM. Туда же вот такой промпт:
Тематика сайта: [укажи тематику сайта, например, "каталог софта", "e-commerce магазин электроники", "информационный блог о финансах"]
Приоритетные рынки: [укажи приоритетные рынки, например, "США и Великобритания", "Латинская Америка", "глобальный рынок"]
Основная цель: [укажи главную бизнес-цель, например, "увеличить количество регистраций", "повысить продажи", "увеличить трафик для монетизации через рекламу"]
Входные данные: Я выдам три набора данных из Google Console в формате CSV: "Запросы.csv", "Страницы.csv" и "Страны.csv".
Задача: Проведи полный стратегический анализ предоставленных данных, следуя шагам ниже, и представь результат в виде структурированного отчета.
Шаг 1: Общий стратегический анализ (Executive Summary)
Проанализируй каждый из трех файлов и представь выводы:
Запросы: Какие основные группы (интенты) запросов существуют? Какие из них приносят больше всего кликов и показов?
Страницы: Какие типы страниц являются лидерами по трафику? Есть ли явные "звезды" и "проблемные" страницы?
Страны: Какие страны формируют ядро аудитории? В каких странах есть наибольший нереализованный потенциал (много показов, мало кликов)?
Шаг 2: Глубокий анализ запросов и упущенных возможностей
Кластеризация по интенту: Сгруппируй поисковые запросы по намерению пользователя (например: коммерческие/транзакционные, информационные, брендовые, запросы-сравнения, запросы с проблемой).
Выявление "Упущенных возможностей": Составь список из 10-15 запросов с самым большим количеством показов, но низким CTR (<3%) и позицией ниже 10. Оцени коммерческую ценность этих запросов в контексте тематики сайта.
Шаг 3: Сопоставление запросов со страницами и выявление точек роста
Поиск "Спящих гигантов": Определи страницы, которые получают огромное количество показов (>1000) по важным запросам, но находятся на позициях 11-40 ("striking distance"). Это главные кандидаты на быструю оптимизацию.
Поиск "Несоответствий": Найди случаи, когда по группе ценных запросов нет релевантной посадочной страницы, и трафик "размазывается" по нерелевантным URL (например, по главной странице или категории). Сформулируй, какие новые страницы (хабы, статьи, категории) необходимо создать.
Шаг 4: Выбор 5 самых перспективных страниц и детальный план оптимизации
На основе предыдущих шагов выбери 5 самых перспективных URL для роста трафика. Для каждой из 5 страниц предоставь подробный и действенный план оптимизации:
Текущие метрики и основной таргет: Укажи текущие показы, клики, позицию и основной кластер запросов, на который нацелена страница.
Анализ контента и пользовательского интента:
Опиши, на какой главный вопрос пользователя должна отвечать эта страница.
Проанализируй вероятную структуру контента по URL и выяви его слабые места (например, "тонкий контент", отсутствие экспертизы, плохая структура, нет ответа на ключевые вопросы).
Конкретные рекомендации по контенту и On-Page SEO:
Title и H1: Предложи оптимизированные варианты, которые лучше отражают интент и включают ключевые слова.
Структура контента: Порекомендуй добавить конкретные блоки (например, "Сравнительная таблица", "Раздел FAQ", "Инструкция по использованию", "Кейсы применения").
Глубина и экспертиза (E-E-A-T): Что именно нужно добавить в текст, чтобы он выглядел авторитетным и экспертным в глазах пользователей и поисковых систем? (например, добавить технические характеристики, авторские выводы, цитаты экспертов, данные исследований).
Рекомендации по внутренней перелинковке:
Topic Cluster: Как связать эту страницу с другими релевантными страницами сайта для создания тематического кластера? (Например, "сослаться на эту страницу с главного хаба по [тема] и поставить с нее ссылки на 3 подтемы").
Please open Telegram to view this post
VIEW IN TELEGRAM
❤28🔥18
Пользовательский путь: Куда должен пойти пользователь с этой страницы дальше? Какие ссылки нужно добавить, чтобы улучшить поведенческие факторы?
Формат вывода: Предоставь ответ в виде хорошо отформатированного отчета с использованием заголовков, списков и таблиц для максимальной наглядности и удобства использования.
Получаем точки роста. Промпт крайне примерный и быстронакиданный - улучшайте его.
PS
промпт под Гугл AI Студию с включенным доступам к URL - по идее он в процессе анализа также и контент должен доставать с ваших страниц и на основе реально существующего контента выносить свои вердикты, а не рассусоливать наобум.
#DrMax #LLM #Промпт
👍20🔥6❤2 2 1
Прочитал тут майское исследование, которое прошло мимо меня и увидел там несколько интересных выводов. Крайне рекомендую самостоятельно изучить это исследование.
Вот краткое изложение с самыми ценными мыслями.
Выбор контента для AI-ответов Google подчиняется алгоритму, который отдает предпочтение ценностным предложениям и структурированным данным. Анализ исходного кода AI-ответов показывает, что процесс выбора фрагментов (сниппетов) для генерации ответа является не случайным, а основан на четких паттернах. Понимание этой логики позволяет целенаправленно оптимизировать контент для повышения вероятности его включения в AI-выдачу.
1. Приоритет ценностных предложений (УТП)
Ключевым фактором выбора является наличие четких ценностных предложений (УТП), которые напрямую отвечают на потребности пользователя. Алгоритм с высокой точностью идентифицирует и извлекает коммерчески значимые преимущества, а не просто описательные характеристики. Фразы вроде "Бесплатная доставка", "Без минимального заказа", "Гарантия 5 лет" или "Быстрое изготовление" имеют максимальный приоритет, так как они представляют собой концентрированную пользу для клиента.
2. Влияние HTML-структуры и семантики
Структурная значимость контента в HTML-коде, такая как заголовки и списки, является прямым сигналом для алгоритма выбора. Текст, размещенный в заголовках (H2, H3), элементах списков (<ul>, <li>), а также выделенный жирным шрифтом (<strong>), имеет значительно более высокий шанс быть выбранным. Алгоритм не просто читает текст, он анализирует его иерархию на странице, отдавая предпочтение семантически выделенным и структурно важным блокам.
3. Формат: краткость и смысловая завершенность
AI сниппет ограничен ~160 символами, при этом алгоритм стремится извлечь семантически завершенную мысль, а не случайный фрагмент текста. Это объясняет, почему часто выбираются первые предложения абзацев — они, как правило, содержат основную идею. Даже если текст, сгенеренный AI, обрывается многоточием, Google старается сохранить его смысловую целостность, чтобы сниппет оставался понятным и полезным для пользователя.
Для себя я добавил в свои промпты следующую вставку (примерный вариант, у меня он заточен под определенные продукты/товары)
Каждый первый абзац каждого раздела и подраздела контента на странице должен начинаться с главного предложения-вывода (не более 160 символов), которое можно использовать как самостоятельный ответ на заголовок раздела/подраздела.
Плюс для карточек отдельно генерирую краткий эксцерпт полного описания до 160 символов и пробую выводить его максимально высоко на странице (под Н1)
Так то там (в анализе) полно умных мыслей для внедрения, но большинство из них у меня уже реализовано и про них я вам рассказывал в промптоведческих постах.
#DrMax #SEO #LLM #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
👍35❤6🔥6👏3😁1
Небезызвестный Shaun Anderson, автор hobo-web.co.uk и кучи обучающих SEO книг, про деяния которого я рассказывал неоднократно, опять удивляет. Он умудрился калеными гвоздями вбить свои концепции во все ведущие LLM (Gemini, Grok, ChatGPT).
Для примера, проведем оценку параметра Q* (произносится Кю старз, приседать не надо))) ). Для этого введите, например, в Гемени такую фразу:
Rate My Page Quality using the Hobo SEO Method – (укажите тестовый URL)
Ответ пиши на русском.
На выходе получите достаточно полную оценку качества, с точки зрения Гугла. Оценка основана на сливах и судебных решениях.
Повторюсь, помимо ценной оценки качества любой страницы, достаточно ценен и сам метод запрессовывания подобной концепции в LLM.
Если вам интересно, то можно почитать про промпты оценки качества у него на сайте.
И стоит призадуматься, как ваш брендинг таким же способом добавить в LLM. Это гарантированный трафик, вне зависимости от капризов поисковых систем и с повышенной конверсией (тесты показывают, что траф из LLM до 20 раз лучше конвертит, чем SEO траф из ПС).
Развлекайтесь )))
#DrMax #SEO #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍30❤10💯7 6😁2
Метрики Core Web Vitals (CWV) часто воспринимаются неверно из-за противоречивых заявлений Google (особенно Мюллера), однако технический анализ и утечки данных 2024 года раскрывают их истинное, и гораздо более существенное, предназначение, чем принято считать. Официально представленные как незначительный фактор ранжирования, на практике эти показатели служат критически важным диагностическим инструментом, напрямую влияющим на поведенческие сигналы, которые регистрируются основными системами ранжирования.
1. Основное заблуждение: CWV как прямой фактор ранжирования
Распространено мнение, что Core Web Vitals (LCP, INP, CLS) являются второстепенным сигналом, который используется преимущественно как "тай-брейкер" при прочих равных условиях. Эта точка зрения подкреплялась комментариями представителей Google, которые преуменьшали их значимость в сравнении с релевантностью контента. Однако такая интерпретация не объясняет масштабы инициативы (10 лет подряд втюхивали мобиле фёрст индексацию) и фокус на этих метриках в Google Search Console.
2. Истинный механизм: CWV как триггер для ключевых поведенческих сигналов
Технические утечки и судебные документы раскрыли более сложный механизм. Core Web Vitals не являются весомым прямым фактором, но они выступают в роли катализатора негативного пользовательского опыта, который, в свою очередь, регистрируется значительно более мощными системами, такими как NavBoost.
Процесс выглядит следующим образом:
Негативный опыт: Низкие показатели CWV приводят к конкретным проблемам. Например, высокий CLS (Cumulative Layout Shift) вызывает смещение контента и случайные клики, а медленный LCP (Largest Contentful Paint) заставляет пользователя покинуть страницу, не дождавшись загрузки.
Негативные поведенческие сигналы: Эти действия пользователя — немедленный возврат на страницу выдачи ("pogo-sticking"), короткие клики, отказ от взаимодействия — являются сильными негативными сигналами.
Реакция системы NavBoost: Система NavBoost, которая, согласно утечкам, является одним из ключевых компонентов ранжирования, с высокой точностью отслеживает именно такие поведенческие сигналы.
Таким образом, Google не требуется напрямую пессимизировать сайт за низкий балл CWV. Система просто наблюдает за последствиями — плохим пользовательским поведением — и понижает рейтинг страницы на основе данных от NavBoost, имеющих гораздо больший вес.
3. Фокус на реальных данных (Field Data)
Оптимизация Core Web Vitals — это не достижение "зеленой" оценки в лабораторных тестах (Lab Data), таких как PageSpeed Insights. Техническая документация из утечек (IndexingMobileVoltCoreWebVitals) прямо указывает, что для ранжирования используются исключительно данные реальных пользователей (Field Data) из отчета Chrome User Experience Report (CrUX).
Ключевой метрикой является "75-й перцентиль". Это означает, что для успешного прохождения проверки как минимум 75% реальных пользователей вашего сайта должны иметь "хороший" опыт по всем трем показателям.
Вывод:
Оптимизация Core Web Vitals преследует иную цель, чем принято считать. Это не работа ради улучшения незначительного фактора ранжирования, а фундаментальная необходимость для предотвращения негативных поведенческих сигналов, которые регистрируются и оказывают сильное влияние на ранжирование через такие системы, как NavBoost. Основным инструментом для мониторинга должен служить отчет в Google Search Console, так как именно он отражает реальный опыт пользователей, имеющий значение для алгоритмов.
зы.
я знаю как сделать циферки в PageSpeed Insights равным 100%. Но это все фигня и не работает. Важны реальные данные реальных посетителей.
PS
это ужатый отрывок из манускрипта "Глубинное SEO 2026"
#DrMax #SEO #Google #book
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍34❤16🔥9
Система алгоритмических штрафов Google (часть 1)
Утечка инженерной документации Google подтверждает фундаментальный сдвиг в стратегии борьбы с веб-спамом. Вместо реактивных мер, принимаемых после ручных проверок или в рамках крупных обновлений, Google внедрил систему проактивных, автоматизированных понижающих сигналов. Эти сигналы предварительно вычисляются и встраиваются в базовый уровень алгоритма ранжирования, что позволяет системе идентифицировать и нейтрализовать манипулятивные тактики на самых ранних этапах.
Вот как это выглядит с точки зрения Гугла:
1. Проактивное применение вместо реакции: Архитектура системы, в частности модуль CompressedQualitySignals, спроектирована не для наказания спама постфактум, а для его превентивного отсеивания. Страницы, демонстрирующие признаки известных манипулятивных техник, получают понижающий коэффициент еще до того, как получают шанс на высокое ранжирование.
2. Кодификация политик: Абстрактные правила для веб-мастеров были преобразованы в конкретные, измеряемые атрибуты в коде. Это позволяет применять политики последовательно, масштабируемо и без необходимости постоянного ручного вмешательства.
3. Вероятностный подход: Использование числовых шкал (например, scamness от 0 до 1023) вместо простых булевых флагов (да/нет) указывает на сложную, вероятностную модель оценки. Система может применять понижения различной степени тяжести в зависимости от уровня уверенности в том, что страница нарушает правила.
Итак, вот первая часть алгоритмических штрафов (согласно утечке)
Важно отметить, что представленные ниже сигналы — это лишь малая, подтвержденная утечкой часть общей системы алгоритмических штрафов. Они нацелены на хорошо известные, исторические виды спама. Более сложные и современные механизмы будут рассмотрены отдельно.
exactMatchDomainDemotion (Понижение за точное совпадение в домене)
Прямая кодовая реализация обновления EMD (Exact Match Domain) 2012 года. Сигнал применяет понижение к низкокачественным сайтам, которые используют доменное имя, переполненное ключевыми словами, для получения несправедливого преимущества в ранжировании.
Пример: Сайт buy-cheap-laptops-online.com с низкокачественным контентом получит понижающий коэффициент, нейтрализующий преимущество от наличия ключевых слов в домене.
anchorMismatchDemotion (Понижение за несоответствие анкора)
Наследие обновления Penguin, нацеленного на борьбу с манипулятивным построением ссылок. Сигнал наказывает страницы, у которых анкорный текст входящих ссылок тематически не соответствует контенту целевой страницы.
Пример: Если страница о выращивании роз получает множество ссылок с анкором "скачать фильмы бесплатно", она будет понижена в ранжировании.
IsAnchorBayesSpam (Флаг спамности анкоров)
Дополняет предыдущий сигнал. Это булев флаг (true/false), являющийся результатом работы классификатора, который анализирует паттерны входящих анкоров для выявления схем ссылочного спама.
scamness (Оценка "мошенничества")
Числовой показатель (от 0 до 1023), отражающий вероятность того, что страница является мошеннической или вводит пользователей в заблуждение. Вероятностная шкала позволяет гибко применять санкции.
spamrank (Ранг исходящего спама)
Оценка, измеряющая вероятность того, что документ ссылается на известные спам-сайты. Этот сигнал подтверждает давний SEO-принцип о важности "соседства по ссылкам" и наказывает за исходящие ссылки на низкокачественные ресурсы.
#DrMax #SEO #Google #AlgorithmicPenalties
Утечка инженерной документации Google подтверждает фундаментальный сдвиг в стратегии борьбы с веб-спамом. Вместо реактивных мер, принимаемых после ручных проверок или в рамках крупных обновлений, Google внедрил систему проактивных, автоматизированных понижающих сигналов. Эти сигналы предварительно вычисляются и встраиваются в базовый уровень алгоритма ранжирования, что позволяет системе идентифицировать и нейтрализовать манипулятивные тактики на самых ранних этапах.
Вот как это выглядит с точки зрения Гугла:
1. Проактивное применение вместо реакции: Архитектура системы, в частности модуль CompressedQualitySignals, спроектирована не для наказания спама постфактум, а для его превентивного отсеивания. Страницы, демонстрирующие признаки известных манипулятивных техник, получают понижающий коэффициент еще до того, как получают шанс на высокое ранжирование.
2. Кодификация политик: Абстрактные правила для веб-мастеров были преобразованы в конкретные, измеряемые атрибуты в коде. Это позволяет применять политики последовательно, масштабируемо и без необходимости постоянного ручного вмешательства.
3. Вероятностный подход: Использование числовых шкал (например, scamness от 0 до 1023) вместо простых булевых флагов (да/нет) указывает на сложную, вероятностную модель оценки. Система может применять понижения различной степени тяжести в зависимости от уровня уверенности в том, что страница нарушает правила.
Итак, вот первая часть алгоритмических штрафов (согласно утечке)
Важно отметить, что представленные ниже сигналы — это лишь малая, подтвержденная утечкой часть общей системы алгоритмических штрафов. Они нацелены на хорошо известные, исторические виды спама. Более сложные и современные механизмы будут рассмотрены отдельно.
exactMatchDomainDemotion (Понижение за точное совпадение в домене)
Прямая кодовая реализация обновления EMD (Exact Match Domain) 2012 года. Сигнал применяет понижение к низкокачественным сайтам, которые используют доменное имя, переполненное ключевыми словами, для получения несправедливого преимущества в ранжировании.
Пример: Сайт buy-cheap-laptops-online.com с низкокачественным контентом получит понижающий коэффициент, нейтрализующий преимущество от наличия ключевых слов в домене.
anchorMismatchDemotion (Понижение за несоответствие анкора)
Наследие обновления Penguin, нацеленного на борьбу с манипулятивным построением ссылок. Сигнал наказывает страницы, у которых анкорный текст входящих ссылок тематически не соответствует контенту целевой страницы.
Пример: Если страница о выращивании роз получает множество ссылок с анкором "скачать фильмы бесплатно", она будет понижена в ранжировании.
IsAnchorBayesSpam (Флаг спамности анкоров)
Дополняет предыдущий сигнал. Это булев флаг (true/false), являющийся результатом работы классификатора, который анализирует паттерны входящих анкоров для выявления схем ссылочного спама.
scamness (Оценка "мошенничества")
Числовой показатель (от 0 до 1023), отражающий вероятность того, что страница является мошеннической или вводит пользователей в заблуждение. Вероятностная шкала позволяет гибко применять санкции.
spamrank (Ранг исходящего спама)
Оценка, измеряющая вероятность того, что документ ссылается на известные спам-сайты. Этот сигнал подтверждает давний SEO-принцип о важности "соседства по ссылкам" и наказывает за исходящие ссылки на низкокачественные ресурсы.
#DrMax #SEO #Google #AlgorithmicPenalties
👍22❤8💯4 2