Дубли страниц и их вред для SEO
В SEO-аудитах вы часто можете видеть пункт «На сайте обнаружены дубли страниц». В этом посте мы разберемся почему дубли вредят сайту, используя официальную информацию от поисковых систем.
Дубли — это страницы с одинаковым или почти одинаковым контентом. Они возникают в связи с различными техническим ошибкам на сайте. Погружаться в них не будем, цель у нас другая.
Чем дубли вредны для SEO?
▪️ Поисковая система объединяет несколько одинаковых страниц в группу дублей и ранжирует только одну из них. И это может быть совсем не та страница, которую мы продвигаем. К примеру, из индекса может вылететь страница, которую мы уже прокачали ссылками.
▪️ Поисковик может не объединить одинаковые страницы в группу дублей и тогда они будут ранжироваться по одинаковым запросам и конкурировать друг с другом в выдаче.
▪️ У поисковых роботов есть ограниченный ресурс изучения сайта (краулинговый бюджет). Как только он заканчивается — роботы покидают сайт. Если роботы будут тратить бюджет на обход дублей, то могут не успеть проиндексировать важные посадочные страницы.
А теперь к главному. Не придумали ли это все сеошники? Что там думают об этом поисковые системы? Заглянем в официальную справку:
Яндекс
«Если страницы сайта доступны по разным адресам, но имеют одинаковое содержимое, робот Яндекса может посчитать их дублями и объединить в группу дублей.»
«Дублями признаются страницы в рамках одного сайта. Например, страницы на региональных поддоменах с одинаковым содержимым не считаются дублями.»
Почти все пункты выше о вреде дублей написаны на основе того, что есть в данном официальном документе Яндекса.
Google
Для Google дубли — это более глобальное явление. Он изучает и отслеживает дубли не только внутри одного сайта, но и в рамках разных сайтов. И у Google есть четкое разграничение, какие дубли вредные, а какие нет.
Cправка Google:
«Идентичным контентом обычно называют большие блоки информации, которые одинаковы или очень похожи. Они могут быть размещены в одном или нескольких доменах. Как правило, такой контент публикуется без намерения обмануть пользователей.
Примеры повторяющихся материалов, которые не относятся к категории вредоносных:
▫️страницы форумов в обычных версиях сайтов и версиях для мобильных устройств;
▫️товары в интернет-магазине, доступные по разным URL;
▫️документы для печати, которые дублируют содержание веб-страниц.»
И в таком случае Google не применяет никаких грубых санкций. Но те же проблемы, что и в Яндексе тут тоже работают, потому что Google выбирает канонической (основной) только одну страницу и её ранжирует в поиске:
«Если у вас возникают проблемы из-за повторяющегося содержания, но вы не последовали приведенным выше советам, то мы выберем версию контента для показа в результатах поиска на свое усмотрение.»
Но помимо этого у Google, в отличие от Яндекса, есть еще и категория дублей, которые он считает вредоносными и за них может конкретно наказывать:
«В некоторых случаях злоумышленники намеренно дублируют контент... Использование подобных обманных приемов может причинить неудобства пользователям… В связи с этим рейтинг сайта может понизиться или сайт может быть вообще удален из индекса Google и будет недоступен для поиска.»
В справке не написано четких критериев, когда Google признает дубли именно зловредными. Поэтому мы не сможем с точностью определить — хорошо ли Google отнесется к этому дублю и его можно оставить или плохо к этому и его нужно удалить. Мы только знаем, что за дубли можно получить по голове и этого достаточно, чтобы начать с ними бороться.
#SEO #техничка
В SEO-аудитах вы часто можете видеть пункт «На сайте обнаружены дубли страниц». В этом посте мы разберемся почему дубли вредят сайту, используя официальную информацию от поисковых систем.
Дубли — это страницы с одинаковым или почти одинаковым контентом. Они возникают в связи с различными техническим ошибкам на сайте. Погружаться в них не будем, цель у нас другая.
Чем дубли вредны для SEO?
▪️ Поисковая система объединяет несколько одинаковых страниц в группу дублей и ранжирует только одну из них. И это может быть совсем не та страница, которую мы продвигаем. К примеру, из индекса может вылететь страница, которую мы уже прокачали ссылками.
▪️ Поисковик может не объединить одинаковые страницы в группу дублей и тогда они будут ранжироваться по одинаковым запросам и конкурировать друг с другом в выдаче.
▪️ У поисковых роботов есть ограниченный ресурс изучения сайта (краулинговый бюджет). Как только он заканчивается — роботы покидают сайт. Если роботы будут тратить бюджет на обход дублей, то могут не успеть проиндексировать важные посадочные страницы.
А теперь к главному. Не придумали ли это все сеошники? Что там думают об этом поисковые системы? Заглянем в официальную справку:
Яндекс
«Если страницы сайта доступны по разным адресам, но имеют одинаковое содержимое, робот Яндекса может посчитать их дублями и объединить в группу дублей.»
«Дублями признаются страницы в рамках одного сайта. Например, страницы на региональных поддоменах с одинаковым содержимым не считаются дублями.»
Почти все пункты выше о вреде дублей написаны на основе того, что есть в данном официальном документе Яндекса.
Для Google дубли — это более глобальное явление. Он изучает и отслеживает дубли не только внутри одного сайта, но и в рамках разных сайтов. И у Google есть четкое разграничение, какие дубли вредные, а какие нет.
Cправка Google:
«Идентичным контентом обычно называют большие блоки информации, которые одинаковы или очень похожи. Они могут быть размещены в одном или нескольких доменах. Как правило, такой контент публикуется без намерения обмануть пользователей.
Примеры повторяющихся материалов, которые не относятся к категории вредоносных:
▫️страницы форумов в обычных версиях сайтов и версиях для мобильных устройств;
▫️товары в интернет-магазине, доступные по разным URL;
▫️документы для печати, которые дублируют содержание веб-страниц.»
И в таком случае Google не применяет никаких грубых санкций. Но те же проблемы, что и в Яндексе тут тоже работают, потому что Google выбирает канонической (основной) только одну страницу и её ранжирует в поиске:
«Если у вас возникают проблемы из-за повторяющегося содержания, но вы не последовали приведенным выше советам, то мы выберем версию контента для показа в результатах поиска на свое усмотрение.»
Но помимо этого у Google, в отличие от Яндекса, есть еще и категория дублей, которые он считает вредоносными и за них может конкретно наказывать:
«В некоторых случаях злоумышленники намеренно дублируют контент... Использование подобных обманных приемов может причинить неудобства пользователям… В связи с этим рейтинг сайта может понизиться или сайт может быть вообще удален из индекса Google и будет недоступен для поиска.»
В справке не написано четких критериев, когда Google признает дубли именно зловредными. Поэтому мы не сможем с точностью определить — хорошо ли Google отнесется к этому дублю и его можно оставить или плохо к этому и его нужно удалить. Мы только знаем, что за дубли можно получить по голове и этого достаточно, чтобы начать с ними бороться.
#SEO #техничка