Дежурный SEO-доктор
4.05K subscribers
3 photos
2.63K links
Официальный канал команды SiteClinic. Отвечаем на вопросы подписчиков по SEO бесплатно!

Задать вопрос можно здесь - @seodoctor_bot

По вопросам рекламы - http://bit.ly/2YIED9f

Заказать диагностику сайта - http://bit.ly/2OYmGU0
Download Telegram
​​Проведи полную техническую диагностику своего сайта всего за 2 минуты с новым инструментом «Анализ сайта» от SE Ranking!

Всего за 2 клика и 2 минуты вы получите полный отчет о состоянии Вашего сайта и чек-лист по исправлению ошибок 👉https://bit.ly/3lP8dGG.

Обновленный инструмент от SE Ranking с полностью персонализированным дашбордом:

▫️ Проверяет тип, код состояния и исходный URL ссылок.
▫️ Показывает данные о размере, коде статуса, типе и исходном URL ресурсов.
▫️ Выводит десятки показателей страниц, включая скорость загрузки, TTFB, время переадресации обновления, хэш содержимого и многие другие.

#от_партнёров
Вопрос 1704

Какие значения фильтров стоит добавлять на страницу каталога? Учитываются ли ключевые слова, которые используются как значение фильтрации при анализе страницы роботом? Стоит ли добавлять "популярные фильтры", например, ультратонкий ноутбук или игровой ноутбук и т.д. и на какие фразы тут стоит ориентироваться? Открывать такие страницы для индексации?

🕐 Время вышло. Вопрос набрал меньше лайков за 24 часа.
Вопрос 1703

Почему в некоторых нишах в ТОП-10 Яндекса появляются vk или Instagram страницы? Ниша не самая низкоконкурентная при этом (например, ювелирные изделия на заказ ). Как бороться сайту?

✔️Вопрос принят.
Вопрос 1705

Можно ли использовал атрибут hreflang для регионального продвижения? Этот атрибут позволяет указывать роботу для какого региона показывать страницу? Влияет ли атрибут hreflang на ранжирование? В каких случаях и как правильно использовать геотаргетинг?

✔️Вопрос принят.
💭 #Ответы на вопросы!

Вопрос 1692

Как нужно закрывать и нужно ли закрывать от индексации страницы с параметрами сортировки ? Например: сайт.ру/категория?sort=reviews... И еще по висячим узлам: если закрыть страницы от индексации, например корзину, поиск, регистрацию, то стоит ли в ссылках на эти страницы прописать robots nofollow, чтобы им не передавался ссылочный вес? Или он сейчас не так важен?

❗️Ответ

👉 Страницы с параметрами сортировки дублируют содержание основной страницы и не несут в себе уникальной информации для пользователя, поэтому их необходимо закрывать от индексации. Аналогично должны быть закрыты от индексации и страницы корзины, поиска по сайту, регистрации и прочие, так как они не несут смысловой нагрузки для ПС.

Наш опыт показывает, что для закрытия страниц от индексации достаточно прописать соответствующую директиву файле robots.txt (в данном случае Disallow: */?sort=) и указать в атрибуте Canonical страниц сортировки ссылку на основную версию страницы.

⚠️ Однако, если Ваша страница уже находится в индексе и вы хотите ее оттуда исключить, нужно использовать метатег robots. Для этого в разделе <head> страницы прописываем <meta name="robots" content="noindex" />. При этом, данная страница не должна быть закрыта в robots.txt (чтобы робот мог ее обнаружить и исключить).

👉 Важно понимать, что сам факт наличия ссылки означает, что страница-донор теряет ссылочный вес. Атрибут nofollow означает лишь то, что поисковые роботы не будут переходить по ссылкам на странице-акцепторе и что она не получит ссылочный вес. Так как на висячих узлах нет исходящих ссылок и им не нужен ссылочный вес, на них можно использовать атрибут nofollow.

🔗 Подробнее о том, что ещё необходимо закрывать от индексации на сайте и как правильно это сделать читайте в нашей статье.

‼️Закрываете ли Вы страницы сортировки от индексации? Делитесь мнением и опытом в комментариях!

🚨 via @siteclinic_doctor 🚨
💭 #Ответы на вопросы!

Вопрос 1693

Как исправить ошибку: "Проиндексировано, несмотря на блокировку в файле robots.txt" в GSC? Из-за чего она возникает? Насколько она критична?

❗️Ответ

👉 Для поисковой системы Google в файле robots.txt прописываются правила сканирования сайта, но не индексирования. То есть сканирование может быть запрещено, но поисковая система добавит в индекс данный URL адрес, так как нашла его другими способами.

Google не будет напрямую сканировать и индексировать контент, указанный в файле robots.txt, однако URL с закрытым доступом может быть найден и добавлен в индекс из-за ссылок на других сайтах. Таким образом, запреты в файле robots.txt не исключают появление URL и других общедоступных сведений, например текстов ссылок, в результатах поиска Google [Справка Google].

⚠️ Если учитывать, что чаще всего в robots.txt закрывают некачественные, технические, пустые, частичные либо полные дубли страницы, то появление таких страниц в индексе могут негативно повлиять на ранжирование сайта.

👉 Чтобы исправить ошибку, нужно выполнить следующие действия:

▫️Проверить файлы sitemap на наличие заблокированных страниц в robots.txt, если есть такие — убрать.
▫️Проверить все бэклинки на сайт, убедится что нет ссылок на страницы, заблокированные в robots.txt
▫️Убрать из файла Robots.txt директивы, которые запрещают сканирование указанных в отчете url-адресов.
▫️Закрыть от индексации все некачественные url-адреса при помощи мета тега robots либо X-Robots-Tag, либо удалить страницу.

‼️Вы сталкивались с такой ошибкой? Как исправляете её? Делитесь опытом в комментариях!

🚨 via @siteclinic_doctor 🚨
Вопрос 1706

На сайте есть несколько страниц бесполезных с точки зрения продвижения, но с самым высоким пейджранком (это, конечно же, страницы "о нас", "команда", "контакты" и др. из меню). Хотели закрыть их в nofollow, но есть мнение, что вес просто утечет в никуда, а не перераспределится по другим страницам. Какие есть рабочие способы перераспределить ссылочный вес с этих бесполезных страниц?

✔️Вопрос принят.
Вопрос 1707

На какие страницы лучше ставить ссылки, если на сайте много однотипных страниц? Например, если сайт — это каталог компаний, т.е. есть пару тысяч компаний, их гуглят и читают информацию у меня на сайте. В таком случае нужно закупать ссылки только на главную?

🕐 Время вышло. Вопрос набрал меньше лайков за 24 часа.
Вопрос 1708

Есть сайт по продаже недвижимости с умным ЧПУ фильтром. Все страницы (их около 10 000) оптимизированы и имеют уникальный заголовок h1 и метатеги.

Встал вопрос о добавлении текста на фильтровые страницы. Писать на каждую уникальный текст — слишком трудозатратно, есть вариант написать шаблонный текст, меняя только характеристики фильтров. Разместить его или оставить страницы вообще без текста? Или как правильно провести эксперимент (без больших потерь в позициях и трафике)?

✔️Вопрос принят.
💭 #Ответы на вопросы!

Вопрос 1694

Нужен ли last-Modified на сайте? Для каких поисковых систем он подходит? И есть ли информация о том, как Google обрабатывает last-Modified?

❗️Ответ

👉 При посещении сайта, на котором не настроен заголовок last-Modified, робот будет производить индексацию всех страниц интернет-ресурса снова и снова, создавая лишнюю нагрузку на сервер. К тому же робот будет тратить краулинговый бюджет и потенциально важные страницы могут долго индексироваться. При настройке last-Modified этой проблемы можно избежать, поэтому мы рекомендуем реализовать Last-Modified на страницах Вашего сайта.

⚠️ Last-Modified подходит для поисковых систем Яндекс и Google.

Last-Modified помогает поисковым системам быстрее сканировать/индексировать новые страницы за счет распределения краулингово бюджета, но это при условии его правильной реализации.

👉 Принцип работы Last-Modified

Если на странице не вносились изменения с момента предыдущего посещения ботом, сервер отдает 304 ответ. То есть бот понимает что контент не изменился и нет смысла в переобходе и переиндексации страницы. В результате бот не скачивает содержимое страниц, расходует квоту на реально изменившиеся страницы со времени предыдущей индексации. Либо индексирует новые страницы сайта.

‼️У Вас на сайте настроен заголовок Last-Modified? Какие плюсы и минусы Вы можете выделить? Делитесь опытом в комментариях!

🚨 via @siteclinic_doctor 🚨
💭 #Ответы на вопросы!

Вопрос 1696

Как сейчас лучше поступать со страницами пагинации в ИМ в плане того, что Вебмастер ругается на дубли тайтлов и дескрипшенов? Есть мысль во все тайтлы и дескпришены добавить "Страница 2", "Страница 3" и т.д. Как исправить ошибку и нужно ли уникализировать страницы пагинации?

❗️Ответ

Мы всегда рекомендуем уникализировать страницы пагинации, добавляя на страницу начиная со второй «Страница X» для таких элементов, как:

▫️title;
▫️description;
▫️h1.

👉 Такой подход позволяет:

▫️избежать риска возникновения дублей;
▫️повышает количество страниц коммерческой направленности в индексе;
▫️избежать проблем с индексацией товаров.

⚠️ Для исправления ошибки в Вебмастере необходимо уникализировать и настроить страницы пагинации, после чего дождаться их переиндексации или запускать страницы на переобход вручную. Из актуальных способов настройки пагинации можно выделить следующие:

1️⃣ Настройка атрибута rel="canonical" для страниц, начиная со второй, как неканонических, а в качестве их канонического url указывать первую страницу листинга. По сути, этот способ соответствует рекомендациям от Яндекса.

Схематическое представление: http://joxi.ru/1A5ny5vUz0K4Wr

2️⃣ Настройка атрибута rel="canonical" для страниц, начиная с первой, на каждой из страниц на самих себя. Популярный метод настройки, который мы часто практикуем.

Схематическое представление: http://joxi.ru/LmGz8aGtg4RxJr

3️⃣ Оптимизация страниц пагинации под регионы, при котором прописываются не только атрибут rel="canonical" для страниц на самих себя, но и добавляются в title и description топонимы. Более экзотический способ, нацелен на попадание в выдачу сразу нескольких страниц. Видели как положительные результаты от его реализации, так и их отсутствие.

Схематическое представление: http://joxi.ru/Vm6Xv6lTRVDRDA

🔗 Более детально об этих и других методах оптимизации страниц пагинации, а также о преимуществах и недостатках каждого из них можно узнать из нашей статьи: «Как оптимизировать страницы пагинации на сайте».

‼️Уникализируете ли Вы страницы пагинации? Делитесь мнением и опытом в комментариях!

🚨 via @siteclinic_doctor 🚨
Вопрос 1711

Обновляем сайт на SPA, и чтобы облегчить сайт, будем на сервере определять устройство и показывать либо мобильный код либо десктопный. Но домен будет одинаковый. Вопрос: как ПС отнесутся к тому, что на одном домене будет две разные верстки, в зависимости от устройства?

✔️Вопрос принят.
Вопрос 1709

Сайт с кириллическим доменом, файлы сайтмапа поделены на 5 частей. Файл сайтмапа, в котором перечислены все части, добавляется в Гугл серч консоль, а сами части — не добавляются. Пишется "невозможно загрузить файл sitemap" и пустой отчёт об индексации. Вопрос: как скормить Гуглу части сайтмапа? Объединить их в один нельзя.

🕐 Время вышло. Вопрос набрал меньше лайков за 24 часа.
Вопрос 1710

Как влияет наличие страниц с партнёрскими ссылками на ранжирование? Какой оптимальный % страниц с исходящими партнерскими ссылками на сайте? Сколько партнерских ссылок на странице можно ставить? Нужно ли прятать такие ссылки от Google и как это лучше сделать?

✔️Вопрос принят.
💭 #Ответы на вопросы!

Вопрос 1699

Насколько важна регистрозависимость URL? Сайт доступен и по: /catalog/Bumazhnaya-Produktsiya-Dlya-shkoly и /catalog/bumazhnaya-produktsiya-dlya-shkoly. Для роботов эта два разных URL?

❗️Ответ

👉 Согласно Справке Google путь, имя файла и параметр в адресе страницы чувствительны к регистру. Поэтому /catalog/Bumazhnaya-Produktsiya-Dlya-shkoly и /catalog/bumazhnaya-produktsiya-dlya-shkoly для поисковых роботов это разные URL.

Как итог поисковые системы могут исключать из поиска страницы в разном регистре URL по причине дублирования контента. Об этом говорится в справке Яндекса.

⚠️ При этом сотрудник Google Джон Мюллер на вопрос влияют ли заглавные буквы в URL на положение сайта в поиске ответил, что регистр не влияет на ранжирование страниц.

👉 Чтобы избавится от возможных проблем со страницами написанными теми же символами но в разном регистре стоит:

▫️настроить редирект на URL в нижнем регистре;
▫️добавить в код rel=«canonical» указывающий как каноническую страницу в нижнем регистре.

🔗 Подробнее о устранении технических ошибок на сайте читайте в статье: «Распространённые технические ошибки сайтов».

‼️Прокомментировать ответ или задать уточняющий вопрос можно у нас в блоге. Welcome в комментарии!

🚨 via @siteclinic_doctor 🚨
💭 #Ответы на вопросы!

Вопрос 1697

Порекомендуйте, пожалуйста, хорошие сервисы для генерации SEO-отчетов, если такие существуют, конечно. Готовить все ручками в вордовском файле или экселе напряжно, когда клиентов становится много. Хочется навести красоту.

❗️Ответ

В первую очередь нужно понимать, что как не крути, SEO-отчеты — это очень индивидуально.

👉 Можно выгрузить отчеты из Google Search Console и в целом они визуально неплохие :

▫️https://i.imgur.com/dEf4fbJ.png
▫️https://i.imgur.com/19m9pqA.png

Но такие отчеты смотрятся слишком системно. Поэтому у нас в компании все отчеты в любом случае составляются SEO-специалистами, так как в нужно описать не только текущую ситуацию по проекту и что происходит с сайтом, но и какие работы планируется проводить в дальнейшем. Автоматические такой отчет сделать нельзя.

⚠️Тем не менее, упрощать себе работу за счет автоматических отчетов из сервисов можно и нужно. Например, недавно мы писали статью, про то как “Как проанализировать просадку трафика в Google с помощью Search Analytics for Sheets” и по материалам этой статьи, был разработан инструмент: Анализ трафика. С помощью него можно быстро проанализировать ситуацию по проекту и получить сводку, что изменилось за последний месяц работ на сайте: https://i.imgur.com/ay9Uk5d.png Видно как менялись позиции, количество запросов на странице. Данные можно выводить не только по запросам, но и по страницам: https://i.imgur.com/ZXSLQaw.png

Данный отчет подойдет, если вам нужно показать общую динамику по проекту и изменения (обычно эту информацию используют в вступительной части отчета).

👉 Что касается отчета по выполненным работам и планам работ, то тут всё слишком индивидуально по каждому проект. Список выполненных работ мы фиксируем в нашем внутреннем инструменте и при необходимости мы их можем выгрузить. Но такой список всегда получается объемным и в отчете смотриться “некрасиво”. Потому обычно составляем список проделанных работ и напротив каждой работы, ставим ссылку, на подробный отчет. Вы же можете фиксировать работы по проекту в обычных Google Sheets по проекту, и в отчете напротив выполненных работ давать ссылку на такой отчет.

⚠️ Ну а план работ — это только руками, так как даже если Вы составите стратегию на 3 месяца и забьете этот план в какой-то инструмент, ситуация на сайте может поменяться в течение месяца и план нужно будет корректировать. А автоматически этого не сделать.

‼️Какими сервисами Вы пользуетесь при составлении и оформлении SEO-отчетов. Делитесь опытом в комментариях!

🚨 via @siteclinic_doctor 🚨
Вопрос 1712

Влияют ли достижения целей в метрике на результаты продвижения? Или это только для себя, чтоб видеть общую картину?

✔️Вопрос принят.
Вопрос 1713

Анализрую ссылочный профиль клиента. Нашел доноры с низким DR. При более детальном анализе обнаружил, что эти ссылки еще и 404.
То есть, на доноре размещена ссылка на несуществующую страницу сайта клиента.

Что делать с такими ссылками?
1. Отправить в disavow tool?
2. Настроить 301 редирект?
3. Ничего не делать

✔️Вопрос принят.
Вопрос 1714

На сайте настроены технологии Турбо-страниц и AMP-страниц, мобильная версия реализована на поддомене, плюс есть основная html версия страниц. Как избежать проблем с дублированием контента и определением канонической страницы? Какую версию в таком случае должен индексировать поисковый бот? Как связать между собой все эти версии страниц?

🕐 Время вышло. Вопрос набрал меньше лайков за 24 часа.
💭 #Ответы на вопросы!

Вопрос 1702

Что такое социальные сигналы и какие они есть? Работают ли они сейчас для SEO? Какие соц. сигналы важны для Google, а какие для Яндекса?

❗️Ответ

💡Социальные сигналы – реакция аудитории на сайт в соцсетях. Основная задача поисковых систем – предоставлять пользователю качественный и релевантный контент. Тот факт, что аудитория проявляет интерес к Вашему сайту в интернет пространстве, свидетельствует о его высоком качестве и авторитетности. Именно поэтому социальные сигналы оказывают влияние на ранжирование сайта.

👉 Самые важные социальные сигналы – лайки, репосты и комментарии в соцсетях. Также косвенно влияют:

▫️количество подписчиков в соцсетях;
▫️посещаемость аккаунтов компании;
▫️упоминание бренда;
▫️отзывы и обзоры на продукцию/услуги.

⚠️ Безусловно, социальные сигналы – далеко не самый важный фактор и без него можно обойтись. Однако, SEO включает в себя комплексный подход, поэтому пользоваться этим видом продвижения можно и нужно.

👉 Как увеличить социальные сигналы:

▫️добавить на сайт иконки со ссылкой на соцсети;
▫️улучшать юзабилити сайта, чтобы кнопки лайков, репостов и переходов в соцсети были доступны для пользователей и привлекали их внимание;
▫️создавать интересный контент, чтобы у пользователей возникало желание им делиться;
▫️использовать качественные изображения на сайте;
▫️сотрудничать с другими брендами;
▫️устраивать розыгрыши, чтобы привлекать внимание к бренду.

‼️У Вашего бизнеса есть страничка в социальных сетях? Какие социальные сигналы работают по Вашему мнению? Делитесь опытом в комментариях!

🚨 via @siteclinic_doctor 🚨
💭 #Ответы на вопросы!

Вопрос 1703

Почему в некоторых нишах в ТОП-10 Яндекса появляются vk или Instagram страницы? Ниша не самая низкоконкурентная при этом (например, ювелирные изделия на заказ ). Как бороться сайту?

❗️Ответ

💡 Страница коммерческого профиля в социальных сетях может участвовать поиске, как и страница обычного сайта, если она достаточно точно отвечает запросу пользователей.
Органический поиск помогает не только найти лояльную аудиторию, которая превратиться в подписчиков, но и:

▫️приносить лидов с поиска;
▫️может занять еще одно место в ТОПе помимо основного сайта.

👉 При продвижении профиля работают принципы классического SEO:

▫️страница отвечает на запрос пользователя;
▫️описание страницы, статуса, а также посты на странице тематические и оптимизированы;
▫️страница регулярно обновляется;
▫️аудитория достаточно активна, страница имеет хорошие показатели ПФ и часто обновляется новым материалом;
▫️присутствуют внешние ссылки.

⚠️ Для успешной борьбы с страницами из социальных сетей в выдаче, нужно помнить, что коммерческий профиль социальной сети — это всего лишь сайт, лишенный стандартных приемов в оптимизации, которые в свою очередь могут применять обычные сайты, например, такие:

1️⃣ Работа над коммерческими и поведенческими факторами (расширение ассортимента, вывод информации, которая может понадобиться пользователю для совершения покупки, улучшение привлекательности сниппетов и др.)

2️⃣ Внутренняя оптимизация (расширение структуры, корректировка шаблонов title, description, h1, доработка текстового содержимого посадочных страниц и др.).

3️⃣ Эксперименты с наполнением и выводом информации на товарных карточках и листингах.

‼️Прокомментировать ответ или задать уточняющий вопрос можно у нас в блоге. Welcome в комментарии!

🚨 via @siteclinic_doctor 🚨