Дежурный SEO-доктор
1.6K members
222 links
Официальный канал команды SiteClinic. Отвечаем на вопросы подписчиков по SEO бесплатно!

Задать вопрос можно здесь - @seodoctor_bot

По вопросам рекламы - http://bit.ly/2YIED9f
Download Telegram
to view and join the conversation
Вопрос #333

Как продвигаться в Яндекс новостях? По каким критериям одни ресурсы выше других (в источниках).

🕐 Время вышло. Вопрос не набрал нужного числа лайков за 24 часа.
Вопрос #334

Как проверить склейку доменов в Google, если оператор info: уже не работает? Сервис XSEO показывает в Google странные вещи, указывает на абсолютно другой коммерческий домен, у которого нет ни скопированного контента и ничего подобного что могло бы указывать на зеркало.

🕐 Время вышло. Вопрос не набрал нужного числа лайков за 24 часа.
⁉️Вопрос:

Вы анонсировали статью о продвижении нового сайта в Google.
https://t.me/siteclinic_doctor/362
Когда выйдет?

Вопрос #200 о том, как продвигать новый сайт в Google и Яндексе, уже раскрыт в нашей статье - http://bit.ly/2GaUQO5.
Вопрос #335

Стоит ли паниковать, если в отчёте Гугл консоль показывает крайне малое количество страниц, оптимизированных под мобильные устройства. Но все страницы на сайте оптимизированы под мобайлы.

🕐 Время вышло. Вопрос не набрал нужного числа лайков за 24 часа.
Вопрос #336

Вы пишите: "делайте так, чтобы посетители возвращались на сайт" - http://bit.ly/2GbKmxS. Помогают ли ремаркетинговые кампании в рекламе данный поведенческий фактор, или играют роль только прямые переходы?

🕐 Время вышло. Вопрос не набрал нужного числа лайков за 24 часа.
Вопрос #337

Есть мнение, что стараться увеличить время и глубину просмотра на коммерческих сайтах не стоит, а даже наоборот, стремиться сократить - пользователь должен закрыть вопрос как можно скорее. Что вы об этом думаете?

✔️Вопрос принят.
💭 Ответы на вопросы!
#ответы

Вопрос #331
Как ускорить переиндексацию страницы в поисковой системе Google? На товаре еще неделю назад изменили статус и цены. Несколько раз отправляли её на переиндексацию в Search Console, но в индексе по прежнему старая версия.

❗️ Ответ

👉 Для ускорения переиндексации страниц в ПС Google можно сделать следующее:

1️⃣ Запинговать необходимы страницы. Это даст сигнал боту для обхода страниц.

2️⃣ Дополнительно можно создать sitemap.xml с изменившимися страницами и добавить её в Search Console.

👆Для улучшения индексации, помимо добавления страниц на индексацию в Вебмастере, можно применить следующие методы:

1️⃣ Вывести на сайте сквозные блоки со ссылками на изменившиеся или созданные страницы.

2️⃣ Настроить заголовки Last-Modified.
Суть этого метода — если после последнего обхода бота на страницы не вносились изменения, сервер должен дать 304 ответ, чтобы бот не скачивал их содержимое и прежде всего расходовал квоту на реально изменившиеся со времени предыдущей индексации или же новые документы.

3️⃣ Избавиться от технических ошибок:
▫️дубли страниц;
▫️медленная загрузка страницы;
▫️перепроверить robots.txt, возможно, закрыты страницы для индексации.

💡Подробнее читайте в нашей статье: Как заставить поискового робота посещать ваш сайт чаще

via @siteclinic_doctor

Задать свой вопрос - https://t.me/seodoctor_bot
Вопрос #338

Информационный сайт. Скопипастили статьи с ссылкой на источник. Но сайты, которые скопипастили статьи, плохого качества. И получается, что на сайт ведет много почти идентичных ссылок с плохих сайтов. Может ли это как-то повлиять на продвижение в гугле? Есть ли смысл отклонять через disavow? Или писать авторам сайта и просить убрать? Но не окажется тогда, если убрать полностью ссылку, на продвижении в Яндексе?

✔️Вопрос принят.
Вопрос #339

Что делать, если количество страниц пагинации в каталоге в некоторых категориях более 1000? Есть ли какой-то лимит? Стоит ли оставлять как есть или как оптимизировать пагинацию на больших каталогах?

Из вариантов:
1. Добавить фильтры (но это не всегда возможно из-за особенностей ассортимента).
2. Убрать часть позиций из каталога, оставив только топовые. Остальные выводить через sitemaps.
3. Ваш вариант.

🕐 Время вышло. Вопрос не набрал нужного числа лайков за 24 часа.
👆Новости Netpeak Software| Netpeak Spider 3.2: рендеринг JavaScript и экспресс-аудит в PDF

Cегодня ребята из Netpeak Software представляют улучшенную версию SEO-инструмента → Netpeak Spider 3.2 😱

Самые важные изменения:
🕷 рендеринг JavaScript;
🕷 экспресс-аудит качества оптимизации (PDF);
🕷 расширенное описание ошибок;
🕷 и многое другое ;)

Кстати, не упустите возможность воспользоваться скидкой 20% с промокодом NS3-2-SC до 23 апреля включительно → скоро повышение цен 💰

Узнайте обо всех изменениях из поста на блоге 👈🏼

#реклама
💭 Ответы на вопросы!
#ответы

Вопрос #330
Бла-бла-Пишите текст для людей-бла-бла. Надоело! Не верю, что в SEO сообществе профессионалов нет алгоритма по подгонке текста к SEO параметрам поисковика! Мы же видим выдачу!! Документы Топ 3 90% тематик заспамлены ключами! И не падают. Смотрю высококонкурентные тематики: Мебель, строительство, Юр.услуги и т.д. Используется черное сео. Их бы давно бы уже снесло за топ 100, но они в топ 3!? Почему? Не говорите, что это из-за других факторов, типа PBN и т.д. Дайте нам достоверную информацию по текстовой оптимизации!


❗️ Ответ

👆Текстовая оптимизация - это не ключ к ТОП-3.
Сайты, которые стоят в ТОПе со спамными текстами, держатся там не из-за текстов. Мы считаем, что на вершине ТОПа их удерживают ͟с͟и͟л͟ь͟н͟ы͟е͟ ͟п͟о͟в͟е͟д͟е͟н͟ч͟е͟с͟к͟и͟е͟ ͟ф͟а͟к͟т͟о͟р͟ы͟.

Сайт может быть заспамлен ключевыми запросами, например, как тут. Но накопленные за время нахождения в ТОПе положительные ПФ дают ему некий иммунитет от санкций. Логика алгоритма такова: раз сайт решает проблему пользователей, его нужно показывать в ТОПе, и нарушения в текстах при этом – второстепенный фактор.

❗️Важные моменты:

1️⃣ Google: Чтобы подобраться как можно ближе к ТОП-10 Google, нужен релевантный контент + ссылки. Чтобы затем постепенно пролезть на вершину ТОПа, нужны ПФ + ссылки.

2️⃣ Yandex: Чтобы попасть в ТОП-10 Яндекса, сайту нужен релевантный контент и Многорукий Бандит. Чтобы удержаться в ТОПе и пролезть в первую тройку, нужны сильные ПФ.

⚠️ Ахтунг: У молодых сайтов нет истории ПФ - следовательно, нет иммунитета от санкций.
Со спамом в ТОПах стоят в основном «старички" с длинной историей ПФ. Молодому сайту нельзя ориентироваться на них при оптимизации текстов – это прямая дорога в Баден-Баден.

3️⃣ Важность текстовой оптимизации сильно преувеличена.
Наш опыт: если удалить спамные тексты на странице, которая находится в ТОП-3, ее позиции не проседают, так как она держится там не из-за текстов.
Пытаться добить сайт до ТОП-3 за счет точечной оптимизации типа убрал там-добавил здесь – пустая трата времени.

👉 Вместо заточки текстов под конкретные ключи рекомендуем ̶п̶и̶с̶а̶т̶ь̶ ̶т̶е̶к̶с̶т̶ы̶ ̶д̶л̶я̶ ̶л̶ю̶д̶е̶й̶ работать над User Value Content: LSI+Proof Terms + Related Terms.

4️⃣ Черное SEO существует.
Но накручивают не тексты, а… вы уже знаете ответ.

🔥via @siteclinic_doctor
Вопрос #340

Как правильно использовать микроразметку для социальных сетей Open Graph? Нужно ли указывать атрибут prefix="og: http://ogp.me/ns#" в теге html? Как настроить универсальный вариант микроразметки для самых популярных социальных сетей?

🕐 Время вышло. Вопрос не набрал нужного числа лайков за 24 часа
Вопрос #341

Есть ли понимание, какие факторы изменились в ранжировании Google с мартовским апдейтом? Большой контентный проект с хорошим трафиком начал плавно терять трафик после апдейта и снижение до сих пор не остановилось. Сезонного спада нет, последние год-полтора проект уверенно рос.

✔️Вопрос принят. Время ответа - Вт,16.04
Вопрос #342

Конкурент скопировал авторитетный ecommerce-сайт: код, структуру, URL-ки, товары. При этом заменил метатеги, SEO-тексты и описания товаров. Как это может повлиять на позиции сайта-источника?

✔️Вопрос принят.
💭 Ответы на вопросы!
#ответы

Вопрос #337
Есть мнение, что стараться увеличить время и глубину просмотра на коммерческих сайтах не стоит, а даже наоборот, стремиться сократить - пользователь должен закрыть вопрос как можно скорее. Что вы об этом думаете?

❗️ Ответ
Мы предполагаем, что при оценке глубины просмотра конкретного сайта алгоритм ориентируется на средние данные по тематике, ко которой относится этот сайт.

👉 Глубина просмотра сильно зависит от направленности и тематики сайта, поэтому стандартного значения для неё нет.

👉 Зачастую, коммерческие сайты имеют довольно большую глубину просмотра, однако есть исключения. К примеру одностраничные сайты (Landing page) имеют низкие показатели, зато конверсия у них при этом отличная.

👉 Наличие большого количества страниц ещё не означает, что структура у сайта хорошая. Если показатель глубины просмотра низкий, а время просмотра страницы высокое, это может говорить о том, что навигация неудобна для пользователя.

💡Если вы не знаете, на какую глубину просмотров ориентироваться, лучше сфокусируйте внимание на другом факторе - удалось ли пользователю достичь своей цели.


В тему:
▫️Структура коммерческого сайта и SEO
▫️Проектирование структуры и навигации интернет-магазина: возможные проблемы и их решение
▫️Базовые ошибки Юзабилити

🔥 via @siteclinic_doctor
Вопрос #343

Последнее время появилось большое количество сеансов от источника googleapis.com / referral. Прочитал, что это поисковые переходы из блока "Рекомендации" в выдаче. Так ли это? И где можно об этом прочитать в документации Google (так как информацию нашел только на форумах)?
Вопрос #345

В метрике среди популярных поисковых фраз часто вижу те, по которым сайт не отображается в выдаче. При этом метрика говорит, что по этим запросам пользователи заходят на сайт и даже заявки оставляют. Руками проверяю эти запросы в поиске — сайта по ним в выдаче нет.
Как такое может быть? Проверяю в режиме инкогнито.
💭 Ответы на вопросы!
#ответы

Вопрос #338
Информационный сайт. Скопипастили статьи с ссылкой на источник. Но сайты, которые скопипастили статьи, плохого качества. И получается, что на сайт ведет много почти идентичных ссылок с плохих сайтов. Может ли это как-то повлиять на продвижение в гугле? Есть ли смысл отклонять через disavow? Или писать авторам сайта и просить убрать? Но не окажется тогда, если убрать полностью ссылку, на продвижении в Яндексе?
❗️ Ответ

👉 Google:
Теоретические такие ссылки не должны вредить ранжированию в Google. С тех пор, как Пингвин интегрирован в основной алгоритм, Google не понижает за плохие ссылки – он просто не учитывает из при ранжировании.

💡Мы считаем, что удалять ссылки через Disavow Tool смысла нет по нашим наблюдениям, инструмент не работает.
Если вы боитесь, что такие ссылки могут навредить, лучше пробовать удалить их физически (через контакт с автором сайта).

👉 Яндекс:
Ссылочный фактор в Яндексе имеет очень слабое влияние на ранжирование, а ссылки с таких ресурсов не влияют вообще. Если их удалить, с наибольшей вероятностью на видимости сайта это вообще никак не скажется.

🔥via @siteclinic_doctor
Вопрос #344

В чем разница между ссылочным продвижением под Яндекс и под Гугл и как правильно строить ссылочное для Гугла и не угодить под Минусинск Яндекса?

✔️ Вопрос принят.
Вопрос #346

Часто советуют на 2-3 уровень ссылочной пирамиды покупать арендные ссылки. Но в биржах типа sape большинство площадок очень сомнительного качества. Как находить хорошие арендные ссылки и где?

✔️ Вопрос принят.
Вопрос #347

Стоит ли закрывать от поисковых систем страницы политики конфиденциальности и пользовательского соглашения? Тексты на них — шаблоны, уникальность — 0%.

✔️ Вопрос принят.