SЕalytics (Сергей Людкевич)
2.5K subscribers
790 photos
9 videos
2 files
3.54K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
В свежем выпуске подкаста Search Off The Record гуглоиды из Search Relations team Гэри Ийеш, Джон Мюллер и Мартин Шплитт обсудили тему выбора доменного имени.
Сначала они поговорили о выборе доменной зоны первого уровня (TLD – top level domain), где повторили уже ранее высказанный Джоном Мюллером тезис о том, что не стоит выбирать для продвижения домены в дешевых доменных зонах, перегруженных спамом.
Затем обсудили тему покупки дропов с ранее наложенными ручными санкциями. Здесь все банально – если санкции были наложены за контент, то беспокоиться не о чем в том случае, если контент будет новый. А вот если к санкциям привели внешние факторы, то проблема действительно существует, так как удалить внешние ссылки, приведшие к санкциям, несколько сложнее.
Но самое интересное произошло в конце, когда коснулись темы размещения ключевых слов в URL. Гэри Ийеш заявил следующее:
"Все, что находится в URL, может быть технически изменено владельцем сайта. Поэтому мы, вероятно, не хотим придавать такого рода вкладу такой большой вес. Это означает, что в ранжировании это может не помочь так сильно, как думают люди."
Правда, никто из гулоидов не подумал о том, что в этом случае ссылка в виде URL превращается из "безанкорной" в "анкорную", и ключевые слова попадают в анкор-лист со всеми вытекающими. Ну, не могут они думать, как сеошники, хотя и много рассуждают про SEO. )
👍10
Вредят ли токсичные ссылки, ведущие на несуществующие страницы сайта? Гуглоид Джон Мюллер в дискуссии на форуме Reddit утверждает, что нет:
"Если Вы установите 404/410 на страницы, на которые ведут такие ссылки, они не будут иметь никакого эффекта".
Так что можно иметь в виду, как запасной способ избавления от токсичных ссылок. Жаль, что он не сработает для главной страницы сайта, так как для нее отдавать код состояния 404 – плохая идея.
👍2
В англоязычной версии страницы документации Центра Google Поиска "Структура URL" изменился первый абзац. Теперь он звучит так:
"Google поддерживает URL-адреса, так как определено в RFC 3986. Символы, определенные стандартом как зарезервированные, должны быть закодированы в процентах. Незарезервированные символы ASCII можно оставить в незакодированном виде. Кроме того, символы в диапазоне, отличном от ASCII, должны быть закодированы в UTF-8."
На соответствующей странице всегда запаздывающей в плане внесения изменений русскоязычной версии еще сохраняется гораздо менее информативная прежняя редакция:
"Структура URL сайта должна быть по возможности простой. Попробуйте упорядочить контент так, чтобы она могла быть понятна человеку."
Так что тем, у кого вдруг наблюдаются проблемы с индексацией в Google, не лишним будет проверить, все ли URL соответствуют стандарту RFC 3986.
👍61
Немножко ликбеза от неутомимого гуглоида Джона Мюллера.
В своем Твиттере он отвечает на вопрос, учитывается ли в ранжировании атрибут rel=noopener.
Ответ: Нет. Равно как и атрибут rel=noreferrer.
Использование этих атрибутов относится к вопросам безопасности и не имеет полезного сигнала для ранжирования.
Честно говоря, даже не представляю, какой характер учета в ранжировании данного атрибута подразумевал спрашивающий? Не учитывать такую ссылку, потому что ее владелец не доверяет в плане безопасности сайту, на который ссылается, раз позаботился об устранении уязвимости? Так, к примеру, на WordPress'е он добавляется автоматом ко всем ссылкам, открывающимся в новом окне.
👍3
Оказывается, сокращение данных в отчетах Google Search Console по ссылкам, о котором я писал на прошлой неделе, обусловлено не экономией ресурсов, а все-таки сбоем. Гуглоид Джон Мюллер в дискуссии в Твиттере, посвященной этой проблеме, в полушутливой манере проблему таки признал и пообещал, что она будет пофиксена в течение недели.
Тут на канале noindex, nofollow интересуются, как Яндекс теперь будет индексировать Твиттер после того, как тот запретил всем, кроме Googlebot'а, свою индексацию. А также, как и сейчас, то есть никак.
Кстати, в файле https://twitter.com/robots.txt увидел нестандартную директиву Noindex. Каких-то интересных сеошников нанял Илон Маск )
🤔4😁21
Случается, что люди, которые приходят ко мне на консалтинг с относительно небольшими сайтами, почему-то сильно беспокоятся об оптимизации краулингового бюджета, видимо, начитавших всяких сеошных статеек.
Гуглоид Джон Мюллер обозначил планку, находясь ниже которой, вам не стоит об этом задумываться: 100 тысяч страниц. Те, у кого сайты поменьше, могут спать спокойно )
👍11
Совет от подписчика из обсуждения предыдущего поста канала. В общем-то, целиком и полностью согласен и рекомендую взять на вооружение.
🔥1😁1
Для Google лучше всего использовать Indexing API, его можно настроить самостоятельно или через платный инструмент. В сравнении с отправкой в Search Console этот метод работает быстрее и без жестких лимитов (их всегда можно увеличить).

Для Яндекса лучше всего использовать webmaster.yandex.ru/site/indexing/reindex/, но если суточных лимитов критически не хватает, то можно попробовать использовать IndexNow в любом из инструментов (например, в нашем или бесплатном от коллеги).

Есть ещё такой классический метод как создание автообновляемой XML карты сайты. Он работает не так быстро как предыдущие, но может их дополнять. А ещё его данные используют поисковые системы как один из сигналов для определения основной версии страницы среди дублей, поэтому тоже must have.
🔥4👍3❤‍🔥1
Две недели назад я рассказывал про поддержку имён сайтов в Google с помощью структурированных данных типа WebSite.
Сегодня в блоге Google Search Central анонсирована поддержка имен сайтов для поддоменов не только на мобильных устройствах, но и на десктопах.
Кроме того, появился "обходной" путь, если по какой-то причине предпочтительные или альтернативные имена не могут быть выбраны с использованием свойства alternateName.
Также признана ранее озвученная буржуйскими вебмастерами проблема, когда в некоторых случаях имя сайта, отображаемое для главной страницы, может не распространяться на другие страницы этого сайта, и сообщено об активной работе на ее решением.
Жаль только, что поддержка имён сайтов по-прежнему ограничена только английским, французским, немецким и японским языками.
Самый словоохотливый гуглоид Джон Мюллер высказал на удивление здравую позицию по отношению к SEO:

"SEO определенно не предназначено для того, чтобы ломать поисковые системы. Я думаю, что это популярный мем, потому что обычно это тот вид SEO, который замечают. SEO по своей сути имеет решающее значение для поисковых систем (говорю, как человек, работающий в поисковой системе). Тем не менее, есть также много фокусов-покусов, которые продаются как SEO, и много мусора производится от его имени."

Приятно слышать такое от представителя поисковой системы. Как правило они называли сеошников разными нехорошими словами и сравнивали с хулиганами, ворующими яблоки в чужом саду.
Хотя, все течет, все меняется. И вот уже у компаний, владеющих поисковыми машинами, возникают собственные SEO отделы, чтобы продвигать свои сервисы в других поисковых машинах )
👍71
Ну вот и первая ласточка по дискриминации контента, созданного искусственным интеллектом.
Google Merchant Center сообщает, что с 28 августа 2023 года будет обновлена политика рейтинга продуктов. В частности, будет добавлен пункт:

"Автоматизированный контент: мы не разрешаем обзоры, которые, в основном, сгенерированы автоматизированной программой или приложением искусственного интеллекта. Если вы определили такой контент, он должен быть помечен как спам в вашей ленте с помощью атрибута <is_spam>."

Ждем распространения прецедента на другие сферы ;)
Интересный пример того, как трепетно относятся сеошники к любым рекомендациям поисковых систем, даже если они не относятся к SEO.
На странице руководства по стилю из документации для разработчиков Google есть рекомендация не использовать цифры в заголовках для указания последовательности разделов.
Отсюда у буржуйских (а может и не только у буржуйских) сеошников образовалось поверие, что это мешает хорошему ранжированию (хотя речь в документации идет всего-лишь о стилистических предпочтениях).
Гуглоид Джон Мюллер предложил забить:

"Вы слишком много думаете об этом".

Не могу не не согласиться с этим предложением. Кстати, подобных поверий мне приходится довольно много выслушивать во время консультаций. Это еще не самое нелепое )
👍3
Поверье, что исходящие ссылки на популярные ресурсы могут благоприятно сказаться на ранжировании донора - очень старое и бесчисленное множество раз развенчанное.
Но некоторые сеошники продолжают в него верить. Очередное развенчание от Джона Мюллера на форуме Reddit сопровождено философским умозаключением:

"И, конечно же, чем больше Google говорит, что это не так, тем больше людей верят, что это должно быть правдой."

Определенный резон в этом, несомненно, есть. Существует немалое число сеошников, уверенных в сознательной дезинформации со стороны представителей поисковых машин.
😁4🤔3👍1
Яндекс Вебмастер прислал письмо о вступлении в силу запланированных ранее изменений в индексировании AJAX-сайтов:

"Страницы с элементом «?_escaped_fragment_=» в URL-адресе больше не поддерживаются в поиске Яндекса. Скоро они перестанут индексироваться.

Вместо адресов https://site.ru/page?_escaped_fragment_=example в поиск будут попадать страницы вида https://site.ru/page#!example."

Хозяйке на заметку.
👍5
Google анонсировал инструмент для удаления персональной информации из результатов поиска. И хотя панель предупреждений пока стартует только в США, возможность отправить запрос на удаление персональной информации доступна для всего мира.

Любопытно наличие опции "Контент содержит изображение лица младше 18 лет". Ищем на сайте конкурента фотки с детьми и направляем запрос на удаление страниц, на которых они находятся )
Задали вопрос, какой максимальной длины может быть цепочка редиректов, чтобы ее правильно обработали краулеры поисковых машин.
Практический опыт подсказывает, что цепочку в два редиректа краулеры что Яндекса, что Google обрабатывают корректно. Длиннее я бы не рекомендовал делать. Хотя, к примеру, в документации Центра Google поиска о спецификации файла robots.txt указывается, что
"Google выполняет не менее пяти переходов в цепочке переадресаций согласно RFC 1945. Затем поисковый робот прерывает операцию и интерпретирует ситуацию как ошибку 404, относящуюся к файлу robots.txt".
👍7
Обнаружил в Метрике у одного из проектов новую группу отчетов "Средние показатели по рынку".
Выходит, эту группу отчетов запустили в бета-тестирование (судя по всему, с 1 августа), и этому проекту посчастливилось попасть в выборку.
В общем, можно будет сравнить себя со средней температурой по больнице ситуацией на рынке. Может, кому-то покажется полезным.
👍8