SЕalytics (Сергей Людкевич)
2.5K subscribers
789 photos
9 videos
2 files
3.53K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Блог Яндекс Вебмастера сообщает о переносе страницы с товарными фидами в отдельный раздел меню — «Товары в поиске».
"Этот раздел предназначен только для товаров. Раздел с дополненным представлением и загрузкой фидов с другими предложениями остался на прежнем месте, но теперь называется «Услуги и предложения в поиске»."


Надо же — в Яндексе что-то происходит! 😊
😁5👍2
Гуглоид Дэнни Салливан утверждает, что далеко не все сайты, у которых ухудшилось ранжирование, имеют проблемы с полезным контентом:
"Еще одна вещь, которую следует иметь в виду, это то, что некоторые сайты, на которые я заглядывал, где кто-то считает, что у них проблема с полезным контентом, – с ними все в порядке. "

Действительно, в последнее время у буржуйских сеошников стало модным валить все проблемы на Google Search's Helpful Content System.
👍3
SЕalytics (Сергей Людкевич)
Еще одно весьма интересное высказывание гуглоида Дэнни Салливана по поводу того, что E-E-A-T не является фактором ранжирования: "Это не фактор ранжирования. Это не та вещь, которая будет учитываться в других факторах. То, что эксперт что-то пишет, волшебным…
Интересное мнение буржуйского сеошника Райана Джонса, некогда бывшего асессором Google, по поводу E-E-A-T:
"EEAT основан на рекомендациях Google по оценке качества поиска. Важно помнить, что QRG — это не список факторов ранжирования, систем или сигналов. Они представляют собой руководства для оценщиков, которые можно использовать для выполнения различных задач."

"Если бы мне пришлось угадывать, я бы сказал, что фактические сигналы, используемые для вознаграждения авторитетных сайтов, сводятся к версии PageRank (то есть авторитету ссылки) и совокупным данным о кликах из журналов поиска, которые передаются в какой-то алгоритм машинного обучения."

Ну, и, собственно, вывод:
"Значит, мне не нужны биографии авторов, контактная информация, обзоры экспертов или другие элементы, связанные с EEAT, для моего контента?
Если рейтинг — единственное, что вас волнует, то нет, он вам не нужен.

Тем не менее, большинство из нас заботятся о пользователях, конверсиях, продажах и т. д. – и пользователи любят это."

В общем, еще одно мнение в пользу того, что E-E-A-T, не являясь прямыми факторами ранжирования, в идеале должны коррелировать с поведением пользователей на странице, которое "нравится" алгоритму ранжирования.
Ну, если только , кто-то не задался целью это правильное поведение сымитировать. 😉
Хочешь попасть в спецблок "Discussions and forums" - заводи топик на Reddit 😉
👍2
Forwarded from noindex, nofollow
В результате анализа выдачи по 10 000 запросам про обзоры товаров, Глен Олсопп выяснил, что по 7702 из них показывался блок "Discussions and forums" (Обсуждения и форумы).
В 7509 результатах в блоке присутствовал Reddit.com и в среднем он занимал 1,9 из 3 ссылок.
via Detailed.com
👍3
Google внес дополнение в документацию о директиве canonical, уточняющее что аннотации rel="canonical" с определенными атрибутами не используются для канонизации.
В англоязычной версии документации появилась фраза:
"Аннотации "rel="canonical", предлагающие альтернативные версии страницы, игнорируются; в частности, аннотации rel="canonical" с hreflang атрибутами lang, media и type не используются для канонизации. Вместо этого используйте соответствующие аннотации link для указания альтернативных версий страницы; например, link rel="alternate" hreflang для аннотаций языка и страны."

Будьте внимательны.
👍3🙏1
В одной закрытой группе увидел заявление, что генерация битых ссылок на сайт якобы способствует расходованию его краулингового бюджета на URL с откликом 404. Типа это логично. Логика – это, конечно, хорошо, но не всегда логика сеошника совпадает с логикой гуглоида или яндексоида. Поэтому лучше иметь пруфы. Итак, что же по этому поводу думают гуглоиды? Вот позапрошлогоднее высказывание Гэри Ийеша в подкасте "Search Off the record", что страницы с откликом 404 проблемой для краулингового бюджета не являются.
И вообще, в документации Google "crawl budget" переводится на русский язык именно как "лимит на сканирование", т.е. для его расходования краулер должен просканировать страницу, что происходит только при отклике 200.
Однако все-таки есть некоторые нюансы, когда страницы с откликом, отличным от 200, могут косвенно влиять на краулинговый бюджет. О них Джон Мюллер рассказывал несколько лет назад:

1) Если удалить с сайта достаточно большое число страниц, и краулер обнаружит, что они теперь отдают 404 вместо 200, то он может решить, что структура сайта изменилась, что может повлиять на краулинговый бюджет.

2) Если на сайте много редиректов, то это тоже может повлиять на краулинговый бюджет, т.к. краулер будет извлекать конечные URL дольше и поэтому уменьшит число одновременных запросов к серверу, чтоб не перегружать его.
Отмечу, что в этом случае особенно неприятны цепочки редиректов, поэтому их надо по возможности сокращать, в идеале до одного редиректа.
👍91
Google рассказывает о нововведениях в расширенных результатах поиска для пользователей Европейской экономической зоны:
"Новый расширенный результат карусели доступен для запросов о путешествиях, местных достопримечательностях и покупках. По запросам о покупках расширенные результаты карусели сначала тестируются в Германии, Франции, Чехии и Великобритании."

"Мы также вводим специальные блоки-агрегаторы, которые включают ссылки на сайты-агрегаторы со всего Интернета. Единицы агрегатора позволяют пользователям легко просматривать лучшие результаты агрегатора по соответствующему запросу. Пользователи также могут нажать «Другие сайты» , чтобы просмотреть дополнительные сайты-агрегаторы, соответствующие их запросу. В наличии имеется несколько типов агрегатов:
Сайты мест
Сайты вакансий
Места полетов
Сайты продуктов (сначала тестируются в Германии, Франции, Чехии и Великобритании)"

Органика продолжает задвигаться куда подальше.
👍1
Мастер-класс от гуглоида Дэнни Салливана по анализу падения поискового трафика:
"1) Зайдите в Search Console, выберите «Результаты поиска» в разделе «Эффективность».
2) С помощью инструмента "Диапазон дат" сравните последние шесть месяцев с предыдущим периодом
3) Отсортируйте отчет по запросам по разнице в кликах.
4) Посмотрите на некоторые из топовых запросов, по которым количество кликов упало больше всего
5) Посмотрите, по-прежнему ли вы в топе результатов.

Если вы по-прежнему в топе результатов, вероятно, вам не нужно исправлять ничего существенного. Мы просто можем найти другой контент, который, по мнению наших систем, более полезен, и небольшое снижение рейтинга может привести к падению трафика."


Просто, но достаточно эффективно для самого начального анализа. Делай как Дэнни.
👍6
Кстати, по поводу корреляции E-E-A-T и факторов ранжирования гуглоиды ещё четыре года назад сказали следующее:
"Примечание от марта 2020 г. Когда мы впервые опубликовали эту статью, нас стали спрашивать, учитываются ли критерии E-A-T при ранжировании результатов поиска. Наши системы оценивают рейтинг страниц на основе самых разных сигналов. Мы стараемся подбирать эти сигналы так, чтобы результаты соответствовали той оценке по критериям E-A-T, которую дают контенту специалисты. Таким образом, оценивая компетентность, авторитетность и достоверность своего контента, вы сможете лучше понять, что учитывают наши системы."

В общем, пусть и не фактор ранжирования, но штука, очень хорошо коррелирующая с факторами ранжирования.
SЕalytics (Сергей Людкевич)
Google Search Central Youtube Channel анонсировал новый цикл видеороликов "How Search Works" с Гэри Ийешем. Ждите первый выпуск уже в этом месяце. Надеюсь, будет более познавательным, чем циклы "SEO Made Easy" с Мартином Шплиттом и "Ask Googlebot" с Джоном…
Итак, вышел первый ролик нового цикла "How Search Work" с Гэри Ийешем. Он является вводным, и в нем декларируется цель всего цикла – объяснение трех основных этапов поиска Google:
1. Сканирование.
2. Индексирование.
3. Обработка и ранжирование.
А также изучение "анатомии" поисковой выдачи.
Гэри подчеркивает два важных момента для понимания принципов поиска Google:
1. Google не принимает оплату за более частое сканирование или более высокое ранжирование.
2. Качество контента веб-сайта имеет первостепенное значение для достижения высоких позиций в результатах поиска.
О качестве Гэри тоже обещает поговорить.
Буржуйский сеошник Гленн Гейб попал на эксперимент в выдаче Google, в котором ответ от SGE густо сдобрен ссылками. Похоже, старая добрая концепция "10 синих ссылок" от органики рискует метаморфизировать в концепцию "10 пунктирных ссылок" от SGE.
Как рождаются сеошные мифы.
Барри Шварц на днях в своем видеообзоре запустил утку, что гуглоид Дэнни Салливан сказал, что восстановление позиций упавшего сайта после внесения изменений может занять две недели. По факту оказалось, что было сказано не "2 weeks", а "couple of weeks", а сам Дэнни написал, что под этой "парой недель" он подразумевал отнюдь не строго две, а несколько недель, более того:
"В этом контексте я должен был сказать, что это может занять от нескольких недель до нескольких месяцев или всего несколько месяцев. Прошу прощения за это. "

"Легким движением руки" две недели превращаются в несколько месяцев. 😊
😁5👏3
Google перестал уведомлять вебмастеров о причинах удаления из поисковой базы контента, в отношении которого было использовано т.н. "право на забвение". Это случилось после того, как как шведский суд постановил, что информирование вебмастеров об исключенном из поиска контенте является нарушением конфиденциальности.
Получается какое-то право на забвение права на забвения.
😁5👍2
Война машин.
Google использует искусственный интеллект, чтоб обнаружить фейковый контент в отзывах о компаниях в Поиске и Google Maps. Которые, как пить дать, сгенерировал тоже искусственный интеллект.
Как страшно жить... )
😁4😢1🤨1
Немножко юмора от буржуйского сеошника Мэтта Гиббса. Кстати, что-то подобное у меня промелькнуло в голове после фееричной новости от Яндекса, что они перенесли одну страницу в другой раздел Яндекс Вебмастера. 😀
😁6
Буржуйский сеошник Гленн Гейб делится примером быстрого роста поисковой видимости в Google контента, сгенерированного ИИ (тесты показывают вероятность 98%). Да еще и с платным доступом в придачу. Поведение пользователей, говорите?
P.S. Ребята прошаренные, даже мету robots с директивой noarchive не забыли поставить, чтоб через кэш контент на халяву не смотрели.
👍2😐1
Gartner прогнозирует, что объем поисковых систем упадет на 25% к 2026 году из-за чат-ботов с искусственным интеллектом и других виртуальных агентов.
Ну что, товарищи сеошники, готовы ужаться на четверть?
🤔4
Буржуйский сеошник Гленн Гейб предлагает весьма оригинальный способ узнать, что юзеры думают о вашем сайте – поискать по своему доменному имени в проиндексированных Google страницах экспериментального сервиса Notes от Google Search Labs, доступного, правда, пока лишь только американцам и индусам. Будет, конечно, сильно интересней, если эту фичу расшарят на весь мир.
SЕalytics (Сергей Людкевич)
Ну вот и первая ласточка по разметке для поисковиков сгенерированого с помощью AI контента. Google в англоязычной версии документации ввел (пока в качестве бета-теста) метаданные для сгенерированных изображений "Digital source type"
Очередная ласточка по маркировке контента, созданного искусственным интеллектом.
Google Merchant Center обязывает:
"Если вы используете изображения, созданные с помощью ИИ, в Merchant Center, Google требует, чтобы вы сохранили в исходном файле изображения все теги метаданных, указывающие на то, что изображение было создано с использованием генеративного ИИ.
Не удаляйте встроенные теги метаданных, например, trainedAlgorithmicMedia из таких изображений. Все изображения, созданные искусственным интеллектом, должны содержать тег IPTC DigitalSourceType trainedAlgorithmicMedia. "

Напрашивается распространение этих требований на Google Images.
👍1