SЕalytics (Сергей Людкевич)
2.5K subscribers
790 photos
9 videos
2 files
3.54K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Немного размышлений по предыдущей теме.
В том же треде в Твиттере Дэнни Салливан пишет по поводу заявления в статье на сайте издания TheVerge, что Google проверяет информацию об авторе ("Мы не уверены, удосуживаются ли читатели вообще проверять наши учетные данные, но мы знаем, что Google это делает."):
"Эта часть статьи неверна и не цитирует нас, говорящих так. Google никоим образом не "проверяет наши учетные данные". Я понимаю, что люди могут неправильно понять это, но я не ожидал, что новостное издание, исследующее все это, неправильно поймет и заявит так... Это неправильное представление, для устранения которого, как я поделился в ноябре прошлого года, мы будем делать больше.
Авторские заголовки - это не то, что вы делаете для Google, и они не помогают вам повысить рейтинг. Это то, что вы делаете для своих читателей, и публикации, использующие их, могут обладать другими характеристиками, которые, по мнению наших систем ранжирования, соответствуют полезному контенту"


Похоже, что Дэни слегка подзабыл, что рекомендует руководство для асессоров Google (п. 3.3.4):
"В задачах оценки качества вам нужно будет определить, кто создал основной контент на странице.
...
Для отдельных авторов и создателей контента статьи с биографической информацией и онлайн-дискуссии могут стать хорошим источником информации"

Ну, и в примерах есть следующее (п. 5.6):
"Нет никаких доказательств того, что автор имеет финансовый опыт"

Что-то тут не стыкуется.

...
Многабукв от буржуйского сеошника Гленна Гейба про Navboost – поведенческий сигнал в Google, засвеченный во время антимонопольного разбирательства. Navboost оценивает качество контента на основе поведения пользователя на сайте (так называемое "счастье пользователя").
Гленн делает простой вывод – если посетители, приходящие из поиска на ваш сайт, "голосуют ногами", ждите падения позиций. Поэтому очень важно следить за качеством контента и его подачи в первую очередь на траффикогенерирующих страницах.
Трудно не согласиться.
👍6
Всем любителям текстовых и ссылочных анализаторов, кластеризаторов по топу и прочих сеошных сервисов, что-то там измеряющих, усредняющих и вычисляющих идеальные комбинации поисковых сигналов, гуглоид Дэнни Салливан ответственно заявляет:
"Существует множество сторонних инструментов SEO, которые могут рекомендовать, чтобы страница содержала определенное количество слов или каким-либо образом была построена определенным образом для успеха в поиске. Советы третьих лиц, даже новостные статьи, могут подсказать что-то в этом роде. Следование таким советам не гарантирует высокий рейтинг. Более того, такие прогнозы и советы часто основаны на анализе средних значений, что упускает из виду тот факт, что совершенно разные и уникальные страницы могут быть успешными в поиске и действительно преуспевают."

И я с ним, в общем и целом, согласен.
👍5😁5
SЕalytics (Сергей Людкевич)
Google объявил о прекращении с 8 января 2024 года работы инструмента ограничения скорости сканирования в Search Console. Заявленная причина — инструмент устарел и очень редко использовался. Теперь самый быстрый способ снизить скорость сканирования — дать…
Google сказал — Google сделал. Как и обещал, 8 января отключил инструмент ограничения скорости сканирования в Search Console. Типа краулеры поумнели и сами разберутся, что с какой скоростью надо сканировать. Ну, а если вам таки позарез надо снизить частоту сканирования, придется вместо 200 отдавать код статуса 500, 503 или 429.
Неплохая статья о дублированном контенте от буржуйской сеошницы Лазарины Стой.
Каким бывает дублирование, почему оно может мешать корректному ранжированию, как отлавливать четкие и нечеткие дубликаты, что с ними делать.
Может быть полезно для структурирования знаний и освоения определенных аналитических техник.
👍7
Еще одна неплохая статья от буржуйского сеошника Энди Симпсона, в которой он делится техникой анализа данных из Google Search Console.
🔥4
Рекомендую к прочтению руководство по удалению негативного контента из сети и поисковых индексов от буржуйского специалиста по управлению онлайн-репутацией Энтони Уилла. Весьма полезно знать, что можно предпринять для удаления информации в Буржунете.
Кстати, жалобами по DMCA, судя по статистике Googlе, весьма активно пользуются. И что-то мне подсказывает, что не только в благих целях.
👍4
Гуглоид Джон Мюллер рекомендует просто игнорировать наличие токсичных ссылок на ваш сайт.
Конечно, хочется верить в силу и мощь гугловских алгоритмов, но все-таки я бы предпочел подобные ссылки добавить в инструмент Disavow Links. И надеяться, что он таки работает. 😊
👍3
Гуглоиды проапдейтили ссылки на страницах документации - напихали туда побольше ключевиков. Это теперь называется "Более доступные анкор-тексты"
"Что: В рамках наших постоянных усилий по повышению доступности нашей документации мы обновили различные анкор-тексты , чтобы они лучше описывали целевую страницу.

Почему: В зависимости от настроек программы чтения с экрана пользователь может переходить от ссылки к ссылке на странице, поэтому каждый анкор-текст привязки на странице должен быть описательным, даже без учета окружающего контекста."


Делай как Google! 😀
😁4
Буржуйский сеошник Гленн Гейб решил проверить работоспособность атрибута data-nosnippet в Google.
Результат казался предсказуем: таки работает и удаляет из сниппета закрытый им текст.
👍5😁2
Барри Шварц из SERoundTable обнаружил, что в инструменте проверки URL в Google Search Console в качестве ссылающейся указана страница форума поддержки Google, которая содержит не гиперссылку, а просто упоминание URL. Еще один пример подобного ему подкинул подписчик.
Самым правдоподобным объяснением представляется то, что когда-то движки ссылающихся сайтов в приведенных примерах обрабатывали вхождения URL, автоматически формируя гиперссылки, а потом перестали это делать. Ну, либо Google действительно приравнивает к гиперссылке упоминание URL, гиперссылкой не являющееся.
🤔3
Барри Шварц из SERoundTable поделился душещипательной историей о том, что довольное большое и активное буржуйское сообщество r/seo на форуме Reddit подверглось рейдерскому захвату. В этом сообществе издавна был только один модератор. Он стал неактивным на несколько недель. В такой ситуации любой член сообщества может связаться с администрацией Reddit и попросить передать ему права модерации. Чем и воспользовалась группа аккаунтов возрастом не более двух лет (почти новорегов) предположительно из крипты. Новые модеры стали чистить треды и хамить старожилам. Белое буржуйское SEO в опасности. 😊
😁3👍2😱2
Команда Яндекс.Вебмастера настойчиво (уже во второй раз) просит пользователей своего сервиса пройти опрос
"про ранжирование, искусственный интеллект и привлечение органического трафика на сайт"
для того,
"чтобы учитывать ваше мнение в процессе работы."

Среди прочего попадается немало вопросов про генеративные ответы и нейросетевые технологии. Не иначе, как готовятся внедрять свой аналог гугловского SGE.
👎5😱2
Еще один пример в дискуссии на форуме r/seo в Reddit того, как не надо запрещать страницы для индексации. Если Вы хотите запретить индексацию страницы, нельзя использовать наряду с директивой noindex в мета-теге robots еще и запрет сканирования в файле robots.txt. Краулер, которому запрещено сканирование страницы, запрет на индексацию в мета-теге robots просто не увидит. На скриншоте инструмента проверки URL из Google Search Console четко видно, как такую связку интерпретирует Googlebot:
Crawl allowed? No: blocked by robots.txt
...
Indexing allowed? Yes

И страница может продолжать находится в индексе по внешним факторам.
Кстати, краулер Яндекса сейчас себя ведет точно так же.
👍3
Интересное наблюдение от буржуйского сеошника Гленна Гейба - изображения подтягиваются в быстрые ответы от SGE позже, чем текст с той же страницы.
"Мой пост про data-nosnippet появился в SGE через несколько минут после публикации, но изображения появились только через несколько часов. На первых двух скриншотах ниже показан мой пост без изображений, а на последних двух - с изображениями. "

Похоже, текст и изображения для SGE собирают разные краулеры.
Кто-то активно генерирует ссылки на кучу сайтов на несуществующие страницы, URL которых генерируется путем добавления символьной комбинации "/1000" к существующим.
Интересно, что далеко не все сайты по таким адресам отдают 404, многие отдают 200, и такие страницы попадают в индекс.
Интересно, кому и зачем это надо? Если сканируется какая-то уязвимость, то не могу даже предположить, какая.
Джон Мюллер выпустил новый ролик из серии Ask Googlebot, в котором рассказывает о правильном переезде сайта. Ничего революционного, лучшее решение – по-прежнему, 301-й редирект со старого сайта на новый, который надо держать не менее года. Однако, если по какой-то причине редирект технически невозможен, а также невозможно удаление контента на старом сайте, то новый сайт не получит пенальти как дубликат старого. Только не уточнил, как они поймут, что это именно новый сайт, а не его пиратская копия.
👍3
SЕalytics (Сергей Людкевич)
Любопытный факт приводит буржуйская сеошница Лили Рэй: самый большой прирост поисковой видимости в 2023-м году - у сайта ЦРУ.
Сайт ЦРУ оказался наряду с сайтом Оксфордского словаря английского языка победителем по приросту видимости в поисковой выдаче Google и в Великобритании. И всё за счет проекта World Factbook. Выжигают семантику по инфозапросам 😀
Германские ученые из Лейпцигского университета решили провести исследование SEO спама в поисковой выдаче.
Они анализировали поисковую выдачу по 7392 уникальным поисковым запросам тематики товарных обзоров в Google, Bing и DuckDuckGo.
"Временной анализ результатов поиска по обзору товаров должен выявить одну из трех тенденций:
(1) Поисковые системы действительно становятся хуже, т.е. они проигрывают битву с SEO-контентом. В этом случае мы должны увидеть долгосрочный рост количества спама и снижение общего качества.
(2) Поисковые системы выигрывают в преимущество, и мы видим обратное.
(3) SEO – это постоянная борьба, и мы наблюдаем повторяющиеся случаи появления спама с отзывами, который попадает в результаты и покидает
их, поскольку поисковые системы и инженеры по SEO по очереди корректируют свои параметры.
Наши данные свидетельствуют о том, что все поисковые системы могут похвастаться определенным успехом.
В частности, Bing и DuckDuckGo существенно улучшили свои результаты, хотя и на более низком уровне, чем Google. Тем не менее, несмотря на эти достижения, кажется, что (3) является наиболее вероятным сценарием."

В общем, дело ясное, что дело тёмное: у верблюда два горба, потому что жизнь – борьба! 😀
😁4
Буржуйский сеошник Роджер Монтти рассказывает о проблеме, которую называет "Google Weekend Ranking Bug". Суть ее состоит в том, что с недавних пор некоторые домены, относящиеся к так называемым ICANN-era gTLD (разная экзотика типа .academy, .car, .care и т.п.) на выходных полностью исчезают из поисковой выдачи Google и возвращаются на свои места в понедельник.
Выглядит весьма загадочно.