SЕalytics (SEO-аналитика от Сергея Людкевича)
2.54K subscribers
841 photos
9 videos
2 files
3.75K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Буржуйская сеощница Лили Рэй заметила еще одну тенденцию текущего апдейта Google:
"несколько сайтов-издателей о здоровье быстро падают... несколько крупных «авторитетных» сайтов о здоровье упали на 10–20%, а также несколько сайтов о натуральном оздоровлении."


О, нет, только не еще один Medic update! 😀
🤔2
В рекомендациях Google по работе с обзорами от ИИ появился пункт
"Ведение журналов в Search Console

При ведении журналов в Search Console ссылки, которые появляются в кратких пересказах от ИИ, учитываются в общей статистике отчета об эффективности результатов поиска. Подробнее о том, как регистрируются клики, показы и позиции…"
👍5
Google тестирует изменение цвета фона на синий при наведении курсора мыши на сниппет.
А что не на жёлтый? Тогда был бы полный эффект присутствия на "жёлтых страницах". 😁
Оказывается,
"непрерывная прокрутка Google создала новые проблемы для компаний, занимающихся управлением репутацией в Интернете (ORM).

Вместо того чтобы сосредоточиться на оказании положительного влияния на 10 ссылок на первой странице результатов поиска Google для частных лиц и компаний, теперь им приходилось постоянно управлять негативным контентом в расширенном массиве результатов."


Похоже, управляльщики репутацией открыли шампанское, когда Google отменил бесконечную прокрутку страницы выдачи. 😊
👍2😁1
Весьма подробный мануал по экспорту данных из Google Search Console с использованием Google BigQuery от буржуйского сеошника Майка Джинли.
🔥2
Буржуйский сеошник Гаган Готра рассуждает о реалиях современного SEO в Буржуинии:
"И даже сфера SEO также значительно повзрослела по сравнению с 5 годами ранее – сейчас почти все представители малого и среднего бизнеса понимают, что это такое, это требует времени, нет быстрых хаков. И они готовы платить правильному поставщику, чтобы получить результаты со временем, а не идти к кому-то, кто скажет: заплатите за несколько месяцев, и мы сделаем вам это."


К сожалению, отечественная сфера SEO не сможет повзрослеть, пока в Яндексе пусть с переменным, но все-таки успехом работает накрутка ПФ.
👍8
Google сообщил о завершении исправления проблемы с ранжированием, обнаруженной 15 августа.
22 минуты на то, чтоб сменить телефонный номер в чужом профиле в Google MyBusiness. Всего-то понадобилось три запроса с разных аккаунтов со статусом местного гида с уровнем от 2 до 10. Безопасность по-гуловски.
😁5👍2🤔2
Полезные советы от амбассадора Яндекса Михаила Сливинского. Двумя руками за.
👍2
Склеивать или запрещать к индексации? Логика решения и особенности методов для работы с ненужными в поиске страницами.

Есть много способов повлиять на поведение поискового робота - noindex, запрет в robots, clean-param и т.д. Часто вижу, что нет уверенного понимания, что и почему лучше использовать в конкретных случаях. Разберёмся вместе)

Во-первых, сразу определимся, что тут речь о каких-то ненужных в поиске страницах: технических дублях, пустых страницах без контента, etc. Если не ограничить индексирование таких страниц, они могут попадать в поиск, что может замедлять индексирование целевых, полезных страниц. Также обход дублей/мусора создаёт нагрузку на сайт, она может быть значительной. Кроме того, дубли могут показываться в поиске, что приведёт к размытию поисковых сигналов между несколькими страницами, что невыгодно ни сайту, ни поиску.

Разделим эти страницы на несколько когорт:

— нежелательные в поиске страницы с чувствительными данными (заказы пользователей, etc): к таким страницам стоит закрыть доступ авторизацией, чтобы ни поисковые роботы, ни случайные пользователи не смогли в принципе получить этот контент
— страницы без контента, какой-то технический мусор и пр. страницы без шансов показаться в поиске: такие лучше просто запретить к индексации
— страницы, являющиеся дублями (например, из-за добавления cgi-меток к урлу в рекламных системах): стоит подклеить их сигналы к основному (каноническому) урлу

Теперь разберёмся с инструментами, запрещающими индексацию.

Запрет через disallow в robots.txt полезен, если закрываемые страницы хорошо группируются какой-то маской на url. Ценная особенность метода в том, что не требуется обход роботом, и директива применится сразу ко всем урлам в поисковой базе.

Метатег или http-заголовок noindex даёт большую гибкость (страницы могут не иметь общего паттерна в url, и нет ограничения на число страниц), но при этом требуется обход роботом, поэтому потребуется больше времени.

Чтобы подклеить сигналы с дублирующих страниц к основным, используйте элемент rel=canonical, директиву clean-param в robots.txt или 301 редирект.

Атрибут rel=canonical или редирект позволяют реализовать гибкую логику, если нужно, но потребует обход страниц роботом. Если дубли порождаются незначащими cgi-параметрами, выгодно использовать clean-param - это подклеит сигналы к каноническому урлу, при этом роботу даже не потребуется обходить страницы заново. Замечу, что и атрибут canonical, и директива clean-param являются рекомендацией для робота и могут не сработать при существенных отличиях страниц.

Резюмируем: непубличные страницы лучше закрыть авторизацией, мусорные страницы и пустышки - запретить к индексации, содержательные дубли - подклеить к каноническим.

Выбирайте оптимальное решение в каждом конкретном случае.
👍6
Вышел очередной выпуск гугловского цикла SEO Made Easy с Мартином Шплиттом. На этот раз речь идет о страницах со статусом "Обнаружена, не проиндексирована" ("Discovered - currently not indexed") в отчете о страницах в Google Search Console.
Получить это статус страница может по следующим причинам:
1) Googlebot просто еще не успел просканировать URL-адрес, поскольку был занят другими URL-адресами.
2) Низкое качество веб-сайта, обусловленное как техническими причинами (медленная работа сервера или возвращение на запрос краулера кода состояния HTTP 500), так и низким качеством контента (thin content).

Так что если у вас в отчете Google Search Console достаточно страниц со статусом "Обнаружена, не проиндексирована", и это количество не уменьшается со временем, есть повод задуматься о качестве сайта.
👍2
SЕalytics (SEO-аналитика от Сергея Людкевича)
Вышел очередной выпуск гугловского цикла SEO Made Easy с Мартином Шплиттом. На этот раз речь идет о страницах со статусом "Обнаружена, не проиндексирована" ("Discovered - currently not indexed") в отчете о страницах в Google Search Console. Получить это статус…
P.S. Любопытно, что на 9-й секунде у Мартина есть оговорочка.
Он говорит:
"Как только начнется обход, URL-адрес переместится
в группу "Обнаружена, не проиндексирована" или страница будет проиндексирована."

Строго говоря, она будет не проиндексирована, а просканирована и получит один из статусов "Страница просканирована, но пока не проиндексирована" или "Проиндексировано". О чем, собственно, и говорит Мартин в начале третьей минуты, исправляясь:
"Как только начнется сканирование, URL-адрес переместится в группу "Страница просканирована, но пока не проиндексирована" или страница будет проиндексирована."
👍2
Бывший руководитель Яндекс Поиска и Bing Михаил Парахин займет пост в консультативном совете компании Liquid AI. Михаил также с мая является членом консультативного совета Perplexity.
Масштаб, конечно, уже не тот...
👍3👎1
Гуглоид Джон Мюллер посоветовал не спешить с анализами и выводами, пока официально не завершится апдейт. Его попытались расколоть на причины проблемы, возникшей во время запуска апдейта, и на что она влияет, но старина Джон – крепкий орешек.
В список поисковых роботов Google добавлен Google-CloudVertexBot — новый поисковый робот, который сканирует сайты по запросу их владельцев при создании агентов Vertex AI .
Вышел выпуск цикла Google SEO Office Hours за август 2024 года.
В очередной раз гуглоиды подтвердили, что ни большое количество директив nofollow или noindex, ни большое количество известных Googlebot'у страниц с кодом состояния 404 не влияют на оценку качества сайта и его ранжирование.
Хотя некоторые сеошники упорно отказываются верить в это.
👍3
Во время августовских SEO Office Hours гуглоидам был задан весьма оригинальный вопрос:
"Каково влияние SEO на то, что комментарии пользователей остаются без ответа в сообщениях блога?"

Ответ, конечно же был
"Влияние на SEO отсутствует"


И какие только идеи не приходят в голову сеошникам в надежде найти простое решение проблем с ранжированием. 😊
И еще один интересный вопрос из августовских SEO Office Hours – у гуглоидов спрашивают, может ли фейковый трафик, посылаемый на сайт злоумышленниками, понизить его надежность в глазах Google. Ответ таков:
"Никто не может выбирать или контролировать откуда поступает трафик или ссылки.
Так что это не то, что Google Search будет рассматривать, чтобы оценить надежность веб-сайта."

Вот только есть один нюанс. Если фейковый трафик, посылаемый недоброжелателями, будет себя вести на сайте не так, как удовлетворенный пользователь, то я не уверен, что это не будет расценено алгоритмом, как то, что сайт не содержит полезный контент.
Весьма неожиданный результат исследования компании seoClarity, в котором проанализирована поисковая выдача Google по 36 тысячам запросов на предмет совпадения URL-адресов, появляющихся в AI Overview, с теми, которые появляются в топ-10 органических результатов.
Совпадение составило 99,5%, когда один или несколько из 10 лучших результатов органики были включены в источники AI Overview.
Наконец-то подключили к AI Overview поисковый антиспам и систему полезного контента?