SЕalytics (Сергей Людкевич)
2.5K subscribers
790 photos
9 videos
2 files
3.54K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Гуглоид Джон Мюллер рекомендует просто игнорировать наличие токсичных ссылок на ваш сайт.
Конечно, хочется верить в силу и мощь гугловских алгоритмов, но все-таки я бы предпочел подобные ссылки добавить в инструмент Disavow Links. И надеяться, что он таки работает. 😊
👍3
Гуглоиды проапдейтили ссылки на страницах документации - напихали туда побольше ключевиков. Это теперь называется "Более доступные анкор-тексты"
"Что: В рамках наших постоянных усилий по повышению доступности нашей документации мы обновили различные анкор-тексты , чтобы они лучше описывали целевую страницу.

Почему: В зависимости от настроек программы чтения с экрана пользователь может переходить от ссылки к ссылке на странице, поэтому каждый анкор-текст привязки на странице должен быть описательным, даже без учета окружающего контекста."


Делай как Google! 😀
😁4
Буржуйский сеошник Гленн Гейб решил проверить работоспособность атрибута data-nosnippet в Google.
Результат казался предсказуем: таки работает и удаляет из сниппета закрытый им текст.
👍5😁2
Барри Шварц из SERoundTable обнаружил, что в инструменте проверки URL в Google Search Console в качестве ссылающейся указана страница форума поддержки Google, которая содержит не гиперссылку, а просто упоминание URL. Еще один пример подобного ему подкинул подписчик.
Самым правдоподобным объяснением представляется то, что когда-то движки ссылающихся сайтов в приведенных примерах обрабатывали вхождения URL, автоматически формируя гиперссылки, а потом перестали это делать. Ну, либо Google действительно приравнивает к гиперссылке упоминание URL, гиперссылкой не являющееся.
🤔3
Барри Шварц из SERoundTable поделился душещипательной историей о том, что довольное большое и активное буржуйское сообщество r/seo на форуме Reddit подверглось рейдерскому захвату. В этом сообществе издавна был только один модератор. Он стал неактивным на несколько недель. В такой ситуации любой член сообщества может связаться с администрацией Reddit и попросить передать ему права модерации. Чем и воспользовалась группа аккаунтов возрастом не более двух лет (почти новорегов) предположительно из крипты. Новые модеры стали чистить треды и хамить старожилам. Белое буржуйское SEO в опасности. 😊
😁3👍2😱2
Команда Яндекс.Вебмастера настойчиво (уже во второй раз) просит пользователей своего сервиса пройти опрос
"про ранжирование, искусственный интеллект и привлечение органического трафика на сайт"
для того,
"чтобы учитывать ваше мнение в процессе работы."

Среди прочего попадается немало вопросов про генеративные ответы и нейросетевые технологии. Не иначе, как готовятся внедрять свой аналог гугловского SGE.
👎5😱2
Еще один пример в дискуссии на форуме r/seo в Reddit того, как не надо запрещать страницы для индексации. Если Вы хотите запретить индексацию страницы, нельзя использовать наряду с директивой noindex в мета-теге robots еще и запрет сканирования в файле robots.txt. Краулер, которому запрещено сканирование страницы, запрет на индексацию в мета-теге robots просто не увидит. На скриншоте инструмента проверки URL из Google Search Console четко видно, как такую связку интерпретирует Googlebot:
Crawl allowed? No: blocked by robots.txt
...
Indexing allowed? Yes

И страница может продолжать находится в индексе по внешним факторам.
Кстати, краулер Яндекса сейчас себя ведет точно так же.
👍3
Интересное наблюдение от буржуйского сеошника Гленна Гейба - изображения подтягиваются в быстрые ответы от SGE позже, чем текст с той же страницы.
"Мой пост про data-nosnippet появился в SGE через несколько минут после публикации, но изображения появились только через несколько часов. На первых двух скриншотах ниже показан мой пост без изображений, а на последних двух - с изображениями. "

Похоже, текст и изображения для SGE собирают разные краулеры.
Кто-то активно генерирует ссылки на кучу сайтов на несуществующие страницы, URL которых генерируется путем добавления символьной комбинации "/1000" к существующим.
Интересно, что далеко не все сайты по таким адресам отдают 404, многие отдают 200, и такие страницы попадают в индекс.
Интересно, кому и зачем это надо? Если сканируется какая-то уязвимость, то не могу даже предположить, какая.
Джон Мюллер выпустил новый ролик из серии Ask Googlebot, в котором рассказывает о правильном переезде сайта. Ничего революционного, лучшее решение – по-прежнему, 301-й редирект со старого сайта на новый, который надо держать не менее года. Однако, если по какой-то причине редирект технически невозможен, а также невозможно удаление контента на старом сайте, то новый сайт не получит пенальти как дубликат старого. Только не уточнил, как они поймут, что это именно новый сайт, а не его пиратская копия.
👍3
SЕalytics (Сергей Людкевич)
Любопытный факт приводит буржуйская сеошница Лили Рэй: самый большой прирост поисковой видимости в 2023-м году - у сайта ЦРУ.
Сайт ЦРУ оказался наряду с сайтом Оксфордского словаря английского языка победителем по приросту видимости в поисковой выдаче Google и в Великобритании. И всё за счет проекта World Factbook. Выжигают семантику по инфозапросам 😀
Германские ученые из Лейпцигского университета решили провести исследование SEO спама в поисковой выдаче.
Они анализировали поисковую выдачу по 7392 уникальным поисковым запросам тематики товарных обзоров в Google, Bing и DuckDuckGo.
"Временной анализ результатов поиска по обзору товаров должен выявить одну из трех тенденций:
(1) Поисковые системы действительно становятся хуже, т.е. они проигрывают битву с SEO-контентом. В этом случае мы должны увидеть долгосрочный рост количества спама и снижение общего качества.
(2) Поисковые системы выигрывают в преимущество, и мы видим обратное.
(3) SEO – это постоянная борьба, и мы наблюдаем повторяющиеся случаи появления спама с отзывами, который попадает в результаты и покидает
их, поскольку поисковые системы и инженеры по SEO по очереди корректируют свои параметры.
Наши данные свидетельствуют о том, что все поисковые системы могут похвастаться определенным успехом.
В частности, Bing и DuckDuckGo существенно улучшили свои результаты, хотя и на более низком уровне, чем Google. Тем не менее, несмотря на эти достижения, кажется, что (3) является наиболее вероятным сценарием."

В общем, дело ясное, что дело тёмное: у верблюда два горба, потому что жизнь – борьба! 😀
😁4
Буржуйский сеошник Роджер Монтти рассказывает о проблеме, которую называет "Google Weekend Ranking Bug". Суть ее состоит в том, что с недавних пор некоторые домены, относящиеся к так называемым ICANN-era gTLD (разная экзотика типа .academy, .car, .care и т.п.) на выходных полностью исчезают из поисковой выдачи Google и возвращаются на свои места в понедельник.
Выглядит весьма загадочно.
Гуглоид Мартин Шплитт, ведущий цикла коротких видеороликов SEO Made Easy, заговорил на семи новых языках. Естественно не сам, а с помощью искусственного интеллекта. Жаль, русского среди новообретенных им языков нет, поэтому оценить качество качество произношения от ИИ, увы, не получится.
Пятничное. Гуглоида Дэнни Салливана начало бомбить после того, как один буржуйский журналист наехал на Google News по поводу, что они индексируют какой-то сгенерированный искусственным интеллектом трэш-контент, но не индексируют шедевры с его сайта. Ларчик открывался просто — шедевры, находящиеся в ограниченном доступе для пользователей (чтоб их прочесть, надо как минимум зарегистрироваться на сайте), в таком же ограниченном доступе находятся и для краулеров. Но во всем виноват, конечно же, Google. 😀
😁5
Буржуйский сеошник возмутился, что алгоритмы и асессоры Google не смогли распознать спамерский сайт, укравший у него контент и дизайн, но как только он написал об этом твит, как в течение 24 часов спамерский сайт исчез из выдачи. Гуглоид Дэнни Салливан божится, что никто ничего руками не делал, и оно всё само.
Конечно, не все события, совпадающие по времени, имеют причинно-следственную связь, но алгоритмы сработали вдруг как-то очень своевременно. 😀
😁11
Похоже, не за горами SEO под TikTok. Согласно исследованию Adobe молодое поколение выбирает для поиска именно его: 64% представителей поколения Z и 49% миллениалов заявили, что использовали TikTok в качестве поисковой системы.
😱8🤯3🤣2👍1😁1
В дискуссии об LSI на форуме r/seo в Reddit прозвучал отличный и простой аргумент в пользу того, что поисковые системы не используют LSI:
"Технически Google никогда не использовал LSI.

Если вы прочитаете о LSI, вы быстро поймете, почему. По сути, каждый раз, когда в индекс добавляется новый документ, весь индекс необходимо переоценить. Затем снова после следующего документа, следующего документа и т. д. Работать таким образом очень ресурсоемко."
Google расторг контракт с компанией Appen, которая предоставляла ему асессоров для оценки качества поиска.
Неужто теперь оценкой качества поиска займется искусственный интеллект?