SЕalytics (Сергей Людкевич)
2.5K subscribers
790 photos
9 videos
2 files
3.55K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Google включил в перечень поддерживаемых для индексации типов файлов файлы с расширением .csv. Соответствующая строка появилась в документации.
Однако ни одного файла с таким расширением в индексе пока не обнаружено.
😁6
Согласно исследованию сервиса Originality.ai после того, как компания OpenAI три недели назад объявила о своем краулере c User-Agent GPTbot, eго заблокировали в файле robots.txt 9,2% из 1000 самых популярных сайтов. И эта тенденция продолжает расти со скоростью 5% в неделю.
Похоже, владельцы сайтов не очень-то хотят, чтоб на их контенте обучался искусственный интеллект.
👍8
Наткнулся на интересный (правда, прошлогодний) эксперимент по исследованию повторного сканирования краулерами Google страниц, отдающих ответы 404 и 410.
Который показал, что страницы с ответом 404 сканируются повторно на 49,6% чаще, чем страницы с ответом 410.
Получается, чисто с технической точки зрения будет более корректно отдавать 410, если вы не собираетесь размещать на данном URL в будущем индексируемый контент.
Хотя, впрочем, на краулинговый бюджет это влиять никак не будет.

P.S. Еще существует поверье, что страницы с ответом 410 быстрее вылетают из индекса, чем с 404. Но экспериментов, подтверждающих это, пока не встречал.
👍4
Какими только обрядами и ритуалами не обрастает сеошная практика. Один буржуйский сеошник на полном серьезе утверждает, что в URL страниц обязательно надо помещать папку с названием услуги (/services/) перед папкой с названием региона (/location/), т.е. структура URL обязательно должна быть в виде site/service/location/.
Вездесущий гуглоид Джон Мюллер спешит развенчать этот абсурдный миф:
"Что касается SEO, мы рассматриваем URL скорее как идентификаторы, за очень немногими исключениями".
В блоге Яндекса для вебмастеров опубликован пост об обновлении алгоритма определения вторконтента, явившегося причиной массового наложения фильтра за малополезный контент и спам в этом месяце, о чем я уже писал ранее.
Перечислены варианты использования заимствованного контента, не попадающие под санкции:
"авторских (предоставленные производителем, создателем, организатором) описаний товаров, услуг, событий, организаций, компьютерных программ, инструкций к применению и руководств по эксплуатации; 
текстов литературных и фольклорных произведений, песен, анекдотов, цитат и афоризмов; 
текстов законов, указов и других нормативных актов, стандартов, шаблонов документов; 
своего текста из других источников (блогов, социальных сетей), пресс-релизов, опубликованных в других источниках; 
и в других случаях, когда в результате пользователи получают дополнительную ценность
. "

Последний пункт про дополнительную ценность определенно радует своей конкретикой 😊
🤬4🎉3❤‍🔥2👍2
Свежий ролик из серии "Search Central Lightning Talks", в котором Мартин Шплитт занимается ликбезом по использованию инструмента Chrome Devtools для диагностики и улучшения показателей Core Web Vitals.
Рекомендуется к просмотру для общего развития тем, кто плохо знаком с Google Lighthouse.
👍2
Яндекс активно развивает поиск по товарам (помним: нужно больше золота!) – в Блоге Яндекса для вебмастеров появилось сообщение о том, что информацию об условиях доставки теперь можно добавить прямо в интерфейсе сервиса Яндекс Вебмастер.
Эх, эту бы активность – да на борьбу с накрутчиками ПФ в органике.
😢4
Google начал раскатку SGE за пределами США. Первыми странами стали Индия и Япония. Ждем, когда доберутся до России.
Временами мне приходилось сталкиваться с утверждениями, что почтовый ящик, указанный на коммерческом сайте, должен быть непременно на домене сайта. Что ящик на другом домене (как правило, на бесплатном почтовом сервисе) якобы подрывает доверие пользователей и поисковых машин. Но, честно говоря, никогда не видел этому подтверждений на практике.
На форуме Reddit натолкнулся на дискуссию по данной проблеме. Буржуйский товарищ вопрошает, является ли домен почтового ящика фактором ранжирования? Вездесущий гуглоид Джон Мюллер парирует вопросом на вопрос "С чего бы?"
И действительно, с чего бы?
👍2
Еще один знаковый момент из позавчерашнего анонса Google раскатки SGE за пределами США.
Эксперимент с показом ссылок в обзорах SGE признан удачным, и теперь показ таких ссылок штатно запускается в США, а далее будет раскатываться на другие страны по мере их подключения к SGE. Увы, органика задвигается все дальше.
В Блоге Яндекса для вебмастеров появился анонс новых возможностей отчета "Мониторинг запросов" – добавлены сортировка и фильтр по спросу, а также а еще уточнены значения N/A и 0 в отчетах, чтоб было понятно, то ли пользователи не могут найти вас в выдаче по конкретному запросу, то ли статистика по нему просто не отображается в инструменте.
Такая активность яндексоидов определенно радует.
👍4
Гуглоида Джона Мюллера настолько захватила тема отсутствия различий для ранжирования между разными видами редиректов, что он в добавок к активности на эту тему в соцсетях записал видеоролик.
Похоже, у него есть сомнения, что сеошники к нему прислушиваются. )
"Техническое SEO не уходит, оно продолжает оставаться основой всего, что построено в открытой сети"

ответил гуглоид Джон Мюллер на заявления одного пользователя соцсети X, что техническое SEO теряет актуальность по сравнению с контентом.
Целиком и полностью согласен с Джоном, без грамотной технички сложно добиться хорошего результата, имея даже супер-пупер контент.
👍5👎1
Любопытный случай описывает один испанский сеошник. У него на сайте Google вдруг стал склеивать абсолютно непохожие страницы, выбирая канонической ту, которая в ссылочной структуре находится ближе к главной. Пишет, что не одинок в подобном отношении Google к сайту.
У кого-то наблюдается что-то подобное?
Любопытный ответ от гуглоида Джона Мюллера на вопрос, может ли использование контента, сгенерированого искусственным интеллектом, вызвать пенальти от Google.
В ответе Джон продемонстрировал владение эзоповым языком:
"Есть множество способов, которые могут привести к публикации некачественного контента, не обязательно использовать AI".
Выглядит так, будто контент от AI гуглоиды априори считают некачественным.
👍4
Барри Шварц из SERoundTable вдруг вытащил на божий свет январский пост гуглоида Джона Мюллера, в котором тот говорит об отсутствии эффекта от ключевых слов LSI.
На вопрос в Твиттере, где лучше использовать LSI – в заголовках или в обычном тексте, Джон отвечает:
"Оба места одинаково полезны для размещения ключевых слов LSI... Оба не имеют никакого эффекта. Любой, кто говорит вам использовать ключевые слова LSI, неправ"
Опять таки соглашусь с Джоном. На мой взгляд, LSI – одна из самых больших профанаций, которая существует в сеошном мире.
На днях Google объявил о новом способе запуска JavaScript, который улучшает скорость реагирования веб-страниц.
Так что, если вы серьезно относитесь к пузомеркам из Core Web Vitals, особенно к новой метрике INP, вы можете поучаствовать в его тестировании.
👍2
Наткнулся на интересный тред в Linkedin. Гуглоид Гэри Ийеш рассказал, в каком случае обработка запроса If-Modified-Since с отдачей кода состояния 304 Not Found может сослужить плохую службу:

1. Краулер запрашивает URL.
2. Сервер обнаруживает какую-то ошибку и отображает пустую страницу с кодом состояния 200 ОК.
3. Сканер считает это временной программной ошибкой и планирует повторное сканирование для проверки.
4. Поскольку сервер считает, что контент (который на самом деле не был предоставлен) не изменился, он возвращает код состояния 304 для данного URL (как того требует стандарт HTTP RFC 9110).
5. Краулер получает информацию, что ошибка сохраняется, и больше не пытается выполнить повторное сканирование (со временем это произойдет, но нескоро).

Довольно тонкий нюанс, но действительно такой риск имеет место быть, хотя вероятность подобного развития событий невысока.
Получается, в идеале надо отслеживать случаи, когда размер ответа составляет 0 байт при коде состояния 200 OK, как предложил в комментариях другой гуглоид по имени Вивек Синха Анураг, и учитывать эту информацию при обработке запроса If-Modified-Since.
👍4
Буржуйский сеошник по имени Оуэн Хенн делится лайфхаком, как закрыть страницы от индексирования Google и при этом не расходовать краулинговый бюджет.
Запрет в файле robots.txt запрещает сканирование, но не индексацию, и многих напрягает предупреждение в Google Search Console "Проиндексировано, несмотря на блокировку в файле robots.txt" (хотя это и не является ошибкой).
Мета-тег robots со значением noindex запрещает индексацию, но не запрещает сканирование, тем самым расходуя краулинговый бюджет.
Лайфхак следующий: со страниц, для которых нужно исключить попадание в индекс, ставится редирект на специальную страницу, которая содержит мета-тег robots со значением noindex.
В итоге сканируется только одна эта страница, а страницы с редиректами выпадают из индекса и не сканируются.
Выглядит весьма любопытно.
👍8
В 20-м выпуске Yet Another Podcast глава бизнес-группы поиска и рекламных технологий Яндекса Дмитрий Масюк рассказал о том, что в Яндексе собираются внедрить YandexGPT для формирования быстрых ответов:
"Сейчас в моем телефоне версия поиска, где быстрый ответ на очень большое количество вопросов делает наша самая последняя LLM модель. Мы тестируем это..."

В общем, всё как обычно – по стопам Большого Брата к светлому будущему путём задвигания органики за Можай.
👎7🔥4👍1