SЕalytics (Сергей Людкевич)
2.5K subscribers
790 photos
9 videos
2 files
3.55K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Среди буржуйских сеошников вдруг возникло поверие о магической силе доменной зоны .ai, о чем один из них радостно поделился в своем Твиттере.
Вездесущий гуглоид Джон Мюллер спешит развеять очередной сеошный миф, утверждая, что ничего особенного в этой доменной зоне нет.
От себя добавлю - ну, пожалуй, разве что кроме того, что она из ccTLD переквалифицирована в gTLD.
Редактор Сёрча Оксана Мамчуева опубликовала текст ответа Яндекса на вопрос по поводу массового наложения фильтра за малополезный контент и спам:
«Яндекс регулярно обновляет собственные алгоритмы, чтобы поддерживать качество поисковой выдачи. Очередное обновление прошло на прошлой неделе. Теперь алгоритмы лучше определяют заимствованный и неоригинальный контент на сайтах. Более подробно об этом можно узнать в Справке».  
Получается, накрыли за вторконтент.
👍3
На форуме Reddit один буржуйский сеошник интересуется, не будет ли проблем в будущем с ранжированием страницы, если он ее на время закроет от индексации метой robots со значением noindex.
Гуглоид Джон Мюллер считает, что проблем быть не должно – ранжирование отделено от индексации.
Тут до меня дошла информация, что некоторая часть сеошной общественности, пострадавшая в результате последних санкций Яндекса за малополезный контент, несколько болезненно восприняла мой пост об этом, увидев в нем якобы некое злорадство и пляску на костях.
Так вот, спешу расставить все точки над "i" - никаким злорадством и плясками тут и не пахнет.
Моя мысль заключалась в том, что если устанавливаешь правила игры, то, будь добр, блюди за их соблюдением. И наказывай нарушителей и поощряй соблюдающих. Иначе соблюдающие будут находиться изначально в проигрышном положении.
Например, секрет Полишинеля, что в конкурентные топы выдачи Яндекса сейчас практически невозможно попасть, не накручивая поведенческие. И наивно предполагать, что яндексоиды этого не видят. Однако, они почему-то либо не могут, либо не хотят заставить сеошников соблюдать установленные ими самими же правила.
Поэтому любое адекватное телодвижение "арбитра" воспринимается позитивно. В надежде, что таких телодвижений будет все больше, и правила не останутся всего лишь прописанными на бумаге.
👍172👎1
Тут у меня возникла следующая мысль по поводу наличия/отсутствия преференций в ранжировании Google для определенных доменных зон, обсуждавшейся в предыдущем посте.
Считается, что зоны типа .gov и .edu - это хорошо для ранжирования. Но сайты из этих зон могут ранжироваться хорошо не потому, что они принадлежат этой зоне, а потому, что они считаются трастовыми. Просто трастовых сайтов много в этих зонах в силу понятных причин. А сама по себе зона никакого бонуса не дает.
Так что в этом смысле старина Мюллер, может, и не кривит душой.
👍7
Меня попросили отрецензировать новый гайд по внутренней оптимизации сайта от сервиса PR-CY.
Итак, что я могу сказать? Совсем для новичков может быть вполне полезно. Собрано много чего, что не мешает почекать.
Конечно, есть спорные моменты по назначенной степени важности проверок. Например, у "Есть файл robots.txt" она обозначена, как высокая. На мой взгляд, важно не наличие, а функционал этого файла. Если сайт небольшой и запрещать к индексации ничего не надо, то и файла robots.txt запросто может и не быть. С другой стороны, файл может и быть, но в нем может царить такой бардак, что лучше бы его не было.
По поводу темы важности уникальности тегов title и мета-тегов description я уже высказывался. Также весьма спорный момент по наличию тегов H1-H6. И если для информационных страниц с требованиями их наличия еще можно согласиться, то для коммерческих, на мой взгляд, подзаголовки H2-H6 не только не обязательны, но могут быть и вредны, провоцируя антиспам на фильтр Баден-Баден.
Но за исключением отдельных моментов, повторюсь, новичкам данный гайд использовать можно. Ну, а у опытных сеошников должен быть свой гайд )
👍7
Если страница ссылается сама на себя, попадает ли анкор ссылки в ее анкор-лист? Гуглоид Джон Мюллер утверждает, что нет.
Хорошо бы было бы проверить, но, к сожалению, сейчас мне неизвестны способы построения выдачи чисто по анкор-листам. А другой способ не сработает, так как текст анкора есть на странице.
Хотя неучет ссылок на самого себя вполне логичен, так как позволяет избежать двойного учета одного и того же текста – в контенте и в анкор-листе.
Временами гуглоиды еще те водовозы.
Вчера Мартин Шплитт, Джон Мюллер и Дэнни Салливан собрались на очередной подкаст серии "Search Off the Record" потрещать за апдейты в преддверии August 2023 Core Update. По факту – полчаса времени коту под хост, и весь трёп можно было бы заменить одной сакраментальной фразой Платона Щукина "Следуйте нашим рекомендациям, развивайте Ваш сайт… и со временем…"
😁8👍2
Гуглоид Гэри Ийеш, отвечая на вопрос о возможности запрета сканирования краулером определенной части страницы, предлагает недокументированные способы ввиду отсутствия документированных:
1) поместить этот раздел в JavaScript, который запрещен для сканирования;
2) настроить свой http-сервер таким образом, чтобы условно пропускать возврат определенных байтов - другими словами, заняться клоакингом.
Правда с оговоркой, что что большинству поисковых систем не особенно нравится эта практика, потому что исторически она использовалась для спамерских техник.
Вот такие "вредные советы" от гуглоида.
Я бы лично рекомендовал воспользоваться все-таки первым способом. Второй более опасен с точки зрения антиспама, так как боты и пользователи получают разные версии страницы. Хотя, по логике, криминал должен возникать не там, где от бота скрывают то, что показывают пользователю, а наоборот - там, где от пользователя скрывают то, что показывают боту.
👍5
Хоть сегодня и не пятница, но позволю себе пятничный пост )
Гуглоид Джон Мюллер начал что-то подозревать об отношении к нему сеошников, которых он называет "коллекцией персонажей":
"Все, что я говорю, является доказательством того, что я ничего не знаю или что я что-то знаю и пытаюсь их обмануть, поэтому лучше поступить наоборот."

Добро пожаловать из мира розовых пони в реальность, Джон 😁
В блоге Google Search Central Blog вышел материал (пока что только на английском языке) в стиле научпоп под названием "Комедия ошибок", посвященный различным проблемам доступа краулера к вебсайтам (ошибки DNS, сетевые ошибки, ошибки сервера и клиента).
В общем-то ничего революционного, но рекомендую к прочтению на досуге для общего развития и упорядочивания знаний в своей голове.
👍4
Наткнулся на довольно старенькое, но весьма любопытное исследование от сервиса Ahrefs, посвященное выделенным описаниям (featured snippet) Google.
Моменты, которые мне показались интересными:
• Выделенные описания показывается у 12% поисковых запросов
• Выделенное описание (по сути "нулевая" позиция в поисковой выдаче) получает в среднем только примерно 8,6% кликов, в то время как страница, которая занимает место прямо под ним (1-я позиция), получает в среднем примерно 19,6% кликов. Если выделенного описания в выдаче нет, 1-я позиция получает в среднем примерно 26% всех кликов. Юзеры меньше доверяют примеси, чем органике?
• 30,9% выделенных описаний берутся с 1-го места выдачи, 99,58% – из топ-10.
• Корреляции числа бэклинков с попаданием в выделенный сниппет не обнаружено (оговорка – исследование проводилось без учета анкорного текста).
• Большинство выделенных сниппетов показываются не по популярным запросам, а по запросам из "длинного хвоста".
• Страница с наибольшим количеством выделенных сниппетов показывается по 4658 запросам
• Википедия – абсолютный лидер среди сайтов по числу выделенных описаний.
👍61
Хотите задать вопрос про апдейты Google Джону Мюллеру? Просто заполните до 4 сентября форму вопросов для секции апдейтов конференции brightonSEO. И быть может, вам повезет, и старина Джон ответит на ваш вопрос. А может вам повезет вдвойне, и ответ будет толковым. 😁
👍3
Google включил в перечень поддерживаемых для индексации типов файлов файлы с расширением .csv. Соответствующая строка появилась в документации.
Однако ни одного файла с таким расширением в индексе пока не обнаружено.
😁6
Согласно исследованию сервиса Originality.ai после того, как компания OpenAI три недели назад объявила о своем краулере c User-Agent GPTbot, eго заблокировали в файле robots.txt 9,2% из 1000 самых популярных сайтов. И эта тенденция продолжает расти со скоростью 5% в неделю.
Похоже, владельцы сайтов не очень-то хотят, чтоб на их контенте обучался искусственный интеллект.
👍8
Наткнулся на интересный (правда, прошлогодний) эксперимент по исследованию повторного сканирования краулерами Google страниц, отдающих ответы 404 и 410.
Который показал, что страницы с ответом 404 сканируются повторно на 49,6% чаще, чем страницы с ответом 410.
Получается, чисто с технической точки зрения будет более корректно отдавать 410, если вы не собираетесь размещать на данном URL в будущем индексируемый контент.
Хотя, впрочем, на краулинговый бюджет это влиять никак не будет.

P.S. Еще существует поверье, что страницы с ответом 410 быстрее вылетают из индекса, чем с 404. Но экспериментов, подтверждающих это, пока не встречал.
👍4
Какими только обрядами и ритуалами не обрастает сеошная практика. Один буржуйский сеошник на полном серьезе утверждает, что в URL страниц обязательно надо помещать папку с названием услуги (/services/) перед папкой с названием региона (/location/), т.е. структура URL обязательно должна быть в виде site/service/location/.
Вездесущий гуглоид Джон Мюллер спешит развенчать этот абсурдный миф:
"Что касается SEO, мы рассматриваем URL скорее как идентификаторы, за очень немногими исключениями".
В блоге Яндекса для вебмастеров опубликован пост об обновлении алгоритма определения вторконтента, явившегося причиной массового наложения фильтра за малополезный контент и спам в этом месяце, о чем я уже писал ранее.
Перечислены варианты использования заимствованного контента, не попадающие под санкции:
"авторских (предоставленные производителем, создателем, организатором) описаний товаров, услуг, событий, организаций, компьютерных программ, инструкций к применению и руководств по эксплуатации; 
текстов литературных и фольклорных произведений, песен, анекдотов, цитат и афоризмов; 
текстов законов, указов и других нормативных актов, стандартов, шаблонов документов; 
своего текста из других источников (блогов, социальных сетей), пресс-релизов, опубликованных в других источниках; 
и в других случаях, когда в результате пользователи получают дополнительную ценность
. "

Последний пункт про дополнительную ценность определенно радует своей конкретикой 😊
🤬4🎉3❤‍🔥2👍2
Свежий ролик из серии "Search Central Lightning Talks", в котором Мартин Шплитт занимается ликбезом по использованию инструмента Chrome Devtools для диагностики и улучшения показателей Core Web Vitals.
Рекомендуется к просмотру для общего развития тем, кто плохо знаком с Google Lighthouse.
👍2