SЕalytics (Сергей Людкевич)
2.5K subscribers
790 photos
9 videos
2 files
3.54K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Изучение нового отчета Яндекс Вебмастера "Мониторинг запросов" преподнесло удивительное открытие. Оказывается, что CTR может быть целых 200%. Что могло дать такой эффект? Если это просто два клика одним юзером по одной ссылке из сниппета, то как-то неинтересно. Может быть, клики по разным ссылкам на сайт из разных мест страницы выдачи или сниппета, например, органика + быстрый ответ или быстрые ссылки?
Еще один удивительный финт от Яндекса. Главная страница http версии сайта, отдающая 301 на https, вдруг сменила статус с "Неглавное зеркало" на "В поиске" и стала находиться в выдаче по запросу с оператором url: с пустым сниппетом. При этом главная страница https версии благополучно проиндексирована и тоже находится в поиске. Вот и думай теперь, глюк, фича или бага?
🤯4🤨2
Гуглоид Джон Мюллер на днях немного пояснил про учет запрета сканирования в файле robots.txt
Не стоит надеться, что запрещенная страница вылетит из индекса сразу же, как только робот увидит запрет в файле. Она должна вылететь после следующего переобхода страницы роботом.
Вопрос только - как быстро этот переобход случится. С интересом наблюдаю один случай, когда директива Disallow появилась в файле robots.txt больше месяца назад.
Но запрещенная страница преспокойно продолжает находиться в индексе с сохраненкой более чем месячной давности. Причем страница не рядовая, а находящаяся в основном меню сайта, и раньше робот ее посещал с завидной регулярностью. Такое впечатление, что робот, увидев запрет в файле robots.txt, просто решил страницу больше не переобходить )
👍3😁3
Теперь в выдаче Google можно узнать, когда в первый раз проиндексировался сайт и является ли выдача персональной. Второе мне представляется намного более полезным )
Ну, и ссылку на сохраненку как-то не сразу нашел.
🔥8👍1
Нередко приходится встречать во время аудитов, что в файле robots.txt директивы Clean-param или Sitemap дублируются в каждой секции User-Agent.
Между тем эти директивы являются межсекционными, и их достаточно поместить один раз в любом месте файла.
Конечно, дублирование этих директив в каждой секции не является ошибкой, но выглядит несколько бардачно. И перфекционист во мне тихонько возмущается, потому что там, где бардачно, вероятность ошибки повышается )
👍2
В пятницу самое время поговорить о поисковой магии )
В аналитических задачах в Яндексе бывает полезно разгруппировывать поисковую выдачу, сгруппированную по сайтам.
И в этом помогает старый добрый артефакт - get-параметр pag=u, который надо добавить в URL страницы поисковой выдачи.
Когда-то давным-давно Яндекс публиковал на странице выдачи ссылку на разгруппированные результаты поиска, так этот get-параметр и стал известен.
Разгруппировка помогает найти кое-что отфильтрованное, например, аффилиат или страницу, признанную очень похожей на более релевантную страницу с другого сайта.
👍9
Тут в комментариях в предыдущему посту спросили, как можно использовать разгруппировку выдачи в Яндексе для детекции возможного аффилирования.
Поясняю. Допустим, сайт А и сайт В периодически "мигают" в выдаче по исследуемому запросу - то один в топе, то другой, но никогда вместе.
Пусть в данный момент сайт А находится по данному запросу, скажем, на 5-м месте, а сайт В - на 50-м.
Разгрупируем выдачу, добавляя get-параметр &pag=u в URL страницы выдачи, и видим сайт А, скажем, на 7-м месте, а сайт В - на 9-м.
И делаем определенные выводы, что сайтам что-то мешает находиться в сгруппированной выдаче рядом друг с другом. Возможно, аффилирование.
👍5🔥1
Неожиданно обнаружил, что Google Maps начал публиковать новые отзывы для российских кампаний, чего не делал уже больше года, с марта 2022. Как знать, может, не за горами возобновление и другого отмененного функционала, например, контекстной рекламы.
👍91🔥1
В сеошных сообществах постоянно встречаю опасения, что большое количество страниц на сайте с откликом 404 Not Found, известных поисковикам, может являться причиной плохого ранжирования проиндексированных страниц сайта.
Не знаю, откуда растут ноги у подобных опасений, но явление довольно таки массовое. Возможно, причина в том, что и в Яндекс Вебмастере, и в Google Search Console страницы с откликом 404 имеют "токсичный" статус исключенных из индекса, и это воспринимается, как негативный сигнал.
Между тем, количество известных поисковику страниц, исключенных из индекса из-за отклика 404, негативного влияния на ранжирование других страниц сайта не оказывает.
В качестве пруфа можно откопать в недрах блога Центра Search Console древнюю статью, чтоб убедиться, что "ошибки 404 – это нормальное явление".
👍7
Полезные мелочи.
Иногда при просмотре сохраненной копии страницы в поисковиках бывает так, что ссылка на текстовую версию сохраненки оказывается закрыта элементами просматриваемой страницы.
Поэтому бывает полезно помнить get-параметры, добавив которые к URL сохраненной копии, можно получить ее текстовую версию.
Для Яндекса это &mode=text , для Google это &strip=1 .
👍21🔥3
К вопросу о ранжировании поисковиками контента, сгенерированного AI.
Обнаружил тут в описании системы определения полезного контента Google, внедренной в декабре 2022-го года следующее:
"Система Google Поиска для определения полезного контента обеспечивает сигналы, которые наша система автоматического ранжирования результатов использует, чтобы пользователи гарантированно получали в результатах поиска материал, созданный людьми и для людей."
Взгляд зацепился за фразу "материал, созданный людьми" ("content written by people" в англоязычном варианте).
В таком контексте перспективы хорошего ранжирования сгенерированного контента представляются не очень радужными. Если, конечно, научатся его хорошо детектировать.
Чем мне импонирует Google, так тем, что персонализация результатов поиска в нем, в отличие от Яндекса, очень незначительна, и почти не мешает анализировать выдачу, не прибегая к ухищрениям типа режима "Инкогнито" в браузере.
К тому же персонализацию можно легко отключить.
Сделать это можно двумя способами:
1) В настройках - как это сделать, описано в Google Справке
2) С помощью get-параметра &pws=0 , который нужно добавить к URL страницы выдачи.
11🔥4
Гуглоид Джон Мюллер категорически не рекомендует использовать метрики сторонних сервисов для принятия решения об отклонении "токсичных ссылок" посредством инструмента Disavow Links.
Отвечая в Твиттере на вопрос, стоит ли отклонять ссылки с доменов с DR=0 (DR - рейтинг доменов в сервисе Ahrefs), Джон назвал это ужасной идеей ("terrible idea").
Я целиком и полностью согласен с тем, что метрики сервисов могут показывать, что угодно, только не то, на что в действительности обращают внимание поисковики.
Но, увы, в SEO мире очень мало измеримого, и поэтому сеошники готовы довериться любой пузомерке, особенно если нет пузомерки официальной.
👍4👏3🤔2
Немножко поисковой магии )
Оператор поиска по зоне URL документа inurl: исчез из документации языка запросов Яндекса еще в 2017 году. Однако он до сих пор сохранил свою работоспособность и бывает полезен для решения некоторых аналитических задач.
Одиночное применение этого оператора дает пустую выдачу: https://yandex.ru/search/?text=inurl%3Ahowtm&lr=213
Однако в связке с оператором site: он работает корректно: https://yandex.ru/search/?text=inurl%3Ahowtm+site%3Aludkiewicz.ru&lr=213
Если же необходимо убрать ограничение поиска по сайту, то получить корректную выдачу помогает небольшой трюк - надо добавить к запросу ключевое слово без данного оператора:
https://yandex.ru/search/?text=inurl%3Ahowtm+howtm&lr=213
👍12🔥41
Не успел я порадоваться тому, что в Google очень слабая персонализация результатов поиска, как прошла информация, что Google хочет сделать выдачу более персонализированной.
В рамках проекта Magi скучные "10 синих ссылок" на странице выдачи планируется разбавить чем-то более "визуальным, удобным, персонализированным и человечным" вплоть до чат-ботов на основе AI и роликов из Тиктока.
Для сеошников это не очень хорошая новость, так как кликабельность органики рискует сильно понизиться из-за обилия подобных "спецэффектов".
А вот подоспело и свежее видео с только что стартовавшей конференции Google I/O 2023, на котором наглядно показано, как органика задвигается подальше с первого экрана выдачи новыми фишками. И если юзер увлечется болтовней с ботом, то органики может и вовсе не дойти.
Google выкатил чат-бот Bard. Это, собственно и есть то, на основе чего будут строиться новые фишки в поиске, задвигающие органику подальше с юзерских глаз.
Bard доступен в 180 странах, но, к сожалению, среди нет России. Так что тем, у кого российский айпишник, придется пользоваться VPN, чтоб рассмотреть это чудо в деталях.
Русский язык он, увы, тоже пока не понимает.
😢1
Ну вот и первая ласточка по разметке для поисковиков сгенерированого с помощью AI контента. Google в англоязычной версии документации ввел (пока в качестве бета-теста) метаданные для сгенерированных изображений "Digital source type"
👍5
Оказывается, система определения полезного контента Google призвана не только штрафовать малополезный контент, но и бустить выскококачественный.
Гуглоиды обещают в течение нескольких месяцев выкатить апдейт, который будет показывать в поиске больше "скрытых жемчужин" контента с хорошей экспертизой и уникальными знаниями и опытом, находящегося в неожиданных и труднодоступных местах.
Неужто появится возможность потеснить в выдаче прокачанный ссылками жир?
👍5😁2🤣2
Ну вот и Яндекс обзавелся своим чат-ботом. Нейросеть YaGPT добавлена в головой помощник Алиса.
С точки зрения SEO интересно, конечно же, то, что в будущем ее планируют добавить и в поиск.
Если эти планы воплотятся в жизнь, то органика, и так порой с трудом попадающая на первый экран, рискует уехать еще ниже.
Обнадеживает лишь то, что в Яндексе от планов до их реализации может пройти очень много времени )
Тем, кто опасается, что некорректная микроразметка может негативно повлиять на ранжирование, гуглоид Gary Illyes во время майских Google SEO office-hours дал однозначный ответ: нет.
В таком случае она будет просто проигнорирована. Единственный минус - упущенная возможность иметь более красивый сниппет.
Так что алерты в Google Search Console об ошибках в микроразметке на странице не являются причиной ее плохого ранжирования.