SЕalytics (SEO-аналитика от Сергея Людкевича)
2.54K subscribers
842 photos
9 videos
2 files
3.76K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
TheVerge сообщает, что Google отказывается от бесконечной прокрутки страницы поисковой выдачи (сначала на десктопах, затем на мобильных) и возвращается к постраничной модели.
Моё мнение — бесконечная прокрутка — это свойство соцсетей, где паттерном поведения является бесцельное блуждание по ленте. На сайтах, где осуществляется осмысленный поиск информации, она противоестественна. Всегда рекомендовал не использовать ее на коммерческих сайтах как замену пагинации. Так что, учитесь на чужих ошибках, тем более, что это ошибки самого Google.
👍7
SЕalytics (SEO-аналитика от Сергея Людкевича)
Буржуйский сеошник Бартош Горалевич утверждает, что Google выпустил новый формат ответов ИИ, где ссылки на сайты находятся сверху. Пока у себя не могу это воспроизвести, уменя они традиционно внизу обзора под катом "Show more".
Поймал таки ссылку в обзорах ИИ не под катом, правда, выглядит немного не так, как у Бартоша Горалевича.
Но все-таки Google действительно вытаскивает "обзорные" ссылки на видное место, что опять-таки еще сильнее бьёт по органике.
Вышел 76-й эпизод подкаста Google Search off the Record, в котором Джон Мюллер и Лиззи Сассман беседовали с Элизабет Таккер, директором по управлению продуктами и качеству поиска Google Search. Видимо, присутствие большого начальника наложило отпечаток на весь разговор, который получился довольно слащавым, о том, как сотрудники отдела качества поиска днями и ночами заботятся о счастье пользователей Google.
Что-то действительно полезное могут найти, пожалуй, лишь любители истории возникновения терминов: оказывается аббревиатуру E-A-T первыми стали использовать асессоры, так как слова "компетентность", "авторитетность" и "надежность" встречались в руководстве для асессоров повсюду.
Google объявил о завершении June 2024 spam update. Шел ровно неделю, как и обещали. Чекаем позиции.
Удивительно, но, оказывается, что очень много SEO-специалистов слабо понимают разницу между сканированием и индексированием. Так, например, следующая ситуация. Страница запрещена к сканированию в файле robots.txt, да еще до кучи имеет мету robots со значением noindex, nofollow. Некоторые "специалисты" уверяют, что если поменять содержимое меты robots на index, follow, не убирая при этом запрет в robots.txt, страница будет отлично индексироваться.
Так вот, страница, может, и будет индексироваться (но чисто по внешним факторам, без учета собственного контента), но, не поменяется ничего, т.к. файл robots.txt запрещает сканирование страницы, и краулеры содержимое меты robots просто не увидят. Так что, хоть меняй его, хоть не меняй, на индексацию это никак не повлияет.
👍6👌5😱1
Устав отбиваться от примеров нерелевантной выдачи, вызванных последними обновлениями, гуглоид Дэнни Салливан признал, что
"Наши системы ранжирования не идеальны, и я вижу контент, с помощью которого мы должны добиться большего, а также контент, который мы вознаграждаем, хотя не должны...
Но это также не система, в которой кто-то просматривает контент и говорит: «Хорошо, это здорово — оцените его повыше» или «Хорошо, это не здорово, понизьте его рейтинг». Поисковая система, которая индексирует триллионы страниц контента со всей сети, просто не сможет работать таким образом. Нам нужны масштабируемые системы. И нам нужно продолжать работать над улучшением этих систем. Это то, что мы будем продолжать делать".


Как это это не особо вяжется с заявлениями "говорящих голов" из Google, что всё пучком, и все обновления тщательно тестируются перед тем, как их выкладывают.
😐2😁1
Интересные наблюдения от буржуйской сеошницы Клаудии Томина о локальном ранжировании на Google Maps. Ключевые слова в пунктах меню в бизнес-профиле заведений общепита и график загруженности по времени, по ее выводам, являются факторами локального ранжирования.
Гуглоиды опубликовали инструкцию о том, что делать, если из бизнес-профиля вашей компании пропадают отзывы. А также, как удалить из профиля своей компании отзывы, которые вы считаете неприемлемыми.
👍2
SЕalytics (SEO-аналитика от Сергея Людкевича)
Гуглоиды опубликовали инструкцию о том, что делать, если из бизнес-профиля вашей компании пропадают отзывы. А также, как удалить из профиля своей компании отзывы, которые вы считаете неприемлемыми.
Похоже, появление инструкции о том, как восстановить удаленные отзывы в бизнес-профиле компании, отнюдь не случайно. Автоматические фильтры явно работают не так, как надо. Крик души буржуйской сеошницы Лили Рэй:
"Недавно я оставила свой самый искренний и подробный отзыв на Картах Google о бизнес-профиле (плюс фотографии!) о бизнесе, который мне действительно понравился, и… он был отфильтрован. Теперь мне приходится прыгать с бубнами вокруг Google, чтобы попытаться заставить отзыв появиться. Удивительно, сколько спама просачивается сквозь щели, в то время как легальные отзывы фильтруются."
👍6😁2
SЕalytics (SEO-аналитика от Сергея Людкевича)
Буржуйская сеошница Лили Рэй опубликовала статистику по сабреддитам (подфорумам Reddit), показавшим максимальный рост органического трафика. Может быть полезно, если вы захотите использовать Reddit для паразитного SEO. Уж его-то за это по-любому не накажут.…
Интересная статистика в отчете по безопасности за первый квартал 2024 года от Reddit:
"В период с апреля по июнь 2024 года мы приняли меры против 20 000 спамеров , не дав им проникнуть в результаты поиска через Reddit. Мы также удалили более 950 сабреддитов , забанили 5 400 доменов , посвященных этому поведению, и в среднем удаляли 17 000 нарушающих правила комментариев в неделю."

Похоже, паразитное SEO в Reddit — не такая уж простая задача.
😁4
Буржуйские сеошники Лили Рэй и Гленн Гейб отмечают микроскопические подвижки в сторону улучшения у сайтов, пострадавших от сентябрьского апдейта системы полезного контента (HCU). До этого момента пострадавшие признаков жизни вообще не подавали. Это как в голливудском фильме у героя, лежащего который год в коме, вдруг на мониторе возникают редкие вспышки.
😁4
Сайты, предоставляющие системам ИИ платный контент, сильно рискуют. Wired утверждает, что чат-боты этих систем, ничтоже сумняшеси, отдают скачанный html-код документов с платным доступом любому, кто его попросит.
😁5
Буржуйский сеошник Гаган Готра сообщает, что Google тестирует новый формат для "шапки" сниппета - единый блок из значка, имени и адреса сайта на сером фоне. Не скажу, что мне не нравится, но все дальше от старых добрых десяти синих ссылок.
Проверяет ли Google фактологию? Буржуйская сеошница Мэри Хейнс утверждает, что нет, проведя небольшое исследование. Алгоритм делает оценки на основе действий пользователей. Поэтому вирусная статья с фактологическими ошибками может победить академический выверенный до пятого знака после запятой, но скучно написанный материал.
👍5👎1😢1
Неплохое исследование изображений в сниппетах поисковой выдачи Google от буржуйского сеошника Броди Кларка. Броди предлагает контрольный список из 9 пунктов для устранения технических неполадок с изображениями в сниппете.
Хотя алгоритм Google может просто решить, что ваш сайт недостоин такой радости.
🔥2👎1
Гуглоид Гэри Ийеш в очередной раз в довольно красочной аллегорической форме напоминает о вреде "мягких ошибок 404". Не путать с настоящими ошибками 404, когда страницы имеют код состояния именно 404. Страницы с "мягкими ошибками" имеют код состояния 200, но радостно сообщают, что здесь ничего нет. После красочных аллегорий Гэри делает следующие выводы:
"Мягкие ошибки плохи, потому что:
1. Ограниченный краулинговый бюджет, потраченный на них, мог бы быть потрачен на реальные страницы.
2. Страницы вряд ли будут отображаться в поиске, потому что во время индексации они отфильтровываются, по сути, нет окупаемости инвестиций в ресурсы, потраченные на их обслуживание. Если сервер или клиент столкнулись с ошибкой, предоставьте соответствующий код статуса HTTP. Заставьте нас понять вас. "
🤝2
Гуглоид Гэри Ийеш опубликовал пост по случаю 30-летнего юбилея файла robots.txt, в котором подчеркивает его замечательную особенность – никакие ошибки в этом файле не смогут помешать краулерам выполнить директивы, написанные без ошибок. Что развенчивает очередной сеошный миф о том, что краулер, найдя ошибку в файле robots.txt, может его полностью проигнорировать.
👍4
Как вы знаете, существенная часть потока запросов к поиску Яндекса - про поиск товаров, это популярный и важный пользовательский сценарий. Мы научились лучше определять, когда пользователь совершает поисковый запрос с целью выбрать товар или совершить покупку и стремимся улучшить качество поиска в этом срезе. Благодаря этому мы теперь можем лучше учитывать пользовательский опыт по ecom-запросам в ранжировании.

В ближайшие месяцы мы планируем выпускать и другие обновления в поиске: улучшить качество и значимость различных сигналов, например, про региональность, доступность товара и т.д. Интернет-магазины, которые предоставляют пользователям лучший покупательский опыт, качественный сервис и ассортимент, смогут получать хорошую представленность в поиске и получить дополнительные заказы.
👍8👎7
Амбассадор Яндекса Михаил Сливинский объявил об улучшении классификатора коммерческих запросов и анонсировал планы по улучшению качества и значимости коммерческих факторов.
👎15👍7😁2
Буржуйский сеошник Кевин Индиг обновил свое исследование Google AI Overviews по 1675 ключевым словам и обнаружил:
1. В 2 раза больше ссылок (за последние 30 дней)
2. На 2/3 меньше AIO в среднем во всех отраслях, на 50% меньше в сфере здравоохранения
3. Reddit и Wikipedia цитируются чаще, но все еще относительно редко
SЕalytics (SEO-аналитика от Сергея Людкевича)
Гуглоид Гэри Ийеш в очередной раз в довольно красочной аллегорической форме напоминает о вреде "мягких ошибок 404". Не путать с настоящими ошибками 404, когда страницы имеют код состояния именно 404. Страницы с "мягкими ошибками" имеют код состояния 200, но…
Кстати, в посте Гэри Ийеша о "мягкой ошибке 404" читается один важный нюанс – "мягкая ошибка 404" противопоставляется настоящей ошибке 404 тем, что "мягкая ошибка" с откликом 200 расходует краулинговый бюджет. Собственно, в этом нет ничего удивительного, если учесть, что краулинговый бюджет – это бюджет на сканирование. Поэтому страницы с кодом состояния 404, равно как и 30х, а также закрытые в файле robots.txt, которые не сканируются, краулинговый бюджет не расходуют. А страницы с кодом состояния 200, которые сканируются – расходуют.
👍4