SЕalytics (Сергей Людкевич)
2.5K subscribers
789 photos
9 videos
2 files
3.53K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Как рождаются сеошные мифы.
Барри Шварц на днях в своем видеообзоре запустил утку, что гуглоид Дэнни Салливан сказал, что восстановление позиций упавшего сайта после внесения изменений может занять две недели. По факту оказалось, что было сказано не "2 weeks", а "couple of weeks", а сам Дэнни написал, что под этой "парой недель" он подразумевал отнюдь не строго две, а несколько недель, более того:
"В этом контексте я должен был сказать, что это может занять от нескольких недель до нескольких месяцев или всего несколько месяцев. Прошу прощения за это. "

"Легким движением руки" две недели превращаются в несколько месяцев. 😊
😁5👏3
Google перестал уведомлять вебмастеров о причинах удаления из поисковой базы контента, в отношении которого было использовано т.н. "право на забвение". Это случилось после того, как как шведский суд постановил, что информирование вебмастеров об исключенном из поиска контенте является нарушением конфиденциальности.
Получается какое-то право на забвение права на забвения.
😁5👍2
Война машин.
Google использует искусственный интеллект, чтоб обнаружить фейковый контент в отзывах о компаниях в Поиске и Google Maps. Которые, как пить дать, сгенерировал тоже искусственный интеллект.
Как страшно жить... )
😁4😢1🤨1
Немножко юмора от буржуйского сеошника Мэтта Гиббса. Кстати, что-то подобное у меня промелькнуло в голове после фееричной новости от Яндекса, что они перенесли одну страницу в другой раздел Яндекс Вебмастера. 😀
😁6
Буржуйский сеошник Гленн Гейб делится примером быстрого роста поисковой видимости в Google контента, сгенерированного ИИ (тесты показывают вероятность 98%). Да еще и с платным доступом в придачу. Поведение пользователей, говорите?
P.S. Ребята прошаренные, даже мету robots с директивой noarchive не забыли поставить, чтоб через кэш контент на халяву не смотрели.
👍2😐1
Gartner прогнозирует, что объем поисковых систем упадет на 25% к 2026 году из-за чат-ботов с искусственным интеллектом и других виртуальных агентов.
Ну что, товарищи сеошники, готовы ужаться на четверть?
🤔4
Буржуйский сеошник Гленн Гейб предлагает весьма оригинальный способ узнать, что юзеры думают о вашем сайте – поискать по своему доменному имени в проиндексированных Google страницах экспериментального сервиса Notes от Google Search Labs, доступного, правда, пока лишь только американцам и индусам. Будет, конечно, сильно интересней, если эту фичу расшарят на весь мир.
SЕalytics (Сергей Людкевич)
Ну вот и первая ласточка по разметке для поисковиков сгенерированого с помощью AI контента. Google в англоязычной версии документации ввел (пока в качестве бета-теста) метаданные для сгенерированных изображений "Digital source type"
Очередная ласточка по маркировке контента, созданного искусственным интеллектом.
Google Merchant Center обязывает:
"Если вы используете изображения, созданные с помощью ИИ, в Merchant Center, Google требует, чтобы вы сохранили в исходном файле изображения все теги метаданных, указывающие на то, что изображение было создано с использованием генеративного ИИ.
Не удаляйте встроенные теги метаданных, например, trainedAlgorithmicMedia из таких изображений. Все изображения, созданные искусственным интеллектом, должны содержать тег IPTC DigitalSourceType trainedAlgorithmicMedia. "

Напрашивается распространение этих требований на Google Images.
👍1
Индийский сеошник с труднопроизносимым именем обнаружил очередной эксперимент на поисковой выдаче Google – появление вкладки "Forums". Похоже, надо дать Реддиту больше трафика, а то маловато ему. 😀
И да, везет индусам на эксперименты. Не иначе как у них испытательный полигон гуглоиды устроили.
😁1
Google объявил о начале поддержки структурированных данных вариантов продуктов типа ProductGroup микроразметки Schema.org.
Новые проверки для данного типа разметки были добавлены в отчеты раздела "Покупки" Search Console и тест расширенных результатов.
Крик души редакторов мелкого буржуйского контентного сайта о том, как фейковые "списки лучших...", состряпанные на коленке по всем канонам гугловского E-E-A-T и опубликованные в крупных СМИ, забивают топы поисковой выдачи Google по "обзорным" запросам. Фейковый опыт и фейковая экспертиза вкупе с настоящими авторитетом и доверием к источнику побеждают.
😢6👍4😁1
Sistrix анализирует бешеный успех по поисковой видимости в Google, который в последней трети прошлого года продемонстрировал Reddit — платформа форумов "обо всем".
Динамика, конечно, впечатляет, но не стоит забывать о том, как сдувались подобные счастливчики типа Craiglist или Myspace.
🔥3
SЕalytics (Сергей Людкевич)
Google объявил о начале поддержки структурированных данных вариантов продуктов типа ProductGroup микроразметки Schema.org. Новые проверки для данного типа разметки были добавлены в отчеты раздела "Покупки" Search Console и тест расширенных результатов.
Google также добавил в документацию рекомендации по выбору URL для страниц вариантов продукта:
"На сайтах электронной торговли часто возникает вопрос о том, как структурировать URL-адреса, когда продукт доступен в нескольких размерах или цветах. Каждая комбинация атрибутов продукта называется вариантом продукта. Чтобы помочь Google понять варианты вашего продукта, убедитесь, что каждый вариант можно идентифицировать по отдельному URL-адресу. Мы рекомендуем следующие структуры URL-адресов для вариантов продукта:
• Сегмент пути, например/t-shirt/green
• Параметр запроса, например/t-shirt?color=green
...
Если вы используете дополнительные параметры запроса для определения вариантов, используйте URL-адрес без параметра запроса в качестве канонического. Это может помочь Google понять взаимосвязь между вариантами продукта."
👍3
Заглянул к Васе Ткачеву на AllinTop. Вася тринадцатый год подряд с упорством достойным уважения собирает чисто сеошную офлайновую конфу. Шесть десятков слушателей — весьма неплохой результат.
🔥10👍71😁1
Вышел 69-й выпуск подкаста Google Search Off the Records, в котором менеджер по поддержке продукта Аасиш Марина рассказывает Джону Мюллеру и Лиззи Сассман о своей нелегкой работе. А работа менеджеров по поддержке действительно нелегка — на вопросы пользователей на форуме о продукте отвечать не надо, за них это делают такие же пользователи, которым дали лычки экспертов по продукту. Но самое интересное не это, а то, что гуглоиды в своей беседе открытым текстом объявили, что PBN — это спам:
"Мой друг Дьюи из команды Webspam любит слушать о таких вещах."

Как мило.
Дельное замечание от гуглоида Джона Мюллера:
"Кэшированная страница отличается от рендеринга, они не взаимозаменяемы. Если вам нужно протестировать рендеринг, вам следует использовать инструмент проверки URL-адресов, даже если вы можете просмотреть кешированную страницу."

Таки да, если рендеринг что-то меняет в исходном коде, то в закэшированной сохраненке вы этого не увидите. Всегда надо это иметь в виду при анализе.
👍3
Очередное исследование корреляций различных сигналов у победителей и проигравших в последних апдейтах Google.
Результаты весьма любопытны. Так, например, наибольшую корреляцию у победителей показали сайты, которые использовали большое количество местоимений от первого лица и не использовали стоковые изображения.
А у проигравших – сайты, которые сочетали в себе фиксированную рекламу в нижнем колонтитуле, прокручиваемое видео и отсутствие личного опыта.
Исследователи предсмотрительно выставили дисклеймер:
"1. Хотя включенные данные представляют собой хороший срез Интернета, это очень небольшой размер выборки. Ко всем подобным исследованиям следует относиться с недоверием.
2. В исследовании предпринята попытка выявить особенности, связанные с выигравшими и проигравшими сайтами. Важно отметить, что это не факторы ранжирования, и никто на это не претендует. Хотя алгоритмы машинного обучения Google могут связывать эти функции с «качеством» или другими факторами ранжирования, мы просто не можем утверждать это наверняка.
3. Важно отметить, что корреляция не является причинно-следственной связью."
🔥5👍1
Гуглоид Джон Мюллер рекомендует не запрещать дубли страниц с utm-метками в URL от сканирования в файле robots.txt, а использовать директиву canonical, ведущую на исходную страницу.
Целиком и полностью с ним согласен, т.к. в этом случае произойдет консолидация внешних факторов на канонической странице. А если, вы, к примеру, даете контекстную рекламу в Директе, где utm-метка yclid обязательна, запрещение страниц с utm-метками в robots.txt просто оставит весь трафик из Директа за бортом учета поведенческих факторов алгоритмом ранжирования. Единственный минус заключается в том, что в случае наличия динамического контента на странице поисковик может проигнорировать canonical, т.к. полученные в разные моменты копии страницы с utm-метками и без могут отличаться. Поэтому в Яндексе на этот случай очень полезна директива Clean-param для файла robots.txt. Для Google аналога на данный момент, увы, нет. Инструмент "Параметры URL" в Google Search Console почил в бозе два года назад.
👍8
Reddit заключил сделку с Google, согласно которой будет получать 60 миллионов долларов США за предоставление права использовать свой контент для обучения искусственного интеллекта. А бонус в поисковом трафике, я так понимаю, идет прицепом. Операция "Скрытые жемчужины". 😀
😁8