Кристиан Кунц напоминает про не самый очевидный сценарий использования Вебархива: с помощью него можно извлекать старые версии файла robots.txt
www.seo-suedwest.de
SEO-Tipp: Per Wayback Machine lassen sich alte robots.txt abrufen
Die unter archive.org verfügbare Wayback Machine ermöglicht auch den Abruf alter robots.txt-Dateien.
Продолжая тему поведенческих - отличный ролик Ивана Зимина (@heymoneymaker).
YouTube
Без этого не будет топа в Яндексе - главный фактор ранжирования в 2023
Рассказываю про текущие реалии продвижения в Яндексе и почему всего лишь без одного фактора ранжирования вам никогда не увидеть топ.
► Монетизация PUSH-трафика с RevShare 97%: https://majorpush.pro/
► Мой телеграм-канал: https://t.me/heymoneymaker
💲…
► Монетизация PUSH-трафика с RevShare 97%: https://majorpush.pro/
► Мой телеграм-канал: https://t.me/heymoneymaker
💲…
noindex, nofollow
В итоге гуглоиды просто запретили сканирование публичных Bard-диалогов через robots.txt (https://bard.google.com/robots.txt). Странное решение (вместо добавления meta noindex), учитывая что это не запрещает показывать урлы в выдаче. https://t.me/sealytics/299
Гуглоиды признали свою ошибку и теперь закрыли публичные страницы чатов через meta noindex и сняли запрет сканирования в robots.txt :)
noindex, nofollow
12 млн переходов в месяц из Гугла на сайт с ИИ-контентом с 0 за 2 месяца Подсмотрел у Fery Kaszoni. Гугл его все еще не пессимизировал :) Знакомьтесь - CooPWB (coopwb.in). - они купили дроп домен - в июле опубликовали 1 статью - в августе опубликовали 5 000…
Удивительно, но этот сайт спокойно перенес Helpful content update.
"Проанализировав еще больше сайтов, сильно пострадавших от сентябрьского HCU (после того, как моя заметка вышла в свет), я еще больше убедился в том, что сочетание бесполезного контента и ужасного UX - это смертельный поцелуй для HCU. Я не утверждаю, что только ужасный UX может стать причиной падения, но оба варианта вместе могут привести к серьезным проблемам".
via Гленн Гейб @ X
via Гленн Гейб @ X
The Internet Marketing Driver
The September 2023 Google Helpful Content Update – Did Google’s Announcement in April About Page Experience Foreshadow What We’re…
Glenn Gabe of GSQi explains the potential role of UX in Google's September 2023 helpful content update.
По данным Симиларвеба, количество переходов на ведущие мировые новостные сайты из Facebook и X (ранее Twitter) резко упало за последний год.
via Axios
via Axios
Соскучились по апдейтам?
October 2023 Spam Update стартовал, речь только про турецкий, вьетнамский, индонезийский, хинди, китайский и другие языки (что бы это ни значило). Внедрение обновления займет несколько недель.
via Google Search Central Blog
October 2023 Spam Update стартовал, речь только про турецкий, вьетнамский, индонезийский, хинди, китайский и другие языки (что бы это ни значило). Внедрение обновления займет несколько недель.
via Google Search Central Blog
Google for Developers
October 2023 Spam Update | Google Search Central Blog | Google for Developers
Теория Барри Адамса (он предупреждает, что официальных подтверждений этому нет).
Googlebot, независимо от своих юзер-агентов, на самом деле является многоуровневой системой с по меньшей мере тремя различными процессами сканирования:
1) Realtime Crawler - краулер в режиме реального времени, который выполняет наиболее агрессивный процесс сканирования VIP-страниц - страниц с высокой ценностью, которые имеют много входящих ссылок, часто меняются и регулярно и неизменно отображаются на первой странице результатов поиска. Это главные страницы новостных сайтов, Amazon.com, порталы объявлений и другие страницы, которые пользуются большой популярностью и имеют большой оборот контента.
Как только Realtime Crawler находит новый URL и сканирует его, он передает его второму процессу - Regular Crawler.
Повторное сканирование этих URL с целью выявления изменений остается за обычным краулером.
2) Regular Crawler - обычный краулер - основной процесс Google, выполняющий большую часть работы.
3) Legacy Crawler - процесс, который фокусируется на неважных и устаревших страницах.
Вначале регулярный краулер будет обращаться к URL, особенно если в статье были сделаны изменения. Но через некоторое время, через несколько месяцев, нет смысла продолжать обращаться к статье.
Legacy Crawler будет время от времени пересматривать статью, даже если нет никаких сигналов о том, что статью следует пересмотреть.
Legacy Crawler также пересматривает URL'ы, которые когда-то содержали контент, но теперь выдают ошибку 404 Not Found или 410 Gone. Гугл хочет убедиться, что эти ошибки сохранились и URL не был восстановлен, поэтому он иногда пересматривает эти старые URL, чтобы убедиться, что там по-прежнему отображается ошибка Page Not Found.
Googlebot, независимо от своих юзер-агентов, на самом деле является многоуровневой системой с по меньшей мере тремя различными процессами сканирования:
1) Realtime Crawler - краулер в режиме реального времени, который выполняет наиболее агрессивный процесс сканирования VIP-страниц - страниц с высокой ценностью, которые имеют много входящих ссылок, часто меняются и регулярно и неизменно отображаются на первой странице результатов поиска. Это главные страницы новостных сайтов, Amazon.com, порталы объявлений и другие страницы, которые пользуются большой популярностью и имеют большой оборот контента.
Как только Realtime Crawler находит новый URL и сканирует его, он передает его второму процессу - Regular Crawler.
Повторное сканирование этих URL с целью выявления изменений остается за обычным краулером.
2) Regular Crawler - обычный краулер - основной процесс Google, выполняющий большую часть работы.
3) Legacy Crawler - процесс, который фокусируется на неважных и устаревших страницах.
Вначале регулярный краулер будет обращаться к URL, особенно если в статье были сделаны изменения. Но через некоторое время, через несколько месяцев, нет смысла продолжать обращаться к статье.
Legacy Crawler будет время от времени пересматривать статью, даже если нет никаких сигналов о том, что статью следует пересмотреть.
Legacy Crawler также пересматривает URL'ы, которые когда-то содержали контент, но теперь выдают ошибку 404 Not Found или 410 Gone. Гугл хочет убедиться, что эти ошибки сохранились и URL не был восстановлен, поэтому он иногда пересматривает эти старые URL, чтобы убедиться, что там по-прежнему отображается ошибка Page Not Found.
Seoforgooglenews
Why Articles Should Be Optimised Before Publishing
One of Google's quirks means that once an article has been crawled and indexed, any changes won't necessarily be picked up by Google until it's too late.
Яндекс пояснил про МПК в блоге. Что же им может считаться:
1. Копипаст, плагиат, включая форумные посты и комменты к статьям
2. Закос под первоисточник путем подмены даты публикации
3. Компиляция статьи из множества других статей
4. Автоматическое добавление ключевых слов
5. Многократный машинный перевод
6. Вторичный контент без экспертизы по теме (намек на ПФ: "в таком случае пользователи возвращаются к выдаче и продолжают искать ответ на свой вопрос")
7. Рерайт отзывов
Другие признаки МПК:
- агрессивная реклама, закрывающая контент
- рекламы на странице больше, чем контента
- "Пара неоригинальных публикаций на большом ресурсе к наложению такой санкции не приведет. Однако если объем заимствований будет всерьез сказываться на общей полезности сайта, такой сайт с высокой долей вероятности получит оповещение о малополезном контенте."
1. Копипаст, плагиат, включая форумные посты и комменты к статьям
2. Закос под первоисточник путем подмены даты публикации
3. Компиляция статьи из множества других статей
4. Автоматическое добавление ключевых слов
5. Многократный машинный перевод
6. Вторичный контент без экспертизы по теме (намек на ПФ: "в таком случае пользователи возвращаются к выдаче и продолжают искать ответ на свой вопрос")
7. Рерайт отзывов
Другие признаки МПК:
- агрессивная реклама, закрывающая контент
- рекламы на странице больше, чем контента
- "Пара неоригинальных публикаций на большом ресурсе к наложению такой санкции не приведет. Однако если объем заимствований будет всерьез сказываться на общей полезности сайта, такой сайт с высокой долей вероятности получит оповещение о малополезном контенте."
Гугл разошелся. Не успели мы отойти от августовского Core update, последовавшего за ним Helpful content update и запущенного вчера октябрьского антиспам апдейта, как сегодня запускают October 2023 core update!
https://twitter.com/googlesearchc/status/1709960744635101650
https://twitter.com/googlesearchc/status/1709960744635101650
noindex, nofollow
Соскучились по апдейтам? October 2023 Spam Update стартовал, речь только про турецкий, вьетнамский, индонезийский, хинди, китайский и другие языки (что бы это ни значило). Внедрение обновления займет несколько недель. via Google Search Central Blog
Гугл - тролли. Еще и добавили, что антиспам апдейт затрагивает все языки. 🤡
via X
via X
"Апдейты Гугла как автобусы - ждешь вечность одного, а потом приезжают сразу три".
via Peter Mindenhall @ X
via Peter Mindenhall @ X
Гугл тестирует упрощенную версию SGE (сгенерированного ИИ ответа), который по виду напоминает featured snippet.
via Гленн Гейб @ X
via Гленн Гейб @ X