Пропавшие миниатюры в сниппетах Google возвращаются. Уж не тот ли это баг, не имеющий отношения к апдейту, который все еще фиксят гуглоиды?
Search Engine Roundtable
Thumbnails Returning To Google Search Result Snippets For Many
For the past several months, many sites have been complaining over and over again that their image thumbnails for their websites were not showing up in the Google Search result snippets. Well, with the release of the August 2024 core update, many small publishers…
Оказывается,
Похоже, управляльщики репутацией открыли шампанское, когда Google отменил бесконечную прокрутку страницы выдачи. 😊
"непрерывная прокрутка Google создала новые проблемы для компаний, занимающихся управлением репутацией в Интернете (ORM).
Вместо того чтобы сосредоточиться на оказании положительного влияния на 10 ссылок на первой странице результатов поиска Google для частных лиц и компаний, теперь им приходилось постоянно управлять негативным контентом в расширенном массиве результатов."
Похоже, управляльщики репутацией открыли шампанское, когда Google отменил бесконечную прокрутку страницы выдачи. 😊
Search Engine Land
How Google ending continuous scroll could impact ORM
Here's how individuals and brands can adjust online reputation management (ORM) strategies to adapt to a post-continuous scroll world.
👍2😁1
Весьма подробный мануал по экспорту данных из Google Search Console с использованием Google BigQuery от буржуйского сеошника Майка Джинли.
🔥2
Буржуйский сеошник Гаган Готра рассуждает о реалиях современного SEO в Буржуинии:
К сожалению, отечественная сфера SEO не сможет повзрослеть, пока в Яндексе пусть с переменным, но все-таки успехом работает накрутка ПФ.
"И даже сфера SEO также значительно повзрослела по сравнению с 5 годами ранее – сейчас почти все представители малого и среднего бизнеса понимают, что это такое, это требует времени, нет быстрых хаков. И они готовы платить правильному поставщику, чтобы получить результаты со временем, а не идти к кому-то, кто скажет: заплатите за несколько месяцев, и мы сделаем вам это."
К сожалению, отечественная сфера SEO не сможет повзрослеть, пока в Яндексе пусть с переменным, но все-таки успехом работает накрутка ПФ.
👍8
Google сообщил о завершении исправления проблемы с ранжированием, обнаруженной 15 августа.
22 минуты на то, чтоб сменить телефонный номер в чужом профиле в Google MyBusiness. Всего-то понадобилось три запроса с разных аккаунтов со статусом местного гида с уровнем от 2 до 10. Безопасность по-гуловски.
Near Media
Hacking a Business Phone Number on a Google Listing Is (Still) Easy
When confronted by the media about fraud and local listings scams, Google's PR machine trots out a familiar playbook and canned messaging.
😁5👍2🤔2
Полезные советы от амбассадора Яндекса Михаила Сливинского. Двумя руками за.
👍2
Forwarded from Сливинский в поиске
Склеивать или запрещать к индексации? Логика решения и особенности методов для работы с ненужными в поиске страницами.
Есть много способов повлиять на поведение поискового робота - noindex, запрет в robots, clean-param и т.д. Часто вижу, что нет уверенного понимания, что и почему лучше использовать в конкретных случаях. Разберёмся вместе)
Во-первых, сразу определимся, что тут речь о каких-то ненужных в поиске страницах: технических дублях, пустых страницах без контента, etc. Если не ограничить индексирование таких страниц, они могут попадать в поиск, что может замедлять индексирование целевых, полезных страниц. Также обход дублей/мусора создаёт нагрузку на сайт, она может быть значительной. Кроме того, дубли могут показываться в поиске, что приведёт к размытию поисковых сигналов между несколькими страницами, что невыгодно ни сайту, ни поиску.
Разделим эти страницы на несколько когорт:
— нежелательные в поиске страницы с чувствительными данными (заказы пользователей, etc): к таким страницам стоит закрыть доступ авторизацией, чтобы ни поисковые роботы, ни случайные пользователи не смогли в принципе получить этот контент
— страницы без контента, какой-то технический мусор и пр. страницы без шансов показаться в поиске: такие лучше просто запретить к индексации
— страницы, являющиеся дублями (например, из-за добавления cgi-меток к урлу в рекламных системах): стоит подклеить их сигналы к основному (каноническому) урлу
Теперь разберёмся с инструментами, запрещающими индексацию.
Запрет через disallow в robots.txt полезен, если закрываемые страницы хорошо группируются какой-то маской на url. Ценная особенность метода в том, что не требуется обход роботом, и директива применится сразу ко всем урлам в поисковой базе.
Метатег или http-заголовок noindex даёт большую гибкость (страницы могут не иметь общего паттерна в url, и нет ограничения на число страниц), но при этом требуется обход роботом, поэтому потребуется больше времени.
Чтобы подклеить сигналы с дублирующих страниц к основным, используйте элемент rel=canonical, директиву clean-param в robots.txt или 301 редирект.
Атрибут rel=canonical или редирект позволяют реализовать гибкую логику, если нужно, но потребует обход страниц роботом. Если дубли порождаются незначащими cgi-параметрами, выгодно использовать clean-param - это подклеит сигналы к каноническому урлу, при этом роботу даже не потребуется обходить страницы заново. Замечу, что и атрибут canonical, и директива clean-param являются рекомендацией для робота и могут не сработать при существенных отличиях страниц.
Резюмируем: непубличные страницы лучше закрыть авторизацией, мусорные страницы и пустышки - запретить к индексации, содержательные дубли - подклеить к каноническим.
Выбирайте оптимальное решение в каждом конкретном случае.
Есть много способов повлиять на поведение поискового робота - noindex, запрет в robots, clean-param и т.д. Часто вижу, что нет уверенного понимания, что и почему лучше использовать в конкретных случаях. Разберёмся вместе)
Во-первых, сразу определимся, что тут речь о каких-то ненужных в поиске страницах: технических дублях, пустых страницах без контента, etc. Если не ограничить индексирование таких страниц, они могут попадать в поиск, что может замедлять индексирование целевых, полезных страниц. Также обход дублей/мусора создаёт нагрузку на сайт, она может быть значительной. Кроме того, дубли могут показываться в поиске, что приведёт к размытию поисковых сигналов между несколькими страницами, что невыгодно ни сайту, ни поиску.
Разделим эти страницы на несколько когорт:
— нежелательные в поиске страницы с чувствительными данными (заказы пользователей, etc): к таким страницам стоит закрыть доступ авторизацией, чтобы ни поисковые роботы, ни случайные пользователи не смогли в принципе получить этот контент
— страницы без контента, какой-то технический мусор и пр. страницы без шансов показаться в поиске: такие лучше просто запретить к индексации
— страницы, являющиеся дублями (например, из-за добавления cgi-меток к урлу в рекламных системах): стоит подклеить их сигналы к основному (каноническому) урлу
Теперь разберёмся с инструментами, запрещающими индексацию.
Запрет через disallow в robots.txt полезен, если закрываемые страницы хорошо группируются какой-то маской на url. Ценная особенность метода в том, что не требуется обход роботом, и директива применится сразу ко всем урлам в поисковой базе.
Метатег или http-заголовок noindex даёт большую гибкость (страницы могут не иметь общего паттерна в url, и нет ограничения на число страниц), но при этом требуется обход роботом, поэтому потребуется больше времени.
Чтобы подклеить сигналы с дублирующих страниц к основным, используйте элемент rel=canonical, директиву clean-param в robots.txt или 301 редирект.
Атрибут rel=canonical или редирект позволяют реализовать гибкую логику, если нужно, но потребует обход страниц роботом. Если дубли порождаются незначащими cgi-параметрами, выгодно использовать clean-param - это подклеит сигналы к каноническому урлу, при этом роботу даже не потребуется обходить страницы заново. Замечу, что и атрибут canonical, и директива clean-param являются рекомендацией для робота и могут не сработать при существенных отличиях страниц.
Резюмируем: непубличные страницы лучше закрыть авторизацией, мусорные страницы и пустышки - запретить к индексации, содержательные дубли - подклеить к каноническим.
Выбирайте оптимальное решение в каждом конкретном случае.
👍6
Вышел очередной выпуск гугловского цикла SEO Made Easy с Мартином Шплиттом. На этот раз речь идет о страницах со статусом "Обнаружена, не проиндексирована" ("Discovered - currently not indexed") в отчете о страницах в Google Search Console.
Получить это статус страница может по следующим причинам:
1) Googlebot просто еще не успел просканировать URL-адрес, поскольку был занят другими URL-адресами.
2) Низкое качество веб-сайта, обусловленное как техническими причинами (медленная работа сервера или возвращение на запрос краулера кода состояния HTTP 500), так и низким качеством контента (thin content).
Так что если у вас в отчете Google Search Console достаточно страниц со статусом "Обнаружена, не проиндексирована", и это количество не уменьшается со временем, есть повод задуматься о качестве сайта.
Получить это статус страница может по следующим причинам:
1) Googlebot просто еще не успел просканировать URL-адрес, поскольку был занят другими URL-адресами.
2) Низкое качество веб-сайта, обусловленное как техническими причинами (медленная работа сервера или возвращение на запрос краулера кода состояния HTTP 500), так и низким качеством контента (thin content).
Так что если у вас в отчете Google Search Console достаточно страниц со статусом "Обнаружена, не проиндексирована", и это количество не уменьшается со временем, есть повод задуматься о качестве сайта.
YouTube
Help! Google Search isn't indexing my pages
Welcome back to SEO Made Easy! In this episode, Search Relations Advocate, Martin Splitt, discusses why Search Console may display some of your website pages as ‘Discovered - currently not indexed’ and what you can do to remedy the issue. Watch along and…
👍2
SЕalytics (SEO-аналитика от Сергея Людкевича)
Вышел очередной выпуск гугловского цикла SEO Made Easy с Мартином Шплиттом. На этот раз речь идет о страницах со статусом "Обнаружена, не проиндексирована" ("Discovered - currently not indexed") в отчете о страницах в Google Search Console. Получить это статус…
P.S. Любопытно, что на 9-й секунде у Мартина есть оговорочка.
Он говорит:
Строго говоря, она будет не проиндексирована, а просканирована и получит один из статусов "Страница просканирована, но пока не проиндексирована" или "Проиндексировано". О чем, собственно, и говорит Мартин в начале третьей минуты, исправляясь:
Он говорит:
"Как только начнется обход, URL-адрес переместится
в группу "Обнаружена, не проиндексирована" или страница будет проиндексирована."
Строго говоря, она будет не проиндексирована, а просканирована и получит один из статусов "Страница просканирована, но пока не проиндексирована" или "Проиндексировано". О чем, собственно, и говорит Мартин в начале третьей минуты, исправляясь:
"Как только начнется сканирование, URL-адрес переместится в группу "Страница просканирована, но пока не проиндексирована" или страница будет проиндексирована."
👍2
Бывший руководитель Яндекс Поиска и Bing Михаил Парахин займет пост в консультативном совете компании Liquid AI. Михаил также с мая является членом консультативного совета Perplexity.
Масштаб, конечно, уже не тот...
Масштаб, конечно, уже не тот...
Swipe Insight
Ex-Bing AI Chief, Mikhail Parakhin, Now Perplexity Advisory Board Member | Swipe Insight
Ex-Bing Search head, Mikhail Parakhin, has joined Perplexity's advisory board. His expertise in search infrastructure and AI will aid Perplexity's core engine development. The AI startup also welcomed Emil Michael, ex-CBO of Uber, and Rich Miner, Android…
👍3👎1
Гуглоид Джон Мюллер посоветовал не спешить с анализами и выводами, пока официально не завершится апдейт. Его попытались расколоть на причины проблемы, возникшей во время запуска апдейта, и на что она влияет, но старина Джон – крепкий орешек.
Linkedin
Rüdiger Dalchow on LinkedIn: Maybe a stupid question Google Search Central , John Mueller with the… | 21 comments
Maybe a stupid question Google Search Central , John Mueller with the Google Ranking issue now resolved (which is really nice that it is resolved) but the… | 21 comments on LinkedIn
В список поисковых роботов Google добавлен Google-CloudVertexBot — новый поисковый робот, который сканирует сайты по запросу их владельцев при создании агентов Vertex AI .
Google Cloud
Prepare data for ingesting | AI Applications | Google Cloud
Вышел выпуск цикла Google SEO Office Hours за август 2024 года.
В очередной раз гуглоиды подтвердили, что ни большое количество директив nofollow или noindex, ни большое количество известных Googlebot'у страниц с кодом состояния 404 не влияют на оценку качества сайта и его ранжирование.
Хотя некоторые сеошники упорно отказываются верить в это.
В очередной раз гуглоиды подтвердили, что ни большое количество директив nofollow или noindex, ни большое количество известных Googlebot'у страниц с кодом состояния 404 не влияют на оценку качества сайта и его ранжирование.
Хотя некоторые сеошники упорно отказываются верить в это.
YouTube
English Google SEO office-hours from August 2024
This is an audio-only recording of the Google SEO office-hours from August 2024 - a transcript is available at https://goo.gle/SEO-august24.
These sessions cover topics submitted around anything search and website-owner related like crawling, indexing,…
These sessions cover topics submitted around anything search and website-owner related like crawling, indexing,…
👍3
Во время августовских SEO Office Hours гуглоидам был задан весьма оригинальный вопрос:
Ответ, конечно же был
И какие только идеи не приходят в голову сеошникам в надежде найти простое решение проблем с ранжированием. 😊
"Каково влияние SEO на то, что комментарии пользователей остаются без ответа в сообщениях блога?"
Ответ, конечно же был
"Влияние на SEO отсутствует"
И какие только идеи не приходят в голову сеошникам в надежде найти простое решение проблем с ранжированием. 😊
YouTube
English Google SEO office-hours from August 2024
This is an audio-only recording of the Google SEO office-hours from August 2024 - a transcript is available at https://goo.gle/SEO-august24.
These sessions cover topics submitted around anything search and website-owner related like crawling, indexing,…
These sessions cover topics submitted around anything search and website-owner related like crawling, indexing,…
И еще один интересный вопрос из августовских SEO Office Hours – у гуглоидов спрашивают, может ли фейковый трафик, посылаемый на сайт злоумышленниками, понизить его надежность в глазах Google. Ответ таков:
Вот только есть один нюанс. Если фейковый трафик, посылаемый недоброжелателями, будет себя вести на сайте не так, как удовлетворенный пользователь, то я не уверен, что это не будет расценено алгоритмом, как то, что сайт не содержит полезный контент.
"Никто не может выбирать или контролировать откуда поступает трафик или ссылки.
Так что это не то, что Google Search будет рассматривать, чтобы оценить надежность веб-сайта."
Вот только есть один нюанс. Если фейковый трафик, посылаемый недоброжелателями, будет себя вести на сайте не так, как удовлетворенный пользователь, то я не уверен, что это не будет расценено алгоритмом, как то, что сайт не содержит полезный контент.
YouTube
English Google SEO office-hours from August 2024
This is an audio-only recording of the Google SEO office-hours from August 2024 - a transcript is available at https://goo.gle/SEO-august24.
These sessions cover topics submitted around anything search and website-owner related like crawling, indexing,…
These sessions cover topics submitted around anything search and website-owner related like crawling, indexing,…
Весьма неожиданный результат исследования компании seoClarity, в котором проанализирована поисковая выдача Google по 36 тысячам запросов на предмет совпадения URL-адресов, появляющихся в AI Overview, с теми, которые появляются в топ-10 органических результатов.
Совпадение составило 99,5%, когда один или несколько из 10 лучших результатов органики были включены в источники AI Overview.
Наконец-то подключили к AI Overview поисковый антиспам и систему полезного контента?
Совпадение составило 99,5%, когда один или несколько из 10 лучших результатов органики были включены в источники AI Overview.
Наконец-то подключили к AI Overview поисковый антиспам и систему полезного контента?
Linkedin
How seoClarity optimized for Google | Mark Traphagen posted on the topic | LinkedIn
AI Overview optimization is now just....Google optimization!
At seoClarity we analyzed 36,000 keywords and compared the URLs showing up in AIOs to those… | 39 comments on LinkedIn
At seoClarity we analyzed 36,000 keywords and compared the URLs showing up in AIOs to those… | 39 comments on LinkedIn
У гуглоидов просто какой-то ударный месячник по выпуску подкастов.
Сразу же вслед за очередным выпуском цикла SEO Office Hours вышел 80-й выпуск цикла Search Off the Record.
На этот раз гуглоиды Джон Мюллер и Мартин Шплитт пригласили румынского сеошника Михая Апергиса, ставшего экспертом по продуктам Google в Поиске.
Михай немного рассказал о деятельности экспертов по продуктам, помогающим пользователям форума поддержки Google Поиска, отвечая, в основном, на нубские вопросы. Михай признал, что эксперты не могут помочь с вопросами ранжирования.
Далее речь пошла о приложении по выгрузке данных из Google Search Console, разработанным Михаем.
Сразу же вслед за очередным выпуском цикла SEO Office Hours вышел 80-й выпуск цикла Search Off the Record.
На этот раз гуглоиды Джон Мюллер и Мартин Шплитт пригласили румынского сеошника Михая Апергиса, ставшего экспертом по продуктам Google в Поиске.
Михай немного рассказал о деятельности экспертов по продуктам, помогающим пользователям форума поддержки Google Поиска, отвечая, в основном, на нубские вопросы. Михай признал, что эксперты не могут помочь с вопросами ранжирования.
Далее речь пошла о приложении по выгрузке данных из Google Search Console, разработанным Михаем.
YouTube
Working with the Search Console API | Search Off the Record
We sat down with Mihai Aperghis, a Google Product Expert (PE) for Search, when he visited the Zurich office for the PE Summit this year. In this episode we talk about how he started his SEO agency, the tools he built, and his role as a Product Expert in the…
Гуглоиды улучшили англоязычную документацию по Видам в поиске, поддерживаемым в Search Console.
Теперь там есть таблица, показывающая все поддерживаемые виды с кратким описанием, значением API и полем для массового экспорта.
Теперь там есть таблица, показывающая все поддерживаемые виды с кратким описанием, значением API и полем для массового экспорта.
👍2
SЕalytics (SEO-аналитика от Сергея Людкевича)
Гуглоид Джон Мюллер посоветовал не спешить с анализами и выводами, пока официально не завершится апдейт. Его попытались расколоть на причины проблемы, возникшей во время запуска апдейта, и на что она влияет, но старина Джон – крепкий орешек.
А ведь не зря гуглоид Джон Мюллер советовал дождаться конца апдейта, чтоб делать какие-то выводы. Начинают поступать сообщения от от некоторых владельцев сайтов и сеошников, что положительная динамика, появившаяся с началом August 2024 Google Core Update, исчезла за последние 24 часа.
Это Google Dance! 😊
Это Google Dance! 😊
Search Engine Roundtable
Some Reports Of Google August Core Update Gains Vanishing In Past 24 Hours
I am starting to see some early reports from some site owners and SEOs that the gains they may have seen early on with the Google August 2024 core update, is slowly starting to slip away or vanish as you would... Meaning, some are noticing a surge (small…
😁7
Душераздирающая история произошла в Буржунете. Французский проект Hardbacon, сильно пострадавший от сентябрьского апдейта системы полезного контента Google принял решение о банкротстве за день до запуска августовского апдейта. И надо же такому случиться, что после запуска апдейта, трафик начал восстанавливаться и вырос в четыре раза за четыре дня. Теперь владелец проекта Жюльен Бро чешет репу:
"После 11 месяцев постепенного развала моего бизнеса и ежедневного накопления плохих новостей я не знаю, хватит ли у меня сил, чтобы его восстановить, даже если наш трафик вернется на уровень, при котором Hardbacon будет жизнеспособен...»"
Search Engine Roundtable
Hardbacon Announces Closure The Day Before The August Core Update, Then Sees Traffic Surge
There are many sad stories around sites getting hit by Google algorithm updates, such as core updates and of course the September 2023 helpful content update. But Hardbacon, a financial and budgeting company, was hit hard by those Google updates, then announced…
😁5😢5😱1