SЕalytics (SEO-аналитика от Сергея Людкевича)
Буржуйская сеошница Лили Рэй тоже видит вспышки на экране реанимационного монитора: "Я долго задавалась вопросом, когда же мы наконец увидим такую диаграмму. Если эта тенденция роста сохранится в ближайшие дни/недели, это будет означать, что мы наконец-то…
Сосбственно Лили Рэй делится графиками пациентов, выходящих из комы.
Буржуйская сеощница Лили Рэй заметила еще одну тенденцию текущего апдейта Google:
О, нет, только не еще один Medic update! 😀
"несколько сайтов-издателей о здоровье быстро падают... несколько крупных «авторитетных» сайтов о здоровье упали на 10–20%, а также несколько сайтов о натуральном оздоровлении."
О, нет, только не еще один Medic update! 😀
🤔2
В рекомендациях Google по работе с обзорами от ИИ появился пункт
"Ведение журналов в Search Console
При ведении журналов в Search Console ссылки, которые появляются в кратких пересказах от ИИ, учитываются в общей статистике отчета об эффективности результатов поиска. Подробнее о том, как регистрируются клики, показы и позиции…"
Google for Developers
Обзор от ИИ и ваш сайт | Центр Google Поиска | Documentation | Google for Developers
Обзоры от ИИ призваны помогать пользователям находить ваш сайт в результатах поиска Google. Ознакомьтесь с информацией о том, что такое обзоры от ИИ, как ими управлять и какую пользу они могут приносить для вашего сайта.
👍5
Google тестирует изменение цвета фона на синий при наведении курсора мыши на сниппет.
А что не на жёлтый? Тогда был бы полный эффект присутствия на "жёлтых страницах". 😁
А что не на жёлтый? Тогда был бы полный эффект присутствия на "жёлтых страницах". 😁
Search Engine Roundtable
Google Search Testing Snippet Hover Background Colors
Google is testing adding a dynamic blue colored background highlight color when you hover your mouse cursor over a search result snippet. The whole background just behind that specific search result snippet will change from white, to a highlight blue color.
Пропавшие миниатюры в сниппетах Google возвращаются. Уж не тот ли это баг, не имеющий отношения к апдейту, который все еще фиксят гуглоиды?
Search Engine Roundtable
Thumbnails Returning To Google Search Result Snippets For Many
For the past several months, many sites have been complaining over and over again that their image thumbnails for their websites were not showing up in the Google Search result snippets. Well, with the release of the August 2024 core update, many small publishers…
Оказывается,
Похоже, управляльщики репутацией открыли шампанское, когда Google отменил бесконечную прокрутку страницы выдачи. 😊
"непрерывная прокрутка Google создала новые проблемы для компаний, занимающихся управлением репутацией в Интернете (ORM).
Вместо того чтобы сосредоточиться на оказании положительного влияния на 10 ссылок на первой странице результатов поиска Google для частных лиц и компаний, теперь им приходилось постоянно управлять негативным контентом в расширенном массиве результатов."
Похоже, управляльщики репутацией открыли шампанское, когда Google отменил бесконечную прокрутку страницы выдачи. 😊
Search Engine Land
How Google ending continuous scroll could impact ORM
Here's how individuals and brands can adjust online reputation management (ORM) strategies to adapt to a post-continuous scroll world.
👍2😁1
Весьма подробный мануал по экспорту данных из Google Search Console с использованием Google BigQuery от буржуйского сеошника Майка Джинли.
🔥2
Буржуйский сеошник Гаган Готра рассуждает о реалиях современного SEO в Буржуинии:
К сожалению, отечественная сфера SEO не сможет повзрослеть, пока в Яндексе пусть с переменным, но все-таки успехом работает накрутка ПФ.
"И даже сфера SEO также значительно повзрослела по сравнению с 5 годами ранее – сейчас почти все представители малого и среднего бизнеса понимают, что это такое, это требует времени, нет быстрых хаков. И они готовы платить правильному поставщику, чтобы получить результаты со временем, а не идти к кому-то, кто скажет: заплатите за несколько месяцев, и мы сделаем вам это."
К сожалению, отечественная сфера SEO не сможет повзрослеть, пока в Яндексе пусть с переменным, но все-таки успехом работает накрутка ПФ.
👍8
Google сообщил о завершении исправления проблемы с ранжированием, обнаруженной 15 августа.
22 минуты на то, чтоб сменить телефонный номер в чужом профиле в Google MyBusiness. Всего-то понадобилось три запроса с разных аккаунтов со статусом местного гида с уровнем от 2 до 10. Безопасность по-гуловски.
Near Media
Hacking a Business Phone Number on a Google Listing Is (Still) Easy
When confronted by the media about fraud and local listings scams, Google's PR machine trots out a familiar playbook and canned messaging.
😁5👍2🤔2
Полезные советы от амбассадора Яндекса Михаила Сливинского. Двумя руками за.
👍2
Forwarded from Сливинский в поиске
Склеивать или запрещать к индексации? Логика решения и особенности методов для работы с ненужными в поиске страницами.
Есть много способов повлиять на поведение поискового робота - noindex, запрет в robots, clean-param и т.д. Часто вижу, что нет уверенного понимания, что и почему лучше использовать в конкретных случаях. Разберёмся вместе)
Во-первых, сразу определимся, что тут речь о каких-то ненужных в поиске страницах: технических дублях, пустых страницах без контента, etc. Если не ограничить индексирование таких страниц, они могут попадать в поиск, что может замедлять индексирование целевых, полезных страниц. Также обход дублей/мусора создаёт нагрузку на сайт, она может быть значительной. Кроме того, дубли могут показываться в поиске, что приведёт к размытию поисковых сигналов между несколькими страницами, что невыгодно ни сайту, ни поиску.
Разделим эти страницы на несколько когорт:
— нежелательные в поиске страницы с чувствительными данными (заказы пользователей, etc): к таким страницам стоит закрыть доступ авторизацией, чтобы ни поисковые роботы, ни случайные пользователи не смогли в принципе получить этот контент
— страницы без контента, какой-то технический мусор и пр. страницы без шансов показаться в поиске: такие лучше просто запретить к индексации
— страницы, являющиеся дублями (например, из-за добавления cgi-меток к урлу в рекламных системах): стоит подклеить их сигналы к основному (каноническому) урлу
Теперь разберёмся с инструментами, запрещающими индексацию.
Запрет через disallow в robots.txt полезен, если закрываемые страницы хорошо группируются какой-то маской на url. Ценная особенность метода в том, что не требуется обход роботом, и директива применится сразу ко всем урлам в поисковой базе.
Метатег или http-заголовок noindex даёт большую гибкость (страницы могут не иметь общего паттерна в url, и нет ограничения на число страниц), но при этом требуется обход роботом, поэтому потребуется больше времени.
Чтобы подклеить сигналы с дублирующих страниц к основным, используйте элемент rel=canonical, директиву clean-param в robots.txt или 301 редирект.
Атрибут rel=canonical или редирект позволяют реализовать гибкую логику, если нужно, но потребует обход страниц роботом. Если дубли порождаются незначащими cgi-параметрами, выгодно использовать clean-param - это подклеит сигналы к каноническому урлу, при этом роботу даже не потребуется обходить страницы заново. Замечу, что и атрибут canonical, и директива clean-param являются рекомендацией для робота и могут не сработать при существенных отличиях страниц.
Резюмируем: непубличные страницы лучше закрыть авторизацией, мусорные страницы и пустышки - запретить к индексации, содержательные дубли - подклеить к каноническим.
Выбирайте оптимальное решение в каждом конкретном случае.
Есть много способов повлиять на поведение поискового робота - noindex, запрет в robots, clean-param и т.д. Часто вижу, что нет уверенного понимания, что и почему лучше использовать в конкретных случаях. Разберёмся вместе)
Во-первых, сразу определимся, что тут речь о каких-то ненужных в поиске страницах: технических дублях, пустых страницах без контента, etc. Если не ограничить индексирование таких страниц, они могут попадать в поиск, что может замедлять индексирование целевых, полезных страниц. Также обход дублей/мусора создаёт нагрузку на сайт, она может быть значительной. Кроме того, дубли могут показываться в поиске, что приведёт к размытию поисковых сигналов между несколькими страницами, что невыгодно ни сайту, ни поиску.
Разделим эти страницы на несколько когорт:
— нежелательные в поиске страницы с чувствительными данными (заказы пользователей, etc): к таким страницам стоит закрыть доступ авторизацией, чтобы ни поисковые роботы, ни случайные пользователи не смогли в принципе получить этот контент
— страницы без контента, какой-то технический мусор и пр. страницы без шансов показаться в поиске: такие лучше просто запретить к индексации
— страницы, являющиеся дублями (например, из-за добавления cgi-меток к урлу в рекламных системах): стоит подклеить их сигналы к основному (каноническому) урлу
Теперь разберёмся с инструментами, запрещающими индексацию.
Запрет через disallow в robots.txt полезен, если закрываемые страницы хорошо группируются какой-то маской на url. Ценная особенность метода в том, что не требуется обход роботом, и директива применится сразу ко всем урлам в поисковой базе.
Метатег или http-заголовок noindex даёт большую гибкость (страницы могут не иметь общего паттерна в url, и нет ограничения на число страниц), но при этом требуется обход роботом, поэтому потребуется больше времени.
Чтобы подклеить сигналы с дублирующих страниц к основным, используйте элемент rel=canonical, директиву clean-param в robots.txt или 301 редирект.
Атрибут rel=canonical или редирект позволяют реализовать гибкую логику, если нужно, но потребует обход страниц роботом. Если дубли порождаются незначащими cgi-параметрами, выгодно использовать clean-param - это подклеит сигналы к каноническому урлу, при этом роботу даже не потребуется обходить страницы заново. Замечу, что и атрибут canonical, и директива clean-param являются рекомендацией для робота и могут не сработать при существенных отличиях страниц.
Резюмируем: непубличные страницы лучше закрыть авторизацией, мусорные страницы и пустышки - запретить к индексации, содержательные дубли - подклеить к каноническим.
Выбирайте оптимальное решение в каждом конкретном случае.
👍6
Вышел очередной выпуск гугловского цикла SEO Made Easy с Мартином Шплиттом. На этот раз речь идет о страницах со статусом "Обнаружена, не проиндексирована" ("Discovered - currently not indexed") в отчете о страницах в Google Search Console.
Получить это статус страница может по следующим причинам:
1) Googlebot просто еще не успел просканировать URL-адрес, поскольку был занят другими URL-адресами.
2) Низкое качество веб-сайта, обусловленное как техническими причинами (медленная работа сервера или возвращение на запрос краулера кода состояния HTTP 500), так и низким качеством контента (thin content).
Так что если у вас в отчете Google Search Console достаточно страниц со статусом "Обнаружена, не проиндексирована", и это количество не уменьшается со временем, есть повод задуматься о качестве сайта.
Получить это статус страница может по следующим причинам:
1) Googlebot просто еще не успел просканировать URL-адрес, поскольку был занят другими URL-адресами.
2) Низкое качество веб-сайта, обусловленное как техническими причинами (медленная работа сервера или возвращение на запрос краулера кода состояния HTTP 500), так и низким качеством контента (thin content).
Так что если у вас в отчете Google Search Console достаточно страниц со статусом "Обнаружена, не проиндексирована", и это количество не уменьшается со временем, есть повод задуматься о качестве сайта.
YouTube
Help! Google Search isn't indexing my pages
Welcome back to SEO Made Easy! In this episode, Search Relations Advocate, Martin Splitt, discusses why Search Console may display some of your website pages as ‘Discovered - currently not indexed’ and what you can do to remedy the issue. Watch along and…
👍2
SЕalytics (SEO-аналитика от Сергея Людкевича)
Вышел очередной выпуск гугловского цикла SEO Made Easy с Мартином Шплиттом. На этот раз речь идет о страницах со статусом "Обнаружена, не проиндексирована" ("Discovered - currently not indexed") в отчете о страницах в Google Search Console. Получить это статус…
P.S. Любопытно, что на 9-й секунде у Мартина есть оговорочка.
Он говорит:
Строго говоря, она будет не проиндексирована, а просканирована и получит один из статусов "Страница просканирована, но пока не проиндексирована" или "Проиндексировано". О чем, собственно, и говорит Мартин в начале третьей минуты, исправляясь:
Он говорит:
"Как только начнется обход, URL-адрес переместится
в группу "Обнаружена, не проиндексирована" или страница будет проиндексирована."
Строго говоря, она будет не проиндексирована, а просканирована и получит один из статусов "Страница просканирована, но пока не проиндексирована" или "Проиндексировано". О чем, собственно, и говорит Мартин в начале третьей минуты, исправляясь:
"Как только начнется сканирование, URL-адрес переместится в группу "Страница просканирована, но пока не проиндексирована" или страница будет проиндексирована."
👍2
Бывший руководитель Яндекс Поиска и Bing Михаил Парахин займет пост в консультативном совете компании Liquid AI. Михаил также с мая является членом консультативного совета Perplexity.
Масштаб, конечно, уже не тот...
Масштаб, конечно, уже не тот...
Swipe Insight
Ex-Bing AI Chief, Mikhail Parakhin, Now Perplexity Advisory Board Member | Swipe Insight
Ex-Bing Search head, Mikhail Parakhin, has joined Perplexity's advisory board. His expertise in search infrastructure and AI will aid Perplexity's core engine development. The AI startup also welcomed Emil Michael, ex-CBO of Uber, and Rich Miner, Android…
👍3👎1
Гуглоид Джон Мюллер посоветовал не спешить с анализами и выводами, пока официально не завершится апдейт. Его попытались расколоть на причины проблемы, возникшей во время запуска апдейта, и на что она влияет, но старина Джон – крепкий орешек.
Linkedin
Rüdiger Dalchow on LinkedIn: Maybe a stupid question Google Search Central , John Mueller with the… | 21 comments
Maybe a stupid question Google Search Central , John Mueller with the Google Ranking issue now resolved (which is really nice that it is resolved) but the… | 21 comments on LinkedIn
В список поисковых роботов Google добавлен Google-CloudVertexBot — новый поисковый робот, который сканирует сайты по запросу их владельцев при создании агентов Vertex AI .
Google Cloud
Prepare data for ingesting | AI Applications | Google Cloud
Вышел выпуск цикла Google SEO Office Hours за август 2024 года.
В очередной раз гуглоиды подтвердили, что ни большое количество директив nofollow или noindex, ни большое количество известных Googlebot'у страниц с кодом состояния 404 не влияют на оценку качества сайта и его ранжирование.
Хотя некоторые сеошники упорно отказываются верить в это.
В очередной раз гуглоиды подтвердили, что ни большое количество директив nofollow или noindex, ни большое количество известных Googlebot'у страниц с кодом состояния 404 не влияют на оценку качества сайта и его ранжирование.
Хотя некоторые сеошники упорно отказываются верить в это.
YouTube
English Google SEO office-hours from August 2024
This is an audio-only recording of the Google SEO office-hours from August 2024 - a transcript is available at https://goo.gle/SEO-august24.
These sessions cover topics submitted around anything search and website-owner related like crawling, indexing,…
These sessions cover topics submitted around anything search and website-owner related like crawling, indexing,…
👍3
Во время августовских SEO Office Hours гуглоидам был задан весьма оригинальный вопрос:
Ответ, конечно же был
И какие только идеи не приходят в голову сеошникам в надежде найти простое решение проблем с ранжированием. 😊
"Каково влияние SEO на то, что комментарии пользователей остаются без ответа в сообщениях блога?"
Ответ, конечно же был
"Влияние на SEO отсутствует"
И какие только идеи не приходят в голову сеошникам в надежде найти простое решение проблем с ранжированием. 😊
YouTube
English Google SEO office-hours from August 2024
This is an audio-only recording of the Google SEO office-hours from August 2024 - a transcript is available at https://goo.gle/SEO-august24.
These sessions cover topics submitted around anything search and website-owner related like crawling, indexing,…
These sessions cover topics submitted around anything search and website-owner related like crawling, indexing,…
И еще один интересный вопрос из августовских SEO Office Hours – у гуглоидов спрашивают, может ли фейковый трафик, посылаемый на сайт злоумышленниками, понизить его надежность в глазах Google. Ответ таков:
Вот только есть один нюанс. Если фейковый трафик, посылаемый недоброжелателями, будет себя вести на сайте не так, как удовлетворенный пользователь, то я не уверен, что это не будет расценено алгоритмом, как то, что сайт не содержит полезный контент.
"Никто не может выбирать или контролировать откуда поступает трафик или ссылки.
Так что это не то, что Google Search будет рассматривать, чтобы оценить надежность веб-сайта."
Вот только есть один нюанс. Если фейковый трафик, посылаемый недоброжелателями, будет себя вести на сайте не так, как удовлетворенный пользователь, то я не уверен, что это не будет расценено алгоритмом, как то, что сайт не содержит полезный контент.
YouTube
English Google SEO office-hours from August 2024
This is an audio-only recording of the Google SEO office-hours from August 2024 - a transcript is available at https://goo.gle/SEO-august24.
These sessions cover topics submitted around anything search and website-owner related like crawling, indexing,…
These sessions cover topics submitted around anything search and website-owner related like crawling, indexing,…
Весьма неожиданный результат исследования компании seoClarity, в котором проанализирована поисковая выдача Google по 36 тысячам запросов на предмет совпадения URL-адресов, появляющихся в AI Overview, с теми, которые появляются в топ-10 органических результатов.
Совпадение составило 99,5%, когда один или несколько из 10 лучших результатов органики были включены в источники AI Overview.
Наконец-то подключили к AI Overview поисковый антиспам и систему полезного контента?
Совпадение составило 99,5%, когда один или несколько из 10 лучших результатов органики были включены в источники AI Overview.
Наконец-то подключили к AI Overview поисковый антиспам и систему полезного контента?
Linkedin
How seoClarity optimized for Google | Mark Traphagen posted on the topic | LinkedIn
AI Overview optimization is now just....Google optimization!
At seoClarity we analyzed 36,000 keywords and compared the URLs showing up in AIOs to those… | 39 comments on LinkedIn
At seoClarity we analyzed 36,000 keywords and compared the URLs showing up in AIOs to those… | 39 comments on LinkedIn