Google поставил издателей информационного контента в весьма неудобное положение, утверждает Bloomberg. Если на основе контента с сайта будет сформирован ответ AI Overviews, то издатели считают, что пользователь уже не пойдет собственно на сам сайт, т.к. он уже получил информацию в обзоре. А запретить использовать контент сайта в AI Overviews издатели не могут, т.к. этот блок обслуживается тем же основным краулером, что и органика.
Bloomberg.com
Google’s AI Search Gives Sites Dire Choice: Share Data or Die
Publishers say blocking the company’s AI bot could also prevent their sites from showing up in search
😢5❤1
В сухом остатке от последних новостей по поводу AI Overviews складывается устойчивое впечатление, что оно – это совсем не про трафик на сайты, контент из которых туда попал. Это то, на что хотят заменить органику, зациклив пользователя внутри экосистемы Google.
👍5👏1
В англоязычную версию документации Google по ключевым обновлениям (Core Update) внесены изменения. Информация серьезно реструктурирована, можно сравнить с русскоязычной версией, которая еще не изменена.
Google for Developers
Google Search's Core Updates | Google Search Central | What's new | Google for Developers
Learn about how core updates work, and what you can do to assess and perhaps improve your content.
🤔1
Буржуйский сеошник Гленн Гейб, мониторящий поисковый трафик у 300+ сайтов, пострадавших от сентябрьского апдейта системы полезного контента в Google, с началом текущего апдейта начинает наблюдать первые признаки восстановления у некоторых пациентов.
Прямо как в голливудском блокбастере, когда у героя, лежащего в коме, вдруг дергается палец, и появляется слабая вспышка на экране реанимационного монитора.
Прямо как в голливудском блокбастере, когда у героя, лежащего в коме, вдруг дергается палец, и появляется слабая вспышка на экране реанимационного монитора.
😁5🤔1
SЕalytics (SEO-аналитика от Сергея Людкевича)
Буржуйский сеошник Гленн Гейб, мониторящий поисковый трафик у 300+ сайтов, пострадавших от сентябрьского апдейта системы полезного контента в Google, с началом текущего апдейта начинает наблюдать первые признаки восстановления у некоторых пациентов. Прямо…
Буржуйская сеошница Лили Рэй тоже видит вспышки на экране реанимационного монитора:
"Я долго задавалась вопросом, когда же мы наконец увидим такую диаграмму. Если эта тенденция роста сохранится в ближайшие дни/недели, это будет означать, что мы наконец-то официально имеем восстановление после апдейта полезного контента за сентябрь 2023 года. Как на картинке ниже. Для справки, этот сайт вырос на 2800% за последние 2 дня."
X (formerly Twitter)
Lily Ray 😏 (@lilyraynyc) on X
I've been wondering for a long time when we would finally see a chart like this.
If this growth trend continues in the days/weeks to come, it means we finally, officially have September 2023 Helpful Content Update recoveries happening. Like the one below.…
If this growth trend continues in the days/weeks to come, it means we finally, officially have September 2023 Helpful Content Update recoveries happening. Like the one below.…
👍3
Буржуи жалуются на портянку из ссылок, следующих после AI Overviews в Google, ухудшающую по их мнению, читабельность обзора.
Действительно, выглядит, как блок сапо-ссылок на заре ссылкоторговли. 😊
Действительно, выглядит, как блок сапо-ссылок на заре ссылкоторговли. 😊
SЕalytics (SEO-аналитика от Сергея Людкевича)
Буржуйская сеошница Лили Рэй тоже видит вспышки на экране реанимационного монитора: "Я долго задавалась вопросом, когда же мы наконец увидим такую диаграмму. Если эта тенденция роста сохранится в ближайшие дни/недели, это будет означать, что мы наконец-то…
Сосбственно Лили Рэй делится графиками пациентов, выходящих из комы.
Буржуйская сеощница Лили Рэй заметила еще одну тенденцию текущего апдейта Google:
О, нет, только не еще один Medic update! 😀
"несколько сайтов-издателей о здоровье быстро падают... несколько крупных «авторитетных» сайтов о здоровье упали на 10–20%, а также несколько сайтов о натуральном оздоровлении."
О, нет, только не еще один Medic update! 😀
🤔2
В рекомендациях Google по работе с обзорами от ИИ появился пункт
"Ведение журналов в Search Console
При ведении журналов в Search Console ссылки, которые появляются в кратких пересказах от ИИ, учитываются в общей статистике отчета об эффективности результатов поиска. Подробнее о том, как регистрируются клики, показы и позиции…"
Google for Developers
Обзор от ИИ и ваш сайт | Центр Google Поиска | Documentation | Google for Developers
Обзоры от ИИ призваны помогать пользователям находить ваш сайт в результатах поиска Google. Ознакомьтесь с информацией о том, что такое обзоры от ИИ, как ими управлять и какую пользу они могут приносить для вашего сайта.
👍5
Google тестирует изменение цвета фона на синий при наведении курсора мыши на сниппет.
А что не на жёлтый? Тогда был бы полный эффект присутствия на "жёлтых страницах". 😁
А что не на жёлтый? Тогда был бы полный эффект присутствия на "жёлтых страницах". 😁
Search Engine Roundtable
Google Search Testing Snippet Hover Background Colors
Google is testing adding a dynamic blue colored background highlight color when you hover your mouse cursor over a search result snippet. The whole background just behind that specific search result snippet will change from white, to a highlight blue color.
Пропавшие миниатюры в сниппетах Google возвращаются. Уж не тот ли это баг, не имеющий отношения к апдейту, который все еще фиксят гуглоиды?
Search Engine Roundtable
Thumbnails Returning To Google Search Result Snippets For Many
For the past several months, many sites have been complaining over and over again that their image thumbnails for their websites were not showing up in the Google Search result snippets. Well, with the release of the August 2024 core update, many small publishers…
Оказывается,
Похоже, управляльщики репутацией открыли шампанское, когда Google отменил бесконечную прокрутку страницы выдачи. 😊
"непрерывная прокрутка Google создала новые проблемы для компаний, занимающихся управлением репутацией в Интернете (ORM).
Вместо того чтобы сосредоточиться на оказании положительного влияния на 10 ссылок на первой странице результатов поиска Google для частных лиц и компаний, теперь им приходилось постоянно управлять негативным контентом в расширенном массиве результатов."
Похоже, управляльщики репутацией открыли шампанское, когда Google отменил бесконечную прокрутку страницы выдачи. 😊
Search Engine Land
How Google ending continuous scroll could impact ORM
Here's how individuals and brands can adjust online reputation management (ORM) strategies to adapt to a post-continuous scroll world.
👍2😁1
Весьма подробный мануал по экспорту данных из Google Search Console с использованием Google BigQuery от буржуйского сеошника Майка Джинли.
🔥2
Буржуйский сеошник Гаган Готра рассуждает о реалиях современного SEO в Буржуинии:
К сожалению, отечественная сфера SEO не сможет повзрослеть, пока в Яндексе пусть с переменным, но все-таки успехом работает накрутка ПФ.
"И даже сфера SEO также значительно повзрослела по сравнению с 5 годами ранее – сейчас почти все представители малого и среднего бизнеса понимают, что это такое, это требует времени, нет быстрых хаков. И они готовы платить правильному поставщику, чтобы получить результаты со временем, а не идти к кому-то, кто скажет: заплатите за несколько месяцев, и мы сделаем вам это."
К сожалению, отечественная сфера SEO не сможет повзрослеть, пока в Яндексе пусть с переменным, но все-таки успехом работает накрутка ПФ.
👍8
Google сообщил о завершении исправления проблемы с ранжированием, обнаруженной 15 августа.
22 минуты на то, чтоб сменить телефонный номер в чужом профиле в Google MyBusiness. Всего-то понадобилось три запроса с разных аккаунтов со статусом местного гида с уровнем от 2 до 10. Безопасность по-гуловски.
Near Media
Hacking a Business Phone Number on a Google Listing Is (Still) Easy
When confronted by the media about fraud and local listings scams, Google's PR machine trots out a familiar playbook and canned messaging.
😁5👍2🤔2
Полезные советы от амбассадора Яндекса Михаила Сливинского. Двумя руками за.
👍2
Forwarded from Сливинский в поиске
Склеивать или запрещать к индексации? Логика решения и особенности методов для работы с ненужными в поиске страницами.
Есть много способов повлиять на поведение поискового робота - noindex, запрет в robots, clean-param и т.д. Часто вижу, что нет уверенного понимания, что и почему лучше использовать в конкретных случаях. Разберёмся вместе)
Во-первых, сразу определимся, что тут речь о каких-то ненужных в поиске страницах: технических дублях, пустых страницах без контента, etc. Если не ограничить индексирование таких страниц, они могут попадать в поиск, что может замедлять индексирование целевых, полезных страниц. Также обход дублей/мусора создаёт нагрузку на сайт, она может быть значительной. Кроме того, дубли могут показываться в поиске, что приведёт к размытию поисковых сигналов между несколькими страницами, что невыгодно ни сайту, ни поиску.
Разделим эти страницы на несколько когорт:
— нежелательные в поиске страницы с чувствительными данными (заказы пользователей, etc): к таким страницам стоит закрыть доступ авторизацией, чтобы ни поисковые роботы, ни случайные пользователи не смогли в принципе получить этот контент
— страницы без контента, какой-то технический мусор и пр. страницы без шансов показаться в поиске: такие лучше просто запретить к индексации
— страницы, являющиеся дублями (например, из-за добавления cgi-меток к урлу в рекламных системах): стоит подклеить их сигналы к основному (каноническому) урлу
Теперь разберёмся с инструментами, запрещающими индексацию.
Запрет через disallow в robots.txt полезен, если закрываемые страницы хорошо группируются какой-то маской на url. Ценная особенность метода в том, что не требуется обход роботом, и директива применится сразу ко всем урлам в поисковой базе.
Метатег или http-заголовок noindex даёт большую гибкость (страницы могут не иметь общего паттерна в url, и нет ограничения на число страниц), но при этом требуется обход роботом, поэтому потребуется больше времени.
Чтобы подклеить сигналы с дублирующих страниц к основным, используйте элемент rel=canonical, директиву clean-param в robots.txt или 301 редирект.
Атрибут rel=canonical или редирект позволяют реализовать гибкую логику, если нужно, но потребует обход страниц роботом. Если дубли порождаются незначащими cgi-параметрами, выгодно использовать clean-param - это подклеит сигналы к каноническому урлу, при этом роботу даже не потребуется обходить страницы заново. Замечу, что и атрибут canonical, и директива clean-param являются рекомендацией для робота и могут не сработать при существенных отличиях страниц.
Резюмируем: непубличные страницы лучше закрыть авторизацией, мусорные страницы и пустышки - запретить к индексации, содержательные дубли - подклеить к каноническим.
Выбирайте оптимальное решение в каждом конкретном случае.
Есть много способов повлиять на поведение поискового робота - noindex, запрет в robots, clean-param и т.д. Часто вижу, что нет уверенного понимания, что и почему лучше использовать в конкретных случаях. Разберёмся вместе)
Во-первых, сразу определимся, что тут речь о каких-то ненужных в поиске страницах: технических дублях, пустых страницах без контента, etc. Если не ограничить индексирование таких страниц, они могут попадать в поиск, что может замедлять индексирование целевых, полезных страниц. Также обход дублей/мусора создаёт нагрузку на сайт, она может быть значительной. Кроме того, дубли могут показываться в поиске, что приведёт к размытию поисковых сигналов между несколькими страницами, что невыгодно ни сайту, ни поиску.
Разделим эти страницы на несколько когорт:
— нежелательные в поиске страницы с чувствительными данными (заказы пользователей, etc): к таким страницам стоит закрыть доступ авторизацией, чтобы ни поисковые роботы, ни случайные пользователи не смогли в принципе получить этот контент
— страницы без контента, какой-то технический мусор и пр. страницы без шансов показаться в поиске: такие лучше просто запретить к индексации
— страницы, являющиеся дублями (например, из-за добавления cgi-меток к урлу в рекламных системах): стоит подклеить их сигналы к основному (каноническому) урлу
Теперь разберёмся с инструментами, запрещающими индексацию.
Запрет через disallow в robots.txt полезен, если закрываемые страницы хорошо группируются какой-то маской на url. Ценная особенность метода в том, что не требуется обход роботом, и директива применится сразу ко всем урлам в поисковой базе.
Метатег или http-заголовок noindex даёт большую гибкость (страницы могут не иметь общего паттерна в url, и нет ограничения на число страниц), но при этом требуется обход роботом, поэтому потребуется больше времени.
Чтобы подклеить сигналы с дублирующих страниц к основным, используйте элемент rel=canonical, директиву clean-param в robots.txt или 301 редирект.
Атрибут rel=canonical или редирект позволяют реализовать гибкую логику, если нужно, но потребует обход страниц роботом. Если дубли порождаются незначащими cgi-параметрами, выгодно использовать clean-param - это подклеит сигналы к каноническому урлу, при этом роботу даже не потребуется обходить страницы заново. Замечу, что и атрибут canonical, и директива clean-param являются рекомендацией для робота и могут не сработать при существенных отличиях страниц.
Резюмируем: непубличные страницы лучше закрыть авторизацией, мусорные страницы и пустышки - запретить к индексации, содержательные дубли - подклеить к каноническим.
Выбирайте оптимальное решение в каждом конкретном случае.
👍6
Вышел очередной выпуск гугловского цикла SEO Made Easy с Мартином Шплиттом. На этот раз речь идет о страницах со статусом "Обнаружена, не проиндексирована" ("Discovered - currently not indexed") в отчете о страницах в Google Search Console.
Получить это статус страница может по следующим причинам:
1) Googlebot просто еще не успел просканировать URL-адрес, поскольку был занят другими URL-адресами.
2) Низкое качество веб-сайта, обусловленное как техническими причинами (медленная работа сервера или возвращение на запрос краулера кода состояния HTTP 500), так и низким качеством контента (thin content).
Так что если у вас в отчете Google Search Console достаточно страниц со статусом "Обнаружена, не проиндексирована", и это количество не уменьшается со временем, есть повод задуматься о качестве сайта.
Получить это статус страница может по следующим причинам:
1) Googlebot просто еще не успел просканировать URL-адрес, поскольку был занят другими URL-адресами.
2) Низкое качество веб-сайта, обусловленное как техническими причинами (медленная работа сервера или возвращение на запрос краулера кода состояния HTTP 500), так и низким качеством контента (thin content).
Так что если у вас в отчете Google Search Console достаточно страниц со статусом "Обнаружена, не проиндексирована", и это количество не уменьшается со временем, есть повод задуматься о качестве сайта.
YouTube
Help! Google Search isn't indexing my pages
Welcome back to SEO Made Easy! In this episode, Search Relations Advocate, Martin Splitt, discusses why Search Console may display some of your website pages as ‘Discovered - currently not indexed’ and what you can do to remedy the issue. Watch along and…
👍2
SЕalytics (SEO-аналитика от Сергея Людкевича)
Вышел очередной выпуск гугловского цикла SEO Made Easy с Мартином Шплиттом. На этот раз речь идет о страницах со статусом "Обнаружена, не проиндексирована" ("Discovered - currently not indexed") в отчете о страницах в Google Search Console. Получить это статус…
P.S. Любопытно, что на 9-й секунде у Мартина есть оговорочка.
Он говорит:
Строго говоря, она будет не проиндексирована, а просканирована и получит один из статусов "Страница просканирована, но пока не проиндексирована" или "Проиндексировано". О чем, собственно, и говорит Мартин в начале третьей минуты, исправляясь:
Он говорит:
"Как только начнется обход, URL-адрес переместится
в группу "Обнаружена, не проиндексирована" или страница будет проиндексирована."
Строго говоря, она будет не проиндексирована, а просканирована и получит один из статусов "Страница просканирована, но пока не проиндексирована" или "Проиндексировано". О чем, собственно, и говорит Мартин в начале третьей минуты, исправляясь:
"Как только начнется сканирование, URL-адрес переместится в группу "Страница просканирована, но пока не проиндексирована" или страница будет проиндексирована."
👍2
Бывший руководитель Яндекс Поиска и Bing Михаил Парахин займет пост в консультативном совете компании Liquid AI. Михаил также с мая является членом консультативного совета Perplexity.
Масштаб, конечно, уже не тот...
Масштаб, конечно, уже не тот...
Swipe Insight
Ex-Bing AI Chief, Mikhail Parakhin, Now Perplexity Advisory Board Member | Swipe Insight
Ex-Bing Search head, Mikhail Parakhin, has joined Perplexity's advisory board. His expertise in search infrastructure and AI will aid Perplexity's core engine development. The AI startup also welcomed Emil Michael, ex-CBO of Uber, and Rich Miner, Android…
👍3👎1