noindex, nofollow
3.81K subscribers
971 photos
8 videos
5 files
1.27K links
Поисковые системы, SEO и все, что вокруг — ИИ, веб-аналитика, маркетинг.
Владимир Харев находит все самое интересное у экспертов буржунета и рунета, иногда делится собственными наблюдениями.

Обратная связь: @NoindexNofollowBot
Download Telegram
Некоторые результаты сентябрьского Helpful content update: примеры просевших сайтов с переизбытком рекламы и низкокачественным контентом.
via Lily Ray @ X
Столкновение 2 систем машинного обучения: есть ситуации, когда видимость сайтов растет после August core update, но затем снижается вследствие September Helpful content update.
via Glenn Gabe & Vlad Rappoport @ X
Самый недооцененный фактор, влияющий на сканирование и индексацию Гуглом любой страницы -
историческое качество маски URL, например:
- /good-content/url - более высокий приоритет
- /spam/url - низкий приоритет

Гугл узнает, куда вы поместили качественный материал, и будет стремиться индексировать его с большей активностью.

via Cyrus Shepard @ X
(из подкаста Search off the record - The effect of quality on Search)
Продолжение антимонопольного дела против Гугла в США.
Министерство юстиции США вызвало бывшего инженера-программиста Гугла Эрика Лемана. Леман 17 лет работал в Google над качеством поиска и ранжированием, пока не ушел в 2022 году.
Министерство юстиции показало Леману ряд слайдов, которые он сделал во время работы в компании. Один назывался «Google — это волшебство», другой — «Жизнь одного клика». Общая тема допроса Министерства юстиции, похоже, заключалась в том, что данные о поведении пользователей являются важнейшим компонентом «магии» поисковика.
Министерство также спросило Лемана о слайде под названием «Деликатные темы», который предписывал сотрудникам «не обсуждать использование данных о кликах в поиске». Леман заявил, что все знают, что Google использует пользовательские данные в поиске, но при этом:
«мы стараемся избегать подтверждения того, что используем пользовательские данные при ранжировании результатов поиска». 🤡

via Big Tech on Trial @ X
Bing раскрыл данные о масштабах использования IndexNow
"Сегодня более 60 миллионов сайтов публикуют более 1,4 миллиарда URL'ов в день через API IndexNow. Сейчас 12% всех новых URL'ов, на которые кликают в результатах поиска, впервые обнаруживаются через IndexNow. Используя IndexNow, вы можете эффективно делиться обновлениями сайта с Bing, Yandex, Seznam.cz, а теперь и с Naver.com".
via Microsoft Bing Blogs
Google: "Ожидайте большего упрощения результатов поиска"
По словам Гэри Ийеша (Gary Illyes) из Гугла, удаление таких расширенных сниппетов, как HowTo и FAQPage, является тенденцией, за которой следует следить SEO-специалистам.
Оно не является преддверием полного запуска Search Generative Experience.

Некоторые SEO-специалисты высказывали предположение, что Google удаляет некоторые функции в связи с переходом на ответы, основанные на искусственном интеллекте (SGE). Ийеш заявил, что это не является целью, и добавил, что это освобождает результаты поиска для экспериментов с "другими вещами".

"Конечная цель заключается не в искусственном интеллекте. Она заключается в том, чтобы сделать результаты чистыми. Мы не освобождаем место для X или Y", - сказал он сегодня на выставке Pubcon Pro в Остине.

via Search Engine Land

Еще было бы хорошо, если бы ограничили показ эмоджи везде, включая навигационные цепочки (BreadcrumbList) и ограничили неинформативные рисованные звезды рейтинга (aggregateRating) вместе с бездумным использованием SaleEvent в придачу :)
Несколько высказываний Гэри Ийеша из Google на Pubcon Pro в Остине:

- Использует ли Google данные о кликах пользователей при ранжировании?
- «Технически да», — сказал Ийеш. Это связано с тем, что исторические данные поиска являются частью RankBrain.

- Анализируя выходные данные ChatGPT и инструментов генеративного ИИ, Ийеш заметил одну вещь: в них нет опечаток. «Компьютеры не совершают ошибок, если их не проинструктировать», — сказал он.

- Комментарии могут сигнализировать о том, что на сайте есть активное сообщество.
Хотя за последние 10 лет многие сайты удалили разделы комментариев и форумы, Ийеш считает, что комментарии могут быть полезными.
«Особенно, если я знаю, что на сайте действуют строгие правила относительно того, как пользователи могут вести себя, тогда я буду больше доверять информации от этих пользователей».

- «Если вам больше нечего делать на своем сайте, займитесь Core Web Vitals. Большинству сайтов не будет смысла играть с этим», — сказал Ийеш.

via Search Engine Land
Как выявить страницы низкого качества на сайте с помощью Bing и нового отчета о покрытии XML-сайтмапа
Бинг выкатил отчет со списком проиндексированных и исключенных из индекса страниц из числа добавленных в XML-сайтмап (похоже, эта опция появилась еще не у всех сайтов).
Интересным для вебмастера является статус "Качество контента" (Content quality).
Бинг - это, конечно, не Гугл, но альтернативный источник данных для анализа качества сайта может быть полезным.
via Glenn Gabe
В документации Google Search Central появились 2 новые страницы, ранее публиковавшиеся как посты в блоге: их обновили и добавили больше рекомендаций.
Обе про то, как анализировать данные о трафике из поиска (пока только на английском):
1) Debugging drops in Google Search traffic - про выявление причин падения поискового трафика
2) Improving SEO with a Search Console bubble chart - про то, как анализировать данные с помощью пузырьковой диаграммы в Looker Studio (ex-Data Studio)
Helpful content update, начавшийся 14 сентября, еще не завершен, судя по Google Search Status Dashboard.
Гленн Гейб поделился еще одним примером сайта, который вырос после августовского core апдейта, а после HCU - упал.
Про ПФ в Гугле
В свете новостей о фактическом признании Гугла в использовании данных о поведении пользователей на выдаче, Сайрус Шепард вспомнил обнаруженный и описанный в свое время Биллом Славски (1961-2022) патент на эту тему:
"Модификация ранжирования результатов поиска на основе неявной обратной связи от пользователей" (Google Patents).
Важно отметить, что это старый патент. Нет гарантии, что Гугл когда-либо использовал его, и скорее всего с тех пор, как он был подан, многое изменилось.

Поведенческие в Гугле - это не CTR или показатель отказов, они слишком зашумленные.
Скорее это:
- первые клики (урл, на который юзер кликнул в выдаче, был первым)
- длинные клики (доля длинных сессий после перехода из выдачи)
- последние клики (пользователь не вернулся в выдачу).
HCU (helpful content update) закончили выкатывать, можно на какое-то время облегченно вздохнуть (или нет) :)
https://status.search.google.com/summary
"Сегодня мы объявляем о выпуске Google-Extended - нового средства управления, с помощью которого веб-издатели могут управлять тем, способствуют ли их сайты улучшению генеративных API Bard и Vertex AI, включая будущие поколения моделей, на которых основаны эти продукты. Используя Google-Extended для контроля доступа к контенту на сайте, администратор сайта может выбирать, помогать ли этим моделям ИИ со временем становиться более точными и способными".
via Google The Keyword

В общем, если не хотите, чтобы контент вашего сайта помогал обучаться Bard'у, добавьте в robots.txt:
User-agent: Google-Extended
Disallow: /

Cканирование выполняется с использованием существующих строк пользовательского агента Google; токен пользовательского агента robots.txt (Google-Extended) используется только для управления.
Министерство юстиции США опубликовало некоторые материалы антимонопольного дела против Гугла.
В частности, есть интересная презентация "Стратегическая ценность домашней страницы по умолчанию для Google" про важность дистрибуции (она явно старая, судя по логотипу Гугла до редизайна).

Пользователи со страницей Гугла в качестве домашней имеют на 50% больше поисковых сессий, делают на 55% больше поисков в неделю и меньше посещают другие поисковые системы.

Список других материалов тут.