SЕalytics (SEO-аналитика от Сергея Людкевича)
2.53K subscribers
836 photos
9 videos
2 files
3.74K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Согласно отчету исследовательского центра Pew, пользователи Google, получившие поисковую выдачу с AI Overviews, реже переходят по ссылкам в выдаче на другие сайты, чем пользователи, которые AI Overviews не видят.
Ну да, а гуглоиды будут нам втирать, что зато перешедшие на сайты из выдачи с AI Overviews – ну, очень качественные. За одного битого двух небитых дают. 😀
Статистика блокировки новостными сайтами роботов LLM в файле robots.txt от Screaming Frog:
"Используя исходный список из 72 крупных национальных, региональных и потребительских новостных сайтов, мы записали, какие из 11 наиболее распространенных роботов-сканеров на основе ИИ разрешают или блокируют в robots.txt или метатегах страниц.
75% новостных сайтов блокируют как минимум один поисковый робот на базе ИИ (54 из 72).
GPTBot от OpenAI является самым блокируемым ботом — его блокируют 58% новостных сайтов.
MailOnline, iNews, Metro и BBC News блокируют 91% поисковых роботов.
Региональные новостные сайты чаще всего блокируют поисковых роботов на базе ИИ — в среднем 8."

Если б еще все боты LLM соблюдали директивы файл robots.txt... 😊
😁2
В очередном ролике серии Google SEO Office Hours Shorts гуглоид Джон Мюллер признал, что у них нет механизма обработки цен на товары, различающихся по штатам. Он предложил два альтернативных способа решения этой проблемы:
1) Используйте поле «Налог», чтобы скорректировать цену продукта до окончательной суммы для каждого штата.
2) Создайте отдельную страницу продукта для каждого штата, чтобы можно было сказать, что это продукт для Калифорнии, а затем новую страницу, чтобы сказать, что это цена в Нью-Йорке.
⭐️ Новая ролевая модель в Вебмастере

Раньше можно было только делегировать полный доступ с правом редактирования всего сайта. Теперь владелец сайта может назначать другим пользователям разные роли с четко определенными правами: для редактирования, просмотра или частичного доступа. Это позволяет гибко распределять задачи и повышает безопасность при работе с сайтом в Вебмастере.

💥Все подробности — в блоге
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41👎1
Бесплатный букмарклет для Google Chrome ChatGPT Search Query and Reasoning Extractor.
Этот инструмент извлекает:
• Все обоснованные поисковые запросы ChatGPT, используемые во время разговора (например, когда включен просмотр)
• Рассуждения или «мысли» ChatGPT о том, почему он искал то, что делал
• ОБНОВЛЕНИЕ: Теперь он также извлекает заголовки, URL-адреса и фрагменты всех веб-страниц, посещаемых в ходе поиска.
Буржуйская сеошница Алейда Солис поставила эксперимент, подтвердивший, что ChatGPT использует поисковую выдачу Google для своих ответов:
"Я провела простой, но понятный тест, который подтверждает зависимость ChatGPT от снипеттов выдачи Google для своих ответов, показав, что:
1. ChatGPT, по сути, смог дать ответ *только* после того, как Google начал показывать страницу в своей выдаче, когда страница ещё не была проиндексирована в Bing.
2. ChatGPT подтвердил, что он предоставил ответ (который был неполным), «извлекая фрагмент из публично проиндексированной версии страницы... через веб-поиск, который предварительно просматривает содержимое страницы — вероятно, из индекса поисковой системы».
3. Сравнив фрагмент ответа ChatGPT с о сниппетом выдачи Google, я подтвердила, что они были одинаковыми!

Получается, LLM тырят контент не только у издателей, но и у поисковиков. 😀
7😁1
Гуглоиды представили Google Trends API. Принимаются заявки на альфа-тестирование:
"Мы начнём тестирование продукта, чтобы понять особенности его использования и довести его до совершенства, поэтому нам нужна обратная связь от разработчиков, которые любят тестировать и дорабатывать инструменты, которые могут быть ещё не готовы к использованию в промышленной эксплуатации. Если вы соответствуете этому профилю, подайте заявку на ранний доступ к альфа-версии API Google Trends.
В ближайшие недели мы начнём постепенно открывать доступ ограниченному числу разработчиков. Если вы не в первой группе, не волнуйтесь: мы расширим доступ в ближайшие месяцы."
Японский сеошник Кеничи Сузуки цитирует высказывание гуглоида Гэри Ийеша на мероприятии Google Search Live Deep Dive:
"Чтобы ваш контент появился в AI Overview, просто используйте стандартные методы SEO. Вам не нужны GEO, LLMO или что-либо ещё. "

Ну вот, а то SEO уже некоторые успели похоронить 😀
👍3
Гуглоиды запустили Web Guide – экспериментальную страницу результатов поиска, организованную с помощью искусственного интеллекта.
"Web Guide группирует веб-ссылки удобным для пользователя образом — например, страницы, связанные с определёнными аспектами вашего запроса.
[...]
Подобно режиму искусственного интеллекта, Web Guide использует метод разветвления запросов, одновременно выдавая несколько связанных поисковых запросов для определения наиболее релевантных результатов."

Однако, весьма широкий шаг в сторону персонализации поисковой выдачи.
😁1
Обзор первого дня мероприятия Search Central Live Deep Dive Asia Pacific 2025 от буржуйского сеошника Дэна Тейлора.
"Некоторые практические советы, которые появились в первый день:
• Продолжайте создавать контент, ориентированный на человека. Модели Google отдают предпочтение естественному, профессиональному стилю написания.
• Оптимизируйте для различных модальностей. Убедитесь, что изображения имеют описательный альтернативный текст, видео — транскрипции, а голосовой поиск поддерживается разговорным языком.
• Контролируйте бюджет сканирования . Оперативно исправляйте ошибки 5XX и оптимизируйте структуру сайта для эффективного управления роботом Google.
• Воспользуйтесь рекомендациями Search Console. Владельцы сайтов, не являющиеся экспертами, могут воспользоваться функцией подсказок для повышения удобства использования и производительности.
• Будьте гибкими. Устоявшиеся тенденции в области трафика могут меняться по мере развития возможностей искусственного интеллекта. Прошлый успех не гарантирует успех в будущем."
SЕalytics (SEO-аналитика от Сергея Людкевича)
Обзор первого дня мероприятия Search Central Live Deep Dive Asia Pacific 2025 от буржуйского сеошника Дэна Тейлора. "Некоторые практические советы, которые появились в первый день: • Продолжайте создавать контент, ориентированный на человека. Модели Google…
Обзор второго дня мероприятия Search Central Live Deep Dive Asia Pacific 2025 от буржуйского сеошника Дэна Тейлора. Из интересного:
"«Ссылки по-прежнему играют важную роль в Интернете и используются для поиска новых страниц, а также для определения структуры сайта. Мы также используем их для ранжирования». – Черри Проммавин."

Кто бы мог подумать? 😀

"Гэри Ийеш пояснил, какое место в этом потоке занимают файл robots.txt и мета robots:
Файл robots.txt определяет, какие данные могут извлекать поисковые роботы.
Мета-теги робота управляют тем, как полученные данные используются далее.
Он выделил несколько менее известных директив:

none: эквивалентно noindex,nofollow, объединеным в одно правило. Есть ли в этом преимущество? Несмотря на идентичность функций, использование одной директивы вместо двух может упростить управление тегами.
notranslate: Если установлено, Chrome больше не будет предлагать перевод страницы.
noimageindex: Также применяется к видеоресурсам.
Unavailable after: Несмотря на то, что эта функция была внедрена инженерами, которые позже ушли на другую работу, она всё ещё работает. Это может быть полезно для отмены публикации в блоге, срочных публикаций, таких как предложения и акции с ограниченным сроком действия, чтобы они не сохранялись в функциях искусственного интеллекта Google и не вводили пользователей в заблуждение или не наносили ущерб восприятию бренда."

Вот про Unavailable after не знал.

"Гэри Ийеш подчеркнул, что основной контент, согласно определению Google Quality Rater Guidelines, является важнейшим элементом сканирования и индексации. Это может быть текст, изображения, видео или расширенные функции, например, калькуляторы.
[...]
«Если вы хотите попасть в топ по определённым вещам, разместите эти слова и темы в важных местах (на странице)». — Гэри Ийеш"
Большой привет подвальным портянкам. 😀

"Черри Проммавин объяснила суть дедупликации в трех основных областях:
[...]
если страницы отличаются только локалью (например, из-за геоперенаправлений), hreflang объединяет их без штрафных санкций."

Стало быть, без canonical и hrefrlang дубли вызывают штрафы. Что и требовалось доказать.

"Основные сигналы геотаргетинга, которые использует Google:
1. Национальный домен верхнего уровня (ccTLD): такие домены, как .sg или .au, указывают целевую страну.
2. Аннотации hreflang: используйте теги <link>, заголовки HTTP или записи карты сайта для объявления языковых и региональных альтернатив.
3. Местоположение сервера: IP-адрес или место хостинга вашего сервера могут служить географической подсказкой.
4. Дополнительные локальные сигналы , такие как язык и валюта на странице, ссылки с других региональных веб-сайтов и сигналы из профиля вашей местной компании, усиливают ваш целевой регион."

Ссылки с других региональных сайтов рулят, давно понятно.

"Микроразметка не используется в процессе ранжирования."

Очередной пруф.

"Ийеш подтвердил, что Google всё ещё использует PageRank внутри компании. Это не тот же алгоритм, что был в Белой книге 1996 года, но он носит то же название."
Ага, уже читали в материалах антимонопольного процесса.

"Ийеш подчеркнул, что EEAT не является показателем индексации или ранжирования. Это объяснительный принцип, а не вычисляемая метрика."

Объяснительная для асессоров, которые размечают выборки для обучения алгоритма? Ну да, совсем не показатель. 😊

"Если страница была просканирована, но не проиндексирована, решением проблемы является улучшение качества контента."

А то ж — верный знак, что что-то не так.

"Внутренние ссылки могут помочь, но лишь в той мере, в какой они действительно делают страницу более полезной. Цель Google — поощрять улучшения, ориентированные на пользователя, а не манипулировать им."
Типа, если по внутренним ссылкам не кликают, то и работают они хуже?
👍6
SЕalytics (SEO-аналитика от Сергея Людкевича)
Обзор второго дня мероприятия Search Central Live Deep Dive Asia Pacific 2025 от буржуйского сеошника Дэна Тейлора. Из интересного: "«Ссылки по-прежнему играют важную роль в Интернете и используются для поиска новых страниц, а также для определения структуры…
И, наконец, обзор третьего дня мероприятия Search Central Live Deep Dive Asia Pacific 2025 от буржуйского сеошника Дэна Тейлора. Из интересного:
"Хо отметил, что «Руководство по оценке качества» является полезным ресурсом. Эти рекомендации не влияют на рейтинг напрямую , но помогают понять, как Google оценивает эффективность своих систем."

Влияет не непосредственно на ранжирование, а на обучение алгоритма, которое, в свою, очередь, влияет на ранжирование. Просто двухходовка.

"Из EEAT (Опыт, Экспертиза, • Авторитетность и Доверие) ясно, что доверие имеет первостепенное значение.
• Даже если тема не касается здоровья, денег или безопасности (ваши деньги или ваша жизнь), Google все равно отдает приоритет достоверному контенту.
• Если страница резко расходится с общим мнением экспертов, она может быть сочтена в целом менее надежной.
• Большое количество страниц с кодом 404 или noindex на сайте не является проблемой качества. Ошибка 404 — это техническая проблема, как и тег «noindex»."

Получается, надо втереться в доверие асессорам.

"Восстановление после обновлений Google
Обновления ядра
Технически вы не наказаны, поэтому технически не предусмотрено восстановление, как в случае со спам-апдейтами.
Google рекомендует вам:
Продолжайте работать так же хорошо, смотрите на то, что ваши конкуренты делают лучше, и учитесь у сайтов, которые работают лучше вас.
Спам-апдейты
Удалите тип спама, упомянутый Google в сообщениях своего блога ."

В общем, радуйтесь, если вы упали в спам-апдейт. Тогда есть шанс восстановиться, если поймете, за что могли наказать. А вот если упали в апдейт ядра – пиши пропало, остается только твердить мантру "Развивайте ваш сайт, и со временем..." и бить в бубен.

"Добавление структурированных данных на ваш сайт не улучшит его ранжирование напрямую. Однако оно может сделать ваши сниппеты более привлекательными в результатах поиска, что может привести к увеличению числа кликов.
Со временем такая дополнительная активность может принести пользу вашему сайту.
[...]
Добавление структурированных данных не означает, что Google будет показывать расширенные результаты. Алгоритмы сами решают, когда и где целесообразно их показывать."

Собственно, пруфы и так уже известных фактов.
Гуглоид Джон Мюллер дает советы, что делать с "просроченными" страницами на сайте, например, анонсом шоу, которое уже прошло:
"Я считаю, что для некоторых «продуктов» (или «шоу») сайт может стать отличным долгосрочным источником информации, если продукт достаточно уникален и будет интересен пользователям ещё долгое время. Если вы последний/единственный, кто проводит шоу, это хорошая возможность сохранить ссылку надолго — люди будут её искать.
Для других «продуктов» интерес может быть ограничен по времени, например, на несколько месяцев. «В прошлом месяце я был на X-шоу, и мне понравилось. Кто там участвовал?» Для таких продуктов, возможно, стоит дать немного времени, чтобы интерес к ним ослаб, а затем выполнить 404-ю ошибку.
А для третьих, если сайт достаточно прост и на нём много всего появляется и исчезает, можно просто сразу выдать ошибку 404, чтобы всё очистить и продолжить. Сомневаюсь, что вам понадобится "unavailable_after", это кажется излишним, но тоже вариант."

Вопрос – как понять к какой именно из трех категорий относить конкретный "просроченный" продукт.
Гуглоид Ник Фокс поделился статистикой:
"AI Overviews теперь охватывают более 10% запросов *по всему миру* [новинка!] по тем типам запросов, по которым они показываются!"

Планомерный отжим топа поисковой выдачи у органики продолжается.
😢2
Довольно интересный мануал о том, как начать все сначала после постоянной блокировки бизнес-аккаунта Google Merchant Center
"«Это конец пути?»
Не обязательно. Хотя вы не можете повторно использовать тот же бизнес для открытия нового аккаунта, есть законный путь развития, если вы запускаете новый, юридически уникальный и соответствующий требованиям бизнес. Но вам нужно сделать это правильно — прозрачно, этично и с полной перезагрузкой."
👍3
Гуглоид Джон Мюллер, отвечает на вопрос, нужно ли обновлять параметр lastmod в индексном файле карты сайта в случае, если из нее был удален URL:
"Да. Если карта сайта изменится, измените lastmod в индексе карты сайта."
4
Google выпустил сервер Model Context Protocol (MCP) с открытым исходным кодом, который позволяет анализировать данные Google Analytics с использованием LLM, таких как Gemini.
Вы можете установить сервер с GitHub с помощью инструмента pipx, который позволяет запускать приложения на Python в изолированных средах. После установки вы подключите его к Gemini CLI, добавив сервер в файл настроек Gemini.
🔥2
Forwarded from AI Синопсис
Проблема с Google Gemini: ИИ-агент удалил файлы пользователя и признал «катастрофический провал».

Пользователь GitHub Анурааг Гупта сообщил о критическом сбое в работе CLI-интерфейса Google Gemini, когда ИИ-агент при попытке переместить файлы удалил их, а затем заявил: «Я полностью и катастрофически подвел вас». Инцидент демонстрирует потенциальные риски и недостатки в автономной работе больших языковых моделей, особенно при выполнении чувствительных операций с данными. Для профессионалов в области AI это подчеркивает необходимость усиления механизмов безопасности и отказоустойчивости в AI-системах.

Источник
Перевод статьи на русский
😱2