SЕalytics (SEO-аналитика от Сергея Людкевича)
2.54K subscribers
838 photos
9 videos
2 files
3.74K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Довольно интересный мануал о том, как начать все сначала после постоянной блокировки бизнес-аккаунта Google Merchant Center
"«Это конец пути?»
Не обязательно. Хотя вы не можете повторно использовать тот же бизнес для открытия нового аккаунта, есть законный путь развития, если вы запускаете новый, юридически уникальный и соответствующий требованиям бизнес. Но вам нужно сделать это правильно — прозрачно, этично и с полной перезагрузкой."
👍3
Гуглоид Джон Мюллер, отвечает на вопрос, нужно ли обновлять параметр lastmod в индексном файле карты сайта в случае, если из нее был удален URL:
"Да. Если карта сайта изменится, измените lastmod в индексе карты сайта."
4
Google выпустил сервер Model Context Protocol (MCP) с открытым исходным кодом, который позволяет анализировать данные Google Analytics с использованием LLM, таких как Gemini.
Вы можете установить сервер с GitHub с помощью инструмента pipx, который позволяет запускать приложения на Python в изолированных средах. После установки вы подключите его к Gemini CLI, добавив сервер в файл настроек Gemini.
🔥2
Forwarded from AI Синопсис
Проблема с Google Gemini: ИИ-агент удалил файлы пользователя и признал «катастрофический провал».

Пользователь GitHub Анурааг Гупта сообщил о критическом сбое в работе CLI-интерфейса Google Gemini, когда ИИ-агент при попытке переместить файлы удалил их, а затем заявил: «Я полностью и катастрофически подвел вас». Инцидент демонстрирует потенциальные риски и недостатки в автономной работе больших языковых моделей, особенно при выполнении чувствительных операций с данными. Для профессионалов в области AI это подчеркивает необходимость усиления механизмов безопасности и отказоустойчивости в AI-системах.

Источник
Перевод статьи на русский
😱2
Буржуйский сеошник Гленн Гейб делится примером из практики:
"Как владелец сайта наконец удалил disavow-файл с более чем 15 тыс. доменов, прекратил постоянно отклонять ссылки и затем восстал из мёртвых".

Честно говоря, не понимаю, зачем гуглоиды вообще ввели этот инструмент. Ведь в случае ручного штрафа за входящее ссылочное (для снятия которого он, собственно, и создан), вопрос можно решить и в переписке с саппортом.
😁2
Генеральный директор Google Сундар Пичаи заявил, что число пользователей AI Overviews достигло 2 миллиарда пользователей в месяц.
Для таких красивых цифр и раскатывали за пределами США первым делом в Индии.
😁4👍2
Если вы еще не слышали - это для вас) Если вы продвигаете ecom - обязательно приходите на наш летний фестиваль 8-го августа! Можно и онлайн, но лучше офлайн, конечно) Участие бесплатное, но не забудьте зарегистрироваться.
👎2
Forwarded from noindex, nofollow
Блок "Обсуждения и форумы" (Discussion and forums) замечен в российском Гугле.
1
Вышел 96-й эпизод подкаста Google Search Off the Record, в котором Джон Мюллер и Мартин Шплитт обсуждают вопрос "Как CSS влияет на SEO?"
В самом начале они задались вопросом
"В рекомендациях Google говорится, что вы должны сделать свои CSS-файлы доступными для сканирования. Так что, должно быть, в этом есть какая-то
магия, верно?"

и потом сорок минут трепались, так толком и не ответив на него. Ну, разве что кроме того, чтоб в инструменте проверки URL-адресов, который выполняет предварительный просмотр страницы, отображалось все корректно. Но причем тут, собственно, SEO?
👍2🤯1
Keep Optimized – бесплатное расширение для Хрома, показывающее основные сеошные показатели веб-страницы.
👍4
Гуглоиды тестируют размещение гиперссылок внутри сниппетов органической выдачи. Большая коллекция примеров от различных сеошников собрана Барри Шварцем.
Хотят повысить кликабельность органики, снизившуюся после запуска AI Overviews?
2
SЕalytics (SEO-аналитика от Сергея Людкевича)
Гуглоиды тестируют размещение гиперссылок внутри сниппетов органической выдачи. Большая коллекция примеров от различных сеошников собрана Барри Шварцем. Хотят повысить кликабельность органики, снизившуюся после запуска AI Overviews?
Замечен еще один любопытный эксперимент в новоявленном Web Guide в Search Labs – радужное мерцание ссылки на вкладку Web с классическими десятью синими ссылками, явно призванное привлечь внимание пользователей.
Раньше эту вкладку старательно прятали куда подальше.
Неужто таки поступила команда повысить кликабельность органики и снивелировать "эффект крокодила"?
Как-то пропустил еще один инсайд из выступления гуглоида Гэри Ийеша на Google Search Central Live Deep Dive Asia Pacific 2025 от японского сеошника Кеничи Сузуки:
"Основной контент — король ранжирования: системы Google отдают приоритет «основному контенту» (который он также называет «центральной частью») страницы для ранжирования и поиска. Слова и фразы, расположенные в этой области, имеют значительно больший вес, чем те, что находятся в верхних, нижних колонтитулах или боковых панелях навигации. Чтобы ранжироваться по важным терминам, необходимо убедиться, что они занимают видное место в основной части вашей страницы.
Расположение определяет важность:Google выполняет позиционный анализ отображаемой страницы, чтобы понять, где расположен контент. Затем он использует эти данные для присвоения оценки важности словам (токенам) на странице. Перемещение термина из области с низкой важностью (например, боковой панели) в область основного контента напрямую увеличит его вес и потенциал для ранжирования.
Токенизация — основа индекса: Google не индексирует сырой HTML. Он разбивает текст на «токены» (слова или фразы). Для таких языков, как китайский, японский и корейский, где пробелы не используются между словами, требуются сложные «сегментаторы» на основе словаря для выделения значимых терминов. Эти маркеры, аннотированные с указанием их местоположения на странице, сохраняются в поисковом индексе.
«Мягкие ошибки 404» — это критическая ошибка: страница, возвращающая код статуса 200 OK, но отображающая сообщение об ошибке или имеющая очень скудный/пустой основной контент, считается «мягкой ошибкой 404». Google активно выявляет такие страницы и снижает их приоритет, поскольку они расходуют краулинговый бюджет и создают неприятный пользовательский опыт. Ийеш рассказал, что в течение многих лет страница документации Google о «мягких ошибках 404» помечалась как «мягкая ошибка 404» собственными системами Google и не могла быть проиндексирована."

По последнему пункту – сообщения об отсутствующей странице со статусом ответа сервера 202 – зло в квадрате. Мало того, что расходует краулинговый бюджет (т.к. ответ 200), так еще и thin content, и дубли. И таких URL может набраться очень много, что может сильно навредить "карме" сайта.
В очередном коротком видеоролике серии Google SEO Office Hours Shorts гуглоид Джон Мюллер отвечает на вопрос, как предотвратить попадание страниц с get-параметрами, использующимися для отслеживания, в поисковый индекс. Джон в качестве "самого чистого подхода" советует использовать директиву canonical, указывающую на соответствующий URL без get-параметров.
Не поспоришь. 😊
😁4
Крик души гуглоида Джона Мюллера, задолбавшегося отвечать на вопросы "как исправить 404-е ошибки?":
"Наличие страниц на сайте, возвращающих 404 или 410, совершенно нормально с точки зрения SEO (и, да, даже оптимизации для систем искусственного интеллекта), даже если это сотни миллионов страниц. Возврат 404 (или 410: для поисковых роботов это, по сути, одно и то же) — технически правильный способ обработки запросов к несуществующим URL. Это *лучший* способ. Он сообщает поисковым роботам, что здесь нет ничего, что им нужно учитывать. Это не сигнал качества, не сигнал SEO, не сигнал вектора или фрагментации (я не совсем уверен, что люди под этим подразумевают, но если на странице нечего использовать, то использовать нечего). Гораздо лучше выдать ошибку 404 (или 410), чем 200 для несуществующей страницы. Это означает, что любой системе, просматривающей эти URL, не придётся интерпретировать их содержимое."

Понимаю раздражение Джона, но гуглоиды сами виноваты в том, что не разъясняют критичность пунктов подраздела "Не проиндексированы" раздела "Индексация" в Google Search Console.
👍7
Очередное исследование от Ahrefs пришло к выводу, что помощники на основе искусственного интеллекта предпочитают цитировать более свежий контент нежели органический поиск:
"• Средний возраст URL-адресов, цитируемых помощниками на основе искусственного интеллекта, составляет 1064 дня, по сравнению с 1432 днями для URL-адресов в органических результатах поиска — на 25,7% «новее».
• Обзоры искусственного интеллекта Google и результаты органического поиска с наибольшей вероятностью будут ссылаться на старые страницы.
• ChatGPT, скорее всего, будет ссылаться на более новые страницы.
Perplexity и ChatGPT упорядочивают внутритекстовые ссылки от новых к самым старым."
👍3