SЕalytics (SEO-аналитика от Сергея Людкевича)
2.54K subscribers
836 photos
9 videos
2 files
3.74K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Гуглоиды в своем блоге о рекламе и коммерции заявили, что
"Фактически, сейчас внедряется оплата на основе UCP, позволяющая покупателям из США приобретать товары на Etsy и Wayfair прямо в режиме ИИ в Поиске и приложении Gemini (вскоре к Shopify, Target и Walmart)."


Буржуйский сеошник Гленн Гейб подтверждает это, демонстрируя скриншот с кнопкой "Купить" в AI Mode.
Интересное наблюдение буржуйского сеошника Броди Кларка:
"SEO электронной коммерции: в этом интернет-магазине товаров "не было в наличии", но на самом деле они были в наличии.
Эта проблема оказала серьезное влияние на поисковую оптимизацию, поскольку страницы с товарами больше не занимали высоких позиций, а органические результаты поиска практически отсутствовали.
Сигналы на странице, такие как содержание страницы с товаром и микроразметка (включая подробную информацию о вариантах продукта), указывали на то, что товар есть в наличии. Так в чем же была проблема?
Оказалось, что, несмотря на то, что товар корректно отображался на уровне страницы, на уровне фида в Merchant Center передавались противоречивые сигналы.
В GMC Next онлайн-товар отображался как "в наличии", однако в каждом физическом магазине (реализованном через локальные фиды) товар отображался как "нет в наличии".
Это было связано главным образом с тем, что конкретный товар изготавливался на заказ, и автоматизация составления локального фида была некорректной.
Результатом этого конфликта стало то, что Google увидел, что товар, по-видимому, есть в наличии в Интернете, но ни один из магазинов по всей стране его не предлагал. Таким образом, алгоритмы Google посчитали, что его "нет в наличии", и, по сути, исключили его из их результатов поиска...
К счастью, решение оказалось простым: все, что нам нужно было сделать, это разметить наличие товаров в локальных фидах, и мы смогли отобразить их как "имеющиеся в наличии" и обеспечить высокие позиции в результатах поиска, что привело к увеличению трафика и доходов."


Мораль – следите не только за контентом на коммерческом сайте, но и за товарными фидами, отгружаемыми поисковику. Они тоже участвуют в коммерческом ранжировании.
Ahrefs запустил разветвление запросов в своем инструменте Brand Radar
Гуглоид Джон Мюллер предупреждает, что доступная к сканированию и индексированию HTTP-версия главной страницы сайта может вызывать проблемы с иконкой и названием сайта в сниппетах:
"Скрытая главная страница вызывала проблемы с названием сайта и иконкой сайта в поиске. Это была странная ситуация. Сайт использовал HTTPS, однако оставалась стандартная HTTP-страница сайта."

Лучше, конечно, корректно настроить все перенаправления с HTTP нп HTTPS.
SЕalytics (SEO-аналитика от Сергея Людкевича)
Фабрис Канель из Bing тоже считает идею дублировать контент в формате Markdown неэффективной: "Действительно хотите увеличить загрузку при двойном индексировании? Мы все равно проиндексируем, чтобы проверить сходство. Версии, не предназначенные для пользователей…
Меж тем Cloudflare представил автоматическое преобразование HTML в Markdown для агентов:
"Сеть Cloudflare теперь поддерживает преобразование контента в реальном времени на источнике для включенных зон с использованием заголовков согласования контента . Теперь, когда системы искусственного интеллекта запрашивают страницы с любого веб-сайта, использующего Cloudflare и имеющего включенную функцию Markdown for Agents, они могут указать предпочтение текста/Markdown в запросе. Наша сеть автоматически и эффективно преобразует HTML в Markdown, если это возможно, в режиме реального времени."

Похоже, ребята действуют по принципу "послушай представителей поисковиков и сделай наоборот" 😊
😁2
Вышел 104-й выпуск подкаста Google Search Off the Record, в котором гуглоиды Мартин Шплитт и Гэри Ийеш решили оьсудить, нужен ли вебсайт в 2026-м году. В итоге они пришли к выводу, что ИИ-агенты и LLM не убьют вебсайты, как не убили их в свое время мобильные приложения или соцсети.
Очередные полчаса трепа ни о чем.
Все течет, все меняется, но только не анкор-файлы в поисковых алгоритмах. Гуглоид Джон Мюллер таки рекомендует использовать текстовые анкоры ссылок:
"Если вы хотите предоставить поисковым системам больше контекста, я бы сосредоточился на видимом тексте ссылки. Сделайте так, чтобы всем было понятно, для чего предназначена страница, на которую ведет ссылка."
👍3
Забавный случай. Некий товарищ жалуется на Reddit, что Google AI Mode сообщает о том, что его сайт недоступен, хотя с ним все нормально. Гуглоид Джон Мюллер обнаружил, что ларчик открывался просто:
"Я бы рекомендовал не использовать JavaScript для изменения текста на вашей странице с «недоступно» на «доступно», а просто загрузить весь этот фрагмент из JavaScript."
Я всегда говорил, что менять с помощью js контент – это плохая идея, т.к. никогда нельзя быть уверенным в том, выполнит ли его краулер или нет.
Буржуйский разработчик библиотеки matplotlib Скотт Шамбо рассказывает, как ИИ-агент накатал на него кляузу:
"ИИ-агент, владелец которого неизвестен, самостоятельно написал и опубликовал персонализированную клеветническую статью обо мне после того, как я отклонил его код, пытаясь подорвать мою репутацию и заставить меня принять его изменения в качестве стандартной библиотеки Python. Это первый в своем роде случай неадекватного поведения ИИ в реальных условиях, и он вызывает серьезные опасения по поводу того, что используемые в настоящее время агенты ИИ могут осуществлять шантаж."


Как страшно жить... 😊
Бесплатный инструмент для распознавания ИИ-агентов от турецкого сеошника Метехана Есилюрта.
Исследование буржуйской сеошницы Алейды Солис результатов поиска Google по четырем вертикалям – 5000 самых популярных запросов по наушникам, джинсам и онлайн-играм, а также 956 самых популярных запросов по поздравительным открыткам и электронным открыткам в США – констатирует, что снижение органического трафика владельцы сайтов пытаются компенсировать поисковой рекламой:
"• Доля классического органического клика снижается во всех отраслях.
• Контекстная реклама — самый прибыльный продукт во всех отраслях."

Неплохая маркетинговая стратегия у гулоидов — отжать c помощью AI Overviews органический трафик, чтобы больше покупали рекламу.😜
Буржуйский сеошник Дэн Петрович представил инструмент Grounding Context Retriever, который
"показывает, какие части страницы будут отображаться в результатах поиска Google с использованием искусственного интеллекта.
Google берет фрагменты текста со страниц и составляет небольшое, специфичное для запроса, краткое резюме для каждого исходного источника, которое формирует более широкий контекст модели вместе с персонализацией, подсказками пользователю и любыми прикрепленными медиафайлами. Помимо вашего фирменного стиля, это все, что у вас есть для влияния на модель."
🔥42
Хорошая вакансия от Финама:
👍2😁1🤝1
Forwarded from noindex, nofollow
🔥 Вакансия. Ищу Senior SEO-специалиста в Финам
Москва, full-time, гибридный формат.

Вы будете работать с одним из самых авторитетных финансовых ресурсов в рунете с более чем 25-летней историей. ФГ «Финам» объединяет в себе крупное финансовое медиа, услуги брокера и сервисы для инвесторов/трейдеров.

Это роль с высоким уровнем влияния на продукты на стыке маркетинга, разработки, аналитики и бизнеса.
Вы будете формировать и реализовывать план работ по технической оптимизации, продуктовым фичам, аналитике, контенту, внедрять эксперименты и давать рекомендации по архитектуре наших сайтов.

Задачи:
— поиск точек роста органического трафика на сайтах (www.finam.ru и другие)
— генерация гипотез и проведение экспериментов
— реализация продуктовых задач с помощью разработчиков: от постановки задачи и приоритизации до анализа продуктовых метрик
— поддержка миграции страниц и сайтов, стратегии каноникализации и редиректов, устранение проблем с дублирующимся контентом
— веб- и поисковая аналитика: от мониторинга эффективности краулинга, индексации, видимости в поиске, до конверсий
— тесно сотрудничать со всеми, кто влияет на разработку, контент и UX, с бизнес-заказчиками

Требования:
— от 5 лет опыта в SEO, включая работу над крупными сайтами (финтех, еком, SaaS или большой медиапроект)
— приверженность продуктовому data-driven подходу в SEO
— отличные знания принципов сканирования, индексации и ранжирования сайтов в Яндексе и Google
— технический бэкграунд (опыт разработки как плюс), базовые знания HTML/CSS/JS
— практический опыт работы с инструментами и сервисами типа Screaming Frog, Топвизор, Semrush, Ahrefs и т.п.
— опыт работы с SPA
— будет плюсом успешный опыт работы с Google Discover

Откликаться здесь.
🔥2
Буржуйский сеошник Дэн Петрович выложил модель прогнозирования текстов ссылок, обученную на основе собственных шаблонов ссылок Google на 10 273 страницах блога "The Keyword".
Типа какими должны быть правильные анкоры, раз их используют сами гуглоиды.
😁3
Статья буржуйского сеошника Гленна Гейба о случаях из практики, связанных с тем, что Google определил каконической страницы не те, которые хотел видеть каноническими владелец сайта.
"Если у вас крупный и сложный сайт, крайне важно следить за тем, как Google обрабатывает канонизацию ваших URL-адресов. rel canonical — это всего лишь подсказка, и Google может, и будет, игнорировать вашу рекомендацию и принимать собственные решения. На крупном сайте это может привести к индексации множества URL-адресов, которые, возможно, не должны индексироваться… И, конечно же, эти URL-адреса будут занимать высокие позиции в результатах поиска и направлять пользователей к неправильным версиям контента."

Целиком и полностью согласен.
SЕalytics (SEO-аналитика от Сергея Людкевича)
Статья буржуйского сеошника Гленна Гейба о случаях из практики, связанных с тем, что Google определил каконической страницы не те, которые хотел видеть каноническими владелец сайта. "Если у вас крупный и сложный сайт, крайне важно следить за тем, как Google…
P.S. Кстати, часто поисковик выбирает канонической "неправильную" страницу, игнорируя директиву canonical, не просто так. Поэтому анализ подобных случаев позволяет найти ошибки, препятствующие корректному ранжированию сайта.
Ночной кошмар для SEO-агентств:
"Как мы заменили SEO-агентство, которое обходилось нам в 1500 долларов в месяц, на OpenClaw"
"18 000 долларов в год. Исчезло.
Именно столько мы платили SEO-агентству за исследование ключевых слов, составление контент-брифа, анализ обратных ссылок и, весьма скудные, ежемесячные отчеты.
Поэтому мы создали собственную систему. Использовали OpenClaw, четыре API и около 20 часов на настройку.
Теперь мы получаем в 5 раз больше результатов — автоматически, каждую неделю — примерно за 75 долларов в месяц на оплату API."


Ну, если SEO-агентство за такие деньги занималось только отчётностью, то поделом.
😁8
Интересное наблюдение от Игоря Бакалова: