Руководство по поисковым роботам и пользовательским агентам OpenAI от буржуйского сеошника Бретта Табке.
Searchengineworld
Tracking OpenAI – ChatGPT Bots – A Fresh Guide for Webmasters, Site Owners, and SEO’s
OpenAI runs multiple crawlers and user agents, and they do different jobs. Treating them as one single "AI bot" causes bad decisions. Below is the practical breakdown for webmasters, site owners, and
Буржуйский сеошник Эммануэль Флосси рассказывает, как исправить проблему с недостаточными или отсутствующими данными о локальном товарном запасе В Google Merchant Center:
"Одна из самых распространенных проблем, с которыми сталкиваются продавцы в Google Merchant Center, — это случайная отправка данных о наличии товара на складе, если у продавца нет физического магазина. Это может показаться незначительной ошибкой, но она может привести к предупреждениям об отказе в приеме товара, ограниченной видимости и значительной путанице. В этой статье я расскажу, что вызывает эту проблему, как ее выявить и как ее исправить в три шага."
FeedArmy Co., Ltd.
How to Enable UCP Payments in Google Merchant Center: A Step-by-Step Guide
Hello everyone! Today I’m going to share something that’s not widely known yet in the Google Merchant Center community – how to enable UCP (Universal Commerce Protocol) payments f…
Буржуйский сеошник Дэн Петрович разбирает метод извлечения данных, который использует Google для создания сниппетов заземления.
"Мне удалось успешно оптимизировать microsoft/deberta-v3-large , и он выдает результаты, довольно похожие на те, что дает Google."
dejan.ai
What extraction method is Google using to build grounding snippets?
I’ve been reverse-engineering Google’s Gemini grounding pipeline (AI Mode, Gemini Chat…etc) by examining the raw groundingSupports and groundingChunks returned by the API. Specifically, I’m interested in the snippet construction step, the part where, given…
SЕalytics (SEO-аналитика от Сергея Людкевича)
Буржуйский сеошник Дэн Петрович разбирает метод извлечения данных, который использует Google для создания сниппетов заземления. "Мне удалось успешно оптимизировать microsoft/deberta-v3-large , и он выдает результаты, довольно похожие на те, что дает Google."
И ещё интересное чтиво от буржуйского сеошника Дэна Петровича – разбор патента Google, в котором описывается использование неявных поведенческих сигналов в поиске с использованием ИИ.
Ты ещё не успел подумать, о чем спросить, а уже готов ответ 😊
"Механизм контекстной информации отслеживает:
• Текущие или недавние взаимодействия на устройстве.
• Местоположение устройства.
• Данные профиля пользователя.
• Какое приложение активно в фоновом режиме.
• Содержимое, отображаемое в данный момент на экране.
• Текущее состояние сессии запроса.
Затем все это передается в следующий компонент.
...
Система:
1. Отслеживает, что вы делаете на своем устройстве.
2. Определяет, что именно вам может понадобиться узнать.
3. Формирует поисковый запрос, который вы никогда не вводили.
4. Отправляет его молча.
5. Генерирует сводку на основе результатов с помощью ИИ.
6. Он автоматически отправляет его в поиск без вашего запроса."
Ты ещё не успел подумать, о чем спросить, а уже готов ответ 😊
dejan.ai
Implicit Queries in AI Search
Back in 2015 I wrote about Google’s reliance of user behaviours signals for ranking purposes. In that article I already covered their use of implicit signals, but now there’s an update! While investigating Google’s grounding pipeline (the system that feeds…
🔥1
Буржуйский сеошник Густаво Пелогия рассказывает, как использовать эмбеддинги для масштабного сопоставления тегов hreflang с помощью Screaming Frog и API OpenAI.
GusPelogia.com
How to use embeddings to map hreflang tags at scale
Last October, I had the pleasure of being on stage at Search ‘n Stuff in Antalya, Turkey. It was a fantastic conference by the beach side, and most guests and attendees stayed at the same hotel, meaning you’d bump into an SEO at every corner.I gave a talk…
Буржуйский сеошник Дэвид МакСуини решил проверить, какие части HTML-кода читает ChatGPT. В результате несложных экспериментов он пришел к выводу, что помимо видимого текста читаются:
• Текст, скрытый с помощью display:none
• Текст в атрибуте alt тега img
• Текст в noscript
Не читаются:
• Текст в мета-теге description
• Текст в атрибуте aria-label
• Текст в атрибуте title
• Текст в атрибуте data-location
• Текст, скрытый с помощью display:none
• Текст в атрибуте alt тега img
• Текст в noscript
Не читаются:
• Текст в мета-теге description
• Текст в атрибуте aria-label
• Текст в атрибуте title
• Текст в атрибуте data-location
🤔6👍1
Новый экспериментальный бесплатный инструмент от турецкого сеошника Метехана Есилюрта — Discover pCTR Predictor.
"Прогнозирует показатели кликабельности Google Discover, используя модель, откалиброванную на основе фактических данных телеметрии SDK — сопоставления сущностей, категорий актуальности и штрафа за «слепоту» (β)."
🔥2
SЕalytics (SEO-аналитика от Сергея Людкевича)
Новый экспериментальный бесплатный инструмент от турецкого сеошника Метехана Есилюрта — Discover pCTR Predictor. "Прогнозирует показатели кликабельности Google Discover, используя модель, откалиброванную на основе фактических данных телеметрии SDK — сопоставления…
P.S. Кому интересно, теоретическое обоснование инструмента находится здесь. Осторожно! Много букв, слов и непонятных фраз 😀
🔥2
База от буржуйской сеошницы Бритни Мюллер:
Все очень точно подмечено.
"LLM-модели отдают предпочтение контенту, который делает X" — это неправда! LLM-модели ничего не отдают предпочтение. Это не системы поиска информации; это предикторы следующего токена. Они угадывают наиболее статистически вероятный ответ на основе закономерностей в обучающих данных. Слой поисковой системы, добавленный сверху с помощью RAG? Это и есть поиск информации (IR)! Базовая модель LLM? Даже близко нет. Во время обучения LLM-модели обрабатывают текст со всего интернета, но они не регистрируют URL-адреса, не хранят источники и не помнят, откуда что-либо взялось. Остается лишь замороженный статистический снимок (Gao et al., 2023). Не индекс. Не база данных. Поисковые системы выполняют сканирование, индексирование и поиск. LLM-модели сильно полагаются на них для отображения информации в реальном времени (потому что сами по себе они этого сделать не могут). Прекратите оптимизировать для «ИИ». Оптимизируйте поиск для поисковых систем (чтобы ИИ, ориентированный на поиск информации, мог ссылаться на вас) + обеспечьте освещение в сторонних источниках (чтобы модель уже знала вас до того, как будет введен запрос)."
Все очень точно подмечено.
X (formerly Twitter)
Britney Muller (@BritneyMuller) on X
"LLMs favor content that does X" is not a thing!
LLMs don't favor anything. They're not information retrieval systems; they're next-token predictors. They guess the most statistically likely response based on patterns in training data.
The search engine…
LLMs don't favor anything. They're not information retrieval systems; they're next-token predictors. They guess the most statistically likely response based on patterns in training data.
The search engine…
❤3👍2
Гуглоиды сообщили о проблеме с обслуживанием результатов поиска, решение которой заняло 15 минут.
Пожалуй, самое быстрое решение из тех, что я видел.
Пожалуй, самое быстрое решение из тех, что я видел.
GSC Index Coverage Extractor – расширение для Chrome, извлекающее полные отчеты об индексации из Google Search Console.
Google
GSC Index Coverage Extractor - Chrome Web Store
Extract Index Coverage and Sitemap Coverage reports from Google Search Console
🔥2
SЕalytics (SEO-аналитика от Сергея Людкевича)
GSC Index Coverage Extractor – расширение для Chrome, извлекающее полные отчеты об индексации из Google Search Console.
P.S. CLI версия этого инструмента на GitHub.
GitHub
GitHub - jlhernando/index-coverage-extractor: This script allows users of Google Search Console (GSC) to extract all the different…
This script allows users of Google Search Console (GSC) to extract all the different reports from the Index Coverage report section of the platform and the Sitemap Coverage report section. - GitHu...
Амбассадор Яндекса Михаил Сливинский рассказал об ИИ-поиске Яндекса. Обратите внимание, что если вас не будет в топ-20 органики, попасть в ответы ИИ будет очень проблематично.
Forwarded from Курилка Яндекса
🔎 Как Алиса AI выбирает источники в поиске
Вышло интервью с Михаилом Сливинским, амбассадором интернет-площадок в Поиске Яндекса. Михаил довольно подробно объяснил механику генеративной выдачи. Рассказываем, как это устроено под капотом и как брендам оказаться в этих ответах.
💬 Получив запрос пользователя, Алиса AI может дополнительно придумать несколько уточняющих запросов, на которые полезно ответить в рамках основного вопроса.
С этим набором нейросеть идет в классический поиск и анализирует примерно по 20 результатов на каждый свой запрос. Затем Алиса AI самостоятельно пишет итоговый ответ с обязательным упоминанием ссылок на все ресурсы, на которые она опиралась.
☑️ Чтобы сайт стал источником для нейропоиска Яндекса, нужно учитывать несколько ключевых критериев:
1. Находиться в зоне видимости поиска, ориентировочно в топ-20.
2. Иметь богатый текстовый контент. Страницы, состоящие только из видеороликов, или сайты, где текст скрыт от робота скриптами, скорее всего пролетят мимо. Проверить видимость контента для индексатора можно через инструмент «Проверка страницы» в Яндекс Вебмастере.
3. В приоритете релевантность, фактурность и практическая польза. Экспертный контент нужен не только алгоритмам, но и самим людям — вспомните свой пользовательский опыт, когда для принятия решения нужны конкретные детали, а не вода.
4. Создавать оригинальный контент, а не нейросетевой спам. В эпоху бесконечной генерации текстов бизнесу нужно предлагать реальную ценность, чтобы просто выделиться на фоне конкурентов в глазах пользователя.
☯️ Разница между классической поисковой выдачей и ответом Алисы AI в том, что поиск ранжирует каждую страницу независимо друг от друга, а нейросеть старается построить целостный, понятный и полезный ответ.
Поэтому совершенно нормально, если Алиса AI опирается на источник, который находится не на первых позициях, но зато глубоко раскрывает часть темы из запроса пользователя.
Вышло интервью с Михаилом Сливинским, амбассадором интернет-площадок в Поиске Яндекса. Михаил довольно подробно объяснил механику генеративной выдачи. Рассказываем, как это устроено под капотом и как брендам оказаться в этих ответах.
💬 Получив запрос пользователя, Алиса AI может дополнительно придумать несколько уточняющих запросов, на которые полезно ответить в рамках основного вопроса.
С этим набором нейросеть идет в классический поиск и анализирует примерно по 20 результатов на каждый свой запрос. Затем Алиса AI самостоятельно пишет итоговый ответ с обязательным упоминанием ссылок на все ресурсы, на которые она опиралась.
☑️ Чтобы сайт стал источником для нейропоиска Яндекса, нужно учитывать несколько ключевых критериев:
1. Находиться в зоне видимости поиска, ориентировочно в топ-20.
2. Иметь богатый текстовый контент. Страницы, состоящие только из видеороликов, или сайты, где текст скрыт от робота скриптами, скорее всего пролетят мимо. Проверить видимость контента для индексатора можно через инструмент «Проверка страницы» в Яндекс Вебмастере.
3. В приоритете релевантность, фактурность и практическая польза. Экспертный контент нужен не только алгоритмам, но и самим людям — вспомните свой пользовательский опыт, когда для принятия решения нужны конкретные детали, а не вода.
4. Создавать оригинальный контент, а не нейросетевой спам. В эпоху бесконечной генерации текстов бизнесу нужно предлагать реальную ценность, чтобы просто выделиться на фоне конкурентов в глазах пользователя.
☯️ Разница между классической поисковой выдачей и ответом Алисы AI в том, что поиск ранжирует каждую страницу независимо друг от друга, а нейросеть старается построить целостный, понятный и полезный ответ.
Поэтому совершенно нормально, если Алиса AI опирается на источник, который находится не на первых позициях, но зато глубоко раскрывает часть темы из запроса пользователя.
👍2
Приглашаем на вебинар Алексея Чекушина 27 февраля в 19:00 по Мск
Тема вебинара: Актуальное про продвижение в Google-зарубежке
1. Google AI Overview - тенденции развития: где появляется, как работает, как влияет на органику, как в него попадать
2. Обновление политик EEAT (thin content, experience)
3. Усиление Specialists, GEO и B&M
4. Борьба с AI Poisoning и self-promotional listicles
Регистрация по ссылке 👇🏻
https://seedu.ru/blog/vebinar-zarubezhnoe-seo-alekseya-chekushina/
Реклама. ИП Чербижева М.А. ИНН: 060811231046. ERID: 2VtzqwjcxKu
Тема вебинара: Актуальное про продвижение в Google-зарубежке
1. Google AI Overview - тенденции развития: где появляется, как работает, как влияет на органику, как в него попадать
2. Обновление политик EEAT (thin content, experience)
3. Усиление Specialists, GEO и B&M
4. Борьба с AI Poisoning и self-promotional listicles
Регистрация по ссылке 👇🏻
https://seedu.ru/blog/vebinar-zarubezhnoe-seo-alekseya-chekushina/
Реклама. ИП Чербижева М.А. ИНН: 060811231046. ERID: 2VtzqwjcxKu
👍1
Anthropic обновил документацию о ботах Claude. Примечательно, что заявлена поддержка директив файла robots.txt, в том числе Crawl-delay.
👍1
Search Quality Rater Tool — бесплатный автоматизированный инструмент оценки качества страницы, созданный на основе официальных рекомендаций Google по оценке качества поиска (издание от сентября 2025 года).
Search Quality Rater Checker
Search Quality Rater Tool – Google Quality Rater Guidelines Evaluator for SEO
Instantly evaluate any URL against Google's Search Quality Evaluator Guidelines. E-E-A-T score, YMYL check, page quality rating, and actionable SEO fixes.
🔥4😁2
Интересный факт – ученые из Корнелльского университета все сплошь с китайскими фамилиями решили заняться GEO и утверждают, что преуcпели в этом:
ИИ реверс-инжинерит ИИ 😊
"В этой работе мы предлагаем CORE — метод оптимизации, который контролирует ранжирование результатов в генеративных поисковых системах для поиска на основе LLM. Поскольку взаимодействие LLM с поисковой системой является «черным ящиком», CORE ориентируется на контент, возвращаемый поисковыми системами, как на основной способ влияния на ранжирование результатов. В частности, CORE оптимизирует полученный контент, добавляя стратегически разработанный оптимизационный контент для управления ранжированием результатов. Мы представляем три типа контента для оптимизации: на основе строк, на основе рассуждений и на основе отзывов, демонстрируя их эффективность в формировании рейтингов результатов. Для оценки CORE в реалистичных условиях мы используем ProductBench, крупномасштабный бенчмарк с 15 категориями товаров и 200 товарами в каждой категории, где каждому товару соответствует топ-10 рекомендаций, собранных из поискового интерфейса Amazon.
Обширные эксперименты на четырех LLM с возможностями поиска (GPT-4o, Gemini-2.5, Claude-4 и Grok-3) показывают, что CORE достигает среднего показателя успешности продвижения в 91,4% @Top-5, 86,6% @Top-3 и 80,3% @Top-1 по 15 категориям товаров, превосходя существующие методы манипулирования рейтингами и сохраняя при этом плавность оптимизированного контента."
ИИ реверс-инжинерит ИИ 😊
arXiv.org
Controlling Output Rankings in Generative Engines for LLM-based Search
The way customers search for and choose products is changing with the rise of large language models (LLMs). LLM-based search, or generative engines, provides direct product recommendations to...
😁1
Reuters утверждает, что
"В среду источник, непосредственно знакомый с ситуацией, сообщил, что Google готовится начать тестирование изменений в результатах поиска, чтобы предоставить конкурентам большее преимущество, стремясь избежать штрафа со стороны ЕС за якобы предоставление преимуществ собственным сервисам при поиске отелей, авиабилетов и ресторанов."Интересно, что за изменения ожидаются? Просто возьмут и задвинут свои сервисы в выдаче? Или что-то хитропопое придумают?
Reuters
Exclusive: Google to test changes to search results, source says as EU fine looms
Alphabet's Google is poised to start testing changes to its search results to give rivals more prominence, a person with direct knowledge of the matter said on Wednesday, seeking to avoid an EU fine for allegedly favouring its own services in searches for…
👍1
Буржуйский сеошник Ник Хайглер утверждает, что цитирование ChatGPT так называемых "списков лучших" падало с ноября 2025 года по январь 2026 года. Но в феврале опять начался рост:
"В ходе анализа 2 миллионов ссылок на ChatGPT, полученных по одинаковым запросам, частота цитирования в виде списков неуклонно снижалась с ноября по январь:С чего бы это вдруг?
Ноябрь: 17,8%
Декабрь: 17,2%
Январь: 15,5%
Февраль: 16,7% (за часть месяца)"
Seerinteractive
The Listicle Window Is Closing in AI Search: 30% Decline MoM
AI search engines are moving away from listicle citations. Learn about the shift and how to adapt your content strategy for better visibility.
👍2