674 параметра запроса к Google. Операторы запроса, взятые из исходного кода Google... https://site-analyzer.ru/articles/google-query-params-674/
👍7
Новая версия SiteAnalyzer SEO Tools 2.9!
Что нового:
- добавлена возможность отключения рекламных блоков в поисковой выдаче Яндекса и Google
Подробнее: https://site-analyzer.ru/articles/seo-extension-disable-ads-in-google/
Что нового:
- добавлена возможность отключения рекламных блоков в поисковой выдаче Яндекса и Google
Подробнее: https://site-analyzer.ru/articles/seo-extension-disable-ads-in-google/
🔥11👍3
Интересная находка от Jérôme Salomon дает нам представление о том, как ChatGPT создает контекст, чтобы предоставить пользователям ответы из интернета (извлекает источники из Bing и сканирует релевантные URL-адреса).
Чтобы это понять, вы можете в своем браузере открыть файл JSON, содержащийся в ChatGPT и посмотреть, какие данные из онлайн-источников учитываются для получения ответов в режиме реального времени.
В итоге можно увидеть, что ChatGPT учитывает вполне обычные вещи, такие как:
- Заголовки страниц
- Метаданные
- URL
Каждый раз, когда пользователь вводит запрос, требующий данные из интернета, ChatGPT выдает набор синтетических запросов на основе первоначального запроса на выполнение дальнейшего поиска в Bing.
Эти синтетические запросы очень похожи на обычные SEO-запросы - это урезанная, более базовая версия исходного запроса.
Как извлечь эти данные самостоятельно:
1. Перейдите в ChatGPT и выполните запрос по фильтру "Поиск". Например: "подбери лучшие бразерные расширения для SEO 10 инструментов"
2. Откройте DevTools в Chrome после завершения работы ChatGPT.
3. В DevTools перейдите на вкладку «Сеть», введите в фильтр числовую часть вашего URL-адреса в ChatGPT (в моем случае это /c/6852...).
4. Обновите браузер (если нужно) и нажмите на раздел «Ответ» в DevTools.
На выходе будет доступен полноценный JSON файл с историей поиска, поисковыми запросами, их уточнениями и использующимися сайтами из выдачи Bing для анализа и генерации ответа пользователю.
Чтобы это понять, вы можете в своем браузере открыть файл JSON, содержащийся в ChatGPT и посмотреть, какие данные из онлайн-источников учитываются для получения ответов в режиме реального времени.
В итоге можно увидеть, что ChatGPT учитывает вполне обычные вещи, такие как:
- Заголовки страниц
- Метаданные
- URL
Каждый раз, когда пользователь вводит запрос, требующий данные из интернета, ChatGPT выдает набор синтетических запросов на основе первоначального запроса на выполнение дальнейшего поиска в Bing.
Эти синтетические запросы очень похожи на обычные SEO-запросы - это урезанная, более базовая версия исходного запроса.
Как извлечь эти данные самостоятельно:
1. Перейдите в ChatGPT и выполните запрос по фильтру "Поиск". Например: "подбери лучшие бразерные расширения для SEO 10 инструментов"
2. Откройте DevTools в Chrome после завершения работы ChatGPT.
3. В DevTools перейдите на вкладку «Сеть», введите в фильтр числовую часть вашего URL-адреса в ChatGPT (в моем случае это /c/6852...).
4. Обновите браузер (если нужно) и нажмите на раздел «Ответ» в DevTools.
На выходе будет доступен полноценный JSON файл с историей поиска, поисковыми запросами, их уточнениями и использующимися сайтами из выдачи Bing для анализа и генерации ответа пользователю.
👍16🔥4😁2👏1🤔1
Бесплатный и простой в использовании вариант визуального представления поисковой выдачи по количеству слов, числу ссылающихся доменов и предполагаемому возрасту URL (по его первому появлению / архивному снимку) от зарубежного SEO-специалиста Daniel Foley Carter... https://site-analyzer.ru/articles/visual-view-of-serp-in-google-sheets/
👍7🤔2
Как найти естественные разговорные запросы в Google Search Console
Vijay Chauhan подобрал регулярное выражение, которое можно использовать для выделения длинных (разговорных) поисковых запросов.
В одной из веток Твиттера SEO-специалист Vijay Chauhan порекомендовал строку регулярного выражения, которую сеошники могут использовать для идентификации запросов, появляющихся в GSC (Google Search Console) и приближающихся к тем вариантам, которые пользователи могли бы использовать в AI-поиске.
1. Откройте Search Console.
2. Перейдите к результатам поиска «Производительность > Результаты поиска».
3. Выберите «+Добавить фильтр > Запрос».
4. В выпадающем списке выберите «Пользовательское регулярное выражение» (Custom Regex).
5. Скопируйте и вставьте это регулярное выражение: «([^" "]*\s){32,}?».
В отчете «Популярные запросы» вы увидите, что Search Console покажет вам только лишь запросы, содержащие не менее N слов (в нашем случае это 32 слова). Данные фразы отражают типы диалоговых запросов, которые пользователи могут использовать для доступа к содержимому вашего сайта.
Однако, мы бы рекомендовали немного сократить это выражение для более широкого анализа. Например, изменение «32» на «15» дало несколько интересных запросов на сайте SiteAnalyzer, таких как:
- «нужно найти всю интересную информацию для статьи на эту тему 34.автопостинг для блогов: как автоматизировать контент. для seo оптимизации этой статьи используй эти ключевые слова использование rss-каналов для автопостинга»
- «пиксель тулс и se ranking выполняют анализ конкурентов seo-аудит поиск и кластеризацию ключевых слов и прочие работы как проходит поисковая оптимизация это сложный процесс состоящий из нескольких этапов каждый»
- «использование данных gsc для seo-оптимизации gsc позволяет загружать данные через api что удобно для автоматизации seo-анализа и мониторинга позиций интеграция с bi-системами например google data studio помогает: визуализировать»
Кроме того, поскольку Google теперь ведет статистику ответов в режиме искусственного интеллекта используя Search Console, подобный вариант может стать способом проведения более глубокого анализа некоторых из этих данных, так как запросы со временем будут становиться гораздо более длинными.
Vijay Chauhan подобрал регулярное выражение, которое можно использовать для выделения длинных (разговорных) поисковых запросов.
В одной из веток Твиттера SEO-специалист Vijay Chauhan порекомендовал строку регулярного выражения, которую сеошники могут использовать для идентификации запросов, появляющихся в GSC (Google Search Console) и приближающихся к тем вариантам, которые пользователи могли бы использовать в AI-поиске.
1. Откройте Search Console.
2. Перейдите к результатам поиска «Производительность > Результаты поиска».
3. Выберите «+Добавить фильтр > Запрос».
4. В выпадающем списке выберите «Пользовательское регулярное выражение» (Custom Regex).
5. Скопируйте и вставьте это регулярное выражение: «([^" "]*\s){32,}?».
В отчете «Популярные запросы» вы увидите, что Search Console покажет вам только лишь запросы, содержащие не менее N слов (в нашем случае это 32 слова). Данные фразы отражают типы диалоговых запросов, которые пользователи могут использовать для доступа к содержимому вашего сайта.
Однако, мы бы рекомендовали немного сократить это выражение для более широкого анализа. Например, изменение «32» на «15» дало несколько интересных запросов на сайте SiteAnalyzer, таких как:
- «нужно найти всю интересную информацию для статьи на эту тему 34.автопостинг для блогов: как автоматизировать контент. для seo оптимизации этой статьи используй эти ключевые слова использование rss-каналов для автопостинга»
- «пиксель тулс и se ranking выполняют анализ конкурентов seo-аудит поиск и кластеризацию ключевых слов и прочие работы как проходит поисковая оптимизация это сложный процесс состоящий из нескольких этапов каждый»
- «использование данных gsc для seo-оптимизации gsc позволяет загружать данные через api что удобно для автоматизации seo-анализа и мониторинга позиций интеграция с bi-системами например google data studio помогает: визуализировать»
Кроме того, поскольку Google теперь ведет статистику ответов в режиме искусственного интеллекта используя Search Console, подобный вариант может стать способом проведения более глубокого анализа некоторых из этих данных, так как запросы со временем будут становиться гораздо более длинными.
👍3
CloudFlare теперь позволяет сайтам напрямую взимать плату с AI-движков за сканирование своих сайтов
Совсем недавно на сайте CloudFlare было объявлено о введении «Pay Per Crawl» - данная возможность дает владельцам сайтов новый альтернативный вариант вместо прямой блокировки ИИ-краулеров или предоставления полностью открытого доступа открывать доступ за оплату. С помощью данной системы сайты могут все также подпитывать базы искусственного интеллекта данными и одновременно зарабатывать на этом.
Сейчас, если робот с искусственным интеллектом перейдет на сайт с оплатой за сканирование, ему нужно либо представить платеж через заголовки запроса, либо он получит статус «Требуется платеж 402». После чего владельцы могут разрешать, взимать плату или блокировать роботы с искусственным интеллектом по своему усмотрению.
Новые домены Cloudflare по умолчанию блокируют все известные AI-краулеры.
У сайтов теперь есть 3 варианта управления:
- Разрешить - предоставить неограниченный доступ.
- Плата - требовать, чтобы боты с искусственным интеллектом платили установленную плату за запрос.
- Блокировать - прямой запрет доступа (эквивалент блокировки на сетевом уровне).
Режим Pay-Per-Crawl (бета-версия) означает фиксированную комиссию на всем сайте с микроплатежами за сканирование, обрабатываемыми Cloudflare.
- Боты с искусственным интеллектом видят ответ 402 Payment Required с ценой и повторяют попытку с помощью платежного токена, или они могут предварительно заявить о намерении заплатить.
- Поисковые роботы должны зарегистрироваться в Cloudflare и предоставить криптографические подписи сообщений, чтобы быть идентифицированными и утвержденными.
- Работает вместе с существующими WAF, инструментами управления ботами и Robots.txt.
- Прозрачность и аналитика: на панели мониторинга отображается активность сканирования, шаблоны использования и удостоверения робота, что позволяет вести переговоры или корректировать политику.
- Поддержка крупных владельцев сайтов. Среди первых тестировщиков - Time, Gannett, BuzzFeed, Fortune, Reddit, Pinterest, Quora и другие.
Могут ли владельцы сайтов отказаться от блокировки чат-ботов с искусственным интеллектом?
- Да. Если владельцы не хотят блокировать роботов с искусственным интеллектом, они могут выбрать опцию «Разрешить» через панель управления или API.
- Владельцы сайтов могут разрешить использование определенных ботов, взимая плату с других, или предоставить им бесплатный доступ, в зависимости от установленных предпочтений, чтобы они могли не блокировать чат-ботов или сканеров с искусственным интеллектом и выбирать, платить им или нет.
- Вероятно, эта разработка была вызвана запросом от авторов сайтов, которым надоели поисковые роботы, которые сканируют их контент без перехода на сайт или дохода взамен.
Это интересный подход, поскольку с помощью этого способа владельцы сайтов могут монетизировать свой контент на собственных условиях.
Авторы сайтов должны быть в курсе того, как именно их контент используется в интернете.
При этом, всегда найдутся сайты, которые с радостью раздадут свой контент бесплатно. Так что до тех пор, пока это существует, у роботов с искусственным интеллектом не будет достаточно стимулов, чтобы финансово компенсировать достаточное количество владельцев сайтов. Это может сработать для 1% лучших сайтов, к которым AI-компании считают необходимым получить доступ.
Ссылка на новость Cloudflare https://blog.cloudflare.com/introducing-pay-per-crawl/
Совсем недавно на сайте CloudFlare было объявлено о введении «Pay Per Crawl» - данная возможность дает владельцам сайтов новый альтернативный вариант вместо прямой блокировки ИИ-краулеров или предоставления полностью открытого доступа открывать доступ за оплату. С помощью данной системы сайты могут все также подпитывать базы искусственного интеллекта данными и одновременно зарабатывать на этом.
Сейчас, если робот с искусственным интеллектом перейдет на сайт с оплатой за сканирование, ему нужно либо представить платеж через заголовки запроса, либо он получит статус «Требуется платеж 402». После чего владельцы могут разрешать, взимать плату или блокировать роботы с искусственным интеллектом по своему усмотрению.
Новые домены Cloudflare по умолчанию блокируют все известные AI-краулеры.
У сайтов теперь есть 3 варианта управления:
- Разрешить - предоставить неограниченный доступ.
- Плата - требовать, чтобы боты с искусственным интеллектом платили установленную плату за запрос.
- Блокировать - прямой запрет доступа (эквивалент блокировки на сетевом уровне).
Режим Pay-Per-Crawl (бета-версия) означает фиксированную комиссию на всем сайте с микроплатежами за сканирование, обрабатываемыми Cloudflare.
- Боты с искусственным интеллектом видят ответ 402 Payment Required с ценой и повторяют попытку с помощью платежного токена, или они могут предварительно заявить о намерении заплатить.
- Поисковые роботы должны зарегистрироваться в Cloudflare и предоставить криптографические подписи сообщений, чтобы быть идентифицированными и утвержденными.
- Работает вместе с существующими WAF, инструментами управления ботами и Robots.txt.
- Прозрачность и аналитика: на панели мониторинга отображается активность сканирования, шаблоны использования и удостоверения робота, что позволяет вести переговоры или корректировать политику.
- Поддержка крупных владельцев сайтов. Среди первых тестировщиков - Time, Gannett, BuzzFeed, Fortune, Reddit, Pinterest, Quora и другие.
Могут ли владельцы сайтов отказаться от блокировки чат-ботов с искусственным интеллектом?
- Да. Если владельцы не хотят блокировать роботов с искусственным интеллектом, они могут выбрать опцию «Разрешить» через панель управления или API.
- Владельцы сайтов могут разрешить использование определенных ботов, взимая плату с других, или предоставить им бесплатный доступ, в зависимости от установленных предпочтений, чтобы они могли не блокировать чат-ботов или сканеров с искусственным интеллектом и выбирать, платить им или нет.
- Вероятно, эта разработка была вызвана запросом от авторов сайтов, которым надоели поисковые роботы, которые сканируют их контент без перехода на сайт или дохода взамен.
Это интересный подход, поскольку с помощью этого способа владельцы сайтов могут монетизировать свой контент на собственных условиях.
Авторы сайтов должны быть в курсе того, как именно их контент используется в интернете.
При этом, всегда найдутся сайты, которые с радостью раздадут свой контент бесплатно. Так что до тех пор, пока это существует, у роботов с искусственным интеллектом не будет достаточно стимулов, чтобы финансово компенсировать достаточное количество владельцев сайтов. Это может сработать для 1% лучших сайтов, к которым AI-компании считают необходимым получить доступ.
Ссылка на новость Cloudflare https://blog.cloudflare.com/introducing-pay-per-crawl/
👍2
Новая версия Яндекс Вордстат Extension 3.0
Добавлена возможность кластеризации запросов методами Hard и Soft, улучшено визуальное представление диалоговых окон расширения.
Что нового:
- добавлена возможность кластеризации запросов методами Hard и Soft
- добавлена возможность создания отдельных проектов (группы запросов)
- добавлена возможность «ручного» указания порога кластеризации фраз (от 1 до 10)
- добавлена возможность сбора ТОП поисковой выдачи Яндекса сервисами XMLProxy, XMLRiver, XMLStock для последующей кластеризации
- добавлена возможность импорта данных поисковой выдачи для кластеризации фраз без необходимости сбора данных по ТОП (максимум 5000 запросов для импорта, CSV-формат Key Collector)
- добавлено отображение ТОП сайтов по видимости (список доменов по числу запросов в ТОП-10)
- для интересующей ключевой фразы добавлено отображение списка соответствующих URL поисковой выдачи
- добавлена возможность прокрутки списка папок в контекстном меню при перемещении запросов в папку
- добавлена статистика свободного места в расширении исходя из общего объема 1 Гб
- улучшено визуальное представление диалоговых окон расширения
Подробнее: https://site-analyzer.ru/soft/seo-extension-wordstat/
Добавлена возможность кластеризации запросов методами Hard и Soft, улучшено визуальное представление диалоговых окон расширения.
Что нового:
- добавлена возможность кластеризации запросов методами Hard и Soft
- добавлена возможность создания отдельных проектов (группы запросов)
- добавлена возможность «ручного» указания порога кластеризации фраз (от 1 до 10)
- добавлена возможность сбора ТОП поисковой выдачи Яндекса сервисами XMLProxy, XMLRiver, XMLStock для последующей кластеризации
- добавлена возможность импорта данных поисковой выдачи для кластеризации фраз без необходимости сбора данных по ТОП (максимум 5000 запросов для импорта, CSV-формат Key Collector)
- добавлено отображение ТОП сайтов по видимости (список доменов по числу запросов в ТОП-10)
- для интересующей ключевой фразы добавлено отображение списка соответствующих URL поисковой выдачи
- добавлена возможность прокрутки списка папок в контекстном меню при перемещении запросов в папку
- добавлена статистика свободного места в расширении исходя из общего объема 1 Гб
- улучшено визуальное представление диалоговых окон расширения
Подробнее: https://site-analyzer.ru/soft/seo-extension-wordstat/
👍12🔥9
Новая версия Яндекс Вордстат Extension 3.1
Что нового:
- добавлена возможность проверки позиций запросов по ТОП-100 Яндекса
- добавлены цветовые маркеры для запросов, а также возможность фильтрации по ним
- исправлен баг, когда при копировании запросов копировались ключи из ВСЕХ групп
- оптимизирована логика работы окна выбора регионов Яндекс Вордстат
- настройки региональности вынесены в раздел «Настройки»
- обновлено оформление раздела «Настройки»
Подробнее: https://site-analyzer.ru/soft/seo-extension-wordstat/
Что нового:
- добавлена возможность проверки позиций запросов по ТОП-100 Яндекса
- добавлены цветовые маркеры для запросов, а также возможность фильтрации по ним
- исправлен баг, когда при копировании запросов копировались ключи из ВСЕХ групп
- оптимизирована логика работы окна выбора регионов Яндекс Вордстат
- настройки региональности вынесены в раздел «Настройки»
- обновлено оформление раздела «Настройки»
Подробнее: https://site-analyzer.ru/soft/seo-extension-wordstat/
👍13
Search Console выпустил новую версию отчета «Инсайты». Теперь стало проще видеть трендовый контент, новые поисковые запросы и многое другое
Недавно Google объявил об обновлении бета-версии Search Console Insights.
Новый инструмент направлен на то, чтобы предоставить маркетологам и владельцам сайтов более «целостный опыт».
Search Console Insights включает в себя дополнительные отчеты и аналитические сведения, такие как:
1. Возможность быстро увидеть общее количество кликов и показов и сравнить их с предыдущим периодом
Общие изменения по кликам и показам по сравнению с предыдущими периодами (7 дней, 28 дней или 3 месяца).
2. Определение страниц, которые имеют тенденцию к росту или падению
Топовый контент и запросы, тенденции к росту и падению.
Это помогает показать контент, который превосходит предыдущий период или кажется отстающим по сравнению с тем, что было раньше.
3. Понимание новых возможностей запросов
Отчет «Запросы, ведущие на сайт» покажет вам ваши основные ключевые слова.
Кроме того, он содержит вкладки «В тренде вверх» и «В тренде вниз» для определения поисковых запросов, претерпевающих наибольшие изменения.
4. Таблица «Топ стран» показывает 5 самых популярных стран по источникам трафика.
5. Таблица «Дополнительные источники трафика» также выделит общее количество кликов из прочих источников трафика, таких как изображения, новости Google, рекомендации и т.д.
Это довольно крутое обновление функций и, вероятно, полезно для многих маркетологов, которые хотят получить панель управления с некоторыми быстрыми инсайтами, но не хотят слишком глубоко погружаться в инструмент. Трендовые страницы / запросы являются одними из самых полезных, поскольку вам, возможно, не придется копаться в поисках данных идей.
Недавно Google объявил об обновлении бета-версии Search Console Insights.
Новый инструмент направлен на то, чтобы предоставить маркетологам и владельцам сайтов более «целостный опыт».
Search Console Insights включает в себя дополнительные отчеты и аналитические сведения, такие как:
1. Возможность быстро увидеть общее количество кликов и показов и сравнить их с предыдущим периодом
Общие изменения по кликам и показам по сравнению с предыдущими периодами (7 дней, 28 дней или 3 месяца).
2. Определение страниц, которые имеют тенденцию к росту или падению
Топовый контент и запросы, тенденции к росту и падению.
Это помогает показать контент, который превосходит предыдущий период или кажется отстающим по сравнению с тем, что было раньше.
3. Понимание новых возможностей запросов
Отчет «Запросы, ведущие на сайт» покажет вам ваши основные ключевые слова.
Кроме того, он содержит вкладки «В тренде вверх» и «В тренде вниз» для определения поисковых запросов, претерпевающих наибольшие изменения.
4. Таблица «Топ стран» показывает 5 самых популярных стран по источникам трафика.
5. Таблица «Дополнительные источники трафика» также выделит общее количество кликов из прочих источников трафика, таких как изображения, новости Google, рекомендации и т.д.
Это довольно крутое обновление функций и, вероятно, полезно для многих маркетологов, которые хотят получить панель управления с некоторыми быстрыми инсайтами, но не хотят слишком глубоко погружаться в инструмент. Трендовые страницы / запросы являются одними из самых полезных, поскольку вам, возможно, не придется копаться в поисках данных идей.
👍7
Новая версия Яндекс Вордстат Extension 3.2
Добавлена проверка частотностей Яндекс Вордстат (WS + "!WS") через сервисы WordKeeper и XMLRiver, расширено число импортируемых из CSV запросов до 10000.
Что нового:
- добавлена функция сбора частотностей Яндекс Вордстат (WS + "!WS") через сервисы WordKeeper и XMLRiver
- добавлена возможность указания числа потоков для получения данных по поисковой выдаче и Яндекс Вордстат
- добавлена статистика числа групп проекта, а также средняя позиция по ТОП поисковой выдачи
- при импорте CSV добавлена проверка кодировки файла и проверка на дубликаты запросов
- исправлена нерабочая вставка стоп-слов из буфера обмена в браузере Firefox
- расширено число импортируемых из CSV запросов до 10,000
- исправлены мелкие баги и оптимизирован интерфейс
Подробнее: https://site-analyzer.ru/soft/seo-extension-wordstat/
Добавлена проверка частотностей Яндекс Вордстат (WS + "!WS") через сервисы WordKeeper и XMLRiver, расширено число импортируемых из CSV запросов до 10000.
Что нового:
- добавлена функция сбора частотностей Яндекс Вордстат (WS + "!WS") через сервисы WordKeeper и XMLRiver
- добавлена возможность указания числа потоков для получения данных по поисковой выдаче и Яндекс Вордстат
- добавлена статистика числа групп проекта, а также средняя позиция по ТОП поисковой выдачи
- при импорте CSV добавлена проверка кодировки файла и проверка на дубликаты запросов
- исправлена нерабочая вставка стоп-слов из буфера обмена в браузере Firefox
- расширено число импортируемых из CSV запросов до 10,000
- исправлены мелкие баги и оптимизирован интерфейс
Подробнее: https://site-analyzer.ru/soft/seo-extension-wordstat/
10👍18❤2🔥2
Яндекс Вордстат открыл свой API
Сегодня API Вордстата вышел из бета-тестирования - доступ к нему теперь открыт для всех.
Ссылка: https://yandex.com/support2/wordstat/ru/content/api-wordstat
В базовом варианте интерфейс предоставляется со следующими лимитами:
- 10 запросов в секунду
- 1000 запросов в сутки
Если необходимо увеличить лимиты, напишите в поддержку Яндекса с обоснованием для этого и необходимый объем запросов. Они рассмотрят вашу просьбу.
ПС. Скорее всего бесплатный вариант будет доступен лишь на время тестирования сервиса самим Яндексом, как это было ранее с лимитами XML. Поживем - увидим.
Сегодня API Вордстата вышел из бета-тестирования - доступ к нему теперь открыт для всех.
Ссылка: https://yandex.com/support2/wordstat/ru/content/api-wordstat
В базовом варианте интерфейс предоставляется со следующими лимитами:
- 10 запросов в секунду
- 1000 запросов в сутки
Если необходимо увеличить лимиты, напишите в поддержку Яндекса с обоснованием для этого и необходимый объем запросов. Они рассмотрят вашу просьбу.
ПС. Скорее всего бесплатный вариант будет доступен лишь на время тестирования сервиса самим Яндексом, как это было ранее с лимитами XML. Поживем - увидим.
1🔥6👍5❤3🤔1
Новая версия Яндекс Вордстат Extension 3.3!
Добавлена возможность пакетного сбора семантики из Яндекс Вордстат, добавлено удаление выделенных фраз по стоп-листу.
Что нового:
- добавлена возможность пакетного сбора семантики из Яндекс Вордстат через сервис XMLRiver
- в контекстном меню добавлен пункт «Удалить выделенные фразы по стоп-листу» для одномоментного удаления «подсвеченных» из стоп-листа фраз
- добавлено отключение контекстного меню расширения в процессе получения поисковой выдачи / получения статистики вордстат / сборе новых ключей
- в список XML-сервисов получения данных поисковой выдачи добавлен сервис SERPRiver
- исправлен баг, когда после перезагрузки браузера терялись все ранее собранные запросы
Подробнее: https://wordclusterer.ru/
Добавлена возможность пакетного сбора семантики из Яндекс Вордстат, добавлено удаление выделенных фраз по стоп-листу.
Что нового:
- добавлена возможность пакетного сбора семантики из Яндекс Вордстат через сервис XMLRiver
- в контекстном меню добавлен пункт «Удалить выделенные фразы по стоп-листу» для одномоментного удаления «подсвеченных» из стоп-листа фраз
- добавлено отключение контекстного меню расширения в процессе получения поисковой выдачи / получения статистики вордстат / сборе новых ключей
- в список XML-сервисов получения данных поисковой выдачи добавлен сервис SERPRiver
- исправлен баг, когда после перезагрузки браузера терялись все ранее собранные запросы
Подробнее: https://wordclusterer.ru/
2👍9🔥2🤝1
Теперь все дело в видимости ИИ
Новая статья на сайте про новые реальности продвижения сайтов.
Прошли те времена, когда ключевые слова и обратные ссылки - это все, что необходимо для получения трафика и позиций... https://site-analyzer.ru/articles/about-the-ai-side-of-seo/
Новая статья на сайте про новые реальности продвижения сайтов.
Прошли те времена, когда ключевые слова и обратные ссылки - это все, что необходимо для получения трафика и позиций... https://site-analyzer.ru/articles/about-the-ai-side-of-seo/
👍9
Всем привет!
Сегодня хочу поделиться постом от моего хорошего товарища и нашего коллеги по SEO-цеху Dr Max о трех законах Мерфи для LLM.
Читаем, лайкаем, высказываем мнения и подписываемся на его Телеграм-канал!
Сегодня хочу поделиться постом от моего хорошего товарища и нашего коллеги по SEO-цеху Dr Max о трех законах Мерфи для LLM.
Читаем, лайкаем, высказываем мнения и подписываемся на его Телеграм-канал!
👍3