Forwarded from SeoTrend
Тематический NAVBOOST
В продолжении темы Topical Authority
Что такое NavBoost?
Из утечки Google следует, что NavBoost — это механизм, который учитывает пользовательские сигналы (в основном клики и переходы) для корректировки ранга документа.
Например:
long_clicks
badClicks
goodClicks
lastLongestClicks
unsquashed_clicks
nav_freshness и др.
Все это явно связано с идеей популярности, основанной на навигации и поведении пользователя.
Посмотрим на патент US8595225B1 Systems and Methods for Correlating Document Topicality and Popularity
Ключевые идеи в патенте и их связь с модулями в утечке Google:
1. Корреляция топикальности и популярности:
а) Система анализирует документы, сопоставляя их с одной или несколькими темами (topics).
b) Документы получают per-topic popularity score.
📌 Пример:
У Google есть страница про «суши». Она попадает в категорию еда. У неё 500 посещений. Есть другая страница — про «рамэн», она тоже относится к еде, но с 1500 посещениями. Алгоритм сравнивает обе внутри темы еда и ранжирует их по популярности внутри темы.
📄 Цитата из патента:
“The popularity scores and one or more topics associated with each of the visited documents may be correlated to determine a per-topic popularity for each document.”
2. Использование пользовательских действий (навигационных паттернов):
а) Популярность документа определяется по числу посещений, переходов, времени на странице.
b) Учитываются паттерны вроде «короткий клик → возврат» или «переход на другой документ».
📌 Пример:
Пользователь кликает по сайту, но быстро возвращается на выдачу — это сигнал, что страница не очень полезна. Если пользователь надолго остаётся или переходит дальше — это усиливает «навигационную популярность».
📄 Цитата из патента:
“...if users visiting a first document only access a first document for a short period of time... then the second document may possibly be of limited value...”
3. Определение тематики документов:
а) Используются каталоги, справочники, или алгоритмы кластеризации/аннотации.
📌 Пример:
Статья о "парижских ресторанах" будет автоматически отнесена к теме путешествия → Франция → рестораны. Это может быть сделано через анализ каталога или тематического кластера.
📄 Цитата из патента:
“...a directory of documents organized by category may be used to map a topic to each document...”
4. Связь запроса с темой:
а) Запросы тоже маппятся на темы. Это нужно для использования персонализированного скоринга по топикам.
📌 Пример:
Пользователь ищет «лучшие суши в Токио». Система определяет, что запрос связан с темой еда → Япония и применяет popularity score по теме «еда», а не просто глобально.
📄 Цитата из патента:
“Search terms [...] may be mapped to one or more topics...”
5. Изменение ранжирования на основе per-topic popularity:
а) Документ может быть поднят или опущен в выдаче по запросу, если его популярность внутри темы высокая или низкая.
📌 Пример:
Если документ A — один из самых популярных в теме медицина, а пользователь ищет «лучшее средство от аллергии», и этот запрос тоже попадает в тему медицина, то документ A будет «повышен» в выдаче.
📄 Цитата из патента:
“...a document may be boosted within the results of a search using a topic associated with a corresponding search query.”
Таким образом мы видим что Google ранжирует документы внутри тематического кластера, а не внутри всего индекса и нам важно иметь на странице и домене всю семантику которая отвечает тематике а также иметь хорошие ПФ на этих страницах.
Также в теории лучше клеить тематический дроп на ваш основной сайт, так как вместе с ссылочным вы можете получить и тематический ПФ старого сайта.
Тематику документа смотрим тут
P.S. надеюсь эта серия постов будет полезна практикам, а то они как собаки, все понимают а рассказать как это работает не могут.
В продолжении темы Topical Authority
Что такое NavBoost?
Из утечки Google следует, что NavBoost — это механизм, который учитывает пользовательские сигналы (в основном клики и переходы) для корректировки ранга документа.
Например:
long_clicks
badClicks
goodClicks
lastLongestClicks
unsquashed_clicks
nav_freshness и др.
Все это явно связано с идеей популярности, основанной на навигации и поведении пользователя.
Посмотрим на патент US8595225B1 Systems and Methods for Correlating Document Topicality and Popularity
Ключевые идеи в патенте и их связь с модулями в утечке Google:
1. Корреляция топикальности и популярности:
а) Система анализирует документы, сопоставляя их с одной или несколькими темами (topics).
b) Документы получают per-topic popularity score.
📌 Пример:
У Google есть страница про «суши». Она попадает в категорию еда. У неё 500 посещений. Есть другая страница — про «рамэн», она тоже относится к еде, но с 1500 посещениями. Алгоритм сравнивает обе внутри темы еда и ранжирует их по популярности внутри темы.
📄 Цитата из патента:
“The popularity scores and one or more topics associated with each of the visited documents may be correlated to determine a per-topic popularity for each document.”
2. Использование пользовательских действий (навигационных паттернов):
а) Популярность документа определяется по числу посещений, переходов, времени на странице.
b) Учитываются паттерны вроде «короткий клик → возврат» или «переход на другой документ».
📌 Пример:
Пользователь кликает по сайту, но быстро возвращается на выдачу — это сигнал, что страница не очень полезна. Если пользователь надолго остаётся или переходит дальше — это усиливает «навигационную популярность».
📄 Цитата из патента:
“...if users visiting a first document only access a first document for a short period of time... then the second document may possibly be of limited value...”
3. Определение тематики документов:
а) Используются каталоги, справочники, или алгоритмы кластеризации/аннотации.
📌 Пример:
Статья о "парижских ресторанах" будет автоматически отнесена к теме путешествия → Франция → рестораны. Это может быть сделано через анализ каталога или тематического кластера.
📄 Цитата из патента:
“...a directory of documents organized by category may be used to map a topic to each document...”
4. Связь запроса с темой:
а) Запросы тоже маппятся на темы. Это нужно для использования персонализированного скоринга по топикам.
📌 Пример:
Пользователь ищет «лучшие суши в Токио». Система определяет, что запрос связан с темой еда → Япония и применяет popularity score по теме «еда», а не просто глобально.
📄 Цитата из патента:
“Search terms [...] may be mapped to one or more topics...”
5. Изменение ранжирования на основе per-topic popularity:
а) Документ может быть поднят или опущен в выдаче по запросу, если его популярность внутри темы высокая или низкая.
📌 Пример:
Если документ A — один из самых популярных в теме медицина, а пользователь ищет «лучшее средство от аллергии», и этот запрос тоже попадает в тему медицина, то документ A будет «повышен» в выдаче.
📄 Цитата из патента:
“...a document may be boosted within the results of a search using a topic associated with a corresponding search query.”
Таким образом мы видим что Google ранжирует документы внутри тематического кластера, а не внутри всего индекса и нам важно иметь на странице и домене всю семантику которая отвечает тематике а также иметь хорошие ПФ на этих страницах.
Также в теории лучше клеить тематический дроп на ваш основной сайт, так как вместе с ссылочным вы можете получить и тематический ПФ старого сайта.
Тематику документа смотрим тут
P.S. надеюсь эта серия постов будет полезна практикам, а то они как собаки, все понимают а рассказать как это работает не могут.
👍13❤1
@ToCsvBot классный бот для выгрузки в CSV постов с каналов и сообщений из чатов. Для бэкапа инфы и для обхода ограничений на копирование.
Отправляете ссылку - получаете CSV в формате
***
Еще одно применение этой выгрузке (из-за чего вообще стал искать подобный инструмент) - обучить на выгрузке нейронку и задавать ей вопросы, чтобы она давала ответы на основе сообщений из чата (от всех людей или только от нужных)
условно - можно получить своего виртуального %специалист_нейм% и задавать ему вопросы (по мотивам НейроЧекушина)
***
Канал Strong SEO
Отправляете ссылку - получаете CSV в формате
date;message_id;reply_to_msg_id;channel_name;channel_id;sender;sender_id;message;views;comments;reactions;channel_members_count;channel_url;reactions_total
***
Еще одно применение этой выгрузке (из-за чего вообще стал искать подобный инструмент) - обучить на выгрузке нейронку и задавать ей вопросы, чтобы она давала ответы на основе сообщений из чата (от всех людей или только от нужных)
условно - можно получить своего виртуального %специалист_нейм% и задавать ему вопросы (по мотивам НейроЧекушина)
***
Канал Strong SEO
👍10
Forwarded from SEO вебинары Шакина
По каким причинам мои ссылки не индексируются? Как можно проверить наличие ссылки на странице донора и индексабельность страниц? Как повысить эффективность своего линкбилдинга?
24 апреля в 16 по Москве смотрите вебинар Сергея Уткина @seregaseo.
📺 Трансляция на YouTube (жмите "Прислать уведомление", чтобы не пропустить):
https://www.youtube.com/watch?v=498Qy0Ywg4E
🎥 Трансляция в ВК Видео (жмите "Напомнить о трансляции"):
https://vkvideo.ru/video80770238_456241055
🎞 Плейлист "Линкбилдинг" на моем YouTube канале:
https://www.youtube.com/playlist?list=PLS7oN4pFU92sVPa7_VF5aDGtML-hlKnnw
🚛 Мой канал в ВК Видео:
https://vkvideo.ru/@globator
📼 Кроме этого, запись вебинара будет размещена в моем канале на Дзене:
https://dzen.ru/shakin
📹 В моем Rutube канале:
https://rutube.ru/channel/24777621/
🎦 И на Платформе:
https://plvideo.ru/channel/6pja9nQOHAy8
🎙 Мои аудиоподкасты по SEO:
https://shakin.mave.digital/
https://podcasts.apple.com/us/podcast/id1788759743
https://t.me/seopodcasts
Михаил Шакин, @shakinweb
#линкбилдинг@shakinweb
#аналитика@shakinweb
#индексация@shakinweb
#точкироста@shakinweb
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Как повысить эффективность линкбилдинга: инструменты и подходы
По каким причинам мои ссылки не индексируются? Как можно проверить наличие ссылки на странице донора и индексабельность страниц? Как повысить эффективность своего линкбилдинга?
Смотрите вебинар Сергея Уткина.
Телеграм канал Сергея:
https://t.me/seregaseo…
Смотрите вебинар Сергея Уткина.
Телеграм канал Сергея:
https://t.me/seregaseo…
🔥14👍2👎1
Forwarded from SEO отец
До стрима меньше 7 часов, а у меня только появилась обложка.
Кто угадает гостя? По обложке видно — человек семейный)
Кто угадает гостя? По обложке видно — человек семейный)
👍4🔥3❤1😁1
Forwarded from SEO отец
Ладно, тут и без блюра сложно угадать, потому что Серега только начал выходить в паблик, (хотя по подписчикам в канале меня скоро обгонит).
Так что сегодня в 21-00 узнаем, как он так быстро растет, чем занимается и посмотрим свежие видео (ведь наша сео-семья это главное)
https://www.youtube.com/watch?v=QAvJ_bcszjo
Так что сегодня в 21-00 узнаем, как он так быстро растет, чем занимается и посмотрим свежие видео (ведь наша сео-семья это главное)
https://www.youtube.com/watch?v=QAvJ_bcszjo
🔥4
Обновил код скрипта для подсветки рекламы и своих сайтов в SERPе Яндекса
Показал на скринах как он работает
Ссылка на репозиторий: https://github.com/sc00d/yandex_serp_highliter/
Инструкция как пользоваться - там же.
Изменения:
— Адаптирован под изменения в верстке ("₽" вместо "Реклама" и др.)
— Снижена нагрузка на комп
***
Канал Strong SEO
#полезный_софт_и_сервисы
Показал на скринах как он работает
Ссылка на репозиторий: https://github.com/sc00d/yandex_serp_highliter/
Инструкция как пользоваться - там же.
Изменения:
— Адаптирован под изменения в верстке ("₽" вместо "Реклама" и др.)
— Снижена нагрузка на комп
***
Канал Strong SEO
#полезный_софт_и_сервисы
👍17🔥6❤4
Как известно: лучший релиз - тот, который перед длинными выходными!
Обновились диапазоны Googlebot - https://developers.google.com/search/apis/ipranges/googlebot.json
Зачем и кому это может быть нужно - писал тут https://t.me/seregaseo/180
***
Добавлены 6 новых IPv4 префиксов: 192.178.4.0/27, 192.178.4.32/27, 192.178.4.64/27, 192.178.6.224/27, 66.249.64.192/27, 66.249.74.224/27.
Добавлены 6 новых IPv6 префиксов: 2001:4860:4801:30::/64, 2001:4860:4801:3f::/64, 2001:4860:4801:97::/64, 2001:4860:4801:a6::/64, 2001:4860:4801:b0::/64, 2001:4860:4801:b1::/64.
***
Канал Strong SEO
#диапазоныGooglebot
Обновились диапазоны Googlebot - https://developers.google.com/search/apis/ipranges/googlebot.json
Зачем и кому это может быть нужно - писал тут https://t.me/seregaseo/180
***
Добавлены 6 новых IPv4 префиксов: 192.178.4.0/27, 192.178.4.32/27, 192.178.4.64/27, 192.178.6.224/27, 66.249.64.192/27, 66.249.74.224/27.
Добавлены 6 новых IPv6 префиксов: 2001:4860:4801:30::/64, 2001:4860:4801:3f::/64, 2001:4860:4801:97::/64, 2001:4860:4801:a6::/64, 2001:4860:4801:b0::/64, 2001:4860:4801:b1::/64.
***
Канал Strong SEO
#диапазоныGooglebot
👍8😁4🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
1) По просьбе подписчика снял видео как установить скрипт для подсвечивания рекламы и своих сайтов в SERPе Яндекса
2) Обновил код в репозитории т.к. поймал еще одну верстку выдачи Яндекса, там не "Реклама" и не "₽", там "Промо" + другая верстка блоков со сниппетами
3) Скрипт для аналогичной раскраски в Google тоже унес в репозиторий и обновил - снижена нагрузка на комп
2) Обновил код в репозитории т.к. поймал еще одну верстку выдачи Яндекса, там не "Реклама" и не "₽", там "Промо" + другая верстка блоков со сниппетами
3) Скрипт для аналогичной раскраски в Google тоже унес в репозиторий и обновил - снижена нагрузка на комп
🔥12👍8
Интересна тема ПФ и паразитного SEO? Рекомендую канал Павлика Торчкова https://t.me/seo_boost, если вдруг вы еще не подписаны.
Он регулярно выкладывает свои кейсы и наработки на канале. Как минимум канал интересен, потому что автор зарабатывает на партнерках, а не клиентах.
Также Павлик запускает реалити (например - https://t.me/seo_boost/329 где он сделал свой сервис полностью с помощью AI)
Он регулярно выкладывает свои кейсы и наработки на канале. Как минимум канал интересен, потому что автор зарабатывает на партнерках, а не клиентах.
Также Павлик запускает реалити (например - https://t.me/seo_boost/329 где он сделал свой сервис полностью с помощью AI)
Telegram
Манимейкинг, SEO, ПФ | Павлик Торчков🔝
Я Павлик Торчков - олдовый манимейкер из 00-х. Здесь я делюсь лайфхаками по SEO, фишками AI, кручу ПФ и помогаю новичкам заработать в интернете. Так же, немножко лайфстайла.
Накрутка ПФ Яндекс: @topgun_seo_bot
Связь со мной: @pavlik_seo_bot
Накрутка ПФ Яндекс: @topgun_seo_bot
Связь со мной: @pavlik_seo_bot
👍7
1) Обновлены диапазоны Googlebot / https://developers.google.com/search/apis/ipranges/googlebot.json
Зачем и кому это может быть нужно - писал тут https://t.me/seregaseo/180
Отличия в ipv4Prefix
Добавленные префиксы в новом списке:
"192.178.4.128/27"
"192.178.4.160/27"
"192.178.4.96/27"
"192.178.7.0/27"
"192.178.7.128/27"
"192.178.7.160/27"
"192.178.7.32/27"
"192.178.7.64/27"
"192.178.7.96/27"
"66.249.67.0/27"
"66.249.68.160/27"
"66.249.78.64/27"
"66.249.78.96/27"
Удалённые префиксы из старого списка:
"66.249.66.128/27"
Отличия в ipv6Prefix
Добавленные префиксы в новом списке:
"2001:4860:4801:4d::/64"
"2001:4860:4801:57::/64"
"2001:4860:4801:7a::/64"
"2001:4860:4801:7b::/64"
"2001:4860:4801:a7::/64"
"2001:4860:4801:a8::/64"
"2001:4860:4801:a9::/64"
"2001:4860:4801:aa::/64"
"2001:4860:4801:ab::/64"
"2001:4860:4801:ac::/64"
"2001:4860:4801:b2::/64"
"2001:4860:4801:b3::/64"
"2001:4860:4801:b4::/64"
Удалённые префиксы из старого списка:
"2001:4860:4801:52::/64"
***
2) Скрипт по подсветкам в SERP Янддекс
Код в репозитории обновлен, также добавлен универсальный URL-паттерн для применения в расширении (куда вставлять - показал на скрине)
Список изменений:
— Вместо поиска по словам-маркерам реклама определяется по рекламному паттерну в href + классу
Так меньше ложных срабатываний (раньше искалось по "Реклама", "Промо", "₽", но такое встречалось и просто в текстах нерекламных результатов
— Реклама подсвечивается не только в yandex.ru, но с yandex.kz/by/uz/com/com.tr
— Должна решиться проблема у части пользователей Яндекс Браузера, спасибо @neneneneneneneneneneneneenenen
— Убрана ошибочная подсветка органических результатов, при появлении блока "Не найдено слов в тексте"
Когда-нибудь заморочусь и оформлю скрипты как расширение и все будет обновляться автоматически, но пока влом.
#диапазоныGooglebot
Зачем и кому это может быть нужно - писал тут https://t.me/seregaseo/180
Отличия в ipv4Prefix
Добавленные префиксы в новом списке:
"192.178.4.128/27"
"192.178.4.160/27"
"192.178.4.96/27"
"192.178.7.0/27"
"192.178.7.128/27"
"192.178.7.160/27"
"192.178.7.32/27"
"192.178.7.64/27"
"192.178.7.96/27"
"66.249.67.0/27"
"66.249.68.160/27"
"66.249.78.64/27"
"66.249.78.96/27"
Удалённые префиксы из старого списка:
"66.249.66.128/27"
Отличия в ipv6Prefix
Добавленные префиксы в новом списке:
"2001:4860:4801:4d::/64"
"2001:4860:4801:57::/64"
"2001:4860:4801:7a::/64"
"2001:4860:4801:7b::/64"
"2001:4860:4801:a7::/64"
"2001:4860:4801:a8::/64"
"2001:4860:4801:a9::/64"
"2001:4860:4801:aa::/64"
"2001:4860:4801:ab::/64"
"2001:4860:4801:ac::/64"
"2001:4860:4801:b2::/64"
"2001:4860:4801:b3::/64"
"2001:4860:4801:b4::/64"
Удалённые префиксы из старого списка:
"2001:4860:4801:52::/64"
***
2) Скрипт по подсветкам в SERP Янддекс
Код в репозитории обновлен, также добавлен универсальный URL-паттерн для применения в расширении (куда вставлять - показал на скрине)
https://www.yandex.ru/*, https://www.ya.ru/search*, https://www.yandex.kz/search*, https://www.yandex.by/search*, https://www.yandex.uz/search*, https://www.yandex.com/search*, https://www.yandex.com.tr/search*, https://www.ya.ru/search*, https://yandex.ru/*, https://ya.ru/search*, https://yandex.kz/search*, https://yandex.by/search*, https://yandex.uz/search*, https://yandex.com/search*, https://yandex.com.tr/search*, https://ya.ru/search*
Список изменений:
— Вместо поиска по словам-маркерам реклама определяется по рекламному паттерну в href + классу
Так меньше ложных срабатываний (раньше искалось по "Реклама", "Промо", "₽", но такое встречалось и просто в текстах нерекламных результатов
— Реклама подсвечивается не только в yandex.ru, но с yandex.kz/by/uz/com/com.tr
— Должна решиться проблема у части пользователей Яндекс Браузера, спасибо @neneneneneneneneneneneneenenen
— Убрана ошибочная подсветка органических результатов, при появлении блока "Не найдено слов в тексте"
Когда-нибудь заморочусь и оформлю скрипты как расширение и все будет обновляться автоматически, но пока влом.
#диапазоныGooglebot
👍8🔥3❤2
Forwarded from SENIOLIDA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🤮6💩1
Обновлены диапазоны Googlebot / https://developers.google.com/search/apis/ipranges/googlebot.json
Зачем и кому это может быть нужно - писал тут https://t.me/seregaseo/180
Добавлены:
"ipv4Prefix": "66.249.66.128/27"
"ipv6Prefix": "2001:4860:4801:52::/64"
#диапазоныGooglebot
Зачем и кому это может быть нужно - писал тут https://t.me/seregaseo/180
Добавлены:
"ipv4Prefix": "66.249.66.128/27"
"ipv6Prefix": "2001:4860:4801:52::/64"
#диапазоныGooglebot
👍2❤1
В таблице с донорами появилась вот такая плашка.
Какие-то из доменов попали в базу фишинга/malware и т.п. Захотелось найти эти домены.
Ручками проверить можно тут:
— https://transparencyreport.google.com/safe-browsing/search?url=dosuga.net - норм
— https://transparencyreport.google.com/safe-browsing/search?url=samsung-galaxy.mobi - не норм
Быстрое гугление готового сервиса, чтобы массово проверить, ничего не дало (мб плохо гуглил). Посмотрел запросы https://transparencyreport.google.com, увидел адрес API (который используется в самом сервисе, в Google Cloud есть свои API-методы, но у меня нет API KEY для Google Cloud, попросил AIшку накидать скрипт.
Код - https://github.com/sc00d/safe-browsing-google-free-bulk-checker
Я запускаю в Jupiter Notebook. В папке со скриптом нужно создать файл domains.txt откуда скрипт будет брать домены для проверки. В консоли можно следить за выполнением. По окончанию проверки создастся файл dangerdomains.txt со списком плохих доменов.
Может быть полезен при отборе доноров или отборе дропов.
***
Канал Strong SEO
#полезный_софт_и_сервисы
Какие-то из доменов попали в базу фишинга/malware и т.п. Захотелось найти эти домены.
Ручками проверить можно тут:
— https://transparencyreport.google.com/safe-browsing/search?url=dosuga.net - норм
— https://transparencyreport.google.com/safe-browsing/search?url=samsung-galaxy.mobi - не норм
Быстрое гугление готового сервиса, чтобы массово проверить, ничего не дало (мб плохо гуглил). Посмотрел запросы https://transparencyreport.google.com, увидел адрес API (который используется в самом сервисе, в Google Cloud есть свои API-методы, но у меня нет API KEY для Google Cloud, попросил AIшку накидать скрипт.
Код - https://github.com/sc00d/safe-browsing-google-free-bulk-checker
Я запускаю в Jupiter Notebook. В папке со скриптом нужно создать файл domains.txt откуда скрипт будет брать домены для проверки. В консоли можно следить за выполнением. По окончанию проверки создастся файл dangerdomains.txt со списком плохих доменов.
Может быть полезен при отборе доноров или отборе дропов.
***
Канал Strong SEO
#полезный_софт_и_сервисы
👍17🔥4❤1