О SEO по делу - Блог о SEO оптимизации
109 subscribers
15 photos
35 links
Канал о SEO. Статьи, новости, хаки.

По всем вопросам @biryukovartem

Сайт - https://biryukov-seo.ru/
Download Telegram
to view and join the conversation
А теперь о реальных разработках Google.

На конференции Google IO, Вице-президент Google Прабхакар Рагхаван презентовал новую технологию "Multitask Unified Model" (MUM). Это нейросеть похожая на BERT, но в 1000 раз мощнее. С ней Google сможет ещё лучше понимать сложные поисковые запросы. Причем модель уже понимает информацию в тексте, изображениях, а в будущем будет работать с информацией в видео и аудио форматах.

В презентации автор указал на наличие сложных интентов, которые могут требовать несколько поисковых сессий для их решения. По подсчётам Google в среднем пользователю нужно 8 поисковых сессий чтобы решить такую проблему. С MUM Google намерен сократить это число.

Примером сложного запроса в презентации служил запрос "я уже поднялся на гору Адамс, и теперь хочу взойти на гору Фудзи следующей осенью, что нужно сделать чтобы подготовиться?".
Вооружившись MUM, в ответ на такой запрос Google предоставит информацию о различиях между горами, о том какое оборудование потребуется и тд.

По информации в блоге Google, они уже начали внутренние тесты MUM и результаты впечатляют.

Подробнее можно почитать в блоге Google https://blog.google/products/search/ai-making-information-helpful-io/

И статье https://www.google.com/amp/s/searchengineland.com/google-previews-mum-its-new-tech-thats-1000x-more-powerful-than-bert-348707/amp
Получить данные Яндекс Метрики по поисковым запросам, по которым пользователи переходили на конкретный URL всё еще возможно.

К сожалению не так просто как ранее, т.к. сейчас метрика показывает только те запросы, по которым было более 10 визитов за выбранный период (https://yandex.ru/blog/metrika/34). Для этого потребуется воспользоваться API, но не простым API метрики, а Logs API - https://yandex.ru/blog/metrika/vygruzhayte-syrye-dannye-iz-metriki-cherez-logs-api.

👉 Пример данных, которые я забрал из API (период 7 дней, на скриншоте лишь часть данных) - http://joxi.net/YmE9vMVhw1lddm.

Слева данные в интерфейсе метрики (если это можно назвать данными), справа данные импортированные мной из Logs API в Google Data Studio.
Рядом с каждым запросом указано число визитов. Наглядно видно, что в данном случае нет ограничения по 10 визитам на запрос.

Я не даю инструкцию по использованию API, лишь рассказываю о возможности получить такие данные, т.к. вы можете обратиться к API с помощью разных языков программирования, или вовсе через запросы в браузер. А быть может не самостоятельно, а дадите задачу вашему разработчику 😉

Кстати, не забывайте про более простой вариант получить подобные данные в вебмастере (Вебмастер - поисковые запросы - управление группами). Там тоже можно посмотреть данные по URL http://joxi.ru/EA4XVoNho8lJgA. Да, фильтр тут не идеален, т.к. не хватает регулярок, но в некоторых случаях позволяет получить необходимый результат, к тому же показывает запросы по которым были показы, но не было кликов.

P.S. Я использовал Python (Библиотеку для всех API Яндекс Метрики https://github.com/pavelmaksimov/tapi-yandex-metrika/ и библиотеку для API Google Sheets https://github.com/nithinmurali/pygsheets, чтобы отправить данные в Google таблицу, а затем загрузить данные в Google Data Studio).

Документация Logs Api тут https://yandex.ru/dev/metrika/doc/api2/logs/intro.html.

P.S. На скриншоте есть момент где поисковая фраза "фахверк каркас купить" повторяется - это не ошибка группировки данных (см. в столбец "поисковая система", это переходы с разных источников).
Делюсь мини-хаком.
В своей работе периодически анализирую контент страниц выключая JS и CSS (например, чтобы быстро оценить какой контент точно будет проиндексирован ПС или при проверке внедрения каких-либо технических рекомендаций).
В некоторых случаях SVG графика мешает процессу. Например можно наблюдать такую картинку в браузере - http://joxi.ru/n2YZjx8hbllOeA.

Да, такое встречается не очень часто, но однажды мне это надоело и я написал JS букмарклет, удаляющий SVG со страницы. Сегодня я решил поделиться им с вами.

Однако, если вы, как и я захотите анализировать контент страницы с выключенным JS - букмарклет не сработает (ему требуется JS).
Но если вставить код букмарклета в консоль, то он отработает даже при выключенном JS. Демонстрация для примера - https://recordit.co/wQ7emqjRlE.

Ссылка на букмарклет - https://clck.ru/V53YV
Короткая история из опыта.
Занимался продвижением одного Российского бренда с названием на латинице. Разделы и товары сайта содержали бренд в названиях и заголовках. Сайт имел положительную динамику, но рос неохотно.
Было обнаружено, что в силу того, что бренд российский и не имеет проблем с произношением/написанием на русском, его частотка на РУ в разы превышает частотность на англ (соотношение 7/1).
Было решено не просто добавить вхождения ру-бренда в заголовках, но и заменить бренд в названиях товаров на его ру-эквивалент, не смотря на то, что "Правильным названием" является англ.
После чего сайт пошел в значительный рост и по разделам и по карточкам товара. Кроме этого ТЗ включало употребление ру/англ вхождений в других зонах документа, но эта часть ТЗ еще не выполнена.
На скрине % в ТОП-5 Яндекс МСК (~1500 запросов в ядре).

Пусть это будет моим небольшим камушком в огород тех, кто говорит "ПС умные и понимают, что это бренд и не надо добавлять альтернативных названий для брендов".
Пересмотрел пару видосов о текстовых факторах ранжирования (далёкий 2013 год).

Вот эти:
https://youtu.be/cXgH9dstwTw
https://youtu.be/BGH5LMP1aSE

Да, это старые видео, 2013 год, но как приятно их смотреть.
Пусть это базовая информация, но она достаточно точная. Ламповая атмосфера, ребята общаются за SEO без промоушена всяких курсов, никакой инфоцыганщины, чистый кайф.
Если вдруг кто-то не смотрел - посмотрите =).
Даже из информации 2013 года можно найти для себя пользу, в зависимости от вашего текущего уровня конечно же.
Да и в целом освежить базовые знания всегда полезно.
Продвижение в Яндекс с каждым годом всё интересней😄
Вчера был очередной АП изрядно потрепавший некоторые сайты.
Примеры на скриншотах. Ну красота же, а не графики 👍
Мои руки всё никак не доходили до побаловаться с Google indexing API.
А у автора канала https://t.me/drkwng вышел неплохой эксперимент. Делюсь с вами.
И главное всё это легко можно повторить по инструкции описанной в другом посте канала https://t.me/drkwng/17.
Forwarded from Drkwng Data 🐥
Шоломки ✡️ Тут созрел еще пост про Google Indexing API в дополнение к предыдущему. В этот раз без кода☺️

Провел небольшой эксперимент для изучения, насколько быстро Googlebot реагирует на запросы в Indexing API...

API для отправки на индексацию URL использую давно, но всегда мучали мою маленькую лысую голову 3 вопроса:

1️⃣ Как быстро бот заходит на страницу после отправки запроса через API?
2️⃣ Какое среднее время попадания отправленной страницы в индекс Google?
3️⃣ Переходит ли бот по 301 редиректам при подобной отправке, а именно, междоменным редиректам?

Для этого я взял 10 разных доменов живых сайтов разного уровня, которые уже есть в индексе Google. На каждый сайт залил по 4 .html файла с кодом шапки сайта и сгенерированным контентом на основе сниппетов выдачи Google по содержимому <h1> тега главной страницы каждого сайта в качестве поискового запроса. Естественно, html файлы и генерация контента руками не делались. После составил различные сценарии 301 редиректа в .htaccess каждого сайта для проверки, как бот следует по редиректам в рамках домена и за его пределами.

У всех сайтов включено логирование запросов, ведь именно по логам сервера планировал вычислять путь Googlebot. Отмечу также, что все файлы изолированы и на них можно было перейти только по прямому или заданному редиректному URL.

Ну а теперь ответы на вопросы, которые мучали меня:

1️⃣ Скорость захода Googlebot после отправки запроса через API:
На всех 10 сайтах бот зашел на URL в течение 1 минуты после отправки запроса.
Попадание: 30 из 30

Стоп, у нас 10 доменов, по 4 html заглушки на каждый... 10*4 = 30??? Никак нет, мой юный Эркюль Пуаро, тебе не показалось. В п.3 я вскрою все карты.

2️⃣ Скорость попадания страницы в индекс Google после отправки запроса:
- 22 из 30 документов попали в индекс в течение 10 минут (точнее определить не удалось из-за ограничений в скорости сбора данных на моей стороне), еще 3 документа появились в индексе в течение рабочего дня.
- 5 документов на 4 доменах так и не появились в индексе.
Какие выводы можно сделать? Возможно, не совсем качественно сгенерированный контент (в рамках одного домена текст для всех html генерился по одному паттерну, просто слегка перемешивался) или какие-то другие факторы, которые мог упустить из вида. В любом случае попадание в индекс большинства документов считаю показательным.

3️⃣ Следует ли бот по внутренним и междоменным редиректам к конечному URL?
На каждом домене на один из html можно было попасть только по редиректной ссылке с другого домена.
Основываясь на логах сервера, Googlebot не перешел ни по одному из междоменных редиректов, хотя заход на "редиректящий" URL был в 100% случаев.

На другой html вел внутренний редирект (в рамках домена). Бот без проблем перешел по URL с редиректом и проследовал к конечному URL, добавив документ в индекс (с поправкой на данные из п.2).

Подведем итоги:
- Бот заходит сразу после отправки запроса.
- Добавление документа в индекс происходит почти сразу. В некоторых случаях документ залетает в течение дня и совсем редко не залетает вообще (чуть более 10% от тестовой выборки).
- Бот ходит по редиректам в рамках домена и не ходит по междоменным редиректам вообще😒

Напоминаю, что в прошлом посте описал инструкцию и принцип работы модуля для отправки в индекс Google URL через API (ссылка на GitHub).

Буду рад замечаниям/предложениям или просто "норм" в комментах. А кто сделает шер-алишер или кинет другу, у того самый красивый гипоталамус. Чирик!🐥

#seo #googleAPI
Краулинговый бюджет в Яндексе или старайтесь не совершать технических ошибок если он вам дорог.

Ситуация примерно следующая.
Где-то год назад на одном из сайтов при внесении правок косякнули и засунули во внутреннюю перелинковку комбинации ЧПУ фильтров не существующих на сайте и плюсом ко всему сервер отдавал по ним 200 ответ. Ошибку исправили (ссылки убрали, настроили 404) но Яндекс успел накушаться таких страниц сполна (сотни тысяч).
Ссылок на эти страницы 100% нигде нет. Но вот прошел уже год и Яндекс до сих пор бегает по этим страницам. И ладно бы с десяток в день. Нет, он обходит их тысячами.
Откуда он их берет? Они хранятся в базе Яндекса.
Google тестирует показ рейтинга продавца в сниппетах органического поиска.

https://twitter.com/rustybrick/status/1442557400167313411?s=19

Если не знаете о каком рейтинге идет речь - https://support.google.com/google-ads/answer/2375474?hl=ru

P.S. Аналогия в Яндексе - вывод рейтинга магазина в Яндекс маркете (2-ой скрин).
НеВлияние HTML верстки на SEO.

Да, я не ошибся в заголовке.
В Twitter-е я наткнулся на вопрос в адрес Джона Мюллера, который подтолкнул меня на написание данного поста.
https://twitter.com/F5WebStudio/status/1445328396414771204?s=20

Сейчас говорю на собственном опыте, приветствую комментарии за и против.

К сожалению или к счастью влияние верстки на SEO слишком мало, чтобы заострять на ней внимание и тратить на неё много времени и бюджета. Поправить критичные ошибки, типа незакрытые теги - это ОК и этого в большинстве случаев достаточно.

Если бы вы имели дело с парсингом контента и попытками его разбора, анализа, классификации на большом объеме данных, то увидели бы, что теги HTML практически не играют здесь роли. Потому что все верстают как им вздумается и стоят при этом в топах. Даже если бы поисковые системы хотели бы использовать какие-то каноны верстки в ранжировании, то не смогли бы это сделать в силу описанных обстоятельств. Во всяком случае дать этим факторам высокие веса не выйдет без потерь качества выдачи.
👉 Анонс инструмента которым в будущем планирую поделиться с вами.

Некоторое время назад наткнулся на инструмент, который презентовал Lee Foot на конференции BrightonSEO.

Его пост https://twitter.com/LeeFootSEO/status/1441396837961789440 (в нём есть инфа по инструменту и презентация. Всё на английском).

Инструмент написан на Python и показался мне интересным. Я думаю сделать его аналог под рунет.

В чем смысл инструмента

Данный инструмент позволяет быстро накидать черновую структуру интернет-магазина на основе названий товаров в его категориях, учитывая при этом количество товаров (что важно, не будут предлагаться категории, в которых получится менее N товаров).

Всё что нужно, это подготовить выгрузку товаров и разделов каталога специальным образом.
Автор скрипта использует для этого данные парсинга Screaming Frog.

Чуть подробнее👇
Из полученной выгрузки берутся названия товаров, из них вытаскиваются частотные n-граммы.

На примере:
------------------------------------------------
Допустим у нас в разделе "Акриловые ванны" есть N товаров "Акриловая ванна 170х75 Roca Eazy + модель(набор цифр и букв типа ZRU9302899)".
Из них получится список n-грамм
ванна
акриловая ванна
акриловая ванна 170х75
акриловая ванна roca
акриловая ванна roca eazy
и тд.

После чего полученные n-граммы сравниваем с названиями товаров, выкидываем лишние, где товаров с вхождениями меньше N.
Полученный после такой чистки список n-грамм сравниваем с названием раздела чтобы оставить только подходящие под исходный раздел.
Снимаем WS, удаляем нулевики и получаем таблицу вида: http://joxi.ru/J2bDjqeS0KYxdr

Надеюсь понятно разъяснил =)
------------------------------------------------

- Чем этот инструмент хорош? Ведь есть альтернативы, например можно спарсить структуру конкурента.

Он хорош тем, что подстроится под ваш текущий каталог товаров. Он не предложит создание страницы, если у вас нет подходящих товаров.

- В чем минусы?

Подойдет не для всех тематик.
Если названия товаров на сайте неинформативны, то ничего не выйдет.
Интересный инструмент? Использовали бы в работе?
Anonymous Poll
33%
Не интересно
67%
Интересно, опробовал бы
В 10-11 числах октября прошел апдейт в Яндекс, который для многих оказался незамеченным.

Но на него стоит обратить внимание.

Итак в этот апдейт некоторые сайты без видимых на то причин потеряли в позициях по всему ядру примерно минус 30 позиций. Выглядит как фильтр, не правда ли?
В ответ на вопрос в чем дело ТП Яндекса отвечает письмом примерно с таким содержанием:

Одной из главных целей нашей компании является предоставление пользователю наилучшего ответа на его запрос. При этом мы не хотим, чтобы пользователь подвергал себя опасности, зайдя на потенциально опасный сайт из поисковой выдачи.
Мы регулярно получаем жалобы от пользователей на то, что ваш сайт может быть связан с разного рода недобросовестными действиями. По этой причине алгоритмы были вынуждены понизить его позиции в поисковой выдаче.

Такие фильтры и письма от ТП прилетают не каким-нибудь дорвеям, а в том числе белым бизнесам.

И что же это такое?
Тут нет речи об опасных файлах на сайте. Это не кликджекинг или наличие вирусов. Во всяком случае если судить по содержимому ответов Яндекс.

Пока что я воздержусь от комментариев в связи с малым количеством информации по ситуации, но если коротко - это похоже на деятельность алгоритма Проксима.
Надеемся на откат изменений💩


upd.
Если интересны гипотезы, в SEO.MSK начали обсуждение на эту тему
https://www.facebook.com/groups/seo.msk/posts/3014875785446992/
https://www.facebook.com/groups/seo.msk/posts/3014855958782308/
Многие уже слышали, что Яндекс и Bing запустили IndexNow

https://webmaster.yandex.ru/blog/indexnow-teper-poiskovye-sistemy-mogut-momentalno-uznavat-ob-izmeneniyakh-kontenta-na-sayte


Накидал скрипт на Python для отправки запросов на индексацию.
Закинул на GitHub - https://github.com/Kataklizmm/indexNow

Качаем файлы, закидываем в папку. В этой же папке создаем файл index.txt.
В него закидываем урлы (по одному в строке до 10 000 адресов) домена, для которого хотим отправить запрос.
Запускаем скрипт indexer.py и следуем инструкциям в скрипте.

У вас должен быть установлен python.
Если нет, качаем здесь https://www.python.org/downloads/
(При установке обязательно нажимаем галку возле "Add to PATH".)
Наблюдение по "криворукости" алгоритма удаления из поиска страниц как "Малоценная или маловостребованная страница".
Возможно многие этого не замечали. Но я заметил и этот факт меня дико раздражает.
Если страница удалена из поиска как "Малоценная или маловостребованная страница" и в течение периода вы эту страницу с сайта удалите, то Яндексу плевать на то, что данной страницы давно нет на сайте. И если алгоритм подумает, что настало время для этой страницы и пора бы её вернуть в поиск, он это сделает, несмотря на то, что страницы давно нет на сайте.

Внимание на дату последнего посещения - http://joxi.ru/J2bDjqeS0K9X6r.
Это фильтр по конкретному URL - http://joxi.ru/bmo0jgoh3PJxz2. Смотрите как красиво Яндекс швыряет страницу в индекс и из индекса ни разу не проверив её отклик (она 404).

Мнения коллег по вопросу можно почитать тут https://www.facebook.com/groups/seo.msk/posts/3035287906739113/

Из приятного - Михаил Сливинский обратил внимание на проблему.