SEO ТРЕНД
2.01K subscribers
63 photos
1 video
95 links
Канал Андрея Джилавдарова. Пишу про баяны, для тех, кто все и так знает. Админ @seotrend Youtube https://www.youtube.com/@seotrend
Download Telegram
Что революционного произошло в Google в последнее время?

Вот вам стык технической оптимизации и поведенческих факторов, встречаем новый отчет об основных интернет-показателях в панели Search Console.

По факту Google теперь смотрит не только, как страничка загрузилась, но и как с ней взаимодействует пользователь.

Отчет состоит из трех метрик:
1. Время отрисовки основного контента (LCP).
2. Задержка после первого ввода (FID).
3. Совокупное смещение макета при отрисовке (CLS).

Почему это стало возможным?

Потому что google полностью отказался от старой версии 41 chroma при обходе страниц, теперь используются версии 80 и старше, а это означает что краулер работает почти как современный браузер с поддержкой более чем 1000 улучшений по сравнению с 41 версией от 2015 года, отсюда и возможность получения таких данных и учет их в ранжировании.
Что мы знаем о коммерческих факторах в Яндексе, в частности, об ассортименте?

Для начала хочу сказать, что:
1. "Комерческость" и "информационность"- это свойство документа, а не хоста в целом.
2. "Коммерческость" и "информационность" - это две независимые друг от друга метрики. Документ может быть одновременно и коммерческим, и информационным.

Алгоритм определения коммерческости был обучен на интернет-магазинах, поэтому поиск оценивает основные вещи, присущие страницам интернет-магазина. Вот почему уже давно многие сайты по услугам выглядят, как витрины интернет-магазинов.

По коммерческим факторам было создано много мануалов и матриц. По хостовым факторам доверия и качества услуг все всё уже поняли - нужны контакты, информация о компании, доставке, акциях и т.д. А вот про ассортимент обычно пишут, что он должен быть и все.

Давайте посмотрим на какие базовые характеристики в отдельном документе поиск обращает внимание по ассортименту, и, как это завязано на оптимизацию.

1. Цена. Если это товар или услуга, значит ее можно купить/заказать, значит на страница должна быть цена с обозначением валюты.
2. Корзина или форма заказа. Если на странице можно что-то купить или заказать, значит на странице должна быть ссылка на корзину или форму заказа, причем, желательно с коммерческим паттерном в URL.
3. Фото. На всех приличных магазинах есть фото. Страница оценивается на количество фото и качество этих фото, уникальность роли не играет.
5. Ссылки на корзину. Оценка количества анкоров ссылок ведущих в корзину или на форму заявки для сайта услуг: "купить", "в корзину", "заказать", "заказ".
6. Отношение количества коммерческих ссылок (на карточки товаров, теги, категории, фильтры) к количеству исходящих всего.
6. Оценивается отношение объема текста (plain-text) к объему всего текса на странице, а также оценивается отношение объёма ссылок к объему текста всей страницы.

Оценивается и ряд других метрик, но нам сейчас они не нужны.

Исходя из этого значение имеет:
• Размер листинга. Он должен соответствовать пороговым значениям листингов в топе.
• Полнота сбора ядра. Даёт дополнительные исходящие ссылки на теги из листинга, а также на станицы из меню сайта.
• Перелинковка. Это дополнительные исходящие ссылки на коммерческие страницы.
• Размер текста на листинге. Это не относится к ассортименту, но в случае, если ни у кого нет текста, а у тебя есть, можно не зайти в диапазон допустимых значений по словам в plain-text.

В следующий раз я расскажу, как правильно оценивать ассортимент на разных типах интернет-магазинов и, как оптимизировать листинг в последствии. Также расскажу, как из ассортимента сделать хорошую структуру и что такое запросный индекс.

Вот пример того, что и как оценивает поиск (по одному ключу в мебельной тематике). http://joxi.ru/5mdO735FeDBPJr
Все уже давно догадывались что Google определяет релевантность по запросу не страницы в целом, а только части контента на странице.

Вот теперь можно посмотреть, как это реализовал сам Google, правда посмотреть можно это только для запросов по которым показывается Featured Snippet. Тут мы видим наглядно работу алгоритма BERT. Он призван находит точные ответы на вопросы и выводить их в Featured Snippet, такое решение позволяет всем устройствам с голосовым поиском без экрана получать хорошие ответы на запросы пользователей.

Причем конечный url при таком переходе формируется по маске URL страницы + текст запроса

Пример - https://www.windowscentral.com/1080p-vs-1440p-vs-4k-which-should-gamers-go#:~:text=4K%20is%20considered%20the%20true%20successor%20to%201080p.&text=Most%201080p%20screens%20are%2060Hz,higher%20resolution%20than%20Full%20HD.
Как проспамить хлебные крошки чтобы в выдаче появилась такая красота?

Все просто, нужно сделать на каждой странице якорную ссылку на часть контента, и указать разметку breadcrumbs shema.org для нашей якорной ссылки.

Вот так выглядит код разметки - http://joxi.ru/Vm6OQRlFjGG8q2

Причем обратите внимание что все уровни в разметке хлебных крошек кроме последнего ведут на главную страницу, а последний уровень ведет на нашу якорную ссылку.

Вот так выглядит код крошек на странице - http://joxi.ru/5mdO735FeDDO5r

Можно делать, но учтите, что за это могут прилететь санкции.
По мотивам моей презентации https://drive.google.com/file/d/1tz_WoHbojETH6vmlZovrwexfGXIweqag/view

Выкладываю табличку по работе с семантикой https://docs.google.com/spreadsheets/d/1SfV3G8TaAPh1hi9jD5d5qihRgJStGef1b3OLM6YTvUw/edit#gid=0

В таблице мануал по сбору ядра и дальнейшей работы с ним.

И обучающее видео https://www.youtube.com/watch?v=lA_846Z3eAc&feature=youtu.be

В видео есть не все шаги по таблице, но оно наглядно показывает важные шаги при работе и оно было сделано для внутреннего пользования поэтому не судите строго:)
Очень многие пользуются сервисом проверки ссылок CheckTrust, но до конца не понимают как это вообще работает и стоит ли доверять сервису и если стоит то где?

Для начала нужно понять, что такое Траст сайта и Спам сайта. Алгоритм TrustRank был разработан в Стэндфордском Университете разработчиками Yahoo Zoltán Gyöngyi и Hector Garcia-Molina для того, чтобы отделить полезные странички от вебспама. Подробнее можно прочитать в самой статье Combating Web Spam with TrustRank http://www.vldb.org/conf/2004/RS15P3.PDF

Для того, чтобы измерить траст сайта, нужно иметь размеченную выборку сайтов, и посчитать количество переходов от размеченного трастового сайта до исследуемого сайта. Чем меньше переходов, тем больше будет у исследуемого сайта траст. Этот показатель не играет большой роли при поиске подходящих площадок.

Теперь разберемся какие критерии ссылочной спамности площадки можно выделить.

Первая составляющая спамности — это исходящие ссылки. У сайтов, активно продающих ссылки, количество разных доменов на которые он ссылается больше или равно количеству страниц самого сайта. Вторая составляющая — это входящие ссылки сайта донора.

Если на сайт донора стоит большое количество seo ссылок, то велика вероятность, что донор или уже зафильтрован, или будет зафильтрован в будущем. Таким образом, у неспамного сайта соотношение ссылающихся различных доменов к количеству страниц сайта намного меньше единицы и в анкор листе нет seo ссылок. Сегодня в открытом доступе не существует сервисов, позволяющих достоверно определять эти показатели.

Можно ли доверять сервису?

По показателю спама сервису можно доверять только от части. Checktrust.ru учитывает общее количество исходящих ссылок с сайта донора, количество ссылок на уникальные домены, количество проиндексированных страниц сайта донора, общее количество входящих ссылок и количество входящих ссылок с уникальных хостов на сайт донора, но не учитывает сеошность его анкор листа. Т.е. сервис может хорошо показать уровень спамности площадки, но только по части исходящих ссылок.

Для более адекватного понимания нужно посмотреть анкор лист каждой найденной площадки вручную на наличие seo ссылок. А вот показатель Trust в сервисе не дает никакого представления об эффективности площадки.

Сервис checktrust.ru пытается построить свой показатель Trust Rank на основе собственной выборки хороших сайтов, при этом мы не знаем по каким критерием отбираются сайты. Люди часто путают Trust Rank и Page Rank, но это далеко не одно и тоже. Вес от страниц с высоким Trust Rank может быть в разы ниже, чем с низким и наоборот.
Куда утекает Page Rank?

На предложение поставить ссылку на мой сайт, мне неоднократно отвечали: «Ссылку на ваш сайт мы поставить не можем, вес утечет, и мы провалимся в ранжировании.»

И вот сидишь и думаешь.. Какой вес? Куда утечет? Как они упадут в выдаче? 😊

Но тема с утеканием веса встречается регулярно, даже от, казалось бы, уже не новичков. Давайте посмотрим, что и куда утекает.

Во-первых, нужно понять, что такое Page Rank. По сути, это вероятность, с которой блуждающий пользователь может оказаться на странице, если число его переходов устремить в бесконечность.

Классическая формула:
PR(A) = (1-d) + d (PR(T1)/C(T1) + ... + PR(Tn)/C(Tn)) , где
d — это вероятность перехода по ссылкам,
d (PR(T1)/C(T1) + ... + PR(Tn)/C(Tn)) – это матрица переходов.

PR это динамическая система. Для PR конкретной страницы учитывается только вес входящих ссылок на каждой итерации и не учитывается, сколько стоит исходящих со страницы.

Есть зависимость только от того, сколько веса будет передано каждой ссылке со страницы, при этом вес самой страницы не меняется, он никуда не утекает. Страница может раздавать вес другим страницам, при этом не терять свой вес.

Т.е. вес может уменьшиться только в том случае, если мы уберем внешнюю или внутреннюю ссылку на нашу страницу. А если мы поставим ссылку с этой страницы, то с весом страницы ничего не случится.

Во-вторых, очень часто при расчете PR используют Миниранк, который не заменяет значение PR страницы на новое при следующей итерации, а прибавляет к нему старое. Здесь действительно вес утекает со страниц. Отсюда и ошибка в понимании.

Чтобы подробней представить, что такое матрица переходов и вектор вероятности перехода, можно почитать тут https://habr.com/ru/post/439332/ Прочитайте раз сто и всё станет ясным!

Практическое использование PR для перелинковки страниц на сайте мы обсудим в следующий раз.
Почему геозависимость - хороший маркер коммерческости в Яндексе.

Начинаю серию постов о связи геозависимости, коммерческости и поведенческих факторах, а также о том, как можно оценить коммерческость запроса на выдаче.

Давайте немного поговорим о связи коммерческости и геозависимости запроса.

Для начала я хочу, чтобы вы посмотрели хронологию формирования алгоритмов учета геозависимых запросов. Яндекс потратил много сил, чтобы правильно определять географию сайтов компаний и локального спроса. Из всех анонсов Яндекса я выделил ключевые алгоритмы и фичи, которые влияют на ранжирование геозависимых запросов.

вот ссылка на хронологию https://goo-gl.ru/6rQL

Хронология представляет собой список с датами запуска новых алгоритмов или нововведений.

Для удобства из каждого анонса я выделил по 1-2 предложения, которые показывают суть изменений в работе с геозависимыми запросами, которые, в подавляющем большинстве, являются коммерческими запросами (из хронологии вы это поймёте сами).

В первой части видно, что Яндекс занимался сбором статистики по запросам, их классификацией по геозависимым и геонезависимым запросам и раскатыванием региональной формулы ранжирования по всей России.

Во второй части видно, что Яндекс, на основании собранных данных, выкатил 2 фильтра, которые убивали старую школу оптимизации (тексты и ссылки), и далее, на основании этих данных, предлагает взглянуть на оптимизацию по-новому. Вместо спама в текстах и ссылках используется поведение пользователей по геозависимым (коммерческим) запросам. Поэтому коммерческие сайты должны обладать определённым функционалом и элементами, чтобы пользователи хорошо себя вели :)

А с 2017 года, после замены матрикснета новым CatBoost, Яндекс начинает использовать в алгоритме не только ПФ, но и оценки организаций пользователями (т.е. по запросам есть компании с отзывами из нужных регионов), и в будущем все улучшения будут направлены на сбор, обработку и учет реального опыта взаимодействия пользователя с организацией.

Поэтому связка геозависимость запроса, коммерческость запроса и поведенческие метрики по запросу очень тесно связаны между собой.

Я бы сказал так, если у нас есть локальные сайты с различными услугами и товарами, и есть желание пользователя заказать услугу или товар в своём регионе, то выдача получается локальная. Чтобы выдача стала локальной, должны совпасть оба этих фактора. Отсюда вытекает, что запрос, по которому сформирована эта выдача - геозависимый.

Если, к примеру, у нас не будет в регионе местных сайтов, но желание пользователя заказать услугу или товар в данной местности останется, что сделает Яндекс? Скорее всего, по запросу с коммерческим интентом могут появиться предложения из других регионов, или в выдаче будут статьи, но, как только какая-нибудь организация сделает сайт и добавится к этому региону, она сразу получит топ по запросу, так как теперь оба этих фактора есть в наличии.

Ещё существует смешанная выдача, т.е. по запросу есть смешанный интент (часть пользователей хотят купить, а часть узнать, что это такое), в топе могут стоять сайты компаний и статьи. Но, выдача может быть смешанной также и потому, что в регионе мало локальных компаний по этой услуге.

В следующих постах поговорим, о том, как сервисы определяют коммерческость запроса, как можно сделать региональную привязку, какие аномалии в выдаче бывают и что делать в таких нестандартных случаях.
Как можно определять коммерческость запроса?

В предыдущем посте мы разбирали, что коммерческие запросы, это по сути геозависимые запросы, т.е. пользователь по этим запросам хочет увидеть выдачу местных компаний и магазинов, и сделать покупку или заказать услугу.
Поэтому все сайты в выдаче Яндекс помечает регионом из которого пользователь задает запрос, а также выводит в сниппет тексты, максимально отвечающие запросу пользователя, т.е. коммерческие слова (“купить”, “цена” и т.д.) + название товара или услуги.
В итоге, мы можем попытаться определить коммеческость запроса на основании формулы из 3-х характеристик:

1) Запросная.
Информация, которая есть в самом запросе - все слова с маркерными словами (“купить”, “цена” и т.д.) говорят нам, что запрос коммерческий.

2) По сниппету.
Мы можем посмотреть, какие вхождения коммерческих и информационных слов есть в сниппетах сайтов в топ 10 по нашему запросу, и, выделяется ли при этом регион. Нам также важны вхождения маркерных слов и в url страниц из выдачи. Например, в топе стоят одни листинги, у всех в сниппете есть коммерческие слова + в url страниц есть коммерческие маркеры, такие как /catalog/, /product/ и т.д.

3) По хостам и колдунщикам.
Можно посмотреть наличие определённых хостов, которые показывают четкий вектор запроса, например, если в выдаче стоит википедия или агрегатор отзывов.

Также можно смотреть и на колдунщики, они бывают совершенно разными. Я тут спарсил серпы по 48к запросам и у меня получилось найти в выдаче 28 видов колдунщиков. Есть, как коммерческого типа COMPANY, MARKET, FOOD_DELIVERY, так и ифно типа VIDEOS, FACTS, TRANSLATE и т.д. (см. по ссылке https://goo-gl.ru/6rXX)

Как мы знаем выдача бывает смешанная, поэтому важно, чтобы наш сервис показывал не бинарное значение (коммерческий запрос или нет), а показывал оценку коммерческости выдачи (например, от 1 до 10). Иначе можно засунуть в один кластер запросы со смешанным интентом и коммерческие запросы. В результате в топ может зайти только часть кластера.

Вот ссылка на файлик со всеми коммерческими и информационными маркерами в запросах, сниппетах и URL страниц https://goo-gl.ru/6rXU .
Новый пост про привязку региона к папкам без справочника в Яндексе, кому то такая тема зайдет или будет понятно как в принципе это сделать. Текста получилось много, поэтому решил сделать на отдельной странице https://teletype.in/@seotrend/0Vfvq0xxo
Как правильно сделать пагинацию на сайте?

Многие лепят пагинацию на всех типах магазинов, реально не понимая, зачем она вообще нужна. Существует куча мануалов по этой теме, но все они сильно отстали от жизни.

Наш коллега Артём Бирюков написал хороший пост на эту тему. Ссылка на пост https://t.me/seo_insight/2

Но я хочу добавить немного своих мыслей для лучшего понимания проблемы.

1. Пагинация нужна для магазинов, где есть товарный спрос. Это очень важно понять! Позже я сделаю пост про запросный индекс и покажу, как это работает.

2. Пагинация, в идеале, должна уменьшать уровень вложенности карточки товара, поэтому нужно делать ее определенным образом. Для Яндекса важно построить путь от главной страницы сайта до товара, а Google на это пофиг.

3. На магазинах с категорийным спросом можно не делать пагинацию, а делать кнопки "показать ещё". Карточки индексируем через sitemap xml, в коде указываются ссылки только для первого экрана товаров. Тем самым мы перераспределяем вес куда нужно, а страницы товаров используем, как доноры.

4. Яндекс может без проблем скушать все страницы сайта, если у вас стоит Яндекс метрика. А вот для Google надо, чтобы на каждую страницу была реальная ссылка.

5. Для быстрой индексации в Google делают ротатор со всех внутренних страниц на новые товары/теги, а для Яндекс нужно делать только с главной. Ждем, когда придет бот ПС, потом меняем ссылку на новую.

6. Есть делаем страницу "Смотреть все товары", то ее нужно закрывать от Яндекса, а для Google оставлять открытой.

7. Краулинговый бюджет. В Яндексе сайтам до 200.000 страниц не нужно об этом думать вообще. Просто ставим метрику и всё.
В Google можно забить на него и вовсе. Он скушает любой сайт, лишь бы на все страницы были внутренние ссылки. Но можно увеличить скорость индексации сайта, просто навалив внешних ссылок на главную страницу сайта.

8. В Яндексе и Google можно оптимизировать страницы пагинации под другие запросы (не под основные, а по дополнительные для листинга). Схема реализации немного отличатся для разных ПС, но, по сути, на страницах пагинации мы должны сделать возможным прописывать уникальные Title, H1, тексты и анкоры исходящих ссылок.

Надеюсь, что после этого поста вы раз и навсегда разберетесь с пагинацией на своих проектах, и потом будете аргументированно объяснять прогеру и руководителю, почему нам нужно сделать именно так.
Наблюдение за нишей микрозаймов и советы в оптимизации. Пост получился большим, так что снова делаю на отдельной странице. https://teletype.in/@seotrend/fMRdQm6jb
Актуальная сказка для маленьких seoшнигов :)

Когда я анализировал топовые сайты в нише микрозаймов в начале 2019 года, я обнаружил очень интересный момент.

При анализе ссылкам обнаружил, что на сайт https://vzyat-zaym.ru/ вели ссылки с сайта http://185.87.51.49/, перейдя на домен я увидел две папки для Гугла и для Яндекса, в папках были другие папки по месяцам и датам и регионам, в каждой конечной папке по дате было несколько слепков страницы выдачи Яндекса, если посмотреть на рост позиций сайта по key.so то видно что позиции начали расти ровно в том момент, когда на странном домене http://185.87.51.49/ начали появляются папки с этими датами и результаты выдачи по нескольким регионам.

Исторический снимок видимости http://joxi.ru/Y2L3XEBf7gjDgm
Сегодняшнее число http://joxi.ru/KAgx8XdCKgG4Nr

А тут видно что этот сайт очень сильно просел, когда Яндекс боролся с накруткой ПФ http://joxi.ru/brR1lpGIOQo0nA, но сайт победил и он снова занимает хорошие позиции, кстати в выдаче начали крутить его сайт клон https://vzyat-zaym.su/ правда немного поменяли дизайн и он тоже начал появляться в выдаче яндекса.

Раньше в выдаче гугла были почти все эти левые страницы, сейчас осталась одна http://joxi.ru/LmGLE0GUlRzMO2

В общем будете накручивать, закрывайте сразу такие паленые вещи от чужих глаз.
Пару слов, о вчерашнем апдейте в Яндексе http://joxi.ru/MAjy19ZukvN372 :) Ну что тут скажешь, через юзератор сейчас крутить не очень. Я ради эксперимента поставил задание на накрутку подсказок на 600 переходов в месяц в регионе Калуга, в итоге получил всего лишь 33 показов по Wordstat через месяц http://joxi.ru/4Ak7p9aFkMJDeA подсказки правда показывались в самом поиске по региону Калуга, но как только я перестал накручивать, то они пропали, сейчас только одну можно найти по названию домена http://joxi.ru/p27n53vUN0JJ1m.

Выводы: Если крутить подсказки, то они должны быть привлекательными, чтобы люди сами на них кликали. В юзераторе крутить дорого и ботов/исполнителей очень сильно фильтруют, из 600 переходов через подсказки в статистике только 33 показов. А теперь представьте, что такие боты/люди заходят к вам по запросам на сайт и делают скрины для службы поддержки, чтобы им засчитали задание, ну вы поняли в общем.

За что обычно раньше банили по накрутке и усилению ссылок? За то, что одни и те же люди выполняли переходы из выдачи и нажимали на ссылки, сейчас конечно людей или ботов в системе больше (а может и нет), но у них очень стандартное поведение, которое регламентируется в заказе. Но и сейчас никого не банят, просто не учитывают такие переходы и ты скатываешься назад в белое SEO.
Доверяете ли вы людям в соц сетях?

У всех есть свое мнение относительно каждого момента в оптимизации и продвижении сайта, просто кто то выражает его в соцсетях, а кто то нет, многие кто не выражает читает тех, кто это делает.

В двух моих последних постах "Актуальная сказка для маленьких seoшнигов :)" и "Пару слов, о вчерашнем апдейте в Яндексе" можно найти логические нестыковки, когда в первой части поста я рассказываю о чем то, даю примеры, а потом делаю заключение, которые якобы вытекает из примеров.

В первом посте я рассказывал про то, что нашел левый сайт со слепками выдачи по Яндексу и Гуглу и после этого позиции анализируемого сайта начали расти, типо это какой то скрипт по накрутке, но на самом деле это мог быть например скрипт по снятию позиций или просто для других целей. И ничто не мешало крутить ПФ и одновременно снимать позиции по топу. Или сайт зашел в топ без накрутки ПФ. Т.е.из работы этого скрипта не вытекает накрутка сайта, скриншоты с видимостью есть, но они просто показывают видимость, к скрипту и накрутке никакого отношение это не имеет.

Во втором посте я показал скрин из группы юзератора, о том что у чувака упали позиции, и рассказал о собственном эксперименте про накрутки подсказок. После прочтения поста могло сложится впечатления что забанили только накрутчиков, но на самом деле были глобальные изменения в выдаче почти по всем тематикам, и хреновая накрутка подсказок по моему эксперименту и просадка сайта у чувака из группы глобально никак не связано с последним апдейтом. Михаил Сливинский написал, что это работа бандита, но это очень сложно понять если нет картины по всем конкурентам в тематике и можно подумать, что только тебя забанили. http://joxi.ru/v29xWnoCp3kojm

Все это касается и многих SEO кейсов в рунете, когда народ пишет, что мы сделали так и так и у нас все поперло :) Но на самом деле почему поперло конкретно у этого сайта мало кто ответит, в любом агентстве есть чек лист по работам, все делают одно и тоже и есть сайты которые потом выходят в топ и подходят для кейсов и сайты которые просто как то растут, даже если клиент все внедряет, примерная пропорция таких сайтов 1 к 30. На западном направлении все честнее, там либо ты умеешь строить ссылки и у тебя реально все растет, а если не умеешь, то и позиций не будет.

А еще из той же темы, когда сотрудники ПС или крупных сайтов рассказывают, как легко можно сделать оптимизацию на своем сайте и все выйдет в топ.

В SEO очень много мутного и непонятного, все нужно проверять на своем конкретном сайте. Даже если вы читаете супер эксперта всегда нужно очень внимательно следить за его мыслью и доверять не до конца, возможно он ошибается, возможно он транслирует какую то проплаченную точку зрения, возможно он уверовал в какой то культ или у него сейчас проблемы со здоровьем т.д.
Зачем следить за конкурентами и анализировать изменения в топе?

Ранее Игорь Рудник делал пост на тему спам ссылок в тематике свет https://t.me/rudnyk/146. Кто то проспамил главные страницы топ 10 сайтов лидеров по видимости хрумером.

В своем посте Игорь сделал выводы, но не сказал почему просели не все сайты, а некоторые удержались или менее сильно просели. Вот скрин видимости по этой тематике http://joxi.ru/GrqbL9xtGQeaDm на нем видимость по 4 сайтам, видно что 1 сайт по итогу вырос, и 2 сайта упали и еще один остался на примерно том же уровне.
Давайте посмотри, когда начал работать бандит в этой тематике http://joxi.ru/Y2L3XEBfE9k0Dm. Мы видим, что для 3х сайтов он начал работать примерно в одно и тоже время.

И только самый неудачный сайт из этой выборки (розовый), бандит опустил совсем недавно, до этого это был просто медленный спад позиций http://joxi.ru/n2YQkVvFeoL0O2

А вот самый успешный сайт (красный), который в итоге вырос, бандит 3 раза подкидывал, 1 раз вниз, а потом наверх и коррекция http://joxi.ru/52aakZEtk4VOD2
Желтый сайт бандит сначала подкинул и совсем недавно опустил, но мы видим что во все время его видимость была достаточно стабильна.
Синему тоже досталось, один раз опускали, потом подкидывали и затем коррекция на примерно тех же позициях, что и до первого опускания бандита, но обратите внимания, что у сайта также идет медленный спад по видимости, что и у розового.

Что же отличает сайты лидеры (красный и желтый) от сайтов неудачников?

Если смотреть чисто по ссылкам, то мы видим что у самого неудачного сайта на момент проставления спамерами ссылок был очень маленький ссылочный профиль http://joxi.ru/p27n53vUNoM0Xm, а теперь сравните с ссылочном прифилем сайта лидера http://joxi.ru/5mdO735F8kjvPr

Я хочу сказать, что всем сайтам поставили ссылки с одинаковых доменов примерно одинаковыми анкорами, но какие то сайты это переварили, а какие то начали медленно падать, просто потому что у них были разные показатели до залива спама.

Вот как выглядели анкоры ссылок со спам доменов http://joxi.ru/BA0LpWNUpJGBWA т.е. можно подумать что это владелец сайта специально заказал прогон по каталогам :)

Вот анкор лист лузера http://joxi.ru/gmv0q9zi1L7LyA , а вот анкор лист самого успешного http://joxi.ru/n2YQkVvFeoXo72

В итоге мы видим что сайт лузер до проставления на него спам ссылок имел очень маленькую ссылочную массу и небольшое количество ссылающихся страниц с анкорами, а сайт лидер на момент проставления на него ссылок имел уже под 1000 доменов и много ссылающихся страниц с разными анкорами.

Мы видим, что Яндекс хорошо реагирует на хреновых доноров + переспам по анкор листу, и если у сайта изначально не было хороших доноров и не спамных анкоров, то при проставление таких ссылок начинает работать антиспам, у вас могут обнулится все ссылки на сайт и внутри сайта (PR и анкоры).

Для интернет магазинов это критично - с главной странице раздается вес на все продвигаемые внутренние страницы, также большое количество страниц участвует в анкорной перелинковке и если все эти факторы обнулить, то будет очень больно.
Как мы видим для защиты от таких спамных ссылок помог хороший ссылочный профиль, сайт лидера кидало вверх и вниз только благодаря бандиту.

В итоге при таком анализе мы видим, где изменения топа есть благодаря бандиту, а где сайты идут вниз благодаря косякам оптимизации.

Пострадавшим сайтам нужно наращивать хорошую ссылочную массу и поставить сквозные ссылки с анкорами, можно просто бренд сайта для начала, чтобы разбавить анкор лист.

Можно также иметь запасной домен и в случае санкций сделать точно такую же структуру и переехать по 301 редиректу всеми страницами кроме главной, правда при такой схеме должна быть прокладка со всем ссылочным чтобы приклеить ее к новой главной.

Или при создании магазина нужно делать 2 алиаса, которые склеены между собой 301 редиректом постранично, чтобы можно было в любой момент отключить любую страницу с внешними спам ссылками.
Как быстро понять что вы сможете продвинуть сайт в топ в России?

Вот допустим вы оптимизатор в агентстве или фрилансер и вам пришел лид на продвижение, как быстро оценить потенциал продвижения? Ну во первых на проекте нужен программист, который будет вносить изменения на сайт, а во вторых нужно оценить две вещи:

1) Для продвижения в Яндексе нужно посмотреть сколько прямых переходов идет на сайт клиента в месяц и какая частота у брендовых запросов в wordstat.

Если прямой трафик + частотность бренда по 10.000 в месяц, то такой сайт уже можно брать в продвижение, если по 100.000 в месяц, то такой сайт будет вывести очень легко базовыми действиями, а если прямой трафик и бренд будет от 500.000 то можно просто сделать страницы с контентом и прописать тайтлы и будет профит.

2) Для продвижения в Google нужно спросить у клиента сколько у него есть денег на ссылки, от 500 у.е. в месяц можно хотя бы что то придумать, если есть 1000-2000 то можно уверенно продвигать в конкурентных белых тематиках, ну а если есть более 3к в месяц, то с большой вероятностью вы продвините в топ любую тематику.

В общем весь секрет в том чтобы брать клиентов у которых уже есть ядро посетителей, которые по какой то причине уже пользуются услугами компании или магазина и успешно решают свою проблему на сайте. И у которых есть деньги на ссылки. Потом из таких клиентов получаются хорошие кейсы :) Все это актуально, если вы не собираетесь накручивать ПФ в Яндексе, если накручивать, то можно любой сайт вытащить из любой задницы.
Умеем, могем.

Тут на фб наш коллега сделал пост - "Пока нытики старпёры хоронят SEO, мы просто работаем.
Без ПФ, ГМО и прочей хуйни" и приложил скрин с ростом позиций http://joxi.ru/KAgx8XdCKKnxWr

Я ему конечно не поверил сразу полез в топ и нашел этот чудо сайт.

вот домен - pod-pts.ru ему несколько месяцев. к нему ничего не подклеено.

вот исторические данные по видимости в яндекс http://joxi.ru/gmv0q9zi11yqkA и в гугле http://joxi.ru/n2YQkVvFeeGZG2, вот дата регистрации http://joxi.ru/BA0LpWNUpplP3A

Когда вы видите такой рост позиций, это однозначно накрутка ПФ на выдаче. Бывают исключения, это когда нишу начинают крутить, а вы уже стоите в топе частью запросов, тогда возможен рост в топ 10 тех кластеров, где были запросы в топе, так как при существующей методике накручивают весь топ 10 и соответственно клики хорошего качества попадают и на ваш сайт.

Я бы сделал такой текст под фото - Пока нытики старперы крутят ПФ я просто работал и только сейчас я узнал, как работает накрутка у нытиков.
Это не показывают по телевизору.

В последние пару дней в фб все спрашивают - как понять что сайт накручивают? Что делать при накрутке негатива? Как крутить ПФ?

По накрутке, есть три сценария:

1 Вариант - аномальной рост type-in трафика на сайт.
2 Вариант накрутка запрос + url сайта, тупо крутять сайт + запросы.
3 Вариант это клики по сайту из выдачи по запросам без url.

Первый сценарий очень дорогой, сейчас в основном крутят по 2 и 3 сценарию.

Сейчас самый обсуждаемый в кулуарах 3 метод накрутки, он не слишком дорогой и практически безпалевный.

Как правило сейчас накручивают все сайты услуг и сайты под финансовые и страховые партнерки, интернет магазины и агрегаторы не крутят, это не эффективно.

Если вы заметили что конкурент резко начала расти в выдаче, то нужно обратить внимание на несколько параметров:

1) Cделать историческую выгрузку в симиларе и смотреть тайпин трафик, брать интервал 2 года и смотреть когда трафик начал расти.
2) Смотрим в водстате какие домены попадаются с ВЧ запросами. Собираем подсказки по ВЧ запросам, смотрим хистори по этим подсказкам когда они начали появляться, если ли в них домен или часть домена.
3) Смотрим данные по поведенческим по всем сайтам в топ 30 по месяцам, смотрим среднее время на сайт и мобильность чтобы отслеживать тех кто начинает рост в топе, Берем данные из симилара, вот в seowork есть такой модуль http://joxi.ru/Vm6OQRlFvv9LW2 обратите внимание, что по одному домену нет данных, это тоже подозрительно.

Если вы видите, что конкурент начал накручивать, увы вам обычными методами его не догнать, нужно тоже подключать накрутку.

Так же владельцы СМИ, Инфо порталов и других крупных тематических сайтов отмечают за последний год увеличения трафика, он может быть из соц сетей, из яндекса, да откуда угодно, но по факту это все боты.
Просто для третьего варианта накрутки нужно сделать прогрев ботов перед тем, как они начнут кликать на нужные страницы из поиска, прогревают ботов по разным тематикам в зависимости от предпочтений вашей реальной аудитории, как правило это сайты не из вашей тематики, это просто большие сайты по разным тематикам. В результате чего в последнее время WS многих тематик начал пухнуть, такие боты никакого вреда сайту не причиняют, они для другой цели, успокойтесь.

Но если идет целенаправленная атака на сайт, боты заходят по запросам и выходят или проводят 15 секунд и выходят, как с этим бороться?
В целом непонятно, был кейс, когда удавалось показать платону негативную накрутку ПФ на сайт. Брали данные из вебвизора и смотрели откуда идут переходы http://joxi.ru/KAgx8XdCKKq3Nr выяснили что 80% переходов начало идти с одной подсети и все эти переходы было с 90% отказами или 5 секундами на сайте. Затем показали графики позиций и трафика, до такой накрутки и после. Переписка была 3 недели, в итоге яндекс ответил что они это не учитывают и о чудо сайт откатило назад.

Кому нужна помощь по выявлению факта накрутки ПФ своего сайта в негатив или сайта конкурента в топ обращайтесь за платной консультацией, помогу чем смогу.
Легальная накрутка отзывов.

Наш коллега Евгений Молдовану подготовил замечательную статью. Надеюсь, он решил проверить пару гипотез после прочтения моего канала и в итоге у него получилась целая статья: "Яндекс отзывы будут влиять на ранжирование сайта" https://devvver.ru/seo/yandeks-otzyvy-budut-vliyat-na-ranzhirovanie-sajta/

Давайте посмотрим на что отзывы уже влияют и как их накручивают.

Все хотят попасть в карусель по вч запросам в своей нише. Чтобы в нее попасть нужно просто иметь много положительных отзывов и в самих отзывах желательно иметь части запроса.

Вот просто пример http://joxi.ru/V2VNBgETkkjyW2, обратите внимание на карточку, рейтинг 5 и в отзывах есть слова из запроса http://joxi.ru/eAOX7NGTkkB3Yr

Как мы знаем сейчас Яндекс начал бороться с покупными отзывами, одним из критерием реальности отзыва является факт физического нахождения девайса в организации, плюс нужны реальные профили людей и много уникальных девайсов.

А если вы погуглите, то увидите что почти у всех сервисных центров куча отзывов и все они 5 звезд.

Как такое возможно? Все очень просто, посмотрите что мы имеем:

1) Люди приносят свои девайсы в сервисные центры - есть факт реального посещения места/организации, поэтому отзывы с таких девайсов считаются 100% надежными,
2) Много уникальных девайсов и профилей реальных пользователей.

При таком раскладе грех не написать отзыв о своем сервисном центре любому мастеру или владельцу центра.
Всем привет, возвращаемся к регулярным заметкам.

Сегодня продолжим тему отзывов.

Итак, у вас есть много отзывов от клиентов или вы заказали отзывы на биржах копирайтинга. Как их разместить на карточке Яндекс Организации?

Можно попытаться опубликовывать самостоятельно, но часто отзывы не проходят модерацию, что можно сделать?

Лично я публикую отзывы через сервис userator. Заходим в сервис и выбираем "Социальные факторы", тип задания в Яндексе и уже там "Отзыв в Яндекс.Картах (SeoBonus)"

Это работает, потому что отзывы оставляют реальные люди со своих телефонов со всей нужной браузерной историей.

Как показала практика за год использования все отзывы проходили модерацию, так что на сегодняшний день это 100% рабочий инструмент.

Если знаете еще рабочие методы поделитесь в комментариях.