DrMax SEO
7.4K subscribers
180 photos
1 video
6 files
303 links
SEO фишки от DrMax.
Всё о продвижении сайтов
#SEO #SMM #Google

Автор: тов. DrMax: @Drmax2SEO
Мои книги: https://drmax.su/download
Реанимация трафика: https://drmax.su/works/penalty-recovery
Стратегия ссылок: https://drmax.su/works/link-building-strategy
Download Telegram
🟡 Одна из сотен фишек для анализа причин падения трафика

Я неоднократно уже рассказывал и показывал как анализировать причины падения трафика и купировать их, а вот о такой фишке - не припоминаю чтоб докладывал. Использую при поиске причин падения трафика как в апдейты Гугла, так и в межапдейтный период (например при реструктуризации сайта).

Итак.

1. Идем в GSC, смотрим отчет эффективность и на графике отмечаем дату падения трафа/просмотров. Далее тут же выстраиваем сравнение страниц по периодам (по датам). Желательно брать месяц/два до падения и после падения и сравнивать их.

2. Выгружаем в Excel. На листе "Страницы" считаем в отдельном столбце дельту между столбцами "клики до" и "клики после". Сортируем дельту в порядке возрастания (отрицательные результаты - т.е. падения будут вверху).

3. Отбираем 100-200-300 самых припавших страниц. Нам не нужны страницы с флуктуацией в десяток упавших/выросших запросов. Нужны явно припавшие страницы.

4. Открываем лягушку. Переключаемся в "List -Mode". Импортируем или вставляем руками список припавших страниц и быстренько сканируем их

Нас особо интересуют показатели:
Ответ сервера - если не 200, а 4XX - то возможно страницу грохнули или перенесли на новый адрес, при этом забыли прописать редирект. Это очень часто случается при реорганизации сайта. Или он 5xx - значит что то сломалось на сервере/сайте и нужно срочно чинить. В общем должен настораживать любой ответ, кроме 200.

Тайтлы/дескрипшены/H1 - возможно криво прописаны или сломались или еще чего - проверяем списком - очень удобно.

Объем контента - возможно кто то грохнул контент на странице.

Дату обновления контента (не всегда срабатывает)- если дата обновления контента попадает на период падения - проверяем что там менялось.

Смотрим бегло и иные показатели, которые могут вызвать тревогу.

Собственно прием не хитрый и позволяет отбросить десяток простых гипотез, которые легко автоматизировано проверить и перейти к более сложным гипотезам падения трафика.

Хотел этот (и пяток подобных) приемов для GSC+лягушки показать в последней телеконференции по GSC, но не успел. Может быть потом расскажу.

Сравнивать в Экселе можно (и нужно) не только страницы по падению кликов, но и по показам, позициям и CTR. Так мы соберем дополнительный пул "закапризничавших" страниц и сможем их проанализировать при падении трафика.

Еще раз напомню это только один из сотен простых приемов, которые следует использовать для анализа сайтов при падении трафика.

Попробуйте )))

#DrMax #SEO #Google #PenaltyRecovery
Please open Telegram to view this post
VIEW IN TELEGRAM
🥸 Новости про Клавдию

Есть 2 новости о Клавдии:
1. Амазон вваливает 4 млрд в развитие
2. Начался обширный разговор о "Клавдии 2"

Amazon инвестирует до 4 млрд. долл. в компанию Anthropic. Это соглашение является частью более широкого сотрудничества, направленного на разработку самых надежных и высокопроизводительных моделей фундаментов в отрасли. Наши передовые исследования и продукты в области безопасности в сочетании с опытом Amazon Web Services (AWS) в создании безопасной и надежной инфраструктуры сделают безопасный и управляемый искусственный интеллект Anthropic широко доступным для клиентов AWS.

AWS станет основным облачным провайдером Anthropic для критически важных рабочих нагрузок, предоставляя нашей команде доступ к ведущей вычислительной инфраструктуре в виде чипов AWS Trainium и Inferentia, которые будут использоваться в дополнение к существующим решениям для обучения и развертывания моделей. Вместе мы объединим наши знания и опыт для совместной разработки будущих технологий Trainium и Inferentia".

Учитывая значительный спрос клиентов AWS на Claude, мы также расширяем поддержку Amazon Bedrock. Это включает безопасную настройку моделей и тонкую настройку на сервисе, что позволит предприятиям оптимизировать работу Claude с помощью своих экспертных знаний, ограничивая при этом возможность возникновения вредных последствий.

Разработчики и инженеры Amazon получат возможность создавать на основе наших современных моделей с помощью Amazon Bedrock. Это позволит им внедрять возможности генеративного ИИ в свою работу, улучшать существующие приложения и создавать новые возможности для клиентов во всех подразделениях Amazon.

Организации смогут использовать Claude 2 для решения широкого спектра задач - от сложных диалогов и создания креативного контента до сложных рассуждений и детальных инструкций. Наше лучшее в отрасли контекстное окно на 100 000 токенов поможет им безопасно обрабатывать большие объемы информации, включая технические документы, специфичные для конкретной области, для использования в финансовой, юридической, кодировочной и других сферах.

Предприятия многих отраслей уже работают с моделями Anthropic на Amazon Bedrock. LexisNexis Legal & Professional, ведущий мировой поставщик информации и аналитики, использует специальную, доработанную модель Claude 2 для обеспечения разговорного поиска, глубокого обобщения и интеллектуального составления юридических документов с помощью нового решения Lexis+ AI. Ведущая компания по управлению активами Bridgewater Associates разрабатывает помощника инвестиционного аналитика на базе Claude 2 для построения сложных графиков, вычисления финансовых показателей и создания сводок результатов. Lonely Planet, известное издательство, специализирующееся на путешествиях, после внедрения Claude 2 сократило расходы на составление маршрутов почти на 80%, синтезировав накопленный за десятилетия работы контент для предоставления целостных и высокоточных рекомендаций по путешествиям.

Короче, Клавдии кирдык скоро (наверное). Наилучшим образом (по моему мнению) она работала при обучении. Все эти вваливания денег ни до чего хорошего не доведут (стоит вспомнить сколько компаний скупил Гугл и где они теперь и эти купленные технологии).

#DrMax #Claude
На цифровом кладбище Google пополнение! Утилизированных проектов на данный момент более 240. Компания приняла решение закрыть сервис подкастов.

Google Podcasts появился летом 2018 года и теперь доживает последние месяцы. Смысла в содержании сервиса больше нет, потому что у Google появился потенциально более прибыльный продукт — YouTube Music. Тот самый, который неудобно слушать без подписки, так что оптимизация аудиосервисов будет проведена с выгодой для бизнеса.

Но дело тут не только в деньгах: Google также сильно взволнована популярностью подкаст-направления Spotify и намеревается включиться в борьбу, дабы не оказаться в будущем у разбитого корыта. Чтобы помочь пользователям с переходом на YouTube Music, компания предложит инструмент миграции и переноса RSS-каналов. Фактически, в США останется только один крупный игрок рынка, который все еще разделяет подкасты и музыку по разным приложениям. Судя по устойчивому тренду, Apple Podcasts тоже осталось недолго.
📈 Скажем грозное НЕТ всяким там Бардам

Google анонсировала новый веб-сканер Google-Extended, который позволяет контролировать, могут ли Bard и Vertex AI получать доступ к контенту на вашем сайте.

Если вы не хотите, чтобы на ваших материалах обучались эти ИИ, то достаточно в robots.txt прописать следующее:

User-agent: Google-Extended
Disallow: /

В своем блоге Google отписал так:
"Сегодня мы анонсируем Google-Extended, новый элемент управления, который веб-издатели могут использовать для управления тем, помогают ли их сайты улучшать генеративные API Bard и Vertex, включая будущие поколения моделей, на которых основаны эти продукты. Используя Google-Extended для контроля доступа к контенту на сайте, администратор веб-сайта может решить, стоит ли помогать этим моделям искусственного интеллекта со временем становиться более точными и функциональными".

Вот такие дела.

ЗЫ:
242 из 1000 самых популярных веб-сайтов уже решили заблокировать GPTBot - веб-сканер OpenAI

#DrMax #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🔄 Google использует данные о кликах для ранжирования

Гугл всегда публично отрицал использование данных о кликах для сортировки результатов поиска. Но на слушаниях, которые сейчас проходят в США относительно потенциальных нарушений антимонопольного законодательства со стороны Google, теперь вырисовывается иная точка зрения (см скрин).

Эрик Леман, который 17 лет работал в Google над качеством поиска и рейтингом, показал в суде, что Google использует данные о кликах для ранжирования. Кроме того, Google дал указание не подтверждать эту информацию, чтобы оптимизаторы не могли использовать эти знания для манипулирования результатами поиска.

#DrMax #Google #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
woman-health.xlsx
74.2 KB
💻 Топ100 доменов тематики "Женское Здоровье" из Миралинкс

Посчитал / фильтранул.
Отброшено 2,8 тыс потенциальных доноров.
Основано на выгрузке из Миралинкса, той что выкладывал уважаемый Миша Шакин.

#DrMax #линкбилдинг
Please open Telegram to view this post
VIEW IN TELEGRAM
🟦Bing внедрил отчеты по качеству контента в свой вебмастер

Bing представил отчет об охвате XML-карты сайта в инструментах Bing для веб-мастеров, который является отличным дополнением для владельцев сайтов. Используя отчет, вы можете проверить уровни индексации на основе URL-адресов, отправленных через XML-карты сайта.

Как и Google, Bing предоставляет ряд категорий для исключаемых URL-адресов, включая неиндексированные, перенаправленные, 404 и другие. Но одна из этих категорий действительно поражает - "Качество контента". Поскольку данный показатель сейчас является (наверное) самым важным моментом, на котором должны сосредоточиться вебмастера, понимание того, когда крупная поисковая система считает, что у вас есть проблемы с качеством, и обнаружение этих конкретных URL-адресов — это очень важно и полезно. Про Яшку упоминать не надо )))

То бишь выбрав категорию «Качество контента», вы сможете просмотреть все URL-адреса (из этой XML-карты сайта), которые были помечены как имеющие проблемы с качеством контента.

Благодаря крупным обновлениям алгоритма, оценивающего качество на нескольких уровнях, получение этой информации от Bing потенциально может помочь владельцам сайтов выявить и улучшить контент более низкого качества. А благодаря обширным основным обновлениям Google, обновлениям обзоров, а теперь и полезным обновлениям контента, изучение URL-адресов, помеченных как "низкокачественные", может помочь провести анализ - чего ж там не в порядке.

При анализе информации были обнаружены следующие типы страниц низкого качества:
Короткие и бесполезные посты с вопросами и ответами.
Пресс-релизы уровня Thin Content (малоценные, бесполезные, которые и не должны попадать в индекс из за г-но качества)
Устаревшие/короткие новости
Страницы со списком компаний
YMYL контент недостаточного качества.
Страницы с видео, заполненные рекламой.
Незаполненные профиля пользователя.
и т.д.

Отчет об индексировании — не единственное место, где можно выявить проблемы с качеством контента в инструментах Bing для веб-мастеров. Тоже самое можно увидеть и при проверке определенных URL-адресов и через Site Explorer (с фильтрацией по «URL-адресам с другими проблемами» - т.е. качеству контента). Что интересно, данные между этими инструментами могут не совпадать ( говорят что могут синхронизироваться в течении1–2 дня).

Итак, учитывая большой упор на «качество» со стороны основных поисковых систем, очень полезно покопаться и проанализировать URL-адреса, которые обнаруживают проблемы с качеством.

Совершенно понятно, что данные отчеты никогда не будут идеальными и на 100% верными, но это хорошая затравка для вебмастеров, пытающихся понять проблемы с качеством контента на своих сайтах.

ЗЫ.
заводите себе Бинг Вебмастер и удивитесь тому, насколько он требовательней Гугла.

#DrMax #SEO #Bing #Google #ЛысинаДжонаМюллера
Please open Telegram to view this post
VIEW IN TELEGRAM
October 2023 Spam Update

Вы не ждали, они не спрашивали - идеальные токсичные отношения! 😆
Новый апдейт от Google! Долой спам из выдачи!

Пока можно выдохнуть, вытереть холодный пот и заниматься своими проектами дальше.
Языковая раскатка - турецкий, вьетнамский, индонезийский, хинди, китайский и другие языки. (Здесь должен быть обязательный комментарий Мюллера).

На всё про всё несколько недель Google Search Central Blog
#Google #SEOGoogle #MaxP
🔥 Как я на днях совершенствовал контент

Поскольку я крайне ленив, то решил разработать усовершенствованную методу оптимизации контента, которую успешно применил на днях, затратив при этом минимум времени (по сравнению с прошлыми методами). Распишу пошагово.

1. Подготовка данных
Лезу в GSC-Эффективность, отбираю страницы с большим кол-вом показов и малым кол-вом кликов. Убеждаюсь, что дело не в неоптимизированных мета-заголовках / описаниях (хотя их тоже будем оптимизировать), не в переписанном сниппете в органике. Далее выдираю все ключи из отчета с большим числом показов и малым кол-вом кликов. Можно ориентироваться и на позиции, чтоб они были поближе к топу. Все индивидуально. Беру штук 40-50 таких перспективных ключей.

После этого лезу в Семраш и добираю еще трафиковых и/или перспективных ключей.

2. Работа с Клавдией.
Работаю с Клавдией, так как она на 1 запрос выделяет то ли 10 тыс, то ли 100 тыс токенов ( в отличии от 2000 у чатгпт). В общем нет проблем с размером обрабатываемой информации. Не забываем, что для работы нужен VPN.
Итак, стартуем новый чат.
Беру контент из ТОП-3 по основным запросам, последовательно пихаю в Клавдию, прошу запомнить контент и вычленить основные ключи из оного. Применяю стандартный, единый промпт для всех конкурентов. Ключи закидываю в общий список.

3. Кластеризация
По завершению предыдущего шага, вычурным промптом прошу Клавдию кластеризировать ключи и подсовываю полный список. Проверяю ключи/ кластера (просматриваю, если нужно правлю).

4. Доработка исходного контента
Скармливаю свой контент Клавдии, скармливаю кластера/ключи и прошу (опять таки изысканным промптом слов на 200-300) доработать контент создавая новые подразделы согласно неиспользуемых кластеров и расширить уже существующий контент новыми ключами и фактами на их основе (факты дерутся из конкурентов, контент которых мы попросили запомнить на этапе 1). Ключи предлагаю склонять/спрягать/ расширять если это необходимо.
Прошу (если нужно) изменить тональность нового контента.

5. Проверяю контент
Как правило, Клавдия ленится и практически всегда не использует полностью все нужные кластера (не говоря о ключах). Вот тут немного ручной работы. Нужно попинать Клавдию, указав на неиспользованные кластера, а то и важные ключи и попросить еще больше расширить контент. Генерируем еще раз контент.

6. Вычитка контента
Вычитываем контент. Тут надо быть экспертом, чтобы сходу находить несуразности и править/удалять их (если они есть). Это очень важный этап.

7. Заливаем контент на сайт

Собственно что сказать, контент получается более ярким, насыщенный фактами, более экспертный, использующий значительное кол-во доказательств. В общем мне нравится. Посмотрим как Гугл отработает с новым контентом.

Промпты приводить не буду, ибо они обширны и дюже специфические. Придумаете сами - это не проблема.

Пользуйтесь, пока Амазон Клавдию не испортил.

ЗЫ:
кофий практически закончился

#DrMax #контент #II
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Анализ обновления полезного контента Google (сентябрь 2023 года)

Сентябрьское обновление полезного контента (оно же Helpful Content Update оно же HCU) – уже третья попытка Гугла избавиться от засилия некачественного, бесполезного, мусорного контента в выдаче.

Ко мне обратились десятки владельцев сайтов с просьбой помочь восстановиться в выдаче и вернуть утерянный трафик.

Проанализировав некоторые из представленных сайтов я пришел к выводу, что HCU это не только про некачественный контент, но и про убогие интерфейсы, стремление проиндексировать все страницы фильтров, запутанную и нелогичную навигацию – то есть крайне отвратительное взаимодействие с пользователями. По простому – проблемы с UX.

На многих сайтах, непосредственно контент был неплох. Видно, что писан с душой и старанием, особых ошибок с EEAT нет, но при этом сентябрьский HCU прибил трафик.

Отбрасывая всю техничку (естественно, что её стоит вылизывать и улучшать постоянно), отбрасывая бесполезные Core Web Vitals и учитывая пояснения выданные Гуглом в апреле ( после второй иттерации HCU), становиться понятно, что пользователю просто-напросто некомфортно на таком сайте. И именно с понимания этого и стоит рыть дальше.

Для начала читаем вот это а потом изучаем вот это и понимаем, что UX тут явно замешан, ибо: "система ранжирования по качеству контента, как и наша основная система ранжирования, в определенной степени учитывает сигналы, говорящие об удобстве страницы".

Однако это не значит, что только UX может привести к потере трафика. Вовсе нет. Тут может быть целый букет разнообразных проблем. Но добавление этой информации в документацию по полезному контенту и наблюдение за упавшими проектами, которые мне выдали на разбор, и наблюдение за проблемами с UX на них заставляет думать о взаимосвязи с этими факторами.

Отдельно стоит сказать о сайтах, размещающих рекламу на своих страницах. Наблюдал на некоторых припавших проектах дикое засилие рекламы, которую пихают куда угодно в огромном количестве. Говорить о хорошем UX тут не приходится.

Друзья, если вы размещаете рекламу на своих страницах – откройте ваш сайт на мобильнике и походите по страницам. Перекрытие экрана баннерами, какие то самозапускающиеся видео, могучая реклама выше сгиба (первого экрана) – не удивительно, что Гугл понижает такие сайты в выдаче.

У одних товарищей обнаружил, что оверлей от рекламы перекрывает полностью экран и отключить его невозможно. Вот и приплыли. Естественно траф припал.

В целом, вот порядок проверки сайта после падения:
1. Проверяем /правим полностью техничку
2. Проверяем/правим UX
3. Сносим рекламу
4. Удаляем Thin Content
5. Проверяем/правим контент
6. Проверяем EEAT факторы

Ну и посколь сейчас идет спам апдейт – проверяем ссылочное.

Работа не быстрая, например я на проверку одного небольшого проекта затратил 2 недели, написал отчет около 100 страниц и сверстал 20+ приложений. И все это направлено на правку сайта. Которое тоже займет немало времени.

Но ежели есть желание восстановить трафик – то заниматься этим нужно.

А пока почитайте офф документацию о том, как нужно вставлять рекламу, чтоб она не влияла на ранжирование очень сильно.

#DrMax #Google #HCU #ранжирование
Please open Telegram to view this post
VIEW IN TELEGRAM
📕 Факторы ранжирования 2023

Вышла бесплатная книженция по факторам ранжирования от SEJ. Ну что сказать. Есть что почитать, над чем задуматься.

Но в то же время не стоит все воспринимать всерьез- постоянные оговорки типа мы точно не знаем, но гугловцы говорят, при этом, скорей всего, фиг оно заработает, но мож и работает но не для страницы а для домена, при этом гугловцы молчат, но Мюллер вещает и пр.

В целом изучайте, чтоб не возникали вопросы по факторам ранжирования в представлении западных специалистов.

Вот здесь находится урезанная версия , сортируемый список по факторам. Возможно, он более удобен чем книга.

Скачать книгу можно здесь.

В общем обязательно для прочтения и переосмысления.

#DrMax #SEJ #RankingFactors #FreeBook
👋 Новости про Клавдию (claude.ai)

Пару раз уже писал в комментариях, но видимо многие пропустили.

Тем у кого проблема с регистрацией аккаунта: на плати появились кренделя, которые делают фри аккаунты - рублей за 50-100. Они есть в списке том, что в закрепе болтается.

Кому не хватает фришки - то регайте 2 аккаунт. PRO от Free сейчас отличается только в 5 раз большим числом токенов на период.

Есть наработанные хитрости при работе с Клавдией:

Если быстро кончаются лимиты: Каждую новую тему, не связанную со старой, запускайте в новом чате. Например, как только закончили с 1 темой и приступили ко 2, не связанной с первой - сразу же делайте новый чат. Так вы будете экономить лимиты, ибо Клавдия в любой беседе перечитывает свой чат с самого начала ( на том и строится точечное обучение Клавдии при разговоре на 1 тему). Не стоит несвязанные вопросы решать в 1 чате.

Кстати, максимальная длина приглашения (то что вы пишите), которую может обработать Клавдия (контекстное окно) в настоящее время составляет ~75 000 слов/~100 000 токенов/~340 000 символов Юникода.

Пользуйтесь.

#DrMax #Claude #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
Опрос смастерил в комментариях, которые уже вовсе не комментарии а не пойми чего )))
Forwarded from DrMax SEO Chat
А не сделать ли нам отдельный чат? Что то типа DrMax SEO CHAT - ибо комментарии превратились в клуб по интересам на 500 человек))) Где обсуждают черти-что, но только не посты.
Anonymous Poll
44%
Чат нужен. Будем там обсуждать и флудить.
29%
Чат НЕ нужен. Продолжим забивать комменты всяким - разным.
27%
Лучше новую книженцию выкати )))
➡️ Обновления Гугла

Что то я упустил основное обновление.

Помимо спам апдейта, который будет карать барыг ссылочным и неаккуратных покупателей ссылок (либо криворуких линкбилдеров), сейчас выкатывают основное обновление ядра алгоритмов Google.

Это уже третье по счету обновление ядра алгоритмов в этом году. И это очень хорошо, так как сайты над которыми работали за этот период должны получить хороший буст.

По планам, обновление должно закончится 20 октября (примерно). Будем отслеживать.

Ежели нужна помощь в восстановлении трафика - обращайтесь.

#DrMax #SEO #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
🔼 Одна из важнейших фишек при линкбилдинге

Тут опять вылезли вопросы по принципам отбора доноров. Отвечал неоднократно, но немного повторю и расширюсь.

Ни одна пузомерка не может достоверно показать, сколько траста перельется на сайт-акцептор с донора. И вовсе не потому, что эти пузомерки не учитываются Гуглом (хотя и этого достаточно), а потому что пузомерки считаются для морды донора.

Возьмем простой пример - есть 2 сайта, у одного, предположим PR5 на морде, у другого PR3. Но первый сайт вашу статью располагает в 3 кликах от главной, а второй в 1 клике. Траст расползается с морды пропорционально числу внутренних ссылок. Так, если на морде 100 внутренних ссылок, то на каждой из внутренних страниц передастся 1/100 траста морды. А на странницу, которая находится в 3 кликах от главной 1/1 000 000. И при всех прочих равных показателях становится ясно, что лучше ссылку размещать на 2 сайте, а не на первом.

Тут много допущений, да и PR считается по экспоненте, но для примера сойдет.

Отсюда очень важный вывод: необходимо отслеживать на донорах, как они размещают статьи с ссылками, насколь глубоко они находятся. Например, если в 10 кликах от главной (а бывает и такое), то передаваемый траст с такой страницы будет стремиться к нулю.

Второй момент. Вот разместились мы на 2-х донорах, ну пускай на глубине 2-х кликов от главной. При этом на странице первого донора есть 100 <a href> (внутренних и внешних ссылок), а на второй 1000 <a href> (внутренних и внешних ссылок). Так вот в первом случае вы получите 1/100 от передаваемого траста страницы, а во втором уже 1/1000.

Отсюда второй важный вывод: смотрите на размещения конкурентов и анализируйте сколько ссылок всего на странице - доноре. От этого будет зависит ваш траст.

Вывод третий: абсолютно не важно, сколько вы разместите внешних ссылок в вашей статье. И внутренние и внешние ссылки делят передаваемый траст одинаково. Поэтому, если вы в своей статье сошлетесь на википедию или на иной какой то трастовый домен ( дабы подтвердить естественность размещения) - от вас практически ничего не убудет. Ну передастся не 1/100 траста страницы, а 1/101 - разницы нет.

Именно поэтому, все внешние пузомерки без оценки того как будет размещена ваша статья, не имеют особого прикладного смысла. Порой лучше разместится на менее трастовом (и значительно более дешевом) доноре, чем на пафосном и дорогом, но засовывающим страницу - донора в 5 кликов от главной.

Кстати, при построении стратегии линкбилдинга я привожу расчетные данные по весам ссылок - т.е. по тому трасту, что может передать ссылка с донора.

И еще очень важный момент: Не скупитесь и всегда заказывайте ссылочку с морды на вашу размещенную статью. Хотя бы на 3-6 месяцев. Это позволит не только быстро проиндексировать ваше размещение, но и налить туда траста. И даже когда уберут ссылочку с морды на вашу размещенную статью, в дело вступит эффект "тени от ссылки" и налитый траст будет сохраняться еще 3-6 месяцев.

Кстати, можете заказать себе только расчеты доноров, без полной стратегии. Это выйдет примерно по цене 2-3 качественных ссылок.


В комментариях выложил примеры анализа ссылочного и передаваемых весов (в безразмерных величинах, ну например культяпах). И это примерно одинаковые по пузомеркам доноры.

Пользуйтесь.

#DrMax #SEO #Линкбилдинг
Please open Telegram to view this post
VIEW IN TELEGRAM
DrMax SEO pinned Deleted message
👋 Введение в краткий дроп-ликбез от DrMax

В принципе весь курс можно уложить в пару 30-минутных лекций. Часть сейчас вам процитирую, вернее повторю - ибо рассказывал об этом многократно. Вот несколько фактов:

0. За злоупотреблением PBN Гугл вас накажет. Читать тут. И Мюллера.

1. Большинство доменов дропаются не от того, что кому то надоело вести сайт, а от того что это уже были дропнутые и неоднократно перехваченные домены, которые выжали насухо и загнали под алгоритмические штрафы.

2. Чем старше дроп - тем меньше на нем ссылок. За 5 лет отмирают 90% ссылок. После подклейки дропа, через год, у него умрет еще 20-30% ссылок.

3. Если дроп был подклеен к кому то более года (был редирект), то скорее всего от него толку нет и все ссылки навсегда переползли на сайт-акцептор. Читать про опустошение дропа тут.

4. Гео ссылок особого значения не имеет. Можно использовать релевантный по тематике дроп с любым ГЕО. Но лучше этим не злоупотреблять. Читать тут.

5. Ссылки с форумов / профилей практически не работают и учитывать их при анализе линков дропа нельзя. Читать тут.

6. Индекс Google работает по принципу Wayback Machine. Он предназначен для долговременного хранения множества копий одной и той же страницы.Перенаправление URL на нерелевантную страницу приводит к Soft 404. Читать тут.

Итак, что нужно проверять у дроп-домена, прежде чем его захапать:

1. Ссылочное и его качество. Причем нужно смотреть откуда ведет ссылка. Как я говорил ранее очень важно смотреть и глубину вложения ссылки в структуре сайта и где она проставлена. Читайте подробно тут. Циферки DR тут не пляшут.

2. Лезем в Веб Архив и по годам смотрим на дроп. Если он пару лет был перенаправлен на иной сайт - не берем, Если на нем поднимали нетематический проект - не берем. Если с него ссылались на ядовитые тематики - не берем. и т.д.

3. Если на дропе мало ссылок, пусть даже они с хороших доменов - есть вероятность, что эти ссылки отсохнут и дроп останется без ссылок - не берем.

4. Оцениваем бывший трафик на дропе и вероятность его восстановления

5. и т.д. и т.п.

Что делаем с дропом:

1. Восстанавливаем, проставляем ссылку на акцептор

2. Восстанавливаем, смотрим на какие страницы ведут мощные ссылки - делаем релевантную страницу у себя и редиректим на неё страницу с дропа.

3. Переклеиваем все страницы редиректом на свой сайт напрямую или используем сайт- прокладку

4. Используем хитроумные комбинации, например постранично приклеиваем дроп на те же самые URL на сайте (которых нет), а на сайте со страниц (которых нет) проставляем редиректы на нужные существующие страницы.

5. Разнообразные вариации вышесказанного и иные хитроумные способы.

Прежде чем клеить, было бы неплохо восстановить трафик на дропе. А поскольку контент, как правило устарел, то его нужно обновить/расширить/актуализировать (все зависит от дропа). Как правило, для восстановления из веб архива используют Архивариус или иные сервисы (либо самописный софт).

На аукционе покупать дропы - верх глупости и расточительства. За день можно найти жирные релевантные дропы под большинство тематик, абсолютно без затрат.

Что лучше ссылка или дроп?

Зачастую покупка ссылки обходится гораздо дешевле и безопасней чем работа с дропами - не нужно тратиться на регистрацию доменов/хостинг/возню с восстановлением и обновлением (хотя сейчас это все молниеносно делается), меньше шансов схватить фильтры за дропы ( или переползшие с дропов).

Так что подумайте нужно оно вам?

Если оные измышления наберут 50 репостов - напишу вторую часть.

#DrMax #PBN
Please open Telegram to view this post
VIEW IN TELEGRAM
🆕 У Клавдии появился помощник 😉

Вчера в комментариях выложили ссылку на видео по работе с Клавдией. Ну не ахти конечно там рассуждения, особенно предложения скармливать Клавдии субтитры с Ютуба и как пример приводится видео какого частнопрактикующего сантехника, который привносит в сантехническое дело некие фишки, не изведанные никому.
Судя по отечественным сантехникам, они туда только определенного рода колорит привнесут и обучат Клавдию разнообразным загибам.

Но не суть.

В видео промелькнуло неведанный мне ранее сервис perplexity.ai, который может:
1. Ловко собирать из выдачи всякую актуальную информацию
2. Коннектится с Клавдией или ChatGpt и передавать информацию на обработку.

Себя этот сервис велеречиво называет Copilot, значит по нашему будем называть его Лётчик. Собственно очень он похож на Клавдию внешне, как бы ни из одних ворот он вышел.

Итак, в нем есть функции сбора данных. Теперь не нужно ползать по выдаче и пихать в Клавдию выжимки из ТОП-3 по интересующим запросам, даба она собрала информацию.Лётчик все это может проделать: подобрать и структурировать информацию и задеть можно передать на литературную обработку Клавдии.

Сам Лётчик туп, но исполнителен. От сложносоставных промптов он впадает в ступор, может ответить на сложный вопрос через 2-3 новых запроса, иногда у него бывают галлюцинации и пр. Он не умеет так излагать, как Клавдия и похож на настоящего солдафона, беспрекословно выполняющего задания. Но как сборщик, как парсер чего угодно - он крайне хорош.

Пользовался фришкой - лимиты выбрать не удалось. Есть платная PRO версия и уже появились первые продавцы этих PRO-шек на платиру. Добавил их в список, что болтается в закрепе, но покупать не рекомендую - пока нет отзывов.

Итак, пробуйте новый сервис, тестируйте и отписывайтесь в комментах о достижениях.


#DrMax #тексты #II
Please open Telegram to view this post
VIEW IN TELEGRAM
😉 Анализ влияния апдейтов Гугла.

Вот несколько дополнительных важных фишек, на которые нужно обратить внимание. На телеконференциях у Миши Шакина я про это не говорил, наверное, ибо там все побыстрей да запихнуть поболее информации.
Итак.

1. Влияние апдейтов стоит анализировать спустя неделю после окончания, не ранее. Так как могут быть докатки и всякое такое.

2. Периоды мы должны выбирать не смежные ( не ставить галочку сравнить периоды в GSC), а сравнивать период после апдейта, с аналогичным периодом до апдейта.
Например, вот последний Core апдейт, который начался 5 октября и продлился 13 дней 23 часа. Мы берем неделю после апа (с 19 по 26) и неделю до апа (с 29/09 по 4/10). И сравниваем именно их.

3. При анализе эффективности в GSC всегда сегментируйте по стране. Если вы работаете только в России, зачем вам мусорный трафик из Колумбии, который размывает данные о ключах/позициях/кликах и пр.

4. Отдельно анализируйте мобайл и десктоп. Данные часто не совпадают и ранжирование может быть различным. Необходимо понять отчего данные по ранжированию различаются и что нужно предпринять.
Простой пример:
На десктопе адблоки режут рекламу, отскоков в выдачу нет (если посетитель удовлетворен). На мобиле расхлопы/банеры на весь экран, посетители в ужасе возвращаются в выдачу (отскок), позиции снижаются. И это только один из миллиона возможных вариантов.

5. После каждого апа проверяем канибализацию. Для этого в GSC- Эффективность, задаем строгий поиск по важному для вас запросу и смотрим вкладку страницы: сколько страниц там показывается и сколько просмотров у каждой из них. Если находятся несколько страниц с большим числом показов, то сравниваем эти страницы по этому запросу друг с другом и смотрим влияние (когда растет число показов на одной, на второй - падает) это и есть канибализация. Подробно рассказывал об анализе у Миши Шакина в телеконференции.

Вроде пока все. Приятного анализа последствий последнего Core апдейта, который закончился позавчера.

#DrMax #SEO #Google #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Как работает и на что влияет новый Показатель Отказов

Лет 20 показатель отказов (он же Bounce Rate) служил верой и правдой SEO аналитикам, пока его не прихлопнули в новомодной GA4. Теперь вместо него ввели понятие Уровня вовлеченности (Engagement Rate) или по иному "уровень взаимодействия", который рассчитывается так:

* успешной (вовлеченной) считается сессия, которая длится более 10 секунд, в которой произошло событие конверсии или было не менее 2 просмотров страниц или экранов (для мобилы). При этом коэффициент вовлеченности (взаимодействия) - это процент успешных сессий на вашем сайте.

Удивительно знакомое определение, не так ли. А вот если взять процент неуспешных (не вовлеченных, без взаимодействия) сессий, то как раз и получим современный показатель отказов (Bounce Rate).

То есть нынче показатель отказов это когда пользователь заходит на ваш сайт, читает некоторые материалы менее 10 секунд и уходит. При этом, находясь на сайте, пользователь не инициировал никаких событий и не посещал других страниц. Ранее он считался малость по иному.

Вместе Bounce Rate + Engagement Rate = 1 или 100%.

Напомню, что Bounce Rate влияет на две вещи:
* ранжирование в выдаче (через суд Гугл заставили заявить о влиянии поведенческого на ранжирование, рассказывал об этом ранее)
* конверсию (продажи, доход и прибыль).

В каждой сфере деятельности, тематике сайта, да и на каждом отдельном сайте показатель отказов будет различаться. Нормальной величины, как правило, не существует. В первом комментарии я размещу усредненные показатели отказов по отраслям.

Но нужно понимать, что чем меньше показатель отказов ( и выше уровень вовлеченности), тем лучше.

Чем хорош анализ и работа с показателями отказов (уровнем вовлечения)? Да тем, что как и с техничкой, вам не нужно выходить за пределы сайта, закупать ссылочное, заниматься PR, чтобы улучшить ранжирование и повысить конверсию. Достаточно снизить показатель отказов.

Оный зловредный показатель зависит от многих вещей. Просто представьте себя на месте посетителя и прикиньте, что вам не нравиться на сайте:
* Низкая скорость загрузки (особенно для мобил)
* Не соответствие сниппета в выдаче текущим данным (в сниппете пицца за 500 руб, на сайте за 1000)
* Отсутствие товаров и их замены (для коммерческих).
* Не соответствие страницы интенту посетителя. Например, страница ранжируется по ключам, которые вы не раскрываете на странице (проверьте ключи в отчете Эффективность GSC).
* Дурная навигационная система сайта, отсутствие внятной структуры
* Слабый EEAT страницы (не профессиональная текстовка, ошибки, накрученные отзывы на странице, не понятно кто, а главное зачем всё это написал и пр.)

Показатель отказов можно снизить, если контент соответствует ожиданиям пользователя или превосходит их. Можно добавить полезное видео на страницу, можно предложить какие то интересные сопутствующие товары или по внутренней перелинковке отправить пользователя внутрь сайта. В целом, об этом написаны тысячи статей и нет смысла их пересказывать.

С показателем отказов связана наиболее паскудная пользовательская метрика – показатель отскоков (в выдачу) – он же Pogo Sticking. Это когда неудовлетворенный посетитель вашего сайта возвращается в выдачу и начинает лазать по ней и заходить на иной/иные сайты.

Сам по себе Bounce Rate может и не влиять на на ранжирование (например на сайте не прикручен аналитикс), но он тесно связан с показателем отскоков (Pogo Sticking), который четко отлавливается Гуглом и является фактором ранжирования.

Чем больше Bounce Rate, тем, вероятней, больше Pogo Sticking (который мы достоверно замерить не можем) и тем ниже опускаетесь вы в выдаче.

Выводы: отслеживаем Bounce Rate (или уровень вовлеченности) и стараемся оптимизировать своими силами. Проверяем текст, мета тайтлы и мета-описания, перелинковку и прочее. Ставим себя на место посетителя и прикидываем, что нужно исправить на странице. Работа с Bounce Rate – это дешевый способ улучшить ранжирование и увеличить полезный траф на сайте. Подробнее- читайте офф документацию у Гугла.

#DrMax #SEO #Google #Bounce_Rate
Please open Telegram to view this post
VIEW IN TELEGRAM