Англоязычное SEO
7.12K subscribers
302 photos
4 videos
1.92K links
Полезные материалы по англоязычному SEO. ✍️ Чат @shakinchat. Админ @mikeshakin
Download Telegram
Forwarded from DrMax SEO (DrMax)
Как нынче можно прятать ссылки от Гугла

Во оно как стало! Теперь Гугл переходит только по ссылкам, в которых используется тег <a> с атрибутом href. Прочие форматы не поддерживаются. Это означает, что Google не может обрабатывать теги <a> без атрибута href и теги, которые используют события скриптов и функционируют как ссылки.

URL ссылки в теге <a> должен представлять собой действительный веб-адрес, на который робот Googlebot может отправлять запросы.

Т.е. официально Гугл отказался от разбора забубенных вариантов ссылок, которые нарабатывали годами SEO-шники.

Теперь любую ссылку можно закрыть банальным <a onclick="goto('https://example.com')">

ПРУФ: https://developers.google.com/search/docs/advanced/guidelines/links-crawlable (Last updated 2022-03-02)

#DrMax #Google #Links #SEO
Forwarded from DrMax SEO (DrMax)
Нашел интересный генератор структурированных данных (микроразметки). Позволяет создавать разметку по 1400+ типов, проверяет немного, есть подсказки. Плюс (что понравилось) позволяет правильно выбирать и создавать подтипы разметки для текущего типа.

И интересное. Пошли первые вопросы, отзывы и предложения по SEO Монстр Next. Ответы на вопросы буду, наверное, в книгу добавлять. Мне они кажутся тривиальными, но как выяснилось - это не так. Ну и хорошо.

Еще раз публикую ссылку на полное описание и покупку руководства. Пока в ручном виде, завтра прикрутим всеж автомат по продаже.

#DrMax #SEO #schema
Forwarded from DrMax SEO (DrMax)
Как ловко заблокировать сайт, того не понимая.

В общем, рылся на днях один товарищ в старых сайтах и обнаружил вот такой вот robots.txt

User-agent: *
Crawl-delay: 2

User-agent: Mozbot
Disallow: /

Как известно, Crawl-delay давно игнорируется Гуглом. Но в данном случае Google не только проигнорировал задержку сканирования, но и начало новой секции, что привело к полной блокировке сайта.

Выводы:
1. Не используйте Crawl-delay - эта штука устарела лет 10 назад (или больше).
2. Не оставляйте секции без Allow/Disallow
3. Прописывайте межсекционные директивы в самом конце robots.txt

Посмотреть на оригинал записи можно в твиттере.

Пояснение, почему так происходит - в инструкции Гугла.

#DrMax #Google
Forwarded from DrMax SEO (DrMax)
✈️ Повышаем трафик за счёт внедрения FAQ разметки

Как внедрять FAQ-разметку, да и сам FAQ в контент страницы - это обсуждать не будем, так как это элементарные вещи. Сейчас я расскажу что именно внедрять (какие вопросы/ответы) и на каких именно страницах.

Итак, проходим в GSC, раздел "результаты поиска":
1. Над диаграммой жмем "+ Новый"
2. Выбираем "Запрос"
3. В фильтре запроса выбираем Специальные запросы (регулярные выражения)
4. Вводим: (?i)^(?:Когда|Зачем|Что|Как) - запрос можете модифицировать (например, добавив Почем|Сколько|Отчего|Кому|Который и т.д.)
5. Включаем в диаграмме вывод всех данных (клики, показы, CTR и позиции)
6. Смотрим на вкладки ниже диаграммы и выбираем вкладку "Страницы". Здесь будут собраны все страницы, где есть запросы для FAQ
7. Нажимаем любую страницу (должна добавиться вверху, над диаграммой) и переходим на вкладку "запросы"
8. Выбираем наиболее привлекательные запросы, самые важные используем в первой и второй позиции, даем четкие, краткие и полные ответы на эти запросы (размещаем ответы на странице и в FAQ разметке).
9. Удаляем страницу над диаграммой и переходим к пункту 7.

Используйте ))))

#DrMax #SEO #FAQ
Forwarded from DrMax SEO (DrMax)
🔔 Google опубликовал новые рекомендации по ссылкам

Google опубликовал новые рекомендации по ссылкам в своей документации по SEO и поиску для разработчиков. Документ состоит из нескольких разделов.

Сканируемые ссылки
Как правило, Google может сканировать вашу ссылку только в том случае, если она представляет собой <a>элемент HTML (также известный как элемент привязки ) с href атрибутом. Большинство ссылок в других форматах не анализируются и не извлекаются поисковыми роботами Google.

Рекомендуется:
<a href="https://example.com">
<a href="/products/category/shoes">

Не рекомендуется (но Google может попытаться проанализировать это):
<a routerLink="products/category">
<span href="https://example.com">
<a onclick="goto('https://example.com')">

Размещение анкорного текста
Якорный текст (также известный как текст ссылки ) — это видимый текст ссылки. Этот текст говорит людям и Google что-то о странице, на которую вы ссылаетесь. Поместите якорный текст между <a>элементами, которые Google может сканировать . В качестве запасного варианта Google может использовать атрибут title в качестве анкорного текста, если <a> элемент по какой-то причине пуст.
<a href="https://example.com/ghost-pepper-recipe" title="как мариновать перец "></a>

Написание анкорного текста
Это новый раздел. Хороший анкорный текст является описательным, достаточно кратким и релевантным странице, на которой он находится, и странице, на которую он ссылается. Он обеспечивает контекст для ссылки и устанавливает ожидания ваших читателей. Чем лучше ваш анкорный текст, тем легче людям ориентироваться на вашем сайте и тем проще Google понять, о чем страница, на которую вы ссылаетесь.

Обратите внимание, в документе прямо отмечено, что безанкорные ссылки – это плохо, с точки зрения Гугла. Я уже лет 5 твержу, что использование всяких там «здесь», «тут», «по ссылке», «на сайте» - это явный признак спама и не стоит их применять. Лучше возьмите ВЧ и разбавьте его 2-3-4 дополнительными словами – толку будет больше!

Внутренние ссылки
Гугл отмечает важность перелинковки!
Обычно вы можете думать о ссылках с точки зрения указания на внешние веб-сайты, но уделение большего внимания якорному тексту, используемому для внутренних ссылок, может помочь как людям, так и Google легче понять ваш сайт и найти другие страницы на вашем сайте. Каждая интересующая вас страница должна иметь ссылку хотя бы с одной другой страницы вашего сайта.

Внешние ссылки (исходящие)
Google написал: «Ссылки на другие сайты — это не то, чего следует бояться; на самом деле использование внешних ссылок может помочь установить надежность (например, цитирование ваших источников). Ссылайтесь на внешние сайты, когда это имеет смысл, и предоставьте своим читателям информацию о том, чего они могут ожидать».

Полный текст находится тут

#DrMax #SEO #Links #Google
Forwarded from DrMax SEO (DrMax)
🔥 Почему не работают купленные ссылки (часть 3)

Продолжение: часть 1 и часть 2

Как известно, передаваемый вес распределяется между всеми ссылками страницами (внутренними и внешними). Если на странице 10 ссылок, то каждая из них будет передавать 1/10 веса. Значит, чем меньше ссылок на странице, тем больше вес каждая из них передает.

Теперь об уровнях вложения (кликов от главной). Если на всех страницах сайта по 10 ссылок, то страница в 1 клике (от главной) получит 1/10 передаваемого веса, в 2-х кликах - 1/100 веса, в 3-х кликах - уже 1/1000 передаваемого веса. И исходящая ссылка на ваш сайт со страницы в 3-х кликах (от главной) будет передавать уже 1/10000 веса.

А теперь прикиньте сколько ссылок, в реальности, на страницах домена-донора. Сотни! И передаваемый вес будет исчисляться в миллионных долях.

Не всё так страшно. Как известно, PR - экспоненциальная функция и уменьшение веса будет идти по экспоненте (а не линейно, как в примере).

Итак, передаваемый вес зависит от (в том числе):
- числа ссылок на странице
- уровня вложения
- наличия внешних ссылок на сайт и их распределения.

Расчеты передаваемого веса очень сложны и приблизительны. Но тем не менее мы всегда можем оценить какой из двух доноров передает больше веса.

Смотрите скрин 🔝- вот 2 донора с одинаковым DR(89), примерно одинаковым PR на морде (6), но первый в 10 раз больше будет передавать веса по исходящей ссылке, чем второй. В том числе и из-за разного числа ссылок на странице. При разработке стратегии линкбилдинга - я привожу расчетные передаваемые веса, что позволяет отбирать правильных доноров.

Итак, очень важно анализировать размещения конкурентов на доноре. Собственно без этого нечего и приступать к линкбилдингу.

Посмотрите:
- сколько ссылок (внутренних и внешних) на статье конкурента
- как далеко она находится от главной.
Это очень важные показатели при оценке донора. Можно разместиться на дешевом доноре с низкими пузомерками и получить гораздо больше профита от ссылки!

#DrMax #SEO #линкбилдинг
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DrMax SEO (DrMax)
📕 Факторы ранжирования 2023

Вышла бесплатная книженция по факторам ранжирования от SEJ. Ну что сказать. Есть что почитать, над чем задуматься.

Но в то же время не стоит все воспринимать всерьез- постоянные оговорки типа мы точно не знаем, но гугловцы говорят, при этом, скорей всего, фиг оно заработает, но мож и работает но не для страницы а для домена, при этом гугловцы молчат, но Мюллер вещает и пр.

В целом изучайте, чтоб не возникали вопросы по факторам ранжирования в представлении западных специалистов.

Вот здесь находится урезанная версия , сортируемый список по факторам. Возможно, он более удобен чем книга.

Скачать книгу можно здесь.

В общем обязательно для прочтения и переосмысления.

#DrMax #SEJ #RankingFactors #FreeBook
Forwarded from DrMax SEO (DrMax)
🤕 Один из методов восстановление ранжирования статей

После могучих Ревью-Апдейтов Гугла, часть статей улетела в саплементаль. То есть статьи вроде и в индексе, вроде и есть показы по каким то там НЧ запросам, но при поиске выдержки из статьи, находятся в Гугле далеко за первым десятком позиций или вовсе не находятся.

Если у вас похожая ситуация, то можно попробовать переписать тексты, используя Клавдию.

После многочисленных экспериментов стало ясно, что Гугл недолюбливает тексты генерируемые Клавдией из за излишней пышности, пафосности и описательности (несмотря на выбор тональности). В частности, было решено избавиться от transition words (что то типа вводных слов ) в тексте и использования пассивного залога. В конце - концов промпт стал выглядеть вот так:

Rewrite the text in a dry, concise, academic tone, without transition words and passive voice:


ну и ниже промпта пихаем текст.

Важно - обрабатывать не весь текст целиком, а по отдельным разделам. И сразу же вычитываем этот раздел. Как правило, текст ужимается в пару раз, при этом становится более удобочитаемым и лишенных всяких свистоперделок, которые так любит Клавдия.

Промпт не сработает, если изначально у вас не текст, а говнотекст. Если в нем нет дополнительной ценности для пользователей. Поэтому иногда лучше заново перегенерировать контент (перед этим скормив 3-4 примера из ТОПа), а затем уже обработать промптом.

Клавдия недостаточно хорошо делает структуру контента. Поэтому можно использовать Perplexity для генерации скелета контента (включите обязательно Copilot):

I want to write articles on "Domestic cockroaches and their environment". I need a table of contents. Make it using SEO best practices. 


Вы получите и структуру и список источников, на которые потом можно будет сослаться (или сделать список литературы внизу текста, без ссылки). Далее подсовываем структуру Клавдии и генерируем текст (а потом обрабатываем спецпромптом).

Очень важно, для восстановления ранжирования повысить ценность статьи. Для этого можно добавить FAQ, который опять таки нагенерировать Клавдией на основе 3-4 статей из ТОПа Гугла по вашему запросу:

Write me 15 detailed and interesting questions and answers about......


Генерируем штук 15 FAQs, из них выбираем 5-6 наиболее ценных и размещаем в контенте.

Не забываем прописывать в явном виде дату обновления контента.

Собственно так удалось восстановить видимость всех запропавших статей на моем стартапе. Естественно, с набором траста доменом, Гугл будет более снисходительно относится к контенту. Но пока вот так.

Для использования на иных языках, прямо указывайте перед промптом язык использования. Например:

Write further answers only in Russian.

Желаю удачи.

#DrMax #Text #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DrMax SEO (DrMax)
☄️ Финальный пост про мартовский Core Update

Хотел расписывать про особенности каждого типа контента, расписал выше только про ревьюшки, больше вычленять не буду - абсолютно нет времени.

Итак, что мы знаем:
1. Те кто припал в сентябрьский ап полезного контента - припал и в марте
2. Практически никто из припавших не восстановился с сентября по март
3. Восстановились и выросли перенесшие сайты на новый домен
4. Из перенесших, те кто сделал 301 редиректы, но не правил контент - упали в марте
5. Теперь классификатор является частью ядра алгоритмов Гугла
6. Штраф накладывается на домен целиком
7. Кроме классификатора, важную роль играет траст (ссылки, нахождение в Гугл-графе знаний)
8. Реальный, прокачанный бизнес пострадал меньше всевозможных обзорников
9. Гугл вырезал 45% всех страниц в инете

Чтобы восстановиться необходимо резко нарастить траст сайта. И тогда, возможно, через ап Гугл вернет трафик.

[ТУТ ОТКАЗ ОТ ОТВЕТСТВЕННОСТИ - ВСЁ ПРОДЕЛЫВАЕТЕ НА СВОЙ СТРАХ И РИСК]

Что нужно проделать - либо переехать на другой домен (с редиректом) + править контент. Восстановитесь еще до коре апа.

Либо, как уже говорил, резко нарастить качество сайта:
1. Убираем признаки обзорности из контента. Вырезаем паттерны.
2. Переписанные страницы переносим на новые URL, отслеживая чтобы в них не было паттернов (с заменой ссылок по сайту и редиректом 301).
3. Ядовитые страницы с 0 трафиком удаляем/объединяем
4. Линкбилдинг
5. Техничка! Вылизываем проект. Устраняем 5xx ошибки. Приводим в порядок и всё остальное.


Далее, так как штраф накладывается на домен целиком, а поддомены, по сути - отдельные сайты, то выносим на них либо самое ядовитое (в надежде через пару апов получить восстановление на главном домене), либо то что раньше приносило трафик, вплоть до того, чтобы на домене осталась только морда, остальное было раскидано по поддоменам - блог отдельно, магазин отдельно, обзоры отдельно. Но это рекомендуется только совсем уж отчаявшимся товарищам.

Не забываем обновить/уточнить коммерческие данные. Не забываем про желтые страницы и проверку NAPW. Всё это поможет пролезть в граф знаний и, возможно, переведет сайт из статуса обзорника в иной статус (просто добавление, например, магазина на сайт - не работает, судя по докладам).

Важно:
Посмотрите внимательно на те страницы, что выпали из индекса в конце мартовского апа и за время после него - это наихудшие страницы вашего сайта. Их на переделку или на обновление.

И опять линкбилдинг + переподача выпавших страниц в индекс через API (после переделки или удаления).

В целом, у каждого сайта - свои нюансы и чтобы найти их - нужна тщательная работа по анализу. Причем для разных типов сайтов и для разных последствий от апа - они различаются.

Но в первом приближении, вот такие задачи надо решить.


#DrMax #Google #CoreUp
Please open Telegram to view this post
VIEW IN TELEGRAM