DeepSEO
565 subscribers
2 photos
1 video
3 files
85 links
Авторские статьи и видео о SEO.
Новости SEO под Google за неделю с выводами.
Автор канала Игорь Баньковский @bankovskyi
Download Telegram
Channel created
SEO + DEV Team = ❤️
Почему программисты не хотят делать SEO задачи и как это исправить
Очень часто я слышу от своих коллег по цеху: "Мои задачи не делают", "Опять эти прогеры накосячили и мне пришлось разгребать" и тп.
Программисты в свою очередь не любят делать наши SEOшные задачи, бывает, что и саботируют их. Но мы можем изменить ситуацию и создать синергию между SEO и разработкой. Какие приемы я использовал для этого постараюсь рассказать дальше.

Читать полностью: http://deepseo.com.ua/blog/dev-and-seo
🤜 Новости SEO за 27.06-07.07.2019
1. Google открыл код парсера Robots.txt и теперь каждый может его использовать в своих целях
2. В featured snippet в Google начала отображаться ссылка "More images" на просмотр дополнительных результатов
3. Google запустил "place topics" для карт. Фактически это теги, что автоматически проставлены отзывам пользователей о месте на картах
4. John Muller заявил, что возраст домена или страницы не дает никаких плюсов или минусов в ранжировании
👌 Выводы
Google продолжает максимально прикручивать гайки и пытается оставить максимальное количество людей в выдаче. Это ожидаемо и это будет продолжаться. Ну а Джону Мюллеру верить - себя не уважать :)
Channel name was changed to «Deep SEO»
🤜 Новости SEO за 08.07-14.07.2019

1️⃣ John Muller сказал:
Disavow tool не является частью старой поисковой консоли, -- он полностью отделен. Не стесняйтесь использовать его, если вы чувствуете, что вам это нужно.

2️⃣ На прошлой неделе был обновлен протокол обработки файла robots.txt и вот, что можно подсумировать:
⚙️ теперь директивы можно использовать для любого URI. Например, теперь помимо HTTP/HTTPS правила можно применять к FTP или CoAP
⚙️ поисковые краулеры должны сканировать первые 512 килобайт файла. Роботы могут, но не обязаны сканировать весь файл если файл большой. Также роботы не обязаны сканировать весь файл, если соединение не стабильное;
⚙️ размещенные в файле директивы подлежат кешированию. Делается так, чтобы не нагружать сервер запросами. По умолчанию кеширование проводится на срок не более чем 24 часа, чтобы дать возможность поисковому оптимизатору в приемлемые сроки обновлять файл. Значение по кешированию можно задавать самостоятельно используя директиву кеширования посредством заголовка Cache-Control;
⚙️ если файл не доступен, то директивы продолжают работать. Спецификация предусматривает, что если файл robots.txt стал не доступен для поискового краулера, то правила описанные ранее будут продолжать действовать еще на протяжении длительного времени.

3️⃣ John Muller заявил об использовании тула URL parameters в Google Search Console:
No, no. We really use that. We really use it.
We use it so much that sometimes the indexing team will contact us and tell us to to contact websites and say like they hear you're doing it wrong, you're blocking things. That occasionally happens.
So it's really easy to use that tool and say Oh Google should ignore this parameter and then you don't realize that actually big part of your website relies on that parameter. And you set it wrong. So that's kind of why we have such big warnings there as well. You should really know what you're doing before you click around here.


4️⃣ Запущен новый дизайн карточек в Google News

5️⃣ И опять John Muller напомнил нам про то, что нужно придерживаться одного формата урлов на сайте

👌 Выводы
Очень интересно, что инструмент URL parameters, которым мало кто пользуется, имеет такое значение для Google. Нужно быть максимально осторожным при его использовании. На этой неделе напишу статью о том, как его правильно настраивать. На связи!
✒️ Как правильно настраивать параметры урлов в Google Search Console

Найти этот инструмент можно в старой версии GSC в блоке Crawl.
Основная задача — не дать краулеру Google ходить по дублированному контенту.
А еще настраивая обработку параметров урлов мы можем позитивно повлиять на краулинговый бюджет.
В списке параметров появляются те, что смог найти Google самостоятельно на вашем сайте. Но вы можете и сами добавить недостающий с помощью кнопки «Add parameter» вверху страницы.
Официальная справка тут.

Важно! Это не инструмент для удаления дубликатов страниц из индекса. Но при неправильной настройке вы можете случайно запретить краулить, а значит и индексировать, нужные вам страницы.

Вариантов настройки в инструменте много. Давайте разберем каждый из них подробнее.

🔨 Let Googlebot decide
Для всех новых параметров по умолчанию проставлено значение «Let Googlebot decide». Это значит, что Google сам решает — сканировать ли урлы с найденными параметрами, что они означают.
Я не советую оставлять этот статус — всегда меняйте его. Нет гарантии, что Гуглбот правильно все понял.

🔨 Doesn’t affect page usage
Эта настройка предназначена для страниц с параметром, где контент совпадает с урлом без него.
При выборе этого пункта Googlebot самостоятельно уберет указанный параметр из URL и будет сканировать страницу без него.

Пример
Указана ссылка: example.com/page?tag=1
Будет просканирована: example.com/page

🔨 Changes, reorders, or narrows page content
Если контент меняется в зависимости от параметра страницы — нужно выбирать этот пункт. Его настройки по разному влияют на обработку урлов Гуглботом. Рассмотрим каждую.

🔨 Let Googlebot decide
Этот параметр мы пропускаем — он стоит сразу по умолчанию

🔨 Every URL
Уникальный контент в зависимости от параметра
Используем, когда каждой странице контент уникален и наша задача позволить боту их скраулить. Удобно для страниц поиска по сайту, фильтров и т. д.

🔨 Only URLs with value
Выборочный краулинг в зависимоти от значения параметра
Когда вам нужно краулить урлы с определенным параметром, а все остальные запретить — эта функция идеально подходит. Идеально подходит для настройки фильтров на сайтах.

Пример
Есть страницы: example.com/page?colour=yellow и example.com/page?colour=green
Вы хотите оставить только страницу с ?colour=yellow, а все остальные запретить к сканированию.
Указывайте один параметр, который вы хотите оставить, все остальные Googlebot будет игнорировать.

🔨 No URLs
Полностью запрещает обход страниц с указанными параметрами. Если у вас много «мусорных» страниц — смело используйте эту функцию и закрывайте их.

👉 Выводы
Как заявлял John Muller ранее инструмент URL parameters имеет очень сильное влияние на краулер Google. Будьте внимательны при его настройке — если запретить к обходу нужные страницы, то вы можете потерять в трафике и деньгах.
Обязательно используйте этот инструмент с умом и вы сможете увеличить краулинговый бюджет, трафик, позиции и деньги.
🤜 P.S: Статья еще публикуется и в нашем блоге тут
🤜 Новости SEO за 15-21.07

1️⃣ Неподтвержденный апдейт Google произошел 19 июля. В некоторых тематиках замечены огромные скачки по позициям. Апдейт окрестили "Maverick update".

2️⃣ Google добавил в свою справку раздел посвященный оновам сканирования и индексирования JavaScript

3️⃣ Появилась информация о том, что Google сделал в прошлом году около 3200 изменений в поиске.

👌 Выводы
Побыстрей проверяйте свои позиции и смотрите, что изменилось в ТОПе вашей ниши! Апдейт мог консуться и вас. Ждем анализов апдейта.
JavaScrip наращивает свою силу и SEO-специались теперь уже обязан знать, как с ним работать. Видимо Google и дальше будет улучшать его поддержку и увеличивать скорость его обработки.
✒️ Забудьте про чеклисты в SEO

"Мы проверим ваш сайт по 100 разным параметрам. А мы по 200!"
Такое часто пишут в описании своих услуг SEO-студии и фрилансеры. Вот новый SEO-чеклист на 2019 год для “полной” проверки вашего сайта - пишут известные (и не очень) блоггеры. Но так ли это круто и нужно ли гнаться за количеством проверок?

В чем опасность SEO-чеклиста?
🙈 Его воспринимают как полный список пунктов, которые нужно проверить. И на этом остановиться.
А на самом деле это неполный список того, что можно проверить на сайте.

🙈 Следование SEO-чеклисту даелает из вас не специалиста, а обезьянку.
Вы копируете данные по ошибкам в отчет и выдаете это за аудит. Это не аудит! Стандартный SEO-краулер после сканирования может выдать вам отчет по 50+ параметарм. Если эти параметры скомбинировать и чуть пошаманить, то можно будет написать аудит с проверкой 100+ параметров сайта. Это делается легко и быстро! Получается, что за громкими обещаниями проверки 100+ параметров лежит просто тупое копирование результатов краулера в отчет.

🙈 Вы отвыкаете думать и анализировать данные. Сейчас в SEO нужно много анализировать и делать нестандартные вещи. Никакой краулер не сопоставит данные по индексации и трафику за вас. Не проанализирует конкурентов и не составит стратегию продвижения. А отделить действительно критические ошибки от тех, что “подождут” можно только хорошо пораскинув мозгами. У вас же только чеклист перед глазами и аудит получается стандартным гавном.

🔨 Что делать?
Забудьте про чеклисты. Краулер выдаст вам список стандартных ошибок и вы никак не сможете про них забыть.
Нужно думать и анализировать данные. Задавайте себе вопросы и давайте на них ответы.
Например:
⚙️ Чем структура моего сайта отличается от сайта конкурента?
⚙️ Как отличаются сниппеты?
⚙️ На какие страницы больше внутренних ссылок и какой у них трафик?
⚙️ И т.д.
Если подкрепить это все структурированными знаниями в SEO и знать какие факторы ранжирования сейчас имеют больший вес, то вы сделаете лучший SEO-аудит. И внедрение рекомендаций такого аудита обеспечит сайту рост трафика, конверсии и денег.
Тот кто и дальше будет следовать только чеклистам - уйдет на свалку истории. Надеюсь, что это будете не ВЫ.
🤜 Новости SEO за 22-28.07.19

1️⃣ Апдейт Google, который произошел 19 июля официально подтвержден и получил название "Maverick update". Интересная статистика по изменениям по нишам от SEMRush тут

2️⃣ Наш любимчик John Mueller сообщил, что согласно YMYL сайты в тематике "Здоровье и медицина" должны обратить особое внимание на то, кто пишет им статьи.
Цитата
"It's something where if you're already saying they know a lot about this but they're not experts then that is already kind of a shaky foundation right. So that's something where maybe it makes sense for them to work with experts and to put together some real expert content where it's clear to anyone who's reading those pages that actually this information is correct and it's trustworthy, it's something that an expert has written or an expert has reviewed and accordingly it it's essentially something that anyone can take and forward to their friends and say this is kind of something to watch out for or something important that you should read on this topic."

3️⃣ 24 июля был замечен баг в выдаче Google. Часть результатов поиска на мобильных не загружалась. 26 июля этот баг пофиксили


👌 Выводы
Рано делать выводы по апдейту - аналитики не так много. Но явно, что апдейт затронул сайты с дублированным и не очень ценным контентом. В догонку еще и John Mueller подтвердил наши опасения, что для сайтов в тематике "Здоровье" нужно набивать траст авторов.
✒️ Разница между 301, 302 и canonical

301, 302 редиректы и тег canonical используются в SEO очень давно, но вопросы о том как их использовать возникают и сегодня. В этой статье я кратко обьсню разницу между ними и какой способ когда использовать.

🔨 301 редирект
301 - это постоянный редирект. Если у вас на сайте произошли изменения и это навсегда - используйте этот вид релиректа. Самые популярные задачи для него - изменение урлов и переезд сайта.
Что происходит:
- Отсылает GoogleBot и пользователей сайта на новый URL и отсылает ему сигнал забыть про старый URL
- Передает внутренний и внешний ссылочный вес
301 редирект - очень сильный сигнал и практически всегда воспринимается Google-ом корректно
Важно!
Исследование логов сервера показало, что GoogleBot ходит по начальным урлам длительное время. Поэтому не снимайте даже очень старые 301 редиректы.

🔨 302 редирект
302 - это временный редирект. Чаще всего используется для проведения A/B тестов и как ошибка при настройке 301 редиректа :)
Что происходит:
- Отсылает GoogleBot и пользователей сайта на новый URL, но при этом подает ему сигнал периодически проверять наличие редиректа
- Практически не передает сигналы
Важно!
Если вы не снимаете длительное время 302 редирект - он начинает восприниматься Гуглом, как постоянный 301.

🔨 Тег canonical
Canonical - это тег, который показывает Google где оригинальная страница. Когда вам нужно создать дубль страницы с одинаковым контентом - ставьте на дубле тег canonical на оригинальную страницу.
Что происходит:
- Показывает GoogleBotу оригинал страницы
- Для пользователя ничего не меняется
Важно!
Тег canonical является рекомендацией для Гугла и не всегда учитывается. Поэтому его нужно стараться использовать в единичных случаях.
Помогите выбрать тему для следующей статьи!
anonymous poll

1️⃣ Самые полезные виды разметки (Structured Data) для Google – 13
👍👍👍👍👍👍👍 36%

3️⃣ Как быстро получить данные по трафику из GSC и их анализ – 13
👍👍👍👍👍👍👍 36%

2️⃣ Польза анализа логов для SEO – 10
👍👍👍👍👍 28%

👥 36 people voted so far.
🤜 Новости SEO за 29.07-04.08.2019

1️⃣ 1 августа мог произойти очередной апдейт Google. Многие инструменты показывают значительные изменения в выдаче.

2️⃣ Важное обновление алгоритма формирования Featured Snippets. Оказывается, еще в конце февраля этого года Google начал применять новый алгоритм для формирования Featured Snippets. Теперь для некоторых запросов будет учитываться "свежесть" и актуальность контента.

3️⃣ Исследование показало, что есть прямая зависимость между количеством фото в Google my Business аккаунте компании и количеством кликов/показов для ее карточки

👌 Выводы
⚙️ Пристально следим за нашими позициями и изучаем - повлиял ли на нас предполагаемый апдейт 1-го числа. В прошлом году август стал знаменит в связи с medic update, который подкосил множество сайтов.
⚙️ Теперь Featured Snippets не будут прежними. Один раз туда попасть и оставаться не получиться. Нужно будет постоянно обновлять свой контент, что приводит к дополнительным затратам времени и денег. Важно! Это касается не всех запросов, а только тех, что привязаны ко времени (события, даты, периоды времени). Запросы, что независимы от времени ("почему солнце горячее" или "сколько лап у жука") не затронуты этим апдейтом.
🤜 Начало пятого потока курса Deep in Tech SEO через неделю.

Это авторский 4-х недельный курс по технической оптимизации сайтов Игоря Баньковского. В результате ты научишься проводить лучшие и самые полные технические аудиты любых сайтов.
Курс актуален для тех, кто хочет продвигать средние и большие сайты под Google и особенно назапад.
Особенности
⚙️ Актуально. Программой покрыты все актуальные темы "на сейчас". Вы получаете нужные и свежые знания без которых продвигать сайты назапад сейчас невозможно.
⚙️ Курс от практика. Занимаюсь внутренней оптимизацией больше пяти лет, а SEO больше восьми. Работаю с большими сайтами и рынками USA + EU.
⚙️ Уникальный формат. Две записанные лекции + 15 минут индивидуального обучения каждую неделю. По каждой лекции тесты и ДЗ с фидбеком и ответами на вопросы!
⚙️ Результат курса. Уверенные знания Tech SEO и полный уникальный аудит вашего сайта
👉 Для записи на курс и всех подробностей кликай тут!
Знаешь кому этот курс будет полезен? Отправь ему ссылку!
✒️ Как быстро и в полном обьеме обрабатывать данные Google Search Console

На просторах СНГ Google Search Console (далее GSC) не получила большой популярности. А зря. Зарубежные спецы работают с этим инструментом очень плотно. В этой статье я покажу как быстро и полностью вытянуть данные из отчета Perfomance в GSC. Плюс пару приемов как эти все данные проанализировать.

Итак, что можно вытянуть из этого отчета:

- Страницы
- Кейворды
- Показы
- Клики
- CTR

При этом вы должны понимать, что данные группируются или по страницам или по кейвордам.

Проблема просмотра всех данных в интерфейсе - ограниченность 1000 записями и не самый удобный интерфейс. Нам бы хотелось работать в таблице и иметь в своем распоряжении максимум данных.

В этом нам помогут Google Sheets и бесплатное дополнение Search Analytics for sheets.

Установив это дополнение вы сможете по API тянуть прямо в таблицу все нужные вам данные.

При работе с дополнение важно помнить, что:

- Вы можете запрашивать данные сгруппированные по представлению и по страницам. Они могут отличаться (в 99% случаев)
- Полезно запрашивать данные с разбивкой по устройству - в свете mobile first анализируйте сразу мобилки

Крутая фишка

Вы можете создавать расписание автоматических бекапов данных. У вас в таблице периодически будут появляться новые выгрузки. Самостоятельно нажимать ничего не придется.

🔨 Что дальше делать с данными?

Простор для анализа тут огромен. Я вам предлагаю два быстрых варианта. Создайте сводную таблицу из полученных данных и настройте:

1️⃣ Строки "Ключевые слова" и значения "Показы" и "Средняя позиция". В такой таблице вы сможете увидеть кейворды с большим количеством показов, но средней позицией за ТОП10. Для вас эти кейворды могут быть низковисящими фруктами. Надавите на них и быстро получите траф!

2️⃣ Строки "Кейворды" и "Урлы", значения "Показы", "Клики" и "Средняя позиция". В такой таблице вы сможете отследить каннибализацию ваших ключей. Плохо, когда по одному кейворду конкурируют несколько страниц сайта между собой (исключение - вы в топе с обоими урлами). Тут вы сможете быстро под каждым кейвордом увидеть урлы, которые получили показы + все остальные метрики по ним.

Анализируйте, думайте и действуйте!
🤜 Новый подкаст
На этот раз у меня в гостях Иван Чумаченко - "главный по SEO" в Govitall. У Вани больше 14 лет опыта в SEO и 10 из них он посвятил работе в нише essay. Какими качествами нужно обладать, как строить команду, сколько можно заработать и что работает, а что нет. Все в этом подкасте!
​​🤜 Новости SEO 05-11.19

1️⃣ John Muller заявил, что количество слов не является фактором ранжирования в Google: "Word count is not a ranking factor. Save yourself the trouble."

2️⃣ В блоге вебмастеров появилась новость, что теперь новый Evergreen Googlebot будет использоваться в инструментах тестирования самого Google. До этого там использовалась предыдущая версия Googlebot.

Evergreen Googlebot будет использоваться в таких инструментах:

- Google Search Console
- Mobile-friendly тест
- Rich results тест
- AMP тест

3️⃣ Запущена новая версия интерфейса в Google Images

4️⃣ Наш любмимец John Muller напомнил, что JavaScript редиректы обрабатываются Гуглом аналогично стандартным серверным.

👌 Выводы

Можно ли поверить Джону, что количество слов не является фактором ранжирования? Думаю да. Важно не сколько, а что написано.

Прекрасно, что инстурменты Гугла теперь будут адекватно работать с яваскриптовыми сайтами.

Все плюются от нового интерфейса Google Images - я тоже в их числе. А вам как?
​​🖋 Какие теги ставить на страницах пагинации

Столько неопределенности и жарких споров, как о тегах на пагинации ты не увидишь нигде. Количество мифов и заведомо ложных представлений зашкаливает. В этой заметке я расскажу как я реализую пагинацию, зачем она нужна и какое будущее у этих страниц.

Ты задавал(а) себе вопрос: "Для чего моему сайту нужна пагинация"? Если нет - самое время это сделать. Возможных ответа может быть два:

- Для навигации пользователя/конверсии/денег
- Для индексации максимального количества товаров

Все другие ответы являются ответвлениями или модификациями этих.

Если твой ответ №1 - смело закрывай от индексации пагинацию и не знай проблем. Легче всего это сделать с помощью <meta name="robots" content="noindex, follow">. Дополнительно в GSC в настройке обработки урлов запрети проход бота по урлам с параметром пагинации.

Если ты выбрал ответ №2 - есть два варианта

1) Попытаться добиться индексации товаров пагинацией

2) Создать так много посадочных страниц, сколько нужно для покрытия всей сематики и размещения на них подборок ваших товаров.

⚙️ Цель: Добиваемся индексации товаров пагинацией

Мне этот способ откровенно не нравится. Анализ логов сервера показывает, что бот очень неохотно ходит даже по открытой пагинации. Поэтому функцию индексации товаров пагинация выполняет на 30-50%.

Если же ты выбрал этот способ, то нужно обязательно выполнить такую минимальную оптимизацию:

- урл с параметром page=1 (или подобным для твоего сайта) редиректить 301-м редиректом на первую страницу без параметра
- уникализировать Title
- удалить или уникализировать Description
- уникализировать или удалить h1
- в GSC в инструменте обработки параметров урлов добавить параметр пагинации с обработкой "пагинация" + "проходить каждый урл"

⚙️ Цель: Добиваемся индексации товаров созданием нужного количества уникальных посадочных

Этот вариант лучше остальных. Выгода его в том, что ты расширяешь свою семантику + позволяешь всем нужным товарам проиндексироваться.

Нужно создать столько категорий, подкатегорий, страниц тегов - сколько возможно при этом сохраняя их относительную уникальность. Нет смысла создавать 2 страницы с полностью одинаковым контентом. Твой алгоритм может быть такой:

1) Анализируешь семантику и понимаешь какие паттерны существуют и как сильно их можно множить. Это может быть связка: предмет + город, товар + бренд, товар + модель, модель + отзыв, тип + цвет и тд!

2) Пишешь шаблон формирования тегов и метатегов для этих страниц. Старайся использовать как можно больше уникальных слов для каждой страницы

3) Формируешь логику того, какие товары будут показываться на этих страницах. Если на некоторых страницах подборка товаров одинакова - делай их перестановку по порядку. Слабо - но помогает.

4) Создаешь логику перелинковки этих страниц между собой. Это очень важно! Нужно добиться того, что на каждую страницу будет стоять ссылка. И лучше не одна, а минимум 5-10.

🙈 Canonical и пагинация

Вижу иногда советы или реализацию пагинации с canonical на первую страницу. Таким образом пытаются избаться от дубликатов. Если ты тоже так делаешь - перестань! Canonical - это рекомендация для Google и он может ее не воспринимать. И на практике он именно так и делает. Плюс к этому Canonical показывает, что страница дубликат. Зачем показывать, что на сайте есть множество дубликатов?

Будущее пагинации

Что будет с пагинацией через пару лет? Уже сейчас Google понимает где страница пагинации, а где обычная. Вполне вероятно, что с развитием сайтов на JavaScript сайты откажутся от пагинации совсем! Будет просто подгрузка новых товаров на странице кнопкой, а отдельных страниц не будет существовать вообще. И только старожили будут рассказывать, как мучались с оптимизацией миллионов страниц пагинации на сайте :)
👌 Понравилась статья? Расшарь ее своим друзьям и коллегам!