Канал – SEO
891 subscribers
1 photo
93 links
3 раза в неделю публикую важные новости и полезные наблюдения в сфере SEO.
Download Telegram
Использование страниц тегов для информационных материалов🤔.

Теги(метки) – проставляются для информационных материалов для группировки тематических статей по ключевым словам. Ссылки на страницы тегов, обычно, выводятся под статьей. Раньше, под каждой статьей размещали десятки ссылок на теги или даже облако тегов.

Считалось, что обилие тегов упрощает навигацию по сайту, а некоторые утверждали, что теги улучшают ранжирование сайта. Даже сейчас задают вопросы по этому поводу Джону Мюллеру.

К счастью, теперь теги и облако тегов используются не так часто и, в большинстве случаев, когда это реально нужно. Но, в популярных CMS и шаблонах, по умолчанию, существуют поля для добавления тегов и их продолжают добавлять, считая, что теги используют пользователи или сайт будет лучше ранжироваться.  Хотя, на самом деле это не так.

В чем проблема тегов?
1. Создаются сотни страниц, которые не содержат ничего, кроме ссылок на другие статьи. Получается владельцы сайтов своими руками создают мусорные страницы сотнями. Их слишком много и трафика они не приносят.
2. Из-за разного написания тегов, могут быть сотни страниц тегов по коронавирусу(коронавирус, covid, covid-19, covd-19, covid-20, корона, etc). 
3. Без корректной оптимизации страницы тегов только ухудшают ранжирование сайта.

Теги можно использовать, если на сайте большое кол-во информационного контента, который очень сложно структурировать стандартными методами. Идеально подходит для новостных сайтов. Благодаря тегам можно создать все необходимые посадочные страницы и сделать перелинковку, чтобы улучшить скорость сканирования материалов.

5 советов по работе с тегами для новостных сайтов:
1. Составьте подробную инструкцию для авторов, чтобы они заполняли теги правильно и не было дубликатов с разным написанием. Это самое сложное, ведь нужен регулярный контроль.
2. Устраните лишние теги. Лучше прописать редирект и удалить внутренние ссылки на них.
3. Тексты на страницы тегов писать нет смысла, ничего не даст, можно не пытаться.
4. Под каждую группу тегов пропишите метатеги и заголовок <h1> по шаблону.
5. Можно не добавлять под статью список тегов, а проставлять ссылки из текста, как делает lenta.ru.

Кстати, вот подробный материал по продвижению новостных сайтов.

@inseo_inweb
Дайджест новостей на 19.02.

1️⃣ Google обновил показатели Core Web Vitals.

Google обновил метрики, определяющие границы для LCP, FID, CLS, которые раньше были <(меньше чем), теперь определены как <= (меньше или равны). Поэтому вы можете увидеть изменение статусов (в лучшую сторону) в этом отчете.

В Search Console появилась метка об обновлении данных о скорости загрузки страниц.

Теперь рекомендуемые показатели по LCP, FID и CLS выглядят следующим образом.

2️⃣ Использование JS редиректов.

Гэри Ильш на Reddit'e ответил на вопрос пользователя об использовании редиректов через JavaScript. Гэри сказал, что Google учитывает редиректы, реализованные при помощи JS, но не рекомендует их использовать. Ведь есть другие поисковые системы, у которых с такими редиректами, мягко говоря, возникают сложности.

Рекомендую вообще не использовать JS редиректы.

3️⃣ Учет открытых данных в WHOIS при ранжировании.

Опять же, на Reddit'e задали вопрос о влиянии данных в WHOIS на ранжирование. Джон Мюллер кратко ответил "Нет".

Можно спокойно скрыть информацию о владельце домена и на ранжирование в Google это никак не повлияет.

@inseo_inweb, #новости
Дайджест новостей на 22.02.

1️⃣ Google в поисках новых страниц.

Джон Мюллер, отвечая на вопрос в Twitter, сообщил, что GoogleBot переходит по ссылкам атрибута action для форм и даже по url-адресам в текстовых документах.

От себя добавлю, что GoogleBot будет пытаться просканировать всё что хотя бы отдаленно напоминает url-адрес. В статьях на блоге публикуем приколы кодов, которые обрамлены в тег <code>.

Например:
<code>
// Убираем /index.php?route=common/home
//------------------------------------------------------------------------------
$rurl = $_SERVER['REQUEST_URI']; 
if (($rurl=='/index.php?route=common/home') && (empty($_POST))){
  header("HTTP/1.1 301 Moved Permanently");
  header("Location: /");
  exit();  
}
//------------------------------------------------------------------------------
</code>


Судя по логам сервера, GoogleBot регулярно пытается просканировать /index.php?route=common/home, даже редирект пришлось прописать.

2️⃣ Короткие статьи и новостные сайты.

Во время Google SEO office-hours от 19 февраля затронули темы коротких новостей и их влияние на ранжирование в Google. Будут ли они считаться некачественным контентом только исходя из размера? Стоит ли небольшие заметки в один абзац закрывать от индексации?

Если резюмировать обсуждение на эту тему – Джон Мюллер говорит следующее:

1. Google не оценивает качество статьи только исходя из размера. Иногда, короткие статьи подходят, чтобы дать информацию пользователю.
2. Если для Google News не подходят маленькие статьи(он не в курсе актуальных правил Google News) – можно закрыть их для индексации только в Google News.
3. Страница с малым количеством контента не расценивается автоматически как некачественная. Google не оценивает ценность контента только по длине.

Короткое содержание тоже может быть хорошим, если отвечает на запрос пользователя.

3️⃣ Качество внешних ссылок важнее количества.

Джон Мюллер утверждает, что общее количество обратных ссылок на сайт не имеет никакого значения для алгоритма поиска. Одна хорошая ссылка с релевантного сайта может быть более эффективной, чем миллионы ссылок низкого качества.

Джон советует владельцам сайтов не сосредотачиваться на общем количестве ссылок, ведущих на их сайт, или на общем количестве уникальных ссылающихся доменов.

Когда дело доходит до ссылок, для Google важно то, насколько каждая из них соответствует тому веб-сайту, на который она указывает.

@inseo_inweb, #новости
🔥 Подборка полезных модулей для Opencart, часть – 1

1️⃣ Ускорение сайта.

Hi-Optimizer for Opencart – интеллектуальный оптимизатор сайта для повышения скорости загрузки страниц и оценки pagespeed Google.

OpenCart Lightning – мод для ускорения работы магазинов с целым рядом технологий и ноу-хау.

Image Compressor (VQMod) — сжимает все файлы jpeg и png, которые вы загружаете через менеджер изображений в админке Opencart.

Native LazyLoad для Opencart – lazy load для изображений.

2️⃣ ЧПУ.

Модуль для автозаполнения полей SEO URL (алиас) на Opencart 2.x. – генерирует поле на основе строки «Название» с транслитерацией на латиницу и с фильтрацией запрещенных символов.

Модуль для автозаполнения полей SEO URL при создании или редактировании товаров, категорий, производителей, страниц на Opencart.

Модуль SEO PRO формирует читабельные ссылки и полностью убирает дубли страниц, которых в стандартном ЧПУ Opencart очень много.

Автозаполнение SEO URL – заполняет поле SEO URL при активности в поле “Название”. На основе этого поля создается SEO URL с транслитерацией кириллицы на латиницу.

3️⃣ Метатеги.

SEO Tags Generator — модуль обеспечивает автоматическую SEO оптимизацию метатегов всех категорий и товаров, что важно для SEO продвижения интернет-магазинов, чем избавляет вас от лишней рутины при добавлении товаров.

SEO Генератор мета тегов — SEO генератор мета описания, который позволяет провести оптимизацию всех категорий и товаров.

4️⃣ Редиректы.

Модуль Менеджер 301 – понадобится для создания 301 редиректов для устранения дублей страниц.

Модуль Менеджер 301 редиректов для Opencart — позволит создавать 301 редиректы на Opencart просто и понятно прямо из админки сайта.

5️⃣ Индексация.

Robots noindex — небольшое дополнение, которое добавляет тег на некоторые страницы.

Noindex, Follow, Noindex-NoFollow Tag Module позволяет добавлять тег на любую страницу, которую вы хотите, со страниц категорий, продуктов, информации и производителей.

@inseo_inweb
🔥 Подборка полезных модулей для Opencart, часть – 2

6️⃣ Разметки.

MicrodataPro в модуле используется новейший формат микроразметки application/ld+json и более консервативный microdata, который поможет «понравиться» всем поисковым системам.

SEO: Микроразметка товаров, категорий с ее помощью поисковые системы, как Яндекс или Гугл, получают больше информации о вашем контенте.

Модуль Разметка Open Graph создан, чтобы управлять отображаемым содержимым при публикации ссылок в соцсетях. Модуль добавляет метатеги с данными для социальных сетей.

Микроразметка Open Graph Facebook Share для Opencart позволяет любой веб-странице стать полноценным объектом в социальных сетях.

7️⃣ Администрирование сайта.

Batch Editor – пакетное редактирование товаров.

Простая загрузка изображений для Opencart – дает возможность загружать и прикреплять изображения прямо с компьютера или по прямой ссылке.

Расширенный редактор CKEditor – вместо стандартного ограниченного редактора summernote можно использовать полноценную версию CKEditor для создания и редактирования описаний товаров и категорий, для написания текстов статей и т.д.

8️⃣ Другие полезные модули.

Alt Title Tag Image — позволяет настраивать теги alt и title для продукта, категории и изображения баннера.

SEO Генератор перелинковки товаров — модуль для быстрой генерации перелинковки между товарами товаров в Opencart.

Mega Filter PLUS — усовершенствованная и удобная в использовании система фильтрации. Это позволяет эффективно и быстро осуществить поиск продуктов, согласно выбранных критериев поиска, такими как атрибуты, параметры, фильтры, категории и многие другие.

SEO мультиязык / мультирегион – модуль управления переключением языка, регионами(городами), мультимагазинами и пагинацией.

SEO Link Multi Languages – поможет вам создать определенные SEO-ссылки для каждого языка, что важно для SEO-оптимизации.

Branched Sitemap – создаст в вашем OpenCart-магазине разветвленную карта сайта. Загрузка ее страниц происходит так же легко, как любой другой страницы.

SEO HTTPS FIX PRO – дополнение предназначено для корректного переноса Opencart на HTTPS протокол, и устранения проблем, связанных с этим процессом.

Расширенное отслеживание электронной торговли в Google Analytics позволяет измерять взаимодействие пользователей с продуктами в магазинах OpenCart в процессе покупок, включая выбор продукта, просмотр сведений о нем, добавление в корзину, начало процесса оформления заказа, покупок и возвратов.

Feed менеджер (Facebook & Google feeds) Opencart — это расширение создает фиды товаров для Google и Facebook для динамического ремаркетинга.

Модуль Simple — упрощенная регистрация и заказ.

Умный поиск — работает через ajax в режиме реального времени. Поддерживает возможность находить товары, даже если запрос введен с ошибкой или в другой раскладке клавиатуры.

@inseo_inweb
Исследование по оптимизации Featured Snippets

Featured Snippets – отдельные кусочки информации, которые появляются в топе поисковой выдачи Google. Они отвечают на запрос, вытаскивая релевантный контент из страниц, которые стоят в топе.

A.J. Ghergich вместе с Semrush провели исследование по оптимизации Featured Snippets. В рамках исследования, проанализировали более миллиона SERP с featured snippets.

Итоги исследования:

1️⃣ По 19% поисковых запросов показывается fetured snippet. Как показывает другое исследование, в среднем, CTR для такого типа результатов поиска составляет 35%.
2️⃣ 99% featured snippets появляются на первой позиции и занимают более 50% экрана на мобильных устройствах, что приводит к увеличению CTR.
3️⃣ В тематиках кол-во результатов поиска с featured snippet отличается. Например, в тематике путешествий таких результатов 62%, а в новостях 32%. Подробная статистика.
4️⃣ Оптимизируйте контент под длинные запросы и вопросы. Исследование показало, что 55,5% featured snippets показываются по 10-ти словным запросам, в то время как по однословным – 4,3%.

78% запросов с featured snippet содержат вопрос, который начинается с "why". Полная статистика.

5️⃣ Страницы, которые показываются в featured snippets содержат:

5.1. 70% результатов содержали абзацы, в среднем, из 42 слов и 249 символов.
5.2. 19% результатов содержат списки, в среднем, из 6 элементов списка и 44 слов.
5.3. 6% результатов содержат таблицы, в среднем, 5 строк и 2 столбца.
5.4. 4,6% результатов содержат видео, в среднем, 6:39 минут.

6️⃣ Вложенность url-адреса имеет значение. Следует придерживаться 1-3 вложенных папок в URL.

xyz.com/subfolder1/subfolder2/subfolder3

7️⃣ Регулярно обновляйте контент. Большинство рекомендуемых фрагментов Google содержат дату статьи со следующей разбивкой: 47% featured snippets в виде списка берутся из содержания с пометкой даты, абзацы – 44%, видео – 20% и таблицы – 19%.

Google может отдавать предпочтение свежему контенту, 70% всего контента, попавшего в featured snippet, было возрастом от двух до трех лет.

@inseo_inweb
Дэниел Вайсберг про краулинговый бюджет и отчет по статистике сканирования в Search Console.

Дэниел Вайсберг из Google выпустил видео о краулинговом бюджете, который так любят SEO-специалисты, скорости сканирования и сделал краткий обзор отчета "Статистика сканирования".

Видео содержит практические рекомендации по работе с отчетом и несколько интересных нюансов, которые стоит знать каждому SEO-специалисту.

Основные тезисы:

1️⃣ Роботам Google, во время процесса сканирования, нужно сделать важное решение, когда и какие страницы сканировать, а также быть уверенным в том, что сайт выдержит нагрузку ботов.

Если сайт медленный и есть ошибки сервера – скорость сканирования сайта уменьшиться. В редких случаях, когда GoogleBot перегружает сервер сайта – можно поставить лимит в Search Console.

2️⃣ Когда на сайте несколько тысяч страниц можно не беспокоиться о краулинговом бюджете.

3️⃣ Crawl Rate(Скорость сканирования) – максимальное количество одновременных подключений, которые робот может использовать для сканирования сайта. Это число периодически рассчитывается Google. Если сервер и сайт справятся с этим, Google сможет сканировать быстрее. 

4️⃣ Crawl Demand – это то, какая часть контента требуется Google, и на него влияют URL-адреса, которые Google не сканировал раньше, и оценка Google того, как часто контент обновляется на известных URL-адресах.

5️⃣ Crawl Budget(Краулинговый бюджет) – количество страниц, которые Google хочет и может просканировать каждый день. Рассчитывается, исходя из скорости сканирования и потребности в сканировании. 

6️⃣ Если фотографии размещены на CDN – статистики по сканированию фото не будет в отчете.

7️⃣ Нужно следить за показателем "Среднее время ответа сервера". Если улучшить эту метрику – постепенно увеличиться и скорость сканирования сайта.

8️⃣ Файл Robots.txt должен отдавать код 200 либо 404. Если /robots.txt отдает ошибку со стороны сервера, например 503 – GoogleBot перестанет сканировать сайт.
Как подсчитать кол-во брендового трафика из Google?

Проблема заключается в том, что данных в Google Analytics по переходам из поисковых систем нет. Точнее есть, но их всего пару процентов от общего кол-ва. Более 90% данных по ключевым словам прячутся за not set и not prodived. Такой проблемы для запросов из Яндекса в Метрике нет.

Хотя, я встречал интернет-маркетологов, которые считают брендовый трафик по Google Analytics. 🤦

Нужно учитывать трафик по брендовым запросам, как минимум для того, чтобы понимать, как эта величина изменяется. Также, это важно при постановке целей по проекту. 

Допустим, если сейчас на сайте в месяц 1000 сеансов и из них 800 – переходы по брендовым запросам. Рост или падение нужно считать не от 1000 сеансов, а от 200.

Оптимизация сайта не даст увеличения брендового трафика – сайт там уже топ1.

Как можно посчитать?

1. Заходите в Search Console.
2. Выбираете отчет "Эффективность".
3. Выбираете нужный период.
4. Отфильтровываете брендовые запросы.
5. Суммируете кол-во кликов и сопоставляете с общим кол-вом кликов за выбранный период.
6. Получаете % брендового трафика на сайт.

Стоит помнить, что данные по кликам ≠ кол-ву сеансов/пользователей в Google Analytics. Вариаций написания бренда могут быть десятки, нужно учесть всё.

Использование дашборда в Google Data Studio

Мы разработали дашборд для мониторинга кол-ва брендовых запросов. Можно один раз настроить дашборд и получить все необходимые данные, просто изменяя период. Как его использовать можно прочитать здесь.

Выгрузка данных в Google Таблицы через R

Для автоматизации процесса подсчета можно сделать регулярную выгрузку данных и построение графиков, используя язык R и Google таблицы. Как реализовать данный метод описано на блоге Netpeak.
Автоматизация внутренних процессов агентства

Поделюсь внутренней кухней агентства Inweb, а именно то как мы автоматизировали проверку некоторых базовых ошибок на клиентских проектах.

Внедрение изменений на сайте может повлечь за собой появление ошибок в оптимизации. Задача SEO-специалиста заключается в том, чтобы вовремя обнаружить и исправить технические ошибки.

Уверен, у каждого SEO-специалиста была ситуация, когда разработчик без предупреждения, в субботу, перенос сайт с тестового на прод вместе с файлом Robots.txt, содержащий директивы:

User-agent: *
Disallow: /


Заметить вовремя и указать на ошибку – очень сложно, особенно, если не предупреждают об изменениях. Даже если сайт персатанет работать на выходных – сообщения о недоступности попадают на рабочую почту, а кто её проверяет на выходных?

Чтобы избежать таких ситуаций мы регулярно проверяем сайт на 14 типов ошибок, например:

1. Недоступность файла Robots.txt либо закрытия важных страниц от сканирования.
2. Недоступность xml-карты сайта.
3. Склейку зеркал с www и без.
4. Доступность сайта одновременно по https и http протоколам.
5. Недоступность сайта, код отличный от 200.

И каждый день по всем проектам специалиста высылаем отчет о найденных ошибках в телеграм. Всё что нужно сделать специалисту – подключить себе телеграм бота, проекты даже добавлять не нужно, все данные мы берем из личного кабинета клиента.

Благодаря дайджесту SEO-специалист может оперативно отреагировать на критические ошибки, даже в выходные дни.
Рекомендации по работе с видео для поиска и рекомендаций Google.

Дэниэл Маршак, менеджер по продукту в Google, делится рекомендациями, которые помогут вашим видео появляться в поиске и рекомендациях Google. Узнайте, как Google индексирует видео, как показывает их в поиске, и как это можно оптимизировать.

Сигналы, по которым Google идентифицирует видеозапись:

1. HTML-теги для видео.
2. Структурированные данные – VideoObject.
3. Карты сайта для видео в формате .xml

Сигналы, по которым Google понимает, о чем видеозапись:
1. Текст страницы, на которой размещено видео.
1.1. Метатеги.
1.2. Заголовки.
1.3. Описание под видео.
2. Ссылки с других сайтов.
3. Структурированные данные – VideoObject.
4. Видео и аудио.

5 основных рекомендаций по оптимизации видео:

1️⃣ Все видеозаписи должны быть доступны публично. Если видео находится внутри приложения – убедитесь, что есть url-адрес страницы с этим видео, доступный GoogleBot.

Видеозаписи должно быть видно на странице и пользователь мог его запустить без особых проблем.

2️⃣ Чтобы помочь Google обнаружить видео и понять о чем там идет речь – используйте разметку VideoObject.

3️⃣ Обязательно нужно высокое качество thumbnail изображения и возможность сканировать URL, на котором оно находится, для GoogleBot.

4️⃣ Используйте .xml карты сайта для видеозаписей. В карте сайта можно указать множество информации о видео, начиная от метатегов и заканчивая длительностью видео.

5️⃣ Убедитесь, что GoogleBot имеет доступ к файлам видео. Дэниел рекомендует добавлять функции предварительного просмотра(как в Youtube при наведении на видео) и таймкоды.

Предварительный просмотр видео может использоваться в выдаче Google, он более привлекателен, чем просто изображение.

Можете использовать max-video-preview для указания длительности превью видео в выдаче.
За 2020 год 65% поисковых запросов в Google были без кликов

Рэнд Фишкин опубликовал исследование на SparkToro о том, что с января по декабрь 2020 года 64,82% всех поисковых запросов не завершились кликом на другой сайт.

1️⃣ Проанализировано через SimilarWeb 5,1 триллиона поисковых запросов за 2020 год в Google.

2️⃣ Данные о поисковых запросах собирались с более чем 100 млн мобильных и настольных устройств.

3️⃣ Из 5,1 триллиона запросов только 33,59% привели к кликам по результатам органического поиска, а 1,59% по платной рекламе.

4️⃣ Остальные 64,82% выполнили поиск без прямого последующего перехода на другой веб-ресурс.

5️⃣ Поисковые запросы, приводящие к клику, намного выше на настольных устройствах (органический CTR 50,75%, платный CTR 2,78%).

6️⃣ Поисковые запросы с нулевым кликом" намного чаще встречаются на мобильных устройствах – 77,22%.

7️⃣ CTR по 5,1 триллиону запросов для десктопа выглядит следующим образом:

Без клика: 46,48%
Органические результаты: 50,75%
Платная реклама: 2,78%

7.1. CTR по мобильным устройствам:

Без клика: 77,22%
Органические результаты: 21,99%
Платная реклама: 0,79%

8. Общая статистика по поисковым запросам с 2018 по 2020 год.

В исследовании показана "средняя температура по больнице" для всех поисковых запросов, именно поэтому такой малый процент платных результатов поиска.

Прежде чем начать волноваться, что Google «забирает» трафик, лучше сделать подобное исследование в коммерческой тематике, без информационных запросов. Там 100% будут совсем другие данные.

В тексте исследования сделан акцент на том, что Google монополист. Западные специалисты ещё с Яндексом не работали)

@inseo_inweb
Как мы используем Google Analytics API в Inweb

При помощи Google Analytics API можно получать практически любые данные из Google Analytics и агрегировать их у себя в CRM/ERP. В агентстве мы используем API для получения дайджестов о результатах проектов и работаем над оперативным обнаружением проблем с настройкой аналитики. Как я ранее писал, в Inweb мы много уделяем внимания автоматизации процессов и уменьшению влияния человеческого фактора на эффективность работы. 

В посте не будет информации о технических нюансах работы с API, это не rocket science, любой программист разберется. Поделюсь нашим опытом.

1️⃣ Как связываем проект с Google Analytics?

1. Добавляем сервисную почту на уровне аккаунта в Google Analytics. К сожалению, к одной такой почте можно только 100 аккаунтов. 
2. В личном кабинете клиента указываем в настройках проектах ID ресурса и представления, с которых будем получать данные.

2️⃣ Оповещения о наличии проблем.

2.1. Оповещение по падении трафика.
Каждый день проверяем кол-во трафика за предыдущий день в сравнении с тем же днем на предыдущей неделе. Если кол-во трафика уменьшилось более чем на 50% – присылаем уведомление в телеграм команде проекта.

2.2. Оповещение о падении кол-ва транзакций.
Каждую неделю, в дайджесте, приходит оповещение, если кол-во транзакций значительно уменьшилось, по сравнению с предыдущим периодом.

3️⃣ Еженедельный и ежемесячный дайджесты.

Каждый понедельник, по всем проектам сотрудника приходит еженедельный дайджест в телеграм по основным показателям: данные по продажам, выполнению целей и трафику. Данные берем только из канала organic, сравниваем с предыдущей неделей.

Ежемесячный дайджест приходит 1 числа каждого месяца, и, кроме всего прочего, содержит данные о наиболее просевших и выросших страницах. Это помогает понять за счет чего трафик вырос или просел.

К этим дайджестам у нас есть возможность подключить клиента. Ему необходимо только подключиться к телеграм боту, а команде указать его ссылку в настройках проекта.

Еженедельный и ежемесячный дайджест существенно помогают команде проекта и клиенту быть в курсе показателей, даже не заходя в Google Analytics.

4️⃣ Внутренний инструмент проверки KPI.

В личном кабинете для сотрудников реализовали функционал получения данных из Google Analytics по всем активным проектам агентства. Можно выбрать проект из списка либо по ответственным сотрудникам, указать необходимый период и получить все данные.

Раз в месяц мы делаем срез по всем активным проектам и изучаем результаты. Отдельно ведем статистику по показателям каждого SEO-специалиста.
Inweb активно расширяется и у нас сейчас открыто 6 вакансий: от SDR до маркетолога. Гибкий график, офис в центре Одессы и самая крутая команда ever!

Если заинтересовала вакансия – заполняйте анкету на сайте 👈

1️⃣ Middle SEO-специалист.

Мы ищем SEO-специалиста, который возьмёт на себя работу по клиентским проектам агентства и даст ощутимый результат в виде увеличения трафика и бизнес KPI. Работа SEO-специалиста в Inweb – сложная, требует концентрации и гибкого мышления. Основная часть наших клиентов работает на рынок СНГ.

Конечно же, нужно уметь пользоваться инструментами, обладать опытом работы отдвух лет и успешными кейсами.

2️⃣ Помощник SEO-специалиста.

На мой взгляд идеальная вакансия для того, кто хочет начать работать в digital. Это такая себе SEO-интернатура, где можно сразу научиться азам оптимизации сайта и начать приносить пользу реальным клиентам и бизнесам. Проще говоря, нужно выполнять задачи SEO-специалиста, быть внимательным и исполнительным. Опыт работы не важен, мы всему научим.

Самообучаемость и самоорганизованность — основные качества, которыми должен SEO-помощник, потому как для этой должности предусмотрена удаленка и гибкий график. Это отличный старт для роста и перехода на более высокие позиции у нас в агентстве.

3️⃣ Middle Sales Manager.

Нужен общительный, ответственный, уверенный в себе сейлз с опытом работы в B2B желательно, можно в B2C. У нас в Инвеб это не просто привычный продавец услуг, это менеджер по подбору бизнес-решений по оптимизации сайта и контекстной рекламе. Нужно общаться с очень теплыми потенциальными клиентами, обсуждать задачи и стратегии продвижения, составлять и презентовать коммерческие предложения.

4️⃣ PPC-specialist.

Вы подойдете на эту позицию, если обладаете усидчивостью, внимательностью к деталям и трепетными чувствами к цифрам. Да, любовь к креативно-аналитическому подходу в этом деле особенно важна, как и умение грамотно писать на украинском и русском языках.

На этой позиции вы будете составлять объявления, настраивать кампании, анализировать результаты и постоянно оптимизировать рекламу, то есть работать над улучшением её эффективности. Мы ищем в команду и новичков, готовых и способных быстро обучаться, и тех, кто уже прокачался до Middl’a.

5️⃣ Маркетолог уровня Middle.

Знаете что такое MQL, SQL, CPL, CPC, CPA, CAC, LT, LTV? Тогда можно читать далее. На эту должность ищем человека, знающего толк в аналитике, каналах рекламы, запуске промо-акций, организации онлайн-ивентов и др. Да, тут пожалуй можно сказать, что нам нужен широкопрофильный специалист, умеющий и ТЗ для дизайнера написать, и масштабировать работающие маркетинговые каналы, и рынок промониторить.

Человек на этой позиции — тот, кто сможет сделать Inweb еще привлекательнее на рынке и поможет улучшить существующие услуги с точки зрения спроса на них.

6️⃣ SDR или младший сейлз-менеджер.

Вакансия для того, кто с легкостью заводит разговор с незнакомцами. Ищем экстраверта на должность, которая предусматривает много общения — тут и установить первый контакт нужно, и расспросить о бизнесе, и правильно подобрать нужный инструмент интернет-маркетинга. Требования: грамотная речь и письмо, стрессоустойчивость, внимательность к деталям, любовь к людям. Позиция предусматривает работу в связке с Middle Sales Manager.
302 и 301 редиректы для Google равнозначны?

Джон Мюллер уже неоднократно говорил, что 301 и 302 редиректы это практически одно и тоже, с точки зрения того, как Google обрабатывает перенаправление. Джон часто говорил, что не стоит беспокоиться об использовании 302 вместо 301 или наоборот.

Если Google видит 302 редирект в течение нескольких месяцев, можно предположить, что Google изменит статус «временного» перенаправления и будет рассматривать 302 редирект как 301, который является «постоянным» перенаправлением.

Джон Мюллер обьяснил в Твиттере технический аспект определения канонической страницы:

При перенаправлении Google, обычно, помещает URL-адреса в одну корзину, а затем использует канонизацию, чтобы выбрать, какой из них показывать. Рейтинги url-адресов, как правило, будут одинаковыми, поэтому не имеет значения исходный или целевой URL.

Временное перенаправление (например, 302) больше говорит, что исходный URL-адрес может быть предпочтительнее, а постоянный предполагает, что целевой URL-адрес будет предпочтительнее. Однако мы используем гораздо больше, чем просто перенаправления для канонизации.


Итого:
1. По моему мнению, Google сделал таким образом, чтобы "подправить" ошибки большого кол-ва вебмастеров, которые использовали 302 для постоянных перенаправлений.
2. Всё-равно лучше использовать 301 редирект, ведь ждать пару месяцев совсем не вариант + есть другие поисковые системы, кроме Google.
Джону Мюллеру, во время Google SEO Office Hours, задали классический вопрос, который спрашивают многие клиенты "Нужно ли оптимизировать весь сайт, если нужно, чтобы только один url-адрес занимал высокие позиции?".

Ответ Джона заключается в том, что это необязательный критерий, но оптимизация всего сайта существенно поможет в ранжировании одного url-адреса. Когда дело доходит до ранжирования, Google, в первую очередь, смотрит на страницу, но она всегда встроена в контекст всего веб-сайта. Стоит улучшить сайт в целом, чтобы Google лучше понимал, насколько эта конкретная страница действительно важна и какова на самом деле её ценность.

Джон добавил: «Я бы сказал, что если вас волнует одна конкретная страница на вашем веб-сайте, тогда вы должны убедиться, что остальная часть веб-сайта, связанная с этой страницей, максимально улучшена.»

От себя добавлю, что это действительно так. Чтобы получить высокие позиции нужно работать над качеством всего сайта, а не только некоторых страниц. Оптимизация только одного документа дает результат, но он будет в разы хуже, чем от работы над сайтом в целом.
Новый отчет в Google Search Console

Google анонсировал новый отчет под названием Page Experience report(Работа страниц), который сегодня запущен в Google Search Console. Этот новый отчет объединяет основной отчет Web Vitals с другими показателями.

Новый отчет содержит следующие данные:

1. LCP.
2. FID.
3. CLS.
4. HTTPS.
5. Удобство для мобильных.
6. Отсутствие навязчивых объявлений.
7. Статус безопасного просмотра.

Под графиком, который иллюстрирует % эффективных url-адресов есть блок с сигналами, отражающие удобство страницы.
Насколько точен показатель средней позиции в Google Search Console?

Джон Мюллер, во время последней серии видеороликов "Ask Googlebot" дал ответы на популярные вопросы о рассчете средней позиции сайта в Google Search Console. Можно верить этому показателю или есть нюансы?

Показатель "Средняя позиция" – основан на реальных данных, даже если значения не совпадают с тем, что видят владельцы сайтов, когда проверяют свои позиции. Джон Мюллер утверждает, что это может быть связано с такими факторами, как персонализация или геотаргетинг.

Данные в отчете об эффективности поиска в Search Console основаны на фактических результатах поиска, которые были показаны пользователям. Это не теоретическое число, а число, основанное на реальных результатах. Следует помнить, что URL-адреса могут быть показаны в Картинках Google или обычных результатах поиска. Эти позиции учитываются при расчете средней позиции.

Если в результатах поиска появляется несколько URL-адресов сайта, Search Console будет использовать URL с наивысшей позицией для вычисления среднего значения.

Для того чтобы корректно интерпретировать данные из GSC следует разобраться с тем, как они считаются и только тогда можно сделать правильные выводы. Рекомендую ознакомиться со справкой, после её прочтения отпадет большинство вопросов.
Как Google узнает, что контент принадлежит одному автору

Во время Google Search Central от 23 апреля Джон Мюллер описал метод, как Google определяет, что у нескольких разных материалов в интернете один автор.

1️⃣ Нужно согласовать все сигналы в одном месте, например, в профиле в социальной сети. Дать ссылку на центральное место, где, как все объединяется для этого автора.

Когда Google сканирует статьи и видят связанные с ней страницы авторов, он может узнать, что это один и тот же автор, на основе общего профиля в социальной сети, который там есть.

2️⃣ Если автор постоянно ссылается на свой Twitter, это поможет Google распознать, что за несколькими страницами авторов стоит один человек.

3️⃣ Авторство определяется на основе ряда различных факторов(жаль, что Джон не перечислил каких именно). И это действительно включает такие вещи, как, например, ссылки на страницы профиля или видимую информацию, которую Google может найти на самих страницах.

4️⃣ В качестве иллюстрации всего принципа Джон Мюллер приводит забавный пример:

Если вы поищете мое имя – вы найдете страницы Википедии, барбекю-рестораны, музыкальные группы, и других людей, которых зовут Джон Мюллер.

Если на своем сайте я не укажу, кто я на самом деле, то может случиться так, что наши системы посмотрят на мою страницу и скажут: «О, это тот парень, который управляет этим рестораном барбекю». И внезапно меня ассоциируют с барбекю-рестораном, что может быть шагом вперед, я не знаю.
Важный нюанс по работе с Core Web Vitals сообщил Джон Мюллер во время SEO office-hours, который стоит учитывать при анализе скорости страниц.

Google оценивает показатели скорости загрузки групп страниц, а не каждой в отдельности. Когда Google обнаружит новый url-адрес, который является частью группы – будут использованы существующие данные по группе в целом.

Допустим, на странице есть 20 страниц услуг с url-адресами:

/service/cleaning/service1
/service/cleaning/service2
etc.

У большей части, например 15, очень медленная скорость работы и не выполняются рекомендации по LCP, FID и CLS. Даже те 5 страниц, которые идеальны – теоретически, будут хуже ранжироваться из-за того, что они находятся в группе с медленной скоростью работы.
Песочница в Google

Джон Мюллер, во время очередного SEO Office Hours, дал развернутый ответ по поводу ранжирования новых страниц/сайтов в поиске Google.

SEO-специалисты уже давно используют термин "Песочница" для обозначения ситуации, когда новый сайт/страница плохо ранжируется. Считается, что должно пройти время пока сайт выберется из "песочницы".

Джон Мюллер подробно объяснил, как происходит всё на самом деле:

1. Когда поисковая система видит новые страницы - у нее недостаточно данных о качестве документов.
2. Google, на основании имеющихся данных, пытается предсказать релевантность документа определенным запросам.
3. Со временем, Google получает больше сигналов о качестве документа, и, конечно же, изменяет ранжирование страниц.
4. Вследствие этого, ранжирование страниц может значительно измениться.

Приведу пример:
1. На сайте появилась новая статья.
2. Google просканировал и проиндексировал документ.
3. Исходя из имеющихся данных по сайту, Google сделал предположение, что эта статья очень хороша и начал её высоко ранжировать по поисковым запросам.
4. Со временем, Google получил данные о том, что CTR в выдаче низкий, много возвратов в выдачу, та и вообще статья не так хороша, как ожидалась.
5. Google понижает ранжирование статьи, так как первоначальная оценка качества документа была ошибочной.

Вывод:
Google дает первоначальную оценку документу и со временем её пересматривает, когда получает больше данных о качестве документа.
Google Core Update June 2021

2 июня Google анонсировал запуск June Core update. Этот апдейт будет особенный, так как разделен на две части. Вторая часть будет запущена в июле, так как некоторые улучшения у команды поиска ещё не до конца готовы и они решили разделить обновление.

Больше информации о Core Update в блоге Google.