SiteAnalyzer
1.68K subscribers
176 photos
2 videos
2 files
239 links
Обсуждение программы SiteAnalyzer: замечания, предложения, баги, улучшения и новые версии, а также новости и лайвхаки по SEO ✔️

Запрещены:
- Оскорбления. Реклама. Флуд.
Download Telegram
Учет неизвестных краулеров в Robots.txt

Как не гоняться за всеми новыми краулинговыми ботами, чтобы добавить на них запрет в файлах Robots.txt?

Вместо того, чтобы использовать подход использования "черных списков" (disallow: / на каждый юзер-агент) - можно перейти к использованию "белых списков".

Просто перечислите все директивы для нужных User-Agent и завершите файл следующим образом:

User-agent: *
Disallow: /

Таким образом, вам нужно будет беспокоиться только о краулерах, которые ХОТЯТ просканировать ваш сайт.

А все остальные краулеры, сканеры и боты пойдут мимо.

#seoполезности
​​30+ пунктов по оценке полезности контента для пользователя и повышения его качества в глазах поисковых систем... https://site-analyzer.ru/articles/helpful-content-assessments/
Нежелательный совет по SEO

Прикрепленное к данному посту изображение заставило некоторых людей отказаться от оптимизации мета-тегов Description, при этом Google совсем недавно обновил документацию, чтобы подтвердить, что их основным сигналом для поискового сниппета является не мета-описание, а контент на странице.

🥈 По сути, мета-тег Description существует только в качестве запасного варианта на случай, если Google не сможет найти соответствующие детали на странице (а это означает, что у вас, вероятно, возникнут более серьезные проблемы).

🗣 Процитируем Google: «Сниппеты в основном создаются из самого содержимого страницы. Тем не менее, Google иногда использует HTML-элемент мета-описания, если он может дать пользователям более точное описание страницы, чем контент, взятый непосредственно со страницы».

🖋 Google переписывает мета-описания ~80%+ времени, потому что у него есть доступ к контексту запроса, а у вас нет.

Для большинства страниц есть более интересные вещи, на которые можно потратить свое время, чем мета-тег Description.

Справка Google по сниппетам https://developers.google.com/search/docs/appearance/snippet?hl=ru

Выкладывайте ваши наблюдения в комментариях к материалу!
SEO-новости, о которых вам НУЖНО знать

💀 В марте 2024 года Google отключит сайты, созданные с помощью профиля компании Google, и будет перенаправлять их в профиль компании до 10 июня 2024 года, после чего переадресация перестанет работать.

🔎 Обновление алгоритма локального ранжирования Google, возможно, произошло в четверг, 4 января, когда инструмент BrightLocal Local RankFlux показал оценку 5,92 Flux, одну из самых высоких зарегистрированных, что указывает на множество изменений в ранжировании.

📂 Google внес поправки в свою документацию, чтобы уточнить, что структурированные данные и мета-описание не являются первоисточниками для генерации сниппетов поисковой выдачи, а фактически самим содержимым страницы.

Фрагменты FAQ и HowTo снова исчезли, после того, что, по-видимому, является коротким тестом Google на их восстановление, после их предыдущего удаления Комментариев от Google не поступало, но ожидайте увидеть влияние на ваш GSC.

🕷️ Ограничитель скорости сканирования в Google Search Console теперь исчез, и Google заявляет, что они улучшили логику сканирования и другие инструменты. Так что, если вы не можете найти его, то вот почему - он больше не нужен по Гуглу!

📧 Gmail запускает новые средства защиты, а это означает, что отправители массовых рассылок должны будут аутентифицировать электронные письма, легко отписываться от рассылки и оставаться ниже пороговых значений спама, что потенциально повлияет на крупные цифровые PR-агентства.

🤖 В Schema v24.0 добавлены подтипы Physician (IndividualPhysician и PhysiciansOffice), а Google добавил поддержку свойства suggestedAge в качестве альтернативы suggestedMaxAge и suggestedMinAge.

🛍️ Магазин OpenAI GPT запущен для платных участников, подписанных на ChatGPT Plus. OpenAI заявила, что введет выплаты разработчикам GPT в первом квартале этого года, но на данный момент не предоставила никаких подробностей.

📱 В плагине Wordpress AMP, установленном на 100 000+ сайтах, была обнаружена XSS-уязвимость, которая позволяла злоумышленникам внедрять вредоносные скрипты. Веб-мастерам рекомендуется обновиться как минимум до версии 2.5.1.

🐛 Некоторые SEO-специалисты считают, что в настоящее время в Google есть ошибка ранжирования, из-за которой сайты неоднократно выпадают из поисковой выдачи, только чтобы вернуться через несколько дней, а затем снова выпасть, по циклической схеме.

На этом все. Ждем новостей!
В статье рассмотрены 11 способов оптимизации URL-адресов изображений. Оптимизация URL-адресов изображений с помощью ключевых слов является важным аспектом SEO, поскольку... https://site-analyzer.ru/articles/optimize-images-for-seo-web/
Полезный SEO-инструмент для визуализации JSON

Если вам нужно проанализировать какую-либо схему JSON-LD на странице сайта, то JSONCrack - это отличный инструмент для визуализации его содержимого.
Для анализа откройте интересующую страницу, перейдите в Инспектор (F12 в Chrome), скопируйте и вставьте блок JSON-LD в левую колонку и вы получите красивое дерево со связанными объектами.

Ссылка на инструмент: https://jsoncrack.com/editor
Выпущена новая версия SiteAnalyzer 3.0.2!

Исправлена некорректная работа разделов настроек «Исключить URL» и «Следовать URL» при сканировании сайтов, восстановлена работа фильтров «Внутренние nofollow ссылки» и «Внешние nofollow ссылки» вкладки «Статистика SEO», добавлена кликабельность для URL, отображающихся по фильтрам панели «Custom Filters»...

Подробнее: https://site-analyzer.ru/version-history/

P.S. Начали работу над проблемой с неполным сканированием некоторых сайтов. После этого на очереди исправление некорректного уровня вложенности страниц.
Основы эффективного SEO от Moz - семь шагов для оптимизации сайта:

1️⃣ Доступность сканирования сайта гарантирует, что боты поисковых систем могут прочитать ваш сайт, включая аудит ссылок, кэшированную версию, отображаемый исходный код и т.д.

2️⃣ Создание привлекательного контента, который представляет ценность для пользователей, решает проблемы, отвечает на вопросы и т.п.

3️⃣ Оптимизация контента под ключевые слова, которые привлекают как пользователей, так и поисковые системы. Не слушайте людей, которые говорят: «Оптимизируйте свой сайт только для пользователей».

У вас может быть лучший контент, но если он не оптимизирован как для пользователей, так и для поисковых систем, он не поднимется высоко в ТОП.

4️⃣ Отдавайте приоритет пользовательскому опыту с помощью оптимизации скорости сайта и вовлекающего UX. Это связано с предыдущим пунктом.

5️⃣ Создайте контент, которым можно поделиться, для ссылок и цитат. Нет PBN и линкфермам — это уже не круто.

Вам нужно разработать брендированный контент, который показывает, какую ценность вы и ваш бренд предоставляете своим пользователям.

6️⃣ Заголовок, URL и описание страниц для высокого CTR. Убедитесь, что ваш заголовок и описание согласованы на всей странице, и они не кликбейтные, иначе Яндекс / Google все равно изменят их.

7️⃣ Используйте микроразметку сниппетов / схемы, чтобы улучшить свои позиции в поисковой выдаче. Это важно для часто задаваемых вопросов, блоков с ответами, маркированных списков и т.д.
Полезное расширение для SEO в гугл Chrome — «View Rendered Source». При нажатии на него сразу же отображается «сырой» HTML (View Source) и визуализированный DOM (аналог F12), который выводится на экран. Также отображается третье окно, которое автоматически подсвечивает то, что было добавлено / удалено до рендера и после (работает через Javascript на стороне клиента).

Примеры того, что удалось отловить в Javascript при помощи данного расширения:

🛑 Теги noindex, добавляемые Javascript
🖇️ Канонические теги, измененные в DOM
🔗 Гиперссылки, видимые только в DOM
😶 Абсолютно пустые сайты без JS

В целом, данным инструментом удобно копаться на страницах исследуя код, включая изменения, внесенные JavaScript.
Всем привет. На счет неполноценного сканирования сайтов - как выяснилось, баг зависит от количества потоков - на одном потоке скорее всего все будет ОК, но чем больше потоков - тем больше вероятность того, что сайт просканируется не целиком (сканируется каждый раз разное число страниц по факту).

Работаем над проблемой.
Постараемся решить вопрос на этой неделе.
Варианты товаров в интернет-магазинах сложны и разнообразны, но, например, что делать с футболками разных цветов?

Ребята из Google, усердно работали, чтобы придумать разметку структурированных данных для данных типов товаров.

Ознакомьтесь с записью в блоге Google - https://developers.google.com/search/blog/2024/02/product-variants и документацией - https://developers.google.com/search/docs/appearance/structured-data/product-variants для получения подробностей о новом типе разметки Google для различных вариации одного товара.

Данные изменения также вступят в силу в инструменте расширенного тестирования результатов и в отчетах Search Console, поэтому вы можете увидеть, как это повлияет на ранжирование, если вдруг вы уже используете текущую разметку.

С нетерпением ждем возможности увидеть, как это улучшит отображение наших продуктов и общую видимость на страницах поиска!
Вопрос-ответ к одному из западных SEO-специалистов по поводу удаления NOINDEX через Javascript.

Вопрос:
- Если на странице прописан NOINDEX в исходном коде HTML, но на ней также есть Javascript для манипулирования DOM, который удаляет NOINDEX и делает ее индексируемой. Что в итоге произойдет?

Ответ:
- Страница не будет проиндексирована. Если Googlebot обнаружит ошибку NOINDEX для данного URL, Javascript просто не будет выполнен.
Интересное расширение Chrome для Google Search Console, которое может быстро сравнивать даты и видеть процентные изменения по трафику на вашем сайте.

Расширение привлекло более 3000 пользователей за последний месяц.

Ссылка на Google Search Console Date Selector - https://chromewebstore.google.com/detail/google-search-console-dat/fkpkhpigkldfnnimijaaldpafcibaepk?pli=1

ПС. Да, это можно сделать и самому руками в Search Console, выбрав даты и сравнив, но с плагином удобнее.

Также у него также есть автоматический выбор дат, которого нет в GSC (они длятся 30 дней по сравнению с прошлым месяцем) и, что самое важное, отображаются %+ и %-, что является большим удобством использования, так как в пользовательском интерфейсе отсутствуют быстрые отображения изменений в %.
Выпущена новая версия PositionMeter 3.9.6

В новой версии обновлена проверка позиций в Яндексе через систему XMLRiver по ТОП-100, добавлена возможность проверки позиций через XMLRiver по ТОП-300, актуализирован позиций сайтов в Excel, исправлена ошибка «Exception EOSError»...

Подробнее: https://position-meter.ru/version-history/
Google выпустил новую функцию Search Console: теперь вы можете видеть количество членов команды по борьбе со спамом, которые находятся в вашем аккаунте, в режиме реального времени 😱

После 700 ручных действий, примененных к сайтам за последние 2 дня, эта функция очень приветствуется сообществом SEO.
Новая статья "Органические блоки товаров в Google" от популярного зарубежного блоггера Brodie Clark.

В статье обсуждается ранжирование в блоках органических товаров Google. Список факторов и максимизация видимости. Когда подобные блоки товаров имеют право на отображение, на первой странице они могут... https://site-analyzer.ru/articles/google-organic-product-grids/
Пятничное

Возможно, вы недавно видели дискуссию о веб-сайте Джона Мюллера и robots.txt.

Ссылка: https://johnmu.com/robots.txt

Файл Robots.txt сообщает поисковым системам, какие части сайта следует индексировать.
Однако, в robots.txt Джона Мюллера есть необычная команда "noindex:".
Эта команда не является частью стандартного формата robots.txt.
Поэтому у Джона Мюллера спросили, что это за директива и окажет ли это какое-либо влияние на то, как поисковая система индексирует страницы его сайта.

Ответ:
- Я рад, что вы спросили и Вы правы в том, что директива "noindex:" необычна для Robots.txt. Это неподдерживаемая директива, она ничего не делает.
- Однако! Было много дискуссий о том, следует ли поддерживать "noindex" в рамках стандарта robots.txt. Идея заключалась в том, что было бы неплохо блокировать сканирование и индексирование одновременно. С помощью robots.txt вы можете заблокировать сканирование или индексацию (с помощью мета-тега robots, если вы разрешаете сканирование). Идея заключалась в том, что вы можете иметь "noindex" в robots.txt и блокировать оба. К сожалению, из-за того, что многие люди копируют и вставляют robots.txt файлы, не просматривая их в деталях (мало кто заглядывает так далеко, как вы!), кому-то будет очень, очень легко случайно удалить критически важные части веб-сайта.
- В связи с этим, более 10 лет назад, было решено, что эта директива не должна поддерживаться или быть частью robots.txt стандарта.

ПС. Также, в файле присутствует правило: disallow: /robots.txt

Однако, это скорее шутка, так как robots.txt запретить нельзя 🤣
Выпущена новая версия SiteAnalyzer 3.0.3!

Исправлена некорректная работа сканера, при которой сканировались не все доступные страницы сайта, увеличена скорость сканирования сайтов, восстановлена работа разделов настроек программы «Исключить URL» и «Следовать URL»...

Подробнее на сайте: https://site-analyzer.ru/version-history/
Совет по SEO

Если вы занимаетесь электронной коммерцией и используете стоковые фотографии, вы, скорее всего, упускаете значительную часть трафика из Яндекс Картинок 🖼️

Обычный путь покупателя по запросам электронной коммерции заключается в поиске и просмотре результатов поиска изображений Яндекс - покупки в большинстве случаев являются визуальной вещью!

Вы, наверное, заметили, что Яндекс Картинки показывают целый ряд изображений, а не одну и ту же фотографию постоянно.

Это означает, что если вы используете те же стоковые изображения, что и все остальные, вы вряд ли попадете в результаты поиска изображений.
Версия: 3.0.3 (build 447):
- исправлена некорректная работа сканера, при которой генерировались «мусорные» страницы
- исправлено дублирование префикса WWW при добавлении домена работающего через WWW
- исправлено дублирование сайтов в списке проектов при добавлении нового сайта
- ускорено добавление проектов и групп
- оптимизирован скроллинг мышью вкладок блока основных данных проекта