SiteAnalyzer
1.68K subscribers
168 photos
2 videos
2 files
236 links
Обсуждение программы SiteAnalyzer: замечания, предложения, баги, улучшения и новые версии, а также новости и лайвхаки по SEO ✔️

Запрещены:
- Оскорбления. Реклама. Флуд.
Download Telegram
Выпущена новая версия PositionMeter 3.9.6

В новой версии обновлена проверка позиций в Яндексе через систему XMLRiver по ТОП-100, добавлена возможность проверки позиций через XMLRiver по ТОП-300, актуализирован позиций сайтов в Excel, исправлена ошибка «Exception EOSError»...

Подробнее: https://position-meter.ru/version-history/
Google выпустил новую функцию Search Console: теперь вы можете видеть количество членов команды по борьбе со спамом, которые находятся в вашем аккаунте, в режиме реального времени 😱

После 700 ручных действий, примененных к сайтам за последние 2 дня, эта функция очень приветствуется сообществом SEO.
Новая статья "Органические блоки товаров в Google" от популярного зарубежного блоггера Brodie Clark.

В статье обсуждается ранжирование в блоках органических товаров Google. Список факторов и максимизация видимости. Когда подобные блоки товаров имеют право на отображение, на первой странице они могут... https://site-analyzer.ru/articles/google-organic-product-grids/
Пятничное

Возможно, вы недавно видели дискуссию о веб-сайте Джона Мюллера и robots.txt.

Ссылка: https://johnmu.com/robots.txt

Файл Robots.txt сообщает поисковым системам, какие части сайта следует индексировать.
Однако, в robots.txt Джона Мюллера есть необычная команда "noindex:".
Эта команда не является частью стандартного формата robots.txt.
Поэтому у Джона Мюллера спросили, что это за директива и окажет ли это какое-либо влияние на то, как поисковая система индексирует страницы его сайта.

Ответ:
- Я рад, что вы спросили и Вы правы в том, что директива "noindex:" необычна для Robots.txt. Это неподдерживаемая директива, она ничего не делает.
- Однако! Было много дискуссий о том, следует ли поддерживать "noindex" в рамках стандарта robots.txt. Идея заключалась в том, что было бы неплохо блокировать сканирование и индексирование одновременно. С помощью robots.txt вы можете заблокировать сканирование или индексацию (с помощью мета-тега robots, если вы разрешаете сканирование). Идея заключалась в том, что вы можете иметь "noindex" в robots.txt и блокировать оба. К сожалению, из-за того, что многие люди копируют и вставляют robots.txt файлы, не просматривая их в деталях (мало кто заглядывает так далеко, как вы!), кому-то будет очень, очень легко случайно удалить критически важные части веб-сайта.
- В связи с этим, более 10 лет назад, было решено, что эта директива не должна поддерживаться или быть частью robots.txt стандарта.

ПС. Также, в файле присутствует правило: disallow: /robots.txt

Однако, это скорее шутка, так как robots.txt запретить нельзя 🤣
Выпущена новая версия SiteAnalyzer 3.0.3!

Исправлена некорректная работа сканера, при которой сканировались не все доступные страницы сайта, увеличена скорость сканирования сайтов, восстановлена работа разделов настроек программы «Исключить URL» и «Следовать URL»...

Подробнее на сайте: https://site-analyzer.ru/version-history/
Совет по SEO

Если вы занимаетесь электронной коммерцией и используете стоковые фотографии, вы, скорее всего, упускаете значительную часть трафика из Яндекс Картинок 🖼️

Обычный путь покупателя по запросам электронной коммерции заключается в поиске и просмотре результатов поиска изображений Яндекс - покупки в большинстве случаев являются визуальной вещью!

Вы, наверное, заметили, что Яндекс Картинки показывают целый ряд изображений, а не одну и ту же фотографию постоянно.

Это означает, что если вы используете те же стоковые изображения, что и все остальные, вы вряд ли попадете в результаты поиска изображений.
Версия: 3.0.3 (build 447):
- исправлена некорректная работа сканера, при которой генерировались «мусорные» страницы
- исправлено дублирование префикса WWW при добавлении домена работающего через WWW
- исправлено дублирование сайтов в списке проектов при добавлении нового сайта
- ускорено добавление проектов и групп
- оптимизирован скроллинг мышью вкладок блока основных данных проекта
Версия: 3.0.3 (build 448), 02.04.2024:
- восстановлен учет Javascript-файлов при парсинге
- исправлено некорректное получение кода ответа сервера для кириллических URL
- исправлена ошибка «Access Violation», возникающая при сканировании проекта сразу после его удаления
- исправлен баг, при котором для проектов с произвольно заданным URL, поле ввода сверху отображалось пустым при выборе проекта
- исправлен баг с дублированием иконок на разных проектах
SEO-шпаргалка для ИМ и сайтов по электронной коммерции

Основываясь на A/B-тестах, данный шаблон из 22 пунктов конвертирует большинство посетителей в платящих клиентов.

Пояснения к цифрам:
1. Сигналы доверия клиента: явно укажите безопасность для кредитных карт, номер телефона и информацию о доставке.
2. HTTPS/SSL: используйте «https://» и вовремя обновляйте SSL-сертификаты для безопасности сайта.
3. Навигационная цепочка категорий: используйте хлебные крошки, чтобы помочь пользователям найти товары.
4. Отзывы клиентов: отображайте уникальные отзывы о своих товарах (как минимум, отзывы должны быть).
5. Видео о продукте: используйте Youtube либо плагины для пользовательских видео с обзорами товара.
6. Параметры поиска: удобный поиск с учетом орфографии и фильтрами.
7. Четкий призыв к действию: сделайте так, чтобы кнопки «купить» были простыми в нажатии.
8. Микроразметка: используйте специальные теги для понимания разметки Яндексом и Google.
9. Вопросы и ответы: добавьте раздел с вопросами и ответами на сайт.
10. Изображения: показывайте качественные изображения, избегайте стоковых фотографий.
11. Описание продукта: пишите четко с ключевой информацией о товаре.
12. Номер телефона: поделитесь контактной информацией.
13. Онлайн-чат: предлагайте поддержку в режиме реального времени.
14. Адрес и сведения о компании: отображайте информацию о компании, в т.ч. ИНН, ОГРН и т.п.
15. Заголовок страницы TITLE: сделайте заголовки уникальными и запоминающимися.
16. Meta-описание: создайте краткую рекламу товара.
17. URL страницы: URL-адреса должны быть простыми.
18. Теги заголовков H1-H3: используйте форматирование для выделения заголовков страниц.
19. Соцсети: оптимизируйте возможность для публикации страниц в социальных сетях.
20. Отзывчивость: обеспечьте удобство для мобильных устройств.
21. Сопутствующие товары: свяжите и отображайте сопутствующие товары.
22. Скорость загрузки страницы: обеспечьте высокую скорость работы сайта.
Новости SEO

Новая Яндекс.Метрика вышла из бета-режима и стала основной версией сервиса. Обновленная Метрика кардинально поменяла интерфейс, некоторые блоки с информацией объединены в один раздел, добавлена возможность создавать дашборды с нужными метриками.

📅 14 мая Google запустит новый сервис Search Generative Experience (SGE - расширенные результаты поиска при помощи ИИ, микроразметки, рейтингов и т.п.), чтобы совпасть с мероприятием Google I/O, согласно сообщению (Eli Schwartz), который говорит, что некоторые «проблемы» еще предстоит решить.

Core Web Vitals являются фактором ранжирования, но их улучшение оказывает минимальное влияние на видимость в поиске. Гораздо важнее реальный пользовательский опыт на странице, о чем шла речь в официальном подкасте Google Search.

✈️ Google запустил искусственный интеллект, ориентированный на путешествия, для тех, кто согласился на Search Generative Experience (SGE), и теперь Google использует ИИ для ответов на многие запросы, связанные с путешествиями, включая прокладывание маршрутов.

♻️ Google добавил новую поддержку разметки 3D-моделей в документацию по структурированным данным о товарах, чтобы вы могли связывать свои товары на сайте с соответствующей 3D-моделью.

💵 Теперь Google может искать любые адреса кошельков в биткойнах и пяти новых сетях EVM, отображая стоимость кошелька в мгновенном результате в стиле Featured Snippet. Не менее интересно и странно, что Google решил сосредоточиться именно на этом.

🔍 Стал доступен расширенный поиск Bing, который теперь использует существующий индекс + GPT-4 для расширения и улучшения запроса. Для получения результатов, которые могли не отображаться при обычном поиске, требуется порядка 30 секунд.

🕵️ Уязвимость безопасности была обнаружена в SEO-плагине WordPress Rank Math, затронувшей более 2 миллионов веб-сайтов. Недавно исправленный XSS-эксплойт позволяет злоумышленникам загружать вредоносные скрипты и запускать атаки.
Всем привет!
Представляем вашему вниманию новую версию программы SiteAnalyzer 3.0.4, в которой мы продолжили курс на детальные улучшения программы и оптимизацию существующих инструментов.

Что нового:
- в программу инсталляции добавлена возможность запрета очистки текущей базы данных
- добавлена возможность проверки индексации URL через сервисы XMLProxy, XMLRiver, XMLStock
- для вкладок «Внешние», «Видео» и «Документы» добавлена колонка «Источник»
- исправлен не всегда корректный парсинг тегов H1-H6
- добавлена опция отключения вывода программы на передний план после сканирования проекта

Подробнее: https://site-analyzer.ru/version-history/
Canonical

Тег canonical — это подсказка, а не директива, но что делать, если поисковая система выбирает «неправильную» страницу в качестве канонической? 🤔

Почти во всех случаях, о которых нам известно, это связано со ссылками 🔗

Если вы сообщаете Яндекс или Google, что страница не является канонической, но затем ссылаетесь на эту страницу в главном меню сайта на 6000 страницах, то вы посылаете поисковой системе смешанные сигналы.

Если вы НЕ хотите, чтобы страница была канонической - просто не давайте ей сильных ссылочных сигналов.
В Google заявили, что контент более высокого качества сканируется чаще

Недавний комментарий Гэри Илша объяснил, как качество контента влияет на частоту сканирования поисковыми системами:
- «Как только мы получим сигналы от поисковой индексации о том, что качество контента улучшилось по такому-то количеству URL-адресов, мы просто начнем увеличивать периодичность».

Определенно, существует косвенная связь между качеством контента и скоростью сканирования. При анализе лог-файлов, который мы провели, мы часто наблюдаем высокую скорость сканирования ключевых страниц, на которые естественным образом ссылаются как внутренние, так и внешние ссылки. Часто это заканчиваются определением контента, которому было уделено больше внимания с точки зрения качества и структуры.

Тем не менее, интересно, что, по-видимому, существует прямая связь между качеством контента и частотой сканирования. Похоже, что если Google оценивает конкретный документ выше с точки зрения релевантности / содержания, это вызывает некоторое увеличение объемов его сканирования.
Было бы интересно посмотреть тесты, чтобы увидеть, приводит ли повышение качества страницы низкого качества к более высокой частоте сканирования.

Комментарий Джона Мюллера (Google)
- Чисто с практической точки зрения: если вы думаете, что что-то выглядит здорово, вы попытаетесь получить этого больше, ведь так?
- Сейчас я вижу, что некоторые пытаются изменить ситуацию, подталкивая свой контент к более частому сканированию, чтобы Google подумал, что это хорошо. Однако, ЭТО ТАК НЕ РАБОТАЕТ. ЭТО НЕ ИМЕЕТ НИКАКОГО СМЫСЛА. Ваши дети не полюбят капусту, если вы будете запихивать ее им в глотку так же, как они запихивают им в лицо мороженое.
- Поэтому, создавайте по-настоящему потрясающие вещи.
Данная статья от «The Verge» как-бы высмеивает ранжирование Google по запросу «Best Printer» и дает нам интересный повод для анализа, который многие могут оставить без внимания.

Это хороший пример, когда статья дает реальную рекомендацию в юмористической форме, а не просто список топовых типографий с партнерскими ссылками.

Возможно, это было сделано даже не осознавая, что авторы статьи делают свою работу лучше, чем если бы они слишком много думали обо всех «лучших практиках SEO».

Выбиваясь из обыденности и избегая того, что делают остальные, им на самом деле удалось создать лучший и более полезный контент.

Что можно усвоить из данного урока: не переусердствуйте
Совсем недавно Google внес значительные обновления в документацию о том, как отслеживать и анализировать падение видимости сайтов в Search Console.

Краткий обзор основных причин, по которым можно увидеть падение:

Обновления алгоритма
- Поисковый алгоритм Google постоянно обновляется, что иногда может вызывать колебания трафика. Отслеживание трафика в Google Search Console позволяет выявить внезапные падения, которые могут совпасть с обновлением алгоритма.

Технические неполадки
- Существует ряд технических проблем, которые могут привести к падению поискового трафика, например отключение сайта, ошибки сканирования и проблемы с индексацией.

Вопросы безопасности
- Если сайт был взломан или помечен как вредоносный, Google может удалить его из результатов поиска, что может привести к значительному падению трафика. Используйте Search Console, чтобы отслеживать любые проблемы с безопасностью, которые могут повлиять на трафик.

Проблемы со спамом
- Если на сайте используется спам, например перенасыщение ключевыми словами или их маскировка, Google может наказать сайт, понизив его рейтинг в результатах поиска, что может привести к падению трафика. Ознакомьтесь с рекомендациями Google для веб-мастеров, чтобы убедиться, что ваш сайт соответствует требованиям.

Сезонность и изменение интересов:
- Трафик на сайт может естественным образом колебаться в зависимости от сезона или текущих событий. Используйте Google Trends, чтобы увидеть, как изменился поисковый интерес к целевым ключевым словам с течением времени.

Переезды сайтов
- Если вы недавно перенесли свой сайт на новый домен или URL, Google может потребоваться некоторое время, чтобы обновить результаты поиска. Это может привести к временному падению трафика. Вы можете использовать инструменты для переноса в Search Console, чтобы помочь Google лучше понять перенос и соответствующим образом обновить результаты поиска.

Полный текст статьи: https://developers.google.com/search/docs/monitor-debug/debugging-search-traffic-drops?hl=ru
Как извлечь данные Google Search Console из таблицы с помощью JavaScript

Существует множество способов извлечения аналитических данных из панели вебмастера Google.

Бытует мнение, что наиболее удобно массово извлекать данные из Google Search Console (GSC) с помощью встроенного коннектора BigQuery, Looker Studio или API GSC. Однако, бывают случаи, когда панель управления GSC вполне комфортна для работы с большими данными.

Опция «Экспортировать» на панели управления GSC позволяет выгружать данные в виде файла Google Sheets, Excel или CSV.

Однако, одной из самых больших проблем, на наш взгляд, является разница в отображении данных на панели мониторинга и содержимым, получаемым по кнопке «Экспортировать» при задаче по сравнению диапазонов дат.

При сравнении диапазонов дат...

Читать далее: https://site-analyzer.ru/articles/extract-gsc-table-with-javascript/
Интересное исследование Microsoft о влиянии длины сниппета в поисковой выдаче на поведение пользователей.

Резюме от Artur Strzelecki: «Короткие сниппеты дают слишком мало информации о результате. Длинные сниппеты из пяти строк приводят к более высокой производительности, чем средние сниппеты для навигационных запросов, но к худшей производительности для информационных запросов».

Чем больше информации в предварительном просмотре результатов, тем более информативным будет клик. Это важно для увеличения надежности при построении выводов на основе данных о взаимодействии с пользователем.

Ссылка на документ "What Snippet Size is Needed in Mobile Web Search?": https://users.cecs.anu.edu.au/~Tom.Gedeon/pdfs/What%20snippet%20size%20is%20needed%20in%20mobile%20web%20search.pdf

Также можно ознакомиться с данным документом: https://pdfs.semanticscholar.org/41c5/b0fde90faf5b3294ec300aa5a9c5be571634.pdf
This media is not supported in your browser
VIEW IN TELEGRAM
Коротко о презентации гугла
Google предлагает авторам сайтов способ отключения использования их контента в подсказках ИИ - AI Overviews.

Мета-тег robots "nosnippet" гарантирует, что ваша страница никогда не будет указана в качестве источника в AI Overviews, а также запретит использование контента в качестве прямого отображения в выдаче.

Недостатком является то, что это относится ко *всем* областям Google. Это означает, что для ваших страниц также будет отсутствовать текст описания, когда они будут отображаться в обычных результатах поиска и в ленте рекомендаций.

Для AI Overviews пока не существует пользовательского агента.
Похоже, что Google не позволяет детально контролировать то, как используется наш контент. На данный момент, это подход «все или ничего».
Выпущена новая версия SiteAnalyzer 3.0.5!

Увеличена скорость сканирования сайтов, устранены зависания при сканировании «больших» сайтов, добавлена возможность указания местоположения файла базы данных.

Что нового:
- увеличена скорость сканирования сайтов, а также процедура записи страниц после завершения сканирования
- исправлена некорректная обработка относительных URL для страниц с параметрами в URL и пустом BaseHref
- исправлены баги с вкладками и прогресс-баром в иконке приложения (ошибки «Access Violation»)
- добавлена возможность указания местоположения файла базы данных (только для платной версии)
- устранены зависания при сканировании «больших» сайтов насыщенных изображениями
- исправлена не всегда корректная проверка индексации страниц в Google
- восстановлено отображение меню экспорта данных на панели «Инфо»
- оптимизирована визуализация расчета уникальности контента
- восстановлена возможность удаления проектов в режиме «Демо»

Подробнее: https://site-analyzer.ru/version-history/
Версия: 3.0.5 (build 460):
- исправлен баг с исчезновением панели фильтрации и экспорта данных
- исправлена проблема с локализацией программы