Учет неизвестных краулеров в Robots.txt
Как не гоняться за всеми новыми краулинговыми ботами, чтобы добавить на них запрет в файлах Robots.txt?
Вместо того, чтобы использовать подход использования "черных списков" (disallow: / на каждый юзер-агент) - можно перейти к использованию "белых списков".
Просто перечислите все директивы для нужных User-Agent и завершите файл следующим образом:
User-agent: *
Disallow: /
Таким образом, вам нужно будет беспокоиться только о краулерах, которые ХОТЯТ просканировать ваш сайт.
А все остальные краулеры, сканеры и боты пойдут мимо.
#seoполезности
Как не гоняться за всеми новыми краулинговыми ботами, чтобы добавить на них запрет в файлах Robots.txt?
Вместо того, чтобы использовать подход использования "черных списков" (disallow: / на каждый юзер-агент) - можно перейти к использованию "белых списков".
Просто перечислите все директивы для нужных User-Agent и завершите файл следующим образом:
User-agent: *
Disallow: /
Таким образом, вам нужно будет беспокоиться только о краулерах, которые ХОТЯТ просканировать ваш сайт.
А все остальные краулеры, сканеры и боты пойдут мимо.
#seoполезности
30+ пунктов по оценке полезности контента для пользователя и повышения его качества в глазах поисковых систем... https://site-analyzer.ru/articles/helpful-content-assessments/
Нежелательный совет по SEO
Прикрепленное к данному посту изображение заставило некоторых людей отказаться от оптимизации мета-тегов Description, при этом Google совсем недавно обновил документацию, чтобы подтвердить, что их основным сигналом для поискового сниппета является не мета-описание, а контент на странице.
🥈 По сути, мета-тег Description существует только в качестве запасного варианта на случай, если Google не сможет найти соответствующие детали на странице (а это означает, что у вас, вероятно, возникнут более серьезные проблемы).
🗣 Процитируем Google: «Сниппеты в основном создаются из самого содержимого страницы. Тем не менее, Google иногда использует HTML-элемент мета-описания, если он может дать пользователям более точное описание страницы, чем контент, взятый непосредственно со страницы».
🖋 Google переписывает мета-описания ~80%+ времени, потому что у него есть доступ к контексту запроса, а у вас нет.
⏰ Для большинства страниц есть более интересные вещи, на которые можно потратить свое время, чем мета-тег Description.
Справка Google по сниппетам https://developers.google.com/search/docs/appearance/snippet?hl=ru
Выкладывайте ваши наблюдения в комментариях к материалу!
Прикрепленное к данному посту изображение заставило некоторых людей отказаться от оптимизации мета-тегов Description, при этом Google совсем недавно обновил документацию, чтобы подтвердить, что их основным сигналом для поискового сниппета является не мета-описание, а контент на странице.
🥈 По сути, мета-тег Description существует только в качестве запасного варианта на случай, если Google не сможет найти соответствующие детали на странице (а это означает, что у вас, вероятно, возникнут более серьезные проблемы).
🗣 Процитируем Google: «Сниппеты в основном создаются из самого содержимого страницы. Тем не менее, Google иногда использует HTML-элемент мета-описания, если он может дать пользователям более точное описание страницы, чем контент, взятый непосредственно со страницы».
🖋 Google переписывает мета-описания ~80%+ времени, потому что у него есть доступ к контексту запроса, а у вас нет.
⏰ Для большинства страниц есть более интересные вещи, на которые можно потратить свое время, чем мета-тег Description.
Справка Google по сниппетам https://developers.google.com/search/docs/appearance/snippet?hl=ru
Выкладывайте ваши наблюдения в комментариях к материалу!
SEO-новости, о которых вам ✨НУЖНО✨ знать
💀 В марте 2024 года Google отключит сайты, созданные с помощью профиля компании Google, и будет перенаправлять их в профиль компании до 10 июня 2024 года, после чего переадресация перестанет работать.
🔎 Обновление алгоритма локального ранжирования Google, возможно, произошло в четверг, 4 января, когда инструмент BrightLocal Local RankFlux показал оценку 5,92 Flux, одну из самых высоких зарегистрированных, что указывает на множество изменений в ранжировании.
📂 Google внес поправки в свою документацию, чтобы уточнить, что структурированные данные и мета-описание не являются первоисточниками для генерации сниппетов поисковой выдачи, а фактически самим содержимым страницы.
❓ Фрагменты FAQ и HowTo снова исчезли, после того, что, по-видимому, является коротким тестом Google на их восстановление, после их предыдущего удаления Комментариев от Google не поступало, но ожидайте увидеть влияние на ваш GSC.
🕷️ Ограничитель скорости сканирования в Google Search Console теперь исчез, и Google заявляет, что они улучшили логику сканирования и другие инструменты. Так что, если вы не можете найти его, то вот почему - он больше не нужен по Гуглу!
📧 Gmail запускает новые средства защиты, а это означает, что отправители массовых рассылок должны будут аутентифицировать электронные письма, легко отписываться от рассылки и оставаться ниже пороговых значений спама, что потенциально повлияет на крупные цифровые PR-агентства.
🤖 В Schema v24.0 добавлены подтипы Physician (IndividualPhysician и PhysiciansOffice), а Google добавил поддержку свойства suggestedAge в качестве альтернативы suggestedMaxAge и suggestedMinAge.
🛍️ Магазин OpenAI GPT запущен для платных участников, подписанных на ChatGPT Plus. OpenAI заявила, что введет выплаты разработчикам GPT в первом квартале этого года, но на данный момент не предоставила никаких подробностей.
📱 В плагине Wordpress AMP, установленном на 100 000+ сайтах, была обнаружена XSS-уязвимость, которая позволяла злоумышленникам внедрять вредоносные скрипты. Веб-мастерам рекомендуется обновиться как минимум до версии 2.5.1.
🐛 Некоторые SEO-специалисты считают, что в настоящее время в Google есть ошибка ранжирования, из-за которой сайты неоднократно выпадают из поисковой выдачи, только чтобы вернуться через несколько дней, а затем снова выпасть, по циклической схеме.
На этом все. Ждем новостей!
💀 В марте 2024 года Google отключит сайты, созданные с помощью профиля компании Google, и будет перенаправлять их в профиль компании до 10 июня 2024 года, после чего переадресация перестанет работать.
🔎 Обновление алгоритма локального ранжирования Google, возможно, произошло в четверг, 4 января, когда инструмент BrightLocal Local RankFlux показал оценку 5,92 Flux, одну из самых высоких зарегистрированных, что указывает на множество изменений в ранжировании.
📂 Google внес поправки в свою документацию, чтобы уточнить, что структурированные данные и мета-описание не являются первоисточниками для генерации сниппетов поисковой выдачи, а фактически самим содержимым страницы.
❓ Фрагменты FAQ и HowTo снова исчезли, после того, что, по-видимому, является коротким тестом Google на их восстановление, после их предыдущего удаления Комментариев от Google не поступало, но ожидайте увидеть влияние на ваш GSC.
🕷️ Ограничитель скорости сканирования в Google Search Console теперь исчез, и Google заявляет, что они улучшили логику сканирования и другие инструменты. Так что, если вы не можете найти его, то вот почему - он больше не нужен по Гуглу!
📧 Gmail запускает новые средства защиты, а это означает, что отправители массовых рассылок должны будут аутентифицировать электронные письма, легко отписываться от рассылки и оставаться ниже пороговых значений спама, что потенциально повлияет на крупные цифровые PR-агентства.
🤖 В Schema v24.0 добавлены подтипы Physician (IndividualPhysician и PhysiciansOffice), а Google добавил поддержку свойства suggestedAge в качестве альтернативы suggestedMaxAge и suggestedMinAge.
🛍️ Магазин OpenAI GPT запущен для платных участников, подписанных на ChatGPT Plus. OpenAI заявила, что введет выплаты разработчикам GPT в первом квартале этого года, но на данный момент не предоставила никаких подробностей.
📱 В плагине Wordpress AMP, установленном на 100 000+ сайтах, была обнаружена XSS-уязвимость, которая позволяла злоумышленникам внедрять вредоносные скрипты. Веб-мастерам рекомендуется обновиться как минимум до версии 2.5.1.
🐛 Некоторые SEO-специалисты считают, что в настоящее время в Google есть ошибка ранжирования, из-за которой сайты неоднократно выпадают из поисковой выдачи, только чтобы вернуться через несколько дней, а затем снова выпасть, по циклической схеме.
На этом все. Ждем новостей!
В статье рассмотрены 11 способов оптимизации URL-адресов изображений. Оптимизация URL-адресов изображений с помощью ключевых слов является важным аспектом SEO, поскольку... https://site-analyzer.ru/articles/optimize-images-for-seo-web/
Полезный SEO-инструмент для визуализации JSON
Если вам нужно проанализировать какую-либо схему JSON-LD на странице сайта, то JSONCrack - это отличный инструмент для визуализации его содержимого.
Для анализа откройте интересующую страницу, перейдите в Инспектор (F12 в Chrome), скопируйте и вставьте блок JSON-LD в левую колонку и вы получите красивое дерево со связанными объектами.
Ссылка на инструмент: https://jsoncrack.com/editor
Если вам нужно проанализировать какую-либо схему JSON-LD на странице сайта, то JSONCrack - это отличный инструмент для визуализации его содержимого.
Для анализа откройте интересующую страницу, перейдите в Инспектор (F12 в Chrome), скопируйте и вставьте блок JSON-LD в левую колонку и вы получите красивое дерево со связанными объектами.
Ссылка на инструмент: https://jsoncrack.com/editor
Выпущена новая версия SiteAnalyzer 3.0.2!
Исправлена некорректная работа разделов настроек «Исключить URL» и «Следовать URL» при сканировании сайтов, восстановлена работа фильтров «Внутренние nofollow ссылки» и «Внешние nofollow ссылки» вкладки «Статистика SEO», добавлена кликабельность для URL, отображающихся по фильтрам панели «Custom Filters»...
Подробнее: https://site-analyzer.ru/version-history/
P.S. Начали работу над проблемой с неполным сканированием некоторых сайтов. После этого на очереди исправление некорректного уровня вложенности страниц.
Исправлена некорректная работа разделов настроек «Исключить URL» и «Следовать URL» при сканировании сайтов, восстановлена работа фильтров «Внутренние nofollow ссылки» и «Внешние nofollow ссылки» вкладки «Статистика SEO», добавлена кликабельность для URL, отображающихся по фильтрам панели «Custom Filters»...
Подробнее: https://site-analyzer.ru/version-history/
P.S. Начали работу над проблемой с неполным сканированием некоторых сайтов. После этого на очереди исправление некорректного уровня вложенности страниц.
Основы эффективного SEO от Moz - семь шагов для оптимизации сайта:
1️⃣ Доступность сканирования сайта гарантирует, что боты поисковых систем могут прочитать ваш сайт, включая аудит ссылок, кэшированную версию, отображаемый исходный код и т.д.
2️⃣ Создание привлекательного контента, который представляет ценность для пользователей, решает проблемы, отвечает на вопросы и т.п.
3️⃣ Оптимизация контента под ключевые слова, которые привлекают как пользователей, так и поисковые системы. Не слушайте людей, которые говорят: «Оптимизируйте свой сайт только для пользователей».
У вас может быть лучший контент, но если он не оптимизирован как для пользователей, так и для поисковых систем, он не поднимется высоко в ТОП.
4️⃣ Отдавайте приоритет пользовательскому опыту с помощью оптимизации скорости сайта и вовлекающего UX. Это связано с предыдущим пунктом.
5️⃣ Создайте контент, которым можно поделиться, для ссылок и цитат. Нет PBN и линкфермам — это уже не круто.
Вам нужно разработать брендированный контент, который показывает, какую ценность вы и ваш бренд предоставляете своим пользователям.
6️⃣ Заголовок, URL и описание страниц для высокого CTR. Убедитесь, что ваш заголовок и описание согласованы на всей странице, и они не кликбейтные, иначе Яндекс / Google все равно изменят их.
7️⃣ Используйте микроразметку сниппетов / схемы, чтобы улучшить свои позиции в поисковой выдаче. Это важно для часто задаваемых вопросов, блоков с ответами, маркированных списков и т.д.
1️⃣ Доступность сканирования сайта гарантирует, что боты поисковых систем могут прочитать ваш сайт, включая аудит ссылок, кэшированную версию, отображаемый исходный код и т.д.
2️⃣ Создание привлекательного контента, который представляет ценность для пользователей, решает проблемы, отвечает на вопросы и т.п.
3️⃣ Оптимизация контента под ключевые слова, которые привлекают как пользователей, так и поисковые системы. Не слушайте людей, которые говорят: «Оптимизируйте свой сайт только для пользователей».
У вас может быть лучший контент, но если он не оптимизирован как для пользователей, так и для поисковых систем, он не поднимется высоко в ТОП.
4️⃣ Отдавайте приоритет пользовательскому опыту с помощью оптимизации скорости сайта и вовлекающего UX. Это связано с предыдущим пунктом.
5️⃣ Создайте контент, которым можно поделиться, для ссылок и цитат. Нет PBN и линкфермам — это уже не круто.
Вам нужно разработать брендированный контент, который показывает, какую ценность вы и ваш бренд предоставляете своим пользователям.
6️⃣ Заголовок, URL и описание страниц для высокого CTR. Убедитесь, что ваш заголовок и описание согласованы на всей странице, и они не кликбейтные, иначе Яндекс / Google все равно изменят их.
7️⃣ Используйте микроразметку сниппетов / схемы, чтобы улучшить свои позиции в поисковой выдаче. Это важно для часто задаваемых вопросов, блоков с ответами, маркированных списков и т.д.
Полезное расширение для SEO в гугл Chrome — «View Rendered Source». При нажатии на него сразу же отображается «сырой» HTML (View Source) и визуализированный DOM (аналог F12), который выводится на экран. Также отображается третье окно, которое автоматически подсвечивает то, что было добавлено / удалено до рендера и после (работает через Javascript на стороне клиента).
Примеры того, что удалось отловить в Javascript при помощи данного расширения:
🛑 Теги noindex, добавляемые Javascript
🖇️ Канонические теги, измененные в DOM
🔗 Гиперссылки, видимые только в DOM
😶 Абсолютно пустые сайты без JS
В целом, данным инструментом удобно копаться на страницах исследуя код, включая изменения, внесенные JavaScript.
Примеры того, что удалось отловить в Javascript при помощи данного расширения:
🛑 Теги noindex, добавляемые Javascript
🖇️ Канонические теги, измененные в DOM
🔗 Гиперссылки, видимые только в DOM
😶 Абсолютно пустые сайты без JS
В целом, данным инструментом удобно копаться на страницах исследуя код, включая изменения, внесенные JavaScript.
Всем привет. На счет неполноценного сканирования сайтов - как выяснилось, баг зависит от количества потоков - на одном потоке скорее всего все будет ОК, но чем больше потоков - тем больше вероятность того, что сайт просканируется не целиком (сканируется каждый раз разное число страниц по факту).
Работаем над проблемой.
Постараемся решить вопрос на этой неделе.
Работаем над проблемой.
Постараемся решить вопрос на этой неделе.
Варианты товаров в интернет-магазинах сложны и разнообразны, но, например, что делать с футболками разных цветов?
Ребята из Google, усердно работали, чтобы придумать разметку структурированных данных для данных типов товаров.
Ознакомьтесь с записью в блоге Google - https://developers.google.com/search/blog/2024/02/product-variants и документацией - https://developers.google.com/search/docs/appearance/structured-data/product-variants для получения подробностей о новом типе разметки Google для различных вариации одного товара.
Данные изменения также вступят в силу в инструменте расширенного тестирования результатов и в отчетах Search Console, поэтому вы можете увидеть, как это повлияет на ранжирование, если вдруг вы уже используете текущую разметку.
С нетерпением ждем возможности увидеть, как это улучшит отображение наших продуктов и общую видимость на страницах поиска!
Ребята из Google, усердно работали, чтобы придумать разметку структурированных данных для данных типов товаров.
Ознакомьтесь с записью в блоге Google - https://developers.google.com/search/blog/2024/02/product-variants и документацией - https://developers.google.com/search/docs/appearance/structured-data/product-variants для получения подробностей о новом типе разметки Google для различных вариации одного товара.
Данные изменения также вступят в силу в инструменте расширенного тестирования результатов и в отчетах Search Console, поэтому вы можете увидеть, как это повлияет на ранжирование, если вдруг вы уже используете текущую разметку.
С нетерпением ждем возможности увидеть, как это улучшит отображение наших продуктов и общую видимость на страницах поиска!
Вопрос-ответ к одному из западных SEO-специалистов по поводу удаления NOINDEX через Javascript.
Вопрос:
- Если на странице прописан NOINDEX в исходном коде HTML, но на ней также есть Javascript для манипулирования DOM, который удаляет NOINDEX и делает ее индексируемой. Что в итоге произойдет?
Ответ:
- Страница не будет проиндексирована. Если Googlebot обнаружит ошибку NOINDEX для данного URL, Javascript просто не будет выполнен.
Вопрос:
- Если на странице прописан NOINDEX в исходном коде HTML, но на ней также есть Javascript для манипулирования DOM, который удаляет NOINDEX и делает ее индексируемой. Что в итоге произойдет?
Ответ:
- Страница не будет проиндексирована. Если Googlebot обнаружит ошибку NOINDEX для данного URL, Javascript просто не будет выполнен.
Интересное расширение Chrome для Google Search Console, которое может быстро сравнивать даты и видеть процентные изменения по трафику на вашем сайте.
Расширение привлекло более 3000 пользователей за последний месяц.
Ссылка на Google Search Console Date Selector - https://chromewebstore.google.com/detail/google-search-console-dat/fkpkhpigkldfnnimijaaldpafcibaepk?pli=1
ПС. Да, это можно сделать и самому руками в Search Console, выбрав даты и сравнив, но с плагином удобнее.
Также у него также есть автоматический выбор дат, которого нет в GSC (они длятся 30 дней по сравнению с прошлым месяцем) и, что самое важное, отображаются %+ и %-, что является большим удобством использования, так как в пользовательском интерфейсе отсутствуют быстрые отображения изменений в %.
Расширение привлекло более 3000 пользователей за последний месяц.
Ссылка на Google Search Console Date Selector - https://chromewebstore.google.com/detail/google-search-console-dat/fkpkhpigkldfnnimijaaldpafcibaepk?pli=1
ПС. Да, это можно сделать и самому руками в Search Console, выбрав даты и сравнив, но с плагином удобнее.
Также у него также есть автоматический выбор дат, которого нет в GSC (они длятся 30 дней по сравнению с прошлым месяцем) и, что самое важное, отображаются %+ и %-, что является большим удобством использования, так как в пользовательском интерфейсе отсутствуют быстрые отображения изменений в %.
Выпущена новая версия PositionMeter 3.9.6
В новой версии обновлена проверка позиций в Яндексе через систему XMLRiver по ТОП-100, добавлена возможность проверки позиций через XMLRiver по ТОП-300, актуализирован позиций сайтов в Excel, исправлена ошибка «Exception EOSError»...
Подробнее: https://position-meter.ru/version-history/
В новой версии обновлена проверка позиций в Яндексе через систему XMLRiver по ТОП-100, добавлена возможность проверки позиций через XMLRiver по ТОП-300, актуализирован позиций сайтов в Excel, исправлена ошибка «Exception EOSError»...
Подробнее: https://position-meter.ru/version-history/
Новая статья "Органические блоки товаров в Google" от популярного зарубежного блоггера Brodie Clark.
В статье обсуждается ранжирование в блоках органических товаров Google. Список факторов и максимизация видимости. Когда подобные блоки товаров имеют право на отображение, на первой странице они могут... https://site-analyzer.ru/articles/google-organic-product-grids/
В статье обсуждается ранжирование в блоках органических товаров Google. Список факторов и максимизация видимости. Когда подобные блоки товаров имеют право на отображение, на первой странице они могут... https://site-analyzer.ru/articles/google-organic-product-grids/
Пятничное
Возможно, вы недавно видели дискуссию о веб-сайте Джона Мюллера и robots.txt.
Ссылка: https://johnmu.com/robots.txt
Файл Robots.txt сообщает поисковым системам, какие части сайта следует индексировать.
Однако, в robots.txt Джона Мюллера есть необычная команда "noindex:".
Эта команда не является частью стандартного формата robots.txt.
Поэтому у Джона Мюллера спросили, что это за директива и окажет ли это какое-либо влияние на то, как поисковая система индексирует страницы его сайта.
Ответ:
- Я рад, что вы спросили и Вы правы в том, что директива "noindex:" необычна для Robots.txt. Это неподдерживаемая директива, она ничего не делает.
- Однако! Было много дискуссий о том, следует ли поддерживать "noindex" в рамках стандарта robots.txt. Идея заключалась в том, что было бы неплохо блокировать сканирование и индексирование одновременно. С помощью robots.txt вы можете заблокировать сканирование или индексацию (с помощью мета-тега robots, если вы разрешаете сканирование). Идея заключалась в том, что вы можете иметь "noindex" в robots.txt и блокировать оба. К сожалению, из-за того, что многие люди копируют и вставляют robots.txt файлы, не просматривая их в деталях (мало кто заглядывает так далеко, как вы!), кому-то будет очень, очень легко случайно удалить критически важные части веб-сайта.
- В связи с этим, более 10 лет назад, было решено, что эта директива не должна поддерживаться или быть частью robots.txt стандарта.
ПС. Также, в файле присутствует правило: disallow: /robots.txt
Однако, это скорее шутка, так как robots.txt запретить нельзя 🤣
Возможно, вы недавно видели дискуссию о веб-сайте Джона Мюллера и robots.txt.
Ссылка: https://johnmu.com/robots.txt
Файл Robots.txt сообщает поисковым системам, какие части сайта следует индексировать.
Однако, в robots.txt Джона Мюллера есть необычная команда "noindex:".
Эта команда не является частью стандартного формата robots.txt.
Поэтому у Джона Мюллера спросили, что это за директива и окажет ли это какое-либо влияние на то, как поисковая система индексирует страницы его сайта.
Ответ:
- Я рад, что вы спросили и Вы правы в том, что директива "noindex:" необычна для Robots.txt. Это неподдерживаемая директива, она ничего не делает.
- Однако! Было много дискуссий о том, следует ли поддерживать "noindex" в рамках стандарта robots.txt. Идея заключалась в том, что было бы неплохо блокировать сканирование и индексирование одновременно. С помощью robots.txt вы можете заблокировать сканирование или индексацию (с помощью мета-тега robots, если вы разрешаете сканирование). Идея заключалась в том, что вы можете иметь "noindex" в robots.txt и блокировать оба. К сожалению, из-за того, что многие люди копируют и вставляют robots.txt файлы, не просматривая их в деталях (мало кто заглядывает так далеко, как вы!), кому-то будет очень, очень легко случайно удалить критически важные части веб-сайта.
- В связи с этим, более 10 лет назад, было решено, что эта директива не должна поддерживаться или быть частью robots.txt стандарта.
ПС. Также, в файле присутствует правило: disallow: /robots.txt
Однако, это скорее шутка, так как robots.txt запретить нельзя 🤣
Выпущена новая версия SiteAnalyzer 3.0.3!
Исправлена некорректная работа сканера, при которой сканировались не все доступные страницы сайта, увеличена скорость сканирования сайтов, восстановлена работа разделов настроек программы «Исключить URL» и «Следовать URL»...
Подробнее на сайте: https://site-analyzer.ru/version-history/
Исправлена некорректная работа сканера, при которой сканировались не все доступные страницы сайта, увеличена скорость сканирования сайтов, восстановлена работа разделов настроек программы «Исключить URL» и «Следовать URL»...
Подробнее на сайте: https://site-analyzer.ru/version-history/
Совет по SEO
Если вы занимаетесь электронной коммерцией и используете стоковые фотографии, вы, скорее всего, упускаете значительную часть трафика из Яндекс Картинок 🖼️
Обычный путь покупателя по запросам электронной коммерции заключается в поиске и просмотре результатов поиска изображений Яндекс - покупки в большинстве случаев являются визуальной вещью!
Вы, наверное, заметили, что Яндекс Картинки показывают целый ряд изображений, а не одну и ту же фотографию постоянно.
Это означает, что если вы используете те же стоковые изображения, что и все остальные, вы вряд ли попадете в результаты поиска изображений.
Если вы занимаетесь электронной коммерцией и используете стоковые фотографии, вы, скорее всего, упускаете значительную часть трафика из Яндекс Картинок 🖼️
Обычный путь покупателя по запросам электронной коммерции заключается в поиске и просмотре результатов поиска изображений Яндекс - покупки в большинстве случаев являются визуальной вещью!
Вы, наверное, заметили, что Яндекс Картинки показывают целый ряд изображений, а не одну и ту же фотографию постоянно.
Это означает, что если вы используете те же стоковые изображения, что и все остальные, вы вряд ли попадете в результаты поиска изображений.
Версия: 3.0.3 (build 447):
- исправлена некорректная работа сканера, при которой генерировались «мусорные» страницы
- исправлено дублирование префикса WWW при добавлении домена работающего через WWW
- исправлено дублирование сайтов в списке проектов при добавлении нового сайта
- ускорено добавление проектов и групп
- оптимизирован скроллинг мышью вкладок блока основных данных проекта
- исправлена некорректная работа сканера, при которой генерировались «мусорные» страницы
- исправлено дублирование префикса WWW при добавлении домена работающего через WWW
- исправлено дублирование сайтов в списке проектов при добавлении нового сайта
- ускорено добавление проектов и групп
- оптимизирован скроллинг мышью вкладок блока основных данных проекта