Как делать digital PR
Здесь ребята хвастались, что выгоднее диджитал пиаром заниматься, чем статейными ссылками.
А Фери Казони показал пошагово один из способов как это делать.
– Берем две статистики
Например население конкретных городов и количество штрафов за парковку в них же.
В каждой стране есть сайты с такой статистикой.
Примеры американских и британских сайтов, где можно брать статистику:
• Office for National Statistics (ons.gov.uk)
• UK Police Data (data.police.uk)
• YouGov (yougov.co.uk)
• US Census Bureau (census.gov)
• Canada Open Source Data (open.canada.ca)
• United Nations Data (data.un.org)
• U.S. Government's Open Data (Data.gov)
– Скрещиваем их и делаем таблицу "Какие города больше всего пострадают от штрафов за парковку" (считаем как количество штрафов на 100 000 человек).
– Берем базу местных журналистов в каждом из этих городов на этих сайтах:
• roxhillmedia.com
• muckrack.com
• cision.com
• vuelio.com
• prowly.com
– Готовим письма (примеры на слайдах) с предложением бесплатно использовать собранные вами данные в статье.
– Рассылаем гмейлом или одним из этих сервисов:
https://www.buzzstream.com/
https://prowly.com/
У них получилось порядка 100-300 на каждый из 10 выбранных британских городов
Результаты
– Про штрафы за парковку – 14 размещений.
– Про наиболее опасные города Канады – 18 размещений.
– Про лучшие места во Флориде для семьи – 11 размещений.
Стоимость
Журналисты денег за это не берут. Затраты только на работу по подготовке данных, доступа к сервисам и рассылке.
Для гемблинга/беттинга метод тоже подходит (3 последних слайда).
Здесь ребята хвастались, что выгоднее диджитал пиаром заниматься, чем статейными ссылками.
А Фери Казони показал пошагово один из способов как это делать.
– Берем две статистики
Например население конкретных городов и количество штрафов за парковку в них же.
В каждой стране есть сайты с такой статистикой.
Примеры американских и британских сайтов, где можно брать статистику:
• Office for National Statistics (ons.gov.uk)
• UK Police Data (data.police.uk)
• YouGov (yougov.co.uk)
• US Census Bureau (census.gov)
• Canada Open Source Data (open.canada.ca)
• United Nations Data (data.un.org)
• U.S. Government's Open Data (Data.gov)
– Скрещиваем их и делаем таблицу "Какие города больше всего пострадают от штрафов за парковку" (считаем как количество штрафов на 100 000 человек).
– Берем базу местных журналистов в каждом из этих городов на этих сайтах:
• roxhillmedia.com
• muckrack.com
• cision.com
• vuelio.com
• prowly.com
– Готовим письма (примеры на слайдах) с предложением бесплатно использовать собранные вами данные в статье.
– Рассылаем гмейлом или одним из этих сервисов:
https://www.buzzstream.com/
https://prowly.com/
У них получилось порядка 100-300 на каждый из 10 выбранных британских городов
Результаты
– Про штрафы за парковку – 14 размещений.
– Про наиболее опасные города Канады – 18 размещений.
– Про лучшие места во Флориде для семьи – 11 размещений.
Стоимость
Журналисты денег за это не берут. Затраты только на работу по подготовке данных, доступа к сервисам и рассылке.
Для гемблинга/беттинга метод тоже подходит (3 последних слайда).
Инструкция как попасть в Google knowledge panel
от Джейсона Бернарда
https://drive.google.com/file/d/1yTZosGvqzsUyAmFHXAoi6F9UZ_rUKS8m/view?usp=drivesdk
от Джейсона Бернарда
https://drive.google.com/file/d/1yTZosGvqzsUyAmFHXAoi6F9UZ_rUKS8m/view?usp=drivesdk
Доклад "Секреты SEO-аудитов"
от Ольги Зарр
Комментарий от меня:
Секретов в нем конечно нет, но кое-что для большей комплексности аудита взять можно.
Хороший SEO-аудит состоит из следующих этапов:
1. Определить цели аудита: оценка общего состояния сайта, обнаружение проблем или причин падения трафика, поиск точек роста, формирование SEO-стратегии.
2. Узнать исходный контекст сайта: анализируем историю домена и миграций, хостинг и CMS, изменения по вебархиву, данные по GA4 и GSC (или сторонние аналитические сервисы), задаём прямые вопросы клиенту.
3. Провести ручную проверку: открыть сайт в разных браузерах и на телефоне, применить/удалить фильтры, добавить/удалить товар из корзины. Также попробовать отключить JavaScript, использовать функцию «Проверка элемента» в Google Chrome, использовать команду «site: operator».
4. Поиск получения быстрых результатов: посмотреть подсказки в Cora SEO Tool, удалить теги без индекса, удалить или канонизировать дубли страниц, привести в порядок robots.txt, выполнить базовую оптимизацию для страниц с высокими позициями.
5. Анализировать данные Google Search Console:
– Coverage report, Sitemaps report, Removals report, Crawl Stats report (если нет данных файла журнала), URL Inspection tool.
– Manual actions report, Security issues report, HTTPS coverage.
– Performance reports (результаты поиска, Discover, новости Google).
– Experience reports (Page Experience, Core Web Vitals, Mobile Usability reports).
– Links report: indexing status, canonical и пр.
– Enhancements reports, Rich Results Test.
– Раздел Indexing > Pages: большое количество URL с отметкой «Crawled - currently not indexed» или «Discovered - currently not indexed» говорит о взломе или сайте низкого качества.
Совет №1: не делать выводы только по снижению средней позиции (иногда это хороший знак) и падению CTR без падения позиций — это может означать изменение результатов поиска.
Совет №2: данные GSC нужно проверять дважды, используя JetOctopus или SEOcrawl для лучшего понимания.
6. Изучение данных Google Analytics: процент органического трафика, спам/бот/некачественный трафик, другие поисковые системы, вовлечённость пользователей (конверсии, действия) и их атрибуты (страна, регион), техданные (устройство, ОС, браузер).
Совет: при падении трафика в Google сравнить данные с трафиком в Bing, чтобы исключить или подтвердить проблему в Google.
7. Использовать несколько сканеров веб-сайтов: например, Screaming Frog и Sitebulb — это даст более полную картину. Сканирование огромных сайтов проще выполнять через JetOctopus.
8. Использовать дополнительные инструменты: Chrome Web Developer, Detailed SEO, Ahrefs SEO Toolbar, Keywords Everywhere, Link Redirect Trace, ChatGPT, Validator.schema.org, Cora.
9. Проверить рендеринг и индексацию JavaScript: стабильность JS и проверка URL-адреса для просмотра отображаемого HTML. GSC API позволяет выполнить массовую проверку URL — это удобно делать через JetOctopus.
10. Использовать чек-лист технического SEO, чтобы ничего не упустить, но не полагаться на него всецело — огромный аудит на 200 страниц никто не будет изучать. Проще всего воспринимаются формат таблицы-списки проверенных пунктов, Google-документа с объяснением и скриншотами, и видео-аудит с демонстрацией основных проблем.
11. Анализ E-E-A-T, Helpful Content и Google Quality:
– практически все сайты подпадают под YMYL/EEAT.
– наложение дат обновления алгоритма на трафик веб-сайта.
– проверка обратных ссылок и разнообразия факторов (через Cora).
12. Улучшить SEO-аудит с помощью LLMs (ChatGPT, Claude, Gemini): написать введение, улучшить рекомендации, объяснить термины, выполнить анализа данных и т. д.
13. Инструменты, которые упрощают SEO-аудит: Cora SEO Tool, Bing Webmaster Tools, инструменты SEO от Bing (Site Scan, Top Insights), Microsoft Clarity.
Презентация здесь.
от Ольги Зарр
Комментарий от меня:
Секретов в нем конечно нет, но кое-что для большей комплексности аудита взять можно.
Хороший SEO-аудит состоит из следующих этапов:
1. Определить цели аудита: оценка общего состояния сайта, обнаружение проблем или причин падения трафика, поиск точек роста, формирование SEO-стратегии.
2. Узнать исходный контекст сайта: анализируем историю домена и миграций, хостинг и CMS, изменения по вебархиву, данные по GA4 и GSC (или сторонние аналитические сервисы), задаём прямые вопросы клиенту.
3. Провести ручную проверку: открыть сайт в разных браузерах и на телефоне, применить/удалить фильтры, добавить/удалить товар из корзины. Также попробовать отключить JavaScript, использовать функцию «Проверка элемента» в Google Chrome, использовать команду «site: operator».
4. Поиск получения быстрых результатов: посмотреть подсказки в Cora SEO Tool, удалить теги без индекса, удалить или канонизировать дубли страниц, привести в порядок robots.txt, выполнить базовую оптимизацию для страниц с высокими позициями.
5. Анализировать данные Google Search Console:
– Coverage report, Sitemaps report, Removals report, Crawl Stats report (если нет данных файла журнала), URL Inspection tool.
– Manual actions report, Security issues report, HTTPS coverage.
– Performance reports (результаты поиска, Discover, новости Google).
– Experience reports (Page Experience, Core Web Vitals, Mobile Usability reports).
– Links report: indexing status, canonical и пр.
– Enhancements reports, Rich Results Test.
– Раздел Indexing > Pages: большое количество URL с отметкой «Crawled - currently not indexed» или «Discovered - currently not indexed» говорит о взломе или сайте низкого качества.
Совет №1: не делать выводы только по снижению средней позиции (иногда это хороший знак) и падению CTR без падения позиций — это может означать изменение результатов поиска.
Совет №2: данные GSC нужно проверять дважды, используя JetOctopus или SEOcrawl для лучшего понимания.
6. Изучение данных Google Analytics: процент органического трафика, спам/бот/некачественный трафик, другие поисковые системы, вовлечённость пользователей (конверсии, действия) и их атрибуты (страна, регион), техданные (устройство, ОС, браузер).
Совет: при падении трафика в Google сравнить данные с трафиком в Bing, чтобы исключить или подтвердить проблему в Google.
7. Использовать несколько сканеров веб-сайтов: например, Screaming Frog и Sitebulb — это даст более полную картину. Сканирование огромных сайтов проще выполнять через JetOctopus.
8. Использовать дополнительные инструменты: Chrome Web Developer, Detailed SEO, Ahrefs SEO Toolbar, Keywords Everywhere, Link Redirect Trace, ChatGPT, Validator.schema.org, Cora.
9. Проверить рендеринг и индексацию JavaScript: стабильность JS и проверка URL-адреса для просмотра отображаемого HTML. GSC API позволяет выполнить массовую проверку URL — это удобно делать через JetOctopus.
10. Использовать чек-лист технического SEO, чтобы ничего не упустить, но не полагаться на него всецело — огромный аудит на 200 страниц никто не будет изучать. Проще всего воспринимаются формат таблицы-списки проверенных пунктов, Google-документа с объяснением и скриншотами, и видео-аудит с демонстрацией основных проблем.
11. Анализ E-E-A-T, Helpful Content и Google Quality:
– практически все сайты подпадают под YMYL/EEAT.
– наложение дат обновления алгоритма на трафик веб-сайта.
– проверка обратных ссылок и разнообразия факторов (через Cora).
12. Улучшить SEO-аудит с помощью LLMs (ChatGPT, Claude, Gemini): написать введение, улучшить рекомендации, объяснить термины, выполнить анализа данных и т. д.
13. Инструменты, которые упрощают SEO-аудит: Cora SEO Tool, Bing Webmaster Tools, инструменты SEO от Bing (Site Scan, Top Insights), Microsoft Clarity.
Презентация здесь.
Как заработать кучу денег на SEO
10 советов от Мэтта Диггити
• Определи свою стоимость часа
• Делегируй все, что стоит дешевле
• Имей долю бизнесе или стартапе
• Научись продавать
• Будь верен своему слову
• Стань мастером в одной области SEO
• Общайся с людьми, которые дополняют твои навыки
• Принимай решения на основе данных
• Не верь никому на слово, особенно Google
• Будь вечным студентом и оставайся скромным
Источник: Matt Diggity.
10 советов от Мэтта Диггити
• Определи свою стоимость часа
• Делегируй все, что стоит дешевле
• Имей долю бизнесе или стартапе
• Научись продавать
• Будь верен своему слову
• Стань мастером в одной области SEO
• Общайся с людьми, которые дополняют твои навыки
• Принимай решения на основе данных
• Не верь никому на слово, особенно Google
• Будь вечным студентом и оставайся скромным
Источник: Matt Diggity.
Яндекс выкатил "Нейро"
Ответ формируется не из внутренней базы, а из результатов поиска (топ-5).
Это еще один шаг в сторону того, чтобы на запросы пользователей отдавать сгенерированные ответы. Пока не на основном поиске и только в Яндекс-браузере и в Алисе.
Подробнее, чем в источнике здесь.
Там же указано как закрыть свой сайт от нейро, но смысла в этом особого нет.
Поиграться можно в яндекс-браузере, перейдя по ссылке: https://ya.ru/n/
Источник: Я.Вебмастер блог.
Ответ формируется не из внутренней базы, а из результатов поиска (топ-5).
Это еще один шаг в сторону того, чтобы на запросы пользователей отдавать сгенерированные ответы. Пока не на основном поиске и только в Яндекс-браузере и в Алисе.
Подробнее, чем в источнике здесь.
Там же указано как закрыть свой сайт от нейро, но смысла в этом особого нет.
Поиграться можно в яндекс-браузере, перейдя по ссылке: https://ya.ru/n/
Источник: Я.Вебмастер блог.
Как работает антиспам Google
Основные тезисы доклада бывшего старшего технического руководителя в команде качества поиска Google.
📌 Оценка командой Google по борьбе со спамом:
Намерение: Когда команда Google по борьбе со спамом оценивает потенциальный спам, они учитывают намерение того, кто этот спам делает. Если они определят, что намерение злонамеренно (то есть цель явно заключается в спаме), они применяют ручные санкции.
Масштабное обнаружение спама: У команды есть способы выявлять шаблоны масштабного спама.
Обоснование и документирование: Они внутренне обосновывают и документируют, почему именно было применено штрафное действие.
Разделение труда: Google также использует другого сотрудника из команды по борьбе со спамом для обработки запроса на пересмотр, отличного от того, кто изначально отправил ручное действие.
📌 Весь неотредактированный сгенерированный контент технически относится к категории "Масштабное злоупотребление контентом" (Scaled content abuse) и может приводить к санкциям.
📌 Google не против сайтов под партнерские программы, но при большом их количестве (тысячи) приоритет отдаётся тем, которые дают первоначальную ценность.
📌 «Разметка, вводящая в заблуждение» — частая причина ручных санкций и снижения доверия Google к структурированным данным сайта.
📌 Честность и признание ошибок — лучшая стратегия для снятия санкций. У операторов Google в очереди тысячи «штрафников» и разбираться в чьих-то хитростях никто не будет.
📌 Когда отклоняются запросы на повторное рассмотрение:
– проблема не устранена (даже если работа над устранением начата);
– любая агрессивность или возбуждённость в запросе, включая угрозы подать в суд;
– требование объяснить причину санкций;
– претензии о том, что Google не знают как выполнять свою работу;
– заявление в стиле «Мы изменили h1» и т. п.;
– претензия типа «Мой сайт полностью проиндексирован в Bing»;
– претензия типа «На других моих сайтах санкций нет» — это почти приглашение проверить и эти сайты тоже.
📌 Сообщение о том, что Google «обработал» (но не «одобрил») внесённые исправления означает, что они ищут другой потенциальный спам. История сайта отслеживается, а потому не стоит пытаться обмануть Google, а лучше привести в порядок сайт целиком.
📌 Спам с использованием дроп-доменов известен уже больше 20 лет: Google видит смену владельца и уже по большей части нейтрализовал эффект хорошего ранжирования таких доменов.
📌 Старый контент, который не должен попадать в результаты поисковой выдачи, нужно закрывать от индексации.
Источник: Lily Ray in Twitter.
Основные тезисы доклада бывшего старшего технического руководителя в команде качества поиска Google.
📌 Оценка командой Google по борьбе со спамом:
Намерение: Когда команда Google по борьбе со спамом оценивает потенциальный спам, они учитывают намерение того, кто этот спам делает. Если они определят, что намерение злонамеренно (то есть цель явно заключается в спаме), они применяют ручные санкции.
Масштабное обнаружение спама: У команды есть способы выявлять шаблоны масштабного спама.
Обоснование и документирование: Они внутренне обосновывают и документируют, почему именно было применено штрафное действие.
Разделение труда: Google также использует другого сотрудника из команды по борьбе со спамом для обработки запроса на пересмотр, отличного от того, кто изначально отправил ручное действие.
📌 Весь неотредактированный сгенерированный контент технически относится к категории "Масштабное злоупотребление контентом" (Scaled content abuse) и может приводить к санкциям.
📌 Google не против сайтов под партнерские программы, но при большом их количестве (тысячи) приоритет отдаётся тем, которые дают первоначальную ценность.
📌 «Разметка, вводящая в заблуждение» — частая причина ручных санкций и снижения доверия Google к структурированным данным сайта.
📌 Честность и признание ошибок — лучшая стратегия для снятия санкций. У операторов Google в очереди тысячи «штрафников» и разбираться в чьих-то хитростях никто не будет.
📌 Когда отклоняются запросы на повторное рассмотрение:
– проблема не устранена (даже если работа над устранением начата);
– любая агрессивность или возбуждённость в запросе, включая угрозы подать в суд;
– требование объяснить причину санкций;
– претензии о том, что Google не знают как выполнять свою работу;
– заявление в стиле «Мы изменили h1» и т. п.;
– претензия типа «Мой сайт полностью проиндексирован в Bing»;
– претензия типа «На других моих сайтах санкций нет» — это почти приглашение проверить и эти сайты тоже.
📌 Сообщение о том, что Google «обработал» (но не «одобрил») внесённые исправления означает, что они ищут другой потенциальный спам. История сайта отслеживается, а потому не стоит пытаться обмануть Google, а лучше привести в порядок сайт целиком.
📌 Спам с использованием дроп-доменов известен уже больше 20 лет: Google видит смену владельца и уже по большей части нейтрализовал эффект хорошего ранжирования таких доменов.
📌 Старый контент, который не должен попадать в результаты поисковой выдачи, нужно закрывать от индексации.
Источник: Lily Ray in Twitter.
SEO-тест: уменьшение блока перелинковки
Гипотеза: Органический трафик из Google увеличится, если уменьшить размер блока ссылок на похожие страницы того же сайта. А часть ссылок разместить за кнопкой «Показать больше».
Адрес сайта они не раскрывают, но скорее всего мучали тот же skyskanner.com, как и в некоторых прошлых тестах.
И тогда блок, который они тестировали – в подвале большинства страниц. Вида "Похожие страницы".
Прикрепил его скриншотом.
Ожидание: по результатам опроса-голосования, проведённого в LinkedIn и X, 63% подписчиков высказались за отсутствие ощутимых результатов, а 25% прогнозировали снижение трафика.
Тест: на странице туристического сайта уменьшили размер блока перелинковки с 30 ссылок (3 колонки по 10 ссылок) до 15 (3 колонки по 5 ссылок)
Результат: в течение недели органический трафик вырос на 10,2%.
Видимо имеется в виду не трафик группы перелинкованных страниц (в том числе тех, куда ссылалась основная страница). А трафик только тех страниц, где срезали количество исходящих ссылок.
То есть если бы они учли и их, то уменьшение входящего ссылочного веса могло дать снижение там видимости. И результаты эксперимента были бы иными.
Источник: SearchPilot.
Гипотеза: Органический трафик из Google увеличится, если уменьшить размер блока ссылок на похожие страницы того же сайта. А часть ссылок разместить за кнопкой «Показать больше».
Адрес сайта они не раскрывают, но скорее всего мучали тот же skyskanner.com, как и в некоторых прошлых тестах.
И тогда блок, который они тестировали – в подвале большинства страниц. Вида "Похожие страницы".
Прикрепил его скриншотом.
Ожидание: по результатам опроса-голосования, проведённого в LinkedIn и X, 63% подписчиков высказались за отсутствие ощутимых результатов, а 25% прогнозировали снижение трафика.
Тест: на странице туристического сайта уменьшили размер блока перелинковки с 30 ссылок (3 колонки по 10 ссылок) до 15 (3 колонки по 5 ссылок)
Результат: в течение недели органический трафик вырос на 10,2%.
Видимо имеется в виду не трафик группы перелинкованных страниц (в том числе тех, куда ссылалась основная страница). А трафик только тех страниц, где срезали количество исходящих ссылок.
То есть если бы они учли и их, то уменьшение входящего ссылочного веса могло дать снижение там видимости. И результаты эксперимента были бы иными.
Источник: SearchPilot.
Forwarded from SEO практика | Кравцов Виталий (Виталий Кравцов)
В вебмастере появилась товарная аналитика, интересно!
Как снять ручные санкции от Google
Niche Site Lady провела опрос среди западных SEO-специалистов кому и как удавалось снять ручные санкции от Google за спам.
📌
📌
📌
Отдельная задача: убедить webspam-команду, что зарабатывание денег не является главной целью сайта.
📌
📌
📌
📌
📌
📌
📌
Источник: Niche Site Lady in twitter.
Niche Site Lady провела опрос среди западных SEO-специалистов кому и как удавалось снять ручные санкции от Google за спам.
📌
Dennis Melnik
: был удалён весь дополнительный (описательный) текст, оставлены только голые факты.📌
New Story Studio
: полный редизайн сайта и множество запросов на повторную проверку — каждый раз с исчерпывающе ясными объяснениями.📌
Marie Haynes
: создание Google Docs со скриншотами аналитики, которые показывают, что пользователи находили сайт полезным, а также подробное изложение своих планов по созданию ценного и уникального контента.Отдельная задача: убедить webspam-команду, что зарабатывание денег не является главной целью сайта.
📌
Ghostblogger
: полное удаление всех сообщений с прописыванием постоянного 301 редиректа на главную — санкции сняли в течение суток, но позиции восстанавливаются очень медленно.📌
Stellar SEO
и udemezue John
: публикация нового контента и 2-4 недели ожидания.📌
Darth Autocrat
: закрытие от индексации или удаление части сайта (в зависимости от тяжести нарушения).📌
AICreatedByAI
: личный блог был переделан в бизнес-сайт с личным блогом.📌
Jacky Chou
: отмена публикации всех постов.📌
Google Search Honesty
: улучшение существующих EEAT факторов.📌
Tom Ward
: покупка нового домена и начало работы заново — можно с использованием старого контента.Источник: Niche Site Lady in twitter.
Раскатка March 2024 Core Update завершена
— Объявили только сейчас, но указали, что реально он завершился еще 19 апреля
— Апдейт занял 45 дней
Источник: Google SSD.
— Объявили только сейчас, но указали, что реально он завершился еще 19 апреля
— Апдейт занял 45 дней
Источник: Google SSD.
Кейс: Как PBN-сеть помогла получить в 3 раза больше трафика с Google
Ниша: Интернет магазин по продаже кальянов и вейпов.
Регион: Москва.
Проблема: Низкий трафик в Google, мало переходов с органики.
Моя команда всё делала в целом как обычно. Единственное отличие от стандартного набора работ – вместо закупа ссылок на биржах использовали PBN.
Всплеск бэклинков на старте – это поставили немного сабмитов, чтобы прикрыть появление ссылок с PBN.
Сайты для PBN:
– На дроп-доменах
– Околотематика
– Подняты на сгенерированном контенте и посажены на wordpress
– Ссылки ставили с главной или с новой статьи
– Количество сайтов в сети: меньше 10.
Подробности: Муравейник.
Ниша: Интернет магазин по продаже кальянов и вейпов.
Регион: Москва.
Проблема: Низкий трафик в Google, мало переходов с органики.
Моя команда всё делала в целом как обычно. Единственное отличие от стандартного набора работ – вместо закупа ссылок на биржах использовали PBN.
Всплеск бэклинков на старте – это поставили немного сабмитов, чтобы прикрыть появление ссылок с PBN.
Сайты для PBN:
– На дроп-доменах
– Околотематика
– Подняты на сгенерированном контенте и посажены на wordpress
– Ссылки ставили с главной или с новой статьи
– Количество сайтов в сети: меньше 10.
Подробности: Муравейник.
У меня сразу несколько поводов для радости:
1. Очень крутой руководитель SEO-команды зафиналил цель по сопровождению.
Здесь дублировать не буду, всё можете сами прочитать в его отзыве.
На этот раз результат анонимный.
2. Отзыв от Дмитрия, он был участником самого первого тестового набора 2 года назад. Тогда это была короткая тестовая программа. Он тогда ее завершил с небольшим ростом.
И пару недель назад он написал, что тогда удвоил доход. Всегда радует, когда приходят "непрошенные" отзывы. Просто благодарность от души.
3. Пришел дополнительный отзыв от крутого SEO специалиста из этого кейса. Тоже просто поделился радостью о чеке в 300 000 ₽ в месяц от одного клиента.
Спасибо вам, что используете то, чем я делюсь и сообщаете о своих успехах!
Дорожная карта роста дохода на SEO по прежнему доступна бесплатно по ссылке.
1. Очень крутой руководитель SEO-команды зафиналил цель по сопровождению.
Здесь дублировать не буду, всё можете сами прочитать в его отзыве.
На этот раз результат анонимный.
2. Отзыв от Дмитрия, он был участником самого первого тестового набора 2 года назад. Тогда это была короткая тестовая программа. Он тогда ее завершил с небольшим ростом.
И пару недель назад он написал, что тогда удвоил доход. Всегда радует, когда приходят "непрошенные" отзывы. Просто благодарность от души.
3. Пришел дополнительный отзыв от крутого SEO специалиста из этого кейса. Тоже просто поделился радостью о чеке в 300 000 ₽ в месяц от одного клиента.
Спасибо вам, что используете то, чем я делюсь и сообщаете о своих успехах!
Дорожная карта роста дохода на SEO по прежнему доступна бесплатно по ссылке.
SEO-тест: Есть ли смысл в Disavow tool
Гринд Стоун добился значительного роста позиций сайта отправив низкокачественные ссылки в Google Disavow tool:
– Все низкокачественные ссылки, ранее проиндексированные Google, были собраны в файл Disavow (с использованием Link Research Tools).
Submit-ссылки в этом списке составили около 30%.
– Затем disavow был отравлен в Google и создан запрос на переиндексацию.
– Спустя 2 недели позиции сайта заметно выросли (результат на скриншоте).
Гринд Стоун добился значительного роста позиций сайта отправив низкокачественные ссылки в Google Disavow tool:
– Все низкокачественные ссылки, ранее проиндексированные Google, были собраны в файл Disavow (с использованием Link Research Tools).
Submit-ссылки в этом списке составили около 30%.
– Затем disavow был отравлен в Google и создан запрос на переиндексацию.
– Спустя 2 недели позиции сайта заметно выросли (результат на скриншоте).
Screaming Frog SEO Spider обновился до 20 версии
Что нового:
Перестали работать кейгены 😱
Если вы всё это время пользовались программой бесплатно, не обновляйтесь или купите лицензию (стоит 259$ в год).
В целом я удивлен, что они столько лет никак не сверяли продаваемые копии, просто верили кодам на слово.
Теперь можно выполнять свой JS код во время сканирования или использовать готовый из библиотеки кодов
Сначала нужно включить "JavaScript rendering mode" здесь: Config > Spider > Rendering.
Потом включить нужную библиотеку так: Config > Custom > Custom JavaScript > Add from library
Как это можно использовать:
– Например генерировать из chatgpt: title, description, alt изображений на ходу прямо во время сканирования
– Запуск событий наведения курсора мыши.
– Прокрутка страницы (для сканирования некоторых настроек бесконечной прокрутки).
– Загрузка и сохранение различного контента локально (например, изображений, PDF-файлов и т. д.).
– Анализ настроений, намерений или языка содержания страницы.
– Подключение к API-интерфейсам инструментов SEO, которые еще не интегрированы, например Sistrix.
– Извлечение вложений из содержимого страницы.
Добавили простой текстовый анализатор
Показывает однословные, двусловные, трехсловные... вхождения слов на страницу или группу страниц
Добавился функционал для внутренней перелинковки
Показывает части страниц с нужными ключевыми словами, с которых можно сослаться на продвигаемую страницу. Выглядит так.
Добавился отчет по анкорам ссылок
Выглядит так.
Теперь можно замерять скорость страниц локально, не подключаясь к PageSpeed
Теперь можно запускать Lighthouse локально во время сканирования для получения данных PageSpeed и на мобильных устройствах. Просто выберите источник как «Local» через «Config > API Access > PSI».
Источник: Screaming Frog.
Что нового:
Перестали работать кейгены 😱
Если вы всё это время пользовались программой бесплатно, не обновляйтесь или купите лицензию (стоит 259$ в год).
В целом я удивлен, что они столько лет никак не сверяли продаваемые копии, просто верили кодам на слово.
Теперь можно выполнять свой JS код во время сканирования или использовать готовый из библиотеки кодов
Сначала нужно включить "JavaScript rendering mode" здесь: Config > Spider > Rendering.
Потом включить нужную библиотеку так: Config > Custom > Custom JavaScript > Add from library
Как это можно использовать:
– Например генерировать из chatgpt: title, description, alt изображений на ходу прямо во время сканирования
– Запуск событий наведения курсора мыши.
– Прокрутка страницы (для сканирования некоторых настроек бесконечной прокрутки).
– Загрузка и сохранение различного контента локально (например, изображений, PDF-файлов и т. д.).
– Анализ настроений, намерений или языка содержания страницы.
– Подключение к API-интерфейсам инструментов SEO, которые еще не интегрированы, например Sistrix.
– Извлечение вложений из содержимого страницы.
Добавили простой текстовый анализатор
Показывает однословные, двусловные, трехсловные... вхождения слов на страницу или группу страниц
Добавился функционал для внутренней перелинковки
Показывает части страниц с нужными ключевыми словами, с которых можно сослаться на продвигаемую страницу. Выглядит так.
Добавился отчет по анкорам ссылок
Выглядит так.
Теперь можно замерять скорость страниц локально, не подключаясь к PageSpeed
Теперь можно запускать Lighthouse локально во время сканирования для получения данных PageSpeed и на мобильных устройствах. Просто выберите источник как «Local» через «Config > API Access > PSI».
Источник: Screaming Frog.