Александр Арсёнкин анонсировал новый инструмент по анализу конкурентов на базе скрипта ⚙️ , который я выкладывал пару месяцев назад.
Напомню, что задача скрипта в быстром выявлении сильных направлений конкурентов на основе данных из Keys.so по видимости URL и их слагам (папкам).
Получилось реально удобно, понравилась реализации раскрытия уровней вложенности по URL (как в Яндекс.Метрике), который не удавалось сделать в Excel через Python, в остальном функционал дублируется.
Будет полезно если нет подписки в Keys.so или нет желания разбираться с установкой Python.
🔗 Ссылка на инструмент |✈️ Анонс в канале
Напомню, что задача скрипта в быстром выявлении сильных направлений конкурентов на основе данных из Keys.so по видимости URL и их слагам (папкам).
Получилось реально удобно, понравилась реализации раскрытия уровней вложенности по URL (как в Яндекс.Метрике), который не удавалось сделать в Excel через Python, в остальном функционал дублируется.
Будет полезно если нет подписки в Keys.so или нет желания разбираться с установкой Python.
🔗 Ссылка на инструмент |
Please open Telegram to view this post
VIEW IN TELEGRAM
Функционал очень схож с другим поисковиком работающим на нейросетях - Perplexity, когда в выдаче идет агрегация данных с первых 5 результатов.
Протестировать можно в Яндекс.Браузере на телефоне/компьютере.
Please open Telegram to view this post
VIEW IN TELEGRAM
Про технические аудиты
6 лет назад на последнем месте работы был такой ритуал под названием "технический аудит". Причем чем больше пунктов в этом самом тех. аудите, тем он считается круче.
И вот в далеком 2018 сижу над эксель файлом в 200 строк, проставляю галочки из выпадающего списка "Есть ошибка/Нет ошибки" и думаю о том, на кой черт вообще этим занимаюсь.
С тех пор ни одного такого аудита я не сделал, но до сих пор обнаруживаю что ритуал простановки галочек в километровых эксельках остался.
Мотивация их заполнять обычно есть у двух групп людей - агентств (такие отчеты удобно вписываются в план работ над проектом) и специалистов по аудитам - тех, кто на них зарабатывает, но не внедряет.
Препятствовать внедрению тех. аудита важно, поскольку в ином случае обязательно спросят - "А где результаты?", на что закономерно следует отвечать - "Вот когда все внедрите, тогда и спрашивайте". Думаю становится очевидно, что пунктов в аудите должно быть настолько много, чтобы все изменения никогда и не были реализованы.
В качестве подтверждения проблем обязательно указываются примеры. При этом ни масштаб этих самых проблем, ни характер их появления проставлятеля галочек не интересует. Пара дублей Title или пара миллионов дублей - это одна и та же проблема, которая владельцем сайта передаётся программисту на исправление.
6 лет назад на последнем месте работы был такой ритуал под названием "технический аудит". Причем чем больше пунктов в этом самом тех. аудите, тем он считается круче.
И вот в далеком 2018 сижу над эксель файлом в 200 строк, проставляю галочки из выпадающего списка "Есть ошибка/Нет ошибки" и думаю о том, на кой черт вообще этим занимаюсь.
С тех пор ни одного такого аудита я не сделал, но до сих пор обнаруживаю что ритуал простановки галочек в километровых эксельках остался.
Мотивация их заполнять обычно есть у двух групп людей - агентств (такие отчеты удобно вписываются в план работ над проектом) и специалистов по аудитам - тех, кто на них зарабатывает, но не внедряет.
Препятствовать внедрению тех. аудита важно, поскольку в ином случае обязательно спросят - "А где результаты?", на что закономерно следует отвечать - "Вот когда все внедрите, тогда и спрашивайте". Думаю становится очевидно, что пунктов в аудите должно быть настолько много, чтобы все изменения никогда и не были реализованы.
В качестве подтверждения проблем обязательно указываются примеры. При этом ни масштаб этих самых проблем, ни характер их появления проставлятеля галочек не интересует. Пара дублей Title или пара миллионов дублей - это одна и та же проблема, которая владельцем сайта передаётся программисту на исправление.
Закончился 6 поток курса у Андрея Джилавдарова, подробный отзыв о курсе оставил на созвоне, тезисно выводы следующие:
🟠 Вероятно самое полное руководство по поисковому продвижению сайтов на рынке, более фундаментальных материалов еще не видел
🟠 Серьезная теоретическая база на основе патентов, справок и другой официальной (!) информации от поисковиков
🟠 Рассматриваются все основные типы проектов - еком, услуги, порталы
🟠 Зашкаливает концентрация топов рынка, интересно и полезно слушать реальный опыт на созвонах
🟠 Акцент по большей части на ссылках, что собственно отвечает требованиям рынка с текущим мракобесием от Яндекса
Если уже есть практический опыт взаимодействия с сайтами, но каша относительно того почему так работает - однозначно рекомендую
Если уже есть практический опыт взаимодействия с сайтами, но каша относительно того почему так работает - однозначно рекомендую
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Отзыв от Ивана Зимина на seo курс Андрея Джилавдарова
Записываемся на курс для физ лиц https://dzhilavdarov-seo.ru/
Яндекс отчитался о росте выручки год к году на 40%, за него я конечно рад, но интересно что треть его бизнеса - это наш с вами поиск, еще 24% - это Я.Маркет, который активно продвигается за счет поиска, в общем несложно понять откуда рост.
Ниже диванная аналитика того, что на самом деле происходит на поисковом рынке:
- на стороне вебмастеров полная дичь с доходами в РСЯ, об этом подробно писал Макс, падение в 5-10 раз к прошлому году полностью убивает рентабельность этого направления
- контекстологам рубят возможности для ручной настройки рекламы через введение автотаргетинга (если упрощать - Яндекс говорит что ему виднее по каким фразам и где вас показывать, просто плОтите)
- анонс нейропоиска, добивает и без того безденежные статейники, и еще больше срежет трафик на остальных типах сайтов
- борьба с ПФами путём консервации топа 20-30 крупняками уже делает бессмысленным продвижение небольших сайтов, под видом "борьбы" за все хорошее просто закрыли этот канал для малого бизнеса
- по конверсиям из метрики, я вижу что при одинаковом трафике Google даёт заказов в 2-4 раза больше, т.е либо стата в метрике рисованная, либо трафик в Яндексе в основном ботовый и никакой доли в 65% живых юзеров у них нет
В итоге отчет перед инвесторами важнее того, что происходит на самом деле. Долго ли такая система проживет и во что трансформируется большой вопрос.
Ниже диванная аналитика того, что на самом деле происходит на поисковом рынке:
- на стороне вебмастеров полная дичь с доходами в РСЯ, об этом подробно писал Макс, падение в 5-10 раз к прошлому году полностью убивает рентабельность этого направления
- контекстологам рубят возможности для ручной настройки рекламы через введение автотаргетинга (если упрощать - Яндекс говорит что ему виднее по каким фразам и где вас показывать, просто плОтите)
- анонс нейропоиска, добивает и без того безденежные статейники, и еще больше срежет трафик на остальных типах сайтов
- борьба с ПФами путём консервации топа 20-30 крупняками уже делает бессмысленным продвижение небольших сайтов, под видом "борьбы" за все хорошее просто закрыли этот канал для малого бизнеса
- по конверсиям из метрики, я вижу что при одинаковом трафике Google даёт заказов в 2-4 раза больше, т.е либо стата в метрике рисованная, либо трафик в Яндексе в основном ботовый и никакой доли в 65% живых юзеров у них нет
В итоге отчет перед инвесторами важнее того, что происходит на самом деле. Долго ли такая система проживет и во что трансформируется большой вопрос.
Вышло мощное обновление лягушки, основные изменения ниже:
Нейросети
Техническая оптимизация
Текстовая оптимизация
Самое полезное
Кейген больше не работает, так что программу придётся покупать. Проверка лицензии теперь осуществляется с подключением к их серверу.
Полезные ссылки:
Please open Telegram to view this post
VIEW IN TELEGRAM
Разрабы Screaming Frog удивились повышенному интересу к версии 19.8 после анонса 20 и настроили редирект при скачке.
Ниже оригинальный установочный файл версии 19.8 для Windows и два вида кейгена - exe файл и браузерная версия (активировать можно любым).
Ниже оригинальный установочный файл версии 19.8 для Windows и два вида кейгена - exe файл и браузерная версия (активировать можно любым).
👉 Простой промпт, который отлично подсказывает что разместить на коммерческой странице под услугу, и ничего не надо выдумывать.
Навеяно последней консультацией, когда очередной раз блок с ценами размещается где-то внизу.
Это чуть ли не основной критерий для клиентов в большинстве ниш, поэтому таблица всегда должна быть на 1-2 экране, иначе растут отказы. Вроде база, но почему-то многие этого не делают.
Список запросов для выгрузки беру в новом инструменте Яндекса.
Навеяно последней консультацией, когда очередной раз блок с ценами размещается где-то внизу.
Это чуть ли не основной критерий для клиентов в большинстве ниш, поэтому таблица всегда должна быть на 1-2 экране, иначе растут отказы. Вроде база, но почему-то многие этого не делают.
Список запросов для выгрузки беру в новом инструменте Яндекса.
Не самый очевидный момент, но для интернет-магазинов (и только для них) в выдаче Яндекса отображается рейтинг отзывов, оставленных в Я.Браузере.
Почему не с Яндекс.Карт, куда крайне сложно пройти модерацию, не понятно (возможно тут больше данных), но это работает на руку когда нужно быстро сформировать или исправить рейтинг с отображением на выдаче.
Все отзывы есть в вебмастере в разделеhttps://webmaster.yandex.ru/siteinfo/?site=ozon.ru (меняем озон на нужный домен).
Используется ли данная оценка как фактор ранжирования неизвестно, но плюс к CTR на выдаче ожидать можно.
Почему не с Яндекс.Карт, куда крайне сложно пройти модерацию, не понятно (возможно тут больше данных), но это работает на руку когда нужно быстро сформировать или исправить рейтинг с отображением на выдаче.
Все отзывы есть в вебмастере в разделе
Качество - Отзывы
, быстро посмотреть свои или чужие отзывы можно по ссылке - Используется ли данная оценка как фактор ранжирования неизвестно, но плюс к CTR на выдаче ожидать можно.
Навалилось новостей в один день, и речь не про день SEO-шника, о котором я сам узнал только сегодня 🐈
🔽 Слив данных по ранжированию в Google
Если год назад сливали данные с Яндекса, то теперь вскрылась утечка с Google:
🟠 Подробности слива есть здесь - https://t.me/advancedseoblog/151
🟠 Разбор основных моментов в трех частях на русском с комментариями - https://t.me/seo4robots/289 (ссылка на первую, дальше две других)
🟠 Аудио версия от Андрей Джилавдарова - https://t.me/seo_trend/429
Нужно ли резко менять, что-то в работезакупке ссылок , точно нет, но для общего кругозора вполне.
🖥 Вебинар с Михаилом Сливинским
Михаил Сливинский (амбассадор Яндекса) был на вебинаре у Дмитрия Севальнева, основное тезисно:
🟠 Делайте сайты для людей 😊
🟠 Ненадо булшитеть (чтобы это не значило)
🟠 Сеошники не понимают что такое УТП (надо понимать)
🟠 У накрутчиков все плохо, их победили (почти)
🟠 Накрутка для Яндекса не выгодна
Если год назад сливали данные с Яндекса, то теперь вскрылась утечка с Google:
Нужно ли резко менять, что-то в работе
Михаил Сливинский (амбассадор Яндекса) был на вебинаре у Дмитрия Севальнева, основное тезисно:
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from addmeto (Grigory Bakunov)
Долго думал, что не буду про это писать. Но, почитав и исследовав вопрос, решил, что вам будет интересно.
На прошлой неделе начался большой бум среди всех, кто как-то завязан на поиск Гугла (а это почти весь современный интернет, все его разработчики). Некто "Erfan Azimi", владец SEO-фирмы внезапно начал показывать слитые ему документы о том, как устроено ранжирование в поиске Гугла. На самом деле всё чуть сложнее, не сам поиск, а различные API вокруг него, но, как вы понимаете, даже по этим API уже можно понять многое. Утечка произошла по ошибке, один из разработчиков в гугле написал программу для превращения API в вызовы на любимом им языке программирования, но вместо публичных вызовов выложил все (если вам интересно, я приложил ссылку на коммит, в котором содержатся все эти описания [1]).
Многочисленные проверки через разных бывших и действующих гуглеров говорят, что это не подделка, не шутка, а вполне реальная утечка, исследованием которой теперь очень озабочены все SEO-ресерчеры. Дам вам ссылку на самый глубокий из них [2], но если кратко, то вот что уже сейчас понятно:
– В поиске гугла есть белые списки сайтов, которые принудительно оптимизированы. Как минимум, это известно о некоторых тематиках, таких как выборы штатах в 2020 или ковид.
– Название домена, а так же субдоменов является значимой информацией (гугл всегда говорил что это не так).
– Есть отдельная песочница для новых сайтов. Гугл всегда это отрицал.
– В поиске напрямую используются данные из EWOK (это система, в которой живые люди сидят и за деньги оценивают, какой вариант выдачи в поиске лучше). Да, судя по всему, есть пользователи, которые своими глазами и мнением определяют, какой из нескольких сайтов лучше по некоторому запросу.
– Гугл активно использует информацию по поведению пользователей на сайте для ранжирования.
– Данные по тому, куда пользователь нажимает на странице, берутся не только из гугл-аналитики, но и напрямую из браузера Chrome.
– По количеству кликов на странице сайты делятся на три категории, для каждой из которых строится свой "ранг качества", более популярные по кликам сайты приносят бОльший вклад в пейджранк, т.е. более ценны.
– Гугл внутри учитывает размер бренда сайта, не только по самому сайту, но и в целом по упоминанию этого сайта в интернете (даже без ссылок).
– Контент и ссылки вообще вторичны, сейчас гораздо значимее именно клики и навигация по сайту (то что называют "поведенческий фактор").
– Как следствие, для большинства мелких компаний и сайтов SEO почти не значим, пока вы не создадите бренд, пользователей на сайте и репутацию для аудитории.
Безусловно, это самая значимая утечка про поиск гугла за последние 10-15 лет. По ней очень вероятно, что гугл часто врет, когда публично рассказывает о поиске [3]. Скорее всего, надо переставать верить, что "content is king", кликбейты + фермы ботов — вот нынешний путь к успеху в SEO. Разумеется, гугл от комментариев отказался [4]. Если вам хочется почитать на эту тему еще что-то — вот неплохая статья в iPullRank [5].
А если вам хочется как-то перестать сливать все свои данные в гугл — поставьте себе что-то не из хрома, например, Firefox.
[1] https://github.com/googleapis/elixir-google-api/commit/078b497fceb1011ee26e094029ce67e6b6778220
[2] https://sparktoro.com/blog/an-anonymous-source-shared-thousands-of-leaked-google-search-api-documents-with-me-everyone-in-seo-should-see-them/
[3] https://www.seroundtable.com/google-chrome-search-usage-15618.html
[4] https://www.theverge.com/2024/5/28/24166177/google-search-ranking-algorithm-leak-documents-link-seo
[5] https://ipullrank.com/google-algo-leak
На прошлой неделе начался большой бум среди всех, кто как-то завязан на поиск Гугла (а это почти весь современный интернет, все его разработчики). Некто "Erfan Azimi", владец SEO-фирмы внезапно начал показывать слитые ему документы о том, как устроено ранжирование в поиске Гугла. На самом деле всё чуть сложнее, не сам поиск, а различные API вокруг него, но, как вы понимаете, даже по этим API уже можно понять многое. Утечка произошла по ошибке, один из разработчиков в гугле написал программу для превращения API в вызовы на любимом им языке программирования, но вместо публичных вызовов выложил все (если вам интересно, я приложил ссылку на коммит, в котором содержатся все эти описания [1]).
Многочисленные проверки через разных бывших и действующих гуглеров говорят, что это не подделка, не шутка, а вполне реальная утечка, исследованием которой теперь очень озабочены все SEO-ресерчеры. Дам вам ссылку на самый глубокий из них [2], но если кратко, то вот что уже сейчас понятно:
– В поиске гугла есть белые списки сайтов, которые принудительно оптимизированы. Как минимум, это известно о некоторых тематиках, таких как выборы штатах в 2020 или ковид.
– Название домена, а так же субдоменов является значимой информацией (гугл всегда говорил что это не так).
– Есть отдельная песочница для новых сайтов. Гугл всегда это отрицал.
– В поиске напрямую используются данные из EWOK (это система, в которой живые люди сидят и за деньги оценивают, какой вариант выдачи в поиске лучше). Да, судя по всему, есть пользователи, которые своими глазами и мнением определяют, какой из нескольких сайтов лучше по некоторому запросу.
– Гугл активно использует информацию по поведению пользователей на сайте для ранжирования.
– Данные по тому, куда пользователь нажимает на странице, берутся не только из гугл-аналитики, но и напрямую из браузера Chrome.
– По количеству кликов на странице сайты делятся на три категории, для каждой из которых строится свой "ранг качества", более популярные по кликам сайты приносят бОльший вклад в пейджранк, т.е. более ценны.
– Гугл внутри учитывает размер бренда сайта, не только по самому сайту, но и в целом по упоминанию этого сайта в интернете (даже без ссылок).
– Контент и ссылки вообще вторичны, сейчас гораздо значимее именно клики и навигация по сайту (то что называют "поведенческий фактор").
– Как следствие, для большинства мелких компаний и сайтов SEO почти не значим, пока вы не создадите бренд, пользователей на сайте и репутацию для аудитории.
Безусловно, это самая значимая утечка про поиск гугла за последние 10-15 лет. По ней очень вероятно, что гугл часто врет, когда публично рассказывает о поиске [3]. Скорее всего, надо переставать верить, что "content is king", кликбейты + фермы ботов — вот нынешний путь к успеху в SEO. Разумеется, гугл от комментариев отказался [4]. Если вам хочется почитать на эту тему еще что-то — вот неплохая статья в iPullRank [5].
А если вам хочется как-то перестать сливать все свои данные в гугл — поставьте себе что-то не из хрома, например, Firefox.
[1] https://github.com/googleapis/elixir-google-api/commit/078b497fceb1011ee26e094029ce67e6b6778220
[2] https://sparktoro.com/blog/an-anonymous-source-shared-thousands-of-leaked-google-search-api-documents-with-me-everyone-in-seo-should-see-them/
[3] https://www.seroundtable.com/google-chrome-search-usage-15618.html
[4] https://www.theverge.com/2024/5/28/24166177/google-search-ranking-algorithm-leak-documents-link-seo
[5] https://ipullrank.com/google-algo-leak