Кінець ери паразитного SEO на LinkedIn?
Напевно, так, але проблема набагато ширша.
Раніше я розповідав, що LinkedIn набагато гірший для паразитного SEO, ніж Medium, тому що між статтями та постами які зявляються в стрічці новин занадто часто виникає канібалізація.
Здається, Google вже втомився від цієї проблеми і почав деіндексувати все більше сторінок LinkedIn.
Мої статті в LinkedIn часто зникають з індексу на кілька днів або тижнів взагалі або опускаються нижче в позиціях, ніж мої пости в новинній стрічці.
Але, схоже, це стосується не тільки LinkedIn.
Я помітив, що в SERP аналізі у Sitechecker після 80-ї позиції почали зникати урли.
Спочатку я подумав, що Google знову заблокував збір позицій для інструментів трекінгу позицій, як це було на початку року.
Але виявилося, що Google дає менше результатів і кінцевому користувачеві.
Я думаю, що найближчим часом ми прийдемо до того, що на виході Google буде лише 50 URL.
У цьому є своя логіка.
– Замало людей переглядають усі 100 сторінок.
- Жоден чат AI не показує вам 100 сторінок.
- Google бачить, що половина контенту в топ-100 зазвичай є дублікатами або контентом низької якості.
Отже, зараз ми живемо не тільки в світі маркетингу без кліків.
Ми входимо в світ де основою є презумпціїянизької якості вашого контенту, доки ви не доведете звортнього і ваше доменне ім’я не отримає право на індексацію швидко та без зайвих запитань від Google.
Ось ще пост від Адама Джента на цю тему.
Напевно, так, але проблема набагато ширша.
Раніше я розповідав, що LinkedIn набагато гірший для паразитного SEO, ніж Medium, тому що між статтями та постами які зявляються в стрічці новин занадто часто виникає канібалізація.
Здається, Google вже втомився від цієї проблеми і почав деіндексувати все більше сторінок LinkedIn.
Мої статті в LinkedIn часто зникають з індексу на кілька днів або тижнів взагалі або опускаються нижче в позиціях, ніж мої пости в новинній стрічці.
Але, схоже, це стосується не тільки LinkedIn.
Я помітив, що в SERP аналізі у Sitechecker після 80-ї позиції почали зникати урли.
Спочатку я подумав, що Google знову заблокував збір позицій для інструментів трекінгу позицій, як це було на початку року.
Але виявилося, що Google дає менше результатів і кінцевому користувачеві.
Я думаю, що найближчим часом ми прийдемо до того, що на виході Google буде лише 50 URL.
У цьому є своя логіка.
– Замало людей переглядають усі 100 сторінок.
- Жоден чат AI не показує вам 100 сторінок.
- Google бачить, що половина контенту в топ-100 зазвичай є дублікатами або контентом низької якості.
Отже, зараз ми живемо не тільки в світі маркетингу без кліків.
Ми входимо в світ де основою є презумпціїянизької якості вашого контенту, доки ви не доведете звортнього і ваше доменне ім’я не отримає право на індексацію швидко та без зайвих запитань від Google.
Ось ще пост від Адама Джента на цю тему.
👍9
Я думав, що статті — це єдиний надійний спосіб отримати SEO-трафік з LinkedIn
Я помилявся.
Учора одна людина тегнула мене у своїй публікації на LinkedIn і поділилась, що знайшла мій пост в пошуку Google.
Це мене здивувало, тому що пости завжди мають гірше позиції і зникають з індексу частіше, ніж статті:
- Пости коротші.
– Постів у сотні разів більше, ніж статей.
– Ніхто не пише пости для SEO (тут важливіше правильний крючок для залучення уваги).
Але, як виявилося, деякі з постів мають на диво гарні позиції!
Якщо ви регулярно публікуєте пости, то вам також має сенс перевірити, які з них гарно ранжуються і по яким ключовим словам.
1. Введіть https://www.linkedin.com/posts/ у Ahrefs Site Explorer.
2. Перейдіть до Top pages (мені подобається варіант репорту, що в Legacy).
3. Введіть свій юзернейм з LinkedIn у фільтрі include URL address.
4. Вуаля. Відкрийте те, чого не очікували побачити :)
Тобто не все так погано, як я писав в минулому пості.
Так Гугл все частіше викидає пости і статті LinkedIn з індексу, але йому також важко ігнорувати що в постах люди часто публікують цінний унікальний контент, який вони не публікують в інших місцях.
Я помилявся.
Учора одна людина тегнула мене у своїй публікації на LinkedIn і поділилась, що знайшла мій пост в пошуку Google.
Це мене здивувало, тому що пости завжди мають гірше позиції і зникають з індексу частіше, ніж статті:
- Пости коротші.
– Постів у сотні разів більше, ніж статей.
– Ніхто не пише пости для SEO (тут важливіше правильний крючок для залучення уваги).
Але, як виявилося, деякі з постів мають на диво гарні позиції!
Якщо ви регулярно публікуєте пости, то вам також має сенс перевірити, які з них гарно ранжуються і по яким ключовим словам.
1. Введіть https://www.linkedin.com/posts/ у Ahrefs Site Explorer.
2. Перейдіть до Top pages (мені подобається варіант репорту, що в Legacy).
3. Введіть свій юзернейм з LinkedIn у фільтрі include URL address.
4. Вуаля. Відкрийте те, чого не очікували побачити :)
Тобто не все так погано, як я писав в минулому пості.
Так Гугл все частіше викидає пости і статті LinkedIn з індексу, але йому також важко ігнорувати що в постах люди часто публікують цінний унікальний контент, який вони не публікують в інших місцях.
За останні 2 тижні є три продажі шаблону Google Ads + Search Console
Все з органічного пошуку.
У мене небагато кліків на цій сторінці, але, схоже, я потрапив у точку болю, яка є у багатьох SEOшників, або маркетологів, які роблять і SEO і Google Ads.
Цей шаблон працює для двох цілей:
1/ Використовує дані конверсій Google Ads по ключам, щоб показати, які сторінки вам є сенс створювати або покращувати для SEO.
Це особливо актуально, коли ви тільки запускаєтесь, контент створили, і почали лити трафік з Google Ads, але по SEO трафіку ще мало і не зрозуміло, яким сторінкам приділяти увагу в першу чергу.
2/ Щоб пояснити вашому клієнту або керівнику, яку цінність ви приносете з органічним трафіком, якщо бізнес веде і SEO і PPC кампанії.
Для цього, можна помножити середню CPC на кількість кліків із органічного пошуку за кожним запитом і цільовою сторінкою та показати, скільки компанія заплатить за них у Google Ads, якщо втратить увесь органічний трафік.
Спілкуючись із клієнтами, я також виявив нову проблему, яку майже всі просять вирішити, – вимірювання впливу брендових кампаній в Google Ads на ефективність у органічному пошуку.
Існує велике побоювання, що брендові кампанії в Google Ads не додають цінності, а просто забирають той трафік, який би ви і так отримали з органіки.
По типу, навіть якщо конкуренти рекламуються по вашим брендовим запитам, то клієнт все одно шукає вас і він вас знайде в органіці.
У вас є схожа проблема?
Все з органічного пошуку.
У мене небагато кліків на цій сторінці, але, схоже, я потрапив у точку болю, яка є у багатьох SEOшників, або маркетологів, які роблять і SEO і Google Ads.
Цей шаблон працює для двох цілей:
1/ Використовує дані конверсій Google Ads по ключам, щоб показати, які сторінки вам є сенс створювати або покращувати для SEO.
Це особливо актуально, коли ви тільки запускаєтесь, контент створили, і почали лити трафік з Google Ads, але по SEO трафіку ще мало і не зрозуміло, яким сторінкам приділяти увагу в першу чергу.
2/ Щоб пояснити вашому клієнту або керівнику, яку цінність ви приносете з органічним трафіком, якщо бізнес веде і SEO і PPC кампанії.
Для цього, можна помножити середню CPC на кількість кліків із органічного пошуку за кожним запитом і цільовою сторінкою та показати, скільки компанія заплатить за них у Google Ads, якщо втратить увесь органічний трафік.
Спілкуючись із клієнтами, я також виявив нову проблему, яку майже всі просять вирішити, – вимірювання впливу брендових кампаній в Google Ads на ефективність у органічному пошуку.
Існує велике побоювання, що брендові кампанії в Google Ads не додають цінності, а просто забирають той трафік, який би ви і так отримали з органіки.
По типу, навіть якщо конкуренти рекламуються по вашим брендовим запитам, то клієнт все одно шукає вас і він вас знайде в органіці.
У вас є схожа проблема?
🔥2
Минулого тижня закрили клієнта, який буде моніторити у нас ~ 1000 сайтів
Агенція з Канади, яка веде сайти більшості автомобільних ритейлерів.
Це новий рекорд і взагалі велика подія для команди.
З самого народження Sitechecker створювався саме для цього завдання - моніторингу ключових показників SEO для багатьох сайтів.
Для багатьох це означає сотні й тисячі.
Але першим каналом залучення клієнтів, який ми почали розвивати, була органіка Гугла (робили те що вміли, а не те що треба).
І це створило величезну дилему.
Наш органічний трафік почав рости досить швидко. Але 99,9% цього трафіку становили люди, які керують 1-10 сайтами (95% - це один сайт).
У нас точно не було product-channel fit.
Однак було багато органічного трафіку, і ми почали отримувати підписників із невеликим ARPU і почали думати про те, як ми можемо покращити їх утримання та активацію.
У нас майже не було великих клієнтів, тому що для їх отримання потрібен зовсім інший підхід.
Тепер я знову на роздоріжжі.
1/ З одного боку, я поставив собі за мету в 2025 року перемістити фокус нашого продукту та маркетингу на створення розширеного інструменту для роботи з даними Search Console.
З спілкування з нашими існуючими клієнтами, які керують 5-50 сайтами, це те, що їм найбільше потрібно на платформі.
За моїми прогнозами, цей інструмент має значно покращити наш рівень утримання клієнтів, який зараз є нашим ключовим важелем зростання.
2/ З іншого боку, я розумію, що Sitechecker є дійсно найкращим рішенням на ринку для моніторингу сотень і тисяч сайтів.
Тут у нас більше шансів завоювати ринок. Але компаніям, які шукають такі рішення, зазвичай не потрібно додавати Search Console для всіх цих сайтів.
Тут можна навіть не будувати гіпотези. Рівень відтоку, очевидно, набагато нижчий для цього сегменту. Єдине, що потрібно побудувати, це новий канал для залучення такого типу клієнтів.
Такий канал, це як правило, холодний аутріч. Але це також не буде швидко. Треба час щоб довести канал до результату і цикл угоди тут значно довший.
Тому думаю, як краще діяти в цій ситуації. Зосередити всю команду на одній меті чи реалізувати 2 стратегії паралельно?
Якщо ви читаєте Роба Снайдера, Алекса Хормозі, згадуєте цитати Стіва Джобса і навіть Сунь Цзи, то відповідь очевидна.
Щоб перемогти, потрібно максимально звузити поле бою.
Однак я відчуваю, що в цьому випадку мені доведеться піти двома шляхами :)
Що думаєте?
P.S. Скріншоти взято з епічної статті Браяна Балфора про product-channel fit.
P.P.S. На останньому скріншоті показано, як виглядатиме наш інструмент GSC Insights (вилʼємо через 2 тижні).
Агенція з Канади, яка веде сайти більшості автомобільних ритейлерів.
Це новий рекорд і взагалі велика подія для команди.
З самого народження Sitechecker створювався саме для цього завдання - моніторингу ключових показників SEO для багатьох сайтів.
Для багатьох це означає сотні й тисячі.
Але першим каналом залучення клієнтів, який ми почали розвивати, була органіка Гугла (робили те що вміли, а не те що треба).
І це створило величезну дилему.
Наш органічний трафік почав рости досить швидко. Але 99,9% цього трафіку становили люди, які керують 1-10 сайтами (95% - це один сайт).
У нас точно не було product-channel fit.
Однак було багато органічного трафіку, і ми почали отримувати підписників із невеликим ARPU і почали думати про те, як ми можемо покращити їх утримання та активацію.
У нас майже не було великих клієнтів, тому що для їх отримання потрібен зовсім інший підхід.
Тепер я знову на роздоріжжі.
1/ З одного боку, я поставив собі за мету в 2025 року перемістити фокус нашого продукту та маркетингу на створення розширеного інструменту для роботи з даними Search Console.
З спілкування з нашими існуючими клієнтами, які керують 5-50 сайтами, це те, що їм найбільше потрібно на платформі.
За моїми прогнозами, цей інструмент має значно покращити наш рівень утримання клієнтів, який зараз є нашим ключовим важелем зростання.
2/ З іншого боку, я розумію, що Sitechecker є дійсно найкращим рішенням на ринку для моніторингу сотень і тисяч сайтів.
Тут у нас більше шансів завоювати ринок. Але компаніям, які шукають такі рішення, зазвичай не потрібно додавати Search Console для всіх цих сайтів.
Тут можна навіть не будувати гіпотези. Рівень відтоку, очевидно, набагато нижчий для цього сегменту. Єдине, що потрібно побудувати, це новий канал для залучення такого типу клієнтів.
Такий канал, це як правило, холодний аутріч. Але це також не буде швидко. Треба час щоб довести канал до результату і цикл угоди тут значно довший.
Тому думаю, як краще діяти в цій ситуації. Зосередити всю команду на одній меті чи реалізувати 2 стратегії паралельно?
Якщо ви читаєте Роба Снайдера, Алекса Хормозі, згадуєте цитати Стіва Джобса і навіть Сунь Цзи, то відповідь очевидна.
Щоб перемогти, потрібно максимально звузити поле бою.
Однак я відчуваю, що в цьому випадку мені доведеться піти двома шляхами :)
Що думаєте?
P.S. Скріншоти взято з епічної статті Браяна Балфора про product-channel fit.
P.P.S. На останньому скріншоті показано, як виглядатиме наш інструмент GSC Insights (вилʼємо через 2 тижні).
🔥8
Які інструменти / підходи ви використовуєте для трекінгу змін на сайтах?
Ми використовуємо Amplitude для аналітики продукту, і мені подобається, що у них є функція Releases, де можна логувати всі зміни в продукті та воронці, щоб виміряти їхній вплив на конверсії та ретеншн.
Також я можу легко переглянути всі ці релізи на графіках.
Я бачив, що GA4 також додав цю функцію, але мені не подобається, що там немає окремої сторінки з усіма анотаціями.
Якщо дивитись на логування важливих змін по SEO, то хороших рішень стає ще менше.
Так, лідери ринку (Semrush, Ahrefs, Seranking) мають функцію анотацій, але це дуже проста функція:
- окремої сторінки з усіма анотаціями немає
- немає можливості приєднати зміни до сторінки, ключового слова або сегменту сторінок
- немає можливості виміряти вплив цих змін у декілька кліків
Тому я припускаю, що цей біль реальний і рішення нормального досі немає.
Поділіться пліз, як і де ви зараз логуєте важливі для SEO зміни по сайту?
P.S. В коментарях до цього посту на LinkedIn один юзер сказав, що вони збирають всі зміни в Google Sheets а потім мерджать це з даними ГА і ГСК в Looker Studio. Як на мене це не дуже зручно.
Ми використовуємо Amplitude для аналітики продукту, і мені подобається, що у них є функція Releases, де можна логувати всі зміни в продукті та воронці, щоб виміряти їхній вплив на конверсії та ретеншн.
Також я можу легко переглянути всі ці релізи на графіках.
Я бачив, що GA4 також додав цю функцію, але мені не подобається, що там немає окремої сторінки з усіма анотаціями.
Якщо дивитись на логування важливих змін по SEO, то хороших рішень стає ще менше.
Так, лідери ринку (Semrush, Ahrefs, Seranking) мають функцію анотацій, але це дуже проста функція:
- окремої сторінки з усіма анотаціями немає
- немає можливості приєднати зміни до сторінки, ключового слова або сегменту сторінок
- немає можливості виміряти вплив цих змін у декілька кліків
Тому я припускаю, що цей біль реальний і рішення нормального досі немає.
Поділіться пліз, як і де ви зараз логуєте важливі для SEO зміни по сайту?
P.S. В коментарях до цього посту на LinkedIn один юзер сказав, що вони збирають всі зміни в Google Sheets а потім мерджать це з даними ГА і ГСК в Looker Studio. Як на мене це не дуже зручно.
Люди шукають одні й ті ж речі десятками способів
І Google часто не може достатньо добре розпізнати їхній намір або такий намір є надто широким.
Наприклад, Sitechecker добре ранжується за такими ключовими словами:
- website checker
- website crawler
- seo checker
- site audit tool
- seo audit tool
Ці топіки занадто широкі. Іноді люди, які шукають seo checker і seo audit tool, мають на увазі те саме, іноді – ні.
Site audit tool в більшості випадків те ж саме що і website crawler.
Однак Google часто має різні СЕРПи для таких ключових слів.
Ось чому нам довелося створити для таких ключів різні цільові сторінки:
- website checker: website-safety
- website crawler: website-crawler
- seo checker: on-page-seo-checker
- site audit tool: головна сторінка
- seo audit tool: ще немає окремої сторінки
Ahrefs зробив те саме, створивши дві сторінки site-audit та seo-audit-tool, про той самий продукт.
Ми звикли думати, що якщо ми використовуємо кластеризацію за допомогою SERP, ми можемо покластися на Google.
Начебто Google завжди добре розуміє пошуковий намір користувача і завжди показуватиме ту саму сторінку за різними ключовими словами з однаковим наміром.
Як бачимо, це часто не працює. Іноді варто створити сторінку про той самий продукт, але в дещо іншій формі та з використанням інших слів.
P.S. Це лише одна з 3 прогалин, які ви точно маєте у своєму контент плані. Інші 2 ви можете знайти в моїй останній розсилці на Hack the Algo.
І Google часто не може достатньо добре розпізнати їхній намір або такий намір є надто широким.
Наприклад, Sitechecker добре ранжується за такими ключовими словами:
- website checker
- website crawler
- seo checker
- site audit tool
- seo audit tool
Ці топіки занадто широкі. Іноді люди, які шукають seo checker і seo audit tool, мають на увазі те саме, іноді – ні.
Site audit tool в більшості випадків те ж саме що і website crawler.
Однак Google часто має різні СЕРПи для таких ключових слів.
Ось чому нам довелося створити для таких ключів різні цільові сторінки:
- website checker: website-safety
- website crawler: website-crawler
- seo checker: on-page-seo-checker
- site audit tool: головна сторінка
- seo audit tool: ще немає окремої сторінки
Ahrefs зробив те саме, створивши дві сторінки site-audit та seo-audit-tool, про той самий продукт.
Ми звикли думати, що якщо ми використовуємо кластеризацію за допомогою SERP, ми можемо покластися на Google.
Начебто Google завжди добре розуміє пошуковий намір користувача і завжди показуватиме ту саму сторінку за різними ключовими словами з однаковим наміром.
Як бачимо, це часто не працює. Іноді варто створити сторінку про той самий продукт, але в дещо іншій формі та з використанням інших слів.
P.S. Це лише одна з 3 прогалин, які ви точно маєте у своєму контент плані. Інші 2 ви можете знайти в моїй останній розсилці на Hack the Algo.