🚀 Google Search Console отримав супер-оновлення!
Тепер ви можете відстежувати продуктивність своїх соціальних каналів прямо в Search Console!
✨ Що нового:
📊 Єдина панель для сайту та соцмереж
Бачите всі метрики в одному місці — клікси, показування, трендуючий контент
🔍 Ключові дані:
• Загальний охоплення — клікси та показування з Google Search
• Топ контент — які пости працюють найкраще
• Пошукові запити — за якими фразами знаходять ваш профіль
• Географія аудиторії — звідки приходять клікси
• Трафік з інших джерел — Image Search, Video, News, Discover
⚡️ Важливо знати:
Функція зараз тестується на обмеженій кількості сайтів. Search Console автоматично визначає та пов'язує ваші соцканали. Просто додайте їх в Insights report!
Це чудова можливість для брендів управляти присутністю на різних платформах без стрибання між інструментами аналітики!
Тепер ви можете відстежувати продуктивність своїх соціальних каналів прямо в Search Console!
✨ Що нового:
📊 Єдина панель для сайту та соцмереж
Бачите всі метрики в одному місці — клікси, показування, трендуючий контент
🔍 Ключові дані:
• Загальний охоплення — клікси та показування з Google Search
• Топ контент — які пости працюють найкраще
• Пошукові запити — за якими фразами знаходять ваш профіль
• Географія аудиторії — звідки приходять клікси
• Трафік з інших джерел — Image Search, Video, News, Discover
⚡️ Важливо знати:
Функція зараз тестується на обмеженій кількості сайтів. Search Console автоматично визначає та пов'язує ваші соцканали. Просто додайте їх в Insights report!
Це чудова можливість для брендів управляти присутністю на різних платформах без стрибання між інструментами аналітики!
👍4🤝1
Як зливаються бюджети на посилання
За роки роботи я часто бачу одну й ту ж помилку: сайт потрапляє під фільтр Google, позиції падають до нуля, а Seoшник думає - куплю дорогих посилань із топових, гарних гестпостів, і все повернеться.
Не повернеться. Тільки гроші втратяться.
ЧОМУ?
Коли сайт під фільтром - це означає, що проблема в самому сайті, а не в кількості посилань. Google не каже "тобі не вистачає посилань". Google каже "твій сайт поганий".
Купувати посилання при такій ситуації - це просто зливати бюджет в унітаз.
ЩО РОБИТИ:
Спочатку потрібно працювати над самим сайтом:
1️⃣Технічна складова - швидкість, мобільність, індексація, помилки
2️⃣Текстова складова - контент має бути якісний, без дублювання і спаму
3️⃣Посилочний профіль - видалити спамні посилання
Тільки після того, як вирішите ці три пункти і вийдете з фільтра - починайте купувати якісні посилання.
АНАЛОГІЧНО З АПДЕЙТАМИ
Сайт впав на Core Update? Не кидайтеся купувати посилання. Розберіться, чому впав:
✅Контент гірший за конкурентів?
✅Сайт втратив авторитет?
✅Технічні помилки?
Апдейт карає за якість, а не за брак посилань.
ВАЖЛИВО
У деяких нішах дешевше закрити старий сайт під фільтром і запустити новий. Але якщо робите на бренд у білих нішах - потрібно покращувати поточний сайт.
За роки роботи я часто бачу одну й ту ж помилку: сайт потрапляє під фільтр Google, позиції падають до нуля, а Seoшник думає - куплю дорогих посилань із топових, гарних гестпостів, і все повернеться.
Не повернеться. Тільки гроші втратяться.
ЧОМУ?
Коли сайт під фільтром - це означає, що проблема в самому сайті, а не в кількості посилань. Google не каже "тобі не вистачає посилань". Google каже "твій сайт поганий".
Купувати посилання при такій ситуації - це просто зливати бюджет в унітаз.
ЩО РОБИТИ:
Спочатку потрібно працювати над самим сайтом:
1️⃣Технічна складова - швидкість, мобільність, індексація, помилки
2️⃣Текстова складова - контент має бути якісний, без дублювання і спаму
3️⃣Посилочний профіль - видалити спамні посилання
Тільки після того, як вирішите ці три пункти і вийдете з фільтра - починайте купувати якісні посилання.
АНАЛОГІЧНО З АПДЕЙТАМИ
Сайт впав на Core Update? Не кидайтеся купувати посилання. Розберіться, чому впав:
✅Контент гірший за конкурентів?
✅Сайт втратив авторитет?
✅Технічні помилки?
Апдейт карає за якість, а не за брак посилань.
ВАЖЛИВО
У деяких нішах дешевше закрити старий сайт під фільтром і запустити новий. Але якщо робите на бренд у білих нішах - потрібно покращувати поточний сайт.
📊 Google додав зручну функцію часових діапазонів в Search Console!
Помітили цікаве оновлення в Google Search Console? Тепер можна швидко перемикатися між різними періодами перегляду даних прямо з випадного меню:
✅ Щодня - відстежуйте метрики день за днем
✅ Щотижня - бачите тренди по тижнях
✅ Щомісяця - аналізуйте великі періоди
Чому це корисно для SEO?
🔥 Швидкий аналіз трендів - одразу видите, як змінюються клікси, покази та позиції залежно від масштабу даних
🎯 Оптимізація сайту - легше знаходите паттерни та аномалії в різних часових періодах
💡 Економія часу — не потрібно кожен раз вручну вибирати дати в календарі
Помітили цікаве оновлення в Google Search Console? Тепер можна швидко перемикатися між різними періодами перегляду даних прямо з випадного меню:
✅ Щодня - відстежуйте метрики день за днем
✅ Щотижня - бачите тренди по тижнях
✅ Щомісяця - аналізуйте великі періоди
Чому це корисно для SEO?
🔥 Швидкий аналіз трендів - одразу видите, як змінюються клікси, покази та позиції залежно від масштабу даних
🎯 Оптимізація сайту - легше знаходите паттерни та аномалії в різних часових періодах
💡 Економія часу — не потрібно кожен раз вручну вибирати дати в календарі
👍3🔥1
Ahrefs додав Page type в SERP Overview!
Ahrefs тепер сам аналізує контент і структуру кожної сторінки в топі й розставляє їм теги: article, review, product, listing, wiki і т.д.
Як це працює?
AI модель дивиться на вміст і розмітку сторінки та визначає, який це формат. Результат видно прямо в таблиці SERP Overview — в окремому стовпці. Не потрібно вже вручну гадати, що там насправді за типи сторінок.
Чому це тебе має цікавити?
🔥 Розпізнаєш інтент за 10 секунд — відразу бачиш, що Google хоче по цьому запиту: обзори, статті, листинги або продукти
🎯 Швидше приймаєш рішення — якщо в топі переважають листинги, а ти пилиш статтю, то ясно, чому ранжування слабке
💡 Не гадаєш, а знаєш — більше не потрібно вручну розбирати кожну сторінку, AI зробить це за тебе
Практичне використання:
1️⃣ Відкриваєш ключ в SERP Overview
2️⃣ Дивишся на типи сторінок — яких більше всього?
3️⃣ Адаптуєш свою сторінку під домінуючий тип
4️⃣ Профіт — контент стає релевантніше, рейтинг краще
Ahrefs тепер сам аналізує контент і структуру кожної сторінки в топі й розставляє їм теги: article, review, product, listing, wiki і т.д.
Як це працює?
AI модель дивиться на вміст і розмітку сторінки та визначає, який це формат. Результат видно прямо в таблиці SERP Overview — в окремому стовпці. Не потрібно вже вручну гадати, що там насправді за типи сторінок.
Чому це тебе має цікавити?
🔥 Розпізнаєш інтент за 10 секунд — відразу бачиш, що Google хоче по цьому запиту: обзори, статті, листинги або продукти
🎯 Швидше приймаєш рішення — якщо в топі переважають листинги, а ти пилиш статтю, то ясно, чому ранжування слабке
💡 Не гадаєш, а знаєш — більше не потрібно вручну розбирати кожну сторінку, AI зробить це за тебе
Практичне використання:
1️⃣ Відкриваєш ключ в SERP Overview
2️⃣ Дивишся на типи сторінок — яких більше всього?
3️⃣ Адаптуєш свою сторінку під домінуючий тип
4️⃣ Профіт — контент стає релевантніше, рейтинг краще
🔥6👍1
🚨 Google грудень 2025: третій core update, що відомо?
11 грудня Google запустив третій масштабний алгоритмічний update. 59% сайтів упали.
Цифри:
📊 Волатильність 8.7/10 — найвища в 2025
📉 Affiliate: -71% трафіку
📉 E-commerce: -52%
📉 Застарілий контент: -43%
Що змінилось?
1. E-E-A-T тепер СКРІЗЬ
Google вимагає для всіх ніш: досвід, експертизу, авторитетність, надійність.
Помилка: в біографії "15 років досвіду" більше не рахується. Google дивиться на те, що ви показали, а не заявили.
2. Перевірка автентичності контенту
Google бачить: конкретні деталі vs копіпаст, власні фото vs заводські, справжнє тестування.
Підробка "свіжості" штрафується: змінили дату без змін контенту = -23% мінімум.
3. Розпізнавання ШІ
❌ Чистий ШІ (-88%): 300+ статей/місяць, без експертизи
✅ ШІ з людиною (ОК): людина редагує й перевіряє
4. Задоволення користувачів
Повернення в пошук = погано
Залишився на сторінці = добре
Хто виграв: авторський контент +42%,, медичні від лікарів +56%
Хто впав: партнерські без тестування -71%, ШІ контент -88%, застарілі -43%
Як вас зачепив update? 👇
11 грудня Google запустив третій масштабний алгоритмічний update. 59% сайтів упали.
Цифри:
📊 Волатильність 8.7/10 — найвища в 2025
📉 Affiliate: -71% трафіку
📉 E-commerce: -52%
📉 Застарілий контент: -43%
Що змінилось?
1. E-E-A-T тепер СКРІЗЬ
Google вимагає для всіх ніш: досвід, експертизу, авторитетність, надійність.
Помилка: в біографії "15 років досвіду" більше не рахується. Google дивиться на те, що ви показали, а не заявили.
2. Перевірка автентичності контенту
Google бачить: конкретні деталі vs копіпаст, власні фото vs заводські, справжнє тестування.
Підробка "свіжості" штрафується: змінили дату без змін контенту = -23% мінімум.
3. Розпізнавання ШІ
❌ Чистий ШІ (-88%): 300+ статей/місяць, без експертизи
✅ ШІ з людиною (ОК): людина редагує й перевіряє
4. Задоволення користувачів
Повернення в пошук = погано
Залишився на сторінці = добре
Хто виграв: авторський контент +42%,, медичні від лікарів +56%
Хто впав: партнерські без тестування -71%, ШІ контент -88%, застарілі -43%
Як вас зачепив update? 👇
👌2❤1
Як Google насправді ранжує контент у 2025 році
Нове інтерв'ю Danny Sullivan розкрило те, про що ми давно підозрювали.
Системи Google працюють ось як:
1️⃣ Контент написаний ДЛЯ ЛЮДЕЙ (а не для алгоритмів) — первинний сигнал
2️⃣ Люди знаходять це задовільним і кажуть «ось саме це я шукав»
3️⃣ Сигнали поведінки користувачів (читають, діляться, повертаються)
Важливо: Оптимізація під LLM (ChatGPT, Perplexity, Claude) має сенс для <1% трафіку. Навіщо ризикувати 99% трафіку з Google?
Що змінювати в роботі:
❌ Створення контенту з розрахунком на AI індексацію
❌ Ігнорування UX заради ключових слів
❌ Гонитва за GEO/AEO трендами
✅ Розуміння реальних потреб аудиторії
✅ Контент, що вирішує проблеми користувачів
✅ Природна інтеграція інформації
Нове інтерв'ю Danny Sullivan розкрило те, про що ми давно підозрювали.
Системи Google працюють ось як:
1️⃣ Контент написаний ДЛЯ ЛЮДЕЙ (а не для алгоритмів) — первинний сигнал
2️⃣ Люди знаходять це задовільним і кажуть «ось саме це я шукав»
3️⃣ Сигнали поведінки користувачів (читають, діляться, повертаються)
Важливо: Оптимізація під LLM (ChatGPT, Perplexity, Claude) має сенс для <1% трафіку. Навіщо ризикувати 99% трафіку з Google?
Що змінювати в роботі:
❌ Створення контенту з розрахунком на AI індексацію
❌ Ігнорування UX заради ключових слів
❌ Гонитва за GEO/AEO трендами
✅ Розуміння реальних потреб аудиторії
✅ Контент, що вирішує проблеми користувачів
✅ Природна інтеграція інформації
❤3
Як не злити бюджет на контент для PBN
У 2026-му я все ще бачу дві крайнощі: SEO-шники або завалюють сітки дешевим синонімізованим шлаком, або витрачають космічні суми на професійний копірайтинг там, де він не потрібен.
Обидва варіанти - це шлях у нікуди.
ЧОМУ?
PBN - це не спринт, а гра в довгу. Заллєте сміття - ваші сайти вилетять з індексу. Замовите "пулітцерівські" тексти - ніколи не окупите інвестиції.
Рішення - у розумній оптимізації.
ЩО РОБИТИ:
Щоб PBN працював і не з'їдав усі гроші світу, впроваджуйте ці кроки:
1️⃣ AI + Мінімальна вичитка: забудьте про чисту генерацію. ШІ робить чернетку, людина - перевіряє логіку та прибирає спам. Нам не потрібна художня цінність, нам потрібна відсутність "червоних прапорців" для Google.
2️⃣ Транскрибація та переклади: YouTube - це бездонна бочка контенту. Берете відео (можна іншою мовою), розшифровуєте через ШІ, редагуєте. Основа готова, унікальність - топ.
3️⃣ Варіативна шаблонізація: не пишіть кожне ТЗ з нуля. Зробіть сітку шаблонів під різні типи контенту і міксуйте їх. Це економить години роботи.
ВАЖЛИВО
Час у SEO - це чисті гроші. Якщо ви витрачаєте тиждень на тексти для п'яти сайтів - ви програєте ринок. Автоматизуйте все, що не потребує "душі", і вкладайте зекономлені ресурси в розвиток продукту.
У 2026-му я все ще бачу дві крайнощі: SEO-шники або завалюють сітки дешевим синонімізованим шлаком, або витрачають космічні суми на професійний копірайтинг там, де він не потрібен.
Обидва варіанти - це шлях у нікуди.
ЧОМУ?
PBN - це не спринт, а гра в довгу. Заллєте сміття - ваші сайти вилетять з індексу. Замовите "пулітцерівські" тексти - ніколи не окупите інвестиції.
Рішення - у розумній оптимізації.
ЩО РОБИТИ:
Щоб PBN працював і не з'їдав усі гроші світу, впроваджуйте ці кроки:
1️⃣ AI + Мінімальна вичитка: забудьте про чисту генерацію. ШІ робить чернетку, людина - перевіряє логіку та прибирає спам. Нам не потрібна художня цінність, нам потрібна відсутність "червоних прапорців" для Google.
2️⃣ Транскрибація та переклади: YouTube - це бездонна бочка контенту. Берете відео (можна іншою мовою), розшифровуєте через ШІ, редагуєте. Основа готова, унікальність - топ.
3️⃣ Варіативна шаблонізація: не пишіть кожне ТЗ з нуля. Зробіть сітку шаблонів під різні типи контенту і міксуйте їх. Це економить години роботи.
ВАЖЛИВО
Час у SEO - це чисті гроші. Якщо ви витрачаєте тиждень на тексти для п'яти сайтів - ви програєте ринок. Автоматизуйте все, що не потребує "душі", і вкладайте зекономлені ресурси в розвиток продукту.
👍5
SEO Fuel (Gambling, SEO, PBN, дроп домени)
Як не злити бюджет на контент для PBN У 2026-му я все ще бачу дві крайнощі: SEO-шники або завалюють сітки дешевим синонімізованим шлаком, або витрачають космічні суми на професійний копірайтинг там, де він не потрібен. Обидва варіанти - це шлях у нікуди.…
І якщо все правильно зробити, то можна отримати ось такі результати
❤3🔥2🥰1
❗️Офіційні ліміти Googlebot для файлів (оновлення 2026)
Google оновив документацію та чітко вказав обмеження для Googlebot при краулингу.
Системи обробляють контент наступним чином:
1️⃣ HTML, CSS, JavaScript: перші 2 МБ нестисненого контенту
2️⃣ PDF-файли: перші 64 МБ нестисненого контенту
3️⃣ Загальний ліміт краулінгу: 15 МБ в інфраструктурі Google
4️⃣ Рекомендований розмір критичного контенту: перші 1 МБ HTML
Важливо: Розмір застосовується до розпакованого контенту (не gzip). Великі inline-скрипти та стилі після 2 МБ не індексуються.
Рекомендації для оптимізації:
❌ Inline JavaScript/CSS понад 5 МБ
❌ Розміщення ключового контенту після 2 МБ HTML
❌ Відсутність аудиту ваги файлів у Lighthouse
❌ Великі single-page додатки без code splitting
✅ Розміщення title, H1, основного тексту, внутрішніх посилань у перші 1 МБ
✅ Винос CSS/JavaScript у зовнішні файли (<500 КБ кожен)
✅ Аудит через Chrome DevTools → Network → Transferred/Size
✅ Lighthouse Core Web Vitals + SEO checklist
Google оновив документацію та чітко вказав обмеження для Googlebot при краулингу.
Системи обробляють контент наступним чином:
1️⃣ HTML, CSS, JavaScript: перші 2 МБ нестисненого контенту
2️⃣ PDF-файли: перші 64 МБ нестисненого контенту
3️⃣ Загальний ліміт краулінгу: 15 МБ в інфраструктурі Google
4️⃣ Рекомендований розмір критичного контенту: перші 1 МБ HTML
Важливо: Розмір застосовується до розпакованого контенту (не gzip). Великі inline-скрипти та стилі після 2 МБ не індексуються.
Рекомендації для оптимізації:
❌ Inline JavaScript/CSS понад 5 МБ
❌ Розміщення ключового контенту після 2 МБ HTML
❌ Відсутність аудиту ваги файлів у Lighthouse
❌ Великі single-page додатки без code splitting
✅ Розміщення title, H1, основного тексту, внутрішніх посилань у перші 1 МБ
✅ Винос CSS/JavaScript у зовнішні файли (<500 КБ кожен)
✅ Аудит через Chrome DevTools → Network → Transferred/Size
✅ Lighthouse Core Web Vitals + SEO checklist
👍4
🧪 February 2026 Discover Core Update
Google оновив алгоритми Discover (не web‑пошук, а стрічка рекомендацій).
Що змінилось
1️⃣ Більше локального
Перевага сайтам з тієї ж країни, що й користувач (локальні новини, медіа, тематичні проєкти).
2️⃣ Менше клікбейту
Різ сильніше по сенсаційним заголовкам і поверхневим переписам.
3️⃣ Фокус на темах та експертизі
Експертиза рахується по конкретних темах, а не «сайт в цілому». Глибокі, оригінальні матеріали в своїй ніші отримують більше шансів.
Розкочують з англомовних США, далі — інші країни й мови.
Що робити
❌ Жити за рахунок клікбейту й переписів
❌ Писати про все підряд без явної ніші
✅ Чітко визначити теми, де ви сильні
✅ Робити глибокий, оригінальний контент саме в цих темах
✅ Сприймати Discover як бонусний канал, а не основу трафіку
https://developers.google.com/search/blog/2026/02/discover-core-update
Google оновив алгоритми Discover (не web‑пошук, а стрічка рекомендацій).
Що змінилось
1️⃣ Більше локального
Перевага сайтам з тієї ж країни, що й користувач (локальні новини, медіа, тематичні проєкти).
2️⃣ Менше клікбейту
Різ сильніше по сенсаційним заголовкам і поверхневим переписам.
3️⃣ Фокус на темах та експертизі
Експертиза рахується по конкретних темах, а не «сайт в цілому». Глибокі, оригінальні матеріали в своїй ніші отримують більше шансів.
Розкочують з англомовних США, далі — інші країни й мови.
Що робити
❌ Жити за рахунок клікбейту й переписів
❌ Писати про все підряд без явної ніші
✅ Чітко визначити теми, де ви сильні
✅ Робити глибокий, оригінальний контент саме в цих темах
✅ Сприймати Discover як бонусний канал, а не основу трафіку
https://developers.google.com/search/blog/2026/02/discover-core-update
👍4👌1
🧪 Google знову крутить AI Overviews: новий формат посилань
Google тестує ще один UX-варіант для посилань в AI Overviews — контекстні оверлеї з картками сайтів.
Як це працює:
поруч з фрагментом відповіді є маленька іконка/кліп лінка
наводиш курсор → зверху вилітає оверлей
всередині — картки сайтів, з яких взято саме цей шматок тексту (домен, тайтл, уривок).
Фактично це mini‑SERP поверх AI‑відповіді.
Навіщо це Google
CTR з AI Overviews впав, лінки тупо не клікають
уже рік тестують різні формати: каруселі, фавіконки, інлайн‑лінки, оверлеї
зараз пробують варіант, де джерела виглядають помітніше і «клікбельніше», ближче до звичного SERP.
Що це значить для нас
❌ Розраховувати тільки на «присутність у цитатах»
✅ Думати про привабливість картки: домен, тайтл, сніпет
✅ Писати заголовки так, щоб у цьому оверлеї хотілося клікнути саме на тебе
✅ Слідкувати за будь-якими змінами в лінк‑інтерфейсі AI Overviews — це прямо про трафік.
Поки це масовий тест, а не глобальний реліз, але тренд очевидний: Google змушений шукати формати, де AI‑відповідь і кликабельні джерела співіснують, а не вбивають одне одного.
Google тестує ще один UX-варіант для посилань в AI Overviews — контекстні оверлеї з картками сайтів.
Як це працює:
поруч з фрагментом відповіді є маленька іконка/кліп лінка
наводиш курсор → зверху вилітає оверлей
всередині — картки сайтів, з яких взято саме цей шматок тексту (домен, тайтл, уривок).
Фактично це mini‑SERP поверх AI‑відповіді.
Навіщо це Google
CTR з AI Overviews впав, лінки тупо не клікають
уже рік тестують різні формати: каруселі, фавіконки, інлайн‑лінки, оверлеї
зараз пробують варіант, де джерела виглядають помітніше і «клікбельніше», ближче до звичного SERP.
Що це значить для нас
❌ Розраховувати тільки на «присутність у цитатах»
✅ Думати про привабливість картки: домен, тайтл, сніпет
✅ Писати заголовки так, щоб у цьому оверлеї хотілося клікнути саме на тебе
✅ Слідкувати за будь-якими змінами в лінк‑інтерфейсі AI Overviews — це прямо про трафік.
Поки це масовий тест, а не глобальний реліз, але тренд очевидний: Google змушений шукати формати, де AI‑відповідь і кликабельні джерела співіснують, а не вбивають одне одного.
🤝3
🧪 Google ще раз поміняв доку по лімітах файлів 📄
Google оновив документацію по crawler file size limits і нарешті прямо вписав туди Googlebot і 2 МБ 🔍
Що саме змінили в доках 📝
Було:
«За замовчуванням краулери Google обробляють перші 15 МБ файлу, далі контент ігнорується. Окремі проєкти можуть мати інші ліміти, наприклад, більший ліміт для PDF, ніж для HTML.» 😐
Стало:
«За замовчуванням краулери Google обробляють перші 15 МБ файлу, далі контент ігнорується. Але окремі проєкти можуть задавати інші ліміти для своїх краулерів і типів файлів. Наприклад, краулер Googlebot може мати менший ліміт (наприклад, 2 МБ) або більший для PDF, ніж для HTML.» ✅
Що з цього важливо для SEO ⚠️
- 15 МБ — це не «ліміт Googlebot», це загальний дефолт для всієї системи 🚀
- Для HTML треба виходити з того, що Googlebot читає тільки перші ~2 МБ, усе далі — в зоні ризику ⏳
- Критичний контент (title, H1, основний текст, внутрішні лінки) має бути на початку файлу, а не в хвості після тонни inline JS/CSS 🎯
https://developers.google.com/crawling/docs/crawlers-fetchers/overview-google-crawlers
Google оновив документацію по crawler file size limits і нарешті прямо вписав туди Googlebot і 2 МБ 🔍
Що саме змінили в доках 📝
Було:
«За замовчуванням краулери Google обробляють перші 15 МБ файлу, далі контент ігнорується. Окремі проєкти можуть мати інші ліміти, наприклад, більший ліміт для PDF, ніж для HTML.» 😐
Стало:
«За замовчуванням краулери Google обробляють перші 15 МБ файлу, далі контент ігнорується. Але окремі проєкти можуть задавати інші ліміти для своїх краулерів і типів файлів. Наприклад, краулер Googlebot може мати менший ліміт (наприклад, 2 МБ) або більший для PDF, ніж для HTML.» ✅
Що з цього важливо для SEO ⚠️
- 15 МБ — це не «ліміт Googlebot», це загальний дефолт для всієї системи 🚀
- Для HTML треба виходити з того, що Googlebot читає тільки перші ~2 МБ, усе далі — в зоні ризику ⏳
- Критичний контент (title, H1, основний текст, внутрішні лінки) має бути на початку файлу, а не в хвості після тонни inline JS/CSS 🎯
https://developers.google.com/crawling/docs/crawlers-fetchers/overview-google-crawlers
✍3🔥2🗿2
Google каже що теперь працює у всіх
🔥 Тепер налаштуй Performance одним промптом: фільтри, порівняння YoY, метрики CTR/position.
Приклад: "всі сторінки крім головної, порівняй з минулим роком" → готовий звіт.
Performance → Search results → права панель.
Хто тестував? 👇
🔥 Тепер налаштуй Performance одним промптом: фільтри, порівняння YoY, метрики CTR/position.
Приклад: "всі сторінки крім головної, порівняй з минулим роком" → готовий звіт.
Performance → Search results → права панель.
Хто тестував? 👇
👍6
🚫 Заборони для бізнесів:
Стимули (знижки, подарунки, оплата) за відгуки/редагування.
Тиск на клієнтів, фільтр негативу чи вимога конкретного контенту.
Фейки з підозрілими патернами.
⚠️ Покарання:
Блок нових відгуків.
Видалення старих.
Попередження чи бан профілю.
Ці зміни б’ють по local SEO — відгуки критично впливають на ранжування в Картах.
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡3
🚨 Проблема в GSC: звіт про індексацію сторінок "заморожений" до 15 грудня 2025!
Google Search Console не показує дані по індексації до середини грудня 2025 року — графік порожній з кінця листопада. Джон Мюллер підтвердив: це глюк від грудневої затримки звітів, на реальну індексацію/ранжування не впливає.
Що відбувається?
Page Indexing report "завис" на даних до 15.12.2025
Затронуло ВСІ профілі GSC
Performance reports теж лагали (до 50+ годин затримки)
Google вже фіксив подібне в грудні. Моніторте, але сайти в порядку! 👀
Google Search Console не показує дані по індексації до середини грудня 2025 року — графік порожній з кінця листопада. Джон Мюллер підтвердив: це глюк від грудневої затримки звітів, на реальну індексацію/ранжування не впливає.
Що відбувається?
Page Indexing report "завис" на даних до 15.12.2025
Затронуло ВСІ профілі GSC
Performance reports теж лагали (до 50+ годин затримки)
Google вже фіксив подібне в грудні. Моніторте, але сайти в порядку! 👀
👀4👌1
🔥 З НУЛЯ ДО 26K ТРАФІКУ В GAMBLING: ПІРАМІДА TIER-1-3 ПІД ЄВРОПУ! 🧨
Стартові умови:
🎯 Гео: Европа
🎰 Ніша: Gambling
📊 Трафік: 0
🔗 Backlink profile: 70 (не працював)
Проблема: трафік на нулі, посилальний профіль мертвий. Ціль — бустанути органіку в європейській видачі.
Стратегія: не Tier-1 закидати баблом. Створили "піраміду посилань" — кожен рівень підсилює попередній!
1️⃣ Tier-1: органічний траст
5 посилань на трастових донорах (релевантні гео). Відлежали 7–10 днів до індексації.
2️⃣ Tier-2: накачування вагою
На кожен Tier-1 — по 4-5 лінків середнячок (DR 10+, з трафіком).
Інструмент: головні сторінки PBN.
3️⃣ Tier-3: масовий хайп
Підсилили Tier-2 "шумом" органіки — прогнали хрумером.
Ефект: видимість буму навколо донорів!
🔒 Безпека
Tier-2/3: тільки безанкори + бренди.
Фільтр: ніякого спаму, тільки проіндексовані з трафіком.
Витримка: Tier-1 відлежав перед прокачкою.
🧨 Результати за 3 місяці
Tier-1: 5 лінків, $1250
Tier-2: 24 лінка, $1680
Tier-3: лінкбілдер (хрумер)
Результат: Трафік з 0 → 26 000 сеансів/міс. Стабільне зростання! 📈
Висновок: Tier 1-3 працює для Google у Gambling. Тестите? Пишіть в коменти! 👇
Стартові умови:
🎯 Гео: Европа
🎰 Ніша: Gambling
📊 Трафік: 0
🔗 Backlink profile: 70 (не працював)
Проблема: трафік на нулі, посилальний профіль мертвий. Ціль — бустанути органіку в європейській видачі.
Стратегія: не Tier-1 закидати баблом. Створили "піраміду посилань" — кожен рівень підсилює попередній!
1️⃣ Tier-1: органічний траст
5 посилань на трастових донорах (релевантні гео). Відлежали 7–10 днів до індексації.
2️⃣ Tier-2: накачування вагою
На кожен Tier-1 — по 4-5 лінків середнячок (DR 10+, з трафіком).
Інструмент: головні сторінки PBN.
3️⃣ Tier-3: масовий хайп
Підсилили Tier-2 "шумом" органіки — прогнали хрумером.
Ефект: видимість буму навколо донорів!
🔒 Безпека
Tier-2/3: тільки безанкори + бренди.
Фільтр: ніякого спаму, тільки проіндексовані з трафіком.
Витримка: Tier-1 відлежав перед прокачкою.
🧨 Результати за 3 місяці
Tier-1: 5 лінків, $1250
Tier-2: 24 лінка, $1680
Tier-3: лінкбілдер (хрумер)
Результат: Трафік з 0 → 26 000 сеансів/міс. Стабільне зростання! 📈
Висновок: Tier 1-3 працює для Google у Gambling. Тестите? Пишіть в коменти! 👇
😁3🏆2
🗺 Google не буде використовувати ваш sitemap, якщо контент — не цікавий 📄
Джон Мюллер з Google відповів на Reddit користувачу, у якого Search Console показував помилку читання sitemap, хоча по логах сервера Googlebot успішно отримував файл з кодом 200, а сам sitemap був технічно валідний
Що сказав Мюллер 🔍
«Одна з частин роботи з sitemaps — Google має бути зацікавлений в індексації більшої кількості контенту з сайту. Якщо Google не переконаний, що є новий і важливий контент для індексації, він не буде використовувати sitemap.»
Що з цього важливо для SEO
— Sitemap — це підказка, а не команда. Навіть ідеальний XML не гарантує індексацію 🚫
— Google оцінює сайт в цілому: якщо контент тонкий, неунікальний або не несе цінності — sitemap просто ігнорується 🗑
— Швидкість краулінгу — це симптом, а не причина. Проблема завжди глибше 🧠
— Критичне: створюйте контент, який Google вважатиме "new & important", а не просто генеріть сторінки заради кількості 🎯
Джон Мюллер з Google відповів на Reddit користувачу, у якого Search Console показував помилку читання sitemap, хоча по логах сервера Googlebot успішно отримував файл з кодом 200, а сам sitemap був технічно валідний
Що сказав Мюллер 🔍
«Одна з частин роботи з sitemaps — Google має бути зацікавлений в індексації більшої кількості контенту з сайту. Якщо Google не переконаний, що є новий і важливий контент для індексації, він не буде використовувати sitemap.»
Що з цього важливо для SEO
— Sitemap — це підказка, а не команда. Навіть ідеальний XML не гарантує індексацію 🚫
— Google оцінює сайт в цілому: якщо контент тонкий, неунікальний або не несе цінності — sitemap просто ігнорується 🗑
— Швидкість краулінгу — це симптом, а не причина. Проблема завжди глибше 🧠
— Критичне: створюйте контент, який Google вважатиме "new & important", а не просто генеріть сторінки заради кількості 🎯
👍4❤2😁1
Forwarded from SEO Marketplace дошка SEO оголошень
#шукаю
Шукаю сайти з білих ніш. Гео — Європа / Америка.
Можливо без трафіку — головне нормальний домен, чиста історія та якісний контент.
Цікавлять різні тематики — пишіть що є, обговоримо.
Зв'язок — @thespecialone05
Шукаю сайти з білих ніш. Гео — Європа / Америка.
Можливо без трафіку — головне нормальний домен, чиста історія та якісний контент.
Цікавлять різні тематики — пишіть що є, обговоримо.
Зв'язок — @thespecialone05