SEO Fuel (Gambling, SEO, PBN, дроп домени)
274 subscribers
106 photos
1 video
17 links
Все про SEO та дроп-домени: практичні кейси, тренди, експерименти
Download Telegram
🚀 Google Search Console отримав супер-оновлення!

Тепер ви можете відстежувати продуктивність своїх соціальних каналів прямо в Search Console!

Що нового:

📊 Єдина панель для сайту та соцмереж
Бачите всі метрики в одному місці — клікси, показування, трендуючий контент

🔍 Ключові дані:
• Загальний охоплення — клікси та показування з Google Search
• Топ контент — які пости працюють найкраще
• Пошукові запити — за якими фразами знаходять ваш профіль
• Географія аудиторії — звідки приходять клікси
• Трафік з інших джерел — Image Search, Video, News, Discover

⚡️ Важливо знати:
Функція зараз тестується на обмеженій кількості сайтів. Search Console автоматично визначає та пов'язує ваші соцканали. Просто додайте їх в Insights report!

Це чудова можливість для брендів управляти присутністю на різних платформах без стрибання між інструментами аналітики!
👍4🤝1
Як зливаються бюджети на посилання

За роки роботи я часто бачу одну й ту ж помилку: сайт потрапляє під фільтр Google, позиції падають до нуля, а Seoшник думає - куплю дорогих посилань із топових, гарних гестпостів, і все повернеться.

Не повернеться. Тільки гроші втратяться.

ЧОМУ?

Коли сайт під фільтром - це означає, що проблема в самому сайті, а не в кількості посилань. Google не каже "тобі не вистачає посилань". Google каже "твій сайт поганий".

Купувати посилання при такій ситуації - це просто зливати бюджет в унітаз.


ЩО РОБИТИ:

Спочатку потрібно працювати над самим сайтом:

1️⃣Технічна складова - швидкість, мобільність, індексація, помилки
2️⃣Текстова складова - контент має бути якісний, без дублювання і спаму
3️⃣Посилочний профіль - видалити спамні посилання

Тільки після того, як вирішите ці три пункти і вийдете з фільтра - починайте купувати якісні посилання.

АНАЛОГІЧНО З АПДЕЙТАМИ

Сайт впав на Core Update? Не кидайтеся купувати посилання. Розберіться, чому впав:

Контент гірший за конкурентів?
Сайт втратив авторитет?
Технічні помилки?

Апдейт карає за якість, а не за брак посилань.

ВАЖЛИВО

У деяких нішах дешевше закрити старий сайт під фільтром і запустити новий. Але якщо робите на бренд у білих нішах - потрібно покращувати поточний сайт.
📊 Google додав зручну функцію часових діапазонів в Search Console!

Помітили цікаве оновлення в Google Search Console? Тепер можна швидко перемикатися між різними періодами перегляду даних прямо з випадного меню:

Щодня - відстежуйте метрики день за днем
Щотижня - бачите тренди по тижнях
Щомісяця - аналізуйте великі періоди

Чому це корисно для SEO?

🔥 Швидкий аналіз трендів - одразу видите, як змінюються клікси, покази та позиції залежно від масштабу даних
🎯 Оптимізація сайту - легше знаходите паттерни та аномалії в різних часових періодах
💡 Економія часу — не потрібно кожен раз вручну вибирати дати в календарі
👍3🔥1
Ahrefs додав Page type в SERP Overview!

Ahrefs тепер сам аналізує контент і структуру кожної сторінки в топі й розставляє їм теги: article, review, product, listing, wiki і т.д.

Як це працює?

AI модель дивиться на вміст і розмітку сторінки та визначає, який це формат. Результат видно прямо в таблиці SERP Overview — в окремому стовпці. Не потрібно вже вручну гадати, що там насправді за типи сторінок.

Чому це тебе має цікавити?

🔥 Розпізнаєш інтент за 10 секунд — відразу бачиш, що Google хоче по цьому запиту: обзори, статті, листинги або продукти

🎯 Швидше приймаєш рішення — якщо в топі переважають листинги, а ти пилиш статтю, то ясно, чому ранжування слабке

💡 Не гадаєш, а знаєш — більше не потрібно вручну розбирати кожну сторінку, AI зробить це за тебе

Практичне використання:

1️⃣ Відкриваєш ключ в SERP Overview
2️⃣ Дивишся на типи сторінок — яких більше всього?
3️⃣ Адаптуєш свою сторінку під домінуючий тип
4️⃣ Профіт — контент стає релевантніше, рейтинг краще
🔥6👍1
🚨 Google грудень 2025: третій core update, що відомо?

11 грудня Google запустив третій масштабний алгоритмічний update. 59% сайтів упали.

Цифри:
📊 Волатильність 8.7/10 — найвища в 2025
📉 Affiliate: -71% трафіку
📉 E-commerce: -52%
📉 Застарілий контент: -43%

Що змінилось?

1. E-E-A-T тепер СКРІЗЬ

Google вимагає для всіх ніш: досвід, експертизу, авторитетність, надійність.
Помилка: в біографії "15 років досвіду" більше не рахується. Google дивиться на те, що ви показали, а не заявили.

2. Перевірка автентичності контенту

Google бачить: конкретні деталі vs копіпаст, власні фото vs заводські, справжнє тестування.
Підробка "свіжості" штрафується: змінили дату без змін контенту = -23% мінімум.

3. Розпізнавання ШІ

Чистий ШІ (-88%): 300+ статей/місяць, без експертизи
ШІ з людиною (ОК): людина редагує й перевіряє

4. Задоволення користувачів

Повернення в пошук = погано
Залишився на сторінці = добре
Хто виграв: авторський контент +42%,, медичні від лікарів +56%
Хто впав: партнерські без тестування -71%, ШІ контент -88%, застарілі -43%

Як вас зачепив update? 👇
👌21
Як Google насправді ранжує контент у 2025 році

Нове інтерв'ю Danny Sullivan розкрило те, про що ми давно підозрювали.

Системи Google працюють ось як:

1️⃣ Контент написаний ДЛЯ ЛЮДЕЙ (а не для алгоритмів) — первинний сигнал
2️⃣ Люди знаходять це задовільним і кажуть «ось саме це я шукав»
3️⃣ Сигнали поведінки користувачів (читають, діляться, повертаються)

Важливо: Оптимізація під LLM (ChatGPT, Perplexity, Claude) має сенс для <1% трафіку. Навіщо ризикувати 99% трафіку з Google?

Що змінювати в роботі:

Створення контенту з розрахунком на AI індексацію
Ігнорування UX заради ключових слів
Гонитва за GEO/AEO трендами

Розуміння реальних потреб аудиторії
Контент, що вирішує проблеми користувачів
Природна інтеграція інформації
3
Як не злити бюджет на контент для PBN
У 2026-му я все ще бачу дві крайнощі: SEO-шники або завалюють сітки дешевим синонімізованим шлаком, або витрачають космічні суми на професійний копірайтинг там, де він не потрібен.

Обидва варіанти - це шлях у нікуди.

ЧОМУ?
PBN - це не спринт, а гра в довгу. Заллєте сміття - ваші сайти вилетять з індексу. Замовите "пулітцерівські" тексти - ніколи не окупите інвестиції.
Рішення - у розумній оптимізації.

ЩО РОБИТИ:
Щоб PBN працював і не з'їдав усі гроші світу, впроваджуйте ці кроки:
1️⃣ AI + Мінімальна вичитка: забудьте про чисту генерацію. ШІ робить чернетку, людина - перевіряє логіку та прибирає спам. Нам не потрібна художня цінність, нам потрібна відсутність "червоних прапорців" для Google.
2️⃣ Транскрибація та переклади: YouTube - це бездонна бочка контенту. Берете відео (можна іншою мовою), розшифровуєте через ШІ, редагуєте. Основа готова, унікальність - топ.
3️⃣ Варіативна шаблонізація: не пишіть кожне ТЗ з нуля. Зробіть сітку шаблонів під різні типи контенту і міксуйте їх. Це економить години роботи.

ВАЖЛИВО
Час у SEO - це чисті гроші. Якщо ви витрачаєте тиждень на тексти для п'яти сайтів - ви програєте ринок. Автоматизуйте все, що не потребує "душі", і вкладайте зекономлені ресурси в розвиток продукту.
👍5
❗️Офіційні ліміти Googlebot для файлів (оновлення 2026)

Google оновив документацію та чітко вказав обмеження для Googlebot при краулингу.

Системи обробляють контент наступним чином:

1️⃣ HTML, CSS, JavaScript: перші 2 МБ нестисненого контенту
2️⃣ PDF-файли: перші 64 МБ нестисненого контенту
3️⃣ Загальний ліміт краулінгу: 15 МБ в інфраструктурі Google
4️⃣ Рекомендований розмір критичного контенту: перші 1 МБ HTML

Важливо: Розмір застосовується до розпакованого контенту (не gzip). Великі inline-скрипти та стилі після 2 МБ не індексуються.

Рекомендації для оптимізації:

Inline JavaScript/CSS понад 5 МБ
Розміщення ключового контенту після 2 МБ HTML
Відсутність аудиту ваги файлів у Lighthouse
Великі single-page додатки без code splitting

Розміщення title, H1, основного тексту, внутрішніх посилань у перші 1 МБ
Винос CSS/JavaScript у зовнішні файли (<500 КБ кожен)
Аудит через Chrome DevTools → Network → Transferred/Size
Lighthouse Core Web Vitals + SEO checklist
👍4
🧪 February 2026 Discover Core Update

Google оновив алгоритми Discover (не web‑пошук, а стрічка рекомендацій).

Що змінилось
1️⃣ Більше локального
Перевага сайтам з тієї ж країни, що й користувач (локальні новини, медіа, тематичні проєкти).

2️⃣ Менше клікбейту
Різ сильніше по сенсаційним заголовкам і поверхневим переписам.

3️⃣ Фокус на темах та експертизі
Експертиза рахується по конкретних темах, а не «сайт в цілому». Глибокі, оригінальні матеріали в своїй ніші отримують більше шансів.

Розкочують з англомовних США, далі — інші країни й мови.

Що робити
Жити за рахунок клікбейту й переписів
Писати про все підряд без явної ніші


Чітко визначити теми, де ви сильні
Робити глибокий, оригінальний контент саме в цих темах
Сприймати Discover як бонусний канал, а не основу трафіку

https://developers.google.com/search/blog/2026/02/discover-core-update
👍4👌1
🧪 Google знову крутить AI Overviews: новий формат посилань

Google тестує ще один UX-варіант для посилань в AI Overviews — контекстні оверлеї з картками сайтів.

Як це працює:

поруч з фрагментом відповіді є маленька іконка/кліп лінка
наводиш курсор → зверху вилітає оверлей
всередині — картки сайтів, з яких взято саме цей шматок тексту (домен, тайтл, уривок).
Фактично це mini‑SERP поверх AI‑відповіді.

Навіщо це Google
CTR з AI Overviews впав, лінки тупо не клікають
уже рік тестують різні формати: каруселі, фавіконки, інлайн‑лінки, оверлеї
зараз пробують варіант, де джерела виглядають помітніше і «клікбельніше», ближче до звичного SERP.

Що це значить для нас

Розраховувати тільки на «присутність у цитатах»
Думати про привабливість картки: домен, тайтл, сніпет
Писати заголовки так, щоб у цьому оверлеї хотілося клікнути саме на тебе
Слідкувати за будь-якими змінами в лінк‑інтерфейсі AI Overviews — це прямо про трафік.

Поки це масовий тест, а не глобальний реліз, але тренд очевидний: Google змушений шукати формати, де AI‑відповідь і кликабельні джерела співіснують, а не вбивають одне одного.
🤝3
🧪 Google ще раз поміняв доку по лімітах файлів 📄

Google оновив документацію по crawler file size limits і нарешті прямо вписав туди Googlebot і 2 МБ 🔍

Що саме змінили в доках 📝

Було:
«За замовчуванням краулери Google обробляють перші 15 МБ файлу, далі контент ігнорується. Окремі проєкти можуть мати інші ліміти, наприклад, більший ліміт для PDF, ніж для HTML.» 😐

Стало:
«За замовчуванням краулери Google обробляють перші 15 МБ файлу, далі контент ігнорується. Але окремі проєкти можуть задавати інші ліміти для своїх краулерів і типів файлів. Наприклад, краулер Googlebot може мати менший ліміт (наприклад, 2 МБ) або більший для PDF, ніж для HTML.»

Що з цього важливо для SEO ⚠️

- 15 МБ — це не «ліміт Googlebot», це загальний дефолт для всієї системи 🚀
- Для HTML треба виходити з того, що Googlebot читає тільки перші ~2 МБ, усе далі — в зоні ризику
- Критичний контент (title, H1, основний текст, внутрішні лінки) має бути на початку файлу, а не в хвості після тонни inline JS/CSS 🎯

https://developers.google.com/crawling/docs/crawlers-fetchers/overview-google-crawlers
3🔥2🗿2
Google каже що теперь працює у всіх

🔥 Тепер налаштуй Performance одним промптом: фільтри, порівняння YoY, метрики CTR/position.

Приклад: "всі сторінки крім головної, порівняй з минулим роком" → готовий звіт.

Performance → Search results → права панель.

Хто тестував? 👇
👍6
Якщо не знаєте чим наповнювати сайти/дропи, то можна твітами Трампа із webarchive😄
😁6
🔥Google Business: Google посилює правила відгуків! 🔥

🚫 Заборони для бізнесів:
Стимули (знижки, подарунки, оплата) за відгуки/редагування.
Тиск на клієнтів, фільтр негативу чи вимога конкретного контенту.
Фейки з підозрілими патернами.

⚠️ Покарання:
Блок нових відгуків.
Видалення старих.
Попередження чи бан профілю.


Ці зміни б’ють по local SEO — відгуки критично впливають на ранжування в Картах.
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡3
🚨 Проблема в GSC: звіт про індексацію сторінок "заморожений" до 15 грудня 2025!

Google Search Console не показує дані по індексації до середини грудня 2025 року — графік порожній з кінця листопада. Джон Мюллер підтвердив: це глюк від грудневої затримки звітів, на реальну індексацію/ранжування не впливає.

Що відбувається?
Page Indexing report "завис" на даних до 15.12.2025
Затронуло ВСІ профілі GSC
Performance reports теж лагали (до 50+ годин затримки)


Google вже фіксив подібне в грудні. Моніторте, але сайти в порядку! 👀
👀4👌1
🔥 З НУЛЯ ДО 26K ТРАФІКУ В GAMBLING: ПІРАМІДА TIER-1-3 ПІД ЄВРОПУ! 🧨

Стартові умови:
🎯 Гео: Европа
🎰 Ніша: Gambling
📊 Трафік: 0
🔗 Backlink profile: 70 (не працював)

Проблема: трафік на нулі, посилальний профіль мертвий. Ціль — бустанути органіку в європейській видачі.

Стратегія: не Tier-1 закидати баблом. Створили "піраміду посилань" — кожен рівень підсилює попередній!

1️⃣ Tier-1: органічний траст
5 посилань на трастових донорах (релевантні гео). Відлежали 7–10 днів до індексації.

2️⃣ Tier-2: накачування вагою
На кожен Tier-1 — по 4-5 лінків середнячок (DR 10+, з трафіком).
Інструмент: головні сторінки PBN.


3️⃣ Tier-3: масовий хайп
Підсилили Tier-2 "шумом" органіки — прогнали хрумером.
Ефект: видимість буму навколо донорів!

🔒 Безпека
Tier-2/3: тільки безанкори + бренди.
Фільтр: ніякого спаму, тільки проіндексовані з трафіком.
Витримка: Tier-1 відлежав перед прокачкою.

🧨 Результати за 3 місяці
Tier-1: 5 лінків, $1250
Tier-2: 24 лінка, $1680
Tier-3: лінкбілдер (хрумер)

Результат: Трафік з 0 → 26 000 сеансів/міс. Стабільне зростання! 📈

Висновок: Tier 1-3 працює для Google у Gambling. Тестите? Пишіть в коменти! 👇
😁3🏆2
🗺 Google не буде використовувати ваш sitemap, якщо контент — не цікавий 📄

Джон Мюллер з Google відповів на Reddit користувачу, у якого Search Console показував помилку читання sitemap, хоча по логах сервера Googlebot успішно отримував файл з кодом 200, а сам sitemap був технічно валідний

Що сказав Мюллер 🔍
«Одна з частин роботи з sitemaps — Google має бути зацікавлений в індексації більшої кількості контенту з сайту. Якщо Google не переконаний, що є новий і важливий контент для індексації, він не буде використовувати sitemap.»

Що з цього важливо для SEO
— Sitemap — це підказка, а не команда. Навіть ідеальний XML не гарантує індексацію 🚫
— Google оцінює сайт в цілому: якщо контент тонкий, неунікальний або не несе цінності — sitemap просто ігнорується 🗑
— Швидкість краулінгу — це симптом, а не причина. Проблема завжди глибше 🧠
— Критичне: створюйте контент, який Google вважатиме "new & important", а не просто генеріть сторінки заради кількості 🎯
👍42😁1
#шукаю
Шукаю сайти з білих ніш. Гео — Європа / Америка.
Можливо без трафіку — головне нормальний домен, чиста історія та якісний контент.
Цікавлять різні тематики — пишіть що є, обговоримо.
Зв'язок — @thespecialone05