Александр Ожгибесов Ozhgibesov Agency
1.78K subscribers
315 photos
21 videos
3 files
333 links
Канал Александра Ожгибесова - руководителя Ozhgibesov Agency

Написать: https://t.me/aozhgibesov
Сайт: https://ozhgibesov.agency
Youtube: https://www.youtube.com/c/aozhgibesov/
Download Telegram
Если ты открываешь PageSpeed Insights и видишь плохие метрики — это ещё не значит, что сайт "медленный". А если хорошие — не значит, что всё супер 🙃

Давайте разберём, как правильно читать Core Web Vitals (CWV) и принимать решения.

🧩 Сначала — что важно понимать:
Core Web Vitals — это поведенческие метрики. Они фиксируются на устройствах реальных пользователей (если смотреть в CrUX/GSC), а не на тесте с одной точки.

👉 Вывод: если у тебя 100/100 в Lighthouse, но в GSC — всё красное, верь GSC.

📊 Какие метрики и как их читать:

1. LCP (Largest Contentful Paint)

👉 Отражает, как быстро загружается самый крупный блок (заголовок, картинка, баннер).

🧠 В реальности:
📄 Часто страдает на страницах с баннерами, шрифтами и фоном через JS
⚡️ Быстро фиксится через lazy load, preload и приоритизацию

📌 Важно: если у вас SPA — метрика может быть искажена

2. FID / INP (Interactivity)

👉 В 2024 Google заменил FID на INP — он измеряет задержку перед первым взаимодействием и стабильность отклика.

🧠 В реальности:
🚫 Часто страдает из-за ненужных JS-событий на старте (scroll, hover, click listeners)
🛠 Лечится через задержку инициализации скриптов, уменьшение bundle'ов

3. CLS (Cumulative Layout Shift)

👉 Отвечает за "прыгающий" интерфейс.

🧠 В реальности: Типовые причины: баннеры без фиксированной высоты, иконки, которые прогружаются позже, отсутствие width/height у img

📌 В GSC можно посмотреть какие именно страницы имеют проблемы — не гадай вслепую

🔍 Как интерпретировать отчёты

1️⃣ PageSpeed Insights
♂️ для единичных тестов
📝 даёт рекомендации, но не учитывает реальных юзеров
👀 можно посмотреть LCP-элемент прямо в отчёте

2️⃣ GSC → Core Web Vitals
📊 показывает реальные данные из Chrome пользователей
😅 если тут плохо — значит, Google знает об этом

3️⃣ CrUX в BigQuery или Looker Studio
🔍 продвинутый анализ по гео, устройствам, скорости

🚨 Частая ошибка
Гнаться за 100 баллами в PageSpeed Insights — бесполезно.
Главное — попасть в "Good" зону по CWV в GSC:
LCP < 2.5s
INP < 200ms
CLS < 0.1

Остальное — nice to have, но не влияет на ранжирование напрямую.

📌 Вывод: Не лечите метрики ради метрик.
Работайте с реальными страницами, где много трафика и слабая вовлечённость. Это даст максимум выхлопа.
Как продвинуть сайт в ТОП и обойти конкурентов? В новом видео я показываю, как анализировать сайты конкурентов, собирать полное семантическое ядро и находить точки роста для SEO и контекста.

Пошагово разбираю работу в Keys.so: как смотреть позиции, трафик, запросы, ссылки и объявления конкурентов. Рассказываю лайфхаки, которые реально помогают вытащить сайт вверх — всё на примере реальных кейсов.

Для подписчиков — самый большой промокод на 20% на Keys.so. Пишите в личку, отправлю 👌

Если вы занимаетесь продвижением, интернет-маркетингом или хотите понять, что делают ваши конкуренты — это видео стоит вашего времени.

📺 YouTube: https://youtu.be/vxf6gHYgbLw

🔗 VK: https://vk.com/video21566179_456239936
SEO — не платный трафик. Тут нельзя сказать: «вложим 100 — получим 150». Но клиенты, менеджеры и даже сами SEOшники часто хотят конкретные цифры. И тут начинается самое интересное. О методологии нашего прогноза я снимал видео на канал https://youtu.be/6jAHp4vZW40?si=Z8A1yiaOs6i9LTgj, но тема интересная, поэтому решил запилить ещё и пост.

Вот частые ошибки при прогнозах — и что с ними делать:

1. 🔮 Прогноз от "я так чувствую"
Типичная ситуация: берут видимость конкурента или какую-то «в среднем» долю трафика и накладывают на свой сайт.

📉 В чем ошибка:
нет связи с текущей реальностью сайта, авторитетом домена, индексацией и т.п.

Как правильно:
брать текущую видимость, строить реалистичный сценарий на основе исторических данных: сколько уже приросло, какие страницы работают.

2. 📈 Линейный рост
Прогноз: будем публиковать по 10 статей в месяц, значит через 6 месяцев у нас будет Х трафика.

📉 В чем ошибка:
SEO не растёт линейно. Есть время на индексацию, "песочницу", ранжирование, сезонность, конкуренцию.

Как правильно:
закладывать лаг (2–4 месяца), рост по S-образной кривой и возможные просадки. А ещё — тестировать тип контента: не всё работает одинаково.

3. 🎯 Считать только ТОП-3
Типичная ошибка — умножить число запросов на средний CTR в ТОП-3 и сказать «вот наш прогноз».

📉 В чем ошибка:
большинство новых страниц туда не попадёт сразу. А если и попадёт — CTR не будет одинаковым в инфо- и коммерческой выдаче.

Как правильно:
считать долю запросов по позициям (1–3, 4–10, 11–20), учитывать разный CTR, строить сценарии: оптимистичный, реалистичный, пессимистичный.

4. 📊 Игнорировать брендовый трафик
Иногда в прогнозе учтён только рост по запросам из семантики, а бренд оставляют вне кадра.

📉 В чем ошибка:
если проект развивается — брендовый трафик тоже будет расти, особенно с инфоконтентом, ссылками, PR.

Как правильно:
разделяй прогноз на брендовый / небрендовый трафик и учитывай, как один влияет на другой.

5. 💵 Не учитывать конверсию
Да, SEO — про трафик. Но бизнесу важны лиды и продажи.

📉 В чем ошибка:
трафик растёт, а заявки — нет. Или запросы нецелевые, или посадочные слабые.

Как правильно:
смотреть не только на посещения, но и на стоимость привлечения, CPL, CR. А ещё — прогнозировать на уровне страниц, а не сайта в целом.

SEO-прогноз — это не гадание, а гипотеза на основе текущих данных + реалистичный сценарий развития.
Будь честен с собой (и клиентом): гарантировать можно только процесс и подход, но не цифры.
Поймайте весенний вайб

Успейте оплатить подписку Keys.so до 11 мая
Получите +5 дней в подарок к вашему тарифу 🤩

Переходите и ловите бонус 🔣

Реклама: ООО «Модеско», ИНН: 3460077551
Please open Telegram to view this post
VIEW IN TELEGRAM
Лучшее, что можно было прочитать за сегодня про оптимизацию от Яндекса 😂
Регулярки — это суперсила SEOшника. Особенно в Screaming Frog и Google Search Console. Если ты их до сих пор избегаешь — ты тратишь время зря 😬

Вот реальные сценарии, где regex решает:

🔍 В Screaming Frog
1️⃣ Фильтрация URL по паттерну
.*\/blog\/.*
→ находит все URL, где есть /blog/
2️⃣ Поиск страниц с параметрами
.*\?.*
→ все URL с query string (utm, filter, sort и т.п.)
3️⃣ Исключение URL из анализа
Используй в Exclude:
.*\/ru\/.*
→ исключить русскоязычную часть сайта
4️⃣ Поиск определённых тегов
Например, заголовки с определённым словом:
.*SEO.*
→ найдёт все <title>, где упоминается «SEO»

📈 В Google Search Console (фильтр запросов или URL)
5️⃣ Запросы, содержащие 2+ слов
^[^ ]+ [^ ]+
→ фильтрует только двухсловные и более запросы (полезно при анализе НЧ)
6️⃣ Запросы с вопросительными словами
^(как|что|почему|где|зачем)\b
→ все вопросительные запросы — инфо-намерения
7️⃣ Фильтрация по URL с параметрами
.*\?.*
→ удобно, если GSC показывает и канонические, и с параметрами

⚡️ Лайфхаки:
🦸♂️ Screaming Frog поддерживает Java-style regex
🔍 В GSC регулярки доступны только при выборе фильтра: "Custom (regex)"
🔗 Можно комбинировать: .*(utm|yclid|ref).*
⚠️ Всегда тестируй выражения — ошибка в одном символе = 0 результатов
Please open Telegram to view this post
VIEW IN TELEGRAM
Если ты всё ещё руками чистишь мета-теги, придумываешь title и фильтруешь CSV с 20 вкладками — ты себя не уважаешь 😅

Вот реальные сценарии, где ChatGPT + Screaming Frog + Excel = твоя мини-команда автоматизации:

🕷 1. Screaming Frog + ChatGPT → генерация тегов
Что делаем:
Краулим страницы → выгружаем URL + H1 → закидываем в GPT

Промпт:
На основе H1 сгенерируй уникальные Title и Description (не дублируй H1, до 60/160 символов)
Быстро
Уникально
В нужном объёме

📉 2. Screaming Frog → Excel → GPT: Анализ ошибок
Что делаем:
Выгружаем отчёт с ошибками (404, редиректы, каноникалы и т.д.) → сводим в Excel

🧠 GPT подсказывает:
🔧 что исправлять в первую очередь
🔍 как группировать проблемы
🚫 где баг в логике редиректов🧠
Пример:
Разбей список 404 по паттернам URL и предложи возможные причины и решения.

📊 3. Excel + GPT: Кластеризация запросов
Что делаем:
Выгружаем запросы из GSC или SERP Parser → вставляем в GPT

Промпт:
Разбей список на смысловые кластеры: инфо / коммерция / бренд / вопрос / другое. Добавь названия групп.
🔥 Особенно круто, если ты готовишь структуру сайта или наполняешь блог.

🔍 4. Анализ мета-тегов из SF в GPT
Что делаем:
Берём Title, Description → скармливаем в GPT

Промпт:
Проанализируй, есть ли повторения, переспам, лишние стоп-слова, превышение длины. Предложи улучшения.
Можно сделать batch-оценку сразу на десятки строк — вместо ручного прохода по каждой вкладке в SF.

🛠 5. Техничка в Screaming Frog + пояснение от GPT
Что делаем:
Находим непонятные теги, X-Robots, каноникалы, hreflang — GPT объясняет, что они делают и почему проблема может быть критичной.

Промпт:
Вот список технических ошибок. Объясни на простом языке, в чём риск и как починить.

Связка Screaming Frog + Excel + ChatGPT — это:
Экономия времени
Ускорение рутинных процессов
Меньше «копать вручную»
Больше времени на стратегию
Работает ли накрутка поведенческих факторов в Яндексе в 2025 году?

Я провёл реальный эксперимент: подключил сервис SEOpapa, накрутил ПФ ботами и отследил, как изменились позиции, трафик и заявки.

Показываю статистику до и после, сравниваю с белым SEO и делаю выводы без воды.

📺 Смотри видео на YouTube: https://youtu.be/gxfD2W1ySw4

📹 Или смотри ВКонтакте: https://vk.com/video21566179_456239937
Когда у тебя 100, 300, 1000+ статей — ручной аудит превращается в ад:
дубли, мёртвые страницы, устаревший контент, каннибализация… и всё это — в одной таблице 😅

Вот чек-лист, как всё разгрести без паники и не сойти с ума.

📥 Собери всё в одну таблицу
Данные берём из:
🔍 Screaming Frog → заголовки, теги, статус, глубина
📊 GSC → клики, показы, CTR, позиции
📈 GA / Метрика → поведенческие (время, отказ)
🗂 Сайт / база → дата публикации, рубрика, автор

Формат строк:
🔗 URL
📛 H1 / Title
📅 Дата публикации
📊 Трафик и позиции
📂 Группа / тема
📌 Статус / глубина

🧼 Дубликаты и «мусор»
Проверяем:
🔁 Похожие темы (по H1 или URL)
📑 Повторяющиеся title и description
🚫 Статьи с нулевым трафиком и пустым интентом

💡 GPT может помочь сгруппировать статьи по смыслу — просто закинь список H1.

🚥 Что делать с каждой страницей?
Добавь колонку "Действие". Вот варианты:
🔄 Обновить — если страница неплоха, но упала в трафике или устарела
✍️ Переписать — есть трафик, но слабый CTR или плохое поведение
🔗 Объединить — если тема перекрывается с другой
Удалить (410) — нет позиций, трафика и ссылок
Оставить как есть — если всё ок

👉 Работай пакетами: по 50–100 страниц за раз, не пытайся охватить всё сразу.

🧭 Каннибализация
Проверь:
🔍 Один и тот же запрос → ранжируются 2+ страницы?
📉 CTR низкий, позиции скачут?
💥 Переоптимизирована ли группа по теме?

Решения:
🔗 Объединить
🔄 Переразметить интенты (одна под инфо, другая под коммерцию или FAQ)

📆 План работ
Создай контент-бэклог:
🔗 URL
🎯 Действие
👤 Ответственный
🗓 Дедлайн
📝 Комментарий

Это спасёт от хаоса и лишних обсуждений “а что с этой статьёй?”

🧘♂️ Как не сгореть:
🗓 Делай аудит помесячно, не всё сразу
🤖 Используй GPT для рутины: группировка, оценка тегов, предложение действий
🔁 Повторяй процесс каждые 6–12 месяцев
Не бойся удалять — мёртвый контент мешает росту
Вы вкладываетесь в контент, техническую оптимизацию, собираете семантику, но трафика всё меньше?

🤷‍♂️ Почему сайт в топе, а переходов нет?
🤖 Почему нейроответы выдавливают вас из SERP?
💸 Почему всё больше трафика остаётся внутри Яндекса?

В новом видео я разобрал:
— как Яндекс "забирает" SEO-трафик себе через блоки с ответами, нейроответы и собственные сервисы
— как понять, в какую поисковую систему стоит инвестировать: Google или Яндекс
— какие метрики реально влияют на рост в 2025, а какие больше не работают
— как адаптировать стратегию SEO, чтобы не просто быть в выдаче, а получать с неё продажи
— какие инструменты и подходы использовать, чтобы не слепо работать "по чек-листу", а понимать, где вы теряете трафик

📹 Смотрим на Youtube: https://www.youtube.com/watch?v=FUWvuWtoRrk

📹 Смотрим в VK: https://vk.com/video21566179_456239938

🧠 Видео только для тех, кто работает с поисковым трафиком на серьёзном уровне: сайты, контентные проекты, e-com, агентства.

Если вы — SEO-специалист в 2025, вы обязаны это знать.
Forwarded from Алексей Адищев | SEO, Сайты, Нейросети (Алексей Адищев)
🌐 Создание PBN

С августа работаю на рынке США, уже запущено больше сотни сайтов. А ссылочек-то нет нормальных - либо дорого, либо грязь из пупка.
Скоро будем запускать свою PBN-сеть. Подумал, получится полезный пост, хоть и общими словами, без конкретики.

Что нужно для запуска PBN
1. Дроп-домены с хорошей ссылочной массой. Штук 30. Ну хотя бы 10.
2. Cloudflare для скрытия реального IP от поисковых систем и хитреньких вебмастеров.
3. Wordpress для создания сайтов.
4. Плагин для редиректа 404-страниц на главную. Там найдёте.
5. Генерация статей для наполнения сетки. Можно использовать AI WP Writer (промокод 15% на первую оплату ALEXADI) с текстом от 4o-mini и хорошими картинками от FLUX. Или генерировать через X-GPTWriter без картинок, но подешевле. Есть и другие вариантики.

Схема запуска
1. Ищем подходящие дропы. Не обязательно по теме продвигаемого сайта, главное без спама и с хорошим ссылочным.
2. Настраиваем Cloudflare (CF) под каждый сайт. Регаемся в cloudflare, подключаем сайт. И в настройках email-переадресации тыкаем переключатель Catch-all. Теперь все письма с этого домена будут падать на эту почту (только надо ns сменить у регистраторов).
В результате можно создать любую почту на домене lehacool.ru и она будет падать на lehaklassnyi@mail.ru.
Используем это для создания акков для других сайтов: site1.ru@lehacool.ru, site2.ru@lehacool.ru и т.д.
3. Прописываем NS от CF в регистраторе доменов.
4. Создаем на серваке/хостинге сайты на WP. При желании можно настроить мультисайт, но, первое, меня смущают редиректы с главного домена на поддомены/домены. Если редирект спалится поисковой системой, то будет не круто. Либо я глуп и зашуган. И, второе, у меня пока нормально не получилось настроить мультисайт 😅
5. Закрываем от индексации пока сайт не готов.
6. Настраиваем плагин редиректа 404-страниц на главную. Это перенаправит ссылочную массу всех страниц дропа на главную.
7. Генерируем статьи.
8. Открываем индексацию.
9. Индексируем страницы через бота.
10. Ждем индексации и проставляем ссылки.

Дополнительно описал поиск доменов тут.

📍 Заметка: будет подозрительно со всей сетки ссылаться только на продвигаемый сайт. Добавляйте ссылочки на википедию, на госсайты и другие трастовые площадки. Вам плюсик от поиска добавится (какой хороший сайт, на качественные площадки ссылается) и прикроет ссылки на продвигаемый сайт.

😍 Подписаться на alexadi

#pbn #seo
Please open Telegram to view this post
VIEW IN TELEGRAM
Хорошие советы на самом деле, дельные 👍
Forwarded from SEO практика | Кравцов Виталий (Виталий Кравцов)
Немного советов, которые позволят сэкономить кучу времени и денег, если вы решили делать какой-то проект под CPA.

1. Совет от кпаитана-очевидность: анализируйте ТОП по широкой семантике, смотрите кто и как давно сидит в выдаче. Если там монстры, которые законсервированы годами, очевидно, что ваш новый проект хрен туда зайдет в ближайшие N лет. Тут правда есть еще один вариант - найти площадки из ТОПа, где вы можете разместиться и забирать траф (паразитирование).

2. Смотрите какое распределение между сайтами по вашей семантике в ТОПе. Условно, если 10000-100000 запросов размазаны ровным слоем по 30-100 сайтам, то есть шанс забрать свой кусок пирога, при условии наличия головы и прямых рук. Бывает так, что 2-5 сайтов стоят в ТОП по 80% всей семантики, тогда я бы уже подумал пытаться туда залезать или нет.

3. Выбирайте ниши, где конверсии дают не только коммерческие ключи. Да, есть ниши, где конвертит только коммерция и вся ваша около тематическая информационка пойдет разве что под заработок на РСЯ. Недавно хотел зайти в одну нишу, поговорил с владельцем продукта и он поделился информацией о том, что конвертит, а что нет. Конкретно в той нише только коммерция, ТОП по которой забит такими сайтами, что шансы стремятся к нулю.

4. ТОП не равно трафик (по крайней мере в Yandex). Некоторые вертикали начинаются со 2 или 3 экрана после контекста, колдунщиков и прочей дичи от Яши. Я бы внимательно изучал структуру поисковой выдачи, чтобы потом не сидеть и радоваться своему ТОП10 без трафика и денег!

5. Тестируйте альтернативные источники трафика. SEO - хорошо, но не панацея.
В новом видео я подробно разбираю, как с помощью сервиса Boostclick можно повысить поведенческие факторы сайта и реально улучшить позиции в Яндексе. Почему просто трафик — это не всё? Как безопасно работать с накруткой ПФ и избежать санкций? Ответы и практические советы — внутри.

Если вы хотите понять, как поведенческие факторы влияют на SEO и как использовать их с умом — этот обзор для вас.

▶️ Смотрите подробный разбор и реальные кейсы здесь: https://youtu.be/URKjmlIB880

Или на VK: https://vkvideo.ru/video21566179_456239939
🙌 Делегирование — это не просто модное слово. Это один из самых важных навыков для тех, кто строит агентство, развивает бизнес или просто устал всё тащить на себе.

В новом видео я рассказываю, как лично прошёл путь от «делаю всё сам» до выстроенной системы делегирования. Делюсь опытом, как передавал задачи без потери качества, какие процессы отдал в первую очередь, с какими ошибками столкнулся и как их обошёл.

Поговорим о том, почему делегировать страшно, но необходимо. Что можно отдать сразу, а что не стоит отпускать на старте. Как начать передавать задачи не «вслепую», а по системе. Почему регламенты, шаблоны и стандарты — это не бюрократия, а реальная опора для роста.

Если ты ведёшь агентство, управляешь проектами или просто фрилансишь в одиночку на грани выгорания — это видео точно даст тебе точки опоры. Я не обещаю волшебных решений, но поделюсь тем, что реально работает в полевых условиях.

👉 Смотри видео на YouTube: https://www.youtube.com/watch?v=Qd8avvTVh6U

👉 Или прямо ВКонтакте: https://vk.com/video21566179_456239940

Если тема тебе близка — поддержи реакцией и напиши в комментариях, что ты уже делегируешь, а с чем пока не готов расстаться. Очень интересно собрать коллективный опыт.
Сегодня мне 30.
Без итогов — просто хороший день.
Спасибо всем, кто рядом. Всё только начинается.