Яковцов про трафик
792 subscribers
1 photo
8 links
Разбираю, почему трафик не дает результата и что с этим делать на практике
Download Telegram
Привет 👋 Меня зовут Денис Яковцов

В этом канале я разбираю частые проблемы с трафиком: когда трафик есть, а результата нет — и нужно понять, где он теряется.

Сейчас я разрабатываю сервис для фильтрации роботного трафика, поэтому много работаю с аналитикой и качеством трафика на практике.

Здесь — разборы кейсов, рабочие решения и шаги, которые можно повторить.

Обратная связь 👉 @yakovtsov
8👍5
Как не потерять трафик при неработающем сайте

Согласитесь, неприятная ситуация — когда трафик идет на сайт, а он не работает. И вы узнаете об этом не сразу, а через какое-то время: по сообщениям клиентов или по снижению числа заявок.

Чаще всего проблема в том, что:

🔻 Не продлили домен.

🔻 Истек SSL-сертификат.

🔻 Упал хостинг.

🔻 Или что-то сломалось на сайте.

Чтобы не жить в режиме постоянных проверок, нужен простой контроль: автоматическая проверка доступности сайта + уведомления туда, где вы их точно увидите.

Для себя я сделал Telegram-бота, который присылает уведомления о недоступности сайта и напоминания о продлении домена и SSL-сертификата.

Если хотите подключить свой сайт → @smotrizasaitom_bot
3👍1🔥1
Простой способ отсечь роботные прямые заходы в аналитике

Если на сайт идет много прямых заходов и значительная часть из них — боты, то визиты растут, поведенческие портятся, а отчеты по аналитике становятся заметно менее точными.

Один из самых простых вариантов защиты — «ручная проверка» на входе.

При прямом переходе посетитель видит чекбокс «нажмите, чтобы продолжить».

Пока галочку не поставят — страница и счетчики аналитики не загружаются.

Почему это работает:

🔻Большая часть простых ботов не взаимодействует с элементами страницы, поэтому не проходит проверку.

🔻В итоге роботные визиты не попадают в аналитику и меньше влияют на поведенческие метрики.

Важно:

🔻Это решение для прямого роботного трафика, а не «универсальная защита».

🔻Может немного ухудшать удобство для людей, поэтому ставить нужно осознанно (особенно если у вас много настоящего прямого трафика).

🔻Трафик из поисковых систем и других источников скрипт пропускает без проверки, в том числе поисковых роботов.

Как поставить:

1. Скачайте скрипт по ссылке → https://disk.yandex.ru/d/H_xzPjQUJvFz5g.

2. Добавьте код в самое начало index.php.

3. Настройте список разрешенных ботов по user-agent в переменной allowedBots.

4. Проверьте, что реальный трафик не страдает и люди нормально попадают на сайт.

Напишите в комментариях, на какой CMS у вас сайт, и я подскажу, куда корректнее поставить код, чтобы ничего не сломать на сайте.
32
Как убрать спам-заявки с WordPress без потери конверсии

Если у вас WordPress, почти наверняка вы сталкивались с ситуацией, когда формы на сайте начинают круглосуточно засыпать почту и CRM спамом.

Капча помогает не всегда:

🔻 Часть ботов обходит ее через антикапчу.

🔻 Из-за капчи часто падает конверсия на формах.

Из того, что я тестировал, самым стабильным решением оказался Akismet.

Как поставить:

🔻 Зайдите в админку сайта.

🔻 Откройте «Плагины → Добавить новый».

🔻 В поиске введите Akismet Anti-spam.

🔻 Нажмите «Установить», затем «Активировать».

🔻 Включите и пройдите настройку (получите API-ключ).

Важно:

🔻 Для личных блогов Akismet обычно можно использовать бесплатно (через API-ключ).

🔻 Для коммерческих сайтов нужна платная лицензия.

🔻 Akismet можно подключать не только к WordPress, у них есть API → https://akismet.com/developers/.

Укажите в комментариях, через какую форму собираете заявки (CF7 / WPForms / Elementor) — подскажу, где проверить, что фильтрация работает и не режет реальные заявки.
👍8
Половина посетителей вашего сайта — роботы

И нет, это не “страшилка”, а то, что регулярно публикуют в отчетах Imperva, Cloudflare, Akamai и DataDome.

Что пишут в отчетах:

🔻 Imperva (2025): около 53% всего веб-трафика — боты.
Примерно 20% из них — “хорошие” (например, поисковые роботы). Остальные — вредные (парсинг, фрод, накрутка, скликивание).

🔻 Cloudflare Radar: на многих сайтах доля бот-трафика стабильно 40%+, особенно в e-commerce.

🔻 Akamai: заметная часть обращений ботов к сайтам — злонамеренные (кража данных, нагрузка, скликивание).

🔻 DataDome: по их наблюдениям на многих проектах “каждый второй” запрос может быть ботом.

На что это влияет:

🔻 Аналитика показывает неточные данные. Метрики замусориваются, и вы хуже понимаете, что реально происходит на сайте.

🔻 Фрод в рекламе. Часть кликов — ненастоящие, но вы за них платите.

🔻 SEO проседает. Поведенческие метрики ухудшаются, и это может негативно влиять на позиции.

🔻 Нагрузка на сервер. Боты используют ресурсы, за которые вы платите. Иногда они еще и замедляют сайт — а это уже напрямую бьет по удобству для людей и по SEO.

И у меня для вас две новости:

🔻 Плохая: универсального фильтра, который идеально отличает человека от бота во всех ситуациях, нет.

🔻 Хорошая: большая часть ботов — простые, и их часто можно отсечь базовыми проверками.

Например, поставить простую защиту от роботных прямых заходов (я показывал PHP-скрипт в посте 👉 «Простой способ отсечь роботные прямые заходы в аналитике») или использовать решения уровня Cloudflare.

Используете защиту от ботов? Если да — какую именно? Напишите в комментариях.
4👍1🔥1
Высокие отказы на сайте: 3 частые причины

Отказ — это когда посетитель зашел на сайт и ушел почти сразу, не совершив никаких действий.

Высокие отказы бьют сразу по двум направлениям: SEO и стоимости рекламы. Поэтому игнорировать их нельзя.

Разберем три самые частые причины — от менее критичной к самой проблемной.

Причина №3: низкая релевантность объявления странице.

Реклама обещает одно, а посадочная страница — про другое.
В итоге пользователь уходит, потому что рядом уже открыта более релевантная страница конкурента.

Что проверить в первую очередь:

🔻 Объявления, по которым фиксируются отказные переходы.

🔻 Соответствие текста объявления и контента страницы.

🔻 Включена ли автоподстановка / оптимизация текста под запрос — она часто подводит.

Причина №2: низкая скорость загрузки сайта.

Частая ошибка — проверять сайт из офиса, из-за чего складывается ложное ощущение нормальной скорости.

Почему кажется, что все нормально:

🔻 Быстрый офисный интернет.

🔻 Закэшированные файлы сайта на вашем устройстве.

Что сделать:

🔻 Проверить сайт с мобильного интернета в режиме инкогнито.

🔻 Проверить несколько страниц, а не только главную.

Если отказы растут не по отдельному источнику, а в целом — скорость почти всегда основная причина.

Причина №1: боты, скликивание и накрутка.

Самая частая причина роста отказов в последние годы.

Как это работает:

🔻 Боты заходят на сайт и сразу уходят, формируя отказы.

🔻 Так они «прокачивают» свою cookie-историю.

🔻 Дополнительно могут прокликивать конкурентов в поиске или рекламе, чтобы ухудшить им поведенческие метрики и слить бюджет.

Почему это опасно:

🔻 Искажается аналитика.

🔻 Съедается рекламный бюджет.

Что можно сделать на базовом уровне:

🔻 Использовать Cloudflare или аналогичные решения, отсекая часть ботов еще до попадания их в аналитику, чтобы видеть более реальные данные.

Полностью проблему это не решает, но уже снижает искажения.

Именно из-за этой проблемы я сейчас разрабатываю сервис, который:

🔻 Будет фиксировать роботные переходы отдельным сегментом и не учитывать их в основных отчетах и метриках.

🔻 Позволит на основе этого сегмента корректировать рекламные кампании и не показывать объявления ботам.

Напишите в комментариях, где у вас больше всего отказов: источник трафика и страницы — подскажу, что проверить в первую очередь.
1👍3🔥32
Порядок простых действий для ускорения сайта

Если постоянные посетители вашего сайта еще как-то могут смириться с его медленной скоростью, то новые наверняка сформируют отказ.

В итоге вы либо теряете рекламный бюджет, либо ухудшаются поведенческие факторы в поиске.

Ниже — простые действия, которые помогут ускорить сайт без сложных и длительных работ.

1. Удалите с сайта сторонние скрипты.

Проанализируйте, какие счетчики, виджеты, чаты, ретаргет-пиксели подключены к сайту — и удалите ненужные.

Каждый такой скрипт — это дополнительные запросы к внешним серверам. Если скрипт тяжелый или внешний сервер медленный, сайт будет замедляться.

2. Локализуйте стили, шрифты и библиотеки.

Ситуация похожая на первый пункт.

Например, у вас есть слайдер, и его скрипт подключается с сервера в США. Если вы и ваши пользователи заходите из России, загрузка может заметно страдать: слайдер не прогрузится, пока скрипт не скачается с внешнего сервера.

Плюс это не всегда безопасно:

🔻По адресу подключения могут подменить скрипт.

🔻Если регулятор начнет блокировать часть интернета, часть функционала сайта станет недоступной.


3. Ускорьте главный элемент первого экрана.

Часто на первом экране размещают тяжелые картинки или видео.

Эти элементы требуют отдельного внимания: переводите их в современные форматы (WebP/AVIF), отдавайте браузеру правильный размер и оптимизированную версию под устройство.

Сейчас есть все возможности сделать так, чтобы дизайн не пострадал, а загрузка стала быстрее.

4. Включите кэш и сжатие для статичных файлов.

Например, для CSS/JS/картинок/шрифтов. Эти элементы не нужно перезагружать при каждом заходе — серфинг сайта будет комфортнее, а повторные посещения заметно быстрее первого.

5. Подключите CDN.

Если есть возможность, рекомендую использовать CDN: копии файлов вашего сайта размещаются на серверах, максимально приближенных к пользователю, и загрузка идет быстрее.

Этот способ особенно полезен, когда у вас недорогой хостинг с низкой скоростью: CDN компенсирует медленную отдачу статики.

Плюс CDN обычно кэширует файлы — примерно как в пункте 4, только на своей стороне.

6. Добавьте lazy-load для картинок и видео ниже первого экрана.

Ленивая загрузка подгружает изображения и видео по мере прокрутки страницы. Не нужно тянуть весь контент сразу — это уменьшает объем загрузки на старте и экономит трафик.

Важно: lazy-load не применяйте к первому экрану.

7. Смените хостинг.

Если вы сделали предыдущие 6 пунктов, а сайт все равно загружается медленно — попробуйте сменить хостинг.

Да, хостинг может быть и не при чем, но переезд обычно быстрее и дешевле, чем полный технический аудит.

Если после переезда (без изменений в коде) стало быстрее — значит, хостинг был узким местом.

8. Проверьте логи.

Сайт может работать медленно из-за нагрузки со стороны роботов: чужие парсеры, поисковые роботы (из стран, где вы не работаете), краулеры сервисов конкурентного анализа и т.д.

Проще всего — написать в поддержку хостинга.

Скажите, что сайт работает медленно, и попросите прислать частые подключения:
IP / URL / User-Agent / частоту запросов.


Дальше по списку можно блокировать лишний трафик — и нагрузка на сайт снизится.

Пишите в комментариях, какая у вас CMS (WordPress / Bitrix / Joomla или другая) — подскажу, какое комплексное решение лучше всего подойдет под вашу систему управления сайтом.
4🔥3👍2
Роботы больше не портят мне отчеты и обучение кампаний

Осенью прошлого года я начал делать сквозную аналитику для Telegram-рекламы: проверка реальности подписчиков + передача конверсий в рекламные сети.

Но там уперся в риски для пользователей:

🔻 Трафик нужно вести через мои транзитные ссылки.

🔻 Плюс добавлять моего бота администратором в канал.

Это ощущается как: “взломают канал” / “уведут часть трафика”.

В итоге от идеи я отказался.

Зато по ходу разработки у меня появился алгоритм, который достаточно точно вычисляет ботов.

Я начал использовать его на своих и клиентских проектах, чтобы:

🔻 Видеть реальный % конверсии на сайте.

🔻 Оценивать реальность трафика.

🔻 Корректировать кампании в Я.Директе.

Почему это важно:

Если в отчеты попадает роботный трафик — вы оперируете ненастоящими данными. Из-за этого падает точность ваших решений, а реклама обучается на данных с роботами, и часть бюджета уходит в роботный сегмент.

Что получилось на практике:

🔻 Я получил чистые отчеты без роботного трафика.

🔻 Стоимость конверсии в кампаниях снизилась примерно на треть, при этом объем конверсий не просел (кампании были из разных ниш, трафика и конверсий достаточно, чтобы считать данные релевантными).

Результаты подтвердили ценность решения, поэтому я начал превращать его в онлайн-сервис. Сейчас готовность — около 70–80%.

Скоро я запущу закрытый бета-тест. Если вы хотите:

🔻 Узнать реальное качество трафика на вашем сайте.

🔻 Увидеть настоящий % конверсии по источникам.

🔻 Улучшить обучение кампаний в Я.Директе.

Конкретнее: повысить эффективность маркетинга и снизить потери бюджета на роботный трафик.

— следите за каналом. Здесь будет вся информация по бета-тесту.

Бета-тестеры получат бесплатный доступ к сервису + возможность предложить улучшения под свои задачи.


Если такой сервис будет вам полезен, поставьте 👍 — это добавит мотивации и ускорит запуск.
👍53🔥2
Я проанализировал больше 1 000 000 роботных переходов из сервисов и программ по накрутке трафика. Ниже — выводы, к которым я пришел

Что показали тесты:

🔻 Большинство сервисов маскируют только user-agent и IP. Поэтому таких роботов определить легко. На входе можно отсечь примерно 70–80% роботных заходов.

🔻 Но есть и качественные решения. Из 273 параметров, которые я собирал про сеть, браузер и оборудование, роботов выдают всего 3 — все остальное маскируется идеально. Если вас качественно скликивают или накручивают, заметить это реально сложно.

🔻 Эти 3 параметра тяжело подделать из-за особенностей технологий. Но это возможно. И если строить фильтр только на них, будет много ложных срабатываний.

Вывод: 100%-й точности в определении роботов на входе сейчас добиться нельзя.

Если ставить капчи, отдельные страницы проверок и т. п., то вы почти неизбежно начнете терять реальных посетителей — их будут раздражать такие проверки.

При этом качественные роботы умеют решать большинство типов капч.

Поэтому я пошел другим путем:

Когда мы разрабатывали сервис сквозной аналитики для Telegram, я уже понимал, что чудо-способа отсечь всех ботов на входе не будет.

Поэтому в систему проверки сразу заложили 2 модуля, которые реально помогают определять роботов:

🔻 Поведение пользователя на странице, которое оценивает ИИ.

🔻 Повторяющиеся паттерны сети, оборудования и браузеров.

Как это работает на практике:

Вас скликивают качественные роботы. Они без проблем попадают на сайт, проходят фильтры, капчи и даже имитируют скроллинг/клики.

Но поведение все равно получается неестественным.

Система сравнивает поведение с нормой именно для этой страницы, оценивает вероятность роботности без усреднения и в момент визита передает данные о роботности в Я.Метрику.

Почему не использую усредненные данные в оценке посещения:

Если роботного трафика станет много, усреднение начнет считать роботов «нормой». А реальные люди будут выглядеть как отклонение. Поэтому и используется нейросеть, дообученная на большом объеме реальных посещений на тысячах разных сайтов.

Дальше, когда данных накопилось достаточно:

Система выделяет повторяющиеся паттерны сети/оборудования/браузера.

И даже если в роботов встроят нейросеть для «реального» поведения (что резко повышает стоимость накрутки и обычно становится экономически невыгодным), паттерны все равно начнут повторяться — и это начинает фиксировать система.

Сейчас детекция в сервисе идет в 3 этапа:

🔻 Конфигурация визита по 273 техническим параметрам — отсекает всех некачественных ботов.

🔻 Оценка поведения на странице с помощью ИИ — отсекает большую часть качественных ботов.

🔻 Оценка повторяющихся паттернов — добивает остатки по повторяемости профилей.

Дальше можно добавить 4-й фактор:

Когда в сервисе будет много сайтов, появится возможность находить повторяющиеся «профили» роботов и детектировать их сразу — по аналогии с антиспам- и анти-DDoS-сервисами.

Зачем вообще определять роботов:

🔻 При высокой вероятности «роботности» я блокирую фиксацию целей в Я.Метрике и не обучаю рекламу на таких лидах.

🔻 По роботному сегменту делаю корректировку показов на -100%, чем улучшаю метрики отклика.

🔻 Роботные сегменты исключаю из отчетов — и вижу реальную картину по сайтам.

Сейчас у меня уже готов кабинет, и я калибрую систему детектирования.

Калибровка идет сложно, потому что нужно учитывать:

🔻 Разные типы сайтов.

🔻 Особенности CMS/фреймворков.

🔻 Политику приватности, которая каждый год усиливается и режет часть сигналов.

Если вы связаны с маркетингом и трафиком — подписывайтесь! 🤝 Здесь пишу не только про сервис, но и про то, почему трафик не дает результата и что с этим делать на практике.
1🔥32👍2
Пост-опрос для маркетологов и тех, кто работает с трафиком

Друзья, сейчас выхожу на финальный этап разработки сервиса по контролю качества трафика, о котором писал здесь: https://t.me/yakovtsov_traffic/106.

И именно сейчас мне как никогда нужна ваша помощь по двум вопросам.

🔻1. На скриншоте вы можете видеть страницу статистики по трафику внутри сервиса.

Какие данные для вас не представляют никакой ценности? И каких данных, наоборот, не хватает?

🔻2. В сервисе предусмотрена функция «Не учитывать конверсии от роботов».

То есть если система определила посещение как бота, конверсия не будет учитываться в Яндекс Метрике и Директе.

Дополнительно рассматриваю возможность настройки порога качества.

Например: система оценивает качество перехода в 55% и не определяет его как бота.

При этом вы сами можете задать минимальный порог — допустим, 60%.

В таком случае все конверсии по визитам с качеством ниже установленного вами значения учитываться не будут.

То есть даже если визит не распознан как бот, но его качество ниже заданного порога, конверсия не засчитается.

Как считаете, нужна ли такая гибкая настройка?

Или лучше оставить простой формат — Да/Нет (учитывать только ботов)?

Ответить на вопросы можно в комментариях к посту или написать мне в личные сообщения — @yakovtsov. Буду очень благодарен за обратную связь.

Если вы маркетолог или работаете с трафиком — подписывайтесь на канал.
Здесь я пишу о том, как на практике повышать эффективность вложений в интернет-рекламу.
2🔥2👍1
Пока я дорабатывал внешний вид сервиса для контроля качества трафика, параллельно шел тест обновленной скоринговой модели.

Я учел последние изменения в приватности браузеров (особенно Safari) и технические особенности, которые удалось выявить в прошлых тестах. Задача — максимально точно отделять реальный трафик от роботного.

Делюсь результатами.

🔻Реальные данные:

Всего визитов — 31 387

Реальных — 1 653

Роботных — 29 734

🔻Результат модели:

Всего визитов — 31 387

Реальных — 1 691

Роботных — 29 696

🔻Отклонение от фактических данных:

Всего — 0%

Реальных — +2,30% (+38 визитов)

Роботных — −0,13% (−38 визитов)

Для меня такая погрешность вполне допустима. А для вас?

Подписывайтесь на канал, если вы маркетолог или работаете с трафиком — здесь я делюсь тем, как повышать отдачу от интернет-рекламы и показываю этапы разработки сервиса по определению роботного трафика.
🔥3👍21🤝1