Рост трафика из Алисы
Посмотрел на разных типах проектов (b2b / b2c / info) в их Яндекс Метрику — сколько трафика дают различные LLM. Анализировал проекты от 10 000 визитов в сутки. Везде одна и та же картинка - роста трафика с alice.yandex.ru до уровня chatGPT (минимум). Теперь уже очевидно что тренд будет продолжен, и Алиса станет основным ИИ-окном для задавания вопросов у россиян.
Сам трафик пока что не большой — до нескольких тысяч переходов в месяц. В том числе на проектах с посещаемостью больше 500к в сутки из поиска.
UPD: Речь не про колонку Алиса, а именно про ИИ-ассистент alice.yandex.ru
Посмотрел на разных типах проектов (b2b / b2c / info) в их Яндекс Метрику — сколько трафика дают различные LLM. Анализировал проекты от 10 000 визитов в сутки. Везде одна и та же картинка - роста трафика с alice.yandex.ru до уровня chatGPT (минимум). Теперь уже очевидно что тренд будет продолжен, и Алиса станет основным ИИ-окном для задавания вопросов у россиян.
Сам трафик пока что не большой — до нескольких тысяч переходов в месяц. В том числе на проектах с посещаемостью больше 500к в сутки из поиска.
UPD: Речь не про колонку Алиса, а именно про ИИ-ассистент alice.yandex.ru
⚡️"Спустили" $1516 на chatGPT в августе
Речь конечно же про API которое мы активно используем для обработки семантических ядер в рамках Yadro.io.
Понимаю, что такие траты не типичны не то что для SEO-команд, а в целом для ИТ. Поэтому вот несколько тезисов по нашему опыту имплементации ИИ в рабочие процессы:
— У каждого SEO-специалиста работающего в Yadro.io есть свой API-ключ;
— Он может тратить столько денег на обработку данных через API сколько посчитает нужным. Иногда созваниваемся чтобы обсудить идеи по «бережливому» составлению промптов.
— У нас есть своя библиотека промптов под разные типы задач. В ней уже 50+ шаблонов. Пока что всё хранится в виде обычных txt файлов.
— Учет не ведётся. Ребята лишь пишут мне когда нужно пополнить баланс — моя задача сделать это как можно скорее так как..
— В день делается несколько десятков тысяч запросов к API. В рабочие часы работает сразу несколько задач. Запросы делаются в 70-150 потоков.
— У нас уже давно подписка самого высокого уровня на openAI (tier-5) и в Anthropic (tier-4). Без такого уровня подписки невозможно отправлять большое количество одновременных запросов.
— Обработка происходит с помощью собственных инструментов. Нужно лишь вставить свой API-ключ и промпт.
— Anthropic очень ограничен по сравнению OpenAI относительно одновременного кол-ва выполняемых запросов - потоков, из за чего задачи выполняются сильно медленнее. 98% задач закрываем через openAI.
— gpt5 сильно прибавила в качестве на задачах обработки семантики, относительно моделей 4.1 и 4o (которые мы использовали ранее). На gpt5 добровольно перешли все специалисты и возвращение к старым моделям видят как большой шаг назад в качестве :)
Речь конечно же про API которое мы активно используем для обработки семантических ядер в рамках Yadro.io.
Понимаю, что такие траты не типичны не то что для SEO-команд, а в целом для ИТ. Поэтому вот несколько тезисов по нашему опыту имплементации ИИ в рабочие процессы:
— У каждого SEO-специалиста работающего в Yadro.io есть свой API-ключ;
— Он может тратить столько денег на обработку данных через API сколько посчитает нужным. Иногда созваниваемся чтобы обсудить идеи по «бережливому» составлению промптов.
— У нас есть своя библиотека промптов под разные типы задач. В ней уже 50+ шаблонов. Пока что всё хранится в виде обычных txt файлов.
— Учет не ведётся. Ребята лишь пишут мне когда нужно пополнить баланс — моя задача сделать это как можно скорее так как..
— В день делается несколько десятков тысяч запросов к API. В рабочие часы работает сразу несколько задач. Запросы делаются в 70-150 потоков.
— У нас уже давно подписка самого высокого уровня на openAI (tier-5) и в Anthropic (tier-4). Без такого уровня подписки невозможно отправлять большое количество одновременных запросов.
— Обработка происходит с помощью собственных инструментов. Нужно лишь вставить свой API-ключ и промпт.
— Anthropic очень ограничен по сравнению OpenAI относительно одновременного кол-ва выполняемых запросов - потоков, из за чего задачи выполняются сильно медленнее. 98% задач закрываем через openAI.
— gpt5 сильно прибавила в качестве на задачах обработки семантики, относительно моделей 4.1 и 4o (которые мы использовали ранее). На gpt5 добровольно перешли все специалисты и возвращение к старым моделям видят как большой шаг назад в качестве :)
В последнее время несколько раз в дискуссиях с SEO-шниками проскакивало — а как вы проверяете частотность для запросов больше 7 слов?
Мы все как то привыкли, и у нас это плотно отложилось в голове, что в wordstat можно чекать частотность максимум только для 7 слов.
Однако сейчас можно проверять частотность для фраз длинной до 12 слов...
Мы все как то привыкли, и у нас это плотно отложилось в голове, что в wordstat можно чекать частотность максимум только для 7 слов.
Однако сейчас можно проверять частотность для фраз длинной до 12 слов...
Залетел вчера на уже традиционное мероприятие Dataforce/Seowork на котором ребята презентовали новый функционал.
Теперь SeoWork это часть системы DataForce. Всё осталось в рамках той же компании и SeoWork это модули по мониторингу органической выдачи.
В рамках DataForce же теперь можно мониторить другие элементы SERP которые становятся очень важны для бизнеса - контекстную рекламу, ДМП, ИИ ответы и чаты.
В Seowork появился мониторинг присутствия во всех блоках выдачи (товары, ИИ, ДМП и пр.) и доступ к объединенным данным из вебмастеров Яндекс/Google и Метрики за 3 года.
Обсуждал с Стасом отдельно историю с ДМП + он активно про это говорил на вчерашнем мероприятии и последнем Optimization. По прогнозам DataForce ДМП "съедят" от 50 до 80 процентов органики в коммерческих тематиках. Поэтому если ещё не тестировали - самое время начинать.
Теперь SeoWork это часть системы DataForce. Всё осталось в рамках той же компании и SeoWork это модули по мониторингу органической выдачи.
В рамках DataForce же теперь можно мониторить другие элементы SERP которые становятся очень важны для бизнеса - контекстную рекламу, ДМП, ИИ ответы и чаты.
В Seowork появился мониторинг присутствия во всех блоках выдачи (товары, ИИ, ДМП и пр.) и доступ к объединенным данным из вебмастеров Яндекс/Google и Метрики за 3 года.
Обсуждал с Стасом отдельно историю с ДМП + он активно про это говорил на вчерашнем мероприятии и последнем Optimization. По прогнозам DataForce ДМП "съедят" от 50 до 80 процентов органики в коммерческих тематиках. Поэтому если ещё не тестировали - самое время начинать.
Media is too big
VIEW IN TELEGRAM
Фрагмент интервью (vk и youtube) в котором я рассказываю о том как я придумал и создал сервис MyDrop.io / особенно актуально в эпоху когда PBN на новом и генерированном контенте не то что не работают, а просто сваливают продвигаемый сайт в Пингвин через какое то время!
В последние несколько месяцев снова погрузились с командой в домены и PBN, изучали что делают на рынке на основе всех доменов которые проходили через аукцион и MyDrop.io. Скоро поделюсь интересной аналитикой...
В последние несколько месяцев снова погрузились с командой в домены и PBN, изучали что делают на рынке на основе всех доменов которые проходили через аукцион и MyDrop.io. Скоро поделюсь интересной аналитикой...
29 ноября встречаемся на SEO CLUB SPB
Еду в Санкт-Петербург — выступить с докладом, и потом пообщаться с питерскими сеошниками и читателями данного канальчика!
Хочу пробежаться по основным методам/тенденциям которые помогут в продвижении вашего проекта. Не будем заострять внимание на чём то одном — рассмотрим всё самое горячее, а затем если нужно подробности обсудим в кулуарах и афте-пати (говорят он будет вечером и затем на второй день, планирую остаться!).
Все подробности по ссылке - https://seoclubspb.ru
Еду в Санкт-Петербург — выступить с докладом, и потом пообщаться с питерскими сеошниками и читателями данного канальчика!
Хочу пробежаться по основным методам/тенденциям которые помогут в продвижении вашего проекта. Не будем заострять внимание на чём то одном — рассмотрим всё самое горячее, а затем если нужно подробности обсудим в кулуарах и афте-пати (говорят он будет вечером и затем на второй день, планирую остаться!).
Все подробности по ссылке - https://seoclubspb.ru
Forwarded from MarketTwits
Лидер-борд с верифицированной выручкой стартапов - TrustMRR.com
Интересный сервис, который позволяет увидеть сколько зарабатывают те или иные стартапы и SaaS-сервисы (в том числе SEO-шные) в режиме реального времени. Статистика по каждому проекту "тянется" из платёжного сервиса Stripe по API.
Идея сервиса возникла из за большого количества скриншотов с поддельными цифрами с помощью которых "умельцы" начали раскручивать свои twitter-аккаунты. Аккаунты создателей таких сервисов с хорошим доходом привлекают приличную аудиторию и новых клиентов в эти же сервисы.
Что интересно, примерно через 2 недели после релиза trustMrr.com, сервис Stripe добавил возможность "шарить" показатели своего аккаунта в виде выручки для верификации этих цифр.
Интересный сервис, который позволяет увидеть сколько зарабатывают те или иные стартапы и SaaS-сервисы (в том числе SEO-шные) в режиме реального времени. Статистика по каждому проекту "тянется" из платёжного сервиса Stripe по API.
Идея сервиса возникла из за большого количества скриншотов с поддельными цифрами с помощью которых "умельцы" начали раскручивать свои twitter-аккаунты. Аккаунты создателей таких сервисов с хорошим доходом привлекают приличную аудиторию и новых клиентов в эти же сервисы.
Что интересно, примерно через 2 недели после релиза trustMrr.com, сервис Stripe добавил возможность "шарить" показатели своего аккаунта в виде выручки для верификации этих цифр.
Как быстро и сколько может зарабатывать ваш SaaS-сервис?
График на основе данных из trustmrr.com (из предыдущего поста) - по оси X возраст онлайн-сервиса, по оси Y - месячная выручка. Отклонения и всплески - редки. Путь к нормальной выручке это месяцы и годы упорного труда.
При просмотре графика нужно также держать в голове, что это 1-3% сервисов которые вообще дошли до выручки. Больше 95% онлайн сервисов не зарабатывают ничего.
График на основе данных из trustmrr.com (из предыдущего поста) - по оси X возраст онлайн-сервиса, по оси Y - месячная выручка. Отклонения и всплески - редки. Путь к нормальной выручке это месяцы и годы упорного труда.
При просмотре графика нужно также держать в голове, что это 1-3% сервисов которые вообще дошли до выручки. Больше 95% онлайн сервисов не зарабатывают ничего.
Автоматический скоринг статей/страниц на E-E-A-T с помощью Screaming Frog и OpenAI API
Интересный кейс по использованию связки инструментов. Позволяет оценить HTML-код или текст страниц на различные факторы с помощью промптов. Реализовано без единой строчки кода.
1. На вход в Screaming Frog подаётся список страниц.
2. Каждая страница с помощью LLM (в данном случает gpt-5-mini) оценивается по нескольким параметрам E-E-A-T.
3. Составляется единая таблица с скоринг-моделью, через которую можно понять - какие статьи "проседают" и составить приоритет работ по улучшению качества.
Автор также приложил в виде отдельного файла конфиг для Screaming Frog и все промпты.
Интересный кейс по использованию связки инструментов. Позволяет оценить HTML-код или текст страниц на различные факторы с помощью промптов. Реализовано без единой строчки кода.
1. На вход в Screaming Frog подаётся список страниц.
2. Каждая страница с помощью LLM (в данном случает gpt-5-mini) оценивается по нескольким параметрам E-E-A-T.
3. Составляется единая таблица с скоринг-моделью, через которую можно понять - какие статьи "проседают" и составить приоритет работ по улучшению качества.
Автор также приложил в виде отдельного файла конфиг для Screaming Frog и все промпты.