Буржуйский сеошник Кеви Индиг проанализировал более чем 7 миллионов реферальных сеансов из ChatGPT, Copilot, Gemini и Perplexity, а также из Google Search за сентябрь, октябрь и ноябрь в США, предоставленные ему сервисом Similarweb.
Его выводы:
Его выводы:
"1. Около 80% транзакционного трафика приходится на сайты электронной коммерции, и одни и те же игроки (Amazon, eBay, Walmart) доминируют как в поиске, так и в чат-ботах на основе искусственного интеллекта.
2. Чат-боты с рефералами на основе искусственного интеллекта демонстрируют более высокую вовлеченность: в среднем они остаются на 2,3 минуты дольше (10,4 против 8,1 минуты) и просматривают больше страниц (в среднем 12,4 против 11,8 страниц).
3. Чат-боты на основе искусственного интеллекта направляют значительно больше трафика на главные страницы сайта (в среднем 22%) по сравнению с Google (10%), но при этом демонстрируют более высокую вовлеченность.
4. Copilot и Perplexity продемонстрировали более быстрый рост просмотров страниц (15% и 22%) по сравнению с Google (5%)."
Search Engine Journal
Transactional AI Traffic: A Study Of Over 7 Million Sessions
Data shows AI chatbot traffic engages more and converts better than traditional search. What does it mean for your SEO strategy?
😱2
BBC обнаружила, что чат-боты на основе искусственного интеллекта неспособны точно резюмировать новости:
"В ходе исследования BBC попросила ChatGPT, Copilot, Gemini и Perplexity резюмировать 100 новостных сюжетов и оценила каждый ответ.
Журналисты, являющиеся экспертами в теме статьи, должны были оценить качество ответов помощников с искусственным интеллектом.
Было установлено, что 51% всех ответов ИИ на вопросы о новостях были оценены как имеющие существенные проблемы той или иной формы.
Кроме того, в 19% ответов ИИ, в которых цитировался контент BBC, были допущены фактические ошибки, такие как неверные фактические утверждения, цифры и даты."
Bbc
AI chatbots unable to accurately summarise news, BBC finds
The BBC's head of news and current affairs says the developers of the tools are "playing with fire."
👍6😁2
Буржуйская сеошница Алейда Солис сигнализирует, что сервис SimilarWeb добавил в отчеты по ключевым словам фильтр по AI Overviews.
Полезная фича.
Полезная фича.
X (formerly Twitter)
Aleyda Solis 🕊️ (@aleyda) on X
A heads up of a useful new feature to help you assess the AI Overviews impact for any group of sites together (eg. your own vs main competitors), the impacted queries and pages with @Similarweb Keywords related reports that now has an AIO's filter, in this…
Forwarded from КручуВерчу 🤟 SEODEN
В этом видео — все самые яркие моменты и инсайты! Узнайте, что мы обсудили и какие вопросы заставили нас задуматься.
Самые сложные и интересные вопросы, которые не оставили равнодушным ни одного участника.
VK видео
Дзен
Please open Telegram to view this post
VIEW IN TELEGRAM
VK Видео
Круглый стол "Продвижение в Google"
Заключительный видеоролик с нашего мероприятия, которое прошло 24 января 2025 года. Обсуждаем вопросы, которые потребовали особого внимания на Квизе, рассуждаем, учимся вместе!
🔥1
Видео круглого стола со членами жюри SEO-квиза от KW Group
🔥3
Свеженьких факапов от AI Overviews подвезли.
И хороший вывод:
И хороший вывод:
"Похоже, что ИИ Google не просто ошибается. Он уверенно ошибается. И в мире, где дезинформация распространяется быстро, эта уверенность может стать его самым большим недостатком."
TechIssuesToday.com
Cockroaches, hot cars & WWII: Google AI’s biggest facepalms
WWII in 1986? Cockroaches in penises? Google AI’s viral Reddit blunders mix laughs with danger. Spoiler: AI isn’t ready for prime time.
Меж тем Яндекс заменяет асессоров на искусственный интеллект. Делаем ставки – насколько повысится качество поиска? 😉
Forwarded from ML Underhood
Как в Яндексе заменили сложную разметку на LLM
В конце прошлой осени Команда качества поиска одной из первых в Яндексе смогла существенно удешевить сложную асессорскую разметку за счёт генеративной модели. Татьяна Климук, руководитель Службы исследований и качества ранжирования, рассказала, как работали над технологией.
Яндекс использует услуги тысяч асессоров, которые каждый день выполняют десятки тысяч заданий по оценке выдачи с точки зрения качества и релевантности. Это дорогой, долгий и сложный процесс.
Идея проекта в том, чтобы отдать рутинную работу по разметке сильной нейронке. При этом мы не отказываемся от асессоров, а переключаем их на разметку более важных и сложных кейсов, а также поручаем контролировать корректность работы модели.
Архитектура
Мы начали с экспериментов с базовым претрейном от YandexGPT. На вход подавали сжатую инструкцию, запрос и контент документа, на выходе получали решение о принадлежности к одной из категорий релевантности.
Однако промптинг даже SoTA-моделей пока не даёт нужного качества на нестандартных кейсах. Инструкция оказывается для них настолько сложной, что без дообучения ни одна модель не справляется с ней. Поэтому на старте получилось выжать только 55% качества асессоров.
Тогда мы сделали ряд улучшений:
— Взяли претрейн от Нейро, который лучше понимает поисковый домен и легче обучается решать поисковые задачи.
— Обучались не просто на метку класса, но и на подготовленные Chain-of-Thoughts, чтобы научить модель больше думать перед тем, как она даёт ответ.
— Добавили внешние данные — знания, необходимые для понимания контекста, которые нельзя извлечь из текста. Пример таких знаний — то, какие страницы в сети официальные, а какие — нет.
— Подавали данные для обучения в нужном порядке — от более мусорных к более качественным.
Так мы добились качества 102% относительно разметки асессоров, что уже было неплохо. Но оставался риск «сломать» Поиск — поэтому нужно было проверить модель на разных классах запросов, исключить риск деградации со временем и учесть другие нюансы.
Решение
В итоге мы придумали решение, которое использует оценку как от людей, так и от нейросети. Мы стали извлекать из неё не только ответ по инструкции, но ещё и уверенность в этом предсказании. В зависимости от степени уверенности мы принимали решение, использовать ли в задаче человеческий ресурс.
— Если модель уверена в ответе, скорее всего, задача простая и не требует помощи асессоров. С этими кейсами она нередко справляется даже лучше людей. Таких задач оказалось около половины от общей массы.
— Если модель не до конца уверена в ответе, привлекаем её вместо одного из трёх асессоров. Размер этой зоны — около 30%.
— Когда модель говорит, что совсем не уверена в решении, отдаём задачу трём сильным асессорам — как это происходит в стандартном процессе. Таких задач порядка 20%.
Результаты и планы
С помощью этого решения мы получили 105% качества и 60% экономии денег.
Мы уже используем его экспериментально в разметке обучающих и валидационных пулов для моделей ранжирования, но конечный мониторинг интегрального качества поиска пока остаётся на людях.
Планируем продолжать наращивать качество и запускаться на новых разметках. Также в долгосрочных планах — свести процесс к промптингу, когда ты не обучаешь модель, а описываешь задачу текстом. Так мы сможем более гибко менять инструкции разметок без переобучения модели.
Мы рассчитываем, что решение поможет нам перекинуть рутину на нейронки, а людям давать более интересные и сложные задачи.
ML Underhood
В конце прошлой осени Команда качества поиска одной из первых в Яндексе смогла существенно удешевить сложную асессорскую разметку за счёт генеративной модели. Татьяна Климук, руководитель Службы исследований и качества ранжирования, рассказала, как работали над технологией.
Яндекс использует услуги тысяч асессоров, которые каждый день выполняют десятки тысяч заданий по оценке выдачи с точки зрения качества и релевантности. Это дорогой, долгий и сложный процесс.
Идея проекта в том, чтобы отдать рутинную работу по разметке сильной нейронке. При этом мы не отказываемся от асессоров, а переключаем их на разметку более важных и сложных кейсов, а также поручаем контролировать корректность работы модели.
Архитектура
Мы начали с экспериментов с базовым претрейном от YandexGPT. На вход подавали сжатую инструкцию, запрос и контент документа, на выходе получали решение о принадлежности к одной из категорий релевантности.
Однако промптинг даже SoTA-моделей пока не даёт нужного качества на нестандартных кейсах. Инструкция оказывается для них настолько сложной, что без дообучения ни одна модель не справляется с ней. Поэтому на старте получилось выжать только 55% качества асессоров.
Тогда мы сделали ряд улучшений:
— Взяли претрейн от Нейро, который лучше понимает поисковый домен и легче обучается решать поисковые задачи.
— Обучались не просто на метку класса, но и на подготовленные Chain-of-Thoughts, чтобы научить модель больше думать перед тем, как она даёт ответ.
— Добавили внешние данные — знания, необходимые для понимания контекста, которые нельзя извлечь из текста. Пример таких знаний — то, какие страницы в сети официальные, а какие — нет.
— Подавали данные для обучения в нужном порядке — от более мусорных к более качественным.
Так мы добились качества 102% относительно разметки асессоров, что уже было неплохо. Но оставался риск «сломать» Поиск — поэтому нужно было проверить модель на разных классах запросов, исключить риск деградации со временем и учесть другие нюансы.
Решение
В итоге мы придумали решение, которое использует оценку как от людей, так и от нейросети. Мы стали извлекать из неё не только ответ по инструкции, но ещё и уверенность в этом предсказании. В зависимости от степени уверенности мы принимали решение, использовать ли в задаче человеческий ресурс.
— Если модель уверена в ответе, скорее всего, задача простая и не требует помощи асессоров. С этими кейсами она нередко справляется даже лучше людей. Таких задач оказалось около половины от общей массы.
— Если модель не до конца уверена в ответе, привлекаем её вместо одного из трёх асессоров. Размер этой зоны — около 30%.
— Когда модель говорит, что совсем не уверена в решении, отдаём задачу трём сильным асессорам — как это происходит в стандартном процессе. Таких задач порядка 20%.
Результаты и планы
С помощью этого решения мы получили 105% качества и 60% экономии денег.
Мы уже используем его экспериментально в разметке обучающих и валидационных пулов для моделей ранжирования, но конечный мониторинг интегрального качества поиска пока остаётся на людях.
Планируем продолжать наращивать качество и запускаться на новых разметках. Также в долгосрочных планах — свести процесс к промптингу, когда ты не обучаешь модель, а описываешь задачу текстом. Так мы сможем более гибко менять инструкции разметок без переобучения модели.
Мы рассчитываем, что решение поможет нам перекинуть рутину на нейронки, а людям давать более интересные и сложные задачи.
ML Underhood
👍5❤2🔥1
Любопытный факт:
"Юрист Google утверждает, что менее 1% просмотров на YouTube поступает со ссылок поиска."
Android Authority
Search plays almost no role in YouTube's massive viewership, Google claims
A lawyer representing Google in federal court claims that Search links are responsible for roughly less than 1% of YouTube's viewership.
Начинают поступать сигналы от буржуйских сеошников, что Google стал ограничивать поисковый трафик с изображений, сгенерированных ИИ.
Linkedin
SEO Tip - If you're getting traffic from AI generated images, you might get hammered soon (if you didn't already)
The chart below…
The chart below…
SEO Tip - If you're getting traffic from AI generated images, you might get hammered soon (if you didn't already)
The chart below shows Web vs Image for our video game Animal Matchup, and the image traffic (which comes from our AI images) just took a big…
The chart below shows Web vs Image for our video game Animal Matchup, and the image traffic (which comes from our AI images) just took a big…
👍4
Руководство по генерации разметки JSON-LD в больших масштабах с помощью фрагментов JavaScript от Screaming Frog.
Screaming Frog
Generate JSON-LD Schema at Scale With JavaScript Snippets - Screaming Frog
This tutorial shows how to leverage the Screaming Frog SEO Spider’s recently released custom JavaScript functionality to create JSON-LD schema markup at scale. With a small amount of code, I will demonstrate how to extract elements from a webpage and integrate…
👎2🔥2
Оказывается, Google вставляет палки в колеса гениальным руководителям Reddit'а, и те из-за него не получили ожидаемую прибыль за четвертый квартал. Как тяжело жить... 😀
CNBC
Reddit shares plunge after Google algorithm change contributes to miss in user numbers
Reddit reported better-than-expected results, but the company issued disappointing user numbers.
😁5
"Programmatic SEO" сайт HubPages, пылесосящий запросы на все случаи жизни, демонстрирует резкую положительную динамику в Google. Интересно, надолго?
Список поисковых краулеров и пользовательских агентов на базе ИИ.
Если кому надо.
Если кому надо.
Momentic
List of Top AI Search Crawlers & User Agents (April 2025) | Momentic
A list of AI search crawlers and how to verify they can access your website. Includes a validation tool and example robots.txt configurations.
SEOMigrator — автоматизированный инструмент сопоставления URL-адресов для миграции сайта.
SEOMigrator
Automated URL Mapping Tool For SEO Migrations | SEOMigrator
A powerful tool that helps you map and match URLs during website migrations, making the process faster and more efficient with intelligent URL matching algorithms.
👍7
Интересный подход к оценке рентабельности SEO поддержки от буржуйского сеошника Люка Карти – использование метрики ROAS, которой оперируют рекламщики
Ecommerce Consultant
How to get ROAS for Ecommerce SEO using Google Analytics - Ecommerce Consultant
The way that most SEOs report on performance is outdated. Using GA4 audiences we're able to report on SEO performance in the same way as PPC
👍1
Гуглоиды добавили примеры и инструкции по использованию свойства priceType и нового бета-свойства validForMemberTier для кодирования активных цен, цен распродажи, зачеркнутых цен и цен участников в формате JSON-LD в документацию по структурированным данным листинга продавцов.
Google for Developers
How To Add Merchant Listing Structured Data | Google Search Central | Documentation | Google for Developers
Discover how you can add merchant listing structured data to attract potential buyers while they are searching for items to purchase on Google.
Хинт от гуглоида Джона Мюллера: если вы получили сообщение о проблеме в Google Search Console, но при этом не приводится ни одного примера URL-адресов, затронутых ею, смело
"можете отправить запрос на проверку, и обычно это приводит к получению большего количества/некоторых образцов URL, если проблема не была временной."Конечно же, опытные сеошники в случае проблемы жмут на все кнопки, которые доступны, но неопытных такое может поставить в тупик 😊
Bluesky Social
John Mueller (@johnmu.com)
Depending on the type of issue, that can happen. You can always submit a review request, and usually that results in getting more/some sample URLs, if the issue was not temporary.
😁5
Сеошники из Forbes, получившие пенальти от Google за злоупотребление репутацией, начали топить за Generative Engine Optimization (GEO) – оптимизацию под системы генеративного ИИ, называя это будущим поиска.
P.S. Теперь они, походу, – геошники. 😄
P.S. Теперь они, походу, – геошники. 😄
😁15👎2
P.P.S. Тимлид наставляет сеошника-джуниора: "Будешь плохо сеошить – станешь геошником" 😄
🤔7😁6👎2