SЕalytics (SEO-аналитика от Сергея Людкевича)
2.54K subscribers
838 photos
9 videos
2 files
3.74K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Виктория Кролл из Google признала наличие проблемы с отображением отзывов в бизнес профилях компаний:
"Мы знаем о проблеме, затрагивающей некоторые бизнес-профили Google, из-за которой некоторые профили показывают меньшее, чем фактическое, количество отзывов из-за проблемы с отображением. Сами отзывы на самом деле не были удалены. Мы прилагаем все усилия, чтобы решить эту проблему и восстановить точное количество отзывов как можно скорее. Мы ценим ваше терпение и будем делиться обновлениями в этой теме по мере их появления."
👍1
Буржуйский сеошник Кеви Индиг проанализировал более чем 7 миллионов реферальных сеансов из ChatGPT, Copilot, Gemini и Perplexity, а также из Google Search за сентябрь, октябрь и ноябрь в США, предоставленные ему сервисом Similarweb.
Его выводы:
"1. Около 80% транзакционного трафика приходится на сайты электронной коммерции, и одни и те же игроки (Amazon, eBay, Walmart) доминируют как в поиске, так и в чат-ботах на основе искусственного интеллекта.
2. Чат-боты с рефералами на основе искусственного интеллекта демонстрируют более высокую вовлеченность: в среднем они остаются на 2,3 минуты дольше (10,4 против 8,1 минуты) и просматривают больше страниц (в среднем 12,4 против 11,8 страниц).
3. Чат-боты на основе искусственного интеллекта направляют значительно больше трафика на главные страницы сайта (в среднем 22%) по сравнению с Google (10%), но при этом демонстрируют более высокую вовлеченность.
4. Copilot и Perplexity продемонстрировали более быстрый рост просмотров страниц (15% и 22%) по сравнению с Google (5%)."
😱2
BBC обнаружила, что чат-боты на основе искусственного интеллекта неспособны точно резюмировать новости:
"В ходе исследования BBC попросила ChatGPT, Copilot, Gemini и Perplexity резюмировать 100 новостных сюжетов и оценила каждый ответ.

Журналисты, являющиеся экспертами в теме статьи, должны были оценить качество ответов помощников с искусственным интеллектом.

Было установлено, что 51% всех ответов ИИ на вопросы о новостях были оценены как имеющие существенные проблемы той или иной формы.

Кроме того, в 19% ответов ИИ, в которых цитировался контент BBC, были допущены фактические ошибки, такие как неверные фактические утверждения, цифры и даты."
👍6😁2
💎 SEO-Квиз: Заключительное видео с нашего мероприятия уже доступно!

В этом видео — все самые яркие моменты и инсайты! Узнайте, что мы обсудили и какие вопросы заставили нас задуматься.

Самые сложные и интересные вопросы, которые не оставили равнодушным ни одного участника.

⚠️ Не пропустите!

VK видео
Дзен
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Видео круглого стола со членами жюри SEO-квиза от KW Group
🔥3
Свеженьких факапов от AI Overviews подвезли.
И хороший вывод:
"Похоже, что ИИ Google не просто ошибается. Он уверенно ошибается. И в мире, где дезинформация распространяется быстро, эта уверенность может стать его самым большим недостатком."
Меж тем Яндекс заменяет асессоров на искусственный интеллект. Делаем ставки – насколько повысится качество поиска? 😉
Forwarded from ML Underhood
Как в Яндексе заменили сложную разметку на LLM

В конце прошлой осени Команда качества поиска одной из первых в Яндексе смогла существенно удешевить сложную асессорскую разметку за счёт генеративной модели. Татьяна Климук, руководитель Службы исследований и качества ранжирования, рассказала, как работали над технологией.

Яндекс использует услуги тысяч асессоров, которые каждый день выполняют десятки тысяч заданий по оценке выдачи с точки зрения качества и релевантности. Это дорогой, долгий и сложный процесс.

Идея проекта в том, чтобы отдать рутинную работу по разметке сильной нейронке. При этом мы не отказываемся от асессоров, а переключаем их на разметку более важных и сложных кейсов, а также поручаем контролировать корректность работы модели.

Архитектура

Мы начали с экспериментов с базовым претрейном от YandexGPT. На вход подавали сжатую инструкцию, запрос и контент документа, на выходе получали решение о принадлежности к одной из категорий релевантности.

Однако промптинг даже SoTA-моделей пока не даёт нужного качества на нестандартных кейсах. Инструкция оказывается для них настолько сложной, что без дообучения ни одна модель не справляется с ней. Поэтому на старте получилось выжать только 55% качества асессоров.

Тогда мы сделали ряд улучшений:

— Взяли претрейн от Нейро, который лучше понимает поисковый домен и легче обучается решать поисковые задачи.
— Обучались не просто на метку класса, но и на подготовленные Chain-of-Thoughts, чтобы научить модель больше думать перед тем, как она даёт ответ.
— Добавили внешние данные — знания, необходимые для понимания контекста, которые нельзя извлечь из текста. Пример таких знаний — то, какие страницы в сети официальные, а какие — нет.
— Подавали данные для обучения в нужном порядке — от более мусорных к более качественным.

Так мы добились качества 102% относительно разметки асессоров, что уже было неплохо. Но оставался риск «сломать» Поиск — поэтому нужно было проверить модель на разных классах запросов, исключить риск деградации со временем и учесть другие нюансы.

Решение

В итоге мы придумали решение, которое использует оценку как от людей, так и от нейросети. Мы стали извлекать из неё не только ответ по инструкции, но ещё и уверенность в этом предсказании. В зависимости от степени уверенности мы принимали решение, использовать ли в задаче человеческий ресурс.

— Если модель уверена в ответе, скорее всего, задача простая и не требует помощи асессоров. С этими кейсами она нередко справляется даже лучше людей. Таких задач оказалось около половины от общей массы.
— Если модель не до конца уверена в ответе, привлекаем её вместо одного из трёх асессоров. Размер этой зоны — около 30%.
— Когда модель говорит, что совсем не уверена в решении, отдаём задачу трём сильным асессорам — как это происходит в стандартном процессе. Таких задач порядка 20%.

Результаты и планы

С помощью этого решения мы получили 105% качества и 60% экономии денег.

Мы уже используем его экспериментально в разметке обучающих и валидационных пулов для моделей ранжирования, но конечный мониторинг интегрального качества поиска пока остаётся на людях.

Планируем продолжать наращивать качество и запускаться на новых разметках. Также в долгосрочных планах — свести процесс к промптингу, когда ты не обучаешь модель, а описываешь задачу текстом. Так мы сможем более гибко менять инструкции разметок без переобучения модели.

Мы рассчитываем, что решение поможет нам перекинуть рутину на нейронки, а людям давать более интересные и сложные задачи.

ML Underhood
👍52🔥1
Оказывается, Google вставляет палки в колеса гениальным руководителям Reddit'а, и те из-за него не получили ожидаемую прибыль за четвертый квартал. Как тяжело жить... 😀
😁5
"Programmatic SEO" сайт HubPages, пылесосящий запросы на все случаи жизни, демонстрирует резкую положительную динамику в Google. Интересно, надолго?
Интересный подход к оценке рентабельности SEO поддержки от буржуйского сеошника Люка Карти – использование метрики ROAS, которой оперируют рекламщики
👍1
Гуглоиды добавили примеры и инструкции по использованию свойства priceType и нового бета-свойства validForMemberTier для кодирования активных цен, цен распродажи, зачеркнутых цен и цен участников в формате JSON-LD в документацию по структурированным данным листинга продавцов.
Хинт от гуглоида Джона Мюллера: если вы получили сообщение о проблеме в Google Search Console, но при этом не приводится ни одного примера URL-адресов, затронутых ею, смело
"можете отправить запрос на проверку, и обычно это приводит к получению большего количества/некоторых образцов URL, если проблема не была временной."
Конечно же, опытные сеошники в случае проблемы жмут на все кнопки, которые доступны, но неопытных такое может поставить в тупик 😊
😁5
Сеошники из Forbes, получившие пенальти от Google за злоупотребление репутацией, начали топить за Generative Engine Optimization (GEO) – оптимизацию под системы генеративного ИИ, называя это будущим поиска.
P.S. Теперь они, походу, – геошники. 😄
😁15👎2