Как рождаются сеошные мифы.
Барри Шварц на днях в своем видеообзоре запустил утку, что гуглоид Дэнни Салливан сказал, что восстановление позиций упавшего сайта после внесения изменений может занять две недели. По факту оказалось, что было сказано не "2 weeks", а "couple of weeks", а сам Дэнни написал, что под этой "парой недель" он подразумевал отнюдь не строго две, а несколько недель, более того:
"Легким движением руки" две недели превращаются в несколько месяцев. 😊
Барри Шварц на днях в своем видеообзоре запустил утку, что гуглоид Дэнни Салливан сказал, что восстановление позиций упавшего сайта после внесения изменений может занять две недели. По факту оказалось, что было сказано не "2 weeks", а "couple of weeks", а сам Дэнни написал, что под этой "парой недель" он подразумевал отнюдь не строго две, а несколько недель, более того:
"В этом контексте я должен был сказать, что это может занять от нескольких недель до нескольких месяцев или всего несколько месяцев. Прошу прощения за это. "
"Легким движением руки" две недели превращаются в несколько месяцев. 😊
X (formerly Twitter)
Barry Schwartz (@rustybrick) on X
@MorganOMedia @Okayy_Dan @Wix @Killing_Thyme @CookWithManali @searchliaison @SummerYuleRDN @digitalcarla @Downshiftology @SourdoughBrando @shemiadhikarath @glenngabe @henryh954 @DakotaZenner @mblumenthal @thatkatieberry @AndrewGirdwood @rjbrown To be clear…
😁5👏3
Google перестал уведомлять вебмастеров о причинах удаления из поисковой базы контента, в отношении которого было использовано т.н. "право на забвение". Это случилось после того, как как шведский суд постановил, что информирование вебмастеров об исключенном из поиска контенте является нарушением конфиденциальности.
Получается какое-то право на забвение права на забвения.
Получается какое-то право на забвение права на забвения.
the Guardian
Google stops notifying publishers of ‘right to be forgotten’ removals from search results
Move comes after Swedish court rules that informing webmasters about delisted content is breach of privacy
😁5👍2
Война машин.
Google использует искусственный интеллект, чтоб обнаружить фейковый контент в отзывах о компаниях в Поиске и Google Maps. Которые, как пить дать, сгенерировал тоже искусственный интеллект.
Как страшно жить... )
Google использует искусственный интеллект, чтоб обнаружить фейковый контент в отзывах о компаниях в Поиске и Google Maps. Которые, как пить дать, сгенерировал тоже искусственный интеллект.
Как страшно жить... )
Google
How machine learning keeps contributed content helpful
Learn about our 2023 progress to keep contributed content helpful, including a new machine learning algorithm that catches more fake reviews.
😁4😢1🤨1
Немножко юмора от буржуйского сеошника Мэтта Гиббса. Кстати, что-то подобное у меня промелькнуло в голове после фееричной новости от Яндекса, что они перенесли одну страницу в другой раздел Яндекс Вебмастера. 😀
😁6
SЕalytics (Сергей Людкевич)
Немножко юмора от буржуйского сеошника Мэтта Гиббса. Кстати, что-то подобное у меня промелькнуло в голове после фееричной новости от Яндекса, что они перенесли одну страницу в другой раздел Яндекс Вебмастера. 😀
Ну, прям, как по заказу — Яндекс тестирует новый дизайн выдачи. Именно этого Яндексу сейчас не хватает для полного счастья пользователей. Накрутчиков ПФ же всех давно побороли. 😁
pr-cy.ru
Яндекс тестирует новый дизайн поисковой выдачи
Топовые результаты в нем стали заметнее.
😁7🤔2👍1
Буржуйский сеошник Гленн Гейб делится примером быстрого роста поисковой видимости в Google контента, сгенерированного ИИ (тесты показывают вероятность 98%). Да еще и с платным доступом в придачу. Поведение пользователей, говорите?
P.S. Ребята прошаренные, даже мету robots с директивой noarchive не забыли поставить, чтоб через кэш контент на халяву не смотрели.
P.S. Ребята прошаренные, даже мету robots с директивой noarchive не забыли поставить, чтоб через кэш контент на халяву не смотрели.
mas.to
Glenn Gabe (@glenngabe@mas.to)
Attached: 2 images
Some good examples in the article of content slipping through the cracks. One site is teed up to get smoked (and I'm sure they know it). They aren't hiding the fact that they use AI-generated summaries as the content. See search visibility…
Some good examples in the article of content slipping through the cracks. One site is teed up to get smoked (and I'm sure they know it). They aren't hiding the fact that they use AI-generated summaries as the content. See search visibility…
👍2😐1
Gartner прогнозирует, что объем поисковых систем упадет на 25% к 2026 году из-за чат-ботов с искусственным интеллектом и других виртуальных агентов.
Ну что, товарищи сеошники, готовы ужаться на четверть?
Ну что, товарищи сеошники, готовы ужаться на четверть?
Gartner
Gartner Predicts Search Engine Volume Will Drop 25% by 2026, Due to AI
By 2026, traditional search engine volume will drop 25%, with search marketing losing market share to AI chatbots and other virtual agents, according to Gartner, Inc. Read more here. #GartnerHT
🤔4
Буржуйский сеошник Гленн Гейб предлагает весьма оригинальный способ узнать, что юзеры думают о вашем сайте – поискать по своему доменному имени в проиндексированных Google страницах экспериментального сервиса Notes от Google Search Labs, доступного, правда, пока лишь только американцам и индусам. Будет, конечно, сильно интересней, если эту фичу расшарят на весь мир.
The Internet Marketing Driver
How to find Google Notes for your website and what those Notes could signal about quality, UX, the ad experience, and more
Glenn Gabe explains how to find Google Notes for a specific website, url, or even by topic, and what those Notes could signal about quality.
SЕalytics (Сергей Людкевич)
Ну вот и первая ласточка по разметке для поисковиков сгенерированого с помощью AI контента. Google в англоязычной версии документации ввел (пока в качестве бета-теста) метаданные для сгенерированных изображений "Digital source type"
Очередная ласточка по маркировке контента, созданного искусственным интеллектом.
Google Merchant Center обязывает:
Напрашивается распространение этих требований на Google Images.
Google Merchant Center обязывает:
"Если вы используете изображения, созданные с помощью ИИ, в Merchant Center, Google требует, чтобы вы сохранили в исходном файле изображения все теги метаданных, указывающие на то, что изображение было создано с использованием генеративного ИИ.
Не удаляйте встроенные теги метаданных, например, trainedAlgorithmicMedia из таких изображений. Все изображения, созданные искусственным интеллектом, должны содержать тег IPTC DigitalSourceType trainedAlgorithmicMedia. "
Напрашивается распространение этих требований на Google Images.
👍1
Индийский сеошник с труднопроизносимым именем обнаружил очередной эксперимент на поисковой выдаче Google – появление вкладки "Forums". Похоже, надо дать Реддиту больше трафика, а то маловато ему. 😀
И да, везет индусам на эксперименты. Не иначе как у них испытательный полигон гуглоиды устроили.
И да, везет индусам на эксперименты. Не иначе как у них испытательный полигон гуглоиды устроили.
X (formerly Twitter)
Shameem Adhikarath (@shemiadhikarath) on X
Google tests adding Forums to search menu.
@rustybrick
@rustybrick
😁1
Google объявил о начале поддержки структурированных данных вариантов продуктов типа ProductGroup микроразметки Schema.org.
Новые проверки для данного типа разметки были добавлены в отчеты раздела "Покупки" Search Console и тест расширенных результатов.
Новые проверки для данного типа разметки были добавлены в отчеты раздела "Покупки" Search Console и тест расширенных результатов.
Google for Developers
Adding structured data support for Product Variants | Google Search Central Blog | Google for Developers
Крик души редакторов мелкого буржуйского контентного сайта о том, как фейковые "списки лучших...", состряпанные на коленке по всем канонам гугловского E-E-A-T и опубликованные в крупных СМИ, забивают топы поисковой выдачи Google по "обзорным" запросам. Фейковый опыт и фейковая экспертиза вкупе с настоящими авторитетом и доверием к источнику побеждают.
HouseFresh
How Google is killing independent sites like ours - HouseFresh
And why you shouldn’t trust product reviews from big media publishers ranking at the top of Google.
😢6👍4😁1
Sistrix анализирует бешеный успех по поисковой видимости в Google, который в последней трети прошлого года продемонстрировал Reddit — платформа форумов "обо всем".
Динамика, конечно, впечатляет, но не стоит забывать о том, как сдувались подобные счастливчики типа Craiglist или Myspace.
Динамика, конечно, впечатляет, но не стоит забывать о том, как сдувались подобные счастливчики типа Craiglist или Myspace.
SISTRIX
reddit.com in organic search
Data by SISTRIX shows huge growth in click potential. The report overs the most popular subreddits, click potential, risks and competitors.
🔥3
SЕalytics (Сергей Людкевич)
Google объявил о начале поддержки структурированных данных вариантов продуктов типа ProductGroup микроразметки Schema.org. Новые проверки для данного типа разметки были добавлены в отчеты раздела "Покупки" Search Console и тест расширенных результатов.
Google также добавил в документацию рекомендации по выбору URL для страниц вариантов продукта:
"На сайтах электронной торговли часто возникает вопрос о том, как структурировать URL-адреса, когда продукт доступен в нескольких размерах или цветах. Каждая комбинация атрибутов продукта называется вариантом продукта. Чтобы помочь Google понять варианты вашего продукта, убедитесь, что каждый вариант можно идентифицировать по отдельному URL-адресу. Мы рекомендуем следующие структуры URL-адресов для вариантов продукта:
• Сегмент пути, например/t-shirt/green
• Параметр запроса, например/t-shirt?color=green
...
Если вы используете дополнительные параметры запроса для определения вариантов, используйте URL-адрес без параметра запроса в качестве канонического. Это может помочь Google понять взаимосвязь между вариантами продукта."
Google for Developers
Ecommerce URL Structure Best Practices | Google Search Central | Documentation | Google for Developers
Learn how you can design a URL structure for your ecommerce website and best practices to help Google efficiently locate and retrieve your web pages.
👍3
Вышел 69-й выпуск подкаста Google Search Off the Records, в котором менеджер по поддержке продукта Аасиш Марина рассказывает Джону Мюллеру и Лиззи Сассман о своей нелегкой работе. А работа менеджеров по поддержке действительно нелегка — на вопросы пользователей на форуме о продукте отвечать не надо, за них это делают такие же пользователи, которым дали лычки экспертов по продукту. Но самое интересное не это, а то, что гуглоиды в своей беседе открытым текстом объявили, что PBN — это спам:
Как мило.
"Мой друг Дьюи из команды Webspam любит слушать о таких вещах."
Как мило.
YouTube
Search Central Product Experts
In this episode of Search Off The Record, John Mueller and Lizzi Sassman sit down with Aaseesh Marina, Product Support Manager, to discuss the Search Central community forums. Did you know there is a group of Product Experts and community members that can…
Дельное замечание от гуглоида Джона Мюллера:
Таки да, если рендеринг что-то меняет в исходном коде, то в закэшированной сохраненке вы этого не увидите. Всегда надо это иметь в виду при анализе.
"Кэшированная страница отличается от рендеринга, они не взаимозаменяемы. Если вам нужно протестировать рендеринг, вам следует использовать инструмент проверки URL-адресов, даже если вы можете просмотреть кешированную страницу."
Таки да, если рендеринг что-то меняет в исходном коде, то в закэшированной сохраненке вы этого не увидите. Всегда надо это иметь в виду при анализе.
X (formerly Twitter)
John (@JohnMu) on X
@robdwoods @searchliaison The cached page is different from rendering, they're not interchangeable. If you need to test rendering, you should use the URL inspection tool, even if you could look at the cached page.
👍3
Очередное исследование корреляций различных сигналов у победителей и проигравших в последних апдейтах Google.
Результаты весьма любопытны. Так, например, наибольшую корреляцию у победителей показали сайты, которые использовали большое количество местоимений от первого лица и не использовали стоковые изображения.
А у проигравших – сайты, которые сочетали в себе фиксированную рекламу в нижнем колонтитуле, прокручиваемое видео и отсутствие личного опыта.
Исследователи предсмотрительно выставили дисклеймер:
Результаты весьма любопытны. Так, например, наибольшую корреляцию у победителей показали сайты, которые использовали большое количество местоимений от первого лица и не использовали стоковые изображения.
А у проигравших – сайты, которые сочетали в себе фиксированную рекламу в нижнем колонтитуле, прокручиваемое видео и отсутствие личного опыта.
Исследователи предсмотрительно выставили дисклеймер:
"1. Хотя включенные данные представляют собой хороший срез Интернета, это очень небольшой размер выборки. Ко всем подобным исследованиям следует относиться с недоверием.
2. В исследовании предпринята попытка выявить особенности, связанные с выигравшими и проигравшими сайтами. Важно отметить, что это не факторы ранжирования, и никто на это не претендует. Хотя алгоритмы машинного обучения Google могут связывать эти функции с «качеством» или другими факторами ранжирования, мы просто не можем утверждать это наверняка.
3. Важно отметить, что корреляция не является причинно-следственной связью."
Zyppy Marketing
Winning & Losing Big Google Updates: 50-Site Case Study
What on-page factors are associated with sites that see big gains or declines after Google updates? Turns out it’s not author boxes. Throughout
🔥5👍1
Гуглоид Дэнни Салливан подтвердил наличие ошибки в запросах с оператором отрицания в Google Shopping.
X (formerly Twitter)
Google SearchLiaison (@searchliaison) on X
@drw Thanks, yeah -- we want it to be working there again because of exactly this situation, when you need to say "no, but not that thing." Hopefully won't be too much longer.
Гуглоид Джон Мюллер рекомендует не запрещать дубли страниц с utm-метками в URL от сканирования в файле robots.txt, а использовать директиву canonical, ведущую на исходную страницу.
Целиком и полностью с ним согласен, т.к. в этом случае произойдет консолидация внешних факторов на канонической странице. А если, вы, к примеру, даете контекстную рекламу в Директе, где utm-метка yclid обязательна, запрещение страниц с utm-метками в robots.txt просто оставит весь трафик из Директа за бортом учета поведенческих факторов алгоритмом ранжирования. Единственный минус заключается в том, что в случае наличия динамического контента на странице поисковик может проигнорировать canonical, т.к. полученные в разные моменты копии страницы с utm-метками и без могут отличаться. Поэтому в Яндексе на этот случай очень полезна директива Clean-param для файла robots.txt. Для Google аналога на данный момент, увы, нет. Инструмент "Параметры URL" в Google Search Console почил в бозе два года назад.
Целиком и полностью с ним согласен, т.к. в этом случае произойдет консолидация внешних факторов на канонической странице. А если, вы, к примеру, даете контекстную рекламу в Директе, где utm-метка yclid обязательна, запрещение страниц с utm-метками в robots.txt просто оставит весь трафик из Директа за бортом учета поведенческих факторов алгоритмом ранжирования. Единственный минус заключается в том, что в случае наличия динамического контента на странице поисковик может проигнорировать canonical, т.к. полученные в разные моменты копии страницы с utm-метками и без могут отличаться. Поэтому в Яндексе на этот случай очень полезна директива Clean-param для файла robots.txt. Для Google аналога на данный момент, увы, нет. Инструмент "Параметры URL" в Google Search Console почил в бозе два года назад.
Reddit
johnmu's comment on "Disallowing utm urls"
Explore this conversation and more from the TechSEO community
👍8
Reddit заключил сделку с Google, согласно которой будет получать 60 миллионов долларов США за предоставление права использовать свой контент для обучения искусственного интеллекта. А бонус в поисковом трафике, я так понимаю, идет прицепом. Операция "Скрытые жемчужины". 😀
WinBuzzer
Reddit Secures a $60 Million AI Training Content Deal with Google - WinBuzzer
Google pays Reddit $60 million to train AI with its vast user data. Reddit seeks new revenue, Google boosts AI with diverse content.
😁8