noindex, nofollow
5.03K subscribers
1.36K photos
25 videos
8 files
1.83K links
Поисковые системы, SEO и все, что вокруг.
Владимир Харев находит все самое интересное у мировых экспертов, иногда делится собственными наблюдениями.
Download Telegram
было 8к, стало 0
🤯12😁8👍1
В Bing Webmaster Tools выкатили аналитику по урлам, отправленным через IndexNow.
То, чего не хватает в Яндекс Вебмастере. Не говоря уже о Гугле, который вообще этот протокол не поддержал.
В частности, добавили:
- 1000 последних отправленных урлов, включая их статус индексирования, дату первого индексирования и сведения о том, были ли они отправлены с опозданием
- список урлов, которые были обнаружены ботом, но не были отправлены через IndexNow
👍93🤯1
В Гугле встречаются массовые ручные санкции с пометкой Pure spam (чистый спам) c полной деиндексацией сайта,
а также с пометкой Misleading content (контент, вводящий в заблуждение).
👀11😁6🤯3
С международным женским днём, прекрасные девушки SEO-отрасли! Прибыльных проектов, творческой самореализации, удачных апдейтов :)
44🔥8🫡3🐳1
noindex, nofollow
Что изменилось в руководстве Search Quality Rater Guidelines в сравнении с предыдущей версией 1) страница 35, п. 4.5, добавилcя первый элемент в списке: Страницы со следующими характеристиками должны считаться недостоверными: - Многочисленные или значительные…
Если попытаться интерпретировать сегодняшнюю политику Гугла в отношении сгенерированного ИИ контента (которая поменялась со временем) с учетом начавшегося мартовского обновления, то это может выглядеть так:
Можно использовать какие угодно инструменты для создания контента, но он должен обязательно пройти проверку (ревью) человеком и не иметь фактических ошибок; массовая генерация страниц, созданных исключительно под поисковые запросы без добавленной ценности (контент+UX), рано или поздно приведет к пессимизации, а в ряде случаев к полной деиндексации сайта.
👍132
Mediavine (платформа монетизации в буржунете) в унисон с Гуглом напомнил требования к сайтам:
Мы не монетизируем низкокачественный, массово произведенный, неотредактированный или нераскрытый ИИ-контент, полученный с других сайтов.
Мы не потерпим, чтобы издатели использовали ИИ для создания непроверенных рецептов или любой другой формы некачественного контента, который обесценивает вклад законных создателей контента.
Эта политика уже включена в тщательную процедуру проверки Mediavine, которую проходят все издатели, подающие заявки на наши услуги.
Мы также разрабатываем более быстрые автоматизированные инструменты, которые помогут нам выявлять низкокачественный контент, массово производимый ИИ в сети.
Если ранее проверенные сайты начнут производить контент более низкого качества, мы увидим это и немедленно примем меры.
😁8🫡1
Если в вашем профиле Google Business указаны ссылки на страницы в соцсетях, посты оттуда могут в нем транслироваться.
Документация Гугла.
Скрин от Mike Blumenthal @ X
Я слежу за примерно 200 сайтами, пострадавшими от HCU [Helpful content update]. Большинство крупнейших неудачников по сути были стерты с лица земли Гуглом и с этим [мартовским] апдейтом ситуация становится еще хуже. Во многих случаях снижение составляет -90% или больше. Но также с этим обновлением у небольшой группы сайтов наблюдаются самые незначительные — и я имею в виду самые крошечные — положительные изменения (столбцы Gain VI и Gain % in March). В крайнем правом столбце вы можете видеть, что это все еще огромный спад от уровня до HCU. Но в случае с сайтом, улучшение которого на этой неделе составило 90%, похоже, что были внесены серьезные улучшения в контент (я обращала внимание), а также были удалены [некоторые] страницы (2-й скриншот).

Наверное, трудно поддерживать высокий моральный дух, когда общее падение составляет -97%. Но будем надеяться, что в ближайшие недели положительная динамика продолжится!

Какого типа улучшения они вносят:
Добавление достаточного количества свидетельств из личного опыта, видеороликов на YouTube, лучшего форматирования, гораздо меньше контента, ориентированного на SEO, «советов профессионалов», экспертных мнений и т. д.
via Лили Рэй @ X
👍32
Уже почувствовали первые результаты мартовского апдейта в Гугле?
Anonymous Poll
9%
в основном в плюс
17%
в основном в минус
38%
рано делать выводы
37%
хочу посмотреть результаты
Исследование Рэнда Фишкина (SparkToro) про источники трафика на сайты и долю поисковых систем в США.
Доля Bing в поиске - почти 10%, если сгруппировать bing.com с другими сайтами Microsoft с поиском.
Источник данных - Datos (панельное исследование).
👍6👀3
Лили Рэй приводит динамику видимости после первой недели мартовского апдейта (данные Sistrix).
Но делать выводы действительно очень рано и направление у каждого сайта может еще несколько раз поменяться.
Больше всего меня поражает то, что проигравшие теряют НАМНОГО большую видимость, чем приобретают самые крупные победители.
Может ли это означать, что выигрыши распределяются между гораздо большим набором доменов?
👀4
noindex, nofollow
Традиционная демагогия от гуглеров. В этот раз Дэнни Салливан говорит, что Core Web Vitals - не фактор ранжирования. Единственное, что можно добавить - не стоит уделять им слишком много внимания (не в красной зоне - и норм), пока на сайте есть что улучшать…
Google: Core Web Vitals используются нашими системами ранжирования
Гугл обновил страницу "Understanding page experience in Google Search results" (Анализ удобства страницы в результатах Google Поиска) в документации Центра Google Поиска.

Было (все еще видно в версии на русском):
Какие аспекты удобства страницы учитываются при ранжировании?
Есть много аспектов взаимодействия со страницей, некоторые из них представлены ниже на этой странице. Не все эти аспекты непосредственно определяют рейтинг, однако показатели удобства страницы влияют на него. Поэтому мы рекомендуем вам обращать внимание на все показатели.

Насколько важны показатели Core Web Vitals?
Мы настоятельно рекомендуем владельцам сайтов следить за показателями Core Web Vitals. Это не только обеспечивает успех в работе с Поиском, но и в целом повышает удобство страницы. Однако Core Web Vitals – это ещё не все важные показатели удобства страницы. Хорошие результаты в Отчете об основных интернет-показателях в Search Console или сторонней системе ещё не гарантируют высоких рейтингов.

Стало:
Какие аспекты удобства страницы учитываются при ранжировании?
Core Web Vitals используются нашими системами ранжирования. Мы рекомендуем владельцам сайтов достичь хороших основных веб-показателей [Core Web Vitals] для успеха в поиске и обеспечения хорошего пользовательского опыта в целом. Имейте в виду, что получение хороших результатов в таких отчетах, как отчет Core Web Vitals в Search Console или в сторонних инструментах, не гарантирует, что ваши страницы будут занимать верхние позиции в результатах поиска Google; отличное качество страницы — это нечто большее, чем просто показатели Core Web Vitals. Эти оценки предназначены для того, чтобы помочь вам улучшить ваш сайт для пользователей в целом, и попытка получить высший балл только по причинам SEO может оказаться не лучшим вариантом траты вашего времени.

Помимо основных веб-показателей, другие аспекты взаимодействия со страницами напрямую не помогают вашему веб-сайту занимать более высокие позиции в результатах поиска. Тем не менее, они могут сделать ваш веб-сайт более приятным в использовании, что обычно соответствует тому, что стремятся вознаградить наши системы ранжирования. Поэтому все равно стоит поработать над улучшением удобства страницы в целом.
👍4🤯41
То ли Джон Мюллер перемудрил с приколами в robots.txt (вроде не должно влиять), то ли сайт был недоступен, то ли сам словил санкции или пессимизацию :)
😁32
😁60
noindex, nofollow
То ли Джон Мюллер перемудрил с приколами в robots.txt (вроде не должно влиять), то ли сайт был недоступен, то ли сам словил санкции или пессимизацию :)
Джон прокомментировал вылет из индекса:
Я использовал инструмент Search Console, чтобы кое-что попробовать. Я могу быстро восстановиться, если нажму на правильную кнопку :-)

По всей видимости, речь про Indexing -> Removals.
И на правильную кнопку Джон уже нажал - страницы сайта вернулись в поиск.

Про необычный robots.txt:
- комментарий в первой строке - это способ обнаружить потенциальную малозаметную ошибку - двойную спецификацию UTF и в этом случае максимум, что случится - игнорирование первой строки
- disallow: /robots.txt - просто запрет сканирования файла в целях индексирования
- огромный размер файла получился вследствие тестирования различных валидаторов.

Еще Мюллер напомнил про https://www.google.com/humans.txt :)
😁2🤯2
По оценкам Raptive (продают рекламу на MacRumors, Stereogum и др.) потери рекламных доходов издательской отрасли могут составить до $2 млрд в год, если SGE (Search Generative Experience) запустится в нынешнем виде.
Они спрогнозировали снижение поискового трафика на 25% на сайты сети из 5000 изданий.

Все ли так плохо?
- дизайн блока SGE меняется на протяжении тестирования - встречается и упрощенная версия, которая уронит CTR меньше
- Гугл тестирует вкладку Web results со старыми добрыми "10 синими ссылками" без SGE
- SGE затронет не все типы запросов и некоторые типы сайтов (например, новостные) почувствуют изменения в меньшей степени, а также трафик информационных сайтов немного компенсируется Google Discover'ом
- SGE - совсем не обязательно результат без кликов по выдаче, там могут быть и ссылки на источники
- генеративный ИИ-ответ на каждый пользовательский запрос - это банально дорого и долго, экономика поиска и нынешней рекламной модели может не сойтись; использование Gemini (ex-Bard) обходится компании в 10 раз дороже, чем обычный поиск
- Гугл все еще в поисках, как адаптировать рекламу под SGE
- генеративный ИИ появился во многих продуктах Гугла и не только Гугла и это гораздо больше поменяет поведение пользователей (см. пост Лили Рэй).

Stay tuned!
👍4💯3