SЕalytics (Сергей Людкевич)
2.5K subscribers
790 photos
9 videos
2 files
3.55K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Буржуйский сеошник Марк Уильямс-Кук обнаружил в Google дырку, которая позволяла ему, с его слов, "видеть некоторые переменные для веб-сайтов, включая закрытые метрики, используемые для ранжирования". Он отправил эту информацию в Google Bug Bounty и получил премию в $13к+, которую собирается отдать на благотворительность.
Странные какие-то в Буржуинии сеошники. Нашёл дырку — сиди, тихо пользуйся. И другим не мешай, возможно, не один ты её нашёл.
Хотя, впрочем, я знаю один случай, когда наш сеошник сдал одну очень зачетную дырку яндексоидам. Но просто он устраивался туда на работу. В итоге таки он устроился. А вот дырку было очень жалко.
👍6😁5🤔1
Блин, я думал в буржуйских сеошных СМИ грамотные спецы работают, а, оказывается, ни фига подобного. Роджер Монтти из SearchEngineJournal, разбирая файл robots.txt персонального сайта Джона Мюллера, обнаружил в секции user-agent: * директиву disallow: / и решил, что именно она была причиной выпадения сайта Джона Мюллера из индекса Google. И ещё недоумевает — почему же Bing его индексирует? Да ещё и "эксперта" привлек, который предположил, что краулер Бинга давно не посещал сайт и типа не видел этой директивы.
А ларчик просто открывался: дело в том, что для Bing (равно как и для Googlebot) в файле есть отдельная секция, и они выполняют ее директивы, а не директивы из общей секции. Незачёт Роджеру.
👍3👏1🤣1
Буржуйская сеошница Лили Рэй приводит примеры массовых техник, которые могут привести к ручному пенальти в Google. Это:
1) Использование плагинов WP для автоматического переключения даты публикации всего контента на текущий год без редактирования контента.
2) Использование искусственного интеллект для рерайта контента на всех страницах сайта.
Такие действия попадают под определение "искусственного обновления" ("artifical freshening") из документации Google и могут привести к ручному пенальти.
Будьте внимательны, делая "как все".
👍5
SЕalytics (Сергей Людкевич)
Гуглоид Дэнни Салливан признал, что часы работы компании стали значимым фактором ранжирования в Google Maps, но не рекомендовал изменять их на 24/7/365. Типа всё может измениться. Ага 😁
Оказывается, за выставление круглосуточного режима работы в Goigle Business Profile учётную запись могут заблочить, если реально это не так. По крайней мере этот факт упоминает в качестве одной из причин блокировки профиля Шерри Бонелли в своей статье на SearchEngineJournal.
👍3🤔1
Google обновил инструкцию по восстановлению заблоченного бизнес-профиля. В частности, теперь можно запросить дополнительную проверку отклонённого запроса.
Гуглоид Джон Мюллер отвечает на вопрос, несёт ли какие-то риски в плане антиспама "оптовая" публикация контента на сайте:
"Контент, как правило, не считается спамом только из-за того, каким образом вы его публикуете. Некоторые сайты загружают большие порции потрясающего контента, а потрясающее — это потрясающе. Некоторые сайты публикуют небольшое количество мусора, и он является мусором не из-за того, каким образом он опубликован".
👍2
В команде поисковых начальников Google серьезные перестановки.

Засветившийся в антимонопольном процессе Панду Наяк уходит с должности руководителя отдела качества и рейтинга поиска и становится главным научным сотрудником по поиску. На его место назначен Чину Венкатачари.
Убрали фигуру, которая стала токсичной?

Лиз Рид, которая отвечала за основной поиск, теперь будет главой отдела поиска в Google, который создан в результате объединения двух поисковых команд - основного поиска и отдела качества и рейтинга.
Что-то пошло не так во взаимодействии команд?
👍2
Гуглоид Дэнни Салливан обещает, что после завершения мартовских апдейтов будет открыта специальная форма обратной связи, где каждый сможет высказать все, что он думает о результатах апдейта, и привести примеры некорректного на его взгляд ранжирования.
Пострадавшим (а их, похоже, будет немало) надо будет дать спустить пар.
👍8
Их нравы. Буржуйский сеошник Педро Диас типа на полном серьёзе (т.к. никаких смайликов не проставил) заявил:
"Для всех, кто автоматизирует много веб-сайтов и контента: вам следует включить в свой HTML специальный тег, который сообщает Google, что никакой ваш контент не создан искусственным интеллектом: <meta name="robots" content="none" />"

Кстати, гуглоид Джон Мюллер ему подыграл:
"Современный метатег из более простых времен."

Интересно, много неопытного народу поведётся на подобный "прикол" и закроет свой сайт от индексации?
У нас во дворе за такие фокусы по шеям бы надавали.
😁24😱2🤣1
Яндекс Метрика начала большое обновление интерфейса. Правильно, когда в поиске всё великолепно, самое время заняться дизайном интерфейсов. 😀
😁24👍4🤣1
SЕalytics (Сергей Людкевич)
Тут на канале noindex, nofollow интересуются, как Яндекс теперь будет индексировать Твиттер после того, как тот запретил всем, кроме Googlebot'а, свою индексацию. А также, как и сейчас, то есть никак. Кстати, в файле https://twitter.com/robots.txt увидел нестандартную…
Помните историю про директиву Noindex в файле https://twitter.com/robots.txt? Так вот такие же директивы обнаружились в файле robots.txt персонального сайта гуглоида Джона Мюллера, который все буржуйские сеошники с недавних пор изучают под лупой.
Сам Джон Мюллер прокомментировал это так:
"Это неподдерживаемая директива, она ничего не делает.
Однако было много дискуссий о том, следует ли поддерживать ее как часть стандарта robots.txt. Идея, стоящая за этим, заключалась в том, что было бы неплохо заблокировать как сканирование, так и индексацию одновременно. С помощью robots.txt вы можете заблокировать сканирование, или вы можете заблокировать индексацию (с помощью мета-тега robots, если вы разрешаете сканирование). Идея заключалась в том, что вы могли бы также указать "noindex" в robots.txt и заблокировать и то, и другое. К сожалению, из-за того, что многие люди копируют и вставляют robots.txt файлы, не просматривая их подробно (мало кто заглядывает так далеко, как это сделали вы!), кому-то было бы очень-очень легко случайно удалить важные части веб-сайта. Итак, было решено, что это не должен быть поддерживаемый директор или часть стандарта robots.txt ... вероятно, на данный момент прошло более 10 лет."

Походу, кто-то из сеошников Илона Маска десять лет назад работал в Google 😊
👍3
Google Search Central уведомляет, что инструмент для жалоб на неприемлемый контент (SafeSearch tool) переехал в Google Search Console.
Ну, мало ли, вдруг кто потерял.
Google March 2024 spam update официально завершен. Похоже, ручных пенальти больше не будет. Но March 2024 core update всё еще продолжается, так что еще рано подсчитывать раны и расслабляться.
👍8
Буржуйский сеошник Гленн Гейб подбивает итоги Google March 2024 spam update: из проверенных им 1000 сайтов, деиндексированных с помощью ручных действий с формулировкой "Pure spam", пока не вернулся в индекс ни один. Впрочем, анонсированный прием апелляций гуглоиды еще не открыли.
Что такое поисковик на основе искусственного интеллекта? Оказывается, это старый добрый метапоиск без собственного краулера и индекса с выдачей в виде микса из результатов настоящих поисковиков (активно запускались в 90-х и начале нулевых: MetaCrawler, SavvySearch, Dogpile, HotBot и др.). По крайней мере именно в этом уличили Perplexity AI. Но его руководство красиво надувает щеки и заявляет, что они используют автоматизированные системы для доступа к данным о сигналах ранжирования Bing и Google, которые определяют релевантность, качество и авторитетность. Ага, прям-таки к самим сигналам. 😀
👍7😁1
Буржуйский сеошник Сайрус Шеппард, завершивший свою карьеру асессора Google из-за разрыва контракта Google с компанией Appen, делится своим взглядом на гугловскую систему оценки качества страниц. С помощью него вы можете попробовать себя в роли асессора и оценить качество вашего сайта.
А в своем Твиттере он постарался ответить на вопросы подписчиков о работе ассессора. К сожалению, большинство самых интересных вопросов осталось неотвеченными из-за отсылки к NDA.
👍3
Буржуйский интернет-маркетолог Джейсон Барнард решил расширить понятие EEAT. К четырем каноническим факторам — "опыт" (experience), "экспертность" (expertise), "авторитетность" (authoritativeness) и "доверие" (trustworthiness) — он добавил "известность" (notability) и "прозрачность" (transparency) и получил аббревиатуру NEEATT.
На мой взгляд, предположения об известности и прозрачности не лишены основания, но они вполне укладываются в понятие "доверие". Ибо какое может быть к тебе доверие, если ты никто, звать тебя никак, и все вокруг тебя покрыто мраком?
🔥8
SЕalytics (Сергей Людкевич)
Что и требовалось доказать. Вышла программа 12-й Вебмастерской Яндекса. Все доклады – только про электронную коммерцию. Алгоритмы ранжирования? – спросите вы. Да кому они сейчас в Яндексе нужны? Последняя тема про алгоритмы Яндекса была сливом списка факторов…
Таки, не исключено, что на 12-й Вебмастерской Яндекса что-то будет и про органику. Михаил Сливинский опубликовал план своего доклада:
🔵улучшения и обновления в Поиске Яндекса
🔵развитие Поиска в сегменте товарных запросов
🔵новинки от Вебмастера — вы это ждали давно, не пропустите первый анонс на конференции!

Первый и третий пункт обещают быть интересными.
👍1🔥1
SЕalytics (Сергей Людкевич)
Буржуйский сеошник Гленн Гейб подбивает итоги Google March 2024 spam update: из проверенных им 1000 сайтов, деиндексированных с помощью ручных действий с формулировкой "Pure spam", пока не вернулся в индекс ни один. Впрочем, анонсированный прием апелляций…
Буржуйский сеошник Гленн Гейб также проанализировал сайты, пострадавшие в результате Google September 2023 helpful content update. Из нескольких сотен сайтов пока что ни один не восстановил трафик в мартовские апдейты, причем, большинство из них продолжили падение. Напомню, что теперь система полезного контента встроена в основной алгоритм и обновляется вместе с ним.
👍2
Гуглоид Джон Мюллер уже устал объяснять, что не надо пугаться наличия страниц в отчетах "Почему эти страницы не индексируются" в Google Search Console, если они действительно не должны индексироваться. Почему-то пугливые буржуйские сеошники принимают их за ошибки, от которых обязательно надо избавиться. Один из них хочет заблокировать в robots.txt страницы с редиректом. А потом будет спрашивать, как ему избавиться от страниц в отчете "Проиндексировано, несмотря на блокировку в файле robots.txt". 😊
Ну и до кучи разорвет склейку источника и цели редиректа.
😁6👍3