SЕalytics (Сергей Людкевич)
2.5K subscribers
790 photos
9 videos
2 files
3.55K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Экспресс-аудит сайта от гуглоида Дэнни Салливана. Достаточно было просто воззвать о помощи в соцсети. Честно говоря, не представляю себе чего-то подобного от яндексоидов.
Пятничное. Строительный котлован в Стамбуле, заполненный водой, идентифицирован Google и Яндекс Картами, как озеро. Не иначе, как искусственный интеллект постарался 😊
Все уже привыкли к стрёмным маршрутам, прокладываемым навигаторами Карт, но ошибочная классификация достаточно крупного объекта — явление не такое уж частое.
👍7🤔1
Гуглоиды сообщили Барри Шварцу, что переименовывают фильтр поисковой выдачи Perspectives в Forums. Функционал фильтра с каруселями и прочими фишками останется прежним. Похоже, юзеры в массе своей не догоняли, что за перспективы такие маячат. Сделали название попроще и понятнее. 😊
Буржуйский сеошник Марк Уильямс-Кук обнаружил в Google дырку, которая позволяла ему, с его слов, "видеть некоторые переменные для веб-сайтов, включая закрытые метрики, используемые для ранжирования". Он отправил эту информацию в Google Bug Bounty и получил премию в $13к+, которую собирается отдать на благотворительность.
Странные какие-то в Буржуинии сеошники. Нашёл дырку — сиди, тихо пользуйся. И другим не мешай, возможно, не один ты её нашёл.
Хотя, впрочем, я знаю один случай, когда наш сеошник сдал одну очень зачетную дырку яндексоидам. Но просто он устраивался туда на работу. В итоге таки он устроился. А вот дырку было очень жалко.
👍6😁5🤔1
Блин, я думал в буржуйских сеошных СМИ грамотные спецы работают, а, оказывается, ни фига подобного. Роджер Монтти из SearchEngineJournal, разбирая файл robots.txt персонального сайта Джона Мюллера, обнаружил в секции user-agent: * директиву disallow: / и решил, что именно она была причиной выпадения сайта Джона Мюллера из индекса Google. И ещё недоумевает — почему же Bing его индексирует? Да ещё и "эксперта" привлек, который предположил, что краулер Бинга давно не посещал сайт и типа не видел этой директивы.
А ларчик просто открывался: дело в том, что для Bing (равно как и для Googlebot) в файле есть отдельная секция, и они выполняют ее директивы, а не директивы из общей секции. Незачёт Роджеру.
👍3👏1🤣1
Буржуйская сеошница Лили Рэй приводит примеры массовых техник, которые могут привести к ручному пенальти в Google. Это:
1) Использование плагинов WP для автоматического переключения даты публикации всего контента на текущий год без редактирования контента.
2) Использование искусственного интеллект для рерайта контента на всех страницах сайта.
Такие действия попадают под определение "искусственного обновления" ("artifical freshening") из документации Google и могут привести к ручному пенальти.
Будьте внимательны, делая "как все".
👍5
SЕalytics (Сергей Людкевич)
Гуглоид Дэнни Салливан признал, что часы работы компании стали значимым фактором ранжирования в Google Maps, но не рекомендовал изменять их на 24/7/365. Типа всё может измениться. Ага 😁
Оказывается, за выставление круглосуточного режима работы в Goigle Business Profile учётную запись могут заблочить, если реально это не так. По крайней мере этот факт упоминает в качестве одной из причин блокировки профиля Шерри Бонелли в своей статье на SearchEngineJournal.
👍3🤔1
Google обновил инструкцию по восстановлению заблоченного бизнес-профиля. В частности, теперь можно запросить дополнительную проверку отклонённого запроса.
Гуглоид Джон Мюллер отвечает на вопрос, несёт ли какие-то риски в плане антиспама "оптовая" публикация контента на сайте:
"Контент, как правило, не считается спамом только из-за того, каким образом вы его публикуете. Некоторые сайты загружают большие порции потрясающего контента, а потрясающее — это потрясающе. Некоторые сайты публикуют небольшое количество мусора, и он является мусором не из-за того, каким образом он опубликован".
👍2
В команде поисковых начальников Google серьезные перестановки.

Засветившийся в антимонопольном процессе Панду Наяк уходит с должности руководителя отдела качества и рейтинга поиска и становится главным научным сотрудником по поиску. На его место назначен Чину Венкатачари.
Убрали фигуру, которая стала токсичной?

Лиз Рид, которая отвечала за основной поиск, теперь будет главой отдела поиска в Google, который создан в результате объединения двух поисковых команд - основного поиска и отдела качества и рейтинга.
Что-то пошло не так во взаимодействии команд?
👍2
Гуглоид Дэнни Салливан обещает, что после завершения мартовских апдейтов будет открыта специальная форма обратной связи, где каждый сможет высказать все, что он думает о результатах апдейта, и привести примеры некорректного на его взгляд ранжирования.
Пострадавшим (а их, похоже, будет немало) надо будет дать спустить пар.
👍8
Их нравы. Буржуйский сеошник Педро Диас типа на полном серьёзе (т.к. никаких смайликов не проставил) заявил:
"Для всех, кто автоматизирует много веб-сайтов и контента: вам следует включить в свой HTML специальный тег, который сообщает Google, что никакой ваш контент не создан искусственным интеллектом: <meta name="robots" content="none" />"

Кстати, гуглоид Джон Мюллер ему подыграл:
"Современный метатег из более простых времен."

Интересно, много неопытного народу поведётся на подобный "прикол" и закроет свой сайт от индексации?
У нас во дворе за такие фокусы по шеям бы надавали.
😁24😱2🤣1
Яндекс Метрика начала большое обновление интерфейса. Правильно, когда в поиске всё великолепно, самое время заняться дизайном интерфейсов. 😀
😁24👍4🤣1
SЕalytics (Сергей Людкевич)
Тут на канале noindex, nofollow интересуются, как Яндекс теперь будет индексировать Твиттер после того, как тот запретил всем, кроме Googlebot'а, свою индексацию. А также, как и сейчас, то есть никак. Кстати, в файле https://twitter.com/robots.txt увидел нестандартную…
Помните историю про директиву Noindex в файле https://twitter.com/robots.txt? Так вот такие же директивы обнаружились в файле robots.txt персонального сайта гуглоида Джона Мюллера, который все буржуйские сеошники с недавних пор изучают под лупой.
Сам Джон Мюллер прокомментировал это так:
"Это неподдерживаемая директива, она ничего не делает.
Однако было много дискуссий о том, следует ли поддерживать ее как часть стандарта robots.txt. Идея, стоящая за этим, заключалась в том, что было бы неплохо заблокировать как сканирование, так и индексацию одновременно. С помощью robots.txt вы можете заблокировать сканирование, или вы можете заблокировать индексацию (с помощью мета-тега robots, если вы разрешаете сканирование). Идея заключалась в том, что вы могли бы также указать "noindex" в robots.txt и заблокировать и то, и другое. К сожалению, из-за того, что многие люди копируют и вставляют robots.txt файлы, не просматривая их подробно (мало кто заглядывает так далеко, как это сделали вы!), кому-то было бы очень-очень легко случайно удалить важные части веб-сайта. Итак, было решено, что это не должен быть поддерживаемый директор или часть стандарта robots.txt ... вероятно, на данный момент прошло более 10 лет."

Походу, кто-то из сеошников Илона Маска десять лет назад работал в Google 😊
👍3
Google Search Central уведомляет, что инструмент для жалоб на неприемлемый контент (SafeSearch tool) переехал в Google Search Console.
Ну, мало ли, вдруг кто потерял.
Google March 2024 spam update официально завершен. Похоже, ручных пенальти больше не будет. Но March 2024 core update всё еще продолжается, так что еще рано подсчитывать раны и расслабляться.
👍8
Буржуйский сеошник Гленн Гейб подбивает итоги Google March 2024 spam update: из проверенных им 1000 сайтов, деиндексированных с помощью ручных действий с формулировкой "Pure spam", пока не вернулся в индекс ни один. Впрочем, анонсированный прием апелляций гуглоиды еще не открыли.
Что такое поисковик на основе искусственного интеллекта? Оказывается, это старый добрый метапоиск без собственного краулера и индекса с выдачей в виде микса из результатов настоящих поисковиков (активно запускались в 90-х и начале нулевых: MetaCrawler, SavvySearch, Dogpile, HotBot и др.). По крайней мере именно в этом уличили Perplexity AI. Но его руководство красиво надувает щеки и заявляет, что они используют автоматизированные системы для доступа к данным о сигналах ранжирования Bing и Google, которые определяют релевантность, качество и авторитетность. Ага, прям-таки к самим сигналам. 😀
👍7😁1
Буржуйский сеошник Сайрус Шеппард, завершивший свою карьеру асессора Google из-за разрыва контракта Google с компанией Appen, делится своим взглядом на гугловскую систему оценки качества страниц. С помощью него вы можете попробовать себя в роли асессора и оценить качество вашего сайта.
А в своем Твиттере он постарался ответить на вопросы подписчиков о работе ассессора. К сожалению, большинство самых интересных вопросов осталось неотвеченными из-за отсылки к NDA.
👍3
Буржуйский интернет-маркетолог Джейсон Барнард решил расширить понятие EEAT. К четырем каноническим факторам — "опыт" (experience), "экспертность" (expertise), "авторитетность" (authoritativeness) и "доверие" (trustworthiness) — он добавил "известность" (notability) и "прозрачность" (transparency) и получил аббревиатуру NEEATT.
На мой взгляд, предположения об известности и прозрачности не лишены основания, но они вполне укладываются в понятие "доверие". Ибо какое может быть к тебе доверие, если ты никто, звать тебя никак, и все вокруг тебя покрыто мраком?
🔥8