SЕalytics (Сергей Людкевич)
2.5K subscribers
790 photos
9 videos
2 files
3.55K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Минутка юмора воскресным утром.
Гуглоид Дэнни Салливан раскрыл секрет, где заправляют поисковый движок Google 😊
Хинт от гуглоида Джона Мюллера: "Лучший способ полностью заблокировать трафик из поиска для определенных URL-адресов — отключить разрешение DNS для них. Обычно для того, чтобы увидеть результаты, требуется менее суток."

Лучшее средство от перхоти гильотина 😊
😁4
Заслуживающая внимания статья на ресурсе SearchEngineJournal о семантическом HTML-элементе <article>.
Основная мысль – непосредственно на ранжирование он не влияет, но может помочь поисковым машинам при парсинге страницы в понимании, где находится главный контент (или "центральная часть" в технических терминах Google), вхождения ключевиков в который получают наивысший весовой коэффициент.
На мой взгляд, это предположение вполне может быть не лишено основания.
👍2
Любопытная дискуссия на форуме Reddit о ссылках с Википедии.
Не смотря на известный факт, что исходящие ссылки с Википедии имеют атрибут rel=nofollow (что констатировал в дискуссии гуглоид Джон Мюллер), среди буржуйских сеошников находятся верящие в то, что эти ссылки работают. Вера адептов зиждется на том, что ради Википедии могли сделать исключение. Как будто сотрудники поисковиков не понимают, что ссылки оттуда тоже можно проспамить )
Начало августа ознаменовалось очередным витком борьбы с поисковым спамом в Яндексе – масса владельцев сайтов, сделанных для заработка на рекламе, получили штрафы за малополезный контент.
Масштаб бедствия характеризует тот факт, что на стагнирующем Серче тема об этом выросла до довольно приличных размеров.
Очень хотелось бы, чтоб яндексоиды на этом не останавливались, как у них часто бывает, и наконец-то решили и другие проблемы поискового спама. И в первую очередь, конечно же, проблему накрутки поведенческих факторов.
👍8👎2🔥2
В блоге Яндекса для вебмастеров появился анонс API для мониторинга запросов.
Доступны данные для всех запросов, по которым сайт отображался в поиске. Лимит - 150 тысяч запросов в сутки.
Хорошая новость, но на фоне закрытия бесплатного сервиса Яндекс.XML как-то блекнет...
👍5
Гуглоид Дэнни Салливан не считает, что для навигационных запросов появление SGE в выдаче было бы полезным.
Ну что ж, радует, что гуглоиды хотя бы пока не стремятся пихать SGE всюду, где только можно.
Весьма добротная статья буржуйской сеошницы Эбере Джонатан про всё, что связано с канонизацией страниц.
Хочу заострить внимание на одном моменте, указанном в разделе статьи "Распространенные ошибки, которых следует избегать" – не должно быть цепочек канонических страниц. То есть в качестве канонической не должна быть указана страница, которая в свою очередь, указывает на третью страницу, как на каноническую. К сожалению, об этом правиле частенько забывают, особенно, когда автоматизируют процесс канонизации страниц.
👍6
Что же Вас ждёт на крупнейшей конференции по поисковому маркетингу и продвижению бизнеса:

💡 24 октября состоится первый в истории Optimization открытый для всех онлайн-день, посвящённый продвижению бизнеса за рубежом. Это уникальная возможность узнать о проверенных практиках и инструментах продвижения на международных рынках, а также обменяться опытом с экспертами и коллегами из разных стран!

⚡️ 26-27 октября встречаемся в Сколково:
• Обновлённая программа, доклады которой адаптированы под текущую информационную повестку;
• Много свежих кейсов и практического контента;
• Два потока: про SEO и digital, а также секции о новых технологиях и инструментах;
• Эксперты из топовых рекламных агентств, представители банков, интернет-магазинов, брендов сегмента FMCG и медийных площадок, а также спикеры из Яндекса и VK.Group.

🔥 Легендарная вечеринка Optimization. Это отличная возможность поучаствовать в премии Optimization, которой наградят лучшие по видимости сайты в различных тематиках. А также обзавестись полезными контактами, расширить круг профессионального общения и поговорить с коллегами в живой и уютной обстановке!

Зарегистрироваться и приобрести билеты по выгодной цене можно на сайте конференции 👉 https://2023.optimization.ru/

🙋‍♀️ Кстати, для наших подписчиков действует специальная скидка по промокоду «SEALYTICS15»

Каждую пятницу в нашем telegram-канале и каждую вторую пятницу месяца среди подписчиков группы Вконтакте будет проводиться розыгрыш билета тарифа «Стандарт».

🔥 Не упустите возможность! До встречи на Optimization-2023!
Похоже, Google начал показывать имена сайтов и в русскоязычной выдаче. Или я удачно попал на эксперимент )
👍4
Среди буржуйских сеошников вдруг возникло поверие о магической силе доменной зоны .ai, о чем один из них радостно поделился в своем Твиттере.
Вездесущий гуглоид Джон Мюллер спешит развеять очередной сеошный миф, утверждая, что ничего особенного в этой доменной зоне нет.
От себя добавлю - ну, пожалуй, разве что кроме того, что она из ccTLD переквалифицирована в gTLD.
Редактор Сёрча Оксана Мамчуева опубликовала текст ответа Яндекса на вопрос по поводу массового наложения фильтра за малополезный контент и спам:
«Яндекс регулярно обновляет собственные алгоритмы, чтобы поддерживать качество поисковой выдачи. Очередное обновление прошло на прошлой неделе. Теперь алгоритмы лучше определяют заимствованный и неоригинальный контент на сайтах. Более подробно об этом можно узнать в Справке».  
Получается, накрыли за вторконтент.
👍3
На форуме Reddit один буржуйский сеошник интересуется, не будет ли проблем в будущем с ранжированием страницы, если он ее на время закроет от индексации метой robots со значением noindex.
Гуглоид Джон Мюллер считает, что проблем быть не должно – ранжирование отделено от индексации.
Тут до меня дошла информация, что некоторая часть сеошной общественности, пострадавшая в результате последних санкций Яндекса за малополезный контент, несколько болезненно восприняла мой пост об этом, увидев в нем якобы некое злорадство и пляску на костях.
Так вот, спешу расставить все точки над "i" - никаким злорадством и плясками тут и не пахнет.
Моя мысль заключалась в том, что если устанавливаешь правила игры, то, будь добр, блюди за их соблюдением. И наказывай нарушителей и поощряй соблюдающих. Иначе соблюдающие будут находиться изначально в проигрышном положении.
Например, секрет Полишинеля, что в конкурентные топы выдачи Яндекса сейчас практически невозможно попасть, не накручивая поведенческие. И наивно предполагать, что яндексоиды этого не видят. Однако, они почему-то либо не могут, либо не хотят заставить сеошников соблюдать установленные ими самими же правила.
Поэтому любое адекватное телодвижение "арбитра" воспринимается позитивно. В надежде, что таких телодвижений будет все больше, и правила не останутся всего лишь прописанными на бумаге.
👍172👎1
Тут у меня возникла следующая мысль по поводу наличия/отсутствия преференций в ранжировании Google для определенных доменных зон, обсуждавшейся в предыдущем посте.
Считается, что зоны типа .gov и .edu - это хорошо для ранжирования. Но сайты из этих зон могут ранжироваться хорошо не потому, что они принадлежат этой зоне, а потому, что они считаются трастовыми. Просто трастовых сайтов много в этих зонах в силу понятных причин. А сама по себе зона никакого бонуса не дает.
Так что в этом смысле старина Мюллер, может, и не кривит душой.
👍7
Меня попросили отрецензировать новый гайд по внутренней оптимизации сайта от сервиса PR-CY.
Итак, что я могу сказать? Совсем для новичков может быть вполне полезно. Собрано много чего, что не мешает почекать.
Конечно, есть спорные моменты по назначенной степени важности проверок. Например, у "Есть файл robots.txt" она обозначена, как высокая. На мой взгляд, важно не наличие, а функционал этого файла. Если сайт небольшой и запрещать к индексации ничего не надо, то и файла robots.txt запросто может и не быть. С другой стороны, файл может и быть, но в нем может царить такой бардак, что лучше бы его не было.
По поводу темы важности уникальности тегов title и мета-тегов description я уже высказывался. Также весьма спорный момент по наличию тегов H1-H6. И если для информационных страниц с требованиями их наличия еще можно согласиться, то для коммерческих, на мой взгляд, подзаголовки H2-H6 не только не обязательны, но могут быть и вредны, провоцируя антиспам на фильтр Баден-Баден.
Но за исключением отдельных моментов, повторюсь, новичкам данный гайд использовать можно. Ну, а у опытных сеошников должен быть свой гайд )
👍7
Если страница ссылается сама на себя, попадает ли анкор ссылки в ее анкор-лист? Гуглоид Джон Мюллер утверждает, что нет.
Хорошо бы было бы проверить, но, к сожалению, сейчас мне неизвестны способы построения выдачи чисто по анкор-листам. А другой способ не сработает, так как текст анкора есть на странице.
Хотя неучет ссылок на самого себя вполне логичен, так как позволяет избежать двойного учета одного и того же текста – в контенте и в анкор-листе.
Временами гуглоиды еще те водовозы.
Вчера Мартин Шплитт, Джон Мюллер и Дэнни Салливан собрались на очередной подкаст серии "Search Off the Record" потрещать за апдейты в преддверии August 2023 Core Update. По факту – полчаса времени коту под хост, и весь трёп можно было бы заменить одной сакраментальной фразой Платона Щукина "Следуйте нашим рекомендациям, развивайте Ваш сайт… и со временем…"
😁8👍2
Гуглоид Гэри Ийеш, отвечая на вопрос о возможности запрета сканирования краулером определенной части страницы, предлагает недокументированные способы ввиду отсутствия документированных:
1) поместить этот раздел в JavaScript, который запрещен для сканирования;
2) настроить свой http-сервер таким образом, чтобы условно пропускать возврат определенных байтов - другими словами, заняться клоакингом.
Правда с оговоркой, что что большинству поисковых систем не особенно нравится эта практика, потому что исторически она использовалась для спамерских техник.
Вот такие "вредные советы" от гуглоида.
Я бы лично рекомендовал воспользоваться все-таки первым способом. Второй более опасен с точки зрения антиспама, так как боты и пользователи получают разные версии страницы. Хотя, по логике, криминал должен возникать не там, где от бота скрывают то, что показывают пользователю, а наоборот - там, где от пользователя скрывают то, что показывают боту.
👍5