Среди буржуйских сеошников вдруг возникло поверие о магической силе доменной зоны .ai, о чем один из них радостно поделился в своем Твиттере.
Вездесущий гуглоид Джон Мюллер спешит развеять очередной сеошный миф, утверждая, что ничего особенного в этой доменной зоне нет.
От себя добавлю - ну, пожалуй, разве что кроме того, что она из ccTLD переквалифицирована в gTLD.
Вездесущий гуглоид Джон Мюллер спешит развеять очередной сеошный миф, утверждая, что ничего особенного в этой доменной зоне нет.
От себя добавлю - ну, пожалуй, разве что кроме того, что она из ccTLD переквалифицирована в gTLD.
Twitter
@KYL9038 @101domain @randfish @leeodden @SEOExtent It's just another TLD, there's nothing special for SEO about them; no need to buy one if you already have a domain name.
Редактор Сёрча Оксана Мамчуева опубликовала текст ответа Яндекса на вопрос по поводу массового наложения фильтра за малополезный контент и спам:
«Яндекс регулярно обновляет собственные алгоритмы, чтобы поддерживать качество поисковой выдачи. Очередное обновление прошло на прошлой неделе. Теперь алгоритмы лучше определяют заимствованный и неоригинальный контент на сайтах. Более подробно об этом можно узнать в Справке».
Получается, накрыли за вторконтент.
«Яндекс регулярно обновляет собственные алгоритмы, чтобы поддерживать качество поисковой выдачи. Очередное обновление прошло на прошлой неделе. Теперь алгоритмы лучше определяют заимствованный и неоригинальный контент на сайтах. Более подробно об этом можно узнать в Справке».
Получается, накрыли за вторконтент.
SearchEngines
Яндекс обновил алгоритм определения заимствованного и неоригинального контента
Этим объясняется шторм в выдаче
👍3
На форуме Reddit один буржуйский сеошник интересуется, не будет ли проблем в будущем с ранжированием страницы, если он ее на время закроет от индексации метой robots со значением noindex.
Гуглоид Джон Мюллер считает, что проблем быть не должно – ранжирование отделено от индексации.
Гуглоид Джон Мюллер считает, что проблем быть не должно – ранжирование отделено от индексации.
Reddit
johnmu's comment on "Is noindex a good way to get a page out of a search result sitelinks?"
Explore this conversation and more from the TechSEO community
В тему предыдущего поста. В Твиттере все тот же Джон Мюллер утверждает, что у любой доменной зоны нет никакой дополнительной ценности для SEO.
Really, Джон, и даже у .gov? )
Really, Джон, и даже у .gov? )
Telegram
SЕalytics (Сергей Людкевич)
Среди буржуйских сеошников вдруг возникло поверие о магической силе доменной зоны .ai, о чем один из них радостно поделился в своем Твиттере.
Вездесущий гуглоид Джон Мюллер спешит развеять очередной сеошный миф, утверждая, что ничего особенного в этой доменной…
Вездесущий гуглоид Джон Мюллер спешит развеять очередной сеошный миф, утверждая, что ничего особенного в этой доменной…
Тут до меня дошла информация, что некоторая часть сеошной общественности, пострадавшая в результате последних санкций Яндекса за малополезный контент, несколько болезненно восприняла мой пост об этом, увидев в нем якобы некое злорадство и пляску на костях.
Так вот, спешу расставить все точки над "i" - никаким злорадством и плясками тут и не пахнет.
Моя мысль заключалась в том, что если устанавливаешь правила игры, то, будь добр, блюди за их соблюдением. И наказывай нарушителей и поощряй соблюдающих. Иначе соблюдающие будут находиться изначально в проигрышном положении.
Например, секрет Полишинеля, что в конкурентные топы выдачи Яндекса сейчас практически невозможно попасть, не накручивая поведенческие. И наивно предполагать, что яндексоиды этого не видят. Однако, они почему-то либо не могут, либо не хотят заставить сеошников соблюдать установленные ими самими же правила.
Поэтому любое адекватное телодвижение "арбитра" воспринимается позитивно. В надежде, что таких телодвижений будет все больше, и правила не останутся всего лишь прописанными на бумаге.
Так вот, спешу расставить все точки над "i" - никаким злорадством и плясками тут и не пахнет.
Моя мысль заключалась в том, что если устанавливаешь правила игры, то, будь добр, блюди за их соблюдением. И наказывай нарушителей и поощряй соблюдающих. Иначе соблюдающие будут находиться изначально в проигрышном положении.
Например, секрет Полишинеля, что в конкурентные топы выдачи Яндекса сейчас практически невозможно попасть, не накручивая поведенческие. И наивно предполагать, что яндексоиды этого не видят. Однако, они почему-то либо не могут, либо не хотят заставить сеошников соблюдать установленные ими самими же правила.
Поэтому любое адекватное телодвижение "арбитра" воспринимается позитивно. В надежде, что таких телодвижений будет все больше, и правила не останутся всего лишь прописанными на бумаге.
Telegram
SЕalytics (Сергей Людкевич)
Начало августа ознаменовалось очередным витком борьбы с поисковым спамом в Яндексе – масса владельцев сайтов, сделанных для заработка на рекламе, получили штрафы за малополезный контент.
Масштаб бедствия характеризует тот факт, что на стагнирующем Серче…
Масштаб бедствия характеризует тот факт, что на стагнирующем Серче…
👍17❤2👎1
Тут у меня возникла следующая мысль по поводу наличия/отсутствия преференций в ранжировании Google для определенных доменных зон, обсуждавшейся в предыдущем посте.
Считается, что зоны типа .gov и .edu - это хорошо для ранжирования. Но сайты из этих зон могут ранжироваться хорошо не потому, что они принадлежат этой зоне, а потому, что они считаются трастовыми. Просто трастовых сайтов много в этих зонах в силу понятных причин. А сама по себе зона никакого бонуса не дает.
Так что в этом смысле старина Мюллер, может, и не кривит душой.
Считается, что зоны типа .gov и .edu - это хорошо для ранжирования. Но сайты из этих зон могут ранжироваться хорошо не потому, что они принадлежат этой зоне, а потому, что они считаются трастовыми. Просто трастовых сайтов много в этих зонах в силу понятных причин. А сама по себе зона никакого бонуса не дает.
Так что в этом смысле старина Мюллер, может, и не кривит душой.
Telegram
SЕalytics (Сергей Людкевич)
В тему предыдущего поста. В Твиттере все тот же Джон Мюллер утверждает, что у любой доменной зоны нет никакой дополнительной ценности для SEO.
Really, Джон, и даже у .gov? )
Really, Джон, и даже у .gov? )
👍7
Меня попросили отрецензировать новый гайд по внутренней оптимизации сайта от сервиса PR-CY.
Итак, что я могу сказать? Совсем для новичков может быть вполне полезно. Собрано много чего, что не мешает почекать.
Конечно, есть спорные моменты по назначенной степени важности проверок. Например, у "Есть файл robots.txt" она обозначена, как высокая. На мой взгляд, важно не наличие, а функционал этого файла. Если сайт небольшой и запрещать к индексации ничего не надо, то и файла robots.txt запросто может и не быть. С другой стороны, файл может и быть, но в нем может царить такой бардак, что лучше бы его не было.
По поводу темы важности уникальности тегов title и мета-тегов description я уже высказывался. Также весьма спорный момент по наличию тегов H1-H6. И если для информационных страниц с требованиями их наличия еще можно согласиться, то для коммерческих, на мой взгляд, подзаголовки H2-H6 не только не обязательны, но могут быть и вредны, провоцируя антиспам на фильтр Баден-Баден.
Но за исключением отдельных моментов, повторюсь, новичкам данный гайд использовать можно. Ну, а у опытных сеошников должен быть свой гайд )
Итак, что я могу сказать? Совсем для новичков может быть вполне полезно. Собрано много чего, что не мешает почекать.
Конечно, есть спорные моменты по назначенной степени важности проверок. Например, у "Есть файл robots.txt" она обозначена, как высокая. На мой взгляд, важно не наличие, а функционал этого файла. Если сайт небольшой и запрещать к индексации ничего не надо, то и файла robots.txt запросто может и не быть. С другой стороны, файл может и быть, но в нем может царить такой бардак, что лучше бы его не было.
По поводу темы важности уникальности тегов title и мета-тегов description я уже высказывался. Также весьма спорный момент по наличию тегов H1-H6. И если для информационных страниц с требованиями их наличия еще можно согласиться, то для коммерческих, на мой взгляд, подзаголовки H2-H6 не только не обязательны, но могут быть и вредны, провоцируя антиспам на фильтр Баден-Баден.
Но за исключением отдельных моментов, повторюсь, новичкам данный гайд использовать можно. Ну, а у опытных сеошников должен быть свой гайд )
pr-cy.ru
🔥 Внутренняя оптимизация сайта — большой гайд по самостоятельной проверке
Чек-лист для анализа технической оптимизации, контента и юзабилити сайта. Обновленный материал.
👍7
Сегодня наконец-то праздник на улице Барри Шварца из SERoundTable.
Его еженедельно публикуемый аж с мая месяца прогноз об апдейте Google наконец-то сбылся )
Google объявил о запуске the August 2023 Core Update.
Его еженедельно публикуемый аж с мая месяца прогноз об апдейте Google наконец-то сбылся )
Google объявил о запуске the August 2023 Core Update.
Telegram
SЕalytics (Сергей Людкевич)
Подтвержденных официально апдейтов Google не было с апреля месяца, и буржуйские сеошники уже вовсю бьют копытом в ожидании следующего. Барри Шварц из SERoundTable замечает признаки нового апдейта чуть ли не каждую неделю с начала мая, но сейчас настроен весьма…
😁5
Если страница ссылается сама на себя, попадает ли анкор ссылки в ее анкор-лист? Гуглоид Джон Мюллер утверждает, что нет.
Хорошо бы было бы проверить, но, к сожалению, сейчас мне неизвестны способы построения выдачи чисто по анкор-листам. А другой способ не сработает, так как текст анкора есть на странице.
Хотя неучет ссылок на самого себя вполне логичен, так как позволяет избежать двойного учета одного и того же текста – в контенте и в анкор-листе.
Хорошо бы было бы проверить, но, к сожалению, сейчас мне неизвестны способы построения выдачи чисто по анкор-листам. А другой способ не сработает, так как текст анкора есть на странице.
Хотя неучет ссылок на самого себя вполне логичен, так как позволяет избежать двойного учета одного и того же текста – в контенте и в анкор-листе.
Mastodon
John Mueller (@johnmu@mastodon.social)
@sinaseo@seo.chat I don't think that adds any information.
Временами гуглоиды еще те водовозы.
Вчера Мартин Шплитт, Джон Мюллер и Дэнни Салливан собрались на очередной подкаст серии "Search Off the Record" потрещать за апдейты в преддверии August 2023 Core Update. По факту – полчаса времени коту под хост, и весь трёп можно было бы заменить одной сакраментальной фразой Платона Щукина "Следуйте нашим рекомендациям, развивайте Ваш сайт… и со временем…"
Вчера Мартин Шплитт, Джон Мюллер и Дэнни Салливан собрались на очередной подкаст серии "Search Off the Record" потрещать за апдейты в преддверии August 2023 Core Update. По факту – полчаса времени коту под хост, и весь трёп можно было бы заменить одной сакраментальной фразой Платона Щукина "Следуйте нашим рекомендациям, развивайте Ваш сайт… и со временем…"
Libsyn
Search Off the Record: Let's talk ranking updates
The Google Search algorithm has been updated and panic quickly sets in. In this episode of Search, Martin, John, and Danny help content creators everywhere focus on the value they bring into the digital world. From changing ranking systems to updated documentation…
😁8👍2
Гуглоид Гэри Ийеш, отвечая на вопрос о возможности запрета сканирования краулером определенной части страницы, предлагает недокументированные способы ввиду отсутствия документированных:
1) поместить этот раздел в JavaScript, который запрещен для сканирования;
2) настроить свой http-сервер таким образом, чтобы условно пропускать возврат определенных байтов - другими словами, заняться клоакингом.
Правда с оговоркой, что что большинству поисковых систем не особенно нравится эта практика, потому что исторически она использовалась для спамерских техник.
Вот такие "вредные советы" от гуглоида.
Я бы лично рекомендовал воспользоваться все-таки первым способом. Второй более опасен с точки зрения антиспама, так как боты и пользователи получают разные версии страницы. Хотя, по логике, криминал должен возникать не там, где от бота скрывают то, что показывают пользователю, а наоборот - там, где от пользователя скрывают то, что показывают боту.
1) поместить этот раздел в JavaScript, который запрещен для сканирования;
2) настроить свой http-сервер таким образом, чтобы условно пропускать возврат определенных байтов - другими словами, заняться клоакингом.
Правда с оговоркой, что что большинству поисковых систем не особенно нравится эта практика, потому что исторически она использовалась для спамерских техник.
Вот такие "вредные советы" от гуглоида.
Я бы лично рекомендовал воспользоваться все-таки первым способом. Второй более опасен с точки зрения антиспама, так как боты и пользователи получают разные версии страницы. Хотя, по логике, криминал должен возникать не там, где от бота скрывают то, что показывают пользователю, а наоборот - там, где от пользователя скрывают то, что показывают боту.
Linkedin
Gary Illyes on LinkedIn: "Can I prevent crawling of **certain sections of a page**?"
Crawlers are… | 14 comments
Crawlers are… | 14 comments
"Can I prevent crawling of **certain sections of a page**?"
Crawlers are just http clients like your browser that will download whatever bytes a server gives them. If the server doesn't give the bytes for a certain section, the crawler will have not crawled…
Crawlers are just http clients like your browser that will download whatever bytes a server gives them. If the server doesn't give the bytes for a certain section, the crawler will have not crawled…
👍5
Хоть сегодня и не пятница, но позволю себе пятничный пост )
Гуглоид Джон Мюллер начал что-то подозревать об отношении к нему сеошников, которых он называет "коллекцией персонажей":
Добро пожаловать из мира розовых пони в реальность, Джон 😁
Гуглоид Джон Мюллер начал что-то подозревать об отношении к нему сеошников, которых он называет "коллекцией персонажей":
"Все, что я говорю, является доказательством того, что я ничего не знаю или что я что-то знаю и пытаюсь их обмануть, поэтому лучше поступить наоборот."
Добро пожаловать из мира розовых пони в реальность, Джон 😁
Mastodon
John Mueller (@johnmu@mastodon.social)
@louisgray @rustybrick@c.im Every now and then, I'm curious. You have quite a collection of characters there, Barry :-). Luckily everything i say is proof that I know nothing, or that I do know something and am attempting to trick them, so it's best to do…
В блоге Google Search Central Blog вышел материал (пока что только на английском языке) в стиле научпоп под названием "Комедия ошибок", посвященный различным проблемам доступа краулера к вебсайтам (ошибки DNS, сетевые ошибки, ошибки сервера и клиента).
В общем-то ничего революционного, но рекомендую к прочтению на досуге для общего развития и упорядочивания знаний в своей голове.
В общем-то ничего революционного, но рекомендую к прочтению на досуге для общего развития и упорядочивания знаний в своей голове.
Google for Developers
The comedy of errors | Google Search Central Blog | Google for Developers
👍4
Наткнулся на довольно старенькое, но весьма любопытное исследование от сервиса Ahrefs, посвященное выделенным описаниям (featured snippet) Google.
Моменты, которые мне показались интересными:
• Выделенные описания показывается у 12% поисковых запросов
• Выделенное описание (по сути "нулевая" позиция в поисковой выдаче) получает в среднем только примерно 8,6% кликов, в то время как страница, которая занимает место прямо под ним (1-я позиция), получает в среднем примерно 19,6% кликов. Если выделенного описания в выдаче нет, 1-я позиция получает в среднем примерно 26% всех кликов. Юзеры меньше доверяют примеси, чем органике?
• 30,9% выделенных описаний берутся с 1-го места выдачи, 99,58% – из топ-10.
• Корреляции числа бэклинков с попаданием в выделенный сниппет не обнаружено (оговорка – исследование проводилось без учета анкорного текста).
• Большинство выделенных сниппетов показываются не по популярным запросам, а по запросам из "длинного хвоста".
• Страница с наибольшим количеством выделенных сниппетов показывается по 4658 запросам
• Википедия – абсолютный лидер среди сайтов по числу выделенных описаний.
Моменты, которые мне показались интересными:
• Выделенные описания показывается у 12% поисковых запросов
• Выделенное описание (по сути "нулевая" позиция в поисковой выдаче) получает в среднем только примерно 8,6% кликов, в то время как страница, которая занимает место прямо под ним (1-я позиция), получает в среднем примерно 19,6% кликов. Если выделенного описания в выдаче нет, 1-я позиция получает в среднем примерно 26% всех кликов. Юзеры меньше доверяют примеси, чем органике?
• 30,9% выделенных описаний берутся с 1-го места выдачи, 99,58% – из топ-10.
• Корреляции числа бэклинков с попаданием в выделенный сниппет не обнаружено (оговорка – исследование проводилось без учета анкорного текста).
• Большинство выделенных сниппетов показываются не по популярным запросам, а по запросам из "длинного хвоста".
• Страница с наибольшим количеством выделенных сниппетов показывается по 4658 запросам
• Википедия – абсолютный лидер среди сайтов по числу выделенных описаний.
SEO Blog by Ahrefs
Ahrefs' Study Of 2 Million Featured Snippets: 10 Important Takeaways
Google is actively rolling out featured snippets for a wide variety of search queries because they want to serve quicker answers to people. And SEO
👍6❤1
Хотите задать вопрос про апдейты Google Джону Мюллеру? Просто заполните до 4 сентября форму вопросов для секции апдейтов конференции brightonSEO. И быть может, вам повезет, и старина Джон ответит на ваш вопрос. А может вам повезет вдвойне, и ответ будет толковым. 😁
Google Docs
Submit your questions for Google Updates at brightonSEO September 2023
Do you have an SEO question about any of the search updates that have happened over the last year? In this very special brightonSEO session, John Mueller and Billie Geena will be walking us through which Google updates have left the biggest impression on…
👍3
Google включил в перечень поддерживаемых для индексации типов файлов файлы с расширением .csv. Соответствующая строка появилась в документации.
Однако ни одного файла с таким расширением в индексе пока не обнаружено.
Однако ни одного файла с таким расширением в индексе пока не обнаружено.
😁6
Согласно исследованию сервиса Originality.ai после того, как компания OpenAI три недели назад объявила о своем краулере c User-Agent GPTbot, eго заблокировали в файле robots.txt 9,2% из 1000 самых популярных сайтов. И эта тенденция продолжает расти со скоростью 5% в неделю.
Похоже, владельцы сайтов не очень-то хотят, чтоб на их контенте обучался искусственный интеллект.
Похоже, владельцы сайтов не очень-то хотят, чтоб на их контенте обучался искусственный интеллект.
originality.ai
Block AI Bots from Crawling Websites Using Robots.txt
See the live dashboard showing the websites that are blocking AI Bots such as GPTBot, CCBot, Google-extended and ByteSpider from crawling and scraping the content on their website. Learn which AI crawlers / scrapers do what and how to block them using Robots.txt.
👍8
Наткнулся на интересный (правда, прошлогодний) эксперимент по исследованию повторного сканирования краулерами Google страниц, отдающих ответы 404 и 410.
Который показал, что страницы с ответом 404 сканируются повторно на 49,6% чаще, чем страницы с ответом 410.
Получается, чисто с технической точки зрения будет более корректно отдавать 410, если вы не собираетесь размещать на данном URL в будущем индексируемый контент.
Хотя, впрочем, на краулинговый бюджет это влиять никак не будет.
P.S. Еще существует поверье, что страницы с ответом 410 быстрее вылетают из индекса, чем с 404. Но экспериментов, подтверждающих это, пока не встречал.
Который показал, что страницы с ответом 404 сканируются повторно на 49,6% чаще, чем страницы с ответом 410.
Получается, чисто с технической точки зрения будет более корректно отдавать 410, если вы не собираетесь размещать на данном URL в будущем индексируемый контент.
Хотя, впрочем, на краулинговый бюджет это влиять никак не будет.
P.S. Еще существует поверье, что страницы с ответом 410 быстрее вылетают из индекса, чем с 404. Но экспериментов, подтверждающих это, пока не встречал.
Rebootonline
404 vs 410 - The Technical SEO Experiment - Reboot Online
Does Google treat 404 and 410 response codes differently? Until now there was no data to firmly answer this. Our latest technical SEO experiment put them to the test. Read the results now. Second draft.
👍4
Какими только обрядами и ритуалами не обрастает сеошная практика. Один буржуйский сеошник на полном серьезе утверждает, что в URL страниц обязательно надо помещать папку с названием услуги (/services/) перед папкой с названием региона (/location/), т.е. структура URL обязательно должна быть в виде site/service/location/.
Вездесущий гуглоид Джон Мюллер спешит развенчать этот абсурдный миф:
Вездесущий гуглоид Джон Мюллер спешит развенчать этот абсурдный миф:
"Что касается SEO, мы рассматриваем URL скорее как идентификаторы, за очень немногими исключениями".
Mastodon
John Mueller (@johnmu@mastodon.social)
@SEOfarfar@seocommunity.social I'm trying to think of where this could play a role, and I don't think there's anything on the SEO side where it would. I could see it being relevant for UX or marketing though, maybe users care more about "service" or "location"…
В блоге Яндекса для вебмастеров опубликован пост об обновлении алгоритма определения вторконтента, явившегося причиной массового наложения фильтра за малополезный контент и спам в этом месяце, о чем я уже писал ранее.
Перечислены варианты использования заимствованного контента, не попадающие под санкции:
Последний пункт про дополнительную ценность определенно радует своей конкретикой 😊
Перечислены варианты использования заимствованного контента, не попадающие под санкции:
"авторских (предоставленные производителем, создателем, организатором) описаний товаров, услуг, событий, организаций, компьютерных программ, инструкций к применению и руководств по эксплуатации;
текстов литературных и фольклорных произведений, песен, анекдотов, цитат и афоризмов;
текстов законов, указов и других нормативных актов, стандартов, шаблонов документов;
своего текста из других источников (блогов, социальных сетей), пресс-релизов, опубликованных в других источниках;
и в других случаях, когда в результате пользователи получают дополнительную ценность. "
Последний пункт про дополнительную ценность определенно радует своей конкретикой 😊
Блог Яндекса
Яндекс обновил алгоритмы поиска, чтобы лучше определять неоригинальный контент
Яндекс регулярно обновляет собственные алгоритмы, чтобы улучшать качество поиска. Очередное обновление прошло в августе. Теперь алгоритмы лучше определяют заимствованный и неоригинальный контент на сайтах. Если сайт не предлагает оригинального контента, содержит…
🤬4🎉3❤🔥2👍2
Свежий ролик из серии "Search Central Lightning Talks", в котором Мартин Шплитт занимается ликбезом по использованию инструмента Chrome Devtools для диагностики и улучшения показателей Core Web Vitals.
Рекомендуется к просмотру для общего развития тем, кто плохо знаком с Google Lighthouse.
Рекомендуется к просмотру для общего развития тем, кто плохо знаком с Google Lighthouse.
YouTube
Debugging Core Web Vitals with Chrome Devtools
The Core Web Vitals allows you to identify challenges users might face while they're on your pages. How can you turn these metrics into actionable steps? Watch along and learn how Chrome can give you extra insights with Devtools.
Links:
The performance…
Links:
The performance…
👍2