SЕalytics (SEO-аналитика от Сергея Людкевича)
2.53K subscribers
836 photos
9 videos
2 files
3.73K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Так, походу, у надувателей пузыря AGI что-то идет не так. Президент Anthropic Даниэла Амодей говорит, что AGI – это уже что-то устаревшее. Типа Клод умеет программировать так же хорошо, как и некоторые из лучших инженеров, но все еще не справляется с элементарными человеческими задачами.
Походу, в элементарных человеческих задачах много больше неопределенностей, чем в программистских.
Вот и гуглоиды уже осторожно дистанцируются от AGI:
Подъехали главные тренды ИИ-агентов в бизнесе на 2026 год от Гугла. Взглянем на основные:

1️⃣ Сотрудники становятся стратегами-оркастраторами-мастерами над ИИ-агентами, которые бустят их продуктивность. Они забирают рутинные задачи полностью, а в остальном человеку остается задавать стратегическое направление и формулировать цели, когда ИИ-агентами сами будут находить к ним путь
2️⃣ Часть бизнес-процессов объединяются под управлением связной цепочки ИИ-агентов. Например, в телекоме агенты могут зафиксировать аномалию в сети, проактивно открыть тикет для тех, кто это выезжает чинить, и проинформировать пользователей о технической проблеме
3️⃣ Для покупателей сервисы станут более персонализированными, так как будут помнить его предпочтения и прошлый опыт
4️⃣ Из-за масштабирования ИИ в компаниях потребуется внедрять системы обучения персонала ИИ-инструментам и использованию ИИ-агентов. В целом, ИИ развивается, а из-за этого людям придется все чаще переобучаться.

В Гугле подытоживают, что AGI — концепция с неопределенным будущим, неизвестно насколько далеким. А вот ИИ-агенты — уже здесь и сейчас.
"Год в поиске: исследование AI Overviews" от Serpstat на основе 1 миллиарда запросов и 35 миллионов AI Overviews.
Основные выводы:
"• Доля AIO выросла с 0,01% до 27,46% за один год. Наибольший скачок: март 2025 года (+8%).
• Источники AIO и органический топ-20 в значительной степени независимы (~95% не пересекаются).
• Когда AIO использует органические результаты, она отдает явное предпочтение позициям 1–5.
• В списках цитирований AIO преобладают пользовательский контент и авторитетные сайты.
• Количество упоминаний искусственного интеллекта в Google довольно изменчиво.
• США лидируют с показателем AIO 33,81%.
• 70% ключевых слов в категории AIO содержат 10 и более слов."
Буржуйский сеошник Барри Шварц обнаружил очередную пропажу внешних ссылок из отчета Google Search Console, что случается периодически.
"Для моего сайта Google показывает более чем на 50% меньше ссылок, чем в августе. Количество внешних ссылок сократилось с примерно 350 000 до менее чем 150 000."
Буржуйский сеошник Глен Гейб жалуется, что Google Discover показывает ему в своей ленте его же собственные посты на X. Незатейливый способ потешить самолюбие пользователя?
SЕalytics (SEO-аналитика от Сергея Людкевича)
Меж тем файл llms.txt замечен на сайте Google for Developers, где расположен портал Google Search Central. И судя по реакции гуглоида Джона Мюллера, это не троллинг от команды по связям с общественностью. 😀
Гуглоид Джон Мюллер заявил, что появившиеся в подпапках принадлежащих Google сайтов таких как developers.google.com, developer.chrome.com и web.dev, файлы llms.txt нужны не для систем искусственного интеллекта, а для каких-то загадочных "других целей":
"Ни один из этих файлов недоступен по умолчанию, поскольку они находятся не в корневом каталоге сайта. Можно предположить, что они предназначены для других целей."

Что это за цели – остается только догадываться
Черный юмор от буржуйского сеошника Колана Нильсена:
"Раньше говорили, что вторая страница Google — лучшее место, чтобы спрятать труп. Сейчас же, со всеми этими AIO, Google Ads, LSA, Local Pack Ads, а также форумами, PAA... я бы сказал, что лучше всего спрятать труп на первой позиции в органической выдаче."
😁8👍2
Надуватели пузыря ИИ призывают не замечать плохое качество ответов ИИ-систем:
"В течение недели генеральный директор Microsoft Сатья Надела и ведущий инженер Google Gemini Джаана Доган опубликовали комментарии по поводу критики ИИ, объединенные общей темой. Оба переключили внимание с вопроса о том, является ли результат работы ИИ «хорошим» или «плохим», на реакцию людей на эту технологию.
Наделла опубликовал в своем личном блоге статью «Взгляд в будущее, на 2026 год», в которой написал, что индустрии необходимо «преодолеть споры о некачественной продукции против изысканности».
Несколько дней спустя Доган опубликовала на X сообщение о том, что «люди выступают против новых технологий только тогда, когда им надоедает их пробовать».
Поводом для этих заявлений послужило объявление слова «slop» (помойка) словом года от Merriam-Webster. Для издателей эти заявления могут восприниматься не как заверение, а скорее как просьба перестать сосредотачиваться на качестве."
👍2
Новое исследование Ahrefs "100 самых часто задаваемых вопросов в Google (январь 2026 г.)".
Любопытно, что самый популярный запрос как в США, так и в мире – what is today.
😁2
SЕalytics (SEO-аналитика от Сергея Людкевича)
Новое исследование Ahrefs "100 самых часто задаваемых вопросов в Google (январь 2026 г.)". Любопытно, что самый популярный запрос как в США, так и в мире – what is today.
И ещё одно исследование от Ahrefs – "Самые популярные темы (январь 2026 г.)".
Под самыми популярными темами подразумеваются запросы с наибольшим средним приростом объема за последние три месяца.
Удивительно, но в США в топ-10 входят запросы на китайском и испанском, а также запрос, в котором фигурируют индийские рупии.
Буржуйский сеошник Бретт Табке говорит о необходимости сокращения страниц с thin content и анонсирует серию статей о сокращении контента.
По его мнению,
"Эпоха SEO-оптимизации по принципу «наугад» закончилась."

С чем я целиком и полностью согласен и уже давно об этом говорю. Мусор на сайте – зло.
🔥2
Согласно исследованию компании BuzzStream
"• 79% ведущих новостных сайтов блокируют ботов для обучения ИИ через файл robots.txt.
• Google-Extended — наименее блокируемый бот для обучения.
• 71% сайтов также блокируют поисковые боты, использующие искусственный интеллект.
• Бот PerplexityBot, используемый для индексирования, заблокирован на 67%.
• Лишь 14% издателей блокируют все боты с искусственным интеллектом, а • 18% не блокируют ни одного."
Обновленный список каталогов для размещения ссылок, сгруппированных по назначению: от основных веб-индексов и профессиональных списков до отраслевых и региональных платформ от буржуйского сеошника Бретта Табке.
"Используйте его в качестве тактического справочника для диверсификации ссылочного профиля, повышения согласованности цитирований и поиска скрытых источников квалифицированного трафика."
👍4
Гуглоид Джон Мюллер ответил на вопрос, почему возникает статус "Page Indexed without content" в отчетах Google Search Console:
"Обычно это означает, что ваш сервер/CDN блокирует доступ Google к контенту. Это не связано с JavaScript. Как правило, это блокировка довольно низкого уровня, иногда основанная на IP-адресе Googlebot, поэтому проверить это вне инструментов тестирования Search Console, вероятно, будет невозможно. Кроме того, это означает, что страницы вашего сайта начнут исчезать из индекса (скоро или уже сейчас), поэтому к этому следует отнестись как к срочной проблеме."
SЕalytics (SEO-аналитика от Сергея Людкевича)
Буржуйский сеошник Бретт Табке говорит о необходимости сокращения страниц с thin content и анонсирует серию статей о сокращении контента. По его мнению, "Эпоха SEO-оптимизации по принципу «наугад» закончилась." С чем я целиком и полностью согласен и уже давно…
Вышла первая статья из анонсированного буржуйским сеошником Бреттом Табке цикла о сокращении ненужного контента на сайте, посвященная аудиту контента. Рекомендуется проанализировать данные Google Search Console, запускаемого самостоятельно веб-краулера и лог-файлов.
"Результаты первого этапа
Если первый этап выполнен правильно, у вас должны остаться следующие документы.
Если их нет, аудит не завершен.
• Инвентаризация URL-адресов, помеченных только на основе наблюдаемого поведения, а не мнения.
• Список страниц, показавших контент, но не получивших кликов за последние 6–12 месяцев.
• Выявленные кластеры пересечения намерений , где несколько URL-адресов конкурируют за один и тот же объект или задачу.
• URL-адреса, интенсивно индексируемые поисковыми системами, не дающие измеримой отдачи на основе данных логов."