SЕalytics (SEO-аналитика от Сергея Людкевича)
2.66K subscribers
1.06K photos
10 videos
2 files
4.07K links
Мысли по аналитике поисковых машин и сложным вопросам SEO от Сергея Людкевича

SEO-консалтинг, аудиты, onsite и onpage оптимизация.
Связь:
email: ludkiewicz@ya.ru
telegram: @ludkiewicz
skype: ludkiewicz_serge
сайт: https://www.ludkiewicz.ru/
Download Telegram
Буржуйский сеошник Дэн Петрович реализовал с нуля на PyTorch представленный гуглоидами алгоритм сжатия для LLM TurboQuant и делится его полным кодом, включая ядро ​​Triton.
2
Буржуйский сеошник Дэн Петрович представил двухэтапную методологию количественной оценки авторитета брендов в памяти ИИ на основе алгоритма PageRank Nearest Seeds (PageRank NS) от Google.
"На первом этапе определяется 8608 брендов-источников на основе 200 000 независимых опросов на запоминание. На втором этапе строится направленный граф ассоциаций брендов путем запроса к модели 100 ближайших брендов к каждому источнику, а затем вычисляются показатели авторитета с использованием кратчайших расстояний через этот граф."

Публичного инструмента, реализующего эту методологию, пока не заявлено.
2
Буржуйский сеошник Иван Палий рассказывает, как завести свой лунапарк сабреддит.
"Я считаю, что процветать будут только те сообщества, которые смогут привлечь реальных людей для участия в дискуссиях. Именно поэтому я составил иерархию наиболее важных этапов, за которыми вам необходимо следить:
1. Первый органический комментарий от человека.
2. Первая органическая публикация от человека.
3. Первые вирусные посты (1 тыс., 5 тыс., 10 тыс. показов)
4. Присоединилось 100-500-1000 участников.
5. Первый трафик с Reddit.
6. Первые публикации заняли верхние позиции в результатах поиска Google.
7. В первых демонстрациях и продажах Reddit упоминался в качестве источника информации при регистрации."
Буржуйский сеошник Сайрус Шеппард разбирает поведенческие факторы Google на основе данных, полученных в результате утечки API Google, антимонопольного процесса и патентных заявок.
"Вот 5 наиболее важных сигналов кликов:
1. Показы — это когда URL-адрес появляется в результатах поиска. Важно отметить, что Google, похоже, «тестирует» разные URL-адреса на разных позициях в результатах поиска, чтобы определить, какие из них показывают наилучшие результаты.
2. Клики — это когда пользователь кликает на результат поиска. Если пользователи часто кликают на определенный результат по сравнению с количеством его показов, Google может расценивать это как положительный сигнал.
3. badClicks — «...короткий клик может свидетельствовать о плохом качестве страницы». Например, если пользователи кликают на результат и сразу же возвращаются к результатам поиска, это может указывать на то, что страница не удовлетворила их запрос.
4. goodClicks — «...длительный клик можно считать показателем хорошей страницы» и «исторически, то, как долго пользователь оставался на определенной странице по ссылке, прежде чем вернуться на страницу результатов поиска».
5. lastLongestClicks — «Количество кликов, которые были последними и самыми длинными в связанных пользовательских запросах». Длинные клики, когда «пользователь не возвращается на главную (поисковую) страницу», могут указывать на то, что страница удовлетворила его запрос."

Ну, как бы Америки не открыл.
👍4😁2
Индийский сеошник Виджай Чаухан провел реверс-инжинириг Claude Code. Вывод:
"Компания Anthropic не разрабатывает помощника по программированию с дополнительными функциями. Она создает локальную автономную операционную систему для агентов с плоскостью наблюдения и управления, внедряя ее постепенно, по одному разблокированному флагу функции за раз.
...
Представленный продукт — это первый уровень. Разрабатываемый продукт — это агент, который может видеть ваш экран, слышать ваш голос, работать по расписанию, подключаться к удалённому управлению, сжимать собственную память, управляться второй моделью и сообщать обо всём, что вы делаете во время его использования.
Вопрос не в том, произойдёт ли это.
Инфраструктура уже создана. Телеметрия уже работает. В аварийном выключателе уже есть список исключений.
Вопрос в том, какой флаг будет перевернут следующим — и какая категория пользователей получит доступ первой."

Универсальный шпион.
Кто бы мог подумать лет 5-10 назад, что яндексоиды будут предлагать автоматизированные решения для генерации тайтлов. Тогда это называлось "машинно-сгенерированным контентом" и считалось жёстким спамом. А теперь вот оно как. 😜
😁2
Низкий CTR в Поиске? Улучшаем заголовки с помощью ИИ

Даже если страница технически безупречна, слабый заголовок может снижать конверсию. Пользователи видят Title в выдаче первыми — и именно от него зависит, перейдут они на сайт или нет.

В карточках — как с помощью Алиса AI быстро сгенерировать варианты заголовков, которые повысят CTR и сохранят релевантность. Плюс чек-лист для выбора лучшего варианта.

Пример промпта для Алиса AI — сохраните, чтобы не потерять:

Предложи 5 вариантов Title для страницы о ремонте ноутбуков в Москве. Сделай акцент на преимуществах и срочности, чтобы выделиться в выдаче.

Длина: до 60 символов.

Обязательно: 1–2 ключа из «Статистики запросов», название бренда, призыв к действию (при необходимости).

Тон: нейтральный/дружелюбный.

Текущий title: «Услуги по ремонту».

Описание: «ремонтируем ноутбуки любых моделей за 1–2 дня, выезд за 40 минут».


Цель: повысить CTR, сохранить релевантность запросу.

📚 Совет: тестируйте изменения на 3–5 страницах перед массовым внедрением.

📌Протестировать Алису AI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
P.S. Подумалось. А что, если в Телеграме пометку "Реклама" сделать сливающейся с фоном, так же, как это сделали яндексоиды с пометкой "Промо" на выдаче. Интересные эффекты могут получиться. 😁
😁5
Вышел 107-й выпуск подкаста Google Search Off the Record, в котором Мартин Шплитт и Гэри Ийеш обсудили, становятся ли веб-страницы слишком большими, и чем это грозит обычным пользователям и поисковым роботам.
Сославшись на данные Web Almanac, они пришли к выводы, что за последние 10 лет средний объем мобильной веб-страницы увеличился в 3 раза. Но все равно составляет в несколько раз меньше 15 Мб – ограничения, которое накладывает Google на индексацию страницы.
Почему-то умолчав о том, что недавно гуглоиды уменьшили это ограничение до 2 Мб.
В общем, цель очередного получасового трёпа опять от меня ускользнула.
👍1
Патрик Стокс из Ahrefs представил новый инструмент Bot Analytics:
"Мы выпустили новый инструмент, который показывает, как боты сканируют ваш сайт. Bot Analytics собирает данные на стороне сервера через интеграцию с Cloudflare, но мы добавим больше интеграций по мере необходимости."
Согласно опросу Университета Куиннипиак, несмотря на рост использования и внедрения ИИ, американцы по-прежнему не доверяют этому новому инструменту. Из почти 1400 опрошенных американцев более трех четвертей заявили, что не доверяют ИИ — 76% говорят, что доверяют ему редко или только иногда, по сравнению с всего 21%, которые доверяют ему большую часть времени или почти всегда.
Похоже, пузырь надувается как-то не так.
Буржуйский сеошник Броди Кларк обнаружил резкое увеличение показов в отчетах об эффективности Google Search Console для некоторых срезов данных, например, для вида поиска "Описание товаров" ("Merchant Listings").
То ли глюк, то ли кто-то стал усиленно парсить определенные типы запросов.
😁1
Гуглоид Гэри Ийеш опубликовал в блоге Google Search Central статью, в которой объясняет про ограничение в 2 МБ для Googlebot'а.
"Что это означает для байтов, которые ваш сервер отправляет по сети?
1. Частичная загрузка: если ваш HTML-файл превышает 2 МБ, Googlebot не отклоняет страницу. Вместо этого он останавливает загрузку ровно на отметке в 2 МБ. Обратите внимание, что ограничение включает заголовки HTTP-запроса.
2. Обработка фрагмента: загруженная часть (первые 2 МБ байт) передается в наши системы индексирования и службу веб-рендеринга (WRS) как если бы это был полный файл.
3. Невидимые байты: любые байты, существующие после достижения порога в 2 МБ, полностью игнорируются. Они не загружаются, не отображаются и не индексируются.
4. Загрузка ресурсов: Каждый ресурс, на который ссылается HTML-код (за исключением медиафайлов, шрифтов и нескольких экзотических файлов), будет загружен WRS с помощью Googlebot так же, как и родительский HTML-код. У каждого ресурса свой отдельный счетчик байтов для каждого URL-адреса, и они не учитываются в размере родительской страницы.
Для подавляющего большинства веб-сайтов HTML-код размером 2 МБ — это огромный объём, и вы никогда не достигнете этого предела. Однако, если ваша страница содержит раздутые встроенные изображения в формате base64, огромные блоки встроенного CSS/JavaScript или начинается с мегабайтов меню, вы можете случайно превысить отметку в 2 МБ для фактического текстового контента или важных структурированных данных. Если эти важные байты не будут загружены, для Googlebot они просто не существуют.
...
Чтобы Googlebot мог эффективно получать и понимать ваш контент, помните о следующих рекомендациях по работе с данными на уровне байтов:
• Старайтесь максимально оптимизировать HTML-код: переносите ресурсоемкие CSS и JavaScript во внешние файлы. Хотя размер исходного HTML-документа ограничен 2 МБ, внешние скрипты и таблицы стилей загружаются отдельно (с учетом собственных ограничений).
• Порядок имеет значение: размещайте наиболее важные элементы — такие как метатеги, <title>элементы <link><head>, канонические ссылки и необходимые структурированные данные — выше в HTML-документе. Это гарантирует, что они вряд ли окажутся ниже линии отступа.
• Отслеживайте журналы сервера: следите за временем ответа сервера. Если ваш сервер испытывает трудности с обработкой данных, наши обработчики автоматически замедлят свою работу, чтобы избежать перегрузки вашей инфраструктуры, что приведет к снижению частоты сканирования."

В общем, есть таки смысл поглядывать за тем, чтоб что-то нужное не оказалось ниже отсечки в 2 МБ.
Гуглоид Гэри Ийеш также опубликовал в блоге Google Search Central сообщение о том, что JSON-файлы со списком диапазонов IP-адресов Google перемещаются в раздел справки "Crawling infrastructure"
"Мы уже обновили нашу документацию, указав на новое местоположение. На данный момент файлы будут по-прежнему доступны по старому /search/ пути, чтобы дать всем время обновить свои системы. Однако мы рекомендуем вам как можно скорее перейти на новый /crawling/ipranges/ путь. В конечном итоге мы постепенно отключим старые местоположения и перенаправим пользователей на новые в течение 6 месяцев."