Буржуйский сеошник Дэн Петрович реализовал с нуля на PyTorch представленный гуглоидами алгоритм сжатия для LLM TurboQuant и делится его полным кодом, включая ядро Triton.
dejan.ai
TurboQuant: From Paper to Triton Kernel in One Session
Implementing Google’s KV cache compression algorithm on Gemma 3 4B and everything that went wrong along the way. On March 24, 2026, Google Research published a blog post introducing TurboQuant, a compression algorithm for large language model inference. The…
❤2
Буржуйский сеошник Дэн Петрович представил двухэтапную методологию количественной оценки авторитета брендов в памяти ИИ на основе алгоритма PageRank Nearest Seeds (PageRank NS) от Google.
Публичного инструмента, реализующего эту методологию, пока не заявлено.
"На первом этапе определяется 8608 брендов-источников на основе 200 000 независимых опросов на запоминание. На втором этапе строится направленный граф ассоциаций брендов путем запроса к модели 100 ближайших брендов к каждому источнику, а затем вычисляются показатели авторитета с использованием кратчайших расстояний через этот граф."
Публичного инструмента, реализующего эту методологию, пока не заявлено.
dejan.ai
AI Brand Authority Index: Ranking 2.9 Million Brands by Associative Embeddedness in Gemini’s Memory
Abstract When a large language model is asked to “name 100 brands at random,” it doesn’t produce uniform randomness. It produces a distribution shaped by its training data, revealing which brands occupy the most cognitive real estate in the model’s parametric…
❤2
SЕalytics (SEO-аналитика от Сергея Людкевича)
Паразитное SEO по-взрослому: "Многие внештатные авторы и сотрудники сайтов, посвященных азартным играм, технологиям и футболу, рассказали о том, как их сайты были проданы компании Clickout Media и быстро превратились в сайты с обзорами казино." Это вам не…
Ха! А ребята из Clickout Media оказались не промах. Просто заабьюзили страницы со статьями о своих подвигах через жалобы по DMCA, и гуглоиды выкинули их из индекса.
А что — так можно было? 😀
А что — так можно было? 😀
👏2😁1
Буржуйский сеошник Иван Палий рассказывает, как завести свой лунапарк сабреддит.
"Я считаю, что процветать будут только те сообщества, которые смогут привлечь реальных людей для участия в дискуссиях. Именно поэтому я составил иерархию наиболее важных этапов, за которыми вам необходимо следить:
1. Первый органический комментарий от человека.
2. Первая органическая публикация от человека.
3. Первые вирусные посты (1 тыс., 5 тыс., 10 тыс. показов)
4. Присоединилось 100-500-1000 участников.
5. Первый трафик с Reddit.
6. Первые публикации заняли верхние позиции в результатах поиска Google.
7. В первых демонстрациях и продажах Reddit упоминался в качестве источника информации при регистрации."
Hackthealgo
How to start and grow a subreddit for B2B SaaS?
And why. Based on my experience of growing 4 subreddits.
Буржуйский сеошник Сайрус Шеппард разбирает поведенческие факторы Google на основе данных, полученных в результате утечки API Google, антимонопольного процесса и патентных заявок.
Ну, как бы Америки не открыл.
"Вот 5 наиболее важных сигналов кликов:
1. Показы — это когда URL-адрес появляется в результатах поиска. Важно отметить, что Google, похоже, «тестирует» разные URL-адреса на разных позициях в результатах поиска, чтобы определить, какие из них показывают наилучшие результаты.
2. Клики — это когда пользователь кликает на результат поиска. Если пользователи часто кликают на определенный результат по сравнению с количеством его показов, Google может расценивать это как положительный сигнал.
3. badClicks — «...короткий клик может свидетельствовать о плохом качестве страницы». Например, если пользователи кликают на результат и сразу же возвращаются к результатам поиска, это может указывать на то, что страница не удовлетворила их запрос.
4. goodClicks — «...длительный клик можно считать показателем хорошей страницы» и «исторически, то, как долго пользователь оставался на определенной странице по ссылке, прежде чем вернуться на страницу результатов поиска».
5. lastLongestClicks — «Количество кликов, которые были последними и самыми длинными в связанных пользовательских запросах». Длинные клики, когда «пользователь не возвращается на главную (поисковую) страницу», могут указывать на то, что страница удовлетворила его запрос."
Ну, как бы Америки не открыл.
Zyppy
How Google Click Signals Drive SEO Rankings and AI Answers
The AI SEO Marketer's Playbook for improving user click signals in a way Google rewards
👍4😁2
Индийский сеошник Виджай Чаухан провел реверс-инжинириг Claude Code. Вывод:
Универсальный шпион.
"Компания Anthropic не разрабатывает помощника по программированию с дополнительными функциями. Она создает локальную автономную операционную систему для агентов с плоскостью наблюдения и управления, внедряя ее постепенно, по одному разблокированному флагу функции за раз.
...
Представленный продукт — это первый уровень. Разрабатываемый продукт — это агент, который может видеть ваш экран, слышать ваш голос, работать по расписанию, подключаться к удалённому управлению, сжимать собственную память, управляться второй моделью и сообщать обо всём, что вы делаете во время его использования.
Вопрос не в том, произойдёт ли это.
Инфраструктура уже создана. Телеметрия уже работает. В аварийном выключателе уже есть список исключений.
Вопрос в том, какой флаг будет перевернут следующим — и какая категория пользователей получит доступ первой."
Универсальный шпион.
Substack
I Reverse-Engineered Claude Code. Here's What Anthropic Isn't Telling You.
Inside the Black Box: What Claude Code Is Actually Doing on Your Machine
Кто бы мог подумать лет 5-10 назад, что яндексоиды будут предлагать автоматизированные решения для генерации тайтлов. Тогда это называлось "машинно-сгенерированным контентом" и считалось жёстким спамом. А теперь вот оно как. 😜
😁2
Forwarded from Канал / Яндекс Вебмастер
Низкий CTR в Поиске? Улучшаем заголовки с помощью ИИ ✨
Даже если страница технически безупречна, слабый заголовок может снижать конверсию. Пользователи видят Title в выдаче первыми — и именно от него зависит, перейдут они на сайт или нет.
В карточках — как с помощью Алиса AI быстро сгенерировать варианты заголовков, которые повысят CTR и сохранят релевантность. Плюс чек-лист для выбора лучшего варианта.
Цель: повысить CTR, сохранить релевантность запросу.
📚 Совет: тестируйте изменения на 3–5 страницах перед массовым внедрением.
📌 Протестировать Алису AI
Даже если страница технически безупречна, слабый заголовок может снижать конверсию. Пользователи видят Title в выдаче первыми — и именно от него зависит, перейдут они на сайт или нет.
В карточках — как с помощью Алиса AI быстро сгенерировать варианты заголовков, которые повысят CTR и сохранят релевантность. Плюс чек-лист для выбора лучшего варианта.
Пример промпта для Алиса AI — сохраните, чтобы не потерять:
Предложи 5 вариантов Title для страницы о ремонте ноутбуков в Москве. Сделай акцент на преимуществах и срочности, чтобы выделиться в выдаче.
Длина: до 60 символов.
Обязательно: 1–2 ключа из «Статистики запросов», название бренда, призыв к действию (при необходимости).
Тон: нейтральный/дружелюбный.
Текущий title: «Услуги по ремонту».
Описание: «ремонтируем ноутбуки любых моделей за 1–2 дня, выезд за 40 минут».
Цель: повысить CTR, сохранить релевантность запросу.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Вышел 107-й выпуск подкаста Google Search Off the Record, в котором Мартин Шплитт и Гэри Ийеш обсудили, становятся ли веб-страницы слишком большими, и чем это грозит обычным пользователям и поисковым роботам.
Сославшись на данные Web Almanac, они пришли к выводы, что за последние 10 лет средний объем мобильной веб-страницы увеличился в 3 раза. Но все равно составляет в несколько раз меньше 15 Мб – ограничения, которое накладывает Google на индексацию страницы.
Почему-то умолчав о том, что недавно гуглоиды уменьшили это ограничение до 2 Мб.
В общем, цель очередного получасового трёпа опять от меня ускользнула.
Сославшись на данные Web Almanac, они пришли к выводы, что за последние 10 лет средний объем мобильной веб-страницы увеличился в 3 раза. Но все равно составляет в несколько раз меньше 15 Мб – ограничения, которое накладывает Google на индексацию страницы.
Почему-то умолчав о том, что недавно гуглоиды уменьшили это ограничение до 2 Мб.
В общем, цель очередного получасового трёпа опять от меня ускользнула.
YouTube
Are websites getting “fat”? Page weight, HTML size & Googlebot limits explained
In this episode of Search Off the Record, Gary and Martin dig into what “page size” and “page weight” actually mean for developers, users, and search engines.
They discuss exploding web page sizes: median mobile homepages hit 2.3 MB in 2025 Web Almanac…
They discuss exploding web page sizes: median mobile homepages hit 2.3 MB in 2025 Web Almanac…
👍1
Патрик Стокс из Ahrefs представил новый инструмент Bot Analytics:
"Мы выпустили новый инструмент, который показывает, как боты сканируют ваш сайт. Bot Analytics собирает данные на стороне сервера через интеграцию с Cloudflare, но мы добавим больше интеграций по мере необходимости."
Согласно опросу Университета Куиннипиак, несмотря на рост использования и внедрения ИИ, американцы по-прежнему не доверяют этому новому инструменту. Из почти 1400 опрошенных американцев более трех четвертей заявили, что не доверяют ИИ — 76% говорят, что доверяют ему редко или только иногда, по сравнению с всего 21%, которые доверяют ему большую часть времени или почти всегда.
Похоже, пузырь надувается как-то не так.
Похоже, пузырь надувается как-то не так.
poll.qu.edu
The Age Of Artificial Intelligence:
Americans' AI Use Increases While Views On It Sour,
Quinnipiac University Poll On AI Finds;…
Americans' AI Use Increases While Views On It Sour,
Quinnipiac University Poll On AI Finds;…
"The contradiction between use and trust of AI is striking. Fifty-one percent say they use AI for research,
and many also use it for writing, work, and data analysis. But only 21 percent trust AI-generated information
most or almost all of the time. Americans…
and many also use it for writing, work, and data analysis. But only 21 percent trust AI-generated information
most or almost all of the time. Americans…
Буржуйский сеошник Броди Кларк обнаружил резкое увеличение показов в отчетах об эффективности Google Search Console для некоторых срезов данных, например, для вида поиска "Описание товаров" ("Merchant Listings").
То ли глюк, то ли кто-то стал усиленно парсить определенные типы запросов.
То ли глюк, то ли кто-то стал усиленно парсить определенные типы запросов.
😁1
SЕalytics (SEO-аналитика от Сергея Людкевича)
Ха! А ребята из Clickout Media оказались не промах. Просто заабьюзили страницы со статьями о своих подвигах через жалобы по DMCA, и гуглоиды выкинули их из индекса. А что — так можно было? 😀
Однако, на каждую хитрую гайку найдется свой болт с резьбой. Страницы, удаленные из индекса Google по абьюзе чуваков из Clickout Media, таки восстановили.
😁2
Гуглоид Гэри Ийеш опубликовал в блоге Google Search Central статью, в которой объясняет про ограничение в 2 МБ для Googlebot'а.
В общем, есть таки смысл поглядывать за тем, чтоб что-то нужное не оказалось ниже отсечки в 2 МБ.
"Что это означает для байтов, которые ваш сервер отправляет по сети?
1. Частичная загрузка: если ваш HTML-файл превышает 2 МБ, Googlebot не отклоняет страницу. Вместо этого он останавливает загрузку ровно на отметке в 2 МБ. Обратите внимание, что ограничение включает заголовки HTTP-запроса.
2. Обработка фрагмента: загруженная часть (первые 2 МБ байт) передается в наши системы индексирования и службу веб-рендеринга (WRS) как если бы это был полный файл.
3. Невидимые байты: любые байты, существующие после достижения порога в 2 МБ, полностью игнорируются. Они не загружаются, не отображаются и не индексируются.
4. Загрузка ресурсов: Каждый ресурс, на который ссылается HTML-код (за исключением медиафайлов, шрифтов и нескольких экзотических файлов), будет загружен WRS с помощью Googlebot так же, как и родительский HTML-код. У каждого ресурса свой отдельный счетчик байтов для каждого URL-адреса, и они не учитываются в размере родительской страницы.
Для подавляющего большинства веб-сайтов HTML-код размером 2 МБ — это огромный объём, и вы никогда не достигнете этого предела. Однако, если ваша страница содержит раздутые встроенные изображения в формате base64, огромные блоки встроенного CSS/JavaScript или начинается с мегабайтов меню, вы можете случайно превысить отметку в 2 МБ для фактического текстового контента или важных структурированных данных. Если эти важные байты не будут загружены, для Googlebot они просто не существуют.
...
Чтобы Googlebot мог эффективно получать и понимать ваш контент, помните о следующих рекомендациях по работе с данными на уровне байтов:
• Старайтесь максимально оптимизировать HTML-код: переносите ресурсоемкие CSS и JavaScript во внешние файлы. Хотя размер исходного HTML-документа ограничен 2 МБ, внешние скрипты и таблицы стилей загружаются отдельно (с учетом собственных ограничений).
• Порядок имеет значение: размещайте наиболее важные элементы — такие как метатеги, <title>элементы <link><head>, канонические ссылки и необходимые структурированные данные — выше в HTML-документе. Это гарантирует, что они вряд ли окажутся ниже линии отступа.
• Отслеживайте журналы сервера: следите за временем ответа сервера. Если ваш сервер испытывает трудности с обработкой данных, наши обработчики автоматически замедлят свою работу, чтобы избежать перегрузки вашей инфраструктуры, что приведет к снижению частоты сканирования."
В общем, есть таки смысл поглядывать за тем, чтоб что-то нужное не оказалось ниже отсечки в 2 МБ.
Google for Developers
Inside Googlebot: demystifying crawling, fetching, and the bytes we process | Google Search Central Blog | Google for Developers
Гуглоид Гэри Ийеш также опубликовал в блоге Google Search Central сообщение о том, что JSON-файлы со списком диапазонов IP-адресов Google перемещаются в раздел справки "Crawling infrastructure"
"Мы уже обновили нашу документацию, указав на новое местоположение. На данный момент файлы будут по-прежнему доступны по старому /search/ пути, чтобы дать всем время обновить свои системы. Однако мы рекомендуем вам как можно скорее перейти на новый /crawling/ipranges/ путь. В конечном итоге мы постепенно отключим старые местоположения и перенаправим пользователей на новые в течение 6 месяцев."
Google for Developers
New Location for the Google Crawlers' IP Range Files | Google Search Central Blog | Google for Developers