ChatGPT, AI, Python для SEO - автоматизация
378 subscribers
38 photos
2 videos
35 links
Автоматизация с помощью python работы в seo.
Скрипты которые решают большинство вопросов в seo c исходным кодом.

Контакт https://t.me/devvver
Download Telegram
🔍 RDAP-инструмент для проверки доменов !
Уже месяц как официально Whois перестали поддерживаться. Если вы где-то проверяете с помощью whois - это или поддержка старого API или данные получают с помощью RDAP и отдают вам.


🧠 Всё работает через официальный протокол RDAP, с выбором сервера на основе зоны домена (например, .com, .org и т.д.).

💡 Этот Python-скрипт дает возможность получить:

Статус домена
📅 Даты регистрации и истечения
👥 Контакты и организации
🌐 DNS-серверы
📄 Примечания и источник данных (RDAP-ссылка)

Зачем это нужно - можно переделать под чекер времени до дропа, юзать для своих PBN или для перехвата освобождающихся доменов.
Ссылка на Гитхаб
1👍6🔥1
🕷Получение карты XML и парсинг по полученным ссылкам.
Иногда нужно получить все ссылки конкурента (которые должны индексироваться) и спарсить какие то данные. Пример демонстрирует получение xml карты и реализацию однопоточного парсинга (заготовка).

Код на Python который:

🧨Загружает все ссылки из sitemap.xml ;

🧨Проверяет код ответа каждой страницы (200, 404, и т.д.);

🧨Автоматически открывает каждую ссылку через Selenium;

🧨Извлекает заголовок страницы (<title>) - сделано для демонстрации, парсить можно все что угодно;

Позволяет настроить свой User-Agent и задержку между запросами (для некоторых сайтов которые жестко следят за юзерагентом);

Отображает процесс работы: сколько осталось, сколько прошло времени ⏱️;

После завершения — позволяет скачать все результаты в CSV.

По традиции ссылка с исходным кодом на гитхаб.
1🔥6🤡2👏1
Этот инструмент позволяет наглядно отобразить векторную семантическую близость между статьями. Он использует модель BERT (LaBSE) для оценки смысловой схожести текстов и визуализирует результат в виде интерактивного графа.

Как пользоваться:
Подготовьте CSV-файл с двумя колонками: Address (URL статьи) и H1-1 (заголовок) - экспорт из лягушки.
Загрузите файл в интерфейс Streamlit - простым перетаскиванием.
Инструмент автоматически скачает и распарсит текст каждой статьи.

Можно настраивать порог релевантности, выбирать отображение одиночных узлов и скачивать CSV со списком схожих пар.

Зачем нужно:
1) Найти малорелевантные страницы для улучшения siteEmbeddings, поможет увеличить тематический траст после удаления.
2) Найти страницы с 100% совпадением - каннибализация и дубли.
3) Найти наиболее семантически релевантные страницы для ручной перелинковки.
4) Можно проверять разные сайты - таким образом среди списка страниц разных доменов искать релевантные (для PBN).

Ссылка на Гитхаб.
2🔥10👍2👌1
🧾 Масcовый многопоточный RDAP-чекер доменов
Этот веб-сервис позволяет массово проверять информацию о доменах с использованием протокола RDAP (Registration Data Access Protocol). Пользователь загружает .txt-файл со списком доменов:
📄 Формат входного файла — .txt, по одному домену на строку (возможны с http(s)://, www. — они будут автоматически обработаны).
Результаты в таблице + возможность скачать CSV-файл с полной информацией (смотри скрины)

🔍 Для каждого домена определяет:
Регистратора (если доступен)
Дату регистрации
Дату истечения делегирования
Последнюю дату изменения
Статус (active, inactive, pendingDelete и др.)
Свободен ли домен
Ссылку на RDAP-источник
Статус обработки запроса (OK, ошибки и т. п.)

🚀 Возможности:
Многопоточность: (1000 доменов за 20 секунд, 13000 доменов за 4 минуты!)
Автоматическое определение RDAP-сервера на основе зоны домена (.com, .org, и др.) Не проверяет региональные домены (ru, su, fr, pl и другие)
Установка:
pip install streamlit requests

Скачать с гитхаб.
1🔥9👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Новый Яндекс Wordstat API - используем с помощью скрипта на Python.

Парсим до 2000 ключей за 1 запрос. Можно спарсить все ключи по запросу из Wordstat , для этого установите рекурсивный сбор побольше (ограничение от Яндекса в сутки 1000 запросов).

Перед запуском устанавливаем библиотеки:
pip install streamlit requests pandas


Подробнее о подключении.
Структура запросов в справке Яндекса.

В исходник вставьте свой Яндекс OAuth, вот подробнее о его получении.
Руководство от нуля до получение API.
Ссылка на исходник (Гитхаб).
🔥5😱32
Обновление бесплатного парсера Вордстата.
Добавленный функционал:

💫 1) Теперь видно количество используемых лимитов API

💫 2) Обработка 429 и 503 ошибок - теперь если лимиты кончатся скрипт 3 раза пробует повторить действие и корректно прекращает парсинг.

💫 3) Скорость сбора ускорена до 7 раз

💫 4) Реализована возможность докачки ключей если у вас кончились лимиты. Теперь скрипт запоминает позицию парсинга. Если на следующий день (когда добавят лимиты) вы снова запустите парсинг - будет происходить парсинг не с начала, а с точки где вы остановились.
5) Реализовано сохранение (кроме csv и excel) в базу данных Sqlite.

Как установить - читайте в прошлом описании или полное на блоге.

Линк на Github.

Поддержите пост, так будет понятно что вам нужны подобные скрипты. Репост приветствуется 👍
👍10🔥51👌1
Скрипт для мониторинга доменов в Google Sheets:

— Добавляешь любые URL в вкладку Add domains, нажимаешь Extract — скрипт извлекает чистые домены.
💫 Проверяет RDAP/WHOIS и автоматически распределяет по вкладкам: Redemption, <30d, >30d.
💫 Показывает фазу домена, ориентировочную дату дропа и сколько дней осталось.
💫 Ведет аудит во вкладке logs, добавляет Wayback-ссылку на каждый домен.
💫 Есть кнопки Recheck для каждого бакета, дубликаты убираются автоматически.
💫 Работает «из коробки» — без API-ключей.

Ссылка
👍311
Генерирует семантическую вселенную ключевых слов на основе модели EAV (Entity-Attribute-Value / Сущность-Атрибут-Значение), которую можно использовать как в SEO, так и в GEO рабочих процессах.

Как это может помочь вашей SEO + GEO стратегии:

Упорядочивает запросы вокруг сущностей, атрибутов и переменных.

Стройте тематические карты, которые легче перепрофилировать в наборы данных для RAG (Retrieval-Augmented Generation), контент-брифы или внутренние базы знаний.

Определяйте, какие интенты (информационные, коммерческие, транзакционные) требуют лучшего покрытия для AI-обзоров и генеративных функций поисковой выдачи (SERP).

Создавайте структурированные входные данные для масштабируемого производства контента (программное SEO, лендинги, FAQ, тематические хабы).

Сравнивайте семантическое покрытие по продуктам, услугам или рынкам, чтобы увидеть, где генеративные системы могут «галлюцинировать» или заполнять пробелы контентом конкурентов.

Оригинал поста

Github
🔥5😁21👍1
Аудит EEAT через Screaming Frog + ИИ

При высокой конкуренции слабый контент = потеря трафика. Проверять тысячи страниц вручную не вариант — решает связка Screaming Frog + OpenAI API.

🛠 Ключевые настройки
• Импорт библиотеки промптов (JSON через Download Prompts Config)
• В Extraction включить Store HTML render — иначе API не отработает
• Сканировать только важные URL (блог, ключевые лендинги), чтобы не тратить API-бюджет

🔍 Что оценивает ИИ (1–10)
• Авторство и экспертиза
• Качество источников и цитирования
• Content Effort (уникальность, глубина)
• Оригинальность
• Интент страницы (helpful-first vs SEO-first)

📊 Результат
Экспорт в Google Sheets → средние баллы по критериям → сразу видно, где контент не проходит по E-E-A-T.

Ссылка на статью и промпт.
🔥41
Обновление скрипта для проверки дат регистрации доменов. Незаменимый инструмент для поиска и перехвата дропов, построения PBN сеток.

📄 Формат входного файла — .txt, по одному домену на строку (возможны с http(s)://, www. — они будут автоматически обработаны).
Результаты в таблице + возможность скачать CSV-файл с полной информацией (смотри скрины)

🔍 Для каждого домена определяет:

Регистратора (если доступен)
Дату регистрации
Дату истечения делегирования
Последнюю дату изменения
Статус
Свободен ли домен
Ссылку на RDAP-источник
Статус обработки запроса

🚀 Возможности:
Можно проверять 10К доменов!


Автоматическое определение RDAP-сервера на основе зоны домена реестров gTLD (.com, .org, и др.) Не проверяет региональные домены (ru, ua, su, fr, pl и другие)


Теперь работает без установки питона, можно запустить в браузере.
Линк на Colab.

После запуска выбираем txt файл с списком доменов.
Сканирование.
Файл автоматически скачивается после выполнения в csv формате.
👍3😁1😐1
Backlink Checker для обратных ссылок в Google Sheets.

Что умеет скрипт:
- берет из вкладки Input: Link to post, Target URL, опциональный Anchor;
- проверяет страницу:
- HTTP-код;
- допускается ли к индексации (robots.txt, meta robots, X-Robots-Tag);
- ищет бэклинк на Target URL:
- сохраняет найденный URL и анкор;
- фиксирует nofollow, ugc, sponsored;
- подтягивает для домена страницы NS и A записи;
- на вкладке Patterns группирует домены:
- по NS-серверам;
- по IP;
- по конкретным Link (found) и Anchor (found).

Есть два режима проверки: Browser и Bot (пользовательский агент можно переключать в сайдбаре).

Кнопками в панели можно:
- запустить проверку со 2-й строки;
- продолжить с первого пустого статуса;
- проверить только пустые;
- перепроверить строки с No;
- обновить все результаты;
- проанализировать NS / IP паттерны.

Удобно, когда нужно держать под контролем кучу ссылок, видеть, что еще индексируется, а где уже нет, и ловить сетки на одних и тех же NS/IP.

Ссылка
🔥1
Парсер поисковых подсказок Google через API с экспортом в CSV.
Поддерживает английский, русский, украинский и другие языки.

У Гугла есть недокументированное API поисковых подсказок, которое появилось на заре использования AJAX запросов в браузерах Хром и Фирефокс.

Я его использую для расширения семантики, а в некоторых случаях и для уточнения поискового интента запроса или кластера.


Первый сервис

Второй сервис отличается от первого автоматическим сбором группы запросов за счет подстановки первых букв после ключа.

Второй сервис

Оба сервиса сделаны на html + js , можете скачать себе и допилить под свои нужды. Помните что Гугл может забанить доступ к API по ip.

Если вы никогда не работали с подсказками - я залил на Хабр статью "Как использовать API поисковых подсказок Google".
👍7🔥1👌1
🚀 Автоматизируем поиск новых ключей через GSC API

Каждый месяц (или чаще) SEO-специалисту важно понимать: по каким новым запросам начали ранжироваться страницы. В стандартном интерфейсе Google Search Console сравнивать списки запросов за два периода «на лету» крайне неудобно.

🛠 Что умеет скрипт:
Сравнение периодов: автоматически берет данные за прошлый и позапрошлый месяцы (можно настроить вручную и указать текущий, но учитывайте что данные с задержкой 1-7 дней).


💡 Зачем это нужно?
Поиск точек роста: Видим новые «хвосты», под которые можно дооптимизировать контент.

Быстро находим страницы, которые начали цеплять релевантный (или не очень) трафик или показы после обновлений.



🔧 Как запустить:
Положить рядом файл credentials.json от вашего Google Service Account. Тут как его получить.

Установить зависимости: pip install streamlit pandas google-api-python-client.

Ссылка Github

#SEO #GSC #Python #Automation
6👍2
Анализатор сущностей на Wikidata (для Entity-based SEO).

Инструмент для визуализации данных и глубокого анализа объектов из Wikidata. Если вам нужно быстро понять структуру сущности или связи между терминами — этот сервис сделает всё за вас.

Что умеет сервис?
Умный поиск: Мгновенно находит нужную сущность среди миллионов объектов Викиданных. По клику открывает страницу на Википедии. Поддерживает много языков, в том числе украинский, русский,английский и др.

♦️Граф атрибутов: Вы сразу видите все характеристики сущности в виде интерактивной карты.

♦️Граф релевантности:Перекрестные связи между связанными объектами, выявляя скрытую сеть зависимостей.

♦️Сбор фактов и алиасов: Извлекает короткие факты и описания (не для всех сущностей работает).

♦️Поисковые тренды: Поисковые подсказки Google.

🛠 Как это использовать?
Введите название: Например, «SpaceX»

Ссылка

Сделано на html+JS , можете сохранить локально и дорабатывать с ИИ
🔥2👍1👎1