SEO Fuel (Gambling, SEO, PBN, дроп домени)
275 subscribers
107 photos
1 video
17 links
Все про SEO та дроп-домени: практичні кейси, тренди, експерименти
Download Telegram
Тут ви знайдете все про SEO, дроп-домени та експерименти в цифровому маркетингу.

🚀 Освоюйте SEO
🌐 Відкривайте потенціал дроп-доменів і PBN
🔬 Діліться досвідом та ідеями
👍2🔥1
Мені вже декілька раз після покупки дроп домену пропонували викупити в мене домен. І сьогодні знов прийшов такий запит. На що я написав 1,5к$. А у відповідь отримав лише 500$. При цьому домен був куплений за 10$. Чи треба продавати?
🔥3
#експеримент
Маю один дроп-домен, куплений більше року тому. До недавнього часу він просто лежав без діла, адже трафік так і не вдалося на нього повернути. Ще й виявилося, що наприкінці лютого я забув про подовження домену — звісно, аудиторія вже майже зникла, що видно з падіння показників.

Але я вирішив: "Чому б не дати домену ще один шанс?"

Так, я взявся за справу: спарсив близько 250 текстів, переклав їх та адаптував під свій сайт. Після масового завантаження контенту на платформу, я не забув про важливий крок — відправив sitemap.xml до Google через Search Console.

Тепер залишається лише чекати... Цікаво, до чого це призведе? Оновлення домену з новим контентом — це завжди невідомість, але я впевнений, що результати будуть цікавими.

Спостерігаємо разом!
👍4
ChatGPT значно оптимізує мій робочий процес, особливо коли мова йде про обробку великих обсягів даних у програмі Excel. Використання регулярних виразів в Excel може здаватися складним завданням, наприклад, коли потрібно швидко видалити з клітинок заголовки H1 або атрибути ALT зображень. У таких випадках я звертаюся до ChatGPT, який надає миттєві рішення для спрощення цього процесу.
👍3
Channel name was changed to «SEODropLab (SEO, PBN, дроп домени)»
В останньому оновленні алгоритмів Google багато вебсайтів, заснованих на автоматично генерованому контенті, зіткнулися з труднощами - деіндексацією і обнуленням трафіку.

Проте, існують сайти, які, незважаючи на використання штучно створеного контенту, продовжують ефективно функціонувати і показувати хороші результати. Одним з найбільш показових прикладів є сайт, зображення якого можна побачити на доданому скриншоті. Цей сайт не тільки використовує генерований контент, але й цікаво, що він не приховує цього факту.
👍2
22 квітня Ahrefs закриває черговий свій звіт. Особисто для мене він був більш зрозумілий, ніж новий. І швидко можна було подивитися гео доменів, що посилаються. А який звіт зручніший для вас?
👍1😢1
Сьогодні обговорювали точність даних у Search console і це змусило мене вкотре перечитати довідку Google і переконатися, що в консолі теж можуть бути неточні дані. Посилання на довідку
👍3
Натрапив сьогодні на ось такий кейс генерації AI контенту. Як видно на скріншотах, то дуже багато генерованого контенту Google не порізав на своєму апдейті. Знаю теж кілька непоганих сервісів, тексти яких Google нормально сприйняв на апдейті, але seowriting.ai ще не користувався. Можливо у вас є досвід?
Уже тиждень тестую сервіс генерації контенту seowriting.ai і є вже певні результати. Написали понад 20 статей і частина з них уже мають непогані позиції. При тому що були опубліковані кілька днів тому. Продовжую тестувати сервіс для того щоб подивитися як він покаже себе на більшому обсязі текстів/сайтів
👍2
Через Batch Analysis ще працює старий дашборд
👍2
Довго мене тут не було. Багато часу забирає робота з вебархівом. Ось зробив собі скрипт за допомогою якого можна швидко отримати список усіх сторінок за доменом у вебархіві. При цьому чистить від непотрібних файлів. Користуйтеся

from waybackpy import WaybackMachineCDXServerAPI
import re

# Замените example.com на интересующий вас домен.
url = "example.com/*"
user_agent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"

# Создаем объект API
cdx = WaybackMachineCDXServerAPI(url, user_agent)

# Регулярное выражение для исключения URL картинок
image_pattern = re.compile(r'\.(jpeg|jpg|gif|png|bmp|svg|ico)$', re.IGNORECASE)

# Регулярное выражение для исключения нежелательных URL-параметров и путей
exclude_pattern = re.compile(r'\?replytocom|feed|\?.*$|writers|php|css|txt|utm_|homemaking-link|author|wp-content|page/|wp-admin|wp-includes|tag|wp/|js|cgi-sys|:80|comment-page|yoast', re.IGNORECASE)

# Словарь для хранения последних версий каждого URL
latest_urls = {}

# Перебор всех снимков
for record in cdx.snapshots():
# Очистка URL от элементов веб-архива и протоколов
cleaned_url = re.sub(r'https?://web\.archive\.org/web/\d{14}/https?', '', record.original)
cleaned_url = re.sub(r'https?://', '', cleaned_url) # Удаление протоколов
cleaned_url = re.sub(r':\d+/', '/', cleaned_url) # Удаление порта
cleaned_url = cleaned_url.rstrip('/') # Удаление слэша в конце

# Пропускаем URL картинок и нежелательные URL
if not image_pattern.search(cleaned_url) and not exclude_pattern.search(cleaned_url):
if cleaned_url not in latest_urls or record.timestamp > latest_urls[cleaned_url][0]:
# Обновляем или добавляем запись с более новой датой
latest_urls[cleaned_url] = (record.timestamp, record.archive_url)

# Открытие файла для записи
with open("archive.txt", "w") as file:
for url, (timestamp, archive_url) in latest_urls.items():
# Записываем только очищенный URL
file.write(url + "\n")

print("Последние версии URL-адресов без нежелательных параметров сохранены в файл 'archive.txt'.")
Мене завжди дуже цікавила тема прогонів посилань. Чи можна отримати результат? Зростуть позиції чи навпаки впадуть? Може Google взагалі ніяк не враховує ці посилання? Два місяці тому взяв у роботу 3 сервіси для тесту:
XRumer
GSA
Autopilot

Можливо, хтось ще знає, які інструменти можна протестувати?