#експеримент
Маю один дроп-домен, куплений більше року тому. До недавнього часу він просто лежав без діла, адже трафік так і не вдалося на нього повернути. Ще й виявилося, що наприкінці лютого я забув про подовження домену — звісно, аудиторія вже майже зникла, що видно з падіння показників.
Але я вирішив: "Чому б не дати домену ще один шанс?"
Так, я взявся за справу: спарсив близько 250 текстів, переклав їх та адаптував під свій сайт. Після масового завантаження контенту на платформу, я не забув про важливий крок — відправив sitemap.xml до Google через Search Console.
Тепер залишається лише чекати... Цікаво, до чого це призведе? Оновлення домену з новим контентом — це завжди невідомість, але я впевнений, що результати будуть цікавими.
Спостерігаємо разом!
Маю один дроп-домен, куплений більше року тому. До недавнього часу він просто лежав без діла, адже трафік так і не вдалося на нього повернути. Ще й виявилося, що наприкінці лютого я забув про подовження домену — звісно, аудиторія вже майже зникла, що видно з падіння показників.
Але я вирішив: "Чому б не дати домену ще один шанс?"
Так, я взявся за справу: спарсив близько 250 текстів, переклав їх та адаптував під свій сайт. Після масового завантаження контенту на платформу, я не забув про важливий крок — відправив sitemap.xml до Google через Search Console.
Тепер залишається лише чекати... Цікаво, до чого це призведе? Оновлення домену з новим контентом — це завжди невідомість, але я впевнений, що результати будуть цікавими.
Спостерігаємо разом!
👍4
ChatGPT значно оптимізує мій робочий процес, особливо коли мова йде про обробку великих обсягів даних у програмі Excel. Використання регулярних виразів в Excel може здаватися складним завданням, наприклад, коли потрібно швидко видалити з клітинок заголовки H1 або атрибути ALT зображень. У таких випадках я звертаюся до ChatGPT, який надає миттєві рішення для спрощення цього процесу.
👍3
Channel name was changed to «SEODropLab (SEO, PBN, дроп домени)»
В останньому оновленні алгоритмів Google багато вебсайтів, заснованих на автоматично генерованому контенті, зіткнулися з труднощами - деіндексацією і обнуленням трафіку.
Проте, існують сайти, які, незважаючи на використання штучно створеного контенту, продовжують ефективно функціонувати і показувати хороші результати. Одним з найбільш показових прикладів є сайт, зображення якого можна побачити на доданому скриншоті. Цей сайт не тільки використовує генерований контент, але й цікаво, що він не приховує цього факту.
Проте, існують сайти, які, незважаючи на використання штучно створеного контенту, продовжують ефективно функціонувати і показувати хороші результати. Одним з найбільш показових прикладів є сайт, зображення якого можна побачити на доданому скриншоті. Цей сайт не тільки використовує генерований контент, але й цікаво, що він не приховує цього факту.
👍2
Сьогодні обговорювали точність даних у Search console і це змусило мене вкотре перечитати довідку Google і переконатися, що в консолі теж можуть бути неточні дані. Посилання на довідку
👍3
Натрапив сьогодні на ось такий кейс генерації AI контенту. Як видно на скріншотах, то дуже багато генерованого контенту Google не порізав на своєму апдейті. Знаю теж кілька непоганих сервісів, тексти яких Google нормально сприйняв на апдейті, але seowriting.ai ще не користувався. Можливо у вас є досвід?
Уже тиждень тестую сервіс генерації контенту seowriting.ai і є вже певні результати. Написали понад 20 статей і частина з них уже мають непогані позиції. При тому що були опубліковані кілька днів тому. Продовжую тестувати сервіс для того щоб подивитися як він покаже себе на більшому обсязі текстів/сайтів
👍2
Через Batch Analysis ще працює старий дашборд
👍2
Довго мене тут не було. Багато часу забирає робота з вебархівом. Ось зробив собі скрипт за допомогою якого можна швидко отримати список усіх сторінок за доменом у вебархіві. При цьому чистить від непотрібних файлів. Користуйтеся
from waybackpy import WaybackMachineCDXServerAPI
import re
# Замените example.com на интересующий вас домен.
url = "example.com/*"
user_agent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"
# Создаем объект API
cdx = WaybackMachineCDXServerAPI(url, user_agent)
# Регулярное выражение для исключения URL картинок
image_pattern = re.compile(r'\.(jpeg|jpg|gif|png|bmp|svg|ico)$', re.IGNORECASE)
# Регулярное выражение для исключения нежелательных URL-параметров и путей
exclude_pattern = re.compile(r'\?replytocom|feed|\?.*$|writers|php|css|txt|utm_|homemaking-link|author|wp-content|page/|wp-admin|wp-includes|tag|wp/|js|cgi-sys|:80|comment-page|yoast', re.IGNORECASE)
# Словарь для хранения последних версий каждого URL
latest_urls = {}
# Перебор всех снимков
for record in cdx.snapshots():
# Очистка URL от элементов веб-архива и протоколов
cleaned_url = re.sub(r'https?://web\.archive\.org/web/\d{14}/https?', '', record.original)
cleaned_url = re.sub(r'https?://', '', cleaned_url) # Удаление протоколов
cleaned_url = re.sub(r':\d+/', '/', cleaned_url) # Удаление порта
cleaned_url = cleaned_url.rstrip('/') # Удаление слэша в конце
# Пропускаем URL картинок и нежелательные URL
if not image_pattern.search(cleaned_url) and not exclude_pattern.search(cleaned_url):
if cleaned_url not in latest_urls or record.timestamp > latest_urls[cleaned_url][0]:
# Обновляем или добавляем запись с более новой датой
latest_urls[cleaned_url] = (record.timestamp, record.archive_url)
# Открытие файла для записи
with open("archive.txt", "w") as file:
for url, (timestamp, archive_url) in latest_urls.items():
# Записываем только очищенный URL
file.write(url + "\n")
print("Последние версии URL-адресов без нежелательных параметров сохранены в файл 'archive.txt'.")
#дропдомени #PBN
Придбав досить дорогий дроп-домен, очікуючи від нього гарних результатів. Ми відновили сайт на початку літа, доклали багато зусиль, але перші кілька місяців сайт взагалі не показував себе. Я вже почав сумніватися, чи цей проєкт взагалі злетить, а про трафік можна було тільки мріяти. Було відчуття, що гроші й час вкладені даремно. Але після Core оновлення Google cайт раптово почав набирати обертів, трафік зріс
Іноді варто проявити терпіння та не опускати руки, навіть якщо результати не приходять одразу. Або почекати апдету Google
Придбав досить дорогий дроп-домен, очікуючи від нього гарних результатів. Ми відновили сайт на початку літа, доклали багато зусиль, але перші кілька місяців сайт взагалі не показував себе. Я вже почав сумніватися, чи цей проєкт взагалі злетить, а про трафік можна було тільки мріяти. Було відчуття, що гроші й час вкладені даремно. Але після Core оновлення Google cайт раптово почав набирати обертів, трафік зріс
Іноді варто проявити терпіння та не опускати руки, навіть якщо результати не приходять одразу. Або почекати апдету Google
🔥4👍2
Як авторіа ефективно збирає весь трафік за своїм брендом?
Однією з цікавих стратегій є те, як компанія використовує власний бренд для максимального збору трафіку. У пошуковій видачі за запитом "авториа" ви зустрінете не тільки головний сайт компанії, але й кілька афілійованих ресурсів. Перейшовши на ці сайти, користувач у будь-якому випадку опиниться на основному веб-ресурсі компанії.
Переваги такого підходу очевидні:
1. Максимізація брендових запитів: Компанія не втрачає жодної можливості зібрати трафік користувачів, які шукають її за брендом у пошуку.
2. Захист від конкурентів: Це стратегічний крок, що унеможливлює потрапляння конкурентів у ТОП за запитами, пов'язаними з брендом.
3. Різноманіття контенту для користувача: Кожен з афілійованих сайтів дещо відрізняється, пропонуючи користувачам різні відповіді на їхні запити, що збільшує шанси задовольнити потреби аудиторії.
Чому ж таку стратегію не використовують інші бренди?
Цей підхід не тільки дозволяє контролювати весь свій брендовий трафік, але й ефективно протистоїть конкурентам, не даючи їм змоги займати топові позиції за запитами вашого бренду. Як приклад можна навести видачу за запитами "РСТ".
Однією з цікавих стратегій є те, як компанія використовує власний бренд для максимального збору трафіку. У пошуковій видачі за запитом "авториа" ви зустрінете не тільки головний сайт компанії, але й кілька афілійованих ресурсів. Перейшовши на ці сайти, користувач у будь-якому випадку опиниться на основному веб-ресурсі компанії.
Переваги такого підходу очевидні:
1. Максимізація брендових запитів: Компанія не втрачає жодної можливості зібрати трафік користувачів, які шукають її за брендом у пошуку.
2. Захист від конкурентів: Це стратегічний крок, що унеможливлює потрапляння конкурентів у ТОП за запитами, пов'язаними з брендом.
3. Різноманіття контенту для користувача: Кожен з афілійованих сайтів дещо відрізняється, пропонуючи користувачам різні відповіді на їхні запити, що збільшує шанси задовольнити потреби аудиторії.
Чому ж таку стратегію не використовують інші бренди?
Цей підхід не тільки дозволяє контролювати весь свій брендовий трафік, але й ефективно протистоїть конкурентам, не даючи їм змоги займати топові позиції за запитами вашого бренду. Як приклад можна навести видачу за запитами "РСТ".
🔥4