SEO Код
1.32K subscribers
81 photos
6 videos
6 files
78 links
Заметки про SEO и разработку вокруг него
Download Telegram
Четвертому сайту - быть?

Тут писал раньше что закинул пару удочек на покупку сайтов. Один из владельцев вышел на контакт.

100 уников в сутки, икс 10, без ссылочного, хороший однословник. Цена 7к рублей.

С одной стороны круто быть всеобьятным лидером ниши, с другой стороны на каждый следующий сайт будет все меньше трафика.

Поэтому вопрос - брать или не брать?
SEO Код
Четвертому сайту - быть? Тут писал раньше что закинул пару удочек на покупку сайтов. Один из владельцев вышел на контакт. 100 уников в сутки, икс 10, без ссылочного, хороший однословник. Цена 7к рублей. С одной стороны круто быть всеобьятным лидером…
Сторговались до 6к. Уже купил и развернул у себя 🙂

Особое приключение теперь на все 4 сайта добавлять контент в разных вариациях) Зато появилось место для экспериментов..
👍3🤔1🤯1
🎙️ Для тех кто работает с видео/аудио

Если вы создаете подкасты/аудито/видео контент, то у меня для вас есть крутой сервис от Adobe.

Adobe Enhance Podcast - это инструмент, который существенно упрощает процесс работы со звуковыми файлами. Этот инструмент помогает улучшать качество аудиозаписей, исправлять звуковые дефекты, а также вносить разнообразные улучшения в звук, что делает его более чистым и приятным для слуха.

В основе Enhance Podcast работают алгоритмы искусственного интеллекта, которые, анализируя звуковую волну, умеют выявлять и автоматически исправлять типичные проблемы - например, шумы на фоне, перегрузку микрофона, плохое качество связи и многое другое.

Так что, если вы создатель контента и не хотите тратиться на дорогие микрофоны, то рекомендую попробовать, это бесплатно - https://podcast.adobe.com/enhance
💩3🤔2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Уникализируем картинки для сайта

Иногда для сайтов нужны уникальные картинки, а делать свои дорого или негде. Можно взять чужие, но есть риск получить по шапке, особенно в коммерции.

Делюсь сервисом UNCROP by ClipDrop.

Работает просто: загружаете фотографию, выбираете будущее границы, а Stable Diffusion дорисует пустоты.

Работает бесплатно, с небольшими ограничениями и пока нельзя писать свои промты.

Есть аналог - Anything AI, полностью бесплатный и с возможностью писать промты. Но лично мне результат от ClipDrop понравился больше.

SEO Код
👍21
Трафик и сайт на GPT контенте

Решил потестировать это новое модное молодежное направление как сайты на chat gpt.

Собрал групповую семантику в одной нише, о которой тут писал выше, немного почистил запросы, и сгенерил для теста 500 статей. Результаты спустя 3 дня на скрине.

Здесь есть несколько важных особенностей, без которых считаю получился бы результат хуже:

1) Судя по чатам народ генерит с использованием X-GPTWriter. Я тоже сначала хотел купить, но потом прикинул и понял, что легче написать скрипт самому. 2) Я запарился с промтом. ~1500 символов текста с описанием того что именно я хочу получить и в каком виде.
3) Скрипт, который генерит статьи не просто ходит по API и забирает статью… Я обогащаю статью видео, фото и комментариями.
4) Домен и сайт не нулевой. Контент разместил в новой папке.

Трафик пошел сразу, не сказать что его много, но и не мало)

Главное, что сам подход сработал и его можно пробовать масштабировать.

Хотя с таким же успехом завтра может все откатиться.
7🔥4👍3👏2
Лайхфаки по промтингу для генерации статей

Качественный промт - единственный шанс получить нормальную статью. Это не гарантия, но над промтом нужно прям поработать, т.к. это напрямую влияет на ваш главный результат - будет трафик или нет.

1) Промт должен быть большой и подробный. Просто "Напиши статью на тему х" - не прокатит.

2) Модели нужно дать понять, в каком контексте она работает.

«Представь, что ты профессиональный сантехник», «Act as a senior python developer». Ну вы поняли.

3) Чем четче, конкретнее и детальнее вы опишите задачу, тем лучше будет результат.

Идеальный промт = контекст + инструкция + данные (примеры) + формат для вывода.

В случае с генерацией статей пункт "данные" можно пропустить.

5) Даже если вы генерируете статьи на русском, то промт лучше писать на английском. Просто укажите «Output in Russian», чтобы получить нужный язык на выходе.

- Это дешевле (!). Напомню, при работе с API вы платите не только за ответы чата, но и за вопросы. Английские символы сильно дешевле, чем русские (сравнить можно тут)

- Чат лучше понимает запрос.

6) Вы можете оптимизировать промт через другой промт.

Act as an experienced chatgpt prompt engineer. I have a ready-made prompt for chatgpt, but it is too big. Your task is to reduce its size but keep the meaning, i.e. without losing quality. I want the prompt to be smaller, but the result/response to be the same or even better.

Можно попросить сделать промт короче, чтобы сократить расходы на генерацию статьи. Можно попросить добавить эпитетов в описании и т.д. Тут уже зависит от вашей задачи и тематики.

7) Нужно обязательно указывать, чтобы чат писал уникальный контент и в стиле человека:

Human style of presentation without AI formalisms, Write the article in your own words rather than copying and pasting from other sources


8 ) Коллекция отобранных промтов и ролей https://github.com/f/awesome-chatgpt-prompts

9) Полезный видос https://www.youtube.com/watch?v=BqQVj4wA7yA&ab_channel=CryptoEssay
👍16🔥6
Ниша сочинений - идеальное применение ChatGPT или есть подвох?

Пост выходного дня.. Какие мысли о схеме:

1) Ищем пару жирных сайтов по сочениниям
2) Собираем групповую семантику по ним и конкурентам
3) Чистим
4) Генерируем сочинения по запросам
5) Заливаем на сайт
6) PROFIT ??

Что думаете? Вообще ничего не знаю про нишу сочинений и эссе, может там как в финансах и казино?
Сайт на GPT статьях спустя неделю

Прошло немного времени, трафик пока выглядит вот так.

Сгенерировано и опубликовано 7300 статей.
Потрачено 23$. Не знаю дорого это или нет.

Пока остановил генерацию. Съезжу в отпуск на 2 недельки без ноута, посмотрим что будет дальше. Выглядит так, что нужно масштабировать.


P.S. В отложенных лежит еще минимум 3 поста, будут равномерно публиковаться, пока меня нет. Вам понравится)
👍182🤔1
Ловец ботов

Пару месяцев назад был на консультации у Ивана (Hey, Moneymaker), который поделился идеей Ловца ботов.

Идея не новая, корни начинаются здесь:
https://alexeytrudov.com/web-marketing/seo/set-dlya-botov.html.

Кому лень читать, идея заключается в том, чтобы улучшить индексацию сайта путем подсовывания боту страниц, которые он редко (или никогда) посещает.

В простейшей реализации - работаем с блоком перелинковки. Список страниц/ссылок в этом блоке формируются на основе статистики посещения ботом.

Иными словами, в блок попадают страницы, которые либо еще не были посещены ботом, либо бот посещал их слишком давно, например, неделю назад.

Как реализовать?

Задача достаточно простая и вариантов реализации много.

Для себя я это решил так, что в БД в таблицу с записями/статьями заводим два новых поля: google_bot_detected_last_time и yandex_bot_detected_last_time.

При каждом посещении смотрим на UserAgent запроса.

Если это бот Яндекса или Гугла - обновляем дату посещения в соответствующем поле. В целом все)

Далее уже можно придумать асинхронную запись, кэши и т.д., чтобы не тормозить загрузку страницы.

Итого, у нас есть последняя дата посещения ботом каждой страницы.

Такая информация сама по себе уже интересна для анализа, но мы можем использовать эти данные, чтобы формировать список для блока перелинковки.

Страницы, на которые бот еще не заходил или заходил больше чем X дней назад, попадают в блок.



Надеюсь, удалось понятным языком объяснить суть принципа. Если что, задавайте вопросы в комментарии.

В качестве итогов - что это дало после внедрения?

Сайт на 55к страниц. На позиции это никак не повлияло (очевидно), т.к. и без этого проблем с индексацией не было (все страницы были в индексе).

Что изменилось - скорость переобхода. На сайте нет страницы, которую бы не посещал бот Яндекса за последние 10 дней. Новые страницы залетают в индекс менее чем за час.

С Гуглом результаты оценить сложно, пока выглядит так, что практически ничего не изменилось. Но донор не очень любим в Гугле, поэтому нужны еще эксперименты с другими сайтами.

Теоретически можно было бы оформить это в виде WP плагина, но я не сильно с ним дружу.

Существует более "грубая" реализация индексации, где ботов редиректят на страницы, которые нужно проиндексировать. Такие штуки активно используют некоторые дорвейщики. Рассказать подробнее или итак все об этом знают?
👍25
Как еще можно улучшить индексацию страниц в Яндексе?

Закидывать их в IndexNow по API. Работает отлично.



🔥 Наконец дошли руки завести github, где буду делиться с вами подобными инструментами.

Через пару дней выйдет пост с анонсом и ссылкой на код, которым я загоняю страницы.
👍18🔥5
Делюсь скриптами бесплатно и без регистрации

В общем, я завел гитхаб, где буду стараться делиться разными инструментами, которые я писал, использовал или использую. Как никак это же SEO Код ))

Пока что это один репозиторий, где лежит тулза, которая отправляет ваши урлы на индексацию в yandex по indexnow api.

🛠 indexing_tools

Там же, описана инструкция по использованию, но если вдруг возникнут вопросы, пишите в комменты тут.

Как вернусь из отпуска, добавлю туда же код с Google Indexing API, с ротацией аккаунтов, чтобы обходить лимит в 200 запросов в сутки.


В планах конечно много всего есть, чем поделиться с общественностью (например, урезаным скриптом, который генерирует статьи в chatgpt). Но не всегда есть время или желание этим заниматься.

Денег ни с кого не беру (и рекламы на канале никакой нет и не планируется пока), поэтому повыпрашиваю у вас активности…

В качестве хоть какого-то мотиватора - порекомендуйте, пожалуйста, этот канал своим знакомым. Репосты в чаты и свои каналы приветствуются)
👍43🔥6
Скрипт по индексации страниц в Google Indexing API с ротацией аккаунтов

Как и обещал, выкладываю скрипт по отправке страниц на индексацию в гугл с помощью Indexing API.

Скрипт уже лежит на гитхабе

1) Нужно заранее создать и подготовить аккаунты (https://console.cloud.google.com/) и креды к ним (json файл). Креды складываем в папку credits.

2) Также, все эти аккаунты должны быть добавлены к каждому домену в search console с правами Владелец. (Да, рутина)

Если что, туториалы по этим двум пунктам можно найти на youtube.

3) Урлы, которые хотим проиндексировать, пишем в urls.txt.

Кстати, урлы можно взять из сайтмапа, для этого в репозитории есть скрипт parse_sitemap.py. Для него указываете хост где лежит карта сайта, на выходе получаете файл с урлами из карты.

Ротация работает так: как только по конкретному аккаунт достигнут дневной лимит - аккаунт меняется и скрипт продолжает работу. Работает до тех пор, пока не закончатся лимиты во всех аккаунтах.

Скромная документация лежит тут



Бонус: пинговалка сайтмапов в гугле. Скрипт - google_ping_sitemaps. Даем на вход неограниченный список sitemap.xml файлов - пингуются по очереди.

Проверял логи - подход все еще работает. После пинга - боты заходят. Работает даже лучше, чем повторно отправлять сайтмап через интерфейс search console.

UPD: гугл скоро отключит этот функционал, но пока работает


И как всегда, буду благодарен за шер/репост в ваши любимые чаты и паблики. Рост аудитории дает мне мотивацию делиться наработками дальше.

В комментарии пишите вопросы и предложения, какие скрипты вам хотелось бы еще реализовать.
👍23🔥92
Давно не писал, новости такие.

Стрельнуло направление с сайтами на гпт контенте. Напарсил нужных ключей, написал скрипты по генерации, подобрал промты. Один сайт на скрине, второй примерно такой же.

Перенес один из самопис сайтов на Wordpress. Было порядка 9к постов, пришлось генерить xml файл чтобы импортировать эти посты в wp.

Этим же скриптом делаю xml для гпт статей с последующим импортом на сайт.

Конечно, благодаря этим двум сайтам в метрику заходить стало поприятнее, но на доходах не сказать что кратно отразилось... 8-12 копеек на уника в РСЯ как-то печально.

На самом доходном/трафиковом сайте в РСЯ доход с июня тоже грохнулся вниз, раза в полтора. Короче, лето. Как у вас?

Думаю как масштабировать эту тему с гпт статейниками дальше. Пока затык - домены, т.к. эти два уже были в моем распоряжении (и тематичные). Возможно попробую сделать один на новореге, ради эксперимента.

P.S. судя по метрике траф падает, тема сдохла, не пробуйте 🙂
🤔8🔥2😁21
Ниша под бурж и не только

letslearnslang.com

В начале года видел лот на motioninvest. Доход в месяц был в районе 1.5к$. На тот момент было 2к страниц.

В общем, сайт, похоже, купили и занялись его развитием. Навалили 200к+ новых страниц.

Все это привело к тому, что трафик за этот год вырос на 200+ процентов, и сейчас это 1.1 миллиона визитов за июль.

Что с этим делать?

- Перевести этот же контент на другие языки (для начала испанский).
- Спарсить все тайтлы и попросить ChatGPT написать статьи (тут нужно тестировать).
- Копипаста - полная или микс

Эта же ниша есть под РФ, примеры сайтов показывать не буду, найдете сами, если интересно. У лидеров 10к+ трафика дейли, в общем достаточно.

2 года назад я делал сайт в этой нише под рф, но сделал много ошибок и сайт не полетел (там 1в1 копипаст был и много чего еще не правильно сделано). Если бы мне сейчас нечем было заняться, то я бы прям присмотрелся..

===
P.S.
Если кому интересна тема про ДДЛ (дорвеи для людей), то рекомендую чатик doorway_fb

P.S.2
Вообще посты о нишах это тот еще challenge. Мало ее найти.. нужно найти такую, которой можно поделиться 🙂 При этом она должна быть не совсем уж позорной. Но для вас я постараюсь не жадничать) Уже отобрал еще 3, о которых скоро напишу
🔥21👍41😁1
Ниша - Публичная кадастровая карта

Не мой формат ниши, но тем не менее.

Примеры:
egrn-reestro.ru (70к посещений в месяц).
pkkonline.ru (120к посещений в месяц).
kadastrmapp.online (тут по кейсо показывает копейки, но домен очень молодой).

+ Страниц не много.
+ Контента на страницах толком нет.
+ Кейсо показывает сильно меньше трафика, чем сайты получают на самом деле.
+ Монетизация — РСЯ + партнерка (видел суммы 25% от заказа). Партнерку (кажется, даже не одну) можно найти прямо в выдаче.

Короче, можно пробовать, кажется затрат на реализацию не много.
🔥2
Как улучшить качество гпт статей

Есть темы где гпт прям плох, где-то не хватает свежих данных, где-то начинает выдумывать или врать.

В общем, есть относительно простой способ полечить эту проблему и улучшить результат.

Единственное, это работает не для всех тематик (например, в темах где нет быстрого ответа и нужны портянки текста), но кому надо тот поймет суть.

Суть в том, чтобы к промту приложить пример данных для «обучения». Обучением/дообучением это назвать сложно, но это хотя бы что-то.

Взять данные можно прямо из выдачи. Парсим выдачу (я использую xmlriver), берем из результатов сниппеты сайтов и быстрые ответы и засовываем в промт, как пример данных на которые можно опираться.

Типа такого:

```
…..
I will give you examples in json like format of information below, you can use it to learn/finetune the model. but write it in YOUR OWN words.
{json_data_here}
```


а вообще если вам когда-то нечем будет заняться, то попробуйте заставить гпт писать статьи про ударения. И довести результат до правдивого хотя бы в 80 процентах случаев)
13💩6👍5
Как я не купил Porsche

МПК пришел в гости к гпт сайтам, и не только. На скрине график, который повторяет графики других сайтов поменьше, но тренд ясен.

Немного обидно, что задело даже белые проекты.

Хочется что-то с этим делать, но кажется, что лучше сейчас наоборот отдохнуть и посмотреть со стороны. Глядишь, будет V образное восстановление, как любят говорить экономисты. А там и классическое предновогоднее ралли))

Вы там как?
👍2
Просто наблюдения по МПК апдейту

Яндекс фильтранул один из белых сайтов по МПК. Ну ладно, задело. Малополезный контент… ввожу один из топ запросов из метрики в поиск - что вижу?

Вижу быстрый ответ от YandexGPT, ответ на основе информации с моего же бляха сайта)) контент настолько малополезный что им можно обучить свою модельку.

Сомнительно, но окэй.

После быстрого ответа идут пара гпт дорвеев статейников 🤷️️️️️️
😁13🤔2💩2
Дайте совет

Дано: сайту 8 лет, всю жизнь был так или иначе копипаст, но всегда с трафиком (до 10к в сутки), по разному, то гугл, то яндекс давал траф. Сейчас Икс 220 и трафик 1к с яндекса.

Год назад забыл продлить сервер где лежала статика и год сайт был вообще без картинок (битые ссылки) и даже в этом всем стабильно до 2к был траф.

4 месяца назад перевел сайт на wp, сделал прям по красоте и налил гпт статей.

Сразу же получил мпк на весь сайт (но кстати за месяц до массовой раздачи)

Сейчас трафик 1к, и сколько бы новых статей и добавлялось - он не растет.

Вопрос: какие методы решения этой проблемы вам известны?

Цель: снять фильтр в Яндексе

1) Удалить все страницы и повесить на главной лендинг? Аля это теперь новый сайт другого человека. Через время снова развернуть сайт.

2) Редирект на сайт kremlin.ru на время (по чатам гуляет версия что это может помочь, сам не тестил) и через время поднять полностью новый сайт.

3) постраничный редирект на новый домен (вероятно все болячки и мпк просто перейдут на новый домен)

В первых двух вариантах придется плютнуть на текущий трафик, в угоду того, чтобы потенциально вылечить сайт и получить больше.

4) Можно не рисковать и оставить все как есть, тоже вариант. Сайт как лежал без внимания, так и продолжит

Вопрос к знатокам - что бы сделали вы? Может быть все варианты неправильные и нужно делать все по другому
5