Спасибо всем, кто принял участие в опросе. Теперь я лучше понимаю, кто вы и что вам интересно.
Не ожидал увидеть такую большую долю seo специалистов (да-да, несмотря на то, что это канал про seo). Предполагал, что примерно 30% аудитории будут программисты, а по факту не больше 15%.
В остальном ожидания оправдались и подтвердились. Большая часть ответила, что зарабатывает на информационных сайтах (как и я). Те, кто ответил "Другое" - напишите, пожалуйста, здесь в комментах, что именно "Другое", очень интересно.
Вопрос "Что вам интересно на этом канале" подтверждает, что я продолжу писать посты в основном в трех направлениях: свои seo эксперименты, разработка в seo и ниши для сайтов.
В черновиках уже как раз 3 поста на все эти темы, stay tuned
Не ожидал увидеть такую большую долю seo специалистов (да-да, несмотря на то, что это канал про seo). Предполагал, что примерно 30% аудитории будут программисты, а по факту не больше 15%.
В остальном ожидания оправдались и подтвердились. Большая часть ответила, что зарабатывает на информационных сайтах (как и я). Те, кто ответил "Другое" - напишите, пожалуйста, здесь в комментах, что именно "Другое", очень интересно.
Вопрос "Что вам интересно на этом канале" подтверждает, что я продолжу писать посты в основном в трех направлениях: свои seo эксперименты, разработка в seo и ниши для сайтов.
В черновиках уже как раз 3 поста на все эти темы, stay tuned
👍10🤯1
Сайты под аренду с AI инструментами
В рамках диверсификации портфеля сайтов делаю небольшую сетку сайтов по методике Виктора Строева. Все сайты в разных коммерческих нишах под крупные регионы с последующей сдачей в аренду.
Первый сайт запущен чуть больше месяца назад, весь контент написан на chat gpt. Сейчас ±50% запросов в топ 10. Вообще без какого либо продвижения, даже без добавления в Я.Карты. За это конечно спасибо Виктору)
Один из самых трудоемких этапов - подбор картинок. В наглую у конкурентов не возьмешь, поэтому теперь эту работу для меня делает Midjourney.
Получается очень даже неплохо, но иногда тяжело добиться реалистичного кадра, поэтому пока экспериментирую с различными промптами.
В рамках диверсификации портфеля сайтов делаю небольшую сетку сайтов по методике Виктора Строева. Все сайты в разных коммерческих нишах под крупные регионы с последующей сдачей в аренду.
Первый сайт запущен чуть больше месяца назад, весь контент написан на chat gpt. Сейчас ±50% запросов в топ 10. Вообще без какого либо продвижения, даже без добавления в Я.Карты. За это конечно спасибо Виктору)
Один из самых трудоемких этапов - подбор картинок. В наглую у конкурентов не возьмешь, поэтому теперь эту работу для меня делает Midjourney.
Получается очень даже неплохо, но иногда тяжело добиться реалистичного кадра, поэтому пока экспериментирую с различными промптами.
👍11❤3
💵 Впервые купил домен с аукциона
Случайно заметил в «своей» инфо нише сайт, который по-прежнему выводится в быстрых ответах по многим запросам в Яндексе, хотя уже как минимум год сайт не работает и висит заглушка о продаже домена.
Решил рискнуть и купить. Ниша мне хорошо знакома, уже 2 сайта висят в топ 10. Почему бы не сделать третий?
Домен обошелся чуть больше $500.
На волне энтузиазма написал еще паре владельцев из выдачи с предложением о выкупе их сайтов. Молчат)
Контент для нового сайта естественно буду парсить, из нескольких источников, уже знаю каких.
А пока восстановил сайт из вебархива (7к страниц), потихоньку оживает.
Возможно, из этого проекта получится сделать какое-то очередное "реалити", но не обещаю, что процесс получится полностью прозрачным. Посмотрим.
Случайно заметил в «своей» инфо нише сайт, который по-прежнему выводится в быстрых ответах по многим запросам в Яндексе, хотя уже как минимум год сайт не работает и висит заглушка о продаже домена.
Решил рискнуть и купить. Ниша мне хорошо знакома, уже 2 сайта висят в топ 10. Почему бы не сделать третий?
Домен обошелся чуть больше $500.
На волне энтузиазма написал еще паре владельцев из выдачи с предложением о выкупе их сайтов. Молчат)
Контент для нового сайта естественно буду парсить, из нескольких источников, уже знаю каких.
А пока восстановил сайт из вебархива (7к страниц), потихоньку оживает.
Возможно, из этого проекта получится сделать какое-то очередное "реалити", но не обещаю, что процесс получится полностью прозрачным. Посмотрим.
👍5
Чтобы не выглядеть как успешный успех, стоит показать и неудачные запуски.
На скрине — часть неудачных проектов сделанных за последний год и не менее 100к вложенных в это дело, не считая собственного времени.
Тратишь время, деньги, а в итоге сайт лежит мертвым грузом, либо падает спустя время.
Совру, если скажу, что все эти неудачные проекты — это опыт и сделанные выводы. Из каждого конкретного случая не всегда получается сформировать причину неудачи, но в сумме они так или иначе формируют общую картину в голове.
На скрине — часть неудачных проектов сделанных за последний год и не менее 100к вложенных в это дело, не считая собственного времени.
Тратишь время, деньги, а в итоге сайт лежит мертвым грузом, либо падает спустя время.
Совру, если скажу, что все эти неудачные проекты — это опыт и сделанные выводы. Из каждого конкретного случая не всегда получается сформировать причину неудачи, но в сумме они так или иначе формируют общую картину в голове.
👍17😱3❤1
На скрине в следующем посте есть спойлер темы, о которой хочу рассказать, но никак не решаюсь сесть и написать. Выйдет сразу серия постов. А пока эксперимент
Эксперимент: Влияет ли создание Яндекс.Навыка (индексируемая ссылка с dialogs.yandex.ru) на продвижение информационного сайта
Дано: полтора месяца назад создан навык для инфо сайта и добавлен в каталог Навыков. В описании навыка можно оставить индексируемую ссылку на свой сайт.
Гипотеза:
ссылка проиндексируется, увеличится DR, возможно ИКС, улучшится средняя видимость.
Результат:
Вообще без изменений.
В Яндексе страница с Навыком и ссылкой проиндексирована, в Гугле - нет.
Стоит ли создавать Яндекс.Навык для своего инфо сайта?
С целью ссылочного продвижения - нет
С целью работы над брендом - да
Из позитивного - в рунете есть минимум 2 сайта про навыки для Алисы, которые парсят его каталог.
Все внешние ссылки при парсинге ребята вырезают, но если вы в описании Навыка указывали свой сайт или бренд, то текстовое упоминание остается. Еще один плюсик в пользу бренда сайта.
По аналогии планирую провести эксперимент с добавление приложения в Google Play
SEO Код
Дано: полтора месяца назад создан навык для инфо сайта и добавлен в каталог Навыков. В описании навыка можно оставить индексируемую ссылку на свой сайт.
Гипотеза:
ссылка проиндексируется, увеличится DR, возможно ИКС, улучшится средняя видимость.
Результат:
Вообще без изменений.
В Яндексе страница с Навыком и ссылкой проиндексирована, в Гугле - нет.
Стоит ли создавать Яндекс.Навык для своего инфо сайта?
С целью ссылочного продвижения - нет
С целью работы над брендом - да
Из позитивного - в рунете есть минимум 2 сайта про навыки для Алисы, которые парсят его каталог.
Все внешние ссылки при парсинге ребята вырезают, но если вы в описании Навыка указывали свой сайт или бренд, то текстовое упоминание остается. Еще один плюсик в пользу бренда сайта.
По аналогии планирую провести эксперимент с добавление приложения в Google Play
SEO Код
👍7🤣3
Кстати, очевидный лайфхак - фиксируйте крупные изменения на сайте/релизы/эксперименты, чтобы спустя время можно было сделать какие-то выводы.
В Яндекс.Метрике есть возможность добавлять комментарии на графиках с посещениями/визитами с привязкой к дате.
Не ленитесь и фиксируйте крупные изменения, в будущем скажете себе спасибо.
В Яндекс.Метрике есть возможность добавлять комментарии на графиках с посещениями/визитами с привязкой к дате.
Не ленитесь и фиксируйте крупные изменения, в будущем скажете себе спасибо.
👍17💩1
Четвертому сайту - быть?
Тут писал раньше что закинул пару удочек на покупку сайтов. Один из владельцев вышел на контакт.
100 уников в сутки, икс 10, без ссылочного, хороший однословник. Цена 7к рублей.
С одной стороны круто быть всеобьятным лидером ниши, с другой стороны на каждый следующий сайт будет все меньше трафика.
Поэтому вопрос - брать или не брать?
Тут писал раньше что закинул пару удочек на покупку сайтов. Один из владельцев вышел на контакт.
100 уников в сутки, икс 10, без ссылочного, хороший однословник. Цена 7к рублей.
С одной стороны круто быть всеобьятным лидером ниши, с другой стороны на каждый следующий сайт будет все меньше трафика.
Поэтому вопрос - брать или не брать?
Что думаете?
Anonymous Poll
52%
Покупать
12%
Не покупать
6%
Покупать, но дороговато
30%
Узнать ответ
SEO Код
Четвертому сайту - быть? Тут писал раньше что закинул пару удочек на покупку сайтов. Один из владельцев вышел на контакт. 100 уников в сутки, икс 10, без ссылочного, хороший однословник. Цена 7к рублей. С одной стороны круто быть всеобьятным лидером…
Сторговались до 6к. Уже купил и развернул у себя 🙂
Особое приключение теперь на все 4 сайта добавлять контент в разных вариациях) Зато появилось место для экспериментов..
Особое приключение теперь на все 4 сайта добавлять контент в разных вариациях) Зато появилось место для экспериментов..
👍3🤔1🤯1
🎙️✨ Для тех кто работает с видео/аудио
Если вы создаете подкасты/аудито/видео контент, то у меня для вас есть крутой сервис от Adobe.
Adobe Enhance Podcast - это инструмент, который существенно упрощает процесс работы со звуковыми файлами. Этот инструмент помогает улучшать качество аудиозаписей, исправлять звуковые дефекты, а также вносить разнообразные улучшения в звук, что делает его более чистым и приятным для слуха.
В основе Enhance Podcast работают алгоритмы искусственного интеллекта, которые, анализируя звуковую волну, умеют выявлять и автоматически исправлять типичные проблемы - например, шумы на фоне, перегрузку микрофона, плохое качество связи и многое другое.
Так что, если вы создатель контента и не хотите тратиться на дорогие микрофоны, то рекомендую попробовать, это бесплатно - https://podcast.adobe.com/enhance
Если вы создаете подкасты/аудито/видео контент, то у меня для вас есть крутой сервис от Adobe.
Adobe Enhance Podcast - это инструмент, который существенно упрощает процесс работы со звуковыми файлами. Этот инструмент помогает улучшать качество аудиозаписей, исправлять звуковые дефекты, а также вносить разнообразные улучшения в звук, что делает его более чистым и приятным для слуха.
В основе Enhance Podcast работают алгоритмы искусственного интеллекта, которые, анализируя звуковую волну, умеют выявлять и автоматически исправлять типичные проблемы - например, шумы на фоне, перегрузку микрофона, плохое качество связи и многое другое.
Так что, если вы создатель контента и не хотите тратиться на дорогие микрофоны, то рекомендую попробовать, это бесплатно - https://podcast.adobe.com/enhance
💩3🤔2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Уникализируем картинки для сайта
Иногда для сайтов нужны уникальные картинки, а делать свои дорого или негде. Можно взять чужие, но есть риск получить по шапке, особенно в коммерции.
Делюсь сервисом UNCROP by ClipDrop.
Работает просто: загружаете фотографию, выбираете будущее границы, а Stable Diffusion дорисует пустоты.
Работает бесплатно, с небольшими ограничениями и пока нельзя писать свои промты.
Есть аналог - Anything AI, полностью бесплатный и с возможностью писать промты. Но лично мне результат от ClipDrop понравился больше.
SEO Код
Иногда для сайтов нужны уникальные картинки, а делать свои дорого или негде. Можно взять чужие, но есть риск получить по шапке, особенно в коммерции.
Делюсь сервисом UNCROP by ClipDrop.
Работает просто: загружаете фотографию, выбираете будущее границы, а Stable Diffusion дорисует пустоты.
Работает бесплатно, с небольшими ограничениями и пока нельзя писать свои промты.
Есть аналог - Anything AI, полностью бесплатный и с возможностью писать промты. Но лично мне результат от ClipDrop понравился больше.
SEO Код
👍21
Трафик и сайт на GPT контенте
Решил потестировать это новое модное молодежное направление как сайты на chat gpt.
Собрал групповую семантику в одной нише, о которой тут писал выше, немного почистил запросы, и сгенерил для теста 500 статей. Результаты спустя 3 дня на скрине.
Здесь есть несколько важных особенностей, без которых считаю получился бы результат хуже:
1) Судя по чатам народ генерит с использованием X-GPTWriter. Я тоже сначала хотел купить, но потом прикинул и понял, что легче написать скрипт самому. 2) Я запарился с промтом. ~1500 символов текста с описанием того что именно я хочу получить и в каком виде.
3) Скрипт, который генерит статьи не просто ходит по API и забирает статью… Я обогащаю статью видео, фото и комментариями.
4) Домен и сайт не нулевой. Контент разместил в новой папке.
Трафик пошел сразу, не сказать что его много, но и не мало)
Главное, что сам подход сработал и его можно пробовать масштабировать.
Хотя с таким же успехом завтра может все откатиться.
Решил потестировать это новое модное молодежное направление как сайты на chat gpt.
Собрал групповую семантику в одной нише, о которой тут писал выше, немного почистил запросы, и сгенерил для теста 500 статей. Результаты спустя 3 дня на скрине.
Здесь есть несколько важных особенностей, без которых считаю получился бы результат хуже:
1) Судя по чатам народ генерит с использованием X-GPTWriter. Я тоже сначала хотел купить, но потом прикинул и понял, что легче написать скрипт самому. 2) Я запарился с промтом. ~1500 символов текста с описанием того что именно я хочу получить и в каком виде.
3) Скрипт, который генерит статьи не просто ходит по API и забирает статью… Я обогащаю статью видео, фото и комментариями.
4) Домен и сайт не нулевой. Контент разместил в новой папке.
Трафик пошел сразу, не сказать что его много, но и не мало)
Главное, что сам подход сработал и его можно пробовать масштабировать.
Хотя с таким же успехом завтра может все откатиться.
❤7🔥4👍3👏2
Лайхфаки по промтингу для генерации статей
Качественный промт - единственный шанс получить нормальную статью. Это не гарантия, но над промтом нужно прям поработать, т.к. это напрямую влияет на ваш главный результат - будет трафик или нет.
1) Промт должен быть большой и подробный. Просто "Напиши статью на тему х" - не прокатит.
2) Модели нужно дать понять, в каком контексте она работает.
3) Чем четче, конкретнее и детальнее вы опишите задачу, тем лучше будет результат.
Идеальный промт = контекст + инструкция + данные (примеры) + формат для вывода.
В случае с генерацией статей пункт "данные" можно пропустить.
5) Даже если вы генерируете статьи на русском, то промт лучше писать на английском. Просто укажите
- Это дешевле (!). Напомню, при работе с API вы платите не только за ответы чата, но и за вопросы. Английские символы сильно дешевле, чем русские (сравнить можно тут)
- Чат лучше понимает запрос.
6) Вы можете оптимизировать промт через другой промт.
Можно попросить сделать промт короче, чтобы сократить расходы на генерацию статьи. Можно попросить добавить эпитетов в описании и т.д. Тут уже зависит от вашей задачи и тематики.
7) Нужно обязательно указывать, чтобы чат писал уникальный контент и в стиле человека:
8 ) Коллекция отобранных промтов и ролей https://github.com/f/awesome-chatgpt-prompts
9) Полезный видос https://www.youtube.com/watch?v=BqQVj4wA7yA&ab_channel=CryptoEssay
Качественный промт - единственный шанс получить нормальную статью. Это не гарантия, но над промтом нужно прям поработать, т.к. это напрямую влияет на ваш главный результат - будет трафик или нет.
1) Промт должен быть большой и подробный. Просто "Напиши статью на тему х" - не прокатит.
2) Модели нужно дать понять, в каком контексте она работает.
«Представь, что ты профессиональный сантехник», «Act as a senior python developer». Ну вы поняли.3) Чем четче, конкретнее и детальнее вы опишите задачу, тем лучше будет результат.
Идеальный промт = контекст + инструкция + данные (примеры) + формат для вывода.
В случае с генерацией статей пункт "данные" можно пропустить.
5) Даже если вы генерируете статьи на русском, то промт лучше писать на английском. Просто укажите
«Output in Russian», чтобы получить нужный язык на выходе. - Это дешевле (!). Напомню, при работе с API вы платите не только за ответы чата, но и за вопросы. Английские символы сильно дешевле, чем русские (сравнить можно тут)
- Чат лучше понимает запрос.
6) Вы можете оптимизировать промт через другой промт.
Act as an experienced chatgpt prompt engineer. I have a ready-made prompt for chatgpt, but it is too big. Your task is to reduce its size but keep the meaning, i.e. without losing quality. I want the prompt to be smaller, but the result/response to be the same or even better.Можно попросить сделать промт короче, чтобы сократить расходы на генерацию статьи. Можно попросить добавить эпитетов в описании и т.д. Тут уже зависит от вашей задачи и тематики.
7) Нужно обязательно указывать, чтобы чат писал уникальный контент и в стиле человека:
Human style of presentation without AI formalisms, Write the article in your own words rather than copying and pasting from other sources8 ) Коллекция отобранных промтов и ролей https://github.com/f/awesome-chatgpt-prompts
9) Полезный видос https://www.youtube.com/watch?v=BqQVj4wA7yA&ab_channel=CryptoEssay
👍16🔥6
Ниша сочинений - идеальное применение ChatGPT или есть подвох?
Пост выходного дня.. Какие мысли о схеме:
1) Ищем пару жирных сайтов по сочениниям
2) Собираем групповую семантику по ним и конкурентам
3) Чистим
4) Генерируем сочинения по запросам
5) Заливаем на сайт
6) PROFIT ??
Что думаете? Вообще ничего не знаю про нишу сочинений и эссе, может там как в финансах и казино?
Пост выходного дня.. Какие мысли о схеме:
1) Ищем пару жирных сайтов по сочениниям
2) Собираем групповую семантику по ним и конкурентам
3) Чистим
4) Генерируем сочинения по запросам
5) Заливаем на сайт
6) PROFIT ??
Что думаете? Вообще ничего не знаю про нишу сочинений и эссе, может там как в финансах и казино?
Сайт на GPT статьях спустя неделю
Прошло немного времени, трафик пока выглядит вот так.
Сгенерировано и опубликовано 7300 статей.
Потрачено 23$. Не знаю дорого это или нет.
Пока остановил генерацию. Съезжу в отпуск на 2 недельки без ноута, посмотрим что будет дальше. Выглядит так, что нужно масштабировать.
—
P.S. В отложенных лежит еще минимум 3 поста, будут равномерно публиковаться, пока меня нет. Вам понравится)
Прошло немного времени, трафик пока выглядит вот так.
Сгенерировано и опубликовано 7300 статей.
Потрачено 23$. Не знаю дорого это или нет.
Пока остановил генерацию. Съезжу в отпуск на 2 недельки без ноута, посмотрим что будет дальше. Выглядит так, что нужно масштабировать.
—
P.S. В отложенных лежит еще минимум 3 поста, будут равномерно публиковаться, пока меня нет. Вам понравится)
👍18❤2🤔1
Ловец ботов
Пару месяцев назад был на консультации у Ивана (Hey, Moneymaker), который поделился идеей Ловца ботов.
Идея не новая, корни начинаются здесь:
https://alexeytrudov.com/web-marketing/seo/set-dlya-botov.html.
Кому лень читать, идея заключается в том, чтобы улучшить индексацию сайта путем подсовывания боту страниц, которые он редко (или никогда) посещает.
В простейшей реализации - работаем с блоком перелинковки. Список страниц/ссылок в этом блоке формируются на основе статистики посещения ботом.
Иными словами, в блок попадают страницы, которые либо еще не были посещены ботом, либо бот посещал их слишком давно, например, неделю назад.
Как реализовать?
Задача достаточно простая и вариантов реализации много.
Для себя я это решил так, что в БД в таблицу с записями/статьями заводим два новых поля:
При каждом посещении смотрим на UserAgent запроса.
Если это бот Яндекса или Гугла - обновляем дату посещения в соответствующем поле. В целом все)
Далее уже можно придумать асинхронную запись, кэши и т.д., чтобы не тормозить загрузку страницы.
Итого, у нас есть последняя дата посещения ботом каждой страницы.
Такая информация сама по себе уже интересна для анализа, но мы можем использовать эти данные, чтобы формировать список для блока перелинковки.
Страницы, на которые бот еще не заходил или заходил больше чем X дней назад, попадают в блок.
—
Надеюсь, удалось понятным языком объяснить суть принципа. Если что, задавайте вопросы в комментарии.
В качестве итогов - что это дало после внедрения?
Сайт на 55к страниц. На позиции это никак не повлияло (очевидно), т.к. и без этого проблем с индексацией не было (все страницы были в индексе).
Что изменилось - скорость переобхода. На сайте нет страницы, которую бы не посещал бот Яндекса за последние 10 дней. Новые страницы залетают в индекс менее чем за час.
С Гуглом результаты оценить сложно, пока выглядит так, что практически ничего не изменилось. Но донор не очень любим в Гугле, поэтому нужны еще эксперименты с другими сайтами.
Теоретически можно было бы оформить это в виде WP плагина, но я не сильно с ним дружу.
Существует более "грубая" реализация индексации, где ботов редиректят на страницы, которые нужно проиндексировать. Такие штуки активно используют некоторые дорвейщики. Рассказать подробнее или итак все об этом знают?
Пару месяцев назад был на консультации у Ивана (Hey, Moneymaker), который поделился идеей Ловца ботов.
Идея не новая, корни начинаются здесь:
https://alexeytrudov.com/web-marketing/seo/set-dlya-botov.html.
Кому лень читать, идея заключается в том, чтобы улучшить индексацию сайта путем подсовывания боту страниц, которые он редко (или никогда) посещает.
В простейшей реализации - работаем с блоком перелинковки. Список страниц/ссылок в этом блоке формируются на основе статистики посещения ботом.
Иными словами, в блок попадают страницы, которые либо еще не были посещены ботом, либо бот посещал их слишком давно, например, неделю назад.
Как реализовать?
Задача достаточно простая и вариантов реализации много.
Для себя я это решил так, что в БД в таблицу с записями/статьями заводим два новых поля:
google_bot_detected_last_time и yandex_bot_detected_last_time.При каждом посещении смотрим на UserAgent запроса.
Если это бот Яндекса или Гугла - обновляем дату посещения в соответствующем поле. В целом все)
Далее уже можно придумать асинхронную запись, кэши и т.д., чтобы не тормозить загрузку страницы.
Итого, у нас есть последняя дата посещения ботом каждой страницы.
Такая информация сама по себе уже интересна для анализа, но мы можем использовать эти данные, чтобы формировать список для блока перелинковки.
Страницы, на которые бот еще не заходил или заходил больше чем X дней назад, попадают в блок.
—
Надеюсь, удалось понятным языком объяснить суть принципа. Если что, задавайте вопросы в комментарии.
В качестве итогов - что это дало после внедрения?
Сайт на 55к страниц. На позиции это никак не повлияло (очевидно), т.к. и без этого проблем с индексацией не было (все страницы были в индексе).
Что изменилось - скорость переобхода. На сайте нет страницы, которую бы не посещал бот Яндекса за последние 10 дней. Новые страницы залетают в индекс менее чем за час.
С Гуглом результаты оценить сложно, пока выглядит так, что практически ничего не изменилось. Но донор не очень любим в Гугле, поэтому нужны еще эксперименты с другими сайтами.
Теоретически можно было бы оформить это в виде WP плагина, но я не сильно с ним дружу.
Существует более "грубая" реализация индексации, где ботов редиректят на страницы, которые нужно проиндексировать. Такие штуки активно используют некоторые дорвейщики. Рассказать подробнее или итак все об этом знают?
👍25
Делюсь скриптами бесплатно и без регистрации
В общем, я завел гитхаб, где буду стараться делиться разными инструментами, которые я писал, использовал или использую. Как никак это же SEO Код ))
Пока что это один репозиторий, где лежит тулза, которая отправляет ваши урлы на индексацию в yandex по indexnow api.
🛠 indexing_tools
Там же, описана инструкция по использованию, но если вдруг возникнут вопросы, пишите в комменты тут.
Как вернусь из отпуска, добавлю туда же код с Google Indexing API, с ротацией аккаунтов, чтобы обходить лимит в 200 запросов в сутки.
—
В планах конечно много всего есть, чем поделиться с общественностью (например, урезаным скриптом, который генерирует статьи в chatgpt). Но не всегда есть время или желание этим заниматься.
Денег ни с кого не беру (и рекламы на канале никакой нет и не планируется пока), поэтому повыпрашиваю у вас активности…
В качестве хоть какого-то мотиватора - порекомендуйте, пожалуйста, этот канал своим знакомым. Репосты в чаты и свои каналы приветствуются)
В общем, я завел гитхаб, где буду стараться делиться разными инструментами, которые я писал, использовал или использую. Как никак это же SEO Код ))
Пока что это один репозиторий, где лежит тулза, которая отправляет ваши урлы на индексацию в yandex по indexnow api.
🛠 indexing_tools
Там же, описана инструкция по использованию, но если вдруг возникнут вопросы, пишите в комменты тут.
Как вернусь из отпуска, добавлю туда же код с Google Indexing API, с ротацией аккаунтов, чтобы обходить лимит в 200 запросов в сутки.
—
В планах конечно много всего есть, чем поделиться с общественностью (например, урезаным скриптом, который генерирует статьи в chatgpt). Но не всегда есть время или желание этим заниматься.
Денег ни с кого не беру (и рекламы на канале никакой нет и не планируется пока), поэтому повыпрашиваю у вас активности…
В качестве хоть какого-то мотиватора - порекомендуйте, пожалуйста, этот канал своим знакомым. Репосты в чаты и свои каналы приветствуются)
👍43🔥6