В новый 2026 год с новыми знаниями!
25.01.2026 стартует курс Python SEO Нейросети - 2.0! Выкатываю яйца) на нашем курсе проходили обучение SEOшники из Озона, МТС маркетолога, Ant Team, компаний Контур, Технониколь и так далее. И это уже 6-й поток!)
Вас ждут 2 месяца ударной работы, масса практических заданий и полное переформатирование сознания!
Поверьте мне, что фразу: "А что так можно было?" – Вы зададите себе не раз по ходу курса!
Бонусы и плюшки!
1 – Цена старая 2025 года, поторопись! Следующий поток нескоро и дороже!
2 – Держи промокод на скидку SPECIAL
3 – Действует Рассрочка
4 – Бонус второгодника (не нашел время пройти курс до конца, не отчаивайся, заходи повторно!)
Информация тут https://sait-activator.ru/seo-python промокод на скидку SPECIAL
25.01.2026 стартует курс Python SEO Нейросети - 2.0! Выкатываю яйца) на нашем курсе проходили обучение SEOшники из Озона, МТС маркетолога, Ant Team, компаний Контур, Технониколь и так далее. И это уже 6-й поток!)
Вас ждут 2 месяца ударной работы, масса практических заданий и полное переформатирование сознания!
Поверьте мне, что фразу: "А что так можно было?" – Вы зададите себе не раз по ходу курса!
Бонусы и плюшки!
1 – Цена старая 2025 года, поторопись! Следующий поток нескоро и дороже!
2 – Держи промокод на скидку SPECIAL
3 – Действует Рассрочка
4 – Бонус второгодника (не нашел время пройти курс до конца, не отчаивайся, заходи повторно!)
Информация тут https://sait-activator.ru/seo-python промокод на скидку SPECIAL
❤7
This media is not supported in your browser
VIEW IN TELEGRAM
Ловим сущности в прямом эфире! Анонс вебинара!
С некоторых пор https://t.me/seo_python_2neuron/173 меня интересуют сущности 👻👻👻. Речь не о привидениях, домовых и прочей нечисти, речь идет про entities.
Как поступает настоящий адепт Python? Правильно погружается в кодинг и готовит исследование! Новогодние выходные прошли крайне продуктивно я допинал скрипт, который находит сущности на поиске, векторизирует их, обогащает через Google Knowledge Graph и потом готовит по ним аутлайн для статьи.
Да, SEO статья это не только про "Давай спарсим h2 конкурентов и добавим ключи по списку в перемешку с LSI". Нужно ещё раскрыть все интенты, ответить на вопросы, и вот тут-то как раз нам и пригодится NLP от Google со своими сущностями (entities).
Ну, что интересно?
Тогда присоединяйся к Вебинару!
Тема: Сущности (entities) на поиске, как их юзать в SEO?
Время: 15 янв. 2026 08:00 PM Москва
Подключиться к конференции Zoom
https://us06web.zoom.us/j/81317083935?pwd=A4ajQCO4bbOZCvro0RMaQWnFG0VBsA.1
Идентификатор конференции: 813 1708 3935
Код доступа: 054742
Инструкции по подключению
https://us06web.zoom.us/meetings/81317083935/invitations?signature=A5b4fl16kWuDqnFJX7G3h_p7JYt0BrmfOaQ8B3xbbV8
Присоединяйтесь, будет интересно! Покажу, что у меня получилось, а с чем возникли проблемы и как это юзать для SEO!
С некоторых пор https://t.me/seo_python_2neuron/173 меня интересуют сущности 👻👻👻. Речь не о привидениях, домовых и прочей нечисти, речь идет про entities.
Как поступает настоящий адепт Python? Правильно погружается в кодинг и готовит исследование! Новогодние выходные прошли крайне продуктивно я допинал скрипт, который находит сущности на поиске, векторизирует их, обогащает через Google Knowledge Graph и потом готовит по ним аутлайн для статьи.
Да, SEO статья это не только про "Давай спарсим h2 конкурентов и добавим ключи по списку в перемешку с LSI". Нужно ещё раскрыть все интенты, ответить на вопросы, и вот тут-то как раз нам и пригодится NLP от Google со своими сущностями (entities).
Ну, что интересно?
Тогда присоединяйся к Вебинару!
Тема: Сущности (entities) на поиске, как их юзать в SEO?
Время: 15 янв. 2026 08:00 PM Москва
Подключиться к конференции Zoom
https://us06web.zoom.us/j/81317083935?pwd=A4ajQCO4bbOZCvro0RMaQWnFG0VBsA.1
Идентификатор конференции: 813 1708 3935
Код доступа: 054742
Инструкции по подключению
https://us06web.zoom.us/meetings/81317083935/invitations?signature=A5b4fl16kWuDqnFJX7G3h_p7JYt0BrmfOaQ8B3xbbV8
Присоединяйтесь, будет интересно! Покажу, что у меня получилось, а с чем возникли проблемы и как это юзать для SEO!
🔥16
Побуду Инфоцыганом
Я специально сделал кликбейтный заголовок, чтобы не дать ни единого шанса тем кто захочет меня в этом обвинить)
Короче! Я принял решение я финалю курс https://sait-activator.ru/seo-python.
25.01.2026 – стартует последний поток!
Хочешь, залетай, Промокод Special, другого шанса уже не будет!
Я специально сделал кликбейтный заголовок, чтобы не дать ни единого шанса тем кто захочет меня в этом обвинить)
Короче! Я принял решение я финалю курс https://sait-activator.ru/seo-python.
25.01.2026 – стартует последний поток!
Хочешь, залетай, Промокод Special, другого шанса уже не будет!
sait-activator.ru
Курс Python, SEO, Нейросети
😱12👍1🔥1🌚1
Как устроена работа в нашем агентстве и причем тут Python 🐍
Начнем с того, что типовые задачи у нас оцифрованы и шаблонизированы. Для каждой задачи в рамках проекта идет описание, порядок выполнения, чек-лист для проверки, примерное время выполнения и самое важное - ЦКП
Мы для каждой задачи ставим ЦКП (ценный конечный продукт). Так, например, для задачи «написать статью в блог» - ЦКП звучит как: опубликованная на сайте, проиндексированная в Яндексе и Google статья написанная под определенную семантику, проверенная по SEO параметрам согласно чек-листа.
Зачем мы это сделали? Да потому что конечную цель все воспринимают по разному. Кто-то может посчитать, что достаточно написать статью в Гугл докс и приложить её к отчету. Кто-то может разместить её на сайте но не опубликовать. Это не значит, что у нас работают тупые сотрудники)) это стандарт качества, который должен быть!
Есть несколько стилей управления командой. От: "Мы нанимаем самых лучших и дорогих и не лезем к ним", до регламентирования каждого шага. Мой подход - здоровая диктатура 👨✈ кто был в Сингапуре тот меня прекрасно поймёт). Я за планомерную четко регламентированную работу, но без микроменеджмента и задротства по мелочам.
В конце месяца мы делаем шахматку - строим планы на следующий месяц по всем проектам. В столбик у нас проекты, в строку - типовые задачи с комментариями. Обычная эксель таблица, очень удобно и наглядно.
А причем тут Python спросите вы?
Мы используем MooTeam - это CRM от Алаича и у неё довольно удобная API. И вот эту вот шахматку мы с помощью python и API импортируем в CRM, предварительно проставив дедлайны, приоритеты и ответственных. Удобно? Вы не предоставляете насколько! Мой хэд просто пищал от восторга когда мы это сделали. До этого приходилось заносить все вручную.
Второй писк радости был когда мы автоматизировали отчеты (полуавтоматизировали) если уж быть до конца честными. Фишка в том, что все выполненные нами в CRM системе работы мы экспортируем в заготовки презентаций отчетов о выполненных работах, экспортируем как вы догадываетесь одной кнопкой.
Что следующее на очереди и над чем я работаю сейчас? Это автоматизация аккаунтинга.
Краткое ТЗ выглядит так.
Регулярно скармливать LLMке (видимо это будет Gemini):
1. Мониторинг клиентских чатов
2. Самари зум созвонов
3. Отчеты и планы, а так же текущие спринты по задачам
Если еще закинуть туда какой нибудь крутой seoшный курс, я даже знаю чей 😉. Можно сделать идеального помощника аккаунт менеджера, который будет не просто тупо отвечать: "Здравствуйте передаю ваш запрос SEOшникам вернусь до конца дня". Грамотно и по существу закрывать тревоги клиента.
Если все сделать как я хочу, получится очень крутой и востребованный продукт! Я надеюсь вы понимаете что без Питона тут никак не обойтись?)))
Начнем с того, что типовые задачи у нас оцифрованы и шаблонизированы. Для каждой задачи в рамках проекта идет описание, порядок выполнения, чек-лист для проверки, примерное время выполнения и самое важное - ЦКП
Мы для каждой задачи ставим ЦКП (ценный конечный продукт). Так, например, для задачи «написать статью в блог» - ЦКП звучит как: опубликованная на сайте, проиндексированная в Яндексе и Google статья написанная под определенную семантику, проверенная по SEO параметрам согласно чек-листа.
Зачем мы это сделали? Да потому что конечную цель все воспринимают по разному. Кто-то может посчитать, что достаточно написать статью в Гугл докс и приложить её к отчету. Кто-то может разместить её на сайте но не опубликовать. Это не значит, что у нас работают тупые сотрудники)) это стандарт качества, который должен быть!
Есть несколько стилей управления командой. От: "Мы нанимаем самых лучших и дорогих и не лезем к ним", до регламентирования каждого шага. Мой подход - здоровая диктатура 👨✈ кто был в Сингапуре тот меня прекрасно поймёт). Я за планомерную четко регламентированную работу, но без микроменеджмента и задротства по мелочам.
В конце месяца мы делаем шахматку - строим планы на следующий месяц по всем проектам. В столбик у нас проекты, в строку - типовые задачи с комментариями. Обычная эксель таблица, очень удобно и наглядно.
А причем тут Python спросите вы?
Мы используем MooTeam - это CRM от Алаича и у неё довольно удобная API. И вот эту вот шахматку мы с помощью python и API импортируем в CRM, предварительно проставив дедлайны, приоритеты и ответственных. Удобно? Вы не предоставляете насколько! Мой хэд просто пищал от восторга когда мы это сделали. До этого приходилось заносить все вручную.
Второй писк радости был когда мы автоматизировали отчеты (полуавтоматизировали) если уж быть до конца честными. Фишка в том, что все выполненные нами в CRM системе работы мы экспортируем в заготовки презентаций отчетов о выполненных работах, экспортируем как вы догадываетесь одной кнопкой.
Что следующее на очереди и над чем я работаю сейчас? Это автоматизация аккаунтинга.
Краткое ТЗ выглядит так.
Регулярно скармливать LLMке (видимо это будет Gemini):
1. Мониторинг клиентских чатов
2. Самари зум созвонов
3. Отчеты и планы, а так же текущие спринты по задачам
Если еще закинуть туда какой нибудь крутой seoшный курс, я даже знаю чей 😉. Можно сделать идеального помощника аккаунт менеджера, который будет не просто тупо отвечать: "Здравствуйте передаю ваш запрос SEOшникам вернусь до конца дня". Грамотно и по существу закрывать тревоги клиента.
Если все сделать как я хочу, получится очень крутой и востребованный продукт! Я надеюсь вы понимаете что без Питона тут никак не обойтись?)))
🔥15👍8
Как бы я начинал с нуля?
Проведем мысленный эксперимент!
29.01.2026 08:00 на часах. Я оказался в новом мире, в котором меня никто не знает, в котором нет сотрудников, заказчиков, сарафанки. В активе только 15 летний опыт в SEO, набор хард и софт скиллов. И всё, чистый лист!
Идеальный белый лист, на котором можно написать всё, что угодно, формулу, скрипт, хокку на хирагане, резюме на вакансию SEO оптимизатора, манифест политической партии.
Нулевой километр, точка отсчета, почти-что дзен…
В японской кинематографе есть такое понятие Ма, 間) — это фундаментальный художественный прием, означающий «пробел» или «пустое пространство» между звуками, действиями или кадрами.
Мы сейчас в точке Ма.
Какой следующий шаг?
ОК стартуем! Идти во фриланс в клиентское SEO вот так вот с нуля – долго и больно, отметаем сразу. Идти в найм… спасибо, этот путь я уже проходил.
Первое, что я бы сделал – определился с нишей. В ней должны быть деньги, она должна расти, и в этой нише не должно быть кровавой бойни как в гемблинге.
Второе, я бы планомерно каждый день начал мониторить, выкупать и поднимать дропы. Несмотря на мнение, что все хорошие дропы давным, давно разобрали – найти можно. В основном все смотрят на пузомерки, но по факту можно найти много интересного даже за 190 р.
Что для этого нужно? Да по факту сервак с Питоном за 50$, индусский semrush за 160 руб, парсер ahrefs ну или платный ahrefs через тех же индусов для допроверки.
Скрипты крутятся, дропы мутятся). На выходных спарсили бэкордер на неделю вперед, потом в 17-55 проверили ставки. Если ок, докупили, нажали на кнопку, развернули дроп и всё.
Что дальше делать надеюсь всем понятно? )
16-02-2026 Мы с Алексеем Файнгором запускаем второй поток курса Python SEO PBN и вот там как раз мы эту схему с вами и провернём!
https://sait-activator.ru/kurs-seo-pbn
Держи промокод на скидку SPECIAL и жду на курсе!
NEW у нас теперь 2 тарифа ну и как прежде есть рассрочка через СПЛИТ
Проведем мысленный эксперимент!
29.01.2026 08:00 на часах. Я оказался в новом мире, в котором меня никто не знает, в котором нет сотрудников, заказчиков, сарафанки. В активе только 15 летний опыт в SEO, набор хард и софт скиллов. И всё, чистый лист!
Идеальный белый лист, на котором можно написать всё, что угодно, формулу, скрипт, хокку на хирагане, резюме на вакансию SEO оптимизатора, манифест политической партии.
Нулевой километр, точка отсчета, почти-что дзен…
В японской кинематографе есть такое понятие Ма, 間) — это фундаментальный художественный прием, означающий «пробел» или «пустое пространство» между звуками, действиями или кадрами.
Мы сейчас в точке Ма.
Какой следующий шаг?
ОК стартуем! Идти во фриланс в клиентское SEO вот так вот с нуля – долго и больно, отметаем сразу. Идти в найм… спасибо, этот путь я уже проходил.
Первое, что я бы сделал – определился с нишей. В ней должны быть деньги, она должна расти, и в этой нише не должно быть кровавой бойни как в гемблинге.
Второе, я бы планомерно каждый день начал мониторить, выкупать и поднимать дропы. Несмотря на мнение, что все хорошие дропы давным, давно разобрали – найти можно. В основном все смотрят на пузомерки, но по факту можно найти много интересного даже за 190 р.
Что для этого нужно? Да по факту сервак с Питоном за 50$, индусский semrush за 160 руб, парсер ahrefs ну или платный ahrefs через тех же индусов для допроверки.
Скрипты крутятся, дропы мутятся). На выходных спарсили бэкордер на неделю вперед, потом в 17-55 проверили ставки. Если ок, докупили, нажали на кнопку, развернули дроп и всё.
Что дальше делать надеюсь всем понятно? )
16-02-2026 Мы с Алексеем Файнгором запускаем второй поток курса Python SEO PBN и вот там как раз мы эту схему с вами и провернём!
https://sait-activator.ru/kurs-seo-pbn
Держи промокод на скидку SPECIAL и жду на курсе!
NEW у нас теперь 2 тарифа ну и как прежде есть рассрочка через СПЛИТ
sait-activator.ru
Курс Python SEO PBN сети на дропах за копейки!
👍11❤🔥1💊1
Не отпускают меня сущности)
Вчера в очередной раз посмотрел доклад Олега Шестакова про сущности и задал ему вопрос по итогам своего эксперимента.
Скажу вкратце, не все так красиво и гладко как в докладе, есть нюансы. Так например если вы делаете статью о том как поступить в MIT (Массачусетский технологический университет) из РФ, то за счет сущностей entities и ноулидж графа вы получите строгую академичную статью про MIT, да там будет масса информации об основателях, о кампусе, благотворительной деятельности, выдающихся выпускниках, но! Именно про особенности поступления из РФ и прочие моменты будут отсечены по порогу косинусной близости, потому что main entity (главная сущность) у нас это MIT. На вебинаре, который я проводил, я как раз это подсвечивал. И вопрос который у меня был - баг это или фича? На что последовал ответ, что да тупо по одной кнопке не всегда получается, есть разные ниши, разные запросы и иногда нужно бить полученные данные на 2 или 3 статьи. Примерно эти же выводы я озвучил у себя на вебинаре, что одних сущностей недостаточно, что это скорее хороший инструмент обогащения, но ни как не сильвер буллит!
Запилить бота, чтоли очередного, который будет это доставать 🤔? Накидайте огонёчков, если их наберется, что нибудь замучу в ближайшие дни!
Вчера в очередной раз посмотрел доклад Олега Шестакова про сущности и задал ему вопрос по итогам своего эксперимента.
Скажу вкратце, не все так красиво и гладко как в докладе, есть нюансы. Так например если вы делаете статью о том как поступить в MIT (Массачусетский технологический университет) из РФ, то за счет сущностей entities и ноулидж графа вы получите строгую академичную статью про MIT, да там будет масса информации об основателях, о кампусе, благотворительной деятельности, выдающихся выпускниках, но! Именно про особенности поступления из РФ и прочие моменты будут отсечены по порогу косинусной близости, потому что main entity (главная сущность) у нас это MIT. На вебинаре, который я проводил, я как раз это подсвечивал. И вопрос который у меня был - баг это или фича? На что последовал ответ, что да тупо по одной кнопке не всегда получается, есть разные ниши, разные запросы и иногда нужно бить полученные данные на 2 или 3 статьи. Примерно эти же выводы я озвучил у себя на вебинаре, что одних сущностей недостаточно, что это скорее хороший инструмент обогащения, но ни как не сильвер буллит!
Запилить бота, чтоли очередного, который будет это доставать 🤔? Накидайте огонёчков, если их наберется, что нибудь замучу в ближайшие дни!
🔥64❤🔥4👍3🥱1🌭1
Опыт использования Вайбкод платформ от учеников
Небольшое овервью, данный пост написал Адександр Чумак, один из лучших учеников на курсе). Я попросил у него разрешения опубликовать личный опыт проб, ошибок и набивания шишек!
Пост Александра:
Я сделал сбор семантики.
Изначально начинал вайб-кодить на ChatGPT через диалоговое окно.
Потом перешёл на Claude AI, также в окне.
Потом стал пробовать разные IDE.
Начал с Cursor. За 5 дней улетели 20$ месячной подписки + ещё в минус 43$.
На этом с Cursor закончил.
Потом поставил Antigravity AI от Google.
За пару дней закончились лимиты от Антропик, пауза на 5 дней. Но плюс в том, что можно почти неограниченно использовать родную гугловскую модель Gemini 3 Pro High.
Она конечно похуже, чем Сонет 4,5 и Опус 4, но работает. Правда нужен аккаунт не Российский и хорошийсами знаете что)) на зарубежном сервере.
На днях ещё опробовал TRAE.AI, но в нем нет моделей от Антропик, но есть ChatGPT 5,2 High, который по ощущениям работает лучше, чем также Gemini 3 Pro High.
Плюс а том, что месячная подписка на Trae в 1й месяц 3$, далее 10$.
На днях поставил VS Code + Claude Code Cli.
Фишка в том, что можно использовать обычную подписку за 20$ без API.
Пока только начал и не могу оценить, но судя по отзывам как людей, так и нейронок , последний вариант в настоящее время - это самое лучшее решение для вайб-кодера.
Полезно? По моему да!
Небольшое овервью, данный пост написал Адександр Чумак, один из лучших учеников на курсе). Я попросил у него разрешения опубликовать личный опыт проб, ошибок и набивания шишек!
Пост Александра:
Я сделал сбор семантики.
Изначально начинал вайб-кодить на ChatGPT через диалоговое окно.
Потом перешёл на Claude AI, также в окне.
Потом стал пробовать разные IDE.
Начал с Cursor. За 5 дней улетели 20$ месячной подписки + ещё в минус 43$.
На этом с Cursor закончил.
Потом поставил Antigravity AI от Google.
За пару дней закончились лимиты от Антропик, пауза на 5 дней. Но плюс в том, что можно почти неограниченно использовать родную гугловскую модель Gemini 3 Pro High.
Она конечно похуже, чем Сонет 4,5 и Опус 4, но работает. Правда нужен аккаунт не Российский и хороший
На днях ещё опробовал TRAE.AI, но в нем нет моделей от Антропик, но есть ChatGPT 5,2 High, который по ощущениям работает лучше, чем также Gemini 3 Pro High.
Плюс а том, что месячная подписка на Trae в 1й месяц 3$, далее 10$.
На днях поставил VS Code + Claude Code Cli.
Фишка в том, что можно использовать обычную подписку за 20$ без API.
Пока только начал и не могу оценить, но судя по отзывам как людей, так и нейронок , последний вариант в настоящее время - это самое лучшее решение для вайб-кодера.
Полезно? По моему да!
👍10🗿4🤔1
AI-first подход для сложного парсинга
На прошлой неделе повозился полдня с Клодом и сделал умный парсер ЖК для сайта о недвижимости.
Предыстория: нужно добавить на проект порядка 200 объектов – жилых комплексов. Как бы я поступил раньше? Я бы выгрузил топы, спарсил картинки, заголовки, нанял бы четверых фрилансеров, чтобы они руками заполнили информацию об объектах.
Каюсь, первая мысль была именно такой – сделать все по старинке. Но как только моя рука потянулась, чтобы написать сообщение моему ассистенту, я почувствовал дискомфорт. Это было моё уязвлённое самолюбие! Эй, чел, ты же автоматизатор, блин, нейронщик, пропагандируешь принцип AI-first, а сам втихаря ручками?))
Неее, так не пойдёт, подумал я и за пару тройку часов написал умный парсер.
Идея предельно проста: вытаскивать парсером все тексты со страниц ЖК и отправлять их по API в OpenAI, снабдив мастер-промптом, который найдёт в текстах нужную мне информацию, структурирует её и выдаст в Markdown по шаблону. Написал скрипт, покрутил мастер промпт и температуру, протестировал разные модели, лучшей оказалась GPT-5.
Схема работы
1. На вход - список жилых комплексов
2. Парсим топы, в том числе используя вайт-лист и стоп-лист сайтов
3. Готовим табличку: объект, урлы доноры (от 5 до 7 в среднем ), и тайтлы для проверки адекватности найденных углов
4. Следующий шаг пришлось сделать вручную – это проверить URL-адреса и теги title, чтобы выкинуть нерелевантные странички. На данном этапе лучше кожаных пока не справляется никто
5. Дальше всё улетает в GPT и возвращается в виде Markdown списка и json файла
6. Маркдаун нам пригодится для итоговой проверки. В нем собрана и структурирована информация по объекту, например, срок сдачи, ближайшие локации, тип недвижки (апарты, таунхаусы и прочее), статус объекта, класс объекта и прочее и прочее
7. Json файл пойдет у нас для импорта в админку после проверки и фактчекинга риэлторами
Знаете, что самое интересное? Я думал, у меня израсходуется куча денег, тем более что я использовал дорогую модель GPT-5. 100 объектов мне встали в 12 центов или примерно в 10 рублей!
Короче, AI-first подход работает! Теперь не нужно выискивать CSS-селекторы, XPath-выражения – экономия времени в разы. Если для интернет-магазинов, как будто бы, до сих пор лучше парсить по старинке с помощью XPath-выражений, то для разнородных страниц – например, для сайтов услуг или объектов недвижимости – выделение сущностей без нейронок выглядело просто неосуществимой задачей!
На прошлой неделе повозился полдня с Клодом и сделал умный парсер ЖК для сайта о недвижимости.
Предыстория: нужно добавить на проект порядка 200 объектов – жилых комплексов. Как бы я поступил раньше? Я бы выгрузил топы, спарсил картинки, заголовки, нанял бы четверых фрилансеров, чтобы они руками заполнили информацию об объектах.
Каюсь, первая мысль была именно такой – сделать все по старинке. Но как только моя рука потянулась, чтобы написать сообщение моему ассистенту, я почувствовал дискомфорт. Это было моё уязвлённое самолюбие! Эй, чел, ты же автоматизатор, блин, нейронщик, пропагандируешь принцип AI-first, а сам втихаря ручками?))
Неее, так не пойдёт, подумал я и за пару тройку часов написал умный парсер.
Идея предельно проста: вытаскивать парсером все тексты со страниц ЖК и отправлять их по API в OpenAI, снабдив мастер-промптом, который найдёт в текстах нужную мне информацию, структурирует её и выдаст в Markdown по шаблону. Написал скрипт, покрутил мастер промпт и температуру, протестировал разные модели, лучшей оказалась GPT-5.
Схема работы
1. На вход - список жилых комплексов
2. Парсим топы, в том числе используя вайт-лист и стоп-лист сайтов
3. Готовим табличку: объект, урлы доноры (от 5 до 7 в среднем ), и тайтлы для проверки адекватности найденных углов
4. Следующий шаг пришлось сделать вручную – это проверить URL-адреса и теги title, чтобы выкинуть нерелевантные странички. На данном этапе лучше кожаных пока не справляется никто
5. Дальше всё улетает в GPT и возвращается в виде Markdown списка и json файла
6. Маркдаун нам пригодится для итоговой проверки. В нем собрана и структурирована информация по объекту, например, срок сдачи, ближайшие локации, тип недвижки (апарты, таунхаусы и прочее), статус объекта, класс объекта и прочее и прочее
7. Json файл пойдет у нас для импорта в админку после проверки и фактчекинга риэлторами
Знаете, что самое интересное? Я думал, у меня израсходуется куча денег, тем более что я использовал дорогую модель GPT-5. 100 объектов мне встали в 12 центов или примерно в 10 рублей!
Короче, AI-first подход работает! Теперь не нужно выискивать CSS-селекторы, XPath-выражения – экономия времени в разы. Если для интернет-магазинов, как будто бы, до сих пор лучше парсить по старинке с помощью XPath-выражений, то для разнородных страниц – например, для сайтов услуг или объектов недвижимости – выделение сущностей без нейронок выглядело просто неосуществимой задачей!
🔥20👍4❤3💯2
🆓 Мини-курс по PBN: забираешь 2 скрипта — и уже можешь искать дропы руками (без 100 вкладок и DR-астрологии)
Платный курс — это когда ты уже понял(а), что PBN тебе нужен, и хочешь конвейер “по-взрослому”.
А если ты пока не уверен, но хочешь пощупать PBN руками и увидеть, как это всё автоматизируется — у нас есть нормальный вход:
Бесплатный мини-курс Python × SEO × PBN.
📌 Самое вкусное: в мини-курсе будет 2 рабочих скрипта, с которыми можно уже сейчас делать базовый pipeline:
1. WHOIS-check — проверка свободности домена
Чтобы быстро отсеивать мусор и не тратить жизнь на “а свободен ли он вообще”.
2. ru-tld парсер по маске — парсинг российских баз сайтов по заданной маске
Ты задаёшь маску + отдельно указываешь режим (например: **уже дроп / скоро дроп**) — и получаешь список кандидатов.
Дальше да, можно ручками смотреть, отбирать, копать историю/ссылки/тематику. Но самое главное — поиск и первичный сбор у тебя уже автоматизирован.
Это не “послушать про PBN”.
Это “взял, запустил, получил список, пошёл копать”.
📅 Старт: 24.02.2026 в 18-00
Формат:
— 2 занятия (без воды, по делу)
— установка/настройка, логика отбора, практика
— домашки + чат/куратор (чтобы не умереть на “у меня не запускается”)
Если ты:
— устал(а) кликать ExpiredDomains/вкладки как оператор колл-центра,
— хочешь понять, что такое PBN без сказок,
— и хочешь унести с собой инструменты, а не мотивацию,
то тебе сюда.
👉 Запись на мини-курс: https://sait-activator.ru/python-seo-pbn-free
ПРОМОКОД FREE
P.S. После мини-курса станет очень просто понять: тебе хочется еще глубже (платный поток, ничего более) или ты пока спокойно ковыряешься руками на этих двух скриптах.
Платный курс — это когда ты уже понял(а), что PBN тебе нужен, и хочешь конвейер “по-взрослому”.
А если ты пока не уверен, но хочешь пощупать PBN руками и увидеть, как это всё автоматизируется — у нас есть нормальный вход:
Бесплатный мини-курс Python × SEO × PBN.
📌 Самое вкусное: в мини-курсе будет 2 рабочих скрипта, с которыми можно уже сейчас делать базовый pipeline:
1. WHOIS-check — проверка свободности домена
Чтобы быстро отсеивать мусор и не тратить жизнь на “а свободен ли он вообще”.
2. ru-tld парсер по маске — парсинг российских баз сайтов по заданной маске
Ты задаёшь маску + отдельно указываешь режим (например: **уже дроп / скоро дроп**) — и получаешь список кандидатов.
Дальше да, можно ручками смотреть, отбирать, копать историю/ссылки/тематику. Но самое главное — поиск и первичный сбор у тебя уже автоматизирован.
Это не “послушать про PBN”.
Это “взял, запустил, получил список, пошёл копать”.
📅 Старт: 24.02.2026 в 18-00
Формат:
— 2 занятия (без воды, по делу)
— установка/настройка, логика отбора, практика
— домашки + чат/куратор (чтобы не умереть на “у меня не запускается”)
Если ты:
— устал(а) кликать ExpiredDomains/вкладки как оператор колл-центра,
— хочешь понять, что такое PBN без сказок,
— и хочешь унести с собой инструменты, а не мотивацию,
то тебе сюда.
👉 Запись на мини-курс: https://sait-activator.ru/python-seo-pbn-free
ПРОМОКОД FREE
P.S. После мини-курса станет очень просто понять: тебе хочется еще глубже (платный поток, ничего более) или ты пока спокойно ковыряешься руками на этих двух скриптах.
sait-activator.ru
Python SEO PBN free
🆒5🥱3🔥2💯2❤1
SEO Python 2 Нейрона
🆓 Мини-курс по PBN: забираешь 2 скрипта — и уже можешь искать дропы руками (без 100 вкладок и DR-астрологии) Платный курс — это когда ты уже понял(а), что PBN тебе нужен, и хочешь конвейер “по-взрослому”. А если ты пока не уверен, но хочешь пощупать PBN руками…
Стартуем сегодня в 18:30! Запись в группу тут @free_pbn_inviter_bot
🔥2