SEO Python 2 Нейрона
1.54K subscribers
86 photos
4 videos
1 file
45 links
Простым языком про нейросети, python и про то, как это применять в SEO. Блог Владислава Папернюка
Download Telegram
Не отпускают меня сущности)

Вчера в очередной раз посмотрел доклад Олега Шестакова про сущности и задал ему вопрос по итогам своего эксперимента.

Скажу вкратце, не все так красиво и гладко как в докладе, есть нюансы. Так например если вы делаете статью о том как поступить в MIT (Массачусетский технологический университет) из РФ, то за счет сущностей entities и ноулидж графа вы получите строгую академичную статью про MIT, да там будет масса информации об основателях, о кампусе, благотворительной деятельности, выдающихся выпускниках, но! Именно про особенности поступления из РФ и прочие моменты будут отсечены по порогу косинусной близости, потому что main entity (главная сущность) у нас это MIT. На вебинаре, который я проводил, я как раз это подсвечивал. И вопрос который у меня был - баг это или фича? На что последовал ответ, что да тупо по одной кнопке не всегда получается, есть разные ниши, разные запросы и иногда нужно бить полученные данные на 2 или 3 статьи. Примерно эти же выводы я озвучил у себя на вебинаре, что одних сущностей недостаточно, что это скорее хороший инструмент обогащения, но ни как не сильвер буллит!


Запилить бота, чтоли очередного, который будет это доставать 🤔? Накидайте огонёчков, если их наберется, что нибудь замучу в ближайшие дни!
🔥64❤‍🔥4👍3🥱1🌭1
Опыт использования Вайбкод платформ от учеников

Небольшое овервью, данный пост написал Адександр Чумак, один из лучших учеников на курсе). Я попросил у него разрешения опубликовать личный опыт проб, ошибок и набивания шишек!

Пост Александра:

Я сделал сбор семантики.
Изначально начинал вайб-кодить на ChatGPT через диалоговое окно.
Потом перешёл на Claude AI, также в окне.
Потом стал пробовать разные IDE.
Начал с Cursor. За 5 дней улетели 20$ месячной подписки + ещё в минус 43$.
На этом с Cursor закончил.
Потом поставил Antigravity AI от Google.
За пару дней закончились лимиты от Антропик, пауза на 5 дней. Но плюс в том, что можно почти неограниченно использовать родную гугловскую модель Gemini 3 Pro High.
Она конечно похуже, чем Сонет 4,5 и Опус 4, но работает. Правда нужен аккаунт не Российский и хороший сами знаете что)) на зарубежном сервере.
На днях ещё опробовал TRAE.AI, но в нем нет моделей от Антропик, но есть ChatGPT 5,2 High, который по ощущениям работает лучше, чем также Gemini 3 Pro High.
Плюс а том, что месячная подписка на Trae в 1й месяц 3$, далее 10$.
На днях поставил VS Code + Claude Code Cli.
Фишка в том, что можно использовать обычную подписку за 20$ без API.
Пока только начал и не могу оценить, но судя по отзывам как людей, так и нейронок , последний вариант в настоящее время - это самое лучшее решение для вайб-кодера.

Полезно? По моему да!
👍10🗿4🤔1
AI-first подход для сложного парсинга

На прошлой неделе повозился полдня с Клодом и сделал умный парсер ЖК для сайта о недвижимости.
Предыстория: нужно добавить на проект порядка 200 объектов – жилых комплексов. Как бы я поступил раньше? Я бы выгрузил топы, спарсил картинки, заголовки, нанял бы четверых фрилансеров, чтобы они руками заполнили информацию об объектах.

Каюсь, первая мысль была именно такой – сделать все по старинке. Но как только моя рука потянулась, чтобы написать сообщение моему ассистенту, я почувствовал дискомфорт. Это было моё уязвлённое самолюбие! Эй, чел, ты же автоматизатор, блин, нейронщик, пропагандируешь принцип AI-first, а сам втихаря ручками?))

Неее, так не пойдёт, подумал я и за пару тройку часов написал умный парсер.

Идея предельно проста: вытаскивать парсером все тексты со страниц ЖК и отправлять их по API в OpenAI, снабдив мастер-промптом, который найдёт в текстах нужную мне информацию, структурирует её и выдаст в Markdown по шаблону. Написал скрипт, покрутил мастер промпт и температуру, протестировал разные модели, лучшей оказалась GPT-5.

Схема работы
1. На вход - список жилых комплексов
2. Парсим топы, в том числе используя вайт-лист и стоп-лист сайтов
3. Готовим табличку: объект, урлы доноры (от 5 до 7 в среднем ), и тайтлы для проверки адекватности найденных углов
4. Следующий шаг пришлось сделать вручную – это проверить URL-адреса и теги title, чтобы выкинуть нерелевантные странички. На данном этапе лучше кожаных пока не справляется никто
5. Дальше всё улетает в GPT и возвращается в виде Markdown списка и json файла
6. Маркдаун нам пригодится для итоговой проверки. В нем собрана и структурирована информация по объекту, например, срок сдачи, ближайшие локации, тип недвижки (апарты, таунхаусы и прочее), статус объекта, класс объекта и прочее и прочее
7. Json файл пойдет у нас для импорта в админку после проверки и фактчекинга риэлторами

Знаете, что самое интересное? Я думал, у меня израсходуется куча денег, тем более что я использовал дорогую модель GPT-5. 100 объектов мне встали в 12 центов или примерно в 10 рублей!

Короче, AI-first подход работает! Теперь не нужно выискивать CSS-селекторы, XPath-выражения – экономия времени в разы. Если для интернет-магазинов, как будто бы, до сих пор лучше парсить по старинке с помощью XPath-выражений, то для разнородных страниц – например, для сайтов услуг или объектов недвижимости – выделение сущностей без нейронок выглядело просто неосуществимой задачей!
🔥20👍43💯2
🆓 Мини-курс по PBN: забираешь 2 скрипта — и уже можешь искать дропы руками (без 100 вкладок и DR-астрологии)

Платный курс — это когда ты уже понял(а), что PBN тебе нужен, и хочешь конвейер “по-взрослому”.
А если ты пока не уверен, но хочешь пощупать PBN руками и увидеть, как это всё автоматизируется — у нас есть нормальный вход:

Бесплатный мини-курс Python × SEO × PBN.

📌 Самое вкусное: в мини-курсе будет 2 рабочих скрипта, с которыми можно уже сейчас делать базовый pipeline:

1. WHOIS-check — проверка свободности домена
Чтобы быстро отсеивать мусор и не тратить жизнь на “а свободен ли он вообще”.

2. ru-tld парсер по маске — парсинг российских баз сайтов по заданной маске
Ты задаёшь маску + отдельно указываешь режим (например: **уже дроп / скоро дроп**) — и получаешь список кандидатов.
Дальше да, можно ручками смотреть, отбирать, копать историю/ссылки/тематику. Но самое главное — поиск и первичный сбор у тебя уже автоматизирован.

Это не “послушать про PBN”.
Это “взял, запустил, получил список, пошёл копать”.

📅 Старт: 24.02.2026 в 18-00

Формат:
— 2 занятия (без воды, по делу)
— установка/настройка, логика отбора, практика
— домашки + чат/куратор (чтобы не умереть на “у меня не запускается”)

Если ты:
— устал(а) кликать ExpiredDomains/вкладки как оператор колл-центра,
— хочешь понять, что такое PBN без сказок,
— и хочешь унести с собой инструменты, а не мотивацию,
то тебе сюда.

👉 Запись на мини-курс: https://sait-activator.ru/python-seo-pbn-free

ПРОМОКОД FREE

P.S. После мини-курса станет очень просто понять: тебе хочется еще глубже (платный поток, ничего более) или ты пока спокойно ковыряешься руками на этих двух скриптах.
🆒5🥱3🔥2💯21