SEO Python 2 Нейрона
1.54K subscribers
85 photos
4 videos
1 file
41 links
Простым языком про нейросети, python и про то, как это применять в SEO. Блог Владислава Папернюка
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Ловим сущности в прямом эфире! Анонс вебинара!

С некоторых пор https://t.me/seo_python_2neuron/173 меня интересуют сущности 👻👻👻. Речь не о привидениях, домовых и прочей нечисти, речь идет про entities.

Как поступает настоящий адепт Python? Правильно погружается в кодинг и готовит исследование! Новогодние выходные прошли крайне продуктивно я допинал скрипт, который находит сущности на поиске, векторизирует их, обогащает через Google Knowledge Graph и потом готовит по ним аутлайн для статьи.

Да, SEO статья это не только про "Давай спарсим h2 конкурентов и добавим ключи по списку в перемешку с LSI". Нужно ещё раскрыть все интенты, ответить на вопросы, и вот тут-то как раз нам и пригодится NLP от Google со своими сущностями (entities).

Ну, что интересно?

Тогда присоединяйся к Вебинару!

Тема: Сущности (entities) на поиске, как их юзать в SEO?
Время: 15 янв. 2026 08:00 PM Москва
Подключиться к конференции Zoom
https://us06web.zoom.us/j/81317083935?pwd=A4ajQCO4bbOZCvro0RMaQWnFG0VBsA.1
Идентификатор конференции: 813 1708 3935
Код доступа: 054742
Инструкции по подключению
https://us06web.zoom.us/meetings/81317083935/invitations?signature=A5b4fl16kWuDqnFJX7G3h_p7JYt0BrmfOaQ8B3xbbV8


Присоединяйтесь, будет интересно! Покажу, что у меня получилось, а с чем возникли проблемы и как это юзать для SEO!
🔥16
Напоминаю, сегодня в 20-00 по Москве Вебинар по сущностям!
10🤔2👏1👀1
Как устроена работа в нашем агентстве и причем тут Python 🐍

Начнем с того, что типовые задачи у нас оцифрованы и шаблонизированы. Для каждой задачи в рамках проекта идет описание, порядок выполнения, чек-лист для проверки, примерное время выполнения и самое важное - ЦКП

Мы для каждой задачи ставим ЦКП (ценный конечный продукт). Так, например, для задачи «написать статью в блог» - ЦКП звучит как: опубликованная на сайте, проиндексированная в Яндексе и Google статья написанная под определенную семантику, проверенная по SEO параметрам согласно чек-листа.

Зачем мы это сделали? Да потому что конечную цель все воспринимают по разному. Кто-то может посчитать, что достаточно написать статью в Гугл докс и приложить её к отчету. Кто-то может разместить её на сайте но не опубликовать. Это не значит, что у нас работают тупые сотрудники)) это стандарт качества, который должен быть!

Есть несколько стилей управления командой. От: "Мы нанимаем самых лучших и дорогих и не лезем к ним", до регламентирования каждого шага. Мой подход - здоровая диктатура 👨‍✈ кто был в Сингапуре тот меня прекрасно поймёт). Я за планомерную четко регламентированную работу, но без микроменеджмента и задротства по мелочам.

В конце месяца мы делаем шахматку - строим планы на следующий месяц по всем проектам. В столбик у нас проекты, в строку - типовые задачи с комментариями. Обычная эксель таблица, очень удобно и наглядно.

А причем тут Python спросите вы?

Мы используем MooTeam - это CRM от Алаича и у неё довольно удобная API. И вот эту вот шахматку мы с помощью python и API импортируем в CRM, предварительно проставив дедлайны, приоритеты и ответственных. Удобно? Вы не предоставляете насколько! Мой хэд просто пищал от восторга когда мы это сделали. До этого приходилось заносить все вручную.

Второй писк радости был когда мы автоматизировали отчеты (полуавтоматизировали) если уж быть до конца честными. Фишка в том, что все выполненные нами в CRM системе работы мы экспортируем в заготовки презентаций отчетов о выполненных работах, экспортируем как вы догадываетесь одной кнопкой.

Что следующее на очереди и над чем я работаю сейчас? Это автоматизация аккаунтинга.

Краткое ТЗ выглядит так.
Регулярно скармливать LLMке (видимо это будет Gemini):
1. Мониторинг клиентских чатов
2. Самари зум созвонов
3. Отчеты и планы, а так же текущие спринты по задачам

Если еще закинуть туда какой нибудь крутой seoшный курс, я даже знаю чей 😉. Можно сделать идеального помощника аккаунт менеджера, который будет не просто тупо отвечать: "Здравствуйте передаю ваш запрос SEOшникам вернусь до конца дня". Грамотно и по существу закрывать тревоги клиента.

Если все сделать как я хочу, получится очень крутой и востребованный продукт! Я надеюсь вы понимаете что без Питона тут никак не обойтись?)))
🔥15👍8
Не отпускают меня сущности)

Вчера в очередной раз посмотрел доклад Олега Шестакова про сущности и задал ему вопрос по итогам своего эксперимента.

Скажу вкратце, не все так красиво и гладко как в докладе, есть нюансы. Так например если вы делаете статью о том как поступить в MIT (Массачусетский технологический университет) из РФ, то за счет сущностей entities и ноулидж графа вы получите строгую академичную статью про MIT, да там будет масса информации об основателях, о кампусе, благотворительной деятельности, выдающихся выпускниках, но! Именно про особенности поступления из РФ и прочие моменты будут отсечены по порогу косинусной близости, потому что main entity (главная сущность) у нас это MIT. На вебинаре, который я проводил, я как раз это подсвечивал. И вопрос который у меня был - баг это или фича? На что последовал ответ, что да тупо по одной кнопке не всегда получается, есть разные ниши, разные запросы и иногда нужно бить полученные данные на 2 или 3 статьи. Примерно эти же выводы я озвучил у себя на вебинаре, что одних сущностей недостаточно, что это скорее хороший инструмент обогащения, но ни как не сильвер буллит!


Запилить бота, чтоли очередного, который будет это доставать 🤔? Накидайте огонёчков, если их наберется, что нибудь замучу в ближайшие дни!
🔥64❤‍🔥4👍3🥱1🌭1
Опыт использования Вайбкод платформ от учеников

Небольшое овервью, данный пост написал Адександр Чумак, один из лучших учеников на курсе). Я попросил у него разрешения опубликовать личный опыт проб, ошибок и набивания шишек!

Пост Александра:

Я сделал сбор семантики.
Изначально начинал вайб-кодить на ChatGPT через диалоговое окно.
Потом перешёл на Claude AI, также в окне.
Потом стал пробовать разные IDE.
Начал с Cursor. За 5 дней улетели 20$ месячной подписки + ещё в минус 43$.
На этом с Cursor закончил.
Потом поставил Antigravity AI от Google.
За пару дней закончились лимиты от Антропик, пауза на 5 дней. Но плюс в том, что можно почти неограниченно использовать родную гугловскую модель Gemini 3 Pro High.
Она конечно похуже, чем Сонет 4,5 и Опус 4, но работает. Правда нужен аккаунт не Российский и хороший сами знаете что)) на зарубежном сервере.
На днях ещё опробовал TRAE.AI, но в нем нет моделей от Антропик, но есть ChatGPT 5,2 High, который по ощущениям работает лучше, чем также Gemini 3 Pro High.
Плюс а том, что месячная подписка на Trae в 1й месяц 3$, далее 10$.
На днях поставил VS Code + Claude Code Cli.
Фишка в том, что можно использовать обычную подписку за 20$ без API.
Пока только начал и не могу оценить, но судя по отзывам как людей, так и нейронок , последний вариант в настоящее время - это самое лучшее решение для вайб-кодера.

Полезно? По моему да!
👍10🗿4🤔1
AI-first подход для сложного парсинга

На прошлой неделе повозился полдня с Клодом и сделал умный парсер ЖК для сайта о недвижимости.
Предыстория: нужно добавить на проект порядка 200 объектов – жилых комплексов. Как бы я поступил раньше? Я бы выгрузил топы, спарсил картинки, заголовки, нанял бы четверых фрилансеров, чтобы они руками заполнили информацию об объектах.

Каюсь, первая мысль была именно такой – сделать все по старинке. Но как только моя рука потянулась, чтобы написать сообщение моему ассистенту, я почувствовал дискомфорт. Это было моё уязвлённое самолюбие! Эй, чел, ты же автоматизатор, блин, нейронщик, пропагандируешь принцип AI-first, а сам втихаря ручками?))

Неее, так не пойдёт, подумал я и за пару тройку часов написал умный парсер.

Идея предельно проста: вытаскивать парсером все тексты со страниц ЖК и отправлять их по API в OpenAI, снабдив мастер-промптом, который найдёт в текстах нужную мне информацию, структурирует её и выдаст в Markdown по шаблону. Написал скрипт, покрутил мастер промпт и температуру, протестировал разные модели, лучшей оказалась GPT-5.

Схема работы
1. На вход - список жилых комплексов
2. Парсим топы, в том числе используя вайт-лист и стоп-лист сайтов
3. Готовим табличку: объект, урлы доноры (от 5 до 7 в среднем ), и тайтлы для проверки адекватности найденных углов
4. Следующий шаг пришлось сделать вручную – это проверить URL-адреса и теги title, чтобы выкинуть нерелевантные странички. На данном этапе лучше кожаных пока не справляется никто
5. Дальше всё улетает в GPT и возвращается в виде Markdown списка и json файла
6. Маркдаун нам пригодится для итоговой проверки. В нем собрана и структурирована информация по объекту, например, срок сдачи, ближайшие локации, тип недвижки (апарты, таунхаусы и прочее), статус объекта, класс объекта и прочее и прочее
7. Json файл пойдет у нас для импорта в админку после проверки и фактчекинга риэлторами

Знаете, что самое интересное? Я думал, у меня израсходуется куча денег, тем более что я использовал дорогую модель GPT-5. 100 объектов мне встали в 12 центов или примерно в 10 рублей!

Короче, AI-first подход работает! Теперь не нужно выискивать CSS-селекторы, XPath-выражения – экономия времени в разы. Если для интернет-магазинов, как будто бы, до сих пор лучше парсить по старинке с помощью XPath-выражений, то для разнородных страниц – например, для сайтов услуг или объектов недвижимости – выделение сущностей без нейронок выглядело просто неосуществимой задачей!
🔥20👍43💯2