SEO Python 2 Нейрона
1.54K subscribers
86 photos
4 videos
1 file
45 links
Простым языком про нейросети, python и про то, как это применять в SEO. Блог Владислава Папернюка
Download Telegram
👋 Добро пожаловать на канал, где SEO – это не бубен, а технология!

Меня зовут Влад Папернюк, я SEOшник с 2008 года. Когда-то я, как и многие, верил в чудо-инструменты и лайфхаки, покупал курсы, ловил инсайты в кулуарах конференций и падал ниц перед очередным SEO-гуру в надежде прикоснуться к священному граалю знаний.

Но в какой-то момент мне всё это надоело! 😤 Надоело так, что я решил сам во всем разобраться. Изучил Python, ML, получил специальность разработчика нейросетей и чем больше погружался в технологии, тем яснее складывался паззл.

Что будет на канале?
🔍 Объясню, как работают нейросети в поиске у Яндекса и Google, и как SEO-оптимизатору использовать эти знания.
🛠 Бесплатные инструменты на основе нейросетей и Python.
📊 Тесты, исследования и много прикладного материала.
📝 Python-скрипты, которые облегчат твою работу и увеличат эффективность в разы.

Чего не будет на канале?
🚫 Инструкций по составлению SEO-промптов. Ну камон, сколько можно!
🚫 Скриншотов из ТОПвизора с призывами вступить в платный клуб.
🚫 Разжевывания азов. Хотите базу? Обратитесь к Артуру Латыпову или Андрею Буйлову.

Обещаю не флудить и не умничать. Объясняю на пальцах с примерами. 🙌 Подписывайся, запинивай канал повыше – будет много интересного и полезного!

Бонус! 🎁
@vector_keywords_bot – лови бот, который находит LSI семантически близкие слова (униграммы и биграммы), чтобы повысить релевантность документа. 📈
👍72
SEO Python 2 Нейрона pinned «👋 Добро пожаловать на канал, где SEO – это не бубен, а технология! Меня зовут Влад Папернюк, я SEOшник с 2008 года. Когда-то я, как и многие, верил в чудо-инструменты и лайфхаки, покупал курсы, ловил инсайты в кулуарах конференций и падал ниц перед очередным…»
All we need is love Attention!

С чего начать первый пост в телеграм блоге? Конечно же с такой вечной темы как любовь! 💕 А как говорит моя жена, любовь – это ласка забота и Внимание.

В 2017 году вышла фундаментальная работа «Attention is all you need», (внимание – это всё что вам нужно) в которой впервые описывалась архитектура генеративной нейросети - Трансформера. Эта статья совершила настоящую революцию, благодаря которой у нас появились горячо любимые ChatGPT, Midjourney, Bert, YATI и прочие вкусности!

Так, что же такое нейросеть Трансформер, и зачем это SEO оптимизатору?

В фундаменте SEO лежит как ни странно :-) текстовая оптимизация, накрутка ПФ почти не работает, жирные дропы скоро догонят по стоимости подержанные авто, а вот хорошая текстовая оптимизация работала и будет работать всегда.

Поэтому устраивайся поудобнее, подписывайся на канал, запасайся ноотропами 💊 попкорном и добро пожаловать в дивный новый мир, про который я постараюсь тебе рассказать предельно просто, что называется, на примерах и на пальцах!
2👏1
Эмбеддинги: от ностальгии к сингулярности 🚀

Я до сих пор помню, тот день, когда впервые услышал про векторы в n-мерном пространстве, катбуст, деревья решений из уст Великого и Ужасного. В тот момент во мне, что-то перещелкнуло, в голове заиграла музыка из Интерстеллара, я оглянулся вокруг и увидел такие же одухотворенно восторженные глаза, в которых читались вера, восхищение и … полное непонимание, происходящего. А светлоликий Гуру светящийся тайным знанием, что-то вещал со снисходительной улыбкой, но это уже не имело никакого значения, ведь он пообещал нам чудо, просто чудо, Just Magic )

На этой ностальгической ноте можно было бы и закончить :-), но я же обещал вам объяснить Интерстеллар на пальцах? Поехали!

Когда компьютер видит слово "кот", он не понимает его как пушистого разбойника, который сбрасывает вещи со стола и будит вас в 5 утра. Вместо этого он видит набор чисел, например [0.24, -0.13, 0.77], — так машина кодирует значение слова. Например, нейросеть Яндекса кодирует каждое слово в виде матрицы (столбца) размерностью [1, 256]

Ок, давай ещё упростим, пусть слово “кот” представлено в виде двумерной матрицы [0.24, 0.77], “кошка” [0.28, 0.72], “барсик” [0.34, 0.58], а к примеру слово “инжектор” [-0.44, 0.21].

А, что если [0.24, 0.77] – это вектор, начало которого находится в нуле, а конец в точке с координатами Х и Y [0.24, 0.77]? Если отложить все вектора, мы обнаружим интересную особенность, “кот”, “кошка” и “барсик” направленны примерно в одну сторону, а “инжектор” в другую.

Так, что, получается, мы можем взять все слова из текстов (сниппетов, сайтов в ТОПе, Википедии, GPTChat из головы копирайтера) прогнать их через эмбеддинг слой и найти слова близкие по смыслу?


Да именно так!

Стоп, а не про LSI ли речь? Нет, LSI – использует метод сингулярного разложения. Здесь речь идет именно про семантическую близость векторов и ВАЖНО! Эти векторы мы можем вытащить напрямую из BERT. Не из какого-то там доморощенного сервиса, а реально напрямую из языковой модели Яндекса, Google и тому подобных ресурсов.

Подведем итоги: Эмбеддинги – это базис на котором строятся все современные языковые модели, каждое слово Яндекс кодирует в виде матрицы [1, 256] с цифрами, которые можно представить в виде векторов, направленных в определенную точку пространства. И да, можно найти семантически близкие слова!

Ну и красивое любителям сингулярности ) https://youtu.be/8kooIgKESYE?feature=shared
🔥2
Кот Барсик знает, что Инжектор не любит сметану, но любит БЕНЗИИН! https://youtu.be/z0wK6s-6cbo?feature=shared
1