📊 Как думаете, будет ли рекламный кабинет в платформе OpenAl?
Anonymous Poll
28%
Думаю, будет в 2025 году🔮
24%
Будет, но позже — в течение 2–3 лет⏳
14%
Нет, рекламы точно не будет🙅♂️
14%
Реклама будет, но не в привычном виде🌀
21%
Уже тестируют, просто не афишируют🕵️♂️
Промостраницы без авторов: как ИИ спасает бюджеты в рекламе
📈 Эффективность промостраниц
В моем рекламном агентстве мы активно используем промостраницы как инструмент для завоевания доверия клиентов еще до их первого звонка клиенту. Человек сначала читает статью, а переходит на сайт уже когда интерес сформирован. Такой визит намного теплее, чем то, что дает какая-нибудь РСЯ или таргет на первом касании.
🚨 Почему все себе не делают такие прекрасные страницы?
Большой проблемой в этом формате является стоимость разработки материалов. Для стоматологии сделать статьи под каждую услугу, регулярно выпускать обновления, заменять старые на новые может обходиться в сотни тысяч рублей. Фактически нужно посадить у себя небольшую редакцию.
🧠 Роль ИИ в создании контента
Когда я начал делегировать написание статей искусственному интеллекту, у меня были опасения, что качество может пострадать. Больше всего я боялся такого кейса, как в одном из блогов на VC (статьи выглядят настолько генеративными, что их не хочется открывать).
Однако, оказалось, что Claude Sonnet 3.7 справляется с этой задачей на высоте.
💰 Экономия на производстве
Создание промостраниц требует значительных затрат, особенно если работать над каждой статьей в команде с автором, дизайнером, менеджером и рекламщиком. В моем агентстве разработка трех материалов стоит от 50 000 рублей. Часто такая цена отпугивает представителей малого бизнеса.
Но ИИ позволяет сократить эти расходы, как это произошло с материалом о Diagnocat — диагностической системе, которая дает второе мнение для КТ. ИИ справился с задачей, обойдясь без автора. А тема, кстати, для маркетинговой статьи очень сложная.
Кстати вот сам материал, лично мне кажется очень достойно, а главное нет никаких избитых клише, вроде «5 мифов про…», «Как купить квартиру в Москве с зп 100 000» или «10 способов как…».
🚀 Преимущества использования ИИ
ИИ позволяет быстро генерировать идеи, которые резонируют с нашим опытом и интуицией. Claude становится своеобразным мозговым штурмом в одном окне, что значительно ускоряет и структурирует процесс создания контента. Это делает производство рекламных материалов более быстрым и экономически выгодным для всех сторон.
✌️ Абзац для повышения вовлеченности к статье
Кстати если у вас есть желание сгенерировать темы статей для вашего продукта — напишите в комментариях, попробуем нагрузить Claude, чтобы он вам придумал креативные идеи.
----
Поляков считает — про ИИ, рекламу и аналитику.
📈 Эффективность промостраниц
В моем рекламном агентстве мы активно используем промостраницы как инструмент для завоевания доверия клиентов еще до их первого звонка клиенту. Человек сначала читает статью, а переходит на сайт уже когда интерес сформирован. Такой визит намного теплее, чем то, что дает какая-нибудь РСЯ или таргет на первом касании.
💡Особенно промостраницы круто работают в гиперконкурентных нишах, где, помимо рекламных слоганов, необходимо создать еще и доверие. К таким отраслям относятся строительство, медицина, недвижимость, финансовый сектор, образование и премиальная индустрия красоты.
🚨 Почему все себе не делают такие прекрасные страницы?
Большой проблемой в этом формате является стоимость разработки материалов. Для стоматологии сделать статьи под каждую услугу, регулярно выпускать обновления, заменять старые на новые может обходиться в сотни тысяч рублей. Фактически нужно посадить у себя небольшую редакцию.
🎉 Там где у нас дорогая рутина в 2025 году модно применять нейросети, что я и сделал.
🧠 Роль ИИ в создании контента
Когда я начал делегировать написание статей искусственному интеллекту, у меня были опасения, что качество может пострадать. Больше всего я боялся такого кейса, как в одном из блогов на VC (статьи выглядят настолько генеративными, что их не хочется открывать).
Однако, оказалось, что Claude Sonnet 3.7 справляется с этой задачей на высоте.
💰 Экономия на производстве
Создание промостраниц требует значительных затрат, особенно если работать над каждой статьей в команде с автором, дизайнером, менеджером и рекламщиком. В моем агентстве разработка трех материалов стоит от 50 000 рублей. Часто такая цена отпугивает представителей малого бизнеса.
Но ИИ позволяет сократить эти расходы, как это произошло с материалом о Diagnocat — диагностической системе, которая дает второе мнение для КТ. ИИ справился с задачей, обойдясь без автора. А тема, кстати, для маркетинговой статьи очень сложная.
Кстати вот сам материал, лично мне кажется очень достойно, а главное нет никаких избитых клише, вроде «5 мифов про…», «Как купить квартиру в Москве с зп 100 000» или «10 способов как…».
🚀 Преимущества использования ИИ
ИИ позволяет быстро генерировать идеи, которые резонируют с нашим опытом и интуицией. Claude становится своеобразным мозговым штурмом в одном окне, что значительно ускоряет и структурирует процесс создания контента. Это делает производство рекламных материалов более быстрым и экономически выгодным для всех сторон.
✌️ Абзац для повышения вовлеченности к статье
Кстати если у вас есть желание сгенерировать темы статей для вашего продукта — напишите в комментариях, попробуем нагрузить Claude, чтобы он вам придумал креативные идеи.
----
Поляков считает — про ИИ, рекламу и аналитику.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥4❤3👍3🐳2
n8n — nocode с неожиданной мощью
Вот уже несколько месяцев в моем информационном поле мерцает инструмент под названием n8n. Это альтернатива make.com, но с ключевым преимуществом — возможностью развернуть всё на собственном сервере.
🔒 Полный контроль над данными
Главная фишка — все данные хранятся только на вашем доверенном компьютере. Никаких сторонних серверов, рисков утечки и ограниченного тарифом числа вычислений.
Звучит круто, правда?
🛠️ Мой опыт установки
Инструкции в интернете по развертыванию n8n оказались сырыми: нет бекапов, буферизации, прав на работу с файлами и нодами сообщества — второй из ключевых фишек n8n.
Написал свою инструкцию с подробным описанием подключения домена, ssl, настройки бекапов и локального легкого PostgreSQL: https://github.com/artwist-polyakov/useful_readmes/blob/main/n8n/n8n_README_ru.md
⚙️ От идеи до реализации
Подсмотрел в QA одного из воркшопов Даши интересный запрос: генерация договоров из неструктурированных данных
На Питоне черновик набросал за 10 минут. Если бы делал сервис — ушло бы 1-2 вечера. А вот через n8n у меня ушли невероятные 5 вечеров.
Вот такой парадокс nocode — проектирование иногда занимает больше времени, чем написание кода.
🧠 Интеграция с ИИ
n8n невероятно дружелюбен к LLM. Задачи на обработку векторов и структурированного вывода доступны как готовые шаблоны. Просто бери и делай, даже ИИ-агенты есть, это вообще отдельная мощная история в n8n.
✅ Простота против мифов
Многие говорят, что интерфейс n8n сложный — на практике он показался мне даже интуитивнее, чем у make.com.
💬 А что у вас?
Если уже пользовались n8n — расскажите в комментариях о своем опыте.
С какими трудностями столкнулись? Какие задачи удалось автоматизировать?
Может, есть идеи для интересных воркфлоу, которые можно было бы реализовать вместе?
----
Поляков считает — про ИИ, рекламу и аналитику.
Вот уже несколько месяцев в моем информационном поле мерцает инструмент под названием n8n. Это альтернатива make.com, но с ключевым преимуществом — возможностью развернуть всё на собственном сервере.
🔒 Полный контроль над данными
Главная фишка — все данные хранятся только на вашем доверенном компьютере. Никаких сторонних серверов, рисков утечки и ограниченного тарифом числа вычислений.
Звучит круто, правда?
🛠️ Мой опыт установки
Инструкции в интернете по развертыванию n8n оказались сырыми: нет бекапов, буферизации, прав на работу с файлами и нодами сообщества — второй из ключевых фишек n8n.
Написал свою инструкцию с подробным описанием подключения домена, ssl, настройки бекапов и локального легкого PostgreSQL: https://github.com/artwist-polyakov/useful_readmes/blob/main/n8n/n8n_README_ru.md
⚙️ От идеи до реализации
Подсмотрел в QA одного из воркшопов Даши интересный запрос: генерация договоров из неструктурированных данных
💡 Механика простая: вставляем реквизиты на естественном языке — система находит подходящий шаблон документа и подставляет данные в плейсхолдеры.
На Питоне черновик набросал за 10 минут. Если бы делал сервис — ушло бы 1-2 вечера. А вот через n8n у меня ушли невероятные 5 вечеров.
Вот такой парадокс nocode — проектирование иногда занимает больше времени, чем написание кода.
🧠 Интеграция с ИИ
n8n невероятно дружелюбен к LLM. Задачи на обработку векторов и структурированного вывода доступны как готовые шаблоны. Просто бери и делай, даже ИИ-агенты есть, это вообще отдельная мощная история в n8n.
✅ Простота против мифов
Многие говорят, что интерфейс n8n сложный — на практике он показался мне даже интуитивнее, чем у make.com.
😎 Кстати, название происходит от "nodemation" — слияния "node" и "automation". Просто основатель счел полное название слишком длинным для командной строки и сократил до n8n.
💬 А что у вас?
Если уже пользовались n8n — расскажите в комментариях о своем опыте.
С какими трудностями столкнулись? Какие задачи удалось автоматизировать?
Может, есть идеи для интересных воркфлоу, которые можно было бы реализовать вместе?
----
Поляков считает — про ИИ, рекламу и аналитику.
3👍7🔥4❤2👌1🦄1
Lovable.dev: от идеи до готового приложения за минуты, а не дни
Разработка даже базового прототипа обычно занимает недели. Я нашел инструмент, который меняет правила игры — Lovable.dev.
🔥 Почему я обратил внимание на Lovable
Я часто придумываю идеи для автоматизации рутинных процессов. И каждый раз сталкиваюсь с одной проблемой: большая часть времени уходит не на саму бизнес-логику, а на:
🔸 Настройку проекта с нуля
🔸 Создание интерфейса (кнопки, формы, адаптивная верстка)
🔸 Подключение бэкенда и баз данных
На всё это у меня уходят десятки часов, которые можно было бы потратить на улучшение продукта.
🛠️ Тестовый кейс: генератор описаний для товаров
Недавно мне пришла идея создать сервис для ecommerce-бизнеса, который автоматизирует создание текстов для карточек товаров. Процесс обычно включает три трудоемких этапа:
1. Сбор фактуры (спецификации товара из интернета)
2. Написание текста для карточки
3. Оформление в валидный HTML с кастомными стилями
💎 Как Lovable.dev ускоряет разработку
Решил попробовать Lovable — платформу на базе ИИ для быстрой генерации веб-приложений. Результаты впечатлили.
Вместо типичных 10 часов на настройку потратил меньше часа. Интерфейс создается на основе текстового описания на обычном языке. Есть возможность подключения Supabase для бэкенда и авторизации. Сразу можно загрузить проект в GitHub для дальнейшей разработки и шеринга команде.
⚠️ Подводные камни
Не обошлось без проблем:
🔸 Пришлось потратить около 5 часов, чтобы вырезать Supabase (все доступы к базе хранились в браузере пользователей — небезопасно, приходится следить за RLS)
🔸 Lovable иногда генерирует избыточный код с пересекающимися библиотеками
🔸 Бесплатный тариф ограничен количеством сообщений в день, поэтому сразу пришлось купить базовый платный
🔸 Когда код посмотрят опытные разработчики — результат будет их раздражать, к этому надо быть готовым.
🚀 Результат
В итоге удалось запустить рабочий сервис для генерации текстов для карточек товаров: https://texts.polyakovtools.ru
Регистрации нет (вырезал Supabase), поэтому вход пока только по инвайтам. Если вам нужна помощь с наполнением контента для карточек товаров — пишите в личные сообщения или комментарии.
🔄 Альтернативы
Lovable — не единственный инструмент в этой категории. Есть также:
1️⃣ v0.dev от Vercel — фокусируется на генерации компонентов UI
2️⃣ Bolt от StackBlitz — более комплексное решение для полноценной разработки
3️⃣ Banani — специализируется на прототипировании интерфейсов
----
Поляков считает — про ИИ, рекламу и аналитику.
Разработка даже базового прототипа обычно занимает недели. Я нашел инструмент, который меняет правила игры — Lovable.dev.
🔥 Почему я обратил внимание на Lovable
Я часто придумываю идеи для автоматизации рутинных процессов. И каждый раз сталкиваюсь с одной проблемой: большая часть времени уходит не на саму бизнес-логику, а на:
🔸 Настройку проекта с нуля
🔸 Создание интерфейса (кнопки, формы, адаптивная верстка)
🔸 Подключение бэкенда и баз данных
На всё это у меня уходят десятки часов, которые можно было бы потратить на улучшение продукта.
🛠️ Тестовый кейс: генератор описаний для товаров
Недавно мне пришла идея создать сервис для ecommerce-бизнеса, который автоматизирует создание текстов для карточек товаров. Процесс обычно включает три трудоемких этапа:
1. Сбор фактуры (спецификации товара из интернета)
2. Написание текста для карточки
3. Оформление в валидный HTML с кастомными стилями
💡 Отличная задача для автоматизации с Perplexity API + Claude Sonnet. Но как быстро создать интерфейс?
💎 Как Lovable.dev ускоряет разработку
Решил попробовать Lovable — платформу на базе ИИ для быстрой генерации веб-приложений. Результаты впечатлили.
Вместо типичных 10 часов на настройку потратил меньше часа. Интерфейс создается на основе текстового описания на обычном языке. Есть возможность подключения Supabase для бэкенда и авторизации. Сразу можно загрузить проект в GitHub для дальнейшей разработки и шеринга команде.
⚠️ Подводные камни
Не обошлось без проблем:
🔸 Пришлось потратить около 5 часов, чтобы вырезать Supabase (все доступы к базе хранились в браузере пользователей — небезопасно, приходится следить за RLS)
🔸 Lovable иногда генерирует избыточный код с пересекающимися библиотеками
🔸 Бесплатный тариф ограничен количеством сообщений в день, поэтому сразу пришлось купить базовый платный
🔸 Когда код посмотрят опытные разработчики — результат будет их раздражать, к этому надо быть готовым.
🚀 Результат
В итоге удалось запустить рабочий сервис для генерации текстов для карточек товаров: https://texts.polyakovtools.ru
Регистрации нет (вырезал Supabase), поэтому вход пока только по инвайтам. Если вам нужна помощь с наполнением контента для карточек товаров — пишите в личные сообщения или комментарии.
🔄 Альтернативы
Lovable — не единственный инструмент в этой категории. Есть также:
1️⃣ v0.dev от Vercel — фокусируется на генерации компонентов UI
2️⃣ Bolt от StackBlitz — более комплексное решение для полноценной разработки
3️⃣ Banani — специализируется на прототипировании интерфейсов
----
Поляков считает — про ИИ, рекламу и аналитику.
2👍3🔥3❤2
Протестировал Manus.im: пока это просто крутая идея
У меня появилась регистрация в китайском ИИ-агенте Manus — хайповом инструменте, который типа обходит на некоторых бенчмарках Deep Research от OpenAI. Кстати, у меня есть 2 инвайта, и я готов ими поделиться (об этом в конце).
🧪 Что умеет Manus AI
Мне показалось интересным отдать ему задачу подготовки контент-плана для статей одного завода. Наблюдать за работой интересно, фактура, которую он собирает, получается продуманной. По крайней мере на уровне md-файлов.
Тут будут ссылки на сырые результаты работ, как по мне круто.
🔸 Контент-план с запросом медиа,
🔸 Описание самого календаря и рубрик,
🔸 Шаблоны постов для соц.сетей,
🔸 Чек-лист работы на которую агент подписался.
Примеры тем, которые предложил Manus для завода изделий из стали:
- "Планирование установки забора: с чего начать в новом сезоне"
- "Тренды 2025: Какие заборы выбирают современные домовладельцы"
- "Цветовые решения для металлических заборов: как сделать правильный выбор"
- "Установка забора на неровном участке: решения и рекомендации"
Материалы актуальные, в целом я ставлю на то, что они помогут и в органическом трафике и отранжируются во всяких нейропоисковиках (Яндекс, Перплексити). Короче просто бери и запускай в работу.
Особенно понравились предложения по анонсам в соцсетях — для каждой статьи сгенерировано два варианта: информационный и более эмоциональный с вопросами и хуками.
💰 Экономика использования
Экономика получилась следующей:
- Для бесплатного пользователя сразу даётся 1500 кредитов
- Расход кредитов не прозрачный, но на первую версию контент-плана ушло чуть больше 500 кредитов
- Контент-план получил неплохую фактуру и план статей, показал, как можно обыгрывать статьи в соцсетях
Но в «красивой» (хоть и однообразной) веб-версии плана статьи в календаре не перещелкивались, список содержал только два материала, а не 24 запрошенных. В общем, следующие 1000 кредитов я потратил на исправление ошибок веб-версии и так и не исправил их израсходовав кредиты в 0. Результат: https://gruyqygj.manus.space
👍 Что понравилось
- Довольно интересно построена механика экономии токенов. Чаще всего модель генерирует команду терминала или какой-то еще короткий текст, вместо, допустим, повторного написания пунктов контент-плана в отдельном документе.
- Крутой подход с выделением из моей обратной связи правил для будущих генераций.
- Сама идея сгенерировать по любой задаче пункт с чек-листом, который потом выполнить, похожа на то, как работают настоящие сотрудники. Это как бы рассуждающая модель с обязанностями.
- Если оперировать в ценах, то за контент-план я потратил 1500 кредитов. Подписка (с включенными 3500 кредитами) стоит 39 долларов, а значит, контент-план обошелся мне где-то в 1500 рублей, и это точно быстрее и дешевле белкового ассистента-маркетолога.
👎 Что не понравилось
- Тарификация крайне не прозрачная, я так и не понял, за что списываются кредиты, а значит, не понял, как их использовать оптимально.
- Сама тарификация с месячным пакетом кредитов странная. Она точно не формирует привычку тестировать инструмент каждый день, а если не пользуешься каждый день, то со временем теряешь интерес.
- Есть подозрение, что в некоторых направлениях результаты Deep Research от OpenAI будут лучше. Ставлю на это, потому что DR пытается задать вопросы и уточнить задачу. В моем тесте темы от Манус как будто не уступают, а кое-где превосходят темы от OpenAI, его результат я тоже выложил на гитхаб (лучше смотреть с компьютера).
🎁 Инвайты
У меня есть два инвайта. Отдам тем, кто предложит интересную идею использования Manus под свои рутинные задачи. Пишите в комментариях.
----
Поляков считает — про ИИ, рекламу и аналитику.
У меня появилась регистрация в китайском ИИ-агенте Manus — хайповом инструменте, который типа обходит на некоторых бенчмарках Deep Research от OpenAI. Кстати, у меня есть 2 инвайта, и я готов ими поделиться (об этом в конце).
🧪 Что умеет Manus AI
Мне показалось интересным отдать ему задачу подготовки контент-плана для статей одного завода. Наблюдать за работой интересно, фактура, которую он собирает, получается продуманной. По крайней мере на уровне md-файлов.
Тут будут ссылки на сырые результаты работ, как по мне круто.
🔸 Контент-план с запросом медиа,
🔸 Описание самого календаря и рубрик,
🔸 Шаблоны постов для соц.сетей,
🔸 Чек-лист работы на которую агент подписался.
😎 Объективно это неделя работы помощника маркетолога.
Примеры тем, которые предложил Manus для завода изделий из стали:
- "Планирование установки забора: с чего начать в новом сезоне"
- "Тренды 2025: Какие заборы выбирают современные домовладельцы"
- "Цветовые решения для металлических заборов: как сделать правильный выбор"
- "Установка забора на неровном участке: решения и рекомендации"
Материалы актуальные, в целом я ставлю на то, что они помогут и в органическом трафике и отранжируются во всяких нейропоисковиках (Яндекс, Перплексити). Короче просто бери и запускай в работу.
Особенно понравились предложения по анонсам в соцсетях — для каждой статьи сгенерировано два варианта: информационный и более эмоциональный с вопросами и хуками.
💰 Экономика использования
Экономика получилась следующей:
- Для бесплатного пользователя сразу даётся 1500 кредитов
- Расход кредитов не прозрачный, но на первую версию контент-плана ушло чуть больше 500 кредитов
- Контент-план получил неплохую фактуру и план статей, показал, как можно обыгрывать статьи в соцсетях
Но в «красивой» (хоть и однообразной) веб-версии плана статьи в календаре не перещелкивались, список содержал только два материала, а не 24 запрошенных. В общем, следующие 1000 кредитов я потратил на исправление ошибок веб-версии и так и не исправил их израсходовав кредиты в 0. Результат: https://gruyqygj.manus.space
🧐 Наверное, в этом беда всех пишущих код языковых моделей: однажды они уходят в устойчивое повторение ошибки, и исправить ее можно только вмешавшись руками разработчика. Так что остаётся либо использовать сгенерированный маркдаун, или доводить до ума веб-версию отчета руками.
👍 Что понравилось
- Довольно интересно построена механика экономии токенов. Чаще всего модель генерирует команду терминала или какой-то еще короткий текст, вместо, допустим, повторного написания пунктов контент-плана в отдельном документе.
- Крутой подход с выделением из моей обратной связи правил для будущих генераций.
- Сама идея сгенерировать по любой задаче пункт с чек-листом, который потом выполнить, похожа на то, как работают настоящие сотрудники. Это как бы рассуждающая модель с обязанностями.
- Если оперировать в ценах, то за контент-план я потратил 1500 кредитов. Подписка (с включенными 3500 кредитами) стоит 39 долларов, а значит, контент-план обошелся мне где-то в 1500 рублей, и это точно быстрее и дешевле белкового ассистента-маркетолога.
👎 Что не понравилось
- Тарификация крайне не прозрачная, я так и не понял, за что списываются кредиты, а значит, не понял, как их использовать оптимально.
- Сама тарификация с месячным пакетом кредитов странная. Она точно не формирует привычку тестировать инструмент каждый день, а если не пользуешься каждый день, то со временем теряешь интерес.
- Есть подозрение, что в некоторых направлениях результаты Deep Research от OpenAI будут лучше. Ставлю на это, потому что DR пытается задать вопросы и уточнить задачу. В моем тесте темы от Манус как будто не уступают, а кое-где превосходят темы от OpenAI, его результат я тоже выложил на гитхаб (лучше смотреть с компьютера).
🎁 Инвайты
У меня есть два инвайта. Отдам тем, кто предложит интересную идею использования Manus под свои рутинные задачи. Пишите в комментариях.
----
Поляков считает — про ИИ, рекламу и аналитику.
3👍5❤3🔥1
Векторный поиск для сайта: миф или реальность?
Недавно на совещании прозвучала идея заменить стандартный поиск на сайте (Elasticsearch) на векторное хранилище. Мол, будем выводить товары с similarity > 80% и всё заработает как в сказке.
Я всегда считал, что эмбеддинги часто используются просто ради хайпа. Но так ли это на самом деле? Решил проверить.
🧪 Эксперимент на коленке
Запустил векторный поиск на локальном FAISS (это самое простое хранилище для «стрелочек»). Моей лакмусовой бумажкой стал запрос «дымо ход» — классические поисковики обычно с ним не справляются без ручных доработок.
В тестовую базу я добавил:
- 2 дымохода
- 3 дрели
- 1 штакетник
Хорошим результатом считал ситуацию, когда в ответ запрос «дымо ход» вернутся только дымоходы с высокой релевантностью.
🤔 Результаты не впечатлили
Я протестировал несколько открытых моделей:
- rubert-tiny2
- sbert_large_nlu_ru
- paraphrase-multilingual-MiniLM-L12-v2
И все они давали странные результаты:
С какой стати шуруповёрт должен находиться по запросу «дымоход»? Явно что-то не так.
🚀 OpenAI спешит на помощь
Я решил проверить легкую модель от лидера рынка: OpenAI text-embedding-3-small показала отличные результаты! Но скорость ответа разочаровала — до 2 секунд на запрос. Для производства это неприемлемо.
Теоретически, можно кешировать популярные запросы, но хочется чего-то более надежного и не зависящего от внешнего сервиса.
⚡️ Дообучение — ключ к успеху
Я решил дообучить модель от Сбербанка на своих данных. Результат превзошёл ожидания:
- Качество поиска стало отличным
- Скорость ответа меньше 200 мс
Получается, что рецепт с готовыми моделями не реалистичен на узко-специализированных нишах.
В процессе пришлось разобраться с кучей незнакомых библиотек, поэтому я написал подробный гайд:
https://github.com/artwist-polyakov/useful_readmes/blob/main/fine-tuning/embeddings/fine-tuning-readme.md
🤯 Изменение мировоззрения
Теперь использование эмбеддингов для поиска кажется мне вполне реальной задачей. И даже больше — на прошлой неделе я отметал идеи создания рекомендательной системы на векторах, а сейчас это уже не выглядит такой фантастикой. Действительно, если векторизовать намерения пользователя, то можно находить наиболее подходящие товары из базы.
А у вас были опыты с векторным поиском или рекомендательными системами на его основе? Делитесь в комментариях!
----
Поляков считает — про ИИ, рекламу и аналитику.
Недавно на совещании прозвучала идея заменить стандартный поиск на сайте (Elasticsearch) на векторное хранилище. Мол, будем выводить товары с similarity > 80% и всё заработает как в сказке.
Я всегда считал, что эмбеддинги часто используются просто ради хайпа. Но так ли это на самом деле? Решил проверить.
🤓 Эмбеддинги — это числовое представление фразы в виде вектора в многомерном пространстве (да-да, те самые стрелочки со школьной доски, только там не 2-D, а например, 768-D или 1536-D, но математика от этого не меняется).
У таких стрелочек есть крутое свойство, если фразы про одно и то же, то и их стрелочки смотрят в одну сторону (угол между ними минимален). Это справедливо, даже если в предложениях есть опечатки! А вот в обычном полнотекстовом поиске так не работает.
🧪 Эксперимент на коленке
Запустил векторный поиск на локальном FAISS (это самое простое хранилище для «стрелочек»). Моей лакмусовой бумажкой стал запрос «дымо ход» — классические поисковики обычно с ним не справляются без ручных доработок.
В тестовую базу я добавил:
- 2 дымохода
- 3 дрели
- 1 штакетник
Хорошим результатом считал ситуацию, когда в ответ запрос «дымо ход» вернутся только дымоходы с высокой релевантностью.
🤔 Результаты не впечатлили
Я протестировал несколько открытых моделей:
- rubert-tiny2
- sbert_large_nlu_ru
- paraphrase-multilingual-MiniLM-L12-v2
И все они давали странные результаты:
1. Схожесть: 34.60% - Сэндвич дымоход из нержавеющей стали
2. Схожесть: 22.43% - Дрель шуруповерт с зарядным устройством
3. Схожесть: 22.38% - Дрель шуруповерт с аккумулятором
С какой стати шуруповёрт должен находиться по запросу «дымоход»? Явно что-то не так.
🚀 OpenAI спешит на помощь
Я решил проверить легкую модель от лидера рынка: OpenAI text-embedding-3-small показала отличные результаты! Но скорость ответа разочаровала — до 2 секунд на запрос. Для производства это неприемлемо.
Теоретически, можно кешировать популярные запросы, но хочется чего-то более надежного и не зависящего от внешнего сервиса.
⚡️ Дообучение — ключ к успеху
Я решил дообучить модель от Сбербанка на своих данных. Результат превзошёл ожидания:
- Качество поиска стало отличным
- Скорость ответа меньше 200 мс
Получается, что рецепт с готовыми моделями не реалистичен на узко-специализированных нишах.
В процессе пришлось разобраться с кучей незнакомых библиотек, поэтому я написал подробный гайд:
https://github.com/artwist-polyakov/useful_readmes/blob/main/fine-tuning/embeddings/fine-tuning-readme.md
🤯 Изменение мировоззрения
Теперь использование эмбеддингов для поиска кажется мне вполне реальной задачей. И даже больше — на прошлой неделе я отметал идеи создания рекомендательной системы на векторах, а сейчас это уже не выглядит такой фантастикой. Действительно, если векторизовать намерения пользователя, то можно находить наиболее подходящие товары из базы.
А у вас были опыты с векторным поиском или рекомендательными системами на его основе? Делитесь в комментариях!
----
Поляков считает — про ИИ, рекламу и аналитику.
2❤3🔥3😁3🐳2
Последний месяц перед штрафами: как уведомить Роскомнадзор о персональных данных
🚨 Что случилось
Государство ужесточило штрафы за неуведомление Роскомнадзора об обработке персональных данных. Для ИП и юрлиц суммы теперь действительно кусаются — от 100 до 300 тысяч рублей.
Вот тут материал с сайта buh.ru
Не сказать, что раньше тут не было штрафов, но они были смешными (5000 руб), и мало кто обращал на них внимание.
У меня целый парк организаций: микро-SaaS для управления рекламой, рекламное агентство с несколькими сайтами, ИП + клиенты, которым тоже требуется помощь. Пришлось разбираться в порядке подачи заявлений, чтобы не получить кучу штрафов.
📋 Краткий гайд по подаче уведомления
1️⃣ Создайте политику обработки персональных данных. Это можно сделать, например, через конструктор политик Тильды: https://tilda.cc/ru/privacy-generator/ и разместите на сайте.
2️⃣ Назначьте ответственного за обработку персональных данных и создайте положение. На них нужно ссылаться в мерах обеспечения. Я положу свои в первом комментарии.
3️⃣ Узнайте адреса ЦОДов и реквизиты у своих провайдеров.
4️⃣ Опишите меры по ст. 18.1 и 19 ФЗ-152 и средства обеспечения безопасности. Тоже положу свои версии в первом комментарии.
5️⃣ Сроки обработки стоит указывать от момента создания организации до момента ликвидации.
Подать форму можно через Госуслуги, по почте или подписать прямо на сайте РКН — https://pd.rkn.gov.ru/operators-registry/notification/form/.
😇 Во первых можно немного выдохнуть
Я звонил в Роскомнадзор, с их слов они никого не собираются штрафовать без разбора, и в первую очередь высылают предприсание о том, что надо выполнить их инструкции. Если инструкции не выполняют — подают в суд, а тот уже выписывает штраф.
Так что если у вас заявление не подано — не стоит переживать, что вы автоматически должны стране 300 тысяч рублей. Но вот формулировка «Непредставление или несвоевременное представление в государственный орган» в законе заставляет напрячься и как бы открывает возможности для штрафа в случае уведомления после 30 мая 2025 г.
Есть и спорные моменты.
🎱 Спорные вопросы, с которыми я столкнулся
🔹 Оказывается, РКН активно проверяет использование Google Analytics. Если используете его — по их мнению, надо подавать заявление о трансграничной передаче данных.
В моем случае я просто удалил пиксели Meta и код Analytics с сайта, оставил только Яндекс.Метрику. Трансграничной передачи больше нет.
🔹 На вопрос, являются ли cookie персональными данными, мне развели руками и сказали, что вот только недавно руководитель объяснял: cookie проверять вообще не нужно.
🔹 Если на сайте есть счетчик Яндекс.Метрики, а предупреждения о сборе пользовательских данных нет — будут вопросы. При этом на вопрос, как правильно декларировать ЦОД Яндекс.Метрики, мне сказали звонить айтишнику 5 мая.
🤨 Что делать пользователям Тильды и Битрикс24?
Отдельный спорный момент: как быть пользователям облачных версий Тильды или Битрикс24?
С одной стороны, сбор и обработка персональных данных происходит силами облачных платформ, сам пользователь никакие меры обеспечения безопасности не осуществляет, просто использует сервис.
С другой стороны, если произойдет утечка данных — спросят именно с пользователя, а не с Тильды или Битрикс24. Так мне ответил Роскомнадзор, на замечание, что контракт предполагает, что данные защищены, мне повторили предложение звонить айтишнику 5 мая.
📲 Что дальше
5 мая у меня запланирован звонок с айтишником Роскомнадзора для прояснения спорных моментов. Выложу свои версии документов для ЦОД и адреса датацентров Тильды в первом комментарии и буду обновлять эту историю.
---
Поляков считает — про ИИ, рекламу и аналитику.
👋 Вообще тут должен был быть пост про телеграм-бота для работы с картинками через анонсированный недавно GPT Image 1, но жизнь вносит коррективы — и вот я неожиданно должен стать экспертом по обработке персональных данных.
🚨 Что случилось
Государство ужесточило штрафы за неуведомление Роскомнадзора об обработке персональных данных. Для ИП и юрлиц суммы теперь действительно кусаются — от 100 до 300 тысяч рублей.
Вот тут материал с сайта buh.ru
Не сказать, что раньше тут не было штрафов, но они были смешными (5000 руб), и мало кто обращал на них внимание.
У меня целый парк организаций: микро-SaaS для управления рекламой, рекламное агентство с несколькими сайтами, ИП + клиенты, которым тоже требуется помощь. Пришлось разбираться в порядке подачи заявлений, чтобы не получить кучу штрафов.
📋 Краткий гайд по подаче уведомления
1️⃣ Создайте политику обработки персональных данных. Это можно сделать, например, через конструктор политик Тильды: https://tilda.cc/ru/privacy-generator/ и разместите на сайте.
2️⃣ Назначьте ответственного за обработку персональных данных и создайте положение. На них нужно ссылаться в мерах обеспечения. Я положу свои в первом комментарии.
3️⃣ Узнайте адреса ЦОДов и реквизиты у своих провайдеров.
4️⃣ Опишите меры по ст. 18.1 и 19 ФЗ-152 и средства обеспечения безопасности. Тоже положу свои версии в первом комментарии.
5️⃣ Сроки обработки стоит указывать от момента создания организации до момента ликвидации.
Подать форму можно через Госуслуги, по почте или подписать прямо на сайте РКН — https://pd.rkn.gov.ru/operators-registry/notification/form/.
😇 Во первых можно немного выдохнуть
Я звонил в Роскомнадзор, с их слов они никого не собираются штрафовать без разбора, и в первую очередь высылают предприсание о том, что надо выполнить их инструкции. Если инструкции не выполняют — подают в суд, а тот уже выписывает штраф.
Так что если у вас заявление не подано — не стоит переживать, что вы автоматически должны стране 300 тысяч рублей. Но вот формулировка «Непредставление или несвоевременное представление в государственный орган» в законе заставляет напрячься и как бы открывает возможности для штрафа в случае уведомления после 30 мая 2025 г.
Есть и спорные моменты.
🎱 Спорные вопросы, с которыми я столкнулся
🔹 Оказывается, РКН активно проверяет использование Google Analytics. Если используете его — по их мнению, надо подавать заявление о трансграничной передаче данных.
В моем случае я просто удалил пиксели Meta и код Analytics с сайта, оставил только Яндекс.Метрику. Трансграничной передачи больше нет.
🤔 Забавно, но по диалогу сложилось впечатление, что они сами не до конца понимают, что именно нужно контролировать.
🔹 На вопрос, являются ли cookie персональными данными, мне развели руками и сказали, что вот только недавно руководитель объяснял: cookie проверять вообще не нужно.
🔹 Если на сайте есть счетчик Яндекс.Метрики, а предупреждения о сборе пользовательских данных нет — будут вопросы. При этом на вопрос, как правильно декларировать ЦОД Яндекс.Метрики, мне сказали звонить айтишнику 5 мая.
🤨 Что делать пользователям Тильды и Битрикс24?
Отдельный спорный момент: как быть пользователям облачных версий Тильды или Битрикс24?
С одной стороны, сбор и обработка персональных данных происходит силами облачных платформ, сам пользователь никакие меры обеспечения безопасности не осуществляет, просто использует сервис.
С другой стороны, если произойдет утечка данных — спросят именно с пользователя, а не с Тильды или Битрикс24. Так мне ответил Роскомнадзор, на замечание, что контракт предполагает, что данные защищены, мне повторили предложение звонить айтишнику 5 мая.
📲 Что дальше
5 мая у меня запланирован звонок с айтишником Роскомнадзора для прояснения спорных моментов. Выложу свои версии документов для ЦОД и адреса датацентров Тильды в первом комментарии и буду обновлять эту историю.
---
Поляков считает — про ИИ, рекламу и аналитику.
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍15🔥8❤5👏3
ИИ в копирайтинге: результаты, которые говорят сами за себя
🔍 Реальная эффективность нейросетей в создании контента
В нашем агентстве мы давно используем нейросети для написания промостраниц — продакшн получается значительно быстрее, чем при работе с командой копирайтеров.
Полностью заменить людей невозможно — компоновка изображений и критическая оценка предложенных тем всё ещё требуют человеческого участия.
Каждую написанную нейросетью статью я отправляю на аудит коллегам со стороны Промостраниц Яндекса. Сегодня начали приходить результаты аудитов. Первый из них, для вот такой статьи: ссылка на полный текст.
💯 Цифры не врут: результаты аудита
Да, были некоторые замечания, но преимущественно косметического характера.
📊 Экономическая эффективность
Самое главное — текущая кампания обеспечивает стоимость привлечения обращений менее 3 000 рублей, что является отличным показателем для высококонкурентной ниши стоматологии.
🤖 Интересный факт
При проверке текста через систему GigaCheck результат однозначно подтверждает, что статья создана искусственным интеллектом. Вряд ли это на что-то влияет, но забавный факт, который стоило отметить.
----
Поляков считает — про ИИ, рекламу и аналитику.
🔍 Реальная эффективность нейросетей в создании контента
В нашем агентстве мы давно используем нейросети для написания промостраниц — продакшн получается значительно быстрее, чем при работе с командой копирайтеров.
Полностью заменить людей невозможно — компоновка изображений и критическая оценка предложенных тем всё ещё требуют человеческого участия.
Каждую написанную нейросетью статью я отправляю на аудит коллегам со стороны Промостраниц Яндекса. Сегодня начали приходить результаты аудитов. Первый из них, для вот такой статьи: ссылка на полный текст.
💯 Цифры не врут: результаты аудита
🔎 Специалисты Яндекса отметили: статья написана качественно, а показатель дочитываний на 11% превышает среднее значение в категории.
Да, были некоторые замечания, но преимущественно косметического характера.
📊 Экономическая эффективность
Самое главное — текущая кампания обеспечивает стоимость привлечения обращений менее 3 000 рублей, что является отличным показателем для высококонкурентной ниши стоматологии.
🤖 Интересный факт
При проверке текста через систему GigaCheck результат однозначно подтверждает, что статья создана искусственным интеллектом. Вряд ли это на что-то влияет, но забавный факт, который стоило отметить.
----
Поляков считает — про ИИ, рекламу и аналитику.
3👍4🔥4❤🔥1