Грязный ноукодер
1.29K subscribers
116 photos
12 videos
2 files
161 links
Пишу про AI, no-code и бизнес процессы.
@low_code - для связи
Видео гайды - https://www.youtube.com/@5_min_ai
Обучение - https://www.skool.com/5minai-pro
Download Telegram
January 27
January 28
Как обработать 500 резюме за 1 час

Основной тренд, который не раз озвучивался в последних видео YC - это замена целых позиций с помощью AI автоматизаций/агентов, что позволит вести более крупный бизнес единолично. Поэтому сегодня посмотрим кейс с ИИ автоматизацией, которая заменяет функцию HR специалиста по скриннингу кандидатов на простые вакансии (не ИТ).
___

Один из моих клиентов столкнулся с задачей: ему нужно было закрыть несколько вакансий для своих заказчиков, но при этом он хотел обрабатывать поток заявок самостоятельно. Его вводные были:

- Список вакансий (3 штуки) с четкими требованиями в Airtable.
- Gmail-аккаунт, на который приходили сотни резюме.

Спустя всего несколько дней в почтовом ящике накопилось более 500 писем. Обработать их вручную означало бы потратить как минимум неделю на беспрерывную работу. Поэтому мы внедрили систему AI-автоматизации, которая справилась с этим за один день.

Вот как это работает:

1️⃣ Обработка почты

Автоматизация каждые 5 минут проверяет новые письма, загружает резюме в формате PDF. Если файл в другом формате (например, .doc или изображение), система отправляет кандидату сообщение с просьбой прислать резюме в читаемом PDF-формате. Для более точного распознавания можно было бы использовать LlamaParse, но в данном случае стандартный node n8n отлично справляется с задачей.

2️⃣ Фильтрация нерелевантных писем

Если письмо не содержит резюме, система помечает его как прочитанное и оставляет в папке входящих — без необходимости ручной обработки.

3️⃣ Сопоставление с вакансиями

Каждое резюме автоматически сопоставляется со списков вакансий из Airtable для поиска наиболее подходящей. Если подходящего варианта нет, письмо просто помечается как прочитанное.

4️⃣ Оценка кандидатов

Для резюме, соответствующих вакансиям, применяется индивидуальная система баллов, учитывающая требования к каждой должности. Для разных вакансий используется своя логика оценки, которая создается для новых вакансий в отдельном workflow.

5️⃣ Персонализированная обратная связь

- Если кандидат не набирает достаточное количество баллов, система автоматически отправляет отказ с конструктивной обратной связью, подчеркивая его сильные стороны.

- Если кандидат проходит отбор, ему приходит персонализированное приглашение записаться на собеседование через Calendly.

Результаты

- Все 500 резюме были обработаны за один час.
- Система продолжает автоматически обрабатывать около 50 резюме в день.
- С 10% кандидатов, прошедших отбор, клиент ежедневно проводит собеседования, тратя время только на самых релевантных специалистов.

Напишите в комментариях - сработает ли такой пре-скриннинг для вашего HR отдела или нет?
January 30
February 3
February 4
Как создавать веб приложения на Lovable за 1 час

Собственно это гайд, о котором говорил постом выше.

Внутри:

- Собираем интерфейс на Lovable
- Интегрируем с Supabase и N8N
- Выкладываем в Гитхаб
- Деплоим под кастомным доменом на Netlify

Ссылка на видео
February 5
February 10
February 12
Forwarded from Неуспешный неуспех в NO CODE и AI (Aleksandr Pobeditel)
February 14
Как улучшить RAG

Мой клиент хочет загрузить сотни файлов по его судебному делу, где содержатся показания разных людей, обвинения от десятков международных банков и тд, в одну базу, чтобы потом адвокаты могли искать нужную информацию через обычного ТГ бота.

Я ему сказал, что обычный RAG агент на N8N такую задачу не потянет, но сам пошел искать информацию, а какие собственно есть способы улучшить RAG и можно ли их соорудить в N8N.

Основной вариант, который у меня лежал в голове - запись в метаданные ссылки на файл, категоризация файлов (теги, категории) и предварительная фильтрация по файлам, перед поиском по основным векторам. То есть перед тем как искать сами вектора, сначала подобрать с ИИ подходящие по тегам/категориям файлы, чтобы не пулять тупо по всей базе.

Из презентации одного из работников LlamaIndex (занимаются умными RAG для корпоратов) я подчерпнул 3 наиболее реалистичных варианта.

1️⃣ Расширение контекста - при нахождение вектора можно запросить 2 соседних вектора в обе стороны, чтобы получить больше контекста, а не просто вырванную идею. При этом я думаю можно добавить дополнительную валидацию с ИИ - расширился ли контекст или нет. Во втором случае можно сужать его обратно и выдавать только релевантный кусок.

2️⃣ От малого к большому - добавлять в метаданные чанков (или в отдельню таблицу) теги/категории/саммари и проводить сначала векторный поиск по этим данным. После того как найдены подходящие чанки - запрашивать сами записи и отправлять их ИИ. В этом случае потребуется правильный подход к саммари на основе возможных вопросов (от пользователей) и специфики ниши - к примеру в legal это могли быть факты, даты, имена и тд.

3️⃣ Мультиагентсткая система - главный агент планирует ряд действий/вопросов для выяснения и поручает их нескольким агентам (либо сам итерируется по ним). По итогу мы не просто получаем куски данных из БД, а итеративно обрабатываем множество кусков, задавая разные вопросы и обогащая ответ. Также про этот подход писал Google.

_____

Доводилось ли вам делать агента с поиском по куче документов и какие методы вы использовали?
February 15
February 17
Интерактивные дашборды на N8N

Lovable и Bubble отлично подходят для создания no-code интерфейсов для AI-агентов, но что, если тебе не хочется или нет возможности делать сложный UI?

👀 Знали ли вы, что в N8N можно возвращать HTML прямо из вебхука? Это значит, что мы можем генерировать простенькие веб-страницы со свежими данными и интерактивными элементами без сложного фронтенда.

Я решил прокачать своего AI-агента, который работает с базой данных. Теперь полученные с помощью него данные доступны через вебхук N8N в виде удобного дашборда.

Список фич:

🔹 Мгновенные отчеты в HTML – запрашиваешь нужные данные, и AI генерирует веб-страницу с таблицей, где можно сортировать и фильтровать данные для анализа.

🔹 Базовые графики – AI подготавливает параметры для графиков с нужными данными.

🔹 Динамические дашборды – перед отображением страницы мы подтягиваем актуальные данные через сохраненный SQL-запрос и получаем дашборд со свежайшими данными.

🔹 Управление отчетами – центральная страница, где можно управлять отчетами и делиться ими с коллегами или партнерами.

Все страницы сгенерированы с Claude за несколько часов.

Пример дашборда

Что думаете? Удобно или есть более умные решения из коробки для анализа данных с ИИ?
Please open Telegram to view this post
VIEW IN TELEGRAM
February 18
February 26
February 27
March 3