Инструкции для LLM нельзя положить в RAG
Часто RAG пытаются применить там, где он не нужен, например, когда есть большой набор примеров или методик, по которым мы хотим, чтобы LLM строила ответы. То есть мы хотим дать на вход большую инструкцию и заставить LLM, руководствуясь большим объемом примеров о том, как надо делать, либо большим объемом теории (методики), выдать результат.
Из-за того, что в этом случае мы имеем большой объем примеров или методик, которые определяют руководство к действию для LLM, мы начинаем думать, что по причине того, что это нельзя впихнуть в промт, надо прикрутить RAG и выбирать часть (top-k) примеров и методик, которые наиболее семантически сходны с поданным контекстом (запросом пользователя, например). Это ошибка!
Только лишь потому, что наша инструкция (примеры и методики) объемные, впихивание их в RAG не только ничего не даст, оно поломает нашу логику, потому что инструкция (какой длины бы она ни была) должна быть полностью передана в LLM. А когда мы получаем куски инструкции, по семантике схожие с поданным контекстом, мы получаем полную ерунду.
Важно понять, что RAG — это про выборку фактов из большого количества данных, именно фактов! Выбирать динамически инструкцию для LLM — это не RAG, и это работать не будет! Инструкция, какой бы длины она ни была, подаётся всегда полностью со всеми примерами, контекст выбирается под запрос по семантике.
Поэтому надо искать способ подать это всё как инструкцию, способов много:
1. Подумать, а нужны ли все примеры? И сделать few-shots, то есть несколько разных примеров того, что мы хотим получить.
2. Использовать LLM для уменьшения объема нашей инструкции (LLM очень хорошо умеет ужимать смысл, сохраняя суть).
3. Использовать подачу инструкции частями и отдельно контекст, сообщить LLM о том, что мы будем делать это частями и пока не скажем GO, она не должна давать ответ.
Подпишись 👉🏻 @aigentto 🤖
Часто RAG пытаются применить там, где он не нужен, например, когда есть большой набор примеров или методик, по которым мы хотим, чтобы LLM строила ответы. То есть мы хотим дать на вход большую инструкцию и заставить LLM, руководствуясь большим объемом примеров о том, как надо делать, либо большим объемом теории (методики), выдать результат.
Из-за того, что в этом случае мы имеем большой объем примеров или методик, которые определяют руководство к действию для LLM, мы начинаем думать, что по причине того, что это нельзя впихнуть в промт, надо прикрутить RAG и выбирать часть (top-k) примеров и методик, которые наиболее семантически сходны с поданным контекстом (запросом пользователя, например). Это ошибка!
Только лишь потому, что наша инструкция (примеры и методики) объемные, впихивание их в RAG не только ничего не даст, оно поломает нашу логику, потому что инструкция (какой длины бы она ни была) должна быть полностью передана в LLM. А когда мы получаем куски инструкции, по семантике схожие с поданным контекстом, мы получаем полную ерунду.
Важно понять, что RAG — это про выборку фактов из большого количества данных, именно фактов! Выбирать динамически инструкцию для LLM — это не RAG, и это работать не будет! Инструкция, какой бы длины она ни была, подаётся всегда полностью со всеми примерами, контекст выбирается под запрос по семантике.
Поэтому надо искать способ подать это всё как инструкцию, способов много:
1. Подумать, а нужны ли все примеры? И сделать few-shots, то есть несколько разных примеров того, что мы хотим получить.
2. Использовать LLM для уменьшения объема нашей инструкции (LLM очень хорошо умеет ужимать смысл, сохраняя суть).
3. Использовать подачу инструкции частями и отдельно контекст, сообщить LLM о том, что мы будем делать это частями и пока не скажем GO, она не должна давать ответ.
Подпишись 👉🏻 @aigentto 🤖
LLM архиватор
Как я уже писал ранее, в информации, которой обмениваются люди, зачастую очень много шума и мало смысла. Поэтому любой текст можно сильно ужать, попросив об этом LLM. При этом смысл и факты останутся.
Таким образом LLM может выступать архиватором смыслов. Это может быть полезно для сохранения фактов из переписок, встреч, протоколов и т.д.
Это также может быть очень полезно для уменьшения контекста, подаваемого на вход LLM при повторном запросе, то есть, например, у вас есть переписка с пользователем на сотни сообщений, и вы, желая сохранить весь контекст, передаете всю историю переписки при каждом новом вопросе пользователя.
Вы тратите много токенов и заставляете LLM тормозить, разбирая заново весь ваш большой контекст. Вместо этого берёте историю в сотни сообщений и просите LLM написать коротко все факты из переписки (будут как минимум удалены все дубли и подобраны более короткие формулировки). Получаете экономию токенов и более быстрый ответ LLM.
Подпишись 👉🏻 @aigentto 🤖
Как я уже писал ранее, в информации, которой обмениваются люди, зачастую очень много шума и мало смысла. Поэтому любой текст можно сильно ужать, попросив об этом LLM. При этом смысл и факты останутся.
Таким образом LLM может выступать архиватором смыслов. Это может быть полезно для сохранения фактов из переписок, встреч, протоколов и т.д.
Это также может быть очень полезно для уменьшения контекста, подаваемого на вход LLM при повторном запросе, то есть, например, у вас есть переписка с пользователем на сотни сообщений, и вы, желая сохранить весь контекст, передаете всю историю переписки при каждом новом вопросе пользователя.
Вы тратите много токенов и заставляете LLM тормозить, разбирая заново весь ваш большой контекст. Вместо этого берёте историю в сотни сообщений и просите LLM написать коротко все факты из переписки (будут как минимум удалены все дубли и подобраны более короткие формулировки). Получаете экономию токенов и более быстрый ответ LLM.
Подпишись 👉🏻 @aigentto 🤖
Telegram
AIGENTTO
Плотность полезной информации в чатах
Дополнительным источником информации для базы знаний бота по компании могут быть переписки сотрудников в чатах. Если переписок много и они качественные (вопросы и ответы по теме), то это может стать и начальной базой…
Дополнительным источником информации для базы знаний бота по компании могут быть переписки сотрудников в чатах. Если переписок много и они качественные (вопросы и ответы по теме), то это может стать и начальной базой…
👍1
Отвечаю на вопрос по извлечению фактов из чатов и текстов
Всё намного банальнее в реальности. Вот тут реальный кейс компании: ~10 000 сообщений, ~700 участников, 28 реальных вопросов-ответов, 25 реально недублирующихся устойчивых фактов. Всё остальное — шум типа «привет, пока, а как, а че, я тут подумал»...
LLM это выделяет очень хорошо. Конечно, важен промт.
Мы сейчас тестируем новый подход, в том числе к индексированию документов (Factology) — выделение фактов вместо простого чанкования. Как выяснилось, в документах тоже очень много воды и дубликатов.
И если в переписке был упомянут промт как промт, то в нашем случае LLM его сохранит как факт.
Главное — не переоценивать плотность информации в переписках и даже документах: там очень-очень-очень много воды. Нам людям так удобнее общаться, но для LLM это лишний шум.
А если надо извлечь эмоции из чатов, то это тоже можно сделать и отдельно сохранить, не держа весь объём переписок.
Подпишись 👉🏻 @aigentto 🤖
Всё намного банальнее в реальности. Вот тут реальный кейс компании: ~10 000 сообщений, ~700 участников, 28 реальных вопросов-ответов, 25 реально недублирующихся устойчивых фактов. Всё остальное — шум типа «привет, пока, а как, а че, я тут подумал»...
LLM это выделяет очень хорошо. Конечно, важен промт.
Мы сейчас тестируем новый подход, в том числе к индексированию документов (Factology) — выделение фактов вместо простого чанкования. Как выяснилось, в документах тоже очень много воды и дубликатов.
И если в переписке был упомянут промт как промт, то в нашем случае LLM его сохранит как факт.
Главное — не переоценивать плотность информации в переписках и даже документах: там очень-очень-очень много воды. Нам людям так удобнее общаться, но для LLM это лишний шум.
А если надо извлечь эмоции из чатов, то это тоже можно сделать и отдельно сохранить, не держа весь объём переписок.
Подпишись 👉🏻 @aigentto 🤖
Telegram
AIGENTTO
Плотность полезной информации в чатах
Дополнительным источником информации для базы знаний бота по компании могут быть переписки сотрудников в чатах. Если переписок много и они качественные (вопросы и ответы по теме), то это может стать и начальной базой…
Дополнительным источником информации для базы знаний бота по компании могут быть переписки сотрудников в чатах. Если переписок много и они качественные (вопросы и ответы по теме), то это может стать и начальной базой…
👍4
Agentic AGI
Посмотрел все доклады John Carmack по его работе в направлении AGI.
И понял, что реальные ИИ-агенты не должны работать в стерильных условиях (известные протоколы, чёткое разделение функций и последовательность выполнения и т.д.). Реальные ИИ-агенты должны уметь выживать в noisy environments (шумных средах), иначе они никогда не обойдут простого секретаря по эффективности.
Мы уже ведём тестирование общения агентов в среде без протокола (результаты хорошие).
В этих средах мы добавляем лишних агентов, которые создают шум (шутят шутки, рекламируют себя и т.д.). Это сильно помогает сделать боевых агентов более устойчивыми.
Надеюсь, скоро будет детальная статья по результатам.
Подпишись 👉🏻 @aigentto 🤖
Посмотрел все доклады John Carmack по его работе в направлении AGI.
И понял, что реальные ИИ-агенты не должны работать в стерильных условиях (известные протоколы, чёткое разделение функций и последовательность выполнения и т.д.). Реальные ИИ-агенты должны уметь выживать в noisy environments (шумных средах), иначе они никогда не обойдут простого секретаря по эффективности.
Мы уже ведём тестирование общения агентов в среде без протокола (результаты хорошие).
В этих средах мы добавляем лишних агентов, которые создают шум (шутят шутки, рекламируют себя и т.д.). Это сильно помогает сделать боевых агентов более устойчивыми.
Надеюсь, скоро будет детальная статья по результатам.
Подпишись 👉🏻 @aigentto 🤖
Telegram
AIGENTTO
Хрупкость всех agentic систем
Во всех мультиагентных системах есть одно хрупкое место — это протокол общения между агентами или роутинг между ними.
По сути, можно сделать жёсткий роутинг прямо в коде. Можно сделать условный роутинг тоже в коде. А можно…
Во всех мультиагентных системах есть одно хрупкое место — это протокол общения между агентами или роутинг между ними.
По сути, можно сделать жёсткий роутинг прямо в коде. Можно сделать условный роутинг тоже в коде. А можно…
🔥3🤔1
Эволюция ИИ-агентов
Уровень 1
Можно создать одного агента с большим промтом под разные задачи. Будет много глюков и постоянное перетягивание промтов агента для выполнения одной задачи лучше другой.
Уровень 2
Можно разделить на X агентов по чётким задачам (один пишет статью, другой её проверяет, третий добавляет нативную рекламу и т.д.). Это будет работать лучше, но жёсткая связка агентов и однозначность их промтов не дают этой конструкции расти и улучшать свои результаты.
Уровень 3
Рои микроагентов под микро-задачи с общением без протокола. Работает так же хорошо, как уровень 2, но позволяет агентам выстраивать новые более эффективные связи в зависимости от задачи.
Уровень 4
Рои генерируемых микроагентов одним god-agent под задачу. Лучше, чем уровень 3, потому что всё начинается с чистого листа, и система сама создаст нужное количество агентов под входящие задачи.
Уровень 5
Рои генерируемых эволюционирующих агентов. То же, что уровень 4, но с отбором лучших, cross-over, mutation, как в генетических алгоритмах. Тут мы уже подходим к Agentic AGI 🤖.
Подпишись 👉🏻 @aigentto 🤖
Уровень 1
Можно создать одного агента с большим промтом под разные задачи. Будет много глюков и постоянное перетягивание промтов агента для выполнения одной задачи лучше другой.
Уровень 2
Можно разделить на X агентов по чётким задачам (один пишет статью, другой её проверяет, третий добавляет нативную рекламу и т.д.). Это будет работать лучше, но жёсткая связка агентов и однозначность их промтов не дают этой конструкции расти и улучшать свои результаты.
Уровень 3
Рои микроагентов под микро-задачи с общением без протокола. Работает так же хорошо, как уровень 2, но позволяет агентам выстраивать новые более эффективные связи в зависимости от задачи.
Уровень 4
Рои генерируемых микроагентов одним god-agent под задачу. Лучше, чем уровень 3, потому что всё начинается с чистого листа, и система сама создаст нужное количество агентов под входящие задачи.
Уровень 5
Рои генерируемых эволюционирующих агентов. То же, что уровень 4, но с отбором лучших, cross-over, mutation, как в генетических алгоритмах. Тут мы уже подходим к Agentic AGI 🤖.
Подпишись 👉🏻 @aigentto 🤖
👍4
Clusteroid для автокластеризации документов в RAG
В RAG часто бывает набор различных документов из разных департаментов компании. Нужно либо использовать разделение на кластеры по департаментам, что часто бывает неточным (например, в HR хранится много разных по типу и содержанию документов), либо сортировать их самостоятельно. Либо же сложить всё вместе в одну кучу.
Третий вариант — самый плохой, так как получится много схожей семантики, и процесс retrieve будет работать плохо (будет попадать много нерелевантных чанков). Первый вариант обычно приемлем, но по сути сводится ко второму: нужен человек, который вручную качественно сортировал бы документы по секциям и пересортировывал при изменениях и добавлениях.
Существуют библиотеки, например, SpaCy, которые могут делать разметку (NER), но без качественной настройки под конкретную тему они работают плохо.
Поэтому мы разработали собственный кластеризатор Clusteroid, который выложили в open source. Он умеет кластеризовать с помощью K-Means или HDBSCAN.
Подпишись 👉🏻 @aigentto 🤖
В RAG часто бывает набор различных документов из разных департаментов компании. Нужно либо использовать разделение на кластеры по департаментам, что часто бывает неточным (например, в HR хранится много разных по типу и содержанию документов), либо сортировать их самостоятельно. Либо же сложить всё вместе в одну кучу.
Третий вариант — самый плохой, так как получится много схожей семантики, и процесс retrieve будет работать плохо (будет попадать много нерелевантных чанков). Первый вариант обычно приемлем, но по сути сводится ко второму: нужен человек, который вручную качественно сортировал бы документы по секциям и пересортировывал при изменениях и добавлениях.
Существуют библиотеки, например, SpaCy, которые могут делать разметку (NER), но без качественной настройки под конкретную тему они работают плохо.
Поэтому мы разработали собственный кластеризатор Clusteroid, который выложили в open source. Он умеет кластеризовать с помощью K-Means или HDBSCAN.
Подпишись 👉🏻 @aigentto 🤖
GitHub
GitHub - alx1379/Clusteroid: Dynamic RAG docs clusterization (meta clusters)
Dynamic RAG docs clusterization (meta clusters). Contribute to alx1379/Clusteroid development by creating an account on GitHub.
🔥8
Как уменьшить цикл обучения AI
В текущих реалиях для обучения/переобучения любой LLM нужны дни/недели и много мощностей, и результат не будет гарантирован: новая LLM может стать лучше, а может хуже.
В Agentic AI добавление новых агентов занимает минуты. Можно внедрить дообучения агентов по своим темам, что по сути является обновлением промта и контекста. То есть можно получить улучшенную версию системы из агентов за минуты, потом ещё улучшенную и т.д.
Если внедрить размножение одинаковых агентов и их эволюцию с отбором сильнейших, crossover и мутацией, то можно запустить Darwin-эволюцию, скорость которой будет очень высока (на каждый новый запрос/задачу система агентов будет становиться лучше).
Лучших можно определять по используемости агентов (=fitness function distance). Чем больше/чаще используется агент, тем он полезнее.
Подпишись 👉🏻 @aigentto 🤖
В текущих реалиях для обучения/переобучения любой LLM нужны дни/недели и много мощностей, и результат не будет гарантирован: новая LLM может стать лучше, а может хуже.
В Agentic AI добавление новых агентов занимает минуты. Можно внедрить дообучения агентов по своим темам, что по сути является обновлением промта и контекста. То есть можно получить улучшенную версию системы из агентов за минуты, потом ещё улучшенную и т.д.
Если внедрить размножение одинаковых агентов и их эволюцию с отбором сильнейших, crossover и мутацией, то можно запустить Darwin-эволюцию, скорость которой будет очень высока (на каждый новый запрос/задачу система агентов будет становиться лучше).
Лучших можно определять по используемости агентов (=fitness function distance). Чем больше/чаще используется агент, тем он полезнее.
Подпишись 👉🏻 @aigentto 🤖
👍2
Почему n8n вам не подойдет?
n8n или Нэйтон и прочие low-code/no-code фреймворки хороши в теории, но когда дело доходит до практики, нужно начинать писать свой код и вставлять его в блоки workflow no-code тулов. Например, чтобы сделать это в Yandex Workflow, у Yandex-разработчика ушло 2 дня 😀 Это не шутка — это правда.
Потом понимаешь, что UI/UX таких тулов очень убогий, а за то время, пока ты выясняешь, почему оно не работает, уже можно было написать много кода (тем более сейчас, когда есть LLM IDE).
И самое главное — все хотят кастомных штук: одному нужны стриминг, другому — чтобы внутри бота был task manager для support, третьему — особая красивая кодировка букв. Всё это нельзя сделать в любых no-code/low-code тулах без кода.
Мне кажется, эра no-code тулов, начавшаяся ещё в 00-х и так и не снискавшая успеха, скоро окончательно закончится, потому что писать код благодаря LLM стало просто и дешево. Но всякие консультанты упорно продают no-code: "зачем вам разработчики, сделай всё сам перетаскиванием кубиков" 😀
Подпишись 👉🏻 @aigentto 🤖
n8n или Нэйтон и прочие low-code/no-code фреймворки хороши в теории, но когда дело доходит до практики, нужно начинать писать свой код и вставлять его в блоки workflow no-code тулов. Например, чтобы сделать это в Yandex Workflow, у Yandex-разработчика ушло 2 дня 😀 Это не шутка — это правда.
Потом понимаешь, что UI/UX таких тулов очень убогий, а за то время, пока ты выясняешь, почему оно не работает, уже можно было написать много кода (тем более сейчас, когда есть LLM IDE).
И самое главное — все хотят кастомных штук: одному нужны стриминг, другому — чтобы внутри бота был task manager для support, третьему — особая красивая кодировка букв. Всё это нельзя сделать в любых no-code/low-code тулах без кода.
Мне кажется, эра no-code тулов, начавшаяся ещё в 00-х и так и не снискавшая успеха, скоро окончательно закончится, потому что писать код благодаря LLM стало просто и дешево. Но всякие консультанты упорно продают no-code: "зачем вам разработчики, сделай всё сам перетаскиванием кубиков" 😀
Подпишись 👉🏻 @aigentto 🤖
❤4👌2
Как потерять пол лимона на fine-tuning?
Одна компания захотела сделать fine-tuning yandexGPT модели, купила мощные видеокарты и нашла подрядчика, который сделал fine-tuning для задачи создания протоколов по встречам (сейчас 100 компаний делают такой SaaS), и получила демо того, как это работает, но выяснилось, что это был "макет", а не реальный fine-tuning.
Компания уже вложилась, уже имеет видеокарты и хочет еще раз сделать fine-tuning 😀 Ищет подрядчика 😀
Такой подход называется: я купил молоток и теперь мне нужно его использовать (я же его уже купил). Не делайте так, решайте задачу, а не пытайтесь найти применение инструменту 🧠
Подпишись 👉🏻 @aigentto 🤖
Одна компания захотела сделать fine-tuning yandexGPT модели, купила мощные видеокарты и нашла подрядчика, который сделал fine-tuning для задачи создания протоколов по встречам (сейчас 100 компаний делают такой SaaS), и получила демо того, как это работает, но выяснилось, что это был "макет", а не реальный fine-tuning.
Компания уже вложилась, уже имеет видеокарты и хочет еще раз сделать fine-tuning 😀 Ищет подрядчика 😀
Такой подход называется: я купил молоток и теперь мне нужно его использовать (я же его уже купил). Не делайте так, решайте задачу, а не пытайтесь найти применение инструменту 🧠
Подпишись 👉🏻 @aigentto 🤖
🤔2
Большинство ИИ-агентов — это приукрашенные конструкции вида ЕСЛИ > ТО
15 лет назад все были в восторге от машинного обучения.
→ Хотите предсказать отток клиентов? Машинное обучение.
→ Клиент, купивший X, также купил Y? Машинное обучение.
→ Прогнозировать продажи на следующую неделю? Опять машинное обучение.
При этом 80% ценности приносили базовые эвристики:
«Если пользователь не входил в систему 14 дней > отправить письмо»
«Если запас опускается ниже порога > сделать повторный заказ»
«Если маржа < X или > X, то остановить кампанию»
Сейчас мы повторяем тот же цикл.
Но теперь — с ИИ-агентами.
ИИ-агенты меняют правила игры.
Но для многих задач они:
❌ создают ненужную сложность
❌ вводят точки отказа
❌ требуют месяцев на разработку
❌ так и не попадают в продакшн
Я очень оптимистично настроен к Agentic AI.
Но я против хайпа, замаскированного под инновации.
Начинайте с:
✔️ Острой бизнес-проблемы
✔️ Очень простого прототипа
✔️ Принципа Парето — 80/20
Подпишись 👉🏻 @aigentto 🤖
15 лет назад все были в восторге от машинного обучения.
→ Хотите предсказать отток клиентов? Машинное обучение.
→ Клиент, купивший X, также купил Y? Машинное обучение.
→ Прогнозировать продажи на следующую неделю? Опять машинное обучение.
При этом 80% ценности приносили базовые эвристики:
«Если пользователь не входил в систему 14 дней > отправить письмо»
«Если запас опускается ниже порога > сделать повторный заказ»
«Если маржа < X или > X, то остановить кампанию»
Сейчас мы повторяем тот же цикл.
Но теперь — с ИИ-агентами.
ИИ-агенты меняют правила игры.
Но для многих задач они:
❌ создают ненужную сложность
❌ вводят точки отказа
❌ требуют месяцев на разработку
❌ так и не попадают в продакшн
Я очень оптимистично настроен к Agentic AI.
Но я против хайпа, замаскированного под инновации.
Начинайте с:
✔️ Острой бизнес-проблемы
✔️ Очень простого прототипа
✔️ Принципа Парето — 80/20
Подпишись 👉🏻 @aigentto 🤖
💯4
Работаем над уровнем 3 и 4
Ранее я писал про будущее Agentic AI. Мы сейчас работаем над уровнями 3 и 4. Скоро будем проводить активное тестирование в полях на двух очень больших компаниях с большими данными и очень сложными workflow. Если подход покажет себя хорошо в этих случаях, то все остальные простые кейсы будут ему тоже по зубам.
Суть здесь в том, чтобы делегировать максимум полномочий ИИ-агентам, иначе зачем мы прикручиваем УМНОГО ИИ-агента и обкладываем его жесткими протоколами и жестким роутингом?! Это то же самое, что нанять кандидата наук и зарегулировать его работу жесткими инструкциями в стиле MacDonalds 🤷♂️
Подпишись 👉🏻 @aigentto 🤖
Ранее я писал про будущее Agentic AI. Мы сейчас работаем над уровнями 3 и 4. Скоро будем проводить активное тестирование в полях на двух очень больших компаниях с большими данными и очень сложными workflow. Если подход покажет себя хорошо в этих случаях, то все остальные простые кейсы будут ему тоже по зубам.
Суть здесь в том, чтобы делегировать максимум полномочий ИИ-агентам, иначе зачем мы прикручиваем УМНОГО ИИ-агента и обкладываем его жесткими протоколами и жестким роутингом?! Это то же самое, что нанять кандидата наук и зарегулировать его работу жесткими инструкциями в стиле MacDonalds 🤷♂️
Подпишись 👉🏻 @aigentto 🤖
Telegram
AIGENTTO
Эволюция ИИ-агентов
Уровень 1
Можно создать одного агента с большим промтом под разные задачи. Будет много глюков и постоянное перетягивание промтов агента для выполнения одной задачи лучше другой.
Уровень 2
Можно разделить на X агентов по чётким задачам…
Уровень 1
Можно создать одного агента с большим промтом под разные задачи. Будет много глюков и постоянное перетягивание промтов агента для выполнения одной задачи лучше другой.
Уровень 2
Можно разделить на X агентов по чётким задачам…
👍3
Молодные безнадежные консерваторы )
Я в ИТ уже более 25 лет, а если считать школьные годы и программирование игр на ZX Spectrum и MS-DOS, то всё 35+ 😀
Я видел много итераций языков, систем, протоколов, фреймворков, команд, и я даже понимаю шутку: Я бы рассказал вам анекдот про UDP, но боюсь, до вас не дойдёт )
У меня была своя нода в FIDONet 2:5005/39, через которую я раздавал траффик своим поинтам, с которыми ходил на поинтовки пить пиво ) Кто-нибудь вообще знает, что такое FIDONet? )
Короче, я давно живу, но меня удивляет, когда некоторые молодые разработчики уже в 25 лет, изучив неплохо Python, очень жёстко делают всё по одной схеме, как их научили. Только linter, только схемы pydantic, только так и никак иначе.
Это особенно сильно их тормозит в области LLM и AI: они используют LLM так топорно, что теряют все преимущества, которые может дать LLM. А некоторые так прямо открыто говорят, что побаиваются LLM использовать в своём коде — ведь оно непредсказуемо.
Когда показываешь им наш новый безшовный вариант работы ИИ-агентов, где нет протокола общения, из-за этого кода совсем чуть-чуть и все решения принимают сами агенты с LLM, они пугаются — они хотят сами описать все схемы данных, использовать жёсткие протоколы и поставить кучу пред- и пост-обработчиков и валидаторов с жестким роутингом в стиле if then )
В ближайшие годы LLMки поменяют все эти подходы, а консерваторы останутся в своем "FIDONet" 🤷
Подпишись 👉🏻 @aigentto 🤖
Я в ИТ уже более 25 лет, а если считать школьные годы и программирование игр на ZX Spectrum и MS-DOS, то всё 35+ 😀
Я видел много итераций языков, систем, протоколов, фреймворков, команд, и я даже понимаю шутку: Я бы рассказал вам анекдот про UDP, но боюсь, до вас не дойдёт )
У меня была своя нода в FIDONet 2:5005/39, через которую я раздавал траффик своим поинтам, с которыми ходил на поинтовки пить пиво ) Кто-нибудь вообще знает, что такое FIDONet? )
Короче, я давно живу, но меня удивляет, когда некоторые молодые разработчики уже в 25 лет, изучив неплохо Python, очень жёстко делают всё по одной схеме, как их научили. Только linter, только схемы pydantic, только так и никак иначе.
Это особенно сильно их тормозит в области LLM и AI: они используют LLM так топорно, что теряют все преимущества, которые может дать LLM. А некоторые так прямо открыто говорят, что побаиваются LLM использовать в своём коде — ведь оно непредсказуемо.
Когда показываешь им наш новый безшовный вариант работы ИИ-агентов, где нет протокола общения, из-за этого кода совсем чуть-чуть и все решения принимают сами агенты с LLM, они пугаются — они хотят сами описать все схемы данных, использовать жёсткие протоколы и поставить кучу пред- и пост-обработчиков и валидаторов с жестким роутингом в стиле if then )
В ближайшие годы LLMки поменяют все эти подходы, а консерваторы останутся в своем "FIDONet" 🤷
Подпишись 👉🏻 @aigentto 🤖
👏4🔥1🤷1
Правило N1 в Agentic AI
В Agentic AI важно декомпозировать функции системы на большое количество агентов. Конечно хочется все запихать в монолит в виде одного агента который умеет все, но мы то знаем к чему это приводит. Поэтому делите Шура делите на агентов и микро-агентов.
И обеспечивайте эффективное общение агентов между собой — ту самую оркестрацию 🎶
Подпишись 👉🏻 @aigentto 🤖
В Agentic AI важно декомпозировать функции системы на большое количество агентов. Конечно хочется все запихать в монолит в виде одного агента который умеет все, но мы то знаем к чему это приводит. Поэтому делите Шура делите на агентов и микро-агентов.
И обеспечивайте эффективное общение агентов между собой — ту самую оркестрацию 🎶
Подпишись 👉🏻 @aigentto 🤖
Оркестрация против роутинга
Роутинг, даже если он гибкий или условный, — это всегда некий жесткий каркас, в котором агенты могут не понять друг друга, и всё может сломаться.
Поэтому лучше использовать оркестрацию: когда есть либо умный оркестратор, который, с помощью LLM, зная, какие есть агенты, MCP, tools, принимает решение, куда направить очередной запрос.
Либо вариант общения агентов без оркестратора, такой как мы сейчас активно тестируем.
Подпишись 👉🏻 @aigentto 🤖
Роутинг, даже если он гибкий или условный, — это всегда некий жесткий каркас, в котором агенты могут не понять друг друга, и всё может сломаться.
Поэтому лучше использовать оркестрацию: когда есть либо умный оркестратор, который, с помощью LLM, зная, какие есть агенты, MCP, tools, принимает решение, куда направить очередной запрос.
Либо вариант общения агентов без оркестратора, такой как мы сейчас активно тестируем.
Подпишись 👉🏻 @aigentto 🤖
Бот как человек
Мне всегда не везло и с живыми операторами поддержки, мой рекорд — 22 часа на телефоне с 50+ разными живыми операторами, только чтобы они взяли мои деньги, и это самая крупная компания в телеком 🤷
Большая часть ИИ ботов сейчас — это if then, а не AI, даже те, которые используют LLM.
Мы сейчас делаем безшовное решение, где нет никаких меню и условий, соответственно нет и циклов хождения кругами. Кругами по скриптам можно ходить и с операторами людьми.
Но многие компании боятся внедрять то, что будет жить само и само будет принимать решения, а оно работает. Все хотят жесткий роутинг вместо мягких guidelines и бесценарного общения. И получают опять if then ботов 😎
Подпишись 👉🏻 @aigentto 🤖
Мне всегда не везло и с живыми операторами поддержки, мой рекорд — 22 часа на телефоне с 50+ разными живыми операторами, только чтобы они взяли мои деньги, и это самая крупная компания в телеком 🤷
Большая часть ИИ ботов сейчас — это if then, а не AI, даже те, которые используют LLM.
Мы сейчас делаем безшовное решение, где нет никаких меню и условий, соответственно нет и циклов хождения кругами. Кругами по скриптам можно ходить и с операторами людьми.
Но многие компании боятся внедрять то, что будет жить само и само будет принимать решения, а оно работает. Все хотят жесткий роутинг вместо мягких guidelines и бесценарного общения. И получают опять if then ботов 😎
Подпишись 👉🏻 @aigentto 🤖
🔥4
Агенты общаются как люди (без оркестрации)
Вот пример общения агентов без оркестрации — они как люди сами решают, что делать и когда делать, а когда не делать...
1️⃣ Пришел запрос от пользователя.
2️⃣ Проверка пользователя на анонимность (если залогинен, то разрешаем).
3️⃣ Агент не блокировал НЕ персональный вопрос.
4️⃣ Агент-юрист понял, что вопрос не по его теме.
5️⃣ Агенту HR разрешено всё, он попытался найти инфу в документах компании, но не смог 😀.
6️⃣ Forward-agent понял, что на вопрос никто не ответил, и приказал его отправить людям 👨.
7️⃣ Агент task tracker взял и создал задачу на человека с этим вопросом.
Подпишись 👉🏻 @aigentto 🤖
Вот пример общения агентов без оркестрации — они как люди сами решают, что делать и когда делать, а когда не делать...
1️⃣ Пришел запрос от пользователя.
2️⃣ Проверка пользователя на анонимность (если залогинен, то разрешаем).
3️⃣ Агент не блокировал НЕ персональный вопрос.
4️⃣ Агент-юрист понял, что вопрос не по его теме.
5️⃣ Агенту HR разрешено всё, он попытался найти инфу в документах компании, но не смог 😀.
6️⃣ Forward-agent понял, что на вопрос никто не ответил, и приказал его отправить людям 👨.
7️⃣ Агент task tracker взял и создал задачу на человека с этим вопросом.
Подпишись 👉🏻 @aigentto 🤖
🔥2😁1
Core feature ИИ-бота vs. как потратить деньги не туда
Вот есть бот для внутренней коммуникации в компании на 5 000 человек. Что должен уметь бот — просто хорошо отвечать на вопросы про компанию.
Все уже и в голове у себя представили, какой он будет дружелюбный, и название ему хорошее придумали.
А как бот сумеет хорошо отвечать? Должен знать все о компании.
А как сделать дружелюбным его? Ну пусть отвечает еще и на все остальные вопросы — за ним же LLM — она все знает.
А давайте еще сделаем, чтобы бот не отвечал плохого, давайте…
А давайте прикрутим к нему набор нормальных скучных корпоративных фраз на всякие разные случаи… давайте.
А давайте еще сделаем, чтобы бот там, где не может ответить, звал человека? И чтобы он не просто звал, а отслеживал, кому передал вопрос, SLA, все дела….
Все, конец боту, он теперь не очень дружелюбный и не совсем бот.
Не делайте так! Делайте как Elon Musk: если мы делаем грузовик-автопилот, там не должно быть места для водителя-человека.
Если мы делаем бот, там не должно быть функции позвать человека, там нужно отточить все знания и стиль поведения бота до уровня человека.
Подпишись 👉🏻 @aigentto 🤖
Вот есть бот для внутренней коммуникации в компании на 5 000 человек. Что должен уметь бот — просто хорошо отвечать на вопросы про компанию.
Все уже и в голове у себя представили, какой он будет дружелюбный, и название ему хорошее придумали.
А как бот сумеет хорошо отвечать? Должен знать все о компании.
А как сделать дружелюбным его? Ну пусть отвечает еще и на все остальные вопросы — за ним же LLM — она все знает.
А давайте еще сделаем, чтобы бот не отвечал плохого, давайте…
А давайте прикрутим к нему набор нормальных скучных корпоративных фраз на всякие разные случаи… давайте.
А давайте еще сделаем, чтобы бот там, где не может ответить, звал человека? И чтобы он не просто звал, а отслеживал, кому передал вопрос, SLA, все дела….
Все, конец боту, он теперь не очень дружелюбный и не совсем бот.
Не делайте так! Делайте как Elon Musk: если мы делаем грузовик-автопилот, там не должно быть места для водителя-человека.
Если мы делаем бот, там не должно быть функции позвать человека, там нужно отточить все знания и стиль поведения бота до уровня человека.
Подпишись 👉🏻 @aigentto 🤖
👍2
Fine-tuning не нужен
Много слышу про желанию fine тюнить LLM под свои задачи. Я и сам хочу как-нибудь обучить 1bit скоростную компактную нейросеть под задачу, но это академический интерес, в реальности все это очень непрактично.
Основной нюанс — это длина цикла обучения и fine тюнинга. Мы тут говорим о часах и днях, и если что-то не получилось (сеть могла стать в одном месте лучше, а в другом хуже, например), то еще один цикл переобучения (часы и дни). Короче, по факту это недели работы минимум, чтобы получить желаемый результат.
Намного проще создать сетку из агентов, которая будет делать ровно то же самое, тут мы просто выносим кусок дообучения поверх нейросети. И самое главное — любое изменение в Agentic AI начинает работать уже через секунды. Цикл дообучения получается минуты с учетом внесения самих изменений.
Подпишись 👉🏻 @aigentto 🤖
Много слышу про желанию fine тюнить LLM под свои задачи. Я и сам хочу как-нибудь обучить 1bit скоростную компактную нейросеть под задачу, но это академический интерес, в реальности все это очень непрактично.
Основной нюанс — это длина цикла обучения и fine тюнинга. Мы тут говорим о часах и днях, и если что-то не получилось (сеть могла стать в одном месте лучше, а в другом хуже, например), то еще один цикл переобучения (часы и дни). Короче, по факту это недели работы минимум, чтобы получить желаемый результат.
Намного проще создать сетку из агентов, которая будет делать ровно то же самое, тут мы просто выносим кусок дообучения поверх нейросети. И самое главное — любое изменение в Agentic AI начинает работать уже через секунды. Цикл дообучения получается минуты с учетом внесения самих изменений.
Подпишись 👉🏻 @aigentto 🤖
Добро пожаловать в no-code решения
Не будут эти решения работать в реальных боевых сценариях никогда. Это уже 4-я итерация с 00-х годов по разным темам, сейчас ИИ.
Но как же заманчиво это для клиента. Сам не разбираюсь, нанимать разработчиков не буду.
Надо понимать наивность такого подхода — я тоже сам могу построить себе дом, но я чётко осознаю: либо я потрачу много лет своего времени, разберусь и стану строителем — нафига мне это надо?
Либо я заплачу не временем, а деньгами тем, кто уже разбирается (строителям), и продать мне дом типа n8n по схеме «собери сам» не получится 🤷
Подпишись 👉🏻 @aigentto 🤖
Не будут эти решения работать в реальных боевых сценариях никогда. Это уже 4-я итерация с 00-х годов по разным темам, сейчас ИИ.
Но как же заманчиво это для клиента. Сам не разбираюсь, нанимать разработчиков не буду.
Надо понимать наивность такого подхода — я тоже сам могу построить себе дом, но я чётко осознаю: либо я потрачу много лет своего времени, разберусь и стану строителем — нафига мне это надо?
Либо я заплачу не временем, а деньгами тем, кто уже разбирается (строителям), и продать мне дом типа n8n по схеме «собери сам» не получится 🤷
Подпишись 👉🏻 @aigentto 🤖