🚀 Представлен Apache Spark 4.0 — крупнейший релиз с момента запуска Spark 2.0
Databricks анонсировали Spark 4.0 с множеством фундаментальных улучшений производительности и архитектуры.
Новый релиз фокусируется на ускорении обработки, поддержке GenAI-нагрузок и расширенной масштабируемости.
🔥 Что нового:
• 💡 Project Tungsten++, Catalyst++ — переработка движка исполнения и оптимизации запросов
• 🧠 Поддержка генеративных AI-запросов — Spark теперь эффективнее работает с LLM-нагрузками
• ⚙️ Новый Execution Engine — более 2× ускорение в среднем, до 10× в некоторых кейсах
• 📦 Модульная архитектура — теперь ядро Spark отделено от MLlib, GraphX и др.
• 🌐 Поддержка нового Shuffle-движка и улучшенное распределение по кластерам
• 🧪 Обратная несовместимость — Spark 4.0 требует миграции, особенно для UDF и кастомных оптимизаций
📌 Подробности и тесты:
https://www.databricks.com/blog/introducing-apache-spark-40
@data_analysis_ml
Databricks анонсировали Spark 4.0 с множеством фундаментальных улучшений производительности и архитектуры.
Новый релиз фокусируется на ускорении обработки, поддержке GenAI-нагрузок и расширенной масштабируемости.
🔥 Что нового:
• 💡 Project Tungsten++, Catalyst++ — переработка движка исполнения и оптимизации запросов
• 🧠 Поддержка генеративных AI-запросов — Spark теперь эффективнее работает с LLM-нагрузками
• ⚙️ Новый Execution Engine — более 2× ускорение в среднем, до 10× в некоторых кейсах
• 📦 Модульная архитектура — теперь ядро Spark отделено от MLlib, GraphX и др.
• 🌐 Поддержка нового Shuffle-движка и улучшенное распределение по кластерам
• 🧪 Обратная несовместимость — Spark 4.0 требует миграции, особенно для UDF и кастомных оптимизаций
📌 Подробности и тесты:
https://www.databricks.com/blog/introducing-apache-spark-40
@data_analysis_ml
YTsaurus - платформа для хранения и обработки больших данных, теперь доступная в Yandex Cloud как управляемый сервис.
Решение подходит для широкого спектра задач: от построения корпоративных хранилищ и реализации ETL-процессов до запуска аналитики и обучения моделей машинного обучения.
Платформа масштабируется до миллионов вычислительных ядер, поддерживает работу с ClickHouse, Apache Spark и MapReduce, а также справляется с любыми типами данных - структурированными, полуструктурированными и неструктурированными.
YTsaurus обеспечивает стабильную производственную нагрузку, высокую гибкость и интеграцию с существующими дата-инфраструктурами.
Сервис уже доступен в облаке. Подключайтесь и оставляйте заявку на сайте.
Решение подходит для широкого спектра задач: от построения корпоративных хранилищ и реализации ETL-процессов до запуска аналитики и обучения моделей машинного обучения.
Платформа масштабируется до миллионов вычислительных ядер, поддерживает работу с ClickHouse, Apache Spark и MapReduce, а также справляется с любыми типами данных - структурированными, полуструктурированными и неструктурированными.
YTsaurus обеспечивает стабильную производственную нагрузку, высокую гибкость и интеграцию с существующими дата-инфраструктурами.
Сервис уже доступен в облаке. Подключайтесь и оставляйте заявку на сайте.
🔁 BERT перезагружается — революция в обработке языка
Когда-то BERT (Bidirectional Encoder Representations from Transformers) стал поворотной точкой в NLP. Это была первая модель, которая обучалась трансформеру двунаправленно — она одновременно учитывала контекст и слева, и справа от каждого слова, чтобы понимать язык глубже, чем когда-либо.
🧠 Что изменил BERT:
• Принёс в трансформеры стратегию «предобучение → дообучение»
• Учил модели понимать текст без ручной разметки
• Доказал, что язык можно моделировать через простые, но мощные задачи
🛠 Как устроено предобучение BERT:
🔹 MLM (Masked Language Model)
Модель случайно скрывает 15% слов в предложении и учится угадывать их, основываясь на окружающем контексте.
Примерно как человек, который понимает фразу, даже если не видит пару слов.
🔹 NSP (Next Sentence Prediction)
BERT также обучался распознавать, действительно ли второе предложение логически следует за первым.
Но…
⚡ Современные версии (NeoBERT, ModernBERT) отказываются от NSP — вместо него они используют более быстрые и эффективные подходы, чтобы добиться лучшей производительности.
🔍 Хотите узнать больше о BERT, его развитии и новой модели ConstBERT для поисковых задач?
👉 Читайте разбор здесь: https://turingpost.com/p/bert
Когда-то BERT (Bidirectional Encoder Representations from Transformers) стал поворотной точкой в NLP. Это была первая модель, которая обучалась трансформеру двунаправленно — она одновременно учитывала контекст и слева, и справа от каждого слова, чтобы понимать язык глубже, чем когда-либо.
🧠 Что изменил BERT:
• Принёс в трансформеры стратегию «предобучение → дообучение»
• Учил модели понимать текст без ручной разметки
• Доказал, что язык можно моделировать через простые, но мощные задачи
🛠 Как устроено предобучение BERT:
🔹 MLM (Masked Language Model)
Модель случайно скрывает 15% слов в предложении и учится угадывать их, основываясь на окружающем контексте.
Примерно как человек, который понимает фразу, даже если не видит пару слов.
🔹 NSP (Next Sentence Prediction)
BERT также обучался распознавать, действительно ли второе предложение логически следует за первым.
Но…
⚡ Современные версии (NeoBERT, ModernBERT) отказываются от NSP — вместо него они используют более быстрые и эффективные подходы, чтобы добиться лучшей производительности.
🔍 Хотите узнать больше о BERT, его развитии и новой модели ConstBERT для поисковых задач?
👉 Читайте разбор здесь: https://turingpost.com/p/bert
🧠 Sakana AI представили Darwin Gödel Machine — саморазвивающийся ИИ, который переписывает собственный код
https://sakana.ai/dgm
Darwin Gödel Machine (DGM) — это новый тип интеллектуального агента, способного модифицировать и улучшать самого себя. В отличие от традиционных моделей, чьи возможности фиксированы после запуска, DGM задуман как эволюционирующий ИИ.
📌 Ключевая идея: поддержка «линейки вариантов» — разных версий агента, которые постепенно эволюционируют и исследуют пространство решений. Это позволяет системе улучшаться открыто и без ограничений, как это происходит в биологической эволюции.
📊 Результаты:
• На SWE-bench точность выросла с 20.0% до 50.0%
• На Polyglot — с 14.2% до 30.7%, заметно превзойдя hand-crafted baseline-агенты
🌱 Darwin Gödel Machine предлагает подход, при котором ИИ не просто обучается, а становится способным к собственному развитию и самокоррекции.
📄 Технический отчёт:
https://arxiv.org/abs/2505.22954
@data_analysis_ml
https://sakana.ai/dgm
Darwin Gödel Machine (DGM) — это новый тип интеллектуального агента, способного модифицировать и улучшать самого себя. В отличие от традиционных моделей, чьи возможности фиксированы после запуска, DGM задуман как эволюционирующий ИИ.
📌 Ключевая идея: поддержка «линейки вариантов» — разных версий агента, которые постепенно эволюционируют и исследуют пространство решений. Это позволяет системе улучшаться открыто и без ограничений, как это происходит в биологической эволюции.
📊 Результаты:
• На SWE-bench точность выросла с 20.0% до 50.0%
• На Polyglot — с 14.2% до 30.7%, заметно превзойдя hand-crafted baseline-агенты
🌱 Darwin Gödel Machine предлагает подход, при котором ИИ не просто обучается, а становится способным к собственному развитию и самокоррекции.
📄 Технический отчёт:
https://arxiv.org/abs/2505.22954
@data_analysis_ml
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Resemble AI открыли исходный код Chatterbox — передовой модели клонирования голоса нового поколения.
Chatterbox объединяет синтез речи (TTS) и voice conversion, позволяя не только генерировать, но и трансформировать голос.
📊 В слепом тестировании 63,75% слушателей выбрали Chatterbox вместо ElevenLabs.
⚡️ Модель распространяется бесплатно и с открытым исходным кодом под MIT-лицензией.
💻 Установка:
pip install chatterbox-tts
🔗 Полезные ссылки:
Демо-примеры: https://resemble-ai.github.io/chatterbox_demopage/
GitHub: https://github.com/resemble-ai/chatterbox
Hugging Face: https://huggingface.co/spaces/ResembleAI/Chatterbox
Статистика: https://podonos.com/resembleai/chatterbox
Chatterbox — альтернатива, которая звучит лучше, чем коммерческие аналоги.
@data_analysis_ml
Chatterbox объединяет синтез речи (TTS) и voice conversion, позволяя не только генерировать, но и трансформировать голос.
📊 В слепом тестировании 63,75% слушателей выбрали Chatterbox вместо ElevenLabs.
⚡️ Модель распространяется бесплатно и с открытым исходным кодом под MIT-лицензией.
💻 Установка:
pip install chatterbox-tts
🔗 Полезные ссылки:
Демо-примеры: https://resemble-ai.github.io/chatterbox_demopage/
GitHub: https://github.com/resemble-ai/chatterbox
Hugging Face: https://huggingface.co/spaces/ResembleAI/Chatterbox
Статистика: https://podonos.com/resembleai/chatterbox
Chatterbox — альтернатива, которая звучит лучше, чем коммерческие аналоги.
@data_analysis_ml
🧰 MCP Tools — универсальный CLI-инструмент для работы с MCP-серверами
Это настоящий швейцарский нож для взаимодействия с серверами, поддерживающими Model Context Protocol.
🔧 Возможности MCP Tools:
• 🔍 Автоматически находит и вызывает инструменты на MCP-серверах
• 📦 Получает доступ к ресурсам и использует их прямо из терминала
• 🧪 Создаёт мок-серверы для тестирования клиентских приложений
• 🧩 Проксирует MCP-запросы в shell-скрипты — легко расширяется
• 🖥 Открывает интерактивную оболочку для изучения MCP-серверов
• 🚀 Генерирует шаблоны новых проектов с поддержкой TypeScript
• 🧾 Поддерживает множество форматов вывода: JSON, таблицы, читабельный текст
• 🔐 Управляет доступом к отдельным инструментам и ресурсам
• 🌐 Работает с любыми транспортами: HTTP, stdio и другими
📎 MCP Tools объединяет мощь, гибкость и удобство в одном инструменте. Идеально подходит для разработчиков, работающих с LLM-инфраструктурой и AI-интерфейсами.
🖥 Github
@data_analysis_ml
Это настоящий швейцарский нож для взаимодействия с серверами, поддерживающими Model Context Protocol.
🔧 Возможности MCP Tools:
• 🔍 Автоматически находит и вызывает инструменты на MCP-серверах
• 📦 Получает доступ к ресурсам и использует их прямо из терминала
• 🧪 Создаёт мок-серверы для тестирования клиентских приложений
• 🧩 Проксирует MCP-запросы в shell-скрипты — легко расширяется
• 🖥 Открывает интерактивную оболочку для изучения MCP-серверов
• 🚀 Генерирует шаблоны новых проектов с поддержкой TypeScript
• 🧾 Поддерживает множество форматов вывода: JSON, таблицы, читабельный текст
• 🔐 Управляет доступом к отдельным инструментам и ресурсам
• 🌐 Работает с любыми транспортами: HTTP, stdio и другими
📎 MCP Tools объединяет мощь, гибкость и удобство в одном инструменте. Идеально подходит для разработчиков, работающих с LLM-инфраструктурой и AI-интерфейсами.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🏸 Робот, который играет в бадминтон — и делает это всерьёз
Учёные научили четвероногого робота играть в бадминтон. Не просто двигаться — а видеть волан, рассчитывать траекторию, подходить к мячу и точно отбивать его. Всё это в реальном времени, в движении, на настоящей площадке.
🔬 Как это работает:
- 🤖 Reinforcement Learning — робот учится на собственных ошибках
- 👁 Компьютерное зрение — отслеживание волана даже с шумами, как в реальных камерах
- 🧠 Модель предсказания траектории — чтобы "читать" мяч как опытный игрок
- 🦿 Координация движения ног и руки — не падать и успевать отбивать
💥 Что получилось:
Робот реально может играть против человека. Он не просто двигается — он принимает решения, адаптируется и бьёт по мячу в прыжке.
Это не анимация. Это реальный робот. И он уже работает.
@data_analysis_ml
Учёные научили четвероногого робота играть в бадминтон. Не просто двигаться — а видеть волан, рассчитывать траекторию, подходить к мячу и точно отбивать его. Всё это в реальном времени, в движении, на настоящей площадке.
🔬 Как это работает:
- 🤖 Reinforcement Learning — робот учится на собственных ошибках
- 👁 Компьютерное зрение — отслеживание волана даже с шумами, как в реальных камерах
- 🧠 Модель предсказания траектории — чтобы "читать" мяч как опытный игрок
- 🦿 Координация движения ног и руки — не падать и успевать отбивать
💥 Что получилось:
Робот реально может играть против человека. Он не просто двигается — он принимает решения, адаптируется и бьёт по мячу в прыжке.
Это не анимация. Это реальный робот. И он уже работает.
@data_analysis_ml
MCP (Model Context Protocol) меняет то, как ИИ-модели и агенты взаимодействуют с инструментами.
1. Agentset MCP
🔗 https://github.com/agentset-ai/mcp-server
Быстрое создание интеллектуальных приложений на основе документов (RAG) с open-source платформой Agentset.
2. GitHub MCP Server
🔗 https://github.com/github/github-mcp-server
Интеграция с API GitHub — можно строить ИИ-инструменты, работающие с экосистемой GitHub.
3. arXiv MCP
🔗 https://github.com/andybrandt/mcp-simple-arxiv
Работа с научными статьями arXiv: поиск, метаданные, аннотации, ссылки — всё через MCP.
4. MCP Run Python
🔗 https://github.com/pydantic/pydantic-ai/tree/main/mcp-run-python
Запуск Python-кода в песочнице через Pyodide (Deno). Полная изоляция от ОС.
5. Safe Local Python Executor
🔗 https://github.com/maxim-saplin/mcp_safe_local_python_executor
Безопасный локальный запуск Python-кода, сгенерированного LLM, через LocalPythonExecutor (от smolagents).
6. Cursor MCP Installer
🔗 https://github.com/matthewdcage/cursor-mcp-installer
Автоматическое добавление MCP-серверов в редактор Cursor — удобно для разработчиков.
7. Basic Memory
🔗 https://memory.basicmachines.co/docs/introduction
Система управления знаниями: создаёт устойчивый семантический граф из диалогов ИИ-агентов.
8. Filesystem MCP Server
🔗 https://github.com/modelcontextprotocol/servers/tree/HEAD/src/filesystem
Чтение, запись, поиск файлов, создание, удаление и перемещение директорий — всё через MCP.
9. Notion MCP Server
🔗 https://github.com/makenotion/notion-mcp-server
Позволяет моделям управлять вашим рабочим пространством в Notion: поиск, чтение, создание и обновление страниц и баз.
10. Markdownify MCP Server
🔗 https://github.com/zcaceres/markdownify-mcp
Конвертирует PDF, изображения, аудио и веб-страницы в Markdown.
11. Fetch MCP Server
🔗 https://github.com/modelcontextprotocol/servers/tree/main/src/fetch
Позволяет LLM извлекать данные с веб-страниц и автоматически преобразовывать HTML в Markdown.
12. Mobile Next MCP Server
🔗 https://github.com/mobile-next/mobile-mcp
Взаимодействие с iOS/Android-приложениями: распознавание UI по скриншотам, автоматизация кликов.
13. MCP Installer
🔗 https://github.com/anaisbetts/mcp-installer
Шутливо, но по делу: «MCP для установки MCP». Модель сама ставит MCP-серверы из npm и PyPi по вашему запросу.
🧠 Вывод:
MCP-серверы — это мост между LLM и реальными действиями: код, браузер, мобильные приложения, знания, GitHub, файлы.
Их можно комбинировать в цепочки, расширять ассистентов, строить автономные агенты.
@data_analysis_ml
#ml #ai #MCP
Please open Telegram to view this post
VIEW IN TELEGRAM
📄 ColQwen2: поиск по документам с учётом визуального оформления
ColQwen2 — это модифицированная версия модели ColPali, предназначенная для поиска документов по их визуальным признакам, а не только по тексту.
🔧 Как работает:
• Каждая страница обрабатывается как изображение
• Используется Qwen2-VL для извлечения не только текста, но и таблиц, графиков, макета
• Создаются мультивекторные эмбеддинги
• Поиск основан на сравнении этих векторов (late interaction)
📌 Зачем это нужно:
Такой подход помогает точнее находить нужные документы — особенно если они содержат сложную структуру, таблицы или нестандартный формат.
Подходит для:
– PDF-файлов
– Отсканированных документов
– Презентаций и отчётов с визуальными элементами
https://huggingface.co/docs/transformers/main/en/model_doc/colqwen2
@data_analysis_ml
#Qwen
ColQwen2 — это модифицированная версия модели ColPali, предназначенная для поиска документов по их визуальным признакам, а не только по тексту.
🔧 Как работает:
• Каждая страница обрабатывается как изображение
• Используется Qwen2-VL для извлечения не только текста, но и таблиц, графиков, макета
• Создаются мультивекторные эмбеддинги
• Поиск основан на сравнении этих векторов (late interaction)
📌 Зачем это нужно:
Такой подход помогает точнее находить нужные документы — особенно если они содержат сложную структуру, таблицы или нестандартный формат.
Подходит для:
– PDF-файлов
– Отсканированных документов
– Презентаций и отчётов с визуальными элементами
https://huggingface.co/docs/transformers/main/en/model_doc/colqwen2
@data_analysis_ml
#Qwen
🎥 Video-XL-2 — модель для понимании длинных видео
Многие модели хорошо справляются с бенчмарками, но начинают "захлёбываться", когда ролики становятся длиннее. Video-XL-2 создана, чтобы работать быстро и эффективно с длинными видео, не теряя в качестве.
🔑 Ключевые особенности:
• ⚡ Высокая скорость + низкое потребление памяти
• 🎯 SOTA-показатели среди open-source моделей с аналогичным размером
• 🔁 Поддержка до 10 000+ кадров на одной GPU
• 🧩 Инновации в архитектуре: chunk-based pre-filling и выборочное KV-декодирование
📊 Результаты на бенчмарках:
• MLVU — 74.9
• VideoMME — 66.4
• LVBench — 48.6
При этом модель использует меньше FLOPs, чем конкуренты, даже на больших входных данных — это говорит об отличной энергоэффективности.
🧪 Хорошо справляется с задачами:
– Понимание длинных видеороликов
– Поиск по видео
– Временная локализация событий (Temporal Grounding)
📎 Подробнее и демо
@data_analysis_ml
#AI #VideoUnderstanding #ML #LLM #Multimodal #BAAI
Многие модели хорошо справляются с бенчмарками, но начинают "захлёбываться", когда ролики становятся длиннее. Video-XL-2 создана, чтобы работать быстро и эффективно с длинными видео, не теряя в качестве.
🔑 Ключевые особенности:
• ⚡ Высокая скорость + низкое потребление памяти
• 🎯 SOTA-показатели среди open-source моделей с аналогичным размером
• 🔁 Поддержка до 10 000+ кадров на одной GPU
• 🧩 Инновации в архитектуре: chunk-based pre-filling и выборочное KV-декодирование
📊 Результаты на бенчмарках:
• MLVU — 74.9
• VideoMME — 66.4
• LVBench — 48.6
При этом модель использует меньше FLOPs, чем конкуренты, даже на больших входных данных — это говорит об отличной энергоэффективности.
🧪 Хорошо справляется с задачами:
– Понимание длинных видеороликов
– Поиск по видео
– Временная локализация событий (Temporal Grounding)
📎 Подробнее и демо
@data_analysis_ml
#AI #VideoUnderstanding #ML #LLM #Multimodal #BAAI
Сейчас каждая компания собирает тонны данных: продажи, клиенты, маркетинг, логистика. Но сырые цифры бесполезны, если их нельзя превратить в понятные отчёты и выводы.
Приглашаем вас на вебинар 3 июня в 18:30 по МСК, где наш новый спикер — Владислав Вареник, Data Engineer в Сравни.ру — расскажет кто такие дата-инженеры и как они ускоряют работу бизнеса.
Что вы узнаете на вебинаре?
Даже если вы далеки от аналитики — покажем, как начать с нуля и быстро получить результат. Не упустите шанс научиться тому, что будет цениться ещё десятки лет! 🚀
🕗 Встречаемся 3 июня в 18:30 по МСК
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 DataTune — простой способ оптимизировать датасеты для ИИ
Это инструмент с открытым исходным кодом, который помогает улучшать качество датасетов для обучения LLM и других моделей.
Что делает DataTune:
▪ Автоматически находит и удаляет дубликаты
▪ Фильтрует нерелевантные, шумные и некачественные примеры
▪ Сортирует данные по «ценности» — оставляя то, что реально важно
▪ Работает с любыми текстовыми коллекциями (JSONL, TXT, HuggingFace Datasets)
🛠 Основан на embedding-моделях — сравнивает смысловую близость и уникальность примеров. Подходит для:
• Fine-tuning LLM
• Подготовки eval-наборов
• Фильтрации перед RAG
📦 Установка:
https://github.com/vitalops/datatune
@data_analysis_ml
Это инструмент с открытым исходным кодом, который помогает улучшать качество датасетов для обучения LLM и других моделей.
Что делает DataTune:
▪ Автоматически находит и удаляет дубликаты
▪ Фильтрует нерелевантные, шумные и некачественные примеры
▪ Сортирует данные по «ценности» — оставляя то, что реально важно
▪ Работает с любыми текстовыми коллекциями (JSONL, TXT, HuggingFace Datasets)
🛠 Основан на embedding-моделях — сравнивает смысловую близость и уникальность примеров. Подходит для:
• Fine-tuning LLM
• Подготовки eval-наборов
• Фильтрации перед RAG
📦 Установка:
pip install datatune
https://github.com/vitalops/datatune
@data_analysis_ml
Вы когда-нибудь задумывались о том, что с помощью ИИ можно значительно ускорить время, затрачиваемое на поиск информации и повысить точность бизнес-решений? На вебинаре “LLM и RAG в действии: как ИИ уже помогает бизнесу работать эффективнее” мы покажем конкретные кейсы, включая реализованный проект внутри компании DSSL. А также:
1. Разберём, чем RAG отличается от fine-tuning.
2. Какие архитектуры применяются, и что выбрать для себя — облако или on-prem.
3. Как интегрировать AI-ассистента с Вашими системами и повысить эффективность исследований.
Вебинар будет полезен тем, кто ищет практическое применение ИИ в компании уже сегодня.
📅 5 июня в 14:00 по Москве
➡️ Зарегистрироваться
А еще все слушатели вебинара получат запись и презентацию выступающего, которые можно использовать в работе!
Реклама. ООО "ДССЛ-ПЕРВЫЙ". ИНН 7701081730. erid: 2W5zFHrRukc
1. Разберём, чем RAG отличается от fine-tuning.
2. Какие архитектуры применяются, и что выбрать для себя — облако или on-prem.
3. Как интегрировать AI-ассистента с Вашими системами и повысить эффективность исследований.
Вебинар будет полезен тем, кто ищет практическое применение ИИ в компании уже сегодня.
📅 5 июня в 14:00 по Москве
➡️ Зарегистрироваться
А еще все слушатели вебинара получат запись и презентацию выступающего, которые можно использовать в работе!
Реклама. ООО "ДССЛ-ПЕРВЫЙ". ИНН 7701081730. erid: 2W5zFHrRukc
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Cua — лёгкий open-source агентный фреймворк на Python
Cua — это минималистичный Python-фреймворк для создания LLM-агентов, ориентированный на простоту, прозрачность и модульность. Название «Cua» расшифровывается как Composable Universal Agents.
📦 Особенности:
• Всего ~1,000 строк кода — легко читать, расширять и встраивать
• Поддержка OpenAI, Anthropic, Mistral и других LLM-провайдеров
• Нативные компоненты: агент, память, инструменты, цепочки
• Интерфейс совместим с
🚀 Что можно делать:
• Создавать собственных агентов и наделять их инструментами
• Интегрировать внешние API и базы данных
• Вести диалоги, обрабатывать документы, выполнять цепочки задач
• Быстро запускать эксперименты с собственными LLM-пайплайнами
🛠 Примеры в репозитории:
- Агент с памятью и функцией поиска
- Диалоговый бот с цепочкой инструкций
- Генерация кода на основе естественного языка
- Интеграция с HuggingFace и другими API
📚 Для кого подойдёт:
• Тем, кто ищет простой аналог LangChain
• Исследователям, которым нужно прозрачное поведение без «магии»
• Разработчикам, экспериментирующим с LLM-агентами
🔗 GitHub
Cua — это минималистичный Python-фреймворк для создания LLM-агентов, ориентированный на простоту, прозрачность и модульность. Название «Cua» расшифровывается как Composable Universal Agents.
📦 Особенности:
• Всего ~1,000 строк кода — легко читать, расширять и встраивать
• Поддержка OpenAI, Anthropic, Mistral и других LLM-провайдеров
• Нативные компоненты: агент, память, инструменты, цепочки
• Интерфейс совместим с
langchain
и autogen
, но гораздо проще🚀 Что можно делать:
• Создавать собственных агентов и наделять их инструментами
• Интегрировать внешние API и базы данных
• Вести диалоги, обрабатывать документы, выполнять цепочки задач
• Быстро запускать эксперименты с собственными LLM-пайплайнами
🛠 Примеры в репозитории:
- Агент с памятью и функцией поиска
- Диалоговый бот с цепочкой инструкций
- Генерация кода на основе естественного языка
- Интеграция с HuggingFace и другими API
📚 Для кого подойдёт:
• Тем, кто ищет простой аналог LangChain
• Исследователям, которым нужно прозрачное поведение без «магии»
• Разработчикам, экспериментирующим с LLM-агентами
🔗 GitHub