Atlassian запустил Remote MCP Server для интеграции с Claude и другими AI-инструментами
Atlassian выпустил в бете Remote MCP Server, который позволяет использовать данные из Jira и Confluence прямо в Claude от Anthropic.
Теперь можно создавать задачи, страницы и выполнять многошаговые действия без переключения контекста.
Сервер работает на базе Cloudflare и поддерживает все необходимые средства безопасности.
В планах — поддержка других AI-партнеров.
Atlassian выпустил в бете Remote MCP Server, который позволяет использовать данные из Jira и Confluence прямо в Claude от Anthropic.
Теперь можно создавать задачи, страницы и выполнять многошаговые действия без переключения контекста.
Сервер работает на базе Cloudflare и поддерживает все необходимые средства безопасности.
В планах — поддержка других AI-партнеров.
Work Life by Atlassian
Introducing Atlassian’s Remote Model Context Protocol (MCP) Server
Introducing Atlassian’s Remote MCP server. Jira and Confluence Cloud customers can interact with their data directly from Claude, Anthropic’s AI assistant.
https://mem0.ai/
https://github.com/mem0ai/mem0
https://github.com/mem0ai/mem0
Mem0 - это программный слой памяти для приложений на базе больших языковых моделей (LLM, например, OpenAI GPT, Claude и др.). Его задача - давать ИИ возможность "помнить" прошлые взаимодействия с пользователем, учитывать их в будущих ответах и делать работу ИИ более персонализированной, эффективной и дешёвой.
Ключевые возможности Mem0:
Запоминает предпочтения пользователя - ИИ может помнить ваши вкусы, пожелания, прошлые вопросы и использовать это для более точных и полезных ответов.
Улучшает качество диалогов - ИИ не будет задавать одни и те же вопросы, а будет опираться на уже известную информацию.
Снижает расходы - Mem0 фильтрует данные и отправляет в LLM только самое важное, экономя до 80% затрат на обработку.
Лёгкая интеграция - Подключается к существующим ИИ-приложениям через API, поддерживает разные языки программирования.
Гибкость - Есть облачный сервис (управляемое решение) и open-source версия для самостоятельного размещения и полной кастомизации.
Примеры использования:
Чат-боты поддержки - помнят обращения клиентов, ускоряют решение проблем.
Персональные ИИ-ассистенты - запоминают ваши привычки и делают общение более "человечным".
AI-агенты - становятся умнее с каждым взаимодействием.
E-commerce - персонализированные рекомендации товаров.
Выводы
Mem0 - это "память" для ИИ, которая делает его более умным, персонализированным и экономичным.
Решение востребовано среди разработчиков, так как легко интегрируется и реально улучшает качество работы ИИ-продуктов.
Mem0 подходит для любых задач, где важно помнить контекст: поддержка клиентов, персональные помощники, рекомендации и др.
Есть два варианта внедрения: быстрое облачное решение и самостоятельная установка для максимального контроля.
Отзывы пользователей положительные - Mem0 помогает экономить время и деньги, делает ИИ-продукты более привлекательными для конечных пользователей.
Итог:
Mem0 - это современный инструмент для разработчиков, который позволяет ИИ "помнить" и использовать прошлый опыт для создания более качественного и персонализированного взаимодействия с людьми.
mem0.ai
Mem0 - The Memory Layer for your AI Apps
Mem0 enables AI apps to continuously learn from past user interactions, enhancing their intelligence and personalization.
🚀 Project NOVA — Networked Orchestration of Virtual Agents
Что это такое?
Project NOVA — это полностью open-source и self-hosted платформа, позволяющая развернуть экосистему ИИ‑ассистентов. В ядре стоит роутер-агент, который принимает запросы и перенаправляет их к одному из 25+ специализированных агентов, реализованных через n8n и MCP-серверы :contentReference[oaicite:0]{index=0}.
Основные особенности
- Централизованная маршрутизация запросов к нужному агенту
- Агенты для разных задач: управление знаниями, разработка, медиа и автоматизация
- Полностью работает локально: конфигурация через Docker и docker-compose
- Общение между агентами через n8n workflows и протокол MCP (Model Context Protocol)
- Есть примеры системных подсказок, Dockerfile и готовые потоки для быстрого старта :contentReference[oaicite:1]{index=1}
Как это работает
- В репозитории:
- Папка agents/ — системные промты для агентов
- mcp-server-dockerfiles/ — Docker-образы и конфиги для запуска серверов MCP
- n8n-workflows/ — экспорт потоков для n8n
- prompt-templates/ — шаблоны для автоматического создания новых агентов
- reference-guide/ — подробная документация и справочники :contentReference[oaicite:2]{index=2}
Примеры агентов
- Управление знаниями: TriliumNext, BookStack, SiYuan, Paperless-NGX и др.
- Разработка: CLI Server, Gitea, Forgejo, поиск по файловой системе
- Медиа: Ableton Copilot, OBS Studio, Reaper, YouTube (транскрипция)
- Автоматизация: веб-скрапинг (Puppeteer), RAGFlow, Flowise
- Умный дом: Home Assistant, Prometheus мониторинг :contentReference[oaicite:3]{index=3}
Начало работы
1. Установи n8n (версия ≥1.88.0) и MCP-клиент
2. Запусти MCP-сервера через Docker (конфиги в репозитории)
3. Импортируй потоки в n8n (через CLI или Web UI)
4. Настрой ключи API и подключи LLM (OpenAI, Claude, Gemini или локальные Ollama)
5. Запусти router workflow — и вводи вопросы в чат: NOVA сама маршрутизирует запросы :contentReference[oaicite:4]{index=4}
Зачем это нужно?
- 📚 Управление знаниями: попросить найти нужные заметки или документы
- 🎙 Медиа‑асистент: управлять Ableton или OBS через чат
- ⚙️ Автоматизация рутинных задач: скрипты, API, инфраструктура и умный дом
- 🔐 Локальный контроль и конфиденциальность — всё на своих серверах
Опыт сообщества
На Reddit отмечают:
> "NOVA — self‑hosted AI ecosystem… entirely self‑hostable, open-source, and privacy-focused" :contentReference[oaicite:5]{index=5}
📌GitHub: https://github.com/dujonwalker/project-nova
Что это такое?
Project NOVA — это полностью open-source и self-hosted платформа, позволяющая развернуть экосистему ИИ‑ассистентов. В ядре стоит роутер-агент, который принимает запросы и перенаправляет их к одному из 25+ специализированных агентов, реализованных через n8n и MCP-серверы :contentReference[oaicite:0]{index=0}.
Основные особенности
- Централизованная маршрутизация запросов к нужному агенту
- Агенты для разных задач: управление знаниями, разработка, медиа и автоматизация
- Полностью работает локально: конфигурация через Docker и docker-compose
- Общение между агентами через n8n workflows и протокол MCP (Model Context Protocol)
- Есть примеры системных подсказок, Dockerfile и готовые потоки для быстрого старта :contentReference[oaicite:1]{index=1}
Как это работает
- В репозитории:
- Папка agents/ — системные промты для агентов
- mcp-server-dockerfiles/ — Docker-образы и конфиги для запуска серверов MCP
- n8n-workflows/ — экспорт потоков для n8n
- prompt-templates/ — шаблоны для автоматического создания новых агентов
- reference-guide/ — подробная документация и справочники :contentReference[oaicite:2]{index=2}
Примеры агентов
- Управление знаниями: TriliumNext, BookStack, SiYuan, Paperless-NGX и др.
- Разработка: CLI Server, Gitea, Forgejo, поиск по файловой системе
- Медиа: Ableton Copilot, OBS Studio, Reaper, YouTube (транскрипция)
- Автоматизация: веб-скрапинг (Puppeteer), RAGFlow, Flowise
- Умный дом: Home Assistant, Prometheus мониторинг :contentReference[oaicite:3]{index=3}
Начало работы
1. Установи n8n (версия ≥1.88.0) и MCP-клиент
2. Запусти MCP-сервера через Docker (конфиги в репозитории)
3. Импортируй потоки в n8n (через CLI или Web UI)
4. Настрой ключи API и подключи LLM (OpenAI, Claude, Gemini или локальные Ollama)
5. Запусти router workflow — и вводи вопросы в чат: NOVA сама маршрутизирует запросы :contentReference[oaicite:4]{index=4}
Зачем это нужно?
- 📚 Управление знаниями: попросить найти нужные заметки или документы
- 🎙 Медиа‑асистент: управлять Ableton или OBS через чат
- ⚙️ Автоматизация рутинных задач: скрипты, API, инфраструктура и умный дом
- 🔐 Локальный контроль и конфиденциальность — всё на своих серверах
Опыт сообщества
На Reddit отмечают:
> "NOVA — self‑hosted AI ecosystem… entirely self‑hostable, open-source, and privacy-focused" :contentReference[oaicite:5]{index=5}
📌GitHub: https://github.com/dujonwalker/project-nova
GitHub
GitHub - dujonwalker/project-nova: A multi-agent AI architecture that connects 25+ specialized agents through n8n and MCP servers.…
A multi-agent AI architecture that connects 25+ specialized agents through n8n and MCP servers. Project NOVA routes requests to domain-specific experts, enabling control of applications from knowle...
В системе «1С:Предприятие» реализована возможность выступать в роли WebSocket-клиента. В этой роли может выступать тонкий, толстый, веб-клиенты и сервер системы «1С:Предприятие».
Создание WebSocket-клиентов возможно в ветке Общие - WebSocket-клиенты дерева объектов конфигурации.
Реализованы свойства глобального контекста WebSocketКлиентСоединения и WebSocketКлиенты.
Источник: https://dl05.1c.ru/content/Platform/8_3_27_1559/1cv8upd_8_3_27_1559.htm#243a0257-0956-11ef-963f-0050569f678a
Llama Nemotron Nano VL от NVIDIA — один из лучших OCR инструментов для работы с документами.
Мультимодальная модель от NVIDIA уверенно занимает первое место на OCRBench v2, показав лучшую точность парсинга документов среди всех моделей.
Что это такое:
Llama Nemotron Nano VL — лёгкая vision-language модель для интеллектуальной обработки документов (IDP), которая:
• разбирает PDF
• вытаскивает таблицы
• парсит графики и диаграммы
• работает на одной GPU
Заточена под:
– Вопрос-ответ по документам
– Извлечение таблиц
– Анализ графиков
– Понимание диаграмм и дешбордов
Под капотом — vision-энкодер C-RADIO v2 (distilled multi-teacher трансформер), который справляется даже с визуальным шумом и высоким разрешением.
OCRBench v2 — крупнейший двухъязычный бенчмарк для визуального анализа текста, и именно NVIDIA Nano VL показывает лучший результат.
Мультимодальная модель от NVIDIA уверенно занимает первое место на OCRBench v2, показав лучшую точность парсинга документов среди всех моделей.
Что это такое:
Llama Nemotron Nano VL — лёгкая vision-language модель для интеллектуальной обработки документов (IDP), которая:
• разбирает PDF
• вытаскивает таблицы
• парсит графики и диаграммы
• работает на одной GPU
Заточена под:
– Вопрос-ответ по документам
– Извлечение таблиц
– Анализ графиков
– Понимание диаграмм и дешбордов
Под капотом — vision-энкодер C-RADIO v2 (distilled multi-teacher трансформер), который справляется даже с визуальным шумом и высоким разрешением.
OCRBench v2 — крупнейший двухъязычный бенчмарк для визуального анализа текста, и именно NVIDIA Nano VL показывает лучший результат.
NVIDIA NIM
llama-3.1-nemotron-nano-vl-8b-v1 Model by NVIDIA | NVIDIA NIM
Multi-modal vision-language model that understands text/img and creates informative responses
Forwarded from IT Does Matter
Ну теперь кажется всё. С существующими MCP для Language Server оно не взлетело. С Курсора ошибки читать не хочет. Пришлось костылить свой. Итого: MCP для поиска по метаданным + MCP Для поиска по коду + MCP для синтаксис проверок + извлечь справку из 1С и закинуть в Docs. После этого курсор начинает (да и что угодно вцелом) более мене прилично работать для 1С кода. Ну если не забывать ещё cursorrules правильные и для чего то крупного сначала plan использовать. Осталось оформить в докер или интерфейс и видосики записать. Так что скоро в канале будут ништячки.