Заметки LLM-энтузиаста
493 subscribers
132 photos
17 videos
1 file
163 links
Дмитрий Жечков @djdim
архитектор в Yandex Cloud,
ex. VMware NSX specialist, ex. Cisco SE

Здесь пишу свои заметки по LLM (большим языковым моделям) и AI-разработке.

Это личное мнение и не отражает официальную позицию компании, в которой я работаю.
Download Telegram
Media is too big
VIEW IN TELEGRAM
Что такое OpenMemory MCP Server?

OpenMemory MCP Server — это локальная инфраструктура памяти, которая позволяет вашим AI-ассистентам "помнить" контекст при переключении между разными приложениями. Вся информация хранится локально на вашем компьютере, без отправки данных в облако.

По сути, это сервер, который создаёт единый слой памяти для всех ваших MCP-совместимых инструментов. Звучит впечатляюще, хотя на практике это просто означает, что вам не придётся повторять одни и те же инструкции в разных AI-приложениях.

Как это работает?

OpenMemory построен на основе Model Context Protocol (MCP) и предоставляет стандартный набор инструментов для работы с памятью:

add_memories: Сохранение новых объектов памяти
search_memory: Поиск релевантных воспоминаний
list_memories: Просмотр всей сохранённой памяти
delete_all_memories: Полная очистка памяти

Любой MCP-совместимый инструмент может подключиться к серверу и использовать эти API.

Что это даёт на практике?

1️⃣ Доступ к памяти между разными клиентами: сохраните контекст в Cursor и используйте его позже в Claude или Windsurf.

2️⃣ Полностью локальное хранилище: вся память хранится на вашем компьютере, ничего не уходит в облако.

3️⃣ Единый интерфейс для управления памятью: встроенная панель управления OpenMemory позволяет просматривать, добавлять и удалять воспоминания (очень похоже на Memories в Windsurf, которые работают между сессиями, только здесь речь идет про работу между приложениями).

Поддерживаемые клиенты

OpenMemory MCP Server совместим с любым клиентом, поддерживающим Model Context Protocol:

• Cursor
• Claude Desktop
• Windsurf
• Cline и другие

По мере того как всё больше AI-систем будут поддерживать MCP, ваша локальная память станет ещё полезнее.

Установка и настройка

Установка OpenMemory довольно проста и занимает всего несколько минут:

# Клонируем репозиторий
git clone https://github.com/mem0ai/mem0.git
cd openmemory

# Создаём файл .env с ключом OpenAI
cd api
touch .env
echo "OPENAI_API_KEY=your_key_here" > .env

# Возвращаемся в корень проекта и собираем Docker-образы
cd ..
make build

# Запускаем все сервисы
make up

# Запускаем фронтенд
cp ui/.env.example ui/.env
make ui


Для подключения MCP-клиентов вам понадобится ваш ID пользователя:

whoami


Затем добавьте следующую конфигурацию в ваш MCP-клиент:

npx install-mcp i "http://localhost:8765/mcp/<mcp-client>/sse/<your-username>" --client <mcp-client>


Панель управления OpenMemory будет доступна по адресу: http://localhost:3000

Примеры использования

💻 Сценарий 1: Определите технические требования проекта в Claude Desktop, разрабатывайте в Cursor, отлаживайте в Windsurf — всё с общим контекстом через OpenMemory.

⚙️ Сценарий 2: Настройте предпочтительный стиль кода в одном инструменте, и при переключении на другой MCP-клиент эти настройки будут доступны.

📋 Сценарий 3: Сохраните важные детали проекта один раз, а затем получайте к ним доступ из любого совместимого AI-инструмента.

Заключение

OpenMemory MCP Server решает одну из основных проблем современных LLM-инструментов: потерю контекста при переключении между приложениями. Хотя идея интересная, остаётся вопрос, насколько широко будет распространяться поддержка MCP среди популярных AI-инструментов.

Если вы часто переключаетесь между разными AI-ассистентами и устали повторять одно и то же, возможно, стоит попробовать. Но будьте готовы к некоторым техническим сложностям при настройке.

Ссылки:
• GitHub проекта тут
• Официальная документация здесь
• Расширенная документация со схемами здесь

#AITools #openmemory #LocalPrivacy #mcp #AIAssistants
2👍1🔥1