Заметки LLM-энтузиаста
523 subscribers
146 photos
17 videos
1 file
177 links
Дмитрий Жечков @djdim
архитектор в Yandex Cloud,
ex. VMware NSX specialist, ex. Cisco SE

Здесь пишу свои заметки по LLM (большим языковым моделям) и AI-разработке.

Это личное мнение и не отражает официальную позицию компании, в которой я работаю.
Download Telegram
#cursor #extension #specstory #history #tracking

🚀 SpecStory: Все AI-чаты c Cursor агентом теперь сохраняются автоматически!

Привет, друзья! 👋

Сегодня хочу поделиться находкой, которая поможет улучшить ваш рабочий процесс в Cursor Editor.

Я думаю, что у многих периодически возникала необходимость сохранить весь диалог с Cursor агентом в текстовый файл (для формирования истории классных идей, работающих промптов, чтобы поделиться с другом, собрать свою базу знаний и т.д.)

🧠 Что такое SpecStory?

SpecStory — это расширение для Cursor, которое автоматически сохраняет все ваши чаты с Cursor AI-агентом. Представьте: больше никаких потерянных гениальных решений или забытых подсказок!

Это может стать отличным дополнением к трекингу изменений проекта в качестве оригинальной первичной информации.

Главные возможности:

🪄 Автосохранение чатов — вся история чата сохраняется локально в папке .specstory/history

Далее идут фичи, которые есть в интерфейсе, но мне не удалось заставить их работать (если кому-то удастся, напишите, пожалуйста, в комментариях!):

📝 Ручное сохранение избранных моментов — выбирайте только нужные диалоги (функция заявлена, но, по-моему, еще не работает, и гранулярность настройки — с точностью до чата, выбрать конкретный "эпизод" общения с Cursor агентом внутри чата не получится)

🌟 Простое создание ссылок для шеринга — делитесь историей AI-чата с Cursor анонимно (функция заявлена, но пока не работает, ссылка генерируется, но не открывается, даже если добавить сайт share.specstory.com в Trusted Domain внутри Cursor)

🛠 Как установить:
• Убедитесь, что у вас последняя версия Cursor
• Скачайте файл расширения: specstory-vscode-latest.vsix
• Откройте Command Palette (Ctrl/CMD-Shift-P) и выберите Extensions: Install from VSIX…
• Выберите скачанный файл
• Готово! 🎉
(Источник здесь)

💡 Как использовать:

• Автосохранение работает сразу после установки

• Для ручного сохранения: Command Palette → SpecStory: Save Composer and Chat History (непонятно зачем, так как любой новый чат будет сохранен автоматически, даже если вы его удалите — он все равно заново появится в папке .specstory/history)

• Для шеринга: Command Palette → SpecStory: Share Composer and Chat History (как уже писал выше, мне не удалось заставить эту фичу работать)

• Можно в новом чате при желании ссылаться на контент предыдущих чатов: используйте @ упоминания в новых сессиях, чтобы Cursor AI-агент мог обращаться к вашим предыдущим чатам как к базе знаний!

🤔 Почему это круто?

• Представьте, что вы можете вернуться к любому чату с Cursor AI-агентом многомесячной давности и найти то гениальное решение, которое уже забыли, или поделиться своим процессом решения сложной задачи с коллегой.

• Можно пойти еще дальше и начать строить на базе своих сессий общения с Cursor агентом персонального ИИ-ассистента, который будет "знать" про все лайфхаки, которые вы обнаружили за все время работы с Cursor, и использовать его при написании кода.

#CursorEditor #AITools #SpecStory #Программирование

Источники:
https://docs.specstory.com/introduction
https://docs.specstory.com/features
https://docs.specstory.com/quickstart
👍4❤‍🔥31🔥1
Media is too big
VIEW IN TELEGRAM
Что такое OpenMemory MCP Server?

OpenMemory MCP Server — это локальная инфраструктура памяти, которая позволяет вашим AI-ассистентам "помнить" контекст при переключении между разными приложениями. Вся информация хранится локально на вашем компьютере, без отправки данных в облако.

По сути, это сервер, который создаёт единый слой памяти для всех ваших MCP-совместимых инструментов. Звучит впечатляюще, хотя на практике это просто означает, что вам не придётся повторять одни и те же инструкции в разных AI-приложениях.

Как это работает?

OpenMemory построен на основе Model Context Protocol (MCP) и предоставляет стандартный набор инструментов для работы с памятью:

add_memories: Сохранение новых объектов памяти
search_memory: Поиск релевантных воспоминаний
list_memories: Просмотр всей сохранённой памяти
delete_all_memories: Полная очистка памяти

Любой MCP-совместимый инструмент может подключиться к серверу и использовать эти API.

Что это даёт на практике?

1️⃣ Доступ к памяти между разными клиентами: сохраните контекст в Cursor и используйте его позже в Claude или Windsurf.

2️⃣ Полностью локальное хранилище: вся память хранится на вашем компьютере, ничего не уходит в облако.

3️⃣ Единый интерфейс для управления памятью: встроенная панель управления OpenMemory позволяет просматривать, добавлять и удалять воспоминания (очень похоже на Memories в Windsurf, которые работают между сессиями, только здесь речь идет про работу между приложениями).

Поддерживаемые клиенты

OpenMemory MCP Server совместим с любым клиентом, поддерживающим Model Context Protocol:

• Cursor
• Claude Desktop
• Windsurf
• Cline и другие

По мере того как всё больше AI-систем будут поддерживать MCP, ваша локальная память станет ещё полезнее.

Установка и настройка

Установка OpenMemory довольно проста и занимает всего несколько минут:

# Клонируем репозиторий
git clone https://github.com/mem0ai/mem0.git
cd openmemory

# Создаём файл .env с ключом OpenAI
cd api
touch .env
echo "OPENAI_API_KEY=your_key_here" > .env

# Возвращаемся в корень проекта и собираем Docker-образы
cd ..
make build

# Запускаем все сервисы
make up

# Запускаем фронтенд
cp ui/.env.example ui/.env
make ui


Для подключения MCP-клиентов вам понадобится ваш ID пользователя:

whoami


Затем добавьте следующую конфигурацию в ваш MCP-клиент:

npx install-mcp i "http://localhost:8765/mcp/<mcp-client>/sse/<your-username>" --client <mcp-client>


Панель управления OpenMemory будет доступна по адресу: http://localhost:3000

Примеры использования

💻 Сценарий 1: Определите технические требования проекта в Claude Desktop, разрабатывайте в Cursor, отлаживайте в Windsurf — всё с общим контекстом через OpenMemory.

⚙️ Сценарий 2: Настройте предпочтительный стиль кода в одном инструменте, и при переключении на другой MCP-клиент эти настройки будут доступны.

📋 Сценарий 3: Сохраните важные детали проекта один раз, а затем получайте к ним доступ из любого совместимого AI-инструмента.

Заключение

OpenMemory MCP Server решает одну из основных проблем современных LLM-инструментов: потерю контекста при переключении между приложениями. Хотя идея интересная, остаётся вопрос, насколько широко будет распространяться поддержка MCP среди популярных AI-инструментов.

Если вы часто переключаетесь между разными AI-ассистентами и устали повторять одно и то же, возможно, стоит попробовать. Но будьте готовы к некоторым техническим сложностям при настройке.

Ссылки:
• GitHub проекта тут
• Официальная документация здесь
• Расширенная документация со схемами здесь

#AITools #openmemory #LocalPrivacy #mcp #AIAssistants
2👍1🔥1
Новые инструменты Replit Agent: веб-поиск, расширенное мышление и высокопроизводительный режим 🚀

Отличные новости для тех, кто как и я любит пользоваться Replit (много раз писал об этом инструменте для вайбкодинга, можно найти на канале по хэш-тегу #replit) для быстрого прототипирования стильных full-stack приложений.
Дизайн получается "из коробки" красивым, GUI работает "шустро", и можно спокойно добавлять бэкенд практически любой сложности (а не как в lovable или тем более bolt, которые сильно расчитывют на BaaS от Supabase), к тому же никаких проблем с деплоем - приложение разворачивается и публикуется парой кликов, и сразу мониторится.

Replit представил три новые функции для своего AI-агента, которые существенно расширяют возможности разработки приложений.

Веб-поиск 🔍


Агент теперь может самостоятельно искать информацию в интернете во время создания приложений. Вместо того чтобы вручную собирать данные и предоставлять контекст, достаточно описать задачу — агент найдет необходимую информацию сам.

Примеры использования:
• Поиск актуальных библиотек и пакетов
• Создание образовательных материалов с актуальными данными
• Анализ конкурентов
• Поиск бесплатных источников данных

Расширенное мышление 🧠

Функция дает агенту больше времени на "размышления" и анализ задачи. Это приводит к более точным решениям с первого раза и лучшей обработке сложных случаев.

Высокопроизводительный режим ⚡️

Включает модель Claude Opus 4 с увеличенным контекстным окном и улучшенными возможностями рассуждения для решения сложных задач.

Важные особенности ⚠️

1️⃣ Обе функции (расширенное мышление и высокопроизводительный режим) увеличивают стоимость использования

2️⃣ Веб-поиск включен по умолчанию для новых проектов, но требует активации в настройках агента

3️⃣ Комбинация всех трех функций значительно повышает качество результатов и сокращает количество итераций

Практический результат 📈

Как утверждают разработчики Replit, сочетание этих инструментов превращает агента из "младшего разработчика" в более опытного помощника, способного решать сложные задачи самостоятельно с минимальным количеством правок. Очень хочется в это верить. И будем проверять. В прошлый раз при переходе на более сложную модель Claude 3.7 агентая цепочка Langgraph внутри Replit Agent работала хуже, чем на Claude 3.5.

@llm_notes

#replit #ai #webdev #coding #aitools
5👍41🔥1