Заметки LLM-энтузиаста
499 subscribers
132 photos
17 videos
1 file
163 links
Дмитрий Жечков @djdim
архитектор в Yandex Cloud,
ex. VMware NSX specialist, ex. Cisco SE

Здесь пишу свои заметки по LLM (большим языковым моделям) и AI-разработке.

Это личное мнение и не отражает официальную позицию компании, в которой я работаю.
Download Telegram
#ai #dev #news #vibecoding #lovable

Lovable 2.0: Новые возможности платформы 🚀

Команда Lovable представила значительное обновление своей платформы, которая позволяет создавать приложения и веб-сайты в режиме Vibe Coding. Версия 2.0 добавляет множество полезных функций, делающих процесс разработки более эффективным и удобным.

Ключевые обновления в Lovable 2.0 👀

1. Обновленный дизайн и интерфейс 💅 Как пишут разработчики: платформа получила современный визуальный стиль и более интуитивный интерфейс, который помогает сосредоточиться на творческом процессе.
Я не дизайнер и мне, если честно, предыдущая версия тоже нравилась, но и новая хороша :)

2. Командная работа 👨‍💻👩‍💻 Введены рабочие пространства для совместной работы:

• Pro-подписка: возможность приглашать до 2 человек в отдельные проекты
• Teams-подписка: до 20 пользователей в одном рабочем пространстве с разными уровнями доступа
• Общий пул кредитов для всех участников рабочего пространства

3. Улучшенный ИИ-ассистент 🧠 Новый режим чата стал значительно умнее и не вносит изменения в код напрямую. Он помогает:

• Отвечать на вопросы по проекту
• Планировать разработку
• Находить и исправлять ошибки

Ассистент самостоятельно определяет, когда нужно искать информацию в файлах, проверять логи или обращаться к базе данных.
Я думаю, что в сочетании со способностью делать непрерывный рефакторинг кода (lovable всегда предлагает его сделать когда размер какого-то файла с кодом начинает превышать 250 строчек, что и раньше позволяло доводить до успеха сложные проекты, такой фичи явно не хватает другому веб-кодеру bolt.new) это значительно улучшит и ускорит сходимость Vibe Coding процессов.

4. Проверка безопасности 🛡 Функция Security Scan автоматически выявляет уязвимости в приложении. Что с моей точки зрения очень актуально! И я пока еще не видел такого в других AI-кодерах. На данный момент работает с проектами, использующими Supabase. В будущем планируется расширение возможностей.

5. Режим разработчика (Dev Mode) ⌨️ Позволяет редактировать код проекта напрямую в Lovable — функция, которая уже получила положительные отзывы от пользователей.

6. Визуальное редактирование 🎨 Возможность визуально редактировать стили без необходимости писать CSS-код вручную. Функция стала еще более надежной и удобной.

7. Интеграция доменов 🌐 Покупка и подключение доменов теперь доступны непосредственно в Lovable. С момента внедрения этой функции подключено более 10 000 пользовательских доменов.

Обновление ценовой политики 💰

Компания упростила тарифные планы:

• Pro-план: начиная от $25 в месяц — для индивидуальных разработчиков
• Teams-план: от $30 в месяц — для команд, нуждающихся в общем рабочем пространстве

Планы на будущее 🔮

Команда Lovable отмечает, что это только начало нового этапа развития платформы. В ближайшие месяцы планируется сделать продукт еще более функциональным, безопасным и удобным в использовании.

Для тех, кто интересуется подробностями, команда Lovable проводит прямую трансляцию с ответами на вопросы. Основатель компании Антон и его команда будут рассказывать о новых возможностях и делиться планами на будущее.

#разработка_приложений #искусственный_интеллект #Lovable #новые_технологии
👍32🔥1
#lovable #battle #check

Lovable 2.0 - проверка "боем" !

На первом занятии курса по AI-программированию и агентам мы делали браузерную игру-шутер

Вот такой результат у меня получился при помощи Lovable предыдущей версии при подготовке к занятию
Причем данный результат был получен при количестве итераций > 10. И мои попытки добавить звук выстрела и фоновую музыку так и не увенчались успехом (требовалось подгрузить свои собственные mp3 файлы).

Поэтому на самом занятии мы использовали replit agent 2.0 (ранее писал о нем здесь), который позволил получить хороший результат практически сразу за пару минут, и дальнейшие 2-3 итерации были потрачены на небольшие улучшения.

А теперь сравните, пожалуйста, с результатом на Lovable 2.0, который я получил за несколько минут + 3 итерации по корректировке кнопок перемещения и коррекции заваливания горизонта.
Результат с моей точки зрения значительно лучше Lovable предыдущей версии и на уровне replit agent 2.0, а нападающие "монстры" "из коробки" получились даже более симпатичными.

Чего мне не хватило - фоновую музыку "из коробки" получить не удалось (в replit она появилась сразу, lovable 2.0 все таки запросил Для работы вам нужно добавить файл background-music.mp3 в папку public/ вашего проекта.)

Можете повторить подобный эксперимент самостоятельно. Исходный промпт здесь

Как можно сэкономить на lovable подписке и не только писал здесь
12👍2🔥1
#ai #agents #forlife #trip #planning #browser

🚀 Как я спланировал семейное путешествие с помощью ИИ-агентов

Привет, друзья! 🌍

Хочу поделиться лайфхаком, который сделал планирование семейного отпуска на майские праздники простым и интересным!

🤖 Этап 1: Планирование маршрута

Решил проверить, как современные ИИ-агенты справятся с задачей планирования семейного отдыха. У меня оставались кредиты на нескольких платформах, так что устроил небольшое соревнование:

genspark.ai 🏆 - составил подробную программу на 3 дня
perplexity.ai deep research 📝 - предложил план на 2 дня

Вот результаты:

https://www.genspark.ai/agents?id=02447c93-d4ba-45c9-a682-2a8bcc506cea

https://www.perplexity.ai/search/sostav-programmu-poseshcheniia-2He2wz1bRG2t0ucCxWy1BA

💡 Можно также использовать: gemini deep research, manus ai, suna.so, openai deep research, rtrvr.ai или AI-кодеры типа roo code/cline с MCP серверами (brave research, exa, perplexity, firecrawl и т.п.)

💻 Этап 2: Создание интерактивной версии плана поездки

Чтобы сделать наше путешествие еще удобнее, решил создать интерактивную веб-версию программы поездки, доступную всем членам семьи. Сравнил два ИИ веб-кодера:

bolt.new ⚡️ - сделал отличный сайт с первого раза без дополнительных пояснений
lovable.dev 🎨 - потребовал некоторых уточнений (хотя он лучше справляется со сложными проектами)

Результаты получились такие:

https://yar-trip.netlify.app/ (от bolt.new)

https://yaroslavl-family-adventure-guide.lovable.app/ (от lovable.dev)

🏆 Мой выбор для планирования семейных путешествий:

genspark.ai - как универсальный агент для составления плана поездки
bolt.new - для быстрой и красивой визуализации интерактивного плана поездки

Попробуйте сами - возможно это сэкономит и вам какое-то время и сделает подготовку к отпуску интересной! 🧳🌴

А вы уже использовали ИИ для планирования отдыха? Делитесь опытом в комментариях! 👇
🔥63👍3
#mcp #api #tools #ai #dev

🚀 6 инструментов для преобразования API в MCP-серверы

Привет, друзья! Сегодня делюсь полезной подборкой для разработчиков. Если вам нужно быстро адаптировать ваши API для работы с ИИ-агентами, эти инструменты сэкономят кучу времени 👇

1️⃣ FastAPI-MCP

Чуть выше писал об этом инструменте, здесь коротко повторюсь.
Позволяет преобразовать FastAPI end points в MCP-серверы одной строкой кода с нативной поддержкой аутентификации. Сохраняет все схемы и зависимости. Полностью с открытым исходным кодом.

2️⃣ RapidMCP

Преобразует REST API в MCP-сервер за считанные минуты без изменения кода. Просто подключите ваш API и преобразуйте его в MCP-сервер, готовый для работы с ИИ-агентами - без необходимости модификации бэкенда.
Есть платный и бесплатные тарифы.

3️⃣ MCPify

Позволяет создавать и разворачивайть MCP-серверы без написания ни единой строчки кода. Похож на Lovable/Bolt/V0 но для создания MCP-серверов. Поддерживает транспорт Streamable HTTP от MCP. Вы также можете делиться созданными MCP-серверами с другими пользователями на той же платформе.
Есть только платные тарифы.
Некоторым аналогом, но более широкого плана может являться Databutton (см. ниже)

4️⃣ Databutton MCP

Превратите любое Databutton-приложение в MCP-сервер одним кликом через настройки. Создавайте инструменты для ИИ так же, как API для вашего приложения, с возможностью добавления Python-документации для лучшего понимания агентом. Databutton размещает MCP-серверы онлайн, избавляя от необходимости локального запуска и позволяя легко интегрироваться с Claude Desktop и другими ИИ-ассистентами. Идеально подходит для создания инструментов для исследования, маркетинга и продаж.
Про Data Button писал в обзоре AI инструментов для Vibe Coding (оригинальный пост здесь)

5️⃣ Speakeasy

Генерирует MCP-серверы напрямую из документации OpenAPI с минимальным кодом. Создает TypeScript MCP-серверы с настраиваемыми описаниями инструментов и областями применения. На данный момент функциональность в Beta.

6️⃣ Higress от Alibaba

Преобразует спецификации OpenAPI в MCP-серверы одной командой. Инструмент openapi-to-mcp от Higress автоматически конвертирует документацию API в серверы с подробными шаблонами ответов. Развертывание без инфраструктуры. Полностью с открытым исходным кодом.

А какие инструменты используете вы? Делитесь в комментариях! 👇

#разработка #API #MCP #инструменты
4🔥3
Memory Bank: как сделать ИИ-кодера умнее и дешевле 🧠💰

Всем добрый вечер!

Хотел бы рассказать про крутую фишку для работы с ИИ-кодерами — Memory Bank.
Это система, которая делает Cline, RooCode, Cursor и другие ИИ-инструменты в разы эффективнее.
По сути, это развитие подхода авто-трекинга изменений проекта, о котором писал еще в начале года.

Что такое Memory Bank? 📁
Это набор markdown-файлов, которые ИИ-кодер автоматически создаёт и обновляет, чтобы "помнить" всё о вашем проекте между сессиями. Все это для того, чтобы у вашего ИИ-кодера появилась долговременная память!

Какие файлы создаются? 📋
Memory Bank состоит из 6 основных файлов:

projectbrief.md — основа проекта, цели и требования
productContext.md — для чего нужен продукт, какие проблемы решает
activeContext.md — над чем работаем сейчас, текущие задачи
systemPatterns.md — архитектура, технические решения
techContext.md — используемые технологии и зависимости
progress.md — что сделано, что осталось, известные проблемы

Зачем это нужно? 🤔

1️⃣ Экономия денег — не нужно держать огромные дорогие треды, где повторяется контекст

2️⃣ Экономия времени — не нужно каждый раз объяснять ИИ, что вы делаете

3️⃣ Лучшее качество кода — ИИ помнит все паттерны и решения проекта

4️⃣ Документация на автомате — получаете структурированную документацию как побочный эффект

Как настроить? ⚙️
1) Создайте папку memory-bank/ в корне проекта
2) Добавьте специальные инструкции в настройках ИИ-кодера:

• В Cline: Settings → Custom Instructions → вставьте инструкции
• В Cursor: создайте .cursor/rules/memory-bank.mdc

3) Напишите ИИ-кодеру: initialize memory bank

И всё! Теперь ваш ИИ будет автоматически поддерживать актуальную "память" о проекте.

Как использовать? 🚀
• Начинайте новые чаты с фразы follow your custom instructions
• Когда нужно обновить память, пишите update memory bank
• Используйте режимы Plan (планирование) и Act (реализация)

Особенно круто, что можно переключаться между разными ИИ-инструментами — они будут читать одни и те же файлы Memory Bank!

Мой опыт 💡
Я заметил, что с Memory Bank:
• Расход токенов снизился, примерно на треть
• ИИ стал делать меньше ошибок
• Не нужно постоянно напоминать контекст
• Появилась хорошая документация проекта

Попробуйте сами — это улучшает подход к работе с ИИ-кодерами!

Источники
Cline Memory Bank | Cline
Cline Memory Bank - Custom Instructions (GitHub)
How to add Cline Memory Bank feature to your cursor (Cursor Community Forum)
Roo Code Memory Bank (Github)

#ИИ #разработка #Cline #RooCode #Cursor #MemoryBank
🔥101
Управление задачами для AI-разработки: Task Master и Boomerang Mode

В мире AI-разработки и "vibe coding" (разработки с помощью AI-агентов) часто возникает проблема: вы просите AI внести небольшое изменение, но он нарушает работу всего проекта или создает множество ошибок из-за непонимания зависимостей в кодовой базе. Эта проблема характерна для всех AI-кодеров, независимо от платформы. Однако существует эффективное решение — системы управления задачами для AI-кодеров.

Что такое системы управления задачами для AI-кодеров?

Системы управления задачами для AI — это инструменты, которые помогают AI-агентам понимать общий план реализации проекта и контролировать объем контекста, используемый на каждом этапе разработки. Два наиболее популярных решения в этой области на данный момент — Task Master и Boomerang Mode.
Оба данных решения можно рассматривать как развитие подхода по авто-трекингу изменений, только с первоначальной декомпозицией PRD на задачи. PRD фиксирует целевые качества продукта, а система управления задачами генерирует implementation plan.

Task Master

Task Master — это система управления задачами для AI-разработки с Claude, разработанная Эялом Толедано (@eyaltoledano) и Ральфом Крейшем (@RalphEcom). Она предназначена для бесшовной интеграции с Cursor AI и другими AI-редакторами кода.

Зачем нужен Task Master?

1. Структурированный подход к разработке: Task Master разбивает сложные проекты на логически связанные подзадачи, учитывая зависимости между ними.
2. Контроль контекста: Решает проблему ограниченного контекстного окна AI, фокусируя его на конкретной задаче.
3. Снижение количества ошибок: По утверждениям некоторых пользователей, снижает количество ошибок при разработке на 90%.
4. Логическая последовательность: Гарантирует, что задачи выполняются в правильном порядке, учитывая их зависимости.

Как использовать Task Master

Согласно официальной документации Task Master, процесс использования выглядит следующим образом:

1. Установка: Как указано в README.md репозитория Task Master, установка производится через npm
2. Инициализация проекта: после установки необходимо инициализировать проект
3. Настройка окружения: В соответствии с документацией, необходимо создать файл .env на основе .env.example и добавить API-ключи: ANTHROPIC_API_KEY (обязательно), PERPLEXITY_API_KEY (опционально, для поисковых исследований)
4. Создание PRD (Product Requirements Document): разместите файл с описанием требований к вашему проекту в отдельной папке
5. Парсинг PRD и создание задач: делается Task Master'ом по запросу
6. Анализ сложности задач: делается Task Master'ом по запросу
7. Уточнение сложных задач: делается Task Master'ом по запросу
8. Просмотр (листинг) задач: делается Task Master'ом по запросу
9. Работа с AI-кодером: после выполнения всех предыдущих шагов и декомпозиции PRD на набор взаимосвязанных задач, попросите AI-кодировщик начать реализацию проекта на основе созданного при помощи Task Master плана.

Boomerang Mode для Roo Code

Boomerang Mode — это режим для Roo Code, который фокусируется на планировании и разбиении PRD на более мелкие управляемые части. Roo Code можно рассматривать как открытый аналог Cursor, который работает внутри Visual Studio Code.

Зачем нужен Boomerang Mode?

1. Авто-выбор режима работы: позволяет делегировать работу специализированным агентам (архитектор, кодер, отладчик).
2. Изолированный контекст: Каждая подзадача выполняется в своем собственном контексте (треде).
3. Отслеживание ресурсов: Показывает потребление токенов и общую стоимость API.
4. Гибкость: Позволяет создавать собственные режимы для различных задач.

Как настроить Boomerang Mode

• Сейчас это встроенный режим в Roo Code и называется Orchestrator Mode (ранее известный как Boomerang Mode)
• Работает внутри Visual Studio Code
• Оркестрирует рабочие процессы, разбивая задачи и делегируя их другим режимам
• Каждая подзадача выполняется в своем контексте
• Отслеживает потребление токенов и стоимость API
🔥4
Преимущества использования систем управления задачами для AI-кодеров

1. Значительное снижение ошибок: Некоторые пользователи сообщают о снижении количества ошибок на 90%.
2. Повышение производительности: Возможность создавать сложные приложения за один сеанс без постоянных корректировок.
3. Лучшее понимание проекта: AI получает четкое представление о структуре и зависимостях проекта.
4. Контроль над контекстом: Решение проблемы ограниченного контекстного окна AI.
5. Документирование процесса: Автоматическое создание документации о выполненных задачах.
6. Возможность возврата: При возникновении проблем можно легко вернуться к предыдущим задачам.

Базовая реализация для любого AI-агента по программированию

Если вы не хотите устанавливать специальные инструменты, вы можете создать простую систему управления задачами:
1. Создайте файл tasks.md в вашем проекте.
2. Добавьте правило для вашего AI-кодера всегда обращаться к этому файлу для отслеживания задач.
3. Попросите AI-кодер разбить ваш проект на небольшие задачи и добавить их в tasks.md
4. После выполнения каждой задачи AI-кодер должен отмечать ее как выполненную.
По большому счету Task Master и Boomerang Mode делают примерно то же самое, только чуть сложнее.

Заключение

Task Master и Boomerang Mode представляют собой мощные инструменты для повышения эффективности AI-разработки. Они решают ключевые проблемы, связанные с контекстом и структурированием задач, что приводит к значительному снижению количества ошибок и повышению производительности. По мере развития этих инструментов можно ожидать еще большего улучшения процесса AI-разработки в ближайшем будущем.

Независимо от того, используете ли вы Cursor, Roo Code, Windsurf или другие AI-редакторы кода, внедрение системы управления задачами может значительно улучшить ваш опыт разработки с помощью AI.

Источники:

GitHub: eyaltoledano/claude-task-master
Github: Boomerang-tasks

#AI #разработка #TaskMaster #RooCode #OrchestratorMode #AIcoding
🔥31
Cursor 0.48.x и 0.49.x: Что нового?

В двух предыдущих версиях Курсора вышли новые интересные фичи, которые имеет смысл активно использовать в проектах.

Cursor 0.49.x (15 апреля 2025)

1. Автоматическая генерация правил - создавайте правила прямо из чата с помощью команды /Generate Cursor Rules - наконец-то не обязательно подключать специальные библиотеки или "ходить" на https://cursor.directory/ за rules-промптами (хотя за MCP-серверами и трендовыми топиками туда заглядывать стоит)

2. Улучшенная история чатов - теперь доступна через командную палитру
3. Упрощенный просмотр изменений - встроенный diff-просмотр в конце каждого разговора с кнопкой Review changes
4. Изображения в MCP - теперь можно передавать изображения как часть контекста в MCP-серверах
5. Улучшенное управление терминалом - больше контроля над командами, запущенными агентом
6. Глобальные файлы игнорирования - настройка паттернов игнорирования на уровне пользователя
7. Новые модели - добавлены Gemini 2.5 Pro/Flash, Grok 3/Mini, GPT-4.1, o3 и o4-mini .
GPT-4.1 можно пробовать как замену claude-3.5/3.7 для кодинга, а o3 и o4-mini хороши для режима планирования проектов.

Cursor 0.48.x (23 марта 2025)

1. Вкладки чата - создавайте новые вкладки (⌘T) для параллельных разговоров
2. Встроенные режимы и пользовательские режимы - переработанная система режимов с возможностью создания собственных.
Наконец-то в Cursor появилось такое же богатство преднастроенных пользовательских режимов работы как в Roo Code и Cline :) Теперь мы можем настраивать пользовательские режимы для частых задач, например:
• Копирайтинг
• Создание PRD (документации требований к продукту)
• Рефакторинг кода
• Проектирование архитектуры приложения (Architect Mode)
Это расширяет возможности Cursor за пределы стандартных режимов Agent и Ask.

Что удобно, есть готовая библиотека примеров пользовательских режимов: https://playbooks.com/
Этот сайт - просто кладезь полезных инструментов, там можно найти:
• готовые пользовательские режимы (см. скриншот)
• builder правил для Cursor'а
• MCP серверы под разные задачи
• обучающие материалы по разработке с использованием ИИ.
Подробнее о функции можно узнать в официальной документации: https://docs.cursor.com/chat/custom-modes

3. Звуковые уведомления - опциональный звук при завершении чата
4. Улучшенное индексирование - значительно ускорена индексация похожих кодовых баз
5. Отображение стоимости - для моделей с оплатой по использованию теперь видна стоимость и разбивка по чатам
6. Новый процесс онбординга - упрощенный процесс начала работы с Cursor

Обе версии включают множество исправлений ошибок и улучшений производительности.
Поэтому обновляйтесь, чтобы получить доступ ко всем новым функциям!

#Cursor #IDE #AI #Обновление
🔥631
Alibaba выпускает Qwen3: новое семейство моделей ИИ на уровне топовых моделей OpenAI и xAI 🚀

Лаборатория Qwen AI от Alibaba представила новое семейство языковых моделей Qwen3 с открытыми весами!
Считается, что это настоящий прорыв, который ставит китайскую компанию в один ряд с лидерами индустрии.

Что в новинке? 💡

• Флагманская модель Qwen3-235B по производительности не уступает гигантам вроде OpenAI o1, Grok-3 и DeepSeek-R1 на ключевых бенчмарках
• Внедрена гибридная система "мышления" — можно выбирать между глубоким рассуждением или быстрыми ответами
• Улучшенные навыки программирования и агентные возможности
• Поддержка 119 языков (привет, полиглоты! 👋)

Линейка моделей 📊

Alibaba выпустила сразу 8 моделей — от легковесной версии с 600 млн параметров до полноценного монстра на 235 млрд. Причем даже малые модели показывают значительный прогресс по сравнению с предыдущими версиями.

Почему это важно? 🌍

Китай стремительно сокращает отставание в сфере ИИ, и сегодняшний релиз Qwen3 — яркое тому подтверждение. Все модели выпущены с открытыми весами под лицензией Apache 2.0 и доступны через Hugging Face или для локального/облачного развертывания.

Теперь все взгляды обращены на DeepSeek и их ожидаемый запуск R2. Гонка ИИ набирает обороты! 🏎

#ИИ #Alibaba #Qwen3 #ИскусственныйИнтеллект #ЯзыковыеМодели #OpenSource #ТехНовости
❤‍🔥4👍4🔥2
DeepSeek-Prover-V2: новый инструмент для автоматизации математических доказательств

Компания DeepSeek открыла исходный код инструмента для доказательства математических теорем — DeepSeek-Prover-V2.

Что представляет собой новая модель

DeepSeek-Prover-V2 — это специализированная языковая модель, разработанная для автоматического вывода и проверки математических теорем. Модель способна формализовать математические доказательства, что требует высокого уровня логического мышления, абстракции и точности.

Технические особенности

Ключевая особенность Prover-V2 — использование обучения с подкреплением (RL) для математических доказательств. Процесс работы модели включает несколько этапов:

• DeepSeek-V3 разбивает сложные проблемы на серию подцелей, формируя структуру доказательства
• Вспомогательная модель формализует доказательство каждой подцели с использованием языка Lean 4
• DeepSeek-V3 интегрирует формализованные подцели в полное доказательство

Этот подход позволяет объединить неформальные и формальные математические рассуждения в единой модели.

Результаты тестирования

По данным разработчиков, DeepSeek-Prover-V2 демонстрирует следующие показатели:

• Решает около 90% математических задач из набора miniF2F
• Справляется с 49 из 658 проблем на PutnamBench
• Способна решать задачи уровня AIME (Американская математическая олимпиада)

Доступные версии

Выпущены две версии модели:

DeepSeek-Prover-V2-671B — основана на DeepSeek-V3-Base
DeepSeek-Prover-V2-7B — базируется на DeepSeek-Prover-V1.5-Base с поддержкой контекста до 32K токенов

Обе модели доступны на Hugging Face и GitHub с соответствующей лицензией.

Значение для научного сообщества

Развитие моделей для автоматизации доказательств теорем может иметь значение для математических исследований, образования и решения сложных задач в различных областях науки, где требуется формальная верификация.

#DeepSeek #МатематическиеДоказательства #ИскусственныйИнтеллект
👍3
Работа с большими кодовыми базами в Cursor

Работа с крупными проектами требует особого подхода.
Если вы вдруг пропустили, то Cursor выпустили официальный документ, посвященный данной теме.

Ниже привожу мой краткий конспект ключевых стратегий, которые помогут вам эффективно управлять сложными кодовыми базами с помощью Cursor.

Используйте Chat для быстрого изучения незнакомого кода

Когда вы сталкиваетесь с новой кодовой базой, обычно приходится много искать и переходить между файлами. С функцией Chat в Cursor вы можете просто задавать вопросы, чтобы найти нужные части кода и получить подробные объяснения их работы.

Для улучшения понимания структуры вашего проекта включите опцию "Include Project Structure" в настройках Cursor (сейчас эта функция в Beta).

Создавайте предметно-ориентированные правила


Подумайте: какую информацию вы бы дали новому сотруднику, чтобы он мог быстрее начать работать с вашим кодом? Эта информация будет полезна и для Cursor.

Для каждой организации или проекта существуют неявные знания, которые могут быть не полностью отражены в документации. Использование правил — лучший способ убедиться, что Cursor получает полную картину.

Например, создавайте правила для:
• Шаблонов реализации новых функций или сервисов
• Стандартов форматирования кода
• Соглашений об именовании

Уделяйте повышенное внимание процессу создания общего плана проекта

Для масштабных изменений стоит потратить больше времени на создание точного, хорошо определенного плана. Это значительно улучшит результаты работы с Cursor.

Если вы не получаете желаемый результат после нескольких попыток, попробуйте отступить и создать более детальный план с нуля, как если бы вы писали техническое задание для коллеги.

Используйте режим Ask в Cursor для создания плана. Добавьте весь имеющийся контекст из систем управления проектами, внутренней документации или собственных мыслей.

Выбирайте правильный инструмент для решаемой задачи

Один из важнейших навыков эффективного использования Cursor — выбор подходящего инструмента:

Инструмент: Tab
Применение: Быстрые ручные изменения
Преимущества: Полный контроль, скорость
Ограничения: Только один файл

Инструмент: Cmd K
Применение: Локальные изменения в файле
Преимущества: Фокусированное редактирование
Ограничения: Только один файл

Инструмент: Chat
Применение: Крупные изменения в нескольких файлах
Преимущества: Автоматический сбор контекста, глубокое редактирование
Ограничения: Медленная работа, требует больше контекста

Основные выводы

• Разбивайте изменения на небольшие части
• Включайте релевантный контекст
• Используйте Chat, Cmd K и Tab по назначению
• Чаще создавайте новые чаты
• Планируйте с помощью режима Ask, реализуйте с помощью режима Agent

Источник: Cursor – Large Codebases https://docs.cursor.com/guides/advanced/large-codebases

#cursor #разработка #программирование #советы_разработчикам
👍4🙏3
n8nChat: Упрощаем автоматизацию с помощью ИИ

n8nChat — это помощник на базе искусственного интеллекта для платформы n8n, который значительно упрощает создание автоматизированных рабочих процессов. Давайте разберемся, что это такое и как он может быть полезен.

Что такое n8nChat?

Это расширение для Chrome и Firefox, которое позволяет общаться с платформой n8n на естественном языке. Вместо ручной настройки всех элементов, вы просто описываете, что хотите получить, а ИИ делает всю работу за вас.

Например, напишите: "Создай процесс, который берет новости из RSS-каналов, суммирует их и отправляет в телеграмм канал" — и через несколько минут после пары наводящих вопросов (нужно будет указать расписание рассылки, список RSS каналов откуда брать новости и id телеграмм канала куда сводку новостей отправлять) получите готовый рабочий процесс. Который, возможно, еще придется слегка оттраблшутить (см. скриншоты).

Основные возможности

• Создание рабочих процессов через обычный текст — опишите задачу своими словами, и n8nChat построит нужную последовательность действий
• Автоматическая генерация узлов — инструмент создает все необходимые компоненты с правильными настройками
• Улучшение и аудит существующих процессов — анализирует уже созданные рабочие процессы и предлагает оптимизации
• Помощь с JavaScript — даже без знания программирования вы сможете использовать сложные функции для обработки данных

Примеры задач, которые можно решить

• "Собирай новые заявки с сайта и отправляй их в CRM-систему"
• "Преобразуй данные из Excel в JSON и загрузи их в базу данных"
• "Создай процесс, который сортирует входящие письма по категориям и отправляет уведомления"
• "Настрой автоматическое создание учетных записей для новых сотрудников в разных системах"

Для кого это подойдет?

• Новичкам в n8n — быстрее освоите платформу и начнете создавать полезные автоматизации
• Разработчикам — сэкономите время на рутинных задачах и быстрее создадите сложные интеграции
• Бизнес-пользователям — сможете автоматизировать процессы без глубоких технических знаний
• IT-специалистам — быстро прототипируйте решения без необходимости помнить все параметры

Как начать использовать n8nChat?

1️⃣ Установите расширение для Chrome или Firefox

2️⃣ Введите API-ключ выбранного сервиса ИИ (пока поддерживается только OpenAI, но список моделей достаточно обширен)

3️⃣ Активируйте плагин на n8n странице с Workflow и опишите, что вы хотите автоматизировать

4️⃣ Наблюдайте, как создается ваш рабочий процесс и отвечайте на наводящие вопросы

Почему стоит попробовать n8nChat?

n8nChat делает автоматизацию доступной для всех. Он экономит время, снижает сложность и позволяет сосредоточиться на решении бизнес-задач, а не на технических деталях.

Создавайте сложные автоматизации за минуты вместо часов и используйте возможности n8n даже без глубоких технических знаний.

Источники:
• Официальный сайт: https://n8nchat.com

#автоматизация #n8n #искусственныйинтеллект #ИИ #продуктивность #разработка #nocode #lowcode #интеграции #расширениебраузера #workflow #n8nchat
🔥4👍21
Опасная уязвимость в Chrome-расширениях: доступ к MCP-серверам

Поговорим немного про безопасность в контексте MCP.
Исследователи из ExtensionTotal обнаружили серьезную уязвимость в экосистеме Chrome-расширений, позволяющую обойти защитную "песочницу" браузера. Проблема связана с Model Context Protocol (MCP) - протоколом, который используется для взаимодействия ИИ-агентов с системными инструментами.

Суть проблемы:
• Chrome-расширения могут без аутентификации подключаться к локальным MCP-серверам
• MCP-серверы по умолчанию не требуют аутентификации
• Через такое подключение расширение получает доступ к файловой системе и другим ресурсам

Последствия:
• Полный обход защитной "песочницы" Chrome
• Неограниченный доступ к файловой системе
• Возможность взаимодействия с приложениями (Slack, WhatsApp и др.)
• Потенциальный полный захват компьютера

Особенно тревожно то, что для эксплуатации этой уязвимости расширению не требуются специальные разрешения. Если на компьютере запущен уязвимый MCP-сервер, любое расширение может получить к нему доступ.

Рекомендуется пересмотреть политики безопасности при использовании MCP-серверов и внимательно следить за поведением установленных расширений.

Или как вариант не устанавливать MCP-серверы локально, а использовать внешние платформы хостинга MCP-серверов с аутентфикацией, например:
https://mcp.pipedream.com/
https://mcp.composio.dev/

#кибербезопасность #Chrome #уязвимости #MCP #ИИ #security
👍43🔥1
Это может быть интересно: похоже популярный ИИ-бенчмарк LMArena отдаёт преимущество именно крупным компаниям

Новое исследование от учёных Cohere Labs, MIT, Stanford и других институтов выявило, что LMArena — ведущий краудсорсинговый бенчмарк для оценки ИИ-моделей — создаёт несправедливые преимущества для технологических гигантов, что может искажать его широко известные рейтинги. 🧐

📊 Ключевые выводы исследования:

• Такие компании как Meta, Google и OpenAI тайно тестируют множество вариантов своих моделей на платформе, публикуя только лучшие результаты

• Модели от крупных лабораторий получают больше внимания: на Google и OpenAI приходится более 60% всех взаимодействий на платформе

• Доступ к данным Arena значительно повышает производительность моделей именно в задачах этой платформы, что указывает на переобучение, а не на реальное улучшение возможностей

• 205 моделей были тихо удалены с платформы, причём модели с открытым исходным кодом удаляются чаще других

💡 Почему это важно:

LMArena оспаривает выводы исследования, утверждая, что их рейтинг отражает реальные предпочтения пользователей. Однако подобные заявления могут серьезно подорвать доверие к платформе, которая формирует общественное восприятие ИИ-моделей.

В сочетании с недавним скандалом вокруг бенчмарка Llama 4 Maverick, это исследование подчеркивает важный факт: оценка ИИ-систем не всегда так объективна, как кажется на первый взгляд.

А вы доверяете популярным ИИ-бенчмаркам? Делитесь мнением в комментариях! 👇

#ИскусственныйИнтеллект #ИИ_исследования #LMArena #технологии
3👍1
Новые компактные модели Phi-4 от Microsoft с улучшенными возможностями рассуждения

30 апреля Microsoft запустила три новые модели семейства Phi, ориентированные на сложные рассуждения. Эти компактные модели превосходят более крупных конкурентов в задачах, требующих логического мышления, и при этом достаточно малы для работы на смартфонах и ноутбуках! 🚀

🔍 Что нового?

• Phi-4-reasoning (14 млрд параметров) — флагманская модель, которая превосходит OpenAI o1-mini и не уступает DeepSeek с 671 млрд параметров по ключевым показателям
• Phi-4-reasoning-plus — улучшенная версия с дополнительной тренировкой через обучение с подкреплением
• Phi-4-mini-reasoning (3,8 млрд параметров) — сверхкомпактная модель, способная работать на мобильных устройствах и не уступающая 7-миллиардным моделям в математических задачах

💡 Почему это важно?

Эти модели специально разработаны для эффективной работы в условиях ограниченных ресурсов — на периферийных устройствах и компьютерах Copilot+ PC. Несмотря на компактный размер, они демонстрируют впечатляющие результаты в сложных задачах рассуждения.

Как показывают тесты, Phi-4-reasoning превосходит DeepSeek-R1-Distill-Llama-70B (в 5 раз больше по размеру!) и демонстрирует конкурентоспособные результаты по сравнению со значительно более крупными моделями, такими как Deepseek-R1.

🔓 Открытый исходный код

Все три модели выпущены с открытым исходным кодом и лицензиями, позволяющими неограниченное коммерческое использование и модификацию разработчиками.

🖥 Применение в Windows

Модели Phi уже интегрированы в Copilot+ PC с оптимизированным для NPU вариантом Phi Silica. Они используются в таких функциях как Click to Do и доступны разработчикам через API.

🧠 Хотите попробовать?

• Протестируйте новые модели на Azure AI Foundry
• Изучите Phi Cookbook
• Узнайте больше о Phi-4-mini-reasoning
• Узнайте больше о Phi-4-reasoning
• Узнайте больше о Phi-4-reasoning-plus

Это новый шаг в развитии малых языковых моделей, которые становятся всё умнее, оставаясь при этом компактными и эффективными. Будущее ИИ уже здесь — прямо на наших устройствах! 📱💻

Источник: Microsoft Azure Blog

#Microsoft #Phi4 #МалыеЯзыковыеМодели #ИИнаУстройстве #ОткрытыйИсходныйКод
3👍1
MCP и Function Calling: соперники или дополняющие друг друга технологии ?

В мире искусственного интеллекта постоянно появляются новые технологии и стандарты, которые могут сбивать с толку даже опытных разработчиков. Одна из таких пар технологий — MCP (Model Сontext Protocol) и Function Calling. Давайте разберемся, в чем их отличия и могут ли они дополнять друг друга.

Главный спойлер: они не конкурируют, а дополняют друг друга! 🤝

Про MCP уже много раз писал здесь и тут, поэтому начнем с технологии Function Calling, которая "календарно" появилась значительно раньше, но сейчас по силе "хайпа" значительно уступает MCP.

Что такое Function Calling?

Function Calling — это способность языковых моделей (LLM) определять, когда необходимо использовать внешние инструменты для решения задачи. По сути, это механизм, который позволяет ИИ:

1️⃣ Распознавать ситуации, требующие применения внешних функций
2️⃣ Структурировать параметры для выполнения этих функций
3️⃣ Работать в контексте одного приложения
4️⃣ Определять, ЧТО и КОГДА нужно использовать

При этом сам процесс запуска инструмента остается на стороне разработчика.
Простыми словами: Function Calling — это когда ИИ говорит "Мне нужно сейчас выполнить поиск в интернете".

Что такое MCP?

MCP (Model Context Protocol) — это стандартизированный протокол, который определяет:

1️⃣ Как инструменты предоставляются и обнаруживаются
2️⃣ Последовательный протокол для хостинга инструментов
3️⃣ Возможность обмена инструментами в рамках всей экосистемы
4️⃣ Разделение реализации инструмента от его использования

MCP отвечает на вопрос КАК инструменты предоставляются и обнаруживаются стандартизированным способом. Это похоже на то, как если бы MCP говорил: "Вот как любой инструмент может быть последовательно доступен для любой системы ИИ".

Ключевые различия ⚡️

Function Calling: определяет КАКОЙ инструмент использовать и КОГДА его применять
MCP: устанавливает КАК инструменты предоставляются и обнаруживаются в стандартизированном виде

Почему это важно? 🤔

MCP имеет потенциал стать "REST для ИИ-инструментов" — повсеместным стандартом, который предотвращает фрагментацию экосистемы. Он позволяет разработчикам сосредоточиться на создании качественных инструментов, а не на изобретении новых способов их хостинга

Как они работают вместе?

Эти технологии не конкурируют, а дополняют друг друга:

• Function Calling определяет необходимость использования инструмента
• MCP обеспечивает стандартизированный способ доступа к этому инструменту

Важные мысли 💡

• По мере усложнения систем ИИ, стандартизированные протоколы вроде MCP становятся необходимыми для обеспечения совместимости.
• Компании, которые внедряют обе технологии, смогут быстрее создавать более надежные системы ИИ.
• В конечном счете, будущее не в выборе между MCP и Function Calling, а в их эффективном совместном использовании для создания более мощных и гибких ИИ-систем.

Что еще почитать по теме "Function Calling и/или MCP?"

https://medium.com/@genai.works/%EF%B8%8F-function-calling-vs-mcp-what-smart-ai-teams-need-to-know-7c319267b6db
https://www.gentoro.com/blog/function-calling-vs-model-context-protocol-mcp
https://neon.tech/blog/mcp-vs-llm-function-calling

А вы уже используете MCP в своих проектах или пока ограничиваетесь базовым Function Calling?
Поделитесь своим опытом в комментариях! 👇

#ИскусственныйИнтеллект #LLM #MCP #FunctionCalling #РазработкаИИ
2👍2🔥2
Уязвимости AI-агентов: Часть I и II

Недавно прочитал интересный цикл статей (часть 1, часть 2) по безопасности AI-агентов.
Ниже привожу краткий обзор исследования о критических уязвимостях в AI-агентах, работающих на основе больших языковых моделей (LLM).

Часть I: Введение в уязвимости AI-агентов


🔍 Основные риски безопасности AI-агентов:

• Неавторизованное выполнение вредоносного кода
• Кража конфиденциальных данных компании или пользователей
• Манипуляция ответами, генерируемыми ИИ
• Непрямые инъекции промптов, ведущие к постоянным эксплойтам

🤖 Разница между LLM и сервисами на базе LLM:

• LLM — это нейросетевая модель, которая принимает текст и генерирует наиболее вероятное следующее слово
• AI-агенты (например, ChatGPT) — это сложные системы, построенные на основе LLM, с дополнительными функциями, такими как выполнение кода, сохранение памяти и доступ в интернет

🧪 Интересный подход к тестированию:

• Для выявления уязвимостей исследователи разработали специальный AI-агент Pandora
• Pandora расширяет функциональность ChatGPT, включая доступ в интернет и неограниченное выполнение кода в песочнице на базе Docker
• С помощью Pandora были обнаружены уязвимости, такие как непрямая инъекция промптов и техники обхода песочницы
• Этот агент используется в серии статей для демонстрации многих обсуждаемых уязвимостей

Оригинальная статья здесь

Часть II: Уязвимости выполнения кода

⚠️ Ключевые выводы:

• Исследование выявило уязвимости, затрагивающие любые AI-агенты на базе LLM с возможностями выполнения кода, загрузки документов и доступа в интернет
• Эти уязвимости могут позволить злоумышленникам запускать неавторизованный код, внедрять вредоносный контент в файлы, получать контроль и похищать конфиденциальную информацию
• Организации, использующие ИИ для математических вычислений, анализа данных и других сложных процессов, должны быть бдительны в отношении связанных рисков безопасности

🔒 Необходимость выполнения кода в LLM:

• Современные AI-агенты могут выполнять код для точных вычислений, анализа сложных данных и помощи в структурированных расчетах
• Это обеспечивает точные результаты в таких областях, как математика
• Преобразуя запросы пользователей в исполняемые скрипты, LLM компенсируют свои ограничения в арифметических рассуждениях

🧪 Реализации песочниц:

• AI-агенты используют технологии песочниц для изоляции выполнения кода
• Существуют две основные стратегии: контейнеризованные песочницы (например, ChatGPT Data Analyst) и песочницы на основе WASM (WebAssembly) [например, ChatGPT Canvas]

🚨 Выявленные уязвимости:

• Непроверенные передачи данных: злоумышленники могут создавать файлы для обхода проверок безопасности
• Компрометация пользовательских файлов с помощью фоновых служб: атакующие могут создавать фоновые процессы для мониторинга и модификации пользовательских документов
• Динамическая обфускация и выполнение промптов: код для фоновой службы может быть изменен различными способами для усложнения обнаружения

📋 Рекомендации по безопасности:

1️⃣ Ограничение системных возможностей:
• Отключение фоновых процессов или ограничение их конкретными операциями
• Применение более строгих разрешений на доступ к файловой системе

2️⃣ Ограничение ресурсов:
• Установка лимитов на использование ресурсов песочницы (память, CPU, время выполнения)

3️⃣ Контроль доступа в интернет:
• Управление внешним доступом из песочницы для уменьшения поверхности атаки

4️⃣ Мониторинг вредоносной активности:
• Отслеживание действий аккаунтов, сбоев и необычного поведения
• Использование инструментов анализа поведения для выявления подозрительных операций

5️⃣ Валидация входных данных:
• Проверка и очистка данных в обоих направлениях (от пользователя к песочнице и от песочницы к пользователю)

6️⃣ Обеспечение соответствия схеме:
• Проверка соответствия всех выходных данных ожидаемым форматам

7️⃣ Явная обработка ошибок:
• Перехват, очистка и регистрация ошибок на каждом этапе

Оригинальная статья здесь

#AI #Cybersecurity #LLM #AIagents #security
2👍1🔥1