🚀 Cognition представила SWE-1.5 — новую модель для разработки ПО
Не успели мы порадоваться новой модели для кодинга от Cursor, как компания Cognition (которая этим летом купила Windsurf) анонсировала выпуск SWE-1.5 - специализированной модели для кодинга с сотнями миллиардов параметров.
Модель показывает производительность на уровне GPT-5-high в бенчмарке SWE-Bench Pro, работая при этом в 6 раз быстрее Haiku 4.5 и в 13 раз быстрее Sonnet 4.5.
🔧 Ключевые особенности:
• Скорость до 950 токенов в секунду благодаря партнерству с Cerebras
• Обучение с подкреплением на реальных задачах программирования (именно RL и помог сделать модель такой классной)
• Интеграция в IDE Windsurf
• Обучение на кластере GB200 NVL72 (возможно, первая публичная модель, прошедшая обучение на таком "железе")
📊 Подход к обучению:
1️⃣ Создание собственного датасета, отражающего реальные задачи разработчиков
2️⃣ Три механизма оценки: классические тесты, рубрики качества кода и агентная проверка
3️⃣ Процесс "reward hardening" для предотвращения обхода системы оценки
4️⃣ Совместная оптимизация модели и агентной системы
⚡️ Практическое применение:
• Изучение больших кодовых баз (используется в функциональности Codemaps, которая строит иерархические карты кодовых баз)
• Создание full-stack приложений
• Редактирование конфигураций
• Задачи, которые раньше занимали 20 секунд, теперь выполняются за 5 секунд
Модель доступна в последней версии Windsurf. Разработчики отмечают, что SWE-1.5 устраняет необходимость выбирать между скоростью и качеством работы ИИ-помощника.
🔗 Источники:
• [Официальный блог Cognition]
• [Скачать Windsurf]
@llm_notes
#windsurf #swe15 #cognition #vibecoding #ai #programming
Не успели мы порадоваться новой модели для кодинга от Cursor, как компания Cognition (которая этим летом купила Windsurf) анонсировала выпуск SWE-1.5 - специализированной модели для кодинга с сотнями миллиардов параметров.
Модель показывает производительность на уровне GPT-5-high в бенчмарке SWE-Bench Pro, работая при этом в 6 раз быстрее Haiku 4.5 и в 13 раз быстрее Sonnet 4.5.
🔧 Ключевые особенности:
• Скорость до 950 токенов в секунду благодаря партнерству с Cerebras
• Обучение с подкреплением на реальных задачах программирования (именно RL и помог сделать модель такой классной)
• Интеграция в IDE Windsurf
• Обучение на кластере GB200 NVL72 (возможно, первая публичная модель, прошедшая обучение на таком "железе")
📊 Подход к обучению:
1️⃣ Создание собственного датасета, отражающего реальные задачи разработчиков
2️⃣ Три механизма оценки: классические тесты, рубрики качества кода и агентная проверка
3️⃣ Процесс "reward hardening" для предотвращения обхода системы оценки
4️⃣ Совместная оптимизация модели и агентной системы
⚡️ Практическое применение:
• Изучение больших кодовых баз (используется в функциональности Codemaps, которая строит иерархические карты кодовых баз)
• Создание full-stack приложений
• Редактирование конфигураций
• Задачи, которые раньше занимали 20 секунд, теперь выполняются за 5 секунд
Модель доступна в последней версии Windsurf. Разработчики отмечают, что SWE-1.5 устраняет необходимость выбирать между скоростью и качеством работы ИИ-помощника.
🔗 Источники:
• [Официальный блог Cognition]
• [Скачать Windsurf]
@llm_notes
#windsurf #swe15 #cognition #vibecoding #ai #programming
❤2