DEKSDEN notes
960 subscribers
155 photos
2 videos
1 file
269 links
Канал с моими заметками на разные темы
Vibe Coding -> AI SWE, AI Coding Tools, Agents: Claude Code, Codex, news, links
Чат (!!!): https://t.me/+B1fB3sZbaVthMDhi
Download Telegram
⚪️ Большой февральский тест: Glm-5, M2.5, K2.5, opus 4.6, gemini 3 pro, gpt-5.2

#ddeval #feb2026eval

Итак, сегодня делаем большой тест свежих моделей китов против текущего фронтира. В сравнение попадают:

* Z.ai GLM-5, упряжка ClaudeCode
* MiniMax M2.5, OpenCode
* Kimi K2.5, OpenCode
* не тестировал в эвале ранее - Opus 4.6, ClaudeCode (из антигравити)
* и как база - OpenAI gpt-5.2, Codex
* а Gemini 3 pro до кучи - анализ ведь, а не код писать


Напомню, вот прошлый тур сравнения кодекс 5.3 и gpt 5.2 оценивались, его смотреть можно по тегам #ddeval и #52vs53:
* https://t.me/deksden_notes/439 первый пост из цепочки
* https://t.me/deksden_notes/443 второй этап, фокусная задача

▶️ Методика та же:
* делаем прайминг меморибанком
* делаем промпт на широкий анализ
* делаем свод внутри агента/модели, потом между моделями
* каждый агент/модель запускается в 3х экземплярах, чтобы сделать @3 семплинг для снижения случайных девиаций.

Приступим!

@deksden_notes
4🔥3❤‍🔥1
⚪️ Приступим к эвалу

#ddeval #feb2026eval

Ну - и к цифрам по отчетам! Это и есть, собственно, эвал - количественное выражение некоего эксперимента/оценки.

Сейчас мы из всех сессий каждого агента/модели будем формировать сводную табличку со сведениями из всех трех сессий: выпишем все найденные проблемы и чере gpt-5.2 верифицируем, подтверждает ли она их по коду.

1️⃣ GLM-5: (найдено проблем, подтверждено)
* итого: 57 / 36 - 63%
* g1: 37 / 26 - 70%
* g2: 32 / 20 - 63%
* g3: 15 / 12 - 80%

2️⃣ Minimax M2.5:
* итого: 36 / 21 - 58%
* m1: 19 / 12 - 63%
* m2: 22/13 - 59%
* m3: 10/6 - 60%

3️⃣ Kimi K2.5:
* итого: 58 /42 - 72%
* k1: 43/34 - 79%
* k2: 24/20 - 83%
* k3: 33/25 - 76%

4️⃣ Opus 4.6:
* итого: 55 / 45 - 82%
* o1: 27 / 24 - 89%
* o2: 20 / 19 - 95%
* o3: 34 / 26 - 76%

5️⃣ Gemini 3 pro:
* итого: 26 / 20 - 77%
* gm1: 14 / 12 - 86%
* gm2: 12 / 9 - 75%
* gm3: 10 / 9 - 90%

6️⃣ Gpt 5.2: (да, сам себя верифицировал)
* итого: 29/27 - 93%
* c1: 19/19 - 100%
* c2: 14/12 - 86%
* c3: 16/16 - 100%

👉 Да, уже сейчас можно сделать определенное наблюдение по эвалу, по долже верифицированных находок, итого:
- glm-5 : 63%
- m2.5 : 58%
- K2.5 : 72%
- Opus 4.6: 82%
- Gemini 3 pro: 77%
- Gpt 5.2 : 93%

🟢 В целом я ожидал похожего распределения. Но нужно свести все отчеты, и посмотреть итоговые цифры. Замечу еще, что лимиты на опуса в антигравити на тарифе AI PRO вылетают очень и очень быстро, работать на таких лимитах почти невоможно.

Агентов по отдельности посмотрели, переходим к их сопоставлению.

@deksden_notes
👍4🔥3
⚪️ Подводим итоги первого этапа

#ddeval #feb2026eval

Сейчас у нас есть консолидированные отчеты каждого агента, по 3 отчета на каждого агента. Теперь необходимо консолидировать их в единый отчет и посмотреть статистику.

Методика простая: консолидируем найденные проблемы в единую табличку. И анализируем сколько итоговых проблем найдено каждым агентом. Давайте посмотрим результаты.

Запрягать на анализ будем 5.2 на xhigh, так как нам нужно внимательно все посчитать.

Итоги: всеми агентами найдено 227 проблем. Интересные цифры - сколько уникальных проблем найдено определенным агентом/моделью:
- glm-5: 45
- Minimax M2.5: 27
- Kimi K2.5: 51 (!!!)
- Opus: 44
- Gpt5.2: 24
- Gemini: 17

Получилось что 208 из 227 проблем найдены только одним агентом. И только 19 проблем были найдены несколькими агентами: 9 проблем нашли 2 агента, 6 — 3 агента, 3 — 4 агента, 1 — 5 агентов.

Проценты верифицированных находок такие:
- glm-5: 63.2%
- Minimax M2.5: 63.9%
- Kimi K2.5: 72.4%
- Opus: 81.8%
- Gpt5.2: 93.1%
- Gemini: 84.6%

👉 Важно понимать: у "широкого" анализа существуют особенности методики. Она не сравнивает воможности моделей впрямую, потому что на широкой задаче находки зависят в значительной степени от случайности, куда "качнется" внимание модели. Я сравниваю общее поведение моделей и делаю некие обобщающие наблюдения.

Внимательность модели и насколько она ходит "глубоко" будем тестировать вторым этапом - "узкая" задача позволит сравнить что сумеют найти разные модели/агенты.


‼️ Что могу обобщить в наблюдениях этого этапа:

* процент верификации некоторым образом отражает "сообразительность", внимательность и въедливость модели; в целом мои "ощущения" сошлись с цифрами, но от GLM я ждал большего;
* модели "видят" очень разные вещи; мне нравится термин "оптика" - и для объемного взгляда на проект нужно смотреть на него чере разную оптику;
* мультисемплинг также работает: каждый прогон даже той же моделью находит разные моменты; меньше 3х прогонов делать бессмысленно - у меня часто 2 прогона почти идентичные, а вот 3 уже выделяется; наверное, для сурьезных вопросов ориентируйтесь на 5 прогонов; да, лимиты - вылетают, есть такое;
* верификация находок, желательно "умной" моделью нужна обязательно - процент подтвержденных находок даже фронтирных моделей не 100%; для фронтирных китов он в районе 60-75% всего;
* распределение между Gpt/Opus/Gemini отражает мое ощущение от работы с моделями.
* выходит что Glm все еще посильнее Minimax
* удивляет Kimi довольно высокими результатами, мне казалось Glm-5 может быть выше нее, но нет - видимо, такой класс задачи.
* "руками" делать эвалы довольно хлопотно - для регулярных тестов нужно будет автоматизировать;
* упряжка openCode работает местами даже лучше CC: во всяком случае GLM в openCode работает стабильнее, у меня было меньше лагов
* лимиты Opus в Антигравити на подписке AI PRO - смешные

🟢 Такой вот эвал получился! Попробую на днях сделать второй этап.

(ц) Такое мы практикуем

@deksden_notes
👍84🔥43
⚪️ Пост-анализ эвала на ревью по Priority классификации

#ddeval #feb2026eval

Решил еще немного помучать агента статистикой. На сей раз посмотреть сколько проблем категорий P0-P4 обнаружили агенты.

🟢 Все знают что такое P0-P4? Это стандартная классификация выявленных проблем по критичности (P- как раз от Proprity). Все модели знаю про эту классификацию и неплохо ею пользуются. Вот вам пучок теории:

0️⃣ P0 (Critical/Blocker): Критическая ошибка. Блокирует выкладку (релиз). Код нельзя мержить ни в коем случае, так как он сломает билд, нарушит безопасность или уронит систему.
1️⃣ P1 (High): Важная правка. Ошибка в логике, отсутствие тестов для важного функционала или серьезное нарушение архитектуры. Исправить нужно обязательно перед мержем.
2️⃣ P2 (Medium/Normal): Стандартное замечание. Мелкие баги, нарушение стайлгайда или неоптимальный (но рабочий) код. Обычно ожидается исправление, но в экстренных случаях можно обсудить перенос в техдолг.
3️⃣ P3 (Low): Пожелание (Nitpick). Незначительные опечатки в комментариях или предложения по микро-оптимизации. Исправление на усмотрение автора, мержить можно и без них.
4️⃣ P4 (Trivial/Inquiry): Вопрос или долгосрочное предложение. «А почему здесь так?», «В будущем стоит это переписать». Не требует немедленных действий.

👉 Простая, но удобная классификация. Посмотрите на табличку в картинке! напомню:
• G=GLM
• K=Kimi
• M=Minimax
• O=Opus
• GM=Gemini
• C=Codex (gpt 5.2)

любопытные результаты:
• блокеры находят ВСЕ модели, не только фронтир
• киты по совокупности нашли больше важных косяков, чем фронтир
• напомню, что не все находки были верифицированы, и у фронитра процент верификации значительно выше


ИТОГО: все модели нам нужны, все модели нам важны!

@deksden_notes
10🔥3❤‍🔥1
⚪️ Мультисемплинг для агентов в ревью


При обсуждении последнего эвала #ddeval #feb2026eval родилась интересная идея - а что если затестить как влияет мультисемплинг на результаты моделей?

Я мультисемплинг весьма уважаю, но теоретически. А сейчас бы посомтреть на влияние на результат для конкретных моделей.

▶️ Пока идея следующая. Берем состояние проекта как для эвала использовалось - то есть делаем все на той же самой базе. Запускаем 10 экземпляров агентов:
• kimi k2.5
• glm-5
• gemini 3 pro

Почему их? Два кита с топовыми результатами и одну фронтирную модель (самую нефронтирную из фронтирных, зато с огромным контекстом, быструю и с крупными лимитами)

И делаем тот же самый эвал, только @10 семплингом. И смотрим - как оно с общим количеством найденных проблем соотносится, как с @3 результатом агента на эвале соотносится - в общем, там подумаем как проанализировать

🟢 Идея мне показалось интересной, попробую сделать! Пока зацените как выглядит @10 агентов в ассортименте три штуки.

👉 Из интересного: gemini без проблем сделал 10 сессий и запраймерился. А вот glm втупил в какие то лимиты. На сайте написано конкурентность - 5 запросов! Еле еле пока сделал 8 сессий, последняя праймерилась 12 минут. При том что несколько сессий отработало а 40 секунд. Вот вам и компьют! Kimi не стал рисковать паралелльностью - одну за другой делал, легко и быстро сделал все 10 сессий.

Вот так наглядно видно что у GLM нынче реально нехватает компьюта! Надеюсь починят

Продолжение следует ...

@deksden_notes
🔥83❤‍🔥1
Проблема кодинга с AI в том, что оно, внезапно, требует подготовки и с наскока не получится добиться надёжного результата.

Мои подписчики об этом точно знают

За 2025-й год я перепробовал много различных практик написания кода с AI. Примерно, начиная с лета, эти практики уже устаканились, к концу года скорректировались и вот, мы уже можем говорить о best practices, которые точно работают в AI coding.

Об этих best practices говорят и в OpenAI, и в Anthropic, в Spotify и других гигантах, но с опозданием на несколько месяцев.

Автор канала DEKSDEN Notes подготовил best practices по AI coding, а я упаковал это в статью.

Кстати, про автора Deksden

Вы могли видеть его черно-белую аватарку в различных чатах по AI, но возможно не все знают, что его зовут Денис Киселев и он AI SOLO предприниматель, AI-SWE эксперт, профессиональный поклонник моделей OpenAI, создатель своего собственного флоу разработки (он даже пилит свой собственный оркестратор!) и вообще крутой чувак!)
У него необоснованно мало подписчиков на канале, так что советую зайти к нему и подписаться!

◾️ DEKSDEN notes пишет про AI разработку и технологии

Статья о Best practices по AI coding

◾️Читать на Хабр

У кого есть возможность, пожалуйста, поддержите статью на Хабре

#ai_coding@the_ai_architect

Лайк, репост,
✔️ Тимур Хахалев про AI Coding, подписывайтесь!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥114👏1
⚪️ Droid

Текущий ассортимент моделей в дроиде весьма интересный, особенно тот факт, что у меня через Lenny на него подписка на год с мелким тарифом. Тестить все - самое оно!

Даже свежих китов завели с хорошими коэффициентами. И скоростного опуса за оверпрайс (6x)

Upd 1️⃣ : кто не в курсе, Droid - это семейство агентов от Factory.ai

Есть web/cli

Живут на https://factory.ai/. Тарифы за $20/$200.


@deksden_notes
👍8
⚪️ Qwen 3.5


Новость о выходе свежего квена все видели?

🔗 https://qwen.ai/blog?id=qwen3.5

Так вот - он уже в CLI!

Где же время найти вас всех потестить?

Кстати, укаан qwen3.5 Plus, а у него вроде 1m контекста...

Во всяком случае так думает OpenRouter: https://openrouter.ai/qwen/qwen3.5-plus-02-15

Интересно - какой в CLI завезли и будет ли там 1m?

Free tier очень щедрый, кто не знает: Sign in with Qwen OAuth to get 1,000 free requests per day.

🔗 Читать тут: https://qwenlm.github.io/qwen-code-docs/

@deksden_notes
9🔥4❤‍🔥1👍1
⚪️ Проблемы фронтирного AI SWE


Петя тут делится:

🔗 https://x.com/steipete/status/2023057089346580828?s=20

популярность - это такое: PR прут с "нереальной" скоростью - разобрал и сделал 600 коммитов за полный день, было 2700 PR, cnfkj 3100 )))

Инструментов, которые дедуплицируют PR, и оценивают насколько PR близок к "видению" продукта нету. Думаю, никто и не осознавал что такие проблемы бывают! Что вам может понадобиться разобрать 3100 PRs.

Ближайший инструмент оказался Approvability в beta тесте, но он не умеет в дедупликацию.

https://macroscope.com/blog/introducing-approvability

Инструмент представлен 13.02 )))

В общем, интересно смотреть за фронтирными темами

@deksden_notes
4
⚪️ SKILL suggest


Скиллы на подьеме! Как вы знаете, помимо библиотечки от Vercel (https://skills.sh/) на сцене еще и Context7 с разделом скиллов (https://context7.com/skills)

И вот как раз Context7 придумали такое:

`ctx7 skills suggest`

Что делает:
• сканирует ваш проект, зависимости (package.json, requirements.txt)
• определяет стек
• предлагает релевантные скиллы


🔗 Подробнее? Дока тут : https://context7.com/docs/skills#suggest-skills

Интересные темы заходят!

Upd 1️⃣ : попробовал на паре проектов. Местами рекомендации релевантные, местами - чушь!

Направление крайне интересное, надеюсь будут развивать. Уверен, что изобрели интересную штуку. Vercel, ваш ход!


@deksden_notes
1👍133❤‍🔥1🔥1
⚪️ Orchids.app через подписку!


Не видел ранее такого - к веб билдеру Orchids (что то типа Lovable. и тоже с уклоном в UI) можно прикрутить CharGPT подписку (и другие, но насчет Клода я не уверен) и пользовать без оплаты самого Orchids!

Приольный способ предметно пощупать эту штуку. В других инструментах такое пока не особо распространено, но, может, такая тема разовьется! Было бы здорово - подписок уже и так немало набрано

Кому было интересно - налетайте!

@deksden_notes
👍8🔥1
⚪️ WireText.app


Кто то пользует подобные приложения? Вроде бы они для того, чтобы быстро "набросать" эскизик.

Или "на салфетке" от руки удобнее?

@deksden_notes
👀3
⚪️ Sonnet 4.6 и Grok 4.20


Про них вам уже расскаали их каждого утюга

У меня вот только один вопрос - это теперь мода такая релизить топовые модели одновременно, чтобы ... что? Не расслаблялись? Синулярность ощутить? ))

Интересное время. Glm c Минимаксом за ручку выходили.. Кодекс с Опусом. И вот Соннет с Гроком

@deksden_notes
😁1