⚪️ Приступим к эвалу
#ddeval #feb2026eval
Ну - и к цифрам по отчетам! Это и есть, собственно, эвал - количественное выражение некоего эксперимента/оценки.
Сейчас мы из всех сессий каждого агента/модели будем формировать сводную табличку со сведениями из всех трех сессий: выпишем все найденные проблемы и чере gpt-5.2 верифицируем, подтверждает ли она их по коду.
1️⃣ GLM-5: (найдено проблем, подтверждено)
* итого: 57 / 36 - 63%
* g1: 37 / 26 - 70%
* g2: 32 / 20 - 63%
* g3: 15 / 12 - 80%
2️⃣ Minimax M2.5:
* итого: 36 / 21 - 58%
* m1: 19 / 12 - 63%
* m2: 22/13 - 59%
* m3: 10/6 - 60%
3️⃣ Kimi K2.5:
* итого: 58 /42 - 72%
* k1: 43/34 - 79%
* k2: 24/20 - 83%
* k3: 33/25 - 76%
4️⃣ Opus 4.6:
* итого: 55 / 45 - 82%
* o1: 27 / 24 - 89%
* o2: 20 / 19 - 95%
* o3: 34 / 26 - 76%
5️⃣ Gemini 3 pro:
* итого: 26 / 20 - 77%
* gm1: 14 / 12 - 86%
* gm2: 12 / 9 - 75%
* gm3: 10 / 9 - 90%
6️⃣ Gpt 5.2: (да, сам себя верифицировал)
* итого: 29/27 - 93%
* c1: 19/19 - 100%
* c2: 14/12 - 86%
* c3: 16/16 - 100%
👉 Да, уже сейчас можно сделать определенное наблюдение по эвалу, по долже верифицированных находок, итого:
- glm-5 : 63%
- m2.5 : 58%
- K2.5 : 72%
- Opus 4.6: 82%
- Gemini 3 pro: 77%
- Gpt 5.2 : 93%
🟢 В целом я ожидал похожего распределения. Но нужно свести все отчеты, и посмотреть итоговые цифры. Замечу еще, что лимиты на опуса в антигравити на тарифе AI PRO вылетают очень и очень быстро, работать на таких лимитах почти невоможно.
Агентов по отдельности посмотрели, переходим к их сопоставлению.
@deksden_notes
#ddeval #feb2026eval
Ну - и к цифрам по отчетам! Это и есть, собственно, эвал - количественное выражение некоего эксперимента/оценки.
Сейчас мы из всех сессий каждого агента/модели будем формировать сводную табличку со сведениями из всех трех сессий: выпишем все найденные проблемы и чере gpt-5.2 верифицируем, подтверждает ли она их по коду.
1️⃣ GLM-5: (найдено проблем, подтверждено)
* итого: 57 / 36 - 63%
* g1: 37 / 26 - 70%
* g2: 32 / 20 - 63%
* g3: 15 / 12 - 80%
2️⃣ Minimax M2.5:
* итого: 36 / 21 - 58%
* m1: 19 / 12 - 63%
* m2: 22/13 - 59%
* m3: 10/6 - 60%
3️⃣ Kimi K2.5:
* итого: 58 /42 - 72%
* k1: 43/34 - 79%
* k2: 24/20 - 83%
* k3: 33/25 - 76%
4️⃣ Opus 4.6:
* итого: 55 / 45 - 82%
* o1: 27 / 24 - 89%
* o2: 20 / 19 - 95%
* o3: 34 / 26 - 76%
5️⃣ Gemini 3 pro:
* итого: 26 / 20 - 77%
* gm1: 14 / 12 - 86%
* gm2: 12 / 9 - 75%
* gm3: 10 / 9 - 90%
6️⃣ Gpt 5.2: (да, сам себя верифицировал)
* итого: 29/27 - 93%
* c1: 19/19 - 100%
* c2: 14/12 - 86%
* c3: 16/16 - 100%
👉 Да, уже сейчас можно сделать определенное наблюдение по эвалу, по долже верифицированных находок, итого:
- glm-5 : 63%
- m2.5 : 58%
- K2.5 : 72%
- Opus 4.6: 82%
- Gemini 3 pro: 77%
- Gpt 5.2 : 93%
🟢 В целом я ожидал похожего распределения. Но нужно свести все отчеты, и посмотреть итоговые цифры. Замечу еще, что лимиты на опуса в антигравити на тарифе AI PRO вылетают очень и очень быстро, работать на таких лимитах почти невоможно.
Агентов по отдельности посмотрели, переходим к их сопоставлению.
@deksden_notes
👍4🔥3
⚪️ Подводим итоги первого этапа
#ddeval #feb2026eval
Сейчас у нас есть консолидированные отчеты каждого агента, по 3 отчета на каждого агента. Теперь необходимо консолидировать их в единый отчет и посмотреть статистику.
Методика простая: консолидируем найденные проблемы в единую табличку. И анализируем сколько итоговых проблем найдено каждым агентом. Давайте посмотрим результаты.
Запрягать на анализ будем 5.2 на xhigh, так как нам нужно внимательно все посчитать.
Итоги: всеми агентами найдено 227 проблем. Интересные цифры - сколько уникальных проблем найдено определенным агентом/моделью:
- glm-5: 45
- Minimax M2.5: 27
- Kimi K2.5: 51 (!!!)
- Opus: 44
- Gpt5.2: 24
- Gemini: 17
Получилось что 208 из 227 проблем найдены только одним агентом. И только 19 проблем были найдены несколькими агентами: 9 проблем нашли 2 агента, 6 — 3 агента, 3 — 4 агента, 1 — 5 агентов.
Проценты верифицированных находок такие:
- glm-5: 63.2%
- Minimax M2.5: 63.9%
- Kimi K2.5: 72.4%
- Opus: 81.8%
- Gpt5.2: 93.1%
- Gemini: 84.6%
👉 Важно понимать: у "широкого" анализа существуют особенности методики. Она не сравнивает воможности моделей впрямую, потому что на широкой задаче находки зависят в значительной степени от случайности, куда "качнется" внимание модели. Я сравниваю общее поведение моделей и делаю некие обобщающие наблюдения.
Внимательность модели и насколько она ходит "глубоко" будем тестировать вторым этапом - "узкая" задача позволит сравнить что сумеют найти разные модели/агенты.
‼️ Что могу обобщить в наблюдениях этого этапа:
* процент верификации некоторым образом отражает "сообразительность", внимательность и въедливость модели; в целом мои "ощущения" сошлись с цифрами, но от GLM я ждал большего;
* модели "видят" очень разные вещи; мне нравится термин "оптика" - и для объемного взгляда на проект нужно смотреть на него чере разную оптику;
* мультисемплинг также работает: каждый прогон даже той же моделью находит разные моменты; меньше 3х прогонов делать бессмысленно - у меня часто 2 прогона почти идентичные, а вот 3 уже выделяется; наверное, для сурьезных вопросов ориентируйтесь на 5 прогонов; да, лимиты - вылетают, есть такое;
* верификация находок, желательно "умной" моделью нужна обязательно - процент подтвержденных находок даже фронтирных моделей не 100%; для фронтирных китов он в районе 60-75% всего;
* распределение между Gpt/Opus/Gemini отражает мое ощущение от работы с моделями.
* выходит что Glm все еще посильнее Minimax
* удивляет Kimi довольно высокими результатами, мне казалось Glm-5 может быть выше нее, но нет - видимо, такой класс задачи.
* "руками" делать эвалы довольно хлопотно - для регулярных тестов нужно будет автоматизировать;
* упряжка openCode работает местами даже лучше CC: во всяком случае GLM в openCode работает стабильнее, у меня было меньше лагов
* лимиты Opus в Антигравити на подписке AI PRO - смешные
🟢 Такой вот эвал получился! Попробую на днях сделать второй этап.
(ц) Такое мы практикуем
@deksden_notes
#ddeval #feb2026eval
Сейчас у нас есть консолидированные отчеты каждого агента, по 3 отчета на каждого агента. Теперь необходимо консолидировать их в единый отчет и посмотреть статистику.
Методика простая: консолидируем найденные проблемы в единую табличку. И анализируем сколько итоговых проблем найдено каждым агентом. Давайте посмотрим результаты.
Запрягать на анализ будем 5.2 на xhigh, так как нам нужно внимательно все посчитать.
Итоги: всеми агентами найдено 227 проблем. Интересные цифры - сколько уникальных проблем найдено определенным агентом/моделью:
- glm-5: 45
- Minimax M2.5: 27
- Kimi K2.5: 51 (!!!)
- Opus: 44
- Gpt5.2: 24
- Gemini: 17
Получилось что 208 из 227 проблем найдены только одним агентом. И только 19 проблем были найдены несколькими агентами: 9 проблем нашли 2 агента, 6 — 3 агента, 3 — 4 агента, 1 — 5 агентов.
Проценты верифицированных находок такие:
- glm-5: 63.2%
- Minimax M2.5: 63.9%
- Kimi K2.5: 72.4%
- Opus: 81.8%
- Gpt5.2: 93.1%
- Gemini: 84.6%
👉 Важно понимать: у "широкого" анализа существуют особенности методики. Она не сравнивает воможности моделей впрямую, потому что на широкой задаче находки зависят в значительной степени от случайности, куда "качнется" внимание модели. Я сравниваю общее поведение моделей и делаю некие обобщающие наблюдения.
Внимательность модели и насколько она ходит "глубоко" будем тестировать вторым этапом - "узкая" задача позволит сравнить что сумеют найти разные модели/агенты.
‼️ Что могу обобщить в наблюдениях этого этапа:
* процент верификации некоторым образом отражает "сообразительность", внимательность и въедливость модели; в целом мои "ощущения" сошлись с цифрами, но от GLM я ждал большего;
* модели "видят" очень разные вещи; мне нравится термин "оптика" - и для объемного взгляда на проект нужно смотреть на него чере разную оптику;
* мультисемплинг также работает: каждый прогон даже той же моделью находит разные моменты; меньше 3х прогонов делать бессмысленно - у меня часто 2 прогона почти идентичные, а вот 3 уже выделяется; наверное, для сурьезных вопросов ориентируйтесь на 5 прогонов; да, лимиты - вылетают, есть такое;
* верификация находок, желательно "умной" моделью нужна обязательно - процент подтвержденных находок даже фронтирных моделей не 100%; для фронтирных китов он в районе 60-75% всего;
* распределение между Gpt/Opus/Gemini отражает мое ощущение от работы с моделями.
* выходит что Glm все еще посильнее Minimax
* удивляет Kimi довольно высокими результатами, мне казалось Glm-5 может быть выше нее, но нет - видимо, такой класс задачи.
* "руками" делать эвалы довольно хлопотно - для регулярных тестов нужно будет автоматизировать;
* упряжка openCode работает местами даже лучше CC: во всяком случае GLM в openCode работает стабильнее, у меня было меньше лагов
* лимиты Opus в Антигравити на подписке AI PRO - смешные
🟢 Такой вот эвал получился! Попробую на днях сделать второй этап.
(ц) Такое мы практикуем
@deksden_notes
👍8✍4🔥4❤3
⚪️ Пост-анализ эвала на ревью по Priority классификации
#ddeval #feb2026eval
Решил еще немного помучать агента статистикой. На сей раз посмотреть сколько проблем категорий P0-P4 обнаружили агенты.
🟢 Все знают что такое P0-P4? Это стандартная классификация выявленных проблем по критичности (P- как раз от Proprity). Все модели знаю про эту классификацию и неплохо ею пользуются. Вот вам пучок теории:
0️⃣ P0 (Critical/Blocker): Критическая ошибка. Блокирует выкладку (релиз). Код нельзя мержить ни в коем случае, так как он сломает билд, нарушит безопасность или уронит систему.
1️⃣ P1 (High): Важная правка. Ошибка в логике, отсутствие тестов для важного функционала или серьезное нарушение архитектуры. Исправить нужно обязательно перед мержем.
2️⃣ P2 (Medium/Normal): Стандартное замечание. Мелкие баги, нарушение стайлгайда или неоптимальный (но рабочий) код. Обычно ожидается исправление, но в экстренных случаях можно обсудить перенос в техдолг.
3️⃣ P3 (Low): Пожелание (Nitpick). Незначительные опечатки в комментариях или предложения по микро-оптимизации. Исправление на усмотрение автора, мержить можно и без них.
4️⃣ P4 (Trivial/Inquiry): Вопрос или долгосрочное предложение. «А почему здесь так?», «В будущем стоит это переписать». Не требует немедленных действий.
👉 Простая, но удобная классификация. Посмотрите на табличку в картинке! напомню:
• G=GLM
• K=Kimi
• M=Minimax
• O=Opus
• GM=Gemini
• C=Codex (gpt 5.2)
любопытные результаты:
• блокеры находят ВСЕ модели, не только фронтир
• киты по совокупности нашли больше важных косяков, чем фронтир
• напомню, что не все находки были верифицированы, и у фронитра процент верификации значительно выше
ИТОГО: все модели нам нужны, все модели нам важны!
@deksden_notes
#ddeval #feb2026eval
Решил еще немного помучать агента статистикой. На сей раз посмотреть сколько проблем категорий P0-P4 обнаружили агенты.
🟢 Все знают что такое P0-P4? Это стандартная классификация выявленных проблем по критичности (P- как раз от Proprity). Все модели знаю про эту классификацию и неплохо ею пользуются. Вот вам пучок теории:
0️⃣ P0 (Critical/Blocker): Критическая ошибка. Блокирует выкладку (релиз). Код нельзя мержить ни в коем случае, так как он сломает билд, нарушит безопасность или уронит систему.
1️⃣ P1 (High): Важная правка. Ошибка в логике, отсутствие тестов для важного функционала или серьезное нарушение архитектуры. Исправить нужно обязательно перед мержем.
2️⃣ P2 (Medium/Normal): Стандартное замечание. Мелкие баги, нарушение стайлгайда или неоптимальный (но рабочий) код. Обычно ожидается исправление, но в экстренных случаях можно обсудить перенос в техдолг.
3️⃣ P3 (Low): Пожелание (Nitpick). Незначительные опечатки в комментариях или предложения по микро-оптимизации. Исправление на усмотрение автора, мержить можно и без них.
4️⃣ P4 (Trivial/Inquiry): Вопрос или долгосрочное предложение. «А почему здесь так?», «В будущем стоит это переписать». Не требует немедленных действий.
👉 Простая, но удобная классификация. Посмотрите на табличку в картинке! напомню:
• G=GLM
• K=Kimi
• M=Minimax
• O=Opus
• GM=Gemini
• C=Codex (gpt 5.2)
любопытные результаты:
• блокеры находят ВСЕ модели, не только фронтир
• киты по совокупности нашли больше важных косяков, чем фронтир
• напомню, что не все находки были верифицированы, и у фронитра процент верификации значительно выше
ИТОГО: все модели нам нужны, все модели нам важны!
@deksden_notes
❤10🔥3❤🔥1
⚪️ Мультисемплинг для агентов в ревью
При обсуждении последнего эвала #ddeval #feb2026eval родилась интересная идея - а что если затестить как влияет мультисемплинг на результаты моделей?
Я мультисемплинг весьма уважаю, но теоретически. А сейчас бы посомтреть на влияние на результат для конкретных моделей.
▶️ Пока идея следующая. Берем состояние проекта как для эвала использовалось - то есть делаем все на той же самой базе. Запускаем 10 экземпляров агентов:
• kimi k2.5
• glm-5
• gemini 3 pro
Почему их? Два кита с топовыми результатами и одну фронтирную модель (самую нефронтирную из фронтирных, зато с огромным контекстом, быструю и с крупными лимитами)
И делаем тот же самый эвал, только @10 семплингом. И смотрим - как оно с общим количеством найденных проблем соотносится, как с @3 результатом агента на эвале соотносится - в общем, там подумаем как проанализировать
🟢 Идея мне показалось интересной, попробую сделать! Пока зацените как выглядит @10 агентов в ассортименте три штуки.
👉 Из интересного: gemini без проблем сделал 10 сессий и запраймерился. А вот glm втупил в какие то лимиты. На сайте написано конкурентность - 5 запросов! Еле еле пока сделал 8 сессий, последняя праймерилась 12 минут. При том что несколько сессий отработало а 40 секунд. Вот вам и компьют! Kimi не стал рисковать паралелльностью - одну за другой делал, легко и быстро сделал все 10 сессий.
Вот так наглядно видно что у GLM нынче реально нехватает компьюта! Надеюсь починят
Продолжение следует ...
@deksden_notes
При обсуждении последнего эвала #ddeval #feb2026eval родилась интересная идея - а что если затестить как влияет мультисемплинг на результаты моделей?
Я мультисемплинг весьма уважаю, но теоретически. А сейчас бы посомтреть на влияние на результат для конкретных моделей.
▶️ Пока идея следующая. Берем состояние проекта как для эвала использовалось - то есть делаем все на той же самой базе. Запускаем 10 экземпляров агентов:
• kimi k2.5
• glm-5
• gemini 3 pro
Почему их? Два кита с топовыми результатами и одну фронтирную модель (самую нефронтирную из фронтирных, зато с огромным контекстом, быструю и с крупными лимитами)
И делаем тот же самый эвал, только @10 семплингом. И смотрим - как оно с общим количеством найденных проблем соотносится, как с @3 результатом агента на эвале соотносится - в общем, там подумаем как проанализировать
🟢 Идея мне показалось интересной, попробую сделать! Пока зацените как выглядит @10 агентов в ассортименте три штуки.
👉 Из интересного: gemini без проблем сделал 10 сессий и запраймерился. А вот glm втупил в какие то лимиты. На сайте написано конкурентность - 5 запросов! Еле еле пока сделал 8 сессий, последняя праймерилась 12 минут. При том что несколько сессий отработало а 40 секунд. Вот вам и компьют! Kimi не стал рисковать паралелльностью - одну за другой делал, легко и быстро сделал все 10 сессий.
Вот так наглядно видно что у GLM нынче реально нехватает компьюта! Надеюсь починят
Продолжение следует ...
@deksden_notes
🔥8❤3❤🔥1
Forwarded from Тимур Хахалев про AI Coding
Проблема кодинга с AI в том, что оно, внезапно, требует подготовки и с наскока не получится добиться надёжного результата.
Мои подписчики об этом точно знают
За 2025-й год я перепробовал много различных практик написания кода с AI. Примерно, начиная с лета, эти практики уже устаканились, к концу года скорректировались и вот, мы уже можем говорить о best practices, которые точно работают в AI coding.
Об этих best practices говорят и в OpenAI, и в Anthropic, в Spotify и других гигантах, но с опозданием на несколько месяцев.
Автор канала DEKSDEN Notes подготовил best practices по AI coding, а я упаковал это в статью.
Кстати, про автора Deksden
Вы могли видеть его черно-белую аватарку в различных чатах по AI, но возможно не все знают, что его зовут Денис Киселев и он AI SOLO предприниматель, AI-SWE эксперт, профессиональный поклонник моделей OpenAI, создатель своего собственного флоу разработки (он даже пилит свой собственный оркестратор!) и вообще крутой чувак!)
У него необоснованно мало подписчиков на канале, так что советую зайти к нему и подписаться!
◾️ DEKSDEN notes пишет про AI разработку и технологии
Статья о Best practices по AI coding
◾️Читать на Хабр
У кого есть возможность, пожалуйста, поддержите статью на Хабре
#ai_coding@the_ai_architect
Лайк, репост,
✔️ Тимур Хахалев про AI Coding, подписывайтесь!
Мои подписчики об этом точно знают
За 2025-й год я перепробовал много различных практик написания кода с AI. Примерно, начиная с лета, эти практики уже устаканились, к концу года скорректировались и вот, мы уже можем говорить о best practices, которые точно работают в AI coding.
Об этих best practices говорят и в OpenAI, и в Anthropic, в Spotify и других гигантах, но с опозданием на несколько месяцев.
Автор канала DEKSDEN Notes подготовил best practices по AI coding, а я упаковал это в статью.
Кстати, про автора Deksden
Вы могли видеть его черно-белую аватарку в различных чатах по AI, но возможно не все знают, что его зовут Денис Киселев и он AI SOLO предприниматель, AI-SWE эксперт, профессиональный поклонник моделей OpenAI, создатель своего собственного флоу разработки (он даже пилит свой собственный оркестратор!) и вообще крутой чувак!)
У него необоснованно мало подписчиков на канале, так что советую зайти к нему и подписаться!
◾️ DEKSDEN notes пишет про AI разработку и технологии
Статья о Best practices по AI coding
◾️Читать на Хабр
У кого есть возможность, пожалуйста, поддержите статью на Хабре
#ai_coding@the_ai_architect
Лайк, репост,
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11❤4👏1
⚪️ Droid
Текущий ассортимент моделей в дроиде весьма интересный, особенно тот факт, что у меня через Lenny на него подписка на год с мелким тарифом. Тестить все - самое оно!
Даже свежих китов завели с хорошими коэффициентами. И скоростного опуса за оверпрайс (6x)
Upd 1️⃣ : кто не в курсе, Droid - это семейство агентов от Factory.ai
Есть web/cli
Живут на https://factory.ai/. Тарифы за $20/$200.
@deksden_notes
Текущий ассортимент моделей в дроиде весьма интересный, особенно тот факт, что у меня через Lenny на него подписка на год с мелким тарифом. Тестить все - самое оно!
Даже свежих китов завели с хорошими коэффициентами. И скоростного опуса за оверпрайс (6x)
Upd 1️⃣ : кто не в курсе, Droid - это семейство агентов от Factory.ai
Есть web/cli
Живут на https://factory.ai/. Тарифы за $20/$200.
@deksden_notes
👍8
⚪️ Qwen 3.5
Новость о выходе свежего квена все видели?
🔗 https://qwen.ai/blog?id=qwen3.5
Так вот - он уже в CLI!
Где же время найти вас всех потестить?
Кстати, укаан qwen3.5 Plus, а у него вроде 1m контекста...
Во всяком случае так думает OpenRouter: https://openrouter.ai/qwen/qwen3.5-plus-02-15
Интересно - какой в CLI завезли и будет ли там 1m?
Free tier очень щедрый, кто не знает: Sign in with Qwen OAuth to get 1,000 free requests per day.
🔗 Читать тут: https://qwenlm.github.io/qwen-code-docs/
@deksden_notes
Новость о выходе свежего квена все видели?
🔗 https://qwen.ai/blog?id=qwen3.5
Так вот - он уже в CLI!
Где же время найти вас всех потестить?
Кстати, укаан qwen3.5 Plus, а у него вроде 1m контекста...
Во всяком случае так думает OpenRouter: https://openrouter.ai/qwen/qwen3.5-plus-02-15
Интересно - какой в CLI завезли и будет ли там 1m?
Free tier очень щедрый, кто не знает: Sign in with Qwen OAuth to get 1,000 free requests per day.
🔗 Читать тут: https://qwenlm.github.io/qwen-code-docs/
@deksden_notes
❤9🔥4❤🔥1👍1
⚪️ Проблемы фронтирного AI SWE
Петя тут делится:
🔗 https://x.com/steipete/status/2023057089346580828?s=20
популярность - это такое: PR прут с "нереальной" скоростью - разобрал и сделал 600 коммитов за полный день, было 2700 PR, cnfkj 3100 )))
Инструментов, которые дедуплицируют PR, и оценивают насколько PR близок к "видению" продукта нету. Думаю, никто и не осознавал что такие проблемы бывают! Что вам может понадобиться разобрать 3100 PRs.
Ближайший инструмент оказался Approvability в beta тесте, но он не умеет в дедупликацию.
https://macroscope.com/blog/introducing-approvability
Инструмент представлен 13.02 )))
В общем, интересно смотреть за фронтирными темами
@deksden_notes
Петя тут делится:
🔗 https://x.com/steipete/status/2023057089346580828?s=20
популярность - это такое: PR прут с "нереальной" скоростью - разобрал и сделал 600 коммитов за полный день, было 2700 PR, cnfkj 3100 )))
Инструментов, которые дедуплицируют PR, и оценивают насколько PR близок к "видению" продукта нету. Думаю, никто и не осознавал что такие проблемы бывают! Что вам может понадобиться разобрать 3100 PRs.
Ближайший инструмент оказался Approvability в beta тесте, но он не умеет в дедупликацию.
https://macroscope.com/blog/introducing-approvability
Инструмент представлен 13.02 )))
В общем, интересно смотреть за фронтирными темами
@deksden_notes
X (formerly Twitter)
Peter Steinberger 🦞 (@steipete) on X
PRs on OpenClaw are growing at an *impossible* rate.
Worked all day yesterday and got like 600 commits in.
It was 2700; now it's over 3100.
I need AI that scans every PR and Issue and de-dupes.
It should also detect which PR is the based based on various…
Worked all day yesterday and got like 600 commits in.
It was 2700; now it's over 3100.
I need AI that scans every PR and Issue and de-dupes.
It should also detect which PR is the based based on various…
❤4
⚪️ SKILL suggest
Скиллы на подьеме! Как вы знаете, помимо библиотечки от Vercel (https://skills.sh/) на сцене еще и Context7 с разделом скиллов (https://context7.com/skills)
И вот как раз Context7 придумали такое:
`ctx7 skills suggest`
Что делает:
• сканирует ваш проект, зависимости (package.json, requirements.txt)
• определяет стек
• предлагает релевантные скиллы
🔗 Подробнее? Дока тут : https://context7.com/docs/skills#suggest-skills
Интересные темы заходят!
Upd 1️⃣ : попробовал на паре проектов. Местами рекомендации релевантные, местами - чушь!
Направление крайне интересное, надеюсь будут развивать. Уверен, что изобрели интересную штуку. Vercel, ваш ход!
@deksden_notes
Скиллы на подьеме! Как вы знаете, помимо библиотечки от Vercel (https://skills.sh/) на сцене еще и Context7 с разделом скиллов (https://context7.com/skills)
И вот как раз Context7 придумали такое:
`ctx7 skills suggest`
Что делает:
• сканирует ваш проект, зависимости (package.json, requirements.txt)
• определяет стек
• предлагает релевантные скиллы
🔗 Подробнее? Дока тут : https://context7.com/docs/skills#suggest-skills
Интересные темы заходят!
Upd 1️⃣ : попробовал на паре проектов. Местами рекомендации релевантные, местами - чушь!
Направление крайне интересное, надеюсь будут развивать. Уверен, что изобрели интересную штуку. Vercel, ваш ход!
@deksden_notes
Skills
The Agent Skills Directory
Discover and install skills for AI agents.
1👍13❤3❤🔥1🔥1
⚪️ Orchids.app через подписку!
Не видел ранее такого - к веб билдеру Orchids (что то типа Lovable. и тоже с уклоном в UI) можно прикрутить CharGPT подписку (и другие, но насчет Клода я не уверен) и пользовать без оплаты самого Orchids!
Приольный способ предметно пощупать эту штуку. В других инструментах такое пока не особо распространено, но, может, такая тема разовьется! Было бы здорово - подписок уже и так немало набрано
Кому было интересно - налетайте!
@deksden_notes
Не видел ранее такого - к веб билдеру Orchids (что то типа Lovable. и тоже с уклоном в UI) можно прикрутить CharGPT подписку (и другие, но насчет Клода я не уверен) и пользовать без оплаты самого Orchids!
Приольный способ предметно пощупать эту штуку. В других инструментах такое пока не особо распространено, но, может, такая тема разовьется! Было бы здорово - подписок уже и так немало набрано
Кому было интересно - налетайте!
@deksden_notes
👍8🔥1
⚪️ WireText.app
❓ Кто то пользует подобные приложения? Вроде бы они для того, чтобы быстро "набросать" эскизик.
Или "на салфетке" от руки удобнее?
@deksden_notes
❓ Кто то пользует подобные приложения? Вроде бы они для того, чтобы быстро "набросать" эскизик.
Или "на салфетке" от руки удобнее?
@deksden_notes
👀3
⚪️ Sonnet 4.6 и Grok 4.20
Про них вам уже расскаали их каждого утюга
У меня вот только один вопрос - это теперь мода такая релизить топовые модели одновременно, чтобы ... что? Не расслаблялись? Синулярность ощутить? ))
Интересное время. Glm c Минимаксом за ручку выходили.. Кодекс с Опусом. И вот Соннет с Гроком
@deksden_notes
Про них вам уже расскаали их каждого утюга
У меня вот только один вопрос - это теперь мода такая релизить топовые модели одновременно, чтобы ... что? Не расслаблялись? Синулярность ощутить? ))
Интересное время. Glm c Минимаксом за ручку выходили.. Кодекс с Опусом. И вот Соннет с Гроком
@deksden_notes
😁1