📦 Кейс: пакуем проекты с Repomix
2/2
Начало: https://t.me/deksden_notes/102
...
В этом конфиге указано, что ИГНОРИРУЕТСЯ папка "tests/". В принципе, в качестве игнорируемых папок можно прописать ВСЕ ПАПКИ исходников проекта, и комментировать те, которые НУЖНО ВКЛЮЧИТЬ. Так можно точечно включать или выключать нужные папки. Такой конфиг можно назвать "repomix:cutom" и использовать его в специальных случаях.
Используем кастомные конфиги если нужно экономить контекст - отключаем паковку "кусков" системы, которые обсуждать с Gemini не будем - например, обсуждая UI, можно отключить api (кроме спеков по контрактам/описанию api). Всегда можно часто используемые "пресеты" сохранить в отдельную конфигурацию и уже паковать её скриптом одним кликом - я всегда за автоматизацию, она сокращает ошибки и не тратит ресурс внимания пользователя.
▶️ Когда repomix запаковал проект, полезно в логе посмотреть такие вещи:
- Главное: какого размера получился
- Второе: какие самые крупные файлы попали в проект - иногда паковка "хватает" ненужные файлы типа логов или какие то крупные служебные файлы, или какой нибудь json экспорт или ещё чего то лишнее.
- Можно открыть репо файл в вашей IDE и посмотреть оглавление - repomix его добавляет в начало файла. Там проверьте, что все нужные папки и файлы попали в репозиторий.
▶️ Итак, репо файл получен, мы готовы для его загрузки в AI Studio. Счётчик токенов студии будет немного другой чем у репомикса, потому что Гугл использует иные токенайзеры, но это не принципиально.
👉 К слову - файл прекрасно загружается в DeepSeek, z.ai, ChatGPT Pro, Grok, claude.ai.
#post
@deksden_notes
2/2
Начало: https://t.me/deksden_notes/102
...
В этом конфиге указано, что ИГНОРИРУЕТСЯ папка "tests/". В принципе, в качестве игнорируемых папок можно прописать ВСЕ ПАПКИ исходников проекта, и комментировать те, которые НУЖНО ВКЛЮЧИТЬ. Так можно точечно включать или выключать нужные папки. Такой конфиг можно назвать "repomix:cutom" и использовать его в специальных случаях.
Используем кастомные конфиги если нужно экономить контекст - отключаем паковку "кусков" системы, которые обсуждать с Gemini не будем - например, обсуждая UI, можно отключить api (кроме спеков по контрактам/описанию api). Всегда можно часто используемые "пресеты" сохранить в отдельную конфигурацию и уже паковать её скриптом одним кликом - я всегда за автоматизацию, она сокращает ошибки и не тратит ресурс внимания пользователя.
▶️ Когда repomix запаковал проект, полезно в логе посмотреть такие вещи:
- Главное: какого размера получился
_repo.xml в токенах, чтобы было меньше 1m. - Второе: какие самые крупные файлы попали в проект - иногда паковка "хватает" ненужные файлы типа логов или какие то крупные служебные файлы, или какой нибудь json экспорт или ещё чего то лишнее.
- Можно открыть репо файл в вашей IDE и посмотреть оглавление - repomix его добавляет в начало файла. Там проверьте, что все нужные папки и файлы попали в репозиторий.
▶️ Итак, репо файл получен, мы готовы для его загрузки в AI Studio. Счётчик токенов студии будет немного другой чем у репомикса, потому что Гугл использует иные токенайзеры, но это не принципиально.
👉 К слову - файл прекрасно загружается в DeepSeek, z.ai, ChatGPT Pro, Grok, claude.ai.
#post
@deksden_notes
Repomix
Pack your codebase into AI-friendly formats
🔥5🤔2👍1
♊️ Планируем с Gemini
1/3
Очевидно, что вводный пост про Repomix (https://t.me/deksden_notes/102) был нужен чтобы рассказать про тему работы с Gemini 2.5 pro в AI Studio. На самом деле, конечно, любое веб приложение подходит под такую методику - достойные варианты Qwen, DeepSeek, chatGPT, grok, z.ai, kimi. Но на сентябрь 2025 достойных моделей с контекстом 1m токенов, ещё и бесплатно - таких вариантов почти нет. Про Qwen 1m и Meta Llama4 я знаю, но я же специально сказал - достойных! )) Да, Gemini 2.5 pro и сейчас, более чем через полгода от выпуска, смотрится вполне достойно. С нетерпением ждём поколение 3.0. Впрочем, приступим!
Дано: у нас есть маленький или средний проект. Мы хотим провести рефакторинг, добавить фичу или ещё чего-то сотворить с проектом, для чего, конечно, будем использовать ИИ агента. Мы уже знаем, что Vibe Coding нам не друг, потому что когда такие друзья, жить будет совсем не скучно, а мы хотим - спокойно и без сложностей на ровном месте. А для этого надо качественно сделать работу и мы уже знаем что надо бы пользовать SDD - Spec Driven Development. Здорово, когда в нашем проекте уже есть меморибанк.
Итак, мы понимаем что для нашей работы нам нужен план. "Есть ли у вас план, мистер Фикс?!". Вот его то мы и будем собирать в Gemini. На самом деле, "единый" взгляд на проект может быть удобен для самых разных вещей - обсудить архитектуру, ревизовать меморибанк, подумать над фичами, собрать техзадание под разработку дизайна в тулах, - мало ли! Но мы обсудим использование и практические приёмы на примере планирования некоего рефакторинга в коде: довольно показательный кейс, паттерны которого можно применять и в других активностях.
Я напишу про свои приёмы, которые я использую - не претендую на абсолютную истину или методичность, это просто обобщение практики и воспринимайте это как некие советы. Никаких особых "законов" или строгих методологий тут нет - "мы здесь занимаемся практической магией".
▶️ Начнём планировать рефакторинг. Если у вас есть "в загашнике" специальный промпт на 3 страницы - применяйте. Если нет - не страшно: пишите обычный вопрос "хочу обсудить как сделать ...". Модель вам отвечает. Читаете ответ, то что нравится - вы добавляете как уже готовые вводные В ВАШ ОРИГИНАЛЬНЫЙ ЗАПРОС. В AI Studio можно легко редактировать хоть свой запрос, хоть ответ модели. Добавляйте то, в чем у вас возникла уверенность или новое понимание, можно куски ответа модели копировать. Когда закончите - ПЕРЕГЕНЕРИРУЙТЕ ответ на ваш первоначальный запрос. На следующей итерации за счёт более "обогащённого" запроса модель у вас получается более развёрнутый ответ модели, и уже в нужном вам ключе, который проработан в нужном вам направлении. Используя этот ответ, вы далее "обогащаете" запрос, добавляя тезисы, которые вам нравятся и ведут вас в нужном направлении.
Такими вот итерациями, ваш первоначальный просто неструктурированный запрос постепенно превращается в развёрнутую концепцию. Не забывайте "забирать" из ответов модели то, что вам понравилось - чтобы не потерять при перегенерации полезную информацию. Если температура выше 0, то следующий ответ даже на такой же запрос будет точно другим.
❓ Назовём эту технику "Итеративное улучшение промпта". Но зачем так сложно? Дело в том, что на контекстах более 300к токенов внимание модели все более размывается, она становится менее внимательная, и качество ответов падает. Если вы будете много спрашивать модель о разных штуках - контекст чата с этими разноплановыми запросами и ответами будет размывать внимание модели, и она начнёт путаться. Вам же нужно развитие идеи в нужном вам направлении? Так не оставляйте в контексте ничего постороннего: GIGO (garbage in, garbage out!). А за счёт перегенерации оригинального запроса качестов ответа модели не деградирует даже если сделать десятки итераций.
...
продолжение: https://t.me/deksden_notes/105
1/3
Очевидно, что вводный пост про Repomix (https://t.me/deksden_notes/102) был нужен чтобы рассказать про тему работы с Gemini 2.5 pro в AI Studio. На самом деле, конечно, любое веб приложение подходит под такую методику - достойные варианты Qwen, DeepSeek, chatGPT, grok, z.ai, kimi. Но на сентябрь 2025 достойных моделей с контекстом 1m токенов, ещё и бесплатно - таких вариантов почти нет. Про Qwen 1m и Meta Llama4 я знаю, но я же специально сказал - достойных! )) Да, Gemini 2.5 pro и сейчас, более чем через полгода от выпуска, смотрится вполне достойно. С нетерпением ждём поколение 3.0. Впрочем, приступим!
Дано: у нас есть маленький или средний проект. Мы хотим провести рефакторинг, добавить фичу или ещё чего-то сотворить с проектом, для чего, конечно, будем использовать ИИ агента. Мы уже знаем, что Vibe Coding нам не друг, потому что когда такие друзья, жить будет совсем не скучно, а мы хотим - спокойно и без сложностей на ровном месте. А для этого надо качественно сделать работу и мы уже знаем что надо бы пользовать SDD - Spec Driven Development. Здорово, когда в нашем проекте уже есть меморибанк.
Итак, мы понимаем что для нашей работы нам нужен план. "Есть ли у вас план, мистер Фикс?!". Вот его то мы и будем собирать в Gemini. На самом деле, "единый" взгляд на проект может быть удобен для самых разных вещей - обсудить архитектуру, ревизовать меморибанк, подумать над фичами, собрать техзадание под разработку дизайна в тулах, - мало ли! Но мы обсудим использование и практические приёмы на примере планирования некоего рефакторинга в коде: довольно показательный кейс, паттерны которого можно применять и в других активностях.
Я напишу про свои приёмы, которые я использую - не претендую на абсолютную истину или методичность, это просто обобщение практики и воспринимайте это как некие советы. Никаких особых "законов" или строгих методологий тут нет - "мы здесь занимаемся практической магией".
▶️ Начнём планировать рефакторинг. Если у вас есть "в загашнике" специальный промпт на 3 страницы - применяйте. Если нет - не страшно: пишите обычный вопрос "хочу обсудить как сделать ...". Модель вам отвечает. Читаете ответ, то что нравится - вы добавляете как уже готовые вводные В ВАШ ОРИГИНАЛЬНЫЙ ЗАПРОС. В AI Studio можно легко редактировать хоть свой запрос, хоть ответ модели. Добавляйте то, в чем у вас возникла уверенность или новое понимание, можно куски ответа модели копировать. Когда закончите - ПЕРЕГЕНЕРИРУЙТЕ ответ на ваш первоначальный запрос. На следующей итерации за счёт более "обогащённого" запроса модель у вас получается более развёрнутый ответ модели, и уже в нужном вам ключе, который проработан в нужном вам направлении. Используя этот ответ, вы далее "обогащаете" запрос, добавляя тезисы, которые вам нравятся и ведут вас в нужном направлении.
Такими вот итерациями, ваш первоначальный просто неструктурированный запрос постепенно превращается в развёрнутую концепцию. Не забывайте "забирать" из ответов модели то, что вам понравилось - чтобы не потерять при перегенерации полезную информацию. Если температура выше 0, то следующий ответ даже на такой же запрос будет точно другим.
❓ Назовём эту технику "Итеративное улучшение промпта". Но зачем так сложно? Дело в том, что на контекстах более 300к токенов внимание модели все более размывается, она становится менее внимательная, и качество ответов падает. Если вы будете много спрашивать модель о разных штуках - контекст чата с этими разноплановыми запросами и ответами будет размывать внимание модели, и она начнёт путаться. Вам же нужно развитие идеи в нужном вам направлении? Так не оставляйте в контексте ничего постороннего: GIGO (garbage in, garbage out!). А за счёт перегенерации оригинального запроса качестов ответа модели не деградирует даже если сделать десятки итераций.
...
продолжение: https://t.me/deksden_notes/105
Telegram
DEKSDEN notes
📦 Кейс: пакуем проекты с Repomix
1/2
Небольшой практический кейс.
Вспомним те доисторические времена, овеянные легендами древности, когда для работы с проектами мы использовали веб приложения чатов с различными моделями. Ведь тогда нам ещё не явились ИИ…
1/2
Небольшой практический кейс.
Вспомним те доисторические времена, овеянные легендами древности, когда для работы с проектами мы использовали веб приложения чатов с различными моделями. Ведь тогда нам ещё не явились ИИ…
👍5🔥5❤🔥3
♊️ Планируем с Gemini
2/3
предыдущая часть: https://t.me/deksden_notes/104
...
▶️ Итак, постепенно через некоторое количество итераций вы сформировали концепцию и получили полностью устраивающий вас ответ модели, который в нужном ключе описывает вашу идею рефакторинга.
Теперь пришло время составить план. Вам нужно объяснить модели что реализацию этого плана будет делать junior developer, у которого не будет доступа к контексту чата, и ему нужно будет рассказать все детали плана. Более того, он слабо разбирается в проекте, поэтому ему нужно дать ссылку на всю необходимую документацию относительно аспектов плана, и вообще - всячески облегчить ему жизнь. Пускай модель подумает что ему ещё поможет помимо того, что вы просите.
Очень важно промптом просить все затрагиваемые высокоуровневые концепции проекта прописать в плане. Если использовать C4 методику (пост про C4 тут https://t.me/deksden_notes/55) для структурирования понимания проекта, обязательно просите прояснить затронутые L2 контейнера (подсистемы), их контракты, схему интеграции. Какие общие пакеты/модули надо задействовать. Про текущий код - обязательно какие паттерны использовать. Необходимо спланирвоать L3 компоненты, которые буду созданы, как они впишутся в текущий L2 контейнер. Это помимо деталей самого кода, алгоритмов там и прочего - уровня L4.
Если в вашем меморибанке прописаны мета-сведения (карты взаимодействия подсистем, контракты подсистем) - нужны будут ссылки на эти документы.
Важно: насыщайте план "увязками" на уровне "выше" кода, - L3, L4. Модель (пока еще?) не в состоянии проработать абсолютно все детали, и ИИ агенту может понадобиться самому принимать некоторые решения при реализации плана - и будет важно чтобы у агента был необходимый контекст для грамотной интеграции решения в проект.
Не забывайте об интеграции новой документации в меморибанк: просите добавить раздел про документацию в план работы - и прописать куда, что и как добавить. Ведь модель "видит" весь ваш меморибанк, и может грамотно посоветовать какие файлы нуждаются в обновлении, а когда можно новый файл создать.
Назовём эту технику "junior-dev-plan", хотя это про целевую роль, а сам план должен быть весьма и весьма хорошего уровня проектирования.
▶️ Модель в итоге выдаст вам некий подробный план, который можно сразу "закидывать" в ИИ агента просто Paste в строчку ввода - но вы так не делайте.
Сохраняйте план в md файлик, благо AI Studio поддерживает копирование в формате маркдаун всего ответа "за раз". Зачем? Этот файлик поможет ИИ агенту если план окажется ОЧЕНЬ объёмным и агент не сможет выполнить его "за один контекст". Вы всегда сможете "восстановить" контекст после компакта простым промптом вроде "Прочитай файл {мой_план_рефакторинга}.md для контекста, продолжай работу". СС такие подсказки "подхватывает" даже "на ходу", не останавливаясь, а для Кодекса нужно тормознуть агента.
Важно понимать, что план будет ВТОРЫМ ответом модели в чате - ведь проработку концепции вы просили первым ответом.
❓ Почему не попросить сразу план в первоначальном запросе, ведь мы его меняли столько раз, чтобы итеративно доработать?
По двум причинам:
- проработка концепции - это один фокус модели, она должна думать о задаче, предметной области, вариантах решения, идеях и развитии; проработка плана - немного другой фокус, уже с вниманием на текущем существующем коде, интеграции, документации, сборке контекста; не нужно пытаться в одном запросе мешать два фокуса внимания - это снижает качество;
- рефлексию никто не отменял - модель "еще раз" просмотрит концепцию при формировании плана, особенно если вы ей это позволите, и может кое что лучше проработать, особенно когда при проработке плана она фокусирована на интеграции с существующим кодом;
...
Продолжение: https://t.me/deksden_notes/106
#post
@deksden_notes
2/3
предыдущая часть: https://t.me/deksden_notes/104
...
▶️ Итак, постепенно через некоторое количество итераций вы сформировали концепцию и получили полностью устраивающий вас ответ модели, который в нужном ключе описывает вашу идею рефакторинга.
Теперь пришло время составить план. Вам нужно объяснить модели что реализацию этого плана будет делать junior developer, у которого не будет доступа к контексту чата, и ему нужно будет рассказать все детали плана. Более того, он слабо разбирается в проекте, поэтому ему нужно дать ссылку на всю необходимую документацию относительно аспектов плана, и вообще - всячески облегчить ему жизнь. Пускай модель подумает что ему ещё поможет помимо того, что вы просите.
Очень важно промптом просить все затрагиваемые высокоуровневые концепции проекта прописать в плане. Если использовать C4 методику (пост про C4 тут https://t.me/deksden_notes/55) для структурирования понимания проекта, обязательно просите прояснить затронутые L2 контейнера (подсистемы), их контракты, схему интеграции. Какие общие пакеты/модули надо задействовать. Про текущий код - обязательно какие паттерны использовать. Необходимо спланирвоать L3 компоненты, которые буду созданы, как они впишутся в текущий L2 контейнер. Это помимо деталей самого кода, алгоритмов там и прочего - уровня L4.
Если в вашем меморибанке прописаны мета-сведения (карты взаимодействия подсистем, контракты подсистем) - нужны будут ссылки на эти документы.
Важно: насыщайте план "увязками" на уровне "выше" кода, - L3, L4. Модель (пока еще?) не в состоянии проработать абсолютно все детали, и ИИ агенту может понадобиться самому принимать некоторые решения при реализации плана - и будет важно чтобы у агента был необходимый контекст для грамотной интеграции решения в проект.
Не забывайте об интеграции новой документации в меморибанк: просите добавить раздел про документацию в план работы - и прописать куда, что и как добавить. Ведь модель "видит" весь ваш меморибанк, и может грамотно посоветовать какие файлы нуждаются в обновлении, а когда можно новый файл создать.
Назовём эту технику "junior-dev-plan", хотя это про целевую роль, а сам план должен быть весьма и весьма хорошего уровня проектирования.
▶️ Модель в итоге выдаст вам некий подробный план, который можно сразу "закидывать" в ИИ агента просто Paste в строчку ввода - но вы так не делайте.
Сохраняйте план в md файлик, благо AI Studio поддерживает копирование в формате маркдаун всего ответа "за раз". Зачем? Этот файлик поможет ИИ агенту если план окажется ОЧЕНЬ объёмным и агент не сможет выполнить его "за один контекст". Вы всегда сможете "восстановить" контекст после компакта простым промптом вроде "Прочитай файл {мой_план_рефакторинга}.md для контекста, продолжай работу". СС такие подсказки "подхватывает" даже "на ходу", не останавливаясь, а для Кодекса нужно тормознуть агента.
Важно понимать, что план будет ВТОРЫМ ответом модели в чате - ведь проработку концепции вы просили первым ответом.
❓ Почему не попросить сразу план в первоначальном запросе, ведь мы его меняли столько раз, чтобы итеративно доработать?
По двум причинам:
- проработка концепции - это один фокус модели, она должна думать о задаче, предметной области, вариантах решения, идеях и развитии; проработка плана - немного другой фокус, уже с вниманием на текущем существующем коде, интеграции, документации, сборке контекста; не нужно пытаться в одном запросе мешать два фокуса внимания - это снижает качество;
- рефлексию никто не отменял - модель "еще раз" просмотрит концепцию при формировании плана, особенно если вы ей это позволите, и может кое что лучше проработать, особенно когда при проработке плана она фокусирована на интеграции с существующим кодом;
...
Продолжение: https://t.me/deksden_notes/106
#post
@deksden_notes
Telegram
DEKSDEN notes
♊️ Планируем с Gemini
3/3
Предыдущая часть: https://t.me/deksden_notes/105
...
▶️ Третьим запросом к модели мы просим сформировать чек-лист по рефакторингу, где укажем все существенные детали реализации, которые важны для нашей системы и функционировании…
3/3
Предыдущая часть: https://t.me/deksden_notes/105
...
▶️ Третьим запросом к модели мы просим сформировать чек-лист по рефакторингу, где укажем все существенные детали реализации, которые важны для нашей системы и функционировании…
🔥8👍4❤🔥1
♊️ Планируем с Gemini
3/3
Предыдущая часть: https://t.me/deksden_notes/105
...
▶️ Третьим запросом к модели мы просим сформировать чек-лист по рефакторингу, где укажем все существенные детали реализации, которые важны для нашей системы и функционировании решения.
Модель, сформировав контекст из концепции + плана может выдать адекватный чек-лист для проверки как этот план реализован.
Чек-лист мы аналогично сохраняем в отдельный файлик md, и после завершения рефакторинга просим ИИ агента использовать этот чек-лист для проверки фактического кода и документации.
❓ Зачем нужен чек-лист, ведь у нас есть подробный план реализации? В принципе, можно и план реализации использовать как чек-лист, но отдельный документ улучшает качество проверки.
❓ А а чем вообще чек-лист, может достаточно одного плана? Как показывает практика, агент при реализации самого подробного плана всегда может немного отклониться от задания. А ревью сделанной работы по чек-листу помогает добиться практически гарантированной реализации задуманного. Посмотрите сами - даже в несложных задачах ревью по чек-листу может вскрыть какие то шероховатости.
▶️ Почёму мы вообще ведём речь об этом "ручном" способе планирования, если в нынешнее время уже есть ИИ агенты, и даже Gemini CLI, работающая ровно на этой же модели? Вопрос совершенно закономерный.
Тут важно понимать: есть существенная разница между контекстом, который сформировал агент, и контекстом из файла репозитория, где методично запакованы все файлы, ещё и, как правило, по папкам разложенные в логически связанные группы - мы же разные подсистемы обычно по папкам располагаем, и в репо они упакованы аналогично, рядом.
Качество контекста, который формирует агент очень сильно зависит от того, как вы ведёте меморибанк и насколько агент смог разобраться, какую релевантную информацию и из какого места следует подгрузить в контекст. Кроме того, агент как правило, читает файлы "кусками", что может вызвать некоторую фрагментацию.
В итоге: работа Gemini CLI и Gemini 2.5pro в AI Studio сильно отличается в пользу веб-версии: она меньше путается в контексте и почти не путается в сообщениях (только в районе лимита в 1m).
Gemini CLI не будет иметь каких то особенных преимуществ по сравнению с другим агентом, только за счёт огромного контекста - ведь этот контекст ещё надо собрать! и если Gemini его смог собрать по вашему меморибанку, скорее всего то же самое может сделать и другой агент. Да, Gemini CLI на большом контексте может теоретически работать дольше, но тут есть практические вопросы к более низкой агентности Gemini 2.5pro в сравнении с Клодом или Gpt-5-codex. Тут надо ждать Gemini 3.0, в которой, наверняка, агентность будут повышать - проблема то известная.
🟢 Такие вот приёмы я использую при планировании с Гемини - чего и вам настоятельно советую. На данный момент один из лучших вариантов для проектов меньше 1m токенов.
#post
@deksden_notes
3/3
Предыдущая часть: https://t.me/deksden_notes/105
...
▶️ Третьим запросом к модели мы просим сформировать чек-лист по рефакторингу, где укажем все существенные детали реализации, которые важны для нашей системы и функционировании решения.
Модель, сформировав контекст из концепции + плана может выдать адекватный чек-лист для проверки как этот план реализован.
Чек-лист мы аналогично сохраняем в отдельный файлик md, и после завершения рефакторинга просим ИИ агента использовать этот чек-лист для проверки фактического кода и документации.
❓ Зачем нужен чек-лист, ведь у нас есть подробный план реализации? В принципе, можно и план реализации использовать как чек-лист, но отдельный документ улучшает качество проверки.
❓ А а чем вообще чек-лист, может достаточно одного плана? Как показывает практика, агент при реализации самого подробного плана всегда может немного отклониться от задания. А ревью сделанной работы по чек-листу помогает добиться практически гарантированной реализации задуманного. Посмотрите сами - даже в несложных задачах ревью по чек-листу может вскрыть какие то шероховатости.
▶️ Почёму мы вообще ведём речь об этом "ручном" способе планирования, если в нынешнее время уже есть ИИ агенты, и даже Gemini CLI, работающая ровно на этой же модели? Вопрос совершенно закономерный.
Тут важно понимать: есть существенная разница между контекстом, который сформировал агент, и контекстом из файла репозитория, где методично запакованы все файлы, ещё и, как правило, по папкам разложенные в логически связанные группы - мы же разные подсистемы обычно по папкам располагаем, и в репо они упакованы аналогично, рядом.
Качество контекста, который формирует агент очень сильно зависит от того, как вы ведёте меморибанк и насколько агент смог разобраться, какую релевантную информацию и из какого места следует подгрузить в контекст. Кроме того, агент как правило, читает файлы "кусками", что может вызвать некоторую фрагментацию.
В итоге: работа Gemini CLI и Gemini 2.5pro в AI Studio сильно отличается в пользу веб-версии: она меньше путается в контексте и почти не путается в сообщениях (только в районе лимита в 1m).
Gemini CLI не будет иметь каких то особенных преимуществ по сравнению с другим агентом, только за счёт огромного контекста - ведь этот контекст ещё надо собрать! и если Gemini его смог собрать по вашему меморибанку, скорее всего то же самое может сделать и другой агент. Да, Gemini CLI на большом контексте может теоретически работать дольше, но тут есть практические вопросы к более низкой агентности Gemini 2.5pro в сравнении с Клодом или Gpt-5-codex. Тут надо ждать Gemini 3.0, в которой, наверняка, агентность будут повышать - проблема то известная.
🟢 Такие вот приёмы я использую при планировании с Гемини - чего и вам настоятельно советую. На данный момент один из лучших вариантов для проектов меньше 1m токенов.
#post
@deksden_notes
Telegram
DEKSDEN notes
Теперь пришло время составить план. Вам нужно объяснить модели что реализацию этого плана будет делать junior developer, у которого не будет доступа к контексту чата, и ему нужно будет рассказать все детали плана. Более того, он слабо разбирается в проекте…
🔥9👍4❤🔥2❤1
🕸️ RepoWiki своими силами
Qoder вышел интересным релизом - много новых концепций, интересно было посмотреть как оно работает. Фича с repoWiki (https://qoder.com/blog/repo-wiki-surfacing-implicit-knowledge) всем также зашла.
🟢 В чате проскальзывала мысль что мы мало практикой занимаемся. В связи с чем родилась такая идея: что если попробовать построить repowiki "своими силами" - сделать агентный воркфлоу для CC, который в произвольном проекте делает нечто похожее. Сугубо ортогонально к меморибанку. Просто будет папка с .repoWiki. К тому же, мы сможем тюнинговать процесс так, как нам надо!
‼️ В связи с этим - вопросы на обсуждение:
- надо такой прожект стартовать? актуально?
- если да - есть идеи по реализации? Как нам это надо?
- есть идеи по развитию концепции от "просто wiki"?
подключаемся, пишем обратную связь! Отличный проект для пары викэндов, кмк
Upd: в чем смысл? "Из любви к искусству".
На самом деле, полезно будет попрактиковаться в "снятии" архитектуры с проекта. Не до конца понятна возможность качественно уловить архитектурные паттерны более высокого порядка чем код по коду.
#post
@deksden_notes
Qoder вышел интересным релизом - много новых концепций, интересно было посмотреть как оно работает. Фича с repoWiki (https://qoder.com/blog/repo-wiki-surfacing-implicit-knowledge) всем также зашла.
🟢 В чате проскальзывала мысль что мы мало практикой занимаемся. В связи с чем родилась такая идея: что если попробовать построить repowiki "своими силами" - сделать агентный воркфлоу для CC, который в произвольном проекте делает нечто похожее. Сугубо ортогонально к меморибанку. Просто будет папка с .repoWiki. К тому же, мы сможем тюнинговать процесс так, как нам надо!
‼️ В связи с этим - вопросы на обсуждение:
- надо такой прожект стартовать? актуально?
- если да - есть идеи по реализации? Как нам это надо?
- есть идеи по развитию концепции от "просто wiki"?
подключаемся, пишем обратную связь! Отличный проект для пары викэндов, кмк
Upd: в чем смысл? "Из любви к искусству".
На самом деле, полезно будет попрактиковаться в "снятии" архитектуры с проекта. Не до конца понятна возможность качественно уловить архитектурные паттерны более высокого порядка чем код по коду.
#post
@deksden_notes
Qoder
Qoder - The Agentic Coding Platform
Qoder is an agentic coding platform for real software, think deeper, build better.
👍8❤🔥4🔥4
Forwarded from Konstantin Marunchenko
Всем привет!
Далаем вот такую штуку, можно сделать руками или сгенерить граф, а потом по нему генерится код.
Ноды полностью в natural language, то есть можно описывать через них архитектуру, или фичи, компоненты, и тд, даже таймлайн, если нужно.
Так же генерим проперти для каждой ноды, чтобы можно было контент добавлять, или редактировать какие-то свойства компонентов без изменения кода и без ИИ.
Работает поверх Claude Code, нужна их подписка, а вообще open-source.
https://github.com/manta-ide/manta
(админ разрешил, спс)
Далаем вот такую штуку, можно сделать руками или сгенерить граф, а потом по нему генерится код.
Ноды полностью в natural language, то есть можно описывать через них архитектуру, или фичи, компоненты, и тд, даже таймлайн, если нужно.
Так же генерим проперти для каждой ноды, чтобы можно было контент добавлять, или редактировать какие-то свойства компонентов без изменения кода и без ИИ.
Работает поверх Claude Code, нужна их подписка, а вообще open-source.
https://github.com/manta-ide/manta
(админ разрешил, спс)
GitHub
GitHub - manta-ide/manta
Contribute to manta-ide/manta development by creating an account on GitHub.
❤5👍4
🕵️♀️ cc-sessions: довольно интересный проект
👉 handoffs, hooks, гарды и все такое.
https://github.com/GWUDCAP/cc-sessions
🟢 Такое мы смотрим и изучаем!
#link
@deksden_notes
👉 handoffs, hooks, гарды и все такое.
https://github.com/GWUDCAP/cc-sessions
🟢 Такое мы смотрим и изучаем!
#link
@deksden_notes
GitHub
GitHub - GWUDCAP/cc-sessions: an opinionated approach to productive development with Claude Code
an opinionated approach to productive development with Claude Code - GWUDCAP/cc-sessions
🔥7👍2❤1
Орг объявление: Чат канала
Чтобы не терялись ответы на сообщения в чате (если просто написать без реплая), поставил настройку «пишут в чат только участники». Не удивляемся.
Добавление в чат свободное, ссылка в шапке канала.
Дублирую ссылку: https://t.me/+B1fB3sZbaVthMDhi
#post
@deksden_notes
Чтобы не терялись ответы на сообщения в чате (если просто написать без реплая), поставил настройку «пишут в чат только участники». Не удивляемся.
Добавление в чат свободное, ссылка в шапке канала.
Дублирую ссылку: https://t.me/+B1fB3sZbaVthMDhi
#post
@deksden_notes
Telegram
DEKSDEN (chat)
Чат канала DEKSDEN notes
(с) Denis @deksden Kiselev ))
(с) Denis @deksden Kiselev ))
❤1👍1👌1
GLM от Z.ai - на тест!
Подписался тестить coding plan on z.ai
Посмотрим чего там и как работает в сравнении с клодом
Рефералка тем кто хочет тоже попробовать с 10% скидкой:
🚀 You’ve been invited to join the GLM Coding Plan! Enjoy full support for Claude Code, Cline, and 10+ top coding tools — starting at just $3/month. Subscribe now and grab the limited-time deal!
Link:
https://z.ai/subscribe?cc=fission_glmcode_sub_v1&ic=JCBQLOIW7I&n=de***n%40deksden.com
#post
@deksden_notes
Подписался тестить coding plan on z.ai
Посмотрим чего там и как работает в сравнении с клодом
Рефералка тем кто хочет тоже попробовать с 10% скидкой:
🚀 You’ve been invited to join the GLM Coding Plan! Enjoy full support for Claude Code, Cline, and 10+ top coding tools — starting at just $3/month. Subscribe now and grab the limited-time deal!
Link:
https://z.ai/subscribe?cc=fission_glmcode_sub_v1&ic=JCBQLOIW7I&n=de***n%40deksden.com
#post
@deksden_notes
z.ai
GLM Coding Plan powered by GLM-4.5
AI-powered coding with GLM-4.5 in Claude Code, Cline, OpenCode, and more. Plans start at $3/month to help you code faster, smarter, and more reliably.
👍4❤2🔥2
🆕 Новый релиз кодекса
Кодекс продолжает бодро добавлять фичи. Я отметил из новых:
- лимиты показывает
- расширен режим /review
- автокомпакт появился (только для gpt-5-codex после 220k)
- подготовка к undo на базе git - но пока не ясно в какую фичу завернут
Агентов пока нету
https://github.com/openai/codex/releases/tag/rust-v0.40.0
#post
@deksden_notes
Кодекс продолжает бодро добавлять фичи. Я отметил из новых:
- лимиты показывает
- расширен режим /review
- автокомпакт появился (только для gpt-5-codex после 220k)
- подготовка к undo на базе git - но пока не ясно в какую фичу завернут
Агентов пока нету
https://github.com/openai/codex/releases/tag/rust-v0.40.0
#post
@deksden_notes
GitHub
Release 0.40.0 · openai/codex
Notable Changes
Default model is now gpt-5-codex (#4076)
Autocompaction is triggered automatically for gpt-5-codex when hitting 220k tokens (#4093)
Usage limits are now visible in /status (#4053)
...
Default model is now gpt-5-codex (#4076)
Autocompaction is triggered automatically for gpt-5-codex when hitting 220k tokens (#4093)
Usage limits are now visible in /status (#4053)
...
🔥4❤3👀2
⚒️ Клод Код тоже развивается - Claude Code v1.0.123
новый релиз, и новая интересная возможность!
🆕 Version 1.0.123:
• Bash permission rules now support output redirections when matching (e.g.,
• Fixed thinking mode triggering on negation phrases like "don't think"
• Fixed rendering performance degradation during token streaming
• Added SlashCommand tool, which enables Claude to invoke your slash commands.
https://docs.claude.com/en/docs/claude-code/slash-commands#SlashCommand-tool
• Enhanced BashTool environment snapshot logging
• Fixed a bug where resuming a conversation in headless mode would sometimes enable thinking unnecessarily
• Migrated --debug logging to a file, to enable easy tailing & filtering
🟢 Из этого всего интересно смотреть на SlashCommand Tool. Интересно, что раздел документации по ссылке пока не появился.
Я так понимаю, теперь можно будет агентом вызвать команду, которая у вас определена! то есть многие воркфлоу которые запускались руками теперь можно запускать агентом. Nice
#post
@deksden_notes
новый релиз, и новая интересная возможность!
🆕 Version 1.0.123:
• Bash permission rules now support output redirections when matching (e.g.,
Bash(python:*) matches `python script.py > output.txt`)• Fixed thinking mode triggering on negation phrases like "don't think"
• Fixed rendering performance degradation during token streaming
• Added SlashCommand tool, which enables Claude to invoke your slash commands.
https://docs.claude.com/en/docs/claude-code/slash-commands#SlashCommand-tool
• Enhanced BashTool environment snapshot logging
• Fixed a bug where resuming a conversation in headless mode would sometimes enable thinking unnecessarily
• Migrated --debug logging to a file, to enable easy tailing & filtering
🟢 Из этого всего интересно смотреть на SlashCommand Tool. Интересно, что раздел документации по ссылке пока не появился.
Я так понимаю, теперь можно будет агентом вызвать команду, которая у вас определена! то есть многие воркфлоу которые запускались руками теперь можно запускать агентом. Nice
#post
@deksden_notes
Claude Code Docs
Extend Claude with skills - Claude Code Docs
Create, manage, and share skills to extend Claude's capabilities in Claude Code. Includes custom slash commands.
❤1👍1🔥1
❓ Вы же знали что с Клод Кодом можно поговорить про Клод Код?
Да, и документация в него встроена актуальная. Удобно, к слову.
На скринах - расспросы про SlashCommand tool.
Upd: на про тарифе будет жалко тратить запросы? Подключайте зая - там задёшево дают х3 трафика, работает точно не хуже соннета на простых задачах. тарифы с $3 стартуют, кмк демпинг, конечно! продают на месяц/квартал/год
Я, кстати, подписок на квартал вроде пока даже и не видел в других местах! Новация получается, что ли?)
#post
@deksden_notes
Да, и документация в него встроена актуальная. Удобно, к слову.
На скринах - расспросы про SlashCommand tool.
Upd: на про тарифе будет жалко тратить запросы? Подключайте зая - там задёшево дают х3 трафика, работает точно не хуже соннета на простых задачах. тарифы с $3 стартуют, кмк демпинг, конечно! продают на месяц/квартал/год
Я, кстати, подписок на квартал вроде пока даже и не видел в других местах! Новация получается, что ли?)
#post
@deksden_notes
🔥5❤3👍2
▶️ Хорошие художники копируют, гениальные - воруют
Тут у Алмаза в Иишнице @aiclubsweggs обсуждали свежие фичи Qwen Coder. Интересно, что по фичам он обгоняет "прародителя" Gemini Cli.
Если конкретно - todoWrte и субагентов. Ну и чекпоинты. Сделали все правильно - скопировали все как было))
Интересно, как много продуктовых фич проработано в СС: например, todoWrite усилен не просто наличием инструмента для модели (todoWrite/todoRead), но и UI решением (пункты плана пишутся под строкой индикатором текущего действия), сделана возможно сть разворачивать план действий агента (переключается Ctrl+T), сделана слеш команда /todos для просмотра плана в любой момент, сделано напоминание в контекст <system-reminder> про план и необходимость его использования.
Фича выглядит порработанной со многих сторон. Это и делает СС одним из лучших решений на рынке! Хотелось бы чтобы и остальные решения подтягивались к уровню.
‼️ вот Кодекс нынче объявляет сбор фидбэка про функцию planning mode. Обязательно кидаем им свои мысли - это реально повлияет на развитие продукта! Не проходите мимо, помогите художникам:
https://x.com/embirico/status/1970944774460015072?s=46
☝️
upd: я просил:
- Research перед планирвоанием
- Explanatory style в ответах
- отдельный контекст исполнения от планирования
- ну и СУБАГЕНТОВ
#post
@deksden_notes
Тут у Алмаза в Иишнице @aiclubsweggs обсуждали свежие фичи Qwen Coder. Интересно, что по фичам он обгоняет "прародителя" Gemini Cli.
Если конкретно - todoWrte и субагентов. Ну и чекпоинты. Сделали все правильно - скопировали все как было))
Интересно, как много продуктовых фич проработано в СС: например, todoWrite усилен не просто наличием инструмента для модели (todoWrite/todoRead), но и UI решением (пункты плана пишутся под строкой индикатором текущего действия), сделана возможно сть разворачивать план действий агента (переключается Ctrl+T), сделана слеш команда /todos для просмотра плана в любой момент, сделано напоминание в контекст <system-reminder> про план и необходимость его использования.
Фича выглядит порработанной со многих сторон. Это и делает СС одним из лучших решений на рынке! Хотелось бы чтобы и остальные решения подтягивались к уровню.
‼️ вот Кодекс нынче объявляет сбор фидбэка про функцию planning mode. Обязательно кидаем им свои мысли - это реально повлияет на развитие продукта! Не проходите мимо, помогите художникам:
https://x.com/embirico/status/1970944774460015072?s=46
☝️
upd: я просил:
- Research перед планирвоанием
- Explanatory style в ответах
- отдельный контекст исполнения от планирования
- ну и СУБАГЕНТОВ
#post
@deksden_notes
X (formerly Twitter)
Alexander Embiricos (@embirico) on X
Okay so about planning mode...
Can folks share why/how they'd want it to work beyond the current Read Only mode? ELI5 please!
Can folks share why/how they'd want it to work beyond the current Read Only mode? ELI5 please!
1👍6❤3
Апдейт: появилась дока про SlashCommand tool в СС
https://t.me/deksden_notes/113
Много интересных нюансов использования:
- встроенные команды не поддерживаются; то есть /compact дёрнуть не получится
- можно запретить определённые команды
- можно контролировать вызов и наличие аргументов
- поддерживается бюджет токенов
Эта фича помещает в контекст описание всех команд в рамках бюджета. смотреть сколько контекста тратится через /context.
Вот дока:
https://docs.claude.com/en/docs/claude-code/slash-commands#slashcommand-tool
#post
@deksden_notes
https://t.me/deksden_notes/113
Много интересных нюансов использования:
- встроенные команды не поддерживаются; то есть /compact дёрнуть не получится
- можно запретить определённые команды
- можно контролировать вызов и наличие аргументов
- поддерживается бюджет токенов
Эта фича помещает в контекст описание всех команд в рамках бюджета. смотреть сколько контекста тратится через /context.
Вот дока:
https://docs.claude.com/en/docs/claude-code/slash-commands#slashcommand-tool
#post
@deksden_notes
Telegram
DEKSDEN notes
⚒️ Клод Код тоже развивается - Claude Code v1.0.123
новый релиз, и новая интересная возможность!
🆕 Version 1.0.123:
• Bash permission rules now support output redirections when matching (e.g., Bash(python:*) matches `python script.py > output.txt`)…
новый релиз, и новая интересная возможность!
🆕 Version 1.0.123:
• Bash permission rules now support output redirections when matching (e.g., Bash(python:*) matches `python script.py > output.txt`)…
🔥3👍1
⚒️ Qwen Code: появился Plan Mode
Новости AI SWE tools тусовки. Краем глаза слежу за развитием других консольных агентов, даже за форками - в последнее время квенкод решил добить все известные фичи. Недавно - субагентов, а нынче в квенкода завезли plan mode. Пока оригинальный Gemini Cli и Codex все его пилят, китайцы уже сделали! Из описания видно что ориентировались на СС, что есть хорошо - там удобный планмод.
https://github.com/QwenLM/qwen-code/pull/658
Ну - респект китайцам. Жду feature parity и когда они приступят к отработке нестандартных экспериментальных направлений.
Upd: обращаем внимание, квенкод - это софтина, агент, квенкодер - это модель.
#post
@deksden_notes
Новости AI SWE tools тусовки. Краем глаза слежу за развитием других консольных агентов, даже за форками - в последнее время квенкод решил добить все известные фичи. Недавно - субагентов, а нынче в квенкода завезли plan mode. Пока оригинальный Gemini Cli и Codex все его пилят, китайцы уже сделали! Из описания видно что ориентировались на СС, что есть хорошо - там удобный планмод.
https://github.com/QwenLM/qwen-code/pull/658
Ну - респект китайцам. Жду feature parity и когда они приступят к отработке нестандартных экспериментальных направлений.
Upd: обращаем внимание, квенкод - это софтина, агент, квенкодер - это модель.
#post
@deksden_notes
GitHub
feat: Implement Plan Mode for Safe Code Planning by tanzhenxin · Pull Request #658 · QwenLM/qwen-code
🎯 Summary
This PR introduces Plan Mode, a new approval workflow that allows users to review and approve implementation plans before any code changes are made. This feature enhances safety and contr...
This PR introduces Plan Mode, a new approval workflow that allows users to review and approve implementation plans before any code changes are made. This feature enhances safety and contr...
2👍4❤1
▶️ Code (он же CODER) - форк Кодекса
Обнаружен новый форк кодекса с парой дополнительных фич - CODE (также известен под именем CODER).
https://github.com/just-every/code
🟢 Добавлена:
- интеграция с браузером
- умеет запускать мульти-агентные задачи (запускает Claude, gemini, qwen) для plan, code, solve.
- работает под подписке ChatGPT и даже не требует отдельного логина, использует кодекс
Посмотреть точно любопытьно, но где взять время чтобы во всем разобраться!))
Upd: пока по мне самая любопытная фича - это работа нескольких агентов. CODE находит других агентов в системе (у меня нашлись gemini, qwen, CC). Глючит, но в режиме /plan чего то отвечает. Смотреть на панель - Ctrl+A.
Сыровато, но концепт такой системы очевидно имеет смысл: ответы вполне интересные.
#post
@deksden_notes
Обнаружен новый форк кодекса с парой дополнительных фич - CODE (также известен под именем CODER).
https://github.com/just-every/code
🟢 Добавлена:
- интеграция с браузером
- умеет запускать мульти-агентные задачи (запускает Claude, gemini, qwen) для plan, code, solve.
- работает под подписке ChatGPT и даже не требует отдельного логина, использует кодекс
Посмотреть точно любопытьно, но где взять время чтобы во всем разобраться!))
Upd: пока по мне самая любопытная фича - это работа нескольких агентов. CODE находит других агентов в системе (у меня нашлись gemini, qwen, CC). Глючит, но в режиме /plan чего то отвечает. Смотреть на панель - Ctrl+A.
Сыровато, но концепт такой системы очевидно имеет смысл: ответы вполне интересные.
#post
@deksden_notes
GitHub
GitHub - just-every/code: Every Code - push frontier AI to it limits. A fork of the Codex CLI with validation, automation, browser…
Every Code - push frontier AI to it limits. A fork of the Codex CLI with validation, automation, browser integration, multi-agents, theming, and much more. Orchestrate agents from OpenAI, Claude, G...
👍9🔥2🤝1
Осень 🍂 в этом году наступила раньше!
Осеннее обновление от антропиков: Sonnet 4.5! В этом сезоне - раньше обычного. Что кодекс животворящий делает.
Профильные каналы уже опубликовали кучу графиков, где новый соннет повыше кодекса-5 и 2.5-про. Что интересно, повые опуса 4.1! Кто бы сомневался.
🟢 Вот карточка модели:
https://assets.anthropic.com/m/12f214efcc2f457a/original/Claude-Sonnet-4-5-System-Card.pdf
❓ Что надо посмотреть на практике - насколько убрали:
- подхалимство
- тягу "срезать углы" (халтурить и лениться)
- эффекты "отупения", преследующие антропиков с августа
▶️ соннет 4.-5 может так: An experimental new way to design software
https://www.youtube.com/watch?v=dGiqrsv530Y
и живьём: https://claude.ai/imagine/
▶️ Само-редактирование контекста в апи:
https://www.anthropic.com/news/context-management
https://docs.claude.com/en/docs/build-with-claude/context-editing
-
‼️ А вот это - интересно: Claude Code 2.0 🔥
- нативный VS Code plugin
- новый look
- чекпоинты (/rewind)
- /usage - показываем лимиты (и для веб-приложения на claude.ai тоже можно смотреть лимиты, https://x.com/claudeai/status/1972732965219438674?t=0h9rnmwoyvVD6pzVuXjWZg&s=35)
- Tab для вкл/выкл thinking (а как же кастомная анимация?!)
- Ctrl+R которая раньше включала Transcript mode (теперь Ctrl+O) получила функцию Поиска по истории
- "Unshipped claude config command" - чтоб бы это ни значило;
- Claude Code SDK переименован в Claude Agent SDK
- Add subagents dynamically with --agents flag : с этим надо разобраться, чего такое
https://github.com/anthropics/claude-code/blob/main/CHANGELOG.md#200
👉 Почитать про SDK: https://www.anthropic.com/engineering/building-agents-with-the-claude-agent-sdk
а вот под капотом SDK есть содержательные изменения: https://docs.claude.com/en/docs/claude-code/sdk/migration-guide
- системный промпт теперь пустой по-умолчанию, раньше был от claude code; можно настроить чтобы было как раньше;
- больше не грузим по-умолчанию настройки из файловой системы (CLAUDE.md, settings.json, slash commands, etc.); можно специально настроить чтобы было как раньше;
👉 Меморибанк от антропиков, начало: https://docs.claude.com/en/docs/agents-and-tools/tool-use/memory-tool (Memory tool): довольно базовая штука, просто абстрактная память, похожая на файловую систему.
В общем, есть что посмотреть и потрогать! Удачно началась неделя.
#post
@deksden_notes
Осеннее обновление от антропиков: Sonnet 4.5! В этом сезоне - раньше обычного. Что кодекс животворящий делает.
Профильные каналы уже опубликовали кучу графиков, где новый соннет повыше кодекса-5 и 2.5-про. Что интересно, повые опуса 4.1! Кто бы сомневался.
🟢 Вот карточка модели:
https://assets.anthropic.com/m/12f214efcc2f457a/original/Claude-Sonnet-4-5-System-Card.pdf
❓ Что надо посмотреть на практике - насколько убрали:
- подхалимство
- тягу "срезать углы" (халтурить и лениться)
- эффекты "отупения", преследующие антропиков с августа
▶️ соннет 4.-5 может так: An experimental new way to design software
https://www.youtube.com/watch?v=dGiqrsv530Y
и живьём: https://claude.ai/imagine/
▶️ Само-редактирование контекста в апи:
https://www.anthropic.com/news/context-management
https://docs.claude.com/en/docs/build-with-claude/context-editing
-
‼️ А вот это - интересно: Claude Code 2.0 🔥
- нативный VS Code plugin
- новый look
- чекпоинты (/rewind)
- /usage - показываем лимиты (и для веб-приложения на claude.ai тоже можно смотреть лимиты, https://x.com/claudeai/status/1972732965219438674?t=0h9rnmwoyvVD6pzVuXjWZg&s=35)
- Tab для вкл/выкл thinking (а как же кастомная анимация?!)
- Ctrl+R которая раньше включала Transcript mode (теперь Ctrl+O) получила функцию Поиска по истории
- "Unshipped claude config command" - чтоб бы это ни значило;
- Claude Code SDK переименован в Claude Agent SDK
- Add subagents dynamically with --agents flag : с этим надо разобраться, чего такое
https://github.com/anthropics/claude-code/blob/main/CHANGELOG.md#200
👉 Почитать про SDK: https://www.anthropic.com/engineering/building-agents-with-the-claude-agent-sdk
а вот под капотом SDK есть содержательные изменения: https://docs.claude.com/en/docs/claude-code/sdk/migration-guide
- системный промпт теперь пустой по-умолчанию, раньше был от claude code; можно настроить чтобы было как раньше;
- больше не грузим по-умолчанию настройки из файловой системы (CLAUDE.md, settings.json, slash commands, etc.); можно специально настроить чтобы было как раньше;
👉 Меморибанк от антропиков, начало: https://docs.claude.com/en/docs/agents-and-tools/tool-use/memory-tool (Memory tool): довольно базовая штука, просто абстрактная память, похожая на файловую систему.
В общем, есть что посмотреть и потрогать! Удачно началась неделя.
#post
@deksden_notes
👍9🔥6❤2
🔥 ЗАЙку не бросила хозяйка!
Не так давно я упоминал про тест GLM с Coding Plan:
https://t.me/deksden_notes/87
https://t.me/deksden_notes/111
Нынче, сразу за Соннетом 4.5 появился доработанный GLM-4.6!
https://docs.z.ai/guides/llm/glm-4.6
Есть даже тесты в сравнении с соннетом 4.5 - что очень необычно: он же вышел буквально вчера. Вот это оперативность! Поспешили)) Даже видно как статейку на сайте через search/replace готовили - там соннет иногда упоминается как 4.6)) но все равно приятно, молодцы.
Что 🆕 нового:
- контекст 200к! 🔥
- доработали кодинг в общем, и фронт в частности;
- сильнее рассуждения и агентность
- лучше работает с текстом и держит стиль
Бенчи по ссылке на картинках, там все немного лучше!
Респект китайцам. Обновляем env переменную в настройках СС))
#post
@deksden_notes
Не так давно я упоминал про тест GLM с Coding Plan:
https://t.me/deksden_notes/87
https://t.me/deksden_notes/111
Нынче, сразу за Соннетом 4.5 появился доработанный GLM-4.6!
https://docs.z.ai/guides/llm/glm-4.6
Есть даже тесты в сравнении с соннетом 4.5 - что очень необычно: он же вышел буквально вчера. Вот это оперативность! Поспешили)) Даже видно как статейку на сайте через search/replace готовили - там соннет иногда упоминается как 4.6)) но все равно приятно, молодцы.
Что 🆕 нового:
- контекст 200к! 🔥
- доработали кодинг в общем, и фронт в частности;
- сильнее рассуждения и агентность
- лучше работает с текстом и держит стиль
Бенчи по ссылке на картинках, там все немного лучше!
Респект китайцам. Обновляем env переменную в настройках СС))
#post
@deksden_notes
🔥8👍1