🆕 Первые впечатления от Claude for Chrome
Утром получил письмо счастья от Антропиков, что мой лист ожидания сработал и у меня есть доступ к их новой фиче, клод в твоём браузере.
Ура!
Пойдём тестить.
Качаем расширение, логинимся в клод с Макс тарифом, одобряем подключение расширения и получаем аккуратную панель чата с клодом сбоку странички.
Ставим одобрение всего сразу - "нам нечего терять кроме наших цепей!"
Просим смотреть озон и искать товары. Заходит норм, антибот озона на него не срабатывает, что отлично. Поиском пользуется, навигацию по сайту делает.
Дальше начинаем тупить - при попытке открыть товар кликом по нему, на озоне он открывается в новой вкладке, чего клод не видит и тупит.
Потыкавшись немного в проблему с невозможностью зайти в товар, он придумывает сходить в гугл поиск. Далее получаем ошибку переполнения контекста.
Ну ок - что то работает, что то нет. Надо подумать над другими тестами
#post
@deksden_notes
Утром получил письмо счастья от Антропиков, что мой лист ожидания сработал и у меня есть доступ к их новой фиче, клод в твоём браузере.
Ура!
Пойдём тестить.
Качаем расширение, логинимся в клод с Макс тарифом, одобряем подключение расширения и получаем аккуратную панель чата с клодом сбоку странички.
Ставим одобрение всего сразу - "нам нечего терять кроме наших цепей!"
Просим смотреть озон и искать товары. Заходит норм, антибот озона на него не срабатывает, что отлично. Поиском пользуется, навигацию по сайту делает.
Дальше начинаем тупить - при попытке открыть товар кликом по нему, на озоне он открывается в новой вкладке, чего клод не видит и тупит.
Потыкавшись немного в проблему с невозможностью зайти в товар, он придумывает сходить в гугл поиск. Далее получаем ошибку переполнения контекста.
Ну ок - что то работает, что то нет. Надо подумать над другими тестами
#post
@deksden_notes
❤2🔥2👍1🤣1
🤔 Думать надо анимированно
Тут подоспел релиз СС с индексом 115 (на самом деле 117 уже)
И в нем реализовали визуальный фект для "магических" слов, которые заставляют Клод думать
Попробуйте!
Пишем в строке ввода в СС:
- think
- think hard, think deeply
- ultrathink
Эффект разный)) Не уверен что это прям нужно, но местами может быть даже полезно и забавно
Upd: коллеги уже постят мемы на тему
https://t.me/aiclubsweggs/73056
#post
@deksden_notes
Тут подоспел релиз СС с индексом 115 (на самом деле 117 уже)
И в нем реализовали визуальный фект для "магических" слов, которые заставляют Клод думать
Попробуйте!
Пишем в строке ввода в СС:
- think
- think hard, think deeply
- ultrathink
Эффект разный)) Не уверен что это прям нужно, но местами может быть даже полезно и забавно
Upd: коллеги уже постят мемы на тему
https://t.me/aiclubsweggs/73056
#post
@deksden_notes
👍1🔥1
DEKSDEN notes
⚒️ Новый релиз codex 0.36.0 и gpt-5-codex модель Не даром аж 4 дня не обновляли кодекс! Готовился достаточно крупный релиз: - новая специальная кодинговая модель - codex resume : можно выбрать сессию которую восстанавливать, можно --last, можно по <id> …
⚒️ Gpt-5-codex, вторые впечатления
Первые впечатления были тут https://t.me/deksden_notes/91
Это - вторые впечатления.
В общем, модель очевидно другая в части агентности. В районе часа над моими задачами работает сама, без особых плясок с бубном. План, конечно, выгрузил в файлик - но не особо пригождается: ей хватает контекста! Удивительно. Надо изучить как именно она так экономно работает с контекстом.
Запускать что то внешнее по прежнему можно с проблемами.
модель иногда достаточно медленная.
но все это не главное - главное что модель весьма умная! радует
Плюс: она не льстит, что капец как важно при обсуждениях.
Хороший релиз, кмк.
#post
@deksden_notes
Первые впечатления были тут https://t.me/deksden_notes/91
Это - вторые впечатления.
В общем, модель очевидно другая в части агентности. В районе часа над моими задачами работает сама, без особых плясок с бубном. План, конечно, выгрузил в файлик - но не особо пригождается: ей хватает контекста! Удивительно. Надо изучить как именно она так экономно работает с контекстом.
Запускать что то внешнее по прежнему можно с проблемами.
модель иногда достаточно медленная.
но все это не главное - главное что модель весьма умная! радует
Плюс: она не льстит, что капец как важно при обсуждениях.
Хороший релиз, кмк.
#post
@deksden_notes
👍6🔥3😁1
Github MCP Registry
BIG news для отрасли, в каком то смысле. Github запускает свой регистр MCP серверов, убив разом пучок стартапов, видимо!
https://github.blog/ai-and-ml/github-copilot/meet-the-github-mcp-registry-the-fastest-way-to-discover-mcp-servers/
Нужная инициатива и признание роли MCP. Круто же! )
К релизу приурочен GA собственного MCP от GitHub
https://github.blog/changelog/2025-09-04-remote-github-mcp-server-is-now-generally-available/
Пока в реестре 38 серверов всего, но в планах - поддержка/интеграция с открытым реестром:
https://github.com/modelcontextprotocol/registry/
Интересно, конечно
#post
@deksden_notes
BIG news для отрасли, в каком то смысле. Github запускает свой регистр MCP серверов, убив разом пучок стартапов, видимо!
https://github.blog/ai-and-ml/github-copilot/meet-the-github-mcp-registry-the-fastest-way-to-discover-mcp-servers/
Нужная инициатива и признание роли MCP. Круто же! )
К релизу приурочен GA собственного MCP от GitHub
https://github.blog/changelog/2025-09-04-remote-github-mcp-server-is-now-generally-available/
Пока в реестре 38 серверов всего, но в планах - поддержка/интеграция с открытым реестром:
https://github.com/modelcontextprotocol/registry/
Интересно, конечно
#post
@deksden_notes
🔥4👍1
🐞 Anthropic публикует post-mortem анализ багов с Claude
Сабж: https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues
❓ Верим? Причина "отупления" Claude Code найдена и устранена?
▶️ Я не могу сказать, я особо на такие эффекты не натыкался. Пытаясь разобраться, сравнивал какие заключения о причинах багов делает sonnet и gpt-5-codex/high . В целом, кодекс обычно подтверждает выводы, но может копнуть поглубже, и лучше "понимает" как комплексно исправить баг.
Конечно, более корректно сравнивать opus 4.1 с codex/high, чем я сейчас занимаюсь. Результаты расскажу, конечно - но надо бы поднабрать статистику. ⏩️
👉 А у вас какой опыт/наблюдения?
#post
@deksden_notes
Сабж: https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues
❓ Верим? Причина "отупления" Claude Code найдена и устранена?
▶️ Я не могу сказать, я особо на такие эффекты не натыкался. Пытаясь разобраться, сравнивал какие заключения о причинах багов делает sonnet и gpt-5-codex/high . В целом, кодекс обычно подтверждает выводы, но может копнуть поглубже, и лучше "понимает" как комплексно исправить баг.
Конечно, более корректно сравнивать opus 4.1 с codex/high, чем я сейчас занимаюсь. Результаты расскажу, конечно - но надо бы поднабрать статистику. ⏩️
👉 А у вас какой опыт/наблюдения?
#post
@deksden_notes
🤔3👍1🔥1
📦 Кейс: пакуем проекты с Repomix
1/2
Небольшой практический кейс.
Вспомним те доисторические времена, овеянные легендами древности, когда для работы с проектами мы использовали веб приложения чатов с различными моделями. Ведь тогда нам ещё не явились ИИ агенты с подписками по разумным ценам! Но и сейчас есть достойные случаи для всей этой возни с веб чатами: например, контекст в 1m токенов у Гемини, который позволяет модели сразу видеть огромный объём данных - например, ваш проект целиком. До сих пор скорость, удобство и качество такого подхода сложно превзойти любому ИИ агенту с каким бы то ни было меморибанком или индексом (пожалуй, только Qoder немного составляет конкуренцию).
Поэтому кейс актуален и по сей день.
▶️ Для передачи в Ai Studio будем использовать Repomix (https://repomix.com/), поставим его в свой проект своим любимым менеджером пакетов - инструкции на оффсайте по ссылке чуть выше.
Для ts/js проектов в проектах я прописываю скрипт для использования репомикс в package.json: "repomix:all": "repomix -c repomix.config.json". Как ещё можно запаковать, почему "all", для чего нужно по-другому? Например, для крупных проектов - только меморибанк, чтобы хотя бы общие вещи обсуждать. Можно паковать только код - без тестов, если размер проекта пограничный на 1m токенов, или вы не хотите размывания внимания модели.
Для обеспечения разных "видов" паковки нам потребуются разные конфиги repomix. конфиг - файл в корне проекта, документация по нему на оффсайте.
🟢 Вот пример моего конфига для "repomix:no-test": "repomix -c repomix.no-test.config.json":
Особенности "пациента": игнорируется куча ненужных файлов: разные артефакты агентов, IDE, менеджеров пакетов и прочее, что не очень нужно (артефакты тестирования/сборки/ci-cd).
Обратите внимание : меморибанк я смотрю через Obsidian, подключая его как отдельный Vault - мы игнорируем служебную папку Obsidian.
Мы игнорируем папки агентов и команд - они подключены к Клоду (в папку '.claude/' проекта) через симлинки, - чтобы я мог хранить команды и агентов. Если нужно, я могу переподключить на уровень пользователя для использования этого же набора агентов и команд в другом проекте. Или использовать эти команды в другом ИИ агенте - вдруг появятся совместимые по формату.
"seeds/" - вспомогательные папки, храню там начальные данные для БД. "scripts/" - вспомогательные скрипты (sh/ts).
Если использовать расширение *.jsonc/*.json5 (https://github.com/yamadashy/repomix/issues/618) можно комменты в конфиг добавлять без репорта об ошибках от IDE.
...
продолжение: https://t.me/deksden_notes/103
1/2
Небольшой практический кейс.
Вспомним те доисторические времена, овеянные легендами древности, когда для работы с проектами мы использовали веб приложения чатов с различными моделями. Ведь тогда нам ещё не явились ИИ агенты с подписками по разумным ценам! Но и сейчас есть достойные случаи для всей этой возни с веб чатами: например, контекст в 1m токенов у Гемини, который позволяет модели сразу видеть огромный объём данных - например, ваш проект целиком. До сих пор скорость, удобство и качество такого подхода сложно превзойти любому ИИ агенту с каким бы то ни было меморибанком или индексом (пожалуй, только Qoder немного составляет конкуренцию).
Поэтому кейс актуален и по сей день.
▶️ Для передачи в Ai Studio будем использовать Repomix (https://repomix.com/), поставим его в свой проект своим любимым менеджером пакетов - инструкции на оффсайте по ссылке чуть выше.
Для ts/js проектов в проектах я прописываю скрипт для использования репомикс в package.json: "repomix:all": "repomix -c repomix.config.json". Как ещё можно запаковать, почему "all", для чего нужно по-другому? Например, для крупных проектов - только меморибанк, чтобы хотя бы общие вещи обсуждать. Можно паковать только код - без тестов, если размер проекта пограничный на 1m токенов, или вы не хотите размывания внимания модели.
Для обеспечения разных "видов" паковки нам потребуются разные конфиги repomix. конфиг - файл в корне проекта, документация по нему на оффсайте.
🟢 Вот пример моего конфига для "repomix:no-test": "repomix -c repomix.no-test.config.json":
repomix.no-test.config.json:
{
"output": {
"filePath": "_repo.xml",
"style": "xml",
"parsableStyle": false,
"fileSummary": true,
"directoryStructure": true,
"removeComments": false,
"removeEmptyLines": false,
"topFilesLength": 5,
"showLineNumbers": false,
"copyToClipboard": false
},
"include": [],
"ignore": {
"useGitignore": true,
"useDefaultPatterns": false,
"customPatterns": [
".git",
"data",
".husky",
"pnpm*.*",
"_archive/",
// "src/",
".tasks/",
".memory-bank/archive/",
".memory-bank/.obsidian/",
".memory-bank/agents/",
".memory-bank/commands/",
".memory-bank/issues/",
".vscode/",
".idea",
".gemini",
".codex",
".claude",
".aider",
".github",
"test-results/",
"tests/",
"seeds/",
"scripts/",
"logs",
".run",
"*.patch",
"**/*.log",
"log*.txt",
"*-lock.*",
"LICENSE"
]
},
"security": {
"enableSecurityCheck": true
},
"tokenCount": {
"encoding": "o200k_base"
}
}
Особенности "пациента": игнорируется куча ненужных файлов: разные артефакты агентов, IDE, менеджеров пакетов и прочее, что не очень нужно (артефакты тестирования/сборки/ci-cd).
Обратите внимание : меморибанк я смотрю через Obsidian, подключая его как отдельный Vault - мы игнорируем служебную папку Obsidian.
Мы игнорируем папки агентов и команд - они подключены к Клоду (в папку '.claude/' проекта) через симлинки, - чтобы я мог хранить команды и агентов. Если нужно, я могу переподключить на уровень пользователя для использования этого же набора агентов и команд в другом проекте. Или использовать эти команды в другом ИИ агенте - вдруг появятся совместимые по формату.
"seeds/" - вспомогательные папки, храню там начальные данные для БД. "scripts/" - вспомогательные скрипты (sh/ts).
Если использовать расширение *.jsonc/*.json5 (https://github.com/yamadashy/repomix/issues/618) можно комменты в конфиг добавлять без репорта об ошибках от IDE.
...
продолжение: https://t.me/deksden_notes/103
Repomix
Pack your codebase into AI-friendly formats
🔥4❤3👍1
📦 Кейс: пакуем проекты с Repomix
2/2
Начало: https://t.me/deksden_notes/102
...
В этом конфиге указано, что ИГНОРИРУЕТСЯ папка "tests/". В принципе, в качестве игнорируемых папок можно прописать ВСЕ ПАПКИ исходников проекта, и комментировать те, которые НУЖНО ВКЛЮЧИТЬ. Так можно точечно включать или выключать нужные папки. Такой конфиг можно назвать "repomix:cutom" и использовать его в специальных случаях.
Используем кастомные конфиги если нужно экономить контекст - отключаем паковку "кусков" системы, которые обсуждать с Gemini не будем - например, обсуждая UI, можно отключить api (кроме спеков по контрактам/описанию api). Всегда можно часто используемые "пресеты" сохранить в отдельную конфигурацию и уже паковать её скриптом одним кликом - я всегда за автоматизацию, она сокращает ошибки и не тратит ресурс внимания пользователя.
▶️ Когда repomix запаковал проект, полезно в логе посмотреть такие вещи:
- Главное: какого размера получился
- Второе: какие самые крупные файлы попали в проект - иногда паковка "хватает" ненужные файлы типа логов или какие то крупные служебные файлы, или какой нибудь json экспорт или ещё чего то лишнее.
- Можно открыть репо файл в вашей IDE и посмотреть оглавление - repomix его добавляет в начало файла. Там проверьте, что все нужные папки и файлы попали в репозиторий.
▶️ Итак, репо файл получен, мы готовы для его загрузки в AI Studio. Счётчик токенов студии будет немного другой чем у репомикса, потому что Гугл использует иные токенайзеры, но это не принципиально.
👉 К слову - файл прекрасно загружается в DeepSeek, z.ai, ChatGPT Pro, Grok, claude.ai.
#post
@deksden_notes
2/2
Начало: https://t.me/deksden_notes/102
...
В этом конфиге указано, что ИГНОРИРУЕТСЯ папка "tests/". В принципе, в качестве игнорируемых папок можно прописать ВСЕ ПАПКИ исходников проекта, и комментировать те, которые НУЖНО ВКЛЮЧИТЬ. Так можно точечно включать или выключать нужные папки. Такой конфиг можно назвать "repomix:cutom" и использовать его в специальных случаях.
Используем кастомные конфиги если нужно экономить контекст - отключаем паковку "кусков" системы, которые обсуждать с Gemini не будем - например, обсуждая UI, можно отключить api (кроме спеков по контрактам/описанию api). Всегда можно часто используемые "пресеты" сохранить в отдельную конфигурацию и уже паковать её скриптом одним кликом - я всегда за автоматизацию, она сокращает ошибки и не тратит ресурс внимания пользователя.
▶️ Когда repomix запаковал проект, полезно в логе посмотреть такие вещи:
- Главное: какого размера получился
_repo.xml в токенах, чтобы было меньше 1m. - Второе: какие самые крупные файлы попали в проект - иногда паковка "хватает" ненужные файлы типа логов или какие то крупные служебные файлы, или какой нибудь json экспорт или ещё чего то лишнее.
- Можно открыть репо файл в вашей IDE и посмотреть оглавление - repomix его добавляет в начало файла. Там проверьте, что все нужные папки и файлы попали в репозиторий.
▶️ Итак, репо файл получен, мы готовы для его загрузки в AI Studio. Счётчик токенов студии будет немного другой чем у репомикса, потому что Гугл использует иные токенайзеры, но это не принципиально.
👉 К слову - файл прекрасно загружается в DeepSeek, z.ai, ChatGPT Pro, Grok, claude.ai.
#post
@deksden_notes
Repomix
Pack your codebase into AI-friendly formats
🔥5🤔2👍1
♊️ Планируем с Gemini
1/3
Очевидно, что вводный пост про Repomix (https://t.me/deksden_notes/102) был нужен чтобы рассказать про тему работы с Gemini 2.5 pro в AI Studio. На самом деле, конечно, любое веб приложение подходит под такую методику - достойные варианты Qwen, DeepSeek, chatGPT, grok, z.ai, kimi. Но на сентябрь 2025 достойных моделей с контекстом 1m токенов, ещё и бесплатно - таких вариантов почти нет. Про Qwen 1m и Meta Llama4 я знаю, но я же специально сказал - достойных! )) Да, Gemini 2.5 pro и сейчас, более чем через полгода от выпуска, смотрится вполне достойно. С нетерпением ждём поколение 3.0. Впрочем, приступим!
Дано: у нас есть маленький или средний проект. Мы хотим провести рефакторинг, добавить фичу или ещё чего-то сотворить с проектом, для чего, конечно, будем использовать ИИ агента. Мы уже знаем, что Vibe Coding нам не друг, потому что когда такие друзья, жить будет совсем не скучно, а мы хотим - спокойно и без сложностей на ровном месте. А для этого надо качественно сделать работу и мы уже знаем что надо бы пользовать SDD - Spec Driven Development. Здорово, когда в нашем проекте уже есть меморибанк.
Итак, мы понимаем что для нашей работы нам нужен план. "Есть ли у вас план, мистер Фикс?!". Вот его то мы и будем собирать в Gemini. На самом деле, "единый" взгляд на проект может быть удобен для самых разных вещей - обсудить архитектуру, ревизовать меморибанк, подумать над фичами, собрать техзадание под разработку дизайна в тулах, - мало ли! Но мы обсудим использование и практические приёмы на примере планирования некоего рефакторинга в коде: довольно показательный кейс, паттерны которого можно применять и в других активностях.
Я напишу про свои приёмы, которые я использую - не претендую на абсолютную истину или методичность, это просто обобщение практики и воспринимайте это как некие советы. Никаких особых "законов" или строгих методологий тут нет - "мы здесь занимаемся практической магией".
▶️ Начнём планировать рефакторинг. Если у вас есть "в загашнике" специальный промпт на 3 страницы - применяйте. Если нет - не страшно: пишите обычный вопрос "хочу обсудить как сделать ...". Модель вам отвечает. Читаете ответ, то что нравится - вы добавляете как уже готовые вводные В ВАШ ОРИГИНАЛЬНЫЙ ЗАПРОС. В AI Studio можно легко редактировать хоть свой запрос, хоть ответ модели. Добавляйте то, в чем у вас возникла уверенность или новое понимание, можно куски ответа модели копировать. Когда закончите - ПЕРЕГЕНЕРИРУЙТЕ ответ на ваш первоначальный запрос. На следующей итерации за счёт более "обогащённого" запроса модель у вас получается более развёрнутый ответ модели, и уже в нужном вам ключе, который проработан в нужном вам направлении. Используя этот ответ, вы далее "обогащаете" запрос, добавляя тезисы, которые вам нравятся и ведут вас в нужном направлении.
Такими вот итерациями, ваш первоначальный просто неструктурированный запрос постепенно превращается в развёрнутую концепцию. Не забывайте "забирать" из ответов модели то, что вам понравилось - чтобы не потерять при перегенерации полезную информацию. Если температура выше 0, то следующий ответ даже на такой же запрос будет точно другим.
❓ Назовём эту технику "Итеративное улучшение промпта". Но зачем так сложно? Дело в том, что на контекстах более 300к токенов внимание модели все более размывается, она становится менее внимательная, и качество ответов падает. Если вы будете много спрашивать модель о разных штуках - контекст чата с этими разноплановыми запросами и ответами будет размывать внимание модели, и она начнёт путаться. Вам же нужно развитие идеи в нужном вам направлении? Так не оставляйте в контексте ничего постороннего: GIGO (garbage in, garbage out!). А за счёт перегенерации оригинального запроса качестов ответа модели не деградирует даже если сделать десятки итераций.
...
продолжение: https://t.me/deksden_notes/105
1/3
Очевидно, что вводный пост про Repomix (https://t.me/deksden_notes/102) был нужен чтобы рассказать про тему работы с Gemini 2.5 pro в AI Studio. На самом деле, конечно, любое веб приложение подходит под такую методику - достойные варианты Qwen, DeepSeek, chatGPT, grok, z.ai, kimi. Но на сентябрь 2025 достойных моделей с контекстом 1m токенов, ещё и бесплатно - таких вариантов почти нет. Про Qwen 1m и Meta Llama4 я знаю, но я же специально сказал - достойных! )) Да, Gemini 2.5 pro и сейчас, более чем через полгода от выпуска, смотрится вполне достойно. С нетерпением ждём поколение 3.0. Впрочем, приступим!
Дано: у нас есть маленький или средний проект. Мы хотим провести рефакторинг, добавить фичу или ещё чего-то сотворить с проектом, для чего, конечно, будем использовать ИИ агента. Мы уже знаем, что Vibe Coding нам не друг, потому что когда такие друзья, жить будет совсем не скучно, а мы хотим - спокойно и без сложностей на ровном месте. А для этого надо качественно сделать работу и мы уже знаем что надо бы пользовать SDD - Spec Driven Development. Здорово, когда в нашем проекте уже есть меморибанк.
Итак, мы понимаем что для нашей работы нам нужен план. "Есть ли у вас план, мистер Фикс?!". Вот его то мы и будем собирать в Gemini. На самом деле, "единый" взгляд на проект может быть удобен для самых разных вещей - обсудить архитектуру, ревизовать меморибанк, подумать над фичами, собрать техзадание под разработку дизайна в тулах, - мало ли! Но мы обсудим использование и практические приёмы на примере планирования некоего рефакторинга в коде: довольно показательный кейс, паттерны которого можно применять и в других активностях.
Я напишу про свои приёмы, которые я использую - не претендую на абсолютную истину или методичность, это просто обобщение практики и воспринимайте это как некие советы. Никаких особых "законов" или строгих методологий тут нет - "мы здесь занимаемся практической магией".
▶️ Начнём планировать рефакторинг. Если у вас есть "в загашнике" специальный промпт на 3 страницы - применяйте. Если нет - не страшно: пишите обычный вопрос "хочу обсудить как сделать ...". Модель вам отвечает. Читаете ответ, то что нравится - вы добавляете как уже готовые вводные В ВАШ ОРИГИНАЛЬНЫЙ ЗАПРОС. В AI Studio можно легко редактировать хоть свой запрос, хоть ответ модели. Добавляйте то, в чем у вас возникла уверенность или новое понимание, можно куски ответа модели копировать. Когда закончите - ПЕРЕГЕНЕРИРУЙТЕ ответ на ваш первоначальный запрос. На следующей итерации за счёт более "обогащённого" запроса модель у вас получается более развёрнутый ответ модели, и уже в нужном вам ключе, который проработан в нужном вам направлении. Используя этот ответ, вы далее "обогащаете" запрос, добавляя тезисы, которые вам нравятся и ведут вас в нужном направлении.
Такими вот итерациями, ваш первоначальный просто неструктурированный запрос постепенно превращается в развёрнутую концепцию. Не забывайте "забирать" из ответов модели то, что вам понравилось - чтобы не потерять при перегенерации полезную информацию. Если температура выше 0, то следующий ответ даже на такой же запрос будет точно другим.
❓ Назовём эту технику "Итеративное улучшение промпта". Но зачем так сложно? Дело в том, что на контекстах более 300к токенов внимание модели все более размывается, она становится менее внимательная, и качество ответов падает. Если вы будете много спрашивать модель о разных штуках - контекст чата с этими разноплановыми запросами и ответами будет размывать внимание модели, и она начнёт путаться. Вам же нужно развитие идеи в нужном вам направлении? Так не оставляйте в контексте ничего постороннего: GIGO (garbage in, garbage out!). А за счёт перегенерации оригинального запроса качестов ответа модели не деградирует даже если сделать десятки итераций.
...
продолжение: https://t.me/deksden_notes/105
Telegram
DEKSDEN notes
📦 Кейс: пакуем проекты с Repomix
1/2
Небольшой практический кейс.
Вспомним те доисторические времена, овеянные легендами древности, когда для работы с проектами мы использовали веб приложения чатов с различными моделями. Ведь тогда нам ещё не явились ИИ…
1/2
Небольшой практический кейс.
Вспомним те доисторические времена, овеянные легендами древности, когда для работы с проектами мы использовали веб приложения чатов с различными моделями. Ведь тогда нам ещё не явились ИИ…
👍5🔥5❤🔥3
♊️ Планируем с Gemini
2/3
предыдущая часть: https://t.me/deksden_notes/104
...
▶️ Итак, постепенно через некоторое количество итераций вы сформировали концепцию и получили полностью устраивающий вас ответ модели, который в нужном ключе описывает вашу идею рефакторинга.
Теперь пришло время составить план. Вам нужно объяснить модели что реализацию этого плана будет делать junior developer, у которого не будет доступа к контексту чата, и ему нужно будет рассказать все детали плана. Более того, он слабо разбирается в проекте, поэтому ему нужно дать ссылку на всю необходимую документацию относительно аспектов плана, и вообще - всячески облегчить ему жизнь. Пускай модель подумает что ему ещё поможет помимо того, что вы просите.
Очень важно промптом просить все затрагиваемые высокоуровневые концепции проекта прописать в плане. Если использовать C4 методику (пост про C4 тут https://t.me/deksden_notes/55) для структурирования понимания проекта, обязательно просите прояснить затронутые L2 контейнера (подсистемы), их контракты, схему интеграции. Какие общие пакеты/модули надо задействовать. Про текущий код - обязательно какие паттерны использовать. Необходимо спланирвоать L3 компоненты, которые буду созданы, как они впишутся в текущий L2 контейнер. Это помимо деталей самого кода, алгоритмов там и прочего - уровня L4.
Если в вашем меморибанке прописаны мета-сведения (карты взаимодействия подсистем, контракты подсистем) - нужны будут ссылки на эти документы.
Важно: насыщайте план "увязками" на уровне "выше" кода, - L3, L4. Модель (пока еще?) не в состоянии проработать абсолютно все детали, и ИИ агенту может понадобиться самому принимать некоторые решения при реализации плана - и будет важно чтобы у агента был необходимый контекст для грамотной интеграции решения в проект.
Не забывайте об интеграции новой документации в меморибанк: просите добавить раздел про документацию в план работы - и прописать куда, что и как добавить. Ведь модель "видит" весь ваш меморибанк, и может грамотно посоветовать какие файлы нуждаются в обновлении, а когда можно новый файл создать.
Назовём эту технику "junior-dev-plan", хотя это про целевую роль, а сам план должен быть весьма и весьма хорошего уровня проектирования.
▶️ Модель в итоге выдаст вам некий подробный план, который можно сразу "закидывать" в ИИ агента просто Paste в строчку ввода - но вы так не делайте.
Сохраняйте план в md файлик, благо AI Studio поддерживает копирование в формате маркдаун всего ответа "за раз". Зачем? Этот файлик поможет ИИ агенту если план окажется ОЧЕНЬ объёмным и агент не сможет выполнить его "за один контекст". Вы всегда сможете "восстановить" контекст после компакта простым промптом вроде "Прочитай файл {мой_план_рефакторинга}.md для контекста, продолжай работу". СС такие подсказки "подхватывает" даже "на ходу", не останавливаясь, а для Кодекса нужно тормознуть агента.
Важно понимать, что план будет ВТОРЫМ ответом модели в чате - ведь проработку концепции вы просили первым ответом.
❓ Почему не попросить сразу план в первоначальном запросе, ведь мы его меняли столько раз, чтобы итеративно доработать?
По двум причинам:
- проработка концепции - это один фокус модели, она должна думать о задаче, предметной области, вариантах решения, идеях и развитии; проработка плана - немного другой фокус, уже с вниманием на текущем существующем коде, интеграции, документации, сборке контекста; не нужно пытаться в одном запросе мешать два фокуса внимания - это снижает качество;
- рефлексию никто не отменял - модель "еще раз" просмотрит концепцию при формировании плана, особенно если вы ей это позволите, и может кое что лучше проработать, особенно когда при проработке плана она фокусирована на интеграции с существующим кодом;
...
Продолжение: https://t.me/deksden_notes/106
#post
@deksden_notes
2/3
предыдущая часть: https://t.me/deksden_notes/104
...
▶️ Итак, постепенно через некоторое количество итераций вы сформировали концепцию и получили полностью устраивающий вас ответ модели, который в нужном ключе описывает вашу идею рефакторинга.
Теперь пришло время составить план. Вам нужно объяснить модели что реализацию этого плана будет делать junior developer, у которого не будет доступа к контексту чата, и ему нужно будет рассказать все детали плана. Более того, он слабо разбирается в проекте, поэтому ему нужно дать ссылку на всю необходимую документацию относительно аспектов плана, и вообще - всячески облегчить ему жизнь. Пускай модель подумает что ему ещё поможет помимо того, что вы просите.
Очень важно промптом просить все затрагиваемые высокоуровневые концепции проекта прописать в плане. Если использовать C4 методику (пост про C4 тут https://t.me/deksden_notes/55) для структурирования понимания проекта, обязательно просите прояснить затронутые L2 контейнера (подсистемы), их контракты, схему интеграции. Какие общие пакеты/модули надо задействовать. Про текущий код - обязательно какие паттерны использовать. Необходимо спланирвоать L3 компоненты, которые буду созданы, как они впишутся в текущий L2 контейнер. Это помимо деталей самого кода, алгоритмов там и прочего - уровня L4.
Если в вашем меморибанке прописаны мета-сведения (карты взаимодействия подсистем, контракты подсистем) - нужны будут ссылки на эти документы.
Важно: насыщайте план "увязками" на уровне "выше" кода, - L3, L4. Модель (пока еще?) не в состоянии проработать абсолютно все детали, и ИИ агенту может понадобиться самому принимать некоторые решения при реализации плана - и будет важно чтобы у агента был необходимый контекст для грамотной интеграции решения в проект.
Не забывайте об интеграции новой документации в меморибанк: просите добавить раздел про документацию в план работы - и прописать куда, что и как добавить. Ведь модель "видит" весь ваш меморибанк, и может грамотно посоветовать какие файлы нуждаются в обновлении, а когда можно новый файл создать.
Назовём эту технику "junior-dev-plan", хотя это про целевую роль, а сам план должен быть весьма и весьма хорошего уровня проектирования.
▶️ Модель в итоге выдаст вам некий подробный план, который можно сразу "закидывать" в ИИ агента просто Paste в строчку ввода - но вы так не делайте.
Сохраняйте план в md файлик, благо AI Studio поддерживает копирование в формате маркдаун всего ответа "за раз". Зачем? Этот файлик поможет ИИ агенту если план окажется ОЧЕНЬ объёмным и агент не сможет выполнить его "за один контекст". Вы всегда сможете "восстановить" контекст после компакта простым промптом вроде "Прочитай файл {мой_план_рефакторинга}.md для контекста, продолжай работу". СС такие подсказки "подхватывает" даже "на ходу", не останавливаясь, а для Кодекса нужно тормознуть агента.
Важно понимать, что план будет ВТОРЫМ ответом модели в чате - ведь проработку концепции вы просили первым ответом.
❓ Почему не попросить сразу план в первоначальном запросе, ведь мы его меняли столько раз, чтобы итеративно доработать?
По двум причинам:
- проработка концепции - это один фокус модели, она должна думать о задаче, предметной области, вариантах решения, идеях и развитии; проработка плана - немного другой фокус, уже с вниманием на текущем существующем коде, интеграции, документации, сборке контекста; не нужно пытаться в одном запросе мешать два фокуса внимания - это снижает качество;
- рефлексию никто не отменял - модель "еще раз" просмотрит концепцию при формировании плана, особенно если вы ей это позволите, и может кое что лучше проработать, особенно когда при проработке плана она фокусирована на интеграции с существующим кодом;
...
Продолжение: https://t.me/deksden_notes/106
#post
@deksden_notes
Telegram
DEKSDEN notes
♊️ Планируем с Gemini
3/3
Предыдущая часть: https://t.me/deksden_notes/105
...
▶️ Третьим запросом к модели мы просим сформировать чек-лист по рефакторингу, где укажем все существенные детали реализации, которые важны для нашей системы и функционировании…
3/3
Предыдущая часть: https://t.me/deksden_notes/105
...
▶️ Третьим запросом к модели мы просим сформировать чек-лист по рефакторингу, где укажем все существенные детали реализации, которые важны для нашей системы и функционировании…
🔥8👍4❤🔥1
♊️ Планируем с Gemini
3/3
Предыдущая часть: https://t.me/deksden_notes/105
...
▶️ Третьим запросом к модели мы просим сформировать чек-лист по рефакторингу, где укажем все существенные детали реализации, которые важны для нашей системы и функционировании решения.
Модель, сформировав контекст из концепции + плана может выдать адекватный чек-лист для проверки как этот план реализован.
Чек-лист мы аналогично сохраняем в отдельный файлик md, и после завершения рефакторинга просим ИИ агента использовать этот чек-лист для проверки фактического кода и документации.
❓ Зачем нужен чек-лист, ведь у нас есть подробный план реализации? В принципе, можно и план реализации использовать как чек-лист, но отдельный документ улучшает качество проверки.
❓ А а чем вообще чек-лист, может достаточно одного плана? Как показывает практика, агент при реализации самого подробного плана всегда может немного отклониться от задания. А ревью сделанной работы по чек-листу помогает добиться практически гарантированной реализации задуманного. Посмотрите сами - даже в несложных задачах ревью по чек-листу может вскрыть какие то шероховатости.
▶️ Почёму мы вообще ведём речь об этом "ручном" способе планирования, если в нынешнее время уже есть ИИ агенты, и даже Gemini CLI, работающая ровно на этой же модели? Вопрос совершенно закономерный.
Тут важно понимать: есть существенная разница между контекстом, который сформировал агент, и контекстом из файла репозитория, где методично запакованы все файлы, ещё и, как правило, по папкам разложенные в логически связанные группы - мы же разные подсистемы обычно по папкам располагаем, и в репо они упакованы аналогично, рядом.
Качество контекста, который формирует агент очень сильно зависит от того, как вы ведёте меморибанк и насколько агент смог разобраться, какую релевантную информацию и из какого места следует подгрузить в контекст. Кроме того, агент как правило, читает файлы "кусками", что может вызвать некоторую фрагментацию.
В итоге: работа Gemini CLI и Gemini 2.5pro в AI Studio сильно отличается в пользу веб-версии: она меньше путается в контексте и почти не путается в сообщениях (только в районе лимита в 1m).
Gemini CLI не будет иметь каких то особенных преимуществ по сравнению с другим агентом, только за счёт огромного контекста - ведь этот контекст ещё надо собрать! и если Gemini его смог собрать по вашему меморибанку, скорее всего то же самое может сделать и другой агент. Да, Gemini CLI на большом контексте может теоретически работать дольше, но тут есть практические вопросы к более низкой агентности Gemini 2.5pro в сравнении с Клодом или Gpt-5-codex. Тут надо ждать Gemini 3.0, в которой, наверняка, агентность будут повышать - проблема то известная.
🟢 Такие вот приёмы я использую при планировании с Гемини - чего и вам настоятельно советую. На данный момент один из лучших вариантов для проектов меньше 1m токенов.
#post
@deksden_notes
3/3
Предыдущая часть: https://t.me/deksden_notes/105
...
▶️ Третьим запросом к модели мы просим сформировать чек-лист по рефакторингу, где укажем все существенные детали реализации, которые важны для нашей системы и функционировании решения.
Модель, сформировав контекст из концепции + плана может выдать адекватный чек-лист для проверки как этот план реализован.
Чек-лист мы аналогично сохраняем в отдельный файлик md, и после завершения рефакторинга просим ИИ агента использовать этот чек-лист для проверки фактического кода и документации.
❓ Зачем нужен чек-лист, ведь у нас есть подробный план реализации? В принципе, можно и план реализации использовать как чек-лист, но отдельный документ улучшает качество проверки.
❓ А а чем вообще чек-лист, может достаточно одного плана? Как показывает практика, агент при реализации самого подробного плана всегда может немного отклониться от задания. А ревью сделанной работы по чек-листу помогает добиться практически гарантированной реализации задуманного. Посмотрите сами - даже в несложных задачах ревью по чек-листу может вскрыть какие то шероховатости.
▶️ Почёму мы вообще ведём речь об этом "ручном" способе планирования, если в нынешнее время уже есть ИИ агенты, и даже Gemini CLI, работающая ровно на этой же модели? Вопрос совершенно закономерный.
Тут важно понимать: есть существенная разница между контекстом, который сформировал агент, и контекстом из файла репозитория, где методично запакованы все файлы, ещё и, как правило, по папкам разложенные в логически связанные группы - мы же разные подсистемы обычно по папкам располагаем, и в репо они упакованы аналогично, рядом.
Качество контекста, который формирует агент очень сильно зависит от того, как вы ведёте меморибанк и насколько агент смог разобраться, какую релевантную информацию и из какого места следует подгрузить в контекст. Кроме того, агент как правило, читает файлы "кусками", что может вызвать некоторую фрагментацию.
В итоге: работа Gemini CLI и Gemini 2.5pro в AI Studio сильно отличается в пользу веб-версии: она меньше путается в контексте и почти не путается в сообщениях (только в районе лимита в 1m).
Gemini CLI не будет иметь каких то особенных преимуществ по сравнению с другим агентом, только за счёт огромного контекста - ведь этот контекст ещё надо собрать! и если Gemini его смог собрать по вашему меморибанку, скорее всего то же самое может сделать и другой агент. Да, Gemini CLI на большом контексте может теоретически работать дольше, но тут есть практические вопросы к более низкой агентности Gemini 2.5pro в сравнении с Клодом или Gpt-5-codex. Тут надо ждать Gemini 3.0, в которой, наверняка, агентность будут повышать - проблема то известная.
🟢 Такие вот приёмы я использую при планировании с Гемини - чего и вам настоятельно советую. На данный момент один из лучших вариантов для проектов меньше 1m токенов.
#post
@deksden_notes
Telegram
DEKSDEN notes
Теперь пришло время составить план. Вам нужно объяснить модели что реализацию этого плана будет делать junior developer, у которого не будет доступа к контексту чата, и ему нужно будет рассказать все детали плана. Более того, он слабо разбирается в проекте…
🔥9👍4❤🔥2❤1
🕸️ RepoWiki своими силами
Qoder вышел интересным релизом - много новых концепций, интересно было посмотреть как оно работает. Фича с repoWiki (https://qoder.com/blog/repo-wiki-surfacing-implicit-knowledge) всем также зашла.
🟢 В чате проскальзывала мысль что мы мало практикой занимаемся. В связи с чем родилась такая идея: что если попробовать построить repowiki "своими силами" - сделать агентный воркфлоу для CC, который в произвольном проекте делает нечто похожее. Сугубо ортогонально к меморибанку. Просто будет папка с .repoWiki. К тому же, мы сможем тюнинговать процесс так, как нам надо!
‼️ В связи с этим - вопросы на обсуждение:
- надо такой прожект стартовать? актуально?
- если да - есть идеи по реализации? Как нам это надо?
- есть идеи по развитию концепции от "просто wiki"?
подключаемся, пишем обратную связь! Отличный проект для пары викэндов, кмк
Upd: в чем смысл? "Из любви к искусству".
На самом деле, полезно будет попрактиковаться в "снятии" архитектуры с проекта. Не до конца понятна возможность качественно уловить архитектурные паттерны более высокого порядка чем код по коду.
#post
@deksden_notes
Qoder вышел интересным релизом - много новых концепций, интересно было посмотреть как оно работает. Фича с repoWiki (https://qoder.com/blog/repo-wiki-surfacing-implicit-knowledge) всем также зашла.
🟢 В чате проскальзывала мысль что мы мало практикой занимаемся. В связи с чем родилась такая идея: что если попробовать построить repowiki "своими силами" - сделать агентный воркфлоу для CC, который в произвольном проекте делает нечто похожее. Сугубо ортогонально к меморибанку. Просто будет папка с .repoWiki. К тому же, мы сможем тюнинговать процесс так, как нам надо!
‼️ В связи с этим - вопросы на обсуждение:
- надо такой прожект стартовать? актуально?
- если да - есть идеи по реализации? Как нам это надо?
- есть идеи по развитию концепции от "просто wiki"?
подключаемся, пишем обратную связь! Отличный проект для пары викэндов, кмк
Upd: в чем смысл? "Из любви к искусству".
На самом деле, полезно будет попрактиковаться в "снятии" архитектуры с проекта. Не до конца понятна возможность качественно уловить архитектурные паттерны более высокого порядка чем код по коду.
#post
@deksden_notes
Qoder
Qoder - The Agentic Coding Platform
Qoder is an agentic coding platform for real software, think deeper, build better.
👍8❤🔥4🔥4
Forwarded from Konstantin Marunchenko
Всем привет!
Далаем вот такую штуку, можно сделать руками или сгенерить граф, а потом по нему генерится код.
Ноды полностью в natural language, то есть можно описывать через них архитектуру, или фичи, компоненты, и тд, даже таймлайн, если нужно.
Так же генерим проперти для каждой ноды, чтобы можно было контент добавлять, или редактировать какие-то свойства компонентов без изменения кода и без ИИ.
Работает поверх Claude Code, нужна их подписка, а вообще open-source.
https://github.com/manta-ide/manta
(админ разрешил, спс)
Далаем вот такую штуку, можно сделать руками или сгенерить граф, а потом по нему генерится код.
Ноды полностью в natural language, то есть можно описывать через них архитектуру, или фичи, компоненты, и тд, даже таймлайн, если нужно.
Так же генерим проперти для каждой ноды, чтобы можно было контент добавлять, или редактировать какие-то свойства компонентов без изменения кода и без ИИ.
Работает поверх Claude Code, нужна их подписка, а вообще open-source.
https://github.com/manta-ide/manta
(админ разрешил, спс)
GitHub
GitHub - manta-ide/manta
Contribute to manta-ide/manta development by creating an account on GitHub.
❤5👍4
🕵️♀️ cc-sessions: довольно интересный проект
👉 handoffs, hooks, гарды и все такое.
https://github.com/GWUDCAP/cc-sessions
🟢 Такое мы смотрим и изучаем!
#link
@deksden_notes
👉 handoffs, hooks, гарды и все такое.
https://github.com/GWUDCAP/cc-sessions
🟢 Такое мы смотрим и изучаем!
#link
@deksden_notes
GitHub
GitHub - GWUDCAP/cc-sessions: an opinionated approach to productive development with Claude Code
an opinionated approach to productive development with Claude Code - GWUDCAP/cc-sessions
🔥7👍2❤1
Орг объявление: Чат канала
Чтобы не терялись ответы на сообщения в чате (если просто написать без реплая), поставил настройку «пишут в чат только участники». Не удивляемся.
Добавление в чат свободное, ссылка в шапке канала.
Дублирую ссылку: https://t.me/+B1fB3sZbaVthMDhi
#post
@deksden_notes
Чтобы не терялись ответы на сообщения в чате (если просто написать без реплая), поставил настройку «пишут в чат только участники». Не удивляемся.
Добавление в чат свободное, ссылка в шапке канала.
Дублирую ссылку: https://t.me/+B1fB3sZbaVthMDhi
#post
@deksden_notes
Telegram
DEKSDEN (chat)
Чат канала DEKSDEN notes
(с) Denis @deksden Kiselev ))
(с) Denis @deksden Kiselev ))
❤1👍1👌1
GLM от Z.ai - на тест!
Подписался тестить coding plan on z.ai
Посмотрим чего там и как работает в сравнении с клодом
Рефералка тем кто хочет тоже попробовать с 10% скидкой:
🚀 You’ve been invited to join the GLM Coding Plan! Enjoy full support for Claude Code, Cline, and 10+ top coding tools — starting at just $3/month. Subscribe now and grab the limited-time deal!
Link:
https://z.ai/subscribe?cc=fission_glmcode_sub_v1&ic=JCBQLOIW7I&n=de***n%40deksden.com
#post
@deksden_notes
Подписался тестить coding plan on z.ai
Посмотрим чего там и как работает в сравнении с клодом
Рефералка тем кто хочет тоже попробовать с 10% скидкой:
🚀 You’ve been invited to join the GLM Coding Plan! Enjoy full support for Claude Code, Cline, and 10+ top coding tools — starting at just $3/month. Subscribe now and grab the limited-time deal!
Link:
https://z.ai/subscribe?cc=fission_glmcode_sub_v1&ic=JCBQLOIW7I&n=de***n%40deksden.com
#post
@deksden_notes
z.ai
GLM Coding Plan powered by GLM-4.5
AI-powered coding with GLM-4.5 in Claude Code, Cline, OpenCode, and more. Plans start at $3/month to help you code faster, smarter, and more reliably.
👍4❤2🔥2
🆕 Новый релиз кодекса
Кодекс продолжает бодро добавлять фичи. Я отметил из новых:
- лимиты показывает
- расширен режим /review
- автокомпакт появился (только для gpt-5-codex после 220k)
- подготовка к undo на базе git - но пока не ясно в какую фичу завернут
Агентов пока нету
https://github.com/openai/codex/releases/tag/rust-v0.40.0
#post
@deksden_notes
Кодекс продолжает бодро добавлять фичи. Я отметил из новых:
- лимиты показывает
- расширен режим /review
- автокомпакт появился (только для gpt-5-codex после 220k)
- подготовка к undo на базе git - но пока не ясно в какую фичу завернут
Агентов пока нету
https://github.com/openai/codex/releases/tag/rust-v0.40.0
#post
@deksden_notes
GitHub
Release 0.40.0 · openai/codex
Notable Changes
Default model is now gpt-5-codex (#4076)
Autocompaction is triggered automatically for gpt-5-codex when hitting 220k tokens (#4093)
Usage limits are now visible in /status (#4053)
...
Default model is now gpt-5-codex (#4076)
Autocompaction is triggered automatically for gpt-5-codex when hitting 220k tokens (#4093)
Usage limits are now visible in /status (#4053)
...
🔥4❤3👀2
⚒️ Клод Код тоже развивается - Claude Code v1.0.123
новый релиз, и новая интересная возможность!
🆕 Version 1.0.123:
• Bash permission rules now support output redirections when matching (e.g.,
• Fixed thinking mode triggering on negation phrases like "don't think"
• Fixed rendering performance degradation during token streaming
• Added SlashCommand tool, which enables Claude to invoke your slash commands.
https://docs.claude.com/en/docs/claude-code/slash-commands#SlashCommand-tool
• Enhanced BashTool environment snapshot logging
• Fixed a bug where resuming a conversation in headless mode would sometimes enable thinking unnecessarily
• Migrated --debug logging to a file, to enable easy tailing & filtering
🟢 Из этого всего интересно смотреть на SlashCommand Tool. Интересно, что раздел документации по ссылке пока не появился.
Я так понимаю, теперь можно будет агентом вызвать команду, которая у вас определена! то есть многие воркфлоу которые запускались руками теперь можно запускать агентом. Nice
#post
@deksden_notes
новый релиз, и новая интересная возможность!
🆕 Version 1.0.123:
• Bash permission rules now support output redirections when matching (e.g.,
Bash(python:*) matches `python script.py > output.txt`)• Fixed thinking mode triggering on negation phrases like "don't think"
• Fixed rendering performance degradation during token streaming
• Added SlashCommand tool, which enables Claude to invoke your slash commands.
https://docs.claude.com/en/docs/claude-code/slash-commands#SlashCommand-tool
• Enhanced BashTool environment snapshot logging
• Fixed a bug where resuming a conversation in headless mode would sometimes enable thinking unnecessarily
• Migrated --debug logging to a file, to enable easy tailing & filtering
🟢 Из этого всего интересно смотреть на SlashCommand Tool. Интересно, что раздел документации по ссылке пока не появился.
Я так понимаю, теперь можно будет агентом вызвать команду, которая у вас определена! то есть многие воркфлоу которые запускались руками теперь можно запускать агентом. Nice
#post
@deksden_notes
Claude Code Docs
Extend Claude with skills - Claude Code Docs
Create, manage, and share skills to extend Claude's capabilities in Claude Code. Includes custom slash commands.
❤1👍1🔥1
❓ Вы же знали что с Клод Кодом можно поговорить про Клод Код?
Да, и документация в него встроена актуальная. Удобно, к слову.
На скринах - расспросы про SlashCommand tool.
Upd: на про тарифе будет жалко тратить запросы? Подключайте зая - там задёшево дают х3 трафика, работает точно не хуже соннета на простых задачах. тарифы с $3 стартуют, кмк демпинг, конечно! продают на месяц/квартал/год
Я, кстати, подписок на квартал вроде пока даже и не видел в других местах! Новация получается, что ли?)
#post
@deksden_notes
Да, и документация в него встроена актуальная. Удобно, к слову.
На скринах - расспросы про SlashCommand tool.
Upd: на про тарифе будет жалко тратить запросы? Подключайте зая - там задёшево дают х3 трафика, работает точно не хуже соннета на простых задачах. тарифы с $3 стартуют, кмк демпинг, конечно! продают на месяц/квартал/год
Я, кстати, подписок на квартал вроде пока даже и не видел в других местах! Новация получается, что ли?)
#post
@deksden_notes
🔥5❤3👍2
▶️ Хорошие художники копируют, гениальные - воруют
Тут у Алмаза в Иишнице @aiclubsweggs обсуждали свежие фичи Qwen Coder. Интересно, что по фичам он обгоняет "прародителя" Gemini Cli.
Если конкретно - todoWrte и субагентов. Ну и чекпоинты. Сделали все правильно - скопировали все как было))
Интересно, как много продуктовых фич проработано в СС: например, todoWrite усилен не просто наличием инструмента для модели (todoWrite/todoRead), но и UI решением (пункты плана пишутся под строкой индикатором текущего действия), сделана возможно сть разворачивать план действий агента (переключается Ctrl+T), сделана слеш команда /todos для просмотра плана в любой момент, сделано напоминание в контекст <system-reminder> про план и необходимость его использования.
Фича выглядит порработанной со многих сторон. Это и делает СС одним из лучших решений на рынке! Хотелось бы чтобы и остальные решения подтягивались к уровню.
‼️ вот Кодекс нынче объявляет сбор фидбэка про функцию planning mode. Обязательно кидаем им свои мысли - это реально повлияет на развитие продукта! Не проходите мимо, помогите художникам:
https://x.com/embirico/status/1970944774460015072?s=46
☝️
upd: я просил:
- Research перед планирвоанием
- Explanatory style в ответах
- отдельный контекст исполнения от планирования
- ну и СУБАГЕНТОВ
#post
@deksden_notes
Тут у Алмаза в Иишнице @aiclubsweggs обсуждали свежие фичи Qwen Coder. Интересно, что по фичам он обгоняет "прародителя" Gemini Cli.
Если конкретно - todoWrte и субагентов. Ну и чекпоинты. Сделали все правильно - скопировали все как было))
Интересно, как много продуктовых фич проработано в СС: например, todoWrite усилен не просто наличием инструмента для модели (todoWrite/todoRead), но и UI решением (пункты плана пишутся под строкой индикатором текущего действия), сделана возможно сть разворачивать план действий агента (переключается Ctrl+T), сделана слеш команда /todos для просмотра плана в любой момент, сделано напоминание в контекст <system-reminder> про план и необходимость его использования.
Фича выглядит порработанной со многих сторон. Это и делает СС одним из лучших решений на рынке! Хотелось бы чтобы и остальные решения подтягивались к уровню.
‼️ вот Кодекс нынче объявляет сбор фидбэка про функцию planning mode. Обязательно кидаем им свои мысли - это реально повлияет на развитие продукта! Не проходите мимо, помогите художникам:
https://x.com/embirico/status/1970944774460015072?s=46
☝️
upd: я просил:
- Research перед планирвоанием
- Explanatory style в ответах
- отдельный контекст исполнения от планирования
- ну и СУБАГЕНТОВ
#post
@deksden_notes
X (formerly Twitter)
Alexander Embiricos (@embirico) on X
Okay so about planning mode...
Can folks share why/how they'd want it to work beyond the current Read Only mode? ELI5 please!
Can folks share why/how they'd want it to work beyond the current Read Only mode? ELI5 please!
1👍6❤3