Vibe Coding: OpenCode, Claude Code, Codex, Cursor, Kilo
3.28K subscribers
678 photos
47 videos
1 file
449 links
Пишу про полностью автоматическую отгрузку Вайб Кода, свежие апдейты, промпты и тесты ИИ-инструментов.
Download Telegram
Как написать python-telegram-bot

Ну что, понеслась. Самый первый ИИ бот тут

Промпт:

Напиши простого эхобота на PTB

Код:

from telegram import Update
from telegram.ext import Application, MessageHandler, filters, ContextTypes

TOKEN = "ВАШ_ТОКЕН_БОТА"

async def echo(update: Update, context: ContextTypes.DEFAULT_TYPE):
await update.message.reply_text(update.message.text)

def main():
app = Application.builder().token(TOKEN).build()
app.add_handler(MessageHandler(filters.TEXT & ~filters.COMMAND, echo))
app.run_polling()

if __name__ == "__main__":
main()


Вопрос, а зачем нужен python-telegram-bot, если есть aiogram3. Проверим на Гите:
- python-telegram-bot 28.3k старс
- aiogram3 5.4к старс

Я заинтересовался. Обе библиотеки асинхронные, как я понял PTB более высокоуровневая и есть встроенный планировщик. aiogram3 лучше сделана автоматизация хендлеров, т.е. похоже каждая либа имеет свои плюсы и минусы. Но каждая библиотека регулярно обновляется.

Теперь разбираемся, что он тут понанаписал...

TOKEN = "ВАШ_ТОКЕН_БОТА" - ну так, конечно, писать нельзя. Объясните в комментах, почему все пишут так.

Дальше я посмотрел, вроде все окей, синтаксис только немного отличается, от aiogram3.

Дополнения:
— PTB v20+ использует asyncio, поэтому хендлеры async.
— ContextTypes.DEFAULT_TYPE задаёт стандартный тип контекста для аннотаций, чтобы это значило?
— Фильтр filters.TEXT & ~filters.COMMAND пропускает обычный текст и отсекает строки, начинающиеся с /.
— run_polling() блокирующий. Для вебхуков используйте run_webhook()

Ну и конечно, команду /start надо добавить, кому он без старта нужен?
👍1
Теперь PTB бот ничего не выводит в консоль, что не удобно при разработке

Если добавить туда стандартный логгер:

import logging

logging.basicConfig(
format="%(asctime)s - %(name)s - %(levelname)s - %(message)s",
level=logging.INFO
)


Он начнет выводить токен бота в консоль, потому что так работает библиотека httpx, что меня лично бесит. Для того, чтобы избавится от этого нежелательного поведения, просто добавим маскировку чувствительных данных:

import logging, re - добавили re
logging.basicConfig(format="%(asctime)s - %(name)s - %(levelname)s - %(message)s", level=logging.INFO)
logging.getLogger("httpx").addFilter(type("Redact",(logging.Filter,),{"filter":lambda self,r:(setattr(r,"msg",re.sub(r"/bot(\d+):[A-Za-z0-9_-]+",r"/bot\1:#####",r.getMessage())),setattr(r,"args",()),True)[-1]})())
- добавили маскировку

Теперь весь код полностью, с командой /start:

import os
from dotenv import load_dotenv
load_dotenv()

from telegram import Update
from telegram.ext import Application, MessageHandler, CommandHandler, filters, ContextTypes

import logging, re

logging.basicConfig(
format="%(asctime)s - %(name)s - %(levelname)s - %(message)s",
level=logging.INFO
)
# маскирует токен в логах httpx
logging.getLogger("httpx").addFilter(
type("Redact", (logging.Filter,), {
"filter": lambda self, r: (
setattr(r, "msg", re.sub(r"/bot(\d+):[A-Za-z0-9_-]+", r"/bot\\1:#####", r.getMessage())),
setattr(r, "args", ()),
True
)[-1]
})()
)

TOKEN = os.getenv("TELEGRAM_BOT_TOKEN")
if TOKEN is None:
raise ValueError("TELEGRAM_BOT_TOKEN is not set in environment variables.")

async def start(update: Update, context: ContextTypes.DEFAULT_TYPE):
await update.message.reply_text("Бот запущен. Отправьте любое сообщение, и я повторю его.")

async def echo(update: Update, context: ContextTypes.DEFAULT_TYPE):
await update.message.reply_text(update.message.text)

def main():
app = Application.builder().token(TOKEN).build()
app.add_handler(CommandHandler("start", start))
app.add_handler(MessageHandler(filters.TEXT & ~filters.COMMAND, echo))
app.run_polling()

if __name__ == "__main__":
main()
Как я использую Claude Code, гайд для начинающих

Я не верю что существует какой-то волшебный пайплайн, который в 10 раз ускорит работу Клод Кода вот почему:

1. Идем на офф. лучшие практики и читаем:

Ничто в этом списке не является непреложным и не универсально применимым; рассматривайте эти рекомендации как отправную точку. Мы призываем вас экспериментировать и найти то, что подходит именно вам!


Т.е. Антропики они как бы сразу снимают с себя всю ответственность, за какие либо советы и рекомендации.

2. Создайте CLAUDE.md

CLAUDE.md - создается командой /init, я неоднократно замечал, что Клод Код его не всегда читает, ну или забывает, что он там понаписал. Т.е. если я начинаю новый проект с нуля, то мне какая-то любо память не нужна и я не создаю этот файл. Если вы хотите работать с уже существующей кодовой базой, введите /init чтобы Клод Код просканировать проект и создал CLAUDE.md

3. По умолчанию Claude Code запрашивает разрешение на любое действие

Для нового проекта полезно запустить его из командной строки с ключом claude --dangerously-skip-permissions, что полезно для создания базовой структуры проекта, исправление ошибок линтинга или генерация шаблонного кода.

4. Начните с режима планирования

Переключив Клод Код в Plan mode через shift+tab. Введите свой промпт и когда Клод Код представит вам план реализации, очень внимательно прочитайте план от начала и до конца. Попросите Код максимально подробно объяснить, как он видит реализацию вашей задачи. Изучите план на наличие противоречивых инструкций, когда один пункт плана противоречит другому пункту. После этого разрешите Клоду выполнить план нажав на 1. Yes. - перейти в режим редактирования.

5. Используйте мышление с умом

Вы можете использовать слова "think" < "think hard" < "think harder" < "ultrathink." для включения режима мышления или нажать на tab. По моим наблюдениям, особой разницы между с мышлением и без я не вижу, так что можно сэкономить токены. Но, мышление может быть полезно при решение сложных многоэтапных задач и задач связанных с математикой.

Я предпочитаю держать режимы мышления всегда включенным (клавиша tab), пусть себя перепроверяет.

6. Используйте /clear для для сохранения фокуса на контексте

Я очень рекомендую включить Verbose output: True команда в /config (Theme), эта опция отобразит число использованных токенов в правом нижнем углу терминала. И вот лучше не дожидаться автоматического сжатия, примерно на 150000 токенов, вы увидите предупреждение, что осталось только 10% контекстного окна. Используйте команду /clear для очистки контекстного окна заранее.

Но контекст нужен. Без контекста LLM ничего не помнит о вашем проекте, поэтому при следующем Промте контекст будет загружен заново. Но в этом же контексте, ЛЛМ легко запутывается и начинает галлюцинировать. Поэтому важно поддерживать баланс между отсутствием контекста и его избытком.

7. Использование субагентов

У меня от этих субагентов Клод Код вообще крашится, так что я предпочитаю их не использовать.

8. Использование Pylance

Установите в IDE plugin Pylance от Майкрософт. Этот плагин следит за строгой типизацией в Питоне и заставляет Агента писать обработки ошибок, типа отсутствия токене в .енв файле. Вам же не самим все эти обработки писать, так что пусть пишет - жгет токены, хуже от этого не будет.
👍3
Протестировал плагин feature-dev от Антропик

Ну как я и ванговал, действительно на следующий день вышел патч, но у меня на следующий день так и не заработало. Но я не сдавался...

Как видим из описания:

Comprehensive feature development workflow with specialized agents for codebase exploration, architecture design, and quality review

Installed components: │
│ • Commands: feature-dev │
│ • Agents: code-architect, code-explorer, code-reviewer
2
Всем вайбкодерам посвящается

Просматривал, код, написанный Клод Кодом, и обнаружил, что он функцию написал и просто бросил не применив в боте.

Ребята, не надо изучать программирование! Зачем? Просто доверьтесь ЛЛМ. Она напишет ВСЕ за вас.

Уверенно напишет код, который никогда не выполнится. Ведь ЛЛМ не понимает, что она пишет ВООБЩЕ. Она просто предсказывает следующее слово. Так что, не тратьте время на логику, архитектуру, смысл — просто долбитесь головами о стену и верьте в магию вайбкодинга.

А потом, когда всё сломается, можно будет сказать: “Это не я. Это ИИ.”
🤣3
Forwarded from Двач
У Microsoft всё стабильно
Трассировка LangSmith - краткое объяснение

Зарегистрируйтесь на сайте: https://smith.langchain.com

Как это работает:

from langsmith import traceable

@traceable # ← Добавляем декоратор
def calc_tool(expression: str) -> str:
result = eval(expression, {}, {})
return f"Результат: {result}"


@traceable - это декоратор, который автоматически отправляет данные о выполнении функции в LangSmith. Все!

UPD: Так да, не так!

При:
from langchain_openai import ChatOpenAI

Трассировка добавляется автоматически (в версиях до 1.0 для этого надо было использовать wapper), просто установите переменные окружения LangSmith:
os.environ['LANGSMITH_TRACING'] = 'true'
os.environ['LANGSMITH_API_KEY'] = langsmith_api_key
os.environ['LANGSMITH_PROJECT'] = langsmith_project


Вот теперь все!
👍1
LangChain — это фреймворк с открытым исходным кодом, предназначенный для разработки приложений, управляемых языковыми моделями (LLM)

Входит в топ-10 самых быстрорастущих пакетов на Питоне, но представлен так же версией на TypeScript.

Ребята, дальше пойдет инфа, которую я несколько дней ботанил, а не просто промпт в ЧатГПТ написал.

Основные компоненты:
LangChain - базовые интерфейсы (langchain-core) для быстрого старта. Основными компонентами ядра являются: Агенты (Agents), Модели (Models), Сообщения (Messages), Инструменты (Tools), Кратковременная память (Short-term memory), Потоковая передача (Streaming), Промежуточное ПО (Middleware), Структурированный вывод (Structured output).
LangGraph - Агенты LangChain построены на основе LangGraph в качестве движка. Это новый фреймворк кастомизации агентов (с визуализацией на графах). Т.е. низкоуровневая Среда Оркестровки и Выполнения.
LangSmith - это закрытый (не опенсорц) бесплатный UI интерфейс для трассировки LLM.
Интеграции - через from langchain_community уже добавлено более 700 инструментов.

Если ничего не поняли, это нормально. Вы в поиске загуглите, что про LangChain пишут, ужаснетесь. Как я писал ранее, пакет начали разрабатывать еще за 1 месяц до выхода ЧатГПТ и может показаться, что это для RAG, но, это не так, LangChain это абсолютно моделе-нейтральный пакет для разработки LLM приложений, в которых модель не только форматирует вывод, но и определяет намерения пользователя, пакет позволяет автоматизировать оценку ответов модели, и многое другое, например, через внешние инструменты можно подключить обучение с подкреплением (RL) поверх LangChain приложения. И если вы захотите сменить провайдера модели, это делается буквально 2-3 строками кода.

Говоря более простыми словами, если вы подключите документацию к агенту кодирования через встроенные MCP сервер, то сможете собирать своих кастомных агентов типа как в n8n, только без визуального интерфейса, а из текстовых подсказок (кстати, в n8n тоже недавно ЛЛМ встроили, как раз для этих же целей).

Т.е. Вы можете собирать любые пайплайны на что только фантазии хватит. Вы можете создать свой собственный ЧатГПТ в Телеграм, который ищет билеты на Авиасейлс и принимает оплату через Яндекс.Деньги всего лишь из текстовых подсказок.

Но это еще далеко не все, что в LangChain понанапихано:
LangSmith Studio - типа AI Studio
LangGraph Server - API для связи вашего приложения с LangSmith Studio, в том числе и локально развернутого.
И многое многое другое.

Например, Deep Agents (для разработке ИИ-приложений, типа Claude Code, Deep Research и Manus) и недавно ребята показали Agent Bulider, это нокод инструмент, который позволяет собирать агентов в облаке из текстовой подсказки (закрытая бета).

Чтобы количественно оценить популярность пакета:
1. Seed: $10 M (Apr 2023)
2. Series A: $25 M (Feb 2024)
3. Series B: $125 M (Oct 2025)

Оценка 1.25B (для сравнения у вашей любимой Stability AI оценка только 1B)

Сколько стоит?
- базовая версия бесплатно.
- для корп. клиентов - свжитесь с отделом продаж ;)

🌐 Сайт
Академия LangChain - видеоуроки.

Кстати, у ребят очень крутой логотип:
Попугай - отсылка к статистическим попугаям.
Цепь - обозначает пайплайны\вокрфлоу.
Please open Telegram to view this post
VIEW IN TELEGRAM
Свежие апдейты в Gemini-cli

Предыдущие апдейты тут:

v0.11.0 — еженедельное обновление Gemini CLI — 20 октября 2025 г.

🎉 Расширение Gemini CLI Jules: используйте Gemini CLI для управления Jules.
Установить: gemini extensions install https://github.com/gemini-cli-extensions/jules
Объявление: https://developers.googleblog.com/en/introducing-the-jules-extension-for-gemini-cli/
- Потоковая передача данных в формате JSON: транслируйте события JSONL в реальном времени --output-format stream-json для мониторинга прогресса ИИ-агента при работе в автономном режиме.
- Переключение Markdown: теперь пользователи могут переключаться между визуализированным и необработанным отображением Markdown с помощью alt+m или ctrl+m.
- Редактирование сообщений в очереди: теперь пользователи могут быстро редактировать сообщения в очереди, нажимая клавишу со стрелкой вверх, когда поле ввода пусто.
- JSON web fetch : содержимое, отличное от HTML, такое как JSON API или необработанный исходный код, теперь корректно отображается в модели (ранее поддерживался только HTML)
- Неинтерактивные команды MCP: теперь пользователи могут запускать слэш-команды MCP в неинтерактивном режиме gemini "/some-mcp-prompt"
- Удаление устаревших флагов: Мы наконец-то удалили ряд устаревших флагов, чтобы очистить профиль вызова Gemini CLI:
--all-files / -a in favor of @ from within Gemini CLI
--telemetry-* flags in favor of environment variables

v0.10.0 — еженедельное обновление Gemini CLI — 13 октября 2025 г.

- Полировка: команда усердно работала над исправлением ошибок и вкладывала значительные средства в доработку существующих процессов, инструментов и взаимодействий.
- Вызов интерактивного инструмента оболочки: Gemini CLI теперь может также запускать интерактивные инструменты при необходимости.
- Поддержка сочетания клавиш Alt+Key: обеспечивает более широкую поддержку сочетаний клавиш Alt+Key на разных терминалах.
- Статистика телеметрии Diff: отслеживание изменений строк, внесенных моделью и пользователем во время операций с файлами через OTEL.

v0.9.0 — еженедельное обновление Gemini CLI — 06.10.2025

🎉 Интерактивная оболочка: запускайте интерактивные команды, такие как vim, rebase -i, или даже gemini😎 прямо в Gemini CLI:
Блог: https://developers.googleblog.com/en/say-hello-to-a-new-level-of-interactivity-in-gemini-cli/
- Установка предварительных версий расширений: установка последних --pre-release версий расширений. Используется, когда выпуск расширения не отмечен как «последний»
- Упрощённое создание расширений: создайте новое пустое расширение. Шаблоны больше не требуются.
- Метрики OpenTelemetry GenAI: согласовывают телеметрию с отраслевыми стандартными семантическими соглашениями для улучшения взаимодействия.
- Список файлов памяти: быстро найдите местоположение файлов долговременной памяти с помощью /memory list

В общем, ничего полезного за 3 апдейта не сделали, только ошибки исправили.

https://geminicli.com/docs/changelogs/
Решил протестировать NotebookLM

Загрузил туда документацию от LangChain

А правильный ответ я выложу в комментах.
👍2
DeepAgents CLI - полностью опенсорс агент кодирования с постоянной памятью на Питоне

LangChain представили свой cli-инструмент для написания кода, исследований и создания агентов с постоянной памятью. Теперь вы можете легко создавать и запускать собственные DeepAgents прямо из терминала.

Он поддерживает:
- Чтение, запись и редактирование файлов в вашем проекте
- Выполнение команд оболочки с одобрения человека
- Поиск в интернете
- Отправку HTTP-запросов в API
- Изучает и запоминает информацию на протяжении нескольких сессий
- Планирование задач и визуализацию списков TODO

Главная фишка: система постоянной памяти. Агент может запоминать информацию и воспроизводить её в разных сеансах. Каждый агент хранит свои знания в ~/.deepagents/AGENT_NAME/memories/:

По умолчанию при запуске DeepAgents создается и используется агент с именем agent. Вы можете изменить используемый агент (и, соответственно, используемые воспоминания), указав имя агента, например deepagents --agent foo.

И эту память вы можете прочитать и отредактировать.

Как я понял, в Клод Коде такого нет, хотя ген.дир LangChain Harrison Chase в видео признался, что его системный промпт очень тщательно скопировали с Claude Code.

Для работы вам потребуется какой-то АПИ ключ (ОпенАЙ или Антропик по-умолчанию, но поддерживается вся экосистема LangChain).

Более подробно читайте в блоге: https://blog.langchain.com/introducing-deepagents-cli/

Установка:
pip install deepagents-cli

Как такового режима планирования в агенте нет, т.е. вы просто даете ему задачу или можете указать "напиши план". Для простых задач (1-2 шага): просто делает без todo-листов. Для сложных задач (3+ шага): использует write_todos. После создания списка задач показывает его пользователю и спрашивет "План выглядит хорошо?" перед началом работы.

Какие у агента есть команды:
/clear - очистить экран и сессию
/help - экран помощи
/tokens - сколько токенов потрачено в текущей сессии
/quit - выход
/exit - выход

Что мне понравилось:
- Агент на Питоне, и если вам нужно, то можете сами там что-то поправить (я уже кое чего там поправил), в том числе и отредактировать системный промп, или даже просто прочитать его для общего развития.
- Ну и конечно, его можно втыркать во всем свои проекты на Питоне, в том числе и через cli.
- Полностью совместим со всей экосистемой Langchain.
- Ребята не копируют gemini-cli как все, а пишут свой собственный оригинальный инструмент.
- Как видите, практически ничего не умеет, но все основные функции в нем уже реализованы.

Но, не обошлось и без косяков:
- OpenAI ключ у меня вообще не запустил, но Антропик и DeepSeek заработали.
- Не сохраняет диалог между сессиями. Если вдруг вылетел, то все пропало.
- Никаких подробностей реализации, что и как он собрался делать, он не пишет.
- Агент все пишет по 2 раза, сначала изменения, которые хочет внести, потом изменения, которые внес и это одно и тоже.
- Нет никакой информации, сколько у него памяти в контекстном окне и когда эта память закончится.
- Как мы понимаем, никакой поддержки MPC пока нет.

Не смотря на все недоделки, в целом это может писать какие-то простые программы и вы можете это использовать для интеграции в собственные проекты.

Обучающее видео

UPD: Выяснил, что на 170 000 токсинах сработает автоматическая суммаризация, которая сожмет весь контекст и оставит только 6 последних сообщений. Но у Claude-Sonnet-4.5 по дефолту прописано ограничение в 20 000 токенов.
👍1
Как протестировать модели в LangSmith Playground

1. Настройте трассировку.
2. В трейсах (показал на скриншоте кругом) выбрать нужный вам вызов модели или вызов модели с результатами тула (для консистентности) и нажмите на кнопку "Playground". Это скопирует систем и промпт (и результаты работы инструмента, если выбирали).
3. Задайте АПИ ключи (показал на скриншоте стрелкой).
4. Сохраните модель и создайте новую модель (можно просто выбрать из списка), чтобы сравнить (показал на скриншоте стрелкой).
5. Под кнопкой "Start" можете выбрать от 1 до 30 запусков (на скришоте я выбрал 10).

Все! В качестве бонуса еще и увидите, сколько стоил каждый запрос.

Вот вам готовый инструмент, чтобы вручную модели не переключать и по циклу скрипты не запускать. Результаты всех запусков автоматически сохраняются.
1
Opencode - бесплатный программист из терминала

Бесплатно доступно аж 2 модели:
- Big Pickle (я так понял, это их собственная модель)
- Grok Code Fast 1

Установка:

npm install -g opencode-ai


Запуск:

opencode


Есть режим планирования и TODO листы, а так же добавили IDE плагин! Единственное, что нет интерфейса для перехода из режима планирования в режим редактирования, а Грок вообще не очень понимает, что от него хотят, и предлагает создать файл самостоятельно (видимо он думает, что запущен в чате).

Но зато полностью бесплатно.

Можно подключить свой аккаунт Антропик и кодить под подписке!

opencode auth login
2
По чем нынче Вайб Кодинг для народа

Сделал такой эксперимент, подключил АПИ ключ от Claude Haiku к разным агентам кодирования.

Промпт у всех одинаковый:

Напиши игру змейка на Пайгейм

Если был режим планирования - то использовал его. Если агент предлагал сначала протестировать - тоже соглашался. В общем, ждал пока агент скажет "я все закончил".

Claude Code - ↓ 769 + 2.9k - $0.0260
Opencode - 18,2k - $0.07
Cline - 22.0k - $0.0768
Kilo - ↑ 51 ↓ 5.8k - $0.10
Roo - ↑ 628.3k ↓ 12.3k - $0.13

Цены казаны для Haiku, 4.5, для Sonnet 4.5 умножаем на 3. Для Opus лучше даже не умножать.

Я когда пользовался всякими бесплатными Клайнами, у меня было заблуждение, что кодить за токены - это безумного дорого. Оказалось что это не так:

Клод Код ну очень экономичен, и тратит меньше всего токенов, при том, что режим мышления я не отключал всего 2.5c. В среднем на змейку на Пайке уходит 7-8 центов, но вот Roo почему-то потратил почти 14с, что в 7 раз(!) больше, чем Claude Code. И большой вопрос, а куда он 628.3k токенов зааплоадил? Не скачал ли он все пароли с моего ноута?
1👀1
🔥 Kilo Code раздают халяву MiniMax M2 бесплатно, какое-то ограниченное время
Please open Telegram to view this post
VIEW IN TELEGRAM
Протестировал Claude Agent SDK

Ощущения спорные. Из документации запустил вот этот пример:

import asyncio
from claude_agent_sdk import query, ClaudeAgentOptions

async def main():
options = ClaudeAgentOptions(
system_prompt="You are an expert Python developer",
permission_mode='acceptEdits'
)

async for message in query(
prompt="Create a Python web server",
options=options
):
print(message)

asyncio.run(main())


В результате выполнения скрипта у меня в директории появился файл server.py и за это списали ровно $0.20 за 131 строку кода (последнюю не считаем) 👀 Видимо это от того, что у меня не указано, какую использовать модель.

Т.е. с одной стороны я понимаю, что за этими технологиями будущее, но с другой стороны пока стоит не оправдано дорого.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Протестировал Goose - агент для кодирования и управления компьютером

Есть App и Cli версии.

Очень хорошо, что ребята не пошли путем Cursor и Windserf, не стали переделывать несчастный VSC, а написали свое приложение, но как говорится, есть нюансы.

Из функционала есть:
- Какая-то настройка разрешений, по умолчанию включен полностью автоматический режим.
- MCP (есть маркетплейс)
- TODO (можно отключить)
- Авто визуализатор (для визуализации данных)
- Управление компьютером
- Встроенный планировщик
- Память
- Гайды

Можно генерировать рецепты, я так понял, это типа Клод Скиллс (вы можете записать инструкцию и перенести из одного Гуся в другой). Чаты (сессии) тоже можно сохранять и загружать.

Промпт: Напиши игру змейка на Пайгейм

Модель выбрал: сlaude-haiky-4-5

Токены:
Исходящие: 38.4к
Входящие: 3 012

Списали: $0.39 👀

Так же любопытно, что версию Питона выбрать нельзя. Т.е. Запускай, как хочешь.

Таким образом, инструмент довольно любопытный, явно ориентирован на очень низкий порог входа пользователя, и безусловно найдет свою нишу:
- Для анализа данных
- Управления компьютером
- Написания текстов

Ну т.е. вы можете просто приложение скачать, ввести АПИ ключ, и он будет по расписанию спам рассылать. Но вот по стоимости токенов как-то очень дорого обходится, надо пробовать использовать более дешевые модели.

Так же с такими "разрешениями" безопасность вызывает вопросы, может ли он пойти в мою папку документы и там что-то удалить?

Установка:
https://block.github.io/goose/docs/quickstart/
Please open Telegram to view this post
VIEW IN TELEGRAM
🤡1
Claude Agent SDK for Python

В требованиях прямо сказано, что npx и Claude Code не менее версии 2.0 должны быть установлены.

А это значит, что SDK проходит авторизацию через вашу Claude подписку и не расходует API токены.
👍1🤡1
Хотел перейти на Питон 3.14

Основная причина падения — вы собираете образ на Python 3.14 (python:3.14-slim). Для этой версии сейчас нет готовых колёс aiohttp и pydantic-
core, поэтому pip пытается собирать их из исходников. Для aiohttp нужен хотя бы gcc, а pydantic-core требует установленного Rust (rustc, cargo). В
slim‑образе этого ничего нет, поэтому сборка срывается.


Ждем бинарные колеса...
🤡1
Как подсэкономить токены и ускорить работу Claude Code

Выполните команду /context

Как видите, я только что запустил новый процесс claude, а контекстное окно уже занято на 33% (хотя я ничего еще не делал), как же так? Ну вот такая архитектура у этой программы.

Ниже подробно расписано, на что потрачено 200 тыс. токенов:
1. 45.0k - зарезервировано под автокомпакцию. Это хорошо объясняет, почему при подходе к 155 тыс. токенов, он настойчиво просит сжать контекстное окно, потому что нужно пространство для сжатия, так что по факту контекста не 200к, а только 155к. Еще 13.7k токенов (6.9%) отожрут System tools и System prompt по мелочи.
2. Все вот эти вот ваши CLAUDE.md, кастомные агенты и кастомные слэшкоманды, они все тоже жрут контекстное окно (и токены). Так что, если вы установили весь пакет полностью, то все эти 100500 автоматических генерированных агентов, которых у вас никогда нет времени протестировать, тоже будут жрать контекстное окно (и токены), тоже самое касается и MCP серверов, которые лучше держать отключенными и включать только когда вы ими пользуетесь.
3. Конечно, на сервере работает кэширование запросов, и денег за это вы заплатите намного намного меньше, но размер контекстного окна все равно ограничен, как не крути.

Так что, если у вас не тарифный план Макс (и вы реально не знаете куда столько токенов потратить) или большой проект и все в контекст просто не влезает, имеет смысл задуматься, чтобы немного подоптимизировать.
🤡1
Channel name was changed to «Vibe Coding: Claude Code, Cursor, Cline»