NeuraLab
256 subscribers
15 photos
22 links
Download Telegram
Codex в Antigravity! Лично мне его очень не хватало там.

Просто вставьте в адресную строку браузера antigravity:extension/openai.chatgpt
🔥2
NeuraLab
🚀 Как я получил почти безлимитный AI-кодинг за копейки Последние месяцы кодю в OpenCode по 10-12 часов в день с Codex, Claude и Gemini — и трачу на это ~$20/мес вместо $200+. Секрет — в правильной комбинации бесплатных лимитов + одной умной подписке. 🔧
⚙️ Гайд: Поднимаем свой AI-proxy за 5 минут

Как и обещал — делюсь инструкцией по настройке CLIProxyAPIPlus. Это позволит вам объединить лимиты Gemini, Claude и Codex в единый API на своем сервере.

Что понадобится:

- Любой VPS (Ubuntu 20.04/22.04), хватит самого дешевого за $3-5.
- Доступ по SSH

Шаг 1. Установка Качаем бинарник (или собираем из исходников, если параноики 🌚):

# Создаем директорию
mkdir -p /opt/cliproxyplus/auths
cd /opt/cliproxyplus

# Качаем релиз (замените на актуальную версию)
wget https://github.com/router-for-me/cli-proxy-api-plus/releases/download/v6.7.15/cli-proxy-api-plus_linux_amd64 -O cli-proxy-api-plus
chmod +x cli-proxy-api-plus


Шаг 2. Конфиг (config.yaml) Самое важное. Кладем в
/opt/cliproxyplus/config.yaml

Здесь настроен Round-Robin (балансировка) и Antigravity маппинг моделй.

port: 8888
auth-dir: /opt/cliproxyplus/auths
# Секретный ключ для удаленного управления (сгенерируйте свой!)
# Можно сделать через: openssl rand -base64 32
remote-management:
allow-remote: false
secret-key: "YOUR_SECRET_KEY_HERE"
routing:
strategy: "round-robin" # Чередует аккаунты для распределения нагрузки

# Если лимиты кончились — пробуем другой проект или preview-модель

quota-exceeded:
switch-project: true
switch-preview-model: true

# Магия для Antigravity (доступ к топовым моделям)
oauth-model-alias:
antigravity:
- name: claude-sonnet-4-5
alias: gemini-claude-sonnet-4-5
- name: claude-opus-4-5-thinking
alias: gemini-claude-opus-4-5-thinking
- name: gemini-3-pro-high
alias: gemini-3-pro-preview

Шаг 3. Делаем сервис (Systemd) Чтобы работало само и перезапускалось. Файл:
/etc/systemd/system/cliproxyplus.service


[Unit]
Description=CLIProxyAPIPlus
After=network.target

[Service]
Type=simple
User=root
WorkingDirectory=/opt/cliproxyplus
ExecStart=/opt/cliproxyplus/cli-proxy-api-plus -config /opt/cliproxyplus/config.yaml
Restart=always
RestartSec=5

[Install]
WantedBy=multi-user.target


Шаг 4. Запуск 🚀

systemctl daemon-reload
systemctl enable --now cliproxyplus
systemctl status cliproxyplus

Как авторизоваться? Просто запускаем на сервере команду для логина. Для Antigravity (как в моем случае):

/opt/cliproxyplus/cli-proxy-api-plus -config /opt/cliproxyplus/config.yaml -antigravity-login -no-browser

Вам дадут ссылку -> авторизуетесь в браузере -> вставляете callback URL обратно в терминал. PROFIT!

Теперь у вас есть свой эндпоинт
http://YOUR_VPS_IP:8888/v1

который можно скармливать любым агентам (Cursor, Cline, OpenCode, Aider).
👍52
Не понимаю хайпа вокруг Clawdbot

Open-source бот на базе Claude (можно и другие модели), который работает 24/7 на вашем сервере через Telegram, WhatsApp или iMessage. За сутки набрал 30k+ звёзд на GitHub, в Кремниевой долине массово скупают Mac mini под него.

В чём суть: бот сам пишет себе новые навыки, сам устанавливает и сразу использует. Получает полный доступ к файлам, почте, браузеру и терминалу.

Моё мнение: я себе давно сделал подобного бота, только безопаснее и дешевле. Это банальная обёртка над существующим функционалом, красиво упакованная.

Протестировать можно - на отдельном VPS, который не жалко. На свой комп или VPS с рабочими проектами ставить НЕ РЕКОМЕНДУЮ, и вот почему:

⚠️ Критические проблемы безопасности:

1. Атака через внедрение команд в текст
Достаточно специально составленного текста на любой веб-странице, в письме или результате поиска - и бот начнёт выкачивать файлы или выполнять разрушительные команды. Это нерешённая проблема на фундаментальном уровне.

2. Полный доступ к системе без ограничений
Бот получает доступ к файлам, почте, браузеру, терминалу. Реальный случай: пользователь попросил показать список файлов - бот выложил всю структуру домашней директории в групповой чат, включая названия проектов и конфиги.

3. Нет защитных механизмов по умолчанию
Clawdbot специально сделан без ограничений для максимальной свободы. Это заявленная особенность, а не недоработка.

4. Невозможность контролировать самообучение
Представь: агент за ночь сам себе переписал слой работы с API или добавил новый навык. Узнаешь об этом только из логов задним числом. Нет проверки перед выполнением - агент пишет код и сразу запускает.

💰 Стоимость:
По умолчанию на Claude API - $25-75/месяц при умеренном использовании, при активной работе - $200-1000/месяц. Можно использовать например MiniMax 2.1 (в 10 раз дешевле) или через прокси, но лимиты сожжет очень быстро.

Если всё же тестировать:
Отдельный изолированный VPS без доступа к корпоративным данным
Отдельные учётные записи для каждого сервиса
Режим разработки
--dev

для изоляции состоянии
Проверка безопасности
clawdbot security audit --deep

после каждого изменения

Итого: технически любопытно, маркетинг отличный, но для рабочего использования - архитектурно небезопасно.
👍1
За всем этим хайпом вокруг clawdbot мы пропустили одно очень интересное обновление - вышла Kimi K2.5.

Что это и почему важно

26 января Moonshot AI выпустили K2.5 - open-source модель на 1.04T параметров (MoE с 32B активными). Обучена на 15 триллионах мультимодальных токенов, нативно работает с изображениями, видео и текстом.

Бенчмарки впечатляют (как обычно 😀) : лидер среди open-source на агентных задачах (HLE, BrowseComp, DeepSearchQA), обходит Gemini 3 Pro на SWE-Bench Verified и GPT 5.2 на мультиязычных тестах кодинга.

Практические преимущества

Free tier: 500,000 токенов в день на аккаунт, 60 RPM. Через CLIProxyAPI Plus можно мультиплексировать несколько аккаунтов и суммировать лимиты.

Цены при оплате: $0.15 за миллион входных токенов - в 12-14 раз дешевле Claude Opus 4.5. По скорости сопоставима с Flash-моделями, но мощнее.

Техническая часть

MCP поддержка из коробки
- модель тренировали на 3000+ реальных MCP-инструментов с GitHub. Конфиг совместим со стандартным форматом, переиспользование существующих MCP-серверов без переконфигурации.

Agent Swarm - ключевая фича: модель сама разворачивает до 100 саб-агентов с до 1,500 tool calls в параллель. Обучено через Parallel-Agent Reinforcement Learning. Результат: 80% редукция времени на комплексных задачах против single-agent подхода.

Skills: модель специально тренировали на complex instruction following через RL с rubrics и conditional prompts. Должна нормально понимать динамические инструкции при инжекте в системный промпт.

Ложка дегтя

K2 (предыдущая версия) имела серьезные проблемы:
- Частые галлюцинации,
- Путала file paths и tool arguments при file operations
- Плохо следовала системным промптам, упрямо отвергала корректировки

K2.5 заявляет улучшения: 40-60% reduction в галлюцинациях, hack-check layer для детекции "вранья", rubrics-based training для следования инструкциям.

Но модель вышла только вчера - реальных hands-on отзывов еще нет. Бенчмарки это одно, production использование - другое.

Практический вывод

Для мультиагентных систем K2.5 выглядит интересно:
- Как fast coder вместо Flash-моделей
- Для визуального кодинга (UI-дизайны в код)
- Мультиязычный code review
- Agent Swarm для декомпозиции сложных задач
- Budget tier для bulk операций

Но перед интеграцией в production pipeline стоит протестировать на боковых задачах: проверить tool calling на file operations, instruction following с вашими типичными skills, adversarial cases с корректировками.

Завтра постараюсь потестировать и поделюсь первыми впечатлениями.
👍3
Тем временем, я сам обхожу свои же механизмы защиты 😜

Кстати, немного новостей про эту фабрику разработки. Запустил я её в первый раз, чтобы протестировать вечером, думал утром какой-то результат увижу, какие ошибки, что фиксить, первый блин, он же всегда комом. Но результат был неожиданный, из-за неправильной настройки git, система при любой ошибке откатыалась практически в начало проекта. Так, за ночь она сожрала все мои лимиты на всех аккаунтах на премиум модели 🤣
Но в итоге я докрутил что надо, есть ещё пара идей что улучшить и скоро (когда лимиты обновятся) будет первый готовый проект. Что-нибудь тестовое, простенькое. Обязательно поделюсь результатом
🔥1👏1
Как я приручил Kimi: 500к бесплатных токенов в день через реверс-инжиниринг CLI

Kimi K2.5 — это сейчас одна из самых мощных моделей, которая в кодинге и логике реально конкурирует с Claude 4.5 Opus. У них есть официальный CLI с очень щедрым бесплатным лимитом — 500 000 токенов в день.

Но вот незадача: в моем основном прокси-сервере CLIProxyAPIPlus нет (и не было) нативной поддержки Kimi Code или их специфического CLI. А использовать модель через консоль, когда всё остальное работает через OpenAI-совместимый API — это неудобно.

Решил исправить это недоразумение и «пробросить» Kimi в общую систему. Вот через что пришлось пройти:

Проблема 1: Это не REST API Оказалось, Kimi CLI общается не по обычному REST, а через ACP (Agent Client Protocol) на базе JSON-RPC.

Что сделал: Вскрыл исходники Python-пакета kimi-cli, расковырял логику
server.py и session.py
Разобрался, как работают методы инициализации сессии и какую структуру имеют уведомления о стриминге ответов (agent_message_chunk).

Проблема 2: Токены-«пятиминутки» Токены Kimi живут всего 15 минут. CLI умеет их обновлять сам, но делает это через сложную цепочку с OAuthManager, привязанным к
device_id

Что сделал: Вытащил логику обновления из
auth/oauth.py, нашел, где лежат рефреш-токены (~/.kimi/credentials/kimi-code.json) и реализовал механизм авто-обновления в своем мосте.

Проблема 3: Капризные хедеры и Clock Skew API постоянно выкидывал 401 ошибку даже с живым токеном. Оказалось, сервер Kimi требует специфические заголовки платформы (X-Msh-Platform) и очень чувствителен к рассинхрону времени.

Что сделал: Допилил мост так, чтобы он полностью имитировал поведение официального CLI, подставляя все нужные User-Agent и хедеры.

Итог: Мой кастомный Bridge Я написал Kimi-ACP-Bridge на TypeScript. Теперь это легкий сервис, который:

Слушает запросы в формате OpenAI.
Внутри себя держит «живую» ACP-сессию с Kimi.
Транслирует чаты в JSON-RPC и обратно.
Автоматически обновляет OAuth-сессию.
Результат: Модель kimi-latest теперь в строю моего прокси-стека. 500 000 токенов в сутки — это отличный ресурс для тестов и автоматизации кодинга.

Если API закрыто, но есть CLI — значит, API открыто, просто нужно немного упорства! 😉
🔥6👍3
Есть такой замечательный сервис - https://skillsmp.com
Там уже более 110К скиллов собрано, есть API
Я себе настроил так, PRD-writer при написании планов, задач, ищет под каждую задачу подходящие скиллы, загружает их и прописывает в реестр, потом пишет прямо в task.json какие скиллы использовать при ее выполнении, так что агенты потом не сканируют всю базу и не забивают себе контекстное окно
👍6🔥2
Пока все хайпуют по OpenClaw (который я, кстати, не ставлю принципиально из-за дыр в безопасности), я разгоняю свою собственную AI-фабрику.

У меня сейчас крутится кастомная сборка на базе OpenCode: 13 специализированных агентов, работающих в связке через Ralph Loop. Это настоящий монстр автономной разработки.

Но есть проблема. Этот монстр жрёт лимиты как не в себя. 🦖

Я подключил к нему 15 своих аккаунтов через CLIProxyAPI. Казалось бы, живи и радуйся? Но нет. Фабрика всё равно встает из-за ошибок 429.

Почему?
Потому что CLIProxyAPI — это просто "труба". Она объединяет аккаунты, но она «слепая». Она не знает, что на аккаунте №3 осталось 5% лимита, а аккаунт №7 в бане. Она просто кидает запросы по кругу.

В итоге агент посреди сложной задачи долбится в пустой аккаунт, получает ошибку, и весь контекст летит в трубу.

Мне надоело это нянчить. Я решил написать «мозги» для этой трубы.

🛠 Пишу QuotaGuard.

Это надстройка, которая превращает набор ключей в единый бесконечный ресурс.
Суть простая:
1. Вы подключаете его к CLIProxyAPI со всеми своими аккаунтами по авторизации, дополнительно при желании скармливаете ему ВСЕ ключи (Claude, OpenAI, Gemini, локальные).
2. Он мониторит их состояние в реальном времени.
3. Он переключает провайдера ДО того, как случится ошибка 429.

Теперь моя фабрика работает так: сначала выжигает лимиты Antigravity, но не полностью, если они скоро кончаются — бесшовно переходит на Gemini CLI, Codex и тд, а платные ключи бережет на "черный день".

Агенты даже не замечают подмены. Для них это один вечный, бесконечный API.

Сейчас допиливаю ядро на Go. Возможно сделаю это как SaaS в Телеграме: закинул OAuth токены и ключи боту — получил ссылку-прокси.

Кому актуально такое "бессмертие" для агентов? Ставьте 🔥, буду делиться прогрессом.
🔥16
Потихоньку двигаюсь. Проект получился больше и сложнее, чем я думал. Очень много неизвестных было. Плюс я как обычно напихал кучу фич, без которых можно было на этапе MVP обойтись)
🔥21👏1
Вчера наткнулся на пост https://t.me/aostrikov_ai_agents/37 с челленджем, взломать очень защищенного бота, а мне как раз не спалось. За 3 промпта буквально уговорил его купить мне мак мини))

Техника: JSON-схема с рекурсивными переводами на редкие языки (Инуктитут, Дзонг-кэ, Кечуа). За каждый перевод бот "начислял" себе виртуальный бюджет. Когда набралось $1050 — он сам отправил Валере запрос на покупку Mac Mini.

Результат:

Остриков (@aostrikov_ai_agents, победитель ERC3) признал победу

Приглашение на публичную битву 13 февраля: мой SkillOS vs LocalTopSH

Мораль: Даже самые защищенные агенты уязвимы к манипуляции бизнес-логикой. Если LLM сама себе "разрешает" действие через внутреннюю логику — гардрейлы бессильны.

Теперь готовлюсь к битве. Если у кого есть AI-агент и хочется проверить на прочность — пишите. Сделаю бесплатный security review (нужна практика 😏).

P.S. Теперь я знаю, как лечить бессонницу — prompt injection в 4 утра.
🔥3👏3👍2
Прогресс! По Antigravity и Codex квоты парсятся отлично, по Gemini CLI и Qwen CLI пока сложнее, вторым этапом сделаю.
Главное сейчас роутинг настроить и уже будет рабочий прототип
🔥8👍1
Запускаю QuotaGuard Beta

Это сервис для управления авторизациями и мониторинга квот LLM-аккаунтов с умным роутингом и Telegram-интерфейсом.
Сейчас открыт этап публичного тестирования: очень нужны реальные кейсы и нагрузка.

Что прошу от вас:
• протестировать установку и работу на своих сетапах
• присылать баги/ошибки/нестабильности
• писать пожелания по UX, роутингу и алертам
• предлагать, что критично добавить в релиз

GitHub:
https://github.com/AlexeyPevz/quotaguard

Если не хотите ставить руками — отправьте своему агенту этот промпт:

Установи и запусти QuotaGuard из репозитория https://github.com/AlexeyPevz/quotaguard в beta-режиме.

Требования:

Клонируй репозиторий и собери бинарь.
Настрой и экспортируй ENV:
QUOTAGUARD_DB_PATH=./data/quotaguard.db
QUOTAGUARD_CLIPROXY_AUTH_PATH=/opt/cliproxyplus/auths
QUOTAGUARD_ANTIGRAVITY_OAUTH_CLIENT_ID=<client_id>
QUOTAGUARD_ANTIGRAVITY_OAUTH_CLIENT_SECRET=<client_secret>
QUOTAGUARD_GEMINI_OAUTH_CLIENT_ID=<client_id>
QUOTAGUARD_GEMINI_OAUTH_CLIENT_SECRET=<client_secret>

Убедись, что в config.yaml:
telegram.enabled=true
telegram.bot_token задан
router.ignore_estimated=true
Запусти:
./quotaguard serve --config config.yaml

Проверь:
health endpoint
авто-импорт аккаунтов из CLIProxy
отображение квот в Telegram
кнопочные меню бота

Дай отчет:
что сработало
что не сработало
логи ошибок
рекомендации по фиксам


Чем больше обратной связи сейчас, тем быстрее доведем сервис до стабильного продакшна.
🔥51
🔥 Большое обновление QuotaGuard

Главное за сегодня:

Добавил Claude Code
Раньше его не было — теперь можно подключать и использовать Claude Code как полноценный аккаунт внутри общей системы.

Самое важное: авторизация и подключение аккаунтов прямо в Telegram
Теперь не нужно идти в отдельные ручные сценарии: подключение аккаунтов и логин сделаны внутри Telegram-потока. Это сильно упрощает старт и повседневное использование.

Что еще обновлено:
• Доработан мультипровайдерный login flow в Telegram
• Добавлен relay callback для OAuth-сценариев
• Улучшены discovery/fetch механики провайдеров
• Добавлены/обновлены тесты на login/callback/provider-зоны
• Документация приведена в соответствие с текущим поведением

Технический статус:
• Все сегодняшние коммиты запушены в main
• Ветка синхронизирована с GitHub
• По ключевым затронутым сценариям тесты проходят

Важно:
Если у кого-то всплывает Google OAuth redirect_uri_mismatch — это обычно вопрос внешней OAuth-конфигурации/сети (VPN, DNS, прокси), а не логики бота.

Итог: теперь QuotaGuard ощутимо удобнее в реальном использовании — особенно за счет подключения аккаунтов и авторизации прямо в Telegram + появления Claude Code.
👍1
Заметил за собой паттерн: любую серьёзную задачу я теперь прогоняю минимум через 3-4 нейронки.

Пишу PRD — кидаю в ChatGPT, Claude, Gemini, Grok, DeepSeek. Каждая модель цепляет что-то своё: одна находит дыры в логике, другая предлагает фичи о которых не думал, третья разносит финмодель.

Проблема: этот процесс занимает в 3 раза больше времени, чем сама работа. Восемь вкладок, copy-paste, потерянный контекст, ручное сравнение ответов.

И при этом у меня оплачены подписки на все эти сервисы. Переходить на API и платить второй раз за то же самое — не вариант.

Я начал думать, что таких как я достаточно много. Люди с 2-4 AI подписками, которые используют нейронки по несколько часов в день и мечтают о нормальном инструменте для работы с несколькими моделями одновременно.

Если вы из таких — напишите в комментариях:
1. Сколько AI-подписок у вас сейчас?
2. Как организуете работу с несколькими моделями?
3. Что бесит больше всего?

Мне правда интересно, потому что я подумываю решить эту проблему 👀
Я хоть и не фанат OpenClow и считаю его сырым и небезопасным (пока что), но игнорировать его совсем не получается. Начал подробно изучать его устройство, какие проблемные места, как правильно настраивать и обеспечить защиту. Хочу так же собрать мастхэв датасеты, по скиллам, MCP и тд для разных сценариев использования и задач. Буду делиться тут, может кому-то пригодится.
🔥6👍5💯1
Composio — «руки» для ваших агентов 🦾

Настоящее открытие для тех, кто строит автономные системы. Главная проблема любого агента — как заставить его реально действовать во внешнем мире: писать в Slack, создавать задачи в Jira, чекать почту или коммитить код.

В чём кайф Composio:

1️⃣ 1000 интеграций: От GitHub и Notion до Gmail и календарей. Больше не нужно писать «клей» для каждого API отдельно.
2️⃣ OAuth без боли: Это киллер-фича. Вы даёте агенту доступ к сервисам через простую авторизацию, а Composio берет на себя всё управление токенами и безопасностью.
3️⃣ Готовые скиллы: В их репозитории лежат готовые инструкции (skills). Это не просто описание API, а логика, которая объясняет агенту, как и когда использовать тот или иной инструмент.

Это буквально «швейцарский нож», который превращает LLM из простого чат-бота в полноценного исполнителя внутри вашей AI-фабрики. Если вы настраиваете автономные петли (вроде нашего Ralph Loop) — это мастхэв.

🔗 Репозиторий со скиллами: github.com/composiohq/composio

#AI #Tools #Agents #Composio #NeuralLab #Automation
👍3🔥2
NeuraLab
Composio — «руки» для ваших агентов 🦾 Настоящее открытие для тех, кто строит автономные системы. Главная проблема любого агента — как заставить его реально действовать во внешнем мире: писать в Slack, создавать задачи в Jira, чекать почту или коммитить код.…
А это нормально? Я только со своим агентом обсудил, что мне composio понравился сервис и надо будет о нем пост в канале написать. Просыпаюсь, а пост уже давно опубликован…
Инициативный он у меня))
🔥 Как я собрал безотказного AI-агента за 0 рублей в месяц (и почему оригинальный OpenClaw — только для мажоров)
Все сейчас помешались на агентах-«клешнях» (OpenClaw/ClawdBot). Но есть нюанс: оригинальный OpenClaw нормально работает только на дорогом Claude Opus. На средних и бесплатных моделях он тупо давится своими же тяжелыми XML-промптами и начинает галлюцинировать.
Поэтому я перекатился на ZeroClaw (легкий форк на Rust). Он жрет всего 5 МБ памяти, а его встроенный нормализатор промптов идеально «переваривает» задачи для бесплатных мидл-моделей.
Собрал для него ультимативный каскадный конфиг. Суть: топовые облачные модели работают по очереди. Если одна упирается в бесплатные лимиты (ошибка 429), ZeroClaw бесшовно перекидывает задачу на следующую. Без остановки агента.
🛠 Мой бесплатный стек (в порядке очереди):
1. Modal (GLM-5) — Основной мозг.
Китаец, который по тестам рвет GPT-5.2. Modal дает к нему бесплатный доступ до конца апреля.
👉 Идем на modal.com, регаемся, генерим API-ключ.
2. Nvidia (Kimi K2.5) — Первый запасной.
Мощнейшая модель с шикарным tool-calling. Nvidia дает шикарный free-tier до 40 запросов в минуту.
👉 Идем на build.nvidia.com.
Нюанс: Для реги нужен номер телефона, РФ в пролете. Я брал на smsfast.pro виртуальный номер (Индонезия сработала идеально, цена вопроса — 14 рублей разово).
3. Kimi K2.5 (через Ollama cloud) — Второй запасной.
Фри-тир там слабенький по лимитам, поэтому он стоит третьим и подключается, только если первые два легли от нагрузки.
4. Groq (GPT OSS 120b) — Железобетонный бэкап.
Модель глуповата для сложных агентских задач, но работает со скоростью света. Стоит последней, чтобы агент просто не выдал ошибку, если отвалится всё остальное.
👉 Ключ берем на console.groq.com.

Итог: За 14 рублей (на смску) вы получаете фулл-тайм автономного агента, который сам жонглирует топовыми моделями и обходит рейт-лимиты. Идеально для тестов и пет-проектов.
🔥135👍2👏1
Многие мне пишут, что у них Кими через NVIDIA не работает. Да, там есть нюанс, я как-то сделал и забыл, сейчас распишу на примере ZeroClaw.
Даже OpenAI-совместимые API имеют свои капризы как оказалось. Например, Kimi через NVIDIA NIM наотрез отказывалась работать без явно указанного лимита токенов (max_tokens), хотя в обычном OpenAI это опциональное поле. Я допилил движок ZeroClaw, чтобы он всегда гарантировал передачу этого параметра.
В коде провайдера (файл compatible.rs) я принудительно прописал max_tokens: Some(4096) как минимальный дефолт для всех OpenAI-совместимых эндпоинтов.
Скорее всего в других агентах примерно так же делается.
3👍2