ИИ начал находить настоящие баги в ядре Linux. И никто не понимает, почему именно сейчас
Грег Кроа-Хартман, один из ключевых мейнтейнеров ядра Linux, заявил что ситуация с AI-сгенерированными баг-репортами кардинально изменилась.
Ещё недавно это был поток мусора - теперь это реальные баги с рабочими патчами.
Его слова: «Что-то произошло месяц назад, и мир переключился.
Теперь к нам приходят настоящие отчёты». И это не только Linux - по его словам, все крупные open source проекты видят то же самое. Команды безопасности общаются между собой неформально, и картина везде одинаковая.
Никто не понимает, что именно изменилось. Кроа-Хартман говорит прямо: «Мы не знаем. Никто не знает почему. То ли инструменты стали сильно лучше, то ли люди просто начали пробовать. Похоже, что это много разных групп и компаний одновременно».
Ядро Linux справляется - команда большая и распределённая.
Баги мелкие, не критические, но поток реальный и не замедляется.
А вот для маленьких open source проектов это проблема. У них просто нет людей, чтобы обработать внезапный наплыв качественных AI-репортов.
Раньше страдали от мусорных репортов, теперь страдают от настоящих.
По сути мы наблюдаем момент, когда AI-инструменты для поиска уязвимостей перешли из категории «игрушка» в категорию «инфраструктура». И open source к этому не готов.
https://vc.ru/dev/2830028-ii-nashel-bagi-kotorye-lyudi-propuskali-30-let-meinteiner-linux-my-ne-ponimaem-chto-proizoshlo
🐍 Linux полезные ресурсы 🚀Max
@linuxkalii
Грег Кроа-Хартман, один из ключевых мейнтейнеров ядра Linux, заявил что ситуация с AI-сгенерированными баг-репортами кардинально изменилась.
Ещё недавно это был поток мусора - теперь это реальные баги с рабочими патчами.
Его слова: «Что-то произошло месяц назад, и мир переключился.
Теперь к нам приходят настоящие отчёты». И это не только Linux - по его словам, все крупные open source проекты видят то же самое. Команды безопасности общаются между собой неформально, и картина везде одинаковая.
Никто не понимает, что именно изменилось. Кроа-Хартман говорит прямо: «Мы не знаем. Никто не знает почему. То ли инструменты стали сильно лучше, то ли люди просто начали пробовать. Похоже, что это много разных групп и компаний одновременно».
Ядро Linux справляется - команда большая и распределённая.
Баги мелкие, не критические, но поток реальный и не замедляется.
А вот для маленьких open source проектов это проблема. У них просто нет людей, чтобы обработать внезапный наплыв качественных AI-репортов.
Раньше страдали от мусорных репортов, теперь страдают от настоящих.
По сути мы наблюдаем момент, когда AI-инструменты для поиска уязвимостей перешли из категории «игрушка» в категорию «инфраструктура». И open source к этому не готов.
https://vc.ru/dev/2830028-ii-nashel-bagi-kotorye-lyudi-propuskali-30-let-meinteiner-linux-my-ne-ponimaem-chto-proizoshlo
🐍 Linux полезные ресурсы 🚀Max
@linuxkalii
🔥4❤3👍2🤡1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Компания Z.ai (создатели моделей GLM) выпустили AutoClaw - инструмент, который позволяет запускать OpenClaw локально, без интернета и без API-ключей.
OpenClaw - это ИИ-агент, который умеет выполнять многошаговые задачи и использовать инструменты (например, подключаться к Slack, Telegram, Discord, WhatsApp и другим сервисам).
В чем плюсы AutoClaw:
• Скачал - запустил. Никаких API-ключей не нужно
• Можно использовать любую модель или встроенную GLM-5-Turbo, заточенную под работу с инструментами и сложными задачами
• Полностью локально, твои данные никуда не уходят
По сути, это локальный аналог таких агентов, как Cursor или Operator, но работающий целиком на твоей машине, без слежки и без подписок.
AutoClaw: https://autoglm.z.ai/autoclaw/
Discord: https://discord.gg/jvrbCRSF3x
@ai_machinelearning_big_data
OpenClaw - это ИИ-агент, который умеет выполнять многошаговые задачи и использовать инструменты (например, подключаться к Slack, Telegram, Discord, WhatsApp и другим сервисам).
В чем плюсы AutoClaw:
• Скачал - запустил. Никаких API-ключей не нужно
• Можно использовать любую модель или встроенную GLM-5-Turbo, заточенную под работу с инструментами и сложными задачами
• Полностью локально, твои данные никуда не уходят
По сути, это локальный аналог таких агентов, как Cursor или Operator, но работающий целиком на твоей машине, без слежки и без подписок.
AutoClaw: https://autoglm.z.ai/autoclaw/
Discord: https://discord.gg/jvrbCRSF3x
@ai_machinelearning_big_data
👍5❤3🗿2
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Microsoft Critique: deep research на стероидах, где одна модель генерирует, а вторая её критикует
Microsoft выкатили Critique. Это инструмент для deep research, который одновременно запускает несколько моделей на один запрос.
Работает так: первая модель берёт на себя генерацию, вторая выступает рецензентом и вычищает ошибки и неточности до того, как вы увидите финальный ответ. Какие именно модели работали над ответом, видно в шапке.
По бенчмарку DRACO показывают SOTA, других замеров пока нет. Так что насколько это реально лучше обычного deep research, вопрос открытый.
Отдельно интересен режим Council для обычных запросов. Ваш промпт прогоняется через несколько моделей параллельно, и вы видите все варианты сразу. Плюс краткая выжимка: где модели согласны, а где разошлись во мнениях.
На широкую аудиторию пока не раскатили, можно подать заявку на ранний доступ. Будет ли это в обычной подписке за $20, неизвестно. Хотя, если честно, мультимодельный пайплайн с критиком можно собрать самому за вечер через API. И точно выйдет дешевле.
techcommunity.microsoft.com/blog/microsoft365copilotblog/introducing-multi-model-intelligence-in-researcher/4506011
Microsoft выкатили Critique. Это инструмент для deep research, который одновременно запускает несколько моделей на один запрос.
Работает так: первая модель берёт на себя генерацию, вторая выступает рецензентом и вычищает ошибки и неточности до того, как вы увидите финальный ответ. Какие именно модели работали над ответом, видно в шапке.
По бенчмарку DRACO показывают SOTA, других замеров пока нет. Так что насколько это реально лучше обычного deep research, вопрос открытый.
Отдельно интересен режим Council для обычных запросов. Ваш промпт прогоняется через несколько моделей параллельно, и вы видите все варианты сразу. Плюс краткая выжимка: где модели согласны, а где разошлись во мнениях.
На широкую аудиторию пока не раскатили, можно подать заявку на ранний доступ. Будет ли это в обычной подписке за $20, неизвестно. Хотя, если честно, мультимодельный пайплайн с критиком можно собрать самому за вечер через API. И точно выйдет дешевле.
techcommunity.microsoft.com/blog/microsoft365copilotblog/introducing-multi-model-intelligence-in-researcher/4506011
❤2👍2🥰2
Forwarded from Machine learning Interview
⚡️ OpenAI УНИЧТОЖЕН - правительство Индии обвиняет компанию в незаконном использовании рабского труда индийских программистов.
По «утечке», до 40% всех запросов по программированию якобы обрабатывает не GPT-5.4 Codex, а реальные разработчики из Индии, работающие в закрытых центрах в Корапуте.
История получила продолжение после «закрытия» Sora, якобы сотни аниматоров вышли наружу и рассказали, как всё устроено на самом деле.
Вишенка на торте - к теме даже «подключили» Трампа: он якобы заявил, что с американскими программистами у ChatGPT был бы шанс снова стать великим.
Звучит как громкое расследование.
Источник: Reuters/openaiindias.com
По «утечке», до 40% всех запросов по программированию якобы обрабатывает не GPT-5.4 Codex, а реальные разработчики из Индии, работающие в закрытых центрах в Корапуте.
История получила продолжение после «закрытия» Sora, якобы сотни аниматоров вышли наружу и рассказали, как всё устроено на самом деле.
Вишенка на торте - к теме даже «подключили» Трампа: он якобы заявил, что с американскими программистами у ChatGPT был бы шанс снова стать великим.
Звучит как громкое расследование.
Источник: Reuters/openaiindias.com
😁21🤡12💊6👍4❤3
Claude можно превратить из «чат-бота» в полноценного агента, если правильно организовать проект.
Вся магия — в структуре папки:
Фактически ты собираешь мини-систему из агентов внутри репозитория.
Вся магия — в структуре папки:
your-project/
├── CLAUDE.md → инструкции для команды (сохраняется в репозитории)
├── CLAUDE.local.md → личные настройки (игнорируется git)
├── .claude/ → центр управления
│ ├── settings.json → права доступа и конфигурация (в репозитории)
│ ├── settings.local.json → локальные настройки
│ ├── commands/ → кастомные slash-команды
│ │ ├── review.md → /project:review
│ │ ├── fix-issue.md → /project:fix-issue
│ │ └── deploy.md → /project:deploy
│ ├── rules/ → модульные инструкции
│ │ ├── code-style.md
│ │ ├── testing.md
│ │ └── api-conventions.md
│ ├── skills/ → авто-запускаемые workflow
│ │ ├── security-review/
│ │ │ └── SKILL.md
│ │ └── deploy/
│ │ └── SKILL.md
│ └── agents/ → субагенты (роли)
│ ├── code-reviewer.md
│ └── security-auditor.mdФактически ты собираешь мини-систему из агентов внутри репозитория.
🔥5❤2👍2🙏2🤡1
🔒 OpenClaw Security Practice Guide для AI-агентов
Руководство по безопасности для высокопривилегированных автономных AI-агентов. Оно предлагает подход "Zero-Trust", минимизируя риски, связанные с операциями и инъекциями. Ориентировано на автоматизацию, позволяя агенту OpenClaw самостоятельно оценивать и внедрять защитные меры.
🚀 Основные моменты:
- Переход к архитектуре Zero-Trust для AI-агентов
- Минимизация ручных настроек безопасности
- Ночные автоматизированные аудиты и проверки
- Поддержка современных моделей для повышения надежности
- Специфические рекомендации для управления рисками
📌 GitHub: https://github.com/slowmist/openclaw-security-practice-guide
#markdown
Руководство по безопасности для высокопривилегированных автономных AI-агентов. Оно предлагает подход "Zero-Trust", минимизируя риски, связанные с операциями и инъекциями. Ориентировано на автоматизацию, позволяя агенту OpenClaw самостоятельно оценивать и внедрять защитные меры.
🚀 Основные моменты:
- Переход к архитектуре Zero-Trust для AI-агентов
- Минимизация ручных настроек безопасности
- Ночные автоматизированные аудиты и проверки
- Поддержка современных моделей для повышения надежности
- Специфические рекомендации для управления рисками
📌 GitHub: https://github.com/slowmist/openclaw-security-practice-guide
#markdown
👍3🔥2❤1
Два брата запустили стартап на ИИ и делают $3 млн в день Самый быстрый путь к миллионам сейчас - ИИ.
Без команды, без офиса, почти без кода руками.
Medvi - телемед-сервис для похудения на GLP-1 препаратах. Его собрал Мэттью Галлахер прямо у себя дома в Лос-Анджелесе: $20 000 бюджета и всего 2 месяца на запуск.
Дальше - интереснее. Почти всё делают нейросети: ChatGPT, Claude и Grok пишут код, собирают сайт, крутят рекламу и даже отвечают клиентам.
Да, иногда ИИ косячит - путает цены, предлагает не то. Но экономика всё равно бьётся.
Цифры выглядят как баг в реальности: 300 клиентов в первый месяц $401 млн за первый год прогноз — $1,8 млрд в этом году
И самое безумное - в компании до сих пор всего два человека.
Похоже, “маленькая команда” больше не ограничение, а новая суперсила.
https://www.forbes.com/sites/josipamajic/2026/04/02/ai-and-20000-helped-one-man-build-a-18-billion-telehealth-startup/
Без команды, без офиса, почти без кода руками.
Medvi - телемед-сервис для похудения на GLP-1 препаратах. Его собрал Мэттью Галлахер прямо у себя дома в Лос-Анджелесе: $20 000 бюджета и всего 2 месяца на запуск.
Дальше - интереснее. Почти всё делают нейросети: ChatGPT, Claude и Grok пишут код, собирают сайт, крутят рекламу и даже отвечают клиентам.
Да, иногда ИИ косячит - путает цены, предлагает не то. Но экономика всё равно бьётся.
Цифры выглядят как баг в реальности: 300 клиентов в первый месяц $401 млн за первый год прогноз — $1,8 млрд в этом году
И самое безумное - в компании до сих пор всего два человека.
Похоже, “маленькая команда” больше не ограничение, а новая суперсила.
https://www.forbes.com/sites/josipamajic/2026/04/02/ai-and-20000-helped-one-man-build-a-18-billion-telehealth-startup/
🔥4😁2❤1👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Вот основные принципы написания промптов для Claude Code:
Будь конкретным, а не общим
Плохо: «сделай авторизацию».
Хорошо: «добавь JWT-авторизацию с refresh-токенами, middleware для Express, хранение в httpOnly cookies, ротация при каждом запросе».
Указывай контекст проекта
Claude Code видит файлы, но не знает твои намерения.
Пиши: «в проекте используется Next.js 14 с App Router, Prisma, PostgreSQL. Добавь эндпоинт /api/users с пагинацией, используя существующий клиент Prisma из lib/db.ts».
Разбивай большие задачи
Вместо «сделай весь бэкенд» разбей на шаги: сначала «создай схему базы данных», потом «напиши API-роуты», потом «добавь валидацию». Claude Code лучше работает с конкретными, измеримыми задачами.
Говори что НЕ делать
«Добавь форму регистрации. Не используй внешние UI-библиотеки, не меняй существующие стили в globals.css, не трогай layout.tsx».
Ссылайся на существующий код
«Сделай по аналогии с компонентом UserCard из components/UserCard.tsx, но для продуктов». Claude Code прочитает файл и повторит паттерн.
Используй CLAUDE.md
Положи в корень проекта файл CLAUDE.md с правилами: стек, структура папок, code style, что можно и нельзя. Claude Code читает его автоматически при каждом запуске.
Проси план перед выполнением
«Перед тем как писать код, опиши план: какие файлы создашь, какие изменишь, какие зависимости добавишь. Жди моего подтверждения».
Формат промпта-шаблона
https://www.youtube.com/shorts/c9nAMFNQKd4
Будь конкретным, а не общим
Плохо: «сделай авторизацию».
Хорошо: «добавь JWT-авторизацию с refresh-токенами, middleware для Express, хранение в httpOnly cookies, ротация при каждом запросе».
Указывай контекст проекта
Claude Code видит файлы, но не знает твои намерения.
Пиши: «в проекте используется Next.js 14 с App Router, Prisma, PostgreSQL. Добавь эндпоинт /api/users с пагинацией, используя существующий клиент Prisma из lib/db.ts».
Разбивай большие задачи
Вместо «сделай весь бэкенд» разбей на шаги: сначала «создай схему базы данных», потом «напиши API-роуты», потом «добавь валидацию». Claude Code лучше работает с конкретными, измеримыми задачами.
Говори что НЕ делать
«Добавь форму регистрации. Не используй внешние UI-библиотеки, не меняй существующие стили в globals.css, не трогай layout.tsx».
Ссылайся на существующий код
«Сделай по аналогии с компонентом UserCard из components/UserCard.tsx, но для продуктов». Claude Code прочитает файл и повторит паттерн.
Используй CLAUDE.md
Положи в корень проекта файл CLAUDE.md с правилами: стек, структура папок, code style, что можно и нельзя. Claude Code читает его автоматически при каждом запуске.
Проси план перед выполнением
«Перед тем как писать код, опиши план: какие файлы создашь, какие изменишь, какие зависимости добавишь. Жди моего подтверждения».
Формат промпта-шаблона
Задача: [что нужно сделать]
Контекст: [стек, файлы, ограничения]
Требования: [конкретные технические детали]Не делай: [что менять нельзя]
Результат: [как проверить что всё работает]https://www.youtube.com/shorts/c9nAMFNQKd4
❤4👍3🔥2👎1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Компания заключила крупное соглашение о поставке вычислительных мощностей нового поколения с запуском в 2027 году. Почти вся новая инфраструктура разместится в США.
Масштабирование железа связано с ростом бизнеса: в 2026 году прогнозируемая годовая выручка Anthropic перешагнула $30 млрд., а число клиентов, тратящих на Claude более $1 млн в год, достигло 1000 компаний.
Главным облачным провайдером остается Amazon, но Anthropic не привязывается к одному вендору: модели тренируются и запускаются на AWS Trainium, Google TPU и NVIDIA GPU.
anthropic.com
OpenAI, Anthropic и Google начали использовать площадку Frontier Model Forum для совместного отслеживания попыток враждебной дистилляции. Эта практика нарушает условия использования и обходится лабораториям Кремниевой долины в миллиарды долларов упущенной выгоды ежегодно.
Координация выстроена по аналогии с кибербезопасностью: компании делятся данными об атаках и тактиках злоумышленников, чтобы быстрее блокировать несанкционированный сбор результатов инференса.
Полноценному обмену мешает американское антимонопольное законодательство. Разработчики опасаются обвинений в сговоре и ждут от правительства США правовых инструкций для легальной защиты технологий.
bloomberg.com
Пилотный проект ориентирован на специалистов по элайнменту. Приоритеты: оценка уязвимостей, снижение рисков, контроль над ИИ-агентами, защита приватности и предотвращение злоупотребления моделями.
Программа пройдет с 14 сентября 2026 по 5 февраля 2027 года. Участники получат стипендию, менторов, вычислительные мощности и кредиты на API, но без доступа к внутренним системам OpenAI.
Формат - удаленно или в центре Constellation. По итогам каждый должен представить статью, бенчмарк или датасет.
OpenAI обещает, что опыт и технические навыки будут важнее дипломов. Заявки принимаются до 3 мая.
openai.com
По данным спецслужб Тайваня, Пекин атакует ИИ-сектор и производителей чипов, чтобы преодолеть технологическую блокаду. На острове фиксируют всплеск промышленного шпионажа: китайские компании используют теневые каналы, нелегально хантят инженеров, похищают интеллектуальную собственность и закупают оборудование в обход экспортного контроля.
Параллельно растет давление в киберпространстве. Только за первый квартал года ИТ-сети Тайваня зафиксировали свыше 170 млн попыток несанкционированного проникновения с целью сбора данных и слежки.
reuters.com
Университет Тафтса опубликовал концепт гибридной VLA-модели для управления роботами. Метод использует архитектуру, объединяющую глубокое обучение с правилами символьной логики. Система заранее выстраивает абстрактный план, опираясь на свойства объектов, и не учится долгим путем проб и ошибок.
На тестах с «Ханойской башней» модель показала радикальный прирост эффективности. Время обучения сократилось с полутора суток до 34 минут, затраты энергии на тренировку упали до 1% от стандартных VLA-систем. В инференсе потребление составило 5%. Точность выросла с 34% до 95%.
В усложненной версии теста нейросимволический ИИ добился успеха в 78% случаев, а традиционные модели провалили все попытки. По мнению авторов, структурное мышление поможет решить проблему роста энергоаппетитов нейросетей.
sciencedaily.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Обе модели
• Обучены с нуля — без инициализации зарубежными весами
• MoE + MTP + MLA
• Совместимы с HuggingFace, llama.cpp / vLLM / SGLang
Код и веса уже на платформе GitVerse.
Это не просто релиз весов, а результат большой инженерной работы над качеством, alignment и стабильностью модели. В блоге команда поделилась результатами и своими наработками.
В релизе: высокие результаты на аренах, улучшенный function calling, решённая проблема циклов, DPO в нативном FP8, найденный и зарепорченный баг в SGLang при dp > 1.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Matrix-Game 3.0 - интерактивные world models в реальном времени от Skywork AI
Что внутри:
720p при 40 FPS на модели всего 5B
консистентная память до минуты - сцена не “ломается” обучение на смеси Unreal, AAA-игр и реальных данных масштабируется до 28B MoE.
MIT лицензия - можно использовать в проде
Главное:
AI начинает не просто генерировать кадры
Он начинает понимать и поддерживать мир во времени
Следующий шаг - полноценные симуляции вместо видео
Сохрани - это ранний взгляд на то, как будут выглядеть игры и виртуальные миры через пару лет
https://huggingface.co/Skywork/Matrix-Game-3.0
Что внутри:
720p при 40 FPS на модели всего 5B
консистентная память до минуты - сцена не “ломается” обучение на смеси Unreal, AAA-игр и реальных данных масштабируется до 28B MoE.
MIT лицензия - можно использовать в проде
Главное:
AI начинает не просто генерировать кадры
Он начинает понимать и поддерживать мир во времени
Следующий шаг - полноценные симуляции вместо видео
Сохрани - это ранний взгляд на то, как будут выглядеть игры и виртуальные миры через пару лет
https://huggingface.co/Skywork/Matrix-Game-3.0
This media is not supported in your browser
VIEW IN TELEGRAM
Опенсорс-аналог Claude Cowork, который работает локально и бесплатно
Разработчики выкатили Rowboat - open-source ИИ-коворкер, который позиционируют как замену Claude Cowork от Anthropic. Работает полностью локально, на вашей машине, с любой LLM на выбор.
Из интересного: поддержка голоса, расширяемость через MCP-тулы, совместимость с Obsidian-хранилищами, фоновые агенты с веб-поиском и автоматическое построение графа знаний по вашим заметкам и письмам.
Anthropic, кажется, начинают окружать со всех сторон. Пока они строят закрытую экосистему, комьюнити собирает аналоги на коленке и раздает бесплатно.
github.com/rowboatlabs/rowboat
Разработчики выкатили Rowboat - open-source ИИ-коворкер, который позиционируют как замену Claude Cowork от Anthropic. Работает полностью локально, на вашей машине, с любой LLM на выбор.
Из интересного: поддержка голоса, расширяемость через MCP-тулы, совместимость с Obsidian-хранилищами, фоновые агенты с веб-поиском и автоматическое построение графа знаний по вашим заметкам и письмам.
Anthropic, кажется, начинают окружать со всех сторон. Пока они строят закрытую экосистему, комьюнити собирает аналоги на коленке и раздает бесплатно.
github.com/rowboatlabs/rowboat
❤9🔥3👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 5 главных AI coding агентов 2026 года: https://www.youtube.com/shorts/cvs93C4k-IQ
Сравнили всё: модели, контекст, цены, автономность
Claude Code, Codex, Cursor Agent, Gemini CLI, Deepagents. Пять инструментов, которые определяют, как пишется код прямо сейчас. Разложили по полочкам.
Claude Code работает на Sonnet/Opus, контекст 200K (1M на Max), закрытый код, $3/$15 за миллион токенов. Лучше всего для сложных мультифайловых задач.
Codex от OpenAI - терминал + облако, GPT 5.3/5.4 Codex, миллион токенов контекста, высокая автономность.
CLI открыт, облако нет. $1.50/$6. Заточен под асинхронные фоновые задачи.
Cursor Agent - единственный, кто встроен в IDE. Работает с несколькими моделями (Claude, GPT, Gemini), но автономность низкая, больше интерактивный. Закрытый код. ~$1.25/$6. Для повседневного кодинга.
Gemini CLI от Google - полностью open source (Apache 2.0), бесплатный (1K запросов в день), Gemini Flash/Pro, миллион токенов. Средняя автономность. Лучший бесплатный вариант.
Deepagents - MIT-лицензия, работает с любой LLM, SDK + CLI, конфигурируемая автономность. Бесплатен (платишь только за свою модель). Для кастомных пайплайнов.
Два опенсорсных, два закрытых, один гибрид. Выбор зависит от задачи, бюджета и того, насколько вы готовы отдать контроль агенту.
https://www.youtube.com/shorts/cvs93C4k-IQ
Сравнили всё: модели, контекст, цены, автономность
Claude Code, Codex, Cursor Agent, Gemini CLI, Deepagents. Пять инструментов, которые определяют, как пишется код прямо сейчас. Разложили по полочкам.
Claude Code работает на Sonnet/Opus, контекст 200K (1M на Max), закрытый код, $3/$15 за миллион токенов. Лучше всего для сложных мультифайловых задач.
Codex от OpenAI - терминал + облако, GPT 5.3/5.4 Codex, миллион токенов контекста, высокая автономность.
CLI открыт, облако нет. $1.50/$6. Заточен под асинхронные фоновые задачи.
Cursor Agent - единственный, кто встроен в IDE. Работает с несколькими моделями (Claude, GPT, Gemini), но автономность низкая, больше интерактивный. Закрытый код. ~$1.25/$6. Для повседневного кодинга.
Gemini CLI от Google - полностью open source (Apache 2.0), бесплатный (1K запросов в день), Gemini Flash/Pro, миллион токенов. Средняя автономность. Лучший бесплатный вариант.
Deepagents - MIT-лицензия, работает с любой LLM, SDK + CLI, конфигурируемая автономность. Бесплатен (платишь только за свою модель). Для кастомных пайплайнов.
Два опенсорсных, два закрытых, один гибрид. Выбор зависит от задачи, бюджета и того, насколько вы готовы отдать контроль агенту.
https://www.youtube.com/shorts/cvs93C4k-IQ
👍2👎2🤮2❤1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Шпаргалка Claude COde
• CLAUDE.md — мозг проекта
Хранит архитектуру, правила и контекст. Загружается автоматически.
• Skills — навыки
Позволяют автоматизировать ревью, тесты, деплой и любые процессы.
• Hooks — автодействия
Запускают проверки и действия без твоего участия.
• Agents — параллельная работа
Разбивают задачи и выполняют их одновременно.
• Workflow
plan → execute → auto
Минимум ручной работы, максимум результата.
• Структура
.claude / skills / commands / agents
Всё как у полноценной инженерной системы.
• Безопасность
permissions, sandbox, контроль доступа.
Это уже не про «спросить у ИИ».
Это про «дать задачу и получить результат».
#claude #chatgpt #ai #ml #llm
https://youtube.com/shorts/J5NTBL7XVIE?
• CLAUDE.md — мозг проекта
Хранит архитектуру, правила и контекст. Загружается автоматически.
• Skills — навыки
Позволяют автоматизировать ревью, тесты, деплой и любые процессы.
• Hooks — автодействия
Запускают проверки и действия без твоего участия.
• Agents — параллельная работа
Разбивают задачи и выполняют их одновременно.
• Workflow
plan → execute → auto
Минимум ручной работы, максимум результата.
• Структура
.claude / skills / commands / agents
Всё как у полноценной инженерной системы.
• Безопасность
permissions, sandbox, контроль доступа.
Это уже не про «спросить у ИИ».
Это про «дать задачу и получить результат».
#claude #chatgpt #ai #ml #llm
https://youtube.com/shorts/J5NTBL7XVIE?
👍1
OpenAI превращает свой Mac-клиент Codex в универсальную AI-платформу - по сути «суперапп», где всё собрано в одном месте.
Это единая среда с агентами, мультимодальностью и гибким управлением моделями, но в более удобном интерфейсе.
Скорее всего, именно это сейчас и имеют в виду в OpenAI, когда говорят о своих новых планах.
https://x.com/chetaslua/status/2042325786120822931
Это единая среда с агентами, мультимодальностью и гибким управлением моделями, но в более удобном интерфейсе.
Скорее всего, именно это сейчас и имеют в виду в OpenAI, когда говорят о своих новых планах.
https://x.com/chetaslua/status/2042325786120822931
X (formerly Twitter)
Chetaslua (@chetaslua) on X
🚨 OpenAI is quietly turning the Mac Codex app into an all-in-one platform Chat + Codex + OpenClaw, all under one roof.
> Foundation for rendering and reading images + video
> Heartbeat system (like OpenClaw)
> Model and thinking mode selection per task (like…
> Foundation for rendering and reading images + video
> Heartbeat system (like OpenClaw)
> Model and thinking mode selection per task (like…
👍3❤1🔥1
🦀 Как сократить расходы на OpenClaw на 95% и платить $25 вместо $600
На Reddit регулярно появляются посты от пользователей OpenClaw с шокирующими счетами. $300 в месяц. $600 в месяц. Кто-то умудрился набить $3600 за один месяц. Покупают Mac Mini за $600, ставят OpenClaw, гоняют неделю, сжигают все токены и выключают. Большинство даже не понимает, куда уходят деньги. Каждое отправленное сообщение включает в себя всю историю диалога за сессию. К 50-му сообщению вы оплачиваете повторную отправку всех предыдущих сообщений через API снова и снова.
Heartbeat не обязан жрать токены Opus каждые 30 минут
Это про фоновые процессы, которые незаметно сжигают бюджет. По дефолту heartbeat срабатывает каждые 30 минут на той модели, которая выставлена основной - у большинства это по-прежнему Opus. Постоянный расход токенов идет независимо от того, сидите вы за компьютером или нет. Решение: переключить heartbeat на Minimax, снизить частоту до двух раз в день через cron вместо интервалов, включить light context mode, выставить isolated sessions в true и задать active hours, чтобы процесс работал только в рабочее время. Одно это убирает огромную часть фонового расхода.
Компактинг: одна команда срезает нагрузку токенов вдвое
Еще один скрытый множитель расходов прячется в истории переписки. Если вы общались с агентом весь день и контекстное окно заполнено на 50-70%, каждое новое сообщение гонит весь этот объем через API заново. Команда compact сжала контекст с 55K токенов до 23K - меньше половины нагрузки на каждое сообщение после этого. Параллельно стоит выставить max output tokens на 2048 в конфиге. Без этого ограничения агент может вернуть тысячи токенов в одном ответе, когда хватило бы пары сотен. Одна строчка в конфиге - и расход на вывод падает моментально.
QMD: поиск по файлам без загрузки в контекстное окно
Есть еще один источник мусорного расхода, который накапливается со временем. По мере того как у вас копятся markdown-файлы (заметки, конфиги агентов, память), агент перечитывает их все при каждом вопросе. Полный текст файлов грузится прямо в контекстное окно, сжигая токены на контент, который вообще не связан с вашим запросом. QMD решает эту проблему. Это локальный поисковый движок для markdown, который превращает заметки в индекс с ре-ранкингом. Агент находит нужное без загрузки целых файлов в контекст. Ставится с GitHub, добавляется в agents.md, и каждый файловый запрос начинает стоить копейки.
Итог: $600 превращаются в $25
Без оптимизации: Opus на каждом действии, heartbeat каждые 30 минут, полный контекст в каждом сообщении, без лимита на вывод, полное чтение файлов. $300-$600 в месяц. С оптимизацией: роутинг моделей через OpenRouter, авторежим для выбора по стоимости, дешевая модель на heartbeat через cron, регулярный компактинг, лимит вывода на 2048, QMD для поиска по файлам. $6-$25 в месяц. Тот же инструмент. Те же возможности.
Те, кто реально получает результат от ИИ-автоматизации, не тратят больше всех на токены. Они один раз настроили систему, взяли расходы под контроль и сфокусировались на построении воркфлоу, которые решают дорогие проблемы. Все шесть настроек занимают около 10 минут. Экономия начинается сразу.
https://vc.ru/ai/2862521-kak-sokratit-rashody-na-openclaw-na-95-i-platit-25-vmesto-600
На Reddit регулярно появляются посты от пользователей OpenClaw с шокирующими счетами. $300 в месяц. $600 в месяц. Кто-то умудрился набить $3600 за один месяц. Покупают Mac Mini за $600, ставят OpenClaw, гоняют неделю, сжигают все токены и выключают. Большинство даже не понимает, куда уходят деньги. Каждое отправленное сообщение включает в себя всю историю диалога за сессию. К 50-му сообщению вы оплачиваете повторную отправку всех предыдущих сообщений через API снова и снова.
Heartbeat не обязан жрать токены Opus каждые 30 минут
Это про фоновые процессы, которые незаметно сжигают бюджет. По дефолту heartbeat срабатывает каждые 30 минут на той модели, которая выставлена основной - у большинства это по-прежнему Opus. Постоянный расход токенов идет независимо от того, сидите вы за компьютером или нет. Решение: переключить heartbeat на Minimax, снизить частоту до двух раз в день через cron вместо интервалов, включить light context mode, выставить isolated sessions в true и задать active hours, чтобы процесс работал только в рабочее время. Одно это убирает огромную часть фонового расхода.
Компактинг: одна команда срезает нагрузку токенов вдвое
Еще один скрытый множитель расходов прячется в истории переписки. Если вы общались с агентом весь день и контекстное окно заполнено на 50-70%, каждое новое сообщение гонит весь этот объем через API заново. Команда compact сжала контекст с 55K токенов до 23K - меньше половины нагрузки на каждое сообщение после этого. Параллельно стоит выставить max output tokens на 2048 в конфиге. Без этого ограничения агент может вернуть тысячи токенов в одном ответе, когда хватило бы пары сотен. Одна строчка в конфиге - и расход на вывод падает моментально.
QMD: поиск по файлам без загрузки в контекстное окно
Есть еще один источник мусорного расхода, который накапливается со временем. По мере того как у вас копятся markdown-файлы (заметки, конфиги агентов, память), агент перечитывает их все при каждом вопросе. Полный текст файлов грузится прямо в контекстное окно, сжигая токены на контент, который вообще не связан с вашим запросом. QMD решает эту проблему. Это локальный поисковый движок для markdown, который превращает заметки в индекс с ре-ранкингом. Агент находит нужное без загрузки целых файлов в контекст. Ставится с GitHub, добавляется в agents.md, и каждый файловый запрос начинает стоить копейки.
Итог: $600 превращаются в $25
Без оптимизации: Opus на каждом действии, heartbeat каждые 30 минут, полный контекст в каждом сообщении, без лимита на вывод, полное чтение файлов. $300-$600 в месяц. С оптимизацией: роутинг моделей через OpenRouter, авторежим для выбора по стоимости, дешевая модель на heartbeat через cron, регулярный компактинг, лимит вывода на 2048, QMD для поиска по файлам. $6-$25 в месяц. Тот же инструмент. Те же возможности.
Те, кто реально получает результат от ИИ-автоматизации, не тратят больше всех на токены. Они один раз настроили систему, взяли расходы под контроль и сфокусировались на построении воркфлоу, которые решают дорогие проблемы. Все шесть настроек занимают около 10 минут. Экономия начинается сразу.
https://vc.ru/ai/2862521-kak-sokratit-rashody-na-openclaw-na-95-i-platit-25-vmesto-600
🔥4❤1👍1🤨1