This media is not supported in your browser
VIEW IN TELEGRAM
Смотри, мам, новые обновления Codex! 😆 Версии 0.119.0 и 0.120.0 уже вышли
И вместе с ними — ОГРОМНОЕ количество улучшений UX и фиксов багов:
> Хуки теперь рендерятся в отдельной лайф-области над композером. Они сохраняются только если есть вывод, так что терминал остаётся чистым. Если ты используешь хуки PreToolUse или PostToolUse , то читаемость заметно выросла.
> Хуки снова доступны на Windows
> CTRL+O копирует последний вывод агента. Мелочь, но очень удобно, когда переносишь код-блок в другой файл или чат.
> Новая опция статуслайна: использование контекста в виде графического бара вместо процентов. Проще быстро оценить по ходу сессии, сколько ещё контекста осталось.
> Появилась поддержка Zellij без багов со scrollback. Если ты сидел на tmux только из-за того, что Codex ломался в Zellij, то теперь можно переходить .
> Завезли memory extensions. Агент консолидации теперь может находить папки плагинов в memories_extensions/ и читать их instructions.md, чтобы понимать, как интерпретировать новые источники памяти.
Просто добавляешь папку, прописываешь инструкции, и агент автоматически подхватывает это при суммаризации. Без изменений в основном коде.
Это первая полноценная точка расширения системы памяти Codex и шаг к сторонним memory-плагинам.
> Знал ли ты, что можно переименовать тред через /rename? И самое крутое - после этого его можно резюмить по имени, без UUID.
или прямо в TUI:
> Multi agents v2 получили обновление описаний инструментов. Более стабильная работа мультиагентных окружений и коммуникации между агентами
> Теперь можно включить уведомления TUI независимо от фокуса Codex
Измени в конфиге:
> СЕРЬЁЗНЫЙ апдейт функциональности Codex MCP:
1. Поиск инструментов Codex теперь работает с кастомными MCP-серверами - инструменты можно искать и подключать по мере необходимости, а не экспонировать все сразу.
2. Кастомные MCP-сервера теперь могут инициировать elicitation , т.е. останавливать процесс и запрашивать подтверждение или ввод пользователя.
3. Результаты MCP-инструментов теперь сохраняют более богатые метаданные, что улучшает передачу данных между приложениями и UI.
4. Codex теперь может напрямую читать MCP-ресурсы , т.е. приложения могут возвращать URI ресурсов, которые клиент реально может открыть.
5. Параметры файлов для Codex Apps стали удобнее - локальные пути можно автоматически загружать и ремапить.
6. Обновление кэша плагинов и fallback-синхронизация стали надёжнее, особенно для кастомных и curated-плагинов.
> В целом поведение композера и чата стало плавнее, но баги с ресайзом ещё остались.
> В Realtime v2 тоже завезли несколько серьёзных улучшений.
Всё ещё читаешь? Легенда.🫶
И вместе с ними — ОГРОМНОЕ количество улучшений UX и фиксов багов:
> Хуки теперь рендерятся в отдельной лайф-области над композером. Они сохраняются только если есть вывод, так что терминал остаётся чистым. Если ты используешь хуки PreToolUse или PostToolUse , то читаемость заметно выросла.
> Хуки снова доступны на Windows
> CTRL+O копирует последний вывод агента. Мелочь, но очень удобно, когда переносишь код-блок в другой файл или чат.
> Новая опция статуслайна: использование контекста в виде графического бара вместо процентов. Проще быстро оценить по ходу сессии, сколько ещё контекста осталось.
> Появилась поддержка Zellij без багов со scrollback. Если ты сидел на tmux только из-за того, что Codex ломался в Zellij, то теперь можно переходить .
> Завезли memory extensions. Агент консолидации теперь может находить папки плагинов в memories_extensions/ и читать их instructions.md, чтобы понимать, как интерпретировать новые источники памяти.
Просто добавляешь папку, прописываешь инструкции, и агент автоматически подхватывает это при суммаризации. Без изменений в основном коде.
Это первая полноценная точка расширения системы памяти Codex и шаг к сторонним memory-плагинам.
> Знал ли ты, что можно переименовать тред через /rename? И самое крутое - после этого его можно резюмить по имени, без UUID.
codex resume mynewapp
или прямо в TUI:
/resume mynewapp> Multi agents v2 получили обновление описаний инструментов. Более стабильная работа мультиагентных окружений и коммуникации между агентами
> Теперь можно включить уведомления TUI независимо от фокуса Codex
Измени в конфиге:
[tui] notification_condition = "always"
> СЕРЬЁЗНЫЙ апдейт функциональности Codex MCP:
1. Поиск инструментов Codex теперь работает с кастомными MCP-серверами - инструменты можно искать и подключать по мере необходимости, а не экспонировать все сразу.
2. Кастомные MCP-сервера теперь могут инициировать elicitation , т.е. останавливать процесс и запрашивать подтверждение или ввод пользователя.
3. Результаты MCP-инструментов теперь сохраняют более богатые метаданные, что улучшает передачу данных между приложениями и UI.
4. Codex теперь может напрямую читать MCP-ресурсы , т.е. приложения могут возвращать URI ресурсов, которые клиент реально может открыть.
5. Параметры файлов для Codex Apps стали удобнее - локальные пути можно автоматически загружать и ремапить.
6. Обновление кэша плагинов и fallback-синхронизация стали надёжнее, особенно для кастомных и curated-плагинов.
> В целом поведение композера и чата стало плавнее, но баги с ресайзом ещё остались.
> В Realtime v2 тоже завезли несколько серьёзных улучшений.
Всё ещё читаешь? Легенда.
npm i -g @openai/codex чтобы обновитьсяPlease open Telegram to view this post
VIEW IN TELEGRAM
Кстати, MiniMax M2.7 теперь официально опенсорс
С SOTA-результатами на SWE-Pro (56.22%) и Terminal Bench 2 (57.0%).
Веса выложили и всё конечно круто. Но лицензия ужасная , «опенсорс», а использовать в коммерческих продуктах нельзя..👎
Придётся использовать через облако Ollama, так как них есть лицензия от MiniMax на коммерческое использование моделей.
Использование с OpenClaw:
Кодинг-агенты, такие как Claude:
Чат с моделью:
С SOTA-результатами на SWE-Pro (56.22%) и Terminal Bench 2 (57.0%).
Веса выложили и всё конечно круто. Но лицензия ужасная , «опенсорс», а использовать в коммерческих продуктах нельзя..
Придётся использовать через облако Ollama, так как них есть лицензия от MiniMax на коммерческое использование моделей.
Использование с OpenClaw:
ollama launch openclaw --model minimax-m2.7:cloud
Кодинг-агенты, такие как Claude:
ollama launch claude --model minimax-m2.7:cloud
Чат с моделью:
ollama run minimax-m2.7:cloud
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Старший директор по AI в AMD подтвердила, что Claude был урезан. Она проанализировала логи сессий Claude за период с января по март:
Борис подробно ответил на это в issue — в основном дело в том, что они перестали показывать саммари «thinking» ради снижения задержки (это можно включить обратно через opt-in), и именно это повлияло на измерение «thinking».😁
> медианный объём «thinking» снизился примерно с ~2 200 до ~600 символов
> количество API-запросов выросло в 80 раз с февраля по март — меньше «размышлений» и больше неудачных попыток → больше ретраев, больше расход токенов и затрат
> reads-per-edit упал с 6.6× до 2.0× — модель меньше изучает код перед внесением изменений
> модель пыталась соскочить или спрашивала «продолжать?» 173 раза за 17 дней (до 8 марта — 0 раз)
> самопротиворечия в рассуждениях («ой, подожди, на самом деле…») утроились
> соглашения вроде CLAUDE.md игнорируются, потому что не хватает «бюджета мышления» на перекрёстную проверку правок
> худшее время — 17:00 и 19:00 по PST, поздняя ночь значительно лучше — это указывает на то, что выделение «thinking» зависит от загрузки GPU
Борис подробно ответил на это в issue — в основном дело в том, что они перестали показывать саммари «thinking» ради снижения задержки (это можно включить обратно через opt-in), и именно это повлияло на измерение «thinking».
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Паттерн <inject dynamic context> в skills для Claude Code очень полезная штука.
Я считаю, это должно стать частью стандарта skills и быть включено в такие инструменты, как Codex CLI, Pi, Cursor и т.д.
Синтаксис
Вывод команды подставляется вместо плейсхолдера, поэтому Claude получает реальные данные, а не саму команду.
Этот skill делает саммари пулл реквеста, получая актуальные данные PR через GitHub CLI.
Команды вроде
Плюсом существует настройка🙏
Я считаю, это должно стать частью стандарта skills и быть включено в такие инструменты, как Codex CLI, Pi, Cursor и т.д.
Синтаксис
!<command> выполняет shell-команды перед тем, как содержимое skill отправляется в Claude.Вывод команды подставляется вместо плейсхолдера, поэтому Claude получает реальные данные, а не саму команду.
Этот skill делает саммари пулл реквеста, получая актуальные данные PR через GitHub CLI.
Команды вроде
!gh pr diff и другие выполняются сначала, а их вывод вставляется в промпт:---
name: pr-summary
description: Summarize changes in a pull request
context: fork
agent: Explore
allowed-tools: Bash(gh *)
---
## Pull request context
- PR diff: `!gh pr diff`
- PR comments: `!gh pr view --comments`
- Changed files: `!gh pr diff --name-only`
## Your task
Summarize this pull request...
Плюсом существует настройка
disableSkillShellExecution, если нужно это контролировать Please open Telegram to view this post
VIEW IN TELEGRAM
Supabase запустили официальные Agent Skills: они добавляют актуальные знания о продуктах Supabase и доступ к документации Supabase, чтобы ваше приложение строилось на основе последних best practices. 😥
Установите одной командой:
Или установите как плагин для Claude Code:
Установите одной командой:
npx skills add supabase/agent-skills
Или установите как плагин для Claude Code:
# 1. Установите supabase/agent-skill из marketplace
claude plugin marketplace add supabase/agent-skills
# 2. Установите плагин supabase
claude plugin install supabase@supabase-agent-skills
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Этот проект может один в один воспроизвести любой сайт.
Его можно использовать вместе с Claude Code или Cursor, где ты передаёшь агенту URL целевого сайта, и он автоматически клонирует его полностью.
Он сам скрапит целевой сайт, затем разбивает его на части и заново собирает весь сайт по кускам. Тестер попробовал его на навигационном сайте, который когда-то сделали на WordPress, и совпадение было точным — все данные подтянулись полностью без потерь.🤡
Его можно использовать вместе с Claude Code или Cursor, где ты передаёшь агенту URL целевого сайта, и он автоматически клонирует его полностью.
Он сам скрапит целевой сайт, затем разбивает его на части и заново собирает весь сайт по кускам. Тестер попробовал его на навигационном сайте, который когда-то сделали на WordPress, и совпадение было точным — все данные подтянулись полностью без потерь.
Please open Telegram to view this post
VIEW IN TELEGRAM
Linux вводит правила для кода, сгенерированного ИИ
После нескольких месяцев обсуждений сообщество Linux согласовало чёткие правила использования кода, написанного с помощью ИИ.
Инструменты вроде GitHub Copilot разрешены, но мейнтейнеры прямо обозначили: низкокачественный «ИИ-код» приниматься не будет.
> «За ошибки отвечают люди.»
Это означает, что разработчики могут использовать ИИ для генерации кода, но полностью несут ответственность за проверку, исправление ошибок и соответствие стандартам Linux.
Решение поддержано Линусом Торвальдсом и мейнтейнерами ядра
После нескольких месяцев обсуждений сообщество Linux согласовало чёткие правила использования кода, написанного с помощью ИИ.
Инструменты вроде GitHub Copilot разрешены, но мейнтейнеры прямо обозначили: низкокачественный «ИИ-код» приниматься не будет.
> «За ошибки отвечают люди.»
Это означает, что разработчики могут использовать ИИ для генерации кода, но полностью несут ответственность за проверку, исправление ошибок и соответствие стандартам Linux.
Решение поддержано Линусом Торвальдсом и мейнтейнерами ядра
4
Nous Research выложили в опенсорс кодовую базу, которая позволяет ИИ-агентам эволюционировать собственные промпты.
Базовый движок называется GEPA, работа принята на ICLR 2026 (Oral). Использует в 35 раз меньше данных, чем обучение с подкреплением, при этом даёт на 20 % более высокую производительность.
Базовый движок называется GEPA, работа принята на ICLR 2026 (Oral). Использует в 35 раз меньше данных, чем обучение с подкреплением, при этом даёт на 20 % более высокую производительность.
GitHub
GitHub - NousResearch/hermes-agent-self-evolution: ⚒ Evolutionary self-improvement for Hermes Agent — optimize skills, prompts…
⚒ Evolutionary self-improvement for Hermes Agent — optimize skills, prompts, and code using DSPy + GEPA - NousResearch/hermes-agent-self-evolution
This media is not supported in your browser
VIEW IN TELEGRAM
PSA: можно завайбкодить свою страницу «Новая вкладка» в Chrome.
Чувак сделал решение, для тех, кто открывает слишком много вкладок и не закрывает их:
- Все вкладки отображаются с понятными заголовками, сгруппированы по доменам
- При закрытии вкладки проигрывается звук «swoosh» и появляется эффект конфетти
- домашние страницы, localhost-вкладки можно массово закрыть в один клик
- Обнаруживаются дубли вкладок; их можно закрыть одним действием
- Незавершённые вкладки можно отложить в чеклист
Это метод Мари Кондо для управления вкладками в браузере.
Код выложен в опенсорс🪖
Чувак сделал решение, для тех, кто открывает слишком много вкладок и не закрывает их:
- Все вкладки отображаются с понятными заголовками, сгруппированы по доменам
- При закрытии вкладки проигрывается звук «swoosh» и появляется эффект конфетти
- домашние страницы, localhost-вкладки можно массово закрыть в один клик
- Обнаруживаются дубли вкладок; их можно закрыть одним действием
- Незавершённые вкладки можно отложить в чеклист
Это метод Мари Кондо для управления вкладками в браузере.
Код выложен в опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Andrej Karpathy заметил, что LLM при написании кода допускают одни и те же предсказуемые ошибки: оверинжиринг, игнор существующих паттернов и добавление зависимостей, о которых никто не просил.
Ты наверняка понимаешь о чём он.
Если ошибки предсказуемы, то их можно предотвратить с помощью правильных инструкций.
Именно это и делает данный CLAUDE.md.
- Построено полностью вокруг промпт инжиринга для ЛЛМ
- Без фреймворков, без сложного туллинга, всего один
100% open-source.
(основан на правилах кодинга Andrej Karpathy)
Ты наверняка понимаешь о чём он.
Если ошибки предсказуемы, то их можно предотвратить с помощью правильных инструкций.
Именно это и делает данный CLAUDE.md.
- Построено полностью вокруг промпт инжиринга для ЛЛМ
- Без фреймворков, без сложного туллинга, всего один
.md файл, который управляет поведением100% open-source.
(основан на правилах кодинга Andrej Karpathy)
This media is not supported in your browser
VIEW IN TELEGRAM
> пользуешься Claude Code 6 месяцев
> каждое утро вручную набираешь один и тот же промпт
> каждый раз с нуля
> узнаешь, что есть /commands
> одна slash-команда
> делает то же самое
> быстрее и стабильнее
> одна команда заменяет полгода рутины
Полный список из 40 команд + конфиги навыков для копирования > читать🍿
> каждое утро вручную набираешь один и тот же промпт
> каждый раз с нуля
> узнаешь, что есть /commands
> одна slash-команда
> делает то же самое
> быстрее и стабильнее
> одна команда заменяет полгода рутины
Полный список из 40 команд + конфиги навыков для копирования > читать
Please open Telegram to view this post
VIEW IN TELEGRAM
3
This media is not supported in your browser
VIEW IN TELEGRAM
Хмм, а что если ваш агент мог бы писать для вас музыку, петь как ваш ИИ-компаньон и нативно собирать плейлист из вашей библиотеки? 🤙
Сегодня MiniMax выкладывают в открытый доступ три музыкальных навыка:
1. minimax-music-gen: один промпт — полноценный трек. Агент сам выбирает: оригинал, инструментал или кавер.
2. buddy-sings: ваш персонаж в Claude Code читает свою персону и поёт от первого лица.
3. minimax-music-playlist: агент сканирует вашу локальную музыку, изучает вкусы и собирает плейлист.
Все три настроены для нативной работы в MMX-CLI вместе с Music 2.6 и остальными мультимодальными моделями. Подключаете тариф MiniMax Token Plan, добавляете MMX-CLI - и агент сам подхватывает навыки.
http://github.com/MiniMax-AI/skills
Сегодня MiniMax выкладывают в открытый доступ три музыкальных навыка:
1. minimax-music-gen: один промпт — полноценный трек. Агент сам выбирает: оригинал, инструментал или кавер.
2. buddy-sings: ваш персонаж в Claude Code читает свою персону и поёт от первого лица.
3. minimax-music-playlist: агент сканирует вашу локальную музыку, изучает вкусы и собирает плейлист.
Все три настроены для нативной работы в MMX-CLI вместе с Music 2.6 и остальными мультимодальными моделями. Подключаете тариф MiniMax Token Plan, добавляете MMX-CLI - и агент сам подхватывает навыки.
http://github.com/MiniMax-AI/skills
Please open Telegram to view this post
VIEW IN TELEGRAM
На днях всплыл вопрос: Правда ли, что Claude Code буквально штрафует за отключение телеметрии??
Если её отключить, Anthropic сокращает время жизни кеша с 1 часа до 5 минут.
Получается, в Claude Code при отключённой телеметрии ты платишь примерно 12-кратным падением производительности?
Ответ от Бориса Черни:
Документация: https://platform.claude.com/docs/en/build-with-claude/prompt-caching#pricing
Если её отключить, Anthropic сокращает время жизни кеша с 1 часа до 5 минут.
Получается, в Claude Code при отключённой телеметрии ты платишь примерно 12-кратным падением производительности?
Ответ от Бориса Черни:
Кеш промптов на 1 час на самом деле устроен сложнее. Запись в кеш стоит дороже, чтение из кеша — дешевле. Выигрыш от дешёвых чтений зависит от паттерна использования: размер контекстного окна, основной агент или сабагент и т.д.
Мы тестируем разные эвристики, чтобы повысить долю попаданий в кеш у подписчиков. Это снижает расход токенов и задержки, если работает, но эффект нестабильный из-за описанных нюансов. Например, если включён кеш на 1 час, но агент сделал один запрос, кеш бесполезен и фактически приводит к лишним затратам.
Сейчас кеш на 1 час включён по умолчанию в ряде сценариев, где это даёт оптимизацию под реальные паттерны использования. При этом для многих запросов остаётся 5 минут (например, сабагенты, которые редко переиспользуются, и платить за час кеша там невыгодно). Для клиентов через API режим на 1 час пока не включён по умолчанию — нужно больше тестирования, чтобы убедиться, что это даёт выигрыш в среднем.
Отдельно: для таких экспериментов используются флаги, которые кешируются на стороне клиента. При отключённой телеметрии эти флаги тоже отключаются — клиент не обращается к серверу и используется значение по умолчанию, сейчас это 5 минут. В ближайшее время дефолт на клиенте поменяют на 1 час для части запросов, где уже видно небольшой выигрыш по токенам. Также появятся переменные окружения, чтобы принудительно задать 1 час или 5 минут.
В любом случае экономия токенов далека от 12×. Это небольшой, но постепенный прирост эффективности, который раскатывается на всех.
Документация: https://platform.claude.com/docs/en/build-with-claude/prompt-caching#pricing
Vercel также выпустили опенсорс платформу хостинга агентов: open-agents.
Протестировал - уровень зрелости высокий, под внутреннюю доработку в корпоративных сценариях заходит без проблем.
Как и ожидалось, у Vercel агенты не изолированы в песочнице.
Протестировал - уровень зрелости высокий, под внутреннюю доработку в корпоративных сценариях заходит без проблем.
Как и ожидалось, у Vercel агенты не изолированы в песочнице.