Вайб-кодинг
29.8K subscribers
1.68K photos
610 videos
30 files
906 links
Авторский канал по ВАЙБ КОДИНГУ

Ссылка для друзей: https://t.me/+ll3pbl442dNkZmYy

Связь: @devmangx
По контенту: @claudemane

РКН: https://clck.ru/3RRVfk
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Смотри, мам, новые обновления Codex! 😆 Версии 0.119.0 и 0.120.0 уже вышли

И вместе с ними — ОГРОМНОЕ количество улучшений UX и фиксов багов:

> Хуки теперь рендерятся в отдельной лайф-области над композером. Они сохраняются только если есть вывод, так что терминал остаётся чистым. Если ты используешь хуки PreToolUse или PostToolUse , то читаемость заметно выросла.

> Хуки снова доступны на Windows

> CTRL+O копирует последний вывод агента. Мелочь, но очень удобно, когда переносишь код-блок в другой файл или чат.

> Новая опция статуслайна: использование контекста в виде графического бара вместо процентов. Проще быстро оценить по ходу сессии, сколько ещё контекста осталось.

> Появилась поддержка Zellij без багов со scrollback. Если ты сидел на tmux только из-за того, что Codex ломался в Zellij, то теперь можно переходить .

> Завезли memory extensions. Агент консолидации теперь может находить папки плагинов в memories_extensions/ и читать их instructions.md, чтобы понимать, как интерпретировать новые источники памяти.

Просто добавляешь папку, прописываешь инструкции, и агент автоматически подхватывает это при суммаризации. Без изменений в основном коде.

Это первая полноценная точка расширения системы памяти Codex и шаг к сторонним memory-плагинам.

> Знал ли ты, что можно переименовать тред через /rename? И самое крутое - после этого его можно резюмить по имени, без UUID.

codex resume mynewapp


или прямо в TUI: /resume mynewapp

> Multi agents v2 получили обновление описаний инструментов. Более стабильная работа мультиагентных окружений и коммуникации между агентами

> Теперь можно включить уведомления TUI независимо от фокуса Codex

Измени в конфиге:

[tui] notification_condition = "always"


> СЕРЬЁЗНЫЙ апдейт функциональности Codex MCP:

1. Поиск инструментов Codex теперь работает с кастомными MCP-серверами - инструменты можно искать и подключать по мере необходимости, а не экспонировать все сразу.

2. Кастомные MCP-сервера теперь могут инициировать elicitation , т.е. останавливать процесс и запрашивать подтверждение или ввод пользователя.

3. Результаты MCP-инструментов теперь сохраняют более богатые метаданные, что улучшает передачу данных между приложениями и UI.

4. Codex теперь может напрямую читать MCP-ресурсы , т.е. приложения могут возвращать URI ресурсов, которые клиент реально может открыть.

5. Параметры файлов для Codex Apps стали удобнее - локальные пути можно автоматически загружать и ремапить.

6. Обновление кэша плагинов и fallback-синхронизация стали надёжнее, особенно для кастомных и curated-плагинов.

> В целом поведение композера и чата стало плавнее, но баги с ресайзом ещё остались.

> В Realtime v2 тоже завезли несколько серьёзных улучшений.

Всё ещё читаешь? Легенда. 🫶

npm i -g @openai/codex чтобы обновиться
Please open Telegram to view this post
VIEW IN TELEGRAM
Кстати, MiniMax M2.7 теперь официально опенсорс

С SOTA-результатами на SWE-Pro (56.22%) и Terminal Bench 2 (57.0%).

Веса выложили и всё конечно круто. Но лицензия ужасная , «опенсорс», а использовать в коммерческих продуктах нельзя.. 👎

Придётся использовать через облако Ollama, так как них есть лицензия от MiniMax на коммерческое использование моделей.

Использование с OpenClaw:

ollama launch openclaw --model minimax-m2.7:cloud


Кодинг-агенты, такие как Claude:

ollama launch claude --model minimax-m2.7:cloud


Чат с моделью:

ollama run minimax-m2.7:cloud
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Старший директор по AI в AMD подтвердила, что Claude был урезан. Она проанализировала логи сессий Claude за период с января по март:

> медианный объём «thinking» снизился примерно с ~2 200 до ~600 символов
> количество API-запросов выросло в 80 раз с февраля по март — меньше «размышлений» и больше неудачных попыток → больше ретраев, больше расход токенов и затрат
> reads-per-edit упал с 6.6× до 2.0× — модель меньше изучает код перед внесением изменений
> модель пыталась соскочить или спрашивала «продолжать?» 173 раза за 17 дней (до 8 марта — 0 раз)
> самопротиворечия в рассуждениях («ой, подожди, на самом деле…») утроились
> соглашения вроде CLAUDE.md игнорируются, потому что не хватает «бюджета мышления» на перекрёстную проверку правок
> худшее время — 17:00 и 19:00 по PST, поздняя ночь значительно лучше — это указывает на то, что выделение «thinking» зависит от загрузки GPU


Борис подробно ответил на это в issue — в основном дело в том, что они перестали показывать саммари «thinking» ради снижения задержки (это можно включить обратно через opt-in), и именно это повлияло на измерение «thinking». 😁
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Паттерн <inject dynamic context> в skills для Claude Code очень полезная штука.

Я считаю, это должно стать частью стандарта skills и быть включено в такие инструменты, как Codex CLI, Pi, Cursor и т.д.

Синтаксис !<command> выполняет shell-команды перед тем, как содержимое skill отправляется в Claude.
Вывод команды подставляется вместо плейсхолдера, поэтому Claude получает реальные данные, а не саму команду.

Этот skill делает саммари пулл реквеста, получая актуальные данные PR через GitHub CLI.
Команды вроде !gh pr diff и другие выполняются сначала, а их вывод вставляется в промпт:

---
name: pr-summary
description: Summarize changes in a pull request
context: fork
agent: Explore
allowed-tools: Bash(gh *)
---

## Pull request context

- PR diff: `!gh pr diff`
- PR comments: `!gh pr view --comments`
- Changed files: `!gh pr diff --name-only`

## Your task

Summarize this pull request...


Плюсом существует настройка disableSkillShellExecution, если нужно это контролировать 🙏
Please open Telegram to view this post
VIEW IN TELEGRAM
Supabase запустили официальные Agent Skills: они добавляют актуальные знания о продуктах Supabase и доступ к документации Supabase, чтобы ваше приложение строилось на основе последних best practices. 😥

Установите одной командой:

npx skills add supabase/agent-skills


Или установите как плагин для Claude Code:

# 1. Установите supabase/agent-skill из marketplace
claude plugin marketplace add supabase/agent-skills

# 2. Установите плагин supabase
claude plugin install supabase@supabase-agent-skills
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Этот проект может один в один воспроизвести любой сайт.

Его можно использовать вместе с Claude Code или Cursor, где ты передаёшь агенту URL целевого сайта, и он автоматически клонирует его полностью.

Он сам скрапит целевой сайт, затем разбивает его на части и заново собирает весь сайт по кускам. Тестер попробовал его на навигационном сайте, который когда-то сделали на WordPress, и совпадение было точным — все данные подтянулись полностью без потерь. 🤡
Please open Telegram to view this post
VIEW IN TELEGRAM
Linux вводит правила для кода, сгенерированного ИИ

После нескольких месяцев обсуждений сообщество Linux согласовало чёткие правила использования кода, написанного с помощью ИИ.

Инструменты вроде GitHub Copilot разрешены, но мейнтейнеры прямо обозначили: низкокачественный «ИИ-код» приниматься не будет.

> «За ошибки отвечают люди.»

Это означает, что разработчики могут использовать ИИ для генерации кода, но полностью несут ответственность за проверку, исправление ошибок и соответствие стандартам Linux.

Решение поддержано Линусом Торвальдсом и мейнтейнерами ядра
4
Nous Research выложили в опенсорс кодовую базу, которая позволяет ИИ-агентам эволюционировать собственные промпты.

Базовый движок называется GEPA, работа принята на ICLR 2026 (Oral). Использует в 35 раз меньше данных, чем обучение с подкреплением, при этом даёт на 20 % более высокую производительность.
This media is not supported in your browser
VIEW IN TELEGRAM
PSA: можно завайбкодить свою страницу «Новая вкладка» в Chrome.

Чувак сделал решение, для тех, кто открывает слишком много вкладок и не закрывает их:

- Все вкладки отображаются с понятными заголовками, сгруппированы по доменам
- При закрытии вкладки проигрывается звук «swoosh» и появляется эффект конфетти
- домашние страницы, localhost-вкладки можно массово закрыть в один клик
- Обнаруживаются дубли вкладок; их можно закрыть одним действием
- Незавершённые вкладки можно отложить в чеклист

Это метод Мари Кондо для управления вкладками в браузере.

Код выложен в опенсорс 🪖
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Andrej Karpathy заметил, что LLM при написании кода допускают одни и те же предсказуемые ошибки: оверинжиринг, игнор существующих паттернов и добавление зависимостей, о которых никто не просил.

Ты наверняка понимаешь о чём он.

Если ошибки предсказуемы, то их можно предотвратить с помощью правильных инструкций.

Именно это и делает данный CLAUDE.md.

- Построено полностью вокруг промпт инжиринга для ЛЛМ
- Без фреймворков, без сложного туллинга, всего один .md файл, который управляет поведением

100% open-source.

(основан на правилах кодинга Andrej Karpathy)
This media is not supported in your browser
VIEW IN TELEGRAM
> пользуешься Claude Code 6 месяцев
> каждое утро вручную набираешь один и тот же промпт
> каждый раз с нуля
> узнаешь, что есть /commands
> одна slash-команда
> делает то же самое
> быстрее и стабильнее
> одна команда заменяет полгода рутины

Полный список из 40 команд + конфиги навыков для копирования > читать 🍿
Please open Telegram to view this post
VIEW IN TELEGRAM
3
This media is not supported in your browser
VIEW IN TELEGRAM
Хмм, а что если ваш агент мог бы писать для вас музыку, петь как ваш ИИ-компаньон и нативно собирать плейлист из вашей библиотеки? 🤙

Сегодня MiniMax выкладывают в открытый доступ три музыкальных навыка:

1. minimax-music-gen: один промпт — полноценный трек. Агент сам выбирает: оригинал, инструментал или кавер.

2. buddy-sings: ваш персонаж в Claude Code читает свою персону и поёт от первого лица.

3. minimax-music-playlist: агент сканирует вашу локальную музыку, изучает вкусы и собирает плейлист.

Все три настроены для нативной работы в MMX-CLI вместе с Music 2.6 и остальными мультимодальными моделями. Подключаете тариф MiniMax Token Plan, добавляете MMX-CLI - и агент сам подхватывает навыки.

http://github.com/MiniMax-AI/skills
Please open Telegram to view this post
VIEW IN TELEGRAM
На днях всплыл вопрос: Правда ли, что Claude Code буквально штрафует за отключение телеметрии??

Если её отключить, Anthropic сокращает время жизни кеша с 1 часа до 5 минут.

Получается, в Claude Code при отключённой телеметрии ты платишь примерно 12-кратным падением производительности?

Ответ от Бориса Черни:

Кеш промптов на 1 час на самом деле устроен сложнее. Запись в кеш стоит дороже, чтение из кеша — дешевле. Выигрыш от дешёвых чтений зависит от паттерна использования: размер контекстного окна, основной агент или сабагент и т.д.

Мы тестируем разные эвристики, чтобы повысить долю попаданий в кеш у подписчиков. Это снижает расход токенов и задержки, если работает, но эффект нестабильный из-за описанных нюансов. Например, если включён кеш на 1 час, но агент сделал один запрос, кеш бесполезен и фактически приводит к лишним затратам.

Сейчас кеш на 1 час включён по умолчанию в ряде сценариев, где это даёт оптимизацию под реальные паттерны использования. При этом для многих запросов остаётся 5 минут (например, сабагенты, которые редко переиспользуются, и платить за час кеша там невыгодно). Для клиентов через API режим на 1 час пока не включён по умолчанию — нужно больше тестирования, чтобы убедиться, что это даёт выигрыш в среднем.

Отдельно: для таких экспериментов используются флаги, которые кешируются на стороне клиента. При отключённой телеметрии эти флаги тоже отключаются — клиент не обращается к серверу и используется значение по умолчанию, сейчас это 5 минут. В ближайшее время дефолт на клиенте поменяют на 1 час для части запросов, где уже видно небольшой выигрыш по токенам. Также появятся переменные окружения, чтобы принудительно задать 1 час или 5 минут.

В любом случае экономия токенов далека от 12×. Это небольшой, но постепенный прирост эффективности, который раскатывается на всех.


Документация: https://platform.claude.com/docs/en/build-with-claude/prompt-caching#pricing
Vercel также выпустили опенсорс платформу хостинга агентов: open-agents.

Протестировал - уровень зрелости высокий, под внутреннюю доработку в корпоративных сценариях заходит без проблем.

Как и ожидалось, у Vercel агенты не изолированы в песочнице.