Вайб-кодинг
29.8K subscribers
1.68K photos
611 videos
30 files
906 links
Авторский канал по ВАЙБ КОДИНГУ

Ссылка для друзей: https://t.me/+ll3pbl442dNkZmYy

Связь: @devmangx
По контенту: @claudemane

РКН: https://clck.ru/3RRVfk
Download Telegram
Кстати, MiniMax M2.7 теперь официально опенсорс

С SOTA-результатами на SWE-Pro (56.22%) и Terminal Bench 2 (57.0%).

Веса выложили и всё конечно круто. Но лицензия ужасная , «опенсорс», а использовать в коммерческих продуктах нельзя.. 👎

Придётся использовать через облако Ollama, так как них есть лицензия от MiniMax на коммерческое использование моделей.

Использование с OpenClaw:

ollama launch openclaw --model minimax-m2.7:cloud


Кодинг-агенты, такие как Claude:

ollama launch claude --model minimax-m2.7:cloud


Чат с моделью:

ollama run minimax-m2.7:cloud
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Старший директор по AI в AMD подтвердила, что Claude был урезан. Она проанализировала логи сессий Claude за период с января по март:

> медианный объём «thinking» снизился примерно с ~2 200 до ~600 символов
> количество API-запросов выросло в 80 раз с февраля по март — меньше «размышлений» и больше неудачных попыток → больше ретраев, больше расход токенов и затрат
> reads-per-edit упал с 6.6× до 2.0× — модель меньше изучает код перед внесением изменений
> модель пыталась соскочить или спрашивала «продолжать?» 173 раза за 17 дней (до 8 марта — 0 раз)
> самопротиворечия в рассуждениях («ой, подожди, на самом деле…») утроились
> соглашения вроде CLAUDE.md игнорируются, потому что не хватает «бюджета мышления» на перекрёстную проверку правок
> худшее время — 17:00 и 19:00 по PST, поздняя ночь значительно лучше — это указывает на то, что выделение «thinking» зависит от загрузки GPU


Борис подробно ответил на это в issue — в основном дело в том, что они перестали показывать саммари «thinking» ради снижения задержки (это можно включить обратно через opt-in), и именно это повлияло на измерение «thinking». 😁
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Паттерн <inject dynamic context> в skills для Claude Code очень полезная штука.

Я считаю, это должно стать частью стандарта skills и быть включено в такие инструменты, как Codex CLI, Pi, Cursor и т.д.

Синтаксис !<command> выполняет shell-команды перед тем, как содержимое skill отправляется в Claude.
Вывод команды подставляется вместо плейсхолдера, поэтому Claude получает реальные данные, а не саму команду.

Этот skill делает саммари пулл реквеста, получая актуальные данные PR через GitHub CLI.
Команды вроде !gh pr diff и другие выполняются сначала, а их вывод вставляется в промпт:

---
name: pr-summary
description: Summarize changes in a pull request
context: fork
agent: Explore
allowed-tools: Bash(gh *)
---

## Pull request context

- PR diff: `!gh pr diff`
- PR comments: `!gh pr view --comments`
- Changed files: `!gh pr diff --name-only`

## Your task

Summarize this pull request...


Плюсом существует настройка disableSkillShellExecution, если нужно это контролировать 🙏
Please open Telegram to view this post
VIEW IN TELEGRAM
Supabase запустили официальные Agent Skills: они добавляют актуальные знания о продуктах Supabase и доступ к документации Supabase, чтобы ваше приложение строилось на основе последних best practices. 😥

Установите одной командой:

npx skills add supabase/agent-skills


Или установите как плагин для Claude Code:

# 1. Установите supabase/agent-skill из marketplace
claude plugin marketplace add supabase/agent-skills

# 2. Установите плагин supabase
claude plugin install supabase@supabase-agent-skills
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Этот проект может один в один воспроизвести любой сайт.

Его можно использовать вместе с Claude Code или Cursor, где ты передаёшь агенту URL целевого сайта, и он автоматически клонирует его полностью.

Он сам скрапит целевой сайт, затем разбивает его на части и заново собирает весь сайт по кускам. Тестер попробовал его на навигационном сайте, который когда-то сделали на WordPress, и совпадение было точным — все данные подтянулись полностью без потерь. 🤡
Please open Telegram to view this post
VIEW IN TELEGRAM
Linux вводит правила для кода, сгенерированного ИИ

После нескольких месяцев обсуждений сообщество Linux согласовало чёткие правила использования кода, написанного с помощью ИИ.

Инструменты вроде GitHub Copilot разрешены, но мейнтейнеры прямо обозначили: низкокачественный «ИИ-код» приниматься не будет.

> «За ошибки отвечают люди.»

Это означает, что разработчики могут использовать ИИ для генерации кода, но полностью несут ответственность за проверку, исправление ошибок и соответствие стандартам Linux.

Решение поддержано Линусом Торвальдсом и мейнтейнерами ядра
4
Nous Research выложили в опенсорс кодовую базу, которая позволяет ИИ-агентам эволюционировать собственные промпты.

Базовый движок называется GEPA, работа принята на ICLR 2026 (Oral). Использует в 35 раз меньше данных, чем обучение с подкреплением, при этом даёт на 20 % более высокую производительность.
This media is not supported in your browser
VIEW IN TELEGRAM
PSA: можно завайбкодить свою страницу «Новая вкладка» в Chrome.

Чувак сделал решение, для тех, кто открывает слишком много вкладок и не закрывает их:

- Все вкладки отображаются с понятными заголовками, сгруппированы по доменам
- При закрытии вкладки проигрывается звук «swoosh» и появляется эффект конфетти
- домашние страницы, localhost-вкладки можно массово закрыть в один клик
- Обнаруживаются дубли вкладок; их можно закрыть одним действием
- Незавершённые вкладки можно отложить в чеклист

Это метод Мари Кондо для управления вкладками в браузере.

Код выложен в опенсорс 🪖
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Andrej Karpathy заметил, что LLM при написании кода допускают одни и те же предсказуемые ошибки: оверинжиринг, игнор существующих паттернов и добавление зависимостей, о которых никто не просил.

Ты наверняка понимаешь о чём он.

Если ошибки предсказуемы, то их можно предотвратить с помощью правильных инструкций.

Именно это и делает данный CLAUDE.md.

- Построено полностью вокруг промпт инжиринга для ЛЛМ
- Без фреймворков, без сложного туллинга, всего один .md файл, который управляет поведением

100% open-source.

(основан на правилах кодинга Andrej Karpathy)
This media is not supported in your browser
VIEW IN TELEGRAM
> пользуешься Claude Code 6 месяцев
> каждое утро вручную набираешь один и тот же промпт
> каждый раз с нуля
> узнаешь, что есть /commands
> одна slash-команда
> делает то же самое
> быстрее и стабильнее
> одна команда заменяет полгода рутины

Полный список из 40 команд + конфиги навыков для копирования > читать 🍿
Please open Telegram to view this post
VIEW IN TELEGRAM
3
This media is not supported in your browser
VIEW IN TELEGRAM
Хмм, а что если ваш агент мог бы писать для вас музыку, петь как ваш ИИ-компаньон и нативно собирать плейлист из вашей библиотеки? 🤙

Сегодня MiniMax выкладывают в открытый доступ три музыкальных навыка:

1. minimax-music-gen: один промпт — полноценный трек. Агент сам выбирает: оригинал, инструментал или кавер.

2. buddy-sings: ваш персонаж в Claude Code читает свою персону и поёт от первого лица.

3. minimax-music-playlist: агент сканирует вашу локальную музыку, изучает вкусы и собирает плейлист.

Все три настроены для нативной работы в MMX-CLI вместе с Music 2.6 и остальными мультимодальными моделями. Подключаете тариф MiniMax Token Plan, добавляете MMX-CLI - и агент сам подхватывает навыки.

http://github.com/MiniMax-AI/skills
Please open Telegram to view this post
VIEW IN TELEGRAM
На днях всплыл вопрос: Правда ли, что Claude Code буквально штрафует за отключение телеметрии??

Если её отключить, Anthropic сокращает время жизни кеша с 1 часа до 5 минут.

Получается, в Claude Code при отключённой телеметрии ты платишь примерно 12-кратным падением производительности?

Ответ от Бориса Черни:

Кеш промптов на 1 час на самом деле устроен сложнее. Запись в кеш стоит дороже, чтение из кеша — дешевле. Выигрыш от дешёвых чтений зависит от паттерна использования: размер контекстного окна, основной агент или сабагент и т.д.

Мы тестируем разные эвристики, чтобы повысить долю попаданий в кеш у подписчиков. Это снижает расход токенов и задержки, если работает, но эффект нестабильный из-за описанных нюансов. Например, если включён кеш на 1 час, но агент сделал один запрос, кеш бесполезен и фактически приводит к лишним затратам.

Сейчас кеш на 1 час включён по умолчанию в ряде сценариев, где это даёт оптимизацию под реальные паттерны использования. При этом для многих запросов остаётся 5 минут (например, сабагенты, которые редко переиспользуются, и платить за час кеша там невыгодно). Для клиентов через API режим на 1 час пока не включён по умолчанию — нужно больше тестирования, чтобы убедиться, что это даёт выигрыш в среднем.

Отдельно: для таких экспериментов используются флаги, которые кешируются на стороне клиента. При отключённой телеметрии эти флаги тоже отключаются — клиент не обращается к серверу и используется значение по умолчанию, сейчас это 5 минут. В ближайшее время дефолт на клиенте поменяют на 1 час для части запросов, где уже видно небольшой выигрыш по токенам. Также появятся переменные окружения, чтобы принудительно задать 1 час или 5 минут.

В любом случае экономия токенов далека от 12×. Это небольшой, но постепенный прирост эффективности, который раскатывается на всех.


Документация: https://platform.claude.com/docs/en/build-with-claude/prompt-caching#pricing
Vercel также выпустили опенсорс платформу хостинга агентов: open-agents.

Протестировал - уровень зрелости высокий, под внутреннюю доработку в корпоративных сценариях заходит без проблем.

Как и ожидалось, у Vercel агенты не изолированы в песочнице.
This media is not supported in your browser
VIEW IN TELEGRAM
Claude Code получил редизайн на десктопе.

Теперь можно запускать несколько сессий Claude параллельно в одном окне, с новой боковой панелью для управления ими.

Редизайн также добавляет встроенный терминал, редактирование файлов, предпросмотр HTML и PDF, а также более быстрый просмотр диффов — всё это в интерфейсе с поддержкой drag-and-drop, который можно настроить под себя.

Ваши плагины для CLI работают точно так же, как и в командной строке.
1