Вайб-кодинг
13K subscribers
1.37K photos
385 videos
30 files
517 links
Авторский канал по ВАЙБ КОДИНГУ

Ссылка для друзей: https://t.me/+ll3pbl442dNkZmYy

Связь: @devmangx
По контенту: @codingpepe

№ 6556925486
Download Telegram
Представили Codebuff — агента для кодинга, который выжимает максимум из Opus 4.5.

На 100+ секунд быстрее (!) Claude Code на типовых задачах и при этом с лучшим качеством кода

Чистый терминальный UI без мерцаний (спасибо OpenTUI)

Специализированные сабагенты: file picker, best-of-n editor, reviewer

Вся магия Codebuff держится на трёх ключевых сабагентах. Начнем с file picker.

Claude Code может тратить минуты на шаринг по кодовой базе, делая десятки вызовов инструментов.
Codebuff делает иначе: скармливаем отдельной LLM (Grok 4.1 fast) сжатое представление всего репозитория.
За ~2 секунды она возвращает список из 12 потенциально релевантных файлов. ⌚️

Дальше другая модель (Flash) делает краткие саммари этих файлов, а основной агент решает, что реально читать.
В итоге Codebuff загружает максимум полезных файлов, чтобы получить контекст кодовой базы. Это одновременно ускоряет работу и повышает качество кода.

» Следующий компонент - multi-prompt editor.

Оркестратор запускает его сразу с несколькими стратегиями внесения изменений.
Под каждую стратегию поднимается отдельный агент, который пишет реализацию параллельно.
После этого selector-агент выбирает лучший вариант.

По тестам, эти реализации часто заметно отличаются друг от друга, и выбор лучшей реально сильно повышает качество результата.
Плюс selector может передать заметки о том, что было хорошего в альтернативных версиях и как это можно докрутить в финальной.

Этот агент очень экономичный » он переиспользует кэш промпта всей предыдущей беседы.

Мы копаем еще глубже и напрямую хачим, как LLM работают под капотом, ради производительности.
Implementor-агент пишет код в кастомном XML-формате для инструментов.
Это позволяет уложиться в один LLM-вызов для генерации всего кода, вместо цепочки шагов с нативными вызовом инструментов.

Итог = меньше задержек и ниже стоимость.

Честно, выжать больше из Opus 4.5 просто невозможно.

» Третий ключевой сабагент - code reviewer.

Он запускается inline, часто параллельно с агентами, которые делают typecheck и гоняют юнит-тесты.
За считанные секунды он быстро разбирает код, ловит баги, мертвые куски и показывает, где проседает качество

Вместе эти сабагенты (и несколько других, о которых тут не упомянули) позволяют Codebuff выдавать максимально сильный результат.

Opus 4.5, возможно, лучший кодинг-модель на сегодня.
А Codebuff - это когда Opus пристегнули к ракете.

Попробовать Codebuff:

npm i -g codebuff


Проект полностью open source, поддержан YC прошлой осенью.

Зацените. Реально интересно услышать, что вы думаете.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍1910
Google выложили официальный репозиторий MCP.

С реальными примерами и гайдами по развертыванию и использованию.

✓ Google Maps, Analytics, Gmail, Docs и другие сервисы
✓ Показывают, как поднять свой MCP за несколько минут

Полностью open source 🥴
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍2212🔥6
OpenAI выпустила GPT-5.2-Codex

Модель развивает сильные стороны GPT-5.2 в профессиональной работе и агентные возможности GPT-5.1-Codex-Max: кодинг, работа с терминалом, планирование. Сейчас это state-of-the-art на SWE-Bench Pro и Terminal-Bench 2.0.

Улучшения затронули и кибербезопасность. Ранее с помощью GPT-5.1-Codex-Max через Codex CLI была найдена и корректно раскрыта уязвимость в React, приводящая к возможной утечке исходников. GPT-5.2-Codex ещё более продвинут в этих сценариях.

GPT-5.2-Codex доступен в Codex для всех платных пользователей ChatGPT. Доступ к API ожидается позже. Параллельно идёт закрытый пилот с доступом к передовым кибервозможностям для проверенных defensive-команд. 🙏
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥125👍4
Claude и Codex, когда я понимаю, что на самом деле я — background agent:
😭26😁143🔥3👍1
Claude в Chrome теперь доступен для всех платных тарифов.

Плюс вышла интеграция с Claude Code.

Через расширение Claude Code теперь может тестировать код прямо в браузере и сразу проверять результат своей работы.

Плюс он видит ошибки на клиенте через логи консоли.

Попробовать можно так:
запусти /chrome в последней версии Claude Code.

Claude в Chrome работает в боковой панели, которая остается открытой во время серфинга.
Он использует ваши текущие логины и закладки, без отдельного контекста.

Попробовать: https://claude.com/chrome
🔥186🫡4🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Codex теперь официально поддерживает skills.

OpenAI внедряет стандарт SKILLs в Codex, недавно представленный Anthropic, для настройки конкретных и переиспользуемых инструкций для задач.

Поддерживаются два варианта установки:

» локально для себя: ~/.codex/skills
» на уровне репозитория: repo_path/.codex/skills

В Codex уже есть системные skills (plan, skill-creator, skill-installer), а также выложен набор курируемых skills от OpenAI. Установка через $.skill-installer

Примеры:

- реализация и валидация API-спек: notion-spec-to-implementation
- работа с тикетами Linear: linear
- автофиксы падений GitHub CI: gh-fix-ci

Фича доступна в актуальной версии Codex. 🍷
Please open Telegram to view this post
VIEW IN TELEGRAM
11🔥4👍2
This media is not supported in your browser
VIEW IN TELEGRAM
NotebookLM & GeminiApp

Теперь можно загружать ноутбуки NotebookLM напрямую в GeminiApp. Это удобно для:

- объединения нескольких ноутбуков в один
- генерации изображений или приложений на основе ваших ноутбуков
- развития существующих ноутбуков с подключением онлайн-исследований
- и других сценариев

Функция уже доступна, можно пробовать. 🤙
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥32
This media is not supported in your browser
VIEW IN TELEGRAM
😰 На днях, Google выпустила FunctionGemma — компактную модель для локального запуска

Языковая модель на 270 млн параметров, рассчитана на работу с функциями и инструментами.

Модель занимает около 0,5 ГБ оперативной памяти и может работать прямо на смартфоне, выдавая больше 50 токенов в секунду. Подключение к облаку не требуется, все вычисления выполняются локально.

FunctionGemma изначально ориентирована на сценарии, где модели нужно вызывать внешние функции и работать как часть агентной логики. Ее можно дообучать с помощью Unsloth, а затем разворачивать на мобильных устройствах или других системах.

Docs + Notebook: тут
GGUF: тут
Please open Telegram to view this post
VIEW IN TELEGRAM
12👍7🔥2😭1
Graphite, платформа для AI-код-ревью, подписала окончательное соглашение о присоединении к Cursor.

Команды договорились о партнерстве, чтобы быстрее развивать инструменты для совместной разработки и ускорять выпуск качественного софта.

Cursor расширяется 😊
Please open Telegram to view this post
VIEW IN TELEGRAM
👍195
Кстати, ещё в NotebookLM появился артефакт Data Table

Data Tables выкатились для всех пользователей тарифов Pro и Ultra (для бесплатных аккаунтов доступ появится в ближайшие недели).

Он позволяет автоматически собирать данные из ваших источников и формировать структурированную таблицу, пригодную для анализа и дальнейшей работы.

Готовые таблицы можно экспортировать в Google Sheets 🛒
Please open Telegram to view this post
VIEW IN TELEGRAM
15👍6
This media is not supported in your browser
VIEW IN TELEGRAM
Работу с браузером в Antigravity тоже сильно прокачали с Gemini 3 Flash. Он стал заметно быстрее и лучше справляется с длинными агентными задачами

Вот Antigravity делает глубокое исследование по фронтиру Парето для моделей и пишет код, чтобы визуализировать результат.
8
This media is not supported in your browser
VIEW IN TELEGRAM
Оп, Stream выложили в open-source Vision Agents - фреймворк для ИИ, который понимает видео в реальном времени.

Теперь можно заставить ИИ смотреть и анализировать видео с задержкой меньше 30 мс.

Комбинация YOLO + Gemini / OpenAI:
↳ спортивный коучинг
↳ обнаружение пожаров с дронов
↳ ассистенты для лайв-митингов

Почему это важно:

Большинство ИИ-приложений сегодня это текст или статичные картинки. Vision Agents - это понимание живого видео в реальном времени.

Подключение к звонку » около 500 мс. Задержка аудио и видео » меньше 30 мс.

Идеально для ИИ, которому важно видеть, что происходит прямо сейчас.

Реальный тайм-видео ИИ можно собрать буквально в ~5 строк кода:

agent = Agent(
edge=getstream.Edge(),
instructions="Coach golf swing",
llm=openai.Realtime(fps=10),
processors=[ultralytics.YOLOPoseProcessor()]
)


Пример установки — одна команда и готово:

uv add vision-agents


Вот репозиторий
↳ А вот документация
18🤯7👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Подгон для хакеров: полностью автономный AI-хакер, который находит реальные эксплойты в ваших веб-приложениях.

Shannon показал 96,15% успешности на бенчмарке XBOW без подсказок, с учётом исходного кода.

Фичи:

» Полностью автономная работа
» Отчёты уровня пентеста с воспроизводимыми эксплойтами
» Покрытие критических уязвимостей из OWASP
» Динамическое тестирование с пониманием кода
» Работает на базе интегрированных security-инструментов
» Параллельная обработка для ускорения результатов

100% опенсорс 👁
Please open Telegram to view this post
VIEW IN TELEGRAM
20👍4
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini 3 Flash: дашборд в формате bento box с живым трекингом рук и блоками визуализации данных.

⚡️⚡️⚡️
Please open Telegram to view this post
VIEW IN TELEGRAM
21🔥12
This media is not supported in your browser
VIEW IN TELEGRAM
AWS снова отличились.

Недавно они представили новый подход, который по-настоящему меняет то, как разработчики строят агентные пайплайны.

Проблема в том, что большинство агентных фреймворков до сих пор заставляют захардкоживать workflow, деревья решений и сценарии отказов.

Это работает ровно до тех пор, пока агент не сталкивается с ситуацией, которую ты не предусмотрел.

Strands Agents от AWS идут другим путём.

Вместо переусложнённой оркестрации они опираются на способности современных моделей к рассуждению и позволяют модели самой вести workflow.

Ты:

- задаёшь цель,
- предоставляешь инструменты,
- и позволяешь агенту самому понять, как к этой цели прийти.

С точки зрения реализации всё максимально просто » нужно определить всего три вещи:

1. LLM,
2. инструменты,
3. задачу.

И всё. Дальше агентный цикл берёт управление на себя.

При запуске модель сама решает:

- нужен ли инструмент,
- какой именно,
- как сформировать входные данные,
- и когда остановиться.

Вся логика » model-driven.

То есть вместо правил вида «если математика — зови калькулятор» или «если API упал — делай retry», модель динамически планирует шаги и выполняет их сама.

Workflow формируется во время выполнения, исходя из цели и доступных инструментов.

Выше в видео показано конкретный, прикладной пример.

Это агент на базе MCP, который умеет создавать видео в стиле 3Blue1Brown по одному простому промпту.

Сетап был минимальный:

- MCP-сервер с инструментом для запуска Manim-скриптов,
- затем описали агента с этими инструментами. Без системных промптов и без правил workflow.

Дальше модель сама:

- спланировала шаги,
- сгенерировала сцену Manim,
- и автономно вызвала нужный инструмент.

Даже минимальная конфигурация уже даёт удивительно высокий уровень возможностей. А по мере добавления лучших инструментов или моделей агент становится сильнее сам по себе - без переписывания workflow.

Фреймворк полностью open source и работает с любым локальным сетапом. 📖
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👍43🤯2
Media is too big
VIEW IN TELEGRAM
Подсказки к запросам

Claude умеет предсказывать, что ты спросишь дальше.

Завершаешь задачу » появляется серым предложенный следующий шаг:

Tab — принять и отредактировать
Enter — принять и сразу выполнить

Раньше Tab дополнял код. Теперь он дополняет твою работу. ☝️
Please open Telegram to view this post
VIEW IN TELEGRAM
22👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Сэм Альтман говорит, что настоящий прорыв в AI будет не в более продвинутом рассуждении, а в тотальной памяти.

AI сможет помнить каждый разговор, письмо и документ за всю жизнь человека, находя паттерны и предпочтения, которые сам человек никогда осознанно не формулирует.

Когда память станет постоянной, само понятие персонального ассистента радикально изменится. ⛄️
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍60😁106🗿3