Вайб-кодинг
30.2K subscribers
1.71K photos
630 videos
30 files
945 links
Авторский канал по ВАЙБ КОДИНГУ

Ссылка для друзей: https://t.me/+ll3pbl442dNkZmYy

Связь: @devmangx
По контенту: @claudemane

РКН: https://clck.ru/3RRVfk
Download Telegram
Гений создал десктопное приложение на macOS для управления базами знаний на Markdown и совместной работы с ними. Называется Tolaria .

Оно бесплатное + с открытым исходным кодом, и судя по всему таким и останется.

Он делал его три месяца.

Как он говорит, Tolaria - основная точка взаимодействия с его ИИ-агентами: они создают новые заметки, связывают их с существующими и редактируют текущие. Для них всё прозрачно, потому что это обычные markdown-файлы. В каком-то смысле это его реализация LLM-вики от Andrej Karpathy. 🐀

Также Tolaria крупнейший эксперимент, который он делал по разработке софта с ИИ:

• 2000 коммитов
• 100 000+ строк кода
• 3000+ тестов / 85% покрытие
• 9.9/10 по качеству кода
• 70+ архитектурных решений (ADR)

Он выкладывает проект в открытый доступ ещё и как наглядный пример своего подхода к ии-кодингу, можно посмотреть, как устроена документация, что лежит в файле AGENTS, какие хуки используются и т.д.
Please open Telegram to view this post
VIEW IN TELEGRAM
2
OpenAI выкатили GPT-5.5 вместе с большим набором новых фич Codex 😏

Как вы уже догадались, модель заметно лучше справляется со всеми сложными задачами: код, ресёрч, анализ и работа с документами. И да, почти во всем обходит конкурентов. Например, на Terminal-Bench — 82.7% (против 69% у новенькой Claude).

Но и цена за токен в модели стала выше: ~$5 / $30 за млн токенов. Квота в Codex будет расходоваться быстрее, но самой модели теперь нужно меньше токенов, чтобы достичь того же результата

GPT-5.5 уже доступна пользователям Plus, Pro, Business и Enterprise в ChatGPT и Codex.

Насчёт апки Codex, туда добавили:

- Управление браузером
- Таблицы и презентации
- Документы и PDF
- Диктовка на уровне всей операционной системы
- плагин для .tex
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
DeepSeek сегодня выкатили превью новой линейки V4, одновременно с открытыми весами.

4 модели , все с нативным контекстом 1M токенов:

- DeepSeek-V4-Pro: 1.6T всего, 49B активных, 1M контекст — флагман фронтир-уровня
- DeepSeek-V4-Flash: 284B всего, 13B активных, 1M контекст — оптимизирован под скорость
- DeepSeek-V4-Pro-Base: предобученная база 1.6T для постобучения и исследований на фронтир-уровне
- DeepSeek-V4-Flash-Base: предобученная база 284B для эффективной адаптации под домен


Ключевое изменение, в том , что контекст на миллион токенов стал стандартом во всех официальных сервисах: без разделения по версиям и тарифам.

Три режима инференса: Non-Think / Think High / Think Max - позволяют управлять глубиной рассуждения. В режиме Think Max V4-Pro показывает 93.5 на LiveCodeBench, 3206 на Codeforces и 95.2 на HMMT 2026, сокращая разрыв с ведущими закрытыми моделями в задачах рассуждения и агентных сценариях.

V4 оптимизирован под работу с популярными агентными инструментами, включая Claude Code и OpenClaw. API поддерживает форматы OpenAI ChatCompletions и Anthropic, переключение сводится к смене параметра модели. Старые интерфейсы deepseek-chat и deepseek-reasoner будут работать ещё три месяца, после 24 июля сервис остановится, стоит заранее сделать миграцию.

Попробовать можно в чате через режим Expert Mode / Instant Mode. API обновлён и уже доступен.
Разница между Codex и Codex с подключёнными скиллами - огромная.

Уже собрали репозиторий с полезными скиллами:

→ Диагностика ошибок в Sentry без копирования stack trace
→ Автоматический ревью PR + автофикс CI в GitHub/GitLab
→ Разбор багов в Linear/Jira с автоматической триаж-сортировкой
→ Фильтрация логов Datadog через естественный язык
и тд.

Бесплатно и с открытым исходным кодом 🫡
Слой воркфлоу, который делает Codex ещё круче: Oh-my-codex 😳

- Каждая сессия стартует с устойчивого процесса: уточнение → выполнение
- Встроенные канонические скиллы: deep-interview, ralplan, team, ralph
- Постоянное состояние в .omx/: планы, логи, память, отслеживание режимов

Лицензия MIT.

Codex это движок. OMX это вся обвязка вокруг него.
Please open Telegram to view this post
VIEW IN TELEGRAM
В новом интерфейсе Cursor 3 появился /multitask.

Теперь Cursor может запускать асинхронные сабагенты, чтобы параллелить запросы вместо постановки их в очередь.

Для уже стоящих в очереди сообщений можно включить мультитаскинг и не ждать завершения текущего запуска.

Ещё один способ распараллелить работу — обновлённые ворктри в окне агентов.

Можно запускать изолированные задачи в фоне на разных ветках.

Когда нужно протестировать изменения, то любая ветка одним кликом переносится в локальный форграунд.

А ещё добавили поддержку многокорневых рабочих пространств для изменений сразу в нескольких репозиториях.

Одна сессия агента теперь может работать с переиспользуемым рабочим пространством, собранным из нескольких папок. 😌
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
А вы знали про официальный плагин от Anthropic ? — claude-code-setup.

Он показывает, какие автоматизации можно настроить (хуки, скиллы, MCP-серверы, сабагенты…) и как их пошагово сконфигурировать.

По сути, анализирует проект и рекомендует, что активировать.

Чтобы установить:

/plugin install claude-code-setup@claude-plugins-official
52
Чон Хёнву из Токио, поделился гайдом, по бесплатному доступу к DeepSeek V4 в Claude Code:

🔴Шаг 1: получить API-ключ
Можно использовать Aliyun Bailian или ModelScope — оба дают бесплатную квоту

Aliyun Bailian (по 1 млн токенов для V4 flash и pro)

ModelScope (в среднем 2000 бесплатных вызовов в день, лимит 500 вызовов на модель)

🔴Шаг 2: скачать CC Switch и создать провайдера
CC Switch — десктопный инструмент для переключения между провайдерами

После установки:
— открыть приложение
— создать нового провайдера
— выбрать Bailian или ModelScope из пресетов
— вставить API-ключ

🔴Шаг 3: настроить модель
Конфигурация под задачу. Пример:
— основная модель: V4 flash
— для сложных задач: V4 pro

Нюанс: по умолчанию контекст — 200K
Чтобы включить 1M, нужно добавить [1m] к имени модели

Форматы имён моделей:
— Aliyun Bailian:
deepseek-v4-flash[1m], deepseek-v4-pro[1m]

— ModelScope:
deepseek-ai/DeepSeek-V4-Flash[1m], deepseek-ai/DeepSeek-V4-Pro[1m]

🔴Шаг 4: сохранить конфиг и запустить Claude Code
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Кто-то сделал расширение для VSCode, которое позволяет ИИ создавать и управлять воркфлоу n8n как кодом.

Называется n8n Atom. Он преобразует воркфлоу в обычные .n8n файлы, чтобы Claude или Cursor могли их читать, редактировать и версионировать в GitHub с быстрым откатом.

Полностью с открытым исходным кодом. 😥
Please open Telegram to view this post
VIEW IN TELEGRAM