DeepSeek сегодня выкатили превью новой линейки V4, одновременно с открытыми весами.
4 модели , все с нативным контекстом 1M токенов:
Ключевое изменение, в том , что контекст на миллион токенов стал стандартом во всех официальных сервисах: без разделения по версиям и тарифам.
Три режима инференса: Non-Think / Think High / Think Max - позволяют управлять глубиной рассуждения. В режиме Think Max V4-Pro показывает 93.5 на LiveCodeBench, 3206 на Codeforces и 95.2 на HMMT 2026, сокращая разрыв с ведущими закрытыми моделями в задачах рассуждения и агентных сценариях.
V4 оптимизирован под работу с популярными агентными инструментами, включая Claude Code и OpenClaw. API поддерживает форматы OpenAI ChatCompletions и Anthropic, переключение сводится к смене параметра модели. Старые интерфейсы deepseek-chat и deepseek-reasoner будут работать ещё три месяца, после 24 июля сервис остановится, стоит заранее сделать миграцию.
Попробовать можно в чате через режим Expert Mode / Instant Mode. API обновлён и уже доступен.
4 модели , все с нативным контекстом 1M токенов:
- DeepSeek-V4-Pro: 1.6T всего, 49B активных, 1M контекст — флагман фронтир-уровня
- DeepSeek-V4-Flash: 284B всего, 13B активных, 1M контекст — оптимизирован под скорость
- DeepSeek-V4-Pro-Base: предобученная база 1.6T для постобучения и исследований на фронтир-уровне
- DeepSeek-V4-Flash-Base: предобученная база 284B для эффективной адаптации под домен
Ключевое изменение, в том , что контекст на миллион токенов стал стандартом во всех официальных сервисах: без разделения по версиям и тарифам.
Три режима инференса: Non-Think / Think High / Think Max - позволяют управлять глубиной рассуждения. В режиме Think Max V4-Pro показывает 93.5 на LiveCodeBench, 3206 на Codeforces и 95.2 на HMMT 2026, сокращая разрыв с ведущими закрытыми моделями в задачах рассуждения и агентных сценариях.
V4 оптимизирован под работу с популярными агентными инструментами, включая Claude Code и OpenClaw. API поддерживает форматы OpenAI ChatCompletions и Anthropic, переключение сводится к смене параметра модели. Старые интерфейсы deepseek-chat и deepseek-reasoner будут работать ещё три месяца, после 24 июля сервис остановится, стоит заранее сделать миграцию.
Попробовать можно в чате через режим Expert Mode / Instant Mode. API обновлён и уже доступен.
Разница между Codex и Codex с подключёнными скиллами - огромная.
Уже собрали репозиторий с полезными скиллами:
→ Диагностика ошибок в Sentry без копирования stack trace
→ Автоматический ревью PR + автофикс CI в GitHub/GitLab
→ Разбор багов в Linear/Jira с автоматической триаж-сортировкой
→ Фильтрация логов Datadog через естественный язык
и тд.
Бесплатно и с открытым исходным кодом 🫡
Уже собрали репозиторий с полезными скиллами:
→ Диагностика ошибок в Sentry без копирования stack trace
→ Автоматический ревью PR + автофикс CI в GitHub/GitLab
→ Разбор багов в Linear/Jira с автоматической триаж-сортировкой
→ Фильтрация логов Datadog через естественный язык
и тд.
Бесплатно и с открытым исходным кодом 🫡
GitHub
GitHub - ComposioHQ/awesome-codex-skills: A curated list of practical Codex skills for automating workflows across the Codex CLI…
A curated list of practical Codex skills for automating workflows across the Codex CLI and API. - ComposioHQ/awesome-codex-skills
Слой воркфлоу, который делает Codex ещё круче: Oh-my-codex 😳
- Каждая сессия стартует с устойчивого процесса: уточнение → выполнение
- Встроенные канонические скиллы: deep-interview, ralplan, team, ralph
- Постоянное состояние в
Лицензия MIT.
Codex это движок. OMX это вся обвязка вокруг него.
- Каждая сессия стартует с устойчивого процесса: уточнение → выполнение
- Встроенные канонические скиллы: deep-interview, ralplan, team, ralph
- Постоянное состояние в
.omx/: планы, логи, память, отслеживание режимовЛицензия MIT.
Codex это движок. OMX это вся обвязка вокруг него.
Please open Telegram to view this post
VIEW IN TELEGRAM
В новом интерфейсе Cursor 3 появился
Теперь Cursor может запускать асинхронные сабагенты, чтобы параллелить запросы вместо постановки их в очередь.
Для уже стоящих в очереди сообщений можно включить мультитаскинг и не ждать завершения текущего запуска.
Ещё один способ распараллелить работу — обновлённые ворктри в окне агентов.
Можно запускать изолированные задачи в фоне на разных ветках.
Когда нужно протестировать изменения, то любая ветка одним кликом переносится в локальный форграунд.
А ещё добавили поддержку многокорневых рабочих пространств для изменений сразу в нескольких репозиториях.
Одна сессия агента теперь может работать с переиспользуемым рабочим пространством, собранным из нескольких папок.😌
/multitask.Теперь Cursor может запускать асинхронные сабагенты, чтобы параллелить запросы вместо постановки их в очередь.
Для уже стоящих в очереди сообщений можно включить мультитаскинг и не ждать завершения текущего запуска.
Ещё один способ распараллелить работу — обновлённые ворктри в окне агентов.
Можно запускать изолированные задачи в фоне на разных ветках.
Когда нужно протестировать изменения, то любая ветка одним кликом переносится в локальный форграунд.
А ещё добавили поддержку многокорневых рабочих пространств для изменений сразу в нескольких репозиториях.
Одна сессия агента теперь может работать с переиспользуемым рабочим пространством, собранным из нескольких папок.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
А вы знали про официальный плагин от Anthropic ? —
Он показывает, какие автоматизации можно настроить (хуки, скиллы, MCP-серверы, сабагенты…) и как их пошагово сконфигурировать.
По сути, анализирует проект и рекомендует, что активировать.
Чтобы установить:
claude-code-setup.Он показывает, какие автоматизации можно настроить (хуки, скиллы, MCP-серверы, сабагенты…) и как их пошагово сконфигурировать.
По сути, анализирует проект и рекомендует, что активировать.
Чтобы установить:
/plugin install claude-code-setup@claude-plugins-official
52
Чон Хёнву из Токио, поделился гайдом, по бесплатному доступу к DeepSeek V4 в Claude Code:
🔴 Шаг 1: получить API-ключ
Можно использовать Aliyun Bailian или ModelScope — оба дают бесплатную квоту
Aliyun Bailian (по 1 млн токенов для V4 flash и pro)
ModelScope (в среднем 2000 бесплатных вызовов в день, лимит 500 вызовов на модель)
🔴 Шаг 2: скачать CC Switch и создать провайдера
CC Switch — десктопный инструмент для переключения между провайдерами
После установки:
— открыть приложение
— создать нового провайдера
— выбрать Bailian или ModelScope из пресетов
— вставить API-ключ
🔴 Шаг 3: настроить модель
Конфигурация под задачу. Пример:
— основная модель: V4 flash
— для сложных задач: V4 pro
Нюанс: по умолчанию контекст — 200K
Чтобы включить 1M, нужно добавить
Форматы имён моделей:
— Aliyun Bailian:
— ModelScope:
🔴 Шаг 4: сохранить конфиг и запустить Claude Code
Можно использовать Aliyun Bailian или ModelScope — оба дают бесплатную квоту
Aliyun Bailian (по 1 млн токенов для V4 flash и pro)
ModelScope (в среднем 2000 бесплатных вызовов в день, лимит 500 вызовов на модель)
CC Switch — десктопный инструмент для переключения между провайдерами
После установки:
— открыть приложение
— создать нового провайдера
— выбрать Bailian или ModelScope из пресетов
— вставить API-ключ
Конфигурация под задачу. Пример:
— основная модель: V4 flash
— для сложных задач: V4 pro
Нюанс: по умолчанию контекст — 200K
Чтобы включить 1M, нужно добавить
[1m] к имени моделиФорматы имён моделей:
— Aliyun Bailian:
deepseek-v4-flash[1m], deepseek-v4-pro[1m]— ModelScope:
deepseek-ai/DeepSeek-V4-Flash[1m], deepseek-ai/DeepSeek-V4-Pro[1m]Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Кто-то сделал расширение для VSCode, которое позволяет ИИ создавать и управлять воркфлоу n8n как кодом.
Называется n8n Atom. Он преобразует воркфлоу в обычные
Полностью с открытым исходным кодом.😥
Называется n8n Atom. Он преобразует воркфлоу в обычные
.n8n файлы, чтобы Claude или Cursor могли их читать, редактировать и версионировать в GitHub с быстрым откатом.Полностью с открытым исходным кодом.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
This media is not supported in your browser
VIEW IN TELEGRAM
Управлять окном контекста и сабагентами, запущенными в Claude Code, сложно, ведь за всем трудно уследить.
Поэтому сделали этот хук. Называется Context Timeline
Он запускается сразу при открытии сессии и показывает таймлайн с окном контекста основного агента и тем, как сабагенты начинают работать в своих отдельных контекстах.
Каждый запущенный сабагент отображается в реальном времени.
Так можно управлять контекстом и сабагентами и видеть всё в более простом виде, чем в консоли.
Установка:
исходники👍
Поэтому сделали этот хук. Называется Context Timeline
Он запускается сразу при открытии сессии и показывает таймлайн с окном контекста основного агента и тем, как сабагенты начинают работать в своих отдельных контекстах.
Каждый запущенный сабагент отображается в реальном времени.
Так можно управлять контекстом и сабагентами и видеть всё в более простом виде, чем в консоли.
Установка:
npx claude-code-templates@latest --hook monitoring/context-timelineисходники
Please open Telegram to view this post
VIEW IN TELEGRAM
Причём с одной попытки.
Время, которое потратил ChatGPT: 1 час 20 минут.
Интересный момент, модель решила задачу, используя формулу, которую все знают, но никто не применял к этой задаче.
Вот диалог с ChatGPT: https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
А вот сама задача:
Please open Telegram to view this post
VIEW IN TELEGRAM
Мегамозг собрал утилиту, которая:
• поднимает собственную векторную БД
• считает эмбеддинги локально
• индексирует весь код проекта
• работает с Claude, Cursor, Copilot
И при этом без конфигурации
- без API-ключей
- без сетапа
- без инфраструктуры
запуск:
Дальше всё поднимается и настраивается автоматически
открытый исходный код
• поднимает собственную векторную БД
• считает эмбеддинги локально
• индексирует весь код проекта
• работает с Claude, Cursor, Copilot
И при этом без конфигурации
- без API-ключей
- без сетапа
- без инфраструктуры
запуск:
npx -y socraticode
Дальше всё поднимается и настраивается автоматически
открытый исходный код
This media is not supported in your browser
VIEW IN TELEGRAM
Nico Martin собрал ИИ-агента, который работает прямо внутри браузера
Всё локально, без серверов, на базе Gemma4 и WebGPU
Использует нативный вызов инструментов, чтобы:
- искать по истории браузера
- читать и суммаризировать страницы
- управлять вкладками
Но самое интересное не в том, что это работает, а в том, как выстроена архитектура Transformers.js внутри расширения Chrome, чтобы это вообще заработало. Читать об этом здесь.
исходники, хром-расширение😌
Всё локально, без серверов, на базе Gemma4 и WebGPU
Использует нативный вызов инструментов, чтобы:
- искать по истории браузера
- читать и суммаризировать страницы
- управлять вкладками
Но самое интересное не в том, что это работает, а в том, как выстроена архитектура Transformers.js внутри расширения Chrome, чтобы это вообще заработало. Читать об этом здесь.
исходники, хром-расширение
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
HyperFrames от HeyGen теперь официальный плагин в Codex
Codex превращается в полноценное воркспейс для видео. Пишешь код, редактируешь, рендеришь, выкатываешь
открытый исходный код🐌
p.s. фреймворк работает со всеми ИИ-агентами в целом (Claude Code, Cursor, Gemini CLI и др.)
Codex превращается в полноценное воркспейс для видео. Пишешь код, редактируешь, рендеришь, выкатываешь
открытый исходный код
p.s. фреймворк работает со всеми ИИ-агентами в целом (Claude Code, Cursor, Gemini CLI и др.)
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Tencent выпустили свой ответ на Claude Computer Use 🤯
QClaw — персональный ИИ-агент, который работает локально на устройстве, настраивается за 3 минуты и принимает команды через WhatsApp или Telegram.
Построен на базе OpenClaw. Бесплатная бета.
Можно просто подключить его к WhatsApp, Discord, Telegram или Slack.
И писать ему: «забронируй столик на пятницу» или «найди счёт в папке загрузок».
Он выполняет задачу локально и присылает сообщение, когда всё готово.
Также есть движок долгосрочной памяти, который запоминает привычки, расписание и предпочтения по организации.
Чем больше используешь, тем точнее он работает.
QClaw — персональный ИИ-агент, который работает локально на устройстве, настраивается за 3 минуты и принимает команды через WhatsApp или Telegram.
Построен на базе OpenClaw. Бесплатная бета.
Можно просто подключить его к WhatsApp, Discord, Telegram или Slack.
И писать ему: «забронируй столик на пятницу» или «найди счёт в папке загрузок».
Он выполняет задачу локально и присылает сообщение, когда всё готово.
Также есть движок долгосрочной памяти, который запоминает привычки, расписание и предпочтения по организации.
Чем больше используешь, тем точнее он работает.
Please open Telegram to view this post
VIEW IN TELEGRAM