OpenAI выпустила GPT-5.2-Codex
Модель развивает сильные стороны GPT-5.2 в профессиональной работе и агентные возможности GPT-5.1-Codex-Max: кодинг, работа с терминалом, планирование. Сейчас это state-of-the-art на SWE-Bench Pro и Terminal-Bench 2.0.
Улучшения затронули и кибербезопасность. Ранее с помощью GPT-5.1-Codex-Max через Codex CLI была найдена и корректно раскрыта уязвимость в React, приводящая к возможной утечке исходников. GPT-5.2-Codex ещё более продвинут в этих сценариях.
GPT-5.2-Codex доступен в Codex для всех платных пользователей ChatGPT. Доступ к API ожидается позже. Параллельно идёт закрытый пилот с доступом к передовым кибервозможностям для проверенных defensive-команд.🙏
Модель развивает сильные стороны GPT-5.2 в профессиональной работе и агентные возможности GPT-5.1-Codex-Max: кодинг, работа с терминалом, планирование. Сейчас это state-of-the-art на SWE-Bench Pro и Terminal-Bench 2.0.
Улучшения затронули и кибербезопасность. Ранее с помощью GPT-5.1-Codex-Max через Codex CLI была найдена и корректно раскрыта уязвимость в React, приводящая к возможной утечке исходников. GPT-5.2-Codex ещё более продвинут в этих сценариях.
GPT-5.2-Codex доступен в Codex для всех платных пользователей ChatGPT. Доступ к API ожидается позже. Параллельно идёт закрытый пилот с доступом к передовым кибервозможностям для проверенных defensive-команд.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥12❤5👍4
Claude в Chrome теперь доступен для всех платных тарифов.
Плюс вышла интеграция с Claude Code.
Через расширение Claude Code теперь может тестировать код прямо в браузере и сразу проверять результат своей работы.
Плюс он видит ошибки на клиенте через логи консоли.
Попробовать можно так:
запусти
Claude в Chrome работает в боковой панели, которая остается открытой во время серфинга.
Он использует ваши текущие логины и закладки, без отдельного контекста.
Попробовать: https://claude.com/chrome
Плюс вышла интеграция с Claude Code.
Через расширение Claude Code теперь может тестировать код прямо в браузере и сразу проверять результат своей работы.
Плюс он видит ошибки на клиенте через логи консоли.
Попробовать можно так:
запусти
/chrome в последней версии Claude Code.Claude в Chrome работает в боковой панели, которая остается открытой во время серфинга.
Он использует ваши текущие логины и закладки, без отдельного контекста.
Попробовать: https://claude.com/chrome
🔥18❤6🫡4🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Codex теперь официально поддерживает skills.
OpenAI внедряет стандарт SKILLs в Codex, недавно представленный Anthropic, для настройки конкретных и переиспользуемых инструкций для задач.
Поддерживаются два варианта установки:
» локально для себя:
» на уровне репозитория:
В Codex уже есть системные skills (plan, skill-creator, skill-installer), а также выложен набор курируемых skills от OpenAI. Установка через
Примеры:
- реализация и валидация API-спек:
- работа с тикетами Linear:
- автофиксы падений GitHub CI:
Фича доступна в актуальной версии Codex.🍷
OpenAI внедряет стандарт SKILLs в Codex, недавно представленный Anthropic, для настройки конкретных и переиспользуемых инструкций для задач.
Поддерживаются два варианта установки:
» локально для себя:
~/.codex/skills» на уровне репозитория:
repo_path/.codex/skillsВ Codex уже есть системные skills (plan, skill-creator, skill-installer), а также выложен набор курируемых skills от OpenAI. Установка через
$.skill-installerПримеры:
- реализация и валидация API-спек:
notion-spec-to-implementation- работа с тикетами Linear:
linear- автофиксы падений GitHub CI:
gh-fix-ciФича доступна в актуальной версии Codex.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11🔥4👍2
This media is not supported in your browser
VIEW IN TELEGRAM
NotebookLM & GeminiApp
Теперь можно загружать ноутбуки NotebookLM напрямую в GeminiApp. Это удобно для:
- объединения нескольких ноутбуков в один
- генерации изображений или приложений на основе ваших ноутбуков
- развития существующих ноутбуков с подключением онлайн-исследований
- и других сценариев
Функция уже доступна, можно пробовать.🤙
Теперь можно загружать ноутбуки NotebookLM напрямую в GeminiApp. Это удобно для:
- объединения нескольких ноутбуков в один
- генерации изображений или приложений на основе ваших ноутбуков
- развития существующих ноутбуков с подключением онлайн-исследований
- и других сценариев
Функция уже доступна, можно пробовать.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥3❤2
This media is not supported in your browser
VIEW IN TELEGRAM
Языковая модель на 270 млн параметров, рассчитана на работу с функциями и инструментами.
Модель занимает около 0,5 ГБ оперативной памяти и может работать прямо на смартфоне, выдавая больше 50 токенов в секунду. Подключение к облаку не требуется, все вычисления выполняются локально.
FunctionGemma изначально ориентирована на сценарии, где модели нужно вызывать внешние функции и работать как часть агентной логики. Ее можно дообучать с помощью Unsloth, а затем разворачивать на мобильных устройствах или других системах.
Docs + Notebook: тут
GGUF: тут
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍7🔥2😭1
Graphite, платформа для AI-код-ревью, подписала окончательное соглашение о присоединении к Cursor.
Команды договорились о партнерстве, чтобы быстрее развивать инструменты для совместной разработки и ускорять выпуск качественного софта.
Cursor расширяется😊
Команды договорились о партнерстве, чтобы быстрее развивать инструменты для совместной разработки и ускорять выпуск качественного софта.
Cursor расширяется
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19❤5
Кстати, ещё в NotebookLM появился артефакт Data Table
Data Tables выкатились для всех пользователей тарифов Pro и Ultra (для бесплатных аккаунтов доступ появится в ближайшие недели).
Он позволяет автоматически собирать данные из ваших источников и формировать структурированную таблицу, пригодную для анализа и дальнейшей работы.
Готовые таблицы можно экспортировать в Google Sheets🛒
Data Tables выкатились для всех пользователей тарифов Pro и Ultra (для бесплатных аккаунтов доступ появится в ближайшие недели).
Он позволяет автоматически собирать данные из ваших источников и формировать структурированную таблицу, пригодную для анализа и дальнейшей работы.
Готовые таблицы можно экспортировать в Google Sheets
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15👍6
This media is not supported in your browser
VIEW IN TELEGRAM
Работу с браузером в Antigravity тоже сильно прокачали с Gemini 3 Flash. Он стал заметно быстрее и лучше справляется с длинными агентными задачами
Вот Antigravity делает глубокое исследование по фронтиру Парето для моделей и пишет код, чтобы визуализировать результат.
Вот Antigravity делает глубокое исследование по фронтиру Парето для моделей и пишет код, чтобы визуализировать результат.
❤8
This media is not supported in your browser
VIEW IN TELEGRAM
Оп, Stream выложили в open-source Vision Agents - фреймворк для ИИ, который понимает видео в реальном времени.
Теперь можно заставить ИИ смотреть и анализировать видео с задержкой меньше 30 мс.
Комбинация YOLO + Gemini / OpenAI:
↳ спортивный коучинг
↳ обнаружение пожаров с дронов
↳ ассистенты для лайв-митингов
Почему это важно:
Большинство ИИ-приложений сегодня это текст или статичные картинки. Vision Agents - это понимание живого видео в реальном времени.
Подключение к звонку » около 500 мс. Задержка аудио и видео » меньше 30 мс.
Идеально для ИИ, которому важно видеть, что происходит прямо сейчас.
Реальный тайм-видео ИИ можно собрать буквально в ~5 строк кода:
Пример установки — одна команда и готово:
↳ Вот репозиторий
↳ А вот документация
Теперь можно заставить ИИ смотреть и анализировать видео с задержкой меньше 30 мс.
Комбинация YOLO + Gemini / OpenAI:
↳ спортивный коучинг
↳ обнаружение пожаров с дронов
↳ ассистенты для лайв-митингов
Почему это важно:
Большинство ИИ-приложений сегодня это текст или статичные картинки. Vision Agents - это понимание живого видео в реальном времени.
Подключение к звонку » около 500 мс. Задержка аудио и видео » меньше 30 мс.
Идеально для ИИ, которому важно видеть, что происходит прямо сейчас.
Реальный тайм-видео ИИ можно собрать буквально в ~5 строк кода:
agent = Agent(
edge=getstream.Edge(),
instructions="Coach golf swing",
llm=openai.Realtime(fps=10),
processors=[ultralytics.YOLOPoseProcessor()]
)
Пример установки — одна команда и готово:
uv add vision-agents
↳ Вот репозиторий
↳ А вот документация
❤18🤯7👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Подгон для хакеров: полностью автономный AI-хакер, который находит реальные эксплойты в ваших веб-приложениях.
Shannon показал 96,15% успешности на бенчмарке XBOW без подсказок, с учётом исходного кода.
Фичи:
» Полностью автономная работа
» Отчёты уровня пентеста с воспроизводимыми эксплойтами
» Покрытие критических уязвимостей из OWASP
» Динамическое тестирование с пониманием кода
» Работает на базе интегрированных security-инструментов
» Параллельная обработка для ускорения результатов
100% опенсорс👁
Shannon показал 96,15% успешности на бенчмарке XBOW без подсказок, с учётом исходного кода.
Фичи:
» Полностью автономная работа
» Отчёты уровня пентеста с воспроизводимыми эксплойтами
» Покрытие критических уязвимостей из OWASP
» Динамическое тестирование с пониманием кода
» Работает на базе интегрированных security-инструментов
» Параллельная обработка для ускорения результатов
100% опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM
❤20👍4
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini 3 Flash: дашборд в формате bento box с живым трекингом рук и блоками визуализации данных.
⚡️ ⚡️ ⚡️
Please open Telegram to view this post
VIEW IN TELEGRAM
❤21🔥12
This media is not supported in your browser
VIEW IN TELEGRAM
AWS снова отличились.
Недавно они представили новый подход, который по-настоящему меняет то, как разработчики строят агентные пайплайны.
Проблема в том, что большинство агентных фреймворков до сих пор заставляют захардкоживать workflow, деревья решений и сценарии отказов.
Это работает ровно до тех пор, пока агент не сталкивается с ситуацией, которую ты не предусмотрел.
Strands Agents от AWS идут другим путём.
Вместо переусложнённой оркестрации они опираются на способности современных моделей к рассуждению и позволяют модели самой вести workflow.
Ты:
- задаёшь цель,
- предоставляешь инструменты,
- и позволяешь агенту самому понять, как к этой цели прийти.
С точки зрения реализации всё максимально просто » нужно определить всего три вещи:
1. LLM,
2. инструменты,
3. задачу.
И всё. Дальше агентный цикл берёт управление на себя.
При запуске модель сама решает:
- нужен ли инструмент,
- какой именно,
- как сформировать входные данные,
- и когда остановиться.
Вся логика » model-driven.
То есть вместо правил вида «если математика — зови калькулятор» или «если API упал — делай retry», модель динамически планирует шаги и выполняет их сама.
Workflow формируется во время выполнения, исходя из цели и доступных инструментов.
Выше в видео показано конкретный, прикладной пример.
Это агент на базе MCP, который умеет создавать видео в стиле 3Blue1Brown по одному простому промпту.
Сетап был минимальный:
- MCP-сервер с инструментом для запуска Manim-скриптов,
- затем описали агента с этими инструментами. Без системных промптов и без правил workflow.
Дальше модель сама:
- спланировала шаги,
- сгенерировала сцену Manim,
- и автономно вызвала нужный инструмент.
Даже минимальная конфигурация уже даёт удивительно высокий уровень возможностей. А по мере добавления лучших инструментов или моделей агент становится сильнее сам по себе - без переписывания workflow.
Фреймворк полностью open source и работает с любым локальным сетапом.📖
Недавно они представили новый подход, который по-настоящему меняет то, как разработчики строят агентные пайплайны.
Проблема в том, что большинство агентных фреймворков до сих пор заставляют захардкоживать workflow, деревья решений и сценарии отказов.
Это работает ровно до тех пор, пока агент не сталкивается с ситуацией, которую ты не предусмотрел.
Strands Agents от AWS идут другим путём.
Вместо переусложнённой оркестрации они опираются на способности современных моделей к рассуждению и позволяют модели самой вести workflow.
Ты:
- задаёшь цель,
- предоставляешь инструменты,
- и позволяешь агенту самому понять, как к этой цели прийти.
С точки зрения реализации всё максимально просто » нужно определить всего три вещи:
1. LLM,
2. инструменты,
3. задачу.
И всё. Дальше агентный цикл берёт управление на себя.
При запуске модель сама решает:
- нужен ли инструмент,
- какой именно,
- как сформировать входные данные,
- и когда остановиться.
Вся логика » model-driven.
То есть вместо правил вида «если математика — зови калькулятор» или «если API упал — делай retry», модель динамически планирует шаги и выполняет их сама.
Workflow формируется во время выполнения, исходя из цели и доступных инструментов.
Выше в видео показано конкретный, прикладной пример.
Это агент на базе MCP, который умеет создавать видео в стиле 3Blue1Brown по одному простому промпту.
Сетап был минимальный:
- MCP-сервер с инструментом для запуска Manim-скриптов,
- затем описали агента с этими инструментами. Без системных промптов и без правил workflow.
Дальше модель сама:
- спланировала шаги,
- сгенерировала сцену Manim,
- и автономно вызвала нужный инструмент.
Даже минимальная конфигурация уже даёт удивительно высокий уровень возможностей. А по мере добавления лучших инструментов или моделей агент становится сильнее сам по себе - без переписывания workflow.
Фреймворк полностью open source и работает с любым локальным сетапом.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👍4❤3🤯2
Media is too big
VIEW IN TELEGRAM
Подсказки к запросам
Claude умеет предсказывать, что ты спросишь дальше.
Завершаешь задачу » появляется серым предложенный следующий шаг:
Tab — принять и отредактировать
Enter — принять и сразу выполнить
Раньше Tab дополнял код. Теперь он дополняет твою работу.☝️
Claude умеет предсказывать, что ты спросишь дальше.
Завершаешь задачу » появляется серым предложенный следующий шаг:
Tab — принять и отредактировать
Enter — принять и сразу выполнить
Раньше Tab дополнял код. Теперь он дополняет твою работу.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤22👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Сэм Альтман говорит, что настоящий прорыв в AI будет не в более продвинутом рассуждении, а в тотальной памяти.
AI сможет помнить каждый разговор, письмо и документ за всю жизнь человека, находя паттерны и предпочтения, которые сам человек никогда осознанно не формулирует.
Когда память станет постоянной, само понятие персонального ассистента радикально изменится.⛄️
AI сможет помнить каждый разговор, письмо и документ за всю жизнь человека, находя паттерны и предпочтения, которые сам человек никогда осознанно не формулирует.
Когда память станет постоянной, само понятие персонального ассистента радикально изменится.
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍60😁10❤6🗿3
This media is not supported in your browser
VIEW IN TELEGRAM
я помогаю Opus 4.5 оставаться на верном пути
😁59👍8❤7🫡1
Media is too big
VIEW IN TELEGRAM
Новый туториал по AI-кодингу: как правильно стартовать проекты с Claude Code
Таймкоды:
00:00 — Не повторяй мою ошибку
02:30 — Фаза 1: планирование
02:54 — Два вопроса, которые стоит задать перед стартом
04:44 — Как использовать AI для помощи в планировании
06:14 — Создание спецификации проекта
11:36 — Фаза 2: настройка
12:04 — Настройка репозитория на GitHub
13:32 — Создание файла переменных окружения (.env)
13:50 —
15:57 — Автоматическая документация проекта
18:24 — Установка плагинов
19:33 — Установка MCP-серверов
20:52 — Настройка кастомных slash-команд и сабагентов
23:22 — Продвинутая настройка: предварительная конфигурация прав
24:09 — Продвинутая настройка: хуки
24:55 — Фаза 3: разработка
25:41 — Сборка MVP с Claude
26:33 — Workflow 1: разработка одной фичи
27:49 — Workflow 2: разработка по задачам (issue-based)
29:19 — Workflow 3: мультиагентная разработка (multi-clauding)
30:39 — Советы по продуктивной разработке
33:04 — Как применять всё, что узнал
Таймкоды:
00:00 — Не повторяй мою ошибку
02:30 — Фаза 1: планирование
02:54 — Два вопроса, которые стоит задать перед стартом
04:44 — Как использовать AI для помощи в планировании
06:14 — Создание спецификации проекта
11:36 — Фаза 2: настройка
12:04 — Настройка репозитория на GitHub
13:32 — Создание файла переменных окружения (.env)
13:50 —
CLAUDE.md и что в него писать15:57 — Автоматическая документация проекта
18:24 — Установка плагинов
19:33 — Установка MCP-серверов
20:52 — Настройка кастомных slash-команд и сабагентов
23:22 — Продвинутая настройка: предварительная конфигурация прав
24:09 — Продвинутая настройка: хуки
24:55 — Фаза 3: разработка
25:41 — Сборка MVP с Claude
26:33 — Workflow 1: разработка одной фичи
27:49 — Workflow 2: разработка по задачам (issue-based)
29:19 — Workflow 3: мультиагентная разработка (multi-clauding)
30:39 — Советы по продуктивной разработке
33:04 — Как применять всё, что узнал
1❤35👍16🔥14👏1
Media is too big
VIEW IN TELEGRAM
Плагины
— Можешь скинуть свой сетап Claude Code?
— присылает 47 файлов в 12 директориях
— …ладно, не надо
Эта эпоха закончилась.😈
Находи новые воркфлоу через маркетплейс.
Команды, агенты, skills, хуки, MCP.
Один пакет. Одна команда.
— Можешь скинуть свой сетап Claude Code?
— присылает 47 файлов в 12 директориях
— …ладно, не надо
Эта эпоха закончилась.
/plugin install my-setup
Находи новые воркфлоу через маркетплейс.
Команды, агенты, skills, хуки, MCP.
Один пакет. Одна команда.
Please open Telegram to view this post
VIEW IN TELEGRAM
10🔥19❤8