По-моему GPT-5.3 стала адекватнее в общении, исчез чрезмерный холодок в модели и излишняя корректность
Грядущее обновление Codex CLI 0.108
И вероятно GPT-5.4
Описание:
Команда Codex OpenAI невероятно спешит в последние дни (89 коммитов за 2 дня).
По коммитам видно что появятся некоторые фичи и обновления в Codex:
1. Настройка имен субагентов в конфиге и пр мелкие изменения в интерфейсе;
Новая настройка nickname_candidates в конфиге ролей агентов - При создании sub-агента ему присваивается имя из пула, привязанного к его роли.
К примеру:
- Роль "researcher" → имена: scout, librarian, analyst
- Роль "coder" → имена: builder, smith, architect
2. Artifact - Новый встроенный инструмент которые дает агенту создавать презентации и таблицы.
3. Ускорение запуска субагентов и approvals(подтверждения) для субагентов в TUI.
4. Fast Mode - можно будет выбирать "Быструю" модель - видимо речь о том что можно будет использовать полноценную гигантскую модель, вероятно GPT-5.4 запущенную на серверах Cerebras, которые дают очень существенный прирост к скорости агента (вероятно стоимость тоже будет существенная за этот режим)
5. Плагины - теперь можно будет устанавливать плагины как в Claude Code (где в 1 пакете будут Skills,mcp,apps)
6. Память - у агента в 107 появилась долгосрочная память проекта, в текущей версии она получила развитие (обнаружение устаревших фактов, обновленные настойки и тюнинг под read-path и стабильных фактов)
7. Голосовой режим доработали, фактически суть в чем. Когда вы общаетесь - вы общаетесь с голосой realtime моделью, когда голосовая модель понимает что нужно что-то сделать - она передает управление текстовой модели.Видимо до 108 такого не было.Не знаю потому что на Linux до сих пор нет голосового управления (я сижу на Linux)
8. Original resolution view_image - Раньше все изображения сжимались перед отправкой модели - теперь модель будет получать полноценное изображение без сжатия (ВАУ), т.е. агент начнет нормально всё видеть, а не как слепой кролик пытаться понять что на изображении.
И вероятно GPT-5.4
Описание:
Команда Codex OpenAI невероятно спешит в последние дни (89 коммитов за 2 дня).
По коммитам видно что появятся некоторые фичи и обновления в Codex:
1. Настройка имен субагентов в конфиге и пр мелкие изменения в интерфейсе;
Новая настройка nickname_candidates в конфиге ролей агентов - При создании sub-агента ему присваивается имя из пула, привязанного к его роли.
К примеру:
- Роль "researcher" → имена: scout, librarian, analyst
- Роль "coder" → имена: builder, smith, architect
2. Artifact - Новый встроенный инструмент которые дает агенту создавать презентации и таблицы.
3. Ускорение запуска субагентов и approvals(подтверждения) для субагентов в TUI.
4. Fast Mode - можно будет выбирать "Быструю" модель - видимо речь о том что можно будет использовать полноценную гигантскую модель, вероятно GPT-5.4 запущенную на серверах Cerebras, которые дают очень существенный прирост к скорости агента (вероятно стоимость тоже будет существенная за этот режим)
5. Плагины - теперь можно будет устанавливать плагины как в Claude Code (где в 1 пакете будут Skills,mcp,apps)
6. Память - у агента в 107 появилась долгосрочная память проекта, в текущей версии она получила развитие (обнаружение устаревших фактов, обновленные настойки и тюнинг под read-path и стабильных фактов)
7. Голосовой режим доработали, фактически суть в чем. Когда вы общаетесь - вы общаетесь с голосой realtime моделью, когда голосовая модель понимает что нужно что-то сделать - она передает управление текстовой модели.Видимо до 108 такого не было.Не знаю потому что на Linux до сих пор нет голосового управления (я сижу на Linux)
8. Original resolution view_image - Раньше все изображения сжимались перед отправкой модели - теперь модель будет получать полноценное изображение без сжатия (ВАУ), т.е. агент начнет нормально всё видеть, а не как слепой кролик пытаться понять что на изображении.
Harness engineering
Описание
Статья OpenAI по разработке с 0 участием человек, когда всей разработкой занимается исключительно агент, а не человек.
Рекомендую почитать, очень познавательно
"Стало ясно: разработка программного обеспечения по-прежнему требует дисциплины, но эта дисциплина проявляется скорее в структуре, чем в самом коде. Инструменты, абстракции и механизмы обратной связи, обеспечивающие целостность кодовой базы, приобретают все большее значение."
Описание
Статья OpenAI по разработке с 0 участием человек, когда всей разработкой занимается исключительно агент, а не человек.
Рекомендую почитать, очень познавательно
"Стало ясно: разработка программного обеспечения по-прежнему требует дисциплины, но эта дисциплина проявляется скорее в структуре, чем в самом коде. Инструменты, абстракции и механизмы обратной связи, обеспечивающие целостность кодовой базы, приобретают все большее значение."
Magray
Harness engineering Описание Статья OpenAI по разработке с 0 участием человек, когда всей разработкой занимается исключительно агент, а не человек. Рекомендую почитать, очень познавательно "Стало ясно: разработка программного обеспечения по-прежнему требует…
AGENTS.md | CLAUDE.md
Описание:
Когда агент ограничен множеством разнообразных правил и разнобойных знаний в контексте каждое отдельное правило имеет всё меньшую силу и влияние на агента - и его эффективность в целом начинает значительно падать т.к. "внимание" - основной ресурс агентов начинает распыляться и агент начинает говнокодить, не потому что глупый, а потому что пытается делать всё и вся, как ехать за рулем и пытаться танцевать одновременно.
Поэтому в статье Harness engineering - инженеры OpenAI рекомендуют делать из AGENTS.md не сводку MUST/SHOULD и "энциклопедию всех знаний", а только структурную карту проекта. Так агент самостоятельно узнает необходимую для конкретной задачи информацию тогда когда она ему нужна = наилучшая свежесть и плотность контекста = агент работает значительно более эффективно.
Описание:
Когда агент ограничен множеством разнообразных правил и разнобойных знаний в контексте каждое отдельное правило имеет всё меньшую силу и влияние на агента - и его эффективность в целом начинает значительно падать т.к. "внимание" - основной ресурс агентов начинает распыляться и агент начинает говнокодить, не потому что глупый, а потому что пытается делать всё и вся, как ехать за рулем и пытаться танцевать одновременно.
Поэтому в статье Harness engineering - инженеры OpenAI рекомендуют делать из AGENTS.md не сводку MUST/SHOULD и "энциклопедию всех знаний", а только структурную карту проекта. Так агент самостоятельно узнает необходимую для конкретной задачи информацию тогда когда она ему нужна = наилучшая свежесть и плотность контекста = агент работает значительно более эффективно.
Openai
Harness engineering: leveraging Codex in an agent-first world
By Ryan Lopopolo, Member of the Technical Staff
GPT 5.4 1 млн контекста
У модели действительно 1 млн контекстное окно так же модель естественно лучше всех на рынке по бенчам:
83.0% on GDPval
75.0% on OSWorld-Verified
57.7% on SWE-Bench Pro (Public)
54.6% on Toolathlon
Но бенчи такое..реальность может быть другой
У модели действительно 1 млн контекстное окно так же модель естественно лучше всех на рынке по бенчам:
83.0% on GDPval
75.0% on OSWorld-Verified
57.7% on SWE-Bench Pro (Public)
54.6% on Toolathlon
Но бенчи такое..реальность может быть другой
👍3
Magray
Питер, чем больше контекстное окно - тем больше ответственность Даже если слухи магически откажутся правдой - это может не дать серьезной разницы в эффективности агентов
1 млн контекстного окна
Фактически так и вышло, дальше 256к контекста модель начинает показывать значительное ухудшение результатов при том что вы платите двойной тариф за использование контекстного окна выше 256к. Поэтому это явно не рационально. Можно использовать эту возможность как попытки проанализировать какое-то огромное кол-во кода или данных. Для реальной работы лучше продолжать пользоваться прежним размером контекстного окна
Фактически так и вышло, дальше 256к контекста модель начинает показывать значительное ухудшение результатов при том что вы платите двойной тариф за использование контекстного окна выше 256к. Поэтому это явно не рационально. Можно использовать эту возможность как попытки проанализировать какое-то огромное кол-во кода или данных. Для реальной работы лучше продолжать пользоваться прежним размером контекстного окна
👍3
Значительно увеличились лимиты Codex
Описание:
Не видел чтобы где-то OpenAi это анонсировали,но по субъективным ощущениям - лимиты codex сейчас начали ощущаться как будто раза в 3-4 больше,чем были раньше.Есть у кого-нибудь такое же ощущение?
Описание:
Не видел чтобы где-то OpenAi это анонсировали,но по субъективным ощущениям - лимиты codex сейчас начали ощущаться как будто раза в 3-4 больше,чем были раньше.Есть у кого-нибудь такое же ощущение?
🔥2
Завтра в 19:00 пройдет первый live стрим по вайбкодингу.
Разберем основы, скиллы, mcp и harness engineering
Разберем основы, скиллы, mcp и harness engineering
👍7
Обновление Codex CLI 0.117
Ссылка | changelog
Описание:
OpenAI выпустили Codex CLI 0.117.
По сути это не просто мелкий апдейт, а укрепление Codex как полноценного агентного runtime:
плагины становятся first-class частью системы, мультиагентный режим становится более структурным, а app-server/TUI всё сильнее превращаются в основной рабочий контур.
Т.е. раньше TUI был ближе к “самому Codex”
Сейчас всё больше логики выносится в общий внутренний слой, а TUI / будущий GUI / remote-клиенты становятся оболочками над этим слоем
Что изменилось:
1. Плагины
- плагины наконец-то начали приводить в нормальный вид
- появился более внятный /plugins
- плагины можно нормально смотреть, ставить и удалять
- Codex может подтягивать нужные плагины при старте
- установка плагинов и MCP стала понятнее, в том числе по авторизации и настройке
2. Multi-agent
- субагенты получили понятные адреса вида /root/agent_a вместо мусорных id
- добавили более структурированное взаимодействие сообщениями между агентами
- появился listing агентов, т.е. можно явно видеть каких субагентов Codex сейчас создал, а не держать это всё в голове
- в целом мультиагентный режим становится менее хаотичным и более управляемым
То есть мультиагентный режим становится более удобным.
3. TUI / внутренняя архитектура
- новый TUI-режим поверх app-server теперь включён по умолчанию
- через него можно отправлять ! shell-команды
- добавили слежение за изменениями файлов
- есть удалённое websocket-подключение с авторизацией
- /title теперь работает и в обычном TUI и в новом режиме
По релиза видно, что Codex двигают от “просто терминалки” к более цельной платформе.
4. Image / code mode
- view_image теперь лучше работает в code mode
- сгенерированные изображения можно заново открывать из TUI (Да, в Codex скоро можно будет генерировать изображения и видимо это будет делать не просто какая-то еще одна модель, а следующая 5.5 или уже GPT-6 модель о которой сейчас ходят слухи.)
- история генерации изображений сохраняется при resume
- история промптов в app-server TUI тоже сохраняется лучше, включая между сессиями
5. Надёжность
- починили дубли reasoning summaries и /review output
- перестал теряться transcript под нагрузкой
- улучшили login flow через браузер
- терминал теперь стабильнее восстанавливается после выхода
- sandbox стал надёжнее на Linux и Windows
- удалённые мультиагентные сессии стали понятнее в плане отображения агентов
Итог:
0.117 — в этом релизе Codex становится более цельным:
плагины + multi-agent + app-server + remote + sandbox начинают выглядеть как части одной системы + проект явно готовится к чему-то большому.
Ссылка | changelog
Описание:
OpenAI выпустили Codex CLI 0.117.
По сути это не просто мелкий апдейт, а укрепление Codex как полноценного агентного runtime:
плагины становятся first-class частью системы, мультиагентный режим становится более структурным, а app-server/TUI всё сильнее превращаются в основной рабочий контур.
Т.е. раньше TUI был ближе к “самому Codex”
Сейчас всё больше логики выносится в общий внутренний слой, а TUI / будущий GUI / remote-клиенты становятся оболочками над этим слоем
Что изменилось:
1. Плагины
- плагины наконец-то начали приводить в нормальный вид
- появился более внятный /plugins
- плагины можно нормально смотреть, ставить и удалять
- Codex может подтягивать нужные плагины при старте
- установка плагинов и MCP стала понятнее, в том числе по авторизации и настройке
2. Multi-agent
- субагенты получили понятные адреса вида /root/agent_a вместо мусорных id
- добавили более структурированное взаимодействие сообщениями между агентами
- появился listing агентов, т.е. можно явно видеть каких субагентов Codex сейчас создал, а не держать это всё в голове
- в целом мультиагентный режим становится менее хаотичным и более управляемым
То есть мультиагентный режим становится более удобным.
3. TUI / внутренняя архитектура
- новый TUI-режим поверх app-server теперь включён по умолчанию
- через него можно отправлять ! shell-команды
- добавили слежение за изменениями файлов
- есть удалённое websocket-подключение с авторизацией
- /title теперь работает и в обычном TUI и в новом режиме
По релиза видно, что Codex двигают от “просто терминалки” к более цельной платформе.
4. Image / code mode
- view_image теперь лучше работает в code mode
- сгенерированные изображения можно заново открывать из TUI (Да, в Codex скоро можно будет генерировать изображения и видимо это будет делать не просто какая-то еще одна модель, а следующая 5.5 или уже GPT-6 модель о которой сейчас ходят слухи.)
- история генерации изображений сохраняется при resume
- история промптов в app-server TUI тоже сохраняется лучше, включая между сессиями
5. Надёжность
- починили дубли reasoning summaries и /review output
- перестал теряться transcript под нагрузкой
- улучшили login flow через браузер
- терминал теперь стабильнее восстанавливается после выхода
- sandbox стал надёжнее на Linux и Windows
- удалённые мультиагентные сессии стали понятнее в плане отображения агентов
Итог:
0.117 — в этом релизе Codex становится более цельным:
плагины + multi-agent + app-server + remote + sandbox начинают выглядеть как части одной системы + проект явно готовится к чему-то большому.
👍3
ChatGPT невероятно тяжелый
Описание:
Когда переписываетесь в чате +/- долго, а может и нет то чат начинает невероятно глючить и в целом,кажется из своих 800+ млрд оценки OpenAI на оптимизацию своего сайта потратили ~$20 и то на кофе для разработчика.
Оказывается существует расширение для Chrome чтобы ограничивать длину подгружаемых сообщений => чат перестает лагать.
Пожалуйста
Описание:
Когда переписываетесь в чате +/- долго, а может и нет то чат начинает невероятно глючить и в целом,кажется из своих 800+ млрд оценки OpenAI на оптимизацию своего сайта потратили ~$20 и то на кофе для разработчика.
Оказывается существует расширение для Chrome чтобы ограничивать длину подгружаемых сообщений => чат перестает лагать.
Пожалуйста
Google
LightSession Pro for ChatGPT - Chrome Web Store
Keep ChatGPT fast by keeping only the last N messages in the DOM. Local-only.
🔥3