GPT 5.4 1 млн контекста
У модели действительно 1 млн контекстное окно так же модель естественно лучше всех на рынке по бенчам:
83.0% on GDPval
75.0% on OSWorld-Verified
57.7% on SWE-Bench Pro (Public)
54.6% on Toolathlon
Но бенчи такое..реальность может быть другой
У модели действительно 1 млн контекстное окно так же модель естественно лучше всех на рынке по бенчам:
83.0% on GDPval
75.0% on OSWorld-Verified
57.7% on SWE-Bench Pro (Public)
54.6% on Toolathlon
Но бенчи такое..реальность может быть другой
👍3
Magray
Питер, чем больше контекстное окно - тем больше ответственность Даже если слухи магически откажутся правдой - это может не дать серьезной разницы в эффективности агентов
1 млн контекстного окна
Фактически так и вышло, дальше 256к контекста модель начинает показывать значительное ухудшение результатов при том что вы платите двойной тариф за использование контекстного окна выше 256к. Поэтому это явно не рационально. Можно использовать эту возможность как попытки проанализировать какое-то огромное кол-во кода или данных. Для реальной работы лучше продолжать пользоваться прежним размером контекстного окна
Фактически так и вышло, дальше 256к контекста модель начинает показывать значительное ухудшение результатов при том что вы платите двойной тариф за использование контекстного окна выше 256к. Поэтому это явно не рационально. Можно использовать эту возможность как попытки проанализировать какое-то огромное кол-во кода или данных. Для реальной работы лучше продолжать пользоваться прежним размером контекстного окна
👍3
Значительно увеличились лимиты Codex
Описание:
Не видел чтобы где-то OpenAi это анонсировали,но по субъективным ощущениям - лимиты codex сейчас начали ощущаться как будто раза в 3-4 больше,чем были раньше.Есть у кого-нибудь такое же ощущение?
Описание:
Не видел чтобы где-то OpenAi это анонсировали,но по субъективным ощущениям - лимиты codex сейчас начали ощущаться как будто раза в 3-4 больше,чем были раньше.Есть у кого-нибудь такое же ощущение?
🔥2
Завтра в 19:00 пройдет первый live стрим по вайбкодингу.
Разберем основы, скиллы, mcp и harness engineering
Разберем основы, скиллы, mcp и harness engineering
👍7
Обновление Codex CLI 0.117
Ссылка | changelog
Описание:
OpenAI выпустили Codex CLI 0.117.
По сути это не просто мелкий апдейт, а укрепление Codex как полноценного агентного runtime:
плагины становятся first-class частью системы, мультиагентный режим становится более структурным, а app-server/TUI всё сильнее превращаются в основной рабочий контур.
Т.е. раньше TUI был ближе к “самому Codex”
Сейчас всё больше логики выносится в общий внутренний слой, а TUI / будущий GUI / remote-клиенты становятся оболочками над этим слоем
Что изменилось:
1. Плагины
- плагины наконец-то начали приводить в нормальный вид
- появился более внятный /plugins
- плагины можно нормально смотреть, ставить и удалять
- Codex может подтягивать нужные плагины при старте
- установка плагинов и MCP стала понятнее, в том числе по авторизации и настройке
2. Multi-agent
- субагенты получили понятные адреса вида /root/agent_a вместо мусорных id
- добавили более структурированное взаимодействие сообщениями между агентами
- появился listing агентов, т.е. можно явно видеть каких субагентов Codex сейчас создал, а не держать это всё в голове
- в целом мультиагентный режим становится менее хаотичным и более управляемым
То есть мультиагентный режим становится более удобным.
3. TUI / внутренняя архитектура
- новый TUI-режим поверх app-server теперь включён по умолчанию
- через него можно отправлять ! shell-команды
- добавили слежение за изменениями файлов
- есть удалённое websocket-подключение с авторизацией
- /title теперь работает и в обычном TUI и в новом режиме
По релиза видно, что Codex двигают от “просто терминалки” к более цельной платформе.
4. Image / code mode
- view_image теперь лучше работает в code mode
- сгенерированные изображения можно заново открывать из TUI (Да, в Codex скоро можно будет генерировать изображения и видимо это будет делать не просто какая-то еще одна модель, а следующая 5.5 или уже GPT-6 модель о которой сейчас ходят слухи.)
- история генерации изображений сохраняется при resume
- история промптов в app-server TUI тоже сохраняется лучше, включая между сессиями
5. Надёжность
- починили дубли reasoning summaries и /review output
- перестал теряться transcript под нагрузкой
- улучшили login flow через браузер
- терминал теперь стабильнее восстанавливается после выхода
- sandbox стал надёжнее на Linux и Windows
- удалённые мультиагентные сессии стали понятнее в плане отображения агентов
Итог:
0.117 — в этом релизе Codex становится более цельным:
плагины + multi-agent + app-server + remote + sandbox начинают выглядеть как части одной системы + проект явно готовится к чему-то большому.
Ссылка | changelog
Описание:
OpenAI выпустили Codex CLI 0.117.
По сути это не просто мелкий апдейт, а укрепление Codex как полноценного агентного runtime:
плагины становятся first-class частью системы, мультиагентный режим становится более структурным, а app-server/TUI всё сильнее превращаются в основной рабочий контур.
Т.е. раньше TUI был ближе к “самому Codex”
Сейчас всё больше логики выносится в общий внутренний слой, а TUI / будущий GUI / remote-клиенты становятся оболочками над этим слоем
Что изменилось:
1. Плагины
- плагины наконец-то начали приводить в нормальный вид
- появился более внятный /plugins
- плагины можно нормально смотреть, ставить и удалять
- Codex может подтягивать нужные плагины при старте
- установка плагинов и MCP стала понятнее, в том числе по авторизации и настройке
2. Multi-agent
- субагенты получили понятные адреса вида /root/agent_a вместо мусорных id
- добавили более структурированное взаимодействие сообщениями между агентами
- появился listing агентов, т.е. можно явно видеть каких субагентов Codex сейчас создал, а не держать это всё в голове
- в целом мультиагентный режим становится менее хаотичным и более управляемым
То есть мультиагентный режим становится более удобным.
3. TUI / внутренняя архитектура
- новый TUI-режим поверх app-server теперь включён по умолчанию
- через него можно отправлять ! shell-команды
- добавили слежение за изменениями файлов
- есть удалённое websocket-подключение с авторизацией
- /title теперь работает и в обычном TUI и в новом режиме
По релиза видно, что Codex двигают от “просто терминалки” к более цельной платформе.
4. Image / code mode
- view_image теперь лучше работает в code mode
- сгенерированные изображения можно заново открывать из TUI (Да, в Codex скоро можно будет генерировать изображения и видимо это будет делать не просто какая-то еще одна модель, а следующая 5.5 или уже GPT-6 модель о которой сейчас ходят слухи.)
- история генерации изображений сохраняется при resume
- история промптов в app-server TUI тоже сохраняется лучше, включая между сессиями
5. Надёжность
- починили дубли reasoning summaries и /review output
- перестал теряться transcript под нагрузкой
- улучшили login flow через браузер
- терминал теперь стабильнее восстанавливается после выхода
- sandbox стал надёжнее на Linux и Windows
- удалённые мультиагентные сессии стали понятнее в плане отображения агентов
Итог:
0.117 — в этом релизе Codex становится более цельным:
плагины + multi-agent + app-server + remote + sandbox начинают выглядеть как части одной системы + проект явно готовится к чему-то большому.
👍3
ChatGPT невероятно тяжелый
Описание:
Когда переписываетесь в чате +/- долго, а может и нет то чат начинает невероятно глючить и в целом,кажется из своих 800+ млрд оценки OpenAI на оптимизацию своего сайта потратили ~$20 и то на кофе для разработчика.
Оказывается существует расширение для Chrome чтобы ограничивать длину подгружаемых сообщений => чат перестает лагать.
Пожалуйста
Описание:
Когда переписываетесь в чате +/- долго, а может и нет то чат начинает невероятно глючить и в целом,кажется из своих 800+ млрд оценки OpenAI на оптимизацию своего сайта потратили ~$20 и то на кофе для разработчика.
Оказывается существует расширение для Chrome чтобы ограничивать длину подгружаемых сообщений => чат перестает лагать.
Пожалуйста
Google
LightSession Pro for ChatGPT - Chrome Web Store
Keep ChatGPT fast by keeping only the last N messages in the DOM. Local-only.
🔥3
CODEX снова сбросили лимиты
В честь достижения отметки 3млн ежедневных пользователей - OpenAI сбросили еженеделный лимит использовани и сообщили о том что будут сбрасывать каждый миллион до 10 млн пользоваталей.
В честь достижения отметки 3млн ежедневных пользователей - OpenAI сбросили еженеделный лимит использовани и сообщили о том что будут сбрасывать каждый миллион до 10 млн пользоваталей.
😁2
Meta очнулась
Meta выпустили модель Muse Spark которая вроде бы состоит из нескольких моделей внутри
>нативное мультимодальное рассуждение
>использование инструментов + визуальная цепочка мыслей
>оркестровка нескольких агентов
Бенчмарки:
>превосходит Opus 4.6 в большинстве мультимодальных задач
>значительно превосходит GPT 5.4 в бенчмарках по здравоохранению
>конкурентоспособна с Gemini 3.1 Pro Deep-Think в рассуждениях
>58% на Humanity's Last Exam
Meta выпустили модель Muse Spark которая вроде бы состоит из нескольких моделей внутри
>нативное мультимодальное рассуждение
>использование инструментов + визуальная цепочка мыслей
>оркестровка нескольких агентов
Бенчмарки:
>превосходит Opus 4.6 в большинстве мультимодальных задач
>значительно превосходит GPT 5.4 в бенчмарках по здравоохранению
>конкурентоспособна с Gemini 3.1 Pro Deep-Think в рассуждениях
>58% на Humanity's Last Exam
GPT-5.2 сильнее GPT-5.4
Прогнал множество разных тестов: Речь не о том что обычно проверяют блогеры говоря о качестве модели (ни кто лучше нарисовал SVG или сделал красивый UI), а речь скорее о том, насколько модель реально качественно,эффективно и нестандартно решила бекенд задачу со сложной взаимозависимой логикой.
GPT-5.4 по результатам всегда делает "красивые прыжки", но постоянно "приземляется на голову" и ломает себе шею.
По сути это вероятно говорит о том что модель сама по себе качественная, но она чрезмерно квантована что привело к очень заметной потере качества что модель уступает даже GPT-5.2
Codex 5.3 постоянно скатывается в хаки и жульничество, хотя в целом тоже делает хорошие,качественные вещи, но как правило добивается их путями которые противоречат намерениям пользователя.
GPT-5.2 думает заметно дольше остальных и дает ответы куда более осмысленные и направленные на исполнение намерений пользователя, чем просто Changelog списком, как это практически всегда делает GPT-5.4 что просто вымораживает
Прогнал множество разных тестов: Речь не о том что обычно проверяют блогеры говоря о качестве модели (ни кто лучше нарисовал SVG или сделал красивый UI), а речь скорее о том, насколько модель реально качественно,эффективно и нестандартно решила бекенд задачу со сложной взаимозависимой логикой.
GPT-5.4 по результатам всегда делает "красивые прыжки", но постоянно "приземляется на голову" и ломает себе шею.
По сути это вероятно говорит о том что модель сама по себе качественная, но она чрезмерно квантована что привело к очень заметной потере качества что модель уступает даже GPT-5.2
Codex 5.3 постоянно скатывается в хаки и жульничество, хотя в целом тоже делает хорошие,качественные вещи, но как правило добивается их путями которые противоречат намерениям пользователя.
GPT-5.2 думает заметно дольше остальных и дает ответы куда более осмысленные и направленные на исполнение намерений пользователя, чем просто Changelog списком, как это практически всегда делает GPT-5.4 что просто вымораживает
👍2🤯1