vscode codex 插件没有办法触发 fast 模式的请求
不知道有佬是否遇到过在 vscode 的 codex 插件上无法使用 fast 模式的问题。codex 插件本身没有类似 codex app 那样在设置里有 speed 的配置,而是直接读取
我在
但是我在实际的请求头里面没有看到 service_tier: “priority” 这样的内容,正常来说只有请求头包含了这个才会启动 fast 模式,但是 vscode codex 插件并没有,后来我怀疑是不是 vscode codex 插件没有读取到 config.toml,但是我选择的模型以及用的 API key 和 base url 都是正确的。
于是让 codex 简单逆向了之后发现,
更具体地,我读取了
有没有佬友遇到类似的情况,或者有佬有解决方案么
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: イレイナ👁️🗨️)
不知道有佬是否遇到过在 vscode 的 codex 插件上无法使用 fast 模式的问题。codex 插件本身没有类似 codex app 那样在设置里有 speed 的配置,而是直接读取
~/.codex/config.toml。我在
~/.codex/config.toml 配置好了 service_tier = “fast”model = "gpt-5.4"
model_reasoning_effort = "medium"
service_tier = "fast"
...
但是我在实际的请求头里面没有看到 service_tier: “priority” 这样的内容,正常来说只有请求头包含了这个才会启动 fast 模式,但是 vscode codex 插件并没有,后来我怀疑是不是 vscode codex 插件没有读取到 config.toml,但是我选择的模型以及用的 API key 和 base url 都是正确的。
于是让 codex 简单逆向了之后发现,
VS Code webview 到 app-server 这一层的“turn context 覆盖消息”。
我现在能确定的证据链:
- 真正主线程的启动请求来自 CodexWebviewProvider.webview:*
- 线程创建后、首个 UserInput 前,马上出现一条:
OverrideTurnContext { cwd: ..., approval_policy: ..., sandbox_policy: ..., summary: Some(None), service_tier: Some(None), collaboration_mode: ... }
- 这条记录在主线程里稳定复现,不是标题生成线程特有
- 之后实际请求确实按这条覆盖生效:
model=gpt-5.4
effort=Some(Medium)
sandbox_policy=DangerFullAccess
但没有 service_tier
更具体地,我读取了
.codex/logs_1.sqlite,里面存的内容为:id=125351 thread_id=xxx
session_loop{thread_id=xxx}: Submission sub=Submission { id: "xxxx", op: OverrideTurnContext { cwd: Some(""), approval_policy: Some(Never), approvals_reviewer: Some(User), sandbox_policy: Some(DangerFullAccess), windows_sandbox_level: None, model: None, effort: None, summary: Some(None), service_tier: Some(None), collaboration_mode: Some(CollaborationMode { mode: Default, settings: Settings { model: "gpt-5.4", reasoning_effort: Some(Medium), developer_instructions: Some("xxx") } }), personality: None }, trace: None }
有没有佬友遇到类似的情况,或者有佬有解决方案么
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: イレイナ👁️🗨️)
GLM-5-Turbo已向全部GLM Coding Plan开放可用!
🎉之前我们承诺过给 Pro用户月底前可用Turbo,lite用户下个月可用Turbo。提前支持!今天全面可用~~ 🎉
🚀 最近我们收到了不少一线开发者的真实反馈:
不只是龙虾场景,在编程与 Agent 场景中,GLM-5-Turbo 的表现也超出预期——整体体验可以总结为:更快、工具调用更积极、质量更稳定。
🎉 基于这些反馈,我们为 GLM-5-Turbo 争取到了更多资源,目前全量套餐用户(Max、Pro
Lite)均已可用!
Tips:
✅️ GLM-5-Turbo 作为高阶模型,对标 Claude Opus, 调用时将按照 “高峰期 3 倍,非高峰期 2 倍” 系数消耗额度,与GLM-5相同;作为限时福利,GLM-5-Turbo将在非高峰期仅作1倍抵扣持续到4月底。(注:“高峰期”为每日的 14:00~18:00 (UTC+8))
✅️ 切换至调用 GLM-5-Turbo 模型,需在您使用的 Coding Agent 自定义配置中(如 Claude Code 中的 ~/.claude/settings.json),手动修改模型为“glm-5-turbo”
建议在claude code中:
● Opus👉️glm-5/glm-5-turbo(看你需求)
● Sonnet👉️glm-5-turbo
● Haiku👉️glm-4.5-air
(终于加到卡啦!!撒花!!)
16 个帖子 - 15 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 智谱GLM - 庆喜🌷)
🎉之前我们承诺过给 Pro用户月底前可用Turbo,lite用户下个月可用Turbo。提前支持!今天全面可用~~ 🎉
🚀 最近我们收到了不少一线开发者的真实反馈:
不只是龙虾场景,在编程与 Agent 场景中,GLM-5-Turbo 的表现也超出预期——整体体验可以总结为:更快、工具调用更积极、质量更稳定。
🎉 基于这些反馈,我们为 GLM-5-Turbo 争取到了更多资源,目前全量套餐用户(Max、Pro
Lite)均已可用!
Tips:
✅️ GLM-5-Turbo 作为高阶模型,对标 Claude Opus, 调用时将按照 “高峰期 3 倍,非高峰期 2 倍” 系数消耗额度,与GLM-5相同;作为限时福利,GLM-5-Turbo将在非高峰期仅作1倍抵扣持续到4月底。(注:“高峰期”为每日的 14:00~18:00 (UTC+8))
✅️ 切换至调用 GLM-5-Turbo 模型,需在您使用的 Coding Agent 自定义配置中(如 Claude Code 中的 ~/.claude/settings.json),手动修改模型为“glm-5-turbo”
建议在claude code中:
● Opus👉️glm-5/glm-5-turbo(看你需求)
● Sonnet👉️glm-5-turbo
● Haiku👉️glm-4.5-air
(终于加到卡啦!!撒花!!)
16 个帖子 - 15 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 智谱GLM - 庆喜🌷)
发一个 FireCrawl 火爬虫的兑换码
只能在自己账户激活哦,只能用一次:
11-v3-AIENGINEER
兑换方法:
1. 登录 firecrawl.dev
2. 进入Setting → Billing
3. 输入兑换码即可到账
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: mmzz33)
只能在自己账户激活哦,只能用一次:
11-v3-AIENGINEER
兑换方法:
1. 登录 firecrawl.dev
2. 进入Setting → Billing
3. 输入兑换码即可到账
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: mmzz33)
安卓root+chroot版ubuntu+AI的逆向工程
在root过的安卓下用chroot版ubuntu看着codex自己通过sudo命令自动调取各种逆向命令,通过/proc访问安卓文件,自动启动抓取core文件,自动抓包分析,简直太强了,各种工具调用行云流水
3 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: neariot)
在root过的安卓下用chroot版ubuntu看着codex自己通过sudo命令自动调取各种逆向命令,通过/proc访问安卓文件,自动启动抓取core文件,自动抓包分析,简直太强了,各种工具调用行云流水
3 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: neariot)
我发现哈基米有点势利眼
它以为我显存只有16G时:
我说我的显存有96G:
称呼直接从你变成您了:
6 个帖子 - 5 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: Einzieg)
它以为我显存只有16G时:
我说我的显存有96G:
称呼直接从你变成您了:
6 个帖子 - 5 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: Einzieg)
agent第一次渗透成功了,记录一下
点击开始后几分钟,agent成功渗透拿到key了,简单的一步,但也是值得纪念的一步。
Life is short,you need Agent.
感谢muyuan提供的tokens 😋
4 个帖子 - 3 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: mlws1900)
点击开始后几分钟,agent成功渗透拿到key了,简单的一步,但也是值得纪念的一步。
Life is short,you need Agent.
感谢muyuan提供的tokens 😋
4 个帖子 - 3 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: mlws1900)
IDEA AI Assistant 使用Claude code 适配第三方api
看有的大佬还在通过修改dns解析来使用第三方api;自带的openai-compatible又只能使用chat模式,遂出一版教程。
今天升级到idea2026.1,我的acp时好时坏,最后彻底不能用了。然后看GitHub,嘿,你猜怎么着,
然后我就更新,把旧acp的都删了,安装最新的
安装完,ai assistant 配置acp:
然后就是改造了;再次说:opus是真的强大!!!
为了方便大佬们修改,我就直接上js了
acp-agent.zip (14.0 KB)
我是直接读的本地Claude的settings配置。大佬们也可以自行修改
成功图示
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 阿森)
看有的大佬还在通过修改dns解析来使用第三方api;自带的openai-compatible又只能使用chat模式,遂出一版教程。
今天升级到idea2026.1,我的acp时好时坏,最后彻底不能用了。然后看GitHub,嘿,你猜怎么着,
然后我就更新,把旧acp的都删了,安装最新的
npm install -g @agentclientprotocol/claude-agent-acp安装完,ai assistant 配置acp:
{
"agent_servers": {
"Claude Code": {
"command": "claude-agent-acp.cmd"
}
}
}
然后就是改造了;再次说:opus是真的强大!!!
为了方便大佬们修改,我就直接上js了
acp-agent.zip (14.0 KB)
我是直接读的本地Claude的settings配置。大佬们也可以自行修改
成功图示
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 阿森)
同样是Opus 4.6, Antigravity中的Opus与Claude Code中的Opus差距到底有多大?
有人详细对比这个吗?一直有这个疑问
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: wffy)
有人详细对比这个吗?一直有这个疑问
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: wffy)
现在有没有稳定team的渠道?
请教一下佬友们在哪里购买team啊,没那么容易跑路的,反重力额度大砍,我有AI Pro都快用不下去了
3 个帖子 - 3 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 花间半梦)
请教一下佬友们在哪里购买team啊,没那么容易跑路的,反重力额度大砍,我有AI Pro都快用不下去了
3 个帖子 - 3 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 花间半梦)
【NihaoAPI】号池炸了 先用不了了 正在修!
号池已经炸掉了,OpenAI 杀光了,正在修!
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: AirTouch)
号池已经炸掉了,OpenAI 杀光了,正在修!
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: AirTouch)
小白公益站API提问,大家的API都拿去做什么了
目前我只会用codex,Claude写写毕设小代码,进站后创了很多公益站的号,很感谢站内大佬的分享,现在让我有很多模型可以调用,佬们有什么办法能让我一次性调用很多不同的模型吗对话做不同的任务么?例如Gork搜索能力强,一般佬们用什么调用,还有banana的生图,我有用站内分享的一个网站,别人好像都能用,我一直失败。(感觉自己有点流口水)
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 梦寻山兔)
目前我只会用codex,Claude写写毕设小代码,进站后创了很多公益站的号,很感谢站内大佬的分享,现在让我有很多模型可以调用,佬们有什么办法能让我一次性调用很多不同的模型吗对话做不同的任务么?例如Gork搜索能力强,一般佬们用什么调用,还有banana的生图,我有用站内分享的一个网站,别人好像都能用,我一直失败。(感觉自己有点流口水)
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 梦寻山兔)
上海java有没有内推啊家人们
人在上海,学历大专加在职专升本,5年java、会python,有ai项目经验、会vue等等,有没有佬友捞一捞啊,约不到面试啊,全卡在hr了 😭
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 萨菲罗斯)
人在上海,学历大专加在职专升本,5年java、会python,有ai项目经验、会vue等等,有没有佬友捞一捞啊,约不到面试啊,全卡在hr了 😭
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 萨菲罗斯)
codex和claude道德感太强....不帮我写抢预约脚本咋办
如题,平台是海外的,简单油猴就能抢,但是AI不帮忙
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 普锐斯🐎)
如题,平台是海外的,简单油猴就能抢,但是AI不帮忙
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 普锐斯🐎)