求佬友推荐二十五万左右的油车
佬友们,求推荐一款合适的车。我三十多岁,人生第一辆车,想先买一辆油车。因为在北京,没有车牌,周末/节假日出行就租车开。现在有了孩子,就需要买一辆车,长期开了。之所以不选纯电车,也是因为家里人坐电车,容易晕车。
目前梳理了一下我的需求:轿车(想要操控稍微好点)、降噪(比较看重静谧性)、以及座椅的舒适性,车内后排空间不要太小(至少要B级车)。预算25万左右吧,这里说的是落地价。
目前看了沃尔沃的S90,但是看了一些汽车博主说的凸轮轴问题,以及沃尔沃还有什么小的问题,就不敢入手了,同时也是因为S90大概落地价是27w左右。之所以没选s60、xc60,是因为后排空间太紧凑了。
另外看的是雷克萨斯的ES200,以及宝马的325Li。关于雷克萨斯有佬友说钢材缩水,不建议买。
现在越看越纠结,真不知道怎么选了,越看越迷茫。我的想法就是买到一个性价比高的油车,二线品牌的车就行,不会强上BBA,看宝马的325Li,也是大家都说这个车降价多一些。满足我上面基本需求的话,最看重的就是性价比吧。
4 个帖子 - 4 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: zapp)
佬友们,求推荐一款合适的车。我三十多岁,人生第一辆车,想先买一辆油车。因为在北京,没有车牌,周末/节假日出行就租车开。现在有了孩子,就需要买一辆车,长期开了。之所以不选纯电车,也是因为家里人坐电车,容易晕车。
目前梳理了一下我的需求:轿车(想要操控稍微好点)、降噪(比较看重静谧性)、以及座椅的舒适性,车内后排空间不要太小(至少要B级车)。预算25万左右吧,这里说的是落地价。
目前看了沃尔沃的S90,但是看了一些汽车博主说的凸轮轴问题,以及沃尔沃还有什么小的问题,就不敢入手了,同时也是因为S90大概落地价是27w左右。之所以没选s60、xc60,是因为后排空间太紧凑了。
另外看的是雷克萨斯的ES200,以及宝马的325Li。关于雷克萨斯有佬友说钢材缩水,不建议买。
现在越看越纠结,真不知道怎么选了,越看越迷茫。我的想法就是买到一个性价比高的油车,二线品牌的车就行,不会强上BBA,看宝马的325Li,也是大家都说这个车降价多一些。满足我上面基本需求的话,最看重的就是性价比吧。
4 个帖子 - 4 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: zapp)
分享下我这边codex的config.toml配置,大家查漏补缺,可以优化的欢迎提出,codex更新还是挺频繁的
suppress_unstable_features_warning = true
disable_response_storage = true
preferred_auth_method = “apikey”
windows_wsl_setup_acknowledged = true
personality = “pragmatic”
model_provider1 = “custom”
model = “gpt-5.4”
plan_mode_reasoning_effort = “xhigh”
hide_agent_reasoning = true
model_reasoning_effort = “xhigh”
service_tier = “fast”
approval_policy = “never”
check_for_update_on_startup = true
developer_instructions = “请使用中文回答,务必使用清晰详细准确的风格。”
model_supports_reasoning_summaries = true
sandbox_mode = “danger-full-access”
web_search = “cached”
[features]
shell_snapshot = true
skills = true
streamable_shell = true
shell_tool = true
fast_mode = true
collaboration_modes = true
multi_agent = true
features_codex_hooks = true
child_agents_md = true
codex_hooks = true
apply_patch_freeform = true
memories = true
prevent_idle_sleep = true
steer = true
undo = true
unified_exec = true
[model_providers.custom]
name = “custom”
wire_api = “responses”
requires_openai_auth = true
base_url = “***”
[sandbox_workspace_write]
network_access = true
[windows]
sandbox = “elevated”
[analytics]
enabled = false
[feedback]
enabled = false
[notice]
hide_full_access_warning = true
hide_rate_limit_model_nudge = true
[profiles.fast]
approval_policy = “never”
sandbox_mode = “danger-full-access”
[tui]
theme = “dark-neon”
status_line = [“model-with-reasoning”, “context-remaining”, “current-dir”, “project-root”, “five-hour-limit”, “weekly-limit”, “codex-version”]
[shell_environment_policy]
ignore_default_excludes = true
inherit = “all”
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 70AE)
suppress_unstable_features_warning = true
disable_response_storage = true
preferred_auth_method = “apikey”
windows_wsl_setup_acknowledged = true
personality = “pragmatic”
model_provider1 = “custom”
model = “gpt-5.4”
plan_mode_reasoning_effort = “xhigh”
hide_agent_reasoning = true
model_reasoning_effort = “xhigh”
service_tier = “fast”
approval_policy = “never”
check_for_update_on_startup = true
developer_instructions = “请使用中文回答,务必使用清晰详细准确的风格。”
model_supports_reasoning_summaries = true
sandbox_mode = “danger-full-access”
web_search = “cached”
[features]
shell_snapshot = true
skills = true
streamable_shell = true
shell_tool = true
fast_mode = true
collaboration_modes = true
multi_agent = true
features_codex_hooks = true
child_agents_md = true
codex_hooks = true
apply_patch_freeform = true
memories = true
prevent_idle_sleep = true
steer = true
undo = true
unified_exec = true
[model_providers.custom]
name = “custom”
wire_api = “responses”
requires_openai_auth = true
base_url = “***”
[sandbox_workspace_write]
network_access = true
[windows]
sandbox = “elevated”
[analytics]
enabled = false
[feedback]
enabled = false
[notice]
hide_full_access_warning = true
hide_rate_limit_model_nudge = true
[profiles.fast]
approval_policy = “never”
sandbox_mode = “danger-full-access”
[tui]
theme = “dark-neon”
status_line = [“model-with-reasoning”, “context-remaining”, “current-dir”, “project-root”, “five-hour-limit”, “weekly-limit”, “codex-version”]
[shell_environment_policy]
ignore_default_excludes = true
inherit = “all”
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 70AE)
【攻略】解决 Codex 在 VSCode/Cursor Extension Remote SSH 下登录报 403:Country, region, or territory not supported
最近自己和身边的人都遇到在vscode里使用codex插件(不是cli)无法在服务器上使用,发一个貌似可复现的解决方案,给遇到同样问题的人参考。
问题现象
我本地使用 Codex / Cursor 一切正常,远程服务器也能正常
Sign-in could not be completed
Token exchange failed: token endpoint returned status 403 Forbidden: Country, region, or territory not supported
按照github issue中部分解决方法,尝试先在本地或者cli中登录然后复制auth.json到.codex文件夹,能够进入登录态,但是对话会显示 timeout waiting for child process to exit
最终解决思路
让远程扩展通过 SSH 反向端口转发,使用本地的代理出口,而不是直接走远程服务器自己的网络出口。
预先准备:
1. 这里建议尽可能清除.codex中原有的auth等认证文件,卸载重装原有的插件等,防止环境冲突
2. VPN开启TUN模式,端口7897(可根据自己的端口号修改)
第一步:在本地 Cursor / VS Code 设置代理
打开本地设置,方法是shift+ctrl+p,输入Preferences: Open User Settings (JSON)
在本地设置里配置:
第二步:在远程设置里启用“使用本地代理配置”
打开远程设置,方法是shift+ctrl+p,输入Preferences: Open Remote Settings (JSON)
连接到 Remote SSH 之后,打开远程设置,加入:
第三步:修改 SSH 配置,加入正向反向端口转发
在你的 SSH config 里加入:
其中1455端口是codex认证消息返回走的端口,数值不能修改
第四步:彻底断开并重新连接 Remote SSH
第五步:重新点击 Codex 插件登录
由于时间有限,没有去探究最小改动策略,因此上面的改动可能存在冗余操作,也不一定对所有人都有效,佬友们可以根据自己的情况进行尝试,希望能帮助到大家。
2 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: x9_ovo)
最近自己和身边的人都遇到在vscode里使用codex插件(不是cli)无法在服务器上使用,发一个貌似可复现的解决方案,给遇到同样问题的人参考。
问题现象
我本地使用 Codex / Cursor 一切正常,远程服务器也能正常
curl 到 OpenAI,CLI 版本也可以正常对话,但只要在 Remote SSH 窗口里使用插件版登录,就会报错:Sign-in could not be completed
Token exchange failed: token endpoint returned status 403 Forbidden: Country, region, or territory not supported
按照github issue中部分解决方法,尝试先在本地或者cli中登录然后复制auth.json到.codex文件夹,能够进入登录态,但是对话会显示 timeout waiting for child process to exit
最终解决思路
让远程扩展通过 SSH 反向端口转发,使用本地的代理出口,而不是直接走远程服务器自己的网络出口。
预先准备:
1. 这里建议尽可能清除.codex中原有的auth等认证文件,卸载重装原有的插件等,防止环境冲突
2. VPN开启TUN模式,端口7897(可根据自己的端口号修改)
第一步:在本地 Cursor / VS Code 设置代理
打开本地设置,方法是shift+ctrl+p,输入Preferences: Open User Settings (JSON)
在本地设置里配置:
{
"http.proxy": "http://127.0.0.1:7897",
"http.proxySupport": "on"
}
第二步:在远程设置里启用“使用本地代理配置”
打开远程设置,方法是shift+ctrl+p,输入Preferences: Open Remote Settings (JSON)
连接到 Remote SSH 之后,打开远程设置,加入:
{
"http.useLocalProxyConfiguration": true
}
第三步:修改 SSH 配置,加入正向反向端口转发
在你的 SSH config 里加入:
Host 你的服务器名
HostName 你的服务器IP
Port 你的端口
User 你的用户名
RemoteForward 7897 127.0.0.1:7897
LocalForward 1455 127.0.0.1:1455
其中1455端口是codex认证消息返回走的端口,数值不能修改
第四步:彻底断开并重新连接 Remote SSH
第五步:重新点击 Codex 插件登录
由于时间有限,没有去探究最小改动策略,因此上面的改动可能存在冗余操作,也不一定对所有人都有效,佬友们可以根据自己的情况进行尝试,希望能帮助到大家。
2 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: x9_ovo)
求大佬怎么可以解析出来视频号直播的url地址
视频号直播付费直播间 电脑上都打不开 只能手机上打开 求大佬
有没有人给说下怎么可以把他的直播间内容给录下来呀
3 个帖子 - 3 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: buma✅)
视频号直播付费直播间 电脑上都打不开 只能手机上打开 求大佬
有没有人给说下怎么可以把他的直播间内容给录下来呀
3 个帖子 - 3 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: buma✅)
最近连遭几起账户泄露事件,诸位佬是如何舒服管理密码的。
最近连遭几起账户泄露事件,某几个网站两天没登莫名被禁言,账户还有一些非我操作的痕迹,某网站还看到了非我活动的ip。
诸位佬是如何舒服管理密码的,目前我就是bitwarden
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: zhangkay)
最近连遭几起账户泄露事件,某几个网站两天没登莫名被禁言,账户还有一些非我操作的痕迹,某网站还看到了非我活动的ip。
诸位佬是如何舒服管理密码的,目前我就是bitwarden
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: zhangkay)
【开源】闲着无聊让 ai 做了个图片压缩网站【附带提示词】
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
● 我的帖子已经打上 开源推广 标签: 是
● 我的开源项目完整开源,无未开源部分: 是
● 我的开源项目已链接认可 LINUX DO 社区: 是
● 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
● 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
----------------------
开源地址
部署在cloudflare Page 体验地址
开发流程:
● 在网页上让 ai 生成前端 html 页面
● 后续用 codex 、Antigravity 等基于 HTML开发完善
提示词 (点击了解更多详细信息)
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 秦牧)
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
● 我的帖子已经打上 开源推广 标签: 是
● 我的开源项目完整开源,无未开源部分: 是
● 我的开源项目已链接认可 LINUX DO 社区: 是
● 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
● 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
----------------------
开源地址
部署在cloudflare Page 体验地址
开发流程:
● 在网页上让 ai 生成前端 html 页面
● 后续用 codex 、Antigravity 等基于 HTML开发完善
提示词 (点击了解更多详细信息)
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 秦牧)
codex对ui的理解实在糟糕,我都想上qwen3.6plus来救救它了
给了截图,硬是要气疯我,完全不搭界,还挺会自圆其说 :distorted_face:
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: dianS)
给了截图,硬是要气疯我,完全不搭界,还挺会自圆其说 :distorted_face:
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: dianS)
[Greenhub To Clash] 将 Greenhub 节点转换成 Clash 节点
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
● 我的帖子已经打上 开源推广 标签: 是
● 我的开源项目完整开源,无未开源部分: 是
● 我的开源项目已链接认可 LINUX DO 社区: 是
● 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
● 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
GreenhubToClash
将 Greenhub 转换成 Clash 可以导入的节点
在线订阅网址(节点显示数量因作者家里网络而异): clash.theconsole.top/greenhub/v2ray.yaml
功能特点
● 不仅将免费的 Greenhub 节点转换成了 Clash 节点 (同时也将付费的 Greenhub 节点转换成了 Clash 节点)
● 由于转换成了 Clash 节点, 因此可以很轻松的在不同的设备使用节点
● 由于 Greenhub, 因此节点流量是不限的
缺点
● 稳定性不好(有时候可能会没有节点)
安装方法
你需要一个 python 环境 ( 比如 Python 3.10.19 )
然后执行代码安装依赖:
之后直接启动:
如果不出意外的话那么你也许可以通过 http://127.0.0.1:8833/greenhub/v2ray.yaml 来访问到配置(需等待所有节点测试完毕)
屏幕截图
项目地址: GitHub - daijunhaoMinecraft/GreenhubToClash: 将Greenhub节点转换成Clash节点 · GitHub
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: daijunhao)
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
● 我的帖子已经打上 开源推广 标签: 是
● 我的开源项目完整开源,无未开源部分: 是
● 我的开源项目已链接认可 LINUX DO 社区: 是
● 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
● 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
GreenhubToClash
将 Greenhub 转换成 Clash 可以导入的节点
在线订阅网址(节点显示数量因作者家里网络而异): clash.theconsole.top/greenhub/v2ray.yaml
功能特点
● 不仅将免费的 Greenhub 节点转换成了 Clash 节点 (同时也将付费的 Greenhub 节点转换成了 Clash 节点)
● 由于转换成了 Clash 节点, 因此可以很轻松的在不同的设备使用节点
● 由于 Greenhub, 因此节点流量是不限的
缺点
● 稳定性不好(有时候可能会没有节点)
安装方法
你需要一个 python 环境 ( 比如 Python 3.10.19 )
然后执行代码安装依赖:
pip install requirements.txt
之后直接启动:
python FastAPI.py
如果不出意外的话那么你也许可以通过 http://127.0.0.1:8833/greenhub/v2ray.yaml 来访问到配置(需等待所有节点测试完毕)
屏幕截图
项目地址: GitHub - daijunhaoMinecraft/GreenhubToClash: 将Greenhub节点转换成Clash节点 · GitHub
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: daijunhao)
各位佬,我也来分享一下机场订阅2T,使劲蹬
https://zhuzhuzhu.whtjdasha.com/dazhutou/dc41c98db736fcdabbdc4927b68be2ca
还望各位佬,点赞评论一下,争取尽快升2级 🤓
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 果灯)
https://zhuzhuzhu.whtjdasha.com/dazhutou/dc41c98db736fcdabbdc4927b68be2ca
还望各位佬,点赞评论一下,争取尽快升2级 🤓
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 果灯)
oh-my-opencode如何卸载
我之前安装了这个软件配置完毕了每个agent的模型后,这边openai有了新的模型它好像没有自动更新配置,我是不是需要把这个包完整卸载掉才能重新像第一次安装那样选择配置(第一次安装选择了claude后续被禁掉了一部分功能)
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: WillAppear)
我之前安装了这个软件配置完毕了每个agent的模型后,这边openai有了新的模型它好像没有自动更新配置,我是不是需要把这个包完整卸载掉才能重新像第一次安装那样选择配置(第一次安装选择了claude后续被禁掉了一部分功能)
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: WillAppear)
和claude说过自己是中国的,结果给我提示了
这应该没事吧..我让他给我一些不用梯子的工具,然后就给我这个提示了
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 飞飞鱼)
这应该没事吧..我让他给我一些不用梯子的工具,然后就给我这个提示了
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 飞飞鱼)
警惕:5.4用了错误的脚本,形同与删库
🥲
让他增量编译,结果直接运行旧的脚本进行了惨无人道的:
全量编译(脚本第一步是,删除旧的源码产物)
发现时为时已晚了啊
幸亏是晚上,可以开着编译挂机回家睡觉
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: huo0)
🥲
让他增量编译,结果直接运行旧的脚本进行了惨无人道的:
全量编译(脚本第一步是,删除旧的源码产物)
发现时为时已晚了啊
幸亏是晚上,可以开着编译挂机回家睡觉
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: huo0)
我的omc为什么不会调用haiku去读代码?
全在用opus,用量变得很大!有佬知道是需要啥配置吗?
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: langchou)
全在用opus,用量变得很大!有佬知道是需要啥配置吗?
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: langchou)
team无限用?
问下佬们 我自己注册的paypal绑定储蓄卡,然后用0元开的team,我发现可以添加10个team子账号,那子账号额度一天都给瞪光了以后移除再加更多的子账号这不是无限循环起来了么?问下佬们有这么玩的么?
12 个帖子 - 6 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 姚)
问下佬们 我自己注册的paypal绑定储蓄卡,然后用0元开的team,我发现可以添加10个team子账号,那子账号额度一天都给瞪光了以后移除再加更多的子账号这不是无限循环起来了么?问下佬们有这么玩的么?
12 个帖子 - 6 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 姚)
请教佬们有无类似mammouth.ai的模型全家桶网站
Mammouth AI
Stay at the top of AI
The best GenAI models in one subscription. Access GPT, Claude, Gemini, Mistral, Llama, Nano Banana, GPT-image, FLUX, and stay up to date with AI.
他这是10基础版,有没有类似的全家桶网站,能有team功能一起用就更好了
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: LGG G)
Mammouth AI
Stay at the top of AI
The best GenAI models in one subscription. Access GPT, Claude, Gemini, Mistral, Llama, Nano Banana, GPT-image, FLUX, and stay up to date with AI.
他这是10基础版,有没有类似的全家桶网站,能有team功能一起用就更好了
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: LGG G)
关于prompt,context,以及harness的一点想法
之前做过一些AI应用的项目。踩过一些坑。最近整理了一些想法。贴出来跟大家交流一下。
过去几年,AI 应用工程的关注重点发生了一次非常清晰的迁移。早期开发者最关心的是,怎样写 prompt,才能让模型更稳定地理解指令、输出正确格式、减少跑题和幻觉。随后,随着长上下文、检索增强、工具调用和多轮状态管理逐渐成熟,问题转向了另一个方向:怎样为模型提供它在当前任务中真正需要的信息。再往前一步,当模型开始具备跨步骤执行复杂任务的能力,一个更深层的挑战浮现出来:即使模型已经理解任务,也拿到了足够的信息,怎样才能让它持续、可靠、可验证地把工作做完。
如果把这三个阶段放在一起看,就会发现它们并不是零散技巧的更替,而是 AI 应用工程的三层递进问题。第一层是 Prompt Engineering,解决的是如何表达意图;第二层是 Context Engineering,解决的是如何供给信息;第三层是 Harness Engineering,解决的是如何约束行为、验证结果并维持系统可靠性。它们共同构成了 AI Agent 从“能回答”走向“能工作”的一条演化路径。
Prompt关心的是接口,Context关心的是认知环境,Harness关心的是系统约束。理解这三层之间的关系,不仅能帮助我们解释行业讨论为何会从“提示词”转向“上下文”,再进一步转向“agent harness”,也能帮助团队在实践中更准确地判断:一个问题究竟应该在 prompt 层解决,在 context 层解决,还是必须上升到 harness 层解决。
Prompt Engineering 是最早出现、也最容易被大家感知的一层。原因很简单:在大模型开放 API 的早期,开发者最直接、往往也是唯一能控制的变量,就是输入给模型的那段文本。无论是最初的文本补全接口,还是后来的对话式界面,开发者首先面对的问题都是“怎么说,模型才更容易照着做”。因此,Prompt Engineering 的兴起并不神秘,它几乎是由交互形态本身决定的。模型能力尚不稳定时,表达方式自然成为第一控制杠杆。
Prompt 的作用,就是在人类意图与模型生成行为之间建立一个尽可能清晰、低歧义、可重复的接口。角色设定、示例提供、格式约束、分步指令,这些常见技术本质上都在做同一件事:让模型更准确地映射人的意图。但 Prompt Engineering 的边界也始终存在。它擅长解决的是“怎么表达”带来的偏差,却无法凭空补齐模型没有看到的信息,更无法独立解决跨轮次记忆、多工具协作、长任务验证和系统级恢复这些问题。当任务复杂度提升到一定程度,仅靠 prompt 写得更好,往往已经不够。
这正是 Context Engineering 兴起的背景。随着模型的上下文窗口扩大、工具调用能力增强、RAG 和各类记忆机制逐渐成熟,开发者开始越来越明显地感受到:很多失败并不是因为 prompt 写得不够好,而是因为模型没有在当下看到正确的信息。它可能不知道最新政策,不了解企业内部知识,不记得前几轮对话已经确认的决定,也可能虽然拿到了信息,却因为注入方式混乱而无法有效使用。到了这个阶段,问题的重心就从“如何提问”转向了“模型该看到什么”。
Context Engineering 的核心,不是简单地往上下文里塞更多内容,而是系统性地设计模型的认知环境。检索哪些材料、保留哪些历史、怎样压缩长文档、如何组织工具描述、哪些状态需要长期持久化、哪些信息应该在当前轮动态注入,这些都属于 Context Engineering 的范畴。它解决的是信息供给问题:在上下文窗口有限的前提下,如何在正确的时刻把正确的信息放进模型可见范围内。
这一层之所以重要,是因为大模型的很多“不会”,本质上不是能力缺失,而是信息缺席。模型在很多任务中并非不具备推理能力,而是推理所依赖的事实、状态和材料没有被正确供给。随着 AI 应用从聊天问答走向文档助手、代码代理、企业知识系统和工具增强型 agent,Context Engineering 逐渐从辅助环节变成主导环节,也就不难理解了。
但即便如此,一个拿到了正确信息的agent,仍可能在长任务中偏离目标,可能在没有验证结果的情况下过早宣布完成,可能持续复制代码库中的坏模式,可能在多次操作中悄悄积累错误,最终把本来局部可控的问题放大成系统性风险。到了这里,问题已经不再是信息供给,而是行为约束和系统可靠性。
Harness Engineering 之所以成为新的焦点,正是因为 agent 的失败模式已经超出了 prompt 和 context 两层能够单独解决的范围。Harness 所指向的,不是更多提示词,也不是更大的上下文,而是一整套包裹模型工作的外部系统:项目规则、状态文件、架构约束、自动化测试、静态检查、任务分解、反馈回路、回滚机制、子智能体编排,以及让错误能被发现、被反馈、被修正的全部工程设施。
如果说 Prompt 是告诉模型你要什么,Context 是让模型看到完成任务所需的信息,那么 Harness 做的就是让模型在真实系统里以可接受的方式把事情做成。它不是替代前两者,而是在前两者之上增加了一层对行为的调控。这个变化之所以关键,是因为一旦模型开始长时间自主工作,“回答对一个问题”就不再是核心标准,“能否持续在边界内完成一项任务”才是。
这也是为什么越来越多关于 agent 的高价值讨论,不再把注意力集中在单次输出质量,而是开始关注智能体的工作环境。没有测试的 agent 会自信地交付未验证结果,没有状态管理的 agent 会在跨会话中失忆,没有结构约束的 agent 会在代码库里不断扩散局部最优,没有反馈回路的 agent 即使犯了同一种错也会反复重演。换句话说,agent 的问题越来越像软件工程问题,而不再只是模型调用问题。
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: babyfacedassassin)
之前做过一些AI应用的项目。踩过一些坑。最近整理了一些想法。贴出来跟大家交流一下。
过去几年,AI 应用工程的关注重点发生了一次非常清晰的迁移。早期开发者最关心的是,怎样写 prompt,才能让模型更稳定地理解指令、输出正确格式、减少跑题和幻觉。随后,随着长上下文、检索增强、工具调用和多轮状态管理逐渐成熟,问题转向了另一个方向:怎样为模型提供它在当前任务中真正需要的信息。再往前一步,当模型开始具备跨步骤执行复杂任务的能力,一个更深层的挑战浮现出来:即使模型已经理解任务,也拿到了足够的信息,怎样才能让它持续、可靠、可验证地把工作做完。
如果把这三个阶段放在一起看,就会发现它们并不是零散技巧的更替,而是 AI 应用工程的三层递进问题。第一层是 Prompt Engineering,解决的是如何表达意图;第二层是 Context Engineering,解决的是如何供给信息;第三层是 Harness Engineering,解决的是如何约束行为、验证结果并维持系统可靠性。它们共同构成了 AI Agent 从“能回答”走向“能工作”的一条演化路径。
Prompt关心的是接口,Context关心的是认知环境,Harness关心的是系统约束。理解这三层之间的关系,不仅能帮助我们解释行业讨论为何会从“提示词”转向“上下文”,再进一步转向“agent harness”,也能帮助团队在实践中更准确地判断:一个问题究竟应该在 prompt 层解决,在 context 层解决,还是必须上升到 harness 层解决。
Prompt Engineering 是最早出现、也最容易被大家感知的一层。原因很简单:在大模型开放 API 的早期,开发者最直接、往往也是唯一能控制的变量,就是输入给模型的那段文本。无论是最初的文本补全接口,还是后来的对话式界面,开发者首先面对的问题都是“怎么说,模型才更容易照着做”。因此,Prompt Engineering 的兴起并不神秘,它几乎是由交互形态本身决定的。模型能力尚不稳定时,表达方式自然成为第一控制杠杆。
Prompt 的作用,就是在人类意图与模型生成行为之间建立一个尽可能清晰、低歧义、可重复的接口。角色设定、示例提供、格式约束、分步指令,这些常见技术本质上都在做同一件事:让模型更准确地映射人的意图。但 Prompt Engineering 的边界也始终存在。它擅长解决的是“怎么表达”带来的偏差,却无法凭空补齐模型没有看到的信息,更无法独立解决跨轮次记忆、多工具协作、长任务验证和系统级恢复这些问题。当任务复杂度提升到一定程度,仅靠 prompt 写得更好,往往已经不够。
这正是 Context Engineering 兴起的背景。随着模型的上下文窗口扩大、工具调用能力增强、RAG 和各类记忆机制逐渐成熟,开发者开始越来越明显地感受到:很多失败并不是因为 prompt 写得不够好,而是因为模型没有在当下看到正确的信息。它可能不知道最新政策,不了解企业内部知识,不记得前几轮对话已经确认的决定,也可能虽然拿到了信息,却因为注入方式混乱而无法有效使用。到了这个阶段,问题的重心就从“如何提问”转向了“模型该看到什么”。
Context Engineering 的核心,不是简单地往上下文里塞更多内容,而是系统性地设计模型的认知环境。检索哪些材料、保留哪些历史、怎样压缩长文档、如何组织工具描述、哪些状态需要长期持久化、哪些信息应该在当前轮动态注入,这些都属于 Context Engineering 的范畴。它解决的是信息供给问题:在上下文窗口有限的前提下,如何在正确的时刻把正确的信息放进模型可见范围内。
这一层之所以重要,是因为大模型的很多“不会”,本质上不是能力缺失,而是信息缺席。模型在很多任务中并非不具备推理能力,而是推理所依赖的事实、状态和材料没有被正确供给。随着 AI 应用从聊天问答走向文档助手、代码代理、企业知识系统和工具增强型 agent,Context Engineering 逐渐从辅助环节变成主导环节,也就不难理解了。
但即便如此,一个拿到了正确信息的agent,仍可能在长任务中偏离目标,可能在没有验证结果的情况下过早宣布完成,可能持续复制代码库中的坏模式,可能在多次操作中悄悄积累错误,最终把本来局部可控的问题放大成系统性风险。到了这里,问题已经不再是信息供给,而是行为约束和系统可靠性。
Harness Engineering 之所以成为新的焦点,正是因为 agent 的失败模式已经超出了 prompt 和 context 两层能够单独解决的范围。Harness 所指向的,不是更多提示词,也不是更大的上下文,而是一整套包裹模型工作的外部系统:项目规则、状态文件、架构约束、自动化测试、静态检查、任务分解、反馈回路、回滚机制、子智能体编排,以及让错误能被发现、被反馈、被修正的全部工程设施。
如果说 Prompt 是告诉模型你要什么,Context 是让模型看到完成任务所需的信息,那么 Harness 做的就是让模型在真实系统里以可接受的方式把事情做成。它不是替代前两者,而是在前两者之上增加了一层对行为的调控。这个变化之所以关键,是因为一旦模型开始长时间自主工作,“回答对一个问题”就不再是核心标准,“能否持续在边界内完成一项任务”才是。
这也是为什么越来越多关于 agent 的高价值讨论,不再把注意力集中在单次输出质量,而是开始关注智能体的工作环境。没有测试的 agent 会自信地交付未验证结果,没有状态管理的 agent 会在跨会话中失忆,没有结构约束的 agent 会在代码库里不断扩散局部最优,没有反馈回路的 agent 即使犯了同一种错也会反复重演。换句话说,agent 的问题越来越像软件工程问题,而不再只是模型调用问题。
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: babyfacedassassin)
传统Java开发,不知道在AI怎么办。
从事java大概10年了,对Spring那一套、还有Java EE规范还是熟悉,现在总感觉有一天会被淘汰。硬要混,其实也能混下去,但是不想被时代淘汰。
看了看BOSS,也看了L站帖子,说实话,感觉往AI靠拢,就还有前途;但就是不知道怎么学、学什么能工资高点。
也不知道现在热门是做什么的?做agent?还是训练模型?搞蒸馏?
训练模型、蒸馏,我觉得学习成本太高了。苹果的那什么MINI3,一台要5万多。
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 7he-milo)
从事java大概10年了,对Spring那一套、还有Java EE规范还是熟悉,现在总感觉有一天会被淘汰。硬要混,其实也能混下去,但是不想被时代淘汰。
看了看BOSS,也看了L站帖子,说实话,感觉往AI靠拢,就还有前途;但就是不知道怎么学、学什么能工资高点。
也不知道现在热门是做什么的?做agent?还是训练模型?搞蒸馏?
训练模型、蒸馏,我觉得学习成本太高了。苹果的那什么MINI3,一台要5万多。
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 7he-milo)
老黄即将上线GLM-5.1
该 API 将于 2026 年 4 月 20 日被弃用。2026 年 4 月 20 日之后将不再支持。请改用 z-ai/glm-5.1。欲了解更多信息,请访问我们的 API 参考页面。
2 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 北极之大)
该 API 将于 2026 年 4 月 20 日被弃用。2026 年 4 月 20 日之后将不再支持。请改用 z-ai/glm-5.1。欲了解更多信息,请访问我们的 API 参考页面。
2 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 北极之大)
分析一个本地运行 CPA 服务后,无法直接登陆 Codex 客户端的问题 http://localhost:1455/auth/callback?code
环境 macOS,本地 Docker 运行 CPA 容器。
今天 Free token 用完了,开了个 Plus 号,准备直接登录账号使用。
输入账号验证码确认都没问题,最后一步跳转到此页面:
正常这里会唤起 Codex 客户端完成授权,但是没有。经排查是 1455 端口被占用。
解决办法:退出 CPA 容器,释放 1455 端口。
参考: 分享今天windows登录Codex时遇到一个坑及解决方法,http://localhost:1455/auth/callback?code=ac_Tu.....,无法访问此网站 localhost 拒绝了我们的连接请求
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 无糖酸奶)
环境 macOS,本地 Docker 运行 CPA 容器。
今天 Free token 用完了,开了个 Plus 号,准备直接登录账号使用。
输入账号验证码确认都没问题,最后一步跳转到此页面:
http://localhost:1455/auth/callback?code=...,提示:页面显示无法访问此网站 localhost 拒绝了我们的连接正常这里会唤起 Codex 客户端完成授权,但是没有。经排查是 1455 端口被占用。
解决办法:退出 CPA 容器,释放 1455 端口。
$ lsof -i :1455
COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
OrbStack 7876 yz 84u IPv4 0x550d075199c69765 0t0 TCP *:esl-lm (LISTEN)
OrbStack 7876 yz 112u IPv6 0xb8730682aa89d6c5 0t0 TCP *:esl-lm (LISTEN)
OrbStack 7876 yz 120u IPv6 0x38dedb38be5d2f05 0t0 TCP localhost:esl-lm->localhost:54588 (FIN_WAIT_2)
codex 95550 yz 25u IPv4 0x8f4b80db84217eec 0t0 TCP localhost:esl-lm (LISTEN)
参考: 分享今天windows登录Codex时遇到一个坑及解决方法,http://localhost:1455/auth/callback?code=ac_Tu.....,无法访问此网站 localhost 拒绝了我们的连接请求
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 无糖酸奶)