LinuxDo 新帖推送
180 subscribers
249K photos
310K links
Download Telegram
标题: 这样是否能在Deepseek官方网页版实现接近Max的思考深度?
作者: #马凌曙
板块: #开发调优
编号: 2053041
帖子: https://linux.do/t/topic/2053041
时间: 2026-04-25 13:47:15
摘要:
忘了从哪看到,Deepseek网页版的深度思考的深度是High?
但是官方的技术报告里提到,Max思考深度使用了特定提示词。

(翻译)

(翻译)
提示词:

Reasoning Effort: Absolute maximum with no shortcuts permitted.
You MUST be very thorough in your thinking and comprehensively decompose the problem to resolve the root cause, rigorously stress-testing your logic against all potential paths, edge cases, and adversarial scenarios.
Explicitly write out your entire deliberation process, documenting every intermediate step, considered alternative, and rejected hypothesis to ensure absolutely no assumption is left unchecked.

不知道使用这段提示词后能否可以实现接近Max的思考深度?
标题: 谷歌怎么最近这么安静?
作者: #argentum
板块: #搞七捻三
编号: 2053042
帖子: https://linux.do/t/topic/2053042
时间: 2026-04-25 13:47:21
摘要:
近一周模型大爆发,御三家中a/更新了Opus4.7,openAI更新了gpt5.5和image2,国模中月之暗面更新了Kimi2.6,还有万众瞩目的DeepSeekV4,就连老马都端出来了一个grok4.3,那谷歌最近在干嘛?下一代Gemini怎么连一点小道消息都没有?
标题: 我的Claude账号被封了
作者: #Eric Terminal
板块: #搞七捻三
编号: 2053043
帖子: https://linux.do/t/topic/2053043
时间: 2026-04-25 13:47:29
摘要:
众所周知Claude封号严重,然后我一直用的小心翼翼的
原生家宽,污染度21,然后注册的时候还用美国实体物理手机卡接码进的
浏览器把WebRTC这些识别真IP的也挡掉了
Claude其实用的不是很多,主要是Web拿来写点材料,因为Claude文风比较好一点
昨晚拿来给Apple ER团队写信了,用着用着。。。不给请求了,但是我的历史对话又可以看到

我当时很纳闷,我又没加什么组织,做完很困直接睡了,今早起来还这样,就准备着手解决下
然后我就在垃圾邮件里面找到了A\发的

我去。。。这也能封的吗?我还以为发现我是中国人了。。。结果告诉我把我识别成小孩了
猜猜可能是全站最扯最荒谬的封号理由了
标题: plus 号池到哪里买
作者: #fearful
板块: #搞七捻三
编号: 2053045
帖子: https://linux.do/t/topic/2053045
时间: 2026-04-25 13:48:11
摘要:
plus 号池到哪里买,plus 号池到哪里买,求助各位大佬
标题: [开源推广] 分享一个 GPT-Image-2 API 调用 Skill
作者: #小文
板块: #搞七捻三
编号: 2053050
帖子: https://linux.do/t/topic/2053050
时间: 2026-04-25 13:48:38
摘要:
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:

我的帖子已经打上 开源推广 标签: 是
我的开源项目完整开源,无未开源部分: 是
我的开源项目已链接认可 LINUX DO 社区: 是
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是

以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出

项目地址



github.com






GitHub - XiaoAI1024/gpt-image-2-api-skill

通过在 GitHub 上创建帐户来为 XiaoAI1024/gpt-image-2-api-skill 开发做出贡献。












项目简介
最近在调 GPT-Image-2 图片接口时,经常要重复写一些固定调用模板,比如:

/v1/images/generations 生图请求
/v1/images/edits 图片编辑请求
response_format=b64_json 的图片保存方式
.env.example 配置
Shell / Docker Compose / Node.js 调用示例

所以整理了一个 Codex Skill,用来快速生成 GPT-Image-2 相关调用示例。
这个项目不是代理服务,也不提供任何账号、Key 或额度,只是一个调用模板 Skill。
主要内容
目前包含:

GPT-Image-2 生图 curl 示例
图片编辑接口示例
b64_json 解码保存为本地图片
response_format=url 说明
.env.example
Shell env 配置示例
Docker Compose env 示例
Node.js 调用示例
常见排查说明

适合谁用
可能适合这些场景:

想快速测试 gpt-image-2 图片生成接口
经常要写 OpenAI-compatible 图片接口 curl
想把返回的 b64_json 保存成本地图片
需要一份可复用 .env.example
想把图片接口调用方式固化成 Codex Skill
标题: GPT-5.5 / Codex 上下文相关问题
作者: #neteroster
板块: #开发调优
编号: 2053051
帖子: https://linux.do/t/topic/2053051
时间: 2026-04-25 13:48:46
摘要:
站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下:
首先,我们要知道,gpt-5.5 满血版是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。
这个 400K 上下文实际上是模型上下文,也就是输入+输出模型最大能处理的上下文,并不是单纯的最大输入窗口。具体来说,codex 给输入分配了约 260k,给输出分配了 128k,最后剩余一点用作上下文压缩的冗余。
所以很多人看到的大概 260-270k 上下文就是这么来的。
不过实际上,之前就有人认为:输出窗口分配 128k 太大了,完全没必要,实际上这是可以改的,目前的具体做法大概:

修改上下文 (click for more details)
例如改成 350k,但是这样输出超过50k左右就会导致截断、失败,这个需要自行权衡。
其他问题

为什么 codex 里面 5.5 的上下文反而小于 5.4:大概率是成本考虑,5.5 的规模是要比 5.4 大的,推理成本更高,开放长上下文会大幅增加推理成本
会提高吗:按照 Codex 团队负责人,会的( https://x.com/thsottiaux/status/2047436878350307482 ),但不知道什么时候、提高到多少
实际上目前的 5.5 上下文和 5.2/5.3/5.4(不手动修改1M)完全一样,如果前面你用得不错 5.5 也不会有什么问题
标题: sub2api使用5.5进行compact步骤
作者: #GwIhViEte
板块: #开发调优
编号: 2053052
帖子: https://linux.do/t/topic/2053052
时间: 2026-04-25 13:49:20
摘要:
根据GPT5.5在触发上下文压缩的时候报错404了,这个是OpenAI上游的问题还是sub2的问题呢? · Issue #1865 · Wei-Shaw/sub2api · GitHub 这个issue的评论,把codex_cli_rs/0.104.0改成codex_cli_rs/0.124.0 及以上可以修复使用5.5进行compact报404找不到模型的问题。让GPT写了以下脚本进行一键修复。

如果你是通过脚本安装的sub2api可以尝试一下这个办法
修复完自己测试是可以用5.5进行compact的

# 安装 strings 所需工具,如果已经有会跳过
if ! command -v strings >/dev/null 2>&1; then
if command -v apt >/dev/null 2>&1; then
sudo apt update
sudo apt install -y binutils
elif command -v yum >/dev/null 2>&1; then
sudo yum install -y binutils
fi
fi

# 创建 Sub2API Codex UA/version 自动补丁脚本
sudo tee /usr/local/sbin/sub2api-patch-codex-ua.sh >/dev/null <<'EOF'
#!/usr/bin/env bash
set -euo pipefail

BIN="${1:-/opt/sub2api/sub2api}"

FROM_UA="codex_cli_rs/0.104.0"
TO_UA="${SUB2API_CODEX_UA:-codex_cli_rs/0.125.0}"

FROM_VER="0.104.0"
TO_VER="${SUB2API_CODEX_VERSION:-0.125.0}"

if [ ! -f "$BIN" ]; then
echo "[sub2api-patch] bin
标题: 我给CLIProxyAPI 做了个菜单栏版额度仪表盘
作者: #Milos
板块: #开发调优
编号: 2053086
帖子: https://linux.do/t/topic/2053086
时间: 2026-04-25 13:54:43
摘要:
一个给CLIProxyAPI配套的macOS菜单栏额度面板。它能把 Codex 凭证额度直接显示在菜单栏,并用卡片形式展示每个账号的剩余额度、刷新时间和低额度告警,支持设置自动刷新间隔,并显示倒计时,适合我这种额度焦虑的人
标题: codexfreebug号
作者: #yi R
板块: #开发调优
编号: 2053098
帖子: https://linux.do/t/topic/2053098
时间: 2026-04-25 13:55:40
摘要:
现在又有了吗?我这里使用的额度都都用光了,都还能正常调用,而且是九个bug号,两个号1%的额度,其他号都是0,还是能正常调用,nb
标题: L站发现宝藏,应该还有好些人不知道的吧,贴出寻宝图~
作者: #fuckthefuckingworld
板块: #搞七捻三
编号: 2053103
帖子: https://linux.do/t/topic/2053103
时间: 2026-04-25 13:56:38
摘要:
还隐藏着一个跳蚤市场,一直都不知道啊,里面好多宝藏
查看一番之后,才找到路径
第一步,在左侧栏找到更多,打开群组

第二步,在群组里面,选择加入交易分组,然后跳蚤市场就出现了

我是刚知道,赶紧去进货。。
标题: 在AI时代下,我看网上现在的风气好像是,后端学前端,前端学后端,产品兼UI,不懂编程的人也能依靠烧token做独立产品
作者: #超人不会飞
板块: #搞七捻三
编号: 2053113
帖子: https://linux.do/t/topic/2053113
时间: 2026-04-25 13:57:15
摘要:
感觉互联网在AI时代下更卷了,简直是大逃杀模式,前端学后端,后端学前端,产品兼ui,有些是基本全干。然后计算机又是每年高考都是热门专业,毕业生越来越多,岗位又是越来越少,技能要求越来越多。学历贬值也越来越快。 低学历,技术一般的从业人员不知道未来的路在哪里了,到处都在说转行也不知道能转去哪里
标题: codex free 可以用 5.5 了
作者: #cot
板块: #前沿快讯
编号: 2053120
帖子: https://linux.do/t/topic/2053120
时间: 2026-04-25 13:57:50
摘要:
测试了几个都可以请求成功了
标题: replit帐号
作者: #Masonc
板块: #搞七捻三
编号: 2053134
帖子: https://linux.do/t/topic/2053134
时间: 2026-04-25 13:58:57
摘要:
请问佬们,有没有性价比高的replit core帐号渠道,感谢佬们。
标题: GPT-5.5 配了 1M 却又显示 258K?Codex Desktop Windows 修复记录
作者: #win9斩华雄
板块: #开发调优
编号: 2053136
帖子: https://linux.do/t/topic/2053136
时间: 2026-04-25 13:59:11
摘要:
我遇到的问题是:config.toml 里明明已经写了 GPT-5.5 的 1M 上下文,但 Codex Desktop 新开线程或重启后,界面又显示回 258K。
最后排查发现,不是 config.toml 写错,而是 Codex Desktop 会读取本地模型缓存。缓存里的 GPT-5.5 被刷新成了:
"context_window": 272000,
"max_context_window": 272000,
"effective_context_window_percent": 95

所以界面看到的是大约:
272000 * 95% = 258400

正确配置
C:\Users\<用户名>\.codex\config.toml 里继续保留 1M:
model = "gpt-5.5"
model_context_window = 1000000
model_auto_compact_token_limit = 900000

真正要修的是缓存
把下面两个文件里,slug 为 gpt-5.5 的对象改掉:
C:\Users\<用户名>\.codex\models_cache.json
C:\Users\<用户名>\.codex\model-catalog.gpt-5.5.json

只改这两个字段:
"context_window": 1000000,
"max_context_window": 1000000

其他模型和其他字段不要动。
防止被刷新覆盖
Codex 可能会重新刷新模型缓存,所以我在 Windows 计划任务里加了一个登录后启动的 watcher,每 30 秒检查一次。如果发现 GPT-5.5 又变回 272000,就自动改回 1000000。
任务名可以叫:
Codex GPT-5.5 Context Watcher

脚本放在:
C:\Users\<用户名>\.codex\bin\

验证方式
修完后检查两个缓存文件,GPT-5.5 应该是:
context_window=1000000
max_context_window=1000000

界面如果显示约 950K,这是正常的,不是失败。因为 Codex 会按 effective_context_window_percent = 95 保留一部分上下文:
1000000 * 95% = 950000

看到 950K 是成功;看到 258K 才说明缓存又被覆盖了。
注意
这个方法只是修 Codex Desktop 本地模型缓存和上下文预算显示。如果你的上游 API 或中转服务本身不支持 1M,上下文超过服务端限制时仍然可能报错。
标题: 逼迫老婆换了个情头
作者: #b1ghawk119
板块: #搞七捻三
编号: 2053141
帖子: https://linux.do/t/topic/2053141
时间: 2026-04-25 13:59:46
摘要:
确实像个傻子一样。。