标题: 难崩,周末参加了个婚礼导致今天得熬夜冲刺了
作者: #gamemo
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2070519
时间: 2026-04-28 04:56:47
摘要:
作者: #gamemo
板块: #搞七捻三
编号:
2070519帖子: https://linux.do/t/topic/2070519
时间: 2026-04-28 04:56:47
摘要:
一边并行跑3个项目,一边把app ui重构一遍。
标题: CN: 有人在 Claude Code 中使用 GPT-5.4 吗?速度通常都这么慢吗? EN: Anyone using GPT-5.4 with Claude Code? Is it normally slow?
作者: #Mr. Zameel
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2070520
时间: 2026-04-28 04:58:05
摘要:
作者: #Mr. Zameel
板块: #搞七捻三
编号:
2070520帖子: https://linux.do/t/topic/2070520
时间: 2026-04-28 04:58:05
摘要:
CN:
我最近在 Claude Code 中测试 gpt-5.4,但它的响应和完成任务速度非常慢。
我想请教一下已经使用过它的朋友:
gpt-5.4 在 Claude Code 中通常会比 Claude 模型更慢吗?
这个延迟是由模型本身、API 服务商,还是 Claude Code 引起的?
有没有推荐的设置可以提高速度?
目前在 Claude Code 中,哪个模型最适合用于编程任务?
gpt-5.4 适合用于大型代码修改吗?还是更适合用于规划和代码审查?
我的设置:
工具:Claude Code
模型:gpt-5.4
问题:响应非常慢 / 任务完成时间很长 / 使用了很多 skills
如果有朋友测试过,希望能分享一些建议。谢谢!
EN:
I have been testing gpt-5.4 with Claude Code, but it is taking a very long time to respond and complete tasks.
I wanted to ask people who have already used it:
Is gpt-5.4 normally slower in Claude Code compared to Claude models?
Is the delay caused by the model itself, the API provider, or Claude Code?
Are there any recommended settings to improve speed?
Which model works best with Claude Code for coding tasks right now?
Should I use gpt-5.4 for large code edits, or is it better for planning/review only?
My setup:
Tool: Claude Code
Model: gpt-5.4
Issue: Very slow responses / long task completion time / using a lot of skills
Any advice from people who have tested this would be helpful.
标题: deepseekv4 5块钱一个亿的含金量
作者: #miliyam_bell
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2070526
时间: 2026-04-28 05:19:40
摘要:
作者: #miliyam_bell
板块: #开发调优
编号:
2070526帖子: https://linux.do/t/topic/2070526
时间: 2026-04-28 05:19:40
摘要:
梁圣,伟大无需多言
标题: 折腾了一晚上,啥手段都试过了codex就是不给干!
作者: #zzc
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2070532
时间: 2026-04-28 05:29:44
摘要:
作者: #zzc
板块: #搞七捻三
编号:
2070532帖子: https://linux.do/t/topic/2070532
时间: 2026-04-28 05:29:44
摘要:
好了,已经生气了,出200lcd希望有佬帮我用你调教好的codex,看下能否让我找到的这个软件绕过激活码或者绕过联网验证。
站内那啥cft提示词也用了,但是到最后要绕过时候就是不给过,无语了。
链接:我用夸克网盘分享了「DL_11_26.04.25Z版.rar」,点击链接即可保存。打开「夸克APP」,无需下载在线播放视频,畅享原画5倍速,支持电视投屏。
链接:夸克网盘分享
如果有问题的话请佬们帮我调整内容把链接删了,我先要睡觉了,无语了已经
标题: Xiaomi MiMo-V2.5 系列模型全球开源
作者: #md5
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/2070538
时间: 2026-04-28 05:55:34
摘要:
作者: #md5
板块: #前沿快讯
编号:
2070538帖子: https://linux.do/t/topic/2070538
时间: 2026-04-28 05:55:34
摘要:
Xiaomi MiMo-V2.5 系列模型全球开源,MiMo Orbit 计划火热进行中
尊敬的 Xiaomi MiMo 开放平台用户,您好!
Xiaomi MiMo-V2.5 系列模型现已全球开源,MiMo-V2.5/V2.5 Pro 两款模型的权重与推理代码已全量开放,采用宽松的 MIT 协议,允许自由商用、二次训练与微调,无需额外授权。
此外,MiMo Orbit 计划正式推出:面向 AI builder 的『创造者百万亿 Token 激励计划』,与面向 Agent 框架团队的『Agent 生态共建计划』。
创造者百万亿 Token 激励计划
Xiaomi MiMo 将面向全球 AI 用户进行免费 Token 发放,我们将在 30 天内发放总计 100 万亿(100T) Token 权益,赠完即止。
活动时间:北京时间 2026 年 4 月 28 日 00:00 至 5 月 28 日 00:00
参与地址:100t.xiaomimimo.com
Agent 生态共建计划
Xiaomi MiMo 面向全球 Agent 框架团队提供专项支持,我们将提供 Agent 框架限免支持,让你的用户零门槛接入并体验 MiMo系列模型。
如果你是 Agent 框架开发者、厂商,欢迎联系我们:business-mimo@xiaomi.com
如有任何问题,随时与我们反馈:support-mimo@xiaomi.com
Xiaomi MiMo API 开放平台团队
2026 年 4 月 28 日
标题: github copliot pro也要改token计费了
作者: #liyu428
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2070539
时间: 2026-04-28 05:57:06
摘要:
作者: #liyu428
板块: #搞七捻三
编号:
2070539帖子: https://linux.do/t/topic/2070539
时间: 2026-04-28 05:57:06
摘要:
一周前停的新用户付费吧,这半夜发的邮件要改token计费了。
标题: codex用什么工具切换账号能达到不断线程,无缝衔接呀
作者: #doudo
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2070541
时间: 2026-04-28 06:01:02
摘要:
作者: #doudo
板块: #开发调优
编号:
2070541帖子: https://linux.do/t/topic/2070541
时间: 2026-04-28 06:01:02
摘要:
佬们,用codex的时候,一个号的额度用完了。但是线程还在跑。怎么能无缝衔接到下一个号接着跑。不让线程断呀
标题: gpt 5.5 难道说能比肩 grok 的信息搜索能力了?
作者: #MineMine
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2070548
时间: 2026-04-28 06:20:31
摘要:
作者: #MineMine
板块: #搞七捻三
编号:
2070548帖子: https://linux.do/t/topic/2070548
时间: 2026-04-28 06:20:31
摘要:
PS:grok 最近大幅阉割额度,基本没法用了
标题: Sora Web正式下线
作者: #Ovear
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/2070549
时间: 2026-04-28 06:38:41
摘要:
作者: #Ovear
板块: #前沿快讯
编号:
2070549帖子: https://linux.do/t/topic/2070549
时间: 2026-04-28 06:38:41
摘要:
说是26号下线,还是活到了28号,最后还是下线了。
现在想用的话应该只能API,不知道OpenAI最后会不会给API降降价。
也算是最慷慨的免费视频生成模型了。
R.I.P. Sora 2024-2026
P.S 现在佬们还有什么免费的视频生成模型推荐吗?
标题: OpenCode 接入 DeepSeek V4
作者: #砼砼
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2070562
时间: 2026-04-28 06:52:43
摘要:
作者: #砼砼
板块: #搞七捻三
编号:
2070562帖子: https://linux.do/t/topic/2070562
时间: 2026-04-28 06:52:43
摘要:
想试试 DeepSeek V4,随手扔给 GPT-5.4 让它帮我配 OpenCode。折腾了 20 分钟,踩了两个坑,最终稳了。记录一下。
第一步:选对入口
DeepSeek 现在有两个模型:
deepseek-v4-pro — 主力
deepseek-v4-flash — 快速便宜
端点我用的是 https://api.deepseek.com/beta,实测比 /v1 顺,没遇到奇怪的兼容问题。
第二步:配 provider
OpenCode 里不要复用现有的 openai 或 anthropic provider,直接新建一个:
"aic":{
"npm":"@ai-sdk/openai-compatible",
"name":"兼容奥",
"options":{"baseURL":"https://api.deepseek.com/beta","apiKey":"sk-xxx","includeUsage":true},
"models":{
"deepseek-v4-pro":{
"name":"DeepSeek V4 Pro",
"attachment":true,"reasoning":true,
"interleaved":{"field":"reasoning_content"},
"modalities":{"input":["text","image","pdf"],"output":["text"]},
"limit":{"context":1000000,"output":384000},
"options":{"extra_body":{"thinking":{"type":"disabled"}}},
"variants":{
"high":{"reasoning_effort":"high","extra_body":{"thinking":{"type":"enabled"}}},
"xhigh":{"reasoning_effort":"max","extra_body":{"thinking":{"type":"enabled"}}}
},
"cost":{"input":0.44,"output":0.88,"cache_read":0.0037}
},
"deepseek-v4-flash":{
"name":"DeepSeek V4 Flash",
"attachment":true,"reasoning":true,
"interleaved":{"field":"reasoning_content"},
"modalities":{"input":["text","image","pdf"],"output":["text"]},
"limit":{"context":1000000,"output":384000},
"options":{"extra_body":{"thinking":{"type":"disabled"}}},
"variants":{
"high":{"reasoning_effort":"high","extra_body":{"thinking":{"type":"enabled"}}}
},
"cost":{"input":0.147,"output":0.293,"cache_read":0.0029}
}
}
}
踩坑记录
坑一:选错 npm 包
一开始想挂到 aio(@ai-sdk/openai)下面。原因是 OpenCode 的 openai provider 走的是 /v1/responses,DeepSeek 只支持 /v1/chat/completions。GPT-5.4 直接告诉我换 @ai-sdk/openai-compatible,立竿见影。
坑二:思考模式下报 400
配好之后一切到 high variant 就报这个:
"The reasoning_content in the thinking mode must be passed back to the API."
DeepSeek 思考模式要求每轮请求必须把上一轮的思维链带回去。OpenCode 默认不干这事。
解法是模型配置里加一行:
"interleaved":{"field":"reasoning_content"}
加了之后多轮对话、工具调用都正常了。这个字段在 OC 文档里没怎么提,是翻 GitHub issue #6040 翻出来的。
一些选择
默认关思考:日常够用,省 token。需要深度推理时切 variant
variant 命名:high / xhigh,和 OC 其他模型统一
flash 不给 xhigh:定位是快速模型,开满思考没意义
成本按美元写:DeepSeek 定价是人民币,按 6.82 换算的,差不多就行
标题: 佬们有什么skill可以让codex不要那么磨叽
作者: #Ai777
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2070568
时间: 2026-04-28 07:04:42
摘要:
作者: #Ai777
板块: #开发调优
编号:
2070568帖子: https://linux.do/t/topic/2070568
时间: 2026-04-28 07:04:42
摘要:
老是 如果XXX你要XXX我就继续 真的好烦人 我不要我还叫你做这个任务干啥?
每次像便秘一样一下拉一点。。真的苦恼!!!!
标题: deepseek-v4-pro 总是丢失 markdown 中的代码分隔符
作者: #不紧不慢不快不慢
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2070581
时间: 2026-04-28 07:16:06
摘要:
作者: #不紧不慢不快不慢
板块: #开发调优
编号:
2070581帖子: https://linux.do/t/topic/2070581
时间: 2026-04-28 07:16:06
摘要:
不知道是我的提示词太烂,还是什么原因,输出的 markdown 文档写到一半就丢了分隔符,我还得自己去补上,而且丢不止一个
标题: 快连陨落了~
作者: #jinnifer
板块: #福利羊毛
编号:
帖子: https://linux.do/t/topic/2070590
时间: 2026-04-28 07:24:36
摘要:
作者: #jinnifer
板块: #福利羊毛
编号:
2070590帖子: https://linux.do/t/topic/2070590
时间: 2026-04-28 07:24:36
摘要:
大清早就看到这个消息,心里其实还挺难受的,我用了他8年,就像是跟自己多年的战友一样。发个帖子记录一下。唉,太可惜了
标题: 暗黑4免费领取开启
作者: #goldsix
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2070591
时间: 2026-04-28 07:24:39
摘要:
作者: #goldsix
板块: #搞七捻三
编号:
2070591帖子: https://linux.do/t/topic/2070591
时间: 2026-04-28 07:24:39
摘要:
暗黑4免费领取开启,只是账号已经多年没登录过了
标题: 快讯:claude pro 即将无法免费试用 opus 模型
作者: #蜘蛛抱蛋
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/2070605
时间: 2026-04-28 07:39:56
摘要:
作者: #蜘蛛抱蛋
板块: #前沿快讯
编号:
2070605帖子: https://linux.do/t/topic/2070605
时间: 2026-04-28 07:39:56
摘要:
屠龙刀终究还是来了。pro实在是被A/嫌弃
标题: 深度研究了下,发现Claude 上下文与长期记忆不适合国产ai
作者: #豆豆哥🌹
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2070607
时间: 2026-04-28 07:41:43
摘要:
作者: #豆豆哥🌹
板块: #开发调优
编号:
2070607帖子: https://linux.do/t/topic/2070607
时间: 2026-04-28 07:41:43
摘要:
一直感觉cc有时候没有那么强,国产ai没那么弱,但是就是cc挺好用,最近没事研究了下cc的泄漏源码,我发现
Claude cli的长期记忆,本质上仍然是“把记忆塞回上下文”。它没有真正跳出上下文窗口,只是在上下文窗口快爆炸时,用更复杂的摘要、更聪明的筛选、更贵的模型调用,继续维持这个旧范式。 所以claude更适合这套模型,在国产上下文注意没那么集中的用cc反而在一轮轮的压缩后降智(opus4.7也是同理),
Claude cli 的上下文更像一个临时工作台,里面同时堆着:
系统指令
用户当前请求
历史对话
工具定义
工具调用结果
文件片段
项目信息
环境信息
记忆文件
压缩摘要
会话状态
模型需要遵守的行为规则
这些东西最终都会进入同一个窗口。
这个窗口就是模型当前能“看见”的世界。
模型不知道窗口外发生了什么。窗口外的东西如果没有被重新召回、重新摘要、重新拼进 prompt,它对模型来说就不存在。
所以 Claude cli的上下文管理,核心不是“记忆”,而是“窗口资源调度”。
它要不停决定:
哪些历史消息还值得保留
哪些工具结果必须留下
哪些文件片段要塞进去
哪些记忆可能相关
哪些内容可以摘要
哪些内容可以丢掉
什么时候必须压缩
这套系统的目的不是让模型真正拥有长期记忆,而是让模型在有限窗口里尽量不要失忆得太严重。
长期记忆看起来有很多层。
1. 静态记忆,用来记录用户偏好、项目背景、长期规则。
2. 会话记忆,用来总结当前任务进展、关键文件、错误修复、待办事项。
3. 自动提取,用来从对话中抽取值得保留的信息。
4. 跨会话整理,用来把零散记忆合并、剪枝、重写。
5. 它还有团队记忆,用来在多人场景里共享某些知识。
长期记忆最终还是要变成文本,被塞回上下文,才能被模型使用。
这意味着 Claude cli的长期记忆不是一个独立的知识系统,而是上下文的附属品。
它的记忆不是“模型真正知道了什么”,而是“这次 prompt 里有没有把相关内容带上”。
要是没有带上,记忆就等于不存在。
带错
标题: Claude Desktop App 使用百万上下文模型时,最好手动添加模型
作者: #KS
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2070617
时间: 2026-04-28 07:49:31
摘要:
作者: #KS
板块: #开发调优
编号:
2070617帖子: https://linux.do/t/topic/2070617
时间: 2026-04-28 07:49:31
摘要:
今天使用一个第三方API提供的 DeepSeek-V4-Pro模型时,显示只有200K上下文。
因为我知道这个模型有百万上下文,所以手动添加模型名称打开1M开关
在我另一篇帖子里有添加方法:
请教:Claude Desktop App 不能接入 Deepseek-V4 吗?(已解决)