LinuxDo 新帖推送
169 subscribers
247K photos
307K links
Download Telegram
标题: github copliot pro也要改token计费了
作者: #liyu428
板块: #搞七捻三
编号: 2070539
帖子: https://linux.do/t/topic/2070539
时间: 2026-04-28 05:57:06
摘要:
一周前停的新用户付费吧,这半夜发的邮件要改token计费了。
标题: codex用什么工具切换账号能达到不断线程,无缝衔接呀
作者: #doudo
板块: #开发调优
编号: 2070541
帖子: https://linux.do/t/topic/2070541
时间: 2026-04-28 06:01:02
摘要:
佬们,用codex的时候,一个号的额度用完了。但是线程还在跑。怎么能无缝衔接到下一个号接着跑。不让线程断呀
标题: gpt 5.5 难道说能比肩 grok 的信息搜索能力了?
作者: #MineMine
板块: #搞七捻三
编号: 2070548
帖子: https://linux.do/t/topic/2070548
时间: 2026-04-28 06:20:31
摘要:
PS:grok 最近大幅阉割额度,基本没法用了
标题: Sora Web正式下线
作者: #Ovear
板块: #前沿快讯
编号: 2070549
帖子: https://linux.do/t/topic/2070549
时间: 2026-04-28 06:38:41
摘要:
说是26号下线,还是活到了28号,最后还是下线了。
现在想用的话应该只能API,不知道OpenAI最后会不会给API降降价。
也算是最慷慨的免费视频生成模型了。
R.I.P. Sora 2024-2026
P.S 现在佬们还有什么免费的视频生成模型推荐吗?
标题: OpenCode 接入 DeepSeek V4
作者: #砼砼
板块: #搞七捻三
编号: 2070562
帖子: https://linux.do/t/topic/2070562
时间: 2026-04-28 06:52:43
摘要:
想试试 DeepSeek V4,随手扔给 GPT-5.4 让它帮我配 OpenCode。折腾了 20 分钟,踩了两个坑,最终稳了。记录一下。
第一步:选对入口
DeepSeek 现在有两个模型:

deepseek-v4-pro — 主力
deepseek-v4-flash — 快速便宜

端点我用的是 https://api.deepseek.com/beta,实测比 /v1 顺,没遇到奇怪的兼容问题。
第二步:配 provider
OpenCode 里不要复用现有的 openai 或 anthropic provider,直接新建一个:
"aic":{
"npm":"@ai-sdk/openai-compatible",
"name":"兼容奥",
"options":{"baseURL":"https://api.deepseek.com/beta","apiKey":"sk-xxx","includeUsage":true},
"models":{
"deepseek-v4-pro":{
"name":"DeepSeek V4 Pro",
"attachment":true,"reasoning":true,
"interleaved":{"field":"reasoning_content"},
"modalities":{"input":["text","image","pdf"],"output":["text"]},
"limit":{"context":1000000,"output":384000},
"options":{"extra_body":{"thinking":{"type":"disabled"}}},
"variants":{
"high":{"reasoning_effort":"high","extra_body":{"thinking":{"type":"enabled"}}},
"xhigh":{"reasoning_effort":"max","extra_body":{"thinking":{"type":"enabled"}}}
},
"cost":{"input":0.44,"output":0.88,"cache_read":0.0037}
},
"deepseek-v4-flash":{
"name":"DeepSeek V4 Flash",
"attachment":true,"reasoning":true,
"interleaved":{"field":"reasoning_content"},
"modalities":{"input":["text","image","pdf"],"output":["text"]},
"limit":{"context":1000000,"output":384000},
"options":{"extra_body":{"thinking":{"type":"disabled"}}},
"variants":{
"high":{"reasoning_effort":"high","extra_body":{"thinking":{"type":"enabled"}}}
},
"cost":{"input":0.147,"output":0.293,"cache_read":0.0029}
}
}
}

踩坑记录
坑一:选错 npm 包
一开始想挂到 aio(@ai-sdk/openai)下面。原因是 OpenCode 的 openai provider 走的是 /v1/responses,DeepSeek 只支持 /v1/chat/completions。GPT-5.4 直接告诉我换 @ai-sdk/openai-compatible,立竿见影。
坑二:思考模式下报 400
配好之后一切到 high variant 就报这个:
"The reasoning_content in the thinking mode must be passed back to the API."

DeepSeek 思考模式要求每轮请求必须把上一轮的思维链带回去。OpenCode 默认不干这事。
解法是模型配置里加一行:
"interleaved":{"field":"reasoning_content"}

加了之后多轮对话、工具调用都正常了。这个字段在 OC 文档里没怎么提,是翻 GitHub issue #6040 翻出来的。
一些选择

默认关思考:日常够用,省 token。需要深度推理时切 variant
variant 命名:high / xhigh,和 OC 其他模型统一
flash 不给 xhigh:定位是快速模型,开满思考没意义
成本按美元写:DeepSeek 定价是人民币,按 6.82 换算的,差不多就行
标题: 佬们有什么skill可以让codex不要那么磨叽
作者: #Ai777
板块: #开发调优
编号: 2070568
帖子: https://linux.do/t/topic/2070568
时间: 2026-04-28 07:04:42
摘要:
老是 如果XXX你要XXX我就继续 真的好烦人 我不要我还叫你做这个任务干啥?
每次像便秘一样一下拉一点。。真的苦恼!!!!
标题: deepseek-v4-pro 总是丢失 markdown 中的代码分隔符
作者: #不紧不慢不快不慢
板块: #开发调优
编号: 2070581
帖子: https://linux.do/t/topic/2070581
时间: 2026-04-28 07:16:06
摘要:
不知道是我的提示词太烂,还是什么原因,输出的 markdown 文档写到一半就丢了分隔符,我还得自己去补上,而且丢不止一个
标题: 快连陨落了~
作者: #jinnifer
板块: #福利羊毛
编号: 2070590
帖子: https://linux.do/t/topic/2070590
时间: 2026-04-28 07:24:36
摘要:
大清早就看到这个消息,心里其实还挺难受的,我用了他8年,就像是跟自己多年的战友一样。发个帖子记录一下。唉,太可惜了
标题: 暗黑4免费领取开启
作者: #goldsix
板块: #搞七捻三
编号: 2070591
帖子: https://linux.do/t/topic/2070591
时间: 2026-04-28 07:24:39
摘要:
暗黑4免费领取开启,只是账号已经多年没登录过了
标题: 快讯:claude pro 即将无法免费试用 opus 模型
作者: #蜘蛛抱蛋
板块: #前沿快讯
编号: 2070605
帖子: https://linux.do/t/topic/2070605
时间: 2026-04-28 07:39:56
摘要:
屠龙刀终究还是来了。pro实在是被A/嫌弃
标题: 深度研究了下,发现Claude 上下文与长期记忆不适合国产ai
作者: #豆豆哥🌹
板块: #开发调优
编号: 2070607
帖子: https://linux.do/t/topic/2070607
时间: 2026-04-28 07:41:43
摘要:
一直感觉cc有时候没有那么强,国产ai没那么弱,但是就是cc挺好用,最近没事研究了下cc的泄漏源码,我发现
Claude cli的长期记忆,本质上仍然是“把记忆塞回上下文”。它没有真正跳出上下文窗口,只是在上下文窗口快爆炸时,用更复杂的摘要、更聪明的筛选、更贵的模型调用,继续维持这个旧范式。 所以claude更适合这套模型,在国产上下文注意没那么集中的用cc反而在一轮轮的压缩后降智(opus4.7也是同理),
Claude cli 的上下文更像一个临时工作台,里面同时堆着:
系统指令
用户当前请求
历史对话
工具定义
工具调用结果
文件片段
项目信息
环境信息
记忆文件
压缩摘要
会话状态
模型需要遵守的行为规则

这些东西最终都会进入同一个窗口。
这个窗口就是模型当前能“看见”的世界。
模型不知道窗口外发生了什么。窗口外的东西如果没有被重新召回、重新摘要、重新拼进 prompt,它对模型来说就不存在。
所以 Claude cli的上下文管理,核心不是“记忆”,而是“窗口资源调度”。
它要不停决定:
哪些历史消息还值得保留
哪些工具结果必须留下
哪些文件片段要塞进去
哪些记忆可能相关
哪些内容可以摘要
哪些内容可以丢掉
什么时候必须压缩

这套系统的目的不是让模型真正拥有长期记忆,而是让模型在有限窗口里尽量不要失忆得太严重。
长期记忆看起来有很多层。

1. 静态记忆,用来记录用户偏好、项目背景、长期规则。

2. 会话记忆,用来总结当前任务进展、关键文件、错误修复、待办事项。

3. 自动提取,用来从对话中抽取值得保留的信息。

4. 跨会话整理,用来把零散记忆合并、剪枝、重写。

5. 它还有团队记忆,用来在多人场景里共享某些知识。

长期记忆最终还是要变成文本,被塞回上下文,才能被模型使用。
这意味着 Claude cli的长期记忆不是一个独立的知识系统,而是上下文的附属品。
它的记忆不是“模型真正知道了什么”,而是“这次 prompt 里有没有把相关内容带上”。
要是没有带上,记忆就等于不存在。
带错
标题: Claude Desktop App 使用百万上下文模型时,最好手动添加模型
作者: #KS
板块: #开发调优
编号: 2070617
帖子: https://linux.do/t/topic/2070617
时间: 2026-04-28 07:49:31
摘要:
今天使用一个第三方API提供的 DeepSeek-V4-Pro模型时,显示只有200K上下文。

因为我知道这个模型有百万上下文,所以手动添加模型名称打开1M开关

在我另一篇帖子里有添加方法:
请教:Claude Desktop App 不能接入 Deepseek-V4 吗?(已解决)
标题: 群里有Farmm的管理吗
作者: #魏东培
板块: #搞七捻三
编号: 2070619
帖子: https://linux.do/t/topic/2070619
时间: 2026-04-28 07:51:12
摘要:
今天早上开始,pt.0ff.cc必须要二次验证码才能登陆,而印象里我没有设置过,不知道有没有管理或者明白的佬友,帮助解决一下。谢谢!
标题: GitHub,你也殊途同归转token plan?
作者: #QtZero
板块: #前沿快讯
编号: 2070620
帖子: https://linux.do/t/topic/2070620
时间: 2026-04-28 07:51:22
摘要:
从GitHub copilot学生认证版会员高级模型不再支持手动指定模型继续讨论:
这GitHub这几个月做的事也挺奇怪:砍完学生选择高阶模型权益又砍免费试用,砍完免费试用又关闭新购,实装5小时限额与周限额,现在直接上token plan并原地平移,按次调用套餐将彻底成历史


有趣的是,年费会员继续用按次调用,但是每次扣减成本将非常大,直到过期转月度计费,tokenplan模式:

也没说学生会变成啥样,也给1000 ai credit?或者直接彻底砍掉?
总之一句话:量大管饱的时代即将已经一去不复返了。
标题: 4.28号开的team被取消了
作者: #siri6
板块: #搞七捻三
编号: 2070621
帖子: https://linux.do/t/topic/2070621
时间: 2026-04-28 07:52:12
摘要:
标题: Cursor 还能使用 vs code 的 ssh 插件吗?
作者: #dooro
板块: #开发调优
编号: 2070646
帖子: https://linux.do/t/topic/2070646
时间: 2026-04-28 08:04:20
摘要:
大佬们,我想使用 cursor 到服务器上,因为也想试下服务器上安装 claude code,就在 cursor 上安装了 claude code for vs code 插件。
但是,这个插件貌似不支持 cursor 自己的 ssh 插件,只能使用微软的 vscode ssh 插件,现在想装回 vs code ssh 插件在 cursor,无法安装,也搜索不到。
特向大家请教。