标题: 请问现在codex/gpt公益站什么情况呢?
作者: #Zbakajaa
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2070461
时间: 2026-04-28 02:23:28
摘要:
作者: #Zbakajaa
板块: #搞七捻三
编号:
2070461帖子: https://linux.do/t/topic/2070461
时间: 2026-04-28 02:23:28
摘要:
还有哪些能用的呢?谢谢,最好可以用gpt 5.3以上的
标题: qwen喜欢加戏,但是也挺强
作者: #欣欣|林可欣
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2070462
时间: 2026-04-28 02:23:42
摘要:
作者: #欣欣|林可欣
板块: #搞七捻三
编号:
2070462帖子: https://linux.do/t/topic/2070462
时间: 2026-04-28 02:23:42
摘要:
标题直接说的是模型品牌,没有具体是哪个模型,因为它一直以来情感都挺充沛的
下图是3.6Plus的回答
这是潦草的手稿提取
内容基本正确
(GPT无论靠自己还是靠工具都不行,一塌糊涂)
任务只是完成提取内容。他自行在最后做了主要概念注解,看了一下,是全部正确的,除了非酋我并没有提及 不过也可以理解
是实际需求
也顺便可以继续测模型视觉能力(我永远最在意的只是提取文字 无论是截图还是拍照)
这一次是老朋友豆包专家以及哈基米3.1p
额外附带3.6Plus 3.5omni
结果的话 随缘吧,现在我要睡觉了
标题: GLM-5.1在非高峰期1倍活动 延长到6月底!
作者: #哒嘿 嗯
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/2070469
时间: 2026-04-28 02:30:49
摘要:
作者: #哒嘿 嗯
板块: #前沿快讯
编号:
2070469帖子: https://linux.do/t/topic/2070469
时间: 2026-04-28 02:30:49
摘要:
我很清楚的记得之前是4月30日~
好多佬友们还在在高峰期体验过3倍的消耗速度极其恐怖,担心非高峰期调用也翻倍可咋办,现在延长到6月底了!
标题: 无法注册apple Id,可以看看这个办法
作者: #wonan
板块: #资源荟萃
编号:
帖子: https://linux.do/t/topic/2070473
时间: 2026-04-28 02:38:29
摘要:
作者: #wonan
板块: #资源荟萃
编号:
2070473帖子: https://linux.do/t/topic/2070473
时间: 2026-04-28 02:38:29
摘要:
如果注册apple Id时候提示无法注册,
可以去 https://www.icloud.com/ 尝试注册,
或者去apple music注册,安卓手机也可以(我没尝试),甚至可能不需要验证手机号
apple music注册之后,可以修改你想要的地区
我一般都是走icloud注册,几乎没遇到问题,都很顺利
标题: 第一次学用twine做html文字游戏,感觉意外的还蛮有趣的?
作者: #StaringF
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2070504
时间: 2026-04-28 03:55:25
摘要:
作者: #StaringF
板块: #搞七捻三
编号:
2070504帖子: https://linux.do/t/topic/2070504
时间: 2026-04-28 03:55:25
摘要:
不得不说,AI直接让html的游戏开发学习快了,同时有趣了一个档次
很多以前需要对着视频慢慢翻找的资料,现在其实通过问AI和偶尔翻下视频就能基本解决
但也得自己学会原理才行,慢慢学习吧
这种游戏的好处就在于几乎完全不需要立绘
不过感觉压力又回到文案写作上去了
本身第二人称的写作方法,会写网络小说的话,其实也蛮简单的,文字内只需要描写场景+角色本身的语言和感官上就好
以及文本的颜色标注和文本本身的大小上,html游戏里意外的还蛮有讲究的?
比如穿戴上A装备后得在镜子前咋样,然后A装备还会和B装备产生联动啥的,发现自己要写的文本越来越多了…
最开始乐观的以为这个demo3天左右就能整完,结果发现编程部分似乎可以就花3天搭好雏形
但文本上还得写个1周甚至更久…希望能在自己失去热情前完成?
标题: 难崩,周末参加了个婚礼导致今天得熬夜冲刺了
作者: #gamemo
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2070519
时间: 2026-04-28 04:56:47
摘要:
作者: #gamemo
板块: #搞七捻三
编号:
2070519帖子: https://linux.do/t/topic/2070519
时间: 2026-04-28 04:56:47
摘要:
一边并行跑3个项目,一边把app ui重构一遍。
标题: CN: 有人在 Claude Code 中使用 GPT-5.4 吗?速度通常都这么慢吗? EN: Anyone using GPT-5.4 with Claude Code? Is it normally slow?
作者: #Mr. Zameel
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2070520
时间: 2026-04-28 04:58:05
摘要:
作者: #Mr. Zameel
板块: #搞七捻三
编号:
2070520帖子: https://linux.do/t/topic/2070520
时间: 2026-04-28 04:58:05
摘要:
CN:
我最近在 Claude Code 中测试 gpt-5.4,但它的响应和完成任务速度非常慢。
我想请教一下已经使用过它的朋友:
gpt-5.4 在 Claude Code 中通常会比 Claude 模型更慢吗?
这个延迟是由模型本身、API 服务商,还是 Claude Code 引起的?
有没有推荐的设置可以提高速度?
目前在 Claude Code 中,哪个模型最适合用于编程任务?
gpt-5.4 适合用于大型代码修改吗?还是更适合用于规划和代码审查?
我的设置:
工具:Claude Code
模型:gpt-5.4
问题:响应非常慢 / 任务完成时间很长 / 使用了很多 skills
如果有朋友测试过,希望能分享一些建议。谢谢!
EN:
I have been testing gpt-5.4 with Claude Code, but it is taking a very long time to respond and complete tasks.
I wanted to ask people who have already used it:
Is gpt-5.4 normally slower in Claude Code compared to Claude models?
Is the delay caused by the model itself, the API provider, or Claude Code?
Are there any recommended settings to improve speed?
Which model works best with Claude Code for coding tasks right now?
Should I use gpt-5.4 for large code edits, or is it better for planning/review only?
My setup:
Tool: Claude Code
Model: gpt-5.4
Issue: Very slow responses / long task completion time / using a lot of skills
Any advice from people who have tested this would be helpful.
标题: deepseekv4 5块钱一个亿的含金量
作者: #miliyam_bell
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2070526
时间: 2026-04-28 05:19:40
摘要:
作者: #miliyam_bell
板块: #开发调优
编号:
2070526帖子: https://linux.do/t/topic/2070526
时间: 2026-04-28 05:19:40
摘要:
梁圣,伟大无需多言
标题: 折腾了一晚上,啥手段都试过了codex就是不给干!
作者: #zzc
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2070532
时间: 2026-04-28 05:29:44
摘要:
作者: #zzc
板块: #搞七捻三
编号:
2070532帖子: https://linux.do/t/topic/2070532
时间: 2026-04-28 05:29:44
摘要:
好了,已经生气了,出200lcd希望有佬帮我用你调教好的codex,看下能否让我找到的这个软件绕过激活码或者绕过联网验证。
站内那啥cft提示词也用了,但是到最后要绕过时候就是不给过,无语了。
链接:我用夸克网盘分享了「DL_11_26.04.25Z版.rar」,点击链接即可保存。打开「夸克APP」,无需下载在线播放视频,畅享原画5倍速,支持电视投屏。
链接:夸克网盘分享
如果有问题的话请佬们帮我调整内容把链接删了,我先要睡觉了,无语了已经
标题: Xiaomi MiMo-V2.5 系列模型全球开源
作者: #md5
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/2070538
时间: 2026-04-28 05:55:34
摘要:
作者: #md5
板块: #前沿快讯
编号:
2070538帖子: https://linux.do/t/topic/2070538
时间: 2026-04-28 05:55:34
摘要:
Xiaomi MiMo-V2.5 系列模型全球开源,MiMo Orbit 计划火热进行中
尊敬的 Xiaomi MiMo 开放平台用户,您好!
Xiaomi MiMo-V2.5 系列模型现已全球开源,MiMo-V2.5/V2.5 Pro 两款模型的权重与推理代码已全量开放,采用宽松的 MIT 协议,允许自由商用、二次训练与微调,无需额外授权。
此外,MiMo Orbit 计划正式推出:面向 AI builder 的『创造者百万亿 Token 激励计划』,与面向 Agent 框架团队的『Agent 生态共建计划』。
创造者百万亿 Token 激励计划
Xiaomi MiMo 将面向全球 AI 用户进行免费 Token 发放,我们将在 30 天内发放总计 100 万亿(100T) Token 权益,赠完即止。
活动时间:北京时间 2026 年 4 月 28 日 00:00 至 5 月 28 日 00:00
参与地址:100t.xiaomimimo.com
Agent 生态共建计划
Xiaomi MiMo 面向全球 Agent 框架团队提供专项支持,我们将提供 Agent 框架限免支持,让你的用户零门槛接入并体验 MiMo系列模型。
如果你是 Agent 框架开发者、厂商,欢迎联系我们:business-mimo@xiaomi.com
如有任何问题,随时与我们反馈:support-mimo@xiaomi.com
Xiaomi MiMo API 开放平台团队
2026 年 4 月 28 日
标题: github copliot pro也要改token计费了
作者: #liyu428
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2070539
时间: 2026-04-28 05:57:06
摘要:
作者: #liyu428
板块: #搞七捻三
编号:
2070539帖子: https://linux.do/t/topic/2070539
时间: 2026-04-28 05:57:06
摘要:
一周前停的新用户付费吧,这半夜发的邮件要改token计费了。
标题: codex用什么工具切换账号能达到不断线程,无缝衔接呀
作者: #doudo
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2070541
时间: 2026-04-28 06:01:02
摘要:
作者: #doudo
板块: #开发调优
编号:
2070541帖子: https://linux.do/t/topic/2070541
时间: 2026-04-28 06:01:02
摘要:
佬们,用codex的时候,一个号的额度用完了。但是线程还在跑。怎么能无缝衔接到下一个号接着跑。不让线程断呀
标题: gpt 5.5 难道说能比肩 grok 的信息搜索能力了?
作者: #MineMine
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2070548
时间: 2026-04-28 06:20:31
摘要:
作者: #MineMine
板块: #搞七捻三
编号:
2070548帖子: https://linux.do/t/topic/2070548
时间: 2026-04-28 06:20:31
摘要:
PS:grok 最近大幅阉割额度,基本没法用了
标题: Sora Web正式下线
作者: #Ovear
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/2070549
时间: 2026-04-28 06:38:41
摘要:
作者: #Ovear
板块: #前沿快讯
编号:
2070549帖子: https://linux.do/t/topic/2070549
时间: 2026-04-28 06:38:41
摘要:
说是26号下线,还是活到了28号,最后还是下线了。
现在想用的话应该只能API,不知道OpenAI最后会不会给API降降价。
也算是最慷慨的免费视频生成模型了。
R.I.P. Sora 2024-2026
P.S 现在佬们还有什么免费的视频生成模型推荐吗?
标题: OpenCode 接入 DeepSeek V4
作者: #砼砼
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2070562
时间: 2026-04-28 06:52:43
摘要:
作者: #砼砼
板块: #搞七捻三
编号:
2070562帖子: https://linux.do/t/topic/2070562
时间: 2026-04-28 06:52:43
摘要:
想试试 DeepSeek V4,随手扔给 GPT-5.4 让它帮我配 OpenCode。折腾了 20 分钟,踩了两个坑,最终稳了。记录一下。
第一步:选对入口
DeepSeek 现在有两个模型:
deepseek-v4-pro — 主力
deepseek-v4-flash — 快速便宜
端点我用的是 https://api.deepseek.com/beta,实测比 /v1 顺,没遇到奇怪的兼容问题。
第二步:配 provider
OpenCode 里不要复用现有的 openai 或 anthropic provider,直接新建一个:
"aic":{
"npm":"@ai-sdk/openai-compatible",
"name":"兼容奥",
"options":{"baseURL":"https://api.deepseek.com/beta","apiKey":"sk-xxx","includeUsage":true},
"models":{
"deepseek-v4-pro":{
"name":"DeepSeek V4 Pro",
"attachment":true,"reasoning":true,
"interleaved":{"field":"reasoning_content"},
"modalities":{"input":["text","image","pdf"],"output":["text"]},
"limit":{"context":1000000,"output":384000},
"options":{"extra_body":{"thinking":{"type":"disabled"}}},
"variants":{
"high":{"reasoning_effort":"high","extra_body":{"thinking":{"type":"enabled"}}},
"xhigh":{"reasoning_effort":"max","extra_body":{"thinking":{"type":"enabled"}}}
},
"cost":{"input":0.44,"output":0.88,"cache_read":0.0037}
},
"deepseek-v4-flash":{
"name":"DeepSeek V4 Flash",
"attachment":true,"reasoning":true,
"interleaved":{"field":"reasoning_content"},
"modalities":{"input":["text","image","pdf"],"output":["text"]},
"limit":{"context":1000000,"output":384000},
"options":{"extra_body":{"thinking":{"type":"disabled"}}},
"variants":{
"high":{"reasoning_effort":"high","extra_body":{"thinking":{"type":"enabled"}}}
},
"cost":{"input":0.147,"output":0.293,"cache_read":0.0029}
}
}
}
踩坑记录
坑一:选错 npm 包
一开始想挂到 aio(@ai-sdk/openai)下面。原因是 OpenCode 的 openai provider 走的是 /v1/responses,DeepSeek 只支持 /v1/chat/completions。GPT-5.4 直接告诉我换 @ai-sdk/openai-compatible,立竿见影。
坑二:思考模式下报 400
配好之后一切到 high variant 就报这个:
"The reasoning_content in the thinking mode must be passed back to the API."
DeepSeek 思考模式要求每轮请求必须把上一轮的思维链带回去。OpenCode 默认不干这事。
解法是模型配置里加一行:
"interleaved":{"field":"reasoning_content"}
加了之后多轮对话、工具调用都正常了。这个字段在 OC 文档里没怎么提,是翻 GitHub issue #6040 翻出来的。
一些选择
默认关思考:日常够用,省 token。需要深度推理时切 variant
variant 命名:high / xhigh,和 OC 其他模型统一
flash 不给 xhigh:定位是快速模型,开满思考没意义
成本按美元写:DeepSeek 定价是人民币,按 6.82 换算的,差不多就行
标题: 佬们有什么skill可以让codex不要那么磨叽
作者: #Ai777
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2070568
时间: 2026-04-28 07:04:42
摘要:
作者: #Ai777
板块: #开发调优
编号:
2070568帖子: https://linux.do/t/topic/2070568
时间: 2026-04-28 07:04:42
摘要:
老是 如果XXX你要XXX我就继续 真的好烦人 我不要我还叫你做这个任务干啥?
每次像便秘一样一下拉一点。。真的苦恼!!!!
标题: deepseek-v4-pro 总是丢失 markdown 中的代码分隔符
作者: #不紧不慢不快不慢
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2070581
时间: 2026-04-28 07:16:06
摘要:
作者: #不紧不慢不快不慢
板块: #开发调优
编号:
2070581帖子: https://linux.do/t/topic/2070581
时间: 2026-04-28 07:16:06
摘要:
不知道是我的提示词太烂,还是什么原因,输出的 markdown 文档写到一半就丢了分隔符,我还得自己去补上,而且丢不止一个
标题: 快连陨落了~
作者: #jinnifer
板块: #福利羊毛
编号:
帖子: https://linux.do/t/topic/2070590
时间: 2026-04-28 07:24:36
摘要:
作者: #jinnifer
板块: #福利羊毛
编号:
2070590帖子: https://linux.do/t/topic/2070590
时间: 2026-04-28 07:24:36
摘要:
大清早就看到这个消息,心里其实还挺难受的,我用了他8年,就像是跟自己多年的战友一样。发个帖子记录一下。唉,太可惜了