标题: 火山方舟 coding plan lite 还剩两天
作者: #GeNes1s
板块: #福利羊毛
编号:
帖子: https://linux.do/t/topic/1942509
时间: 2026-04-11 09:29:01
摘要:
作者: #GeNes1s
板块: #福利羊毛
编号:
1942509帖子: https://linux.do/t/topic/1942509
时间: 2026-04-11 09:29:01
摘要:
ab3e09e1-18fc-4150-8956-d647dd66a914
实在蹬不动
标题: 求助,现在有哪些免费模型。。。
作者: #海盗船
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1942521
时间: 2026-04-11 09:33:08
摘要:
作者: #海盗船
板块: #开发调优
编号:
1942521帖子: https://linux.do/t/topic/1942521
时间: 2026-04-11 09:33:08
摘要:
求助,现在有哪些免费模型(官方渠道),同事想学习体验一下,不用梯子的。。因为个人一开始就找到公益站。。所以没体验过国内环境下能够用的模型。。
标题: 新人疑惑,为啥用 ai 都是推荐米国家宽,湾湾家宽似乎很少,是有什么风险吗?
作者: #咪嗷呜
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1942530
时间: 2026-04-11 09:34:48
摘要:
作者: #咪嗷呜
板块: #开发调优
编号:
1942530帖子: https://linux.do/t/topic/1942530
时间: 2026-04-11 09:34:48
摘要:
新人疑惑,最近准备试着订阅 claude Max, 遂看了很多防封号方法,看到基本上都是推荐米国家宽。本着能省点是一点的原则,我看了几家 ai 的支持区域,看看有没有什么“便宜”且支持的地区,(您才怎么着),湾湾基本都包含在内,但是湾湾家宽似乎很少有人推荐,理论上湾湾家的价格和延迟相较于米国应该会低一些,求问问佬们是有其他什么风险吗?
标题: Linux下VScode开发风扇狂响有办法改善吗?
作者: #yysy
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1942539
时间: 2026-04-11 09:36:28
摘要:
作者: #yysy
板块: #开发调优
编号:
1942539帖子: https://linux.do/t/topic/1942539
时间: 2026-04-11 09:36:28
摘要:
最近安装了mint LDME7系统,在里面安装了VScode。
目前遇到一个问题:使用AI写代码时,风扇狂转,即使AI已经写完停止输出后,风扇也还是再一直响。观察系统管理器,code进程在AI写程序阶段磁盘写速度一直保持几M/s ,停止后,写速度会慢慢降到100k/s。速度降下来了,但是风扇并没有停下来。对比windows,响声要大很多。
请问各位大佬有没有改善的办法?
标题: 类似perplexity的ai软件
作者: #ellis
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1942560
时间: 2026-04-11 09:39:43
摘要:
作者: #ellis
板块: #搞七捻三
编号:
1942560帖子: https://linux.do/t/topic/1942560
时间: 2026-04-11 09:39:43
摘要:
想问下佬友们有没有推荐的类似perplexity的ai软件,我主要的需求是科研方面,感觉perplexity的学术模式还是比较好用。
此外,我用过
grok (没有学术模式)
miroMind (额度不够)
GPT (搜索能力好像不够强)
标题: 一起床发现CPA 的 Codex Free 周限额全部归0了,是封号了吗,昨天还能用
作者: #小鸟壁纸
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1942568
时间: 2026-04-11 09:40:34
摘要:
作者: #小鸟壁纸
板块: #搞七捻三
编号:
1942568帖子: https://linux.do/t/topic/1942568
时间: 2026-04-11 09:40:34
摘要:
有没有佬给看看
标题: 求助,讯飞的Coding Plan怎么样
作者: #ruguoQAQ
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1942587
时间: 2026-04-11 09:43:58
摘要:
作者: #ruguoQAQ
板块: #开发调优
编号:
1942587帖子: https://linux.do/t/topic/1942587
时间: 2026-04-11 09:43:58
摘要:
讯飞的Coding Plan 2026年4月9日上线中的 高效版 支持GLM 5.1 ,有没有佬用过,体验怎么样,他宣传有极致性能可以相信吗,之前听说他家的不是很好啊体验。
标题: 侧栏可不可以自由拉伸
作者: #siri6
板块: #运营反馈
编号:
帖子: https://linux.do/t/topic/1942591
时间: 2026-04-11 09:45:20
摘要:
作者: #siri6
板块: #运营反馈
编号:
1942591帖子: https://linux.do/t/topic/1942591
时间: 2026-04-11 09:45:20
摘要:
现在侧栏有一点富裕空间在,能自由拉伸改进一下观感就好了
标题: 摄像头监控方案讨论
作者: #cm123
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1942598
时间: 2026-04-11 09:46:27
摘要:
作者: #cm123
板块: #搞七捻三
编号:
1942598帖子: https://linux.do/t/topic/1942598
时间: 2026-04-11 09:46:27
摘要:
最新对比几款摄像头,选择了中兴sc50(160元左右),具有下面优点
通话质量较好(播放好,拾音还是一般),
app没有广告
ai守护(免费有7天9秒)
支持nas保存
对于现在tf卡价格高,想出了使用tf卡存储事件回放,利用路由器的简易nas存储完整回放这个方案。
现在对于通话质量有些不满意,延迟,拾音质量差,但是同价位对比其他家好像更差。
个人考虑可能不全面,讨论下是否有更好的摄像头推荐下(支持缓存,通话质量更好等等)。
标题: 《生化危机9:安魂曲》D加密被破解
作者: #nazate
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/1942607
时间: 2026-04-11 09:48:56
摘要:
作者: #nazate
板块: #前沿快讯
编号:
1942607帖子: https://linux.do/t/topic/1942607
时间: 2026-04-11 09:48:56
摘要:
《生化危机9:安魂曲》Denuvo加密被cs.rin.ru论坛上的 voices38 破解
是不用关闭系统安全(Hypervisor)的“完整破解”
https://cs.rin.ru/forum/viewtopic.php?p=3487294#p3487294
*算是慢讯了
标题: 最新版codex plus不显示fast模式了
作者: #balance
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1942615
时间: 2026-04-11 09:50:36
摘要:
作者: #balance
板块: #开发调优
编号:
1942615帖子: https://linux.do/t/topic/1942615
时间: 2026-04-11 09:50:36
摘要:
Codex 26.409.20454 版本刚刚更新,发现没有了fast。plus额度被大砍,现在fast也没了,奥特曼你要干什么!
标题: 佬友摸鱼都干啥啊
作者: #罗素同学
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1942626
时间: 2026-04-11 09:52:47
摘要:
作者: #罗素同学
板块: #搞七捻三
编号:
1942626帖子: https://linux.do/t/topic/1942626
时间: 2026-04-11 09:52:47
摘要:
佬友们,你们工作中摸鱼除了刷L站还干啥啊,难道是我刷的强度有点高吗,感觉帖子都是看过的了
标题: 这是何意味啊
作者: #某人
板块: #运营反馈
编号:
帖子: https://linux.do/t/topic/1942640
时间: 2026-04-11 09:56:58
摘要:
作者: #某人
板块: #运营反馈
编号:
1942640帖子: https://linux.do/t/topic/1942640
时间: 2026-04-11 09:56:58
摘要:
K-y-x佬还在为当初公益站老虎机还债
何至于此啊,怎么还没从审核关键词放出来,
每次我要推荐新公益站佬友用他的插件都要审核
标题: 现阶段御三家模型,用中文 Prompt 和英文 Prompt,回答质量差距到底还有多大?
作者: #DanterM
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1942643
时间: 2026-04-11 09:58:40
摘要:
作者: #DanterM
板块: #搞七捻三
编号:
1942643帖子: https://linux.do/t/topic/1942643
时间: 2026-04-11 09:58:40
摘要:
我看了站内关于此问题的帖子已经是2年前了,所以想问问各位佬的实际体验。
现在用御三家模型时,同一个问题分别用中文和英文 Prompt,回答质量差距还明显吗?
我感觉日常问答差别已经不算太大了,但复杂任务里英文有时还是更稳一点。想看看大家现在是不是还会特意先把 Prompt 转成英文。
标题: 为什么好像没看过的帖子结贴也会提醒我?
作者: #马甲
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1942650
时间: 2026-04-11 09:59:13
摘要:
作者: #马甲
板块: #搞七捻三
编号:
1942650帖子: https://linux.do/t/topic/1942650
时间: 2026-04-11 09:59:13
摘要:
如题,这两个帖子我都没印象点开过,快问快答采纳的时候给我发了私信,但我真没印象看过了。
标题: 有佬友用过HappyHorse么
作者: #Draw
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1942667
时间: 2026-04-11 10:02:05
摘要:
作者: #Draw
板块: #搞七捻三
编号:
1942667帖子: https://linux.do/t/topic/1942667
时间: 2026-04-11 10:02:05
摘要:
今天在群里刷到的
说是超越了seedance,并且开源
标题: 家用电脑没有公网IP 怎么当服务器呢
作者: #kexincolar
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1942670
时间: 2026-04-11 10:02:28
摘要:
作者: #kexincolar
板块: #开发调优
编号:
1942670帖子: https://linux.do/t/topic/1942670
时间: 2026-04-11 10:02:28
摘要:
目前的想法一是cf tunnel 好像不稳定
第二个好像是弄一个出口机 不是很懂这块
饿饿 佬友 教教 谢谢
标题: 新人报道,送智谱GLM Coding Plan 体卡 5张
作者: #zzf523
板块: #福利羊毛
编号:
帖子: https://linux.do/t/topic/1942678
时间: 2026-04-11 10:03:26
摘要:
作者: #zzf523
板块: #福利羊毛
编号:
1942678帖子: https://linux.do/t/topic/1942678
时间: 2026-04-11 10:03:26
摘要:
我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧:智谱AI开放平台
标题: 被AI替代的码农
作者: #huangzheng036
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1942679
时间: 2026-04-11 10:04:02
摘要:
作者: #huangzheng036
板块: #搞七捻三
编号:
1942679帖子: https://linux.do/t/topic/1942679
时间: 2026-04-11 10:04:02
摘要:
还有同事(后台CRUD开发)觉得vibe coding不靠谱的,还在初期的将代码拷贝到聊天对话框修改代码,然后觉得AI改的不好,侃侃而谈发表评论说现在AI也就是替代下原来的百度,google, 半吊子。
然后说我这种完全交给AI自己不过代码的才是要被AI替代的人!
好像只要他不完全依赖AI,自己还在看代码就不会被替代。
标题: github对github copilot做限制了
作者: #web11
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/1942687
时间: 2026-04-11 10:05:03
摘要:
作者: #web11
板块: #前沿快讯
编号:
1942687帖子: https://linux.do/t/topic/1942687
时间: 2026-04-11 10:05:03
摘要:
该来的还是来了。github终于还是对github copilot 出手了。
服务可靠性限流:当用户触发限流时,可以等待,或切换到其他替代模型或使用自动模式。
针对 copilot pro+ 用户下线 opus 4.6 Fast,推荐使用 opus 4.6 作为替代。
https://github.blog/changelog/2026-04-10-enforcing-new-limits-and-retiring-opus-4-6-fast-from-copilot-pro/
标题: 你是怎么解决大模型不按要求输出标准JSON格式的?—— 一场技术面试实录
作者: #雪山飞狐
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1942689
时间: 2026-04-11 10:05:16
摘要:
作者: #雪山飞狐
板块: #开发调优
编号:
1942689帖子: https://linux.do/t/topic/1942689
时间: 2026-04-11 10:05:16
摘要:
1.开场:聊聊踩过的坑
王工:我看你简历上写了两年LLM应用开发经验。我问一些实战经验问题:你在项目里让大模型返回JSON,遇到过什么麻烦没?
小张:遇到过,特别在大模型初期,GPT-4那个时代,经常出现格式不稳定,有时候会多个逗号,有时候key不带引号,偶尔还包一层markdown代码块.
王工:那你当时是怎么解决?
小张:一开始就利用提示词,在prompt里反复强调"请严格输出JSON格式,不要包含任何其他内容"。然后利用fewcase引导,会有点用,但不彻底,大概能到七八成的准确率。
王工:嗯,那你分析过为什么prompt约束不彻底吗?
小张:有想过,例如模型生成文本的本质是逐Token采样,它并没有一个内置的JSON解析器在检查语法。它只是根据训练数据"学会"了JSON长什么样,但这是统计意义上的,不是规则意义上的。
王工:对,这点很关键。OpenAI早期的JSONMode测试下来,合格率大概只有35%左右.
2.第一回合:JSONSchema的原理
王工:那后来你们怎么解决的?
小张:大模型进步非常快,官方OpenAI发布的Structured Output, 直接 置response_format 为 json_schema, 再 开strict:true。基本输出就一定会按照指定格式输出了
王工:那你说说它的底层实现吧?
小张:我理解是把JSONSchema是借用状态机,模型每生成一个Token,FSM就转移一次状态,然后根据当前状态算出下一步合法的Token,不合法的Token概率直接置零,这样就避免输出错误结构。
王工:说得挺好的。那我在问深如一点,你遇到过第一次请求特别慢、后面就快了的情况吗?
小张:遇到过,不过倒是没研究,感觉是Schema编译成FSM需要时间,第一次要做预处理,后面同样的Schema能复用缓存。
王工:不错。还有个细节-那为什么不能把所有约束都提前处理好呢?
小张:(想了一下)因为有些约束是上下文相关的吧?比如某个字段的值必须是enum里的选项,这得看前面生成了什么才能判断。
3.第二回合:更新的一些JSON方案
王工:Structured Output是2024年下半年的)案了,最近有没有别的更好的方案出现?
小张:有的。例如Claude4.5就加了原生的结构化输出支持,用法跟OpenAI差不多,都是通过JSONSchema约束输出格式。
王工:那你用过吗?跟OpenAI的方案有什么差异?
小张:尝试过。Claude那边对嵌套结构和复杂类型的支持感觉更灵活一些,但首次延迟也存在。不过我没做过系统的对比测试,所以不太好回答两者差异。
王工:这个态度挺实在的,没测过就不瞎说。国内有其它方案吗?
小张:有的,通义干问也有结构化输出,能支持JSON Object JSON Schema两种模式。
王工:嗯。还有一个方案你可能没注意一OpenRouter 去年12月出了个ResponseHealing功能,了解吗?
小张:这个我还真不知道。
王工:它的思路不一样,不是在生成时进行token状态预测约束,而是直接在响应返回前自动修复格式问题。官方说能减少80%以上的JSON缺陷。这适合那些底层模型不支持JSONSchema约束的模型
小张:哦,相当于是个后处理的增强版?
王工:可以这么理解。
4.第三回合:方案选型怎么做
王工:我们来一个临场问题吧,假如现在让你给新项目选方案,你会怎么考虑或选择?
小张:我会先分场景。如果是调用API,可以直接用原生的Structured Output例如刚刚说的OpenAI、Claude、通义干问。
王工:如果用的模型或API不支持StructuredOutput呢?
小张:那就只能靠后处理了。第一种就是常见的代码兼容的方式,例如用json-repair库修复常见的格式问题,配合Pydantic做校验,失败了就重试。还有就是您提到的后处理方式ResponseHealing
5.收尾:几个容易忽略的坑
王工:最后问几个细节。你在生产环境用Structured Output,踩过t么坑?
小张:倒是有,例如Schema太复杂的时候会有状态爆炸问题,显存占用突然暴涨。我们后来直接团队内默认规则,要把Schema设计得尽量扁平,嵌套不允许超过三层。
王工:还有吗?
小张:有,当时还挺难发现的,是一个缓存失效问题,就是JSON的key顺序和Structured Output如果不一致,KVCache就没法复用,导致每次推理都会变慢。
王工:那在问最后一个,additionalProperties这个参数你怎么设的?
小张:设成false。不然模型可能会生成Schema之外的字段,下游解析会出问题。
王工:(点头)行,这个问题就聊到这。你对底层机制理解得挺深入的,新技术也在实时关注,不错。
小张:谢谢王工。
6.总结
大模型输出JSON格式错误的根本原因是概率采样缺乏语法规则约束
解决方案通过受限解码一把JSONSchema编译成FSM,利用状态机来控制输出的token是否符合预期。
2025年后OpenAI等也提供了原生StructuredOutput,调用api设置参数即可
不支持受限解码的场景则用json-repair做兜底。
生产环境需注意控制Schema复杂度、固定key顺序、关闭additionalProperties。
原文章来自: 小红书