LinuxDo 新帖推送
170 subscribers
247K photos
307K links
Download Telegram
标题: 月底了,送WPS大会员,领取天数随机,先到先得
作者: #Xbroad
板块: #福利羊毛
编号: 2070737
帖子: https://linux.do/t/topic/2070737
时间: 2026-04-28 08:31:18
摘要:
共10天,大概能有3-4个人领到,有需要的佬友速领,WPS大会员现在确实不错
标题: 完美闭环的网易+战网+暴雪+暗黑4
作者: #puerwulala
板块: #搞七捻三
编号: 2070738
帖子: https://linux.do/t/topic/2070738
时间: 2026-04-28 08:31:19
摘要:
坑爹网易无限循环
事情的起点很简单:国服送暗黑4,我想回归国服
然后事情就不简单了
一、坑爹战网:
我战网账号是很早以前注册的,里面还有《暗黑破坏神 3》和 DLC。问题从这里开始:

以前注册战网号时,实名信息不是我自己的。
现在登录国服战网,需要绑定网易通行证。
绑定网易通行证时,要求战网实名信息和网易实名信息一致。
我的实名信息不一致,所以绑定失败。
客服让我新建一个网易空号,用来迁移实名信息。
我新建了空号,结果系统提示仍然不能绑定,因为战网实名信息不通过,需要申诉。
申诉需要提供身份证照片和人脸识别。
但战网实名信息本来就不是我的,所以申诉又回到了第 1 步。

于是形成了一个完美闭环:

战网实名不是我 → 绑定不了网易 → 需要申诉 → 申诉要本人身份证和人脸 → 但实名不是我 → 继续绑定不了。

二、那我重新注册一个战网号总行吧?
既然老号救不回来,那我重新注册一个战网号。
注册时提示:

手机号已被使用。

也就是说,我的手机号已经被旧流程锁住了。
旧号实名不对,改不了;新号手机号又不能用。
三、客服给出的“解决方案”
客服表示,可以通过预充值走申诉流程:




预充值金额
审核时间




500 元
14 天


1000 元
5 天



我问客服:

申诉成功后能改实名吗?

客服回答:

改不了。

这就很精彩了:
花钱申诉,等审核,然后实名还是不能改。
四、最终结果:我的身份和手机号被卡死了
现在的情况是:

我的手机号无法正常注册新的战网账号。
我的身份信息无法绑定旧战网账号。
旧战网实名无法修改。
战网账号无法注销。
我无法使用任何正常的国服战网服务。

如果我想玩国服,就需要找另一个人提供:

手机号
网易账号
战网账号
实名认证信息

也就是说,我想玩自己的游戏,得先借别人的身份重新做人。
五、再来到坑爹《暗黑破坏神 4》
国服战网登录不上去之后,我又看了一下《暗黑破坏神 4》的购买方案。
国服方案
国服价格是:

本体:免费
DLC1 + DLC2:240 元

但前提是,需要别人提供手机号和实名,重新
标题: glm的coding plan好难抢啊
作者: #sgzy
板块: #搞七捻三
编号: 2070739
帖子: https://linux.do/t/topic/2070739
时间: 2026-04-28 08:32:15
摘要:
glm的coding plan怎么才能抢上啊,每次到点都秒没。
标题: GPT Pro 20x 用不完了,快来Hub帮我蹬完(0.2倍速率)
作者: #lanai
板块: #搞七捻三
编号: 2070740
帖子: https://linux.do/t/topic/2070740
时间: 2026-04-28 08:32:37
摘要:
如题,明天刷新周限,现在还剩85%,来帮我蹬完;(0.2倍率)
站点是咱们LinuxDo元宇宙的Hub: 【闲置API置换公益】佬们,我也是支棱起来了,喜获linuxdo子域名
渠道名:Pro 20x (0.2倍速率)
支持模型:gpt-5.5、gpt-5.4、gpt-5.3-codex、gpt-5.3-codex-spark、gpt-5.2、gpt-5.4-mini
标题: GPT-5.5模型的Arena的评分排行出来了
作者: #ApliuQ
板块: #前沿快讯
编号: 2070741
帖子: https://linux.do/t/topic/2070741
时间: 2026-04-28 08:32:42
摘要:
从官方发文搬过来的,没想到的是代码这块居然会被glm、kimi压下去。详细内容如下:
标题: free号也顶不住了
作者: #我家有个小西瓜
板块: #搞七捻三
编号: 2070755
帖子: https://linux.do/t/topic/2070755
时间: 2026-04-28 08:33:49
摘要:
古法注册free号也开始弹add phone了,没有活路了
标题: Opus 4.7 目前在哪些场景要比 GPT 5.5 更好用?
作者: #Florian
板块: #搞七捻三
编号: 2070757
帖子: https://linux.do/t/topic/2070757
时间: 2026-04-28 08:34:46
摘要:
如题,同时在用 GPT Pro 和 Claude Max,但是感觉对于我来说,现在感觉 Codex 就可以完成所有的任务了,平时感觉这两个能力上也没啥区别了,尤其是 5.5 更新之后,GPT 也可以说人话了,前端能力也提高了不少,使用体验好了很多。我现在考虑下个月只保留 GPT Pro 的订阅了,暂时没有遇到特别需要 Opus 的场景,想问问佬友平时会在什么场景使用 Opus,在什么场景使用 GPT 呢?目前我唯一想到的 GPT 比较弱的地方就是没有 1M 上下文?这点在重型开发的时候是不是有很大影响呢?
标题: team 封号是啥原因
作者: #Kizuna Ai
板块: #搞七捻三
编号: 2070763
帖子: https://linux.do/t/topic/2070763
时间: 2026-04-28 08:36:35
摘要:
上周国区pp开的team,今早刚封了
母号数字xyz邮箱,德国ip开的,后来一直用美国ip反代
这是啥原因封了
标题: 理性讨论,DS V4这个性价比我觉得相当强啊,为什么会有这种离谱的论调。。Mimo的价格好像也不低来着?
作者: #ArcherFD
板块: #国产替代
编号: 2070765
帖子: https://linux.do/t/topic/2070765
时间: 2026-04-28 08:36:49
摘要:
标题: 求助!9块5的GPT PLUS凉了!
作者: #Ryunn4
板块: #搞七捻三
编号: 2070806
帖子: https://linux.do/t/topic/2070806
时间: 2026-04-28 08:43:45
摘要:
昨晚凌晨猛猛 Vibe Coding, 一觉醒来账号凉了。也没反代也没破限,应该就是渠道G了。
佬们,还有什么靠谱的 plus 能干吗?outlook 邮箱是不是容易被封?
我做到一半的项目啊!!
标题: 【悲报】Antigravity反重力的家庭组额度变为共享了!不能再一拖多了!!!
作者: #苏白城
板块: #开发调优
编号: 2070819
帖子: https://linux.do/t/topic/2070819
时间: 2026-04-28 08:47:36
摘要:
4月28日快讯
昨天晚上还用的好好的
今天一觉醒来 谷歌家庭组内的所有子账号的反重力额度全变成共享了(无论Claude还是Gemini)
这下玩完了呀 再无这个性价比渠道了
标题: 求助:网站接入支付[有执照版]
作者: #Victor ferline
板块: #搞七捻三
编号: 2070831
帖子: https://linux.do/t/topic/2070831
时间: 2026-04-28 08:49:51
摘要:
自己之前搞 tiktok 店铺的时候办过一个个人独资的营业执照(归属地在云南),现在想把它用于接入个人网站用微信支付宝之类的可以吗?
但是我开通经营码的时候需要个经营照片,我想找之前给办执照的网点问问,结果那个店已经关了。。。
这个经营照片去哪找,ai 生成一个?
标题: L站登录方式
作者: #D W
板块: #运营反馈
编号: 2070836
帖子: https://linux.do/t/topic/2070836
时间: 2026-04-28 08:50:27
摘要:
之前注册登录的时候用的是谷歌邮箱,但是每次登录的时候都要挂梯子,怎么样才能更换登录邮箱
标题: gemini是不是无法生成ppt了?
作者: #zacks
板块: #搞七捻三
编号: 2070838
帖子: https://linux.do/t/topic/2070838
时间: 2026-04-28 08:50:57
摘要:
最近用gemini写课件,前段时间都能完整生成,上周五发现能生成但不能导出成ppt格式了。再经过多次测试,发现连生成都不行了。老是说“我是一个文本 AI,这超出了我的能力范围。”
佬们有这样吗?能不能破限?
标题: GPT-5.5在claude code自定义上下文长度的方法
作者: #鹿目圆
板块: #开发调优
编号: 2070845
帖子: https://linux.do/t/topic/2070845
时间: 2026-04-28 08:52:04
摘要:
目前来看,gpt-5.5只有api调用才有满血1M上下文,从codex反代出来的只有400k窗口(其中258k输入来着)
我尝试在claude code使用该模型,然而5.5没有100万上下文,强行设定的话会出问题(超出模型处理能力然后任务无法继续。。。)
然而我觉得400k虽然没那么多,但是也不至于经常触发窗口上限吧。。
结果就是用起来频繁压缩很头疼,以前用gpt-5.4的时候默认开了100万上下文(写[1M]后缀即可,现在的deepseek v4 pro如果开1M上下文也是这样干的)
然后使用/context指令才发现,只有200k上下文!!
经过查询和试错(期间我发现grok就算有网络搜索能力,给出的参数设置也是过时的,真正有效的数据还是gemini3.1pro结合谷歌搜索才找到的),
目前的结论是如下:
如果需要自定义模型在cc突破cc默认设置的200k上下文,同时又不至于到[1m]这种上下文,claude code设定必须让env里设定 DISABLE_COMPACT 为 1 才能生效,自动压缩以及压缩阈值autoCompactThreshold将失效,需注意手动压缩,否则超出上下文可能导致模型处理能力爆炸
.claude\settings.json的这部分示例如下:
“env”: {
“DISABLE_AUTOUPDATER”: “1”,
“CLAUDE_CODE_EFFORT_LEVEL”: “max”,
“ENABLE_TOOL_SEARCH”: “true”,
“CLAUDE_CODE_MAX_CONTEXT_TOKENS”: “400000”, //配置核心
“DISABLE_COMPACT”: “1”, //配置核心
“IS_SANDBOX”: “1”
},
“enabledPlugins”: {
“document-skills@anthropic-agent-skills”: true,
“superpowers@claude-plugins-official”: true
},
“hasCompletedOnboarding”: true,
“autoCompactThreshold”: “0.9”(这里只是示范我以前的自动压缩参数,前面已经设定了禁止压缩,所以这个参数实际上也会不工作)
如果佬友需要复制参数,记得去掉“//配置核心”,有可能导致claude认为配置文件有错误(在JSON文件的标准规范(RFC 8259)中是不支持注释的)
以上只是针对这样一个需求提供一种办法,如果佬友有更好的办法来控制就再好不过啦。
我codex和claude都用,有时候只是想试试在claude code里用gpt的感觉))