LinuxDo 新帖推送
177 subscribers
248K photos
308K links
Download Telegram
标题: 小米的百万亿计划。。。我这有9亿。。。要用的自取
作者: #KZ
板块: #福利羊毛
编号: 2154260
帖子: https://linux.do/t/topic/2154260
时间: 2026-05-11 15:19:17
摘要:
突然想起来。。。我的小米的7亿token还没用。。。不对。。。是9亿了我还没用。。。有效期截止这个月底
发到这里各位老板需要用的自取吧:

API_KEY(Base64编码过了):
spoiler
OpenAPI兼容接口 BaseURL:
https://token-plan-cn.xiaomimimo.com/v1
Claude 兼容接口 BaseURL:
https://token-plan-cn.xiaomimimo.com/anthropic
各种工具配置方式可以参考:



platform.xiaomimimo.com





Xiaomi MiMo Api Open Platform - Token Plan Global Launch

One-time purchase unlocks both MiMo-V2-Pro and Omni flagship models, plus TTS model free across all tiers for a limited time. Unleash powerful productivity with Xiaomi MiMo
标题: 关于claude破限!
作者: #小林
板块: #开发调优
编号: 2154261
帖子: https://linux.do/t/topic/2154261
时间: 2026-05-11 15:19:21
摘要:
有佬友知道这个吗,最近在使用claude4.6opus或者4.7opus,让他们去进行逆向分析,涉及到这块就会说抱歉我不能执行这个操作。请教一下佬友能破开吗!
标题: 求助,各位佬,有没有易支付推荐一下呀,自己的new-api想接一下支付(微信、支付宝)即可
作者: #zixuanZhang
板块: #运营反馈
编号: 2154281
帖子: https://linux.do/t/topic/2154281
时间: 2026-05-11 15:21:29
摘要:
求助,各位佬,有没有易支付推荐一下呀,自己的new-api想接一下支付(微信、支付宝)即可
标题: 恶心的阿里coding plan
作者: #Lequal
板块: #搞七捻三
编号: 2154293
帖子: https://linux.do/t/topic/2154293
时间: 2026-05-11 15:23:35
摘要:
之前买的Lite套餐,一直可以续费使用,并且前阵子也给上了qwen3.6-plus,拿来用 Hermes,基本就当搜索引擎用了,也是轻度使用(写代码我一直用的 GPT 的),今天发现飞书上的个人助手没响应了,上去看看发现3.6无了。
标题: 家人们,二辩了
作者: #Tomato
板块: #搞七捻三
编号: 2154301
帖子: https://linux.do/t/topic/2154301
时间: 2026-05-11 15:25:45
摘要:
家人们,昨天答辩遇到一个神经老师了,很不幸二辩了 ,真服了,主要是我看见答辩表上分比一些人高,但是我二辩了,他没有二辩,这是被二辩指标给拦住了吗?
标题: 想开发一个 自己的小程序 或者 自己的项目 但是没有啥方向和思路 (每天都有访问量 能够吸引人的那种)
作者: #dalang
板块: #搞七捻三
编号: 2154310
帖子: https://linux.do/t/topic/2154310
时间: 2026-05-11 15:26:47
摘要:
本人有个 个体工商户的营业执照 。(可利用或者不利用)
标题: 哪个模型 前端UI 还原更好-不科学测试。
作者: #martin
板块: #开发调优
编号: 2154311
帖子: https://linux.do/t/topic/2154311
时间: 2026-05-11 15:26:50
摘要:
最近正好有一些前端UI需要新建,就试了一下现在一些主流大模型对于UI的还原,并做了一下简单的测试。并在此记录一下。
1.codex 5.5 拉完了。完全不按照提示词,识图完全自由发挥,UI还原不会再使用了。50% 还原度
2.claude opus-4.7 npc 视图能力一般,比codex稍强,不用mcp 基本上也是基本能用 68% 使用了 analyze_image 分析 能达到78%
3.gemini gemini-3.1-pro-preview 人上人。 能比较好的还原UI的样式部分 ,但是内容还原不是很理想。(一个表单,很多列的顺序不对,筛选栏的内容也错了几个),但是UI的样式还原还是不错。能达到80%
4 GML-5.1 + GLM-analyze_image 。人上人。算是最省心的一个方案了。ui还原度高,内容也基本能对。就是一些组件间的对齐和一致性还是有些问题。但是也可能是提示词没有太详细。88左右%
样式上最好还是使用figma的mcp工具,样式上基本上都可以一把对。这次因为没有给figma 只能用蓝湖上的截图来还原。这个也是一家之词。也只是对于UI的还原的非科学测试。具体业务代码,还是codex和opus 更好用一些,不过glm5.1 也算可以一用了。
标题: 提问有佬知道kiro高缓存注水的原理吗?
作者: #91mrwei
板块: #开发调优
编号: 2154313
帖子: https://linux.do/t/topic/2154313
时间: 2026-05-11 15:26:52
摘要:
在群里看到一个词,叫做kiro高缓存注水,想请教一下论坛里的佬们,这个的原理是什么?
标题: codex开发流程, 计划任务后, 你是怎么做的
作者: #凤凰山
板块: #开发调优
编号: 2154320
帖子: https://linux.do/t/topic/2154320
时间: 2026-05-11 15:28:18
摘要:
目前我没用啥额外东西比如ohmycodex之类
计划好任务后, 就说开始开发, 但codex一般开发完一个任务就停下来, 我就写继续开发, 继续开发
现在感觉有点不优雅, 大家是怎么做的, 我不需要太复杂得东西, 只是说可能两者之间, 既不是一次从头开发到尾, 或者干一个任务就停下来, 可能有个任务组或者里程碑得概念, 干到合适得事件才停下来
标题: grok-search是用不了了吗
作者: #我叫叶神
板块: #搞七捻三
编号: 2154323
帖子: https://linux.do/t/topic/2154323
时间: 2026-05-11 15:29:13
摘要:
听说xAI要goodbye了,今天的grok-search mcp都不可用,有无替代方案
标题: openclaw用久后出现的一些问题,请教佬友们是否有调优的方法
作者: #Kaijun
板块: #开发调优
编号: 2154324
帖子: https://linux.do/t/topic/2154324
时间: 2026-05-11 15:29:13
摘要:
一个月以来使用openclaw来每天帮我完成某一项任务(涉及到搜索、爬虫、清洗、数据库入库等操作)。都是纯用语言在飞书和openclaw对话,然后进行debug类的修复调优。沉淀了一整套工作流,前段时间的表现都没有什么问题,也比较稳定。
最近明显感觉到两点:1. 运行时间大幅拉长,而且有些时候卡住或者不做了没有给我任何反馈,有些时候动不动就停下来跟我汇报进度或者难题(无关紧要的困难),经常让我长期监视并且跟它说“请你继续完成任务”。2. 准确率下降,搜索得到的结果基本都是错的,并且反复重申规则也没有用。3. 技能使用变傻,让它发个excel到群里,还要反反复复监视好几次,真的跟个傻*一样
求助佬友们是否有遇到过类似的问题,有什么调优的方向呢?
标题: 美团火车票抢票是个大笑话
作者: #he
板块: #搞七捻三
编号: 2154325
帖子: https://linux.do/t/topic/2154325
时间: 2026-05-11 15:29:14
摘要:
抢票还是老实到12306吧。
我在美团火车票提前预约了抢票,没有购买任何的提速包,然后到了时间点,我发现美团还没有购买,但是我登录12306有很多余票,直接12306买了。看来这个抢票软件一点不靠谱,给佬友们提醒一下。
标题: 当你只发送<think>给Deepseek时有几率已读乱回
作者: #灰質心
板块: #搞七捻三
编号: 2154329
帖子: https://linux.do/t/topic/2154329
时间: 2026-05-11 15:29:47
摘要:
RT,水群时亲友说发送<think>给ds会回复一个毫不相干的随机回答,于是我就去尝试了一下,是真的。
以下所有对话均为新对话,没有任何上下文。使用的是网页版开启深度思考未开启联网搜索的专家模式
第一次:已读乱回

第二次:正常回复

第三次:已读乱回

第四次:已读乱回

第五次:已读乱回

第六次:已读乱回

第七次:已读乱回

用API渠道来尝试,也存在该情况。

引申出思考:这是什么原因?
亲友说:难道跟GPT的**“大发展有限公司”**一样存在训练语料污染吗?
并不是。典型的语料污染是指训练数据内混入了不该有的垃圾内容/数据,导致某种情况下的输出会含有毫不相干的文本。
而这个情况更像是<think>作为模型训练里常见的思考标签,常用于被标记推理过程:
<think>这里是推理过程…</think>
那么当我发送这个标签时,模型会认为"哦我现在该输出推理内容了",于是开始模仿这个格式。又因为Transformer+自回归是基于记忆中所有上文来预测下一个token从而输出内容,当它看见和空白的上文时,依赖训练时标注的内容格式,开始生成:“我们需要理解用户的问题: …”/“我首先需要分析用户的问题…”,再基于这句话来生成一个随机的问题来圆回整个上文。
当然这都是我自己的见解,如果佬们有其他高见也欢迎讨论