标题: 家人们,二辩了
作者: #Tomato
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2154301
时间: 2026-05-11 15:25:45
摘要:
作者: #Tomato
板块: #搞七捻三
编号:
2154301帖子: https://linux.do/t/topic/2154301
时间: 2026-05-11 15:25:45
摘要:
家人们,昨天答辩遇到一个神经老师了,很不幸二辩了 ,真服了,主要是我看见答辩表上分比一些人高,但是我二辩了,他没有二辩,这是被二辩指标给拦住了吗?
标题: 想开发一个 自己的小程序 或者 自己的项目 但是没有啥方向和思路 (每天都有访问量 能够吸引人的那种)
作者: #dalang
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2154310
时间: 2026-05-11 15:26:47
摘要:
作者: #dalang
板块: #搞七捻三
编号:
2154310帖子: https://linux.do/t/topic/2154310
时间: 2026-05-11 15:26:47
摘要:
本人有个 个体工商户的营业执照 。(可利用或者不利用)
标题: 哪个模型 前端UI 还原更好-不科学测试。
作者: #martin
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2154311
时间: 2026-05-11 15:26:50
摘要:
作者: #martin
板块: #开发调优
编号:
2154311帖子: https://linux.do/t/topic/2154311
时间: 2026-05-11 15:26:50
摘要:
最近正好有一些前端UI需要新建,就试了一下现在一些主流大模型对于UI的还原,并做了一下简单的测试。并在此记录一下。
1.codex 5.5 拉完了。完全不按照提示词,识图完全自由发挥,UI还原不会再使用了。50% 还原度
2.claude opus-4.7 npc 视图能力一般,比codex稍强,不用mcp 基本上也是基本能用 68% 使用了 analyze_image 分析 能达到78%
3.gemini gemini-3.1-pro-preview 人上人。 能比较好的还原UI的样式部分 ,但是内容还原不是很理想。(一个表单,很多列的顺序不对,筛选栏的内容也错了几个),但是UI的样式还原还是不错。能达到80%
4 GML-5.1 + GLM-analyze_image 。人上人。算是最省心的一个方案了。ui还原度高,内容也基本能对。就是一些组件间的对齐和一致性还是有些问题。但是也可能是提示词没有太详细。88左右%
样式上最好还是使用figma的mcp工具,样式上基本上都可以一把对。这次因为没有给figma 只能用蓝湖上的截图来还原。这个也是一家之词。也只是对于UI的还原的非科学测试。具体业务代码,还是codex和opus 更好用一些,不过glm5.1 也算可以一用了。
标题: 提问有佬知道kiro高缓存注水的原理吗?
作者: #91mrwei
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2154313
时间: 2026-05-11 15:26:52
摘要:
作者: #91mrwei
板块: #开发调优
编号:
2154313帖子: https://linux.do/t/topic/2154313
时间: 2026-05-11 15:26:52
摘要:
在群里看到一个词,叫做kiro高缓存注水,想请教一下论坛里的佬们,这个的原理是什么?
标题: codex开发流程, 计划任务后, 你是怎么做的
作者: #凤凰山
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2154320
时间: 2026-05-11 15:28:18
摘要:
作者: #凤凰山
板块: #开发调优
编号:
2154320帖子: https://linux.do/t/topic/2154320
时间: 2026-05-11 15:28:18
摘要:
目前我没用啥额外东西比如ohmycodex之类
计划好任务后, 就说开始开发, 但codex一般开发完一个任务就停下来, 我就写继续开发, 继续开发
现在感觉有点不优雅, 大家是怎么做的, 我不需要太复杂得东西, 只是说可能两者之间, 既不是一次从头开发到尾, 或者干一个任务就停下来, 可能有个任务组或者里程碑得概念, 干到合适得事件才停下来
标题: grok-search是用不了了吗
作者: #我叫叶神
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2154323
时间: 2026-05-11 15:29:13
摘要:
作者: #我叫叶神
板块: #搞七捻三
编号:
2154323帖子: https://linux.do/t/topic/2154323
时间: 2026-05-11 15:29:13
摘要:
听说xAI要goodbye了,今天的grok-search mcp都不可用,有无替代方案
标题: openclaw用久后出现的一些问题,请教佬友们是否有调优的方法
作者: #Kaijun
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2154324
时间: 2026-05-11 15:29:13
摘要:
作者: #Kaijun
板块: #开发调优
编号:
2154324帖子: https://linux.do/t/topic/2154324
时间: 2026-05-11 15:29:13
摘要:
一个月以来使用openclaw来每天帮我完成某一项任务(涉及到搜索、爬虫、清洗、数据库入库等操作)。都是纯用语言在飞书和openclaw对话,然后进行debug类的修复调优。沉淀了一整套工作流,前段时间的表现都没有什么问题,也比较稳定。
最近明显感觉到两点:1. 运行时间大幅拉长,而且有些时候卡住或者不做了没有给我任何反馈,有些时候动不动就停下来跟我汇报进度或者难题(无关紧要的困难),经常让我长期监视并且跟它说“请你继续完成任务”。2. 准确率下降,搜索得到的结果基本都是错的,并且反复重申规则也没有用。3. 技能使用变傻,让它发个excel到群里,还要反反复复监视好几次,真的跟个傻*一样
求助佬友们是否有遇到过类似的问题,有什么调优的方向呢?
标题: 美团火车票抢票是个大笑话
作者: #he
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2154325
时间: 2026-05-11 15:29:14
摘要:
作者: #he
板块: #搞七捻三
编号:
2154325帖子: https://linux.do/t/topic/2154325
时间: 2026-05-11 15:29:14
摘要:
抢票还是老实到12306吧。
我在美团火车票提前预约了抢票,没有购买任何的提速包,然后到了时间点,我发现美团还没有购买,但是我登录12306有很多余票,直接12306买了。看来这个抢票软件一点不靠谱,给佬友们提醒一下。
标题: 当你只发送<think>给Deepseek时有几率已读乱回
作者: #灰質心
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2154329
时间: 2026-05-11 15:29:47
摘要:
作者: #灰質心
板块: #搞七捻三
编号:
2154329帖子: https://linux.do/t/topic/2154329
时间: 2026-05-11 15:29:47
摘要:
RT,水群时亲友说发送<think>给ds会回复一个毫不相干的随机回答,于是我就去尝试了一下,是真的。
以下所有对话均为新对话,没有任何上下文。使用的是网页版开启深度思考未开启联网搜索的专家模式
第一次:已读乱回
第二次:正常回复
第三次:已读乱回
第四次:已读乱回
第五次:已读乱回
第六次:已读乱回
第七次:已读乱回
用API渠道来尝试,也存在该情况。
引申出思考:这是什么原因?
亲友说:难道跟GPT的**“大发展有限公司”**一样存在训练语料污染吗?
并不是。典型的语料污染是指训练数据内混入了不该有的垃圾内容/数据,导致某种情况下的输出会含有毫不相干的文本。
而这个情况更像是<think>作为模型训练里常见的思考标签,常用于被标记推理过程:
<think>这里是推理过程…</think>
那么当我发送这个标签时,模型会认为"哦我现在该输出推理内容了",于是开始模仿这个格式。又因为Transformer+自回归是基于记忆中所有上文来预测下一个token从而输出内容,当它看见和空白的上文时,依赖训练时标注的内容格式,开始生成:“我们需要理解用户的问题: …”/“我首先需要分析用户的问题…”,再基于这句话来生成一个随机的问题来圆回整个上文。
当然这都是我自己的见解,如果佬们有其他高见也欢迎讨论
标题: 买M5的macbook pro还是等明年新模具
作者: #coderZoe
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2154336
时间: 2026-05-11 15:30:45
摘要:
作者: #coderZoe
板块: #搞七捻三
编号:
2154336帖子: https://linux.do/t/topic/2154336
时间: 2026-05-11 15:30:45
摘要:
后端开发,目前在公司用的macmini M4 32G,想在家里也配个mac,纠结是现在买M5版本的mbp还是等明年的mbp新模具,听说今年年底或明年会出新模具。主要是现在的mbp我感觉有点重和厚,不知道明年新模具会不会变得轻薄。然后考虑到后端开发,我估计air应该满足不了需求,因此就没考虑m5的air。
标题: chatgpt网页版成5mini了我是pro会员一直用的自建稳定节点,订阅配额也没限制,有佬知道什么问题吗
作者: #qiao
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2154341
时间: 2026-05-11 15:31:06
摘要:
作者: #qiao
板块: #开发调优
编号:
2154341帖子: https://linux.do/t/topic/2154341
时间: 2026-05-11 15:31:06
摘要:
chatgpt网页版成5mini了我是pro会员一直用的自建稳定节点,订阅配额也没限制,有佬知道什么问题吗
提问问题思考过程都没有直接出结果
标题: 现在反重力额度被砍的真离谱!
作者: #千手扉间
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2154348
时间: 2026-05-11 15:32:01
摘要:
作者: #千手扉间
板块: #搞七捻三
编号:
2154348帖子: https://linux.do/t/topic/2154348
时间: 2026-05-11 15:32:01
摘要:
之前薅的年费pro账号,平时很少用,今天突然想用一下opus4.6,对话了三次就剩下60%了,而且为啥变成4天刷新了!!!
请教一下佬友们,反重力的opus额度是按照token消耗还是对话次数吗
标题: 有个需求不知道能否做,各个平台 统计一个地市的,粉丝数量1万以上的账号,
作者: #dalang
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2154357
时间: 2026-05-11 15:34:00
摘要:
作者: #dalang
板块: #搞七捻三
编号:
2154357帖子: https://linux.do/t/topic/2154357
时间: 2026-05-11 15:34:00
摘要:
有个需求不知道能否做,各个平台 统计一个地市的,粉丝数量1万以上的账号,
标题: claude code + deepseek v4 pro 怎么这么慢?
作者: #小七
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2154371
时间: 2026-05-11 15:36:16
摘要:
作者: #小七
板块: #开发调优
编号:
2154371帖子: https://linux.do/t/topic/2154371
时间: 2026-05-11 15:36:16
摘要:
之前使用的codex,现在换成 claude code + deepseek v4,怎么感觉生成代码特别慢。动不动就8分钟,往上。开发简单任务也是。
下面是我的cc switch 配置
{
"env": {
"ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
"ANTHROPIC_AUTH_TOKEN": "sk-test",
"ANTHROPIC_MODEL": "deepseek-v4-pro[1m]",
"API_TIMEOUT_MS": "3000000",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "deepseek-v4-pro[1m]",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "deepseek-v4-pro[1m]",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "deepseek-v4-flash",
"CLAUDE_CODE_SUBAGENT_MODEL": "deepseek-v4-flash",
"CLAUDE_CODE_EFFORT_LEVEL": "max"
},
"includeCoAuthoredBy": false,
"model": "deepseek-v4-pro",
"extraKnownMarketplaces": {
"karpathy-skills": {
"source": {
"source": "github",
"repo": "forrestchang/andrej-karpathy-skills"
}
}
},
"theme": "dark",
"enabledPlugins": {
"andrej-karpathy-skills@karpathy-skills": true
}
}
搜了很多使用技巧方面的说明,也没有提到这个。
大任务我也是 用 plan 拆分了。单文件任务我也用@ 导入文件了。慢…
之前codex 有 fast,claude 好像deepseek 没法用fast.
有什么配置没有配置正确吗