标题: gpt-image-2感觉要是速度再快点都可以当galgame玩了
作者: #IkedaTeresa
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2024521
时间: 2026-04-21 23:52:20
摘要:
作者: #IkedaTeresa
板块: #搞七捻三
编号:
2024521帖子: https://linux.do/t/topic/2024521
时间: 2026-04-21 23:52:20
摘要:
感觉这么上下的一致性都还蛮强的, UI等细节基本没有啥变化
标题: 新人第一次买服务器就遇上这种事
作者: #lich13
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2024530
时间: 2026-04-21 23:53:10
摘要:
作者: #lich13
板块: #搞七捻三
编号:
2024530帖子: https://linux.do/t/topic/2024530
时间: 2026-04-21 23:53:10
摘要:
前两天刚买了个首尔腾讯云,结果
尊敬的客户: 您好,腾讯云监测到首尔二区所在IDC机房制冷设备异常,机房可能存在设备异常风险。目前针对该风险已经执行应急预案,部署了高可用的产品实例已经陆续完成容灾切换,我们会尽全力缩短时间。请您关注业务状态,若有任何问题,请随时联系我们。
这运气是不是没谁了
标题: 要被Codex气昏了
作者: #aixiaoji_dev
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2024531
时间: 2026-04-21 23:53:26
摘要:
作者: #aixiaoji_dev
板块: #搞七捻三
编号:
2024531帖子: https://linux.do/t/topic/2024531
时间: 2026-04-21 23:53:26
摘要:
我在 Vibe Coding 一个项目,一直都在用 Trae CN 和 Codex 写。
我让 Trae CN 照着某个项目实现功能,但一直实现的极其差劲。正巧 Codex 额度重置了,并且我的套餐快到期了,就想着用 Codex 写,结果 BYD 成为了我接下来几个小时的噩梦。
我使用 Git 回滚后,将同样的提示词发给了 Codex 的 5.4 模型
第一次挺利索的,还以为能用了,结果…
给我这样搞,直接是全文字是几个意思?并且还动了我没规定的地方(图中大概标红的地方)加了个巨大的横幅
在我肯定不干
第一次斗智斗勇开始了:
痛痛快快的承认了问题,我当时又觉得他可以了
我飘了,让他回滚重做了
整个使用没有问题,但居然又在同样的位置跌倒了:又在之前的地方加了个巨大的横幅
我又火了
又是痛快的承认,但鉴于 Codex 这次的结果还行,于是我发了个“删掉你的全部自作主张!”
然后
我被稳稳的气死了。
标题: 金三银四,求推荐Java面试的资料
作者: #胡车儿
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2024539
时间: 2026-04-21 23:54:54
摘要:
作者: #胡车儿
板块: #搞七捻三
编号:
2024539帖子: https://linux.do/t/topic/2024539
时间: 2026-04-21 23:54:54
摘要:
最近公司正在降本增效,打算开始面试看下行情,问问佬友有没有比较全的Java面试资料,或者干货比较多的知识星球
标题: 一个macos上快速切换claude code订阅session的小工具
作者: #xjetry
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2024541
时间: 2026-04-21 23:55:10
摘要:
作者: #xjetry
板块: #开发调优
编号:
2024541帖子: https://linux.do/t/topic/2024541
时间: 2026-04-21 23:55:10
摘要:
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
我的帖子已经打上 开源推广 标签: 是
我的开源项目完整开源,无未开源部分: 是
我的开源项目已链接认可 LINUX DO 社区: 是
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
手里有3个cc订阅账号(OAUTH, 非API+BASEURL),撞周限都时切换很麻烦,cc-switch这类工具只能快速切换中转站的profile,暂不支持切换oauth session。
vibe了go和python版本,功能很小没啥可介绍的 需要的佬自取吧,windows没有设备无法测试就没做适配,应该也是一句话vibe就可以搞定。
claude-session-switch-macos
标题: (无侵入版本)Any牌路由器 SubAgent 和 Haiku 模型无法正常调用的解决办法
作者: #joneai
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2024545
时间: 2026-04-21 23:55:29
摘要:
作者: #joneai
板块: #开发调优
编号:
2024545帖子: https://linux.do/t/topic/2024545
时间: 2026-04-21 23:55:29
摘要:
基于哈雷彗星大佬 原帖 #1991311 的优化版。原方案用 AST 补丁改 cli.js,每次 Claude Code 升级都得重打;本版不动 Claude Code 本体,外挂一个本地反向代理,Claude Code 升级自动生效,还顺带兼容 v2.1.116+ 新的请求形态。
问题回顾(两种形态)
Claude Code 的 SubAgent 请求在不同版本里,发给 AnyRouter 的 thinking 字段有两种错配形态,AnyRouter(new-api 后端)对 Haiku / Opus 4.7 [1M] / Sonnet 4.6 这些 reasoning 模型都会 500(nil pointer dereference):
v2.1.112 ~ v2.1.115:cli.js 里 SubAgent 启动器 _u 把 thinking 硬编码为 {type:"disabled"}:
thinkingConfig: D ? _.options.thinkingConfig : { type: "disabled" }
D = useExactTools 只有 Fork agent 为 true,所有带 subagent_type 的 SubAgent 永远走 disabled 分支。
v2.1.116+:SubAgent 请求完全不带 thinking 字段(thinking absent)。但 AnyRouter 对 Haiku 仍要求 thinking 字段存在 —— 缺失就直接 crash。
AST 补丁只修得了第一种(而且每次升级要重打),新版本格式变了就匹配不到。
新思路:本地代理拦截改写
claude → 127.0.0.1:8787 (proxy) → https://anyrouter.top
│
└─ thinking 缺失 / null / disabled 都按模型归一化补上
重写规则(对齐 Claude Code 内部 API 层
标题: 谷歌发布两个新的Deep Research模型
作者: #HCPTangHY
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/2024552
时间: 2026-04-21 23:56:40
摘要:
作者: #HCPTangHY
板块: #前沿快讯
编号:
2024552帖子: https://linux.do/t/topic/2024552
时间: 2026-04-21 23:56:40
摘要:
deep-research-max-preview-04-2026
deep-research-preview-04-2026
DR模型仅支持interact接口调用
Google AI for Developers
Interactions API | Gemini API | Google AI for Developers
开始使用新一代 Gemini API 构建应用。
虽然不太对谷歌的DR有太大的兴趣
标题: GPT pro账号被deactivate
作者: #jatop
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2024556
时间: 2026-04-21 23:57:24
摘要:
作者: #jatop
板块: #开发调优
编号:
2024556帖子: https://linux.do/t/topic/2024556
时间: 2026-04-21 23:57:24
摘要:
前几天才充的100刀,今天用了它的Pro thinking,用了一晚上,就deactivate, 我一个人用的,也没跟人分享,就说cyber abuse, 被deactivate, 这个chatgpt还能好好充值吗?
标题: 22 岁,我用 Claude Code 递归 swarm 做了一次闲鱼市场调研——全流程复盘
作者: #belly_echer
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2024561
时间: 2026-04-21 23:58:21
摘要:
作者: #belly_echer
板块: #开发调优
编号:
2024561帖子: https://linux.do/t/topic/2024561
时间: 2026-04-21 23:58:21
摘要:
一、背景:我想靠 AI 配置服务挣钱
四月初我在想一件事:Claude Code 越来越多人用,但会配置的人少,不会配置的人苦。中间这个信息差能不能变成钱?
我研究过的路子大概三条:
闲鱼挂 ¥79 的 Claude Code 配置服务(帮人装好、配好、调好)
¥19.9 资料包(把 CLAUDE.md 最佳实践打包成 PDF 卖)
Cerebras 免费 API 批量注册 + ¥29/月中转(当时网上有人在做这个)
直觉上觉得都能赚到,但我不确定,因为我根本不知道这个市场现在是什么价位、竞争有多激烈、需求是不是真的。
一个做过电商的朋友说了句话:「你在卖东西之前,先把自己当买家调研一遍市场。」
但我不想手动刷闲鱼,那样太慢、太累、也不客观。
所以我做了一件可能更麻烦但也更有意思的事——让我自己搭的多 agent 系统去帮我做这件事。
二、系统架构:递归 swarm
我本地跑的不是单个 Claude Code,是一套分层 orchestration。
核心思想来自一个很朴素的类比:不是让一个天才做所有事,是让一群蚂蚁分工做完然后汇总。
架构长这样:
foreman (CC Opus · 主窗口 · 总指挥)
│
├─ L1 researcher (Tier A · 深度爬取 + 结构化提取)
│ └─ L2 extractor (Tier F · 免费模型 · 批量解析)
│ └─ L3 formatter (Tier F · 格式归一化)
│
├─ L1 analyst (Tier A · 跨平台对比分析)
│ └─ L2 cross-checker (独立二审 · 不看第一份输出)
│
└─ L1 writer (Tier A · 产出 PIVOT-DECISION.md)
└─ L2 fact-checker (验证关键数字前确认来源)
几个关键设计决策:
1. Tier 分级
按模型成本分四档:S(Opus,稀缺)、A(Sonnet,中端)、B(Haiku,廉价)、F(免费模型,吃爆)。调研爬取用 Tier F,分析汇总用 Tier A,最终判断留在 Tier S 主窗口。核心原则是「最贵的模型只做最贵的判断」。
2. Recursive spawn
任何 worker 遇到子问题,不请示、不等待,直接开子 worker 处理。比如 L1 researcher 在爬闲鱼时发现某个卖家有 271 人想要的 listing,它不是把原始数据抛回来,而是自己起一个 L2 去专门提取那个卖家的定价策略。
但有硬性 guardrail:MAX_DEPTH=3,超过三层直接 abort,不生孙子。每次 spawn 都写进 lineage.log,可以事后查谁派了谁。
3. 三段式:总控 → 执行 → 独立核查
执行线程完成后不直接交回,必须先申请核查。核查线程不看执行过程,只看 artifact。通过才算完成。这条规则是我踩了几次坑之后加的——模型会自信地编数据,独立核查是唯一能拦住它的方式。
4. 通信用文件,不用消息队列
所有 agent 往同一个 delegations.md 写状态。foreman 通过 fswatch 监听文件变动,有变动就重生成 brief,不做定时轮询。markdown 文件 + 事件驱动,比上 message broker 简单得多,也够用。
派单命令长这样:
dispatch --to=researcher \
--scope="/path/to/allowed/dir" \
--readonly="/path/to/context" \
--budget="20min" \
--verify-via="cross-checker" \
"爬闲鱼 AI 配置服务类 listing,提取:标题/价格/销量/评论数/发布时间,输出到 xianyu-raw.jsonl"
--scope 决定它能写哪些目录,--readonly 决定它能读哪些上下文,--verify-via 指定核查员。执行线程越界会被核查打回。
三、实战:调研跑起来
调研分三个并行方向:
方向 A:闲鱼 listing 普查
目标:把 Claude Code 配置服务类的 listing 全量抓下来,提取定价分布。
跑出来的数据里,有几个数字让我记住了:
市场中位价:¥24.9
销量最高的几个 listing 都是老店,权重已经做起来了
¥1-2 的 PDF 资料包有个 listing 显示 79-271 人想要,但单价太低
¥79 这个价位的只有新店,几乎没有成交记录
方向 B:竞品死活扫描
我本来打算做的第三条路——Cerebras 中转——这时候出了大问题。
system 让 researcher 去验证当时几个在做 Cerebras 中转的卖家还活着没有,结果:
88code → 403 Forbidden
gaccode → 403 Forbidden
wildcard → 403 Forbidden
同一天,24 把 Cerebras API key 全部返回 403。不是我的 key 出问题,是那批 key 来自同一个批量注册渠道,Cerebras 这边识别到了,整批封掉。
中转这条路当场判死刑——不是技术问题,是信任问题。即使重新搞 20 把活 key,买家凭什么相信一个新店不会也这么突然跑路?
方向 C:需求热度 + 平台交叉验证
同时在微信群和 linux.do 上拉了一遍热词,找真实的买家在哪里问问题、问什么问题。
四、数据结果
三份报告汇到 foreman 主窗口后,我让它做 pivot 决策。几个关键结论:
路径
硬数据
7 天真实预期
闲鱼 ¥79 配置服务
中位 ¥24.9,新店权重 0,被 ¥19.9 老店碾压
0-1 单
闲鱼 ¥19.9 资料包
¥1-2 PDF 有 79-271 人想要
1-3 单,低利
微信群 ¥99 broadcast
我在目标群自己也是学员,不是老师
0-1 单(信任倒置)
Cerebras ¥29/月中转
24 把 key 全 403,跑路阴影
0 单
所有路线里,只有一个正向信号:闲鱼上有个 ¥68.2 的 Obsidian + Karpathy 第二大脑 listing 是活着的,而且是那一批里唯一定价超过 ¥50 还有成交的。
这个数字很重要。不是说这个价格区间好做,而是说:「系统化方法论」比「帮人操作一次」值钱。
五、Pivot
调研完的当晚我做了个决定:原来的三条路全停。
不是技术没法做,是市场结构不对。一个新号在 ¥24.9 中位价市场里去竞争「帮人配置」,拼的是店铺权重和服务响应速度,这是老店的主场。
真正有差异化的东西是我花了这么多时间搭出来的这套系统本身——recursive swarm、分层 orchestration、跨 session 持久 memory、live dashboard——这不是配置服务,是一套方法论。
刘小排能靠「月烧 35 万 token」这个数字传播,不是因为他在卖什么,是因为那个数字本身就是 proof of work。我的 proof of work 是这套系统实际跑起来做出来的东西。
所以现在的方向是:先把系统的架构和过程分享出来,让人看到这个东西是真实存在的、能用的、有实际产出的。声誉先于变现。
六、反思
这套 swarm 有什么地方还不够好
首先是深度问题。三层 worker 在这次任务里够用,但如果任务更复杂,比如要做竞品的全量历史定价追踪,L3 这一层的上下文窗口就会开始截断,信息损耗是真实存在的。
其次是核查成本。每个执行任务后面都要接一个独立核查,这个设计保证了结果质量,但会让整体耗时增加 30-40%。对于「要快」的任务来说这是个 trade-off。
最意外的发现
24 把 key 同时 403 这件事。之前知道 key 会失效,但没想到一个批次的 key 会被一次性封掉。以后做任何中转类服务之前要先想清楚 key 来源的 blast radius——同一个来源的 key 出问题,会不会一起死。
什么是我做对的
用系统跑市场调研这件事本身。如果是手动刷闲鱼,我大概花两三个小时会得到一个直觉性的「感觉很卷」的结论。用这套 swarm 跑完之后,我拿到的是带具体数字的结论:中位价 ¥24.9、79-271 人想要但只有 ¥1-2 客单价、24 把 key 全 403。这些数字才是决策的依据,不是感觉。
尾声
帖子写到这里了。
这套系统还在持续跑,我会继续分享后续——包括架构里还没公开的一些设计,以及把这个方法论做成可复用模板的想法。
如果你也在搭类似的 orchestration 系统,或者对 recursive swarm 在具体场景下怎么调参有问题,可以聊。我不卖配置,但对这套架构本身很有话说。
工具栈:Claude Code (Opus 4.7) · Hermes Agent · OpenClaw · dispatch CLI · live-dashboa