LinuxDo 新帖推送
178 subscribers
248K photos
309K links
Download Telegram
标题: 谷歌发布两个新的Deep Research模型
作者: #HCPTangHY
板块: #前沿快讯
编号: 2024552
帖子: https://linux.do/t/topic/2024552
时间: 2026-04-21 23:56:40
摘要:
deep-research-max-preview-04-2026
deep-research-preview-04-2026

DR模型仅支持interact接口调用



Google AI for Developers





Interactions API  |  Gemini API  |  Google AI for Developers

开始使用新一代 Gemini API 构建应用。











虽然不太对谷歌的DR有太大的兴趣
标题: GPT pro账号被deactivate
作者: #jatop
板块: #开发调优
编号: 2024556
帖子: https://linux.do/t/topic/2024556
时间: 2026-04-21 23:57:24
摘要:
前几天才充的100刀,今天用了它的Pro thinking,用了一晚上,就deactivate, 我一个人用的,也没跟人分享,就说cyber abuse, 被deactivate, 这个chatgpt还能好好充值吗?
标题: 22 岁,我用 Claude Code 递归 swarm 做了一次闲鱼市场调研——全流程复盘
作者: #belly_echer
板块: #开发调优
编号: 2024561
帖子: https://linux.do/t/topic/2024561
时间: 2026-04-21 23:58:21
摘要:
一、背景:我想靠 AI 配置服务挣钱
四月初我在想一件事:Claude Code 越来越多人用,但会配置的人少,不会配置的人苦。中间这个信息差能不能变成钱?
我研究过的路子大概三条:

闲鱼挂 ¥79 的 Claude Code 配置服务(帮人装好、配好、调好)
¥19.9 资料包(把 CLAUDE.md 最佳实践打包成 PDF 卖)
Cerebras 免费 API 批量注册 + ¥29/月中转(当时网上有人在做这个)

直觉上觉得都能赚到,但我不确定,因为我根本不知道这个市场现在是什么价位、竞争有多激烈、需求是不是真的。
一个做过电商的朋友说了句话:「你在卖东西之前,先把自己当买家调研一遍市场。」
但我不想手动刷闲鱼,那样太慢、太累、也不客观。
所以我做了一件可能更麻烦但也更有意思的事——让我自己搭的多 agent 系统去帮我做这件事。

二、系统架构:递归 swarm
我本地跑的不是单个 Claude Code,是一套分层 orchestration。
核心思想来自一个很朴素的类比:不是让一个天才做所有事,是让一群蚂蚁分工做完然后汇总。
架构长这样:
foreman (CC Opus · 主窗口 · 总指挥)

├─ L1 researcher (Tier A · 深度爬取 + 结构化提取)
│ └─ L2 extractor (Tier F · 免费模型 · 批量解析)
│ └─ L3 formatter (Tier F · 格式归一化)

├─ L1 analyst (Tier A · 跨平台对比分析)
│ └─ L2 cross-checker (独立二审 · 不看第一份输出)

└─ L1 writer (Tier A · 产出 PIVOT-DECISION.md)
└─ L2 fact-checker (验证关键数字前确认来源)

几个关键设计决策:
1. Tier 分级
按模型成本分四档:S(Opus,稀缺)、A(Sonnet,中端)、B(Haiku,廉价)、F(免费模型,吃爆)。调研爬取用 Tier F,分析汇总用 Tier A,最终判断留在 Tier S 主窗口。核心原则是「最贵的模型只做最贵的判断」。
2. Recursive spawn
任何 worker 遇到子问题,不请示、不等待,直接开子 worker 处理。比如 L1 researcher 在爬闲鱼时发现某个卖家有 271 人想要的 listing,它不是把原始数据抛回来,而是自己起一个 L2 去专门提取那个卖家的定价策略。
但有硬性 guardrail:MAX_DEPTH=3,超过三层直接 abort,不生孙子。每次 spawn 都写进 lineage.log,可以事后查谁派了谁。
3. 三段式:总控 → 执行 → 独立核查
执行线程完成后不直接交回,必须先申请核查。核查线程不看执行过程,只看 artifact。通过才算完成。这条规则是我踩了几次坑之后加的——模型会自信地编数据,独立核查是唯一能拦住它的方式。
4. 通信用文件,不用消息队列
所有 agent 往同一个 delegations.md 写状态。foreman 通过 fswatch 监听文件变动,有变动就重生成 brief,不做定时轮询。markdown 文件 + 事件驱动,比上 message broker 简单得多,也够用。
派单命令长这样:
dispatch --to=researcher \
--scope="/path/to/allowed/dir" \
--readonly="/path/to/context" \
--budget="20min" \
--verify-via="cross-checker" \
"爬闲鱼 AI 配置服务类 listing,提取:标题/价格/销量/评论数/发布时间,输出到 xianyu-raw.jsonl"

--scope 决定它能写哪些目录,--readonly 决定它能读哪些上下文,--verify-via 指定核查员。执行线程越界会被核查打回。

三、实战:调研跑起来
调研分三个并行方向:
方向 A:闲鱼 listing 普查
目标:把 Claude Code 配置服务类的 listing 全量抓下来,提取定价分布。
跑出来的数据里,有几个数字让我记住了:

市场中位价:¥24.9
销量最高的几个 listing 都是老店,权重已经做起来了
¥1-2 的 PDF 资料包有个 listing 显示 79-271 人想要,但单价太低
¥79 这个价位的只有新店,几乎没有成交记录

方向 B:竞品死活扫描
我本来打算做的第三条路——Cerebras 中转——这时候出了大问题。
system 让 researcher 去验证当时几个在做 Cerebras 中转的卖家还活着没有,结果:
88code → 403 Forbidden
gaccode → 403 Forbidden
wildcard → 403 Forbidden

同一天,24 把 Cerebras API key 全部返回 403。不是我的 key 出问题,是那批 key 来自同一个批量注册渠道,Cerebras 这边识别到了,整批封掉。
中转这条路当场判死刑——不是技术问题,是信任问题。即使重新搞 20 把活 key,买家凭什么相信一个新店不会也这么突然跑路?
方向 C:需求热度 + 平台交叉验证
同时在微信群和 linux.do 上拉了一遍热词,找真实的买家在哪里问问题、问什么问题。

四、数据结果
三份报告汇到 foreman 主窗口后,我让它做 pivot 决策。几个关键结论:




路径
硬数据
7 天真实预期




闲鱼 ¥79 配置服务
中位 ¥24.9,新店权重 0,被 ¥19.9 老店碾压
0-1 单


闲鱼 ¥19.9 资料包
¥1-2 PDF 有 79-271 人想要
1-3 单,低利


微信群 ¥99 broadcast
我在目标群自己也是学员,不是老师
0-1 单(信任倒置)


Cerebras ¥29/月中转
24 把 key 全 403,跑路阴影
0 单



所有路线里,只有一个正向信号:闲鱼上有个 ¥68.2 的 Obsidian + Karpathy 第二大脑 listing 是活着的,而且是那一批里唯一定价超过 ¥50 还有成交的。
这个数字很重要。不是说这个价格区间好做,而是说:「系统化方法论」比「帮人操作一次」值钱。

五、Pivot
调研完的当晚我做了个决定:原来的三条路全停。
不是技术没法做,是市场结构不对。一个新号在 ¥24.9 中位价市场里去竞争「帮人配置」,拼的是店铺权重和服务响应速度,这是老店的主场。
真正有差异化的东西是我花了这么多时间搭出来的这套系统本身——recursive swarm、分层 orchestration、跨 session 持久 memory、live dashboard——这不是配置服务,是一套方法论。
刘小排能靠「月烧 35 万 token」这个数字传播,不是因为他在卖什么,是因为那个数字本身就是 proof of work。我的 proof of work 是这套系统实际跑起来做出来的东西。
所以现在的方向是:先把系统的架构和过程分享出来,让人看到这个东西是真实存在的、能用的、有实际产出的。声誉先于变现。

六、反思
这套 swarm 有什么地方还不够好
首先是深度问题。三层 worker 在这次任务里够用,但如果任务更复杂,比如要做竞品的全量历史定价追踪,L3 这一层的上下文窗口就会开始截断,信息损耗是真实存在的。
其次是核查成本。每个执行任务后面都要接一个独立核查,这个设计保证了结果质量,但会让整体耗时增加 30-40%。对于「要快」的任务来说这是个 trade-off。
最意外的发现
24 把 key 同时 403 这件事。之前知道 key 会失效,但没想到一个批次的 key 会被一次性封掉。以后做任何中转类服务之前要先想清楚 key 来源的 blast radius——同一个来源的 key 出问题,会不会一起死。
什么是我做对的
用系统跑市场调研这件事本身。如果是手动刷闲鱼,我大概花两三个小时会得到一个直觉性的「感觉很卷」的结论。用这套 swarm 跑完之后,我拿到的是带具体数字的结论:中位价 ¥24.9、79-271 人想要但只有 ¥1-2 客单价、24 把 key 全 403。这些数字才是决策的依据,不是感觉。

尾声
帖子写到这里了。
这套系统还在持续跑,我会继续分享后续——包括架构里还没公开的一些设计,以及把这个方法论做成可复用模板的想法。
如果你也在搭类似的 orchestration 系统,或者对 recursive swarm 在具体场景下怎么调参有问题,可以聊。我不卖配置,但对这套架构本身很有话说。

工具栈:Claude Code (Opus 4.7) · Hermes Agent · OpenClaw · dispatch CLI · live-dashboa
标题: 奥特曼最近很开心,都是我们贡献的
作者: #gaohdu99
板块: #搞七捻三
编号: 2024566
帖子: https://linux.do/t/topic/2024566
时间: 2026-04-21 23:59:46
摘要:
标题: 分享一个论坛吃瓜小助手脚本(手机版适配)(话题、发帖总结)
作者: #唯一
板块: #开发调优
编号: 2024573
帖子: https://linux.do/t/topic/2024573
时间: 2026-04-22 00:00:30
摘要:
这是一个为 Linux.do 论坛 设计的 手机版智能总结助手。
作者帖子https://linux.do/t/topic/1239493
我仅仅是做了一下手机端的适配。
脚本核心功能主要提供了一套完整的移动端优化界面,集成在论坛页面中,核心功能包括:
1. 智能总结:通过调用 AI 模型(如 DeepSeek),对帖子内容进行摘要和分析。
2. 上下文对话:在生成总结后,可以基于帖子内容继续向 AI 追问。
3. 内容导出:支持将帖子导出为 HTML 离线文件 或 纯文本(AI格式)。
4. 设置面板:可配置 API 地址、密钥、模型以及提示词等。
代码中专门为手机操作做了优化,具体体现在:
全屏操作面板:从底部上滑展开,符合移动端交互习惯。
边缘悬浮按钮:可拖拽、可吸附在屏幕边缘的触发按钮。
触控优化:使用 pointerdown 等事件处理拖拽和点击,并适配了虚拟键盘和安全区域。
脚本链接:



buyi.nyc.mn





${title} - Linux.do
标题: 求推荐一个能保持格式的pdf转doc的工具, 或者工具网站
作者: #skywoodlin
板块: #开发调优
编号: 2024582
帖子: https://linux.do/t/topic/2024582
时间: 2026-04-22 00:01:53
摘要:
比如说拍下来的试卷, 含有公式那种, 能转成文字版, 公式, 表格的排版也不要丢, 有这种工具吗?
标题: codex挂了以后降智了?
作者: #zhaozqtech
板块: #搞七捻三
编号: 2024586
帖子: https://linux.do/t/topic/2024586
时间: 2026-04-22 00:02:42
摘要:
昨天让他生成软件 就算我生成出来不想要了 让他回退上一次的更改 都没有怎么思考 直接回退了
今天写软件 时常出现乱码 让他改问题还扩大了 自己还知道回退
就算回退 也思考了半天 到现在还没思考出来 上下文压缩也超级无敌慢
openai这是要拉坨大的???
标题: 你们都用上了GPT Image 2了吗
作者: #qunqin
板块: #搞七捻三
编号: 2024587
帖子: https://linux.do/t/topic/2024587
时间: 2026-04-22 00:02:59
摘要:
用GPT Image 2 p了几张好玩的
标题: 支持国产,支持kimi。k2.6更新太香了。
作者: #柠萌
板块: #开发调优
编号: 2024592
帖子: https://linux.do/t/topic/2024592
时间: 2026-04-22 00:04:07
摘要:
目前用kimi code cli搭配codex干活儿。我觉得我现在有点无敌,感觉开发上遇到的问题,应该都不是问题了。开了199套餐
标题: gpt道德太厉害了,很多图都被拦截了,看来要瑟瑟图有点难啊
作者: #雪梨纽西兰希思露甘奶迪
板块: #搞七捻三
编号: 2024599
帖子: https://linux.do/t/topic/2024599
时间: 2026-04-22 00:05:07
摘要:
请根据{主题}自动生成一张“服装结构拆解设计图”。

要求整张图兼具设计手稿感、结构拆解、中文标注、材质说明、工艺细节、版型分析。你需要根据主题自动判断最合适的穿着对象、服装品类、结构分层、风格流派、关键部件、材质工艺与版式结构,用户无需再提供其他信息。

整体风格应为:服装设计原画设定集、打版工程图、纺织品研究图录,有种初期设计的感觉。采用全彩绘制,米白色底,整体清晰、专业、有手稿质感。

按照以下步骤一步步思考:
Step1: 提取人物的基础体型特征(身高比例、体型、脸型、发色等)
Step2: 规划服装的着装系统(内外层次、部件组成、穿着顺序)
Step3: 确定需要拆解的关键细节(特殊结构、工艺难点、功能设计)
Step4: 进行符合分区格式的图片生成

版式固定为四区域分区:
- 左侧区域:人物A-pose全身站姿三视图(正、侧、背),展示完整穿搭效果,手写体中文标注整体风格关键词
- 中上区域:服装各部位拆分图,中文引线标注所有关键部件(领型、门襟、袖型、袖口、衣身、腰线、下摆、口袋、扣件等),配局部放大特写
- 中下区域:内着/底层衣物设计拆分(内衣、打底、衬里等),展示穿着层次
- 右侧区域:细节特写区,包含:
• 材质纹理小样(棉、麻、丝、毛、化纤等真实质感)
• 缝制工艺细节(锁边、包缝、明线、暗线等)
• 版型结构线稿(省道、分割线、放松量等)
• 表情差分(2-4个多角度表情变化)

所有标注文字使用手写体风格中文,清晰、规整、可读,不要乱码、错字、英文或拼音。重点突出真实结构、版型差异、工艺细节与设计手稿气质。

若主题为单件服装(如西装外套、旗袍、牛仔裤等),则以该单品为中心进行多层次拆解;若主题为整套穿搭,则展示全身搭配并分层拆解每件单品。

避免:完成稿感、时尚杂志感、电商感、动漫感、过度上色、模糊标注、错误结构、假材质、过度装饰。
标题: 发个机场订阅吧!
作者: #bet
板块: #福利羊毛
编号: 2024604
帖子: https://linux.do/t/topic/2024604
时间: 2026-04-22 00:06:25
摘要:
一元的机场订阅 https://sub2.smallstrawberry.com/api/v1/client/subscribe?token=2a0714c793073bebbcc5661d666739f8  500G, 2026/06/15 到期
标题: claude订阅取消问题
作者: #哈基米基哈基_米基米基哈
板块: #开发调优
编号: 2024613
帖子: https://linux.do/t/topic/2024613
时间: 2026-04-22 00:08:03
摘要:
claude应该套餐都是默认续订的,我想知道我现在点取消,是立即取消还是到期后取消下一周期的续订?
标题: openai正常充值什么情况会封号啊?
作者: #zflow
板块: #搞七捻三
编号: 2024618
帖子: https://linux.do/t/topic/2024618
时间: 2026-04-22 00:09:34
摘要:
我用了几年的号,甚至还是qq邮箱,一直平安无事,三个月前用工行银联卡套googe play充了1个月,到期之后发现官网送了一个月。于是搞了个虚拟信用卡准备白嫖。结果ip不干净被拒付。只能老老实实用Google play支付。用了10多天,买了个美国Vps搭建节点。于是问了gpt大量关于翻墙,防墙,代理配置的问题。我寻思也没拒绝回答就是可以问呗。之后在一个VPS群里看到有的人聊这个gpt是拒绝回答的。当天节点配置好后我就直接用了,可能没配置对或者有什么缓存问题?chatgpt隔天就禁用了。回忆了一下要说gpt拒绝回答还是很久之前试图讨论nsfw,不知道是不是这个历史遗留问题。被封后看到秒退款又继续换了个新号折腾,继续用vps节点,又尝试虚拟信用卡支付,可能节点干净,居然支付成功了,所以我上个号被封到底是为啥?用VPS之前一直在美国和新加坡的机场节点直接切换也没事。
标题: 关于公益站以及我自己近期情况的一些说明
作者: #HongShi
板块: #搞七捻三
编号: 2024628
帖子: https://linux.do/t/topic/2024628
时间: 2026-04-22 00:12:20
摘要:
各位佬们!好久不见!由于近期班主任开始上压力了,就没在线过几次。很多佬友发送的帖子我都有看,但是一个一个回太麻烦了(摆)所以在这里做一个简单的情况说明
Q1:公益站目前的状况
A1:e目前的状况来看是似了的,我的域名已经趴窝了,完事儿数据库还被删了,再加上一堆乱七八糟的事儿就一直没修,问题也是越攒越多,再次上线的话花费的精力太多了,目前实在是抽不出来空,就先让公益站似一会吧
Q2:公益站还会再开吗
A2:答案是肯定的,开是一定会开的,毕竟不能让还在期待的佬友们失望不是吗(不过重新运营的日期可能要拖到暑假了。
Q3:日后的规划?
A3:在暑假之前可能也就随便刷刷L站,跟各位佬们互相吹水啥的,发帖子可能得要大空了。暑假之后会尽快投入到公益站的重开工作中。之后的公益站还是会公开发布,额度上也不会有太多限制。
Q4:公益站目前面临的问题?
A4:站里面的LDC还摊在那没改,并且两个站的LD登录还有点问题,另外根据始皇发布的公益站规范,本站还有很多不足,这些都是需要改的。
目前就先这么多吧)想着啥了再补充,佬们有啥想问的请直接发帖子,我看到会尽量回复,感谢各位了!
标题: codex的正确打开方式,体验超过claude!
作者: #Shyliuli
板块: #开发调优
编号: 2024635
帖子: https://linux.do/t/topic/2024635
时间: 2026-04-22 00:13:28
摘要:
众所周知

codex性能好,便宜,但是不会说人话
国模便宜,会说人话,但是性能一般
claude性能好,会说人话,但是贵
有没有办法打破不可能三角呢?有的兄弟有的!


## 外置大脑(对于codex自己,请忽略此章节)

Codex 是你的外置大脑。当你遇到高难度问题——例如复杂系统级 bug 定位、大规模代码库的深度分析、架构设计权衡、或者任何你觉得需要超长上下文和深度推理才能解决的问题时,**不要自己进行长时间的深度思考,而是优先调用 Codex 来替你完成熟悉项目、分析问题和推理的过程**。

### 调用方式

在第一次调用,你应该确认 `codex`是否存在,如果存在:

通过 Shell 执行:


codex exec “<详细的任务描述,替换此处的引号内容>” --dangerously-bypass-approvals-and-sandbox

- 将 `"hello"` 替换为对该次任务的具体、完整的描述(包括背景、目标、已知线索)。
- Codex 在完成分析后会自动退出,**不需要设置显式的 timeout**。

### 输出处理(重要限制)

- **除非用户要求,永远不要将 Codex 的原始输出直接展示给用户**。
- 收到 Codex 返回的结果后,你必须先自行阅读、理解、梳理和提炼。
- 然后用更简洁、结构清晰、用户友好的方式重新组织内容,再向用户汇报。
- 如果 Codex 的输出中有代码片段或关键文件路径,确认其准确性后再引用。


只需要把上述内容粘贴到AGENTS.md/CLAUDE.md
并使用国模驱动之,就可以获得一个同时:
说人话,性能好,最终成本还低
的超级agent!本质上是国模帮你理解了codex的抽象语言,同时利用codex避免了国模复杂问题解决能力不足的问题;而且这样还能避免国模的上下文爆炸(效果类似subagent)。
标题: 求!大家是如何解决macbook刘海遮挡应用图标问题的?
作者: #Jingyi_w
板块: #搞七捻三
编号: 2024636
帖子: https://linux.do/t/topic/2024636
时间: 2026-04-22 00:13:41
摘要:
macbook m1pro打开多个应用后,总会有几个应用图标被该死的刘海屏遮挡住,应该不止我遇到这样的问题吧,佬友们是如何就解决的,求指导..
标题: 求助,codex cli中转站换成team号登录时候,会话记录无法正常读取
作者: #Hoshi_Takyobu
板块: #搞七捻三
编号: 2024643
帖子: https://linux.do/t/topic/2024643
时间: 2026-04-22 00:16:04
摘要:
rt,之前用cc switch管理使用着codex cli的中转站,后来换用team帐号的时候,在codex cli中/resume,发现之前的会话记录都没有了,但是本地的文件还在。
然而尝试直接在pwsh中运行codex resume 会话id的时候,会话是可以读取进来的,但是在cli中和他交互的时候,首先会reconnecting,如下图所示:

在5轮都失败之后,它会返回一个彻底失败的json:

捣鼓了一晚上已经彻底懵了。所以向问一下有遇到这种情况各位佬友都是怎么解决的嘞,还是直接换别的交互方式,比如用Codex/VSCode插件等等?
标题: [求助] ClaudeCode回复到一半没有报错也没有任何输出就结束了
作者: #JIeJaitt
板块: #开发调优
编号: 2024648
帖子: https://linux.do/t/topic/2024648
时间: 2026-04-22 00:17:15
摘要:
请问各位佬友,cc回复到一半没有报错就停止了,一直这样陷入死循环,大概是什么原因?使用的是cc-switch对接的openrouter,系统是mac,对话轮数35轮左右。换一个对话ping能正常收到pong的回复,模型用的是glm5.1