2小时5万星、一天破10万:Claude Code泄露催生GitHub史上最快项目,从零重写躲过DMCA
Claude Code 源码泄露后不到 24 小时,一个名为 Claw Code 的项目在 GitHub 上以创纪录的速度积累了超过 10 万颗星,据项目自述为 GitHub 历史上最快突破这一里程碑的仓库。截至发稿,该项目已获得 12.4 万星和 10.2 万次 fork。与直接搬运泄露源码的数千个仓库不同,Claw Code 的做法是只看架构不抄代码,完全从零实现一遍,工程和法律上称为「净室实现」(clean-room implementation)。
项目作者 Sigrid Jin 在 README 中讲述了这段经历:3 月 31 日凌晨 4 点,泄露消息引爆了他的手机通知,他在韩国的女友担心「仅仅因为电脑上存有这些代码就可能面临法律风险」。他做了一个工程师在压力下会做的决定:坐下来,从零开始用 Python 重写核心功能,天亮前推上 GitHub。整个过程使用 Yeachan Heo 开发的 AI 编码工作流工具 oh-my-codex(OmX)辅助完成。
这正是 Claw Code 未被 Anthropic DMCA 下架的关键。Anthropic 对直接镜像泄露源码的 8100 个仓库发起了版权保护通知,但 Claw Code 的代码库里没有一行原始 TypeScript,先用 Python 重写,后转向 Rust,目前代码库 92.9% 为 Rust。项目包含 7 个 Rust crate,覆盖 API 客户端、运行时状态管理、MCP 编排、工具执行框架、插件系统、命令体系和交互式 CLI。
Sigrid Jin 并非无名开发者。《华尔街日报》3 月 21 日报道「The Trillion Dollar Race to Automate Our Entire Lives」中将其描绘为全球最活跃的 Claude Code 重度用户之一,称其去年单人使用了 250 亿 Claude Code token,并曾飞赴旧金山参加 Claude Code 一周年聚会。
此前 GitHub 上最快达到 10 万星的项目据报道是 OpenClaw,用时数周。Claw Code 将这一时间压缩到一天以内,但 GitHub 不公布官方增长排名,这一记录来自项目自述和多家科技媒体引用。值得注意的是,该项目 fork 数(10.2 万)与 star 数(12.4 万)之比超过 80%,远高于正常开源项目 10%-20% 的水平,这些 star 更多来自泄露事件驱动的收藏行为,而非项目本身的产品使用。
信源:https://github.com/ultraworkers/claw-code
Claude Code 源码泄露后不到 24 小时,一个名为 Claw Code 的项目在 GitHub 上以创纪录的速度积累了超过 10 万颗星,据项目自述为 GitHub 历史上最快突破这一里程碑的仓库。截至发稿,该项目已获得 12.4 万星和 10.2 万次 fork。与直接搬运泄露源码的数千个仓库不同,Claw Code 的做法是只看架构不抄代码,完全从零实现一遍,工程和法律上称为「净室实现」(clean-room implementation)。
项目作者 Sigrid Jin 在 README 中讲述了这段经历:3 月 31 日凌晨 4 点,泄露消息引爆了他的手机通知,他在韩国的女友担心「仅仅因为电脑上存有这些代码就可能面临法律风险」。他做了一个工程师在压力下会做的决定:坐下来,从零开始用 Python 重写核心功能,天亮前推上 GitHub。整个过程使用 Yeachan Heo 开发的 AI 编码工作流工具 oh-my-codex(OmX)辅助完成。
这正是 Claw Code 未被 Anthropic DMCA 下架的关键。Anthropic 对直接镜像泄露源码的 8100 个仓库发起了版权保护通知,但 Claw Code 的代码库里没有一行原始 TypeScript,先用 Python 重写,后转向 Rust,目前代码库 92.9% 为 Rust。项目包含 7 个 Rust crate,覆盖 API 客户端、运行时状态管理、MCP 编排、工具执行框架、插件系统、命令体系和交互式 CLI。
Sigrid Jin 并非无名开发者。《华尔街日报》3 月 21 日报道「The Trillion Dollar Race to Automate Our Entire Lives」中将其描绘为全球最活跃的 Claude Code 重度用户之一,称其去年单人使用了 250 亿 Claude Code token,并曾飞赴旧金山参加 Claude Code 一周年聚会。
此前 GitHub 上最快达到 10 万星的项目据报道是 OpenClaw,用时数周。Claw Code 将这一时间压缩到一天以内,但 GitHub 不公布官方增长排名,这一记录来自项目自述和多家科技媒体引用。值得注意的是,该项目 fork 数(10.2 万)与 star 数(12.4 万)之比超过 80%,远高于正常开源项目 10%-20% 的水平,这些 star 更多来自泄露事件驱动的收藏行为,而非项目本身的产品使用。
信源:https://github.com/ultraworkers/claw-code
Claude Code Dispatch补上权限短板:远程编码任务终于可选权限模式
Anthropic AI 编程工具 Claude Code 的 Dispatch 功能新增权限模式设置。Dispatch 允许用户通过手机向本地桌面端的 Claude Code 远程分派编码任务,此前编码任务的权限控制选项有限,现在用户可以在发起任务时选择具体的权限模式。
Claude Code 产品经理 Noah Zweben 在 X 上发文介绍了这一更新。他推荐使用 Auto 模式,称其是「最安全且最流畅的 Dispatch 体验」。Auto 模式由 AI 分类器实时评估每个操作的风险等级,安全操作自动放行,高风险操作自动拦截,介于逐一确认和完全跳过权限之间。用户也可以选择其他已授权的权限模式。如果选择 Bypass Permissions(跳过权限检查),则需要在会话启动时手动批准。
信源:https://x.com/noahzweben/status/2039407002913513477
Anthropic AI 编程工具 Claude Code 的 Dispatch 功能新增权限模式设置。Dispatch 允许用户通过手机向本地桌面端的 Claude Code 远程分派编码任务,此前编码任务的权限控制选项有限,现在用户可以在发起任务时选择具体的权限模式。
Claude Code 产品经理 Noah Zweben 在 X 上发文介绍了这一更新。他推荐使用 Auto 模式,称其是「最安全且最流畅的 Dispatch 体验」。Auto 模式由 AI 分类器实时评估每个操作的风险等级,安全操作自动放行,高风险操作自动拦截,介于逐一确认和完全跳过权限之间。用户也可以选择其他已授权的权限模式。如果选择 Bypass Permissions(跳过权限检查),则需要在会话启动时手动批准。
信源:https://x.com/noahzweben/status/2039407002913513477
Codex先行,几个月内成型:Brockman首次详述OpenAI超级应用路线图
OpenAI 总裁兼联合创始人 Greg Brockman 在 Big Technology Podcast 的采访中首次详细描述了超级应用的具体形态和实施路径。这款应用将把 ChatGPT、AI 编程平台 Codex 和 AI 浏览器 Atlas 合并为一个统一入口,目标是让用户「任何想让电脑做的事都可以直接开口要求」。
Brockman 将其定位为「个人 AGI」,一个了解用户偏好、与用户目标对齐、能代表用户处理数字世界事务的个人助手。他透露第一步是扩展现有的 Codex 应用,使其不仅面向程序员,而是支持通用知识工作。他称这项工作是从 Codex 已有的通用 Agent 底座出发,接入电子表格、文档等工具:「Codex 应用本质上是两个东西合一:一个通用 Agent 底座加上一个会写代码的 Agent。那个通用底座可以用在太多地方了。」
OpenAI 内部已经出现了大量自发使用 Codex 处理非编程工作的案例,比如通信团队用它接入 Slack 和邮件来综合反馈。整个超级应用计划将在未来几个月分步推出,不会一次性发布,ChatGPT 独立移动端应用保留不变,合并仅针对桌面端。
这一战略也暗含资源博弈。Brockman 坦言 OpenAI 目前的算力「连个人助手和 Codex 两条线都不够用」,无法同时支撑更多应用线,这是关停 Sora、收缩产品线的根本原因。他形容这是「对技术成熟和即将到来的巨大影响力的认知」,而非简单的从消费端转向企业端。
信源:https://youtu.be/J6vYvk7R190
OpenAI 总裁兼联合创始人 Greg Brockman 在 Big Technology Podcast 的采访中首次详细描述了超级应用的具体形态和实施路径。这款应用将把 ChatGPT、AI 编程平台 Codex 和 AI 浏览器 Atlas 合并为一个统一入口,目标是让用户「任何想让电脑做的事都可以直接开口要求」。
Brockman 将其定位为「个人 AGI」,一个了解用户偏好、与用户目标对齐、能代表用户处理数字世界事务的个人助手。他透露第一步是扩展现有的 Codex 应用,使其不仅面向程序员,而是支持通用知识工作。他称这项工作是从 Codex 已有的通用 Agent 底座出发,接入电子表格、文档等工具:「Codex 应用本质上是两个东西合一:一个通用 Agent 底座加上一个会写代码的 Agent。那个通用底座可以用在太多地方了。」
OpenAI 内部已经出现了大量自发使用 Codex 处理非编程工作的案例,比如通信团队用它接入 Slack 和邮件来综合反馈。整个超级应用计划将在未来几个月分步推出,不会一次性发布,ChatGPT 独立移动端应用保留不变,合并仅针对桌面端。
这一战略也暗含资源博弈。Brockman 坦言 OpenAI 目前的算力「连个人助手和 Codex 两条线都不够用」,无法同时支撑更多应用线,这是关停 Sora、收缩产品线的根本原因。他形容这是「对技术成熟和即将到来的巨大影响力的认知」,而非简单的从消费端转向企业端。
信源:https://youtu.be/J6vYvk7R190
关停产品不等于放弃研究:Brockman称Sora世界模型技术已转入机器人方向
Greg Brockman 在同一采访中透露,Sora 背后的研究计划并未随产品关停而终止,而是被并入机器人方向继续推进。他表示 Sora 的世界模型与核心 GPT 推理系列属于「技术树的两个不同分支」,在算力有限的情况下同时推进两条分支「对我们来说非常困难」,因此 Sora 的消费级应用被砍掉,但研究团队的工作转向了「一项非常明确会带来变革的应用:机器人」。
Brockman 解释了为何机器人方向仍属研究阶段而非产品优先级:「机器人还没有真正成熟到可以规模化部署的程度,我们将在明年看到知识工作领域的真正起飞,而不是机器人。」这与 OpenAI 将全部产品化资源集中在 GPT 推理系列上的逻辑一致。他同时强调 GPT 系列并非只做文本,语音交互、图像生成等能力都基于同一模型架构的不同调优,不构成独立分支。
他还回应了谷歌 DeepMind 负责人 Demis Hassabis 此前称图像/视频生成最接近 AGI 的观点,坦言「绝对有可能,是的」,OpenAI 选择押注 GPT 推理路线意味着「你必须做选择、下注」,并引用 OpenAI 早期的一个信条:「随机向量之和为零,但如果你对齐向量,就能往一个方向走。」
信源:https://youtu.be/J6vYvk7R190
Greg Brockman 在同一采访中透露,Sora 背后的研究计划并未随产品关停而终止,而是被并入机器人方向继续推进。他表示 Sora 的世界模型与核心 GPT 推理系列属于「技术树的两个不同分支」,在算力有限的情况下同时推进两条分支「对我们来说非常困难」,因此 Sora 的消费级应用被砍掉,但研究团队的工作转向了「一项非常明确会带来变革的应用:机器人」。
Brockman 解释了为何机器人方向仍属研究阶段而非产品优先级:「机器人还没有真正成熟到可以规模化部署的程度,我们将在明年看到知识工作领域的真正起飞,而不是机器人。」这与 OpenAI 将全部产品化资源集中在 GPT 推理系列上的逻辑一致。他同时强调 GPT 系列并非只做文本,语音交互、图像生成等能力都基于同一模型架构的不同调优,不构成独立分支。
他还回应了谷歌 DeepMind 负责人 Demis Hassabis 此前称图像/视频生成最接近 AGI 的观点,坦言「绝对有可能,是的」,OpenAI 选择押注 GPT 推理路线意味着「你必须做选择、下注」,并引用 OpenAI 早期的一个信条:「随机向量之和为零,但如果你对齐向量,就能往一个方向走。」
信源:https://youtu.be/J6vYvk7R190
「两年研究的结晶」:Brockman首谈Spud模型,回应Dario「在赌命」批评
Greg Brockman 在采访中首次以技术视角谈及 OpenAI 内部代号为 Spud 的新一代预训练基础模型。他将 Spud 描述为「大约两年研究的结晶」,是 OpenAI 所有后续能力提升的基底。他解释了模型生产流程:先做预训练产出基础模型,再经过强化学习让模型在多种场景中练习解题,最后做行为和可用性层面的后训练微调。他过去 18 个月的主要精力集中在 GPU 基础设施和训练框架的扩展上。
关于 Spud 的能力,Brockman 给出了定性而非定量的预期:模型将能解决更难的问题,对指令的理解更精准、对上下文的把握更深入,减少那种「大模型味」(big model smell)。他以一位密切合作的工程师为例:在 GPT-5.2 和 GPT-5.3 之间,这位工程师从「完全没法用 AI 做底层系统工程」变成了「给它一份设计文档,它能实现功能、加上监控指标和可观测性、跑性能分析器再优化,产出正好是他想要的东西」。
采访人引述了 Anthropic CEO Dario Amodei 此前的说法:「有些玩家在赌命(yoloing),把风险拉得太高,我非常担心」,并提到 Amodei 称如果预测稍有偏差,公司可能破产。Brockman 直接回应:「我不同意。我们一直非常深思熟虑,非常清楚地看到了即将到来的趋势。」他认为 OpenAI 是最早认识到算力瓶颈的公司,而其他公司「大概去年底才意识到这一点,开始抢购算力,但已经买不到了」。对于破产风险,他认为「实际上有更多退出坡道」,并将这个赌注归结为对整个行业而非单一公司的判断:「你相不相信这项技术能产出并交付我们看到的那种巨大价值?」
信源:https://youtu.be/J6vYvk7R190
Greg Brockman 在采访中首次以技术视角谈及 OpenAI 内部代号为 Spud 的新一代预训练基础模型。他将 Spud 描述为「大约两年研究的结晶」,是 OpenAI 所有后续能力提升的基底。他解释了模型生产流程:先做预训练产出基础模型,再经过强化学习让模型在多种场景中练习解题,最后做行为和可用性层面的后训练微调。他过去 18 个月的主要精力集中在 GPU 基础设施和训练框架的扩展上。
关于 Spud 的能力,Brockman 给出了定性而非定量的预期:模型将能解决更难的问题,对指令的理解更精准、对上下文的把握更深入,减少那种「大模型味」(big model smell)。他以一位密切合作的工程师为例:在 GPT-5.2 和 GPT-5.3 之间,这位工程师从「完全没法用 AI 做底层系统工程」变成了「给它一份设计文档,它能实现功能、加上监控指标和可观测性、跑性能分析器再优化,产出正好是他想要的东西」。
采访人引述了 Anthropic CEO Dario Amodei 此前的说法:「有些玩家在赌命(yoloing),把风险拉得太高,我非常担心」,并提到 Amodei 称如果预测稍有偏差,公司可能破产。Brockman 直接回应:「我不同意。我们一直非常深思熟虑,非常清楚地看到了即将到来的趋势。」他认为 OpenAI 是最早认识到算力瓶颈的公司,而其他公司「大概去年底才意识到这一点,开始抢购算力,但已经买不到了」。对于破产风险,他认为「实际上有更多退出坡道」,并将这个赌注归结为对整个行业而非单一公司的判断:「你相不相信这项技术能产出并交付我们看到的那种巨大价值?」
信源:https://youtu.be/J6vYvk7R190
「买多少算力?全部」:Brockman称1100亿美元仍追不上需求,预训练已转向成本联合优化
Greg Brockman 在采访中回顾了 2025 年 12 月 AI 编程能力的跳跃式提升。他用自己保留多年的一个测试提示来丈量进步:让 AI 构建一个他当年学编程时花了几个月才完成的网站。2025 年全年,这个任务需要多轮提示和约四个小时才能做好;到了 12 月,一次提示就完成了,而且质量很好。他称新模型让 AI 从「能完成约 20% 的任务」跳到了「约 80%」,这个跨越迫使所有人「必须围绕 AI 重新组织工作流程」。
对于 1100 亿美元的融资去向,Brockman 将算力类比为「招聘销售人员」:只要产品有可规模化的销售渠道,招越多的销售人员就能带来越多收入。算力不是成本中心,而是收入中心。他回忆 ChatGPT 发布前夕与团队的对话:「他们问'我们该买多少算力?'我说'全部。'他们说'不不不,认真的,到底该买多少?'我说'无论我们怎么建,都跟不上需求。'」这个判断至今成立,而算力采购需要提前 18 到 24 个月锁定。
在如何使用这些算力上,Brockman 透露 OpenAI 已不再一味追求最大规模的预训练,而是把预训练能力和推理成本作为联合优化目标:「你不一定要做到尽可能大,因为你还要考虑下游的大量推理使用场景,你真正想要的是智能乘以成本的最优解。」但他明确反对「预训练不再重要」的说法,认为基础模型越聪明,后续的强化学习和推理阶段效率越高,仍然「绝对需要」英伟达 GPU 来支撑大规模集中训练。
信源:https://youtu.be/J6vYvk7R190
Greg Brockman 在采访中回顾了 2025 年 12 月 AI 编程能力的跳跃式提升。他用自己保留多年的一个测试提示来丈量进步:让 AI 构建一个他当年学编程时花了几个月才完成的网站。2025 年全年,这个任务需要多轮提示和约四个小时才能做好;到了 12 月,一次提示就完成了,而且质量很好。他称新模型让 AI 从「能完成约 20% 的任务」跳到了「约 80%」,这个跨越迫使所有人「必须围绕 AI 重新组织工作流程」。
对于 1100 亿美元的融资去向,Brockman 将算力类比为「招聘销售人员」:只要产品有可规模化的销售渠道,招越多的销售人员就能带来越多收入。算力不是成本中心,而是收入中心。他回忆 ChatGPT 发布前夕与团队的对话:「他们问'我们该买多少算力?'我说'全部。'他们说'不不不,认真的,到底该买多少?'我说'无论我们怎么建,都跟不上需求。'」这个判断至今成立,而算力采购需要提前 18 到 24 个月锁定。
在如何使用这些算力上,Brockman 透露 OpenAI 已不再一味追求最大规模的预训练,而是把预训练能力和推理成本作为联合优化目标:「你不一定要做到尽可能大,因为你还要考虑下游的大量推理使用场景,你真正想要的是智能乘以成本的最优解。」但他明确反对「预训练不再重要」的说法,认为基础模型越聪明,后续的强化学习和推理阶段效率越高,仍然「绝对需要」英伟达 GPU 来支撑大规模集中训练。
信源:https://youtu.be/J6vYvk7R190
「如果5年前给我看今天的系统,那就是AGI」:Brockman自评进度70-80%,秋天推出AI研究员
Greg Brockman 在采访中被问及是否同意英伟达 CEO 黄仁勋「AGI 已经实现」的说法。他给出了一个带有不确定性的回答:「以我个人的定义,我大概在 70-80% 的位置。」他认为几年内 AGI 将会实现,届时「几乎所有智力型任务,凡是你在电脑上做的事,AI 都能做到」,但过程仍将是「参差不齐的」(jagged)。当前 AI 在许多任务上已经超越人类,比如写代码,但在一些「人类能轻松完成的非常基础的任务」上仍有困难。他用一个个人对照来说明感受的复杂性:「如果 5 年前给我看今天的系统,我会说'哦对,这就是我们说的那个东西'。但它跟我们任何人想象的都不一样。」
朝 AGI 迈近的下一个具体里程碑是今年秋天计划推出的「自动 AI 研究员」。被追问具体做什么时,Brockman 说:「把我们一个研究科学家从头到尾做的全部工作,放到硅片上去做。」他将这个系统比作管理一个初级研究员:不能放任不管太久,否则会走上没用的方向,但有资深研究者提供反馈、审阅图表、指明方向就够了。他将当前阶段定义为「起飞的早期阶段」:AI 越强就越能加速自身改进,形成正向循环;外部产业链也在加速,芯片开发商投入更多资源、围绕 AI 的开发者经济体不断膨胀,所有能量都在汇聚。
他还披露了一个内部文化细节:ChatGPT 发布后,他在公司节日派对上感受到一种「我们赢了」的氛围,他形容这是 OpenAI 最令他恐惧的时刻。「不,我们是挑战者,我们一直都是。」他认为竞争对手的出现对 OpenAI 是「非常健康的事」,让公司重新统一了方向。
信源:https://youtu.be/J6vYvk7R190
Greg Brockman 在采访中被问及是否同意英伟达 CEO 黄仁勋「AGI 已经实现」的说法。他给出了一个带有不确定性的回答:「以我个人的定义,我大概在 70-80% 的位置。」他认为几年内 AGI 将会实现,届时「几乎所有智力型任务,凡是你在电脑上做的事,AI 都能做到」,但过程仍将是「参差不齐的」(jagged)。当前 AI 在许多任务上已经超越人类,比如写代码,但在一些「人类能轻松完成的非常基础的任务」上仍有困难。他用一个个人对照来说明感受的复杂性:「如果 5 年前给我看今天的系统,我会说'哦对,这就是我们说的那个东西'。但它跟我们任何人想象的都不一样。」
朝 AGI 迈近的下一个具体里程碑是今年秋天计划推出的「自动 AI 研究员」。被追问具体做什么时,Brockman 说:「把我们一个研究科学家从头到尾做的全部工作,放到硅片上去做。」他将这个系统比作管理一个初级研究员:不能放任不管太久,否则会走上没用的方向,但有资深研究者提供反馈、审阅图表、指明方向就够了。他将当前阶段定义为「起飞的早期阶段」:AI 越强就越能加速自身改进,形成正向循环;外部产业链也在加速,芯片开发商投入更多资源、围绕 AI 的开发者经济体不断膨胀,所有能量都在汇聚。
他还披露了一个内部文化细节:ChatGPT 发布后,他在公司节日派对上感受到一种「我们赢了」的氛围,他形容这是 OpenAI 最令他恐惧的时刻。「不,我们是挑战者,我们一直都是。」他认为竞争对手的出现对 OpenAI 是「非常健康的事」,让公司重新统一了方向。
信源:https://youtu.be/J6vYvk7R190
谷歌开源模型Gemma 4疑似即将发布,DeepMind CEO与团队成员同步暗示
谷歌 DeepMind CEO Demis Hassabis 在 X 上发布了四颗钻石 emoji(💎💎💎💎),谷歌技术团队成员、Google AI Studio 和 Gemini API 负责人 Logan Kilpatrick 在更早些时候发帖仅写了一个词「Gemma」。两人几乎同时发帖,被广泛解读为谷歌开源模型 Gemma 4 即将发布的信号。
泄露迹象此前已有。LMSYS Chatbot Arena 上出现了一个代号「significant-otter」的匿名模型,被用户追问身份时自称「I am Gemma 4, a large language model developed by Google DeepMind」。Reddit 社区 r/LocalLLaMA 的用户反馈称该模型响应速度快,不属于推理模型,且通过了社区常用的基础能力测试。
谷歌尚未正式宣布 Gemma 4。前代 Gemma 3 是谷歌面向开源社区的轻量级模型家族,支持单 GPU 或 TPU 运行,具备多语言、多模态和长上下文能力,在开源社区口碑良好。
信源:https://x.com/demishassabis/status/2039489134465614068
谷歌 DeepMind CEO Demis Hassabis 在 X 上发布了四颗钻石 emoji(💎💎💎💎),谷歌技术团队成员、Google AI Studio 和 Gemini API 负责人 Logan Kilpatrick 在更早些时候发帖仅写了一个词「Gemma」。两人几乎同时发帖,被广泛解读为谷歌开源模型 Gemma 4 即将发布的信号。
泄露迹象此前已有。LMSYS Chatbot Arena 上出现了一个代号「significant-otter」的匿名模型,被用户追问身份时自称「I am Gemma 4, a large language model developed by Google DeepMind」。Reddit 社区 r/LocalLLaMA 的用户反馈称该模型响应速度快,不属于推理模型,且通过了社区常用的基础能力测试。
谷歌尚未正式宣布 Gemma 4。前代 Gemma 3 是谷歌面向开源社区的轻量级模型家族,支持单 GPU 或 TPU 运行,具备多语言、多模态和长上下文能力,在开源社区口碑良好。
信源:https://x.com/demishassabis/status/2039489134465614068
X (formerly Twitter)
Demis Hassabis (@demishassabis) on X
💎💎💎💎
三个月翻倍,两年千倍:豆包日均Token使用量破120万亿
字节跳动旗下云服务平台火山引擎总裁谭待在武汉举办的「2026 Force Link AI 创新巡展」上披露,豆包大模型日均 Token 使用量已突破 120 万亿。该数字过去三个月实现翻倍,相比 2024 年 5 月的日均 1200 亿增长了 1000 倍。
信源:https://www.jiemian.com/article/14200683.html
字节跳动旗下云服务平台火山引擎总裁谭待在武汉举办的「2026 Force Link AI 创新巡展」上披露,豆包大模型日均 Token 使用量已突破 120 万亿。该数字过去三个月实现翻倍,相比 2024 年 5 月的日均 1200 亿增长了 1000 倍。
信源:https://www.jiemian.com/article/14200683.html
界面新闻
火山引擎谭待:豆包大模型日均Token使用量突破120万亿
4月2日,在火山引擎AI创新巡展上,火山引擎总裁谭待披露,豆包大模型日均Token使用量突破120万亿,在过去三个月实现翻倍,相比2024年5月的1200亿日均水平更是达成1000倍高速增长。
从车库到25亿台设备:库克发内部信庆苹果50周年,称「面前的机遇前所未有」
苹果公司 4 月 1 日迎来成立 50 周年,CEO Tim Cook 向全体员工发出内部备忘录。Cook 以乔布斯的一段话开篇:「你身边所有你称之为生活的东西,都是由并不比你聪明的人创造的。你可以改变它、影响它,可以创造出别人也能使用的东西。一旦你明白了这一点,你就再也回不去了。」
Cook 在信中回顾了苹果从车库里一台原型机起步,到如今全球有 25 亿台活跃设备的历程。他将苹果 50 年的文化内核总结为「未来不是你等来的,而是你建造出来的」,并对员工说「我们面前的机遇是我们所见过的最大的」,「没有任何一支团队比我们更有条件去迎接它们」。
信源:https://x.com/markgurman/status/2039385779491963302
苹果公司 4 月 1 日迎来成立 50 周年,CEO Tim Cook 向全体员工发出内部备忘录。Cook 以乔布斯的一段话开篇:「你身边所有你称之为生活的东西,都是由并不比你聪明的人创造的。你可以改变它、影响它,可以创造出别人也能使用的东西。一旦你明白了这一点,你就再也回不去了。」
Cook 在信中回顾了苹果从车库里一台原型机起步,到如今全球有 25 亿台活跃设备的历程。他将苹果 50 年的文化内核总结为「未来不是你等来的,而是你建造出来的」,并对员工说「我们面前的机遇是我们所见过的最大的」,「没有任何一支团队比我们更有条件去迎接它们」。
信源:https://x.com/markgurman/status/2039385779491963302
Qwen3.6-Plus正式上线,100万上下文窗口,兼容Claude Code和OpenClaw
阿里巴巴通义千问团队发布 Qwen3.6-Plus,继今年 2 月 Qwen3.5 系列后的新一代旗舰模型,API 通过阿里云百炼即日开放调用。核心升级方向是 Agent 编程能力,同时强化了多模态感知与推理,默认支持 100 万 token 上下文窗口。
编程方面,Qwen3.6-Plus 在代码修复、终端操作和自动化任务执行等基准上表现突出,在多个长程规划和工具调用基准中取得最优成绩。前端开发能力也有增强,可处理 3D 场景和游戏等复杂项目。多模态方面,模型在复杂文档理解、视频推理、视觉编程等任务上均有提升,支持基于界面截图生成代码、根据设计稿还原前端页面等场景。
API 新增 preserve_thinking 参数,可在多轮对话中保留此前轮次的推理思考内容,官方推荐用于 Agent 任务,称完整推理上下文有助于提升决策一致性并减少重复推理带来的 token 消耗。阿里云百炼同时支持 OpenAI 兼容协议和 Anthropic 兼容协议,后者意味着可直接接入 Claude Code 使用。此外还兼容 OpenClaw、Qwen Code、Kilo Code、Cline 和 OpenCode 等编程工具。Qwen Code 使用 OAuth 登录每日可获 1000 次免费调用。
千问团队表示近期工作重心将转向 Qwen3.6 系列的整体发布,后续还将开源更小规模的模型版本。
信源:https://mp.weixin.qq.com/s/1uGdP4LkIiC8T0AE1U4VYg
阿里巴巴通义千问团队发布 Qwen3.6-Plus,继今年 2 月 Qwen3.5 系列后的新一代旗舰模型,API 通过阿里云百炼即日开放调用。核心升级方向是 Agent 编程能力,同时强化了多模态感知与推理,默认支持 100 万 token 上下文窗口。
编程方面,Qwen3.6-Plus 在代码修复、终端操作和自动化任务执行等基准上表现突出,在多个长程规划和工具调用基准中取得最优成绩。前端开发能力也有增强,可处理 3D 场景和游戏等复杂项目。多模态方面,模型在复杂文档理解、视频推理、视觉编程等任务上均有提升,支持基于界面截图生成代码、根据设计稿还原前端页面等场景。
API 新增 preserve_thinking 参数,可在多轮对话中保留此前轮次的推理思考内容,官方推荐用于 Agent 任务,称完整推理上下文有助于提升决策一致性并减少重复推理带来的 token 消耗。阿里云百炼同时支持 OpenAI 兼容协议和 Anthropic 兼容协议,后者意味着可直接接入 Claude Code 使用。此外还兼容 OpenClaw、Qwen Code、Kilo Code、Cline 和 OpenCode 等编程工具。Qwen Code 使用 OAuth 登录每日可获 1000 次免费调用。
千问团队表示近期工作重心将转向 Qwen3.6 系列的整体发布,后续还将开源更小规模的模型版本。
信源:https://mp.weixin.qq.com/s/1uGdP4LkIiC8T0AE1U4VYg
Google AI Pro存储从2TB升至5TB不加价,此前与9.99美元档完全相同
谷歌宣布将 Google AI Pro 订阅(月费 19.99 美元)的云存储容量从 2TB 提升至 5TB,面向全球用户生效,价格不变。存储可用于 Gmail、Google Drive 和 Google Photos。
此前 AI Pro 与 9.99 美元档的存储容量同为 2TB,19.99 美元的溢价全靠 Gemini 3 的 AI 功能支撑。这次加量后,两档在基础存储上终于拉开差距。作为参照,谷歌存储阶梯的下一档是 10TB(月费 49.99 美元),最高档 AI Ultra(月费 249.99 美元)提供 30TB。最低档 AI Plus(月费 7.99 美元)仅有 200GB。
信源:https://x.com/shimritby/status/2039461584771440782
谷歌宣布将 Google AI Pro 订阅(月费 19.99 美元)的云存储容量从 2TB 提升至 5TB,面向全球用户生效,价格不变。存储可用于 Gmail、Google Drive 和 Google Photos。
此前 AI Pro 与 9.99 美元档的存储容量同为 2TB,19.99 美元的溢价全靠 Gemini 3 的 AI 功能支撑。这次加量后,两档在基础存储上终于拉开差距。作为参照,谷歌存储阶梯的下一档是 10TB(月费 49.99 美元),最高档 AI Ultra(月费 249.99 美元)提供 30TB。最低档 AI Plus(月费 7.99 美元)仅有 200GB。
信源:https://x.com/shimritby/status/2039461584771440782
隐私不可谈判:Vitalik详述全本地AI方案,嫌DGX Spark「不过如此」
以太坊联合创始人 Vitalik Buterin 发表长文,公开了他以隐私和安全为不可谈判前提构建的个人 AI 工作环境。方案覆盖硬件选型、本地模型部署、沙箱隔离、通信防火墙和匿名远程推理五个层次。他在开篇写道:「端到端加密和本地优先软件刚取得进步,我们现在却因为把整个生活喂给云端 AI 而倒退十步。」
硬件上,他测试了三套方案运行 Qwen3.5:35B 模型:NVIDIA 5090 笔记本(24 GB 显存)达到 90 tokens/秒,AMD Ryzen AI Max Pro 笔记本(128 GB 统一内存)51 tokens/秒,NVIDIA DGX Spark(128 GB)60 tokens/秒。他的个人体感阈值是 50 tokens/秒以下「太烦了不值得」,90 tokens/秒最理想。对 DGX Spark 的评价很直率:号称「桌面 AI 超算」,推理速度还不如笔记本 GPU,还得额外折腾网络才能从工作设备连过去,「就是不行」(lame)。他的建议是 5090(乃至 4090、5080、5070)和 AMD 128 GB 统一内存方案都可行;买不起的可以几个朋友合买一台,放在固定 IP 地址上远程共用。
软件层,他运行 NixOS(一款可将系统配置文件化的 Linux 发行版),用本地推理服务 llama-server(经 llama-swap 管理模型切换)在 localhost 暴露 OpenAI 兼容端口,任何依赖云端模型的工具都可指向本地。Agent 框架使用 pi(开源 AI Agent 平台 OpenClaw 的底层框架),配合元搜索引擎 SearXNG 和自写的通信守护进程。他还在本地维护一个包含全量维基百科转储和技术文档的知识文件夹,目的是减少对外搜索,降低搜索引擎对其兴趣的画像能力。所有 LLM 进程通过 Linux 沙箱工具 bubblewrap 运行,可逐目录、逐端口控制访问范围。
安全设计中最核心的是通信防火墙。他为 Signal 和电子邮件写了一个守护进程,LLM 在自主状态下只能做两件事:读消息和给自己发消息。给他人发消息必须经过弹窗人工确认。他以此延伸出全文最有概念密度的判断:「新的双因素认证是人类加 LLM。」逻辑是人类会粗心、会被骗;LLM 会犯错、会被对抗性输入操控。但两者失败模式不同,要求双方同时确认高风险操作(发送消息、转账),比任一方单独决策安全得多。以太坊钱包接入也遵循同一思路,可设定每日免确认额度(如 100 美元),超出则人工审批。
他同时批评了当前开源 AI 领域对安全的忽视,引用安全研究指出 OpenClaw 的 Agent 可在无需用户确认的情况下修改系统提示、执行任意 shell 脚本,约 15% 的第三方技能包含恶意指令。他强调自己批评的不是 OpenClaw 团队,而是整个社区的文化。
对于本地模型能力不足的场景(如复杂编程),他提出分层隐私方案:用零知识证明实现匿名 API 调用使服务端无法识别请求者身份,用混合网络(mixnet)切断请求间的 IP 关联,在可信执行环境(TEE)中运行远程推理防止服务端读取明文数据,用本地模型在传递给远程模型前剥离隐私信息。长远方向是全同态加密(FHE),但目前「能用 FHE 跑的模型,你也能直接在本地跑」。
信源:https://vitalik.eth.limo/general/2026/04/02/secure_llms.html
以太坊联合创始人 Vitalik Buterin 发表长文,公开了他以隐私和安全为不可谈判前提构建的个人 AI 工作环境。方案覆盖硬件选型、本地模型部署、沙箱隔离、通信防火墙和匿名远程推理五个层次。他在开篇写道:「端到端加密和本地优先软件刚取得进步,我们现在却因为把整个生活喂给云端 AI 而倒退十步。」
硬件上,他测试了三套方案运行 Qwen3.5:35B 模型:NVIDIA 5090 笔记本(24 GB 显存)达到 90 tokens/秒,AMD Ryzen AI Max Pro 笔记本(128 GB 统一内存)51 tokens/秒,NVIDIA DGX Spark(128 GB)60 tokens/秒。他的个人体感阈值是 50 tokens/秒以下「太烦了不值得」,90 tokens/秒最理想。对 DGX Spark 的评价很直率:号称「桌面 AI 超算」,推理速度还不如笔记本 GPU,还得额外折腾网络才能从工作设备连过去,「就是不行」(lame)。他的建议是 5090(乃至 4090、5080、5070)和 AMD 128 GB 统一内存方案都可行;买不起的可以几个朋友合买一台,放在固定 IP 地址上远程共用。
软件层,他运行 NixOS(一款可将系统配置文件化的 Linux 发行版),用本地推理服务 llama-server(经 llama-swap 管理模型切换)在 localhost 暴露 OpenAI 兼容端口,任何依赖云端模型的工具都可指向本地。Agent 框架使用 pi(开源 AI Agent 平台 OpenClaw 的底层框架),配合元搜索引擎 SearXNG 和自写的通信守护进程。他还在本地维护一个包含全量维基百科转储和技术文档的知识文件夹,目的是减少对外搜索,降低搜索引擎对其兴趣的画像能力。所有 LLM 进程通过 Linux 沙箱工具 bubblewrap 运行,可逐目录、逐端口控制访问范围。
安全设计中最核心的是通信防火墙。他为 Signal 和电子邮件写了一个守护进程,LLM 在自主状态下只能做两件事:读消息和给自己发消息。给他人发消息必须经过弹窗人工确认。他以此延伸出全文最有概念密度的判断:「新的双因素认证是人类加 LLM。」逻辑是人类会粗心、会被骗;LLM 会犯错、会被对抗性输入操控。但两者失败模式不同,要求双方同时确认高风险操作(发送消息、转账),比任一方单独决策安全得多。以太坊钱包接入也遵循同一思路,可设定每日免确认额度(如 100 美元),超出则人工审批。
他同时批评了当前开源 AI 领域对安全的忽视,引用安全研究指出 OpenClaw 的 Agent 可在无需用户确认的情况下修改系统提示、执行任意 shell 脚本,约 15% 的第三方技能包含恶意指令。他强调自己批评的不是 OpenClaw 团队,而是整个社区的文化。
对于本地模型能力不足的场景(如复杂编程),他提出分层隐私方案:用零知识证明实现匿名 API 调用使服务端无法识别请求者身份,用混合网络(mixnet)切断请求间的 IP 关联,在可信执行环境(TEE)中运行远程推理防止服务端读取明文数据,用本地模型在传递给远程模型前剥离隐私信息。长远方向是全同态加密(FHE),但目前「能用 FHE 跑的模型,你也能直接在本地跑」。
信源:https://vitalik.eth.limo/general/2026/04/02/secure_llms.html
AI搜索引擎Exa上线Monitors,定时搜全网只推新内容
AI 搜索引擎 Exa 推出 Monitors 功能,允许开发者设置定时搜索任务,搜索结果自动去重后通过 Webhook 推送,每次只返回上一次运行以来的新内容。Exa 的搜索 API 被 Cursor、Notion、AWS、Databricks 等公司使用,定位为面向 AI Agent 的搜索基础设施。
Monitors 支持自定义搜索频率(最短 1 小时),可通过 outputSchema 参数指定结构化 JSON 输出格式,如自动提取公司名、融资轮次、金额等字段,也可选择纯文本摘要。除定时触发外支持手动即时运行,提供 Python、JavaScript 和 cURL 三种接入方式。典型场景包括追踪竞品动态、监控特定领域的融资公告、跟进学术论文发表。
此前 AI Agent 获取外部信息主要靠主动调用搜索 API,Monitors 将这一模式从按需查询变为订阅推送,Agent 无需轮询即可持续获取增量信息。
信源:https://exa.ai/docs/changelog/exa-monitors-launch
AI 搜索引擎 Exa 推出 Monitors 功能,允许开发者设置定时搜索任务,搜索结果自动去重后通过 Webhook 推送,每次只返回上一次运行以来的新内容。Exa 的搜索 API 被 Cursor、Notion、AWS、Databricks 等公司使用,定位为面向 AI Agent 的搜索基础设施。
Monitors 支持自定义搜索频率(最短 1 小时),可通过 outputSchema 参数指定结构化 JSON 输出格式,如自动提取公司名、融资轮次、金额等字段,也可选择纯文本摘要。除定时触发外支持手动即时运行,提供 Python、JavaScript 和 cURL 三种接入方式。典型场景包括追踪竞品动态、监控特定领域的融资公告、跟进学术论文发表。
此前 AI Agent 获取外部信息主要靠主动调用搜索 API,Monitors 将这一模式从按需查询变为订阅推送,Agent 无需轮询即可持续获取增量信息。
信源:https://exa.ai/docs/changelog/exa-monitors-launch
Exa Docs
Introducing Exa Monitors - Exa
Schedule recurring Exa searches and get results delivered to your webhook, with automatic deduplication and structured output.
❤1
此前白名单制曾催生千万级「拼盘」:Seedance 2.0 API面向企业开放公测
字节跳动旗下火山引擎在 AI 创新巡展·武汉站上宣布,视频生成模型 Seedance 2.0 的 API 面向企业用户开放公测。此前该 API 仅通过白名单向选定的商业合作伙伴开放,供不应求催生了二级转售市场,据 36 氪报道,有机构年付千万元购买「拼盘」式 API 额度。
API 定价约 28 元/百万 token(含视频素材输入)和 46 元/百万 token(不含视频输入),生成一条 15 秒 1080P 视频消耗约 30 万 token,成本约 15 元,折合 1 元/秒。火山引擎同步强调 API 提供覆盖全模态、全创作流程的版权与肖像安全保障,包含侵权检测和深度伪造防御。
信源:https://www.volcengine.com/contact/seedance2-0public
字节跳动旗下火山引擎在 AI 创新巡展·武汉站上宣布,视频生成模型 Seedance 2.0 的 API 面向企业用户开放公测。此前该 API 仅通过白名单向选定的商业合作伙伴开放,供不应求催生了二级转售市场,据 36 氪报道,有机构年付千万元购买「拼盘」式 API 额度。
API 定价约 28 元/百万 token(含视频素材输入)和 46 元/百万 token(不含视频输入),生成一条 15 秒 1080P 视频消耗约 30 万 token,成本约 15 元,折合 1 元/秒。火山引擎同步强调 API 提供覆盖全模态、全创作流程的版权与肖像安全保障,包含侵权检测和深度伪造防御。
信源:https://www.volcengine.com/contact/seedance2-0public
阶跃Step 3.5 Flash新增低推理模式,token降56%
AI 大模型公司阶跃星辰发布 Step 3.5 Flash 2603,是 Step 3.5 Flash 的优化版本,已面向所有 Step Plan 用户开放。
核心变化是新增 low think mode(低推理模式)。官方测试数据显示,默认推理模式(high)下推理分数基本持平,token 消耗降低 14%;切换到 low think mode 后,token 消耗降低 56%。模型同时针对编程框架和 Agent 框架做了优化训练,提升稳定性和 token 效率。
阶跃星辰在公告中观察到,OpenClaw 用户在 Agent 场景中大量任务频率高但复杂度不高,「聪明的用户已经在做按需分配:复杂环节用重型模型,中间步骤和高频任务用轻量模型」。API 同时支持 OpenAI 和 Anthropic 两种协议格式,通过 reasoning_effort 或 budget_tokens 参数控制推理强度。
信源:https://mp.weixin.qq.com/s/JhRl9x131pP8-g5bRr242w
AI 大模型公司阶跃星辰发布 Step 3.5 Flash 2603,是 Step 3.5 Flash 的优化版本,已面向所有 Step Plan 用户开放。
核心变化是新增 low think mode(低推理模式)。官方测试数据显示,默认推理模式(high)下推理分数基本持平,token 消耗降低 14%;切换到 low think mode 后,token 消耗降低 56%。模型同时针对编程框架和 Agent 框架做了优化训练,提升稳定性和 token 效率。
阶跃星辰在公告中观察到,OpenClaw 用户在 Agent 场景中大量任务频率高但复杂度不高,「聪明的用户已经在做按需分配:复杂环节用重型模型,中间步骤和高频任务用轻量模型」。API 同时支持 OpenAI 和 Anthropic 两种协议格式,通过 reasoning_effort 或 budget_tokens 参数控制推理强度。
信源:https://mp.weixin.qq.com/s/JhRl9x131pP8-g5bRr242w
给OpenAI和Anthropic训练模型的公司被黑了:Mercor确认遭攻击,Lapsus$称窃4TB数据
AI 模型评估与专家人力外包平台 Mercor 确认遭受网络攻击,起因是开源 Python 库 LiteLLM 的供应链被攻破。Mercor 称自己是「数千家受影响公司之一」,已聘请第三方取证专家调查。
LiteLLM 是一个月下载量达 9700 万次的 Python 库,开发者用它作为统一接口连接 OpenAI、Anthropic 等超过 100 家 AI 服务。一个名为 TeamPCP 的黑客组织向 PyPI 上传了被注入恶意代码的 1.82.7 和 1.82.8 版本,代码会窃取 SSH 密钥、API token、.env 文件和云服务商凭证,并建立持久后门。安全公司 Snyk 发现后恶意版本在数小时内被下架,但暴露窗口已足以让攻击者入侵下游系统。
勒索黑客组织 Lapsus$ 随后在其泄露站点宣称对 Mercor 的攻击负责,声称共窃取约 4TB 数据,包括:
1. 939GB 源代码
2. 211GB 数据库
3. 3TB 存储桶(据称包含视频面试录像、身份验证文件等)
4. TailScale VPN 全部数据
Lapsus$ 在帖子中还公布了部分数据样本,包括 Slack 通讯记录、工单系统信息,以及 Mercor AI 系统与平台承包商互动的视频。社交媒体上有安全研究者分析泄露样本后指出,数据中出现了疑似与亚马逊、苹果、Meta 相关的内部项目文件结构,但 Mercor 尚未确认具体哪些客户数据受到影响。
Mercor 成立于 2023 年,估值 100 亿美元(2025 年 10 月 C 轮),管理超过 3 万名专家承包商,日均向承包商支付超过 200 万美元,为 OpenAI、Anthropic、Google DeepMind 等 AI 实验室提供模型训练和评估所需的专家级人工反馈服务。Mercor 发言人确认已启动调查,但拒绝回答事件是否与 Lapsus$ 的声明有关,也未说明是否有客户或承包商数据被访问、泄露或滥用。如果 Lapsus$ 的说法属实,这将是一起直接触及多家头部 AI 实验室训练流程核心数据的重大安全事件。目前 TeamPCP 与 Lapsus$ 之间的关系尚不清楚。Cybernews 分析认为,Lapsus$ 对 Mercor 的攻击可能标志着 TeamPCP 与勒索组织开始实质协作,类似此前 ShinyHunters 利用 Salesforce 漏洞、Cl0p 利用 MOVEit 漏洞后的连锁效应。
信源:https://techcrunch.com/2026/03/31/mercor-says-it-was-hit-by-cyberattack-tied-to-compromise-of-open-source-litellm-project/
AI 模型评估与专家人力外包平台 Mercor 确认遭受网络攻击,起因是开源 Python 库 LiteLLM 的供应链被攻破。Mercor 称自己是「数千家受影响公司之一」,已聘请第三方取证专家调查。
LiteLLM 是一个月下载量达 9700 万次的 Python 库,开发者用它作为统一接口连接 OpenAI、Anthropic 等超过 100 家 AI 服务。一个名为 TeamPCP 的黑客组织向 PyPI 上传了被注入恶意代码的 1.82.7 和 1.82.8 版本,代码会窃取 SSH 密钥、API token、.env 文件和云服务商凭证,并建立持久后门。安全公司 Snyk 发现后恶意版本在数小时内被下架,但暴露窗口已足以让攻击者入侵下游系统。
勒索黑客组织 Lapsus$ 随后在其泄露站点宣称对 Mercor 的攻击负责,声称共窃取约 4TB 数据,包括:
1. 939GB 源代码
2. 211GB 数据库
3. 3TB 存储桶(据称包含视频面试录像、身份验证文件等)
4. TailScale VPN 全部数据
Lapsus$ 在帖子中还公布了部分数据样本,包括 Slack 通讯记录、工单系统信息,以及 Mercor AI 系统与平台承包商互动的视频。社交媒体上有安全研究者分析泄露样本后指出,数据中出现了疑似与亚马逊、苹果、Meta 相关的内部项目文件结构,但 Mercor 尚未确认具体哪些客户数据受到影响。
Mercor 成立于 2023 年,估值 100 亿美元(2025 年 10 月 C 轮),管理超过 3 万名专家承包商,日均向承包商支付超过 200 万美元,为 OpenAI、Anthropic、Google DeepMind 等 AI 实验室提供模型训练和评估所需的专家级人工反馈服务。Mercor 发言人确认已启动调查,但拒绝回答事件是否与 Lapsus$ 的声明有关,也未说明是否有客户或承包商数据被访问、泄露或滥用。如果 Lapsus$ 的说法属实,这将是一起直接触及多家头部 AI 实验室训练流程核心数据的重大安全事件。目前 TeamPCP 与 Lapsus$ 之间的关系尚不清楚。Cybernews 分析认为,Lapsus$ 对 Mercor 的攻击可能标志着 TeamPCP 与勒索组织开始实质协作,类似此前 ShinyHunters 利用 Salesforce 漏洞、Cl0p 利用 MOVEit 漏洞后的连锁效应。
信源:https://techcrunch.com/2026/03/31/mercor-says-it-was-hit-by-cyberattack-tied-to-compromise-of-open-source-litellm-project/
TechCrunch
Mercor says it was hit by cyberattack tied to compromise of open source LiteLLM project | TechCrunch
The AI recruiting startup confirmed a security incident after an extortion hacking crew took credit for stealing data from the company's systems.
做「硬件版OpenClaw」的无界方舟获韶音投资,一年四轮累计数亿元
AI 硬件操作系统公司无界方舟(AutoArk)完成连续两轮 Pre-A 轮融资,投资方包括穿戴式设备品牌韶音(Shokz)、国瑞源基金、恒松资本和上海天使会,易凯资本担任独家财务顾问。加上去年由蚂蚁早期生态基金和小饭桌创投领投的 Pre-A 及柏睿资本独投的 Pre-A+ 轮,无界方舟过去一年内完成四轮融资,累计金额数亿元。
无界方舟 2024 年成立于珠海,核心产品是端侧 AI 操作系统 EVA OS。创始人曾晓东将其定位为「硬件端的 OpenClaw」:OpenClaw 是跑在云端和电脑上的 Agent 框架,EVA OS 则让 AI Agent 原生运行在机器人、耳机、眼镜等硬件设备上。开发者用自然语言描述需求,EVA OS 自动完成驱动调通、程序编写和部署,将此前需要 3 人、2-3 个月的端侧 AI 开发流程压缩到平均半小时。曾晓东把这套范式称为 Vibe Hardware。
技术上,EVA OS 采用端云协同架构,语音识别、TTS 和视觉感知等高频交互在端侧完成,复杂推理交给云端。语音延迟低于 250 毫秒,多模态反馈低于 350 毫秒,较行业通用方案约 600 毫秒有明显改善。感知模型完全跑在端侧,成本降低 70%-92%。EVA OS 1.0 发布三个多月以来,已有超过 2500 家企业和研发单位将其用于 AI 耳机、AI 眼镜、桌面机器人、智能腕带、车载智能管家、机械手臂等品类的产品研发。
曾晓东曾在阿里巴巴和蚂蚁集团任职约十年,从零孵化了刷脸支付、支付宝盒(千万级销量)和中国首家无人超市「淘咖啡」,2017 年入选 MIT Technology Review「35 岁以下科技创新 35 人」中国榜单。无界方舟首款硬件产品「奇多多 AI 学伴机」面向 3-10 岁儿童,售价千元级别且 AI 功能永久免费,用户日均使用时长达 145 分钟。本轮融资后,公司还将发布新硬件终端 EVA Pi,定位为可自主写代码、自主更新的端侧设备。
韶音此次以战略投资方身份入局。这家以开放式耳机闻名的全球穿戴品牌今年已在 AWE 2026 上展出 AI 眼镜产品线,投资无界方舟意味着硬件品牌正在为自家设备寻找端侧 Agent 能力的底座。
信源:https://mp.weixin.qq.com/s/KIZf4HrpytGghwuTmmC_fA
AI 硬件操作系统公司无界方舟(AutoArk)完成连续两轮 Pre-A 轮融资,投资方包括穿戴式设备品牌韶音(Shokz)、国瑞源基金、恒松资本和上海天使会,易凯资本担任独家财务顾问。加上去年由蚂蚁早期生态基金和小饭桌创投领投的 Pre-A 及柏睿资本独投的 Pre-A+ 轮,无界方舟过去一年内完成四轮融资,累计金额数亿元。
无界方舟 2024 年成立于珠海,核心产品是端侧 AI 操作系统 EVA OS。创始人曾晓东将其定位为「硬件端的 OpenClaw」:OpenClaw 是跑在云端和电脑上的 Agent 框架,EVA OS 则让 AI Agent 原生运行在机器人、耳机、眼镜等硬件设备上。开发者用自然语言描述需求,EVA OS 自动完成驱动调通、程序编写和部署,将此前需要 3 人、2-3 个月的端侧 AI 开发流程压缩到平均半小时。曾晓东把这套范式称为 Vibe Hardware。
技术上,EVA OS 采用端云协同架构,语音识别、TTS 和视觉感知等高频交互在端侧完成,复杂推理交给云端。语音延迟低于 250 毫秒,多模态反馈低于 350 毫秒,较行业通用方案约 600 毫秒有明显改善。感知模型完全跑在端侧,成本降低 70%-92%。EVA OS 1.0 发布三个多月以来,已有超过 2500 家企业和研发单位将其用于 AI 耳机、AI 眼镜、桌面机器人、智能腕带、车载智能管家、机械手臂等品类的产品研发。
曾晓东曾在阿里巴巴和蚂蚁集团任职约十年,从零孵化了刷脸支付、支付宝盒(千万级销量)和中国首家无人超市「淘咖啡」,2017 年入选 MIT Technology Review「35 岁以下科技创新 35 人」中国榜单。无界方舟首款硬件产品「奇多多 AI 学伴机」面向 3-10 岁儿童,售价千元级别且 AI 功能永久免费,用户日均使用时长达 145 分钟。本轮融资后,公司还将发布新硬件终端 EVA Pi,定位为可自主写代码、自主更新的端侧设备。
韶音此次以战略投资方身份入局。这家以开放式耳机闻名的全球穿戴品牌今年已在 AWE 2026 上展出 AI 眼镜产品线,投资无界方舟意味着硬件品牌正在为自家设备寻找端侧 Agent 能力的底座。
信源:https://mp.weixin.qq.com/s/KIZf4HrpytGghwuTmmC_fA
R1核心作者离职但团队未散,V4或4月发布:DeepSeek下一步是Agent
晚点LatePost 报道,DeepSeek V4 有可能在 4 月发布。一个小参数版本约在今年 1 月已交给部分开源框架社区做适配,大参数版此前曾预期 2 月中旬前后发布,推迟至今。晚点评估 V4 大概率仍是开源最强模型,但很难碾压级的强,因为不同场景的开发者和用户对「强」的标准已越来越多元,且进入 Agent 时代后,产品触手和长尾使用数据变得更重要,这恰恰是 DeepSeek 此前没有太多投入的地方。
从 2025 年下半年至今,四名核心成员已明确离开:
1. 王炳宣,DeepSeek 首代大语言模型核心作者,此后参与历代模型训练,去年底被腾讯姚顺雨挖走
2. 魏浩然,DeepSeek-OCR 系列核心作者,春节前后离开
3. 郭达雅,DeepSeek-R1 核心作者,近期正式离职
4. 阮翀,Janus-Pro 等多模态核心贡献者,今年 1 月加入自动驾驶公司元戎启行
晚点称团队并未成组流失。竞争对手开出总包翻 2-3 倍乃至 8 位数的邀约,更多人选择留下。DeepSeek 至今未融资,没有明确估值。2023 年创始人梁文锋曾小范围见过投资人,提出类似 OpenAI 与微软投资协议的回报上限条件,无机构接受,此后不再见投资人。MiniMax 和智谱相继上市并股价高涨,员工对手中无标价期权的疑问增多,梁文锋近期开始想办法给公司估值。
产品方向出现转向信号。DeepSeek 一位 HR 3 月中旬发布的招聘中首次提及具体产品名,要求 Agent 方向「模型策略产品经理」候选人「熟悉并深度使用过 Claude Code、OpenClaw、Manus 等知名 agent」。DeepSeek 已有小数十人产品团队,但此前尚未涉足 AI 编程和通用 Agent 方向,C 端仍只有 Chatbot。
信源:https://mp.weixin.qq.com/s/bYZrKp48Y7EpsU8_vd6TcQ
晚点LatePost 报道,DeepSeek V4 有可能在 4 月发布。一个小参数版本约在今年 1 月已交给部分开源框架社区做适配,大参数版此前曾预期 2 月中旬前后发布,推迟至今。晚点评估 V4 大概率仍是开源最强模型,但很难碾压级的强,因为不同场景的开发者和用户对「强」的标准已越来越多元,且进入 Agent 时代后,产品触手和长尾使用数据变得更重要,这恰恰是 DeepSeek 此前没有太多投入的地方。
从 2025 年下半年至今,四名核心成员已明确离开:
1. 王炳宣,DeepSeek 首代大语言模型核心作者,此后参与历代模型训练,去年底被腾讯姚顺雨挖走
2. 魏浩然,DeepSeek-OCR 系列核心作者,春节前后离开
3. 郭达雅,DeepSeek-R1 核心作者,近期正式离职
4. 阮翀,Janus-Pro 等多模态核心贡献者,今年 1 月加入自动驾驶公司元戎启行
晚点称团队并未成组流失。竞争对手开出总包翻 2-3 倍乃至 8 位数的邀约,更多人选择留下。DeepSeek 至今未融资,没有明确估值。2023 年创始人梁文锋曾小范围见过投资人,提出类似 OpenAI 与微软投资协议的回报上限条件,无机构接受,此后不再见投资人。MiniMax 和智谱相继上市并股价高涨,员工对手中无标价期权的疑问增多,梁文锋近期开始想办法给公司估值。
产品方向出现转向信号。DeepSeek 一位 HR 3 月中旬发布的招聘中首次提及具体产品名,要求 Agent 方向「模型策略产品经理」候选人「熟悉并深度使用过 Claude Code、OpenClaw、Manus 等知名 agent」。DeepSeek 已有小数十人产品团队,但此前尚未涉足 AI 编程和通用 Agent 方向,C 端仍只有 Chatbot。
信源:https://mp.weixin.qq.com/s/bYZrKp48Y7EpsU8_vd6TcQ
❤1
北卡团队开源Agent治理框架AutoHarness,部分设计参考Claude Code架构
北卡罗来纳大学教堂山分校 AIMING Lab 助理教授姚骅修在 X 上宣布开源 AutoHarness(简称 Aha),一个面向 AI Agent 的轻量级治理框架,MIT 许可证,不绑定任何 LLM 供应商,两行代码即可接入现有客户端。
AutoHarness 的核心理念是将 Agent 拆成两层:模型负责推理,Harness 负责其余一切。上下文管理、工具权限控制、成本追踪、可观测性、会话持久化,这些将 Agent 从演示品变成生产系统的工程能力,被统称为「harness engineering」。
治理管线分三档。Core 模式 6 步(解析验证→风险分类→权限检查→执行→输出清洗→审计日志),适合轻量场景;Standard 模式 8 步,增加风险分类器和前置钩子,面向生产环境;Enhanced 模式 14 步,支持多 Agent 分叉、集群和后台执行,为默认模式。每次工具调用都经过完整管线,内置风险模式匹配可拦截危险操作(如 `rm -rf /`)、密钥泄露和路径遍历,输出端做注入检测和敏感信息过滤。其他功能包括基于 YAML 的 constitution 配置(提供 SOC2、HIPAA、金融等合规模板)、token 预算管理与多层压缩、多 Agent 角色化权限、逐调用成本归因和 JSONL 审计日志。
项目在 README 免责声明中明确表示,Enhanced 模式的部分架构决策受到「Claude Code 源码于 2026 年 3 月 31 日通过 Anthropic npm 仓库意外公开后的公开分析和社区讨论」启发,同时强调未包含或翻译 Anthropic 的任何专有代码。项目首次提交时间为 4 月 1 日,距泄露事件不到 24 小时。如果说 Claw Code 是泄露事件催生的「从零重写」路线,AutoHarness 走的则是「提炼设计模式」路线,将 Claude Code 的工程实践抽象为可复用的治理框架。
信源:https://github.com/aiming-lab/AutoHarness
北卡罗来纳大学教堂山分校 AIMING Lab 助理教授姚骅修在 X 上宣布开源 AutoHarness(简称 Aha),一个面向 AI Agent 的轻量级治理框架,MIT 许可证,不绑定任何 LLM 供应商,两行代码即可接入现有客户端。
AutoHarness 的核心理念是将 Agent 拆成两层:模型负责推理,Harness 负责其余一切。上下文管理、工具权限控制、成本追踪、可观测性、会话持久化,这些将 Agent 从演示品变成生产系统的工程能力,被统称为「harness engineering」。
治理管线分三档。Core 模式 6 步(解析验证→风险分类→权限检查→执行→输出清洗→审计日志),适合轻量场景;Standard 模式 8 步,增加风险分类器和前置钩子,面向生产环境;Enhanced 模式 14 步,支持多 Agent 分叉、集群和后台执行,为默认模式。每次工具调用都经过完整管线,内置风险模式匹配可拦截危险操作(如 `rm -rf /`)、密钥泄露和路径遍历,输出端做注入检测和敏感信息过滤。其他功能包括基于 YAML 的 constitution 配置(提供 SOC2、HIPAA、金融等合规模板)、token 预算管理与多层压缩、多 Agent 角色化权限、逐调用成本归因和 JSONL 审计日志。
项目在 README 免责声明中明确表示,Enhanced 模式的部分架构决策受到「Claude Code 源码于 2026 年 3 月 31 日通过 Anthropic npm 仓库意外公开后的公开分析和社区讨论」启发,同时强调未包含或翻译 Anthropic 的任何专有代码。项目首次提交时间为 4 月 1 日,距泄露事件不到 24 小时。如果说 Claw Code 是泄露事件催生的「从零重写」路线,AutoHarness 走的则是「提炼设计模式」路线,将 Claude Code 的工程实践抽象为可复用的治理框架。
信源:https://github.com/aiming-lab/AutoHarness