linux.do
14K subscribers
47.3K photos
51 videos
53 files
64.3K links
linux.do最新话题和热议话题
Download Telegram
【Augment魔改版0.522预告贴】早上上班发,发完这个帖子我就睡
LINUX DO - 热门话题 (RSS)

搞的稀里糊涂的,死活睡不着,索性爬起来把他搞完,总算完成这部分,后面的idea魔改版本也在路上,搞完之后小小的兴奋了一下,立马就萎了,现在就是非常的困,困意突然袭来,先睡了 = = md 还要工作啊啊啊啊啊!!!

Augment 魔改去风控(💩)
📋 当前版本(支持版本):v0.522.0
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

🚀 扩展功能简介
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
• 网络请求拦截 - 拦截和修改HTTP/HTTPS/Fetch/Axios/XMLHttpRequest请求
• 会话ID替换 - 自动替换敏感的会话标识信息,比如:SessionId
• 系统信息伪造 - 支持macOS和Windows系统信息伪造,比如:mac地址、系统UUID、主板序列号、Windows产品ID、Window序列号等等。。。
• 命令输出拦截 - 拦截ioreg/reg/git等系统命令输出
• VSCode模块拦截 - 深度集成VSCode API,提供增强功能

💡 使用说明
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
该扩展会自动在后台运行,无需手动配置。所有拦截功能会在VSCode启动时自动激活,
为您的开发环境提供隐私保护和请求管理功能。

📱 技术支持与更新
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
关注微信公众号:@煎饼果子卷AI
获取最新版本更新、技术支持和使用教程




34 个帖子 - 33 位参与者

阅读完整话题
Anthropic创始人、Claude之父 接受采访:自己当年加入Baidu的时期,发现了Scaling Laws,称是这辈子最重要的发现。
LINUX DO - 热门话题 (RSS)

Anthropic CEO在Baidu时期的论文原文



谈及自己的百度时期的职业生涯, 他表示当年加入Baidu,最终吸引他的是吴恩达(Andrew Ng)在百度组建的AI研究团队。当时,吴恩达手握1亿美元(约合人民币7.3亿元)预算,正在全球范围内招募顶尖AI人才,开始组建一支“梦之队”

在百度期间,Dario Amodei与团队开展了大规模实验,探索模型性能是否会随着参数规模和训练数据的增长而持续提升。结果显示,确实如此。阿莫代伊及其合作者随后撰写了一篇关于语音识别的论文,首次系统展示了这一趋势,该成果也成为“AI扩展定律”(Scaling Laws)的基础

“这对我冲击极大,Dario Amodei回忆说,“我看到了一条极其平滑的趋势线,变化明确、持续上升。”Dario Amodei评价:“这是我这辈子见过最重要的发现。”



35 个帖子 - 30 位参与者

阅读完整话题
[提醒] 请勿在 Cloudflare Pages 上部署 MoonTV/LibreTV
LINUX DO - 热门话题 (RSS)

大家好,我掉级了,现在我是2级用户。

说正事,我是 LibreTV 的作者。近期,我注意到有用户因在 Cloudflare Pages 上部署 MoonTV(LibreTV 衍生项目,更加美观、功能更加丰富)而导致 Cloudflare 账户被限制的情况。为避免类似问题,我们建议所有用户立即停止在 Cloudflare Pages 上部署 MoonTV 或 LibreTV

当前情况

Cloudflare Pages 部署可能导致账户限制(原因可能与版权或服务条款有关,但 CF 未明确说明)。
MoonTV 作者已在相关讨论中回应,但上一次封号潮经查是因为绑定了共享信用卡查看详情
两个项目均已强制要求密码环境变量(必须配置 PASSWORD 才能运行,以减少滥用风险)。

推荐替代部署方案
Vercel(免费、易用,目前无限制)

Netlify(类似 Vercel,适合静态托管)

Docker 部署至服务器(适用于 VPS/本地服务器,可控性更高)

项目地址

LibreTV: GitHub 仓库
MoonTV: GitHub 仓库

我们会持续关注 Cloudflare 的政策变化,并更新建议。如有问题,欢迎在项目仓库或本论坛讨论。

感谢理解与支持!

29 个帖子 - 27 位参与者

阅读完整话题
vibe coding经验分享------一份Vibe Coding深度依赖患者生存指南
LINUX DO - 热门话题 (RSS)

前排提醒 本文内容纯人类完成 仅使用Gemini2.5-pro排版,未修改内容
Vibe Coding 深度依赖患者生存指南
作为llm重度依赖患者,本人现在做个什么项目离了ai就跟瘸了腿似的,vibe coding成了我日常编程的主要选择。

vibe coding的上限在哪里?我觉得还是比较高的,虽然在冷门方面能力不足(比如操作系统开发,嵌入式开发),但热门的框架(如vue react等)ai还是比较轻松的拿捏的。

vibe coding这么久,积累了一些经验供大家参考。


NOTICE: 以下内容仅为本人经验之谈,未经过严格检验与查证。



1. 关于模型
由于每个模型训练数据的差异,即使benchmark分数相近,在具体到某个框架的使用或者某个问题的解决上时,展现出来的能力可能有不小的差异。

For example(个人真实经历):


需求: 解决一个ci的配置错误

结果: 分数低的模型(qwen3-coder)一次性解决了问题,比分数更高的模型(claude4)效率更高


总结了一些小方面不同模型的能力(可能不准确 未查证

Gemini2.5-pro 写前端特别容易UI错位,服务器运维比较好用(?不太确定这个)
Claude4-sonnet 前端很好用(前提是你能接受他的风格) 前端风格很统一
qwen3-coder 不适合干复杂活 适合做一些分的很细的小任务 前端UI样式很奇怪容易错位

建议:

做某个需求时不要钻一个模型,多换几个模型试试,对小需求也不要迷信Claude之类的模型,可以尝试尝试别的模型,说不定学过什么Claude没学过的内容()

2. 关于上下文
时刻追踪开发进度,vibe coding不代表你连代码都不用看懂,你可以自行维护(或者要求llm维护)一份说明文档包含:

filename.xx 做了什么 与anotherFile.xx有什么关系
该项目的xxx功能主要涉及了filename.xx anotherFile.xx
someService.xx 提供了 以下api接口

我一般称这个文件为**ContextLibrary.txt**

为什么需要ContextLibrary?如何利用?

首先 我们要明确 vibe coding也是需要开发者参与代码理解的过程,要想构建更复杂的vibe coding项目,vibe coder不能对项目结构和功能实现一无所知,我们有着比llm强的多的抽象能力和上下文大小,在实现新功能时,我们应该合理的从ContextLibrary选择合适的上下文(可能涉及的文件,使用的service等),这样可以显著减小模型自行理解项目的token消耗和上下文占用。

3. 开发策略


你应该作为架构师

虽然现在普遍做法是让llm一并担任架构师的角色,但是我认为vibe coder应该担下架构师的责任,原因我说不太清,感觉使然。

Vibe coding 就像老虎机

善于使用版本管理和checkpoint等工具,从上一个checkpoint再来一次比生成错误代码后再修复更容易得到正确结果。

我做了些什么?

维护一个 PromptLibrary.txt 按照时间线记录自己每一次交互以及最终结果 便于日后查验 必要时也可以作为上下文发给llm。

4. 提示词策略
vibe coding的好处在于,不懂编码的人也能通过vibe coding创作自己的应用,但这样的产品高度有限。

以我的NovelBox项目为例:

我认为,资深的vibe coder不会使用“帮我实现续写功能”这样的提示词,他们会说:

在MainEditor中实现续写功能 参考AIPanel里重写功能的实现
service/llm.js: .....(省略api调用文档)
续写按钮悬浮在MainEditor右下角,点击后展开AIPanel显示续写任务(参考MainEditor中重写的实现)
续写任务UI应该包含一个替换按钮...(UI要求省略)
续写时发送当前章节所有...(省略续写逻辑)
注意i18n

这段提示词包含了:上下文管理架构设计

之前看到的一个观点,LLM是一个无状态函数,输入决定了输出,也因此合理构建的提示词和上下文是提升编码能力的关键。

先写这么多吧 困了 明天继续

19 个帖子 - 18 位参与者

阅读完整话题
【yourapi】已适配claude-opus-4-1-20250805,claude code分组可用,源头底价!,抽3位赠送16元额度
LINUX DO - 热门话题 (RSS)

20250806新增claude-opus-4-1-20250805和claude-opus-4-1-20250805-thinking模型,cc分组可用,可接入claude code,限时百万输入仅需人民币¥8.10 ,百万输出仅需人民币¥40.50 。



立即访问
网址: yourapi.cn

接入教程: doc.yourapi.cn

claude cdoe设置如下环境变量即可强制使用opus-4-1

export ANTHROPIC_BASE_URL="https://yourapi.cn/opus"

源头API底价供应!

yourapi.cn

Your API

OpenAI 接口聚合管理,支持多种渠道包括 Azure,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用

评论区使用ai随机抽3位奖励16元额度,活动截止时间,2025年8月15日!

141 个帖子 - 141 位参与者

阅读完整话题
抓包拿到了Augment的Enhance Prompt功能的提示词
LINUX DO - 热门话题 (RSS)

挺喜欢这个功能的,增加效果也确实挺好,发帖分享一下。

用户输入用${userInput} 占位

"Here is an instruction that I'd like to give you, but it needs to be improved. Rewrite and enhance this instruction to make it clearer, more specific, less ambiguous, and correct any mistakes. Do not use any tools: reply immediately with your answer, even if you're not sure. Consider the context of our conversation history when enhancing the prompt. If there is code in triple backticks (```) consider whether it is a code sample and should remain unchanged.Reply with the following format:\n\n### BEGIN RESPONSE ###\nHere is an enhanced version of the original instruction that is more specific and clear:\n<augment-enhanced-prompt>enhanced prompt goes here</augment-enhanced-prompt>\n\n### END RESPONSE ###\n\nHere is my original instruction:\n\n${userInput}"

可以设置到roo code里面:



27 个帖子 - 23 位参与者

阅读完整话题
稳定快速 Google Gemini 公益站 数据总结
LINUX DO - 热门话题 (RSS)

稳定快速 Google Gemini 公益站

稳定快速 Google Gemini 公益站 2.0

总结一下站点开放运行以来的使用数据

最开始使用oneapi的20多天数据全部丢失了,从4月27日开始计算:



23 个帖子 - 22 位参与者

阅读完整话题
gpt-oss-120b测试完毕,结论:一坨大便
LINUX DO - 热门话题 (RSS)

GPT-OSS-120B测试结果
省流:七个问题全错,连Qwen3-30B-A3B-Thinking-2507都打不赢



GPT-OSS用的是huggingface上面的demo,结果仅供参考,不一定十分严谨。

七个问题:
前两个问题选自人类最后的考试,第三到第五个问题选自弱智吧,第六第七个问题自己编的。

1.问题:

An interactive proof system is an abstraction that generalizes the familiar notion of proof. Intuitively, given a formal statement z (for example, “this graph admits a proper 3-coloring”), a proof π for z is information that enables one to check the validity of z more efficiently than without access to the proof (e.g. π could be an explicit assignment of colors to each vertex of the graph), for a language L.

From research in complexity and cryptography, which statement regarding the generalization of the notion of “efficiently verifiable proof” is correct?

Answer Choices:

A. We allow interactive verification. Informally, this means that must receive a proof string π in its entirety and make a decision based on it; what won’t work is a verification algorithm (called the...

View original post
「抽奖」机场免费兑换码
LINUX DO - 热门话题 (RSS)

https://glados.space/landing/D6H44-TMFGZ-7FR54-8W72W



[奖品]:「抽奖」机场兑换码*1

活动时间:

开始时间:[2025-08-06 11:30]

截止时间:[2025-08-07 11:30]

参与方式:

在本帖下回复任意内容即可

抽奖规则:

每位用户仅允许参与一次。

使用官方抽奖工具随机抽取中奖者。

注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。

中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。

所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。

166 个帖子 - 166 位参与者

阅读完整话题
Gemini新功能开始灰度
LINUX DO - 热门话题 (RSS)



故事书功能,看着还是比较精美的

交互地址

Gemini

‎Gemini - 📖 Kaito's Fishy Caper

此对话是使用 Gemini 创建的

21 个帖子 - 21 位参与者

阅读完整话题
250806 三花AI日报:OpenAI 重磅开源 GPT-OSS 系列模型; Google Genie 3 世界模型;ElevenLabs 发布 AI 音乐生成神器;谷歌 Gemini 推出 Storybook 功能:一键生成定制绘本;JetBrains 发布 Kineto:无代码平台;
LINUX DO - 热门话题 (RSS)

OpenAI 重磅开源 GPT-OSS 系列模型:120B/20B



OpenAI 终于发布了其开源权重模型系列 GPT-OSS,采用 Apache 2.0 许可。该系列包含 GPT-OSS-120B 和 GPT-OSS-20B 两个模型,性能分别媲美自家商业产品 O4-mini 和 O3-mini。

此外还开源了 Harmony 项目——专门为 GPT-OSS 系列设计的响应格式系统。

完整介绍可以看官方博客,佬们也可以直接在线体验GPT-OSS

Google Genie 3 世界模型实现高保真环境生成

Google DeepMind 发布了通用世界模型 Genie 3,这技术能够根据文本提示生成高度多样化的交互式动态环境。该模型能够以每秒 24 帧的速率实时渲染可导航的虚拟世界,输出分辨率达 1280×720。

完整技术细节可查阅 Google DeepMind 官方博客报告

ElevenLabs 发布 AI 音乐生成神器 Eleven Music

ElevenLabs 最新推出了 Eleven Music,这是一款 AI 音乐生成工具,能够根据文本提示创作工作室级别的音乐作品。

该工具提供了支持用户自由选择音乐流派、风格和结构,还能决定生成带人声的歌曲或纯器乐版本。还支持多语言创作。

从演示来看效果不错,佬们可以试试,又一个 Suno 强力竞品。

谷歌 Gemini 推出 Storybook 功能:一键生成定制绘本

Google 在 Gemini 应用中推出了一项名为 Storybook 的新功能,用户只需输入主题、目标读者年龄和期望的图画风格,就能为大人或小孩生成专属绘本。最棒的是,这些绘本会配有定制艺术插图和专业朗读旁白。

佬们无需下载 APP,直接在官方网页上就能使用!

Anthropic 小幅度升级:Claude 4.1 Opus 大模型



Anthropic 正式推出 Claude...

View original post
1
【RawChat】【第24期】抽两个30天的Claude Pro官号!可以用Claude Code
LINUX DO - 热门话题 (RSS)

奖品详情:

两个30天的Claude Pro官号

活动时间:

开始时间:Wed, Aug 6, 2025 10:00 AM CST

截止时间:Thu, Aug 7, 2025 10:00 AM CST

(开奖有可能会延迟几十分钟到几个小时,有时候正好有事就要晚点开奖)

参与方式:

点赞以后,在本帖下回复任意内容即可

抽奖规则:

每位用户仅允许参与一次。

使用LINUX DO 抽奖程序随机抽取中奖者。

注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。

所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。

上一期(第23期)中奖的是:

153 楼的 feng sssqw

150 楼的 始皇后

208 个帖子 - 208 位参与者

阅读完整话题
AI 早报 8.6
LINUX DO - 热门话题 (RSS)

— Google 发布世界模型 Genie 3: A new frontier for world models

Genie 3: A new frontier for world models - Google DeepMind


评价:以后玩游戏可以动态生成了



— OpenAI 发布两款新模型(且开放权重) gpt-oss 120b/20b,激活参数最小为 3.6b

https://openai.com/index/introducing-gpt-oss/


评价: OpenAI 终于回归 Open,模型本身很不错,输出非常规范,但Agentic 能力较差(无伤大雅,模型树叶有专工);有的模型提供商可以做到 3000 token/s



— Anthropic 推出 Claude 4.1 Opus,作为 Claude 4.0 Opus 的小升级版推出,SWE-bench* 提升约 2%

Claude Opus 4.1 \ Anthropic


评价:提升较微弱,代码生成依旧第一名



— ChatGPT 上周发布学习模式后,Google Gemini 也于今日开放学习模式



SWE-bench 是一个用于评估大型语言模型在真实世界软件问题上的基准,这些问题是从 GitHub 收集的。给定一个代码库和一个问题,语言模型的任务是生成一个补丁来解决这个问题。

25 个帖子 - 24 位参与者

阅读完整话题
我领证了!!
LINUX DO - 热门话题 (RSS)



71 个帖子 - 59 位参与者

阅读完整话题
看到一个收藏优秀的GitHub开源项目网站
LINUX DO - 热门话题 (RSS)

今天闲逛,看到了一个网站,好像是专注于收藏优秀的GitHub开源项目。

随便看了下,还可以,分享下。

地址:https://ghubstar.com



26 个帖子 - 25 位参与者

阅读完整话题
没人觉得读大学在 china 是人生中能享受到的最好的福利吗?
LINUX DO - 热门话题 (RSS)

1: 一年学费几千块,住宿费两千,环境治安远超社会上。想躺平也能合法合理的躺。

2: 在最好的年纪没去当牛马,有自己的空闲时间,穷游精力也旺盛,开黑有伙伴,想学习有免费空调的图书馆和知识水平远超社会的免费顾问。

3: 大家一定要好好学习考个普通大学也行,不然你一辈子都没有这四年来享受了,即使毕业找不到工作,也比你不读大学要爽很多的。大家一定要争取到这难得的福利

50 个帖子 - 42 位参与者

阅读完整话题
Claude-Code-Multi-Agent 开源发布,强大的claude code Subagent工作流
LINUX DO - 热门话题 (RSS)

开源了一套强大的Claude Code工作流,通过简单的指令以及协作即可完成难以完成的史诗级任务,个人一直在使用,分享出来给各位佬友

部分subagent有待优化,可以根据自己的独立场景去自定义Subagent的提示词

仓库地址: Prorise-cool/Claude-Code-Multi-Agent: Context Engineering 驱动的新一代AI编程助手生态系统,基于Claude Code构建的智能代理协调平台,实现从需求到交付的全流程自动化开发

多层智能代理协调系统

Context Engineering 驱动的新一代AI编程助手生态系统

基于Claude Code构建的智能代理协调平台,实现从需求到交付的全流程自动化开发








项目概述
这是一个基于ContextEngineering理念构建的多层智能代理协调系统,通过100+个专业AI代理(全汉化)的协作,实现从项目需求分析到最终交付的全自动化开发流程。系统采用三层架构设计,结合Hook驱动的自动化机制,能够智能地选择和协调不同专业领域的代理,确保高质量的软件交付。

为什么需要它?
你是否厌倦了反复编写和调试 prompt,却只能让AI完成零散的任务?Claude-Code-Multi-Agent 将这一切自动化!你只需提出需求,系统就能像一个全能的技术团队,协调100多位不同领域的AI专家(代理),自主完成需求分析、架构设计、编码、测试和交付。

Before: claude "请用 express 写一个返回 'hello world' 的服务器" (得到一堆代码)
After: claude /agent-workflow "创建一个返回 'hello world' 的 Express 服务器" (AI自主创建文件、写入代码、安装依赖、完成任务)


在这期间一切都是可控的,每一个任务的节点都会提供及时反馈!


什么是上下文工程?
它代表了从传统“提示工程”到“系统化AI指导”的范式转变。

维度
提示工程 (Prompt Engineering)
上下文工程 (Context Engineering)

范围
专注于巧妙的措辞和短语
提供包含背景信息的 完整系统

内容
通常是单次任务的指令
包括文档、示例、规则、模式和验证

比喻
像是给AI一张 便利贴
像是给AI一本包含所有细节的 完整剧本

效果
AI容易出错或偏离轨道
AI能够自我纠正,实现复杂、可靠的端到端任务

一言蔽之:与其绞尽脑汁想一个完美的“提示”,不如为AI提供一个完美的“上下文环境”。这正是本项目正在做的事情。

快速上手 (5分钟入门)
只需四步,即可体验AI自动化编程的强大之处。

1. 环境准备
请确保你的电脑上已安装以下软件:

Claude Code (核心平台)
Git
Node.js (LTS)

2. 下载并进入项目
打开终端,克隆本项目到本地。

git clone https://github.com/your-repo/Claude-Code-Multi-Agent.git
cd Claude-Code-Multi-Agent

3. 核心配置 (MCP)

这是什么? MCP让AI代理拥有与外部世界交互的能力(如控制浏览器、长期记忆等)。这是实现真正自动化的关键。


请针对于您自己的系统,安装对应的MCP(除mcp-feedback-enhanced)其他非必需,MCP安装方法由于各系统各不相同,这里不过多赘述

核心MCP服务解析

MCP服务器
主要功能

playwright-mcp
浏览器自动化: 授权代理通过Playwright控制浏览器,执行网页交互、端到端测试和数据抓取。

memory
长期记忆: 提供一个持久化存储,让代理能够跨会话记住关键信息、上下文和用户偏好。

sequential-thinking
顺序思维增强: 引导代理进行更结构化、逻辑化的思考,将复杂问题分解为有序步骤。

mcp-feedback-enhanced(交互核心)
增强反馈循环: 建立一个交互式反馈机制,允许用户在任务执行过程中进行干预和指导。

browsermcp
通用浏览器控制: 提供一个轻量级的浏览器交互接口。

shrimp-task-manager
任务管理: 一个专用的任务管理服务,用于更精细地跟踪和控制自动化任务的执行状态。


注意

— 启用这些MCP服务可能需要在您的本地环境中安装相应的依赖,例如 Node.js (用于 npx)Python
— 部分服务如 playwright-mcp 在首次运行时会自动下载浏览器驱动,请确保您的网络连接正常。


4. 运行你的第一个自动化工作流!
现在,在 Claude Code 中打开本项目,并执行你的第一个指令:

/agent-workflow "创建一个名为 app.js 的文件,并写入一个简单的 Express 服务器代码,监听3000端口,返回 'Hello, Multi-Agent!'"

恭喜!你已经成功启动了第一个AI工作流。观察AI如何像真人一样分析你的需求、创建文件、编写代码并报告任务完成


注意:/agent-workflow还不是最强的命令执行流程,下方,我还会介绍更强的工作流命令


重要成本提醒
Token消耗极快:构建一个完整的项目从文档到成品,大约要使用$10美元的token

这个系统在处理复杂项目时会消耗大量的Claude API token,特别是在以下场景:

— 多代理并行协作时的上下文传递
— 大型代码库的分析和重构
— 复杂架构设计的迭代优化
— 全面的测试套件生成和验证

建议在使用前:

— 设置合理的token使用限制
— 优先处理关键功能模块
— 合理根据自身需求使用不同复杂度的工作流

核心使用场景

第一步:我该选择哪个工作流?(项目复杂度评估)

面对不同任务,选择合适的工作流至关重要。如果你不确定任务的复杂度,可以让AI帮你分析!

调用“总协调器” @spec-orchestrator 来获取建议

@spec-orchestrator 请帮我分析一下以下需求的复杂度,并推荐最合适的工作流。
我的需求是:“为我现有的Vue项目中添加一个带数据筛选和分页功能的表格组件。”

AI会分析你的需求,给出一个复杂度评分,并明确告诉你应该使用 /agent-workflow 还是 /kiro/spec 等指令。

场景一:在已有项目中添加新功能

这是最常见的需求。流程如下:

将个人的项目移动至本仓库的根目录

提出想法,生成规格:使用 /kiro/spec 让AI为你规划

/kiro:spec "在我现有的CRM系统中,增加一个客户跟进记录模块。"

AI会生成需求、设计、任务列表等 spec 文件。

(可选)微调规格:你可以打开 kiro/specs/ 目录下的文档,对AI的规划进行微调,确保它完全符合你的想法。

启动开发:让AI根据规划好的蓝图开始工作。

/agent-workflow "根据 kiro/specs/customer-follow-up-module.md 的规划,开始实现该功能。"

场景二:从零开始一个新项目

当你只有一个模糊的想法时,这个流程最适合。

/kiro/spec "我想做一个在线的Markdown笔记应用"

执行蓝图:

/multi-agent-workflow [/kiro/spec/markdown_app] <- 直接粘贴文件路径或@文件

系统架构
三层代理架构...

View original post