DPS Build
一个完成度非常高的 Orchestrator 项目: 1. 可以跑在本地或者服务器上,然后生成一个 URL; 2. 手机扫码之后,就可以连接到本地或者服务器,不用折腾 ssh,不用折腾 tailscale; 3. 有配置齐全的快捷键; 4. 支持本地声音识别; 5. 不想要 GUI 的话,可以在终端内启动服务 6. 完全免费。 https://paseo.sh/
它默认提供了 relay 服务,如果对数据安全要求比较高的话,可以自己用 Cloudflare Woker + Durable Objects 来 relay,有现成的接口:
https://github.com/getpaseo/paseo/blob/main/packages/relay/src/cloudflare-adapter.ts
https://github.com/getpaseo/paseo/blob/main/packages/relay/src/cloudflare-adapter.ts
GitHub
paseo/packages/relay/src/cloudflare-adapter.ts at main · getpaseo/paseo
Orchestrate coding agents remotely from your phone, desktop and CLI - getpaseo/paseo
DPS Build
它默认提供了 relay 服务,如果对数据安全要求比较高的话,可以自己用 Cloudflare Woker + Durable Objects 来 relay,有现成的接口: https://github.com/getpaseo/paseo/blob/main/packages/relay/src/cloudflare-adapter.ts
简单说一下我自己的配置:
1. 利用 cloudflare Worker + Durable Object 搭了自己的 relay service;
2. 选了离我比较近的 Durable Object,用了自己的域名降低延迟,愿意付费的同学可以开启 Argo Smart Routing 进一步降低延迟;
3. 在 vps 上安装 paseo,在 config 里填写上面的 relay service,然后启动 paseo daemon,会直接产生一个二维码,显示还是 app.paseo,不要近,只是用来配对;
4. 拿手机扫码,手机上的 paseo app 就连上了的 vps 上的 paseo,在配置里可以看到是不是用了自己的 relay service;
5. 同理在其他机器上也可以这样配对。
这样一来,唯一的代码就在 vps 上,relay 在我自己的 worker 上,延迟也在100ms 之内。
1. 利用 cloudflare Worker + Durable Object 搭了自己的 relay service;
2. 选了离我比较近的 Durable Object,用了自己的域名降低延迟,愿意付费的同学可以开启 Argo Smart Routing 进一步降低延迟;
3. 在 vps 上安装 paseo,在 config 里填写上面的 relay service,然后启动 paseo daemon,会直接产生一个二维码,显示还是 app.paseo,不要近,只是用来配对;
4. 拿手机扫码,手机上的 paseo app 就连上了的 vps 上的 paseo,在配置里可以看到是不是用了自己的 relay service;
5. 同理在其他机器上也可以这样配对。
这样一来,唯一的代码就在 vps 上,relay 在我自己的 worker 上,延迟也在100ms 之内。
在找工作的朋友不妨试试这个工具,非常巧妙的工具链,唯一要注意的是,找到的很多 opening 已经失效了,需要强调一下找还有效的 opening。
试用了一下,学到了很多:
1. 随手填一点信息,它就能自动填充不少信息到相关的文件里,冷启动非常快;
2. 按照模版把自己的简历都进去之后,它获得更多的信息,而且转为 md 之后,方便后续为任意一个工作机会改写;
3. 它已经 orchestra 好了整个流程,只要启动相应的 skill 就行,而且会给出明确的指示,非常清晰;
4. 每一步都会给出具体进展,有问题也会及时报告,比如某些公司的 job board 的链接找不到信息,更新了正确连接之后,它自动会改写相关文件,然后重新往下跑;
5. 它会自动调取工具,比如先从有 api 的平台搜索工作,然后用 agent browser 检索其他平台或者公司网页,都不需要用户再干预;
6. 找到工作机会之后,可以按照你之前写明的偏好打分,然后给出投递顺序;
7. 等你确认之后,就可以按照以上顺序改写你的简历,然后投递。
整个 orchestrare 用起来非常顺利,而且兼顾灵活性,这才是整套系统最值得学习的精华。
https://github.com/santifer/career-ops
试用了一下,学到了很多:
1. 随手填一点信息,它就能自动填充不少信息到相关的文件里,冷启动非常快;
2. 按照模版把自己的简历都进去之后,它获得更多的信息,而且转为 md 之后,方便后续为任意一个工作机会改写;
3. 它已经 orchestra 好了整个流程,只要启动相应的 skill 就行,而且会给出明确的指示,非常清晰;
4. 每一步都会给出具体进展,有问题也会及时报告,比如某些公司的 job board 的链接找不到信息,更新了正确连接之后,它自动会改写相关文件,然后重新往下跑;
5. 它会自动调取工具,比如先从有 api 的平台搜索工作,然后用 agent browser 检索其他平台或者公司网页,都不需要用户再干预;
6. 找到工作机会之后,可以按照你之前写明的偏好打分,然后给出投递顺序;
7. 等你确认之后,就可以按照以上顺序改写你的简历,然后投递。
整个 orchestrare 用起来非常顺利,而且兼顾灵活性,这才是整套系统最值得学习的精华。
https://github.com/santifer/career-ops
GitHub
GitHub - santifer/career-ops: AI-powered job search system built on Claude Code. 14 skill modes, Go dashboard, PDF generation,…
AI-powered job search system built on Claude Code. 14 skill modes, Go dashboard, PDF generation, batch processing. - santifer/career-ops
👀2❤1
DPS Build
在找工作的朋友不妨试试这个工具,非常巧妙的工具链,唯一要注意的是,找到的很多 opening 已经失效了,需要强调一下找还有效的 opening。 试用了一下,学到了很多: 1. 随手填一点信息,它就能自动填充不少信息到相关的文件里,冷启动非常快; 2. 按照模版把自己的简历都进去之后,它获得更多的信息,而且转为 md 之后,方便后续为任意一个工作机会改写; 3. 它已经 orchestra 好了整个流程,只要启动相应的 skill 就行,而且会给出明确的指示,非常清晰; 4. 每一步都会给出具…
这个项目给我的启发非常大,今天把手中的一个项目改成了类似的 orchestration。
这样一来,一个客户项目和另外两个项目都可以用同一套 orchestration 来管理,效率大大提高。
本来陆陆续续构建了一些工具,但零零散散不好用,每新起一个项目都要重新启用 agent。现在有了这层 orchestration layor,大部分的流程都被抽象了出来,直接代码化了,agent 掉用起来更方便,我的认知负担也大大降低。
这样一来,一个客户项目和另外两个项目都可以用同一套 orchestration 来管理,效率大大提高。
本来陆陆续续构建了一些工具,但零零散散不好用,每新起一个项目都要重新启用 agent。现在有了这层 orchestration layor,大部分的流程都被抽象了出来,直接代码化了,agent 掉用起来更方便,我的认知负担也大大降低。
DPS Build
简单说一下我自己的配置: 1. 利用 cloudflare Worker + Durable Object 搭了自己的 relay service; 2. 选了离我比较近的 Durable Object,用了自己的域名降低延迟,愿意付费的同学可以开启 Argo Smart Routing 进一步降低延迟; 3. 在 vps 上安装 paseo,在 config 里填写上面的 relay service,然后启动 paseo daemon,会直接产生一个二维码,显示还是 app.paseo,不要近,只是用来配对;…
这段时间所有任务都跑在了 Paseo 里,感觉比原来在终端里跑 claude-code 舒服多了:
1. 在家里的服务器上跑 paseo daemon,随时随地可以拿手机或者笔记本跑 paseo client,不用每次 ssh,不用每次查看 tailscale 的状态;
2. 所有的更新都在服务器上,本地需要的话,就 git pull,编辑还是在 paseo 里,写到服务器上,不再有冲突;
3. 多项目之间协同也更加容易,比如 submodule 里要改主项目的代码,跑去主项目改没有完整的 context,现在可以用 /paseo-handoff 这个技能,完美解决这一问题。
https://paseo.sh/docs/skills
1. 在家里的服务器上跑 paseo daemon,随时随地可以拿手机或者笔记本跑 paseo client,不用每次 ssh,不用每次查看 tailscale 的状态;
2. 所有的更新都在服务器上,本地需要的话,就 git pull,编辑还是在 paseo 里,写到服务器上,不再有冲突;
3. 多项目之间协同也更加容易,比如 submodule 里要改主项目的代码,跑去主项目改没有完整的 context,现在可以用 /paseo-handoff 这个技能,完美解决这一问题。
https://paseo.sh/docs/skills
Paseo
Orchestration skills - Paseo Docs
Paseo orchestration skills: teach coding agents to spawn, coordinate, and manage other agents using slash commands.
❤3
DPS Build
这段时间所有任务都跑在了 Paseo 里,感觉比原来在终端里跑 claude-code 舒服多了: 1. 在家里的服务器上跑 paseo daemon,随时随地可以拿手机或者笔记本跑 paseo client,不用每次 ssh,不用每次查看 tailscale 的状态; 2. 所有的更新都在服务器上,本地需要的话,就 git pull,编辑还是在 paseo 里,写到服务器上,不再有冲突; 3. 多项目之间协同也更加容易,比如 submodule 里要改主项目的代码,跑去主项目改没有完整的 context,现在可以用…
Paseo 支持 pi,所以在本地用 olmx 跑了 qwen3.6 35B 的模型,然后就可以在 Paseo 里方便得调用了。
一些简单的任务就丢给本地模型跑,比如设置了一些重复性的工作:
1. 每天凌晨读取前一天每个项目的 commits,然后生成项目进度;
2. 汇总项目进度之后,生成每日总结;
3. 每周一早上生成前一周的总结。
每个总结的角度和颗粒度不一样,比如周总结就要帮我梳理经验教训。
看了一下,qwen3.6 跑这些任务的效果已经不错了。
一些简单的任务就丢给本地模型跑,比如设置了一些重复性的工作:
1. 每天凌晨读取前一天每个项目的 commits,然后生成项目进度;
2. 汇总项目进度之后,生成每日总结;
3. 每周一早上生成前一周的总结。
每个总结的角度和颗粒度不一样,比如周总结就要帮我梳理经验教训。
看了一下,qwen3.6 跑这些任务的效果已经不错了。
❤2