DPS Build
837 subscribers
131 photos
3 videos
10 files
483 links
AI, coding, data science and startups
Download Telegram
DPS Build
它默认提供了 relay 服务,如果对数据安全要求比较高的话,可以自己用 Cloudflare Woker + Durable Objects 来 relay,有现成的接口: https://github.com/getpaseo/paseo/blob/main/packages/relay/src/cloudflare-adapter.ts
简单说一下我自己的配置:

1. 利用 cloudflare Worker + Durable Object 搭了自己的 relay service;

2. 选了离我比较近的 Durable Object,用了自己的域名降低延迟,愿意付费的同学可以开启 Argo Smart Routing 进一步降低延迟;

3. 在 vps 上安装 paseo,在 config 里填写上面的 relay service,然后启动 paseo daemon,会直接产生一个二维码,显示还是 app.paseo,不要近,只是用来配对;

4. 拿手机扫码,手机上的 paseo app 就连上了的 vps 上的 paseo,在配置里可以看到是不是用了自己的 relay service;

5. 同理在其他机器上也可以这样配对。

这样一来,唯一的代码就在 vps 上,relay 在我自己的 worker 上,延迟也在100ms 之内。
在找工作的朋友不妨试试这个工具,非常巧妙的工具链,唯一要注意的是,找到的很多 opening 已经失效了,需要强调一下找还有效的 opening。

试用了一下,学到了很多:

1. 随手填一点信息,它就能自动填充不少信息到相关的文件里,冷启动非常快;

2. 按照模版把自己的简历都进去之后,它获得更多的信息,而且转为 md 之后,方便后续为任意一个工作机会改写;

3. 它已经 orchestra 好了整个流程,只要启动相应的 skill 就行,而且会给出明确的指示,非常清晰;

4. 每一步都会给出具体进展,有问题也会及时报告,比如某些公司的 job board 的链接找不到信息,更新了正确连接之后,它自动会改写相关文件,然后重新往下跑;

5. 它会自动调取工具,比如先从有 api 的平台搜索工作,然后用 agent browser 检索其他平台或者公司网页,都不需要用户再干预;

6. 找到工作机会之后,可以按照你之前写明的偏好打分,然后给出投递顺序;

7. 等你确认之后,就可以按照以上顺序改写你的简历,然后投递。

整个 orchestrare 用起来非常顺利,而且兼顾灵活性,这才是整套系统最值得学习的精华。

https://github.com/santifer/career-ops
👀21
DPS Build
在找工作的朋友不妨试试这个工具,非常巧妙的工具链,唯一要注意的是,找到的很多 opening 已经失效了,需要强调一下找还有效的 opening。 试用了一下,学到了很多: 1. 随手填一点信息,它就能自动填充不少信息到相关的文件里,冷启动非常快; 2. 按照模版把自己的简历都进去之后,它获得更多的信息,而且转为 md 之后,方便后续为任意一个工作机会改写; 3. 它已经 orchestra 好了整个流程,只要启动相应的 skill 就行,而且会给出明确的指示,非常清晰; 4. 每一步都会给出具…
这个项目给我的启发非常大,今天把手中的一个项目改成了类似的 orchestration。

这样一来,一个客户项目和另外两个项目都可以用同一套 orchestration 来管理,效率大大提高。

本来陆陆续续构建了一些工具,但零零散散不好用,每新起一个项目都要重新启用 agent。现在有了这层 orchestration layor,大部分的流程都被抽象了出来,直接代码化了,agent 掉用起来更方便,我的认知负担也大大降低。
DPS Build
简单说一下我自己的配置: 1. 利用 cloudflare Worker + Durable Object 搭了自己的 relay service; 2. 选了离我比较近的 Durable Object,用了自己的域名降低延迟,愿意付费的同学可以开启 Argo Smart Routing 进一步降低延迟; 3. 在 vps 上安装 paseo,在 config 里填写上面的 relay service,然后启动 paseo daemon,会直接产生一个二维码,显示还是 app.paseo,不要近,只是用来配对;…
这段时间所有任务都跑在了 Paseo 里,感觉比原来在终端里跑 claude-code 舒服多了:

1. 在家里的服务器上跑 paseo daemon,随时随地可以拿手机或者笔记本跑 paseo client,不用每次 ssh,不用每次查看 tailscale 的状态;

2. 所有的更新都在服务器上,本地需要的话,就 git pull,编辑还是在 paseo 里,写到服务器上,不再有冲突;

3. 多项目之间协同也更加容易,比如 submodule 里要改主项目的代码,跑去主项目改没有完整的 context,现在可以用 /paseo-handoff 这个技能,完美解决这一问题。

https://paseo.sh/docs/skills
3
DPS Build
这段时间所有任务都跑在了 Paseo 里,感觉比原来在终端里跑 claude-code 舒服多了: 1. 在家里的服务器上跑 paseo daemon,随时随地可以拿手机或者笔记本跑 paseo client,不用每次 ssh,不用每次查看 tailscale 的状态; 2. 所有的更新都在服务器上,本地需要的话,就 git pull,编辑还是在 paseo 里,写到服务器上,不再有冲突; 3. 多项目之间协同也更加容易,比如 submodule 里要改主项目的代码,跑去主项目改没有完整的 context,现在可以用…
Paseo 支持 pi,所以在本地用 olmx 跑了 qwen3.6 35B 的模型,然后就可以在 Paseo 里方便得调用了。

一些简单的任务就丢给本地模型跑,比如设置了一些重复性的工作:

1. 每天凌晨读取前一天每个项目的 commits,然后生成项目进度;

2. 汇总项目进度之后,生成每日总结;

3. 每周一早上生成前一周的总结。

每个总结的角度和颗粒度不一样,比如周总结就要帮我梳理经验教训。

看了一下,qwen3.6 跑这些任务的效果已经不错了。
2
三个 agent 自己玩起来了:

1. 我在 paseo 里让 codex 帮我配置 pi 跑本地模型;
2. 让 codex 把 pi 生成的结果通过 paseo 丢给 claude 评估;
3. claude 评估完,丢回给 codex,让它指挥 pi 更新自己的 prompt。
🐳5
发现本地模型的最大好处就是隐私性,虽然慢了点,但是放心地把财务数据丢进去跑。
💯4
昨天和一个在微软工作的朋友聊天,他说他们内部也在使用一款类似 Paseo 的工具。