LinuxDo 新帖推送
179 subscribers
249K photos
310K links
Download Telegram
标题: EasyTier在openwrt上部署教程【保姆级教程】
作者: #Chuva
板块: #开发调优
编号: 2035383
帖子: https://linux.do/t/topic/2035383
时间: 2026-04-23 10:59:21
摘要:
0x01 前言
当前网上对OpenWrt安装EasyTier的教程比较少,踩了很多坑,摸索了一天好歹是成功部署上了,使用起来十分的简单,因此记录一下,以便后续查找。
(博主个人十分不喜关注后才能看全文的做法,因为觉得麻烦,虽然这也是涨粉的一个好方法,但我选择随缘,如果你觉得对你有帮助的话可以点个关注或者赞吧~)
0x02 环境准备

路由器型号:Xiaomi Redmi Router AX6000 (aarch64_cortex-a53)
路由器操作系统:ImmortalWrt 21.02-SNAPSHOT

0x03 EasyTier包下载
(1)查看Openwrt的架构:进入终端,进行如下操作
cat /etc/os-release | grep ARCH
# 输入后回显实例如下:
# OPENWRT_ARCH="aarch64_cortex-a53"

(2)下载EasyTier的Openwrt插件:luci-app-easytier,此插件需要自己Fork官网插件用github的actions进行编译(也可以直接用我编译好的: https://github.com/Devil-Ryu/luci-app-easytier/releases/tag/v2.3.2),流程如下:
Fork后直接找到actions,然后run workflow就行

编译完成后,点击上面列表中的Build-OpenWrt-EasyTier ,然后在列表里根据第一步查到的架构,直接选择对应的包下载就行(其中SNAPSHOT后缀的是apk安装包,openwrt-22.03的是ipk安装包)

下载的包里面有三个文件:

luci-i18n-easytier-zh-cn_git-25.182.85440-d9d1c03_all.ipk (easytier中文插件,需要安装)
luci-app-easytier_2.3.2_all.ipk (easytier openwrt插件,需要安装)
easytier_2.3.2_aarch64_cortex-a53.ipk (二进
标题: cc+GLM5.1 与kimi code+kimi k2.6哪一个综合体验好?
作者: #nanbloom001
板块: #开发调优
编号: 2035391
帖子: https://linux.do/t/topic/2035391
时间: 2026-04-23 10:59:51
摘要:
请问各位佬友有没有同时双开这两个模型的组合?求一个真实的反馈,我体验下来kimi在cc中表现就会非常不稳定,但在kimi code中就有一种很聪明的感觉,不知道是不是我的个人偏差导致的。我是kimi 和 GLM双持,但是接下来还是需要选择其中一家,kimi额度少且cc中我感觉有降智,GLM背刺用户+经常响应很慢。请问佬友有没有好的建议
标题: 分享一下机场+家宽落地的配置。
作者: #spidd
板块: #开发调优
编号: 2035392
帖子: https://linux.do/t/topic/2035392
时间: 2026-04-23 10:59:54
摘要:
1.第一种如果你是用自建节点+家宽。推荐按照下面的帖子操作。
如果机场使用,会将机场原有的规则及分组替换成新的。
https://linux.do/t/topic/1423875
2.第二种,机场+家宽。 Clash Verge (Mihomo)
会保留原有规则及分组。
// 分组名
const CHAIN_NAME = "chain AI";

const APPEND_PROXIES = [
{
name: "node",
type: "socks5",
server: "ip",
port: port,
username: "user",
password: "pass"
}
];

const RULE_PROVIDERS = {
ai: "https://fastly.jsdelivr.net/gh/MadisonWirtanen/WARP-Clash-with-ZJU-Rules@main/ai.yaml",
AI: "https://github.com/Repcz/Tool/raw/X/Clash/Rules/AI.list",
OpenAI: "https://cdn.jsdelivr.net/gh/zuluion/Clash-Template-Config@master/Filter/OpenAI.yaml",
Gemini: "https://cdn.jsdelivr.net/gh/zuluion/Clash-Template-Config@master/Filter/Gemini.yaml",
Claude: "https://cdn.jsdelivr.net/gh/zuluion/Clash-Template-Config@master/Filter/Claude.yaml"
};

const PREPEND_RULES = [
...Object.keys(RULE_PROVIDERS).map(k => `RULE-SET,${k},${CHAIN_NAME}`),
`DOMAIN-SUFFIX,oaistatic.com,${CHAIN_NAME}`,
`DOMAIN-SUFFIX,cdn.oaistatic.com,${CHAIN_NAME}`,
`DOMAIN-SUFFIX,gstatic.com,${CHAIN_NAME}`
];

function main(config) {
const firstGroupName = config["proxy-groups"]?.[0]?.name;

// 追加代理(注入 dialer-proxy)
config.proxies = config.proxies?.concat(
APPEND_PROXIES.map(p => ({ "dialer-proxy": firstGroupName, ...p }))
);

// 追加代理组
config["proxy-groups"]?.push({
name: CHAIN_NAME, type: "select", proxies: [
...APPEND_PROXIES.map(p => p.name),
firstGroupName,
"DIRECT"
]
});

// // 合并规则集
config["rule-providers"] = config["rule-providers"] || {};
Object.entries(RULE_PROVIDERS).forEach(([key, url]) =>
config["rule-providers"][key] = { type: "http", behavior: "classical", format: "yaml", path: `./rules/${key}.yaml`, interval: 86400, url }
);

// // 前置规则
config.rules?.unshift(...PREPEND_RULES);

return config;
}


参考
https://linux.do/t/topic/953740
https://linux.do/n/topic/445909?sort=old
标题: Claude Code的Subagents是什么,怎么用呢?
作者: #一只不会飞的猪
板块: #开发调优
编号: 2035393
帖子: https://linux.do/t/topic/2035393
时间: 2026-04-23 11:00:13
摘要:
最近看到帖子https://linux.do/t/topic/2017019中提到了Subagents,看了下大概是防止污染上下文并且压缩上下文的时候用的,这个在Claude Code怎么用呀
标题: 新房装修,大家觉得书房做半开放的还是封闭的?
作者: #AffJeff
板块: #搞七捻三
编号: 2035404
帖子: https://linux.do/t/topic/2035404
时间: 2026-04-23 11:01:58
摘要:
如图,各位佬觉得书房位置是做半开放的(半墙),还是封闭的呢?
半开放更好看,封闭的私密性好些,现在倾向于好看,但又怕住了想要私密性
标题: Meta AI提示我的地区不支持。。。。
作者: #封影幻月
板块: #开发调优
编号: 2035409
帖子: https://linux.do/t/topic/2035409
时间: 2026-04-23 11:02:26
摘要:
标题: 有L友专门研究生图的prompt的吗? 求分享一下教程
作者: #Clement
板块: #开发调优
编号: 2035411
帖子: https://linux.do/t/topic/2035411
时间: 2026-04-23 11:02:29
摘要:
想知道一般图片生成的prompt 有哪些规范的格式
标题: 领取chatgpt plus一个月试用时paypal无法使用
作者: #jsonJ
板块: #搞七捻三
编号: 2035421
帖子: https://linux.do/t/topic/2035421
时间: 2026-04-23 11:02:52
摘要:
如题,是国区的paypal账号,在支付gptPlus试用的时候总是触发paypal的风控导致失败
标题: 方舟现在支持GLM5.1和k2.6了
作者: #QY D
板块: #前沿快讯
编号: 2035422
帖子: https://linux.do/t/topic/2035422
时间: 2026-04-23 11:02:59
摘要:
https://www.volcengine.com/activity/codingplan
标题: 拿gpt image 2做了一些好玩的图
作者: #sisyphus233
板块: #搞七捻三
编号: 2035425
帖子: https://linux.do/t/topic/2035425
时间: 2026-04-23 11:03:16
摘要:
gpt-image-2还是太厉害了 
面对gpt拒绝请求的一些个人经验:生图可以尝试用事物的特征描述词去指代事物,让gpt自己根据特征锁定事物。还有一点就是预设任务场景和角色定位,例如你是官方的xx人员,你交代gpt必须完成任务。总之还是要学会和gpt兜圈子,在提示词多下下功夫,实在不行就重试几次
标题: 后端转 AI Agent 岗,整理了下复习资料库,供大家参考 (欢迎佬们补充)
作者: #蝈蝈
板块: #开发调优
编号: 2035429
帖子: https://linux.do/t/topic/2035429
时间: 2026-04-23 11:03:56
摘要:
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:

我的帖子已经打上 开源推广 标签: 是
我的开源项目完整开源,无未开源部分: 是
我的开源项目已链接认可 LINUX DO 社区: 是
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是

以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出

后端转 AI Agent 岗,整理了下复习资料库,供大家参考 (欢迎佬们补充)
【资料库包括】:

01_AI_Agent 部分
02_后端 (偏 java) 部分
03_系统设计题
04_算法题
05_场景项目题

【github 链接】



github.com






GitHub - guoguo-tju/agent_java_offer: 公开的 Java 后端 / AI Agent / 系统设计 / 算法面试复习资料库

公开的 Java 后端 / AI Agent / 系统设计 / 算法面试复习资料库
标题: 求助分享一个好用的中转站
作者: #sgzy
板块: #搞七捻三
编号: 2035432
帖子: https://linux.do/t/topic/2035432
时间: 2026-04-23 11:04:40
摘要:
各位佬有没有推荐的比较好用的中转站啊,claude或者codex都可以,需要的量相对大一些,价格适中。谢谢佬们
标题: 现在还有比较纯正的claude中转站渠道吗?
作者: #echo
板块: #开发调优
编号: 2035436
帖子: https://linux.do/t/topic/2035436
时间: 2026-04-23 11:04:58
摘要:
公司最近给了补贴大概人均每月1k,佬友们有无推荐的比较纯正稳定的中转站推荐。
标题: newAPI不能调用VertexAI里的嵌入模型吗
作者: #JinLi
板块: #搞七捻三
编号: 2035438
帖子: https://linux.do/t/topic/2035438
时间: 2026-04-23 11:05:01
摘要:
最近想搭建知识库,发现要用嵌入模型,大概了解到需要用embedding模型,我就看了下好像显示有gemini-embedding-2-preview之类的,但实际调用其实没有,是VertexAI没有嵌入模型还是newAPI不支持嵌入模型的调用
标题: 这回复都能被举报?是谁整天闲着没事做 还是ai自动管理的?
作者: #猫优优
板块: #搞七捻三
编号: 2035446
帖子: https://linux.do/t/topic/2035446
时间: 2026-04-23 11:05:36
摘要:
一个佬发的cpa接入gpt生图教程 遇到点问题
我就截图回复了
没想到这种都能被举报?
标题: autoresearch发布一个月后,社区把它的边界扩展到了哪里
作者: #MorryWang
板块: #资源荟萃
编号: 2035448
帖子: https://linux.do/t/topic/2035448
时间: 2026-04-23 11:05:41
摘要:
给 AI 一个最小闭环,它能走多远
autoresearch 发布一个月后,社区把它的边界推到了哪里
在 karpathy/autoresearch 刚开源出来时,我也试着把它迁到一个 auto-flappy-bird 的小场景里。跑了十几轮以后,训练出来的模型已经可以比较稳定地飞过 20 多个管道。
但我很快意识到,是它不仅能迁到一个强化学习任务里,而是它把“有对象、有评测、有预算、可回滚”的最小闭环压得足够小。小到你会自然开始追问:这套东西还能被用到哪里去?
现在一个多月过去了,社区里冒出来一批 fork、讨论和衍生项目。我回过头重新看这批东西时,忽然注意到,autoresearch 精神最浓缩的表达,其实就是原实验思路提示词里的:

[!important]
NEVER STOP : Once …

我后来越看越觉得,社区过去一个月里真正值得看的那些探索,几乎都在回答同一个问题:
怎样让一个每几分钟就会停下来的实验,尽可能长成一个不会停下来的研究系统。
这也是为什么我现在不太想再写“autoresearch 是什么”。大家差不多都知道了。现在更值得追踪的是,一个月过去,社区到底把这套东西扩展到了哪里。
先说原点:autoresearch 为什么会火
autoresearch 原版其实很小。人写实验思路提示词 program.md,agent 改算法 train.py,而 prepare.py 负责数据和评估,agent 不能碰。每轮实验给固定预算,跑完看分数,决定 keep 还是 revert,然后继续下一轮。
从代码结构上看,它并不复杂。
但它第一次把一件事压缩得非常清楚:局部可改对象、固定评测、固定预算、可回滚。
也就是说,它把“让 agent 连续试错”这件事,压成了一个真的能跑起来的最小闭环。
这一步很关键。因为很多 agent 项目的问题,不是不会生成,不是不会调用工具,而是没有一个足够硬的闭环。它们能做很多事,但很难一直做下去。autoresearch 则相反。它先把边界收得很死,然后才换来那句 NEVER STOP 的成立。
所以我现在更愿意把它理解成一个起点:不是“AI 开始自己做研究”的起点,而是最小自治研究闭环第一次被压到足够小、足够硬、足够可复现。
第一批扩展,不是更聪明,而是先让它摆脱“人得守在旁边”
原版 autoresearch 更像一个本地脚本。你可以启动它,看着它跑,甚至中间打断它。
但只要你真的把 NEVER STOP 当回事,问题马上就会变。你会开始关心的,不再只是 prompt 怎么写,而是:谁来提供 GPU,谁来保实验日志,程序中断了怎么办。
所以像那些把 AutoResearch 搬到云端、搬到远程执行环境里的项目(如mlpatron等),不适合简单理解成“上云版 AutoResearch”。它们真正补的,不是能力,而是运行形态本身。原版解决的是“怎么启动一个闭环”,远程化和托管化处理的则是另一层问题:
这个闭环能不能脱离人的在场。
这听起来像基础设施,其实已经碰到 autoresearch 最核心的那条线了。因为 NEVER STOP 不是一句漂亮口号。它要成立,后面得有一整套持续运行条件:你离开了,实验还在跑;你睡了,日志还在写;一轮失败了,系统还能自己接着往下试。
我一开始以为这只是一个工程层面的补丁,后来越看越觉得,它其实已经在改写人和研究系统之间的分工。到了这里,社区处理的已经不是“这个 agent 会不会改代码”,而是“这套 loop 能不能真的一直运转”。
再往前一步,一个不会睡觉的 agent 还不够
一个不行,就上更多个。也就是 mutable-state-inc/autoresearch-at-home 这一类项目。它想解决的,不再是“单个 agent 能不能一直试”,而是“很多 agent 能不能像一个研究网络那样协作起来”。
原版 autoresearch 解决的是:一个 agent,围着一个目标,不停试。
到了这里,问题开始变成:很多 agent 怎么一起研究,怎么避免重复劳动,怎么共享当前最优结果,怎么把失败也变成公共经验。
技术细节先不展开。我更愿意换成一种容易理解的说法:
原版像一个人在夜里独自改算法 train.py。
到了 autoresearch-at-home,社区开始尝试的是一个研究共同体。有人先认领一个方向,避免大家撞到同一块地方;有人接着跑;有人把结果发出来;后面的人在前面的基础上继续。
这时 autoresearch 碰到的已经不是模型优化问题了,而是研究协作问题。
看到这里我才慢慢意识到,社区在补的已经不只是 agent 的能力,而是研究这件事本身的组织形式。原版里的 NEVER STOP,说的是一个 agent 不要停。到了这里,问题已经变成另一句了:一个 agent 停了,整个研究过程能不能不停。
这一步一出来,味道就变了。因为它说明 autoresearch 的外扩,已经不只是“同一个 loop 跑更多次”,而是在碰研究这件事最老的难题:怎么分工,怎么接力,怎么让局部进展变成公共进展。
不只是模型算法自动优化,而是把 train.py 抽象掉
如果只盯着原 repo,你很容易误以为 autoresearch 的意义主要在训练模型。
但像 kousun12/darwin-derby 这种项目,做的是另一件事。它几乎把 autoresearch 的内核剥出来了:可变对象不再是算法 train.py,而可以是任意“当前状态”;评测器不再是训练损失,而可以是任何一个返回分数的任务;agent 改状态,拿分,保留或回滚,继续。
autoresearch 到这里已经很像一个通用搜索框架了:只要你能定义一个可变对象,给出一个足够硬的评分器,这个 loop 就可能跑起来。
但也正是在这里,问题开始反过来落到人身上。
darwin-derby 有一个我很认同的设计:负责打分的那部分规则,对 agent 是隐藏的。项目里把它写在 score.py 里。原因并不复杂。如果优化器看得到评估函数,它迟早会学会利用它。不是因为它“想作弊”,而是因为你给了它一条更短的路,它就会顺着走。
我原先更在意它能不能迁到新领域,后来反而越来越在意另一件事:谁在定义这个领域里什么叫“更好”。
这也是为什么我现在越来越觉得,autoresearch 的真正边界不是领域,而是评分器的质量。
一个问题能不能塞进这套 loop,不只取决于它能不能被打分,还取决于这个分数是不是值得被无情优化。说得再直一点:你给它一个数字,它就会冲着那个数字跑。至于这个数字和你真正想要的东西是不是一回事,那是人得先想清楚的。
一个典型的非模型训练案例
autoimprove 这个 RAG 案例,我觉得特别值得看。它碰的不是模型训练本身,而是一个混合搜索系统:给定一批文档、查询和评测集,看 agent 能不能把检索效果一点点往上推。
一方面因为 RAG 就是现在最热的 AI 应用层问题之一。
另一方面因为它很直白地说明了一件事:这套 loop 外溢出去的,不是训练技巧,而是把问题改写成“有可变对象、有评测器、有预算”的能力。
这个案例里,agent 在一个 44,000 个文本块组成的混合搜索系统上反复试,14 次实验之后,综合分从 0.42 提升到 0.46。最值得看的不是这个数字本身,而是最大单次改进并不是人手工指定的,而是它自己发现用 RRF 替代原来的加权融合更合适。
它说明 agent 能找到的,并不只是那种“没人想到过的惊天大发现”,而更像另一类东西:
人知道可能有用,但懒得系统试,或者没空完整跑完的工程改法。
这类改法其实最容易被忽视。不是因为它没价值,而是因为它很少值得一个人拿一周时间扎进去穷举。autoresearch 在这里补上的,恰恰就是这段人类通常会放掉的空白。
这里我很喜欢作者想表达的那个意思:你不再主要是在用 Python 写程序,而是在用 Markdown 描述 agent 应该遵循的过程。
Shopify 和营销归因这两个案例,把事情又往前推了一截
autoresearch 发布几天后,Shopify CEO Tobi Lutke 把这个 loop 对准了 Shopify 的模板引擎 Liquid——一个由数百个贡献者持续优化了 20 年的代码库。他用的不是 Karpathy 的 LLM 训练任务,而是渲染速度。Agent 跑了 93 个实验,自动提交了 93 次。结果:渲染速度提升 53%,内存分配减少 61%。
Shopify 的例子,我觉得真正值得记住的不是提速多少,而是他们工程师那个很准的判断:autoresearch 的价值,不只是把人本来会做的工作做得更快,而是在做那些没人会手动排进 sprint 的工作。
autoresearch 第一批真正有效的场景,很多都长这个样子:价值明确,收益稳定,但执行太枯燥,太碎,太难和其他重点工作抢资源。人理性上知道值得做,现实里总会拖着。agent 则不会烦,也不会觉得无聊。
再看 lucianfialho/mmm-research 这个案例,它做的不是工程优化,也不是搜索系统,而是 Marketing Mix Modeling,也就是营销归因建模。说白一点,就是让 agent 去碰“投出去的钱,最后到底是哪些渠道真正