标题: 公益站都挂了啦
作者: #NaiLong
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803625
时间: 2026-03-23 21:11:29
摘要:
作者: #NaiLong
板块: #开发调优
编号:
1803625帖子: https://linux.do/t/topic/1803625
时间: 2026-03-23 21:11:29
摘要:
怎么有时候公益站都能用 要么就都挂了 比如现在
标题: 佬友们,请问有没有PPT生成的ai大模型
作者: #蟹黄
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803636
时间: 2026-03-23 21:14:23
摘要:
作者: #蟹黄
板块: #开发调优
编号:
1803636帖子: https://linux.do/t/topic/1803636
时间: 2026-03-23 21:14:23
摘要:
佬友们,请问有没有PPT生成的ai大模型
标题: [经验分享]如果你在wsl里面用codex的时候内存占用非常大,可以看看这个
作者: #Oxidane
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803650
时间: 2026-03-23 21:18:21
摘要:
作者: #Oxidane
板块: #开发调优
编号:
1803650帖子: https://linux.do/t/topic/1803650
时间: 2026-03-23 21:18:21
摘要:
我的wsl在codex开了多agent的模式之后时不时会爆内存自动关机,经过排查之后,发现原因如下:
codex在召唤subagent的时候每个subagent都会重新加载所有你设置的MCP,部分 MCP 在 agent 结束后没有一起退出,最终这些mcp变成了孤儿,然后随着数量叠加就导致了OOM。
尤其是如果使用auggie --mcp,这个占用尤其大,得多加留意。
我这里检测到最多的一次,抓到了50多个auggie --mcp的进程,然后wsl就OOM自动关机了。
怎么解决:
每次启动一个subagent会话的时候都会加载所有的mcp,我称为一套mcp。
显然,如果允许codex启动6个agent并行,而该codex下启动的mcp数量超过了6套,那明显就是这些mcp成孤儿了。
只要从旧到新排序,把超过6套的部分都给杀掉即可。
也就是沿 PPID 建父子链,确认哪些进程真的是它的后代,后代超过这些数量的就开杀。
操作建议:
复制我的贴子发给codex,让他做一个开机之后就自动发现自动清理的脚本(比如10分钟检查一次)。由于大家用的mcp可能都不一样,所以我这里就不提供ai写的脚本了。
更优雅的方式:
看看能不能把这些mcp做成skill去用,这样每次打开也不用等加载了,根本就没以上问题了。
标题: 现在 oai 封域名好快啊
作者: #AirTouch
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803654
时间: 2026-03-23 21:19:52
摘要:
作者: #AirTouch
板块: #开发调优
编号:
1803654帖子: https://linux.do/t/topic/1803654
时间: 2026-03-23 21:19:52
摘要:
如题,oai 封域名太快了,有没有什么方案啊,号池快被榨干了
标题: 佬 头要炸了,help
作者: #神秘袁
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1803657
时间: 2026-03-23 21:22:30
摘要:
作者: #神秘袁
板块: #搞七捻三
编号:
1803657帖子: https://linux.do/t/topic/1803657
时间: 2026-03-23 21:22:30
摘要:
我介绍一下我自身情况,我在工程企业负责管理现场,一直对网络有接触的想法,最近ai盛行,平时做资料的时候对我干活很有帮助,比如写一些施工方案等,我目前看未来对我们不说要精通,也要熟练应用计算机。如果没把握住这个机会,就像是从老年机过度到智能手机那个时代。老一辈人没接触到智能手机就不会带来便利,比如说买票、订住行等享受不到科技带来的便利。所以在大时代背景下很难达到生活简便率平均值,我去年7月份接触L站,从中看到很多大佬,包括发的有趣的插件,以及分享身边事。很向往大家在技术方面分享成果以及便利佬们的脚本。我有个请求请教一下佬们,我对计算机属于0基础,想要能弄明白插件如何使用和熟练AI的应用、我甚至连机场怎么用、token、密钥都不会搞,需要从哪个方面入手呢,望佬们施舍回答小弟的问题,我在豆包等ai软件上问我这写问题怕问不到点上。期待佬们的解惑,小弟必感激得很。临表涕零!
标题: 各位佬友,sub2api 怎么选 gpt-5.4-mini
作者: #Frank Cheung
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803663
时间: 2026-03-23 21:23:57
摘要:
作者: #Frank Cheung
板块: #开发调优
编号:
1803663帖子: https://linux.do/t/topic/1803663
时间: 2026-03-23 21:23:57
摘要:
我看好多公益站都上了 gpt-5.4-mini ,为什么用 sub2api 跑订阅的GPT team 没有这个模型可以选?
标题: 新开team拉3个佬友
作者: #sinicdragon
板块: #福利羊毛
编号:
帖子: https://linux.do/t/topic/1803667
时间: 2026-03-23 21:24:50
摘要:
作者: #sinicdragon
板块: #福利羊毛
编号:
1803667帖子: https://linux.do/t/topic/1803667
时间: 2026-03-23 21:24:50
摘要:
有需要的佬友留下邮箱,前三入围,也不知道能挺多久。
标题: 如何检测claude opus 4.6的纯度
作者: #流年
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1803669
时间: 2026-03-23 21:25:10
摘要:
作者: #流年
板块: #搞七捻三
编号:
1803669帖子: https://linux.do/t/topic/1803669
时间: 2026-03-23 21:25:10
摘要:
如题,有没有类似iffs.cn这种的检测网站或者检测用的提示词?
标题: 从我朋友的父亲被误诊超过1年的案例,到我想做的一件事
作者: #bsjohnson
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1803671
时间: 2026-03-23 21:25:32
摘要:
作者: #bsjohnson
板块: #搞七捻三
编号:
1803671帖子: https://linux.do/t/topic/1803671
时间: 2026-03-23 21:25:32
摘要:
2024年夏天,我朋友的父亲(58岁,男)开始出现头晕,骑车时会莫名晕倒,短暂失去意识,走路轻飘飘的症状。朋友带着父亲去某三甲医院神经内科就诊,医生简单查体并做了一些检查,开了溴化钠。患者吃了几个月,无好转。
2025年3月,朋友找到我,问我哪里能买到溴化钠,他不想跑去医院开药,但药房又买不到。我很讶异,问他为什么要买这个药,他说是医生开的,我让他详细描述了他父亲的症状,了解了病史。当我听到“走路轻飘飘”的描述,以及体检发现有颈动脉斑块,我的第一反应是怀疑高血压。于是让他带着父亲去楼下药店量一下血压,确实血压高了,经过医院心内科就诊也确诊了高血压。这大概也算是一个漏诊。
4月,患者出现了新的症状,浑身抽搐,短暂失去意识。
患者去医院住院后,做了一系列检查。期间患者逐渐出现吵闹、脾气暴躁、莫名哭泣的症状,还有低钠血症。
住院期间,神内医生坚持认为是癫痫,开药左乙拉西坦,嘱咐按照癫痫治疗数年再说。出院小结上写着建议完善腰穿,但医生却说没必要。我认为这个诊断无法解释全部症状,遂建议朋友整理资料,我帮他找上海的医生进行咨询。通过网络咨询后,对方认为首先需要排查自身免疫性脑炎。我们决定听从医生的建议,朋友带着父亲去做腰穿,还是原来的那家三甲医院,但门诊医生查看病历后不建议做。最终家属辗转在另一家医院完成腰穿,结果是抗LGI-1自免脑。
从第一次就诊到确诊,历经1年余,辗转了4家医院,咨询了七八位医生(很多细节过于繁缛,就不赘述了)。
为什么会这样?
不是因为医生水平差,而是我们的医疗系统存在的一个现实问题: 医生太少,病人太多。门诊问诊时间平均三五分钟,这么短的时间里,医生能采集到的信息非常有限。很多关键细节在第一次问诊就永久丢失了,患者不懂,也不会补充。普通家属没有能力整理完整的病史,不知道该问什么问题,不知道该找哪个方向的医生,更不知道如何判断现有的诊断是否合理。
我在做的事
我不是医生,不能给出具体的医疗建议。我正在开发一个工具,让AI帮助家属把零散的病历、化验报告和影像资料整理成完整的结构化病史,帮助他们梳理就诊前需要咨询医生的问题,找到匹配疾病亚专业的医生,而不只是挂一个大科室。
在产品完成开发前,我想先找5个真实案例,免费帮助有需要的佬友整理就诊材料,换取真实的反馈。
如果佬们或者身边的人正在面临类似的困境,长期未确诊、多次就诊不见好、不知道该找哪个医生,欢迎私信,也欢迎医学佬给出建议~
标题: 云服务器部署ai处理数据安全吗
作者: #stream
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803680
时间: 2026-03-23 21:27:44
摘要:
作者: #stream
板块: #开发调优
编号:
1803680帖子: https://linux.do/t/topic/1803680
时间: 2026-03-23 21:27:44
摘要:
求问佬们云服务器部署ai的话有什么推荐吗,如果上传一些文件的话安全吗
标题: 【无偿咨询】遥感专业(别的专业也可以来讨论)考研生或者保研生,大家可以来咨询和讨论不懂的地方
作者: #綾地 寧々
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1803682
时间: 2026-03-23 21:28:04
摘要:
作者: #綾地 寧々
板块: #搞七捻三
编号:
1803682帖子: https://linux.do/t/topic/1803682
时间: 2026-03-23 21:28:04
摘要:
【声明】:
1、无广告、无推广,不提供论坛以外的咨询方式;
2、本帖纯属为了丰富论坛内容,请勿在本帖打广告!
3、本帖仅供各位交流参考,具体还需自己多斟酌
去年在站里发了个帖子,为自己保研北师大做个纪念和分享
https://linux.do/t/topic/988838?u=law-of-cycles
本人是遥感专业的学生,保研也是去了这个方向,在这四年保研过程中也积累了一些经验,可以给有需要的同学絮叨絮叨。
因为去年保研之后就进组了,所以一直在给导师打工,最近快写完论文了,老师那边给毕业生忙活,正好有些空余,所以想着和有需要的人一起交流交流
大家可以把自己的问题或者相应的见解分享到帖子下面,共同讨论,我也可能顾不上回复,有可能回复比较慢,还请理解
Ciallo~(∠・ω< )⌒☆
标题: 凭借 OnlyFans 改变成人产业的 Leonid Radvinsky 去世,享年 43 岁
作者: #𝓵𝓮𝔃𝓲𝓼𝓱𝓮𝓷
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/1803700
时间: 2026-03-23 21:30:55
摘要:
作者: #𝓵𝓮𝔃𝓲𝓼𝓱𝓮𝓷
板块: #前沿快讯
编号:
1803700帖子: https://linux.do/t/topic/1803700
时间: 2026-03-23 21:30:55
摘要:
https://www.bloomberg.com/news/articles/2026-03-23/leonid-radvinsky-who-changed-porn-with-onlyfans-is-dead-at-43
标题: 把小模型调到顺手:经验分享
作者: #闲云野鹤
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803704
时间: 2026-03-23 21:31:51
摘要:
作者: #闲云野鹤
板块: #开发调优
编号:
1803704帖子: https://linux.do/t/topic/1803704
时间: 2026-03-23 21:31:51
摘要:
各位佬们晚上好啊,本人最近开始迷恋上了炼丹,虽然过程中屡屡碰壁但也算稍微总结了一点经验所以就想分享一下
1. 先准备什么硬件和系统
最低建议
系统:Linux 或 WSL2
Python:3.10 或 3.11
显卡:NVIDIA
显存:8GB 起步
更实际的建议
8GB 到 12GB:优先 0.5B 到 1.5B 小模型,尽量短序列,必要时走更省显存的配置
12GB 到 24GB:1.5B 到 7B 的 LoRA/QLoRA 基本都能试
24GB+:可以训练更长上下文、更大的 batch,调参空间也大很多
强烈建议
如果你现在是原生 Windows,本地训练不是不行,但坑会更多。
更稳的顺序是:
Linux 服务器
WSL2
最后才是原生 Windows
原因很简单:训练栈大多数先照顾 Linux。
2. 先搞清楚:模型在哪里下载
大部分开源模型最常见的下载入口是 Hugging Face。
第一步:去哪里找模型
常用入口:
Hugging Face 模型页:https://huggingface.co/models
示例模型页:https://huggingface.co/Qwen/Qwen2.5-1.5B-Instruct
选模型时先看四样东西:
模型大小,比如 0.5B / 1.5B / 7B
是否是 Instruct 或 Chat 版本
许可证能不能用于你的场景
模型页有没有说明推荐模板、推荐推理方式
第二步:安装下载工具
pip install -U huggingface_hub
第三步:如果模型需要登录,就先登录
有些模型是公开的,有些模型需要你先在模型页点同意协议,再用 token 登录。
hf auth login
第四步:下载模型到本地
hf download Qwen/Qwen2.5-1.5B-Instruct --local-dir ./models/Qwen2.5-1.5B-Instruct
下载完成后,你本地一般会看到类似这样的目录:
models/
Qwen2.5-1.5B-Instruct/
config.json
generation_config.json
tokenizer.json
tokenizer_config.json
model-00001-of-0000x.safetensors
...
新手常犯的错
下成了 base 版,却拿去做对话任务
只看参数量,不看许可证
模型还没下完整就开始训练
把模型路径写错到上一级目录
3. 环境怎么配
这一节只讲最小可用环境,不讲复杂集群。
3.1 创建独立环境
如果你用 conda:
conda create -n llm-ft python=3.10 -y
conda activate llm-ft
如果你用 venv:
python -m venv .venv
source .venv/bin/activate
Windows PowerShell 下是:
python -m venv .venv
.venv\Scripts\Activate.ps1
3.2 安装 PyTorch
这一步不要照抄别人环境。
最稳的办法是去 PyTorch 官方安装页,根据你的系统、CUDA 版本和包管理器生成命令。
官方入口:
https://pytorch.org/get-started/locally/
举个例子,很多人会装成这样:
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
但你自己的命令,应该以官方页面生成结果为准。
3.3 验证显卡和 CUDA 能不能用
nvidia-smi
python -c "import torch; print(torch.__version__); print(torch.cuda.is_available()); print(torch.version.cuda)"
你至少要看到:
nvidia-smi 能正常显示显卡
torch.cuda.is_available() 输出 True
如果这里没过,别继续装训练框架,先把 CUDA 环境问题解决掉。
3.4 安装训练工具
推荐新手先装 LLaMA-Factory。
git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"
如果你只想先看看界面能不能起来:
llamafactory-cli webui
浏览器能打开 WebUI,说明基础依赖大体没问题。
4. 第一次别先训练,先做推理自检
很多人一上来就训,结果连模型能不能正常加载都没确认。
第一次正确顺序应该是:
模型下载好
环境装好
先推理一次
再准备训练
最简单的自检方法
如果你用 LLaMA-Factory WebUI:
启动 llamafactory-cli webui
选中本地模型路径
选择对应模板,比如 Qwen 系列常用 qwen
先问一句简单的话,比如“你好,请用三句话介绍你自己”
如果模型能正常生成,说明:
模型目录没坏
tokenizer 没坏
模板大体匹配
PyTorch 和显卡至少能跑推理
为什么这一步重要
因为训练问题里有一大堆,其实根本不是训练问题,而是:
模型没下完整
模板不对
依赖冲突
CUDA 没装通
这些问题先在推理阶段解决,成本最低。
5. 第一个微调任务怎么选
别做“万能助手”。
你第一轮最适合做的是一个窄而重复的任务。
比如:
把客服对话整理成固定 JSON
把会议纪要整理成三点摘要
把用户问题分成几类
把原始文本改写成固定风格
第一次不建议做:
多轮复杂 Agent
需要强推理的任务
动态知识问答
又要格式稳定,又要复杂工具调用,又要长链条规划的任务
原因不是这些不重要,而是第一次应该先把“训练链路”跑通。
6. 数据怎么准备
这一节最关键。
训练翻车,通常不是因为你不会调学习率,而是因为数据本身有问题。
6.1 先定数据格式
如果你做的是对话任务,推荐用这种格式:
{
"messages": [
{
"role": "system",
"content": "你是一个售后工单整理助手,输出必须是 JSON。"
},
{
"role": "user",
"content": "客户说打印机一直卡纸,已经重启两次还是不行。"
},
{
"role": "assistant",
"content": "{\"问题类型\":\"硬件故障\",\"现象\":\"打印机卡纸\",\"已尝试操作\":[\"重启两次\"],\"建议\":\"检查进纸组件并安排售后检修\"}"
}
]
}
如果你做的是单轮任务,也可以用:
{
"instruction": "请把下面这段会议记录整理成三点摘要",
"input": "项目原计划本周三上线,但测试反馈还有两个高优先级问题没有解决……",
"output": "1. 上线时间需要顺延。\n2. 当前仍有两个高优先级问题未关闭。\n3. 需要测试和研发今天内确认修复计划。"
}
6.2 新手最该记住的 5 条数据规则
输出风格必须统一
字段命名必须统一
能不脑补就不脑补
训练样本要像真实输入,不要全是教科书例子
脏数据和边界案例一定要留一些
6.3 数据量怎么估
给一个很实用的粗标准:
50 到 100 条:够你跑通流程,验证格式
300 到 1000 条:可以开始看到明显效果
1000+:才开始有资格谈更稳定的泛化
如果这几百条数据很脏,还不如先回去修数据。
6.4 数据怎么切分
最常用的切法:
训练集:80%
验证集:10%
测试集:10%
第一次至少要有一份验证集。
没有验证集,你连过拟合是什么时候开始的都看不清。
6.5 LLaMA-Factory 需要的数据登记文件
在 data/ 目录里放你的数据文件,比如:
data/
my_sft.json
dataset_info.json
dataset_info.json 可以写成这样:
{
"my_sft": {
"file_name": "my_sft.json",
"formatting": "sharegpt"
}
}
如果你用的是 instruction/input/output 风格,登记方式会不一样。核心原则只有一个:数据格式要和你选择的模板、训练方式对应上。
7. 第一次训练怎么跑
这一节只讲一个最小可用方案:LoRA + SFT。
7.1 先建立项目目录
建议你的目录至少长这样:
project/
models/
标题: 【学习笔记】Trellis-一个强大的AI脚手架
作者: #Zimon
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803719
时间: 2026-03-23 21:37:08
摘要:
作者: #Zimon
板块: #开发调优
编号:
1803719帖子: https://linux.do/t/topic/1803719
时间: 2026-03-23 21:37:08
摘要:
从关于trellis的一点问题,望解答~继续讨论:
Trellis
此处引用官方文档中的一句话:AI 的能力像藤蔓一样生长——充满活力但四处蔓延。Trellis 是 AI 的脚手架,引导它沿着规范的路径前进。
仅以此贴记录学习Trellis框架的过程~
我的理念一直是:没有最好的框架,框架只是工具,最重要的是其中蕴涵的设计思想。
首先,我贴上我与框架开发大佬的一次简单的Q&A:
从我的问题可以了解到,我已经被网上各种技能包、框架等等强大的工具,信息轰炸到无从入手,也是从L站偶然发现Trellis这个框架,在帖子的下方收获了用户的一致好评,我便继续深入研究,发现确实是一个值得一用的框架,无论是企业团队还是个人,现将学习过程中整理的一些思路笔记分享与大家,不聊底层,只聊干货~
一、Trellis解决了什么,以及怎么解决的?
Lost in the middle(AI忽略规范):编写了Claude.md,5轮会话后就忘
Hook自动注入,每次对话都包含规范
修A坏B:修一个bug引入另一个
Ralph Loop:先思考→行动→验证
代码风格不一致:AI代码能跑但风格混乱
Spec系统:编码标准写一次,全员遵守
需求膨胀:要一个按钮,AI写9000行
Plan Agent:拒绝并拆分过大的需求
团队质量不均:每人AI写出不同风格
共享Spec库:一人优化,全员受益
跨会话失忆:新会话要重新解释上下文
会话持久化:AI跨会话记住项目
二、Hook三驾马车
相信使用过Claude Code的小伙伴们应该对这个概念不陌生。hook-钩子,我不由得联想到前端的生命周期钩子函数,讲的是一个“触发时机“的概念,而在Trellis中就有着三个”触发时机“
session-start
会话启动时注入上下文
读取内容
来源
用途
.trellis/.developer
开发者身份
知道"你是谁"
.trellis/workflow.md
工作流
标题: 话说何时内存和存储能降下来?
作者: #不务正业
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/1803724
时间: 2026-03-23 21:38:09
摘要:
作者: #不务正业
板块: #前沿快讯
编号:
1803724帖子: https://linux.do/t/topic/1803724
时间: 2026-03-23 21:38:09
摘要:
刚听说下个月内存和存储可能再涨价,叠加优惠可能跟现在的价格差不多,到底是不是啊?这波涨价到底是捂着呢还是产能真这么紧张啊?还要不要继续等?
标题: 怎么更改邮箱
作者: #周末
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1803725
时间: 2026-03-23 21:38:14
摘要:
作者: #周末
板块: #搞七捻三
编号:
1803725帖子: https://linux.do/t/topic/1803725
时间: 2026-03-23 21:38:14
摘要:
最近着急用钱把注册这个账号的QQ连带游戏号一起卖了,今天想起来登录了一下L站,发现QQ邮箱还是原来的,请教一下,怎么更改邮箱呢
标题: chatGPT 手机端APP没法使用工作空间
作者: #tktk3927
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1803726
时间: 2026-03-23 21:38:23
摘要:
作者: #tktk3927
板块: #搞七捻三
编号:
1803726帖子: https://linux.do/t/topic/1803726
时间: 2026-03-23 21:38:23
摘要:
如图,我的工作空间今天到期了,折腾半天终于重新激活了,网页端也能用了,但是手机APP却无法使用了,就算退出登录也好,清空应用数据也好,哪怕删了重装重新登录还是这个问题,请问各位佬友有什么解决办法吗
标题: [开源小万] 手机部署 openclaw 没那么难
作者: #advent
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803730
时间: 2026-03-23 21:40:02
摘要:
作者: #advent
板块: #开发调优
编号:
1803730帖子: https://linux.do/t/topic/1803730
时间: 2026-03-23 21:40:02
摘要:
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
我的帖子已经打上 开源推广 标签: 是
我的开源项目完整开源,无未开源部分: 是
我的开源项目已链接认可 LINUX DO 社区: 是
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
【首发开源 】安卓 AI agent(vlm+cli)最强形态
开发调优
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
我的帖子已经打上 开源推广 标签: 是
我的开源项目完整开源,无未开源部分: 是
我的开源项目已链接认可 LINUX DO 社区: 是
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
先来一小…
从这篇帖子继续!不了解我们软件的佬可以先去读一下
最近更了几个大大小小的版本,v0.0.9 Pre-release 已经支持快速部署 openclaw 啦~感谢佬友们支持!
github.com
GitHub - omnimind-ai/OpenOmniBot: This is community version of OmniMind Xiaowan app...
This is community version of OmniMind Xiaowan app || 或者你也可以叫她 OOB!她可以操作终端,也可以完成 Android 世界的广泛任务
教程如下:
标题: [开源] Codexlens --轻量多阶段向量搜索工具,支持本地模型及api,性能接近ace 90%
作者: #Catlog22
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803734
时间: 2026-03-23 21:40:17
摘要:
作者: #Catlog22
板块: #开发调优
编号:
1803734帖子: https://linux.do/t/topic/1803734
时间: 2026-03-23 21:40:17
摘要:
本帖使用社区公益推广,符合推广要求。我申明并遵循社区要求的以下内容:
我的项目是免费使用的,无收费(变相收费、赞助)部分: 是
我的帖子已经打上 公益推广 标签: 是
我的项目属于个人项目,与公司或商业机构无关: 是
我的项目不存在QQ、TG等群组引流: 是
我的项目不存在非运营必要的网站引流: 是
我的项目不存在为他人推广、AFF: 是
我的项目无关联的商业项目: 是
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是
背景:
这个项目主要是为了验证我的偶尔冒出的想法,方法上与现有绝大数向量搜索有点点区别。项目原先集成在CCW(claude-code-workflow)中,在CCW(7.X)版本后独立出来,并做了方法精简和重构,方便大家使用。
特点:
支持本地模型和api接口
支持冷启动快速搜索
支持MCP协议
项目地址:
catlog22/codexlens-search: Lightweight semantic code search engine — 2-stage vector + FTS + RRF fusion + MCP server for Claude Code
主要方法:
多通道并行检索 + 融合 + 重排序。
Query → 意图检测 → 查询扩展(仅NL)
├─ Binary粗筛 (Hamming) → ANN精排 (cosine) → 交集 → vector结果
├─ FTS精确 (BM25) + FTS模糊 (prefix*)
├─ 符号图搜索 (seeded from vector/FTS top results)
└─ Ripgrep正则 (auto模式)
└─ RRF加权融合 → Cross-Encoder重排序 → top-k
检索通道
通道
原理
作用
Binary粗筛
float32→符号位量化→XOR+popcount Hamming距离
O(N)位运算快速缩小候选到 top-200
ANN精排
HNSW图 cosine近邻(USearch/FAISS/hnswlib)
从 top-200 候选中精排 top-50
FTS
SQLite FTS5, Porter stemming, BM25 + prefix*
关键词精确/模糊匹配
符号图
沿 import/call/inherit/type_ref 边双向遍历
发现结构相关但语义不相似的代码
Ripgrep
实时正则匹配
精确 pattern 搜索,无需索引
安装:
# Minimal — CPU inference (fastembed bundles onnxruntime CPU)
pip install codexlens-search
# Windows GPU — DirectML, any DirectX 12 GPU (NVIDIA/AMD/Intel)
pip install codexlens-search[directml]
# Linux/Windows NVIDIA GPU — CUDA (requires CUDA + cuDNN)
pip install codexlens-search[cuda]
# Auto-select — DirectML on Windows, CPU elsewhere
pip install codexlens-search[all]
模型下载(推荐384维度模型,有较好的体验或者有高质量的api接口)
# 查看已知模型及缓存状态
codexlens-search list-models
# 下载默认的 embed + reranker 模型
codexlens-search download-models
# 下载默认但指定 embed 模型
codexlens-search download-models --embed-model BAAI/bge-base-en-v1.5
# 下载任意单个模型(按 HuggingFace 名称)
codexlens-search download-model BAAI/bge-large-en-v1.5
# 删除缓存的模型
codexlens-search delete-model BAAI/bge-small-en-v1.5
#MCp配置
{
"mcpServers": {
"codexlens": {
"command": "codexlens-mcp",
"env": {
"CODEXLENS_EMBED_MODEL": "BAAI/bge-small-en-v1.5",
"CODEXLENS_EMBED_DIM": "384",
"CODEXLENS_DEVICE": "directml"
}
}
}
}
基于本地模型 BGE-small-en-v1.5 (384维度)VS ACE实测报告 (click for more details)