LinuxDo 新帖推送
166 subscribers
246K photos
305K links
Download Telegram
标题: 公益站都挂了啦
作者: #NaiLong
板块: #开发调优
编号: 1803625
帖子: https://linux.do/t/topic/1803625
时间: 2026-03-23 21:11:29
摘要:
怎么有时候公益站都能用 要么就都挂了 比如现在
标题: 佬友们,请问有没有PPT生成的ai大模型
作者: #蟹黄
板块: #开发调优
编号: 1803636
帖子: https://linux.do/t/topic/1803636
时间: 2026-03-23 21:14:23
摘要:
佬友们,请问有没有PPT生成的ai大模型
标题: [经验分享]如果你在wsl里面用codex的时候内存占用非常大,可以看看这个
作者: #Oxidane
板块: #开发调优
编号: 1803650
帖子: https://linux.do/t/topic/1803650
时间: 2026-03-23 21:18:21
摘要:
我的wsl在codex开了多agent的模式之后时不时会爆内存自动关机,经过排查之后,发现原因如下:
codex在召唤subagent的时候每个subagent都会重新加载所有你设置的MCP,部分 MCP 在 agent 结束后没有一起退出,最终这些mcp变成了孤儿,然后随着数量叠加就导致了OOM。
尤其是如果使用auggie --mcp,这个占用尤其大,得多加留意。
我这里检测到最多的一次,抓到了50多个auggie --mcp的进程,然后wsl就OOM自动关机了。
怎么解决:
每次启动一个subagent会话的时候都会加载所有的mcp,我称为一套mcp。
显然,如果允许codex启动6个agent并行,而该codex下启动的mcp数量超过了6套,那明显就是这些mcp成孤儿了。
只要从旧到新排序,把超过6套的部分都给杀掉即可。
也就是沿 PPID 建父子链,确认哪些进程真的是它的后代,后代超过这些数量的就开杀。
操作建议:
复制我的贴子发给codex,让他做一个开机之后就自动发现自动清理的脚本(比如10分钟检查一次)。由于大家用的mcp可能都不一样,所以我这里就不提供ai写的脚本了。
更优雅的方式:
看看能不能把这些mcp做成skill去用,这样每次打开也不用等加载了,根本就没以上问题了。
标题: 现在 oai 封域名好快啊
作者: #AirTouch
板块: #开发调优
编号: 1803654
帖子: https://linux.do/t/topic/1803654
时间: 2026-03-23 21:19:52
摘要:
如题,oai 封域名太快了,有没有什么方案啊,号池快被榨干了
标题: 佬 头要炸了,help
作者: #神秘袁
板块: #搞七捻三
编号: 1803657
帖子: https://linux.do/t/topic/1803657
时间: 2026-03-23 21:22:30
摘要:
我介绍一下我自身情况,我在工程企业负责管理现场,一直对网络有接触的想法,最近ai盛行,平时做资料的时候对我干活很有帮助,比如写一些施工方案等,我目前看未来对我们不说要精通,也要熟练应用计算机。如果没把握住这个机会,就像是从老年机过度到智能手机那个时代。老一辈人没接触到智能手机就不会带来便利,比如说买票、订住行等享受不到科技带来的便利。所以在大时代背景下很难达到生活简便率平均值,我去年7月份接触L站,从中看到很多大佬,包括发的有趣的插件,以及分享身边事。很向往大家在技术方面分享成果以及便利佬们的脚本。我有个请求请教一下佬们,我对计算机属于0基础,想要能弄明白插件如何使用和熟练AI的应用、我甚至连机场怎么用、token、密钥都不会搞,需要从哪个方面入手呢,望佬们施舍回答小弟的问题,我在豆包等ai软件上问我这写问题怕问不到点上。期待佬们的解惑,小弟必感激得很。临表涕零!
标题: 各位佬友,sub2api 怎么选 gpt-5.4-mini
作者: #Frank Cheung
板块: #开发调优
编号: 1803663
帖子: https://linux.do/t/topic/1803663
时间: 2026-03-23 21:23:57
摘要:
我看好多公益站都上了 gpt-5.4-mini ,为什么用 sub2api 跑订阅的GPT team 没有这个模型可以选?
标题: 新开team拉3个佬友
作者: #sinicdragon
板块: #福利羊毛
编号: 1803667
帖子: https://linux.do/t/topic/1803667
时间: 2026-03-23 21:24:50
摘要:
有需要的佬友留下邮箱,前三入围,也不知道能挺多久。
标题: 如何检测claude opus 4.6的纯度
作者: #流年
板块: #搞七捻三
编号: 1803669
帖子: https://linux.do/t/topic/1803669
时间: 2026-03-23 21:25:10
摘要:
如题,有没有类似iffs.cn这种的检测网站或者检测用的提示词?
标题: 从我朋友的父亲被误诊超过1年的案例,到我想做的一件事
作者: #bsjohnson
板块: #搞七捻三
编号: 1803671
帖子: https://linux.do/t/topic/1803671
时间: 2026-03-23 21:25:32
摘要:
2024年夏天,我朋友的父亲(58岁,男)开始出现头晕,骑车时会莫名晕倒,短暂失去意识,走路轻飘飘的症状。朋友带着父亲去某三甲医院神经内科就诊,医生简单查体并做了一些检查,开了溴化钠。患者吃了几个月,无好转。
2025年3月,朋友找到我,问我哪里能买到溴化钠,他不想跑去医院开药,但药房又买不到。我很讶异,问他为什么要买这个药,他说是医生开的,我让他详细描述了他父亲的症状,了解了病史。当我听到“走路轻飘飘”的描述,以及体检发现有颈动脉斑块,我的第一反应是怀疑高血压。于是让他带着父亲去楼下药店量一下血压,确实血压高了,经过医院心内科就诊也确诊了高血压。这大概也算是一个漏诊。
4月,患者出现了新的症状,浑身抽搐,短暂失去意识。
患者去医院住院后,做了一系列检查。期间患者逐渐出现吵闹、脾气暴躁、莫名哭泣的症状,还有低钠血症。
住院期间,神内医生坚持认为是癫痫,开药左乙拉西坦,嘱咐按照癫痫治疗数年再说。出院小结上写着建议完善腰穿,但医生却说没必要。我认为这个诊断无法解释全部症状,遂建议朋友整理资料,我帮他找上海的医生进行咨询。通过网络咨询后,对方认为首先需要排查自身免疫性脑炎。我们决定听从医生的建议,朋友带着父亲去做腰穿,还是原来的那家三甲医院,但门诊医生查看病历后不建议做。最终家属辗转在另一家医院完成腰穿,结果是抗LGI-1自免脑。
从第一次就诊到确诊,历经1年余,辗转了4家医院,咨询了七八位医生(很多细节过于繁缛,就不赘述了)。
为什么会这样?
不是因为医生水平差,而是我们的医疗系统存在的一个现实问题: 医生太少,病人太多。门诊问诊时间平均三五分钟,这么短的时间里,医生能采集到的信息非常有限。很多关键细节在第一次问诊就永久丢失了,患者不懂,也不会补充。普通家属没有能力整理完整的病史,不知道该问什么问题,不知道该找哪个方向的医生,更不知道如何判断现有的诊断是否合理。
我在做的事
我不是医生,不能给出具体的医疗建议。我正在开发一个工具,让AI帮助家属把零散的病历、化验报告和影像资料整理成完整的结构化病史,帮助他们梳理就诊前需要咨询医生的问题,找到匹配疾病亚专业的医生,而不只是挂一个大科室。
在产品完成开发前,我想先找5个真实案例,免费帮助有需要的佬友整理就诊材料,换取真实的反馈。
如果佬们或者身边的人正在面临类似的困境,长期未确诊、多次就诊不见好、不知道该找哪个医生,欢迎私信,也欢迎医学佬给出建议~
标题: 云服务器部署ai处理数据安全吗
作者: #stream
板块: #开发调优
编号: 1803680
帖子: https://linux.do/t/topic/1803680
时间: 2026-03-23 21:27:44
摘要:
求问佬们云服务器部署ai的话有什么推荐吗,如果上传一些文件的话安全吗
标题: 【无偿咨询】遥感专业(别的专业也可以来讨论)考研生或者保研生,大家可以来咨询和讨论不懂的地方
作者: #綾地 寧々
板块: #搞七捻三
编号: 1803682
帖子: https://linux.do/t/topic/1803682
时间: 2026-03-23 21:28:04
摘要:
【声明】:
1、无广告、无推广,不提供论坛以外的咨询方式;
2、本帖纯属为了丰富论坛内容,请勿在本帖打广告!
3、本帖仅供各位交流参考,具体还需自己多斟酌
去年在站里发了个帖子,为自己保研北师大做个纪念和分享
https://linux.do/t/topic/988838?u=law-of-cycles
本人是遥感专业的学生,保研也是去了这个方向,在这四年保研过程中也积累了一些经验,可以给有需要的同学絮叨絮叨。
因为去年保研之后就进组了,所以一直在给导师打工,最近快写完论文了,老师那边给毕业生忙活,正好有些空余,所以想着和有需要的人一起交流交流
大家可以把自己的问题或者相应的见解分享到帖子下面,共同讨论,我也可能顾不上回复,有可能回复比较慢,还请理解
Ciallo~(∠・ω< )⌒☆
标题: 凭借 OnlyFans 改变成人产业的 Leonid Radvinsky 去世,享年 43 岁
作者: #𝓵𝓮𝔃𝓲𝓼𝓱𝓮𝓷
板块: #前沿快讯
编号: 1803700
帖子: https://linux.do/t/topic/1803700
时间: 2026-03-23 21:30:55
摘要:
https://www.bloomberg.com/news/articles/2026-03-23/leonid-radvinsky-who-changed-porn-with-onlyfans-is-dead-at-43
标题: 把小模型调到顺手:经验分享
作者: #闲云野鹤
板块: #开发调优
编号: 1803704
帖子: https://linux.do/t/topic/1803704
时间: 2026-03-23 21:31:51
摘要:
各位佬们晚上好啊,本人最近开始迷恋上了炼丹,虽然过程中屡屡碰壁但也算稍微总结了一点经验所以就想分享一下
1. 先准备什么硬件和系统
最低建议


系统:Linux 或 WSL2


Python:3.10 或 3.11


显卡:NVIDIA


显存:8GB 起步


更实际的建议


8GB 到 12GB:优先 0.5B 到 1.5B 小模型,尽量短序列,必要时走更省显存的配置


12GB 到 24GB:1.5B 到 7B 的 LoRA/QLoRA 基本都能试


24GB+:可以训练更长上下文、更大的 batch,调参空间也大很多


强烈建议
如果你现在是原生 Windows,本地训练不是不行,但坑会更多。
更稳的顺序是:


Linux 服务器


WSL2


最后才是原生 Windows


原因很简单:训练栈大多数先照顾 Linux。

2. 先搞清楚:模型在哪里下载
大部分开源模型最常见的下载入口是 Hugging Face。
第一步:去哪里找模型
常用入口:


Hugging Face 模型页:https://huggingface.co/models


示例模型页:https://huggingface.co/Qwen/Qwen2.5-1.5B-Instruct


选模型时先看四样东西:


模型大小,比如 0.5B / 1.5B / 7B


是否是 Instruct 或 Chat 版本


许可证能不能用于你的场景


模型页有没有说明推荐模板、推荐推理方式


第二步:安装下载工具

pip install -U huggingface_hub


第三步:如果模型需要登录,就先登录
有些模型是公开的,有些模型需要你先在模型页点同意协议,再用 token 登录。

hf auth login


第四步:下载模型到本地

hf download Qwen/Qwen2.5-1.5B-Instruct --local-dir ./models/Qwen2.5-1.5B-Instruct


下载完成后,你本地一般会看到类似这样的目录:

models/

Qwen2.5-1.5B-Instruct/

config.json

generation_config.json

tokenizer.json

tokenizer_config.json

model-00001-of-0000x.safetensors

...


新手常犯的错


下成了 base 版,却拿去做对话任务


只看参数量,不看许可证


模型还没下完整就开始训练


把模型路径写错到上一级目录



3. 环境怎么配
这一节只讲最小可用环境,不讲复杂集群。
3.1 创建独立环境
如果你用 conda:

conda create -n llm-ft python=3.10 -y

conda activate llm-ft


如果你用 venv:

python -m venv .venv

source .venv/bin/activate


Windows PowerShell 下是:

python -m venv .venv

.venv\Scripts\Activate.ps1


3.2 安装 PyTorch
这一步不要照抄别人环境。
最稳的办法是去 PyTorch 官方安装页,根据你的系统、CUDA 版本和包管理器生成命令。
官方入口:

https://pytorch.org/get-started/locally/

举个例子,很多人会装成这样:

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118


但你自己的命令,应该以官方页面生成结果为准。
3.3 验证显卡和 CUDA 能不能用

nvidia-smi

python -c "import torch; print(torch.__version__); print(torch.cuda.is_available()); print(torch.version.cuda)"


你至少要看到:


nvidia-smi 能正常显示显卡


torch.cuda.is_available() 输出 True


如果这里没过,别继续装训练框架,先把 CUDA 环境问题解决掉。
3.4 安装训练工具
推荐新手先装 LLaMA-Factory。

git clone https://github.com/hiyouga/LLaMA-Factory.git

cd LLaMA-Factory

pip install -e ".[torch,metrics]"


如果你只想先看看界面能不能起来:

llamafactory-cli webui


浏览器能打开 WebUI,说明基础依赖大体没问题。

4. 第一次别先训练,先做推理自检
很多人一上来就训,结果连模型能不能正常加载都没确认。
第一次正确顺序应该是:


模型下载好


环境装好


先推理一次


再准备训练


最简单的自检方法
如果你用 LLaMA-Factory WebUI:


启动 llamafactory-cli webui


选中本地模型路径


选择对应模板,比如 Qwen 系列常用 qwen


先问一句简单的话,比如“你好,请用三句话介绍你自己”


如果模型能正常生成,说明:


模型目录没坏


tokenizer 没坏


模板大体匹配


PyTorch 和显卡至少能跑推理


为什么这一步重要
因为训练问题里有一大堆,其实根本不是训练问题,而是:


模型没下完整


模板不对


依赖冲突


CUDA 没装通


这些问题先在推理阶段解决,成本最低。

5. 第一个微调任务怎么选
别做“万能助手”。
你第一轮最适合做的是一个窄而重复的任务。
比如:


把客服对话整理成固定 JSON


把会议纪要整理成三点摘要


把用户问题分成几类


把原始文本改写成固定风格


第一次不建议做:


多轮复杂 Agent


需要强推理的任务


动态知识问答


又要格式稳定,又要复杂工具调用,又要长链条规划的任务


原因不是这些不重要,而是第一次应该先把“训练链路”跑通。

6. 数据怎么准备
这一节最关键。
训练翻车,通常不是因为你不会调学习率,而是因为数据本身有问题。
6.1 先定数据格式
如果你做的是对话任务,推荐用这种格式:

{

"messages": [

{

"role": "system",

"content": "你是一个售后工单整理助手,输出必须是 JSON。"

},

{

"role": "user",

"content": "客户说打印机一直卡纸,已经重启两次还是不行。"

},

{

"role": "assistant",

"content": "{\"问题类型\":\"硬件故障\",\"现象\":\"打印机卡纸\",\"已尝试操作\":[\"重启两次\"],\"建议\":\"检查进纸组件并安排售后检修\"}"

}

]

}


如果你做的是单轮任务,也可以用:

{

"instruction": "请把下面这段会议记录整理成三点摘要",

"input": "项目原计划本周三上线,但测试反馈还有两个高优先级问题没有解决……",

"output": "1. 上线时间需要顺延。\n2. 当前仍有两个高优先级问题未关闭。\n3. 需要测试和研发今天内确认修复计划。"

}


6.2 新手最该记住的 5 条数据规则


输出风格必须统一


字段命名必须统一


能不脑补就不脑补


训练样本要像真实输入,不要全是教科书例子


脏数据和边界案例一定要留一些


6.3 数据量怎么估
给一个很实用的粗标准:


50 到 100 条:够你跑通流程,验证格式


300 到 1000 条:可以开始看到明显效果


1000+:才开始有资格谈更稳定的泛化


如果这几百条数据很脏,还不如先回去修数据。
6.4 数据怎么切分
最常用的切法:


训练集:80%


验证集:10%


测试集:10%


第一次至少要有一份验证集。
没有验证集,你连过拟合是什么时候开始的都看不清。
6.5 LLaMA-Factory 需要的数据登记文件
在 data/ 目录里放你的数据文件,比如:

data/

my_sft.json

dataset_info.json


dataset_info.json 可以写成这样:

{

"my_sft": {

"file_name": "my_sft.json",

"formatting": "sharegpt"

}

}


如果你用的是 instruction/input/output 风格,登记方式会不一样。核心原则只有一个:数据格式要和你选择的模板、训练方式对应上。

7. 第一次训练怎么跑
这一节只讲一个最小可用方案:LoRA + SFT。
7.1 先建立项目目录
建议你的目录至少长这样:

project/

models/
标题: 【学习笔记】Trellis-一个强大的AI脚手架
作者: #Zimon
板块: #开发调优
编号: 1803719
帖子: https://linux.do/t/topic/1803719
时间: 2026-03-23 21:37:08
摘要:
从关于trellis的一点问题,望解答~继续讨论:
Trellis

此处引用官方文档中的一句话:AI 的能力像藤蔓一样生长——充满活力但四处蔓延。Trellis 是 AI 的脚手架,引导它沿着规范的路径前进。

仅以此贴记录学习Trellis框架的过程~
我的理念一直是:没有最好的框架,框架只是工具,最重要的是其中蕴涵的设计思想。
首先,我贴上我与框架开发大佬的一次简单的Q&A:

从我的问题可以了解到,我已经被网上各种技能包、框架等等强大的工具,信息轰炸到无从入手,也是从L站偶然发现Trellis这个框架,在帖子的下方收获了用户的一致好评,我便继续深入研究,发现确实是一个值得一用的框架,无论是企业团队还是个人,现将学习过程中整理的一些思路笔记分享与大家,不聊底层,只聊干货~
一、Trellis解决了什么,以及怎么解决的?

Lost in the middle(AI忽略规范):编写了Claude.md,5轮会话后就忘



Hook自动注入,每次对话都包含规范




修A坏B:修一个bug引入另一个



Ralph Loop:先思考→行动→验证




代码风格不一致:AI代码能跑但风格混乱



Spec系统:编码标准写一次,全员遵守




需求膨胀:要一个按钮,AI写9000行



Plan Agent:拒绝并拆分过大的需求




团队质量不均:每人AI写出不同风格



共享Spec库:一人优化,全员受益




跨会话失忆:新会话要重新解释上下文



会话持久化:AI跨会话记住项目





二、Hook三驾马车

相信使用过Claude Code的小伙伴们应该对这个概念不陌生。hook-钩子,我不由得联想到前端的生命周期钩子函数,讲的是一个“触发时机“的概念,而在Trellis中就有着三个”触发时机“



session-start



会话启动时注入上下文





读取内容
来源
用途




.trellis/.developer
开发者身份
知道"你是谁"


.trellis/workflow.md
工作流
标题: 话说何时内存和存储能降下来?
作者: #不务正业
板块: #前沿快讯
编号: 1803724
帖子: https://linux.do/t/topic/1803724
时间: 2026-03-23 21:38:09
摘要:
刚听说下个月内存和存储可能再涨价,叠加优惠可能跟现在的价格差不多,到底是不是啊?这波涨价到底是捂着呢还是产能真这么紧张啊?还要不要继续等?
标题: 怎么更改邮箱
作者: #周末
板块: #搞七捻三
编号: 1803725
帖子: https://linux.do/t/topic/1803725
时间: 2026-03-23 21:38:14
摘要:
最近着急用钱把注册这个账号的QQ连带游戏号一起卖了,今天想起来登录了一下L站,发现QQ邮箱还是原来的,请教一下,怎么更改邮箱呢
标题: chatGPT 手机端APP没法使用工作空间
作者: #tktk3927
板块: #搞七捻三
编号: 1803726
帖子: https://linux.do/t/topic/1803726
时间: 2026-03-23 21:38:23
摘要:
如图,我的工作空间今天到期了,折腾半天终于重新激活了,网页端也能用了,但是手机APP却无法使用了,就算退出登录也好,清空应用数据也好,哪怕删了重装重新登录还是这个问题,请问各位佬友有什么解决办法吗
标题: [开源小万] 手机部署 openclaw 没那么难
作者: #advent
板块: #开发调优
编号: 1803730
帖子: https://linux.do/t/topic/1803730
时间: 2026-03-23 21:40:02
摘要:
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:

我的帖子已经打上 开源推广 标签: 是
我的开源项目完整开源,无未开源部分: 是
我的开源项目已链接认可 LINUX DO 社区: 是
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是

以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出






【首发开源 】安卓 AI agent(vlm+cli)最强形态


开发调优



本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:

我的帖子已经打上 开源推广 标签: 是
我的开源项目完整开源,无未开源部分: 是
我的开源项目已链接认可 LINUX DO 社区: 是
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是

以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出


先来一小…



从这篇帖子继续!不了解我们软件的佬可以先去读一下
最近更了几个大大小小的版本,v0.0.9 Pre-release 已经支持快速部署 openclaw 啦~感谢佬友们支持!


github.com






GitHub - omnimind-ai/OpenOmniBot: This is community version of OmniMind Xiaowan app...

This is community version of OmniMind Xiaowan app || 或者你也可以叫她 OOB!她可以操作终端,也可以完成 Android 世界的广泛任务












教程如下:
标题: [开源] Codexlens --轻量多阶段向量搜索工具,支持本地模型及api,性能接近ace 90%
作者: #Catlog22
板块: #开发调优
编号: 1803734
帖子: https://linux.do/t/topic/1803734
时间: 2026-03-23 21:40:17
摘要:
本帖使用社区公益推广,符合推广要求。我申明并遵循社区要求的以下内容:

我的项目是免费使用的,无收费(变相收费、赞助)部分: 是
我的帖子已经打上 公益推广 标签: 是
我的项目属于个人项目,与公司或商业机构无关: 是
我的项目不存在QQ、TG等群组引流: 是
我的项目不存在非运营必要的网站引流: 是
我的项目不存在为他人推广、AFF: 是
我的项目无关联的商业项目: 是
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是

背景:
这个项目主要是为了验证我的偶尔冒出的想法,方法上与现有绝大数向量搜索有点点区别。项目原先集成在CCW(claude-code-workflow)中,在CCW(7.X)版本后独立出来,并做了方法精简和重构,方便大家使用。
特点:

支持本地模型和api接口
支持冷启动快速搜索
支持MCP协议

项目地址:
catlog22/codexlens-search: Lightweight semantic code search engine — 2-stage vector + FTS + RRF fusion + MCP server for Claude Code
主要方法:
多通道并行检索 + 融合 + 重排序。

Query → 意图检测 → 查询扩展(仅NL)

├─ Binary粗筛 (Hamming) → ANN精排 (cosine) → 交集 → vector结果

├─ FTS精确 (BM25) + FTS模糊 (prefix*)

├─ 符号图搜索 (seeded from vector/FTS top results)

└─ Ripgrep正则 (auto模式)

└─ RRF加权融合 → Cross-Encoder重排序 → top-k



检索通道




通道
原理
作用




Binary粗筛
float32→符号位量化→XOR+popcount Hamming距离
O(N)位运算快速缩小候选到 top-200


ANN精排
HNSW图 cosine近邻(USearch/FAISS/hnswlib)
从 top-200 候选中精排 top-50


FTS
SQLite FTS5, Porter stemming, BM25 + prefix*
关键词精确/模糊匹配


符号图
沿 import/call/inherit/type_ref 边双向遍历
发现结构相关但语义不相似的代码


Ripgrep
实时正则匹配
精确 pattern 搜索,无需索引




安装:

# Minimal — CPU inference (fastembed bundles onnxruntime CPU)

pip install codexlens-search

# Windows GPU — DirectML, any DirectX 12 GPU (NVIDIA/AMD/Intel)

pip install codexlens-search[directml]

# Linux/Windows NVIDIA GPU — CUDA (requires CUDA + cuDNN)

pip install codexlens-search[cuda]

# Auto-select — DirectML on Windows, CPU elsewhere

pip install codexlens-search[all]


模型下载(推荐384维度模型,有较好的体验或者有高质量的api接口)
# 查看已知模型及缓存状态
codexlens-search list-models
# 下载默认的 embed + reranker 模型
codexlens-search download-models
# 下载默认但指定 embed 模型
codexlens-search download-models --embed-model BAAI/bge-base-en-v1.5
# 下载任意单个模型(按 HuggingFace 名称)
codexlens-search download-model BAAI/bge-large-en-v1.5
# 删除缓存的模型
codexlens-search delete-model BAAI/bge-small-en-v1.5


#MCp配置
{
"mcpServers": {
"codexlens": {
"command": "codexlens-mcp",
"env": {
"CODEXLENS_EMBED_MODEL": "BAAI/bge-small-en-v1.5",
"CODEXLENS_EMBED_DIM": "384",
"CODEXLENS_DEVICE": "directml"
}
}
}
}


基于本地模型 BGE-small-en-v1.5 (384维度)VS ACE实测报告 (click for more details)