LinuxDo 新帖推送
167 subscribers
246K photos
305K links
Download Telegram
标题: 云服务器部署ai处理数据安全吗
作者: #stream
板块: #开发调优
编号: 1803680
帖子: https://linux.do/t/topic/1803680
时间: 2026-03-23 21:27:44
摘要:
求问佬们云服务器部署ai的话有什么推荐吗,如果上传一些文件的话安全吗
标题: 【无偿咨询】遥感专业(别的专业也可以来讨论)考研生或者保研生,大家可以来咨询和讨论不懂的地方
作者: #綾地 寧々
板块: #搞七捻三
编号: 1803682
帖子: https://linux.do/t/topic/1803682
时间: 2026-03-23 21:28:04
摘要:
【声明】:
1、无广告、无推广,不提供论坛以外的咨询方式;
2、本帖纯属为了丰富论坛内容,请勿在本帖打广告!
3、本帖仅供各位交流参考,具体还需自己多斟酌
去年在站里发了个帖子,为自己保研北师大做个纪念和分享
https://linux.do/t/topic/988838?u=law-of-cycles
本人是遥感专业的学生,保研也是去了这个方向,在这四年保研过程中也积累了一些经验,可以给有需要的同学絮叨絮叨。
因为去年保研之后就进组了,所以一直在给导师打工,最近快写完论文了,老师那边给毕业生忙活,正好有些空余,所以想着和有需要的人一起交流交流
大家可以把自己的问题或者相应的见解分享到帖子下面,共同讨论,我也可能顾不上回复,有可能回复比较慢,还请理解
Ciallo~(∠・ω< )⌒☆
标题: 凭借 OnlyFans 改变成人产业的 Leonid Radvinsky 去世,享年 43 岁
作者: #𝓵𝓮𝔃𝓲𝓼𝓱𝓮𝓷
板块: #前沿快讯
编号: 1803700
帖子: https://linux.do/t/topic/1803700
时间: 2026-03-23 21:30:55
摘要:
https://www.bloomberg.com/news/articles/2026-03-23/leonid-radvinsky-who-changed-porn-with-onlyfans-is-dead-at-43
标题: 把小模型调到顺手:经验分享
作者: #闲云野鹤
板块: #开发调优
编号: 1803704
帖子: https://linux.do/t/topic/1803704
时间: 2026-03-23 21:31:51
摘要:
各位佬们晚上好啊,本人最近开始迷恋上了炼丹,虽然过程中屡屡碰壁但也算稍微总结了一点经验所以就想分享一下
1. 先准备什么硬件和系统
最低建议


系统:Linux 或 WSL2


Python:3.10 或 3.11


显卡:NVIDIA


显存:8GB 起步


更实际的建议


8GB 到 12GB:优先 0.5B 到 1.5B 小模型,尽量短序列,必要时走更省显存的配置


12GB 到 24GB:1.5B 到 7B 的 LoRA/QLoRA 基本都能试


24GB+:可以训练更长上下文、更大的 batch,调参空间也大很多


强烈建议
如果你现在是原生 Windows,本地训练不是不行,但坑会更多。
更稳的顺序是:


Linux 服务器


WSL2


最后才是原生 Windows


原因很简单:训练栈大多数先照顾 Linux。

2. 先搞清楚:模型在哪里下载
大部分开源模型最常见的下载入口是 Hugging Face。
第一步:去哪里找模型
常用入口:


Hugging Face 模型页:https://huggingface.co/models


示例模型页:https://huggingface.co/Qwen/Qwen2.5-1.5B-Instruct


选模型时先看四样东西:


模型大小,比如 0.5B / 1.5B / 7B


是否是 Instruct 或 Chat 版本


许可证能不能用于你的场景


模型页有没有说明推荐模板、推荐推理方式


第二步:安装下载工具

pip install -U huggingface_hub


第三步:如果模型需要登录,就先登录
有些模型是公开的,有些模型需要你先在模型页点同意协议,再用 token 登录。

hf auth login


第四步:下载模型到本地

hf download Qwen/Qwen2.5-1.5B-Instruct --local-dir ./models/Qwen2.5-1.5B-Instruct


下载完成后,你本地一般会看到类似这样的目录:

models/

Qwen2.5-1.5B-Instruct/

config.json

generation_config.json

tokenizer.json

tokenizer_config.json

model-00001-of-0000x.safetensors

...


新手常犯的错


下成了 base 版,却拿去做对话任务


只看参数量,不看许可证


模型还没下完整就开始训练


把模型路径写错到上一级目录



3. 环境怎么配
这一节只讲最小可用环境,不讲复杂集群。
3.1 创建独立环境
如果你用 conda:

conda create -n llm-ft python=3.10 -y

conda activate llm-ft


如果你用 venv:

python -m venv .venv

source .venv/bin/activate


Windows PowerShell 下是:

python -m venv .venv

.venv\Scripts\Activate.ps1


3.2 安装 PyTorch
这一步不要照抄别人环境。
最稳的办法是去 PyTorch 官方安装页,根据你的系统、CUDA 版本和包管理器生成命令。
官方入口:

https://pytorch.org/get-started/locally/

举个例子,很多人会装成这样:

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118


但你自己的命令,应该以官方页面生成结果为准。
3.3 验证显卡和 CUDA 能不能用

nvidia-smi

python -c "import torch; print(torch.__version__); print(torch.cuda.is_available()); print(torch.version.cuda)"


你至少要看到:


nvidia-smi 能正常显示显卡


torch.cuda.is_available() 输出 True


如果这里没过,别继续装训练框架,先把 CUDA 环境问题解决掉。
3.4 安装训练工具
推荐新手先装 LLaMA-Factory。

git clone https://github.com/hiyouga/LLaMA-Factory.git

cd LLaMA-Factory

pip install -e ".[torch,metrics]"


如果你只想先看看界面能不能起来:

llamafactory-cli webui


浏览器能打开 WebUI,说明基础依赖大体没问题。

4. 第一次别先训练,先做推理自检
很多人一上来就训,结果连模型能不能正常加载都没确认。
第一次正确顺序应该是:


模型下载好


环境装好


先推理一次


再准备训练


最简单的自检方法
如果你用 LLaMA-Factory WebUI:


启动 llamafactory-cli webui


选中本地模型路径


选择对应模板,比如 Qwen 系列常用 qwen


先问一句简单的话,比如“你好,请用三句话介绍你自己”


如果模型能正常生成,说明:


模型目录没坏


tokenizer 没坏


模板大体匹配


PyTorch 和显卡至少能跑推理


为什么这一步重要
因为训练问题里有一大堆,其实根本不是训练问题,而是:


模型没下完整


模板不对


依赖冲突


CUDA 没装通


这些问题先在推理阶段解决,成本最低。

5. 第一个微调任务怎么选
别做“万能助手”。
你第一轮最适合做的是一个窄而重复的任务。
比如:


把客服对话整理成固定 JSON


把会议纪要整理成三点摘要


把用户问题分成几类


把原始文本改写成固定风格


第一次不建议做:


多轮复杂 Agent


需要强推理的任务


动态知识问答


又要格式稳定,又要复杂工具调用,又要长链条规划的任务


原因不是这些不重要,而是第一次应该先把“训练链路”跑通。

6. 数据怎么准备
这一节最关键。
训练翻车,通常不是因为你不会调学习率,而是因为数据本身有问题。
6.1 先定数据格式
如果你做的是对话任务,推荐用这种格式:

{

"messages": [

{

"role": "system",

"content": "你是一个售后工单整理助手,输出必须是 JSON。"

},

{

"role": "user",

"content": "客户说打印机一直卡纸,已经重启两次还是不行。"

},

{

"role": "assistant",

"content": "{\"问题类型\":\"硬件故障\",\"现象\":\"打印机卡纸\",\"已尝试操作\":[\"重启两次\"],\"建议\":\"检查进纸组件并安排售后检修\"}"

}

]

}


如果你做的是单轮任务,也可以用:

{

"instruction": "请把下面这段会议记录整理成三点摘要",

"input": "项目原计划本周三上线,但测试反馈还有两个高优先级问题没有解决……",

"output": "1. 上线时间需要顺延。\n2. 当前仍有两个高优先级问题未关闭。\n3. 需要测试和研发今天内确认修复计划。"

}


6.2 新手最该记住的 5 条数据规则


输出风格必须统一


字段命名必须统一


能不脑补就不脑补


训练样本要像真实输入,不要全是教科书例子


脏数据和边界案例一定要留一些


6.3 数据量怎么估
给一个很实用的粗标准:


50 到 100 条:够你跑通流程,验证格式


300 到 1000 条:可以开始看到明显效果


1000+:才开始有资格谈更稳定的泛化


如果这几百条数据很脏,还不如先回去修数据。
6.4 数据怎么切分
最常用的切法:


训练集:80%


验证集:10%


测试集:10%


第一次至少要有一份验证集。
没有验证集,你连过拟合是什么时候开始的都看不清。
6.5 LLaMA-Factory 需要的数据登记文件
在 data/ 目录里放你的数据文件,比如:

data/

my_sft.json

dataset_info.json


dataset_info.json 可以写成这样:

{

"my_sft": {

"file_name": "my_sft.json",

"formatting": "sharegpt"

}

}


如果你用的是 instruction/input/output 风格,登记方式会不一样。核心原则只有一个:数据格式要和你选择的模板、训练方式对应上。

7. 第一次训练怎么跑
这一节只讲一个最小可用方案:LoRA + SFT。
7.1 先建立项目目录
建议你的目录至少长这样:

project/

models/
标题: 【学习笔记】Trellis-一个强大的AI脚手架
作者: #Zimon
板块: #开发调优
编号: 1803719
帖子: https://linux.do/t/topic/1803719
时间: 2026-03-23 21:37:08
摘要:
从关于trellis的一点问题,望解答~继续讨论:
Trellis

此处引用官方文档中的一句话:AI 的能力像藤蔓一样生长——充满活力但四处蔓延。Trellis 是 AI 的脚手架,引导它沿着规范的路径前进。

仅以此贴记录学习Trellis框架的过程~
我的理念一直是:没有最好的框架,框架只是工具,最重要的是其中蕴涵的设计思想。
首先,我贴上我与框架开发大佬的一次简单的Q&A:

从我的问题可以了解到,我已经被网上各种技能包、框架等等强大的工具,信息轰炸到无从入手,也是从L站偶然发现Trellis这个框架,在帖子的下方收获了用户的一致好评,我便继续深入研究,发现确实是一个值得一用的框架,无论是企业团队还是个人,现将学习过程中整理的一些思路笔记分享与大家,不聊底层,只聊干货~
一、Trellis解决了什么,以及怎么解决的?

Lost in the middle(AI忽略规范):编写了Claude.md,5轮会话后就忘



Hook自动注入,每次对话都包含规范




修A坏B:修一个bug引入另一个



Ralph Loop:先思考→行动→验证




代码风格不一致:AI代码能跑但风格混乱



Spec系统:编码标准写一次,全员遵守




需求膨胀:要一个按钮,AI写9000行



Plan Agent:拒绝并拆分过大的需求




团队质量不均:每人AI写出不同风格



共享Spec库:一人优化,全员受益




跨会话失忆:新会话要重新解释上下文



会话持久化:AI跨会话记住项目





二、Hook三驾马车

相信使用过Claude Code的小伙伴们应该对这个概念不陌生。hook-钩子,我不由得联想到前端的生命周期钩子函数,讲的是一个“触发时机“的概念,而在Trellis中就有着三个”触发时机“



session-start



会话启动时注入上下文





读取内容
来源
用途




.trellis/.developer
开发者身份
知道"你是谁"


.trellis/workflow.md
工作流
标题: 话说何时内存和存储能降下来?
作者: #不务正业
板块: #前沿快讯
编号: 1803724
帖子: https://linux.do/t/topic/1803724
时间: 2026-03-23 21:38:09
摘要:
刚听说下个月内存和存储可能再涨价,叠加优惠可能跟现在的价格差不多,到底是不是啊?这波涨价到底是捂着呢还是产能真这么紧张啊?还要不要继续等?
标题: 怎么更改邮箱
作者: #周末
板块: #搞七捻三
编号: 1803725
帖子: https://linux.do/t/topic/1803725
时间: 2026-03-23 21:38:14
摘要:
最近着急用钱把注册这个账号的QQ连带游戏号一起卖了,今天想起来登录了一下L站,发现QQ邮箱还是原来的,请教一下,怎么更改邮箱呢
标题: chatGPT 手机端APP没法使用工作空间
作者: #tktk3927
板块: #搞七捻三
编号: 1803726
帖子: https://linux.do/t/topic/1803726
时间: 2026-03-23 21:38:23
摘要:
如图,我的工作空间今天到期了,折腾半天终于重新激活了,网页端也能用了,但是手机APP却无法使用了,就算退出登录也好,清空应用数据也好,哪怕删了重装重新登录还是这个问题,请问各位佬友有什么解决办法吗
标题: [开源小万] 手机部署 openclaw 没那么难
作者: #advent
板块: #开发调优
编号: 1803730
帖子: https://linux.do/t/topic/1803730
时间: 2026-03-23 21:40:02
摘要:
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:

我的帖子已经打上 开源推广 标签: 是
我的开源项目完整开源,无未开源部分: 是
我的开源项目已链接认可 LINUX DO 社区: 是
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是

以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出






【首发开源 】安卓 AI agent(vlm+cli)最强形态


开发调优



本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:

我的帖子已经打上 开源推广 标签: 是
我的开源项目完整开源,无未开源部分: 是
我的开源项目已链接认可 LINUX DO 社区: 是
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是

以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出


先来一小…



从这篇帖子继续!不了解我们软件的佬可以先去读一下
最近更了几个大大小小的版本,v0.0.9 Pre-release 已经支持快速部署 openclaw 啦~感谢佬友们支持!


github.com






GitHub - omnimind-ai/OpenOmniBot: This is community version of OmniMind Xiaowan app...

This is community version of OmniMind Xiaowan app || 或者你也可以叫她 OOB!她可以操作终端,也可以完成 Android 世界的广泛任务












教程如下:
标题: [开源] Codexlens --轻量多阶段向量搜索工具,支持本地模型及api,性能接近ace 90%
作者: #Catlog22
板块: #开发调优
编号: 1803734
帖子: https://linux.do/t/topic/1803734
时间: 2026-03-23 21:40:17
摘要:
本帖使用社区公益推广,符合推广要求。我申明并遵循社区要求的以下内容:

我的项目是免费使用的,无收费(变相收费、赞助)部分: 是
我的帖子已经打上 公益推广 标签: 是
我的项目属于个人项目,与公司或商业机构无关: 是
我的项目不存在QQ、TG等群组引流: 是
我的项目不存在非运营必要的网站引流: 是
我的项目不存在为他人推广、AFF: 是
我的项目无关联的商业项目: 是
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是

背景:
这个项目主要是为了验证我的偶尔冒出的想法,方法上与现有绝大数向量搜索有点点区别。项目原先集成在CCW(claude-code-workflow)中,在CCW(7.X)版本后独立出来,并做了方法精简和重构,方便大家使用。
特点:

支持本地模型和api接口
支持冷启动快速搜索
支持MCP协议

项目地址:
catlog22/codexlens-search: Lightweight semantic code search engine — 2-stage vector + FTS + RRF fusion + MCP server for Claude Code
主要方法:
多通道并行检索 + 融合 + 重排序。

Query → 意图检测 → 查询扩展(仅NL)

├─ Binary粗筛 (Hamming) → ANN精排 (cosine) → 交集 → vector结果

├─ FTS精确 (BM25) + FTS模糊 (prefix*)

├─ 符号图搜索 (seeded from vector/FTS top results)

└─ Ripgrep正则 (auto模式)

└─ RRF加权融合 → Cross-Encoder重排序 → top-k



检索通道




通道
原理
作用




Binary粗筛
float32→符号位量化→XOR+popcount Hamming距离
O(N)位运算快速缩小候选到 top-200


ANN精排
HNSW图 cosine近邻(USearch/FAISS/hnswlib)
从 top-200 候选中精排 top-50


FTS
SQLite FTS5, Porter stemming, BM25 + prefix*
关键词精确/模糊匹配


符号图
沿 import/call/inherit/type_ref 边双向遍历
发现结构相关但语义不相似的代码


Ripgrep
实时正则匹配
精确 pattern 搜索,无需索引




安装:

# Minimal — CPU inference (fastembed bundles onnxruntime CPU)

pip install codexlens-search

# Windows GPU — DirectML, any DirectX 12 GPU (NVIDIA/AMD/Intel)

pip install codexlens-search[directml]

# Linux/Windows NVIDIA GPU — CUDA (requires CUDA + cuDNN)

pip install codexlens-search[cuda]

# Auto-select — DirectML on Windows, CPU elsewhere

pip install codexlens-search[all]


模型下载(推荐384维度模型,有较好的体验或者有高质量的api接口)
# 查看已知模型及缓存状态
codexlens-search list-models
# 下载默认的 embed + reranker 模型
codexlens-search download-models
# 下载默认但指定 embed 模型
codexlens-search download-models --embed-model BAAI/bge-base-en-v1.5
# 下载任意单个模型(按 HuggingFace 名称)
codexlens-search download-model BAAI/bge-large-en-v1.5
# 删除缓存的模型
codexlens-search delete-model BAAI/bge-small-en-v1.5


#MCp配置
{
"mcpServers": {
"codexlens": {
"command": "codexlens-mcp",
"env": {
"CODEXLENS_EMBED_MODEL": "BAAI/bge-small-en-v1.5",
"CODEXLENS_EMBED_DIM": "384",
"CODEXLENS_DEVICE": "directml"
}
}
}
}


基于本地模型 BGE-small-en-v1.5 (384维度)VS ACE实测报告 (click for more details)
标题: 分享一下 个人股市分析项目 StockNova 开发历程 供大家参考
作者: #Feycn
板块: #开发调优
编号: 1803735
帖子: https://linux.do/t/topic/1803735
时间: 2026-03-23 21:40:56
摘要:
集成过程
第一步:搭建基础骨架(来自 stock-mcp)
从 huweihua123/stock-mcp 项目拿到了 FastAPI + Docker Compose + Redis 的整体架构。主要改造:

去掉了 yFinance(国内网络不稳定),A股数据全部走 Tushare 6000积分
保留 AKShare 作为备用降级方案
沿用了宏观数据接口设计,用 AKShare 实现 GDP/CPI/PPI/PMI 等数据获取
保留了 Redis 缓存策略(交易时段60秒,非交易时段300秒)

第二步:移植分析引擎(来自 stock-scanner-mcp)
从 wbsu2003/stock-scanner-mcp 直接移植了三个核心服务文件:
backend/app/services/
├── stock_data_provider.py ← 数据获取(支持5个市场)
├── technical_indicator.py ← 技术指标(MA/RSI/MACD/布林带/ATR)
└── stock_scorer.py ← 评分系统(均线25分+RSI25分+MACD20分+成交量30分)

这部分几乎是即插即用,AKShare 的接口兼容性很好。
第三步:自研市场总览模块
这部分是自己写的,利用 Tushare 6000积分的特色数据:

大盘指数追踪(上证/深证/创业板/科创50)
概念板块排行 + 趋势追踪(均线分类系统)
资金流向分析
龙虎榜 + 融资融券
北向资金
SQLite 本地缓存(缓存3个月历史数据,避免重复调用API)

第四步:新闻聚合 v2(借鉴 StockAgent)
参考 qilihei/StockAgent 的架构思路,用 httpx 实现了三个新闻采集器:
backend/app/services/news_collectors/
├── base.py ← 采集器基类 + NewsItem 统一数据结构
├── cls_collector.py ←
标题: gpt注册流程问题,现在都要手机号吗,佬们是如何解决的呢
作者: #Evan
板块: #开发调优
编号: 1803737
帖子: https://linux.do/t/topic/1803737
时间: 2026-03-23 21:41:25
摘要:
OpenAI 在 create_account 成功后返回 continue_url=https://auth.openai.com/add-phone,请教一下佬们如何解决这个问题呢,是不是我流程不对?
标题: 草稿箱001
作者: #Yuzx
板块: #文档共建
编号: 1803749
帖子: https://linux.do/t/topic/1803749
时间: 2026-03-23 21:44:13
摘要:
(话题已被作者删除)
标题: 佬,codex 报错We're currently experiencing high demand, which may cause temporary errors.
作者: #wpf
板块: #开发调优
编号: 1803751
帖子: https://linux.do/t/topic/1803751
时间: 2026-03-23 21:44:31
摘要:
请问这是为什么。刚刚还好好的,现在突然报错。什么模型都不行。
标题: github coplit 调用次数扩展MCP工具
作者: #CARk
板块: #开发调优
编号: 1803753
帖子: https://linux.do/t/topic/1803753
时间: 2026-03-23 21:44:44
摘要:
github coplit 调用次数扩展MCP工具
0x1
最近发现github coplit可以调用opus,但是只有300次的额度,调用1次opus还得消耗3次额度。所以写了一个MCP,让LLM在一次会话中工作:)
0x2
这个项目会在本机启动一个 MCP 服务,并同时提供一个网页输入面板。
核心用途:
1、Codex 在一次长会话里调用 MCP 工具
2、当缺少人工输入时,弹出一个网页填写入口
3、用户在网页中提交内容后,工作流继续执行
运行项目后会在本地(可以指定为0.0.0.0远程调用)的4317端口(可以指定端口)开启一个web以及对应的服务。对于用codex cil 这里提供有完整的部署工具。
只需要在第一次对话的时候要求AI完成任务后直接调用这个工具即可完成重复调用(后续发送通过这个MCP工具发送的提示词会自动拼接要求调用工具的Prompt)
0x3
求求佬友们提Issues,没有发github怕被制裁(>..<)。
我用夸克网盘分享了「github-coplit-cark.zip」,点击链接即可保存。打开「夸克APP」,无需下载在线播放视频,畅享原画5倍速,支持电视投屏。 链接:https://pan.quark.cn/s/a0d73659f4fe 提取码:sL8j
标题: Hotaru公益站又出问题了?
作者: #無名 山河
板块: #搞七捻三
编号: 1803761
帖子: https://linux.do/t/topic/1803761
时间: 2026-03-23 21:46:20
摘要:
咋提示用户not active
标题: GPT不是很友善啊
作者: #pie z
板块: #搞七捻三
编号: 1803764
帖子: https://linux.do/t/topic/1803764
时间: 2026-03-23 21:46:34
摘要:
标题: 新人报道,抽两个GptTeam车位作为见面礼(无质保)
作者: #xa5fun
板块: #福利羊毛
编号: 1803776
帖子: https://linux.do/t/topic/1803776
时间: 2026-03-23 21:49:00
摘要:
顺便熟悉下抽奖流程 
奖品详情:
ChatGpt Bussiness成员 X2
活动时间:
截止时间:Mon, Mar 23, 2026 11:30 PM CST
参与方式:
在本帖下回复任意内容
抽奖规则:
每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。
注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
标题: 佬们现在用什么 vibecoding?
作者: #wapmxls
板块: #搞七捻三
编号: 1803794
帖子: https://linux.do/t/topic/1803794
时间: 2026-03-23 21:52:05
摘要:
比如 cursor windsurf 反重力 中转站 codex kiro 还是国内的呢?
慢慢都收紧了,能低价用的渠道越来越少了
现在好像只有 codex 合适了吧