标题: 云服务器部署ai处理数据安全吗
作者: #stream
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803680
时间: 2026-03-23 21:27:44
摘要:
作者: #stream
板块: #开发调优
编号:
1803680帖子: https://linux.do/t/topic/1803680
时间: 2026-03-23 21:27:44
摘要:
求问佬们云服务器部署ai的话有什么推荐吗,如果上传一些文件的话安全吗
标题: 【无偿咨询】遥感专业(别的专业也可以来讨论)考研生或者保研生,大家可以来咨询和讨论不懂的地方
作者: #綾地 寧々
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1803682
时间: 2026-03-23 21:28:04
摘要:
作者: #綾地 寧々
板块: #搞七捻三
编号:
1803682帖子: https://linux.do/t/topic/1803682
时间: 2026-03-23 21:28:04
摘要:
【声明】:
1、无广告、无推广,不提供论坛以外的咨询方式;
2、本帖纯属为了丰富论坛内容,请勿在本帖打广告!
3、本帖仅供各位交流参考,具体还需自己多斟酌
去年在站里发了个帖子,为自己保研北师大做个纪念和分享
https://linux.do/t/topic/988838?u=law-of-cycles
本人是遥感专业的学生,保研也是去了这个方向,在这四年保研过程中也积累了一些经验,可以给有需要的同学絮叨絮叨。
因为去年保研之后就进组了,所以一直在给导师打工,最近快写完论文了,老师那边给毕业生忙活,正好有些空余,所以想着和有需要的人一起交流交流
大家可以把自己的问题或者相应的见解分享到帖子下面,共同讨论,我也可能顾不上回复,有可能回复比较慢,还请理解
Ciallo~(∠・ω< )⌒☆
标题: 凭借 OnlyFans 改变成人产业的 Leonid Radvinsky 去世,享年 43 岁
作者: #𝓵𝓮𝔃𝓲𝓼𝓱𝓮𝓷
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/1803700
时间: 2026-03-23 21:30:55
摘要:
作者: #𝓵𝓮𝔃𝓲𝓼𝓱𝓮𝓷
板块: #前沿快讯
编号:
1803700帖子: https://linux.do/t/topic/1803700
时间: 2026-03-23 21:30:55
摘要:
https://www.bloomberg.com/news/articles/2026-03-23/leonid-radvinsky-who-changed-porn-with-onlyfans-is-dead-at-43
标题: 把小模型调到顺手:经验分享
作者: #闲云野鹤
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803704
时间: 2026-03-23 21:31:51
摘要:
作者: #闲云野鹤
板块: #开发调优
编号:
1803704帖子: https://linux.do/t/topic/1803704
时间: 2026-03-23 21:31:51
摘要:
各位佬们晚上好啊,本人最近开始迷恋上了炼丹,虽然过程中屡屡碰壁但也算稍微总结了一点经验所以就想分享一下
1. 先准备什么硬件和系统
最低建议
系统:Linux 或 WSL2
Python:3.10 或 3.11
显卡:NVIDIA
显存:8GB 起步
更实际的建议
8GB 到 12GB:优先 0.5B 到 1.5B 小模型,尽量短序列,必要时走更省显存的配置
12GB 到 24GB:1.5B 到 7B 的 LoRA/QLoRA 基本都能试
24GB+:可以训练更长上下文、更大的 batch,调参空间也大很多
强烈建议
如果你现在是原生 Windows,本地训练不是不行,但坑会更多。
更稳的顺序是:
Linux 服务器
WSL2
最后才是原生 Windows
原因很简单:训练栈大多数先照顾 Linux。
2. 先搞清楚:模型在哪里下载
大部分开源模型最常见的下载入口是 Hugging Face。
第一步:去哪里找模型
常用入口:
Hugging Face 模型页:https://huggingface.co/models
示例模型页:https://huggingface.co/Qwen/Qwen2.5-1.5B-Instruct
选模型时先看四样东西:
模型大小,比如 0.5B / 1.5B / 7B
是否是 Instruct 或 Chat 版本
许可证能不能用于你的场景
模型页有没有说明推荐模板、推荐推理方式
第二步:安装下载工具
pip install -U huggingface_hub
第三步:如果模型需要登录,就先登录
有些模型是公开的,有些模型需要你先在模型页点同意协议,再用 token 登录。
hf auth login
第四步:下载模型到本地
hf download Qwen/Qwen2.5-1.5B-Instruct --local-dir ./models/Qwen2.5-1.5B-Instruct
下载完成后,你本地一般会看到类似这样的目录:
models/
Qwen2.5-1.5B-Instruct/
config.json
generation_config.json
tokenizer.json
tokenizer_config.json
model-00001-of-0000x.safetensors
...
新手常犯的错
下成了 base 版,却拿去做对话任务
只看参数量,不看许可证
模型还没下完整就开始训练
把模型路径写错到上一级目录
3. 环境怎么配
这一节只讲最小可用环境,不讲复杂集群。
3.1 创建独立环境
如果你用 conda:
conda create -n llm-ft python=3.10 -y
conda activate llm-ft
如果你用 venv:
python -m venv .venv
source .venv/bin/activate
Windows PowerShell 下是:
python -m venv .venv
.venv\Scripts\Activate.ps1
3.2 安装 PyTorch
这一步不要照抄别人环境。
最稳的办法是去 PyTorch 官方安装页,根据你的系统、CUDA 版本和包管理器生成命令。
官方入口:
https://pytorch.org/get-started/locally/
举个例子,很多人会装成这样:
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
但你自己的命令,应该以官方页面生成结果为准。
3.3 验证显卡和 CUDA 能不能用
nvidia-smi
python -c "import torch; print(torch.__version__); print(torch.cuda.is_available()); print(torch.version.cuda)"
你至少要看到:
nvidia-smi 能正常显示显卡
torch.cuda.is_available() 输出 True
如果这里没过,别继续装训练框架,先把 CUDA 环境问题解决掉。
3.4 安装训练工具
推荐新手先装 LLaMA-Factory。
git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"
如果你只想先看看界面能不能起来:
llamafactory-cli webui
浏览器能打开 WebUI,说明基础依赖大体没问题。
4. 第一次别先训练,先做推理自检
很多人一上来就训,结果连模型能不能正常加载都没确认。
第一次正确顺序应该是:
模型下载好
环境装好
先推理一次
再准备训练
最简单的自检方法
如果你用 LLaMA-Factory WebUI:
启动 llamafactory-cli webui
选中本地模型路径
选择对应模板,比如 Qwen 系列常用 qwen
先问一句简单的话,比如“你好,请用三句话介绍你自己”
如果模型能正常生成,说明:
模型目录没坏
tokenizer 没坏
模板大体匹配
PyTorch 和显卡至少能跑推理
为什么这一步重要
因为训练问题里有一大堆,其实根本不是训练问题,而是:
模型没下完整
模板不对
依赖冲突
CUDA 没装通
这些问题先在推理阶段解决,成本最低。
5. 第一个微调任务怎么选
别做“万能助手”。
你第一轮最适合做的是一个窄而重复的任务。
比如:
把客服对话整理成固定 JSON
把会议纪要整理成三点摘要
把用户问题分成几类
把原始文本改写成固定风格
第一次不建议做:
多轮复杂 Agent
需要强推理的任务
动态知识问答
又要格式稳定,又要复杂工具调用,又要长链条规划的任务
原因不是这些不重要,而是第一次应该先把“训练链路”跑通。
6. 数据怎么准备
这一节最关键。
训练翻车,通常不是因为你不会调学习率,而是因为数据本身有问题。
6.1 先定数据格式
如果你做的是对话任务,推荐用这种格式:
{
"messages": [
{
"role": "system",
"content": "你是一个售后工单整理助手,输出必须是 JSON。"
},
{
"role": "user",
"content": "客户说打印机一直卡纸,已经重启两次还是不行。"
},
{
"role": "assistant",
"content": "{\"问题类型\":\"硬件故障\",\"现象\":\"打印机卡纸\",\"已尝试操作\":[\"重启两次\"],\"建议\":\"检查进纸组件并安排售后检修\"}"
}
]
}
如果你做的是单轮任务,也可以用:
{
"instruction": "请把下面这段会议记录整理成三点摘要",
"input": "项目原计划本周三上线,但测试反馈还有两个高优先级问题没有解决……",
"output": "1. 上线时间需要顺延。\n2. 当前仍有两个高优先级问题未关闭。\n3. 需要测试和研发今天内确认修复计划。"
}
6.2 新手最该记住的 5 条数据规则
输出风格必须统一
字段命名必须统一
能不脑补就不脑补
训练样本要像真实输入,不要全是教科书例子
脏数据和边界案例一定要留一些
6.3 数据量怎么估
给一个很实用的粗标准:
50 到 100 条:够你跑通流程,验证格式
300 到 1000 条:可以开始看到明显效果
1000+:才开始有资格谈更稳定的泛化
如果这几百条数据很脏,还不如先回去修数据。
6.4 数据怎么切分
最常用的切法:
训练集:80%
验证集:10%
测试集:10%
第一次至少要有一份验证集。
没有验证集,你连过拟合是什么时候开始的都看不清。
6.5 LLaMA-Factory 需要的数据登记文件
在 data/ 目录里放你的数据文件,比如:
data/
my_sft.json
dataset_info.json
dataset_info.json 可以写成这样:
{
"my_sft": {
"file_name": "my_sft.json",
"formatting": "sharegpt"
}
}
如果你用的是 instruction/input/output 风格,登记方式会不一样。核心原则只有一个:数据格式要和你选择的模板、训练方式对应上。
7. 第一次训练怎么跑
这一节只讲一个最小可用方案:LoRA + SFT。
7.1 先建立项目目录
建议你的目录至少长这样:
project/
models/
标题: 【学习笔记】Trellis-一个强大的AI脚手架
作者: #Zimon
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803719
时间: 2026-03-23 21:37:08
摘要:
作者: #Zimon
板块: #开发调优
编号:
1803719帖子: https://linux.do/t/topic/1803719
时间: 2026-03-23 21:37:08
摘要:
从关于trellis的一点问题,望解答~继续讨论:
Trellis
此处引用官方文档中的一句话:AI 的能力像藤蔓一样生长——充满活力但四处蔓延。Trellis 是 AI 的脚手架,引导它沿着规范的路径前进。
仅以此贴记录学习Trellis框架的过程~
我的理念一直是:没有最好的框架,框架只是工具,最重要的是其中蕴涵的设计思想。
首先,我贴上我与框架开发大佬的一次简单的Q&A:
从我的问题可以了解到,我已经被网上各种技能包、框架等等强大的工具,信息轰炸到无从入手,也是从L站偶然发现Trellis这个框架,在帖子的下方收获了用户的一致好评,我便继续深入研究,发现确实是一个值得一用的框架,无论是企业团队还是个人,现将学习过程中整理的一些思路笔记分享与大家,不聊底层,只聊干货~
一、Trellis解决了什么,以及怎么解决的?
Lost in the middle(AI忽略规范):编写了Claude.md,5轮会话后就忘
Hook自动注入,每次对话都包含规范
修A坏B:修一个bug引入另一个
Ralph Loop:先思考→行动→验证
代码风格不一致:AI代码能跑但风格混乱
Spec系统:编码标准写一次,全员遵守
需求膨胀:要一个按钮,AI写9000行
Plan Agent:拒绝并拆分过大的需求
团队质量不均:每人AI写出不同风格
共享Spec库:一人优化,全员受益
跨会话失忆:新会话要重新解释上下文
会话持久化:AI跨会话记住项目
二、Hook三驾马车
相信使用过Claude Code的小伙伴们应该对这个概念不陌生。hook-钩子,我不由得联想到前端的生命周期钩子函数,讲的是一个“触发时机“的概念,而在Trellis中就有着三个”触发时机“
session-start
会话启动时注入上下文
读取内容
来源
用途
.trellis/.developer
开发者身份
知道"你是谁"
.trellis/workflow.md
工作流
标题: 话说何时内存和存储能降下来?
作者: #不务正业
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/1803724
时间: 2026-03-23 21:38:09
摘要:
作者: #不务正业
板块: #前沿快讯
编号:
1803724帖子: https://linux.do/t/topic/1803724
时间: 2026-03-23 21:38:09
摘要:
刚听说下个月内存和存储可能再涨价,叠加优惠可能跟现在的价格差不多,到底是不是啊?这波涨价到底是捂着呢还是产能真这么紧张啊?还要不要继续等?
标题: 怎么更改邮箱
作者: #周末
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1803725
时间: 2026-03-23 21:38:14
摘要:
作者: #周末
板块: #搞七捻三
编号:
1803725帖子: https://linux.do/t/topic/1803725
时间: 2026-03-23 21:38:14
摘要:
最近着急用钱把注册这个账号的QQ连带游戏号一起卖了,今天想起来登录了一下L站,发现QQ邮箱还是原来的,请教一下,怎么更改邮箱呢
标题: chatGPT 手机端APP没法使用工作空间
作者: #tktk3927
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1803726
时间: 2026-03-23 21:38:23
摘要:
作者: #tktk3927
板块: #搞七捻三
编号:
1803726帖子: https://linux.do/t/topic/1803726
时间: 2026-03-23 21:38:23
摘要:
如图,我的工作空间今天到期了,折腾半天终于重新激活了,网页端也能用了,但是手机APP却无法使用了,就算退出登录也好,清空应用数据也好,哪怕删了重装重新登录还是这个问题,请问各位佬友有什么解决办法吗
标题: [开源小万] 手机部署 openclaw 没那么难
作者: #advent
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803730
时间: 2026-03-23 21:40:02
摘要:
作者: #advent
板块: #开发调优
编号:
1803730帖子: https://linux.do/t/topic/1803730
时间: 2026-03-23 21:40:02
摘要:
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
我的帖子已经打上 开源推广 标签: 是
我的开源项目完整开源,无未开源部分: 是
我的开源项目已链接认可 LINUX DO 社区: 是
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
【首发开源 】安卓 AI agent(vlm+cli)最强形态
开发调优
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
我的帖子已经打上 开源推广 标签: 是
我的开源项目完整开源,无未开源部分: 是
我的开源项目已链接认可 LINUX DO 社区: 是
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
先来一小…
从这篇帖子继续!不了解我们软件的佬可以先去读一下
最近更了几个大大小小的版本,v0.0.9 Pre-release 已经支持快速部署 openclaw 啦~感谢佬友们支持!
github.com
GitHub - omnimind-ai/OpenOmniBot: This is community version of OmniMind Xiaowan app...
This is community version of OmniMind Xiaowan app || 或者你也可以叫她 OOB!她可以操作终端,也可以完成 Android 世界的广泛任务
教程如下:
标题: [开源] Codexlens --轻量多阶段向量搜索工具,支持本地模型及api,性能接近ace 90%
作者: #Catlog22
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803734
时间: 2026-03-23 21:40:17
摘要:
作者: #Catlog22
板块: #开发调优
编号:
1803734帖子: https://linux.do/t/topic/1803734
时间: 2026-03-23 21:40:17
摘要:
本帖使用社区公益推广,符合推广要求。我申明并遵循社区要求的以下内容:
我的项目是免费使用的,无收费(变相收费、赞助)部分: 是
我的帖子已经打上 公益推广 标签: 是
我的项目属于个人项目,与公司或商业机构无关: 是
我的项目不存在QQ、TG等群组引流: 是
我的项目不存在非运营必要的网站引流: 是
我的项目不存在为他人推广、AFF: 是
我的项目无关联的商业项目: 是
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是
背景:
这个项目主要是为了验证我的偶尔冒出的想法,方法上与现有绝大数向量搜索有点点区别。项目原先集成在CCW(claude-code-workflow)中,在CCW(7.X)版本后独立出来,并做了方法精简和重构,方便大家使用。
特点:
支持本地模型和api接口
支持冷启动快速搜索
支持MCP协议
项目地址:
catlog22/codexlens-search: Lightweight semantic code search engine — 2-stage vector + FTS + RRF fusion + MCP server for Claude Code
主要方法:
多通道并行检索 + 融合 + 重排序。
Query → 意图检测 → 查询扩展(仅NL)
├─ Binary粗筛 (Hamming) → ANN精排 (cosine) → 交集 → vector结果
├─ FTS精确 (BM25) + FTS模糊 (prefix*)
├─ 符号图搜索 (seeded from vector/FTS top results)
└─ Ripgrep正则 (auto模式)
└─ RRF加权融合 → Cross-Encoder重排序 → top-k
检索通道
通道
原理
作用
Binary粗筛
float32→符号位量化→XOR+popcount Hamming距离
O(N)位运算快速缩小候选到 top-200
ANN精排
HNSW图 cosine近邻(USearch/FAISS/hnswlib)
从 top-200 候选中精排 top-50
FTS
SQLite FTS5, Porter stemming, BM25 + prefix*
关键词精确/模糊匹配
符号图
沿 import/call/inherit/type_ref 边双向遍历
发现结构相关但语义不相似的代码
Ripgrep
实时正则匹配
精确 pattern 搜索,无需索引
安装:
# Minimal — CPU inference (fastembed bundles onnxruntime CPU)
pip install codexlens-search
# Windows GPU — DirectML, any DirectX 12 GPU (NVIDIA/AMD/Intel)
pip install codexlens-search[directml]
# Linux/Windows NVIDIA GPU — CUDA (requires CUDA + cuDNN)
pip install codexlens-search[cuda]
# Auto-select — DirectML on Windows, CPU elsewhere
pip install codexlens-search[all]
模型下载(推荐384维度模型,有较好的体验或者有高质量的api接口)
# 查看已知模型及缓存状态
codexlens-search list-models
# 下载默认的 embed + reranker 模型
codexlens-search download-models
# 下载默认但指定 embed 模型
codexlens-search download-models --embed-model BAAI/bge-base-en-v1.5
# 下载任意单个模型(按 HuggingFace 名称)
codexlens-search download-model BAAI/bge-large-en-v1.5
# 删除缓存的模型
codexlens-search delete-model BAAI/bge-small-en-v1.5
#MCp配置
{
"mcpServers": {
"codexlens": {
"command": "codexlens-mcp",
"env": {
"CODEXLENS_EMBED_MODEL": "BAAI/bge-small-en-v1.5",
"CODEXLENS_EMBED_DIM": "384",
"CODEXLENS_DEVICE": "directml"
}
}
}
}
基于本地模型 BGE-small-en-v1.5 (384维度)VS ACE实测报告 (click for more details)
标题: 分享一下 个人股市分析项目 StockNova 开发历程 供大家参考
作者: #Feycn
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803735
时间: 2026-03-23 21:40:56
摘要:
作者: #Feycn
板块: #开发调优
编号:
1803735帖子: https://linux.do/t/topic/1803735
时间: 2026-03-23 21:40:56
摘要:
集成过程
第一步:搭建基础骨架(来自 stock-mcp)
从 huweihua123/stock-mcp 项目拿到了 FastAPI + Docker Compose + Redis 的整体架构。主要改造:
去掉了 yFinance(国内网络不稳定),A股数据全部走 Tushare 6000积分
保留 AKShare 作为备用降级方案
沿用了宏观数据接口设计,用 AKShare 实现 GDP/CPI/PPI/PMI 等数据获取
保留了 Redis 缓存策略(交易时段60秒,非交易时段300秒)
第二步:移植分析引擎(来自 stock-scanner-mcp)
从 wbsu2003/stock-scanner-mcp 直接移植了三个核心服务文件:
backend/app/services/
├── stock_data_provider.py ← 数据获取(支持5个市场)
├── technical_indicator.py ← 技术指标(MA/RSI/MACD/布林带/ATR)
└── stock_scorer.py ← 评分系统(均线25分+RSI25分+MACD20分+成交量30分)
这部分几乎是即插即用,AKShare 的接口兼容性很好。
第三步:自研市场总览模块
这部分是自己写的,利用 Tushare 6000积分的特色数据:
大盘指数追踪(上证/深证/创业板/科创50)
概念板块排行 + 趋势追踪(均线分类系统)
资金流向分析
龙虎榜 + 融资融券
北向资金
SQLite 本地缓存(缓存3个月历史数据,避免重复调用API)
第四步:新闻聚合 v2(借鉴 StockAgent)
参考 qilihei/StockAgent 的架构思路,用 httpx 实现了三个新闻采集器:
backend/app/services/news_collectors/
├── base.py ← 采集器基类 + NewsItem 统一数据结构
├── cls_collector.py ←
标题: gpt注册流程问题,现在都要手机号吗,佬们是如何解决的呢
作者: #Evan
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803737
时间: 2026-03-23 21:41:25
摘要:
作者: #Evan
板块: #开发调优
编号:
1803737帖子: https://linux.do/t/topic/1803737
时间: 2026-03-23 21:41:25
摘要:
OpenAI 在 create_account 成功后返回 continue_url=https://auth.openai.com/add-phone,请教一下佬们如何解决这个问题呢,是不是我流程不对?
标题: 草稿箱001
作者: #Yuzx
板块: #文档共建
编号:
帖子: https://linux.do/t/topic/1803749
时间: 2026-03-23 21:44:13
摘要:
作者: #Yuzx
板块: #文档共建
编号:
1803749帖子: https://linux.do/t/topic/1803749
时间: 2026-03-23 21:44:13
摘要:
(话题已被作者删除)
标题: 佬,codex 报错We're currently experiencing high demand, which may cause temporary errors.
作者: #wpf
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803751
时间: 2026-03-23 21:44:31
摘要:
作者: #wpf
板块: #开发调优
编号:
1803751帖子: https://linux.do/t/topic/1803751
时间: 2026-03-23 21:44:31
摘要:
请问这是为什么。刚刚还好好的,现在突然报错。什么模型都不行。
标题: github coplit 调用次数扩展MCP工具
作者: #CARk
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1803753
时间: 2026-03-23 21:44:44
摘要:
作者: #CARk
板块: #开发调优
编号:
1803753帖子: https://linux.do/t/topic/1803753
时间: 2026-03-23 21:44:44
摘要:
github coplit 调用次数扩展MCP工具
0x1
最近发现github coplit可以调用opus,但是只有300次的额度,调用1次opus还得消耗3次额度。所以写了一个MCP,让LLM在一次会话中工作:)
0x2
这个项目会在本机启动一个 MCP 服务,并同时提供一个网页输入面板。
核心用途:
1、Codex 在一次长会话里调用 MCP 工具
2、当缺少人工输入时,弹出一个网页填写入口
3、用户在网页中提交内容后,工作流继续执行
运行项目后会在本地(可以指定为0.0.0.0远程调用)的4317端口(可以指定端口)开启一个web以及对应的服务。对于用codex cil 这里提供有完整的部署工具。
只需要在第一次对话的时候要求AI完成任务后直接调用这个工具即可完成重复调用(后续发送通过这个MCP工具发送的提示词会自动拼接要求调用工具的Prompt)
0x3
求求佬友们提Issues,没有发github怕被制裁(>..<)。
我用夸克网盘分享了「github-coplit-cark.zip」,点击链接即可保存。打开「夸克APP」,无需下载在线播放视频,畅享原画5倍速,支持电视投屏。 链接:https://pan.quark.cn/s/a0d73659f4fe 提取码:sL8j
标题: Hotaru公益站又出问题了?
作者: #無名 山河
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1803761
时间: 2026-03-23 21:46:20
摘要:
作者: #無名 山河
板块: #搞七捻三
编号:
1803761帖子: https://linux.do/t/topic/1803761
时间: 2026-03-23 21:46:20
摘要:
咋提示用户not active
标题: GPT不是很友善啊
作者: #pie z
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1803764
时间: 2026-03-23 21:46:34
摘要:
作者: #pie z
板块: #搞七捻三
编号:
1803764帖子: https://linux.do/t/topic/1803764
时间: 2026-03-23 21:46:34
摘要:
标题: 新人报道,抽两个GptTeam车位作为见面礼(无质保)
作者: #xa5fun
板块: #福利羊毛
编号:
帖子: https://linux.do/t/topic/1803776
时间: 2026-03-23 21:49:00
摘要:
作者: #xa5fun
板块: #福利羊毛
编号:
1803776帖子: https://linux.do/t/topic/1803776
时间: 2026-03-23 21:49:00
摘要:
顺便熟悉下抽奖流程
奖品详情:
ChatGpt Bussiness成员 X2
活动时间:
截止时间:Mon, Mar 23, 2026 11:30 PM CST
参与方式:
在本帖下回复任意内容
抽奖规则:
每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。
注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
标题: 佬们现在用什么 vibecoding?
作者: #wapmxls
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1803794
时间: 2026-03-23 21:52:05
摘要:
作者: #wapmxls
板块: #搞七捻三
编号:
1803794帖子: https://linux.do/t/topic/1803794
时间: 2026-03-23 21:52:05
摘要:
比如 cursor windsurf 反重力 中转站 codex kiro 还是国内的呢?
慢慢都收紧了,能低价用的渠道越来越少了
现在好像只有 codex 合适了吧