Linux.do 热门话题
3.03K subscribers
25.8K photos
35 videos
13 files
42K links
除了Linux,其他的我们都聊一点
https://linux.do
Download Telegram
抽一個 ChatGPT Team x2 給需要的朋友

:three_o_clock: 活动时间:

开始时间: 2025 年 6 月 13 日 00:30
截止时间: 2025 年 6 月 14 日 16:00

📝 参与方式:

只需在本帖 回复任意内容 AND 点个赞 即可参与使用自动抽奖!

🔍️ 抽奖规则:

每位用户限参与一次
使用论坛官方抽奖工具 随机抽取,公平公正公开!

⚠️ 注意事项:

活动截止后关闭回帖,防止重复参与
● 中奖名单将于活动结束 24小时内公布
我们将通过私信通知中奖者领奖方式,请务必留意 📬️
7月13到期,能用多久随缘。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。

63 个帖子 - 61 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: y)
水一水,站内收藏的cursor rules和提示词

1、cursor memory bank
总结 (点击了解更多详细信息)
2、cursor全局通用规则

2.1 Cursor 全局通用规则Rules V4.5 :多维思考+五大规则模式 让你码到飞起
最优搭配:Gemini-2.5-pro-0325 → Claude-3.7 → Claude-3.5 && DS-V3 > GPT-o3mini && GPT-4O…

如果你遇到他不马上编辑而是只提出执行计划任务清单 等,你只要加上一句:立即开始所有模式 auto 等关键字即可,另外由于模型上下文限制和Cursor对聊天内存处理,不要在同一个对话框反复对话,一般超过五次就要建议开始新建对话框。
RIPER-5 + MULTIDIMENSIONAL THINKING + AGENT EXECUTION PROTOCOL_CN.txt (16.1 KB)
RIPER-5 + MULTIDIMENSIONAL THINKING + AGENT EXECUTION PROTOCOL_EN.txt (18.6 KB)
[Cursor]全局通用AI规则五大规则模式+多维思考让你码到飞起 V4.5.zip (13.2 KB)

2.2、 规划cursor 流程
总结 (点击了解更多详细信息)
2.3 cursor 按流程执行
总结 (点击了解更多详细信息)
3.提示词教学
总结 (点击了解更多详细信息)
4.augmentcode 提示词
总结 (点击了解更多详细信息)
水一水,站内收藏以及其他地方看到的一些提示词;好了继续上班了

19 个帖子 - 13 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: cknight)

Invalid media: image
o3-pro官网实测视频,从登录账号开始的完整录屏,以及回答佬友们的一些问题

是从chatgpt.com官网使用的,从登录账号开始录屏的,完整使用过程
提问之前先用4o模型和o3模型测试了没有降智再提问的o3-pro模型
试了两次,结果都是一样

o3-pro官网实测视频2(从登录账号开始录的):o3-pro官网实测视频2_哔哩哔哩_bilibili

o3-pro官网实测视频1:https://www.bilibili.com/video/BV1aoMwzhEAD

视频里使用的提示词:
你是什么模型,你的知识库截止到什么时候?
9.9-9.11等于多少?

现在是2025.6.12 23.00 从视频里看到回答的思考时间确实是比较短,但是用4o和o3模型测试过了号确实没有被降智,知识库是2024.6月,并且o3的9.9和9.11比大小也答对了,但是o3-pro确实是答错了

顺便回答一些佬友的疑问:
问题1:为什么o3-pro一直中断?
答:因为o3-pro上线的第一天的时候官网改了返回的格式,我们还没来得及适配官网的最新静态,所以表面看起来是断了,但实际没有断,等回答完毕后刷新网页就能看到回答了,佬友们可以回去翻下之前的提问记录看下答案是不是出来了,不过我们现在以及更新了最新的静态,现在是有个进度条的动画的。
有看到lueluelue大佬说提问了7次都中断了,再也不想用了,如果lueluelue大佬是在我们的网站用的话应该就是我解释的这个原因了,抱歉给lueluelue大佬造成了不好的使用体验,lueluelue大佬可以再回去翻下之前的提问记录,应该能看到回答的。

这里我想吐槽下官网的做法也太“草台班子了吧”
对于o3-pro模型官网的做法是,conversation不再返回持续的流了,之前o1-pro是会的,现在o3-pro的做法是每个五秒自动请求对话详情,拉取最新的回答,直到把最新的回答拉取出来
我想问:这对吗??哪个大厂会这么做?谁家好人会这么做?实习生写的也比这个强吧?
我看到的时候真的绷不住了,还请佬友们也评价下

问题2:关于降智了就领300块钱的问题?
答:我发的有提到降智就发红包的帖子里,都有说明是api站点的逆向模型,因为逆向模型是经过特殊处理的,所以不会降智,还有付费站点的新站入口里的一些模型,也用的是这些逆向模型,并没有提到公益站点降智了也可以领红包,但我试了下公益站点依旧坚挺的,不降智的占大多数,可能是我没表达清楚,导致让一些佬友误会了,这里我道个歉,我会加强表达的

然后有看到一些声音貌似是在说公益站o3-pro 9.9-9.11答不对的问题,其实根据我的经验来说思考了这么久的肯定没有降智的(指的是特征上没降智,官网没有偷换模型),降智o3-pro一般都是只思考几秒钟的,我在官网也测了就是官网没答对,确实有点难崩,公益站点用的人比较多,我们维护这些pro号成本也很高,如果真降智了,希望佬友们多多担待,感谢佬友们的支持!感谢linuxdo

53 个帖子 - 24 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: RawChat)

Invalid media:
image
image
image
image
image
image
image
最终还是燃尽了...42亿tokens!火山代金券消耗殆尽了😢我打算未来蛰伏沉淀一波...

火山消耗4.3亿

deepseek v3 2.9亿占一半。通过粗略计算,佬友们大概是消耗了一千多的代金券,占总数的三分之一(我总共97张代金券),只可惜大部分是白白过期掉的了。

未来我打算蛰伏沉淀一段时间,低调一下 🤪
接下来我会努力💪输出更多有用内容在论坛! :lark_052:比如2API技术上来塞公益站有多个可用渠道、服务器、代码相关的内容等。。
剧透
剧透
剧透
33 个帖子 - 28 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 焕昭君)

Invalid media:
image
image
image
image
image
n8n 汉化版部署:解锁更灵活的自动化工作流

源自开源项目

GitHub
仓库里的docker部署的相关代码和代码文件我觉得太简单了,适合用来测试。但功能上还是差点意思,不少节点的使用会受到限制。所以,我自己测试调整了部署参数。

关于版本号

文章是kayin在1.94.1版本的时候写的,版本已经不是最新的了,
无论是 Docker 还是 Docker Compose 部署,其中的 n8nio/n8n:1.94.1 版本号都可以根据佬友的需求进行修改。佬友可以尝试使用 latest 标签来获取最新版本,或者前往 n8n 官方 GitHub 仓库查看并选择特定的版本号:
GitHub

自定义参数部署 n8n

通过自定义参数,我们可以更灵活地配置 n8n,例如实现数据持久化、解除访问限制等。部署方式:

1. Docker 方式部署
docker run -d \
--name n8ntest \
-p 15678:5678 \
-e N8N_DEFAULT_LOCALE=zh-CN \
-e N8N_SECURE_COOKIE=false \ # 免cookie安全(本地开发环境建议)
-e N8N_HOST=0.0.0.0 \ # 允许所有ip访问(不再仅本机)
-e N8N_RUNNERS_ENABLED=true \ # 启用工作流执行器
-v $(pwd)/editor-ui-dist:/usr/local/lib/node_modules/n8n/node_modules/n8n-editor-ui/dist \
-v n8n_data:/home/node/.n8n \ # 持久化存储,重启和升级不丢工作流
-v $(pwd)/data:/data \ # 自定义目录(部分节点可监听本地文件)
--restart unless-stopped \
-it \
n8nio/n8n:1.94.1


2. Docker Compose 方式部署

使用 Docker Compose 部署时,在从代码仓库 git clonegit checkout 到目标版本后,需要对 docker-compose.yml 文件进行如下配置:
version: '3.8'

services:
n8ntest:
image: n8nio/n8n:1.94.1
container_name: n8ntest
ports:
- "15678:5678"
environment:
- N8N_DEFAULT_LOCALE=zh-CN
- N8N_SECURE_COOKIE=false # 免cookie安全(本地开发环境建议)
- N8N_HOST=0.0.0.0 # 允许所有ip访问(不再仅本机)
- N8N_RUNNERS_ENABLED=true # 启用工作流执行器
volumes:
- ./editor-ui-dist:/usr/local/lib/node_modules/n8n/node_modules/n8n-editor-ui/dist
- n8n_data:/home/node/.n8n # 持久化存储,重启和升级不丢工作流
- ./data:/data # 自定义目录(部分节点可监听本地文件)
stdin_open: true
tty: true
restart: unless-stopped

volumes: # 持久化存储对应使用的docker卷
n8n_data:
name: n8n_data


自定义部署的好处

简简单单的调整能方便不少:

解除了官版部署方式只能本地访问的限制。
将工作流数据持久化,可以便利地进行升级,不担心已有工作流丢失。

还有高手?

如果只是为了快速体验和简单测试,上述的自定义参数已经足够应付很多情况了。这不够?还想要执行python命令?

玩过的佬友都知道,n8n上的code节点打开默认是基于js代码的,虽然可以选择python,但使用起来会发现,功能受限,无法安装第三方库。因为n8n自带的python方法是基于 Pyodide 技术,在nodejs环境中模拟了python的运行环境。别说第三方库了,原生库也是受限的,氪金也解决不了。

有什么办法能够在n8n上玩转python?

有的有的。

使用docker或者docker compose命令创建n8n环境前,先创建一个Dockerfile
FROM n8nio/n8n
RUN apk add --update python3 py3-pip

这时候n8n就有了执行python的能力

执行命令进行新镜像的构建
docker build -t n8n-python .

此时使用docker images可以看到一个n8n-python的新镜像

将这个新镜像替换掉前面的docker命令或者docker compose 文件中的image参数就可以在容器启动后的n8n中使用Execute Command节点中实现python3语句的调用

佬友们应该想到了,细化Dockerfile,在语句 RUN apk add --update python3 py3-pip语句后面添加更多的细节,使用pip install命令安装更多自己想用的pip包,那么就存在更多的可能了。

同样的道理,其他语言也应当适用。

可能佬友还有疑惑:我已经运行了,重新构建会影响现有的工作流数据嘛?
碰到这种情况,前文说的数据持久化可就发挥大作用了。

23 个帖子 - 16 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: kayin)
【开源分享】uv-custom 在国内网络下一键安装uv 附带uv和mamba/conda联动HOOK脚本

给各位佬友分享一个刚写好的小脚本工具:uv-custom 在国内网络下一键安装uv

很多佬友可能不太了解 uv ,我顺便简单介绍一下:

uv 是一个用 Rust 写的、快到离谱的 Python 包和项目管理器,号称比 pipvenv 快 10-100 倍。它由 ruff (另一个快到离谱的 linter) 的作者开发,目标就是干掉 pip, pip-tools, virtualenv 这些老古董。

简单来说,就是 “快,就一个字!”

但是,uv 虽好,在国内用起来还是有几个坎:

1. 安装慢:官方脚本其实定向到了它的仓库的 GitHub Releases 下载,那速度……不挂梯子基本等于挂机。
2. 配置烦:装完还得手动创建,手动找 uv.toml,把 PyPI 源改成国内的,又或者图省事在项目里直接用pyproject.toml改了,下一个项目又抓瞎,不然 uv pip install 的时候照样慢。而且,如果你想用 uv python install 去直接安装受 uv 管辖的 python ,uv其实是从自己的仓库里下载 python 的,又得配置一个加速。。。
3. 环境乱:如果你是 conda / mamba 的重度用户,uv 默认会在你项目下建 .venv,而不是用你激活的 conda 环境,这就很难受了。

为了解决这些问题剧透,我配合 Gemini Pro 0605 写了这个 uv-custom 项目。

用 Github 代理 https://ghfast.top/https://github.com 替换了原本的 https://github.com ,实现国内加速。默认配置好了清华源,当然你也可以自己再打开配置文件修改成别的源(后续可能会支持自己配置,做成CLI)。

再用 Github Action 实时检查 uv 的版本情况,做到随时更新。

----------------------

✨️ 有啥用?

项目本身是通过一个全自动的 GitHub Action,把官方的 uv 最新版安装脚本抓过来,安全地“魔改”一下,然后同步 Release 到 Github 和 Gitee 上,让你能:

● 一键安装,快如闪电 ⚡️:一条命令,从纯国内网络环境,享受 CDN 般的下载速度。
● 开箱即用,不用配置 🛠️:脚本自动帮你把清华源和 Python 下载镜像都配好了,装完直接用。
● Conda/Mamba 无缝联动 🤝:还附赠一个“环境联动 HOOK 脚本”,如果你需要,装上它,uv 就能自动用你当前的 conda 环境,指哪打哪,再也不乱建 .venv 了!

----------------------

🚀 怎么用?

1. 安装 uv (国内特供版)

打开终端,不管你是 macOS, Linux, 还是 Windows,复制粘贴,回车就行了

Gitee (主推,国内用户首选)

# macOS / Linux 用户

curl -LsSf https://gitee.com/wangnov/uv-custom/releases/latest/download/uv-installer-custom.sh | sh


# Windows (PowerShell) 用户

powershell -ExecutionPolicy Bypass -c "irm https://gitee.com/wangnov/uv-custom/releases/latest/download/uv-installer-custom.ps1 | iex"



2. (可选的) 安装 conda / mamba 环境联动 HOOK

如果你想用 uv 来管理 conda / mamba 里的 python 环境,但是 uv 是按照PEP协议开发的,对这种支持并不好。

uv add 之类的顶级命令无论如何也不在 conda / mamba 里的 python 环境执行,必须得设置一个环境变量: UV_PROJECT_ENVIRONMENT 告诉 uv 该用哪个 python 环境。

conda / mamba 激活之后,恰好提供了一个 CONDA_PREFIX 环境变量,提供给 uv 使用,就完美了。

但是,我不想每次都手打环境变量,所以写了一个HOOK脚本,一键安装即可解决:

# macOS / Linux 用户

curl -LsSf https://gitee.com/wangnov/uv-custom/releases/latest/download/setup_hooks.sh | sh


# Windows (PowerShell) 用户

powershell -ExecutionPolicy Bypass -c "irm https://gitee.com/wangnov/uv-custom/releases/latest/download/setup_hooks.ps1 | iex"


装完记得重启一下你的终端。然后你就会发现,世界美好了。

----------------------

仓库地址

● Gitee (国内访问): https://gitee.com/wangnov/uv-custom
● GitHub (全球同步): https://github.com/Wangnov/uv-custom

如果觉得这个小工具对你有帮助,欢迎去仓库点个 Star ⭐️,你的支持是我最大的动力!

29 个帖子 - 17 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: Wangnov)
「戒色打卡贴」一起来坚持

如题,本人由于前段时间高压,放纵了,导致了雄激素性脱发,精神萎靡,特此决心戒色,我的目标是改变之前的“从手工活获取快感”到让自己换一种生活方式,减少独处时间,增加运动时间,转移自己的注意力到学业上,通过运动疏解压力,从社交中获取快乐,以及治疗头发(服用非那雄胺)。
今天已经是我的 Day4 了。突发奇想在 l 站坐一个打卡贴,也可以与天南海北的各位聊一聊
有同戒色的各位每日坚持打卡就更好了

特此说明:我有服用非那雄胺降低身体雄激素水平,所以在清心寡欲上多少获得了一点辅助。我认为纯粹的戒色,视色情为洪水猛兽不可取,有生理需求应当疏导

76 个帖子 - 71 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: Donharper)
1
裤子破了个大洞,到家才发现

屁股在外面亮了一天
36 个帖子 - 35 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: rxyshww)

Invalid media: image
小仙女编程语言,哈哈哈

github.com

GitHub - justjavac/herlang: Her Programming Language written in Rust.

Her Programming Language written in Rust.

哈哈哈,这个xswl,写了个冒泡算法,图佬友一乐~
想要你一个态度 冒泡排序(giegie) {

// 我接受 giegie 的长度
我认为 n 我接受 len(giegie);
我认为 i 我接受 0;

// 外层循环开始了
你再说一遍 (i < n) {

我认为 j 我接受 0;

你再说一遍 (j < n 差异 i 差异 1) {

// 姐妹们觉得呢,如果当前元素比下一个元素大?
姐妹们觉得呢 (giegie[j] > giegie[j 拼单 1]) {

// 那就得交换位置了
// 我认为 备胎 我接受 giegie[j]
我认为 备胎 我接受 giegie[j];
// giegie[j] 我接受 giegie[j 拼单 1] (用“拼单”代表加号)
giegie[j] 我接受 giegie[j 拼单 1];
// giegie[j 拼单 1] 我接受 备胎
giegie[j 拼单 1] 我接受 备胎;
}

j 我接受 j 拼单 1;
}

// i 自增,开始下一轮冒泡
i 我接受 i 拼单 1;
}

// 排序完成了,把结果给“反手举报”出去(返回结果)
反手举报 giegie;
}

// ---- 如何使用 ----

// 我认为 a 我接受一个需要排序的列表
我认为 a 我接受 [6, 5, 3, 1, 8, 7, 2, 4];

// 调用“冒泡排序”方法,并把结果存到 仙女排序
我认为 仙女排序 我接受 冒泡排序(a);

// 把排好序的结果“输出”到屏幕上
输出("排序后的结果是: ", 仙女排序);

// 结束了,哼!
哼;


对照表

37 个帖子 - 26 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: QuantumCat)

Invalid media: image
支付宝白嫖15元碰一碰支付红包

支付宝搜:支付有礼
领三支付券 总计15元

消息来源
90 个帖子 - 89 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: Kyoma)

Invalid media: image
一套切实可行的减脂(减肥)方案

剧透

前言

好的身材不能只看体重,测量维度或者洗澡的时候直接观察自己的身体更有说服力

首先得明确一个认知——减肥 / 塑形 是一个长期的过程,毕竟一口吃不成一个胖子,反之一口也饿不成一个瘦子,你的体型是你过去很长一段时间内的饮食和运动的综合体现。一个月掉 3% (最多4%) 的体重是理想状态,如果能在体重不变的情况下身体维度发生变化更好。

减脂,一定会饿,如果有人和你说减脂一点都不会饿,那肯定是想割你韭菜了,但是科学的饮食训练方法可以做到尽量少饿高效。

容易维持的定点体重公式(中骨架男生): 身高(cm)- 105 上下5斤
女生或者骨架不一样相应的增减一些

工具

bmi计算器:https://bmi.deno.dev

饮食记录:薄荷健康

食物称、电子秤

饮食

减脂第一步,纪录自己的饮食。很多小伙伴之前胡吃海喝,对食物热量以及营养素没有认知。当你开始纪录饮食之后,你就会发现之前随口一吃的东西可能热量超乎你的想象。

其次,戒掉所有含糖饮料以及零食,正常三餐之外只能喝水(其实很多时候大脑分不清渴和饿的区别,实在馋了,最多犯一两次戒)。做到这一点,你已经可以瘦不少了。有条件的自己做饭,或者沙县鸡腿饭/鸭腿饭(减脂期少吃点饭,增肌就多吃点饭,多加鸡腿和蛋)

第三,最好吃天然食物,碳水最好精粮(米饭)和粗粮(土豆、燕麦)的比例 1:1

5+2 轻断食

这种方法有很多相关文献证明其有效性,同时也是央视背书的一种减脂方法。5+2 轻断食,顾名思义,就是指一周中5天正常饮食,2天极低热量的饮食方法(不能是连续的两天)。对于打工人来说可能比较难做到,那可以从 6+1 开始适应一下,休息日的时候少吃。 5+2 这中方法远远不止减脂这么简单,在改善胰岛素敏感性、抗氧化、抗衰老、改善血糖、血脂、改善脂肪肝等方面都有效果。

断食日:男生可以吃到 900 大卡热量,女生吃到 600 大卡热量。如果不严谨计算热量的话,有一种简单的方法——煮五六个鸡蛋,加上两根黄瓜、一袋牛奶,一天之内什么时候饿了什么时候吃。

正常日:蛋白质 1.6-2.0g/kg体重、脂肪 0.5g-1.0g/kg体重、剩下碳水占到 50%-60%,一定要吃够TDEE (Total Daily Energy Expenditure, 每日总能量消耗 = 基础代谢 + 食物热效应 + 活动消耗)

更详细的内容可以抖音搜 力量矩阵 ,有四期视频讲的非常详细。

16+8轻断食

所有进食在8小时之内吃完,剩下16小时只能喝水,靠时间避免摄入三餐外的额外热量。

训练

建议男生以力量训练为主,女生以有氧为主。

力量训练推荐博主:凯圣王

有氧训练:爬楼梯、跑步、走路都可以,如果膝盖痛,那么先暂时停止训练,等控制饮食让体重减轻一点再练

生活化减脂

减脂成功了之后,也并不是一劳永逸,最好把之前养成的好习惯和自己的生活习惯相结合,这样才能更长久的保持一个自己满意的身材。

----------------------

先写这么多吧,后面有空再补充

30 个帖子 - 26 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: fangyuan99)
多邻国破解版 v6.33.4 解锁会员高级版

多邻国APP介绍

多邻国是一款专为语言学习设计的应用,适合从零基础开始学习多种外语。每天只需几分钟,用户即可轻松掌握基础的语言技能。多邻国目前提供超过30种外语学习,包括英语、日语、韩语、法语、威尔士语等,满足全球用户的不同需求。特别是对于想通过学习英语进行日常沟通交流的用户,这款应用绝对是不可错过的工具。

该应用通过科学和有趣的学习方式,使语言学习变得轻松又有效。无论是听、说、读、写四个方面的技能,多邻国都提供了丰富的练习和互动内容,帮助用户快速提高语言能力。而且最棒的是,完全免费,用户无需支付任何费用就可以享受优质的语言学习体验。

多邻国v6.33.4 会员高级版特权介绍

高级 / 付费功能已解锁

✅️语言课程已解锁

✅️开始课程已解锁

✅️特别优惠功能已解锁

✅️Power-Ups 功能已解锁

✅️服装功能已解锁

✅️奖励功能已解锁

✅️可自动离线下载

✅️解锁 duolingo MAX

✅️解锁所有语言课程

✅️无限红心

✅️无限宝石与跳过测试

✅️离线学习功能

✅️去除广告

多邻国破解版 v6.33.4 解锁会员高级版下载
https://pan.baidu.com/s/1ym13BpaSrcwFYwX3thnxlw?pwd=6666

37 个帖子 - 33 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: daowuya)

Invalid media:
image
image
好热啊,怎么办?

14 个帖子 - 13 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 方块)

Invalid media: image
马上3级了 抽一个100g机场订阅

抽奖主题: 抽一个100g机场订阅(帮忙点点赞哦)

🏆️ 奖品详情:

[奖品 1]:100g机场订阅

:three_o_clock: 活动时间:

开始时间:2025 年 6 月 12 日 23:20
截止时间:2025 年 6 月 15 日 18:00

📝 参与方式:

在本帖下回复任意内容。【希望各位佬友们多多点赞支持一下,谢谢!】

🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用 Linux.do 抽奖工具随机抽取中奖者。

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 24 小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。

120 个帖子 - 118 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 第一学期)
公司领导让我去政府网站上爬取文档

且不说政府的网站反爬多强,就是tmd本来就犯法,还去爬,这和在警察局旁边开一家妓院有什么区别?

69 个帖子 - 59 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: timelocked)
时间感知 (Time Awareness) Filter for Open WebUI:为 Open WebUI 对话中的每一条用户消息(含历史消息)在请求发出前附加其发送时间

制作原因

我喜欢和 Gemini 2.5 Pro Preview 这种上下文关联能力很强大的模型一直在一个对话中聊很久,但苦于 Open WebUI 没有办法直接为它提供每一条历史消息的发送时间,这导致它不能很好地判断聊过的一些事情是何时发生的。

因此,我花了一晚上和 Gemini 2.5 Pro Preview 0605 搓出来了它。

快来试试吧!

----------------------

⌛️ 时间感知 (Time Awareness) Filter for Open WebUI
github.com

GitHub - CookSleep/Time-Awareness-Filter-for-Open-WebUI: This is a powerful Filter designed for Open WebUI...

This is a powerful Filter designed for Open WebUI to inject precise temporal context into your conversations. It automatically adds timestamps to both historical and current messages, enabling the Large Language Model to understand the timeline of your dialogue and provide more accurate, context-aware responses.

这是一个为 Open WebUI 设计的强大 Filter,旨在为您的每一次对话注入精确的时间上下文。它会自动为历史消息和当前发送的消息添加时间戳,让大语言模型能够准确理解对话发生的时间背景,从而提供更精准、更具上下文感知能力的回答。
还没部署 Open WebUI ?我也有喂饭级教学!
[超详细教学] 教你从零开始,入坑域名、云服务器并部署 New API + Open WebUI!
作者

✨️ 主要功能

● 全自动时间注入:自动为对话中的所有用户消息添加时间戳。
● 智能格式化在新的一天开始时,会自动显示完整的日期([年-月-日, 星期, 时:分:秒])。 对于当天内的后续消息,则只显示简洁的时间([时:分:秒]),增强可读性。
● 强大的兼容性支持纯文本消息。 支持图文混合消息。 支持纯图片或纯文件消息(会自动创建时间戳文本)。
● 高可配置性自定义你所在的时区。 多种日期格式可供选择(ISO, DMY, MDY 等)。
● 健壮的错误处理:在无法获取历史记录时(如 Token 错误),会自动跳过注入,保证对话的正常进行,并提供清晰的错误提示。
● 实时开关:可以在 Open WebUI 界面上随时启用或禁用此 Filter。

⚙️ 配置方法

导入并启用 Filter (还需要点击“更多”,开启“全局”,这样才会显示在任何对话中)后,点击 “管理员面板-函数-时间感知”右侧的齿轮图标,您会看到以下配置选项:

api_base_url (必需): ● 描述: Open WebUI 后端的地址。 ● 默认值: http://127.0.0.1:8080
auth_token (必需): ● 描述: 用于认证的令牌 (支持 JWT 或 API 密钥)。这是保证 Filter 能读取历史记录中消息时间戳的关键● 如何获取: 1. 在浏览器中登录 Open WebUI。 2. 进入“设置” &gt; “账户” &gt; “API密钥”。 3. 点击“显示”,然后复制“JWT令牌”或“API密钥”字段的内容。 4. 将复制的令牌粘贴到这里。 ● 提示: 如果看不到 API 密钥,请前往“管理员面板”>“设置”>“通用”,打开“启用 API 密钥”并点击“保存”按钮。
timezone: ● 描述: 你所在的时区 (IANA 标准名称)。 ● 默认值: Asia/Shanghai ● 示例: America/New_York, Europe/London
Linux.do 热门话题
时间感知 (Time Awareness) Filter for Open WebUI:为 Open WebUI 对话中的每一条用户消息(含历史消息)在请求发出前附加其发送时间 制作原因 我喜欢和 Gemini 2.5 Pro Preview 这种上下文关联能力很强大的模型一直在一个对话中聊很久,但苦于 Open WebUI 没有办法直接为它提供每一条历史消息的发送时间,这导致它不能很好地判断聊过的一些事情是何时发生的。 因此,我花了一晚上和 Gemini 2.5 Pro Preview 0605 搓出来了它。…
date_format: ● 描述: 日期显示格式。 ● 默认值: ISO ● 可选值: "ISO" (2025-06-13) "DMY_SLASH" (13/06/2025) "MDY_SLASH" (06/13/2025) "DMY_DOT" (13.06.2025)
debug_print_request: ● 描述: 在 Open WebUI 后端日志中打印详细的调试信息,用于排查问题。 ● 默认值: False

⚠️ 注意事项

此 Filter 需要 httpx 库。如果您是手动部署 Open WebUI(非 Docker),请确保已安装:pip install httpx。Docker 用户无需担心,镜像已包含此库。
关于 auth_token:请注意 JWT(JSON Web 令牌)是有时效性的,会过期。如果 Filter 突然停止工作并提示错误,很可能是您的 JWT 过期了。相比之下,标准的 API 密钥通常不会过期,除非被手动吊销。为了长期稳定使用,推荐配置 API 密钥。

💬 反馈与贡献

如果您遇到任何问题或有改进建议,欢迎随时在 GitHub 上 提交 Issue

📜 许可证

本项目采用 MIT 许可证。

17 个帖子 - 12 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: Cook_Sleep)

Invalid media: image
【T佬】关于公益站这次活动的一些补充说明。

公益站主贴:https://linux.do/t/topic/683726
接着这次活动 https://linux.do/t/topic/718128 进行一些补充说明。

现在兑换高峰,如果兑换不了就等下。错峰兑换,有码就不用担心。
领到额度$100,只是为了防止号商刷。只要是激活账号所以用完了可以通过任何能联系到我的方式申请额度。
综合考虑,公益站整体的RPM现在提高为20
如果登录错误、失败、或者提示已经绑定。就清浏览器缓存,或者换浏览器尝试。
Claude模型暂未开放(帖子已经有说明过规则),下周一准时开放。目前还在进行一些调试,周末我休息可能时间不多。抱歉各位。

多谢佬们的支持,这次不是终点,下次还会再来,敬请关注!!!

另外,再推一下我的项目,领到的佬们帮忙点个star。

GPT-Load 求个Star。

82 个帖子 - 74 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 唐洛)
速进,来看搞笑的事情,笑死我了

可以看看我之前的帖子,今天老板一天不是没来,刚回来
回来就开始画饼,说,要训练我们的大模型
简单介绍下我们工作室的配置
老板+我+另一个员工
老板负责训练大模型,让我负责大模型技术去培训教学,另一个去负责抖音培训引流
老板刚回来就说,2000块钱去报了个sd的课程,非常的有信心,学会了flux的局部重绘
就信心满满的说,要赶紧学习,让我们努力走在前面
在我们当地开展培训机构,教学,跟政府合作,搭建大模型服务器
啊哈哈哈哈哈哈哈哈哈,我15号发了工资就要走了,老板信心超级满满
我真的不知道咋办了家人们,哈哈哈哈哈哈

26 个帖子 - 16 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 傲风ge)
123 云盘暂停第三方软件 Alist 挂载

图源 123 云盘官方公告

28 个帖子 - 23 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 机不可失)

Invalid media: image