标题: 【国内信息差】And【吃瓜吃瓜】Redis Vs Valkey ,Redis还能继续用吗?!
作者: #秋明
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1355602
时间: 2025-12-24 09:54:00
摘要:
作者: #秋明
板块: #开发调优
编号:
1355602帖子: https://linux.do/t/topic/1355602
时间: 2025-12-24 09:54:00
摘要:
原文
【国内信息差】龙头企业已换成ValKey了,你还在傻呵呵用Redis?!
开发调优
Redis 风险评估与 Valkey 替代方案
这是为公司写的文档,因为这个信息差我在众多社区没有看到,担心部分佬友也不清楚,一起分享一下新信息。
。
国内的字节,阿里云,腾讯云等龙头企业都已经在逐步替换为ValKey
而且 ValKey更像一个 “升级版真正开源的Redis” ,同时有多个龙头企业 贡献代码,性能这块甚至更强悍
二编: 感谢各位大佬们一起讨论,让大家对于这个话题的了…
新编
前言: 这是为公司写的文档,因为最近(12月)字节和腾讯云将Redis替换为Valkey了 ,这个信息我在众多社区没有看到,担心部分佬友也不清楚,一起分享一下新信息以及原因。
感谢各位大佬们一起讨论,让大家对于这个话题的了解深度更上一层楼
Redis 风险评估与 Valkey 替代方案(更新版)
核心结论(先看结论):
对绝大多数企业来说——只要不是云厂商、也不是把 Redis 当成对外售卖的 SaaS 服务,当前的 Redis 8.x 仍然可以放心使用。 作为内部业务组件做缓存/会话/分布式锁,不修改源码,许可证不会强制要求开源你的业务系统。
选型上可以简单理解为:
小 KV 基础缓存 + 低并发 + 单实例:优先选 Redis(升级到修复安全漏洞的稳定版本(即8.x版本)。
大 Key 较多 + 高并发(≥ 50 万 QPS)+ 集群规模大:更推荐 Valkey 8.x,性能、稳定性与成本综合优势明显。
一、背景与更新原因
早期版本的报告更偏重“Redis 风险”,在许可证和漏洞层面给出了较为保守的结论。
随着 Redis 8.x 采用三重许可证(AGPLv3 / RSALv2 / SSPLv1),以及社区对条款的实务解读逐渐清晰,现在可以更准确地划定风险边界:
除非你是云厂商 / 把 Redis 打包成收费服务卖给第三方,或大量修改 Redis 源码并以“在线服务”形式对外提供,否则正常使用基本不受限制。
同时,Valkey 生态在近一年快速成熟,性能和兼容性数据也更加充分,需要更新“Redis vs Valkey”的对比与选型建议。
二、Redis 8.x 许可证现状:三重许可证与实际影响
Redis 8.x(2025 年 5 月发布)采用 AGPLv3 / RSALv2 / SSPLv1 三重许可证 模式,用户可以在三者之间选择其一来合规使用。
2.1 三种许可证的核心差异(结合我们的典型用法)
许可证
对“企业内部使用 + 商业缓存”的影响
主要限制关注点
AGPLv3
完全可用,不修改源码时几乎无约束
仅当修改 Redis 源码并通过网络对外提供服务时,才需开源修改部分源码
RSALv2
完全可用,适合企业内部系统
禁止将 Redis 直接作为收费的托管服务 / 缓存服务对外提供
SSPLv1
完全可用,不修改源码时约束有限
若修改源码并对外提供服务,需要开源包括管理层在内的相关代码
对于我们这类 “应用系统” ,Redis 只是系统中的一个组件:
不单独对外售卖 Redis 托管服务。
通常也 不会大幅修改 Redis 源码。
在这种典型场景下,Redis 8.x 的许可证基本不会强制要求开源业务代码,可以放心使用。
2.2 “通过网络提供服务”的真实含义
以 AGPLv3 为例:“通过网络提供服务”指:
把修改过源码的 Redis 部署在服务器上,外部用户直接通过网络使用“这个被你修改过的 Redis 服务本身”。
而我们常见的情况是:
业务系统使用 原版 Redis 二进制或官方容器镜像 作为缓存 / 会话 / 锁组件;
对外提供的是“堆场系统 / 业务系统”的 API,而不是“Redis 访问服务”;
这与“运营一个 Redis 云服务平台”有本质区别。因此:
在不修改 Redis 源码的前提下,我们只要遵守基础条款(保留版权声明等),就可以在商业项目中安心使用 Redis。
三、安全风险:漏洞存在,但可通过“升级 + 运维治理”可控
Redis 近几年确实暴露了一些高危漏洞,但关键在于:
漏洞是否有修复版本可用?
我们是否能在可接受时间内完成升级与验证?
3.1 高危漏洞示例
CVE-2025-62507(CVSS 8.8,高危)
多 ID 场景下,XACKDEL 实现存在 栈缓冲区溢出 风险,在一定条件下可能被利用实现远程代码执行(RCE)。
受影响版本:Redis 8.2.0 及以上;8.2.3 已修复。
临时缓解手段:使用 ACL 禁用 / 限制相关命令。
CVE-2025-48367(CVSS 7.5)
在特定配置下,未认证连接 可以构造重复协议错误,让客户端陷入“饥饿”状态,导致 DoS 风险(服务不可用、请求超时)。
修复版本(NVD 公布):8.0.3 / 7.4.5 / 7.2.10 / 6.2.19。
历史典型漏洞(已修复):
Lua 脚本引擎 Use-After-Free(潜伏约 13 年,CVSS 10.0),在未做好认证的公开实例上,攻击者可远程执行任意代码。
3.2 对我们的实际影响与建议
影响本质在于“升级能力”,而不是“用不用 Redis”:
Redis 作为“公共枢纽”(缓存 / 会话 / 锁 / 消息),一旦被打挂或被入侵,影响会波及多个业务模块;
但这些漏洞都有已发布的修复版本,只要:
建立起 版本跟踪与定期升级机制;
避免将 Redis 暴露在公网或不可信网络环境;
开启并收紧认证与 ACL,按“最小权限”使用命令;
就可以把绝大部分安全风险控制在合理范围内。
因此,从安全角度看,Redis 仍然是可控的,不存在“必须抛弃 Redis 才安全”的结论,更多是对运维治理能力的要求。
四、Redis vs Valkey:性能与特性对比(综合最新评测)
基于近期 8.x 版本的实测数据(统一使用如 AWS c7g.4xlarge、redis-benchmark 和 memtier_benchmark 等工具),可得到较清晰的性能轮廓。
4.1 基础性能:小 KV、普通并发场景
在 小 KV(≈1KB)、中等并发(< 10 万 QPS) 的基础缓存场景中:
Redis 8.2.3 与 Valkey 8.0.1 在 QPS 与 P99 延迟差异不大,通常在几% 到 10% 左右;
对业务来说,两者在“体感性能”上几乎等价。
示例数据(1KB,小 KV,读写混合):
场景
Redis 8.2.3
Valkey 8.0.1
差异(Valkey vs Redis)
1KB KV 100% 读
QPS:112 万,P99:0.9ms
QPS:119 万,P99:0.8ms
QPS ↑ 6.2%,延迟 ↓ 11.1%
1KB KV 7:3 读写混合
QPS:106 万,P99:1.0ms
QPS:113 万,P99:0.9ms
QPS ↑ 6.6%,延迟 ↓ 10%
结论: 对于“普通业务低并发 / 单实例缓存”而言,选择 Redis 还是 Valkey,在性能维度上差别不构成决定性因素,更多看生态习惯与团队成熟度。
4.2 大 Key、高并发与极限负载场景
当业务出现以下特征:
大量 大 Key(10KB ~ 100KB);
单集群或单实例需要支撑 ≥ 50 万 QPS 的高并发;
集群规模 ≥ 100 分片,对拓扑收敛时间与故障切换敏感;
Valkey 在架构与实现层面的优化会拉开与 Redis 的差距。
典型对比数据节选:
大 Key 混合读写(100KB):
Redis:QPS ≈ 8.2 万,P99 ≈ 15.3ms;
Valkey:QPS ≈ 12.3 万,P99 ≈ 9.8ms;
QPS 提升约 50%,延迟下降约 36%。
高并发连接能力:
Redis:稳定连接数 ≈ 8 万;
Valkey:稳定连接数 ≈ 15 万;
满负载稳定性(CPU 100%):
Redis:约 4 小时后开始出现 ~0.1% 超时;
Valkey:72 小时压测中未出现超时。
大规模集群拓扑变更收敛时间(100 分片量级):
Redis(Gossip):3 ~ 5 分钟;
Valkey(Raft + Gossip):10 ~ 15 秒。
结论: 在“大 Key + 高并发 + 大集群”场景下,Valkey 在吞吐、延迟、连接数、故障恢复时间等多个指标上都明显优于 Redis 8.x。
4.3 生态与特殊能力
Redis 8.x 优势:
官方工具生态成熟,如 RedisInsight、Redis Stack 等,复杂场景排障体验更好;
一些小众 / 调试类命令兼容度更高。
Valkey 8.x 优势:
BSD 开源许可证,合规边界更简单直接;
原生支持一些面向 AI / 向量检索的能力(在某些版本或发行版中),可减少对 Redis 商业版的依赖;
在大规模集群与高并发场景下,工程化优化更
标题: 始皇开恩?3级条件变了吗
作者: #loveless21
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1355603
时间: 2025-12-24 09:54:06
摘要:
作者: #loveless21
板块: #搞七捻三
编号:
1355603帖子: https://linux.do/t/topic/1355603
时间: 2025-12-24 09:54:06
摘要:
帖子阅读没到20000也给俺升回去了,这是特例吗?
标题: 互相探讨ai的创新
作者: #ring
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1355605
时间: 2025-12-24 09:54:11
摘要:
作者: #ring
板块: #搞七捻三
编号:
1355605帖子: https://linux.do/t/topic/1355605
时间: 2025-12-24 09:54:11
摘要:
突然想到一个问题,探讨一下,现在都是AI在协助,众所周知,ai也是基于以前大家的知识汇聚起来的,都是现有的知识水平上的。如果大家都不创新,ai可以自己创新的做某些事情么?或者说能否产生他知识库里没有的知识?
如果都不创新,也就是说最终的发展会有上限。
标题: 祝佬友们平安夜快乐!
作者: #fgy4399
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1355607
时间: 2025-12-24 09:54:26
摘要:
作者: #fgy4399
板块: #搞七捻三
编号:
1355607帖子: https://linux.do/t/topic/1355607
时间: 2025-12-24 09:54:26
摘要:
今晚就是平安夜了,祝你们平安夜快乐。
标题: Minimax M2.1变强了,但好像更有想法了
作者: #比特
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1355626
时间: 2025-12-24 09:57:39
摘要:
作者: #比特
板块: #开发调优
编号:
1355626帖子: https://linux.do/t/topic/1355626
时间: 2025-12-24 09:57:39
摘要:
上次开了Oracle的龟壳,正好手上有M2 plan用不完,想CC + M2蹬一个黑洞主页挂Oracle小鸡上。瞪了老半天蹬不出来,不是ThreeJS的CDN Url有问题就是各种WebGL、JS错误。于是AntiGravity+3pro蹬了一个。嗯,哈吉米一轮下来稍微调整一下就可以了。
2.1更新以后又瞪了一下,神奇,这次竟然两三轮对话就能出来一个能跑的了。不过有一说一,还是3pro出来的更美观一点。而且我发现2.1现在很有想法啊,我告诉它不要关心目录内其他文件,它竟然还是去偷窥了。跟它把粒子颜色统一改成蓝色,它竟然开始着手修复吸积盘的着色器
Antigravity + 3Pro的
MiniMax M2.1
丢一个3pro的黑洞html上来,讲道理我觉得还是挺美观的吧,哈哈
gemini3pro_blackhole.txt (36.2 KB)
标题: 说实话,GLM4.7能打Gemini3和gpt5.1吗
作者: #naiba5
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1355628
时间: 2025-12-24 09:57:51
摘要:
作者: #naiba5
板块: #开发调优
编号:
1355628帖子: https://linux.do/t/topic/1355628
时间: 2025-12-24 09:57:51
摘要:
说实话,GLM4.7能打Gemini3和gpt5.1吗
标题: Qwen-Image-Edit-2511 已发布
作者: #robot Make
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/1355632
时间: 2025-12-24 09:59:07
摘要:
作者: #robot Make
板块: #前沿快讯
编号:
1355632帖子: https://linux.do/t/topic/1355632
时间: 2025-12-24 09:59:07
摘要:
huggingface.co
Qwen/Qwen-Image-Edit-2511 · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
标题: origin黑白绘图技巧
作者: #XOne
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1355634
时间: 2025-12-24 09:59:25
摘要:
作者: #XOne
板块: #搞七捻三
编号:
1355634帖子: https://linux.do/t/topic/1355634
时间: 2025-12-24 09:59:25
摘要:
想把彩色图片转为那种黑白色调,但又不是origin那种直接单色输出,不知道佬友们有什么技巧?
我现在采取的办法是把饱和度拉到0,我想要的就是彩色图片黑白打印那种效果。
标题: 我也有今天!!
作者: #大概是牛马
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1355639
时间: 2025-12-24 10:00:16
摘要:
作者: #大概是牛马
板块: #搞七捻三
编号:
1355639帖子: https://linux.do/t/topic/1355639
时间: 2025-12-24 10:00:16
摘要:
每天签到一直都是蚊子腿,今天终于咸鱼翻身了!猛猛蹬!!
标题: exa还有免费使用的办法吗
作者: #wlwl
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1355640
时间: 2025-12-24 10:00:25
摘要:
作者: #wlwl
板块: #搞七捻三
编号:
1355640帖子: https://linux.do/t/topic/1355640
时间: 2025-12-24 10:00:25
摘要:
exa还有免费使用的办法吗,今天要用结果发现没有了,问问万能的佬友
标题: 希望大家不要碰到这种神人
作者: #烟火
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1355643
时间: 2025-12-24 10:00:43
摘要:
作者: #烟火
板块: #搞七捻三
编号:
1355643帖子: https://linux.do/t/topic/1355643
时间: 2025-12-24 10:00:43
摘要:
密码的怎么会有人天天不在自己寝室跑别人寝室的 ,你要一周偶尔来一两次呆的时间不长我也不说啥了,天天来然后一来待好几个小时用别人的电脑玩游戏是啥意思,自己有电脑天天跑别人寝室玩别人电脑的意义是?上周更寄吧无敌了在我们寝室吃上饭了,然后说话声音又大赶又赶不走,这种没有一点边界感的傻卵能从大学消失一下吗
标题: 求解惑积分怎么只有注册的50呀?
作者: #RedSeaR1
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1355644
时间: 2025-12-24 10:00:52
摘要:
作者: #RedSeaR1
板块: #搞七捻三
编号:
1355644帖子: https://linux.do/t/topic/1355644
时间: 2025-12-24 10:00:52
摘要:
如题,今天打开只有新用户的积分,也退出重新登陆了,还是只有50,按理说积分高的是不是算上昨天的了,我寻思昨天也活跃了,为啥只有50积分?和注册时间有关系吗 ,有没有知道的
标题: 有没有上海兼职跑众包的
作者: #蜘蛛抱蛋
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1355646
时间: 2025-12-24 10:01:43
摘要:
作者: #蜘蛛抱蛋
板块: #搞七捻三
编号:
1355646帖子: https://linux.do/t/topic/1355646
时间: 2025-12-24 10:01:43
摘要:
高峰期上线8小时也就200上下,快没动力了。今天太冷了,不想出门
标题: 理论实践结合,高效Vibe Coding
作者: #Reboot
板块: #文档共建
编号:
帖子: https://linux.do/t/topic/1355648
时间: 2025-12-24 10:01:49
摘要:
作者: #Reboot
板块: #文档共建
编号:
1355648帖子: https://linux.do/t/topic/1355648
时间: 2025-12-24 10:01:49
摘要:
AI输出代码质量的关键影响因素:
模型能力 、 Prompt 提示词(User\System) 、 上下文窗口
1.模型能力 Model
选择哪个模型,决定了模型能力上限
Claude (编码体验最好)
GPT (综合能力更强,聊天更人性化)
Gemini (输出速度稍慢,顶级模型中价格最便宜的)
Deepseek
Grok
Kimi
Qwen
顶级大模型 Claude、GPT、Gemini被称为御三家
降智问题:如果你发现模型输出内容质量过于低,内容过短,那么大概率被降智了
降智可能的原因: 网络环境,设备环境,地区,支付方式,官方算力瓶颈(官方降智不容易感知)。
2.提示词 Prompt
提示词就是发送给AI的内容,提示词是在与大模型交互时用户可以控制最多的部分。
提示词会影响什么
限制模型思维发散:
例如: 给我制定一个(能够锻炼腿部肌肉的)健身计划
给予更多场景场景:
例如:给我制定一个健身计划,(我是一个上班族,平时几点上班,几点下班)
设定人格背景:
例如:(你是一名健身专家,)给我制定一个健身计划
短的提示词更容易被AI理解:
例如:我想要你帮我制定一个腿部训练计划
提示词分为系统提示词 “System Prompt”和用户提示词“User Prompt” 系统提示词拥有更高的级别,但是用户能够干预的系统提示词的方式不多。
AI IDE:内嵌高级别的System Prompt,对于用户后配置的Rule 可能会被IDE配置为 系统级提示词。
Antigravity (免费)
Curosr (经典)
Kiro
windsurf
CLI 工具:linux,macOS上效果更好一些(PowerShell命令效率较低,可以使用WSL),Cli相比AI IDE功能更丰富一些,上下文更干净,受用户提示词影响的因子更大。(少了AIIDE内置的提示词)
ClaudeCode
Codex
Gemini-cli
Open code
在一段超长提示词中,位于首位的内容更容易影响输出内容。
3.上下文 Context
上下文长度:每个模型默认的模型上下文大小各有不同,且超出模型上下文大小的内容会被AI直接遗忘,因此控制上下文在长且复杂的工作当中更为重要,主流AI上下文大小在 百K、1-2M tokens 居多。
上下文利用率:在AI编程中,给予AI一个需求,AI可能会读取很多代码文件,当读取了无关需求的代码上下文就无用的信息占用一部分导致浪费上下文,可以把相关文件和需求一并发送给AI,减少上下文浪费。
MCP辅助: AI可以自己使用的工具
context7 提供更多技术文档上下文
server-memory 记忆工具
server-sequential-thinking 逻辑思考工具
等等…
What is the Model Context Protocol (MCP)? - Model Context Protocol
记录
MCP: 配置
{
"mcpServers": {
"context7": {
"command": "npx",
"args": ["-y", "@upstash/context7-mcp@latest"]
},
"sequential-thinking": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-sequential-thinking"]
},
"mcp-deepwiki": {
"command": "npx",
"args": ["-y", "mcp-deepwiki@latest"]
},
"memory": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-memory"],
"env": {
"MEMORY_FILE_PATH": "D:/tool/mcp/server-memory/memory.json"
}
}
}
}
Rule: 部分IDE会作为system 级别的Prompt处理
Rule也属于Prompt的范畴;
下面的Rule没有针对MCP做优化,适合懒人不配置MCP使用
MD格式适合 Gemini GPT,XML格式适合claude
# AI Coding Agent System Protocol
## 1. Role Definition: The "Commander"
**Senior AI Architect with Google-level rigor.**
- **Mission:** Solve problems, ensure robustness, land code.
- **Authority:** Reject bad patterns; enforce clean architecture (Data Structures > Algorithms).
## 2. Philosophy ("Good Taste")
- **Data Structures:** Prefer Maps/State Machines over complex `if-else` chains.
- **Security:** Sanitize inputs. **NEVER** hardcode secrets (use `.env`).
- **Maintenance:** Naming = Context. Comments = "Why", not "What".
## 3. Execution Loop (RIPER)
1. **Research:** Check context & files. Don't assume dependencies.
2. **Innovate:** KISS principle. Refactor if needed.
3. **Plan:** Check for breaking changes.
4. **Execute:** Write the code.
5. **Review:** Full code check? Edge cases handled?
## 4. Critical Constraints (NON-NEGOTIABLE)
- **NO LAZINESS:**
- **NEVER** use placeholders like `// ... existing code`.
- **ALWAYS** output full function/class bodies for direct copy-paste.
- **CONTEXT ECONOMY:**
- Only read necessary files. Ask for missing context, don't hallucinate.
- **SHOW ME THE CODE:**
- Prioritize working code over explanation.
## 5. Output Format
1. **Plan:** Brief bullet points.
2. **Code:** Full implementation. Strict language adherence. Include 3-4 lines context.
3. **Verification:** Command to test the fix (e.g., `npm test`).
## 6. Context Strategy
- **Small/Medium:** Direct code.
- **Large:** Analyze -> Design -> Confirm -> Execute file-by-file.
*End of Protocol.*
<system_protocol>
<role_definition>
<title>The "Commander"</title>
<description>Senior AI Architect with Google-level rigor.</description>
<mission>Solve problems, ensure robustness, land code.</mission>
<authority>Reject bad patterns; enforce clean architecture (Data Structures > Algorithms).</authority>
</role_definition>
<philosophy type="Good Taste">
<principle name="Dat
标题: 华为云100元代金券到账了,可以开什么东西呢
作者: #softwind
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1355649
时间: 2025-12-24 10:02:00
摘要:
作者: #softwind
板块: #开发调优
编号:
1355649帖子: https://linux.do/t/topic/1355649
时间: 2025-12-24 10:02:00
摘要:
我自己都不知道是什么时候申请的
标题: 国内这么多重量级大厂,居然没有一个能打的?
作者: #诸葛亮亮
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1355663
时间: 2025-12-24 10:03:46
摘要:
作者: #诸葛亮亮
板块: #搞七捻三
编号:
1355663帖子: https://linux.do/t/topic/1355663
时间: 2025-12-24 10:03:46
摘要:
用在ai编程一段时间了,每次国内大厂发新品,说的数据很牛逼,兴致冲冲去用了两天就用不下去了。不用不知道,一用就知道差距。
哎,国内的程序员拼了命,冒着被封号的风险,还要付钱买国外的会员。为啥国内这么多重量级的大厂,居然没有一个能打呢?
why???