Maivi 是一款跨平台应用,利用现代人工智能技术快速将语音转换为文本,并将文本添加到剪贴板。
它提供录音控制快捷键和实时文本显示功能。
适用于 Linux、macOS 和 Windows 系统。
🧬 https://github.com/MaximeRivest/maivi/
#tools
它提供录音控制快捷键和实时文本显示功能。
适用于 Linux、macOS 和 Windows 系统。
🧬 https://github.com/MaximeRivest/maivi/
#tools
GitHub
GitHub - MaximeRivest/maivi: Maivi - My AI Voice Input: Real-time voice-to-text local on cpu better than whisper with hotkey support
Maivi - My AI Voice Input: Real-time voice-to-text local on cpu better than whisper with hotkey support - MaximeRivest/maivi
#文件传输
取文件
在线文件传输工具,不限文件格式,最大支持 10 GB,可选择过期时间和永久有效,上传发送文件后,会给到一个取件码,对方输入即可获取文件,免费使用,无需注册。
https://quwenjian.cc
取文件
在线文件传输工具,不限文件格式,最大支持 10 GB,可选择过期时间和永久有效,上传发送文件后,会给到一个取件码,对方输入即可获取文件,免费使用,无需注册。
https://quwenjian.cc
quwenjian.cc
取文件- 文件快递柜
开箱即用的免费文件快传系统,支持大文件快速传输、无需注册一键分享,安全高效解决个人 / 企业文件互传需求。专业文件快递柜工具,助力文件传输更便捷!
全自动攻击越狱Agent
来自佐治亚理工,UIUC, 清华大学等单位的研究者联合发布了一个非常有力的全自动越狱Agent,通过把有害提问分解成下级的,看似无害的提问,来绕过最强的现代商业大模型中防御机制,实现了近乎完美的攻击成功率(96%-98%)。项目主页。根据开源的代码,理论上只要配置各种key,就可以在家攻击越狱各种商业大模型。在论文中,已经被验证可以攻克Gemini系列,GPT-OSS, Claude Haiku 4.5.
🏷 #越狱 #AI安全
来自佐治亚理工,UIUC, 清华大学等单位的研究者联合发布了一个非常有力的全自动越狱Agent,通过把有害提问分解成下级的,看似无害的提问,来绕过最强的现代商业大模型中防御机制,实现了近乎完美的攻击成功率(96%-98%)。项目主页。根据开源的代码,理论上只要配置各种key,就可以在家攻击越狱各种商业大模型。在论文中,已经被验证可以攻克Gemini系列,GPT-OSS, Claude Haiku 4.5.
🏷 #越狱 #AI安全
cka-agent.github.io
CKA-Agent: The Trojan Knowledge
Bypassing Commercial LLM Guardrails via Harmless Prompt Weaving and Adaptive Tree Search
开源项目分享:可去除 Gemini 图片右下角可见水印
这是一款一款名为 GeminiWatermarkTool 的命令行开源工具,可离线去除 Gemini 生成图片右下角的可见水印。工具通过反向 Alpha 混合计算,还原被水印覆盖的像素,支持 jpg、png、webp 等常见格式。该工具为由 C++ 编写,无需依赖,并可批量处理目录。作者表示仅针对 Gemini 当前的可见水印,不支持去除隐藏水印。
另有开发者基于此项目开发出纯前端版本,完全在浏览器本地运行,不依赖服务器。项目使用 JavaScript 实现,通过反向 Alpha 混合算法还原原始像素,避免 AI 修补带来的不确定性。
allenk/GeminiWatermarkTool
这是一款一款名为 GeminiWatermarkTool 的命令行开源工具,可离线去除 Gemini 生成图片右下角的可见水印。工具通过反向 Alpha 混合计算,还原被水印覆盖的像素,支持 jpg、png、webp 等常见格式。该工具为由 C++ 编写,无需依赖,并可批量处理目录。作者表示仅针对 Gemini 当前的可见水印,不支持去除隐藏水印。
另有开发者基于此项目开发出纯前端版本,完全在浏览器本地运行,不依赖服务器。项目使用 JavaScript 实现,通过反向 Alpha 混合算法还原原始像素,避免 AI 修补带来的不确定性。
allenk/GeminiWatermarkTool
GitHub
GitHub - GargantuaX/gemini-watermark-remover: A high-performance, 100% client-side tool for removing Gemini AI watermarks. Built…
A high-performance, 100% client-side tool for removing Gemini AI watermarks. Built with pure JavaScript, it leverages a mathematically precise Reverse Alpha Blending algorithm rather than unpredict...
你是否想让ChatGPT帮你准备求职面试,却不知道怎么提问才能收到最有效的指导?这里有一套实测有效的“高级提示语”框架,帮你系统性提升面试表现!
🎯 框架核心思路:
1️⃣ 角色设定:让ChatGPT扮演资深职业教练,具备10年以上行业经验,专注你所在领域。
2️⃣ 信息收集:先让AI询问关键背景信息,比如公司规模、文化、招聘经理情况、面试阶段等,确保它理解你的具体需求。
3️⃣ 定制方案:基于完整信息,AI设计个性化面试准备计划,包括行为面试题及答案框架、技术或案例题、文化契合度问题。
4️⃣ 模拟面试:逐题问答,AI即时给出结构和内容上的详细反馈,指出优点和改进点,帮助你逐步完善回答。
5️⃣ 亮点挖掘:教你如何结合简历中的关键成就,精准匹配岗位要求,突出自身优势。
6️⃣ 结尾策略:指导你如何调研公司并在面试尾声提出有深度的问题,留下好印象。
✅ 成功关键:
- AI必须先收集所有缺失信息,避免遗漏。
- 问题与反馈紧密结合职位描述和简历内容。
- 反馈具体且可操作,风格专业且积极鼓励。
举个例子,输入:
“我需要帮忙准备一场面试,我会给你职位描述和简历。你需要问我是否还需要了解公司信息、汇报对象等。”
AI优化为:
“你是一位资深职业教练,我正在准备[行业或职位]的面试。请先问我公司名称、规模、文化,招聘经理角色,面试阶段等问题,确保了解全貌。然后帮我制定详细计划,模拟问答反馈,帮我突出简历亮点,最后推荐调研和提问策略。”
📌 想用这套框架?直接试试给ChatGPT发送类似结构的提示,你会发现你的面试准备效率和质量成倍提升!
🎯 框架核心思路:
1️⃣ 角色设定:让ChatGPT扮演资深职业教练,具备10年以上行业经验,专注你所在领域。
2️⃣ 信息收集:先让AI询问关键背景信息,比如公司规模、文化、招聘经理情况、面试阶段等,确保它理解你的具体需求。
3️⃣ 定制方案:基于完整信息,AI设计个性化面试准备计划,包括行为面试题及答案框架、技术或案例题、文化契合度问题。
4️⃣ 模拟面试:逐题问答,AI即时给出结构和内容上的详细反馈,指出优点和改进点,帮助你逐步完善回答。
5️⃣ 亮点挖掘:教你如何结合简历中的关键成就,精准匹配岗位要求,突出自身优势。
6️⃣ 结尾策略:指导你如何调研公司并在面试尾声提出有深度的问题,留下好印象。
✅ 成功关键:
- AI必须先收集所有缺失信息,避免遗漏。
- 问题与反馈紧密结合职位描述和简历内容。
- 反馈具体且可操作,风格专业且积极鼓励。
举个例子,输入:
“我需要帮忙准备一场面试,我会给你职位描述和简历。你需要问我是否还需要了解公司信息、汇报对象等。”
AI优化为:
“你是一位资深职业教练,我正在准备[行业或职位]的面试。请先问我公司名称、规模、文化,招聘经理角色,面试阶段等问题,确保了解全貌。然后帮我制定详细计划,模拟问答反馈,帮我突出简历亮点,最后推荐调研和提问策略。”
📌 想用这套框架?直接试试给ChatGPT发送类似结构的提示,你会发现你的面试准备效率和质量成倍提升!
Reddit
From the ChatGPTPromptGenius community on Reddit
Explore this post and more from the ChatGPTPromptGenius community
日常工作、学习和创作中,信息海量且杂乱,如何高效整理和利用上下文成为挑战。
MineContext 是一个开源的主动式上下文感知AI助手,通过截屏和内容理解(未来支持多模态多源信息),实时捕获你的数字世界全貌,自动生成日/周总结、待办事项和活动记录,帮助你理清思路,提升效率。
主要功能:
- 自动截屏,持续捕捉你的数字工作环境,轻松收集海量上下文;
- 智能重现相关内容,创作时快速调取关键资料;
- 主动推送洞见和总结,让信息主动找上你;
- 本地存储,隐私安全有保障;
- 支持多API接入,灵活定制,完美贴合你的需求。
适合知识工作者、内容创作者、项目经理等多种角色。无需频繁切换工具,MineContext让你的数字生活更智能、更高效。
#资源参考 #AI #开源
MineContext 是一个开源的主动式上下文感知AI助手,通过截屏和内容理解(未来支持多模态多源信息),实时捕获你的数字世界全貌,自动生成日/周总结、待办事项和活动记录,帮助你理清思路,提升效率。
主要功能:
- 自动截屏,持续捕捉你的数字工作环境,轻松收集海量上下文;
- 智能重现相关内容,创作时快速调取关键资料;
- 主动推送洞见和总结,让信息主动找上你;
- 本地存储,隐私安全有保障;
- 支持多API接入,灵活定制,完美贴合你的需求。
适合知识工作者、内容创作者、项目经理等多种角色。无需频繁切换工具,MineContext让你的数字生活更智能、更高效。
#资源参考 #AI #开源
GitHub
MineContext/README_zh.md at main · volcengine/MineContext
MineContext is your proactive context-aware AI partner(Context-Engineering+ChatGPT Pulse) - volcengine/MineContext
系统架构和扩展从来不是只靠理论就能掌握的事情。
《The Accidental CTO》由Subhash Choudhary亲述他如何从零基础到打造支撑百万店铺的Dukaan系统。
这不是枯燥的教科书,而是充满实战经验和幕后故事的系统设计手册:
- 从MVP快速迭代到大规模分布式流水线
- 复制、分片、缓存、队列的利弊权衡
- 观测性、容错设计和云成本管理的实战要点
- 真实生产环境中遇到的各种挑战与解决方案
无论你是工程师、架构师还是创业者,都能从这本书中学到如何将分布式系统从理论变成可用、可扩展、可维护的“活机器”。
#CTO #实践 #MVP
《The Accidental CTO》由Subhash Choudhary亲述他如何从零基础到打造支撑百万店铺的Dukaan系统。
这不是枯燥的教科书,而是充满实战经验和幕后故事的系统设计手册:
- 从MVP快速迭代到大规模分布式流水线
- 复制、分片、缓存、队列的利弊权衡
- 观测性、容错设计和云成本管理的实战要点
- 真实生产环境中遇到的各种挑战与解决方案
无论你是工程师、架构师还是创业者,都能从这本书中学到如何将分布式系统从理论变成可用、可扩展、可维护的“活机器”。
#CTO #实践 #MVP
GitHub
GitHub - subhashchy/The-Accidental-CTO: How I Scaled from Zero to a Million Store on Dukaan, Without a CS Degree. .. A System…
How I Scaled from Zero to a Million Store on Dukaan, Without a CS Degree. .. A System Design Handbook by Subhash Choudhary - subhashchy/The-Accidental-CTO
系统提示词(system prompts)正逐渐过时 | 推特帖子
通过构建真实世界的智能Agent,我们发现一个反直觉的真理:
拼凑一大堆规则的长prompt,反而会降低模型表现。
举例来说,你先加一条退款政策规则,再加一条语气规范,接着又加一条升级流程……很快,prompt就变成一篇2000字的操作手册。
但大型语言模型(LLM)对此表现极差。
研究也验证了这个现象,称之为“指令诅咒”:
规则越多,模型对单条指令的执行能力反而越差。
更好的方法是——“上下文条件式指导”(contextually conditional guidelines)
不是把所有规则塞进一个大prompt,而是把指令拆成模块,按照当前对话上下文动态加载:
每条指导包含:
- 条件:何时加载?
- 动作:满足条件时执行什么?
系统后台根据当前对话状态筛选相关规则,只加载真正需要的几条。
这样,模型不用同时处理几十条规则,而只专注当前3-4条,显著提升执行效果。
这种方法叫做“对齐建模(Alignment Modeling)”,通过上下文结构化指导,让Agent更专注、一致且合规。
关键不在于等待更小或更强的模型,而是设计尊重LLM工作原理的架构。
这套思路已在开源框架 Parlant中实现,欢迎尝试
---
额外思考:
- 这其实是“上下文工程”的进阶:给模型正确、精准、及时的信息,而非一股脑堆砌。
- 这种模块化、条件触发的设计,也更便于维护和扩展。
- 与其盲目加规则,不如用工程思维把Agent当成系统来构建,而非仅靠prompt“打鸡血”。
- 长远看,等待更智能的
通过构建真实世界的智能Agent,我们发现一个反直觉的真理:
拼凑一大堆规则的长prompt,反而会降低模型表现。
举例来说,你先加一条退款政策规则,再加一条语气规范,接着又加一条升级流程……很快,prompt就变成一篇2000字的操作手册。
但大型语言模型(LLM)对此表现极差。
研究也验证了这个现象,称之为“指令诅咒”:
规则越多,模型对单条指令的执行能力反而越差。
更好的方法是——“上下文条件式指导”(contextually conditional guidelines)
不是把所有规则塞进一个大prompt,而是把指令拆成模块,按照当前对话上下文动态加载:
agent.create_guideline(
condition="客户询问退款",
action="先检查订单状态,看是否符合退款条件",
tools=[check_order_status],
)
每条指导包含:
- 条件:何时加载?
- 动作:满足条件时执行什么?
系统后台根据当前对话状态筛选相关规则,只加载真正需要的几条。
这样,模型不用同时处理几十条规则,而只专注当前3-4条,显著提升执行效果。
这种方法叫做“对齐建模(Alignment Modeling)”,通过上下文结构化指导,让Agent更专注、一致且合规。
关键不在于等待更小或更强的模型,而是设计尊重LLM工作原理的架构。
这套思路已在开源框架 Parlant中实现,欢迎尝试
---
额外思考:
- 这其实是“上下文工程”的进阶:给模型正确、精准、及时的信息,而非一股脑堆砌。
- 这种模块化、条件触发的设计,也更便于维护和扩展。
- 与其盲目加规则,不如用工程思维把Agent当成系统来构建,而非仅靠prompt“打鸡血”。
- 长远看,等待更智能的
X (formerly Twitter)
Akshay 🚀 (@akshay_pachaar) on X
System prompts are getting outdated!
Here's a counterintuitive lesson from building real-world Agents:
Writing giant system prompts doesn't improve an Agent's performance; it often makes it worse.
For example, you add a rule about refund policies. Then…
Here's a counterintuitive lesson from building real-world Agents:
Writing giant system prompts doesn't improve an Agent's performance; it often makes it worse.
For example, you add a rule about refund policies. Then…
软件开发过程中,AI协作往往遇到代码臃肿、架构漂移和上下文稀释等难题,导致开发效率低下,调试时间超长。
Disciplined AI Software Development 是一套系统化的 AI 协作开发方法论,采用行为约束和多阶段校验机制,有效解决这些问题。
它通过四个阶段实现:
- 【行为配置】:设定AI行为约束和角色人格,保证协作一致性;
- 【协同规划】:生成结构化开发计划,明确范围、依赖和里程碑;
- 【系统实现】:分阶段、模块化编码,每次专注单一组件,控制代码规模;
- 【数据驱动迭代】:结合性能基准数据,指导持续优化,避免主观判断。
此外,方法论还提供项目结构提取工具,支持持续架构合规检测和性能回归监控。
适合希望与AI高效协作、保持代码质量和架构稳定的开发团队和研究者。
主要特性:
- 行为约束+人格模拟,防止AI输出漂移;
- 明确分阶段规划,减少返工和调试时间;
- 代码文件大小控制(≤150行)提升上下文管理;
- 自动化性能基准反馈,基于数据驱动迭代优化;
- 项目快照导出,方便架构合规审计。
Disciplined AI Software Development 是一套系统化的 AI 协作开发方法论,采用行为约束和多阶段校验机制,有效解决这些问题。
它通过四个阶段实现:
- 【行为配置】:设定AI行为约束和角色人格,保证协作一致性;
- 【协同规划】:生成结构化开发计划,明确范围、依赖和里程碑;
- 【系统实现】:分阶段、模块化编码,每次专注单一组件,控制代码规模;
- 【数据驱动迭代】:结合性能基准数据,指导持续优化,避免主观判断。
此外,方法论还提供项目结构提取工具,支持持续架构合规检测和性能回归监控。
适合希望与AI高效协作、保持代码质量和架构稳定的开发团队和研究者。
主要特性:
- 行为约束+人格模拟,防止AI输出漂移;
- 明确分阶段规划,减少返工和调试时间;
- 代码文件大小控制(≤150行)提升上下文管理;
- 自动化性能基准反馈,基于数据驱动迭代优化;
- 项目快照导出,方便架构合规审计。
GitHub
GitHub - Varietyz/Disciplined-AI-Software-Development: A disciplined methodology for AI-assisted software development. Covers architectural…
A disciplined methodology for AI-assisted software development. Covers architectural constraints, validation hooks, session governance, and PAG (Pattern Abstract Grammar) for structured AI collabor...
《EasyOffer》是一个专为LLM学习者量身打造的开源项目,汇集了大厂面经、手写代码实现和常见大模型面试题,助你深入理解底层原理,提升实习与秋招竞争力。
项目特色:
- DeepSeek 系列模型核心结构及关键模块详解
- 多种生成采样方法(Top-p、Top-k、温度采样)手写实现
- 强化学习DPO训练代码简单解析
- 持续更新 LLaMA、Qwen 等热门大模型核心代码
- 面试必备大模型手写代码题及答案
适合大模型初学者和秋招备战者。
#资源参考 #面试准备 #AI #DeepSeek #LLM
项目特色:
- DeepSeek 系列模型核心结构及关键模块详解
- 多种生成采样方法(Top-p、Top-k、温度采样)手写实现
- 强化学习DPO训练代码简单解析
- 持续更新 LLaMA、Qwen 等热门大模型核心代码
- 面试必备大模型手写代码题及答案
适合大模型初学者和秋招备战者。
#资源参考 #面试准备 #AI #DeepSeek #LLM
GitHub
GitHub - jingtian11/EasyOffer: 《EasyOffer》(<大模型面经合集>)是针对LLM宝宝们量身打造的大模型暑期实习Offer指南,主要记录大模型暑期实习和秋招准备的一些常见大厂手撕代码、大厂面经经验、常见大厂思考题等;…
《EasyOffer》(<大模型面经合集>)是针对LLM宝宝们量身打造的大模型暑期实习Offer指南,主要记录大模型暑期实习和秋招准备的一些常见大厂手撕代码、大厂面经经验、常见大厂思考题等;小白一个,正在学习ing......有问题各位大佬随时指正,希望大家都能拿到心仪Offer! - jingtian11/EasyOffer
深度学习为何有效?——全息原理揭秘 | 相关视频
🔍 深度学习的核心秘密,或许藏在“全息原理”(Holographic Principle)中。这个概念来源于物理学,意味着高维信息可以浓缩于较低维度的结构中,而神经网络正是利用了类似的“张量网络”结构,实现对复杂数据的高效表达与处理。
📊 图示解析:
(a) 标量、向量、矩阵、张量的基本表示,揭示数据从简单到复杂的多维扩展。
(b) 张量的分组,说明如何将复杂结构拆解成更简单的部分,便于计算。
(c) 张量乘积与缩并,揭示神经网络中信息融合与特征抽取的数学本质。
(d) 张量网络示意,展示神经网络层间复杂连接如何通过张量缩并实现高效计算。
💡 深度学习通过张量网络将高维数据映射为紧凑结构,类似全息图将三维信息储存在二维表面。这样的结构不仅节省了计算资源,还提升了泛化能力,解释了为何深度神经网络能在海量数据中捕捉关键特征。
🔗 这为理解深度学习的工作机制提供了新的视角:不是简单的堆叠层级,而是信息的全息编码与解码过程。
——深度学习的力量,正源于对信息结构的“全息”把握。
#资源参考 #深度学习 #全息原理
🔍 深度学习的核心秘密,或许藏在“全息原理”(Holographic Principle)中。这个概念来源于物理学,意味着高维信息可以浓缩于较低维度的结构中,而神经网络正是利用了类似的“张量网络”结构,实现对复杂数据的高效表达与处理。
📊 图示解析:
(a) 标量、向量、矩阵、张量的基本表示,揭示数据从简单到复杂的多维扩展。
(b) 张量的分组,说明如何将复杂结构拆解成更简单的部分,便于计算。
(c) 张量乘积与缩并,揭示神经网络中信息融合与特征抽取的数学本质。
(d) 张量网络示意,展示神经网络层间复杂连接如何通过张量缩并实现高效计算。
💡 深度学习通过张量网络将高维数据映射为紧凑结构,类似全息图将三维信息储存在二维表面。这样的结构不仅节省了计算资源,还提升了泛化能力,解释了为何深度神经网络能在海量数据中捕捉关键特征。
🔗 这为理解深度学习的工作机制提供了新的视角:不是简单的堆叠层级,而是信息的全息编码与解码过程。
——深度学习的力量,正源于对信息结构的“全息”把握。
#资源参考 #深度学习 #全息原理
Bilibili
柏格森全息理论之深度学习揭秘(by Stephen E. Robbins)_哔哩哔哩_bilibili
http://t.cn/RHNDWhz【柏格森全息理论之深度学习揭秘】《Bergson's Holographic Theory - 23 - Deep Learning: The Myths - YouTube》by Stephen E. Robbins http://t.cn/RHNDWhz, 视频播放量 2186、弹幕量 1、点赞数 23、投硬币枚数 10、收藏人数 283、转发人数 20, 视频作者 爱可可-爱生活, 作者简介 新浪微博 @爱可可-爱生活 http://weibo.com/fly…
❤1
AI工程不断迭代升级,想掌握LLM、RAG和智能代理的实战技巧?
AI Engineering Hub 是一个集深度教程与实战案例于一体的开源项目,覆盖大语言模型、检索增强生成、AI代理等前沿内容。无论你是入门者、开发者还是研究者,都能在这里找到丰富资源,助力项目落地和技能提升。
主要特色:
- 系统讲解大型语言模型(LLM)和检索增强生成(RAG)技术
- 丰富的AI智能代理实战案例,展示真实业务应用
- 详细示例代码,方便快速上手和二次开发
- 免费数据科学电子书赠送,涵盖150+核心课程,订阅即得
#资源参考 #AI Engineering Hub #LLM #RAG #AI前沿内容
AI Engineering Hub 是一个集深度教程与实战案例于一体的开源项目,覆盖大语言模型、检索增强生成、AI代理等前沿内容。无论你是入门者、开发者还是研究者,都能在这里找到丰富资源,助力项目落地和技能提升。
主要特色:
- 系统讲解大型语言模型(LLM)和检索增强生成(RAG)技术
- 丰富的AI智能代理实战案例,展示真实业务应用
- 详细示例代码,方便快速上手和二次开发
- 免费数据科学电子书赠送,涵盖150+核心课程,订阅即得
#资源参考 #AI Engineering Hub #LLM #RAG #AI前沿内容
GitHub
GitHub - patchy631/ai-engineering-hub: In-depth tutorials on LLMs, RAGs and real-world AI agent applications.
In-depth tutorials on LLMs, RAGs and real-world AI agent applications. - patchy631/ai-engineering-hub
ollm:在仅8GB显存的GPU上,利用SSD卸载技术运行超大语言模型(LLM)并支持10万token上下文,无需量化处理。这意味着即使硬件受限,也能处理海量上下文数据。
🔹 速度约为0.5 token/秒,虽不适合实时交互,但适合非实时、离线或后台任务。
🔹 这种做法对SSD寿命有较大影响,需权衡性能与硬件耐用性。
🔹 业内讨论关注点:
- 是否值得牺牲SSD寿命换取超大上下文?
- 未来能否结合新内存扩展技术(如三星CXL DRAM扩展)实现更高效方案?
- 量化与混合硬件策略是否更实用?
这项技术拓宽了超大模型的部署边界,尤其适合资源有限但需要处理海量上下文的场景。未来优化空间巨大,值得持续关注。
当前主流LLM部署受限于显存大小,SSD卸载为“显存瓶颈”提供了新思路,但速度和硬件磨损是现实挑战。结合硬件创新(如CXL内存扩展)与软件优化(量化、分布式推理),未来或能实现高效、耐用的超长上下文推理,为复杂任务提供更强支持。
🔹 速度约为0.5 token/秒,虽不适合实时交互,但适合非实时、离线或后台任务。
🔹 这种做法对SSD寿命有较大影响,需权衡性能与硬件耐用性。
🔹 业内讨论关注点:
- 是否值得牺牲SSD寿命换取超大上下文?
- 未来能否结合新内存扩展技术(如三星CXL DRAM扩展)实现更高效方案?
- 量化与混合硬件策略是否更实用?
这项技术拓宽了超大模型的部署边界,尤其适合资源有限但需要处理海量上下文的场景。未来优化空间巨大,值得持续关注。
当前主流LLM部署受限于显存大小,SSD卸载为“显存瓶颈”提供了新思路,但速度和硬件磨损是现实挑战。结合硬件创新(如CXL内存扩展)与软件优化(量化、分布式推理),未来或能实现高效、耐用的超长上下文推理,为复杂任务提供更强支持。
GitHub
GitHub - Mega4alik/ollm
Contribute to Mega4alik/ollm development by creating an account on GitHub.
PrimisAI Nexus 是一款强大灵活的 Python 框架,专为多智能体系统和大型语言模型(LLM)驱动的复杂任务编排设计。它支持创建多层级主管和助理主管结构,自动管理对话历史和日志,支持结构化输出和YAML配置,轻松实现任务分工和多智能体协作。| #框架
核心优势:
- 统一管理多智能体,支持主控与助理主管分层协作
- 内置持久化历史记录,保证会话连续性和复现性
- 灵活配置LLM参数,支持自定义模型调用
- 支持通过MCP协议集成远程或本地工具服务器,实现智能体功能扩展
- 可使用YAML文件定义复杂智能体架构,方便快速部署和修改
- 丰富调试与日志功能,助力开发与问题排查
适合 AI 研究者、开发者以及需要复杂自动化任务管理的团队。
#资源参考 #AI框架 #PrimisAI Nexus
核心优势:
- 统一管理多智能体,支持主控与助理主管分层协作
- 内置持久化历史记录,保证会话连续性和复现性
- 灵活配置LLM参数,支持自定义模型调用
- 支持通过MCP协议集成远程或本地工具服务器,实现智能体功能扩展
- 可使用YAML文件定义复杂智能体架构,方便快速部署和修改
- 丰富调试与日志功能,助力开发与问题排查
适合 AI 研究者、开发者以及需要复杂自动化任务管理的团队。
#资源参考 #AI框架 #PrimisAI Nexus
GitHub
GitHub - PrimisAI/nexus: A powerful Python framework for orchestrating AI agents and managing complex LLM-driven tasks with ease.
A powerful Python framework for orchestrating AI agents and managing complex LLM-driven tasks with ease. - PrimisAI/nexus
SubMix
⭐️ 网站功能:订阅转换
📁 网站简介:一个强大的代理订阅链接转换器,用于将单独的代理订阅链接转换为Mihomo内核所需的YAML配置文件。
支持多种协议,包括VLESS、Hysteria、Shadowsocks等,可以通过简单的操作快速生成、复制和下载配置文件。
🔗 网站网址:点击打开
🔗 项目地址:点击访问
⭐️ 网站功能:订阅转换
📁 网站简介:一个强大的代理订阅链接转换器,用于将单独的代理订阅链接转换为Mihomo内核所需的YAML配置文件。
支持多种协议,包括VLESS、Hysteria、Shadowsocks等,可以通过简单的操作快速生成、复制和下载配置文件。
🔗 网站网址:点击打开
🔗 项目地址:点击访问
subm1x.vercel.app
SubMix - 协议配置管理工具
SubMix - 企业内网多协议连接串解析与 YAML 配置生成工具
OpenAI ChatKit 是一个开箱即用的聊天框架,帮你快速集成高质量、AI 驱动的对话体验。无论是客服、智能助理还是社交应用,只需简单配置,就能拥有流畅自然的聊天界面和强大功能。| #框架
主要亮点:
- 完全可定制的UI,自然融入你的应用
- 支持响应流,打造交互式会话体验
- 内置工具和工作流集成,支持智能推理和多步骤操作
- 丰富的交互组件,支持文件和图片上传
- 线程和消息管理,轻松组织复杂对话
- 来源注释与实体标注,保证透明度和引用准确
只需几步,添加 ChatKit 组件,连接客户端令牌,就能快速上线,省时又高效。
主要亮点:
- 完全可定制的UI,自然融入你的应用
- 支持响应流,打造交互式会话体验
- 内置工具和工作流集成,支持智能推理和多步骤操作
- 丰富的交互组件,支持文件和图片上传
- 线程和消息管理,轻松组织复杂对话
- 来源注释与实体标注,保证透明度和引用准确
只需几步,添加 ChatKit 组件,连接客户端令牌,就能快速上线,省时又高效。
GitHub
GitHub - openai/chatkit-js
Contribute to openai/chatkit-js development by creating an account on GitHub.
一个面向工业4.0的开源框架,专为资产运维和维护打造。它集成了4个领域专用AI代理和2套多代理协同框架,支持模拟多步复杂工作流程的开发与评估。
功能亮点:
- 涵盖物联网传感器管理、故障模式识别、时间序列预测及工单自动生成
- 141个真实工业场景数据集,助力训练和测试AI模型
- 支持多智能体协同,提升复杂任务的自动化执行能力
- 提供Docker环境快速部署,方便工程师和研究者使用
适合维护工程师、可靠性专家和设施规划师,助力实现工业资产的智能化运维升级。
AssetOpsBench | #框架 #资源参考 #工具 #工业4.0
功能亮点:
- 涵盖物联网传感器管理、故障模式识别、时间序列预测及工单自动生成
- 141个真实工业场景数据集,助力训练和测试AI模型
- 支持多智能体协同,提升复杂任务的自动化执行能力
- 提供Docker环境快速部署,方便工程师和研究者使用
适合维护工程师、可靠性专家和设施规划师,助力实现工业资产的智能化运维升级。
AssetOpsBench | #框架 #资源参考 #工具 #工业4.0
GitHub
GitHub - IBM/AssetOpsBench: AssetOpsBench - Industry 4.0
AssetOpsBench - Industry 4.0. Contribute to IBM/AssetOpsBench development by creating an account on GitHub.
Jason Zhou 分享了如何通过“上下文工程”(Context Engineering)和完善的文档系统,让 Claude Code 在复杂代码库中的表现提升10倍,干货满满,值得深度学习:
1. 上下文工程是关键
Claude Code 默认接收系统提示(System prompt)、系统工具、MCP工具、CLAUDE.md文档和消息。使用
2. 子代理(Sub-agent)管理上下文
子代理适合只读任务(如调研),能将大量信息浓缩成关键摘要,帮助主代理聚焦核心内容,避免上下文爆炸。
3. 高效的文档系统至关重要
Jason推荐建立
- System:项目结构、技术栈、数据库模式、关键模块
- SOP:常见错误及最佳实践流程
- Tasks:产品需求文档(PRD)
- README:文档总目录,支持管理大型代码库
这个结构借鉴了 Manus 的本地缓存上下文卸载思路,能处理复杂项目。
4. 自动更新文档
设计
5. 实践案例:管理遗留代码库
@ODMtweets 分享了用类似方法管理基于 WordPress 的大规模遗留代码库。为每个类生成文档,并配合定制代理模式,显著提升了代理对旧代码的理解和操作效率。
上下文工程改变游戏规则:合理设计上下文不仅提升效率,还能让初级开发者产出接近资深水平。
- 文档驱动开发(DDD)落地:结合PRD和细化任务计划,让AI协助代码实现与评审,形成闭环。
- 防止提示漂移:保持文档即时更新和子代理分工,避免上下文信息丢失或偏离目标。
- 成本与收益权衡:更智能的上下文管理虽增加计算成本,但带来的开发效率提升远超投入。
1. 上下文工程是关键
Claude Code 默认接收系统提示(System prompt)、系统工具、MCP工具、CLAUDE.md文档和消息。使用
/context 指令可以查看上下文结构,合理设计上下文能极大提升代码智能生成质量。2. 子代理(Sub-agent)管理上下文
子代理适合只读任务(如调研),能将大量信息浓缩成关键摘要,帮助主代理聚焦核心内容,避免上下文爆炸。
3. 高效的文档系统至关重要
Jason推荐建立
.agent 文件夹,包含:- System:项目结构、技术栈、数据库模式、关键模块
- SOP:常见错误及最佳实践流程
- Tasks:产品需求文档(PRD)
- README:文档总目录,支持管理大型代码库
这个结构借鉴了 Manus 的本地缓存上下文卸载思路,能处理复杂项目。
4. 自动更新文档
设计
/update-doc 命令,代理每完成关键功能或修正错误后自动更新文档,保持知识库与代码同步,防止“上下文漂移”。5. 实践案例:管理遗留代码库
@ODMtweets 分享了用类似方法管理基于 WordPress 的大规模遗留代码库。为每个类生成文档,并配合定制代理模式,显著提升了代理对旧代码的理解和操作效率。
上下文工程改变游戏规则:合理设计上下文不仅提升效率,还能让初级开发者产出接近资深水平。
- 文档驱动开发(DDD)落地:结合PRD和细化任务计划,让AI协助代码实现与评审,形成闭环。
- 防止提示漂移:保持文档即时更新和子代理分工,避免上下文信息丢失或偏离目标。
- 成本与收益权衡:更智能的上下文管理虽增加计算成本,但带来的开发效率提升远超投入。
X (formerly Twitter)
Jason Zhou (@jasonzhou1993) on X
.agent docs made my Claude Code 10x better…
Here is how to context engineer into Claude code
It even works w/ complex codebase
👇 Thread below
Here is how to context engineer into Claude code
It even works w/ complex codebase
👇 Thread below