腾讯混元新里程碑:Hy3 preview 发布开源,Agent 表现全面提升
不知道姚shunyu首秀如何
https://mp.weixin.qq.com/s/fUIC9BQCBeI4VMWcS03_pw
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: p2227)
不知道姚shunyu首秀如何
https://mp.weixin.qq.com/s/fUIC9BQCBeI4VMWcS03_pw
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: p2227)
ClaudeMax封号机制 求大佬指导如何清理环境
事情的起因是这样,我第一个号(老号且活了24天的max20x),被封以后,我开了新号且养了几天再去订阅。不到1小时就封号了。
我参考了
但是随后的几个号还是连续1-3小时封号。
使用场景:ClaudeCode Opus4.7 单开对话 开SubAgent 任务复杂度比较中上
请教一下如何避免Claude死翘翘
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 无情)
事情的起因是这样,我第一个号(老号且活了24天的max20x),被封以后,我开了新号且养了几天再去订阅。不到1小时就封号了。
我参考了
https://github.com/win4r/cc-notebook/blob/main/%E6%B8%85%E9%99%A4Claude_Code%E8%BF%BD%E8%B8%AA%E6%95%B0%E6%8D%AE%E6%8C%87%E5%8D%97.md的重置设备标识``清除遥测和分析数据``清除 OAuth 账号关联但是随后的几个号还是连续1-3小时封号。
使用场景:ClaudeCode Opus4.7 单开对话 开SubAgent 任务复杂度比较中上
请教一下如何避免Claude死翘翘
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 无情)
中转站codex 调用 api 生图失败
佬儿们今天上午批量酷驰酷驰生图好好的,下午突然不行了一直报错这是中转站的问题还是官方问题呀
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 鹅鹅鹅)
佬儿们今天上午批量酷驰酷驰生图好好的,下午突然不行了一直报错这是中转站的问题还是官方问题呀
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 鹅鹅鹅)
Clipal 本地LLM网关更新,支持codex、Claude code、Gemini 授权登录,可以当中转商一样用了
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
● 我的帖子已经打上 开源推广 标签: 是
● 我的开源项目完整开源,无未开源部分: 是
● 我的开源项目已链接认可 LINUX DO 社区: 是
● 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
● 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
----------------------
加了这个功能之后,不仅仅是智能LLM API网关了,把CPA的能力也接入了。
依然是10M的小程序,就支撑你本地的AI API请求和智能调度。
之前发帖好像也没人回复我,可怜的。。。。
不写多的话了,欢迎体验,灵巧又好用的Clipal,集成了 cc-swith + CPA 的核心功能github.com
GitHub - lansespirit/Clipal: Minimal LLM API reverse proxy for Claude Code,...
Minimal LLM API reverse proxy for Claude Code, Codex CLI & Gemini CLI — YAML routing, hot reload, and automatic provider failover. 极简 LLM API 反向代理:面向 Claude Code / Codex CLI / Gemini CLI,支持 YAML 配置、多上游优先级与自动故障转移。
本地API智能调度软件 Clipal,支持Codex/Claude/Gemini CLI 和各种LLM Chat客户端,支持一键接管本地 LLM API - 资源荟萃 - LINUX DO
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: eros face)
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
● 我的帖子已经打上 开源推广 标签: 是
● 我的开源项目完整开源,无未开源部分: 是
● 我的开源项目已链接认可 LINUX DO 社区: 是
● 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
● 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
----------------------
加了这个功能之后,不仅仅是智能LLM API网关了,把CPA的能力也接入了。
依然是10M的小程序,就支撑你本地的AI API请求和智能调度。
之前发帖好像也没人回复我,可怜的。。。。
不写多的话了,欢迎体验,灵巧又好用的Clipal,集成了 cc-swith + CPA 的核心功能github.com
GitHub - lansespirit/Clipal: Minimal LLM API reverse proxy for Claude Code,...
Minimal LLM API reverse proxy for Claude Code, Codex CLI & Gemini CLI — YAML routing, hot reload, and automatic provider failover. 极简 LLM API 反向代理:面向 Claude Code / Codex CLI / Gemini CLI,支持 YAML 配置、多上游优先级与自动故障转移。
本地API智能调度软件 Clipal,支持Codex/Claude/Gemini CLI 和各种LLM Chat客户端,支持一键接管本地 LLM API - 资源荟萃 - LINUX DO
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: eros face)
本地大模型折腾 M1 MBP vs Windows 性能实测与困惑
各位佬友,最近各家云端 API 用量都在收紧,逼得我不得不把重心转回本地模型。折腾了一圈下来,发现里面的坑确实不少,发个帖跟大家交流下经验。
1. 我的设备现状与实测
目前手里主要有两台本子,但表现差异很大:
● 本子1:MacBook Pro M1 (32GB 统一内存) ● 方案:
● 本子2:Windows 笔记本 (64GB 内存) ● 方案: `llama.cpp` ● 最新尝试: Qwen3.6-27B ● 体验: 极其拉胯。本以为 64G 内存能起飞,结果发现如果没有顶级显存(显存没拉满),纯靠 CPU 推断,速度慢到怀疑人生。
不知道有没有佬友在研究这个方向的,大家交流一下
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: hhnnjjcc)
各位佬友,最近各家云端 API 用量都在收紧,逼得我不得不把重心转回本地模型。折腾了一圈下来,发现里面的坑确实不少,发个帖跟大家交流下经验。
1. 我的设备现状与实测
目前手里主要有两台本子,但表现差异很大:
● 本子1:MacBook Pro M1 (32GB 统一内存) ● 方案:
llama.cpp ● 最新尝试: Qwen3.6-35B-A3B-GGUF ● 体验: 虽然 Token 输出速度不算飞起(勉强在 2-5 t/s 徘徊),但得益于 macOS 的统一内存架构 (Unified Memory),显存和内存通用,跑 30B 级别的模型竟然还算稳定。● 本子2:Windows 笔记本 (64GB 内存) ● 方案: `llama.cpp` ● 最新尝试: Qwen3.6-27B ● 体验: 极其拉胯。本以为 64G 内存能起飞,结果发现如果没有顶级显存(显存没拉满),纯靠 CPU 推断,速度慢到怀疑人生。
不知道有没有佬友在研究这个方向的,大家交流一下
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: hhnnjjcc)
甲骨文一直开不出来,能推荐个好用的便宜点的VPS吗
开了两个月了 直接没有开出来 现在根本就不奢求免费的了 还是得花钱才最香啊
大家都在用什么服务商的 VPS 呀
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: slala)
开了两个月了 直接没有开出来 现在根本就不奢求免费的了 还是得花钱才最香啊
大家都在用什么服务商的 VPS 呀
2 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: slala)
头一次到100/100,纪念一下
话说我记得之前100天全勤不是有勋章来着嘛,有点记不清了,现在还有的嘛
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 一只橘子🍊)
话说我记得之前100天全勤不是有勋章来着嘛,有点记不清了,现在还有的嘛
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 一只橘子🍊)
Chrome 内存爆炸💥,你的 Mac 也这样吗?
最近Mac经常卡顿,一看活动监视器,发现 Chrome 内存占用高得离谱,光是 “Google Chrome Helper (Renderer)” 就有好几个进程,其中一个接近 1GB,加起来轻松吃掉 3-4GB 内存,风扇也跟着呼呼转……,佬们,有没有真正能降低内存的Chrome扩展或设置技巧?求助 🙏
5 个帖子 - 5 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 网络街溜子)
最近Mac经常卡顿,一看活动监视器,发现 Chrome 内存占用高得离谱,光是 “Google Chrome Helper (Renderer)” 就有好几个进程,其中一个接近 1GB,加起来轻松吃掉 3-4GB 内存,风扇也跟着呼呼转……,佬们,有没有真正能降低内存的Chrome扩展或设置技巧?求助 🙏
5 个帖子 - 5 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: 网络街溜子)
macOS 版本的 codex app 支持单独购买 codex 额度了
developers.openai.com
Pricing – Codex | OpenAI Developers
Codex is included in your ChatGPT Free, Go, Plus, Pro, Business, Edu, or Enterprise plan
还支持自动购买
3 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: wya)
developers.openai.com
Pricing – Codex | OpenAI Developers
Codex is included in your ChatGPT Free, Go, Plus, Pro, Business, Edu, or Enterprise plan
还支持自动购买
3 个帖子 - 2 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: wya)
image 2 生图怎么感觉有时不思考比思考要好点
比如下面的生图个人感觉不思考版更讨喜点
不思考版生成的图
思考版生成的
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: jam1024)
比如下面的生图个人感觉不思考版更讨喜点
不思考版生成的图
思考版生成的
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: jam1024)
佬们,你多久没拿起一本书安静地品读了,聊聊你最近在看什么书?
最近有点内耗,突然发现,自己好像已经很久没有放下手机,安安静静拿起一本书,沉浸式读上一两个小时了…
目前在看《被讨厌的勇气》 – 挣脱他人期待,接纳不完美,敢做自己。
没有短视频,没有碎片化信息干扰,就安安静静坐着,跟着文字拆解人心、读懂规律、看透底层逻辑,那种慢慢沉淀、慢慢通透的感觉,真的很治愈。
佬们,你多久没安静读一本书了?上次完整读完那本书叫什么,是什么时候?
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: Mac Taylor)
最近有点内耗,突然发现,自己好像已经很久没有放下手机,安安静静拿起一本书,沉浸式读上一两个小时了…
目前在看《被讨厌的勇气》 – 挣脱他人期待,接纳不完美,敢做自己。
没有短视频,没有碎片化信息干扰,就安安静静坐着,跟着文字拆解人心、读懂规律、看透底层逻辑,那种慢慢沉淀、慢慢通透的感觉,真的很治愈。
佬们,你多久没安静读一本书了?上次完整读完那本书叫什么,是什么时候?
1 个帖子 - 1 位参与者
阅读完整话题
via LINUX DO - 最新话题 (author: Mac Taylor)