标题: 纯国内网络环境下的claude code如何正常运行?
作者: #WuHuFly
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1783665
时间: 2026-03-19 17:37:45
摘要:
作者: #WuHuFly
板块: #搞七捻三
编号:
1783665帖子: https://linux.do/t/topic/1783665
时间: 2026-03-19 17:37:45
摘要:
本人今天帮朋友装claude code,他那边翻不了,纯国内环境,我就通过npm替换淘宝源装上了cc,用的中转站也可以正常连上,github访问还是通过steam++加速器实现的,但是这就有点麻烦了,不能每次用cc都开加速器吧,我就想能不能写入claude.md强制要求它访问github或者其他库时替换成国内源呢?有没有佬实现过?
标题: 要下班了,水一下提议让公司拥抱ai编程的经历
作者: #cqjdcheng
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1783667
时间: 2026-03-19 17:38:18
摘要:
作者: #cqjdcheng
板块: #搞七捻三
编号:
1783667帖子: https://linux.do/t/topic/1783667
时间: 2026-03-19 17:38:18
摘要:
我是重度ai使用者,从ai可以编程开始一直在尝试和寻找最好用的ai编程的方式。
直到最近才稳定下来,使用codex(中转毕竟太便宜),并在公司项目中有不少产出。
然后公司最近情况也不太好,2月份工资还没发,本着是想公司好的方向,给领导建议使用ai来编程,来提高效率。
结果讨论了一周多,领导让架构师和技术负责人去调研ai编程的可行度,其实这里我已经有过功能产出了。
然后今天开会,架构师说:觉得ai编程只是辅助,没得必要搞。我是一脸的问号。
心有点累,最后领导还是决定要用ai编程,让我准备培训材料。
唉,我觉得ai不会淘汰程序员,只会淘汰不会用ai的程序员
标题: 问个愚蠢的问题, HotaruAPI的claude-opus-4-6怎么用的?
作者: #朱高祖
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1783674
时间: 2026-03-19 17:41:16
摘要:
作者: #朱高祖
板块: #开发调优
编号:
1783674帖子: https://linux.do/t/topic/1783674
时间: 2026-03-19 17:41:16
摘要:
没有说明书我是真的不知道怎么配置,baseurl是https://hotaruapi.com/v1/messages?,分组选claude?用cc-swith来配置?
标题: codex怎么破限呢,让他写个注册机死活不招😡
作者: #3721
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1783675
时间: 2026-03-19 17:42:03
摘要:
作者: #3721
板块: #开发调优
编号:
1783675帖子: https://linux.do/t/topic/1783675
时间: 2026-03-19 17:42:03
摘要:
佬们有没有破限的提示词 给他发了就能乖乖干活的
标题: 有佬知道opencode如何重置设备码吗 mimo用一半免费额度日限了
作者: #PolarisR
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1783676
时间: 2026-03-19 17:42:09
摘要:
作者: #PolarisR
板块: #开发调优
编号:
1783676帖子: https://linux.do/t/topic/1783676
时间: 2026-03-19 17:42:09
摘要:
rt 不用登录也能用,但是免费额度跟设备不跟账号
标题: 丁磊 :有内鬼终止交易
作者: #薛定谔
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/1783683
时间: 2026-03-19 17:44:16
摘要:
作者: #薛定谔
板块: #前沿快讯
编号:
1783683帖子: https://linux.do/t/topic/1783683
时间: 2026-03-19 17:44:16
摘要:
https://linux.do/t/topic/1778318
继网易裁掉所有外包后续
标题: 免费领一个月云龙虾
作者: #heisenberg_bu
板块: #福利羊毛
编号:
帖子: https://linux.do/t/topic/1783685
时间: 2026-03-19 17:44:32
摘要:
作者: #heisenberg_bu
板块: #福利羊毛
编号:
1783685帖子: https://linux.do/t/topic/1783685
时间: 2026-03-19 17:44:32
摘要:
天翼云ai电脑的活动,登录就可以领一个月
标题: 我把一个“离线离线微型专家系统” 跑到了 ESP32-C3 上
作者: #邓觉眠
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1783690
时间: 2026-03-19 17:45:54
摘要:
作者: #邓觉眠
板块: #开发调优
编号:
1783690帖子: https://linux.do/t/topic/1783690
时间: 2026-03-19 17:45:54
摘要:
最近我把一个公开 demo 仓库整理出来了,我会把仓库地址放在评论区,欢迎各位大佬审阅。
首先我得声明一点:这不是“在 ESP32-C3 上跑通用聊天大模型”,也不是“把云端 LLM 原样塞进 MCU”。如果用更准确的说法,它是一个:
离线的 Tiny Expert board proof
面向特定任务的、table-driven 的边缘推理运行时
可以在真实 ESP32-C3 上复现和审计的固定任务能力证明
我这次公开的重点,不是“模型有多大、多通用、多会聊天”,而是另一条路线:
能不能把某类 benchmark 上已经形成的能力,压缩成一个极小、离线、可审计、能在廉价 MCU 上真实运行的专家系统?
我的答案是:至少在当前这个边界内,可以。
———
这个仓库到底公开了什么?
仓库里现在公开的是两层内容:
Public board proof
Research capability line
这两层我是刻意分开的,因为我不想把“主机侧研究能力”和“板端公开 proof”混在一起讲,容易让人误解。
1. Public board proof
这部分是真实 ESP32-C3 跑出来的,不是 PPT,也不是 host 模拟。
我公开了:
可直接刷写的固件
板端回读 JSON 的脚本
11 个原始 batch 的 board report
聚合后的 summary 和 acceptance 文件
全部文件的 sha256sums.txt
当前公开的板端结果是:
LogiQA 642 = 249 / 642 = 0.3878504672897196
host_full_match = 642 / 642
这组数字真正想说明的不是“249 分有多高”,而是:
板子跑出来的 fixed-batch compiled path,和 host full decision 完全对齐了。
也就是说,这不是“板子上大概有点像”,而是公开的那批样本上,板端路径和主机完整决策一致。
2. Research capability line
当前仓库里同时公开了 host 侧审计过的 scientific surface,指标大致是:
official IFEval = 0.780037
official LogiQA = 0.392523
external_dev = 0.308908
external_blind = 0.425072
注意这里的研究线和板端 proof 是相关的,但不是同一层。
板端 proof 证明的是:
真板运行
flash-resident
fixed-batch compiled execution
可审计、可回读、可对齐
研究线证明的是:
当前 host 侧 capability surface
official / external 指标状态
runtime / shadow / replay / integrity 是否通过
换句话说,我公开的不只是一个分数,而是一整套证据组织方式。
———
这条路线为什么值得讨论?
现在很多人一提边缘 AI,默认就是:
能不能把更大的 LLM 继续量化、继续裁、继续塞到端上?
但我越来越觉得,很多真实场景可能根本不需要一个缩水版聊天模型,而是更需要一个:
极小
离线
稳定
可审计
任务专用
的能力终端。
尤其在 MCU 这种约束下,很多问题不是参数量问题,而是物理约束问题:
内存很小
功耗很紧
网络可能不稳定甚至没有
出错之后必须能追责、能复盘、能解释边界
所以 Engram 走的不是 “mini chatbot” 路线,而是 “把任务能力结晶化成 Tiny Expert” 的路线。
———
它本质上是什么?
这个项目当前公开出来的运行时,本质上是:
flash-resident
packed artifact structures
table-driven
compiled fixed-batch decision path
这点我在仓库里写得很明确,因为我不想制造误导。
它不是 unrestricted open-input native inference。
它不是通用推理引擎。
它也不是“ESP32 上自由聊天”。
如果要挑一句最准确的话,我会说:
这是一个在极端边缘约束下,把 benchmark 相关能力压缩为可执行、可审计、可复现 Tiny Expert 的公开板级 proof。
———
我觉得最值得讨论的,不是“它算不算 LLM”
而是下面这些问题:
如果目标是工业侧可部署性,而不是通用助手,Tiny Expert 会不会比小型通用模型更实用?
在边缘设备上,“可审计、可复现、可解释边界”是不是比“更像聊天机器人”更重要?
未来的 edge intelligence,是否会分成两条路线?
一条是通用模型继续下沉,另一条是任务能力被结晶成大量极小专家。
如果一个系统是 table-driven 的,它是否就天然“不算智能”,还是说这只是另一种更工程化的能力承载形式?
———
同时我也展示了目前项目的限制所在
这个项目也有我明确公开、而且不想遮掩的负面边界。
我在仓库里把负面证据也公开了,尤其是这条:
hidden-family holdout 0 / 85
这意味着什么?
意味着当前证据支持我说:
没看到明显的外部分布崩塌
没看到明显的文本级泄漏
有真实可审计的板端 proof
但它不支持我说:
已经证明了强泛化
已经证明了广义 reasoning transfer
这条路线已经解决了 hidden-family generalization
这也是我为什么把 repo 里的 trust layer 做得这么重。
我不想做那种只发一个漂亮分数、把边界都藏起来的 demo。相比“显得厉害”,我更在意的是:
别人能不能顺着公开材料,自己去验证它到底证明了什么,又没有证明什么。
———
现在仓库里已经公开了哪些可验证材料?
刷机脚本
板端回读脚本
原始 board reports
summary / acceptance / manifest / replay / integrity / audit 状态
SHA256 校验清单
复现路径也很直接,大概就是两步:
py scripts/flash_firmware.py COM3
py scripts/read_board_report.py COM3 --expect-mode logiqa_batch_compiled_probe --expect-artifact-sha256
626a1bfcc0a86585db82130744094ee4512eaaead8b4d9f1dba07175c010719d
———
所以这贴主要想请大家讨论两件事
你们觉得这条 Tiny Expert + board proof + audit stack 的路线,有没有现实价值?
如果继续往前做,最值得补强的是哪一块:开放输入能力、泛化能力、材料化流程公开,还是板端 runtime 形态?
同时我也想接受业内大佬的相关指导:
从 ML 角度看,这是不是只是另一种形式的 task crystallization,而不算“模型”
从系统角度看,这种证据链和边界披露方式够不够严谨
从产品角度看,这条路线到底有没有真实落地面,而不只是技术趣味
如果有人对仓库结构、指标口径、板端 JSON、审计层怎么组织感兴趣,我也可以继续展开。
标题: gemini cli实行行规后的速度是上升还是降质量了
作者: #宁 河图
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1783693
时间: 2026-03-19 17:46:16
摘要:
作者: #宁 河图
板块: #搞七捻三
编号:
1783693帖子: https://linux.do/t/topic/1783693
时间: 2026-03-19 17:46:16
摘要:
cli实行新规后,3.1pro的速度大幅度上升
因为我是写小说,我以前是用codex找问题,然后丢回给哈机米修改,但是以前的情况是他修正的速度不是很快,这次我试了一下,丢进去半分钟没有就给我成稿了
但不知道是不是用质量换取速度的,因为问题确实是给我修改了,感觉还不错,但不知道其余方面的质量如何
标题: OAI今天是不是扛不住了?
作者: #UikDMYY
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1783696
时间: 2026-03-19 17:46:32
摘要:
作者: #UikDMYY
板块: #搞七捻三
编号:
1783696帖子: https://linux.do/t/topic/1783696
时间: 2026-03-19 17:46:32
摘要:
各位佬,今天是不是OAI抗不住了,team号今天用gpt5.4也一直连接超时,用公益站也是显示503或者请求太多,根本没法使用啊。各位佬有没有遇到这种情况?
标题: [慢讯] 懂王喊话不要再炸油田了
作者: #bibubibu
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/1783698
时间: 2026-03-19 17:46:55
摘要:
作者: #bibubibu
板块: #前沿快讯
编号:
1783698帖子: https://linux.do/t/topic/1783698
时间: 2026-03-19 17:46:55
摘要:
不过一方面说以色列绕过自己炸的,一方面又替以色列保证不会再炸,有点缺乏说服力。
标题: 用公益站或者中转站的都用来干什么的,不会用来跑龙虾吧
作者: #hallfay
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1783701
时间: 2026-03-19 17:47:29
摘要:
作者: #hallfay
板块: #开发调优
编号:
1783701帖子: https://linux.do/t/topic/1783701
时间: 2026-03-19 17:47:29
摘要:
今天发现我姐夫,前几天也被龙虾诱惑,入了龙虾的坑了。然后他用的 API 就是在外面找的不知道哪个公益站或者是中转站的那个 API ,看了一下他的记录,那真是啥都有,什么密码、什么生活的东西,都全往里面塞,公司的文件也往里面塞.
这个公益站也好,中转站也好,你聊天的所有内容基本上是完全暴露的吧,只能祈祷这些站长都是君子。我在想他怎么敢的,难道还有人这么干吗?我用中转站和公益站,无论如何都不敢让龙虾跑在上面的.有多少人用公益站或者中转站跑龙虾呀,看看是不是我太胆小了?
标题: cpa反代中出现的Bad Request: {"detail":"Unsupported parameter: response_format"}
作者: #opt
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1783703
时间: 2026-03-19 17:48:13
摘要:
作者: #opt
板块: #搞七捻三
编号:
1783703帖子: https://linux.do/t/topic/1783703
时间: 2026-03-19 17:48:13
摘要:
有没有佬友遇到过啊,这是什么问题导致的呢?
标题: 这个入站理由,你会同意我嘛?
作者: #FU JIE
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1783705
时间: 2026-03-19 17:48:49
摘要:
作者: #FU JIE
板块: #搞七捻三
编号:
1783705帖子: https://linux.do/t/topic/1783705
时间: 2026-03-19 17:48:49
摘要:
邀请朋友申请了几次L站,他说每次都认认真真写,但是就是没过
这次写的有点水,这才终于加入了
我已经关注L站很长一段时间了!本人带着极大的敬重与向往想入住L站与各位佬们分析与交流!希望尊敬的管理员大人们可以了却我的心愿,因为在这之前我已经申请了三次了!而且都是受邀注册的。我这真的不是AI生成的文案啊!我是个大四应届生计算机专业的学生,L站是我获取信息的重要渠道,同时我也有很多想分享的资料或者是看法想与同站大佬交流,我深知本站社区的情况,友善专业,真实且信息源广,真的是我梦寐以求的社区!
当然最重要的还是我不能发帖不能发评论也不能搜索啥的,确实是我想助力社区的一大阻力,希望这次真的能给我通过了吧,球球了!!!
标题: 独立开发者想搞APP/小程序/网站 什么才是归宿 什么又才是目标 真的会成功吗?有点搞
作者: #my_dust
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1783710
时间: 2026-03-19 17:49:33
摘要:
作者: #my_dust
板块: #搞七捻三
编号:
1783710帖子: https://linux.do/t/topic/1783710
时间: 2026-03-19 17:49:33
摘要:
独立开发者想搞APP/小程序/网站 什么才是归宿 什么又才是目标
听风就是雨 已经注册了七八个小程序了 大部分都是处于0人光顾 真的会成功吗? 有点搞
标题: copilot如何开启1m上下文
作者: #xmk2025
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1783714
时间: 2026-03-19 17:49:43
摘要:
作者: #xmk2025
板块: #搞七捻三
编号:
1783714帖子: https://linux.do/t/topic/1783714
时间: 2026-03-19 17:49:43
摘要:
佬,用copilot三四十分钟就要压缩一次对话,有什么办法能开启1m上下文,有插件可以用吗
标题: 刚加入社区有没有佬告诉我一下,怎么换头像呀
作者: #Zephyr.Quest
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1783716
时间: 2026-03-19 17:49:54
摘要:
作者: #Zephyr.Quest
板块: #搞七捻三
编号:
1783716帖子: https://linux.do/t/topic/1783716
时间: 2026-03-19 17:49:54
摘要:
想换个帅气的头像但是我看头像更换没法换,是要换邮箱的头像嘛
标题: ClaudeCode还是OpenClaude? 大佬们都选择用哪个?
作者: #sddxsm
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/1783719
时间: 2026-03-19 17:50:23
摘要:
作者: #sddxsm
板块: #开发调优
编号:
1783719帖子: https://linux.do/t/topic/1783719
时间: 2026-03-19 17:50:23
摘要:
ClaudeCode还是OpenClaude? 大佬们都选择用哪个?
标题: QClaw什么都干不了,吃Token挺厉害,20个字,五十万Token出去了.喂不饱啊!
作者: #斯通克斯
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/1783723
时间: 2026-03-19 17:50:33
摘要:
作者: #斯通克斯
板块: #搞七捻三
编号:
1783723帖子: https://linux.do/t/topic/1783723
时间: 2026-03-19 17:50:33
摘要:
QClaw什么都干不了,吃Token挺厉害,20个字,五十万Token出去了.喂不饱啊!