标题: 送德国静态住宅ip
作者: #阿瓦达啃大瓜
板块: #福利羊毛
编号:
帖子: https://linux.do/t/topic/2023696
时间: 2026-04-21 22:21:47
摘要:
作者: #阿瓦达啃大瓜
板块: #福利羊毛
编号:
2023696帖子: https://linux.do/t/topic/2023696
时间: 2026-04-21 22:21:47
摘要:
可以开德国沃达丰,需要进行链式代理,不会的话自己去搜,7天有效期,评论区或者直接私信,我上线的时候回
标题: Claude Pro 升 Max有靠谱优惠的方式么
作者: #IsaacLiu
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2023703
时间: 2026-04-21 22:22:05
摘要:
作者: #IsaacLiu
板块: #搞七捻三
编号:
2023703帖子: https://linux.do/t/topic/2023703
时间: 2026-04-21 22:22:05
摘要:
今天忍痛开了 Claude Pro Plan,用两下就耗尽了5h 的限额,然后 reddit 看到有所谓 gift 升 Max 5x / 20x 的,聊了两句就加密货币,看此类不靠谱的很多,就没继续聊。大佬们有无知道考虑的途径的?
标题: 测试一下自己的号池到HUB的性能,上线0.2倍率的PLUS渠道,限额50刀
作者: #hhhhhh
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2023717
时间: 2026-04-21 22:22:36
摘要:
作者: #hhhhhh
板块: #开发调优
编号:
2023717帖子: https://linux.do/t/topic/2023717
时间: 2026-04-21 22:22:36
摘要:
测试一下自己的号池到HUB的性能,上线0.2倍率的PLUS渠道,限额50刀
标题: agent开发如何找实习
作者: #Hovey
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2023739
时间: 2026-04-21 22:23:59
摘要:
作者: #Hovey
板块: #搞七捻三
编号:
2023739帖子: https://linux.do/t/topic/2023739
时间: 2026-04-21 22:23:59
摘要:
各位大佬好,本人双非研一,暑假想找个实习。现在听说大模型应用开发比较容易入行,想找这方面的实习,但是不知道怎么弄简历。想问问各位大佬有没有agent和rag的项目推荐,可落地的那种。
标题: 苹果芯片跑本地大模型的性能和意义
作者: #freegrid
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2023743
时间: 2026-04-21 22:24:08
摘要:
作者: #freegrid
板块: #开发调优
编号:
2023743帖子: https://linux.do/t/topic/2023743
时间: 2026-04-21 22:24:08
摘要:
最近我集中测了一轮苹果芯片本地跑大模型,机器覆盖了几种不同档位,模型、量化、上下文长度、推理框架也尽量拉开了一些。
我想聊的其实不只是“Mac 跑本地模型快不快”,而是两个更实际的问题:
苹果芯片跑本地大模型,真实性能到底在什么水平;
到了现在,本地部署这件事到底还有没有意义,意义又主要体现在哪。
网上关于这个话题的讨论很多,但经常会混在一起:有人看纯 tokens/s,有人看首 token 延迟,有人看长上下文,有人看功耗和静音体验,还有人更在意隐私、离线可用、长期成本,最后很容易各说各话。
所以这帖我想尽量把测试数据和使用场景拆开说:先贴我本地实际跑出来的一批结果,再聊聊我自己对“苹果芯片 + 本地大模型”这件事的判断,哪些是优势,哪些是想象,哪些场景值得投入,哪些场景其实不如直接用云端。
如果你们手里也有 M1/M2/M3/M4 不同机器,或者不同框架、不同量化的测试,也欢迎一起补数据,我尽量把这帖做成一个可参考的样本帖,而不只是单次跑分展示。
标题: 【请教】Cluade可以用二级域名邮箱注册吗
作者: #Lei
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2023754
时间: 2026-04-21 22:24:31
摘要:
作者: #Lei
板块: #搞七捻三
编号:
2023754帖子: https://linux.do/t/topic/2023754
时间: 2026-04-21 22:24:31
摘要:
请教各位佬,Cluade可以用二级域名邮箱注册吗,就用用free账号,会被封号吗?
标题: 分享我简单好看的 CC statusline | 支持深浅主题
作者: #Cha
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2023756
时间: 2026-04-21 22:24:38
摘要:
作者: #Cha
板块: #搞七捻三
编号:
2023756帖子: https://linux.do/t/topic/2023756
时间: 2026-04-21 22:24:38
摘要:
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
我的帖子已经打上 开源推广 标签: 是
我的开源项目完整开源,无未开源部分: 是
我的开源项目已链接认可 LINUX DO 社区: 是
我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
算是自用版,所以没有复杂的配置,佬友们喜欢这种风格的话可以自己把脚本拉下来,然后让 CC 加点别的东西
地址:
github.com
GitHub - minoism/cc-pretty-statusline: A good-looking Claude Code statusline
A good-looking Claude Code statusline
标题: 航旅纵横崩了
作者: #lvcat
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2023768
时间: 2026-04-21 22:25:20
摘要:
作者: #lvcat
板块: #搞七捻三
编号:
2023768帖子: https://linux.do/t/topic/2023768
时间: 2026-04-21 22:25:20
摘要:
航旅纵横App所属的公司怎么了,服务中断都超9h了,没人发现吗
标题: OpenAI 暗示今天发布 GPT Image 2 ?
作者: #lueluelue
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/2023776
时间: 2026-04-21 22:26:41
摘要:
作者: #lueluelue
板块: #前沿快讯
编号:
2023776帖子: https://linux.do/t/topic/2023776
时间: 2026-04-21 22:26:41
摘要:
https://x.com/OpenAI/status/2046589828918317155
标题: 【picpi 皮皮工艺站】4月23日 晚上22:30 邀请码准时开抢!
作者: #picpi
板块: #福利羊毛
编号:
帖子: https://linux.do/t/topic/2023781
时间: 2026-04-21 22:27:00
摘要:
作者: #picpi
板块: #福利羊毛
编号:
2023781帖子: https://linux.do/t/topic/2023781
时间: 2026-04-21 22:27:00
摘要:
从 【picpi 皮皮公益站】运营近况良好,近期要发放新名额啦! 继续
工艺站主贴:【picpi 皮皮公益站】主要自用 小规模开放 codex可用
4月23日 晚上22:30 邀请码准时开抢
名额发放计划已经已经确定,本来准备这次来波大的,但是由于我的钱包实在扛不住,所以这次名额数量是低于我的预期的,但是都已经说要发了,那就要信守承诺,开发!
号池状况
昨天注册机狂奔一天,差点把我的钱包烧干了。手机号都被我给干涨价了,目前成本确实有点高了,有点超出我的预期了。
这几天再看看情况,不行的话就把注册机关了。之后就不收人了,现有号池循环就好,目前看来我的养号方法非常完美,目前一个号都没被封,偶尔掉登录的重新登录一下就好。
另外我也发现一个问题,号池规模越大,养号成本就越高,光是优质家宽成成本就不菲,每100个号就得配置一个家宽,消耗是真的高。继续扩大规模性价比已经很低了,目前这种状况,看来是没法扩大规模了。
目前计划就是将号池补到3000之后注册机就先关机了,少量的号掉了我继续补。
运营计划
继续扩大规模最终的结果就是倒闭 (太烧钱了),所以在没有更好的方案之前,先维持150人左右的规模吧。
毕竟我不想让我的工艺站开几天就倒闭。开都开了,至少怎么也得开半年吧!
除非奥特曼作妖,能把我分布在30个家宽上的号全部一网打尽了。那我就投降,宣布倒闭。
本次名额发放规则
我去小黄鱼看了一眼,我的工艺站邀请码居然还涨价了。
这次我要让他们彻底断货,直接出绝招~ 。要是还有货我也没辙了。
每个邀请码sdk放两份,抢到就必须立即去注册,不然就会被别人抢先注册了。
虽然对老友们的手速要求更高了,但是也没别的更好的方法了。
本次还是采用和上次一样的防脚本手段,把sdk拉取链接放到我的服务器上,到时间了刷新链接自动重定向到领取链接。
领取链接:https://look.picpi.top/api/gocdk
抢码小妙招
提前登录好 linuxdo 官方 cdk 网站。
提前几分钟过交互式质询之后疯狂刷新。
服务器炸了不要慌,接着猛刷,运气好就进去了。
进阶玩法:优选 c
标题: 佬们,这是什么情况?今天奥特曼封号过山车啊
作者: #mike8861
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2023787
时间: 2026-04-21 22:27:48
摘要:
作者: #mike8861
板块: #搞七捻三
编号:
2023787帖子: https://linux.do/t/topic/2023787
时间: 2026-04-21 22:27:48
摘要:
今天下午直接显示有100个号401了,结果后来晚上发现恢复了11个号,刚刚再刷新一下恢复了几十个号? 这是奥特曼突然良心发现了吗
标题: 怎么感觉最近 GPT 速度变快很多
作者: #moonlight
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2023834
时间: 2026-04-21 22:32:30
摘要:
作者: #moonlight
板块: #开发调优
编号:
2023834帖子: https://linux.do/t/topic/2023834
时间: 2026-04-21 22:32:30
摘要:
最近 gpt 好像变得超级快;反而 claude opus 4.7 变慢了,claude 相比 GPT 的一大优势已经没有了
标题: 正本清源(二):从 prompt engineering 到 harness,AI 使用者真正在解决的是什么问题
作者: #Khalil Gao
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2023835
时间: 2026-04-21 22:32:43
摘要:
作者: #Khalil Gao
板块: #开发调优
编号:
2023835帖子: https://linux.do/t/topic/2023835
时间: 2026-04-21 22:32:43
摘要:
好久不见,正本清源系列恢复更新,让咱们直接进入正题
一个普遍的感受是:AI 工具越来越多,混乱到让人焦虑。昨天学的 prompt 技巧今天已经过时,RAG 还没搞清楚 agent 又冒出来,agent 还没用熟练 MCP 又成了标配,MCP 没摸透 harness 又被推上舞台。每一波浪潮都宣称自己是"真正的答案",而上一波的东西顺理成章被贬为"过时的玩法"。
但如果你把时间拉长来看这条路径,会发现它不是随机堆积的。它有一个清晰的内在逻辑。每一层新范式都在解决上一层自己制造出来的瓶颈。看懂这个演化路径,比学会任何一个具体工具都重要——因为它决定了你该站在哪一层用力。
这篇文章想做的,是沿着时间线把每一波浪潮拆开:当时人们在和什么问题搏斗?这个问题的根源是什么?解决它的过程又制造了什么新问题?然后回到一个更根本的问题——作为一个 AI 使用者,你该如何学习、该如何优化、该如何在这片工具废土里找到自己的站位。
2022:Prompt 作为一种发现
2022 年 1 月,Google Brain 的 Wei 等人发表了 Chain-of-Thought 论文,证明了一件今天看来近乎废话的事——如果你让模型把推理步骤一步一步写出来,它在多步问题上的表现会显著提升。据 Google 在 PaLM 上的测试,这一简单变化让模型在 GSM8K 数学推理基准上达到了当时的最好成绩。几个月后 ChatGPT 发布,整个世界突然意识到"怎么跟模型说话"是一门可以学的手艺。
但今天回看,prompt engineering 的真正意义不是那些"技巧集合"。few-shot、chain-of-thought、role prompting——这些范式有效的本质原因是它们逼着使用者把一个模糊的问题翻译成精确的指令。它们在做的事情,是把"人没把问题想清楚"这个底层缺陷暴露出来,然后用技巧绕过去。
这个时期真正被验证的,是一个被低估的事实:模型对精确描述的敏感度极高,对模糊表达的容错极低。在这个约束下,任何能让使用者被迫变精确的机制都有效。而这些机制里最有效的那几个,后来被抽象成了可传授的技巧。
这个阶段留下的最大遗产不是某个 prompt 模板,而是一个认知起点——你的表达精度本身就是生产力。但这个认知很快就撞上了它自己的天花板。
2022 年底到 2023:推理是可以被"拉长"的
Chain-of-Thought 证明一件事之后,很自然地衍生出下一个问题:如果让模型把一步推理变成多步有用,那么让它把多步推理变成树状搜索、图状探索,是不是更有用?2023 年初,Yao 等人的 Tree-of-Thought 给出了肯定答案——让模型在每一步都枚举多个可能的"思路",然后用搜索算法遍历这棵思维树。之后又有 Graph-of-Thought、self-consistency 等一系列变体。
表面上看,这一阶段是 prompt engineering 的深化。但它真正传递的信号是另一件事:模型的推理能力不是一个静态的量,而是一个可以通过外部结构来放大的量。同一个模型,在线性 prompt 下可能答错,在树状 prompt 下可能答对。差别不在模型,在你给它搭的"思考脚手架"。
这个发现的深层含义,到后来才被完整消化——我们看到的不是"模型变聪明了",是"在适当的结构下,模型能表现出的推理水平比它在单轮对话里显露的要高得多"。ToT 和 GoT 本身并没有直接成为今天主流 agent 架构的骨架——后者更多是 CoT 加工具调用的结合体——但这一阶段留下的那条认知在后来被反复验证:怎么围绕模型搭一个好的工作流程,常常比选什么模型更决定结果。
2023:RAG 和 agent,向外部世界开口
到 2023 年,人们开始撞上 prompt 层面解决不了的问题。模型不知道你公司的文档、不知道今天的新闻、不能查数据库、不能执行代码。你把 prompt 调到天上去也没用,因为它答不出它不知道的事。
两条路同时被走通。一条是 RAG(Retrieval-Augmented Generation):在生成之前先去检索相关文档,把结果塞进上下文。另一条是 agent + tool use:让模型能调用外部工具,自己去搜索、去执行、去查询。2023 年 Yao 等人的 ReAct 论文把这两件事缝在一起——让模型交替进行"思考"和"行动",先推理下一步该干什么,再调用工具获取信息,再根据结果继续推理。6 月 OpenAI 推出 function calling,把 agent 能力下沉到 API 层。同年 AutoGPT、CAMEL 等多 agent 实验把这条路推到极端,LangChain 顺势成了构建 agent 系统的事实标准框架。
这一阶段的技术细节很丰富,但内核只有一个问题:模型的智能被它的"信息封闭"严重限制了。训练数据截止之后的事它不知道,你桌面上的文件它看不到,生产环境的数据库它连接不上。解决这个问题需要的不是更好的模型,是更宽的接口。
但这条路走出来之后,马上显露出新的代价。每接入一个工具都要写自定义集成,每个框架有自己的一套约定,不同模型供应商的 function calling 格式不一样,同一个能力在 LangChain 里是一种写法、在自研系统里又是另一种。工具越多,维护成本呈平方级增长。这个问题后来被 MCP 的叙事正式命名为 N×M 集成问题——N 个模型、M 个工具,每一对组合都可能要写一遍。
2024:MCP 是标准化的必然
2024 年 11 月,Anthropic 发布了 Model Context Protocol(MCP),把 agent 接入外部工具的方式标准化了。概念其实很朴素——定义一套协议,让工具提供方只实现一次 MCP 服务端,模型和客户端就都能使用;反过来,客户端只对接 MCP 规范,就能连上生态里任何遵循该协议的工具。这个设计和 Language Server Protocol 的思路是同构的——用一层标准协议把 N×M 问题降维成 N+M。
MCP 推出之后的一年,生态扩展得非常快。Anthropic 官方数据显示,到 2025 年末已经有超过 75 个连接器直接挂在 Claude 上,MCP 的 Python 和 TypeScript SDK 每月下载量合计超过 9700 万。OpenAI、Google DeepMind、Microsoft 相继加入,协议最终被捐给 Linux Foundation 下的 Agentic AI Foundation。它成了这一代 agent 基础设施的公共底座。
MCP 层面真正在解决的问题,其实不是"怎么用 AI",而是"怎么让 AI 的使用不重复造轮子"。它是一个工程范畴的胜利,不是 AI 能力范畴的胜利。这一点很关键——很多人看到 MCP 被热捧,以为自己也该去学 MCP,但如果你根本还没到需要编排多个工具的阶段,MCP 对你不会产生任何边际价值。它是为那些已经感受到 N×M 疼痛的人准备的。
2025:Context engineering,承认窗口是幻觉
到 2025 年,另一个反直觉的事实开始被广泛接受:上下文窗口不是越大越好。
早期人们默认,如果模型能看到 100 万 token,那就把所有可能相关的东西都塞进去,让模型自己挑。现实是,窗口一旦超过某个阈值,模型从长上下文里准确召回信息的能力反而下降——研究者把这种现象命名为 context rot。SWE-rebench 的维护者观察到模型性能在 100 万 token 附近会撞上一道硬墙,再往后不管窗口技术上支持多少都会明显劣化。塞得越多,模型越走神。Databricks 的一项研究甚至在 32K token 附近就观测到了明显的精度下降。
这个认识直接催生了 context engineering 的概念。2025 年 9 月,Anthropic 在官方工程博客里把它定义为 prompt engineering 的自然延续,关注的焦点从"如何措辞一条指令"变成了"如何配置模型在每一步推理时能看到的信息"。同时期,Gartner 发布报告称 prompt engineering 正在被 context engineering 取代;Andrej Karpathy 和 Shopify 的 Tobi Lütke 在社交媒体上公开支持这个转向。按 DataCamp 的测试数据,合理的上下文管理能在 agent 基准上带来 54% 的性能提升。
这一阶段真正在解决的问题是:模型的注意力是有预算的。和人一样,给它看的东西越多,它能给每一部分的关注就越少。好的使用不是最大化给它的信息,是精准地给它最少但最必要的信息。这和 prompt engineering 时代的"把话说清楚"其实是同一个原理的升级版——当年是一句话的精度,现在是整个上下文窗口的精度。
现在:Harness 是让模型能"做事"的基础设施
走到 2025 年底、2026 年初,我们来到了目前这个阶段——harness 时代。Claude Code、Cursor、Aider 这些工具被统称为 harness,不是因为它们把多次使用串起来,而是因为它们把一个只能"说话"的模型包裹进了一整套"能做事"所需的基础设施:文件系统访问、shell 执行、工具调用原语、权限和确认机制
标题: 求助,cpa上的账号维护
作者: #manylun
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2023886
时间: 2026-04-21 22:37:50
摘要:
作者: #manylun
板块: #搞七捻三
编号:
2023886帖子: https://linux.do/t/topic/2023886
时间: 2026-04-21 22:37:50
摘要:
古法注册了几天,囤了百来个号,比较心疼,所以需要维护账号。cpa管理账号是真的不方便,刷新token的机制,有的说法是禁用后就不会自动刷新,有的说用轮询机制比较友好续签。有的借助第三方脚本。有的换sub2api。但是主动去刷新会不会导致号死得更快?有没有佬有更好的结论?
标题: 好消息PRO号儿没掉,还在,坏消息,卖家是骗子,已封号
作者: #正在缓冲99%
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2023900
时间: 2026-04-21 22:38:53
摘要:
作者: #正在缓冲99%
板块: #搞七捻三
编号:
2023900帖子: https://linux.do/t/topic/2023900
时间: 2026-04-21 22:38:53
摘要:
还好,我当时选择充我自己号上,没有碰到一号多卖的情况,前几天调订阅也没有掉到我这儿,现在号还在
后续想治吧,也应该是没人管了。不过既然他都被挂骗子了,我想我找他,他应该也是不会管的
希望我的 Pro 可以再坚持坚持,哈哈
标题: ai使用求助
作者: #yuanran327
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2023901
时间: 2026-04-21 22:39:17
摘要:
作者: #yuanran327
板块: #开发调优
编号:
2023901帖子: https://linux.do/t/topic/2023901
时间: 2026-04-21 22:39:17
摘要:
最近感觉ai降智了,各位佬友怎么能更好的使用大模型呢