标题: OpenAI 暗示今天发布 GPT Image 2 ?
作者: #lueluelue
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/2023776
时间: 2026-04-21 22:26:41
摘要:
作者: #lueluelue
板块: #前沿快讯
编号:
2023776帖子: https://linux.do/t/topic/2023776
时间: 2026-04-21 22:26:41
摘要:
https://x.com/OpenAI/status/2046589828918317155
标题: 【picpi 皮皮工艺站】4月23日 晚上22:30 邀请码准时开抢!
作者: #picpi
板块: #福利羊毛
编号:
帖子: https://linux.do/t/topic/2023781
时间: 2026-04-21 22:27:00
摘要:
作者: #picpi
板块: #福利羊毛
编号:
2023781帖子: https://linux.do/t/topic/2023781
时间: 2026-04-21 22:27:00
摘要:
从 【picpi 皮皮公益站】运营近况良好,近期要发放新名额啦! 继续
工艺站主贴:【picpi 皮皮公益站】主要自用 小规模开放 codex可用
4月23日 晚上22:30 邀请码准时开抢
名额发放计划已经已经确定,本来准备这次来波大的,但是由于我的钱包实在扛不住,所以这次名额数量是低于我的预期的,但是都已经说要发了,那就要信守承诺,开发!
号池状况
昨天注册机狂奔一天,差点把我的钱包烧干了。手机号都被我给干涨价了,目前成本确实有点高了,有点超出我的预期了。
这几天再看看情况,不行的话就把注册机关了。之后就不收人了,现有号池循环就好,目前看来我的养号方法非常完美,目前一个号都没被封,偶尔掉登录的重新登录一下就好。
另外我也发现一个问题,号池规模越大,养号成本就越高,光是优质家宽成成本就不菲,每100个号就得配置一个家宽,消耗是真的高。继续扩大规模性价比已经很低了,目前这种状况,看来是没法扩大规模了。
目前计划就是将号池补到3000之后注册机就先关机了,少量的号掉了我继续补。
运营计划
继续扩大规模最终的结果就是倒闭 (太烧钱了),所以在没有更好的方案之前,先维持150人左右的规模吧。
毕竟我不想让我的工艺站开几天就倒闭。开都开了,至少怎么也得开半年吧!
除非奥特曼作妖,能把我分布在30个家宽上的号全部一网打尽了。那我就投降,宣布倒闭。
本次名额发放规则
我去小黄鱼看了一眼,我的工艺站邀请码居然还涨价了。
这次我要让他们彻底断货,直接出绝招~ 。要是还有货我也没辙了。
每个邀请码sdk放两份,抢到就必须立即去注册,不然就会被别人抢先注册了。
虽然对老友们的手速要求更高了,但是也没别的更好的方法了。
本次还是采用和上次一样的防脚本手段,把sdk拉取链接放到我的服务器上,到时间了刷新链接自动重定向到领取链接。
领取链接:https://look.picpi.top/api/gocdk
抢码小妙招
提前登录好 linuxdo 官方 cdk 网站。
提前几分钟过交互式质询之后疯狂刷新。
服务器炸了不要慌,接着猛刷,运气好就进去了。
进阶玩法:优选 c
标题: 佬们,这是什么情况?今天奥特曼封号过山车啊
作者: #mike8861
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2023787
时间: 2026-04-21 22:27:48
摘要:
作者: #mike8861
板块: #搞七捻三
编号:
2023787帖子: https://linux.do/t/topic/2023787
时间: 2026-04-21 22:27:48
摘要:
今天下午直接显示有100个号401了,结果后来晚上发现恢复了11个号,刚刚再刷新一下恢复了几十个号? 这是奥特曼突然良心发现了吗
标题: 怎么感觉最近 GPT 速度变快很多
作者: #moonlight
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2023834
时间: 2026-04-21 22:32:30
摘要:
作者: #moonlight
板块: #开发调优
编号:
2023834帖子: https://linux.do/t/topic/2023834
时间: 2026-04-21 22:32:30
摘要:
最近 gpt 好像变得超级快;反而 claude opus 4.7 变慢了,claude 相比 GPT 的一大优势已经没有了
标题: 正本清源(二):从 prompt engineering 到 harness,AI 使用者真正在解决的是什么问题
作者: #Khalil Gao
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2023835
时间: 2026-04-21 22:32:43
摘要:
作者: #Khalil Gao
板块: #开发调优
编号:
2023835帖子: https://linux.do/t/topic/2023835
时间: 2026-04-21 22:32:43
摘要:
好久不见,正本清源系列恢复更新,让咱们直接进入正题
一个普遍的感受是:AI 工具越来越多,混乱到让人焦虑。昨天学的 prompt 技巧今天已经过时,RAG 还没搞清楚 agent 又冒出来,agent 还没用熟练 MCP 又成了标配,MCP 没摸透 harness 又被推上舞台。每一波浪潮都宣称自己是"真正的答案",而上一波的东西顺理成章被贬为"过时的玩法"。
但如果你把时间拉长来看这条路径,会发现它不是随机堆积的。它有一个清晰的内在逻辑。每一层新范式都在解决上一层自己制造出来的瓶颈。看懂这个演化路径,比学会任何一个具体工具都重要——因为它决定了你该站在哪一层用力。
这篇文章想做的,是沿着时间线把每一波浪潮拆开:当时人们在和什么问题搏斗?这个问题的根源是什么?解决它的过程又制造了什么新问题?然后回到一个更根本的问题——作为一个 AI 使用者,你该如何学习、该如何优化、该如何在这片工具废土里找到自己的站位。
2022:Prompt 作为一种发现
2022 年 1 月,Google Brain 的 Wei 等人发表了 Chain-of-Thought 论文,证明了一件今天看来近乎废话的事——如果你让模型把推理步骤一步一步写出来,它在多步问题上的表现会显著提升。据 Google 在 PaLM 上的测试,这一简单变化让模型在 GSM8K 数学推理基准上达到了当时的最好成绩。几个月后 ChatGPT 发布,整个世界突然意识到"怎么跟模型说话"是一门可以学的手艺。
但今天回看,prompt engineering 的真正意义不是那些"技巧集合"。few-shot、chain-of-thought、role prompting——这些范式有效的本质原因是它们逼着使用者把一个模糊的问题翻译成精确的指令。它们在做的事情,是把"人没把问题想清楚"这个底层缺陷暴露出来,然后用技巧绕过去。
这个时期真正被验证的,是一个被低估的事实:模型对精确描述的敏感度极高,对模糊表达的容错极低。在这个约束下,任何能让使用者被迫变精确的机制都有效。而这些机制里最有效的那几个,后来被抽象成了可传授的技巧。
这个阶段留下的最大遗产不是某个 prompt 模板,而是一个认知起点——你的表达精度本身就是生产力。但这个认知很快就撞上了它自己的天花板。
2022 年底到 2023:推理是可以被"拉长"的
Chain-of-Thought 证明一件事之后,很自然地衍生出下一个问题:如果让模型把一步推理变成多步有用,那么让它把多步推理变成树状搜索、图状探索,是不是更有用?2023 年初,Yao 等人的 Tree-of-Thought 给出了肯定答案——让模型在每一步都枚举多个可能的"思路",然后用搜索算法遍历这棵思维树。之后又有 Graph-of-Thought、self-consistency 等一系列变体。
表面上看,这一阶段是 prompt engineering 的深化。但它真正传递的信号是另一件事:模型的推理能力不是一个静态的量,而是一个可以通过外部结构来放大的量。同一个模型,在线性 prompt 下可能答错,在树状 prompt 下可能答对。差别不在模型,在你给它搭的"思考脚手架"。
这个发现的深层含义,到后来才被完整消化——我们看到的不是"模型变聪明了",是"在适当的结构下,模型能表现出的推理水平比它在单轮对话里显露的要高得多"。ToT 和 GoT 本身并没有直接成为今天主流 agent 架构的骨架——后者更多是 CoT 加工具调用的结合体——但这一阶段留下的那条认知在后来被反复验证:怎么围绕模型搭一个好的工作流程,常常比选什么模型更决定结果。
2023:RAG 和 agent,向外部世界开口
到 2023 年,人们开始撞上 prompt 层面解决不了的问题。模型不知道你公司的文档、不知道今天的新闻、不能查数据库、不能执行代码。你把 prompt 调到天上去也没用,因为它答不出它不知道的事。
两条路同时被走通。一条是 RAG(Retrieval-Augmented Generation):在生成之前先去检索相关文档,把结果塞进上下文。另一条是 agent + tool use:让模型能调用外部工具,自己去搜索、去执行、去查询。2023 年 Yao 等人的 ReAct 论文把这两件事缝在一起——让模型交替进行"思考"和"行动",先推理下一步该干什么,再调用工具获取信息,再根据结果继续推理。6 月 OpenAI 推出 function calling,把 agent 能力下沉到 API 层。同年 AutoGPT、CAMEL 等多 agent 实验把这条路推到极端,LangChain 顺势成了构建 agent 系统的事实标准框架。
这一阶段的技术细节很丰富,但内核只有一个问题:模型的智能被它的"信息封闭"严重限制了。训练数据截止之后的事它不知道,你桌面上的文件它看不到,生产环境的数据库它连接不上。解决这个问题需要的不是更好的模型,是更宽的接口。
但这条路走出来之后,马上显露出新的代价。每接入一个工具都要写自定义集成,每个框架有自己的一套约定,不同模型供应商的 function calling 格式不一样,同一个能力在 LangChain 里是一种写法、在自研系统里又是另一种。工具越多,维护成本呈平方级增长。这个问题后来被 MCP 的叙事正式命名为 N×M 集成问题——N 个模型、M 个工具,每一对组合都可能要写一遍。
2024:MCP 是标准化的必然
2024 年 11 月,Anthropic 发布了 Model Context Protocol(MCP),把 agent 接入外部工具的方式标准化了。概念其实很朴素——定义一套协议,让工具提供方只实现一次 MCP 服务端,模型和客户端就都能使用;反过来,客户端只对接 MCP 规范,就能连上生态里任何遵循该协议的工具。这个设计和 Language Server Protocol 的思路是同构的——用一层标准协议把 N×M 问题降维成 N+M。
MCP 推出之后的一年,生态扩展得非常快。Anthropic 官方数据显示,到 2025 年末已经有超过 75 个连接器直接挂在 Claude 上,MCP 的 Python 和 TypeScript SDK 每月下载量合计超过 9700 万。OpenAI、Google DeepMind、Microsoft 相继加入,协议最终被捐给 Linux Foundation 下的 Agentic AI Foundation。它成了这一代 agent 基础设施的公共底座。
MCP 层面真正在解决的问题,其实不是"怎么用 AI",而是"怎么让 AI 的使用不重复造轮子"。它是一个工程范畴的胜利,不是 AI 能力范畴的胜利。这一点很关键——很多人看到 MCP 被热捧,以为自己也该去学 MCP,但如果你根本还没到需要编排多个工具的阶段,MCP 对你不会产生任何边际价值。它是为那些已经感受到 N×M 疼痛的人准备的。
2025:Context engineering,承认窗口是幻觉
到 2025 年,另一个反直觉的事实开始被广泛接受:上下文窗口不是越大越好。
早期人们默认,如果模型能看到 100 万 token,那就把所有可能相关的东西都塞进去,让模型自己挑。现实是,窗口一旦超过某个阈值,模型从长上下文里准确召回信息的能力反而下降——研究者把这种现象命名为 context rot。SWE-rebench 的维护者观察到模型性能在 100 万 token 附近会撞上一道硬墙,再往后不管窗口技术上支持多少都会明显劣化。塞得越多,模型越走神。Databricks 的一项研究甚至在 32K token 附近就观测到了明显的精度下降。
这个认识直接催生了 context engineering 的概念。2025 年 9 月,Anthropic 在官方工程博客里把它定义为 prompt engineering 的自然延续,关注的焦点从"如何措辞一条指令"变成了"如何配置模型在每一步推理时能看到的信息"。同时期,Gartner 发布报告称 prompt engineering 正在被 context engineering 取代;Andrej Karpathy 和 Shopify 的 Tobi Lütke 在社交媒体上公开支持这个转向。按 DataCamp 的测试数据,合理的上下文管理能在 agent 基准上带来 54% 的性能提升。
这一阶段真正在解决的问题是:模型的注意力是有预算的。和人一样,给它看的东西越多,它能给每一部分的关注就越少。好的使用不是最大化给它的信息,是精准地给它最少但最必要的信息。这和 prompt engineering 时代的"把话说清楚"其实是同一个原理的升级版——当年是一句话的精度,现在是整个上下文窗口的精度。
现在:Harness 是让模型能"做事"的基础设施
走到 2025 年底、2026 年初,我们来到了目前这个阶段——harness 时代。Claude Code、Cursor、Aider 这些工具被统称为 harness,不是因为它们把多次使用串起来,而是因为它们把一个只能"说话"的模型包裹进了一整套"能做事"所需的基础设施:文件系统访问、shell 执行、工具调用原语、权限和确认机制
标题: 求助,cpa上的账号维护
作者: #manylun
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2023886
时间: 2026-04-21 22:37:50
摘要:
作者: #manylun
板块: #搞七捻三
编号:
2023886帖子: https://linux.do/t/topic/2023886
时间: 2026-04-21 22:37:50
摘要:
古法注册了几天,囤了百来个号,比较心疼,所以需要维护账号。cpa管理账号是真的不方便,刷新token的机制,有的说法是禁用后就不会自动刷新,有的说用轮询机制比较友好续签。有的借助第三方脚本。有的换sub2api。但是主动去刷新会不会导致号死得更快?有没有佬有更好的结论?
标题: 好消息PRO号儿没掉,还在,坏消息,卖家是骗子,已封号
作者: #正在缓冲99%
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2023900
时间: 2026-04-21 22:38:53
摘要:
作者: #正在缓冲99%
板块: #搞七捻三
编号:
2023900帖子: https://linux.do/t/topic/2023900
时间: 2026-04-21 22:38:53
摘要:
还好,我当时选择充我自己号上,没有碰到一号多卖的情况,前几天调订阅也没有掉到我这儿,现在号还在
后续想治吧,也应该是没人管了。不过既然他都被挂骗子了,我想我找他,他应该也是不会管的
希望我的 Pro 可以再坚持坚持,哈哈
标题: ai使用求助
作者: #yuanran327
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2023901
时间: 2026-04-21 22:39:17
摘要:
作者: #yuanran327
板块: #开发调优
编号:
2023901帖子: https://linux.do/t/topic/2023901
时间: 2026-04-21 22:39:17
摘要:
最近感觉ai降智了,各位佬友怎么能更好的使用大模型呢
标题: 关于论坛注册
作者: #不吻不罢休
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2023903
时间: 2026-04-21 22:39:27
摘要:
作者: #不吻不罢休
板块: #搞七捻三
编号:
2023903帖子: https://linux.do/t/topic/2023903
时间: 2026-04-21 22:39:27
摘要:
最近看到论坛可以用注册时间三年以上的github账号拿邀请链接,就发给朋友让他试试,然后申请两次都没过,现在有点破了,想帮朋友问一下各位佬友关于注册的问题
1.对于ip的纯净度有要求吗,因为梯子属于多人用的,应该是有点脏的,但是已经加了白名单让梯子在访问那个申请页面的时候不走代理
2.是否对于来自qq邮箱的申请会更严苛一点,因为github绑的是qq邮箱
希望各位佬友解惑一下万分感谢 ,如果是小作文问题的话就有点没招, 他第一次写的时候洋洋洒洒写了快600字,结果过了三天都没消息,第二次精简到80字也石沉大海了,大致内容就是希望来论坛学习ai知识,也会努力产出学习成果之类
标题: tg-plus-bot又有新的了
作者: #uPic
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2023907
时间: 2026-04-21 22:39:59
摘要:
作者: #uPic
板块: #开发调优
编号:
2023907帖子: https://linux.do/t/topic/2023907
时间: 2026-04-21 22:39:59
摘要:
何意味?又活了?
而且还是直接发号,不知道真不真,估计隔天封。
标题: A/真没砍配额吗?pro账号opus4.6新对话第一轮直接干掉5H配额13%
作者: #折枝
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2023958
时间: 2026-04-21 22:45:47
摘要:
作者: #折枝
板块: #搞七捻三
编号:
2023958帖子: https://linux.do/t/topic/2023958
时间: 2026-04-21 22:45:47
摘要:
现在不开5X感觉最基本的对话都来不了几轮???这是否有点太抽象了。
标题: 关于荣耀机器人夺冠的小思考
作者: #ryolena
板块: #前沿快讯
编号:
帖子: https://linux.do/t/topic/2023964
时间: 2026-04-21 22:46:02
摘要:
作者: #ryolena
板块: #前沿快讯
编号:
2023964帖子: https://linux.do/t/topic/2023964
时间: 2026-04-21 22:46:02
摘要:
苏黎世联邦理工学院开源了一个 ’RSL-RL’ 的人形机器人 RL 训练的平台。这将相当于是人人都可以基于英伟达硬件底座训练出人型机器人仿真模型,也就是说,市面上的人型机器人在软件上根本就没有任何护城河了。
而这次荣耀机器人使用通用的电机和 ipd 整个底层硬件输出层,将一个通用的人形机器人推了一把成为了专业机器人。
宇树强在他的特有的关节电机上,他的所有专利都是围绕着他的那个电机上。你要说他把价格打下来那确实,但是他的护城河确实在电机上。
在软件已经是开盒可用且通用的状态,智能化已经趋同了。在底层硬件动力输出层已经完整成熟的时候。我想机器人与电车的发展趋势应该是与手机的发展大差不差了
三电一体决定着他们的未来。
你的电池能不能做到同样重量下续航多20%?
手机:电池做大 7200w(举例说明)
你的电机能不能做到体积更小但扭矩更大?
手机:能不能做的轻薄
你的整机热管理能不能扛住连续高强度工作不宕机?
手机:玩游戏不烫手
你的供应链能不能把整机成本打下 30%?
手机:供应链,这么熟悉。
标题: 马斯克的X-chat怎么没有动静了?
作者: #skernelx
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2023988
时间: 2026-04-21 22:47:52
摘要:
作者: #skernelx
板块: #搞七捻三
编号:
2023988帖子: https://linux.do/t/topic/2023988
时间: 2026-04-21 22:47:52
摘要:
之前不是说4-17号发布的吗?之前还有预下载,我今天搜索了一大圈都没有找到,怎么回事?又放火箭了?
标题: Rust Token Killer 还行?
作者: #IsaacLiu
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2023994
时间: 2026-04-21 22:48:25
摘要:
作者: #IsaacLiu
板块: #开发调优
编号:
2023994帖子: https://linux.do/t/topic/2023994
时间: 2026-04-21 22:48:25
摘要:
今天看到一个小工具 rtk:GitHub - rtk-ai/rtk: CLI proxy that reduces LLM token consumption by 60-90% on common dev commands. Single Rust binary, zero dependencies · GitHub
宣传的是:高性能 CLI 代理,将 LLM token 消耗降低 60-90%
核心原理就是对高频的编程相关命令,“在命令输出到达 LLM 上下文之前进行过滤和压缩”。
自己用了一天的统计:
标题: 新人第一帖,佬友们googleplay订阅的claudepro怎么能升级max便宜?
作者: #fnjialun
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2024058
时间: 2026-04-21 22:51:17
摘要:
作者: #fnjialun
板块: #搞七捻三
编号:
2024058帖子: https://linux.do/t/topic/2024058
时间: 2026-04-21 22:51:17
摘要:
想问下论坛佬友们google商店订阅claude pro直接升级成max的价格也是125$和250$,怎么样获得网页端的100$和200$价格啊,必须过期了在网页重新订阅吗?
标题: 抽点硬货 GPT PRO一个月
作者: #康旭
板块: #福利羊毛
编号:
帖子: https://linux.do/t/topic/2024066
时间: 2026-04-21 22:52:26
摘要:
作者: #康旭
板块: #福利羊毛
编号:
2024066帖子: https://linux.do/t/topic/2024066
时间: 2026-04-21 22:52:26
摘要:
各位佬友最近应该蛮想codex的吧 抽一个 闪抽,半小时后开奖
兑奖是去我的代充网站充值 低价渠道,不做任何保证
抽奖主题:[codex没有你我怎么活啊]
奖品详情:
[奖品1]:[GPT PRO 一个月]
活动时间:
开始时间:Tue, Apr 21, 2026 10:55 PM CST
截止时间:Tue, Apr 21, 2026 11:25 PM CST
参与方式:
在本贴下回复“天才程序员回归”即可参与。
抽奖规则:
每位用户仅允许参与一次。
将使用 LINUX DO 抽奖工具在所有回复中随机抽取中奖者。
注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后在本帖公布,并通过论坛站内信由发起人通知领奖方式。
所有规则及抽奖结果由 @KX_mjj 及论坛管理团队最终解释。
发起人承诺:
作为本次抽奖的发起人 @KX_mjj,我承诺本话题的抽奖活动严格遵守 LINUX DO 社区抽奖规则。因违反上述规定引发的公平性争议或其他问题,均由我独立承担相应的道德与法律责任。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系 @KX_mjj 或论坛管理团队。
标题: 这是GPT6来了?总不能还是给重置额度吧?
作者: #你这是违法行为
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2024093
时间: 2026-04-21 22:54:53
摘要:
作者: #你这是违法行为
板块: #搞七捻三
编号:
2024093帖子: https://linux.do/t/topic/2024093
时间: 2026-04-21 22:54:53
摘要:
标题: 新人报道!各位佬大家好,终于注册进来了!
作者: #Xnibes
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2024108
时间: 2026-04-21 22:55:53
摘要:
作者: #Xnibes
板块: #搞七捻三
编号:
2024108帖子: https://linux.do/t/topic/2024108
时间: 2026-04-21 22:55:53
摘要:
各位佬大家好啊,希望多多关照,加入L站是想向各位佬友学习,共建高质量的社区。
标题: 有人知道nvfp4这种量化格式该怎么改吗?
作者: #xixi_hu
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2024123
时间: 2026-04-21 22:58:43
摘要:
作者: #xixi_hu
板块: #开发调优
编号:
2024123帖子: https://linux.do/t/topic/2024123
时间: 2026-04-21 22:58:43
摘要:
我是50系显卡,听说了nvfp4格式的量化模型能最大程度上利用显卡的算力,想尝试一下,但是在魔塔跟huggingface都没有找到现成的模型,想自己量化又不知道该怎么做,问大模型也是各说各的方式
标题: GPT-5.5来了?
作者: #jiji262
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2024147
时间: 2026-04-21 23:00:33
摘要:
作者: #jiji262
板块: #开发调优
编号:
2024147帖子: https://linux.do/t/topic/2024147
时间: 2026-04-21 23:00:33
摘要: