标题: MIMO模型问题
作者: #A-train
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2093749
时间: 2026-05-01 18:32:19
摘要:
作者: #A-train
板块: #开发调优
编号:
2093749帖子: https://linux.do/t/topic/2093749
时间: 2026-05-01 18:32:19
摘要:
这两天都在申请MIMO激励计划,我也申请了,申请到了2e,
但是感觉问一句话就消耗不少额度,不知道是怎么计算的,一开始接入TRAE总是404,后面发现是TRAE的问题解决了,接着让他分析代码总是卡住:
每次都是我自己手动停止然后重试,过了一会又是会没反应,在思考中能卡很久,想问问有佬有同样的情况吗,怎么解决
标题: 佬友们觉得pro 5x值吗?
作者: #dateamayuri
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2093761
时间: 2026-05-01 18:35:41
摘要:
作者: #dateamayuri
板块: #搞七捻三
编号:
2093761帖子: https://linux.do/t/topic/2093761
时间: 2026-05-01 18:35:41
摘要:
如题。pro5x的价格,低价渠道基本是130,但目前基本3天一封号。正价基本是700,找人代充的话,基本是800左右了。
pro 5x的大概配置如下:
网页端:1.每周50次pro模型调用 2.提供thinking模型的深度思考和快速思考档次。
codex端:10倍的plus额度
自从5.5发布,pro模型除非遇到特别难的问题,否则经常会在几分钟之内完成思考。5x给了才周50次的调用。感觉太那啥了。20x则是无限次pro调用。
换句话说,网页版的5x感觉就是买了一个thinking的深度思考档次…
再来看codex,5.5 codex感觉就是一个额度消耗的黑洞。10倍的plus感觉挺少的。
感觉5x真的好亏啊…
标题: 佬们,有没有关于科研上比较好用的mcp工具
作者: #missay
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2093765
时间: 2026-05-01 18:36:36
摘要:
作者: #missay
板块: #开发调优
编号:
2093765帖子: https://linux.do/t/topic/2093765
时间: 2026-05-01 18:36:36
摘要:
佬们,最近在用codex & claude 做科研 有没有什么好用的mcp 工具推荐?
标题: 各位佬友,为啥我自建的 new-api 自动 compact 时会报错
作者: #lawlaint
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2093767
时间: 2026-05-01 18:37:32
摘要:
作者: #lawlaint
板块: #开发调优
编号:
2093767帖子: https://linux.do/t/topic/2093767
时间: 2026-05-01 18:37:32
摘要:
各位佬友,请教个问题:
我是自建的 new-api,已经是最新版,我在使用 codex cli,上下文较长的时候,就会触发错误:
■ Error running remote compact task: unexpected status 503 Service Unavailable: No available channel for model gpt-5.5-openai-compact under group default (distributor) (request id: 2026050110021060218X6VT8FOTac), url:
http://x.x.x.x:x/v1/responses/compact
目前 config.toml 配置为:
model_provider = "OpenAI"
model = "gpt-5.5"
review_model = "gpt-5.5"
model_reasoning_effort = "xhigh"
disable_response_storage = true
network_access = "enabled"
personality = "pragmatic"
sandbox_mode = "danger-full-access"
approval_policy = "never"
windows_wsl_setup_acknowledged = true
model_context_window = 10000000
model_auto_compact_token_limit = 9000000
approvals_reviewer = "user"
[model_providers.OpenAI]
name = "OpenAI"
base_url = "http://x:x/v1"
wire_api = "responses"
requires_openai_auth = true
[notice]
hide_full_access_warning = true
[tui.model_availability_nux]
"gpt-5.5" = 4
标题: 中转站和公益站的模型,标的什么模型就是什么模型吗?
作者: #LinuxDo
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2093768
时间: 2026-05-01 18:38:10
摘要:
作者: #LinuxDo
板块: #搞七捻三
编号:
2093768帖子: https://linux.do/t/topic/2093768
时间: 2026-05-01 18:38:10
摘要:
中转站和公益站里的各种模型,标的什么模型就是什么模型吗?
我接到我的sub2api里,再问它是什么模型,问不出来是什么模型。
怎么能看是什么模型呢?
标题: 五一好,撬开了龟壳
作者: #righted6
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2093772
时间: 2026-05-01 18:40:15
摘要:
作者: #righted6
板块: #搞七捻三
编号:
2093772帖子: https://linux.do/t/topic/2093772
时间: 2026-05-01 18:40:15
摘要:
各位佬五一好诶,我也是在论坛的帖子下成功的撬开了龟壳,卡用的是工行的星座卡,0额度,地区是圣何塞地区,edge无痕,qq邮箱,手机开的热点(广电之前可以跑1000,到现在只能跑100,淦!!!),都是用的拼音,信息如实填写的。
我注册成功后,时隔一天才升级的,好像并没有什么影响,最后开了一台Arm 4c24g,一台Amd 1c1g。注册流程下来感觉是要信息真实就可以过。
佬们,这个甲骨文云的机器要删除那些监控组件吗?以及还有什么卡学生是可以注册办理的?招商的visa吗?以及还可以在上面跑些什么好玩的东西?
我在上面搭建了3x-ui面板来当日常的代理了,后续准备把之前nat机上面的视频流弄上来,就是迁移有点麻烦。感觉这个1c1g的机器用处似乎不大?
标题: 如果您是常州,武进区的大学生。建议品尝他们家的瓦香鸡。五六年每年都要来尝的味道
作者: #方盾CHEN
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2093774
时间: 2026-05-01 18:40:49
摘要:
作者: #方盾CHEN
板块: #搞七捻三
编号:
2093774帖子: https://linux.do/t/topic/2093774
时间: 2026-05-01 18:40:49
摘要:
南云上品瓦香鸡。食材都是先炸过的。在炒。小份也多。好吃!真心推荐
标题: 佬们,copilot没有4.6了,有什么替代渠道吗?正规订阅!
作者: #Chenyang xi
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2093777
时间: 2026-05-01 18:42:17
摘要:
作者: #Chenyang xi
板块: #开发调优
编号:
2093777帖子: https://linux.do/t/topic/2093777
时间: 2026-05-01 18:42:17
摘要:
佬们,copilot没有4.6了,有什么替代渠道吗?正规订阅!
标题: 佬们image2 api参数怎么添加
作者: #Myallure
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2093786
时间: 2026-05-01 18:48:15
摘要:
作者: #Myallure
板块: #搞七捻三
编号:
2093786帖子: https://linux.do/t/topic/2093786
时间: 2026-05-01 18:48:15
摘要:
用的公益站的,想在rikkahub和cherry用,怎么添加参数能出2k/4k之类的
标题: 谁知道token价格是官网价格75%的中转站,有什么道道吗?是智商税不
作者: #云天明
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2093811
时间: 2026-05-01 18:58:18
摘要:
作者: #云天明
板块: #搞七捻三
编号:
2093811帖子: https://linux.do/t/topic/2093811
时间: 2026-05-01 18:58:18
摘要:
感觉中转站价格通常不就是:
要么价格比官方价格稍微高点(可能是正规官方渠道,赚点差价)
要么价格远低于官方价格(各种科技渠道)
像这种价格是官方价格七五折的,这样的中转站多吗,是智商税不
(为防止广告嫌疑,具体是哪个网站我就不贴了,也别私信问我,问我也不说 )
标题: paygo现在到底怎么开plus试用
作者: #xmk2025
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2093824
时间: 2026-05-01 19:03:28
摘要:
作者: #xmk2025
板块: #搞七捻三
编号:
2093824帖子: https://linux.do/t/topic/2093824
时间: 2026-05-01 19:03:28
摘要:
用电脑试了几个域名免费试用,使用paygo都是借款异常,然后用手机直接随便连了个日本机场,试了下一次就成功了,结果一看账号是个临时邮箱,真是服了自己了。
标题: 黑与白ip封锁
作者: #柚子
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2093826
时间: 2026-05-01 19:04:04
摘要:
作者: #柚子
板块: #搞七捻三
编号:
2093826帖子: https://linux.do/t/topic/2093826
时间: 2026-05-01 19:04:04
摘要:
佬友们,我今天买了一个黑与白的邀请码,感觉挺有意思的,就是在使用的时候发现了一点小问题,我在使用他的时候我如果开代理了,就显示我的ip有问题,我换了4个机场10多个不同地区的节点,还是不行,但是我把代理关了就可以了,但是关了就不能l站授权登录了,是我的梯子太水货了还是怎么了,佬友们平常怎么解决的呀
标题: [长文手敲] 战争的哲学——从部落到王朝(其二)
作者: #白芸汐
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2093843
时间: 2026-05-01 19:08:39
摘要:
作者: #白芸汐
板块: #搞七捻三
编号:
2093843帖子: https://linux.do/t/topic/2093843
时间: 2026-05-01 19:08:39
摘要:
阪泉之战:华夏联盟内部的权力重组
接着前面那个问题往下走,战争之前的中国,还不是后来那个疆域清楚、制度成形、官僚坐班的中国。
它更像一张刚铺开的草稿纸,黄河流域、渭水流域、东方平原、南方丘陵,各路部落集团来来回回,今天握手言和,明天互相拆台,后天发现外面还有更狠的对手,又开始临时抱团。
这时候最要命的问题不是地图画到哪里,也不是谁的祖先牌位摆得更高,而是一个非常朴素的问题。
谁说了算。
别小看这四个字。很多历史悲剧,说到底都是这个问题没谈明白。一个联盟看起来热热闹闹,首领一堆,旗号一堆,祭祀一堆,大家围在一起仿佛大型文明发布会现场。
可真到了分粮、出兵、迁徙、祭天、打仗的时候,谁拍板?谁服从?谁承担代价?谁拿战利品?谁站在祭坛最前面?
这些问题平时可以糊弄,关键时候糊弄不了。
就像今天一个项目组,平时大家都说自己是核心成员,一到上线崩了,所有人开始互相艾特,产品说是开发的问题,开发说是需求的问题,测试说我早就提过了,老板最后问一句:到底谁负责?(还好我不负责 )
上古部落联盟也差不多,只不过他们没有飞书群,没有 Jira,也没有“需求变更请走流程”。他们解决问题的方式更原始,也更直接。讲得通就谈,讲不通就打。文明很体面,文明的早期安装包却经常充满血腥味。
《史记·五帝本纪》给阪泉之战安排的背景很关键。司马迁写“轩辕之时,神农氏世衰。诸侯相侵伐,暴虐百姓,而神农氏弗能征。”
这几句话如果翻译成现代管理学语言,大概就是旧系统已经无法治理,区域代理人开始互相冲业绩,基层被反复收割,总部没有执行力,连最基本的秩序维护都做不到。
一个旧权威最危险的时候,不是它马上倒下,而是它还坐在那里,却已经没人真正听它的。
这场面很尴尬。就像会议室里名义上的负责人还在发言,下面的人已经开始各聊各的,有人刷手机,有人拉小群,有人已经在群里发“散了吧,没救了”。
神农氏这个旧权威到了黄帝时代,大概就有这么点味道。牌子还在,信用没了。名义还在,执行力没了。
权威一旦不能止乱,就会变成摆设。
于是黄帝登场。
但这里别急着把黄帝理解成一位自带圣光、踩着祥云、专门来拯救苍生的天选男
标题: 各位大佬,请问现在还有哪些公益站可以用吗
作者: #ACTIONAI
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2093848
时间: 2026-05-01 19:09:02
摘要:
作者: #ACTIONAI
板块: #开发调优
编号:
2093848帖子: https://linux.do/t/topic/2093848
时间: 2026-05-01 19:09:02
摘要:
各位大佬,请问现在还有哪些公益站可以用吗,就any这种断断续续可以用的也可以
欢迎大家把名字和链接发到评论区,谢谢
标题: 佬友们有无DeepSeek低价渠道
作者: #SuperDAJB
板块: #开发调优
编号:
帖子: https://linux.do/t/topic/2093854
时间: 2026-05-01 19:11:17
摘要:
作者: #SuperDAJB
板块: #开发调优
编号:
2093854帖子: https://linux.do/t/topic/2093854
时间: 2026-05-01 19:11:17
摘要:
RT,主要就3个要求:
必须是真的DeepSeek-V4-Flash
必须能思考
并发不要太低
用量有点大的离谱,保守估计是以亿Token为单位,所以用官方正价不太现实。纯跑数据清洗抽取的,所以不需要工具调用,逆向也行。
因为并发可能不低,也不太好意思去占用别人家公益站,有无推荐的?
(不过我在想一个问题,逆向的话命中不了缓存,会不会最后比正价还贵啊……)
标题: [长文手敲] 简论机器学习——前言
作者: #白芸汐
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2093855
时间: 2026-05-01 19:11:54
摘要:
作者: #白芸汐
板块: #搞七捻三
编号:
2093855帖子: https://linux.do/t/topic/2093855
时间: 2026-05-01 19:11:54
摘要:
在机器会学习之前,人类先学会了偷懒
谈机器学习之前,最好先把一个经典的误会放到桌面上。
很多人第一次听到机器学习,脑子里浮现的画面大概是这样的。机房深处,一台通体发光的服务器缓缓睁眼,屏幕上飘过一串绿色代码,然后它用冷酷的电子音宣布,人类,我已经掌握了你们的秘密。(天网的算力都不够现在的LLM用的)
这画面很赛博,很带感,很适合拿去剪短视频,配上低沉旁白,再加一句经典台词。
时代变了。
可惜现实通常没这么酷。
更多时候,机器学习的现场看起来像这样。
一个人坐在电脑前,盯着报错看了半小时,发现路径写错了。一个模型训练了八个小时,最后准确率还不如随机森林。
一个神经网络参数量大得吓人,结果上线后被用户一句方言干沉默。
老板问为什么效果不稳定,工程师说数据还需要清洗。
老板问清洗多久,工程师低头看了一眼表情包,心想这事儿已经不属于科学,属于渡劫。
所以机器学习这东西,表面看是人工智能的核心技术之一,里面装着数学、统计、优化、工程、算力和一堆听起来很高端的名词。
可如果把外壳剥掉,它动机其实很简单。
人类想让机器从经验里总结规律,然后替自己做判断。
这句话听起来平平无奇,可它背后藏着现代技术世界最重要的一次思维转向。
过去我们让机器工作,通常要把规则一条一条写清楚。你这样做,它就那样反应。
像教一个极其死板的员工,连倒水都得写操作手册,先拿杯子,再接水,再检查水位,最后把杯子放到桌上。流程清楚,责任明确,出事好甩锅。
可现实世界偏偏最讨厌清楚。
垃圾邮件长什么样,能不能靠几条规则说完?
用户明天想买什么,能不能靠一句公式算准?
一张猫图和一张狗图之间的区别,能不能靠人工写完所有特征?
银行判断一个人会不会违约,医院判断一张片子有没有异常,平台判断一条内容有没有风险,导航判断哪条路更快,这些问题都很现实,也都很麻烦。
你要是靠人手写规则,很快就会发现自己像在用牙签修长城。
规则写得少,漏得一塌糊涂。
规则写得多,互相打架,越修越玄学。
最后系统变成一坨祖传代码,谁也不敢动,动一下全公司陪葬。
老员工看了沉默,新员工看了辞职,产品经理看了开始讲愿景。
机器学习登场的地方,往往就是这种规则工程快要绷不住的地方。
它说,既然我们很难直接写出规律,那就把大量样本交给机器,让机器自己从样本里找规律。
你给它很多邮件,告诉它哪些是垃圾邮件,哪些是正常邮件;你给它很多图片,告诉它哪些是猫,哪些是狗;你给它很多用户行为,告诉它哪些点击了,哪些跳出了。然后模型就在这些数据里反复试错,调整自己,直到它在新样本上也能做出还算靠谱的判断。
听上去像魔法。
实际像刷题,刷多了就会了。
模型没有突然开悟,也没有夜观天象。
它只是看了很多题,做错了就改参数,改完再做,继续错,继续改。数学上叫优化,工程上叫训练,老板嘴里叫怎么还没好,网友嘴里叫炼丹。
从写规则到喂数据,技术世界的权力交接
如果说传统编程像立法,机器学习就像培养习惯。
传统编程的核心是规则。人类先理解问题,再把解法写成代码。程序执行的是人的明确意图。
哪里错了,通常还能顺着逻辑往回找。虽然过程也痛苦,但至少痛苦得比较有尊严。
机器学习的核心是数据。人类不再把全部规则写死,而是提供样本、目标和训练方式,让模型自己拟合一个函数。
这个函数可能非常简单,也可能复杂得像一碗被打翻的电路板。它能给出结果,却未必能给出人类满意的解释。
这就很有意思了。
过去我们问程序,为什么你输出这个结果?
程序说,因为第十七行 if 条件成立。
现在我们问模型,为什么你判断这张图是猫?
模型大概会用一堆权重、激活、特征空间、概率分布组成一个眼神,表示你要不自己体会一下。
这也是机器学习让人又爱又恨的地方。
它确实能解决很多传统规则难以处理的问题。语音识别、图像识别、推荐系统、风控模型、搜索排序、机器翻译,背后都大量使用机器学习方法。
你每天打开手机刷到的内容,看到的广告,输入法给你的联想,地图给你的路线,电商给你的推荐,很多都和机器学习有关。
它已经不是实验室里供人参观的奇观,而是数字社会的基础设施。
可它也带来了新的麻烦。模型会犯错,而且犯错方式有时很迷。它可能在训练集上表现优秀,一到真实世界就原形毕露。它可能学到了数据里的偏见,然后一本正经地把偏见包装成判断。
它可能在某些样本上强得离谱,在另一些边角场景里菜得离谱。它还可能被异常输入轻松干扰,像一个平时成绩很好,一到开放题就开始胡言乱语的学生。
所以机器学习从来不只是算法问题。
它牵扯数据质量,牵扯工程部署,牵扯业务目标,牵扯安全边界,牵扯责任归属。一个模型在论文里拿了高分,并不意味着它进了生产环境还能体面做人。
论文里的世界通常干净整洁,数据集整理好了,指标定义好了,评测流程也安排好了。
现实世界则像一个刚被三百个人同时改过需求的项目群,噪声满地跑,异常天天来,用户永远能用你想不到的姿势把系统玩坏。
这时候你就会理解,为什么很多机器学习项目最后死得很安静。
立项时说要智能化转型,上线后发现数据埋点缺失。
方案里写要端到端优化,落地时发现 Excel 才是核心数据库。
PPT 里模型准确率 98%,真实业务里召回一个关键异常都费劲。
大会上讲 AI 赋能千行百业,回到公司发现 GPU 排队比春运抢票还刺激。
机器学习真正学到的,可能只是人类世界的影子
机器学习的魅力,在于它能从经验中抽取模式。
机器学习的危险,也在于它只能从经验中抽取模式。
模型学习的对象并非世界本身,而是数据中的世界。数据记录了现实的一部分,也扭曲了现实的一部分,还遗漏了现实的很大一部分。
你喂给模型什么,模型就从什么里学。数据有偏差,模型就可能把偏差当成规律。数据有噪声,模型就可能把噪声当成暗号。数据覆盖不够,模型就会在没见过的场景里开始自由发挥。
这就像你让一个人只通过短视频理解世界,他当然也能总结规律,甚至总结得头头是道。但他总结出来的东西,可能更像推荐算法喂出来的幻觉宇宙。
比如招聘模型如果长期基于历史录用数据训练,而历史数据本身带有某种倾向,那么模型可能会把过去的倾向继续放大。
比如风控模型如果过度依赖某些相关变量,表面上看是在判断风险,实际上可能在间接复制社会结构中的不平等。
比如内容推荐系统如果只追求点击率,就很容易把人往更刺激、更极端、更容易上头的内容里推。因为从指标上看,用户确实停留更久了。
这就像一个班主任发现学生爱看热闹,于是每天都安排打架围观,最后全年级活跃度拉满,教育目标当场去世。
机器学习没有天然的价值观。
它优化的是目标函数。
你让它最大化点击,它就尽量让人点。
你让它最大化停留,它就尽量让人留下。
你让它最小化损失,它就沿着数学定义里的损失往下爬。
至于这个目标是否合理,是否全面,是否符合人的长期利益,那不是模型自己能解决的问题。模型很努力,但它不知道自己努力的方向有没有问题。它像一个执行力极强的实习生,你让它整理表格,它能通宵干完;你需求写错了,它也能把错误需求执行得非常彻底。
所以机器学习的核心挑战,从来不只是让模型更聪明。
更难的是,我们到底要它聪明在哪儿。
从感知到生成,机器学习开始进入人类表达区
早期机器学习更像一个分类员和预测员。它判断一封邮件是不是垃圾邮件,判断一个用户会不会流失,判断一张图片里有没有目标,判断某个交易是否异常。它在后台默默工作,像一个看不见的助理,做着大量重复、细碎、但很重要的判断。
后来深度学习兴起,图像、语音、文本处理能力迅速提升。
卷积神经网络让机器视觉大踏步前进,循环网络和后来的 Transformer 推动自然语言处理换挡,推荐系统在海量用户行为里反复打磨人的注意力,强化学习在游戏和控制问题中展现出惊人的策略学习能力。
再后来,大模型出来了。
事情开始变得不太一样。
机器不再只是判断你给它的东西是什么,它开始生成东西。写文章,写代码,画图,做总结,翻译,规划任务,调用工具,甚至在某些场景里模拟一个还算靠谱的工作流。以前机器学习更多藏在系统背后,现在它开始走到前台,直接和人对话。
这一步很重要。
因为它让机器学习从感知层进入表达层,从辅助判断进入交互协作,从后台算法进入前台界面。普通人第一次强烈感受到 AI 的存在,往往不是因为推荐系统更准了,而是因为一个聊天框突然能写方案、改代码、讲故事,还能一本正经地胡说八道。
一方面,它确实提高了很多工作的效率。写邮件、查资料、整理思路、生成代码、解释概念,这些任务都可以被显著加速。另一方面,它也让机器学习的老问题变得更显眼。幻觉、偏见、不可解释、数据来源、版权争议、安全滥用、责任归属,全都从幕后冲到了台前。
以前模型错了,可能只是推荐错了一条商品。
现在模型错了,可能是在法律、医疗、金融、教育、代码生成这些高风险场景里用一种很自信的语气错给你看。
最可怕的地方并非它完全不懂,而是它懂一点,又说得很像那么回事。懂一点的人最容易把人带沟里,懂一点的模型也一样。它不会脸红,不会犹豫,甚至还会给你补上一段逻辑顺滑的解释。用户看完以后直呼专业,出事以后才发现这玩意儿属于一本正经地开盲盒。
所以今天谈机器学习,不能再停留在算法名词和模型结构上。
我们必须同时谈工程,谈数据,谈场景,谈边界,谈制度,谈人的位置。
否则就会出现一种很典型的 AI 幻觉式建设。会上大家都在谈智能体,谈自动化,谈闭环,谈重塑产业。会后系统连日志都没打全,异常也没监控,模型输出没有审核,数据权限没人管。看上去像未来科技,实际像草台班子
标题: 断断续续古法注册了100个 应该暂时够用了
作者: #cainiaohhh
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2093856
时间: 2026-05-01 19:11:58
摘要:
作者: #cainiaohhh
板块: #搞七捻三
编号:
2093856帖子: https://linux.do/t/topic/2093856
时间: 2026-05-01 19:11:58
摘要:
后面一个手机号只能接一个码 算下来2毛多一个号 之前一个手机号还能注册3个
标题: [合集] 简论机器学习
作者: #白芸汐
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2093857
时间: 2026-05-01 19:12:31
摘要:
作者: #白芸汐
板块: #搞七捻三
编号:
2093857帖子: https://linux.do/t/topic/2093857
时间: 2026-05-01 19:12:31
摘要:
本贴为简论机器学习的集合贴。
前言
[长文手敲] 简论机器学习——前言
搞七捻三
在机器会学习之前,人类先学会了偷懒
谈机器学习之前,最好先把一个经典的误会放到桌面上。
很多人第一次听到机器学习,脑子里浮现的画面大概是这样的。机房深处,一台通体发光的服务器缓缓睁眼,屏幕上飘过一串绿色代码,然后它用冷酷的电子音宣布,人类,我已经掌握了你们的秘密。(天网的算力都不够现在的LLM用的)
这画面很赛博,很带感,很适合拿去剪短视频,配上低沉旁白,再加一句经典台词。
时代变了。
可…
标题: 失去对 GPT‑5.5 的访问权限,感觉就像被截肢了一样。
作者: #miku
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2093867
时间: 2026-05-01 19:14:55
摘要:
作者: #miku
板块: #搞七捻三
编号:
2093867帖子: https://linux.do/t/topic/2093867
时间: 2026-05-01 19:14:55
摘要:
openai官网上的,感觉道出了佬友们的心声
标题: [长文手敲] 因信称义如何塑造了Anthropic和OpenAI
作者: #白芸汐
板块: #搞七捻三
编号:
帖子: https://linux.do/t/topic/2093871
时间: 2026-05-01 19:15:39
摘要:
作者: #白芸汐
板块: #搞七捻三
编号:
2093871帖子: https://linux.do/t/topic/2093871
时间: 2026-05-01 19:15:39
摘要:
AI 圈也有自己的神学现场
如果把硅谷 AI 公司当成普通科技公司看,很多事情会显得很魔幻。
一家公司说自己是为了全人类安全,然后开始融资、抢客户、签政府合同、打企业市场、卖代码工具、卷订阅收入。
另一家公司说自己要让 AGI 造福全人类,然后从非营利组织一路演化到商业巨兽,被老朋友告上法庭,被公众质疑初心变质,最后还得出来解释自己依然没有忘记使命。
这场戏真正有意思的地方,不在于谁更高尚,也不在于谁更肮脏。真正值得看的,是它们各自选择了一套“因信称义”的叙事。
所谓因信称义,放到 AI 公司身上,大概就是这样。
只要我相信自己代表安全,我的限制就是负责任。
只要我相信自己代表民主,我的封锁就是价值防线。
只要我相信自己代表全人类,我的商业化就是必要牺牲。
只要我相信自己最终能带来光,我现在吃一点资本的饭,也算为人类添砖加瓦。
这就很硅谷。
嘴上是神学,账上是现金流,PPT 上是人类命运共同体,合同里是云计算、企业订阅、政府采购和算力账单。
经典程度堪比“我不是为了钱,我只是刚好需要几千亿美元算力”。(我不爱钱,我从来没有碰过钱)
当然,这句话不能直接笑,因为人家确实需要钱。只是笑点在于,大家都需要钱,有人说得像去西天取经,有人说得像在商言商。
OpenAI 和 Anthropic 的区别,恰好就在这里。
OpenAI 的问题是,它前期理想主义浓度很高,后来商业化速度太快,难免有一种“少年屠龙,成年开龙厂”的既视感。
可它至少越来越像一个现实主义玩家。它承认要产品、要用户、要资本、要算力、要市场。它的尴尬是理想被商业裹挟,它的可理解之处也在这里。
Anthropic 更复杂。它把自己放在道德高地上,反复强调安全、民主、可控、负责任,然后对中国相关实体采取了极其强硬的整体性限制。
Anthropic 在 2025 年 9 月明确宣布,限制来自包括中国在内的所谓不支持地区的公司通过海外子公司访问其服务,并把超过 50% 由这些地区总部实体直接或间接持有的组织纳入限制范围。
它给出的理由,是这些实体可能受到相关法律和情报合作要求影响,进而带来国家安全风险。
这套逻辑听起来很完整。问题在于,它沉醉于自己的逻辑闭环,纯粹的空中楼阁。
因为它不再只是限制某个行为,不再只是封禁某个滥用账号,也不再只是处理某个明确风险案例。
它把所有权结构、地区身份、政治判断和未来可能性打包成一张大网。你可以是美国公司,可以在新加坡运营,可以做正经业务,可以只是小团队想用 Claude Code 写代码。
只要股权结构、控制关系或者地区标签踩线,你就被纳入“潜在风险”的笼子。
这就不是普通风控了。这是身份式风控。(脱胎于身份政治的内容)
OpenAI 的原罪是变现实,Anthropic 的问题是装圣人
OpenAI 很容易被骂,而且骂点很多。
它从非营利出发,后来搞出 capped profit,再后来推进 Public Benefit Corporation 结构。它的商业化转向,引发了长期争议。
2025 年 OpenAI 董事会公开说明结构演化方案,称非营利组织仍会监督和控制 OpenAI,营利 LLC 会转为 PBC,使命仍是确保 AGI 造福全人类。
它同时承认,向全球提供 AI 服务需要数千亿美元,未来甚至可能需要数万亿美元级别资源。
这段话看着很熟悉。
翻译成人话大概是,理想还在,钱也必须要,组织结构得改,资本也得进,大家别急,我们还在为全人类服务。
这当然可以吐槽。毕竟一个曾经高举开放与公益旗帜的组织,最后走到微软、云计算、订阅制、企业 API、商业闭环,这里面的张力很大。
Musk 和 OpenAI 的诉讼也围绕这种“是否背离初心”的争议继续发酵。
2026 年 4 月,路透社报道 Musk 在庭审中继续指控 OpenAI 偏离非营利使命,OpenAI 则主张重组是为了获取投资并扩大 AI 开发。
但问题在于,OpenAI 的这种变化虽然难看,却很符合商业逻辑。
它像一个曾经喊着“我要改变世界”的创业者,后来发现改变世界之前要先交电费、买显卡、招工程师、搞推理集群、应付监管、接企业客户。于是它开始商业化,开始收费,开始限制滥用,开始做各种现实妥协。
这当然会让早期理想主义者破防。可它至少没有把每一次商业选择都包装成一场道德审判。
OpenAI 也限制过中国等不支持地区访问。2024 年,路透社报道 OpenAI 通知中国开发者,将从 7 月 9 日开始采取额外措施,阻止来自中国等不支持地区的 API 流量。这个动作同样伤害中国开发者,也同样反映美国 AI 公司在地缘政治压力下的收缩。
但 OpenAI 的表达更多是服务可用区、政策合规、区域限制。难听归难听,至少更像一个公司在说“我这业务不做了”。
Anthropic 的表达则更像“你们这类人天然有问题”。
这两者的体感差别很大。
一个是冷冰冰关门。
另一个是先给你贴道德风险标签,再关门。
这就是 Anthropic 最招人烦的地方。就算当狗,也要被打不给饭吃。
Anthropic 的安全叙事越高尚,现实操作越刺眼
Anthropic 的自我定位很明确。它是一家 AI 安全和研究公司,强调可靠、可解释、可控,强调要在前沿能力中控制风险。
这个定位本身没有问题。
AI 确实有安全风险,模型确实可能被滥用,国家安全确实不是幻想。
问题从来不在于 Anthropic 要不要做安全。
问题在于它把安全叙事和地缘政治站队绑得太紧,把风险治理做成了文明优越感展示。
它在 2025 年 9 月的政策说明中,不只是说自己要限制不支持地区访问,还明确提到中国,提到“对抗性国家”,提到这些实体可能服务军事、情报和更广泛的威权目标,还说 AI 能力应服务美国及其盟友的战略利益和民主价值。
这段话真正扎眼的地方,不是它有安全担忧。安全担忧可以讨论。
扎眼的是它把企业服务条款写出了外交部发言稿的味道。
一家商业公司当然可以选择客户,也可以遵守出口管制,也可以出于风险原因拒绝服务。可当它把一大类中国背景实体集体放进“可能服务威权目标”的叙事里时,它就不再只是公司合规了。
它在事实上参与塑造一种身份判断。
这对中国开发者、中国创业者、中国背景企业,尤其是那些在海外合法注册、合法经营、做正常产品的小公司,非常不友好。
他们甚至未必做大模型,未必碰军事,未必搞情报,可能只是想用 Claude Code 改一个后端 bug,想让模型帮忙写测试,想接入一个客服系统。结果规则落下来,一句话就把他们从“客户”变成了“风险”。
这时候你再听 Anthropic 讲“AI safety”,就会很微妙。
安全当然重要。
可如果安全永远只对某些人抽象化,永远只对某些国家具体化,永远只把某些群体当成潜在威胁,那么安全就容易变成一种漂亮的歧视语法。
这才是“因信称义”的核心。
我相信我站在安全一边,所以我对你的排除自动正当。
我相信我站在民主一边,所以我对你的怀疑天然合理。
我相信我在保护未来,所以你现在的不便、不公平、不被信任,都只是未来光明大道上的小石子。
经典“为了你好”。只是这个“你”,经常不包括被限制的人。
伪君子的味道来自说一套做一套
Anthropic 最容易被反感的地方,还不只是它限制中国相关实体。
更深一层的问题是,它一边用道德语言建立人格,一边又完全没有离开资本和权力游戏。
2026 年 2 月,Anthropic 宣布完成 300 亿美元 G 轮融资,投后估值 3800 亿美元,并称这笔钱将用于前沿研究、产品开发和基础设施扩张。
它还披露,Claude 年化收入达到 140 亿美元,Claude Code 年化收入超过 25 亿美元,超过 500 家客户年化支出超过 100 万美元,财富 10 强中有 8 家是 Claude 客户。
这不是小白花。这可是超级商业巨兽。
它当然可以成长,可以赚钱,可以冲企业市场。没有人规定安全公司就不能挣钱。真正的问题是,当一家公司已经是数千亿美元估值、数百亿美元融资、巨头客户环绕的资本机器时,它还总爱把自己说成道德世界里的苦修士,就会产生一种强烈违和感。
就像一个人穿着高定西装坐在头等舱,开口第一句是“我平时很朴素”。
不是不能朴素。
但你最好先把黄金腕表藏一下。
Anthropic 还和美国国防体系发生过复杂关系。2025 年 7 月,Anthropic 宣布美国国防部通过 CDAO 授予其一项为期两年、最高 2 亿美元的原型协议,用于推进美国国家安全相关的前沿 AI 能力。
2026 年,它又与美国国防部门因军事用途限制发生冲突,并称自己被指定为美国国家安全供应链风险,Anthropic 表示该行动法律依据不足,将在法庭挑战。
这件事很有意思。
站在支持 Anthropic 的角度看,它拒绝完全放开军事用途,说明它确实有底线。
EFF 也指出,Anthropic 早在签订国防合同时就明确不希望其技术用于美国国内大规模监控或完全自主武器系统,后来美国国防部要求不受限制使用技术,Anthropic 拒绝后遭到报复。
所以公平地说,Anthropic 并非毫无原则。它在某些议题上确实愿意和美国政府硬碰硬。
但这并不能洗掉它对中国相关实体的整体化敌意。
因为这里的矛盾恰恰在于,它对美国政府可以讲细分限制、用途边界、法律争议、武器伦理。
可面对中国相关实体时,它更倾向于把身份、控制、地区、政体一锅