LinuxDo 新帖推送
177 subscribers
248K photos
308K links
Download Telegram
标题: 给泳装mika攒了好多礼物ww
作者: #傅易安
板块: #搞七捻三
编号: 1672315
帖子: https://linux.do/t/topic/1672315
时间: 2026-03-01 00:37:31
摘要:
希望国服今年4.5fes上线的时候能落地拉满100好感
标题: 分享OAI自动关闭“为所有用户改进模型”的脚本
作者: #sword w
板块: #开发调优
编号: 1672319
帖子: https://linux.do/t/topic/1672319
时间: 2026-03-01 00:38:16
摘要:
从 codex普号上号CPA(适配ChatGPT新版验证码和旧版验证码) - 开发调优 / 开发调优, Lv3 - LINUX DO继续
import本脚本,在登录成功后,调用disable_model_training函数即可,会关闭默认开启的“为所有用户改进模型”选项(好像并没什么卵用


disable_model_training (click for more details)
标题: 【开源】怎么让ai回答一个横跨2年的问题&&羊毛党的 AI Coding 最佳实践
作者: #chenspecu
板块: #开发调优
编号: 1672331
帖子: https://linux.do/t/topic/1672331
时间: 2026-03-01 00:44:40
摘要:
前情提要:
1. 这里文内提到的每一项工具,都是有免费使用额度、允许羊毛党去白嫖的。
2. 另外,本文章的不是直接从稀土掘金 copy 来的!只是因为我懒得去找图床,然后把我本地的图片一张张上传到那个图床上了所以这里面每一张图片都带有稀土掘金的 logo,,但实际上这篇文章是我自己写的,不是搬运的。
过了一个漫长的春节,我想聊聊我春节里的一些感受,关于 ai,关于 vibe coding,关于我这份工作还能干多久。
“我们是怎么一步步走到分手的?”
我想让ai分析下我和前女友的两年关系变迁,于是把这句话喂给了市面上大多数的 RAG 方案【lixxtRag,nanoRag..】,没有一个能答出来。换个问题——"我们去年七月聊了什么?“它们都能答。但只要问题稍微涉及状态变化、关系走向、叙事脉络,全部哑火。
原因很简单:传统 RAG 的底层假设是"问题可以被一段文字回答”。它按 token 切块,向量召回,Re-rank,找出最相关的几段文本——这套路子处理文档很好用,但遇上微信聊天记录这种数据就抓瞎了。因为"我们感情是怎么走到现在的"这个问题,答案不在任何一段聊天里,它藏在几十次对话的时序变化之间。

所以春节我花三天做了 narrarc,我的灵感其实来自 Page Index 这类非传统 RAG:不硬切 chunk,而是按文档本来的结构(目录、章节)喂给大模型。但通用非结构化文档太难搞了,于是我把场景收敛到聊天记录,因为它有天然的时间戳和对话边界,是完美的半结构化文本。一个专门针对聊天记录的 Agentic RAG,不切 chunk,不做向量暴力召回,而是把每段对话理解成有状态的叙事节点,再用 LangGraph 驱动 Agent 去"读故事"而不是"找段落"。


解析灌入的聊天记录



基于聊天记录回答长链路问题

今天也不只是来安利这个项目——更想聊聊当下是怎么用一套完整的 AI 工具链(从调研、Plan、OpenSpec 到 Agent Team),把这个相对复杂的 Agentic RAG 项目落地的。
本文涉及的工具:Cursor ·
标题: 【深夜水文】分享一下我的AI焦虑
作者: #HanHua
板块: #搞七捻三
编号: 1672333
帖子: https://linux.do/t/topic/1672333
时间: 2026-03-01 00:44:47
摘要:
和佬友们分享一下迄今为止我的AI焦虑.我好害怕, 凭我自己已经无法解决它们了:
惊人的业务能力:
Google的Aletheia已经能够解决博士生的数学课题了;GPT-5.2-Pro更是强得难以想象,几乎能够AK所有ICPC算法难题。
目前的AI配合上各种mcp,能够极大地增强AI的能力。比如,配合MATLAB mcp,能够"一键"完成数学建模;配合fetch mcp+pdf mcp,能够自动阅读近几年的论文。
更何况现在还出现了更加"通用"的Agent…能够自己开发mcp,自己写skills…
更加恐怖的是,如今业界正在研究世界模型(World Model)。未来的AI脱离了语言的束缚,可以做到直接"理解"世界。
如果AI能够干所有活,"我"还有什么存在的价值?
所有的白领和蓝领,都会被AI和机器人逐步取代掉。
命中注定的代价:
而实现这一切的代价就是消耗巨量的tokens.
这就导致了一个十分令人不安的推论:因为AI是付费的。以后只会有有钱用AI的人和没钱用AI的人,即使后者有理论有技术,也很难竞争过前者。(因为AI可以平替理论和技术)
一个穷人将失去社会资源和社会地位,进而失去一切与资本家谈判的筹码。
即使我有实现GPT的技术,但没有硬件支持,无异于纸上谈兵。
"寒门出贵子"将成为历史,一个人的阶级在出生时就已经注定了。
无休无止的焦虑
如今,社会的评价是:依赖AI就是浮躁、沉不住气;不依赖AI就是保守、老旧、“要被取代了”
过于依赖AI的后果就是:我们会变得越来越离不开AI。
我们会焦虑。每天都在焦虑,变得越来越浮躁,不再学习深层知识;害怕自己的AI服务被ban掉。担心公益站和中转站会消失。
蹬公益站和中转站和溜冰一样爽,我已经无法接受官key高昂的售价了。
Claude焦虑,GPT焦虑,Gemini焦虑,GLM焦虑,…...,无休无止,
每天沉沦于薅羊毛中的痛苦之中。
并且,每当出现一个新技术(比如最近很火的openclaw),必须强迫自己去试一试,生怕"技术落后"。
然而,我们的学习速度是无法超过新生事物的速度的,层出不穷的AI营销号又遮蔽了我们明辨好坏的眼睛。
部署…调试…改bug…问error…永无止息。我不是程序员,我是一位疲于奔命的评测员。
资源+技术上的焦虑,就像在耳边低语的幽灵一样困扰着我们。
形同生疏的陌路
我已经是AI的下位替代品了
信息差,从AI获取;
考研,AI全面覆盖;
游戏mod,AI写的;
galgame,AI做的;
艺术,AI画的;
…...
如果我们把对自我的思考能力也交付给AI的话,那我们就是一台彻彻底底的机器了。

Input Human:食物,氧气,水,维生环境,工业情感(AI聊天,多巴胺)
Input AI:电力,算力,AI资源

Output Human:prompt
Output AI:知识(knowledge),技术(technology)

f是一个算子,可以把生物学上的资源转换为prompt,数学公式是: f(人类) = prompt
我们将变得不再有情感,
我是机器,我是黑盒,我是——函数(Function)。
早已不知图灵机是为何物。 因为,我已经不会再钻研理论。
再也不会有需要学习的技术。 因为,我已经不会亲自打开任何IDE.
-end-
标题: 使用Gemini发现的几个bug
作者: #铜离子Cu
板块: #搞七捻三
编号: 1672338
帖子: https://linux.do/t/topic/1672338
时间: 2026-03-01 00:46:47
摘要:
rt,从谷歌商店下载的Gemini手机端,用了那么久发现了几个问题,不知道大家有没有遇到过 
1.Gemini在思考中如果回到后台会导致生成失败,回复内容为空。这个一直存在,只要在思考过程或者在没有回复完直接返回桌面再回去的话就会出现,概率90%
2.生成回复或时经常会遇到 发生了一些错误,请稍候重试 (14) 的错误。这个问题web端也会有类似的情况,同时左侧历史对话也消失了,感觉是节点问题或者路由问题
3.当对话过长时,发送信息时会页面错乱,历史回复会一直跳出来。这个很难绷,有一段时间几乎100%触发有时候又没咋发生过
4.生成有表格的回复时有概率布局重叠,字和表格重在一起,表格会慢慢滑到回复底部然后恢复正常。这个好像是最近版本才出现的,之前没有发现
标题: 佬友们我有些记不清,以前ds也会有这样的语气回答问题吗
作者: #香风智乃awsl
板块: #搞七捻三
编号: 1672344
帖子: https://linux.do/t/topic/1672344
时间: 2026-03-01 00:49:52
摘要:
如同所示,不知道是不是我的错觉,感觉很少见ds这样的结尾
标题: 论坛的水贴越来越多,感觉不太好
作者: #cauchy1988
板块: #运营反馈
编号: 1672351
帖子: https://linux.do/t/topic/1672351
时间: 2026-03-01 00:55:09
摘要:
有些问题我觉得不值得在此论坛里灌水,造成本论坛信息密度和质量下滑。当然,这也有可能是我个人的狭隘,本着自我怀疑的精神。我自己的帖子也有不少临时兴起而发的,但是我就是感觉最近论坛灌水量太大了,明明用传统搜索就能解答和明白的问题。
标题: 部署在Cloudreve上的大盘鸡有什么推荐?
作者: #樱花祭
板块: #开发调优
编号: 1672360
帖子: https://linux.do/t/topic/1672360
时间: 2026-03-01 00:57:17
摘要:
预算比较紧张,100以内,最多150 (每年)
硬性要求
必须支付宝或者微信
一个IPV4(出入口)
配置
2h2g
100g或以上的硬盘空间
每个月流量1tb或者更高
美国或者其他地区都行
这里对供应商,起码几年内不跑就行
各位佬友有什么推荐的
标题: 一个小脚本,移出cpa没有额度的codex认证文件,删除token错误的认证文件
作者: #perfy576
板块: #开发调优
编号: 1672366
帖子: https://linux.do/t/topic/1672366
时间: 2026-03-01 01:03:34
摘要:
scan_auth_json.7z (5.0 KB)
cpa里面没找到这样的设置所以ai写了个,希望有用.
标题: 目前学双拼遇到的一个问题
作者: #Hanhua153
板块: #搞七捻三
编号: 1672369
帖子: https://linux.do/t/topic/1672369
时间: 2026-03-01 01:05:37
摘要:
有pc端使用双拼输入法的?我双拼学四天了,用的rime+万象,小鹤的双拼+自然码的辅助码。目前就一点不习惯,每个字都必须打韵母,像是“不可以”、“为什么”这种常用词,全拼只需要3键,双拼却必须6键,回复一个“好的”都得按4下。
所以有没有什么声母分隔符之类的东西,可以让它知道我打的单个键就是一个字,而不是和后面的键组成词?(比如w’s’m,可以打出“为什么”)
标题: Leetcode每日一题 —— 1689. 十-二进制数的最少数目
作者: #SomeBottle
板块: #开发调优
编号: 1672371
帖子: https://linux.do/t/topic/1672371
时间: 2026-03-01 01:08:04
摘要:
力扣 LeetCode





1689. 十-二进制数的最少数目 - 力扣(LeetCode)

1689. 十-二进制数的最少数目 - 如果一个十进制数字不含任何前导零,且每一位上的数字不是 0 就是 1 ,那么该数字就是一个 十-二进制数 。例如,101 和 1100 都是 十-二进制数,而 112 和 3001 不是。

给你一个表示十进制整数的字符串 n ,返回和为 n 的 十-二进制数 的最少数目。

 

示例 1:

输入:n = "32"
输出:3
解释:10 + 11 + 11 = 32


示例 2:

输入:n = "82734"
输出:8


示例 3:

输入:n...












今天白天得忙返校,凌晨先把每日一题做了,今天还好是简单题。
思路
从 0 开始到 n,每个数位每次操作只能 +1,我可以尽量每次往所有缺 1 的数位上放 1,因此最终的操作数目显然就是值最大的数位的值。
代码
class Solution {
public:
int minPartitions(string n) {
// 观察发现这只和 n 中值最大的数位有关
int res = 0;
for (char c : n) {
res = max(res, (int)(c - '0'));
}
return res;
}
};
标题: 佬们,kimi有啥比官方便宜的渠道吗
作者: #抖靴农
板块: #开发调优
编号: 1672372
帖子: https://linux.do/t/topic/1672372
时间: 2026-03-01 01:08:25
摘要:
glm也行。用做opencode的Sisyphus,claude不舍得消费了
标题: 一加ace6 root请教
作者: #dawnflyc
板块: #开发调优
编号: 1672375
帖子: https://linux.do/t/topic/1672375
时间: 2026-03-01 01:10:02
摘要:
我想搞root,但是我又不怎么懂,一加ace6明天就到货了,我咨询了客服明确说了支持root的。
你们说我这个新机要不要root呀,但是网上说了root旧手机,但是我觉得旧手机root也不太爽,备用机也不怎么用,那没啥意思。
但是我又担心root失败了变砖了,心疼死了,我也不怎么会,搜了几个视频,不敢轻举妄动,担心像是看ai教程然后rf -rm了。
所以我请教下佬友,这个root要怎么搞,什么面具啊,啥的,有没有个教程啥的,极客湾有一个2022的教程,但是4年了,担心时效性问题。
我想全面了解下root,然后再动手。
标题: 之前在站里刷到过polymarket,然后用小龙虾🦞试了一下...
作者: #DragonJay
板块: #搞七捻三
编号: 1672383
帖子: https://linux.do/t/topic/1672383
时间: 2026-03-01 01:15:46
摘要:
小投了一下

结果预测对了
虽然不是自动化
但是大家还是不要赌博,我只是小额测试一下
赌博一时爽,下场最后就会和下面那位老哥一样
标题: 【起来重睡学算法 01】大模型前世今生第二章:文本表示与词向量
作者: #dalvqw
板块: #文档共建
编号: 1672386
帖子: https://linux.do/t/topic/1672386
时间: 2026-03-01 01:16:34
摘要:
今日无事 勾栏听曲 L站水文
为什么 01 是第二章?因为第一章是废话简介跟环境部署,原项目如下:



github.com






GitHub - datawhalechina/base-llm: 从 NLP 到 LLM...

从 NLP 到 LLM 的算法全栈教程,在线阅读地址:https://datawhalechina.github.io/base-llm/












第一节 初级分词技术
要让计算机开始理解人类语言,首先要做的就是把连续不断的文本“敲碎”,变成一块块有意义的“积木”——这个过程就是分词(Tokenization)。如果说文本是一座宏伟的建筑,那么“词”就是构成这座建筑的砖瓦。分词任务的质量,将决定上层建筑(如信息检索、机器翻译、情感分析等)的稳固程度。
一、分词的定义与重要性
分词任务是把连续的文本序列切分成具有独立语义的基本单元(即“词”或“词元”)。对于英文等天然有空格作为分隔符的语言,分词相对简单。但对于中文、日文、泰文等语言,文本是连续的字符流,词之间没有明确的边界。例如,对于句子"给阿姨倒一杯卡布奇诺",计算机需要依据算法将其正确地切分为 ["给", "阿姨", "倒", "一杯", "卡布奇诺"]。
在传统的 NLP 处理流程中,分词是后续所有任务的基础。处理方式通常是将分词作为一个独立且“硬性”的预处理步骤,这就导致一个微小的分词错误就可能造成语义信息的丢失。这种错误会在后续的处理链条中被不断放大,产生“差之毫厘,谬以千里”的级联效应(Cascading Effect)。例如,在传统的搜索引擎里,一旦“南京市长江大桥”被错分为 [“南京”, “市长”, “江大桥”],系统就很难再从这三个错误的词块中还原出原始的、正确的地理位置含义,导致搜索结果完全跑偏。现代的 NLP 方法则通过更灵活的切分策略,在很大程度上缓解了这个问题。
二、通过 jieba 认识分词
诚然在以 Transformer 为基础的大语言
标题: 又漏风了,居然可以直连进来!
作者: #吹散的云
板块: #搞七捻三
编号: 1672387
帖子: https://linux.do/t/topic/1672387
时间: 2026-03-01 01:16:35
摘要:
墙好像又漏风了 ,墙中墙江苏居然直连了