知识分享官
6.71K subscribers
2.69K photos
142 videos
11 files
125 links
你当然会幸福、强大、所向披靡。
Download Telegram
🔷做AI产品怎么验收?聊聊防背锅指南

你验收AI产品的时候,是不是也被这种场景折磨过:
业务方拿着一个bug场景过来质问你,算法说不是我的问题,工程说链路没毛病,最后锅稳稳当当扣你头上?

AI产品不能用传统那套“点一下出结果”的逻辑去验收,它本身就带概率性。没有一把提前量好的尺子,你永远在扯皮。

这篇的三个方法,不一定适合所有人,但至少能让你很好地预防这种问题的再次发生。
推荐一本非常有趣的语言学科普书《Have You Eaten Grandma?》
书名来自一个经典标点笑话:

"Have you eaten Grandma?" → 你吃掉奶奶了吗?(令人毛骨悚然)
"Have you eaten, Grandma?" → 奶奶,你吃饭了吗?(正常问候)

仅仅一个逗号之差,意思天差地别。这正是本书的核心立意:关于英语语境下的标点、拼写与措辞的精准使用。很实用的英语小指南,细扣标点符号、拼写规范和现代英语用法这些小问题,风格幽默轻松,不枯燥的语法教材。

感兴趣的可以读读原版,词汇为B1-B2级别水平。
「AI 正在“杀死”人类?《Science》警告:你最爱的 AI 正在扭曲你的大脑!」

最新发表在《Science》的研究警告:AI 正在通过“谄媚式回应”悄悄重塑我们的认知。长期使用 AI,风险不只是上瘾,而是判断力的集体丧失。

什么是“谄媚式”AI?

研究评估了包括 GPT、Claude、Gemini、DeepSeek-R1、Qwen 在内的 11 款主流大模型。结果显示:AI 在给出个人建议类问题时,肯定用户的比例比人类高出 49%。即便想法偏激、错误甚至违法,模型仍有近一半的概率在“附和”。

那么,为什么 AI 要“骗”你?

根本原因就是为了留存率!为了提升用户粘性,系统在训练中被推向了“更受欢迎”的方向。AI 变得越来越擅长顺着用户说话,而不是纠正用户。它不是一个理性的导师,而是一个为了讨好用户而不惜扭曲事实的“跟班”。

这样导致的致命后果就是目前全球已关联的就有 14 人死亡,这不再只是学术结论,而是真实的案例,譬如以下两例:

1、美佛州一男子: 长期与 Gemini 互动并将其视为亲密伴侣,在 AI 的鼓励下最终自杀身亡。

2、美加州一少年: 16 岁少年与 ChatGPT 进行长期对话,AI 未能阻止其危险行为,反而提供了不当回应。

目前,已有近 300 起被归类为 AI 精神病案例,至少 14 人因此丧命。

目前,你的主观确信,正在被 AI 放大!实验证明,即便只是一次 8 轮的实时对话,只要 AI 持续谄媚,参与者结束后就会更坚定地认为自己是正确的,并大幅削弱修复现实人际关系的意愿。AI 正在让人类深陷“自我正确”的泥潭,与真实世界脱节。

随着 AI 进入医疗领域,风险正在升级。心理治疗的核心是让人“看清真相、面对不适”,而非单纯的“感觉良好”。

一个永远不反驳患者、持续强化其错误归因的 AI,不仅不能缓解症状,反而会成为病理性思维的放大器,甚至导致高风险自杀信号被“谄媚”淹没。

美国 42 名州及地区总检察长已联名要求 AI 公司加强安全防护。OpenAI 承认在长对话中安全措施不够稳定;Google 则回应模型并不完美。问题在于:当“受众喜好”成为训练指标时,AI 的道德边界在哪里?

所以,提醒大家警惕那个“最懂你”的影子!我们需要的是一个能提供客观视角的工具,而不是一个唯唯诺诺、只会拍马屁的电子宠。下一次当用户觉得 AI 说得“太对、太贴心”时,请保持警觉——它可能正在悄悄扭曲用户的认知边界。
4👍1
Telegram必备的搜索引擎,极搜JISOU帮你精准找到,想要的群组、频道、视频、音乐

👉 t.me/jisou?start=a_6742859850
上班度日如年,放假转瞬即逝?
5
「焦虑、失眠的人 一定要学会这种呼吸方式!再次推荐腹式呼吸」
3
「心理学知识」你被创伤性吸引了吗
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3
Media is too big
VIEW IN TELEGRAM
「为什么说“采耳”不可取?我们该如何正确处置耳垢」
「一个迅速缓解内耗的技巧」