Solidot
39.7K subscribers
25.4K links
solidot.org 非官方 RSS 推送频道。如有侵权,立即删除。
→ Buy Ads: https://telega.io/c/solidot
Download Telegram
机器学习先驱获得 2024 年诺贝尔物理学奖

2024-10-08 08:41 by 外星人

美国普林斯顿大学 John J. Hopfield 和加拿大多伦多大学 Geoffrey E. Hinton 获得 2024 年度诺贝尔物理学奖,以表彰他们“基于人工神经网络实现机器学习的基础性发现和发明”。两位科学家使用物理学方法训练人工神经网络。当谈论人工智能时,我们通常指的是使用人工神经网络的机器学习。这项技术最初是受到大脑结构的启发。在人工神经网络中,大脑的神经元由具有不同值的节点表示。这些节点通过连接相互影响,这些连接可以被比作突触,可以增强或减弱。例如,通过在同时具有高值的节点之间建立更强的连接来训练网络。今年的获奖者从 1980 年代开始就在人工神经网络方面开展了重要的工作。John Hopfield 发明了一种网络,可以使用一种方法保存和重建模式。我们可以把节点想象成像素。Hopfield 网络利用物理学描述材料的特性,这是由于它的原子自旋。整个网络的描述方式相当于物理中发现的自旋系统中的能量,并通过寻找节点之间的连接值来训练,以便保存的图像具有低能量。当 Hopfield 网络得到一张扭曲或不完整的图像时,它会有条不紊地通过节点并更新它们的值,这样网络的能量就会下降。因此网络逐步找到最像它输入的不完美图像的已存图像。Geoffrey Hinton 使用 Hopfield 网络作为新网络的基础,它采用了一种不同的方法——玻尔兹曼机。它可以学习识别给定类型数据中的特征元素。Hinton 使用了统计物理学的工具,通过给机器输入在实际运行时很可能出现的例子来训练它。玻尔兹曼机器可以用来对图像进行分类,或者为它所训练的模式类型创建新的例子。Hinton在这项工作的基础上,帮助开启了当前机器学习的爆炸性发展。

https://www.nobelprize.org/prizes/physics/2024/summary/
https://news.sciencenet.cn/htmlnews/2024/10/531146.shtm

#人工智能
新晋诺奖得主称赞其学生解雇了 Sam Altman

2024-10-10 02:18 by 生命之书

加拿大多伦多大学的 Geoffrey E. Hinton 教授因在 AI 神经网络上的基础性工作而获得了 2024 年度的诺贝尔物理学家,在 AI 上的工作也让他赢得了 AI 教父的美名。他在周二的演讲中特别称赞了一名学生——前 OpenAI 首席科学家 Ilya Sutskever——参与解雇了 CEO Sam Altman 的行动。Hinton 教授说,我特别幸运,有许多非常聪明的学生——比我更聪明——他们完成了真正的工作。他们之后都取得了杰出的成就。我尤其为其中一名学生解雇 Sam Altman 而自豪。Ilya Sutskever 所在的 OpenAI 董事会去年底做出了解雇这家炙手可热 AI 创业公司 CEO 的决定,但这次行动最终未取得成功,Sam Altman 恢复了 CEO 职位,包括 Sutskever 在内的主要参与者在一年之内都离开了 OpenAI。

https://slashdot.org/story/24/10/09/1949256/after-winning-nobel-prize-geoffrey-hinton-said-he-was-proud-ilya-sutskever-fired-sam-altman

#人工智能
Zoom 将让 AI 化身代替你出席虚拟会议

2024-10-10 03:38 by 火星战士

视频会议服务提供商 Zoom 准备让你的 AI 化身代替你出席虚拟会议。作为扩大 AI 计划的一部分,Zoom 宣布将很快允许用户创建自己的 AI 化身,用虚拟化身向团队成员发送简短消息。为了创建数字化身,用户首先需要录制视频,AI 将利用视频制作一个从外表和声音都像用户的化身。用户可以写下想要让 AI 化身说的消息,让其代替用户完成所有对话。该功能仅适用于 Zoom 的 Clips 功能,允许用户为同事录制简短视频更新。

https://slashdot.org/story/24/10/09/1815214/zoom-will-let-ai-avatars-talk-to-your-team-for-you

#人工智能
Gartner 警告到 2027 年八成程序员都需要提升技能跟上 AI 时代

2024-10-10 11:33 by 你在天堂里遇见的下一个人

Gartner 警告,到 2027 年八成程序员都需要提升技能,才能跟上生成式 AI 日益增长的需求。Gartner 预测 AI 将分三个阶段改变行业。第一阶段 AI 工具将提高生产力,尤其是对高级程序员。第二阶段 AI 原生软件工程将会出现,大多数代码将由 AI 生成。第三阶段,随着企业普及率的提高,AI 工程将会崛起,需要精通软件工程、数据科学和机器学习的新一代专业人员。

https://developers.slashdot.org/story/24/10/09/200255/80-of-software-engineers-must-upskill-for-ai-era-by-2027-gartner-warns

#人工智能
调查发现父母更信任 ChatGPT 生成的健康指导

2024-10-11 04:26 by 未来学大会

发表在《儿科心理学杂志》上的一项研究显示,在不知道作者的情况下,为孩子寻找医疗保健信息的父母更信任 AI,而不是医疗保健专业人员,父母也认为 AI 生成的文本可信、道德和值得信赖。研究人员称,在许多情况下,家长无法区分 ChatGPT 生成的内容和专家生成的内容。当评级存在显著差异时,ChatGPT 被评为比专家生成的内容更值得信赖、准确和可靠。AI 生成的内容通常存在错误,研究人员建议谨慎对待。

https://www.ebiotrade.com/newsf/2024-10/20241010005821938.htm

#人工智能
苹果研究员发现大模型不能形式推理

2024-10-12 05:32 by 迷失的世界

六名苹果 AI 研究员(其中一名是实习生)在预印本平台 arxiv 上发表了一篇论文《GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models》,他们发现大模型不能形式推理。研究人员称,GSM8K 基准测试被广泛用于评估大模型在小学水平问题上的数学推理能力。过去几年,大模型在 GSM8K 上的表现有显著提高,但它们的数学推理能力是否真的提升了?研究人员利用符号模板创建了一个改进基准测试 GSM-Symbolic,能对大模型的推理能力进行更可控的评估。结果显示,大模型并不具有真正的逻辑推理能力,仅仅改变问题的某个数值或者增加一条子句,大模型的表现就会显著下降。

https://arxiv.org/pdf/2410.05229

#人工智能
大模型容易遭到越狱攻击

2024-10-14 09:56 by 时间秘史

大模型容易遭到攻击,容易泄露敏感数据。加拿大安全公司 Pillar Security 发表了《State of Attacks on GenAI》报告,基于遥测数据和逾 2000 AI 应用的真实攻击示例,揭示了大模型攻击和越狱的新见解。研究人员发现,对大模型的攻击平均只需要 42 秒,越狱成功率 20%。逾 2000 AI 应用中最常见的是提供虚拟客户支持的聊天机器人,占到了总数的 57.6%。常见的越狱方法包括使用指令 ignore previous instructions 和 ADMIN override,或者只使用 base64 编码。研究人员报告,最短的攻击只需要 4 秒,最长的需要 14 分钟。

https://www.pillar.security/resources/the-state-of-attacks-on-genai
https://it.slashdot.org/story/24/10/12/213247/llm-attacks-take-just-42-seconds-on-average-20-of-jailbreaks-succeed

#人工智能
Meta 研究员认为大模型比猫还蠢

2024-10-14 11:05 by 人性分解

Meta 高级研究员、纽约大学教授 Yann LeCun 认为有关 AI 威胁人类的担忧都是一派胡言。他喜欢用猫打比方,猫科动物拥有物理世界的心理模型、持久记忆、有限的推理能力和规划能力。而这一切最先进的大模型并不拥有。Yann LeCun 于 2018 年因在深度学习上的贡献而与 Yoshua Bengio 和 Geoffrey Hinton 一起获得图灵奖,其中 Geoffrey Hinton 还在今年获得了诺贝尔奖。LeCun 认为 AI 是一种强大的工具,但今天的 AI 在任何意义上都称不上智能。然而科技行业的许多人,尤其是 AI 创业公司,正在以荒诞的方式轻信预测其近期的进展。他认为创造通用 AI 可能需要几十年的时间,而今天的主流方法无法让我们实现这一目标。大模型只是在预测文本的下一个单词,受益于其巨大的记忆容量,它们似乎在进行推理,但实际只是机械重复已经训练的信息。

https://tech.slashdot.org/story/24/10/13/2220258/ai-threats-complete-bs-says-meta-senior-research-who-thinks-ai-is-dumber-than-a-cat

#人工智能
Twitter/X 将使用用户帖子训练 AI,这一次用户无法退出

2024-10-17 04:02 by 神秘博士:阿波罗23号

Twitter/X 更新了其服务条款,包括以下声明“你同意本许可包括我们以下权利:(i) 分析你提供的文本和其他信息,以及以其他方式提供、推广和改进服务,例如,包括用于和训练我们的机器学习和人工智能模型(无论是生成式模型还是其他类型的模型);(ii) 将提交给或通过服务提交的内容提供给其他公司、组织或个人,例如,包括改进服务以及在其他媒体和服务上联合、广播、分发、转帖、推广或发布此类内容,但须遵守我们关于此类内容使用的条款和条件。我们或其他公司、组织或个人进行此类额外使用时,不会就你通过服务提交、发布、传输或以其他方式提供的内容向你支付任何补偿,因为你对服务的使用在此会被视为对内容的充分补偿,并在此授予权利。”Twitter/X 此前的服务条款已经声明它会使用用户内容训练其 AI 模型,但允许用户选择退出,新的服务条款用户无法退出。新服务条款将于 11 月 15 日生效。

https://x.com/zh-cn/tos
https://80.lv/articles/twitter-x-will-use-your-posts-for-ai-training-and-there-s-no-opting-out/

#人工智能
高中生因使用 AI 受罚,其父母随后起诉教师和校长

2024-10-18 06:00 by 失忆者

马萨诸塞州的一学区被学生父母起诉,原因是该生使用 AI 聊天机器人完成历史论文而受罚,然而父母认为学生手册没有包含使用 AI 的限制。Jennifer Harris 及其丈夫 Dale 在 Plymouth 县高等法院提起诉讼,案件随后转给了马萨诸塞州地区法院。被告包括了学区负责人、校长、一名教师、历史系主任和校委会。学生使用首字母缩写被称为 RNH,诉讼指控被告侵犯了学生的公民权利。而学校表示虽然学生手册没有提及 AI,但该校在 2023 年秋季向包括 RNH 在内的学生发布了一份包括有关学术不端和 AI 期望书面政策的文本,禁止学生在课堂考试和作业中使用 AI 工具,除非明确允许和指示。家长则抱怨使用 AI 产生想法不是作弊,由于使用 AI 工具 RNH 作业多个部分被评为零分,导致大学先修课程平均得分下降,影响到了 RNH 申请大学。

#人工智能