Forwarded from Reorx’s Forge
今天 OpenAI 新模型 o1-preview 发布了,这个模型会在回答问题前反复验证,尝试自我纠错,并确保每个问题中的要点/步骤都尽可能考虑到。因此相比其他模型更适合解决复杂和困难的问题。
OpenAI 官方发布了一系列视频演示其使用场景,其中一个是做一个「考拉找松树」的游戏 https://www.youtube.com/watch?v=T0IrhzrhR40
我尝试复刻了一下,并把问题翻译成了中文,以便考查其多语言能力。第一次输出的代码基本能运行,有两个小问题,反馈之后第二次便修复了,然后真的立刻就成功运行了游戏,准确性相比之前的模型有了很大的提升。我平时很少用 GPT 写完整的代码,原因就是任务的范围越大越容易出错,但如果只是写一个函数就还可以。另一个问题是 GPT 输出的代码缺乏工程性的考量,对代码质量有追求的人不会轻易把 AI 写的代码直接丢入自己的项目中。而如今我感觉 o1 将会具备帮助 senior developer 写程序的能力。
以前我觉得大模型就是在无数向量中带有随机性的近似匹配,不是真正的思考,我认为思考应该是一种遵循逻辑规律的自我否定的过程。而当 o1 开始反复自我验证,这是否是 AI 真正具备思考能力的开端呢?未来会走到哪一步?真令人感到期待。
OpenAI 官方发布了一系列视频演示其使用场景,其中一个是做一个「考拉找松树」的游戏 https://www.youtube.com/watch?v=T0IrhzrhR40
我尝试复刻了一下,并把问题翻译成了中文,以便考查其多语言能力。第一次输出的代码基本能运行,有两个小问题,反馈之后第二次便修复了,然后真的立刻就成功运行了游戏,准确性相比之前的模型有了很大的提升。我平时很少用 GPT 写完整的代码,原因就是任务的范围越大越容易出错,但如果只是写一个函数就还可以。另一个问题是 GPT 输出的代码缺乏工程性的考量,对代码质量有追求的人不会轻易把 AI 写的代码直接丢入自己的项目中。而如今我感觉 o1 将会具备帮助 senior developer 写程序的能力。
以前我觉得大模型就是在无数向量中带有随机性的近似匹配,不是真正的思考,我认为思考应该是一种遵循逻辑规律的自我否定的过程。而当 o1 开始反复自我验证,这是否是 AI 真正具备思考能力的开端呢?未来会走到哪一步?真令人感到期待。