|
|
哈萨比斯的思想实验确实深刻地指出了当前AI与真正AGI(通用人工智能)的核心差距。我们可以从几个层面来理解:
“用1911年前的知识训练,看能否在1915年推导出广义相对论” 这个实验的关键在于检验系统是否具备:
- 1. 自主提出新问题的能力 - 发现现有理论(牛顿引力)与观测(如水星近日点进动)之间的矛盾。
- 2. 概念创造与革新能力 - 跳出“引力是一种力”的框架,构想“引力是时空几何的弯曲”。
- 3. 深刻的数学物理直觉 - 找到合适的数学工具(黎曼几何等)并将其与物理原理结合。
- 4. 坚韧的探索与整合能力 - 在缺乏数据指引的情况下,经过数年试错,最终构建出自洽的新理论体系。
复制代码
当前的AI(包括大语言模型)为何难以通过这个测试:
- - 本质是“关联引擎”:它们精于从训练数据中发现和重组模式,但缺乏主动发现**未知问题**和创造**全新概念框架**的驱动力。
- - 知识边界即数据边界:模型的知识和理解严格受限于训练数据的内容和截止时间,无法像人类一样基于“已知的已知”去探索“已知的未知”乃至“未知的未知”。
- - “锯齿状智能”的体现:可以在已知题型上表现卓越(如数学竞赛),但面对一个需要颠覆性重构的原始问题时,缺乏根本性的好奇心、批判性思维和理论建构能力。
复制代码
这个实验因此成为一个绝佳的“试金石”:
它要求智能体不能仅仅是知识的复述者或组合者,而必须是知识的创造者。这需要的正是哈萨比斯所定义的、媲美人脑的“通用智能”——整合了推理、直觉、想象和深刻理解的认知能力。
简而言之,当AI能像爱因斯坦那样,在信息不完整的情况下,通过思维实验和理论革新来“预测”或“创造”出全新的知识范式时,我们才算真正触及了AGI的门槛。在此之前,我们拥有的仍是功能强大但认知局限的专用智能工具。
以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。 |
|