LLMs are not like you and me – and never will be
9 months ago
- #AI
- #LLM
- #WorldModels
- 大语言模型(LLMs)与人类存在本质差异,尽管存在某些表面相似性,但其思维方式与人类截然不同。
- 大语言模型缺乏完善的世界模型,导致其在需要时序推理、常识判断和事实准确性的任务中频繁出错。
- 典型错误案例包括:历史事实错误、无法可靠地下棋、忽略通货膨胀或时间因素的计算失误等。
- 大语言模型的运作本质是基于自动补全机制,而非真正的理解或逻辑推理。
- 人工智能领域尚未有效解决时间、空间和因果关系等基础推理框架的构建问题。
- 由于缺乏完善的世界模型和推理能力,将大语言模型作为复杂任务的代理工具并不可靠。
- 批评者指出,声称大语言模型具有类人思维的观点,实质是对LLM运作原理和人脑认知机制的无知或否认。
- 尽管技术持续改进,大语言模型在需要深度推理或事实准确性的任务中仍存在根本性局限,不可盲目信赖。