数据:
大语言模型存在严重推理缺陷,缺乏持续更新的“世界模型”,而构建通用人工智能将面临极大挑战。
线索:
大语言模型在逻辑推理与因果理解方面存在深层次的结构性缺陷,这可能会在实际应用中引发严重的后果,如在自动驾驶或医疗分析时导致错误决策。此外,由于缺乏真实世界的内部表示,未来的AI投资者需关注到这一缺陷对技术发展和市场的潜在影响。
正文:
OpenAI首席执行官认为通用人工智能的实现已经近在咫尺,但某些专家对此表示怀疑,认为基于大语言模型构建的人工智能仍面临根本问题。最近,认知科学家加里·马库斯在一篇长文中指出,大语言模型在理解和模拟世界方面存在严重不足,即它们并没有真正建立起稳定可靠的“世界模型”。
当前的大语言模型在推理和逻辑判断方面频频失误,苹果公司近期发布的研究也展示了这些模型在简单的推理任务中屡次出错。专家认为,这些失误并不是简单的训练不足或参数规模问题,而是架构上的混乱,主要体现在其缺乏对现实事件的持续跟踪和因果关系的理解能力。因此,这导致它们在,包括图像生成和视频理解在内的多个领域,犯下错误。
“世界模型”是一个系统内部用来理解和感知现实的框架。尽管人类及一些低等动物能够构建这样的模型,但大语言模型则完全依赖于统计学原理,并无法创建有效的内在知识结构。这使得它们在游戏、视频理解等任务中表现不佳,甚至可能在涉及安全和法律的关键应用场景中造成严重后果。
当模型被用在涉及规则和逻辑的任务中,它们时常出错。比如,在国际象棋游戏中,模型虽然能复述规则,但实际表现中常常违反基本原则。而在视频理解领域,它们容易忽视关键事件,导致错误的行为描述,这种问题在复杂任务中尤为致命。
随着大语言模型的更新迭代,其产生的错误和幻觉问题并未得到根本解决。当模型生成内容时,它可能看似流畅,却缺乏真实的理解能力。所生成的内容可能是重量级的语言构建,但并不反映出任何内在的逻辑框架。随着这些模型参与越来越多的关键任务,其缺乏“知识结构”的问题将越来越棘手。
总而言之,尽管现在的大语言模型在表象上能够生成合理的语言内容,其背后的推理和逻辑能力却依然未能达标。对于依靠此类技术决策的未来,我们需更加谨慎,必须构建起健壮、明确、可更新的世界模型,以提高人工智能系统的安全性和可靠性。
发布时间:
2025-06-30 17:25:12
评论 ( 0 )