摘要:谷歌DeepMind的研究人员提出了一种名为“嵌套学习”(Nested Learning)的新范式,旨在解决人工智能,尤其是大语言模型长期存在的“灾难性遗忘”和缺乏持续学习能力的问题。该研究基于“一切AI皆是联想记忆”的核心观点,提出了统一的MIRAS记忆设计框架,并在此基础上构建了具有不同更新频率的嵌套系统。实验表明,基于此理念的HOPE架构在长上下文处理和持续学习任务上表现优于现有模型。研究者认为,这不仅是技术改进,更是一种理解深度学习的新范式,可能为通向通用人工智能(AGI)铺平道路,同时也引发了关于AI安全与伦理的新考量。
线索:
* 投资机会:若“嵌套学习”范式被验证并广泛采用,可能意味着AI基础架构的一次重要演进。关注点可投向:1) 核心算法与框架:掌握相关专利或开源项目的团队或公司;2) 硬件与算力:新的学习范式可能对计算架构(如支持动态更新的内存系统)提出新需求;3) 应用层:真正具备持续学习能力的AI将极大增强个性化服务、自动驾驶、机器人等领域的适应性和效率,率先集成此类技术的应用提供商可能获得优势。
* 潜在风险:1) 技术成熟度:该研究目前仍处于早期阶段,从论文到稳定、可大规模部署的产品存在不确定性。2) 安全与治理:持续学习能力使AI能够自主形成并强化“偏好”,可能带来难以预测的偏见、价值对齐困难甚至失控风险,相关监管和治理框架亟待建立。3) 行业格局:若该技术路线成为主流,可能动摇现有以Transformer为核心的产业生态,引发技术路线竞争和市场份额重组。
正文:
一项新的研究指出,当前主导人工智能领域的大语言模型存在一个根本性缺陷:缺乏持续学习能力,类似于医学上的“顺行性遗忘症”。患者短期记忆正常,长期记忆也存在,但无法将新的短期记忆转化为长期记忆。类似地,大模型拥有预训练获得的长期知识,也能处理当前上下文中的短期信息,但两者间缺乏自然的知识转移通道。这导致模型无法在使用过程中持续积累经验,每次学习新知识都需要耗费大量资源的重新训练或微调。
为解决这一问题,研究将视角回归到更基础的概念——“联想记忆”。联想记忆是人类学习的基石,指通过经验关联不同信息(如由面孔想起名字)。在技术上,它可视为键值对的映射学习。研究认为,从注意力机制到优化器,许多AI组件都可被视为联想记忆系统的特例。
基于此,研究者提出了一个名为MIRAS的通用框架,用于系统化地设计AI中的记忆模块。该框架强调,记忆系统的设计需考虑四个核心决策:记忆架构、注意力偏置/目标函数、保留机制和学习规则。这一框架的重要性在于,它将“记忆”本身视为一个可被建模和优化的学习过程。特别地,研究指出优化器本质上也是一种记忆模块,它负责将历史梯度信息映射到参数更新决策中。因此,优化器与模型架构并非独立,而是“互为上下文、协同进化”的关系。
由此,研究引出了“嵌套学习”的核心思想。该框架通过两个关键概念构建系统:
1. 更新频率:定义系统中不同模块的更新速度。例如,处理每个词元的循环网络层是“快模块”,而在整个文档级别更新的模块是“慢模块”。
2. 嵌套系统:由多个拥有独立参数、上下文、目标和梯度流的子模块组成,这些模块按更新频率的快慢形成嵌套关系。整个模型可被视为一个“嵌套的联想记忆系统”。
在嵌套系统中,知识在不同层级间的传递至关重要,主要包括以下几种机制:直接条件传递、非参数化条件传递、通过反向传播传递、初始状态传递(元学习初始化)以及权重生成(超网络)。
为验证理论,研究团队结合自我修改与连续记忆系统,提出了名为HOPE的具体架构,并在多项任务中进行测试。实验结果显示,在需要长上下文理解和持续学习能力的任务中,HOPE架构的性能优于或显著超越了用于对比的现有模型。这初步证明了嵌套学习框架及其相关设计在提升模型适应性方面的潜力。
该研究的意义被描述为一种重新理解深度学习的范式转变。它不仅仅提出了一个新的技术架构,更是将AI模型视为一个在不同时间尺度上持续学习和演化的嵌套记忆系统。有观点认为,如果“嵌套学习”能够成功解决持续学习问题,将是迈向通用人工智能的关键一步。同时,这种能力也引发了关于AI安全的前瞻性思考:一个能够持续学习、自主形成并强化偏好的AI系统,其长期影响需要审慎评估。
发布时间:2026-01-09 10:36:52



评论 ( 0 )