整合长期记忆,探索大模型自我进化的可能 | 追问观察

学术   2024-10-29 18:07   上海  


地球上最早的生命证据至少可以追溯到35亿年前,而直到大约25万到40万年前,智人才出现地球上。在这漫长的岁月中,生物不断地兴盛又覆灭,但整体趋势总是越来越复杂,其中最复杂的生物组件莫过于我们智人的大脑。这样的复杂性是我们的意识和智慧的来源。而这一切背后的机制是进化(evolution)。


到了现今的大模型时代,强大的基础模型已经展现出了强大的智能水平,能完成多种多样的任务。但它们也有个缺点,训练之后就基本定型了,难以随着用户的使用而演进。但毫无疑问,这项能力很重要。


近日,天桥脑科学研究院和普林斯顿大学等多所研究机构发布了一篇研究论文,详细阐述了长期记忆对AI自我进化的重要性,并且他们还提出了自己的实现框架——基于多智能体的 Omne,其在GAIA基准上取得了第一名的成绩。


Jiang, Xun, et al. "Long Term Memory: The Foundation of AI Self-Evolution." arXiv preprint arXiv:2410.15665 (2024).


首先,该团队将LLM的模型进化过程分成了三个主要阶段


  • 阶段 1:在物理世界中积累认知。

  • 阶段 2:在数字世界中构建基础模型。

  • 阶段 3:模型自我进化,以实现更强大的智能。

长期记忆和AI自我进化概述。


现有的研究主要围绕着阶段1和2,即如何构建更好的数据以及将其用于训练更强大的基础模型。目前人们有一个普遍的看法:在这种曲线拟合范式中,架构并不重要,关键的因素是数据集。但到了阶段3,架构就会变得和数据一样重要。核心的难题是如何在统计模型的基础上有效表达少数个体的数据。该研究关注的核心是如何确保在统计模型内有效地表达个体数据。


实现模型自我进化的原理


模型的自我进化能力是模型长期适应和个性化的关键,而这又严重依赖于有效的记忆机制。


在这一理解的基础上,该团队提出:长期记忆(LTM)能为模型的持续进化提供历史数据积累和经验学习能力。正如人类通过经验和记忆来完善认知和行为一样,LTM也能让模型在处理长期、分散和个性化的数据时逐步提升推理和学习能力。


(1)用LTM数据提升模型能力,使其能够自我进化


在传统LLM中,更新模型通常需要调整所有参数,而如果目的是处理个体数据,那这种操作明显不切实际。


一种更优的方法是仅更新局部参数,从而在无损模型全局稳定性的前提下,让模型适应稀疏、个性化的LTM数据。这种方法可解决当前模型中个体数据“被平均化”的问题,使个性化信息能够更全面地表达。使用上下文学习(ICL)的检索增强生成(RAG)和用于微调的低秩适应(LoRA)等技术都可被视为局部更新个体数据的方法。


该团队的做法是采用一种混合策略来整合LTM 数据,从而在实际应用中达到让人满意的结果。但是,该团队也表示,这可能并非一种完美的解决方案,未来可能还会出现更好的方法。


(2)组合LTM数据进行实时权重更新,从而实现自我进化


当前的LLM通常分为训练和推理两个阶段。在推理阶段,模型权重是冻结的,防止模型根据新输入进行调整和学习。这种固定的推理过程会限制模型的适应性,尤其是在处理个性化任务和实时学习方面。


受人脑更新机制的启发,该团队认为未来的 LLM应该将推理和训练与LTM结合起来,使模型能够在接收到新信息时动态调整权重。这就类似于人类的持续学习能力。


此外,这种集成还可以帮助模型在面对复杂的推理任务时自我反思并纠正错误的推理路径,从而提高准确性和效率。


这种动态的自我调整能力将大大提升模型的个性化能力和长期进化潜力。通过长期记忆,模型不仅可以从短期记忆中学习,还可以从历史数据中提取有价值的见解,随着时间的推移能更深入地理解个人偏好和行为模式。这种理解可实现模型的个性化定制和动态调整,使模型能够更有效地进化。特别是在面对新的或极端的情况时,长期记忆使模型能够参考过去的经验,快速做出调整并自我进化,从而获得更大的灵活性和适应性。


长期记忆在模型自我进化中的实现路径


该团队首先将给出AI自我进化和LTM的定义,然后探索LTM在AI自我进化中的关键作用,之后会介绍如何使用LTM来实现AI自我进化。他们做出了以下贡献:


  • 给出了AI自我进化和LTM的定义;

  • 提出了一个用于LTM的数据框架,包括数据收集、分析与合成;

  • 提出了一个用于LTM的多智能体协作开发框架。


AI自我进化的基础


这里简要给出AI自我进化的定义,详情请参阅原论文。


AI自我进化是指AI模型使用个性化数据不断学习和优化,实现多智能体协作和认知方面的突破。该过程基于一个共享式内核架构,其中各个模型通过处理个性化经验和数据不断进化,从而提升自身推理能力和适应能力,最终实现在动态环境中的自主学习和持续进化


要实现AI自我进化,需要:


  • 多智能体协作机制;

  • 差异化的个性化模型;

  • 自我纠错和评估机制;

  • 长期记忆和学习能力。



用于AI自我进化的LTM


目前,LLM主要通过两种记忆机制来管理信息:上下文存储器和基于压缩的参数存储器。虽然这些机制在短期任务中表现出色,但它们在支持长期自主学习和进化方面仍然存在不足。


正如人类使用LTM来塑造他们的行为和身份一样,人工智能系统也可以采用类似的方法根据“个人数据”定制其响应和行为。这里,“个人数据”不仅限于个人用户,还包括特定的机构和领域,允许模型根据更广泛的个人背景和需求调整其响应和行为。


人类学习和成长,与人工智能训练和进化的差异对比。


作者深入探讨了LTM在AI自我进化中所发挥的关键作用,首先在AI自我进化的背景下定义了 LTM,并分析了当前LLM记忆机制的缺点。然后,作者讨论了通过从人类LTM特征中汲取灵感来增强人工智能模型的自我进化能力,旨在构建能持续学习和自我完善的人工智能系统。


该研究将AI自我进化中的LTM定义为:


LTM是人工智能系统可以长期保留和利用的信息,使模型能够根据更广泛的背景调整其响应和行为。


这里,“个人数据”不仅限于个人用户,还包括特定的机构和领域,允许模型根据更广泛的个人背景和需求调整其反应和行为。


从数据积累的角度来看:模型和人类都与环境进行广泛的交互,为个性化提供基础数据。与人类相比,人工智能模型可以更有效地与环境交互,并且可以在纯虚拟的数字环境中执行这些交互和迭代。因此,通过设计适当的记忆细化策略,模型应该能够像人类一样积累长期记忆,甚至可能具有更高的效率和规模。


从模型更新的角度来看:人工智能擅长存储和调用海量数据,远远超过人类记忆规模。神经网络通过分布式参数管理这些数据,处理来自不同领域的输入。然而,这种存储相对刚性,缺乏实时更新的灵活性,通常需要重新训练才能实现更新。相比之下,人类的记忆力却非常强。


LLM 记忆与长期记忆比较。


LTM 的构建策略 


LTM是对原始数据的有效组织和结构化,而不仅仅是表面上对原始数据进行分类和排序。相反,它是从记忆快速存储和检索以及信息高效利用的角度来设计和优化。通过建立相关信息之间的联系,有效处理数据并重新组织信息,智能体可以快速定位所需的记忆片段,从而提高响应速度和准确性。以下是几种主要的操作方法:


  • 文本摘要;

  • 数据结构化;

  • 图表征;

  • 矢量化;

  • 模型参数化。


如何利用LTM实现模型自我进化?


获得高质量的LTM数据后,下一个挑战是如何利用它来增强模型能力并实现模型的自我进化。在使用LTM数据以最大限度地提高其有效性和效率的过程中需要解决几个关键挑战,包括:


适应持续更新的LTM数据。随着用户LTM数据的不断积累,模型必须在学习新信息和保留先前获取的知识之间取得平衡。传统模型通常假设稳定的数据分布,但在实际场景中,新的 LTM数据可能与早期模式显著背离,导致过拟合或灾难性遗忘等风险。有效处理这些变化对于适应动态LTM数据至关重要。


实时学习和高效反馈集成。由于LTM数据是动态积累的,模型必须快速适应用户行为的实时变化。新数据的快速集成对于智能助手等应用程序至关重要,其中无缝的用户交互是关键。此外,在完善基础模型时,应考虑隐式(例如点击次数或花费的时间)和显式的用户反馈。实时结合这两种类型的反馈使模型能够不断改进并满足个人用户的需求。


处理数据稀疏性和用户多样性。数据稀疏是持续更新的LTM系统中一个常见的问题,特别是对于交互历史有限或零星活动的用户来说,这使得训练模型变得困难。此外,用户多样性也会进一步增加复杂性,要求模型适应个体模式,同时仍然有效地推广到不同的用户组。


如何通过文本和参数化记忆检索利用个人数据。


以清华大学团队的Agent Hospital(智能体医院)作为案例,该团队展示了如何在这个模拟医疗场景中用LTM来提升模型的能力,其中包括医疗经验精炼和RAG利用。详见原论文。


基于LTM实现模型自我进化的实践



(1)获取LTM数据


为了提升模型保留和访问LTM数据的能力,该团队全面研究了各种方法,其中包括:


  • 如何收集真实世界的LTM数据;

  • 如何获取合成的LTM数据,其中包括用真实数据提升合成LTM数据的生成过程、使用思维链增强合成LTM数据的生成过程、生成训练数据和评估数据等多个方面;

  • 如何使用LTM数据,该团队介绍了通过 SFT和RAG使用LTM、将LTM用于医疗领域的智能体自我评估、通过记忆系统来使用LTM、通过实时权重更新来使用 LTM。


这其中包含一些实验评估和例证,详见原论文。这里我们来重点看看他们开发的基于 LTM 的多智能体框架。


(2)基于LTM的多智能体框架


该团队提出一个基于LTM的多智能体框架 Omne。


Omne是基于AutoGen MultiAgent Framework深度定制的开发框架,专门用于解决LTM在AI系统中的实际应用难题。


它扩展了一系列与记忆相关的基础设施,包括统一的记忆模型、多模态消息处理系统以及灵活的记忆存储和操作机制。Omne的核心模块(Omne Core)如下图所示:


Omne Core 示意图。


Omne的核心目标是提供一套全面的解决方案,使LTM能够在实际工程项目中有效部署,从而增强AI系统的长期记忆能力和任务处理效率。


基于Omne Core,该团队还构建了一个Omne Assistant。


Omne Assistant的设计目标是帮助开发聊天场景中的AI助手,其提供了一个现成的应用层框架。它包括AI助手所需的基本功能,使开发人员无需从头开始设计基础组件,就能快速构建功能齐全的聊天机器人。


Omne Assistant带有一个Simple Responder,这是一个通用的问答响应器,可以处理基本的用户聊天交互以实现即时通信。此外,该框架还提供了一个Reactive Responder,它具有高级任务分析和规划功能,使其能够管理需要多步骤推理和任务编排的更复杂的用户请求。


Omne 助手


借助这些内置组件,Omne Assistant可让开发人员专注于实现自己的功能,从而更快地开发和部署配备长期记忆功能的AI助手应用。


在GAIA基准(包含400多个问答任务的通用AI 助手测试集)上,该团队对Omne框架进行了评估。


为了探索AI的边界,他们在Omne框架中使用了当今最强大的GPT-4o和o1-preview模型,同时配备了4个工具:网络浏览、Bing搜索引擎、基于llamaparse的文件读取器,一个使用 o1-preview 构建的逻辑专家。


基于这2个基础模型和4个工具,Omne在测试集和验证集上分别取得了第一名(40.53%)和第二名(46.06%)的成绩。


Omne在验证集取得第二名成绩。

Omne在测试集取得第一名成绩。


值得注意的是,Omne在最复杂、要求最高的 3级问题上达到了26.53%的准确率。这证明了其通过利用强大的基础模型(尤其是具有强大推理和逻辑能力的模型)解决现实问题的潜力。


未来计划


该团队并不打算止步于此,他们已经制定了未来研究的计划,方向包括:


  1. 如何更好地构建LTM数据?

  2. 如何为LTM设计新的模型架构?

  3. LTM如何帮助用户提出更好的问题?

  4. 如何将LTM与推理时间搜索相结合?

  5. 如何在复杂场景中使用LTM实现智能体自我进化?

  6. 如何在多智能体场景中使用LTM?



关于追问nextquestion

天桥脑科学研究院旗下科学媒体,旨在以科学追问为纽带,深入探究人工智能与人类智能相互融合与促进,不断探索科学的边界。如果您有进一步想要讨论的内容,欢迎评论区留言,或添加小助手微信questionlab,加入社群与我们互动。

关于天桥脑科学研究院

天桥脑科学研究院(Tianqiao and  Chrissy Chen Institute, TCCl)是由陈天桥、雒芊芊夫妇出资10亿美元创建的世界最大私人脑科学研究机构之一,围绕全球化、跨学科和青年科学家三大重点,支持脑科学研究,造福人类。

TCCI与华山医院、上海市精神卫生中心设立了应用神经技术前沿实验室、人工智能与精神健康前沿实验室;与加州理工学院合作成立了TCCI加州理工神经科学研究院。

TCCI建成了支持脑科学和人工智能领域研究的生态系统,项目遍布欧美、亚洲和大洋洲,包括学术会议和交流夏校培训AI驱动科学大奖、科研型临床医生奖励计划、特殊病例社区、中文媒体追问等。

追问nextquestion
科研就是不断探索问题的边界
 最新文章