Agent Q:AI 智能体新突破,赋予其高级推理和学习能力

文摘   2024-08-15 20:38   中国香港  

导读:大型语言模型(LLM)在需要复杂推理的自然语言任务中表现出色,但将其应用于需要多步骤推理的交互式环境(如网页导航)仍然是一个难题。 MultiOn 公司引入了 Agent Q,这是一个结合了引导式蒙特卡洛树搜索(MCTS)、自我批评机制和直接偏好优化(DPO)算法的框架,赋予 AI 智能体在动态环境中进行复杂决策和自我修复的能力。


AI 智能体也能“随机应变”?Agent Q 来了!

近年来,大型语言模型(LLM)在人工智能领域取得了显著的进步。像 ChatGPT、Gemini、Opus 和 LLaMA-3 这样的前沿模型展现出强大的推理能力,在许多领域的表现接近甚至超越了人类平均水平。这些突破将 LLM 的应用范围从传统的聊天和基于文本的任务扩展到了更具动态性的智能体角色,使其不仅可以生成文本,还可以在各种环境中自主地执行操作。

然而,一个重大的挑战依然存在:LLM 在交互式、多步骤的环境中仍然难以有效地泛化。MultiOn 公司的研究人员致力于解决这一难题,他们的目标是设计一种方法,使智能体能够利用自主经验和有限的监督来进行改进。为此,他们引入了 Agent Q——一种将推理、搜索、自我批评和强化学习等多个关键概念相结合的新方法。

Agent Q 的设计灵感来自于 Sutton 提出的“痛苦教训”,即那些能够随着计算量的增加而不断扩展的通用方法的力量,这表明了将搜索和学习结合起来的巨大好处。Agent Q 的核心是利用蒙特卡洛树搜索(MCTS)来引导智能体探索不同的行动路径,并利用 AI 自我批评机制在每个步骤提供反馈,优化决策过程。

图1 展示了 Agent Q 如何使用 MCTS 来指导轨迹收集,并使用直接偏好优化(DPO)迭代地改进模型性能。它从数据集的任务列表中采样用户查询,并使用 UCB1 作为启发式方法,迭代地扩展搜索树,以平衡不同动作的探索和利用。Agent Q 在树中的每个节点存储获得的累积奖励,在图中,深绿色表示更高的奖励,深红色表示更低的奖励。为了构建偏好数据集,Agent Q 计算 MCTS 平均 Q 值的加权分数和反馈语言模型生成的分数,以构建 DPO 的对比对。策略经过优化,可以迭代改进。

Agent Q 的三大核心组件:

1. 引导式搜索与 MCTS:自主探索,寻找最佳路径

Agent Q 利用引导式蒙特卡洛树搜索(MCTS)来自主生成数据,探索不同的操作和网页,并智能地平衡探索和利用。MCTS 使用高采样温度和多样化提示来扩展操作空间,从而确保收集到多样化且最佳的轨迹。

图 2 展示了 Agent Q,RFT 和 DPO 在 WebShop 任务上的成功率。所有模型均基于 xLAM-v0.1-r。在 xLAM-v0.1-r 上使用 RFT 和 DPO 分别将性能从 28.6% 提高到 31.3% 和 37.5%。但是,这些方法仍然落后于 50.0% 的人类平均水平。Agent Q + MCTS 在基础模型上实现了显著提升(相对改进了 76.57%),其成功率达到了 50.5%,优于 WebShop 上的人类平均水平。

2. AI 自我批评:不断反思,优化决策过程

在每个步骤中,基于 AI 的自我批评机制都会提供宝贵的反馈,帮助 Agent Q 优化决策过程。这种步骤级反馈对于长时任务至关重要,在长时任务中,稀疏信号通常会导致学习困难。

图 3 展示了 AI 自我批评机制的运行过程。在推理时间搜索期间,策略在每一步都会提出 K 个动作。评估器(也使用与策略相同的基础 LLM 模型进行初始化)会对策略提出的动作进行排名。此排名用于指导扩展后的节点选择,并在策略训练期间用于构建偏好对。

3. 直接偏好优化:从经验中学习,提升成功率

Agent Q 采用直接偏好优化 (DPO) 算法来微调模型,通过从 MCTS 生成的数据构建偏好对,这种离线训练方法允许模型从聚合数据集中有效地学习,包括搜索期间探索的次优分支,从而提高复杂环境中的成功率。

算法 1 展示了 MCTS 引导的直接偏好优化算法。

Agent Q 初露锋芒:在真实世界中超越人类表现

在 Open Table 上进行的真实世界预订实验中,Agent Q 大幅提高了 LLaMa-3 模型的零样本性能,将其成功率从 18.6% 提升至 81.7%,提升幅度高达 340%,并且仅需一天的自主数据收集。如果启用在线搜索功能,成功率更可进一步提升至 95.4%。这些结果突出了 Agent Q 方法在提升自主 Web 智能体效率和性能方面的显著效果。

图 4 展示了不同方法在 OpenTable 上的成功率。除非另有说明,否则所有模型均基于 LLaMA-3-70B-Instruct。使用 DPO 和带有 MCTS 的 RFT 分别将性能从 18.6% 进一步提高到 71.8% 和 84.3%。研究人员展示了 Agent Q 本身达到了 81.7% 的成功率,而 Agent Q + MCTS 则显著优于所有其他技术,在 OpenTable 上的性能达到了 95.4%。

图 5 展示了在轨迹结束时,如何调用一个 GPT-4-V 评估器来根据最终观察结果和动作历史记录提供关于智能体性能的反馈,以确定成功分数。该模型会收到轨迹的简要执行历史记录和最终状态的屏幕截图。成功指标是一个二进制值 0/1。


研究人员向 Agent Q 提供以下输入格式,包括系统提示、执行历史记录、当前观察结果(以 DOM 表示形式)和包含目标的用户查询。他们将智能体输出格式划分为一个整体的逐步计划、思考、命令和状态代码。

图 6 展示了研究人员向 Agent Q 提供的输入格式,以及智能体输出格式。

迈向未来:Agent Q 开启网络世界自动导航新时代

MultiOn 的 Agent Q 为自主 Web 智能体树立了新的重要里程碑,它结合了先进的搜索技术、AI 自我批评和强化学习,克服了当前的局限性,代表着自主智能体能力的重大飞跃。这项突破性研究成果将于今年晚些时候向开发者和消费者用户开放。

相关链接

  • • Agent Q 论文:https://multion-research.s3.us-east-2.amazonaws.com/AgentQ.pdf

子非AI
子非AI,焉知AI之乐:分享AI的有趣应用和创新案例,让你了解AI的乐趣。
 最新文章