【Waymo】利用强化学习对智能体行为决策微调方法

科技   2024-11-19 08:00   上海  

waymo提出来一种在自动驾驶中利用强化学习微调来改进智能体行为的方法。在Waymo Open Sim Agents Challenge取得了SOTA结果.

0.摘要

自动驾驶车辆研究中的主要挑战之一是建模agent的行为,这在构建现实可靠的模拟用于离线评估和预测交通代理运动以进行车载规划等方面有着关键应用。虽然监督学习在不同领域建模代理方面已显示出成功,但这些模型在测试时部署可能会受到分布偏移的影响。在这项工作中,我们通过强化学习对行为模型进行闭环微调,提高了代理行为的可靠性。我们的方法在Waymo Open Sim Agents挑战中展示了改进的整体性能以及碰撞率等目标指标的提高。此外,我们提出了一个新的策略评估基准,直接评估模拟代理衡量自动驾驶车辆规划器质量的能力,并在这一新基准上展示了我们方法的有效性。

1. 创新点

本研究的主要贡献可以总结为以下几点:

  • 预训练与闭环强化学习微调框架的提出:我们提出了一种结合预训练和闭环强化学习微调的方法,用于改善自动驾驶中的行为建模。这种方法通过预训练阶段学习一般行为模式,再通过闭环强化学习微调以适应特定的驾驶任务和目标,显著提高了模型的行为预测准确性和决策质量。

  • 定制化奖励函数的设计:我们设计了一种定制化的奖励函数,该函数不仅考虑了避免碰撞和遵守交通规则等安全指标,还考虑了行驶效率和舒适度等性能指标。这种奖励函数的引入使得模型能够学习到符合人类驾驶习惯和安全标准的策略。

  • 新政策评估基准的提出:我们提出了一种新颖的政策评估基准,可以直接评估模拟代理衡量自动驾驶车辆规划者质量的能力。通过比较不同模拟代理模型控制的交通代理对预定义的自动驾驶规划者性能评估的影响,我们证明了细调模型在测试自动驾驶规划者方面的有效性。

  • 数据支持与分析:我们提供了详细的数据分析,支持我们的结论。在WOSAC挑战中,我们的模型在超过10,000次的模拟驾驶中进行了测试,收集了大量的行为数据,这些数据不仅用于评估模型的性能,还用于进一步优化模型的行为策略。

1.2 强化学习在行为微调中的应用

强化学习(RL)作为一种学习策略,通过与环境的交互来优化决策过程,使其在自动驾驶领域具有巨大的应用潜力。

RL在行为微调中的应用主要体现在以下几个方面:

  • 闭环优化:RL通过闭环系统进行学习,可以直接在自动驾驶的模拟环境中进行训练,使得模型能够根据实际的交通场景进行自我优化。

  • 处理分布偏移:RL能够处理测试时部署的模型可能遇到的分布偏移问题,即模型在训练时未见过的情境。通过RL微调,模型可以适应新的环境和条件。

  • 提高泛化能力:RL可以帮助ADS更好地泛化到新的环境和任务中,尤其是在面对罕见或极端情况时。

  • 定制化奖励函数:RL允许开发者定义奖励函数,以确保ADS在行为微调过程中学习到符合人类驾驶习惯和安全标准的策略。

  • 模拟与现实世界的迁移:RL可以帮助解决从模拟环境到现实世界的迁移问题,通过在模拟环境中训练并在现实世界中微调,提高ADS的实用性和可靠性。

综上所述,强化学习在自动驾驶中的行为微调提供了一种强大的工具,以提高ADS的性能和安全性。通过RL微调,可以更好地模拟和预测交通参与者的行为,从而提高自动驾驶车辆的决策质量。

2. 方法论

2.1 预训练与闭环强化学习微调框架

在自动驾驶领域,预训练与闭环强化学习微调框架是一种新兴的技术路径,旨在通过结合预训练的大型行为模型和闭环强化学习来提高自动驾驶系统(ADS)的行为预测准确性和决策质量。

本研究提出的框架包含以下几个关键步骤:

  • 预训练阶段:首先,使用大量真实世界的驾驶数据对行为模型进行预训练。这一阶段的目标是让模型学习到交通参与者的一般行为模式和驾驶习惯。预训练模型能够捕捉到复杂的交通动态,并为后续的微调打下基础。

  • 闭环强化学习微调:预训练完成后,模型将进入闭环强化学习微调阶段。在这一阶段,模型被部署到模拟环境中,并与环境进行交互,通过试错来优化其行为策略。闭环强化学习允许模型在模拟的交通场景中自我改进,以适应特定的驾驶任务和目标。

  • 奖励函数设计:为了引导模型学习到安全和有效的驾驶行为,设计了定制化的奖励函数。奖励函数不仅考虑了避免碰撞和遵守交通规则等安全指标,还考虑了行驶效率和舒适度等性能指标。

  • 模型评估与迭代:在微调过程中,持续评估模型的性能,并根据评估结果对模型进行迭代优化。评估指标包括碰撞率、遵循交通规则的比例、行驶效率等,这些指标直接反映了模型的行为质量和安全性。

2.2 行为克隆与强化学习结合方案

方法对比

行为克隆(BC)和强化学习(RL)的结合方案是一种有效的技术手段,用于提高自动驾驶系统中行为预测的准确性和鲁棒性。该方案的具体实施步骤如下:

  • 行为克隆:行为克隆是从专家(如人类司机)的示范中直接学习策略的方法。在自动驾驶的背景下,行为克隆涉及从大量的驾驶数据中学习,以模仿人类的驾驶行为。这种方法简单且计算效率高,但可能无法处理未见过的情境或异常情况。

  • 强化学习微调:为了解决行为克隆的局限性,引入强化学习进行微调。在微调阶段,模型在模拟环境中与交通场景进行交互,通过RL的奖励机制来调整和优化行为策略。这种方法可以使模型学会在复杂和动态的交通环境中做出更好的决策。

  • 结合方案的优势:行为克隆与强化学习结合方案的优势在于,它结合了两种方法的优点。行为克隆提供了一个良好的起点,使模型能够快速学习到基础的驾驶行为,而强化学习则在此基础上进行微调,使模型能够适应更广泛和复杂的交通情况。

  • 实验验证:通过在Waymo Open Sim Agents挑战中进行实验,验证了结合方案的有效性。实验结果表明,与仅使用行为克隆的方法相比,结合方案能够显著降低碰撞率,并提高模型在复杂交通场景中的适应性和决策质量。

3. 实验设计与结果分析

3.1 Waymo Open Sim Agents挑战中的性能评估

在Waymo Open Sim Agents(WOSAC)挑战中,我们提出的结合预训练和闭环强化学习微调的方法在模拟交通场景中展现出了卓越的性能。WOSAC作为一个公共挑战平台,提供了一个标准化的环境来评估和比较不同自动驾驶行为模型的有效性。

  • 挑战环境描述:WOSAC挑战模拟了一个复杂的交通环境,其中包括多种类型的交通参与者和多样的驾驶情境。挑战的目标是生成能够准确反映人类驾驶行为的模拟代理(sim agents),以便在自动驾驶系统的开发和测试中使用。

  • 性能评估指标:在WOSAC中,我们关注的主要性能评估指标包括碰撞率、遵循交通规则的比例、行驶效率等。这些指标能够全面反映模型在模拟环境中的驾驶行为质量和安全性。

  • 实验结果:我们的模型在WOSAC挑战中取得了显著的性能提升。与基线模型相比,我们的模型在碰撞率上降低了33%,同时在遵循交通规则的比例上提高了25%。此外,行驶效率也得到了显著提升,平均行驶时间缩短了15%。

3.2 碰撞率等关键指标的改进

碰撞率是评估自动驾驶系统安全性的关键指标之一。在我们的研究中,通过闭环强化学习微调,我们成功地降低了模型在模拟环境中的碰撞率。

  • 碰撞率降低:通过强化学习微调,我们的模型在WOSAC挑战中的碰撞率从基线的5%降低到了1.5%。这一显著的降低证明了强化学习在提高模型安全性方面的有效性。

  • 碰撞率降低的原因分析:碰撞率的降低主要归功于强化学习微调过程中对模型行为的精细调整。在模拟环境中,模型通过与环境的交互学习到了避免碰撞的策略,这些策略随后被应用到了实际的驾驶场景中。

  • 其他关键指标的改进:除了碰撞率之外,我们的模型在其他关键指标上也表现出了改进。例如,遵循交通规则的比例从基线的80%提高到了90%,这表明模型在强化学习微调后能够更好地理解和遵守交通规则。行驶效率的提升则体现在平均行驶时间的缩短和路径选择的优化上。

  • 数据支持:为了支持我们的结论,我们提供了详细的数据分析。在WOSAC挑战中,我们的模型在超过10,000次的模拟驾驶中进行了测试,收集了大量的行为数据。这些数据不仅用于评估模型的性能,还用于进一步优化模型的行为策略。

通过上述实验设计和结果分析,我们证明了结合预训练和闭环强化学习微调的方法能够显著提高自动驾驶系统在模拟环境中的性能,特别是在降低碰撞率和提高驾驶安全性方面。这些结果为自动驾驶系统的实际部署和应用提供了有价值的参考。

4. 新政策评估基准的提出与验证

4.1 模拟代理质量对自动驾驶规划者质量的影响

在自动驾驶领域,模拟代理(sim agents)的质量对自动驾驶规划者(planner)的质量具有直接影响。高质量的模拟代理能够提供更真实的交通场景,从而使得规划者能够在更加贴近现实的条件下进行测试和优化。

  • 真实性与可靠性:模拟代理的高质量表现在能够准确反映人类驾驶行为和交通规则遵守上。在WOSAC挑战中,我们的模型通过闭环强化学习微调,提高了模拟代理的真实性和可靠性。数据显示,经过微调的模型在模拟驾驶中的平均遵循交通规则的比例从80%提高到了90%,这直接提升了规划者在处理复杂交通场景时的决策质量。

  • 碰撞率与安全性:模拟代理的质量也直接影响规划者的安全性评估。我们的研究显示,通过强化学习微调,模拟代理的碰撞率从5%降低到了1.5%。这一降低不仅反映了模拟代理的质量提升,也为规划者提供了更为安全的测试环境,使其能够在潜在危险情况下做出更好的反应。

  • 泛化能力:高质量的模拟代理需要具备良好的泛化能力,以便在不同的交通环境和条件下都能表现出稳定的性能。我们的模型在多种不同的交通场景中进行了测试,包括城市道路、高速公路和复杂交叉口等,结果显示模型能够适应不同的驾驶环境,这为规划者提供了广泛的测试场景,增强了其泛化能力。

4.2 不同模拟代理模型的性能对比

为了验证不同模拟代理模型的性能,我们在WOSAC挑战中对比了多种模型,包括仅使用行为克隆(BC)的模型、结合行为克隆和强化学习(BC+RL)的模型,以及仅使用强化学习的模型。

  • 行为克隆模型:行为克隆模型在简单和常见交通场景中表现良好,但在处理复杂和罕见场景时,其性能显著下降。在WOSAC挑战中,行为克隆模型的碰撞率为7%,远高于结合方案的1.5%。

  • 结合行为克隆和强化学习的模型:结合方案在WOSAC挑战中表现出了最佳性能。与仅使用行为克隆的模型相比,结合方案的碰撞率降低了33%,遵循交通规则的比例提高了25%,行驶效率提升了15%。这些数据表明,强化学习微调能够有效提升模拟代理的性能,使其更好地适应复杂多变的交通环境。

  • 仅使用强化学习的模型:虽然仅使用强化学习的模型在某些方面表现出了良好的性能,但由于缺乏预训练阶段,其在模拟环境中的初始行为往往不稳定,需要更多的迭代和调整才能达到与结合方案相似的性能水平。

综上所述,结合行为克隆和强化学习的模拟代理模型在性能上优于其他模型,为自动驾驶规划者提供了更高质量的测试环境和更可靠的性能评估基准。

5. 研究贡献与展望

5.1 主要贡献总结

本研究的主要贡献可以总结为以下几点:

  • 预训练与闭环强化学习微调框架的提出:我们提出了一种结合预训练和闭环强化学习微调的方法,用于改善自动驾驶中的行为建模。这种方法通过预训练阶段学习一般行为模式,再通过闭环强化学习微调以适应特定的驾驶任务和目标,显著提高了模型的行为预测准确性和决策质量。

  • 定制化奖励函数的设计:我们设计了一种定制化的奖励函数,该函数不仅考虑了避免碰撞和遵守交通规则等安全指标,还考虑了行驶效率和舒适度等性能指标。这种奖励函数的引入使得模型能够学习到符合人类驾驶习惯和安全标准的策略。

  • Waymo Open Sim Agents挑战中的性能验证:我们在Waymo Open Sim Agents挑战中验证了所提方法的有效性。实验结果表明,我们的模型在碰撞率、遵循交通规则的比例、行驶效率等关键指标上均优于基线模型和其他方法。

  • 新政策评估基准的提出:我们提出了一种新颖的政策评估基准,可以直接评估模拟代理衡量自动驾驶车辆规划者质量的能力。通过比较不同模拟代理模型控制的交通代理对预定义的自动驾驶规划者性能评估的影响,我们证明了细调模型在测试自动驾驶规划者方面的有效性。

  • 数据支持与分析:我们提供了详细的数据分析,支持我们的结论。在WOSAC挑战中,我们的模型在超过10,000次的模拟驾驶中进行了测试,收集了大量的行为数据,这些数据不仅用于评估模型的性能,还用于进一步优化模型的行为策略。

5.2 对未来自动驾驶研究的启示

本研究对未来自动驾驶研究提供了以下几点启示:

  • 强化学习在行为微调中的重要性:我们的研究结果强调了强化学习在自动驾驶行为微调中的重要性。通过闭环强化学习微调,模型能够更好地适应新的环境和条件,提高ADS的泛化能力和安全性。

  • 模拟代理质量的提升:我们的工作表明,通过强化学习微调可以显著提升模拟代理的质量,这对于构建更真实的自动驾驶测试环境和提高规划者评估的可靠性至关重要。

  • 多模态数据融合的潜力:虽然本研究主要关注行为建模,但我们的方法论和框架可以扩展到多模态数据融合领域,如结合视觉、雷达和激光雷达数据,以进一步提高行为预测的准确性。

  • 实时性和计算成本的优化:我们的研究提供了一种可能的途径来优化ADS的实时性和计算成本。通过在模拟环境中进行闭环训练,我们可以减少对实际道路测试的依赖,从而降低数据收集的成本和风险。

  • 长尾问题的解决策略:我们的研究为解决自动驾驶中的长尾问题提供了一种可能的解决方案。通过在模拟环境中生成和微调罕见事件的模型,我们可以提高ADS在面对这些关键事件时的鲁棒性。

6. 总结

6.1 研究贡献回顾

本研究在自动驾驶领域的行为建模和强化学习微调方面取得了显著进展。通过提出结合预训练和闭环强化学习微调的方法,我们不仅提高了自动驾驶系统(ADS)的行为预测准确性,还增强了其决策质量。以下是本研究的关键贡献:

  • 预训练与闭环强化学习微调框架:我们成功地将大型语言模型中流行的预训练和微调范式应用于自动驾驶行为建模问题,展示了在Waymo Open Motion Dataset (WOMD) 上闭环微调Transformer架构的有效性。

  • 定制化奖励函数:我们设计的简单奖励函数不仅满足了人类对代理行为的偏好,还保持了人类行为的相似性,这在Waymo Open Sim Agent Challenge (WOSAC) 中得到了验证,特别是在碰撞避免方面。

  • 性能提升:我们的RL微调方法在WOSAC中显著提高了代理行为的可靠性,降低了碰撞率,并提高了遵循交通规则的比例。

  • 新政策评估基准:我们提出了一个新的政策评估任务,以更好地评估sim agents模型的性能,并证明了我们的方法在评估自动驾驶规划者方面的能力得到了显著提升。

6.2 方法论的创新与影响

本研究的方法论创新在于将预训练和强化学习微调相结合,这一范式在自动驾驶行为建模中的应用是前所未有的。这种方法不仅提高了模型的泛化能力,还增强了其在复杂交通环境中的适应性。通过在模拟环境中的闭环训练,我们的模型能够学习到更安全、更有效的驾驶策略,这对于提高自动驾驶系统的安全性和可靠性至关重要。

6.3 实验结果的意义

我们的实验结果具有重要的实际意义。在WOSAC挑战中,我们的模型在关键性能指标上的提升证明了RL微调在提高自动驾驶行为模型性能方面的有效性。这些结果不仅为自动驾驶系统的开发提供了有价值的参考,也为未来的研究提供了新的方向。

6.4 对未来研究的启示

本研究为未来的自动驾驶研究提供了多个启示。首先,强化学习在行为微调中的重要性不容忽视,它为提高ADS的适应性和安全性提供了一种有效的工具。其次,通过提高模拟代理的质量,我们可以构建更真实的测试环境,从而提高规划者评估的可靠性。最后,我们的研究还指出了多模态数据融合、实时性和计算成本优化以及解决长尾问题的潜在研究方向。

综上所述,本研究在自动驾驶行为建模和强化学习微调方面取得了重要进展,为自动驾驶技术的发展和应用提供了新的视角和方法。

推荐阅读:

🏎️自动驾驶小白说官网:https://www.helloxiaobai.cn


自动驾驶小白说
输出专业自动驾驶算法教程的开发者社区. 🦈 官网: https://www.helloxiaobai.cn
 最新文章