卡内基梅隆大学,Science Robotics!
文摘
2024-11-16 07:31
青海
随着机器人技术的发展,机器人在日常生活中的应用日益增多,尤其是在家庭、医疗、仓储等领域。与传统的机器人操作方式相比,机器人需要具备更高的灵活性与自主性,特别是在复杂和不确定的环境中进行物体操作和交互。然而,现有的机器人感知系统主要依赖于视觉,并且通常只针对已知物体进行操作。这样的感知模式在物体遮挡或者动态交互中容易失效,因此,如何提升机器人的感知能力,使其能够在遮挡和复杂情况下精确地感知和操作物体,成为了一项重要的研究挑战。近日,来自卡内基梅隆大学的Sudharshan Suresh的研究团队在机器人多模态感知方面取得了重要进展。该团队设计并实现了一个名为NeuralFeels的系统,旨在通过结合视觉和触觉传感器,提升机器人在手中操作过程中对物体姿态和几何形状的估计能力。通过在线学习神经场模型,该系统能够在没有预先定义物体模型的情况下,通过感知物体的触觉信息,实时地构建物体的空间几何信息。此外,系统采用姿态图优化方法,进一步提高了物体姿态追踪的精度。该研究团队的实验表明,在模拟和现实环境中,NeuralFeels系统在多种物体交互场景下能够有效地进行姿态重建,最终获得了81%的重建F分数,并且在已知物体模型的情况下,姿态漂移能够进一步减少至2.3毫米。值得注意的是,在强遮挡条件下,该系统相比于单一视觉方法,在物体追踪精度上提升了94%。这些结果表明,触觉信息在机器人操作过程中,不仅可以细化视觉估计,而且在一定情况下可以有效消除歧义,提高操作的准确性和鲁棒性。此次研究的成果展示了多模态感知在提升机器人操作精度和灵活性方面的重要潜力,为未来机器人在复杂环境中的广泛应用提供了新的理论依据和技术支持。👉 点击左下角“阅读原文”,即可直达原文!💖