2024年11月5日,dig.watch报道,MIT新推出的HPT模型融合了多种数据来源,增强了机器人在不可预测环境中的适应能力,这种新的方法不再依靠传统的训练数据。
麻省理工学院(MIT)、机器人技术、训练
麻省理工学院(MIT)公布了一种新的机器人训练方法,该方法以类似于大型语言模型(LLMs)的方式扩展数据规模,标志着从机器人领域传统使用的狭窄、任务导向型数据集向更广泛数据集的转变。模仿学习,即机器人通过观察人类来学习,往往难以应对光照变化或意外障碍等新变量。通过采用类似于GPT-4等模型中使用的海量数据方法,MIT的研究人员旨在帮助机器人在不同环境中更加灵活地适应。
研究团队开发了一种名为异构预训练变换器(Heterogeneous Pretrained Transformers,HPT)的新架构,该架构结合了来自多个传感器和不同设置的信息,以构建稳健的训练模型。与大型语言模型中的趋势一致,更大的变换器带来了更好的结果,因为HPT整合了来自多个来源的数据,以实现机器人更灵活的响应。
最终,研究人员希望创建一个通用的“机器人大脑”,可以即插即用,无需额外训练。虽然该项目仍处于早期阶段,但已获得丰田研究院(Toyota Research Institute)的支持,该研究院最近与波士顿动力公司(Boston Dynamics)合作,将学习研究与先进机器人硬件相结合。