麻省理工学院最近展示了一种新方法,灵感来自大型语言模型,旨在帮助机器人更快掌握新技能。
这一新方法突破了传统的集中数据训练方式,利用像大型语言模型那样的海量信息。研究团队指出,模仿学习在应对小挑战时常常会遇到困难,比如光线变化或新障碍。这种情况下,机器人往往缺少足够的数据进行适应。
为了解决这个问题,研究团队借鉴了GPT-4的思路,创建了一种叫做异构预训练变换器(HPT)的架构。这个架构能够整合来自不同传感器和环境的数据,从而更好地训练模型。变换器的规模越大,效果就越好。
研究的目标是开发一个可供下载的通用机器人脑,让任何人都能轻松使用,而无需额外的训练。团队希望在不断推进的过程中,能够像大型语言模型一样,推动机器人技术的突破。 [原文链接]