通过嵌入大语言模型,机器人变得更加智能,将视觉模型也堆上去,机器人会有怎样的提升呢?
AI科学家李飞飞带领的团队日前发布了具身智能最新成果:大模型接入机器人,把复杂指令转化成具体行动规划,人类可以很随意地用自然语言给机器人下达指令。更重要的是,通过将LLM(大语言模型)+VLM(视觉语言模型)结合在一起,机器人与环境进行交互的能力进一步提升,无需额外数据和训练便可完成任务。
李飞飞团队将该系统命名为VoxPoser,相比传统方法需要进行额外的预训练,这个方法让机器人在零样本的前提下完成了,解决了机器人训练数据稀缺的问题。
(资料图片仅供参考)
李飞飞是华裔女科学家、世界顶尖的AI专家,现为美国斯坦福大学终身教授、斯坦福大学人工智能实验室主任,曾任谷歌副总裁和谷歌云首席科学家。前Open AI研究员、曾担任特斯拉人工智能和自动驾驶视觉总监的Andrej Karpathy便是其得意弟子。
李飞飞研究领域涉及计算机视觉、机器学习、深度学习、认知神经科学等,而近年来其关注的重点聚焦在AI智能体,即具身智能。在她看来,计算机视觉未来的重点方向就是具身智能,她认为,具身AI可能会给我们带来一次重大的转变,从识别图像等机器学习的简单能力,转变到学习如何通过多个步骤执行复杂的类人任务,如制作煎蛋卷。
不仅能听懂人话 还不需要额外数据和训练
回到VoxPoser,为什么说它是具身智能领域的一大突破?当然不是因为李飞飞本人的学术地位。
VoxPoser解决了机器人训练的一大难题——数据稀缺。
VoxPoser的研究工作中,通过将LLM(大语言模型)+VLM(视觉语言模型)结合在一起,可实现“人类自然语言输入——代码生成反馈给机器人——机器人收到指令并规划路径——最终完成任务”。
用自然语言(打开上面的抽屉,小心花瓶!)给机器人下达指令后机器人完成
这个流程的意义在于,机器人的交互能力大大提高,通过LLM+VLM拥有了眼睛和理解力,相当于拥有了人类一样学习能力,即从现实环境中收集数据实时学习,而不是依赖于提前录入的数据库“遇题找答案”。
李飞飞团队也表示,这些操作均不需要进行任何训练或使用基本操作,只要掌握了以上基本流程,就可以完成任何给定任务,实现了在真实世界中的零样本机器人操纵。
可操作的物体是开放的,不用事先划定范围,开瓶子、按开关、拔充电线都能完成
在数据对机器学习的重要性和数据获得的难度上,李飞飞有着十足的话语权。她在2006主导构建的ImageNet数据集是世界首个用于计算机视觉算法的大规模人工标注照片数据集,它包含了超千万张有标签的图像,可以用来训练复杂的机器学习模型,被誉为改变人工智能历史的数据集。但这些数据的收集、处理工作异常艰巨,来自全球167个国家近5万名工作者以众包的方式花费三年时间才完成。
如何解决训练数据稀缺的难题,将成为具身智能乃至人工智能发展过程中的第一大拦路虎。
在2022年的一篇论文中,李飞飞旗帜鲜明地表示,随着人工智能的成熟,人工智能模型的建立正变得越来越容易,包括亚马逊、谷歌和微软在内的公司都提供自动机器学习(AutoML)产品,允许用户在自己的数据上建立最先进的人工智能模型,而无需编写任何代码。但由于规划和注释的成本,为人工智能创建数据集仍然是一个主要的痛点,创建适当的数据集和数据管道以开发和评估AI模型越来越成为最大的挑战。
VoxPoser目前还存在着一定的局限性,它依赖于外部感知模块,仍需要为嵌入的大模型手动输入提示词,仍需要通用的动力学模型来完成更丰富的动作等。
不过,VoxPoser已在学术界、业界引起热议。一位前微软研究员评价,这项研究走在了人工智能系统最重要和最复杂的前沿。另有DeepMind研究员、人形机器人初创公司Figure创始人等为这项研报“点赞”。
VoxPoser项目已开辟官网,相关论文已上线,代码即将推出。当下李飞飞团队只是迈出了第一步。这一框架将有何改进、未来会怎样应用在机器人产品上,我们拭目以待。
(来源:财联社)
关键词: