前言
在此文《UMI——斯坦福刷盘机器人:从手持夹持器到动作预测Diffusion Policy(含代码解读)》的1.1节开头有提到
机器人收集训练数据一般有多种方式,比如来自人类视频的视觉演示
- 有的工作致力于从视频数据——例如YouTube视频中进行策略学习
即最常见的方法是从各种被动的人类演示视频中学习,利用被动的人类演示,先前的工作学习了任务成本函数 [37, 8, 1, 21]、可供性函(affordance function) [2]、密集物体描述符[40, 24, 39]、动作对应 [33, 28] 和预训练的视觉表示 [23-R3m: A universal visual representation for robot manipulation,48-Masked visual pre-training for motor control]- 然而,这种方法遇到了一些挑战
首先,大多数视频演示缺乏明确的动作信息(这对于学习可推广的策略至关重要)
为了从被动的人类视频中推断动作数据,先前的工作采用了手部姿态检测器 [44-Mimicplay: Long-horizon imitation learning by watching human play, 1-Human-to-robot imitation in the wild, 38-Videodex: Learning dexterity from internet videos, 28- Dexmv: Imitation learning for dexterous manipulation from human videos],或将人类视频与域内遥操作机器人数据结合以预测动作 [33, 20, 34, 28]
其次,人类和机器人之间明显的embodiment(物理本体,有的翻译为体现)差距阻碍了动作转移(the evident embodiment gap between humans and robots hinders action transfer)
弥合这一差距的努力包括通过手势重定向学习人类到机器人的动作映射 [38-Videodex: Learning dexterity from internet videos, 28-Dexmv: Imitation learning for dexterous manipulation from human videos] ,或提取与体现无关的关键点 [即embodiment-agnostic keypoint,49]
尽管有这些尝试,固有的embodiment差异仍然使得从人类视频到物理机器人的策略转移变得复杂
考虑到「从人类视频中学习」早已成为机器人的主流训练方法之一,故打算系统阐述以下这个课题,不然很多朋友可能只是理解其字面意思,但到底具体怎么个模仿学习,则不一定知其里,而通过本文系统的阐述,可以让大家更深刻的理解模仿学习背后更深的细节
二方面,上面不是提到了从人类视频学习中的诸多问题么,那我们也看看该领域的最新进展——比如纽约大学的SeeDo到底有没解决这些问题呢?
故便有了本文,本文将注意解读以下这几篇paper
- Learning by Watching: Physical Imitation of Manipulation Skills from Human Videos,18 Jan 2021
- DexMV,12 Aug 2021
- DexVIP,1 Feb 2022
- Robotic Telekinesis: Learning a Robotic Hand Imitator by Watching Humans on YouTube,21 Feb 2022
- R3M: Representations for Robots from Real-World Videos,23 Mar 2022
- VideoDex,8 Dec 2022
- MimicPlay,24 Feb 2023
- VLM See, Robot Do: Human Demo Video to Robot Action Plan via Vision Language Model,11 Oct 2024
第一部分 从Learning by Watching、DexMV到DexVIP
1.1 Learning by Watching: Physical Imitation of Manipulation Skills from Human Videos
来自多伦多大学、天津大学、NVIDIA的研究者(Haoyu Xiong, Quanzhou Li, Yun-Chun Chen, Homanga Bharadhwaj, Samarth Sinha, Animesh Garg)发布了此篇论文:《Learning by Watching: Physical Imitation of Manipulation Skills from Human Videos》
为了从人类视频中实现物理模仿,作者将问题分解为一系列任务:
- 人类到机器人的翻译
- 基于无监督关键点的表示学习
- 以及3)使用强化学习进行物理模仿
在此,回顾前两个任务,因为他们的方法是在现有算法基础上构建的
1.1.1 无监督的图像到图像翻译到无监督关键点检测
对于无监督的图像到图像翻译问题
类似于现有的方法 [9], [10],将人类到机器人翻译视为无监督的图像到图像翻译问题
- 具体而言,目标是学习一个模型,将图像从源域X(例如,人类域)翻译到目标域Y(例如,机器人域),而无需配对的训练数据 [12],[26], [29], [30]
- 在作者的方法中,他们采用MUNIT [30] 作为图像到图像翻译网络来实现人类到机器人的翻译
MUNIT通过假设图像表示可以被解构为一个域不变的内容编码(由内容编码器编码)和一个域特定的风格编码(由风格编码器编码)来学习在两个域之间翻译图像
内容编码器和在两个域中是共享的,而两个域的风格编码器和则不共享权重
为了将图像从一个域翻译到另一个域,作者将其内容编码与从另一个域采样的风格编码结合
且这些翻译/转换是通过学习生成:与目标域中的图像无法区分的图像来实现的(The translations are learned to generate images that are indistinguishable fromimages in the translated domain)
故,给定来自源域X的图像x和来自目标域Y的图像y,在源域中定义对抗性损失为
其中
- 是图像的内容编码
- 是图像的风格编码
- 是一个生成器,其接收内容编码和风格编码作为输入,并生成与源域中分布相似的图像
- 是一个判别器,旨在区分由生成的翻译图像和源域中的图像
此外,目标域中对抗损失也可以类似地定义
除了对抗损失外,MUNIT还对图像、内容和风格编码应用重构损失,以规范模型学习
- 对于源域,图像重构损失定义为
- 内容重建损失定义为
- 风格重建损失定义为
目标域中的图像重建损失、内容重建损失和风格重建损失可以类似地推导出来
最终,训练MUNIT的总损失LMUNIT为
其中、和是用于控制各自损失函数相对重要性的超参数
对于无监督关键点检测
为了执行控制任务,现有方法通常依赖于基于图像观测的状态表示学习[10], [45]–[48]
- 然而,图像到图像翻译模型生成的图像观测通常只捕捉宏观特征,而忽略了对下游任务至关重要的显著区域中的细节。通过使用特征编码器对翻译后的图像观测进行编码来推导状态表示会导致次优性能
- 另一方面,现有方法也可能受到图像到图像翻译模型生成的视觉伪影的影响
与这些方法相比,作者利用Transporter[41]在无监督的方式下检测每个翻译后视频帧中的关键点。检测到的关键点形成一种结构化表示,捕捉机器人手臂的姿态和交互物体的位置,为下游控制任务提供语义上有意义的信息,同时避免由于图像到图像翻译不完美而导致的视觉伪影的负面影响
为了实现无监督关键点检测的学习,Transporter利用物体在一对视频帧之间的运动,通过在检测到的关键点位置传输特征,将一个视频帧转换为另一个视频帧
- 比如,给定两个视频帧 和 ,Transporter首先使用特征编码器 提取两个视频帧的特征图和 ,并使用关键点检测器 检测两个视频帧的 K 个二维关键点位置和
- 然后,Transporter 通过在和中抑制 在每个关键点位置附近的特征图,并将 在 中每个关键点位置附近的特征图进行融合,来合成特征图「Transporter then synthesizes the feature map Φ(x, y) by suppressing the feature map of x around eachkeypoint location in Ψ(x) and Ψ(y) and incorporating thefeature map of y around each keypoint location in Ψ(y)」
其中是一个高斯热图,其峰值集中在中的每个关键点位置 - 接下来,传输的特征被传递到一个精细化网络R中,以重建视频帧
然后定义用于训练Transporter的损失r为
在下一节中,作者利用Transporter模型来检测每个翻译后的视频帧的关键点。检测到的关键点随后被用作定义奖励函数的结构化表示,并作为策略网络的输入,以预测用于与环境交互的动作
1.1.2 LbW:从人类视频中学习的改进方法
考虑从人类视频中学习机器人操作技能的物理模仿任务。在这种情况下,作者假设可以访问一个单一的人类演示视频,长度为,展示了一个人类执行特定任务(例如,推一个块)的过程,作者希望机器人从中学习,其中,是的空间大小
作者注意到,人类的动作在他们的设定中并没有提供。故作者的目标是开发一种学习算法,使机器人能够模仿人类演示视频中展示的人类行为
为实现这一目标,作者提出了LbW,一个由三个组件组成的框架:
- 图像到图像的翻译网络「来自MUNIT [30]」
- 关键点检测器「来自Transporter的关键点检测器[41]」
- 策略网络
具体如下图所示
给定一个人类演示视频和时间的当前观测
- 首先对人类演示视频中的每一帧应用图像到图像的翻译网络,并将翻译为机器人演示视频帧
- 接下来,关键点检测器将每个翻译后的机器人视频帧作为输入,并提取基于关键点的表示
其中表示关键点的数量
同样,也对当前观测应用关键点检测器,以提取基于关键点的表示 - 为了计算物理模仿的奖励,作者定义了一个距离度量d,用于计算当前观测的基于关键点的表示,与每个翻译后的机器人视频帧的基于关键点的表示之间的距离
we define adistance metric d that computes the distances between the keypoint-based representation zt of the current observationOt and each of the keypoint-based representations zEi of the translated robot video frames vE - 最后,策略网络以当前观测的关键点表示作为输入,预测一个动作,该动作用于指导机器人与环境交互
// 待更
1.2 DexMV
21年8月份,来自的研究者提出了DexMV,其对应的论文为:《DexMV: Imitation Learning for Dexterous Manipulation from Human Videos》