感谢此博文(https://blog.csdn.net/TwT520Ly/article/details/79258594)的翻译,参考了该博文的很多内容,在他的基础上做了更加细节的补充和总结:
上海交通大学AlphaPose多人姿态估计论文
RMPE:Regional Multi-Person Pose Estimation
该论文自顶向下方法,SSD-512检测人+stacked hourglass姿态估计。复杂环境中的多人姿态检测是非常具有挑战性的。现在最好的人体检测算法虽然已经得到了很好的效果,但是依然存在一些错误,这些错误会导致单人检测任务(SPPE)失败,尤其是那些十分依赖人体框检测结果的。这里应该是描述的自顶向下的检测技术,使用Faster-RCNN等算法进行目标检测(与之对应的有CPM等)。目前该算法得到了在MPII数据集上最高的mAP值。这个算法是由三部分组成的:
1 Symmetric Spatial Transformer Network – SSTN 对称空间变换网络:在不准确的bounding box中提取单人区域
2 Parametric Pose Non-Maximum-Suppression – NMS 参数化姿态非最大抑制:解决冗余
3 Pose-Guided Proposals Generator – PGPG 姿态引导区域框生成器:增强训练数据
该方法能够处理不准确的bounding box(边界框)和冗余检测,在MPII数据集上达到76.7mAP.
一、 介绍
多人姿态估计有两个主流方案:Two-step framework & Part-based framework。第一种方案是检测环境中的每一个人体检测框,然后独立地去检测每一个人体区域的姿态(自顶向下的方法)。第二种方案是首先检测出环境中的所有肢体节点,然后进行拼接得到多人的骨架(自底向上的方法)。第一种方案,姿态检测准确度高度以来目标区域框检测的质量。第二种方案,如果两人离得十分近,容易出现模棱两可的情况,而且由于是依赖两个部件之间的关系,所以失去了对全局的信息获取。
论文采用自顶向下方法。我们的目标是检测出正确的人体姿态即使在第一步中检测到的是不精准的区域框。为了说明之前的算法存在这些问题,我们使用Faster-RCNN和SPPE Stacked Hourglass进行实验,主要的问题是位置识别错误和识别冗余,如图1和图2所示。事实上,SPPE对于区域框错误是非常脆弱的,即使是使用IoU>0.5的边界框认为是正确的,检测到的人体姿态依然可能是错误的。冗余的区域框会产生冗余的姿态。
冗余:两个bounding box框住同一个人,会检测两遍,形成两个骨架
因此,提出了RMPE(区域多人姿态检测)框架,提升SPPE-based性能。在SPPE结构上添加SSTN,能够在不精准的区域框中提取到高质量的人体区域。并行的SPPE分支(SSTN)来优化自身网络。使用parametric pose NMS来解决冗余检测问题,在该结构中,使用了自创的姿态距离度量方案比较姿态之间的相似度。用数据驱动的方法优化姿态距离参数。最后我们使用PGPG来强化训练数据,通过学习输出结果中不同姿态的描述信息,来模仿人体区域框的生成过程,进一步产生一个更大的训练集。
我们的RMPE框架是通用的,适用于不同的人体探测器和单人姿势估计器。将RMPE框架应用于MPII(多人)数据集[3],达到state-of-the-art效果76.7 mAP。我们还进行了切除研究,以验证我们框架中每个组件的有效性。
二、 相关工作
2.1 单人姿态估计
……单人姿态估计总是需要保证人被正确的定位。
2.2 多人姿态估计
Part-Base 先检测关键点,再连接;先检测肢体
Two-Step 目标检测+单人姿态估计
三、 RMPE
如图3所示。首先通过目标检测算法,得到人体的区域框。然后将该区域框输入到STN+SPPE模块中,自动检测人体姿态。再通过PP-NMS进行refine。在训练过程中,使用Parallel SPPE来避免局部最优并进一步提升SSTN的效果。设计PGPG结构来增强已有的训练集。
图解:SSTN=STN+SPPE+SDTN,STN处理区域框,SPPE单人姿态估计,STDN产生姿态建议。并行SPPE作为训练阶段的额外正则化。PP-NMS去除冗余姿态。使用PGPG产生的增强图像来训练SSTN+SPPE。
3.1 Symmetric STN and Parallel SPPE
对称空间变换网络,并行单人姿态估计
目标检测算法得到的人体区域框不是非常适合SPPE,因为SPPE算法是训练在单人图像上并且对于定位错误十分敏感。通过微小变换、修剪的方法可以有效的提高SPPE的效果。SSTN+Parallel SPPE可以在不完美的人体区域检测结果下有效的增强SPPE的效果,结构如图4所示。
图解:表示了SSTN + Parallel SPPE模块的结构,SDTN结构接收一个由定位网络生成的参数θ,然后为反向转换计算参数γ。我们使用网格生成器和采样器去提取一个人的所在区域,在Parallel SPPE中,制定一个中心定位姿态标签。我们冻结Parallel SPPE的所有层的所有权重来增强STN去提取一个单人姿态区域。
STN and SDTN(spatial de-transformer network,空间反变换网络)。STN能很好地自动选取ROI,使用STN去提取一个高质量的人体区域框。数学形式如下,2D affine transformation:
其中θ1,θ2和θ3都是二维空间的向量,{xsi,ysi}和{xti,yti}分别表示转换之前的坐标和转换之后的坐标。在SPPE结束的时候,姿态结果会被映射到原始的人体区域框中(就是把姿态线绘制到对应的人体区域框中)。因此,SDTN应该将估计的人体姿态反映射回原图坐标中(这样子的话人体姿态线就会存在于原图尺寸的图像中)。SDTN中需要为反向转换和生成网格计算一个γ:
因为SDTN是STN结构的反向结构,所以可以得到以下关系:
为了在SDTN中进行反向传播,?J(W,b)/?θ可以分解为:
在得到高质量的人体检测框后,可以使用现成的SPPE算法来继续高精度的人体姿态检测,在训练过程中,SSTN和SPPE一起进行fine-tuned。
总结:不准确的检测框经过STN+SPPE+SDTN,先做姿态估计,把估计结果映射到原图,以此来调整原本的框,使框变成精准的。
Parallel SPPE。为了进一步帮助STN去提取更好的人体区域位置,在训练阶段添加了一个Parallel SPPE分支。这个Paralell SPPE也是从STN中链接出来,然后和SPPE并行处理,但是SDTN被忽略掉。这个分支的人体姿态标签被指定为中心。更准确的说,SPPE网络的输出直接和人体姿态标签的真实值进行对比。在训练过程中会关闭Parallel SPPE的所有层。这个分支的权重是固定的,其目的是将姿态定位后产生的误差反向传播到STN模块。如果STN提取的姿态不是中心位置,那么Parallel SPPE会返回一个较大的误差。通过这种方式,我们可以帮助STN聚焦在正确的中心位置并提取出高质量的区域位置。在测试阶段,Parallel SPPE不会使用,因此只有在训练阶段Parallel SPPE才会产生作用。
Discussions。Parallel SPPE可以看作是训练阶段的正则化过程,有助于避免局部最优的情况(STN不能把姿态转换到提取到人体区域框的居中位置)。但是SDTN的反向修正可以减少网络的错误进而降低陷入局部最优的可能性。这些错误对于训练STN是很有影响的。通过Parallel SPPE,可以提高STN将人体姿态移动到检测框中间的能力。
感觉上似乎可以在SPPE的输出时添加一个中心定位点的回归损失来取代Parallel SPPE。然而,这种方法会降低我们整个系统的性能。尽管STN可以部分修改输入,但是不可能完美的将人定位在标签的位置。在坐标空间上的输入和SPPE标注的差异会很大程度的损害训练姿态估计的能力。这会导致我们主分支SPPE的性能下降。因此,为了确保STN和SPPE同时发挥自己的作用,一个固定权重的Parallel SPPE是不可缺少的。Parallel SPPE总是会产生较大的误差因为会将没有中心的姿态来推动STN产生一个有中心的姿态,但是不会影响到主分支SPPE的效果。
3.2. Parametric Pose NMS 参数化姿态非最大抑制
人体定位不可避免的会产生冗余的检测框,同时也会产生冗余的姿态检测。所以,姿态非极大值抑制是十分有必要的,用来消除冗余。以前的方法要么效率不高,要么精确度不高。在论文中,提出了一种parametric pose NMS(参数化姿态非极大值抑制)方法。对于一个人的姿态Pi,有m 个关节点记做{(k1i,c1i),(k2i,c2i),...,(kmi,cmi)},kji 和 cji 分别表示第 j 个部位的坐标位置和置信度分数。
NMS schema。NMS体系。回顾一下NMS:首先选取最大置信度的姿态作为参考,并且根据消除标准将靠近该参考的区域框进行消除。这个过程多次重复直到冗余的识别框被消除并且每一个识别框都是唯一的出现(没有超过阈值的重叠)。
Elimination Criterion。消去法则。 我们需要定义姿态相似度来消除那些离得较近且比较相似的姿态。我们定义了一种姿态距离度量d(Pi,Pj|Λ)来衡量姿态之间的相似度,定义η作为消除标准的阈值,在这里的Λ表示函数d(?)的一个参数集合。我们的消除标准可以定义为下面的形式:
如果d(?)小于阈值η,那么f(?)的输出是1,表示姿态Pi应该被消除,因为对于参考的Pj来说Pi是冗余的。
Pose Distance。姿态距离。定义距离函数dpose(Pi,Pj)。假设姿态Pi的区域框是Bi。然后我们定义一个软匹配函数:
B(kni)表示部位i的区域位置,维度上大约是整体图像的1/10。Tanh可以滤掉低置信度的姿态,当两个姿态的置信度都比较高的时候,上述函数的输出接近1。这个距离表示了姿态之间不同部位的匹配数。空间距离可以定义为:
因此最终距离可以定义为:
其中λ是一个权重系数,来平衡这两种距离,Λ表示{σ1,σ2,λ},参考之前的pose NMS进行参数设置。
Optimization 。优化。给定检测到的冗余姿态,消除标准f(Pi,Pj|Λ, η)的这四个参数被优化以实现验证集的最大mAP。由于在4D空间中的穷举搜索是难以处理的,所以在迭代的过程中,固定两个参数变化另外两个参数进行搜索最优解。一旦收敛,这些参数将会固定,并用在测试阶段。
参考:
https://blog.csdn.net/TwT520Ly/article/details/79258594
https://arxiv.org/pdf/1612.00137.pdf
https://github.com/MVIG-SJTU/AlphaPose/tree/pytorch
http://www.mvig.org/research/alphapose.html
AlphaPose论文笔记《RMPE: Regional Multi-person Pose Estimation》
原文:https://www.cnblogs.com/taoshiqian/p/9593901.html