本文主要研究人体姿态估计问题,重点关注学习可靠的高分辨率表示。现有的大多数方法是从高到低分辨率网络生成低分辨率表示,再恢复高分辨率表示。相反,我们提出的网络通过整个过程保持高分辨率表示。我们首先从高分辨率子网络作为第一阶段开始,逐步添加高到低分辨率子网络形成更多阶段,并将多分辨率子网络并联连接。我们进行反复的多尺度融合,使每个高到低分辨率表示重复从其他并行表示接收信息,从而产生丰富的高分辨率表示。因此,预测的关键点热力图可能更准确、空间更精确。我们通过在两个基准数据集(COCO关键点检测数据集和MPII人体姿态数据集)上展示出卓越的姿态估计结果,经验性地证明了我们网络的有效性。此外,我们还展示了我们的网络在姿态跟踪方面的优越性能。代码和模型已经公开在https://github.com/leoxiaobin/deep-high-resolution-net.pytorch。


原文地址: https://www.cveoy.top/t/topic/f0Gt 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录