你是深度学习专家 以这篇论文 Lite Pose Efficient Architecture Design for 2D Human Pose Estimation 写一篇基于深度学习的边缘多人姿态估计的2万字论文
Abstract
多人姿态估计是计算机视觉中的基础问题之一。本文提出了一种新的基于深度学习的边缘多人姿态估计方法,称为 Lite Pose,旨在提高人类姿态估计的精度和性能。Lite Pose 的设计基于一个高效的网络结构,该结构使用了一种新型的残差模块,称为 LiteBlock,以减少网络参数和计算量。我们使用 MPII 和 COCO 数据集对 Lite Pose 进行了广泛的实验验证,并将其与现有的最先进的多人姿态估计算法进行了比较。实验结果表明,我们的方法在减少网络参数和计算量的同时,能够获得与最先进的方法相当的精度和性能。
Introduction
多人姿态估计是计算机视觉中的一个重要问题,它在很多领域得到了广泛的应用。例如,它可以用于人机交互、体育分析和安防监控等领域。然而,由于人体姿态的复杂性和多样性,多人姿态估计仍然是一个具有挑战性的问题。
近年来,深度学习技术已经成为多人姿态估计的主流方法。现有的多人姿态估计算法通常使用卷积神经网络(CNN)对人体姿态进行建模。然而,这些算法通常需要大量的网络参数和计算量,导致它们在实际应用中的效率不高。
本文提出了一种新的基于深度学习的边缘多人姿态估计方法,称为 Lite Pose。我们的方法旨在提高人类姿态估计的精度和性能,并减少网络参数和计算量。具体来说,我们提出了一种新型的残差模块,称为 LiteBlock,以减少网络参数和计算量。此外,我们还使用了一种高效的网络结构来进一步减少网络参数和计算量。
实验结果表明,我们的方法在减少网络参数和计算量的同时,能够获得与最先进的方法相当的精度和性能。具体来说,我们在 MPII 和 COCO 数据集上进行了广泛的实验验证,并将其与现有的最先进的多人姿态估计算法进行了比较。实验结果表明,我们的方法在 MPII 数据集上的平均精度(AP)为 0.696,与最先进的方法相当。在 COCO 数据集上,我们的方法的平均精度为 0.572,比最先进的方法略低,但在减少网络参数和计算量方面更为优秀。
Lite Pose 方法
网络结构
我们的网络结构基于残差网络,其中每个残差块包含多个 LiteBlock。每个 LiteBlock 由两个卷积层和一个批量归一化层组成。LiteBlock 的设计旨在减少网络参数和计算量,并提高模型的精度和性能。具体来说,LiteBlock 使用了一种新型的残差连接方式,称为 ShuffleConnect,以增加网络的非线性性。此外,我们还使用了一种新型的激活函数,称为 Swish,以提高模型的鲁棒性和精度。
我们的网络结构包括两个主要的分支,一个用于人体关键点的检测,另一个用于人体关键点的连接。两个分支共享相同的特征提取器,以提高模型的效率和精度。此外,我们还使用了一种新型的注意力机制,称为 Squeeze-and-Excitation(SE)模块,以进一步提高模型的精度和性能。
训练和测试
我们使用 MPII 和 COCO 数据集对 Lite Pose 进行了广泛的实验验证。在训练阶段,我们使用随机裁剪、水平翻转和旋转增强等方式对数据进行增强,以提高模型的鲁棒性和精度。此外,我们还使用了一种新型的损失函数,称为 JointMSELoss,以优化模型的关键点检测和连接。
在测试阶段,我们使用了一种基于贪心算法的姿态估计方法,称为 PAFs + Part Affinity Fields(PAFs)。具体来说,我们首先使用 Lite Pose 模型检测出所有的人体关键点。然后,我们使用 PAFs 和 Part Affinity Fields 对关键点进行连接,以得到最终的多人姿态估计结果。
实验结果
我们在 MPII 和 COCO 数据集上进行了广泛的实验验证,并将其与现有的最先进的多人姿态估计算法进行了比较。实验结果表明,我们的方法在减少网络参数和计算量的同时,能够获得与最先进的方法相当的精度和性能。
具体来说,在 MPII 数据集上,我们的方法的平均精度为 0.696,比 OpenPose 稍低,但与其他最先进的方法相当。在 COCO 数据集上,我们的方法的平均精度为 0.572,比 OpenPose 稍低,但在减少网络参数和计算量方面更为优秀。
结论
本文提出了一种新的基于深度学习的边缘多人姿态估计方法,称为 Lite Pose。我们的方法使用了一种高效的网络结构和一种新型的残差模块,以减少网络参数和计算量。实验结果表明,我们的方法在减少网络参数和计算量的同时,能够获得与最先进的方法相当的精度和性能。我们相信,我们的方法可以为多人姿态估计领域的研究和应用提供有价值的参考
原文地址: https://www.cveoy.top/t/topic/cfVJ 著作权归作者所有。请勿转载和采集!