中文详细总结:Evaluation of an RGB-D-data-based Gaze Tracker for Human-Robot Interaction
本文介绍了一种基于RGB-D数据的注视追踪器,并对其在人机交互中的性能进行了评估。RGB-D数据包括颜色图像和深度图像,可以提供更准确的人脸和眼睛位置信息。
文章首先介绍了RGB-D数据的获取和处理方法,包括使用Kinect传感器捕捉数据、对数据进行校准和图像处理等步骤。然后介绍了注视追踪器的算法,包括使用人脸检测器和眼睛检测器定位人脸和眼睛位置,以及使用眼球中心估计算法计算注视点位置。
接着,作者对注视追踪器进行了实验评估。实验使用了一个机器人交互任务,要求测试参与者与机器人进行交互,并观察机器人的眼睛进行任务。实验结果表明,注视追踪器的平均精度为84.6%,注视点误差的平均值为1.17度,符合人机交互任务的要求。
最后,作者讨论了注视追踪器的局限性和未来研究方向。注视追踪器在一些情况下可能无法准确追踪注视点,例如当参与者戴眼镜或佩戴面具时。未来研究可以探索更准确的注视追踪算法或结合其他传感器进行多模态注视追踪。
原文地址: https://www.cveoy.top/t/topic/bko1 著作权归作者所有。请勿转载和采集!