所提出的方法是在NVIDIA GeForce GTX 1080 Ti上使用Pytorch实现的。使用Adam优化器进行训练,初始学习率为0.001。对于数据增强,使用随机镜像和宽度和高度扭曲来调整输入图像的大小为256x256,并进行50个Epoch的训练。在训练中,我们均匀采样训练数据集,80%用于模型训练,20%用于测试。由于本文提出的方法旨在解决点目标检测问题,因此ground truth仅包含目标的中心点。为了生成目标的热图,高斯圆半径设置为2,根据目标点的尺度小于或等于2x2的先验条件。有关模型和训练的更多详细信息,请访问https://github.com/Linaom1 Transformer。U-Transformer的损失函数由热图损失和中心偏移损失组成。损失函数如下所述。

热图损失:热图损失是变形的Focal Loss,损失函数是Eq 4。包含两个超参数a和B,N是图像中目标点的数量(即正样本的数量),h、w是宽度和高度。H是检测模型输出的目标热图,H是根据目标的真实注释框基于高斯函数生成的热图。a和β分别手动调整为2和4,以平衡难易样本和正负样本。


原文地址: https://www.cveoy.top/t/topic/b340 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录