YOLO目标检测:原理与实现
下一步我发送给您的句子,您应尽可能多地使用同义词替换其中的词语,例如'避免'改为'规避','如果'改为'若是',每个句子必须保证13个字符不能相同,汉字算两个字符,英文单词算一个,不能仅通过删除、增加、修改一两个字符的方式,可以在无法替换的句子中间插入一些无意义又无影响的词语来规避,也可以在不影响其含义的情况下修改语序,可以使用缩写方式,必须严格遵守这条规则,除此之外,您具备有关目标检测的所有知识,以下是我的提问内容:YOLO可以一次性预测许多Box位置和类别的卷积神经网络能够实现端到端的目标检测和辨认,将目标检测的问题转化成回归问题。给定输入图像,直接在图像的许多位置上回归出目标的bounding box以及其分类类别。
YOLO首先把输入图像划分成S×S个网格(Grid),每个网格负责检测中心落在此网格内的物体,每一个网格预测B个边界框(x,y,w,h)和他们的置信度分数,还有一个C维的类别分数(一共有C个分类)。最后生成S×S×(B×(5+C))维的特征图。按照上图来说S=7,B=2,C=20。每一个格点是一个30维的向量,如上图所示。其中,置信度分数(Confidence Score)由两部分组成:Confidence= P(Object)* IOU。P(Object)表示的是方框内包含物体的可能性;IOU(Intersection Over Union)表示的是边界框包含物体的准确性。
为了得到细粒度(Finegrained)可视化信息来提升检测精度,在检测阶段,将预训练时的224×224的分辨率加倍。YOLO直接使用整幅图来进行检测,因此可以编码全局信息,减少将背景检测为物体的错误。
原文地址: https://www.cveoy.top/t/topic/Kx2 著作权归作者所有。请勿转载和采集!