需求依据:根据用户需要,基于先进的人车深度检测与高效跟踪技术,提供视频中人车的全量捕获,并利用视觉基础模型学习和提取可以区分不同人、车的鉴别特征。通过综合利用感知数据和大数据分析,实现人车聚类和长期增量聚档,为后续应用提供良好的数据基础。

研究内容和指标:提供人脸、人体和车辆的算法模型,支持对视频中水平转动角度不超过±80°、俯仰角不超过±45°的人脸进行抓拍和比对。算法模型能在逆光、曝光、阴阳脸光照条件下,对低质量人脸抓拍图片与人脸库进行1:N人脸识别,保证人脸误报率≤1%下的准确率≥99%。此外,算法模型还能实现机动车车牌号的识别,保证漏检率不超过1%,识别准确率不低于99.9%。

正在研究基于Transformer的端到端多目标追踪框架MOTR,通过引入追踪向量的概念,实现对追踪目标的时序建模。该框架利用追踪敏感的标签分配策略进行训练,并采用时序聚合网络和群体平均损失函数来加强对时序的建模。另外,还在研究像素级别的多目标跟踪方案,该方案将多对象跟踪视为像素分布,并利用基于转换器的架构P3AFormer实现像素级传播、预测和关联。

业务应用场景:技术应用于安防领域,实现视频监控中的人脸、人体和车辆的识别和比对,提高安全性和监控效果。此外,技术还适用于治安管理领域,确保区域的安全。通过人车聚类和长期增量聚档,提供精确的人车识别和聚档功能,为业务提供数据基础,提升工作效率和数据管理能力

需求依据:根据用户需要我们基于先进的人车深度检测与高效跟踪技术提供视频中人车的全量捕获并利用视觉基础模型学习和提取可以区分不同人、车的鉴别特征。通过综合利用感知数据和大数据分析实现人车聚类和长期增量聚档为后续应用提供良好的数据基础。研究内容和指标:我们提供人脸、人体和车辆的算法模型支持对视频中水平转动角度不超过±80°、俯仰角不超过±45°的人脸进行抓拍和比对。同时我们的算法模型能够在逆光、曝光、

原文地址: http://www.cveoy.top/t/topic/iMoN 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录