需求分析:

  1. 实现视频中人车的全量捕获:基于先进的人车深度检测与高效跟踪技术,能够准确地检测和跟踪视频中的人车,并获取其位置和运动轨迹信息。
  2. 学习和提取人车的鉴别特征:利用视觉基础模型学习和提取可以区分不同人、车的鉴别特征,以便后续的人车识别和比对。
  3. 人车聚类和长期增量聚档:通过综合利用感知数据和大数据分析,对人车数据进行聚类和聚档,以便后续应用能够更好地利用和管理人车数据。
  4. 人脸识别准确率要求:在视频中抓拍和比对人脸时,要求算法模型能够在水平转动角度不超过±80°、俯仰角不超过±45°的情况下进行准确识别,且对低质量人脸图片的1:N人脸识别准确率要求≥99%,人脸误报率≤1%。
  5. 车牌识别准确率要求:要求算法模型能够实现机动车车牌号的识别,且漏检率不超过1%,识别准确率不低于99.9%。

技术补充:

  1. 基于Transformer的多目标追踪框架(MOTR):通过引入追踪向量的概念,实现对追踪目标的时序建模,优于先前方法,可作为时序建模的基线。
  2. 像素级别的多目标跟踪方案:将多对象跟踪视为像素分布,利用P3AFormer实现像素级传播、预测和关联,在MOT17基准测试中性能超过其他变压器网络。

业务应用场景:

  1. 安防领域:用于视频监控中的人脸、人体和车辆的识别和比对,提高安全性和监控效果。
  2. 治安管理领域:用于确保区域的安全,提供精确的人车识别和聚档功能。
  3. 数据管理和工作效率提升:通过人车聚类和长期增量聚档,为业务提供数据基础,提升工作效率和数据管理能力
需求依据:基于先进的人车深度检测与高效跟踪技术实现视频中人车的全量捕获并利用视觉基础模型学习和提取可以区分不同人、车的鉴别特征。通过综合利用感知数据和大数据分析实现人车聚类和长期增量聚档为后续应用提供良好的数据基础。研究内容和指标:我们提供人脸、人体和车辆的算法模型支持对视频中水平转动角度不超过±80°、俯仰角不超过±45°的人脸进行抓拍和比对。同时我们的算法模型能够在逆光、曝光、阴阳脸光照条件下

原文地址: http://www.cveoy.top/t/topic/iMog 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录