如何进行视频流目标检测与跟踪? 题主准备做一个视频流的目标检测与跟踪,目标物体可以是提前给定的物体图像,又或者可以是用户在看视频过程中框选的物体。目前我考虑使用不变性特征来做,尝试了SURF算法,不过效果不佳,对于动态的物体会跟丢。求知乎上大牛的解答。最好能做到实时跟踪。 视频流目标检测和追踪一直是计算机视觉领域的热点问题。 一般来说,生成关于目标的轨迹需要随着时间的推移始终跟进识别同一目标,即使在视觉外观或运动动力学发生突然变化的情况下,也是如此。然而,当目标被部分或完全遮挡时,要做到这一点就会更困难。通常来说,在附近有长时间的遮挡,或视觉上有引人注目的物体等极具挑战性的情况下,即使是食肉动物或拥有强大视觉系统的人类,也经常会失去对目标的跟踪。 针对这一问题,您可以选择使用NVIDIA DeepStream SDK,它提供了 GPU 加速多目标跟踪器(MOT)。最新版 DeepStream SDK 6.2 发布后,多目标跟踪器更是有了显著的提升,有效地解决了具有挑战性的遮挡问题。利用基于深度神经网络的重新识别(ReID)模型进行目标匹配和关联,来实现这一点。NvDCF 现已可配置使用 ReID 模型,对可能经历长时间遮挡或较长时间错过检测的目标提高关联性。 行人追踪 当技术走出实验室,应用在日常生活中时会产生什么样的效果呢?是时候在一些有趣的场景中使用这些目标跟踪器,生成目标的轨迹并检验效果了。 首先是一个行人跟踪用例。使用了 PeopleNet v2.6 检测器,上面装配了不同类型的物体跟踪器。检测器配置参数和跟踪器参数都针对 PeopleNet v2.6 进行了调整。 在视频 1 中,对 PeopleNet 、NvSORT、NvDeepSORT 和 NvDCF 的实时感知结果以顺时针方向显示,用于并排比较。不同的人和边界框(bbox)为了更容易识别,用了不同的颜色绘制,并且只有当场景中存在相应的目标时,才会显示颜色编码的轨迹。视频是以 x0.5 的速度拍摄的,以便于比较,但实际数据是实时生成的。 bbox 顶部的标签(例如[21]: 80 (0.24)) 显示的是个人 ID (例如 21), 跟踪年龄(例如 80) 和跟踪置信度(例如 0.24)。检测器配置参数针对每种跟踪器类型进行不同配置,以获得更好的跟踪精度。






2024最新激活全家桶教程,稳定运行到2099年,请移步至置顶文章:https://sigusoft.com/99576.html
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。 文章由激活谷谷主-小谷整理,转载请注明出处:https://sigusoft.com/22096.html