2022-05-08 10:56:05
来源: 网络投稿   查看评论
夏季,不想荨麻疹反复?谨记3类食物、做好5件事少碰

基于和实现对象跟踪的对象检测教程-上海怡健医学


在本教程中,我们将学习如何基于 和 实现对象跟踪。

首先要搞清楚物体检测和物体跟踪有什么区别:

我们将首先讨论对象检测,然后讨论如何将对象跟踪应用于检测。

1.有哪些可能的应用?

可能有不同的应用,例如,计算一个区域中有多少人,检查传送带上有多少物体通过,或者计算高速公路上的车辆。

当然,阅读本教程后,您可以轻松想到数以千计的适用于现实生活或可能适用于工业的想法。

2.我们需要什么?

在本教程中,我们将使用 3 个文件:

opencv运动目标跟踪

3.物体检测

首先我们需要调用 .mp4 文件并创建一个掩码:

cap = cv2.VideoCapture("highway.mp4")
# 来自稳定相机的物体检测
object_detector = cv2.createBackgroundSubtractorMOG2()
while True:
ret, frame = cap.read()
# 1. 物体检测
mask = object_detector.apply(frame)

在示例代码中可以看到,我们也使用了函数,该函数返回背景的比例,然后创建遮罩。

蒙版可视化结果:

但是,如您所见,图像中有很多噪点。因此,让我们通过移除所有较小的元素来改进提取,并将注意力集中在大于特定区域的对象上。

_, mask = cv2.threshold(mask, 254, 255, cv2.THRESH_BINARY)
contours, _ = cv2.findContours(mask, cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE)
for cnt in contours:
# 计算面积,去除小元素
area = cv2.contourArea(cnt)
if area > 100:
# 显示

使用 的 cv2. 函数绘制轮廓,我们得到了这个结果。

opencv运动目标跟踪

4.我们定义一个感兴趣的区域

分析整个窗口对于本教程的目的并不重要。我们只对计算在某个点通过的所有车辆感兴趣,因此opencv运动目标跟踪,我们必须定义一个感兴趣的区域 ROI 并仅在该区域应用掩码。

while True:
ret, frame = cap.read()
height, width, _ = frame.shape
# 提取感兴趣区域
roi = frame[340: 720,500: 800]
# 1. 物体检测
mask = object_detector.apply(roi)
_, mask = cv2.threshold(mask, 254, 255, cv2.THRESH_BINARY)
contours, _ = cv2.findContours(mask, cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE)
for cnt in contours:
# 计算面积并去除小元素
area = cv2.contourArea(cnt)
if area > 100:
cv2.drawContours(roi, [cnt], -1, (0, 255, 0), 2)

结果可视化如下:

cv2. yes 开头添加,没有定义参数,现在让我们看看如何进一步改进我们的结果。是第一个参数,在本例中设置为 100,因为相机是固定的。将其更改为 40,因为该值越低,误报的机会就越大。在这种情况下,我们只对较大的对象感兴趣。

# 来自稳定相机的物体检测
object_detector = cv2.createBackgroundSubtractorMOG2(history=100, varThreshold=40)

5.在对象周围画一个框

在处理矩形之前,我们对图像进行了进一步的清理。为此,阈值函数就派上用场了。从我们的蒙版开始,我们告诉它我们只想显示白色或黑色值,因此通过写入 254、255,只会考虑 254 和 255 之间的值。

_, mask = cv2.threshold(mask, 254, 255, cv2.THRESH_BINARY)

然后我们将找到的对象的坐标插入到if条件中,绘制矩形

x, y, w, h = cv2.boundingRect(cnt)
cv2.rectangle(roi, (x, y), (x + w, y + h), (0, 255, 0), 3)

这是最终结果:

6.对象追踪

我们现在只需要导入和集成跟踪功能。

from tracker import *
# Create tracker object
tracker = EuclideanDistTracker()

创建对象后,我们必须获取边界框的每个位置并将它们插入到单个数组中。

detections.append([x, y, w, h])

通过在屏幕上显示结果,您可以看到通过 ROI 的所有通道是如何被识别的,以及它们的位置是如何被插值到阵列中的特定位置的。显然,识别的摩托车越多,我们的数组就越大。

7.将唯一 ID 关联到对象

现在让我们将一个包含位置的数组传递给 .( )。我们将再次获得一个包含位置的数组,但此外,每个对象都将被分配一个唯一的 ID。

从代码中可以看出,我们可以使用 for 循环分析所有内容。此时我们只需要绘制矩形并显示车辆ID即可。

# 2. 目标跟踪
boxes_ids = tracker.update(detections)
for box_id in boxes_ids:
x, y, w, h, id = box_id
cv2.putText(roi, str(id), (x, y - 15), cv2.FONT_HERSHEY_PLAIN, 2, (255, 0, 0), 2)
cv2.rectangle(roi, (x, y), (x + w, y + h), (0, 255, 0), 3)

在图片中你可以看到结果

8.完整代码

tracker.py
import math
class EuclideanDistTracker:
def __init__(self):
# 存储对象的中心位置
self.center_points = {}
# 保持id的计数
# 每次检测到新的对象 id 时,计数将增加 1
self.id_count = 0
def update(self, objects_rect):
# 对象框和 ID
objects_bbs_ids = []
# 获取新对象的中心点
for rect in objects_rect:
x, y, w, h = rect
cx = (x + x + w) // 2
cy = (y + y + h) // 2
# 查明是否已经检测到该对象
same_object_detected = False
for id, pt in self.center_points.items():
# 计算中心点之间的欧式距离
dist = math.hypot(cx - pt[0], cy - pt[1])
# 如果欧氏距离小于25即表明是相同的目标
if dist < 25:
self.center_points[id] = (cx, cy)
print(self.center_points)
objects_bbs_ids.append([x, y, w, h, id])
same_object_detected = True
break
# 检测到新对象,我们将 ID 分配给该对象
if same_object_detected is False:
self.center_points[self.id_count] = (cx, cy)
objects_bbs_ids.append([x, y, w, h, self.id_count])
self.id_count += 1
# 按中心点清理字典以删除不再使用的 IDS
new_center_points = {}
for obj_bb_id in objects_bbs_ids:
_, _, _, _, object_id = obj_bb_id
center = self.center_points[object_id]
new_center_points[object_id] = center
# 更新字典
self.center_points = new_center_points.copy()
return objects_bbs_ids

main.py

import cv2
from tracker import *
# 创建跟踪器对象
tracker = EuclideanDistTracker()
cap = cv2.VideoCapture("highway.mp4")
# 来自稳定相机的物体检测
object_detector = cv2.createBackgroundSubtractorMOG2(history=100, varThreshold=40)
while True:
ret, frame = cap.read()
height, width, _ = frame.shape
# 提取感兴趣区域
roi = frame[340: 720,500: 800]
# 1. 物体检测
mask = object_detector.apply(roi)
_, mask = cv2.threshold(mask, 254, 255, cv2.THRESH_BINARY)
contours, _ = cv2.findContours(mask, cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE)
detections = []
for cnt in contours:
# 计算面积并去除小元素
area = cv2.contourArea(cnt)
if area > 100:
#cv2.drawContours(roi, [cnt], -1, (0, 255, 0), 2)
x, y, w, h = cv2.boundingRect(cnt)
detections.append([x, y, w, h])
# 2. 对象追踪
boxes_ids = tracker.update(detections)
for box_id in boxes_ids:
x, y, w, h, id = box_id
cv2.putText(roi, str(id), (x, y - 15), cv2.FONT_HERSHEY_PLAIN, 2, (255, 0, 0), 2)
cv2.rectangle(roi, (x, y), (x + w, y + h), (0, 255, 0), 3)
cv2.imshow("roi", roi)
cv2.imshow("Frame", frame)
cv2.imshow("Mask", mask)
key = cv2.waitKey(30)
if key == 27:
break
cap.release()
cv2.destroyAllWindows()

结论

您也可以从视频中看到,我们已经达到了我们在本教程开始时设定的结果。

但是opencv运动目标跟踪,您必须将其视为练习或起点,因为关于该主题有很多话要说,而本教程的目的只是让您了解对象跟踪的工作原理。

如果你想集成到你的项目中,你应该使用更可靠和先进的对象检测方法,以及跟踪方法。

完整代码地址:私信“333”可直接访问或“链接”

卓跃网创于2018年,是一家专业从事新闻资讯、娱乐资讯、金融资讯的门户型网站,为浏览观战打造全面网络体验服务中心。经过一年多不断的努力创新,我们致力于互联网领域,为大家带来更准,更好,更有质量的新闻报道。在未来的日子里,我们希望您的陪伴,伴随着我们网站的成长,给与您更多的资讯内容。

留言与评论(共有 0 条评论)
   
验证码: