我有以下代码可识别对象/符号。
我的问题是,当物体靠近或远离物体时,我该如何改善我的代码以识别物体?
可以说我加载了一个符号,并且需要在不同范围内对其进行识别。

import cv2
import numpy as np

#Camera
cap = cv2.VideoCapture(0)

#symbool inladen
symbool = cv2.imread('klaver.jpg',0)
w, h = symbool.shape[::-1]

while(1):

    res, frame = cap.read()
    img_gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
    res = cv2.matchTemplate(img_gray,symbool,cv2.TM_CCOEFF_NORMED)

    threshold = 0.9
    loc = np.where( res >= threshold)
    for pt in zip(*loc[::-1]):
       # print "hallo"
        cv2.rectangle(img_gray, pt, (pt[0] + w, pt[1] + h), (0,255,255), 1)
    cv2.imshow('Resultaat', img_gray)
    k = cv2.waitKey(5) & 0xFF
    if k == 27:
        break

cap.release()
cv2.destroyAllWindows()

更新:

我已经尝试了下面的教程,并提出了以下内容。
问题是识别对象,此方法绘制随机矩形,并且不关注自身的对象/符号
import cv2
import numpy as np
import imutils

#Camera
cap = cv2.VideoCapture(0)

#symbool inladen
symbool = cv2.imread('klaver.jpg',0)
w, h = symbool.shape[::-1]

while(1):

    res, frame = cap.read()
    img_gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
    found = None
    #res = cv2.matchTemplate(img_gray,symbool,cv2.TM_CCOEFF_NORMED)
    for scale in np.linspace(0.2, 1.0, 20)[::-1]:

            resized = imutils.resize(img_gray, width = int(img_gray.shape[1] * scale))
            r = img_gray.shape[1] / float(resized.shape[1])

            if resized.shape[0] < h or resized.shape[1] < w:
                break

            edged = cv2.Canny(resized, 50, 200)
            result = cv2.matchTemplate(edged, symbool, cv2.TM_CCOEFF_NORMED)
            (_, maxVal, _, maxLoc) = cv2.minMaxLoc(result)

            clone = np.dstack([edged, edged, edged])
            cv2.rectangle(clone, (maxLoc[0], maxLoc[1]),
            (maxLoc[0] + w, maxLoc[1] + h), (0, 0, 255), 2)

            if found is None or maxVal > found[0]:
                    found = (maxVal, maxLoc, r)

    (_, maxLoc, r) = found
    (startX, startY) = (int(maxLoc[0] * r), int(maxLoc[1] * r))
    (endX, endY) = (int((maxLoc[0] + w) * r), int((maxLoc[1] + h) * r))


    threshold = 0.9
    loc = np.where( result >= threshold)
    for pt in zip(*loc[::-1]):
       # print "hallo"
       # cv2.rectangle(img_gray, pt, (pt[0] + w, pt[1] + h), (0,255,255), 1)
        cv2.rectangle(img_gray, (startX, startY), (endX, endY), (0, 255, 255), 1)
    cv2.imshow('Resultaat', img_gray)
    k = cv2.waitKey(5) & 0xFF
    if k == 27:
        break

cap.release()
cv2.destroyAllWindows()

最佳答案

在同一框架内工作的最简单方法是实现金字塔方法。只需以多种分辨率加载图像(或模板),然后在这些分辨率上循环即可。这是使用Python + OpenCV代码的出色指南:http://www.pyimagesearch.com/2015/01/26/multi-scale-template-matching-using-python-opencv/

该方法用于提供尺度不变模板匹配。通过使用特征检测(关键点),您可以获得更强大的功能,该功能使您可以为模板进行缩放和旋转不变性。有关使用SURF的示例,请参见http://robocv.blogspot.com/2012/02/real-time-object-detection-in-opencv.html

根据OP在下面的评论进行了编辑!

为了解决您的第二个代码段,有一些问题,但是您比想像中要亲密得多!

  • 它将Canny边缘用于视频帧,但不用于模板。应该为两者都做Canny,或者不做。在该示例中,他使用Canny,这对于查找文本徽标非常有用,但是如果您的模板是随处可见的基本形状,就不会那么好。例如,我在纸上画了一个加号用作模板,它也想选择图像中的每个角。仅使用常规图像而不是边缘图像,对我的模板效果更好。
  • 您仍在使用loc = np.where(result >= threshold),但是已经将最大值及其对应的位置存储在found中。您需要做的就是在maxVal >= threshold时画一个盒子。
  • 您的阈值对于此任务而言过高。当模板可以在任何比例下并且仅计算几个离散比例时,您都不应该期望90%的匹配,尤其是因为您的模板可能不会每次都完美地笔直。

  • import cv2
    import numpy as np
    
    #Camera
    cap = cv2.VideoCapture(0)
    
    #symbool inladen
    symbool = cv2.imread('klaver.jpg',0)
    w, h = symbool.shape[::-1]
    
    while(1):
    
        res, frame = cap.read()
        img_gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
        found = None
        #res = cv2.matchTemplate(img_gray,symbool,cv2.TM_CCOEFF_NORMED)
        for scale in np.linspace(0.2, 1.0, 20)[::-1]:
    
                resized = cv2.resize(img_gray, None, fx=scale, fy=scale)
                r = img_gray.shape[1] / float(resized.shape[1])
    
                if resized.shape[0] < h or resized.shape[1] < w:
                    break
    
                result = cv2.matchTemplate(resized, symbool, cv2.TM_CCOEFF_NORMED)
                (_, maxVal, _, maxLoc) = cv2.minMaxLoc(result)
    
                if found is None or maxVal > found[0]:
                        found = (maxVal, maxLoc, r)
    
        (maxVal, maxLoc, r) = found
        (startX, startY) = (int(maxLoc[0] * r), int(maxLoc[1] * r))
        (endX, endY) = (int((maxLoc[0] + w) * r), int((maxLoc[1] + h) * r))
    
    
        threshold = 0.5
        if maxVal >= threshold:
           cv2.rectangle(img_gray, (startX, startY), (endX, endY), (0, 255, 255), 1)
        cv2.imshow('Resultaat', img_gray)
        k = cv2.waitKey(5) & 0xFF
        if k == 27:
            print(maxVal)
            break
    
    cap.release()
    cv2.destroyAllWindows()
    

    07-27 13:37