本次教程我们谈及OpenCV的性能衡量与优化,众所周知,算法的不断的革新其最重要的一点就是不断的优化再优化,比如我们的后面要讲到的边缘检测的算法,又或者是图像分割的算法,他们都是随着时间的一步一步的推移,从而完成算法层面的优化。在以后的学习中,我们会接触到诸多的框架,这些所谓的API他们都是固定的,如果我们只是单纯的调用这些API的话,那么就做不到算法层面的革新,而当我们自己想从原理层面来写这些算法的时候,我们就需要考虑到它的速度,是否能跟得上这些原有API的速度。

本次教程我们需要接触到几个函数:

cv.getTickCount()

调用此函数之后返回时钟周期的数目。因此,如果在函数执行之前和之后调用它,则会获得用于执行函数的时钟周期数。

cv.getTickFrequency()

函数返回时钟周期的频率,或每秒时钟周期的数目。

现在我们来做个实验,我们采用一个普通的高斯滤波器,调用OpenCV中的函数API,我们看看调用OpenCV的API速度怎么样:import cv2

img1 = cv2.imread("01.jpg")
e1 = cv2.getTickCount()
img1 = cv2.GaussianBlur(img1,(3,3),0)
e2 = cv2.getTickCount()
t = (e2 - e1) / cv2.getTickFrequency()
print(t)
cv2.imshow("res", img1)
cv2.waitKey(0)
cv2.destroyAllWindows()

我们运行看看效果:

可以看到运行速度非常快,现在我们自己写一个高斯滤波器,不再调用官方API,我们看看效果,当然,这里只是进行一个实验,具体代码的编写目前并不要求大家掌握,这些是后面将要学到的内容,我们来看代码:

import cv2
import numpy as np
import math
import copy
gauss = np.array([1, 2, 1, 2, 4, 2, 1, 2, 1])
def spilt(a):
if a / 2 == 0:
x1 = x2 = a / 2
else:
x1 = math.floor(a / 2)
x2 = a - x1
return -x1, x2
def gaussian_b0x(a, b):
judge = 10
sum = 0
box = []
x1, x2 = spilt(a)
y1, y2 = spilt(b)
for i in range(x1, x2):
for j in range(y1, y2):
t = i * i + j * j
re = math.e ** (-t / (2 * judge * judge))
sum = sum + re
box.append(re)
box = np.array(box)
box = box / sum
# for x in box :
#     print (x)
return box
def original(i, j, k, a, b, img):
x1, x2 = spilt(a)
y1, y2 = spilt(b)
temp = np.zeros(a * b)
count = 0
for m in range(x1, x2):
for n in range(y1, y2):
if i + m  img.shape[0] - 1 or j + n  img.shape[1] - 1:
temp[count] = img[i, j, k]
else:
temp[count] = img[i + m, j + n, k]
count += 1
return temp
def gaussian_function(a, b, img, gauss_fun):
img0 = copy.copy(img)
for i in range(0, img.shape[0]):
for j in range(2, img.shape[1]):
for k in range(img.shape[2]):
temp = original(i, j, k, a, b, img0)
img[i, j, k] = np.average(temp, weights=gauss_fun)  # 按权分配
return img
img0 = cv2.imread("01.jpg")
gauss_new = gaussian_b0x(3 , 3)
e1 = cv2.getTickCount()
gauss_img = gaussian_function(3, 3, copy.copy(img0), copy.copy(gauss_new))
e2 = cv2.getTickCount()
t = (e2 - e1) / cv2.getTickFrequency()
print(t)
cv2.imshow("res",gauss_img)
cv2.waitKey(0)
cv2.destroyAllWindows()

我们来看运行效果,跟官方API的效果一致:

但是其运行时间让人觉得难以接受,竟然长达18秒:

由此我们可以用这两个函数检验自己所写的算法是否已经足够优化,运行时间就是最好的证明。

OpenCV中的默认优化

许多OpenCV功能都使用SSE2,AVX等进行了优化,当然它也包含未经优化的代码。 因此,如果我们的系统支持这些功能,我们应该利用它们(几乎所有现代处理器都支持它们).编译时默认启用它, 因此,OpenCV运行优化代码(如果已启用),否则运行未优化代码。 我们可以使用cv2.useOptimized()来检查它是否已启用/禁用,并使用cv2.setUseOptimized()来启用/禁用它:import cv2

print(cv2.useOptimized())

cv2.setUseOptimized(False)

print(cv2.useOptimized())

我们可以查看输出:

现在我们将其综合起来,看看优化之后与不优化的速度差异,我们先来看优化之后的:

import cv2
img1 = cv2.imread("cat.jpg")
print(cv2.useOptimized())  # True
e1 = cv2.getTickCount()
for i in range(5, 49, 2):
img1 = cv2.medianBlur(img1, i)
e2 = cv2.getTickCount()
print((e2 - e1) / cv2.getTickFrequency())
时间:
我们再来看看未优化的效果:import cv2
img1 = cv2.imread("cat.jpg")
cv2.setUseOptimized(False)
print(cv2.useOptimized())  # False
e1 = cv2.getTickCount()
for i in range(5, 49, 2):
img1 = cv2.medianBlur(img1, i)
e2 = cv2.getTickCount()
print((e2 - e1) / cv2.getTickFrequency())

事实证明,OpenCV在开启优化之后其运行速度得到了提升。

到本次教程为止,OpenCV入门篇的教程就结束了,从下一个教程开始,将进行OpenCV基础篇的讲解。