目录
环境配置
头文件-quickopencv.h
源文件-quickdemo.cpp
1.dnn::readNetFromTensorflow()
2. dnn::blobFromImage()
3. Mat detectionMat
源文件-test.cpp
环境配置
以下代码来自B站贾志刚老师,直接运行不通,做了小小小修改
头文件-quickopencv.h
#pragma once
#include <opencv2/opencv.hpp>
using namespace cv;
class QuickDemo {
public:
void face_detection_demo();
};
源文件-quickdemo.cpp
1.dnn::readNetFromTensorflow()
模型导入与加载的相关API支持以下深度学习框架:
- tensorflow - readNetFromTensorflow
- caffe - readNetFromCaffe
- pytorch - readNetFromTorch
- darknet - readNetFromDarknet
本次代码调用的tensorflow框架:
cv2::dnn::readNetFromTensorflow(pbmodel, pbtxt)
函数直接调用 TensorFlow 训练的目标检测模型.
2. dnn::blobFromImage()
函数:cv2::dnn::blobFromImage(image, scalefactor, size, mean, swapRB, crop, ddepth)
作用:
输入图像转换为模型的标准输入,对图像进行预处理,包括减均值,比例缩放,裁剪,交换通道等,返回一个4通道的blob(blob可以简单理解为一个N维的数组,用于神经网络的输入)
参数:
image:输入图像(1、3或者4通道)
可选参数
scalefactor:图像各通道数值的缩放比例
size:输出图像的空间尺寸,如size=(200,300)表示高h=300,宽w=200
mean:用于各通道减去的值,以降低光照的影响(e.g. image为bgr3通道的图像,mean=[104.0, 177.0, 123.0],表示b通道的值-104,g-177,r-123)
swapRB:交换RB通道,默认为False.(cv2.imread读取的是彩图是bgr通道)
crop:图像裁剪,默认为False.当值为True时,先按比例缩放,然后从中心裁剪成size尺寸
ddepth:输出的图像深度,可选CV_32F 或者 CV_8U.
3. Mat detectionMat
Mat detectionMat是输入图像后经过网络前向传播后的输出的结果矩阵,
如果对象检测网络是SSD/RCNN/Faster-RCNN,输出的是N*7模式,所以其解析方式如下
Mat detectionMat(out.size[2],out.size[3],CV_32F,out.ptr<float>())
其中7表示七列输出,第一列表示下标,第二列表示分类标签,第三列表示置信度,第四列至第七列表示box的坐标位置。
#include "quickopencv.h"
#include <opencv2/dnn.hpp>
#include <opencv2/opencv.hpp>
using namespace cv;
using namespace std;
void QuickDemo::face_detection_demo() {
dnn::Net net = dnn::readNetFromTensorflow("D:\\opencv\\opencv\\sources\\samples\\dnn\\face_detector\\opencv_face_detector_uint8.pb",
"D:\\opencv\\opencv\\sources\\samples\\dnn\\face_detector\\opencv_face_detector.pbtxt");
VideoCapture capture("C:/Users/zhaoliuliu/Pictures/Camera Roll/test1.mp4");
Mat frame;
while (true) {
capture.read(frame);
if (frame.empty()) {
break;
}
Mat blob = dnn::blobFromImage(frame, 1.0, Size(300, 300), Scalar(104, 177, 123), false, false);
net.setInput(blob);// NCHW
Mat probs = net.forward(); //
Mat detectionMat(probs.size[2], probs.size[3], CV_32F, probs.ptr<float>());
// 解析结果
for (int i = 0; i < detectionMat.rows; i++) {
float confidence = detectionMat.at<float>(i, 2);
if (confidence > 0.5) {
int x1 = static_cast<int>(detectionMat.at<float>(i, 3) * frame.cols);//后面四列表示box的四个坐标位置
int y1 = static_cast<int>(detectionMat.at<float>(i, 4) * frame.rows);//坐标值是浮点数的比率,需要转换成像素坐标
int x2 = static_cast<int>(detectionMat.at<float>(i, 5) * frame.cols);
int y2 = static_cast<int>(detectionMat.at<float>(i, 6) * frame.rows);
Rect box(x1, y1, x2 - x1, y2 - y1);
rectangle(frame, box, Scalar(0, 0, 255), 2, 8, 0);
}
}
imshow("人脸检测演示", frame);
int c = waitKey(1);
if (c == 27) { // 退出
break;
}
}
}
源文件-test.cpp
#include <opencv2/opencv.hpp>
#include "quickopencv.h"
#include <iostream>
using namespace cv;
using namespace std;
int main(int argc, char** argv) {
QuickDemo qd;
qd.face_detection_demo();
waitKey(0);
destroyAllWindows();
return 0;
}
结果
运行输出结果