一、常用的基础滤波操作
在图像处理中,尽可能消除图片中的噪声,消除噪声就需要用到滤波,在本次opencv学习中,学习了三个滤波方式。

(1)平均滤波,就是将一个区域内的像素值求和取平均值,然后用这个平均值替换区域中心的像素值。

blur(源Mat对象,目标Mat对象,Size对象,Point对象)//Size对象用来确定区域大小,Point对象如果x,y都是-1则表示更新区域中心的像素。

(2)高斯滤波,也是将一个区域的像素值求取平均值替换区域中心的像素值,但是是加权平均,权重按照二维正态分布。

GaussianBlur(源Mat对象,目标Mat对象,Size对象,x方向正太分布参数,y方向正太分布参数)

(3)中值滤波,之前的两个滤波都有个问题,如果区域中有极端值,很可能影响滤波效果,中值滤波采用区域中的中值来替换,有利于克服椒盐噪声。

medianBlur(源Mat对象,目标Mat对象,int size)//这里的size表示正方形区域的边长

(4)双边滤波,之前的滤波还有个问题,他们都会把轮廓给模糊了,有一些区域之间相差较大的像素,这往往能看出轮廓,所以如果我们给个限制范围,如果两点间的像素值差距大于这个范围就不滤波了,保留图像轮廓

bilateralFilter(源Mat对象,目标Mat对象,int 区域半径,int 限制范围,int space)//space是当区域半径给的是0时,用来计算区域范围的,一般情况下没用,随便给个数就行。

Mat dst,dst1;
blur(src, dst, Size(3, 3), Point(-1, -1));//均值滤波
GaussianBlur(src, dst, Size(5, 5), 5, 5);//高斯滤波
medianBlur(src, dst, 5);//中值滤波
bilateralFilter(src, dst, 5, 100, 3);//双边滤波

二、OpenCV 非局部均值去噪函数:

NL-Means算法的复杂度跟图像的大小、颜色通道数、相似块的大小和搜索框的大小密切相关,设图像的大小为N×N,颜色通道数为Nc,块的大小为k×k,搜索框的大小为n×n,那么算法复杂度为:

opencv python 滤波 opencv滤波算法_opencv python 滤波


(看着都可怕)。对512×512的彩色图像而言,设置k=7,n=21,OpenCV在使用了多线程的情况下,处理一幅图像所需要的时间需要几十秒。虽然有人不断基于这个算法进行改进、提速,但离实时处理还是比较远。

1、OpenCV 4.1.0 中提供了以下几种非局部均值去噪调用方式:

fastNlMeansDenoising() :用于 1 通道、2 通道或 3 通道 8 位图像。(单个灰度图像)

fastNlMeansDenoisingColored() :用于 1 通道、2 通道、3 通道或 4 通道的 8 位或 16 位图像(16位下仅NORM_L1)。(彩色图像)

fastNlMeansDenoisingMulti() :用于 8 位 3 通道图像。(灰度图像序列)

fastNlMeansDenoisingColoredMulti():用于 8 位 3 通道图像序列。(彩色图像序列)

2、函数声明:

void fastNlMeansDenoising( InputArray      src, 
                           OutputArray     dst, 
                           float           h = 3,
                           int             templateWindowSize = 7, 
                           int             searchWindowSize = 21
                         );
 
void fastNlMeansDenoising( InputArray                    src, 
                           OutputArray                   dst,
                           const std::vector<float>&     h,
                           int                           templateWindowSize = 7, 
                           int                           searchWindowSize = 21,
                           int                           normType = NORM_L2
                         );
 
void fastNlMeansDenoisingColored( InputArray     src, 
                                  OutputArray    dst,
                                  float          h = 3, 
                                  float          hColor = 3,
                                  int            templateWindowSize = 7, 
                                  int            searchWindowSize = 21
                                );
 
void fastNlMeansDenoisingMulti( InputArrayOfArrays srcImgs, 
                                OutputArray dst,
                                int imgToDenoiseIndex, 
                                int temporalWindowSize,
                                float h = 3, 
                                int templateWindowSize = 7, 
                                int searchWindowSize = 21
                              );
 
void fastNlMeansDenoisingMulti( InputArrayOfArrays            srcImgs, 
                                OutputArray                   dst,
                                int                           imgToDenoiseIndex, 
                                int                           temporalWindowSize,
                                const std::vector<float>&     h,
                                int                           templateWindowSize = 7, 
                                int                           searchWindowSize = 21,
                                int                           normType = NORM_L2
                              );
 
void fastNlMeansDenoisingColoredMulti( InputArrayOfArrays srcImgs, 
                                       OutputArray dst,
                                       int imgToDenoiseIndex, 
                                       int temporalWindowSize,
                                       float h = 3, 
                                       float hColor = 3,
                                       int templateWindowSize = 7, 
                                       int searchWindowSize = 21
                                     );
  • src:输入一张图像
  • dst:输出图像要求与输入通信有相同的尺寸和大小
  • h:亮度元件参数调节滤波器强度。较大的h值可以很好地去除噪声,但也可能去除图像细节;较小的h值可以保留细节,但也可能保留一些噪声;
  • hColor:hColor 与 h 相同,但适用于颜色组件。对于大多数图像,值等于10就足以消除彩色噪声,而不会扭曲颜色;
  • templateWindowSize:用于计算权重的模板补丁的像素大小。应该是奇数。推荐值7像素;
  • searchWindowSize:用于计算给定像素加权平均值的窗口的像素大小。应该是奇数。线性影响性能:更大的搜索窗口大小-更大的去噪时间。推荐值21像素。

3、示例代码:

#include <opencv2/opencv.hpp>
#include <iostream>
 
using namespace cv;
using namespace std;
 
int main(int argc, char** argv) {
	Mat src = imread("../images/test.jpg");
	if (src.empty()) {
		printf("不能打开图像!\n");
		return -1;
	}
 
	namedWindow("1--原图", WINDOW_AUTOSIZE);
	imshow("1--原图", src);
 
	Mat result1;
 
	// 图像去噪
	fastNlMeansDenoisingColored(src, result1, 5, 5, 7, 21);
	imshow("2--fastNlMeansDenoisingColored", result1);
 
	waitKey(0);
	return 0;
}

三、OpenCV 双边滤波:
1、直观理解
双边滤波算法本质是基于高斯滤波,目的是解决高斯滤波造成的边缘模糊。那么算法的做法就是想办法去“推断”出当前像素是否是边缘点或者接近边缘的点。
双边滤波(Bilateral filter)是一种非线性的滤波方法,是结合图像的空间邻近度和像素值相似度的一种折衷处理,同时考虑空域信息灰度相似性,达到保边去噪的目的
2、函数声明:

void cv::bilateralFilter(InputArray src,
OutputArray 	dst,
int 	d,
double 	sigmaColor,
double 	sigmaSpace,
int 	borderType = BORDER_DEFAULT 
)

1、InputArray src: 输入图像,可以是Mat类型,图像必须是8位或浮点型单通道、三通道的图像。
2、OutputArray dst: 输出图像,和原图像有相同的尺寸和类型。
3、int d: 表示在过滤过程中每个像素邻域的直径范围。如果这个值是非正数,则函数会从第五个参数sigmaSpace计算该值。
4、double sigmaColor: 颜色空间过滤器的sigma值,这个参数的值月大,表明该像素邻域内有越宽广的颜色会被混合到一起,产生较大的半相等颜色区域。 (这个参数可以理解为值域核的)
5、double sigmaSpace: 坐标空间中滤波器的sigma值,如果该值较大,则意味着越远的像素将相互影响,从而使更大的区域中足够相似的颜色获取相同的颜色。当d>0时,d指定了邻域大小且与sigmaSpace无关,否则d正比于sigmaSpace. (这个参数可以理解为空间域核的)
6、int borderType=BORDER_DEFAULT: 用于推断图像外部像素的某种边界模式,有默认值BORDER_DEFAULT.

3、示例代码:

Mat srcImage = imread("../data/1.png", 0);
  Mat blurImage;
   bilateralFilter(srcImage, blurImage, 10, 80, 50);

四、OpenCV 各向异性滤波:

#include <opencv2/opencv.hpp>
#include <iostream>
using namespace cv;
using namespace std;
float k = 15;
float lambda = 0.25;
int N = 20;
void anisotropy_demo(Mat &image, Mat &result);
int main(int argc, char** argv) {
    Mat src = imread("D:/vcprojects/images/example.png");
    if (src.empty()) {
        printf("could not load image...\n");
        return -1;
    }
    namedWindow("input image", CV_WINDOW_AUTOSIZE);
    imshow("input image", src);
    vector<Mat> mv;
    vector<Mat> results;
    split(src, mv);
    for (int n = 0; n < mv.size(); n++) {
        Mat m = Mat::zeros(src.size(), CV_32FC1);
        mv[n].convertTo(m, CV_32FC1);
        results.push_back(m);
    }
    int w = src.cols;
    int h = src.rows;
    Mat copy = Mat::zeros(src.size(), CV_32FC1);
    for (int i = 0; i < N; i++) {
        anisotropy_demo(results[0], copy);
        copy.copyTo(results[0]);
        anisotropy_demo(results[1], copy);
        copy.copyTo(results[1]);
        anisotropy_demo(results[2], copy);
        copy.copyTo(results[2]);
    }
    Mat output;
    normalize(results[0], results[0], 0, 255, NORM_MINMAX);
    normalize(results[1], results[1], 0, 255, NORM_MINMAX);
    normalize(results[2], results[2], 0, 255, NORM_MINMAX);
    results[0].convertTo(mv[0], CV_8UC1);
    results[1].convertTo(mv[1], CV_8UC1);
    results[2].convertTo(mv[2], CV_8UC1);
    Mat dst;
    merge(mv, dst);
    imshow("result", dst);
    imwrite("D:/result.png", dst);
    waitKey(0);
    return 0;
}
void anisotropy_demo(Mat &image, Mat &result) {
    int width = image.cols;
    int height = image.rows;
    // 四邻域梯度
    float n = 0, s = 0, e = 0, w = 0; 
    // 四邻域系数
    float nc = 0, sc = 0, ec = 0, wc = 0; 
    float k2 = k*k;
    for (int row = 1; row < height -1; row++) {
        for (int col = 1; col < width -1; col++) {
            // gradient
            n = image.at<float>(row - 1, col) - image.at<float>(row, col);
            s = image.at<float>(row + 1, col) - image.at<float>(row, col);
            e = image.at<float>(row, col - 1) - image.at<float>(row, col);
            w = image.at<float>(row, col + 1) - image.at<float>(row, col);
            nc = exp(-n*n / k2);
            sc = exp(-s*s / k2);
            ec = exp(-e*e / k2);
            wc = exp(-w*w / k2);
            result.at<float>(row, col) = image.at<float>(row, col) + lambda*(n*nc + s*sc + e*ec + w*wc);
        }
    }
}

综合的代码:

Mat srcImage1, grayImage, grayImage1, grayImage2, grayImage3, grayImage4;
    Mat srcImage = imread("../data/grey.png");
    srcImage.copyTo(srcImage1);
    applyColorMap(srcImage1, grayImage, COLORMAP_JET);
    imshow("原始图像", grayImage);
//    //
    bilateralFilter(srcImage1, grayImage1, 10, 80, 80);
    applyColorMap(grayImage1, grayImage1, COLORMAP_JET);
    imshow("双边滤波", grayImage1);

//    adaptive(srcImage1, grayImage2);
//    applyColorMap(grayImage2, grayImage2, COLORMAP_JET);
//    imshow("自适应中值滤波", grayImage2);


//    cv::fastNlMeansDenoising(srcImage1, grayImage3, 30.0, 7, 21);
//    applyColorMap(grayImage3, grayImage3, COLORMAP_JET);
//    imshow("非局部均值滤波", grayImage3);

//    //
//    unsigned char *strData;
//    strData = srcImage.data;
//    AnisotropicFilter(strData, srcImage.cols, srcImage.rows, srcImage.channels(), 20, 19, 0.23, 3);
//    grayImage4 = Mat(srcImage.rows, srcImage.cols, srcImage.type(), strData, 0);
//    applyColorMap(grayImage4, grayImage4, COLORMAP_JET);
//    imshow("各向异性滤波滤波", grayImage4);

opencv python 滤波 opencv滤波算法_OpenCV_02