一、canny实现步骤

1、图像必须是单通道的,也就是说必须是灰度图像

2、图像进行高斯滤波,去掉噪点 

3、sobel 算子过程的实现,计算x y方向 、梯度(用不到,但是可以看看xy 两个组合起来的结果)

以及梯度方向(很重要)

4、局部非极大值抑制

5、双阈值连接处理

具体可以分为上面的5个步骤,下面一起边看原理边实现。

opencv hash对比_计算机视觉

二、原理与实现

1、图像灰度化

如果是一张3通道的图像,也就是我们常见的彩色图,那么们就需要将其转换成一个灰度图,其规则如下:

             1.浮点算法:Gray = R*0.3 + G*0.59 + B*0.11
    2.整数方法:Gray = (R*30+G*59+B*11)/100
    3.移位方法:Gray = (R*28+G*151+B*77)>> 8
    4.平均值法:Gray = (R+G+B)/3
    5.仅取绿色:Gray = G
但是通常我们自己实现一般都是拿第一种实现的。

OpenCV转灰度图像特别简单,只需调用函数 cv2.cvtColor(image, cv2.COLOR_BGR2GRAY) 即可。

code:

void ConvertRGB2GRAY(const Mat& image, Mat& imageGray)
{
	if (!image.data || image.channels() != 3)
	{
		return;
	}
	// 创建一个单通道的灰度图像
	imageGray = Mat::zeros(image.size(), CV_8UC1);

	//  取出存储图像的数组的指针 
	uchar* pointImage = image.data;
	uchar* pointImageGray = imageGray.data;

	int stepImage = image.step;
	int stepImageGray = imageGray.step;
	for (int i = 0; i < imageGray.rows; i++)
	{
		for (int j = 0; j < imageGray.cols; j++)
		{
			pointImageGray[i * stepImageGray + j] = 0.114 * pointImage[i * stepImage + 3 * j] + 0.587 * pointImage[i * stepImage + 3 * j + 1] + 0.299 * pointImage[i * stepImage + 3 * j + 2];
		}
	}
}

opencv hash对比_计算机视觉_02

2、高斯滤波

在高斯滤波的时候先要生成一个2元高斯核,然后进行高斯滤波,其作用是去掉噪点,其图像变的平滑起来

二元高斯函数

opencv hash对比_计算机视觉_03

  随着sigma的增大,整个高斯函数的尖峰逐渐减小,整体也变的更加平缓,则对图像的平滑效果越来越明显。

高斯核

代码里面最后一定要归一化

void  CreateGaussianKernel(int  kernel_size, int sigma, Mat& kernel)
{
	const   double  PI = 3.1415926;
	int  center = kernel_size / 2;
	kernel = Mat(kernel_size, kernel_size,CV_32FC1);

	float  segma_pow = 2 * sigma * sigma;   

	float  sum = 0;

	//  二元高斯函数
	for (size_t i = 0; i < kernel_size; i++)
	{
		for (size_t j= 0; j < kernel_size; j++)
		{
			float  temp = ((i - center) * (i - center) + (j - center) * (j - center) )/ segma_pow;
			kernel.at<float>(i, j) = 1 / (PI * segma_pow) * exp(-temp);
			sum += kernel.at<float>(i, j);
		}
	}


	// 归一化
	for (size_t i = 0; i < kernel_size; i++)
	{
		for (size_t j = 0; j < kernel_size; j++)
		{
			kernel.at<float>(i, j) = kernel.at<float>(i, j)/sum;
		}
	}

}

5*5 的高斯核,那个核数一般是不能超过11 ,超过11 其效果均值一样了

opencv hash对比_算法_04

高斯滤波

//******************高斯滤波*************************
//第一个参数imageSource是待滤波原始图像;
//第二个参数imageGaussian是滤波后输出图像;
//第三个参数 kernel 是一个指向含有N个double类型数组;
//第四个参数size是滤波核的尺寸
//*************************************************************
void  GaussianFilter(const Mat& imageSource, Mat& imageGaussian, Mat& kernel, int size)
{
	if (!imageSource.data|| imageSource.channels()!=1)
	{
		return;
	}
	imageGaussian = Mat::zeros(imageSource.size(),CV_8UC1);
	
	float  gaussArray[100];
	// 将 kernel 的方阵 变成一个一维度数组 这样在循环的时候啊就少了一次内循环
	int m = 0;
	for (size_t i = 0; i < kernel.rows; i++)
	{
		for (size_t j = 0; j < kernel.cols; j++)
		{
			gaussArray[m] = kernel.at<float>(i,j);
			m++;
		}
	}

	//滤波
		for (int i = 0; i < imageSource.rows; i++)
		{
			for (int j = 0; j < imageSource.cols; j++)
			{
				int k = 0;
				for (int l = -size / 2; l <= size / 2; l++)
				{
					for (int g = -size / 2; g <= size / 2; g++)
					{
						//以下处理针对滤波后图像边界处理,为超出边界的值赋值为边界值
						int row = i + l;
						int col = j + g;
						row = row < 0 ? 0 : row;
						row = row >= imageSource.rows ? imageSource.rows - 1 : row;
						col = col < 0 ? 0 : col;
						col = col >= imageSource.cols ? imageSource.cols - 1 : col;
						//卷积和
						imageGaussian.at<uchar>(i, j) += gaussArray[k] * imageSource.at<uchar>(row, col);
						k++;
					}
				}
			}
		}


}




void  TestGaussian()
{
	Mat  kernel;
	CreateGaussianKernel(5, 1, kernel);

	 // 打印 高斯核
	for (int i = 0; i < kernel.rows; i++)
	{
		for (int j = 0; j < kernel.cols; j++)
		{
			cout << "    " << kernel.at<float>(i, j);
		}
		cout << endl;
	}

	Mat  src = imread("C:\\Users\\alber\\Desktop\\opencv_images\\529.jpg");
	Mat  dst, imageGaussian;
	ConvertRGB2GRAY(src, dst);
	 imwrite("C:\\Users\\alber\\Desktop\\opencv_images\\1\\1.jpg", dst);
	  GaussianFilter(dst, imageGaussian, kernel, 5);
	 imwrite("C:\\Users\\alber\\Desktop\\GaussianFilter.jpg", imageGaussian);
}

 

opencv hash对比_人工智能_05

3、实现sobel 算子

推导出X Y方向的核 

opencv hash对比_计算机视觉_06

gradient =||dx||+||dy||

theta= atan(gradY / gradX) * 57.3  注意这里的角度转换

//******************Sobel算子计算X、Y方向梯度 以及  梯度方向角********************
//第一个参数imageSourc原始灰度图像;
//第二个参数imageSobelX是X方向梯度图像;
//第三个参数imageSobelY是Y方向梯度图像;
//第四个参数   theta  是梯度方向角数组指针  下一步很重要 就是要用这个值来计算
//*************************************************************
void  SobelGradDirction(const Mat imageSource, Mat& imageX, Mat& imageY, Mat& gradXY, Mat& theta)
{
	imageX = Mat::zeros(imageSource.size(), CV_32SC1);
	imageY = Mat::zeros(imageSource.size(), CV_32SC1);
	gradXY = Mat::zeros(imageSource.size(), CV_32SC1);
	theta = Mat::zeros(imageSource.size(), CV_32SC1);

	int rows = imageSource.rows;
	int cols = imageSource.cols;

	int stepXY = imageX.step;
	int step = imageSource.step;
	/*
	Mat.step参数指图像的一行实际占用的内存长度,
	因为opencv中的图像会对每行的长度自动补齐(8的倍数),
	编程时尽量使用指针,指针读写像素是速度最快的,使用at函数最慢。
	*/
	uchar* PX = imageX.data;
	uchar* PY = imageY.data;
	uchar* P = imageSource.data;
	uchar* XY = gradXY.data;

	for (int i = 1; i < rows - 1; i++)
	{
		for (int j = 1; j < cols - 1; j++)
		{
			int a00 = P[(i - 1) * step + j - 1];
			int a01 = P[(i - 1) * step + j];
			int a02 = P[(i - 1) * step + j + 1];

			int a10 = P[i * step + j - 1];
			int a11 = P[i * step + j];
			int a12 = P[i * step + j + 1];

			int a20 = P[(i + 1) * step + j - 1];
			int a21 = P[(i + 1) * step + j];
			int a22 = P[(i + 1) * step + j + 1];

			double gradY = double(a02 + 2 * a12 + a22 - a00 - 2 * a10 - a20);
			double gradX = double(a00 + 2 * a01 + a02 - a20 - 2 * a21 - a22);


			imageX.at<int>(i, j) = abs(gradX);
			imageY.at<int>(i, j) = abs(gradY);
			if (gradX == 0)
			{
				gradX = 0.000000000001;
			}
			theta.at<int>(i, j) = atan(gradY / gradX) * 57.3;
			theta.at<int>(i, j) = (theta.at<int>(i, j) + 360) % 360;
			gradXY.at<int>(i, j) = sqrt(gradX * gradX + gradY * gradY);
			//XY[i*stepXY + j*(stepXY / step)] = sqrt(gradX*gradX + gradY*gradY);
		}

	}
	convertScaleAbs(imageX, imageX);
	convertScaleAbs(imageY, imageY);
	convertScaleAbs(gradXY, gradXY);
}

 

opencv hash对比_人工智能_07

opencv hash对比_算法_08

 这个不明显,所以我打算换个图像test

opencv hash对比_计算机视觉_09

4、局部非极大值抑制

这里我们就要用到上面一步在sobel里面计算求得的x y 方向以及梯度方向的那些 东西了。

原理:

拿到当前点的梯度方向[0,360],判断其在那个区域,计算梯度方向(一个方向,两个值)在不同权重下(w=dy/dx)的灰度值t1 t2, 最后判断当前点灰度值current 和t1 t2的大小比较,如果当前值current小于t1 t2中的任何一个那么,当前的点就不会是边缘的候选点,current=0;

下面我们看一下梯度的分布:

[0-45] U[180-225]

opencv hash对比_算法_10

 [45-90] U[225-270]

opencv hash对比_计算机视觉_11

 [90-135] U[270-315]

opencv hash对比_算法_12

 [135-180] U[315-360]

opencv hash对比_算法_13

code:

/// <summary>
///  局部极大值抑制 ,计算八领域  沿着该点梯度方向,比较前后两个点的幅值大小,若该点大于前后两点,则保留,若该点小于前后两点任意一点,则置为0;
/// </summary>
/// <param name="imageInput"> 输入的图像</param>
/// <param name="imageOutput"></param>
/// <param name="theta"></param>
/// <param name="imageX"> </param>
/// <param name="imageY"></param>
void NonLocalMaxValue(const Mat imageInput, Mat& imageOutput, const Mat& theta, const Mat& imageX, const Mat& imageY)
{
	if (!imageInput.data || imageInput.channels() != 1)
	{
		return;
	}
	imageOutput = imageInput.clone();
	int  rows = imageOutput.rows;
	int  cols = imageOutput.cols;

	int  g00, g01, g02, g10, g11, g12, g20, g21, g22;
	int  g1, g2, g3, g4;
	for (size_t i = 1; i < rows-1; i++)
	{
		for (size_t j = 1; j < cols-1; j++)
		{
			// 第一行
			g00 = imageOutput.at<uchar>(i - 1, j - 1);
			g01 = imageOutput.at<uchar>(i - 1, j);
			g02 = imageOutput.at<uchar>(i - 1, j+1);

			// 第二行
			g10 = imageOutput.at<uchar>(i , j - 1);
			g11 = imageOutput.at<uchar>(i , j);
			g12 = imageOutput.at<uchar>(i, j + 1);

			// 第三行
			g20 = imageOutput.at<uchar>(i+1, j - 1);
			g21 = imageOutput.at<uchar>(i+1, j);
			g22 = imageOutput.at<uchar>(i+1, j + 1);
			// 当前点的梯度方向 
			int  direction = theta.at<int>(i, j);

			g1 = 0; 
			g2 = 0;
			g3 = 0;
			g4 = 0;

			// 保存亚像素点插值得到的灰度值 
			double  t1 = 0;
			double  t2 = 0;


			// 计算权重 
			double  w = fabs((double)imageY.at<uchar>(i,j)  / (double)imageX.at<uchar>(i, j));
			if (w==0)
			{
				w = 0.0000001;
			}
			if (w>1)
			{
				w = 1 / w;
			}

			//  g00     g01   g02
			//  g10     g11   g12
			//  g20     g21   g22
			// ================================
			if ((0 <= direction && direction < 45) || 180 <= direction && direction < 225)
			{
				t1 = g10 * (1 - w) + g20 * (w);
				t2 = g02 * (w)+g12 * (1 - w);
			}

			if ((45 <= direction && direction < 90) || 225 <= direction && direction < 270)
			{
				t1  = g01 * (1 - w) + g02 * (w);
				t2  = g20 * (w)+g21 * (1 - w);
			}

			if ((90 <= direction && direction < 135) || 270 <= direction && direction < 315)
			{
				t1  = g00 * (w)+g01 * (1 - w);
				t2  = g21 * (1 - w) + g22 * (w);
			}

			if ((135 <= direction && direction < 180) || 315 <= direction && direction < 360)
			{
				t1  = g00 * (w)+g10 * (1 - w);
				t2  = g12 * (1 - w) + g22 * (w);
			}
		
			if (imageInput.at<uchar>(i,j)<t1 || imageInput.at<uchar>(i, j) < t2)
			{
				imageOutput.at<uchar>(i, j) = 0;
			}
		}
	}

}

opencv hash对比_人工智能_14

5、 双阈值连接处理

双阈值处理

给定一个高阈值high   一个低阈值low, low*[1.5,2]=high 这个是给定规则

判断条件就是

                      当前current<low  ,那么current=0

                       low<current<hight  current 不处理 

                       current>hight   current=255

/// <summary>
///     双阈值原理:   
///   制定一个低阈值 L  一个 高阈值 H,一般取H为整体图像灰度分布的 7成 并且H为1.5-2L
///  灰度值<L   gray=0, gray>H gray=255;
/// </summary>
/// <param name="imageIn"></param>
/// <param name="low"></param>
/// <param name="hight"></param>
void DoubleThreshold(Mat& imageIn, const double low, const double hight)
{
	if (!imageIn.data || imageIn.channels() != 1)
	{
		return;
	}
	int  rows = imageIn.rows;
	int  cols = imageIn.cols;
	
	double  gray;
	for (size_t i = 0; i < rows ; i++)
	{
		for (size_t j = 0; j < cols ; j++)
		{
			gray = imageIn.at<uchar>(i, j);
			gray = gray > hight ? (255) : (gray < low) ? (0) : gray;
			imageIn.at<uchar>(i, j) = gray;
		}
	}
}

 

opencv hash对比_opencv_15

 将边缘链接起来

经过上每一步的双阈值处理,我们基本上已经拿到了边缘点的候选点,下一步就是将这些边缘点联合起来,组成一个边缘轮廓

这里我们再次使用双阈值的机制  low  和 hight   和当前点的灰度值current 

规则如下: current  的8邻域的灰度值 M介于【low,255】中,有,可能是边缘点,这个领域的点M=255 ,并且回退 , 如果领域类没有 说明这个点是一个孤立的点 不做处理,

最后判断图像中所有的点,不是255 就是0 ,生成边缘

// 在双阈值的时候我们已经将大于高阈值的变成255 了,那么在低阈值和255 之间可能有边缘
// 这里主要处理的就是这部分灰度判断  ,检查其8领域,看其邻域中与没有是255 的
// 如果有,那么就需要找到这个点,将这个点加入边缘中,开始回退,也就是说要走到上一步,行和列都要
//回退1个 的像素, row =row-1  col=col-1


void DoubleThresholdLink(Mat& imageInput, int lowThreshold, int highThreshold)
{
	for (int i = 1; i < imageInput.rows - 1; i++)
	{
		for (int j = 1; j < imageInput.cols - 1; j++)
		{
			// 在[lowThreshold ,255 ]区间的进行处理
			if (imageInput.at<uchar>(i, j) > lowThreshold && imageInput.at<uchar>(i, j) < 255)
			{
				 // 判断其8 领域中是否有灰度值是255的 
				if (imageInput.at<uchar>(i - 1, j - 1) == 255 || imageInput.at<uchar>(i - 1, j) == 255 || imageInput.at<uchar>(i - 1, j + 1) == 255 ||
					imageInput.at<uchar>(i, j - 1) == 255 || imageInput.at<uchar>(i, j) == 255 || imageInput.at<uchar>(i, j + 1) == 255 ||
					imageInput.at<uchar>(i + 1, j - 1) == 255 || imageInput.at<uchar>(i + 1, j) == 255 || imageInput.at<uchar>(i + 1, j + 1) == 255)
				{
					// 如果领域中有255 的 ,当前的点是边缘  ,那么就需要回退,
					imageInput.at<uchar>(i, j) = 255;
					DoubleThresholdLink(imageInput, lowThreshold, highThreshold); //递归调用
				}
				else
				{
					imageInput.at<uchar>(i, j) = 0;
				}
			}
		}
	}
}

opencv hash对比_算法_16

opencv 库结果:

opencv hash对比_计算机视觉_17

还是用opencv库吧,结果比这个好多了 

三、halcon 效果对比

opencv hash对比_算法_18

halcon的效果更好

code

read_image (Grayimage, 'C:/Users/alber/Desktop/opencv_images/1/grayImage.jpg')
edges_sub_pix (Grayimage, Edges, 'canny', 1, 20, 40)