2000字范文,分享全网优秀范文,学习好帮手!
2000字范文 > 计算机视觉基础-图像处理(图像滤波)cpp+python

计算机视觉基础-图像处理(图像滤波)cpp+python

时间:2022-11-26 15:19:21

相关推荐

计算机视觉基础-图像处理(图像滤波)cpp+python

4.1 简介

图像的实质是一种二维信号,滤波是信号处理中的一个重要概念。在图像处理中,滤波是一种非常常见的技术,它们的原理非常简单,但是其思想却十分值得借鉴,滤波是很多图像算法的前置步骤或基础,掌握图像滤波对理解卷积神经网络也有一定帮助。

4.2 学习目标

了解图像滤波的分类和基本概念理解均值滤波/方框滤波、高斯滤波的原理掌握OpenCV框架下滤波API的使用

4.3 内容介绍

1、均值滤波/方框滤波、高斯滤波的原理2、OpenCV代码实践

4.4 算法理论介绍

4.4.1 均值滤波、方框滤波

1. 滤波分类

线性滤波: 对邻域中的像素的计算为线性运算时,如利用窗口函数进行平滑加权求和的运算,或者某种卷积运算,都可以称为线性滤波。常见的线性滤波有:均值滤波、高斯滤波、盒子滤波、拉普拉斯滤波等等,通常线性滤波器之间只是模版系数不同。

非线性滤波: 非线性滤波利用原始图像跟模版之间的一种逻辑关系得到结果,如最值滤波器,中值滤波器。比较常用的有中值滤波器和双边滤波器。

2. 方框(盒子)滤波

方框滤波是一种非常有用的线性滤波,也叫盒子滤波,均值滤波就是盒子滤波归一化的特殊情况。应用: 可以说,一切需要求某个邻域内像素之和的场合,都有方框滤波的用武之地,比如:均值滤波、引导滤波、计算Haar特征等等。

优势:就一个字:快!它可以使复杂度为O(MN)的求和,求方差等运算降低到O(1)或近似于O(1)的复杂度,也就是说与邻域尺寸无关了,有点类似积分图吧,但是比积分图更快(与它的实现方式有关)。

在原理上,是采用一个卷积核与图像进行卷积:

其中:

可见,归一化了就是均值滤波;不归一化则可以计算每个像素邻域上的各种积分特性,方差、协方差,平方和等等。

3. 均值滤波

均值滤波是指任意一点的像素值,都是周围 N \times M 个像素值的均值。例如下图中,红色点的像素值是其周围蓝色背景区域像素值之和除25,25=5\times5 是蓝色区域的大小。

均值滤波详细的计算方法如下图所示:

其中5x5的矩阵称为核,针对原始图像内的像素点,采用核进行处理,得到结果图像,如下图所示:

提取 1/25 可以将核转换为如下形式:

result = cv2.blur(原始图像,核大小)其中,核大小是以(宽度,高度)表示的元组形式。常见的形式包括:核大小(3,3)和(5,5)。

均值滤波的应用场合: 根据冈萨雷斯书中的描述,均值模糊可以模糊图像以便得到感兴趣物体的粗略描述,也就是说,去除图像中的不相关细节,其中“不相关”是指与滤波器模板尺寸相比较小的像素区域,从而对图像有一个整体的认知。即为了对感兴趣的物体得到一个大致的整体的描述而模糊一幅图像,忽略细小的细节。

均值滤波的缺陷: 均值滤波本身存在着固有的缺陷,即它不能很好地保护图像细节,在图像去噪的同时也破坏了图像的细节部分,从而使图像变得模糊,不能很好地去除噪声点。特别是椒盐噪声。

均值滤波是上述方框滤波的特殊情况,均值滤波方法是:对待处理的当前像素,选择一个模板,该模板为其邻近的若干个像素组成,用模板的均值(方框滤波归一化)来替代原像素的值。公式表示为:

g(x,y)为该邻域的中心像素,n跟系数模版大小有关,一般3*3邻域的模板,n取为9,如:

当然,模板是可变的,一般取奇数,如5 * 5 , 7 * 7等等。

注:在实际处理过程中可对图像边界进行扩充,扩充为0或扩充为邻近的像素值。

4.4.1 高斯滤波

高斯滤波让临近的像素具有更高的重要度,对周围像素计算加权平均值,较近的像素具有较大的权重值。如下图所示,中心位置权重最高为0.4。

应用: 高斯滤波是一种线性平滑滤波器,对于服从正态分布的噪声有很好的抑制作用。在实际场景中,我们通常会假定图像包含的噪声为高斯白噪声,所以在许多实际应用的预处理部分,都会采用高斯滤波抑制噪声,如传统车牌识别等。

高斯滤波和均值滤波一样,都是利用一个掩膜和图像进行卷积求解。不同之处在于:均值滤波器的模板系数都是相同的为1,而高斯滤波器的模板系数,则随着距离模板中心的增大而系数减小(服从二维高斯分布)。所以,高斯滤波器相比于均值滤波器对图像个模糊程度较小,更能够保持图像的整体细节。

其中不必纠结于系数,因为它只是一个常数!并不会影响互相之间的比例关系,并且最终都要进行归一化,所以在实际计算时我们是忽略它而只计算后半部分:

其中(x,y)为掩膜内任一点的坐标,(ux,uy)为掩膜内中心点的坐标,在图像处理中可认为是整数;σ是标准差。

例如:要产生一个3×3的高斯滤波器模板,以模板的中心位置为坐标原点进行取样。模板在各个位置的坐标,如下所示(x轴水平向右,y轴竖直向下)。

这样,将各个位置的坐标带入到高斯函数中,得到的值就是模板的系数。 对于窗口模板的大小为 (2k+1)×(2k+1),模板中各个元素值的计算公式如下:

这样计算出来的模板有两种形式:小数和整数。

小数形式的模板,就是直接计算得到的值,没有经过任何的处理;整数形式的,则需要进行归一化处理,将模板左上角的值归一化为1。使用整数的模板时,需要在模板的前面加一个系数,系数为模板系数和的倒数。

生成高斯掩膜(小数形式)

知道了高斯分布原理,实现起来也就不困难了。

首先我们要确定我们生产掩模的尺寸wsize,然后设定高斯分布的标准差。生成的过程,我们首先根据模板的大小,找到模板的中心位置center。 然后就是遍历,根据高斯分布的函数,计算模板中每个系数的值。

最后模板的每个系数要除以所有系数的和。这样就得到了小数形式的模板。

/////x,y方向联合实现获取高斯模板//void generateGaussMask(cv::Mat& Mask,cv::Size wsize, double sigma){Mask.create(wsize,CV_64F);int h = wsize.height;int w = wsize.width;int center_h = (h - 1) / 2;int center_w = (w - 1) / 2;double sum = 0.0;double x, y;for (int i = 0; i < h; ++i){y = pow(i - center_h, 2);for (int j = 0; j < w; ++j){x = pow(j - center_w, 2);//因为最后都要归一化的,常数部分可以不计算,也减少了运算量double g = exp(-(x + y) / (2 * sigma*sigma));Mask.at<double>(i, j) = g;sum += g;}}Mask = Mask / sum;}

3×3,σ=0.8的小数型模板:

σ的意义及选取

通过上述的实现过程,不难发现,高斯滤波器模板的生成最重要的参数就是高斯分布的标准差σ。标准差代表着数据的离散程度,如果σ较小,那么生成的模板的中心系数较大,而周围的系数较小,这样对图像的平滑效果就不是很明显;反之,σ较大,则生成的模板的各个系数相差就不是很大,比较类似均值模板,对图像的平滑效果比较明显。

来看下一维高斯分布的概率分布密度图:

于是我们有如下结论:σ越小分布越瘦高,σ越大分布越矮胖。

σ越大,分布越分散,各部分比重差别不大,于是生成的模板各元素值差别不大,类似于平均模板;σ越小,分布越集中,中间部分所占比重远远高于其他部分,反映到高斯模板上就是中心元素值远远大于其他元素值,于是自然而然就相当于中间值得点运算。

4.4.2 中值滤波

在使用邻域平均法去噪的同时也使得边界变得模糊。而中值滤波是非线性的图像处理方法,在去噪的同时可以兼顾到边界信息的保留。选一个含有奇数点的窗口,将这个窗口在图像上扫描,把窗口中所含的像素点按灰度级的升或降序排列,取位于中间的灰度值来代替该点的灰度值。计算过程如下图所示:

4.5 基于OpenCV的实现

工具:OpenCV3.1.0+VS

平台:WIN10

一、函数原型(python)

图像过滤

操作如下:保持这个内核在一个像素上,将所有低于这个内核的25个像素相加,取其平均值,然后用新的平均值替换中心像素。它将对图像中的所有像素继续此操作。试试这个代码,并检查结果:

import numpy as npimport cv2 as cvfrom matplotlib import pyplot as pltimg = cv.imread('E:\\python-project\\hui.png')kernel = np.ones((5,5),np.float32)/25dst = cv.filter2D(img,-1,kernel)plt.subplot(121),plt.imshow(img),plt.title('Original')plt.xticks([]), plt.yticks([])plt.subplot(122),plt.imshow(dst),plt.title('Averaging')plt.xticks([]), plt.yticks([])plt.show()

图像模糊(图像平滑)

通过将图像与低通滤波器内核进行卷积来实现图像模糊。这对于消除噪音很有用。它实际上从图像中消除了高频部分(例如噪声,边缘)。因此,在此操作中边缘有些模糊。(有一些模糊技术也可以不模糊边缘)。OpenCV主要提供四种类型的模糊技术。

1.平均

这是通过将图像与归一化框滤镜进行卷积来完成的。它仅获取内核区域下所有像素的平均值,并替换中心元素。这是通过功能cv.blur()或cv.boxFilter()完成的。检查文档以获取有关内核的更多详细信息。我们应该指定内核的宽度和高度。

注意 如果您不想使用标准化的框式过滤器,请使用cv.boxFilter()。将参数normalize = False传递给函数。

查看下面的示例演示,其内核大小为5x5:

import cv2 as cvimport numpy as npfrom matplotlib import pyplot as pltimg = cv.imread('E:\python-project\hui.jpg')blur = cv.blur(img,(5,5))plt.subplot(121),plt.imshow(img),plt.title('Original')plt.xticks([]), plt.yticks([])plt.subplot(122),plt.imshow(blur),plt.title('Blurred')plt.xticks([]), plt.yticks([])plt.show()

2.高斯模糊

在这种情况下,代替盒式滤波器,使用了高斯核。这是通过功能cv.GaussianBlur() 完成的。我们应指定内核的宽度和高度,该宽度和高度应为正数和奇数。我们还应指定X和Y方向的标准偏差,分别为sigmaX和sigmaY。如果仅指定sigmaX,则将sigmaY与sigmaX相同。如果两个都为零,则根据内核大小进行计算。高斯模糊对于从图像中去除高斯噪声非常有效。

如果需要,可以使用函数cv.getGaussianKernel() 创建高斯内核。

可以修改以上代码以实现高斯模糊:

blur = cv.GaussianBlur(img,(5,5),0)

import cv2 as cvimport numpy as npfrom matplotlib import pyplot as pltimg = cv.imread('E:\python-project\hui.jpg')blur = cv.GaussianBlur(img,(5,5),0)plt.subplot(121),plt.imshow(img),plt.title('Original')plt.xticks([]), plt.yticks([])plt.subplot(122),plt.imshow(blur),plt.title('Blurred')plt.xticks([]), plt.yticks([])plt.show()

3.中位模糊

在这里,函数cv.medianBlur() 提取内核区域下所有像素的中值,并将中心元素替换为该中值。这对于消除图像中的椒盐噪声非常有效。有趣的是,在上述过滤器中,中心元素是新计算的值,该值可以是图像中的像素值或新值。但是在中值模糊中,中心元素总是被图像中的某些像素值代替。有效降低噪音。其内核大小应为正奇数整数。

在此演示中,我向原始图像添加了50%的噪声并应用了中值模糊。检查结果:

median = cv.medianBlur(img,5)

import cv2 as cvimport numpy as npfrom matplotlib import pyplot as pltimg = cv.imread('E:\python-project\hui.jpg')median = cv.medianBlur(img,5)plt.subplot(121),plt.imshow(img),plt.title('Original')plt.xticks([]), plt.yticks([])plt.subplot(122),plt.imshow(blur),plt.title('median')plt.xticks([]), plt.yticks([])plt.show()

4.双边滤波

cv.bilateralFilter() 在去除噪声的同时保持边缘清晰锐利非常有效。但是,与其他过滤器相比,该操作速度较慢。我们已经看到,高斯滤波器采用像素周围的邻域并找到其高斯加权平均值。高斯滤波器仅是空间的函数,也就是说,滤波时会考虑附近的像素。它不考虑像素是否具有几乎相同的强度。它不考虑像素是否是边缘像素。因此它也模糊了边缘,这是我们不想做的。

双边滤波器在空间中也采用高斯滤波器,但是又有一个高斯滤波器,它是像素差的函数。空间的高斯函数确保仅考虑附近像素的模糊,而强度差的高斯函数确保仅考虑强度与中心像素相似的那些像素的模糊。由于边缘的像素强度变化较大,因此可以保留边缘。

以下示例显示了使用双边过滤器(有关参数的详细信息,请访问docs)。

blur = cv.bilateralFilter(img,9,75,75)

结果:

import cv2 as cvimport numpy as npfrom matplotlib import pyplot as pltimg = cv.imread('E:\python-project\hui.jpg')blur = cv.bilateralFilter(img,9,75,75)plt.subplot(121),plt.imshow(img),plt.title('Original')plt.xticks([]), plt.yticks([])plt.subplot(122),plt.imshow(blur),plt.title('blur')plt.xticks([]), plt.yticks([])plt.show()

二、函数原型(c++)

1.方框滤波

void boxFilter( InputArray src, OutputArray dst, int ddepth,Size ksize, Point anchor = Point(-1,-1),bool normalize = true,int borderType = BORDER_DEFAULT );

参数:

src – input image.dst – output image of the same size and type as src.ddepth – the output image depth (-1 to use src.depth()).ksize – blurring kernel size. anchoranchor point; default value Point(-1,-1) means that the anchor is at the kernel center.normalize – flag, specifying whether the kernel is normalized by its area or not.borderType – border mode used to extrapolate pixels outside of the image.

可参考:cv::BorderTypes

2.均值滤波

void cv::blur(InputArray src,OutputArray dst,Size ksize,Point anchor = Point(-1,-1),int borderType = BORDER_DEFAULT )

参数:

src – input image; it can have any number of channels, which are processed independently, but thedepth – should be CV_8U, CV_16U, CV_16S, CV_32F or CV_64F.dst – output image of the same size and type as src.ksize – blurring kernel size.anchor – anchor point; default value Point(-1,-1) means that the anchor is at the kernel center.borderType – border mode used to extrapolate pixels outside of the image,

2.高斯滤波

void GaussianBlur(InputArray src, OutputArray dst, Size ksize, double sigmaX, double sigmaY=0,int borderType=BORDER_DEFAULT )

参数:

src — input image; the image can have any number of channels, which are processed independently, but the depth should be CV_8U, CV_16U, CV_16S, CV_32F or CV_64F.dst — output image of the same size and type as src.ksize Gaussian kernel size. ksize.width and ksize.height can differ but they both must be positive and odd. Or, they can be zero's and then they are computed from sigma.sigmaX — Gaussian kernel standard deviation in X direction.sigmaY — Gaussian kernel standard deviation in Y direction; if sigmaY is zero, it is set to be equal to sigmaX, if both sigmas are zeros, they are computed from ksize.width and ksize.height, respectively (see cv::getGaussianKernel for details); to fully control the result regardless of possible future modifications of all this semantics, it is recommended to specify all of ksize, sigmaX, and sigmaY.borderType — pixel extrapolation method

实现示例(c++)

1.方框滤波

#include <iostream>#include <opencv2/core.hpp>#include <opencv2/highgui.hpp>#include <opencv2/imgproc.hpp>///求积分图-优化方法//由上方negral(i-1,j)加上当前行的和即可//对于W*H图像:2*(W-1)*(H-1)次加减法//比常规方法快1.5倍左右/void Fast_integral(cv::Mat& src, cv::Mat& dst){int nr = src.rows;int nc = src.cols;int sum_r = 0;dst = cv::Mat::zeros(nr + 1, nc + 1, CV_64F);for (int i = 1; i < dst.rows; ++i){for (int j = 1, sum_r = 0; j < dst.cols; ++j){//行累加,因为积分图相当于在原图上方加一行,左边加一列,所以积分图的(1,1)对应原图(0,0),(i,j)对应(i-1,j-1)sum_r = src.at<uchar>(i - 1, j - 1) + sum_r; //行累加dst.at<double>(i, j) = dst.at<double>(i - 1, j) + sum_r;}}}////盒子滤波-均值滤波是其特殊情况/void BoxFilter(cv::Mat& src, cv::Mat& dst, cv::Size wsize, bool normalize){//图像边界扩充if (wsize.height % 2 == 0 || wsize.width % 2 == 0){fprintf(stderr, "Please enter odd size!");exit(-1);}int hh = (wsize.height - 1) / 2;int hw = (wsize.width - 1) / 2;cv::Mat Newsrc;cv::copyMakeBorder(src, Newsrc, hh, hh, hw, hw, cv::BORDER_REFLECT);//以边缘为轴,对称src.copyTo(dst);//计算积分图cv::Mat inte;Fast_integral(Newsrc, inte);//BoxFilterdouble mean = 0;for (int i = hh + 1; i < src.rows + hh + 1; ++i){//积分图图像比原图(边界扩充后的)多一行和一列 for (int j = hw + 1; j < src.cols + hw + 1; ++j){double top_left = inte.at<double>(i - hh - 1, j - hw - 1);double top_right = inte.at<double>(i - hh - 1, j + hw);double buttom_left = inte.at<double>(i + hh, j - hw - 1);double buttom_right = inte.at<double>(i + hh, j + hw);if (normalize == true)mean = (buttom_right - top_right - buttom_left + top_left) / wsize.area();elsemean = buttom_right - top_right - buttom_left + top_left;//一定要进行判断和数据类型转换if (mean < 0)mean = 0;else if (mean>255)mean = 255;dst.at<uchar>(i - hh - 1, j - hw - 1) = static_cast<uchar>(mean);}}}int main(){cv::Mat src = cv::imread("I:\\Learning-and-Practice\\Change\\Image process algorithm\\Img\\woman2.jpeg");if (src.empty()){return -1;}//自编BoxFilter测试cv::Mat dst1;double t2 = (double)cv::getTickCount(); //测时间if (src.channels() > 1){std::vector<cv::Mat> channel;cv::split(src, channel);BoxFilter(channel[0], channel[0], cv::Size(7, 7), true);//盒子滤波BoxFilter(channel[1], channel[1], cv::Size(7, 7), true);//盒子滤波BoxFilter(channel[2], channel[2], cv::Size(7, 7), true);//盒子滤波cv::merge(channel,dst1);}elseBoxFilter(src, dst1, cv::Size(7, 7), true);//盒子滤波t2 = (double)cv::getTickCount() - t2;double time2 = (t2 *1000.) / ((double)cv::getTickFrequency());std::cout << "FASTmy_process=" << time2 << " ms. " << std::endl << std::endl;//opencv自带BoxFilter测试cv::Mat dst2;double t1 = (double)cv::getTickCount(); //测时间cv::boxFilter(src, dst2, -1, cv::Size(7, 7), cv::Point(-1, -1), true, cv::BORDER_CONSTANT);//盒子滤波t1 = (double)cv::getTickCount() - t1;double time1 = (t1 *1000.) / ((double)cv::getTickFrequency());std::cout << "Opencvbox_process=" << time1 << " ms. " << std::endl << std::endl;cv::namedWindow("src");cv::imshow("src", src);cv::namedWindow("ourdst",CV_WINDOW_NORMAL);cv::imshow("ourdst", dst1);cv::namedWindow("opencvdst", CV_WINDOW_NORMAL);cv::imshow("opencvdst", dst2);cv::waitKey(0);}

2、均值滤波

#include <opencv.hpp>#include <opencv2/core.hpp>#include <opencv2/highgui.hpp>#include <opencv2/imgproc.hpp>void MeanFilater(cv::Mat& src,cv::Mat& dst,cv::Size wsize){//图像边界扩充:窗口的半径if (wsize.height % 2 == 0 || wsize.width % 2 == 0){fprintf(stderr,"Please enter odd size!" );exit(-1);}int hh = (wsize.height - 1) / 2;int hw = (wsize.width - 1) / 2;cv::Mat Newsrc;cv::copyMakeBorder(src, Newsrc, hh, hh, hw, hw, cv::BORDER_REFLECT_101);//以边缘为轴,对称dst=cv::Mat::zeros(src.size(),src.type());//均值滤波int sum = 0;int mean = 0;for (int i = hh; i < src.rows + hh; ++i){for (int j = hw; j < src.cols + hw;++j){for (int r = i - hh; r <= i + hh; ++r){for (int c = j - hw; c <= j + hw;++c){sum = Newsrc.at<uchar>(r, c) + sum;}}mean = sum / (wsize.area());dst.at<uchar>(i-hh,j-hw)=mean;sum = 0;mean = 0;}}}int main(){cv::Mat src = cv::imread("I:\\Learning-and-Practice\\Change\\Image process algorithm\\Img\\Fig0334(a)(hubble-original).tif");if (src.empty()){return -1;}if (src.channels() > 1)cv::cvtColor(src,src,CV_RGB2GRAY);cv::Mat dst;cv::Mat dst1;cv::Size wsize(7,7);double t2 = (double)cv::getTickCount();MeanFilater(src, dst, wsize); //均值滤波t2 = (double)cv::getTickCount() - t2;double time2 = (t2 *1000.) / ((double)cv::getTickFrequency());std::cout << "FASTmy_process=" << time2 << " ms. " << std::endl << std::endl;cv::namedWindow("src");cv::imshow("src", src);cv::namedWindow("dst");cv::imshow("dst", dst);cv::imwrite("I:\\Learning-and-Practice\\Change\\Image process algorithm\\Image Filtering\\MeanFilter\\Mean_hubble.jpg",dst);cv::waitKey(0);}

3.高斯滤波

//按二维高斯函数实现高斯滤波///void GaussianFilter(cv::Mat& src, cv::Mat& dst, cv::Mat window){int hh = (window.rows - 1) / 2;int hw = (window.cols - 1) / 2;dst = cv::Mat::zeros(src.size(),src.type());//边界填充cv::Mat Newsrc;cv::copyMakeBorder(src, Newsrc, hh, hh, hw, hw, cv::BORDER_REPLICATE);//边界复制//高斯滤波for (int i = hh; i < src.rows + hh;++i){for (int j = hw; j < src.cols + hw; ++j){double sum[3] = {0 };for (int r = -hh; r <= hh; ++r){for (int c = -hw; c <= hw; ++c){if (src.channels() == 1){sum[0] = sum[0] + Newsrc.at<uchar>(i + r, j + c) * window.at<double>(r + hh, c + hw);}else if (src.channels() == 3){cv::Vec3b rgb = Newsrc.at<cv::Vec3b>(i+r,j + c);sum[0] = sum[0] + rgb[0] * window.at<double>(r + hh, c + hw);//Bsum[1] = sum[1] + rgb[1] * window.at<double>(r + hh, c + hw);//Gsum[2] = sum[2] + rgb[2] * window.at<double>(r + hh, c + hw);//R}}}for (int k = 0; k < src.channels(); ++k){if (sum[k] < 0)sum[k] = 0;else if (sum[k]>255)sum[k] = 255;}if (src.channels() == 1){dst.at<uchar>(i - hh, j - hw) = static_cast<uchar>(sum[0]);}else if (src.channels() == 3){cv::Vec3b rgb = {static_cast<uchar>(sum[0]), static_cast<uchar>(sum[1]), static_cast<uchar>(sum[2]) };dst.at<cv::Vec3b>(i-hh, j-hw) = rgb;}}}}

效果

参考自:

TechArtisan6

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。