您好,欢迎来到步遥情感网。
搜索
您的当前位置:首页肖迪毕业设计(基于MATLAB的图像增强算法研究与仿真)

肖迪毕业设计(基于MATLAB的图像增强算法研究与仿真)

来源:步遥情感网
洛阳理工学院毕业设计(论文)

基于MATLAB的图像增强算法研究与仿真

摘 要

图像增强是指跟据图像中存在的问题,按特定的需求来突出一幅图像中的某些信息,同时,削弱或去除某些冗余信息的处理方法。其主要目的是使得处理后的图像对给定的应用比原来的图像更加有效同时可以有效的改善图像质量。图像增强技术主要包含直方图灰度变换处理、直方图均衡化处理、图像平滑滤波处理、图像锐化处理等。本文先对图像增强的原理进行论述,然后对图像增强的方法分类并给出直方图灰度变换、直方图均衡化,平滑滤波和锐化等几种常用的增强方法,通过MATLAB实验仿真得出的实际处理效果来对比各种算法的优缺点,讨论不同的增强算法的技术要点,并对其图像增强方法进行性能评价。

关键词:MATLAB , 图像增强 ,直方图增强 ,平滑,锐化

I

洛阳理工学院毕业设计(论文)

Image enhancement technology based on MATLAB

ABSTRACT

The image intensification is refers specificly according to needs to highlight in an image certain informations, simultaneously, weakens the information processing method which or removes certain does not need.After its main purpose is the processing image is more effective than to certain specific applications the original image.Image enhancement technology mainly includes histogram gray level transformation, histogram equalization, image smoothing processing, image intensification treatment etc. This article first overview of the principle of image enhancement and image enhancement method of classification and histogram is given gray level transformation, histogram equalization, smoothing filtering and sharpening and so on several common enhancement method, through the MATLAB experiment it is concluded that the actual processing effect to compare the advantages and disadvantages of various algorithms, discussed the main technical points of the different enhancement algorithm, and its image enhancement method for performance evaluation.

KEY WORDS: matlab,image enhancement, histogram enhancement,smoothing sharpening

II

洛阳理工学院毕业设计(论文)

目 录

前 言 ................................................................................................ 1 第1章 绪论 ...................................................................................... 1

1.1 课题研究背景及意义 ........................................................... 1 1.2 国内外研究现状 ................................................................... 1 1.3 研究内容 ............................................................................... 2 第2章 MATLAB简介 ...................................................................... 3

2.1 MATLAB主要功能 ............................................................... 3 2.2 MATLAB优势 ....................................................................... 3

2.2.1 工作平台与编辑环境 ................................................. 3 2.2.2 程序语言 ..................................................................... 3 2.2.3 科学计算机数据处理能力 .......................................... 4 2.2.4 图形处理功能 ............................................................. 4 2.2.5 模块集合工具箱 ......................................................... 5 2.4 Matlab常用工具箱 ................................................................ 5 2.5 小结 ...................................................................................... 5 第3章 图像增强的基本理论 ........................................................... 7

3.1 图像增强的定义 ................................................................... 7 3.2 图像增强的分类及方法 ....................................................... 7 3.3 常用的图像增强方法 ........................................................... 8

3.3.1 直方图均衡化 ............................................................. 8 3.3.2 灰度变换法 ................................................................. 8 3.3.3平滑噪声 ...................................................................... 9 3.3.4 锐化 ............................................................................. 9

第4章 MATLAB图像增强 ............................................................ 10

4.1图像增强技术概述 .............................................................. 10 4.2直方图灰度变换 .................................................................. 10

4.2.1图像的灰度 ................................................................ 10 4.2.2灰度直方图 ................................................................ 11

III

洛阳理工学院毕业设计(论文)

4.3直方图均衡化 ...................................................................... 13 4.4平滑滤波 .............................................................................. 14

4.4.1均值滤波 .................................................................... 14 4.4.2中值滤波 .................................................................... 16 4.4.3低通滤波 .................................................................... 18 4.4.4维纳滤波 .................................................................... 18 4.5 锐化 .................................................................................... 22

4.5.1 拉普拉斯算子 ........................................................... 22 4.5.2 Sobel算子 .................................................................. 24 4.5.3 Prewitt算子 ............................................................... 25

结 论 .............................................................................................. 27 谢 辞 ................................................................................................ 28 参考文献 .......................................................................................... 29 附 录 .............................................................................................. 31 外文资料翻译 .................................................................................. 35

IV

洛阳理工学院毕业设计(论文)

前 言

图像是人类获取外界信息,感知世界的视觉基础,同时也是表达和传递信息的重要手段。一幅图像一方面可能在成像或传输中受到各种因素的干扰影响,造成图像质量的下降,另一方面可能为了改变图像的色彩来调高图像视感质量或艺术效果,都需要进行图像增强的处理。通过各种图像增强处理技术处理后,使我们从图像中获得更准确的信息和视觉感觉质量。

图像增强处理策略包含两个方面的内容:一是空域处理策略,二是频域处理策略。空域处理是在图像本身存在的二维空间里对其进行处理,根据不同的处理性质又可以分为点处理、图像平滑、图像锐化及图像代数运算等各种处理方法。而频域处理则是用一组正交函数系来逼近原图像信号,获得相应的系数,将对原信号的分析转化到了系数空间域,最后进行相关运算处理后再转化回空间域。在实际图像增强处理中需要两者相互结合使用,以使得图像处理得到理想的结果,改善图像的视感质量,提高视觉识别信息的准确性。

本文介绍了应用Matlab进行图像增强处理的方法,首先在理论上讨论了灰度变换、直方图均衡化、平滑滤波、锐化四种重要的空域变换增强法的工作原理,并由工作原理的差异引出了不同的处理方法,通过Matlab实验仿真对图像进行增强处理,使图像质量得到改善,得出的实际处理效果来对比归纳各种算法的优缺点,讨论不同的增强算法的技术要点,并对其图像增强方法进行性能评价。

1

洛阳理工学院毕业设计(论文)

第1章 绪论

1.1 课题研究背景及意义

在一般情况下,经过图像的传送和转换,如成像、复制、扫描、传输和显示等,经常会造成图像质量的下降,即图像失真。在摄影时由于光照条件不足或过度,会使图像过暗或过亮;光学系统的失真、相对运动、大气流动等都会使图像模糊,传输过程中会引入各种类型的噪声。总之输入的图像在视觉效果和识别方便性等方面可能存在诸多问题,这类问题不妨统称为质量问题。图像增强是指根据特定的需要突出图像中的重要信息,同时减弱或去除不需要的信息。从不同的途径获取的图像,通过进行适当的增强处理,可以将原本模糊不清甚至根本无法分辨的原始图像处理成清晰的富含大量有用信息的可使用图像,有效地去除图像中的噪声、增强图像中的边缘或其他感兴趣的区域,从而更加容易对图像中感兴趣的目标进行检测和测量。处理后的图像是否保持原状已经是无关紧要的了,不会因为考虑到图像的一些理想形式而去有意识的努力重现图像的真实度。图像增强的目的是增强图像的视觉效果,将原图像转换成一种更适合于人眼观察和计算机分析处理的形式。它一般要借助人眼的视觉特性,以取得看起来较好地视觉效果,很少涉及客观和统一的评价标准。增强的效果通常都与具体的图像有关系,靠人的主观感觉加以评价。

1.2 国内外研究现状

图像增强技术的发展大致经历了初创期、发展期、普及期和应用期4个阶段。初创期开始于20世纪60年代,当时的图像采用像素型光栅进行扫描显示,大多采用中、大型机对其进行处理。20世纪70年代进入了发展期,开始大量采用中、大型机进行处理,图像处理也逐渐改用光栅扫描显示方式,特别是出现了CT和卫星遥感图像,对图像增强处理提出了一个更高的要求。到了20世纪80年代,图像增强技术进入普及期,此时的计算机已经能够承担起图形图像处理的任务。20世纪90年代进入了应用期,人们运用数字图像增强技术处理和分析遥感图像,以有效地进行资源和矿

1

洛阳理工学院毕业设计(论文)

藏的勘探、调查、农业和城市的土地规划、作物估产、气象预报、灾害及军事目标的监视等。在生物医学工程方面,运用图像增强技术对X射线图像、超声图像和生物切片显微图像等进行处理,提高图像的清晰度和分辨率。在工业和工程方面,主要应用于无损探伤、质量检测和过程自动控制等方面。在公共安全方面,人像、指纹及其他痕迹的处理和识别,以及交通监控、事故分析等都在不同程度上使用了图像增强技术。图像增强是图像处理的重要组成部分,传统的图像增强方法对于改善图像质量发挥了极其重要的作用。随着对图像技术研究的不断深入和发展,新的图像增强方法不断出现。例如一些学者将模糊映射理论引入到图像增强算法中,提出了包括模糊松弛、模糊熵、模糊类等增强算法来解决增强算法中映射函数选择问题,并且随着交互式图像增强技术的应用,可以主观控制图像增强效果。同时利用直方图均衡技术的图像增强也有许多新的进展:例如提出了多层直方图结合亮度保持的均衡算法、动态分层直方图均衡算法。这些算法通过分割图像,然后在子层图像内做均衡处理,较好地解决了直方图均衡过程中的对比度过拉伸问题,并且可以控制子层灰度映射范围,增强效果较好。

1.3 研究内容

数字图像处理是指将图像信号转换成数字格式并利用计算机对其进行处理的过程。图像增强是数字图像处理的过程中经常采用的一种方法,它对提高图像质量起着重要的作用。本文介绍了应用Matlab进行图像增强处理的方法,首先在理论上讨论了灰度变换、直方图均衡化、平滑滤波、锐化四种重要的空域变换增强法的工作原理,并由工作原理的差异引出了不同的处理方法,通过Matlab实验仿真对图像进行增强处理,使图像质量得到改善,得出的实际处理效果来对比归纳各种算法的优缺点,讨论不同的增强算法的技术要点,并对其图像增强方法进行性能评价。

2

洛阳理工学院毕业设计(论文)

第2章 MATLAB简介

2.1 MATLAB主要功能

它是一种用于算法开发、数据可视化、数据分析以及数值计算的高级技术计算语言和交互式环境。使用它,可以较使用传统的编程语言,如C、C++等,更快的解决技术计算问题。

高级语言可用于技术计算;开发环境可对代码、文件和数据进行管理;数学函数可用于线性代数、统计、傅立叶分析、筛选、优化以及数值积分等;二维和三维图形函数可用于可视化数据;各种工具可用于构建自定义的图形用户界面;各种函数可将基于MATLAB的算法与外部应用程序和语言;其应用范围非常广,包括信号和图像处理、通迅、控制系统设计、测试和测量等众多应用领域。

2.2 MATLAB优势

2.2.1 工作平台与编辑环境

MATLAB由一系列工具组成。这些工具方便用户使用MATLAB的函数和文件,其中许多工具采用的是图形用户界面。包括MATLAB桌面和命令窗口、历史命令窗口、编辑器和调试器、路径搜索和用于用户浏览帮助、工作空间、文件的浏览器。随着MATLAB的商业化以及软件本身的不断升级,MATLAB的用户界面也越来越精致,更加接近Windows的标准界面,人机交互性更强,操作更简单。而且新版本的MATLAB提供了完整的联机查询、帮助系统,极大的方便了用户的使用。简单的编程环境提供了比较完备的调试系统,程序不必经过编译就可以直接运行,而且能够及时地报告出现的错误及进行出错原因分析。

2.2.2 程序语言

MATLAB一个高级的矩阵语言,它包含控制语句、函数、数据结构、输入和输出和面向对象编程特点。用户可以在命令窗口中将输入语句与执行命令同步,也可以先编写好一个较大的复杂的应用程序(M文件)后再

3

洛阳理工学院毕业设计(论文)

一起运行。新版本的MATLAB语言是基于最为流行的C++语言基础上的,因此语法特征与C++语言极为相似,而且更加简单。使之更利于非计算机专业的科技人员使用。而且这种语言可移植性好、可拓展性极强,这也是MATLAB能够深入到科学研究及工程计算各个领域的重要原因。

2.2.3 科学计算机数据处理能力

MATLAB是一个包含大量算法的集合。其可以快捷的实现用户所需的各种计算功能。函数中所使用的算法都是科研和工程计算中的最新研究成果,而前经过了各种优化和差错处理。在通常情况下,可以用它来代替底层编程语言,如C和C++ 。在计算要求相同的情况下,使用MATLAB的编程工作量会大大减少。MATLAB的这些函数集包括从最简单最基本的函数到诸如矩阵,特征向量、快速傅立叶变换的复杂函数。函数所能解决的问题其大致包括矩阵运算和线性方程组的求解、微分方程及偏微分方程的组的求解、符号运算、傅立叶变换和数据的统计分析、工程中的优化问题、稀疏矩阵运算、复数的各种运算、三角函数和其他初等数算、数组操作以及建模动态仿真等。

2.2.4 图形处理功能

图形处理功能MATLAB自产生之日起就具有方便的数据可视化功能,以将向量和矩阵用图形表现出来,并且可以对图形进行标注和打印。高层次的作图包括二维和三维的可视化、图象处理、动画和表达式作图。可用于科学计算和工程绘图。新版本的MATLAB对整个图形处理功能作了很大的改进和完善,使它不仅在一般数据可视化软件都具有的功能(例如二维曲线和三维曲面的绘制和处理等)方面更加完善,而且对于一些其他软件所没有的功能(例如图形的光照处理、色度处理以及四维数据的表现等),MATLAB同样表现了出色的处理能力。同时对一些特殊的可视化要求,例如图形对话等,MATLAB也有相应的功能函数,保证了用户不同层次的要求。另外新版本的MATLAB还着重在图形用户界面(GUI)的制作上作了很大的改善,对这方面有特殊要求的用户也可以得到满足。

4

洛阳理工学院毕业设计(论文)

2.2.5 模块集合工具箱

MATLAB对许多专门的领域都开发了功能强大的模块集和工具箱。一般来说,它们都是由特定领域的专家开发的,用户可以直接使用工具箱学习、应用和评估不同的方法而不需要自己编写代码。目前,MATLAB已经把工具箱延伸到了科学研究和工程应用的诸多领域,诸如数据采集、数据库接口、概率统计、样条拟合、优化算法、偏微分方程求解、神经网络、小波分析、信号处理、图像处理、系统辨识、控制系统设计、LMI控制、鲁棒控制、模型预测、模糊逻辑、金融分析、地图工具、非线性控制设计、实时快速原型及半物理仿真、嵌入式系统开发、定点仿真、DSP与通讯、电力系统仿真等,都在工具箱(Toolbox)家族中有了自己的一席之地。

2.4 Matlab常用工具箱

MATLAB包括拥有数百个内部函数的主包和三十几种工具包。功能工具包用来扩充MATLAB的符号计算,可视化建模仿真,文字处理及实时控制等功能。学科工具包是专业性比较强的工具包,控制工具包,信号处理工具包,通信工具包等都属于此类。除内部函数外,所有MATLAB主包文件和各种工具包都是可读可修改的文件。

Matlab Main Toolbox——matlab主工具箱 System Identification Toolbox——系统辨识工具箱 Image Processing Toolbox——图象处理工具箱 LMI Control Toolbox——线性矩阵不等式工具箱 Optimization Toolbox——优化工具箱 Simulink Toolbox——动态仿真工具箱 Wavele Toolbox——小波工具箱

它附加的工具箱,即单独提供的专用matlab函数集,扩展了matlab环境,以解决这些应用领域内特定类型的问题。

2.5 小结

对于MATLAB,在教学期间我们大量的运用它来进行编程学习,对于以上所叙,均比较了解,但是对于其图像处理功能还是不十分熟悉,因此

5

洛阳理工学院毕业设计(论文)

以下将着重从这方面介绍:

图像处理工具包是由一系列支持图像处理操作的函数组成的。所支持的图像处理操作有:图像的几何操作、邻域和区域操作、图像变换、图像恢复与增强、线性滤波和滤波器设计、变换(DCT 变换等) 、图像分析和统计、二值图像操作等。下面就MATLAB 在图像处理中各方面的应用分别进行介绍。

(1) 图像文件格式的读写和显示。MATLAB 提供了图像文件读入函数imread ( ) ,用来读取如: bmp 、tif 、jpg、pcx、tiff 、gpeg、hdf 、xwd 、png等各种格式的图像文件;图像写出函数imwrite () ,还有图像显示函数image ( ) 、imshow( ) 等等。

(2) 图像处理的基本运算。MATLAB 提供了图像的和、差等线性运算,以及卷积、相关、滤波等非线性运算。例如,conv2( I ,J ) 实现了I ,J 两幅图像的卷积。

(3) 图像变换。MATLAB 提供了一维和二维离散傅立叶变换(DFT) 、快速傅立叶变换(FFT) 、离散余弦变换(DCT) 及其反变换函数,以及连续小波变换(CWT) 、离散小波变换(DWT) 及其反变换。

(4) 图像的分析和增强。针对图像的统计计算,MATLAB 提供了校正、直方图均衡、中值滤波、对比度调整、自适应滤波等对图像进行的处理。

以上所提到的MATLAB 在图像中的应用都是由相应的MATLAB 函数来实现的,使用时,只需按照函数的调用语法正确输入参数即可。具体的用法可参考MATLAB 丰富的帮助文档。

6

洛阳理工学院毕业设计(论文)

第3章 图像增强的基本理论

3.1 图像增强的定义

为了改善视觉效果或者便于人和机器对图像的理解和分析,根据图像的特点或存在的问题采取的简单改善方法或者加强特征的措施称为图像增强。

一般情况下,图像增强是按特定的需要突出一幅图像中的某些信息,同时削弱或去除某些不需要的信息的处理方法,也是提高图像质量的过程。图像增强的目的是使图像的某些特性方面更加鲜明、突出,使处理后的图像更适合人眼视觉特性或机器分析,以便于实现对图像的更高级的处理和分析。图像增强的过程往往也是一个矛盾的过程:图像增强希望既去除噪声又增强边缘。但是,增强边缘的同时会同时增强噪声,而滤去噪声又会使边缘在一定程度上模糊,因此,在图像增强的时候,往往是将这两部分进行折中,找到一个好的代价函数达到需要的增强目的。传统的图像增强算法在确定转换函数时常是基于整个图像的统计量,如:灰度变换,直方图均衡,中值滤波,低通滤波,锐化等等。这样对应于某些局部区域的细节在计算整幅图的变换时其影响因为其值较小而常常被忽略掉,从而局部区域的增强效果常常不够理想,噪声滤波和边缘增强这两者的矛盾较难得到解决。

3.2 图像增强的分类及方法

图像增强可分成两大类:频率域法和空间域法。前者把图像看成一种二维信号,对其进行基于二维傅里叶变换的信号增强。采用低通滤波(即只让低频信号通过)法,可去掉图中的噪声;采用高通滤波法,则可增强边缘等高频信号,使模糊的图片变得清晰。具有代表性的空间域算法有局部求平均值法和中值滤波(取局部邻域中的中间像素值)法等,它们可用于去除或减弱噪声。

图像增强的方法是通过一定手段对原图像附加一些信息或变换数据,有选择地突出图像中感兴趣的特征或者抑制(掩盖)图像中某些不需要的特

7

洛阳理工学院毕业设计(论文)

征,使图像与视觉响应特性相匹配。在图像增强过程中,不分析图像降质的原因,处理后的图像不一定逼近原始图像。图像增强技术根据增强处理过程所在的空间不同,可分为基于空域的算法和基于频域的算法两大类。基于空域的算法处理时直接对图像灰度级做运算基于频域的算法是在图像的某种变换域内对图像的变换系数值进行某种修正,是一种间接增强的算法。

基于空域的算法分为点运算算法和邻域去噪算法。点运算算法即灰度级校正、灰度变换和直方图修正等,目的或使图像成像均匀,或扩大图像动态范围,扩展对比度。邻域增强算法分为图像平滑和锐化两种。平滑一般用于消除图像噪声,但是也容易引起边缘的模糊。常用算法有均值滤波、中值滤波。锐化的目的在于突出物体的边缘轮廓,便于目标识别。常用算法有拉普拉斯算子、Prewitt算子和Sobel算子等。

3.3 常用的图像增强方法

3.3.1 直方图均衡化

直方图均衡化是图像处理领域中利用图像直方图对对比度进行调整的方法。这种方法通常用来增加许多图像的局部对比度,尤其是当图像的有用数据的对比度相当接近的时候。通过这种方法,亮度可以更好地在直方图上分布。这样就可以用于增强局部的对比度而不影响整体的对比度,直方图均衡化通过有效地扩展常用的亮度来实现这种功能。有些图像在低值灰度区间上频率较大,使得图像中较暗区域中的细节看不清楚。这时可以通过直方图均衡化将图像的灰度范围分开,并且让灰度频率较小的灰度级变大,通过调整图像灰度值的动态范围,自动地增加整个图像的对比度,使图像具有较大的反差,细节清晰。

3.3.2 灰度变换法

通常经输入系统获取的图像信息中含有各种各样的的噪声与畸变,有些图像的对比度比较低,从而使整个图像模糊不清,因此要对图像质量进行改善。这时可以按一定的规则修改原来图像的每一个象素的灰度,从而改变图像灰度的动态范围。灰度变换是根据某种目标条件按一定变换关系

8

洛阳理工学院毕业设计(论文)

逐点改变原图像中每个像素灰度值的方法。目标图片的灰度变换处理是是图像增强处理技术中一种非常基础、直接的空间域图像处理方法。灰度变换有时被称为图片对比度增强或对比度拉伸。

3.3.3平滑噪声

有些图像是通过扫描仪扫描输入、或传输通道传输过来的。图像中往往包含有各种各样的噪声。这些噪声一般是随机产生的,因此具有分布和大小不规则性的特点。这些噪声的存在直接影响着后续的处理过程,使图像失真。图像平滑就是针对图像噪声的操作,其主要作用是为了消除噪声,图像平滑的常用方法是采用均值滤波或中值滤波,均值滤波是一种线性空间滤波,它用一个有奇数点的掩模在图像上滑动,将掩模中心对应像素点的灰度值用掩模内所有像素点灰度的平均值代替,如果规定了在取均值过程中掩模内各像素点所占的权重,即各像素点所乘系数,这时就称为加权均值滤波;中值滤波是一种非线性空间滤波,其与均值滤波的区别是掩模中心对应像素点的灰度值用掩模内所有像素点灰度值的中间值代替。

3.3.4 锐化

图像锐化处理的目的是为了使图像的边缘、轮廓线以及图像的细节变的清晰。平滑噪声时经常会使图像的边缘变的模糊,针对平均和积分运算使图像模糊,可对其进行反运算采取微分算子使用模板和统计差值的方法,使图像增强锐化。图像边缘与低频分量相对应,低通滤波可以让低频分量畅通无阻,而对高频分量则充分,通过低通滤波去除高频分量,也可以达到图像锐化的目的。一般情况下,在计算机图像处理中可用微分运算和低通滤波来实现图像的锐化。空间域图像的锐化常用的是拉普拉斯运算,它不仅是偏导数的线性组合,而且是各向同性的,这样可以使图像中间任何方向伸展的边缘和轮廓线变得清晰。

9

洛阳理工学院毕业设计(论文)

第4章 MATLAB图像增强

4.1图像增强技术概述

图像增强技术主要包括:直方图灰度变换处理,直方图均衡化处理,图像平滑处理,图像锐化处理。从纯技术上讲主要有两类:频域处理法和空域处理法。

频域处理法主要是卷积定理,采用修改图像傅立叶变换的方法实现对图像的增强处理技术;空域处理法:是直接对图像中的像素进行处理,基本上是以灰度映射变换为基础的。

4.2直方图灰度变换

灰度变换是图像增强的一种重要手段,使图像对比度扩展,图像更加清晰,特征更加明显。灰度级的直方图给出了一幅图像概貌的描述,通过修改灰度直方图来得到图像增强。

4.2.1图像的灰度

常用的图像一般是灰度图,这时f表示灰度值,反映了图像上对应点的亮度。亮度是观察者对所看到的物体表面反射光强的量度。作为图像灰度的量度函数f(x,y)应大于零。人们日常看到的图像一般是从目标上反射出来的光组成的,所以f(x,y)可看成由两部分构成:入射到可见场景上光的量;场景中目标对反射光反射的比率。确切地说它们分别称为照度成分

i(x,y)和反射成分r(x,y)。f(x,y)与i(x,y)和r(x,y)都成正比,可表示成

f(x,y)=i(x,y)×r(x,y)。

将二维坐标位置函数f(x,y)称为灰度。入射光照射到物体表面的能量是有限的,并且它永远为正,即010

洛阳理工学院毕业设计(论文)

4.2.2灰度直方图

灰度直方图是数字图像处理中一个最简单、最有用的工具,它反映了数字图像中每一灰度级与其出现频率之间的统计关系。可以有针对性地通过改变直方图的灰度分布状况,使灰度均匀地或按预期目标分布于整个灰度范围空间,从而达到图像增强的效果。

图像的直方图是图像的重要统计特征,它可以认为是图像灰度密度函数的近似。图像的灰度直方图是反映一幅图像的灰度级与出现这种灰度级的概率之间的关系的图形。

灰度直方图是离散函数,一般的来讲,要精确的得到图像的灰度密度函数是比较困难的,在实际中,可以使数字图像灰度直方图来代替。归纳起来,直方图主要有一下几点性质:

(1)直方图中不包含位置信息。直方图只是反应了图像灰度分布的特性,和灰度所在的位置没有关系,不同的图像可能具有相近或者完全相同的直方图分布。

(2)直方图反应了图像的整体灰度。直方图反应了图像的整体灰度分布情况,对于暗色图像,直方图的组成集中在灰度级低(暗)的一侧,相反,明亮图像的直方图则倾向于灰度级高的一侧。直观上讲,可以得出这样的结论,若一幅图像其像素占有全部可能的灰度级并且分布均匀,这样的图像有高对比度和多变的灰度色调。

(3)直方图的可叠加性。一幅图像的直方图等于它各个部分直方图的和。

(4)直方图具有统计特性。从直方图的定义可知,连续图像的直方图是一位连续函数,它具有统计特征,例如矩、绝对矩、中心矩、绝对中心矩、熵。

(5)直方图的动态范围。直方图的动态范围是由计算机图像处理系统的模数转换器的灰度级决定。

MATLAB图像处理工具箱提供了imhist函数来计算和显示图像的直方图,灰度直方图是灰度值的函数,描述的是图像中具有该灰度值的像素的个数,如图4.2.2所示为图像的灰度直方图,其横坐标表示像素的灰度级别,纵坐标表示该灰度出现的频率(像素的个数)。

11

洛阳理工学院毕业设计(论文)

图4.2.2

当图像对比度较小时,它的灰度直方图只在灰度轴上较小的一段区间上非零,较暗的图像由于较多的像素灰度值低,因此它的直方图的主体出现在低值灰度区间上,其在高值灰度区间上的幅度较小或为零,而较亮的图像情况正好相反。灰度变换通过对原图像素值重新分配实现, 目的是使图像中表现较暗的像素值, 通过灰度变换函数映射的方法使较暗的像素值增大, 这样图像的亮度就提高了。增强处理并不能使原始图像信息增加, 其结果只能增强对某种信息的辨别能力, 而这种处理有可能损失一些其他信息。但是, 只要提高了图像的视觉特性, 增强图像的目的就达到了。

12

洛阳理工学院毕业设计(论文)

4.3直方图均衡化

直方图均衡化原理是针对象元灰级过于集中(出现直方图高峰)、图像结构不清;实施高峰方向压缩,在水平方向使直方图特征成为灰级高度相同或相近的新直方图。

直方图均衡化过程如下:

(1)计算原图像的灰度直方图Pr(rK);

(2)计算原图像的灰度累积分布函数sk,进一步求出灰度变换表; (3)根据灰度变换表,将原图像各灰度级映射为新的灰度级。

在MATLAB中,histeq函数可以实现直方图均衡化。该命令对灰度图像I进行变换,返回有N级灰度的图像J,J中的每个灰度级具有大致相同的像素点,所以图像J的直方图较为平坦,当N小于I中灰度级数时,J的直方图更为平坦,缺省的N值为。

如图4.3展示了直方图均衡化的效果:

图4.3

13

洛阳理工学院毕业设计(论文)

从图4.3直方图统计可以看出,原始图的灰度范围大约是70到160之间,灰度分布的范围比较狭窄,所以整体上看对比度比较差,而直方图均衡化后,灰度几乎是均匀的分布在0到255的范围内,图像明暗分明,对比度很大,图像比较清晰明亮,很好的改善了原始图的视觉效果。

优势:能够使得处理后图像的概率密度函数近似服从均匀分布,其结果扩张了像素值的动态范围,是一种常用的图像增强算法。

不足:不能抑制噪声。

4.4平滑滤波

为了改善图像质量,从图像中提取有效信息,必须对图像进行去噪预处理。根据噪声频谱分布的规律和统计特征以及图像的特点,出现了多种多样的去噪方法。经典的去噪方法有:空域合成法,频域合成法和最优合成法等,与之适应的出现了许多应用方法,如均值滤波器,中值滤波器,低通滤波器,维纳滤波器,最小失真法等。这些方法的广泛应用,促进数字信号处理的极大发展,显著提高了图像质量。平滑技术用于平滑图像中的噪声。平滑噪声可以在空间域中进行,基本方法是求像素灰度的平均或中值。为了既平滑噪声又保护图像信号,也有一些改进的技术,比如在频域中运用低通滤波技术。

4.4.1均值滤波

均值滤波是空间域线性的图像去噪方法, 用当前待处理像素点和其周围临近像素点组成一个模板, 将该像素点的灰度值替换为该邻域像素点的平均值,从而实现噪声抑制的效果,故得平均之名。对图像中每个像素点进行相同处理,最后得到的图像即为去噪后的图像。

均值滤波也称为线性滤波,其采用的主要方法为邻域平均法。其基本原理是用均值替代原图像中的各个像素值,即对待处理的当前像素点(x,y),选择一个模板,该模板由其近邻的若干像素组成,求模板中所有像素的均值,再把该均值赋予当前像素点(x,y) ,作为处理后图像在该点上的灰度g(x,y) ,即

1g(x,y)Mfsf(x,y),其中,s为模板,M为该模板中包含当前像素在

14

洛阳理工学院毕业设计(论文)

内的像素总个数。图像邻域平均法的处理效果与所用的邻域半径有关。半径愈大,则图像的模糊程度也度大。外,图像邻域平均算法简单,计算速度快,但它的主要缺点是在降低噪声的同时使图像产生模糊,特别在边沿和细节处,邻域越大,模糊越厉害。

均值滤波去噪原理易懂,实现简单,但是由于其对图像所有像素点做统一处理,在平滑噪声信号的同时对图像本身信号也有很大伤害, 图像会产生较大的模糊,其模糊程度与模板大小成正比.

输出图像的值等于输入图像滤波后值的局部平均,各个项具有相同的权。下面是平滑窗口分别为矩形和圆形的情况。

1111hrect[j,k]2511111101111111111 hcirc[j,k]1211111111110111011111111

11111110对一些图像进行线性滤波可以去除图像中某些类型的噪声,如采用邻域平均法的均值滤波器就非常适用于去除通过扫描得到的图像中的颗粒噪声。

邻域平均法是空间域平滑噪声技术。用一像素邻域内各像素灰度平均值来代替该像素原来的灰度,即是邻域平均技术。

如图4.4.1如下即为用均值滤波对加有椒盐噪声的图像处理后的对比图:

15

洛阳理工学院毕业设计(论文)

图4.4.1

优势:实现简单,去噪效果明显。

不足:去噪的同时会导致结果图像边缘位置的改变和细节模糊甚至丢失。

4.4.2中值滤波

中值滤波是空间域非线性的图像去噪方法, 其原理与均值滤波相似, 也是利用当前待处理像素的邻域, 将该邻域内像素点的灰度值进行排序, 选取其中的中值作为中值滤波的中值, 将待处理像素的灰度值替换为该中 值.将大小为3* 3 的邻域中的9 个像素点的灰度值进行升序排序得到

16

洛阳理工学院毕业设计(论文)

( a1, a2 , a9 ) ,则经过中值滤波处理后点( x, y) 的灰度值为:

f '( x, y) = med[ a1, a2 , a9]

它是一种临域运算,类似于卷积,但计算的不是加权求和,而是把邻域中的像素按灰度级进行排序,然后选择改组的中间值作为输出的像素值。具体步骤:

(1)将模板在图像中漫游,并将模板中心和图像某个像素的位置重合; (2)读取模板下对应像素的灰度值; (3)将这些灰度值从小到大排成一列; (4)找出这些值排在中间的一个;

(5)将这个中间值赋给对应模板中心位置的像素。

中值滤波对噪声具有很好的抑制效果,中值滤波是一种最常用的图像增强技术,是非线性滤波。对椒盐噪声有很好的去噪效果。图4.4(b)是加椒盐噪声后,中值滤波的效果。比较经过加入椒盐噪声的图像和经过中值滤波的图像,可以发现,图像的噪声点被去除;但是比较原始图像和经过滤波的图像后会发现,图像的边缘稍微的变得模糊,这是平滑算法不可避免的缺点。

但是由于中值滤波其取中值的特性, 在一些点、线、尖顶细节较多的图像中使用中值滤波进行处理时, 也会使得这些在图像中与噪声点类似也表现为与周围像素点不同的突出信息大量丢失从而使图像产生模糊.由图4.4(a)可以看出中值滤波对于消除高斯白噪声效果不是特别理想,但是对于消除随机干扰噪声效果却非常好。

如图4.4(a)可见,对于高斯噪声,中值滤波滤除噪声效果一般。原因: (1)高斯噪声是幅值近似正态分布,但分布在每点像素上。

(2)因为图像中的每点都是污染点,所以中值滤波选不到合适的干净点,只能减弱噪声,不能消除噪声。

但对于椒盐噪声,中值滤波滤除噪声效果非常好。原因:

(1)椒盐噪声是幅值近似相等但随机分布在不同位置上,图像中有干净点也有污染点。

(2)中值滤波是选择适当的点来替代污染点的值,所以处理效果好。

17

洛阳理工学院毕业设计(论文)

4.4.3低通滤波

低通滤波也称低频滤波器。图像的能量大部分集中在幅度谱的低频和中频度,而图像的边缘和噪声对应于高频部分。因此能降低高频成分幅度的滤波器就能减弱噪声的影响。

一幅图像的边缘,跳跃部分以及颗粒噪声代表图像信号的高频分量,而大面积的背景区域代表了图像信号的低频分量。如图4.4(a)和图4.4(b)所示原图分别加入高斯噪声、椒盐噪声后低通滤波后的效果。由仿真结果看出滤波后的图像中噪声降低了,说明低通滤波确实有滤除图像噪声的功能,同时也可以看出滤波后图像与原始图像相比,边缘和细节处变模糊了,说明低通滤波在滤除噪声的同时也把原始图像中的高频成分滤除了。

低通滤波的作用就是滤除这些高频分量,保留低频分量,使图像信号平滑。但是低通滤波在滤除噪声的同时会是的属于高频部分的图像中的边缘细节信息受到损伤导致结果图像边缘位置的改变和细节模糊甚至丢失,图像会产生模糊,这也是低通滤波不可避免的缺点。

和基于空间域的图像去噪方法的通过直接改变图像中像素点的灰度值而达到去噪目不同,频率域低通滤波是基于变换域的滤波方法,将含噪图像信号经过变换到频率域,通过滤波器滤除含有噪声频率的信息,再通过反变换得到去噪后的图像。频率域低通滤波器同样没有克服在去噪同时保存图像边缘细节这对矛盾。由于图像中边缘细节等突出的信息同样位于高频部分, 所以频率域低通滤波在滤除噪声频率的同时会使得属于高频部分的图像中的边缘细节信息受到损伤。所以图像同样会产生模糊.

4.4.4维纳滤波

维纳滤波是从含噪信号中提取整个有用信号的一种基本的滤波方法, 基于最小二乘估计。在 20 世纪 40年代建立了最佳滤波器研究理论,滤波器滤波原则是根据输入信号中有用信号和干扰噪声信号的二阶统计特性,使得输出信号与有用信号的均方误差最小[5 - 6]。由于噪声信号和图像信号在一定范围内的相似重合性, 任何滤波器均不可能完全的滤除噪声信号。按照维纳滤波的理论假设,维纳滤波能最大限度从受干扰信号中滤除噪声信号,提取有用信号,故也称其为最佳滤波器。维纳滤波器具有

18

洛阳理工学院毕业设计(论文)

以下特性:

( 1) 已知性: 滤波器的输入信号的统计特性已知。 ( 2) 滤波原则: 最小均方误差。

( 3) 最佳性: 以标量的方法得出最优滤波器。

如图4.4(a)所示加入高斯噪声后维纳滤波的仿真效果。维纳滤波的优点很明显,噪声滤除效果很好,维纳滤波的使用范围很广,只要信号的输入过程是平稳随机的,无论是连续或是离散的均可使用维纳滤波。但是其缺点也很明显: 要求输入图像信号和干扰噪声信号是平稳随机且频谱特性已知的。然而在实际应用中受噪声干扰的图像的特性往往不可知,难以满足维纳滤波的滤波前提,因此维纳滤波并不能达到其最佳滤波的目的并受到了很大的局限。

19

洛阳理工学院毕业设计(论文)

图4.4(a)

20

洛阳理工学院毕业设计(论文)

图4.4(b)

21

洛阳理工学院毕业设计(论文)

4.5 锐化

图像锐化处理的作用是使灰度反差增强,从而使模糊图像变得更加清晰。图像模糊的实质就是图像受到平均运算或积分运算,因此可以对图像进行逆运算,如微分运算以突出图像细节使图像变得更为清晰。

在图像增强过程中,通常利用各类图像平滑算法消除噪声,图像的常见噪声主要有加性噪声、乘性噪声和量化噪声等。一般来说,图像的能量主要集中在其低频部分,噪声所在的频段主要在高频段,同时图像边缘信息也主要集中在其高频部分。这将导致原始图像在平滑处理之后,图像边缘和图像轮廓模糊的情况出现。

为了减少这类不利效果的影响,就需要利用图像锐化技术,使图像的边缘变得清晰。图像锐化处理的目的是为了使图像的边缘、轮廓线以及图像的细节变得清晰,经过平滑的图像变得模糊的根本原因是因为图像受到了平均或积分运算,因此可以对其进行逆运算(如微分运算)就可以使图像变得清晰。从频率域来考虑,图像模糊的实质是因为其高频分量被衰减,因此可以用高通滤波器来使图像清晰。但要注意能够进行锐化处理的图像必须有较高的性噪比,否则锐化后图像性噪比反而更低,从而使得噪声增加的比信号还要多,因此一般是先去除或减轻噪声后再进行锐化处理。

考察正弦函数

,它的微分

。微分后频率不变,幅

度上升2πa倍。空间频率愈高,幅度增加就愈大。这表明微分是可以加强高频成分的,从而使图像轮廓变清晰。最常用的微分方法是梯度法和拉普拉斯算子。但本文主要探究几种边缘检测算子,Laplace、Prewitt、Sobel算子以下具体介绍。 4.5.1 拉普拉斯算子

拉式算子是一个刻画图像灰度的二阶商算子,它是点、线、边界提取算子,亦称为边界提取算子。通常图像和对他实施拉式算子后的结果组合后产生一个锐化图像。拉式算子用来改善因扩散效应的模糊特别有效,因为它符合降制模型。扩散效应是成像过程中经常发生的现象。

由于拉普拉斯是一种微分算子,它的应用可增强图像中灰度突变的区域,减弱灰度的慢变化区域。因此,锐化处理可选择拉普拉斯算子对原图像进行处理产生描述灰度突变的图像,再将拉普拉斯图像与原始图像叠加

22

洛阳理工学院毕业设计(论文)

而产生锐化图像。拉普拉斯锐化的基本方法可以由下式表示:

g(x,y)f(x,y)2f(x,y)

这种简单的锐化方法既可以产生拉普拉斯锐化处理的效果,同时又能保留背景信息:将原始图像叠加到拉普拉斯变换的处理结果中去,可以使图像中的各灰度值得到保留、灰度突变处的对比度得到增强,最终结果是在保留图像背景的前提下,突现出图像中小的细节。

图4.5.1展示了在MATLAB中进行拉普拉斯算子图像锐化的处理结果:

图4.5.1

拉普拉斯算子是与方向无光的各向同性边缘检测算子,若只关心边缘点的位置而不顾其周围的实际灰度差时,一般选择该算子进行检测.特点:各向同性,线性和位移是不变的,对线性和孤立点检测效果好,但边缘方向信息丢失,常产生双像素的边缘,对噪声有双倍的加强作用。

比较原始模糊图像和经过拉氏算子运算的图像,可以发现,图像模糊的部分得到了锐化,特别是模糊的边缘部分得到了增强,边界更加明显。但是,图像显示清楚的地方,经过滤波发生了失真,这也是拉氏算子增强的一大缺点。

23

洛阳理工学院毕业设计(论文)

4.5.2 Sobel算子

Sobe1 算子是边缘检测算子,其处理模板中各因子之和为零,由于正的因子与负的因子之和分别为4 和一4,在极端情况下处理结果可能溢出,因此,在实际使用时,虽然Sobel 算子检测所得的边缘光滑连续,但是边缘较粗,这是因为Sobel 算子处理时需作两值化处理,即处理结果得到的是两值化了的边缘图,这种结果就使边缘图中幅值较小的边缘丢失了。

Sobel算子是典型的基于一阶导数的边缘检测算子,由于该算子中引入了类似局部平均的运算,因此对噪声具有平滑作用,能很好的消除噪声的影响。单独使用Sobel算子做边缘检测,边缘定位精度不高,有时还可能对非边缘像素的响应大于某些边缘处的响应或者响应差别不是很大,造成漏检或误检,但是它对噪声具有较好的鲁棒性。

对于数字图像{ f(i,j) }经典算子的定义如下: 设:

通过定义可以利用两个方向模板与图像进行邻域卷积来完成的算子的边缘检测。这两个方向模板一个检验水平边缘,一个检验垂直边缘。

算法的基本原理:适当选取阈值M ,作如下判断:若S(i,j)> M ,则(i,j)为边缘点。{ S(i,j) }为边缘图像,由于数据溢出的关系,这种边缘图像通常不直接使用,而使用的则是由边缘点与背景点构成的图像,故它为二值图像。

24

洛阳理工学院毕业设计(论文)

Sobel 算子也可用模板表示。模板中的元素表示算式中相应像素的加权因子。水平和垂直梯度模板分别为:

101dx202101121dy000121Sobel算子就是对当前行或列对应的值加权后,再进行平均和差分,也称为加权平均差分。

图4.5.2展示了在MATLAB中进行Sobel算子图像锐化的处理结果:

图 4.5.2

优点:锐化的边缘信息较强。Sobel算子和Prewitt算子一样,都在检测边缘点的同时具有抑制噪声的能力,检测出的边缘宽度至少为二像素。

缺点:但是会丢失一些细节信息,使边缘有一定的模糊。sobel算子处理后也只是轮廓,相比Prewitt算子图像边缘稍微加宽。

4.5.3 Prewitt算子

因为平均能减少或消除噪声,Prewitt梯度算子法就是先求平均,再求差分来求梯度。水平和垂直梯度模板分别为:

25

洛阳理工学院毕业设计(论文)

利用检测模板可求得水平和垂直方向的梯度,再通过梯度合成和边缘点判定,就可得到平均差分法的检测结果。

图4.5.3展示了在MATLAB中进行Prewitt算子图像锐化的处理结果:

图4.5.3

优点:Prewitt算子和Sobel算子一样,都在检测边缘点的同时具有抑制噪声的能力,检测出的边缘宽度至少为二像素。

缺点:由于它们都是先平均后差分,平均时会丢失一些细节信息,使边缘有一定的模糊。但由于Sobel算子的加权作用,其使边缘的模糊程度要稍低于程度要稍低于Prewitt算子。Prewitt算子将图像边缘拉大,近乎失真。

26

洛阳理工学院毕业设计(论文)

结 论

图像增强中的有用信息,它可以是一个失真的过程,其目的是要改善图像的视觉效果,针对给定图像的应用场合,有目的地强调图像的整体或局部特性,将原来不清晰的图像变得清晰或强调某些感兴趣的特征,扩大图像中不同物体特征之间的差别,抑制不感兴趣的特征,使之改善图像质量、丰富信息量,加强图像判读和识别效果,满足某些特殊分析的需要。

图像增强可分成两大类:频率域法和空间域法。前者把图像看成一种二维信号,对其进行基于二维傅里叶变换的信号增强。采用低通滤波(即只让低频信号通过)法,可去掉图中的噪声;采用高通滤波法,则可增强边缘等高频信号,使模糊的图片变得清晰。具有代表性的空间域算法有局部求平均值法和中值滤波法等,它们可用于去除或减弱噪声。

图像增强的方法是通过一定手段对原图像附加一些信息或变换数据,有选择地突出图像中感兴趣的特征或者抑制(掩盖)图像中某些不需要的特征,使图像与视觉响应特性相匹配。在图像增强过程中,不分析图像降质的原因,处理后的图像不一定逼近原始图像。图像增强技术根据增强处理过程所在的空间不同,可分为基于空域的算法和基于频域的算法两大类。基于空域的算法处理时直接对图像灰度级做运算基于频域的算法是在图像的某种变换域内对图像的变换系数值进行某种修正,是一种间接增强的算法。

基于空域的算法分为点运算算法和邻域去噪算法。在本论文中点运算算法用到的是直方图均衡化,灰度变换,目的使图像成像均匀,扩大图像动态范围。邻域增强算法分为图像平滑和锐化两种。平滑一般用于消除图像噪声,但是也容易引起边缘的模糊。常用算法有均值滤波、中值滤波、低通滤波、维纳滤波。锐化的目的在于突出物体的边缘轮廓,便于目标识别。常用算法有拉普拉斯算子、Prewitt算子和Sobel算子等。

在黄会营老师的指导下,让我顺利的完成了本次毕业设计。通过此次毕业设计,我从中学到了许多课本上没有的知识,使我不仅仅在知识水平和解决实际问题的能力上有了很大的提高。还从思想的深处体会到,要把自己的所学变成现实来解决将来面对的种种难题,即理论运用于实践。

27

洛阳理工学院毕业设计论文

谢 辞

在论文完成之际,我心情无法平静。本科两年期间,尤其是毕业论文完成期间,有很多可敬的老师和同学给予了我无私帮助。对此我深怀感激。

首先感谢导师黄会营老师从始至终的关心、指导和教诲。黄老师一丝不苟、严格律己、宽以待人的崇高品质对学生将是永远的鞭策。本次毕业设计从课题选题、信息收集到论文的撰写都是在黄老师全面、具体、耐心的指导下进行的。特别是黄老师不厌其烦的指出设计中的不足及问题的解决方向,使我感受到黄老师的渊博学识、敏锐思维和民主严谨的作风。论文写作过程中,从行文的用语到格式的规范,都力求完美。这里再次对黄老师的无私付出表示深深的谢意。

其次在设计的过程中,感谢给予我帮助的同学们,在此对其表示感谢。 然后感谢洛阳理工学院各位老师对我的培养和关心,感谢我的家人在本科两年期间对我的支持和鼓励。

最后祝洛阳理工学院各位老师工作顺利,祝洛阳理工学院明天更美好!

28

洛阳理工学院毕业设计论文

参考文献

[1] 汪志云,黄梦为.基本直方图的图像增强及其MATLAB实现[J].计算机工程与科学,2006,28(2):54-56.

[2]刘榴娣,刘明奇,党长民.实用数字图像处理[M].北京理工大学出版社,1998

[3]冈萨雷斯 RC 著.李叔梁译.数字图像处理.科学出版社,1983 [4] 李月景编著.图像识别技术及其应用.机械工业出版社,1985 [5]周宽,晓光,陈建革等编著.实用微机图像处理。北京航天大学出版社,1994

[6]放如明,蔡健荣,许俐编著.计算机图像处理技术及其在农业工程中的应用.清华大学出版社,1999

[7]李介谷等,数字图像处理,上海交通大学出版社,1988 [8]阮秋琦,数字图像处理学,电子工业版社,2001

[9]张兆礼,赵春晖,梅晓丹,现代图像处理技术.北京:人民邮电出版社,2001

[10]张志涌,精通MATLAB6.5. 北京:北京航空航天大学出版社,2003 [11]郝文化,田蕾,董秀芳.Matlab图形图像处理应用教程.中国水利水电出版社.2003

[12]张琨,毕靖,丛滨.Matlab7.6从入门到精通.电子工业出版社.2009 [13]陈杨,陈荣娟,郭颖辉.Matlab6.X图像编程与图像处理.西安电子科技大学出版社2002.10

[14]黄贤武等,数字图像处理和压缩编码技术,电子科技大学出版社,2000

[15]容观澳,计算机图像处理,清华大学出版社,2000

[16]Strum, R. D. and Kirk D. E. Contemporary Linear Systems Using MATLAB. PWS Publishing, 1994 (ISBN 0-534-93273-8).

[17]Biran, A. and Breiner, M. G. MATLAB for Engineers, Addison-Wdsley, 1995 (ISBN 0-201-56524-2).

[18]Malek-Madani, R. Advanced Engineering Mathematics with

29

洛阳理工学院毕业设计论文

Mathematica and MATLAB, Addison-Wesley, 1998 (ISBN 0-201-59881-71).

[19]Marcus, M. Matrices and MATLAB: A Tutorial. Prentice Hall, 1993 (ISBN 0-13-562901-2).

[20]Ogata, K. Solving Control Engineering Problems with MATLAB. Prcntice Hall, 1993 (ISBN 0-13-045907-0).

[21]Stang, G. Introduction to Lincar Algebra. Wellesley-Cambridge Press, 1993 (ISBN 0-9614088-5-5).

[22]Strum, R. D. and Kirk D. E. Contemporary Linear Systems Using MATLAB. PWS Publishing, 1994 (ISBN 0-534-93273-8).

[23]T .Aach,D.Kunz .Multiscale linear/median hybrid filters for noise reduction in low dose x-ray images,4thIEEE Intenrational Conference on Image Processi ng,1997,75( 2):358-361

[24]Zia-ur Rahman , Glenn A. Woodell and Daniel J. Jobson .A Comparison of the Multiscale Retinex With Other Image Enhancement Techniques

[25]Alejandro F. Frangi, Wiro J. Niessen, Koen L. Vincken, Max A. Viergever .Multiscale vessel enhancement filtering.

30

洛阳理工学院毕业设计论文

附 录

本文算法MATLAB程序

%%

%%灰度变换增强法 close all clear all

I=imread('pout.tif'); subplot(2,2,1),imshow(I); title('原图像');

subplot(2,2,2),imhist(I); title('原图像的直方图');

J=huidubianhuan(I,[0.29,0.68],[0,1]); %灰度变换huidubianhuan.m subplot(2,2,3),imshow(J); title('灰度变换后的图像'); subplot(2,2,4),imhist(J);

title('灰度变换后的图像的直方图');

%%%直方图均衡化 %% clear all; close all;

I=imread('pout.tif'); subplot(2,2,1),imshow(I); title('原图像');

subplot(2,2,2),imhist(I); title('原图像的直方图');

J=histeq(I); %%为直方图锐化函数,实现直方图锐化具体算法

31

洛阳理工学院毕业设计论文

subplot(2,2,3),imshow(J); title('直方图均衡化后的图像'); subplot(2,2,4),imhist(J);

title('均衡化后的图像的直方图');

%%对椒盐噪声进行处理 clc close all; clear all;

I=imread('cameraman.tif'); J=imnoise(I,'salt & pepper',0.05); subplot(2,2,1),imshow(I); title('原图像');

subplot(2,2,2),imshow(J); title('叠加椒盐噪声后的图像'); h=ones(3,3)/9; K=conv2(J,h);

subplot(2,2,3),imshow(K,[]); title('低通滤波后的图像'); L=medfilt2(J);

subplot(2,2,4),imshow(L,[]); title('中值滤波后的图像');

%%对高斯噪声进行处理 clc close all; clear all;

I=imread('cameraman.tif'); J=imnoise(I,'gaussian',0,0.05); subplot(2,3,1),imshow(I);

32

洛阳理工学院毕业设计论文

title('原图像');

subplot(2,3,2),imshow(J);

title('叠加零均值高斯噪声后的图像'); h=ones(3,3)/9; K=conv2(J,h);

subplot(2,3,3),imshow(K,[]); title('低通滤波后的图像'); L=medfilt2(J);

subplot(2,3,4),imshow(L,[]); title('中值滤波后的图像'); M=wiener2(J);

subplot(2,3,5),imshow(M); title('维纳滤波后的图像');

%%% Sobel算子、Prewitt算子和高斯-拉普拉斯算子进行图像锐化的源程序。

%应用Sobel算子进行图像锐化 clear all;

I1=imread('lena.bmp'); I1=double(I1); h1=fspecial('sobel'); I2=filter2(h1,I1);

figure,imshow(I1,[]);title('Sobel算子锐化') I3=I1-I2;

%%增强图像为原图像减去Sobel算子运算后的结果 figure,imshow(I3,[]);title('原图减Sobel算子结果') %应用Prewitt算子进行图像锐化 clear all;

I1=imread('lena.bmp'); I1=double(I1);

33

洛阳理工学院毕业设计论文

h1=fspecial('prewitt'); I2=filter2(h1,I1);

figure,imshow(I1,[]);title('Prewitt算子锐化') I3=I1-I2;

%%增强图像为原图像减去Prewitt算子运算后的结果 figure,imshow(I3,[]);title('原图减Prewitt算子结果') %应用高斯-拉普拉斯算子进行图像锐化 clear all;

I1=imread('lena.bmp'); I1=double(I1); h1=fspecial('log'); I2=filter2(h1,I1);

figure,imshow(I1,[]);title('高斯-拉普拉斯算子锐化') I3=I1-I2;

%%增强图像为原图像减去高斯-拉普拉斯算子运算后的结果 figure,imshow(I3,[]);title('原图减高斯-拉普拉斯算子结果')

34

洛阳理工学院毕业设计论文

外文资料翻译

Digital Image Processing and Edge Detection

Digital Image Processing

Interest in digital image processing methods stems from two principal applica- tion areas: improvement of pictorial information for human interpretation; and processing of image data for storage, transmission, and representation for au- tonomous machine perception.

An image may be defined as a two-dimensional function, f(x, y), where x and y are spatial (plane) coordinates, and the amplitude of f at any pair of coordinates (x, y) is called the intensity or gray level of the image at that point. When x, y, and the amplitude values of f are all finite, discrete quantities, we call the image a digital image. The field of digital image processing refers to processing digital images by means of a digital computer. Note that a digital image is composed of a finite number of elements, each of which has a particular location and value. These elements are referred to as picture elements, image elements, pels, and pixels. Pixel is the term most widely used to denote the elements of a digital image.

Vision is the most advanced of our senses, so it is not surprising that images play the single most important role in human perception. However, unlike humans, who are limited to the visual band of the electromagnetic (EM) spec- trum, imaging machines cover almost the entire EM spectrum, ranging from gamma to radio waves. They can operate on images generated by sources that humans are not accustomed to associating with images. These include ultra- sound, electron microscopy, and computer-generated images. Thus, digital image processing encompasses a wide and varied field of applications.

There is no general agreement among authors regarding where image processing stops and other related areas, such as image analysis and computer

35

洛阳理工学院毕业设计论文

vi- sion, start. Sometimes a distinction is made by defining image processing as a discipline in which both the input and output of a process are images. We believe this to be a limiting and somewhat artificial boundary. For example, under this definition, even the trivial task of computing the average intensity of an image (which yields a single number) would not be considered an image processing operation. On the other hand, there are fields such as computer vision whose ultimate goal is to use computers to emulate human vision, including learning and being able to make inferences and take actions based on visual inputs. This area itself is a branch of artificial intelligence (AI) whose objective is to emulate human intelligence. The field of AI is in its earliest stages of infancy in terms of development, with progress having been much slower than originally anticipated. The area of image analysis (also called image understanding) is in be- tween image processing and computer vision.

There are no clearcut boundaries in the continuum from image processing at one end to computer vision at the other. However, one useful paradigm is to consider three types of computerized processes in this continuum:low-, mid-, and highlevel processes. Low-level processes involve primitive opera- tions such as image preprocessing to reduce noise, contrast enhancement, and image sharpening. A low-level process is characterized by the fact that both its inputs and outputs are images. Mid-level processing on images involves tasks such as segmentation (partitioning an image into regions or objects), description of those objects to reduce them to a form suitable for computer processing, and classification (recognition) of individual objects. A midlevel process is characterized by the fact that its inputs generally are images, but its outputs are attributes extracted from those images (e.g., edges, contours, and the identity of individual objects). Finally, higherlevel processing involves “making sense” of an ensemble of recognized objects, as in image analysis, and, at the far end of the continuum, performing the cognitive functions normally associated with vision.

36

洛阳理工学院毕业设计论文

Based on the preceding comments, we see that a logical place of overlap between image processing and image analysis is the area of recognition of individual regions or objects in an image. Thus, what we call in this book digital image processing encompasses processes whose inputs and outputs are images and, in addition, encompasses processes that extract attributes from images, up to and including the recognition of individual objects. As a simple illustration to clarify these concepts, consider the area of automated analysis of text. The processes of acquiring an image of the area containing the text, preprocessing that image, extracting (segmenting) the individual characters, describing the characters in a form suitable for computer processing, and recognizing those individual characters are in the scope of what we call digital image processing in this book. Making sense of the content of the page may be viewed as being in the domain of image analysis and even computer vision, depending on the level of complexity implied by the statement “making sense.” As will become evident shortly, digital image processing, as we have defined it, is used successfully in a broad range of areas of exceptional social and economic value.

The areas of application of digital image processing are so varied that some form of organization is desirable in attempting to capture the breadth of this field. One of the simplest ways to develop a basic understanding of the extent of image processing applications is to categorize images according to their source (e.g., visual, X-ray, and so on). The principal energy source for images in use today is the electromagnetic energy spectrum. Other important sources of energy include acoustic, ultrasonic, and electronic (in the form of electron beams used in electron microscopy). Synthetic images, used for modeling and visualization, are generated by computer. In this section we discuss briefly how images are generated in these various categories and the areas in which they are applied.

Images based on radiation from the EM spectrum are the most familiar, es- pecially images in the X-ray and visual bands of the spectrum.

37

洛阳理工学院毕业设计论文

Electromagnet- ic waves can be conceptualized as propagating sinusoidal waves of varying wavelengths, or they can be thought of as a stream of massless particles, each traveling in a wavelike pattern and moving at the speed of light. Each massless particle contains a certain amount (or bundle) of energy. Each bundle of energy is called a photon. If spectral bands are grouped according to energy per photon, we obtain the spectrum shown in fig. below, ranging from gamma rays (highest energy) at one end to radio waves (lowest energy) at the other. The bands are shown shaded to convey the fact that bands of the EM spectrum are not distinct but rather transition

Image acquisition is the first process. Note that acquisition could be as simple as being given an image that is already in digital form. Generally, the image acquisition stage involves preprocessing, such as scaling.

Image enhancement is among the simplest and most appealing areas of digital image processing. Basically, the idea behind enhancement techniques is to bring out detail that is obscured, or simply to highlight certain features of interest in an image. A familiar example of enhancement is when we increase the contrast of an image because “it looks better.” It is important to keep in mind that enhancement is a very subjective area of image processing. Image restoration is an area that also deals with improving the appearance of an image. However, unlike enhancement,which is subjective, image restoration is objective, in the sense that restoration techniques tend to be based on mathematical or probabilistic models of image degradation. Enhancement, on the other hand, is based on human subjective preferences regarding what constitutes a “good” enhancement result.

Color image processing is an area that has been gaining in importance

38

洛阳理工学院毕业设计论文

because of the significant increase in the use of digital images over the Internet. It covers a number of fundamental concepts in color models and basic color processing in a digital domain. Color is used also in later chapters as the basis for extracting features of interest in an image.

Wavelets are the foundation for representing images in various degrees of resolution. In particular, this material is used in this book for image data compression and for pyramidal representation, in which images are subdivided successively into smaller regions.

Compression, as the name implies, deals with techniques for reducing the storage required to save an image, or the bandwidth required to transmi it.Although storage technology has improved significantly over the past decade, the same cannot be said for transmission capacity. This is true particularly in uses of the Internet, which are characterized by significant pictorial content. Image compression is familiar (perhaps inadvertently) to most users of computers in the form of image file extensions, such as the jpg file extension used in the JPEG (Joint Photographic Experts Group) image

39

洛阳理工学院毕业设计论文

compression standard.

Morphological processing deals with tools for extracting image components that are useful in the representation and description of shape. The material in this chapter begins a transition from processes that output images to processes that output image attributes.

Segmentation procedures partition an image into its constituent parts or objects. In general, autonomous segmentation is one of the most difficult tasks in digital image processing. A rugged segmentation procedure brings the process a long way toward successful solution of imaging problems that require objects to be identified individually. On the other hand, weak or erratic segmentation algorithms almost always guarantee eventual failure. In general, the more accurate the segmentation, the more likely recognition is to succeed.

Representation and description almost always follow the output of a segmentation stage, which usually is raw pixel data, constituting either the bound- ary of a region (i.e., the set of pixels separating one image region from another) or all the points in the region itself. In either case, converting the data to a form suitable for computer processing is necessary. The first decision that must be made is whether the data should be represented as a boundary or as a complete region. Boundary representation is appropriate when the focus is on external shape characteristics,such as corners and inflections. Regional representation is appropriate when the focus is on internal properties, such as texture or skeletal shape. In some applications, these representations complement each other. Choosing a representation is only part of the solution for trans- forming raw data into a form suitable for subsequent computer processing. A method must also be specified for describing the data so that features of interest are highlighted. Description, also called feature selection, deals with extracting attributes that result in some quantitative information of interest or are basic for differentiating one class of objects from another.

40

洛阳理工学院毕业设计论文

Recognition is the process that assigns a label (e.g., “vehicle”) to an object based on its descriptors. As detailed before, we conclude our coverage of digital image processing with the development of methods for recognition of individual objects.

So far we have said nothing about the need for prior knowledge or about the interaction between the knowledge base and the processing modules in Fig2 above. Knowledge about a problem domain is coded into an image processing system in the form of a knowledge database. This knowledge may be as sim- ple as detailing regions of an image where the information of interest is known to be located, thus limiting the search that has to be conducted in seeking that information. The knowledge base also can be quite complex, such as an interrelated list of all major possible defects in a materials inspection problem or an image database containing high-resolution satellite images of a region in con-nection with change-detection applications. In addition to guiding the operation of each processing module, the knowledge base also controls the interaction between modules. This distinction is made in Fig2 above by the use of double-headed arrows between the processing modules and the knowledge base, as op- posed to single-headed arrows linking the processing modules. Edge detection

Edge detection is a terminology in image processing and computer vision, particularly in the areas of feature detection and feature extraction, to refer to algorithms which aim at identifying points in a digital image at which the image

brightness

changes

sharply

or

more

formally

has

discontinuities.Although point and line detection certainly are important in any discussion on segmentation,edge dectection is by far the most common approach for detecting meaningful discounties in gray level.

Although certain literature has considered the detection of ideal step edges, the edges obtained from natural images are usually not at all ideal step edges. Instead they are normally affected by one or several of the following

41

洛阳理工学院毕业设计论文

effects:1.focal blur caused by a finite depth-of-field and finite point spread function; 2.penumbral blur caused by shadows created by light sources of non-zero radius; 3.shading at a smooth object edge; 4.local specularities or interreflections in the vicinity of object edges.

A typical edge might for instance be the border between a block of red color and a block of yellow. In contrast a line (as can be extracted by a ridge detector) can be a small number of pixels of a different color on an otherwise unchanging background. For a line, there may therefore usually be one edge on each side of the line.

To illustrate why edge detection is not a trivial task, let us consider the problem of detecting edges in the following one-dimensional signal. Here, we may intuitively say that there should be an edge between the 4th and 5th pixels.

5 7 6 4 152 148 149If the intensity difference were smaller between the 4th and the 5th pixels and if the intensity differences between the adjacent neighbouring pixels were higher, it would not be as easy to say that there should be an edge in the corresponding region. Moreover, one could argue that this case is one in which there are several edges.Hence, to firmly state a specific threshold on how large the intensity change between two neighbouring pixels must be for us to say that there should be an edge between these pixels is not always a simple problem. Indeed, this is one of the reasons why edge detection may be a non-trivial problem unless the objects in the scene are particularly simple and the illumination conditions can be well controlled.

There are many methods for edge detection, but most of them can be grouped into two categories,search-based and zero-crossing based. The search-based methods detect edges by first computing a measure of edge strength, usually a first-order derivative expression such as the gradient magnitude, and then searching for local directional maxima of the gradient

42

洛阳理工学院毕业设计论文

magnitude using a computed estimate of the local orientation of the edge, usually the gradient direction. The zero-crossing based methods search for zero crossings in a second-order derivative expression computed from the image in order to find edges, usually the zero-crossings of the Laplacian or the zero-crossings of a non-linear differential expression, as will be described in the section on differential edge detection following below. As a pre-processing step to edge detection, a smoothing stage, typically Gaussian smoothing, is almost always applied (see also noise reduction).

The edge detection methods that have been published mainly differ in the types of smoothing filters that are applied and the way the measures of edge strength are computed. As many edge detection methods rely on the computation of image gradients, they also differ in the types of filters used for computing gradient estimates in the x- and y-directions.

Once we have computed a measure of edge strength (typically the gradient magnitude), the next stage is to apply a threshold, to decide whether edges are present or not at an image point. The lower the threshold, the more edges will be detected, and the result will be increasingly susceptible to noise, and also to picking out irrelevant features from the image. Conversely a high threshold may miss subtle edges, or result in fragmented edges.

If the edge thresholding is applied to just the gradient magnitude image, the resulting edges will in general be thick and some type of edge thinning post-processing is necessary. For edges detected with non-maximum suppression however, the edge curves are thin by definition and the edge pixels can be linked into edge polygon by an edge linking (edge tracking) procedure. On a discrete grid, the non-maximum suppression stage can be implemented by estimating the gradient direction using first-order derivatives, then rounding off the gradient direction to multiples of 45 degrees, and finally comparing the values of the gradient magnitude in the estimated gradient direction.

A commonly used approach to handle the problem of appropriate

43

洛阳理工学院毕业设计论文

thresholds for thresholding is by using thresholding with hysteresis. This method uses multiple thresholds to find edges. We begin by using the upper threshold to find the start of an edge. Once we have a start point, we then trace the path of the edge through the image pixel by pixel, marking an edge whenever we are above the lower threshold. We stop marking our edge only when the value falls below our lower threshold. This approach makes the assumption that edges are likely to be in continuous curves, and allows us to follow a faint section of an edge we have previously seen, without meaning that every noisy pixel in the image is marked down as an edge. Still, however, we have the problem of choosing appropriate thresholding parameters, and suitable thresholding values may vary over the image.

Some edge-detection operators are instead based upon second-order derivatives of the intensity. This essentially captures the rate of change in the intensity gradient. Thus, in the ideal continuous case, detection of zero-crossings in the second derivative captures local maxima in the gradient.

We can come to a conclusion that,to be classified as a meaningful edge point,the transition in gray level associated with that point has to be significantly stronger than the background at that point.Since we are dealing with local computations,the method of choice to determine whether a value is “significant” or not id to use a threshold.Thus we define a point in an image as being as being an edge point if its two-dimensional first-order derivative is greater than a specified criterion of connectedness is by definition an edge.The term edge segment generally is used if the edge is short in relation to the dimensions of the image.A key problem in segmentation is to assemble edge segments into longer edges.An alternate definition if we elect to use the second-derivative is simply to define the edge ponits in an image as the zero crossings of its second derivative.The definition of an edge in this case is the same as above.It is important to note that these definitions do not guarantee success in finding edge in an image.They simply give us a formalism to look for them.First-order derivatives in an image are computed using the

44

洛阳理工学院毕业设计论文

gradient.Second-order derivatives are obtained using the Laplacian.

45

洛阳理工学院毕业设计论文

数字图像处理与边缘检测

数字图像处理

数字图像处理方法的研究源于两个主要应用领域:其一是为了便于人们分析而对图像信息进行改进:其二是为使机器自动理解而对图像数据进行存储、传输及显示。

一幅图像可定义为一个二维函数f(x,y),这里x和y是空间坐标,而在任何一对空间坐标(x,y)上的幅值f 称为该点图像的强度或灰度。当x,y和幅值f为有限的、离散的数值时,称该图像为数字图像。数字图像处理是指借用数字计算机处理数字图像,值得提及的是数字图像是由有限的元素组成的,每一个元素都有一个特定的位置和幅值,这些元素称为图像元素、画面元素或像素。像素是广泛用于表示数字图像元素的词汇。

视觉是人类最高级的感知器官,所以,毫无疑问图像在人类感知中扮演着最重要的角色。然而,人类感知只限于电磁波谱的视觉波段,成像机器则可覆盖几乎全部电磁波谱,从伽马射线到无线电波。它们可以对非人类习惯的那些图像源进行加工,这些图像源包括超声波、电子显微镜及计算机产生的图像。因此,数字图像处理涉及各种各样的应用领域。

图像处理涉及的范畴或其他相关领域(例如,图像分析和计算机视觉)的界定在初创人之间并没有一致的看法。有时用处理的输入和输出内容都是图像这一特点来界定图像处理的范围。我们认为这一定义仅是人为界定和。例如,在这个定义下,甚至最普通的计算一幅图像灰度平均值的工作都不能算做是图像处理。另一方面,有些领域(如计算机视觉)研究的最高目标是用计算机去模拟人类视觉,包括理解和推理并根据视觉输入采取行动等。这一领域本身是人工智能的分支,其目的是模仿人类智能。人工智能领域处在其发展过程中的初期阶段,它的发展比预期的要慢的多,图像分析(也称为图像理解)领域则处在图像处理和计算机视觉两个学科之间。

从图像处理到计算机视觉这个连续的统一体内并没有明确的界线。然而,在这个连续的统一体中可以考虑三种典型的计算处理(即低级、中级和高级处理)来区分其中的各个学科。

46

洛阳理工学院毕业设计论文

低级处理涉及初级操作,如降低噪声的图像预处理,对比度增强和图像尖锐化。低级处理是以输入、输出都是图像为特点的处理。中级处理涉及分割(把图像分为不同区域或目标物)以及缩减对目标物的描述,以使其更适合计算机处理及对不同目标的分类(识别)。中级图像处理是以输入为图像,但输出是从这些图像中提取的特征(如边缘、轮廓及不同物体的标识等)为特点的。最后,高级处理涉及在图像分析中被识别物体的总体理解,以及执行与视觉相关的识别函数(处在连续统一体边缘)等。

根据上述讨论,我们看到,图像处理和图像分析两个领域合乎逻辑的重叠区域是图像中特定区域或物体的识别这一领域。这样,在研究中,我们界定数字图像处理包括输入和输出均是图像的处理,同时也包括从图像中提取特征及识别特定物体的处理。举一个简单的文本自动分析方面的例子来具体说明这一概念。在自动分析文本时首先获取一幅包含文本的图像,对该图像进行预处理,提取(分割)字符,然后以适合计算机处理的形式描述这些字符,最后识别这些字符,而所有这些操作都在本文界定的数字图像处理的范围内。理解一页的内容可能要根据理解的复杂度从图像分析或计算机视觉领域考虑问题。这样,我们定义的数字图像处理的概念将在有特殊社会和经济价值的领域内通用。

数字图像处理的应用领域多种多样,所以文本在内容组织上尽量达到该技术应用领域的广度。阐述数字图像处理应用范围最简单的一种方法是根据信息源来分类(如可见光、X射线,等等)。在今天的应用中,最主要的图像源是电磁能谱,其他主要的能源包括声波、超声波和电子(以用于电子显微镜方法的电子束形式)。建模和可视化应用中的合成图像由计算机产生。

建立在电磁波谱辐射基础上的图像是最熟悉的,特别是X射线和可见光谱图像。电磁波可定义为以各种波长传播的正弦波,或者认为是一种粒子流,每个粒子包含一定(一束)能量,每束能量成为一个光子。如果光谱波段根据光谱能量进行分组,我们会得到下图1所示的伽马射线(最高能量)到无线电波(最低能量)的光谱。如图所示的加底纹的条带表达了这样一个事实,即电磁波谱的各波段间并没有明确的界线,而是由一个波段平滑地过渡到另一个波段。

47

洛阳理工学院毕业设计论文

图像获取是第一步处理。注意到获取与给出一幅数字形式的图像一样简单。通常,图像获取包括如设置比例尺等预处理。

图像增强是数字图像处理最简单和最有吸引力的领域。基本上,增强技术后面的思路是显现那些被模糊了的细节,或简单地突出一幅图像中感兴趣的特征。一个图像增强的例子是增强图像的对比度,使其看起来好一些。应记住,增强是图像处理中非常主观的领域,这一点很重要。

图像复原也是改进图像外貌的一个处理领域。然而,不像增强,图像增强是主观的,而图像复原是客观的。在某种意义上说,复原技术倾向于以图像退化的数学或概率模型为基础。另一方面,增强以怎样构成好的增强效果这种人的主观偏爱为基础。

彩色图像处理已经成为一个重要领域,因为基于互联网的图像处理应用在不断增长。就使得在彩色模型、数字域的彩色处理方面涵盖了大量基本概念。在后续发展,彩色还是图像中感兴趣特征被提取的基础。

小波是在各种分辨率下描述图像的基础。特别是在应用中,这些理论被用于图像数据压缩及金字塔描述方法。在这里,图像被成功地细分为较

48

洛阳理工学院毕业设计论文

小的区域。

压缩,正如其名称所指的意思,所涉及的技术是减少图像的存储量,或者在传输图像时降低频带。虽然存储技术在过去的十年内有了很大改进,但对传输能力我们还不能这样说,尤其在互联网上更是如此,互联网是以大量的图片内容为特征的。图像压缩技术对应的图像文件扩展名对大多数计算机用户是很熟悉的(也许没注意),如JPG文件扩展名用于JPEG(联合图片专家组)图像压缩标准。

形态学处理设计提取图像元素的工具,它在表现和描述形状方面非常有用。这一章的材料将从输出图像处理到输出图像特征处理的转换开始。

分割过程将一幅图像划分为组成部分或目标物。通常,自主分割是数字图像处理中最为困难的任务之一。复杂的分割过程导致成功解决要求物体被分别识别出来的成像问题需要大量处理工作。另一方面,不健壮且不稳定的分割算法几乎总是会导致最终失败。通常,分割越准确,识别越成功。

表示和描述几乎总是跟随在分割步骤的输后边,通常这一输出是未加工的数据,其构成不是区域的边缘(区分一个图像区域和另一个区域的像素集)就是其区域本身的所有点。无论哪种情况,把数据转换成适合计算机处理的形式都是必要的。首先,必须确定数据是应该被表现为边界还是整个区域。当注意的焦点是外部形状特性(如拐角和曲线)时,则边界表示是合适的。当注意的焦点是内部特性(如纹理或骨骼形状)时,则区域表示是合适的。则某些应用中,这些表示方法是互补的。选择一种表现方式仅是解决把原始数据转换为适合计算机后续处理的形式的一部分。为了描述数据以使感兴趣的特征更明显,还必须确定一种方法。描述也叫特征选择,涉及提取特征,该特征是某些感兴趣的定量信息或是区分一组目标与其他目标的基础。

识别是基于目标的描述给目标赋以符号的过程。如上文详细讨论的那样,我们用识别个别目标方法的开发推出数字图像处理的覆盖范围。

到目前为止,还没有谈到上面图2中关于先验知识及知识库与处理模块之间的交互这部分内容。关于问题域的知识以知识库的形式被编码装入一个图像处理系统。这一知识可能如图像细节区域那样简单,在这里,感

49

洛阳理工学院毕业设计论文

兴趣的信息被定位,这样,性的搜索就被引导到寻找的信息处。知识库也可能相当复杂,如材料检测问题中所有主要缺陷的相关列表或者图像数据库(该库包含变化检测应用相关区域的高分辨率卫星图像)。除了引导每一个处理模块的操作,知识库还要控制模块间的交互。这一特性上面图2中的处理模块和知识库间用双箭头表示。相反单头箭头连接处理模块。 边缘检测

边缘检测是图像处理和计算机视觉中的术语,尤其在特征检测和特征抽取领域,是一种用来识别数字图像亮度骤变点即不连续点的算法。尽管在任何关于分割的讨论中,点和线检测都是很重要的,但是边缘检测对于灰度级间断的检测是最为普遍的检测方法。

虽然某些文献提过理想的边缘检测步骤,但自然界图像的边缘并不总是理想的阶梯边缘。相反,它们通常受到一个或多个下面所列因素的影响:1.有限场景深度带来的聚焦模糊;2.非零半径光源产生的阴影带来的半影模糊;3.光滑物体边缘的阴影;4.物体边缘附近的局部镜面反射或者漫反射。

一个典型的边界可能是(例如)一块红色和一块黄色之间的边界;与之相反的是边线,可能是在另外一种不变的背景上的少数不同颜色的点。在边线的每一边都有一个边缘。

在对数字图像的处理中,边缘检测是一项非常重要的工作。如果将边缘认为是一定数量点亮度发生变化的地方,那么边缘检测大体上就是计算这个亮度变化的导数。为简化起见,我们可以先在一维空间分析边缘检测。在这个例子中,我们的数据是一行不同点亮度的数据。例如,在下面的1维数据中我们可以直观地说在第4与第5个点之间有一个边界:

5 7 6 4 152 148 149 如果光强度差别比第四个和第五个点之间小,或者说相邻的像素点之间光强度差更高,就不能简单地说相应区域存在边缘。而且,甚至可以认为这个例子中存在多个边缘。除非场景中的物体非常简单并且照明条件得到了很好的控制,否则确定一个用来判断两个相邻点之间有多大的亮度变化才算是有边界的阈值,并不是一件容易的事。实际上,这也是为什么边缘检测不是一个简单问题的原因之一。

50

洛阳理工学院毕业设计论文

有许多用于边缘检测的方法,它们大致可分为两类:基于搜索和基于零交叉.基于搜索的边缘检测方法首先计算边缘强度,通常用一阶导数表示,例如梯度模;然后,用计算估计边缘的局部方向,通常采用梯度的方向,并利用此方向找到局部梯度模的最大值。基于零交叉的方法找到由图像得到的二阶导数的零交叉点来定位边缘。通常用拉普拉斯算子或非线性微分方程的零交叉点,我们将在后面的小节中描述.滤波做为边缘检测的预处理通常是必要的,通常采用高斯滤波。

已发表的边缘检测方法应用计算边界强度的度量, 这与平滑滤波有本质的不同. 正如许多边缘检测方法依赖于图像梯度的计算, 他们用不同种类的滤波器来估计x-方向和y-方向的梯度.

一旦我们计算出导数之后,下一步要做的就是给出一个阈值来确定哪里是边缘位置。阈值越低,能够检测出的边线越多,结果也就越容易受到图片噪声的影响,并且越容易从图像中挑出不相关的特性。与此相反,一个高的阈值将会遗失细的或者短的线段。

如果边缘阈值应用于正确的的梯度幅度图像,生成的边缘一般会较厚,某些形式的边缘变薄处理是必要的。然而非最大抑制的边缘检测,边缘曲线的定义十分模糊,边缘像素可能成为边缘多边形通过一个边缘连接(边缘跟踪)的过程。在一个离散矩阵中,非最大抑制阶梯能够通过一种方法来实现,首先预测一阶导数方向、然后把它近似到45度的倍数、最后在预测的梯度方向比较梯度幅度。

一个常用的这种方法是带有滞后作用的阈值选择。这个方法使用不同的阈值去寻找边缘。首先使用一个阈值上限去寻找边线开始的地方。一旦找到了一个开始点,我们在图像上逐点跟踪边缘路径,当大于门槛下限时一直纪录边缘位置,直到数值小于下限之后才停止纪录。这种方法假设边缘是连续的界线,并且我们能够跟踪前面所看到的边缘的模糊部分,而不会将图像中的噪声点标记为边缘。但是,我们仍然存在选择适当的阈值参数的问题,而且不同图像的阈值差别也很大。

其它一些边缘检测操作是基于亮度的二阶导数。这实质上是亮度梯度的变化率。在理想的连续变化情况下,在二阶导数中检测过零点将得到梯度中的局部最大值。另一方面,二阶导数中的峰值检测是边线检测,只要

51

洛阳理工学院毕业设计论文

图像操作使用一个合适的尺度表示。如上所述,边线是双重边缘,这样我们就可以在边线的一边看到一个亮度梯度,而在另一边看到相反的梯度。这样如果图像中有边线出现的话我们就能在亮度梯度上看到非常大的变化。为了找到这些边线,我们可以在图像亮度梯度的二阶导数中寻找过零点。

总之,为了对有意义的边缘点进行分类,与这个点相联系的灰度级变换必须比在这一点的背景上变换更为有效。由于我们用局部计算进行处理,决定一个值是否有效的选择方法就是使用门限。因此,如果一个点的二维一阶导数比指定的门限大,我们就定义图像中的此点是一个边缘点。术语“边缘线段”一般在边缘与图像的尺寸比起来很短时才使用。分割的关键问题是如何将边缘线段组合成更长的边缘。如果我们选择使用二阶导数,则另一个可用的定义是将图像中的边缘点定义为它的二阶导数的零交叉点。此时,边缘的定义同上面讲过的定义是一样的。应注意,这些定义并不能保证在一幅图像中成功地找到边缘,它们只是给了我们一个寻找边缘的形式体系。图像中的一阶导数用梯度计算,二阶导数使用拉普拉斯算子得到。

52

因篇幅问题不能全部显示,请点此查看更多更全内容

Copyright © 2019- obuygou.com 版权所有 赣ICP备2024042798号-5

违法及侵权请联系:TEL:199 18 7713 E-MAIL:2724546146@qq.com

本站由北京市万商天勤律师事务所王兴未律师提供法律服务