彭霓 鐘平 王潤(rùn)生
摘 要: 遙感圖像因其內(nèi)容豐富、幅面較寬,對(duì)其去噪面臨諸多挑戰(zhàn)。利用圖像塊的統(tǒng)計(jì)特性是提高圖像去噪性能的一條重要途徑。圖像塊的統(tǒng)計(jì)特性有兩類:基于待處理圖像相似塊上的內(nèi)部統(tǒng)計(jì)特性和基于外部圖像相似塊上的外部統(tǒng)計(jì)特性。為了充分利用內(nèi)部和外部統(tǒng)計(jì)特性各自對(duì)特定圖像內(nèi)容的去噪優(yōu)勢(shì),提出了一種基于內(nèi)容的自適應(yīng)選擇統(tǒng)計(jì)特性并用于圖像去噪的方法。實(shí)驗(yàn)結(jié)果表明,提出的自適應(yīng)選擇和組合圖像塊統(tǒng)計(jì)特性的去噪方法能夠顯著提高圖像去噪的性能。
關(guān)鍵詞: 圖像復(fù)原; 圖像去噪; 統(tǒng)計(jì)特性; 遙感圖像
中圖分類號(hào): TN911.73?34; TP751.1 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1004?373X(2015)19?0083?04
Abstract: Since remote sensing image has rich content and wide breadth, its denoising is faced with many challenges. It is an important way to improve image denoising performance by using the statistics characteristics of image blocks. The statistics characteristics of the image blocks are the internal statistics characteristic based on similar blocks of the pending processing image and the external statistics characteristic based on similar blocks of external image. To make the full use of denoising advantages of the two characteristics for the respective specific image contents, a content?based image denoising method with adaptive selection and statistics characteristic is proposed. The experimental results show that this method can improve image denoising performance observably.
Keywords: image restoration; image denoising; statistics characteristic; remote sensing image
0 引 言
由于遙感圖像的成像過(guò)程受大氣、平臺(tái)震動(dòng)、傳輸錯(cuò)誤等因素的影響,使得實(shí)際獲得的圖像常常包含多種類型的噪聲,直接導(dǎo)致后續(xù)圖像處理與分析性能的降低。圖像去噪處理能夠有效去除圖像中包含的噪聲,提高圖像的質(zhì)量,但是由于遙感圖像包含的景物內(nèi)容豐富,使得遙感圖像去噪要比自然圖像去噪面臨更大的挑戰(zhàn)。
圖像去噪是將含噪的退化圖像轉(zhuǎn)換為清潔(干凈)圖像的處理過(guò)程,往往是一個(gè)欠定的逆問(wèn)題,需要引入相關(guān)的先驗(yàn)信息作為限制條件,以獲取更加精確或優(yōu)化的解,先驗(yàn)信息又常常以圖像的統(tǒng)計(jì)特性來(lái)表示。圖像統(tǒng)計(jì)特性數(shù)學(xué)建模是構(gòu)建確定圖像空間中某種圖像屬性的數(shù)學(xué)統(tǒng)計(jì)模型。無(wú)論是單幅圖像還是具體類別的圖像集,都具有多種多樣的統(tǒng)計(jì)特性。常見(jiàn)的統(tǒng)計(jì)特性有:Poisson分布[1]、Beta分布[2]、混合高斯模型等[3?4],以及基于變換域中單位置的統(tǒng)計(jì)特性,如Steered濾波域中的高斯尺度混合(GSM)模型[5]、Steered濾波域中的局部Laplace模型[6]、傅里葉變換域中的指數(shù)分布模型[7]、小波變換域中的GSM模型[8]、梯度域Laplace分布[9]等。
根據(jù)計(jì)算統(tǒng)計(jì)特性的圖像塊集來(lái)自待處理圖像自身還是外部其他的圖像數(shù)據(jù),有內(nèi)部和外部?jī)深惤y(tǒng)計(jì)特性。基于圖像內(nèi)部圖像特性去噪[10](Internal Denoising),是利用待處理圖像內(nèi)部相似塊集的統(tǒng)計(jì)特性,常見(jiàn)的利用圖像內(nèi)部統(tǒng)計(jì)特性進(jìn)行去噪的方法包括NLM[11],BM3D[12]等方法;基于外部圖像特性去噪[10](External Denoising)如EPLL方法[13],則是利用待處理圖像外部圖像庫(kù)的統(tǒng)計(jì)特性。
由于兩類去噪方法各有其優(yōu)勢(shì),那么對(duì)于一幅需要進(jìn)行去噪處理的圖像,利用兩類統(tǒng)計(jì)特性,將兩類去噪方法中各自取得較好去噪效果的部分相結(jié)合,最終的去噪結(jié)果將優(yōu)于僅僅利用內(nèi)部或外部的單一統(tǒng)計(jì)特性的去噪結(jié)果。本文面向遙感可見(jiàn)光圖像提出了一種自適應(yīng)的選擇內(nèi)部或外部統(tǒng)計(jì)特性的去噪方法。該方法針對(duì)待處理圖像自動(dòng)選擇基于內(nèi)部統(tǒng)計(jì)特性的去噪方法(BM3D)或者基于外部統(tǒng)計(jì)特性的去噪方法(EPLL)。首先考慮利用相關(guān)性強(qiáng)的內(nèi)部統(tǒng)計(jì)特性,當(dāng)內(nèi)部特性不足時(shí)再自動(dòng)轉(zhuǎn)用外部統(tǒng)計(jì)特性,即首先使用BM3D方法,再對(duì)局部鄰域相似塊數(shù)量不夠的圖像塊使用EPLL方法。實(shí)驗(yàn)結(jié)果表明,新方法的性能優(yōu)于僅僅使用一類圖像塊統(tǒng)計(jì)特性的去噪方法。
1 遙感圖像統(tǒng)計(jì)特性分析
遙感圖像不同于自然圖像,它具有幅寬廣、包含地物內(nèi)容復(fù)雜等特點(diǎn),因此圖像具有豐富的統(tǒng)計(jì)特性。如果能夠?qū)@些豐富的統(tǒng)計(jì)特性建立正確的數(shù)學(xué)模型、盡可能多地融合利用多類型統(tǒng)計(jì)特性,無(wú)疑將會(huì)提高遙感圖像處理和分析的性能。
1.1 局部統(tǒng)計(jì)特性的類型
圖像中每個(gè)圖像塊都有特定的內(nèi)容,并且一幅圖像中常常具有多個(gè)內(nèi)容相似的圖像塊。當(dāng)相似塊達(dá)到一定數(shù)目時(shí),可以用這些相似塊的統(tǒng)計(jì)特性準(zhǔn)確表述這類圖像塊的圖像內(nèi)容。這類來(lái)自圖像本身的相似塊統(tǒng)計(jì)特性被稱為基于圖像塊的內(nèi)部統(tǒng)計(jì)特性,以下簡(jiǎn)稱內(nèi)部統(tǒng)計(jì)特性。BM3D(Block Method of 3?Dimension)是典型的利用內(nèi)部統(tǒng)計(jì)特性的圖像去噪方法[12]。endprint
當(dāng)特定圖像塊在所在圖像中缺少與之相似的圖像塊時(shí),就需要從外部圖像庫(kù)中獲取一定數(shù)量的相似圖像塊,然后利用這些外部相似圖像塊的統(tǒng)計(jì)特性幫助表述特定圖像塊的圖像內(nèi)容。為此,這類來(lái)自待處理圖像外部的相似塊統(tǒng)計(jì)特性被稱為基于圖像塊的外部統(tǒng)計(jì)特性,以下簡(jiǎn)稱外部統(tǒng)計(jì)特性。EPLL(Expected Patch Log Likelihood)是典型的利用外部統(tǒng)計(jì)特性的去噪方法[13]。
1.2 遙感圖像統(tǒng)計(jì)特性性能分析
從上述大量的實(shí)驗(yàn)結(jié)果分析,針對(duì)不同類型統(tǒng)計(jì)特性性能,可以得到如下的結(jié)論:
(1) 圖像內(nèi)部統(tǒng)計(jì)特性:圖像塊內(nèi)部統(tǒng)計(jì)特性必定是針對(duì)特定的圖像內(nèi)容;它建立在一定數(shù)目相似塊的統(tǒng)計(jì)分析基礎(chǔ)上;由于相似塊出自同一圖像,利用其做圖像去噪具有較好的親和性?;趦?nèi)部統(tǒng)計(jì)特性的去噪方法,對(duì)于局部圖像較為平滑、重復(fù)成分結(jié)構(gòu)較多的圖像,可以獲得特別好的去噪效果。
(2) 圖像外部統(tǒng)計(jì)特性:外部相似信息的引入,對(duì)復(fù)原丟失的圖像細(xì)節(jié)起到了積極作用,增強(qiáng)了去噪效果;但由于統(tǒng)計(jì)特性出自待處理圖像外部,親和性要弱一些,對(duì)一些有平滑圖像內(nèi)容的圖像,可能會(huì)出現(xiàn)Overfitting等不良情況。Overfitting主要出現(xiàn)在平滑圖像塊中,平滑圖像塊本身所含有的信息并不多,在加入噪聲之后,整個(gè)圖像塊中噪聲占主導(dǎo)地位。這類圖像塊在外部數(shù)據(jù)庫(kù)中尋找相似塊時(shí),是以噪聲為基準(zhǔn)而不是原圖像中的信息,這樣找到的相似塊并不準(zhǔn)確,建立的先驗(yàn)?zāi)P鸵矔?huì)是錯(cuò)誤的,不能得到理想的去噪效果。
通過(guò)以上分析可以看出,對(duì)于輸入的一幅含噪圖像,采用單一類型統(tǒng)計(jì)特性的圖像去噪方法,存在性能提升的空間。需要組合利用多類型統(tǒng)計(jì)特性,針對(duì)特定圖像內(nèi)容選擇利用合適的內(nèi)部和外部統(tǒng)計(jì)特性,以此有效提高遙感圖像的去噪性能。
2 統(tǒng)計(jì)特性的自適應(yīng)選擇和組合方法
目前已有一些組合利用多類型統(tǒng)計(jì)特性的方法。本文提出一種新的基于相似塊圖像數(shù)量的自適應(yīng)選擇內(nèi)部或外部統(tǒng)計(jì)特性的去噪方法。流程如下:首先利用BM3D和EPLL方法對(duì)含噪圖像分別進(jìn)行去噪處理;將含噪圖像按逐個(gè)像素點(diǎn)分為大小一致的若干個(gè)圖像塊,在待去噪圖像塊周圍一定大小窗口內(nèi)搜索相似塊,記下含噪圖像塊在一定鄰域內(nèi)相似塊的數(shù)量,本文中使用歐式距離進(jìn)行相似性的度量;統(tǒng)計(jì)給定圖像塊的相似塊數(shù)量,進(jìn)行推斷過(guò)程,對(duì)于數(shù)量值小于門(mén)限[T]的圖像塊,使用EPLL方法的去噪結(jié)果,反之則采用BM3D的去噪結(jié)果,最后通過(guò)圖像塊組合方法,得到最終的去噪結(jié)果。其數(shù)學(xué)表達(dá)式為:
2.1 相似塊計(jì)算方法
兩個(gè)圖像塊的相似性度量建立在圖像塊特性比較基礎(chǔ)上,定義圖像塊對(duì)應(yīng)像元間灰度差值和的平方根為相似距離,相似距離小的圖像塊對(duì)相似程度高。通過(guò)設(shè)置固定的相似距離門(mén)限,可以判斷哪些圖像塊相似或者不相似。對(duì)于一幅待處理圖像,各個(gè)圖像塊在其周圍一定大小窗口內(nèi)搜索相似塊,即在一定鄰域內(nèi)進(jìn)行窗口滑動(dòng),計(jì)算各個(gè)圖像塊與其的歐氏距離,判定其是否為相似圖像塊。
2.2 組合外部和內(nèi)部統(tǒng)計(jì)特性的去噪算法
組合圖像塊統(tǒng)計(jì)特性算法的過(guò)程如下:
(1) 確定待處理圖像的類別;
(2) 選出相應(yīng)圖像類別的相似塊數(shù)量門(mén)限;
(3) 搜索待處理圖像中圖像塊的相似塊,并計(jì)算相似塊數(shù)目[K;]
(4) 利用自適應(yīng)選擇模型確定在去噪結(jié)果選擇EPLL去噪的結(jié)果還是BM3D去噪的結(jié)果;
(5) 組合圖像塊生成最終的去噪結(jié)果。該方法重點(diǎn)在于找到最佳相似塊數(shù)量門(mén)限。
經(jīng)過(guò)對(duì)多幅不同場(chǎng)景的遙感圖像進(jìn)行實(shí)驗(yàn),發(fā)現(xiàn)每幅待分析的圖像都對(duì)應(yīng)一個(gè)最佳相似塊數(shù)量門(mén)限,而同類別的圖像都有接近的最佳門(mén)限。以城鎮(zhèn)和山地類型的遙感圖像為例,實(shí)驗(yàn)結(jié)果如圖1所示。
從圖1中可以看到,城鎮(zhèn)場(chǎng)景圖像的最佳相似塊門(mén)限集中在較小的數(shù)值,而山地場(chǎng)景圖像的門(mén)限值則較大,為了更好地估計(jì)出具體圖像類別的最佳門(mén)限,采用多幅實(shí)驗(yàn)數(shù)據(jù)庫(kù)中的圖像進(jìn)行實(shí)驗(yàn),對(duì)每類別多幅圖像的最佳相似塊數(shù)量門(mén)限進(jìn)行加權(quán)后得到各類別對(duì)應(yīng)的最佳門(mén)限,如表1所示。
圖1中[u]表示相似性判定的距離閾值,從圖1中可以看出,對(duì)于同類別的遙感圖像,在采用不同的相似度量門(mén)限進(jìn)行實(shí)驗(yàn)時(shí),去噪后圖像PSNR的最大值在相同相似度量門(mén)限下取得。對(duì)待處理圖像來(lái)說(shuō),不同的圖像塊相似距離門(mén)限會(huì)造成計(jì)算出的相似塊數(shù)量存在差異,以致采用不同的去噪過(guò)程,即采用不同的去噪方法。于是在對(duì)每類場(chǎng)景多幅圖像進(jìn)行實(shí)驗(yàn)后,將對(duì)城鎮(zhèn)類中判定相似距離門(mén)限采用350,相應(yīng)地對(duì)平原、山地類采用300的門(mén)限,機(jī)場(chǎng)類采用400的門(mén)限。
3 實(shí)驗(yàn)結(jié)果
3.1 實(shí)驗(yàn)數(shù)據(jù)設(shè)置
(1) 選擇城鎮(zhèn)、平原、山地和機(jī)場(chǎng)4類遙感圖像,每一類包含50幅圖像,形成實(shí)驗(yàn)圖像數(shù)據(jù)庫(kù);
(2) 從實(shí)驗(yàn)圖像數(shù)據(jù)庫(kù)每類選取2幅圖像,形成測(cè)試圖像集。
3.2 去噪結(jié)果
為了驗(yàn)證本文自適應(yīng)選擇統(tǒng)計(jì)特性方法的有效性,在4類場(chǎng)景8幅測(cè)試圖像中分別加入標(biāo)準(zhǔn)方差為25的高斯白噪聲,采用自適應(yīng)選擇統(tǒng)計(jì)特性方法、BM3D和EPLL對(duì)測(cè)試圖像進(jìn)行去噪處理。去噪結(jié)果如圖2所示(每類場(chǎng)景1幅)。
為了進(jìn)一步比較實(shí)驗(yàn)結(jié)果,使用峰值信噪比(PSNR)對(duì)去噪后的圖像質(zhì)量進(jìn)行定量比較,結(jié)果如表2所示。
實(shí)驗(yàn)結(jié)果表明,被相同噪聲污染的測(cè)試圖像使用自適應(yīng)選擇統(tǒng)計(jì)特性方法去噪后,圖像質(zhì)量明顯得到改善,其實(shí)驗(yàn)結(jié)果比BM3D方法和EPLL方法要好。與BM3D方法相比,BM3D方法處理后的圖像中有些細(xì)節(jié)圖像塊明顯被模糊,對(duì)于這些圖像塊,本文所述方法由于引入了外部相似信息,對(duì)復(fù)原丟失的圖像細(xì)節(jié)起到了積極作用,增強(qiáng)了去噪效果,較好地保留了圖像塊中的細(xì)節(jié)部分。EPLL方法中完全使用外部統(tǒng)計(jì)特性用于去噪處理,以至于圖像中物體的較長(zhǎng)直線邊緣出現(xiàn)了一定的失真,其實(shí)這些包含物體直線邊緣的圖像塊由于擁有足夠數(shù)量的相似塊,即內(nèi)部統(tǒng)計(jì)特性足夠,于是本文所述方法對(duì)這些圖像塊使用BM3D方法,較好地改善了這一問(wèn)題。從PSNR和SSIM數(shù)據(jù)的定量比較來(lái)看,相較于BM3D和EPLL方法,本文方法對(duì)圖像的PSNR值也有一定的提升。endprint
4 結(jié) 語(yǔ)
利用圖像的內(nèi)部統(tǒng)計(jì)特性和外部統(tǒng)計(jì)特性的去噪方法各有優(yōu)劣,組合利用圖像塊內(nèi)外統(tǒng)計(jì)特性是去噪的正確思路。本文提出自適應(yīng)選擇統(tǒng)計(jì)特性類型的去噪方法,相似塊數(shù)量低于門(mén)限值時(shí)采用外部統(tǒng)計(jì)特性的去噪方法(EPLL),反之采用內(nèi)部統(tǒng)計(jì)特性的去噪方法(BM3D),該方法取得了優(yōu)于采用單統(tǒng)計(jì)特性方法的去噪效果。
圖像塊相似性與求解最佳門(mén)限的公式都建立在圖像塊屬性基礎(chǔ)上,所采用的圖像屬性是否能夠準(zhǔn)確反映圖像內(nèi)容將直接影響最佳門(mén)限的質(zhì)量。本文主要使用圖像灰度信息,下一步研究要考慮使用梯度、邊緣、形狀等信息,以增加圖像內(nèi)容表述的充分性。另外,本文僅僅對(duì)單類別圖像內(nèi)容進(jìn)行去噪處理,今后要擴(kuò)展到對(duì)含有多類別圖像內(nèi)容的實(shí)際遙感圖像的同時(shí)去噪處理。
參考文獻(xiàn)
[1] RICHARDSON W H. Bayesian?based iterative method of image restoration [J]. Journal of the Optical Society of America, 1972, 62(1): 55?59.
[2] JIA J. Single image motion deblurring using transparency [C]// Proceedings of 2007 IEEE Conference on Computer Vision and Pattern Recognition. Minneapolis: IEEE, 2007: 1?8.
[3] WAN Y, NOWAK R D. A Bayesian multiscale approach to joint image restoration and edge detection [C]// Proceedings of 1999 SPIE′s International Symposium on Optical Science, Engineering, and Instrumentation. [S.l.]: SPIE, 1999: 73?84.
[4] CHAKRABARTI A, ZICKLER T. Statistics of real?world hyperspectral images [C]// Proceedings of 2011 IEEE Conference on Computer Vision and Pattern Recognition. Providence: IEEE, 2011: 193?200.
[5] ROTH S, BLACK M J. Steerable random fields [C]// Proceedings of 2007 International Conference on Computer Vision. [S.l.]: IEEE, 2007: 1?8.
[6] RABBANI H. Image denoising in steerable pyramid domain based on a local Laplace prior [J]. Pattern Recognition, 2009, 42(9): 2181?2193.
[7] CARON J N, NAMAZI N M, ROLLINS C J. Noniterative blind data restoration by use of an extracted filter function [J]. Applied Optics, 2002, 41(32): 6884?6889.
[8] PORTILLA J, STRELA V, WAINWRIGHT M J, et al. Image denoising using scale mixtures of Gaussians in the wavelet domain [J]. IEEE Transactions on Image Processing, 2003, 12(11): 1338?1351.
[9] LEVIN A, FERGUS R, DURAND F, et al. Image and depth from a conventional camera with a coded aperture [J]. ACM Transactions on Graphics, 2007, 26(3): 70?72.
[10] MOSSERI I, ZONTAK M, IRANI M. Combining the power of internal and external denoising [C]// Proceedings of 2013 IEEE International Conference on Computational Photography. [S.l.]: IEEE, 2013: 1?9.
[11] BUADES A, COLL B, MOREL J M. A non?local algorithm for image denoising [C]// IEEE International Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2005, 2(8): 60?65.
[12] DABOV K, FOI A, KATKOVNIK V, et al. Image denoising by sparse 3?D transform?domain collaborative filtering [J]. IEEE Transactions on Image Processing, 2007, 16(8): 2080?2095.
[13] ZORAN D, WEISS Y. From learning models of natural image patches to whole image restoration [C]// Proceedings of 2011 International Conference on Computer Vision. [S.l.]: IEEE, 2011: 479?486.endprint