魯亞琪,武明虎
(湖北工業(yè)大學 電氣與電子工程學院,湖北 武漢 430068)
?
基于PCA的非局部聚類稀疏表示圖像重建方法
魯亞琪,武明虎
(湖北工業(yè)大學 電氣與電子工程學院,湖北 武漢 430068)
針對腐化圖像恢復不足的問題,提出一種基于PCA的非局部聚類稀疏表示模型。首先,用圖像非局部自相似性來取得稀疏系數(shù)值;然后,對觀測圖像的稀疏編碼系數(shù)進行集中聚類;最后,通過學習字典使降噪圖像的稀疏編碼系數(shù)接近原始圖像的編碼系數(shù)。實驗結(jié)果表明,提出的方法在重建圖像性能上較同類方法有顯著提高,獲得了更好的圖像恢復質(zhì)量。
稀疏表示;非局部相似性;聚類分析
盡管目前的稀疏表示圖像恢復方法在去除輕度圖像腐化方面已取得了優(yōu)良的性能,但在腐化污染較嚴重或者圖像特性較復雜時,模型的高效性、魯棒性以及先驗模型的多樣性就還存在著很多不足。針對以上問題,本文在稀疏模型中結(jié)合圖像的結(jié)構(gòu)特征,運用先驗知識學習模型和稀疏編碼噪聲(SCN)概念[9],提出一種基于PCA的非局部聚類稀疏表示方法。實驗仿真將對比基于主成分分析的局部像素聚類兩步去噪聲方法(LPG_PCA)[10]和ASDS_AR_NL去模糊方法。數(shù)據(jù)結(jié)果表明,本文方法的去噪聲以及去模糊性能較同類方法有顯著的提高,并且具有較好的邊緣和紋理細節(jié)保持性能,獲得了更好圖像恢復質(zhì)量。
(1)
式中:y為低質(zhì)觀測量圖像;H為退化矩陣;D為字典;a為稀疏編碼系數(shù)向量;δ為預定常數(shù);τi為每個塊編碼向量的非局部期望值。
3.1字典訓練
對于很多結(jié)構(gòu)復雜的自然圖像,分析設(shè)計的小波字典和K-SVD學習字典都是通用字典,能用在任何圖像塊的表示上,但是,它們卻缺乏足夠的靈活度來盡可能稀疏地表示一個給定的局部圖像塊。本文在此考慮到使用過完備字典會使得稀疏編碼不穩(wěn)定,就在稀疏算法中加入一個優(yōu)良的聚類算法,為每個圖像塊收集一些相似塊,找到一個對每個塊都能自適應的字典,為每組相似塊的集群設(shè)計一個局部字典,再用主成分分析(PCA)對每個聚類集群進行基于PCA基的字典學習,并用這個字典來給當前集群中的塊進行統(tǒng)一編碼。
在本文的聚類方法中,首先計算圖像塊之間距離的均值,利用概率統(tǒng)計方法來確定相似度閾值,動態(tài)計算密度的半徑;然后,利用調(diào)整后的特征權(quán)重,重新計算各圖像塊與各聚類中心的距離,并重新增加新的聚類中心;最后,找到以某個聚類中心為中心的區(qū)域集合中密度值大于閾值的圖像塊。通過本文的聚類方法對圖像塊進行聚類,有效地對每個圖像塊進行自適應性學習PCA字典,從中選擇子字典進行編碼。本文聯(lián)合聚類方法與PCA子字典構(gòu)造完整的過完備字典,這樣,自然圖像的所有局部結(jié)構(gòu)就可以準確描述出來。
(3)提倡女性參加政治。秋瑾有較強的政治意識,提出婦女應當關(guān)心時政,擁有愛國思想。因為如果國亡,權(quán)利亦亡。保國,就是保權(quán)利。應把權(quán)利與義務(wù)聯(lián)系起來,把女子盡義務(wù),參與革命,作為爭取女性權(quán)益的條件之一。岸田俊子首次以國家觀念為媒介而開始參與政治活動,在這種國家觀念中,最為顯著的就是強烈的“愛國之情”。不僅如此,岸田還將矛頭指向男性民權(quán)家,期待將女性解放伸張納入到男性民權(quán)家的話語中去,以圖謀求女權(quán)。
3.2算法描述
對于給定的塊,通過計算它與平均值的差來判斷該塊所屬的類,對每個聚類進行PCA子字典Dk訓練,然后選擇PCA子字典對這一類進行編碼。在每次內(nèi)循環(huán)迭代時,通過迭代收縮來動態(tài)更新δi,j和{τi}這兩個正則化參數(shù),來解決最優(yōu)化問題。詳細算法流程圖如圖1所示。
圖1 算法結(jié)構(gòu)描述
實驗將每個子塊設(shè)置為7×7,分別對自然圖像進行去噪聲和去模糊測試。通過比較峰值信噪比(PSNR)和圖像相似度(FSIM)[12]來反映圖像重建的質(zhì)量。如圖2所示,本文選擇了5個黑白圖像,依次為Barbara,Lena,Pentagon,Cameraman,House,以及5個彩色圖像,依次為Parrot,Leaves,Butterfly,Plants,Tower。這些自然圖像各具特色,較適合用于測試仿真觀察。
圖2 測試圖像集(原圖第2行為彩色)
4.1去噪聲重建
本文將提出的去噪聲方法與LPGPCA方法比較,對每個圖像都測試了PSRN和FIMS值,測試結(jié)果如表1~4所示,每個圖像所得數(shù)據(jù)中,上面一行是LPGPCA方法所得數(shù)據(jù),下面一行是本文的方法所得數(shù)據(jù)。
如表1所示,分別顯示了低、中、高噪聲腐敗情況下對黑白圖像的修復效果。數(shù)據(jù)顯示,本文方法對黑白圖像的去噪聲有很好的效果,在圖像紋理和邊緣地方都很平滑。
表1高斯噪聲情形下不同算法的PSNR和FSIM值(黑白圖像測試結(jié)果)
圖片σ=5σ=20σ=80PSNR/dBFIMSPSNR/dBFIMSPSNR/dBFIMSBarbara38.750.9830.970.9023.050.7838.500.9831.210.9423.750.78Lena38.090.9830.540.9323.370.8238.130.9830.950.9324.430.83Pentagon35.930.9827.770.9021.320.6936.330.9828.320.9121.770.69Cameraman37.970.9729.720.8923.150.7738.280.9830.490.9123.920.78House39.470.9733.080.9125.820.8239.950.9833.890.9226.870.83
表2高斯噪聲情形下不同算法的PSNR和FSIM值(彩色圖像測試結(jié)果)1
圖片σ=5σ=20σ=60PSNR/dBFIMSPSNR/dBFIMSPSNR/dBFIMSParrot40.220.9832.460.9426.690.8840.370.9832.920.9325.670.86
表3高斯噪聲情形下不同算法的PSNR和FSIM值(彩色圖像測試結(jié)果)2
圖片σ=5σ=20σ=60PSNR/dBFIMSPSNR/dBFIMSPSNR/dBFIMSLeaves39.370.9930.410.9323.820.8441.370.9930.890.9422.400.84Butterfly39.000.9830.230.9224.250.8340.120.9830.320.9323.540.85
表4高斯噪聲情形下不同算法的PSNR和FSIM值(彩色圖像測試結(jié)果)3
圖片σ=5σ=20σ=60PSNR/dBFIMSPSNR/dBFIMSPSNR/dBFIMSPlants40.040.9832.400.9128.770.8540.930.9832.720.8928.470.82Tower40.370.9833.150.9329.680.8840.500.9632.020.8728.550.81
如圖3所示,為噪聲等級σ=5時的對比圖,從直觀上看出,本文方法較LPGPCA方法要優(yōu),視覺效果良好,與原圖圖像相似度較高,且參照表1中數(shù)據(jù)可得峰值信噪比高出LPGPCA方法0.3dB。
圖3 Cameraman圖測試效果
如圖4所示,為噪聲等級σ=80時的對比圖,從直觀上看出,在黑白圖像摻雜較高的噪聲時,本文的去噪聲方法較LPGPCA方法有顯著改善,圖像恢復效果明顯改進,與原圖圖像相似度較高,且參照表1中數(shù)據(jù)結(jié)果知道,本文較LPGPCA方法峰值信噪比提高了0.45dB。
如表2~4所示,分別顯示了不同噪聲腐敗情況下對彩色圖像的修復效果。數(shù)據(jù)顯示,在對彩色圖像去噪聲時,僅在中低噪聲影響下,本文方法大致保持了較好的降噪效果。但是,對于紋理較復雜的圖像,本文方法會把圖像本身的紋理也給平滑掉,產(chǎn)生較大失真。
如圖5所示,為噪聲等級σ=60時的對比圖,視覺觀察,LPGPCA方法要優(yōu)于本文的去噪聲方法,對于圖像中紋理的保持效果也較好于本文方法,由表2~表4中數(shù)據(jù)顯示,LPGPCA方法峰值信噪比要高出本文方法1dB。
圖4 Pentagon圖測試效果
圖5 Parrot圖測試效果
如圖6所示,為噪聲等級σ=20時的對比圖,從直觀上看出,在原圖像本身就紋理多的情況下,本文方法會造成一定程度的失真,將原有紋理光滑掉,此時,較LPGPCA方法效果要稍差一點。綜上所述,本文方法比較適用于黑白圖像去噪。
圖6 Tower圖測試效果
4.2去模糊重建
本文將提出的去模糊方法與ASDS_AR_NL方法進行比較。實驗發(fā)現(xiàn)本文的去模糊方法能有效地重建分段光滑區(qū)域,比ASDS_AR_NL方法效果更好。
表5顯示了在相同噪聲等級、不同模糊核的情況下,ASDS_AR_NL方法和本文的去模糊方法效果,每個圖像所得測試數(shù)據(jù)中,上面一行是ASDS_AR_NL方法所得結(jié)果,下面一行是本文的方法所得結(jié)果。可以看到,本文的PCA聚類稀疏表示去模糊方法在統(tǒng)一模糊和高斯模糊下都明顯優(yōu)于ASDS_AR_NL方法,參照表3中實驗數(shù)據(jù)可知,本文方法的峰值信噪比ASDS_AR_NL方法提高了0.1~0.3dB,與原圖像的相似度也較高。
表5去模糊圖像的PSNR和FSIM結(jié)果值
圖片Uniformblurσn=2Gaussianblurσn=2PSNR/dBFIMSPSNR/dBFIMSBarbara27.900.909823.840.806528.080.911823.900.8079Lena29.220.923826.550.871329.320.924726.820.8788Pentagon26.600.874823.740.766326.720.879323.920.7713Cameraman28.100.893924.210.803328.570.900924.520.8175House33.950.934429.790.851634.090.941130.190.8613Parrot31.180.933527.910.909632.150.944128.230.9179Leaves28.530.906123.900.792330.050.933824.750.8388Butterfly28.610.903524.570.801229.740.928125.360.8359Plants33.000.902630.650.867134.290.929031.410.8876Tower32.530.915829.750.879732.980.930530.040.8877
圖7 Butterfly圖測試結(jié)果
圖8 House圖測試結(jié)果
綜上所述,不論是高斯模糊核和還是統(tǒng)一模糊核,本文提出的去模糊方法比ASDS方法有更少的視覺工件,在視覺上更令人愉悅,從數(shù)據(jù)比較上,本文算法效果更好更清晰,也有更多的細節(jié)紋理。
本文利用非局部相似性,結(jié)合自然圖像的結(jié)構(gòu)特征,提出了一種基于PCA的非局部聚類稀疏表示圖像重建方法。該方法是將聚類方法與PCA基字典相結(jié)合,通過正則化約束來得到聚類描述的學習字典,從而更加精確地重構(gòu)圖像。通過一系列的實驗結(jié)果得出,本文提出的方法在圖像去噪聲以及圖像去模糊上都有較好的重建效果,實現(xiàn)了圖像恢復的細節(jié)紋理保真性,提高了圖像重建的魯棒性。
[1]李家德,張葉,賈平. 采用非局部均值的超分辨率重構(gòu)[J]. 光學精密工程,2013(6):1576-1585.
[2]ZHANGJ,LIUS,XIONGR.Improvedtotalvariationbasedimagecompressivesensingrecoverybynonlocalregularization[C]//Proc. 2013IEEEInternationalSymposiumonCircuitsandSystems.Beijing:InstituteofElectricalandElectronicsEngineersInc.,2013:2836-2839.
[3]ZHANGX,BURGERM,BRESSONX.Bregmanizednonlocalregularizationfordeconvolutionandsparsereconstruction[J].SIAMjournalonimagingsciences,2010(3):253-276.
[4]ZHANGH,YANGJ,ZHANGY.Non-localkernelregressionforimageandvideorestoration[C]//Proc. 11thEuropeanConferenceonComputerVision.Heraklion:SpringerVerlag,2010:566-579.
[5]AHARONM,ELADM,BRUCKSTEINA.K-SVD:analgorithmfordesigningovercompletedictionariesforsparserepresentation[J].IEEEtransactionsonsignalprocessing, 2006, 54(11):4311-4322.
[6]BRUCKSTEINAM,DONOHODL,ELADM.Fromsparsesolutionsofsystemsofequationstosparsemodelingofsignalsandimages[J].SIAMreview,2009,51(1):34-81.
[7]DONGW,ZHANGL,SHIG.Imagedeblurringandsuper-resolutionbyadaptivesparsedomainselectionandadaptiveregularization[J].IEEEtransactionsonimageprocessing, 2011, 20(7):1838-1857.
[8]MAIRALJ,BACHF,PONCEJ.Non-localsparsemodelsforimagerestoration[C]//Proc. 12thInternationalConferenceonComputerVision.Kyoto:InstituteofElectricalandElectronicsEngineersInc.,2009:2272-2279.
[9]DONGW,ZHANGL,SHIG.Nonlocallycentralizedsparserepresentationforimagerestoration[J].IEEEtransactionsonimageprocessing, 2013, 22(4): 1620-1630.
[10]ZHANGL,DONGW,ZHANGD.Two-stageimagedenoisingbyprincipalcomponentanalysiswithlocalpixelgrouping[J].Patternrecognition,2010,43(4):1531-1549.
[11]BREDIESK.Aniterativethresholding-likealgorithmforinverseproblemswithsparsityconstraintsinbanachspace[J].Journalofinverseandill-posedproblems,2009,17(1):19-26.
[12]ZHANGL,ZHANGL,MOUX.FSIM:afeaturesimilarityindexforimagequalityassessment[J].IEEEtransactionsonimageprocessing, 2011, 20(8):2378-2386.
責任編輯:時雯
Nonlocal clustering based on PCA sparse representation of image reconstruction method
LU Yaqi,WU Minghu
(SchoolofElectrical&ElectronicEngineering,HubeiUniversityofTechnology,Wuhan430068,China)
A nonlocal PCA based clustering the sparse representation is put forward in this paper,to solve the shortages problem of corrupt image restoration. First of all,sparse coefficient value is obtained by image nonlocal self-similarity,and then the sparse coding coefficients of the observed image is centralized to sparse coefficient value. In the end,make the sparse coding coefficients of the degraded image as close as possible to those of the unknown original image through learning the dictionary. Experimental results show that the method that proposed by this passage achieves significant improvements over the previous sparse reconstructed image methods and obtains better quality of image restoration.
sparse representation; nonlocal similarity; cluster analysis
TN911.73
A
10.16280/j.videoe.2016.09.003
國家自然科學基金項目(61471162)
2016-01-04
文獻引用格式:魯亞琪,武明虎.基于PCA的非局部聚類稀疏表示圖像重建方法[J].電視技術(shù),2016,40(9):16-21.
LU Y Q,WU M H.Nonlocal clustering based on PCA sparse representation of image reconstruction method[J].Video engineering,2016,40(9):16-21.