岳彥敏,劉 叢
(上海理工大學(xué)光電信息與計(jì)算機(jī)工程學(xué)院,上海 200093)
遙感衛(wèi)星圖像分辨率越高包含的地物信息越豐富,其利用價(jià)值就越高。但是圖像的采集過(guò)程容易受到外界環(huán)境和成像設(shè)備等多種因素影響,會(huì)丟失高頻信息。提升硬件設(shè)備性能的成本高、難度大。因此,從軟件方面來(lái)提高遙感圖像分辨率成為研究熱點(diǎn)。圖像超分辨率重建(Super-Resolution Reconstruction,SRR)[1]是利用一幅或多幅低分辨率(Low-Resolution,LR)圖像獲得一幅高分辨率(High-Resolution,HR)圖像,它可以較好地改善遙感圖像的重建質(zhì)量,在遙感衛(wèi)星領(lǐng)域具有重要的應(yīng)用價(jià)值。
圖像超分辨率重建是一個(gè)病態(tài)逆問(wèn)題[2]。為解決該問(wèn)題,研究人員提出了基于插值[3]、基于重建[4]和基于學(xué)習(xí)等[5-7]方法。其中,基于稀疏學(xué)習(xí)的超分辨重建算法應(yīng)用最為廣泛。Yang 等[8]、Zhang 等[9]受壓縮感知(Compressive Sensing,CS)思想啟發(fā),利用字典學(xué)習(xí)將稀疏編碼引入圖像的超分辨率重建問(wèn)題中,提出一種基于稀疏表示(Sparse-Representation,SR)的圖像超分辨率重建算法;Rohit 等[10]、Zeyde 等[11]使用主成分分析(Principal Component Analysis,PCA)和正交匹配追蹤(Orthogonal Matching Pursuit,OMP)算法對(duì)字典學(xué)習(xí)方法進(jìn)行改進(jìn),提高了算法速度,取得了較好的重建效果。在面對(duì)結(jié)構(gòu)較為復(fù)雜的圖像重建時(shí),以上算法學(xué)習(xí)的單一聯(lián)合字典具有一定局限性;后來(lái)Dong等[13]提出了非局部自回歸模型方法,將樣本分類(lèi),利用PCA 算法得到的每個(gè)類(lèi)的子字典較好地重構(gòu)了圖像結(jié)構(gòu);Wang 等[14]使用分組字典思想,根據(jù)主方向角對(duì)圖像塊分類(lèi)并訓(xùn)練多個(gè)字典和殘差字典,取得了較好的重建效果。但是分組字典也有缺點(diǎn),即每個(gè)子字典都是一個(gè)獨(dú)立的字典,并沒(méi)有考慮每個(gè)子字典與樣本間的關(guān)聯(lián)性;在圖像分類(lèi)方面,Yang[15]使用具有關(guān)聯(lián)性的分組字典比其他算法更有效。上述研究啟發(fā)我們要加強(qiáng)每個(gè)子字典與樣本間的關(guān)聯(lián)性,以提高字典的精確性。
因此,本文提出結(jié)合分組聯(lián)合字典的圖像超分辨重建算法。該模型首先將訓(xùn)練樣本分類(lèi),針對(duì)每一類(lèi)學(xué)習(xí)一組聯(lián)合字典。每類(lèi)樣本不僅可以被其學(xué)習(xí)到的子聯(lián)合字典強(qiáng)線性表示,還可以被所有分組聯(lián)合字典所組成的總字典線性表示。實(shí)驗(yàn)表明,本文提出的分組聯(lián)合字典在遙感圖像超分辨重建中效果較好。
一幅低分辨率圖像是由其對(duì)應(yīng)的高分辨率圖像經(jīng)模糊及下采樣等操作獲得,該退化模型可表示為:
其中,X、Y分別為高、低分辨率圖像;H表示模糊算子,S表示下采樣,v表示噪聲矩陣。一個(gè)d維的輸入信號(hào)x∈Rd可用一組原子的線性組合對(duì)其逼近,表示為x ≈Dα。由于L0 范數(shù)在優(yōu)化過(guò)程中存在一定困難,通常將其松弛為L(zhǎng)1 范數(shù)形式。其中D∈Rd×m表示稀疏字典,m表示字典中原子的個(gè)數(shù)。通過(guò)求解如下模型可獲得具有稀疏性的系數(shù):
基于聯(lián)合字典和分組字典學(xué)習(xí)的思想,本文設(shè)計(jì)了一種基于分組聯(lián)合字典的超分辨率重建方法。將LR 特征圖像塊劃分為C 類(lèi),其對(duì)應(yīng)的HR 圖像也賦予相應(yīng)的類(lèi)標(biāo)簽,分別表示為,其中分別表示第i類(lèi)的HR 圖像塊和LR特征圖像塊,ni為樣本數(shù)目。HR 圖像與LR 圖像的字典對(duì)為{Dh,Dl},分別表示HR 圖像和LR 圖像對(duì)應(yīng)的字典。每個(gè)類(lèi)別都需要學(xué)習(xí)一個(gè)子字典,所以高、低子字典可表示為和分別表示第i類(lèi)樣本的HR 字典和LR 字典,mi為第i類(lèi)字典的原子數(shù)目。n個(gè)樣本的稀疏系數(shù)矩陣表示為A=[α1,α2…,αn]∈Rm×n,系數(shù)矩陣對(duì)應(yīng)C 個(gè)類(lèi),表示為A=[A1,A2…,AC]。建立分組聯(lián)合字典模型如下:
根據(jù)文獻(xiàn)[15]算法優(yōu)化方法將式(3)展開(kāi):
結(jié)合文獻(xiàn)[8],上式可改寫(xiě)為:
本節(jié)對(duì)模型進(jìn)行優(yōu)化,優(yōu)化算法仿照文獻(xiàn)[15-16]設(shè)計(jì)。
(1)求解稀疏系數(shù)Ai。固定字典和所有的系數(shù)Aj(j≠i),分別更新系數(shù)Ai(i=1,2,…,C)并合成系數(shù)矩陣A。根據(jù)式(5)可得:
式(6)可由迭代軟閾值算法[17]求解:
其中,soft(*,*)為軟閾值算子,k為迭代次數(shù),表示Q(Ai)對(duì)Ai求一階導(dǎo)數(shù)為軟閾值。
對(duì)式(8)求解計(jì)算的過(guò)程如下:
固定變量Ai,更新:
依據(jù)此步驟迭代更新編碼系數(shù)A 和分組聯(lián)合字典D,直到滿(mǎn)足停止標(biāo)準(zhǔn)后停止更新。然后,使用分組聯(lián)合字典進(jìn)行圖像重建。
重建過(guò)程:①首先使用一階和二階梯度算子提取圖像特征,獲得一幅低分辨率特征圖像;②將該圖像劃分成n個(gè)尺寸相同的子塊,并對(duì)所有子塊向量化,得;③計(jì)算每個(gè)圖像塊到類(lèi)中心(訓(xùn)練模型時(shí)分組獲得)的歐氏距離,將劃分到C 個(gè)不同類(lèi)中,表示為,每個(gè)類(lèi)對(duì)應(yīng)一個(gè)子聯(lián)合字典。根據(jù)分組聯(lián)合字典思想,使用公式(11)可獲得圖像塊的稀疏表示系數(shù),式中λ 為正則化標(biāo)量參數(shù)。
使用該系數(shù)重建高分辨率圖像塊,將獲得的圖像塊合并為整幅初始估計(jì)Xh,并加強(qiáng)圖像塊間的全局約束,得到最終的高分辨率圖像:
為驗(yàn)證本文算法的有效性,使用UCMerced_LandUse[18]作為訓(xùn)練集和測(cè)試集。所有算法都使用Matlab R2016a 仿真軟件編程,在Windows 10 64 位操作系統(tǒng)中運(yùn)行。硬件配置為CPU Inter(R)Core(TM)i7 2.6GHz,運(yùn)行內(nèi)存8G。在字典訓(xùn)練過(guò)程中,將高分辨率圖像塊大小設(shè)為6×6,兩個(gè)相鄰塊之間的重疊像素寬度設(shè)為4,并對(duì)其做去均值運(yùn)算。低分辨率圖像塊大小設(shè)為3×3,重疊像素為2。分別與SCSR 算法、Zeyde’s 算法和Gong’s 算法[19]進(jìn)行對(duì)比。重建質(zhì)量使用峰值信噪比(PSNR)和結(jié)構(gòu)相似性(SSIM)兩種指標(biāo)進(jìn)行評(píng)價(jià)。圖1—圖3 展示了3 張使用不同重建算法獲得的高分辨率圖像重建結(jié)果。
通過(guò)觀察圖1—圖3 的局部效果可以看出,Bicubic 算法出現(xiàn)明顯的模糊現(xiàn)象,SCSR 算法對(duì)圖像的整體銳化度較高,局部邊緣輪廓模糊并伴有偽影,Zeyde’s、Gong’s 算法較好地保持了圖像邊緣,但是引入了噪聲點(diǎn),圖像部分出現(xiàn)了塊狀和邊緣白邊現(xiàn)象,視覺(jué)效果欠佳。本文算法較好地保持了圖像邊緣清晰度,有效抑制了噪聲點(diǎn)對(duì)重建效果的影響,圖像輪廓保持較好。
Fig.1 Comparison of reconstructed images of airplane23圖1 airplane23 重建圖像比較
Fig.2 Comparison of reconstructed images of intersction34圖2 intersction34 重建圖像比較
Fig.3 Comparison of reconstructed images of residenal93圖3 residential93 重建圖像比較
使用PSNR 和SSIM 指標(biāo)來(lái)客觀評(píng)價(jià)算法性能。由表1可知,本文算法與SCSR 和Zeyde’s 相比,PSNR 和SSIM 均相對(duì)提高,單幅圖像的PSNR 最高可達(dá)1.36dB。與Gong’s 算法相比,本文算法PSNR 平均提高0.20dB,說(shuō)明本文算法確實(shí)有效。SSIM 的平均值提高約0.02~0.06,表明本文重建出的圖像與原圖的結(jié)構(gòu)更接近,進(jìn)一步說(shuō)明了本文算法的有效性。
Table 1 Comparison of PSNR/SSIM values of different algorithms表1 不同算法的PSNR/SSIM 值比較
本文受分組字典和字典—樣本間關(guān)聯(lián)性思想啟發(fā),提出了一種結(jié)合分組聯(lián)合字典的圖像超分辨率重建算法。根據(jù)重建樣本所屬的類(lèi)別找到最合適的主子字典和次子字典進(jìn)行重建,使重建出的遙感圖像邊緣細(xì)節(jié)更為清晰,圖像整體更為自然。但本文方法仍有一些可改進(jìn)之處,如圖像塊的聚類(lèi)方法、圖像塊的提取特征方法需改進(jìn),以及加快稀疏字典編碼的速度。本文方法可推廣到其他領(lǐng)域進(jìn)行圖像重建。