楊三加,謝正光,張 崢,姜欣玲
(南通大學(xué) 電子信息學(xué)院,江蘇 南通 226019)
近些年發(fā)展起來的壓縮感知技術(shù)(Compressed Sensing,CS)[1-2]突破了Nyquist 采樣定理的瓶頸,可以用低于Nyquist 采樣定理所需的采樣速率對信號進(jìn)行采樣。目前,CS 主要由信號的稀疏表示、觀測矩陣設(shè)計以及恢復(fù)算法三部分組成,恢復(fù)算法是CS 理論中至關(guān)重要的組成部分,它直接影響信號的重構(gòu)質(zhì)量。
現(xiàn)階段恢復(fù)算法主要有貪婪算法[4-5]、凸優(yōu)化算法[6]和Bayesian 方法[8-11]?;贐ayesian 方法的稀疏信號重構(gòu)首先將促進(jìn)稀疏性的先驗概率分布賦予未知信號,然后從壓縮測量值中推斷未知系數(shù)的后驗分布。2009 年,Malkei 以Bayesian 方法為基礎(chǔ),用拉普拉斯分布逼近信號分布,推導(dǎo)出的近似信息傳遞算法(Approximate Message Passing,AMP)[3]不僅有迭代閾值類算法的低復(fù)雜度,而且在數(shù)據(jù)量充分大的情形下重建信號的能力與基追蹤(Basis Pursuit,BP)[12]相當(dāng)。2010 年,Sudeep Rangan[8]提出的廣義近似信息傳遞算法(Generalized Approximate message,GAMP)是對AMP 的推廣,它可以處理任何可因子分解的信號和噪聲分布。由于并不能預(yù)先知道信號和噪聲模型,因此Jeremy Vlia 和Philip Schniter 用貝努力高斯模型(Bernoulli Gaussian,BG)和高斯混合模型(Gaussian Mixture,GM)逼近信號,零均值的高斯白噪聲逼近噪聲,采用期望最大值算法(Expectation Maximization,EM)[13]估計信號模型中的參數(shù),得到期望最大貝努力高斯近似信息傳遞算法(Expectation Maximization Bernoulli Gaussian Approximate Message Passing,EM-BG-AMP)[9]和期望最大高斯混合近似信息傳遞算法(Expectation Maximization Gaussian Mixture Approximate Message Passing,EM-GM-AMP)[10]。但是,他們只考慮了對一維信號的重建,并沒有考慮二維圖像信號。
若圖像的稀疏基是小波,不同分解級數(shù)不同方向小波系數(shù)的稀疏率、均值和方差并不相同。用EM-BG-AMP 重構(gòu)圖像,近似系數(shù)和每級各個方向細(xì)節(jié)系數(shù)的BG 模型參數(shù)相同,降低了模型參數(shù)估計的精確性。因此,本文根據(jù)圖像在小波基下系數(shù)的分布特點,提出了期望最大分段貝努力高斯近似信息傳遞算法(Expectation Maximization Separately Segment Bernoulli Gaussian Approximate Message Passing,EM-SSBG-AMP),將小波分解后的近似系數(shù)與每級的水平、垂直、對角細(xì)節(jié)系數(shù)的BG 模型參數(shù)分開估計,提高了模型參數(shù)估計的精確性。
圖像經(jīng)小波變換[14]后,小波系數(shù)的幅值在尺度間呈指數(shù)形式下降,且不同分解級數(shù)不同方向小波系數(shù)的稀疏率、均值、方差有著較大的差異。用BG逼近小波系數(shù),每級各個方向小波系數(shù)的稀疏率、均值、方差不應(yīng)相同。因此,本文在使用EM 更新BG模型參數(shù)時,將近似系數(shù)與各級的水平、垂直、對角細(xì)節(jié)系數(shù)的模型參數(shù)分開估計,以提高估計參數(shù)的精確性。
進(jìn)行S 級小波分解的圖像可將BG 模型參數(shù)分為3S+1個數(shù)據(jù)段估計。設(shè)3S+1個數(shù)據(jù)段的索引集合為I={s(1),s(2),…,s(3S+1)},s(1)是近似系數(shù)索引集,其余的是各級細(xì)節(jié)系數(shù)的索引集。集合F={ls(1),ls(2),…,ls(3S+1)}中每個元素表示I 中每個索引集包含元素的個數(shù)。數(shù)據(jù)段l 中第i個元素θs(l)(i)的BG 模型表示如下:
由文獻(xiàn)[9-10]以及本文的研究思路可得第l數(shù)據(jù)段下Ps(l)中每個參數(shù)的EM 更新方式:
圖1 為本文所提算法EM-SSBG-AMP 框圖。
圖1 EM-SSBG-AMP 流程框圖Fig.1 Block diagram of EM-SSBG-AMP
EM-SSBG-AMP 算法的詳細(xì)步驟如下:
判斷是否滿足迭代終止條件:E <Etol‖K <Kmax,滿足則跳出循環(huán),不滿足則用EM 對近似系數(shù)和各級細(xì)節(jié)系數(shù)的參數(shù)進(jìn)行更新:
ρSE(δ)是理論上l1最小范數(shù)相移曲線[9]。從EM-SSBG-AMP 的詳細(xì)步驟可看出EM 更新過后近似系數(shù)與每級各個方向細(xì)節(jié)系數(shù)的模型參數(shù)并不相同,提高了估計參數(shù)的適應(yīng)性,而文獻(xiàn)[9]和[10]在EM 更新后所有模型參數(shù)相同,并不符合圖像小波分解后系數(shù)分布的真實情形。
為評價模型的性能,選取具有代表性的大小為128 ×128 紋理不同的Barbara(紋理復(fù)雜)、Lena(紋理適中)與Fruits(紋理簡單)3 幅自然圖像做為測試對象。圖像恢復(fù)后的客觀評價指標(biāo)峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)定義為
為便于公平比較不同算法的重建性能,實驗環(huán)境及參數(shù)的設(shè)置基于文獻(xiàn)[9-10]。仿真平臺為Matlab 2012b,CPU 為3.47 GHz、內(nèi)存為24 GB 的Windows 7 HP 臺式機(jī)。
對二維圖像的測量,僅列出以小波函數(shù)db1、分解級數(shù)S=4 為例的測試結(jié)果,其他不同小波函數(shù)或分解級數(shù)也可以使用。實驗中將變換后的小波系數(shù)排列成一個列向量θ,其維數(shù)N=128 ×128。欠采樣率δ 定義為n/N,分別取典型值0.2、0.3、0.4、0.5進(jìn)行比較。測量值個數(shù)n=δN。列歸一化的測量矩陣Φ∈Rn×N服從均值為0、方差為1/M 的高斯分布。Kmax=10、Etol=10-5與文獻(xiàn)[9-10]相同。為保證重構(gòu)概率的準(zhǔn)確性,用相互獨立的500個測量矩陣Φ 分別對以上3 幅圖像進(jìn)行測量與重構(gòu),評價指標(biāo)取平均。
因高斯模型的階數(shù)大于5 時算法復(fù)雜且PSNR增加較小,所以本實驗僅與3 階和5 階EM-GM-AMP(表示成EM- GM(3)- AMP,EM- GM(5)-AMP)以及未分層估計的EM-BG-AMP 進(jìn)行比較。
從表1 中可以明顯看出,所提算法EM-SSBG-AMP 的PSNR 明顯高于EM- BG- AMP、EM-GM(3)-AMP 和EM-GM(5)-AMP。紋理越復(fù)雜,EM-SSBG-AMP 的優(yōu)勢越明顯,如當(dāng)采樣率為0.5 時,對于Barbara、Lena 和Fruits,EM- SSBG-AMP 的PSNR 比EM- GM(5)- AMP 依次高1.96 dB、1.76 dB、1.56 dB。而隨著采樣率的增高,EM-SSBG-AMP 與EM-GM(5)-AMP 之間的差值呈現(xiàn)出一種非增趨勢,比如對于紋理較簡單的Fruits,在采樣率為0.2、0.3、0.4、0.5 時EM-SSBG-AMP 比EM- GM(5)- AMP 分別高1.67 dB、1.62 dB、1.61 dB、1.54 dB。也就是說,采樣率越低時,EM-SSBG-AMP 的優(yōu)勢越明顯。圖2 給出了每幅圖像的PSNR 曲線,以便更直觀地比較每幅圖像在不同的采樣率下的PSNR 變化趨勢。
表1 采樣率為0.2、0.3、0.4、0.5 下不同算法重建圖像實驗結(jié)果Table 1 Reconstructed image simulation results when sampling ratio is 0.2,0.3,0.4,0.5,respectively
圖2 采樣率為0.2、0.3、0.4、0.5 下不同算法重建圖像的PSNR 曲線Fig.2 The PSNR curve of reconstructed image when sampling ratio is 0.2,0.3,0.4,0.5,respectively
從表1 中同時可以看出對3 幅測試圖像,EMSSBG-AMP 所用的時間比EM-BG-AMP 略高,高出的時間是每次分層估計尋找索引增加的時間。與EM-GM(3)-AMP 和EM-GM(5)- AMP 相比,EM-SSBG-AMP 所用的時間略少。圖3 給出了3 幅圖像不同采樣率下的時間曲線,以便更直觀地比較時間變化趨勢。
圖3 采樣率為0.2、0.3、0.4、0.5 下不同算法重建圖像時間曲線Fig.3 The time curve of reconstructed image when sampling ratio is 0.2,0.3,0.4,0.5,respectively
為了比較重構(gòu)圖像的視覺效果,圖4~6 為采樣率為0.5,EM-BG-AMP、EM-GM(5)-AMP、EM-SSBG-AMP 重建Barbara、Lena、Fruits 的視覺效果圖。從圖4~6 可看出,本文所提算法較EM-BG-AMP 和EM-GM(5)-AMP 重建紋理清晰,沒有明顯的塊效應(yīng)。
圖4 采樣率為0.5 不同算法重建Barbara 圖像Fig.4 Reconstructed Barbara image by different algorithms when sampling ratio is 0.5
圖5 采樣率為0.5 不同算法重建Lena 圖像Fig.5 Reconstructed Lena image by different algorithms when sampling ratio is 0.5
圖6 采樣率為0.5 不同算法重建Ftuits 圖像Fig.6 Reconstructed Fruits image by different algorithms when sampling ratio is 0.5
從以上的比較與分析可知,對分開估計BG 模型參數(shù)的EM-SSBG-AMP 重建圖像的PSNR 和視覺效果明顯優(yōu)于EM-BG-AMP,提高了模型參數(shù)估計的適應(yīng)性。與3 階和5 階的EM-GM-AMP 相比,EM-SSBG-AMP 的PSNR 和視覺優(yōu)勢明顯,而時間相當(dāng)。同時,EM-SSBG-AMP 重建紋理復(fù)雜的圖像優(yōu)勢更為明顯。在實際應(yīng)用中,將不同分解級數(shù)不同方向的小波系數(shù)模型參數(shù)分開估計,易于實現(xiàn)。
本文提出的EM-SSBG-AMP 分開估計圖像小波分解后的近似系數(shù)與每級各個方向細(xì)節(jié)系數(shù)的模型參數(shù),提高了參數(shù)估計的適應(yīng)性,它適用于稀疏變換系數(shù)分布不均勻的圖像。相同采樣率下,EMSSBG-AMP 重建圖像的時間比5 階EM- GM-AMP 少,PSNR 比5 階EM-GM-AMP 高,紋理復(fù)雜度越高,EM- SSBG- AMP 重建圖像的PSNR 比5階EM-GM-AMP 高得越多。下一步的研究方向是利用小波系數(shù)尺度間、尺度內(nèi)的相關(guān)性來提高模型參數(shù)估計的適應(yīng)性以及進(jìn)行算法的抗噪聲性能研究。
[1]Candes E,Romberg J,Tao T.Robust uncertainty principles:Exact signal reconstruction from highly incomplete frequency information[J].IEEE Transactions on Information Theory,2006,52(2):489-509.
[2]Donoho D L.Compressed sensing[J].IEEE Transactions on Information Theory,2006,52(4):1289-1306.
[3]Donoho D L,Maleki A,Montanari A.Message Passing Algorithms for Compressed Sensing[J].Proceedings of the National Academy of Sciences,2010,106 (45):18914-18919.
[4]Wu D,Zhu W P,Swamy M N S.The theory of compressive sensing matching pursuit considering time domain noise with application to speech enhancement[J].IEEE Transactions on Audio,Speech,and Language Processing,2014,22(3):682-696.
[5]Chang L,Wu J.An Improved RIP-Based Performance Guarantee for Sparse Signal Recovery via Orthogonal Matching Pursuit[J].IEEE Transactions on Information Theory,2014,60(9):5702-5715.
[6]Rao B D,Engan K,Cotter S F,et al.Subset selection in noise based on diversity measure minimization[J].IEEE Transactions on Signal Processing,2003,51 (3):760-770.
[7]Donoho D L,Javanmard A,Montanari A.Information theoretically optimal compressed sensing via spatial coupling and approximate message passing[J].IEEE Transactions on Information Theory,2013,59(11):7434-7464.
[8]Rangan S.Generalized Approximate Message Passing for Estimation with Random Linear Mixing[J].Eprint Arxiv,2010,42(4):2168-2172.
[9]Vila J,Schniter P.Expectation maximization Bernoulli Gaussian approximate message passing[C]//Proceedings of 2011 Conference Record of the Forty Fifth Asilomar Conference on Signals,Systems and Computers.California,USA:IEEE,2011:799-803.
[10]Vila J,Schniter P.Expectation Maximization Gaussian Mixture Approximate Message Passing [J].IEEE Transactions on Signal Processing,2013,61 (19):4658-4672.
[11]Wu S,Kuang L,Ni Z,et al.Expectation propagation approach to joint channel estimation and decoding for OFDM systems[C]// Proceedings of 2014 IEEE International Conference on Acoustics,Speech and Signal Processing. Washington,USA:IEEE,2014:1941-1945.
[12]Zhang X W,Ming L,Lei Z.Sparse Signal Reconstruction Based on Basis Pursuit Moore Penrose Inverse Matrix[J].Journal of Electronics & Information Technology,2014,35(2):388-393.
[13]Demrsrsa A P,Lamb N M,Rubin D B.Maximum likelihood from incomplete data via the EM algorithm[J].Journal of the Royal Statistical Society Series B(Methodological),1977,39(1):1-38.
[14]Zhang Y,He Z,Zhang Y,et al.Global optimization of wavelet domain hidden Markov tree for image segmentation [J].Pattern Recognition,2011,44 (12):2811-2818.