葛嶺嶺,張志偉,張婷婷
(河北工業(yè)大學(xué) 電子信息工程學(xué)院 天津 300401)
壓縮感知[1](CS)是Donoho和Candes等提出的一種新興的信號(hào)獲取與處理理論。如果圖像在某個(gè)變換域可以稀疏表示,那么我們可以通過(guò)求解相關(guān)的優(yōu)化問(wèn)題,就可由隨機(jī)下采樣的稀疏系數(shù)來(lái)進(jìn)行重構(gòu),并在一定程度上保持原有圖像的重構(gòu)質(zhì)量。基于壓縮傳感的MRI重建算法利用MRI稀疏表示或局部光滑的先驗(yàn)知識(shí),通過(guò)求解相應(yīng)的優(yōu)化問(wèn)題來(lái)實(shí)現(xiàn)重建。目前已有多種算法解決此類(lèi)優(yōu)化問(wèn)題。SL0算法(smooth L0 norm)[2]利用圖像在小波變換域具有稀疏性的特點(diǎn),可以將L0范數(shù)最小化問(wèn)題轉(zhuǎn)化為近似L0范數(shù)的最小化問(wèn)題,有效解決了L0范數(shù)優(yōu)化中的NP難問(wèn)題,這類(lèi)算法基于凸優(yōu)化的迭代算法,姑且可以成為另類(lèi)的壓縮感知算法,這種算法的主要特點(diǎn)就是估計(jì)精度高而且計(jì)算量很低,而且對(duì)于信噪比變化不是很敏感,因此可以獲得穩(wěn)健的稀疏估計(jì)量。 文獻(xiàn)[3]中 Bhaskar提出當(dāng)(0<P<1)時(shí)基于 LP范數(shù)的迭代加權(quán)最小二乘 (Iteratively Reweighted Least Square,IRLS)算法,實(shí)驗(yàn)證明了基于LP范數(shù)的優(yōu)化算法無(wú)論是在信號(hào)重建效果,還是在可靠性方面都優(yōu)于L1及L0范數(shù)優(yōu)化算法,Bioucas-Dias等 提 出 TVMM (Total variation based majorization minimization)算法[4],該算法利用圖像局部光滑特性,采用全變分正則化重建圖像。上述算法均采用單一的正則項(xiàng)來(lái)重構(gòu)圖像,重構(gòu)出的效果都不是很理想,針對(duì)這一問(wèn)題,本文利用聯(lián)合正則化的原理以及壓縮傳感理論 ,提出一種基于壓縮傳感的聯(lián)合正則化MRI圖像重建算法。
Candes[5]等人證明了圖像重建問(wèn)題可以通過(guò)求解一個(gè)最小L0范數(shù)的問(wèn)題加以解決。但是L0問(wèn)題為NP組合難問(wèn)題,對(duì)較大規(guī)模數(shù)據(jù)無(wú)法直接求解,針對(duì)這一問(wèn)題,研究者們提出了一系列尋找次優(yōu)解的貪婪算法:匹配追蹤MP(Matching Pursuit)算法[6],正交匹配追蹤 OMP(Orthogonal Matching Pursuit)算法[7]等。但是貪婪算法時(shí)間代價(jià)過(guò)高,無(wú)法保證收斂到全局最優(yōu)。當(dāng)前一般性的作法是將L0范數(shù)最小化問(wèn)題放松到L1范數(shù)最小化問(wèn)題,從而將一個(gè)組合優(yōu)化問(wèn)題放松到一個(gè)凸優(yōu)化問(wèn)題來(lái)求解。即:
研究中發(fā)現(xiàn):L1求解框架不能保證獲得滿意的稀疏解,它往往與真實(shí)稀疏解(L0的解)差距甚大[8]。并且當(dāng)采樣數(shù)逐漸減少時(shí),L1求解框架重構(gòu)效果不理想,對(duì)于含有重尾分布的誤差數(shù)據(jù)往往不能取得好的效果,重構(gòu)的圖像也不穩(wěn)定。因此一個(gè)自然改進(jìn)方法是使用 Lq框架(0<q<1),本文根據(jù)徐宗本[9]院士的基本思想,研究一種改進(jìn)的圖像重構(gòu)模型,懲罰項(xiàng)中將L1換成L1/2,如此MRI圖像小波變換域稀疏性就可以通過(guò)圖像小波變換系數(shù)L1/2的范數(shù)的大小來(lái)衡量,圖像的局部光滑特性可以用全變差(Totalvariation,TV)的大小來(lái)衡量。
MRI圖像重構(gòu)就可以通過(guò)求解下列優(yōu)化問(wèn)題來(lái)實(shí)現(xiàn):
其中 λ1,λ2為權(quán)重參數(shù)。
利用拉格朗日原理將式(2)約束優(yōu)化問(wèn)題轉(zhuǎn)換為無(wú)約束優(yōu)化問(wèn)題,并引入輔助變量 u,v,問(wèn)題(2)可以轉(zhuǎn)換為求解等式約束優(yōu)化問(wèn)題,
再次利用Lagrange定理將(3)式轉(zhuǎn)化為無(wú)約束優(yōu)化問(wèn)題
根據(jù)交替方向乘子法 (Alternating Direction Method of Multipliers,ADMM)[10],采用交替最小化思想,其求解過(guò)程如下
更新x時(shí)
如果式(5)、(6)和(7)有準(zhǔn)確解,根據(jù) Eckstein-Bertsekas定理可保證此算法的收斂性。式(5)是一個(gè)強(qiáng)凸函數(shù),其最小化可以寫(xiě)成如下形式:
這里的 φ(x)=λ1*‖u‖+λ2*TV(v),根據(jù) Eckstein-Bertsekas定理,若誤差的序列是可求和的,那么也可保證算法的收斂性,這里TV范數(shù)和L1/2范數(shù)正則項(xiàng)的去噪問(wèn)題可以使用Chambolle解法進(jìn)行求解。
為驗(yàn)證本文方法的有效性,采用Shepp-Logan腦部模型的磁共振圖像進(jìn)行驗(yàn)證,由于非笛卡爾采樣具有采樣速度快、對(duì)流動(dòng)不敏感等優(yōu)點(diǎn),它在腦功能成像、心臟冠狀動(dòng)脈成像等方面得到了人們的關(guān)注,本文采用非笛卡爾輻射狀采樣,在腦部模型的Fourier頻譜表示圖上,均勻取L條射線,然后在每條射線上高斯采樣。利用CPU為2.0 GHz,內(nèi)存為2G的計(jì)算機(jī),通過(guò)MATLAB進(jìn)行編碼。本文分別通過(guò)MSE、SNR、PSNR 3個(gè)參數(shù)對(duì)改進(jìn)的模型與正則項(xiàng)分別是L1范數(shù),TV范數(shù)的模型進(jìn)行分析比較。
將正則項(xiàng)分別是L1/2范數(shù)、TV范數(shù)與聯(lián)合L1/2范數(shù)和TV范數(shù)的實(shí)驗(yàn)結(jié)果進(jìn)行比較,這里實(shí)驗(yàn)結(jié)果如表1所示,運(yùn)用三種方法,在不用分辨率與采樣數(shù)的情況下,計(jì)算出原始圖像和重建圖像的相對(duì)誤差,以及算法的迭代數(shù)和運(yùn)行時(shí)間。從仿真結(jié)果表1中可以看出,在分辨率為64*64,采樣數(shù)為52時(shí),聯(lián)合正則化的差錯(cuò)率為2.26e-007,到達(dá)了一個(gè)非常理想的效果,L1/2范數(shù)的差錯(cuò)率為2.72e-007,而TV范數(shù)的差錯(cuò)率為4.56e-007,所以我們得出在分辨率較低時(shí),聯(lián)合L1/2范數(shù)和TV范數(shù)的重構(gòu)效果要比單一正則項(xiàng)的重構(gòu)效果好??墒欠直媛孰m然有所提高,我們看到無(wú)論是重構(gòu)時(shí)間還是迭代次數(shù)相對(duì)于L1/2和TV范數(shù)都提高了很多,分辨率為32*32,采樣數(shù)為22時(shí),L1/2范數(shù)重構(gòu)時(shí)間為9.40 s,TV范數(shù)重構(gòu)時(shí)間為4.61 s,聯(lián)合正則化的重構(gòu)時(shí)間為71.71 s,是L1/2和TV范數(shù)的將近十倍。而在分辨率達(dá)到256*256時(shí),L1/2范數(shù)的差錯(cuò)率為1.99e-007,TV范數(shù)的差錯(cuò)率為2.07e-007,而聯(lián)合正則化的差錯(cuò)率為6.02e-007,低于單一正則項(xiàng)時(shí)的差錯(cuò)率。
圖1給出了在分辨率為32*32時(shí),聯(lián)合正則化和單一正則化的差錯(cuò)率的對(duì)比圖,通過(guò)圖中們可以看出,在采樣數(shù)不斷增加的情況下,聯(lián)合正則化的差錯(cuò)率要低于單一正則項(xiàng)時(shí)的差錯(cuò)率,當(dāng)采樣數(shù)達(dá)到52時(shí),聯(lián)合正則項(xiàng)的準(zhǔn)確度比單一的TV范數(shù)正則項(xiàng)時(shí)高出0.5個(gè)百分點(diǎn),說(shuō)明聯(lián)合正則化重構(gòu)出的圖像更接近于原始圖像。
表1 不同正則化方法隨不同采樣數(shù)的圖像恢復(fù)結(jié)果Tab.1 Image restoration results with different regularization
圖1 不同正則化的差錯(cuò)率對(duì)比(128*128)Fig.1 Error rate comparison
圖2是分辨率為128*128時(shí),聯(lián)合正則化和單一正則化恢復(fù)的PANR以及SNR的對(duì)比分析,聯(lián)合正則化的PSNR比單一正則化的PSNR略微有所降低,但是重構(gòu)出效果仍然比較理想,隨著采樣數(shù)的增加,聯(lián)合正則化的SNR逐漸接近單一正則化的SNR。
圖2 PSNR與SNR的對(duì)比Fig.2 Comparison of PSNR and SNR
圖3 原始圖像Fig.3 Original image
圖4 重構(gòu)圖像Fig.4 Reconstructed image
圖3 是MRIscan圖像的原始圖像,圖4是在采樣數(shù)為52的情況下利用聯(lián)合正則化的模型的重構(gòu)結(jié)果,聯(lián)合正則化模型重構(gòu)的差錯(cuò)率是6.002e-007,從圖中可以看出,改進(jìn)方法的重構(gòu)結(jié)果十分接近原始圖像,證明了該方法的有效性。
本文針對(duì)MRI圖像重構(gòu)研究了一種圖像重構(gòu)的新方法,聯(lián)合正則化模型能夠很好的重建稀疏的磁共振圖像,并且數(shù)據(jù)試驗(yàn)證明在分辨率較低采樣數(shù)較少的情況下,聯(lián)合正則化的重建效果要高于單一正則化,能夠達(dá)到比較理想的效果,但是該模型還是有不足之處,就是重構(gòu)時(shí)間比較長(zhǎng),迭代次數(shù)也較單一正則化較多,在運(yùn)行時(shí)間方面需要改進(jìn),不過(guò)瑕不掩瑜,實(shí)驗(yàn)結(jié)果證明了該模型的成立。
[1]E Candes.Compressive sampling.Proceedings of the International Congress of Mathematicians[J].Madrid, Spain,2006(3):1433-1452.
[2]Peng X,Zhang M,Zhang J,et al.An alternative recovery algorithm based on SL0 for multiband signal[C]//Instrumentation and Measurement Technology Conference(I2MTC), 2013 IEEEInternational.IEEE,2013:114-117.
[3]Bhaskar D.Rao,Kenneth Kreutz-Delgado.An affine scaling methodology for best basis selection[J].IEEE Transactions on Signal Processing,1999,47(1):187-200.
[4]Bioucas-Dias J M,F(xiàn)igueiredo M A T,Oliveira J P.Total variation based image deconvolution: a majorization minimization approach [J].IEEE Conference, Toulouse,2006(2):278-281.
[5]E.J.Candes, J.Romberg, T.Tao.Robust Uncertainty Principles: Exact Signal Reconstruction from Highly Incomplete Frequency Information [J].IEEE Transaction on Information Theory,2006,52(2):489-509.
[6]S.G.Mallat,Z.Zhang.Matching Pursuits with Time-frequency Dictionaries[J].IEEE Transactions on Signal Processing,1993:3397-3415.
[7]Tropp J A,Gilbert A C.Signal recovery from random measurements via orthogonal matching pursuit[J].IEEE Transactions on Information Theory,2007,53(12):4655-4666.
[8]E.J.Candes,M.Wakin.An Introduction to Compressive Sampling[J].IEEE Signal Processing Magazine,2008,25(2):21-30.
[9]XU Zong-ben,CHANG Xiang-yu,XU Feng-min.L-1/2 Regularization:A Thresholding Representation Theory and a Fast Solver[J].IEEE Transactions on neural net-works and Learning Systems,2012,23(7):1013-1027.
[10]Stephen Boyd,Neal Parikh,et al.Distributed Optimization and Statistical Learning via the Alternating Direction Method of Multipliers [J].Foundation and Trends in Machine Learning,2010,3(1):1-122.