熊承義,李世宇,高志榮,金鑫
(1 中南民族大學(xué) 電子信息工程學(xué)院,武漢430074; 2中南民族大學(xué) 計算機(jī)科學(xué)學(xué)院,武漢 430074)
壓縮感知理論[1]證明了:如果信號在某個域具有稀疏性,則可以由遠(yuǎn)少于奈奎斯特采樣定理要求的測量值以很高的概率準(zhǔn)確地重構(gòu)該信號.壓縮感知理論是一種新的信號采樣理論,是對傳統(tǒng)奈奎斯特信號采樣理論的補(bǔ)充.壓縮感知理論的提出為實(shí)現(xiàn)信號采樣與壓縮的同時完成提供了可能,也為稀疏信號的獲取、處理等帶來了新的選擇.目前,壓縮感知理論已得到廣泛應(yīng)用,如單像素成像、核磁共振成像、信號處理、通信與模式識別等領(lǐng)域[2-4].
壓縮感知重構(gòu)是壓縮感知理論的核心問題之一,其目的在于根據(jù)壓縮采樣值準(zhǔn)確恢復(fù)被采樣的原始信號.壓縮采樣過程的數(shù)學(xué)描述可表示為y=Φx,其中x∈N是原始信號,y∈M為壓縮感知測量值,Φ∈M×N稱為測量矩陣.由于測量值維數(shù)M一般遠(yuǎn)小于原始信號維數(shù)N(M/N定義為采樣率),因此,壓縮感知重構(gòu)是一個典型的病態(tài)逆問題.已知信號測量值y,傳統(tǒng)壓縮感知重構(gòu)x的方法通常利用信號的稀疏性先驗(yàn),通過求解式(1)的規(guī)則化優(yōu)化模型實(shí)現(xiàn):
(1)
其中ψ為稀疏變換矩陣,‖·‖p表示求lp范數(shù)(p∈[0,1]).式(1)中第一項稱為保真項,第二項稱為規(guī)則化項;λ為規(guī)則化參數(shù),折衷重構(gòu)誤差與稀疏性.
由于圖像信號一般具有非平穩(wěn)的特性,因此利用圖像的局部鄰域相似,基于傳統(tǒng)固定基(如離散余弦變換[5]、小波變換[6]、梯度變換[7]等)的稀疏表示規(guī)則化求解通常難以得到滿意的重構(gòu)圖像質(zhì)量,尋找高效稀疏表示方法成為上述優(yōu)化求逆問題的關(guān)鍵.近年來,許多研究者鑒于圖像信號普遍具有的非局部相似性,提出了圖像結(jié)構(gòu)組稀疏表示、低秩表示方法及其規(guī)則化重構(gòu)模型[8-10],得到了更滿意的重構(gòu)性能.
雖然經(jīng)過十多年的發(fā)展,基于上述優(yōu)化模型的圖像壓縮感知重構(gòu)已經(jīng)取得了一些令人滿意的結(jié)果,但是這種優(yōu)化模型的求解過程往往包含大量的迭代運(yùn)算,因此表現(xiàn)出具有很高的計算復(fù)雜度,難以滿足許多實(shí)際應(yīng)用的需要.此外,模型中的規(guī)則化先驗(yàn)(即稀疏表示)以及優(yōu)化參數(shù)(如規(guī)則化參數(shù)λ等)的選取都是人工完成,具有很大的挑戰(zhàn)性.
近年來,隨著深度學(xué)習(xí)在計算機(jī)視覺領(lǐng)域取得成功應(yīng)用,基于深度學(xué)習(xí)的圖像壓縮感知重構(gòu)方法研究引起了廣泛關(guān)注[11-13].深度學(xué)習(xí)的主要特點(diǎn)在于通過構(gòu)建一個多層網(wǎng)絡(luò),并通過大量的數(shù)據(jù)樣本訓(xùn)練網(wǎng)絡(luò)參數(shù),完成訓(xùn)練的網(wǎng)絡(luò)根據(jù)輸入可快速得到相應(yīng)任務(wù)的輸出.因此,與基于傳統(tǒng)優(yōu)化模型通過迭代實(shí)現(xiàn)的方法比較,基于深度學(xué)習(xí)的方法大大降低了圖像壓縮感知重構(gòu)的時間復(fù)雜度.然而,基于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)猶如一個“黑盒子”,該類方法不能有效利用圖像信號的已知先驗(yàn)信息,因此限制了其性能的進(jìn)一步提升.
鑒于基于深度神經(jīng)網(wǎng)絡(luò)的方法具有時間復(fù)雜度低的優(yōu)勢,但是缺乏可解釋以及不能很好利用圖像先驗(yàn)信息的不足,目前,研究者們進(jìn)一步提出了基于深度展開的方法[14-17].深度展開的基本框架即是展開傳統(tǒng)優(yōu)化模型的迭代實(shí)現(xiàn)過程,將每一次迭代運(yùn)算映射為對應(yīng)的網(wǎng)絡(luò)層,原有算法的有限次迭代運(yùn)算映射為相應(yīng)的多層網(wǎng)絡(luò),原有算法中需要人工設(shè)計的稀疏變換和優(yōu)化參數(shù)通過數(shù)據(jù)樣本訓(xùn)練確定[14].比如, MARK等人基于近似消息傳遞(AMP)算法提出了求解線行逆問題的學(xué)習(xí)AMP(LAMP)網(wǎng)絡(luò)[15];YANG等人基于交替方向乘子法(ADMM)提出了磁共振圖像壓縮感知重構(gòu)的ADMM-net網(wǎng)絡(luò)[16];ZHANG等人基于傳統(tǒng)迭代收縮閾值算法(ISTA)提出了自然圖像壓縮感知重構(gòu)的ISTA-net網(wǎng)絡(luò)[17].通過分析可以發(fā)現(xiàn):雖然YANG等人提出的ADMM-net與ZHANG等人提出的ISTA-net所基于的優(yōu)化模型不同,但是他們卻都表現(xiàn)了整個網(wǎng)絡(luò)結(jié)構(gòu)本質(zhì)上主要由重構(gòu)層和去噪層交替多級級聯(lián)而成;每一重構(gòu)層生成圖像的近似估計,而去噪層實(shí)現(xiàn)對圖像近似估計中包含的噪聲成分濾除.
基于深度學(xué)習(xí)理論,在一定程度上增加網(wǎng)絡(luò)的深度,其系統(tǒng)的性能能夠得到改善.然而,深度網(wǎng)絡(luò)隨著網(wǎng)絡(luò)層數(shù)的增加,系統(tǒng)復(fù)雜度變得越來越高,網(wǎng)絡(luò)訓(xùn)練也將變得更加困難.為了實(shí)現(xiàn)基于深度網(wǎng)絡(luò)的圖像壓縮感知高質(zhì)量高速重構(gòu),提出了一種模型展開優(yōu)化與深度殘差去噪.兩級級聯(lián)的深度網(wǎng)絡(luò)結(jié)構(gòu).兩級結(jié)構(gòu)獨(dú)立訓(xùn)練,降低了網(wǎng)絡(luò)訓(xùn)練的難度.第一級的基于模型展開的深度網(wǎng)絡(luò)根據(jù)輸入的壓縮測量值得到初始的重構(gòu)圖像,第二級的深度殘差網(wǎng)絡(luò)對初始重構(gòu)圖像進(jìn)行去噪處理,最終有效提高重構(gòu)質(zhì)量.具體的將ADMM-Net與ResNet級聯(lián)實(shí)現(xiàn)對磁共振圖像(MRI)重構(gòu),與ADMM-Net算法相比,本文方法可提高平均峰值信噪比約0.5-0.8dB.將ISTA-Net+與ResNet級聯(lián)實(shí)現(xiàn)對自然圖像重構(gòu),在較低采樣率下與ISTA-Net+算法相比,本文方法可提高平均峰值信噪比約0.6dB.
當(dāng)前壓縮感知重構(gòu)方法總體可以分為兩類:一是傳統(tǒng)的基于優(yōu)化理論發(fā)展的基于模型的方法,另一是近年基于深度學(xué)習(xí)理論發(fā)展的基于網(wǎng)絡(luò)的方法.基于模型的方法利用圖像的先驗(yàn)信息迭代優(yōu)化求解,可得到較好的重構(gòu)性能,但是存在計算復(fù)雜的缺點(diǎn);基于網(wǎng)絡(luò)的方法通過樣本訓(xùn)練得到端對端的實(shí)現(xiàn),具有加速計算的優(yōu)點(diǎn).本節(jié)對此兩類方法的典型工作分別作簡要介紹.
壓縮感知重構(gòu)旨在由降維的測量值重建原信號根據(jù)壓縮感知理論:已知測量值y,信號x的壓縮感知重構(gòu)的數(shù)學(xué)模型可表示為式(1).式(1)表示的逆問題求解,早期提出有凸規(guī)劃方法[18].由于凸規(guī)劃方法在處理高維圖像信號時計算復(fù)雜度極高,因此具有相對低計算成本的各種迭代算法在后來被相繼提出,如:匹配追蹤(MP)算法[19]、正交匹配追蹤(OMP)算法[20]、壓縮采樣正交匹配追蹤(CS-OMP)算法[21]、迭代硬閾值(IHT)算法[22]、迭代軟閾值(IST)算法[23]、近似消息傳遞(AMP)算法[24]、交替方向乘子法(ADMM)[25]等.
迭代(軟/硬)閾值算法通過交替進(jìn)行式(2a)和(2b)表示的殘差生成和收縮/閾值過程,多步重復(fù)得到收斂的重構(gòu)結(jié)果:
zt=y-Φxt,
(2a)
xt+1=ητ(ΦHzt+xt) ,
(2b)
其中ητ(·)為非線性收縮閾值函數(shù),τ為設(shè)置的閾值,xt和zt分別代表第t步迭代生成的原信號x的估計以及殘差y-Φxt.上標(biāo)H和t分別代表共軛轉(zhuǎn)置運(yùn)算和迭代次數(shù)當(dāng)ητ(y)=(|y|-τ)?sign(y)時,算法稱為迭代軟閾值(IST)方法.
近似消息傳遞(AMP)算法修改迭代閾值算法中的殘差項為Onsager校正項,重寫式(2a)為(2a')
zt=y-Φxt+zt-1η'τ(ΦHzt-1+xt-1)/δ,
(2a')
其中η'τ表示ητ的導(dǎo)數(shù),δ=M/N為測量比率.
交替方向乘子法(ADMM)通過引入輔助變量,將一個復(fù)雜的優(yōu)化目標(biāo)分解為多個簡單的目標(biāo)交替優(yōu)化基于ADMM的壓縮感知重構(gòu)首先將式(1)重寫為式(3)的優(yōu)化模型:
(3)
式(3)等價表示為式(4)
(4)
其中u是拉格朗日乘子,于是,壓縮感知重構(gòu)通過重復(fù)交替執(zhí)行式(5a)-(5c)的計算實(shí)現(xiàn):
(5a)
(5b)
ut+1=ut+Xt+1-Zt+1,
(5c)
其中,式(5a)可通過對v=Zt-ut進(jìn)行閾值收縮去噪求解(p=1對應(yīng)軟閾值收縮,p=0對應(yīng)硬閾值收縮);式(5b)表示的是求最小平方差的問題,可求助共軛梯度下降法有效求解.
基于網(wǎng)絡(luò)的重構(gòu)方法的提出,受到深度學(xué)習(xí)在計算機(jī)視覺任務(wù)成功應(yīng)用的鼓舞.MOUSAVI等人最早提出了基于堆棧去噪自編碼器(SDA)的CS重構(gòu)網(wǎng)絡(luò)[11];LIAIDS等人提出了基于全連接神經(jīng)網(wǎng)絡(luò)的圖像和視頻的CS重構(gòu)網(wǎng)絡(luò)[12];KULKANI等人進(jìn)一步提出了基于卷積神經(jīng)網(wǎng)絡(luò)的CS重構(gòu)網(wǎng)絡(luò)ReconNet[13].基于網(wǎng)絡(luò)的重構(gòu)方法利用大量樣本訓(xùn)練出一個端對端的非迭代映射,其最大優(yōu)點(diǎn)是重構(gòu)時間得到極大減少,能更好地滿足實(shí)時應(yīng)用的需要.
MARK等人展開近似消息傳遞算法,構(gòu)造了求解稀疏線性逆問題的Learned AMP(LAMP)網(wǎng)絡(luò).LAMP網(wǎng)絡(luò)將基于軟閾值收縮的AMP迭代算法展開構(gòu)成前向神經(jīng)網(wǎng)絡(luò),而其中的最小均方誤差(MSE)參數(shù)優(yōu)化采用變形的反向傳播(BP)算法學(xué)習(xí).YANG等人將公式(5)中的交替方向乘子法(ADMM)的求解過程展開到網(wǎng)絡(luò)中,提出了磁共振圖像壓縮感知重構(gòu)的ADMM-Net網(wǎng)絡(luò)如圖1所示,ADMM-Net首先利用傅里葉逆變換獲得初始重構(gòu)圖像x(1),然后利用卷積層c(i)代替稀疏變換矩陣ψ對x(i-1)進(jìn)行稀疏變換,然后將當(dāng)前x,u,c輸入到非線性變換層z(i)中進(jìn)行閾值收縮,再將當(dāng)前x,z輸入到聯(lián)合更新層u(i)中對其進(jìn)行更新,最后利用已經(jīng)更新的z,u對重構(gòu)層x(i)進(jìn)行更新,如此多次交替求解.其中,每一個階段的交替更新相當(dāng)于模型優(yōu)化方法中的一次迭代,即以m個階段的網(wǎng)絡(luò)訓(xùn)練完成對圖像的m次迭代優(yōu)化,當(dāng)訓(xùn)練誤差收斂時保存當(dāng)前最優(yōu)權(quán)重,作為圖像快速重構(gòu)模型.ADMM-Net通過L-BFGS算法對參數(shù)進(jìn)行端對端的訓(xùn)練,并利用隨機(jī)梯度下降法對網(wǎng)絡(luò)進(jìn)行優(yōu)化.與ADMM-Net類似,ZHANG等人將公式(2)中迭代軟閾值收縮算法(ISTA)展開到卷積神經(jīng)網(wǎng)絡(luò)中,通過多層卷積層與非線性變換處理實(shí)現(xiàn)對圖像的軟閾值去噪,提出了自然圖像壓縮感知重構(gòu)的ISTA-net網(wǎng)絡(luò).
圖1 ADMM-Net結(jié)構(gòu)Fig.1 The architecture of ADMM-Net
基于深度學(xué)習(xí)理論,在一定程度上增加網(wǎng)絡(luò)的深度,其系統(tǒng)的性能能夠得到改善.然而,隨著網(wǎng)絡(luò)層數(shù)的增加,深度網(wǎng)絡(luò)的訓(xùn)練也將變得更加困難.本節(jié)提出的模型展開與殘差學(xué)習(xí)級聯(lián)的網(wǎng)絡(luò),實(shí)現(xiàn)了在限制網(wǎng)絡(luò)深度的條件下得到了高質(zhì)量的重構(gòu)圖像.提出的網(wǎng)絡(luò)結(jié)構(gòu)框圖如圖2所示.第一級的模型展開網(wǎng)絡(luò)用于獲得較好的初始重構(gòu)圖像,第二級的殘差學(xué)習(xí)網(wǎng)絡(luò)對初始重構(gòu)圖像進(jìn)行深度去噪處理,從而最終獲得高質(zhì)量的重構(gòu)圖像.整個網(wǎng)絡(luò)的訓(xùn)練分步進(jìn)行,訓(xùn)練過程相對簡單且容易實(shí)現(xiàn).
圖2 提出的網(wǎng)絡(luò)結(jié)構(gòu)框圖Fig.2 The block diagram of the proposed network
模型展開網(wǎng)絡(luò)是根據(jù)傳統(tǒng)優(yōu)化模型,將原有迭代運(yùn)算映射為相應(yīng)網(wǎng)絡(luò)層面向不同應(yīng)用,采用不同優(yōu)化算法可得到不同的展開網(wǎng)絡(luò)結(jié)構(gòu).比如,針對核磁共振圖像壓縮感知,YANG等人[16]提出了基于交替方向乘子法(ADMM)的ADMM-net網(wǎng)絡(luò);針對自然圖像壓縮成像,ZHANG等人[17]提出了基于傳統(tǒng)迭代收縮閾值算法(ISTA)的ISTA-net網(wǎng)絡(luò).
殘差學(xué)習(xí)網(wǎng)絡(luò)是根據(jù)輸入的含噪聲圖像,利用深度殘差網(wǎng)絡(luò)提取圖像包含的噪聲.將輸入的含噪聲圖像減除深度殘差學(xué)習(xí)得到的噪聲信號,從而重建出干凈的圖像信號.比起直接學(xué)習(xí)出干凈圖像,深度殘差學(xué)習(xí)能夠較好地解決深度網(wǎng)絡(luò)的學(xué)習(xí)困難,提高網(wǎng)絡(luò)學(xué)習(xí)的穩(wěn)定性和收斂性[26].為了降低系統(tǒng)的復(fù)雜度,本文采用較少層的殘差網(wǎng)絡(luò),網(wǎng)絡(luò)深度遠(yuǎn)小于去噪網(wǎng)絡(luò)DnCNN[27]的深度,更有利于降低網(wǎng)絡(luò)訓(xùn)練的難度.考慮到壓縮感知重構(gòu)圖像中殘存的噪聲為混合噪聲,本文在激活函數(shù)的選擇上選用LReLU(Leaky Rectified Linear Units)代替ReLU(Rectified Linear Units),增強(qiáng)了網(wǎng)絡(luò)的非線性處理能力.設(shè)計的殘差學(xué)習(xí)網(wǎng)絡(luò)由一些卷積核尺寸為3×3的卷積層組成,如圖3所示.每一層由三種操作的特定組合組成:卷積(Conv,Convolution),非線性變換(LReLU),批量正則化(BN,Batch Normalization)具體來說,第一層為“Conv+LReLU”,中間層為“Conv+BN+LReLU”,最后一層為“Conv”.在每一次卷積操作后,都以零填充的方式保證特征圖的尺寸與原圖像尺寸一致.初始重構(gòu)圖像(含噪圖像)經(jīng)殘差網(wǎng)絡(luò)處理后,可以學(xué)習(xí)其所包含的噪聲圖像,即殘差圖.用初始重構(gòu)圖像減除殘差圖,從而得到去噪后的最終重構(gòu)圖像.
系統(tǒng)的性能和復(fù)雜度主要受殘差網(wǎng)絡(luò)中間層的多少影響.鑒于自然圖像種類豐富,結(jié)構(gòu)相對復(fù)雜,導(dǎo)致其噪聲去除更加困難,因此,在處理磁共振圖像時設(shè)計殘差網(wǎng)絡(luò)的中間層數(shù)量比起處理自然圖像時可選擇更少.后面的實(shí)驗(yàn)表明,前者在選取中間層數(shù)量n=7,后者在選取n=11能得到較好的效果.實(shí)驗(yàn)也驗(yàn)證了,在LReLU的斜率取0.5左右時也更有利于得到好的重構(gòu)結(jié)果.
圖3 本文殘差學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 The architecture of proposedresidual learning network
對于核磁共振圖像壓縮感知重構(gòu),本文訓(xùn)練集是從腦腫瘤分子數(shù)據(jù)庫(The Repository of Molecular Brain Neoplasia Data,REMBRANDT)中隨機(jī)選取的110幅尺寸為256×256的腦部MRI,主要包含正面、側(cè)面和背面三種類型的人腦MRI;對于自然圖像壓縮感知重構(gòu),本文所用的訓(xùn)練集是從ImageNet12數(shù)據(jù)集中隨機(jī)選取的400張尺寸為256×256的自然圖像,主要包含人物、動物、植物、風(fēng)景和建筑等幾種類型.首先將訓(xùn)練集數(shù)據(jù)輸入到模型展開網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,獲得初始重構(gòu)圖像;然后將原圖與初始重構(gòu)圖像進(jìn)行重疊分塊處理,分塊尺寸為32×32,步進(jìn)值為16;最后將所有圖像塊分為多個批次作為殘差學(xué)習(xí)網(wǎng)絡(luò)的輸入數(shù)據(jù)集,每個批次包含128幅隨機(jī)抽取的圖像塊.
由于本文網(wǎng)絡(luò)是包含模型展開網(wǎng)絡(luò)和殘差學(xué)習(xí)網(wǎng)絡(luò)的一個深度網(wǎng)絡(luò),若對其進(jìn)行整體訓(xùn)練,將會增加網(wǎng)絡(luò)訓(xùn)練難度,無法快速獲得較好的訓(xùn)練結(jié)果.因此,本文采取兩級結(jié)構(gòu)獨(dú)立訓(xùn)練的方法,降低了網(wǎng)絡(luò)訓(xùn)練的難度.先對模型展開網(wǎng)絡(luò)進(jìn)行訓(xùn)練,獲得初始重構(gòu)圖像;然后將初始重構(gòu)圖像作為輸入,對殘差學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,獲得去噪后的圖像.這種分步訓(xùn)練的方法,每次只需對一個較淺的網(wǎng)絡(luò)進(jìn)行訓(xùn)練,極大的降低了系統(tǒng)復(fù)雜度.
本文將真實(shí)圖像x與下采樣數(shù)據(jù)y成對輸入,并選擇最小均方誤差(NMSE)作為網(wǎng)絡(luò)訓(xùn)練的損失函數(shù),通過反向傳播算法修正E(θ)中各層參數(shù)θ=(W,B),得到最佳映射模型其公式如下.
(6)
實(shí)驗(yàn)平臺為Matlab2017a,硬件條件為Intel(R)Xeon(R)CPU E5-2683,頻率為2.0GHz,內(nèi)存為128GB,NVIDIA TITAN X顯卡,顯存12GB,操作系統(tǒng)為Windows 10,深度學(xué)習(xí)框架為MatConvNet1.0-beta24.
對于核磁共振圖像壓縮感知重構(gòu),本文所用的測試集為55幅腦部MRI,在不同采樣率下與傅里葉變換(FT)、全變差(TV)算法[28]、基于BM3D去噪的D-AMP[29]、和ADMM-Net[16]等算法進(jìn)行對比.每個算法包含大量參數(shù)設(shè)置與自適應(yīng)調(diào)整過程.在測試過程中所使用的算法參數(shù)都是原作者在相應(yīng)論文中給出的最佳參數(shù)設(shè)置.從表1可知,采樣率從0.05到0.5,本文算法與ADMM-Net相比平均PSNR分別提高0.87dB,0.85dB,0.67dB,0.47dB,0.51dB,0.61dB,特別是當(dāng)采樣率低于0.2時,本文算法的重構(gòu)效果提升更加明顯 .
表1 不同采樣率下磁共振圖像重構(gòu)的平均PSNR對比(dB)Tab.1 Mean PSNR comparison of MRI reconstruction under different sampling rates
為了比較不同重構(gòu)算法的主觀視覺效果,本文給出了0.05采樣率下腦部圖像的重構(gòu)圖像局部兩倍放大對比圖,如圖4和圖5所示.根據(jù)結(jié)果可知,本文算法重構(gòu)圖像的結(jié)構(gòu)紋理更加清晰.
圖4 0.05采樣率下Brain1重構(gòu)Fig.4 Reconstructed Brain1 using 0.05 samples
圖5 0.05采樣率下Brain2重構(gòu)Fig.5 Reconstructed Brain2 using 0.05 samples
對于自然圖像壓縮感知重構(gòu),本文所用測試集為自然圖像壓縮感知中常用的測試圖像(其中l(wèi)eaves、monarch、lena的尺寸為256×256,peppers、fingerprint、milkdrop的尺寸為512×512).在不同采樣率下將本文算法與小波變換(DCT)[5]、多假設(shè)(MH)[30]、全變差(TV)算法[28]、和ISTA-Net+[17]等算法進(jìn)行對比.從表2中可知,采樣率從0.04到0.20本文算法與ISTA-Net+分別提升約0.62dB、0.36dB、0.25dB和0.21dB,且在較低采樣率下本文算法性能更加突出.
表2 不同采樣率下自然圖像重構(gòu)PSNR對比(dB)Tab.2 PSNR comparison of natural image reconstruction under different sampling rates
為了比較不同重構(gòu)算法的主觀視覺效果,本文給出了leaves和lena圖像在采樣率為0.1下的重構(gòu)圖像局部兩倍放大對比圖,如圖6和圖7所示.根據(jù)結(jié)果可知,本文算法的重構(gòu)圖像的細(xì)節(jié)保留的更加完整.
為說明本文算法重構(gòu)性能和運(yùn)算效率上都具有一定優(yōu)勢,圖8給出了55幅磁共振圖像在0.05采樣率下不同算法的平均重構(gòu)性能和重構(gòu)時間對比.由圖8可以,基于稀疏變換的方法(DWT,F(xiàn)T)雖然可以快速獲得重構(gòu)圖像,但是,其重構(gòu)質(zhì)量較差;基于模型優(yōu)化的方法(MH、DAMP、和TV)的圖像重構(gòu)質(zhì)量較好,同時其運(yùn)算時間也較長;本文算法可以使用較短的運(yùn)行時間,獲得更好的重構(gòu)效果,即其綜合性能更好.
圖6 0.1采樣率下Leaves重構(gòu)Fig.6 Reconstructed Leaves using 0.1 samples
圖7 0.1采樣率下Lena重構(gòu)Fig.7 Reconstructed Lena using 0.1 samples
圖8 0.05采樣率下重構(gòu)性能對比Fig.8 Reconfiguration performance comparison using 0.05 samples
針對圖像壓縮感知重構(gòu)問題,提出一種級聯(lián)模型展開與殘差學(xué)習(xí)的圖像壓縮感知重構(gòu)算法.將模型優(yōu)化方法可解釋性強(qiáng)的優(yōu)點(diǎn)和殘差網(wǎng)絡(luò)自學(xué)習(xí)去噪的優(yōu)點(diǎn)相結(jié)合,實(shí)現(xiàn)對壓縮感知圖像的高質(zhì)量高速重構(gòu).并通過兩級網(wǎng)絡(luò)獨(dú)立訓(xùn)練的方法,有效避免網(wǎng)絡(luò)加深造成的訓(xùn)練困難問題.大量實(shí)驗(yàn)結(jié)果表明,本文算法可以快速獲得更高質(zhì)量的重構(gòu)圖像,特別是在較低采樣率下,重構(gòu)性能更加突出.下一步工作將從圖像非局部相似性先驗(yàn)信息入手,設(shè)計一種可解釋性更強(qiáng)的CS重構(gòu)網(wǎng)絡(luò).