亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        緊框架分析模型下的模糊圖像盲復(fù)原

        2017-07-07 13:44:37李驁雷天鳴陳德運孫廣路
        關(guān)鍵詞:圖像復(fù)原方法模型

        李驁, 雷天鳴, 陳德運, 孫廣路

        (哈爾濱理工大學(xué) 計算機科學(xué)與技術(shù)學(xué)院博士后科研流動站,黑龍江 哈爾濱 150080)

        ?

        緊框架分析模型下的模糊圖像盲復(fù)原

        李驁, 雷天鳴, 陳德運, 孫廣路

        (哈爾濱理工大學(xué) 計算機科學(xué)與技術(shù)學(xué)院博士后科研流動站,黑龍江 哈爾濱 150080)

        在基于稀疏表示模型的圖像盲復(fù)原問題中,模糊核估計與稀疏模型的選取是影響盲復(fù)原性能的兩個關(guān)鍵因素。針對傳統(tǒng)基于稀疏表示盲復(fù)原方法的不足,本文提出一種基于緊框架分析模型的圖像盲復(fù)原方法。該方法將盲復(fù)原問題分裂為兩個迭代的子問題,分別是基于梯度圖像的模糊核估計與基于緊框架分析模型的非盲圖像復(fù)原。在核估計問題中,提出同時約束核稀疏性及一階微分平滑特性,進(jìn)一步提高了核估計精度。在緊框架非盲圖像復(fù)原問題中,提出一種基于Moreau envelope函數(shù)的數(shù)值計算方法,有效地解決緊框架復(fù)原模型的不可微和不可分離性。實驗結(jié)果表明,本文復(fù)原方法在圖像細(xì)節(jié)恢復(fù)與客觀評價指標(biāo)方面均優(yōu)于傳統(tǒng)復(fù)原算法。

        圖像盲復(fù)原;緊框架;核估計;迭代優(yōu)化;正則化;Moreau envelope函數(shù)

        圖像復(fù)原問題一直是圖像處理領(lǐng)域中的研究熱點之一,對其的研究不僅具有重要的理論指導(dǎo)意義,在實際應(yīng)用中也有著十分迫切的需求。作為經(jīng)典的圖像反問題模型,圖像復(fù)原廣泛的應(yīng)用于光學(xué)成像、醫(yī)療成像、遙感、空間探索等多個應(yīng)用領(lǐng)域[1-2]。模糊圖像復(fù)原是圖像復(fù)原問題的一個重要分支,它的目的是解決如何從模糊退化圖像中獲得清晰的原始圖像。本文主要圍繞線性且空間不變模糊核下的圖像盲復(fù)原問題進(jìn)行深入研究。

        盲復(fù)原的目的是利用觀測退化圖像來同時估計模糊算子和理想原始圖像。文獻(xiàn)[3]指出,由于退化模型的欠定性,從貝葉斯分析的角度出發(fā),復(fù)原圖像的求解可以轉(zhuǎn)化為一個具有約束項的正則化問題。因此,復(fù)原質(zhì)量的高低也就取決于這一問題中正則先驗形式的選取。李一兵等聯(lián)合拉東變換及傅里葉變換估計點擴展函數(shù)的先驗信息,再通過對模糊類別分類,解決水下圖像的盲復(fù)原問題[4]。J.Ya等將貝葉斯分析與變分法相結(jié)合,成功的應(yīng)用于運動模糊圖像的復(fù)原,但這種基于最大后驗的思想容易產(chǎn)生數(shù)據(jù)的過擬合[5]。Y.Q Dong等根據(jù)圖像的局部特性,提出了一種多尺度的變參數(shù)全變差(total variation)方法,以犧牲計算復(fù)雜度為代價使復(fù)原圖像的質(zhì)量得到改善[6]。J. Li等引入非局部模型,提出一種基于多維非局部的全變差模型,解決遙感圖像的復(fù)原問題[7]。為了解決更大規(guī)模圖像復(fù)原問題,H. Chang等提出了基于域分解的非局部全變差方法,將復(fù)原過程在多個子域并行處理,并利用Bregman迭代算法對各子域模型進(jìn)行求解[8]。上述的這些方法在圖像復(fù)原中盡管取得了一定的效果,但其基本思想仍是在空域討論圖像的先驗特性,使得正則化先驗項的構(gòu)造受到了限制。

        近年來,稀疏表示作為一種新興的圖像表示模型,得到了學(xué)者們的廣泛關(guān)注并成功地應(yīng)用于圖像復(fù)原領(lǐng)域。J.F Cai 等研究發(fā)現(xiàn)在框架表示方法下,模糊核與圖像都呈現(xiàn)較好的稀疏性,并以次作為先驗提出了基于稀疏近似的模糊圖像盲復(fù)原[9]。H.C Zhang等提出基于稀疏的圖像盲復(fù)原方法,討論在自適應(yīng)學(xué)習(xí)字典下的稀疏圖像復(fù)原以及模糊矩陣估計方法[10]。D. Krishnan等提出一種基于l1/l2范數(shù)的圖像先驗?zāi)P秃拖∈枘:思s束的算法,實現(xiàn)圖像快速復(fù)原[11]。文獻(xiàn)[12]利用自然圖像的在梯度域的稀疏性構(gòu)造先驗約束,并在貝葉斯后驗理論的啟發(fā)下建立多幅觀測圖像的聯(lián)合概率密度函數(shù),用于具有多幀源圖像的盲復(fù)原問題。W.S Dong等基于聚類的思想,認(rèn)為圖像的稀疏編碼應(yīng)接近其所在類的聚類中心,提出了中心化編碼的圖像復(fù)原方法[13]。但在該方法中,模糊核的估計是獨立完成的部分,未將其加入復(fù)原框架。M. Hanif等從非負(fù)矩陣分解的角度出發(fā),提出基于非負(fù)稀疏模型的盲復(fù)原方法[14]。但在這一方法中需要花費額外的計算量來估計圖像的基矩陣。此外,該模型中僅以l2范數(shù)約束模糊核的平滑性,難以獲得較好的估計性能。文獻(xiàn)[15]同時探究了圖像的非局部稀疏和全變差約束,建立聯(lián)合統(tǒng)計復(fù)原模型,取得了較好的效果。在此基礎(chǔ)上,為了充分利用圖像的自相似性,將全變差與稀疏相結(jié)合,L. Jun等又提出一種基于組稀疏的全變差圖像復(fù)原方法[16]。唐述等運用圖像的局部結(jié)構(gòu)提取策略,分別對退化核及圖像實施多正則約束,進(jìn)而消除模糊[17]。

        上述基于稀疏模型的圖像復(fù)原方法,主要討論在正交變換(如小波變換、傅里葉變換)或是冗余字典表示下的模糊復(fù)原,這些表示方法稱為圖像的合成表示模型。文獻(xiàn)[18]指出,相比上述的合成表示模型,采用冗余表示的緊框架分析模型能夠進(jìn)一步降低目標(biāo)函數(shù)的函數(shù)值,以取得更高的復(fù)原精度。但對于這一模型,需要針對性的設(shè)計有效的重構(gòu)算法用于模型的求解。與此同時,受到上述部分方法的啟發(fā),采用將模糊核約束與復(fù)原優(yōu)化目標(biāo)放入同一優(yōu)化框架的思想,使二者在迭代中相互促進(jìn),進(jìn)一步提高復(fù)原質(zhì)量?;谏厦娴南敕?,本文將討論具有冗余表示能力的緊框架分析模型下的模糊圖像盲復(fù)原方法并建立相應(yīng)的迭代復(fù)原框架。針對模糊核估計問題,同時進(jìn)行核稀疏約束及核一階微分平滑約束,共同發(fā)揮兩種約束的優(yōu)勢,提高核估計精度。此外,針對緊框架分析模型下的復(fù)原求解,設(shè)計了一種基于Moreau envelope函數(shù)的數(shù)值算法,有效的解決分析模型中存在的不可微性和不可分離性,獲得優(yōu)化目標(biāo)的近似解。

        1 基于緊框架的盲復(fù)原模型

        框架是由Duffin和Schaeffer于1952年在非調(diào)和傅里葉分析中引入的,框架與基底都是用于表示某一空間中的元素的一組向量集合,所不同的是框架并不要求表示向量間的線性無關(guān)性[19]。

        定義1 設(shè){φj}j∈J是RN中的一組元素序列,若存在正數(shù)A,B(0

        (1)

        式中:{φj}j∈J為空間中的一個框架,A,B為框架的界。

        在上述定義中,若A=B則稱框架{φj}j∈J為空間中的緊框架。一般稱{φj}j∈J為該框架的合成表示模型,即

        f=[φ1φ2…]α

        (2)

        式中:α為空間元素f在框架{φj}j∈J下的合成系數(shù)。同時,該框架還有一對應(yīng)的分析表示模型Ψ,且滿足Ψ=[φ1φ2…]H。

        1.2 盲復(fù)原模型的建立

        針對稀疏l1范數(shù)的圖像復(fù)原,令Φ=[φ1φ2…],在上述框架含義的引導(dǎo)下,可以采用如下的兩種基本形式:

        合成模型:

        (3)

        分析模型:

        (4)

        從兩種模型的表達(dá)式可以看出,相對于分析模型,式(3)的估計過程是以圖像在合成算子Φ中的表示系數(shù)α為變量而進(jìn)行的。當(dāng)采用規(guī)范正交框架時,分析模型與合成模型是等價的。在一般情況下,規(guī)范正交框架不如冗余框架更能有效的表示圖像豐富的幾何結(jié)構(gòu)。文獻(xiàn)[20-21]指出,在采用冗余框架的條件下,分析模型比合成模型具有更好的收斂性能和更高的重構(gòu)精度。對于模糊核,若將其看作一幅圖像,其反應(yīng)的是成像設(shè)備的運動軌跡。一般情況下,這樣的軌跡呈現(xiàn)較細(xì)且平滑連續(xù)的特性。從圖像處理的角度出發(fā),軌跡的細(xì)特性映射為圖像的稀疏性,即僅有少量像素有較大值而其他像素值接近于0。根據(jù)這一思想,文獻(xiàn)[10]中利用梯度圖像,通過約束核稀疏性的對其進(jìn)行估計,但該方法并未體現(xiàn)對于平滑連續(xù)的約束。鑒于上述觀點的分析,在核稀疏的基礎(chǔ)上,進(jìn)一步利用核的一階梯度同時約束其平滑特性。綜上,針對盲復(fù)原問題,本文建立如下的綜合迭代優(yōu)化模型:

        (5)

        (6)

        在上述優(yōu)化模型中,式(6)在基于梯度圖像的前提下同時約束了核的稀疏性及其一階微分的平滑特性,獲得更準(zhǔn)確估計核。而對于式(5)的優(yōu)化問題,研究表明:一方面可以靈活的適用于多種表示基函數(shù);另一方面,在基于緊框架的重構(gòu)問題中, 相比合成模型,分析模型能獲得幾何意義下的收斂解和更低的優(yōu)化目標(biāo)函數(shù)值[22]。同時,結(jié)合式(6)中的模糊核估計表達(dá)式,使得式(5)中的優(yōu)化變?yōu)橐粋€非盲的復(fù)原過程。此外,在迭代過程中,式(5)、(6)中的優(yōu)化結(jié)果又可相互促進(jìn),進(jìn)一步提高復(fù)原質(zhì)量。但值得注意的是,傳統(tǒng)的用于合成模型的快速數(shù)值算法不能直接應(yīng)用于式(5)中的分析模型的求解,本文將在下面一節(jié)詳細(xì)討論數(shù)值算法的設(shè)計。

        2 復(fù)原模型的數(shù)值算法

        2.1 關(guān)于xJ的優(yōu)化子問題

        對于式(7)中基于分析模型的復(fù)原優(yōu)化函數(shù),一個重要的挑戰(zhàn)就是如何設(shè)計有效的數(shù)值算法對其進(jìn)行求解。內(nèi)點法是解決此類問題的有效方法之一,但隨著信號維度的增長,其收斂的速度會迅速的下降,不適于解決像圖像復(fù)原這樣的大規(guī)模問題。對于合成模型,已有很多現(xiàn)成有效的數(shù)值求解算法,如基于代理函數(shù)思想的迭代收縮閾值算法(iterative shrinkage thresolding alogrithm, ISTA)和快速迭代收縮閾值算法(fast iterative shrinkage thresholding alogrithm, FISTA)等,這些算法在收斂速度和收斂精度方面達(dá)到了較好的平衡,適合于大規(guī)模問題[23]。但在式(7)的分析優(yōu)化模型中,‖Ψx‖1是一具有不可微性和不可分離性的凸函數(shù),這使得ISTA和FISTA方法不能直接應(yīng)用于式(7)中的復(fù)原模型。在此分析基礎(chǔ)之上,本文提出一種基于Moreau envelope函數(shù)的交替迭代數(shù)值算法,利用Moreau envelope函數(shù)對不可微項的近似平滑作用,使模型得以有效的求解。

        Moreau envelope函數(shù)可以作為優(yōu)化函數(shù)中不可微項的一種平滑近似,進(jìn)而得到問題的近似解[24]。為了方便后續(xù)的說明,這里引入近似算子符號。對于凸函數(shù)g(x),稱如下的表達(dá)式為g(x)的近似算子:

        (7)

        設(shè)函數(shù):

        (8)

        則gμ(x)稱為函數(shù)g(x)的Moreau envelope函數(shù),且gμ(x)具有以下性質(zhì):

        2)gμ(x)是一個連續(xù)可微函數(shù),且它的梯度gμ(x)的Lipschitz指數(shù)為1/μ。

        由上述兩條性質(zhì)可以得出,gμ(x)的梯度為

        gμ(x)=(x-proxμg(x))

        (9)

        鑒于上面的分析,由于式(7)中的第二項是具有不可微和不可分離性質(zhì)的凸函數(shù),使得FISTA方法不能直接應(yīng)用于模型的求解。因此可以利用Moreauenvelope函數(shù)的連續(xù)可微性質(zhì)作為該凸函數(shù)的一種近似平滑替代,使梯度計算成為可能,并結(jié)合式(9)中的近似算子消除不可分離性對模型求解的影響。令g(Ψx)=‖Ψx‖1,將式(7)改寫為如下平滑近似形式:

        (10)

        f(x)=(hJ+1)H?(hJ+1?x-y)

        (11)

        設(shè)

        xJ+1=argmin{H(x)≡f(x)+gμ(Ψx)}

        (12)

        由于式(12)中的兩個函數(shù)f(x)和gμ(Ψx)均為可微函數(shù)并聯(lián)合式(9)、(11), 給出下面的雙迭代變量的更新策略,f(pk+1)、gμ(xk)分別為

        f(pk+1)=(hJ+1)H?(hJ+1?pk+1-y)

        (13)

        (14)

        (15)

        則式(16)可改寫為

        gμ(Ψxk)=ΨH(Ψxk-Sμ(Ψxk))

        (16)

        xk+1=argmin(x:H(x=qk),H(x=xk))

        (17)

        式中:LH表示函數(shù)H(x)的Lipschitz指數(shù),式(19)表示xk+1取qk或xk中令H(x)較小的那一個。這里,迭代參量pk+1的更新表達(dá)式為

        (18)

        (19)

        此外,文獻(xiàn)[24]還指出,當(dāng)μ較大時能夠給gμ(x)的求解帶來一個較好的初值。而同時,隨著μ的減小,又能夠使得優(yōu)化函數(shù)的精度和收斂速度獲得一定的提升。因此本文中將采用遞減式的μ取值,加快算法的收斂速度并提高收斂精度。

        2.2 模糊核估計算法

        為了對式(8)進(jìn)行求解,這里給出一種基于交替迭代的核估計算法。引入輔助變量l,將式(8)改寫為如下的形式:

        (20)

        利用交替優(yōu)化技術(shù)[25],式(22)可以拆分為下面的兩個優(yōu)化子問題:

        (21)

        (22)

        ak+1=ak+(lk+1-hk+1)

        (23)

        由于式(21)為二階可微函數(shù),可以對其求導(dǎo)并令導(dǎo)數(shù)等于0,得

        ((xJ)T?(xJ)+ρ+2ηT)hk+1=

        (xJ)y+ρ(lk+ak)

        (24)

        再利用快速傅里葉變換可得

        hk+1=

        (25)

        (26)式中sgn(·)為標(biāo)準(zhǔn)符號函數(shù)。

        由于模糊核尺寸有限,且其值一般不會很大。因此,為了使算法簡潔,模糊核的估計只進(jìn)行兩次迭代即可。

        綜上所述,將本文所提出的算法總結(jié)如下。

        初始化:觀測圖像y,p1=x0,μ=μ0,J=0,Jmax,kmax;

        外層循環(huán):

        2)內(nèi)層循環(huán):令k=0,t0=1;

        ① 利用式(17)計算proxμg(Ψxk);

        ⑤xk+1=argmin(x:H(x=qk),H(x=xk));

        若k=kmax,轉(zhuǎn)至3);否則,k=k+1;

        3)令xJ+1=xk+1,μ=μ/2;

        4)若J=Jmax,輸出復(fù)原圖像xJ+1;否則,J=J+1。

        3 實驗結(jié)果與分析

        為了驗證算法的有效性,本文進(jìn)行了模糊圖像復(fù)原的對比實驗。對比方法包括基于全變差的FISTA方法,文獻(xiàn)[10]中基于字典學(xué)習(xí)的盲復(fù)原方法,文獻(xiàn)[15]中基于聯(lián)合統(tǒng)計模型的復(fù)原方法以及本文所提算法。FISTA方法中模糊核的估計采用文獻(xiàn)[26]中的方法,文獻(xiàn)[15]中的模糊核估計采用文獻(xiàn)[11]中的估計方法。實驗平臺為Matlab7.10.0, Intel? CoreTM2 Duo CPU, 4GB RAM, Windows操作系統(tǒng)。實驗圖像分別采用一組256×256的標(biāo)準(zhǔn)歸一化測試圖像(如圖1所示)和一幅真實模糊圖像。對于真實的彩色圖像,本文算法中將其由RGB變換到Y(jié)UV空間,僅對亮度分量Y實施算法,而保持色度分量U和V不變,然后變換回RGB空間,獲得復(fù)原圖像。實驗中采用Shearlet作為本文算法的緊框架[27],其相比傳統(tǒng)的Wavelet、Curvelet等具有更好的圖像稀疏表示能力且計算復(fù)雜度低,易于實現(xiàn)??紤]篇幅的有限,這里對標(biāo)準(zhǔn)歸一化圖像采用兩種最經(jīng)典的模糊方式,分別為均勻模糊和尺度參數(shù)為2的高斯模糊,且核尺寸均為7×7。噪聲類型為加性高斯白噪聲,噪聲標(biāo)準(zhǔn)差為0.01。關(guān)于迭代參數(shù)設(shè)置,本文通過實驗發(fā)現(xiàn),隨著迭代次數(shù)的增加,初始階段復(fù)原效果明顯提升,而后緩慢趨于收斂。因此,考慮到計算量與計算時間的因素,這里設(shè)置內(nèi)、外兩層循環(huán)的迭代次數(shù)分別為kmax=30,Jmax=5,達(dá)到幾乎收斂的效果。同時,本文采用峰值信噪比(peak signal to noise rate, PSNR)和結(jié)構(gòu)相似性度量 (structural similarity index measurement, SSIM)作為客觀評價指標(biāo)[28]。PSNR越大說明復(fù)原圖像與原始圖像在全部像素上的絕對差之和越小,一定程度上宏觀的體現(xiàn)了與原始圖像在平均數(shù)值上的接近程度, 而SSIM指標(biāo)越大則說明復(fù)原圖像與原始圖像在細(xì)節(jié)及紋理結(jié)構(gòu)方面具有更高的相似性??紤]篇幅的有限,這里僅給出Cameraman在高斯模糊核下的復(fù)原結(jié)果(如圖2),真實模糊圖像的核估計以及視覺復(fù)原效果如圖3所示。圖4為Cameraman圖像以外循環(huán)變量k為橫軸的PSNR變化圖。表1~4中分別記錄了標(biāo)準(zhǔn)歸一化測試圖像在不同模糊核下的PSNR和SSIM指標(biāo)。

        圖1 標(biāo)準(zhǔn)測試圖像Fig.1 Benchmark test images

        圖2 Cameraman復(fù)原結(jié)果Fig.2 Restoration results of Cameraman

        圖3 真實模糊圖像復(fù)原結(jié)果Fig.3 Restoration results of real blurry image

        圖4 Cameraman PSNR迭代變化圖Fig.4 PSNR plot versus iteration of Cameraman

        CameramanParrotHarbourBridgeFISTA24.7624.9523.8222.59文獻(xiàn)[9]26.0828.1727.0625.16文獻(xiàn)[11]30.0132.1230.1730.79本文算法29.8731.9629.9530.41

        表2 高斯模糊下標(biāo)準(zhǔn)測試圖像的SSIM值

        表3 均勻模糊下標(biāo)準(zhǔn)測試圖像的PSNR值

        表4 均勻模糊下標(biāo)準(zhǔn)測試圖像的SSIM值

        從圖2對比結(jié)果中可以看出,F(xiàn)ISTA方法在平滑區(qū)域的復(fù)原效果較好,但部分位置出現(xiàn)了本不應(yīng)有的斑駁和階梯效應(yīng),這主要是由于全變差約束的分片光滑假設(shè)前提所導(dǎo)致,丟失了不連續(xù)邊緣處的部分細(xì)節(jié)信息,相比緊框架下的稀疏模型,其先驗約束缺乏一般性?;陔x散余弦變換(discrete cosine transformation, DCT)字典的文獻(xiàn)[10]中方法的復(fù)原圖像有微弱振鈴現(xiàn)象產(chǎn)生,這主要是由于通用DCT字典不能針對性的有效表示某一個體圖像。此外,該算法中采用的基于l1范數(shù)的合成模型相比本文分析模型,在目標(biāo)函數(shù)收斂精度方面的性能較差,細(xì)節(jié)的復(fù)原能力仍有待進(jìn)一步提高。文獻(xiàn)[15]和本文算法相比前兩種方法,復(fù)原性能有顯著提高。盡管文獻(xiàn)[15]獲得了最優(yōu)的PSNR值,但該值僅能從宏觀上衡量復(fù)原結(jié)果與原始圖像在數(shù)值上的的接近程度,而并不能反應(yīng)局部的細(xì)節(jié)視覺效果??梢钥闯?,該方法在非局部和全變差的聯(lián)合約束下,使圖像過分的平滑,細(xì)節(jié)紋理不夠突出,因此在SSIM指標(biāo)方面略低于本文算法。從真實模糊圖像復(fù)原效果還可以看出,文獻(xiàn)[11]盡管較前兩種方法在復(fù)原性能方面有所提升,但由于估計核并未呈現(xiàn)出細(xì)而平滑的特性,使得復(fù)原圖像仍未獲得理想的視覺效果。相比傳統(tǒng)算法,本文所提出的方法,一方面由于采用了分析模型,在提高目標(biāo)函數(shù)收斂精度方面具有一定的優(yōu)勢,更好的復(fù)原了圖像中的細(xì)節(jié)信息(如圖2中框圖部分所示),具有更為銳化的邊緣并能夠呈現(xiàn)清晰的圖像。另一方面,由于同時引入對卷積核稀疏性與一階平滑特性的約束,優(yōu)化了估計性能。從圖3中可以看出,白亮點描述了核的實際形狀,本文方法所估計的模糊核占據(jù)較小的核尺寸面積(即細(xì)特征),較好的體現(xiàn)了核的稀疏性。此外,其呈現(xiàn)的線狀分段連續(xù)形狀也有效的反應(yīng)了其平滑連續(xù)性。在客觀評價指標(biāo)方面,本文方法的PSNR與文獻(xiàn)[15]中的方法接近,相比FISTA和文獻(xiàn)[10]中的方法體現(xiàn)了一定的優(yōu)越性。從圖4的PSNR迭代變化圖中還可以看出本文算法隨迭代次數(shù)的增加,PSNR呈現(xiàn)升高趨勢且具有較好的收斂性能。在SSIM結(jié)構(gòu)化指標(biāo)中,本文方法在四種對比方法中展現(xiàn)出相對優(yōu)勢(即有較好的視覺復(fù)原效果)。同時,在獲得估計核后,各復(fù)原算法相當(dāng)于進(jìn)行非盲復(fù)原。因此,好的復(fù)原結(jié)果也進(jìn)一步影響著下一次迭代中的核估計精度,達(dá)到相互促進(jìn)的目的,這也從另一方面說明了本文算法中緊框架分析模型的非盲復(fù)原能力。

        4 結(jié)論

        1)針對模糊圖像的盲復(fù)原問題,本文提出一種緊框架下的盲復(fù)原方法,該方法通過迭代的進(jìn)行模糊核估計與非盲圖像復(fù)原,不僅能夠提高在圖像細(xì)節(jié)信息復(fù)原方面的能力,還獲得了較好的客觀評價指標(biāo)。對于高斯和均勻兩種模糊模型,本文在PSNR指標(biāo)方面盡管均未取得最優(yōu)值但與最優(yōu)值較為接近,這可能由于本文方法在個別像素點上的復(fù)原值差異較大,但視覺上并未影響總體效果。

        2)在方法上,區(qū)別于傳統(tǒng)的復(fù)原方法,本文分別建立了針對模糊核估計以及緊框架分析非盲復(fù)原的有效約束模型。一方面,為了實現(xiàn)準(zhǔn)確的核估計,提出同時約束模糊核的稀疏性及其一階微分的平滑特性。另一方面,為了解決分析模型的不可微性和不可分離性,借鑒FISTA算法,提出一種平滑項替代的迭代數(shù)值算法,得到分析模型的近似解。該方法的建立也為模糊圖像的盲復(fù)原領(lǐng)域提供了新的模型和解決思路,其研究成果可應(yīng)用于各類成像設(shè)備的預(yù)處理模塊。

        此外,通過對本文中迭代優(yōu)化模型的修改,還可將該方法擴展應(yīng)用于如圖像超分辨、圖像壓縮傳感等其他圖像反問題中,這些問題將在以后的研究中進(jìn)行深入的討論。

        [1]QU Xiaobo, MAYZEL Maxim, CAI Jianfeng, et al. Accelerated NMR spectroscopy with low-rank reconstruction[J]. Angewandte chemie international edition, 2015, 54(3): 852-854.

        [2]ZHAO YongQiang, YANG Jingxiang. Hyperspectral image denoising via sparse representation and low-rank constraint[J]. IEEE transactions on geoscience and remote sensing, 2015, 53(1): 296-308.

        [3]QI Shan, JIA Jiaya, ASEEM A. High-quality motion deblurring from a single image[J]. ACM transactions on graphics, 2008, 27(3): 1-10.

        [4]李一兵,付強,張靜. 水下模糊圖像參數(shù)估計復(fù)原方法[J]. 吉林大學(xué)學(xué)報:工學(xué)版, 2013,43(4): 1133-1138.

        LI Yibing, FU Qiang, ZHANG Jing. Underwater blurry image restoration based on parameter estimation[J]. Journal of Jilin University: engineering and technology edition, 2013,43(4): 1133-1138.

        [5]JIA Jiaya. Single image motion deblurring using transparency[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Minneapolis(CVPR), USA, 2007: 1-8.

        [6]DONG Yiqiu, HINTERMULLER M, MONSERRAT R C. Automated regularization parameter selection in multi-scale total variation models for image restoration[J]. Journal of mathematical imaging and vision, 2011, 40(1): 82-104.

        [7]LI Jie, YUAN Qiangqiang, SHEN Huanfeng, et al. Hyperspectral image recovery employing a multidimensional nonlocal total variation model [J]. Signal processing, 2015, 111: 230-248.

        [8]CHANG Huibin, ZHANG Xiaoqun, TAI Xuecheng, et al. Domain decomposition methods for nonlocal total variation image restoration[J]. Journal of scientific computing, 2014, 60 (1): 79-100.

        [9]CAI Jianfeng, JI Hui, LIU Chaoqiang, et al. Blind motion deblurring from a single image using sparse approximation[C]∥IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Florida USA, 2009: 104-111.

        [10]ZHANG Haichao, YANG Jianchao, ZHANG Yanning, et al. Sparse representation based blind image deblurring[C]∥IEEE International Conference on Multimedia and Expo (ICME) Barcelona, 2011: 1-6.

        [11]KRISHNAN D, TAY T, FERGUS R. Blind deconvolution using a normalized sparsity measure[C]∥IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Colorado, 2011: 233-240.

        [12]ZHANG Haichao, WIPF D, ZHANG Yanning. Multi-image blind deblurring using a coupled adaptive sparse prior[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Portland, 2013: 1051-1058.

        [13]DONG Weisheng, ZHANG Lei, SHI Guangming, et al. Nonlocally centralized sparse representation for image restoration[J]. IEEE transactions on image processing, 2013, 22(4): 1620-1630.

        [14]HANIF M, SEGHOUANE A K. Blind Image deblurring using non-negative sparse approximation[C]∥IEEE Conference on Image Processing. Pairs, 2014: 4042-4046.

        [15]ZHANG Jian, ZHAO Debin, XIONG Ruiqin,et al. Image restoration using joint statistical modeling in space-transform domain [J]. IEEE transactions on circuits and systems for video technology, 2014, 24(6): 915-928.

        [16]LIU Jun, HUANG Tingzhu, SELESNICK I W, et al. Image restoration using total variation with overlapping group sparsity[J]. Information sciences, 2015, 295(20): 232-246.

        [17]唐述, 謝顯中. 多正則化混合約束的模糊圖像盲復(fù)原方法[J].電子與信息學(xué)報, 2015, 3(4): 770-776.TANG Shu, XIE Xianzhong. Multi-regularization hybrid constraints method for blind image restoration[J]. Journal of electronics & information technology, 2015, 3(4): 770-776.

        [18]ELAD M, MILANFAR P, ROBINSTEIN R. Analysis versus synthesis in signal priors[J]. Inverse problem, 2007, 23(3): 947-957.

        [19]DUFFIN R J, SCHAEFFER A C. A class of nonharmonic fourier series[J]. Transactions of the american mathematical society, 1952, 72: 341-366.

        [20]SELESNICK I W, FIGUEIREDO M A T. Signal restoration with overcomplete wavelet transforms: comparison of analysis and synthesis priors[C]∥Wavelets XIII of SPIE. San Diego, 2009,7446: 1-15.

        [21]MAJUMDA A, WARD R K. On the choice of compressed sensing priors and sparsifying transforms for MR image reconstruction: an experimental study[J]. Signal processing: image communication, 2012, 27(9): 1035-1048.

        [22]CANDEX E J, ELDAR Y, NEEDELL C D, et al. Compressed sensing with coherent and redundant dictionaries[J]. Appl comput harmon anal, 2011, 31(1): 59-73.

        [23]BECK A, TEBOULLE M. Fast gradient-based algorithms for constrained total variation image denoising and deblurring problems[J]. IEEE transactions on image processing, 2009, 18(11): 2419-2434.

        [24]MOUREA J J. Proximitéet dualité dans un espace Hilbertien[J]. Bull soc math france, 1965, 93: 273-299.

        [25]BOYD S, PARIKH N, CHU E, et al. Distributed optimization and statistical learning via the alternating direction method of multipliers[J]. Foundations and trends in machine learning, 2010 3(1) :1-122.

        [26]CHO Sunghyun, LEE Seungyong. Fast motion deblurring[J]. ACM transactions on graphics, 2009, 28(5): 1120-1132.

        [27]LIM W Q. The discrete shearlet transform: a new directional transform and compactly supported shearlet frames[J]. IEEE transactions on image processing, 2010, 19(5): 1166-1180

        [28]REHMAN A, WANG Z. Reduced-reference image quality assessment by structural similarity estimation[J]. IEEE transactions on image processing, 2012, 21(8): 3378-3389.

        本文引用格式:

        李驁, 雷天鳴, 陳德運, 等. 緊框架分析模型下的模糊圖像盲復(fù)原[J]. 哈爾濱工程大學(xué)學(xué)報, 2017, 38(6): 931-938.

        LI Ao, LEI Tianming, CHEN Deyun, et al. Blind image restoration based on analysis model under tight frame[J]. Journal of Harbin Engineering University, 2017, 38(6): 931-938.

        Blind image restoration based on analysis model under tight frame

        LI Ao, LEI Tianming, CHEN Deyun, SUN Guanglu

        (Postdoctoral Station of Computer Science and Technology, Harbin University of Science and Technology, Harbin 150080, China)

        In blind image restoration based on the sparse representation model, kernel estimation and the selection of the sparse model are two significant factors that affect the blind restoration. Considering the imperfections of the conventional blind restoration method based on sparse representation, we propose a novel blind restoration method based on the tight-frame analytical model. This novel method divides the blind restoration problem into two iterative subproblems: kernel estimation based on the gradient image, and non-blind image restoration based on the tight-frame model. In the kernel estimation, we propose constraining simultaneously the sparsity of the kernel and the smoothness of the first-order differential of the kernel, which further improves the accuracy of the kernel estimation. In the non-blind image restoration subproblem, we propose a numerical algorithm based on the Moreau envelope function, which can solve the nondifferentiability and inseparability of the tight-frame restoration model. The experimental results show that the proposed method is superior to the conventional methods in relation to both the recovery of image detail and the objective assessment indicators.

        blind image restoration; tight frame; kernel estimation; iterative optimization; regularization; moreau envelope function

        2016-03-02. 網(wǎng)絡(luò)出版日期:2017-04-24.

        國家自然科學(xué)基金項目(61501147);中國博士后基金項目(2016M601438);黑龍江省自然科學(xué)基金項目(F2015040);黑龍江省博士后基金項目(LBH-Z15099).

        李驁(1986-), 男, 講師, 博士.

        李驁,E-mail: liao_hrbust@126.com.

        10.11990/jheu.201603003

        http://www.cnki.net/kcms/detail/23.1390.u.20170424.1841.002.html

        TN911.7

        A

        1006-7043(2017)06-0931-08

        猜你喜歡
        圖像復(fù)原方法模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        基于MTF的實踐九號衛(wèi)星圖像復(fù)原方法研究
        可能是方法不對
        3D打印中的模型分割與打包
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        捕魚
        基于MTFC的遙感圖像復(fù)原方法
        国产最新一区二区三区天堂| 草草浮力影院| 在线成人一区二区| 天天夜碰日日摸日日澡性色av| 美腿丝袜美腿国产在线| 国产av无码专区亚洲草草| 亚洲视频精品一区二区三区| 国产自拍在线视频观看| 日本变态网址中国字幕| 亚洲大片一区二区三区四区 | av在线网站一区二区| 婷婷久久亚洲中文字幕| 亚洲av网一区二区三区| 中文字幕综合一区二区三区| 中文字幕人妻丝袜成熟乱| 亚洲av综合av一区| 中文字幕日韩欧美一区二区三区| 欧美性开放bbw| 亚洲爆乳少妇无码激情| 久久人妻公开中文字幕| 国产精品无码久久久久久蜜臀AV| 久久精品国产一区二区涩涩 | 天堂8中文在线最新版在线 | 欧美日韩精品乱国产| 国产成人亚洲合色婷婷| 精品日韩一级免费视频| 国产乱码一二三区精品| 国产精品一区二区在线观看完整版 | 国产精品无码无片在线观看3d | 国产精品久久码一区二区| 国产人在线成免费视频麻豆| 蜜桃av区一区二区三| 水蜜桃视频在线观看入口| 少妇又紧又爽丰满在线视频| 国产综合开心激情五月| 亚洲精品久久久久avwww潮水| 久久精品国产亚洲av高清色欲| 在线观看网址你懂的| 青草蜜桃视频在线观看| 亚洲中文字幕有码av| 国产精品高湖呻呤久久av|