亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于耦合特征空間下改進(jìn)字典學(xué)習(xí)的圖像超分辨率重建

        2016-09-02 08:10:05楊福猛常樂樂
        電子學(xué)報(bào) 2016年5期
        關(guān)鍵詞:字典高斯分辨率

        詹 曙,方 琪,楊福猛,常樂樂,閆 婷

        (1.合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院,安徽合肥 230009;2.三江學(xué)院電子信息工程學(xué)院,江蘇南京210012)

        ?

        基于耦合特征空間下改進(jìn)字典學(xué)習(xí)的圖像超分辨率重建

        詹曙1,方琪1,楊福猛2,常樂樂1,閆婷1

        (1.合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院,安徽合肥 230009;2.三江學(xué)院電子信息工程學(xué)院,江蘇南京210012)

        針對(duì)目前基于字典學(xué)習(xí)的圖像超分辨率重建效果欠佳或字典訓(xùn)練時(shí)間過長(zhǎng)的問題,本文提出了一種耦合特征空間下改進(jìn)字典學(xué)習(xí)的圖像超分辨率重建算法.該算法首先利用高斯混合模型聚類算法對(duì)訓(xùn)練圖像塊進(jìn)行聚類,然后使用更改字典更新方式的改進(jìn)KSVD字典學(xué)習(xí)算法來快速獲得高、低分辨率特征空間下字典對(duì)和映射矩陣.重建時(shí)根據(jù)測(cè)試樣本與各個(gè)類別的似然概率自適應(yīng)地選擇最匹配的字典對(duì)和映射矩陣進(jìn)行高分辨率重建.最后利用圖像非局部相似性,將其與迭代反向投影算法相結(jié)合對(duì)重建后的圖像進(jìn)行后處理獲得最佳重建效果.實(shí)驗(yàn)結(jié)果表明了本文方法的有效性.

        超分辨率;字典學(xué)習(xí);KSVD;稀疏表示;混合高斯模型

        1 引言

        圖像超分辨率 (Super-Resolution,SR) 重建,一直是一個(gè)熱門的研究領(lǐng)域,在不需要增加硬件成本的前提下顯著地提高了圖像的分辨率,改善了視覺效果.由于SR不需要過高的硬件要求,只需通過軟件的方法來實(shí)現(xiàn)圖像的高分辨率,因此該技術(shù)已廣泛的應(yīng)用在視頻監(jiān)控、衛(wèi)星遙感、軍事偵查、醫(yī)學(xué)影像處理等領(lǐng)域.

        在不考慮噪聲的前提下,低分辨率(Low resolution,LR)圖像X和高分辨率(High resolution,HR)圖像Y二者關(guān)系可以表示為:

        X=LY

        (1)

        其中,L表示HR、LR圖像之間的投影矩陣.超分辨率重建就是根據(jù)已知的LR圖像求解HR圖像的過程,這是一個(gè)典型的病態(tài)問題.要解決此類問題,通常需要利用先驗(yàn)知識(shí)合理的設(shè)定某些約束條件來求最優(yōu)解.目前主流的SR重建算法大致可分為基于重建和基于學(xué)習(xí)兩大類[1].基于重建的SR方法在SR重建過程中引入一定的先驗(yàn)信息作為約束條件,如迭代反投影[2]、凸集投影法[3]等.基于學(xué)習(xí)的方法通過對(duì)HR訓(xùn)練樣本的學(xué)習(xí),建立一種高低分辨率的對(duì)應(yīng)關(guān)系.目前基于學(xué)習(xí)的SR重建是近年來的研究熱點(diǎn)[4,5,8~12,17].

        基于學(xué)習(xí)的重建算法中,比較經(jīng)典的算法是Freeman[4]提出的基于例子的重建算法,該算法最先在重建算法中利用圖像塊間的約束,通過馬爾可夫網(wǎng)絡(luò)建立高低分辨率圖像塊對(duì)應(yīng)關(guān)系.但這種算法需要大量的訓(xùn)練樣本,訓(xùn)練過程中也消耗大量時(shí)間,同時(shí)對(duì)圖像中的噪聲極為敏感.Chang等人[5]提出了鄰域嵌入的SR算法,該算法需要較少的樣本,且對(duì)噪聲具有較好的魯棒性.稀疏表示理論是近年來信號(hào)處理領(lǐng)域的研究熱點(diǎn),已經(jīng)在圖像去噪[6]、人臉識(shí)別[7]等領(lǐng)域獲得了廣泛的應(yīng)用,2010年Yang.J等人[8]開創(chuàng)性的將稀疏表示用于圖像的SR重建.其假設(shè),HR、LR圖像塊在各自的空間下具有相同的稀疏表示系數(shù),從而用LR圖像塊的稀疏系數(shù)來重構(gòu)對(duì)應(yīng)的HR圖像塊,有效地降低了算法的復(fù)雜度.Zeyde等人[9]在Yang.J基礎(chǔ)上進(jìn)行改進(jìn),利用主成分分析對(duì)訓(xùn)練樣本的特征進(jìn)行降維,并使用K-SVD的方法進(jìn)行字典訓(xùn)練,進(jìn)一步地提高的字典訓(xùn)練的效率.Dong.W等人[10]使用K-均值對(duì)訓(xùn)練圖像塊進(jìn)行聚類,然后通過自適應(yīng)地選擇圖像的稀疏域,來重建HR圖像塊,有效地提高了重建后圖像的效果.Wang.S等人[11]提出訓(xùn)練HR、LR圖像塊及其的映射關(guān)系構(gòu)造半耦合字典,有效地改善了重建后圖像的效果.Li.H等人[12]利用beta先驗(yàn)分布訓(xùn)練耦合特征空間的字典對(duì),也取得較好的效果,但字典訓(xùn)練同樣需要消耗大量時(shí)間.

        針對(duì)目前基于字典學(xué)習(xí)的圖像SR重建效果欠佳或字典訓(xùn)練時(shí)間過長(zhǎng)的問題,本文在文獻(xiàn)[8]和[10]的基礎(chǔ)上提出了一種耦合特征空間下改進(jìn)字典學(xué)習(xí)的圖像SR重建算法.該算法首先利用高斯混合模型聚類算法對(duì)訓(xùn)練圖像塊進(jìn)行聚類處理,然后通過使用更改字典更新方式的改進(jìn)KSVD字典學(xué)習(xí)算法來快速獲得HR、LR特征空間下字典對(duì)和映射矩陣.重建時(shí)根據(jù)測(cè)試樣本與各個(gè)類別的似然概率自適應(yīng)地選擇最匹配的字典對(duì)和映射矩陣進(jìn)行SR重建.最后利用圖像非局部相似性,將其與迭代反向投影算法相結(jié)合對(duì)重建后的圖像進(jìn)行后處理以獲得最佳的重建效果.

        2 相關(guān)工作

        2.1基于字典學(xué)習(xí)的圖像超分辨率重建

        按照?qǐng)D像稀疏表示理論[6],圖像在過完備字典下,總存在稀疏的表示,即大部分稀疏表示系數(shù)為零,只有少數(shù)的非零系數(shù).假設(shè)D∈Rn×K是維數(shù)為n、原子數(shù)為K的過完備字典,x∈Rn為圖像子塊的向量表示,則x的稀疏表示為:

        min‖α‖0,s.t. x=Dα

        (2)

        式中,α∈RK為x的最稀疏表示.式(2)是NP難問題,通常只考慮其近似解法,可通過匹配追蹤以及其改進(jìn)的正交匹配追蹤算法(OMP)等貪婪算法來近似求解.Donoho等人[13]指出在信號(hào)的稀疏分解中,對(duì)于足夠稀疏的信號(hào)表示系數(shù),可以用l1范數(shù)取代式(2)的l0范數(shù)進(jìn)行稀疏分解,使上述問題轉(zhuǎn)換為凸優(yōu)化的問題,從而式(2)可以轉(zhuǎn)換為式(3)進(jìn)行稀疏表示:

        (3)

        對(duì)于基于字典學(xué)習(xí)的圖像SR重建,通常需要兩個(gè)過完備字典,其中一個(gè)是在LR特征空間下訓(xùn)練得到的LR字典Dl,用于對(duì)LR圖像進(jìn)行稀疏分解,另一個(gè)是在HR特征空間下訓(xùn)練得到的HR字典Dh,用于進(jìn)行HR圖像重建.對(duì)于輸入的LR圖像塊x利用式(2)或式(3)進(jìn)行稀疏分解,得到x的稀疏表示系數(shù)α,然后將稀疏系數(shù)α作用在HR字典Dh,得到對(duì)應(yīng)HR圖像塊y:

        y=Dhα

        (4)

        2.2本文的超分辨率重建模型

        由于自然圖像中包含多重結(jié)構(gòu)形態(tài)的復(fù)雜信號(hào),圖像的不同部分其結(jié)構(gòu)信息變化很大,而高度冗余的通用字典Dh和Dl中存在大量的不相干原子,當(dāng)用這些不相干的原子來表示不同的圖像塊,可能會(huì)存在潛在的不穩(wěn)定性從而導(dǎo)致重構(gòu)后圖像產(chǎn)生視覺上的偽影.而傳統(tǒng)的字典學(xué)習(xí)SR重建是建立在HR、LR圖像塊在對(duì)應(yīng)的HR、LR特征空間下具有相同稀疏系數(shù)為約束條件的,然而HR圖像塊的稀疏系數(shù)并不是精確相等,如何有效刻畫稀疏系數(shù)在不同特征空間下的聯(lián)系,在圖像重建中起著重要的作用.綜合以上多重考慮,本文提出了基于耦合特征空間下改進(jìn)字典學(xué)習(xí)的圖像超分辨率重建.圖1是本文算法流程框圖.

        該算法主要思想:首先利用高斯混合模型聚類算法對(duì)訓(xùn)練圖像塊進(jìn)行聚類處理,然后通過使用改進(jìn)KSVD字典學(xué)習(xí)算法來快速獲得高、低分辨率特征空間下字典對(duì).為了刻畫稀疏系數(shù)在不同特征空間的關(guān)系,使用嶺回歸方法獲得映射矩陣.重建時(shí)根據(jù)測(cè)試樣本與各個(gè)類別的似然概率自適應(yīng)地選擇最匹配的字典對(duì)和映射矩陣進(jìn)行SR重建.最后利用圖像非局部相似性,將其與迭代反向投影算法相結(jié)合對(duì)重建后的圖像進(jìn)行全局重建約束進(jìn)一步提高重建效果.

        3 耦合特征空間下改進(jìn)字典學(xué)習(xí)算法

        3.1高斯混合模型圖像塊聚類

        假設(shè){Ih} 和{Il}分別表示HR、LR圖像訓(xùn)練樣本,本文使用Yang.J[8]的方法對(duì)高低分辨率圖像訓(xùn)練樣本進(jìn)行特征提取、分塊,并向量化,得到各自向量化的圖像塊集合,分別記為{y}和{x}.對(duì)低分辨率圖像塊{x}進(jìn)行聚類.假設(shè)利用高斯混合模型對(duì)圖像塊{x}進(jìn)行聚類,可得到C個(gè)子類.則這組樣本數(shù)據(jù)由混合分布p產(chǎn)生,即有C個(gè)子高斯分布.這組樣本的分布未知,但可由C個(gè)高斯密度函數(shù)的加權(quán)和來近似表示,如式(5):

        (5)

        (6)

        其中μc為該高斯分布的均值,Σc為該高斯分布的協(xié)方差.由式(6)可知,高斯混合模型的每個(gè)高斯分布是由均值和協(xié)方差進(jìn)行描述的,因此必須對(duì)該模型的參數(shù)進(jìn)行求解.本文使用EM(expectationmaximization)算法[14]對(duì)高斯混合模型進(jìn)行參數(shù)估計(jì),可得到每個(gè)類的似然分布參數(shù)πc、μc和Σc,根據(jù)式(6)計(jì)算每個(gè)圖像塊對(duì)各個(gè)圖像塊類別的似然概率,取得最大似然概率者即為該圖像塊所屬的類別.

        3.2改進(jìn)的KSVD字典學(xué)習(xí)算法

        字典學(xué)習(xí)的實(shí)質(zhì)問題可表示為下式所示的優(yōu)化問題:

        (7)

        為了解決上式的優(yōu)化問題,本文使用文獻(xiàn)[15]提出的一種改進(jìn)K-SVD的字典學(xué)習(xí)算法,與K-SVD字典學(xué)習(xí)算法相同,該算法將式(7)優(yōu)化問題分為兩個(gè)步驟求解,即稀疏編碼階段和字典更新階段.由于K-SVD算法字典更新階段不僅對(duì)字典中原子進(jìn)行更新,還對(duì)系數(shù)矩陣A中與原子相乘的非零系數(shù)進(jìn)行更新,根據(jù)K-SVD字典訓(xùn)練思想,字典更新目標(biāo)是尋找更新后的字典D和系數(shù)矩陣A中完備的非零支集.那么式(7)的字典優(yōu)化問題可以轉(zhuǎn)化為:

        (8)

        式中A⊙M是兩個(gè)相同尺寸矩陣的Schur積,其中掩膜矩陣M={|A|=0},M是由元素0和1組成,該式等效于如果A(i,j)=0則M(i,j)=1,否則為0.因此A⊙M=0能使A中所有零項(xiàng)保持完備.式(8)的優(yōu)化問題相對(duì)于(7)式更簡(jiǎn)單,但仍然是個(gè)非凸問題,因此可以使用塊坐標(biāo)下降方法來求解此約束問題.式(8)的求解過程也分為稀疏編碼和字典更新這兩個(gè)步驟.

        首先,假設(shè)字典D已經(jīng)確定,通過求解式(9)來修正系數(shù)矩陣A:

        (9)

        由于稀疏系數(shù)矩陣A的最優(yōu)問題存在封閉解,因此分別對(duì)A的每一列進(jìn)行處理,只考慮A中各列的非零元素而使零元素項(xiàng)保持完備,則式(9)轉(zhuǎn)換為下式進(jìn)行求解:

        (10)

        其中,Di是D對(duì)應(yīng)A的非零支集的子矩陣,αi是A第i列的非零部分.式(10)的優(yōu)化問題可以使用正交匹配追蹤算法(OMP)[23]進(jìn)行求解.對(duì)每一列進(jìn)行處理后可以得到更新后的稀疏系數(shù)矩陣A.

        其次,利用得到稀疏系數(shù)矩陣對(duì)字典的原子依次進(jìn)行更新.假設(shè)系數(shù)矩陣A和字典D已知,則式(8)補(bǔ)償項(xiàng)可以寫為如下形式:

        (11)

        3.3耦合特征空間下的字典學(xué)習(xí)

        (12)

        McAlc=Ahc

        (13)

        式中Alc和Ahc分別表示每個(gè)子字典的稀疏系數(shù)矩陣,Mc是高低分辨率特征空間的稀疏系數(shù)映射矩陣,用來刻畫稀疏系數(shù)在不同特征空間下的聯(lián)系.式(12)使用3.2節(jié)的改進(jìn)KSVD字典訓(xùn)練算法獲得HR、LR字典Dhc、Dlc以及對(duì)應(yīng)的稀疏系數(shù)矩陣Ahc和Alc.則式(13)可以轉(zhuǎn)換為下式得到映射矩陣Mc:

        (14)

        由于Ahc和Alc是稀疏矩陣,式(14)是個(gè)不適定問題,如果直接使用傳統(tǒng)的最小二乘法求解Mc,可能會(huì)使求解的結(jié)果誤差較大.為了將式(14)轉(zhuǎn)換為適定問題,在式(14)中引入一個(gè)正則項(xiàng)來控制模型的復(fù)雜度,則目標(biāo)函數(shù)變?yōu)?

        (15)其中,Γ=σI,I為單位矩陣,σ為正則項(xiàng)平衡參數(shù).式(15)是個(gè)嶺回歸問題,可以直接通過下式求解映射矩陣Mc:

        (16)

        4 圖像超分辨率重建

        對(duì)耦合特征空間下訓(xùn)練樣本進(jìn)行字典訓(xùn)練后,可得到C組HR、LR字典以及映射矩陣.對(duì)于輸入的LR測(cè)試圖像的每個(gè)子塊在進(jìn)行超分辨率重建時(shí)需要自適應(yīng)地選擇合適的字典和映射矩陣進(jìn)行稀疏分解和重建.本文通過式(17)計(jì)算LR測(cè)試圖像塊x與各個(gè)低分辨率訓(xùn)練圖像塊類別的似然概率,取得最大似然概率者即為該測(cè)試圖像塊x所屬的類別:

        (17)

        式(17)中的f(x|μ,Σ)表示訓(xùn)練樣本的高斯混合模型的概率分布,μι和Σi為該高斯混合模型的模型參數(shù),通過計(jì)算式(17)自適應(yīng)的選擇與測(cè)試圖像塊x最匹配的子字典Dhc、Dlc和映射矩陣Mc進(jìn)行SR重建.對(duì)測(cè)試圖像塊x進(jìn)行SR重建,首先需求出x在LR字典Dlc下的稀疏系數(shù)αl:

        (18)

        式(18)的稀疏編碼過程使用Yang.J的方法進(jìn)行求解,得到LR稀疏系數(shù)αl.然后使用映射矩陣Mc將LR特征空間的稀疏系數(shù)αl映射到HR特征空間上,求出HR稀疏系數(shù),即:

        αh=Mcαl

        (19)

        將HR稀疏系數(shù)αh結(jié)合HR字典Dhc重建出HR圖像塊y:

        y=Dhcαh

        (20)

        對(duì)LR測(cè)試圖像的每個(gè)子塊進(jìn)行SR重建,即可得到重建后的HR圖像Y0.由于由式(18)局部模型求解的αl并不能保證LR圖像塊x和Dlαl準(zhǔn)確相等,為了進(jìn)一步提高重建后圖像的效果,本文利用圖像中存在非局部冗余自相似性[16],并將其與迭代反投影算法[2]相結(jié)合對(duì)重建后的HR圖像進(jìn)行全局約束,能夠進(jìn)一步減少重建誤差,使得重建后圖像在整體視覺效果上得到明顯的提高,該全局約束的目標(biāo)函數(shù)如下式:

        (21)

        5 實(shí)驗(yàn)結(jié)果與分析

        本文算法程序采用Matlab語(yǔ)言編寫,軟硬件運(yùn)行環(huán)境為:64位windows7SP1操作系統(tǒng)、MatlabR2012b、Inteli3-4130 3.4GHz處理器、4GB運(yùn)行內(nèi)存.本文試驗(yàn)中圖像訓(xùn)練集采用Yang.J算法[8]以及Zeyde算法[9]所使用的自然圖像訓(xùn)練庫(kù),隨機(jī)選取10萬個(gè)圖像塊作為訓(xùn)練樣本,分成32個(gè)子類,子字典大小為256.將LR圖像分成若干個(gè)5×5大小的圖像塊,相應(yīng)的HR圖像塊大小為15×15.稀疏平衡因子λ=0.1,正則項(xiàng)參數(shù)α=0.01,對(duì)輸入的測(cè)試LR圖像進(jìn)行3倍重建.由于人類視覺系統(tǒng)對(duì)亮度信息更為敏感,對(duì)于彩色RGB測(cè)試圖像先轉(zhuǎn)化為YCbCr信號(hào),然后選擇亮度通道Y進(jìn)行SR重建,對(duì)Cb、Cr通道直接進(jìn)行插值放大.

        為了驗(yàn)證本文所提方法的有效性,本文將HR圖像通過使用雙三次插值進(jìn)行3倍下采樣得到低分辨率測(cè)試圖像.實(shí)驗(yàn)以Bicubic插值作為基準(zhǔn)算法,圖2~5分別是Monarch、Girl、Parrot、Zebra重建后的局部圖像,并將本文重建結(jié)果與Bicubic插值、Yang.J方法[8]、SCDL方法[11]和原始圖像做對(duì)比.表1和表2分別是對(duì)本文算法重建的結(jié)果計(jì)算峰值信噪比PSNR和結(jié)構(gòu)相似度SSIM,并與Bicubic插值、迭代反向投影IBP[2]、Yang.J方法[8]、Zeyde方法[9]、SCDL方法[11]和BPJDL方法[12]進(jìn)行客觀對(duì)比.本文試驗(yàn)中Yang.J方法、Zeyde方法和BPJDL方法的參數(shù)設(shè)置相同,即訓(xùn)練圖像塊個(gè)數(shù)為10萬個(gè)、圖像塊大小為5×5、字典尺寸為1024、稀疏平衡因子λ=0.1,SCDL方法參數(shù)設(shè)置為:訓(xùn)練圖像塊個(gè)數(shù)為50萬個(gè)、大小5×5、分為32類、子字典尺寸為256.

        通過觀察圖2~5局部圖像可以發(fā)現(xiàn),Yang.J方法和SCDL方法相比Bicubic插值有較大提升,但是Yang.J方法在邊緣部分仍然比較模糊,SCDL方法中的邊緣部分出現(xiàn)鋸齒效用、細(xì)節(jié)過于平滑,而本文方法相比前三者更接近原圖,而且重建后圖像基本消除鋸齒效用,邊緣改進(jìn)較明顯,可以恢復(fù)出更多的細(xì)節(jié)信息.在圖3中,本文方法重建結(jié)果可以清晰看出女孩的雙眼皮以及鼻尖部分的雀斑,而前三者重建圖像的細(xì)節(jié)部分比較模糊.在圖5中的斑馬紋理部分,本文方法的重建結(jié)果基本與原圖一致,白色條紋的邊緣部分更清晰且沒有出現(xiàn)鋸齒效應(yīng),而Yang.J方法紋理部分出現(xiàn)模糊現(xiàn)象,SCDL方法出現(xiàn)了邊緣鋸齒效用以及細(xì)節(jié)過平滑的不自然視覺效果.

        表1和表2分別給出各種算法的PSNR和SSIM對(duì)比,表中的本文方法1為使用單一的全局字典的重建結(jié)果,本文方法2為使用高斯混合模型聚類后的多組字典的重建結(jié)果.從中可以看出本文方法2重建圖像的PSNR、SSIM相比其它方法均有所提高,其中方法2的PSNR相比Bicubic插值、IBP方法、Yang.J方法、Zeyde方法、SCDL方法和BPJDL方法分別增加了1.6dB、0.7dB、0.6dB、0.7dB、1.1dB和0.2dB.方法2重建圖像的SSIM比Bicubic插值和IBP方法有較大的提升,相比Yang.J方法、Zeyde方法和SCDL方法分別提高了1、0.8和1.8個(gè)百分點(diǎn),與BPJDL方法基本相當(dāng).從表1和表2中可以看出本文方法2重建結(jié)果的PSNR和SSIM相比方法1均有所提高,由此可以的出使用高斯混合模型對(duì)訓(xùn)練圖像塊聚類后的多組字典在SR重建中優(yōu)于單一的全局字典重建結(jié)果.

        表1 各種算法的PSNR對(duì)比

        表2 各種算法的SSIM對(duì)比

        表3 各種算法字典訓(xùn)練時(shí)間對(duì)比(min)

        6 結(jié)論

        針對(duì)目前基于字典學(xué)習(xí)的圖像SR重建效果欠佳或字典訓(xùn)練時(shí)間過長(zhǎng)的問題,考慮到高斯混合模型能簡(jiǎn)單有效地體現(xiàn)類內(nèi)數(shù)據(jù)的分布特點(diǎn),本文算法首先利用高斯混合模型聚類算法對(duì)訓(xùn)練圖像塊進(jìn)行聚類處理,然后通過使用更改字典更新方式的改進(jìn)KSVD字典學(xué)習(xí)算法來快速獲得HR、LR特征空間下字典對(duì)和映射矩陣.重建時(shí)根據(jù)測(cè)試樣本與各個(gè)類別的似然概率選擇最匹配的字典對(duì)和映射矩陣進(jìn)行HR重建.最后利用圖像非局部相似性,將其與迭代反向投影算法相結(jié)合對(duì)重建后的圖像進(jìn)行后處理以獲得最佳重建效果.實(shí)驗(yàn)結(jié)果表明,本文算法不僅提高重建后圖像的質(zhì)量,同時(shí)也有效地降低了字典訓(xùn)練時(shí)間.

        [1]史郡,王曉華.基于改進(jìn)K-SVD字典學(xué)習(xí)的超分辨率重構(gòu)[J].電子學(xué)報(bào),2013,41(5):997-1000.

        Shi Jun,Wang Xiao-hua.Image super-resolution reconstruction based on improved K-SVD dictionary learning[J].Acta Electronica Sinica,2013,41(5):997-1000.(in Chinese)

        [2]Irani M,Peleg S.Improving resolution by image registration[J].CVGIP:Graphical Models and Image Processing,1991,53(3):231-239.

        [3]Stark H,Oskoui P.High-resolution image recovery from image plane arrays using convex projections[J].Journal of the Optical Society of America A:Optics,Image Science and Vision,1989,6(11):1715-1726.

        [4]Freeman T,Jones T R,Pasztor E.Example based superresolution[J].IEEE Computer Graphics and Applications,2002,22(2):56-65.

        [5]Chang H,Yeung D,Xiong Y.Super-resolution through neighbor embedding [A].IEEE International Conference on Computer Vision and Pattern Recognition[C].Washington,DC,USA:IEEE,2004.275-282.

        [6]Aharon M,Elad M,Bruckstein A.K-SVD:An algorithm for designing overcomplete dictionaries for sparse representation [J].IEEE Trans Signal Process,2006,54(11):4311-4322.

        [7]詹曙,王俊,等.基于Gabor特征和字典學(xué)習(xí)的高斯混合稀疏表示圖像識(shí)別[J].電子學(xué)報(bào),2015,43(3):523-528.

        Zhan Shu,Wang Jun,et al.Gaussian mixture sparse representation for image recognition based on gabor features and dictionary learning[J].Acta Electronica Sinica,2015,43(3):523-528.(in Chinese)

        [8]Yang J,Wright J,Huang T,et al.Image super-resolution via sparse representation [J].IEEE Transactions on Image Processing,2010,19(11):2861-2873.

        [9]Zeyde R,Elad M,Protter M.On single image scale-up m using sparse representations[A].Proceedings of the 7th International Conference on Curves and Surfaces[C].Avignon,France:Springer,2012.6920:711-730.

        [10]Dong W,Zhang L,Shi G,et al.Image deblurring and super-resolution by adaptive sparse domain selection and adaptive regularization[J].Image Processing,IEEE Transactions on,2011,20(7):1838-1857.

        [11]Wang S,Zhang L,Liang Y,et al.Semi-coupled dictionary learning with applications to image super-resolution and photo-sketch synthesis[A].IEEE International Conference on Computer Vision and Pattern Recognition[C].Providence,RI,USA:IEEE,2012.2216-2223.

        [12]Li He,Hairong Qi,Zaretzki R.Beta process joint dictionary learning for coupled feature spaces with application to single image super-resolution[A].IEEE International Conference on Computer Vision and Pattern Recognition[C].Portland,OR,USA:IEEE,2013.345-352.

        [13]Chen S,D Donoho,M Saunders.Atomic decomposition by basis pursuit[J].SIAM Journal on Scientific Computing,2001,43(1):129-159.

        [14]P Dempster,M Laird,B Rubin.Maximum likelihood from incomplete data via the EM algorithm[J].Journal of the Royal Statistical Society.1977,B(39):1-38.

        [15]Smith LN,Elad M.Improving dictionary learning:multiple dictionary updates and coefficient reuse[J].IEEE Signal Processing Letters,2013,20(1):79-82.

        [16]Buades A,Coll B,Morel JM.A non-local algorithm for image denoising[A].IEEE International Conference on Computer Vision and Pattern Recognition[C].Anchorage,Alaska,USA:IEEE,2005.60-65.

        [17]潘宗序,禹晶,等.基于自適應(yīng)多字典學(xué)習(xí)的單幅圖像超分辨率算法[J].電子學(xué)報(bào),2015,43(2):209-216.

        Pan Zong-xu,Yu Jing,et al.Single image super resolution based on adaptive multi-dictionary learning[J].Acta Electronica Sinica,2015,43(2):209-216.(in Chinese)

        詹曙男,1968年生于安徽合肥.副教授、碩士生導(dǎo)師,合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院.研究方向?yàn)槿S人臉識(shí)別和醫(yī)學(xué)圖像處理.

        E-mail:shu-zhan@hfut.edu.cn

        方琪男,1991年生于安徽靈璧.碩士研究生,合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院.研究方向?yàn)閿?shù)字圖像處理.

        E-mail:fq9110@mail.hfut.edu.cn

        Image Super-Resolution Reconstruction via Improved Dictionary Learning Based on Coupled Feature Space

        ZHAN Shu1,FANG Qi1,YANG Fu-meng2,CHANG Le-le1,YAN Ting1

        (1.SchoolofComputer&Information,HefeiUniversityofTechnology,Hefei,Anhui230009,China;2.SchoolofElectronicInformationEngineering,SanjiangUniversity,Nanjing,Jiangsu210012,China)

        Image super-resolution reconstruction via Improved Dictionary Learning based on Coupled Feature Space is studied in the paper,in order to solve the following problems:1 the dictionary training process is time-consuming,2 the results are not satisfactory in the existing algorithms.In the proposed algorithm,at first,the Gaussian mixture model clustering algorithm is employed to cluster the training image blocks,secondly,quickly obtain high and low resolution feature space of dictionary and mapping matrix by using dictionary updating based on improved KSVD dictionary learning algorithm,and then,the Super-Resolution image is reconstructed according to the likelihood probability of test samples,in which each category adaptively selected the most matching dictionary and mapping matrix for high-resolution reconstruction,finally,the non-local similarity and iterative back-projection are exploited to furtherly improve the quality of the reconstruction image.The experimental results demonstrate the validity of the proposed algorithm.

        super-resolution;dictionary-learning;ksvd;sparse representation;gaussian mixture model

        2014-12-17;

        2015-09-14;責(zé)任編輯:藍(lán)紅杰

        國(guó)家自然科學(xué)基金(No.61371156);安徽科技攻關(guān)計(jì)劃(No.1401B042019)

        TP391

        A

        0372-2112 (2016)05-1189-07

        電子學(xué)報(bào)URL:http://www.ejournal.org.cn10.3969/j.issn.0372-2112.2016.05.025

        猜你喜歡
        字典高斯分辨率
        小高斯的大發(fā)現(xiàn)
        開心字典
        家教世界(2023年28期)2023-11-14 10:13:50
        開心字典
        家教世界(2023年25期)2023-10-09 02:11:56
        EM算法的參數(shù)分辨率
        天才數(shù)學(xué)家——高斯
        原生VS最大那些混淆視聽的“分辨率”概念
        基于深度特征學(xué)習(xí)的圖像超分辨率重建
        一種改進(jìn)的基于邊緣加強(qiáng)超分辨率算法
        我是小字典
        正版字典
        讀者(2016年14期)2016-06-29 17:25:50
        国产精品自拍午夜伦理福利| 成人性生交大片免费看r| 欧美日韩国产一区二区三区地区| 东京热无码人妻中文字幕| 国产精品久久国产精麻豆| 国产免费av手机在线观看片| 超级碰碰色偷偷免费视频| 婷婷综合久久中文字幕蜜桃三电影| 色播亚洲视频在线观看| 欧美老妇与禽交| 精品国产你懂的在线观看| 日本一区二区不卡在线| 日本高清视频wwww色| 国产成人精品久久一区二区三区| 亚洲影院天堂中文av色| 国产精品一区二区午夜久久| 日本一区二区三级在线| 国产人妻熟女高跟丝袜图片| 精精国产xxxx视频在线| 日本精品人妻在线观看| av在线免费观看网站,| 国产福利精品一区二区| 美女在线国产| 韩国女主播一区二区三区在线观看 | 手机在线观看免费av网站| 少妇粉嫩小泬喷水视频www| 学生妹亚洲一区二区| 开心激情站开心激情网六月婷婷| 亚洲国产一区二区三区精品| 国偷自产一区二区免费视频| 欧美巨大性爽| 亚洲精品99久久久久久| 国产丝袜美腿在线播放| 色天使综合婷婷国产日韩av| 国产美女在线一区二区三区| 久草视频在线播放免费| 日本少妇高潮喷水视频| 天堂√中文在线bt| 亚欧视频无码在线观看| 自拍视频在线观看首页国产| 人人摸人人操|