亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        邊緣增強(qiáng)的多字典學(xué)習(xí)圖像超分辨率重建算法

        2016-10-13 19:33:33曙方
        光電工程 2016年4期
        關(guān)鍵詞:低分辨率字典梯度

        詹 曙方 琪

        ?

        邊緣增強(qiáng)的多字典學(xué)習(xí)圖像超分辨率重建算法

        詹 曙1,2,方 琪1

        ( 1. 合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院,合肥 230009;2. 安全關(guān)鍵工業(yè)測控技術(shù)教育部工程研究中心,合肥230009 )

        針對(duì)目前基于字典學(xué)習(xí)的圖像超分辨率算法中邊緣保持能力有限、易產(chǎn)生視覺偽影等不足,本文提出了一種邊緣增強(qiáng)的多字典學(xué)習(xí)圖像超分辨率重建算法,可以有效的恢復(fù)圖像邊緣細(xì)節(jié)信息。算法首先對(duì)訓(xùn)練圖像塊進(jìn)行聚類處理,然后使用Boost K-SVD算法快速學(xué)習(xí)多組字典對(duì),超分辨重建時(shí)自適應(yīng)選擇最優(yōu)字典對(duì)進(jìn)行稀疏分解和重建。為了改善重建后圖像的邊緣視覺效果,根據(jù)輸入的低分辨率圖像引入邊緣方向保持正則項(xiàng),同時(shí)學(xué)習(xí)自然圖像庫的邊緣銳度統(tǒng)計(jì)先驗(yàn)對(duì)重建后圖像的邊緣進(jìn)行約束。實(shí)驗(yàn)結(jié)果驗(yàn)證了本文算法的有效性。

        超分辨率重建;字典學(xué)習(xí);統(tǒng)計(jì)先驗(yàn);邊緣增強(qiáng)

        0 引 言

        圖像的超分辨率重建,一直是數(shù)字圖像處理領(lǐng)域的研究熱點(diǎn)之一。在不需要增加硬件成本的前提下,它可以利用一幅或多幅低分辨率(LR)退化圖像,通過相應(yīng)的算法重建出一幅清晰的高分辨率(HR)圖像。由于超分辨率重建不需要過高的硬件要求,只需通過相應(yīng)的算法來實(shí)現(xiàn)圖像的高分辨率,因此該技術(shù)已廣泛的應(yīng)用在視頻監(jiān)控、衛(wèi)星遙感、軍事偵查、高清視頻等領(lǐng)域。

        目前已有的超分辨率重建算法可分為基于重建和基于學(xué)習(xí)兩大類[1]。但基于重建的方法沒有充分利用先驗(yàn)知識(shí),不能有效的恢復(fù)圖像細(xì)節(jié)信息,重建效果欠佳。為了能夠充分恢復(fù)丟失的細(xì)節(jié)信息,基于學(xué)習(xí)的超分辨率重建方法應(yīng)運(yùn)而生,它可以借助外部訓(xùn)練圖像庫來提供丟失的圖像細(xì)節(jié)信息。

        基于學(xué)習(xí)的圖像超分辨率方法通常利用高低分辨率圖像之間共有的先驗(yàn)或空間相似性,建立高低分辨率圖像之間對(duì)應(yīng)的映射關(guān)系模型,通過該模型預(yù)測高分辨率圖像?;趯W(xué)習(xí)的重建算法中,比較經(jīng)典的是Freeman等[2]提出的基于例子的重建算法,該算法最先在重建算法中利用圖像塊間的約束,通過馬爾可夫網(wǎng)絡(luò)建立高低分辨率圖像塊對(duì)應(yīng)關(guān)系。Yang.C等[3]提出一種結(jié)構(gòu)化人臉幻象方法,分別對(duì)人臉不同部分進(jìn)行重建,其中對(duì)面部輪廓和邊緣部分使用邊緣統(tǒng)計(jì)先驗(yàn)恢復(fù)其邊緣細(xì)節(jié)信息,取得了較好的效果。近年來,稀疏表示理論成為信號(hào)處理領(lǐng)域的研究熱點(diǎn),已經(jīng)在圖像識(shí)別[4]、圖像去噪[5]等領(lǐng)域獲得了廣泛的應(yīng)用。2010年Yang.J等[6]開創(chuàng)性的將稀疏表示理論用于圖像的超分辨率重建,利用高、低分辨率圖像塊在特定的稀疏基下有相同的稀疏表示系數(shù)作為約束條件。提高了重建效果,但存在邊緣保持能力有限、易產(chǎn)生視覺偽影等不足。Zeyde等[7]在Yang.J基礎(chǔ)上進(jìn)行改進(jìn),利用PCA對(duì)訓(xùn)練樣本的特征進(jìn)行降維,并使用K-SVD的方法進(jìn)行字典訓(xùn)練,提高了字典訓(xùn)練效率。Wang.S等[8]提出訓(xùn)練高低分辨率圖像塊及其高低分辨率之間映射關(guān)系構(gòu)造半耦合字典,有效地改善了重建后圖像的效果。He.L等[9]利用beta先驗(yàn)分布訓(xùn)練耦合特征空間的字典對(duì),也取得較好的效果,但字典訓(xùn)練需要消耗大量時(shí)間。Tomer等[10]提出了一種統(tǒng)計(jì)預(yù)測模型用于圖像超分辨率重建,使用受限的玻爾茲曼機(jī)學(xué)習(xí)高低分辨率圖像塊之間的統(tǒng)計(jì)關(guān)系。

        由于上述基于字典學(xué)習(xí)超分辨率主要依賴于訓(xùn)練圖像庫提供額外的信息,但是沒有充分考慮輸入低分辨率圖像中存在的邊緣信息和以及自然圖像庫中所提供的邊緣統(tǒng)計(jì)先驗(yàn)知識(shí),受到文獻(xiàn)[3]的啟發(fā),本文提出了一種邊緣增強(qiáng)的多字典學(xué)習(xí)圖像超分辨率算法。該算法首先使用K-means對(duì)訓(xùn)練圖像塊進(jìn)行聚類處理,然后使用Boost K-SVD字典學(xué)習(xí)算法快速學(xué)習(xí)多組高、低分辨率字典對(duì),超分辨率重建時(shí)在聚類中心的特征子空間中自適應(yīng)的選擇最優(yōu)高、低分辨率字典對(duì)進(jìn)行稀疏分解和重建。為了進(jìn)一步提高重建質(zhì)量,根據(jù)輸入的低分辨率圖像引入邊緣方向保持正則項(xiàng),同時(shí)學(xué)習(xí)自然圖像庫的邊緣銳度統(tǒng)計(jì)先驗(yàn)對(duì)重建后圖像的邊緣進(jìn)行約束,使最終重建后的圖像具有較清晰的邊緣、紋理等細(xì)節(jié)信息。

        1 相關(guān)工作

        1.1 基于字典學(xué)習(xí)的圖像超分辨重建

        超分辨率重建就是根據(jù)已知的LR圖像求解HR圖像的過程,這是一個(gè)典型的病態(tài)問題。本文主要研究的是單幅圖像的超分辨率重建。對(duì)于單幅圖像超分辨率問題,在不考慮噪聲的前提下,其退化模型可表示為

        按照?qǐng)D像稀疏表示理論[5],圖像在過完備字典下,總存在稀疏表示,即大部分稀疏表示系數(shù)為零,只有少數(shù)的非零系數(shù)。假設(shè)是維數(shù)為、原子數(shù)為的過完備字典,為圖像子塊的向量表示,則的稀疏表示為

        式中:為的最稀疏表示。式(2)是NP難問題,通常只考慮其近似解法,可通過匹配追蹤以及其改進(jìn)的正交匹配追蹤算法[11](OMP)等貪婪算法來近似求解。Donoho等人[12]指出在信號(hào)的稀疏分解中,對(duì)于足夠稀疏的信號(hào)表示系數(shù),可以用范數(shù)取代式(2)的范數(shù)進(jìn)行稀疏分解,使上述問題轉(zhuǎn)換為凸優(yōu)化問題,從而式(2)可以轉(zhuǎn)換為式(3)進(jìn)行稀疏表示

        對(duì)于Yang.J等[6]提出的基于字典學(xué)習(xí)的圖像超分辨率重建,通常需要兩個(gè)過完備字典,其中一個(gè)是在LR特征空間下訓(xùn)練得到的低分辨率字典,用于對(duì)LR測試圖像進(jìn)行稀疏分解,另一個(gè)是在HR特征空間下訓(xùn)練得到的高分辨率字典,用于進(jìn)行HR圖像重建。對(duì)于低分辨率測試圖像塊利用式(2)或式(3)對(duì)其進(jìn)行稀疏分解,得到的稀疏表示系數(shù),然后將稀疏系數(shù)作用在高分辨率字典,得到對(duì)應(yīng)高分辨率圖像塊,即。

        1.2 本文的超分辨重建模型

        本文提出了一種邊緣增強(qiáng)的多字典學(xué)習(xí)圖像超分辨率重建算法,可以有效的恢復(fù)圖像邊緣等細(xì)節(jié)信息??紤]到單個(gè)全局字典對(duì)圖像中不同的形態(tài)結(jié)構(gòu)表示能力不強(qiáng)[13-14],本文采用多字典對(duì)用于超分辨重建。該算法主要思想:在字典學(xué)習(xí)階段,首先對(duì)訓(xùn)練圖像塊進(jìn)行聚類處理,使得每一類訓(xùn)練圖像塊具有相同的形態(tài)結(jié)構(gòu),然后使用Boost K-SVD字典學(xué)習(xí)算法快速學(xué)習(xí)多組字典對(duì),超分辨率重建時(shí)在聚類中心的特征子空間中自適應(yīng)的選擇最優(yōu)高、低分辨率字典對(duì)進(jìn)行稀疏分解和重建。為了改善重建后圖像的邊緣視覺效果,根據(jù)輸入的低分辨率圖像引入邊緣方向保持正則項(xiàng),同時(shí)利用邊緣統(tǒng)計(jì)先驗(yàn)對(duì)重建后圖像的邊緣進(jìn)行約束。圖1為本文算法的流程框圖。

        圖1 本文算法流程框圖

        2 基于多字典學(xué)習(xí)的超分辨重建

        翻模施工是傳統(tǒng)的高墩施工技術(shù),其施工進(jìn)度較慢,施工成本投入較高。承臺(tái)頂面三層一套的模板上安裝校正,澆筑混凝土到最上層模板高度的一半位置,完成首次墩身澆筑。第三層鋼筋混凝土結(jié)構(gòu)達(dá)到一定強(qiáng)度后,逐層拆除最下面的兩層模板,將拆下模板表面進(jìn)行清理,用吊車將其翻轉(zhuǎn)至最上面第三層模板按照校正,直到墩臺(tái)頂部為止。

        2.1 多字典學(xué)習(xí)

        為了得到用于超分辨重建的高、低分辨率字典,必須對(duì)高、低分辨率訓(xùn)練樣本進(jìn)行訓(xùn)練。假設(shè)為已知的高分辨率訓(xùn)練圖像庫,對(duì)進(jìn)行倍下采樣,得到低分辨率圖像庫,然后對(duì)低分辨率圖像庫進(jìn)行倍插值,得到低分辨率訓(xùn)練圖像庫。由于Yang.J指出[6],人類視覺系統(tǒng)對(duì)圖像中的高頻部分較為敏感,而高頻部分表達(dá)了圖像大部分的語義信息,同時(shí)在字典訓(xùn)練中采用高低分辨率圖像的高頻特征,可有效恢復(fù)高分辨率圖像中丟失的高頻信息。故本文使用一階、二階梯度濾波器提取高、低分辨率圖像的梯度特征,對(duì)梯度特征進(jìn)行分塊成特征子塊,并向量化,得到各自的向量化的特征集合,分別記為和,其中是圖像塊個(gè)數(shù)。由于輸入的低分辨率圖像是已知的,且其梯度特征穩(wěn)定,而高分辨率圖像是未知的,故對(duì)低分辨率訓(xùn)練樣本進(jìn)行聚類處理。使用K-means算法對(duì)低分辨率特征集合進(jìn)行分類,由于K均值算法對(duì)初始值敏感,可能會(huì)導(dǎo)致部分類別的樣本數(shù)小于字典尺寸,從而不能有效的訓(xùn)練字典,因此本文將樣本較少的類別合并到與其類中心最相近的其它類別中,并重新計(jì)算類中心位置。通過對(duì)分類可分別得到類低分辨率特征訓(xùn)練樣本子塊、以及相應(yīng)的聚類中心,。

        為了得到一組性能更好的字典對(duì),本文將文獻(xiàn)[6]的聯(lián)合字典學(xué)習(xí)思想引入高、低分辨率字典學(xué)習(xí)中。假設(shè)高低分辨率圖像塊有相同稀疏系數(shù),聯(lián)合字典學(xué)習(xí)過程可以表示為

        其中:和分別為高、低分辨率訓(xùn)練樣本向量形式的維度。本文采用文獻(xiàn)[15]提出的Boost K-SVD字典學(xué)習(xí)算法求解式(4),該算法是K-SVD算法[5]的有效改進(jìn)算法,可以大幅提高字典學(xué)習(xí)效率,節(jié)約字典學(xué)習(xí)時(shí)間。經(jīng)過式(4)的字典學(xué)習(xí)可以得到組高、低分辨率字典對(duì),記為。

        2.2 稀疏域字典自適應(yīng)選擇超分辨重建

        對(duì)輸入的LR測試圖像的每個(gè)子塊在進(jìn)行超分辨率重建時(shí),需要自適應(yīng)的選擇最優(yōu)的字典對(duì)進(jìn)行稀疏分解和重建。首先對(duì)輸入LR測試圖像使用雙三次插值,并將其結(jié)果作為初始估計(jì),記為。對(duì)提取一階、二階梯度特征,分成特征子塊,并向量化,令為其中一個(gè)特征子塊。根據(jù)測試圖像塊與聚類中心點(diǎn)的歐氏距離確定所屬類別,然而直接計(jì)算與之間的歐氏距離不夠穩(wěn)定,因?yàn)槌跏脊烙?jì)可能含有噪聲,會(huì)直接影響子字典的選擇。因此,本文在的特征子空間中確定最優(yōu)字典的選擇。令,對(duì)的協(xié)方差矩陣使用奇異值分解(SVD),可得到的PCA變換矩陣,由前幾個(gè)最重要的特征向量組成投影矩陣,并在其特征子空間里計(jì)算與聚類中心之間的歐氏距離,即:

        由此,得到對(duì)應(yīng)于圖像塊的最優(yōu)字典對(duì)為,。對(duì)測試圖像特征子塊進(jìn)行超分辨重建,首先使用式(3)求出在低分辨率字典下的稀疏系數(shù),然后將求出的稀疏系數(shù)結(jié)合高分辨率字典重建出高分辨率圖像塊,即:。最后使用式(7)即可重建出HR圖像,即:

        式中是圖像塊提取操作。

        3 邊緣增強(qiáng)的超分辨模型

        基于多字典學(xué)習(xí)的圖像超分辨重建可以恢復(fù)圖像中大部分高頻信息,但是仍然存在邊緣模糊、人工偽影等不自然現(xiàn)象。針對(duì)上述問題本文根據(jù)輸入LR圖像引入邊緣方向保持正則項(xiàng),然后再學(xué)習(xí)自然圖像庫的邊緣銳度統(tǒng)計(jì)先驗(yàn)對(duì)重建后的結(jié)果進(jìn)行約束,最終得到邊緣增強(qiáng)的HR圖像。

        對(duì)于LR測試圖像中的每一個(gè)像素,首先計(jì)算其方向相似度,第個(gè)方向相似度的定義如下式:

        其中:是中每個(gè)像素的方向相似度組成的矩陣,使用梯度下降法求解(9)式可得到具有方向保持的HR圖像。重建后的邊緣清楚且平滑,但由于式(9)中并不包含邊緣銳化的正則項(xiàng),使得的邊緣不夠尖銳。本文從HR訓(xùn)練圖像庫中學(xué)習(xí)無參映射函數(shù)用于恢復(fù)的邊緣銳度信息。對(duì)于HR訓(xùn)練圖像,使用式(1)對(duì)其進(jìn)行下采樣,再進(jìn)行雙三次插值得到初始圖像,然后使用式(9)獲得邊緣方向保持圖像。為了方便標(biāo)記的邊緣中心點(diǎn),對(duì)進(jìn)行梯度運(yùn)算得到其梯度圖。此時(shí)的邊緣結(jié)構(gòu)是以最大梯度幅值為對(duì)稱中心,通過計(jì)算下式得到的邊緣中心點(diǎn):

        式中:表示梯度的幅值,,分別是像素所在的邊緣法線上兩個(gè)相反方向上的相鄰像素點(diǎn),即在此方向上梯度的幅值變化最大。令表示高分辨率訓(xùn)練圖像的梯度幅值,對(duì)于中的每個(gè)像素,提取特征集合作為一個(gè)統(tǒng)計(jì)樣本,這里表示距離像素最近的邊緣中心點(diǎn),且其之間的距離為。由于像素的坐標(biāo)是整數(shù),所以兩個(gè)像素之間的相對(duì)距離只能為一組離散的值,即。本文從訓(xùn)練圖像庫中隨機(jī)提取50萬個(gè)特征集合,根據(jù)距離的值將劃分到不同類中,并計(jì)算每個(gè)類的的平均值,記為。于是生成從到的查找映射表,記為。對(duì)于重建后HR圖像中每個(gè)像素,提取其特征集合,使用查找映射表恢復(fù)預(yù)測的梯度幅值。令表示的梯度圖,可過計(jì)算下式得到銳化后的梯度圖:

        式中:,表示通過查找映射表生成的預(yù)測幅值。式(11)生成的梯度圖同時(shí)保存了LR測試圖像的邊緣方向信息和查找映射表中銳度信息。最后計(jì)算下式即可得到輸出的HR圖像:

        其中:為梯度算子,,為正則化參數(shù)。對(duì)式(12)求解有很多種方法,本文使用梯度下降法求解式(12),即:

        其中:表示迭代次數(shù),為步長。

        4 實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證本文算法的有效性,本文選擇Lena、Monarch與Zebra等國際標(biāo)準(zhǔn)測試圖像用于實(shí)驗(yàn)測試,如圖2所示,并且與Bicubic插值,SC算法[6],SCDL算法[8]和SPM算法[10]進(jìn)行對(duì)比。本文的算法程序采用Matlab語言編寫,實(shí)驗(yàn)運(yùn)行環(huán)境為:64位Windows7 SP1操作系統(tǒng)、Inter I3-4130 3.4 GHz處理器、4GB運(yùn)行內(nèi)存、Matlab R2012b版本。通過對(duì)標(biāo)準(zhǔn)測試圖像進(jìn)行三倍的雙三次插值下采樣得到LR測試圖像,對(duì)輸入的LR測試圖像進(jìn)行三倍超分辨率重建。本文試驗(yàn)中字典學(xué)習(xí)和學(xué)習(xí)邊緣統(tǒng)計(jì)先驗(yàn)所用的圖像庫均來自SC算法所提供的訓(xùn)練圖像庫。本文算法參數(shù)設(shè)置如下:字典訓(xùn)練過程中隨機(jī)選擇10萬個(gè)圖像塊作為訓(xùn)練樣本;K-均值聚類初始值設(shè)為32,子字典原子數(shù)為256;圖像塊大小為5′5;Boost K-SVD字典訓(xùn)練迭代次數(shù)設(shè)為40次,稀疏平衡因子。SC算法參數(shù)設(shè)置為:訓(xùn)練圖像塊10萬個(gè);字典原子數(shù)1 024;稀疏平衡因子0.1;圖像塊大小5′5。SCDL算法參數(shù)設(shè)置:圖像塊50萬個(gè),分為32類;子字典尺寸為256。由于人類視覺系統(tǒng)對(duì)圖像的亮度信息更為敏感,因此在實(shí)驗(yàn)時(shí)將彩色RGB測試圖像轉(zhuǎn)換為YCbCr信號(hào),只對(duì)亮度通道Y進(jìn)行超分辨重建,Cb、Cr通道直接插值放大。為了客觀評(píng)價(jià)算法的性能,本文使用峰值信噪比(PSNR)和結(jié)構(gòu)相似度(SSIM)作為客觀評(píng)價(jià)標(biāo)準(zhǔn)。

        圖2 測試圖像

        圖3是使用本文算法對(duì)Lena圖像重建的各階段局部圖像對(duì)比。首先從圖3(a)中可以看出多字典的超分辨重建階段可以恢復(fù)大部分細(xì)節(jié)信息,但是在帽子的邊緣、紋理等部分仍然存在一定的模糊;其次,初步的重建結(jié)果再利用邊緣增強(qiáng)超分辨模型可以進(jìn)一步提高圖像的邊緣、紋理等部分的視覺效果。

        圖3 各階段重建圖像局部比較

        圖4~6為Girl、Parrot等圖像的各算法重建結(jié)果局部圖像對(duì)比。通過觀察不難發(fā)現(xiàn),SC算法可以恢復(fù)圖像的大部分細(xì)節(jié)信息,但是重建后圖像的邊緣不夠清晰而且還存在一定的人工偽影。SCDL算法重建后圖像邊緣細(xì)節(jié)沒有得到充分恢復(fù),且邊緣出現(xiàn)了鋸齒效應(yīng),尤其是在Zebra圖像中更為明顯。SPM算法與SC算法類似,邊緣不夠清楚,也存在一定的偽影現(xiàn)象。而本文的算法相比前三者可以恢復(fù)更多的細(xì)節(jié)信息,而且重建后圖像邊緣部分較為清晰,基本消除鋸齒效應(yīng),與原圖像更加接近。圖4本文算法重建圖像鼻尖邊緣部分與原圖像更加接近,圖5本文算法重建圖像的Parrot頭部紋理比前三者更加清晰,圖6本文算法重建圖像斑馬的白色條紋部分視覺效果提升明顯,與原圖像基本相似。

        圖4 不同算法超分辨重建比較(Girl)

        圖5 不同算法超分辨重建比較(Parrot)

        圖6 不同算法超分辨重建比較(Zebra)

        表1給出了五種算法重建圖像的PSNR和SSIM比較。從表1可以看出本文算法重建圖像的PSNR、SSIM相比其它算法均有所提高,其中本文算法的PSNR相比Bicubic插值、SC算法、SCDL算法和SPM算法分別提高了約1.5 dB、0.4 dB、0.9 dB和0.6 dB,而SSIM相比Bicubic插值、SC算法、SCDL算法和SPM算法分別提高了4.3、1.6、2.4和1.8個(gè)百分點(diǎn)。

        表1 各算法的PSNR(dB)與SSIM

        Table 1 PSNR(dB) and SSIM for different methods

        在字典學(xué)習(xí)效率方面本文算法相比SC算法和SCDL算法有較大的提升,本文字典訓(xùn)練時(shí)間約10.5 min,SC算法字典訓(xùn)練耗時(shí)約325 min,SCDL算法字典訓(xùn)練耗時(shí)約846 min。本文算法約為SC算法的,SCDL算法的。SC算法字典更新方式是在樣本和稀疏系數(shù)已知的條件下,求解優(yōu)化問題,但是由于訓(xùn)練樣本和稀疏系數(shù)的維度都很大,直接影響了字典訓(xùn)練的效率。SCDL算法在訓(xùn)練半耦合字典之前需要對(duì)每一類的字典進(jìn)行初始化,而且直接使用圖像塊的像素值進(jìn)行訓(xùn)練,大大的降低了字典訓(xùn)練效率。而本文算法首先對(duì)樣本分類,使每一類樣本數(shù)相對(duì)較少,使用的Boost K-SVD算法在字典更新階段中同時(shí)更新字典矩陣和稀疏系數(shù)矩陣中的非零元素項(xiàng),而且使用奇異值分解替換的方法,避免了高維數(shù)據(jù)的計(jì)算,可以較快速的獲得字典。

        5 結(jié) 論

        本文提出了一種邊緣增強(qiáng)的多字典學(xué)習(xí)圖像超分辨重建算法,可以有效的恢復(fù)圖像邊緣等細(xì)節(jié)信息,改善視覺效果。算法首先對(duì)訓(xùn)練圖像塊進(jìn)行聚類處理,使每一類訓(xùn)練圖像塊具有相同的形態(tài)結(jié)構(gòu),然后使用Boost K-SVD字典學(xué)習(xí)算法快速學(xué)習(xí)多組字典對(duì),超分辨重建時(shí)自適應(yīng)的選擇最優(yōu)字典對(duì)進(jìn)行稀疏分解和恢復(fù)。為了改善重建后圖像的邊緣視覺效果,根據(jù)輸入的低分辨率圖像引入邊緣方向保持正則項(xiàng),然后再學(xué)習(xí)自然圖像庫的邊緣銳度統(tǒng)計(jì)先驗(yàn)對(duì)重建后圖像的邊緣進(jìn)行約束。實(shí)驗(yàn)結(jié)果表明,本文超分辨重建算法在保持圖像邊緣和恢復(fù)紋理細(xì)節(jié)方面均有較好的改善,此外字典訓(xùn)練效率也優(yōu)于SC算法和SCDL算法。后續(xù)工作將考慮使用GPU加速來提高超分辨率重建速度,以達(dá)到實(shí)時(shí)效果。

        [1] 蘇衡,周杰,張志浩. 超分辨率圖像重建方法綜述 [J]. 自動(dòng)化學(xué)報(bào),2013,39(8):1202-1213.

        SU Heng,ZHOU Jie,ZHANG Zhihao. Survey of Super-resolution Image Reconstruction Methods [J]. Acta Automatica Sinica,2013,39(8):1202-1213.

        [2] Freeman T,Jones T R,Pasztor E C. Example based superresolution [J]. IEEE Computer Graphics and Applications (S0272-1716),2002,22(2):56-65.

        [3] YANG Chih-Yuan,LIU Sifei,YANG Ming-Hsuan. Structured Face Hallucination [C]// IEEE Conference on Computer Vision and Pattern Recognition (CVPR),Portland,Oregon,USA,June 25-27,2013:1099-1106.

        [4] 詹曙,王俊,楊福猛,等. 基于Gabor特征和字典學(xué)習(xí)的高斯混合稀疏表示圖像識(shí)別 [J]. 電子學(xué)報(bào),2015,43(3):523-528.

        ZHAN Shu,WANG Jun,YANG Fumeng,. Gaussian Mixture Sparse Representation for Image Recognition Based on Gabor Features and Dictionary Learning [J]. Acta Electronica Sinica,2015,43(3):523-528.

        [5] Elad M,Aharon M. Image denoising via sparse and redundant representations over learned dictionaries [J]. IEEE Transactions on Image Processing(S1063-6919),2006,15(12):3736-3745.

        [6] YANG Jianchao,Wright J,Thomas H,. Image super-resolution via sparse representation [J]. IEEE Transactions on Image Processing(S1057-7149),2010,19(11):2861-2873.

        [7] Zeyde R,Elad M,Protter M. On Single Image Scale-up using Sparse Representations [C]// Proceedings of the 7th International Conference on Curves and Surfaces,Avignon,F(xiàn)rance,June 24-30,2012,6920:711-730.

        [8] WANG Shenlong,ZHANG Lei,LIANG Yan,. Semi-coupled dictionary learning with applications to image super-resolution and photo-sketch synthesis [C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Providence,RI,USA,June 16-21,2012:2216-2223.

        [9] HE Li,QI Hairong,Zaretzki R. Beta Process Joint Dictionary Learning for Coupled Feature Spaces with Application to Single Image Super-Resolution [C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Portland,Oregon,USA,June 25-27,2013:345-352.

        [10] Peleg T,Elad M. A statistical prediction model based on sparse representations for single image super-resolution [J]. IEEE Transactions on Image Processing(S1057-7149),2014,23(6):2569-2582.

        [11] PatiY C,Rezaiifar R,Krishnaprasad P S. Orthogonal matching pursuit:recursive function approximation with applications to wavelet decomposition [C]// Proceedings of the 27th Asilomar Conference on Signals,Systems and Computers. Pacific Grove,USA:Institute of Electrical and Electronics Engineers,1993:40-44.

        [12] CHEN Shaobing,Donoho D,Saunders M. Atomic decomposition by basis pursuit [J]. SIAM Review(S0036-1445),2001,43(1):129-159.

        [13] DONG Weisheng,ZHANG Lei,SHI Guangming,. Image Deblurring and Super-Resolution by Adaptive Sparse Domain Selection and Adaptive Regularization [J]. IEEE Transactions on Image Processing(S1057-7149),2011,20(7):1838-1857.

        [14] 潘宗序,禹晶,肖創(chuàng)柏,等. 基于自適應(yīng)多字典學(xué)習(xí)的單幅圖像超分辨率算法 [J]. 電子學(xué)報(bào),2015,43(2):209-216.

        PAN Zongxu,YU Jing,XIAO Chuangbai,. Single Image Super Resolution Based on Adaptive Multi-Dictionary Learning [J]. Acta Electronica Sinica,2015,43(2):209-216.

        [15] Smith L N,Elad M. Improving Dictionary Learning:Multiple Dictionary Updates and Coefficient Reuse [J]. Signal Processing Letters(S1070-9908),2013,20(1):79-82.

        [16] 陳書貞,魏艷新. 基于圖像自相似性及字典學(xué)習(xí)的超分辨率重建算法 [J]. 光電工程,2013,40(6):106-113.

        CHEN Shuzhen,WEI Yanxin. Image Super-resolution Reconstruction Algorithms Based on Self-similarities and Dictionary Learning [J]. Opto-Electronic Engineering,2013,40(6):106-113.

        [17] 石大維,符冉迪,金煒. 基于耦合過完備字典的紅外云圖超分辨率方法 [J]. 光電工程,2014,41(4):69-74.

        SHI Dawei,F(xiàn)U Randi,JIN Wei. A Method of Infrared Nephogram Super-resolutionBased on Coupled Over-completed sDictionary [J]. Opto-Electronic Engineering,2014,41(4):69-74.

        Image Super-Resolution Based on Edge-enhancement and Multi-dictionary Learning

        ZHAN Shu1,2,F(xiàn)ANG Qi1

        ( 1. School of Computer and Information Technology,Hefei University of Technology,Hefei230009, China;2. Engineering Research Center of Safety Critical Industrial Measurement and Control Technology, Ministry of Education, Hefei230009, China )

        In order to overcome the weak of the limit ability of preservation of edges and easy to produce visual artifacts in some super-resolution methods based on dictionary learning, we propose multi-dictionary learning image super-resolution method with edge-enhanced, which can effectively restore the image edge details. Firstly, the training image patches will be classified by using K-means, and then quickly learn multi-dictionary pairs by employing the Boost K-SVD algorithm. During the super-resolution reconstruction, the method adaptively selects the optimal dictionary pairs for sparse decomposition and recovery. To improve the visual quality of edge after image reconstruction, we employed direction-preserving regularization according to the input test low-resolution (LR) image, meanwhile learning the natural image database edge sharpness statistics prior to constraint the image reconstruction of edges. The experimental results demonstrate the effectiveness of the proposed algorithm.

        super-resolution; dictionary learning; statistical priors; edge-enhancement

        TP391.41

        A

        10.3969/j.issn.1003-501X.2016.04.007

        2015-05-14;

        2015-07-27

        國家自然科學(xué)基金資助(61371156);安徽省科技攻關(guān)計(jì)劃(1401B042019)

        詹曙(1968-),男(漢族),安徽合肥人。副教授,碩士生導(dǎo)師,主要研究三維人臉識(shí)別和醫(yī)學(xué)圖像處理。E-mail: shu_zhan@hfut.edu.cn。

        猜你喜歡
        低分辨率字典梯度
        基于全局和局部特征集成的低分辨率人臉識(shí)別方法
        開心字典
        家教世界(2023年28期)2023-11-14 10:13:50
        開心字典
        家教世界(2023年25期)2023-10-09 02:11:56
        紅外熱成像中低分辨率行人小目標(biāo)檢測方法
        基于偏移學(xué)習(xí)的低分辨率人體姿態(tài)估計(jì)
        一個(gè)改進(jìn)的WYL型三項(xiàng)共軛梯度法
        一種自適應(yīng)Dai-Liao共軛梯度法
        一類扭積形式的梯度近Ricci孤立子
        樹木的低分辨率三維模型資源創(chuàng)建實(shí)踐
        我是小字典
        永久免费看黄网站性色| 国产精品一区二区久久精品| 国产精品无码专区综合网| 青青草手机成人自拍视频| 美女被男人插得高潮的网站| 无码字幕av一区二区三区| 蜜臀av一区二区| 亚洲AV日韩Av无码久久| 亚洲人成精品久久熟女| 国产极品视觉盛宴| 熟妇人妻av无码一区二区三区| 手机看片福利日韩国产| 国产精品日本一区二区三区在线 | 91福利国产在线观一区二区| 丰满人妻一区二区三区52| 国产av无码专区亚洲av麻豆| 国产精品久久国产三级国不卡顿| 国产亚洲精品成人无码精品网站 | 国产97色在线 | 日韩| 国产福利酱国产一区二区| 人妻av中文字幕精品久久| 亚洲中文无码av永久| 日本免费一区二区三区| 9久久精品视香蕉蕉| 男女性生活视频免费网站| 少妇高潮av久久久久久| 久久人人爽人人爽人人片亞洲| 亚洲乱在线播放| 男女上床免费视频网站| 手机福利视频| 国产福利免费看| 亚洲午夜精品国产一区二区三区| 职场出轨的人妻中文字幕| 欧美精品中文字幕亚洲专区| 久久99精品久久久66| 国产一区二区黑丝美胸| 一本大道无码人妻精品专区| 福利片福利一区二区三区 | 加勒比久久综合久久伊人爱| 巨人精品福利官方导航| 国产亚洲日韩欧美久久一区二区|