亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)的生成對(duì)抗網(wǎng)絡(luò)圖像超分辨率重建

        2020-02-18 15:20:10黃初華
        關(guān)鍵詞:特征

        李 誠(chéng),張 羽,黃初華

        貴州大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,貴陽(yáng)550025

        1 引言

        超分辨率圖像重建(Super Resolution Image Reconstruction,SRIR)[1-2]是近年來(lái)計(jì)算機(jī)視覺(jué)和圖像處理領(lǐng)域的一個(gè)研究熱點(diǎn),由于廣泛的應(yīng)用場(chǎng)景和理論價(jià)值,超分辨率圖像重建引起了研究者的廣泛關(guān)注。超分辨率圖像重建本質(zhì)上是如何由一幅或多幅低分辨率(Low Resolution,LR)圖像生成一個(gè)具有良好視覺(jué)效果和接近真實(shí)圖像的高分辨率(High Resolution,HR)圖像的問(wèn)題。在圖像的實(shí)際應(yīng)用中,為了減輕傳輸或存儲(chǔ)負(fù)擔(dān)等問(wèn)題,通常對(duì)圖像進(jìn)行下采樣等降質(zhì)操作,而降質(zhì)操作具有不可逆性,所以該問(wèn)題是病態(tài)問(wèn)題。因此從低分辨率圖像重建為高分辨率圖像的關(guān)鍵是找到低分辨率和高分辨率圖像之間的映射關(guān)系。

        目前主流的超分辨率重構(gòu)技術(shù)大致分為三類:基于插值[3]、基于重建[4-5]和基于學(xué)習(xí)[6-8]的方法。基于插值的方法,例如最近鄰域插值和雙三次插值,該類方法能有效地增強(qiáng)圖像分辨率,但圖像邊緣部分會(huì)出現(xiàn)模糊?;谥亟ǖ姆椒ㄖ攸c(diǎn)是恢復(fù)圖像丟失的高頻信息,該類方法簡(jiǎn)單且工作量低,但無(wú)法處理結(jié)構(gòu)比較復(fù)雜的圖像。基于學(xué)習(xí)的方法是近年來(lái)的主流方法,該類方法旨在通過(guò)對(duì)大量數(shù)據(jù)樣本的學(xué)習(xí),建立低分辨率圖像和高分辨率圖像之間的映射關(guān)系。其中,基于深度學(xué)習(xí)[9]的超分辨率重建相比于傳統(tǒng)只能人工提取特征進(jìn)行相對(duì)簡(jiǎn)單的函數(shù)擬合的淺層學(xué)習(xí),深度學(xué)習(xí)可以自動(dòng)學(xué)習(xí)得到層次化的特征表示,實(shí)現(xiàn)更加復(fù)雜的非線性函數(shù)模型逼近?;谏疃葘W(xué)習(xí)的算法性能超越了之前的很多經(jīng)典算法。

        Dong等人[10]首次將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于超分辨率重建上,提出基于卷積神經(jīng)網(wǎng)絡(luò)的超分辨率(Super-Resolution Convolutional Neural Network,SRCNN)算法,使用3個(gè)卷積層,將圖像特征從低分辨率空間非線性映射到高分辨率空間,重建效果優(yōu)于其他傳統(tǒng)算法。Kim等人[11]加深了卷積層數(shù),提出了一個(gè)20層的深度卷積神經(jīng)網(wǎng)絡(luò)模型(Very Deep Convolutional Networks,VDSR),提高了圖像的重建質(zhì)量。Kim等人[12]提出的基于深度循環(huán)神經(jīng)網(wǎng)絡(luò)的圖像超分辨率重建(Deeply-Recursive Convolutional Network,DRCN)和Tai等人[13]提出的基于深度循環(huán)殘差網(wǎng)絡(luò)的圖像超分辨率重建(Deep Recursive Residual Network,DRRN)均在網(wǎng)絡(luò)中加入循環(huán)神經(jīng)網(wǎng)絡(luò),大幅度減少了網(wǎng)絡(luò)參數(shù)。Tong等人[14]提出使用密集跳躍連接實(shí)現(xiàn)圖像超分辨率重建(Super-Resolution Dense Skip Connections Network,

        SRDenseNet),脫離了加深網(wǎng)絡(luò)層數(shù)和加寬網(wǎng)絡(luò)結(jié)構(gòu)來(lái)提升網(wǎng)絡(luò)性能的定式思維,有效地提高了重建質(zhì)量。Zhang等人[15]將殘差塊(Residual Block)和密集塊(Dense Block)整合為殘差密集塊(Residual Dense Block,RDB),提出殘差密集網(wǎng)絡(luò)(Residual Dense Network,RDN),并應(yīng)用在超分辨率重建上,提高重建質(zhì)量。

        隨著近年來(lái)生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks,GAN)的出現(xiàn),Ledig等人[16]首次將GAN應(yīng)用到超分辨率重建上,提出了基于生成對(duì)抗網(wǎng)絡(luò)的超分辨率重建(Super-Resolution Generative Adversarial Networks,SRGAN),在將殘差網(wǎng)絡(luò)(Residual Network,ResNet)作為生成器部分的基礎(chǔ)上,增加一個(gè)判別器,使用MSE損失函數(shù)和VGG損失函數(shù)來(lái)重建逼真的超分辨率圖像,實(shí)驗(yàn)證明,生成對(duì)抗網(wǎng)絡(luò)能適用于超分辨率重建。之后,Lim等人[17]提出的增強(qiáng)深度殘差(Enhanced Deep Super-Resolution,EDSR)網(wǎng)絡(luò)在SRGAN的結(jié)構(gòu)基礎(chǔ)上修改了殘差塊的設(shè)計(jì),去除了其中的批歸一化(Batch Normlization,BN)層,實(shí)驗(yàn)證明,去除BN層后可以節(jié)省約40%的GPU內(nèi)存空間。

        由于生成對(duì)抗網(wǎng)絡(luò)在超分辨率重建領(lǐng)域的優(yōu)勢(shì),本文基于生成對(duì)抗網(wǎng)絡(luò)框架,提出基于殘差密集網(wǎng)絡(luò)的生成對(duì)抗網(wǎng)絡(luò)的圖像超分辨率重建算法。在SRCNN基礎(chǔ)上添加判別器網(wǎng)絡(luò),擴(kuò)展成生成對(duì)抗網(wǎng)絡(luò)框架,并分別架構(gòu)生成器網(wǎng)絡(luò)和判別器網(wǎng)絡(luò):使用殘差密集網(wǎng)絡(luò)作為生成對(duì)抗網(wǎng)絡(luò)的生成器網(wǎng)絡(luò),將殘差塊替換為殘差密集塊,加深網(wǎng)絡(luò)深度以及提高特征信息的利用率;使用PatchGAN作為判別器網(wǎng)絡(luò)部分,解決訓(xùn)練不穩(wěn)定和收斂慢的問(wèn)題。

        2 相關(guān)工作

        2.1 生成對(duì)抗網(wǎng)絡(luò)

        GAN是Goodfellow等人[18-19]在2014年提出的一種生成式模型。其思想受博弈論中的二人零和博弈(即二人的利益之和為零,一方的所得正是另一方的所失)的啟發(fā),由一個(gè)生成器和一個(gè)判別器構(gòu)成。生成器捕捉真實(shí)數(shù)據(jù)樣本的潛在分布,并生成新的數(shù)據(jù)樣本;判別器是一個(gè)二分類器,判別輸入的是真實(shí)數(shù)據(jù)還是生成數(shù)據(jù)。生成器和判別器均可采用深度神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)。GAN發(fā)展至今,其家族在不斷擴(kuò)大,常用的模型有DCGAN(Deep Convolutional Generative Adversarial Networks)[20]、WGAN(Wasserstein GAN)[21]、PatchGAN[22]等。目前GAN已經(jīng)在圖像處理、計(jì)算機(jī)視覺(jué)、語(yǔ)音識(shí)別等方面得到了應(yīng)用。相較于其他方法,加入GAN算法的模型能充分利用圖像信息,因此模型的準(zhǔn)確率均有提高。

        2.2 SRCNN算法

        Dong等人[10]提出了基于卷積神經(jīng)網(wǎng)絡(luò)的超分辨率算法,將深度學(xué)習(xí)應(yīng)用到圖像超分辨率重建中,這是首次將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)應(yīng)用到超分辨率重建領(lǐng)域。

        SRCNN直接學(xué)習(xí)高低分辨率圖像之間的端對(duì)端映射。映射表現(xiàn)為一個(gè)深度卷積神經(jīng)網(wǎng)絡(luò),輸入的是低分辨率圖像,輸出的是高分辨率圖像。SRCNN網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。SRCNN不像傳統(tǒng)的稀疏表示的圖像超分辨率重建分開(kāi)處理每個(gè)部件,它共同優(yōu)化了所有的層,有很好的重建質(zhì)量,在實(shí)際應(yīng)用中也取得了很好的效果。

        SRCNN從總體上大致由特征提取和表示、非線性映射、重建三部分組成,每層負(fù)責(zé)特定的任務(wù)。

        圖1 SRCNN網(wǎng)絡(luò)架構(gòu)

        圖像塊提取和表示:該操作從低分辨率圖像中提取多個(gè)特征塊,并將每個(gè)特征塊表示為高維度向量,這些向量構(gòu)成第一層的特征圖。

        非線性映射:該操作是非線性地將來(lái)自第一層的每個(gè)高維向量映射到另一個(gè)高維向量上。每個(gè)映射向量都是一個(gè)高分辨率圖像塊的表示,這些映射向量構(gòu)成了第二層的特征圖。

        重構(gòu):該操作集合了上一層的高分辨率圖像塊,來(lái)生成最終的高分辨率圖像。

        3 本文方法

        3.1 算法結(jié)構(gòu)

        圖像超分辨率重建通常是通過(guò)提取低分辨率圖像的細(xì)節(jié)信息、重建等步驟得到相應(yīng)的高分辨率圖像,在特征信息的利用上存在著利用率不高的問(wèn)題。本文通過(guò)增加一個(gè)判別器網(wǎng)絡(luò),將原本基于卷積網(wǎng)絡(luò)框架拓展成基于生成對(duì)抗網(wǎng)絡(luò)框架,用生成對(duì)抗網(wǎng)絡(luò)來(lái)約束圖片。其中生成器網(wǎng)絡(luò)部分使用RDB提高特征信息利用率,提高生成圖像質(zhì)量。判別器網(wǎng)絡(luò)部分使用PatchGAN來(lái)提高收斂速度和提高重建圖像質(zhì)量。本文網(wǎng)絡(luò)框架如圖2所示。

        本文主要在網(wǎng)絡(luò)架構(gòu)和特征利用方面對(duì)SRCNN進(jìn)行改進(jìn),與SRCNN和SRGAN結(jié)構(gòu)相比,本文有以下特點(diǎn):

        (1)使用殘差網(wǎng)絡(luò)和密集網(wǎng)絡(luò)結(jié)合后的殘差密集網(wǎng)絡(luò)來(lái)替代SRCNN中特征提取和表示、非線性映射、重建三部分,使用殘差網(wǎng)絡(luò)增加網(wǎng)絡(luò)的深度,使用密集網(wǎng)絡(luò)提高對(duì)圖像特征信息的利用,最終提高重建圖像的質(zhì)量。

        (2)使用PatchGAN替換GAN的原始判別器網(wǎng)絡(luò)部分,與SRGAN的判別器網(wǎng)絡(luò)部分相比,PatchGAN輸出的是一個(gè)N×N的矩陣。本算法在原本SRGAN可以提高重建圖像質(zhì)量的基礎(chǔ)上,將輸入圖像以圖像塊的形式進(jìn)行處理,可以減少參數(shù)量和運(yùn)算量,以解決收斂慢的問(wèn)題。

        3.2 生成器網(wǎng)絡(luò)

        SRCNN算法以及一些基于SRCNN的算法,很多情況都只是通過(guò)加深網(wǎng)絡(luò)的深度來(lái)提高重建圖像質(zhì)量,這種加深網(wǎng)絡(luò)深度方法雖然可以提高重建圖像的質(zhì)量,但每層的特征信息無(wú)法被重復(fù)利用,導(dǎo)致特征利用率低,重建圖像質(zhì)量不高。本文算法使用將殘差網(wǎng)絡(luò)和密集網(wǎng)絡(luò)結(jié)合在一起的殘差密集網(wǎng)絡(luò)構(gòu)成生成器網(wǎng)絡(luò),在使用殘差網(wǎng)絡(luò)加深網(wǎng)絡(luò)深度的基礎(chǔ)上,使用密集網(wǎng)絡(luò),通過(guò)RDB將所有具有相同特征映射大小的特征圖連接起來(lái),每層的輸入都附加了前面所有層的輸出,通過(guò)從前面層到后續(xù)層的短路徑不僅可以緩解梯度消失問(wèn)題,而且增強(qiáng)了特征傳播,促進(jìn)了特征再利用,保留了前向傳播的特性。這種卷積層和激活層的輸出附加到后面卷積層的輸入的方法,使得網(wǎng)絡(luò)具有連續(xù)記憶的功能,每層的狀態(tài)得以連續(xù)傳遞,將每層的特征信息重復(fù)利用,解決SRCNN中特征信息利用率低的問(wèn)題。

        圖2 本文網(wǎng)絡(luò)架構(gòu)

        生成器網(wǎng)絡(luò)架構(gòu)使用RDB構(gòu)建,主要由輸入、特征提取、殘差密集塊、特征融合、全局殘差學(xué)習(xí)(Global Residual Learning,GRL)、重建和輸出組成。每層詳細(xì)介紹如下:

        (1)特征提取層:使用3×3卷積核的卷積層對(duì)輸入的低分辨率圖像進(jìn)行卷積處理,提取特征圖。

        (2)RDB層:由RDB組成,結(jié)構(gòu)如圖3所示,使用由卷積層和激活層組成的特征提取單元多次重復(fù)串接組成,這樣可以在獲得較深的網(wǎng)絡(luò)層數(shù)的前提下,通過(guò)密集連接重復(fù)利用前后特征信息。LRL(Local Residual Learning)為局部殘差學(xué)習(xí)。本文引入EDSR[17]的網(wǎng)絡(luò)架構(gòu)特點(diǎn)刪除殘差網(wǎng)絡(luò)結(jié)構(gòu)中的BN層,因?yàn)槭褂肂N層來(lái)歸一化特征會(huì)使得網(wǎng)絡(luò)參數(shù)大量增加,占用較多內(nèi)存,不利于網(wǎng)絡(luò)收斂,所以生成器網(wǎng)絡(luò)部分刪除BN層,提高收斂速度。

        圖3 RDB塊結(jié)構(gòu)

        (3)特征融合層:將每個(gè)殘差塊輸出的特征圖進(jìn)行連接,形成密集特征融合。

        (4)GRL層:在特征圖進(jìn)行重建之前,將輸入圖像經(jīng)過(guò)底層卷積操作后得到的特征圖再次融合到經(jīng)過(guò)殘差塊提取的特征圖中,形成全局殘差學(xué)習(xí),這樣做有利于網(wǎng)絡(luò)訓(xùn)練和梯度保持。

        (5)重建模塊:使用反卷積層對(duì)特征圖進(jìn)行擴(kuò)充處理,反卷積可以加速超分辨率圖像的重建過(guò)程,同時(shí)獲取的大量LR圖像的紋理信息可以被用于推斷HR圖像的細(xì)節(jié)信息。

        3.3 判別器網(wǎng)絡(luò)

        判別器部分受到Isola等人[22]提出的基于圖像塊的判別器PatchGAN的啟發(fā),設(shè)計(jì)6層的卷積神經(jīng)網(wǎng)絡(luò)作為判別器網(wǎng)絡(luò)。該判別器網(wǎng)絡(luò)由卷積層、批歸一化層、激活層和最大池化層交替構(gòu)成,卷積層和最大池化層的步幅均設(shè)置為2,以增大輸出特征的感受野,批歸一化層的使用可以提高判別器網(wǎng)絡(luò)的泛化能力。

        GAN一般情況下的網(wǎng)絡(luò)結(jié)構(gòu),在一些人的實(shí)驗(yàn)中已經(jīng)表明對(duì)于要求高分辨率、高細(xì)節(jié)保持的圖像領(lǐng)域并不適合,與SRGAN的原本判別器網(wǎng)絡(luò)相比,PatchGAN辨別器網(wǎng)絡(luò)對(duì)小尺寸的圖像塊進(jìn)行運(yùn)算,大大減少了參數(shù)數(shù)量和運(yùn)算量,緩解了原本GAN網(wǎng)絡(luò)收斂慢的問(wèn)題。而Isola等通過(guò)實(shí)驗(yàn)驗(yàn)證,當(dāng)圖像塊的尺寸大于70×70時(shí),生成圖像的效果已經(jīng)十分接近對(duì)真實(shí)圖像進(jìn)行判定的結(jié)果。因此,本文算法使用判別器網(wǎng)絡(luò)部分可以提高重建圖像質(zhì)量和解決收斂速度慢的問(wèn)題。

        3.4 損失函數(shù)

        本文采用均方誤差(Mean Square Error,MSE)損失和對(duì)抗損失的加權(quán)和作為訓(xùn)練生成器網(wǎng)絡(luò)的目標(biāo)函數(shù),而未使用SRGAN中的VGG損失。基于像素的MSE損失用于保留圖像的低頻部分,對(duì)抗損失用于恢復(fù)圖像的高頻信息。損失函數(shù)表達(dá)式如下:

        LG=LMSE+αLA

        其中,LG是生成網(wǎng)絡(luò)的總體損失,LMSE為MSE損失,LA為對(duì)抗損失,α為加權(quán)系數(shù)權(quán)重。

        3.4.1 MSE損失

        為獲得高質(zhì)量的重建圖像,算法采用MSE損失計(jì)算生成圖像與目標(biāo)圖像對(duì)應(yīng)像素的歐幾里德距離。MSE更接近人的視覺(jué)感知,對(duì)數(shù)值差異較大的異常像素點(diǎn)更加敏感,但難以捕捉圖像感知上的區(qū)別,因此將MSE作為目標(biāo)函數(shù)的網(wǎng)絡(luò)模型生成的圖像趨于平滑。而像素是數(shù)字圖像的最小單位,減小像素間的差距能夠更加快速、有效地保證圖像信息的準(zhǔn)確性,因此MSE損失雖然會(huì)丟失圖像的一部分高頻信息,但能夠很好地恢復(fù)圖像的低頻內(nèi)容。

        MSE損失函數(shù)表達(dá)式如下:

        式中,IHi代表高分辨率圖像,ILi代表低分辨率圖像,G(x,θ)代表生成網(wǎng)絡(luò)學(xué)習(xí)低分辨率圖像和高分辨率圖像之間的映射函數(shù)。

        3.4.2 對(duì)抗損失

        基于生成網(wǎng)絡(luò)和對(duì)抗網(wǎng)絡(luò)的對(duì)抗機(jī)制,參照SRGAN網(wǎng)絡(luò)的對(duì)抗損失函數(shù),設(shè)定對(duì)抗損失的表達(dá)式如下:

        其中,D(G(ILi,θ))為判別器網(wǎng)絡(luò)判定生成圖像為真實(shí)圖像的概率。

        4 實(shí)驗(yàn)與分析

        4.1 訓(xùn)練細(xì)節(jié)

        本文方法基于PyTorch框架進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)的硬件參數(shù)如下:IntelCorei7-4790K 4.00 GHz,NVIDIA GTX1060 6 GB。采用NTIRE2017中提供的DIV2K訓(xùn)練集,該訓(xùn)練集由1 000幅RGB圖像組成,其中訓(xùn)練集包含800幅圖像,驗(yàn)證集和測(cè)試集各100幅圖像,所有圖像至少在垂直或水平上包含2 040像素。訓(xùn)練部分不采用原本SRCNN的優(yōu)化,而使用Adam算法進(jìn)行優(yōu)化,總迭代次數(shù)為100次,初始學(xué)習(xí)率設(shè)置為10-4,隨迭代進(jìn)行,微調(diào)學(xué)習(xí)率,損失函數(shù)的參數(shù)α經(jīng)交叉驗(yàn)證設(shè)為0.1。

        4.2 實(shí)驗(yàn)測(cè)試

        為驗(yàn)證本文的超分辨率重建算法性能,實(shí)驗(yàn)選用通用的基準(zhǔn)測(cè)試集Set5、Set14、BSD100進(jìn)行測(cè)試,并將測(cè)試結(jié)果與Bicubic[23]、SRCNN[10]、VDSR[11]、DRCN[12]、SRGAN[16]等算法在主觀效果和客觀指標(biāo)兩方面進(jìn)行對(duì)比。為了保證客觀準(zhǔn)確的對(duì)比,所有網(wǎng)絡(luò)模型均在放大因子為4的比例下進(jìn)行實(shí)驗(yàn)測(cè)試,由于測(cè)試平臺(tái)配置不同,所得測(cè)試結(jié)果可能與原文獻(xiàn)數(shù)據(jù)略有不同。

        4.2.1 主觀效果

        為保證對(duì)比效果,從Set5和Set14數(shù)據(jù)集中各選取一張圖片,在放大4倍的情況下,比較各個(gè)算法的實(shí)際重建情況。不同算法在Set5和Set14上的重建效果圖如圖4和圖5所示。

        圖4 Set5數(shù)據(jù)集上重建效果

        圖5 Set14數(shù)據(jù)集上重建效果

        圖4表示的是在Set5測(cè)試集上,放大因子為4時(shí),本文提出的超分辨率重建算法和其他算法的對(duì)比結(jié)果。Set5測(cè)試集中嬰兒的圖像在放大細(xì)節(jié)后可以觀察到,本文提出的算法重建圖像質(zhì)量更好,細(xì)節(jié)部分紋理更加清晰。圖5表示的是在Set14測(cè)試集上,放大因子為4時(shí)。本文提出的超分辨率重建算法和其他算法的對(duì)比結(jié)果。通過(guò)Set14測(cè)試集中狒狒圖像在邊緣處放大后的細(xì)節(jié)可以看出,本文重建算法的紋理與Bicubic、SRCNN、VDSR等算法重建的圖像對(duì)比,本文算法重建后更加清晰。

        4.2.2 客觀效果

        本文采用目前圖像處理中常用的兩個(gè)檢測(cè)指標(biāo):峰值信噪比(Peak Signal to Noise Ratio,PSNR)和結(jié)構(gòu)相似性(Structural Similarity,SSIM)作為客觀評(píng)價(jià)指標(biāo),從而更準(zhǔn)確地表明本文算法相較其他算法的優(yōu)越性。PSNR反映兩幅圖像對(duì)應(yīng)像素點(diǎn)間的誤差,其值越高表明輸出圖像失真越少,圖像重建質(zhì)量越好。SSIM是表示兩幅圖像相似度的評(píng)價(jià)指標(biāo),其值越接近于1代表輸出圖像越接近于原始高分辨率圖像,即重建效果越好。

        在放大因子為4的情況下,僅對(duì)本文算法的生成器網(wǎng)絡(luò)部分進(jìn)行性能測(cè)試,在基準(zhǔn)數(shù)據(jù)集Set5、Set14、BSD100下測(cè)試其平均PSNR值(dB)和測(cè)試時(shí)間(s),如表1所示。

        表1 各數(shù)據(jù)集上生成器網(wǎng)絡(luò)測(cè)試結(jié)果

        在放大因子為4時(shí),在基準(zhǔn)數(shù)據(jù)集Set5、Set14、BSD100下與Bicubic[23]、SRCNN[10]、VDSR[11]、DRCN[12]、SRGAN[16]算法對(duì)比PSNR和SSIM值如表2和表3所示??梢钥闯?,本文方法在Set5、Set14和BSD100上PSNR的效果要普遍優(yōu)于比較算法,比較算法的PSNR值比最高的SRResNet算法分別高0.34 dB、0.28 dB和0.10 dB,除了在Set14上的SSIM值要比SRResNets低0.033以外,SSIM值在Set5和BSD100上要高0.003 4和0.003 1,因此可以證明本文算法要優(yōu)于其他算法。

        表2 標(biāo)準(zhǔn)數(shù)據(jù)集Set5、Set14和BSD100上PSNR值對(duì)比dB

        表3 標(biāo)準(zhǔn)數(shù)據(jù)集Set5、Set14和BSD100上SSIM值對(duì)比

        5 結(jié)束語(yǔ)

        本文針對(duì)圖像超分辨率重建中特征信息利用率低的問(wèn)題,結(jié)合生成對(duì)抗網(wǎng)絡(luò)和卷積網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu),提出了基于殘差密集生成對(duì)抗網(wǎng)絡(luò)的圖像超分辨率重建算法,通過(guò)將SRCNN擴(kuò)展為生成對(duì)抗網(wǎng)絡(luò)框架,構(gòu)建網(wǎng)絡(luò)的生成器和判別器部分,定義損失函數(shù)。本文提出的算法可以較好地增強(qiáng)特征傳播,促進(jìn)特征再利用,提高特征利用率。通過(guò)實(shí)驗(yàn)部分的主觀效果和客觀數(shù)據(jù)對(duì)比,可以看出本文算法能夠較全面地提取低分辨率圖像特征,較好地提高對(duì)特征信息的重復(fù)利用率,較充分地恢復(fù)圖像的紋理信息,在加速模型收斂的同時(shí),進(jìn)一步提升圖像重建質(zhì)量。未來(lái)研究工作主要是對(duì)特定的領(lǐng)域或特定的場(chǎng)景圖像進(jìn)行超分辨率重建,以及將基于深度學(xué)習(xí)的方法與傳統(tǒng)方法相結(jié)合實(shí)現(xiàn)更優(yōu)的超分辨率重建算法。

        猜你喜歡
        特征
        抓住特征巧觀察
        離散型隨機(jī)變量的分布列與數(shù)字特征
        具有兩個(gè)P’維非線性不可約特征標(biāo)的非可解群
        月震特征及與地震的對(duì)比
        如何表達(dá)“特征”
        被k(2≤k≤16)整除的正整數(shù)的特征
        不忠誠(chéng)的四個(gè)特征
        詈語(yǔ)的文化蘊(yùn)含與現(xiàn)代特征
        新聞傳播(2018年11期)2018-08-29 08:15:24
        抓住特征巧觀察
        基于特征篩選的模型選擇
        亚洲成av人在线观看天堂无码| 久久精品一区一区二区乱码| 久久久中文字幕日韩精品 | 国产女人的高潮国语对白| 国内精品久久久久久无码不卡| 日韩av无卡无码午夜观看| 亚洲无人区乱码中文字幕动画| 2018天天躁夜夜躁狠狠躁| 又爽又黄又无遮挡的激情视频| 久久福利资源国产精品999| 女女同性av一区二区三区| 老熟妇乱子伦牲交视频| 亚洲一线二线三线写真| 中文字幕不卡高清免费| 女同另类专区精品女同| 国产成人a级毛片| 少妇人妻200篇白洁| 久久综合给合久久狠狠狠9| 亚洲一区二区av天堂| 免费无码一区二区三区a片百度| 亚洲精品久久久久久动漫 | 青青草免费手机视频在线观看| 亚洲国产精品综合久久网各| 国产a级网站| 国产三级三级精品久久| 国产精品国产三级国产aⅴ下载| 亚洲男人第一无码av网站| 在线观看亚洲精品国产| 久久狼人国产综合精品| 亚洲中文字幕无码不卡电影| 最近中文av字幕在线中文| 蜜桃视频一区二区三区在线 | 亚洲av永久无码精品漫画| 天堂在线www中文| 中文字幕一二区中文字幕| 极品av一区二区三区| 久久国产劲暴∨内射| 亚洲色偷拍一区二区三区| 人妻人妇av一区二区三区四区| 中文字幕日韩三级片| 91久久青青草原免费|