亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于密連接生成對(duì)抗網(wǎng)絡(luò)的圖像超分辨率重建*

        2020-05-29 10:01:16鄭璐王保云孔艷
        關(guān)鍵詞:特征效果方法

        鄭璐, 王保云, 孔艷

        (云南師范大學(xué) 信息學(xué)院,云南 昆明 650500)

        1 引 言

        圖像作為信息的載體,在各行各業(yè)發(fā)揮了極其重要的作用.互聯(lián)網(wǎng)上大量的圖像信息因受成像設(shè)備、網(wǎng)絡(luò)不當(dāng)傳播、環(huán)境等因素的影響,存在圖像質(zhì)量不高,細(xì)節(jié)信息不完善等問題,難以為我們提供更有用的信息,挖掘更多的價(jià)值.超分辨率重建(Super Resolution,SR)是利用某些圖像處理手段或算法模型,基于低分辨率圖像,估計(jì)出高分辨率圖像的技術(shù)[1].目前,圖像超分辨率在監(jiān)控設(shè)備、衛(wèi)星圖像和醫(yī)學(xué)影像等領(lǐng)域有著廣泛地應(yīng)用,發(fā)展前景廣闊[2].

        基于重建和基于非深度學(xué)習(xí)的超分辨率方法相對(duì)比較傳統(tǒng)[3-7].近幾年,隨著深度學(xué)習(xí)方法的迅猛發(fā)展,深度學(xué)習(xí)與圖像處理原理的結(jié)合在實(shí)現(xiàn)圖像超分辨率的準(zhǔn)確性和速度方面取得了巨大的突破.2014年由Dong等人[8]提出的SRCNN(Super-Resolution using Convolutional Neural Network)是基于深度學(xué)習(xí)方法的首秀,在圖像超分辨率的準(zhǔn)確性和速度方面取得了巨大的突破,重建出的超分辨率圖像效果相比傳統(tǒng)方法有很大改善.基于此,Shi等[9]提出更便利的ESPCN,該方法可直接在原圖像上提取細(xì)節(jié)信息,然后經(jīng)由算法計(jì)算重建圖像,顯著提高了重建效率.由Kim等人[10]受殘差網(wǎng)絡(luò)結(jié)構(gòu)的啟發(fā),運(yùn)用殘差網(wǎng)絡(luò)結(jié)構(gòu)來解決超分辨率相關(guān)問題,這對(duì)圖像重建中基于深度學(xué)習(xí)方法的發(fā)展具有重要意義.

        生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)具有強(qiáng)大的圖像生成能力[11],在圖像生成、修補(bǔ)、超分辨率、草稿圖復(fù)原等領(lǐng)域都有實(shí)際的應(yīng)用價(jià)值[12].Ledig等率先將GAN應(yīng)用到超分辨率重建領(lǐng)域中,提出了基于生成對(duì)抗網(wǎng)絡(luò)的超分辨率(Super-Resolution using a Generative Adversarial Network,SRGAN)算法[13],解決了最終恢復(fù)出來的圖像通常會(huì)丟失高頻細(xì)節(jié)這一問題,把圖像超分辨率重建研究又推向了一個(gè)新的高度.

        本文改進(jìn)了SRGAN中的生成器網(wǎng)絡(luò)模型,用DenseNet來代替ResNet,提出了一種新的基于生成對(duì)抗網(wǎng)絡(luò)的超分辨率圖像重建方法,主要有以下優(yōu)點(diǎn):

        (1)在4倍放大因子的圖像上實(shí)現(xiàn)了超分辨率重建,改進(jìn)了SRGAN中的生成器網(wǎng)絡(luò)模型,增加密連接塊,在一定程度上提高了PSNR和SSIM值.

        (2)為了促進(jìn)圖像的空間平滑性,在優(yōu)化問題中,使用內(nèi)容損失函數(shù)和Total Variation Loss一起約束噪聲.

        (3)選用VGG19的19、16、13、10、7層輸出對(duì)比結(jié)果,加強(qiáng)了不同尺度的特征融合.

        2 相關(guān)工作

        2.1 SRGAN

        算法將低分辨率圖像樣本輸入到生成器網(wǎng)絡(luò)中進(jìn)行訓(xùn)練學(xué)習(xí),通過學(xué)習(xí)到的圖像特征,不斷生成并輸出逐漸逼近真實(shí)高分辨率的圖像,接著再輸入到判別器網(wǎng)絡(luò)中,辨別其輸入的圖像是否來自原始真實(shí)的高分辨率圖像,直到生成器網(wǎng)絡(luò)生成高質(zhì)量的超分辨率圖像使判別器無法判別出真假時(shí)訓(xùn)練結(jié)束.其網(wǎng)絡(luò)結(jié)構(gòu)如圖1和圖2所示.

        圖1 SRGAN生成器網(wǎng)絡(luò)模型圖[13]

        圖2 SRGAN判別器網(wǎng)絡(luò)模型圖[13]

        2.2 DenseNet

        DenseNet具有密集連接性,在這個(gè)網(wǎng)絡(luò)中,任意兩層之間都有直接的連接[14].各層網(wǎng)絡(luò)的輸入是之前所有層輸出的串聯(lián),該層提取的圖像特征作為輸入,給到該層之后的每一層.網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示.

        圖3 DenseNet網(wǎng)絡(luò)模型圖

        3 本文網(wǎng)絡(luò)模型

        訓(xùn)練開始前應(yīng)用高斯濾波器對(duì)原始高分辨率樣本圖像IHR進(jìn)行預(yù)處理,通過下采樣獲得待輸入的低分辨率圖像ILR.

        SRGAN的生成器網(wǎng)絡(luò)的核心是采用了具有相同布局的B個(gè)殘差塊,同時(shí)受到DenseNet的啟發(fā),將SRGAN中的殘差塊改為密連接塊.具體來說,在生成器網(wǎng)絡(luò)部分,設(shè)置了3×23個(gè)密連接塊,加深網(wǎng)絡(luò)的同時(shí),共享參數(shù),解決了網(wǎng)絡(luò)層次較深時(shí)難以訓(xùn)練的問題.其網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示.

        圖4 生成器網(wǎng)絡(luò)模型圖[14]

        圖5 判別器網(wǎng)絡(luò)模型圖

        生成器網(wǎng)絡(luò)主要作用是特征提取和圖像重建.特征的提取又分為淺層特征和深層特征的提取.首先保留SRGAN中的第一層卷積網(wǎng)絡(luò)來進(jìn)行淺層特征提取,然后通過密連接塊(DenseNet)提取深層特征.DenseNet與ResNet不同,特征映射并不是簡(jiǎn)單的求和相加,而是增加密集塊跳躍連接,將密連接塊作為一個(gè)整體進(jìn)行處理,第一個(gè)卷積層的輸出以及每個(gè)密集連接塊的輸出,都輸入給在之后的所有密連接塊,這樣所有功能都可以串聯(lián)起來.例如第l層接收前面I0,I1,…,Il-1所有層的特征圖作為輸入,用公式表示為:

        Il=Sl[(I0,I1,…,Il-1)]

        (1)

        其中(I0,I1,…,Il-1)是第l層之前所有層輸出的特征圖的串聯(lián),S用來表示多層輸入的串聯(lián).

        GAN的最終目的是訓(xùn)練生成器模型G,這里給定生成器模型G的參數(shù)為θg,ILR表示輸入的低分辨率圖像,ISR表示生成器生成的高分辨率圖像,表示為:

        ISR=Gθg(ILR)

        (2)

        為了辨別出兩種圖像的性質(zhì):真實(shí)高分辨率圖像IHR、生成器G重建的圖像ISR,定義判別器網(wǎng)絡(luò)D,結(jié)構(gòu)如圖5所示.該網(wǎng)絡(luò)在SRGAN的基礎(chǔ)上簡(jiǎn)化了判別器網(wǎng)絡(luò)D的網(wǎng)絡(luò)結(jié)構(gòu),這樣不僅可以提高判別器的訓(xùn)練效率,同時(shí)也避免了判別器的判別能力過高,從而造成生成器難以訓(xùn)練的問題.生成器G不斷地對(duì)低分辨率圖像進(jìn)行重建,以欺騙可區(qū)分的判別器D,判別器D不斷地區(qū)分圖像是真實(shí)的還是重建的,直到無法判別為止.兩個(gè)網(wǎng)絡(luò)形成相互博弈、相互對(duì)抗的過程,用公式表示為:

        EILR~Pg(ILR)[1-Dθd(Gθg(ILR))]

        (3)

        4 損失函數(shù)與評(píng)價(jià)標(biāo)準(zhǔn)

        4.1 損失函數(shù)

        感知損失lSRper、對(duì)抗損失lSRadv以及內(nèi)容損失lSRimg共同構(gòu)成了損失函數(shù)lSR:

        lSR=0.006lSRper+10-3lSRadv+

        lSRimg+2e-8tvloss

        (4)

        其中,使用內(nèi)容損失函數(shù)lSRimg和Total Variation Loss(tvloss)一起約束噪聲.內(nèi)容損失lSRimg定義為:

        (5)

        在圖像中,Total Variation Loss定義為:

        (6)

        其中,x表示圖像的像素值,β默認(rèn)設(shè)置為2.

        此外,感知損失函數(shù)lSRper采用5層特征融合,而不是簡(jiǎn)單的VGG19輸出層的特征損失.感知損失計(jì)算如下:

        (7)

        (8)

        對(duì)抗損失函數(shù)是基于所有訓(xùn)練樣本重建后和原始高分辨率圖像一起輸入判別器,然后被判別器判別為原始高分辨率圖像IHR的概率定義的.對(duì)抗損失用來描述真實(shí)高分辨率圖像IHR和經(jīng)過重建的超分辨率圖像ISR之間的相似性.損失越小,則說明重建的超分辨率圖像越逼近真實(shí)高分辨率圖像,生成器網(wǎng)絡(luò)生成的圖像質(zhì)量越高,圖像重建效果越好.對(duì)抗損失用公式表示為:

        (9)

        4.2 評(píng)價(jià)標(biāo)準(zhǔn)

        目前使用較為廣泛且客觀的圖像質(zhì)量評(píng)價(jià)指標(biāo)有兩種,峰值信噪比(PSNR)和結(jié)構(gòu)相似性(SSIM).其中,PSNR用來表示局部信息丟失的多少[15],單位為dB.其定義式為:

        (10)

        其中,MSE是原始圖像和重建圖像的均方誤差.

        結(jié)構(gòu)相似性(SSIM)在算法設(shè)計(jì)上充分考慮人眼主觀感受特性,是一種衡量數(shù)字圖像的主觀感受方法,比一般方法更符合人眼的主觀感受效果.該計(jì)算方式通過比較亮度,對(duì)比度和結(jié)構(gòu)三項(xiàng)指標(biāo)來評(píng)估原始圖像和重建圖像的相似程度[16],其定義式為:

        SSIM(X,Y)=l(X,Y)·c(X,Y)·s(X,Y)

        (11)

        (12)

        (13)

        (14)

        其中,原真實(shí)圖像和重建圖像的均值用μX、μY分別表示,方差用σX、σY分別表示,協(xié)方差用σXY表示,C1、C2、C3為常數(shù).

        5 實(shí)驗(yàn)結(jié)果與分析

        實(shí)驗(yàn)使用公開基準(zhǔn)數(shù)據(jù)集Set5、Set14、BSD100進(jìn)行測(cè)試.實(shí)驗(yàn)運(yùn)行環(huán)境的基本硬件為英特爾Core i5-9 600 k @ 3.70GHz 六核處理器,內(nèi)存32GB,兩塊Nvidia GeForce GTX 1080 Ti(8G)顯卡.

        實(shí)驗(yàn)中,利用本文提出的方法實(shí)現(xiàn)了4倍放大因子的情況下三個(gè)基準(zhǔn)圖像數(shù)據(jù)集的超分辨率重建效果,并從基準(zhǔn)數(shù)據(jù)集中選取了一些圖像進(jìn)行測(cè)試,最后測(cè)試結(jié)果放大細(xì)節(jié)后比較實(shí)驗(yàn)效果.如圖6-8所示,分別是Set5、Set14、BSD100.每組圖從左至右依次是輸入的待重建低分辨率圖像、雙三次插值(Bicubic)后的圖像、SRResNet重建后的圖像、SRGAN重建后的圖像、本文方法重建后的圖像和原始高分辨率圖像.依次與Bicubic,SRResNet,SRGAN三種方法進(jìn)行了比較,本文提出的基于密連接的GAN方法最終效果相對(duì)更好.其中,圖6雙立方插值效果明顯最差,而SRResNet,SRGAN和本文的方法整體差別不大,細(xì)節(jié)重建都不夠優(yōu)秀,但是SRResNet重建的圖像邊緣呈鋸齒狀,基于密連接的GAN相比SRGAN的邊緣看起來稍加清楚,但總體上都沒能很好地重建原始圖像中類似“毛邊”的細(xì)節(jié).圖7中重建動(dòng)物的毛發(fā)細(xì)節(jié)效果明顯增強(qiáng),很顯然,基于密連接的GAN重建效果是最好的,SRGAN次之.圖8中,各方法對(duì)比效果不太明顯,沒有一種方法能夠完整顯示字母‘A’輪廓,但相對(duì)來說,基于密連接的GAN方法做得最好.

        總體來說,基于密連接的GAN的最終重建效果最好,重建后的圖像包含更多的細(xì)節(jié)信息,例如動(dòng)物毛發(fā)、邊緣輪廓等都更加清晰.最后對(duì)重建的圖像效果進(jìn)行定量指標(biāo)評(píng)價(jià),如表1所示,本文的方法相比SRGAN,PSNR提升了1.30 dB,SSIM提升了0.03.

        (a)LR (b)Bicubic (c)SRResNet (d)SRGAN (e)Ours (f)HR

        (a)LR (b)Bicubic (c)SRResNet (d)SRGAN (e)Ours (f)HR

        (a)LR (b)Bicubic (c)SRResNet (d)SRGAN (e)Ours (f)HR

        表1 不同方法重建效果定量指標(biāo)比較

        Table 1 Comparison of quantitative indicators for reconstruction effects of different methods

        數(shù)據(jù)集Bicubic[16]PSNR/SSIMSRResNet[13]PSNR/SSIMSRGAN[13]PSNR/SSIMOursPSNR/SSIMSet528.46/0.8130.51/0.8829.40/0.8530.70/0.88Set1425.98/0.7027.19/0.7826.02/0.7426.89/0.79BSD10025.84/0.67/25.16/0.6726.53/0.74

        6 結(jié)束語

        運(yùn)用GAN強(qiáng)大的圖像生成能力構(gòu)建了基于密連接的生成對(duì)抗網(wǎng)絡(luò)圖像超分辨率重建模型,該網(wǎng)絡(luò)模型將SRGAN生成器模型中的ResNet改為DenseNet,充分利用各層的特征映射,加快了網(wǎng)絡(luò)的收斂速度,同時(shí)能夠使參數(shù)共享,加深網(wǎng)絡(luò)層次的同時(shí),降低計(jì)算成本.改進(jìn)后的生成器網(wǎng)絡(luò)重建圖像的效果優(yōu)秀,在客觀評(píng)價(jià)指標(biāo)上也取得了良好的表現(xiàn),比較現(xiàn)存算法優(yōu)勢(shì)明顯.接下來,繼續(xù)改進(jìn)網(wǎng)絡(luò)模型,優(yōu)化損失計(jì)算,進(jìn)一步提高重建圖像的細(xì)節(jié)和紋理特征,提升網(wǎng)絡(luò)訓(xùn)練的效率.

        猜你喜歡
        特征效果方法
        按摩效果確有理論依據(jù)
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        迅速制造慢門虛化效果
        抓住“瞬間性”效果
        中華詩詞(2018年11期)2018-03-26 06:41:34
        抓住特征巧觀察
        可能是方法不對(duì)
        模擬百種唇妝效果
        Coco薇(2016年8期)2016-10-09 02:11:50
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        亚洲精品无码久久久久| 国产一区二区长腿丝袜高跟鞋| 91国产熟女自拍视频| 妃光莉中文字幕一区二区| 40岁大乳的熟妇在线观看| 欧美性猛交xxxx乱大交蜜桃| 国产av一区网址大全| 亚洲婷婷久悠悠色悠在线播放| 亚洲国产婷婷香蕉久久久久久| 亚洲日韩国产一区二区三区| 同性男男黄g片免费网站| 国产强伦姧在线观看| 亚洲女同系列在线观看| 成人网站在线进入爽爽爽| 免费国精产品自偷自偷免费看| 久久久综合九色合综国产| 亚洲国产一区中文字幕| 日本免费视频| 色偷偷久久一区二区三区| 一区二区视频观看在线| 久久中文字幕乱码免费| 国产亚洲一区二区三区夜夜骚| 亚洲av男人的天堂在线| 99国产精品99久久久久久| a级毛片毛片免费观看久潮喷| 九色91精品国产网站| 亚洲一区域二区域三区域四| 夜夜夜夜曰天天天天拍国产| 97久久天天综合色天天综合色hd| 综合色天天久久| 国产丝袜长腿在线看片网站| 日韩午夜福利无码专区a| 综合三区后入内射国产馆 | 精品国产91天堂嫩模在线观看| 亚洲AV无码乱码一区二区三区| 国产精品久久三级精品| 日韩亚洲欧美久久久www综合| 午夜无码国产理论在线| 亚洲欧美日韩国产精品网| 精品黄色国产一区二区| 国产精品a免费一区久久电影|