亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于加速殘差網(wǎng)絡(luò)的圖像超分辨率重建方法

        2021-07-02 00:36:22王昊榕
        計算機(jī)應(yīng)用 2021年5期
        關(guān)鍵詞:特征模型

        梁 敏,王昊榕,張 瑤,李 杰

        (山西財經(jīng)大學(xué)信息學(xué)院,太原 030006)

        (*通信作者電子郵箱liangmin716@163.com)

        0 引言

        圖像在采集、傳輸過程中受設(shè)備、光照等環(huán)境影響,直接降低了圖像的質(zhì)量。數(shù)字圖像超分辨率(Super-Resolution,SR)旨在通過某種模型約束條件由低分辨率(Low Resolution,LR)圖像重建清晰的高分辨率(High Resolution,HR)圖像,在公共安全、視頻監(jiān)控、醫(yī)學(xué)圖像處理[1-3]等方面具有強(qiáng)烈的需求。但根據(jù)有限的圖像信息重建出更多信息是一個病態(tài)過程,所以圖像超分辨率重建研究始終是一個具有挑戰(zhàn)性的任務(wù)。

        目前,圖像超分辨率重建是前沿?zé)衢T領(lǐng)域,吸引了越來越多的學(xué)者參與研究,并發(fā)表了眾多有意義的工作,其中,具有代表性的有:Yang 等[4]提出的基于稀疏編碼表示的超分辨率方 法(Sparse-coding-based Super-Resolution,ScSR),Timofte等[5]提出的可調(diào)整錨定鄰域回歸方法(Adjusted Anchored neighborhood regression for fast super-resolution,A+)。近年來,基于深度學(xué)習(xí)的超分辨率方法表現(xiàn)出良好的性能。Dong等[6]提出了基于卷積神經(jīng)網(wǎng)絡(luò)的圖像超分辨率重建(Super-Resolution using Convolutional Neural Network,SRCNN)方法,將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于超分辨率,實現(xiàn)了以低分辨率圖像作為輸入、高分辨率圖像作為輸出的端到端映射的重建模型。Wang 等[7]將傳統(tǒng)的稀疏編碼模型與深度學(xué)習(xí)相結(jié)合,提出了基于稀疏編碼的網(wǎng)絡(luò)(Sparse-Coding-based Network,SCN)。Dong 等[8]修改了SRCNN 模型,提出了加速的超分辨率卷積神經(jīng)網(wǎng)絡(luò)(Fast Super-Resolution Convolutional Neural Network,F(xiàn)SRCNN),通過在網(wǎng)絡(luò)末端添加反卷積層替代SRCNN初始上采樣操作,使得不同比例縮放因子可以共享卷積層權(quán)重,提升了重建速度。Kim 等[9]應(yīng)用殘差學(xué)習(xí)并結(jié)合可調(diào)梯度裁剪策略提出了超深卷積神經(jīng)網(wǎng)絡(luò)的圖像超分辨率方法(Super-Resolution using Very Deep convolutional network,VDSR)。李現(xiàn)國等[10]設(shè)計了具有中間層監(jiān)督的網(wǎng)絡(luò)模型(Intermediate Supervision Convolutional Neural Network,ISCNN),借助監(jiān)督層誤差函數(shù)來改善網(wǎng)絡(luò)梯度消失現(xiàn)象。劉月峰等[11]先對低分辨率圖像進(jìn)行三種插值操作,然后進(jìn)行五種不同強(qiáng)度的銳化操作,最后將圖像合并排列成三維矩陣,以此作為網(wǎng)絡(luò)的多通道輸入。Wang 等[12]設(shè)計了一個通過深層和淺層卷積網(wǎng)絡(luò)實現(xiàn)端到端映射的超分辨率模型(End-to-End Deep and Shallow convolutional network,EEDS),由淺層通道重建圖像的主要結(jié)構(gòu),深層通道重建圖像的高頻細(xì)節(jié)。上述方法仍存在的問題是:淺層網(wǎng)絡(luò)不能充分提取圖像的特征,有重建質(zhì)量不高的天然缺陷;而深層網(wǎng)絡(luò)參數(shù)量大、計算復(fù)雜度高、重建效率低。

        針對上述問題,本文提出一種基于加速殘差網(wǎng)絡(luò)的圖像超分辨率重建方法(image Super-Resolution reconstruction method based on AccelerateD residual network,ADSR)。該方法對低分辨率圖像與高分辨率圖像之間的高頻殘差信息運用加速殘差網(wǎng)絡(luò)進(jìn)行訓(xùn)練,將低分辨率圖像與網(wǎng)絡(luò)學(xué)到的殘差相加得到重建圖像。主要貢獻(xiàn)包括:

        1)構(gòu)建一個殘差網(wǎng)絡(luò)對低分辨率圖像與高分辨率圖像之間的高頻殘差信息進(jìn)行重建,避免低分辨率圖像攜帶的低頻信息在深層網(wǎng)絡(luò)中的冗余學(xué)習(xí),將網(wǎng)絡(luò)主要用于高頻殘差信息的訓(xùn)練,從而提高效率。

        2)在非線性映射前加入收縮層,對提取的低分辨率圖像的特征圖維數(shù)進(jìn)行降維,能夠減少深層網(wǎng)絡(luò)參數(shù),提高時間效率,以較少的網(wǎng)絡(luò)參數(shù)快速獲得較好的重建質(zhì)量。

        3)探索ADSR 網(wǎng)絡(luò)模型在運動模糊圖像超分辨率重建上的有效性,在多種模糊核下均取得了較現(xiàn)有方法更好的視覺效果和客觀量化指標(biāo)。

        1 ADSR網(wǎng)絡(luò)

        為了解決利用深層網(wǎng)絡(luò)進(jìn)行超分辨率重建中存在的網(wǎng)絡(luò)參數(shù)多、計算復(fù)雜度高等問題,本文構(gòu)建了一個ADSR 網(wǎng)絡(luò)模型。在本章中,將其視為由低分辨率圖像到高分辨率圖像的端到端映射過程,并劃分為六部分介紹:低分辨率特征提取、特征收縮、非線性映射、高分辨率特征擴(kuò)展、高頻殘差信息重建以及殘差求和。圖1給出了ADSR的網(wǎng)絡(luò)框架。ADSR整體是一個殘差網(wǎng)絡(luò),其主要目的是對低分辨率圖像缺失的高頻細(xì)節(jié)部分進(jìn)行重建,提高邊緣及紋理信息的重建精度。在局部上將端到端的非線性映射部分更細(xì)致地劃分成特征收縮、非線性映射、高分辨率特征擴(kuò)展這三個部分,降低了深層網(wǎng)絡(luò)傳輸過程中低分辨率特征圖的維度,從而降低模型復(fù)雜度。

        圖1 ADSR網(wǎng)絡(luò)架構(gòu)Fig.1 ADSR network architecture

        1.1 低分辨率特征提取

        單幅低分辨率圖像重建時,首先將該低分辨率圖像采用雙三次插值方法(Bicubic)上采樣到要重建的高分辨率圖像尺寸,得到初始的上采樣低分辨率圖像Y作為網(wǎng)絡(luò)的輸入,網(wǎng)絡(luò)的目標(biāo)是將Y盡可能地恢復(fù)出與真值高分辨率圖像X相似的重建圖像Z。利用一組濾波器對低分辨率圖像Y進(jìn)行卷積操作提取出豐富的圖像特征,其中每一個濾波器對應(yīng)得到一張?zhí)卣鲌D。將該層結(jié)構(gòu)表示為F1(Y)=W1*Y+B1,W1和B1分別表示濾波器的權(quán)重以及偏差,“*”表示卷積操作,W1對應(yīng)n1個尺寸為f1×f1 的濾波器,即經(jīng)過特征提取層能夠提取出n1張?zhí)卣鲌D。該部分如圖1中的Patch extraction所示。

        1.2 特征收縮

        在超分辨率重建任務(wù)中,把從低分辨率特征提取層F1提取到的特征圖進(jìn)行非線性映射得到用于重建高分辨率圖像對應(yīng)的高分辨率特征圖。然而在特征提取層中為了獲得圖像的豐富特征,特征維數(shù)n1通常較大,再將這些特征傳入多層非線性映射結(jié)構(gòu)時會產(chǎn)生較多的參數(shù),時間復(fù)雜度較高。

        ADSR在非線性映射前加入了特征收縮層將特征圖維數(shù)從n1 維降至n2 維。該層結(jié)構(gòu)表示為F2(Y)=W2*F1(Y) +B2,W2和B2分別表示濾波器的權(quán)重以及偏差,W2對應(yīng)n2個尺寸為f2 ×f2 的濾波器,且n2<n1,即經(jīng)過特征收縮層將特征圖維數(shù)降至n2。該部分如圖1中的Shrinking所示。

        1.3 非線性映射

        通過低分辨率特征提取及特征收縮后得到了低分辨率圖像的n2 張?zhí)卣鲌D,將這些特征圖進(jìn)行非線性映射能夠得到用于重建高分辨率圖像對應(yīng)的高分辨率特征圖,所以非線性映射結(jié)構(gòu)對重建質(zhì)量發(fā)揮著關(guān)鍵的作用。ADSR 使用多層小尺寸濾波器串聯(lián)的架構(gòu)來獲得較大的圖像感受野,有利于提高重建質(zhì)量。將非線性映射部分的當(dāng)前層數(shù)表示為i,其結(jié)構(gòu)表示如式(1)所示:

        其中:W3i和B3i表示第i層濾波器的權(quán)重以及偏差,M表示非線性映射部分的總層數(shù),其值將在實驗部分討論確定。該部分如圖1中的Mapping所示。

        1.4 高分辨率特征擴(kuò)展

        為了減少網(wǎng)絡(luò)參數(shù),在非線性映射前應(yīng)用了特征收縮層進(jìn)行降維,但直接使用n2 維特征進(jìn)行重建得到的圖像質(zhì)量不高,所以要在非線性映射之后、重建之前加入擴(kuò)展層將特征圖維數(shù)從n2維升回至n1維。表示為F4(Y)=W4*F3i(Y) +B4,其中i=M,W4和B4分別表示濾波器的權(quán)重以及偏差,W4對應(yīng)n1 個尺寸為f4 ×f4 的濾波器,即經(jīng)過特征擴(kuò)展層將高分辨率特征圖維數(shù)升至n1。該部分如圖1中的Expanding所示。

        1.5 高頻殘差信息重建

        深層超分辨率重建網(wǎng)絡(luò)主要完成兩個任務(wù):一是將低分辨率圖像Y已有的信息從網(wǎng)絡(luò)層的輸入端輸送至輸出端;二是重建低分辨率圖像與真值高分辨率圖像之間的差值部分R,即R=X-Y。在超分辨率重建任務(wù)中,要重建的信息遠(yuǎn)少于低分辨率和高分辨率圖像已有的公共信息,所以任務(wù)一將耗費網(wǎng)絡(luò)極大的資源,而真正用于任務(wù)二的資源較少。另外輸入端信息Y在網(wǎng)絡(luò)中進(jìn)行傳輸學(xué)習(xí)時隨著網(wǎng)絡(luò)結(jié)構(gòu)加深,容易出現(xiàn)細(xì)節(jié)丟失的問題。

        ADSR 構(gòu)建了一個殘差網(wǎng)絡(luò)對低分辨率圖像與高分辨率圖像之間的高頻殘差信息進(jìn)行重建。殘差結(jié)構(gòu)能夠避免信息Y的深層網(wǎng)絡(luò)傳送過程,將網(wǎng)絡(luò)主要用在高頻殘差信息R的重建上。ADSR 將n1維高分辨率特征圖進(jìn)行融合生成的一維圖像,即為重建出的高頻殘差圖像。表示為R′=W5*F4(Y) +B5,W5和B5分別表示濾波器的權(quán)重以及偏差,W5對應(yīng)1個尺寸為f5×f5的濾波器。該部分如圖1中Reconstruction所示。

        1.6 殘差求和

        本文構(gòu)建的殘差網(wǎng)絡(luò)框架在訓(xùn)練時以上采樣低分辨率圖像Y作為輸入,將由殘差網(wǎng)絡(luò)獲得的高頻殘差圖像R′與低分辨率圖像Y相加得到的重建高分辨率圖像Z作為輸出,以均方誤差(Mean Squared Error,MSE)作為網(wǎng)絡(luò)模型的損失函數(shù),如式(2)所示,式中n表示訓(xùn)練集的樣本數(shù)目。

        圖2顯示了set5數(shù)據(jù)集中butterfly圖像的上采樣低分辨率圖像Y,重建的殘差圖像R′以及最終生成的高分辨率圖像Z。

        圖2 butterfly圖像超分辨率重建過程Fig.2 Super-resolution reconstruction process of butterfly image

        綜上所述,基于加速殘差網(wǎng)絡(luò)的圖像超分辨率重建方法的過程如圖3所示,分為以下步驟:

        圖3 ADSR技術(shù)路線Fig.3 ADSR technology roadmap

        1)對輸入的低分辨率圖像進(jìn)行雙三次插值處理,獲得上采樣的低分辨率圖像Y;

        2)提取代表圖像Y高頻信息的n1張低分辨率特征圖;

        3)通過特征收縮層將其降維至n2;

        4)經(jīng)過非線性映射層得到對應(yīng)的n2張高分辨率特征圖;

        5)通過特征擴(kuò)展層將其升維至n1;

        6)由n1張高分辨率特征圖重建出高分辨率殘差圖像R′;

        7)將R′與Y相加獲得最終重建的高分辨率圖像Z。

        2 實驗

        2.1 實現(xiàn)細(xì)節(jié)

        2.1.1 訓(xùn)練集與測試集

        訓(xùn)練集 本文實驗基于隨機(jī)森林學(xué)習(xí)(Random Forest Learning,RFL)[13]的超分辨率方法使用的291 張圖片,采用數(shù)據(jù)增強(qiáng)的方法,對圖像旋轉(zhuǎn)90°、180°、270°,并縮小0.6倍以及0.8倍,得到3 492張圖片作為訓(xùn)練集。采用43的步長將數(shù)據(jù)集切割成43×43的圖像塊,混合多比例因子2、3、4數(shù)據(jù)集將獲得大約38萬張的圖像塊用于網(wǎng)絡(luò)訓(xùn)練。

        測試集采用set5[14]、set14[15]、BSD100[16]以 及Urban100[17]四個數(shù)據(jù)集作為測試集。

        2.1.2 訓(xùn)練細(xì)節(jié)

        ADSR 網(wǎng)絡(luò)結(jié)構(gòu)以MSE 作為損失函數(shù),表示重建的高分辨率圖像與真值圖像之間的差異,選用Adam(Adam optimization)算法來優(yōu)化損失函數(shù)。訓(xùn)練的初始學(xué)習(xí)率設(shè)置為0.000 1,權(quán)重衰減系數(shù)設(shè)置為0.000 1,濾波器的權(quán)重采用He 等[18]提出的方法進(jìn)行初始化。訓(xùn)練的批大小設(shè)置為128,模型訓(xùn)練了超過200 個epoch。網(wǎng)絡(luò)在硬件參數(shù)NVIDIA GeForce GTX 1060 下使用caffe 工具以及Matlab R2017b 接口進(jìn)行訓(xùn)練及測試。

        2.1.3 評價指標(biāo)

        為了定量表示重建結(jié)果并與其他方法進(jìn)行對比,本文采用峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)及結(jié)構(gòu)相似性(Structural SIMilarity,SSIM)作為重建效果評價標(biāo)準(zhǔn)。PSNR 值越大代表與真值圖像相比重建圖像失真越少,SSIM值越大代表重建圖像與真值圖像的結(jié)構(gòu)相似性越高。

        2.2 網(wǎng)絡(luò)參數(shù)設(shè)置研究

        2.2.1 不同層數(shù)設(shè)置

        ADSR 加入特征收縮層減少網(wǎng)絡(luò)參數(shù)勢必會以降低重建質(zhì)量為代價,所以考慮增加網(wǎng)絡(luò)層數(shù)來降低質(zhì)量的損失,因此設(shè)置了實驗對合適的網(wǎng)絡(luò)層數(shù)進(jìn)行探討,先以22 層網(wǎng)絡(luò)結(jié)構(gòu)作為基礎(chǔ),之后通過增加M討論選定ADSR最終的層數(shù)。

        表1 顯示了ADSR 在n1=64、n2=32,網(wǎng)絡(luò)層數(shù)分別為22、23、24、25以及26的各測試集的PSNR 及SSIM 均值結(jié)果(其中加粗表示最高值)。通過分析不同層數(shù)的重建結(jié)果,選定層數(shù)較小且重建質(zhì)量較好的24層為默認(rèn)的層數(shù)。

        表1 測試集在不同層數(shù)設(shè)置下的PSNR及SSIM均值Tab.1 Mean values of PSNR/SSIM of test sets under different layer configurations

        2.2.2 不同濾波器個數(shù)設(shè)置

        本文將低分辨率特征提取部分的濾波器個數(shù)n1 設(shè)置為64,即通過特征提取層提取出代表低分辨率圖像特征的64 張?zhí)卣鲌D。在進(jìn)行收縮時考慮將其降為16 維、32 維以及48 維。表2 顯示了在24 層網(wǎng)絡(luò)架構(gòu)上(n1,n2)設(shè)置為(64,16)、(64,32)及(64,48)的各測試集的PSNR 及SSIM 均值結(jié)果(其中加粗的值表示最高值)。通過分析不同設(shè)置下的重建結(jié)果,選定重建質(zhì)量較好的(64,48)為默認(rèn)的濾波器個數(shù)。

        表2 測試集在不同濾波器個數(shù)n1、n2設(shè)置下的PSNR及SSIM均值Tab.2 Mean values of PSNR/SSIM of test sets under different filter number n1,n2 configurations

        2.2.3 不同比例因子設(shè)置

        為解決一個神經(jīng)網(wǎng)絡(luò)模型只適用于單一比例因子的問題,本文將原始訓(xùn)練集按多種倍數(shù)比例因子進(jìn)行縮放并融合成大的訓(xùn)練集,使得訓(xùn)練得到的模型適用于所有訓(xùn)練集中包含的比例因子,提高網(wǎng)絡(luò)模型的泛化能力。表3和表4顯示了層數(shù)為24,濾波器個數(shù)為(64,48)的網(wǎng)絡(luò)結(jié)構(gòu)在不同訓(xùn)練集下得到的模型的set5 數(shù)據(jù)集的PSNR 及SSIM 結(jié)果,其中加粗的值表示測試比例因子包含在訓(xùn)練集的比例因子中。

        表4 不同比例因子模型對SSIM均值的影響Tab.4 The influence of different scale factor models on mean value of SSIM

        實驗結(jié)果顯示單比例因子訓(xùn)練集的模型無法處理其他比例因子重建問題,有時重建效果甚至比雙三次插值方法效果還差。以縮放比例因子2 下的測試集重建結(jié)果為例,其在比例因子2 訓(xùn)練集的模型下的PSNR 值為37.55,在比例因子3訓(xùn)練集的模型下的PSNR 值為30.92,在比例因子4 訓(xùn)練集的模型下的PSNR 值為25.67,而用雙三次插值方法得到的PSNR值為33.66。

        相比單比例因子訓(xùn)練集來說,混合比例因子訓(xùn)練集下的模型可以有效處理所有預(yù)定義比例因子的重建問題,且能使大比例因子測試集的重建效果得到增強(qiáng)。以表3中(×2,3,4)訓(xùn)練集模型下的各尺度PSNR 值與對應(yīng)的各單比例因子訓(xùn)練集的模型的PSNR 值對比為例:37.36(×2,3,4)-37.55(×2)、33.59(×2,3,4)-33.47(×3)、31.19(×2,3,4)-31.00(×4)。

        表3 不同比例因子模型對PSNR均值的影響Tab.3 Influence of different scale factor models on mean value of PSNR

        另外對于大比例因子3 和4 來說訓(xùn)練集涉及的預(yù)定義比例因子越多,模型重建的增強(qiáng)效果就越明顯。以縮放比例因子4下的測試集重建結(jié)果為例,其在單比例因子4訓(xùn)練集的模型下的PSNR 值為31.00,在混合比例因子(×2,4)訓(xùn)練集的模型下的PSNR 值為31.14,(×3,4)訓(xùn)練集的模型下的PSNR 值為31.06,(×2,3,4)訓(xùn)練集的模型下的PSNR值為31.19。

        2.3 與現(xiàn)有方法比較

        2.3.1 重建質(zhì)量的比較

        為了反映ADSR 的重建效果,本文將它與Bicubic、ScSR[4]、A+[5]以及近來國內(nèi)外提出的基于深度學(xué)習(xí)的方法SRCNN[6]、SCN[7]、FSRCNN[8]、VDSR[9]、ISCNN[10]、劉月峰等[11]方法以及EEDS[12]進(jìn)行比較。其中,所有對比方法的重建結(jié)果都使用原作者提供的數(shù)據(jù)或原作者發(fā)布的源代碼生成的數(shù)據(jù)。本文方法選擇在層數(shù)為24、濾波器個數(shù)為(64,48)、數(shù)據(jù)集為(×2,3,4)混合比例因子融合下的重建結(jié)果。圖4列出了set14數(shù)據(jù)集中comic圖像在比例因子為3時多種方法下的重建圖像以及PSNR 值。從中可以看出,ADSR 方法在邊緣處及高頻細(xì)節(jié)處的重建效果更為突出,且整體結(jié)構(gòu)與原圖更為接近。

        圖4 comic在比例因子為3時的重建圖像Fig.4 Reconstructed image of comic at the scale of 3

        表5、6 分別顯示了ADSR 與這些方法在set5、set14、B100及Urban100 四個測試集下的PSNR 和SSIM 均值,其中加粗標(biāo)注的值表示最高值,下劃線標(biāo)注的值表示次高值。結(jié)果顯示在重建質(zhì)量上ADSR除稍低于VDSR外,均優(yōu)于對比方法。

        表5 ADSR與現(xiàn)有方法PSNR的比較 單位:dB Tab.5 Comparison of PSNR of ADSR with existing methods unit:dB

        表6 ADSR與現(xiàn)有方法SSIM的比較Tab.6 Comparison of SSIM of ADSR with existing methods

        VDSR 的PSNR 及SSIM 均值略高于本文方法,其原因是它直接使用提取出的高維度特征圖進(jìn)行非線性映射,網(wǎng)絡(luò)模型參數(shù)量比ADSR 大(2.36 MB>1.50 MB)。ADSR 采用的特征降維操作會產(chǎn)生較小的重建質(zhì)量的損失,但能在時間效率上取得較大的優(yōu)勢。圖5 列出了ADSR 與VDSR 這兩種方法在4 個測試集上的重建質(zhì)量與重建時間的對比,結(jié)果顯示ADSR 方法的PSNR 均值只比VDSR 低0.1 dB 左右,但重建速度提高了將近一倍。

        圖5 VDSR與ADSR重建質(zhì)量與時間的對比Fig.5 Comparison of reconstruction quality and time between VDSR and ADSR

        另外,雖然ADSR 在測試集上的重建均值略低,但能在很多圖像上取得比VDSR 好的重建結(jié)果,如圖6 所示,列出了set5數(shù)據(jù)集中bird圖像及set14數(shù)據(jù)集中flowers圖像在比例因子為3 時兩種方法下的重建圖像以及PSNR 值對比,其中ADSR取得了更佳的重建結(jié)果。

        圖6 Bird及flowers在比例因子為3時的重建圖像Fig.6 Reconstructed images of bird and flowers at the scale of 3

        2.3.2 重建時間的比較

        為了反映ADSR 的深層網(wǎng)絡(luò)加速效果,本文與A+[5]、SRCNN[6]、VDSR[9]、ISCNN[10]以及基于對稱殘差卷積神經(jīng)網(wǎng)絡(luò)的圖像超分辨率重建方法(Super-Resolution based on Symmetric residual convolution neural network,SymSR)[19]進(jìn)行了重建時間的比較。表7 顯示了ADSR 與這些方法在set5、set14、B100 以及Urban100 測試集下的重建時間均值,其中加粗標(biāo)注的值表示最低值。結(jié)果顯示ADSR 的重建速度最快。在set5、set14、B100 三個數(shù)據(jù)集上ADSR 的重建速度至少是SRCNN 的20 倍,是VDSR 深層網(wǎng)絡(luò)的1.5 倍。在具有重建挑戰(zhàn)性的城市數(shù)據(jù)集Urban100 上ADSR 的重建速度至少是SRCNN 的43 倍,是VDSR 深層網(wǎng)絡(luò)的2.5 倍。另外ADSR 網(wǎng)絡(luò)模型參數(shù)量較VDSR 有所減?。?.50 MB<2.36 MB),說明了本文方法達(dá)到了減少網(wǎng)絡(luò)參數(shù),降低網(wǎng)絡(luò)復(fù)雜度,且明顯提高重建速度的目的。

        表7 ADSR與現(xiàn)有方法重建時間的比較 單位:sTab.7 Comparison of reconstruction time of ADSR with other methods unit:s

        2.4 ADSR模型處理運動模糊的有效性

        目前對圖像超分辨率重建的研究絕大多數(shù)是集中在處理下采樣模糊的理想化退化模型,鮮有研究考慮運動模糊等更為一般的退化因素[20]。本文將ADSR 應(yīng)用在處理運動模糊這一具有挑戰(zhàn)性的問題上,探索ADSR 模型在處理運動模糊時的有效性。

        訓(xùn)練集將多種運動模糊核考慮在內(nèi),提升網(wǎng)絡(luò)模型的泛化能力,其中模糊長度設(shè)置為[5,8,11,14],模糊角度設(shè)置為[0°,45°]。圖7列出了測試集中的3張圖像在模糊長度為14,模糊角度為45°下的重建圖像以及PSNR值,結(jié)果顯示,與VDSR相比,ADSR能以較小的網(wǎng)絡(luò)模型獲得更優(yōu)的重建效果,說明在處理運動模糊圖像超分辨率重建問題上ADSR更有效。

        圖7 VDSR與ADSR重建質(zhì)量的比較Fig.7 Comparison of reconstruction quality between VDSR and ADSR

        圖8列出了這兩種方法在4個測試集上的重建時間對比,結(jié)果顯示ADSR方法的重建速度比VDSR快將近一倍。

        圖8 VDSR與ADSR重建時間的比較Fig.8 Comparison of reconstruction time between VDSR and ADSR

        3 結(jié)語

        本文提出了一種基于加速殘差網(wǎng)絡(luò)的圖像超分辨率重建方法ADSR。該方法對低分辨率圖像與真值圖像之間的殘差信息進(jìn)行重建,它在多層小尺寸濾波器串聯(lián)的非線性映射結(jié)構(gòu)前加入特征收縮層對提取的特征圖維數(shù)進(jìn)行降維,然后在映射后加入高分辨率特征擴(kuò)展層進(jìn)行升維,重建出高分辨率的殘差信息。經(jīng)實驗證明,ADSR 能夠取得較A+等傳統(tǒng)方法以及SRCNN、ISCNN 等國內(nèi)外深度學(xué)習(xí)方法更好的超分辨率重建結(jié)果,并且能夠減少深層網(wǎng)絡(luò)參數(shù),降低網(wǎng)絡(luò)復(fù)雜度,達(dá)到加快重建速度、提高重建效率的目的。此外將該方法應(yīng)用于運動模糊圖像的超分辨率重建也獲得了較好的性能,但實際獲取的低分辨率圖像降質(zhì)因素眾多,后續(xù)將構(gòu)建更高效的網(wǎng)絡(luò)來處理通用降質(zhì)模型下的低分辨率圖像的超分辨率重建問題。

        猜你喜歡
        特征模型
        一半模型
        抓住特征巧觀察
        重要模型『一線三等角』
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        如何表達(dá)“特征”
        不忠誠的四個特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        大香蕉视频在线青青草| 欧美黑人又粗又大久久久| 亚洲中文字幕无码二区在线| 男子把美女裙子脱了摸她内裤| 最新国产女主播在线观看| 亚洲国产精品无码专区在线观看| 免费无码av片在线观看| 国产精品国产三级国产AvkTV| 国产一区二区三区男人吃奶| 含紧一点h边做边走动免费视频| 欧美与黑人午夜性猛交久久久| 国产在线欧美日韩精品一区二区| av一区二区在线免费观看| 人妻在卧室被老板疯狂进入| 国产内射性高湖| 亚洲国产视频精品一区二区| 亚洲av综合色区一区二区| 亚洲热线99精品视频| 亚洲欧美另类自拍| 东京道一本热码加勒比小泽| 精品人妻av区乱码色片| 国产青草视频在线观看| 国产麻豆一精品一AV一免费软件| 9l国产自产一区二区三区| 亚洲成a人片在线观看无码专区| 国产精品视频二区不卡| 欧洲乱码伦视频免费| 性色av色香蕉一区二区蜜桃| 岳好紧好湿夹太紧了好爽矜持| 成人精品一级毛片| 丝袜美腿亚洲综合久久| 久久久久久av无码免费网站下载 | 99久久久无码国产精品免费砚床| AV无码系列一区二区三区| 亚洲色图在线免费视频| 漂亮人妻被中出中文字幕久久| 国产熟女亚洲精品麻豆| 日本女优五十路中文字幕| 97人伦色伦成人免费视频| 五月婷婷六月激情| 午夜宅男成人影院香蕉狠狠爱 |