亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多層次特征融合的圖像超分辨率重建

        2023-01-16 07:36:22李金新黃志勇李文斌周登文
        自動化學(xué)報 2023年1期
        關(guān)鍵詞:集上淺層殘差

        李金新 黃志勇 李文斌 周登文

        單圖像超分辨率(Single image super-resolution,SISR)技術(shù)旨在將一幅低分辨率(Low-resolution,LR)圖像重建其對應(yīng)的高分辨率(High-resolution,HR) 圖像.SISR 被廣泛應(yīng)用于醫(yī)學(xué)成像[1]、遙感[2]和安防[3]等領(lǐng)域.超分辨率重建是一個病態(tài)的逆問題:一個LR 圖像可與多個(High-resolution,HR)圖像對應(yīng),恢復(fù)細節(jié)逼真、豐富的HR 圖像非常困難.超分辨率成像是計算機視覺領(lǐng)域的熱點問題之一,深度學(xué)習(xí)技術(shù)已主導(dǎo)了當(dāng)前SISR 方法的研究[4-13].

        基于深度學(xué)習(xí)的SISR 方法直接端到端地學(xué)習(xí)LR 圖像與HR 圖像之間的映射關(guān)系.Dong 等[7]第一個提出基于卷積神經(jīng)網(wǎng)絡(luò)[14]的SISR 方法,稱為SRCNN.SRCNN 僅使用了三個卷積層,以端到端的形式直接學(xué)習(xí)LR和HR 圖像間的非線性映射.Kim 等[15]基于殘差學(xué)習(xí)[16],提出網(wǎng)絡(luò)更深的SISR方法(Very deep convolutional networks for superresolution,VDSR),改進了性能.為了能夠增加網(wǎng)絡(luò)深度,又限制網(wǎng)絡(luò)參數(shù)的增加,Kim 等[8]采用共享參數(shù)的遞歸結(jié)構(gòu),提出了Deeply-recursive convolu-tional Network (DRCN)方法.Tai 等[9]提出的Deep recursive residual network (DRRN),同時利用了局部殘差結(jié)構(gòu)、全局殘差結(jié)構(gòu)和遞歸結(jié)構(gòu).殘差單元之間參數(shù)共享,改進了VDSR和DRCN的性能.Li 等[17]提出的Super-resolution feedback network (SRFBN-S)方法,使用循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),共享隱藏層參數(shù),降低參數(shù)量的同時提升了重建圖像質(zhì)量.Hui 等[18]提出Information multi-distillation network (IMDN)方法,在殘差塊內(nèi)逐步提取特征信息,利用通道注意力機制進行特征選擇,進一步提高了重建圖像質(zhì)量.Ahn 等[10]提出了基于級聯(lián)殘差網(wǎng)絡(luò)的SISR 方法(Cascading residual network,CARN),結(jié)合級聯(lián)結(jié)構(gòu)與殘差學(xué)習(xí),取得了更好的參數(shù)量和性能之間的平衡.Zhu 等[19]提出Compact back-projection network (CBPN)方法,通過級聯(lián)上/下采樣層,在LR和HR 空間中提取特征信息,增強了重建能力.Li 等[11]提出的Multiscale residual network (MSRN)方法,殘差塊內(nèi)運用不同感受野的卷積層,提取不同尺度的特征信息,進一步改進了性能.Lai 等[20]提出了拉普拉斯金字塔網(wǎng)絡(luò)結(jié)構(gòu)的SISR 方法(Laplacian pyramid super-resolution network,LapSRN),逐步上采樣與預(yù)測殘差,可同時完成多個尺寸的HR圖像重建.

        以上方法使用了輕量級網(wǎng)絡(luò),但網(wǎng)絡(luò)深度和參數(shù)量是影響SISR 性能的重要因素[12].Lim 等[12]提出了一個重量級的Enhanced deep super-resolution network (EDSR)方法,去除了規(guī)范化層,疊加殘差塊,超過65 個卷積層,獲得了2017 年超分辨率比賽冠軍[21].Zhang 等[13]提出的Residual dense network (RDN)方法,結(jié)合殘差結(jié)構(gòu)和稠密結(jié)構(gòu),并充分利用LR 圖像的層次特征信息,能夠恢復(fù)出高質(zhì)量的HR 圖像.Liu 等[22]提出Residual feature aggregation net work (RFANet)方法,在殘差塊中使用感受野更大,參數(shù)量更小的空間注意力模塊,篩選特征信息,并將每個殘差塊的殘差支路提取的特征進行融合,提高了圖像重建質(zhì)量.EDSR、RDN和RFANet 等方法是當(dāng)前有代表性的重量級網(wǎng)絡(luò)SISR 方法,性能好,參數(shù)量也都較大(分別為43 MB、22 MB和11 MB).

        在資源受限的情況下,重量級SISR 模型難以滿足應(yīng)用需求,本文考慮輕量級SISR 模型,提供潛在的解決方法.

        本文提出一個新的、輕量級多層次特征融合網(wǎng)絡(luò)的SISR 方法(Multi-hierarchical features fusion network,MHFN).當(dāng)放大因子為4 倍時,MHFN 參數(shù)量僅為1.47 MB,是當(dāng)前尖端方法EDSR 的1/29,RDN 的1/14,RFANet 的1/7.對比同類輕量級SISR 模型,本文的MHFN 方法,在性能和模型規(guī)模上取得了更好的平衡.以最有代表性的MSRN 方法為例,本文的MHFN 參數(shù)減少了3/4,在測試集上2 倍、3 倍和4 倍放大,客觀性能相當(dāng),而8 倍放大,一致優(yōu)于MSRN 方法.對于4 倍和8倍放大,主觀性能也一致優(yōu)于MSRN 方法.實驗結(jié)果表明,MHFN 方法重建條紋的能力顯著優(yōu)于其他輕量級方法,對于8 倍大尺度放大因子,重建圖像結(jié)果優(yōu)勢更明顯.本文貢獻包括:1)提出了一種對稱結(jié)構(gòu)的雙層嵌套殘差塊(Dual residual block,DRB).殘差塊內(nèi)先兩次擴張,然后兩次壓縮特征通道,并使用兩層殘差連接以有效地提取特征信息;2)提出了一種自相關(guān)權(quán)重單元(Autocorrelation weight unit,ACW).ACW 可根據(jù)特征信息計算權(quán)值,自適應(yīng)地加權(quán)不同的特征通道,以有效地傳遞特征信息;3)設(shè)計了一種淺層特征映射單元(Shallow feature mapping unit,SFMU).SFMU 通過每條支路上的不同感受野的卷積層,提取不同層次的淺層特征信息;4)設(shè)計了一種多路重建單元(Multipath reconstruction unit,MPRU).MPRU 可獲取多條支路的特征信息,以充分地利用不同層次的特征信息重建圖像不同方面.

        1 本文方法

        目前,大多數(shù)SISR 模型利用殘差結(jié)構(gòu)[12,23].殘差塊結(jié)構(gòu)一般是卷積層–激活層–卷積層(Conv-ReLU-Conv)1該結(jié)構(gòu)是將特征信息 x 經(jīng)過卷積處理再激活操作,隨后再次卷積處理得到 ,結(jié)構(gòu)最終輸出為 x + ..這類模型的一個問題是:模型性能嚴(yán)重依賴于網(wǎng)絡(luò)規(guī)模(可訓(xùn)練的網(wǎng)絡(luò)層數(shù)和通道數(shù)),如何減小網(wǎng)絡(luò)規(guī)模,又提高或不降低模型性能,是極具挑戰(zhàn)性的問題.本文設(shè)計了輕量級的多層次特征融合網(wǎng)絡(luò),特征通道先擴張后壓縮的雙層嵌套殘差塊,可以顯著降低參數(shù)量,自相關(guān)權(quán)重單元自適應(yīng)融合特征信息,也改進了特征利用效果.本文的MHFN 網(wǎng)絡(luò)結(jié)構(gòu)如圖1(a)所示,主要包含淺層特征提取單元(Shallow feature extraction unit,SFEU)、淺層特征映射單元(Shallow feature mapping unit,SFMU)、深層特征映射單元(Deep feature mapping unit,DFMU)和多路重建單元(Multi-path reconstruction unit,MPRU)四個部分.

        圖1 本文多層次特征融合網(wǎng)絡(luò)結(jié)構(gòu)與殘差組結(jié)構(gòu)((a) 多層次特征融合網(wǎng)絡(luò)結(jié)構(gòu)圖;(b) 殘差組結(jié)構(gòu)圖)Fig.1 Our multi-hierarchical feature fusion network structure and the residual group structure ((a) The architecture of multi hierarchical feature fusion network;(b) The structure of residual group)

        令I(lǐng)LR與ISR為輸入與輸出圖像.淺層特征提取單元(SFEU)僅包含一個3×3 卷積層,實現(xiàn)淺層特征信息提取和特征維度轉(zhuǎn)換的功能:

        式中,HSF EU是淺層特征提取單元,將輸入圖像ILR生成符合淺層/深層特征映射單元維度要求的淺層特征信息F0. 淺層特征映射單元(SFEU)從F0中進一步提取淺層特征信息,并將淺層特征信息傳遞到多路重建單元(MPRU):

        式中,HMP RU是多路重建單元,利用所有特征信息重建圖像,生成最終結(jié)果ISR.

        1.1 淺層特征映射單元(SFMU)

        當(dāng)前SISR 模型通常使用1 或2 個卷積層提取淺層特征,本文的SFMU 使用了不同感受野的卷積核,分層次提取淺層特征信息,實現(xiàn)多尺度、多層次淺層特征信息的獲取.豐富的淺層特征信息,可以幫助重建單元重建更高質(zhì)量的SR 圖像.

        SFMU 首先通過1×1 卷積層對輸入信息進行維度轉(zhuǎn)換,以降低后續(xù)操作的參數(shù)量.然后,使用三種不同感受野的卷積層,實現(xiàn)多尺度淺層特征信息提取.將三個卷積層分為三條支路,逐步加權(quán)疊加淺層特征信息.實現(xiàn)多尺度、多層次淺層特征信息的提取.

        1.2 深層特征映射單元(DFMU)

        為了獲取深層次特征信息,本文設(shè)計了DFMU,如圖1(a)所示.DFMU 包含3 個殘差組(Residual group,RG),每個RG 又包含多個DRB.簡單地堆疊殘差塊,不利于特征信息的傳遞.本文在每個RG中添加局部跳躍連接,促進特征信息的有效傳遞.并且通過RG 獲取深層次特征信息:

        1.2.1 雙層嵌套殘差塊(DRB)

        在SISR 模型中,常用的殘差結(jié)構(gòu)如圖2(a)所示,每個卷積層具有相同的通道數(shù)目.這個結(jié)構(gòu)的一個主要問題是:增加特征通道數(shù)目,會導(dǎo)致參數(shù)量快速增加.本文提出了如圖2(b)所示的DRB,由內(nèi)單元(Inner unit,IU)和外單元(External unit,EU)嵌套組成,并且使用先擴張后壓縮的策略[24].該策略可以降低通道數(shù)目,進而減少參數(shù)量.EU第1 個卷積層提取特征信息同時,擴張?zhí)卣魍ǖ?以獲取更豐富的圖像特征信息.第2 個卷積層壓縮特征通道,篩選特征信息,促使有效特征信息傳遞.本文在EU 內(nèi)部增加了包含2 個1×1 卷積的IU,增加通道數(shù)目,不會造成參數(shù)量的急劇增加.

        圖2 不同的殘差塊結(jié)構(gòu)圖Fig.2 The structure of different residual block

        IU 采用了Conv-ReLU-Conv 結(jié)構(gòu),并加入跳躍連接.

        1.2.2 自相關(guān)權(quán)重單元(ACW)

        基于深度殘差結(jié)構(gòu)的SISR 模型,仍然存在梯度消失或爆炸問題,為了穩(wěn)定訓(xùn)練,通常引入一個殘差尺度參數(shù)[25].這個超參數(shù)通常經(jīng)驗設(shè)置,難以優(yōu)化.本文的ACW 可學(xué)習(xí)最優(yōu)的殘差尺度參數(shù).

        如圖3 所示.ACW 由全局平均池化層和Sigmoid 激活函數(shù)兩部分組成,沒有附加的參數(shù).全局平均池化層將所有輸入特征信息編碼為初始化權(quán)重,隨后利用Sigmoid 激活函數(shù)將其調(diào)整至[0,1].由于特征信息之間存在差異,生成不同的權(quán)重,增強了對重建圖像有效的特征信息.

        圖3 自相關(guān)權(quán)重單元結(jié)構(gòu)圖Fig.3 The structure of autocorrelation weight unit

        令X=[x1,x2,···,xC] 為輸入特征信息,尺寸為H×W×C.初始化權(quán)值Z=[z1,z2,···,zC] 是通過全局平均池化層HGAP對輸入特征信息X進行計算得出.第c個輸入特征信息的初始權(quán)值為:

        使用Sigmoid 激活函數(shù)f(·) 調(diào)整初始化權(quán)值Z,生成最終的權(quán)重參數(shù)W:

        對輸入特征信息進行加權(quán)處理:

        1.3 多路重建單元(MPRU)

        當(dāng)前的SISR 模型網(wǎng)絡(luò)末端,大多采用轉(zhuǎn)置卷積或亞像素的卷積進行上采樣.與轉(zhuǎn)置卷積相比,亞像素的卷積重建的圖像質(zhì)量更好[26],但需要配合使用多個3×3 卷積層[11-13],放大因子增加,參數(shù)量會顯著增加.為了在不降低圖像重建質(zhì)量的同時減少參數(shù)量,設(shè)計了MPRU.見圖1(a),MPRU 有三條重建支路,每條重建支路由1 個1×1 卷積層與1個亞像素卷積層組成.每條支路重建結(jié)果與HR 圖像尺寸相同,最終的SR 圖像是三條支路重建結(jié)果的和.MPRU 使用1×1 卷積層,可極大地減少參數(shù),放大因子增加,也不會顯著提高參數(shù)量.同時,MPRU 獲取各支路的特征信息,也可以改進重建效果.

        下面將計算MPRU 參數(shù)量并與EDSR2https://github.com/thstkdgus35/EDSR-PyTorch方法的重建單元參數(shù)量作對比分析.假設(shè)兩者用于重建的特征信息通道均為C,圖像放大因子為S,重建后圖像為3 通道.經(jīng)1×1 卷積層處理后的特征信息通道數(shù)目為S×S×3.亞像素卷積層沒有參數(shù)量,不參與計算.MPRU 的重建支路參數(shù)為3×((1×1×C+1)×S×S×3).

        EDSR 重建單元在放大因子S=[2,3] 時,包含2 個 3×3 卷積層和1 個亞像素卷積層.第1 個卷積層將輸入的特征信息通道由C擴張至S×S×C,再經(jīng)過亞像素卷積層將特征信息高度與寬度擴張為原來的S倍,通道壓縮為C,再經(jīng)過另一個卷積層將通道壓縮至3,生成最終結(jié)果.參數(shù)量為((3×3×C+1)×S×S×C+(3×3×C+1)×3).在放大因子S=4 時包含3 個卷積層和2 個亞像素卷積層.同理于上述過程,先將圖像放大2 倍,再放大2 倍.其參數(shù)量為(2×((3×3×C+1)×2×2×C)+(3×3×C+1)×3).

        當(dāng)S=[2,3] 時,MPRU 參數(shù)量與EDSR重建單元參數(shù)量之比為:

        當(dāng)S=4 時,MPRU 參數(shù)量與EDSR 重建單元參數(shù)量之比為:

        在本文模型中,重建的特征信息通道為48,即C=48. 由式(15)和式(16)可知,放大因子S=2,3 時,EDSR 重建單元參數(shù)量是MPRU 參數(shù)量的47 倍,而S=4 時,EDSR 重建單元參數(shù)量是MPRU 參數(shù)量的23 倍.

        2 實驗細節(jié)

        2.1 實驗設(shè)置

        本文使用DIV2K[21]數(shù)據(jù)集中第1~800 個圖像作為訓(xùn)練數(shù)據(jù)集,并對訓(xùn)練集進行 9 0°旋轉(zhuǎn)和隨機的水平翻轉(zhuǎn),進行數(shù)據(jù)增強.訓(xùn)練中每個批次處理16 個尺寸為48×48 像素的圖像塊,使用β1=0.9,β2=0.999,?=10-8的ADAM 優(yōu)化器[27].本文在訓(xùn)練模型中使用權(quán)值歸一化處理[28],初始學(xué)習(xí)率設(shè)置為 1 0-3,共訓(xùn)練1 000 個迭代周期,并且每200 個迭代周期學(xué)習(xí)率衰減為原先的一半.使用L1損失函數(shù).為了驗證本文方法性能,使用Set5[29]標(biāo)準(zhǔn)測試數(shù)據(jù)集以及DIV2K 數(shù)據(jù)集中第801~810張高質(zhì)量圖像(標(biāo)記為DIV2K-10)進行對比實驗,Set14[30]、B100[31]、Urban100[32]和Manga109[33]共4個標(biāo)準(zhǔn)測試數(shù)據(jù)集進行測試,并使用平均峰值信噪比(Peak signal-to-noise ratio,PSNR)[34]與結(jié)構(gòu)相似性(Structural similarity index,SSIM)[34]指標(biāo)評價實驗結(jié)果.模型使用PyTorch 實現(xiàn),并在NVIDIA GeForce RTX 2080Ti GPU 上訓(xùn)練.

        2.2 實驗分析

        2.2.1 殘差組實驗分析

        本文提出模型包含3 個殘差組,并且每組內(nèi)包含相同數(shù)目的雙層嵌套殘差塊.為了驗證殘差組內(nèi)不同數(shù)目的雙層嵌套殘差塊對模型的影響,本文在Set5 標(biāo)準(zhǔn)測試數(shù)據(jù)集以及DIV2K-10 數(shù)據(jù)集上進行4 倍超分辨率實驗,對組內(nèi)數(shù)目分別為5、6、7 的殘差組作對比實驗.如表1 所示,組內(nèi)數(shù)目為6 時性能最佳.對比組內(nèi)數(shù)目為5 時,雖然參數(shù)量提高0.24 MB,但是PSNR 指標(biāo)分別在Set5 與DIV-2K-10 數(shù)據(jù)集上提高0.03 dB和0.04 dB,而當(dāng)組內(nèi)數(shù)目為7 時,PSNR 指標(biāo)提升不明顯,參數(shù)量卻提高0.24 MB.本文模型殘差塊個數(shù)為6,是一個合理的選擇.

        表1 Set5和DIV2K-10 數(shù)據(jù)集上,放大4 倍,運行200 個迭代周期,殘差組中不同雙層嵌套殘差塊數(shù)模型的平均PSNR 及參數(shù)量Table 1 Average PSNRs and number of parameter with different numbers of DRBs in the residual group with a factor of × 4 on Set5 and DIV2K-10 datasets under 200 epochs

        2.2.2 SFMU 單元實驗分析

        為了驗證淺層特征映射單元不同支路上卷積核大小,以及未使用淺層特征映射單元等情形對模型的影響,本文在Set5 標(biāo)準(zhǔn)測試數(shù)據(jù)集與DIV2K-10 數(shù)據(jù)集上,進行4 倍超分辨率對比實驗.如表2所示,未使用淺層特征映射單元導(dǎo)致模型無法使用淺層特征信息,致使重建效果較差.而當(dāng)每條支路使用相同大小的卷積核,且卷積核大小不斷增加時,重建效果提升,然而參數(shù)量也隨之增加.當(dāng)支路卷積核均為1 時,PSNR 指標(biāo)低于未使用淺層特征映射單元的模型,這是由于提取的特征信息較少,存在冗余信息,導(dǎo)致效果較差.本文發(fā)現(xiàn)當(dāng)三條支路卷積核分別設(shè)置1、3、5 時效果最佳.這是由于每一條支路可以提取不同層次的淺層特征信息,可以有效地與深層層次特征信息進行組合使用.因而本文使用支路卷積核大小分別為1、3、5 的淺層特征映射單元.

        表2 Set5 與DIV2K-10 數(shù)據(jù)集上,放大4 倍,運行200 迭代周期,淺層特征映射單元支路不同卷積核設(shè)置的平均PSNRTable 2 Average PSNRs of the models with different convolutional kernel settings for SFMU branches for× 4 on Set5 and DIV2K-10 datasets under 200 epochs

        2.2.3 DRB 對比實驗分析

        相比于流行的殘差塊結(jié)構(gòu),如圖2(a)所示,本文的DRB 在性能和參數(shù)量上均有優(yōu)勢.本文在Set5 與DIV2K-10 數(shù)據(jù)集上進行4 倍超分辨率對比實驗.本文構(gòu)建了兩個測試模型,分別稱為模型I和模型II.模型I 是EDSR 架構(gòu),但是,卷積層輸入輸出通道數(shù)從256 縮減為64,殘差塊數(shù)從32 縮減為18.模型II 是把模型I 中殘差塊替換為DRB.在DRB 擴張階段,EU 輸入輸出特征通道數(shù)分別設(shè)置為32 與64,IU 輸入輸出特征通道數(shù)分別設(shè)置為64 與128;在壓縮階段,EU 輸入輸出特征通道數(shù)分別設(shè)置為64 與32,IU 輸入輸出特征通道數(shù)分別設(shè)置為128 與64.模型I和模型II 中其他參數(shù)都是相同的:殘差尺度參數(shù)為0.1,運行200 個迭代周期.結(jié)果如表3 所示,在Set5 與DIV2K-10 數(shù)據(jù)集上,模型II 的PSNR 分別高于模型I0.01 dB和0.05 dB,而本文的DRB 比ERSR 殘差塊的參數(shù)量少20.3 KB.

        表3 Set5 與DIV2K-10 數(shù)據(jù)集上,放大4 倍,運行200 個迭代周期,不同模型的平均PSNRTable 3 Average PSNRs of different models for × 4 super-resolution on Set5 and DIV2K-10 datasets under 200 epochs

        2.2.4 ACW 對比實驗分析

        為了驗證ACW 的有效性,考慮第2.2.3 節(jié)中模型I 包含和不包含ACW 兩種情形,結(jié)果如表4所示.使用ACW 后,Set5 與DIV2K-10數(shù)據(jù)集上PSNR 分別提高0.02 dB和0.03 dB.實驗結(jié)果表明,ACW 自動學(xué)習(xí)最優(yōu)的殘差尺度參數(shù)是有效的.

        表4 Set5和DIV2K-10 數(shù)據(jù)集上,放大4 倍,運行200 個迭代周期,包含/不包含ACW 模型的平均PSNRTable 4 Average PSNRs of the models with/without the ACW for × 4 super-resolution on the Set5 and DIV2K-10 datasets under 200 epochs

        2.2.5 MPRU 對比實驗分析

        為了驗證本文的MPRU 重建性能,本文把第2.2.3 節(jié)模型I 中的EDSR 重建單元替換為MPRU后,與模型I 進行比較,兩個模型的結(jié)果分別對應(yīng)于表5 中EDSR 重建單元和MPRU.MPRU參數(shù)量僅為9.36 KB,大約只有EDSR 重建單元參數(shù)量的1/32 (297.16 KB).在Set5 與DIV2K-10 數(shù)據(jù)集上,本文MPRU 使PSNR 分別提高了0.02 dB和0.05 dB.

        表5 Set5和DIV2K-10 數(shù)據(jù)集上,放大4 倍,運行200 個迭代周期,不同重建單元模型的平均PSNRTable 5 Average PSNRs of the models with different reconstruction modules for × 4 super-resolution on Set5 and DIV2K-10 datasets under 200 epochs

        2.3 模型分析

        本文提出的模型在Set14、B100、Urban100和Manga109 標(biāo)準(zhǔn)測試集驗證2 倍、3 倍、4 倍和8 倍超分辨率性能.并與輕量級的SRCNN[7]、FSRCNN[35]、VDSR[15]、DRCN[8]、DRRN[9]、LapSRN[20]、CARN[10]、SRFBN-S[17]、IMDN[18]、CBPN[19]、MSRN[11]、MemNet[36]和SRMDNF[37]進行性能對比.

        1)客觀指標(biāo)如表6 所示,最好的結(jié)果與次好結(jié)果分別以粗體和下劃線形式標(biāo)出.在Set14 數(shù)據(jù)集上,放大因子為2 倍時,本文的MHFN 模型比CARN模型PSNR 高出0.27 dB,在其他放大因子的情況下類似,并且MHFN 模型參數(shù)量比CARN 更少(大約減少了120 KB).在所有測試數(shù)據(jù)集上,放大因子為4 倍時,MHFN 模型比CBPN 模型和IMDN 模型PSNR 平均高出0.06 dB 與0.16 dB.雖然在部分數(shù)據(jù)集上,MSRN 性能略好,但本文的MHFN綜合性能更好,MSRN 的4 倍模型參數(shù)量是本文MHFN 的4 倍.

        表6 各個SISR 方法的平均PSNR和SSIMTable 6 The average PSNRs/SSIMs of different SISR methods

        表6 各個SISR 方法的平均PSNR和SSIM (續(xù)表)Table 6 The average PSNRs/SSIMs of different SISR methods (continued table)

        2)主觀視覺如圖4 所示,本文對比Urban100標(biāo)準(zhǔn)測試數(shù)據(jù)集中img012、img024 與img046 圖像以及Manga109 標(biāo)準(zhǔn)測試數(shù)據(jù)集中的Highschool-Kimengumi_vol20 (HK_vol20)圖像.在圖像img-012 中,IMDN 與MSRN 重建結(jié)果與原圖像條紋方向相反,本文的模型正確重建了條紋的方向,可能是淺層特征提取單元獲取了更豐富的淺層特征信息,幫助重建單元重建出更精確的結(jié)果.在img046圖像中,Bicubic 插值、SRCNN 模型和VDSR 模型重建圖像非常模糊,LapSRN 模型、CARN 模型、SRFBN-S 模型、IMDN 模型與MSRN 模型重建結(jié)果嚴(yán)重失真,本文結(jié)果顯著更好.類似地,在img-024 圖像中,本文模型與其他方法均存在恢復(fù)的條紋數(shù)目與原圖像不一致的問題.其他方法均嚴(yán)重模糊和失真,本文的重建結(jié)果也顯著更好.在HK_-vol20 圖像中,其他方法眼睛部位重建模糊和走樣,本文重建結(jié)果顯著優(yōu)于其他方法,是清晰可視的.

        圖4 標(biāo)準(zhǔn)測試集放大4 倍視覺效果比較Fig.4 Visual qualitative comparison of × 4 super-resolution on the standard test datasets

        如圖5 所示,當(dāng)放大因子為8 倍時,本文的模型重建效果顯著優(yōu)于其他模型.在img092 圖像中,LapSRN 模型與MSRN 模型重建圖像條紋方向與原圖像相反,本文的重建結(jié)果很接近于原圖像.在ppt3 圖像中,本文重建結(jié)果比其他模型顯著更清晰.對于規(guī)則形狀和結(jié)構(gòu)的重建,本文模型性能提升顯著.如何進一步提高不規(guī)則形狀和結(jié)構(gòu)的重建質(zhì)量,是本文未來的研究工作.

        圖5 標(biāo)準(zhǔn)測試集下放大8 倍視覺效果比較Fig.5 Visual qualitative comparison of × 8 superresolution on the standard test datasets

        3 結(jié)束語

        本文提出一種輕量級的多層次特征融合網(wǎng)絡(luò)(MHFN),用于重建高質(zhì)量的超分辨圖像.本文設(shè)計了雙層嵌套殘差塊(DRB)用于提取圖像特征信息,其特征通道數(shù)目先擴張后壓縮,并且使用不同感受野的卷積層,降低參數(shù)量.為了使雙層嵌套殘差塊有效傳遞特征信息,本文設(shè)計了自相關(guān)權(quán)重單元(ACW),通過計算特征信息生成權(quán)重信息,再利用權(quán)重信息對特征信息進行加權(quán)處理,保證高權(quán)重的特征信息被有效傳遞.本文將雙層嵌套殘差塊組成殘差組,用于提取深層的層次特征信息,并構(gòu)建淺層特征映射單元(SFMU)提取多尺度、多層次的淺層特征信息.多路重建單元(MPRU)將深層的層次特征信息與淺層特征信息融合重建為高質(zhì)量超分辨率圖像.實驗結(jié)果表明,上述模塊設(shè)計有助于重建高質(zhì)量圖像,并且本文的模型可以有效增強圖像條紋,重建高質(zhì)量超分辨圖像.與其他輕量級模型相比,本文模型在性能與模型規(guī)模方面上獲得了更好的平衡.

        猜你喜歡
        集上淺層殘差
        基于雙向GRU與殘差擬合的車輛跟馳建模
        淺層換填技術(shù)在深厚軟土路基中的應(yīng)用
        基于淺層曝氣原理的好氧顆粒污泥的快速培養(yǎng)
        基于殘差學(xué)習(xí)的自適應(yīng)無人機目標(biāo)跟蹤算法
        Cookie-Cutter集上的Gibbs測度
        鏈完備偏序集上廣義向量均衡問題解映射的保序性
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        復(fù)扇形指標(biāo)集上的分布混沌
        淺層地下水超采區(qū)劃分探究
        華北地質(zhì)(2015年3期)2015-12-04 06:13:29
        人人做人人爽人人爱| 日韩人妻免费一区二区三区| 白白色最新福利视频二| 国产裸体美女永久免费无遮挡| 亚洲精品乱码久久久久久久久久久久| 国产免费一级在线观看| 少妇裸淫交视频免费看| 亚洲一区精品在线中文字幕| 欧美人做人爱a全程免费| 亚洲av无码乱码国产麻豆穿越| 激情综合网缴情五月天| 亚洲精品98中文字幕| 无码人妻少妇久久中文字幕蜜桃| 精品国精品国产自在久国产应用| 成美女黄网站18禁免费| 国产精品一区二区熟女不卡| 欧美人与禽z0zo牲伦交| 久久人妻公开中文字幕| 亚洲国产一区久久yourpan| 精品国产一区二区三区av麻| 性xxxx18免费观看视频| 欧美午夜a级精美理论片| av网站可以直接看的| 大陆老熟女自拍自偷露脸| 国产麻豆成人精品av| 国产哟交泬泬视频在线播放| 亚洲精品综合久久国产二区| 一本无码中文字幕在线观| 性动态图av无码专区| 2021久久精品国产99国产| 精品亚洲一区中文字幕精品| 网禁拗女稀缺资源在线观看| 亚洲丁香婷婷综合久久小说| 国产一区二区三区涩涩涩| 国产精品久久久久久妇女| 看曰本女人大战黑人视频| 亚洲AV手机专区久久精品| 日本视频在线观看二区| 朝鲜女人大白屁股ass| 97中文字幕在线观看| 久久精品国产一区老色匹|