亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于空間注意力殘差網(wǎng)絡(luò)的圖像超分辨率重建模型

        2023-11-14 13:16:38邢世帥劉丹鳳王立國潘月濤孟靈鴻岳曉晗
        計算機與現(xiàn)代化 2023年10期
        關(guān)鍵詞:殘差分辨率注意力

        邢世帥,劉丹鳳,王立國,潘月濤,孟靈鴻,岳曉晗

        (大連民族大學信息與通信工程學院,遼寧 大連 116600)

        0 引 言

        圖像超分辨率重建的任務(wù)是將退化的低分辨率圖像映射為高分辨率圖像。但由于高分辨率圖像會因不同類型的細節(jié)損失退化成不同的低分辨率圖像,且相同的低分辨率圖像可以由多個高分辨率圖像退化而來,導致圖像超分辨率重建較為復雜。為了解決這個問題,研究者們已經(jīng)提出許多圖像超分辨率重建方法,主要包括基于插值[1-2]的方法、基于重建[3-4]的方法和基于學習[5-7]的方法等。

        近年來,基于深度卷積神經(jīng)網(wǎng)絡(luò)的方法在圖像超分辨率重建領(lǐng)域表現(xiàn)優(yōu)異。Dong 等人[8]進行了首次成功嘗試,提出帶有3 個卷積層的SRCNN,并且取得了優(yōu)于傳統(tǒng)算法的性能。后來,Dong 等人[9]對SRCNN 進行改進,進而提出FSRCNN,在網(wǎng)絡(luò)的后端引入了反卷積,減少了計算量。Kim等人[10]首次提出了殘差網(wǎng)絡(luò),并將其引入圖像超分辨率重建領(lǐng)域中,他們提出了深度為20 層的VDSR 網(wǎng)絡(luò),取得了比SRCNN 更好的性能,這表明更深層次的網(wǎng)絡(luò)可以有效地提升圖像的質(zhì)量。后來,Kim 等人[11]在DRCN 中引入殘差學習從而減輕模型訓練的難度。盤展鴻等人[12]將殘差中的殘差思想與空間、坐標注意力結(jié)合提出了FFAMSR 網(wǎng)絡(luò)。Lim 等人[13]對深度殘差網(wǎng)絡(luò)進行改進,進而提出EDSR,EDSR 將殘差單元中的批歸一化層(Batch Normalization,BN)去掉,極大地提升了模型訓練的速度。Tai 等人[14]提出了DRRN,該網(wǎng)絡(luò)將遞歸思想與殘差網(wǎng)絡(luò)結(jié)合,將遞歸模塊中的權(quán)重進行共享,從而減輕了深層網(wǎng)絡(luò)的訓練難度,取得了比VDSR 更好的結(jié)果。在這些開創(chuàng)性的工作之后,人們提出了許多基于卷積神經(jīng)網(wǎng)絡(luò)的方法,并且在單幅圖像超分辨率中取得了不錯的成果。

        盡管單幅圖像超分辨率已經(jīng)取得了相當大的提升,但是現(xiàn)有的一些基于卷積神經(jīng)網(wǎng)絡(luò)的模型仍面臨一些限制。隨著網(wǎng)絡(luò)深度的增加,層次特征逐漸集中于輸入圖像的不同方面,這對于重建圖像的空間細節(jié)非常有用。然而,現(xiàn)有的大多數(shù)基于卷積神經(jīng)網(wǎng)絡(luò)的方法無法充分利用網(wǎng)絡(luò)的層次特征。

        為了解決大多數(shù)基于卷積神經(jīng)網(wǎng)絡(luò)的方法無法充分利用網(wǎng)絡(luò)的層次特征的問題,本文提出一種基于空間注意力殘差網(wǎng)絡(luò)的模型(Residual Network Based on Spatial Attention,SARN)。首先設(shè)計一個空間注意力殘差模塊(Spatial Attention Residual Block,SARB),將增強型空間注意力模塊(Enhanced Spatial Attention,ESA)[15]融入殘差塊中,使網(wǎng)絡(luò)更加充分地學習圖像的關(guān)鍵空間信息,增強特征選擇能力,得到更有效的高頻信息;其次,針對無法充分利用層次特征的問題,采用層次特征融合機制,對每個空間注意力殘差模塊提取的特征信息進行全局融合,提高網(wǎng)絡(luò)對層次特征的利用率;最后,通過重建網(wǎng)絡(luò)得到最終的超分辨率圖像。

        1 相關(guān)工作

        1.1 卷積神經(jīng)網(wǎng)絡(luò)

        Dong等人在2014年首先提出了一種用于圖像超分辨率的淺三層卷積神經(jīng)網(wǎng)絡(luò)SRCNN,并且優(yōu)于以往傳統(tǒng)方法的性能。受此啟發(fā),眾多學者相繼提出許多基于深度學習的方法。Kim 等人設(shè)計了一個基于殘差網(wǎng)絡(luò)的DRCN,其中DRCN 網(wǎng)絡(luò)層數(shù)是20層。后來,Tai 等人將遞歸模塊引入DRRN 中,在MemNet[16]中引入記憶模塊。這些方法從插值之后的低分辨率圖像中提取特征,不僅占用大量內(nèi)存,也耗費了很多時間,效率低。為了解決這個問題,Shi 等人[17]基于ESPCN 提出了一種高效的亞像素卷積層,其中低分辨率的特征圖可以被放大到網(wǎng)絡(luò)末端,得到高分辨率輸出。此外,研究者們基于亞像素卷積層提出了許多深度網(wǎng)絡(luò)以得到更好的性能。Ledig 等人[18]在SRGAN 中引入了SRResNet。Zhang等人[19]在RDN中通過密集連接利用所有卷積層的層次特征。Hui 等人[20]提出了一種輕量化的網(wǎng)絡(luò),在內(nèi)存占用和網(wǎng)絡(luò)性能之間實現(xiàn)最優(yōu)。Wang 等人[21]提出了一種非監(jiān)督退化表示學習的方法來處理未知退化模型的情況,通過引入對比學習來學習不同圖像的退化表示,引入退化感知(Degradation-Aware SR,DASR)靈活適應不同退化網(wǎng)絡(luò)。

        1.2 注意力機制

        目前,注意力機制[22-23]已經(jīng)廣泛應用于計算機視覺任務(wù)中,比如圖像分類、視頻分類等。其被用于解釋可用資源的分配偏向于輸入信號中信息量最大部分的原因。注意力機制首先是出現(xiàn)在Hu 等人[24]提出的SENet 網(wǎng)絡(luò)中,這是一種全新的“特征權(quán)重標定”策略,通過注意力機制判定不同特征通道的重要程度。

        近些年來,一些基于注意力機制的網(wǎng)絡(luò)模型也開始應用于圖像超分辨領(lǐng)域。Zhang 等人[25]將殘差網(wǎng)絡(luò)和通道注意力機制結(jié)合提出了殘差通道注意力網(wǎng)絡(luò)RCAN,通過抑制低分辨率圖像中的低頻信息,盡可能將網(wǎng)絡(luò)作用在高頻信息上,恢復更多的高頻信息以達到更好的重建效果。實驗結(jié)果表明RCAN 的重建效果優(yōu)于大多數(shù)基于卷積神經(jīng)網(wǎng)絡(luò)的重建方法。Dai 等人[26]提出了一種深度二階注意力網(wǎng)絡(luò)SAN,該網(wǎng)絡(luò)提出了一種新的可訓練的二階通道注意力模塊SOCA 進行相關(guān)性學習,通過一個非局部增強的殘差組結(jié)構(gòu)捕獲遠距離上下文的信息。Niu 等人[27]提出了一種整體注意力網(wǎng)絡(luò)HAN,該網(wǎng)絡(luò)引入層次注意模塊LAM,利用多尺度層次間的相關(guān)性來學習層次特征的權(quán)值,提出了通道-空間相結(jié)合的模塊CSAM學習每層特征的通道和空間的相關(guān)性。

        2 本文方法

        本文提出一種基于空間注意力殘差網(wǎng)絡(luò)的圖像超分辨率重建模型,如圖1 所示,該模型由3 部分組成:淺層特征提取模塊、特征映射模塊、重建模塊。

        圖1 基于空間注意力殘差網(wǎng)絡(luò)的圖像超分辨率模型

        2.1 淺層特征提取模塊

        淺層特征提取部分主要是卷積層對輸入圖像的初始特征提取。具體來說,采用1 個3×3 卷積層提取低分辨率圖像ILR的淺層特征。計算公式為:

        式中,ILR表示低分辨率圖像,H3×3表示淺層特征提取,F(xiàn)0表示提取出來的特征,作為后續(xù)模塊的輸入。

        2.2 特征映射模塊

        在特征映射模塊中,首先設(shè)計了一種空間注意力殘差模塊SARB,將增強型空間注意力模塊融入殘差模塊中,使網(wǎng)絡(luò)更加專注于關(guān)鍵的空間信息;接著對SARB中不同層次特征進行局部特征融合(Local Feature Aggregation,LFA),增強層次特征的流動性,最后對每個SARB 的輸出進行全局特征融合,充分利用不同網(wǎng)絡(luò)的層次特征,提高層次特征的利用率,增強網(wǎng)絡(luò)表達能力。

        在特征映射模塊中,SARB 支持SARB 之間的連續(xù)記憶(Continuous Memory,CM),允許前一個SARB 的輸出和當前SARB 中卷積層的輸出通過局部特征融合連接在一起。該模塊包含20 個SARB、1 個特征融合模塊、1 個1×1 卷積和1 個長跳躍連接。假設(shè)特征映射模塊由D個SARB 構(gòu)成,那么第d(d=1,2,…,D)個SARB塊的輸出Fd可以表示為:

        式中,βSARB表示使用空間注意力殘差模塊提取特征,F(xiàn)d-1、Fd表示SARB提取的特征。

        接著對每個SARB 提取的特征進行全局特征融合,且使用1 個1×1 卷積層進行降維,去除冗余信息,然后通過跳躍連接和淺層特征F0構(gòu)成殘差學習。具體計算公式如下:

        式中,Concat 表示拼接融合操作,H1×1表示1×1 卷積層,F(xiàn)m表示特征映射模塊的輸出特征。

        1)空間注意力殘差模塊。

        EDSR 去掉了卷積模塊中的BN 層以構(gòu)成如圖2所示的殘差塊,受其啟發(fā),本文提出將空間注意力機制融入殘差塊中,構(gòu)成更強的空間注意力殘差模塊SARB,如圖3 所示。與普通殘差塊相比,SARB 可以使網(wǎng)絡(luò)更加專注于圖像的關(guān)鍵空間信息,學習更多的高頻信息。首先輸入特征依次經(jīng)過卷積層、ReLU 激活、卷積層和ESA 模塊,然后和經(jīng)過ESA 模塊提取的輸出進行融合、降維,最后與輸入特征Fd-1跳躍連接相加實現(xiàn)全局殘差學習。具體計算公式如下:

        圖3 空間注意力殘差模塊

        式中,F(xiàn)d表示第d個SARB 的輸出特征,HCon1×1表示先進行局部特征融合,再進行1×1 卷積;HESA表示使用增強型空間注意力提取特征;H3×3表示3×3 卷積層,F(xiàn)d-1表示第d-1 個SARB 的輸出特征。σ(·)表示ReLU激活函數(shù)。

        2)增強型空間注意力模塊。

        為了使層次特征更加專注于關(guān)鍵的空間信息,本文選擇使用增強型空間注意力塊ESA,它比普通空間注意力塊更強大。設(shè)計該模塊時,必須仔細考慮幾個因素。首先,它將被插入網(wǎng)絡(luò)的每個模塊中,所以模塊必須輕量。其次,注意力塊需要一個大的感受野才能很好地完成圖像超分辨率重建任務(wù)。

        如圖4 所示,引入的ESA 模塊從1×1 卷積層開始,可以減少通道維度,從而使整個模塊輕量化。為了擴大感受野范圍,使用步長為2 的卷積,然后是一個最大池化層。常規(guī)的2×2 最大池化帶來的感受野非常有限,因此,研究者選擇使用7×7大小和步長為3的最大池化層。此外,增加上采樣層恢復空間維度,并使用1×1卷積層恢復通道維度。最后特征經(jīng)過Sigmoid層,與輸入點乘,得到ESA的輸出特征。

        圖4 ESA模塊的結(jié)構(gòu)

        忽略計算量,利用非局部模塊可以更好地實現(xiàn)空間注意力塊。實際上,已經(jīng)有研究者試圖將非局部注意力塊應用于圖像超分辨率領(lǐng)域了。雖然它可以提升性能,但計算量較大,不符合本文引入ESA 模塊的初衷。

        2.3 重建模塊

        特征映射模塊的輸出特征作為重建模塊的輸入,利用亞像素卷積對圖像進行上采樣,得到最終的超分辨率圖像。具體計算公式如下:

        其中,Hup表示亞像素卷積操作,H3×3表示3×3卷積層,ISR表示重建的超分辨率圖像。

        2.4 損失函數(shù)

        本文將N個低分辨率圖像塊ILR及其對應的高分辨率圖像塊IHR作為訓練集,選擇使用L1損失函數(shù)來優(yōu)化網(wǎng)絡(luò),使網(wǎng)絡(luò)具有更好的收斂性。其具體計算如下:

        式中,G表示本文網(wǎng)絡(luò)的功能,θ表示整體網(wǎng)絡(luò)的參數(shù)集合。

        3 實驗與結(jié)果分析

        3.1 實驗環(huán)境與數(shù)據(jù)集

        3.1.1 實驗數(shù)據(jù)集

        本文選擇DIV2K[28]作為實驗訓練集,該數(shù)據(jù)集在超分辨率重建領(lǐng)域應用較為廣泛。DIV2K 數(shù)據(jù)集中含有1000 張高分辨圖像,其中800 張用作訓練集,其余的200 張等比例構(gòu)成驗證集和測試集,實際上很少選擇該數(shù)據(jù)集作為測試集。該數(shù)據(jù)集由多種類型的圖像構(gòu)成,如動物、人和建筑物等。在訓練期間,通過隨機旋轉(zhuǎn)90°、180°、270°和隨機水平翻轉(zhuǎn)進行數(shù)據(jù)擴充,并使用雙三次下采樣得到低分辨率圖像。

        為了進行測試,選擇Set5[29]、Set14[30]、BSD100[31]、Urban100[32]、Manga109[33]作為為本實驗的測試集。數(shù)據(jù)集后的數(shù)字表示其包含圖片的數(shù)量,Set5、Set14 數(shù)據(jù)集屬于中小型數(shù)據(jù)集,其分辨率一般在500 左右。BSD100 數(shù)據(jù)集中包含植物、人、食物等類型的圖像,該數(shù)據(jù)集為固定分辨率數(shù)據(jù)集,其包含的圖像的分辨率是481×321 或321×481。Urban100屬于城市建筑物數(shù)據(jù)集,該數(shù)據(jù)集中的圖像含有復雜的建筑紋理。Manga109 數(shù)據(jù)集是由日本漫畫家繪制的109張漫畫組成。

        3.1.2 實驗環(huán)境

        實驗過程中使用的設(shè)備仿真環(huán)境和相關(guān)參數(shù)設(shè)置如表1所示。

        表1 仿真環(huán)境及其參數(shù)設(shè)置

        3.2 實驗評價指標

        本文選用峰值信噪比PSNR 和結(jié)構(gòu)相似度SSIM[34]作為客觀評價指標,所有值都是在變換后的YCbCr通道的Y通道上計算的,介紹如下:

        1)PSNR 表示圖像的失真程度,其單位是dB,數(shù)值越大則表示失真越小。PSNR的計算公式如下:

        式中,MSE(Mean Square Error)表示大小為m×n的當前圖像I和參考圖像K的均方誤差,MAXI為圖片的最大像素值。

        2)SSIM是從圖片的亮度、對比度、結(jié)構(gòu)3個方面度量圖像之間的相似性。SSIM 取值范圍是(0,1),SSIM 的值越大表示圖像失真越小,越接近于原圖像。SSIM的計算公式如下:

        式中,μX表示圖像X的均值,μY表示圖像Y的均值,σX表示圖像X的方差,σY表示圖像Y的方差,σXY表示圖像X、Y的協(xié)方差,C1、C2、C3是常數(shù)。l(X、Y)表示圖像在亮度上的相似性,c(X、Y)表示圖像在對比度上的相似性,s(X、Y)表示圖像在結(jié)構(gòu)上的相似性。

        3.3 消融實驗

        3.3.1 不同網(wǎng)絡(luò)結(jié)構(gòu)對模型的影響

        在本小節(jié)中,研究連續(xù)記憶CM、局部殘差學習LRL 和全局特征融合GFA 對實驗結(jié)果的影響。表2展示了不同網(wǎng)絡(luò)模塊在Set5 測試集×2 上的PSNR 值,這8 個網(wǎng)絡(luò)的SARB 數(shù)相同,即D=16。在實驗過程中需要局部特征融合LFA來正確訓練這些網(wǎng)絡(luò),因此默認情況下不會刪除LFA。基準模型(SARN_CM0LRL 0GFA0)在沒有CM、LRL、GFA 下獲得,性能非常差(PSNR=34.63 dB),這表明當網(wǎng)絡(luò)的深度達到一定時,網(wǎng)絡(luò)的性能不再變化。

        表2 連續(xù)記憶CM、局部殘差學習LRL和全局特征聚合GFA在Set5測試集×2上的消融實驗結(jié)果

        之后,繼續(xù)將CM、LRL、GFA 中的1 個添加到基準模型中,分別得到SARN_CM1LRL0GFA0、SARN_CM0LRL1GFA0、SARN_CM0LRL0GFA1(表2中第2到第4個組合)。經(jīng)驗證,每個組件都可以有效地提高基準模型的性能,這主要是因為每個組件都有助于網(wǎng)絡(luò)中信息流和梯度的傳輸。

        然后,進一步向基準模型中添加2 個組件,分別得到SARN_CM1LRL1GFA0、SARN_CM1LRL0GFA1、SARN_CM0LRL1GFA1(表2 中第5 到7 個組合),從表2 中可以看出2 個組件的性能優(yōu)于1 個組件,當同時使用3個組件時,可以得到SARN_CM1LRL1GFA1(表2 中第8 個組合),從表2 中可以看出使用3 個組件的性能是最好的。

        上述定量分析表明CM、LRL 和GFA 可以進一步穩(wěn)定訓練過程,同時可以證明本文所提的CM、LRL和GFA的有效性。

        3.3.2 SARB模塊數(shù)量對模型的影響

        為了研究SARB 模塊對模型的影響,選擇數(shù)量為12、16、20、24個SARB 模塊進行實驗。在保證其他參數(shù)保持一致的條件下,僅控制模塊的數(shù)量。表3 展示了在Set5 測試集×2 上不同數(shù)量的SARB 對模型的影響結(jié)果。從表3 中可以看出當SARB 為20 時,PSNR/SSIM 值最高,模型特征提取能力最好,因此本文實驗設(shè)置SARB數(shù)量為20。

        表3 SARB模塊數(shù)量對模型的影響

        3.3.3 ESA模塊的有效性

        為了研究ESA 模塊的有效性,將添加ESA 模塊的網(wǎng)絡(luò)與未添加ESA模塊的網(wǎng)絡(luò)進行對照實驗,其他參數(shù)保持一致,得到如表4顯示的在Set5測試集×3上的PSNR/SSIM 值。實驗結(jié)果表明,雖然添加ESA 模塊的網(wǎng)絡(luò)的FLOPs、Params比未添加ESA 的網(wǎng)絡(luò)分別多15.3G,0.21M,但其PSNR、SSIM 值相比未添加ESA模塊的網(wǎng)絡(luò)有顯著提升,特征提取能力更強。

        表4 ESA模塊有效性對比

        3.4 實驗結(jié)果與分析

        3.4.1 客觀指標分析

        本文將提出的SARN 模型與8 種方法進行對比:Bicubic[1]、SRCNN[8]、VDSR[10]、DRRN[14]、Mem-Net[16]、IMDN[20]、LESRCNN[35]、SMSR[36]。 使用PSNR、SSIM 作為評估超分辨率圖像質(zhì)量的指標。使用5 個常用的基準數(shù)據(jù)集作為測試集,實驗結(jié)果如表5 所示。

        表5 數(shù)據(jù)集在不同縮放因子下超分辨率重建圖像的PSNR/SSIM(PSNR的單位為dB)

        本文選取一些經(jīng)典的算法模型及與本文模型相關(guān)度較高的模型進行對比實驗。具體對比結(jié)果如表5 所示。表5 展示了縮放因子×2、×3、×4 的定量結(jié)果比較。具體而言,對于縮放因子×2,本文的SARN 網(wǎng)絡(luò)在所有的測試集中表現(xiàn)最好。當縮放因子為×3,在Urban100 測試集中,IMDN 網(wǎng)絡(luò)的PSNR 比本文算法高0.02 dB,本文算法的SSIM 比IMDN 網(wǎng)絡(luò)高0.002;SMSR 網(wǎng)絡(luò)的PSNR 比本文算法高0.06 dB,但本文算法的SSIM 比SMSR 高0.001。當縮放因子為×4,本文算法在Set5、Set14、BSD100測試集中取得了最好的評估結(jié)果。在Urban100 測試集中,本文算法的PSNR 比SMSR 網(wǎng)絡(luò)低0.03 dB,二者SSIM 一致;在Manga109 測試集中,本文算法的PSNR 比SMSR 網(wǎng)絡(luò)高0.02 dB,SMSR網(wǎng)絡(luò)的SSIM比本文算法低0.002。

        由上述分析可知,與其他算法相比,本文算法在基準數(shù)據(jù)集上幾乎能夠取得最好性能。

        3.4.2 感知質(zhì)量評估

        為了進一步衡量圖像重建質(zhì)量,本文引入學習感知圖像塊相似度LPIPS[37]與無參考圖像評價指標NIQE[38]。LPIPS、NIQE 值越小,表示性能越好。表6給出了不同對比算法在Set5 測試集×4 上的對比結(jié)果。從表6 可以看出,本文算法相比其他算法表現(xiàn)出了最好的感知性能。

        表6 不同方法在Set5測試集×4上的LPIPS、NIQE對比結(jié)果

        3.4.3 主觀視覺分析

        為了進一步驗證本文算法相比其他方法更具有優(yōu)越性,本文進行算法實驗可視化對比,實驗對比的可視化結(jié)果如圖5~圖7 所示。圖5 是Urban100 數(shù)據(jù)集中的Img_44,圖6 是Set5 數(shù)據(jù)集中的Butterfly,圖7是Urban100 中的Img_34。與其他方法相比,經(jīng)過本文網(wǎng)絡(luò)模型重建后,圖5 天花板窗紋理比其他圖像更加清晰;圖6蝴蝶翅膀上的紋理更清晰;圖7從局部放大圖可以看出,本文算法與SMSR 相比幾乎無差別,與其他算法相比,玻璃紋理更加清晰,線條邊緣更加分明、銳化。這些對比結(jié)果表明,本文提出的網(wǎng)絡(luò)模型無論在客觀評價指標上,還是主觀視覺上幾乎均優(yōu)于其他算法,這說明本文算法可以更好地重建出圖像的細節(jié)紋理和邊緣。

        圖5 Urban100_Img_44縮放因子為×2時本文算法與其他方法的定性比較

        圖6 Set5_Butterfly縮放因子為×3時本文算法和其他方法的定性比較

        3.4.4 模型復雜度分析

        為了比較不同算法的復雜度,本文統(tǒng)計了各個算法的計算量(FLOPs)、參數(shù)量(Params)、運行時間(Running Time)、GPU 內(nèi)存消耗(Memory Footprint)。表7 給出了不同算法在Set5 測試集×2 上的結(jié)果。從表7 可以看出,雖然本文算法的參數(shù)量、GPU 內(nèi)存占用較大,但是本文算法的運行時間在毫秒級別,可以實時進行圖像超分辨率重建。綜合考慮表5 的客觀評價指標,表6的LPIPS、NIQE對比結(jié)果和表7的各指標結(jié)果,可以看出本文算法在各項指標上相比其他算法更具有優(yōu)勢。

        表7 算法復雜度對比

        4 結(jié)束語

        針對現(xiàn)有的一些卷積神經(jīng)網(wǎng)絡(luò)無法充分利用網(wǎng)絡(luò)的層次特征問題,本文提出了一種基于空間注意力殘差網(wǎng)絡(luò)的圖像超分辨率重建算法。該算法結(jié)合特征融合機制和注意力機制,并將其應用到SR任務(wù)中。在空間注意力殘差模塊中,利用特征融合有效利用網(wǎng)絡(luò)的層次特征,進行局部特征融合,形成更具代表性的特征,并將其傳輸?shù)较乱粋€空間注意力殘差模塊。然后,利用全局特征融合對空間注意力殘差模塊的輸出實現(xiàn)有效利用,將經(jīng)過全局特征融合后的輸出特征與淺層特征結(jié)合,實現(xiàn)全局殘差學習。最后,通過重建模塊即可得到最終的超分辨率圖像。本文提出空間注意力殘差模塊作為空間注意力殘差網(wǎng)絡(luò)的構(gòu)建模塊,該模塊結(jié)合增強型空間注意力模塊和特征融合機制,可以更充分地利用網(wǎng)絡(luò)中的層次特征。在幾個基準測試集上的實驗結(jié)果表明,與其他超分辨率重建算法相比,本文提出的算法在大部分客觀評價指標上均有良好的表現(xiàn)。

        猜你喜歡
        殘差分辨率注意力
        基于雙向GRU與殘差擬合的車輛跟馳建模
        讓注意力“飛”回來
        基于殘差學習的自適應無人機目標跟蹤算法
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        自動化學報(2019年6期)2019-07-23 01:18:32
        EM算法的參數(shù)分辨率
        原生VS最大那些混淆視聽的“分辨率”概念
        “揚眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        基于深度特征學習的圖像超分辨率重建
        自動化學報(2017年5期)2017-05-14 06:20:52
        一種改進的基于邊緣加強超分辨率算法
        A Beautiful Way Of Looking At Things
        亚洲成AV人久久| 国产熟妇按摩3p高潮大叫| 精品久久亚洲中文无码| 无码Av在线一区二区三区| 麻豆激情视频在线观看| 综合国产婷婷精品久久99之一| 日日婷婷夜日日天干| 69精品免费视频| 五十路熟妇亲子交尾| 欧美激情精品久久999| 五月婷婷开心五月播五月| 白浆国产精品一区二区| 成人丝袜激情一区二区| 亚洲男人第一无码av网站| 丰满人妻无奈张开双腿av | 干出白浆视频在线观看| 欧美又粗又长又爽做受| 精品无码国产污污污免费网站| 精品国产亚洲av麻豆尤物| 按摩师玩弄少妇到高潮av| 特黄做受又粗又长又大又硬| 伊人狠狠色丁香婷婷综合| 色爱区综合五月激情| 午夜爽毛片| 少妇又紧又爽丰满在线视频| 亚洲一区自拍高清亚洲精品| 亚洲熟妇20| 亚洲国产综合性感三级自拍 | 色婷婷色丁香久久婷婷| 天天色影网| 无码aⅴ在线观看| 亚洲日产国无码| 精品人妻一区二区三区在线观看| 国产免费av片无码永久免费| 久久九九有精品国产尤物| 亚洲av免费看一区二区三区| 亚洲av无码日韩av无码网站冲| 欧美巨大xxxx做受l| 久久久久无码精品国| 精品亚洲一区二区三区四区五| 男女爽爽无遮挡午夜视频|