亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于注意力機制的圖像超分辨率重建

        2021-03-18 13:45:46,*
        計算機應(yīng)用 2021年3期
        關(guān)鍵詞:運算量殘差注意力

        ,*

        (1.貴州大學(xué)計算機科學(xué)與技術(shù)學(xué)院,貴陽 550025;2.貴州師范學(xué)院數(shù)學(xué)與大數(shù)據(jù)學(xué)院,貴陽 550018)

        0 引言

        圖像在攜帶信息方面扮演著越來越重要的角色,高分辨率(High Resolution,HR)的圖像越清晰,所蘊含的信息也越多。然而,由于成像設(shè)備以及天氣、光線等環(huán)境因素和噪聲的干擾,會獲取到許多低分辨率(Low Resolution,LR)模糊的圖像,如何提高圖像的分辨率是非常有研究意義的。最直接有效的方法是改善圖像捕捉設(shè)備,但是在實際應(yīng)用中,改良硬件成本昂貴,對于小型企業(yè)或者個人研究者是不友好的,因此,超分辨率(Super Resolution,SR)重建技術(shù)由此而生,它通過改良算法來提高圖像分辨率,成本極低,適用于任何研究者。圖像超分辨率重建技術(shù)在軍事、遙感、醫(yī)療影像[1-2]等領(lǐng)域都有著廣泛的應(yīng)用。

        廣為熟知的超分辨率重建方法大體分為三類:基于插值、基于重建的和基于學(xué)習(xí)[3-4]的方法。插值法通過某個像素點與其周圍像素點對應(yīng)的空間位置關(guān)系,利用數(shù)學(xué)公式來推導(dǎo)估計縮小和放大后的對應(yīng)點的像素值。常見的插值法有雙立方插值[5]、最近鄰插值[6]和雙線性插值[7],插值法的速度快,但是重建的圖像細節(jié)紋理部分比較模糊?;谥亟ǖ姆椒ɡ脠D像的整體信息結(jié)合數(shù)學(xué)方法求解高分辨率圖像的特征表達,然后重建出高分辨率圖像,常見的重建方法有最大后驗概率法[8]、迭代反向投影法[9]、凸集投影法[10]等?;趯W(xué)習(xí)的方法利用大量的外部圖像樣本,結(jié)合數(shù)學(xué)公式的推導(dǎo),學(xué)習(xí)LR與HR圖像之間的映射關(guān)系,獲取復(fù)雜的先驗知識;然后在重建高分辨率圖像時,能更好地放大圖像細節(jié)部分,提高圖像質(zhì)量。早期的學(xué)習(xí)方法主要是機器學(xué)習(xí),通過矩陣變換來求解高、低分辨率圖像之間的映射關(guān)系。圖像的稀疏編碼(Sparse Coding,SC)就是其中的經(jīng)典學(xué)習(xí)方法,它將LR 和HR 對應(yīng)的特征圖部分一一編碼成字典,形成對應(yīng)的映射關(guān)系,然后學(xué)習(xí)編碼字典中元素的映射關(guān)系,重建高分辨率圖像。Yang 等[11]提出的基于稀疏表達算法,通過訓(xùn)練高、低分辨率圖像的塊字典,使得其他的圖像塊都能夠適用于這一字典稀疏表達,且同一個圖像塊對應(yīng)的高、低分辨率圖像字典的線性表達一致。

        近年來,隨著圖形處理器(Graphic Processing Unit,GPU)的發(fā)展,基于深度學(xué)習(xí)的方法被廣泛用于圖像超分辨率重建領(lǐng)域,尤其是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)能自動提取豐富的特征,學(xué)習(xí)LR和HR之間的復(fù)雜映射關(guān)系。2014年,Dong等[12]首次利用卷積神經(jīng)網(wǎng)絡(luò)來進行超分辨率重建任務(wù),提出了超分辨率卷積神經(jīng)網(wǎng)絡(luò)(Super-Resolution Convolutional Neural Network,SRCNN)模型,采用端到端的訓(xùn)練方式,在當(dāng)時大大提高了重建效果,開啟了卷積神經(jīng)網(wǎng)絡(luò)處理超分辨率問題的時代。隨后許多研究者在其基礎(chǔ)上進行研究,致力于構(gòu)建更好的模型。2016年,Kim等[13]將殘差思想應(yīng)用于超分辨率重建任務(wù),提出了使用非常深的卷積網(wǎng)絡(luò)超分辨率(Super-Resolution using Very Deep convolution network,VDSR)模型,同時將網(wǎng)絡(luò)的深度增加到了20 層,證明了深層網(wǎng)絡(luò)能提取出更多的特征,取得更好的重建效果。為了更注重視覺效果,Ledig等[14]提出了使用生成對抗網(wǎng)絡(luò)的超分辨率(Super-Resolution using a Generative Adversarial Network,SRGAN)模型,利用感知損失和對抗損失來提升和恢復(fù)出圖像的真實感,在當(dāng)時取得了最逼真的視覺效果。Lim等[15]通過對殘差網(wǎng)絡(luò)的改進,提出了增強深度超分辨率網(wǎng)絡(luò)(Enhanced Deep Super-Resolution network,EDSR)模型,通過移除批規(guī)范化處理(Batch Normalization,BN)操作,堆疊更多的網(wǎng)絡(luò)層,提取更多的特征,從而得到更好的性能表現(xiàn),并在同年的圖像恢復(fù)與增強新趨勢(New Trends in Image Restoration and Enhancement,NTIRE)大賽中取得了第一名的成績。

        盡管上述基于深度學(xué)習(xí)的SR 方法都取得了很好的重建效果,但是仍然存在一些問題:1)它們都沒有對網(wǎng)絡(luò)提取的特征加以區(qū)別。平等對待每個通道,限制了網(wǎng)絡(luò)的表達能力,可能讓網(wǎng)絡(luò)在冗余的低頻特征上浪費計算資源。2)深層網(wǎng)絡(luò)所需要訓(xùn)練的參數(shù)更多,等待的時間更久,如何減少參數(shù)運算量、提高模型性能也是一個重要的問題。針對上述存在的問題,本文提出了一種基于通道注意力機制(Channel Attention mechanism,CA)和深度可分離卷積(Depthwise Separable Convolution,DSC)的網(wǎng)絡(luò)結(jié)構(gòu),由淺層特征提取塊,基于通道注意力機制的深層特征提取塊和重建模塊組成。首先,將低分辨率圖像送入淺層特征提取塊,提取原始特征;然后,在深層特征提取塊中,在局部殘差模塊中加入通道注意力機制來提取深層的殘差信息,由于使用通道注意力機制會增加計算開銷,使得訓(xùn)練的參數(shù)增加,所以在局部殘差模塊中還采用深度可分離卷積技術(shù)來減少參數(shù)運算量;最后,在重建模塊,將提取的深層殘差信息和LR 的信息融合,重建HR 輸出。本文的主要工作有以下三點:

        1)提出了一種局部和全局的殘差網(wǎng)絡(luò)結(jié)構(gòu),有效緩解了梯度消失的問題,并且局部殘差塊能將圖像原始的豐富細節(jié)傳遞到后面的特征層中,提取更豐富的細節(jié)特征。

        2)在局部殘差模塊中融入了通道注意力機制,并將通道注意力網(wǎng)絡(luò)模塊的全連接層換成了卷積層,通過挖掘特征圖通道之間的關(guān)聯(lián)性,側(cè)重提取關(guān)鍵特征信息。

        3)在局部殘差模塊中融入了深度可分離卷積技術(shù),能有效減少網(wǎng)絡(luò)的參數(shù)。

        1 注意力機制

        注意力機制通過模仿人類對事物觀察的方式來決定對輸入的哪部分數(shù)據(jù)進行重點關(guān)注,然后從重點數(shù)據(jù)部分提取關(guān)鍵特征。注意力機制最早應(yīng)用于機器翻譯和自然語言處理方向,此后在各領(lǐng)域都有廣泛的應(yīng)用。

        注意力機制一般分為硬注意力(Hard Attention)機制和軟注意力(Soft Attention)機制。硬注意力機制是在所有特征中選擇部分關(guān)鍵的特征,其余特征則忽略不計。例如,在Wang等[16]的數(shù)字識別任務(wù)中,在提取原始圖像的特征時,只有含有數(shù)字的像素點是有用的,所以只需要對含有數(shù)字的像素點進行重點關(guān)注即可。因此,硬注意力機制能有效減少計算量,但也會丟棄圖像的部分信息,而在超分辨率重建任務(wù)中,圖像的每一個像素點的信息都是有用的,顯然硬注意力機制不適用超分辨率重建任務(wù)。

        軟注意力機制不像硬注意力機制那樣忽略某些特征,它對所有的特征設(shè)置一個權(quán)重,進行特征加權(quán),通過自適應(yīng)調(diào)整凸顯重要特征。這樣的方式適用于超分辨率重建任務(wù),本文引入的通道注意力機制就屬于軟注意力機制的一種。圖像經(jīng)過每層網(wǎng)絡(luò)時,都會產(chǎn)生多個不同的特征圖,通道注意力機制通過對每張?zhí)卣鲌D賦予不同的權(quán)重,讓網(wǎng)絡(luò)從特征的通道維度來提取重要的特征。最早將通道注意力機制用于圖像超分辨率重建任務(wù)的是Zhang 等[17]提出的殘差通道注意力網(wǎng)絡(luò)(Residual Channel Attention Network,RCAN),該模型證明了通過考慮通道之間相互依賴的特性,調(diào)整通道注意力機制,能重建出高分辨率的圖像。隨后Lu 等[18]提出多特征通道網(wǎng)絡(luò)(Channel Attention and Multi-level Features Fusion Network,CAMFFN),將通道注意力機制和遞歸卷積網(wǎng)絡(luò)結(jié)合,在每個遞歸單元的開始部分采用通道注意力機制,自適應(yīng)地調(diào)整輸入特征的重要通道特征,取得了良好的效果。Liu等[19]提出一種單一圖像的注意力網(wǎng)絡(luò),該網(wǎng)絡(luò)分為特征重建網(wǎng)絡(luò)和注意力產(chǎn)生網(wǎng)絡(luò),特征重建網(wǎng)絡(luò)采用稠密卷積網(wǎng)絡(luò)(Dense Convolutional Network,DenseNet)結(jié)構(gòu),而注意力網(wǎng)絡(luò)采用U-Net結(jié)構(gòu),最后將兩個分支的結(jié)果融合,獲得高分辨率的重建圖像。

        2 本文方法

        通常認為網(wǎng)絡(luò)層數(shù)越深,提取的特征越豐富;并且,越深的網(wǎng)絡(luò)提取的特征越抽象,越具有語義信息。然而在實際應(yīng)用中,簡單地增加深度會出現(xiàn)退化問題,原因可能是經(jīng)過多層特征提取之后,許多圖像的邊緣紋理等細節(jié)丟失了,因此,本文提出了一種基于注意力機制和深度可分離卷積的網(wǎng)絡(luò)結(jié)構(gòu),通過引入全局和局部殘差學(xué)習(xí)能有效解決網(wǎng)絡(luò)退化問題。局部殘差網(wǎng)絡(luò)能將豐富的圖像細節(jié)傳到后面的特征層中,在局部殘差模塊中采用通道注意力機制和深度可分離卷積,前者通過調(diào)整各通道的特征圖權(quán)重,讓網(wǎng)絡(luò)從特征的通道維度來提取比較重要的特征,后者則能極大降低模型的訓(xùn)練參數(shù)。同時,采用自適應(yīng)矩估計(Adaptive moment estimation,Adam)優(yōu)化器來加快整個模型快速收斂,縮短訓(xùn)練的時間。本文設(shè)計的網(wǎng)絡(luò)模型如圖1所示。

        圖1 本文提出的網(wǎng)絡(luò)模型Fig.1 The proposed network model

        整個網(wǎng)絡(luò)模型大體分為三部分:第一層為淺層特征提取塊,用于提取低水平特征;中間層為基于通道注意力機制的深層特征提取塊,由若干個局部殘差模塊組成,用于學(xué)習(xí)高水特征;最后一層為重建模塊,用于融合低水平特征和學(xué)習(xí)到的殘差特征,重建高分辨率圖像。

        2.1 淺層特征提取塊

        淺層特征提取塊由一個卷積層和激活層組成,用于從輸入的低分辨率圖像中提取特征,用Y和F0表示網(wǎng)絡(luò)的輸入與輸出,該特征提取可用式(1)表示:

        其中:*為卷積操作;W0為卷積核;b0為偏置;F0為從低分辨率Y中提取的特征;σ為激活函數(shù),這里采用ReLU 作為激活函數(shù)。在進行卷積操作前,為防止卷積之后的特征圖越來越小,此處在每次卷積之前都進行補零操作,這樣能夠確保每次卷積之后的圖像依然是原來的大小。

        2.2 基于通道注意力機制的深層特征提取塊

        在這一部分,經(jīng)過淺層特征提取塊后,獲取了低分辨率圖像的特征圖,需要把這些特征映射到高維上繼續(xù)提取有效的信息。這一模塊由多個相同結(jié)構(gòu)的殘差模塊組成,每個殘差模塊由若干個深度可分離卷積單元和一個通道注意力機制單元組成,接下來分別介紹這兩個單元。

        2.2.1 通道注意力機制

        一般來說,注意力機制可以看作是一種信號導(dǎo)向,它將更多可用的資源分配給輸入圖像中信息最豐富的部分。每一張圖像都能用RGB(Red-Green-Blue)三個通道表示出來,在卷積神經(jīng)網(wǎng)絡(luò)中,通過不同的卷積核對每個通道進行卷積,每個通道就會產(chǎn)生新的特征信息,每個通道的特征信息就表示該圖像在每個卷積核上的分量,通常采用64 個卷積核對圖像進行卷積,其中卷積核的卷積操作將每個通道的特征信息分解成64 個通道上的分量,由于圖像中的高頻信息是聚集的,那么在64 個通道上的關(guān)鍵信息其實是分布不均的,普通的卷積神經(jīng)網(wǎng)絡(luò)并沒有把關(guān)鍵信息明顯區(qū)別出來,如何對每個通道特征產(chǎn)生不同的注意是關(guān)鍵步驟。通常LR 圖像具有豐富的低頻信息和有價值的高頻信息成分,低頻信息一般比較平坦,而高頻成分通常是在某一區(qū)域充滿了邊緣、紋理和細節(jié)。卷積核在對圖像進行卷積時,有一個感受野的限制,只能對感受野內(nèi)的信息提取特征,無法輸出感受野之外的信息。因此,可以使用全局平均池化操作對全局空間內(nèi)的信息轉(zhuǎn)化為通道描述符,然后通道注意力機制通過給每個通道設(shè)置一個權(quán)重來表示通道與關(guān)鍵信息的相關(guān)性,權(quán)重越大,則該通道的信息越關(guān)鍵,輸出的特征就越多,最后重建出來的圖像分辨率就更高。通常通道注意力機制單元由一個池化層、兩個全連接層組成,全連接層用于降低維度,控制模型的復(fù)雜性。這里將兩個全連接層換成卷積層用以增加網(wǎng)絡(luò)非線性,更好擬合通道復(fù)雜的相關(guān)性,并且還能減少一定的參數(shù)。改進的通道注意力機制單元如圖2所示。

        圖2 通道注意力機制Fig.2 Channel attention mechanism

        首先,池化層將大小為H×W的C個特征圖轉(zhuǎn)化為1×1大小的C個特征圖,其計算方式如式(2)所示:

        其中:x(i,j)表示C個特征x在位置(i,j)處的值;Hp(x)為全局池化函數(shù),把每個通道內(nèi)所有的特征值相加再平均;Uc為經(jīng)過池化后的全局信息。

        經(jīng)過池化層之后,得到全局信息Uc,為了獲取全局信息Uc和各通道的相關(guān)性,引入一個門控機制,來學(xué)習(xí)各通道之間的非線性交互作用。門控單元Sc的計算方式如式(3)所示:

        其中:σ是ReLU 激活函數(shù),而g是一個sigmoid 函數(shù);W1和W2分別是兩個卷積層的權(quán)重,通過每個局部殘差塊的兩個卷積層訓(xùn)練學(xué)習(xí),不斷調(diào)整其對應(yīng)的兩個權(quán)重,得到一個一維的激勵權(quán)重來激活每一層通道。最后將通過sigmoid 函數(shù)得到的特征值Sc重新調(diào)整輸入Uc。

        式(4)表示放縮過程,經(jīng)過門控單元得到特征圖后,需要將1×1 大小的C個特征圖還原成H×W大小的特征圖,每個通道和其對應(yīng)的權(quán)重相乘,從而可以增強對關(guān)鍵通道域的注意力,其中Sc和Uc是第c個通道中的縮放因子和特征映射。這樣通過通道注意力機制就可以自適應(yīng)地調(diào)整通道特征來增強網(wǎng)絡(luò)的表達能力。

        2.2.2 深度可分離卷積

        深度可分離卷積最早是用于語義分割方向,在實際應(yīng)用中使用效果良好,后被廣泛用于各領(lǐng)域。文獻[20]將深度可分離卷積代替?zhèn)鹘y(tǒng)卷積提出了小巧而高效的移動端卷積神經(jīng)網(wǎng)絡(luò)(efficient convolution neural Networks for Mobile vision applications,MobileNets)模型,在沒有降低準確率的情況下,大大減少了模型的參數(shù),使得MobileNet 模型廣泛應(yīng)用于移動端。深度可分離卷積將標準卷積進行拆分,將輸入數(shù)據(jù)的通道單獨卷積,再使用點卷積整合輸出,其計算式如下:

        其中:*表示卷積操作;Hm為輸出的特征圖;F為輸入特征圖;K為卷積核;i,j為特征圖中每個像素值的坐標;m為通道數(shù)。深度可分離卷積是一種可分解的卷積,是在標準卷積基礎(chǔ)上改進的,它可以分解為兩個更小的操作:深度卷積(Depthwise Convolution,DC)和逐點卷積(Pointwise Convolution,PC)兩個階段。DC是深度可分離卷積的濾波階段,針對每個輸入通道采用其對應(yīng)的卷積核進行卷積操作。PC 是深度可分離卷積的組合階段,整合DC 階段的所有特征圖信息,串聯(lián)輸出。標準卷積和深度可分離卷積的區(qū)別如圖3、4所示。

        圖3 標準卷積Fig.3 Standard convolution

        圖4 深度可分離卷積Fig.4 Depthwise separable convolution

        為了比較普通卷積和深度可分離卷積的參數(shù)運算量,假設(shè)輸入M通道大小為H×W的特征圖,經(jīng)過D×D大小的卷積核進行卷積操作后,輸出大小為H×W的N通道特征圖。

        則標準卷積參數(shù)運算量如式(6)所示:

        深度可分離卷積的參數(shù)運算量如式(7)所示:

        因此,兩種結(jié)構(gòu)對應(yīng)參數(shù)運算量之比如式(8)所示:

        從式(8)可以得出,與標準卷積參數(shù)運算量相比,使用深度可分離卷積能極大降低模型參數(shù)運算量,當(dāng)兩個網(wǎng)絡(luò)模型的層數(shù)相同時,若深度可分離卷積全部使用3×3的卷積核,即D=3,則參數(shù)運算量能減少為原來的1/9左右。

        2.3 重建模塊

        將前面深層特征提取塊獲取的輸出降維到與初始低分辨率輸入相同的維度,自適應(yīng)地融合和保留之前學(xué)習(xí)到的特征,進行全局特征融合并輸出,重建出高分辨率的圖像。

        其中:Y為圖像初始輸入;R為非線性映射學(xué)習(xí)到的高頻特征信息;Fd表示局部特征融合層的計算操作;Gup表示上采樣操作;Hhigh則為重建的高分辨率圖像。

        2.4 損失函數(shù)

        超分辨率重建的任務(wù)是通過卷積神經(jīng)網(wǎng)絡(luò)一系列操作獲取重建圖像Hhigh,讓Hhigh和原高分辨率圖像Fhigh越相似越好。因此,需要一個函數(shù)來評價Hhigh和Fhigh之間的相似性,均方誤差(Mean Square Error,MSE)函數(shù)可以通過計算Hhigh和Fhigh兩幅圖像的每個像素點的誤差來評價Hhigh和Fhigh之間的相似性。誤差越小,即表示兩幅圖像越相似。所以本文采用均方誤差來作為損失函數(shù)(Loss Function),損失函數(shù)計算如式(10)所示:

        其中:i表示每個像素點;Hhigh為重建的高分辨率圖像;Fhigh為原始高分辨率圖像。通常在評價重建圖像質(zhì)量時,峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)是一個重要的評價指標,而在計算PSNR 時,MSE 越小,則PSNR 越大,表示重建的圖像質(zhì)量越好,與原始高分辨率圖像越相似。因此,使用MSE作為損失函數(shù)可以獲得比較大的PSNR。

        3 實驗與結(jié)果分析

        3.1 數(shù)據(jù)集和評價指標

        實驗采用的數(shù)據(jù)集是圖像超分辨率標準數(shù)據(jù)集BSD300[21],含有300 張圖像,包含了自然界的各種景象,其中200 張用于訓(xùn)練,100 張用于驗證。測試集采用Set5[22]、Set14[23]數(shù)據(jù)集,Set5 數(shù)據(jù)集包含5 張動植物的圖像,Set14 數(shù)據(jù)集包含14 張自然景象的圖像,比Set5 包含更多的細節(jié)信息。這些圖像通常用于圖像的重建。

        本次實驗采用兩種國際通用的評判標準峰值信噪比和結(jié)構(gòu)相似度(Structural SIMilarity index,SSIM)作為重建圖像的質(zhì)量評價指標。PSNR 通過計算重建的高分辨率圖像與原始的高分辨率圖像之間像素點的差值來衡量圖像的質(zhì)量,PSNR的單位是dB,數(shù)值越大,表示重建的圖像越好,失真越小,與原始圖像越相似,其計算如式(11)所示:

        結(jié)構(gòu)相似性以兩幅圖像的結(jié)構(gòu)相似度為標準,從圖像的亮度、對比度和結(jié)構(gòu)三個方面進行評價,計算式如下所示:

        其中:μa和μb分別為圖像A和B的均值,表示亮度;分別為圖像A和B的方差,表示對比度;σab為圖像A和B的協(xié)方差,表示結(jié)構(gòu);C1、C2為常數(shù),C1=(k1×L)2,C2=(k2×L)2,通常取k1=0.01,k2=0.03,L=255。結(jié)構(gòu)相似性的取值范圍在0~1,結(jié)果越接近1,表示兩幅圖越相似。

        3.2 實驗設(shè)置

        本實驗使用4塊GPU來訓(xùn)練各模型,型號都為Tesla-P40。由于目前許多研究的重構(gòu)倍數(shù)都是2、3、4倍,因此本文實驗的重構(gòu)倍數(shù)也采取相同的倍數(shù),方便比較。針對輸入的彩色圖像,通過下采樣生成低分辨率的圖像,然后將RGB圖像轉(zhuǎn)換至YCbCr顏色空間,將Y通道的信息送入本網(wǎng)絡(luò)進行重建。網(wǎng)絡(luò)優(yōu)化器使用Adam優(yōu)化器,初始動量設(shè)為0.9,Batchsize設(shè)置為32,基礎(chǔ)學(xué)習(xí)率為0.001,之后每訓(xùn)練25個Epoch,學(xué)習(xí)率減小一半。濾波器的個數(shù)為64 個。整個模型中,在局部和全局的特征融合部分采用1×1的卷積核,其他卷積層則采用3×3的卷積核,并且進行卷積操作之前都采用0 填充邊界,從而保證卷積之后的特征圖尺寸不變。激活函數(shù)都采用ReLU激活函數(shù)。

        3.3 實驗結(jié)果

        將本文提出的方法在Set5 和Set14 數(shù)據(jù)集上與Bicubic、SRCNN[12]、VDSR[13]、EDSR[15]、RCAN[17]等方法進行對比,表1為Set5 和Set14 數(shù)據(jù)集在不同模型中所取得的PSNR 均值和SSIM均值,表中加粗部分為本文模型的結(jié)果。

        表1 不同模型的PSNR和SSIM均值Tab.1 PSNR and SSIM average values of different models

        從表1 的實驗結(jié)果來看,本文提出的模型和SRCNN、VDSR、EDSR、RCAN 相比,在Set5、Set14 數(shù)據(jù)集上的PSNR 和SSIM 均值都有所提升。在放大倍數(shù)較低時,本文的模型重建效果和RCAN 相比沒有明顯的提升,但在放大倍數(shù)較高時,本文的模型重建效果良好,PSNR均值也有較大的提升,表明本文的模型提取圖像細節(jié)的能力比較強。從圖5 中的睫毛圖像也可以看出,本文的模型重建出來的圖像更清晰,與原高分辨率圖像更相似。一般而言,隨著放大倍數(shù)的增大,圖像重建的難度也會隨之增大,在放大倍數(shù)為4 時,本文的模型相較RCAN模型在Set14 上的PSNR 均值提升了0.39 dB。在RCAN 的啟發(fā)下,本文模型將特征圖通道注意力機制應(yīng)用于殘差網(wǎng)絡(luò),帶來了良好的重建效果,但是特征圖通道注意力機制會帶來巨大的參數(shù)量,增加計算開銷。為了減少通道注意力機制帶來的大量參數(shù)影響,本文還引入了深度可分離卷積來減少參數(shù)運算量,表2是各模型的參數(shù)運算量以及運算時間對比。

        表2 不同模型的參數(shù)運算量和運算時間Tab.2 Parameter computing amount and computing time of different models

        表2 給出了各模型產(chǎn)生的參數(shù)運算量和模型所用的時間對比,由于Bicubic 屬于傳統(tǒng)模型,所以這里沒有把它與各模型比較。由于實驗設(shè)備的限制,VDSR、EDSR、RCAN 和本文模型的每個殘差塊都只設(shè)置了10 層網(wǎng)絡(luò)。從實驗結(jié)果來看:本文的模型相較VDSR 模型,參數(shù)運算量是其1/6 左右;相較EDSR模型,參數(shù)運算量是其1/15左右;相較RCAN 模型,參數(shù)運算量是其1/26 左右。從各模型所運行的時間來看,SRCNN所運行的時間最短,因為SRCNN 模型的網(wǎng)絡(luò)結(jié)構(gòu)只有三層,參數(shù)少,所以訓(xùn)練的時間也越短;反觀RCAN 模型,由于使用了通道注意力機制,使得參數(shù)增加,耗時也長;而本文的模型耗時比RCAN 模型的運行時間短,雖然也使用了通道注意力機制,但是在局部殘差模塊中使用了深度可分離卷積技術(shù),減少了參數(shù)。這進一步證明使用深度可分離卷積技術(shù)能大大減少參數(shù)運算量,從而減少訓(xùn)練的時間,提高算法的性能。圖5~8 都是在重構(gòu)倍數(shù)為2 時,在Set5 和Set14 上重建的圖像。為了方便看出效果,文中選取了各圖像中容易辨別的細節(jié)特征,例如圖5 中的眼睫毛部分,從圖中可以明顯看出本文的方法重建出來的圖像更清晰,與原HR 圖像幾乎一致;圖6 中的蝴蝶翅膀部分,從放大的圖像來看,其他方法重建出來的圖像在細節(jié)紋理部分都有一定程度的模糊,特別是傳統(tǒng)的Bicubic方法,更是模糊不清,而本文方法重建出來的紋理部分比較清晰;圖7 中胡須部分,從放大的圖像來看,本文方法相較其他方法重建出來的圖像,胡須根根分明,清晰可見;圖8 從少女的頭飾也可以看出本文方法在圖像細節(jié)方面,處理得更好。

        圖5 baby圖像主觀對比結(jié)果Fig.5 Subjective comparison results of baby image

        圖6 butterfly圖像主觀對比結(jié)果Fig.6 Subjective comparison results of butterfly image

        圖7 baboon圖像主觀對比結(jié)果Fig.7 Subjective comparison results of baboon image

        圖8 comic圖像主觀對比結(jié)果Fig.8 Subjective comparison results of comic image

        4 結(jié)語

        本文設(shè)計了一種基于通道注意力機制和深度可分離卷積的網(wǎng)絡(luò)結(jié)構(gòu),對單幅圖像進行超分辨率重建。該方法通過在局部殘差塊中采用通道注意力機制來發(fā)掘特征圖通道之間的相關(guān)性,提高網(wǎng)絡(luò)提取關(guān)鍵特征的能力,使得重建的圖像更清晰,并且在局部殘差塊中引入深度可分離卷積技術(shù),減少訓(xùn)練的參數(shù)。實驗結(jié)果表明本文的方法重建效果良好,而且也大大減少了訓(xùn)練的參數(shù),提高了模型性能。本文研究的不足之處是每次訓(xùn)練的模型只能適用于一種重構(gòu)倍數(shù),因此下一步的工作是將多尺度重構(gòu)倍數(shù)應(yīng)用于網(wǎng)絡(luò)模型中。

        猜你喜歡
        運算量殘差注意力
        基于雙向GRU與殘差擬合的車輛跟馳建模
        讓注意力“飛”回來
        基于殘差學(xué)習(xí)的自適應(yīng)無人機目標跟蹤算法
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        用平面幾何知識解平面解析幾何題
        減少運算量的途徑
        “揚眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        讓拋物線動起來吧,為運算量“瘦身”
        A Beautiful Way Of Looking At Things
        平穩(wěn)自相關(guān)過程的殘差累積和控制圖
        河南科技(2015年8期)2015-03-11 16:23:52
        人妻中文字幕一区二区三区| 好男人视频在线视频| 久久99精品久久久久久齐齐百度 | 国产自拍高清在线观看| 久久久g0g0午夜无码精品| 欧美色欧美亚洲另类二区不卡| 久久综合一本中文字幕| 五月激情在线视频观看| 亚洲精品久久久久avwww潮水| 乱子真实露脸刺激对白| 熟女人妻中文字幕一区| 精品国产自在现线看久久| 窝窝午夜看片| 99热这里只有精品3| 国产精品99久久不卡二区| 国产偷国产偷亚洲高清视频| 高清破外女出血av毛片| 久久精品无码专区东京热| 国产精品成年人毛片毛片| 欧美精品欧美人与动人物牲交| 天堂影院一区二区三区四区| 久久99精品久久久久九色| 最近中文字幕精品在线| 亚洲av精品一区二区三区| 少妇高潮喷水正在播放| 啪啪视频免费看一区二区| 久久九九精品国产av| 亚洲爆乳精品无码一区二区| 日本一区二区啪啪视频| 国产久视频国内精品999| 中文字幕一区二区三在线| 国产一区高清在线观看| 精品麻豆国产色欲色欲色欲www | 中文字幕无码免费久久9| 东风日产车是不是国产的 | 中国女人a毛片免费全部播放| 日本高清视频在线观看一区二区 | 日韩亚洲中字无码一区二区三区| 国产一区二区三区免费小视频| 寂寞人妻渴望被中出中文字幕| 草草浮力地址线路①屁屁影院|