亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于自注意力機(jī)制的視頻超分辨率重建

        2022-08-23 07:16:40秦昊宇張力波吳學(xué)致任衛(wèi)軍
        關(guān)鍵詞:低分辨率分辨率卷積

        秦昊宇,葛 瑤,張力波,吳學(xué)致,任衛(wèi)軍

        (長安大學(xué) 信息工程學(xué)院,陜西 西安 710064)

        0 引 言

        隨著智能手機(jī)及各類攝影攝像設(shè)備的普及,圖像、視頻在人們生活中占據(jù)著越來越重要的地位。同時,人們對于圖像、視頻清晰度的需求也在逐漸提高。自Harris和Goodman首次提出圖像超分辨率重建的概念與方法[1]以來,超分辨率方法作為計算機(jī)視覺領(lǐng)域中圖像處理的一項技術(shù),能夠提高已經(jīng)拍攝出的圖像視頻的分辨率,已經(jīng)廣泛應(yīng)用到人們生活中的各個方面,具有重要的研究價值。

        超分辨的核心在于尋找低分辨率圖像與高分辨率圖像特征之間的映射關(guān)系[2]。Dong Chao等人在2014年首次將深度卷積網(wǎng)絡(luò)CNN融入圖像超分辨重建,提出了一種全卷積網(wǎng)絡(luò)模型SRCNN[3]。隨著深度學(xué)習(xí)的不斷深入研究及其在圖像處理應(yīng)用范圍的擴(kuò)大,更多基于深度學(xué)習(xí)方法的超分辨率重建網(wǎng)絡(luò)模型正在進(jìn)一步發(fā)揮作用[4],而超分辨率技術(shù)也不再局限于圖像,而是開始向視頻領(lǐng)域發(fā)展。視頻超分辨率重建可分別在時間域和空間域上進(jìn)行重建[5]。空間視頻超分辨率重建通過引入更多的相鄰幀,將幀間互補(bǔ)信息對齊融合到關(guān)鍵幀以提高關(guān)鍵幀重建效果。時間可變形的對齊網(wǎng)絡(luò)(temporally deformable alignment network,TDAN)[6]對從原始幀提取的特征使用可變形卷積網(wǎng)絡(luò),自適應(yīng)地完成當(dāng)前幀與相鄰幀的對齊,并動態(tài)地根據(jù)估計出的特征空間補(bǔ)償信息進(jìn)行隱式運(yùn)動補(bǔ)償,從而通過重建模塊得到高分辨率的視頻幀。EDVR[7](enhanced deformable convolutional networks)在TDAN模型的基礎(chǔ)上提出了多尺度特征圖對齊模塊,更好地完成了幀間互補(bǔ)信息對齊。時間域的視頻超分辨率重建主要是通過給定當(dāng)前幀圖像和下一幀圖像,從而生成中間幀的視頻插幀技術(shù)來實現(xiàn)。目前,通過深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)現(xiàn)有幀與未知幀的映射關(guān)系存在一定困難,因此常用通過學(xué)習(xí)得到的中間幀的光流信息來進(jìn)行傳統(tǒng)插值,進(jìn)而生成中間幀。該文是在現(xiàn)有的算法研究基礎(chǔ)上對視頻超分辨率重建進(jìn)行深入研究,構(gòu)建了一種融合時間與空間域的視頻超分辨率重建模型VTSSR,實驗證明,該模型充分考慮到了視頻幀間運(yùn)動時間與空間的關(guān)聯(lián)性,提高了視頻超分辨率的重建效果。

        1 超分辨率重建理論

        現(xiàn)實生活中,各種外在影響會使得采樣得到低分辨率圖像,這一現(xiàn)象稱為圖像退化[8]。逆向處理圖像退化,從而恢復(fù)出高分辨率圖像和視頻的技術(shù)就稱為超分辨率重建技術(shù)。

        視頻超分辨率重建分為時間域和空間域的視頻超分辨率重建。時間域超分辨率重建主要是將由于采樣設(shè)備、視頻壓縮等造成高頻信息丟失的低幀率視頻幀重構(gòu)成高幀率[9],重構(gòu)過程主要使用視頻插幀的方法。常用的視頻插幀方法主要是基于運(yùn)動補(bǔ)償?shù)囊曨l插幀,其主要思想是通過運(yùn)動估計和運(yùn)動補(bǔ)償在原視頻序列連續(xù)的兩幀之間插入圖像幀,基于運(yùn)動補(bǔ)償?shù)牟鍘椒ú襟E如圖1所示。

        圖1 基于運(yùn)動補(bǔ)償插幀

        如圖1所示,該過程將輸入的原始低幀率視頻序列經(jīng)過運(yùn)動估計得到相鄰幀之間的運(yùn)動矢量,再將這些運(yùn)動矢量經(jīng)過運(yùn)動補(bǔ)償插幀等操作生成插幀后的高幀率序列。其中,運(yùn)動估計是計算視頻幀上同一個像素點在相鄰圖像幀之間運(yùn)動時發(fā)生的空間偏移量[10],而運(yùn)動補(bǔ)償就是根據(jù)這些偏移量計算該像素點在中間幀的對應(yīng)位置,從而補(bǔ)償差值生成中間幀。

        空間域超分辨率重建是從連續(xù)的低分辨視頻幀序列中重建得到對應(yīng)的高分辨率幀序列,其中重構(gòu)過程使用多幀圖像超分辨率重建方法實現(xiàn),其關(guān)鍵在于多幀幀間信息的配準(zhǔn)。這些由視頻得到的多幀圖像在亮度和像素上存在細(xì)微差別,能夠通過捕獲幀間差異信息完成超分辨率重建[11],方法過程如圖2所示。

        圖2 視頻超分辨率重建

        由圖2可知,該過程首先將輸入的原始低分辨率視頻幀序列利用運(yùn)動估計算法預(yù)測幀間運(yùn)動矢量,再對本段序列幀中的關(guān)鍵幀進(jìn)行運(yùn)動補(bǔ)償,接著將相鄰幀圖像與當(dāng)前關(guān)鍵幀圖像進(jìn)行對齊配準(zhǔn),使兩幀位于同一坐標(biāo)系中,最后經(jīng)過重建網(wǎng)絡(luò)將多個特征圖像融合得到關(guān)鍵幀的高分辨率圖像。

        2 融合時間域與空間域的視頻超分辨率重建模型

        2.1 模型框架

        融合時間域和空間域的視頻超分辨率重建模型中的重建網(wǎng)絡(luò)由特征提取、特征插值、自注意力機(jī)制融合以及亞像素卷積上采樣和殘差塊四部分組成,能夠同時對視頻進(jìn)行時間域和空間域超分辨率重建,最后輸出高幀率的高分辨率視頻。由于視頻幀間互補(bǔ)信息在時間和空間上具有一定的關(guān)聯(lián)性,該模型采用可變形卷積對齊、自注意力融合技術(shù)增強(qiáng)了這一關(guān)聯(lián)性,從而進(jìn)一步提升了視頻超分辨率重建的效果。模型框架如圖3所示。

        圖3 VTSSR模型結(jié)構(gòu)

        2.2 特征提取

        基于深度學(xué)習(xí)的視頻超分辨率重建使用卷積神經(jīng)網(wǎng)絡(luò),區(qū)別于光流法復(fù)雜的假設(shè)條件和公式推理,直接通過卷積運(yùn)算來學(xué)習(xí)相鄰幀之間的運(yùn)動信息,降低了特征提取的復(fù)雜度,提高了特征的語義性。此外,引入殘差塊能夠加深卷積結(jié)構(gòu),從而增強(qiáng)模型重建能力并提高重建視頻質(zhì)量。該文使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取的模塊如圖4所示。

        圖4 特征提取模塊

        圖4中展示了該特征提取模塊的操作流程,該模塊由一個卷積層和多個殘差塊組成。首先,輸入的相鄰奇數(shù)幀It+i經(jīng)過卷積網(wǎng)絡(luò)提取出其特征圖Ft+i,再將提取的特征圖Ft+i經(jīng)過殘差塊提高模型重建能力,最后將其用于特征插幀模塊的輸入。

        2.3 特征插值

        由于該模型是融合了時間域和空間域的視頻超分辨率重建模型,模型關(guān)鍵在于增強(qiáng)視頻幀間互補(bǔ)信息在時間和空間上的關(guān)聯(lián)性,因此特征時間插值模塊在相鄰幀的特征圖上直接對齊得到中間幀特征圖,而不是先重建生成中間幀再得到中間幀的特征圖。TDAN[12]基于可變形卷積的對齊模塊,利用卷積網(wǎng)絡(luò)學(xué)習(xí)幀間運(yùn)動進(jìn)行信息建模代替了光流預(yù)測法,能夠更好地對齊相鄰特征圖。融合了時間域和空間域的視頻超分辨率重建模型參考了TDAN提出的原理,采用同模型不同方向的卷積,并加入了特征時間插值模塊的設(shè)計,如圖5所示。

        圖5中,模塊輸入為相鄰的兩幀特征圖Ft+1和Ft-1,待插中間幀的特征圖為Ft,通過學(xué)習(xí)一個特征時間插值函數(shù)f(·)并利用相鄰的兩幀特征圖Ft+1和Ft-1直接合成和待插中間幀的特征圖Ft,它們之間的關(guān)系用公式表示為:

        Ft=f(Ft-1,Ft+1)=H(Ft-1→t,Ft+1→t),t∈2N

        (1)

        其中,F(xiàn)t+1→t為Ft+1到中間幀特征圖Ft的對齊特征,F(xiàn)t-1→t為Ft-1到中間幀特征圖Ft的對齊特征,H(·)為一聚合采樣特征的混合函數(shù)。

        圖5 特征時間插值模塊

        由于中間幀特征圖Ft還未合成,無法直接計算Ft與Ft-1、Ft與Ft+1之間的運(yùn)動信息,因此使用可變形采樣函數(shù)來隱式地獲取Ft-1與Ft+1之間的運(yùn)動信息,以此來近似代替。首先輸入Ft+1和Ft-1合并Concat后經(jīng)過3*3的卷積層,目的是減少通道數(shù)降低參數(shù)量。然后通過一個卷積層去預(yù)測輸出通道數(shù)量為|R|的采樣參數(shù)θ1,如式(2)所示:

        θ1=g1(Ft-1,Ft+1)

        (2)

        其中,采樣參數(shù)θ1為可偏移學(xué)習(xí)量,g1表示多個卷積層的一般函數(shù)。同理,輸入Ft-1和Ft+1,Concat后經(jīng)過3*3的卷積層,然后通過一個卷積層去預(yù)測輸出通道數(shù)量為|R|的采樣參數(shù)θ2,如式(3)所示:

        θ2=g2(Ft-1,Ft+1)

        (3)

        接著使用可變形卷積計算出Ft+1到中間幀特征圖Ft的對齊特征Ft+1→t和Ft-1到中間幀特征圖Ft的對齊特征Ft-1→t,如式(4)所示:

        Ft+1→t=T(Ft+1,θ1)=DConv(Ft+1,θ1)

        Ft-1→t=T(Ft-1,θ1)=DConv(Ft-1,θ2)

        (4)

        最后,得到的兩個對齊特征通過H(·)混合函數(shù)分別相乘1*1卷積層再對位相加得到了最終中間幀的特征圖Ft。

        2.4 特征融合

        該模型在特征融合模塊中引入自注意力機(jī)制,將通過聯(lián)合學(xué)習(xí)對齊得到的多特征圖的時間、空間維度特征信息賦予新的權(quán)重并重新分配,能夠自適應(yīng)地學(xué)習(xí)特征信息在不同維度之間的關(guān)聯(lián)性?;谶@種方法的特征融合,能夠增強(qiáng)有用特征而抑制無用特征,從而更好地處理特征的幀間運(yùn)動并利用幀內(nèi)信息在時間和空間上挖掘特征信息。其結(jié)構(gòu)如圖6所示。

        圖6 基于自注意力融合模塊

        如圖6所示,首先將需要融合的特征圖序列Fi合并concat后得到全部特征圖的和F,然后將特征圖通過全局池化層得到全部通道數(shù)的加權(quán)平均值向量S,其中S的通道數(shù)為C個,計算公式如式(5)所示:

        (5)

        接著使用兩個全連接層學(xué)習(xí)全部通道間的相關(guān)性,前一個全連接層使用壓縮因子r壓縮通道數(shù)C/r,后一個全連接層將通道數(shù)擴(kuò)為原始的通道數(shù)C,計算得到F的特征向量矩陣M,計算公式如式(6)所示:

        M=W2(σ(W1·F))

        (6)

        其中,W1和W2是兩個全連接層的權(quán)重矩陣。這樣先壓縮后擴(kuò)充通道的方法能夠給各通道分配各自的注意力,從而可以達(dá)到增強(qiáng)有用特征而抑制無用特征的目的。接著使用卷積核為1*1的卷積層來卷積壓縮特征圖的時間維,將Fi的尺寸從C*H*W變?yōu)镠*W,學(xué)習(xí)每個輸入特征矩陣在空間維度上的內(nèi)部相關(guān)性得到序列{qi}計算公式如式(7)所示:

        qi=CNN(W3·Fi)

        (7)

        式中,W3是卷積層的權(quán)重矩陣。

        將得到的{qi}和特征向量矩陣M進(jìn)行向量點乘得到通道和空間的相關(guān)性{Pi}計算公式,如式(8)所示:

        Pi=qi·M

        (8)

        使用激活函數(shù)sigmod得到更加突出重要元素的權(quán)重矩陣{gi},如式(9)所示:

        (9)

        式中,(w,h,c)指像素的空間坐標(biāo)和通道位置。最后將權(quán)重矩陣和輸入特征Fi對位求和得到最終的融合特征圖:

        (10)

        2.5 重建模塊

        現(xiàn)有常見的基于深度學(xué)習(xí)的重建網(wǎng)絡(luò)主要是提取出低分辨率圖像中的特征,并通過學(xué)習(xí)這些特征將它們擴(kuò)大成高分辨率圖像,從而實現(xiàn)超分辨率重建。該文提出的融合時間域與空間域的視頻超分辨率重建模型在重建時使用高分辨率圖像HR重建模塊,該模塊輸入來自低分辨率圖像中提取深層特征后構(gòu)成的特征圖序列,使用多個堆疊殘差塊和兩個卷積網(wǎng)絡(luò)將輸入的低分辨、高幀率的特征圖像序列轉(zhuǎn)為高分辨、高幀率圖像輸出。

        由圖7可知,HR重建模塊對輸入的特征圖序列使用殘差塊組成的網(wǎng)絡(luò)來繼續(xù)學(xué)習(xí)特征,這種方法能夠更好地利用圖像高頻信息[13],減小運(yùn)算量。最后利用亞像素卷積上采樣擴(kuò)大特征圖尺寸,輸出重建的目標(biāo)分辨率圖像。

        圖7 HR重建模塊

        3 實驗結(jié)果與分析

        3.1 實驗數(shù)據(jù)集

        為了驗證該文提出的融合時間域與空間域的視頻超分辨重建模型的有效性,使用視頻超分辨領(lǐng)域主流的數(shù)據(jù)集Vimeo-90k[14]、Vid4[15]對模型進(jìn)行實驗驗證,并將實驗結(jié)果和目前的視頻超分辨算法模型進(jìn)行比較。本模型在獲取低分辨率圖像數(shù)據(jù)集時采用雙三次插值下采樣方法,測試時對放大4倍的圖像進(jìn)行模型重建,并使用主觀視覺和客觀指標(biāo)峰值信噪比PSNR、結(jié)構(gòu)相似性SSIM[16]對模型重建效果進(jìn)行評價。

        3.2 實驗處理及參數(shù)設(shè)置

        由于下載的公開數(shù)據(jù)集主要是高分辨率視頻,而訓(xùn)練時需要與之對應(yīng)的低分辨率視頻,因此使用Matlab工具將高分辨率視頻下采樣縮小成與之對應(yīng)的低分辨率圖像,再分別將這些高分辨率圖像和低分辨率圖像生成lmdb格式以便作為輸入數(shù)據(jù)。本次實驗使用視頻序列中奇數(shù)標(biāo)簽作為輸入,訓(xùn)練模型配置文件參數(shù)如表1所示。

        表1 配置文件參數(shù)設(shè)置

        模型中使用的損失函數(shù)如式(11)所示:

        (11)

        3.3 實驗結(jié)果分析

        訓(xùn)練完成后,在Vid4和Vimeo-90k數(shù)據(jù)集上對構(gòu)建的融合時間域和空間域視頻超分辨率重建模型VTSSR的可行性和有效性進(jìn)行驗證。

        3.3.1 PSNR和SSIM指標(biāo)值

        從Vid4數(shù)據(jù)集和Vimeo-90k訓(xùn)練集中抽取測試集,對超分辨倍數(shù)為4的樣本進(jìn)行實驗,與兩種時間插幀模型Sepconv[17]、DAIN[18]和三種空間超分辨模型Biubic[19]、RCAN[19]、EDVR[6]聯(lián)合的方法進(jìn)行對比。VTSSR是該文構(gòu)建的融合時間域和空間域的視頻超分辨率重建模型。通過對比可以看出,該模型在一定程度上優(yōu)于其他模型,各自模型的峰值信噪比PSNR和結(jié)構(gòu)相似性SSIM指標(biāo)對比如表2所示。

        表2 模型客觀指標(biāo)對比(PSNR(DB)/SSIM)

        3.3.2 主觀對比

        為了進(jìn)一步對比重建效果,在Vimeo-90ktest數(shù)據(jù)集選取多個不同的視頻片段的圖像,對這些圖像進(jìn)行模型重建,并在主觀視覺上對高分辨率圖像、下采樣低分辨率圖像、SepConv+EDVR、DAIN+Bicubic、DAIN+RCAN與構(gòu)建的模型VTSSR的重建結(jié)果進(jìn)行評價對比;在Vid4數(shù)據(jù)集上將高分辨率圖像、下采樣低分辨率圖像與構(gòu)建的模型VTSSR的重建結(jié)果進(jìn)行評價對比。對比結(jié)果如圖8所示。

        圖8 Vimeo-90ktest和Vid4測試集主觀視覺對比

        圖8中,選取了Vimeo-90ktest和Vid4數(shù)據(jù)集中各一個視頻片段圖像,通過對比可以看出VTSSR模型主觀視覺優(yōu)于其他模型重建的效果。

        通過比較不同重建模型在相同測試集上的結(jié)果,提出的融合時間域和空間域的視頻超分辨率重建模型VTSSR在量化指標(biāo)和觀察主觀效果上都有一定的優(yōu)勢。

        4 結(jié)束語

        為提高視頻分辨率,構(gòu)建了一種融合時間域和空間域的視頻超分辨率重建模型VTSSR,可以在同一個網(wǎng)絡(luò)模型中同時對視頻進(jìn)行時間域和空間域超分辨率重建。該模型以低幀率的低分辨率視頻作為輸入,首先,使用卷積層和多個殘差塊進(jìn)行特征提取,使用幀特征插值生成中間幀的特征圖;其次,采用改進(jìn)的基于自注意力機(jī)制模塊,融合特征圖時間和空間信息;最后,采用亞像素卷積上采樣重建,輸出高幀率的高分辨率視頻。在Vimeo-90ktest和Vid4測試集上的測試表明,該模型能夠克服光流預(yù)測難以處理遮擋、復(fù)雜運(yùn)動的局限性、解決不同相鄰幀對于關(guān)鍵幀重建貢獻(xiàn)不同的問題。在Vimeo-90ktest測試集上其峰值信噪比為35.79 dB,結(jié)構(gòu)相似性為0.937 4;在Vid4測試集上其峰值信噪比為26.29 dB,結(jié)構(gòu)相似性為0.795 6,與其他重建模型相比均有提高。

        猜你喜歡
        低分辨率分辨率卷積
        基于全局和局部特征集成的低分辨率人臉識別方法
        紅外熱成像中低分辨率行人小目標(biāo)檢測方法
        基于偏移學(xué)習(xí)的低分辨率人體姿態(tài)估計
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        EM算法的參數(shù)分辨率
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        原生VS最大那些混淆視聽的“分辨率”概念
        樹木的低分辨率三維模型資源創(chuàng)建實踐
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        基于深度特征學(xué)習(xí)的圖像超分辨率重建
        亚洲色中文字幕无码av| 白丝美女扒开内露出内裤视频 | 日日拍夜夜嗷嗷叫国产| 国产精品成人一区二区三区| 白白色免费视频一区二区| 免费看草逼操爽视频网站| 亚洲av无码专区国产不卡顿| 最近中文字幕mv在线资源| 久久久久一| 久久久人妻精品一区bav| 日本大乳高潮视频在线观看| 中文字幕亚洲无线码| 无码无在线观看| 日韩高清不卡一区二区三区| 国产成人av一区二区三区| 国产欧美成人| 亚洲国产av中文字幕| 国产亚洲精品美女久久久久| 中文字幕久无码免费久久| 中文字幕精品一二三区| 毛片精品一区二区二区三区| 亚洲sm另类一区二区三区| 99久热re在线精品99 6热视频| 亚洲午夜久久久精品国产| 亚洲Av无码专区尤物| 蜜桃久久综合一区二区| 中文字幕日韩三级片| 亚洲中文无码成人影院在线播放| 天堂av在线一区二区| 不卡一区二区黄色av| 无码精品日韩中文字幕| 亚洲欧洲日韩另类自拍| 精品人妻少妇丰满久久久免| 日本午夜精品一区二区三区电影| 一级午夜视频| 97久久国产精品成人观看| 国产一级二级三级在线观看av | 欧美一级鲁丝片免费一区| 亚洲熟女少妇精品综合| 疯狂撞击丝袜人妻| 久久精品亚洲精品毛片|