亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于時序信息和注意力機制的視頻目標檢測

        2022-01-22 02:17:44李韓玉劉新亮
        計算機仿真 2021年12期
        關(guān)鍵詞:注意力特征圖像

        蔡 強,李韓玉*,李 楠,劉新亮

        (1.北京工商大學(xué)計算機學(xué)院,北京 100048;2.北京工商大學(xué)人工智能學(xué)院,北京 100048;3.北京工商大學(xué)電商與物流學(xué)院,北京 100048;4.農(nóng)產(chǎn)品質(zhì)量安全追溯技術(shù)及應(yīng)用國家工程實驗室,北京 100048;5.食品安全大數(shù)據(jù)技術(shù)北京市重點實驗室,北京 100048)

        1 引言

        近年來,視頻監(jiān)控、無人駕駛、人機交互的迅速發(fā)展,賦予了視頻目標檢測巨大的研究價值。2015年ImageNet VID[1]數(shù)據(jù)集的提出,將視頻目標檢測推向了高潮。由于視頻中存在運動模糊、遮擋、形態(tài)變化多樣性、光照變化多樣性等問題,僅利用圖像目標檢測技術(shù)[2-5]對視頻中的目標進行檢測得不到理想的檢測結(jié)果?,F(xiàn)有的視頻目標檢測方法主要分為基于邊界框間關(guān)系的模型[6-8]和基于特征融合的模型[9,10]?;谶吔缈蜷g關(guān)系的模型通常利用圖像目標檢測器對每一幀視頻進行檢測,生成目標的邊界框;然后,在時間維度將連續(xù)幀中的邊界框進行關(guān)聯(lián),調(diào)整目標邊界框的置信度分數(shù),實現(xiàn)視頻目標檢測。此類方法作為一個后處理步驟,需要在每幀的檢測結(jié)果上額外運行,極大的消耗了計算量且存在資源浪費的問題。而基于特征融合的模型,在檢測視頻的過程中融合相鄰幀之間的特征,以增強被檢測幀的特征,直接生成高質(zhì)量的邊界框。與基于邊界框間關(guān)系的模型相比,基于特征融合的模型是一種端到端的啟發(fā)式學(xué)習(xí)算法,并且高效、容易實現(xiàn)。

        無論是基于邊界框間聯(lián)系的模型,還是基于特征融合的模型算法,它們的主旨都是為了充分的利用視頻中的時序信息,并將其加入到檢測過程中。由此可見,解決視頻目標檢測的問題之一在于視頻中時序信息的挖掘及使用。當前主要采用光流圖像[11,12]和運動歷史圖像[13]表征時序信息,相較于運動歷史圖像來說,雖然光流[11,12]的性能更好,但對于實時系統(tǒng)來說,代價昂貴,而且不適合在長時間內(nèi)對運動信息進行編碼。因此,本文中采用運動歷史圖像[13]作為運動表示,可以非常有效地計算,并為傳播保留足夠的運動信息。

        圖1 網(wǎng)絡(luò)結(jié)構(gòu)圖

        注意力模型在自然語言處理領(lǐng)域[14,15]的成功應(yīng)用,推動了注意力機制在計算機視覺任務(wù)中的發(fā)展。2019年CBAM[16]提出,在給定一個中間特征圖的情況下,沿著通道和空間兩個單獨的維度依次推斷注意力圖,然后將注意力圖乘到輸入特征圖中進行自適應(yīng)特征細化。

        受到以上啟發(fā),本文提出了基于時序信息和注意力機制的視頻目標檢測算法(TIAM)。

        2 基于時序信息和注意力機制的視頻目標檢測算法

        圖像目標檢測算法主要分為雙階段目標檢測算法[3,4]和單階段目標檢測算法[5],單階段目標檢測算法雖然運算速度較快,但是由于其召回率較低而且很難擴展到比較復(fù)雜的任務(wù),例如關(guān)鍵點檢測和實例分割。因此,本文采用2015年R.Girshick等人提出的Faster RCNN[4]算法作為基礎(chǔ)網(wǎng)絡(luò)。接下來首先介紹 Faster RCNN[4]的算法流程,其次介紹TIAM模型的網(wǎng)絡(luò)結(jié)構(gòu)及其重要組成。

        2.1 Faster RCNN算法流程

        Faster RCNN[4]是基于區(qū)域提議的視頻目標檢測算法,首先通過卷積神經(jīng)網(wǎng)絡(luò)對輸入的圖片進行特征提取,其次區(qū)域提議網(wǎng)絡(luò)(Region Proposal Network,RPN)根據(jù)提取到的特征生成可能包含目標的候選區(qū)域即感興趣的區(qū)域(Regions of Interest,ROI),同時將ROI映射回特征圖上,最后,F(xiàn)ast RCNN[3]通過區(qū)域池化(Regions of Interest Pooling,ROI pooling)提取出固定長度的特征張量,并對特征張量進行分類和位置回歸預(yù)測得到最終的邊界框。

        Faster RCNN[4]采用錨點的方式來生成候選區(qū)域,每一個錨點對應(yīng)生成 9 個候選框,其中候選框的大小分別為 1282、 2562、 5122;長寬比為1:1、 1:2、 2:1。該方法提高了候選框的召回率,是 Faster RCNN[4]檢測精度提升的原因之一。

        2.2 網(wǎng)絡(luò)結(jié)構(gòu)

        文中選取 Resnet101[17]實現(xiàn)的Faster RCNN[4]為基礎(chǔ)網(wǎng)絡(luò)。整體網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,圖中實線矩形框部分和注意力模塊的引入為本文的改進。算法的整體步驟如下:

        第一步,提取視頻幀對應(yīng)的運動歷史圖像;

        第二步,采用ResNet18[17]網(wǎng)絡(luò)和ResNet101[17]網(wǎng)絡(luò)提取運動歷史圖像以及視頻幀的特征,得到運動歷史圖像的特征圖和視頻幀的特征圖;

        第三步,采用注意力模塊對步驟二中兩個特征圖中的重要特征進行加權(quán);

        第四步,對第三步中的特征圖采用特征通道疊加的算法進行融合得到最終的特征圖;

        第五步,將得到的特征圖輸入到RPN層,得到可能包含目標的候選區(qū)域(ROI);

        第六步,將ROI映射回特征圖上;

        第七步,采用Fast RCNN[3]提取出固定長度的特征張量,并對特征張量進行分類和位置回歸預(yù)測得到最終的邊界框。

        2.3 運動歷史圖像

        當前視頻中時序信息的編碼方式主要有兩種,分別為采用光流圖像[12]編碼和采用運動歷史圖像[13]編碼。光流圖像[12]的性能雖好,但不適合在長時間內(nèi)對運動信息進行編碼。因此,本文采用運動歷史圖像[13]作為運動表示,不僅計算相對簡單,還可以為傳播保留足夠的運動信息。

        運動歷史圖像[13]通過計算一段時間內(nèi)同一位置的像素變化,將目標運動情況以圖像亮度的形式表現(xiàn)出來,即視頻中越后運動的部位,像素的灰度值越高。運動歷史圖像的計算如式(1)[13]和式(2)[13]所示。

        φ(x,y,t)=|I(x,y,t)-I(x,y,t-1)|

        (1)

        (2)

        式(1)和式(2)中,I(x,y,t)代表第t幀圖像中位置的像素值,(x,y)即為相鄰兩幀圖像之間的差值;δ為預(yù)先設(shè)定的閾值,判斷相鄰兩幀圖像中的目標是否發(fā)生了運動;τ為視頻的持續(xù)時間。

        如圖2所示,左側(cè)為相鄰兩幀的視頻圖像,右側(cè)為其運動歷史圖像,對比紅線橢圓部分可以發(fā)現(xiàn)鳥的翅膀在逐漸張開,由此可見,運動歷史圖像描述了目標的運動信息,可以幫助模型更好的預(yù)測目標的位置。

        圖2 運動歷史圖像對比圖

        2.4 注意力模塊

        為了對提取到的特征進行細化,提高特征的代表性。本文將 CBAM[16]提出的注意力模塊應(yīng)用于視頻目標檢測中,以便模型在訓(xùn)練過程中給重要特征較高的權(quán)重,同時抑制不必要的特征。該模塊沿著通道和空間兩個單獨的維度依次推斷注意圖,然后將注意圖乘到輸入特征圖中進行自適應(yīng)特征細化。注意力機制的計算過程如式(3)[16]和式(4)[16]所示。

        Fchannel=Mc(F)?F

        (3)

        Fspatial=Ms(Fchannel)?Fchannel

        (4)

        式中,F(xiàn)為輸入的特征圖,Mc為通道注意力圖(詳見圖3(a)),?為點乘操作,F(xiàn)channel為計算通道注意力后生成的特征圖;式(4)中Ms為空間注意力圖(詳見圖3(b)),F(xiàn)spatial為計算空間注意力后生成的特征圖,是最終的特征圖。

        注意力模塊的結(jié)構(gòu)如圖3所示,圖3(a)為通道注意力模塊,利用特征的通道關(guān)系,生成通道注意力圖。首先通過平均池化和最大池化融合特征圖中的空間信息,生成兩種不同的空間上下文表示:平均池化特征和最大池化特征。將得到的特征輸入到共享卷積網(wǎng)絡(luò)中,使用按元素求和的方式對輸出的特征向量進行合并。圖3(b)為空間注意力模塊,利用特征間的空間關(guān)系,生成空間注意力圖。首先在通道維度上進行平均池化和最大池化運算,然后把結(jié)果結(jié)合起來生成一個有效的特征描述,然后沿著通道軸應(yīng)用池化操作可以有效地突出顯示信息區(qū)域。

        圖3 注意力模塊結(jié)構(gòu)

        2.5 特征融合

        為了最大程度的利用視頻中包含的信息,本文將視頻幀的特征信息和運動歷史圖像的特征信息進行融合,特征融合的計算如式(5)所示。

        (5)

        式(5)中xi和yi分別表示兩路待融合的特征即視頻幀的特征和運動歷史圖像的特征,i和j分別代表特征所包含的通道數(shù),本文中i=1024,j=256。此種特征融合方式可以保證各通道特征信息不發(fā)生變化的同時增加視頻幀的特征。和其它特征融合的方法相比,該算法在產(chǎn)生檢測結(jié)果之前,通過收集視頻幀序列中的高級信息,為模型的訓(xùn)練提供了豐富的語義信息,從而增強了模型的魯棒性和健壯性。

        3 實驗

        3.1 數(shù)據(jù)集及實驗環(huán)境

        該工作以2015年提出的大規(guī)模視頻目標檢測的基準數(shù)據(jù)集ImageNet VID[1]作為實驗用的數(shù)據(jù)集,該數(shù)據(jù)集共包含30個類別的目標,是ImageNet DET圖像數(shù)據(jù)集中類別的子集,這些類別考慮了不同的因素,如移動類型、視頻雜亂程度、對象實例的平均數(shù)量以及其它一些因素,可以進行廣泛的研究。數(shù)據(jù)集中包含的訓(xùn)練集和驗證集已經(jīng)被全部標注,詳細信息如表1所示。本文在訓(xùn)練集上訓(xùn)練模型,并使用平均精度均值(mAP)度量驗證集上的性能。

        表1 ImageNet VID數(shù)據(jù)集詳情

        本文基于pytorch框架進行實驗,實驗的軟件環(huán)境為windows 10,x64操作系統(tǒng),硬件環(huán)境為Intel(R)Xeon(R)CPU E5-2603 v3 @ 1.60GHz,8GB RAM和兩個GPU(NVIDIA TitanX),具體的訓(xùn)練參數(shù)設(shè)置如表2所示。

        表2 訓(xùn)練參數(shù)設(shè)置

        3.2 運動歷史圖像參數(shù)選擇

        運動歷史圖像[13]的參數(shù)選擇直接影響模型獲取目標運動信息的準確度。視頻持續(xù)時間τ過小,會使獲得的目標運動軌跡的信息較少,當τ值過大時,會使獲得的目標運動軌跡強度變化不明顯;對于差異閾值δ而言,取值太小,獲取的運動歷史圖像會出現(xiàn)許多雜亂的噪點,無法很好的區(qū)分前景與背景;取值太大,圖中像素強度值較小的區(qū)域則會消失,出現(xiàn)空洞,損失目標信息。為了使得到的目標運動信息更加準確,本文可視化了不同參數(shù)的運動歷史圖像,使其最大化表征視頻中的高級語義信息。

        圖4給出了視頻持續(xù)時間τ以及判定視頻幀之間目標是否發(fā)生運動的閾值δ設(shè)定為不同值時的運動歷史圖像效果圖。經(jīng)過對比,發(fā)現(xiàn)τ=15,δ=46時運動歷史圖像可以較多的保留運動信息同時很好的區(qū)分前景和背景。

        圖4 不同參數(shù)的運動歷史圖像

        為了測試運動歷史圖像[13]對模型的影響,本文設(shè)計了如下實驗。首先提取原始視頻幀的特征,得到一個具有1024通道的特征圖,提取對應(yīng)運動歷史圖像的特征得到一個256通道的特征圖,將兩個特征圖進行融合,得到一個具有1280通道的特征圖,然后,利用1×1的卷積,對當前的特征圖進行降維,得到具有1024通道的特征圖,輸入到后續(xù)的網(wǎng)絡(luò)中進行訓(xùn)練。如圖5所示,相對于Faster RCNN[4],加入運動歷史圖像后,模型整體的平均精度均值都提高了0.4%。

        圖5 運動歷史圖像對模型的影響

        3.3 注意力模塊位置對模型的影響

        在拍攝視頻的過程中,攝像頭的移動可能會使模型將背景誤判為前景,因此得到的運動歷史圖像中可能會包含一些背景信息,為了降低背景信息對模型造成的影響,本文引入了注意力機制[16]。注意力機制的引入可以使模型將焦點放在重要的特征上,同時抑制不重要的特征,能夠?qū)μ卣鬟M行細化并提高區(qū)域特征的代表性。本文設(shè)計了如下實驗,測試注意力模塊位置對模型產(chǎn)生的影響。

        如圖6所示,F(xiàn)R+MHI表示不加入注意力;mhi+attention和FR+attention分別表示在運動歷史圖像的特征和視頻幀的特征上加入注意力;從圖中可以看出,是否加入注意力與模型的平均精度均值成正相關(guān),運動歷史圖像特征圖中包含的信息比視頻幀特征圖中包含的信息少,因此,在視頻幀特征圖中加入注意力模塊的模型平均精度均值較高。而本文提出的TIAM算法在以上兩個特征圖中都加入了注意力模塊,平均精度均值達到了74.85%。

        圖6 注意力模塊對模型的影響

        圖7 ImageNet VID 驗證集的檢測結(jié)果

        3.4 綜合性能的對比

        TIAM采用運動歷史圖像表示視頻中的時序信息,代替了基于邊界框間關(guān)系算法Seq-NMS[6]、T-CNN[7]、MoveTubelets+ED-LSTM[8]中的后處理步驟,不再需要對每幀的檢測結(jié)果進行跟蹤校正,是一種端到端的算法,減少了資源浪費;采用運動歷史圖像代替基于特征融合算法DFF[9]中的光流圖像表示視頻中的時序信息,為模型提供了足夠的運動信息。

        從表3中可以看出:TIAM在 T-CNN[7]的基礎(chǔ)上提升了13.35個百分點,在DFF[9]的基礎(chǔ)上提升了 1.75個百分點,充分驗證了模型的有效性。但是在速度方面,相對于DFF[9],TIAM的速度較慢,這是由于TIAM中為了提高特征的代表性,增加了運動歷史圖像特征提取模塊和注意力機制模塊,犧牲了算法的速度。

        表3 不同方法的準確率對比

        圖7將ImageNet VID[1]數(shù)據(jù)集中驗證集上的檢測結(jié)果進行了可視化,選取了視頻中第k、k+3、k+6、k+9幀進行了展示,其中k=1,表示視頻序列中視頻幀的索引。圖中的紅色矩形框即為模型預(yù)測的目標位置,可以看到預(yù)測目標的邊界框和目標的大小基本吻合。

        4 結(jié)束語

        針對視頻目標檢測中存在運動模糊、遮擋、形態(tài)變化多樣性、光照變化多樣性等問題,本文在Faster RCNN算法的基礎(chǔ)上,用能夠保留足夠目標運動信息的運動歷史圖像,表征目標的運動信息;引入注意力機制進行特征細化,提高了區(qū)域特征的代表性,加快了模型的收斂。算法的準確率達到了74.85%,較Faster RCNN算法提高了4.95%。由于實驗更加注重視頻目標檢測的準確率,所以,還有一些和速度相關(guān)的重要方面有待探討。同時,實驗還證明了遷移學(xué)習(xí)的有效性。

        猜你喜歡
        注意力特征圖像
        改進的LapSRN遙感圖像超分辨重建
        讓注意力“飛”回來
        有趣的圖像詩
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        “揚眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        遙感圖像幾何糾正中GCP選取
        亚洲中文字幕无码久久| 加勒比无码专区中文字幕| 久久精品国产72国产精福利 | 亚洲一区域二区域三区域四| 丝袜美腿亚洲综合一区| 无套内谢孕妇毛片免费看| 色 综合 欧美 亚洲 国产| 亚洲羞羞视频| 国产亚洲青春草在线视频| 国产自拍偷拍视频免费在线观看 | 无码人妻丰满熟妇精品区| 亚洲AV小说在线观看| 男女激情视频网站免费在线| 欧美熟妇另类久久久久久不卡| 精品国产一区二区三区久久狼| 456亚洲人成在线播放网站| 久久综合伊人有码一区中文字幕| 久久精品国产亚洲av无码偷窥| 久久人人爽天天玩人人妻精品| 国产一区二区三区爆白浆| 中文字幕人妻互换激情 | 91亚洲最新国语中文字幕| 国产精品对白一区二区三区| 色噜噜狠狠狠综合曰曰曰| 亚洲欧洲精品成人久久曰影片| 亚洲国产福利成人一区二区| 精品亚洲一区二区三洲| 亚洲成aⅴ人片久青草影院 | 亚洲桃色蜜桃av影院| 国产成人小视频| 丰满多毛少妇做爰视频| 久久久婷婷综合亚洲av| 色佬精品免费在线视频| 人妻无码aⅴ不卡中文字幕| 亚洲成人中文| 日韩精品少妇专区人妻系列| 免费人妖一区二区三区| 国产永久免费高清在线| 亚洲аv天堂无码| 亚洲日本精品一区二区三区 | 操老熟妇老女人一区二区|