陳志旺 王昌蒙 王 瑩 宋 娟 彭 勇
(燕山大學(xué)工業(yè)計(jì)算機(jī)控制工程河北省重點(diǎn)實(shí)驗(yàn)室 秦皇島 066004)(燕山大學(xué)國(guó)家冷軋板帶裝備及工藝工程技術(shù)研究中心 秦皇島 066004)
目標(biāo)跟蹤的主要任務(wù)是給定視頻序列中的第一幀目標(biāo)的初始狀態(tài)(目標(biāo)位置、目標(biāo)框尺度),在后續(xù)的視頻序列中去估計(jì)目標(biāo)新的運(yùn)動(dòng)軌跡或狀態(tài),它是計(jì)算機(jī)視覺(jué)中的一個(gè)基礎(chǔ)問(wèn)題。目標(biāo)跟蹤技術(shù)已經(jīng)廣泛應(yīng)用在安防監(jiān)控、人機(jī)交互、機(jī)器人、軍事偵查、智能交通[1]等領(lǐng)域,其實(shí)用價(jià)值日益增強(qiáng)。經(jīng)過(guò)多年的研究,目標(biāo)跟蹤技術(shù)已經(jīng)有了長(zhǎng)足的發(fā)展和進(jìn)步,但依舊面臨著很多復(fù)雜環(huán)境下的挑戰(zhàn),如目標(biāo)外形變化、光照變化、遮擋、背景復(fù)雜等,這些因素都將導(dǎo)致目標(biāo)漂移甚至跟蹤失敗。
跟蹤方法可以分為基于生成模型的跟蹤和基于判別模型的跟蹤。生成模型跟蹤方法應(yīng)用特征空間來(lái)描述目標(biāo),學(xué)習(xí)一個(gè)有代表性的目標(biāo)模型,利用該模型去搜索圖像區(qū)域,按照模式匹配的方法,在圖像中找到和該模型最匹配的區(qū)域即為目標(biāo)。比較典型的例子有均值漂移Meanshif[2]、粒子濾波Particle Filter[3]和L-K光流算法[4]。判別模型將跟蹤看成一個(gè)二分類(lèi)問(wèn)題,由構(gòu)建的正負(fù)樣本訓(xùn)練最優(yōu)分類(lèi)面,把目標(biāo)和背景在圖片中區(qū)分開(kāi)來(lái),將分類(lèi)器置信度最大的位置作為檢測(cè)到的目標(biāo)位置?;谥С窒蛄繖C(jī)[5](support vector machines,SVM)的方法,基于隨機(jī)森林[6](random forest,RF)分類(lèi)器的方法都是判別模型跟蹤方法的代表。近幾年,相關(guān)濾波理論被應(yīng)用于判別模型跟蹤算法中,取得了較好的跟蹤效果。
2010年,Bolme等人[7]提出了最小均方誤差輸出和(minimum output sum of squared error, MOSSE)相關(guān)濾波器,首次將相關(guān)濾波應(yīng)用到目標(biāo)跟蹤算法上,應(yīng)用灰度等級(jí)圖像提取單通道特征圖,在訓(xùn)練和檢測(cè)過(guò)程中利用相關(guān)濾波的性質(zhì),將時(shí)域的卷積操作轉(zhuǎn)化為頻域的點(diǎn)乘,使計(jì)算效率大大提高。2014年,Henriques等人[8]把核技巧引入到脊回歸中,提出了核相關(guān)濾波器(kernelized correlation filters,KCF)目標(biāo)跟蹤算法,應(yīng)用核函數(shù)把低維空間不可分地映射到高維核空間變?yōu)榫€(xiàn)性可分,應(yīng)用循環(huán)矩陣進(jìn)行正負(fù)樣本采集,由于循環(huán)矩陣在傅里葉空間可對(duì)角化,所以可將復(fù)雜的矩陣運(yùn)算轉(zhuǎn)化為元素的點(diǎn)乘,提高了運(yùn)算速度,同時(shí)利用脊回歸訓(xùn)練目標(biāo)檢測(cè)器,進(jìn)一步提升了跟蹤算法的性能。此后,很多研究者基于KCF跟蹤算法進(jìn)行了改進(jìn),大量論文相繼發(fā)表出來(lái)。胥方等人[9]針對(duì)核相關(guān)濾波(KCF)算法對(duì)快速移動(dòng)目標(biāo)跟蹤中由于邊界效應(yīng)導(dǎo)致誤差跳動(dòng)與跟蹤丟失的問(wèn)題,提出了基于核相關(guān)濾波的自適應(yīng)跟蹤算法。Danelljan等人[10]利用顏色(color-names,CN)特征來(lái)構(gòu)建目標(biāo)外觀特征,將RGB三通道的顏色轉(zhuǎn)換成11 種顏色特征,使用主成分分析[11](principal components analysis,PCA)將11維特征降至2維,得到目標(biāo)低維顏色特征,然后選擇最為明顯的顏色作為目標(biāo)特征進(jìn)行跟蹤。文獻(xiàn)[12]設(shè)計(jì)了2個(gè)相關(guān)濾波器,一個(gè)2維的位置濾波器和一個(gè)1維的尺度濾波器,分別實(shí)現(xiàn)目標(biāo)的位置跟蹤和目標(biāo)尺度變換,STAPLE算法[13]提出一種融合算法,用方向梯度方圖(HOG)特征和顏色直方圖特征2種互補(bǔ)的特征因子對(duì)目標(biāo)進(jìn)行學(xué)習(xí),融合跟蹤算法,在跟蹤速度有所提高的同時(shí),也保證了跟蹤效果。張立國(guó)等人[14]考慮到應(yīng)用環(huán)境復(fù)雜,跟蹤算法對(duì)光照變化魯棒性不強(qiáng),導(dǎo)致目標(biāo)跟蹤時(shí)數(shù)據(jù)丟失、實(shí)時(shí)跟蹤時(shí)檢測(cè)速度不夠等問(wèn)題,結(jié)合哈希指紋特征對(duì)光照變化魯棒性強(qiáng)的特點(diǎn),提出一種多尺度(multi-scale)感知哈希(Hash)特征的目標(biāo)跟蹤算法,即Mhash算法。
隨著深度學(xué)習(xí)在視覺(jué)分類(lèi)和檢測(cè)領(lǐng)域獲得突破性的進(jìn)展,由于其強(qiáng)大的特征學(xué)習(xí)能力使其在跟蹤領(lǐng)域也逐漸得到重視。DLT[15](deep learning tracking)是第一個(gè)在目標(biāo)跟蹤算法中引入深度學(xué)習(xí)的方法 。隨后,越來(lái)越多的深度神經(jīng)網(wǎng)絡(luò)模型,如自動(dòng)編碼機(jī)[16]、卷積神經(jīng)網(wǎng)絡(luò)[17](convolutional neural networks ,CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)[18](recurrent neural network,RNN)、孿生(siamese)網(wǎng)絡(luò)[19]等都被應(yīng)用到了目標(biāo)跟蹤領(lǐng)域,并在跟蹤效果上取得了較好的績(jī)。用于跟蹤的高效卷積運(yùn)算符(efficient convolution operators for tracking,ECO)[20]是C-COT[21]的改進(jìn)版本,C-COT在OTB100[22]上獲得了較好的效果,并且在VOT2016[23]獲得了第1名,ECO在C-COT的框架上旨在通過(guò)解決計(jì)算復(fù)雜度和過(guò)擬合問(wèn)題來(lái)同時(shí)提高速度和跟蹤效果。文獻(xiàn) [24]在ECO的基礎(chǔ)上,只用CNN提取的特征,將CNN的淺層特征和深層特征進(jìn)行融合,使追蹤器具有較好的性能。Bhat等人[25]通過(guò)分析淺層特征和深層特征的特征差異,提出兩種特征分而治之,深層特征部分加入了數(shù)據(jù)增強(qiáng),增加訓(xùn)練樣本數(shù)量,兩部分響應(yīng)圖自適應(yīng)融合,得到最優(yōu)的目標(biāo)定位結(jié)果。STRCF算法[26]將空間正則化和時(shí)間正則化應(yīng)用到判別相關(guān)濾波(discriminative correlation filter,DCF)框架中,使算法對(duì)目標(biāo)遮擋具有很強(qiáng)的魯棒性,并且能很好地適應(yīng)目標(biāo)較大的外觀變化,應(yīng)用交替方向乘子法(alternating direction method of multipliers,ADMM),在不降低效率的情況下提高了跟蹤的準(zhǔn)確性和速度。
本文在ECO算法的基礎(chǔ)上,為了提高算法的跟蹤速度,CNN提取的特征圖進(jìn)行插值處理時(shí)采取分層插值,分辨率較高的淺層特征不插值,分辨率低的深層特征插值,以此降低插值操作帶來(lái)的復(fù)雜運(yùn)算,提高跟蹤速度;在生成樣本空間策略上,保留了所有的樣本信息,使訓(xùn)練樣本集有更豐富的多樣性,并且考慮到每個(gè)特征層的權(quán)重不同對(duì)樣本的分類(lèi)會(huì)產(chǎn)生影響從而影響跟蹤效果,為不同特征層分配了不同的權(quán)重;為了能更好地應(yīng)對(duì)目標(biāo)尺度的變換,應(yīng)用文獻(xiàn)[12]提出的1維尺度濾波器對(duì)目標(biāo)尺度變換進(jìn)行估計(jì),把尺度的候選數(shù)從ECO算法中的5個(gè)增加到33個(gè),使尺度估計(jì)更加魯棒。
(1)
通過(guò)學(xué)習(xí)一個(gè)線(xiàn)性卷積算子Sf{xj},該算子通過(guò)尋找圖片區(qū)域中最大置信分?jǐn)?shù)來(lái)估計(jì)新一幀目標(biāo)位置,在連續(xù)域方程中,算子Sf{xj}是由一系列卷積濾波器f=(f1,f2,…,fd,…,fD)構(gòu)造出的,定義卷積算子為
(2)
這里*表示卷積運(yùn)算,下同。每個(gè)特征通道首先用式(1)進(jìn)行插值操作,然后和對(duì)應(yīng)的濾波器卷積,最后所有卷積響應(yīng)加起來(lái)產(chǎn)生最終的置信函數(shù)Sf{xj}。
每個(gè)訓(xùn)練樣本xj由卷積算子的期望輸出yj所標(biāo)定,所以相關(guān)濾波器的損失函數(shù)公式為
(3)
式中,αj表示每個(gè)訓(xùn)練樣本的權(quán)重,w是空間正則化懲罰項(xiàng),M表示訓(xùn)練樣本的個(gè)數(shù),通過(guò)最小化函數(shù)式(3)來(lái)訓(xùn)練濾波器f。
雖然C-COT算法在跟蹤效果上取得了非常好的效果,但是該算法模型參數(shù)多,需更新的參數(shù)達(dá)800 000個(gè),這么多參數(shù)除了速度慢,還容易引起過(guò)擬合;C-COT生成訓(xùn)練樣本集的方法是把每一幀的跟蹤結(jié)果放在一個(gè)訓(xùn)練集中,這樣隨著視頻越來(lái)越長(zhǎng),訓(xùn)練集就會(huì)越大,在更新模型時(shí)還是容易過(guò)擬合。
=f*PTJ{xj}
(4)
式(4)可以看作2步,首先把插值的特征圖乘以PT,得到C維的特征圖,然后再和相應(yīng)的濾波器f進(jìn)行卷積。因?yàn)镃 在ECO中,作者應(yīng)用高斯混合模型來(lái)生成訓(xùn)練樣本集,目的在于消除冗余和增加訓(xùn)練樣本集的多樣性。通過(guò)樣本x和目標(biāo)輸出y的聯(lián)合概率分布p(x,y),應(yīng)用高斯混合模型將目標(biāo)損失函數(shù)式(3)進(jìn)一步完善,用下式來(lái)訓(xùn)練濾波器: (5) 式中,L是高斯分組的個(gè)數(shù),θl是第l個(gè)分組的權(quán)重,ul是期望。從式(5)可以發(fā)現(xiàn),高斯期望ul和權(quán)重θl直接替換了式(3)中的xj和αj,在L個(gè)分組中,每個(gè)組內(nèi)樣本高度相似,代表某種特定場(chǎng)景,組與組間差異較大,增加了訓(xùn)練樣本的多樣性,減小了訓(xùn)練樣本集的大小,用式(5)代替式(3)來(lái)訓(xùn)練濾波器。 從第1節(jié)的介紹可以知道,C-COT和ECO跟蹤算法提出一種用于學(xué)習(xí)連續(xù)空間域中的卷積算子的新公式,利用插值模型從預(yù)訓(xùn)練好的深度網(wǎng)絡(luò)中提取出多分辨率特征圖。式(1)中利用了雙立方插值對(duì)提取的特征圖進(jìn)行插值處理。 雙立方插值的本質(zhì)是把圖像某個(gè)像素點(diǎn)最近的16個(gè)像素點(diǎn)權(quán)重卷積之和作為新的像素值。雙立方插值能得到精確的插補(bǔ)圖形,但也計(jì)算復(fù)雜,所以速度也很慢。在ECO算法中,應(yīng)用了CNN卷積神經(jīng)網(wǎng)絡(luò)提取的特征和人工設(shè)計(jì)的HOG特征進(jìn)行融合,CNN卷積神經(jīng)網(wǎng)絡(luò)選用的是VGGNet模型。圖1是應(yīng)用VGGNet網(wǎng)絡(luò)對(duì)輸入的圖片通過(guò)不同的卷積層提取的特征圖的可視化過(guò)程,本文里使用的是16層的VGGNet,應(yīng)用第3個(gè)卷積層(對(duì)應(yīng)圖1中的Layer1)提取的特征作為淺層特征和第14個(gè)卷積層(對(duì)應(yīng)圖1中的Layer5)提取的特征作為深層特征。 圖1 VGGNet各層卷積特征圖 ECO應(yīng)用雙立方插值把特征圖變?yōu)檫B續(xù)域來(lái)提高分辨率,由于雙立方插值計(jì)算比較復(fù)雜,如果對(duì)每層特征圖像都進(jìn)行插值無(wú)疑增加了計(jì)算的復(fù)雜度,從而影響跟蹤的速度。對(duì)于卷積神經(jīng)網(wǎng)絡(luò)提取的特征來(lái)說(shuō),淺層特征更有利于目標(biāo)的精確定位,而且淺層特征包含了較復(fù)雜的視覺(jué)信息,分辨率比較高,深層特征更能表達(dá)圖像的語(yǔ)義信息,能夠提高跟蹤器的魯棒性,但是分辨率會(huì)比較低。所以,為了提高跟蹤算法的速度,提出了對(duì)提取的特征進(jìn)行分層插值的改進(jìn)方法,對(duì)于分辨率較高的淺層特征不進(jìn)行插值,對(duì)包含較多語(yǔ)義信息的深層特征進(jìn)行插值。從圖1可以看出,隨著卷積層的增加,提取的特征越抽象,而且特征圖的分辨率也越來(lái)越低,對(duì)深層特征進(jìn)行插值來(lái)提高其分辨率非常有必要,圖2是對(duì)深層特征圖插值與不插值進(jìn)行的對(duì)比。 圖2 插值對(duì)比 圖2中,左圖是提取的未進(jìn)行插值處理的深層特征圖,右圖是對(duì)左圖進(jìn)行雙立方插值處理后的特征圖,可以看到直接提取的深層特征圖的分辨率非常低,在經(jīng)過(guò)插值處理后,深層特征圖的分辨率大大提高,對(duì)提高跟蹤器的魯棒性有很大的作用。插值的特征圖的公式可以用下式表示: (6) 式(6)是對(duì)特征層進(jìn)行插值的公式,和式(1)一樣,bd(t)是插值函數(shù),c2∈{1,…,c2,…,C2}是深層特征第c2個(gè)通道,ch∈{1,…,ch,…,Chog}表示HOG特征的第ch個(gè)通道,那么卷積算子的公式為 (7) 第1節(jié)介紹了樣本空間模型的生成方法,利用概率密度分布和高斯混合模型(GMM)把訓(xùn)練樣本集的個(gè)數(shù)分成L個(gè),更新GMM時(shí)采用Declercq和Piater提出的在線(xiàn)更新算法。給定一個(gè)新樣本xj,首先用θm=γ,um=xj初始化一個(gè)新的分組m,如果所分的組數(shù)超過(guò)設(shè)定的值,則對(duì)GMM進(jìn)行簡(jiǎn)化;如果某一分組的權(quán)重θl低于預(yù)先設(shè)置好的閾值,則用新樣本替換該組,否則合并2個(gè)距離最近的組k和l為一組,合并后的權(quán)重和均值由下式得到。 (8) 隨著視頻幀的不斷讀取,這種生成訓(xùn)練樣本集合的策略會(huì)把一些圖片從組中剔除掉,用新的一幀代替,這些被替換掉的圖片與分組中的圖片也存在著很高的相似性,這樣直接替換掉會(huì)使在訓(xùn)練樣本時(shí)可能會(huì)丟掉一些信息,使訓(xùn)練不充分,對(duì)后面進(jìn)行模型更新時(shí)會(huì)產(chǎn)生影響?;谏厦娴姆治龊脱芯?,本文在樣本集合分組上進(jìn)行了改進(jìn),把所有的圖片都進(jìn)行保留,不進(jìn)行替換,只進(jìn)行合并。后面的實(shí)驗(yàn)結(jié)果也驗(yàn)證了改進(jìn)策略的有效性。 在應(yīng)用高斯混合模型(GMM)進(jìn)行訓(xùn)練樣本集合分組時(shí),要用到提取的所有特征層的信息進(jìn)行計(jì)算來(lái)決定最終當(dāng)前幀圖片的分組情況。由于每種提取的特征在跟蹤時(shí)對(duì)跟蹤效果影響不同,簡(jiǎn)單的等權(quán)值融合在一起可能會(huì)導(dǎo)致不好的結(jié)果,所以應(yīng)給不同的特征層分配不同的權(quán)重來(lái)提高分組的效果。不同特征層的權(quán)重分配可以用下式來(lái)表示: (9) 針對(duì)目標(biāo)運(yùn)動(dòng)過(guò)程中出現(xiàn)的尺度變化問(wèn)題,一個(gè)理想的尺度估計(jì)方法可以精確有效地對(duì)目標(biāo)的大小進(jìn)行檢測(cè)提高跟蹤準(zhǔn)確率。判別尺度空間跟蹤(discriminative scale space tracker,DSST)算法是一種精確有效的尺度估計(jì)方法,采用1維的相關(guān)濾波器進(jìn)行尺度估計(jì),稱(chēng)為尺度濾波器,它可以將所提出的尺度估計(jì)的方法移植到任意算法中去,以下對(duì)DSST尺度估計(jì)濾波器的原理進(jìn)行介紹。 尺度濾波器是為適應(yīng)目標(biāo)尺度的變化設(shè)計(jì)的一維濾波器,用來(lái)估計(jì)目標(biāo)的尺度變化,算法中尺度評(píng)估的原則為 (10) 其中,W和R分別為前一幀目標(biāo)的寬和高,a為尺度因子,用來(lái)對(duì)目標(biāo)大小的控制,S為估計(jì)尺度的個(gè)數(shù)。 設(shè)輸入樣本xj中某一圖像塊的維度為D,為了得到最佳尺度相關(guān)濾波器fscale,最小化代價(jià)函數(shù): (11) 其中,*表示卷積,g為期望輸出,d表示特征的某一維度,φ為權(quán)重系數(shù)。將其轉(zhuǎn)換到復(fù)頻域中采用帕斯瓦爾(Parseval’s formula)定理求解可得: (12) (13) (14) 其中,η是學(xué)習(xí)率。 設(shè)Zj為以上一幀預(yù)測(cè)的目標(biāo)位置為中心的圖像塊,Zj為其經(jīng)離散傅里葉變換得到的變量,即選定的正樣本區(qū)域,在新的一幀中可通過(guò)求解離散傅里葉變換(DFT): (15) 本文實(shí)驗(yàn)硬件環(huán)境為Intel Core(TM) i7-8700K 3.70 GHz CPU,內(nèi)存(RAM)16 GB,算法開(kāi)發(fā)平臺(tái)Matlab 2016b。為了更好地評(píng)估跟蹤方法的性能,在實(shí)驗(yàn)中,采用OTB100數(shù)據(jù)集對(duì)跟蹤算法進(jìn)行跟蹤性能評(píng)估。首先對(duì)本文算法和ECO算法在跟蹤速度上進(jìn)行了實(shí)驗(yàn)對(duì)比,從OTB100中選擇了10個(gè)具有代表性的視頻序列對(duì)其跟蹤速度進(jìn)行了測(cè)試,測(cè)試結(jié)果如表1所示。從表1中可以看出,本文的方法在跟蹤速度上比ECO算法有非常大的提高。這也說(shuō)明在對(duì)提取的特征圖進(jìn)行分層插值的方法是可行的,可以提高跟蹤速度。 表1 部分視頻跟蹤速度對(duì)比結(jié)果 圖3是在OTB100測(cè)試集上跟蹤算法的成功率曲線(xiàn)圖,其中,圖3(a)為距離精度曲線(xiàn)圖,圖3(b)為重合度成功率曲線(xiàn)圖。從圖3中可以看出,在整體的跟蹤效果上,本文算法(Ours)無(wú)論是在距離精度上還是在重合度成功率上都比ECO算法要好,而且還超過(guò)了其他目前比較流行的算法,比如核相關(guān)濾波(KCF)跟蹤算法。在精確度上,本文算法(Ours)的結(jié)果為89.6%,ECO算法為87.8%,提高了2.05%,在成功率上,本文算法(Ours)的結(jié)果為81.6%,ECO算法為81.2%。 本文中使用多尺度濾波器,把目標(biāo)的尺度估計(jì)從ECO算法中的5個(gè)改進(jìn)為DSST算法中提出的33個(gè)。圖4是針對(duì)目標(biāo)尺度變化進(jìn)行的測(cè)試對(duì)比,從圖4中可以看到,在OTB100測(cè)試集中,有45個(gè)視頻序列目標(biāo)的尺度是不斷在發(fā)生變化的。曲線(xiàn)圖的結(jié)果顯示,本文的算法在面對(duì)目標(biāo)尺度變化時(shí)跟蹤的精確度為85.2%,成功率為78.0%,ECO算法的跟蹤精確度為84.2%,成功率為77.9%,可以看出,本文的算法在精確度和成功率上都比ECO中的尺度估計(jì)要好,也表明本文提出的尺度估計(jì)方法能較好地應(yīng)對(duì)目標(biāo)尺度的變化,在一定程度上同時(shí)提高了目標(biāo)的精確度和成功率。 圖3 總體成功率 在第2.2節(jié)中,對(duì)ECO的樣本空間生成進(jìn)行了改進(jìn),改進(jìn)方法有2點(diǎn):(1)不替換,所有樣本都保留分到不同組中;(2)在分組時(shí)給不同特征層分配不同的權(quán)重。針對(duì)不替換策略來(lái)生成樣本空間模型,在OTB100上做了單獨(dú)測(cè)試,測(cè)試結(jié)果如表2所示。為了找到最合適的權(quán)重分配,在OTB100上也做了大量實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表3所示。 圖4 尺度變化曲線(xiàn) 表2中加粗的數(shù)據(jù)是2種算法中表現(xiàn)最佳的數(shù)據(jù),從表2中可以看出,當(dāng)對(duì)生成樣本空間采用不替換策略時(shí),本文的算法在快速移動(dòng)、運(yùn)動(dòng)模糊、平面內(nèi)旋轉(zhuǎn)、低分辨率、遮擋、尺度變化屬性下精確度和成功率都超過(guò)了ECO算法;在形變和平面外旋轉(zhuǎn)屬性下,精確度超過(guò)了ECO,成功率略低或持平;在出視野屬性下,精確度和ECO持平,成功率高于ECO;但在背景復(fù)雜和光照變化下,略低于ECO。但是從整體的效果上看,在成功率上雖然與ECO持平,但是在精確度上好于ECO算法,說(shuō)明本文提出的不替換策略在一定程度上是能夠提升跟蹤效果的。 從表3中給CNN提取的淺層和深層特征分配權(quán)重不同所得到的結(jié)果可以看到,當(dāng)淺層特征分配的權(quán)重為0.8,深層特征權(quán)重為0.2時(shí),所得到的結(jié)果最好,其中成功率為81.6%,高于ECO,在精確度上為87.6%,略低于ECO。 表2 不替換策略精確度與成功率對(duì)比 表3 不同特征層權(quán)重分配精確度與成功率對(duì)比 在基于深度特征加人工特征與相關(guān)濾波相結(jié)合ECO目標(biāo)跟蹤算法的基礎(chǔ)上,對(duì)其進(jìn)行了3方面的改進(jìn)。在跟蹤速度上,采取對(duì)CNN提取的特征層進(jìn)行分層插值的方法,對(duì)其進(jìn)行了改進(jìn),改進(jìn)后算法的跟蹤速度比原來(lái)的速度有了很大的提高;在生成樣本空間時(shí),為了能保留訓(xùn)練樣本更多的信息,保留了所有圖片,并且在分組時(shí),考慮到各層權(quán)重不同會(huì)影響分組情況,即訓(xùn)練樣本集,從而影響跟蹤效果,所以給淺層和深層特征分配了不同的權(quán)重;為了能更好地估計(jì)目標(biāo)的尺度變化,對(duì)ECO的尺度估計(jì)進(jìn)行了改進(jìn),把DSST提出的尺度估計(jì)方法引入到本文中。在OTB100上的實(shí)驗(yàn)結(jié)果表明,本文算法無(wú)論是在跟蹤速度上還是在跟蹤效果上,都比ECO算法有所提升。1.3 樣本空間模型生成
2 改進(jìn)方法
2.1 CNN特征層分層插值
2.2 樣本空間分類(lèi)策略
2.3 多尺度估計(jì)濾波器
3 實(shí) 驗(yàn)
3.1 結(jié)果分析
3.2 樣本空間分類(lèi)策略實(shí)驗(yàn)
4 結(jié) 論