沈笑天,黨建武,王陽萍,雍 玖
(1.蘭州交通大學(xué) 電子與信息工程學(xué)院,甘肅 蘭州 730070;2.軌道交通信息與控制國家級(jí)虛擬仿真實(shí)驗(yàn)教學(xué)中心,甘肅 蘭州 730070)
目標(biāo)跟蹤技術(shù)是計(jì)算機(jī)視覺領(lǐng)域的研究重難點(diǎn),目前已經(jīng)廣泛應(yīng)用在鐵路視頻監(jiān)測(cè)、無人駕駛等眾多領(lǐng)域。但是當(dāng)這項(xiàng)技術(shù)運(yùn)用在鐵路復(fù)雜場(chǎng)景時(shí),經(jīng)常會(huì)存在背景雜亂、相似物體干擾和光照等對(duì)跟蹤影響較大的因素,而常見的鐵路沿線場(chǎng)景中經(jīng)常包含許多不同的影響因素,例如植被、軌道和列車等多種不同的物體,以及環(huán)境復(fù)雜多變等,導(dǎo)致最終無法對(duì)目標(biāo)進(jìn)行有效跟蹤。
收稿日期: 2023-06-30
基金項(xiàng)目:國家自然科學(xué)基金(62067006);教育部人文社會(huì)科學(xué)研究項(xiàng)目(21YJC880085);“區(qū)塊鏈+5G”甘肅省精準(zhǔn)扶貧智慧教育示范平臺(tái)建設(shè)(YDZX20206200003492)
Foundation Item: National Natural Science Foundation of China (62067006); Humanities and Social Sciences Research Program of the Ministry of Education(21YJC880085); “Blockchain+5G” Smart Education Demonstration Platform Construction for Targeted Poverty Alleviation in Gansu Province(YDZX20206200003492)
近年來,目標(biāo)跟蹤算法主要分為基于相關(guān)濾波的算法與基于深度學(xué)習(xí)的算法[1]。相關(guān)濾波這一概念最初來自信號(hào)領(lǐng)域,用于表示不同信號(hào)之間的相關(guān)性。應(yīng)用到跟蹤領(lǐng)域中就是將第一幀中給定的目標(biāo)特征作為濾波器模板,然后利用濾波器對(duì)當(dāng)前幀的圖像進(jìn)行相關(guān)操作,根據(jù)與圖像中不同位置相關(guān)的不同響應(yīng)值,找出響應(yīng)值最大的位置,即為需要跟蹤的目標(biāo)所在的當(dāng)前幀的位置。相關(guān)濾波算法中比較典型的算法有最小輸出平方誤差和(MOSSE)[2]算法,它最先將相關(guān)濾波技術(shù)應(yīng)用于目標(biāo)跟蹤;基于核相關(guān)濾波器(KCF)[3]的跟蹤算法加入了循環(huán)矩陣與HOG特征在速度足夠的情況下進(jìn)一步提高了精度;DSST[4]算法在滿足速度要求的同時(shí)加入了尺度模塊。但是,這類算法在遇到跟蹤場(chǎng)景中出現(xiàn)復(fù)雜場(chǎng)景以及特殊情況等問題時(shí),跟蹤就很容易發(fā)生偏移。隨著近幾年深度學(xué)習(xí)技術(shù)的發(fā)展,深度學(xué)習(xí)在目標(biāo)跟蹤中的應(yīng)用越來越廣泛,由于其包含大量不同種類的訓(xùn)練集,因此能應(yīng)對(duì)絕大多數(shù)的跟蹤情況。深度學(xué)習(xí)中基于孿生網(wǎng)絡(luò)的跟蹤算法最為具有代表性。SiamFC[5]算法采用全卷積孿生網(wǎng)絡(luò)結(jié)構(gòu)在精度與速度之間達(dá)成了很好的平衡,SiamRPN[6]在SiamFC的基礎(chǔ)上通過加入Faster R-CNN[7]中的區(qū)域候選網(wǎng)絡(luò)(Region Proposal Network,RPN)模塊,讓網(wǎng)絡(luò)可以解決原始的多尺度問題,SiamRPN++[8]將之前的特征提取網(wǎng)絡(luò)Alexnet替換成ResNet網(wǎng)絡(luò),使得網(wǎng)絡(luò)能夠提取更深層次的特征??偟膩碚f,基于孿生網(wǎng)絡(luò)的目標(biāo)跟蹤方法與基于相關(guān)濾波的方法相比,通常能夠取得更好的精度與速度,因此本文采用一種改進(jìn)的基于SiamRPN的孿生網(wǎng)絡(luò)目標(biāo)跟蹤算法來實(shí)現(xiàn)目標(biāo)跟蹤任務(wù)。
本文在SiamRPN算法的基礎(chǔ)上進(jìn)行改進(jìn),首先,將傳統(tǒng)互相關(guān)模塊替換為逐像素互相關(guān),同時(shí)將CIResNet-22結(jié)構(gòu)[9]作為特征提取骨干網(wǎng)絡(luò),加深了網(wǎng)絡(luò)的同時(shí)避免了由于特征填充帶來的位置偏差的問題。其次,融入一種基于標(biāo)準(zhǔn)化的注意力機(jī)制(NAM)[10],使網(wǎng)絡(luò)能夠結(jié)合上下文自主選擇對(duì)目標(biāo)跟蹤更有益的特征;加入一種改進(jìn)的模板更新子網(wǎng)絡(luò),加入正負(fù)樣本增強(qiáng)模塊,同時(shí)引入基于雙向一致性約束的損失計(jì)算公式。在采用預(yù)測(cè)模板之前,對(duì)跟蹤結(jié)果與目標(biāo)模板相關(guān)響應(yīng)進(jìn)行評(píng)估,同時(shí)利用模板更新子網(wǎng)絡(luò)進(jìn)行預(yù)測(cè),有效地解決了跟蹤過程中相似干擾物對(duì)跟蹤的影響,提升了跟蹤的精度。最后,制作鐵路復(fù)雜場(chǎng)景相關(guān)的跟蹤視頻序列數(shù)據(jù)集用作補(bǔ)充訓(xùn)練,使其對(duì)鐵路復(fù)雜場(chǎng)景更具有針對(duì)性。
在目標(biāo)跟蹤任務(wù)時(shí),孿生網(wǎng)絡(luò)主要包含模板分支與搜索分支兩大分支,模板分支通過對(duì)第一幀中待跟蹤目標(biāo)的特征進(jìn)行提取,再利用搜索分支中對(duì)后續(xù)幀中的目標(biāo)特征與模板特征進(jìn)行比對(duì),當(dāng)跟蹤結(jié)果良好時(shí),進(jìn)行下一幀搜索圖像的比對(duì),直至最后一幀跟蹤結(jié)束[11]。而孿生網(wǎng)絡(luò)在鐵路場(chǎng)景中主要的作用是對(duì)目標(biāo)進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)的特征提取,以便后續(xù)對(duì)目標(biāo)特征與視頻后續(xù)序列特征進(jìn)行分析比對(duì),并執(zhí)行目標(biāo)跟蹤任務(wù),使得孿生網(wǎng)絡(luò)在目標(biāo)跟蹤中的應(yīng)用能夠?qū)?yīng)到鐵路復(fù)雜場(chǎng)景中。
算法的整體架構(gòu)如圖1所示。
圖1 本文的網(wǎng)絡(luò)整體架構(gòu)Fig.1 The proposed overall network architecture
本文通過2支共享權(quán)重的改進(jìn)孿生網(wǎng)絡(luò)來構(gòu)成提取特征的主干網(wǎng)絡(luò),采用逐像素相關(guān)避免傳統(tǒng)相關(guān)過程中造成的空間信息模糊問題,同時(shí),注意力機(jī)制使網(wǎng)絡(luò)能夠注重于更有利于特征提取的區(qū)域。將跟蹤結(jié)果與目標(biāo)模板響應(yīng)值進(jìn)行評(píng)估,若跟蹤效果較差,則采用模板更新子網(wǎng)絡(luò)預(yù)測(cè)到的模板作為參考模板繼續(xù)跟蹤。
本文使用一種CIResNet網(wǎng)絡(luò)結(jié)構(gòu)作為特征提取主干網(wǎng)絡(luò),ResNet網(wǎng)絡(luò)的原始?xì)埐顔卧性跉埐顗K的最后添加裁剪操作,去除由于填充操作對(duì)特征計(jì)算帶來的影響,并且考慮到網(wǎng)絡(luò)的深淺會(huì)影響提取到的圖像的特征。因此,本文采用CIResNet-22網(wǎng)絡(luò)結(jié)構(gòu)作為本文的特征提取主干網(wǎng)絡(luò),該模型共有2個(gè)CIR模塊,能夠同時(shí)兼顧模型計(jì)算量大小和提取特征的有效性兩方面的問題。
在傳統(tǒng)的孿生網(wǎng)絡(luò)中,在對(duì)取得的特征圖進(jìn)行相關(guān)操作時(shí),常見的互相關(guān)方法大多是將整個(gè)模板特征作為卷積核與搜索區(qū)域進(jìn)行相關(guān)操作,例如傳統(tǒng)互相關(guān)(Naive Correlation)或者是深度互相關(guān)(Depth-wise Correlation),這些互相關(guān)由于窗口較大,都會(huì)造成在操作時(shí),使特征圖中空間信息模糊。因此,采用一種逐像素[12]相關(guān)的操作來避免該問題,逐像素相關(guān)操作的原理如式(1)所示:
C={Cj|Cj=Kj*S}j∈{1,2,…,H0×W0},
(1)
式中:Kj為將待相關(guān)的模板特征分解為H0×W0個(gè)1×1的卷積核,S為搜索區(qū)域的特征圖,*為原始互相關(guān),Cj為互相關(guān)的結(jié)果,將目標(biāo)特征的每一部分都與搜索區(qū)域做相關(guān),避免特征模糊。圖2為逐像素相關(guān)與其余相關(guān)方式示意。
圖2 3種不同互相關(guān)示意Fig.2 Diagram of three different cross-correlations
為了提升算法的準(zhǔn)確率,使用注意力機(jī)制以進(jìn)一步提升特征的表達(dá)能力。注意力機(jī)制能夠幫助網(wǎng)絡(luò)抑制不太顯著的像素或通道,使網(wǎng)絡(luò)結(jié)構(gòu)能夠更加側(cè)重地去關(guān)注對(duì)自己目標(biāo)工作有直接影響的特征,從而加強(qiáng)這一部分的關(guān)注度。
本文采用一種較為高效且輕量級(jí)的注意力機(jī)制NAM來提升網(wǎng)絡(luò)提取目標(biāo)特征的性能,它是以CBAM注意力模塊為基礎(chǔ),重新設(shè)計(jì)了通道注意力和空間注意力子模塊,對(duì)模塊的權(quán)重表示進(jìn)行了優(yōu)化。
在NAM中,通道注意力模塊使用BN(Batch Normalization)[13]層中的比例因子來對(duì)應(yīng)每一個(gè)通道方差的大小,如式(2)所示,方差越大則代表該通道中的信息變化越強(qiáng)烈,即通道中所包含的信息就會(huì)越豐富;相對(duì)于一些變化不是非常大的通道,所包含的信息也就會(huì)比較單一,與方差較大的通道相比所占重要性的比重也就越小。
(2)
式中:μB和σB分別為B的均值和標(biāo)準(zhǔn)差,γ和β為可訓(xùn)練的仿射變換參數(shù)(尺度和位移)。NAM中通道注意力子模塊如圖3所示,輸出特征為Mc,F1為輸入特征,如式(3)所示,其中Wγ為權(quán)重。
圖3 通道注意力模塊Fig.3 Channel attention module
Mc=sigmoid(Wγ(BN(F1)))。
(3)
在空間注意力模塊中,將圖像空間中的每一個(gè)像素使用相同的歸一化方法,就可以得到基于空間注意力的權(quán)重。那么相對(duì)應(yīng)的空間注意力模塊也與通道注意力模塊圖相似。空間注意力子模塊的輸出特征即為Ms,如式(4)所示:
Ms=sigmoid(Wλ(BNs(F2))),
(4)
式中:F2為輸入特征為,Wλ為權(quán)重。
在以孿生網(wǎng)絡(luò)為基礎(chǔ)的跟蹤算法中,第一幀中就對(duì)目標(biāo)模板進(jìn)行初始化,后面的搜索匹配都是以第一幀的模板為跟蹤標(biāo)準(zhǔn)進(jìn)行更新。在實(shí)際的目標(biāo)跟蹤任務(wù)中常常會(huì)因?yàn)槟繕?biāo)外觀的變化以及模板的不變性而導(dǎo)致跟蹤失敗,因此,及時(shí)對(duì)目標(biāo)模板進(jìn)行更新顯得迫在眉睫。本文在孿生網(wǎng)絡(luò)的基礎(chǔ)上加入了一種模板更新子網(wǎng)絡(luò)來對(duì)孿生網(wǎng)絡(luò)中的模板分支實(shí)現(xiàn)適時(shí)的更新。因?yàn)閷\生網(wǎng)絡(luò)中的模板部分采用的模板圖像一直是跟蹤序列里的首幀圖像,隨著目標(biāo)物體狀態(tài)的變化,后續(xù)幀中的目標(biāo)狀態(tài)很可能與模板幀中的狀態(tài)有著一定的差別,從而造成目標(biāo)跟蹤任務(wù)的失敗,因此使用模板更新子網(wǎng)絡(luò)對(duì)模板進(jìn)行同步更新。
為了應(yīng)對(duì)這一問題,本文在跟蹤結(jié)果更新時(shí)利用平均峰值相關(guān)能量(Average Peak-to-Correlation Energy, APEC)對(duì)跟蹤結(jié)果的響應(yīng)圖質(zhì)量進(jìn)行評(píng)估,來決定是否將模板更新子網(wǎng)絡(luò)預(yù)測(cè)的結(jié)果作為參考模板。APEC計(jì)算如下:
(5)
式中:Rmax表示響應(yīng)圖R中的最大值,Rmin表示響應(yīng)圖R中的最小值,Ri,j表示響應(yīng)圖R中第i行第j列的響應(yīng)值。APEC值能夠反映目標(biāo)跟蹤狀態(tài)的良好與否,當(dāng)跟蹤發(fā)生偏差導(dǎo)致跟蹤到非目標(biāo)物體時(shí),響應(yīng)圖的亞峰值就會(huì)增加,峰值就會(huì)減少,相對(duì)應(yīng)的APEC值就會(huì)變小;相反,當(dāng)跟蹤的目標(biāo)比較精準(zhǔn)時(shí),響應(yīng)圖的峰值保持在一種正常狀態(tài),亞峰值較小,APEC值就會(huì)變大。當(dāng)APEC值出現(xiàn)波動(dòng)時(shí),則啟用一種改進(jìn)的UpdateNet模板更新子網(wǎng)絡(luò)來預(yù)測(cè)模板,并且傳統(tǒng)的UpdateNet模板更新子網(wǎng)絡(luò)往往只更新了目標(biāo)的外觀變化信息,沒有關(guān)注目標(biāo)和相似干擾物之間的差異信息,對(duì)學(xué)習(xí)過程中存在的干擾沒有做任何處理,從而導(dǎo)致預(yù)測(cè)的模板位置發(fā)生偏差,導(dǎo)致模板預(yù)測(cè)失敗。
為了解決該問題,本文對(duì)原有的UpdateNet網(wǎng)絡(luò)進(jìn)行了修改,并引入了一種新的模板損失計(jì)算公式[14]:
(6)
實(shí)驗(yàn)環(huán)境配置如表1所示。
表1 實(shí)驗(yàn)環(huán)境
為了更加直觀地展示跟蹤的可視化結(jié)果,驗(yàn)證本文算法在實(shí)際視頻序列測(cè)試中的表現(xiàn),本文從OTB100數(shù)據(jù)集中選取了4組視頻序列用于驗(yàn)證本文算法,并進(jìn)行定性分析,圖5為視頻序列跟蹤結(jié)果。
圖5 視頻序列跟蹤對(duì)比Fig.5 Comparison of video sequence tracking
在第一段Liquor序列中,在中間幀不斷出現(xiàn)與目標(biāo)相似的物體來回移動(dòng),對(duì)目標(biāo)造成遮擋與干擾,在序列第362幀時(shí),只有本文算法與SiamDW算法能夠跟住目標(biāo),并且在第535幀時(shí),SiamDW算法也發(fā)生了跟蹤漂移的現(xiàn)象??芍?本文算法在跟蹤的過程中并未發(fā)生明顯的跟蹤丟失現(xiàn)象。
在第二段Coupon序列中,視頻序列為灰度序列,其主要難點(diǎn)在于干擾目標(biāo)與相似目標(biāo)有著極其相似的特征,且還存在一定程度的遮擋。在序列第127幀時(shí),各算法還能對(duì)目標(biāo)進(jìn)行有效跟蹤,當(dāng)跟蹤到第132幀時(shí),干擾目標(biāo)出現(xiàn),各算法都有不同程度的跟蹤偏移,只有本文算法能夠繼續(xù)對(duì)目標(biāo)進(jìn)行較為有效的跟蹤。
在第三段Box序列中,目標(biāo)不斷移動(dòng),大小也有著不同程度的變化,且伴隨著相似物遮擋與運(yùn)動(dòng)模糊的現(xiàn)象??梢钥吹?在第421幀時(shí),各算法都發(fā)生了不同程度的漂移,只有本文算法與CFNet算法能夠進(jìn)行有效跟蹤,在跟蹤進(jìn)行到455幀時(shí),目標(biāo)物體只暴露了三分之二,本文算法依然能跟蹤目標(biāo),其余算法都因?yàn)檎趽鯁栴}與相似物干擾問題產(chǎn)生了不同程度的跟蹤漂移現(xiàn)象。
在第四段序列中,跟蹤目標(biāo)進(jìn)行快速移動(dòng),且背景較為雜亂,對(duì)跟蹤影響較大。在第44幀時(shí)SiamFC和fDSST就已經(jīng)發(fā)生偏移,而SiamRPN雖然在第44幀與第178幀及后續(xù)中都能夠有效跟蹤目標(biāo),但是在第103幀時(shí),SiamRPN也受到背景影響,跟蹤發(fā)生了偏移。由圖5可知,本文算法依然能夠進(jìn)行有效跟蹤。
本文算法采用GOT-10K[15]數(shù)據(jù)集作為訓(xùn)練集,同時(shí)利用自制數(shù)據(jù)集作為補(bǔ)充數(shù)據(jù)集進(jìn)行針對(duì)性訓(xùn)練。
2.3.1 OTB與VOT數(shù)據(jù)集及評(píng)價(jià)指標(biāo)
本文采用OTB100[16]、VOT2016[17]以及VOT2018[18]數(shù)據(jù)集作為本文的測(cè)試集進(jìn)行標(biāo)準(zhǔn)性測(cè)試。評(píng)價(jià)指標(biāo)如下:
① OTB100數(shù)據(jù)集選用11種不同的屬性進(jìn)行注釋,OTB的評(píng)價(jià)指標(biāo)包含2個(gè)基本參數(shù)。精確度為跟蹤目標(biāo)的中心位置和人工標(biāo)注的準(zhǔn)確位置之間的平均像素距離,值越大表明誤差越大。成功率為通過統(tǒng)計(jì)跟蹤算法得到的邊界框和人工標(biāo)注的準(zhǔn)確邊界框之間的面積重疊比衡量跟蹤算法的性能。
② VOT數(shù)據(jù)集采用的評(píng)價(jià)指標(biāo)主要包括準(zhǔn)確率、魯棒性以及EAO。準(zhǔn)確率表示跟蹤器跟蹤的精確度,數(shù)值越大越準(zhǔn)確。魯棒性用來評(píng)價(jià)跟蹤器的穩(wěn)定性,數(shù)值越大,則穩(wěn)定性越差。EAO則是跟蹤器綜合了多種評(píng)價(jià)方法,能夠反映跟蹤器的綜合性能的一個(gè)評(píng)價(jià)指標(biāo)。
2.3.2 數(shù)據(jù)集實(shí)驗(yàn)結(jié)果
表2為6種算法在OTB100數(shù)據(jù)集上的成功率與精確度對(duì)比結(jié)果。從表中可以看出,本文算法在成功率和精確度上,均比SiamRPN有著不同程度的提升。
表2 OTB100數(shù)據(jù)集實(shí)驗(yàn)結(jié)果
表3、表4、圖6和圖7展示了VOT2016與VOT2018數(shù)據(jù)集上的各對(duì)比算法的實(shí)驗(yàn)結(jié)果。可以看出,本文算法相對(duì)于其他5種算法來說,具有良好的準(zhǔn)確率、魯棒性以及EAO綜合評(píng)分,能夠更有效地跟蹤已知目標(biāo)。
表3 VOT2016數(shù)據(jù)集實(shí)驗(yàn)結(jié)果
表4 VOT2018數(shù)據(jù)集實(shí)驗(yàn)結(jié)果
圖6 不同算法在VOT2016與VOT2018上的準(zhǔn)確率對(duì)比Fig.6 Comparison of accuracy of different algorithms on VOT2016 and VOT2018
圖7 不同算法在VOT2016與VOT2018上的EAO對(duì)比Fig.7 Comparison of EAO of different algorithms on VOT2016 and VOT2018
2.3.3 OTB與VOT數(shù)據(jù)集實(shí)驗(yàn)結(jié)果及分析
本文算法通過在數(shù)據(jù)集OTB100上進(jìn)行測(cè)試,分別選擇5種不同的跟蹤算法進(jìn)行對(duì)比實(shí)驗(yàn)??芍?本文算法成功率為67.3%,相對(duì)于SiamRPN提升了1.8%,相對(duì)于SiamDW提升了3.2%,相對(duì)于CFNet提升了8.2%;精確度為88.5%,相對(duì)于SiamRPN提升了1.7%,相對(duì)于SiamDW提升了3.2%,相對(duì)于CFNet提升了11.3%。成功率和精確度對(duì)比如圖8所示,圖9為6種算法在不同屬性下的成功率對(duì)比。
(a)成功率
(a)背景雜亂
現(xiàn)有的大量跟蹤數(shù)據(jù)集中,大都只關(guān)注自然類圖像,并沒有專門針對(duì)具有一定特殊性的鐵路場(chǎng)景的目標(biāo)跟蹤數(shù)據(jù)集,因此在原訓(xùn)練集中添加自行制作的鐵路復(fù)雜場(chǎng)景跟蹤序列共約40余組作為補(bǔ)充訓(xùn)練集,總計(jì)20 000余張序列圖片,其中包括鐵路中常見的轉(zhuǎn)轍機(jī)、信號(hào)燈和車廂等設(shè)備,還包含鐵路場(chǎng)景中可移動(dòng)目標(biāo)的運(yùn)動(dòng)以及目標(biāo)靜止?fàn)顟B(tài)下相機(jī)與目標(biāo)的相對(duì)運(yùn)動(dòng)2種目標(biāo)不同的運(yùn)動(dòng)方式。圖10為制作的鐵路場(chǎng)景數(shù)據(jù)集的部分跟蹤序列樣本。
圖10 自制鐵路場(chǎng)景部分?jǐn)?shù)據(jù)集Fig.10 Partial dataset of self-made railway scene
在實(shí)際測(cè)試中,選取3段不同的視頻序列作為測(cè)試集,如圖11所示。在序列一中,場(chǎng)景較為雜亂,儀器設(shè)備較為復(fù)雜,本文算法能夠有效進(jìn)行跟蹤;在第二段跟蹤序列中,光照較弱,且物體較為模糊,特征并不明顯,但是本文算法能夠進(jìn)行有效跟蹤;第三段視頻選取背景較為雜亂的序列且光照較弱,同時(shí)引入尺度變化因素,此時(shí)跟蹤仍然有效。實(shí)驗(yàn)證明,本文提出的算法在實(shí)際場(chǎng)景測(cè)試中能夠取得較好的結(jié)果。
圖11 自制視頻序列跟蹤測(cè)試Fig.11 Self-made video sequence tracking test
本文針對(duì)在鐵路復(fù)雜場(chǎng)景中跟蹤較為困難等問題,制作了鐵路復(fù)雜場(chǎng)景專用數(shù)據(jù)集,在SiamRPN的基礎(chǔ)上引入了CIResNet特征提取網(wǎng)絡(luò),同時(shí)引入逐像素相關(guān)且加入了注意力機(jī)制。通過APEC值確定跟蹤效果,對(duì)UpdateNet模板更新網(wǎng)絡(luò)進(jìn)行了改進(jìn),加入了正負(fù)樣本增強(qiáng)機(jī)制,提升了模型的抗干擾性,引入了一種新的基于雙向一致性約束的損失計(jì)算公式,使得模板更新子網(wǎng)絡(luò)能夠有更好的預(yù)測(cè)能力。
本文在OTB100、VOT2016和VOT2018標(biāo)準(zhǔn)數(shù)據(jù)集上分別進(jìn)行了測(cè)試,同時(shí)在自制視頻序列上進(jìn)行了跟蹤測(cè)試,均取得了較好的結(jié)果。實(shí)驗(yàn)結(jié)果表明,本文算法具有較好的準(zhǔn)確性,能夠?qū)δ繕?biāo)進(jìn)行有效跟蹤。