竇 慧,趙書斌,王 強(qiáng)
(江蘇自動(dòng)化研究所,江蘇連云港 222061)
?
基于特征點(diǎn)的典型目標(biāo)跟蹤算法性能分析
竇 慧,趙書斌,王 強(qiáng)
(江蘇自動(dòng)化研究所,江蘇連云港 222061)
目標(biāo)跟蹤問題是當(dāng)前計(jì)算機(jī)視覺領(lǐng)域中的熱點(diǎn)問題之一。本文主要對基于特征點(diǎn)的目標(biāo)跟蹤進(jìn)行介紹。首先,對目標(biāo)跟蹤的定義、過程和主要應(yīng)用領(lǐng)域進(jìn)行了概述;其次,闡述了運(yùn)動(dòng)目標(biāo)跟蹤算法的分類,并介紹了基于特征的跟蹤算法的研究現(xiàn)狀;隨后介紹了典型的特征提取和描述方法,并從理論的角度分析各跟蹤算法性能;針對基于特征點(diǎn)的典型跟蹤算法,在目標(biāo)尺度和形狀的變化、跟蹤過程中發(fā)生遮擋情況等方面的場景下進(jìn)行實(shí)驗(yàn),對算法性能進(jìn)行分析比較。從理論和實(shí)驗(yàn)的角度相互驗(yàn)證了基于特征點(diǎn)的典型跟蹤算法的性能并給出相關(guān)結(jié)論。
目標(biāo)跟蹤;性能分析;特征點(diǎn)
目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域中的重要研究課題[1]。目標(biāo)跟蹤技術(shù)在人機(jī)交互[2]、智能交通[3]、無人駕駛[4]等方面有廣泛應(yīng)用。目標(biāo)跟蹤是指目標(biāo)在某種場景中運(yùn)動(dòng)時(shí),建立其在此期間的運(yùn)動(dòng)軌跡。換句話說,目標(biāo)跟蹤的目的是在序列圖像中的每幀中實(shí)時(shí)地確定運(yùn)動(dòng)目標(biāo)位置、速度等信息[5]。
目標(biāo)跟蹤算法分為量測部分、更新策略、預(yù)測部分[6]。量測部分包括目標(biāo)的表達(dá)和匹配過程;更新策略包括對模板、目標(biāo)位置、速度等相關(guān)參數(shù)進(jìn)行更新;預(yù)測部分是基于量測數(shù)據(jù),利用濾波算法對目標(biāo)狀態(tài)進(jìn)行預(yù)測。
運(yùn)動(dòng)目標(biāo)跟蹤算法根據(jù)目標(biāo)的表達(dá)可分為基于區(qū)域的跟蹤算法、基于輪廓的跟蹤算法、基于模型的跟蹤算法、基于特征的跟蹤算法[7]。
基于特征的跟蹤算法使用目標(biāo)的某個(gè)或某些局部特征表示目標(biāo)。與基于區(qū)域的跟蹤算法相比,基于特征的跟蹤算法在目標(biāo)發(fā)生部分遮擋時(shí)也可實(shí)現(xiàn)跟蹤。與基于輪廓和基于模型的跟蹤算法相比,基于特征的跟蹤算法更具有普遍性,適用目標(biāo)更廣,計(jì)算復(fù)雜度更低[8]。
基于特征的跟蹤算法根據(jù)自身特性應(yīng)用于不同情況。文獻(xiàn)[9]采用基于Harris特征點(diǎn)的跟蹤算法,提取目標(biāo)上穩(wěn)定性高的輪廓交叉點(diǎn),不隨目標(biāo)姿態(tài)變化消失,從而確定目標(biāo)模板進(jìn)行跟蹤,并通過實(shí)驗(yàn)證明跟蹤具有極高的穩(wěn)定性。文獻(xiàn)[10]將簡化SIFT算法應(yīng)用于目標(biāo)跟蹤算法中,降低了算法復(fù)雜度和對內(nèi)存空間的要求,并將算法應(yīng)用到實(shí)際工程中。
基于特征的跟蹤算法的跟蹤流程包括:1)初始幀進(jìn)行目標(biāo)檢測或直接選取目標(biāo);2)選取合適的模板并進(jìn)行特征提取和表達(dá);3)讀取視頻當(dāng)前幀圖像,根據(jù)濾波算法獲得目標(biāo)在當(dāng)前幀的預(yù)測參數(shù),確定搜索范圍;4)在搜索范圍內(nèi)進(jìn)行特征提取和表達(dá),以一定的匹配算法對當(dāng)前幀特征和模板特征進(jìn)行匹配;5)驗(yàn)證匹配結(jié)果,若匹配成功則根據(jù)匹配特征對參數(shù)確定目標(biāo)在當(dāng)前幀的位置等信息,并按策略更新模板,若匹配失敗則放棄該幀;重復(fù)過程2)~5)對目標(biāo)進(jìn)行跟蹤。
由此可見,基于特征的跟蹤算法最關(guān)鍵的問題之一是特征的選擇、提取和描述,針對具體場景選取合適的目標(biāo)特征,是目標(biāo)跟蹤成敗的關(guān)鍵。本文主要討論攝像機(jī)靜止條件下采用不同特征點(diǎn)對目標(biāo)跟蹤算法的影響,故省略目標(biāo)跟蹤中的濾波過程。
影響目標(biāo)跟蹤技術(shù)的主要因素有:背景的光照變化;背景中存在與目標(biāo)相似的區(qū)域;目標(biāo)尺度和形狀的變化;跟蹤過程中發(fā)生遮擋情況等。故本文主要針對基于特征點(diǎn)的典型跟蹤算法,在目標(biāo)尺度和形狀變化、跟蹤過程中發(fā)生遮擋情況等方面的場景下進(jìn)行實(shí)驗(yàn),并對采用不同特征點(diǎn)的跟蹤算法的性能進(jìn)行分析比較。
特征點(diǎn)作為典型特征廣泛應(yīng)用于目標(biāo)跟蹤算法中。特征點(diǎn)主要分為角點(diǎn)和斑點(diǎn)。經(jīng)典的角點(diǎn)檢測方法如下:1980年,Moravec提出了利用灰度方差檢測興趣點(diǎn)的算法算子[11];1988年,Harris和Stephens在Moravec 算子基礎(chǔ)上改進(jìn)提出Harris算子[12];1997 年 Smith 等人提出的一種用最小核心值相似區(qū)域提取特征點(diǎn)的方法,即SUSAN算子[13];用圖像濾波響應(yīng)的局部極值點(diǎn)表示的特征點(diǎn)稱為斑點(diǎn);2004年, Lowe 結(jié)合尺度空間相關(guān)特性,提出了具有尺度不變性和旋轉(zhuǎn)不變性的SIFT 算子[14];2008年,Bay在SIFT 算子基礎(chǔ)上改進(jìn)提出SURF算子[15],在速度上極大地優(yōu)于SIFT算子性能。
1.1 Harris算子
w(x,y)是高斯平滑因子,像素點(diǎn)(x,y)的灰度f(x,y),fx,fy為圖像灰度在x和y方向梯度向量的分量,像素點(diǎn)(x,y)的灰度平均變化量E(u,v)利用泰勒級數(shù)沿x和y方向展開,則表示為
(1)
令對稱矩陣M:
(2)
(3)
E(u,v)=const,求取矩陣M的特征值λ1和λ2。當(dāng)λ1和λ2值較大且大小相差不大時(shí),E(u,v)在各個(gè)方向變化大,認(rèn)為像素點(diǎn)為角點(diǎn);故角點(diǎn)響應(yīng)函數(shù)定義為:
R=detM-k(trM)2
(4)
其中M與其特征值λ1和λ2具有如下關(guān)系:
detM=λ1λ2
(5)
trM=λ1+λ2
(6)
計(jì)算各像素點(diǎn)的R值,當(dāng)R大于設(shè)定的閾值時(shí),則認(rèn)為該點(diǎn)為角點(diǎn)。通常k=0.04~0.06?;叶葓D像中,常采用角點(diǎn)所在像素的灰度值u(x,y)對特征點(diǎn)進(jìn)行描述。
1.2 SIFT算法
SIFT算法實(shí)現(xiàn)特征提取主要有以下幾個(gè)步驟:
1) 檢測尺度空間極值點(diǎn)
在DOG尺度空間中定義函數(shù)為D(x,y,σ),G(x,y,σ)為高斯函數(shù),常數(shù)k為尺度空間比例系數(shù)。
D(x,y,σ)=(g(x,y,kσ)-g(x,y,σ))*I(x,y)
=L(x,y,kσ)-L(x,y,σ)
(7)
SIFT算法通過DOG算子檢測尺度不變特征點(diǎn)。在DOG金字塔空間中搜索函數(shù)在三維鄰域取極值的點(diǎn),確定為關(guān)鍵點(diǎn)。
2) 精確定位關(guān)鍵點(diǎn)
利用Hessian矩陣去除邊緣響應(yīng)點(diǎn)。設(shè)λ1和λ2為 Hessian 矩陣的特征值,比值為r,則
(8)
detH=DxxDyy-(Dxy)2=λ1λ2
(9)
trH=Dxx+Dyy=λ1+λ2
(10)
(11)
3) 確定關(guān)鍵點(diǎn)方向
為特征點(diǎn)指定方向參數(shù),使算子具有旋轉(zhuǎn)不變性。
(12)
θ(x,y)=arctan2((L(x,y+1)-L(x,y-1))/(L(x+1,y)-L(x-1,y)))
(13)
當(dāng)另一個(gè)峰值能量大于主峰值能量的80%,將這個(gè)方向認(rèn)為是關(guān)鍵點(diǎn)的輔方向。至此,關(guān)鍵點(diǎn)檢測完成,每個(gè)關(guān)鍵點(diǎn)具有3個(gè)信息:位置、尺度和方向。
4) 生成特征描述符
將坐標(biāo)軸旋轉(zhuǎn)為關(guān)鍵點(diǎn)的方向,以關(guān)鍵點(diǎn)為中心取8*8大小的窗口,在每4*4區(qū)域內(nèi)計(jì)算8個(gè)方向的梯度方向直方圖,生成一個(gè)2*2*8的32維的特征向量。實(shí)際計(jì)算時(shí),采用4*4*8的128維的特征向量,形成特征描述子。
1.3SURF算法
1) 構(gòu)建Hessian矩陣
通過Hessian矩陣提取特征點(diǎn)。設(shè)像素I(x,y), Hessian矩陣的定義為:
(14)
利用高斯函數(shù)濾波:
L(x,t)=G(t)·I(x,t)
(15)
(16)
式中,g(x)為高斯函數(shù),t為高斯方差。為簡化運(yùn)算提升速率,用D(x,t)代替L(x,t)。所以Hessian矩陣判別式定義:
det(Happrox)=DxxDyy-(0.9Dxy)2
(17)
權(quán)值0.9為經(jīng)驗(yàn)值。根據(jù)判別式符號對像素點(diǎn)分類,確定是否為極值點(diǎn)。
2) 構(gòu)建尺度空間
在SURF算法中,圖片的尺寸是不變的,通過調(diào)整高斯模板的尺度處理圖片,得到待處理圖片。SURF算法可以并行處理不同多層圖像,極大地提升運(yùn)算速度。
3) 確定特征點(diǎn)
此步驟與SIFT算法相似,對經(jīng)過Hessian矩陣處理過的像素點(diǎn)與其三維鄰域內(nèi)相鄰的26個(gè)點(diǎn)比較,當(dāng)其值為極值時(shí)保留為特征點(diǎn),否則舍棄。
4) 確定特征點(diǎn)主方向
通過統(tǒng)計(jì)特征點(diǎn)鄰域內(nèi)的Harr小波特征確定方向。在特征點(diǎn)鄰域內(nèi)統(tǒng)計(jì)60°扇形區(qū)域內(nèi)全部像素點(diǎn)的Haar小波特征。60°扇形區(qū)域以一定間隔旋轉(zhuǎn),將最大值的扇形方向作為特征點(diǎn)主方向。
5) 構(gòu)造特征描述子
在特征點(diǎn)的周圍取邊長為20倍所在尺度的正方形框,方向?yàn)橹鞣较?將其分為4*4的子塊,每個(gè)子塊取5*5的采樣點(diǎn),統(tǒng)計(jì)采樣點(diǎn)的Haar小波特征dx和dy。對每個(gè)子塊dx、dy、|dx|、|dy|分別求和。則每個(gè)特征點(diǎn)可以構(gòu)成4*4*4=64維的特征描述子。
1.4 理論分析
各特征提取和表示算法的理論基礎(chǔ)決定了基于特征的目標(biāo)跟蹤算法的根本性質(zhì)。特征點(diǎn)是目標(biāo)局部特征,目標(biāo)部分遮擋情況下有機(jī)會利用其未遮擋的特征點(diǎn)實(shí)現(xiàn)跟蹤,故基于特征點(diǎn)的跟蹤算法均具有一定的抗遮擋能力。
Harris算法提取的角點(diǎn)特征,不受目標(biāo)旋轉(zhuǎn)變化影響,故基于Harris的跟蹤算法可以一定程度上實(shí)現(xiàn)跟蹤發(fā)生旋轉(zhuǎn)變化的目標(biāo)。Harris算法在不同尺度上提取的角點(diǎn)并不相同,故經(jīng)典基于Harris的跟蹤算法對尺度發(fā)生變化的目標(biāo)無法實(shí)現(xiàn)跟蹤。SIFT和SURF算子在尺度空間中構(gòu)建,具有尺度不變性,故理論上基于SIFT和SURF的跟蹤算法具有一定處理目標(biāo)發(fā)生尺度變化的能力。SIFT和SURF的特征描述符分別為包含方向的128維和64維特征向量,算子具有旋轉(zhuǎn)不變性,故理論上基于SIFT和SURF的跟蹤算法具有一定處理目標(biāo)發(fā)生旋轉(zhuǎn)變化的能力。
基于上文的理論分析,對基于特征點(diǎn)的目標(biāo)跟蹤算法進(jìn)行實(shí)驗(yàn)。本文主要討論跟蹤過程中目標(biāo)出現(xiàn)各種變化時(shí),各基于特征點(diǎn)的跟蹤算法性能的優(yōu)劣。
本文采用一段500幀的240*256的視頻和一段482幀的360*240的視頻作為測試序列,以Matlab2012a為仿真工具進(jìn)行實(shí)驗(yàn)。下圖圖片為在不同跟蹤算法實(shí)驗(yàn)中分別截取相同幀對跟蹤結(jié)果進(jìn)行觀察。跟蹤算法的評價(jià)主要考慮:①精確性,算法檢測到的目標(biāo)和真實(shí)的目標(biāo)之間的符合程度;②距離誤差,算法檢測到的目標(biāo)位置和實(shí)際目標(biāo)位置間的距離。本文中均以矩形模板的中心點(diǎn)作為目標(biāo)位置。本文主要用presicion和Err進(jìn)行性能評價(jià)。
(18)
(19)
其中,scoret表示t時(shí)刻檢測目標(biāo)和真實(shí)目標(biāo)面積的交集和并集的比。presicion是scoret的平均值,其范圍在0-1,值越靠近1,算法性能越好。
(20)
1) 目標(biāo)遮擋情況下的性能評估
第一段實(shí)驗(yàn)視頻的實(shí)驗(yàn)結(jié)果如圖1-3所示。
圖1 實(shí)驗(yàn)一遮擋情況下基于harris的目標(biāo)跟蹤算法
圖2 實(shí)驗(yàn)一遮擋情況下基于SIFT的目標(biāo)跟蹤算法
圖3 實(shí)驗(yàn)一遮擋情況下基于SURF的目標(biāo)跟蹤算法
第二段實(shí)驗(yàn)視頻的實(shí)驗(yàn)結(jié)果如圖4-6所示。
圖4 實(shí)驗(yàn)二遮擋情況下基于harris的目標(biāo)跟蹤算法
圖5 實(shí)驗(yàn)二遮擋情況下基于SIFT的目標(biāo)跟蹤算法
圖6 實(shí)驗(yàn)二遮擋情況下基于SURF的目標(biāo)跟蹤算法
根據(jù)如上實(shí)驗(yàn)情況進(jìn)行性能分析,結(jié)果如表1、2所示。
表1 精確性1 presicion
表2 距離誤差1 Err
從上各圖表可以看出,當(dāng)目標(biāo)正常移動(dòng)時(shí),三種算法提取到的目標(biāo)的特征點(diǎn)的精確性較高,距離誤差較低,均可以較好地完成目標(biāo)跟蹤。出現(xiàn)遮擋時(shí),縱向比較,三種算法均出現(xiàn)準(zhǔn)確性輕微下降,距離誤差增加,但各性能保持良好。橫向比較,基于Harris的跟蹤算法各指標(biāo)基于Harris的跟蹤算法數(shù)據(jù)稍差于基于SIFT、SURF的跟蹤算法。三種算法的均有一定抗遮擋性。兩次實(shí)驗(yàn)中,基于Harris的跟蹤算法數(shù)據(jù)較其他兩種算法變化較大,對不同的實(shí)驗(yàn)情形穩(wěn)定性較差。
2) 目標(biāo)旋轉(zhuǎn)情況下的性能評估
本文測試視頻的目標(biāo)每幀以某一角度旋轉(zhuǎn),旋轉(zhuǎn)至回到原點(diǎn)。分為幀間目標(biāo)旋轉(zhuǎn)角度5°、幀間目標(biāo)旋轉(zhuǎn)10°兩種情況。
第一段實(shí)驗(yàn)視頻的實(shí)驗(yàn)結(jié)果如圖7-12所示。
圖7 幀間旋轉(zhuǎn)5°基于harris的目標(biāo)跟蹤算法
圖8 幀間旋轉(zhuǎn)5°基于SIFT的目標(biāo)跟蹤算法
圖9 幀間旋轉(zhuǎn)5°基于SURF的目標(biāo)跟蹤算法
圖10 幀間旋轉(zhuǎn)10°基于harris的目標(biāo)跟蹤算法
圖11 幀間旋轉(zhuǎn)10°基于SIFT的目標(biāo)跟蹤算法
圖12 幀間旋轉(zhuǎn)10°基于SURF的目標(biāo)跟蹤算法
第二段實(shí)驗(yàn)視頻的實(shí)驗(yàn)結(jié)果如圖13-18所示。
圖13 幀間旋轉(zhuǎn)5°基于harris的目標(biāo)跟蹤算法
圖14 幀間旋轉(zhuǎn)5°基于SIFT的目標(biāo)跟蹤算法
圖15 幀間旋轉(zhuǎn)5°基于SURF的目標(biāo)跟蹤算法
圖16 幀間旋轉(zhuǎn)10°基于harris的目標(biāo)跟蹤算法
圖17 幀間旋轉(zhuǎn)10°基于SIFT的目標(biāo)跟蹤算法
圖18 幀間旋轉(zhuǎn)10°基于SURF的目標(biāo)跟蹤算法
根據(jù)如上實(shí)驗(yàn)情況進(jìn)行性能分析,結(jié)果如表3、4所示。
表3 精確性2 presicion
表4 距離誤差2 Err
從上各表可以看出,當(dāng)目標(biāo)發(fā)生旋轉(zhuǎn)、目標(biāo)幀間旋轉(zhuǎn)角度變大時(shí),縱向比較三種算法均出現(xiàn)精確性輕微下降,距離誤差增加。其中基于SIFT和SURF的跟蹤算法精確性下降幅度相對較小。橫向比較,基于Harris的跟蹤算法在旋轉(zhuǎn)角度較小時(shí)的穩(wěn)定性明顯差于其他兩種算法,其他性能稍差于基于SIFT、SURF的跟蹤算法。三種算法均有一定的旋轉(zhuǎn)不變性,且在目標(biāo)幀間旋轉(zhuǎn)角度較小時(shí)性能更優(yōu)。相對比而言,基于SIFT和SURF的跟蹤算法旋轉(zhuǎn)不變性相對較好。兩次實(shí)驗(yàn)中,基于Harris的跟蹤算法數(shù)據(jù)變化較大,其旋轉(zhuǎn)不變性較為不穩(wěn)定。其中基于SIFT的跟蹤算法的數(shù)據(jù)變化最小,算法旋轉(zhuǎn)不變性的穩(wěn)定性最高。
3) 目標(biāo)尺度變換情況下的性能評估
本文測試視頻中,目標(biāo)進(jìn)行尺度縮放至一定比例,幀間縮放的百分比一定。分為尺度縮放比例較小(0.7-1.6)、尺度縮放比例較大(0.5-1.8)兩種情況。
第一段實(shí)驗(yàn)視頻的實(shí)驗(yàn)結(jié)果如圖19-24所示。
圖19 縮放比例小時(shí)基于harris的目標(biāo)跟蹤算法
圖20 縮放比例小時(shí)基于SIFT的目標(biāo)跟蹤算法
圖21 縮放比例小時(shí)基于SURF的目標(biāo)跟蹤算法
圖22 縮放比例大時(shí)基于harris的目標(biāo)跟蹤算法
圖23 縮放比例大時(shí)基于SIFT的目標(biāo)跟蹤算法
圖24 縮放比例大時(shí)基于SURF的目標(biāo)跟蹤算法
第二段實(shí)驗(yàn)視頻的實(shí)驗(yàn)結(jié)果如圖25-30所示。
圖25 縮放比例小時(shí)基于harris的目標(biāo)跟蹤算法
圖26 縮放比例小時(shí)基于SIFT的目標(biāo)跟蹤算法
圖27 縮放比例小時(shí)基于SURF的目標(biāo)跟蹤算法
圖29 縮放比例大時(shí)基于SIFT的目標(biāo)跟蹤算法
圖30 縮放比例大時(shí)基于SURF的目標(biāo)跟蹤算法
根據(jù)如上實(shí)驗(yàn)情況進(jìn)行性能分析,結(jié)果如表5、6所示。
表5 精確性3 presicion
表6 距離誤差3 Err
由上各表可以得出,目標(biāo)出現(xiàn)尺度縮放時(shí),基于Harris的跟蹤算法各性能指標(biāo)遠(yuǎn)低于其他算法,不能完成目標(biāo)跟蹤,后面不做討論。
當(dāng)目標(biāo)尺度縮放變大時(shí),縱向比較,基于SIFT、SURF的跟蹤算法各性能指標(biāo)均出現(xiàn)下降,但仍能很好地完成目標(biāo)跟蹤。橫向比較,基于SIFT、SURF的跟蹤算法精確性相似。在縮放比例較大時(shí),基于SIFT的跟蹤算法距離誤差更小。由此可知,基于Harris的跟蹤算法不具有尺度不變性?;赟IFT和SURF的跟蹤算法具有良好的尺度不變性。兩次實(shí)驗(yàn)比較發(fā)現(xiàn),基于SIFT的跟蹤算法的尺度不變性的穩(wěn)定性最好。
隨著人工智能技術(shù)的快速發(fā)展,利用深度學(xué)習(xí)網(wǎng)絡(luò)提取特征點(diǎn)被應(yīng)用到運(yùn)動(dòng)目標(biāo)跟蹤中。深度學(xué)習(xí)提出了一種讓計(jì)算機(jī)自動(dòng)學(xué)習(xí)特征的方法,并將特征學(xué)習(xí)融入到了建模的過程中,與上文研究的特征提取算法相比,深度學(xué)習(xí)技術(shù)減少了人為設(shè)計(jì)特征造成的不完備性。目前以深度學(xué)習(xí)為核心的某些目標(biāo)跟蹤系統(tǒng),可以實(shí)現(xiàn)在特定條件應(yīng)用場景下良好的跟蹤性能。但這些算法實(shí)現(xiàn)的前提是,使用者能夠提供海量級的數(shù)據(jù)。在只能提供相對較少數(shù)據(jù)量的場景下,深度學(xué)習(xí)算法不能夠?qū)?shù)據(jù)的規(guī)律進(jìn)行無偏差的估計(jì),因此在跟蹤效果上可能不如一些已有的簡單算法。同時(shí),深度學(xué)習(xí)模型的復(fù)雜化導(dǎo)致了算法的時(shí)間復(fù)雜度急劇提升,需要GPU并行計(jì)算、云計(jì)算和大數(shù)據(jù)等相關(guān)領(lǐng)域技術(shù)的支持以及更多的硬件支持。未來,深度學(xué)習(xí)技術(shù)的發(fā)展將會大大促進(jìn)目標(biāo)跟蹤技術(shù)性能的提升。
[1] Yilmaz A, Shatique K, Shah M. Target tracing in airborne forward looking intrared imagery[J]. Image and Vision Computing, 2003, 21(7):623-635.[2] Clipolla R. Computer Vision for Human-Machine interaction[M].Cambridge University UniversityPress,1998.
[3] Babu RV,Patrick P,rez,et al.Robust tracking with motion estimation and local Kernel-based color modeling[J].Image Vision Computing,2007,25(8):1205-1216.
[4] Comaniciu D, Ramesh V, Meer P. Kerrel-based object tracking[J]. IEEE Transactions on pattern anacysis and Macnine inteccigence, 2003,25(5):564-577.
[5] Schmid C, Mohr R, Bauckhage C. Evacuation of interest point detectors[J]. International Journal of Computer vision, 2000,37(2):151-172.
[6] Yilmaz A, Javed O, Shah M. Object tracking: A survey[J]. Acm computing surveys(CSUR),2006,38(4):13.
[7] 戴家樹,鄧廷權(quán),董天禎,等. 基于核主元投影的視覺跟蹤算法[J].計(jì)算機(jī)仿真, 2013,30(9):406-409.
[8] 奚慧婷.剛體運(yùn)動(dòng)目標(biāo)的跟蹤算法研究[D].上海:華東師范大學(xué),2008.
[9] Xia L, Sheng B, Wu W, et al. Accurate gaze tracking from single camera using gabor corner detector[J]. Muctimedia Tools and Appcictions, 2016,75(1):221-239.
[10]Joshi K A, Thakore D G. A survey on moving object deteetion and tracking in video sarveiuance system[J]. International Journal of soft computing and Engineering,2012,2(3):44-48.
[11]Li J, Allinson NM. A comprenensive review of carrent local features for computer vision[J]. Neurocomputing, 2008,71(10):1771-1787.
[12]Hsiao PY, Lu CL, Fu LC. Multilayered image processing for muctiscale hamis corner detection in digital reacization[J]. IEEE Transactions on Industrial Electronics,2010,57(5):1799-1805.
[13]Smith SM, Brady JM. SUSAN: A New Approach to Low Level Image Processing[J]. In Journal of Computer Vision, 1997,23(1):45-78.
[14]Lowe D G. Distinctive image features from scale-invariant keypoints [J]. International Journal of Computer Vision, 2004, 2(60):91-110.
[15]Bay H,Ess A,Tinne Tuytelaars,LucVan Gool. SURF: Speeded Up Robust Features[J].Computer Vision and Image Understanding, 2008,110(3):346-359.
Evaluation of Feature Points Based Object Tracking
DOU Hui, ZHAO Shu-bin, WANG Qiang
(Jiangsu Automation Research Institute, Lianyungang 222061, China)
Object tracking is an important task within the field of computer vision. This paper introduces the feature points based object tracking. First, we summarize the definition and process and application of object tracking. Second, the classifications and current situation of object tracking are shown. In addition,we give a brief introduction on the typical methods of feature extraction and description. The performance of tracking algorithms is compared in various video sequences on Matlab. Meanwhile, some future directions of visual tracking are addressed shortly.
object tracking; performance evaluation; feature point
2016-11-02
2016-12-04
竇 慧(1992-),女,碩士研究生,陜西榆林人,研究方向?yàn)槟繕?biāo)跟蹤。 趙書斌(1968-),男,博士,研究員。 王 強(qiáng)(1986-),男,碩士,工程師。
1673-3819(2017)02-0067-09
TP391;E917
A
10.3969/j.issn.1673-3819.2017.02.014