于德鑫 曹曉杰 楊敏 趙鵬德
摘 要:針對壓縮感知跟蹤算法在目標移動過快時易丟失跟蹤目標和跟蹤準確性不高的缺點,提出了改進的壓縮感知跟蹤算法。該算法引入加權(quán)函數(shù)輔助判斷正負樣本,使用加權(quán)后的樣本計算特征找到下一幀的目標中心位置,當目標移動過快時,使用卡爾曼濾波對當前幀目標位置進行預(yù)測。對不同測試序列的跟蹤結(jié)果表明,改進后算法能夠穩(wěn)定跟蹤目標,有效地解決了目標移動過快時易丟失跟蹤目標的問題,并且具有較高的準確性。
關(guān)鍵詞: 壓縮感知;加權(quán)函數(shù);卡爾曼;準確性
【Abstract】 Aiming at the shortcomings of the compressed sensing tracking algorithm, which was easy to lose the tracking target and has the low tracking accuracy when the target moved too fast, an improved compressed sensing tracking algorithm is proposed. The algorithm introduces a weighting function to assist in judging positive and negative samples, and uses the weighted sample to calculate features to find the target center position of the next frame. Kalman filter is used to predict the current frame target position when the target moved too fast. The tracking results of different test sequences show that the improved algorithm can stably track the target, effectively solve the problem that the target is easy to lose the tracking target when moving too fast, and obtains high accuracy.
【Key words】 ?compressive sensing; weighted function; Kalman; accuracy
0 引 言
目標跟蹤技術(shù)是計算機視覺領(lǐng)域中最熱門的研究課題之一[1-3],主要應(yīng)用于安全監(jiān)控、人機交互、智能車輛、軍事、交通運輸、醫(yī)療診斷等領(lǐng)域,具有重要的研究意義和應(yīng)用價值。自二十一世紀以來,目標跟蹤技術(shù)受到國內(nèi)外廣大研究學者的關(guān)注,并提出了大量的優(yōu)秀算法,如TLD[4]、KCF[5]、MEEM[6]、HCF[7]、STRUCK[8]、MDNET[9]、MCPF[10]及LMCF[11]算法等,但是現(xiàn)如今在目標跟蹤領(lǐng)域仍然有大量的難題,如何應(yīng)對不斷變化的光照、目標被遮擋問題、目標發(fā)生形變、尺度不斷變化以及目標所處復(fù)雜環(huán)境等因素的影響,從而實現(xiàn)準確、穩(wěn)定、實時的目標跟蹤,這一系列問題是亟需解決的。
時下,立足于準確、穩(wěn)定目標跟蹤的研究,Zhang等人[12]將壓縮感知引入到目標跟蹤中,提出了一種基于壓縮感知的跟蹤算法(CT)。該跟蹤算法首先依據(jù)壓縮感知理論對圖像樣本特征進行降維,然后采用樸素貝葉斯分類器對降維后的特征進行分類。該算法雖然簡單高效,但是在復(fù)雜環(huán)境下和目標快速移動時,容易跟丟目標,且跟蹤準確性不好。
針對CT跟蹤算法的不足,本文在CT跟蹤算法框架下做出如下改進:在采集正負樣本時,引入加權(quán)函數(shù)輔助判斷正負樣本,很大程度上提高了判斷正負樣本的正確率;當目標運動過快時,用卡爾曼濾波算法預(yù)測當前幀目標的位置,解決目標運動過快而導(dǎo)致的目標跟丟問題,并保證跟蹤的準確性。
1 CT跟蹤算法簡介
1.1 CT跟蹤算法特征提取
3 算法設(shè)計流程
研究中,將給出本文改進CT算法的跟蹤流程,具體如下:
(1)手動選取第一幀跟蹤目標。
(2)在當前第t幀圖像的目標中心鄰近區(qū)域選取目標樣本,距離中心較遠位置選取背景樣本,引入加權(quán)函數(shù)輔助采集正負樣本,距離目標中心越近的樣本將被賦予更大的權(quán)重,若被賦予的權(quán)重小于給定閾值則判定為背景樣本。
(3)計算目標樣本和背景樣本的特征。
(4)使用樸素貝葉斯分類器對每個特征向量進行分類,最大分類得分的特征向量對應(yīng)的目標位置作為跟蹤結(jié)果。
(5)采集目標樣本和背景樣本并更新分類器。
(6)判斷目標移動是否過快:若是,則用卡爾曼濾波算法預(yù)測當前幀目標位置;若否,則跳轉(zhuǎn)到(2)進行下一幀處理。
改進CT算法的設(shè)計流程如圖2所示。
4 實驗結(jié)果與分析
為了驗證改進后算法的有效性,將改進后算法和CT算法在2個已公開的標準測試序列上進行對比實驗。在Matlab上通過對比實驗,得到如圖3和圖4所示的跟蹤結(jié)果,其中淺色框是CT算法跟蹤結(jié)果,深色框為改進后算法跟蹤結(jié)果。
圖3是部分Girl測試序列的結(jié)果,在序列Girl中存在目標姿態(tài)變化、目標遮擋和目標移動過快等干擾因素。在CT算法跟蹤過程中,目標在第2幀就開始發(fā)生了輕微偏移。隨著跟蹤幀數(shù)增加,目標姿態(tài)和大小不斷變化,當跟蹤到第55幀時,改進前后的算法都發(fā)生了嚴重漂移,但是跟蹤到第257幀時,改進后的跟蹤算法可以準確跟蹤到目標,CT算法卻仍然發(fā)生漂移,在第435幀時,目標出現(xiàn)遮擋情況,2種算法都沒能很好地跟蹤到目標。
圖4是部分Basketball測試序列的結(jié)果,在序列Basketball中存在背景復(fù)雜、目標遮擋和目標移動過快等干擾因素。改進前后算法在前73幀中都能夠穩(wěn)定且準確地跟蹤目標。由于目標姿態(tài)不斷變化,目標移動加快,當跟蹤到第172幀時,CT算法開始出現(xiàn)向上漂移的趨勢。直到跟蹤到第242幀時,CT算法出現(xiàn)嚴重漂移,改進后算法仍然可以準確跟蹤目標。在第280幀出現(xiàn)與目標相似的背景時,CT算法嚴重跟蹤漂移,出現(xiàn)跟蹤錯誤目標的趨勢,到第304幀時,CT算法出現(xiàn)跟丟目標情況,而改進后算法卻始終穩(wěn)定且準確地跟蹤目標。
為定量評估本文算法的跟蹤性能,本文基于中心位置誤差(Center Location Error)評價指標對本文算法與原始CT跟蹤算法進行定量的對比分析,中心位置誤差主要是指跟蹤所得目標框的中心與真實基準中心之間的歐式距離[16]。沒有跟丟目標的前提下,在CT算法中,Girl序列平均中心位置誤差為18.99像素,Basketball序列為23.03像素;在改進后的CT算法中,Girl序列為15.66像素,Basketball序列為9.69像素。為了能夠更直觀地分析2種算法的跟蹤性能,圖5和圖6給出了改進前后算法在2個序列中心位置誤差的對比圖。
5 結(jié)束語
本文針對CT算法的缺點,提出了基于卡爾曼濾波與樣本加權(quán)的壓縮感知跟蹤算法。在采集正負樣本時,引入加權(quán)函數(shù)輔助判斷正負樣本,解決了CT算法常常把帶有背景信息的樣本判定為正樣本的缺點,很大程度上提高了判斷正負樣本的正確率;當目標運動過快時,用卡爾曼濾波算法預(yù)測當前幀目標的位置,解決目標運動過快而導(dǎo)致目標跟丟的問題,并保證跟蹤的準確性。從對比實驗的評價結(jié)果來看,改進后算法能夠有效跟蹤目標,并且穩(wěn)定性和準確性均有所提高。但改進后算法并不能很好解決目標遮擋因素的干擾,故下一步研究重點是如何克服目標遮擋問題。
參考文獻
[1]盧湖川,李佩霞,王棟. 目標跟蹤算法綜述[J]. 模式識別與人工智能,2018,31(1):61-76.
[2]WU Yi,LIM J,YANG M H. Online object tracking:A benchmark[C]// IEEE Conference on Computer Vision and Pattern Recognition. Portland, OR, USA:IEEE,2013:2411-2418.
[3]管皓,薛向陽,安志勇. 在線單目標視頻跟蹤算法綜述[J].小型微型計算機系統(tǒng),2017,38(1):147-153.
[4]KALAL Z,MIKOLAJCZYK K,MATAS J. Tracking-learning-detection[J]. 2013 IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(7):1409-1422.
[5]HENRIQUES J F,CASEIRO R,MARTINS P,et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(3):583-596.
[6]ZHANG Jianming,MA Shugao,SCLAROFF S. Meem:robust tracking via multiple experts using entropy minimization[C]// PAJDLA D, PAJDLA T, SCHIELE B, et al. Computer Vision-ECCV 2014. ECCV 2014. Lecture Notes in Computer Science. Cham:Springer, 2014,8694:188-203.
[7]MA Chao,HUANG Jiabin,YANG Xiaokang,et al. Hierarchical convolutional features for visual tracking[C]// IEEE International Conference on Computer Vision.Santiago,Chile:IEEE,2015:3074-3082.
[8]HARE S,GOLODETZ S,SAFFARI A,et al. Struck:Structured output tracking with kernels[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2016,38(10):2096-2109.
[9]NAM H,HAN B. Learning multi-domain convolutional neural networks for visual tracking[C]// IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, Nevada, USA:IEEE,2016:4293-4302.
[10]ZHANG Tianzhu,XU Changsheng,YANG M H. Multi-task correlation particle filter for robust object tracking[C]// 2017.IEEE Conference on Computer Vision & Pattern Recognition.Honolulu, HI, USA:IEEE,2017:4819-4827.
[11]WANG Mengmeng,LIU Yong,HUANG Zeyi. Large margin object tracking with circulant feature maps[C]// IEEE Conference on Computer Vision and Pattern Recognition.Honolulu,HI:IEEE,2017:4021-4029
[12]ZHANG K H,ZHANG L,YANG M H. Real-time compressive tracking[C]//Proceedings of the 12th European Conference on Computer Vision. Florence, Italy:IEEE,2012,7574 (1):864-877.
[13]張新堃,黃山. 結(jié)合Kalman濾波的時空上下文目標跟蹤算法[J]. 電光與控制,2018,25(11):102-105,119.
[14]張偉麗,江春華,郝宗波. 基于改進的均值漂移和卡爾曼濾波的目標跟蹤算法[J]. 計算機應(yīng)用與軟件,2014,31(5):240-243.
[15]趙廣輝,卓松,徐曉龍. 基于卡爾曼濾波的多目標跟蹤方法[J].計算機科學,2018,45(8):253-257,276.
[16]徐建強,陸耀. 一種基于加權(quán)時空上下文的魯棒視覺跟蹤算法[J].自動化學報,2015,41(11):1901-1912.