張永強(qiáng),程丹松,王 君,吳 銳,陳 竟,石大明
(哈爾濱工業(yè)大學(xué) 計算機(jī)科學(xué)與技術(shù)學(xué)院 150001 哈爾濱)
?
拓展模板的視頻跟蹤技術(shù)
張永強(qiáng),程丹松,王 君,吳 銳,陳 竟,石大明
(哈爾濱工業(yè)大學(xué) 計算機(jī)科學(xué)與技術(shù)學(xué)院 150001 哈爾濱)
在視覺目標(biāo)跟蹤(video tracking)過程中,當(dāng)跟蹤圖像存在背景雜波、圖像噪聲(如圖像遮擋、圖像快速移動)時,算法往往不能取得很好的圖像追蹤效果.為解決該問題,在經(jīng)典L1-tracker追蹤算法的基礎(chǔ)上,針對目標(biāo)遮擋、目標(biāo)消失等嚴(yán)重影響跟蹤效果的情況進(jìn)行研究,提出加入拓展模板(固定模板和近況模板)的策略來提高跟蹤精度和抗遮擋能力.固定模板保持追蹤目標(biāo)最初的圖像特征,防止錯誤的追蹤結(jié)果在模板更新時引入錯誤的特征,進(jìn)而導(dǎo)致識別目標(biāo)偏移.近況模板記錄目標(biāo)的最新跟蹤結(jié)果,避免由于點模板的大量使用而造成遮擋的誤識別.通過對多個標(biāo)準(zhǔn)數(shù)據(jù)集的實驗測試,證明加入新策略的L1-tracker算法,在不破壞原有L1-tracker優(yōu)勢的基礎(chǔ)上,顯著地提升了L1-tracker算法應(yīng)對遮擋問題的能力.
圖像目標(biāo)追蹤;稀疏表示;L1-tracker;固定模板;近況模板
近些年來,隨著社會需求和科學(xué)工程技術(shù)的進(jìn)步,視覺目標(biāo)跟蹤(video tracking)已經(jīng)被應(yīng)用到很多的領(lǐng)域,如:視頻監(jiān)控、車輛導(dǎo)航和人機(jī)交互等[1].但是當(dāng)跟蹤圖像存在背景雜波、圖像噪聲(如圖像遮擋、圖像快速移動)時,很多算法都未能取得很好的圖像追蹤效果.
矩陣的稀疏表示(sparse representation),又稱壓縮傳感(compressive sensing)[2],是一種先把圖像數(shù)據(jù)矩陣化,然后利用其內(nèi)在稀疏性和矩陣線性表示來進(jìn)行處理的技術(shù),它可以顯著地提高運算效率.在稀疏表示、壓縮感知理論興起后,相關(guān)的理論很快地被應(yīng)用到跟蹤領(lǐng)域[3-7].如文獻(xiàn)[6]提出了基于L1范數(shù)最小化的目標(biāo)跟蹤方法(L1-tracker),該方法利用粒子濾波器框架下的稀疏近似方法來解決視頻跟蹤問題,在解決圖像遮擋、強(qiáng)烈的光照變化和姿態(tài)變化等情況取得了較好的效果,并減少了運算的復(fù)雜度.此后作者又重新對文獻(xiàn)[6]的方法進(jìn)行改進(jìn)[8-9].除了L1-tracker方法外,很多學(xué)者也提出了其他的方法,如文獻(xiàn)[10]提出了Real-Time Compressive Tracking跟蹤方法.
但是當(dāng)圖像中存在復(fù)雜圖像噪聲信號或圖像遮擋時,傳統(tǒng)的L1-Tracker方法在處理精度和遮擋誤判方面還存在一些問題.為解決這些問題,本文在此基礎(chǔ)上[8-9,11-12]進(jìn)行了一些有效的改進(jìn),提出增加拓展模板(固定模板和近況模板)的策略,實驗結(jié)果證明加入拓展模板的算法在不破壞算法原有優(yōu)勢的前提下,有效地提升了L1-tracker算法的精度和對遮擋問題的判斷能力.
1.1 L1-tracker模型
(1)
(2)
(3)
1.2 模板更新
基于模板的跟蹤方法最早是在文獻(xiàn)[7]中被提出的.文獻(xiàn)[14]通過固定的模板來進(jìn)行追蹤,并使追蹤結(jié)果和模板的距離平方和最小化.一般而言,追蹤目標(biāo)只會在相對局部的圖像幀里保持不變,隨著圖像序列的變化,追蹤目標(biāo)將不可避免地發(fā)生變化,最后導(dǎo)致原有模板難以繼續(xù)進(jìn)行準(zhǔn)確的追蹤.換句話說,如果不對模板進(jìn)行更新,由于各種光照或者位置變化導(dǎo)致的目標(biāo)改變將使傳統(tǒng)L1-tracker追蹤算法失效.另一方面,如果過于頻繁、隨意地進(jìn)行模板更新,模板將不斷地累積一些不屬于目標(biāo)特征的內(nèi)容,最后導(dǎo)致模板失效.所以,L1-tracker算法需要能動態(tài)地應(yīng)對目標(biāo)變化,并進(jìn)行模板的更新.文獻(xiàn)[5]通過把衡量兩個同規(guī)格圖像相似程度的方程Sim(.,.)定義為Cos(θ)來進(jìn)行判別,其中θ是將兩個輸入圖像向量化之后的向量角為
1.3 遮擋檢測
模板需要更新,才能很好地應(yīng)對追蹤目標(biāo)的變化,進(jìn)而保持較好的追蹤效果.雖然上述更新方法考慮到檢測模板的更新需求,以及如何選擇合適的模板來進(jìn)行更新,但是它沒有考慮到目標(biāo)可能被其他物體遮擋的情況.當(dāng)這種情況發(fā)生時,大量不是目標(biāo)特征的內(nèi)容會被添加進(jìn)特征模板,最終導(dǎo)致誤識別事件的發(fā)生.
所以在傳統(tǒng)的L1-tracker算法中,使用了兩種模板:一種是特征模板,另一種是點模板.特征模板反映了追蹤目標(biāo)的圖像特征,點模板則對應(yīng)遮擋、采集到的非目標(biāo)圖像以及噪聲信號的檢測.雖然點模板,主要用于遮擋和噪聲檢測,但在進(jìn)行目標(biāo)跟蹤時,目標(biāo)的正常外表變化也會使用點模板,但是這時的使用和遮擋還是有區(qū)別的;遮擋時通常是成片的,而普通外表變化是漸進(jìn)的、相對零散的.通過對點模板矩陣的分析可知,如果對上面得到的0、1二值矩陣進(jìn)行形態(tài)學(xué)處理,從去掉一些小孔洞之后的圖像來看,遮擋會導(dǎo)致大片的黑色區(qū)域(數(shù)值為1),而一般的外表變化則只會出現(xiàn)比較零散的黑色區(qū)域.因此就可以通過計算圖像中的最大黑色聯(lián)通區(qū)域來判斷是否發(fā)生了遮擋,如果這個區(qū)域大于圖像總面積的某個比例,就可以認(rèn)為出現(xiàn)了遮擋.在出現(xiàn)遮擋之后,本文可以暫時(如文獻(xiàn)[5]使用的維持5幀)停止模板的更新.
通過對傳統(tǒng)L1-tracker算法的分析,本文知道在傳統(tǒng)L1-tracker算法[9,11-12]中,進(jìn)行模板更新之前需要進(jìn)行遮擋的檢測.遮擋的檢測需要將點模板的系數(shù)a=[cT;cI]向量轉(zhuǎn)化為和模板同規(guī)格的矩陣,然后按照一定的預(yù)設(shè)值將其轉(zhuǎn)化為0、1的二值矩陣,再在這個矩陣上檢測最大的聯(lián)通區(qū)域,看是否構(gòu)成遮蔽判斷.但是在傳統(tǒng)L1-tracker算法中cT和cI存在一些混淆.cT有大于0的限制,但是cI沒有,而且傳統(tǒng)L1-tracker算法只考慮了cT>0的情況,也就說只是將系數(shù)0、1二值矩陣中大于預(yù)設(shè)值的部分轉(zhuǎn)化了1.而當(dāng)遮蔽物的灰度值是小于當(dāng)前的追蹤目標(biāo)時,傳統(tǒng)L1-tracker算法將不進(jìn)行處理.所以這個做法并不十分合適.
本文針對這個問題,對傳統(tǒng)L1-tracker算法進(jìn)行改進(jìn).分開考慮模板系數(shù)為正和為負(fù)的情況,并在特征模板和點模板的基礎(chǔ)上,加入了拓展模板(固定模板和近況模板).這種實現(xiàn)稱之為tracker-2.由上述分析可以知道,傳統(tǒng)的L1-tracker算法是介于頻繁更新模板和不更新模板兩種策略之間的一種動態(tài)策略,而固定模板和近況模板相當(dāng)于這兩種極端策略.
2.1 固定模板
在進(jìn)行目標(biāo)追蹤時,不時會出現(xiàn)一種極端的情況,即追蹤目標(biāo)暫時性地從圖像序列中消失.如果不考慮這種變化往往會導(dǎo)致算法對追蹤目標(biāo)消失的應(yīng)對能力變?nèi)酰⑶以谧粉櫮繕?biāo)再次出現(xiàn)后也無法進(jìn)行有效地判斷.因為在當(dāng)前追蹤的圖像中不存在目標(biāo)時,它會和追蹤算法中的目標(biāo)模板出現(xiàn)很大的差異,此時算法可能會將這種情況視為目標(biāo)已經(jīng)發(fā)生改變、而目標(biāo)模板不能很好地應(yīng)對目標(biāo)的變化,所以會嘗試根據(jù)當(dāng)前錯誤的追蹤結(jié)果來更新模板,進(jìn)而導(dǎo)致追蹤模板被加入一些錯誤的特征,最后出現(xiàn)識別目標(biāo)的偏移.所以當(dāng)前的許多圖像追蹤算法都會選擇檢測目標(biāo)是否在當(dāng)前幀中出現(xiàn),來決定下一步圖像追蹤的走向,如果檢測到目標(biāo)不存在,就會停止追蹤,直到再次檢測到目標(biāo)后再繼續(xù)進(jìn)行跟蹤.傳統(tǒng)L1-tracker算法應(yīng)對這種目標(biāo)消失的情況具有一些天然優(yōu)勢.對于目標(biāo)消失,傳統(tǒng)L1-tracker算法并不停止進(jìn)行追蹤,而是繼續(xù)追蹤.這個時候由于追蹤的結(jié)果會與原本的追蹤目標(biāo)產(chǎn)生很大差異,所以會大量使用點模板,這樣在點模板的系數(shù)矩陣二值化之后,就會形成面積較大的聯(lián)通區(qū)域,進(jìn)而可以判斷出現(xiàn)了遮擋,然后就會停止模板的更新,提高對目標(biāo)變化的魯棒性.
但是大量使用點模板會帶來運算量的增加,所以為解決該問題,本文提出一種應(yīng)對策略—加入固定模板,固定模板將最初指定的目標(biāo)保存下來,單獨制作成一個固定不變的模板,它不會因模板更新策略而被更新[15].這樣做的依據(jù)是:當(dāng)目標(biāo)消失時,特征模板可能已被錯誤地更新過,已經(jīng)不能很好地描述目標(biāo)的圖像特征;此外當(dāng)目標(biāo)再次出現(xiàn)時,其圖像特征也是難以預(yù)測的,所以采用最原始的目標(biāo)模板是一種保守而且有效的策略.對于沒有出現(xiàn)目標(biāo)消失的情況而言,新添加固定模板也不會有負(fù)面影響,這是因為固定模板保持了追蹤目標(biāo)最初的圖像特征,不會引進(jìn)任何錯誤的結(jié)果.所以增加固定模板是一種保守且不會對追蹤準(zhǔn)確度有負(fù)面影響的策略,最多只是線性地增加了少量的運算時間.
2.2 近況模板
如固定模板所述,在使用傳統(tǒng)L1-tracker算法進(jìn)行目標(biāo)跟蹤時,會出現(xiàn)因發(fā)生遮擋而造成誤識的現(xiàn)象.這種問題的發(fā)生是因為模板不能很好地描述當(dāng)前的追蹤,即在需要更新模板時,不去更新模板,反而減少點模板的使用,從而嚴(yán)重影響跟蹤的效果.
針對此問題,本文提出一種應(yīng)對策略—加入近況模板.近況模板,就是根據(jù)相似度大小,從最近的跟蹤結(jié)果中(與文獻(xiàn)[5]相同,本文也選擇為5幀)挑選一個與特征模板描述程度最高的追蹤結(jié)果,并加入到模板中,然后不斷地以最新的、可靠性高的追蹤結(jié)果對其進(jìn)行更新.這種策略來源于這樣一種認(rèn)識:圖像模板的變化在相對局部的范圍內(nèi)是有限的,并且大的圖像變化來源于多次較小變化的積累.同時近況模板作為一個非??煽康淖粉櫧Y(jié)果.它具有兩個重要的性質(zhì),首先它是可靠的,基本上能夠肯定是本文追蹤的目標(biāo),否則它不具有作為模板的資格;其次它是近況的,是距離當(dāng)前幀較近的一次識別結(jié)果,從而當(dāng)前目標(biāo)與它的差異程度要小于當(dāng)前目標(biāo)和特征模板的差異.
本文提到的一個誤識遮擋的典型場景是當(dāng)開始出現(xiàn)小的外觀變化時,傳統(tǒng)L1-tracker算法還認(rèn)為模板足以描述當(dāng)前追蹤的結(jié)果,而不進(jìn)行模板的更新(如果輕易更新,容易在模板上積累錯誤的特征,造成追蹤結(jié)果的偏移);但是隨著目標(biāo)逐漸發(fā)生變化,最終的結(jié)果是當(dāng)傳統(tǒng)L1-tracker算法發(fā)現(xiàn)模板已經(jīng)不能很好地描述當(dāng)前的追蹤結(jié)果時,會使用很多的點模板,進(jìn)而容易在系數(shù)矩陣二值化之后,出現(xiàn)成片的1-聯(lián)通區(qū)域,然后錯誤的識別為遮擋.而本文采用近況模板(近況矩陣)策略后,在目標(biāo)發(fā)生小的外觀變化時,tracker-2算法能夠發(fā)現(xiàn)它雖然有些小的不同,但還是可以信任的,這樣就能將這樣小的目標(biāo)變化提前保留下來,不會放任它一直積累;等發(fā)現(xiàn)需要更新模板時,就不需要大量地使用點模板,因為這些模板的變化已經(jīng)被近況模板描述了,從而減少了因遮擋而發(fā)生的錯誤判定.
在實驗中,tracker-2方法采用Matlab實現(xiàn),實驗系統(tǒng)平臺是Windows7.在具體的參數(shù)設(shè)置上,判定式Sim的預(yù)設(shè)閾值τ=0.3,超過0.3時則認(rèn)為模板已經(jīng)不能很好地描述當(dāng)前的追蹤結(jié)果;特征模板的數(shù)目為10,使用的粒子數(shù)目為600, λ=0.01,μt=10.進(jìn)行對比實驗的傳統(tǒng)L1-tracker算法也使用同樣的設(shè)置.
3.1 結(jié)果對比分析
在量化測試中,本文選擇了4個公開的標(biāo)準(zhǔn)視頻,對加入拓展模板后的優(yōu)化L1-tracker(tracker-2)算法與傳統(tǒng)的L1-tracker算法進(jìn)行對比測試.在性能評價上,文獻(xiàn)[10,15-16]通過選取區(qū)域交疊率[17]來決定每一幀的追蹤結(jié)果是否可以接受.具體描述為跟蹤目標(biāo)區(qū)域與實際目標(biāo)區(qū)域的交疊率:兩區(qū)域之交的面積與兩區(qū)域之并的面積比.設(shè)某一幀跟蹤目標(biāo)區(qū)域為ROIT,實際目標(biāo)區(qū)域為ROIG,則該幀的交疊率score可計算為
當(dāng)交疊率小于50%,則認(rèn)為該幀跟蹤失敗,進(jìn)而可定義所有幀的正確率,即正確跟蹤的幀數(shù)與總幀數(shù)之比,設(shè)總幀數(shù)為Ntotal,正確跟蹤的幀數(shù)為Nscore≥0.5,整體跟蹤正確率P為
為了能更進(jìn)一步的理解,本文將二者在對應(yīng)圖像幀中的追蹤結(jié)果與標(biāo)準(zhǔn)目標(biāo)位置的中心矩進(jìn)行對比, 如圖1~4所示.
優(yōu)化L1-tracker算法和傳統(tǒng)L1-tracker算法的處理正確率的對比結(jié)果見表1.通過對比測試結(jié)果,本文可以發(fā)現(xiàn)在Car、Singer、Walking這3個數(shù)據(jù)集中,傳統(tǒng)的L1-tracker和優(yōu)化L1-tracker(tracker2)幾乎沒有大的差別,這說明本文的改動不會破壞傳統(tǒng)L1-tracker本身具有的一些優(yōu)勢,沒有降低追蹤效果,甚至還有部分的提升.而在Face數(shù)據(jù)集中,本文優(yōu)化的L1-tracker相對于傳統(tǒng)L1-tracker有了非常顯著的提升,幾乎將整體的正確率翻倍.綜上所述,通過對4個測試集處理結(jié)果的分析可以看出,本文的方法在不破壞傳統(tǒng)L1-tracker優(yōu)勢的基礎(chǔ)上,實現(xiàn)了進(jìn)一步的性能提升.
圖1 Car 測試結(jié)果對比
圖2 Singer 測試結(jié)果對比
圖3 Walking 測試結(jié)果對比
圖4 Face 測試結(jié)果對比
序列傳統(tǒng)L1-tracker優(yōu)化L1-trackerCar0.99670.9983Singer0.99520.9972Walking0.98000.9842Face0.29310.5727
通過對圖1的分析,可以發(fā)現(xiàn)在多數(shù)時刻,優(yōu)化L1-tracker算法比傳統(tǒng)L1-tracker算法的目標(biāo)中心矩差要小,也就說,在滿足基本追蹤要求的基礎(chǔ)上,優(yōu)化L1-tracker能夠更加準(zhǔn)確地進(jìn)行跟蹤.通過對圖1分析可以看出,雖然本文的優(yōu)化L1-tracker在總體數(shù)據(jù)上略微好一些.但在特定應(yīng)用場景上,即光亮噪聲特別嚴(yán)重的時候,由于優(yōu)化L1-tracker的近況模板會比較及時地進(jìn)行更新,所以會積累一部分的光噪信息,進(jìn)而影響識別.
在圖3的Walking數(shù)據(jù)集中,對于測試視頻在200幀左右時,優(yōu)化、傳統(tǒng)的L1-tracker都出現(xiàn)了識別追蹤的偏移,此后各幀的跟蹤結(jié)果又回到了正常的追蹤水平上.這是因為在Walking測試視頻的200幀左右時,本文追蹤的主要目標(biāo)被另外一個行人擋住了絕大部分.這樣的遮擋不可避免的會引起追蹤的偏移,而L1-tracker本身非常良好的遮擋識別使其在之后的圖像幀中,又能繼續(xù)識別和追蹤目標(biāo),而不是在遮擋的時候出現(xiàn)模板劣化,進(jìn)而導(dǎo)致無法繼續(xù)追蹤.本文提出的優(yōu)化L1-tracker一方面比傳統(tǒng)L1-tracker更先出現(xiàn)偏移,同時也更先回到正常的追蹤.通過結(jié)果分析,本文得到以下結(jié)論,一方面優(yōu)化L1-tracker會有更嚴(yán)格的遮擋判定,所以很快就檢查到了遮擋,允許大量使用點模板,進(jìn)而導(dǎo)致偏移很快就出現(xiàn);另一方面,近況模板也加速了檢測到一個合適的追蹤結(jié)果,所以能夠快速地回到正確追蹤的節(jié)奏中.
在圖4中,可以發(fā)現(xiàn)優(yōu)化L1-tracker在測試中出現(xiàn)壓倒性的優(yōu)勢.在Face數(shù)據(jù)集中頻繁地出現(xiàn)目標(biāo)被遮擋和各種目標(biāo)形變,此時優(yōu)化L1-tracker具有更嚴(yán)格的遮擋判斷,避免了識別誤差的積累;同時由于近況模板的使用,可以使算法避免將目標(biāo)變化識別為遮擋,從而能夠及時地響應(yīng)形變,正確地更新模板.這樣在圖像受遮擋導(dǎo)致偏移之后,優(yōu)化L1-tracker能很快地重新回到正確的追蹤狀態(tài).相比之下,在大多數(shù)情況下,傳統(tǒng)的L1-tracker算法表現(xiàn)的性能較優(yōu)化L1-tracker算法差,同時傳統(tǒng)L1-tracker算法的曲線相對更加平滑(體現(xiàn)出錯誤不斷積累的過程);而優(yōu)化L1-tracker的曲線不平滑(體現(xiàn)了L1-tracker對于追蹤狀態(tài)的不斷檢驗),并能及時地采取正確地應(yīng)對策略.在總體的測試結(jié)果上也實現(xiàn)了大幅度地提升.
3.2 圖像對比分析
本文將一些圖像幀和追蹤到的圖像進(jìn)行直觀比較,通過視覺圖像對比,直觀地體現(xiàn)本文新策略的效果.在圖5, 6的各個子圖中,最左邊是初始標(biāo)定幀,其后分別是不同時刻的識別效果圖,方框選中的部分是L1-tracker的跟蹤結(jié)果.
圖5 優(yōu)化、傳統(tǒng)的L1-tracker在Face上的對比
圖6 測試集上的直觀追蹤圖像
在圖5中,本文對優(yōu)化、傳統(tǒng)的L1-tracker結(jié)果進(jìn)行了直觀地對比.在Face序列中,隨著大量遮擋的出現(xiàn)、使追蹤目標(biāo)交替變化出現(xiàn),這大大影響了跟蹤的準(zhǔn)確性.在圖5(b)中,傳統(tǒng)L1-tracker算法從目標(biāo)人的頭發(fā)生偏轉(zhuǎn)開始,識別結(jié)果就出現(xiàn)了明顯地偏移;而在圖5(a)中,優(yōu)化L1-tracker(tracker-2)算法則能夠基本完成追蹤任務(wù),沒有出現(xiàn)明顯的偏差.尤其是在跟蹤的后期,雖然優(yōu)化L1-tracker的追蹤目標(biāo)框已經(jīng)變得相對很小,但是它的位置還是很準(zhǔn)確.這種對比說明優(yōu)化L1-tracker算法應(yīng)對遮擋的能力較傳統(tǒng)L1-tracker算法有了極大地提升.
在圖6的測試圖像中,圖6(a)所示測試集Car的視頻主要是檢測光線變暗和位置變化帶來的目標(biāo)跟蹤問題.圖6(b)所示測試集Singer的視頻則具有更強(qiáng)的光照,甚至能夠掩蓋目標(biāo)的輪廓.在這兩個測試集中,需要注意的是在光線變化時,能否及時地更新模板響應(yīng)目標(biāo)的變化.在圖6 (a)中可以發(fā)現(xiàn)本文追蹤的目標(biāo)車輛,在入橋洞和出橋洞的時候都進(jìn)行了模板更新;入橋洞更新是響應(yīng)光影變化;但是出橋洞的更新原因,其實是容易被忽略的,因為出洞的時候似乎與入洞前的圖像一樣,一些尚未更新的模板似乎也能夠描述目標(biāo).但是其實Car的測試視頻中還是存在很強(qiáng)的光照影響,出洞后和入洞前,目標(biāo)車輛后玻璃的圖像都發(fā)生了很大變化,所以兩者都需要更新.通過對比,圖6 (b)部分則只在光變強(qiáng)的時候進(jìn)行了更新,在光變?nèi)醯臅r候沒有更新,這說明尚未進(jìn)行更新的模板還能在光照變?nèi)踔罄^續(xù)識別追蹤目標(biāo).在兩個測試過程中,位置的變化都沒有影響到追蹤的正常進(jìn)行.
1)通過對基于粒子濾波算法框架和稀疏表示技術(shù)的L1-tracker算法進(jìn)行探討,完成了對傳統(tǒng)L1-tracker圖像追蹤算法的改進(jìn),提出了新的策略-拓展模板(近況模板和固定模板)來應(yīng)對圖像目標(biāo)追蹤中的目標(biāo)被遮擋和遮擋誤判等問題.
2)在經(jīng)典圖像目標(biāo)追蹤測試集上,本文對改進(jìn)后的優(yōu)化L1-tracker算法和傳統(tǒng)L1-tracker算法進(jìn)行比較.對比實驗數(shù)據(jù)有效地證明,加入的拓展模板在不破壞算法的原有優(yōu)勢的前提下,有效地提升了L1-tracker算法的精度和應(yīng)對遮擋問題的能力.
[1] YILMAZ A, JAVED O, SHAH M. Object tracking: a survey[J]. ACM Computing Surveys, 2006, 38(4):1-45.
[2] LI Hanxi, SHEN Chunhua, SHI Qinfeng. Real-time visual tracking using compressive sensing[C]//Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2011: 1305-1312.
[3] JIA Xu. Visual tracking via adaptive structural local sparse appearance model[C]//Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Washington, DC: IEEE Computer Society, 2012: 1822-1829.
[4] ZHANG Tianzhu, GHANEM B, Liu Si, et al. Low-rank sparse learning for robust visual tracking[C]//Proceedings of the 12thEuropean conference on Computer Vision. Berlin, Heidelberg: Springer-Verlag, 2012: 470-484.
[5] ZHONG Wei. Robust object tracking via sparsity-based collaborative model[C]//Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Washington, DC: IEEE Computer Society, 2012:1838-1845.
[6] MEI Xue,LING Haibin. Robust visual tracking using1minimization[C]//Proceedings of the 12thInternational Conference on Computer Vision (ICCV). Kyoto: IEEE, 2009,1436-1443.
[7] LUCAS B D, KANADE T, et al. An iterative image registration technique with an application to stereo vision[C]// Proceedings of the 7thinternational joint conference on Artificial intelligence. San Francisco, CA : Morgan Kaufmann Publishers Inc, 1981:674-679.
[8] MEI Xue, LING Haibin. Robust visual tracking and vehicle classification via sparse representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(11):2259-2272.
[9] MEI Xue, LING Haibin, WU Yi, et al. Efficient minimum error bounded particle resampling L1-tracker with occlusion detection[J]. IEEE Transactions on Image Processing, 2013, 22(7) : 2661-2675 [10]ZHANG Kaihua,ZHANG Lei,YANG M H. Real-time compressive tracking[C]//Proceedings of the 12thEuropean conference on Computer Vision. Berlin, Heidelberg: Springer-Verlag, 2012: 864-877.
[11]BAO Chenglong, Wu Yi, Ling Haibin et al. Real time robust L1-tracker using accelerated proximal gradient approach[C]// Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Washington, DC: IEEE Computer Society, 2012:1830-1837.
[12]MEI Xue, LING Haibin, WU Yi, et al. Minimum error bounded efficient L1-tracker with occlusion detection[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Providence, RI: IEEE Xplore, 2011:1257-1264.
[13]KIM S J,KOH K,LUSTIG M,et al. An interior-point method for large-scale L1-regularized least squares[J].Journal of Selected Topics in Signal Processing, 2007, 1(4): 606-617.
[14]HAGER G D, BELHUMEUR P N. Efficient region tracking with parametric models of geometry and illumination[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(10): 1025-1039.
[15]KALAL Z, MATAS J, MIKOLAJCZYK K. P-N learning: Bootstrapping binary classifiers by structural constraints[C]// 2010 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). San Francisco, CA: IEEE Computer Society, 2010: 49-56.
[16]KALAL Z, MIKOLAJCZYK K, MATAS J. Tracking-learning-detection[J]. IEEE Transactions on, Pattern Analysis and Machine Intelligence, 2012, 34(7): 1409-1422.
[17]EVERINGHAM M, Van GOOL L, WILLIAMS C K I, et al. Thepascal visual object classes (voc) challenge[J]. International Journal of Computer Vision, 2010, 88(2): 303-338.
(編輯 張 紅)
Robust visual tracking based on expanded template
ZHANG Yongqiang, CHENG Dansong, WANG Jun, WU Rui, CHEN Jing, SHI Daming
(School of Computer Science and Technology, Harbin Institute of Technology, 150001 Harbin, China)
In video tracking applications, most algorithms often fail in such conditions as object occlusion, disappearance. To address this issue, an improved L1-tracker algorithm is proposed. Expanded templates (including the fixed template and the evolved template) are applied to improve the tracking accuracy and robustness.The fixed template keeps the original features of the target, and prevents the error introduced by false tracking result with the template update. The evolved template recording the latest tracking result is used to avoid massive use of trivial templates which will lead to the false recognition of occlusion. The experimental results on a number of standard data sets prove that the application of expended templates improves the ability of L1-tracker algorithm to deal with the occlusion problem.
image target tracking; sparse representation; L1-tracker; fixed template; evolved template
10.11918/j.issn.0367-6234.2016.04.011
2014-10-13.
國家自然科學(xué)基金 (61440025); 中國航天科技集團(tuán)公司哈爾濱工業(yè)大學(xué)聯(lián)合技術(shù)創(chuàng)新中心(CASC-HIT13-1004); 國防科工局重大專項(公開)(50-Y20A08-0508-15/16);國家博士后科學(xué)基金(20100480998).
張永強(qiáng)(1989—),男,博士研究生;
石大明(1971—),男,教授,博士生導(dǎo)師.
程丹松, cdsinhit@hit.edu.cn.
TP391
A
0367-6234(2016)04-0066-07