李 琳,余勝生
(1.武漢理工大學 計算機科學與技術(shù)學院,湖北 武漢430070;2.華中科技大學 計算機學院,湖北 武漢430070)
視覺跟蹤問題是計算機視覺領域中的一個重要問題。目前,理想環(huán)境下的視覺跟蹤算法取得了較好的研究成果[1]。但如何克服實際跟蹤過程中各種客觀因素(如光照變化)的影響,如何準確提取視覺特征,實現(xiàn)復雜環(huán)境下的魯棒視覺跟蹤已成為現(xiàn)階段研究的難點[2]。針對視覺跟蹤算法光照自適應能力差的問題,文獻[3 -5]采用多特征表征目標,或?qū)煞N跟蹤算法結(jié)合,使跟蹤更魯棒。文獻[6]將觀測模型分解為由SPCA 構(gòu)建的基本特征模型來提高光照場景下的跟蹤性能。文獻[7]通過改變顏色子模型的建立空間,保證光照變化下的穩(wěn)定跟蹤。筆者從視覺特征的提取方法和多特征融合建模兩方面進行研究,有效克服了光照變化對目標跟蹤的影響,提出了一種基于多特征動態(tài)提取的魯棒視覺跟蹤算法。
跟蹤技術(shù)的難點在于如何準確地描述目標特征并適應復雜多變的跟蹤環(huán)境。良好的圖像特征應具有以下特點:①好的區(qū)分性;②高可靠性;③強獨立性;④適度的簡約性。筆者依據(jù)上述應具有的特點,選取顏色、邊緣和運動3 種特征子模型,彼此獨立互補。各特征子模型的建立既克服了光照影響,又有效降低了計算復雜性。
由于顏色信息具有旋轉(zhuǎn)和尺度不變性,是視覺跟蹤中廣泛采用的一個重要特征。一般顏色特征子模型采用核密度估計方法建立,但為了減少光照因素對顏色特征的影響,筆者采用模糊顏色直方圖方法。將RGB 顏色空間分成m個域(取m =16)。圖像顏色特征記為Ic ={xi,yi,Ci},i =1,2,…,N,其中N為目標像素總數(shù),Ci為像素點(x,y)對應的顏色向量。顏色直方圖表示為H(Ic)={},j =1,,其中,Pi為選擇像素點i的概率,Pj|i為像素點i屬于第j個顏色域的后驗概率,Pj|i∈[0,1],Cji為像素點i在顏色域j的模糊隸屬度,某個像素點的隸屬度是根據(jù)其顏色與各顏色區(qū)間的距離來計算的。
為使同一對象在不同光照條件下的差異減小,以便獲取真實的邊緣信息,提高該特征的穩(wěn)定性,可先使用同態(tài)濾波消除或者減弱光照的影響,再提取邊緣特征。由于光照成分的頻譜主要位于低頻段,而反射成分的頻譜集中在相對高頻段,可以利用同態(tài)濾波來消除圖像中的光照不均勻現(xiàn)象[8]。由于在建立邊緣特征子模型之前,增加了預處理步驟,為減小計算復雜度,邊緣檢測算子采用梯度算子。
當跟蹤目標較小、分辨率較低時,顏色或紋理不能有效表征目標,運動特征則可作為理想的輔助特征。運動特征的提取一般采取幀差法,但當目標運動過慢或過快時,存在空洞或雙影問題,影響提取效果,因此采用改進的三幀差分法進行運動特征提取。
因為目標的邊緣運動較劇烈,為了準確捕捉到運動信息,在選取運動特征的時候?qū)⒛繕说母吆蛯捀餮由烊舾蓚€像素X=[x,y,α(w+η),α(h+η)],筆者將η 設置為8。
考慮到對視覺信號的處理過程中人眼有一個近視對數(shù)算子的環(huán)節(jié),首先利用圖像增強技術(shù)對每幀圖像的灰度進行調(diào)整,擴大目標灰度值,采用G(x,y)=clg(1 +I(x,y)),再采用三幀差分法[9]進行特征提取。
從公共視頻集中選取存在不同光照變化的視頻作為分析測試數(shù)據(jù),用單特征(如顏色,邊緣或者運動單個特征)進行跟蹤,比較筆者特征模型與其他特征提取方法在復雜光照環(huán)境下視覺跟蹤的目標特征表征能力。為敘述方便,定義基于顏色的粒子濾波為顏色跟蹤,類似定義邊緣跟蹤和運動跟蹤。圖1(a)是在顏色跟蹤情況下,采用核方法提取顏色特征值與筆者模糊直方圖建立顏色子模型進行比較的情況。在相同數(shù)量的相同光照視頻中,僅依賴顏色特征跟蹤,筆者建立的特征子模型使跟蹤結(jié)果平均準確率有2%以上的提高,能更好地克服光照的影響。圖1(b)為邊緣跟蹤情況,可以看出筆者加了同態(tài)濾波的邊緣特征特取方法,使不同光照條件下的邊緣特征置信度得到提高,明顯提高了跟蹤準確度。圖1(c)為運動跟蹤情況,筆者的運動子模型在沒有增加計算復雜度的同時,能使跟蹤準確率提高近2%。
圖1 各特征子模型光照魯棒性分析
提取的多個觀測子模型雖然能有效表示目標模型,但在實際應用中,沒有一種特征是保持不變的,有的特征在某些情況下還會失效,需要自適應動態(tài)融合。在大多數(shù)算法中,假設各種特征之間獨立,將多個特征進行乘性融合提高鑒別能力,但這樣會放大噪聲。加性融合雖然不能提高后驗概率的置信度,但對噪聲不敏感。筆者提出一個全新的融合模型,將上述兩種融合策略進行互補,并將其統(tǒng)一到一個融合模型中,通過添加融合指數(shù)εk來自適應地調(diào)整各個特征的權(quán)重。筆者的算法是基于粒子濾波框架的,第i個粒子的特征融合可表達如下:
式中:k為特征索引,當k=1 時,表示顏色特征是顏色特征觀測似然函數(shù)。當k=2 時,表示紋理特征,依次類推;和分別為所有粒子在第k個特征上相似度的最小值和最大值;α 為隨機概率,其取值在0.2 ~0.8 之間。
為使觀測概率值僅集中在少數(shù)優(yōu)秀的粒子上,引入εk來提高具有較高表現(xiàn)力特征的鑒別能力。通過實驗證明,某個特征的均值可以取粒子總數(shù)量的15%來近似逼近,表示為則多特征總體均值為假設某個特征鑒別能力較強,那么該特征的均值應該與整體分布的均值較近,εk的值應該較大,因此可定義=然后將ε'k進行歸一化,得到融合指數(shù)表達式為:
圖2 將一般加性融合、一般乘性融合與筆者的融合模型進行對比。從圖2 中可以看出乘性融合使概率密度變得更加尖銳,提高了后驗概率的鑒別能力,但乘性融合抑制了分布的多峰性;在加性融合中,多峰雖然沒有被抑制,但概率密度的峰值提高不明顯,沒有突顯真正置信度高的有效特征。筆者的融合方法既提高了特征鑒別能力,對噪聲也不太敏感,在乘性融合和加性融合中取得一種有效折衷,使粒子權(quán)值分布更符合實際情況,融合后的特征更有助于提高復雜環(huán)境下(如光照變化)的跟蹤效果。
圖2 特征融合模型比較
跟蹤算法的步驟如下:
(1)在視頻第一幀中手動選取目標區(qū)域,建立初始模型X=[x,y,w,h],提取目標模板的初始特征(顏色、邊緣和運動特征信息),產(chǎn)生N個隨機粒子每個粒子的初始權(quán)重為ωi=1/N。
(2)根據(jù)二階自回歸系統(tǒng)動態(tài)模型預測當前幀中粒子的新狀態(tài),提取每個粒子的特征觀測值,計算每個粒子的特征似然(如顏色似然pcolor(zc|xi)等),同時計算每個特征的均值。
(3)根據(jù)式(3)計算特征融合指數(shù)εk。
(4)根據(jù)式(1)和式(2)求出每個粒子的權(quán)重。當前幀目標狀態(tài)的后驗概率可以用粒子的加權(quán)和近似計算,即最終確定目標位置的估計值。
筆者所有實驗在CPU Intel Celeron 1.6 GHz(雙核),內(nèi)存1.37 GB 的條件下進行,實驗視頻可以從網(wǎng)址http://www. cs. toronto. edu/ ~dross/ivt 下載。實驗1 的視頻內(nèi)容是一輛轎車開始在陽光下行駛,然后從一座橋下經(jīng)過。視頻中存在一個顯著的光照突變情況。圖3 選取的是視頻中的第92、95、126 和133 幀。圖中方框表示目標,框中淺色和深色的點分別表示預測和重采樣的粒子。圖3 第一行是基于顏色的粒子濾波跟蹤算法效果,當車輛進入陰影時,顏色特征可靠性降低,在第126 幀時直接導致跟蹤目標丟失。圖3 第二行是基于顏色+邊緣的跟蹤算法效果,多特征采用乘性融合。在目標走出陰影的時候出現(xiàn)漂移情形,跟蹤總體效果不太理想。圖3 第三行是筆者提出的算法效果,明顯看出筆者的特征融合模型在跟蹤過程中可根據(jù)外界環(huán)境變化調(diào)整特征鑒別能力,獲得較魯棒的跟蹤結(jié)果。圖4 給出了上述幾種算法的跟蹤誤差比較。由于跟蹤目標車輛的大小為105 ×142,因此跟蹤誤差超過80 像素,一般跟蹤失敗?;陬伾母櫵惴ㄖ?,出現(xiàn)跟蹤誤差超過80 像素,目標丟失。在基于顏色+邊緣的跟蹤算法中,某些幀跟蹤誤差到達55 ~65 像素,跟丟目標的可能性較大。而筆者提出的算法的跟蹤誤差保持在30 像素以下,在存在光照突變的情況下也能得到穩(wěn)定的跟蹤結(jié)果。
圖3 實驗1 的跟蹤效果
圖4 3 種不同算法跟蹤誤差比較
實驗2 中的視頻場景復雜,存在持續(xù)的光照變化情況,跟蹤目標特征不是很明顯。圖5 第一行是基于顏色+運動的粒子濾波算法效果圖,第二行為筆者算法的效果圖。對比效果可以看出筆者的多特征提取方法合理,動態(tài)組合后能準確地表示觀測模型,并對光照不敏感,在復雜的場景下仍然能夠較好地跟蹤到目標。
圖5 實驗2 跟蹤效果
筆者采用高效的、能有效克服光照變化的特征提取方法,提出了一種新的特征融合模型,合理量化特征可靠性,提高目標特征表征的自適應性,給出了一個基于多特征動態(tài)提取的視覺跟蹤算法。實驗數(shù)據(jù)分析表明,筆者的算法在有光照變化的跟蹤環(huán)境中具有更好的魯棒性。
[1]侯志強,韓崇昭.視覺跟蹤技術(shù)綜述[J]. 自動化學報,2006,32(4):603 -617.
[2]李谷全,陳忠澤. 視覺跟蹤技術(shù)研究現(xiàn)狀及其展望[J].計算機應用研究,2010,27(8):2815 -2821.
[3]EMILIO M,F(xiàn)ABRIZIO S,ANDREA C. Adaptive multifeature tracking in a particle filtering framework[J].IEEE Trans on Circuits and System for Video Technology,2007,17(10):1348-1359.
[4]李鍇,馮瑞.基于粒子濾波的多特征融合視頻行人跟蹤算法[J].計算機工程,2012,38(24):141-145.
[5]BARDET F,CHATEAU T,RAMADASAN D. Illumination aware MCMC particle filter for long -term outdoor multi -object simultaneous tracking and classification[J]. Computer Vision,2009(6):1623 -1630.
[6]JUNSEOK K,KYOUNG M L. Visual tracking decomposition[C]∥Computer Vision and Pattern Recognition(CVPR). [S.l.]:[s.n.],2010:1269 -1276.
[7]GONCALVE T,COMPORT A I. Real - time direct tracking of color images in the presence of illumination variation[C]∥Robotics and Automation (ICRA).[S.l.]:[s.n.],2011:4417 -4422.
[8]RAFAEL C G,RICHARD E W. 數(shù)字圖像處理[M].阮秋琦,譯.北京:電子工業(yè)出版社,2002:65-132.
[9]甘明剛,陳杰,劉勁,等.一種基于三幀差分和邊緣信息的運動目標檢測方法[J]. 電子與信息學報,2010,32(4):189 -194.