胡學(xué)剛,劉忠振
(1.重慶郵電大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,重慶400065;2.重慶郵電大學(xué) 系統(tǒng)理論及其應(yīng)用研究中心,重慶400065)
運(yùn)動目標(biāo)檢測與跟蹤的研究是計(jì)算機(jī)視覺領(lǐng)域中一個重要的研究領(lǐng)域,廣泛應(yīng)用于智能交通系統(tǒng)[1-2]、安防監(jiān)控[3-4]、微生物研究[5-6]和飛行導(dǎo)航[7-8]等許多方面。
復(fù)雜的背景和目標(biāo)不規(guī)律的運(yùn)動通常是造成運(yùn)動目標(biāo)檢測與跟蹤困難的主要因素[9]。近年來,不少學(xué)者對該問題展開了深入的研究,并提出了一些不錯的檢測與跟蹤方法[10-12]。然而,對運(yùn)動目標(biāo)進(jìn)行檢測與跟蹤結(jié)果仍不理想。在目前的方法中,姚鳳會等等首先利用光流法來檢測出運(yùn)動目標(biāo),然后結(jié)合卡爾曼濾波預(yù)測和顏色特征匹配兩種方法可實(shí)現(xiàn)對運(yùn)動目標(biāo)的跟蹤[13]。但這種方法容易受到噪聲等的干擾,例如當(dāng)圖像中背景較復(fù)雜或者目標(biāo)較模糊時,不僅處理速度低,跟蹤效果也不好。Rowe等利用混合高斯模型背景建模法檢測運(yùn)動目標(biāo),并通過卡爾曼濾波,使用運(yùn)動目標(biāo)的顏色直方圖和形狀模型進(jìn)行匹配判斷達(dá)到跟蹤的目的[14]。由于該方法的跟蹤參數(shù)是固定值,因此不能進(jìn)行及時有效的更新,使得跟蹤的穩(wěn)定性較差,進(jìn)而影響到后續(xù)的跟蹤準(zhǔn)確性。Blanding等使用極大似然概率數(shù)據(jù)關(guān)聯(lián)來跟蹤目標(biāo),能夠在可視性較差的情況下完成跟蹤工作[15],但是該方法跟蹤的準(zhǔn)確性還有待進(jìn)一步的提高。Pan等利用粒子濾波進(jìn)行視頻中運(yùn)動目標(biāo)的跟蹤,算法具有很強(qiáng)的穩(wěn)定性,并且對于單目標(biāo)的跟蹤效果良好[16-17],但是對于多目標(biāo)跟蹤的精確性方面效果有些差強(qiáng)人意。
針對運(yùn)動目標(biāo)檢測與跟蹤算法較難同時保證準(zhǔn)確性和穩(wěn)定性的問題,本文提出了一種有效的方法。首先在高斯背景建模中,采用了分塊拼接的方式來初始化背景模型,并且利用動態(tài)權(quán)值完成背景自適應(yīng)更新,使得背景模型能夠持續(xù)有效,再采用背景差分法檢測出運(yùn)動目標(biāo)。在目標(biāo)跟蹤中,將檢測到的運(yùn)動目標(biāo)區(qū)域和質(zhì)心位置信息作為Kalman預(yù)測的狀態(tài)信息,結(jié)合其他相關(guān)參數(shù)完成運(yùn)動目標(biāo)的預(yù)測跟蹤,并且對觀測噪聲矩陣進(jìn)行自適應(yīng)取值,使得跟蹤的穩(wěn)定性得到加強(qiáng)。
背景差分法是運(yùn)動目標(biāo)檢測中使用最廣泛的一種方法。該方法能夠完整的檢測出運(yùn)動目標(biāo),且算法簡單、快速。不過,此種方法的檢測效果與提取的背景質(zhì)量成正比。因此,背景的生成成為該方法最關(guān)鍵的步驟。背景的生成分為兩部分:背景的初始化和背景的更新。一般來說,背景的更新是小范圍的,背景的初始化至關(guān)重要。
本文針對背景的初始化,在非相鄰二次幀間差分法的基礎(chǔ)上,采用背景區(qū)域拼接的方式,從而得到一個相對理想的初始化背景。然后通過對圖像中每個像素點(diǎn)進(jìn)行高斯建模,從而完成背景隨時間的更新過程,保證背景的持續(xù)有效。由于目標(biāo)在運(yùn)動的過程中相鄰幾幀之間經(jīng)常會發(fā)生過多的交集,所以在二次幀差法做輔助進(jìn)行背景初始化的過程中使用的是非相鄰二次幀差法,如1、6、11幀圖像。
選取閾值T1,通過二次幀差法檢測出第6幀圖像中的運(yùn)動目標(biāo)二值圖像,接著利用數(shù)學(xué)形態(tài)學(xué)方法對所得圖像進(jìn)行補(bǔ)充孔洞,然后通過鄰域?yàn)V波法對所得二值圖像進(jìn)行處理從而消除孤立點(diǎn)噪聲,用0.5作為閾值來得到一個處理后的二值圖像。這個二值圖像可以粗略的表示為運(yùn)動目標(biāo)所在的位置,為后續(xù)工作中的背景提取作鋪墊。
對此時二值圖像中的各個區(qū)域進(jìn)行標(biāo)志,并且按區(qū)域面積從大到小進(jìn)行排序。選取區(qū)域面積大于100的區(qū)域,其他的小區(qū)域舍棄。對于剩下的區(qū)域匹配出一個矩形框,且此矩形框比所在區(qū)域的最小矩形框稍大一些,以此來保證運(yùn)動目標(biāo)被包含在此矩形框中,且本文中選取1.1作為長和寬放大系數(shù)。
對視頻第6幀中選取的矩形區(qū)域進(jìn)行挖空處理,然后使用其他幀中的相對應(yīng)區(qū)域進(jìn)行背景的拼接。這樣保證靜態(tài)背景初始化的良好,從而使得提取的背景在差分中的精確性。
以上便完成了背景的初始化工作,下面將對背景進(jìn)行高斯建模并完成持續(xù)有效的更新。
為了提高算法效率,降低時間復(fù)雜度,本文在對背景建模的時候先對視頻圖像序列轉(zhuǎn)化為灰度圖像,即圖像中每個像素點(diǎn)的值從3維變成1維,以減少后續(xù)的計(jì)算量。此時,視頻圖像中每個點(diǎn)(x,y)的像素灰度值看作獨(dú)立的高斯分布,即
其中μ(x,y)和是σ(x,y)分別是(x,y)位置灰度值的均值和標(biāo)準(zhǔn)差,通過視頻前N幀序列初始化高斯模型,μ(x,y)和方差σ2(x,y)的初始值為
這里Ii(x,y)是第i幀圖像在點(diǎn)(x,y)處的灰度值。因?yàn)榍懊嬉呀?jīng)通過區(qū)域拼接實(shí)現(xiàn)了背景模型的初始化,所以高斯模型中的μN(yùn)(x,y)不作為初始化背景的數(shù)據(jù),只作為背景更新的初始數(shù)據(jù)。在整個算法過程中,高斯模型的主要作用是實(shí)現(xiàn)背景更新。
現(xiàn)在來考慮背景模型的更新。首先設(shè)置一個控制更新幅度值T2為初始更新閾值,使得圖像分為兩個區(qū)域:背景更新區(qū)域和非更新區(qū)域。注意此處的非更新區(qū)域和前景區(qū)域不對等,且非更新區(qū)域包含前景區(qū)域。設(shè)1表示該像素點(diǎn)需要進(jìn)行背景更新,0表示不需要進(jìn)行背景更新,Ki(x,y)為背景更新區(qū)域二值掩模圖。即
且
在背景更新過程中,作為背景學(xué)習(xí)率的權(quán)值α控制著更新的幅度。一般而言,α值經(jīng)常取為固定常數(shù)。為保證更新的自適應(yīng)性,這里采用動態(tài)權(quán)值α進(jìn)行更新,且與高斯分布中的概率ρ相關(guān)。根據(jù)高斯分布,得出第i幀圖像在點(diǎn)(x,y)處灰度值的概率,即
且背景動態(tài)學(xué)習(xí)率設(shè)為α為
通過式(5)-式(7)可以得出,若更新區(qū)域像素點(diǎn)概率越小則更新作用越大,否則越小。利用背景差分閾值T3來檢測出背景區(qū)域,即
式(4)和式(8)中T2、T3分別是低、高閾值,使得灰度值在兩者之間的像素值不參與背景模型的更新,從而獲得更可靠的背景更新。
Kalman濾波器是一種線性遞歸濾波器,基于系統(tǒng)以前的狀態(tài)序列對下一個狀態(tài)做最優(yōu)估計(jì),預(yù)測時具有無偏、穩(wěn)定和最優(yōu)的特點(diǎn)。Kalman濾波的狀態(tài)預(yù)測方程定義為
X(k|k-1)=AX(k-1|k-1)+BU(k)(9)式中:X(k|k-1)——通過k-1時刻狀態(tài)值來對k狀態(tài)的預(yù)測值,X(k-1|k-1)——k-1時刻最優(yōu)估計(jì)狀態(tài)值,U(k)——k時刻的控制量,A——狀態(tài)轉(zhuǎn)移矩陣。這里,狀態(tài)轉(zhuǎn)移矩陣A為
式中:t——現(xiàn)在狀態(tài)與上一狀態(tài)間的時間間隔數(shù),且定義相鄰兩幀間的時間間隔為1。
用P(k|k-1)來表示與預(yù)測值X(k|k-1)相對應(yīng)的誤差協(xié)方差,即
根據(jù)k時刻的測量值和預(yù)測值,得出k時刻的最優(yōu)估計(jì)值為
式(12)中H為觀測矩陣,其值可以設(shè)為
Kg為卡爾曼濾波增益(Kalman Gain)
式(14)中R為觀測噪聲協(xié)方差,且誤差協(xié)方差矩陣初始值P(0)可以設(shè)為
最后對k時刻與X(k|k)對應(yīng)的誤差協(xié)方差進(jìn)行更新
在實(shí)際的運(yùn)動目標(biāo)跟蹤中,因?yàn)榇嬖谥鴪鼍肮獍底兓雀蓴_因素,所以運(yùn)動目標(biāo)檢測算法的精度不可能恒定不變,即實(shí)際的觀測噪聲是不斷變化的,也就是說在Kalman濾波預(yù)測過程中,觀測噪聲協(xié)方差不是一個固定值。因此,如果在預(yù)測過程中依然使用固定的觀測噪聲協(xié)方差矩陣R是不合理的,將使得跟蹤效果誤差增加。本文受文獻(xiàn)[18]啟發(fā),為了能夠保證跟蹤效果的更加精確,提出一種觀測噪聲協(xié)方差矩陣R自適應(yīng)的算法。
在本實(shí)驗(yàn)室中,最后所得最優(yōu)估計(jì)信息為運(yùn)動目標(biāo)的形心坐標(biāo)?;具^程為:首先通過檢測來得到目標(biāo)形心坐標(biāo),然后通過Kalman濾波得到形心坐標(biāo)預(yù)測值,最后根據(jù)預(yù)測所得的預(yù)測值和檢測所得的狀態(tài)值來獲得最優(yōu)估計(jì)值,從而完成運(yùn)動目標(biāo)跟蹤。
由于在運(yùn)動目標(biāo)檢測與跟蹤中,可以近似的認(rèn)為系統(tǒng)噪聲協(xié)方差Q是恒定值,那么跟蹤誤差的主要原因便是觀測噪聲協(xié)方差R。通過對狀態(tài)轉(zhuǎn)移矩陣A中t值的兩次不同選取,利用兩次Kalman濾波得到目標(biāo)形心坐標(biāo)的兩個最優(yōu)估計(jì)值,分別記作X1(k|k)和X2(k|k)。為了判斷當(dāng)前觀測噪聲協(xié)方差R的估計(jì)是否精確,設(shè)定一對上下門限high和low。如果|X1(k|k)-X2(k|k)|>high,即兩個最優(yōu)估計(jì)值之差大于上門限時,則認(rèn)為觀測噪聲估計(jì)偏高,需要增加觀測值的可靠性,取R=λ1R,其中0<λ1<1;如果|X1(k|k)-X2(k|k)|<low,即兩個最優(yōu)估計(jì)值之差小于下門限時,則認(rèn)為觀測值的可靠性降低,需要提高觀測噪聲協(xié)方差,取R=λ2R,其中λ2>1。其他情況下,當(dāng)low<|X1(k|k)-X2(k|k)|<high時,則R的值保持不變。即
本文采用靜止攝像頭下的室內(nèi)人體運(yùn)動和室外車輛運(yùn)動視頻圖像進(jìn)行實(shí)驗(yàn),其中實(shí)驗(yàn)參數(shù)設(shè)定為:T1=20,T2=15,T3=40,high=1,low=0.001,λ1=0.5,λ2=1.5。實(shí)驗(yàn)結(jié)果如下圖所示。
圖1為室內(nèi)運(yùn)動人體的檢測與跟蹤圖。其中(a)和(b)分別為第16幀、25幀經(jīng)過背景差分后的二值圖像,可以看出目標(biāo)檢測較為完整且穩(wěn)定有效;(c)和(d)分別為第16幀、25幀通過Kalman濾波器的目標(biāo)跟蹤圖,可以看出目標(biāo)跟蹤較為準(zhǔn)確且穩(wěn)定有效,其中綠色 “+”為目標(biāo)質(zhì)心的最優(yōu)估計(jì)位置。圖2為室外運(yùn)動車輛的檢測與跟蹤圖。其中(a)和(b)分別為第333幀、345幀經(jīng)過背景差分后的二值圖像,(c)和(d)分別為第333幀、345幀通過Kalman濾波器的目標(biāo)跟蹤圖,可以看出效果同樣良好。圖1屬于室內(nèi)非剛體運(yùn)動,其目標(biāo)形狀時刻變化且陰影、反射等干擾較大;圖2屬于室外剛體運(yùn)動,其目標(biāo)形狀基本不變且光線、樹枝抖動等干擾較大。通過圖像結(jié)果可以看出:在這兩種情況下,本文算法具有較好的抗噪聲性能,都能夠完成準(zhǔn)確、穩(wěn)定的檢測和跟蹤。
本文提出了基于高斯模型和卡爾曼預(yù)測的檢測與跟蹤算法:利用背景區(qū)域拼接和非相鄰幀二次差分來獲得初始背景,加強(qiáng)了背景初始化的準(zhǔn)確性;依據(jù)每個像素點(diǎn)建立高斯模型,對背景進(jìn)行持續(xù)有效的更新,從而保證目標(biāo)檢測的持續(xù)有效;在目標(biāo)跟蹤中,引入Kalman預(yù)測方法,結(jié)合目標(biāo)檢測獲得一個良好的跟蹤效果。本文算法能夠快速有效地檢測出運(yùn)動目標(biāo),并且在跟蹤方面取得良好的效果。
[1]WANG Wei,YAO Minghai.Intelligent transportation monitoring system based on computer vision[J].Journal of Zhejiang University of Technology,2010,38(5):574-579(in Chinese).[王為,姚明海.基于計(jì)算機(jī)視覺的智能交通監(jiān)控系統(tǒng)[J].浙江工業(yè)大學(xué)學(xué)報,2010,38(5):574-579.]
[2]XU Yang,WU Chengdong,CHEN Dongyue.Survey of videobased image traffic automatic incident detection algorithm[J].Application Research of Computers,2011,28(4):1206-1210(in Chinese).[徐楊,吳成東,陳東岳.基于視頻圖像的交通事件自動檢測算法綜述[J].計(jì)算機(jī)應(yīng)用研究,2011,28(4):1206-1210.]
[3]TANG Yiping,HE Zuling,JIN Ye,et al.ATM intelligent surveillance based on ODVS[J].Journal of Zhejiang University of Technology,2010,38(1):26-32(in Chinese).[湯一平,何祖靈,金冶,等.基于全方位計(jì)算機(jī)視覺的ATM機(jī)智能監(jiān)控[J].浙江工業(yè)大學(xué)學(xué)報,2010,38(1):26-32.]
[4]TANG Yiping,HU Feihu.Theft detection based on omni-directional vision sensors[J].Journal of Computer Applications,2010,30(1):36-40(in Chinese).[湯一平,胡飛虎.基于全方位計(jì)算機(jī)視覺的盜竊事件檢測[J].計(jì)算機(jī)應(yīng)用,2010,30(1):36-40.]
[5]GE Yun,ZHANG Dong.Automated methods for particle tracking of the intracellular transport of clathrin-coated pits and vesicles[J].Journal of Southeast University(Natural Science Edition),2009,39(3):464-467(in Chinese).[葛云,章東.活體細(xì)胞圖像斑點(diǎn)的自動提取和跟蹤方法[J].東南大學(xué)學(xué)報:自然科學(xué)版,2009,39(3):464-467.]
[6]CHEN Yuan,ZHAO Zhimin,LIU Lei.Automatic tracking and measurement of blood cells motion in microcirculation based on ST image[J].Journal of Southeast University(Natural Science Edition),2011,41(1):72-76(in Chinese).[陳遠(yuǎn),趙志敏,劉磊.基于ST圖的微循環(huán)血細(xì)胞自動跟蹤與測量技術(shù)[J].東南大學(xué)學(xué)報:自然科學(xué)版,2011,41(1):72-76.]
[7]CUI Hao,CHEN Xiaotian,YANG Weiping,et al.Passive tracking of maneuvering target with image aiding[J].Infrared and Laser Engineering,2011,40(8):1594-1600(in Chinese).[崔顥,陳曉天,楊衛(wèi)平,等.圖像輔助的機(jī)動目標(biāo)被動跟蹤[J].紅外與激光工程,2011,40(8):1594-1600.]
[8]HUANG Changzhuan,WANG Biao,YANG Zhong.Fast pose estimation method for flight vehicles based on computer vision[J].Computer Measurement & Control,2009,17(7):1378-1380(in Chinese).[黃長專,王彪,楊忠.基于計(jì)算機(jī)視覺的飛行器姿態(tài)快速估計(jì)方法[J].計(jì)算機(jī)測量與控制,2009,17(7):1378-1380.]
[9]XIAO Guoqiang,KANG Qin,JIANG Jianmin,et al.Tracking video object based on central macroblocks[J].Chinese Journal of Computers,2011,34(9):1712-1718(in Chinese).[肖國強(qiáng),康勤,江健民,等.基于中心宏塊的視頻目標(biāo)跟蹤算法[J].計(jì)算機(jī)學(xué)報,2011,34(9):1712-1718.]
[10]Subudhi B N,Nanda P K,Ghosh A.A change information based fast algorithm for video object detection and tracking[J].IEEE Transactions on Circuits and Systems for Video Technology,2011,21(7):993-1004.
[11]Jazayeri A,Hongyuan Cai,Jiang Yu Zheng.Vehicle detection and tracking in car video based on motion model[J].IEEE Transactions on Intelligent Transportation Systems,2011,12(2):583-595.
[12]ZHENG Kebiao,HUANG Wenqing,ZHANG Zuoli,et al.Occlusion handling in moving object tracking system[J].Computer Engineering and Design,2009,30(11):2816-2818(in Chinese).[鄭可飚,黃文清,張佐理,等.運(yùn)動目標(biāo)跟蹤系統(tǒng)的遮擋問題處理[J].計(jì)算機(jī)工程與設(shè)計(jì),2009,30(11):2816-2818.]
[13]Yao Fenghui,Sekmen A,Malkani M J.Multiple moving target detection,tracking,and recognition from a moving observer[C]//New York:Proceedings of the IEEE International Conference on Information and Automation,2008:978-983.
[14]Rowe D,Reid I,Gonzalez J,et al.Unconstrained multiplepeople tracking[C]//Proceedings of the 28th DAGM Symposium.Berlin:Springer,2006:505-514.
[15]Blanding W R,Willett P K,Bar-Shalom Y.Multiple target tracking using maximum likelihood probabilistic data associa-tion[C]//Proceedings of IEEE Aerospace Conference.Big Sky,2007:1-12.
[16]Pan P,Schonfeld D.Dynamic proposal variance and optimal particle allocation in particle filtering for video tracking[J].IEEE Transactions on Circuits and Systems for Video Technology,2008,18(9):1268-1279.
[17]Angelova D,Mihaylova L.Extended object tracking using monte carlo methods[J].IEEE Transactions on Signal Processing,2008,56(2):825-832.
[18]WANG Xianghua,QIN Zheng,YANG Xinyu,et al.Adaptive algorithm for adjusting observation noises based on double-Kalman filter[J].Systems Engineering and Electro-nics,2010,32(2):232-234(in Chinese).[王向華,覃征,楊新宇,等.基于兩次Kalman濾波的觀測噪聲自適應(yīng)調(diào)整算法[J].系統(tǒng)工程與電子技術(shù),2010,32(2):232-234.]