蔣 明,潘姣麗
(西安電子科技大學(xué) 計算機學(xué)院,陜西 西安 710071)
在視頻序列中,目標區(qū)域背景的估計和目標的提取是智能監(jiān)控領(lǐng)域的關(guān)鍵問題之一,它對于后續(xù)的目標分割、跟蹤和更高層次的理解等處理非常重要。在解決此問題的方案中,背景差分法是近年來常用的方法,并且其在運動目標檢測中也獲得了大量的應(yīng)用[1-3]。但該方法存在著缺陷,如背景中包含的陰影、運動的物體(如搖擺的樹枝、移動的電梯以及經(jīng)歷各種變化如光照變化)都會給背景差分帶來干擾,所以建立一個好的自適應(yīng)的背景模型成為一個亟待解決的問題。
目前已經(jīng)提出很多建立自適應(yīng)背景模型的方法。Richard等[4]人利用單高斯分布進行背景更新,但不能有效地處理室外頻繁變化的場景。Stauffer等[5]人利用混合高斯模型來建立背景模型,在每幀中對各個像素點建立由多個高斯分布組成的背景模型。該方法能魯棒性地克服光照變化、樹枝擺動等造成的影響,但是由于在每幀圖片中要對所有的像素點都建立多個固定的高斯分布,在處理時會消耗大量的系統(tǒng)資源。近年來,Zivkovic等[6]人利用最大似然估計提出了一種高斯模型個數(shù)的選擇方法。該方法由于人為地引入了負的先驗系數(shù),使得在更新過程中高斯模型的權(quán)重有可能被不合理地負更新。上述自適應(yīng)背景模型都存在一些問題,不能很好地解決背景估計和目標檢測的問題。
為解決背景估計和目標檢測問題,本文提出了一種有效的兩階段視頻圖像處理方法。該方法在第一階段根據(jù)該像素點的優(yōu)先級來自動調(diào)整它的高斯個數(shù),從而有效地降低背景提取的速度;在第二階段對目標區(qū)域和非目標區(qū)域采取不同的更新策略,即對目標區(qū)域做緩慢更新、非目標區(qū)域做快速更新,此階段可以有效地解決目標提取不完整的問題。
Stauffer等人[7]用由K個高斯分布組成的混合高斯模型表示同一個像素在時間域上的概率分布,即對于圖像中的第 n個像素在 1~t不同時刻取值分別為{Xn1,…,Xnt},當(dāng)前幀圖像中的第n個像素值在t時刻的概率分布為:
閾值TB決定了高斯分布在背景選取所占的比例,再取值較小時,背景通常用一個高斯分布表示;取值較大時,背景由多個分布混合表示。
第一階段,針對傳統(tǒng)的混合高斯模型為每個像素點分配了固定的高斯個數(shù),但這樣會造成系統(tǒng)資源浪費和降低背景建模的速度問題,因此提出了一種動態(tài)調(diào)節(jié)混合高斯分布個數(shù)的方案;第二階段,針對物體運動緩慢或者長時間停留造成目標像素更新到背景中導(dǎo)致目標提取的不完整問題,提出了一種緩慢或滯留目標問題的解決方案。
根據(jù)上述分析,使用如下策略對傳統(tǒng)的混合高斯模型的更新過程加以改進:
(1)初始化:初始化對每個像素只選取一個高斯分布(可以用初始的一幀或多幀圖像的平均值來初始化背景模型)。
(2)增加新的高斯分布:若新的像素值沒有與任何高斯分布匹配,則判斷該像素點高斯分布的個數(shù)是否達到最大值。若沒有達到,則增加一個以當(dāng)前像素值Xnt為均值、σinit為標準差、ωinit為權(quán)值的高斯分布;否則按照傳統(tǒng)高斯模型的方法替換優(yōu)先級最小的那個高斯分布。
(3)處理“重疊的高斯分布”:檢測 i、j兩個高斯分布均值的差值,如果滿足|μni,t-μnj,t| 首先在高斯模型中判別目標區(qū)和非目標區(qū),在對當(dāng)前像素點進行模型匹配時,假設(shè)當(dāng)前像素值與第m個高斯分布相匹配,或沒有找到任何相匹配的高斯分布。若m (4)刪除“無效的高斯分布”:若滿足式(5),則判斷該高斯分布為“無效的高斯分布”,將其刪除。 然后對生成的二值圖像進行形態(tài)學(xué)處理生成新的二值圖像MOM。首先對二值圖像進行形態(tài)腐蝕運算處理,其目的是消除一些小的、孤立的噪聲點,在此基礎(chǔ)上,利用形態(tài)膨脹運算進行處理,其目的是填充運動區(qū)域中可能出現(xiàn)的一些孔洞,即根據(jù)式(7)生成新的二值圖像MOM。 再對高斯模型實施新的更新策略: 其中,0<αS<αF<1。 為驗證本文算法的有效性,根據(jù)上述兩階段視頻圖像處理方法采用VC++6.0編寫程序,在Inter 3.0 GHz處理器、1 GB內(nèi)存的PC機上對多個視頻進行了測試。所處理視頻的分辨率均為320×240。 首先設(shè)置各個變量,選取最大高斯分布個數(shù)為3,初始權(quán)值 ωinit為 0.05,標準差 σinit為 20,模型學(xué)習(xí)率 α 為0.1,權(quán)值更新率β為0.1。改進算法中高斯分布個數(shù)示意圖如圖1所示。 圖1 改進算法中高斯分布個數(shù)示意圖 圖1中第一列為視頻某一幀的原始圖像,第二列圖像為這些幀上每個像素的高斯分布個數(shù),黑色、灰色以及白色區(qū)域分別表示該像素由 1個、2個、3個高斯模型。由圖可知,對于靜態(tài)背景下的視頻的大多數(shù)區(qū)域場景比較穩(wěn)定,使用一個高斯分布便可滿足要求,而有行人經(jīng)過的地方場景會頻繁變化,需要2~3個高斯模型。同樣當(dāng)場景狀態(tài)變化較為復(fù)雜時,如圖1(a),由于圖中燈光照射陰影的存在和圖1(c)中樹葉的搖擺,也需要較多的高斯分布才能實現(xiàn)背景的建模。此外,由于攝像機抖動的存在,也會造成在紋理豐富區(qū)域像素的高斯分布個數(shù)增加,如圖1(b)中建筑物的邊緣等。 利用傳統(tǒng)的混合高斯模型方法對這三幀圖像的處理時間分別為 27.9 ms、28.1 ms、28.6 ms,而使用兩階段視頻圖像處理方法的處理時間分別為19.6 ms、20.3 ms、22.7 ms??梢钥闯?,通過動態(tài)調(diào)節(jié)混合高斯分布個數(shù)可以顯著提高背景建模的速度,從而有效地節(jié)約了運算資源。此外,隨著背景狀態(tài)變化復(fù)雜程度的增加,每個像素的混合高斯模型需要更多的高斯分布,也就需要更多的處理時間,如對圖1(c)的處理時間會相應(yīng)較長。 首先設(shè)置各個變量,選取高斯模型的最大高斯分布個數(shù)為 4,初始權(quán)值 ωinit為 0.05,標準差 σinit為 20,模型學(xué)習(xí)率 α 為 0.1,αF為 0.3,αS為 0.03, 權(quán)值更新率 β 為0.1,背景權(quán)值閾值TB為0.7。滯留目標檢測結(jié)果對比示意圖如圖2所示。 圖2 滯留目標檢測結(jié)果對比示意圖 圖2中第一列從上到下依次為:當(dāng)前幀視頻圖像、估計背景和目標二值圖像。由圖2可以看到,短期滯留的目標沒有被更新到背景區(qū)域,提取出比較完整的目標,避免了空洞現(xiàn)象。 本文提出了一種有效的兩階段視頻圖像處理方法,在第一階段,動態(tài)地更新每個像素高斯分布的個數(shù),顯著提高了背景建模的速度;第二階段,在目標區(qū)和非目標區(qū)采用不同的更新策略,有效地解決了滯留目標像素融入背景的問題,同時也減弱了慢速運動物體對背景模型的影響。通過大量的實驗測試證明,即使在光線變化、車輛人流雜亂的場合中,背景生成也是穩(wěn)定的,具有較好的自適應(yīng)性。 在實驗中發(fā)現(xiàn),與路面顏色相近的人或者車輛可能在背景差分的過程中誤判為背景,因此,如何利用色度之外的信息量建立背景模型,從而更有效地區(qū)分背景和前景,將是今后需要解決的問題。 [1]KAEW T K P P,BOWDER R.An improved adaptive background mixture modelfor real-time tracking with shadow detection [C].The 2nd European Workshop on Advanced Video-based Surveillance Systems.Kingston:Kluwer Academic Publishers, 2001: 1-5. [2]ELGAMMAL A,DURAISWAMI R,DAVIS L.Efficient non parametric adaptive color modeling using fast gauss transform[C].IEEE Conference on ComputerVision and Patern Recognition, Kauai, Hawaii, December, 2001. [3]COLLINS R,LIPTON A, KANADE T.A system for video surveillance and monitoring[C].Proceeding.Am.Nuclear Soc.(ANS)Eighth Int′l Topical Meeting Robotic and Remote Systems,Apr.1999. [4]WREN C R,AZARBAYE J A,DARRELL T P.Real-time tracking of the human body[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997,19(7):780–785. [5]STAUFFER C,GRIMSON W E L.Adaptive background mixture models for real-time tracking[C].Computer Vision and Pattern Recognition.CO, USA: IEEE, 1999: 246-250. [6]ZIVKOVIC Z,HEIJDEN F V D.Efficient adaptive density estimation perimage pixelforthe task ofbackground subtraction[J].Pattern Recognition Letters, 2006, 27(5):827-832. [7]STAUFFER C,GRIMSONW E L.Learningpatternsof activity using real-time tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(8):747-757.2.2 對第二階段的緩慢或滯留目標問題的解決方案
3實驗評估
3.1 動態(tài)調(diào)節(jié)高斯分布個數(shù)方案性能評估
3.2 緩慢或滯留目標問題的解決方案性能評估