楊文浩 李小曼
摘要:針對(duì)單高斯背景模型不能適應(yīng)非平穩(wěn)場(chǎng)景且對(duì)初期保持靜止后期運(yùn)動(dòng)的物體造成“鬼影”現(xiàn)象的問(wèn)題,提出了融合子塊梯度與線性預(yù)測(cè)的單高斯背景建模方法。首先,對(duì)每個(gè)像素點(diǎn)進(jìn)行單高斯背景建模,并實(shí)現(xiàn)像素級(jí)的自適應(yīng)更新,運(yùn)用子塊梯度算法將梯度在閾值內(nèi)的子塊作為背景以消除“鬼影”;然后,將子塊梯度法獲得的前景與單高斯模型確定的前景做與運(yùn)算,提高在非平穩(wěn)場(chǎng)景下對(duì)背景的判斷能力;最后,運(yùn)用線性預(yù)測(cè)方法處理獲得的前景點(diǎn),將面積小于閾值的連通區(qū)域還原為背景。采用CDNET 2012 Dataset和Wallflower Dataset進(jìn)行仿真實(shí)驗(yàn):當(dāng)場(chǎng)景變化幅度較大時(shí),所提算法與混合高斯模型(GMM)相比,雖然檢測(cè)率稍有下降,但檢測(cè)精度提高了40%;在其他場(chǎng)景中檢測(cè)率雖只提高約10%,檢測(cè)精度卻能提高25%以上。實(shí)驗(yàn)結(jié)果表明,融合子塊梯度與線性預(yù)測(cè)的單高斯背景建模能夠適應(yīng)非平穩(wěn)場(chǎng)景并消除“鬼影”現(xiàn)象,獲得的背景比混合高斯模型更精確,提取的前景細(xì)節(jié)更豐富。
關(guān)鍵詞:非平穩(wěn)場(chǎng)景;鬼影;單高斯模型;子塊梯度;線性預(yù)測(cè)
中圖分類(lèi)號(hào):TP391.9 文獻(xiàn)標(biāo)志碼:A
Abstract:In order to solve the problem that the Single Gaussian Model (SGM) for background could not adapt to nonstationary scenes and the "ghost" phenomenon due to sudden moving of a motionless object. An SGM for background using blockbased gradient and linear prediction was put forward. Firstly, SGM was implemented on the pixel level and updated adaptively according to the changes of the pixels values, at the same time the frame was processed by the blockbased gradient algorithm, obtaining the background by judging whether the gradient of subblock was within the threshold value and eliminating "ghost"; and then foreground from the blockbased gradient algorithm and that from the SGM were made "AND" operation, improving the judgment of the background in nonstationary scenes; lastly the linear prediction was employed to process the foreground acquired from the previous operation, resetting the connected regions whose area was less than the threshold value as the background. Simulation experiments were conducted on the CDNET 2012 dataset and Wallflower dataset. In the scenes which varied by a large margin, the accuracy of the proposed method was 40% higher than that of the Gaussian Mixture Model (GMM) in spite of the fact that the detection rate of the proposed method was lower than that of GMM; but in other scenes, the rate of detection was 10% higher and the accuracy was 25% higher. The simulation results show that the proposed method is able to accommodate to the nonstationary scenes and achieve the goal of wiping the "ghost" off, as well as obtain a better result of the background and more detailed foreground than GMM.
Key words:nonstationary scene; ghost; Single Gaussian Model (SGM); blockbased gradient; linear prediction
0 引言
背景建模目前廣泛地應(yīng)用于視頻處理中,與光流法、均值法等算法相比,背景建模具有抗噪能力較強(qiáng)、精度較高的優(yōu)點(diǎn),為提高目標(biāo)檢測(cè)的準(zhǔn)確性,背景模型的建立就成為了關(guān)鍵[1]。在實(shí)際應(yīng)用環(huán)境中,背景可能會(huì)經(jīng)常發(fā)生變化,這在建模過(guò)程產(chǎn)生了干擾,一個(gè)有效的背景模型應(yīng)能解決視頻中以下問(wèn)題[2]:
1)背景模型的提取。背景的獲取最理想的情況是初始時(shí)沒(méi)有任何運(yùn)動(dòng)物體,但是許多場(chǎng)合都無(wú)法滿(mǎn)足這一要求。
2)背景的輕微運(yùn)動(dòng)。背景物體自身會(huì)有一些運(yùn)動(dòng),這些運(yùn)動(dòng)的背景不應(yīng)成為檢測(cè)目標(biāo)。
3)外界光線的變化。室外光照的自然變化、室內(nèi)開(kāi)關(guān)燈都會(huì)對(duì)運(yùn)動(dòng)目標(biāo)的檢測(cè)造成干擾。
4)陰影的影響。運(yùn)動(dòng)物體的陰影同樣會(huì)被檢測(cè),在一些應(yīng)用環(huán)境下會(huì)對(duì)后續(xù)的處理造成影響。
Wren等[3]提出的單高斯模型(Single Gaussian Model, SGM)從統(tǒng)計(jì)的角度假設(shè)灰度變化服從正態(tài)分布,將灰度變化超出閾值的像素點(diǎn)判定為前景點(diǎn),在平穩(wěn)場(chǎng)景下取得較理想的效果;但由于沒(méi)有將像素的時(shí)空信息結(jié)合起來(lái)考慮,非平穩(wěn)場(chǎng)景易對(duì)單高斯模型產(chǎn)生較大干擾,造成誤判且無(wú)法校正。對(duì)此,研究人員進(jìn)行了相應(yīng)改進(jìn):李偉生等[4]對(duì)像素點(diǎn)分別建立時(shí)間背景模型和空間背景模型,采用不同的更新策略,較好地解決了非平穩(wěn)場(chǎng)景造成的問(wèn)題。與單高斯模型對(duì)每個(gè)像素點(diǎn)單獨(dú)建模相比,黃大衛(wèi)等[5]將每幀劃分成塊后,采用分塊單高斯建模的方法提高了檢測(cè)效果,增強(qiáng)了魯棒性。陳銀等[6]將單高斯模型與MeanShift算法結(jié)合,使用MeanShift算法對(duì)單高斯模型確定為前景的像素點(diǎn)進(jìn)行修正,實(shí)現(xiàn)了自適應(yīng)變化的目標(biāo)。借鑒子塊梯度法對(duì)局部運(yùn)動(dòng)不敏感,適用于非平穩(wěn)場(chǎng)景的特點(diǎn),本文對(duì)各像素點(diǎn)建立背景模型進(jìn)行像素級(jí)的自適應(yīng)更新,并融合了子塊梯度法和線性預(yù)測(cè)方法,對(duì)原有算法進(jìn)行改進(jìn),較好地解決了背景局部運(yùn)動(dòng)造成的誤判和物體先期靜止后期運(yùn)動(dòng)造成的“鬼影”問(wèn)題。
由于單高斯模型自身的局限,無(wú)法適應(yīng)非平穩(wěn)場(chǎng)景且不能適應(yīng)物體由靜而動(dòng)的變化。當(dāng)背景發(fā)生局部運(yùn)動(dòng)時(shí)造成大量的誤判,且不可修正;對(duì)于先期靜止,后期運(yùn)動(dòng)的物體,單高斯模型也會(huì)造成“鬼影”。本文引入子塊梯度法來(lái)改善。
1.2 子塊梯度法
子塊梯度法對(duì)背景的局部運(yùn)動(dòng)不敏感,更適用于非平穩(wěn)場(chǎng)景,提取出的運(yùn)動(dòng)目標(biāo)較為粗糙,不適于對(duì)運(yùn)動(dòng)目標(biāo)分割要求較高的應(yīng)用場(chǎng)合[9]。
在小的連通區(qū)域中有位于第1行或第1列的前景點(diǎn)時(shí),采用平滑模板求均值的方法進(jìn)行處理。其m×m鄰域中背景點(diǎn)權(quán)值為1,前景點(diǎn)權(quán)值為0,將背景灰度和的均值作為第1行或第1列的預(yù)測(cè)值;若鄰域中沒(méi)有背景點(diǎn),則m=m+1,重復(fù)搜索,直到含有背景點(diǎn)為止[13]。
2 算法的實(shí)現(xiàn)
在t時(shí)刻同時(shí)運(yùn)行單高斯模型與子塊梯度法處理幀It,將各自得到的前景做與運(yùn)算后,使用線性預(yù)測(cè)進(jìn)行處理。
1)單高斯模型的初始化中,對(duì)于L幀學(xué)習(xí)序列I0,I1,…,IL-1,默認(rèn)每點(diǎn)均為背景點(diǎn),設(shè)初始均值μ=1L∑L-1t=0It,初始標(biāo)準(zhǔn)差σ為給定值。
2)取當(dāng)前幀,根據(jù)式(2)對(duì)像素點(diǎn)進(jìn)行判斷,若是前景點(diǎn)則進(jìn)行標(biāo)記同時(shí)將該點(diǎn)最近一次背景參數(shù)進(jìn)行記錄,當(dāng)讀取下一幀時(shí)由式(2)判斷該點(diǎn)是否恢復(fù)為背景;否則由式(5)計(jì)算學(xué)習(xí)率,按照式(3)、(4)更新背景模型參數(shù)。
3)將當(dāng)前幀與上一幀進(jìn)行分塊,按照式(6)~(9)計(jì)算兩幀各子塊灰度特征τ,由式(10)得到各子塊梯度,將梯度值大于閾值的子塊內(nèi)的像素點(diǎn)標(biāo)記為前景;否則仍為背景。
4)將步驟2)中確定的前景點(diǎn)與步驟3)判斷出的前景點(diǎn)進(jìn)行與運(yùn)算,兩者均判定為前景點(diǎn)的才標(biāo)記為前景;否則按照步驟2)中記錄的最近一次的背景參數(shù)更改為背景點(diǎn),標(biāo)準(zhǔn)差設(shè)為初始值。
5)對(duì)步驟4)得到的前景進(jìn)行連通性分析,連通區(qū)域面積小于閾值的認(rèn)為是非平穩(wěn)場(chǎng)景的運(yùn)動(dòng)造成的,按照式(12)恢復(fù)為背景,標(biāo)準(zhǔn)差設(shè)為初始值。
按照算法思想,算法流程如圖1所示。
3 實(shí)驗(yàn)及結(jié)果分析
為驗(yàn)證所提算法的有效性,在多個(gè)視頻序列進(jìn)行測(cè)試,并與混合高斯模型的處理結(jié)果相比較。算法在CDNET 2012 Dataset和Wallflower Dataset數(shù)據(jù)集上進(jìn)行測(cè)試。CDNET 2012 Dataset是包含背景動(dòng)態(tài)變化、攝像機(jī)抖動(dòng)、物體間歇運(yùn)動(dòng)、陰影、熱輻射等場(chǎng)景的數(shù)據(jù)集;Wallflower Dataset包含了7個(gè)不同的背景發(fā)生變化的場(chǎng)景。對(duì)CDNET 2012 Dataset中的canoe、highway、winterDriveway序列和Wallflower Dataset中的WavingTrees序列進(jìn)行測(cè)試,實(shí)驗(yàn)中canoe、highway、winterDriveway序列將每幀子塊的個(gè)數(shù)劃分為20×20,WavingTrees序列的為10×10;線性預(yù)測(cè)的面積閾值為子塊大小的1/4,處理結(jié)果如圖2所示。圖2中第1、2行為原始視頻幀和對(duì)應(yīng)的基準(zhǔn)圖,第3行為混合高斯模型處理的結(jié)果,第4行為本文算法處理結(jié)果。為能直觀地反映出算法效果,所有結(jié)果均未進(jìn)行陰影去除、形態(tài)學(xué)濾波等后期處理。圖2(a)、(b)分別是canoe、highway序列,表征了自然環(huán)境中背景的輕微運(yùn)動(dòng);圖2(c)是WavingTrees序列,表征了自然環(huán)境中背景的較大幅度運(yùn)動(dòng);圖2(d)是winterDriveway序列,表征了前景先期靜止后期運(yùn)動(dòng)。
從對(duì)4個(gè)測(cè)試序列的處理結(jié)果可以看出,與混合高斯模型相比,本文算法在非平穩(wěn)場(chǎng)景中能較大幅度削弱因背景物體運(yùn)動(dòng)造成的誤判。雖然混合高斯模型對(duì)每個(gè)背景像素值采用多個(gè)高斯分布的加權(quán)和來(lái)描述,但非平穩(wěn)場(chǎng)景中背景物體的運(yùn)動(dòng)是沒(méi)有規(guī)律的,存在一些背景像素點(diǎn)因灰度值的變化超出了混合高斯模型的描述能力而被誤判為前景;而這些被誤判為前景的像素點(diǎn)并沒(méi)有進(jìn)一步的處理。本文算法雖然只采用一個(gè)高斯分布來(lái)描述背景像素值的變化,但考慮到運(yùn)動(dòng)背景物體具有的空間相關(guān)性,引入子塊梯度算法,對(duì)限定范圍內(nèi)運(yùn)動(dòng)的背景進(jìn)行處理,降低了干擾;而且前景物體的運(yùn)動(dòng)會(huì)產(chǎn)生較大的區(qū)域面積,對(duì)面積過(guò)小的連通區(qū)域認(rèn)為是被誤判為前景的像素點(diǎn)并采用線性預(yù)測(cè)的方法將其還原為背景。
圖2(d)中的運(yùn)動(dòng)車(chē)輛在前期是靜止的,由于混合高斯模型能對(duì)一個(gè)像素點(diǎn)建立多個(gè)高斯分布并進(jìn)行在線更新,提高了相應(yīng)分布的權(quán)重,避免了“鬼影”的出現(xiàn);本文算法考慮到靜止區(qū)域灰度變化小的特點(diǎn)使用子塊梯度算法消除“鬼影”。
在WavingTrees序列處理結(jié)果中,與混合高斯模型相比,本文算法雖在檢測(cè)率上有所下降但大幅度提高了檢測(cè)精度。與其他3個(gè)測(cè)試序列相比,WavingTrees序列中的運(yùn)動(dòng)背景物體與其周?chē)鷧^(qū)域灰度相差較大且運(yùn)動(dòng)范圍更廣,通過(guò)擴(kuò)大子塊的尺寸來(lái)適應(yīng)該序列的特點(diǎn)。由于前景自身有相似的部分且運(yùn)動(dòng)較慢,子塊梯度算法又放大了這種影響,造成前景部分消融,降低了檢測(cè)率;但同時(shí)因?yàn)樽訅K尺寸擴(kuò)大削弱了樹(shù)枝晃動(dòng)帶來(lái)的誤判,在檢測(cè)出的前景點(diǎn)變少的情況提高了檢測(cè)精度。
4 結(jié)語(yǔ)
本文提出了一種有效的背景建模算法,通過(guò)同時(shí)執(zhí)行單高斯模型和子塊梯度算法,分別在像素和子塊水平上進(jìn)行背景建模,將兩者得到的前景進(jìn)行與運(yùn)算,既消除了單高斯模型產(chǎn)生的“鬼影”也避免了前景細(xì)節(jié)粗糙的問(wèn)題,而后運(yùn)用線性預(yù)測(cè)算法對(duì)前景進(jìn)一步提純。實(shí)驗(yàn)結(jié)果表明,本文算法能較好地適應(yīng)非平穩(wěn)場(chǎng)景中背景物體的運(yùn)動(dòng),消除了單高斯模型引起的“鬼影”現(xiàn)象。在背景變化幅度較大的場(chǎng)景中,為避免大范圍的誤判,本文算法在前景完整性略有欠缺,但檢測(cè)出的前景準(zhǔn)確程度大幅提高;在背景輕微變化的場(chǎng)景中,本文算法無(wú)論在前景的完整性還是準(zhǔn)確程度上都有較好的表現(xiàn)。但較好的檢測(cè)效果是建立在對(duì)不同的視頻序列調(diào)整參數(shù)的基礎(chǔ)上的,與混合高斯模型相比,通用性不足;且對(duì)于運(yùn)動(dòng)時(shí)間長(zhǎng)的目標(biāo)易發(fā)生內(nèi)部消融的現(xiàn)象,在以后的研究中,將針對(duì)此問(wèn)題進(jìn)行改進(jìn)。
參考文獻(xiàn):
[1]PAL A, SCHAEFER G, CELEBI M E. Robust codebookbased video background subtraction[C]// Proceedings of the 2010 IEEE International Conference on Acoustics Speech and Signal Processing. Piscataway, NJ: IEEE, 2010: 1146-1149.
[2]方帥,薛方正,徐心和.基于背景建模的動(dòng)態(tài)目標(biāo)檢測(cè)算法的研究與仿真[J].系統(tǒng)仿真學(xué)報(bào),2005,17(1):159-165. (FANG S, XUE F Z, XU X H. Moving object detection based on selfadaptive background modeling [J]. Journal of System Simulation, 2005,17(1):159-165.)
[3]WREN C R, AZARBAYEJANI A, DARREL T, et al. Pfinder: realtime tracking of the human body[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997, 19(7): 780-785.
[4]李偉生,汪釗.基于時(shí)空背景模型的自適應(yīng)運(yùn)動(dòng)目標(biāo)檢測(cè)方法[J].計(jì)算機(jī)應(yīng)用,2014,34(12):3515-3520.(LI W S, WANG Z. Adaptive moving object detection method based on spatialtemporal background model[J]. Journal of Computer Applications, 2014,34(12):3515-3520.)
[5]黃大衛(wèi),胡文翔,吳小培,等.改進(jìn)單高斯模型的視頻前景提取與破碎目標(biāo)合并算法[J].信號(hào)處理,2015,31(3):299-307.(HUANG D W, HU W X, WU X P, et al. The algorithm of video foreground extraction via improved single gauss model and merge of broken targets[J]. Journal of Signal Processing, 2015,31(3):299-307.)
[6]陳銀,任侃,顧國(guó)華,等.基于改進(jìn)的單高斯背景模型運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J].中國(guó)激光,2014,41(11):11090021-11090029.(CHEN Y, REN K, GU G H, et al. Moving object detection based on improved single Gaussian background model[J]. Chinese Journal of Lasers, 2014,41(11):11090021-11090029.)
[7]王浩.動(dòng)態(tài)前景分離方法研究[D].長(zhǎng)沙:湖南師范大學(xué),2011:21. (WANG H. Research of dynamic foreground separation[D]. Changsha: Hunan Normal University, 2011:21.)
[8]盛驟,謝式千,潘承毅.概率論與數(shù)理統(tǒng)計(jì)[M].4版.北京:高等教育出版社,2008:382. (SHEN Z, XIE S Q, PAN C Y. Probability and Statistics[M]. 4th edition. Beijing: Higher Education Press,2008:382.)
[9]解文華,易本順,肖進(jìn)勝,等.基于像素與子塊的背景建模級(jí)聯(lián)算法[J].通信學(xué)報(bào),2013,34(4):194-200.(XIE W H, YI B S, XIAO J S, et al. Cascaded algorithm for background modeling using pixelbased and blockbased methods[J]. Journal on Communications, 2013,34(4):194-200.)
[10]GUO J M, LIU Y F, HSIA C H, et al. Hierarchical method for foreground detection using codebook model[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2011, 21(6):804-815.
[11]李剛,曾銳利,林凌,等.基于幀間顏色梯度的背景建模[J].光學(xué)精密工程,2007,15(8):1257-1262. (LI G, ZENG R L, LIN L, et al. A novel background modeling method based on color grade of different frames[J]. Optics and Precision Engineering, 2007, 15(8):1257-1262.)
[12]SAID A, PEARLMAN W A. A new, fast, and efficient image codec based on set partitioning in hierarchical trees[J]. IEEE Transactions on Circuits and Systems for Video Technology, 1996, 6(3): 243-250.
[13]劉培,王建英,尹忠科.利用線性預(yù)測(cè)去除圖像椒鹽噪聲[J].鐵道學(xué)報(bào),2007,29(6):48-51.(LIU P, WANG J Y, YIN Z K. Removal of saltandpepper noises from images by linear prediction[J]. Journal of the China Railway Society, 2007,29(6):48-51.)