劉永福,譚建斌
(1.廣東理工職業(yè)學(xué)院 廣東 廣州 510091;2.佛山職業(yè)技術(shù)學(xué)院 廣東 佛山 528137)
目前,國外學(xué)者提出了多種針對不同應(yīng)用條件的背景模型。Wren C的實(shí)時(shí)系統(tǒng)[1]對跟蹤對象采用多類的統(tǒng)計(jì)模型,在初始化一個(gè)沒有運(yùn)動(dòng)物體的背景后,這個(gè)系統(tǒng)能得到較好的效果,但在戶外環(huán)境中,該算法跟蹤效果不佳。Ridder C等人[2]采用Kalman濾波,對每個(gè)像素構(gòu)建一個(gè)模型,該算法雖然能適應(yīng)燈光的變化,但背景自適應(yīng)能力緩慢,處理多層次的背景沒獲得滿意的結(jié)果。
Friedman N等人[3]利用自適應(yīng)混合高斯模型在處理光照變化、樹葉抖動(dòng)等獲得較好的效果,但混合高斯背景模型采用固定學(xué)習(xí)權(quán)重,難以適應(yīng)運(yùn)動(dòng)目標(biāo)運(yùn)動(dòng)快慢變化。更新權(quán)重高導(dǎo)致慢運(yùn)動(dòng)目標(biāo)誤判為背景并引入大量噪聲;更新權(quán)重低則在停滯物體逃離背景時(shí)長時(shí)間留下前景運(yùn)動(dòng)物體和降低對光照變化的適應(yīng)能力。
針對上述問題,對傳統(tǒng)混合高斯模型作了改進(jìn),設(shè)計(jì)了自適應(yīng)學(xué)習(xí)權(quán)重。結(jié)果表明基于改進(jìn)的跟蹤系統(tǒng)獲得良好效果。
Grimson 和 Stauffer中提出的背景模型[4-5]采用K(3~5)個(gè)高斯分布統(tǒng)計(jì)每幀中相同像素點(diǎn)的最近t幀值 (X1,X2,…,Xt),從而得到下一像素點(diǎn)值在當(dāng)前幀的密度概率函數(shù):
式中,ωi,t表示t幀的值(X1,X2,…,Xt)落入第i個(gè)高斯分布的比率,μi,t和 Σi,t分別表示高斯分布的期望值和方差,Σi,t=(假設(shè)像素點(diǎn)的GRB個(gè)分量互相獨(dú)立,且有相同的方差,I為單位矩陣)。K個(gè)高斯分布總是按照優(yōu)先級(jí) λi,t=ωi,t/σi2,t(i=1,2,…,K)從高到低的次序排列,ηi,t為與 ωi,t對應(yīng)的高斯分布。
對某像素點(diǎn)的每個(gè)新樣本點(diǎn)Xt+1判斷其與已存在的K個(gè)高斯分布進(jìn)行匹配,若滿足條件|Xt+1-μt|<2.5σi,則Xt+1與該分布匹配。如果Xt+1都不匹配,則增加新高斯分布或者用新高斯分布代替λ最小的分布。新的高斯分布以Xt+1作為均值,方差用經(jīng)驗(yàn)值30。
高斯分布權(quán)重、均值和方差分別按式(3)、式(4)和式(5)更新。對于匹配的分布Mi,t+1=1,否則Mi,t+1=0。不匹配的分布,均值和方差都保持不變。
高斯模型更新完畢后,從新排列優(yōu)先級(jí)λi,t,取前B個(gè)高斯分布生成背景:
該模型中有2個(gè)重要參數(shù)α(學(xué)習(xí)權(quán)重)和H,其中1/α表示訓(xùn)練P(Xt)的最大樣本空間中的樣本點(diǎn)個(gè)數(shù);H用來確定作為背景模型的分布,H取經(jīng)驗(yàn)值0.8。
傳統(tǒng)混合高斯背景模型采用固定學(xué)習(xí)權(quán)重,難以適應(yīng)目標(biāo)運(yùn)動(dòng)快慢變化,易把緩慢運(yùn)動(dòng)目標(biāo)融入背景中,從而引起誤檢測。圖1(a)是沒有出現(xiàn)目標(biāo)緩慢挪動(dòng)的背景模型;圖1(b)是運(yùn)動(dòng)目標(biāo)在A位附近進(jìn)行緩慢挪動(dòng)的原視頻幀;若采用固定學(xué)習(xí)權(quán)重更新背景,當(dāng)運(yùn)動(dòng)目標(biāo)出現(xiàn)緩慢運(yùn)動(dòng)時(shí),背景模型會(huì)出現(xiàn)圖1(c)長期留下運(yùn)動(dòng)目標(biāo)痕跡。
文灝等人[6]采用背景模型直接對當(dāng)前幀相減,以此獲得運(yùn)動(dòng)目標(biāo)。但在運(yùn)動(dòng)目標(biāo)檢測過程中,常因快速的光照變化、樹葉運(yùn)動(dòng)時(shí)反射色差較大或運(yùn)動(dòng)目標(biāo)顏色和背景顏色相似而導(dǎo)致背景區(qū)出現(xiàn)大片干擾或目標(biāo)區(qū)內(nèi)斷裂和空洞現(xiàn)象。本文采用極限誤差作分割標(biāo)準(zhǔn),在高斯模型中隨機(jī)量落在極限誤差3σ以外認(rèn)為是前景。某像素點(diǎn)Xt+1滿足|Xt+1-μt|>3σi,則判為前景,將該像素點(diǎn)R、G、B 3分量置為255,反之則判為背景并置0。該法不但填補(bǔ)了目標(biāo)體內(nèi)的裂痕和空洞,而且在背景區(qū)引入的噪聲少。圖2(c)為極限誤差分割法的前景,比圖2(a)直接相減后得到的前景區(qū),其含目標(biāo)體內(nèi)裂痕、空洞和背景區(qū)的噪聲明顯要少。
圖1 受緩慢運(yùn)動(dòng)目標(biāo)影響生成的背景模型Fig.1 Background model is interferenced by slow moving target
圖2 運(yùn)動(dòng)目標(biāo)檢測Fig.2 Moving target detection
系統(tǒng)設(shè)計(jì)是面對室外復(fù)雜環(huán)境的目標(biāo)跟蹤,改進(jìn)后的背景模型雖然能消除樹葉的輕微抖動(dòng)、光照的緩慢變化,但在較大的風(fēng)速或背景顏色和前景顏色接近時(shí),便不可避免在目標(biāo)分割后存在一些小面積的噪聲。
常用的消噪方法有形態(tài)學(xué)閉運(yùn)算或是中值濾波,但對于小面積噪聲消除不凈,且易造成目標(biāo)的變形或目標(biāo)裂痕加大。因此設(shè)計(jì)了基于標(biāo)記的小面積噪聲消除法。
一般地,二值化后的圖像中單個(gè)運(yùn)動(dòng)目標(biāo)都是較大的連同區(qū)域,而噪聲的面積比目標(biāo)小得多。直接把連通區(qū)域像素標(biāo)記為同一目標(biāo),計(jì)算各個(gè)分離目標(biāo)的面積(像素個(gè)數(shù)),將面積小于預(yù)定閾值的像素置0,從而保留了面積大于預(yù)定閾值的目標(biāo)。
設(shè):帶噪聲二值圖像為 f(x,y),寬為 w,高 h,即像素(x,y)的灰度為 f(x,y),x=0,1,…w-1;y=0,1,…h(huán)-1。 x 為橫坐標(biāo),y為縱坐標(biāo),圖像左上角為坐標(biāo)原點(diǎn)。圖像背景為黑色,灰度值為0;運(yùn)動(dòng)物體為白色,灰度值為1。
圖像像素(x,y)對應(yīng)像素的物體編號(hào)為 I(x,y)。 當(dāng)前物體編號(hào)為K,K=0,1,…,M。背景像素物體編號(hào)K=1,當(dāng)某一像素的物體編號(hào)K=0時(shí),表示該像素還沒有被標(biāo)定屬于那個(gè)物體。物體編號(hào)最大值M為當(dāng)前幀中非連通塊的個(gè)數(shù)。
物體編號(hào)為K的像素個(gè)數(shù)為N(K),并設(shè)定閾值為Yu。當(dāng)前景圖像(x,y)的鄰近坐標(biāo)為(u,v),其中 x-1≤u≤x+1,y-1≤v≤y+1,且(u,v)不等于(x,y)。 消除噪聲算法步驟如下:
1)給像素編號(hào)
①初始K=1。對每一個(gè)像素(x,y),若該像素為黑色目標(biāo)像素,則設(shè)置物體編號(hào)I(x,y)=1;否則該像素為背景像素即灰度 f(x,y)=0。
②從坐標(biāo)y=1,x=1,物體編號(hào)K=0開始。
③判斷當(dāng)前坐標(biāo)位置像素的物體編號(hào)。若當(dāng)前像素物體編號(hào) I(x,y)=0,執(zhí)行下一步,否則當(dāng)前像素的物體編號(hào) I(x,y)不等于0時(shí),轉(zhuǎn)步驟⑦。
④當(dāng)前物體編號(hào)K增加1。
⑤遞歸函數(shù)開始。將當(dāng)前像素物體編號(hào)I(x,y)置為K。
⑥當(dāng)前像素有8個(gè)鄰近像素,鄰近像素坐標(biāo)為(u,v)。若物體編號(hào) I(u,v)為 0,則將(u,v)視為當(dāng)前像素,遞歸調(diào)用步驟⑤;否則下一步。遞歸完畢。
⑦當(dāng)前坐標(biāo)位置往右移動(dòng)一個(gè)像素,即x=x+1。當(dāng)超過右邊邊界,就往下一行左端移動(dòng),即y=y+1,x=0。若坐標(biāo)沒有達(dá)到右下角,則轉(zhuǎn)步驟③,否則執(zhí)行下一步。
2)計(jì)算每個(gè)編號(hào)的像素個(gè)數(shù)
①初始化 K=1,2,3,…M,令 N(K)=0;
②遍歷每個(gè)像素,即對于 x=0,1,…w-1;y=0,1,…h(huán)-1,當(dāng)編號(hào) I(x,y)=K,令像素個(gè)數(shù) N(K)=N(K)+1。
3)刪除小面積噪聲
若像素個(gè)數(shù) N(K)<Yu,則遍歷圖像像素,對編號(hào) I(x,y)=K的像素,令其灰度值為0。最后得到消除面積小于閾值Yu的噪聲的運(yùn)動(dòng)目標(biāo)圖像。
對33幀和34幀分別采用極限誤差分割法和噪聲消除后,得到圖4(a)和圖4(b)連續(xù)兩幀的目標(biāo)區(qū)。兩幀差分得到圖4(c)連續(xù)兩幀目標(biāo)間的變化區(qū)。變化區(qū)與33幀異或得過去目標(biāo)區(qū),如圖4(d);變化區(qū)與34幀異或,得到當(dāng)前目標(biāo)區(qū)。變化區(qū)域被分割成屬于過去一幀(33幀)的過去目標(biāo)區(qū)和屬于當(dāng)前幀(34幀)的當(dāng)前目標(biāo)區(qū),分割結(jié)果如圖4(d)和圖4(e)所示。
圖3 消噪后的圖像Fig.3 Image after eliminating noise
在運(yùn)動(dòng)目標(biāo)運(yùn)動(dòng)緩慢時(shí),易給混合高斯背景帶來大片干擾(如圖1(c)示),本文采用自適應(yīng)更新權(quán)重消除此干擾。對背景區(qū)域采用小的更權(quán)重(α取0.002),以維護(hù)高斯模型的統(tǒng)計(jì)特性;對過去目標(biāo)區(qū)采用較大更權(quán)重(α取0.1),可消除運(yùn)動(dòng)目標(biāo)由于緩慢運(yùn)動(dòng)留下的痕跡;而對當(dāng)前目標(biāo)區(qū)不作更新,消除當(dāng)前幀運(yùn)動(dòng)目標(biāo)給背景模型引入干擾。
圖4 區(qū)域細(xì)分Fig.4 Regional breakdown
圖5 算法改進(jìn)前和改進(jìn)后效果對比Fig.5 Algorithm comparison results before and after improvement
對在風(fēng)力4級(jí),存在樹葉抖動(dòng)劇烈的室外環(huán)境下拍攝的視頻進(jìn)行仿真實(shí)驗(yàn),測試軟件為MATLAB7.0。圖5(a)為原算法背景模型,由于運(yùn)動(dòng)目標(biāo)出現(xiàn)停滯而留下的干擾難消除。圖5(b)為改進(jìn)后背景模型,在運(yùn)動(dòng)目標(biāo)出現(xiàn)停滯的處獲得了較滿意的修復(fù)效果。
基于改進(jìn)后的背景模型,運(yùn)動(dòng)目標(biāo)系統(tǒng)在室外復(fù)雜環(huán)境下獲得了良好的跟蹤效果。跟蹤效果如圖6所示。
圖6 跟蹤結(jié)果圖Fig.6 The figure of tracking results
對傳統(tǒng)混合高斯背景模型作了改進(jìn),有效消除傳統(tǒng)模型中難以適應(yīng)運(yùn)動(dòng)目標(biāo)出現(xiàn)緩慢運(yùn)動(dòng)而引入噪聲的情況。因采用了噪聲消除和目標(biāo)間差分,很好區(qū)分了背景不同性質(zhì)區(qū),對不同區(qū)域用不同學(xué)習(xí)權(quán)重,是背景模型具有自適應(yīng)性,因此背景模型在受運(yùn)動(dòng)目標(biāo)干擾的區(qū)域得到快速的修復(fù)。實(shí)驗(yàn)結(jié)果表明,該算法有效的提高了混合高斯背景模型的魯棒性,為后繼運(yùn)動(dòng)目標(biāo)檢測、識(shí)別、跟蹤提供了良好基礎(chǔ)。
[1]Wren C,Azarbayejani A,Darrell T,et a1.Pfinder:real-time tracking of the human body[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):780-785.
[2]Ridder C,Munkelt O,Kirchner H.Adaptive background estimation and foreground detection using Kalman·filtering[C]//Tuekey:In:Proceedings of the Int’1 Conference on Recent Advances Sinmechatronics,1995:193-199.
[3]Friedman N, Russell S.Image segmentation in video sequences:Aprobabilisticapproach[C]//USA:In:Proceedingsofthe13Conference on Uncertainty in Artificial Intelligence,1997:175-181.
[4]W E mixture models for Stauffer C.GrimsonL.Adaptive background real-time of IEEE Conference on tracking[C]//USA:In:Proceedings Vision and Pattern Collins,Computer Recognition,1999:246-252.
[5]Stauffer C,Grimson W E L.Learning patterns activity using real time transactions pattem and machine tracking[J].IEEE Analysis InteHigence,2000,22(8):747-757.
[6]文灝,陳紅濤.基于減背景與對稱差分的運(yùn)動(dòng)目標(biāo)檢測[J].微計(jì)算機(jī)信息,2007,23(9):18-20.
WENHao,CHENHong-tao.Movingobjectsdetectionalgorithm based on background subtraction and symmetrical differencing[J].Microcomputer Information,2007,23(9):18-20.