【摘 要】背景建模是運(yùn)動(dòng)目標(biāo)圖像檢測算法中的一項(xiàng)技術(shù),本文對背景建模中的經(jīng)典混合高斯算法進(jìn)行了學(xué)習(xí)研究,針對混合高斯模型在復(fù)雜場景中的適應(yīng)性問題,本文提出了一種改進(jìn)的混合高斯背景模型。該模型通過建立一種自適應(yīng)的參數(shù)更新方法,使得混合高斯的參數(shù)更新能夠隨著環(huán)境的變化自適應(yīng)調(diào)整,從而提高算法的適應(yīng)能力。最后,通過編程仿真,驗(yàn)證了算法的有效性。
【關(guān)鍵詞】背景建模 混合高斯模型 更新方程
【Abstract】Background modeling is a technology of the moving target image detecting algorithm,and in this paper,the authors made research to the Classical Gaussian Mixture algorithm in Background modeling. As for the adaptability of Gaussian Mixture Model in complex scene, an improved Gaussian Mixture Model is put forward in this paper. The new model makes the parameters of the Gaussian Mixture updated with change of the environment adaptively by establishing an adaptive parameter updating method, thus, improving the adaptability of the algorithm. Finally, verif the effectiveness of the algorithm through the programming simulation.
【Keywords】Background Modeling; Gaussian Mixture Model; Update Equation
一、引言
隨著科技的進(jìn)步智能視頻監(jiān)控被越來越多的被應(yīng)用到交通、高危險(xiǎn)區(qū)域工作區(qū)、敏感水域、軍事區(qū)域、工廠重點(diǎn)保護(hù)區(qū)和金融等領(lǐng)域,其中運(yùn)動(dòng)目標(biāo)檢測技術(shù)是其中一個(gè)重要研究方向。對于在攝像機(jī)靜止條件下的運(yùn)動(dòng)目標(biāo)檢測與分割, 運(yùn)用背景差分技術(shù)往往能獲得比幀間差分法更為精確的運(yùn)動(dòng)目標(biāo)區(qū)域[1]。背景差分技術(shù)也是目前最常用的運(yùn)動(dòng)目標(biāo)檢測方法,其次也有光流法[2]和碼本建模。Wren等人對每一個(gè)像素的顏色值建立一個(gè)3維的高斯模型。在文獻(xiàn)[3,4]中也建立了類似模型。對于較為復(fù)雜的場景, 如往復(fù)運(yùn)動(dòng)的物體、搖晃的樹枝、水面閃爍的波紋等,F(xiàn)riedman和Russell,以及Stauffer和Grimson 都提出了混合高斯背景模型。本文將對經(jīng)典的混合高斯模型進(jìn)行學(xué)習(xí)研究,并針對實(shí)際需求對算法加以改進(jìn)。
二、經(jīng)典混合高斯模型
經(jīng)典混合高斯模型認(rèn)為,在樣本足夠大的情況下,像素在時(shí)域上的分布可以通過多個(gè)高斯分布函數(shù)進(jìn)行描述?;旌细咚顾惴槊恳粋€(gè)像素建立了個(gè)高斯核。假設(shè)某一像素點(diǎn)的觀測樣本為,當(dāng)前像素值的概率分布為:
式中,、分別代表第個(gè)高斯核的權(quán)值和均值,為顏色通道數(shù),為第個(gè)模型顏色值的協(xié)方差矩陣。本文中處理樣本為灰度圖像,因此n=1。如果當(dāng)前像素值在某一高斯分布的2.5倍標(biāo)準(zhǔn)差之內(nèi),,就認(rèn)為該像素值與第個(gè)高斯核相匹配,則定義高斯核參數(shù)更新方程:、、
,為學(xué)習(xí)速率,,對于未匹配的模型,其均值和方差不做改變,權(quán)值做如下更新。
若當(dāng)前像素值與現(xiàn)有高斯核均不匹配,則創(chuàng)建一個(gè)新的高斯核函數(shù);如果模型數(shù)已達(dá)到最大,則用新的模型取代現(xiàn)有模型中具有最小值的模型。在背景像素的判別中,將現(xiàn)有的高斯核按權(quán)重排序,選取前個(gè)模型作為背景,其中,表示滿足括號內(nèi)不等式條件下的最小取值。
三、改進(jìn)的混合高斯模型
經(jīng)典的混合高斯模型在建模過程中允許運(yùn)動(dòng)目標(biāo)存在,對于多模態(tài)背景具有良好的適應(yīng)性。當(dāng)光線變化緩慢而目標(biāo)快速運(yùn)動(dòng)時(shí),前景分割完整、飽滿。然而,MOG[5]算法模型收斂比較慢,遇到尺寸較大的目標(biāo)緩慢運(yùn)行時(shí),運(yùn)動(dòng)目標(biāo)分割不完整或出現(xiàn)斷裂和“空洞”現(xiàn)象,目標(biāo)會(huì)快速融入背景。背景中靜止的目標(biāo)開始運(yùn)動(dòng)或者目標(biāo)從運(yùn)動(dòng)到靜止停留較長時(shí)間后開始運(yùn)動(dòng),目標(biāo)停留的地方會(huì)形成一個(gè)和目標(biāo)相同的虛假的前景區(qū)域,亦即“鬼影”。實(shí)驗(yàn)中發(fā)現(xiàn)以下現(xiàn)象:1)前景目標(biāo)較多,前景容易丟失;2)如果T值選擇較大,會(huì)導(dǎo)致運(yùn)動(dòng)目標(biāo)融入到背景的速度過快,對于后續(xù)高層視覺的目標(biāo)跟蹤、識(shí)別和分類不利。
針對以上混合高斯模型的問題和不足,本文中將對更新方程加以改進(jìn),通過設(shè)置變量對像素匹配情況進(jìn)行判別,等于1或0,當(dāng)像素匹配時(shí)為1,否則為0。根據(jù)模型匹配情況和當(dāng)前權(quán)重分布對模型進(jìn)行更新:
幀數(shù)小于L:;
幀數(shù)大于L:;
通過改進(jìn)更新方程,使得模型能夠很快收斂而且更準(zhǔn)確,方差較快收斂同時(shí)比較平穩(wěn)。
四、實(shí)驗(yàn)結(jié)果及分析
通過編程仿真,對上述算法進(jìn)行實(shí)現(xiàn)并通過實(shí)際視頻進(jìn)行驗(yàn)證,結(jié)果如下圖1所示,其中a1~a3(b1~b3)依次為原始圖像、傳統(tǒng)算法檢測結(jié)果和改進(jìn)算法檢測結(jié)果。從結(jié)果可以看出,改進(jìn)后的算法將圖像中的前景與背景的更新區(qū)分開來,通過加入權(quán)重,使得前景像素的更新更快,從而反映了背景的真實(shí)動(dòng)態(tài)變化,避免了之前在場景中短時(shí)停滯的前景目標(biāo)被融入背景形成的“空洞”現(xiàn)象。
(a1) (a2)
(a3) (b1)
(b2) (b3)
圖1改進(jìn)混合高斯算法效果圖
五、實(shí)驗(yàn)結(jié)果及分析
本文對運(yùn)動(dòng)目標(biāo)檢測技術(shù)中的背景建模相關(guān)技術(shù)進(jìn)行了學(xué)習(xí)研究,并針對經(jīng)典的混合高斯模型進(jìn)行了深入研究,針對復(fù)雜的動(dòng)態(tài)場景,提出了改進(jìn)更新方程的混合高斯模型,通過實(shí)驗(yàn)驗(yàn)證該算法具有良好的檢測效果。
參考文獻(xiàn):
[1]Jain R, Nagel H. On the analys is of accumulative differen cepictures from image sequences of real world scenes[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,1979, PAM I1 (2) : 206-214.
[2]Wren C R, AzarbayejaniA, DarrellT, etal Pfinder: real-time tracking of the human body [J]. IEEE Transactions on PAM I,1997, 19(7): 780-785.
[3]Grinson W E L,Stauffer C,Romano R,etal Using adaptive tracking to classify and monitor activities in a site[C]//IEEE Computer Society Conferenec on Computer Vision and Pattern Recoginition.LosAlamitos,CA,USA:IEEE Computer Society,1998: 22-29.
[4]KollerD,WeberJ,Huang T,etal Towards robust automatic traffic scene analysis in real-time[C]//International Conference of Pattern recognition.Jerusalem,Israel:IEEE Computer society,1994: 126-131
[5]A. Shio, J. Sklansky, Segmentation of People in Motion, Proceedings IEEE Workshop on Visual Motion, Princeton, NJ, October 7-10, 325-332, 1991.
作者簡介:
黃會(huì)敏,湖北漢川,本科生
基金項(xiàng)目:
武漢理工大學(xué)自主創(chuàng)新研究基金項(xiàng)目