瞿 中 辛 寧 廖春梅
1(重慶郵電大學(xué)計算機科學(xué)與技術(shù)學(xué)院 重慶 400065)2(重慶市軟件質(zhì)量保證與測評工程技術(shù)研究中心 重慶 400065)
?
結(jié)合背景更新和亮度范圍的改進Codebook模型算法
瞿 中1,2辛 寧1廖春梅1
1(重慶郵電大學(xué)計算機科學(xué)與技術(shù)學(xué)院 重慶 400065)2(重慶市軟件質(zhì)量保證與測評工程技術(shù)研究中心 重慶 400065)
傳統(tǒng)的Codebook背景模型算法是在RGB顏色空間下建立的,該算法計算復(fù)雜、分割質(zhì)量不高且抗擾動能力較差。首先利用YUV顏色空間下亮度與色度分離的特性,建立Codebook背景模型,其次針對背景模型的亮度范圍定義不合理的問題,采用碼本中碼字的Y分量均值重新定義亮度范圍,最后在運動目標檢測過程中使用雙層碼本與短時滑動窗口相結(jié)合的背景更新方法提高抗干擾能力。實驗表明,改進算法的亮度范圍能夠隨背景變化不斷更新。與傳統(tǒng)的Codebook背景模型算法相比,該算法能夠有效更新背景,同時提高檢測的準確性。
Codebook模型 YUV空間 背景更新 亮度
運動目標檢測即通過圖像處理方法檢測視頻序列中的運動目標并進行分離,是當今智能視頻監(jiān)控中關(guān)鍵技術(shù)之一,也是計算機視覺領(lǐng)域中的研究重點。
目前已有的運動目標檢測方法按照算法的基本原理可以分為三類:光流法、幀間差分法和背景減除法。其中光流法[1]檢測效果較好但計算復(fù)雜度高、實時性差且易受到噪聲、光照變化和背景擾動的影響;幀間差分法[2]運算量小、實現(xiàn)簡單,但檢測出的目標不完整且運動目標的速度對于檢測效果的影響很大;背景減除法簡單、易于實現(xiàn)且適應(yīng)動態(tài)的背景變化,目前已成為運動目標檢測領(lǐng)域的研究熱點[3]。在實際運動目標檢測過程中背景往往是動態(tài)且復(fù)雜的,因此如何準確地構(gòu)建及更新背景模型就成為背景減除法研究的關(guān)鍵。常用的背景模型主要有核密度估計法、混合高斯背景模型和Codebook背景模型。核密度估計法[4]占用內(nèi)存大、計算復(fù)雜且實時性差;混合高斯背景模型算法[5]復(fù)雜度高、運算量較大且參數(shù)調(diào)整困難;Kyungnam Kim[6]等人提出的Codebook背景模型算法在RGB顏色空間中用碼本來描述像素點,用亮度范圍和顏色扭曲度模型判斷標準來構(gòu)建背景[7],該算法計算復(fù)雜度高,且RGB顏色模型中亮度信息和色度信息無法區(qū)分導(dǎo)致兩者相互影響降低了算法的精確性。本文采用在YUV空間中建立Codebook背景模型的方法,并改進算法中亮度范圍的定義,同時采用雙層碼本和短時滑動窗口相結(jié)合的背景更新方法在檢測過程中不斷更新背景,提高了算法的準確性和魯棒性。
YUV顏色空間可以由RGB顏色空間直接經(jīng)線性運算轉(zhuǎn)化而來,其特點是亮度與色度分離,互不干擾。本文在YUV顏色空間下建立Codebook模型[8]。
YUV顏色空間中Codebook背景模型包括:背景模型建立、亮度范圍和顏色扭曲度計算、最大負運行長度計算和前景檢測。在YUV顏色空間下亮度范圍:
(1)
(2)
亮度范圍度:
(3)
顏色扭曲度:
(4)
運動目標檢測采用當前幀與背景幀“相減”的方法,即對每一幀中的每一個像素點,若與背景模型碼本中的碼字匹配,則判斷為背景點,并對相應(yīng)的碼字進行更新,若不匹配則判別為前景點。
2.1 基于YUV顏色空間的Codebook背景模型中亮度條件判定方法的改進
在基于YUV顏色空間的Codebook背景模型的運動目標檢測過程中,常會出現(xiàn)誤檢。例如視頻序列中的某個像素點在剛開始檢測的時候?qū)儆诒尘包c,一段時間后該像素點的位置并未出現(xiàn)運動目標,但該點卻被檢測為前景點,如圖1、圖2所示。
圖1 camera視頻第215幀
圖2 視頻test第722幀
其中視頻camera來自于PETS2001視頻集,視頻test來自PETS2000視頻集。本文在圖1、圖2中選取了多個像素點進行研究,發(fā)現(xiàn)這部分區(qū)域像素點Y分量值的變化如圖3、圖4所示。
圖3 視頻camera中點(364,90)31幀到231幀變化圖
圖4 視頻test中點(324,293)31幀到831幀變化圖
同時本文研究了有運動目標經(jīng)過的像素點的Y分量值變化,由圖5可以看出該像素點的Y分量值在第382幀到393幀,第1651幀到1669幀,第1794幀到1814幀發(fā)生了突變。
圖5 視頻camera中有運動目標經(jīng)過的像素點(270,218)變化圖
針對以上分析并結(jié)合YUV顏色空間中碼本的結(jié)構(gòu)和基于滑動窗口的背景更新算法,發(fā)現(xiàn)碼字的參數(shù)Y分量均值隨像素值逐幀變化而逐漸更新,而且由于它是像素點連續(xù)多幀的平均值,所以其更新是緩慢進行的。所以本文利用碼字定義一個新的亮度范圍:
(5)
(6)其中T為可以調(diào)節(jié)的參數(shù),一般在10~40間取值。亮度范圍重新定義后,像素點的Y分量值在一定范圍內(nèi)連續(xù)升高或降低時,與其匹配的碼字的上限值和下限值將進行緩慢調(diào)整,即碼字的亮度范圍可以隨像素值的變化而進行緩慢更新,如圖6、圖7所示。
圖6 視頻camera中點(364,90)變化圖
圖7 視頻中test中點(324,293)變化圖
2.2 雙層碼本與短時滑動窗口相結(jié)合的背景更新算法
在運動目標檢測過程中,可能在背景訓(xùn)練之后出現(xiàn)新的背景。常見于一些運動目標逐漸停下來成為背景,比如汽車開進停車位、人把包放在椅子上等。另外在運動目標檢測過程中,由于光照等因素會使背景產(chǎn)生細微變化,所以要對表示背景的Codebook模型進行更新。傳統(tǒng)Codebook模型逐幀進行更新,一方面會增加算法的復(fù)雜性,降低算法的效率;另一方面當視頻序列中的前景點或是噪點具有和背景像素點相近的分布時,逐幀更新會使背景模型逐漸產(chǎn)生偏差,造成誤檢、漏檢現(xiàn)象。因此本文采用雙層碼本模型算法[9]與采用短時滑動窗口[10]的背景更新方法相結(jié)合的算法來更新背景,以YUV空間中Y分量為例,具體方法為:
(2) 若在窗口長度T1內(nèi)的某幀,像素點f(x,y)不與其碼本中的任一碼字匹配,即該像素點被判定為前景點,則銷毀窗口,并記錄其連續(xù)被判定為前景點的幀數(shù)S,若S大于閾值T2,則為該像素新建碼本并將其添加到背景模型中。
(4) 重復(fù)上述過程,直到檢測結(jié)束。
(7)
其中Yadd為窗口內(nèi)Y分量的累加值,T1、T2為符合視頻的可調(diào)整的閾值。
采用雙層碼本與短時滑動窗口相結(jié)合的背景更新算法一方面可以及時更新背景另一方面可以減少背景的誤更新。
本文選取4組典型視頻文件分別對原始Codebook算法、YUV顏色空間的Codebook算法和本文算法進行了比較。實驗條件為:CPUPencium(R)Dual-Core,內(nèi)存為2GB,實驗平臺為VisualC++ 2008及Opencv2.4.3,視頻camera和test來自于PETS視頻集,視頻LeftBag來自于PETS-ECCV2004視頻集,視頻circle為自拍視頻。
圖8 camera視頻第298幀不同算法結(jié)果圖
圖9 test視頻第772幀不同算法的結(jié)果圖
圖10 LeftBag視頻第1164幀不同算法下的結(jié)果圖
圖11 Circle視頻第412幀不同算法下的結(jié)果圖
由圖8可以看出原始Codebook算法檢測出的運動目標有大面積的陰影,同時圖像右上方的房頂部位出現(xiàn)誤檢,且噪點較多;YUV顏色空間下Codebook算法檢測出的運動目標比較完整,去除了陰影,減少了噪點,但圖像右上方的房頂部位仍有誤檢;本文算法檢測出的運動目標完整且無陰影、背景噪點少且基本去除了誤檢。
由圖9可以看出原始Codebook算法將靜止的汽車誤檢為運動目標,并在圖片右下方區(qū)域出現(xiàn)誤檢;YUV顏色空間下Codebook算法未將靜止的汽車檢測為背景但與原算法相比汽車位置陰影小且噪點較少但圖中右下方區(qū)域仍有誤檢;本文算法將靜止下來的汽車更新為背景且背景干凈幾乎無噪點。
由圖10可以看出原始Codebook算法在陽光照射區(qū)域出現(xiàn)誤檢且沒有將地上靜止的書包更新到背景中,YUV顏色空間Codebook算法誤檢較少但仍未將背包更新為背景;本文算法更新了背景且?guī)缀鯖]有誤檢。
由圖11可以看出原始Codebook算法檢測出的運動目標有較多的陰影和孔洞,且未及時將地上的背包更新到背景中;YUV顏色空間下的Codebook算法陰影和噪聲較少但仍未將背包更新為背景;本文算法檢測出的目標準確且及時更新了背景。
對檢測結(jié)果采用精確率P和召回率R進行定量分析,公式如下:
P=Np/Nt
(7)
R=Np/Nr
(8)
其中Np是圖像中被正確檢測認定為前景點的像素點的數(shù)量;Nt是被檢測認定為前景點的像素點數(shù)量Nr是人工提取的圖像中前景點的數(shù)量。由公式可知,當P越高則前景檢測誤檢低(即檢測結(jié)果準確率高),當R越低說明漏檢的前景點比較多(即前景檢測不完整)。結(jié)果如表1所示。
表1 各算法精確率和召回率比較
由表1可知,與原算法和YUV顏色空間下Codebook算法相比,本文算法精確率有很大提高,說明本文算法檢測結(jié)果準確率高,誤檢率低。但召回率略有降低,這是由于本文算法僅使用一個閾值T來控制亮度范圍,方法簡單。在有效抑制噪聲的同時使得前景檢測稍有漏檢,這可以通過調(diào)整相應(yīng)的閾值來改善。
本文在YUV空間中建立Codebook背景模型,并針對算法中亮度范圍定義不合理的問題,提出了YUV空間中改進亮度范圍Codebook算法,同時提出了結(jié)合雙層碼本與短時滑動窗口的背景更新方法。實驗證明該方法檢測準確率高,易于實現(xiàn),適用于復(fù)雜場景的運動目標檢測。
[1]XiaojingSong,SeneviratneLD,AlthoeferK.AKalmanFilterIntegratedOpticalFlowMethodforVelocitySensingofMobileRobots[J].IEEE/ASMETransactionsonMechatronics,2010,16(3):551-563.
[2]YinHP,ChaiY,YangSX,etal.Fast-movingtargettrackingbasedonmeanshiftandframe-differencemethods[J].JournalofSystemsEngineering&Electronics,2011,4(4):587-592.
[3]IntachakT,KaewapichaiW.Real-timeilluminationfeedbacksystemforadaptivebackgroundsubtractionworkingintrafficvideomonitoring[C]//2011InternationalSymposiumonIntelligentSignalProcessingandCommunicationsSystems,2011:1-5.
[4]DaweiLi,LihongXu,GoodmanE.AfastforegroundobjectdetectionalgorithmusingKernelDensityEstimation[C]//IEEEInternationalConferenceonSignalProcessing,2012:703-707.
[5]MukherjeeD,WuQMJ,ThanhMinhNguyenThanh,etal.GaussianMixtureModelWithAdvancedDistanceMeasureBasedonSupportWeightsandHistogramofGradientsforBackgroundSuppression[J].IEEETransactionsonIndustrialInformatics,2013,12(10):1086-1096.
[6]KimK,ChalidabhongseTH,HarwoodD,etal.Davis.Real-timeForeground-BackgroundSegmentationusingCodebookModel[J].Real-timeImaging,2005,11(3):167-256.
[7] 瞿中,馬慶偉,張慶慶.多線程下的視頻微動目標檢測與提取算法研究[J].計算機科學(xué),2012,39(4):265-268.
[8] 雷飛,黃文路,王雪麗.基于YUV顏色空間碼本模型的水下運動目標檢測[J].計算機與應(yīng)用化學(xué),2014,31(4):416-420.
[9]SigariMH,FathyM.Real-timeBackgroundModeling/SubtractionusingTwo-LayerCodebookModel[C]//InternationalMulticonferenceofEngineers&ComputerScientists,2008:1-5.
[10] 姜柯,李艾華,蘇延召.基于改進碼本模型的視頻運動目標檢測算法[J].電子科技大學(xué)學(xué)報,2012, 41(6):932-936.
IMPROVED CODEBOOK MODEL ALGORITHM COMBINING BACKGROUND UPDATE AND BRIGHTNESS RANGE
Qu Zhong1.2Xin Ning1Liao Chunmei1
1(CollegeofComputerScienceandTechnology,ChongqingUniversityofPostsandTelecommunications,Chongqing400065,China)2(ChongqingEngineeringResearchCenterofSoftwareQualityAssurance,TestingandAssessment,Chongqing400065,China)
Traditional Codebook background modelling algorithm is established in RGB colour space,it has the problems of complex calculation,low segmentation quality and poor anti-jamming capability.In this paper,we first built the Codebook background model by utilising the characteristics of luminance and chrominance separation of YUV colour space.Secondly,we used the mean of Y component of codeword in Codebook to redefine brightness range aimed at the problem of unreasonable definition in brightness range of background model.Finally,in the process of moving object detection we employed the background update method combining two-layer Codebook and short-sliding window to improve anti-jamming capability.Experiments showed that the brightness range in improved algorithm can update gradually with the background changes.Compared with traditional Codebook background modelling algorithm,this one can effectively update background and meanwhile improve detection accuracy as well.
Codebook model YUV colour space Background updates Brightness
2015-09-27。重慶市科委基礎(chǔ)與前沿項目(cstc2014jcyj A1347);重慶市高校優(yōu)秀成果轉(zhuǎn)化項目(KJZH14219)。瞿中,教授,主研領(lǐng)域:數(shù)字圖像處理,物聯(lián)網(wǎng)技術(shù)等。辛寧,碩士生。廖春梅,碩士生。
TP391.41
A
10.3969/j.issn.1000-386x.2016.11.036