亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種結(jié)合區(qū)域直方圖比較的單高斯背景建模算法的改進(jìn)

        2014-04-29 00:00:00阿斯雅智敏

        摘 要:背景差減法是目前常見的目標(biāo)檢測算法之一,使用傳統(tǒng)的單高斯模型進(jìn)行背景建模具有實(shí)時性,穩(wěn)定性等優(yōu)點(diǎn),但當(dāng)鏡頭發(fā)生突變時,傳統(tǒng)的單高斯模型需要一定時間重新適應(yīng)變化的背景。另一方面,移動緩慢的運(yùn)動物體容易在前景檢測中造成拖影現(xiàn)象。針對傳統(tǒng)單高斯模型的缺點(diǎn),提出一種結(jié)合區(qū)域直方圖比較的單高斯模型運(yùn)動目標(biāo)檢測算法。算法首先將視頻分成若干區(qū)域,然后通過計(jì)算前后兩幀相同區(qū)域的直方圖距離,判斷需要進(jìn)行更新的背景區(qū)域,最后通過單高斯模型進(jìn)行選擇性更新。實(shí)驗(yàn)表明改進(jìn)算法能夠降低一定的誤檢率,有效抑制拖影現(xiàn)象的產(chǎn)生,并縮短單高斯模型對鏡頭突變的適應(yīng)時間。

        關(guān)鍵詞:單高斯模型;直方圖比較;運(yùn)動目標(biāo)檢測

        中圖分類號:TP391

        隨著智能視覺分析系統(tǒng)的發(fā)展,如何有效的進(jìn)行運(yùn)動目標(biāo)檢測成為了計(jì)算機(jī)視覺領(lǐng)域的一項(xiàng)重要研究內(nèi)容。目前,常見的運(yùn)動目標(biāo)檢測算法主要有三種,即光流法、圖像序列差分法和背景差減法。其中,光流法[1]需要計(jì)算每個像素點(diǎn)的光流,計(jì)算量較大,但光流攜帶了運(yùn)動物體的運(yùn)動信息,能夠適應(yīng)變化的鏡頭。圖像序列差分法[2]又叫幀間差分法,該方法計(jì)算簡單,可以適應(yīng)各種動態(tài)環(huán)境,其缺點(diǎn)是很難提取出對象的完整區(qū)域,只能提取邊界。而對于背景相對穩(wěn)定的視頻,背景差減法是最常用和重要的運(yùn)動目標(biāo)檢測算法。背景差減法是通過原圖像與背景圖像的相減來獲取運(yùn)動目標(biāo)圖像,因此,如何建立一個有效的、能夠適應(yīng)動態(tài)背景的背景生成算法是它的核心內(nèi)容。常見的背景生成算法有中值濾波法[3]、K-均值聚類法[4,5]、非參數(shù)背景模型[6]、單高斯背景模型[7]、混合高斯背景模型[8]等等。中值濾波法計(jì)算簡單,但只適合特定環(huán)境,不適合復(fù)雜環(huán)境下的背景建模[9];K-均值聚類法簡單,快速,算法運(yùn)行時占用的系統(tǒng)資源較少,但是易受外界環(huán)境因素影響;非參數(shù)背景模型是由Elgammal等人提出基于無參數(shù)模型的背景生成算法,該算法利用核密度估計(jì),產(chǎn)生了更準(zhǔn)確的無參分布來描述背景分布,它的缺點(diǎn)是計(jì)算代價過高,難以滿足實(shí)時性的要求[10]。單高斯模型(GSM,Gaussian Single Model)背景生成算法相對簡單,實(shí)用性強(qiáng),應(yīng)用較為廣泛。而混合高斯模型(GMM,Gaussian Mixture Model)認(rèn)為像素值的分布服從K(通常K值為3-5)個GSM。GMM適用于多模態(tài)背景,例如晃動的樹葉,水波的起伏等等。

        近年來,學(xué)者們對背景差分法進(jìn)行著不斷的研究和改進(jìn)。例如,文獻(xiàn)[11]的作者提出了結(jié)合多種線索的背景差分方法,利用像素的紋理特征和顏色特征對動態(tài)、復(fù)雜的背景下的運(yùn)動對象進(jìn)行分割,該方法具有穩(wěn)定性和魯棒性的優(yōu)點(diǎn),但當(dāng)場景中出現(xiàn)紋理和顏色特征與背景物體相近的運(yùn)動目標(biāo)時,則算法會出現(xiàn)誤檢。Atsushi Shimada[12]等人提出了一種新的背景建??蚣?,采用基于雙向分析的混合高斯模型方法進(jìn)行背景建模。算法的主要思想是對比當(dāng)前幀的前后兩個對稱時間段內(nèi)的模型,若模型相同,則不需要對背景進(jìn)行更新。作者的方法提高了傳統(tǒng)混合高斯模型的準(zhǔn)確率,并且降低了算法的內(nèi)存消耗,但是該方法對鏡頭中緩慢移動的物體或近場目標(biāo)的檢測結(jié)果較差。文獻(xiàn)[13]在傳統(tǒng)混合高斯模型的基礎(chǔ)上進(jìn)行了兩點(diǎn)改進(jìn),首先改進(jìn)了參數(shù)的學(xué)習(xí)率,把學(xué)習(xí)率定義為一個矩陣,當(dāng)像素值與現(xiàn)有的高斯模型沒有匹配時,將會用最小權(quán)重的均值來代替當(dāng)前像素點(diǎn)的均值,并將方差賦值為初始時的最高值,降低當(dāng)前權(quán)重的值,這樣做的目的是保證背景像素值擁有最高的權(quán)重和較低的方差。其次作者對判斷為前景的像素的鄰域進(jìn)行了進(jìn)一步的判別,通過判斷像素鄰域是否為前景來防止當(dāng)前像素被誤判。該方法的優(yōu)點(diǎn)是提高了目標(biāo)檢測的準(zhǔn)確性,缺點(diǎn)是不能檢測到目標(biāo)的陰影。本文針對已有算法的優(yōu)缺點(diǎn),提出一種單高斯模型結(jié)合區(qū)域直方圖比較的背景生成算法,經(jīng)過實(shí)驗(yàn)證明改進(jìn)算法可以減少前景的誤檢率,并且可以有效抑制目標(biāo)檢測中拖影現(xiàn)象的產(chǎn)生。

        1 單高斯模型

        單高斯模型是以像素值為特征的背景建模方法中的經(jīng)典方法之一。在攝像機(jī)鏡頭為靜止?fàn)顟B(tài),并且視頻流中每一幀相互獨(dú)立的情況下,可以認(rèn)為視頻中的每一個像素點(diǎn)是服從高斯分布的。

        (2)式左端為當(dāng)前坐標(biāo)點(diǎn)像素值與均值像素值差的平方。右端為與標(biāo)準(zhǔn)差σij相關(guān)的變量。通過(2)式可知,在一段視頻圖像中,坐標(biāo)點(diǎn)的背景像素值一般在像素均值附近變化,并且與像素變化的方差有關(guān)。因此,可以簡化得出高斯模型背景的判別公式為:

        (3)式和(4)式中α為學(xué)習(xí)率,即反映當(dāng)前圖像融入背景的速率,一般取值為0.05。當(dāng)判斷為前景像素值時,不進(jìn)行任何更新,背景保持不變。經(jīng)過一段時間訓(xùn)練得到的μij,即為背景像素值,并且背景是動態(tài)變化的。

        2 巴氏距離

        直方圖比較有多種方法,相關(guān)系數(shù)法、卡方法、歐氏距離法以及Bhattacharyya距離(以下稱巴氏距離)等等。本文綜合算法復(fù)雜度以及檢測精度的要求,選擇巴氏距離法作為本文直方圖比較的方法。在統(tǒng)計(jì)學(xué)中,巴氏距離測量的是兩個離散或連續(xù)概率分布的相似性。計(jì)算方式和Bhattacharyya系數(shù)關(guān)系很密切。本文使用如下公式計(jì)算巴氏距離:

        ,0≤Bhattacharyya≤1 (5)

        (5)式中Xk和Yk表示發(fā)生比較的兩個直方圖中灰度級為k的像素?cái)?shù)。通過上式可知,當(dāng)兩個直方圖越相似時,巴氏距離越小,當(dāng)直方圖差異較大時,巴氏距離越大。

        3 改進(jìn)的單高斯模型算法

        由于單高斯模型是通過對圖像中每一個點(diǎn)進(jìn)行孤立的統(tǒng)計(jì)分析后產(chǎn)生更新的背景,這導(dǎo)致其對于鏡頭突變非常敏感,適應(yīng)性較差。而且對于一些緩慢移動的運(yùn)動目標(biāo)進(jìn)行背景差分時,使用傳統(tǒng)單高斯模型檢測出的前景中會出現(xiàn)拖影現(xiàn)象,從而造成運(yùn)動目標(biāo)的誤檢。

        為了克服單高斯模型的上述缺點(diǎn),本文對其進(jìn)行了改進(jìn)。經(jīng)過改進(jìn)后的算法具體步驟如下:

        (4)單高斯背景更新。本文算法只對Fij(t)=1的更新區(qū)域進(jìn)行單高斯背景更新;對于Fij(t)=0的區(qū)域,不進(jìn)行更新。

        (5)對前景圖像進(jìn)行二值化處理。

        (6)對二值化后的前景圖像進(jìn)行中值濾波,去除噪聲。

        (7)進(jìn)行膨脹操作,消除目標(biāo)的不連續(xù)空洞。

        改進(jìn)算法通過比較前后兩幀對應(yīng)區(qū)域直方圖的巴氏距離,選擇性地對視頻流進(jìn)行背景更新,有效彌補(bǔ)了單高斯模型只針對圖像中每一點(diǎn)的像素特征值進(jìn)行分析所存在的缺點(diǎn),并可以在鏡頭發(fā)生光線變化或突變時,通過比較前后兩幀區(qū)域直方圖的變化及時適應(yīng)變換后的鏡頭,減少背景建模的時間。

        為了選取合適的巴氏距離作為區(qū)域直方圖比較的判斷閾值,本文分析了多個視頻的巴氏距離比較結(jié)果,最終選取區(qū)分更新區(qū)域和非更新區(qū)域的T值為0.15。

        4 實(shí)驗(yàn)結(jié)果與分析

        雙方在打完一個球時,發(fā)生了鏡頭切換后的原視頻幀。此時距離鏡頭切換已經(jīng)過48幀,但傳統(tǒng)單高斯模型并沒有適應(yīng)變化的鏡頭,從而導(dǎo)致圖2b的目標(biāo)檢測結(jié)果中包含了大量噪聲。而圖2c為使用本文改進(jìn)后的方法檢測到的結(jié)果。通過實(shí)驗(yàn)可以看出,本文方法通過前后兩幀的區(qū)域直方圖比較,可以有效地縮短鏡頭發(fā)生突變時單高斯模型適應(yīng)背景的時間,從而提高目標(biāo)檢測的準(zhǔn)確性。

        以上是對改進(jìn)后的算法進(jìn)行的定性分析,為了得到定量的誤差分析,本文依據(jù)下面兩個標(biāo)準(zhǔn)進(jìn)行實(shí)驗(yàn)評價,并與傳統(tǒng)算法進(jìn)行了對比。

        誤檢率——檢測結(jié)果中誤檢像素?cái)?shù)占總體像素?cái)?shù)的百分比。

        漏檢率——檢測結(jié)果中漏檢像素?cái)?shù)占總體像素?cái)?shù)的百分比。

        相對于傳統(tǒng)的單高斯模型,本文算法在漏檢率基本持平的情況下,可以降低一定的誤檢率。但是對于有些本身較大,并且移動緩慢的目標(biāo)進(jìn)行檢測時,使用改進(jìn)算法時目標(biāo)上容易出現(xiàn)“空洞”,從而造成漏檢。因此,如何進(jìn)一步降低目標(biāo)的漏檢率,也是本文算法需要繼續(xù)研究和改進(jìn)的地方。

        5 結(jié)束語

        本文提出了一種結(jié)合單高斯模型和區(qū)域直方圖比較的目標(biāo)檢測算法,通過實(shí)驗(yàn)可以驗(yàn)證該算法在一定條件下能夠提高目標(biāo)檢測的準(zhǔn)確性,可以抑制“拖影”現(xiàn)象,并能減少一定的誤檢率,而且改進(jìn)算法對發(fā)生鏡頭突變時的適應(yīng)性有所提高。但是,對于本身較大,移動緩慢的運(yùn)動目標(biāo)進(jìn)行檢測時,使用本文算法容易出現(xiàn)漏檢的情況。

        參考文獻(xiàn):

        [1]Barron J,F(xiàn)leet D,Beauchemin S.Performance of Optical Flow Techniques[J].International Journal of Computer Vision(S1573-1405),1994(01):42-77.

        [2]張磊,史金飛,羅翔.運(yùn)動目標(biāo)檢測的差分圖像法分析研究[J].工業(yè)儀表與自動化裝置,2007(03):7-11.

        [3]蘇禮坤,陳懷新.中值濾波的視頻背景更新[J].光電工程,2010(01):131-135.

        [4]周世兵,徐振源,唐旭清.新的K-均值算法最佳聚類數(shù)確定方法[J].計(jì)算機(jī)工程與應(yīng)用,2010(16):27-31.

        [5]楊會鋒,曹潔,帥立國.基于改進(jìn)K-均值聚類算法的背景建模方法[J].電子測量與儀器學(xué)報(bào),2010(12):1114-1118.

        [6]Ahmed Elgammal,David Harwood,Larry Davis.Non-parametric model for background subtraction[J].Lecture Notes in Computer Science,2000(1843):751-767.

        [7]陳超,楊克儉.基于改進(jìn)的單高斯模型的運(yùn)動目標(biāo)檢測方法[J].微型機(jī)與應(yīng)用,2010(24):39-42.

        [8]劉靜,王玲.混合高斯模型背景法的一種改進(jìn)算法[J].計(jì)算機(jī)工程與應(yīng)用,2010(13):168-170.

        [9]李海霞,范紅.基于背景差法的幾種背景建模方法的研究[J].工業(yè)控制計(jì)算機(jī),2012(07):62-64.

        [10]喬俊鋒,朱虹,史靜.一種快速核密度估計(jì)背景建模方法[J].計(jì)算機(jī)工程與應(yīng)用,2012(05):192-195.

        [11]SeungJong Noh,Moongu Jeon.A New Framework for Background Subtraction Using Multiple Cues[C].Asian Conference on Computer Vision,Daejeon,Korea,2012.Germany:Springer-Verlag Berlin and Heidelberg GmbHCo.K,2013:493–506.

        [12]Atsushi Shimada,Hajime Nagahara,Rin-ichiro Taniguchi.Background Modeling based on Bidirectional Analysis[C].IEEE Conference on Computer Vision and Pattern Recognition,2013:1979-1986.

        [13]Deepak Kumar Panda,Sukadev Meher.A Gaussian Mixture Model with Gaussian Weight Learning Rate and Foreground Detection using Neighbourhood Correlation[C].IEEE Asia Pacific Conference on Postgraduate Research in Microelectronics and Electronics,2013:158-163.

        作者簡介:阿斯雅(1990-),男,內(nèi)蒙古通遼科左后旗人,研究生,研究方向:視頻檢索、圖像處理和多媒體通信;智敏(1972-),女,內(nèi)蒙古巴林左旗人,院長助理,教授,博士,研究方向:數(shù)字圖像處理及模式識別。

        作者單位:內(nèi)蒙古師范大學(xué),呼和浩特 010022

        国产精品久久久久久久专区 | 亚洲精品二区在线观看| 亚洲日韩国产精品不卡一区在线| 久久国产精品岛国搬运工| 在线观看国产av一区二区| 中文字幕午夜精品久久久| 亚洲成人福利在线视频| 中文字字幕人妻中文| 熟妇人妻久久中文字幕| 国产精品福利视频一区| 国产一区二区三区四区五区vm| 久久av无码精品人妻糸列| 亚洲av乱码专区国产乱码| 成人国产乱对白在线观看| 国产一区二区三区尤物| 国产在线av一区二区| 日本免费一区二区三区影院| av网站在线观看入口| 国产区精品一区二区不卡中文 | 青青草针对华人超碰在线| 丁香婷婷激情俺也去俺来也| 精品人妻一区二区三区狼人| 中文字幕在线看精品乱码| 狠狠噜狠狠狠狠丁香五月| 欧美bbw极品另类| 国产精品va在线播放我和闺蜜| 69国产成人综合久久精| 中文字幕人妻少妇久久| 中文字幕日韩精品中文字幕| 精品国产av一区二区三区四区| 色一情一乱一伦麻豆| 亚洲欧美国产国产综合一区| 亚洲欧洲无码一区二区三区| 亚洲第一区二区快射影院| 免费av在线视频播放| 亚洲熟妇一区二区蜜桃在线观看| 国产成人无码专区| 成人免费看吃奶视频网站| 免费毛片在线视频| 色婷婷精品国产一区二区三区| 白白色发布的在线视频|