亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于自適應(yīng)閾值的運(yùn)動(dòng)目標(biāo)檢測方法

        2014-04-03 07:32:58張永劉巧玲
        關(guān)鍵詞:高斯分布像素點(diǎn)高斯

        張永,劉巧玲

        ZHANG Yong, LIU Qiao-ling

        蘭州理工大學(xué) 計(jì)算機(jī)與通信學(xué)院,蘭州 730050

        School of Computer and Communication,Lanzhou University of Technology,Lanzhou 730050,China

        1 引言

        運(yùn)動(dòng)目標(biāo)檢測是指從視頻序列圖像中將變化區(qū)域從背景圖像中提取出來,由于后續(xù)的處理,如目標(biāo)跟蹤、目標(biāo)識別與分類、目標(biāo)特征的提取等,只考慮圖像中運(yùn)動(dòng)區(qū)域的像素。因此,獲得精確的運(yùn)動(dòng)目標(biāo)是非常重要的。

        背景減除法[1,2]是目前運(yùn)動(dòng)目標(biāo)檢測中最常用的一種方法,其核心是背景模型的建立。目前已經(jīng)提出了很多的自適應(yīng)背景模型方法。其中,Stauffer等人[3]提出利用多個(gè)高斯分布構(gòu)建背景模型的方法得到了廣泛的應(yīng)用,但該方法收斂速度比較慢,計(jì)算量大,易受光照變化和噪聲的影響。近年來,許多學(xué)者對其進(jìn)行了大量的研究。例如,文獻(xiàn)[4]提出對均值和方差采用不同的學(xué)習(xí)速率;文獻(xiàn)[5]用混合高斯模型對前景進(jìn)行粗分割,然后采用結(jié)構(gòu)梯度互相關(guān)系數(shù)對粗分割結(jié)果進(jìn)行校正,以提高目標(biāo)檢測的精度;文獻(xiàn)[6]提出對 混合高斯模型檢測出的前景和背景,采用不同的更新策略,以實(shí)現(xiàn)背景模型的實(shí)時(shí)更新;文獻(xiàn)[7]針對傳統(tǒng)混合高斯背景僅對單個(gè)像素建模,而忽略了視頻序列在時(shí)間和空間上的相關(guān)性,提出利用背景時(shí)間統(tǒng)計(jì)特征和空間區(qū)域特征建立模型;文獻(xiàn)[8]通過對混合高斯背景模型進(jìn)行改進(jìn),使其適應(yīng)局部的光照變化,并且對模型引入幀間處理使其適應(yīng)全局的光照變化。但是,效果仍不是很理想。

        針對上述不足,本文對高斯模型的背景學(xué)習(xí)方法進(jìn)行了深入的分析,并提出了一種自適應(yīng)的方法。為了提高模型對不同噪聲的自適應(yīng)性,改進(jìn)方法對不同高斯分布提出了自適應(yīng)的閾值,以排除由于噪聲或光照引起的誤判問題;為提高在靜態(tài)場景下,背景模型的自適應(yīng)性,對模型的學(xué)習(xí)采用不同的速率,建立實(shí)時(shí)的背景模型。

        2 背景知識介紹

        2.1 混合高斯模型

        混合高斯模型是對背景圖像中的每個(gè)像素點(diǎn),利用k個(gè)高斯分布對其進(jìn)行模擬,用其概率密度函數(shù)的加權(quán)和表示該像素點(diǎn)的概率密度函數(shù)。則在t時(shí)刻,背景圖像中某點(diǎn)(x,y)的概率密度為:

        其中,It為t時(shí)刻的像素值,文中從實(shí)時(shí)性方面考慮,僅采用YUV顏色空間中的亮度信息;ωt,i為t時(shí)刻混合高斯模型中第i個(gè)高斯分布的權(quán)重;σt,i和μt,i為t時(shí)刻第i個(gè)高斯分布的方差和均值;ηi(It,μt,i,σt,i)為第i個(gè)高斯分布的概率密度函數(shù),其定義如下:

        2.2 模型的匹配和更新

        則認(rèn)為當(dāng)前像素與第 j個(gè)高斯分布匹配成功,并中止與后續(xù)模型的匹配。其中匹配閾值γ一般取2.5。

        對與當(dāng)前像素匹配成功的第 j個(gè)高斯分布,采用(4)式和(5)式對其均值和方差進(jìn)

        行更新。式中ρ為學(xué)習(xí)速率,其反映了當(dāng)前像素融入背景的速率。

        對未匹配上的高斯分布,其方差和均值都保持不變。如果k個(gè)高斯分布均與當(dāng)前像素值不匹配,則取當(dāng)前像素值為均值,給定一個(gè)較大的值為方差,建立一個(gè)新的高斯分布,代替最小的高斯分布。

        對k個(gè)高斯分布的權(quán)值采用下式進(jìn)行修正:

        式中,當(dāng)i=j時(shí),Mt,i取值為 1,否則,取值為0。

        3 算法的改進(jìn)

        3.1 模型匹配閾值的改進(jìn)

        高斯模型的匹配由均值、方差和匹配閾值γ這三個(gè)參數(shù)完全決定,對均值和方差的修正通過模型的實(shí)時(shí)更新來實(shí)現(xiàn),模型匹配閾值一般采用固定的數(shù)值,而沒有考慮場景中像素值隨噪聲和光照所發(fā)生的變化,因此會(huì)產(chǎn)生大量的誤檢測點(diǎn)。不同的匹配閾值將直接影響模型的精確性、穩(wěn)定性。

        如果噪聲和光照使得像素值與匹配模型的均值距離較小,那么采用固定的閾值肯定會(huì)將該像素判為背景像素,反之,該像素會(huì)被誤判為前景像素點(diǎn)。因此,為了處理不同的噪聲對檢測結(jié)果的影響,引入自適應(yīng)的模型匹配閾值γ。

        式中,γ主要依賴于當(dāng)前所匹配模型的方差。

        由高斯分布函數(shù)的特性可知,如果方差越大,則說明概率密度函數(shù)越扁平,即像素值的分布較為平緩,此時(shí),若采用固定的匹配閾值,將會(huì)使大量的前景像素點(diǎn)被誤判為背景。若采用本文提出的自適應(yīng)匹配閾值,當(dāng)方差越大時(shí),γ值越小,因此可以有效地降低誤檢測率。反之,如果方差越小,則概率密度函數(shù)越陡峭,即像素值的分布較為集中,若采用傳統(tǒng)混合高斯模型的匹配閾值,必定會(huì)使大量的背景像素點(diǎn)被誤判為前景。而采用文中提出的自適應(yīng)匹配閾值,可以有效地緩解該現(xiàn)象。

        3.2 模型更新

        注意到視頻監(jiān)控場景中通常只有運(yùn)動(dòng)目標(biāo)區(qū)域是比較混亂的,而大部分區(qū)域是靜止的,靜止區(qū)域的像素點(diǎn)通常具有相同的像素值,而且該像素值總是和同一個(gè)高斯分布相匹配的,則與其相對應(yīng)的高斯分布出現(xiàn)的概率就越大。經(jīng)過學(xué)習(xí)后,該高斯分布應(yīng)該具有較大的權(quán)重。但是,傳統(tǒng)的混合高斯模型并沒有考慮到這種情況,僅僅關(guān)注的是像素點(diǎn)均值的變化情況。因此,為了有效地檢測靜態(tài)背景區(qū)域,并提高模型的穩(wěn)定性和自適應(yīng)性,引入?yún)?shù)ζ,統(tǒng)計(jì)連續(xù)幀中每個(gè)像素與同一個(gè)高斯分布相匹配的次數(shù)。

        式中,kt為t時(shí)刻與該像素匹配的高斯分布,kt-1為t-1時(shí)刻與該像素匹配的高斯分布。如果tζ超過閾值ζmin,則利用下式更新權(quán)重學(xué)習(xí)速率。

        式中,m是大于 1的常量;α是初始的權(quán)重學(xué)習(xí)速率。

        通過統(tǒng)計(jì)某點(diǎn)像素與同一個(gè)高斯分布連續(xù)匹配次數(shù),針對不同的情況,采用不同的權(quán)重學(xué)習(xí)速率,使靜態(tài)區(qū)域具有較大的權(quán)重學(xué)習(xí)速率,可以有效地改善檢測的性能,并且提高模型的穩(wěn)定性。

        4 仿真實(shí)驗(yàn)結(jié)果

        為了驗(yàn)證改進(jìn)算法的有效性,進(jìn)行了大量的實(shí)驗(yàn)測試,文中列舉了兩段視頻中的部分結(jié)果并進(jìn)行分析。在普通 PC機(jī)(CPU為Core(TM) i3 M 2.13 GHz,內(nèi)存為4 GB,操作系統(tǒng)為 Windows 7)上的 Matlab R2009a平臺上進(jìn)行仿真實(shí)驗(yàn)。其中算法所涉及的參數(shù):k=3,α=0.001,m=10,ζmin=10。實(shí)驗(yàn)結(jié)果如圖1和圖2所示。

        圖1 室內(nèi)場景下,本文算法與傳統(tǒng)混合高斯模型的檢測結(jié)果比較

        圖1是室內(nèi)場景下,改進(jìn)后算法與傳統(tǒng)混合高斯模型的檢測結(jié)果對比圖。采用的視頻序列是從網(wǎng)上(http://groups.inf.ed.ac.uk/vision/CAVIAR/CAVIARDATA1/)獲取的,共有599幀,分辨率為384×288,幀率為25幀/s。其中,圖1(a)為視頻序列中的檢測圖像,圖1(b)和(c)為采用傳統(tǒng)混合高斯模型和改進(jìn)方法構(gòu)建的背景,圖1(d)和(e)分別是利用傳統(tǒng)混合高斯模型和本文方法所分割的前景圖像。由于場景中存在光線的變化,以及前景目標(biāo)和背景顏色相一致的現(xiàn)象,導(dǎo)致圖1(d)中有大量的前景被誤檢為背景,而觀察本文方法檢測的結(jié)果可知,改進(jìn)的算法能夠很好的克服光線變化對檢測結(jié)果的影響,而且在室內(nèi)場景中能夠獲得更加穩(wěn)定的背景。

        圖2 室外場景第462幀的檢測結(jié)果

        圖2是選自一段典型的室外場景視頻,分辨率為384×288,幀率為30幀/s,特點(diǎn)是運(yùn)動(dòng)物體速度快,場景中存在全局的光照變化以及樹枝的搖擺。文中采用的是視頻序列的第462幀,其中圖2(a)是原始圖像,(b)和(c)分別為采用傳統(tǒng)混合高斯模型和改進(jìn)算法檢測得到的背景圖像,比較兩個(gè)背景圖像,可以發(fā)現(xiàn)在室外場景中,傳統(tǒng)的混合高斯模型不能獲得完整的背景模型,而利用本文算法構(gòu)建的背景模型更加精確,更加接近真實(shí)的背景,因此獲得的檢測結(jié)果也更加的精確。

        最后,為了更加直觀的反映本文算法的有效性,將上述視頻序列正確檢測出的前景像素點(diǎn)比例 CFP(Correct Foreground Propotion)和背景像素點(diǎn)比例CBP(Correct Background Propotion)的平均值列于表 1中。其中,是檢測到的正確目標(biāo)像素點(diǎn),P1是實(shí)際的目標(biāo)像素點(diǎn),P21是檢測到的正確背景像素點(diǎn),P2是實(shí)際的背景像素點(diǎn)。

        表1 算法檢測結(jié)果對比表

        實(shí)驗(yàn)表明,不論是在室內(nèi)場景還是室外場景,還是相對于傳統(tǒng)的混合高斯模型算法,本文方法都能有效地克服將前景像素點(diǎn)誤判為背景的現(xiàn)象,并且構(gòu)建出更為穩(wěn)定的背景,很好地克服了光照以及噪聲對檢測結(jié)果的影響。

        5 結(jié)束語

        通過研究傳統(tǒng)的混合高斯模型算法,文中提出了一種新的改進(jìn)方法。該方法對不同的高斯分布采用自適應(yīng)的匹配閾值,克服了由噪聲和光照引起的誤檢測點(diǎn);并在此基礎(chǔ)上,對靜態(tài)場景中特定像素滿足同一高斯分布的次數(shù)進(jìn)行統(tǒng)計(jì),根據(jù)其是否超過一定的閾值,對權(quán)重學(xué)習(xí)速率進(jìn)行不同的更新,從而提高算法的精確性,獲得更加穩(wěn)定的背景模型。實(shí)驗(yàn)表明,改進(jìn)的算法不僅能夠有效地抑制光照和噪聲對檢測結(jié)果的影響,而且在不同的場景中能夠建立精確的背景模型。進(jìn)一步要做的工作是研究如何在不降低精度的前提下,提高算法的實(shí)時(shí)性。

        [1]Olivier Barnich,Marc Van Droogenbroeck.ViBe:A universal background subtraction algorithm for video sequences[J].IEEE Transactions on Image Processing,2011,20(6):1709-1724.

        [2]Haritaoglu I, Harwood D, Davis L S.W4:real-time surveillance of people and their activities[J].IEEE Transactions on Pattern Analysis and Machine Intelligence.2000,22(8):809-830.

        [3]Zha Ye-fei,Bi Du-yan.Adaptive learning algorithm based on mixture Gaussian background [J].Journal of Systems Engineering and Electronics, 2007,18(2):369-373.

        [4]馬義德,朱望飛,安世霞,等。改進(jìn)的基于高斯混合模型的運(yùn)動(dòng)目標(biāo)檢測方法[J].計(jì)算機(jī)應(yīng)用.2007,27(10):2244-2246.

        [5]原春鋒,王傳旭,張祥光,等。光照突變環(huán)境下基于高斯混合模型和梯度信息的視頻分割[J].中國圖象圖形學(xué)報(bào),2007,12(11):2068-2072.

        [6]Gang Chen, Zhezhou Yu, Qing Wen, et al.Improved Gaussian Mixture Model for Moving Object Detection.Springer Verlag Berlin Heidelberg 2011:179-186.

        [7]陳明生,梁光明,孫即祥,等.利用時(shí)空背景模型的快速運(yùn)動(dòng)目標(biāo)檢測方法[J].中國圖象圖形學(xué)報(bào),2011,16(6):1002-1007.

        [8]李亞玲,徐榮青,聶桂軍,等.適應(yīng)場景光照變化的運(yùn)動(dòng)目標(biāo)檢測算法[J].計(jì)算機(jī)技術(shù)與發(fā)展,2011,21(2):140-142.

        猜你喜歡
        高斯分布像素點(diǎn)高斯
        小高斯的大發(fā)現(xiàn)
        利用Box-Cox變換對移動(dòng)通信中小區(qū)級業(yè)務(wù)流量分布的研究
        2種非對稱廣義高斯分布模型的構(gòu)造
        天才數(shù)學(xué)家——高斯
        基于canvas的前端數(shù)據(jù)加密
        一種基于改進(jìn)混合高斯模型的前景檢測
        基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
        有限域上高斯正規(guī)基的一個(gè)注記
        基于Node-Cell結(jié)構(gòu)的HEVC幀內(nèi)編碼
        一種改進(jìn)的混合高斯模型背景估計(jì)方法*
        激情五月开心五月av| 久久久久久免费毛片精品| 香蕉视频www.5.在线观看| 不卡无毒免费毛片视频观看| 亚洲天堂免费成人av| 丁香婷婷六月综合缴清| 国产欧美日韩一区二区加勒比 | 巨胸喷奶水www视频网站| 国产精品对白交换视频| 人片在线观看无码| 日本精品少妇一区二区| 精品久久亚洲中文字幕| 成人国产精品一区二区网站公司 | 性色做爰片在线观看ww| 久久亚洲国产精品成人av秋霞 | 疯狂添女人下部视频免费| 黑人玩弄人妻中文在线| 亚洲电影久久久久久久9999| 亚洲av自偷自拍亚洲一区| 麻豆69视频在线观看| 国产午夜福利久久精品| 伊人久久无码中文字幕| 人妻中文字幕不卡精品| 中文字幕人妻av四季| 亚洲av日韩av激情亚洲| 久久久久国产一区二区| Y111111国产精品久久久| 亚洲av第一区综合激情久久久| 日本久久精品视频免费| 人妻丰满熟妇无码区免费| 老妇肥熟凸凹丰满刺激| 日韩AV无码乱伦丝袜一区| 日韩av一区二区蜜桃| 丰满熟妇乱又伦精品| 国产色秀视频在线播放| 久久一区二区三区不卡| 亚洲一区二区日韩精品| 边添小泬边狠狠躁视频| 成人h视频在线观看| 三级全黄的视频在线观看| 美利坚合众国亚洲视频|