亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        視頻監(jiān)控中一種完整提取運(yùn)動(dòng)目標(biāo)的檢測算法

        2007-01-01 00:00:00唐宜清羅湘運(yùn)

        摘 要:提出一種視頻監(jiān)控中完整#65380;精確提取運(yùn)動(dòng)目標(biāo)前景的檢測算法#65377;首先對(duì)彩色圖像建立混合高斯模型,由背景差分法得到基本準(zhǔn)確的前景圖像;然后和對(duì)稱差分法圖像綜合,得到完整可靠的運(yùn)動(dòng)目標(biāo)圖像;再利用亮度信息消除運(yùn)動(dòng)目標(biāo)陰影;最后利用形態(tài)學(xué)濾波和連通區(qū)域面積檢測進(jìn)行后處理#65377;實(shí)驗(yàn)結(jié)果表明,該算法檢測的運(yùn)動(dòng)目標(biāo)前景信息完整準(zhǔn)確,對(duì)固定場景下的視頻監(jiān)控系統(tǒng)具有一定實(shí)用價(jià)值#65377;

        關(guān)鍵詞:運(yùn)動(dòng)目標(biāo)檢測;混合高斯模型;對(duì)稱差分;陰影檢測

        中圖分類號(hào):TP391.41文獻(xiàn)標(biāo)識(shí)碼:A

        1 引 言

        在視頻監(jiān)控中,常用的運(yùn)動(dòng)目標(biāo)檢測算法主要有背景差分法和幀間差分法#65377;大多數(shù)背景差分法主要討論了如何建立一個(gè)穩(wěn)定可靠的背景模型#65377;如Mittal等人提出了采用變帶寬核密度估計(jì)法建立背景模型[1];Haritaoglu等人提出的采用最大值#65380;最小值與最大幀間變化建立背景模型的W4算法[2];以及Stauffer等人采用混合高斯模型(MoG,mixture of Guassian)作為背景統(tǒng)計(jì)模型的算法[3]#65377;背景差分法通常能提取較為完整的前景信息,MoG等方法對(duì)于逐漸變化的背景也具有一定適應(yīng)性;但是它對(duì)運(yùn)動(dòng)檢測的敏感性與實(shí)時(shí)性不如幀間差分法#65377;而幀間差分法則是由兩幀連續(xù)圖像的差值得到運(yùn)動(dòng)物體的位置和形狀等信息,能比較準(zhǔn)確地檢測到運(yùn)動(dòng)目標(biāo)輪廓,它的實(shí)時(shí)性和對(duì)運(yùn)動(dòng)物體的敏感性比較高;但是由于運(yùn)動(dòng)目標(biāo)上象素的紋理#65380;灰度等信息比較相近,通常只能得到部分運(yùn)動(dòng)信息#65377;

        運(yùn)動(dòng)目標(biāo)檢測是各種后續(xù)高級(jí)處理如目標(biāo)分類#65380;行為理解等的基礎(chǔ)和關(guān)鍵#65377;為了實(shí)現(xiàn)對(duì)視頻監(jiān)控系統(tǒng)中的運(yùn)動(dòng)目標(biāo)的精確檢測,以滿足其后續(xù)處理的需要,本文提出了一種將幀間差分法和基于混合高斯模型的背景差分法相融合的算法,并結(jié)合陰影檢測#65380;連通組件分析和形態(tài)學(xué)濾波等方法,能準(zhǔn)確地分割出運(yùn)動(dòng)物體的邊界#65377;

        2 背景模型及其更新

        2.1 背景模型

        在視頻監(jiān)控系統(tǒng)中由攝像機(jī)輸入的圖像是由R#65380;G#65380;B 3個(gè)分量組成,它混合了色度和亮度信息#65377;區(qū)分色度和亮度信息能更好的描述物體,我們首先將輸入圖像由R#65380;G#65380;B空間轉(zhuǎn)換到亮度#65380;色度空間(s,r,g)#65377;其中亮度坐標(biāo)s定義為[4]:

        色度信息由R#65380;G#65380;B 的相對(duì)確定為

        r#65380;g#65380;b稱為色度坐標(biāo),并有r+g+b=1#65377;色度空間是二維的,只有兩個(gè)色度坐標(biāo)獨(dú)立,我們選r#65380;g作為色度空間坐標(biāo)#65377;

        固定攝像機(jī)輸入視頻圖像序列為{1,2,…t,…},第t幀視頻圖像中像素X=(x,y)的輸入信號(hào)為I(X,t)=(Is(X,t),Ir(X,t),Ig(X,t))#65377;這里采用混合高斯分布來描述背景模型#65377;設(shè)用來描述每個(gè)象素點(diǎn)Xt顏色的高斯分布共K個(gè),K的值通常取3~5個(gè)#65377;則象素點(diǎn)Xt的概率函數(shù)可用式(1)表示:

        其中:ωi,t是第i個(gè)高斯分布在t時(shí)刻的權(quán)值,μi,t,Σi,t分別第i個(gè)高斯分布在t時(shí)刻的均值和協(xié)方差矩陣,η表示高斯概率密度函數(shù):

        在亮度#65380;色度空間(s,r,g)中,μi,t,Σi,tɑ可以寫成如下形式:

        計(jì)算技術(shù)與自動(dòng)化2007年6月第26卷第2期唐宜清等:視頻監(jiān)控中一種完整提取運(yùn)動(dòng)目標(biāo)的檢測算法各高斯分布按照優(yōu)先級(jí)高低排列,優(yōu)先級(jí)PRIi計(jì)算如下:

        背景建模過程如下:

        1) 初始化模型:用第一幅圖像每點(diǎn)的象素值作為均值,給一個(gè)較大的方差#65380;較小的權(quán)值#65377;

        2) 模型學(xué)習(xí):取背景場景圖,將每個(gè)象素與該象素的已有的i(i<=K)個(gè)高斯模型相比較,若滿足

        則I(X,t)與模型Pi匹配#65377;其中τ為正常數(shù),是一個(gè)全局閾值,在這里我們?nèi)ˇ?2.5#65377;下標(biāo)i表示第i個(gè)分布模型,下標(biāo)j表示在(s,r,g)空間中的分量#65377;否則,且i

        2.2 背景模型的更新

        1) 權(quán)重的更新

        2) 均值和方差的更新

        對(duì)于未匹配的高斯分布,不予更新#65377;對(duì)于匹配的第i個(gè)高斯分布如下:

        3 幀間差分

        幀間差分是把當(dāng)前幀與前一幀圖像的像素亮度或者梯度值[5]相減,從而得到運(yùn)動(dòng)物體的位置與形狀等信息,它對(duì)光照的適應(yīng)性較強(qiáng)#65377;一個(gè)改進(jìn)的方法是對(duì)稱差分法,它采用三個(gè)連續(xù)幀取代兩幀[6],能很好提取出中間幀運(yùn)動(dòng)目標(biāo)的輪廓#65377;其基本算法如下:

        1) 視頻序列連續(xù)三幀源圖像為I(X,t-1),I(X,t)和I(X,t+1),分別計(jì)算相鄰兩幀源圖像的絕對(duì)差灰度圖像D(t-其中,W是一個(gè)抑制噪聲的窗口函數(shù)#65377;由于均值濾波會(huì)使圖像模糊化,從而失去邊緣信息,因此我們選用高斯濾波函數(shù)來抑制噪聲#65377;

        2)對(duì)D(t-1,t)(x,y)和D(t,t+1)(x,y)分別取閾值T1,以進(jìn)行二值化,得到兩個(gè)二值化圖像B(t-1,t)(x,y)和B(t,t+1)(x,y)#65377;將B(t-1,t)(x,y)和B(t,t+1)(x,y)在每一個(gè)象素位置進(jìn)行邏輯與操作,得到對(duì)稱差分結(jié)果二值圖像,計(jì)算公式如下:DS,t(x,y)

        4 運(yùn)動(dòng)目標(biāo)提取

        4.1 陰影檢測

        在光照較強(qiáng)的情況下,檢測出的運(yùn)動(dòng)物體會(huì)包含它的陰影,這會(huì)在很大程度上影響后續(xù)跟蹤和識(shí)別的正確率,因此我們希望在檢測階段盡量消除陰影,以提高后續(xù)處理的正確率#65377;

        陰影在圖像中可以看作半透明區(qū)域[7]#65377;漫反射物體被陰影遮擋時(shí)其表面物理反射特性并沒發(fā)生任何改變,只是光照度發(fā)生改變#65377;因此圖像中陰影遮擋部分的色度(r,g)相對(duì)于背景沒有發(fā)生變化,而亮度s相對(duì)背景增大或減小#65377;設(shè)t時(shí)刻圖像中前景目標(biāo)像素點(diǎn)集合為Σ,陰影部分像素點(diǎn)集合為Ζ,則:

        Z={X|X∈Σ,m≤IS(X,t)μS(X,t)≤n且存在與X在(r,g)空間滿足式(4)的背景分布模型}#65377;

        其中IS(X,t)為像素點(diǎn)X在t幀取值,m為陰影導(dǎo)致的亮度最大衰減比率,n為陰影造成的物體亮度增大的最大比率,μS為背景物體沒有陰影遮擋時(shí)的期望值#65377;用(r,g)空間與X匹配的各背景分布模型均值的加權(quán)平均值作為μS,即

        其中ωi,tΩi,t為權(quán)重,Ωi,t=∑i∈Zωi,t,Z為在(r,g)空間與X匹配的背景分布模型的集合,M為集合Z中背景分布模型的個(gè)數(shù)#65377;

        4.2 目標(biāo)提取

        為了從視頻場景中精確地提取出運(yùn)動(dòng)目標(biāo),本文采取了如下六個(gè)步驟:

        1) 由第2節(jié)所建立的背景模型,得到一個(gè)前景圖像,記為DB,t(x,y)#65377;它可以獲得比較好的前景信息細(xì)節(jié),并且能克服背景場景緩慢變化的干擾#65377;

        2) 由第3節(jié)的對(duì)稱差分法,得到另一個(gè)前景圖像DS,t(x,y)#65377;它能靈敏地捕捉到運(yùn)動(dòng)目標(biāo),并且可檢測到比較準(zhǔn)確的運(yùn)動(dòng)目標(biāo)輪廓,檢測的實(shí)時(shí)性強(qiáng)#65377;

        3) 將1)和2)結(jié)合,在每一個(gè)象素位置將DS,t(x,y)和DB,t(x,y)邏輯“或”操作,可以得到一個(gè)完整#65380;準(zhǔn)確的前景圖像Ft(x,y):

        通過上述3步,在像素級(jí)低層次處理上我們得到了前景目標(biāo)的像素點(diǎn)集合;隨后須對(duì)這些集合作進(jìn)一步的高層次處理,去除噪聲才能完成目標(biāo)提取#65377;步驟如下:

        4) 按照4.1節(jié)中所述方法,除去Ft(x,y)中陰影部分的像素點(diǎn)#65377;

        5) 采用開#65380;閉運(yùn)算等形態(tài)學(xué)濾波方法對(duì)Ft(x,y)進(jìn)行濾波,抑制噪聲#65377;

        6) 利用區(qū)域標(biāo)記和連通性分析計(jì)算各個(gè)變化的連通區(qū)域的面積,當(dāng)某一區(qū)域面積大于給定閾值T2(即最小區(qū)域面積)時(shí)就認(rèn)為背景圖像有變化,并認(rèn)為該變化區(qū)域就是檢測到的目標(biāo)范圍;并刪除含極少數(shù)像素點(diǎn)#65380;不可能是運(yùn)動(dòng)目標(biāo)的孤立區(qū)域,進(jìn)一步消除噪聲#65377;

        5 實(shí)驗(yàn)結(jié)果與討論

        利用文中方法對(duì)一段320×240視頻序列圖像進(jìn)行處理,在普通PC機(jī)(Intel Pentium 4 3.00GHz,256M)上能夠達(dá)到每秒約11幀的速度,基本滿足實(shí)時(shí)處理要求,結(jié)果如下圖所示#65377;根據(jù)第2節(jié)所述,混合高斯模型的各初始值設(shè)置為:K=5,ω=0.05,σ=30,α=0.005,τ=2.5,其中,如果學(xué)習(xí)率取的比較小,適應(yīng)環(huán)境變化的能力就低,只能適應(yīng)緩慢的環(huán)境變化;如果α取的比較大,適應(yīng)環(huán)境變化能力強(qiáng),但容易受噪聲影響,不夠穩(wěn)定#65377;這里根據(jù)經(jīng)驗(yàn)調(diào)整為0.005#65377;對(duì)于對(duì)稱差分閾值T1,如果設(shè)置過大,則可能會(huì)丟失掉一些運(yùn)動(dòng)信息;如果設(shè)置過小,則可能會(huì)引入一些額外的噪聲,在這里設(shè)置為7#65377;最小區(qū)域面積T2設(shè)置為100#65377;

        圖1(a)是視頻序列中的一幀源圖像#65377;圖1(b)是采用本文算法得到的背景圖像#65377;圖1(c)是由對(duì)稱差分法得到差分圖像,可以看出,雖然對(duì)稱差分法能得到一個(gè)完整的運(yùn)動(dòng)輪廓,但卻忽略了很多細(xì)節(jié)信息#65377;圖1(d)是基于Stauffer等人的混合高斯模型得到的差分圖像#65377;可以看到,它能得到較好的前景細(xì)節(jié)信息,但是受陰影的干擾很大;同時(shí),由于噪聲和背景擾動(dòng)的影響圖1(c)#65380;圖1(d)還含有一些非運(yùn)動(dòng)目標(biāo)的噪聲點(diǎn)#65377;圖1(e)是利用本文算法得到的運(yùn)動(dòng)目標(biāo)圖像#65377;從結(jié)果圖像圖1(e)中可看到,本文算法可以得到精確完整的前景目標(biāo)信息#65377;

        6 結(jié) 論

        本文提出了一種視頻監(jiān)控中精確完整地提取運(yùn)動(dòng)目標(biāo)的檢測算法#65377;它綜合了基于顏色混合高斯模型的背景差分法和對(duì)稱差分法的優(yōu)點(diǎn),使它們的優(yōu)勢形成互補(bǔ)#65377;同其它方法相比,該算法在存在運(yùn)動(dòng)目標(biāo)的情況下,能準(zhǔn)確地提取并更新背景模型,利用背景消減法得到基本準(zhǔn)確的運(yùn)動(dòng)區(qū)域,并且和對(duì)稱差分法結(jié)合,將運(yùn)動(dòng)區(qū)域細(xì)節(jié)完整地檢測出來#65377;實(shí)驗(yàn)結(jié)果表明該方法準(zhǔn)確#65380;有效,有著廣泛的適用性#65377;

        注:本文中所涉及到的圖表、注解、公式等內(nèi)容請以PDF格式閱讀原文。

        少妇的肉体k8经典| 午夜少妇高潮在线观看| 日韩av激情在线观看| 日韩人妻无码一区二区三区久久99| 国产v综合v亚洲欧美大天堂 | 日日噜噜夜夜爽爽| 国产欧美日韩图片一区二区| 在线观看一区二区三区视频| 男人吃奶摸下挵进去啪啪软件 | 精品日韩一级免费视频| 日韩人妻无码精品久久| 一本久道久久综合久久| 国产精品亚洲av无人区二区| 国产欧美综合一区二区三区| 色八区人妻在线视频免费| 岛国大片在线免费观看| 女同在线视频一区二区| 中文在线中文a| 少妇人妻真实偷人精品视频| 国产精品日本天堂| 开心五月骚婷婷综合网| 一边做一边喷17p亚洲乱妇50p| 午夜精品一区二区三区在线观看| 日韩不卡无码三区| 男女主共患难日久生情的古言| 中文字幕人妻被公上司喝醉| 久久精品国产亚洲AV高清特级| 男女动态视频99精品| 性猛交ⅹxxx富婆视频| 无码精品黑人一区二区三区| 午夜av内射一区二区三区红桃视| 中文字幕一区在线直播| 无码乱人伦一区二区亚洲一| 精品人妻VA出轨中文字幕| 中文字幕乱码在线婷婷| 少妇伦子伦情品无吗| 欧美日韩中文国产一区| 日韩精品免费在线视频| 天堂网av一区二区三区在线观看| 精品国产sm捆绑最大网免费站| 久久熟女五十路|