亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于幀差分塊的混合高斯背景模型

        2014-08-03 15:23:36桐,王
        關(guān)鍵詞:高斯背景像素

        吳 桐,王 玲

        1.湖南大學(xué) 電氣與信息工程學(xué)院,長(zhǎng)沙 410082

        2.中國(guó)人民解放軍63893部隊(duì)

        基于幀差分塊的混合高斯背景模型

        吳 桐1,2,王 玲1

        1.湖南大學(xué) 電氣與信息工程學(xué)院,長(zhǎng)沙 410082

        2.中國(guó)人民解放軍63893部隊(duì)

        1 引言

        運(yùn)動(dòng)目標(biāo)檢測(cè)是智能監(jiān)控的重要研究方向,是目標(biāo)識(shí)別、跟蹤、行為分析等后續(xù)處理的基礎(chǔ)。最具代表性的方法有幀間差分法、背景減除法、光流法[1-2]。其中,背景減除法是目前最常見(jiàn)的方法。但其易受外界條件變化的影響(如光照的變化、晃動(dòng)的樹(shù)葉及波動(dòng)的水面等),故具有良好適應(yīng)能力的背景模型非常重要[3]。文獻(xiàn)[4]提出采用單高斯模型對(duì)背景進(jìn)行建模,該方法在穩(wěn)定的室內(nèi)環(huán)境有較好的效果,但該方法無(wú)法準(zhǔn)確模擬存在大量擾動(dòng)的戶外環(huán)境。文獻(xiàn)[5-6]利用混合高斯建立背景模型,可以克服光線、樹(shù)枝搖動(dòng)等造成的影響,該方法已成為最常用的背景建模方法。文獻(xiàn)[7-9]通過(guò)調(diào)整學(xué)習(xí)率提高模型對(duì)環(huán)境變化的適應(yīng)能力,但對(duì)于面積較大的目標(biāo),容易造成誤檢。文獻(xiàn)[10-12]結(jié)合像素領(lǐng)域信息對(duì)前景目標(biāo)進(jìn)行檢測(cè),但該方法不容易獲得正確的目標(biāo)外形。在前人的基礎(chǔ)上,本文提出了一種基于幀差分塊和自適應(yīng)學(xué)習(xí)率的混合高斯改進(jìn)算法。實(shí)驗(yàn)結(jié)果表明,該算法有效改善了背景模型對(duì)復(fù)雜場(chǎng)景的適應(yīng)能力,提高了算法實(shí)時(shí)性。

        2 傳統(tǒng)混合高斯模型

        混合高斯模型(GMM)針對(duì)各像素點(diǎn)建立K個(gè)高斯模型,獲取當(dāng)前幀圖像后更新模型參數(shù),用當(dāng)前像素xt與混合高斯模型匹配,提取運(yùn)動(dòng)目標(biāo)。當(dāng)前像素xt屬于背景的概率為:

        式中 ωi,t為權(quán)重,μi,t為均值,n 表示顏色通道數(shù)。本文采用灰度圖像進(jìn)行背景建模,取n=1。

        若當(dāng)前像素xt在高斯分布的2.5倍標(biāo)準(zhǔn)差之內(nèi),則xt與第k個(gè)高斯模型相匹配,判斷為背景點(diǎn),即

        對(duì)于沒(méi)有匹配成功的模型,其均值和方差不變,權(quán)值更新如下:

        若當(dāng)前像素值未能與任何一個(gè)模型相匹配,則為前景點(diǎn),創(chuàng)建一個(gè)新的模型;若模型數(shù)達(dá)到最大,則重新對(duì)各個(gè)高斯模型按優(yōu)先級(jí)ω/σ由大到小排列,取前B個(gè)高斯分布作為背景模型:

        3 基于偵差分塊的混合高斯背景模型

        傳統(tǒng)混合高斯模型存在以下幾個(gè)問(wèn)題:(1)對(duì)每個(gè)孤立的像素點(diǎn)進(jìn)行建模,雖能較好地分離圖像,但忽視了點(diǎn)的空間位置,并且更新模型的過(guò)程耗費(fèi)很大的計(jì)算量,降低了實(shí)時(shí)性。(2)固定學(xué)習(xí)率對(duì)復(fù)雜場(chǎng)景的適應(yīng)能力較差。高學(xué)習(xí)容易引入大量噪聲;低學(xué)習(xí)率使背景模型不能跟上實(shí)際背景的變化,容易造成誤檢,如長(zhǎng)期靜止的物體轉(zhuǎn)為運(yùn)動(dòng),造成的“鬼影”現(xiàn)象。(3)沒(méi)有考慮場(chǎng)景中光線突變的情況。發(fā)生光線突變時(shí),容易產(chǎn)生大范圍誤檢。

        為解決上述問(wèn)題,提出了一種基于幀差分塊和自適應(yīng)學(xué)習(xí)率的混合高斯改進(jìn)算法。首先通過(guò)幀間差分法選取可疑點(diǎn),根據(jù)分塊模型,判定可疑前景區(qū)域與背景區(qū)域。根據(jù)不同區(qū)域,自適應(yīng)切換背景模型,解決問(wèn)題(1),幀間差分法有較高的檢測(cè)靈敏度,對(duì)問(wèn)題(2)也有一定改進(jìn)。然后把前景可疑區(qū)域進(jìn)一步劃分為干擾區(qū)域與前景區(qū)域,針對(duì)不同的區(qū)域采取不同的學(xué)習(xí)率,解決問(wèn)題(2)。此外,為解決場(chǎng)景中光線突變導(dǎo)致的大面積誤檢,增加了亮度信息變化率檢測(cè),若判定光線突變,對(duì)高斯模型重新初始化,解決問(wèn)題(3)。圖1為該算法原理圖。

        圖1 算法流程圖

        3.1 幀間差分法選取前景可疑點(diǎn)

        幀間差分法是將相鄰兩幀圖像 ft-1和 ft進(jìn)行差分處理,通過(guò)閾值比較,判斷變化的區(qū)域。判定規(guī)則如下:

        式中,ac為運(yùn)動(dòng)可疑點(diǎn),T為顏色變化閾值。T的取值影響到對(duì)運(yùn)動(dòng)目標(biāo)的后續(xù)處理。由于只是對(duì)前景目標(biāo)的初選,故不宜選取過(guò)大的閾值,造成后續(xù)提取的前景目標(biāo)內(nèi)出現(xiàn)空洞、裂紋等現(xiàn)象,同時(shí)復(fù)雜的自適應(yīng)閾值算法會(huì)造成計(jì)算量的負(fù)擔(dān)。針對(duì)上述要求,利用極限誤差作為分割標(biāo)準(zhǔn)。設(shè)T=3σ+μ,σ和 μ分別為差分圖像背景區(qū)域的均值和方差。

        3.2 模型分塊及相關(guān)處理

        傳統(tǒng)的混合高斯是對(duì)孤立像素點(diǎn)的時(shí)域建模,雖然能分離較好完整性的圖像,但忽視了像素之間的空域關(guān)系,并且更新模型的過(guò)程耗費(fèi)很大的計(jì)算量,降低了實(shí)時(shí)性。在靜態(tài)監(jiān)測(cè)系統(tǒng)中,由于場(chǎng)景相對(duì)固定,很多相鄰像素點(diǎn)都有相同或相近的像素值,其對(duì)應(yīng)的模型參數(shù)也是相同或相近,所以可以用一個(gè)模型代表這些相鄰像素點(diǎn)。文獻(xiàn)[13]中證明了利用相鄰像素間的相關(guān)性提取運(yùn)動(dòng)目標(biāo)是一條有效途徑。通過(guò)引入分塊模型的方法來(lái)融合像素點(diǎn)的時(shí)空域信息。對(duì)t時(shí)刻尺寸為m×n的圖像 ft,按照從左到右,從上到下,分為m″×n″個(gè)監(jiān)測(cè)區(qū)域 Dm,尺寸為 m′×n′。

        3.2.1 前景可疑區(qū)域的判定

        統(tǒng)計(jì)監(jiān)測(cè)區(qū)域Dm中可疑點(diǎn)ac的個(gè)數(shù)nc,通過(guò)與可疑區(qū)域判定閾值Td的比較,判斷其屬于可疑前景區(qū)域Dc,還是背景區(qū)域 Dbg,規(guī)則如下:

        式中,監(jiān)測(cè)區(qū)域尺寸為m′×n′,需根據(jù)運(yùn)動(dòng)物體在監(jiān)控場(chǎng)景中的面積具體選取。如果監(jiān)測(cè)區(qū)域尺寸選取過(guò)大,容易將小目標(biāo)或目標(biāo)邊沿被誤判為背景區(qū)域;如果尺寸過(guò)小,不能減少計(jì)算量[11]。通常選取尺寸為運(yùn)動(dòng)物體面積的1/8~1/4即可滿足要求。

        3.2.2 自適應(yīng)模型切換

        根據(jù)檢測(cè)區(qū)域的判定結(jié)果,對(duì)可疑前景區(qū)域中的每一點(diǎn)單獨(dú)建立混合高斯模型,即復(fù)雜背景模型,以保證運(yùn)動(dòng)目標(biāo)檢測(cè)的精度。用塊內(nèi)均值It代表背景區(qū)域各像素點(diǎn)構(gòu)造混合高斯模型,即簡(jiǎn)單背景模型,以降低計(jì)算量。其中,塊內(nèi)均值為:

        3.3 光線突變的解決方法

        戶外場(chǎng)景中,往往會(huì)發(fā)生光線突變,如云朵的移動(dòng),機(jī)動(dòng)車燈照射等情況[14]。光線突變導(dǎo)致場(chǎng)景中大部分像素點(diǎn)產(chǎn)生劇烈變化,故容易造成大面積區(qū)域誤檢,且這種干擾也無(wú)法由混合高斯模型的迭代更新消除。本文通過(guò)增加亮度信息變化率檢測(cè),對(duì)圖像進(jìn)行前序處理以消除干擾。對(duì)檢測(cè)區(qū)域中可疑前景區(qū)域個(gè)數(shù)ad進(jìn)行統(tǒng)計(jì),達(dá)到閾值Tl時(shí),判定發(fā)生光線突變,如式(11)所示:

        若場(chǎng)景發(fā)生光線突變,則對(duì)混合高斯模型參數(shù)重新初始化。模型中的μt以當(dāng)前幀像素點(diǎn)的亮度值mt代替,而σt以0取代,從而實(shí)現(xiàn)背景的及時(shí)更新[15]。

        3.4 自適應(yīng)學(xué)習(xí)率

        傳統(tǒng)模型中的固定學(xué)習(xí)率對(duì)復(fù)雜場(chǎng)景的適應(yīng)能力較差,高學(xué)習(xí)率容易引入大量噪聲,而低學(xué)習(xí)率使背景模型不能迅速跟上實(shí)際背景的變化,容易造成誤檢。只使用一個(gè)全局的學(xué)習(xí)率,沒(méi)有充分利用已建立好的背景信息[5]。為了解決上述問(wèn)題,需針對(duì)不同的區(qū)域采取不同的更新策略。

        3.4.1 干擾區(qū)域的判定

        場(chǎng)景中往往會(huì)存在一些周期性反復(fù)運(yùn)動(dòng)的干擾物體(如搖擺的樹(shù)枝和波動(dòng)的水面等),傳統(tǒng)高斯模型因采用固定學(xué)習(xí)率,不能有效消除此類干擾。為解決此類問(wèn)題,將存在干擾物體的區(qū)域從可疑前景區(qū)域分出,把可疑前景區(qū)域分為干擾區(qū)域與前景區(qū)域。對(duì)干擾區(qū)域使用較高的學(xué)習(xí)率,使干擾物體盡快“融入”背景,同時(shí)避免了高學(xué)習(xí)率引入的大量噪聲,具體算法如下:

        為圖像中每一個(gè)監(jiān)測(cè)區(qū)域建立一個(gè)N幀的記錄區(qū)(記錄區(qū)大小可變),記錄該區(qū)域在N幀中被選中為可疑區(qū)域的次數(shù)ns。將ns與閾值Tf比較,若可疑前景區(qū)域滿足 ns>Tf,則判定為干擾區(qū)域 Dif,反之為前景區(qū)域Dfg。

        3.4.2 學(xué)習(xí)率的選取

        經(jīng)過(guò)干擾區(qū)域的判別,當(dāng)前幀被劃分若干個(gè)前景區(qū)域、背景區(qū)域和干擾區(qū)域。賦予前景區(qū)域極低的學(xué)習(xí)率αfg,減少運(yùn)動(dòng)目標(biāo)對(duì)背景的影響。賦予背景區(qū)域較小的學(xué)習(xí)率αbg,保持背景區(qū)域的穩(wěn)定性,避免引入噪聲。賦予干擾區(qū)域較大的學(xué)習(xí)率αif,高斯分布將會(huì)獲得較大權(quán)值和較小的方差,使其優(yōu)先級(jí)迅速提高,而其余的高斯分布優(yōu)先級(jí)將降低,匹配的高斯分布影響背景的程度將加大,使背景模型能迅速跟上實(shí)際的背景變化。取αfg=0.002,αbg=0.01,αig=0.03。

        3.5 運(yùn)動(dòng)目標(biāo)的提取

        將前景區(qū)域中的像素點(diǎn)xt與各自前M個(gè)的模型按公式(2)的方法進(jìn)行匹配。提取不匹配的像素點(diǎn)用白色表示,進(jìn)行一些處理(如圖像增強(qiáng)、形態(tài)學(xué)處理等),得到完整的運(yùn)動(dòng)目標(biāo)。

        4 實(shí)驗(yàn)結(jié)果與分析

        針對(duì)場(chǎng)景中存在干擾物體,物體運(yùn)動(dòng)狀態(tài)改變,光照變化等問(wèn)題,使用文中算法與文獻(xiàn)[4]中GMM算法、幀間差分法進(jìn)行對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)平臺(tái)配置為酷睿雙核(2.0 GHz)內(nèi)存2 GB,測(cè)試視頻來(lái)源于PETS2001,分辨率為768×576。

        實(shí)驗(yàn)中涉及以下幾個(gè)參數(shù)的選取:

        (1)可疑區(qū)域判定閾值Td。判定閾值越低,運(yùn)動(dòng)目標(biāo)屬于可疑區(qū)域的像素越多,檢測(cè)精度將有所提升。當(dāng)判定閾值為0.5時(shí),可疑區(qū)域幾乎可以包含運(yùn)動(dòng)目標(biāo)的所有像素,檢測(cè)效果已經(jīng)很讓人滿意,再降低閾值,檢測(cè)效果就不會(huì)有明顯改變。從計(jì)算量上看,閾值的降低會(huì)產(chǎn)生大量的非線性計(jì)算,使算法速度降低。處于這兩種考慮,判定閾值Td取0.5。

        (2)光線突變的判定閾值Tl。一般的場(chǎng)景中,運(yùn)動(dòng)目標(biāo)像素占總像素的比例是在一定范圍內(nèi)的。因此,當(dāng)場(chǎng)景中的可疑前景區(qū)域的個(gè)數(shù)超過(guò)這一范圍時(shí),即可判斷發(fā)生光線突變,因此閾值可以在較大范圍內(nèi)取值。本文取Tl=40%。

        (3)干擾區(qū)域判定的相關(guān)參數(shù)。由于干擾物體是周期性反復(fù)運(yùn)動(dòng)的,而目標(biāo)在一個(gè)檢測(cè)區(qū)域的運(yùn)動(dòng)時(shí)間則不會(huì)太長(zhǎng),過(guò)多的紀(jì)錄區(qū)幀數(shù)不但沒(méi)有提高檢測(cè)精度,反而會(huì)增加計(jì)算量。以下實(shí)驗(yàn),紀(jì)錄區(qū)幀數(shù)N取8,判定閾值Tf取4,即可滿足要求。

        表1為各算法時(shí)間結(jié)果,表2為本文算法用時(shí)分析。由表1可知,文中算法的實(shí)時(shí)性介于幀間差分法與GMM算法之間。這是因?yàn)?,GMM算法是對(duì)所有像素單獨(dú)建立多高斯模型,且對(duì)高斯模型的計(jì)算多為非線性的(如方差、標(biāo)準(zhǔn)差的計(jì)算)。而本文對(duì)區(qū)域判斷與后續(xù)處理的計(jì)算多為線性的,表2可知,文中算法針對(duì)混合高斯模型計(jì)算的像素僅為GMM算法的14.6%。文中算法雖在區(qū)域判定與后續(xù)處理上增加了線性計(jì)算,但同時(shí)減少了對(duì)混合高斯模型的非線性計(jì)算,使用線性計(jì)算代替不必要的非線性計(jì)算,大大減少了計(jì)算量。

        表1 各算法檢測(cè)時(shí)間

        表3為各算法檢測(cè)效果,序列a中存在一棵由于大風(fēng)天氣連續(xù)搖擺的樹(shù),實(shí)驗(yàn)結(jié)果表明,對(duì)場(chǎng)景中周期性反復(fù)運(yùn)動(dòng)的干擾物體,幀間差分法無(wú)抗干擾能力;GMM算法有一定的適應(yīng)能力,但對(duì)周期性且運(yùn)動(dòng)幅度較大的樹(shù)木也會(huì)產(chǎn)生誤檢;文中算法由于對(duì)干擾區(qū)域進(jìn)行了判定,沒(méi)有產(chǎn)生誤檢。序列b為光照變化的場(chǎng)景,GMM算法產(chǎn)生了大范圍的誤檢區(qū)域;幀間差分法和文中算法對(duì)光照變化適應(yīng)能力良好,但幀間差分對(duì)搖動(dòng)的樹(shù)木產(chǎn)生了誤檢。序列c中存在運(yùn)動(dòng)狀態(tài)改變的物體,場(chǎng)景中有一汽車進(jìn)入,停留數(shù)秒后離開(kāi),實(shí)驗(yàn)結(jié)果表明,由于汽車停止數(shù)秒“融入”背景,GMM算法在汽車行駛后的地方留下的很明顯的“鬼影”現(xiàn)象;幀間差分法引入了一定的噪聲,同時(shí)在汽車尾部等地方產(chǎn)生了“空洞”現(xiàn)象;文中算法采用幀間差分法和自適應(yīng)學(xué)習(xí)率,很好地消除了“鬼影”現(xiàn)象,同時(shí)模型分塊一定程度上解決了幀間差分法產(chǎn)生的“空洞”現(xiàn)象。

        表2 本文算法用時(shí)分析

        為了對(duì)各算法的檢測(cè)效果進(jìn)行定量分析,采用文獻(xiàn)[16]的方法,統(tǒng)計(jì)各算法的正確率與誤判率,定義如下:

        表4為各算法對(duì)不同測(cè)試序列的定量分析結(jié)果。各序列中,運(yùn)動(dòng)目標(biāo)的真實(shí)分割結(jié)果通過(guò)手工選定。由表4可知,幀間差分法由于無(wú)法消除背景擾動(dòng)的噪聲,造成較高的誤判率,同時(shí)該算法由于產(chǎn)生“空洞”現(xiàn)象,故正確率低于其他兩種算法。GMM算法受背景擾動(dòng)影響較小,但光線突變情況下,誤判率遠(yuǎn)遠(yuǎn)大于其他兩種算法,并且運(yùn)動(dòng)目標(biāo)在背景擾動(dòng)時(shí)的方差較大,使目標(biāo)像素容易符合混合高斯模型分布,造成漏檢,所以正確率略低于文中算法。文中算法由于結(jié)合了像素的空域信息和幀間差分結(jié)果,在保持較高正確率的前提下,誤判率遠(yuǎn)小于其他兩種算法。因此文中算法能良好地檢測(cè)運(yùn)動(dòng)目標(biāo),同時(shí)最大程度地消除噪聲的影響。

        表3 各算法檢測(cè)效果

        表4 定量分析結(jié)果 (%)

        5 結(jié)束語(yǔ)

        提出了一種基于幀差分塊和自適應(yīng)學(xué)習(xí)率的混合高斯改進(jìn)算法。利用分塊模型與幀間差分法把場(chǎng)景分為不同的區(qū)域;針對(duì)相應(yīng)區(qū)域,調(diào)整背景模型和學(xué)習(xí)率;增加了亮度信息變化率檢測(cè),解決了場(chǎng)景中因光線突變導(dǎo)致大面積誤檢的問(wèn)題。實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)混合高斯模型相比,該算法有更好的檢測(cè)速度與精度。同時(shí)實(shí)驗(yàn)發(fā)現(xiàn)閾值、參數(shù)的設(shè)定對(duì)算法性能有一定影響,為提高本算法的穩(wěn)定性和實(shí)時(shí)性,將進(jìn)一步研究如何對(duì)本算法的閾值、參數(shù)進(jìn)行自適應(yīng)選取。

        [1]Jain R,Nagel H.On the analysis of accumulative difference pictures from image sequences of real-world scenes[J]. IEEE Trans on Pattern Analysis and Machine Intelligence,1979,1(2):206-214.

        [2]Barton J,F(xiàn)leet D,Beauchemin S.Performance of optical flow techniques[J].International Journal of Computer Vision,1994,12(1):42-77.

        [3]Vosters L,Shan Caifeng,Gritti T.Real-time robust background subtraction under rapidly changing illumination conditions[J].Imageand Vision Computing,2012,30:1004-1015.

        [4]Wren C,Azarbayejani A,Darrell T,et al.Pfinder:real-time tracking of the human body[J].IEEE Trans on Pattern Analysis and Machine Intelligence,1997,19(7):780-785.

        [5]Stauffer C,Grimson W E L.Adaptive background mixture models forreal-time tracking[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,F(xiàn)ort Collins,Colorado,USA,1999:246-252.

        [6]Stauffer C,Grimson W E L.Learning patterns of activity using real-time tracking[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2000,22(8):747-757.

        [7]李偉,陳臨強(qiáng),殷偉良.基于自適應(yīng)學(xué)習(xí)率的背景建模方法[J].計(jì)算機(jī)工程,2011,37(15):187-189.

        [8]Dar-Shyang L.Effective Gaussian mixture learning for video background subtraction[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2005,27(5):827-832.

        [9]Dong Y,De Souza G N.Adaptive learning of multisubspace for foreground detection under illumination changes[J].Computer VisionandImageUnderstanding,2011,115:31-49.

        [10]Zhang Baochang,Zhang Bineng,Cao Yao.Complex background modeling based on texture pattern flow with adaptive threshold propagation[J].Journal of Visual Communication and Image Representation,2011,22:516-521.

        [11]李慶武,蔡艷梅,徐立中.基于分塊分類的智能視頻監(jiān)控背景更新算法[J].智能系統(tǒng)學(xué)報(bào),2010,5(3):272-276.

        [12]Zhong Bineng,Chen Yan.Background subtraction driven seeds selection for moving objects segmentation and matting[J].Neurocomputing,2013,103:132-142.

        [13]Sheikh Y,Shah M.Bayesian modeling of dynamic scenes for object detection[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2005,27(11):1778-1792.

        [14]劉光宇,劉國(guó)棟.基于混合高斯模型的運(yùn)動(dòng)目標(biāo)檢測(cè)方法[J].計(jì)算機(jī)工程與應(yīng)用,2009,45(24):180-182.

        [15]彭可,陳燕紅,唐宜清.一種室內(nèi)環(huán)境運(yùn)動(dòng)目標(biāo)檢測(cè)混合算法[J].計(jì)算機(jī)工程與應(yīng)用,2008,44(5):239-241.

        [16]張曉娜,何仁,劉志強(qiáng),等.基于空間信息高斯混合模型的運(yùn)動(dòng)車輛檢測(cè)[J].江蘇大學(xué)學(xué)報(bào),2011,32(4):386-388.

        WU Tong1,2,WANG Ling1

        1.College of Electrical and Information Engineering,Hunan University,Changsha 410082,China
        2.Unit 63893 of PLA,China

        This paper presents an improved algorithm of Gaussian mixture model based on inter-frame differencing blocking model and adaptive learning rate for the problem of too large calculation,poor ability to adapt to the complex scenes and other issues.It introduces the blocking model,effectively integrates information of pixel airspace,based on the inter-frame difference results,it determines the suspicious foreground region and background region to improve the detection sensitivity.Complex models are used for suspicious areas to ensure the accuracy of the moving-object detection and simple models are used to reduce the amount of computation.It passes through adaptive learning rate to accelerate the formation and regression of the background.Experimental results show the algorithm can take into account the detection accuracy and computational cost.

        moving-object detection;inter-frame differencing;blocking model;Gaussian mixture model

        針對(duì)混合高斯背景模型計(jì)算量過(guò)大、對(duì)復(fù)雜場(chǎng)景的適應(yīng)能力較差等問(wèn)題,提出了一種基于幀差分塊和自適應(yīng)學(xué)習(xí)率的混合高斯背景模型改進(jìn)算法。引入分塊模型思想,有效結(jié)合了像素的空域信息;根據(jù)幀間差分結(jié)果,判斷可疑前景區(qū)域和背景區(qū)域,提高了檢測(cè)靈敏度;針對(duì)前景可疑區(qū)域采用復(fù)雜模型,保證運(yùn)動(dòng)目標(biāo)檢測(cè)的精度,反之采用簡(jiǎn)單模型降低計(jì)算量;通過(guò)自適應(yīng)學(xué)習(xí)率,加速背景的形成與消退。實(shí)驗(yàn)結(jié)果證明該算法較好地兼顧了檢測(cè)精度和計(jì)算代價(jià)。

        運(yùn)動(dòng)目標(biāo)檢測(cè);幀間差分;分塊模型;混合高斯模型

        A

        TP391

        10.3778/j.issn.1002-8331.1301-0026

        WU Tong,WANG Ling.Gaussian mixture background model based on inter-frame differencing blocks.Computer Engineering and Applications,2014,50(23):176-180.

        吳桐(1987—),男,助理工程師,研究方向?yàn)橛?jì)算機(jī)視覺(jué)、數(shù)字信號(hào)處理;王玲(1962—),女,教授,博士生導(dǎo)師,研究領(lǐng)域?yàn)閿?shù)字圖像處理、現(xiàn)代網(wǎng)絡(luò)與通信技術(shù)等。E-mail:wutong266@126.com

        2013-01-06

        2013-03-11

        1002-8331(2014)23-0176-05

        CNKI網(wǎng)絡(luò)優(yōu)先出版:2013-04-08,http://www.cnki.net/kcms/detail/11.2127.TP.20130408.1648.018.html

        猜你喜歡
        高斯背景像素
        小高斯的大發(fā)現(xiàn)
        趙運(yùn)哲作品
        藝術(shù)家(2023年8期)2023-11-02 02:05:28
        像素前線之“幻影”2000
        “新四化”背景下汽車NVH的發(fā)展趨勢(shì)
        《論持久戰(zhàn)》的寫(xiě)作背景
        “像素”仙人掌
        天才數(shù)學(xué)家——高斯
        晚清外語(yǔ)翻譯人才培養(yǎng)的背景
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        有限域上高斯正規(guī)基的一個(gè)注記
        色熟妇人妻久久中文字幕| 久久久国产精品福利免费| 久久久久久免费播放一级毛片| 亚洲影院在线观看av| 国产无套一区二区三区久久| 欧美噜噜久久久xxx| 九九久久精品无码专区| 天天狠天天透天干天天| 国产亚洲亚洲精品视频| 亚洲精品98中文字幕| 欧美老肥妇做爰bbww| 国产影片中文字幕| 亚洲韩国在线| 国产精品高清一区二区三区人妖| 国产亚洲精品av一区| 日本做受120秒免费视频| 国产欧美亚洲精品a| 精品免费久久久久国产一区| 精品国产av一区二区三四区| 人人妻人人澡人人爽精品日本| 欧美最大胆的西西人体44| 中文字幕无码人妻丝袜| 午夜福利92国语| av无码精品一区二区乱子| 最新日韩精品视频免费在线观看| 青青草手机在线免费观看视频| 少妇粉嫩小泬喷水视频| 精品香蕉久久久午夜福利| 亚洲午夜无码久久久久软件| 自拍偷拍韩国三级视频| 中文字幕亚洲综合久久| 内谢少妇xxxxx8老少交| 亚洲成a人片在线观看中文!!!| 日本免费精品免费视频| 岳丰满多毛的大隂户| 国产自偷自偷免费一区| 亚洲成a人片在线观看高清| 国产亚洲一二三区精品| 国精品人妻无码一区二区三区性色 | 日韩不卡的av二三四区| 天天综合网在线观看视频 |