亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于混合高斯模型的運(yùn)動(dòng)目標(biāo)平均背景法檢測(cè)

        2017-12-28 08:50:10劉麗偉張宏美薛春芳
        關(guān)鍵詞:背景檢測(cè)模型

        劉麗偉, 張宏美, 薛春芳, 滿 濤

        (長春工業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院, 吉林 長春 130012)

        基于混合高斯模型的運(yùn)動(dòng)目標(biāo)平均背景法檢測(cè)

        劉麗偉, 張宏美, 薛春芳, 滿 濤

        (長春工業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院, 吉林 長春 130012)

        首先采用平均背景法對(duì)混合高斯建模獲得的背景進(jìn)行處理得到純凈的背景,然后在當(dāng)前圖像與背景圖像之間進(jìn)行差分運(yùn)算,最后通過輪廓篩選的方法去除目標(biāo)圖像中的干擾點(diǎn),并通過形態(tài)學(xué)處理對(duì)目標(biāo)中的間隙進(jìn)行填充,獲得完整目標(biāo)。 實(shí)驗(yàn)結(jié)果表明,對(duì)于運(yùn)動(dòng)目標(biāo)及停留的目標(biāo),該算法的識(shí)別率和誤檢率分別為86.7%和8.3%。

        目標(biāo)檢測(cè); 混合高斯模型; 平均背景; 輪廓篩選

        0 引 言

        運(yùn)動(dòng)目標(biāo)檢測(cè)是將視頻中的運(yùn)動(dòng)目標(biāo)從背景中分離出來,在這一過程中需要克服天氣、光照變化等對(duì)檢測(cè)帶來的影響,且檢測(cè)結(jié)果對(duì)后續(xù)的處理影響較大[1-2]。目前,光流法、幀差法和背景差分法是運(yùn)動(dòng)目標(biāo)檢測(cè)算法中最主要也是最常用的3種算法[3-5]。其中,光流法是根據(jù)目標(biāo)運(yùn)動(dòng)速度來實(shí)現(xiàn)對(duì)目標(biāo)檢測(cè),它可以在完全不知道運(yùn)動(dòng)場(chǎng)景的情況下完成運(yùn)動(dòng)目標(biāo)的檢測(cè),但是該算法計(jì)算復(fù)雜,并且需要專門的硬件才能運(yùn)行此算法,不能用于實(shí)時(shí)目標(biāo)檢測(cè)[6-7]。幀差法是最為簡(jiǎn)單且運(yùn)行速度最快的一種目標(biāo)檢測(cè)算法[8],但無論是傳統(tǒng)幀差法還是其改進(jìn)算法,都未能得到完整的目標(biāo),且當(dāng)目標(biāo)停留或運(yùn)動(dòng)較慢時(shí),還容易造成漏檢。背景差分法是通過當(dāng)前圖像與背景圖像之間的差分運(yùn)算來完成目標(biāo)檢測(cè)的[9],其中Zoran Zivkovic[10]提出的基于像素的混合高斯背景模型能夠?qū)Ρ尘皩?shí)時(shí)更新,同時(shí)能夠適當(dāng)?shù)剡x擇高斯模型的個(gè)數(shù),所以該算法能夠?qū)\(yùn)動(dòng)目標(biāo)進(jìn)行較好的檢測(cè),但對(duì)于視頻中做短暫停留的運(yùn)動(dòng)目標(biāo),則會(huì)出現(xiàn)較大空洞甚至只可以得到目標(biāo)輪廓,郭偉[11]等對(duì)混合高斯模型進(jìn)行了改進(jìn),根據(jù)運(yùn)動(dòng)目標(biāo)的不同情況設(shè)置了不同的學(xué)習(xí)率,對(duì)運(yùn)動(dòng)緩慢的運(yùn)動(dòng)目標(biāo)的檢測(cè)效果進(jìn)行了改善,但沒有提出對(duì)場(chǎng)景中短暫停留的運(yùn)動(dòng)目標(biāo)的檢測(cè)算法。

        為了解決高斯混合模型對(duì)視頻中停留的目標(biāo)在檢測(cè)過程中容易融為背景的問題,文中提出了基于混合高斯模型的改進(jìn)型背景差分算法。該算法將背景圖像的獲得方式進(jìn)行了改進(jìn),并將背景差分后獲得的結(jié)果與混合高斯模型檢測(cè)出的前景圖像進(jìn)行“或”運(yùn)算,解決差分運(yùn)算過程中因目標(biāo)與背景圖顏色相近產(chǎn)生的目標(biāo)部分缺失問題。該算法不但可以檢測(cè)出視頻中的運(yùn)動(dòng)目標(biāo),而且對(duì)于在場(chǎng)景中做短暫停留的目標(biāo)檢測(cè)效果也較好,避免了“空洞”現(xiàn)象的出現(xiàn)。

        1 混合高斯背景建模

        Zoran Zivkovic[10]提出的基于像素的自適應(yīng)混合高斯背景模型的基本思想是在RGB空間或者其他的顏色空間中將時(shí)間點(diǎn)t處的單一像素定義為x{t},其背景模型定義為px(t)|χT,BG+FG,用M(默認(rèn)值為5)個(gè)高斯分布的加權(quán)和來表征背景:

        對(duì)于一組新的數(shù)據(jù),高斯混合模型的權(quán)值、均值和方差將按下式進(jìn)行更新:

        一般情況下,前景目標(biāo)權(quán)值較小,而背景模型權(quán)值較大,因此,可以通過設(shè)定合適的閾值來得到近似的背景模型:

        按照混合高斯模型權(quán)值大小將所建立的高斯分布降序排列,可以得到

        式中:cf----屬于前景并對(duì)背景模型沒有影響的數(shù)據(jù)占總數(shù)據(jù)的百分比。

        2 改進(jìn)的目標(biāo)檢測(cè)算法

        2.1 基于混合高斯模型的平均背景法

        Zoran Zivkovic[10]提出的混合高斯模型雖然對(duì)運(yùn)動(dòng)目標(biāo)的檢測(cè)效果較好,但對(duì)于在視頻中做短暫停留的目標(biāo),會(huì)因背景更新而出現(xiàn)檢測(cè)不完整的問題,如果降低背景的更新率,那么當(dāng)運(yùn)動(dòng)場(chǎng)景發(fā)生變化時(shí),將無法對(duì)背景進(jìn)行實(shí)時(shí)更新,影響對(duì)視頻中其他運(yùn)動(dòng)目標(biāo)的檢測(cè)。針對(duì)此問題,文中對(duì)混合高斯模型目標(biāo)檢測(cè)算法進(jìn)行了如下改進(jìn)。

        2.1.1 改進(jìn)的背景提取

        用傳統(tǒng)的平均背景法思想處理混合高斯模型建立的背景,獲得更為真實(shí)的背景。當(dāng)目標(biāo)在視頻中停留時(shí),目標(biāo)在背景中所占的比重會(huì)逐漸增加,所以,停留時(shí)間越長,目標(biāo)檢測(cè)越不完整。如果將目標(biāo)融入背景中的部分去除掉,就可以得到更加真實(shí)的背景,檢測(cè)到的目標(biāo)也會(huì)更加完整。傳統(tǒng)的平均背景法是對(duì)輸入的視頻序列直接進(jìn)行處理,所以得到的背景并不純凈,而將其用于對(duì)混合高斯模型建立的背景處理,卻能取得較好的結(jié)果,主要原因是混合高斯模型建立的背景在通常情況下較為純凈,只有當(dāng)目標(biāo)停留在背景中時(shí),才會(huì)由于背景的更新將目標(biāo)融為背景,其次是因?yàn)槟繕?biāo)是逐漸融為背景的,通過對(duì)連續(xù)幾幀圖像的背景進(jìn)行均值運(yùn)算,雖不能完全去除融入背景的目標(biāo),但可以降低目標(biāo)在背景中所占的比重,使得到的背景更加接近于真實(shí)的背景。該算法的運(yùn)算步驟如下:

        1)設(shè)I1(x,y),I2(x,y),…,In(x,y)為輸入的視頻序列連續(xù)n幀圖像,對(duì)輸入的每一幀圖像進(jìn)行混合高斯背景建模,獲得每一幀圖像的背景圖片B1(x,y),B2(x,y),…,Bn(x,y)。

        2)對(duì)連續(xù)6幀背景圖片進(jìn)行求和運(yùn)算。設(shè)Bk(x,y)為第k幀圖像對(duì)應(yīng)的背景圖,則

        3)對(duì)所得到的圖像S(k,k-5)(x,y)求平均

        2.1.2 改進(jìn)的前景檢測(cè)

        對(duì)于檢測(cè)結(jié)果中存在的干擾點(diǎn)主要有形態(tài)學(xué)處理和連通域分析兩種方法。

        形態(tài)學(xué)處理是一種很好的去除干擾點(diǎn)的方法,但如果干擾點(diǎn)較大,那么在處理過程中對(duì)于目標(biāo)會(huì)產(chǎn)生較大影響,而連通域分析對(duì)于孤立的細(xì)小的干擾點(diǎn)的處理效果較好,對(duì)于較大的干擾點(diǎn)則不能進(jìn)行很好的去除。為了更好地消除干擾點(diǎn),文中提出輪廓提取和形態(tài)學(xué)濾波進(jìn)行結(jié)合的方法。該算法的基本思想是先尋找檢測(cè)結(jié)果中干擾點(diǎn)和所有目標(biāo)的輪廓,然后根據(jù)輪廓的面積對(duì)輪廓進(jìn)行篩選,去除輪廓面積較小的干擾點(diǎn)。去除干擾點(diǎn)后,對(duì)目標(biāo)進(jìn)行形態(tài)學(xué)操作,對(duì)目標(biāo)中存在的空洞進(jìn)行填充,具體步驟如下:

        1)尋找目標(biāo)輪廓。在輪廓的檢索模式中,選擇RETR_CCOMP檢索模式,提取所有輪廓,并將其組織成雙層結(jié)構(gòu),頂層為外圍邊界,次層為孔的內(nèi)層邊界。在輪廓的近似方法中,選擇使用Teh-Chinl鏈逼近算法對(duì)輪廓進(jìn)行近似處理。

        2)輪廓面積篩選。求出每一個(gè)輪廓的面積contourArea[i],然后通過設(shè)置合適的閾值去除掉前景中存在的干擾。通常情況下,干擾點(diǎn)的輪廓面積比目標(biāo)的輪廓面積小,所以相對(duì)于連通域分析方法,這種方法更加簡(jiǎn)單有效。

        3)進(jìn)行輪廓繪制。需要將線條顏色選擇為白色,并將線條繪制在輪廓內(nèi)部。通過這一步的操作,可以得到只包含目標(biāo)的圖像。

        4)對(duì)目標(biāo)進(jìn)行膨脹處理。雖然輪廓的繪制可以對(duì)目標(biāo)圖像內(nèi)部的空洞進(jìn)行填充,但如果目標(biāo)被細(xì)小的間隙分隔開,那么在進(jìn)行輪廓查找時(shí),這些被分開的部分會(huì)被認(rèn)為是不同的目標(biāo),對(duì)其進(jìn)行輪廓繪制時(shí)也是單獨(dú)處理的,所以對(duì)于這些細(xì)小的間隙,膨脹處理是最有效的方法。

        5)對(duì)目標(biāo)圖像進(jìn)行腐蝕操作。通過膨脹操作對(duì)目標(biāo)中的間隙進(jìn)行填充后,目標(biāo)會(huì)出現(xiàn)一定的失真,此時(shí)可以對(duì)目標(biāo)進(jìn)行腐蝕操作,腐蝕操作的核選擇和膨脹操作相同大小的核,這樣可以對(duì)4)中膨脹的部分進(jìn)行中和,減少目標(biāo)的失真。

        2.2 運(yùn)動(dòng)目標(biāo)檢測(cè)算法流程

        首先對(duì)輸入的每一幀視頻序列進(jìn)行混合高斯背景建模,然后對(duì)獲得的背景進(jìn)行處理,獲得圖像的平均背景,再將當(dāng)前圖像與背景圖像進(jìn)行差分運(yùn)算,對(duì)差分后的結(jié)果進(jìn)行輪廓篩選及繪制,去除干擾點(diǎn),最后通過形態(tài)學(xué)操作,填充目標(biāo)間隙,得到完整目標(biāo)。

        運(yùn)動(dòng)目標(biāo)檢測(cè)流程如圖1所示。

        圖1 運(yùn)動(dòng)目標(biāo)檢測(cè)流程

        3 實(shí)驗(yàn)結(jié)果與分析

        3.1 實(shí)驗(yàn)結(jié)果

        文中的實(shí)驗(yàn)環(huán)境為Opencv3.0+VS2013,檢測(cè)的目標(biāo)為室外行走的人,且目標(biāo)為多個(gè)。文中截取了視頻的第587,601,608和620幀用不同方法處理的結(jié)果來說明文中算法的有效性。不同算法檢測(cè)結(jié)果如圖2所示。

        (c) 幀差法檢測(cè)結(jié)果

        (d) 混合高斯模型檢測(cè)結(jié)果

        (e) OTSU算法檢測(cè)結(jié)果

        (f) 文中算法檢測(cè)結(jié)果

        從實(shí)驗(yàn)結(jié)果中可以看出,三幀差分法可以檢測(cè)到運(yùn)動(dòng)目標(biāo)的輪廓,但是對(duì)于在視頻中停留的目標(biāo),由于位置沒有發(fā)生改變,造成了目標(biāo)的漏檢。混合高斯算法能夠很好地檢測(cè)出完整的運(yùn)動(dòng)目標(biāo),但是當(dāng)目標(biāo)停留時(shí),會(huì)慢慢融入背景,此時(shí)只能檢測(cè)到該目標(biāo)的輪廓。OTSU算法和文中算法對(duì)停留的目標(biāo)檢測(cè)效果都很好,但是當(dāng)停留的目標(biāo)開始運(yùn)動(dòng)時(shí),OTSU算法檢測(cè)出的目標(biāo)存在“拖影”現(xiàn)象。文中通過對(duì)混合高斯模型獲得的背景進(jìn)行均值運(yùn)算,對(duì)融入背景中的目標(biāo)進(jìn)行中和,得到了更加純凈的背景圖像,從背景圖像中可以看出,隨著運(yùn)動(dòng)目標(biāo)在場(chǎng)景中停留的時(shí)間變長,提取的背景中目標(biāo)停留的位置出現(xiàn)了目標(biāo)模糊的影子,但從檢測(cè)結(jié)果來看,檢測(cè)的效果并未因此受到影響,而且當(dāng)目標(biāo)開始運(yùn)動(dòng)時(shí),也并未出現(xiàn)“拖影”現(xiàn)象,所以,文中算法能夠?qū)崿F(xiàn)對(duì)視頻中運(yùn)動(dòng)目標(biāo)的檢測(cè),同時(shí)對(duì)于在視頻中停留的目標(biāo),也可以完整地檢測(cè)出來,并且在目標(biāo)開始運(yùn)動(dòng)后,避免了“拖影”現(xiàn)象的出現(xiàn),檢測(cè)效果較好。

        3.2 結(jié)果分析

        為了更好地說明文中算法的優(yōu)點(diǎn),采用文獻(xiàn)[11]中的識(shí)別率和誤檢率對(duì)文中算法和其他3種算法進(jìn)行比較。識(shí)別率DR和誤檢率FAR算法如下:

        兩種方法的識(shí)別率DR和誤檢率FAR見表1。

        表1 兩種方法的識(shí)別率DR和誤檢率FAR %

        實(shí)驗(yàn)結(jié)果表明,文中算法將傳統(tǒng)的平均背景法用于對(duì)混合高斯檢測(cè)的背景處理,提高了獲得的背景質(zhì)量,使其能夠檢測(cè)出在視頻中運(yùn)動(dòng)的目標(biāo),同時(shí)對(duì)停留的目標(biāo)檢測(cè)效果較好,提高了算法的識(shí)別率,對(duì)于在視頻中停留后開始運(yùn)動(dòng)的目標(biāo),能夠避免“拖影”現(xiàn)象,降低了目標(biāo)的誤檢率。綜上所述,文中算法檢測(cè)效果較好。

        4 結(jié) 語

        針對(duì)目標(biāo)在視頻中做短暫停留時(shí)因背景更新出現(xiàn)的檢測(cè)不完整情況,提出基于混合高斯模型的平均背景法,該算法通過傳統(tǒng)的平均背景法對(duì)混合高斯背景建模獲得的背景進(jìn)行處理,淡化了因停留而融入背景的目標(biāo),使獲得的背景更加純凈,然后通過當(dāng)前圖像和背景圖像之間的差分運(yùn)算得到目標(biāo)圖像,最后通過輪廓篩選和形態(tài)學(xué)處理去除干擾點(diǎn),并完成對(duì)目標(biāo)間隙的填充,最終得到完整目標(biāo)。通過實(shí)驗(yàn)結(jié)果可以看出,該算法除了能夠檢測(cè)出視頻中運(yùn)動(dòng)的目標(biāo),還能夠完整地檢測(cè)出在視頻中停留的目標(biāo),當(dāng)停留的目標(biāo)開始運(yùn)動(dòng)時(shí),可以避免“拖影”現(xiàn)象出現(xiàn),其識(shí)別率和誤檢率分別為86.7%和8.3%,檢測(cè)效果較好。但是由于對(duì)多幀混合高斯建模的背景進(jìn)行了運(yùn)算,造成算法的運(yùn)行時(shí)間較長,這是文中算法的不足之處,有待改進(jìn)。

        [1] 王思思,任世卿.一種改進(jìn)的基于混合高斯模型的運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J].計(jì)算機(jī)科學(xué),2015,42(s2):173-174.

        [2] 張紅穎,胡正.CenSurE特征和時(shí)空信息相結(jié)合的運(yùn)動(dòng)目標(biāo)檢測(cè)[J].光學(xué)精密工程,2013(9):2452-2463.

        [3] 宋志勤,路錦正,聶詩良.改進(jìn)的時(shí)空背景差分目標(biāo)檢測(cè)[J].光電工程,2016(2):27-32.

        [4] 陸牧,高揚(yáng),朱明.動(dòng)基座下的運(yùn)動(dòng)目標(biāo)檢測(cè)[J].光學(xué)精密工程,2016(5):1782-1788.

        [5] 王彬,馬永杰,李鵬飛.結(jié)合分塊的改進(jìn)三幀差和背景差的運(yùn)動(dòng)目標(biāo)檢測(cè)[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2015,24(8):155-159.

        [6] 邱聯(lián)奎,劉啟亮,趙予龍,等.混合高斯背景模型目標(biāo)檢測(cè)的一種改進(jìn)算法[J].計(jì)算機(jī)仿真,2014(5):378-384.

        [7] 劉洪彬,常發(fā)亮.權(quán)重系數(shù)自適應(yīng)光流法運(yùn)動(dòng)目標(biāo)檢測(cè)[J].光學(xué)精密工程,2016(2):460-467.

        [8] 王維合,王宏志,趙蘭英.運(yùn)動(dòng)目標(biāo)檢測(cè)跟蹤方法研究[J].長春工業(yè)大學(xué)學(xué)報(bào):自然科學(xué)版,2001,22(4):411-414.

        [9] 張傳偉,王京梅,林曉明,等.基于背景差分的一種運(yùn)動(dòng)目標(biāo)檢測(cè)方法[J].電子科技,2015,28(10):69-71.

        [10] Zivkovic Z. Improved adaptive gaussian mixture model for background subtraction[J]. International Conference on Pattern Recognition. IEEE,2004(2):28-31.

        [11] 郭偉,高媛媛,劉鑫焱.改進(jìn)的基于混合高斯模型的運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J].計(jì)算機(jī)工程與應(yīng)用,2016,52(13):195-200.

        [12] 王宏志,劉媛媛,孫琦.基于小波變換矩陣的改進(jìn)脊波變換圖像去噪[J].吉林大學(xué)學(xué)報(bào):理學(xué)版, 2010,48(1):99-103.

        AnaveragebackgroundmethodbasedonmixedGaussianmodelformovingobjectdetection

        LIU Liwei, ZHANG Hongmei, XUE Chunfang, MAN Tao

        (School of Computer Science and Engineering, Changchun University of Technology, Changchun 130012, China)

        The average background method is used to deal the background obtained from mixed Gaussian to purify the image background. Then the difference between current and background image is calculated, and the interference points in the image are removed with contour screening. The gap in the image is filled with morphological processing to obtain the final image. Experimental results indicate that the recognition rate and false rate are 86.7% and 8.3% respectively, for both the moving and staying target.

        target detection; mixed Gaussian model; average background; contour screening.

        2017-07-11

        吉林省教育廳“十三五”科學(xué)技術(shù)研究基金資助項(xiàng)目(2016-35)

        劉麗偉(1974-),女,漢族,吉林通化人,長春工業(yè)大學(xué)副教授,博士,主要從事模式識(shí)別和智能系統(tǒng)方向研究,E-mail:liuliwei@ccut.edu.cn.

        10.15923/j.cnki.cn22-1382/t.2017.5.02

        TP 391

        A

        1674-1374(2017)05-0421-05

        猜你喜歡
        背景檢測(cè)模型
        一半模型
        “新四化”背景下汽車NVH的發(fā)展趨勢(shì)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        《論持久戰(zhàn)》的寫作背景
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        晚清外語翻譯人才培養(yǎng)的背景
        3D打印中的模型分割與打包
        色先锋av影音先锋在线| 亚洲第一页综合av免费在线观看| 青青草好吊色在线视频| av在线播放男人天堂| 国产精品永久免费| 猫咪www免费人成网最新网站| 国产成人一区二区三区影院免费| 亚洲综合国产精品一区二区| 无码av专区丝袜专区| 精品国产一区二区三区香蕉| 日韩精品中文字幕无码专区| 无码三级国产三级在线电影| 东北老熟女被弄的嗷嗷叫高潮| 无码中文亚洲av影音先锋| 国产亚洲婷婷香蕉久久精品| 人妻中文字幕av有码在线| 蜜桃视频在线免费视频| 网禁拗女稀缺资源在线观看| 伊人久久成人成综合网222| 日本二区视频在线观看| 2020国产在视频线自在拍| 亚洲av片一区二区三区| 午夜毛片午夜女人喷潮视频| 色se在线中文字幕视频| 精品亚洲一区二区三区四区五区| 亚洲精品字幕| 少妇的诱惑免费在线观看| 黄色潮片三级三级三级免费| 欧美成人精品a∨在线观看| 精品无码国产污污污免费| 亚洲国产精品成人久久av| 在线播放亚洲丝袜美腿| 久久久久波多野结衣高潮| 亚洲AV无码精品色欲av | 日本久久久精品免费免费理论| 真人抽搐一进一出视频| 中文字幕精品无码一区二区| 免费观看视频在线播放| 白白色发布的在线视频| 日韩精品无码中文字幕电影| 亚洲AV无码乱码1区久久|