亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于改進(jìn)視覺背景提取算法的前景檢測*

        2018-05-08 09:38:58丁保闊
        計算機(jī)工程與科學(xué) 2018年4期
        關(guān)鍵詞:鬼影鄰域前景

        陳 樹,丁保闊

        (江南大學(xué)物聯(lián)網(wǎng)工程學(xué)院,江蘇 無錫 214122)

        1 引言

        目標(biāo)跟蹤是計算機(jī)視覺研究的一個熱門課題,前景檢測是目標(biāo)跟蹤的基礎(chǔ)和關(guān)鍵步驟。傳統(tǒng)的前景檢測方法主要有幀差法、背景模型法和光流法。視覺背景提取ViBe(Visual Background extractor)算法[1]是Barnich提出的一種新的背景模型法,并發(fā)展成為目標(biāo)跟蹤領(lǐng)域一種通用的背景減除算法[2]。ViBe算法根據(jù)鄰域像素值具有空間相似性[3]的特點,利用少量的鄰域像素快速建立背景模型,Barnich從理論和實驗的角度驗證了ViBe算法比高斯混合模型、碼本算法、加強(qiáng)型高斯混合模型、貝葉斯直方圖等背景減除算法計算速度快且檢測率高。所以,該算法很容易應(yīng)用到消費類的電子產(chǎn)品[4]領(lǐng)域和交通視頻監(jiān)控[5]中。

        ViBe算法[1,2]使用第1幀初始化背景模型,容易產(chǎn)生鬼影,文獻(xiàn)[6]在ViBe算法的初始化階段使用前n幀對模型初始化,該算法在一定程度上快速消除了鬼影,但當(dāng)前n幀中的多幀同時包含運動目標(biāo)時,會在運動目標(biāo)區(qū)域出現(xiàn)前景像素的漏檢;文獻(xiàn)[7]針對鬼影在視頻中連續(xù)出現(xiàn)的次數(shù)比真實運動目標(biāo)出現(xiàn)的次數(shù)多的特點,為視頻幀建立一個統(tǒng)計前景點出現(xiàn)次數(shù)的掩膜,當(dāng)某個像素被連續(xù)分類為前景點次數(shù)超過一定閾值時,強(qiáng)制該像素變?yōu)楸尘包c,同時更新該像素和其鄰域像素的背景模型,這樣判斷一個前景點是否為鬼影在時間上有了一定滯后性;文獻(xiàn)[8]在模型的初始化階段使用前2~n+1幀與第1幀求幀差圖像,然后添加進(jìn)入模型中,在一定程度上也能很好地消除掉鬼影,但是因為先求像素的幀差值壓縮了像素之間的差別,會出現(xiàn)一定程度的檢測目標(biāo)不完整的缺點;文獻(xiàn)[9]在檢測出前景的基礎(chǔ)上,統(tǒng)計前景中內(nèi)外邊緣區(qū)域的直方圖,然后通過直方圖匹配的方式檢測出鬼影區(qū)域,取得了良好的檢測性能,但是整個直方圖匹配過程會消耗大量時間;文獻(xiàn)[10]在深度圖像的基礎(chǔ)上另外創(chuàng)建一個參考模型,根據(jù)背景圖像中出現(xiàn)運動目標(biāo)時像素深度值變小的特點去除鬼影,但是在普通圖像中的處理效果較差;文獻(xiàn)[11]在合成真實背景圖像過程中使用三幀差分法去除運動目標(biāo)區(qū)域,但是傳統(tǒng)的三幀差分算法在某些場景下會產(chǎn)生孔洞,進(jìn)而造成合成的真實背景圖像中還會包含運動目標(biāo)。

        本文針對ViBe算法在前景檢測中存在鬼影現(xiàn)象且長時間難以消除的缺點,提出以下三個方面的改進(jìn):首先,在模型初始化階段利用OTSU算法產(chǎn)生自適應(yīng)閾值并引入到幀差法中,分割出比較理想的前景區(qū)域;其次,利用去除前景區(qū)域的前n幀視頻幀,合成一張包含前景盡量少的真實背景樣本圖像,然后初始化ViBe算法模型;擴(kuò)大像素的鄰域范圍,把8-鄰域擴(kuò)展為24-鄰域,并且距離某像素較近的鄰域賦予較大權(quán)重,距離某像素較遠(yuǎn)的像素賦予較小權(quán)重,并應(yīng)用在ViBe模型的初始化階段和背景模型的更新階段,增強(qiáng)了模型的描述能力。

        2 ViBe算法及鬼影分析

        2.1 ViBe算法回顧

        ViBe算法不需要假設(shè)背景像素的概率密度分布,而是根據(jù)鄰域像素值具有空間相似性[3]的特點,利用少量的鄰域像素快速建立背景模型,實時性好、檢測精度高。具體步驟如下:

        (1)ViBe模型的定義和初始化:假設(shè)視頻幀中x像素位置處的歐氏顏色距離值為υ(x),υi(i=1,2,…,N)[1]為像素x的背景模型中的N個像素值,背景模型如公式(1)所示:

        Μ(x)={υ1,υ2,…,υN}

        (1)

        x像素的空間鄰域記為NG(x),通常來說NG(x)是像素x的8-鄰域,利用視頻幀的第1幀初始化模型,如公式(2)所示:

        M0(x)={υ0(y|y∈NG(x))}

        (2)

        (2)前景像素判斷:ViBe算法從第2幀開始進(jìn)行前景檢測,定義SR(υ(x))是以υ(x)為圓心、以R為半徑的圓形區(qū)域,SR(υ(x))與模型M(x)中樣本的交集定義為#R,并與給定閾值#min比較,當(dāng)#R大于#min時,判定該像素為背景點;反之,即為前景像素。如公式(3)和公式(4)所示:

        #R=SR(υ(x))∩{υ1,υ2,…,υN}

        (3)

        (4)

        其中,background和foreground分別為背景集合和前景集合。

        (3)ViBe模型的更新:當(dāng)某像素按照公式(3)和公式(4)被分類為背景像素時,按照隨機(jī)更新機(jī)制[2]更新該素點的背景模型,并引入空間信息傳播機(jī)制[2]更新鄰域像素的背景模型。定義一個時間重采樣因子φ[1],當(dāng)某像素被判定為背景像素時,該像素以1/φ的概率同時更新進(jìn)入該像素的背景模型和其鄰域像素的背景模型中。

        2.2 鬼影分析

        在目標(biāo)跟蹤領(lǐng)域,各種算法往往會受到鬼影和陰影[12]的干擾,降低了檢測精度。文獻(xiàn)[13]認(rèn)為鬼影是在實際場景中無運動目標(biāo)、但是算法長時間檢測出運動區(qū)域的像素的集合,如圖1c方框中的白色區(qū)域所示。圖1a是第1幀包含運動目標(biāo)的輸入,圖1b是第8幀輸入圖像,圖1c是ViBe算法對第8幀圖像檢測到的前景圖。像素P1和P2的取樣位置如圖1所示,圖1d和圖1e分別是P1和P2在第8幀的二維歐氏空間表示[1,2]。P1在第1幀的取樣位置是運動目標(biāo)區(qū)域,當(dāng)程序運行到第8幀時,P1處的待檢測像素雖然是真實背景像素,但是因為模型中樣本點大都是運動目標(biāo)的像素,根據(jù)公式(3)和公式(4)可以把P1判定為前景點(如圖1d所示),即出現(xiàn)了圖1c方框中的鬼影區(qū)域;P2在第1幀中取樣位置是真實背景區(qū)域,當(dāng)判斷第8幀P2處像素類別時,根據(jù)公式(3)和公式(4)P2位置被判定為背景點(如圖1e所示)。所以,在建立ViBe模型時,使用真實的背景像素且剔除出前景像素至為重要。

        Figure 1 Ghost shadow analysis of ViBe algorithm圖1 ViBe算法的鬼影分析

        3 改進(jìn)的ViBe算法

        3.1 基于OTSU算法的幀差法

        傳統(tǒng)的幀差法通常根據(jù)先驗經(jīng)驗設(shè)置固定閾值以分割前景和背景,本文利用OTSU算法[14]為幀差法自適應(yīng)設(shè)置閾值,分割出更可靠的前景區(qū)域。前景檢測感興趣的目標(biāo)只有視頻中的背景和前景,OTSU算法在該處處理的是兩類分類問題,背景和前景之間的類間誤差越大分類效果越好。設(shè)當(dāng)前分割閾值為T時,分割出的前景點數(shù)量占一幀圖像的比例為ω0,所有前景點的均值為μ0;背景點占所有像素數(shù)量的比例為1-ω0,均值為μ1,那么該被處理的整幀灰度圖像的均值μ以及前景和背景之間的類間方差為σ,分別如公式(5)和公式(6)所示:

        μ=ω0*μ0+(1-ω0)μ1

        (5)

        σ=ω0*(μ0-μ)2+(1-ω0)*(μ1-μ)2

        (6)

        求出所有可能的閾值T后,會得到一個令前景和背景σ最大化的最優(yōu)閾值,記為Tmax,能夠使得前景和背景分類效果最好。

        3.2 合成背景圖像和初始化ViBe模型

        Rbg(i,j)=

        (7)

        其中,k=2,3,…,n,0≤i≤H,0≤j≤W,W和H分別為視頻幀的寬和高,且當(dāng)Rbg每更新一個像素Nc自加1。為了加快模型更新速度,為n設(shè)置一閾值上限nmax,當(dāng)未到達(dá)閾值nmax時,Nc提前達(dá)到Np,意味著視頻幀的真實背景樣本圖像Rbg已經(jīng)提前合成,提前跳出循環(huán);當(dāng)構(gòu)建真實樣本圖像Rbg時超過該閾值時,即使真實背景圖像沒有提取完畢也要跳出循環(huán),Rbg中沒有被賦值的像素值,使用第1幀相應(yīng)位置的像素補(bǔ)充替代,如公式(8)所示:

        Rbg(i,j)=F1(i,j),ifRbg(i,j)=0

        (8)

        其中,F(xiàn)1是第1幀圖像的灰度圖。

        Figure 2 Synthesis of background sample pictures圖2 背景樣本圖片的合成

        3.3 鄰域的擴(kuò)大

        ViBe算法[2]為一個像素建立背景模型是從相應(yīng)背景圖像的8-鄰域中反復(fù)抽取20次樣本點完成的,如圖3a所示。因8-鄰域的樣本像素會被反復(fù)抽取,導(dǎo)致分類像素錯誤的可能性會加大。文獻(xiàn)[15]提出把8-鄰域擴(kuò)展為24-鄰域,如圖3b所示。為了體現(xiàn)出差異且增強(qiáng)背景模型的描述能力,本文提出根據(jù)與像素p(x)的距離不同,被抽中的概率也不同,距離p(x)近的像素被抽中的概率較大,距離p(x)較遠(yuǎn)的像素被抽中的概率較小,各像素被抽中的概率如公式(9)所示:

        (9)

        擴(kuò)展后的鄰域首先應(yīng)用在ViBe模型的初始化階段,圖像邊緣像素的24-鄰域超出了圖像的邊緣部分,直接使用距離最近的邊緣像素替代;然后,在模型更新階段,當(dāng)像素被模型分類為背景像素時,圖3b中的1~8號像素以公式(9)中1/16的概率更新入模型,9~24號像素以公式(9)中1/32的概率更新入模型;這樣,擴(kuò)展的24-鄰域增強(qiáng)了模型的描述能力和魯棒性。

        Figure 3 8-neighborhood and 24-neighborhood圖3 8-鄰域和24-鄰域

        4 仿真實驗和分析

        Cucchiara等人[12]認(rèn)為,一個魯棒性好的背景減除算法需要適應(yīng)外界環(huán)境、運動姿態(tài)和光照等方面的變化,所以本文采用ChangeDetection視頻庫[17]、Wallflower視頻庫[18]和Shadow Detection視頻庫[19]中不同場景下的視頻,并利用Opencv 2.4.9和Vs2012平臺進(jìn)行仿真,運行環(huán)境是Pentium 2.70 GHz CPU,內(nèi)存為2 GB的PC機(jī)。為了對本文提出的算法進(jìn)行比較,另外使用Opencv中SDK的高斯混合模型GMM(Gauss Mixture Model)算法和CodeBook算法的庫函數(shù)進(jìn)行對比,且實現(xiàn)了文獻(xiàn)[2]的ViBe算法和文獻(xiàn)[6,8]改進(jìn)的ViBe算法進(jìn)行對比仿真。實驗過程中的主要參數(shù)與文獻(xiàn)[2]中的是一致的,具體來說是,模型中樣本的數(shù)量為N=20,圓形區(qū)域R=20,判斷是否為背景點的閾值#min=2,重采樣參數(shù)φ=16,本文提出改進(jìn)的ViBe算法中nmax=20。本實驗主要分為兩部分:(1)在第1幀中無運動目標(biāo)的視頻庫中進(jìn)行;(2)在第1幀中含有運動目標(biāo)的視頻庫中實驗。為了更好地突出對比實驗結(jié)果,對所有的仿真實驗的最后前景掩膜都沒有添加孔洞填充[20]模塊和小區(qū)域去除模塊。

        4.1 復(fù)雜度分析

        為分析ViBe算法與本文改進(jìn)算法的時間復(fù)雜度和空間復(fù)雜度,設(shè)每幀輸入視頻圖像的像素個數(shù)為S,每個像素模型的樣本數(shù)為N。從第2節(jié)可以得出ViBe算法的空間復(fù)雜度和時間復(fù)雜度同時為Ο(S×N)。OTSU算法的時間復(fù)雜度為Ο(S),空間復(fù)雜度為Ο(1);合成真實背景圖片階段的時間復(fù)雜度為Ο(S),內(nèi)存方面為真實背景圖片開辟一幀原圖大小的矩形區(qū)域,故空間復(fù)雜度為Ο(1);8-鄰域擴(kuò)展為24-鄰域前后,從第2節(jié)ViBe模型的初始化、像素分類和模型更新階段使用鄰域信息的過程來看,不增加任何時間復(fù)雜度,另外,優(yōu)化前為8-鄰域開辟的存儲空間為2×8×4個字節(jié),優(yōu)化后為24-鄰域存儲2×24×4個字節(jié),優(yōu)化前后的空間復(fù)雜度同為Ο(1)。OTSU算法最多出現(xiàn)在前nmax幀中,其所占程序運行時間和內(nèi)存空間可以忽略不計,優(yōu)化后的總時間復(fù)雜度近似為Ο(S×N),總空間復(fù)雜度為Ο(S×N+1),與ViBe算法的復(fù)雜度近似。本文對ViBe算法和本文改進(jìn)的ViBe算法在不同場景下做對比實驗,結(jié)果如表1所示。ViBe算法的每幀平均運行時間為32.62~34.72 ms,視頻處理速度為每秒28.8~30.7幀;本文改進(jìn)算法的每幀處理時間為34.13~39.23 ms,視頻處理速度為每秒25.5~29.3幀。所以,本文優(yōu)化算法與原ViBe算法的運行速度近似,可以滿足實時性的要求。

        Table 1 Comparison of average running time per oneframe between ViBe algorithm and the improved表1 ViBe算法與本文改進(jìn)算法的每幀平均運行時間比較 (毫秒/幀)

        4.2 定性分析

        (1)第1幀中不含運動目標(biāo)的對比實驗。

        改進(jìn)算法針對的視頻場景是第1幀中包含運動目標(biāo)的情況下產(chǎn)生的鬼影和漏檢現(xiàn)象,同時該算法需要在第1幀沒有運動目標(biāo)的情況下也能夠很好地完成前景檢測。該組對比實驗在backdoor、bungalows、campus_raw和MovedObject等視頻庫中進(jìn)行,分別取自視頻幀的第55、140、60、80、864幀,實驗結(jié)果如圖4所示。backdoor和bungalows是一般條件下的視頻監(jiān)控圖像,各算法均能很好地檢測出前景區(qū)域;campus_raw是低分辨率下的視頻庫圖像,GMM算法和文獻(xiàn)[8]算法不能完整檢測出車輛的輪廓;MovedObject是室內(nèi)場景下的運動目標(biāo)視頻,GMM和文獻(xiàn)[2]算法不能完整地檢測出運動目標(biāo),本文算法與其它算法能夠完整地檢測出運動目標(biāo)??傊?,該組實驗一方面說明了ViBe算法比GMM和Codebook模型適應(yīng)性強(qiáng),另一方面說明了本文改進(jìn)算法不會影響第1幀無運動目標(biāo)場景下的前景檢測,具有良好的魯棒性。

        (2)第1幀中包含運動目標(biāo)的對比實驗。

        Figure 4 Contrast test when the first frame without moving target圖4 第1幀無運動目標(biāo)的對比實驗

        Figure 5 Contrast test when the first frame has moving target圖5 第1幀有運動目標(biāo)的對比實驗

        為驗證本文改進(jìn)算法消除鬼影的能力,分別使用惡劣天氣、光線變化大、運動目標(biāo)較小、運動速度快等多種復(fù)雜條件下視頻庫進(jìn)行對比實驗。圖5中輸入圖像分別取自視頻庫blizzard、Bootstrap、streetLight、ramCrossroad_1fps的第230、65、35和40幀,各算法檢測到的鬼影區(qū)域如圖5方框中的白色區(qū)域所示。blizzard是暴風(fēng)雪下的運動車輛檢測,GMM模型完全檢測不到任何運動目標(biāo),Codebook模型和ViBe算法在檢測到車輛的同時,還存在明顯的鬼影區(qū)域,文獻(xiàn)[6]算法檢測到車輛的同時,鬼影區(qū)域幾乎消失,文獻(xiàn)[8]算法完全不能檢測到車輛的同時還存在鬼影,本文提出了改進(jìn)算法不僅完全消除鬼影,還完整地提取出車輛;Bootstrap是運動目標(biāo)對環(huán)境光線影響大的情景,只有文獻(xiàn)[6]算法和本文算法能比較完整地檢測出運動的行人,其他算法均不能消除鬼影且對光線很敏感;streetLight是正常監(jiān)控條件下的車輛和行人圖像,GMM模型的鬼影明顯,文獻(xiàn)[2]算法車輛檢測正常,但還存在部分鬼影,文獻(xiàn)[6,8]算法雖然可以完全消除鬼影,但是車輛的檢測不完整;CodeBook算法和本文算法能夠很好地消除鬼影的同時,車輛和行人檢測準(zhǔn)確;ramCrossroad_1fps是復(fù)雜背景下車輛的快速運動的情景,GMM模型和文獻(xiàn)[2]算法的鬼影突出,CodeBook的鬼影完全消失,但是噪聲較多;文獻(xiàn)[6,8]算法能夠很好地消除鬼影,但是運動目標(biāo)不完整,當(dāng)運動目標(biāo)經(jīng)過鬼影區(qū)域時,會出現(xiàn)一定數(shù)量像素的漏檢,本文改進(jìn)算法能夠完整檢測出前景目標(biāo),鬼影幾乎完全消失??傊诘?幀包含運動目標(biāo)的各種場景下,本文改進(jìn)算法與其他算法相比,不僅能準(zhǔn)確檢測到運動目標(biāo),且能很好地消除鬼影現(xiàn)象。

        4.3 定量分析

        記TP=真前景像素個數(shù),TN=真背景像素個數(shù),F(xiàn)P=假前景像素個數(shù),F(xiàn)N=假背景像素個數(shù),為了定量分析各算法性能,引入分類正確率PCC(Percentage of Correct Classification)[2],假正率FPR(False Positive Rate)和假負(fù)率FNR(False Negative Rate)[17]三個參數(shù),如公式(10)~(12)所示。PCC反映的是判斷正確的前景像素和背景像素在一幀圖像中所占的比例,可以作為衡量檢測效果的總體性能指標(biāo),數(shù)值越大,說明總體檢測效果較好;FPR被稱為假正率,在本文中反映的是背景像素被判斷為前景的比例,也就是鬼影區(qū)域的大小,該值越小,檢測效果越好;FNR被稱為假負(fù)率,在本文中反映的是前景像素被誤判為背景像素數(shù)在背景像素中的比例,該值越小,檢測效果越好。

        (10)

        (11)

        (12)

        在ChangeDetection視頻庫[17]的turnpike_0_5fps中,自第800幀起的視頻圖像包含相應(yīng)的真實背景圖像,且第800幀中包含運動目標(biāo),作為視頻處理的第1幀,因為鬼影現(xiàn)象主要存在于視頻幀開始處理階段,取前100幀對各算法統(tǒng)計TP、TN、FP和FN,各算法的PCC曲線如圖6所示。因為車輛在視頻中運行速度非??欤愿魉惴ǖ腜CC值不是單調(diào)上升,而是有一定的波動。

        Figure 6 PCC curves of the algorithms圖6 各算法的PCC曲線

        圖6中,本文算法的PCC曲線表現(xiàn)總體性能最好,單幀的PCC值與其他算法相比提高5%~20%。對各算法統(tǒng)計PCC、FPR和FNR的平均值并制作表2。從表2可以看出,GMM、CodeBook、ViBe算法[2]、文獻(xiàn)[6]算法、文獻(xiàn)[8]算法和本文算法分別從第1、21、2、21、22和11幀開始檢測,并分別在59、21、180、21、22和25幀時鬼影完全消失,ViBe算法的鬼影消失時間最長,本文算法鬼影消失時間分別是ViBe算法、GMM和CodeBook的22.4%、43.7%和82.7%,文獻(xiàn)[6,8]算法的鬼影消失時間最快;ViBe算法的FPR和FNR最高,說明ViBe算法在檢測過程中受到鬼影區(qū)域的影響較大,且當(dāng)新的運動目標(biāo)經(jīng)過鬼影區(qū)域時,被判定為背景像素的概率較大,本文算法的FPR和FNR最低,并且稍優(yōu)于文獻(xiàn)[6,8]算法,說明本文算法在去除鬼影區(qū)域的同時可以提高檢測運動目標(biāo)的完整性;圖4中,ViBe算法在第1幀沒有運動目標(biāo)時的檢測效果較好,但是在第1幀包含運動目標(biāo)的場景下,表2中ViBe算法的平均PCC值最低,本文算法的PCC值最高,分別比ViBe算法、文獻(xiàn)[6]算法和文獻(xiàn)[8]算法高10.7%、4.7%和3.7%。所以本組實驗表明,本文改進(jìn)算法在保證前景檢測的準(zhǔn)確性和完整性的同時,能夠很快消除鬼影。

        想起來曾經(jīng)有個小女孩打電話到電臺給媽媽點歌,主持人:“為什么要給媽媽點歌呢?”小女孩:“媽媽上班很辛苦,周末還不能好好休息,要找各種作業(yè)給我,還要帶我去各種興趣班。這個時間,媽媽還一邊看手機(jī)一邊看我學(xué)跳舞?!敝鞒秩撕芨袆樱瑔栆c什么歌呢?小女孩:“《女人何苦為難女人》”……

        Table 2 Comparison of performance among the six algorithms表2 六種算法的性能對比

        5 結(jié)束語

        本文針對基于ViBe算法的前景檢測過程中存在的鬼影現(xiàn)象且長時間難以消除的缺點,進(jìn)行了深入研究并對其進(jìn)行改進(jìn)。首先,在前n幀中的幀差法中,引入了OTSU算法為幀差法求出自適應(yīng)閾值,以分割出更為準(zhǔn)確的前景區(qū)域;然后從去除前景區(qū)域的前n幀中合成一張真實背景圖像,仿真實驗結(jié)果表明,在視頻的第5~15幀即可完成該真實背景圖像的合成并直接跳出循環(huán),進(jìn)入ViBe算法模型的初始化階段;最后,把擴(kuò)展后的24-鄰域用在ViBe模型的初始化階段和背景模型的更新階段,以增強(qiáng)模型的描述能力和魯棒性。本文通過不同場景下的大量對比實驗,驗證了本文改進(jìn)算法消除鬼影的快速性,適應(yīng)多種場景的魯棒性和提取運動目標(biāo)的完整性。

        參考文獻(xiàn):

        [1] Barnich O, Van Droogenbroeck M.ViBe:A powerful random technique to estimate the background in video sequences[C]∥Proc of 2009 IEEE International Conference on Acoustics,Speech and Signal Processing,2009:945-948.

        [2] Barnich O, Van Droogenbroeck M. ViBe:A universal background subtraction algorithm for video sequences[J].IEEE Transactions on Image Processing,2011,20(6):1709-1724.

        [3] Seki M,Wada T,Fujiwara H,et al.Background subtraction based on cooccurrence of image variations[C]∥Proc of 2003 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2003:65-65.

        [4] Wu W,He Q,Wang Y,et al.An improved method of Vibe for motion detection based on Android system[C]∥Proc of 2013 IEEE International Conference on Robotics and Biomimetics (ROBIO),2013:2436-2440.

        [5] Jiang Jian-guo,Wang Tao,Qi Mei-bin,et al.The traffic statistics algorithm based on ViBe[J].Journal of Electronic Measurement and Instrument,2012,26(6):558-563.(in Chinese)

        [6] Yang Yong,Sun Ming-wei,Jin Yu-cheng.An improved visual background extraction (ViBe) algorithm of vehicle detection method[J].Journal of Chongqing University of Posts and Telecommunications(Natural Science Edition),2014,26(3):397-403.(in Chinese)

        [8] Mahoor E,Maghsoumi H,Asemani D.An improved motion detection algorithm using ViBe[C]∥Proc of 2015 6th International Conference on Computing,Communication and Networking Technologies (ICCCNT),2015:1-5.

        [9] Wu Liang,Zhou Dong-xiang,Fan Cai-zhi,et al.A ghosts detection algorithm based on histogram matching[J].Computer Engineering & Science,2008,30(7):57-60.(in Chinese)

        [10] Meng Ming, Yang Fang-bo, Yu Qing-shan,et al.Human motion detection based on the information of Kinect depth image[J].Journal of Instrument and Meter,2015,36(2):386-393.(in Chinese)

        [11] He Zhi-hui,Huang Shan,Ran Geng.Moving object detection algorithm based on an improved visual background extraction model[J].Journal of Chinese Computer Systems,2015,36(11):2559-2562.(in Chinese)

        [12] Cucchiara R,Grana C,Piccardi M,et al.Detection moving objects,ghosts,and shadows in video streams[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2003,25(10):1337-1342.

        [13] Maadi A E, Maldague X.Outdoor infrared video surveillance:A novel dynamic technique for the subtraction of a changing background of IR images[J].Infrared Physics & Technology,2007,49(3):261-265.

        [14] Han X, Gao Y,Lu Z,et al.Research on moving object detection algorithm based on improved three frame difference method and optical flow[C]∥Proc of 2015 5th International Conference on Instrumentation and Measurement,Computer,Communication and Control (IMCCC),2016:580-584.

        [15] Yu Ye,Cao Ming-wei,Yue Feng.EVibe:An improved Vibe moving target detection algorithm [J].Journal of Instrument,2014,35(4):924-931.(in Chinese)

        [16] Bharti M,Thind T.Background subtraction techniques—review[J].International Journal of Innovative Technology & Exploring Engineering,2013,4(2):3099-3104.

        [17] Goyette N,Jodoin P M,et al.Changedetection.net:A new

        change detection benchmark dataset[C]∥Proc of 2012 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2012:1-8.

        [18] Toyama K, Krumm J,Brumitt B,et al.Wallflower:Principles and practice of background maintenance[C]∥Proc of the 7th IEEE International Conference on Computer Vision,1999:255-261.

        [19] Sanin A,Sanderson C,Lovell B C.Shadow detection:A survey and comparative evaluation of recent methods[J].Pattern Recognition,2012,45(4):1684-1695.

        [20] Nurhadiyatna A,Jatmiko W,Hardjono B,et al.Background subtraction using Gaussian mixture model enhanced by hole filling algorithm (GMMHF)[C]∥Proc of 2013 IEEE International Conference on Systems,Man,and Cybernetics,2013:4006-4011.

        附中文參考文獻(xiàn):

        [5] 蔣建國,王濤,齊美彬,等.基于ViBe的車流量統(tǒng)計算法[J].電子測量與儀器學(xué)報,2012,26(6):558-563.

        [6] 楊勇,孫明偉,金裕成.一種改進(jìn)視覺背景提取(ViBe)算法的車輛檢測方法[J].重慶郵電大學(xué)學(xué)報(自然科學(xué)版),2014,26(3):397-403.

        [9] 吳亮,周東翔,范才智,等.基于直方圖匹配的鬼影檢測算法[J].計算機(jī)工程與科學(xué),2008,30(7):57-60.

        [10] 孟明,楊方波,佘青山,等.基于Kinect深度圖像信息的人體運動檢測[J].儀器儀表學(xué)報,2015,36(2):386-393.

        [11] 何志輝,黃山,冉耕.一種改進(jìn)視覺背景提取模型的運動目標(biāo)檢測算法[J].小型微型計算機(jī)系統(tǒng),2015,36(11):2559-2562.

        [15] 余燁,曹明偉,岳峰.EVibe:一種改進(jìn)的Vibe運動目標(biāo)檢測算法[J].儀器儀表學(xué)報,2014,35(4):924-931.

        猜你喜歡
        鬼影鄰域前景
        神秘鬼影
        我國旅游房地產(chǎn)開發(fā)前景的探討
        四種作物 北方種植有前景
        稀疏圖平方圖的染色數(shù)上界
        離岸央票:需求與前景
        中國外匯(2019年11期)2019-08-27 02:06:32
        基于鄰域競賽的多目標(biāo)優(yōu)化算法
        如何消除膠印“鬼影”?
        關(guān)于-型鄰域空間
        量子糾纏的來歷及應(yīng)用前景
        太空探索(2016年10期)2016-07-10 12:07:01
        實時的靜止目標(biāo)與鬼影檢測及判別方法
        午夜无码一区二区三区在线| 少妇性bbb搡bbb爽爽爽| 国产suv精品一区二区6| 久久精品无码一区二区三区不 | 人人玩人人添人人澡| 骚片av蜜桃精品一区| 久久黄色精品内射胖女人| 精品卡一卡二卡3卡高清乱码| 国产亚洲人成a在线v网站| 亚洲韩国在线| 亚洲性感毛片在线视频| 久久精品国产99国产精品亚洲 | 狂野欧美性猛xxxx乱大交| 免费无码成人av在线播放不卡| 亚洲香蕉毛片久久网站老妇人 | 亚洲中文字幕无码爆乳| 中文字幕不卡高清免费| 91精品蜜桃熟女一区二区| 97一期涩涩97片久久久久久久| 天天看片视频免费观看| 国产自精品在线| 少妇高潮久久蜜柚av| 久久精品国产久精国产果冻传媒| 亚洲精品国产成人AV| 久久伊人中文字幕有码久久国产| 亚洲av不卡免费在线| 性激烈的欧美三级视频| 成人亚洲欧美久久久久| 精品福利一区二区三区| av中文字幕潮喷人妻系列| 亚洲人在线观看| 粉嫩的18在线观看极品精品| 级毛片内射视频| 久久精品国产亚洲一区二区 | 国产综合激情在线亚洲第一页| 国产一区二区三区免费主播| 一本色道久久婷婷日韩| 成人片黄网站色大片免费观看cn| 97精品国产高清自在线看超 | 一边摸一边抽搐一进一出口述| 竹菊影视欧美日韩一区二区三区四区五区 |