亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于背景減除法的視頻序列運(yùn)動(dòng)目標(biāo)檢測

        2017-09-03 10:23:54劉仲民何勝皎胡文瑾李戰(zhàn)明
        計(jì)算機(jī)應(yīng)用 2017年6期
        關(guān)鍵詞:差分法背景像素

        劉仲民,何勝皎,胡文瑾,李戰(zhàn)明

        (1.蘭州理工大學(xué) 電氣工程與信息工程學(xué)院,蘭州 730050; 2.西北民族大學(xué) 數(shù)學(xué)與計(jì)算機(jī)科學(xué)學(xué)院,蘭州 730000)

        基于背景減除法的視頻序列運(yùn)動(dòng)目標(biāo)檢測

        劉仲民1*,何勝皎1,胡文瑾2,李戰(zhàn)明1

        (1.蘭州理工大學(xué) 電氣工程與信息工程學(xué)院,蘭州 730050; 2.西北民族大學(xué) 數(shù)學(xué)與計(jì)算機(jī)科學(xué)學(xué)院,蘭州 730000)

        (*通信作者電子郵箱liuzhmx@163.com)

        視頻序列中運(yùn)動(dòng)目標(biāo)的檢測是目標(biāo)識(shí)別、標(biāo)記和追蹤的重要組成部分,背景減除法是運(yùn)動(dòng)目標(biāo)檢測中被廣泛應(yīng)用的算法。針對(duì)光線變化、噪聲和局部運(yùn)動(dòng)等影響運(yùn)動(dòng)目標(biāo)檢測效果的問題,提出一種基于背景減除法的視頻序列運(yùn)動(dòng)目標(biāo)檢測算法。該算法結(jié)合背景減除法和幀間差分法,對(duì)當(dāng)前幀像素點(diǎn)的運(yùn)動(dòng)狀態(tài)進(jìn)行判斷,分別對(duì)靜止和運(yùn)動(dòng)的像素點(diǎn)進(jìn)行替換和更新,采用最大類間方差(Otsu)法對(duì)差分圖像進(jìn)行目標(biāo)提取,并使用數(shù)學(xué)形態(tài)學(xué)運(yùn)算去除目標(biāo)中的噪聲和冗余信息。實(shí)驗(yàn)結(jié)果表明,所提算法對(duì)于視頻序列中運(yùn)動(dòng)目標(biāo)的檢測具有較好的視覺效果和較高的準(zhǔn)確度,能夠克服局部運(yùn)動(dòng)以及噪聲等缺陷。

        視頻序列;背景減除法;幀間差分法;最大類間方差;目標(biāo)檢測

        0 引言

        近年來,隨著人工智能的發(fā)展,機(jī)器視覺的研究越來越熱門。從視頻序列中檢測出運(yùn)動(dòng)目標(biāo),也成了研究中的熱點(diǎn)。目前常用的檢測算法主要有幀間差分法[1]、背景減除法[2]和光流法[3-4]等。光流法利用序列圖像中每一幀圖像中各個(gè)像素的矢量特征來檢測運(yùn)動(dòng)區(qū)域,當(dāng)目標(biāo)運(yùn)動(dòng)時(shí),運(yùn)動(dòng)目標(biāo)形成的光流矢量會(huì)發(fā)生變化,從而實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)的檢測。該算法能有效地提取和跟蹤運(yùn)動(dòng)目標(biāo),但計(jì)算較為復(fù)雜,抗噪性能差,難以進(jìn)行實(shí)時(shí)處理。此外,還有許多關(guān)于視頻序列運(yùn)動(dòng)目標(biāo)的算法,主要有:混合高斯模型(Gaussian Mixture Model, GMM)[5]、Codebook[6]、自組織背景檢測(Self-Organization Background Subtraction, SOBS)模型[7]、樣本一致性(SAmple CONsensus, SACON)背景建模[8]、ViBe[9]等背景建模算法?;旌细咚鼓P湍軌蛟趶?fù)雜場景下對(duì)目標(biāo)檢測,但是該算法對(duì)噪聲敏感,且計(jì)算量大;基于Codebook的算法,雖然具有較好的效果,但是對(duì)光線的變化比較敏感;SOBS對(duì)光照有一定的魯棒性,若輸入圖片較大時(shí),計(jì)算量相應(yīng)增大;SACON通過對(duì)每一個(gè)像素進(jìn)行樣本一致性計(jì)算估算背景模型,對(duì)噪聲較為敏感;ViBe算法總體速度快,是目前應(yīng)用較多的一種算法,但是該算法對(duì)光線敏感且噪聲抑制能力較差。綜合考慮現(xiàn)有算法的優(yōu)缺點(diǎn),本文采用背景減除法進(jìn)行運(yùn)動(dòng)目標(biāo)檢測。

        背景減除法所要解決的關(guān)鍵問題是建立高效的背景模型,通常在背景建模時(shí)要考慮光照強(qiáng)度的變化、噪聲以及背景的及時(shí)更新等問題[10]。文獻(xiàn)[9]通過建立背景樣本模型,將當(dāng)前像素隨機(jī)的與背景像素樣本集進(jìn)行對(duì)比判斷該像素的運(yùn)動(dòng)狀態(tài),縮減了對(duì)像素運(yùn)動(dòng)狀態(tài)的判斷時(shí)間;文獻(xiàn)[11]通過連續(xù)兩幀快速匹配確定初始候選背景像素點(diǎn),候選的背景像素點(diǎn)通過穩(wěn)定信號(hào)訓(xùn)練器,產(chǎn)生精確背景像素;文獻(xiàn)[12]在Σ-Δ濾波的思想上,結(jié)合背景減除法和幀間差分法產(chǎn)生穩(wěn)定的背景像素點(diǎn);文獻(xiàn)[13]通過背景減除法和幀間差分法產(chǎn)生運(yùn)動(dòng)差分圖像,采用區(qū)域塊熵可產(chǎn)生合適的閾值,進(jìn)行像素點(diǎn)運(yùn)動(dòng)狀態(tài)判斷;文獻(xiàn)[1]采用連續(xù)兩幀同一位置像素的相關(guān)性來判斷像素的狀態(tài),可以有效地平滑窗口區(qū)域的噪聲。本文提出的基于背景減除法的視頻序列運(yùn)動(dòng)目標(biāo)檢測算法,結(jié)合了幀間差分法和背景差分法,可以有效地獲取像素當(dāng)前的運(yùn)動(dòng)狀態(tài)和抑制噪聲,并能及時(shí)更新背景模型。

        1 運(yùn)動(dòng)目標(biāo)檢測的基本算法

        1.1 背景減除法

        背景減除法[1]是利用背景的參數(shù)模型來近似圖像的像素值,將當(dāng)前幀與背景圖像作差分比較以實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)的檢測。該算法對(duì)運(yùn)動(dòng)目標(biāo)的檢測,重點(diǎn)在于建立一個(gè)魯棒的背景模型,能夠適應(yīng)光照的變化、背景內(nèi)微小目標(biāo)的移動(dòng)和噪聲的影響等。背景減除法如式(1)所示:

        (1)

        式中:It(x,y)、Bt(x,y)分別表示當(dāng)前幀與背景幀圖像;BDt(x,y)表示背景差分圖像;t表示幀數(shù)(t=1,2,…,N);τ1為閾值。背景減除法能夠有效地檢測出完整的運(yùn)動(dòng)區(qū)域,但是對(duì)噪聲和局部運(yùn)動(dòng)比較敏感。

        1.2 幀間差分法

        幀間差分法[2]是基于視頻序列中相鄰幀圖像具有強(qiáng)相關(guān)性而提出的檢測方法,利用視頻序列中相鄰的兩幀或者兩幀以上作差分運(yùn)算來實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)檢測。幀間差分法如式(2)所示:

        (2)

        式中:It(x,y)、It-1(x,y)分別表示當(dāng)前幀與前一幀圖像;FDt(x,y)表示背景差分圖像;τ2為閾值。幀間差分法對(duì)于動(dòng)態(tài)場景具有較強(qiáng)的適應(yīng)性,在檢測運(yùn)動(dòng)目標(biāo)時(shí)可以有效地檢測出連續(xù)兩幀圖像中沒有明顯變化的像素點(diǎn),并且能夠適應(yīng)光線的變化,但不能提取完整目標(biāo)信息,對(duì)于運(yùn)動(dòng)過快的目標(biāo),會(huì)產(chǎn)生“鬼影”,對(duì)于運(yùn)動(dòng)過慢的目標(biāo)會(huì)產(chǎn)生“孔洞”。

        2 視頻序列運(yùn)動(dòng)目標(biāo)檢測算法

        2.1 背景初始化

        為了產(chǎn)生一個(gè)初始參照模型,本文采用改進(jìn)的滑動(dòng)均值模型[11],對(duì)視頻序列取K幀來初始化背景模型,如式(3)所示:

        Bt(x,y)=Bt-1(x,y)+(It(x,y)-Bt-1(x,y))/t

        (3)

        其中:t是選取視頻序列的幀數(shù);Bt-1(x,y)是前一幀背景。該背景模型只將當(dāng)前幀和前一幀背景相關(guān)聯(lián),節(jié)省了內(nèi)存空間,且基本保留了實(shí)際背景中的特征信息。

        2.2 像素點(diǎn)估計(jì)

        在視頻序列中,取連續(xù)兩幀序列It-1(x,y)、It(x,y),以及前一幀背景Bt-1(x,y)與當(dāng)前背景Bt(x,y),分別對(duì)當(dāng)前幀使用式(1)~(2)作背景減除和幀間差分,產(chǎn)生初始背景像素候選點(diǎn)。選擇合適的閾值τ1和τ2,分別對(duì)兩幅差分圖像進(jìn)行運(yùn)動(dòng)像素和靜止像素的標(biāo)記,用“1”表示運(yùn)動(dòng)像素,“0”表示靜止像素,如式(4)、(5)所示:

        (4)

        (5)

        為了盡可能避免漏檢靜止像素,對(duì)兩幅標(biāo)記圖采用“或”運(yùn)算,從而產(chǎn)生穩(wěn)定的靜止像素和估計(jì)運(yùn)動(dòng)的像素,如式(6)所示:

        (6)

        2.3 背景更新

        在得到像素的運(yùn)動(dòng)狀態(tài)后,用當(dāng)前幀It(x,y)和前一幀背景Bt-1(x,y)去更新背景模型,以此精確地逼近當(dāng)前幀下的背景圖像Bt(x,y)。對(duì)FBMt(x,y)中被標(biāo)記為靜止的像素點(diǎn),使用當(dāng)前幀It(x,y)中對(duì)應(yīng)的像素點(diǎn)替換;FBMt(x,y)中被標(biāo)記為運(yùn)動(dòng)的像素點(diǎn),使用一個(gè)新的像素代替,如式(7)所示:

        (7)

        一般情況下,運(yùn)動(dòng)區(qū)域的背景像素的更新,直接使用前一幀背景Bt-1(x,y)中對(duì)應(yīng)的像素。當(dāng)運(yùn)動(dòng)目標(biāo)移動(dòng)緩慢時(shí)可能會(huì)產(chǎn)生“鬼影”。為了能夠迅速更新運(yùn)動(dòng)區(qū)域的背景像素,結(jié)合當(dāng)前幀It(x,y)和前一幀背景Bt-1(x,y),使用滑動(dòng)均值的思想來更新運(yùn)動(dòng)區(qū)域的背景像素,因此將式(7)描述為如式(8)所示:

        Bt(x,y)=

        (8)

        式中:α為學(xué)習(xí)參數(shù)(又稱速率參數(shù)),α的取值大小直接決定了背景的更新速率。依據(jù)不同場景,1/α的取值范圍為0.012 5至0.125 0,在本文中取經(jīng)驗(yàn)值0.012 5。

        對(duì)當(dāng)前幀It(x,y)和當(dāng)前背景Bt(x,y)進(jìn)行差分,得到差分圖像Dt(x,y),如式(9)所示:

        Dt(x,y)=|It(x,y)-Bt(x,y)|

        (9)

        式中Dt(x,y)為當(dāng)前幀差分圖像。

        2.4 目標(biāo)提取

        為了能精確、快速地提取運(yùn)動(dòng)目標(biāo),本文采用最大類間方差(Otsu)算法[14],對(duì)Dt(x,y)進(jìn)行目標(biāo)提取。算法步驟如下:

        設(shè)一幅灰度圖像的灰度級(jí)為L,ni表示灰度值為i的像素?cái)?shù),n代表圖像總的像素?cái)?shù),pi代表圖像中灰度值為i像素出現(xiàn)的概率,則pi=ni/n。若利用閾值t將圖像中的像素按照灰度值分成目標(biāo)C0和背景C1兩類,其中C0={1,2,…,t},C1={t+1,t+2,…,L-1}。

        步驟1C0和C1出現(xiàn)的概率;

        (10)

        (11)

        步驟2C0和C1灰度均值分別為:

        (12)

        (13)

        其中目標(biāo)圖像的平均灰度記為:

        (14)

        圖像的總平均灰度記為:

        (15)

        (16)

        步驟4 求得閾值τ3;

        (17)

        步驟5 使用閾值τ3對(duì)Dt(x,y)分割,得到二值圖像掩模RMt(x,y);

        (18)

        為了去除噪聲和冗余信息對(duì)目標(biāo)提取的影響,采用形態(tài)學(xué)中閉運(yùn)算對(duì)目標(biāo)圖像進(jìn)行濾波,去除產(chǎn)生的噪聲和冗余信息。

        3 實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證本文算法的有效性,本文將該算法和一些典型的算法作實(shí)驗(yàn)對(duì)比。實(shí)驗(yàn)環(huán)境為Windows10操作系統(tǒng)、Inteli5處理器、8GB內(nèi)存,實(shí)驗(yàn)平臺(tái)為MatlabR2014a。本文選取CVDatasetsontheweb的視頻序列IBS、LAB、OCL、OSU1、OSU2。其產(chǎn)生環(huán)境、圖像大小、背景屬性、目標(biāo)的大小和數(shù)量,如表1所示。

        表1 原始視頻序列

        3.1 實(shí)驗(yàn)結(jié)果

        本文利用不同算法對(duì)選取的5組視頻序列進(jìn)行實(shí)驗(yàn),其部分視覺效果如圖1所示。

        圖1 不同視頻序列不同算法實(shí)驗(yàn)結(jié)果比較

        從圖1實(shí)驗(yàn)結(jié)果的視覺效果來看,ViBe、Codebook、GMM和本文提出的算法都能夠較完整提取出運(yùn)動(dòng)目標(biāo)信息,幀間差分法(inter-FrameDifference,FD)只提取了目標(biāo)的輪廓。在對(duì)視頻序列IBS、OCL和OSU1進(jìn)行目標(biāo)檢測的時(shí)候,用本文所提算法基本提取出了目標(biāo)的完整信息,雖然有局部的信息被丟失了,但是減少了噪聲和局部運(yùn)動(dòng)的影響。而使用ViBe、Codebook、GMM算法進(jìn)行目標(biāo)檢測,并不能很好地克服背景中的局部運(yùn)動(dòng)(如:樹葉的擺動(dòng)),且產(chǎn)生的目標(biāo)都有欠分割現(xiàn)象,特別是GMM算法產(chǎn)生的結(jié)果,局部運(yùn)動(dòng)很明顯,且對(duì)視頻序列中所含的噪聲很敏感,果對(duì)OCL序列的檢測還產(chǎn)生了“鬼影”。IBS序列的初始就包含運(yùn)動(dòng)目標(biāo),使用ViBe和Codebook這兩個(gè)算法進(jìn)行目標(biāo)檢測的時(shí)候,不能很迅速地將背景信息更新,所以會(huì)產(chǎn)生“空洞”,且這兩個(gè)算法并不能很好地克服局部運(yùn)動(dòng),對(duì)噪聲的抑制能力也比較差。對(duì)于光線突變,幀間差分法算法具有優(yōu)勢,ViBe、Codebook、GMM和本文所提算法對(duì)光線的突變都敏感。本文使用半徑為1的圓形結(jié)構(gòu)元素,對(duì)目標(biāo)提取的結(jié)果進(jìn)行形態(tài)學(xué)閉運(yùn)算,從而去除目標(biāo)提取產(chǎn)生的冗余信息。

        在背景更新時(shí),通常會(huì)有目標(biāo)在背景中靜止,這時(shí)的目標(biāo)在一段時(shí)間之后將被更新為背景。另外一種情況是,原來在背景中靜止的目標(biāo)發(fā)生了運(yùn)動(dòng),那么原來目標(biāo)所在的區(qū)域則需要更新。IBS序列的初始化背景模型中包含了靜止的目標(biāo),當(dāng)目標(biāo)在第60幀發(fā)生移動(dòng)之后,原來目標(biāo)所在的區(qū)域就產(chǎn)生了明顯的“空洞”,如圖2所示。通過式(8)對(duì)該區(qū)域的像素進(jìn)行更新。第102幀時(shí),“空洞”被完全更新為背景。背景更新的快慢取決于學(xué)習(xí)參數(shù)α。通常情況下,α越大背景更新越快,但由于目標(biāo)運(yùn)動(dòng)速率不同,學(xué)習(xí)參數(shù)則需要根據(jù)不同場景選擇。

        本文提出的算法進(jìn)行目標(biāo)檢測時(shí),結(jié)合幀間差分和背景更新模型,將強(qiáng)度大小不連續(xù)變化的噪聲視為運(yùn)動(dòng)目標(biāo)點(diǎn),在更新背景的時(shí)候?qū)⒃肼暼コT诓煌膱鼍跋?,通過調(diào)節(jié)學(xué)習(xí)參數(shù),使得背景更新速度符合場景的變化速率,避免了“孔洞”和“鬼影”的產(chǎn)生。該算法在光線突變的時(shí)候,具有更短的恢復(fù)時(shí)間。從視覺效果上來看,本文所提算法具有明顯的優(yōu)勢。

        圖2 IBS序列背景更新實(shí)驗(yàn)結(jié)果

        3.2 實(shí)驗(yàn)結(jié)果評(píng)價(jià)

        為了表明該算法所得的運(yùn)動(dòng)目標(biāo)檢測結(jié)果的質(zhì)量,本文采用Recall、Precision、F1和Similarity[11]等性能指標(biāo),并和其他算法所得結(jié)果進(jìn)行對(duì)比分析。

        Recall是檢索出的相關(guān)信息量和相關(guān)信息的總量的比值,Precision是檢索出的相關(guān)信息量和檢索出的總量的比值,如式(19)~(20)所示:

        Recall=tp/(tp+fn)

        (19)

        Precision=tp/(tp+fp)

        (20)

        其中:tp(true positive pixels)表示檢索出的相關(guān)信息量;fn(false negative pixels)表示未檢索出的相關(guān)信息量;fp(false positive pixels)表示檢索出的無關(guān)信息量。

        由于Recall只反映丟失運(yùn)動(dòng)目標(biāo)內(nèi)部信息的相關(guān)性,Precision只反映丟失運(yùn)動(dòng)目標(biāo)外部信息的相關(guān)性,因此利用Recall或Precision都不能充分衡量不同算法的有效性。一般情況下,Recall高則Precision低,Recall低則Precision高。在兩者都要求高的情況下,引入F1和Similarity來度量,如式(21)~(22)所示。

        F1=2×Recall×Precision/(Recall×Precision)

        (21)

        Similarity=tp/(tp+fp+fn)

        (22)

        所有參數(shù)的值都在0到1之間,參數(shù)值越大,說明得到的結(jié)果越精確。對(duì)視頻序列分別使用ViBe、Codebook、混合高斯模型(GMM)、幀間差分法(FD)、目標(biāo)提取(ObjectExtraction)和本文所提算法(Proposedalgorithm)進(jìn)行實(shí)驗(yàn),得出相關(guān)指標(biāo)參數(shù)如表2所示。

        從表2數(shù)據(jù)可以看出,Codebook、ViBe和GMM算法具有較高的Recall,最高達(dá)0.944 00,說明在進(jìn)行運(yùn)動(dòng)目標(biāo)檢測時(shí),這幾種算法能夠較完整地檢測到目標(biāo)的全部信息;三種算法的Precision最高為0.581 00,說明在進(jìn)行運(yùn)動(dòng)目標(biāo)檢測時(shí),算法對(duì)噪聲敏感,易將噪聲點(diǎn)誤判為運(yùn)動(dòng)像素點(diǎn);同時(shí),三種算法的F1和Similarity整體偏低,說明在進(jìn)行運(yùn)動(dòng)檢測時(shí),會(huì)丟棄部分目標(biāo)信息。幀間差分法的平均Recall、Precision和F1均在0.630 00以上,說明該算法在進(jìn)行目標(biāo)檢測時(shí),能夠較好地克服噪聲,且能較為準(zhǔn)確地提取目標(biāo)信息,但Similarity的均值為0.462 75,說明進(jìn)行運(yùn)動(dòng)檢測時(shí)會(huì)丟失目標(biāo)信息,這也說明該算法在檢測運(yùn)動(dòng)目標(biāo)時(shí),得到了運(yùn)動(dòng)目標(biāo)的輪廓信息。

        表2中給出了通過Otsu算法進(jìn)行目標(biāo)提取結(jié)果和本文所提算法(閉運(yùn)算之后)的指標(biāo)參數(shù)。從目標(biāo)提取結(jié)果的指標(biāo)參數(shù)來看,目標(biāo)提取結(jié)果Recall的均值為0.746 25,高于幀間差分法,和Codebook接近,說明通過目標(biāo)提取算法能夠較完整提取目標(biāo)的大部分信息;目標(biāo)提取結(jié)果的Precision最高達(dá)0.760 00,均高于其他算法,說明通過目標(biāo)提取算法能夠精確提取信息;目標(biāo)提取結(jié)果的F1和Similarity也具有較高的數(shù)值,說明通過目標(biāo)提取算法能夠有效地抑制噪聲,摒棄冗余信息。由于閉運(yùn)算修復(fù)了運(yùn)動(dòng)目標(biāo)內(nèi)部不連續(xù)的部分,所以閉運(yùn)算之后的指標(biāo)參數(shù)較未使用閉運(yùn)算之前平均提高了2.96%。因此,從算法的性能參數(shù)來看,本文所提算法在目標(biāo)像素點(diǎn)的精確提取方面,相比于其他算法優(yōu)勢更加明顯。

        表2 不同算法相關(guān)指標(biāo)參數(shù)比較

        4 結(jié)語

        本文在對(duì)背景減除法的研究基礎(chǔ)上,結(jié)合幀間差分法和背景減除法,判斷像素點(diǎn)的運(yùn)動(dòng)狀態(tài),分別對(duì)靜止和運(yùn)動(dòng)的像素點(diǎn)替換和更新,產(chǎn)生與實(shí)際背景接近的背景模型。最后使用Otsu算法進(jìn)行目標(biāo)提取,并使用形態(tài)學(xué)中的閉運(yùn)算去除噪聲和冗余信息。實(shí)驗(yàn)結(jié)果證明,本文所提算法具有較高的Precision、F1和Similarity,相比于其他算法產(chǎn)生的結(jié)果精度高,而且能夠很好地克服局部運(yùn)動(dòng)、抑制噪聲、避免“孔洞”和“鬼影”等問題,有良好的視覺效果。

        )

        [1]SPAGNOLOP,ORAZIOTD,LEOM,etal.Movingobjectsegmentationbybackgroundsubtractionandtemporalanalysis[J].Image&VisionComputing, 2006, 24(5): 411-423.

        [2]XUEGJ,SUNJ,SONGL.Backgroundsubtractionbasedonphasefeatureanddistancetransform[J].PatternRecognitionLetters, 2012, 33(12): 1601-1613.

        [3]LUCASBD,KANADET.Aniterativeimageregistrationtechniquewithanapplicationtostereovision[C]//IJCAI’81:Proceedingsofthe7thInternationalJointConferenceonArtificialIntelligence.SanFrancisco,CA:MorganKaufmann, 1981: 674-679.

        [4] 王曉衛(wèi),寧固.一種改進(jìn)的基于光流的運(yùn)動(dòng)目標(biāo)的檢測算法[J].武漢大學(xué)學(xué)報(bào)(信息科學(xué)版),2003,28(3):351-353.(WANGXW,NINGG.Amodifiedobjecttrackingalgorithmbasedonoptical-flow[J].GeomaticsandInformationScienceofWuhanUniversity, 2003, 28(3): 351-353.)

        [5]STAUFFERC,GRIMSONWEL.Adaptivebackgroundmixturemodelsforreal-timetracking[C]//Proceedingsofthe1999IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition.Washington,DC:IEEEComputerSociety, 1999: 246-252.

        [6]KIMK,CHALIDABHONGSETH,HARWOODD,etal.Real-timeforeground-backgroundsegmentationusingcodebookmodel[J].Real-TimeImaging, 2005, 11(3): 172-185.

        [7]MADDALENAL,PETROSINOA.Aself-organizingapproachtobackgroundsubtractionforvisualsurveillanceapplications[J].IEEETransactionsonImageProcessing, 2008, 17(7): 1168-1177.

        [8]WANGH,SUTERD.Backgroundsubtractionbasedonarobustconsensusmethod[C]//Proceedingsofthe2006 18thInternationalConferenceonPatternRecognition.Washington,DC:IEEEComputerSociety, 2006: 223-226.

        [9]BARNICHO,VANDROOGENBROECKM.ViBe:auniversalbackgroundsubtractionalgorithmforvideosequences[J].IEEETransactionsonImageProcessing, 2011, 20(6): 1709-1724.

        [10] 蘇延召,李艾華,姜柯,等.改進(jìn)視覺背景提取模型的運(yùn)動(dòng)目標(biāo)檢測算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2014,26(2):232-240.(SUYZ,LIAH,JIANGK,etal.Improvedvisualbackgroundextractormodelformovingobjectsdetectingalgorithm[J].JournalofComputer-AidedDesign&ComputerGraphics, 2014, 26(2): 232-240.)

        [11]HUANGSC.Anadvancedmotiondetectionalgorithmwithvideoqualityanalysisforvideosurveillancesystems[J].IEEETransactionsonCircuitsandSystemsforVideoTechnology, 2011, 21(1): 1-14.

        [12]KUMARS,YADAVJS.Segmentationofmovingobjectsusingbackgroundsubtractionmethodincomplexenvironments[J].Radioengineering, 2016, 25(2): 399-408.

        [13]KUMARS,YADAVJS.Videoobjectextractionanditstrackingusingbackgroundsubtractionincomplexenvironments[J].PerspectivesinScience, 2016, 8(C): 317-322.

        [14]OTSUN.Thresholdselectionmethodfromgray-levelhistograms[J].IEEETransactionsonSystems,Man&Cybernetics, 1979, 9(1): 62-66.

        ThisworkispartiallysupportedbytheNationalNaturalScienceFoundationofChina(61561042),theTalentIntroductionFoundationofNorthwestMinzuUniversity.

        LIU Zhongmin, born in 1978, Ph. D. candidate, associate professor. His research interests include machine vision, intelligent information processing, pattern recognition.

        HE Shengjiao, born in 1992, M. S. candidate. His research interests include intelligent information processing, pattern recognition.

        HU Wenjin, born in 1981, Ph. D., associate professor. Her research interests include machine vision, intelligent information processing, pattern recognition.

        LI Zhanming, born in 1962, M. S., professor. His research interests include complex system modeling and control, intelligent information processing, pattern recognition.

        Moving object detection based on background subtraction for video sequence

        LIU Zhongmin1*, HE Shengjiao1, HU Wenjin2, LI Zhanming1

        (1.CollegeofElectricalandInformationEngineering,LanzhouUniversityofTechnology,LanzhouGansu730050,China; 2.CollegeofMathematicsandComputerScience,NorthwestMinzuUniversity,LanzhouGansu730000,China)

        Moving object detection is the essential process of object recognition, marking and tracking in video sequences, the background subtraction algorithm is widely used in moving object detection. Concerning the problem that illumination changing, noise and local motion seriously affect the accuracy of moving object detection, a moving object detection algorithm based on background subtraction for video sequences was proposed. The background subtraction was combined with inter-frame difference to estimate the motion state of current frame pixels. The related pixels in the static and motion region were replaced and updated respectively. The Otsu method was used to extract moving object and the mathematical morphological operation was used to eliminate the noise and redundant information in the objects. The experimental results show that the proposed algorithm has good visual effect and high accuracy for detecting moving objects in video sequences, and it can overcome the shortcomings such as local movement and noise.

        video sequence; background subtraction method; inter-frame difference method; Otsu; object detection

        2016- 11- 10;

        2016- 12- 26。

        國家自然科學(xué)基金資助項(xiàng)目(61561042);西北民族大學(xué)引進(jìn)人才基金資助項(xiàng)目。

        劉仲民(1978—),男,甘肅靖遠(yuǎn)人,副教授,博士研究生,主要研究方向:機(jī)器視覺、智能信息處理、模式識(shí)別; 何勝皎(1992—),男,甘肅金昌人,碩士研究生,主要研究方向:智能信息處理、模式識(shí)別; 胡文瑾(1981—),女,甘肅慶陽人,副教授,博士,CCF會(huì)員,主要研究方向:機(jī)器視覺、智能信息處理、模式識(shí)別; 李戰(zhàn)明(1962—),男,陜西武功人,教授,碩士,主要研究方向: 復(fù)雜系統(tǒng)的建模與控制、智能信息處理、模式識(shí)別。

        1001- 9081(2017)06- 1777- 05

        10.11772/j.issn.1001- 9081.2017.06.1777

        TP391.4

        A

        猜你喜歡
        差分法背景像素
        趙運(yùn)哲作品
        藝術(shù)家(2023年8期)2023-11-02 02:05:28
        像素前線之“幻影”2000
        二維粘彈性棒和板問題ADI有限差分法
        “新四化”背景下汽車NVH的發(fā)展趨勢
        《論持久戰(zhàn)》的寫作背景
        “像素”仙人掌
        晚清外語翻譯人才培養(yǎng)的背景
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        基于SQMR方法的三維CSAMT有限差分法數(shù)值模擬
        有限差分法模擬電梯懸掛系統(tǒng)橫向受迫振動(dòng)
        婷婷色综合视频在线观看| 狼色在线精品影视免费播放| 日韩精品极品视频在线免费| 国产在线一区二区av| 国产精久久一区二区三区| 国产精品高潮呻吟av久久4虎| 国产在线观看黄| 亚洲女同性恋在线播放专区| 日韩精品人妻中文字幕有码在线| 天堂√在线中文官网在线| 夜色阁亚洲一区二区三区| 国产91AV免费播放| 国产精品一区二区三区四区亚洲| 亚洲日韩国产av无码无码精品| 亚洲精品无码不卡av| 无码高潮久久一级一级喷水| 精品人妻一区二区三区狼人 | 艳妇乳肉豪妇荡乳av无码福利| 亚洲国产精品综合福利专区| 成人久久精品人妻一区二区三区 | 亚洲欧洲久久久精品| 国产免费一区二区三区在线观看| 国产av无码专区亚洲av麻豆| 台湾佬自拍偷区亚洲综合| 人妻中出精品久久久一区二| 97人妻精品一区二区三区免费| 色老板美国在线观看| 国产成人无码av在线播放dvd| 亚洲天堂无码AV一二三四区| 国产在线观看午夜视频| 亚洲 卡通 欧美 制服 中文| 日韩精品久久久一区| 国产精品一区二区黄色片| 一边摸一边抽搐一进一出视频| 丰满少妇被猛烈进入| 尤物AV无码色AV无码麻豆 | 999精品无码a片在线1级| 无遮高潮国产免费观看| 亚洲av伊人久久综合性色| 免费在线观看播放黄片视频| 97久久人人超碰超碰窝窝|