亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多層背景模型的運動目標檢測

        2016-11-22 06:59:39曹明偉
        電子學報 2016年9期
        關鍵詞:背景檢測模型

        曹明偉,余 燁

        (合肥工業(yè)大學計算機與信息學院,安徽合肥 230009)

        ?

        基于多層背景模型的運動目標檢測

        曹明偉,余 燁

        (合肥工業(yè)大學計算機與信息學院,安徽合肥 230009)

        復雜背景下的運動目標檢測一直是計算機視覺領域中一個具有挑戰(zhàn)性的問題,本文提出一種基于多層背景模型的運動目標檢測算法.該算法首先從視頻序列的第一幀中提取每個像素的鄰域樣本,用于初始化背景模型,只需一幀圖像即可完成背景模型的初始化;其次,為實現(xiàn)背景模型的自適應更新,引入隨機采樣技術,隨機選取一個不匹配的碼字,采用新的背景像素取而代之,避免錯誤分類的碼字長時間駐留在背景模型中;為處理動態(tài)場景中多種干擾因素的影響,提出了多層背景模型策略,每個像素經(jīng)過多層背景模型的逐層驗證,保證了背景模型的精確性.實驗結(jié)果表明,該算法能夠有效克服復雜背景下的多種干擾因素影響,且檢測率和識別率均高于現(xiàn)有經(jīng)典算法.

        動態(tài)背景;目標檢測;隨機采樣;視頻監(jiān)控;像素分類器

        1 引言

        智能視頻監(jiān)控為當今社會的治安管理和維護社會穩(wěn)定起到了重要作用,被廣泛應用于民用和軍工業(yè)中.運動目標檢測作為智能視頻監(jiān)控系統(tǒng)的核心,受到了國內(nèi)外學者的廣泛關注,并取得一些研究成果[1~3].如Stauffer等[4]提出的混合高斯建模算法(Mixture of Gaussian,MOG),Olivier等[5]提出的可視背景提取子算法(Visual Background Extractor,VIBE)、Kim等[6]提出的碼書模型算法(CodeBook,CB)和基于像素的自適應分割(Pixel-Based Adaptive Segmenter,PBAS)算法[7],局部二進制相似性分割(LOcal Binary Similarity segmenTER,LOBSTER)算法[8]和基于像素的自適應單詞一致性分割(Pixel-based Adaptive Word Consensus Segmenter,PAWCS)算法[9]均為目前常用的動態(tài)背景下的運動目標檢測算法[10~14].

        MOG算法采用多個高斯分布構(gòu)造背景模型,通過設置學習率實現(xiàn)背景模型的自適應更新.VIBE采用真實的像素集合來表示背景模型,采用2-D空間內(nèi)的歐氏距離對像素進行分類,算法效率較高.為了提高VIBE算法像素分類準確性,Van提出了帶有反饋信息的PBAS算法.CodeBook采用少量碼字組成的碼書訓練視頻序列的背景模型.然而,此算法采用學習率實現(xiàn)背景模型更新,必然會面對“權衡問題”.Geng等[15]采用像素的亮度值范圍代替原始的分類標準,提高了算法對陰影的魯棒性.Wu等[16]將時空上下文(Spatio-Temporal Context)信息加入到CodeBook算法中,提高了算法的精確性.Charles等[17]采用時空特征描述子構(gòu)造每個像素背景模型,提出一種具有較強魯棒性的SuBSENSE算法,但是此算法實時性較低.LOBSTER和PAWCS算法采用局部二進制相似模式(Local Binary Similarity Patterns,LBSP)構(gòu)造背景模型,然而LBSP的計算量較大使得算法的實時性降低.以上這些背景建模算法被廣泛應用于復雜運動目標檢測系統(tǒng)[4,5,6,12].

        盡管取得了上述研究成果,在復雜背景下運動目標檢測算法仍存在如下不足:(1)背景模型初始化時間過長;(2)背景模型的更新系數(shù)設定不具有通用性;(3)單層背景模型難以處理復雜背景干擾問題.為彌補上述不足,本文在CodeBook模型基礎之上提出一種“基于多層背景模型的運動目標檢測 (Moving Object Detection Based on Multi-layer Background Model,MMBM)”算法.首先,從第一幀圖像的鄰域空間內(nèi)選取20個樣本用于初始化背景模型,避免背景模型初始化時間過長的問題;其次,為了實現(xiàn)背景模型自適應更新,提出等概率替代的自適應背景更新方法,有效解決傳統(tǒng)方法無法避免的“權衡問題”;再次,通過多層背景模型對多種干擾因素逐層驗證,有效的克服了多干擾因素同時存在的影響.實驗結(jié)果表明該算法在室外多干擾因素存在的復雜背景下,能夠?qū)崿F(xiàn)運動目標的實時檢測.

        2 CodeBook模型介紹

        為了便于分析CoodBook算法實現(xiàn)運動目標檢測的原理,給出以下兩個術語的示例說明:

        (1)前景像素:屬于運動目標區(qū)域的像素,如圖 1中的行人區(qū)域.

        (2)背景像素:運動目標以外的像素,如圖 1中的非行人區(qū)域.

        2.1 CodeBook模型描述

        (3)fi,表示碼字出現(xiàn)的頻率.

        (4)λi,表示最大反面運行長度(Maximum Negative Run-Length,MNRL),即碼字沒有匹配的最大時間間隔.

        (5)pi,qi,分別表示碼字第一次和最后一次匹配成功的時間.

        2.2 CodeBook模型的像素分類標準

        CodeBook算法采用像素分類思想?yún)^(qū)分前景像素與背景像素,其像素分類標準是運動目標檢測算法的核心.如圖 2所示,如果像素Xt在判別邊界(decision boundary)內(nèi)部,表明Xt是匹配碼字;否則不匹配.具體分類過程采用像素分類器1(Classifier1)完成:

        (1)

        其中各變量計算方法如下:

        (2)

        (3)

        (4)

        (5)

        (6)

        3 MMBM算法

        MMBM算法的流程如圖 3所示,其核心思想為:對于給定的圖像序列,從第一幀中提取訓練樣本,采用像素分類器1提取背景像素,構(gòu)造背景模型.創(chuàng)建多層背景模型,在背景模型的更新上采用等概率替代的自適應背景更新方法.基于多層背景模型,利用像素分類器2 (將在3.3節(jié)中進行定義) 對像素進行分類,判斷哪些屬于背景像素,構(gòu)造多層背景模型.同時,基于像素分類器2對多層背景模型中的主模型進行更新,將緩存模型中滿足條件的像素提升至主模型.通過多層背景模型的逐層驗證,準確地檢測出運動目標.算法的三個主要部分:背景模型初始化、自適應背景更新方法、多層背景模型的創(chuàng)建與更新,將在下面的小節(jié)中進行詳細闡述.

        3.1 基于鄰域的背景模型初始化

        模型初始化的本質(zhì)是“像素表達問題”,由于鄰域內(nèi)的像素具有空間一致性[12],這些像素能夠很好表達背景模型.因此,基于空間一致性原理,本文提出了基于鄰域的背景模型初始化方法,即:讀取視頻序列的第一幀,利用鄰域中的像素來初始化背景模型,算法只需一幀圖像即可完成背景模型的初始化,提高了算法的時間效率.如圖 4所示,首先從像素的24鄰域內(nèi)隨機選取不重復的20個樣本,然后采用這些樣本構(gòu)造對應的碼字,對碼字進行驗證,將滿足條件的碼字組成像素的碼書模型,遍歷整幅圖像即可構(gòu)造完整的背景模型.

        3.2 等概率替代的自適應背景更新

        為避免室外環(huán)境中動態(tài)背景的干擾,需要背景模型能夠自適應更新,因此,提出“等概率替代的自適應背景更新方法”(Equal Probability Alternative Method,EPAM).假設在背景模型M(x)中尋找到與像素xt匹配的碼字cm,EPAM算法不是對碼字cm進行更新,而是采用像素xt創(chuàng)建新的碼字,取代[1,m-1]之間的某一個碼字.由于像素xt與[1,m-1]之間的碼字不匹配,說明xt是一個更優(yōu)的背景像素,因此,基于xt創(chuàng)建一個新的碼字插入到背景模型中.

        背景更新過程如圖 5所示.EPAM方法的詳細步驟如下:

        Step1 在背景模型M(x)中,通過像素分類器1尋找與像素xt匹配的碼字cm;

        Step2 采用均勻分布的隨機數(shù)生成算法,產(chǎn)生一個范圍在[1,m-1]之間的隨機數(shù)rnd,以確定被替換的碼字為crnd;

        Step3 使用像素xt創(chuàng)建一個新的碼字ct,如下所示:

        vt=xt,auxt=〈I,I,1,t-1,t,t〉

        Step4 采用新的碼字ct替代碼字crnd,即可實現(xiàn)背景模型的自適應更新.

        3.3 多層背景模型的創(chuàng)建與更新

        為了克服室外場景中多種干擾因素影響,本文提出了多層背景模型的策略.按照干擾因素對背景影響的強度進行分類,定義了3層背景模型,分別是:M(x)(主模型)、H(x)(一級緩存模型)和U(x)(二級緩存模型),H(x)和U(x)的數(shù)據(jù)結(jié)構(gòu)定義與M(x)相同,模型的創(chuàng)建分為三個階段,在訓練階段創(chuàng)建主模型M(x),在檢測階段根據(jù)第一幀輸入序列與主模型的匹配情況來創(chuàng)建一級緩存模型H(x),然后根據(jù)第二幀輸入序列與一級緩存模型的匹配情況來創(chuàng)建二級緩存模型U(x).當二級緩存模型U(x)中的碼字滿足一定時間,就將U(x)中碼字提升到H(x)中;當H(x)中的碼字滿足一定的時間,則將H(x)中的碼字提升到M(x)中,從而得到更加精確的主模型M(x).多層背景模型的創(chuàng)建過程可以采用“像素分類器2”(Clf2)實現(xiàn),如式(7)所示.

        (7)

        其中,De1和De2分別表示刪除二級緩存模型和一級緩存模型的碼字.TU、Tadd1、Tdelete1、TH、Tadd2和Tdelete2為先驗值.

        采用遞歸思想描述多層背景模型的創(chuàng)建和更新過程,如下所示:

        Step1 基于鄰域初始化方法創(chuàng)建主模型M(x),同時,分別創(chuàng)建空的一級緩存模型H(x)和二級緩存模型U(x).

        Step2 對于t時刻給定的輸入像素It,在M(x)中尋找與It匹配的碼字CWM.如果CWM在M(x)中,則認為It屬于背景像素,采用EPAM方法對主模型M(x)進行更新,否則跳轉(zhuǎn)到Step3.

        Step3 如果沒有找到匹配的碼字,按以下步驟進行處理:

        (1)將像素It標記為前景像素.

        (2)在一級緩存模型H(x)中查找匹配碼字CWH,如果找到匹配的碼字CWH,則使用EPAM方法對H(x)進行更新.否則采用It創(chuàng)建一個新的碼字CWt插入到一級緩存模型H(x)中.

        (3)在二級緩存模型U(x)中尋找與It匹配的碼字CWU,如果找到匹配的碼字CWU,則使用EPAM算法對模型U(x)進行更新,否則使用It創(chuàng)建一個新的碼字CWt插入到二級緩存模型U(x)中.

        Step4 采用像素分類器2,將漏檢的真實背景碼字提升到主模型M(x)中,過程如下所示:

        (1)移除二級緩存模型U(x)中碼字的最長時間間隔λ1大于TU的所有碼字;將U(x)中碼字的最長時間間隔λ1大于Tadd1的所有碼字提升到H(x)中,同時刪除H(x)中碼字的最大時間間隔大于Tdelete1的所有碼字.

        (2)移除一級緩存模型H(x)中碼字的最長時間間隔λ2大于TH的所有碼字;將H(x)中碼字的最長時間間隔λ2大于Tadd2的所有碼字提升到M(x)中,同時刪除M(x)中碼字的最大時間間隔λ2大于Tdelete2的所有碼字.

        Step5 對于新的像素It+1跳轉(zhuǎn)到Step2進行處理.

        通過Step1~Step5即可實現(xiàn)多層背景模型的創(chuàng)建與更新,為提高算法的精確性奠定基礎.采用Camarim序列對多層背景模型的有效性進行了驗證,圖6(a)為Camarim序列的第132幀,圖6(b)為基于單層背景模型的檢測結(jié)果,圖6(c)為多層背景模型檢測結(jié)果,可以看出經(jīng)過多層背景模型的逐層檢驗,從而避免搖晃樹葉和光照的影響,同時提高了算法對陰影的魯棒性.

        4 實驗結(jié)果與分析

        MMBM算法的開發(fā)環(huán)境為Visual C++ 2010、OpenCV SDK 2.4.6、Nvidia Cuda SDK 5.5,所用PC配置為Intel i5 CPU、8.0GB RAM.實驗使用的數(shù)據(jù)集為ChangeDetection[18,19]和Cross (本文創(chuàng)建).為了進行算法精度的對比分析,采用與本文算法相同的軟硬件開發(fā)環(huán)境實現(xiàn)了MOG和VIBE算法;PBAS、SuBSENSE、LOBSTER和PWACS算法采用作者提供的源代碼;CodeBook算法采用OpenCV SDK 2.4.6提供的可調(diào)用類.為了公正、有效的對算法進行比較,MOG、VIBE、PBAS等算法的參數(shù)取值與原文相同,且實驗結(jié)果沒有經(jīng)過后處理.4.1 定性分析

        在ChangeDetection數(shù)據(jù)集上,對MMBM和MOG等算法進行測試,結(jié)果如圖 7所示.

        從Highway序列的測試結(jié)果可以看出,MOG、VIBE和LOBSTER算法都受到了背景中搖晃樹葉的干擾,導致檢測結(jié)果中出現(xiàn)一些小的白色亮點;CodeBook算法結(jié)果很模糊;SuBSENSE、PWACS和本文算法的檢測結(jié)果清晰且不存在殘缺.

        從Boulevard序列檢測結(jié)果可以看出,MOG和VIBE算法受到序列中光照變化的影響,在地面上形成了白色條紋;CodeBook算法的檢測結(jié)果在路面位置沒有出現(xiàn)白色條紋,但是檢測出的車輛較模糊;PBAS、SuBSENSE和LOBSTER算法結(jié)果中目標存在殘缺;本文方法的檢測結(jié)果沒有受到光照的影響,結(jié)果清晰可見.

        從Canoe序列檢測結(jié)果可以看出,MOG、VIBE和LOBSTER算法都能清晰的檢測出運動的小船,然而受到湖面水波運動的影響,檢測結(jié)果中出現(xiàn)了大量白點;CodeBook和PWACS算法檢測出的小船出現(xiàn)了大面積殘缺;PBAS算法的結(jié)果中小船的尾部漏檢;SuBSENSE算法沒有檢測出小船上的行人.本文方法既沒有受到水波影響,檢測結(jié)果也不存在殘缺,清晰可見.

        從Tramstop序列檢測結(jié)果可以看出,MOG、VIBE、PBAS以及本文算法都能很好的處理遮擋問題,且本文方法比SuBSENSE算法的結(jié)果更加精確;由于受光照和遮擋的影響,導致CodeBook算法的檢測結(jié)果較模糊;LOBSTER、PAWCS和本文方法雖然受到行人遺留軌跡的影響,相對而言本文算法結(jié)果更加精確.

        從People序列檢測結(jié)果可以看出,MOG、VIBE、SuBSENSE、LOBSTER、PAWCS以及本文算法的檢測結(jié)果都很清晰;在CodeBook算法結(jié)果中行人的上身出現(xiàn)了大面積殘缺;PBAS算法受到了陰影的影響,在行人背后出現(xiàn)大面積虛假信息.

        從Library序列檢測結(jié)果可以看出,MOG、PBAS和本文算法均可用于檢測紅外序列中的運動目標,且本文方法的檢測結(jié)果相對精確一些;VIBE、LOBSTER和PAWCS算法檢測出了行人運動的遺留軌跡;CodeBook和SuBSENSE算法只檢測出行人的部分邊緣信息.

        從上述分析可知,本文算法對“多干擾復雜動態(tài)背景”具有較強的魯棒性.

        4.2 定量分析

        4.2.1 算法精度分析

        為了公正的比較算法性能,采用文獻[19]中的評價標準對算法的性能進行定量分析,評價標準如下:

        (1)P(Precision)表示算法的準確率;

        (2)R(Recall)表示識別率;

        (3)Sp(Specificity) 表示背景像素的識別率;

        (4)FPR(FalsePositiveRate) 表示背景像素被錯誤分類為前景像素的比率;

        (5)FNR(FalseNegativeRate) 表示前景被錯誤分類為背景像素的比率;

        (6)PWC(PercentageofWrongClassification) 表示錯誤分類的比率;

        (7)FM(F-Measure) 表示算法的測度值,其值越高越好.

        基于上述評價標準,在ChangeDetection和Cross數(shù)據(jù)集上對各檢測算法進行評估,并采用ChangeDetection數(shù)據(jù)集提供的算法性能統(tǒng)計代碼,分別對每個算法的精度進行統(tǒng)計分析,結(jié)果如表 1所示.可以看出,本文算法無論是在準確率(P)還是在識別率(R)上均高于MOG、VIBE、CodeBook、PBAS和SuBSENSE等算法.

        4.2.2 時間效率分析

        假設圖像的寬度為W,高度為H,本文算法的時間復雜度為O(W×H×(Ns×Ns+Ss)),其中背景模型初始化的時間復雜度為O(Ns×Ns),Ns表示背景模型初始化時所用樣本的鄰域空間,實際測試時取值為5.運動目標檢測時對每個像素進行分類的時間復雜度為O(Ss),由于本文采用20個樣本表達一個像素的背景模型,因此,在算法中Ss的取值為20.CodeBook算法的時間復雜度為O(W×H×(W×H×N)),其中N表示訓練背景模型所用樣本數(shù).由于MOG、VIBE、PBAS和SuBSENSE、LOBSTER和PAWCS算法的作者沒有明確給出時間復雜度分析,因此,為了公正比較,我們在ChangeDetection和Cross數(shù)據(jù)集上對每個算法進行測試,計算出每個算法在不同序列上的處理時間,結(jié)果(每個算法計算3次取平均值)如表 2所示,可以看出本文算法在所有測試序列上所消耗時間均最少.

        表1 算法精度測試結(jié)果

        表2 算法時間效率

        5 總結(jié)與展望

        針對復雜背景下的運動目標檢測進行研究,提出了一種適用于復雜背景下的運動目標檢測算法—MMBM.采用從第一幀圖像每個像素的鄰域中選取樣本,對背景模型進行初始化的方案,算法的初始化過程得到了簡化和加速;通過采用EPAM背景模型更新策略,避免了被錯誤分類的像素長期保留在背景模型中;由于多層背景模型方法的使用,即在初始化階段創(chuàng)建一個主模型,在檢測階段創(chuàng)建兩個緩存模型,通過緩存模型的逐層驗證,將漏檢的背景像素提升到主模型,增強了主模型的精確性,提高了算法在復雜背景下的魯棒性.

        在ChangeDetection和Cross數(shù)據(jù)集上開展的實驗結(jié)果表明,與經(jīng)典的MOG、VIBE、CodeBook等算法相比,MMBM算法的檢測率和識別率均有較大提高且在多干擾復雜動態(tài)背景環(huán)境下具有很好的魯棒性.

        [1]丁瑩,李文輝,范靜濤,等.基于 Choquet模糊積分的運動目標檢測算法 [J].電子學報,2010,38(2):263-268.

        Ding Ying,Li Wenhui,Fan Jingtao,et al.A moving object detection algprithm base on choquet integrate[J].Acta Electronica Sinica,2010,38(2):263-268.(in Chinese)

        [2]李宏友,汪同慶,葉俊勇,等.基于3DOGH的視頻運動目標檢測算法[J].電子學報,2008,36(3):605-610.

        Li Hongyou,Wang Tongqing,Ye Junyong,et al.An approach based on 3D orthogonal Gassian-Hermite mmoments for detecting moving objects[J].Acta Electronica Sinica,2008,36(3):605-610.(in Chinese)

        [3]魏志強,紀筱鵬,馮業(yè)偉.基于自適應背景圖像更新的運動目標檢測方法[J].電子學報,2005,33(12):2261-2264.

        Wei Zhiqiang,Ji Xiaopeng,Feng Yewei.A moving object detection method based on self-adaptive updating of background[J].Acta Electronica Sinica,2005,33(12):2261-2264.(in Chinese)

        [4]Stauffer C,Grimson W E L.Adaptive background mixture models for real-time tracking[A].Computer Vision and Pattern Recognition,1999.IEEE Computer Society Conference on[C].Fort Collins,CO:IEEE,1999.2246-2253.

        [5]Barnich O,Van Droogenbroeck M.ViBe:A universal background subtraction algorithm for video sequences[J].Image Processing,IEEE Transactions on,2011,20(6):1709-1724

        [6]Kim K,Chalidabhongse T H,Harwood D,et al.Real-time foreground—background segmentation using codebook model[J].Real-time Imaging,2005,11(3):172-185.

        [7]Hofmann M,Tiefenbacher P,Rigoll G.Background segmentation with feedback:The pixel-based adaptive segmenter[A].Computer Vision and Pattern Recognition Workshops (CVPRW),2012 IEEE Computer Society Conference on[C].Providence,RI:IEEE,2012.38-43.

        [8]St-Charles P L,Bilodeau G A.Improving background subtraction using local binary similarity patterns[A].Applications of Computer Vision (WACV),2014 IEEE Winter Conference on[C].Steamboat:IEEE,2014.509-515.

        [9]St-Charles P L,Bilodeau G A,Bergevin R.A self-adjusting approach to change detection based on background word consensus[A].Applications of Computer Vision (WACV),2015 IEEE Winter Conference on[C].Waikoloa Beach,HI:IEEE,2015.990-997.

        [10]Sobral A,Vacavant A.A comprehensive review of background subtraction algorithms evaluated with synthetic and real videos[J].Computer Vision and Image Understanding,2014,122(5):4-21.

        [11]Brutzer S,Hoferlin B,Heidemann G.Evaluation of background subtraction techniques for video surveillance[A].Computer Vision and Pattern Recognition (CVPR),2011 IEEE Conference on[C].Colorado Springs,CO:IEEE,2011.1937-1944.

        [12]Bouwmans T.Traditional and recent approaches in background modeling for foreground detection:An overview[J].Computer Science Review,2014,58(3):1-37.

        [13]Xue K,Liu Y,Ogunmakin G,et al.Panoramic Gaussian mixture model and large-scale range background substraction method for PTZ camera-based surveillance systems[J].Machine Vision and Applications,2013,24(3):477-492.

        [14]Valera M,Velastin S A.Intelligent distributed surveillance systems:a review[J].IEE Proceedings-Vision,Image and Signal Processing,2005,152(2):192-204.

        [15]Geng L,Xiao Z T.Real time foreground-background segmentation using two-layer codebook model[A].Control,Automation and Systems Engineering (CASE),2011 International Conference on[C].Singapore:IEEE,2011.1-5.

        [16]Wu M,Peng X.Spatio-temporal context for codebook-based dynamic background subtraction[J].AEU-International Journal of Electronics and Communications,2010,64(8):739-747.

        [17]St-Charles P L,Bilodeau G A,Bergevin R.Flexible background subtraction with self-balanced local sensitivity[A].Computer Vision and Pattern Recognition Workshops (CVPRW),2014 IEEE Computer Society Conference on[C].Columbus,OH:IEEE,2014.414-419.

        [18]Goyette N,Jodoin P,Porikli F,et al.Changedetection.net:A new change detection benchmark dataset[A].Computer Vision and Pattern Recognition Workshops (CVPRW),2012 IEEE Computer Society Conference on[C].Providence,RI:IEEE,2012.1-8.

        [19]Wang Y,Jodoin P M,Porikli F,et al.CDnet 2014:An expanded change detection benchmark dataset[A].IEEE Conference on Computer Vision and Pattern Recognition Workshops[C].Columbus,OH:IEEE,2014.387-394.

        曹明偉 男,1986年4月出生于安徽鳳陽,現(xiàn)為合肥工業(yè)大學計算機與信息學院博士研究生,主要研究方向為目標檢測與跟蹤,多視圖三維重建.

        E-mail:cmwqq2008@163.com

        余 燁 (通訊作者) 女,1982年3月出生,安徽安慶人,副教授,碩士生導師,2010年獲合肥工業(yè)大學工學博士學位.主要研究方向為:場景重建、計算機視覺.

        E-mail:yuyeyue3841@sina.com

        Moving Object Detection Based on Multi-layer Background Model

        CAO Ming-wei,YU Ye

        (SchoolofComputer&Information,HefeiUniversityofTechnology,Hefei,Anhui230009,China)

        Moving object detection under complex-background is always a challenging issue,and in order to defend these challenges,this paper proposed an algorithm named MMBM (Moving object detection based on Multi-layer Background Model).First,samples are selected from neighbors of each pixel of the first frame to initialize background model.Only one frame image is needed for initialization.Second,in order to update the background model adaptively,random sampling technique is introduced,i.e.,selecting one code word randomly from the background model and then updating it with new background pixel,which overcomes the deficiency of the wrong classified code word overstaying in the background model.Multi-layer background model is proposed in order to overcome the influence of multi-disturbance in dynamic background,in which one pixel is tested through multi-layers,so as to guarantee and improve the accuracy of background pixels.Finally,Experimental results show that this algorithm can overcome the influence of multi-disturbance existing in dynamic outside scenes effectively,and at the same time,achieve a higher detection rate and recognition rate over the existing classical algorithms.

        dynamic background; object detection; random sampling; video surveillance; pixel classifier

        2015-01-28;

        2015-12-15;責任編輯:梅志強

        國家自然科學基金(No.61370167);安徽省科技攻關(No.1401b042009);安徽高校省基金(No.KJ2014ZD27)

        TP391

        A

        0372-2112 (2016)09-2126-08

        ??學報URL:http://www.ejournal.org.cn

        10.3969/j.issn.0372-2112.2016.09.016

        猜你喜歡
        背景檢測模型
        一半模型
        “新四化”背景下汽車NVH的發(fā)展趨勢
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        《論持久戰(zhàn)》的寫作背景
        當代陜西(2020年14期)2021-01-08 09:30:42
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權M-估計的漸近分布
        晚清外語翻譯人才培養(yǎng)的背景
        3D打印中的模型分割與打包
        91国产精品自拍视频| 亚洲V日韩V精品v无码专区小说| 国产小屁孩cao大人免费视频| av在线网站一区二区| 人妻免费一区二区三区免费| 一二三四日本中文在线| 亚洲一区二区三区偷拍女厕| 噜噜噜色97| 激情视频在线观看好大| 国产精品视频一区二区三区不卡| 国产乱人伦精品一区二区| 国产熟女精品一区二区三区| 亚洲精品久久麻豆蜜桃| 五月色丁香婷婷网蜜臀av| 国产成人亚洲精品无码mp4| 日本一区二区啪啪视频| 亚洲第一页在线免费观看| 国语自产视频在线| 樱花草在线播放免费中文| 91亚洲精品福利在线播放| 亚洲av日韩精品一区二区| 无码国产精品一区二区免费式芒果| 女厕厕露p撒尿八个少妇| 亚洲男人堂色偷偷一区| 国产一区二区三区精品毛片| 少妇伦子伦情品无吗| 精品国产精品久久一区免费式| 天堂AV无码AV毛片毛| 蜜桃精品视频一二三区| 不卡一卡二卡三乱码免费网站| 中文字幕欧美一区| 亚洲一本之道高清在线观看| 伊人久久精品亚洲午夜| 人人妻人人澡人人爽精品欧美| 国产亚洲午夜精品| 午夜一区二区三区免费观看| 欧美成人秋霞久久aa片 | 在线一区二区三区国产精品| 在线亚洲午夜理论av大片| 亚洲中文久久久久无码| 国产精品毛片av毛片一区二区|