亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進的混合高斯模型的運動目標(biāo)檢測*

        2016-06-02 11:27:58西華大學(xué)電氣與電子信息學(xué)院四川成都610039

        郭 俊,王 平(西華大學(xué)電氣與電子信息學(xué)院,四川成都610039)

        ?

        基于改進的混合高斯模型的運動目標(biāo)檢測*

        郭俊,王平
        (西華大學(xué)電氣與電子信息學(xué)院,四川成都610039)

        摘 要:提出了一種改進的混合高斯背景模型方法,克服了傳統(tǒng)混合高斯背景建模方法計算時間長的缺點。通過對視頻圖像中運動目標(biāo)區(qū)域進行背景建模,減小了每一幀的背景建模區(qū)域,同時在提取運動目標(biāo)區(qū)域前先對初提取的前景目標(biāo)進行中值濾波,減小運動目標(biāo)區(qū)域的范圍,進一步壓縮了背景建模的時間。最后通過與時間平均背景建模和傳統(tǒng)混合高斯背景建模方法進行比較,驗證了本文算法的高效性。

        關(guān)鍵詞:運動目標(biāo)檢測;運動目標(biāo)區(qū)域;背景減除法;混合高斯背景模型

        0 引言

        視頻圖像運動目標(biāo)檢測就是將運動目標(biāo)從視頻序列圖像背景中分離出來,是運動目標(biāo)識別與跟蹤的基礎(chǔ)[1-2]。其中圖像序列中有運動目標(biāo)經(jīng)過的區(qū)域稱為前景,其余部分為背景。高效而準(zhǔn)確地檢測并提取前景目標(biāo)是視頻圖像運動目標(biāo)分析技術(shù)的核心部分之一,也是計算機視覺和圖像理解的熱點和難點之一。

        目前常用的檢測算法有三種:幀差分法[3]、光流法[4]以及背景減除法[5]。幀差分法比較適用于分析簡單場景,并且提取到的目標(biāo)不完整,一般用來進行初提取工作;而光流法往往采用迭代法進行計算,且對光照、陰影等比較敏感,使用范圍比較?。欢尘皽p除法操作簡單,建模方式多種多樣,所以使用最為廣泛。背景減除法將新一幀圖像與所建立的背景模型進行比較,若相同位置的像素灰度值的差大于提前設(shè)置的閾值,則認(rèn)為這個像素點來自于前景,否則是背景。而一幅圖片中所有來自前景的坐標(biāo)就構(gòu)成了前景區(qū)域。背景減除法的核心技術(shù)在于背景模型的建立和更新,不同的背景建模方式產(chǎn)生的處理時間和處理效果各不相同。STAUFFER C等人提出的混合高斯背景建模方法[6-7]是目前較為成功的方法之一。它的理論依據(jù)在于不同的圖片中相同坐標(biāo)處的像素值必然服從于一個或者多個高斯分布,通過對每個坐標(biāo)處建立幾個高斯函數(shù),能有效地建立一個具有很高魯棒性的背景模型。當(dāng)然由此也造成了該方法計算的復(fù)雜性。

        本文通過減小背景建模區(qū)域來達到縮短檢測時間的目的,通過幀差分法對運動前景區(qū)域進行初提取,通過膨脹和腐蝕等形態(tài)學(xué)操作[8]使離散的前景像素點合并為一塊或者幾塊區(qū)域,然后對這些區(qū)域進行混合高斯背景建模,能較好地減小算法的計算量,同時也能達到同樣的檢測效果。

        1 傳統(tǒng)混合高斯背景建模理論

        參考文獻[2]中使用M個高斯函數(shù)構(gòu)成的混合高斯背景模型來表示一個坐標(biāo)處像素在時間域上的概率分布,記t時刻坐標(biāo)(x,y)處像素灰度值為ft(x,y),則坐標(biāo)(x,y)處像素灰度值為ft(x,y)的概率P(ft)用式(1)表示:

        式中M是高斯模型的個數(shù),ωl為第l個高斯分布的權(quán)重,ηl(ft,μl,t,σl,t)是第l個高斯密度函數(shù),用式(2)表示:

        式中μl,t是該高斯分布的均值,σl,t是方差。

        判定原則如下:對于待檢測圖片中的ft(x,y),求出能代表其背景分布的M個高斯函數(shù),將這些函數(shù)按ω/σ值的大小排序,取比值大的前B個高斯函數(shù)組成該點背景的混合高斯模型,如果ft(x,y)與其該背景模型中的第k(k≤B)個高斯分布匹配,則認(rèn)為該點是背景,否則為前景。匹配準(zhǔn)則如下:

        式中λ來自于經(jīng)驗。

        背景更新:新一幀圖像檢測完成后,若ft(x,y)被認(rèn)為來自于前景,也就是說該點對應(yīng)模型的前B個高斯分布中沒有一個與之匹配,則用一個新的高斯分布來替換ω/σ值最小的那個分布,其均值為ft(x,y),并賦予一個較大的方差和較小的權(quán)重。

        參數(shù)更新:

        與ft(x,y)匹配的高斯函數(shù)按下式更新:

        不能與ft(x,y)匹配的高斯函數(shù)按下式更新:

        然后歸一化權(quán)值。式中α、ρ為學(xué)習(xí)速度,來自于經(jīng)驗。

        2 改進的混合高斯背景建模

        需要檢測的視頻里面每一幀圖像只有部分區(qū)域中存在運動目標(biāo),常用的混合高斯背景模型都是對整幅圖像進行背景建模,其中很大一部分是沒有必要的,本文則是提前將視頻圖像中有運動前景的區(qū)域提取出來并通過膨脹和腐蝕操作確保提取的前景區(qū)域一定包括了運動前景,然后對運動前景區(qū)域進行混合高斯背景建模,進而提取出運動前景。

        提取運動前景區(qū)域采用幀差法,其包括兩幀幀差法和三幀幀差法,其中三幀幀差法提取到的只有運動前景的一部分,比較之下,本文采用兩幀幀差法提取,并通過形態(tài)學(xué)操作,得到運動前景區(qū)域,通過C4模塊進行存儲,然后利用混合高斯背景建模模塊,只對提取出的前景區(qū)域進行處理,得到運動前景。改進的基于混合高斯背景建模的運動目標(biāo)檢測的設(shè)計流程圖如圖1所示。

        圖1 改進的混合高斯背景模型

        首先記t時刻和t+1時刻輸入的連續(xù)兩幀圖像分別為x和y,灰度化處理分別記為m和n,然后將m和n數(shù)據(jù)類型轉(zhuǎn)化為雙精度型,并存儲到q和w中,記c(i,j)=|q(i,j)-w(i,j)|,根據(jù)c(i,j)與設(shè)置的閾值th比較分析,判斷該像素點是前景還是背景。整幅圖片處理完成后即得到初提取的前景二值圖像C,對圖像C采用3×3中值濾波[6]處理,然后進行膨脹和閉運算操作,得到初提取的前景區(qū)域C3,并最終將前景區(qū)域信息存儲到文件C4中,即完成了對運動目標(biāo)區(qū)域的提取操作。然后混合高斯背景建模模塊對原始視頻的C4前景區(qū)域進行背景建模,最終完成對前景圖像的準(zhǔn)確提取。

        3 結(jié)果分析

        圖2 對視頻Traffic.avi進行的算法仿真結(jié)果圖

        圖3 對視頻ccbr.avi進行的算法仿真結(jié)果圖

        本實驗采用MATLAB 2014a進行編程,并在Inter 3.4 GHz處理器、4 GB內(nèi)存的PC上進行仿真,使用的視頻速率為20幀/s,原始經(jīng)典混合高斯背景建模和改進后的混合高斯背景建模所選高斯函數(shù)均為4個,初始標(biāo)準(zhǔn)差為6,前景閾值th=λσk,λ=2.5,學(xué)習(xí)率α=0.01,方差學(xué)習(xí)率ρ=0.03。視頻首先經(jīng)過C4區(qū)域提取模塊,提取出運動目標(biāo)區(qū)域,然后背景建模模塊通過對C4區(qū)域進行前景提取,最后檢測出運動前景二值圖像[9],并將結(jié)果由四個輸出視頻(原始視頻、灰度處理視頻、前景區(qū)域視頻和前景二值圖像視頻)顯示出來。本文實驗共采用了三種方法進行仿真模擬:時間平均模型法[1]、混合高斯模型法以及本文所介紹方法,對復(fù)雜背景視頻Traffic.avi和簡單背景視頻ccbr.avi進行了處理,圖2和圖3分別是選擇Traf-fic.avi的第175幀圖像和ccbr.avi的第50幀進行算法仿真的結(jié)果從圖中可以看出,本實驗完全能達到混合高斯模型的效果,而從表1的分析數(shù)據(jù)可以看出,本實驗所用時間遠遠小于傳統(tǒng)的混合高斯背景建模法。

        表1 三種算法的平均每幀處理時間?。╩s/f)

        從實驗數(shù)據(jù)可以看出,通過對運動物體運動區(qū)域的提取來進行混合高斯背景建??梢杂行Эs短前景提取時間,而且越是簡單的背景,節(jié)約的處理時間越明顯。

        4 結(jié)論

        本文為了克服傳統(tǒng)混合高斯模型方法計算量大的缺點,提出了對運動目標(biāo)所在區(qū)域建立背景模型的方法,通過與時間平均模型和混合高斯模型進行實驗仿真對比,結(jié)果證明了本文所用方法的有效性。

        [1]趙春暉,潘泉,梁彥,等.視頻圖像運動目標(biāo)分析[M].北京:國防工業(yè)出版社,2011.

        [2]杜文略,劉建梁,沈三民,等.基于FPGA的運動目標(biāo)檢測系統(tǒng)設(shè)計[J].電子技術(shù)應(yīng)用,2014,40(11):36-38,42.

        [3]LIPON A,F(xiàn)UJIYOSHIH,PATIL R.Moving target classification and tracking from real time video[C].Proceedings of IEEE Workshop Applications of Computer Vision,Los Alamitos,CA,1998:8-14.

        [4]BROX T,BRUHN A,PAPENBERG N,et al.High accuracy optical flow estimation based on a theory for warping[C].Proceedings of 8th European Conference on Computer Vision,2004:25-36.

        [5]王強,趙書斌.基于視頻的運動目標(biāo)檢測算法的比較與分析[J].指揮控制與仿真,2012(6):35-40.

        [6]STAUFFER C,GRIMSON W E L.Adaptive background mixture models for real-time tracking[C].Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,1999:246-252.

        [7]曾垂力.結(jié)合高斯混合模型和改進的LSBS的運動目標(biāo)檢測方法[J].微型機與應(yīng)用,2015,34(4):46-48.

        [8]魏晗,陳剛.MATLAB數(shù)字信號與圖像處理范例實戰(zhàn)速查寶典[M].北京:清華大學(xué)出版社,2013.

        [9]潘夏英.圖像邊緣檢測技術(shù)的研究[D].西安:西安科技大學(xué),2011.

        郭?。?988 -),男,碩士,主要研究方向:視頻圖像處理。

        王平(1970 -),男,博士,教授,碩士生導(dǎo)師,主要研究方向:傳感器系統(tǒng)集成技術(shù)、信息融合技術(shù)、生物醫(yī)學(xué)信息處理、嵌入式計算機系統(tǒng)可靠性技術(shù)等。

        引用格式:郭俊,王平.基于改進的混合高斯模型的運動目標(biāo)檢測[J].微型機與應(yīng)用,2016,35(10):30-32,49.

        A moving object deteotion method based on improved mixture Gaussian modeling

        Guo Jun,Wang Ping
        (School of Electrical Engineering and Electronic Information,Xihua University,Chengdu 610039,China)

        Abstract:In this paper,an improved mixture Gaussian background modeling is proposed,which overcomes the shortcomings of traditionalmixture Gaussian background modelingmethod that takes long time for calculation.Through modeling for themoving object region of the video images,it reduces the background modeling area of each frame.Before moving target area is extracted,median filtering ismade on the extracted foreground object,reducing the range ofmovement target area,and compressing background modeling time once again.Finally,the efficiency of the algorithm is verified by comparing with the time average background modeling and the traditionalmixture Gaussian background modeling method.

        Key w ords:moving object detection;moving target;background subtraction;m ixtune Gauss background modeling

        作者簡介:

        收稿日期:(2016-01-16)

        *基金項目:教育部春暉計劃(Z2012029)

        中圖分類號:TP311.1

        文獻標(biāo)識碼:A

        DOI:10.19358 /j.issn.1674-7720.2016.09.011

        亚洲日产精品一二三四区| 日韩精品一区二区亚洲专区| 国产在线视频91九色| 国产又色又爽又黄刺激在线视频| 亚洲国产区男人本色| 国产精品视频一区二区三区,| 国产无卡视频在线观看| 日本边添边摸边做边爱喷水| 国产在线无码制服丝袜无码| 日韩人妻无码精品久久伊人| 91精品国产综合久久国产| 久久黄色视频| 亚洲综合色自拍一区| 日韩亚洲欧美精品| 美女被黑人巨大入侵的的视频| 国产精品videossex久久发布| 欧美老妇与zozoz0交| 亚洲AV无码成人精品区日韩密殿 | 国产主播一区二区三区蜜桃| 免费无码一区二区三区蜜桃| 日韩精品久久久一区 | 狂插美女流出白浆视频在线观看| 免费观看羞羞视频网站| 伊人影院综合在线| 农村国产毛片一区二区三区女| 亚洲最大中文字幕熟女| 国产98在线 | 日韩| 巨臀中文字幕一区二区| 亚洲av手机在线观看| 亚洲人成网网址在线看| 男女男在线精品网站免费观看| 久久99精品免费国产| 免费午夜爽爽爽www视频十八禁 | 亚洲人妻有码中文字幕| 久久精品国产亚洲av麻豆会员| 福利体验试看120秒| 伊人狠狠色j香婷婷综合| 久久这里都是精品99| 亚洲精品熟女国产| 日韩中文字幕一区二区高清| 蜜桃久久综合一区二区|