亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于幀間差分的混合高斯背景建模

        2016-06-16 01:33:46張曉濱西安工程大學(xué)計算機學(xué)院西安710048
        微處理機 2016年2期
        關(guān)鍵詞:響應(yīng)速度目標檢測

        李 煒,張曉濱(西安工程大學(xué)計算機學(xué)院,西安 710048)

        ?

        一種基于幀間差分的混合高斯背景建模

        李 煒,張曉濱
        (西安工程大學(xué)計算機學(xué)院,西安710048)

        摘 要:根據(jù)武警勤務(wù)視頻監(jiān)控系統(tǒng)對實時性的要求,在混合高斯建模的基礎(chǔ)上,提出一種基于幀間差分法的混合高斯背景建模方法。該方法通過幀間差分法把圖像分為感興趣區(qū)域和非感興趣區(qū)域,對不同區(qū)域采用不同的更新方法,降低了資源利用率和計算復(fù)雜度,提高了背景重建的速度,從而提高了目標檢測的響應(yīng)速度,保證了實際應(yīng)用需求。

        關(guān)鍵詞:混合高斯建模;減背景法;幀間差分法;自適應(yīng)更新;目標檢測;響應(yīng)速度

        1 引 言

        目標檢測的方法一般有:光流法、幀間差分法、減背景法[1-4]。其中光流法攜帶了豐富的運動目標信息,能夠快速的適應(yīng)場景的變化,但是由于存在計算耗時的問題,不能滿足實時系統(tǒng)的要求。幀間差分法的基本原理就是相鄰幀的圖像對應(yīng)像素點的灰度值相減,通過差分圖像進行二值化處理以確定運動目標。幀間差分法的主要優(yōu)點是[5]:算法實現(xiàn)簡單,程序復(fù)雜度低;不存在背景獲取、更新和存儲的問題,對場景中光線的變化不太敏感,實時性好。減背景法基本思路是從當前圖像中減去參考圖像,是研究的熱門。

        跟據(jù)武警勤務(wù)視頻系統(tǒng)對實時性的要求,首先通過分析混合高斯建模特點,提出一種改進混合高斯建模方法:首先利用幀間差分法,把圖像分為目標感興趣區(qū)域和非感興趣區(qū)域,對感興趣區(qū)域及目標運動區(qū)域采用混合高斯的背景方法,對于非感興趣區(qū)域采用單高斯建模,隨著圖像學(xué)習會逐漸聚集出一片固定區(qū)域,然后在這個區(qū)域采用自適應(yīng)的混合高斯建模。

        2 混合高斯建模

        圖像中各個像素點的特征用K個高斯模型表示,當獲得新一幀圖像后更新混合高斯模型,用當前圖像中的每個像素點與混合高斯模型匹配,如果成功則判定該點為背景點,否則為前景點[6]。高斯模型主要由方差和均值兩個參數(shù)決定,的學(xué)習采取不同的機制,將影響模型的穩(wěn)定性、精確性和收斂性?;旌细咚鼓P偷臄?shù)學(xué)表達為:

        一般K取3-5之間,ωi,t是t時刻第i個部分的權(quán)重,η(Xt,μi,t,∑i,t)是t時刻第i個部分的高斯函數(shù),μi,t和∑i,t分別表示像素的均值和協(xié)方差矩陣。

        在實際使用中,為了簡化計算,常使用K-means聚類方法近似實現(xiàn)匹配和更新。當輸入像素滿足匹配條件|X-μi|〈2.5σi時,將其歸入該高斯模型,在檢測完前景之后,需要根據(jù)判定的像素前、背景屬性對高斯模型進行更新。若K個高斯分布中沒有一個與之匹配,該像素被認為是前景,則用一個新的高斯分布取代權(quán)重最小的高斯分布。新分布的期望值即為當前像素值,同時為它分配一個較大的初始方差和較小的初始權(quán)重。針對光線變化的問題及匹配成功,則按照如下方法更新模型各參數(shù)。

        對于不匹配的各模型,保持它們的均值和方差不變,權(quán)值更新為:

        通過上面描述可以知道,第一,在背景重建時高斯混合建模是用K個高斯模型來表征每個像素。第二,對于高斯背景模型的更新采用迭代式,對新進入的每一幀圖像和背景幀比較進行更新,規(guī)則如上式(3)、(4)、(5)、(6)所示。而在實際的監(jiān)控場景中視頻畫面在一段時間內(nèi)保持相對穩(wěn)定,相鄰的幾幀圖像在沒有運動物體的闖入時它們的像素值幾乎沒有變化。如果我們采用傳統(tǒng)混合高斯建模的方法會造成很大的資源浪費,增加計算復(fù)雜度。

        此外,混合高斯背景建模方法大多采用固定高斯成分個數(shù)的方法,像素混合高斯模型中的每個高斯成分對應(yīng)場景的一個狀態(tài)。對于一幅圖像而言并非所有的像素都由K個高斯模型混合組成,場景中大多數(shù)區(qū)域只需要一個高斯成分就可以表示,而在那些頻繁變化的區(qū)域像素混合高斯模型中的高斯成分個數(shù)會自適應(yīng)地由一個增加為兩個甚至三個[7]。

        3 混合高斯模型的改進

        高斯混合模型的提出是為了解決單高斯模型的局限性,單高斯模型是用一個高斯分布來表示每個像素,這樣的缺點是不利于背景與目標的分離,容易造成較高的虛警率。換句話說,在沒有運動物體的背景模型中采用單高斯建模完全可以表示背景[8]。結(jié)合上述,對混合高斯模型的改進提供了一種思路。首先通過相鄰兩幀差分,把圖像分為目標感興趣區(qū)域和非感興趣區(qū)域,對于非感興趣區(qū)域采用單高斯建模,對于背景的更新可采用在線定時更新。

        對感興趣區(qū)域及目標運動區(qū)域采用混合高斯的背景建模方法,具體實現(xiàn)方法如下:

        (1)初始,給每個像素的混合高斯模型設(shè)置一個高斯成份;

        (2)對于目標感興趣區(qū)域:隨著場景的變化,當像素的高斯模型與當前像素值不匹配時,則自動地增加一個以當前值為均值的初始高斯成分。依次類推,直到該像素混合高斯模型中的高斯成分個數(shù)達到設(shè)定的最大值,此時用以當前像素值為均值的新的高斯成分代替該像素混合高斯模型中排在最后一個的高斯成分。

        (3)刪除過期的高斯成分:在模型更新完成后,根據(jù)下式判斷每個像素混合高斯模型中的最后一個高斯成分是否過期,如果過期則刪除。

        其中,ωij,t代表某個高斯成分的權(quán)重,ωinit代表初始權(quán)重,σij,t代表某個高斯分布的方差,σinit代表初始方差。

        4 試驗與總結(jié)

        經(jīng)實驗表明,采用上述方法,節(jié)省了計算資源,提高了運行速度,圖1給出了傳統(tǒng)高斯混合建模和本文提出的自適應(yīng)高斯建模,在幾種標準視頻庫(PETS2000、Campus、Suburb)上測試的結(jié)果。實驗初始化時在第1幀場景中每個像素的混合高斯模型只設(shè)置一個高斯成份,在所有測試序列中所采用的參數(shù)如下:Kmax=3,α=0.001,σinit=30,ωinit=0.05,δ=2.5。其中橫坐標為幾種標準視頻庫,縱坐標為處理所需的時間。

        從圖1可以看出,本算法和傳統(tǒng)高斯建模的處理速度相比有顯著提高。其中,隨著背景復(fù)雜程度的增加,每個像素的混合高斯模型需要更多的高斯成分,因此復(fù)雜場景背景建模(如序列Suburb)的處理時間會隨之增加。

        算法的改進,在勤務(wù)視頻監(jiān)控平臺中具有一定的實用價值,它可以幫助執(zhí)勤官兵對非法入侵的物體或人做出快速反應(yīng),提高他們的執(zhí)勤效率。

        圖1 改進的MOG與傳統(tǒng)的MOG算法的處理速度

        總之,通過使用幀間差分和自適應(yīng)高斯模型對高斯背景建模算法的改進縮短了建模所需的時間,從而縮短了目標檢測響應(yīng)所需的時間,滿足了武警勤務(wù)對視頻實時性的要求。

        參考文獻:

        [1]Barron J,F(xiàn)leet D,Beauchemin S.Performance of optical flow techniques[J].International Journal of Computer Vision,1994,12(1):42-77.

        [2]Shahrizat Shaik Mohamed,Nooritawati Md Tahir.Background Modeling and Background Subtraction Performance for Object Detection[J].2010 6th International Colloquium on Signal Processing & Its Applications(CSPA),2010:236-241.

        [3]Rauf Kh,Sadykhov.Background Substraction in Grayscale Images Algorythm[J].The 7th IEEE International Conference on Intelligent Data Acquisition and Advanced Computing Systems:Technology and Applications,2013,12(14):425-428.

        [4]Senst T,Evangelio R H,Sikora T.Detecting people carrying objects based on an optical flow motion model[A].2011 IEEE Workshop on Applications of Computer Vision [C].IEEE,2011:301-306.

        [5]陳俊超,張俊豪,劉詩佳,陸小鋒.基于背景建模與幀間差分的目標檢測改進算法[J].計算機工程,2011 (S1):171-173.Chen Junchao,zhang jun-hao,Liu Shijia,Lu Xiaofeng.target detection based on background modeling and interframe difference algorithm[J].Computer Engineering,2011(2):171-173.

        [6]GuanY-P.Spatio-temporal motion-based foreground segmentation and shadow suppression[J].IEEE Transactions on IET Computer Vision,2010,4(1):50-60.

        [7]陳世文,蔡念,唐孝艷.一種基于高斯混合模型的運動目標檢測改進算法[J].現(xiàn)代電子技術(shù),2010,33(2):125-130.ChenShi-wen,CaiNian,Tang Xiaoyan.A moving target detection algorithm based on gaussian mixture model[J].Journal of modern electronic technology,2010,33(2):125-130.

        [8]陳建凱,陳繼榮.適應(yīng)場景亮度快速變化的背景重建算法[J].計算機工程與應(yīng)用,2010,46(8):183-186.Chen Jiankai,Chen ji-rong.to adapt to the scene brightness rapidly changing background reconstruction algorithm [J].Computer engineering and application,2010,46(8):183-186.

        A Mixed Gauss Background Modeling Based on Frame Difference

        Li Wei,Zhang Xiaobin
        (School of Computer Science,Xi’an Polytechnic University,Xi’an 710048,China)

        Abstract:By analyzing the principle of Gaussian mixture modeling and combined with the armed police service requirement of real-time video monitoring system,a method for mixed Gaussian background modeling,based on inter-frame difference one,is put forward in this article,which divides the image into interest areas and non interest ones by the frame difference method,employs different updating method for different areas to reduce the use of the resources and computation complexity,and increases the speed of background reconstruction to improve the response speed of the target detection and ensure the needs of practical application.

        Key words:Gaussian mixture modeling;Subtract background method;Frame differential method;Adaptive updating;Target detection;Response speed

        DOI:10.3969/j.issn.1002-2279.2016.02.018

        中圖分類號:TP391

        文獻標識碼:A

        文章編號:1002-2279(2016)02-0070-03

        作者簡介:李煒(1990-),男,陜西省禮泉縣人,碩士研究生,主研方向:信息系統(tǒng)的開發(fā)與研究。

        收稿日期:2015-05-21

        猜你喜歡
        響應(yīng)速度目標檢測
        Kubernetes容器集群環(huán)境下新型供電系統(tǒng)響應(yīng)速度優(yōu)化
        基于高速相位調(diào)制器的超快偏振控制
        光通信研究(2020年2期)2020-06-15 07:42:58
        礦井智能通風系統(tǒng)優(yōu)化研究
        電磁閥響應(yīng)速度的影響因素
        視頻中目標檢測算法研究
        軟件(2016年4期)2017-01-20 09:38:03
        行為識別中的人體運動目標檢測方法
        移動機器人圖像目標識別
        基于背景建模法的運動目標檢測
        基于P3電位的目標檢測研究
        科技視界(2016年4期)2016-02-22 13:09:19
        一種改進的峰均功率比判源方法
        久久国产劲爆内射日本| 精品久久久久久国产潘金莲| 亚洲成AV人片无码不卡| 精品国产一区二区三区毛片| 亚洲熟妇av一区二区三区hd| 人妻熟女翘屁股中文字幕| 亚洲永久免费中文字幕| 91精品国产在热久久| 中文字幕久久熟女蜜桃| 久久久久99精品成人片试看| 亚洲色婷婷免费视频高清在线观看| 久久精品国产只有精品96 | 亚洲中文久久精品无码ww16| 亚洲国产精品久久久久久网站| 亚洲乱码一区AV春药高潮| 亚洲熟妇一区二区蜜桃在线观看| 亚洲一区二区三区中国| 精品无码无人网站免费视频 | 精品系列无码一区二区三区| 色噜噜色哟哟一区二区三区| 国产乱码精品一区二区三区久久 | 国产成人美涵人妖视频在线观看| 久久久久99人妻一区二区三区| 老太脱裤子让老头玩xxxxx| 亚洲巨乳自拍在线视频| 免费无码中文字幕A级毛片| 极品美女销魂一区二区三| 情av一区二区三区在线观看| 中文字字幕人妻中文| 黑人巨大无码中文字幕无码| 欧美成人三级一区二区在线观看| 久国产精品久久精品国产四虎 | 男人天堂这里只有精品| 让少妇高潮无乱码高清在线观看| 亚洲学生妹高清av| 人妻丰满熟妇AV无码片| 用力草我小逼视频在线播放| 偷拍一区二区三区四区视频| 大学生粉嫩无套流白浆| 亚洲精品久久无码av片软件| 国产自产拍精品视频免费看|