亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于高斯混合模型的光照自適應(yīng)背景減法

        2012-11-22 03:40:20楊文濤鄭國柱鄭立新楊雪
        湖北大學學報(自然科學版) 2012年3期
        關(guān)鍵詞:背景模型

        楊文濤,鄭國柱,鄭立新,楊雪

        (1.華中科技大學電子科學與技術(shù)系,湖北 武漢 430074;2.School of Electronic Engineering,Columbia University,NewYork,USA)

        隨著社會的不斷發(fā)展,智能化的監(jiān)控系統(tǒng)在工業(yè)生產(chǎn)、交通監(jiān)控、銀行安全等各個領(lǐng)域起著越來越重要的作用,實時視頻監(jiān)控系統(tǒng)越來越受到青睞. 在實時視頻監(jiān)控系統(tǒng)的應(yīng)用中,從視頻序列準確地實時獲得運動的物體非常關(guān)鍵,要求運動物體檢測算法有足夠快的處理速度和良好的提取效果.目前有很多典型算法實現(xiàn)視頻序列中的運動物體提取,如高斯混合模型[1-8]、時間差分法[9-10]、非參數(shù)模型[11]、中值濾波法[12]等算法,每種算法都有自己的優(yōu)點和不足.

        本文中提出基于高斯混合模型的帶有光照自適應(yīng)的背景減法,對快速光照變化下的前景提取有較好的處理效果. 采用每次只關(guān)心適合設(shè)定條件的那部分包含背景的單高斯分布,只更新感興趣的那部分高斯分布,另一部分不感興趣的高斯分布在高斯混合模型中的權(quán)重很小,幾乎不影響像素點場景的整體分布和背景分布,可以忽略其對背景提取的影響,這樣可以在不影響背景更新的情況下減少要更新的高斯分布. 由于引入了背景圖像光照補償,由光照變化引起的輸入視頻圖像亮度的變化而引起的前景提取錯誤的情況可以得到更好的處理.

        1 算法分析

        1.1算法思想為了在光照快速變化時能得到更好的分割效果,并且減少運算量,本文中考慮用一種改進的基于高斯混合模型的背景減法. 對每個像素點用不固定個數(shù)且不超過5個的高斯分布來模擬像素點的場景分布,對每個像素點的像素值的分布的更新分3個階段,每個階段都衰減一些不感興趣的高斯分布,這樣每個像素點的感興趣的高斯分布的個數(shù)會隨時間而衰減直至只有穩(wěn)定個數(shù)的包含背景分布的高斯分布.從感興趣的高斯分布中得到背景,對提取的背景進行光照補償,然后進行背景減法,從而減少運算量,改善背景減法的效果.

        1.2 算法實體

        1.2.1 算法初始化 第一幀圖像到來時每個像素點用一個高斯分布初始化

        X0為第一幀圖像的像素值,μk=0,t=0=X0為第一幀圖像的像素點高斯分布的均值,σk=0,t=0=30為標準差,ωk=0,t=0=1為權(quán)重.

        1.2.2 獲取感興趣的高斯分布集合 初始化完成后,從輸入視頻中,每得到一幀圖像就去更新每個像素點的高斯混合分布.為了衰減要更新的高斯分布的個數(shù),把參數(shù)更新分為3個階段,在每一個階段通過高斯分布的的權(quán)重ωi,t-1>Tw,找出對應(yīng)于每個像素點的感興趣的高斯分布集合,這些高斯分布的參數(shù)是要更新的,第一階段的權(quán)重經(jīng)驗閾值取0.025,第二階段取0.050,第三階段取0.100.根據(jù)閾值得到每個階段幀數(shù)的下限值,從而知道每個階段是哪些幀.

        不同的更新階段是通過幀數(shù)來劃分的.更新的第一個階段,是從第一幀到第Tfr幀,感興趣的分布的權(quán)重閾值經(jīng)驗值Tw=0.025.根據(jù)改進的算法的參數(shù)更新方法及公式(3)-(11),基于通過權(quán)重選取感興趣高斯分布的原則,取閾值Tw=0.025,希望感興趣的高斯分布包含了背景信息的一個分布集合,并且這個集合在前40幀生成. 這個集合實際上是把像素點的場景分布較完整的逼近,包括了背景、移動物體、影子等. 如果在第一階段的第40幀后出現(xiàn)了一個像素值,根據(jù)更新條件,若這個像素值無法更新集合里的高斯分布,則這個像素值將不會產(chǎn)生作用,因為感興趣的高斯分布只在集合里. 交通正常的情況下,40幀的圖像里面可以包含豐富的背景信息,40幀后的輸入圖像可以用于對已經(jīng)得到的背景分布進行參數(shù)微調(diào),這些微調(diào)通常是緩慢場景變化造成的.

        為了得到第一階段幀數(shù)的下限,可以考慮一種極端情況,在第40幀,像素點的輸入像素值正好無法更新高斯分布集合,增加一個權(quán)重為0.025的高斯分布. 考慮特殊情況,因為逼近像素點場景分布的高斯分布最多為5個,而權(quán)重和為1,權(quán)重最大的高斯分布的權(quán)重大于(1-Tw)/4,約為0.25,背景分布的權(quán)重會≥0.25,這里假定權(quán)重最大的背景高斯分布fbg在40幀后一直沒有可以更新它的像素值出現(xiàn)直至第Tfr幀. 為了在集合里充分保留所有的描述背景的分布,希望這個分布在第二個更新階段前未被衰減掉,根據(jù)更新標識為i的高斯分布的更新方式,fbg的權(quán)重從第40幀開始衰減的公式為:

        ωn=40ω40/n,n>40

        (1)

        fbg分布在第n幀的權(quán)重為ωn,在更新的第二階段,舍去權(quán)重小于經(jīng)驗閾值為0.05的高斯分布,所以第二階段之前fbg的權(quán)重經(jīng)驗閾值應(yīng)不小于0.05 ,fbg才有機會進入第二階段的更新從而穩(wěn)定已經(jīng)形成的高斯分布集合里的背景高斯分布,讓已經(jīng)存在的背景分布盡可能的存在于每一個更新階段中,即到第Tfr幀時,fbg的權(quán)重要不小于0.05,由公式(1)得到n≤200,取Tfr=200.

        第二階段,在已有的高斯分布集合里進一步舍去不是描述背景的高斯分布. 在第Tfr幀到Tfr2幀取感興趣分布的權(quán)重經(jīng)驗閾值Tw為0.05,為了得到第二階段的幀數(shù)下限,根據(jù)第一階段的特殊情況處理方式,根據(jù)公式(4)、公式(7)和公式(9),從第Tfr幀開始衰減的公式為:

        ωn=200ω200/n,n>200

        (2)

        背景分布fbg分布在第n幀的權(quán)重為ωn,因為第三階段感興趣分布的權(quán)重經(jīng)驗閾值為0.1, 希望背景分布在這個階段前不被衰減掉,即到第Tfr2幀時fbg權(quán)重要不小于0.1,由公式(2)得到n≤500,取閾值Tfr2為500.

        第三階段,取感興趣分布的權(quán)重經(jīng)驗閾值為0.1,進一步衰減不是背景的高斯分布.

        (3)

        此時刻這個像素點的場景分布用N個高斯分布來描述. 在第t幀用像素值分別減去感興趣的每個單高斯分布的期望值,如果|Xt-μi,t-1|≤2.5σi,t-1,那么這個像素值可以更新標識為i的高斯分布,更新方式如下:ωi,t=(1-α)ωi,t-1+α

        (4)

        μi,t=(1-ρ)μi,t-1+ρXt

        (5)

        (6)

        (7)

        (8)

        感興趣的高斯分布但是當前標識不為i,只更新權(quán)重,ωj,t=(1-α)ωj,t-1,j≠i

        (9)

        更新后,對權(quán)重歸一化.

        在第一階段前40幀中,如果第t幀的像素點(x,y)的像素值無法更新感興趣的k個高斯分布,就替換或增加一個單高斯分布μk+1,t=Xt,σk+1,t為一個小的初始值30,

        (10)

        (11)

        對權(quán)重歸一化,感興趣的高斯分布和新的高斯分布成為這個像素點的高斯混合分布.

        1.2.4 背景圖像的光照補償 通常情況下,普通的高斯混合模型能夠描述比較復雜的場景,能夠比較好的處理視頻里有緩慢移動物體或光照緩慢變化的情況,但是在光照突變等產(chǎn)生的輸入視頻圖像整體亮度快速變化而高斯混合模型的背景來不及更新的時候,前景提取就會產(chǎn)生錯誤.

        本文中提出的帶有光照自適應(yīng)改進的高斯混合模型,減少了由這些因素引起的前景提取錯誤,對輸入的圖像和對應(yīng)的從本文中改進的高斯混合模型提取的背景圖像灰度化,分別從這兩幀圖像抽取若干個坐標對應(yīng)的點,這些點盡量選擇輸入視頻圖像的背景像素點. 首先通過邊緣算法得到輸入視頻圖像的邊緣圖像,通過在輸入視頻的邊緣圖像按等間距行等間距列的取點,行距為drow=heightimg/40,如果所在行是奇數(shù)行,就從右向左每隔widthimg/80個像素點取一個點,取點的列坐標范圍為(2widthimg/3,widthimg),如果是偶數(shù)行,從左向右每隔widthimg/80個像素點取點,取點的列坐標范圍為(0,widthimg/3).

        (12)

        (13)

        取點求和結(jié)束后取得這兩個和的差值,計算這兩個和的差值對于所取的像素點個數(shù)pixelcount的平均值,Ecps=(sumin-sumbg)/pixelcount

        (14)

        為了減少光照突變時引起的前景提取錯誤,把這個平均值加入背景減法時背景灰度圖像每個像素點的灰度值,作為對背景圖像的光照補償.

        1.2.5 背景減法提取前景 在第t幀圖像輸入前,首先獲取經(jīng)過光照補償?shù)谋尘盎叶葓D像,用輸入的第t幀灰度圖像減去t時刻的背景灰度圖像,當某個像素點的灰度值差值大于經(jīng)驗閾值Tforeground時,取閾值為20,并認為這個點是前景像素點.

        2 實驗仿真

        帶有光照自適應(yīng)改進的高斯混合模型在320*240交通視頻和關(guān)燈測試視頻下測試.用本文中改進的高斯混合模型算法,交通視頻中每一幀圖像高斯混合模型中像素點個數(shù)隨高斯分布個數(shù)的增加而逐漸減少,運算量隨幀數(shù)增加而減小,如表1所示.

        表1 圖像的高斯分布個數(shù)隨幀數(shù)的變化

        表2 交通視頻序列中不同的灰度差值所占的幀數(shù)

        由于光照變化,交通視頻輸入圖像和本文中改進的算法提取的背景在灰度上的差值,如表2所示. 從實驗中得到,由于光照變化,交通視頻的第1126幀輸入視頻和用高斯混合模型提取的背景的灰度值相差15.

        圖1、圖2、圖3顯示的是本文中改進的高斯混合模型算法與普通的高斯混合模型算法的實驗結(jié)果的比較.圖1(a)原視頻圖像第1126幀,圖1(b)普通的高斯混合模型提取的背景圖像,圖1(c)普通的高斯混合模型提取的前景圖像. 圖2(a)原視頻圖像第1126幀,圖2(b)本文中改進的高斯混合模型算法提取的背景圖像,圖2(c)本文中改進的高斯混合模型算法提取的前景圖像.圖3(a)突然關(guān)燈后的的場景,圖3(b)普通的高斯混合模型在關(guān)燈后提取的背景,圖3(c)本文中改進的高斯混合模型算法在關(guān)燈后提取的背景.

        3 結(jié)論

        在Core(TM)2 Duo 2.0 GHz 處理器2.0 G內(nèi)存的機器VC++ 6.0平臺上做對比實驗,在光照突然變化等環(huán)境下造成的輸入視頻圖像整體的亮度突然變化時,帶有光照自適應(yīng)的改進的高斯混合模型的背景減法的前景提取效果比普通的高斯混合模型好,從實驗可以看出,用改進的基于高斯混合模型的背景減法處理輸入視頻圖像幀率比用普通的高斯混合模型處理輸入視頻圖像幀率要高22.5%以上. 當算法程序運行足夠長的時間后,出現(xiàn)一個物體長期停在某個地方的情況,停留的物體將不會被認為是背景,這樣會造成錯誤. 只有再重新初始化,才會消除這種錯誤,所以這對算法初始化有一定的要求,在交通非堵塞的時候初始化比較適宜.

        [1] Stauffer C, Grimson W. Adaptive background mixture models for real-time tracking[C].Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Fort Collins, Colorado, 1999:246-252.

        [2] Piccardi M. Background subtraction techniques:a review[J].Proc of IEEE Int Conf Syst, Man Cybern, Hague, Netherlands, 2004:3099-3104.

        [3] Zivkovic Z. Improved adaptive gaussian mixture model for background subtraction[J] .Proc International Conf:Pattern Recognition, 2004,2:28-31.

        [4] Shen C, Lin X, Shi Y. Moving object tracking under varying illumination conditions[J].Pattern Recognition Letters, 2006,27(14):1632-1643.

        [5] Mcivor A. Background subtraction techniques[J].In Proceedings of Image & Vision Computing New Zealand 2000 IVCNZ’, Reveal Limited, Auckland, New Zealand,2000:182-185.

        [6] 楊莉,張弘,李玉山.視頻運動對象的自動分割[J].計算機輔助設(shè)計與圖報, 2004,16 (3):3012306.

        [7] 劉潔,張東來.關(guān)于自適應(yīng)高斯混合背景模型的更新算法的研究[J].微計算機信息, 2006, 22 (22):241-242.

        [8] 李紅寶,徐建閩,林培群,等. 交通視頻背景估計動態(tài)高斯混合模型[J].交通信息安全, 2009,4:8-11.

        [9] Harville M. A framework for high-level feedback to adaptive, per-pixel mixture-of-Gaussian background models[C].Proceedings of European Conference on Computer Vision. Copenhagen, Denmark, 2002, 3:543-560.

        [10] Cucchiara R, Piccardi M, Prati A. Detecting moving objects, ghosts,and shadows in video streams[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(10):1337-1342.

        [11] Elgammal A, Harwood D, Davis L. Non-parametric model forbackground subtraction[C].Proceedings of International Conference on Computer Vision, Kerkyra, Greece, 1999:751-767.

        [12] Cutler R, Davis L. View-based detection[C].Proceedings of International Conference on Pattern Recognition,Brisbane, Australia, 1998:495-500.

        猜你喜歡
        背景模型
        一半模型
        “新四化”背景下汽車NVH的發(fā)展趨勢
        《論持久戰(zhàn)》的寫作背景
        當代陜西(2020年14期)2021-01-08 09:30:42
        重要模型『一線三等角』
        黑洞背景知識
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        晚清外語翻譯人才培養(yǎng)的背景
        3D打印中的模型分割與打包
        背景鏈接
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        国语对白精品在线观看| 亚洲伊人久久成人综合网| 尤物AV无码色AV无码麻豆| 最好的99精品色视频大全在线| 色婷婷av一区二区三区久久 | 亚洲精品一区二区三区在线观| 成熟了的熟妇毛茸茸| 国产精品成人国产乱| 欧美日韩国产亚洲一区二区三区 | 婷婷精品国产亚洲av麻豆不片| 成人a级视频在线观看| 精品国产高清一区二区广区| 日韩一区二区三区天堂| 精品人妖一区二区三区四区| 一本一道波多野结衣av中文| 狠狠躁狠狠躁东京热无码专区| 久久精品国产亚洲av一| 插插射啊爱视频日a级| 老熟女重囗味hdxx70星空| 国产成人8x视频网站入口| 日本女优爱爱中文字幕| 午夜精品久久久久久久久| 丁香五香天堂网| 99久久久69精品一区二区三区 | 情侣黄网站免费看| 精品久久久久久蜜臂a∨| 国产自拍视频一区在线| 日日日日做夜夜夜夜做无码| 3d动漫精品啪啪一区二区下载| 国产激情久久久久久熟女老人| 国产91精品在线观看| 天天躁日日躁狠狠躁| 国产成人精品三级麻豆| 中文字幕一区二区在线看| av天堂午夜精品一区| 爽爽午夜影视窝窝看片| 成人国产在线播放自拍| 虎白女粉嫩粉嫩的18在线观看| 一性一交一口添一摸视频| 中文字幕第一页亚洲观看| 亚洲成a人一区二区三区久久|