亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于模糊粒子濾波的視頻跟蹤方法研究

        2013-09-21 05:34:20張廣法劉毅
        船電技術(shù) 2013年11期
        關(guān)鍵詞:高斯分布直方圖背景

        張廣法, 劉毅

        (中國人民解放軍91880部隊(duì),山東膠州 266300)

        0 引言

        攝像機(jī)陣列裝置目前已經(jīng)達(dá)到了低消耗和電荷耦合,其計(jì)算能力越來越強(qiáng)且易于實(shí)現(xiàn)[1]。因此為了提升監(jiān)控效果,在很多應(yīng)用環(huán)境中以增加攝像機(jī)的數(shù)量來增強(qiáng)監(jiān)控的性能。但是,對(duì)于普通的監(jiān)控應(yīng)用系統(tǒng)而言,增加攝像機(jī)數(shù)量的同時(shí)必將導(dǎo)致數(shù)據(jù)的大量增加,并且同時(shí)增加了操控人員以及存儲(chǔ)設(shè)備的負(fù)荷。而且這樣的方法也并不能保證對(duì)敏感區(qū)域進(jìn)行長時(shí)間有效的監(jiān)控。實(shí)際應(yīng)用中,能夠?qū)\(yùn)動(dòng)目標(biāo)保持較好的檢測(cè)和跟蹤是一個(gè)好的智能監(jiān)控系統(tǒng)必須具備的基礎(chǔ)性能之一[2]。

        針對(duì)復(fù)雜條件下的視頻目標(biāo)跟蹤問題,本文提出了一種模糊粒子濾波算法,主要的研究內(nèi)容包括以下幾點(diǎn):1)采用模糊推理技術(shù)有效解決顏色特征向量對(duì)光照突變和相似背景條件下的觀測(cè)模糊性,建立模糊顏色直方圖方法;2)針對(duì)背景建模的難點(diǎn),提出一種自適應(yīng)高斯混合背景建模方法。針對(duì)每一個(gè)像素進(jìn)行單獨(dú)建模為k個(gè)高斯分布的混合模型,能夠自適應(yīng)地處理光照突變等復(fù)雜光照條件下的目標(biāo)跟蹤問題;3)采用模糊量測(cè)作為觀測(cè)似然函數(shù)進(jìn)行粒子更新,并對(duì)不同的模糊量測(cè)進(jìn)行對(duì)比分析,探索不同環(huán)境下最優(yōu)化的模糊量測(cè)信息;4)將模糊量測(cè)技術(shù)引入到視頻多目標(biāo)跟蹤領(lǐng)域中,實(shí)現(xiàn)不同場(chǎng)景中的多目標(biāo)有效跟蹤。

        1 智能視頻監(jiān)控跟蹤方法

        基于靜止攝像機(jī)的彩色視頻圖像多目標(biāo)運(yùn)動(dòng)檢測(cè)跟蹤問題,在室內(nèi)和室外環(huán)境下的處理方法是基本相同的,本章考慮了一個(gè)基于自適應(yīng)的高斯混合模型方案,對(duì)背景進(jìn)行自適應(yīng)的建模處理。其中模糊處理技術(shù)可以用來對(duì)目標(biāo)的后驗(yàn)概率密度進(jìn)行實(shí)時(shí)估計(jì)處理,并在多目標(biāo)關(guān)聯(lián)問題中實(shí)現(xiàn)有效的應(yīng)用?;诖它c(diǎn),本章提出了一種基于模糊推理技術(shù)的模糊推理粒子濾波算法,對(duì)基于不同模糊量測(cè)的視頻跟蹤效果進(jìn)行綜合對(duì)比,并給出相應(yīng)的跟蹤結(jié)果。

        1.1 背景建模

        在文獻(xiàn)[6]中,已經(jīng)詳細(xì)介紹了采用Stauffer–Grimson算法和背景建模方法對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行分割的具體實(shí)現(xiàn)步驟,關(guān)于每一幀圖像中的每一像素的強(qiáng)度值Xt=I(x,y,t)可以通過一個(gè)具有k個(gè)高斯分布的混合模型進(jìn)行近似處理, 并在本文中建立了基于觀測(cè)信息的模型自適應(yīng)更新機(jī)制。

        在時(shí)間t時(shí)刻,{X1,X2,..Xt}表示特殊像素的歷史信息,通過移動(dòng)目標(biāo)在場(chǎng)景中的變換,當(dāng)相應(yīng)變量發(fā)生改變的時(shí)候,可以依靠每一種高斯分布的持久性和方差對(duì)特殊像素進(jìn)行前景和背景分割。將這些自適應(yīng)的高斯混合分布模型視為最有可能的背景過程,其中與“背景”高斯分布最不匹配的像素被分組為前景目標(biāo),將目標(biāo)的觀察概率模型表示為:

        其中,k是高斯分布的數(shù)目,ωi,t是時(shí)間t時(shí)刻混合高斯模型中第i個(gè)高斯分布的相關(guān)權(quán)重估計(jì),且 ωi,t=1,mi,t是時(shí)間t時(shí)刻混合高斯模型中第i個(gè)高斯分布的均值,Σi,t是相關(guān)的協(xié)方差。假設(shè)有 Σ= σ2I,其中 σ2是方差。η是文獻(xiàn)[6]中定

        i,ti,ti,t義的高斯密度函數(shù)。t時(shí)刻第k個(gè)分布的權(quán)重ωi,t可以通過下式進(jìn)行自適應(yīng)更新:

        上式中α被定義為學(xué)習(xí)率,且 Ki,t= { 0,1},其中,1表示已經(jīng)匹配的模型,0表示剩下沒有匹配的模型。其中不匹配分布的均值mi,t和方差保持不變,具體的參數(shù)隨著最新觀測(cè)信息的到來進(jìn)行實(shí)時(shí)的更新,具體的更新公式如下:

        為了實(shí)際應(yīng)用的需要將相應(yīng)的結(jié)果近似為α。在實(shí)際的試驗(yàn)中,如果某一個(gè)像素經(jīng)常出現(xiàn)并且基本保持不變的話,就將其視為背景。為了進(jìn)行有效的建模,采用ω/σ對(duì)建模中采用的高斯模型進(jìn)行管理。當(dāng)前分布的增益獲取更多的證據(jù)或者是方差減少的時(shí)候,ω/σ的值就會(huì)增加。這種方式的管理是一種很有效的在線管理方法,采用開始-結(jié)束的方式,根據(jù)相應(yīng)的權(quán)重高低比例,使得最有可能成為背景的分布仍然在頂部,最沒有可能成為瞬間背景的分布趨向于系統(tǒng)低端,并且最后將被新的分布所取代。為了有效區(qū)分背景,這里通過整體考慮系統(tǒng)的先驗(yàn)概率T的方法來區(qū)分背景,當(dāng)?shù)谝粋€(gè)關(guān)于狀態(tài)聚集的B概率達(dá)到了T的時(shí)候就被認(rèn)為是背景的一部分,其具體的表達(dá)式如下:

        其中,T被解釋為背景的應(yīng)該占據(jù)的最小比例部分的量測(cè)值。為了跟蹤多個(gè)目標(biāo),將檢測(cè)到的前景目標(biāo)用于本文提出的模糊PF方法。

        1.2 模糊顏色特征

        在FCH方法中,通過模糊度隸屬函數(shù)建立相應(yīng)的直方圖方格(bin),其中,F(xiàn)CH 通過F(I) = {f1,f2,...,fj}表示,這里fj通過以下函數(shù)進(jìn)行定義:

        ui,j是第i個(gè)像素在第j個(gè)顏色bin中的值,pi是像素的概率,從圖像中選擇的也就是第i個(gè)像素,N是像素的綜合。 魯棒的顏色直方圖首先通過量化在RGB顏色空間的n個(gè)顏色bins決定。更進(jìn)一步地,為了減輕 RGB顏色空間的不均勻性,每一個(gè)像素的顏色從 RGB空間映射到CIEL a*b*顏色空間。本文采用基于c均值計(jì)算的FCM顏色直方圖轉(zhuǎn)換,其中,c要小于n. 這里c的粗糙顏色bins代表模糊聚類中心,而且通過利用 FCM 技術(shù),使得每一個(gè)好的(細(xì)小的)顏色bin的結(jié)構(gòu)通過粗糙的顏色 bins決定。對(duì)于同一的顏色空間,F(xiàn)CM為最小化目標(biāo)函數(shù),其具體的決定公式如下式(3.10)所示:其中,M是一個(gè)成員函數(shù)矩陣, F ={f1,f2,...,fc}T是未知的聚類模型的向量,ui,j代表第i個(gè)相應(yīng)于集合X={X1,X2,..Xt}的成員函數(shù),該集合屬于第j個(gè)聚類。指數(shù)m控制著成員函數(shù)的模糊程度通過c聚類進(jìn)行分享。聚類中心和成員函數(shù)值通過式(8)和式(9)以下表達(dá)式進(jìn)行迭代計(jì)算。具體的 FCM計(jì)算可以通過 Fc×1=Mc×n×Hn×1表示,其中,Hn×1的n個(gè)bin 是RGB空間到CIEL a*b*空間轉(zhuǎn)化的細(xì)小顏色直方圖,Mc×n是基于ui,j的成員矩陣代表第i個(gè)詳細(xì)顏色bin,在實(shí)際應(yīng)用過程中,這些取值均可以采用離線狀態(tài)預(yù)先計(jì)算出相應(yīng)的結(jié)果。

        1.3 模糊量測(cè)信息

        從模糊直方圖中得到的圖像特征集合可以形成不同的模糊量測(cè)值,在基于模糊量測(cè)技術(shù)的視頻目標(biāo)跟蹤中,模糊量測(cè)信息已經(jīng)被廣泛應(yīng)用于多目標(biāo)之間的相互關(guān)聯(lián)。本節(jié)主要討論當(dāng)前采用的幾種重要的模糊量測(cè)信息,并給出詳細(xì)的計(jì)算表達(dá)式。

        1) 基于最大最小比率的量測(cè)。基于最大和最小成員值的模糊量測(cè)。在兩幅圖形中,采用第i個(gè)直方圖相應(yīng)于成員值的變量ui,1和ui,2進(jìn)行相似性計(jì)算,在完全相似的情況下其值為 1,具體的計(jì)算式如下:

        2) 基于對(duì)比的深度增強(qiáng)量測(cè)。該量測(cè)信息主要是基于對(duì)比的深度增強(qiáng)量測(cè)信息,對(duì)于相同的場(chǎng)景其相似值為 1,其中 | ui,1-ui,2|為 0,具體的計(jì)算表達(dá)式為:

        3) 基于歸一化的絕對(duì)差的量測(cè)。這種量測(cè)是基于從模糊直方圖計(jì)算兩個(gè)成員函數(shù)值歸一化的絕對(duì)差。這種量測(cè)可以實(shí)現(xiàn)對(duì)圖像序列中的目標(biāo)進(jìn)行實(shí)時(shí)的檢測(cè),其具體的計(jì)算表達(dá)式為:

        4) 基于模糊散度的量測(cè)。兩個(gè)模糊直方圖之

        間的模糊散度量測(cè)可以表示為:

        根據(jù)文獻(xiàn)[3][4]的描述,imag1,imag2之間的相似性與散度是成反比的。散度越小,兩幅圖形就越相似,反之相似度越低。對(duì)于兩幅完全相同的圖形,其散度為0。

        5) 基于集論方法的量測(cè)。Tversky借鑒人類的相似感知特性提出了一種特征對(duì)比模型,將度量空間的點(diǎn)集考慮為二進(jìn)制的點(diǎn)特征,該概念被擴(kuò)展為彩色圖像之間的相似性。文獻(xiàn)[7]提出了一種進(jìn)行圖像區(qū)域特征抽取的更具普遍意義的Tversky索引(Tversky index, GTI)量測(cè)。其具體的計(jì)算表達(dá)式為:

        GTI的主要思想就是基于人類的感知特性提供量測(cè)信息的定向評(píng)價(jià),其中α和β的值決定了兩幅圖像有差別的特征相對(duì)重要性。

        2 實(shí)驗(yàn)與結(jié)果分析

        為了驗(yàn)證本文算法的有效性,該部分采用Internet提供的標(biāo)準(zhǔn)測(cè)試序列進(jìn)行了多組實(shí)驗(yàn)分析,主要進(jìn)行了室內(nèi)與室外兩種不同情況下的跟蹤測(cè)試,具體的測(cè)試內(nèi)容主要包括不同光照條件下的跟蹤結(jié)果等。本章算法在CPU 1.5 GHz的PC處理器上運(yùn)行。其中室外的測(cè)試序列主要是針對(duì)兩個(gè)運(yùn)動(dòng)的男孩,并且在視頻序列中出現(xiàn)交叉現(xiàn)象且出現(xiàn)消失現(xiàn)象的跟蹤,具體如圖1所示。其中視頻的獲取的幀率為25 ft/s,檢測(cè)到的前景如圖2所示。

        為了進(jìn)行有效的前景分割,首先要對(duì)背景模型進(jìn)行估計(jì),其中的第一步就是對(duì)背景建模進(jìn)行有效的初始化處理,在進(jìn)行跟蹤初始化的時(shí)候參量的第一次初始化主要取決于背景的檢測(cè)結(jié)果,在系統(tǒng)出現(xiàn)明顯光照改變的情況下,參數(shù)需要重新設(shè)置,目前通用的方法就是采用獨(dú)立的光照檢測(cè)器對(duì)光照突變環(huán)境進(jìn)行實(shí)時(shí)的檢測(cè)處理并給出判斷標(biāo)準(zhǔn)。

        為進(jìn)一步檢驗(yàn)本文算法的有效性,在實(shí)驗(yàn)中分別基于本文方法對(duì)夜間公路上行駛的車輛和室內(nèi)走廊中交互運(yùn)動(dòng)的行人進(jìn)行了相應(yīng)的檢測(cè)跟蹤,圖3到圖5給出了采用本文方法中利用FGTI量測(cè)信息的跟蹤結(jié)果,其中不同的α取值可以獲得不同的跟蹤效果,具體的跟蹤效果如圖4~圖6所示。從圖中可以看出,在基于相同的測(cè)試序列、相同的觀測(cè)信息時(shí),本文方法表現(xiàn)出了更好的跟蹤效果和跟蹤魯棒性。

        3 結(jié)論

        本文針對(duì)光照突變等情況下的目標(biāo)魯棒跟蹤問題,提出了一種基于模糊推理技術(shù)的模糊粒子濾波算法,該算法采用5種不同的模糊量測(cè)技術(shù),根據(jù)不同的場(chǎng)景環(huán)境需求,將相應(yīng)的 RGB顏色空間模型映射到CIEL a*b*顏色空間進(jìn)行運(yùn)算,并提出了基于模糊顏色直方圖的觀測(cè)信息。實(shí)驗(yàn)證明了本章方法具有較好的抗光照突變特性和多目標(biāo)關(guān)聯(lián)特性,是一種有效的視頻序列目標(biāo)跟蹤方法。

        [1]曲彥文,張二華,楊靜宇. 改進(jìn)的無跡粒子濾波算法[J]. 控制理論與應(yīng)用, 2010, 27(9):1152-1158.

        [2]余孟澤,劉正熙,駱鍵等. 基于改進(jìn)粒子濾波的魯棒目標(biāo)跟蹤算法[J].光電子·激光, 2011,22(5):766-770.

        [3]龔俊亮,何昕,魏仲慧等. 采用改進(jìn)輔助粒子濾波的紅外多目標(biāo)跟蹤[J]. 光學(xué)精密工程, 2012,20(2):414-421.

        [4]Chunlin Wu, Chonzhao Han. Quadrature Kalman particle filter[J]. Systems Engineering and Electronics,2010, 21(2): 175-179.

        [5]石勇,韓崇昭. 自適應(yīng)UKF算法在目標(biāo)跟蹤中的應(yīng)用[J]. 自動(dòng)化學(xué)報(bào),2011, 37(6):755-759.

        [6]Wang Chong, Wang Wenyuan. Links between PPCA and subspace methods for complete gaussian density estimation [J]. IEEE Transactions on Neural Network,2006, 17(3):789-792.

        猜你喜歡
        高斯分布直方圖背景
        統(tǒng)計(jì)頻率分布直方圖的備考全攻略
        符合差分隱私的流數(shù)據(jù)統(tǒng)計(jì)直方圖發(fā)布
        “新四化”背景下汽車NVH的發(fā)展趨勢(shì)
        利用Box-Cox變換對(duì)移動(dòng)通信中小區(qū)級(jí)業(yè)務(wù)流量分布的研究
        《論持久戰(zhàn)》的寫作背景
        2種非對(duì)稱廣義高斯分布模型的構(gòu)造
        用直方圖控制畫面影調(diào)
        一種基于改進(jìn)混合高斯模型的前景檢測(cè)
        晚清外語翻譯人才培養(yǎng)的背景
        基于直方圖平移和互補(bǔ)嵌入的可逆水印方案
        国产精品久久久久久久久免费观看| 蜜臀av一区二区三区精品| 手机在线中文字幕国产| 国产视频一区二区三区在线看| 日产精品毛片av一区二区三区| 一区二区三区午夜视频在线| 久久人妻少妇嫩草av| 曰韩无码二三区中文字幕| 日本亚洲欧美在线观看| 亚洲国产av剧一区二区三区| 免费人成在线观看播放视频| 亚洲av天堂在线视频| 国产精品激情| 婷婷亚洲综合五月天小说| 精品系列无码一区二区三区| 性感的小蜜桃在线观看| 美腿丝袜诱惑一区二区| 影音先锋中文字幕无码资源站| 亚洲 高清 成人 动漫| 在线看亚洲十八禁网站| 亚洲中文字幕国产综合| 91精品国产九色综合久久香蕉 | 精品厕所偷拍一区二区视频| 久久综合丝袜日本网| 一道久在线无码加勒比| 69搡老女人老妇女老熟妇| 蜜臀av一区二区三区精品| 加勒比精品视频在线播放| 一二区成人影院电影网| 少妇人妻陈艳和黑人教练| 亚洲欧洲日产国码无码AV一| 久久精品国产只有精品96| 视频精品亚洲一区二区| 日本va中文字幕亚洲久伊人| 国产精品无码无卡无需播放器| 国产在线观看www污污污| 第十色丰满无码| 丰满人妻被持续侵犯中出在线| 无码人妻久久一区二区三区免费丨| 国产在线精品一区在线观看| 91华人在线|