亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于置信區(qū)域內(nèi)多級(jí)動(dòng)態(tài)層表達(dá)的類(lèi)貫序蒙特卡洛視覺(jué)跟蹤方法

        2016-08-12 06:09:23劉廣怡
        電子學(xué)報(bào) 2016年6期
        關(guān)鍵詞:子塊分塊粒子

        宋 濤,李 鷗,劉廣怡

        (信息工程大學(xué)信息系統(tǒng)工程學(xué)院,河南鄭州 450002)

        ?

        基于置信區(qū)域內(nèi)多級(jí)動(dòng)態(tài)層表達(dá)的類(lèi)貫序蒙特卡洛視覺(jué)跟蹤方法

        宋濤,李鷗,劉廣怡

        (信息工程大學(xué)信息系統(tǒng)工程學(xué)院,河南鄭州 450002)

        視覺(jué)跟蹤是智能監(jiān)控、機(jī)器人和視覺(jué)導(dǎo)航等領(lǐng)域的核心技術(shù).針對(duì)現(xiàn)有類(lèi)貫序蒙特卡洛跟蹤方法復(fù)雜度高、實(shí)時(shí)性差的問(wèn)題,本文提出了一種融合置信區(qū)域內(nèi)多級(jí)動(dòng)態(tài)層表達(dá)的跟蹤方法,采用更加可靠、有效的粒子模擬狀態(tài)后驗(yàn)概率.該方法利用檢測(cè)模塊得到目標(biāo)可能出現(xiàn)的置信區(qū)域,根據(jù)真實(shí)目標(biāo)尺寸給出一種粒子采樣策略,每個(gè)粒子代表一級(jí)動(dòng)態(tài)層表達(dá),并為每個(gè)粒子建立雙層運(yùn)動(dòng)模型;構(gòu)建Mean-Shift分塊觀測(cè)模型以引入空間和外觀信息,同時(shí)根據(jù)子塊的匹配程度計(jì)算粒子權(quán)值、檢測(cè)目標(biāo)遮擋狀態(tài)并提出模型更新策略.在公開(kāi)視頻序列上同經(jīng)典粒子濾波和Mean-Shift等算法的實(shí)驗(yàn)對(duì)比結(jié)果證明了本文算法具有較優(yōu)的跟蹤準(zhǔn)確度和實(shí)時(shí)性.

        視覺(jué)跟蹤;置信區(qū)域;雙層多級(jí)運(yùn)動(dòng)模型;分塊觀測(cè)模型;模型更新

        1 引言

        目標(biāo)跟蹤是計(jì)算機(jī)視覺(jué)領(lǐng)域的關(guān)鍵底層技術(shù),是一項(xiàng)正在不斷創(chuàng)新、發(fā)展和進(jìn)步的熱點(diǎn)研究方向,越來(lái)越多的算法被開(kāi)發(fā)以滿足不同的應(yīng)用需求(比如,智能機(jī)器人、自動(dòng)監(jiān)控系統(tǒng)和人機(jī)交互等).但是,在復(fù)雜環(huán)境下構(gòu)建性能優(yōu)越且兼顧實(shí)時(shí)性的視覺(jué)跟蹤算法仍是一個(gè)極具挑戰(zhàn)性的課題.當(dāng)前主流跟蹤方法大致可以分為兩類(lèi):基于數(shù)據(jù)驅(qū)動(dòng)的確定性方法和基于模型驅(qū)動(dòng)的概率性方法.概率性跟蹤方法將視覺(jué)跟蹤轉(zhuǎn)化為求解目標(biāo)狀態(tài)最大后驗(yàn)概率密度估計(jì)的問(wèn)題,通過(guò)觀測(cè)模型和動(dòng)態(tài)模型將上述兩類(lèi)跟蹤方法融入跟蹤框架,具有良好的跟蹤性能和擴(kuò)展性,其最具代表性的方法是基于粒子濾波的視覺(jué)跟蹤方法.

        粒子濾波算法也被稱(chēng)為貫序蒙特卡洛方法(SMC,Sequential Monte Carlo),能夠處理非線性、非高斯和多模態(tài)問(wèn)題,被廣泛應(yīng)用于視覺(jué)跟蹤領(lǐng)域.近些年來(lái),針對(duì)粒子濾波的改進(jìn)方法主要包括三個(gè)方面:(1)增加粒子數(shù)目,盡可能覆蓋目標(biāo)可能出現(xiàn)的位置;(2)設(shè)計(jì)有效的分配方案使粒子更加接近目標(biāo)后驗(yàn)概率的模式點(diǎn);(3)建立更加魯棒的觀測(cè)模型,提高粒子權(quán)值的可信度.文獻(xiàn)[1]利用交互多模結(jié)構(gòu)(IMM,Interacting Multiple Model)為動(dòng)態(tài)模型引入多種運(yùn)動(dòng)模式,可以有效處理機(jī)動(dòng)目標(biāo),但計(jì)算量較大.為了提高動(dòng)態(tài)模型的預(yù)測(cè)精度同時(shí)減少跟蹤所需的粒子數(shù),文獻(xiàn)[2]在粒子濾波的框架中提出雙層運(yùn)動(dòng)模型來(lái)尋找更加可靠的預(yù)測(cè)點(diǎn),但無(wú)法解決目標(biāo)不規(guī)則運(yùn)動(dòng)問(wèn)題.文獻(xiàn)[3,4]結(jié)合Mean-Shift[5,6]算法構(gòu)造跟蹤方案,將其應(yīng)用于每個(gè)粒子,通過(guò)迭代把粒子移動(dòng)到局部極值點(diǎn),然后利用最小均方誤差得到最終的目標(biāo)狀態(tài).文獻(xiàn)[7]提出了基于馬爾科夫鏈蒙特卡洛粒子濾波方法,通過(guò)增加粒子數(shù)來(lái)提高跟蹤精度,不適合實(shí)際應(yīng)用.文獻(xiàn)[8]建立三維觀測(cè)模型,使粒子濾波的更新階段更加可靠,在復(fù)雜跟蹤環(huán)境中有很好的跟蹤效果,但是三維模型的計(jì)算量大,增加了算法的復(fù)雜度.

        本文根據(jù)上述(2)、(3)的基本思想,提出了一種融合多級(jí)動(dòng)態(tài)層表達(dá)的類(lèi)貫序蒙特卡洛跟蹤方法:在無(wú)需任何先驗(yàn)知識(shí)和建議分布的前提下,通過(guò)建立雙層多級(jí)動(dòng)態(tài)模型預(yù)測(cè)目標(biāo)行為,為Mean-Shift提供準(zhǔn)確的初始搜索位置;利用檢測(cè)模塊得到目標(biāo)可能出現(xiàn)的區(qū)域,根據(jù)真實(shí)目標(biāo)尺寸給出一種粒子采樣策略,每個(gè)粒子獨(dú)立分布并具有唯一性,代表一級(jí)動(dòng)態(tài)層表達(dá),即用最少的粒子覆蓋目標(biāo)可能出現(xiàn)的范圍;利用分塊思想提出一種融合像素點(diǎn)空間信息的Mean-Shift迭代準(zhǔn)則和粒子權(quán)值計(jì)算方法,提高觀測(cè)模型的可靠性.

        2 構(gòu)建雙層多級(jí)運(yùn)動(dòng)模型和基于置信區(qū)域的采樣策略

        2.1雙層多級(jí)運(yùn)動(dòng)模型

        感興趣目標(biāo)的運(yùn)動(dòng)模式主要有兩個(gè)關(guān)鍵要素:速度和方向,大致可以分為兩種類(lèi)型:(1)目標(biāo)勻速運(yùn)動(dòng)或階段性速度變化較為緩慢,且其動(dòng)態(tài)方程可以近似表達(dá)為過(guò)去K個(gè)已修正狀態(tài)的線性組合;(2)目標(biāo)不規(guī)則運(yùn)動(dòng),其加速度、方向等易發(fā)生突然變化.本文根據(jù)上述兩種運(yùn)動(dòng)類(lèi)型建立雙層運(yùn)動(dòng)模型.

        第一層運(yùn)動(dòng)模型,引入目標(biāo)運(yùn)動(dòng)的平滑機(jī)制和限制條件:假設(shè)目標(biāo)速度和方位沒(méi)有發(fā)生突變,且當(dāng)前幀的狀態(tài)滿足前K幀運(yùn)動(dòng)規(guī)律.其本質(zhì)是作為一個(gè)“穩(wěn)定的粒子”來(lái)規(guī)范第二層動(dòng)態(tài)模型的預(yù)測(cè)結(jié)果,防止目標(biāo)在全遮擋、相似性背景或其他目標(biāo)干擾時(shí)發(fā)生漂移.假設(shè)運(yùn)動(dòng)目標(biāo)在半秒鐘內(nèi)不會(huì)發(fā)生大的突變,本文按照25 frame/s的幀率取值K=25/2.

        (1)

        第二層運(yùn)動(dòng)模型也稱(chēng)為多級(jí)動(dòng)態(tài)層表達(dá),主要處理跟蹤過(guò)程中目標(biāo)運(yùn)動(dòng)的不確定性,如發(fā)生突然加速、減速以及方向突變等不規(guī)則運(yùn)動(dòng).本文通過(guò)2.2節(jié)提出的置信區(qū)域采樣構(gòu)建第二層運(yùn)動(dòng)模型.

        2.2置信區(qū)域及采樣策略

        算法1基于置信區(qū)域的粒子采樣方法

        步驟2根據(jù)最近鄰域法來(lái)關(guān)聯(lián)目標(biāo)與其對(duì)應(yīng)的置信區(qū)域.

        3 基于分塊的Mean-Shift和粒子權(quán)值計(jì)算方法

        3.1構(gòu)建真實(shí)目標(biāo)區(qū)域的KGHM模型

        在實(shí)際應(yīng)用中,跟蹤窗口常會(huì)引入大量的背景信息,影響目標(biāo)模型的精確表達(dá).文獻(xiàn)[10]采用局部背景加權(quán)的直方圖模型去除窗口內(nèi)的背景像素,該算法對(duì)復(fù)雜背景變化有良好的跟蹤性能,但額外背景信息的引入增加了算法復(fù)雜度.本文利用圖像分割技術(shù)得到精確目標(biāo)區(qū)域來(lái)建立核高斯混合模型(KGHM,Kernel Gaussian Hybrid Model)[11],在無(wú)需引入額外背景信息的條件下,去除局部背景像素,分割效果如圖1所示.

        在初始幀檢測(cè)感興趣目標(biāo),如圖1(a)所示,白色窗口為所要跟蹤的目標(biāo);利用Canny算子檢測(cè)目標(biāo)的邊緣信息,然后對(duì)目標(biāo)邊緣進(jìn)行角點(diǎn)檢測(cè)以近似確定目標(biāo)真實(shí)輪廓,并根據(jù)目標(biāo)的輪廓信息分割目標(biāo),如圖1(c)所示;通過(guò)對(duì)比目標(biāo)分割前、后的直方圖可以看出,分割之后的目標(biāo)區(qū)域很大程度上消除了局部背景干擾,其對(duì)應(yīng)直方圖也更加緊湊,如圖1(b)和(d)所示.

        本文采用無(wú)參核密度估計(jì)(KDE,Kernel Density Estimation)建立真實(shí)目標(biāo)的概率密度模型:

        (2)

        其中,{fi}i=1,…,n表示真實(shí)目標(biāo)區(qū)域o內(nèi)的n個(gè)像素點(diǎn);ci表示像素點(diǎn)i的色度值;sj表示像素點(diǎn)j的位置坐標(biāo);Cn是目標(biāo)區(qū)域內(nèi)不同色度值的個(gè)數(shù);Sni是目標(biāo)區(qū)域內(nèi)色度值為i的像素點(diǎn)個(gè)數(shù).k()是核函數(shù).式(2)遍歷區(qū)域所有像素,計(jì)算量較大.本文采用分塊統(tǒng)計(jì)的思想將目標(biāo)區(qū)域分為若干子塊,利用空間核估計(jì)遍歷各子塊中心點(diǎn)來(lái)近似全局像素點(diǎn)估計(jì),式(2)轉(zhuǎn)化為:

        (3)

        其中,Bn表示目標(biāo)區(qū)域內(nèi)子塊的個(gè)數(shù);lj是子塊j的中心點(diǎn)坐標(biāo);Ntj表示子塊j中色度值為i的像素點(diǎn)個(gè)數(shù).本文提出以分塊為主線來(lái)指導(dǎo)目標(biāo)建模,式(3)轉(zhuǎn)化為:

        (4)

        其中,Nj表示子塊j中像素點(diǎn)的個(gè)數(shù),cjz表示子塊j中像素點(diǎn)z的色度值.式(4)更加直觀地體現(xiàn)了由目標(biāo)區(qū)域過(guò)渡到目標(biāo)子塊,再過(guò)渡到子塊內(nèi)像素點(diǎn)的建模思想,并利用核函數(shù)融合了各子塊之間的空間信息.

        3.2建立基于分塊的Mean-Shift向量

        在實(shí)際跟蹤應(yīng)用場(chǎng)景中,多個(gè)完全一模一樣目標(biāo)出現(xiàn)的概率極低.大多數(shù)情況下,跟蹤過(guò)程中出現(xiàn)所謂的相似或偽目標(biāo)是指全局特征相似,而局部特征各有不同.如圖2所示的六個(gè)目標(biāo),它們擁有一樣的直方圖特征,但其局部特征卻各不相同;利用分塊的匹配策略完全可以區(qū)分彼此.

        本文采用最基本的分塊方案,按照幾何區(qū)域?qū)⒛繕?biāo)均勻分為m乘n個(gè)互不重疊的子塊.以色度u1為例,對(duì)目標(biāo)的整體區(qū)域和每個(gè)子塊進(jìn)行核函數(shù)加權(quán)的直方圖建模:

        (6)

        其中,ρMS(y)為全局巴氏系數(shù),也是粒子的全局權(quán)值;ρms(y)為各子塊加權(quán)融合巴氏系數(shù),即粒子的局部權(quán)值;b=1,…,B表示子塊的數(shù)目,v(b)決定了每個(gè)子塊的貢獻(xiàn)度/重要程度(距離中心點(diǎn)越近,可靠性越高).

        根據(jù)經(jīng)典Mean-Shift算法的理論框架計(jì)算得到基于目標(biāo)區(qū)域分塊的Mean-Shift向量,如式(7)所示:

        (7)

        其中,l=1,…,L表示像素點(diǎn)的顏色分量;定義:

        4 遮擋處理和模型更新

        4.1遮擋檢測(cè)

        遮擋推理是決定目標(biāo)是否處于遮擋狀態(tài)的輔助機(jī)制,指導(dǎo)系統(tǒng)及時(shí)調(diào)整外觀模型和跟蹤策略.文獻(xiàn)[12]構(gòu)建自遮擋概率圖來(lái)判斷非剛性目標(biāo)的遮擋情況,但該方法比較復(fù)雜、計(jì)算量大,不適用于實(shí)時(shí)跟蹤.本文利用分塊模型和目標(biāo)當(dāng)前幀狀態(tài)提出一種簡(jiǎn)單的推理策略:(1)邊緣像素最先受到遮擋的影響,當(dāng)邊緣子塊的度量函數(shù)開(kāi)始變小而核心子塊正常時(shí),說(shuō)明遮擋開(kāi)始出現(xiàn);(2)多目標(biāo)跟蹤的情況下,通過(guò)目標(biāo)的狀態(tài)和相似性度量函數(shù)來(lái)判斷遮擋目標(biāo)和被遮擋目標(biāo);(3)當(dāng)大部分/所有子塊的度量函數(shù)都變小時(shí),說(shuō)明全遮擋出現(xiàn),僅通過(guò)動(dòng)態(tài)函數(shù)來(lái)繼續(xù)跟蹤目標(biāo).

        4.2遮擋處理及更新機(jī)制

        5 本文跟蹤方法

        本文以貫序蒙特卡洛方法為框架,將雙層多級(jí)動(dòng)態(tài)模型、Mean-Shift分塊觀測(cè)模型、遮擋處理機(jī)制和目標(biāo)模型更新方法相結(jié)合建立視覺(jué)跟蹤方法,如算法2所示.

        算法2置信區(qū)域內(nèi)多級(jí)動(dòng)態(tài)層表達(dá)的類(lèi)貫序蒙特卡洛跟蹤方法

        步驟6根據(jù)4.2節(jié)的更新機(jī)制調(diào)整目標(biāo)模型.并在下一幀循環(huán)步驟2.

        6 實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證所提算法的有效性,本文針對(duì)Mean-Shift[6]、粒子濾波[13]和基于核貝葉斯框架的文獻(xiàn)[14]進(jìn)行了多組對(duì)比實(shí)驗(yàn),包括陰影干擾、目標(biāo)復(fù)雜運(yùn)動(dòng)和全遮擋三個(gè)場(chǎng)景.本文選擇PETS提供的公共標(biāo)準(zhǔn)視頻序列進(jìn)行測(cè)試,且所有實(shí)驗(yàn)都是在Intel雙核2.2GHz CPU、2.0GB內(nèi)存的平臺(tái)上,利用C/C++和OpenCV函數(shù)庫(kù)實(shí)現(xiàn)的.

        本文通過(guò)質(zhì)化評(píng)價(jià)(跟蹤效果圖)和量化評(píng)價(jià)(跟蹤誤差dt、目標(biāo)覆蓋率rt)兩個(gè)方面來(lái)論述算法的有效性;根據(jù)耗時(shí)(實(shí)時(shí)性)來(lái)評(píng)價(jià)算法的運(yùn)行效率.

        (8)

        圖3顯示了本文算法去除陰影干擾的有效性.首先,根據(jù)目標(biāo)檢測(cè)模塊捕捉感興趣目標(biāo),如圖3(a)和(b)所示;框選目標(biāo)可能出現(xiàn)的區(qū)域,從圖3(b)中可以看出,白色矩形框中存在大量的陰影;利用3.1節(jié)目標(biāo)分割方法去除陰影并近似確定目標(biāo)真實(shí)輪廓,從圖3(c)中可以看出,通過(guò)角點(diǎn)的聚集分類(lèi)可以快速去除孤立角點(diǎn)(陰影部分)并確定真實(shí)目標(biāo)范圍,如圖3(d)中的黑色矩形框.

        圖4顯示了本文算法在目標(biāo)復(fù)雜運(yùn)動(dòng)場(chǎng)景中與文獻(xiàn)[6]、[13]和[14]的跟蹤效果對(duì)比圖,其跟蹤窗口分別由白色實(shí)線矩形框、黑色實(shí)線矩形框、白色虛線矩形框和黑色虛線矩形框表示.場(chǎng)景解析:感興趣目標(biāo)為圖像上方的轎車(chē),目標(biāo)在第850幀向西駛?cè)攵∽致房冢㈤_(kāi)始發(fā)生轉(zhuǎn)向;從第878幀至932幀,目標(biāo)先后經(jīng)歷了樹(shù)木的局部遮擋和草坪的大面積局部遮擋.從圖4可以看出,文獻(xiàn)[13]無(wú)法處理目標(biāo)復(fù)雜的運(yùn)動(dòng)形式,其狀態(tài)預(yù)測(cè)階段的誤差逐漸積累,從第878幀開(kāi)始丟失目標(biāo);跟蹤過(guò)程中,由于目標(biāo)發(fā)生了快速轉(zhuǎn)向運(yùn)動(dòng),其幀間移動(dòng)范圍超過(guò)了核函數(shù)的半徑,導(dǎo)致文獻(xiàn)[6]在第878幀搜索不到感興趣目標(biāo),跟蹤失??;文獻(xiàn)[14]利用Mean-Shift迭代得到目標(biāo)的預(yù)測(cè)位置,通過(guò)增加粒子數(shù)彌補(bǔ)預(yù)測(cè)誤差,雖然Mean-Shift算法在第878幀沒(méi)有提供有效預(yù)測(cè),但通過(guò)增加粒子數(shù)仍能找到目標(biāo),而且文獻(xiàn)[14]的模型更新策略可處理半遮擋問(wèn)題.本文算法根據(jù)置信區(qū)域采樣所得到的粒子可以有效捕捉到機(jī)動(dòng)目標(biāo),然后利用分塊Mean-Shift算法尋找目標(biāo)的精確位置,同時(shí)通過(guò)遮擋檢測(cè)和模型更新策略來(lái)解決遮擋問(wèn)題,如圖4所示,本文算法在整個(gè)跟蹤過(guò)程中都可以正確跟蹤感興趣目標(biāo).

        表1 本文算法與文獻(xiàn)[6]、[13]、[14]的跟蹤效率

        跟蹤算法粒子數(shù)耗時(shí)(ms)本文算法528.7文獻(xiàn)[6]022.9文獻(xiàn)[13]10061.8文獻(xiàn)[14]1839.3

        圖5量化反映了本文算法和文獻(xiàn)[6]、[13]、[14]在目標(biāo)復(fù)雜場(chǎng)景下的跟蹤性能;表1根據(jù)各算法所需的粒子數(shù)和運(yùn)行耗時(shí)來(lái)評(píng)價(jià)算法執(zhí)行效率.一般情況下,視頻流幀率為25幀/s,顯示一幀圖像的時(shí)間為40ms,因此,算法的運(yùn)行耗時(shí)小于40ms就可滿足實(shí)時(shí)跟蹤.文獻(xiàn)[6]和[13]在跟蹤過(guò)程中丟失目標(biāo),失去了量化分析的意義;文獻(xiàn)[14]通過(guò)多線索融合使跟蹤窗口逐漸接近真實(shí)目標(biāo),如圖5所示:該方法中心點(diǎn)誤差和覆蓋率均優(yōu)于其他方法,但當(dāng)目標(biāo)發(fā)生不規(guī)則運(yùn)動(dòng)和遮擋時(shí),其需要增加粒子來(lái)擴(kuò)散目標(biāo)搜索范圍,導(dǎo)致算法的執(zhí)行效率下降(如表1所示);綜合圖4、5和表1可以看出,本文算法不但可以有效跟蹤目標(biāo)且具有較好的實(shí)時(shí)性.

        圖6的第一行序列是本文算法、文獻(xiàn)[6]和文獻(xiàn)[14]在全遮擋場(chǎng)景下的跟蹤效果圖,其跟蹤窗口分別由白色實(shí)線框、黑色實(shí)線框和黑色虛線框表示;第二行序列是本文算法對(duì)應(yīng)的檢測(cè)結(jié)果.場(chǎng)景解析:目標(biāo)為地鐵站內(nèi)由南向北行走的行人,目標(biāo)從第3469幀開(kāi)始向東轉(zhuǎn)向出口處,行走過(guò)程中目標(biāo)將遇到立柱的完全遮擋.由圖4可知,傳統(tǒng)粒子濾波方法不能處理目標(biāo)的復(fù)雜運(yùn)動(dòng),因此本文算法只與文獻(xiàn)[6]和[14]進(jìn)行對(duì)比.從圖6第一行的第3511幀和第3522幀可以看出,文獻(xiàn)[6]和[14]的特征匹配策略在目標(biāo)消失的情況下完全失效,導(dǎo)致目標(biāo)丟失并發(fā)生漂移.而本文算法根據(jù)第一層動(dòng)態(tài)模型提供的運(yùn)動(dòng)信息和目標(biāo)檢測(cè)信息依然可以在目標(biāo)重新出現(xiàn)之后找到并繼續(xù)跟蹤目標(biāo),如圖6第一行的第3522幀和第3534幀所示.如圖6第二行的第3431幀所示,檢測(cè)模塊捕捉到兩個(gè)相互疊加的運(yùn)動(dòng)目標(biāo)(白色虛線框),本文算法通過(guò)Mean-Shift迭代找到感興趣目標(biāo)(白色實(shí)線框);當(dāng)目標(biāo)于第3511幀丟失時(shí),在目標(biāo)可能出現(xiàn)的附近檢測(cè)不到任何運(yùn)動(dòng)信息;當(dāng)目標(biāo)在第3522幀和第3534幀出現(xiàn)時(shí),檢測(cè)模塊能重新捕捉到目標(biāo),并通過(guò)Mean-Shift迭代確定其最終位置.

        表2 本文算法與文獻(xiàn)[6]、[14]的跟蹤效率

        圖7和表2量化反映了本文算法和文獻(xiàn)[6]、[14]在全遮擋場(chǎng)景下的跟蹤性能和執(zhí)行效率.從圖7可以看出,當(dāng)全遮擋出現(xiàn)時(shí),文獻(xiàn)[6]、[14]的跟蹤性能迅速惡化,而本文算法始終保持較好的跟蹤性能.如表2所示,三種算法均具有良好的執(zhí)行效率(運(yùn)行耗時(shí)均小于40ms),都可以滿足實(shí)時(shí)性要求較高的應(yīng)用場(chǎng)景.

        7 結(jié)論

        本文提出一種融合置信區(qū)域內(nèi)多級(jí)動(dòng)態(tài)層表達(dá)的類(lèi)貫序蒙特卡洛視覺(jué)跟蹤方法,通過(guò)置信區(qū)域采樣和第一層動(dòng)態(tài)方程得到有效粒子在下一幀不同的預(yù)測(cè)位置;構(gòu)建基于分塊模型的Mean-Shift迭代算法,計(jì)算粒子修正位置和權(quán)值;并依據(jù)子塊的似然程度提出遮擋檢測(cè)和模型更新策略.實(shí)驗(yàn)結(jié)果表明,該方法可以有效處理陰影干擾、目標(biāo)復(fù)雜運(yùn)動(dòng)及全遮擋等問(wèn)題,極大減少了跟蹤過(guò)程所需要的粒子數(shù)量和Mean-Shift迭代次數(shù).同時(shí),該方法具有很好的擴(kuò)展性:在粒子的權(quán)值計(jì)算階段,可以根據(jù)應(yīng)用場(chǎng)景的不同需求來(lái)平衡跟蹤精度與實(shí)時(shí)性之間的權(quán)重比例,構(gòu)建適當(dāng)?shù)耐庥^模型,如:顏色、紋理、梯度或融合各類(lèi)特征的混合模型等.

        [1]Xue J,Zheng N,Geng J.Tracking multiple visual targets via particle-based belief propagation[J].IEEE Transactions on SMC,Part B,2008,38(1):196-209.

        [2]Matej K,Stanislav K.A two-stage dynamic model for visual tracking[J].IEEE Transactions on SMC,Part B,2010,40(6):1505-1520.

        [3]Han H,Ding Y S,Hao K R.An evolutionary particle filter with immune genetic algorithm for intelligent video target tracking[J].Computer & Mathematics with Applications,2011,62(7):2685-2695.

        [4]Chang C,Ansari R.Kernel particle filter for visual tracking[J].IEEE Signal Processing Letters,2005,12:242-245.

        [5]Comaniciu D,Meer P.Mean shift:A robust approach toward feature space analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(5):603-619.

        [6]Comaniciu D,Ramesh V,Meer P.Kernel-based object tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(5):564-577.

        [7]Cong D T,Septier F,Garnier C,et al.Robust visual tracking via MCMC-based particle filter[A].IEEE International Conference on Acoustics,Speech and Signal Processing[C].Kyoto:IEEE Press,2012.1493-1496.

        [8]Brown J A,Capson D W,Member S.A framework for 3D model-based visual tracking using a GPU-accelerated particle filter[J].IEEE Transactions on Visualization and Computer Graphics,2012,18(1):68-80.

        [9]Anderson C,Bert P,Vander W.Change detection and tracking using pyramids transformation techniques[A].Proceedings of SPIE Conference on Intelligent Robots and Computer Vision[C].Cambridge MA:Elsevier Press,1985.72-78.

        [10]Wang L F,Yan H P,Wu H Y.Forward-backward mean-shift for visual tracking with local-background-weighted histogram[J].IEEE Transactions on Intelligent Transportation Systems,2013,14(3):1480-1489.

        [11]Zhou L,Huang K,Tan T.Foreground object detection using top-down information based on EM framework[J].IEEE Transactions on Image Processing,2012,21(9):4204-4217.

        [12]Gay-Bellile V,Bartoli A,Sayd P.Direct estimation of non-rigid registrations with image-based self-occlusion reasoning[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(1):87-104.

        [13]Isard M,Blake A.Condensation-conditional density propagation for visual tracking[J].International Journal of Computer Vision,1998,29(1):5-28.

        [14]Zhang X,Hu W,Bao H.Robust head tracking based on multiple cues fusion in the kernel-Bayesian framework[J].IEEE Transactions on Circuits and Systems for Video Technology,2013,23(7):1197-1208.

        宋濤男,1983年9月出生于河南省焦作市.現(xiàn)為解放軍信息工程大學(xué)信息系統(tǒng)工程學(xué)院博士研究生.主要研究方向?yàn)橛?jì)算機(jī)視覺(jué)和目標(biāo)跟蹤技術(shù).

        E-mail:taosong-1983@126.com

        李鷗男,1961年出生于河南省鄭州市.現(xiàn)為解放軍信息工程大學(xué)信息系統(tǒng)工程學(xué)院教授、博士生導(dǎo)師.主要研究方向?yàn)闊o(wú)線通信網(wǎng)絡(luò)、信息融合和目標(biāo)跟蹤技術(shù).

        E-mail:zzliou@126.com

        Quasi-Sequential Monte Carlo Visual Tracking Based on Multilevel Dynamic Layer Representations in Confidence Region

        SONG Tao,LI Ou,LIU Guang-yi

        (InstituteofInformationSystemEngineering,InformationEngineeringUniversity,Zhengzhou,Henan450002,China)

        Visual tracking is a core technology for the application domains of intelligent monitoring,robotics and vision navigation,etc.Aiming at the problem of high complexity and poor real-time performance in the existing quasi-sequential Monte Carlo tracking algorithms,this paper presents a method based on multilevel dynamic layer representations,which simulates the posteriori probability of a state using more reliable and effective particles.Then a sampling strategy is proposed in confidence areas derived from the detector,in which each particle represents a dynamic representation and has a two-layer motion model.The observation model based on parted-mean-shift is constructed for space and appearance information.Depending on the degree of matching sub-blocks,the weight of particles is calculated and a way to detect the occlusion state of an object is put forward for realtime model update.Experimental results using challenging public video sequences show better accuracy and efficiency of the proposed method,compared with the classical particle filter and mean-shift algorithms,etc.

        visual tracking;confidence region;two-layer multilevel motion model;block-based observation model;model update

        2014-10-30;修回日期:2015-03-23;責(zé)任編輯:覃懷銀

        國(guó)家科技重大專(zhuān)項(xiàng)(No.2014ZX03006003)

        TP319

        A

        0372-2112 (2016)06-1355-07

        猜你喜歡
        子塊分塊粒子
        基于八叉樹(shù)的地震數(shù)據(jù)多級(jí)緩存方法
        基于八叉樹(shù)的地震數(shù)據(jù)分布式存儲(chǔ)方法研究
        基于特征值算法的圖像Copy-Move篡改的被動(dòng)取證方案
        分塊矩陣在線性代數(shù)中的應(yīng)用
        基于波浪式矩陣置換的稀疏度均衡分塊壓縮感知算法
        基于粒子群優(yōu)化的橋式起重機(jī)模糊PID控制
        基于粒子群優(yōu)化極點(diǎn)配置的空燃比輸出反饋控制
        反三角分塊矩陣Drazin逆新的表示
        基于自適應(yīng)中值濾波的分塊壓縮感知人臉識(shí)別
        基于多分辨率半邊的分塊LOD模型無(wú)縫表達(dá)
        中文国产日韩欧美二视频| 全部亚洲国产一区二区| 国产白浆一区二区三区性色| 亚洲精品无码国产| 午夜精品久久久| 视频精品熟女一区二区三区| AV无码免费不卡在线观看| 亚洲男人的天堂色偷偷| 亚洲av无码国产精品久久| 亚洲国产精品福利片在线观看| 国产成人综合久久久久久| 少妇av免费在线播放| 91偷自国产一区二区三区| а√天堂资源官网在线资源| 50岁熟妇的呻吟声对白| 毛片无遮挡高清免费久久| 国产一区二区三区探花| 国产av无码专区亚洲版综合| 欧美日韩视频无码一区二区三| 一个人免费观看在线视频播放| 亚洲国产av高清一区二区三区| 国产私人尤物无码不卡| 国产精品麻花传媒二三区别| 人人妻人人澡av| 亚洲国产中文字幕无线乱码 | 国产丝袜爆操在线观看| 国模雨珍浓密毛大尺度150p| 亚洲欧美日韩激情在线观看| 免费一区二区三区av| 成人影片麻豆国产影片免费观看| 老熟妇乱子伦av| www.亚洲天堂.com| 婷婷色精品一区二区激情| 久久成人国产精品免费软件| 国产成人AV无码精品无毒| av是男人的天堂免费| 激情内射亚洲一区二区三区| 免费无码成人av在线播放不卡| 日本a在线播放| 国产一区资源在线播放| 国产成人精品a视频|