亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)的Mean Shift魯棒跟蹤算法

        2016-01-08 05:41:30徐海明,黃山,李云彤

        基于改進(jìn)的MeanShift魯棒跟蹤算法*

        徐海明1,黃山1,2,李云彤1

        (1.四川大學(xué)電氣信息學(xué)院,四川 成都 610065;2.四川大學(xué)計(jì)算機(jī)學(xué)院,四川 成都 610065)

        摘要:Mean Shift跟蹤算法在目標(biāo)尺度變化大和被遮擋時(shí)存在較大的缺陷。針對(duì)這一問(wèn)題,提出了一種基于多級(jí)正方形匹配的自適應(yīng)帶寬選擇和分塊抗遮擋的目標(biāo)跟蹤算法。該算法采用目標(biāo)中心點(diǎn)的離散程度和增量試探法計(jì)算出可能的變化尺度,然后采用多級(jí)正方形匹配法預(yù)測(cè)目標(biāo)的運(yùn)動(dòng)趨勢(shì),將巴氏系數(shù)最大者的尺度作為Mean Shift核函數(shù)新的帶寬。同時(shí),對(duì)前景目標(biāo)進(jìn)行分塊,根據(jù)子塊的遮擋程度自適應(yīng)改變子塊權(quán)重并按一定準(zhǔn)則融合有效子塊的跟蹤結(jié)果。實(shí)驗(yàn)結(jié)果表明,該算法具有很好的魯棒性。

        關(guān)鍵詞:Mean Shift;目標(biāo)跟蹤;多級(jí)正方形匹配;分塊

        中圖分類號(hào):TP391.41 文獻(xiàn)標(biāo)志碼:A

        doi:10.3969/j.issn.1007-130X.2015.06.019

        收稿日期:*2014-07-14;修回日期:2014-09-24

        作者簡(jiǎn)介:

        通信地址:610065 四川省成都市四川大學(xué)望江校區(qū)基礎(chǔ)教學(xué)樓B217

        Address:Room B217,Basic Teaching Building,Wangjiang Campus,Sichuan University,Chengdu 610065,Sichuan,P.R.China

        ArobusttrackingalgorithmbasedonimprovedMeanShift

        XUHai-ming1,HUANG Shan1,2,LIYun-tong1

        (1.CollegeofElectricalEngineeringandInformation,SichuanUniversity,Chengdu610065;

        2.CollegeofComputerScience,SichuanUniversity,Chengdu610065,China)

        Abstract:The Mean Shift algorithm has a defect in handling moving targets with large scale change or being obscured. In order to solve this problem, we propose a bandwidth-adaptive and anti-blocking tracking algorithm based on multi-level square matching and fragment. The proposed algorithm uses the centroid deviation of the target model and the bandwidth trials method to compute the possible scales. The motion trend of the target is predicted through the multi-level square matching method, and the scale of the largest Bhattacharyya distance of the candidate targets is selected as the new bandwidth of the Mean Shift kernel function. At the same time, we divide the target into several fragments, adaptively change their weights according to the degree of being obscured, and then fuse the results of effective fragments under certain rules. Experimental results show that this algorithm has good robustness performance on tracking targets.

        Keywords:MeanShift;objecttracking;multi-levelsquarematching;fragment

        1引言

        基于MeanShift的跟蹤算法本質(zhì)上是一種梯度下降方法,對(duì)該算法進(jìn)行迭代直至收斂到相似性函數(shù)的局部極大值。ComaniciuD等人[1]提出的MeanShift算法就是利用目標(biāo)的顏色直方圖和MeanShift向量尋找到最相似的團(tuán)塊區(qū)域,以此作為目標(biāo)在當(dāng)前幀中的真實(shí)位置。

        現(xiàn)階段在MeanShift算法方面主要研究了以下幾個(gè)問(wèn)題:(1)原始MeanShift算法在跟蹤運(yùn)動(dòng)目標(biāo)的過(guò)程中帶寬是固定不變的,因此不適合用于跟蹤目標(biāo)有尺度變化的情況;(2)當(dāng)運(yùn)動(dòng)前景目標(biāo)和背景的顏色比較相似時(shí),MeanShift算法由于過(guò)度依賴于運(yùn)動(dòng)目標(biāo)的顏色信息,容易導(dǎo)致跟蹤丟失;(3)MeanShift跟蹤算法是用巴氏(Bhattacharyya)系數(shù)來(lái)度量候選模型和目標(biāo)模型之間的相似程度,它對(duì)光照變化很敏感,跟蹤會(huì)不準(zhǔn)確[2];(4)當(dāng)目標(biāo)在復(fù)雜環(huán)境被遮擋時(shí),原始MeanShift算法獲得的運(yùn)動(dòng)目標(biāo)的中心坐標(biāo)誤差會(huì)很大。文獻(xiàn)[3]提出了一種基于MeanShift和Kalman預(yù)測(cè)的帶寬自適應(yīng)跟蹤算法,該算法以Kalman預(yù)測(cè)目標(biāo)在下一幀中的位置作為MeanShift迭代初始位置,同時(shí)采用增量試探法自動(dòng)調(diào)節(jié)帶寬,以適應(yīng)目標(biāo)的尺度變化。該算法有效地解決了MeanShift算法對(duì)尺度變化的適應(yīng)問(wèn)題。文獻(xiàn)[4]用K-S相似性度量準(zhǔn)則對(duì)邊緣方向直方圖和RGB直方圖的特征權(quán)值進(jìn)行融合,提高了前景目標(biāo)與背景顏色相似情況下的跟蹤效果。文獻(xiàn)[5]對(duì)跟蹤目標(biāo)分塊,并在跟蹤過(guò)程中對(duì)子塊的權(quán)重及相應(yīng)的模板及時(shí)更新,有效地提高了運(yùn)動(dòng)目標(biāo)尺度變化及遮擋情況下的跟蹤精度。

        針對(duì)跟蹤過(guò)程中目標(biāo)尺度變化和遮擋情況,本文在分析了這些局限性的基礎(chǔ)上,采用MeanShift算法作為主體跟蹤算法,提出了一種基于多級(jí)正方形匹配的自適應(yīng)帶寬選擇和分塊抗遮擋的目標(biāo)跟蹤算法。實(shí)驗(yàn)結(jié)果表明,該算法具有較強(qiáng)的魯棒性和較高的跟蹤準(zhǔn)確性。

        2MeanShift算法

        MeanShift算法是利用無(wú)參估計(jì)的方法,通過(guò)對(duì)初始目標(biāo)模板和候選模板間相似性程度的比對(duì)進(jìn)行一系列的迭代,直至收斂找到最優(yōu)的匹配,從而達(dá)到縮小搜索范圍、實(shí)現(xiàn)跟蹤的目的。

        (1)初始目標(biāo)模型描述。

        (1)

        (2)

        (2)候選模型的描述。

        如果在當(dāng)前幀中得到的運(yùn)動(dòng)目標(biāo)的中心點(diǎn)的坐標(biāo)為y0,那么在下一幀及以后的圖像序列中,可能包含有運(yùn)動(dòng)目標(biāo)的區(qū)域稱之為候選模型區(qū)域,記候選區(qū)域的中心點(diǎn)的坐標(biāo)為yi,該候選區(qū)域中的像素用xi來(lái)表示(i=1,2,…,nh):

        (3)

        其中Ch參照式(2)可歸一化為常數(shù):

        (4)

        (3)相似性度量函數(shù)。

        巴氏距離最為直觀的幾何意義就是兩個(gè)向量之間的夾角的余弦值,文獻(xiàn)[2]中明確闡述了采用巴氏(Bhattachayrya)系數(shù)作為Mean Shift 跟蹤算法中的直方圖相似性度量的優(yōu)越性。

        巴氏系數(shù),定義為:

        (5)

        (4)目標(biāo)定位。

        (6)

        其中,權(quán)值ωi為:

        (7)

        (8)

        經(jīng)過(guò)一系列迭代運(yùn)算,最終能找到最優(yōu)的中心。

        3優(yōu)化MeanShift算法

        3.1帶寬自適應(yīng)選擇

        在目標(biāo)尺寸逐漸縮小時(shí),增量試探法往往可以得到較好的尺度變換效果。然而,當(dāng)目標(biāo)尺寸逐漸增大時(shí),帶寬的尺寸卻很難擴(kuò)大,反而經(jīng)常會(huì)越來(lái)越小[6]。對(duì)運(yùn)動(dòng)目標(biāo)尺度變化做了一定的研究后,本人提出了對(duì)目標(biāo)尺度變化趨勢(shì)預(yù)測(cè)的多級(jí)正方形法,結(jié)合目標(biāo)中心的離散程度和增量試探法的目標(biāo)尺度更新策略,實(shí)現(xiàn)了對(duì)尺度變化的運(yùn)動(dòng)目標(biāo)跟蹤。

        (1)利用權(quán)值來(lái)統(tǒng)計(jì)中心點(diǎn)位置的離散程度[7]。

        (9)

        其中,xi為候選模板中心點(diǎn)位置,wi為對(duì)應(yīng)第i個(gè)候選模板的中心點(diǎn)對(duì)目標(biāo)中心點(diǎn)的權(quán)重,y1為由候選模板中心點(diǎn)位置求得的加權(quán)平均值,以此作為目標(biāo)模板中心。

        (10)

        其中,dev即統(tǒng)計(jì)學(xué)中的標(biāo)準(zhǔn)差,度量候選模板中心對(duì)目標(biāo)中心的離散程度。

        (11)

        其中,devpre為上一幀目標(biāo)中心的離散程度,計(jì)算公式與式(10)一致。

        (12)

        在式(11)和(12)中,Hpre、Wpre為上一幀目標(biāo)模板的高和寬,H、W為預(yù)估計(jì)當(dāng)前幀圖像中標(biāo)示運(yùn)動(dòng)目標(biāo)區(qū)域的高和寬。通過(guò)統(tǒng)計(jì)跟蹤框內(nèi)候選目標(biāo)的中心位置的離散程度來(lái)相應(yīng)地改變下一幀中搜索候選目標(biāo)的中心位置的范圍,如果統(tǒng)計(jì)出來(lái)的當(dāng)前離散程度與上一幀離散程度大,就按比例擴(kuò)大在下一幀中候選目標(biāo)中心位置的搜索范圍的大小;如果統(tǒng)計(jì)出來(lái)的當(dāng)前離散程度比上一幀離散程度小,就按比例縮小在下一幀中候選目標(biāo)中心位置的搜索范圍的大??;如果統(tǒng)計(jì)出來(lái)的當(dāng)前離散程度比上一幀離散程度相等,就保持在下一幀中候選目標(biāo)中心位置的搜索范圍的大小。

        (2)四級(jí)同心正方形組的建立。

        如圖1所示,四層正方形的邊長(zhǎng)比例設(shè)定為l3∶l2∶l1∶l0=4∶3∶2∶1。最外層正方形的邊長(zhǎng)為初始模板中標(biāo)示運(yùn)動(dòng)目標(biāo)區(qū)域的矩形框的寬W和高H之間的最小值。即:

        l3=Min(H,W)

        (13)

        同樣在候選模板區(qū)域上的質(zhì)心點(diǎn)也即MeanShift算法收斂點(diǎn)處也建立四級(jí)正方形。通過(guò)上述四級(jí)同心正方形組在初始目標(biāo)模板上分割出四個(gè)區(qū)域,分別為Region_A0、Region_A1、Region_A2、Region_A3;同樣以MeanShift算法收斂點(diǎn)(即候選模板)為中心,建立四級(jí)同心正方形組,分割出四個(gè)區(qū)域,分別為Region_B0、Region_B1、Region_B2、Region_B3。如圖1和圖2所示。

        Figure 1 Length and zoning of the fourth-level square 圖1 四級(jí)正方形區(qū)域劃分與邊長(zhǎng)

        Figure 2 Square matching between candidate target and initial model 圖2 候選模板和初始模板間的正方形組匹配圖

        視頻序列中運(yùn)動(dòng)目標(biāo)面向攝像機(jī)運(yùn)動(dòng),其尺寸變大,初始目標(biāo)模板中的區(qū)域Region_A1對(duì)應(yīng)的像素點(diǎn)應(yīng)該大部分對(duì)應(yīng)地?cái)U(kuò)散到候選目標(biāo)區(qū)域Region_B2;如果運(yùn)動(dòng)目標(biāo)尺寸變小,初始目標(biāo)模板中的區(qū)域Region_A1對(duì)應(yīng)的像素點(diǎn)應(yīng)該大部分對(duì)應(yīng)地收縮到候選目標(biāo)區(qū)域的Region_B0。如圖2,用代表區(qū)域Region_Ai和區(qū)域 Region_Bj建立模型間的巴氏距離。目標(biāo)尺度的變化和Region_A1與Region_Bi{i=0,1,2}之間的變化關(guān)系:

        可以得出如下結(jié)論:當(dāng)運(yùn)動(dòng)目標(biāo)的尺度幾乎沒(méi)有變化時(shí),ρ10、ρ11、ρ12三者之中ρ11最大,同時(shí)ρ21、ρ22、ρ23三者之中ρ22最大。因?yàn)槟繕?biāo)尺度沒(méi)有變化,那么區(qū)域Region_A1和區(qū)域Region_B1之間的直方圖模型匹配度最高,對(duì)于Region_A2和區(qū)域Region_B2之間也是如此;同理,運(yùn)動(dòng)目標(biāo)的尺度縮小時(shí),相應(yīng)區(qū)域Region_A1中表征運(yùn)動(dòng)目標(biāo)的特征收縮到區(qū)域Region_B0中,因此,ρ10和ρ21取到最大值;同理,運(yùn)動(dòng)目標(biāo)尺度增大時(shí), ρ12和ρ23應(yīng)該取到最大值。因此通過(guò)回字形區(qū)域的直方圖相似度間的關(guān)系可以用來(lái)確定運(yùn)動(dòng)目標(biāo)的尺度變化的趨勢(shì)。

        (3)找算法收斂點(diǎn)。

        在當(dāng)前幀中采用MeanShift算法找到收斂點(diǎn),即當(dāng)前幀中的候選目標(biāo)的中心點(diǎn),以該中心點(diǎn)為中心,分別以上一幀目標(biāo)模板的寬Wpre和高Hpre,采用增量試探法中建立矩形的方式分別建立三個(gè)矩形:高分別為H1、Hpre、H2,寬分別為W1、Wpre、W2。其中H1= Hpre×(1-ɑ),H2= Hpre×(1+ɑ),W1= Wpre×(1-ɑ),W2= Wpre×(1+ɑ)。再建立以式(11)和式(12)中預(yù)測(cè)的當(dāng)前幀中目標(biāo)模板的寬w和高h(yuǎn),采用增量試探法中建立矩形的方式分別建立三個(gè)矩形:高分別為h1、h、h2,寬分別為w1、w、w2。其中h1=h×(1-ɑ);h2=h×(1+ɑ);w1=w×(1-ɑ);w2=w×(1+ɑ)。本文中ɑ 取值為10%。

        (4)距離決策機(jī)制。

        在選取初始模板的同時(shí)要記錄其中心點(diǎn)的位置坐標(biāo)(xorigin,yorigin)。在當(dāng)前幀中采用MeanShift算法找到收斂點(diǎn),即當(dāng)前幀中的候選目標(biāo)的中心點(diǎn)(x1,y1)。在該點(diǎn)處,分別計(jì)算ρ10、ρ11、ρ12、ρ21、ρ22、ρ23。若ρ12>ρ10,ρ12>ρ11且ρ23>ρ21,ρ23>ρ22,表明運(yùn)動(dòng)目標(biāo)的尺度變大,對(duì)Hpre、H2、h、h2這四個(gè)尺度進(jìn)行對(duì)比,巴氏距離最大者就是尺度最優(yōu)者,作為當(dāng)前幀中運(yùn)動(dòng)目標(biāo)的尺度也就是新的核函數(shù)的帶寬。若ρ11>ρ10,ρ11>ρ12,且ρ22>ρ21,ρ22>ρ23,表明當(dāng)前的目標(biāo)尺度無(wú)較大變化,因此對(duì)Hpre、H1、H2、h、h1、h2這六個(gè)尺度對(duì)比,巴氏距離最大者就是尺度最優(yōu)者,作為當(dāng)前幀中運(yùn)動(dòng)目標(biāo)的尺度也就是新的核函數(shù)的帶寬。若ρ10>ρ11,ρ10>ρ12,且ρ21>ρ22,ρ21>ρ23,表明運(yùn)動(dòng)目標(biāo)的尺度變小,對(duì)Hpre、H1、h、h1這四個(gè)尺度對(duì)比,巴氏距離最大者就是尺度最優(yōu)者,作為當(dāng)前幀中運(yùn)動(dòng)目標(biāo)的尺度也就是新的核函數(shù)的帶寬。

        采用目標(biāo)中心點(diǎn)的離散程度和增量試探法計(jì)算出幾個(gè)目標(biāo)的可能變化尺度,然后采用多級(jí)正方形匹配的方法對(duì)目標(biāo)的運(yùn)動(dòng)趨勢(shì)進(jìn)行預(yù)測(cè),把巴氏系數(shù)最大者的尺度作為核函數(shù)新的帶寬,得到較好的尺度變換效果。

        3.2分塊抗遮擋

        傳統(tǒng)的MeanShift算法模型過(guò)分依賴于顏色直方圖,丟失了目標(biāo)各個(gè)部分的空間位置信息,導(dǎo)致跟蹤目標(biāo)被遮擋時(shí)效果不佳。本文對(duì)目標(biāo)進(jìn)行分塊,實(shí)際上就是更好地使用跟蹤目標(biāo)的空間信息,使MeanShift算法具有更好的魯棒性。常用分塊選擇為圖3a和圖3b結(jié)合的方式,這種分塊方式需要對(duì)每幀做兩次不同方向的分塊,計(jì)算量較大。

        本文在跟蹤過(guò)程中將目標(biāo)分割成多個(gè)互不遮擋的矩形子塊,如圖3c所示。對(duì)每一個(gè)矩形子塊都將目標(biāo)顏色信息作為跟蹤依據(jù),減弱跟蹤窗口中和遮擋程度高的子塊的權(quán)重,并按一定準(zhǔn)則融合有效子塊的跟蹤結(jié)果,最后求得整個(gè)跟蹤目標(biāo)在該幀中的中心坐標(biāo),達(dá)到跟蹤效果最佳的目的。對(duì)于整體遮擋面積在70%左右的情況,圖3c的分塊方式仍可以保證兩個(gè)子塊能夠具有比較好的跟蹤效果。

        Figure 3 Methods of fragment 圖3 分塊方法

        基于分塊的MeanShift跟蹤算法框架下的每個(gè)子塊都是一個(gè)獨(dú)立的目標(biāo)。對(duì)每個(gè)子塊跟蹤結(jié)束后,計(jì)算每個(gè)候選子目標(biāo)與原來(lái)子目標(biāo)之間的相似性程度。設(shè)ρj為第j個(gè)子分塊的巴氏系數(shù),選出候選子目標(biāo)與原子目標(biāo)最相似的子塊,即巴氏系數(shù)最大的子塊的運(yùn)動(dòng)信息作為整個(gè)目標(biāo)的運(yùn)動(dòng)信息。然后用整個(gè)目標(biāo)的新位置來(lái)更新其他子塊的位置,再對(duì)下一幀進(jìn)行處理。但是,當(dāng)目標(biāo)受到遮擋時(shí),僅僅依賴于一個(gè)子塊的跟蹤位置來(lái)確定整個(gè)目標(biāo)的位置是有一定風(fēng)險(xiǎn)的[8],有時(shí)會(huì)產(chǎn)生跟蹤漂移的情況,所以要綜合考慮多個(gè)子塊的跟蹤情況。當(dāng)ρj<ρ_th時(shí)認(rèn)為子塊j所在區(qū)域有遮擋情況出現(xiàn),本文取ρ_th=0.7。記下沒(méi)有被遮擋子塊的數(shù)目Nnon,如果Nnon≥1,則候選目標(biāo)的位置由相似性程度最高子塊j′的位置與其他未被遮擋子塊的位置加權(quán)來(lái)決定:

        (14)

        其中,yj是每個(gè)子塊在MeanShift迭代收斂后的位置,devij是每個(gè)子塊的中心相對(duì)整體目標(biāo)中心的偏移,w表示權(quán)重,本文取0.8。當(dāng)Nnon=0時(shí),表示所有候選目標(biāo)中的子塊與原子塊之間的相似性程度都較小,候選目標(biāo)位置就由所有子塊按各自相似性程度加權(quán)來(lái)決定:

        (15)

        3.3實(shí)驗(yàn)結(jié)果

        (1)實(shí)驗(yàn)環(huán)境。

        為了驗(yàn)證本文算法的效果,我們對(duì)四川大學(xué)基礎(chǔ)教學(xué)樓B座的同一段監(jiān)控視頻進(jìn)行了不同的實(shí)驗(yàn),分別使用原始MeanShift算法、基于增量試探的MeanShift算法以及本文提出的改進(jìn)算法對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行跟蹤實(shí)驗(yàn),并對(duì)其做了跟蹤效果分析。

        該實(shí)驗(yàn)在英特爾酷睿2雙核T5550 1.83GHz筆記本處理器,2GB內(nèi)存配置下的PC上,使用OPENCV2.4.9與VS2010的開(kāi)發(fā)平臺(tái),采用C/C++語(yǔ)言進(jìn)行編程實(shí)現(xiàn),視頻圖像的大小為320×240。

        (2)尺度變化跟蹤實(shí)驗(yàn)結(jié)果及算法比對(duì)。

        視頻中的目標(biāo)與攝像機(jī)的距離遠(yuǎn)近使得其對(duì)應(yīng)圖像的尺寸呈遠(yuǎn)小近大的現(xiàn)象[9]。實(shí)驗(yàn)圖中F代表當(dāng)前幀數(shù),由于三種算法手動(dòng)開(kāi)始框的第一幀都一樣,所以只用圖4a一幅圖表示初始幀結(jié)果圖。圖4b是原始MeanShift算法的跟蹤結(jié)果,由于原始算法帶寬固定不變,所以跟蹤時(shí)不能自適應(yīng)改變跟蹤框的大小。圖4c為文獻(xiàn)[3]的算法,能對(duì)跟蹤框自適應(yīng)改變大小,但是跟蹤效果欠佳。圖4d為本文算法,對(duì)尺度變化的目標(biāo)跟蹤的結(jié)果較好。

        Figure 4 Results of scale change 圖4 尺度變化結(jié)果

        對(duì)比基于增量試探法的MeanShift算法和本文的改進(jìn)算法的跟蹤誤差大小,采用文獻(xiàn)[10]定義的指標(biāo)進(jìn)行量化比較。其量化公式為:

        (16)

        FPRi越小,就說(shuō)明第i幀圖像中跟蹤結(jié)果越準(zhǔn)確。

        Table 1 FPR i from different algorithms

        從表1中計(jì)算所得FPRi結(jié)果可以看出,當(dāng)目標(biāo)尺度發(fā)生變化時(shí),文獻(xiàn)[3]跟蹤算法效果比傳統(tǒng)MeanShift算法要好,本文提出的算法比文獻(xiàn)[3]算法的效果更佳。

        (3)抗遮擋跟蹤實(shí)驗(yàn)結(jié)果及算法比對(duì)。

        圖5是使用文獻(xiàn)[3]算法跟蹤目標(biāo)的結(jié)果圖,當(dāng)有遮擋時(shí)(如第726幀小部分遮擋,第732幀中大部分遮擋),目標(biāo)中心的定位存在很大的誤差。圖6是本文提出的算法,能很好地反映目標(biāo)變化的尺寸,同時(shí)對(duì)目標(biāo)中心定位準(zhǔn)確,而且抗遮擋效果較好。

        Figure 5 Results of reference [3] 圖5 文獻(xiàn)[3]算法結(jié)果

        Figure 6 Results of the proposed algorithm 圖6 本文算法結(jié)果

        算法第707幀第726幀第732幀第995幀文獻(xiàn)[3]算法1.36672.26672.38384.3433本文改進(jìn)算法1.34331.57671.58733.4476

        (4)復(fù)雜背景環(huán)境實(shí)驗(yàn)結(jié)果及算法分析。

        該實(shí)驗(yàn)是銀行門口的監(jiān)控視頻,圖7是使用文獻(xiàn)[3]算法在復(fù)雜環(huán)境下跟蹤目標(biāo)的結(jié)果圖,當(dāng)有遮擋且背景顏色相近時(shí),目標(biāo)中心的定位存在很大的誤差,且遮擋情況嚴(yán)重時(shí)(F=3 336)直接跟丟目標(biāo)了。圖8是本文算法,魯棒性效果較好。

        Figure 7 Results of reference [3] in chaotic environment 圖7 復(fù)雜背景下文獻(xiàn)[3]算法結(jié)果

        從表2和表3中計(jì)算所得FPRi結(jié)果可以看出,基于文獻(xiàn)[3]跟蹤算法對(duì)有遮擋情況和離攝像頭較近尺度變化較大時(shí)的跟蹤效果不佳。本文提出的算法在對(duì)目標(biāo)尺度變化大并有遮擋情況時(shí)的跟蹤的誤差要比文獻(xiàn)[3]算法小得多,符合預(yù)期期望。

        Figure 8 Results of the proposed algoritym in chaos environment 圖8 復(fù)雜背景下本文算法結(jié)果

        算法第3279幀第3305幀第3314幀第3336幀文獻(xiàn)[3]算法1.45261.77541.72351.9231本文改進(jìn)算法1.45264.87965.28338.0121

        從表4耗時(shí)數(shù)據(jù)可以看出,本文提出的算法雖然在對(duì)目標(biāo)尺度變化大并有遮擋情況時(shí)的跟蹤的精度能符合預(yù)期期望,但是計(jì)算量以及本文算法所耗費(fèi)的時(shí)間遠(yuǎn)大于文獻(xiàn)[3]算法,這是本文改進(jìn)算法的一個(gè)不足之處。

        Table 4  Time cost of different

        4結(jié)束語(yǔ)

        針對(duì)MeanShift算法本身無(wú)法對(duì)核函數(shù)帶寬進(jìn)行自適應(yīng)的更新的缺陷,提出了目標(biāo)中心的離散程度與多級(jí)正方形匹配結(jié)合的核函數(shù)帶寬的更新策略。利用目標(biāo)中心點(diǎn)的離散程度和增量試探法計(jì)算出幾個(gè)目標(biāo)的可能變化尺度;然后采用多級(jí)正方形匹配計(jì)算各回字形區(qū)域之間的巴氏距離來(lái)預(yù)測(cè)目標(biāo)的尺度變化趨勢(shì);然后對(duì)該趨勢(shì)下的幾個(gè)目標(biāo)尺度進(jìn)行巴氏距離比對(duì),巴氏距離最大者為當(dāng)前核函數(shù)的帶寬,即目標(biāo)的尺度。而且跟蹤過(guò)程中還對(duì)前景目標(biāo)實(shí)行分塊跟蹤,更好地使用跟蹤目標(biāo)的空間信息,這樣能有效地抵抗不同面積遮擋,進(jìn)一步增強(qiáng)了算法的魯棒性。實(shí)驗(yàn)使用基于增量試探法的MeanShift算法和本文提出的改進(jìn)算法對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行跟蹤實(shí)驗(yàn),并對(duì)其做了跟蹤效果分析,證明了該算法的有效性。但是,該算法耗時(shí)較大。接下來(lái),我們將研究降低算法的時(shí)間復(fù)雜度,從而進(jìn)一步提升跟蹤算法的高效率,為將來(lái)的運(yùn)動(dòng)行為分析打好基礎(chǔ)。

        參考文獻(xiàn):

        [1]ComaniciuD,MeerP.Meanshift:Arobustapproachtowardfeaturespaceanalysis[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2002,24(5):603-619.

        [2]ComaniciuD,RameshV,MeerP.Real-timetrackingofnon-rigidobjectsusingMeanShift[C]//ProcofIEEEConferenceonComputerVisionandPatternRecognition,2000:142-149.

        [3]WangWen-jiang,HuangShan,ZhangHong-bin.Bandwidth-adaptivetrackingalgorithmbasedonMeanShiftandKalmanprediction[J].ComputerEngineering&Science,2013,35(5):87-92.(inChinese)

        [4]ZhouFang-yan,TangJian,HeJin-song.Adaptivemulti-featurecombinationobjecttrackingbasedonblocking[J].ComputerEngineering,2013,39(4):239-242.(inChinese)

        [5]DongWen-hui,ChangFa-liang,LiTian-ping.Adaptivefragments-basedtargettrackingmethodfusingcolorhistogramandSIFTfeatures[J].JournalofElectronics&InformationTechnology,2013,35(4):770-776.(inChinese)

        [6]PengNing-song,YangJie,LiuZhi,etal.AutomaticselectionofkernelbandwidthforMeanShiftobjecttracking[J].JournalofSoftware, 2005,16(9):1542-1550.(inChinese)

        [7]JeyakarJ,BabuRV,RamakrishnanKR.Robustobjecttrackingwithbackground-weightedlocalkernels[J].ComputerVisionandImageUnderstanding,2008,112(3):296-309.

        [8]GuXing-fang.Robustobjecttrackingusingfragments-basedMeanShiftandforeground/backgroundinformation[J].JournalofHangzhouDianziUniversity,2011,31(6):75-78.(inChinese)

        [9]LiY,ZhaoW.Adaptiveupdatingofkernelband-widthforMean-Shifttracking[J].JournalofComputationalInformationSystems,2012,8(22):9569-9579.

        [10]LiPei-hua,XiaoLi-juan.MeanShiftbasedobjecttracking

        withsimilarityandaffinetransformations[J].JournalofImageandGraphics,2011,16(2):258-266.(inChinese)

        [11]LiPei-hua.AnimprovedMeanShiftalgorithmforobjecttracking[J].ACTAAutomaticaSINICA,2007,33(4):347-354.(inChinese)

        參考文獻(xiàn):附中文

        [3]王文江,黃山,張洪斌. 一種基于MeanShift和Kalman預(yù)測(cè)的帶寬自適應(yīng)跟蹤算法[J]. 計(jì)算機(jī)工程與科學(xué),2013,35(5):87-92.

        [4]周芳燕,唐建,何勁松. 基于分塊的自適應(yīng)多特征融合目標(biāo)跟蹤[J]. 計(jì)算機(jī)工程,2013,39(4):239-242.

        [5]董文會(huì),常發(fā)亮,李天平. 融合顏色直方圖及SIFT特征的自適應(yīng)分塊目標(biāo)跟蹤方法[J]. 電子與信息學(xué)報(bào),2013,35(4):770-776.

        [6]彭寧嵩,楊杰,劉志,等.MeanShift跟蹤算法中核函數(shù)窗寬的自動(dòng)選取[J]. 軟件學(xué)報(bào),2005,16(9):1542-1550.

        [8]顧幸方. 基于分塊與前景/背景信息的MeanShift目標(biāo)跟蹤[J]. 杭州電子科技大學(xué)學(xué)報(bào),2011,31(6):75-78.

        [10]李培華,肖莉娟. 基于MeanShift的相似性變換和仿射變換目標(biāo)跟蹤算法[J]. 中國(guó)圖形圖像學(xué)報(bào),2011,16(2):258-266.

        [11]李培華. 一種改進(jìn)的MeanShift跟蹤算法[J]. 自動(dòng)化學(xué)報(bào),2007,33(4):347-354.

        徐海明(1989-),男,江蘇江陰人,碩士生,研究方向?yàn)閳D像識(shí)別與處理。E-mail:462783275@qq.com

        XUHai-ming,bornin1989,MScandidate,hisresearchinterestsincludeimagerecognitionandprocessing.

        黃山(1969-),男,四川成都人,博士,教授,研究方向?yàn)橹悄芙煌I(lǐng)域的圖像識(shí)別與處理。E-mail:huangshancd@vip.sina.com

        HUANGShan,bornin1969,PhD,professor,hisresearchinterestsincludeimagerecognitionandprocessinginintelligenttransportationfield.

        李云彤(1991-),男,四川成都人,碩士生,研究方向?yàn)橛?jì)算機(jī)視覺(jué)和智能監(jiān)控。E-mail:198301353@qq.com

        LIYun-tong,bornin1991,MScandidate,hisresearchinterestsincludecomputervision,andintelligentsurveillance.

        成人国产精品高清在线观看| 天天燥日日燥| 3344永久在线观看视频| 真人在线射美女视频在线观看| 亚洲色图偷拍自拍亚洲色图| 日韩在线观看入口一二三四| 男女后进式猛烈xx00动态图片| 高清无码一区二区在线观看吞精 | 色一情一区二| 久久精品国产亚洲AV香蕉吃奶| 日本韩国三级在线观看| 亚洲精品中文幕一区二区| 国内a∨免费播放| 亚洲成a人网站在线看| 国产av一啪一区二区| 亚州国产av一区二区三区伊在| 亚洲精品无码久久久久sm| 亚欧同人精品天堂| 人妻中文久久人妻蜜桃| 久久国产精品偷任你爽任你| 欧美喷潮久久久xxxxx| 亚洲熟妇夜夜一区二区三区| 人妖一区二区三区在线| 精品亚洲一区二区三洲| 国产亚洲成av人片在线观看| 久久亚洲中文字幕无码| 久久亚洲精品成人综合| 免费看黄片的视频在线观看| 久久久国产乱子伦精品作者| 在线成人福利| 日本岛国视频在线观看一区二区 | 中文字幕一区二区网址| av日韩高清一区二区| 国产后入又长又硬| 欧美日韩国产专区| 蜜桃av一区二区三区久久| 女人18毛片a级毛片| 4444亚洲人成无码网在线观看| 国产三级国产精品三级在专区 | 久久综合狠狠综合久久| 白丝美女被狂躁免费视频网站|