亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        尺度自適應(yīng)的加權(quán)壓縮跟蹤算法

        2018-04-20 00:53:53李曉行陳金廣馬麗麗王明明
        關(guān)鍵詞:分類(lèi)器濾波器尺度

        李曉行,陳金廣,馬麗麗, 王明明,王 偉

        (西安工程大學(xué) 計(jì)算機(jī)科學(xué)學(xué)院, 陜西 西安 710048)

        0 引 言

        目標(biāo)跟蹤是計(jì)算機(jī)視覺(jué)領(lǐng)域中的主要研究?jī)?nèi)容之一,廣泛應(yīng)用于運(yùn)動(dòng)識(shí)別、視頻監(jiān)控、視頻索引、人機(jī)交互等領(lǐng)域中[1].由于目標(biāo)跟蹤面臨著光照變化、運(yùn)動(dòng)模糊、目標(biāo)遮擋等挑戰(zhàn)因素,因此,其研究仍是重點(diǎn)與難點(diǎn).目標(biāo)跟蹤算法一般分為生成式模型和判別式模型兩大類(lèi).

        基于生成式模型的目標(biāo)跟蹤算法一般是利用學(xué)習(xí)得到的目標(biāo)模型找到具有最小重建錯(cuò)誤的圖像塊,該圖像塊位置即為目標(biāo)位置.具有代表性的是Comaniciu等提出的Mean Shift算法[2],該算法利用概率密度梯度估計(jì),通過(guò)迭代尋優(yōu)以找到目標(biāo)位置,但其對(duì)顏色變化較為敏感.Cai等對(duì)Mean Shift算法進(jìn)行了改進(jìn)[3],將空間直方圖和Contourlet直方圖進(jìn)行加權(quán)求和,該方法在目標(biāo)遮擋、旋轉(zhuǎn)、尺度變換等情況下具有較好的魯棒性.針對(duì)Mean Shift算法無(wú)法進(jìn)行尺度自適應(yīng)更新的問(wèn)題,Bradski提出了CamShift算法[4],該算法能夠自適應(yīng)地調(diào)整目標(biāo)跟蹤區(qū)域的大小,具有較好的跟蹤效果.IVT算法[5]利用增量主成分分析子空間對(duì)目標(biāo)模型進(jìn)行描述,能夠在線估計(jì)目標(biāo)的外觀,從而實(shí)現(xiàn)目標(biāo)跟蹤.Mei等[6]提出一種粒子框架下的L1跟蹤算法,將跟蹤問(wèn)題看作稀疏逼近問(wèn)題,該算法在遮擋情況下具有較好的跟蹤效果,但計(jì)算量較大.

        基于判別式模型的目標(biāo)跟蹤算法將跟蹤問(wèn)題看作二元分類(lèi)問(wèn)題,將目標(biāo)和背景區(qū)分開(kāi)來(lái),從而得到目標(biāo)的位置.Grabner等提出一種在線boosting方法來(lái)選擇特征進(jìn)行跟蹤[7],僅使用一個(gè)正樣本和少量負(fù)樣本更新分類(lèi)器,易導(dǎo)致跟蹤漂移.Babenko等提出了一種多示例學(xué)習(xí)跟蹤算法[8],該算法將訓(xùn)練樣本以樣本包的形式表示,學(xué)習(xí)判別模型并訓(xùn)練分類(lèi)器分離目標(biāo)與背景,雖然該算法跟蹤效果較好,但其易受遮擋及誤差的影響.Wang等提出了一種基于超像素的分類(lèi)模型[9],可以有效解決遮擋問(wèn)題.Hare等提出使用在線結(jié)構(gòu)化的輸出支撐向量機(jī)來(lái)進(jìn)行跟蹤[10],可以有效地減輕錯(cuò)誤標(biāo)簽樣本的影響.Zhang等提出了壓縮跟蹤(CT,Compressive Tracking)算法[11],該算法利用樣本的壓縮特征來(lái)進(jìn)行分類(lèi)處理,提高了算法的運(yùn)行效率,但該算法易受遮擋影響且尺度不能自適應(yīng)更新.快速壓縮跟蹤(FCT,Fast Compressive Tracking)算法利用二次定位方法提升了CT算法的運(yùn)行效率[12],但該算法仍易受遮擋影響且尺度也不能自適應(yīng)更新.一些學(xué)者針對(duì)CT算法跟蹤準(zhǔn)確性不高的問(wèn)題提出了解決方法[13-16],但這些方法未能實(shí)現(xiàn)尺度的自適應(yīng)更新.

        本文提出一種尺度自適應(yīng)的加權(quán)壓縮跟蹤算法,將判別相關(guān)濾波器和尺度金字塔[17]運(yùn)用于CT算法中,以實(shí)現(xiàn)尺度的自適應(yīng)更新;利用正負(fù)樣本的巴氏系數(shù)對(duì)樸素貝葉斯分類(lèi)器進(jìn)行加權(quán),使得分類(lèi)結(jié)果更為準(zhǔn)確.

        1 壓縮跟蹤算法

        壓縮跟蹤算法是基于壓縮感知理論的一種快速魯棒跟蹤算法.壓縮感知理論指出,利用一個(gè)滿足壓縮等距性(RIP,Restricted isometry property)條件的隨機(jī)矩陣對(duì)稀疏向量進(jìn)行隨機(jī)采樣,采樣后的低維向量幾乎保留了原始向量的全部信息.CT算法正是根據(jù)這一理論對(duì)高維特征進(jìn)行采樣壓縮,這里采用的是Haar-like特征,Haar-like特征是計(jì)算機(jī)視覺(jué)領(lǐng)域一種常用的特征描述算子.其利用一個(gè)維數(shù)為m×n且滿足RIP條件的隨機(jī)矩陣E,將高維特征向量X(n維)轉(zhuǎn)換到低維特征向量V(m維),其中m遠(yuǎn)小于n,公式表示為

        V=EX.

        (1)

        其中隨機(jī)矩陣E為一種非常稀疏的矩陣,第i行第j列元素取值如下:

        (2)

        Li等[18]證明了當(dāng)s=O(n)時(shí),矩陣E滿足RIP條件,且每一行至多有4個(gè)非零元素需要計(jì)算,能夠有效提高算法的運(yùn)行速率.

        CT算法采用樸素貝葉斯分類(lèi)器進(jìn)行分類(lèi),利用公式(1)得到樣本圖像的低維特征向量V=(v1,…,vm)T.假設(shè)特征向量中各分量相互獨(dú)立,且每個(gè)樣本為目標(biāo)或背景的概率相同,則樸素貝葉斯分類(lèi)器的模型如下:

        (3)

        式中,y=1代表正樣本,y=0代表負(fù)樣本.Diaconis等[18]證明了高維向量的隨機(jī)投影基本都服從高斯分布,所以可以假設(shè)條件概率p(vi|y=1)和p(vi|y=0)服從高斯分布,即

        (4)

        (5)

        (6)

        (7)

        壓縮跟蹤算法是一種簡(jiǎn)單高效的實(shí)時(shí)跟蹤算法,在一些簡(jiǎn)單的場(chǎng)景下具有良好的跟蹤效果,但當(dāng)目標(biāo)的尺度發(fā)生變化時(shí),壓縮跟蹤算法不能進(jìn)行自適應(yīng)的尺度更新,從而導(dǎo)致跟蹤結(jié)果不準(zhǔn)確,且該算法的分類(lèi)器能力不強(qiáng).針對(duì)上述問(wèn)題,本文提出一種尺度自適應(yīng)的加權(quán)壓縮跟蹤算法,將尺度金字塔和判別相關(guān)濾波器運(yùn)用于CT算法中以選取合適的跟蹤尺度,并將貝葉斯分類(lèi)器進(jìn)行加權(quán)處理,以提高算法的魯棒性和精確性.

        2 結(jié)合尺度更新的加權(quán)壓縮跟蹤算法

        2.1 尺度更新

        利用判別相關(guān)濾波器及尺度金字塔進(jìn)行尺度更新,求得不同尺度下的相關(guān)濾波器響應(yīng),最大的響應(yīng)值對(duì)應(yīng)的尺度即為當(dāng)前尺度.假設(shè)圖像塊f具有d維特征描述,即fl(l∈{1,…,d}),這里采用融合方向梯度直方圖(fhog)特征,通過(guò)計(jì)算和統(tǒng)計(jì)圖像局部區(qū)域的梯度方向直方圖來(lái)構(gòu)成hog特征,對(duì)hog特征進(jìn)行融合得到fhog特征.可以通過(guò)最小化下列代價(jià)函數(shù)求得最佳相關(guān)濾波器h:

        (8)

        式中,每一維特征fl對(duì)應(yīng)一個(gè)濾波器hl,g為與特征f相關(guān)聯(lián)的期望相關(guān)輸出,λ≥0為正則項(xiàng)的系數(shù).在頻域中求解式(8)可得:

        (9)

        (10)

        (11)

        式中,η為學(xué)習(xí)率.新的一幀中,目……標(biāo)尺度通過(guò)求解最大相關(guān)濾波器響應(yīng)y來(lái)確定:

        (12)

        式中,F-1表示傅里葉逆變換,以目標(biāo)位置為中心提取不同尺度下的樣本z,分別提取不同樣本的fhog特征,每個(gè)樣本的fhog特征串聯(lián)成一個(gè)特征向量并構(gòu)成金字塔特征,將金字塔特征乘以一維漢明窗后作為Z的值.用于目標(biāo)尺度估計(jì)的尺度選擇原則為

        2.2 加權(quán)分類(lèi)器構(gòu)建

        CT算法中構(gòu)建分類(lèi)器的所有特征的權(quán)值都為1,但正負(fù)樣本特征的分類(lèi)能力不同,所以CT算法中的分類(lèi)器無(wú)法突出具有強(qiáng)分類(lèi)能力特征的重要性,從而導(dǎo)致分類(lèi)器的分類(lèi)能力不強(qiáng).在構(gòu)建分類(lèi)器時(shí),考慮到利用正負(fù)樣本特征相似度的大小對(duì)分類(lèi)器進(jìn)行加權(quán)可以增強(qiáng)分類(lèi)能力,本文利用巴氏系數(shù)來(lái)衡量正負(fù)樣本的相似度.對(duì)于連續(xù)分布,巴氏系數(shù)的表達(dá)式為

        (14)

        式中,B∈[0,1],B越大則兩者的相似度越大.根據(jù)正負(fù)樣本的巴氏系數(shù)對(duì)分類(lèi)器進(jìn)行加權(quán).正負(fù)樣本的巴氏系數(shù)越小,分類(lèi)能力越強(qiáng),因此給其賦予的權(quán)值也就越大.加權(quán)后的分類(lèi)器能夠有效地對(duì)訓(xùn)練樣本的分類(lèi)能力強(qiáng)弱進(jìn)行區(qū)分,提升了自身的分類(lèi)能力.加權(quán)分類(lèi)器模型為

        (15)

        2.3 算法流程

        輸入:第t幀圖像,上一幀的目標(biāo)位置It-1及尺度St-1;上一幀的尺度模型At-1,Bt-1;正采樣半徑rp;負(fù)采樣半徑rn1,rn2;跟蹤搜索半徑r;正負(fù)樣的相似度B.

        (1) 采集樣本集A={s|‖I(s)-It-1‖

        (2) 根據(jù)式(15)構(gòu)建分類(lèi)器H,檢測(cè)出A中使H響應(yīng)值最大的樣本位置即為目標(biāo)位置It.

        (3) 以目標(biāo)位置為中心,根據(jù)尺度及式(13)提取33種不同尺度的樣本z.

        (4) 利用z,At-1,Bt-1、及式(12)計(jì)算出相關(guān)濾波器響應(yīng)y.

        (5) 找到最大的y對(duì)應(yīng)的尺度,并將其作為當(dāng)前尺度St.

        (6) 采樣正樣本集Ap={s|‖I(s)-It‖

        (7) 根據(jù)It及St提取fhog特征樣本f,利用式(10)和式(11)更新尺度模型At,Bt.

        輸出:當(dāng)前幀目標(biāo)位置It及尺度St,尺度模型At,Bt.

        3 結(jié)果與分析

        為了驗(yàn)證本文算法的有效性,選擇與CT[11]、FCT[12]、LOT[20]、DFT[21]4種算法進(jìn)行比較,選取6組具有尺度變化以及其他挑戰(zhàn)因素的視頻序列進(jìn)行測(cè)試.實(shí)驗(yàn)環(huán)境為Intel Core i5雙核處理器,2.27 GHz主頻,2 GB內(nèi)存,Windows 7操作系統(tǒng),MATLAB R2014a.

        3.1 參數(shù)設(shè)置

        設(shè)置正則化參數(shù)λ=0.01,尺度濾波器大小是初始目標(biāo)大小的兩倍,選取尺度間隔為a=1.02的33個(gè)尺度值來(lái)獲得最優(yōu)尺度,尺度金字塔的學(xué)習(xí)率η1=0.025,正樣本采樣半徑rp=4,表示在中心點(diǎn)附近以4個(gè)像素為半徑的圓進(jìn)行采樣,生成45個(gè)正樣本,負(fù)樣本采樣半徑rn1=8,rn2=30,隨機(jī)采樣50個(gè)負(fù)樣本,壓縮跟蹤算法的學(xué)習(xí)率η2=0.85,采集候選目標(biāo)的采樣半徑r=20,大約生成1 100個(gè)候選樣本,選取m=100個(gè)樣本低維特征進(jìn)行分類(lèi)器的訓(xùn)練.

        3.2 數(shù)據(jù)分析

        為了評(píng)價(jià)跟蹤算法的性能,采用跟蹤成功率作為衡量的標(biāo)準(zhǔn).首先,計(jì)算每一幀目標(biāo)跟蹤位置和真實(shí)目標(biāo)位置的重疊率

        (16)

        式中,rt表示跟蹤位置矩形框,ra表示真實(shí)目標(biāo)矩形框,|·|表示矩形框中的像素點(diǎn)個(gè)數(shù),S表示跟蹤準(zhǔn)確度的高低.S越大,準(zhǔn)確度越高,當(dāng)S≥0.5時(shí)認(rèn)為該幀跟蹤成功.跟蹤成功率由跟蹤成功的幀數(shù)除以總的幀數(shù)來(lái)獲得.將SCT算法與4種跟蹤算法在6種視頻序列上的跟蹤成功率繪制成表1,每種視頻序列跟蹤成功率最高的用黑體標(biāo)注,次高用斜體標(biāo)注.從表1可以看出,本文算法(圖表中簡(jiǎn)寫(xiě)為SCT)跟蹤成功率最高的有4個(gè),次高的有2個(gè),且平均跟蹤成功率最高.相比CT和FCT算法,本文算法的跟蹤成功率取得了一定的提升.實(shí)驗(yàn)結(jié)果表明,本文提出的算法具有較好的跟蹤效果,有效地改進(jìn)了CT算法的跟蹤性能.

        為了更好地評(píng)價(jià)跟蹤算法性能,將平均中心誤差作為另一衡量標(biāo)準(zhǔn).中心誤差是指跟蹤目標(biāo)框中心位置和真實(shí)目標(biāo)框中心位置之間的歐氏距離,所有幀中心誤差的平均值即為平均中心誤差,其值越小跟蹤結(jié)果越準(zhǔn)確.將本文算法與4種跟蹤算法在6種視頻序列上的平均中心誤差繪制成表2,最低的平均中心誤差用黑體標(biāo)注,次低用斜體標(biāo)注.從表2的實(shí)驗(yàn)數(shù)據(jù)可以看出本文算法在6組視頻序列中有3個(gè)最低平均中心誤差,2個(gè)次低平均中心誤差,且其6組平均中心誤差的期望值最?。畬?shí)驗(yàn)結(jié)果表明,在跟蹤精度上,本文算法相較于CT算法取得了一定的改進(jìn),算法性能較好.

        每秒運(yùn)行幀數(shù)(fps)是衡量算法運(yùn)行速率的標(biāo)準(zhǔn)之一,fps越大則算法運(yùn)行速度越快.各算法的fps如表3所示,從表3可以看出雖然本文算法相較于CT算法和FCT算法而言運(yùn)行速度較慢,但本文算法基本能夠滿足實(shí)時(shí)性要求.

        表1跟蹤成功率

        Table 1 Rate of successful tracking %

        視頻序列CTFCTSCTLOTDFTdog40143968525951424058car132053390711659363795dancer46835949742672986522dog151745343723282514351carscale34984305573234674136walking39605518658269695616平均值40894746655861774746

        表 2 平均中心誤差

        表 3 每秒運(yùn)行幀數(shù)

        3.3 圖示分析

        為了進(jìn)一步比較各算法的跟蹤性能,分別給出各算法OPE下的成功率曲線圖以及精確度曲線圖,OPE是指將視頻序列按照順序一幀一幀地使用跟蹤算法進(jìn)行處理.圖1為5種算法的OPE成功率曲線圖,圖中的成功率為閾值從0到1變化時(shí)各算法跟蹤成功幀所占的比例.若使用某一特定閾值下的成功率作為評(píng)價(jià)準(zhǔn)則,則評(píng)價(jià)結(jié)果會(huì)具有不公平性,因此采用曲線下面積(AUC)大小來(lái)評(píng)估算法性能,AUC越大則算法的跟蹤成功率越高.從圖1可以看出5種算法中SCT算法的AUC最大,CT算法的AUC最小,即SCT算法的跟蹤成功率最高.

        圖2為5種算法的OPE精確度曲線圖,圖中精確度由中心誤差距離滿足閾值條件的幀數(shù)除以總幀數(shù)計(jì)算得到,閾值的取值范圍為0到50,其單位為像素.不失一般性,選取閾值為20時(shí)的精確度作為評(píng)價(jià)標(biāo)準(zhǔn),從圖2可以看出,5種算法中SCT算法的精確度最高,CT算法的精確度最低,SCT算法較其余4種算法具有較好的跟蹤性能.

        圖 1 成功率曲線 圖 2 精確度曲線 Fig.1 Success plot Fig.2 Precision plot

        文獻(xiàn)[22]將視頻的挑戰(zhàn)因素分為11類(lèi),每個(gè)視頻序列都具有至少一種挑戰(zhàn)因素.為了進(jìn)一步分析本文算法的性能,給出了3種因素下的算法成功率曲線圖和精確度曲線圖,3種因素分別為尺度變化、平面外旋轉(zhuǎn)以及平面內(nèi)旋轉(zhuǎn),每個(gè)曲線圖下方標(biāo)題中括弧內(nèi)的數(shù)字是指該挑戰(zhàn)因素下包含的序列組數(shù).從圖3可以看出在3種因素下,SCT算法的成功率以及精確度均優(yōu)于其余4種算法.尤其對(duì)于CT算法而言,改進(jìn)算法有效地解決了目標(biāo)尺度變化問(wèn)題且能夠較好地解決目標(biāo)旋轉(zhuǎn)問(wèn)題.

        (a) OPE尺度變化成功率曲線(6) (b) OPE平面外旋轉(zhuǎn)下的成功率曲線(4)

        (c) OPE平面內(nèi)旋轉(zhuǎn)下的成功率曲線(3) (d) OPE尺度變化精度曲線(6)圖 3 尺度變化、平面外旋轉(zhuǎn)、平面內(nèi)旋轉(zhuǎn)因素下的曲線圖Fig.3 Plots for SV, OPR and IPR subsets

        (e) OPE平面外旋轉(zhuǎn)精度曲線(4) (f) OPE平面內(nèi)旋轉(zhuǎn)精度曲線(3)圖 3 尺度變化、平面外旋轉(zhuǎn)、平面內(nèi)旋轉(zhuǎn)因素下的曲線圖Fig.3 Plots for SV, OPR and IPR subsets

        為了更為準(zhǔn)確地驗(yàn)證本文算法的有效性,對(duì)5種算法的跟蹤結(jié)果進(jìn)行比較,選取部分視頻序列顯示如圖4所示.圖4(a)為5種算法在car1序列上的實(shí)驗(yàn)結(jié)果,從圖中可以看出:#0027幀時(shí),CT算法和FCT算法均出現(xiàn)了一定的偏移現(xiàn)象,而其余3種算法跟蹤較為準(zhǔn)確;#0076幀時(shí)目標(biāo)尺度發(fā)生變化,SCT算法和LOT算法的跟蹤尺度也隨之發(fā)生變化,而其余算法的跟蹤尺度并沒(méi)有更新;當(dāng)目標(biāo)發(fā)生尺度變化及光照變化時(shí)(#0203幀及#0240幀),只有SCT算法能較為有效地跟蹤目標(biāo),其余算法均出現(xiàn)了一定的跟蹤漂移及丟失現(xiàn)象.實(shí)驗(yàn)結(jié)果表明本文算法能夠進(jìn)行自適應(yīng)的尺度更新且跟蹤效果較好.

        圖4(b)為carscale序列上的實(shí)驗(yàn)結(jié)果,在carscale視頻序列中,主要影響因素為尺度變化及部分遮擋.#0159幀時(shí),LOT算法受部分遮擋的影響而丟失目標(biāo),在之后的跟蹤中沒(méi)能找回目標(biāo);隨著目標(biāo)的尺度變化及遮擋面積增多(#0172幀),DFT算法發(fā)生跟蹤丟失現(xiàn)象且之后沒(méi)能找回目標(biāo),CT算法和FCT算法雖能跟蹤上目標(biāo),但跟蹤框沒(méi)有進(jìn)行尺度更新且存在一定的跟蹤漂移現(xiàn)象.從實(shí)驗(yàn)結(jié)果(#0159幀、#0172幀、#0196幀)可以看出本文算法能夠有效處理尺度變化及部分遮擋問(wèn)題,且比另外4種算法跟蹤效果要好.

        dog視頻序列的主要挑戰(zhàn)因素為尺度變化和平面內(nèi)旋轉(zhuǎn).當(dāng)目標(biāo)尺度發(fā)生變化時(shí)(#0070幀、#0082幀、#0088幀),LOT算法和本文算法的尺度跟蹤尺度隨著目標(biāo)尺度的變化而變化,但前者在目標(biāo)發(fā)生旋轉(zhuǎn)(#0070幀、#0088幀)時(shí)發(fā)生了跟蹤漂移現(xiàn)象而本文算法則能有效地跟蹤,其他3種算法都沒(méi)有對(duì)目標(biāo)的尺度進(jìn)行更新從而導(dǎo)致跟蹤結(jié)果不準(zhǔn)確,如圖4(c)所示.

        dog1視頻序列主要有尺度變化和旋轉(zhuǎn)的影響.#0238幀時(shí)目標(biāo)發(fā)生一定的旋轉(zhuǎn)變化,LOT算法的尺度更新發(fā)生偏差,產(chǎn)生一定的跟蹤漂移現(xiàn)象,目標(biāo)發(fā)生尺度變化時(shí)(#0919幀),DFT算法發(fā)生跟蹤丟失現(xiàn)象且之后未能找回目標(biāo),CT算法和FCT算法的跟蹤尺度都未發(fā)生變化,而本文算法和LOT算法能較為有效地跟蹤目標(biāo),當(dāng)目標(biāo)再次發(fā)生旋轉(zhuǎn)變化時(shí)(#1102幀),LOT算法、CT算法及FCT算法皆發(fā)生了一定的跟蹤漂移現(xiàn)象,本文算法則能較為準(zhǔn)確地跟蹤目標(biāo),如圖4(d)所示.圖4的實(shí)驗(yàn)結(jié)果表明本文算法在尺度更新方面對(duì)CT算法進(jìn)行了有效的改進(jìn),且在部分遮擋及旋轉(zhuǎn)的情況下仍能有效跟蹤目標(biāo).

        (a) car 1圖 4 部分序列跟蹤結(jié)果Fig.4 Tracking results of some sequences

        (b) carscale

        (a) dog

        (d) dog 1

        圖 4 部分序列跟蹤結(jié)果Fig.4 Tracking results of some sequences

        4 結(jié) 論

        (1) 針對(duì)尺度更新問(wèn)題,利用相關(guān)濾波器進(jìn)行尺度估計(jì),以目標(biāo)位置為中心提取33種不同尺度下的樣本并求得樣本的金字塔特征,將金字塔特征乘以一維漢明窗作為相關(guān)濾波器響應(yīng)的特征輸入,使得相關(guān)濾波器響應(yīng)最大的尺度即為當(dāng)前尺度值.

        (2) 針對(duì)分類(lèi)器分類(lèi)能力不強(qiáng)的問(wèn)題,通過(guò)對(duì)分類(lèi)器進(jìn)行加權(quán)來(lái)提高分類(lèi)能力,利用巴氏系數(shù)衡量正負(fù)樣本的判別能力.巴氏系數(shù)越大則樣本判別能力越差,分類(lèi)器權(quán)值用巴氏系數(shù)計(jì)算得到,分類(lèi)能力越大的特征,其權(quán)值越大.

        (3) 在目標(biāo)尺度發(fā)生變化的情況下,本文算法能夠?qū)崿F(xiàn)尺度的自適應(yīng)更新,而且在部分遮擋,平面內(nèi)外旋轉(zhuǎn)等情況仍能保持較好的跟蹤性能.在時(shí)間復(fù)雜度方面,本文算法較原有算法有所增加.

        參考文獻(xiàn)(References):

        [1] YILMAZ A,JAVED O,SHAH M.Object tracking:A survey[J].ACM Computing Surveys,2006,38(4):1-45.

        [2] COMANICIU D,RAMESH V,MEER P.Kernel-based object tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(5):564-577.

        [3] CAI N,ZHU N,GUO W,et al.Object tracking using mean shift for adaptive weighted-sum histograms[J].Circuits Systems and Signal Processing,2014,33(2):483-499.

        [4] BRADSKI G R.Real time face and object tracking as a component of a perceptual user interface[C]//Proceedings of the 4th IEEE Workshop on Applications of Computer Vision.Princeton,USA:IEEE,2002:214-219.

        [5] ROSS A D,LIM J,LIN R S,et al.Incremental learning for robust visual tracking[J].International Journal of Computer Vision,2008,77(1-3):125-141.

        [6] MEI X,LING H B.Robust visual tracking and vehicle classification via sparse representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(11):2259-2272.

        [7] GRABNER H,GRABNER M,BISCHOF H.Real-time tracking via on-line boosting[C]//Proceedings of the British Machine Vision Conference 2013.Dundee,Britain:BMVA Press,2013:47-56.

        [8] BABENKO B,YANG M H,BELONGIE S.Robust object tracking with online multiple instance learning[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(8):1619-1632.

        [9] WANG S,LU H,YANG F,et al.Superpixel tracking[C]//Proceedings of International Conference on Computer Vision.Barcelona,Spain:IEEE,2011:1323-1330.

        [10] HARE S,SAFFARI A,TORR P H S.Struck:Structured output tracking with kernels[C]//Proceedings of International Conference on Computer Vision.Barcelona,Spain:IEEE,2012:263-270.

        [11] ZHANG K,ZHANG L,YANG M H.Real-time compressive tracking[C]//Proceedings of European Conference on Computer Vision.Florence,Italy:IEEE,2012:864-877.

        [12] ZHANG K,ZHANG L,YANG M H.Fast compressive tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,36(10):2002-2015.

        [13] 耿磊,王學(xué)彬,肖志濤,等.結(jié)合特征篩選與二次定位的快速壓縮跟蹤算法[J].自動(dòng)化學(xué)報(bào),2016,42(9):1421-1431.

        GENG L,WANG X B,XIAO Z T,et al.Fast compressive tracking algorithm combining feature selection with secondary localization[J].Acta Automatica Sinica,2016,42(9):1421-1431.

        [14] 李慶武,朱國(guó)慶,周妍,等.基于特征在線選擇的目標(biāo)壓縮跟蹤算法[J].自動(dòng)化學(xué)報(bào),2015,41(11):1961-1970.

        LI Q W,ZHU G Q,ZHOU Y,et al.Object compressive tracking via online feature selection[J].Acta Automatica Sinica,2015,41(11):1961-1970.

        [15] 馬麗麗,陳金廣,胡西民,等.目標(biāo)跟蹤濾波性能的評(píng)價(jià)準(zhǔn)則[J].西安工程大學(xué)學(xué)報(bào),2013,27(3):364-368.

        MA L L,CHEN J G,HU X M,et al.Evaluation metrics for filtering performance in target tracking system[J].Journal of Xi′an Polytechnic University,2013,27(3):364-368.

        [16] 李杰,周浩,張晉,等.粒子群優(yōu)化的壓縮跟蹤算法[J].中國(guó)圖象圖形學(xué)報(bào),2016,21(8):1068-1077.

        LI J,ZHOU H,ZHANG J,et al.Compressive tracking algorithm based on particle swarm optimization[J].Journal of Image & Graphics,2016,21(8):1068-1077.

        [18] LI P,HASTIE T J,CHURCH K W.Very sparse random projections[C]//Proceedings of 12th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.Philadelphia,USA:ACM,2006:287-296.

        [19] DIACONIS P,FREEDMAN D.Asymptotics of graphical projection pursuit[J].Annals of Statistics,1984,12(3):793-815.

        [20] AVIDAN S,LEVI DM,BARHILLEL A,et al.Locally orderless tracking[C]//Proceedings of International Journal of Computer Vision,2012,111(2):213-228.

        [21] SEVILLA-LARA L,LEARNED-MILLER E.Distribution fields for tracking[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Providence,RI,USA:IEEE,2012:1910-1917.

        [22] WU Y,LIM J,YANG M H.Online object tracking:A benchmark[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Portland,OR,USA:IEEE,2013:2411-2418.

        猜你喜歡
        分類(lèi)器濾波器尺度
        基于無(wú)擾濾波器和AED-ADT的無(wú)擾切換控制
        財(cái)產(chǎn)的五大尺度和五重應(yīng)對(duì)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        開(kāi)關(guān)電源EMI濾波器的應(yīng)用方法探討
        電子制作(2018年16期)2018-09-26 03:26:50
        BP-GA光照分類(lèi)器在車(chē)道線識(shí)別中的應(yīng)用
        加權(quán)空-譜與最近鄰分類(lèi)器相結(jié)合的高光譜圖像分類(lèi)
        結(jié)合模糊(C+P)均值聚類(lèi)和SP-V-支持向量機(jī)的TSK分類(lèi)器
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        基于TMS320C6678的SAR方位向預(yù)濾波器的并行實(shí)現(xiàn)
        9
        亚洲第一成人网站| 国产综合精品久久99之一| 欧美精品久久久久久三级| 无码人妻中文中字幕一区二区| 红杏性无码免费专区| 亚洲精品国产精品av| 一区二区三区精品偷拍| 久久婷婷国产色一区二区三区| 亚洲av人片在线观看调教| 丰满少妇一区二区三区专区| 无码无在线观看| 一本到亚洲av日韩av在线天堂| 国产精品熟女视频一区二区三区 | 天天躁日日操狠狠操欧美老妇| 久久精品国产自清天天线| 亚洲中文字幕无码中字| 亚洲人成网站久久久综合| 亚洲an日韩专区在线| 亚洲熟女网站| 午夜视频福利一区二区三区 | 亚洲av色香蕉一区二区三区av | 色熟妇人妻久久中文字幕| 高清不卡日本v二区在线| 亚洲国产最新免费av| 亚洲av迷人一区二区三区| 在线观看午夜视频国产| 精品激情成人影院在线播放| 久久久亚洲欧洲日产国码aⅴ| 手机看片久久国产免费| 亚洲国产另类久久久精品黑人| 国产精品久久久久久久久免费| 女人做爰高潮呻吟17分钟| 国产美女一级做a爱视频| 激情综合五月天开心久久| 国产精品黑丝美女av| 饥渴少妇一区二区三区| 国产久色在线拍揄自揄拍| 亚洲成人免费av影院| 精品亚洲一区二区区别在线观看| 在线播放五十路熟妇| 午夜性无码专区|