亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合上下文信息及多特征目標(biāo)跟蹤方法研究

        2020-05-12 09:39:56尚振宏
        關(guān)鍵詞:特征融合信息

        秦 莉,劉 輝,尚振宏

        (昆明理工大學(xué) 信息工程與自動(dòng)化學(xué)院,昆明 650500)

        E-mail:shangzhenhong@126.com

        1 引 言

        在計(jì)算機(jī)視覺(jué)領(lǐng)域中,目標(biāo)跟蹤主要包括視頻監(jiān)控[1]、軍事目標(biāo)定位[2]等領(lǐng)域.雖然近年來(lái)已經(jīng)取得了不小的進(jìn)步,但對(duì)于目標(biāo)存在形態(tài)變化及背景雜波等多種復(fù)雜情況,完成精確的目標(biāo)跟蹤,仍是一個(gè)極大的挑戰(zhàn)[1].

        近年來(lái)因?yàn)橄嚓P(guān)濾波目標(biāo)跟蹤中判別式[3,4]算法具有良好的實(shí)時(shí)性和跟蹤效果而迅速發(fā)展.Bolme等[5]在目標(biāo)跟蹤中應(yīng)用相關(guān)濾波算法,利用提取目標(biāo)的灰度特征來(lái)完成目標(biāo)跟蹤.Henriques等[6]針對(duì)相關(guān)濾波中樣本數(shù)量不足的問(wèn)題,通過(guò)中心圖像塊進(jìn)行循環(huán)移位來(lái)增加樣本數(shù)量.但由于該算法提取的特征為單通道灰度特征,所以當(dāng)目標(biāo)遇到背景遮擋及尺度變化等復(fù)雜情況時(shí),容易出現(xiàn)跟蹤漂移的情況.為了進(jìn)一步提升算法的跟蹤效果,Henriques 等針對(duì)CSK中的特征部分進(jìn)行了改進(jìn),在相關(guān)濾波的基礎(chǔ)上提出了KCF算法[7](Kernel Correlation Filter),引入多通道和方向梯度直方圖(Histogram of Oriented Gradient,HOG)特征,將原來(lái)線性空間中的嶺回歸映射到非線性空間,利用循環(huán)矩陣和快速傅里葉變換,運(yùn)算速度和跟蹤精度都有提升.Possegger等[8]基于統(tǒng)計(jì)顏色特征方法(顏色直方圖)提出了DAT(Defense of Color-based model-free Tracking)算法,在跟蹤的過(guò)程中預(yù)先探測(cè)出與目標(biāo)相似的干擾區(qū)域,然后與正確的目標(biāo)區(qū)域加權(quán)表示.但由于該算法統(tǒng)計(jì)的是顏色直方圖,對(duì)目標(biāo)顏色變化效果較好,對(duì)目標(biāo)快速運(yùn)動(dòng)效果一般.

        由于單個(gè)特征(如HOG特征和顏色特征等)具有局限性,之后很多算法在這些基礎(chǔ)特征上進(jìn)行了有效的融合.Li等[9]在KCF之后提出融合多種特征的SAMF(Scale Adaptive Kernel Correlation Filter)算法,該算法基于KCF,第一次把HOG特征和CN(Color Names)特征[10]進(jìn)行結(jié)合使用,使跟蹤精度進(jìn)一步提升.Bertinetto等[11]通過(guò)加權(quán)融合HOG特征響應(yīng)圖和顏色直方圖特征響應(yīng)圖,根據(jù)得到最終響應(yīng)圖來(lái)估計(jì)出目標(biāo)位置.這兩個(gè)特征融合的算法實(shí)驗(yàn)結(jié)果證明,與提取目標(biāo)單一特征的算法實(shí)驗(yàn)結(jié)果對(duì)比,多特征融合的算法精度更高.

        隨著卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)在分類識(shí)別等領(lǐng)域取得了較大的突破,CNN也被應(yīng)用到目標(biāo)跟蹤領(lǐng)域中.Ma等[12]把KCF里的HOG特征替換為卷積特征,利用預(yù)訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)模型分層提取卷積特征并進(jìn)行線性加權(quán)融合,利用最后的響應(yīng)圖來(lái)確定目標(biāo)位置,相比于提取目標(biāo)HOG傳統(tǒng)特征的KCF,效果有了較大提升.Qi等[13]對(duì)多層卷積特征采用自適應(yīng)學(xué)習(xí)權(quán)重策略,跟蹤精度有所提高,但實(shí)時(shí)性一般.DeepSRDCF[14]將SRDCF[15]中的HOG特征替換為CNN中單層卷積層的深度特征(卷積網(wǎng)絡(luò)的激活值),比起使用傳統(tǒng)特征的SRDCF相比,效果有了極大提升.

        除了對(duì)特征的改進(jìn)和融合外,也有不少算法通過(guò)其他輔助方面進(jìn)行創(chuàng)新,如上下文背景信息、模型更新、尺度估計(jì)等,從而進(jìn)一步提升跟蹤算法的魯棒性.為了有效利用背景信息,Lukezic等[16]通過(guò)背景感知和對(duì)目標(biāo)區(qū)域自適應(yīng)加權(quán)求和,實(shí)時(shí)性一般.為了有效利用上下文信息,文獻(xiàn)[17]在提取傳統(tǒng)特征的同時(shí)也提取了目標(biāo)的上下文信息,利用上下文信息輔助定位,使濾波器對(duì)目標(biāo)產(chǎn)生高響應(yīng),對(duì)上下文信息產(chǎn)生零響應(yīng),實(shí)驗(yàn)結(jié)果表明,該算法對(duì)外觀變化劇烈(長(zhǎng)寬比改變或部分遮擋)及背景雜波效果較好,但由于采用的是傳統(tǒng)的HOG和顏色直方圖特征,導(dǎo)致其在背景復(fù)雜,目標(biāo)運(yùn)動(dòng)模糊等情況下效果一般.針對(duì)濾波器本身,文獻(xiàn)[14]提出的SRDCF基于DCF[7],加入空域正則化,懲罰邊界區(qū)域的濾波器系數(shù),雖然精度比起DCF有所提高,但算法速度較慢.Danelljan等[18]通過(guò)兩個(gè)相關(guān)濾波器解決目標(biāo)尺度變化問(wèn)題,先用位置濾波器對(duì)位置進(jìn)行預(yù)測(cè),之后在預(yù)測(cè)的位置上使用尺度濾波器預(yù)測(cè)目標(biāo)最佳尺度,該算法進(jìn)一步提高了算法的跟蹤效果.Li等[9]通過(guò)七個(gè)尺度分別對(duì)候選區(qū)域做響應(yīng)值計(jì)算,最大處即為目標(biāo)最佳處.Bai等[19]利用卷積特征加權(quán)融合得到響應(yīng)圖后,利用尺度金字塔估計(jì)下一幀的尺度,以克服目標(biāo)發(fā)生尺寸改變時(shí)導(dǎo)致的跟蹤失敗.由于目標(biāo)模型在背景干擾下容易發(fā)生漂移等情況,Zhao等[20]將峰值旁瓣比(Peak-to-Sidelobe Ratio,PSR)用作檢測(cè)指標(biāo),解決了目標(biāo)在背景遮擋情況下的模板更新難題,對(duì)跟蹤的精度有很大的提升.

        當(dāng)目標(biāo)存在運(yùn)動(dòng)模糊和背景干擾等問(wèn)題時(shí),基于相關(guān)濾波的單一特征難以完成目標(biāo)追蹤.為了進(jìn)一步提高跟蹤準(zhǔn)確性,融合了多種傳統(tǒng)特征和卷積特征及上下文信息.針對(duì)尺度變化問(wèn)題,本文采用尺度池估計(jì)算法使算法的精度有進(jìn)一步的提升.

        2 相關(guān)濾波跟蹤算法

        本文在相關(guān)濾波算法基礎(chǔ)上融合多種特征,相關(guān)濾波目標(biāo)跟蹤算法簡(jiǎn)述如下.

        設(shè)當(dāng)前提取圖像塊特征x,通過(guò)循環(huán)移位得到矩陣Χ.記相關(guān)濾波器為w,可利用以下最小化目標(biāo)函數(shù)求解:

        (1)

        式(1)中,y表示期望輸出,λ表示正則化參數(shù).通過(guò)傅里葉變換求得w為:

        (2)

        (3)

        (4)

        對(duì)下一幀提取的新圖像塊特征z,相關(guān)輸出響應(yīng):

        (5)

        目標(biāo)在跟蹤時(shí),存在外觀變化等情況.針對(duì)外觀模型變化,本文利用雙線性插值方法更新:

        αt=(1-γ)αt-1+γαt

        (6)

        其中,α為濾波器系數(shù),t為當(dāng)前幀的序列號(hào),γ為學(xué)習(xí)率.

        3 本文算法

        本文算法將傳統(tǒng)特征、卷積特征和上下文信息融入相關(guān)濾波算法中來(lái)實(shí)現(xiàn)目標(biāo)跟蹤.本文多特征融合流程圖如圖1所示.

        圖1 多特征融合流程圖

        將目標(biāo)顏色直方圖特征的響應(yīng)圖和目標(biāo)及上下文信息的HOG特征響應(yīng)圖采用固定系數(shù)加權(quán)融合,再自適應(yīng)融合卷積特征獲得最終的響應(yīng)圖進(jìn)行目標(biāo)位置估計(jì),最后通過(guò)尺度池估算目標(biāo)尺度,最大值對(duì)應(yīng)的尺度作為最佳尺度,算法細(xì)節(jié)描述如下.

        3.1 多特征屬性分析

        3.1.1 傳統(tǒng)特征

        傳統(tǒng)特征主要包括HOG特征和顏色特征.HOG特征是對(duì)目標(biāo)在光照發(fā)生改變時(shí)有良好的適應(yīng)性.然而,當(dāng)目標(biāo)出現(xiàn)變形及背景遮擋時(shí),很容易出現(xiàn)跟蹤失敗情形.和HOG特征不同,顏色特征是基于像素點(diǎn)的全局特征,對(duì)形變效果較好,但難以適應(yīng)光照變化.為此,本文結(jié)合這兩個(gè)特征來(lái)實(shí)現(xiàn)目標(biāo)跟蹤,可以有效補(bǔ)充其缺點(diǎn),提高目標(biāo)跟蹤算法的有效性.

        3.1.2 上下文信息特征

        為了有效利用背景信息,文獻(xiàn)[17]在式(1)的基礎(chǔ)上增加了上下文背景信息進(jìn)行輔助定位,通過(guò)在上一幀的響應(yīng)圖中目標(biāo)樣本x上下左右采樣n個(gè)上下文信息得到xi循環(huán)移位得到Χi.上下文信息樣本作為負(fù)樣本來(lái)訓(xùn)練分類器,使在目標(biāo)樣本處響應(yīng)值較大,在上下文信息處響應(yīng)值接近為零.加入上下文信息后目標(biāo)函數(shù)的嶺回歸為:

        (7)

        式(7)中λ1為正則化參數(shù)使負(fù)樣本趨近零.通過(guò)式(7)中的負(fù)樣本和目標(biāo)樣本的循環(huán)矩陣進(jìn)行合并得到:

        (8)

        式(8)中Β表示分塊循環(huán)矩陣,通過(guò)在傅域中離散傅里變換(DFT)矩陣對(duì)角化得到以下公式:

        (9)

        式中fp與標(biāo)準(zhǔn)嶺回歸一樣,濾波器w和式(2)求解過(guò)程一樣,利用傅里葉快速求解為:

        (10)

        在非線性嶺回歸的情況下,求解過(guò)程和式(4)相同,同樣利用循環(huán)矩陣的性質(zhì),α閉式解為:

        (11)

        其中向量dij(i,j∈{1,2,…,n} )分別為:

        (12)

        對(duì)下一幀目標(biāo)樣本z,相關(guān)輸出響應(yīng):

        (13)

        3.1.3 卷積特征

        最近,由于深度學(xué)習(xí)方法廣泛應(yīng)用,深度特征已被運(yùn)用在跟蹤領(lǐng)域中.

        文獻(xiàn)[12]通過(guò)VGG-19提取的卷積特征實(shí)現(xiàn)跟蹤,跟蹤精度得到進(jìn)一步提升.從圖2可以看出,低層卷積含有更多位置信息,深層卷積含有更多語(yǔ)義信息.用VGG-19提取conv3-4,conv4-4,conv5-4這三層的特征,每一層對(duì)應(yīng)的濾波器為wi(i=1,2,3),相關(guān)濾波器的求解和下一幀預(yù)測(cè)位置見(jiàn)上述章節(jié)1.

        由于高層卷積特征語(yǔ)義信息豐富,低層卷積特征對(duì)遮擋、形變比較敏感,所以高層卷積應(yīng)該給予較高的融合權(quán)重,低層卷積應(yīng)該給予較低的融合權(quán)重,加權(quán)融合三層卷積特征得到最終響應(yīng)圖fconv,即:

        (14)

        其中,βl表示每層對(duì)應(yīng)的融合權(quán)重,fl為每層各自的響應(yīng).

        3.2 多特征自適應(yīng)融合

        由于不同特征具有不同的表現(xiàn)特點(diǎn),因此采用分層融合多種特征.首先,本文具體參照文獻(xiàn)[17]的融合方法,將目標(biāo)及上下文信息HOG特征響應(yīng)圖和目標(biāo)顏色直方圖特征響應(yīng)圖采用固定權(quán)重融合,融合公式為:

        ftrad=r*fhog+(1-r)*fcolor

        (15)

        式中,r為固定權(quán)重.由于文獻(xiàn)[17]里提取的特征屬于傳統(tǒng)特征,和卷積特征相比判別能力不強(qiáng).為了提高跟蹤精度,克服模板更新過(guò)程中出現(xiàn)的的漂移情況,本文對(duì)傳統(tǒng)特征響應(yīng)圖ftrad和卷積特征響應(yīng)圖fconv采用自適應(yīng)加權(quán)融合,響應(yīng)最大處即為最終目標(biāo)位置flast,在本文中,自適應(yīng)融合權(quán)重使用相鄰圖像幀的特征響應(yīng)圖峰值旁瓣比(PSR)差值,最終融合的公式由式(16)計(jì)算:

        flast=kconvfconv+ktradftrad

        (16)

        圖2 三層卷積層各自的特征表示

        各自的自適應(yīng)權(quán)重由式(17)計(jì)算:

        (17)

        其中,Cconv表示傳統(tǒng)特征 PSR,Ctrad表示卷積特征PSR,計(jì)算公式為:

        (18)

        式中,t為當(dāng)前幀的序列號(hào),μ為均值,δ為方差.

        權(quán)重kt的更新策略為:

        kt=(1-ηk)kt-1+ηkkt

        (19)

        其中,ηk為權(quán)重更新系數(shù).

        3.3 尺度估計(jì)

        3.4 本文算法流程

        本文算法流程如下:

        位置預(yù)測(cè):

        Step 1.根據(jù)目標(biāo)的初始狀態(tài)采樣圖像樣本塊,根據(jù)式(4)訓(xùn)練目標(biāo)顏色直方圖濾波器和卷積特征濾波器,根據(jù)式(11)訓(xùn)練目標(biāo)及上下文信息HOG特征濾波器.

        Step 2.根據(jù)式(5)獲得目標(biāo)顏色直方圖特征響應(yīng)圖,根據(jù)(13)式獲得目標(biāo)及上下文信息HOG特征相關(guān)濾波響應(yīng)值,根據(jù)式(14)獲得目標(biāo)卷積特征相關(guān)濾波響應(yīng)圖.

        Step 3.先由式(15)計(jì)算傳統(tǒng)特征融合響應(yīng)圖,再根據(jù)式(16)計(jì)算出最后的傳統(tǒng)特征與卷積特征自適應(yīng)融合響應(yīng)圖并對(duì)當(dāng)前幀進(jìn)行位置預(yù)測(cè).

        尺度估計(jì):

        Step 4.由式(5)獲得最大尺度響應(yīng)值,估計(jì)當(dāng)前幀的最佳尺度,使用式(6)更新尺度濾波器.

        模型更新:

        Step 5.根據(jù)式(6)訓(xùn)練和更新多個(gè)濾波器模型.

        Step 6.由式(18)式(19)更新自適應(yīng)特征的融合權(quán)重.

        4 實(shí) 驗(yàn)

        4.1 實(shí)驗(yàn)參數(shù)設(shè)置

        本文在Intel Corei7-7800X 3.50GHz CPU,GTX Titan X GPU,內(nèi)存為16GB的臺(tái)式電腦上完成,軟件為Matlab R2017b,卷積特征基于MatConvNet[21].參數(shù)具體設(shè)置為:上下文信息個(gè)數(shù)n為4,正則化系數(shù)λ為10-4,控制上下文信息λ1為0.5,相關(guān)濾波器學(xué)習(xí)率γ為0.01,HOG特征權(quán)重r是0.7,其他傳統(tǒng)特征的系數(shù)與STAPLE_CA算法設(shè)置相同,卷積特征的選取系數(shù)設(shè)置和CF2算法相同,自適應(yīng)融合權(quán)重Kconv和ktrad初始值為0.5,尺度樣本個(gè)數(shù)S為33個(gè),尺度因子α為1.02,權(quán)重學(xué)習(xí)率ηk為0.1,尺度估計(jì)方法和DSST算法參數(shù)相同.

        本文選取OTB-50[22,23]標(biāo)準(zhǔn)數(shù)據(jù)集進(jìn)行評(píng)估,共有51個(gè)視頻序列,每個(gè)視頻序列都有不同的運(yùn)動(dòng)特點(diǎn).實(shí)驗(yàn)結(jié)果采用距離精度曲線圖(Distance Precision Plot)和成功率曲線圖(Success Plot)作為評(píng)價(jià)標(biāo)準(zhǔn)[24].

        4.2 定量評(píng)價(jià)

        本文算法與圖3中的9種主流算法在OTB-50中進(jìn)行了定量對(duì)比實(shí)驗(yàn).選取這9種算法算法的原因:1、由于本文算法是在STAPLE-CA基礎(chǔ)上融入CF2卷積特征,首先與這兩種原算法(STAPLE-CA、CF2)對(duì)比;2、本文算法利用上下文信息輔助定位,所以和利用背景信息的的算法csrdcf[16]進(jìn)行對(duì)比和對(duì)濾波器進(jìn)行改進(jìn)的SRDCF進(jìn)行對(duì)比;3、本文算法在傳統(tǒng)特征上融合了卷積特征,所以和一些近年來(lái)基于卷積特征的主流算法進(jìn)行對(duì)比:HDT、ACFN[25]、DeepSRDCF,CNN-SVM[26];4、本文算法采用了尺度池訓(xùn)練尺度濾波器,所以選取了對(duì)尺度特征進(jìn)行改進(jìn)的SAMF進(jìn)行對(duì)比.

        對(duì)比實(shí)驗(yàn)結(jié)果如圖3所示.

        圖3可以看出本文算法Ours在OTB-50中平均DP為89.3%,平均OP為81.2%,均優(yōu)于其他算法.

        本文提出的算法與使用傳統(tǒng)特征及上下文信息的原算法STAPLE-CA相比,平均DP提高了6.1%,平均OP提高了4.7%;與只使用卷積特征的CF2相比,平均DP雖然只提高了0.2%,但平均OP提高了7.2%;與用卷積特征代替HOG特征的DeepSRDCF相比,平均OP雖提高了1.8%,但平均DP提高了4.4%,實(shí)驗(yàn)證明了傳統(tǒng)手工特征與卷積特征兩種特征的融合比只使用卷積特征和傳統(tǒng)特征效果要好.文中引入目標(biāo)上下文信息,目標(biāo)上下文信息被視為硬性負(fù)樣本幫助輔助定位,比起針對(duì)引入空間正則化懲罰項(xiàng)的SRDCF,平均DP提高了5.5%,平均OP提高了3.1%;比起利用背景感知的csrdcf相比,平均DP提高了9.3%,平均OP提高了5.9%;與融合灰度特征,HOG特征及CN特征和對(duì)尺度進(jìn)行改進(jìn)的SAMF相比,平均DP提高了10.8%,平均OP提高了8.0%,說(shuō)明了與卷積特征的融合在復(fù)雜情況下能夠提升跟蹤效果;與圖中其他的使用卷積特征的主流算法相比,本文在平均DP和平均OP方面優(yōu)于其他算法.

        圖3 OTB-50中10種算法實(shí)驗(yàn)對(duì)比結(jié)果

        圖3說(shuō)明本文算法無(wú)論是與使用傳統(tǒng)特征、卷積特征、背景信息還是對(duì)尺度池進(jìn)行改進(jìn)的算法,在距離精度和重疊精度方面效果均優(yōu)于其他算法,本文在傳統(tǒng)特征的基礎(chǔ)上引入上下文信息硬性負(fù)樣本進(jìn)行輔助定位,提取傳統(tǒng)特征的同時(shí)自適應(yīng)融合了卷積特征,并用尺度池解決目標(biāo)尺度變化問(wèn)題,實(shí)驗(yàn)證明了本算法的有效性,使目標(biāo)跟蹤的效果有了進(jìn)一步的提升.

        4.3 定性評(píng)價(jià)

        為了進(jìn)一步說(shuō)明本文算法在復(fù)雜環(huán)境下的跟蹤性能,本文分析了在不同挑戰(zhàn)因子下的實(shí)驗(yàn)結(jié)果,定性對(duì)比分析本文算法的跟蹤性能.表1和表2分別為不同的算法在不同的挑戰(zhàn)因子下的平均DP和平均OP,挑戰(zhàn)因子包括背景干擾(Background Clutters,BC)、運(yùn)動(dòng)模糊(Motion Blur,MB)、非剛性形變(Deformation,DEF)、光照變化(Illumination Variation,IV)、平面內(nèi)旋轉(zhuǎn)(In-Plane Rotation,IPR)、遮擋(Occlusion,OCC)、平面外旋轉(zhuǎn)(Out-of-Plane Rotation,OPR)和尺度變化(Scale Variation,SV)8種挑戰(zhàn)因子.從表1可以看出,本文算法Ours平均DP在MB,IPR、 OPR、OCC、SV中第一,說(shuō)明了多種特征融合的的有效性.針對(duì)目標(biāo)發(fā)生非剛性形變時(shí),本文算法平均DP稍稍遜色于ACFN和HDT,因ACFN著重通過(guò)增大空間分辨率而增強(qiáng)了邊緣區(qū)域的精度效果,所以當(dāng)目標(biāo)發(fā)生非剛性形變時(shí)效果較好;由于本文算法本文因?yàn)樘崛〉奶卣靼伾卣?易受光照變化的影響,所以當(dāng)目標(biāo)出現(xiàn)光照變化時(shí),效果稍稍弱于只使用卷積特征的HDT和CF2.

        表1 不同算法在不同挑戰(zhàn)因素下的距離精度值

        Table 1 Distance precision of different algorithms on different challenges

        OursCF2HDTCNN-SVMACFNDeepSRDCFSTAPLE_CASRDCFcsrdcfSAMFBC0.883 0.8850.8710.7890.7830.7930.7890.8030.7330.676MB0.8450.844 0.8400.7450.7090.7930.8710.7890.7990.564DEF0.8830.8810.884 0.8580.9020.8120.8710.8550.8350.810IV0.8420.844 0.8450.7800.7930.7600.8010.7610.7100.682IPR0.8710.8680.869 0.8360.8140.8050.8060.7660.7420.714OCC0.8800.877 0.8740.7700.8560.8480.7960.8440.8060.839OPR0.8720.8690.871 0.8320.8700.8440.8240.8180.7850.767SV0.8840.880 0.8660.8270.8130.8140.8050.7780.7250.723

        說(shuō)明:表中用單橫線標(biāo)注的為排名第1,用波浪線標(biāo)注的為排名第2

        表2 不同算法在不同挑戰(zhàn)因素下的成功率

        Table 2 Success rate of different algorithms on different challenges

        OursCF2HDTCNN-SVMACFNDeepSRDCFSTAPLE_CASRDCFcsrdcfSAMFBC0.8210.786 0.7690.7570.6800.7200.7430.7150.6800.655MB0.780 0.7490.7480.7130.6360.7950.7000.7620.7710.561DEF0.8520.7630.7650.7940.7750.7710.8190.8050.821 0.804IV0.7590.6650.6620.6620.6780.7110.727 0.7010.6740.641IPR0.7540.7180.7150.7050.6840.736 0.7240.7090.6710.653OCC0.8170.7380.7390.6870.7260.793 0.7380.7900.7750.782OPR0.7770.7190.7160.7140.7330.774 0.7360.7400.7180.699SV0.7420.6040.5870.5850.7470.7820.6920.7120.6500.634

        說(shuō)明:表中用單橫線標(biāo)注的為排名第1,用波浪線標(biāo)注的為排名第2

        從表2可以看出,本文算法Ours平均OP在BC、DEF、IV、IPR、OCC、OPR和SV中第一,說(shuō)明了Ours在多種復(fù)雜環(huán)境下的有效性.在尺度變化方面,平均OP稍稍弱于DeepSRDCF和ACFN,由于DeepSRDCF使用了空間正則化和深度特征,對(duì)目標(biāo)發(fā)生尺度變化時(shí)效果較好.

        圖4(a)和圖4(b)顯示了目標(biāo)在三種挑戰(zhàn)因子下的平均DP和平均OP,三種挑戰(zhàn)因子包含:IPR、OCC、OPR.圖4(a)和圖4(b)表明了Ours無(wú)論在平均DP還是平均OP都比其他算法高.針對(duì)這三種挑戰(zhàn)因子,圖4(a)中平均DP分別達(dá)到了0.871,0.880,0.872,圖4(b)中平均OP分別達(dá)到了0.754,0.817,0.777,說(shuō)明了本文融合多種特征能夠較好處理目標(biāo)發(fā)生旋轉(zhuǎn)和翻轉(zhuǎn)等復(fù)雜情況,證明了該算法的有效性和魯棒性.

        圖4 10種算法在三種挑戰(zhàn)因子下的距離精度圖(a)和成功率圖(b)

        5 結(jié) 論

        針對(duì)單一特征難以實(shí)現(xiàn)目標(biāo)的精準(zhǔn)跟蹤,本文提出了一個(gè)融合傳統(tǒng)特征、卷積特征及上下文信息的目標(biāo)跟蹤算法.首先將目標(biāo)及上下文信息的HOG特征響應(yīng)圖和目標(biāo)顏色直方圖特征響應(yīng)圖采用固定權(quán)重融合,然后自適應(yīng)權(quán)重融合卷積特征以更好適應(yīng)目標(biāo)變化,并采用尺度池方法解決目標(biāo)尺寸變化.本文算法在OTB-50公開(kāi)測(cè)試集中進(jìn)行測(cè)試,實(shí)驗(yàn)證明,無(wú)論與融合HOG特征、上下文信息和顏色直方圖特征的算法相比,還是與只使用卷積特征的算法相比,平均距離精度和平均重疊精度都有一定的提高;與其他利用上下文信息、傳統(tǒng)特征融合、對(duì)尺度進(jìn)行改進(jìn)的算法相比,性能也優(yōu)于其他算法,本文證明了本文算法多特征融合的有效性.定性的實(shí)驗(yàn)結(jié)果證明,與其他使用卷積特征的主流算法對(duì)比,性能也優(yōu)于其他算法.但由于本文算法提取的特征較多,在實(shí)時(shí)性方面存在不足,速度較慢,針對(duì)此問(wèn)題,下一步打算針對(duì)卷積特征的通道冗余進(jìn)行改進(jìn)從而提高目標(biāo)跟蹤效果的實(shí)時(shí)性.

        猜你喜歡
        特征融合信息
        村企黨建聯(lián)建融合共贏
        融合菜
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        《融合》
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        展會(huì)信息
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        国产av无码专区亚洲草草| 无码一区二区三区网站| 国产清品夜色一区二区三区不卡| 中文字幕有码在线视频| 国产美女高潮流的白浆久久| 午夜桃色视频在线观看| 丁香婷婷在线成人播放视频| 久久精品免费视频亚洲| 综合色免费在线精品视频| a级毛片免费观看在线播放| 少妇性荡欲视频| 最近高清中文在线字幕观看| 成人无码视频在线观看网站| 精品国产亚洲av久一区二区三区| 国产高清在线一区二区不卡| 久久精品国产亚洲av麻豆色欲| 天天躁日日躁狠狠很躁| 精品国产高清a毛片无毒不卡| 亚洲免费一区二区三区视频| 午夜国产小视频在线观看黄| 99久久精品人妻少妇一| 狠狠色欧美亚洲狠狠色www| 性裸交a片一区二区三区 | 国产情侣自拍一区视频| 国产人妻熟女高跟丝袜图片| 97伦伦午夜电影理伦片| 在线精品国内视频秒播| 久久精品国产av大片| 国产精品亚洲二区在线| 亚洲av高清在线观看一区二区| 婷婷综合缴情亚洲| 永久免费看免费无码视频| 亚洲中文字幕综合网站| 不卡的av网站在线观看| 97人妻精品一区二区三区| 成人a在线观看| av永久天堂一区二区三区蜜桃| 国产免费网站在线观看不卡| 综合图区亚洲另类偷窥| 十八18禁国产精品www| 亚洲AV日韩AV永久无码电影|