亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于SVM的核相關(guān)跟蹤算法

        2018-04-27 01:43:23魏大鵬趙從梅
        傳感器與微系統(tǒng) 2018年5期
        關(guān)鍵詞:跟蹤目標(biāo)分類器濾波器

        袁 康, 魏大鵬, 趙從梅, 傅 順

        (1.重慶郵電大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,重慶 400065; 2.中國(guó)科學(xué)院 重慶綠色智能技術(shù)研究院,重慶 400714)

        0 引 言

        視覺(jué)跟蹤在計(jì)算機(jī)視覺(jué)領(lǐng)域是一個(gè)具有挑戰(zhàn)性的問(wèn)題。在許多應(yīng)用中扮演著重要角色,尤其是人機(jī)交互、智能監(jiān)控、機(jī)器人等多個(gè)領(lǐng)域[1,2]。所謂的跟蹤任務(wù)是僅給出其初始位置,估計(jì)圖像序列中目標(biāo)的軌跡。雖然過(guò)去幾十年,視覺(jué)跟蹤取得了很大的成功[3~6],但是由于光照變化、幾何變形、遮擋和背景干擾等因素的存在,使得設(shè)計(jì)穩(wěn)健高效的目標(biāo)跟蹤器依然存在諸多問(wèn)題。

        最近,相關(guān)濾波器被引入到視覺(jué)跟蹤應(yīng)用中,并取得了很好的跟蹤效果。相關(guān)濾波器的本質(zhì)思想是相關(guān)性可以在傅立葉域中快速計(jì)算以避免耗時(shí)的卷積運(yùn)算。Bolme D S等人[7]提出了最小化輸出平方誤差和輸出(minimizing the output sum of squared error,MOSSE)的自適應(yīng)相關(guān)濾波器對(duì)目標(biāo)外觀進(jìn)行建模跟蹤,相關(guān)濾波器中使用卷積理論來(lái)加速跟蹤。Henriques J等人[8]提出了采用循環(huán)結(jié)構(gòu)的核跟蹤器(circulant structure with kernels tracker,CSK),利用圖像中鄰近子窗口的循環(huán)結(jié)構(gòu),對(duì)目標(biāo)特征區(qū)域進(jìn)行密集采樣快速訓(xùn)練核化正則最小方差分類器。Henriques J等人又對(duì)CSK進(jìn)行了擴(kuò)展,在相關(guān)跟蹤中使用多通道特征的核化脊回歸模型,提出了核相關(guān)濾波器(kernelized correlation filter,KCF)[9]。Danelljan M等人[10]引入了顏色名稱(color names,CN)顏色信息來(lái)提高在彩色圖像中的跟蹤性能,隨后又提出了利用一個(gè)獨(dú)立的尺度濾波器來(lái)進(jìn)行精確尺度評(píng)估的判別式尺度空間跟蹤(discriminative scale space tracker,DSST)跟蹤器[11]。張開(kāi)華[12]等人利用時(shí)空上下文信息結(jié)合貝葉斯框架來(lái)進(jìn)行相關(guān)跟蹤。上述跟蹤方法雖然取得了很好的跟蹤效果,但是不能有效地進(jìn)行遮擋處理,很大程度上限制了跟蹤性能。

        本文在傳統(tǒng)的CSK跟蹤方法基礎(chǔ)上,提出了一種基于支持向量機(jī)(support vector machine,SVM)的重檢測(cè)機(jī)制,在目標(biāo)發(fā)生遮擋時(shí),能夠有效解決遮擋問(wèn)題,并通過(guò)在核矩陣中引入尺度因子來(lái)提高尺度濾波器的性能。

        1 CSK跟蹤算法

        CSK跟蹤算法的主要思想是利用循環(huán)矩陣構(gòu)造訓(xùn)練樣本,通過(guò)對(duì)一個(gè)單獨(dú)的圖像塊學(xué)習(xí)目標(biāo)的正則化最小二乘法(regularized least squares,RLS)分類器[9,10],通過(guò)核函數(shù)計(jì)算候選區(qū)域與跟蹤目標(biāo)的相似程度,選取相似度最大的候選區(qū)域?yàn)樾碌母櫮繕?biāo),同時(shí)利用離散傅里葉變換降低分類器訓(xùn)練和檢測(cè)過(guò)程中的運(yùn)算量。該算法可大致分為分類器訓(xùn)練、快速檢測(cè)和外觀模型更新。

        分類器訓(xùn)練過(guò)程的數(shù)學(xué)公式描述如公式(1)所示

        (1)

        式中yi為樣本xi的期望輸出;λ為一個(gè)固定的正則化參數(shù)。使用高斯核函數(shù)κ,將樣本映射到高維特征空間,將尋找最優(yōu)w問(wèn)題轉(zhuǎn)化為尋找最優(yōu)α問(wèn)題

        (2)

        (3)

        在計(jì)算響應(yīng)得到新的目標(biāo)區(qū)域x′后,更新下一幀中用于分類器檢測(cè)過(guò)程中用到的模型參數(shù)α和目標(biāo)模型X。

        2 改進(jìn)的CSK視覺(jué)目標(biāo)跟蹤算法

        傳統(tǒng)的CSK跟蹤算法采取固定大小的訓(xùn)練樣本來(lái)訓(xùn)練分類器模型,無(wú)法處理尺度變化問(wèn)題,最終導(dǎo)致分類器模型累積誤差,跟蹤目標(biāo)產(chǎn)生漂移。為此,本文使用相關(guān)濾波器方法對(duì)CSK算法進(jìn)行多尺度跟蹤上的改進(jìn),并提出了一種基于重檢測(cè)的遮擋處理機(jī)制,對(duì)遮擋情況下的模型更新進(jìn)行改進(jìn)。

        2.1 尺度估計(jì)

        (4)

        式中x為圖像樣本塊;φ(·)為圖像特征,Φ(·)為傅立葉域中的特征映射函數(shù);K(·,·)為計(jì)算核相關(guān)的核矩陣。得到h后便可估計(jì)下一幀中目標(biāo)區(qū)域z的尺度,對(duì)z提取相應(yīng)的方向梯度直方圖(histogram of oriented gradient,HOG)特征,記為g,然后取F-1(F(g)⊙H*)最大值所對(duì)應(yīng)的尺度si為跟蹤目標(biāo)的尺度,最后更新目標(biāo)模型參數(shù)αs和目標(biāo)模型Xs。

        2.2 在線檢測(cè)

        假定訓(xùn)練數(shù)據(jù)包括了N組數(shù)據(jù)對(duì),(xi,yi),i=1,2,…,n,xi=(xi1,xi2,…,xin),yi∈(-1,1)代表點(diǎn)xi的類,所述SVM分類器為wx+b=0,調(diào)整w和b使min|wxi+b|≥1,邊緣d定義如下

        (5)

        確定最佳分類平面,使兩個(gè)分界面之間的距離達(dá)到最大,此時(shí)對(duì)應(yīng)的參數(shù)w達(dá)到最小,于是將線性分類問(wèn)題轉(zhuǎn)化為最優(yōu)解問(wèn)題,使用拉格朗日函數(shù)求解最優(yōu)問(wèn)題[13],最后計(jì)算得到最佳的權(quán)重向量w*,并使用支持向量得到最佳的偏移b=1-w*·xi。計(jì)算候選目標(biāo)的置信度

        score=w*·f+b

        (6)

        最高置信度所對(duì)應(yīng)位置即為輸出。

        當(dāng)目標(biāo)被遮擋時(shí),不適當(dāng)?shù)母聲?huì)導(dǎo)致目標(biāo)模型漂移。為了解決這個(gè)問(wèn)題,引入了一個(gè)簡(jiǎn)單的判斷機(jī)制來(lái)評(píng)估目標(biāo)是否遮擋,同時(shí)自適應(yīng)調(diào)整學(xué)習(xí)率。如果目標(biāo)發(fā)生遮擋,停止目標(biāo)更新;否則,保持學(xué)習(xí)率不變。判斷機(jī)制是每一幀的輸出響應(yīng)與閾值的比較,按如下方式調(diào)整學(xué)習(xí)率β

        (7)

        式中βinit為學(xué)習(xí)率β的初始值;T=0.15。

        整個(gè)跟蹤算法步驟如下:

        初始化:根據(jù)第一幀視頻選取要跟蹤的目標(biāo),確定相關(guān)參數(shù);

        輸入:第i(i≥2)幀視頻vi;上一幀的目標(biāo)位置pi-1及尺度si-1,位置檢測(cè)中的αi-1,Xi-1及尺度檢測(cè)中的ast-1,Xst-1,閾值T;

        輸出:檢測(cè)出當(dāng)前幀目標(biāo)的位置pi和尺度si。

        位置檢測(cè):

        a.根據(jù)pi-1及si-1從vi幀中截取搜索窗口,并提取特征x;

        尺度檢測(cè):

        d.根據(jù)Pi及si-1從vi幀目標(biāo)窗口區(qū)域中提取特征xs;

        目標(biāo)重檢測(cè):

        更新:

        i.更新位置檢測(cè)中的αi,Xi;

        j.更新尺度檢測(cè)中的αsi,Xsi。

        3 實(shí)驗(yàn)結(jié)果與分析

        3.1 實(shí)驗(yàn)環(huán)境與參數(shù)

        從Visual Benchmark[14]選取了14組復(fù)雜場(chǎng)景下的視頻序列,如表1所示,進(jìn)行測(cè)試并與其他5種經(jīng)典的跟蹤算法進(jìn)行對(duì)比。

        3.2 性能評(píng)估

        表1 實(shí)驗(yàn)中的測(cè)試視頻

        全部實(shí)驗(yàn)中,使用中心位置誤差(center location error,CLE)、距離精度(distance precision,DP)、成功率(success rate,SR)作為綜合評(píng)價(jià)指標(biāo)。CLE表示跟蹤結(jié)果中心與Groundtruth標(biāo)注中心的歐氏距離,DP表示CLE小于某個(gè)固定閾值(實(shí)驗(yàn)中均取20像素)的視頻幀數(shù)與總測(cè)試視頻幀數(shù)的比值。SR的定義如下

        (8)

        (9)

        式中score為重疊率;Rt為實(shí)驗(yàn)獲得的目標(biāo)矩形窗口;Rgt為手動(dòng)標(biāo)記獲得的目標(biāo)矩形窗口;area()為區(qū)域面積;Sn為跟蹤成功次數(shù),如果score>0.5,則Sn增加一次。

        6種跟蹤方法對(duì)14組視頻進(jìn)行測(cè)試獲得的平均CLE,SR及DP,分別如表2~表4所示,其中加粗表示最優(yōu)值。

        表2 平均中心位置誤差 像素

        從表2~表4中可以看到:本文方法和原始CSK算法相比平均中心位置誤差的均值由原來(lái)的92.27像素減少到了15.63像素,距離精度的均值由原來(lái)的35.95 %提高到了81.14 %,成功率均值由原來(lái)的33.54 %提高到了81.97 %,本文算法和其他5種算法相比,3種評(píng)測(cè)值亦最優(yōu),證明本文方法的跟蹤性能有明顯提高。

        表3 距離精度 %

        表4 成功率 %

        實(shí)驗(yàn)中繪制了6種算法對(duì)14組視頻的3種評(píng)測(cè)標(biāo)準(zhǔn)曲線,但是由于篇幅限制,本文僅給出了4組視頻的評(píng)測(cè)曲線,如圖1所示。

        圖1 部分實(shí)驗(yàn)評(píng)價(jià)標(biāo)準(zhǔn)曲線

        3.3 與CSK跟蹤器的比較實(shí)驗(yàn)

        通過(guò)3個(gè)評(píng)價(jià)標(biāo)準(zhǔn)的定量分析,可以證明本文方法的跟蹤性能優(yōu)于CSK跟蹤方法。為了更直觀地說(shuō)明對(duì)比結(jié)果,以Woman視頻的測(cè)試結(jié)果為例進(jìn)行實(shí)驗(yàn),圖2、圖3分別給出了2種方法的部分跟蹤結(jié)果及3個(gè)評(píng)價(jià)標(biāo)準(zhǔn)的曲線。Woman視頻中的目標(biāo)分別發(fā)生了尺度變換、遮擋及背景干擾等情況,從圖2可以看到:第125#幀目標(biāo)發(fā)生了部分遮擋和背景干擾時(shí),CSK跟蹤開(kāi)始出現(xiàn)尺度上的細(xì)微偏差。

        由于CSK的跟蹤誤差逐漸積累,目標(biāo)運(yùn)動(dòng)到第149#幀時(shí),CSK的跟蹤結(jié)果已經(jīng)出現(xiàn)明顯的偏移,到161#幀以后已經(jīng)無(wú)法跟蹤到目標(biāo),而本文算法從發(fā)生遮擋到遮擋消失后一直能較準(zhǔn)確地跟蹤目標(biāo)。從圖3中可以看出本文算法的3種評(píng)價(jià)標(biāo)準(zhǔn)曲線均優(yōu)于CSK。綜上可知本文方法較好。

        圖2 跟蹤結(jié)果(55#,77#,125#,149#,161#,176#)

        圖3 曲線

        3.4 本文算法與其他跟蹤算法比較

        為了更直觀地說(shuō)明實(shí)驗(yàn)對(duì)比結(jié)果,本文給出了部分視頻序列在6種算法上的實(shí)驗(yàn)結(jié)果對(duì)比,如圖4。

        圖4 部分實(shí)驗(yàn)對(duì)比

        視頻序列David中,存在光照尺度及姿態(tài)變化等問(wèn)題,從圖4(a)可以看出:第471#幀目標(biāo)發(fā)生旋轉(zhuǎn)時(shí),部分算法已經(jīng)將目標(biāo)跟丟,在光照和姿態(tài)變化影響下,僅 CT及本文方法能夠正確跟蹤大部分視頻序列。視頻序列Liquor中,目標(biāo)發(fā)生了光照、尺度變化、遮擋、模糊和背景干擾,從圖4(b)可以看出:從第358#幀開(kāi)始,目標(biāo)發(fā)生快速運(yùn)動(dòng)、旋轉(zhuǎn)及被復(fù)雜的背景干擾,其他算法均開(kāi)始出現(xiàn)了較大的偏差,初始階段可以準(zhǔn)確跟蹤的CSK算法在第511#幀時(shí)也跟丟了目標(biāo),而本文算法一直能準(zhǔn)確跟蹤目標(biāo)。視頻序列Girl中的目標(biāo)分別發(fā)生了尺度變化、旋轉(zhuǎn)、姿態(tài)變化和遮擋等情況,從圖4(c)可以看出:第86#幀目標(biāo)發(fā)生旋轉(zhuǎn)時(shí),和第460#幀發(fā)生遮擋時(shí),其他幾種算法跟蹤均出現(xiàn)了偏差,而本文方法從發(fā)生旋轉(zhuǎn)到遮擋消失后一直能較準(zhǔn)確地跟蹤目標(biāo)。視頻序列Jogging中,目標(biāo)發(fā)生了遮擋、形變、旋轉(zhuǎn)變化,從圖4(d)可以看出從第83#幀開(kāi)始,由于發(fā)生遮擋,只有跟蹤學(xué)習(xí)檢測(cè)(tracking learning detection,TLD)算法和本文算法仍然可以準(zhǔn)確的跟蹤目標(biāo)。視頻序列Dog1中目標(biāo)主要發(fā)生了尺度變化,從圖4(e)中可以看出:第192#幀當(dāng)目標(biāo)沒(méi)有發(fā)生尺度變化的時(shí)候,幾種算法均跟蹤比較準(zhǔn)確,在第856#幀和第1 054#幀,目標(biāo)發(fā)生尺度變化,本文算法表現(xiàn)出了明顯優(yōu)勢(shì)。

        綜合以上實(shí)驗(yàn)結(jié)果分析可知:本文方法在目標(biāo)發(fā)生尺度、光照、姿態(tài)變化、旋轉(zhuǎn)、遮擋以及快速運(yùn)動(dòng)等情況下均具有較強(qiáng)的適應(yīng)性,跟蹤性能良好。

        4 結(jié)束語(yǔ)

        提出了一種結(jié)合SVM的多尺度相關(guān)濾波器跟蹤算法,首先通過(guò)CSK跟蹤算法計(jì)算當(dāng)前目標(biāo)是否受到遮擋,在未受到遮擋的情況下,對(duì)當(dāng)前目標(biāo)建立尺度金字塔,然后通過(guò)相關(guān)濾波器求取尺度金字塔的最大響應(yīng)得到當(dāng)前目標(biāo)尺度信息;最后使用新目標(biāo)圖像為訓(xùn)練樣本更新目標(biāo)的外觀模型和尺度模型;如果受到遮擋,則觸發(fā)重檢測(cè)機(jī)制,在目標(biāo)丟失后重新獲取目標(biāo)。實(shí)驗(yàn)結(jié)果證明該方法跟蹤性能和原始CSK算法相比有所提高,也明顯高于其它5種經(jīng)典算法,適用于具有光照變化、尺度變化和遮擋的復(fù)雜場(chǎng)景下的運(yùn)動(dòng)目標(biāo)跟蹤。

        參考文獻(xiàn):

        [1] Fang J,Wang Q,Yuan Y.Part-based online tracking with geometry constraint and attention selection[J].IEEE Transactions on Circuits & Systems for Video Technology,2014,24(5):854-864.

        [2] Chen Z,Hong Z,Tao D.An experimental survey on correlation filter-based tracking[J].Computer Science,2015,53(6025):68-83.

        [3] Babenko B,Yang M H,Belongi E S.Robust object tracking with online multiple instance learning[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(8):1619-1632.

        [4] Zhang K,Zhang L,Yang M H.Real-time compressive tra-cking[C]∥European Conference on Computer Vision,Springer-Verlag,2012:864-877.

        [5] Kalal Z,Mikolajczyk K,Matas J.Tracking-learning-detection[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2012,34(7):1409-1422.

        [6] Hare S,Golodetz S,Saffari A,et al.Struck:Structured output tracking with kernels[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2015,23(5):263-270.

        [7] Bolme D S,Beveridge J R,Draper B A,et al.Visual object tra-cking using adaptive adaptive correlation filters[C]∥IEEE Conference on Computer Vision & Pattern Recognition,IEEE,2010:2544-2550.

        [8] Henriques J F,Rui C,Martins P,et al.Exploiting the circulant structure of tracking-by-detection with kernels[C]∥ECCV 2012,Springer:Berlin Heidelberg,2012:702-715.

        [9] Henriques J F,Rui C,Martins P,et al.High-speed tracking with kernelized correlation filters[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2015,37(3):583-596.

        [10] Danelljan M,Khan F S,Felsberg M,et al.Adaptive color attri-butes for real-time visual tracking[C]∥IEEE Conference on Computer Vision and Pattern Recognition,IEEE,2014:1090-1097.

        [11] Danelljan M,H?ger G,Khan F S,et al.Accurate scale estimation for robust visual tracking[C]∥British Machine Vision Confe-rence,2014:65.1-65.11.

        [12] Zhang K,Zhang L,Liu Q,et al.Fast visual tracking via dense spatio-temporal context learning[C]∥2014 European Conference on Computer Vision(ECCV),2014:127-141.

        [13] Chapelle O.Training a support vector machine in the primal[J].Neural Computation,2007,19(5):1155-1178.

        [14] Wu Y,Lim J,Yang M H.Online object tracking:A Bench-mark[C]∥IEEE Conference on Computer Vision & Pattern Recognition,2013:2411-241.

        猜你喜歡
        跟蹤目標(biāo)分類器濾波器
        基于無(wú)擾濾波器和AED-ADT的無(wú)擾切換控制
        核相關(guān)濾波與孿生網(wǎng)絡(luò)相結(jié)合的目標(biāo)跟蹤算法
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        開(kāi)關(guān)電源EMI濾波器的應(yīng)用方法探討
        電子制作(2018年16期)2018-09-26 03:26:50
        BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
        基于圖割理論的尺度自適應(yīng)人臉跟蹤算法
        連續(xù)同色調(diào)背景下運(yùn)動(dòng)目標(biāo)自適應(yīng)跟蹤
        加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
        結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
        基于TMS320C6678的SAR方位向預(yù)濾波器的并行實(shí)現(xiàn)
        欧美自拍丝袜亚洲| 91成人自拍国语对白| 国内精品久久久久久99| 亚洲综合无码无在线观看| 亚洲av日韩aⅴ无码电影 | 国产亚洲av无码av男人的天堂| 久久久久无码精品国产app| 波多野结衣一区| 男女性搞视频网站免费| 亚洲日本精品国产一区二区三区| √新版天堂资源在线资源| 美女裸体自慰在线观看| 日本一区二区三区小视频| 日本人妻精品有码字幕| 欧美精品videosex极品| 在线看片无码永久免费aⅴ| av毛片一区二区少妇颜射| 久久精品女人av一区二区| 日本免费a级毛一片| 无码日韩AⅤ一区二区三区| 日本一本二本三本道久久久| 久久午夜av一区二区三区| 少妇高潮尖叫黑人激情在线 | 青青草手机在线免费观看视频| 亚洲熟妇少妇任你躁在线观看无码 | 国产一区二区三区在线观看免费 | 国产亚洲精品久久久久婷婷瑜伽 | 大学生被内谢粉嫩无套| 国产精品国产午夜免费看福利| 久久本道久久综合伊人| s级爆乳玩具酱国产vip皮裤| 亚洲国产一区二区三区网| 日本高清一区二区三区在线| 久久99亚洲精品久久久久| 久久久久亚洲av无码专区体验 | 越南女子杂交内射bbwxz| 亚洲加勒比无码一区二区在线播放 | 国产精品色内内在线播放| 人妻有码av中文幕久久| 国产又色又爽又黄的| 国产欧美va欧美va香蕉在线观|