亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        相關(guān)濾波目標(biāo)跟蹤算法研究*

        2016-10-14 00:07:38顧培婷黃德天柳培忠黃煒欽汪鴻翔
        海峽科學(xué) 2016年7期

        顧培婷 黃德天 柳培忠 黃煒欽 汪鴻翔

        ?

        相關(guān)濾波目標(biāo)跟蹤算法研究*

        顧培婷 黃德天 柳培忠 黃煒欽 汪鴻翔

        華僑大學(xué)工學(xué)院

        近年來,相關(guān)濾波目標(biāo)跟蹤在視覺領(lǐng)域中受到了越來越多的關(guān)注,并取得了令人矚目的成果。該文對(duì)目前基于相關(guān)濾波的跟蹤算法進(jìn)行分析研究,首先提出了一個(gè)通用的相關(guān)濾波目標(biāo)跟蹤框架,然后討論幾種經(jīng)典的跟蹤算法,并對(duì)其改進(jìn)算法進(jìn)行分析歸類,主要分為尺度更新、背景遮擋;最后通過仿真實(shí)驗(yàn)對(duì)幾種算法性能進(jìn)行分析,并提出相關(guān)濾波跟蹤技術(shù)存在的問題。

        目標(biāo)跟蹤算法 相關(guān)濾波 尺度更新 背景遮擋 改進(jìn)算法

        1 概述

        運(yùn)動(dòng)目標(biāo)跟蹤在計(jì)算機(jī)視覺領(lǐng)域中是最具挑戰(zhàn)的課題之一,廣泛應(yīng)用于監(jiān)控和機(jī)器人等領(lǐng)域。目標(biāo)跟蹤就是對(duì)視頻中給定的目標(biāo)進(jìn)行分析跟蹤,然后預(yù)測(cè)出跟蹤視頻中的目標(biāo)。由于受到各種環(huán)境影響,例如光照變化、遮擋、形變、旋轉(zhuǎn)、運(yùn)動(dòng)模糊等,設(shè)計(jì)出高效、魯棒性的目標(biāo)跟蹤仍然是一個(gè)難題。目前所面臨的挑戰(zhàn)可分為三類,分別是:目標(biāo)外觀變化、目標(biāo)尺度變化和部分或全部遮擋。造成目標(biāo)外觀變化的因素很多,如受到光照影響導(dǎo)致目標(biāo)的外觀信息發(fā)生變化;目標(biāo)的大小改變、形變等則導(dǎo)致目標(biāo)尺度變化。采用何種特征表示目標(biāo),及如何建立自適應(yīng)模型來解決這些問題,是設(shè)計(jì)目標(biāo)跟蹤算法的關(guān)鍵。

        經(jīng)過幾十年的研究,眾多學(xué)者已經(jīng)提出了各種算法來解決這些問題,例如文獻(xiàn)[1]~[6]使用生成模型算法,而文獻(xiàn)[7]~[11]使用判別模型算法。生成模型方法就是學(xué)習(xí)目標(biāo)的外觀,然后在圖像中尋找最接近目標(biāo)的位置;判別模型則采用分類器將目標(biāo)和背景分離,產(chǎn)生目標(biāo)和背景的判別模型,該方法同時(shí)關(guān)注目標(biāo)和背景,從而能更有效地識(shí)別目標(biāo)。相關(guān)濾波跟蹤器屬于判別模型方法,具有顯著的跟蹤成果,已經(jīng)得到廣大學(xué)者的關(guān)注。

        總結(jié)研究相關(guān)濾波跟蹤算法對(duì)于未來的研究具有重要意義。相關(guān)濾波就是通過對(duì)感興趣的目標(biāo)區(qū)域產(chǎn)生峰值,而背景相反,從而得到目標(biāo)位置。Bolme等提出MOSSE算法[12],改變了目標(biāo)跟蹤的形勢(shì),該算法采用一個(gè)自適應(yīng)的訓(xùn)練框架,達(dá)到了高效、魯棒的跟蹤結(jié)果。之后,學(xué)者們?cè)贛OSSE基礎(chǔ)上相繼提出了許多改進(jìn),例如,Henriques等[13]將核函數(shù)引入MOSSE,Danelljan等[14]采用顏色屬性表示目標(biāo)特征。在解決尺度變化上,SAMF[15]、DSST[16]、KCF[17]等算法具有顯著的跟蹤結(jié)果。隨著越來越多的CFTS算法被提出,基于相關(guān)濾波的跟蹤方法表現(xiàn)了其突出的魯棒性、高效性,具有廣闊的發(fā)展前景。

        為方便其他研究人員的后續(xù)研究,本文的主要目標(biāo)包括:對(duì)CFTs的總體框架進(jìn)行概述;描述幾種經(jīng)典的CFTs算法,并對(duì)基于CFTs的改進(jìn)算法進(jìn)行歸類,最后列出五種代表性的算法進(jìn)行性能比較,得出相關(guān)濾波跟蹤算法具有較高的魯棒性。

        2 相關(guān)濾波器的跟蹤框架經(jīng)典算法

        2.1 相關(guān)濾波器的跟蹤框架

        根據(jù)現(xiàn)有的相關(guān)濾波跟蹤算法,通用的框架概述如下:首先,濾波器將選取第一幀給定的目標(biāo)位置的圖像塊,作為訓(xùn)練樣本。然后隨著每個(gè)時(shí)間步長(zhǎng),根據(jù)之前的圖像塊預(yù)測(cè)后續(xù)的位置,并用于檢測(cè)。接著,如圖1所示,從原始圖像中提取出各種特征,并且使用余弦窗平滑邊界效應(yīng)。再通過DFT離散傅里葉變換,快速學(xué)習(xí)分類器。在實(shí)際中,DFT的一個(gè)向量是通過快速傅里葉變換(FFT)算法高效計(jì)算得到。同時(shí)空間的置信圖或響應(yīng)圖可以通過逆FFT獲得,響應(yīng)最大值的位置就是標(biāo)的位置。用數(shù)學(xué)方法來描述算法,令是輸入圖像,是相關(guān)濾波器。在實(shí)際中,是原始圖像塊或是提取的特征。︵是傅里葉變換。根據(jù)卷積定理,循環(huán)卷積等于頻域中逐元數(shù)相乘。公式(1)是和生成的置信圖。

        濾波器的訓(xùn)練,首先確定輸出,目標(biāo)和濾波器,滿足:

        因此,

        (3)

        在使用相關(guān)濾波器框架時(shí),需要處理好以下幾個(gè)問題:首先,訓(xùn)練過程對(duì)CFTs至關(guān)重要,由于目標(biāo)外觀會(huì)不斷改變,濾波器需要自適應(yīng)的訓(xùn)練和更新,以適應(yīng)目標(biāo)的新外觀。第二,特征表示方法會(huì)影響跟蹤性能。盡管像素值可以直接用于檢測(cè),但是跟蹤過程中會(huì)受到各種噪聲影響。選取好的特征對(duì)跟蹤器至關(guān)重要。第三,由于相關(guān)濾波器的目標(biāo)跟蹤框是固定的,不能很好地解決目標(biāo)尺度發(fā)生變化的跟蹤,所以自適應(yīng)的更新目標(biāo)尺度是CFTs的另一個(gè)挑戰(zhàn)。因此,研究一種有效的尺度估計(jì)算法是有必要的。

        圖1 相關(guān)濾波跟蹤框架

        2.2 經(jīng)典算法

        2.2.1 MOSSE算法

        根據(jù)公式(2)和(3),一個(gè)簡(jiǎn)單的濾波器可以由樣本x和輸出響應(yīng)值y實(shí)現(xiàn)。然而,一個(gè)魯棒性的跟蹤算法需要訓(xùn)練很多樣本,上述框架遠(yuǎn)不能實(shí)現(xiàn)。因此,Bolme等提出MOSSE算法[12],采用最小輸出平方誤差和算法,對(duì)目標(biāo)外觀變化有較強(qiáng)的適應(yīng)性,因此,最小輸出平方誤差和算法可以用下式表示:

        其中,i是訓(xùn)練圖像,最終公式(4)變?yōu)椋?/p>

        (5)

        詳細(xì)的公式推導(dǎo)可以查閱文獻(xiàn)[17]。一般情況下,輸出值y可以表現(xiàn)為任何形狀。MOSSE算法則生成一個(gè)2維的高斯分布,且其峰值在中心。若是將 Kronecker delta函數(shù)應(yīng)用于計(jì)算y,則目標(biāo)中心值為1,其余為0。所得的濾波器理論上是一個(gè)UMACE濾波器,因此UMACE是MOSSE的一種特殊情況。

        2.2.2 KCF算法

        文獻(xiàn)[12]和[34]證明了基于相關(guān)濾波器的跟蹤算法具有高效、魯棒的特點(diǎn)。然而,該算法還存在局限性,ASEF算法和MOSSE算法可以認(rèn)為是簡(jiǎn)單的線性分類,因此通過引入核函數(shù)可以處理非線性分類問題,使得相關(guān)濾波器性能更具有穩(wěn)健性。

        目前已有一些基于核相關(guān)濾波的算法,例如文獻(xiàn)[18]~[20]。Henriques等提出KCF跟蹤算法[17,20]、最小二乘分類器和循環(huán)矩陣進(jìn)行有效的核相關(guān)濾波。

        2.2.2.1 正則化風(fēng)險(xiǎn)最小理論

        假設(shè)給定一組訓(xùn)練樣本及其回歸值:{(1,1),(2,1),...,(x,y),...},其訓(xùn)練的最終目標(biāo)是找到一個(gè)函數(shù),使得如下殘差函數(shù)最小:

        其中,λ是正則化參數(shù),上式的閉式解可以參考線性最小二乘的求解,得出如下:

        (7)

        如果按照常規(guī)求解式(7),由于矩陣的求逆計(jì)算復(fù)雜度高,影響計(jì)算時(shí)間。文獻(xiàn)[7]指出,在一定條件下,核矩陣K可轉(zhuǎn)換為循環(huán)矩陣,根據(jù)這一性質(zhì),將公式(7)轉(zhuǎn)化為:

        (9)

        2.2.2.2 循環(huán)矩陣

        其中,第一行為向量u,第二行是經(jīng)過第一行向右循環(huán)移位1個(gè)元素得到的,依次類推。

        則公式(9)可轉(zhuǎn)換到DFT域,即:

        2.2.2.3 目標(biāo)檢測(cè)

        通過采用滑動(dòng)窗口的方式計(jì)算圖像塊z所有子窗口的響應(yīng),響應(yīng)最大的子窗口即為目標(biāo)的位置。分類器的響應(yīng)為:

        3 算法的改進(jìn)

        3.1 尺度更新

        3.1.1 STC算法

        K. Zhang等提出STC算法[21],利用時(shí)空上下文信息跟蹤目標(biāo),這可以看成是另一類型的CFTs算法。時(shí)空上下文信息已經(jīng)被應(yīng)用于多種跟蹤算法中[22-24]。條件概率函數(shù)表示為:

        (14)

        式中,是歸一化參數(shù),鑒于高斯分布式的權(quán)重,更注重跟蹤目標(biāo)中心區(qū)域,所以上下文信息接近目標(biāo)中心,分配權(quán)重越大,反之權(quán)重越小。

        算法的快速學(xué)習(xí)可定義為:

        (17)

        3.1.2 SAMF和DSST算法

        一般的CFTs,如MOSSE和KCF,都是使用固定的跟蹤窗口,無法處理目標(biāo)尺度變化,針對(duì)這個(gè)問題,學(xué)者們已提出許多算法。在SAMF[15]和DSST算法[16]中,提出了一種搜索策略應(yīng)用到估計(jì)目標(biāo)尺度。具體的、不同尺度的跟蹤窗構(gòu)成了樣本池,響應(yīng)最大值的跟蹤窗可以用來預(yù)測(cè)目標(biāo)位置。文獻(xiàn)[13]等提出了SAMF算法。即:假設(shè)窗口的尺度大小為,表示模板窗口大小,則,是尺度池的值,當(dāng)前的目標(biāo)窗口可以通過在采樣窗口集中搜索得到最大相關(guān)的窗口。SAMF中的值在[0.985,1.015]之間。

        DSST的表示為:

        兩個(gè)跟蹤算法的主要區(qū)別在于,SAMF一次處理一個(gè)窗口,而DSST采用3維相關(guān)濾波器來搜索最佳跟蹤窗尺度大小。與上述方法不同的是,有些算法通過基于分塊跟蹤解決尺度變化問題。例如,文獻(xiàn)[25]采用用貝葉斯框架跟蹤目標(biāo)。文獻(xiàn)[26]提出統(tǒng)計(jì)方法,根據(jù)標(biāo)記和排序不同圖像塊之間的相對(duì)位置估計(jì)尺度變化。這些方法也取得了顯著的結(jié)果。其中,STC特有的估計(jì)尺度變化方法。尺度表示方法為:

        (19)

        (20)

        3.1.3 其他算法

        文獻(xiàn)[27]采用高斯窗代替余弦窗消除目標(biāo)邊界噪聲,同時(shí)引入關(guān)鍵點(diǎn)模型進(jìn)行尺度預(yù)測(cè)。尺度預(yù)測(cè)可以表示為:

        文獻(xiàn)[28]通過投票方法解決尺度問題,后驗(yàn)概率最大的就是所選尺度大小,然后采用多模板、多特征和非線性核進(jìn)行目標(biāo)跟蹤。多模板核相關(guān)濾波問題可用下式表示:

        (23)

        3.2 背景遮擋

        為了解決目標(biāo)遮擋問題,研究者們已提出多種基于分塊跟蹤的算法。通常的,如果目標(biāo)被部分遮擋,即遮擋是從目標(biāo)的某個(gè)區(qū)域發(fā)生的,遮擋部分信息丟失,但是其他未被遮擋的部分未改變可以表示目標(biāo),只要正確跟蹤目標(biāo)未遮擋部分,就可以繼續(xù)跟蹤目標(biāo)。文獻(xiàn)[25]將目標(biāo)分解為5個(gè)子塊,使用KCF跟蹤器跟蹤每個(gè)子塊,再將子塊的分類器置信值組合,得到聯(lián)合置信度。同時(shí)使用SCCM方法重新分配目標(biāo)權(quán)重值。然后,通過在貝葉斯框架內(nèi)使用聯(lián)合置信度推導(dǎo)出后驗(yàn)概率最大的候選目標(biāo)。文獻(xiàn)[26]利用本地信息基于KCF跟蹤算法跟蹤,該算法通過自動(dòng)選擇樣本塊作為算法的分塊部分,這個(gè)樣本塊是穩(wěn)定的。當(dāng)樣本塊不再可靠時(shí),將進(jìn)行重采樣,當(dāng)獲得可靠的樣本塊時(shí),可以通過Hough Voting-like方法預(yù)測(cè)目標(biāo)位置。文獻(xiàn)[29]提出一種新的在線更新策略來估計(jì)尺度,首先在目標(biāo)周圍采集一系列多尺度圖像塊,在提取特征前,采用雙線性插值法得到與第一幀目標(biāo)框尺度相同,再用分類器訓(xùn)練得到一維的尺度KCF,然后尋找響應(yīng)最大值,實(shí)現(xiàn)尺度預(yù)測(cè)。

        4 算法性能分析

        目標(biāo)跟蹤算法的優(yōu)劣可以從兩個(gè)方面考慮——魯棒性與實(shí)時(shí)性。由于視頻序列會(huì)受各種環(huán)境因素影響,例如復(fù)雜背景、運(yùn)動(dòng)目標(biāo)速度快、光照變化等,跟蹤過程中的高精度要求對(duì)算法的魯棒性造成很大困難。同時(shí),跟蹤過程中要控制圖像處理環(huán)節(jié),以提高跟蹤實(shí)效性。

        本文采用跟蹤精度曲線圖來評(píng)價(jià)算法的優(yōu)劣程度。跟蹤精度曲線圖首先設(shè)定一個(gè)目標(biāo)估計(jì)位置與真實(shí)位置的閾值距離,在跟蹤過程中,統(tǒng)計(jì)跟蹤算法估計(jì)的目標(biāo)位置與真實(shí)位置的距離小于閾值范圍的幀數(shù),并計(jì)算幀數(shù)占整個(gè)視頻幀的百分比。用公式表示為:。

        圖2為本文對(duì)STC[21]、CSK[13]、KCF[17]、CN2[14]、DSST[16]等五種相關(guān)濾波算法的性能進(jìn)行比較,本文使用文獻(xiàn)[30]提供的標(biāo)準(zhǔn)測(cè)試視頻序列進(jìn)行實(shí)驗(yàn)。表1為本文采用的視頻序列的數(shù)據(jù)信息。

        表1 測(cè)試序列

        Dark car??????????????????Deer

        Shaking??????????????????Skating1

        圖2 五種算法性能比較

        從圖2可見,閾值越低、精度值越高的跟蹤算法越好。五種算法對(duì)四種視頻序列跟蹤精度效果較好。KCF算法對(duì)光照變化跟蹤失敗,STC算法對(duì)目標(biāo)快速運(yùn)動(dòng)不敏感等跟蹤結(jié)果不佳,這些可以作為后續(xù)深入研究,但是總體上均有較高的魯棒性,且實(shí)時(shí)性高。在所有的跟蹤過程中,DSST和CN2的跟蹤效果較好。CSK算法在復(fù)雜背景、光照、姿態(tài)形變條件下,能在閾值為20時(shí)達(dá)到100%高距離精度,但是針對(duì)快速運(yùn)動(dòng)的目標(biāo)跟蹤效果略差。KCF算法對(duì)光照變化不敏感,但在其他條件下跟蹤效果較佳,具有較強(qiáng)的魯棒性。對(duì)于尺度、光照、姿態(tài)變化,DSST算法和CN2算法在閾值為20時(shí)能達(dá)到100%的跟蹤精度,具有很高的跟蹤精度??偟膩碚f,在復(fù)雜背景和姿態(tài)變化方面,相關(guān)濾波跟蹤算法均能達(dá)到較好的跟蹤結(jié)果。

        5 結(jié)束語

        本文對(duì)國(guó)內(nèi)外基于相關(guān)濾波的跟蹤算法進(jìn)行研究和總結(jié),雖然已有的跟蹤算法有顯著的跟蹤效果,但是仍然存在許多問題需要解決,主要有:

        (1)尺度變化。盡管已有很多算法在相關(guān)濾波上提出改進(jìn)尺度變化,但是還沒能完全適用全部視頻序列,所以在這方向的研究還有待深入改善。

        (2)完全遮擋最具挑戰(zhàn)。當(dāng)目標(biāo)全部被遮擋、無法獲取目標(biāo)信息時(shí),只能通過先驗(yàn)信息預(yù)測(cè)目標(biāo)軌跡,但是這種方法具有不穩(wěn)定性;當(dāng)目標(biāo)的運(yùn)動(dòng)狀態(tài)改變較大時(shí),預(yù)測(cè)位置就會(huì)有很大偏差,可能導(dǎo)致跟蹤結(jié)果不精確。

        (3)目標(biāo)形變?nèi)允菃栴}。當(dāng)目標(biāo)發(fā)生較大形變時(shí),由于相關(guān)濾波跟蹤器跟蹤框固定,無法實(shí)時(shí)跟蹤上目標(biāo)。例如跳水運(yùn)動(dòng)員、籃球隊(duì)員等,設(shè)計(jì)一個(gè)解決目標(biāo)形變、魯棒的目標(biāo)跟蹤算法將是一個(gè)值得關(guān)注的方向。

        綜上所述,盡管研究者已經(jīng)提出很多相關(guān)的濾波跟蹤算法,但并不是適用于所有場(chǎng)合的跟蹤,具有一定的局限性,完整的跟蹤框架還有待研究。因此,設(shè)計(jì)一個(gè)高效、魯棒、完善的相關(guān)濾波跟蹤算法仍是視覺領(lǐng)域的研究熱點(diǎn)。

        參考文獻(xiàn):

        [1] Kwon J, Lee K M. Tracking by Sampling Trackers[C]// International Conference on Computer Vision. IEEE Computer Society, 2011:1195-1202.

        [2] Sevillalara L. Distribution fields for tracking[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2012:1910-1917.

        [3] Ahuja N. Robust visual tracking via multi-task sparse learning[C]// IEEE Conference on Computer Vision & Pattern Recognition, 2012:2042-2049.

        [4] LIU T, WANG G, WANG L, et al. Visual Tracking via Temporally Smooth Sparse Coding[J]. Signal Processing Letters IEEE, 2015, 22(9):1452-1456.

        [5] Belagiannis V, Schubert F, Navab N, et al. Segmentation Based Particle Filtering for Real-Time 2D Object Tracking[C]// European Conference on Computer Vision. 2012:842-855.

        [6] Kwak S, Nam W, Han B, et al. Learning occlusion with likelihoods for visual tracking[C]// IEEE International Conference on Computer Vision. 2011:1551-1558.

        [7] Hare S, Saffari A, Torr P H S. Struck: Structured output tracking with kernels[C]// IEEE International Conference on Computer Vision, 2011: 263-270.

        [8] Lucey S. Enforcing non-positive weights for stable support vector tracking[C]// IEEE Conference on Computer Vision & Pattern Recognition. 2008:1-8.

        [9] Wang X, Hua G, Han T X. Discriminative Tracking by Metric Learning[C]// Computer Vision - ECCV 2010, 11th European Conference on Computer Vision, Heraklion, Crete, Greece, September 5-11, 2010, Proceedings, Part III. 2010:200-214.

        [10] Kalal Z, Matas J, Mikolajczyk K. P-N learning: Bootstrapping binary classifiers by structural constraints[C]// Cvpr, IEEE Computer Society Conference on Computer Vision and Pattern Recognition. IEEE Computer Society Conference on Computer Vision and Pattern Recognition. 2010:49-56.

        [11] Zhang K, Zhang L, Yang M H. Real-time compressive tracking[C]// European Conference on Computer Vision. Springer-Verlag, 2012:864-877.

        [12] D. S. Bolme, J. R. Beveridge, B. A. Draper, et al. Visual object tracking using adaptive correlation filters[C]// IEEE Conference on Computer Vision & Pattern Recognition, 2010, 119(5):2544-2550.

        [13] Henriques J F, Rui C, Martins P, et al. Exploiting the Circulant Structure of Tracking-by-Detection with Kernels[M]// Computer Vision – ECCV 2012. Springer Berlin Heidelberg, 2012:702-715.

        [14] Danelljan M, Khan F S, Felsberg M, et al. Adaptive Color Attributes for Real-Time Visual Tracking[C]// Computer Vision and Pattern Recognition. IEEE, 2014:1090-1097.

        [15] Li Y, Zhu J. A Scale Adaptive Kernel Correlation Filter Tracker with Feature Integration[M]// Computer Vision - ECCV 2014 Workshops. Springer International Publishing, 2014:254-265.

        [16] Danelljan M, H?ger G, Khan F, et al. Accurate Scale Estimation for Robust Visual Tracking[J]. Center for Medical Image Science & Visualization, 2015.

        [17] Henriques J F, Caseiro R, Martins P, et al. High-Speed Tracking with Kernelized Correlation Filters[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2015, 37(3):583-596.

        [18] R?ning J. Fast FFT-based distortion-invariant kernel filters for general object recognition[J]. Proc Spie, 2009, 7252:725202-725202-18.

        [19] Casasent D. Analysis of kernel distortion-invariant filters[C]// Optics East 2007. International Society for Optics and Photonics, 2010:67640Y.1- 67640Y.14.

        [20] Jeong K H, Pokharel P P, Xu J W, et al. Kernel Based Synthetic Discriminant Function for Object Recognition[C]// IEEE International Conference on Acoustics, Speech, & Signal Processing. 2006:V-V.

        [21] Zhang K, Zhang L, Liu Q, et al. Fast Visual Tracking via Dense Spatio-temporal Context Learning[M]// Computer Vision – ECCV 2014. Springer International Publishing, 2014:127-141.

        [22] Dinh T B, Vo N, Medioni G. Context tracker: Exploring supporters and distracters in unconstrained environments[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2011:1177-1184.

        [23] Grabner H, Matas J, Gool L V, et al. Tracking the invisible: Learning where the object might be[C]// IEEE Conference on Computer Vision & Pattern Recognition. 2010:1285-1292.

        [24] Longyin Wen, Zhaowei Cai, Zhen Lei, et al. Online Spatio-temporal Structural Context Learning for Visual Tracking[C]// European Conference on Computer Vision. 2012:716-729.

        [25] Liu T, Wang G, Yang Q. Real-time part-based visual tracking via adaptive correlation filters[C]// Computer Vision and Pattern Recognition. IEEE, 2015:4902-4912.

        [26] Li Y, Zhu J, Hoi S C H. Reliable Patch Trackers: Robust visual tracking by exploiting reliable patches[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2015:353-361.

        [27] A. S. Montero, J. Lang, R. Laganière. Scalable Kernel Correlation Filter with Sparse Feature Integration[C]// 2015 IEEE International Conference on Computer Vision Workshop (ICCVW). IEEE Computer Society, 2015:587-594.

        [28] Bibi A, Ghanem B. Multi-template Scale-Adaptive Kernelized Correlation Filters[C]// IEEE International Conference on Computer Vision Workshop. IEEE, 2015:613-620.

        [29] 張雷,王延杰,劉艷瀅, 等. 基于相關(guān)濾波器的視覺目標(biāo)跟蹤方法[J].光電子·激光,2015(7): 1349-1357.

        [30] Yi Wu,Jongwoo Lim.Online Object Tracking: A Benchmark.In CVPR,2013.

        華僑大學(xué)研究生科研創(chuàng)新能力培育計(jì)劃資助項(xiàng)目。

        国产色秀视频在线播放| 99re国产电影精品| 日本不卡一区二区三区在线| 在线精品首页中文字幕亚洲 | 自拍偷拍韩国三级视频| 亚洲国产精品久久艾草| 好男人日本社区www| 成 人 网 站 在线 看 免费| 老熟妇嗷嗷叫91九色| 丰满熟妇乱又伦精品| 嫖妓丰满肥熟妇在线精品| 青草青草伊人精品视频| 无人视频在线播放在线观看免费| 国产专区国产精品国产三级| 午夜无遮挡男女啪啪免费软件 | 在线视频青青草猎艳自拍69| 国产精品国产三级国产专播| 又大又长粗又爽又黄少妇视频 | 精品一区二区三区牛牛| 精品人妻一区二区三区四区在线| 久久人人爽人人爽人人片av麻烦| 欧美手机在线视频| 人妻经典中文字幕av| 真实人与人性恔配视频| 免费人成黄页在线观看视频国产| 国产精品白浆无码流出| 亚洲av天堂在线免费观看| 久久久久88色偷偷| 亚洲最大日夜无码中文字幕| 日本一区二区三区小视频| 亚洲av男人的天堂一区| 超碰97资源站| 中文字幕一区二区三区四区在线| 国产精品女同二区五区九区| 成 人色 网 站 欧美大片在线观看| 国产av无码专区亚洲av琪琪| 久久久99精品视频| 蜜桃视频在线观看网址| 亚洲av永久无码精品| 思思99热| 亚洲成人一区二区av|