亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于色度飽和度-角度梯度直方圖特征的尺度自適應核相關濾波跟蹤

        2016-11-10 05:26:10王春平劉江義
        光學精密工程 2016年9期
        關鍵詞:梯度濾波器尺度

        王春平,王 暐,劉江義,付 強,徐 艷

        (軍械工程學院 2系,河北 石家莊 050003)

        ?

        基于色度飽和度-角度梯度直方圖特征的尺度自適應核相關濾波跟蹤

        王春平,王暐*,劉江義,付強,徐艷

        (軍械工程學院 2系,河北 石家莊 050003)

        針對核相關跟蹤算法(KCF)對特征敏感及無法跟蹤尺度的問題,本文從特征提取和尺度自適應兩個方面對核相關濾波跟蹤算法進行了研究。提出了一種基于色度飽和度-角度梯度直方圖特征的自適應核相關跟蹤算法來改善KCF算法的跟蹤性能。首先,研究了HSI顏色空間的特點, 基于顏色和梯度是互補的圖像特征,提出了一種融合了梯度和顏色的HHS-OG特征來有效提高原始KCF算法對目標和背景的判別力。其次,針對KCF無法處理目標尺度變化的問題,在跟蹤的檢測階段采用一組固定的尺度因子進行圖像塊采樣,根據得到的濾波響應圖估計目標的最優(yōu)位置和尺度。將所提算法在大量視頻序列上進行了跟蹤實驗,結果顯示其平均跟蹤速度為37.5 frame/s,跟蹤精度和成功率分別提升了5.4%和10.1%。實驗表明HHS-OG特征具有良好的目標-背景判別能力,能夠實現魯棒跟蹤,而尺度自適應策略能較大程度地提高跟蹤精度。

        視覺跟蹤;核相關濾波跟蹤;特征融合;特征提取;尺度自適應跟蹤

        1 引 言

        視覺跟蹤是計算機視覺的一個基礎性研究方向,在人機交互、監(jiān)控、增強現實、機器感知等場景中有著廣泛的應用[1]。視覺跟蹤的任務是在給定目標初始狀態(tài)的情況下,對目標在后續(xù)幀中的狀態(tài)進行實時估計,跟蹤中面臨的主要挑戰(zhàn)包括光照變化、目標尺度變化、背景干擾、遮擋等。為了對現有跟蹤算法進行公平有效的評價,WU Y等[1]在計算機視覺頂級會議CVPR(Conference on Computer Vision and Pattern Recognition)上提出了一個大規(guī)模的跟蹤測評集,該測評集的提出有效促進了跟蹤算法的研究。由于基于相關濾波(Correlation Filter, CF)的跟蹤算法在該測評集上的表現優(yōu)異[2],它已成為近兩年視覺跟蹤的研究熱點。

        相關濾波在計算機視覺領域最初被用于目標檢測和識別[3],學者們利用相關濾波器能夠在目標處產生響應峰值的現象,實現對目標的精確定位。但相關濾波的濾波器在訓練過程中耗時嚴重,故其一直無法應用于實時視覺跟蹤。為此,BOLME D S等[4]設計了一種MOSSE(Minimum Output Sum of Squared Error)相關濾波器,其可以自適應更新,首次實現了基于相關濾波的高速跟蹤。以MOSSE為基礎,Henriques等[2,5]在嶺回歸框架下學習濾波器,利用循環(huán)矩陣、快速傅里葉變換(FFT)對跟蹤加速,并將核技巧(kernel trick)融入學習框架以提升濾波器的判別能力,最終提出一種核相關濾波跟蹤(Kernelized Correlation Filters tracking,KCF)方法。KCF是目前大多數基于相關濾波跟蹤算法的基礎框架。MARTIN D等[6]指出KCF在采用FFT加速的過程中對訓練樣本進行了周期性假設,導致了所謂的邊界效應[5],他們提出了一種空間規(guī)則化的相關濾波算法,以降低邊界效應的影響。但該算法增大了采樣區(qū)域,且優(yōu)化時間復雜度較高,所以較KCF更為耗時,同時,由于采樣區(qū)域加大,該算法更容易導致漂移。TANG M等[7]對KCF進行了多核化和尺度自適應的擴展,得到了性能更優(yōu)的跟蹤算法,但同樣存在算法復雜度過高的問題。文獻[4, 8, 9]從特征表達的角度改進KCF,分別采用角度梯度直方圖[10]特征(Histogram of Oriented Gradient, HOG)、顏色特征、分層深度特征等代替簡單的灰度特征[5],均大幅提升了KCF的跟蹤性能。其中,HOG和顏色特征實時性較好。

        鑒于顏色和梯度信息均有利于跟蹤[4, 8 ]且能夠快速提取,本文提出了一種融合梯度和顏色的色度飽和度-角度梯度直方圖特征(Histogram of Hue Saturation and Oriented Gradient, HHS-OG),來提升KCF的跟蹤性能。同時,為了應對目標的尺度變化,本文采用一種尺度自適應策略,并根據該策略的特點實現了并行計算,在不增加算法耗時的前提下,提升了算法的跟蹤精度。最后,通過大量的對比實驗驗證了所提HHS-OG特征和尺度自適應策略的有效性。

        2 基于核相關濾波的跟蹤

        在對每一幀的跟蹤中,KCF包括兩個步驟:檢測目標和訓練(更新)濾波器。

        2.1訓練濾波器

        在視頻序列的第一幀中指定目標,然后從該幀中取大小為M×N的圖像塊作為訓練樣本,該圖像塊以給定的目標為中心,包含目標區(qū)域和目標周圍的背景區(qū)域,記為x0,稱為基本樣本。將x0在行、列方向上進行循環(huán)位移,可得到MN-1個虛擬樣本,如圖1所示。記每個樣本為xi,i=0,1,…,MN-1,并對其進行標記,標記值記為yi,文獻[2]中標記值yi為二維高斯函數,基本樣本x0對應最大值,如圖2所示。

        圖1 基本樣本(最中心處)及其虛擬樣本示例

        圖2二維高斯函數標記圖,每個像素對應圖1中的一個樣本

        Fig.2Label map of 2-D Gaussian function, in which each pixel corresponding to one sample in Figure 1

        Henriques等[2,5]采用嶺回歸方法[11-13]訓練濾波器ω,對于大小為M×N的任意圖像塊z,濾波結果為f(z)=ωT·z。對于給定的訓練集{(xi,yi)},文獻[11]給出了ω的解析解:

        ω=(XTX+λI)-1XTY,

        (1)

        其中:X為訓練樣本xi的集合矩陣,Y為所有標簽組成的集合,I為單位矩陣,λ為規(guī)則化系數,上標T表示矩陣轉置。

        為了進一步提高嶺回歸算法的性能,引入核技巧[11]。設映射函數φ(·)將樣本xi映射到某高維非線性特征空間,則濾波器ω為高維空間中樣本的線性組合[14]:

        (2)

        其中αi為組合系數,其集合為α。則濾波結果為:

        (3)

        其中:κ(·)稱為核函數,表示兩個樣本在高維特征空間的內積,κ(z,xi)=φ(z)⊙φ(xi),⊙為內積操作,返回兩側樣本對應維相乘后的和值。KCF通常使用的是高斯核。核技巧將對濾波器ω的求解轉換為對系數α的求解,α的解析解為[11],

        α=(K+λI)-1Y,

        (4)

        其中K為MN×MN的核矩陣,保存了訓練樣本間的核函數值,即Kij=κ(xi,xj)。

        文獻[2]證明,對于多項式核、徑向基函數核(包括高斯核)等核函數,可在傅里葉域內快速求得α:

        (5)

        式中:變量的上標“^”表示變量在傅里葉域的對應值。kx0x0為核矩陣K的第一行,保存x0與x0的所有循環(huán)轉移樣本的核函數值,大小為MN。

        式(4)中的主要運算為矩陣求逆和矩陣乘,最大的矩陣為K(MN×MN),計算復雜度為O((MN)3)。而式(5)中的快速算法,主要運算為矩陣乘,矩陣的維度均為MN,計算復雜度僅為O(MN)。由于FFT復雜度為(O(MNlog(MN))),采用式(5)求系數α的運算復雜度也只有O(MNlog(MN)),小于式(4)的求解方法,保證了KCF的高速性能。

        2.2檢測階段

        當新的一幀圖像到來時,提取以上幀目標位置為中心的圖像塊z,從式(3)出發(fā),可推出[2]:

        (6)

        得到的f(z)為與z大小相同的濾波響應圖,響應圖中每個點的值表示以該點為中心的循環(huán)轉移樣本為目標的概率。*表示共軛。濾波響應圖的最大值點即為當前幀中的目標位置。

        式(6)表明,求濾波響應圖只需保存之前幀訓練的系數α和基本樣本x0,稱(α,x0)為濾波器模型。

        根據檢測到的目標位置,在當前幀獲取新的濾波器模型,然后采用線性插值對之前的濾波器模型進行更新,進行下一幀的跟蹤。具體細節(jié)請參考文獻[2,5]。

        3 本文算法

        本節(jié)首先將顏色與梯度特征融合,借鑒HOG特征的設計方法,提出了一種新的色度飽和度-角度梯度直方圖特征(HHS-OG),并將其應用于KCF跟蹤。然后,在檢測階段采用了一種尺度自適應策略。所提算法稱為采用HHS-OG特征的尺度自適應核相關跟蹤算法(Scale adaptive Kernelized Correlation Filter tracking using HHS-OG feature, KCF-HS),流程如圖3所示,KCF-HS的后綴H表示直方圖特征(Histogram),S表示尺度自適應(Scale adaptive)。

        圖3 所提KCF-HS算法的流程圖

        3.1HOG特征

        HOG特征最早由DALAL N等[15]提出,在目標檢測,特別是人體檢測中,取得了成功應用。與文獻[2]相同,本文采用PEDRO Felzenszwalb等在文獻[10]中提出的改進的HOG版本進行跟蹤,該HOG提取和統(tǒng)計每個cell(一小塊圖像區(qū)域,如4 pixel×4 pixel 大小)的梯度信息作為圖像特征,每個cell的特征為31維,包括方向不敏感特征(9維)、方向敏感特征(18維)和紋理特征(4維),其主要提取步驟如圖4所示。

        圖4 文獻[10]中HOG特征的主要提取步驟

        3.2HHS-OG特征

        在原始圖像上進行差分操作(求梯度),將差分操作的次數稱為階次,則顏色和梯度分別為圖像的0階和1階特征,它們從不同的層面對圖像進行特征提取,具有互補性。事實上,顏色和梯度對應視覺系統(tǒng)中不同層面的神經元,它們從不同層面對圖像進行抽象和表達,顏色對目標形狀、尺度等具有較好的不變性,而梯度對光照等具有較好的不變性[16]。單獨采用顏色和HOG的KCF算法的性能均優(yōu)于采用灰度特征的KCF算法性能,融合顏色和HOG將有助于進一步提高KCF的跟蹤性能。

        常用的RGB顏色空間將顏色和亮度信息相混雜,導致顏色的判別能力降低。而HSI空間包含色度(Hue)、飽和度(Saturation)和亮度(Intensity)信息,是一種更符合人類視覺特點的顏色表達[16],文獻[8]通過實驗驗證了HSI在跟蹤方面的性能優(yōu)于RGB。因此,本文將HSI和HOG相融合,用于KCF跟蹤框架。

        圖5HSI顏色空間原理及H、S通道與梯度關系示意。右側為HOG特征提取時對梯度的處理方式,可見H、S和梯度角度、幅值在結構上一致

        Fig.5Schematic of HSI color space and correspondence between H, S and gradient

        圖5為HSI顏色空間的原理圖,亮度信息已用于提取HOG特征時的梯度計算,為了避免冗余,僅對HS通道的信息進行分析和提取。H和S通道構成了一個極坐標系,色度代表角度,飽和度代表半徑。在形式上,色度和飽和度與HOG特征提取時用到的梯度角度、梯度幅度相一致。將圖像的色度、飽和度分別看作HOG提取中的梯度角度和幅度,然后進行圖4中的‘統(tǒng)計直方圖,根據cell聚合’和‘歸一化、截斷及降維’操作,便得到了31維的色度-飽和度直方圖(HHS)。

        在概念上,顏色和梯度分別是圖像的0階和1階特征,且HHS和HOG具有相同的表達形式。因此,本文將HHS和HOG在每個cell上進行連接,提出了HHS-OG特征,同時提取顏色和圖像信息。進一步的實驗測評發(fā)現,移除HHS的18維方向敏感特征能夠同時提升跟蹤算法的速度和判別力,因此本文采用了13維的HHS特征(9維方向不敏感特征與4維紋理特征)。最后,將13維的HHS特征與31維的HOG特征在對應cell上進行串接,最終形成44維的HHS-OG特征。

        3.3尺度自適應

        視覺跟蹤中目標的尺度會發(fā)生變化,而原始KCF采用固定維度的濾波器,因而導致其輸出的跟蹤結果尺度固定不變。為了解決這一問題,在跟蹤的檢測階段,本文采用如下的尺度自適應跟蹤策略。

        (7)

        3.4算法步驟

        結合上述HHS-OG特征和尺度自適應策略,所提KCF-HS算法(算法1)的基本步驟如下。

        初始化:第一幀中目標狀態(tài)(r1,c1),M,N及s1=1 fort=1 toT(T為序列的總幀數)

        檢測

        ift>1 then

        forp=1 toP

        end

        步驟3求當前幀的目標狀態(tài)(rt,ct,st)(式(7))

        end

        訓練/更新

        步驟4根據檢測結果(rt,ct,st),采樣基本樣本,并采用HHS-OG特征表達

        步驟5訓練當前幀濾波器模型(式(5)),并對總濾波器模型進行更新

        end

        end

        4 實 驗

        為評估所提算法的性能,本文在CVPR2013跟蹤測評集[1]上進行了兩組對比實驗。第一,將所提KCF-HS算法與目前最優(yōu)秀的其它幾種算法進行對比;第二,將KCF-HS與其它幾種不同版本的算法進行對比,以驗證HHS-OG特征和尺度自適應策略的有效性。

        實驗中,HHS-OG特征的cell大小為4×4,色度和梯度方向的直方圖量化數為9,尺度因子個數P=5,S={0.98,0.99,1,1.01,1.02}。其余參數設置均與文獻[2]相同。從算法1中可以看出,多個尺度檢測之間是相互獨立的,可以采用并行的方式實現,使得尺度自適應策略與原始的固定尺度跟蹤方法的耗時基本相同。本文的實驗平臺為配置2.6 GHz i5處理器(6個處理器核)、4 GB 內存的普通電腦,仿真環(huán)境為Matlab 2011b,所提算法的跟蹤速度達到了37.5 frame/s。

        4.1CVPR2013測評集及測評準則

        CVPR2013視覺跟蹤測評集[1]包含50個完整標注的視頻序列,涵蓋了視覺跟蹤面臨的主要挑戰(zhàn)性場景,即光照變化、尺度變化、遮擋、變形、運動模糊、快速運動、平面內旋轉、平面外旋轉、目標超出視場、背景干擾和低分辨率。近年來多數跟蹤算法都以該測評集為基準進行實驗和測評。

        CVPR2013測評集從跟蹤的精度和重疊率出發(fā),提出了兩個測評準則:精度曲線和成功率曲線。某一圖像幀中,將跟蹤算法的跟蹤框與標注的真實目標框的中心距離稱為精度,將兩個框的重疊面積與總面積之比稱為重疊率。精度曲線的橫軸為給定的精度閾值,縱軸為跟蹤精度大于給定閾值的圖像幀占所有圖像幀的比例。通常取精度曲線上對應閾值為20像素的值為典型值Pre-20。成功率曲線的橫軸為給定的重疊率閾值,當跟蹤的重疊率大于給定閾值時認為該幀跟蹤成功。成功率曲線的縱軸為跟蹤成功的幀占所有圖像幀的比例,取閾值為50%時的值為典型值Suc-50。本文采用上述準則進行測評。

        4.2總體性能測評

        首先在CVPR2013測評集上對本文算法總體性能進行了對比測評,對比算法包括幾種采用不同特征的KCF算法:原始KCF(HOG特征)[2]、CSK(灰度特征)[5]、CNT(顏色名特征)[8],以及在該測評集上表現優(yōu)異的幾種算法:Struck[17]、CXT[18]、MIL[19]。測評結果見圖6(彩圖見期刊電子版)。相比于Struck算法,所提KCF-HS的性能更優(yōu),Pre-20和Suc-50分別提高了13.1%(0.784 vs 0.653)和16.9%(0.731 vs 0.562)。KCF-HS在精度和重疊率上的性能較其他基于相關濾波的跟蹤算法具有較大的優(yōu)勢,這也驗證了HHS-OG特征和尺度自適應策略的有效性。

        圖6 所提KCF-HS算法與其它6種對比算法在CVPR2013測評集上的性能對比,左側為精度曲線、右側為成功率曲線

        4.3算法具體分析

        為進一步驗證HHS-OG特征和尺度自適應策略的有效性,本文實現了KCF-HS的2個切割版本:僅采用HHS-OG特征的版本,記為KCF-H;僅采用尺度自適應策略的版本,記為KCF-S。僅采用HHS為特征的版本性能較差,所以未在對比分析中采用。

        4.3.1定量分析

        圖7(彩圖見期刊電子版)給出了KCF-HS、KCF-H、KCF-S、KCF的性能對比結果。從圖中可以看出,單獨采用所提HHS-OG特征(KCF-H)使原始KCF算法的Pre-20、Suc-50值分別提高了2.5%、2.6%,單獨采用尺度變化策略(KCF-S)使原始KCF算法的Pre-20、Suc-50值分別提高了2.4%、7.1%。而兩者同時采用可使KFC-HS的性能提升高達5.4%、10.1%。

        特別是,在精度曲線和成功率曲線的高精度區(qū)域,即距離閾值較小或重疊率閾值較大處,尺度自適應算法(KFC-HS和KCF-S)的性能更優(yōu),說明同時跟蹤目標中心和尺度的策略有效提高了跟蹤精度。而在對精度要求較低的區(qū)域,KCF-H的性能與KCF-S相當,表明即使在尺度跟蹤不精確的情況下,更具判別力的特征(所提HHS-OG)也能夠有效提升跟蹤性能。

        4.3.2定性分析

        圖8(彩圖見期刊電子版)為4種算法對測評集中幾個典型序列的跟蹤結果。

        在序列Jogging2中,由于真實目標(白色衣服跑步者)和干擾目標(棕色衣服跑步者)具有相似的HOG特征,KCF-S和KCF在第63幀目標被遮擋后開始跟蹤錯誤目標,而采用了HHS-OG特征的KCF-HS和KCF-H由于提取了更具判別力的顏色信息,故可實現持續(xù)穩(wěn)定的跟蹤。在序列Bolt中,KCF-HS和KCF-H在有背景干擾的條件下(第6幀中其他運動員和第240幀中黃色臺子)實現了準確跟蹤,這是因為HHS-OG同時提取顏色和梯度信息,能有效提高算法的判別能力。在Lemming序列第374幀,目標變小且被遮擋,此時只有KCF-HS完全捕獲了目標的表觀變化,完成了跟蹤,其它3種算法均丟失目標。

        Car4和Dog1序列(非彩色序列)中,目標車輛和玩具的尺度反復變化,KCF-HS和KCF-S均能實現尺度自適應跟蹤,而其它兩種算法由于無法準確估計目標尺度使得對目標中心的定位精度降低(Car4第599幀和Dog1第791幀)。CarScale序列中目標尺度快速增大,KCF-HS和KCF-S依然實現了穩(wěn)定的位置和尺度跟蹤,驗證了所提尺度自適應策略的有效性。

        圖8 KCF-HS、KCF-H、KCF-S、KCF等4種算法在若干典型視頻序列上的跟蹤結果

        5 結 論

        本文從特征提取和尺度自適應兩個方面對核相關濾波跟蹤算法進行了研究,提出了一種采用HHS-OG特征的尺度自適應KCF跟蹤算法。首先,研究了特征提取對KCF跟蹤性能的影響,指出顏色和梯度是互補的圖像特征,并提出了一種形式類似于HOG的融合特征——色度飽和度-角度梯度直方圖(HHS-OG)。同時,針對KCF無法處理目標尺度變化的問題,提出了一種可并行實現的尺度自適應策略。所提算法在CVPR2013跟蹤測評集上進行了實驗測評,跟蹤結果在成功率典型值上的提升達10.1%,表明HHS-OG特征具有良好的目標-背景判別能力,能夠實現更魯棒的跟蹤,而尺度自適應策略能在較大程度上提高跟蹤精度。

        [1]WU Y, LIM J, YANG M H. Online object tracking: a benchmark [C].IEEEConferenceonComputerVisionandPatternRecognition,Portland,USA, 2013: 1354-1362.

        [2]JOAO H, RUI C, PEDRO M,etal..High-speed tracking with kernelized correlation filters [J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 2015, 32(9): 1627-1645.

        [3]BOMLE D S, LUI Y M, DRAPER B A,etal.. Simple real-time human detection using a single correlation filter [C].IEEEInternationalWorkshoponPerformanceEvaluationofTracking&Surveillance,Snowbird,UT, 2009: 1-8.

        [4]BOMLE D S, BEVERIDGE J R, DRAPER B A,etal..Visual object tracking using adaptive correlation filters [C].IEEEConferenceonComputerVisionandPatternRecognition,SanFrancisco,USA, 2010: 2544-2550.

        [5]JOAO H, RUI C, PEDRO M,etal..Exploiting the circulant structure of tracking-by-detection with kernels [C].EuropeanConferenceonComputerVision,Florence,Italy, 2012: 702-715.

        [6]MARTIN D, GUSTAV H, FAHAD S K,etal..Learning spatially regularized correlation filters for visual tracking [C].InternationalConferenceonComputerVision,Santiago,Chile, 2015: 4310-4318.

        [7]TANGM, FENG J. Multi-kernel correlation filter for visual tracking [C].InternationalConferenceonComputerVision,Santiago,Chile, 2015: 3038-3046.

        [8]MARTIN D, FAHAD S K, MICHAEL F,etal..Adaptive color attributes for real-time visual tracking [C].IEEEConferenceonComputerVisionandPatternRecognition,Columbus,USA, 2014: 1090-1097.

        [9]MA C,HUANG J B, YANG X K,etal..Hierarchical convolutional features for visual tracking [C].InternationalConferenceonComputerVision,Santiago,Chile, 2015: 3038-3046.

        [10]PEDRO F, ROSS G, DAVID M,etal..Object detection with discriminatively trained part based models [J].IEEETransactiononPatternAnalysisandMachineIntelligence, 2010, 32(9): 1627-1645.

        [11]ZHANG B, EBEID S M, PREVOSTR,etal..Fast solver for some computational imaging problems: a regularized weighted least-squares approach [J].DigitalSignalProcessing, 2014, 27: 107-118.

        [12]張雷,王延杰,孫宏海,等. 采用核相關濾波器的自適應尺度目標跟蹤[J]. 光學 精密工程, 2016, 24(2): 448-459.

        ZHANG L, WANG Y J, SUN H H,etal..Adaptive scale object tracking with kernelized correlation filters [J].Opt.PrecisionEng., 2016, 24(2): 448-459. (in Chinese)

        [13]宋策,張葆,尹傳歷. 適于機載環(huán)境對地目標跟蹤的粒子濾波設計[J]. 光學精密工程, 2014, 22(4): 1037-1047.

        SONG C, ZHAGN B, YIN CH L. Particle filter design for tracking ground targets in airborne environment [J].Opt.PrecisionEng., 2014, 22(4): 1037-1047. (in Chinese)

        [14]BERNHARD S,ALEXANDER S.LearningwithKernels:SupportVectorMachines,Regularization,Optimization,andBeyond[M]. Massachusetts, the MIT Press, 2002: 184-209.

        [15]DALAL N, BILL T. Histograms of oriented gradients for human detection [C].IEEEConferenceonComputerVisionandPatternRecognition,SanDiego,USA, 2005: 886-893.

        [16]JIANG Y S, MA J W. Combination features and models for human detection [C].IEEEConferenceonComputerVisionandPatternRecognition,Boston,USA, 2015: 240-248.

        [17]SAM H, AMIR S,PHILIP H. Struck: Structured output tracking with kernels [C].InternationalConferenceonComputerVision,Barcelona,Spain, 2011: 263-270.

        [18]THANG B, NAM V, GERARD G M. Context tracker: exploring supporters and distracters in unconstrained environments [C].IEEEConferenceonComputerVisionandPatternRecognition,ColoradoSprings,USA, 2011: 1177-1184.

        [19]BORIS B, YANG M H, SERGE J B.Visual tracking with online multiple instance learning [C].IEEEConferenceonComputerVisionandPatternRecognition,Miami,USA, 2009: 983-990.

        王春平(1965-),男,陜西漢中人,教授,博士生導師,主要從事圖像處理、火力控制理論與應用方面的研究。E-mail:wchp17@139.com

        王暐(1989-),男,甘肅靖遠人,博士研究生,2010年于北京航空航天大學獲得學士學位,主要從事計算機視覺、嵌入式系統(tǒng)設計方面的研究。E-mail:wang_wei.buaa@163.com

        (版權所有未經許可不得轉載)

        Scale adaptive kernelized correlation filter tracking based on HHS-OG feature

        WANG Chun-ping, WANG Wei*, LIU Jiang-yi, FU Qiang, XU Yan

        (The2ndDepartment,OrdnanceEngineeringCollege,Shijiazhuang050003,China)*Correspondingauthor,E-mail:wang_wei.buaa@163.com

        Since Kernelized Correlation Filters (KCF)tracking algorithm is sensitive to feature selecting and unable to estimate object scale, this paper researches the KCF tracking algorithm based on feature extraction and scale adapting. A scale adaptive KCF tracker by using HHS-OG (Histogram of Hue Saturation and Oriented Gradient, HHS-OG) feature was proposed to improve the tracking performance of the KCF tracker. Firstly, the HSI color space was studied. By taking the complementary of color and gradient in an image, a novel HHS-OG feature focused color and gradient features was proposed to improve the discrimination ability of the KCF algorithm to backgrounds and targets. As the KCF algorithm is unable to process the changed scale, a set of scale factors were used to sample image patches in the detection stage of tracking and the generated corresponding filter response maps were used to estimate the optimal target position and scale. The proposed tracker was tested on a large tracking benchmarks with 50 video sequences. Experimental results show that the tracker runs at a high speed of 37.5 frame per second and has a significantly improvement of 5.4% in representative precision score and 10.1% representative success score. The HHS-OG feature has good discrimination ability for backgrounds and targets and has robustness for target tracking. The scale adaptive strategy is effective for improving tracking performance.

        vision tracking; kernel correlation filter tracking; feature fusion; feature extraction; scale adaptive tracking

        2016-05-13;

        2016-07-12.

        國家自然科學基金資助項目(No.61141009)

        1004-924X(2016)09-2293-09

        TP391

        A

        10.3788/OPE.20162409.2293

        猜你喜歡
        梯度濾波器尺度
        基于無擾濾波器和AED-ADT的無擾切換控制
        一個改進的WYL型三項共軛梯度法
        財產的五大尺度和五重應對
        一種自適應Dai-Liao共軛梯度法
        應用數學(2020年2期)2020-06-24 06:02:50
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        一類扭積形式的梯度近Ricci孤立子
        開關電源EMI濾波器的應用方法探討
        電子制作(2018年16期)2018-09-26 03:26:50
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        基于TMS320C6678的SAR方位向預濾波器的并行實現
        9
        国产福利美女小视频| 中文字幕人妻无码一夲道| 国产69精品久久久久9999| 精品国产一区二区三区亚洲人| 亚洲一区二区三区毛片| 精品含羞草免费视频观看| 国产精品无圣光一区二区| 国产精品天堂avav在线| 日韩性感av一区二区三区| 亚洲欧洲免费无码| 亚洲处破女av日韩精品| 中文字幕精品久久天堂一区 | 精品少妇人妻av免费久久久| 成人午夜免费福利| 日韩av一区二区不卡在线| 成人麻豆日韩在无码视频| 亚洲av无码乱观看明星换脸va| 高清高速无码一区二区| 精品人妻码一区二区三区红楼视频| 国产精品av在线| 久久精品一区二区免费播放| 中文字幕一区二区三区在线视频 | 欧美性生交活xxxxxdddd| 国产性一交一乱一伦一色一情| 色噜噜狠狠色综合欧洲| 国产一区二区三区十八区| 不卡一卡二卡三乱码免费网站| 亚欧国产女人天堂Av在线播放| 日韩人妻系列在线视频| 亚洲精品中文字幕一二三区| 亚洲精品一区久久久久久| 成年奭片免费观看视频天天看| 亚洲国产精品成人一区二区在线| 日本又色又爽又黄又免费网站| 妺妺窝人体色www在线图片 | 亚洲中文字幕国产视频| 中文字幕久无码免费久久| 国产高清白浆| 久久精品亚洲熟女av麻豆| 久久综合给合综合久久| 日韩五十路|