亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于分塊的多特征融合變尺度目標跟蹤算法

        2017-02-09 05:20:38戚秀真
        電視技術(shù) 2017年1期
        關(guān)鍵詞:分塊直方圖分類器

        李 凱,劉 穎,李 娜,戚秀真

        (1.西安郵電大學 通信與信息工程學院,陜西 西安 710061;2.長安大學 信息工程學院,陜西 西安 710064)

        基于分塊的多特征融合變尺度目標跟蹤算法

        李 凱1,劉 穎1,李 娜1,戚秀真2

        (1.西安郵電大學 通信與信息工程學院,陜西 西安 710061;2.長安大學 信息工程學院,陜西 西安 710064)

        為了增強彩色視頻中目標外觀描述能力和解決跟蹤過程中目標尺度變化的問題,提出一種基于分塊的多特征融合變尺度目標跟蹤算法。設(shè)計了一個能處理不同挑戰(zhàn)因素下對目標的精確跟蹤算法,首先提取HSV分塊的顏色直方圖特征和PCA-HOG特征并采用多通道線性核函數(shù)對兩種特征進行融合構(gòu)建訓練樣本,然后求解線性嶺回歸函數(shù)獲得位置核相關(guān)濾波器模型,并以線性核函數(shù)來計算候選區(qū)域在7個尺度空間上與跟蹤目標的響應(yīng)值,最后利用尺度自適應(yīng)模板更新模型參數(shù)。實驗結(jié)果表明,提出的算法在彩色視頻中不僅能較好地自適應(yīng)目標尺度的變化,在復雜場景下也具有較強的魯棒性。

        目標跟蹤;多特征融合;變尺度;線性核函數(shù)

        1 目標跟蹤

        目標跟蹤是計算機視覺研究的熱點之一,在視頻監(jiān)控、人機交互、交通監(jiān)控中都有廣泛應(yīng)用[1]。但由于各種目標本身和外界條件綜合因素的影響,部分跟蹤算法[2-3]并不能在各種復雜的變化情況下實現(xiàn)對目標的跟蹤,因此復雜情況下實現(xiàn)對目標的精確跟蹤仍然是目標跟蹤領(lǐng)域內(nèi)的難點問題。

        目前,循環(huán)移位結(jié)構(gòu)[4]理論和相關(guān)濾波器[5-9]被很多學者引入到目標跟蹤的框架中,具有跟蹤速度快和魯棒性強等優(yōu)點。基于核的循環(huán)移位結(jié)構(gòu)的檢測跟蹤(Circulant Structure of Tracking-by-detection with Kernels,CSK)算法[4]采用循環(huán)移位的方法對目標區(qū)域和候選區(qū)域密集采樣構(gòu)造訓練樣本,并在頻域內(nèi)實現(xiàn)快速計算,此外還證明核函數(shù)的核矩陣具有循環(huán)移位結(jié)構(gòu),但CSK跟蹤算法只選擇數(shù)量有限的灰度特征樣本,對目標外觀的描述能力不足,且不能處理目標尺度變化。對于彩色視頻序列,CSK算法[4]將其轉(zhuǎn)化為灰度視頻序列會造成目標特征信息的丟失,不能進行持續(xù)穩(wěn)定的跟蹤,對此提出核相關(guān)濾波器(Kernelized Correlation Filters, KCF)跟蹤算法[8]將CSK算法[4]的灰度特征改進為多通道方向梯度直方圖[10](Histogram of Oriented Gradient,HOG)特征,使訓練所得的分類器對待檢測目標的解釋力更強,通過核矩陣構(gòu)造目標區(qū)域和候選區(qū)域的循環(huán)移位樣本來訓練分類器,跟蹤的精確性和實時性都較高。但KCF算法也存在缺點:第一,KCF跟蹤算法采取固定大小的候選區(qū)域訓練樣本來訓練分類器模型,不能對跟蹤過程中出現(xiàn)的目標尺度變化進行有效的處理,跟蹤結(jié)果會逐漸偏離目標的真實位置;第二,KCF跟蹤算法只使用HOG特征,不能滿足多種復雜情況下對目標的精確跟蹤,如遇到遮擋時跟蹤失敗等。針對KCF跟蹤算法的缺陷,相應(yīng)的改進算法[11-14]被提出,文獻[13]分別訓練位置檢測分類器和尺度檢測分類器,雖然能較好自適應(yīng)目標尺度變化,但提取單一的目標HOG特征容易受背景雜波等干擾信息的影響。顏色屬性跟蹤方法[14]利用11維顏色名(Color Name, CN)特征來描述目標外觀并進行主成分分析(Principal Components Analysis, PCA)降維,與KCF算法相比跟蹤性能大大提高,但CN特征易受背景中顏色相似物體的干擾,并且不能處理目標尺度變化。

        針對KCF跟蹤算法無法處理目標尺度變化和目標特征描述較少的問題,本文結(jié)合線性核函數(shù)(Linear Kernel Function,LKF)和尺度自適應(yīng)方法對KCF跟蹤算法進行改進,提出了一種基于分塊的多特征融合變尺度目標跟蹤算法,該算法提取區(qū)域的HSV分塊的顏色直方圖特征和PCA-HOG特征,通過LKF將HSV分塊的顏色直方圖特征和PCA-HOG特征進行融合構(gòu)建出分類器的訓練樣本,然后對線性嶺回歸函數(shù)求解來構(gòu)造訓練分類器模型,使用LKF分別計算候選區(qū)域在7個尺度空間上與跟蹤目標的相似程度,選擇響應(yīng)值最大時的尺度作為目標的尺度,并實時更新目標位置模型參數(shù)。

        2 KCF跟蹤算法

        KCF跟蹤算法是將特征樣本進行循環(huán)移位來構(gòu)建核相關(guān)位置濾波模板,利用高斯核函數(shù)來計算候選區(qū)域與跟蹤目標的響應(yīng)值大小確定新的跟蹤目標,并在頻域內(nèi)進行濾波模板的構(gòu)造和目標檢測過程。KCF跟蹤算法的流程圖如圖1所示。

        圖1 KCF跟蹤算法流程圖

        KCF跟蹤算法主要包括4個階段:樣本訓練、分類器訓練、目標位置檢測與模型更新。

        2.1 樣本訓練

        (1)

        2.2 分類器訓練

        (2)

        (3)

        式中:F(·)為傅里葉變換;樣本形狀標簽y的元素為yi,且yi服從高斯函數(shù)分布。

        2.3 目標位置檢測

        訓練位置核相關(guān)濾波器來進行目標位置檢測,位置檢測過程具體描述如下:

        (4)

        式中:p為搜索區(qū)域內(nèi)目標位置;p*為目標中心位置;σp為高斯函數(shù)標準差,轉(zhuǎn)化到頻域即F(yp)。位置濾波模板為

        (5)

        (6)

        2.4 模型更新

        在位置檢測后,更新位置濾波模板和目標特征為

        (7)

        (8)

        3 改進算法

        針對KCF跟蹤算法的不足,文中進行3點改進:1)提取目標HSV分塊的顏色直方圖特征和PCA-HOG特征;2)用LKF將HSV分塊的顏色直方圖特征和PCA-HOG特征兩種特征融合,并將LKF運用到目標相似度計算中;3)對候選區(qū)域圖像塊進行7個尺度空間的縮放,分別求取7個尺度空間與目標區(qū)域的最大響應(yīng)值,最大值區(qū)域即為跟蹤目標區(qū)域。提出的基于分塊的多特征融合變尺度目標跟蹤算法的流程圖如圖2所示。

        圖2 改進算法流程圖

        3.1 PCA-HOG特征提取

        HOG特征對圖像幾何和光學的形變都能保持不變性。改進的PCA-HOG特征的提取方法是將目標區(qū)域分成若干個4×4的細胞單元(cell),采用9個bin的直方圖來統(tǒng)計這4×4個像素的梯度信息,即將cell的梯度方向360°分成9個方向塊,然后采集細胞單元中各像素點的梯度或邊緣的方向直方圖,并利用PCA方法對提取出HOG特征進行降維,把直方圖組合構(gòu)成31維特征描述器。

        3.2 HSV分塊的顏色直方圖特征提取

        顏色特征對目標的旋轉(zhuǎn)及姿態(tài)變化具有魯棒性和持續(xù)性,此外HSV色彩空間模型能較好地解決因光照射、陰影等帶來的物體表面顏色不均等問題。單一的特征描述目標外觀會使跟蹤過程不穩(wěn)定,本節(jié)提取HSV非均勻量化分塊顏色直方圖,并與PCA-HOG特征融合增強目標外觀描述能力。

        3.2.1 色彩空間轉(zhuǎn)換

        RGB顏色空間到HSV顏色空間的轉(zhuǎn)換公式[15]為

        (9)

        (10)

        (11)

        3.2.2 顏色特征提取與HSV量化

        將HSV顏色模型的特性作如下處理[15]:

        1)當v<15%時,令h=0,s=0,v=0(黑色區(qū)域);

        2)當s<10%且v>80%時,令h=0,s=0,v=1(白色區(qū)域);

        3)位于黑色區(qū)域和白色區(qū)域以外的顏色,其h,s,v值保持不變(彩色區(qū)域)。

        將H,S,V非等間隔地量化可減少計算量,分別量化為8級、3級、3級,即取

        (12)

        (13)

        (14)

        按照非等間隔量化的量化級把各顏色分量合成一維特征矢量為

        L=H×Qs×Qv+S×Qv+V

        (15)

        式中:Qs和Qv分別是分量S和V的量化級數(shù),令Qs=3,Qv=3。式(15)改寫為

        L=9H+3S+V

        (16)

        3.2.3 顏色分塊

        顏色直方圖具有計算簡單和對平移和旋轉(zhuǎn)不敏感的兩大優(yōu)點,但顏色的全局或局部的不同空間分布極大地影響對目標圖像的相似性判定。因此在本文對目標外觀描述的過程中,將目標圖像分成4×4的細胞單元,對每個cell分別提取顏色直方圖,實現(xiàn)一種基于固定分塊的目標圖像劃分方法,即將目標圖像劃分為適當?shù)淖訅K以提取相應(yīng)的局部HSV顏色直方圖特征。

        3.3 多特征融合

        線性核相關(guān)函數(shù)只需要計算點積,因此在圖像特征融合中運用線性核相關(guān)濾波器可以減少計算量,并且線性核相關(guān)函數(shù)還具有循環(huán)移位的特性。假如有一個多通道的數(shù)據(jù)組成向量x=[x1,x2,…,xl],xl表示第l通道特征構(gòu)成的向量,其多通道線性核函數(shù)表示為

        (17)

        3.4 尺度估計方法

        本節(jié)中提出變尺度目標跟蹤策略,對候選區(qū)域的訓練樣本圖像做i個尺度空間上的縮放,并在i個尺度空間上分別求取分類器響應(yīng)的最大值。

        (18)

        式中:zti與tist是同樣大小的采樣塊,并縮放大小為ST。利用LKF將采樣塊與上一幀目標區(qū)域在i個尺度空間進行相似度計算,獲得i個不同的矩陣,在i個矩陣中尋找最大值作為第i個尺度空間的標量值,然后比較i個尺度空間上的標量值,響應(yīng)值為最大值的區(qū)域即為目標的位置。

        3.5 算法步驟

        算法的具體步驟描述如下:

        步驟2:提取搜索區(qū)域HSV分塊的顏色直方圖特征和PCA-HOG特征級聯(lián)為xg,用式(17)計算kp=κ(xg,xgi),xgi是循環(huán)移位樣本[8],滿足xgi=Pixg,i=0,1,…,n-1,P是n×n的置換矩陣,并轉(zhuǎn)換到頻域即F(kp),由式(4)計算搜索區(qū)域內(nèi)樣本高斯形狀標簽yp,并轉(zhuǎn)化到頻域即F(yp),位置濾波模板Bp由式(5)計算得到。

        步驟5:根據(jù)式(18)計算i個采樣塊的響應(yīng)的最大值,得到新的目標的位置及大小,計算搜索模板的大小st。

        步驟6:對獲取的新目標的區(qū)域得到HSV分塊的顏色直方圖特征和PCA-HOG特征并級聯(lián)為xg。

        步驟8:判斷是否為最后一幀,若是則結(jié)束,否則置g=g+1,返回步驟3。

        4 實驗結(jié)果與分析

        為驗證本文提出算法的跟蹤結(jié)果,在MATLAB2012a軟件平臺上對其進行仿真實驗。使用兩個定量評價性能指標來比較不同的跟蹤算法:一個是中心位置誤差(Center Location Error, CLE)[16],CLE是指跟蹤目標結(jié)果的中心坐標與目標真實坐標中心的歐氏距離。另一個是Pascal視覺對象類率(Pascal Visual Object Classes Rate, VOR)[16],表示式為VOR=area(BT∩BG)/area(BT∪BG),表示跟蹤目標區(qū)域與真實目標區(qū)域重合率,其中BT是跟蹤目標結(jié)果的區(qū)域,BG是真實標注的目標區(qū)域,一般選擇重合率閾值為50%處的VOR值來計算跟蹤成功率和失敗率。

        為了驗證算法的有效性,在benchmark2013視頻數(shù)據(jù)集[17]中選取不同復雜情況下的8個視頻集進行比較,8個視頻集包含光照變化、尺度變化、遮擋、形變和運動模糊等各種復雜的目標本身和外界條件的變化。與本文所提出的跟蹤算法作對比的有CSK跟蹤算法[4]、KCF跟蹤算法[8]、基于特征融合尺度自適應(yīng)核相關(guān)濾波器(SAMF)跟蹤算法[9]和CN跟蹤算法[14]。

        4.1 定性分析

        5種算法在8個測試視頻的跟蹤結(jié)果如圖3所示。

        由圖3可以發(fā)現(xiàn),本文提出的基于多特征融合變尺度的核相關(guān)目標跟蹤算法的跟蹤結(jié)果隨著目標尺度的變化而改變跟蹤框的大小,并能適應(yīng)各類復雜條件下的目標準確跟蹤。

        4.2 定量分析

        取VOR≥50%計算5種算法在8個測試視頻集的成功率(SuccessRate,SR),如表1所示。

        圖3 5種算法在8個測試視頻的跟蹤結(jié)果

        %

        視頻序列本文算法SAMFKCFCNCSKJogging97.496.722.522.522.5Trellis10099.684.266.871.2Woman96.393.093.128.828.8Deer10088.780.398.698.6Bird99.097.056.698.062.6Skating99.599.397.097.597.3CarScale55.659.963.4951.644.8David10099.695.896.282.2平均值93.591.774.170.063.5

        注:加粗字體表示最優(yōu)結(jié)果,斜體字體表示次優(yōu)結(jié)果。

        由表1可知,本文算法在8個測試視頻集跟蹤平均成功率為93.47%,較SAMF算法平均成功率提高1.74%,較KCF算法平均成功率提高19.35%,說明改進算法在5種算法中的VOR取值達到最大,在5種算法中達到最優(yōu)的效果。

        5種算法在8個測試視頻的平均中心位置誤差(Median Center Location Error, MCLE)值比較結(jié)果如表2所示。

        由表2可知,本文算法在8個測試視頻集跟蹤MCLE值中是5種方法中最小的,并且取得最小的MCLE值為14 pixel,較SAMF算法的MCLE值降低6 pixel,較KCF算法的MCLE值降低18 pixel,說明本文算法與其他4種算法的跟蹤結(jié)果相比,本文算法的跟蹤結(jié)果更接近目標的真實位置。

        表2 5種算法在8個測試視頻的中心位置誤差的平均值比較結(jié)果 pixel

        視頻序列本文算法SAMFKCFCNCSKJogging141588101135Trellis615192119Woman133243214207Deer822211514Bird1316212538Skating1516191818CarScale3626252783David314182817平均值1420325666

        注:加粗字體表示最優(yōu)結(jié)果,斜體字體表示次優(yōu)結(jié)果。

        對比SAMF跟蹤算法、KCF跟蹤算法、CN跟蹤算法、CSK跟蹤算法和本文算法的平均處理速度(Average Frames Per Second,F(xiàn)PS)如表3所示。

        表3 5種算法的處理速度對比 f/s

        算法本文算法SAMFKCFCNCSKFPS364645112

        由表3可知,KCF跟蹤算法和CN跟蹤算法采用單一的特征來描述目標外觀,處理速度分別達到46 f/s和45 f/s,CSK跟蹤算法采用原始像素來描述目標外觀,因此處理速度為最快,達到112 f/s。本文算法和SAMF跟蹤算法都是采用多特征描述目標并進行融合,計算量大,因此速度較慢,本文算法采用分塊的HSV顏色直方圖和PCA-HOG特征融合來增強目標外觀描述,處理速度最慢,為3 f/s??梢娦滤惴ㄈ〉幂^好的跟蹤效果是以犧牲時間為代價的。

        4.3 具體分析與評價

        通過定性分析和定量分析,并從圖3、表1和表2中可以看出,與其他4種算法相比,本文算法在跟蹤性能上有很大的提高。下面具體分析不同視頻在不同復雜場景下的跟蹤情況。

        4.3.1 遮擋、形變、旋轉(zhuǎn)及快速運動實驗結(jié)果

        圖3的Jogging、Woman、Bird及CarScale視頻中目標均出現(xiàn)部分遮擋或全遮擋的情況。由圖3a、3c、3e和3g可見,SAMF算法及本文算法都具有較強的抗遮擋能力,在遮擋后恢復有效的跟蹤,其他方法發(fā)生遮擋時都比較敏感導致跟蹤失敗,結(jié)合表1和表2,本文算法在遮擋情況下具有最高SR值和最小MCLE值,實現(xiàn)了遮擋情況下的準確跟蹤。Jogging、Woman、Bird及Skating視頻中目標還存在旋轉(zhuǎn)的情況,本文算法的跟蹤結(jié)果相比其他4種算法較好。Bird視頻中目標經(jīng)歷多次旋轉(zhuǎn)變化,只有本文算法和SAMF算法可完成跟蹤任務(wù),但本文算法更接近目標的真實位置,其他方法偏差較大。Deer、Bird及CarScale視頻中目標都存在快速運動的情況,其中CarScale視頻中的車輛加速前進,由圖3可見,本文算法能在目標快速運動的情況下取得最佳的結(jié)果,其SR值比其他算法都有很大提高。圖3、表1和表2結(jié)果說明本文算法具有較強的抗遮擋能力,并且對于形變、旋轉(zhuǎn)及快速運動等場景的跟蹤結(jié)果較好。

        4.3.2 尺度、光照、姿態(tài)變化及背景干擾情況的實驗結(jié)果

        圖3所選擇的視頻集Woman和CarScale都存在較大的尺度變化,視頻集Woman在第575幀后由于鏡頭的拉伸使目標尺度產(chǎn)生較大的變化,視頻集CarScale在第200幀以后由于車輛的加速前進,目標尺度產(chǎn)生很大的變化。由圖3、表1和表2可以看出,本文算法能根據(jù)目標尺度變化自適應(yīng)調(diào)整跟蹤框的大小,在尺度自適應(yīng)方面也取得較好的效果,但由于CarScale視頻中目標加速前進后幀間尺度變化較大,因此跟蹤框會變小,本文算法在相鄰兩幀間尺度變化較大情況下跟蹤效果稍差。視頻集Skating1、Trellis和David存在多種復雜因素的影響,影響最大的是光照變化和背景干擾,視頻集Skating1中目標快速從陰影處滑到紅光的場景中,目標的光照急劇變化,同時目標的外觀也產(chǎn)生姿態(tài)變化。本文算法的MCLE取得較小值且SR取得較大值,說明本文算法在光照變化的復雜場合下,能進行魯棒有效的跟蹤。Deer視頻還存在背景雜波和低分辨率等情況,本文算法在復雜的背景干擾也取得最佳的效果。

        綜合以上實驗結(jié)果分析可知,本文算法采用多種特征進行描述目標,運用LKF進行特征融合或快速計算相鄰兩幀目標相似度和目標尺度自適應(yīng)策略,使得目標正確跟蹤的SR平均值達到較高,MCLE值達到最低,跟蹤效果達到最佳,雖然以犧牲時間來獲取較高的魯棒性,但在遮擋、目標形變、光照變化、背景雜波和尺度變化小等復雜場景中,跟蹤效果優(yōu)于其他算法,但對于兩幀間尺度變化較大時,跟蹤誤差累積會導致跟蹤失敗,因此本文算法適用于跟蹤要求精度高、處理速度要求不高的復雜場景下。

        5 小結(jié)

        本文提出一種基于多特征融合變尺度的核相關(guān)目標跟蹤算法,將多通道HOG特征和HSV分塊的顏色直方圖特征通過LKF進行融合來訓練樣本增強分類器的性能,采用LKF函數(shù)計算候選區(qū)域在7個尺度方向與目標的最大響應(yīng)值得到目標尺度信息,并使用新目標圖像為訓練樣本更新目標的外觀模型和尺度模型來跟蹤運動目標。

        實驗結(jié)果表明,該算法利用目標本身豐富的顏色特征描述目標外觀,增強目標外觀描述能力,在多個尺度方向上獲取尺度信息,解決出現(xiàn)的目標尺度變化問題。本文方法在復雜場景下具有較高的魯棒性和跟蹤精度,適用于跟蹤要求精度高、處理速度要求不高的復雜場景下,但對相鄰兩幀間運動目標尺度變化較大的問題,有待于進一步研究。

        [1] 高文,朱明,賀柏根,等.目標跟蹤技術(shù)綜述[J].中國光學,2014,7(3):365-373.

        [2] 彭爽,彭曉明.基于高效多示例學習的目標跟蹤[J].計算機應(yīng)用,2015,35(2):466-469.

        [3] 李宏波,鄭世寶,周芹.一種改進的長時間壓縮感知跟蹤算法[J].電視技術(shù),2016,40(4):22-26.

        [4] HENRIQUES J, CASEIRO R, MARTINS P, et al. Exploiting the circulant structure of tracking-by-detection with kernels[C]//Proc. the 12th European Conference on Computer Vision, LNCS 7575. Berlin: Springer, 2012:702-715.

        [5] BOLME D S, BEVERIDGE J R, DPAPER B A, et al. Visual object tracking using adaptive correlation filters[C]//Proc. 2010 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society,2010:2544-2550.

        [6] GALOOGAHI H K, SIM T, LUCEY S. Multi-channel correlation filters[C]//Proc. 2013 IEEE International Conference on Computer Vision. Piscataway: IEEE,2013:3072-3079.

        [7] HARE S, SAFFARI A, TORR P H S. Struck: structured output tracking with kernels[C]//Proc. 2011 IEEE International Conference on Computer Vision. Piscataway: IEEE,2011:263-270.

        [8] HENRIQUES J, CASEIRO R, MARTINS P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE transactions on pattern analysis and machine intelligence, 2015, 37(3):583-596.

        [9] LI Y, ZHU J K. A scale adaptive kernel correlation filters tracker with feature integration[C]//Proc. 2014 European Conference on Computer Vision-ECCV 2014 Workshops, LNCS 8926. Berlin: Springer,2014:254-265.

        [10] FELZENSZWALB P F, GIRSHICK R B, MCALLESTER D, et al. Object detection with discriminatively trained part-based models[J]. IEEE transactions on pattern analysis and machine intelligence,2010,32(9): 1627-1645.

        [11] 余禮楊,范春曉,明悅.改進的核相關(guān)濾波器目標跟蹤算法[J].計算機應(yīng)用,2015,35(12):3550-3554.

        [12] 胡昭華,邢衛(wèi)國,何軍,等.多通道核相關(guān)濾波的實時跟蹤方法[J].計算機應(yīng)用,2015,35(12):3544-3549.

        [13] 張雷,王延杰,孫宏海.采用核相關(guān)濾波器的自適應(yīng)尺度目標跟蹤[J].光學精密工程,2016,24(2):448-459.

        [14] DANELLJAN M, KHAN F S, FELSBERG M, et al. Adaptive color attributes for real-time visual tracking[C]//Proc. 2014 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2014:1090-1097.

        [15] 姜蘭池,沈國強,張國煊.基于HSV分塊顏色直方圖的圖像檢索算法[J].機電工程,2009,26(11):54-57.

        [16] EEVERINGHAM M, VAN G L, CHRISTOPHER K, et al. The pascal visual object classes (VOC) challenge[J]. International journal of computer vision,2010,88(2):303-338.

        [17] WU Y, LIM J, YANG M H. Online object tracking: a benchmark[C]//Proc. 2013 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2013:2411-2418.

        李 凱(1992— ),碩士生,主要研究方向為目標跟蹤;

        劉 穎(1972— ),女,博士,高級工程師,主要研究方向為圖像檢索;

        李 娜(1981— ),女,碩士,講師,主要研究方向為目標跟蹤和機器學習;

        戚秀真(1981— ),女,碩士,高級工程師,主要研究方向為圖像處理。

        責任編輯:薛 京

        Object tracking algorithm based on blocking multiple feature integration and scale-variant

        LI Kai1, LIU Ying1, LI Na1, QI Xiuzhen2

        (1.SchoolofCommunicationandInformationEngineering,Xi’anUniversityofPostsandTelecommunications,Xi’an710061,China;2.SchoolofInformationEngineering,Chang’anUniversity,Xi’an710064,China)

        To enhance description capability of objects appearance in color video and to solve the problem of object scale-variant during tracking process, object tracking algorithm based on blocking multiple feature integration and scale-variant is proposed. The object can be tracked accurately under different challenge factors by proposed algorithm. Firstly, HSV color histogram features and PCA-HOG features of object region block are extracted. After using linear kernel function fuses the two features, kernelized correlation filter models are obtained by linear ridge regression function. The degree of similarity between the tracking object and candidate region can be calculated by linear kernel function and the maximum response of the classifier on 7 scale spaces are obtained. Finally, the model parameters are updated with the scale adaptive template. The experimental results show that the algorithm can better adapt to object scale-variant in color video and remain high robustness in complex scenes.

        object tracking; multiple feature integration; scale-variant; linear kernel function

        李凱,劉穎,李娜,等.基于分塊的多特征融合變尺度目標跟蹤算法[J]. 電視技術(shù),2017,41(1):6-13. LI K, LIU Y, LI N, et al.Object tracking algorithm based on blocking multiple feature integration and scale-variant[J]. Video engineering,2017,41(1):6-13.

        TP391.4

        A

        10.16280/j.videoe.2017.01.002

        公安部科技強警基礎(chǔ)專項(2015GABJC5);陜西省國際科技合作計劃資助項目(2015KW-014);陜西省教育廳專項科研計劃資助項目(15JK166I);西安郵電大學研究生創(chuàng)新基金資助項目(CXL2015-22);西安市碑林區(qū)應(yīng)用技術(shù)研發(fā)項目(GX1502)

        2016-05-09

        猜你喜歡
        分塊直方圖分類器
        統(tǒng)計頻率分布直方圖的備考全攻略
        符合差分隱私的流數(shù)據(jù)統(tǒng)計直方圖發(fā)布
        分塊矩陣在線性代數(shù)中的應(yīng)用
        用直方圖控制畫面影調(diào)
        BP-GA光照分類器在車道線識別中的應(yīng)用
        電子測試(2018年1期)2018-04-18 11:52:35
        加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
        結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機的TSK分類器
        反三角分塊矩陣Drazin逆新的表示
        基于自適應(yīng)中值濾波的分塊壓縮感知人臉識別
        基于多分辨率半邊的分塊LOD模型無縫表達
        国内无遮码无码| 亚洲国产精品无码av| 麻豆一区二区三区蜜桃免费| 日韩精品人妻系列无码专区免费| 97精品国产91久久久久久久| 免费啪啪av人妻一区二区| 亚洲视频在线免费不卡| 激情人妻中出中文字幕一区| 精品国产免费一区二区久久| 日韩乱码人妻无码系列中文字幕| 亚洲s色大片在线观看| 国产一卡2卡3卡四卡国色天香 | 中文字幕视频一区懂色| 日韩不卡一区二区三区色图| 天天做天天爱夜夜爽毛片毛片| 精品淑女少妇av久久免费| aaa级久久久精品无码片| 亚洲黄色一级毛片| 亚洲av第一区综合激情久久久| 一区二区三区日韩精品视频| 日本阿v片在线播放免费| 国产欧美日韩a片免费软件| av无码一区二区三| 黄色潮片三级三级三级免费| 77777_亚洲午夜久久多人| 人人妻人人澡人人爽精品欧美| 日子2020一区二区免费视频| 中文字幕一区二区三在线| 日韩三级一区二区三区| 亚洲欧美日韩国产精品一区二区| 久久精品片| 青青草国内视频在线观看| 激情五月我也去也色婷婷| 亚洲精品久久久久久久不卡四虎| 三上悠亚精品一区二区久久| 久久久久久国产精品免费网站| 黄片一级二级三级四级| av免费资源在线观看| 亚洲精品动漫免费二区| 久久婷婷综合色丁香五月| 亚洲日本va99在线|