陳 晨,高艷麗,鄧趙紅+,王士同
1.江南大學 數(shù)字媒體學院,江蘇 無錫 214122
2.江南計算技術(shù)研究所,江蘇 無錫 214083
視頻目標跟蹤[1-2]作為計算機視覺中的重要研究領域之一,它被廣泛用于運動分析、行為識別、視頻監(jiān)控及人機交互等方面。近年,目標跟蹤技術(shù)的研究取得了很大進步,涌現(xiàn)出了諸多跟蹤算法,但仍面臨一系列挑戰(zhàn),如光照變化、遮擋、畫面抖動等因素常導致目標跟蹤不準確。近年研究的熱點是判別式跟蹤方法,它將機器學習引入到目標跟蹤,將目標跟蹤看作二分類問題,即通過分類器將視頻中的待跟蹤目標和周圍背景區(qū)分開,最終得到使分類器置信度最大的位置就是目標中心位置。
現(xiàn)有的跟蹤算法主要分為兩大類:
(1)基于深度學習的跟蹤算法
該類算法主要基于深度神經(jīng)網(wǎng)絡[3-5]框架進行學習。深度神經(jīng)網(wǎng)絡由于其在圖像特征提取方面具有強大的學習功能,因此被應用于視頻跟蹤中。例如文獻[6]中提出了一種基于全卷積神經(jīng)網(wǎng)絡的目標跟蹤方法,不僅僅將卷積神經(jīng)網(wǎng)絡作為特征提取的工具,而且離線預先訓練大量圖像數(shù)據(jù);文獻[7]中提出了一種利用VGGNET16提取圖片特征,之后加入單層殘差神經(jīng)網(wǎng)絡,并且同時考慮了時域殘差和空間殘差的跟蹤方法;文獻[8]中提出了利用分層卷積網(wǎng)絡構(gòu)建多個相關(guān)濾波器產(chǎn)生多極相關(guān)響應圖來精確預測目標位置,一定程度上提高了跟蹤精度。但是目前深度學習的跟蹤算法因為具有龐大的網(wǎng)絡規(guī)模和訓練數(shù)據(jù)的缺乏導致它在實時性方面表現(xiàn)不佳,因此不適用于對實時性有要求的視覺跟蹤。
(2)基于相關(guān)濾波器[9-10]的跟蹤算法
該類算法首先給定一個包含跟蹤目標的初始圖像塊,通過學習一個判別分類器來區(qū)分對待跟蹤目標和周圍環(huán)境。Bolme等在2010年首次將相關(guān)濾波用在了追蹤領域,并且提出了MOSSE(minimum output sum of squared error filter)相關(guān)濾波器[11-12];為解決被跟蹤過程中發(fā)生的形變、部分遮擋問題,Kalal等將傳統(tǒng)的跟蹤算法和傳統(tǒng)的檢測算法相結(jié)合,在2011年提出了一種單目標長時間的TLD(trackinglearning-detection)跟蹤算法[13-15]。在此基礎上,為了改進快速移動和運動模糊的問題,張晶等將傳統(tǒng)TLD算法結(jié)合時空背景相似性(spatio-temporal context similarity,STCS)方法提出了一種基于時空上下文相似性的TLD[16]算法。在視頻追蹤實時性方面,Henriques等在2014年提出了高速KCF(kernel correlation filter)算法及其改進的DCF(discriminant correlation filter)算法[17]。孫健等在KCF中增加了一個尺度濾波器[18]來改進尺度變化的問題。劉延飛等利用峰值數(shù)據(jù)的均值和標準差[19]對每幀的響應峰值進行比較來改善KCF中跟蹤目標丟失的問題。
模糊系統(tǒng)[20-21]由于其具有可解釋性以及良好的非線性學習等優(yōu)點,在計算機視覺(computer vision,CV)領域也得到了有效應用。例如Angelov等以經(jīng)典Takagi-Sugeno神經(jīng)模糊系統(tǒng)為基礎,提出了一種使用柯西類型內(nèi)核的遞歸密度估計的視頻追蹤算法[22];Zhang等提出了一種新的模糊跟蹤框架,該框架將跟蹤作為模糊分類問題,通過為其分配不同的成員關(guān)系來測量訓練樣本的重要性,最后以模糊最小二乘支持向量機(fuzzy least squares-support vector machine,F(xiàn)LS-SVM)分類器實現(xiàn)一個具體的跟蹤器[23]。但目前與模糊理論相關(guān)的跟蹤工作還相對較少,因此將模糊邏輯系統(tǒng)應用于視頻跟蹤領域具有較大的研究意義。
上述三類算法均在跟蹤方面獲得了一定的有效性,但也都面臨一些局限性,需要進一步改進和研究。例如,濾波器KCF跟蹤算法具有高速的特點,但是在核技巧的處理上仍具有一些挑戰(zhàn)。因為其只是單純使用核技巧來對模板幀與后續(xù)幀進行相關(guān)性計算,在精度方面沒有較強的魯棒性,導致在某些視頻數(shù)據(jù)上的跟蹤效果表現(xiàn)不佳?;谏鲜鎏魬?zhàn),本文提出了一種改進算法,主要工作就是將TSK-FLS(Takagi-Sugeno-Kang fuzzy logic system)[24]中利用最小二乘所求的后件參數(shù)與核相關(guān)濾波器相結(jié)合,來構(gòu)造一種模糊核相關(guān)濾波器(fuzzy kernel correlation filter,F(xiàn)KCF)的跟蹤方法。本文提出的模糊核方法比之前最先進的核方法更加穩(wěn)定,而且具有更高的魯棒性,同時也繼承了KCF高速計算的特點。實驗結(jié)果也表明,較之KCF算法,本文所提出的FKCF算法不僅在快速移動、背景雜波、規(guī)格變化等影響因素下的跟蹤效果有明顯的提升,而且在其他影響因素下的跟蹤效果也有穩(wěn)定的提升。
本文的主要貢獻如下:
(1)將TSK-FLS與核相關(guān)濾波器算法(KCF)相結(jié)合,將KCF算法中簡單的核技巧替換為TSK-FLS來進行運算。
(2)在替換的過程中,考慮到計算時間及精度的原因,將傳統(tǒng)的TSK-FLS進行改進,根據(jù)其求解后件參數(shù)的最小二乘方法來對KCF算法進行優(yōu)化。
本章首先介紹TSK模糊邏輯系統(tǒng)[24-25]的基本概念,其次簡單介紹下KCF算法。
FLS有三大類:TSK模型[26]、Mamdani模型[27]和廣義模糊模型[28]。其中,TSK模型由于其簡單性和靈活性而具有較為廣泛的應用,本文亦采用TSK模型作為基礎模型。
TSK模糊邏輯系統(tǒng)采用如下If-then規(guī)則:
其中,i=1,2,…,M,M表示規(guī)則數(shù)目,是后件參數(shù),x=[x1,x2,…,xθ]T是輸入向量,yi(x)是第i條規(guī)則的輸出,是第i條規(guī)則的第k個輸入域中的模糊集合?!氖锹?lián)合運算符。
當使用t范數(shù)和重心去模糊化時,經(jīng)典TSK-FLS的最終輸出被計算為:
其中可以使用不同的方法來估計參數(shù),例如模糊C均值聚類(fuzzy C-means,F(xiàn)CM)[29]:
其中,ujk表示FCM在訓練數(shù)據(jù)集上獲得的第k個模糊分區(qū)中樣本xj的隸屬度,并且h是可以手動設置或通過交叉驗證(cross-validation,CV)確定的縮放參數(shù)。
當模糊規(guī)則中的前件參數(shù)固定時,TSK-FLS可以重新表示為新特征空間的線性模型[28,30-31]。令:
然后,y0變?yōu)椋?/p>
其中,xg∈RM(d+1)是新特征空間中的一個數(shù)據(jù)向量,它是從原始特征空間中的數(shù)據(jù)向量x∈Rd通過模糊規(guī)則前件映射而來的,而pg是所有模糊規(guī)則的后件參數(shù)的組合,其中k=1,2,…,θ,i=1,2,…,M。
2.2.1 判別分類器
KCF算法的主要思想是使用給出的樣本去訓練一個判別分類器,判斷跟蹤到的是目標還是周圍的背景信息,使用循環(huán)矩陣[32]對樣本進行采集,使用快速傅里葉變換[33]對算法進行加速計算,并且在像素矩陣處理時引入了核技巧來增加判別分類器的精度從而提高跟蹤精度。
在KCF跟蹤器中,分類器f(x)=<w,φ(x)>它通過對目標周圍大小為m×n的圖像塊x訓練獲得。分類器不通過傳統(tǒng)的移動窗口獲得樣本xi,而是通過利用循環(huán)位移獲得樣本xi,其中i∈{0,1,…,m-1}×{0,1,…,n-1} 分類器通過最小正則化風險函數(shù)式(13)進行訓練。
其中,φ表示映射到Hilbert特征空間,使用的核函數(shù)k(x,x')=<φ(x),φ(x')>;yi為樣本xi期望輸出;λ為一個固定的正則化參數(shù)。那么式(13)的解可以表示為輸入的線性組合[34],即:
系數(shù)向量為α根據(jù)文獻[17]可以得到α的解為:
其中,K為核矩陣,其元素Kij=k(xi,xj);I為單位矩陣;向量y的元素為yi;系數(shù)向量α的元素為αi。
2.2.2 循環(huán)矩陣
假設C(x)是一個n×n的循環(huán)矩陣,則它可以通過一個1×n的向量x的循環(huán)位移獲得,則有:
其中,C(x)的第一行是向量x的轉(zhuǎn)置,第2行是向量x向右循環(huán)移動一位元素轉(zhuǎn)置后的結(jié)果,依次類推可以得到C(x)所有行。
對于一個n×1的向量u,則C(x) 與u的乘積p=C(x)u就是向量x和u的卷積。假設一個向量的離散傅里葉變換(DFT)用“^”標記,如,其中F表示DFT,那么在頻域下就有:
其中,*表示復數(shù)共軛運算;⊙表示按像素乘法操作。
2.2.3 目標位置檢測
依據(jù)文獻[17],如果核函數(shù)是酋不變的,則有核矩陣K為循環(huán)矩陣,因此式(15)可以根據(jù)循環(huán)矩陣的性質(zhì)得到在頻域下的解:
其中,K=C(h),h的元素hi=k(x,xi)。若對于具有C個通道特征的圖像數(shù)據(jù),對特征向量x=[x1,x2,…,xc]和進行分析,使用高斯核計算h,高斯核為,則可得到:
其中,F(xiàn)-1表示逆DFT。
假設通過獲取新的一幀中感興趣圖像塊z檢測目標的位置,由前面可知,分類器的輸出響應為:
其中,hi=k(x,zi),zi為從圖像塊z提取的訓練樣本;x為從上一幀學習獲得的目標模型。則y就是h乘以學習系數(shù)α的線性組合,本質(zhì)上就是一個濾波操作,h就是KCF,分類器的響應y就是h的輸出響應。KCF的輸出響應為,則有:
其中,b為學習因子;αt、αt-1分別表示當前幀和上一幀更新獲得的系數(shù)向量;xt、xt-1分別表示當前幀和上一幀更新獲得的模型x。
經(jīng)典KCF算法采用高斯核函數(shù)將樣本映射到高維空間,該方法雖然一定程度會提高算法的魯棒性,但是高斯核函數(shù)對參數(shù)較為敏感,經(jīng)典KCF算法對高斯函數(shù)參數(shù),即核函數(shù)中心與核帶寬,采用的方式是人為賦值的方式,這樣的方式存在一定的盲目性。針對此,本文將TSK-FLS引入KCF中,提出了基于TSK-FLS的KCF算法FKCF。具體如下。
為充分利用上一幀所能提供的先驗知識,本文采用TSK-FLS前件映射替代經(jīng)典KCF算法中的核映射??紤]到高斯函數(shù)的普適性,本文采用高斯函數(shù)作為隸屬度函數(shù),函數(shù)形式如下:
結(jié)合模糊隸屬度函數(shù)的公式,本文從模糊隸屬度函數(shù)的角度重新定義了兩個任意向量的相關(guān)性。
由于模糊隸屬度函數(shù)是高斯型的,因此與徑向基函數(shù)類似,可以推出如下形式。對于一些函數(shù)h,的元素如下:
由于Parseval定理[35],Pi-1不會影響x的范數(shù)。由于是常數(shù),因此上式的矢量形式為:
將函數(shù)h轉(zhuǎn)化為模糊隸屬度函數(shù),可得:
本節(jié)主要說明如何在算法中加入TSK-FLS的后件參數(shù)來改進算法,使算法精確度提高且在錄制設備晃動幅度大的情況下標記更佳穩(wěn)定。FKCF所采用的后件參數(shù)結(jié)合最小二乘法的思想,所有的前件參數(shù)事先給定,只有后件的系數(shù)需要調(diào)整,規(guī)則的數(shù)目M已經(jīng)指定為1,最小二乘法的出發(fā)點是:
其中,f i(x)是規(guī)則的點火水平(強度),定義為:
其中,T表示t范數(shù),通常取最小或者乘積,在式(24)和式(25)中,x表示應用于一型TSK-FLS的一個特定的輸入。
在這里可以將式(30)重新表示為:
由于M的值為1,將式(32)優(yōu)化為:
i=1,2,…,M,M=1,j=0,1,…,θ,因此方程(33)可以表示為:
在實際圖像中第一項是不存在的,因此g(x)與p是θ×M×1維向量,它們的元素由式(33)可知(注:去除。
對訓練集合中N元素的每一個運用式(35),即:
聯(lián)立N個方程,可以用向量-矩陣的形式表示為:
這里G是之前式(29)得到的θ個元素的隸屬度矩陣,并且根據(jù)式(34)可知:
為方便計算,將p的最小二乘設計pLS通過最小化關(guān)于p的下式而獲得:
這個最優(yōu)化問題的解可以表示為:
化簡后可得到:
式(41)中,Y是對G的約束項,應當充分考慮當前幀與模板幀的關(guān)系。同時為了控制Y值的變化,加入?yún)?shù)β(1×10-6~1×10-3)進行小范圍尋優(yōu),根據(jù)上述條件推得下式:
其中,x*表示訓練圖像塊(由上一幀得出)的復共軛,z表示測試圖像塊(由當前幀得出)。結(jié)合式(38)、式(41)和式(42),最終的核化版本是:
本文主要從兩方面對經(jīng)典KCF算法進行了提升,分別為用可解釋性更好的模糊映射替代原始核映射,以及引入模糊后件參數(shù)提升算法性能。
一方面,本文利用可解釋性更好的TSK-FLS前件映射代替KCF算法中的核映射,其合理性在于兩者的運算目的是相同的。核映射在原算法中的目的是計算兩幀之間的相關(guān)性;而利用模糊邏輯系統(tǒng)中的前件映射,仍然可以達到相同的目的。式(24)中xk為當前幀中的每個值,為上一幀中的每個值,由于需要對上述兩幀進行相關(guān)性計算,結(jié)合模糊隸屬度函數(shù)的概念可知,xk中每個元素需要與對應的隸屬度中心計算得到隸屬度值。所得的隸屬度值即為兩幀的相關(guān)性結(jié)果,xk對的隸屬度越高,則相關(guān)性越高。該算法在確定目標中心后,一般選取當前中心點構(gòu)造patch,同時為計算方便,且不影響精度,M取值通常為patch的數(shù)量。
另一方面,前件映射實現(xiàn)了KCF算法與TSKFLS的結(jié)合,據(jù)此可進一步有效利用TSK-FLS后件參數(shù)。通過前件參數(shù)來計算所得的后件參數(shù)是性能提升的關(guān)鍵所在,其將原先的高斯核通過后件參數(shù)改為模糊化的核函數(shù)。該模糊核函數(shù)以式(42)的Y為約束項。該約束項應充分考慮當前幀與模板幀的關(guān)系,為此將Y與上述模糊隸屬度函數(shù)中的數(shù)據(jù)進行運算,得到最終的結(jié)果。如果對進行對應的控制可以有效地改進跟蹤效果。原算法中由于G(即為,由式(38)可知)中最大響應點在其第一行第一列的位置,值為1,其余的點都小于1,經(jīng)過快速傅里葉變換后,其左上角為矩陣中最大的值,而其他位置的值都很相似并且都是很小的(趨近于0)。而本文的算法通過約束項Y對隸屬度矩陣G進行處理之后,再對pLS進行快速傅里葉變換,矩陣G左上角依舊是峰值,而其他位置的值相對于左上角的值有了更大的差異,即具有了更高的區(qū)分度。同時通過控制Y值的變化,本文算法比原算法更容易讓峰值,即目標中心突出顯示,特別是在劇烈運動的跟蹤情況下,這樣的改進措施可以更加精確地對目標進行有效跟蹤。
本節(jié)主要介紹FKCF算法跟蹤的流程。
(1)對視頻幀進行循環(huán),對第一幀進行預處理,并且根據(jù)FKCF計算其自相關(guān)。
(2)計算出α的值,并更新m_α和模板幀m_x(alpha、model_alpha、model_x即為α、m_α、m_x)。
(3)從第二幀開始,對本幀進行預處理并且運用HOG提取特征,再利用TKCF計算其與模板之間的相關(guān)性。
(4)將(2)中所得的相關(guān)性值pLS與最近更新的m_α進行響應計算,得到最大響應點即為目標中心點。
(5)重復運行(2)、(3)、(4),直到遍歷完所有幀。
FKCF算法的偽代碼如下所示:
輸入:x,訓練圖像塊,m×n×c;y,高斯型回歸目標,m×n;z,測試圖像塊,m×n×c(m×n注釋:m代表圖像塊的長,n代表圖像塊的寬度,c代表圖像塊的通道數(shù))。
Repeat:frame=1,2,…,F(xiàn):
利用式(42)計算約束項Y。
利用高斯型模糊隸屬度函數(shù)(式(29))計算后幀與前幀的模糊隸屬度矩陣G。
根據(jù)上述所得,利用式(43)計算模糊核pLS。
Ifframe>1 then:
利用式(42)計算約束項Y。
利用高斯型模糊隸屬度函數(shù)(式(29))計算后幀與前幀的模糊隸屬度矩陣G。
根據(jù)上述所得,利用式(43)計算模糊核pLS。
根據(jù)m_α與核pLS求出預測矩陣responses來得到目標中心點的值。
利用式(18)計算出α的值。
利用式(22)、式(23)更新m_α及模板m_x。
輸出:responses中的預測中心點。
為對本文所提FKCF算法性能進行驗證,本節(jié)將所提算法與經(jīng)典KCF等四種算法進行了實驗比較。實驗采用數(shù)據(jù)集將在4.1.1小節(jié)中進行描述,實驗平臺及評價標準將在4.1.2小節(jié)中進行描述。
4.1.1 實驗數(shù)據(jù)集
本文采用了Benchmark[36]中的4個數(shù)據(jù)集進行測試,分別從OTB50、OTB100、OTB2013、OTB2015中隨機挑選視頻序列進行實驗。所選數(shù)據(jù)集中標明了屬性,這些屬性描述了跟蹤器在每個序列中將面臨的挑戰(zhàn)。所選數(shù)據(jù)集間主要區(qū)別為:待跟蹤目標在不同場景下經(jīng)歷了多個不同的屬性變化。所選數(shù)據(jù)集屬性變化均為跟蹤器在實際應用中常見變化,和表中屬性一致。
4.1.2 實驗平臺及評價標準
實驗平臺:(1)CPU,Intel?CoreTMi7-7700k;(2)主頻,4.20 GHz;(3)內(nèi)存,32 GB;(4)操作系統(tǒng),Win1064位操作系統(tǒng);(5)編程環(huán)境,Matlab(R2016a)。
Table 1 10 attributes tracking accuracy of algorithm on OTB50 data set表1 算法在OTB50數(shù)據(jù)集上的10個屬性跟蹤精度
評價指標:對于性能指標,評判方法沒有選擇平均位置誤差或者其他平均幀數(shù)的測量方法,而是通過預測準確幀數(shù)與總幀數(shù)的比值作為評判標準,具體將在下文進行說明。
本文將所提FKCF算法與四種經(jīng)典視頻跟蹤算法進行了比較,這四種方法分別為基于核方法的KCF[17]和DCF[17],以及經(jīng)典視覺跟蹤算法MOSSE[11]和TLD[13]算法??紤]到方向梯度直方圖(histogram of oriented gradient,HOG)[37]特征提取方法以及高斯核函數(shù)具有較為廣泛的適用性,因此本次實驗中KCF、DCF與FKCF三種算法均采用HOG特征提取方法,核函數(shù)采用高斯核函數(shù)。
本文所提算法與對比算法在4個數(shù)據(jù)集上針對不同屬性視頻的跟蹤精度如表1~表4所示。跟蹤結(jié)果如圖1所示。跟蹤精度計算方式為預測目標中心距實際目標中心的偏移量不超過設定閾值(20個像素)的幀數(shù)與總幀數(shù)的比值,本文所選閾值依據(jù)文獻[17]設定。
通過觀察表1~表4,可得如下結(jié)論:
(1)本文所提算法相比其他對比算法在10個常見屬性上跟蹤精度均有提升。通過平均精度可知,F(xiàn)KCF相比于KCF和DCF算法,平均精度提升了3.76%和2.66%,相比TLD和MOSSE則有大幅度提升,說明該算法具有較好的跟蹤效果。
(2)對比表1、表3和表2、表4可看出,本文所提算法針對OTB50和OTB2013數(shù)據(jù)集提升效果更為明顯,而這兩個數(shù)據(jù)集中所選取的視頻序列大多數(shù)存在模糊且劇烈運動的問題,跟蹤情況較為復雜,由此可以得出本文所提算法對由上述行為導致的屬性變化有較強的適應性。
Table 2 10 attributes tracking accuracy of algorithm on OTB100 data set表2 算法在OTB100數(shù)據(jù)集上的10個屬性跟蹤精度
Table 3 10 attributes tracking accuracy of algorithm on OTB2013 data set表3 算法在OTB2013數(shù)據(jù)集上的10個屬性跟蹤精度
Table 4 10 attributes tracking accuracy of algorithm on OTB2015 data set表4 算法在OTB2015數(shù)據(jù)集上的10個屬性跟蹤精度
Fig.1 Tracking result圖1 跟蹤結(jié)果圖
具體的跟蹤情況將在圖1中展示,其中每幅圖中分別有三種顏色的跟蹤框,代表圖例的三種算法的實時跟蹤效果。綠色、紅色、藍色框分別代表FKCF、KCF、TLD,按橫向排列,1~7源自OTB50數(shù)據(jù)集,8~14源自OTB100數(shù)據(jù)集,15~21源自OTB2013數(shù)據(jù)集,22~28源自OTB2015數(shù)據(jù)集。為了進一步印證上述本文所提算法針對劇烈運動場景具有更好的魯棒性,本文在不同屬性上,對每個算法在不同偏移像素距離下的跟蹤精度進行了對比,實驗結(jié)果如圖2~圖11所示。橫坐標代表預測中心與實際中心偏移的實際距離;縱坐標代表對應偏移距離為閾值時的跟蹤精度,即在當前偏移距離下,預測中心與實際中心偏差不超過對應距離的幀數(shù)與視頻總幀數(shù)的比值;圖上部是對應實驗視頻數(shù)量;在圖的右下角給出了對應偏移距離的閾值設為20的平均跟蹤精度。
Fig.2 Background clutter圖2 背景雜亂
Fig.3 Illumination variation圖3 光照變化
Fig.4 Low resolution圖4 低分辨率
觀察實驗結(jié)果圖2~圖11,可得如下結(jié)論:
(1)相比于其他屬性,在背景雜亂、旋轉(zhuǎn)變化、移動模糊、形態(tài)變化、快速移動和規(guī)格變化這幾個屬性上,本文所提算法所得曲線與對比算法所得曲線間距較大,而這六種屬性與劇烈運動程度相關(guān)性較大,因此這在一定程度上表明本文所提算法在面對劇烈運動場景時具有更好的魯棒性。
(2)FKCF相比于經(jīng)典KCF、DCF、TLD、MOSSE算法,在較小的閾值情況下即可達到較高的跟蹤精度。
(3)FKCF相比于其他對比算法間距較大,其原因主要是相比于TLD、MOSSE算法,本文算法不僅在特征提取方面選用較為先進的HOG方法,而且在后期檢測階段引入了相比傳統(tǒng)核方法(KCF、DCF)更有普適性的模糊核方法,從而在處理大多數(shù)視頻時會產(chǎn)生較對比算法更好的結(jié)果。由于每幅曲線圖中的曲線是根據(jù)多個視頻實驗得出的,而實驗中的每個視頻又包含多種屬性場景,本文所提出的算法針對這些場景的精度都有一定的提升,因此在圖2~圖11中,F(xiàn)KCF的曲線與對比算法的曲線有一定的間距。
Fig.5 Occlusion圖5 遮擋變化
Fig.6 Out-of-plane rotation圖6 旋轉(zhuǎn)變化
Fig.7 Out of view圖7 目標消失
Fig.8 Motion blur圖8 移動模糊
Fig.9 Deformation圖9 形態(tài)變化
Fig.10 Fast motion圖10 快速運動
Fig.11 Scale variation圖11 規(guī)格變化
綜上所述,本文算法相比于其他算法對復雜環(huán)境下的單目標跟蹤擁有更好的適用性。
本文將TSK-FLS的知識與目標跟蹤算法KCF良好地結(jié)合起來,提出了一種新的模糊KCF算法FKCF。該算法通過利用TSK-FLS將原先的目標函數(shù)進行改進,從而使其與目標跟蹤很好地融合在一起,綜合了TSK-FLS映射較穩(wěn)定以及經(jīng)典核相關(guān)濾波器高速的特點。大量的實驗表明,相比于經(jīng)典KCF、DCF、TLD、MOSSE算法,本文所提算法在跟蹤精度上均有較大的提高。但所提算法仍存在一定的不足,如其實質(zhì)仍是一種高精度高速度的單核目標跟蹤算法,引入多核策略讓其具有更強的魯棒性將是下一步研究的目標。