亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合前景判別和圓形搜索的目標(biāo)跟蹤算法

        2018-01-08 08:42:08林玲鵬黃添強(qiáng)
        計算機(jī)應(yīng)用 2017年11期
        關(guān)鍵詞:哈希前景背景

        林玲鵬,黃添強(qiáng),林 晶

        (1.福建師范大學(xué) 軟件學(xué)院,福州 350007; 2.福建省公共服務(wù)大數(shù)據(jù)挖掘與應(yīng)用工程技術(shù)研究中心,福州 350007;3.福建師范大學(xué) 數(shù)學(xué)與計算機(jī)科學(xué)學(xué)院,福州 350007)

        融合前景判別和圓形搜索的目標(biāo)跟蹤算法

        林玲鵬1,2,黃添強(qiáng)1,2*,林 晶3

        (1.福建師范大學(xué) 軟件學(xué)院,福州 350007; 2.福建省公共服務(wù)大數(shù)據(jù)挖掘與應(yīng)用工程技術(shù)研究中心,福州 350007;3.福建師范大學(xué) 數(shù)學(xué)與計算機(jī)科學(xué)學(xué)院,福州 350007)

        針對運動目標(biāo)在發(fā)生遮擋、形變、旋轉(zhuǎn)和光照等變化時會導(dǎo)致跟蹤誤差大甚至丟失目標(biāo)以及傳統(tǒng)跟蹤算法實時性差的問題,提出了一種融合前景判別和圓形搜索(CS)的目標(biāo)跟蹤算法。該算法采用了圖像感知哈希技術(shù)來描述與匹配跟蹤目標(biāo),跟蹤過程使用了兩種跟蹤策略相結(jié)合的方法,能夠有效地解決上述問題。首先,根據(jù)目標(biāo)運動方向的不確定性和幀間目標(biāo)運動的緩慢性,通過CS算法搜索當(dāng)前幀局部(目標(biāo)周圍)最佳匹配位置;然后,采用前景判別PBAS算法搜索當(dāng)前幀全局最優(yōu)目標(biāo)前景;最終,選取兩者與目標(biāo)模板相似度更高者為跟蹤結(jié)果,并根據(jù)匹配閾值判斷是否更新目標(biāo)模板。實驗結(jié)果表明,所提算法在精度、準(zhǔn)確率和實時性上都比MeanShift算法更好,在目標(biāo)非快速運動時有較好的跟蹤優(yōu)勢。

        目標(biāo)跟蹤;圓形搜索算法;前景判別;感知哈希;跟蹤策略

        0 引言

        視頻目標(biāo)跟蹤[1]是計算機(jī)視覺領(lǐng)域研究的核心內(nèi)容之一,同時也是圖像處理的主要分支之一。在對運動目標(biāo)進(jìn)行檢測和跟蹤過程中,應(yīng)用了多個研究領(lǐng)域的內(nèi)容,比如圖像處理、模式識別、人工智能和機(jī)器學(xué)習(xí)等。視頻目標(biāo)跟蹤在智能視頻監(jiān)控、人機(jī)交互、機(jī)器人視覺導(dǎo)航、虛擬現(xiàn)實、醫(yī)學(xué)圖像分析和視頻壓縮等領(lǐng)域中有很大的理論意義和應(yīng)用價值[2]。

        簡而言之,視頻目標(biāo)跟蹤是一個只知道目標(biāo)的初始位置去估計它在一個圖像序列中軌跡的問題。對目標(biāo)的跟蹤方法則成為各種跟蹤算法中的重要組成部分。由于有限的目標(biāo)先驗知識,解決這個問題是特別具有挑戰(zhàn)性的;而且,跟蹤算法必須是靈活的,以應(yīng)對快速的目標(biāo)外觀的變化,同時對發(fā)生遮擋和背景干擾應(yīng)該是魯棒的。

        在最近幾年,學(xué)者們運用tracking-by-detection的方法[3-6],使上述問題得到了一定的解決。在這類算法中,跟蹤方法采用機(jī)器學(xué)習(xí)技術(shù)來訓(xùn)練目標(biāo)樣本的外觀模型和背景模型。比如,監(jiān)督學(xué)習(xí)方法中的支持向量機(jī)(Support Vector Machine, SVM)[7]和嶺回歸[8]方法通常構(gòu)建一個有區(qū)分能力的分類器或回歸量。在常用的目標(biāo)跟蹤算法中,基于均值漂移的MeanShift目標(biāo)跟蹤算法[9-10]通過顏色直方圖分別描述目標(biāo)模型和候選模型,然后利用Bhattacharyya相似函數(shù)度量候選模板的相似性,選擇使相似函數(shù)最大的候選模型并通過不斷迭代計算MeanShift向量,實現(xiàn)對目標(biāo)的跟蹤。該算法實時性較好,并在目標(biāo)發(fā)生形變、旋轉(zhuǎn)時仍能有效跟蹤目標(biāo),受到廣泛的應(yīng)用[11]。

        同時,此類跟蹤模型的質(zhì)量很大程度上依賴于它的訓(xùn)練集[12]。當(dāng)訓(xùn)練集不能正確表達(dá)目標(biāo)時,標(biāo)準(zhǔn)的tracking-by-detection跟蹤算法的結(jié)果會受到很大的影響。這些不正確的訓(xùn)練樣本通常是因為目標(biāo)發(fā)生了形變、旋轉(zhuǎn)、遮擋和尺度變換,跟蹤的不準(zhǔn)確也會帶來不正確的訓(xùn)練樣本,從而導(dǎo)致分類器的退化。當(dāng)訓(xùn)練集出錯時,跟蹤模型會出現(xiàn)目標(biāo)漂移,最終導(dǎo)致目標(biāo)跟蹤失敗。

        因此,一個正確的訓(xùn)練集對此類算法至關(guān)重要,可避免發(fā)生目標(biāo)漂移和跟蹤失敗。為了避免此類瓶頸的出現(xiàn),本文算法在tracking-by-detection的基礎(chǔ)上,采用了匹配跟蹤和搜索跟蹤,通過兩種跟蹤策略的結(jié)合,一定程度上防止了在跟蹤過程中訓(xùn)練集出錯,從而防止了在跟蹤過程中出現(xiàn)目標(biāo)漂移,提高了算法的準(zhǔn)確性和魯棒性。

        本文提出了一種融合前景判別和圓形搜索(Foreground Discrimination and Circle Search, FDCS)的目標(biāo)跟蹤算法,該算法利用本文提出的圓形搜索(Circle Search, CS)算法對目標(biāo)進(jìn)行搜索跟蹤,同時結(jié)合PBAS(Pixel-Based Adaptive Segmenter)前景判別算法進(jìn)行匹配跟蹤。其中,CS算法在應(yīng)對目標(biāo)移動時具有良好的跟蹤效率; PBAS在跟蹤過程中應(yīng)對目標(biāo)發(fā)生形變、部分遮擋、尺度變化和外部光照變化有較好的魯棒性。

        1 系統(tǒng)概述

        本文在融合前景判別和CS的跟蹤算法框架下,使用了圖像感知哈希特征描述子,所提出的FDCS跟蹤算法框架如圖1所示。其中,為了能夠準(zhǔn)確提取目標(biāo)圖像摘要,所采取的圖像感知哈希算法使用了離散余弦變換(Discrete Cosine Transform, DCT)[13]提取圖像的低頻信息來近似表示圖像。DCT對圖像的處理效果如圖2所示,DCT會將圖片的低頻信息集中在左上角,低頻信息所對應(yīng)的DCT系數(shù)會相對較大,而靠近右下角的高頻信息對應(yīng)的DCT系數(shù)較小。同時,F(xiàn)DCS采用搜索跟蹤策略和匹配跟蹤策略對視頻運動目標(biāo)進(jìn)行跟蹤,兩種跟蹤策略如下所述。

        圖1 算法框架Fig. 1 Algorithm framework

        搜索跟蹤策略 采用本文提出的CS算法,其思想是根據(jù)目標(biāo)運動方向的不確定性和幀間目標(biāo)運動的緩慢性,對跟蹤目標(biāo)周邊區(qū)域(以目標(biāo)為中心、半徑為2的圓)的13個跟蹤點進(jìn)行判斷搜索。

        匹配跟蹤策略 使用的是PBAS前景檢測算法,它引入了控制論的思想和背景復(fù)雜程度的度量方法,使得前景判斷閾值和背景模型更新率可以根據(jù)背景復(fù)雜程度自適應(yīng)調(diào)整,保證了前景提取的正確率和魯棒性。

        圖2 DCT結(jié)果Fig. 2 Results of DCT

        2 圖像感知哈希技術(shù)

        本文算法使用了圖像感知哈希(Image Perceptual Hashing)技術(shù)來描述圖像特征,由于哈希的二值特性使得算法在特征描述與匹配的效率上得到了提高。

        2.1 圖像感知哈希性質(zhì)

        圖像感知哈希又稱為圖像指紋(Image Fingerprinting),是近幾年新發(fā)展的一個圖像特征描述算子[14]。它用一個二進(jìn)制比特串來近似表示圖像,通過對圖像數(shù)據(jù)的二值化提高了匹配算法的效率,增強(qiáng)了實用性。圖像感知哈希技術(shù)的總體框架如圖3所示。

        圖3 圖像哈?;究蚣?/p>

        Fig. 3 Basic framework of image Hash

        圖像感知哈希技術(shù)要求所使用的哈希算法應(yīng)當(dāng)滿足以下4個性質(zhì):

        1)摘要性(Compactness)。經(jīng)過哈希算法生成的Hash值應(yīng)遠(yuǎn)小于原圖像的大小。

        2)唯一性(Uniqueness)。一幅圖像經(jīng)過同一哈希算法生成的Hash值是相同的。

        3)差異性(Otherness)。差異明顯的圖像經(jīng)過同一哈希算法生成的Hash值是不相近的。

        4)魯棒性(Robustness)。相似的圖像經(jīng)過同一哈希算法生成的Hash值是相同或相近的。

        2.2 哈希特征值的生成

        目前,比較流行的對圖像構(gòu)造Hash值的算法有均值哈希算法、感知哈希算法和差異哈希算法。由于均值哈希不能很好地以人類的視覺角度表達(dá)圖像信息,更適合搜索縮略圖;差異哈希側(cè)重于局部差異,忽略了圖像總體信息;為了模擬人類視覺對低頻信息比較敏感的特點,并獲得更精確的結(jié)果,本文選擇感知哈希算法,它采用DCT算法,通過提取的DCT低頻系數(shù)近似表示圖像信息的方法,量化此低頻信息生成圖像感知Hash值。本文構(gòu)造圖像感知Hash值的流程如圖4所示。

        圖4 圖像哈希生成流程Fig. 4 Flow chart of image Hash generation

        本文圖像感知Hash值生成定義為如下單向函數(shù)[15]:

        h=PHGen(I)

        (1)

        其中:h表示由圖像I生成的感知摘要,PHGen代表感知哈希的生成算法,PHGen的主要步驟如下:

        1)去噪。將圖像進(jìn)行灰度處理,轉(zhuǎn)化為256階的灰度圖,并采用中值濾波法去除圖像噪聲。

        2)采樣。通過采樣處理,將圖像分辨率置為32×32,有利于DCT的計算。

        3)分塊。將得到的32×32圖片分成4個16×16小塊。

        4)提取DCT系數(shù)。計算4個小塊經(jīng)過DCT得到的DCT系數(shù),分別選擇各個系數(shù)矩陣的左上角4×4的低頻系數(shù),組成8×8的矩陣。

        5)量化。計算8×8系數(shù)矩陣的均值,將大于或等于均值的矩陣元素置為1,否則置為0,得到量化后的8×8二維二進(jìn)制矩陣。

        6)生成Hash值。逐行讀取8×8二維矩陣,得到長度為64的哈希二進(jìn)制比特串。

        2.3 哈希特征值的匹配

        基于圖像感知哈希算法的匹配,是通過其感知摘要的距離大小來表達(dá)兩幅圖像的相似程度。圖像間的感知距離是通過Hash值的匹配算法完成的,用式(2)[15]來表示:

        pd=PHMatch(hi,hj)

        (2)

        在本文中,PHMatch表示所使用的感知哈希匹配算法,輸入?yún)?shù)hi和hj是兩幅圖像通過PHGen(感知哈希生成算法)生成的二進(jìn)制感知摘要,輸出參數(shù)pd表示兩幅圖像的感知距離,pd越大表示兩幅圖像越不相似,pd越小表示其相似度越高。因輸入的Hash值為二進(jìn)制數(shù),所以本文使用漢明距離(Hamming Distance)[16]計算Hash值的差異性,即兩個二進(jìn)制數(shù)對應(yīng)位置的不同字符的個數(shù),如式(3)所示,dis表示兩個哈希字符串hi和hj的漢明距離。dis越小,hi和hj的差異性越小,即相似度越高。

        dis=HamDis(hi,hj)

        (3)

        3 FDCS跟蹤算法

        為了清晰描述FDCS算法及其跟蹤步驟,將其中涉及到的一些新概念和相關(guān)定義給出如下。

        3.1 CS算法

        在實際生活中,運動目標(biāo)在視頻相鄰兩幀中的移動是緩慢的,根據(jù)FS(Full Search)算法(全局搜索算法)實驗數(shù)據(jù)表明,50%~90%的運動目標(biāo)在原目標(biāo)中心旁的2個像素點移動。由于拍攝角度的不確定性和運動目標(biāo)方向的不規(guī)則性,運動目標(biāo)可能在原中心位置360°范圍進(jìn)行移動。所以,如圖5所示,在以原目標(biāo)中心為圓心、半徑為2的圓中的13個像素點,認(rèn)為是具有最高匹配概率的搜索點?;谏鲜隼碚摚疚奶岢隽艘环N新的運動估計方法——圓形搜索(CS)算法。以下將先介紹算法中搜索點的分類,并描述算法的基本思想,再通過算法步驟具體介紹所提出的圓形搜索算法。

        3.1.1 搜索點分類

        CS算法對13個搜索點進(jìn)行歸類:圓環(huán)搜索點(Circle Ring Search Point, CRSP)和內(nèi)圓搜索點(Inner Circle Search Point, ICSP),如圖6所示。在目標(biāo)跟蹤算法中,搜索點表示與當(dāng)前目標(biāo)模板同大的矩形框的中心;同時,它們具備以下兩個性質(zhì):

        性質(zhì)1 CRSP的四連通區(qū)域上的搜索點不全在大圓內(nèi)。

        性質(zhì)2 ICSP的四連通區(qū)域上的搜索點全在大圓內(nèi)。

        圖5 圓形搜索13個搜索點Fig. 5 13 search points of circle search

        圖6 CRSP和ICSP搜索點Fig. 6 Search points of CRSP and ICSP

        3.1.2 算法基本思想

        根據(jù)目標(biāo)運動的緩慢性,CS算法先以上次目標(biāo)中心為圓心、兩個像素點為半徑作圓,計算以圓內(nèi)13個搜索點為中心的目標(biāo)矩形框與目標(biāo)模板的相似度,得到最大相似度搜索點(Max Similar Point, MSP)。若得到的MSP屬于ICSP,則停止搜索,因為ICSP的四連通區(qū)域全部在圓內(nèi),則認(rèn)為此時得到的MSP可靠性較強(qiáng),達(dá)到局部最優(yōu),可作為此次的搜索結(jié)果;若得到的MSP屬于CRSP,則將此MSP作為新的圓心,循環(huán)CS,直到得到的MSP屬于ICSP為止。

        3.1.3 算法步驟

        步驟1 以上一次目標(biāo)中心為圓心、半徑為2作圓,分別計算圓內(nèi)13個搜索點代表的矩形框與目標(biāo)模板的相似度,若MSP屬于ICSP,則進(jìn)行步驟3;若MSP屬于CRSP,進(jìn)行步驟2。

        步驟2 以當(dāng)前找到的MSP所在位置作為新的圓心,得到新的搜索區(qū)域的13個搜索點,分別計算它們與目標(biāo)模板的相似度,若MSP屬于ICSP,則進(jìn)行步驟3;若MSP屬于CRSP,重復(fù)步驟2。

        步驟3 以找到的MSP所在位置作為此次跟蹤結(jié)果,即MSP所在位置為當(dāng)前目標(biāo)中心。

        3.2 PBAS前景判別算法

        PBAS前景檢測算法是基于像素的無參數(shù)模型[17],該算法結(jié)合了經(jīng)典的SACON(SAmple CONsensus)[18]和ViBE(Visual Background Extractor)[19]兩個算法在計算速度和判斷結(jié)果上的優(yōu)勢,并在這兩個算法的基礎(chǔ)上改進(jìn)而來。其基本框架如圖7所示。

        圖7中,R(xi)為自適應(yīng)的閾值,T(xi)為自適應(yīng)的更新率,dmin(xi)為背景復(fù)雜度的度量。

        主要步驟如下:

        1)建立背景模型。

        PBAS算法采用類似SACON算法背景建模方法,收集前N幀像素以及梯度幅值作為背景模型,構(gòu)建方法如下:

        B(xi)={B1(xi),B2(xi),…,Bk(xi),…,BN(xi)}

        (4)

        其中:B(xi)表示像素點xi的背景模型,是由像素點xi的一系列過去被觀察的背景像素值所構(gòu)成;Bk(xi)表示像素點xi的背景模型中的第k個像素值。

        2)前景檢測。

        PBAS前景檢測過程與ViBE算法類似,計算樣本集合中滿足匹配條件的樣本個數(shù),若小于閾值Tmin,則認(rèn)為是前景,不同之處在于不同像素的判斷閾值R(xi)不同;

        (5)

        式(5)中:F(xi)存儲像素點xi的判斷結(jié)果,1表示為前景,0表示為背景;R(xi)為距離閾值,該參數(shù)取決于像素位置并可以動態(tài)變化;閾值Tmin是一個固定的全局參數(shù)。

        圖7 PBAS基本框架[17]Fig. 7 Basic framework of PBAS[17]

        3)背景模型的更新。

        由于被判定為前景的區(qū)域是不會被用來進(jìn)行更新的,因此,只有像素被判為背景點F(xi)=0,才能進(jìn)行背景模板更新。其更新過程與ViBE算法類似,被判斷為背景的像素只有p=1/T(xi)的概率來進(jìn)行更新,同樣,也有p=1/T(xi)的概率去隨機(jī)選擇目標(biāo)像素的相鄰像素yi∈N(xi)來進(jìn)行更新。不同之處在于更新率不同,ViBE是固定的更新率,而PBAS的更新率是自適應(yīng)的,并且更新使用的像素值是鄰域樣本集合中yi的新像素值,而不是用xi本身的新像素值。

        4)判決閾值R(xi)的更新。

        R(xi)=

        (6)

        式(6)中:Rinc/dec是閾值的變化量,Rscale用于控制背景復(fù)雜度對判斷閾值的調(diào)整。

        5)學(xué)習(xí)參數(shù)T(xi)的更新。

        當(dāng)視頻幀中的背景越復(fù)雜,其出現(xiàn)判斷錯誤的概率越大,對應(yīng)的背景更新的頻率應(yīng)該越低,為了減少判斷錯誤對背景模型的影響,學(xué)習(xí)參數(shù)T(xi)的更新策略如下:

        (7)

        式(7)中:F(xi)表示前景檢測結(jié)果,Tinc和Tdec分別表示更新率增加、減小的幅度。此外,本文還為學(xué)習(xí)參數(shù)T(xi)定義了上限和下限Tlower

        3.3 算法實現(xiàn)

        根據(jù)以上敘述,下面給出FDCS跟蹤算法的流程思想:首先,本文算法根據(jù)用戶手動劃定的跟蹤目標(biāo)區(qū)域建立目標(biāo)模板的哈希特征描述算子;其次,使用CS算法作為搜索跟蹤算法,得到當(dāng)前幀目標(biāo)的搜索跟蹤結(jié)果,并計算跟蹤得到的目標(biāo)Hash值與目標(biāo)模板Hash值的相似度;再次,使用前景判別PBAS算法作為匹配跟蹤算法,獲取當(dāng)前幀目標(biāo)的匹配跟蹤結(jié)果,并計算跟蹤得到的目標(biāo)Hash值與目標(biāo)模板Hash值的相似度;然后,將匹配跟蹤結(jié)果和搜索跟蹤結(jié)果進(jìn)行比較,取其與目標(biāo)模板相似度更高者為當(dāng)前幀目標(biāo)位置;最后,計算包含匹配跟蹤與搜索跟蹤結(jié)果最小矩形框的重疊率,并結(jié)合跟蹤得到的目標(biāo)與目標(biāo)模板的相似度,根據(jù)閾值判斷條件更新目標(biāo)模板。下面給出在線目標(biāo)跟蹤算法:

        1)讀入視頻幀序列,在初始幀手動選擇目標(biāo)跟蹤區(qū)域robj(x0,y0,w0,h0),令frame=1。

        2)在新的一幀中,以上次目標(biāo)中心(xi,yi)為起點,進(jìn)行如下循環(huán):

        ①以(xi,yi)為圓心、半徑為2作圓,分別計算以圓內(nèi)13個搜索點為中心的目標(biāo)的Hash值,并使用漢明距離計算其與目標(biāo)模板的哈希距離search1,search2, …,search13;

        ②若min(search1,search2, …,search13)對應(yīng)的搜索點屬于ICSP,則將此搜索點作為當(dāng)前幀搜索跟蹤得到的目標(biāo)的中心,break;

        ③若min(search1,search2, …,search13)對應(yīng)的搜索點屬于CRSP,則將此搜索點作為新圓形搜索的圓心,返回①。

        3)對當(dāng)前幀使用PBAS前景提取算法,得到包含前景的最小矩形框的集合fg1,fg2,…,fgk,計算這k個前景的Hash值,并使用漢明距離計算其與目標(biāo)模板的哈希距離match1,match2,…,matchk,取min(match1,match2,…,matchk)對應(yīng)的前景為當(dāng)前幀匹配跟蹤得到的結(jié)果。

        4)若min(search1,search2, …,search13) ≤min(match1,match2, …,matchk),則將搜索跟蹤得到的結(jié)果作為當(dāng)前幀的跟蹤結(jié)果; 否則將匹配跟蹤得到的結(jié)果作為當(dāng)前幀的跟蹤結(jié)果。

        5)計算跟蹤結(jié)果與目標(biāo)模板的匹配相似度σframe,這里使用漢明距離表示相似度,漢明距離越小,即圖像的相似度越高。

        6)根據(jù)式(8)計算當(dāng)前幀搜索跟蹤結(jié)果Rsearch與匹配跟蹤結(jié)果Rmatch的重疊率:

        (8)

        7)若(δ>Tδ)∩(σframe

        8)frame++,若frame≤N(N為總幀數(shù)),返回2);否則跟蹤結(jié)束。

        4 實驗結(jié)果與分析

        為了驗證新算法的效果,本文使用了標(biāo)準(zhǔn)攝像機(jī)拍攝的Walker視頻和目標(biāo)跟蹤視頻庫Visual Tracker Benchmark[20]中的4個具有代表性的測試視頻序列進(jìn)行實驗,并與MeanShift 算法在運行精度、準(zhǔn)確率和實時性等3個方面進(jìn)行了比較。同時,由于兩個算法對目標(biāo)跟蹤過程中都存在隨機(jī)的因素,為了提高實驗數(shù)據(jù)的準(zhǔn)確性,在提取每組實驗數(shù)據(jù)時分別對兩個算法進(jìn)行了5次實驗,取5次實驗結(jié)果的平均值作為該組最終的實驗數(shù)據(jù)結(jié)果。本實驗的計算機(jī)配置為: Intel Core i5- 4590 3.30 GHz處理器,8 GB內(nèi)存,實驗平臺為Visual Studio 2012。

        表1分別列出了兩個算法在精度、準(zhǔn)確率和實時性的對比結(jié)果。兩個算法精度的對比,即對比兩個算法實驗結(jié)果中跟蹤得到的目標(biāo)位置與實際目標(biāo)位置的誤差,誤差單位為像素點(pixel),計算所有幀的跟蹤誤差,取其平均值作為最終的精度對比結(jié)果;當(dāng)該幀目標(biāo)的跟蹤位置與實際位置的跟蹤誤差超過20像素,則認(rèn)為該幀跟蹤錯誤,計算每個視頻幀序列中非跟蹤錯誤的幀數(shù)占總幀數(shù)的比例,作為兩個算法準(zhǔn)確率的對比結(jié)果;兩個算法的實時性對比用每幀所需的處理時間(單位s·frame-1) 來表示。

        表1 兩個算法實驗結(jié)果對比Tab. 1 Experimental results comparison of two algorithms

        David視頻(320×240)目標(biāo)在移動的過程中,發(fā)生了明顯的形變和光照變化。從圖8(a)中可以看出本文跟蹤算法表現(xiàn)出色,跟蹤誤差較小,在目標(biāo)受到干擾(如178幀左右目標(biāo)戴眼鏡動作)時能夠保持持續(xù)跟蹤,在目標(biāo)光照強(qiáng)度變化之下(188幀左右)也能保持穩(wěn)定的跟蹤;而MeanShift跟蹤算法在跟蹤過程中發(fā)生了明顯的偏移,跟蹤效果較差,如圖8(b)所示。

        圖8 兩個算法跟蹤David的部分結(jié)果Fig. 8 Partial results of tracking David by two algorithms

        在BlurCar2視頻(640×480)中,由于是在行車過程中拍攝,視頻中的目標(biāo)不間斷地發(fā)生劇烈抖動(如142幀所示),抖動造成了視頻幀模糊,使得算法容易跟丟目標(biāo)。如圖9(a)所示,可見本文算法在目標(biāo)發(fā)生抖動的過程中仍能跟蹤目標(biāo);而MeanShift跟蹤結(jié)果發(fā)生嚴(yán)重偏移,導(dǎo)致跟蹤失敗,如 圖9(b)所示。

        圖9 兩個算法跟蹤BlurCar2的部分結(jié)果Fig. 9 Partial results of tracking BlurCar2 by two algorithms

        在Couple視頻(320×240中,目標(biāo)的背景比較復(fù)雜,移動的過程中有車輛駛過目標(biāo),同時目標(biāo)在移動的過程中發(fā)生了形變和尺度變化,兩個跟蹤算法均能跟蹤到目標(biāo),但本文算法跟蹤結(jié)果偏移量更小,如圖10所示。

        圖10 兩個算法跟蹤C(jī)ouple的部分結(jié)果Fig. 10 Partial results of tracking Couple by two algorithm

        Girl視頻(128 Pixel×96 Pixel)中,視頻的分辨率較低,且目標(biāo)在移動的過程中發(fā)生了旋轉(zhuǎn)、遮擋和尺度變化等,對目標(biāo)的跟蹤產(chǎn)生較大的影響。如圖11(a)所示,本文跟蹤結(jié)果較為穩(wěn)定,只發(fā)生輕微偏移;但MeanShift算法在跟蹤過程中發(fā)生了較明顯的偏移,如圖11(b)所示。

        圖11 兩個算法跟蹤Girl的部分結(jié)果Fig. 11 Partial results of tracking Girl by two algorithms

        為了對比兩種算法的實際跟蹤效果,不僅使用了上述4個目標(biāo)跟蹤視頻庫中的測試視頻,還使用了標(biāo)準(zhǔn)攝像機(jī)拍攝的視頻進(jìn)行實驗。如圖12中的Walker(320×240)視頻中,目標(biāo)與背景較為相近,且目標(biāo)的尺度較小,不利于對目標(biāo)進(jìn)行特征描述,并在行走的過程中目標(biāo)發(fā)生了形變,在視頻后半部分出現(xiàn)了類似的行人,容易導(dǎo)致目標(biāo)跟蹤錯誤。通過實驗表明,本文算法仍能準(zhǔn)確跟蹤目標(biāo),而MeanShift算法發(fā)生了輕微偏移,跟蹤結(jié)果如圖12所示。

        5 結(jié)語

        為了能在目標(biāo)在發(fā)生遮擋、形變、旋轉(zhuǎn)和光照等變化時仍能保持準(zhǔn)確的跟蹤,本文提出了一種融合前景判別和CS的目標(biāo)跟蹤算法。該算法通過搜索策略與跟蹤策略的結(jié)合,并利用圖像感知哈希技術(shù)表達(dá)目標(biāo),使其能夠有效解決以上問題。其中,圖像感知哈希技術(shù)的引入使算法具有了較好的實時性,前景判別PBAS算法通過全局搜索提高了跟蹤的魯棒性,CS算法能夠快速地定位到局部最優(yōu),并有效進(jìn)行實時跟蹤。實驗結(jié)果表明,本文算法在應(yīng)對目標(biāo)發(fā)生遮擋、形變、旋轉(zhuǎn)和光照等變化下仍能保持準(zhǔn)確跟蹤,且在精度、準(zhǔn)確率和實時性上都優(yōu)于MeanShift算法。但當(dāng)目標(biāo)在動態(tài)的背景下發(fā)生快速移動時,會丟失目標(biāo)。在未來的工作中,將針對快速移動的目標(biāo)跟蹤作進(jìn)一步的研究。

        圖12 兩個算法跟蹤Walker的部分結(jié)果Fig. 12 Partial results of tracking Walker by two algorithms

        References)

        [1] 陳晨樹,張駿,謝昭,等. 隨機(jī)場中運動一致性的多線索目標(biāo)跟蹤[J]. 中國圖象圖形學(xué)報, 2015, 20(1): 59-71.(CHEN C S, ZHANG J, XIE Z, et al. Multi-cues object tracking based on motion consistence in random field[J]. Journal of Image & Graphics, 2015, 20(1): 59-71.)

        [2] YILMAZ A, JAVED O, SHAH M. Object tracking: a survey[J]. ACM Computing Surveys, 2006, 38(4):81-93.

        [3] HARE S, SAFFARI A, TORR P H S. Struck: structured output tracking with kernels[C]// Proceedings of the 2011 International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2011:263-270.

        [4] DANELLJAN M, HAGER G, KHAN F S, et al. Accurate scale estimation for robust visual tracking[EB/OL].[2016- 11- 20]. http://www.diva-portal.org/smash/get/diva2:785778/FULLTEXT01.pdf.

        [5] HENRIQUES J F, RUI C, MARTINS P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2015, 37(3):583-596.

        [6] ZHANG J, MA S, SCLAROFF S. MEEM: robust tracking via multiple experts using entropy minimization[C]// Proceedings of the 13th European Conference on Computer Vision. Berlin: Springer, 2014:188-203.

        [7] TIAN M, ZHANG W, LIU F. On-line ensemble SVM for robust object tracking[C]// Proceedings of the 8th Asian Conference on Computer Vision. Berlin: Springer-Verlag, 2007:355-364.

        [8] RIFKIN R, YEO G, POGGIO T. Regularized least-squares classification[EB/OL].[2016- 11- 20].http://yeolab.github.io/papers/2003/10.1.1.7.3463.pdf.

        [9] COMANICIU D, RAMESH V, MEER P. Real-time tracking of non-rigid objects using mean shift[C]// Proceedings of the 2010 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2000: 2142.

        [10] COMANICIU D, RAMESH V, MEER P. Kernel-based object tracking[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2003, 25(5):564-575.

        [11] 白蕾. 基于meanshift的目標(biāo)跟蹤系統(tǒng)設(shè)計與實現(xiàn)[J]. 電子測量技術(shù), 2016, 39(4):1-3.(BAI L. Design and realization of the tracking system based on meanshift algorithm[J]. Electronic Measurement Technology, 2016, 39(4):1-3.)

        [12] DANELLJAN M, HAGER G, KHAN F S, et al. Adaptive decontamination of the training set: a unified formulation for discriminative visual tracking[C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2016:1430-1438.

        [13] AHMED N, NATARAJAN T, RAO K R. Discrete cosine transform[J]. IEEE Transactions on Computers, 1974, c-23(1):90-93.

        [14] 劉兆慶. 圖像感知哈希若干關(guān)鍵技術(shù)研究[D]. 哈爾濱: 哈爾濱工業(yè)大學(xué), 2013.(LIU Z Q. Research on key techniques of image[D]. Harbin: Harbin Institute of Technology, 2013.)

        [15] 牛夏牧, 焦玉華. 感知哈希綜述[J]. 電子學(xué)報, 2008, 36(7):1405-1411. (NIU X M, JIAO Y H. An overview of perceptual hashing[J]. Acta Electronica Sinica, 2008, 36(7):1405-1411.)

        [16] 朱雪龍.應(yīng)用信息論基礎(chǔ)[M]. 北京: 清華大學(xué)出版社, 2001: 173-183. (ZHU X L. Fundamentals of Applied Information Theory[M]. Beijing: Tsinghua University Press, 2001: 173-183.)

        [17] HOFMANN M, TIEFENBACHER P, RIGOLL G. Background segmentation with feedback: the pixel-based adaptive segmenter[C]// Proceedings of the 2012 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops. Piscataway, NJ: IEEE, 2012: 38-43.

        [18] WANG H, SUTER D. Background subtraction based on a robust consensus method[C]// Proceedings of the 18th International Conference on Pattern Recognition. Washington, DC: IEEE Computer Society, 2006:223-226.

        [19] BAMICH O, VAN DROOGENBROECK M. ViBE: a powerful random technique to estimate the background in video sequences[C]// Proceedings of the 2009 IEEE International Conference on Acoustics, Speech and Signal Processing. Washington, DC: IEEE Computer Society, 2009:945-948.

        [20] WU Y, LIM J, YANG M H. Online object tracking: a benchmark[C]// Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2013:2411-2418.

        This work is partially supported by the National Natural Science Foundation of China (61070062, 61502103), the Industry-University Cooperation Major Project in Fujian Province (2015H6007), the Program for New Century Excellent Talents in Universities of Fujian Province (JAI1038), the K-Class Foundation Project of Science and Technology Department of Fujian Province (2011007), the A-Class Foundation Project of Education Department of Fujian Province (JA10064), the Science and Technology Program of Fuzhou (2014-G- 76).

        LINLingpeng, born in 1993, M. S. candidate. His research interests include machine learning, video target tracking.

        HUANGTianqiang, born in 1971, Ph. D., professor. His research interests include machine learning, data mining, multimedia tampering detection.

        LINJing, born in 1992, M. S. candidate. Her research interests include data mining, video tampering detection.

        Objecttrackingbasedonforegrounddiscriminationandcirclesearch

        LIN Lingpeng1,2, HUANG Tianqiang1,2*, LIN Jing3

        (1.FacultyofSoftware,FujianNormalUniversity,FuzhouFujian350007,China;2.FujianEngineeringResearchCenterofPublicServiceBigDataMiningandApplication,FuzhouFujian350007,China;3.SchoolofMathematicsandComputerScience,FujianNormalUniversity,FuzhouFujian350007,China)

        Aiming at the problems of low accuracy and even object lost in moving object tracking under occlusion, deformation, rotation, and illumination changes and poor real-time performance of the traditional tracking algorithm, a target tracking algorithm based on foreground discrimination and Circle Search (CS) was proposed. The image perceptual hashing technique was used to describe and match tracked object, and the tracking process was based on the combination of the above was tracking strategies, which could effectively solve the above problems. Firstly, because the direction of motion uncertain and the inter-frame motion was slow, CS algorithm was used to search the local best matching position (around the tracked object) in the current frame. Then, the foreground discrimination PBAS (Pixel-Based Adaptive Segmenter) algorithm was adopted to search for the global optimal object foreground in the current frame. Finally, the one with higher similarity with the object template was selected as the tracking result, and whether to update the target template was determined according to the matching threshold. The experimental results show that the proposed algorithm is better than the MeanShift algorithm in precision, accuracy, and has a better tracking advantage when the target is not moving fast.

        object tracking; Circle Search (CS) algorithm; foreground discrimination; perceptual hashing; tracking strategy

        2017- 05- 16;

        2017- 06- 01。

        國家自然科學(xué)基金資助項目(61070062,61502103);福建省高校產(chǎn)學(xué)合作科技重大項目(2015H6007);福建省高等學(xué)校新世紀(jì)優(yōu)秀人才支持計劃項目(JAI1038);福建省科學(xué)廳K類基金資助項目(2011007);福建省教育廳A類基金資助項目(JA10064);福州市科技計劃項目(2014-G- 76)。

        林玲鵬(1993—),男,福建莆田人,碩士研究生,主要研究方向:機(jī)器學(xué)習(xí)、視頻目標(biāo)跟蹤; 黃添強(qiáng)(1971—),男,福建莆田人,教授,博士,主要研究方向:機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘、多媒體篡改檢測; 林晶( 1992—),女,福建莆田人,碩士研究生,主要研究方向: 數(shù)據(jù)挖掘、視頻篡改檢測。

        1001- 9081(2017)11- 3128- 06

        10.11772/j.issn.1001- 9081.2017.11.3128

        (*通信作者電子郵箱fjnu510@163.com)

        TP391.41

        A

        猜你喜歡
        哈希前景背景
        “新四化”背景下汽車NVH的發(fā)展趨勢
        我國旅游房地產(chǎn)開發(fā)前景的探討
        《論持久戰(zhàn)》的寫作背景
        四種作物 北方種植有前景
        離岸央票:需求與前景
        中國外匯(2019年11期)2019-08-27 02:06:32
        晚清外語翻譯人才培養(yǎng)的背景
        量子糾纏的來歷及應(yīng)用前景
        太空探索(2016年10期)2016-07-10 12:07:01
        基于OpenCV與均值哈希算法的人臉相似識別系統(tǒng)
        基于維度分解的哈希多維快速流分類算法
        基于同態(tài)哈希函數(shù)的云數(shù)據(jù)完整性驗證算法
        亚洲av中文无码乱人伦在线视色| 国产成人8x视频网站入口| 999久久久免费精品国产牛牛| 国产剧情亚洲一区二区三区| 一本色道久久88加勒比一| 粗大猛烈进出白浆视频 | 加勒比亚洲视频在线播放| 日本视频在线观看二区| 让少妇高潮无乱码高清在线观看 | 久久天天躁狠狠躁夜夜爽蜜月| 日本岛国大片不卡人妻| 天堂丝袜美腿在线观看| 亚洲精品动漫免费二区| av人摸人人人澡人人超碰小说| 无遮高潮国产免费观看韩国| 国产内射一级一片内射高清视频1| 国产极品女主播国产区| 久久婷婷国产剧情内射白浆| 国产丰满乱子伦无码专| 蜜桃视频一区二区三区四| 亚洲精品成人av在线| 国产AV边打电话边出轨| 大陆极品少妇内射aaaaa| 欧美亚洲国产人妖系列视| 亚洲福利视频一区二区三区| 美女扒开大腿让男人桶| 99精品国产综合久久久久五月天| 欧美日韩综合在线视频免费看| 中文字幕在线乱码日本| 一本色道久久88亚洲精品综合| 精品国产成人亚洲午夜福利| 亚洲国产日韩av一区二区| 成人免费在线亚洲视频| 国产真实老熟女无套内射| 婷婷激情六月| 韩国三级黄色一区二区| 丁香美女社区| 免费在线亚洲视频| 久久夜色精品亚洲天堂| 日本污ww视频网站| av人摸人人人澡人人超碰小说|