亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種融合深度信息的視頻目標(biāo)壓縮跟蹤算法

        2019-07-12 03:15:42段范存寧愛平
        太原科技大學(xué)學(xué)報 2019年4期
        關(guān)鍵詞:深度特征融合

        段范存,張 雄,寧愛平

        (太原科技大學(xué)電子信息工程學(xué)院,太原 030024)

        視頻目標(biāo)跟蹤廣泛應(yīng)用于智能交通、視頻監(jiān)控、人機(jī)交互和醫(yī)療診斷等各個方面。目標(biāo)跟蹤[1-2]是使得計算機(jī)模仿人的視覺機(jī)制感知并穩(wěn)定跟蹤目標(biāo)物體位置。在跟蹤中,物體遮擋、光照變化、形態(tài)變化以及背景雜波是造成跟蹤效果差的常見原因。因此找到一種能夠應(yīng)對復(fù)雜環(huán)境影響的魯棒、實時的目標(biāo)跟蹤算法是目前亟待解決的難題。

        Matthews利用圖像灰度值通過全局模板匹配應(yīng)用于目標(biāo)跟蹤[1-3]。Mei提出用稀疏表示方法處理目標(biāo)遮擋,但是較高的算法復(fù)雜度使得該算法不能實現(xiàn)實時跟蹤[4]。以上視頻目標(biāo)跟蹤算法在運行過程中未利用背景信息,跟蹤的魯棒性和準(zhǔn)確性較低。Babenko提出多示例學(xué)習(xí)(Multiple Instance Learning, MIL)跟蹤算法[5],利用正負(fù)樣本包提取樣本haar-like特征并更新分類器,獲得了較魯棒的效果,但由于計算量較大而難以得到實際應(yīng)用。張開華提出壓縮跟蹤(Real-time Compressive Tracking, CT)算法[6]和快速壓縮跟蹤(Fast Compressive Tracking , FCT)算法[7],兩種算法具有較高的有效性、準(zhǔn)確性和魯棒性。以上算法由于特征單一,當(dāng)目標(biāo)遭遇復(fù)雜環(huán)境影響時容易導(dǎo)致跟蹤失敗。

        隨著深度傳感器的出現(xiàn),深度數(shù)據(jù)已應(yīng)用到視覺跟蹤中,Luber提出基于RGB-D的行人跟蹤[8],但是在復(fù)雜環(huán)境下跟蹤效果降低。

        本文提出了融合深度信息的視頻目標(biāo)壓縮跟蹤算法。該算法融合灰度圖像和深度圖像的互補特征,豐富了目標(biāo)外觀模型。多弱分類器加權(quán)組合為強(qiáng)分類器,使得目標(biāo)分類結(jié)果更加準(zhǔn)確。實驗證明,融合深度信息的目標(biāo)外觀模型對復(fù)雜環(huán)境下的目標(biāo)跟蹤結(jié)果更加的魯棒。

        1 相關(guān)算法介紹——CT算法

        CT算法采用多尺度圖像特征建立外觀模型,是一種簡單且高效的跟蹤算法。外觀模型利用多尺度濾波保存目標(biāo)原始圖像特征空間信息。通過稀疏測量矩陣得到的壓縮特征,利用樸素貝葉斯分類器進(jìn)行目標(biāo)和背景的分類識別,得到最大分類分?jǐn)?shù)的候選目標(biāo)即為跟蹤目標(biāo)。CT算法在時間、準(zhǔn)確性和魯棒性等方面表現(xiàn)優(yōu)異。算法流程如圖1所示。

        1.1 壓縮傳感

        壓縮感知理論[9]是一個K稀疏信號可以由一個數(shù)目小的隨機(jī)測量矩陣重構(gòu)出來。一個隨機(jī)矩陣R∈Rn×m(n?m)可以將高維特征空間中向量x∈Rm投影到低維特征空間v∈Rn,即:

        v=Rx

        (1)

        CT算法中采用的稀疏測量矩陣R定義如公式(2).

        (2)

        在公式(2)中,s在2~4之間以平均概率取值。p代表rij取某個值的概率。稀疏測量矩陣R將高維特征x降為低維特征v.如圖1中,算法僅需儲存矩陣R中的非零條數(shù)和對應(yīng)輸入圖像矩形濾波器位置。

        圖1 CT算法流程圖
        Fig.1 The flow chart of CT algorithm

        圖2 特征壓縮圖示
        Fig.2 Illustration of compressing feature

        1.2 分類器建立與更新

        CT算法提取到目標(biāo)的正負(fù)樣本集,每一個樣本降維后的特征表示為v=(v1,...,vn)T∈Rn.設(shè)定v中的所有元素獨立分布,由樸素貝葉斯分類器建立的模型表示如公式(3).

        (3)

        (4)

        (5)

        四個參數(shù)每完成一次跟蹤進(jìn)行增量更新,

        (6)

        其中λ>0表示學(xué)習(xí)速率,(μ1,σ1)由式(7)得到較好估計。負(fù)樣本參數(shù)更新方式與正樣本參數(shù)更新方式相同。

        (7)

        CT算法的優(yōu)勢在于利用壓縮感知理論降低數(shù)據(jù)維度,以最大概率保持特征不變性的同時實現(xiàn)跟蹤的實時性。但是,該算法仍存在缺陷:第一,單一特征不足以表示物體外觀,灰度圖像對光照變化極其敏感;第二,統(tǒng)計模型基本固定,容易將弱特征引入到分類器中,降低跟蹤的準(zhǔn)確性。

        2 融合深度信息的視頻目標(biāo)壓縮跟蹤算法

        提出的融合深度信息的視頻目標(biāo)壓縮跟蹤算法是基于灰度圖像特征和對應(yīng)深度圖像特征的多特征融合建立目標(biāo)外觀模型的實時壓縮跟蹤算法,算法流程如圖3所示。該算法提取灰度圖像和對應(yīng)深度圖像的正負(fù)樣本,通過多尺度濾波得到樣本的多尺度圖像特征,利用稀疏測量矩陣實現(xiàn)特征的降維處理,得到正負(fù)樣本壓縮特征,利用馬氏距離賦予弱分類器權(quán)值,近似優(yōu)化似然函數(shù),提高分類器性能,實現(xiàn)正負(fù)樣本準(zhǔn)確分類,最終將最大分類分?jǐn)?shù)的候選樣本作為目標(biāo)位置。

        2.1 深度特征

        深度圖像像素值表示目標(biāo)物體與攝像頭之間的距離。深度圖像不易受到光照和陰影的影響,可以很好地解決物體在彩色圖像中亮度、色度和飽和度會隨著距離的改變而改變的情況。深度信息的加入不僅豐富了目標(biāo)外觀表示,而且獲得了距離信息,降低了目標(biāo)單一灰度特征的不穩(wěn)定性。

        深度圖像特征是一系列圖像塊的加權(quán)組合,特征選取的方式為公式(8)所示:

        (8)

        其中,變量BLOCK為候選目標(biāo)區(qū)域提取到的圖像塊。變量s表示提取到深度圖像塊的數(shù)目。矩陣R的每一行最多有4個元素的值參與計算,其余為0的元素不需要存儲和計算,節(jié)省了計算量,提高了算法速度。

        CT算法中,稀疏測量矩陣R1內(nèi)元素rij都為1或 -1時,提取特征表現(xiàn)為圖像灰度的均值,當(dāng)rij的取值既有1又有 -1時,特征表現(xiàn)為圖像塊之間的差異,體現(xiàn)目標(biāo)紋理特征。該算法中70%的特征表示為紋理特征,但是,紋理特征易受到環(huán)境或自身紋理變化影響,表現(xiàn)不穩(wěn)定。

        圖3 融合深度信息視頻目標(biāo)壓縮跟蹤算法
        Fig.3 Video target compressive tracking algorithm with fusion depth information

        為了增強(qiáng)算法的魯棒性,結(jié)合文獻(xiàn)[10]中的特征提取矩陣R2的生成方法,如公式(9),提取深度圖像壓縮特征。

        (9)

        其中,i表示為特征提取矩陣的第i行,k表示為第i行中第k個非零值。矩陣R2與R1的分布特性正好相反,深度圖像提取的特征中70%為灰度特征,其余為紋理特征,由此形成互補特征。因此,復(fù)雜環(huán)境下融合深度信息的目標(biāo)外觀模型的穩(wěn)定性得到了補充,從而提高了跟蹤的魯棒性。

        2.2 馬氏距離加權(quán)

        公式(3)中似然比最大的正樣本即為跟蹤結(jié)果。因此似然比值的大小對于算法的跟蹤效果起到至關(guān)重要的作用。融合深度信息的視頻目標(biāo)壓縮跟蹤算法對不同似然比予以不同的權(quán)值w,提高有效弱分類器權(quán)重,增強(qiáng)整體分類器性能。本文算法利用馬氏距離表示權(quán)值。

        每個特征訓(xùn)練一個弱分類器,分類器權(quán)值如公式(10)所示:

        (10)

        2.3 特征融合

        融合深度信息的視頻目標(biāo)壓縮跟蹤算法設(shè)定特征中的所有元素都是獨立分布的,算法利用目標(biāo)彩色圖像的灰度特征和深度圖像的空間特征分別構(gòu)建貝葉斯分類器H(v)、H(u),將灰度特征和空間特征進(jìn)行加權(quán)融合得到新的分類器H(V),實現(xiàn)目標(biāo)外觀模型多特征融合。

        (11)

        (12)

        (13)

        (14)

        (15)

        (16)

        分類器參數(shù)(μi,σi)和(ψj,ζj)按公式(6)和(7)進(jìn)行更新。算法在每一幀都進(jìn)行分類器的更新,由此避免錯誤累積,影響跟蹤效果。

        為了得到準(zhǔn)確、魯棒的跟蹤結(jié)果,算法使用加權(quán)似然比進(jìn)行特征級融合,融合后的分類器分?jǐn)?shù)為公式(17)所示。

        (17)

        將得到最大分類分?jǐn)?shù)所確定的候選目標(biāo)作為目標(biāo)的位置。

        2.4 算法流程

        本節(jié)詳細(xì)介紹了融合深度信息的視頻目標(biāo)壓縮跟蹤算法。具體步驟如下:

        步2:從t=2,...,T開始。

        步3:在上一幀目標(biāo)位置lt-1移動Δc、Δd個像素選定彩色圖像塊Drc={X|‖l(X)-lt-1‖

        步4:利用公式(11)和(12)建立分類器(H(v),H(u)),計算馬氏距離得到H(V),定位到目標(biāo)位置lt′.

        步5:在上一幀目標(biāo)位置lt′移動Δs、Δt個像素選定彩色圖像塊Drs={X|‖l(X)-lt′‖

        步6:利用公式(11)和(12)建立分類器(H(v),H(u)),計算馬氏距離得到H(V),定位到目標(biāo)位置lt.

        步7:利用公式(6)和(7)更新分類器。

        步8:輸出:第t幀跟蹤目標(biāo)位置lt.

        步9:若t≤T,重復(fù)步驟2;否則,結(jié)束。

        3 結(jié)果分析

        3.1 對比的跟蹤算法和參數(shù)設(shè)置

        為測試融合深度信息的視頻目標(biāo)壓縮跟蹤算法在視頻序列中的性能和更好的評價算法,與四種流行的跟蹤算法進(jìn)行比較,其中包括均值漂移目標(biāo)跟蹤(Meanshift)算法[11]、CT算法、FCT算法、多特征加權(quán)外觀模型的快速壓縮跟蹤(Fast compressive tracking based on multi-feature weighted appearance model ,MFWCT)算法[12]、和未使用馬氏距離加權(quán)的融合深度信息目標(biāo)跟蹤(Rgb-d)算法。測試序列來自文獻(xiàn)[13]中的視頻序列。測試序列跟蹤難點如表1所示。所有算法均是在配置為Intel(R)Xeon(R) CPU E3-1280 v3 3.60 GHz、32GB RAM的 64位操作系統(tǒng)計算機(jī)上的MATLAB R2014b平臺中實現(xiàn)的。

        本文算法的參數(shù)設(shè)置如下:算法實現(xiàn)中分別選取了45個正樣本和50個負(fù)樣本。正樣本選擇范圍是半徑為4個像素的圓形區(qū)域,負(fù)樣本是遠(yuǎn)離正樣本的內(nèi)外半徑為8和35個像素的環(huán)形區(qū)域。算法采用由粗略到精細(xì)的搜索策略,粗搜索時樣本選擇的區(qū)域半徑為25個像素,步長為4個像素;細(xì)搜索時半徑為10個像素,步長為1個像素。

        表1 測試視頻跟蹤場景
        Tab.1 The scenes of testing sequences

        序列跟蹤場景zcup_move目標(biāo)與背景相似、尺度變化child_no1光照變化、姿態(tài)變化、尺度變化br_occ_0遮擋、背景雜亂、外觀形變、突然運動zball_no1旋轉(zhuǎn)、光照變化、ball2突然運動、運動模糊、光照變化

        3.2 算法性能分析

        視頻目標(biāo)跟蹤算法性能要從算法速度、準(zhǔn)確性和魯棒性三個方面來度量。

        3.2.1 算法速度

        目標(biāo)跟蹤算法中,能否實現(xiàn)實時跟蹤是算法好壞的指標(biāo)之一。若算法運行時間較長,即造成目標(biāo)跟蹤準(zhǔn)確率下降,甚至發(fā)生漂移和跟丟目標(biāo)等不良效果。

        表1 中fps表示不同算法最佳狀態(tài)下的跟蹤速度(幀/s).目標(biāo)跟蹤中,在保證跟蹤精度情況下跟蹤速度值越大越好。在不同測試序列下,meanshift算法跟蹤速度平均值為11.15 幀/s,CT算法跟蹤速度平均值為8.76 幀/s,F(xiàn)CT算法跟蹤速度為15.29 幀/s,MFWCT算法跟蹤速度平均值為14.80 幀/s,Rgb-d算法跟蹤速度平均值為12.46 幀/s,本文算法跟蹤速度平均值為12.66 幀/s,可以看出,算法運行速度居中,滿足算法實時性的需求。

        3.2.2 算法定性分析

        在四個序列上測試了六種算法在遭遇背景相似、部分遮擋、姿態(tài)變化和光照變化等方面的跟蹤結(jié)果,如圖5~圖9.跟蹤結(jié)果圖直觀的表現(xiàn)出序列在不同算法下的跟蹤結(jié)果。如圖4所示,藍(lán)色實線框、亮藍(lán)色虛線框、綠色點線框、黑色點劃線框、粉色實線框和黃色實線框分別表示meanshift算法、CT算法、FCT算法、MFWCT算法、Rgb-d算法和本文算法的實驗結(jié)果。

        圖4 不同算法跟蹤框表示
        Fig.4 Different tracking boxes

        圖5中跟蹤目標(biāo)是與背景顏色相似的杯子?;陬伾狈綀D建模的meanshift算法出現(xiàn)漂移現(xiàn)象。CT、FCT和MFWCT算法由于目標(biāo)遠(yuǎn)離鏡頭但目標(biāo)框大小不變時弱特征的引入使得總體表現(xiàn)不穩(wěn)定。而融合深度信息的目標(biāo)跟蹤算法Rgb-d和本文算法由于引入深度信息,均得到較準(zhǔn)確和魯棒的效果。

        圖6中跟蹤目標(biāo)為灰色兔子,目標(biāo)在12~62幀遭遇左側(cè)兔子遮擋。由跟蹤結(jié)果圖直觀看出本文算法在目標(biāo)運動過程中表現(xiàn)魯棒。

        圖5 不同算法對zcup_move 序列跟蹤結(jié)果
        Fig.5 Different tracking results on zcup_move

        圖6 不同算法對br_occ_0序列跟蹤結(jié)果
        Fig.6 Different tracking results on br_occ_0

        圖7中目標(biāo)為運動過程中產(chǎn)生姿態(tài)變化的小男孩。由跟蹤結(jié)果圖顯示,51幀開始meanshift算法出現(xiàn)漂移現(xiàn)象。84幀后CT和FCT算法表現(xiàn)不穩(wěn)定。本文算法在目標(biāo)運動過程中表現(xiàn)良好。

        圖8 zball_no1序列中皮球遭遇光照影響,32幀后meanshift算法發(fā)生漂移,61幀后,CT、FCT、Rgb-d和MFWCT算法表現(xiàn)出不同程度的漂移。跟蹤結(jié)果圖顯示本文算法較其他算法表現(xiàn)魯棒。

        圖9中跟蹤目標(biāo)為室內(nèi)光照變化下突然運動的皮球,60幀之前目標(biāo)運動劇烈,meanshift、CT、FCT和MFWCT算法表現(xiàn)不穩(wěn)定,本文算法通過多特征加權(quán)融合,外觀模型表現(xiàn)魯棒,算法性能較好。

        圖7 不同算法對child_no1序列跟蹤結(jié)果
        Fig.7 Different tracking results on child_no1

        圖8 不同算法對zball_no1序列跟蹤結(jié)果
        Fig.8 Different tracking results on zball_no1

        圖9 不同算法對ball2序列跟蹤結(jié)果
        Fig.9 Different tracking results on ball 2

        由各序列在不同算法下的跟蹤結(jié)果圖可以看出,本文算法在復(fù)雜環(huán)境下表現(xiàn)良好。MFWCT算法雖利用灰度特征和紋理特征的多特征融合表示目標(biāo)外觀,但總體表現(xiàn)與本文算法相比較弱。深度特征的加入使得算法不易受到光照影響,同時目標(biāo)遠(yuǎn)離鏡頭時多特征融合算法表現(xiàn)穩(wěn)定。未加入權(quán)值的融合深度信息的目標(biāo)跟蹤算法由于弱特征的等權(quán)值引入使得算法總體表現(xiàn)不穩(wěn)定。加權(quán)弱分類器使得目標(biāo)分類更加準(zhǔn)確。實驗結(jié)果表明本文算法的準(zhǔn)確性高,魯棒性好。

        3.2.3 算法定量分析

        對目標(biāo)跟蹤算法的定量分析可以更加準(zhǔn)確和客觀的反映跟蹤算法性能。在跟蹤算法的精確度評估中,本文采用中心位置誤差和成功幀率兩個指標(biāo)進(jìn)行評估。

        (1)中心位置誤差定義為公式(18)所示:

        (18)

        其中(xT,yT)是跟蹤算法得到的目標(biāo)中心位置,(xG,yG)是人工標(biāo)注的目標(biāo)的準(zhǔn)確位置。中心位置誤差越小,代表算法的準(zhǔn)確性越高;誤差越大,代表算法的準(zhǔn)確性越低。

        表2中CLE表示各序列在不同算法下的中心位置誤差值(/像素)。Meanshift算法平均中心位置誤差值為36.63個像素,CT算法平均中心位置誤差值為20.44個像素,F(xiàn)CT算法平均中心位置誤差值為18.20個像素,MFWCT算法平均中心位置誤差值為18.42個像素,Rgb-d算法平均中心位置誤差為16.44,本文算法中心位置誤差為最小值9.95個像素,在各算法中表現(xiàn)最優(yōu)。

        各序列在不同算法下跟蹤結(jié)果的中心位置誤差圖如圖10~圖14所示。由圖可以看出,本文算法的中心位置誤差值最小,算法表現(xiàn)魯棒。

        圖10 zcup_move序列中心位置誤差圖
        Fig.10 Center location error plots of zcup_move

        圖11 br_occ_0序列中心位置誤差圖
        Fig.11 Center location error plots of br_occ_0

        圖12 child_no1序列中心位置誤差圖
        Fig.12 Center location error plots of child_no1

        圖13 zball_no1序列中心位置誤差圖
        Fig.13 Center location error plots of zball_no1

        圖14 ball2序列中心位置誤差圖
        Fig.14 Center location error plots of ball2

        (2)成功幀率同樣可以測試目標(biāo)跟蹤系統(tǒng)的精度,成功幀率定義為公式(19):

        (19)

        其中,ROIT是算法跟蹤框面積,ROIG是目標(biāo)真實位置跟蹤框面積。本文設(shè)定,成功幀率大于0.5,即為跟蹤成功,算法成功幀率越高,表示算法效果越好。由表1可見,在不同序列測試下, meanshift算法平均成功幀率為0.77,CT算法平均成功幀率為0.83,F(xiàn)CT算法平均成功幀率為0.87,MFWCT算法平均成功幀率為0.88,Rgb-d算法平均成功幀率為0.89,本文算法跟蹤成功幀率平均值為最高值0.96,在各算法中表現(xiàn)優(yōu)異。

        表2 不同算法的跟蹤速率、中心位置誤差和跟蹤成功幀率
        Tab.2 Comparisons ondifferent algorithms in terms of speed, center location error and success rate

        zcup_movechild_no1br_occ_0zball_no1ball2fpsCLESRfpsCLESRfpsCLESRfpsCLESRfpsCLESROurs13.407.600.9712.7012.140.9913.2913.650.8912.277.840.9911.668.580.98meanshift7.6095.600.4514.0727.080.9412.8718.580.8810.6322.100.838.6719.790.78CT8.6012.670.898.6021.090.988.1225.820.868.6021.360.829.9221.310.66FCT17.0613.590.8915.4424.070.9714.7717.350.8815.3420.600.8413.8915.410.83MFWCT15.4711.80.9415.8920.010.9914.2626.420.8515.5220.980.8212.8912.910.79Rgb-d12.7510.80.9713.1519.400.9613.0518.710.8811.9820.400.8411.4212.940.83

        4 結(jié)束語

        提出了一種魯棒的融合灰度特征和深度特征的視頻目標(biāo)壓縮跟蹤算法。通過特征融合,增強(qiáng)了目標(biāo)的外觀描述能力。利用融合后的特征構(gòu)建加權(quán)樸素貝葉斯分類器,提高分類精度。算法利用壓縮感知降低特征維度,提高算法速度。實驗表明算法在實時性、準(zhǔn)確性和魯棒性等方面表現(xiàn)優(yōu)異。

        猜你喜歡
        深度特征融合
        村企黨建聯(lián)建融合共贏
        融合菜
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        深度理解一元一次方程
        《融合》
        如何表達(dá)“特征”
        不忠誠的四個特征
        深度觀察
        深度觀察
        深度觀察
        日本人妻免费一区二区三区| 亚洲制服无码一区二区三区| 人妻无码∧V一区二区| 人妻丰满精品一区二区| 色欲一区二区三区精品a片| 免费观看激色视频网站| 国产精品亚洲А∨天堂免下载| 中文字幕av人妻一区二区| 开心久久综合婷婷九月| 毛片无码国产| 欧美激情在线不卡视频网站| 亚洲福利av一区二区| 一区二区视频中文字幕| 性高朝大尺度少妇大屁股| 四虎影视国产在线观看精品| 精品午夜一区二区三区| 久久国产精品亚洲va麻豆| 99精品国产一区二区| 最新国产午夜福利| 亚洲一区二区三区厕所偷拍| 国产区女主播在线观看| 少妇高潮惨叫正在播放对白| 日本久久久免费高清| 久久狼人国产综合精品| 亚洲精品中文字幕乱码三区| 特级毛片a级毛片免费播放| 欧美熟妇与小伙性欧美交| 国产91成人精品高潮综合久久 | 伊伊人成亚洲综合人网7777| 亚洲人妻中文字幕在线视频| 91精品国产一区国产二区久久| 最新亚洲人成网站在线观看| 免费一本色道久久一区| 国产在线视频一区二区三区不卡| 亚州国产av一区二区三区伊在 | 国产影片免费一级内射| 免费av一区二区三区无码| 亚洲熟妇色xxxxx欧美老妇y| 久草国产手机视频在线观看| 激情综合五月婷婷久久| 亚洲精品无码久久久久|