亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于在線魯棒判別式字典學(xué)習(xí)的視覺跟蹤

        2018-09-17 05:20:34方云錄
        計算機時代 2018年7期
        關(guān)鍵詞:粒子濾波

        方云錄

        摘 要: 基于稀疏表示與字典學(xué)習(xí)的視覺跟蹤較好地解決了目標(biāo)遮擋和表觀變化問題,但是其存在模型漂移和復(fù)雜背景下魯棒性差的問題。針對這兩個問題,本文利用L1損失函數(shù)和最小化背景樣本在目標(biāo)模板上的投影提出一種在線魯棒判別式字典學(xué)習(xí)模型,并用塊坐標(biāo)下降設(shè)計了該模型的在線學(xué)習(xí)算法用于L1跟蹤模板更新。以粒子濾波為框架,利用提出的字典學(xué)習(xí)實現(xiàn)了視覺跟蹤方法。實驗結(jié)果表明:本文跟蹤方法比現(xiàn)有跟蹤方法具有更強的魯棒性和較高的跟蹤精度。

        關(guān)鍵詞: L1跟蹤; 字典學(xué)習(xí); 模板更新; 粒子濾波

        中圖分類號:TP391 文獻標(biāo)志碼:A 文章編號:1006-8228(2018)07-20-04

        Abstract: Sparse representation and dictionary learning based visual tracking have well solved occlusions and appearance changes. However, they are faced with problems of model drifting and low robustness in clutter background. To deal with these two problems, an online robust discriminative dictionary learning model is proposed, and an online robust discriminative dictionary learning algorithm for template update of L1 tracker is designed via block coordinate descent. A visual tracking method is established using the proposed dictionary learning algorithm in particle filter framework. The experimental results on several challenging sequences show that the proposed method has better robustness and accuracy than those of the state-of-the-art trackers.

        Key words: L1 tracking; dictionary learning; template update; particle filter

        0 引言

        視覺跟蹤是計算機視覺領(lǐng)域的一個重要研究內(nèi)容,其目的是利用序列圖像估算目標(biāo)的狀態(tài)參數(shù)。視覺跟蹤在視頻監(jiān)控和人機交互等方面具有廣闊的應(yīng)用前景。目前,雖然研究者已經(jīng)提出一些視覺跟蹤方法,但是現(xiàn)有跟蹤方法仍然面臨復(fù)雜背景、目標(biāo)變化和目標(biāo)遮擋等難題[1]。

        2009年,Mei和Ling[2]首次提出基于稀疏表示的視覺跟蹤方法,又稱“L1跟蹤”。L1跟蹤用目標(biāo)模板和小模板的組合表示候選目標(biāo),以重構(gòu)誤差作為觀測似然跟蹤目標(biāo)。L1跟蹤對目標(biāo)遮擋具有較強的魯棒性,但是L1跟蹤對目標(biāo)模板的要求較高,當(dāng)模板中引入離群數(shù)據(jù)時,會導(dǎo)致跟蹤失敗。為了保證目標(biāo)模板的正確性,文獻[3-4]提出用小模板系數(shù)檢測目標(biāo)遮擋,并根據(jù)檢測結(jié)果更新目標(biāo)模板。文獻[5]利用小模板系數(shù)重建跟蹤結(jié)果,并利用增量主分量分析更新目標(biāo)模板。文獻[3-5]中模板更新方法的問題在于,由于小模板也能表示背景[5],這會導(dǎo)致遮擋檢測失敗或者重建圖像不準(zhǔn)確。隨著對L1跟蹤研究的深入,研究者逐漸認識到模板字典在視覺跟蹤中的重要作用。為了提升L1跟蹤對復(fù)雜背景下目標(biāo)跟蹤魯棒性,文獻[6]提出用多個特征視圖建立目標(biāo)模板字典。文獻[7]提出建立多壽命模板字典跟蹤目標(biāo),并將目標(biāo)模板更新等價為在線字典學(xué)習(xí)問題,從而保證了對目標(biāo)表觀變化的適應(yīng)性。文獻[8]利用非負灰度字典設(shè)計目標(biāo)模板,并提出在線魯棒的非負字典學(xué)習(xí)算法用于模板更新,進一步提升了L1跟蹤的性能。

        綜上所述,目標(biāo)模板的設(shè)計與更新對L1跟蹤至關(guān)重要?,F(xiàn)有L1跟蹤模板更新方法的問題在于模型漂移和復(fù)雜背景下目標(biāo)跟蹤的魯棒性差兩個方面。針對這兩個問題,本文首先提出一種在線魯棒判別式字典學(xué)習(xí)模型。一方面,該模型以L1范數(shù)作為目標(biāo)模板的損失函數(shù),有效抑制了模型漂移;另一方面,該模型通過最小化背景樣本在目標(biāo)模板上的投影,增強了目標(biāo)模板的判別力,提高了復(fù)雜背景下目標(biāo)跟蹤的魯棒性。其次,利用塊坐標(biāo)下降設(shè)計了該模型的在線學(xué)習(xí)算法。在粒子濾波框架下,利用提出的字典學(xué)習(xí)實現(xiàn)了目標(biāo)跟蹤方法。實驗結(jié)果表明,本文提出的模板更新方法,用于視覺跟蹤,達到了提高魯棒性與跟蹤精度的預(yù)期效果。

        1 在線魯棒判別式字典學(xué)習(xí)模型

        視覺跟蹤中的圖像觀測是時變數(shù)據(jù),所以從字典學(xué)習(xí)的角度看,模板更新是在線的字典學(xué)習(xí)問題[7-8]。目前,一般在“損失函+正則化項”框架下對字典學(xué)習(xí)問題進行研究[9]。字典學(xué)習(xí)模型也就是如何設(shè)計損失函和正則化項。假設(shè)是正例樣本,是負例樣本,其中和是零均值和單位方差向量。,則本文提出的在線魯棒判別式字典學(xué)習(xí)模型如下:

        在線字典學(xué)習(xí)模型式⑴能夠克服模型漂移,同時對目標(biāo)樣本與背景樣本又具有較強的判別力。式⑴中為目標(biāo)樣本在模板字典D上的重建誤差,又稱為損失函數(shù)。字典學(xué)習(xí)中常用的損失函數(shù)有L1范數(shù)和L2范數(shù)。由于離群數(shù)據(jù)的重建誤差滿足拉普拉斯分布,所以與L2損失函數(shù)相比,L1損失函數(shù)具有對離群數(shù)據(jù)魯棒的優(yōu)點。因此,模型式⑴用L1范數(shù)作為損失函數(shù)能夠降低遮擋信息等離群數(shù)據(jù)對目標(biāo)模板的影響,從而克服模型漂移。模型式⑴不但考慮了模板字典對目標(biāo)樣本的重建能力,還兼顧了模板字典對背景樣本的辨別能力,這通過最小化背景樣本在模板字典D上的投影得到。

        2 在線魯棒判別式字典學(xué)習(xí)算法

        求解式⑴的在線魯棒判別式字典學(xué)習(xí)算法包括數(shù)據(jù)采樣、編碼系數(shù)求解和在線字典更新三步驟。

        2.1 數(shù)據(jù)采樣

        根據(jù)至t時刻的跟蹤結(jié)果,采樣n+個圖像塊作為正例樣本;在以t時刻跟蹤結(jié)果目標(biāo)中心c為圓心的環(huán)形區(qū)域內(nèi)隨機采樣n-個圖像塊作為負例樣本。

        2.2 編碼系數(shù)求解

        假設(shè)t-n+時刻的目標(biāo)模板字典為。采用迭代加權(quán)最小二乘法[10](Iterative Reweighted Least Squares,IRLS)求解(i=1,…,n+)。采用嶺回歸求解(i=1,…,n-)。

        2.3 在線字典更新

        在線字典更新的目標(biāo)是已知編碼系數(shù)和求解字典Dr。假設(shè)在t時刻進行第T次模板更新,則在線字典更新也就是求解優(yōu)化問題式⑵

        其中,是樣本個數(shù)。由文獻[10]可知,采用塊坐標(biāo)共軛梯度下降算法逐行求解式⑶,可得到字典Dt。

        其中,δ是一個正數(shù)(本文取δ=0.0001)。由文獻[10]可知,若定義Bj和Cj分別為式⑹和式⑺,則求解線性系統(tǒng)式⑻可以得到D(j,:)。式⑻是一個可微凸問題,其全局最優(yōu)解可通過對目標(biāo)函數(shù)求導(dǎo)使其等于零得到。

        通過上述分析,可以得到求解模型式⑴的在線魯棒判別式字典學(xué)習(xí)算法,如“算法1”所示。

        3 目標(biāo)跟蹤

        以粒子濾波為框架跟蹤目標(biāo),在目標(biāo)跟蹤過程中利用提出的在線魯棒判別式字典學(xué)習(xí)算法更新目標(biāo)模板,如圖1所示。

        基于粒子濾波的跟蹤方法是將目標(biāo)跟蹤問題轉(zhuǎn)換為貝葉斯理論框架下已知目標(biāo)狀態(tài)的先驗概率,在獲得新的觀測量后求解目標(biāo)狀態(tài)的最大后驗概率的過程:

        其中,為狀態(tài)轉(zhuǎn)移模型。本文使用仿射變換對連續(xù)兩幀圖像之間的目標(biāo)運動建模,建立狀態(tài)轉(zhuǎn)移模型。對于觀測似然,首先利用式⑼對候選目標(biāo)進行稀疏編碼,然后用式⑽求解觀測似然值。

        4 實驗結(jié)果與分析

        為了驗證字典學(xué)習(xí)算法的有效性,利用Matlab R2010a實現(xiàn)并驗證了文中提出的跟蹤方法。實驗中,跟蹤方法的參數(shù)設(shè)置如下:采樣粒子數(shù)為600,負例樣本數(shù)為200,模板大小為32×32,每5幀更新一次模板,字典原子數(shù)為16,參數(shù)。實驗使Faceocc1、Singer1、Car4、CarDark[12]4組序列對本方法進行了定性和定量分析,并與IVT[11]、L1APG[4]和MTT[13]4種跟蹤方法進行了對比。

        4.1 定性分析

        圖2給出了對IVT、L1APG、MTT及本文跟蹤方法的定性比較。圖2(a)給出對遮擋目標(biāo)的跟蹤結(jié)果,可以看出,本文方法結(jié)果最優(yōu)。圖2(b)、(c)給出了存在光照和姿態(tài)變化時的跟蹤結(jié)果,可以看出,本文方法優(yōu)于其他方法。圖2(d)中跟蹤目標(biāo)的背景比較復(fù)雜,可以看出,本文方法的跟蹤結(jié)果較優(yōu)。

        4.2 定量分析

        實驗采用成功率[12]指標(biāo)進行定量分析,實驗中重疊閾值設(shè)定為0到1。圖3給出了4種跟蹤方法對4組圖像序列的成功率曲線。由圖3可知,在成功率方面,本文方法都優(yōu)于其他4種方法。

        5 結(jié)論

        針對現(xiàn)有L1跟蹤的不足,本文提出一種在線魯棒判別式字典學(xué)習(xí)模型用于L1跟蹤模板更新。該模型提高了模板更新的魯棒性和跟蹤精度。以粒子濾波為框架實現(xiàn)了基于在線魯棒判別式字典學(xué)習(xí)的視覺跟蹤方法。采用具有挑戰(zhàn)性的圖像序列對提出的跟蹤方法進行了實驗驗證,實驗結(jié)果表明,本文的跟蹤方法優(yōu)于其他現(xiàn)有跟蹤方法。

        參考文獻(References):

        [1] 張煥龍,胡士強,楊國勝.基于外觀模型學(xué)習(xí)的視頻目標(biāo)跟蹤方法綜述[J].計算機研究與發(fā)展,2015.51(1):177-190

        [2] Xue Mei, Haibin Ling. Robust visual tracking using L1minimization[C]. Proceedings of IEEE Conference on Computer Vision. Kyoto: IEEE Computer Society Press,2009:1436-1443

        [3] Mei X, Ling H B, Wu Y, et al. Minimum error boundedefficient L1 tracker with occlusion detection[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Colorado: IEEE Computer Society Press,2011:1257-1264

        [4] Chenglong Bao, Yi Wu, Haibin Ling, et al. Real time robust L1 tracker using accelerated proximal gradient approach[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Rhode Island: IEEE Computer Society Press,2012:1830-1837

        [5] Dong Wang, Huchuan Lu, Ming-Hsuan Yang. Least soft-thresold squares tracking[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Portland: IEEE Computer Society Press,2013:2371-2378

        [6] Zhibin Hong, Xue Mei, Danil Prokhorov, et al. Tracking via robust multi-task multi-view joint sparse representation[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Portland: IEEE Computer Society Press,2013:649-656

        [7] J. Xing, J. Gao, B. Li, W. Hu, S. Yan. Robust objecttracking with online multi-lifespan dictionary learning[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Portland: IEEE Computer Society Press,2013:665-672

        [8] N. Wang, J. Wang, D. Yeung. Online robust non-negative dictionary learning for visual tracking[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Portland: IEEE Computer Society Press,2013:657-664

        [9] Mairal J, Bach F, Ponce J, et al. Online learning for matrix factorization and sparse coding [J]. Journal of Machine Learning Research,2010(11):19-60

        [10] Lu Ce-wu, Shi Jian-ping, Jia Jia-ya. Online robust dictionary learning[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,Portland,2013:415-422

        [11] Ross D, Lim J, Lin R S, et al. Incremental learning for robust visual tracking[J]. International Journal of Computer Vision,2008.77(1-3):125-141

        [12] Yi Wu, Jongwoo Lim, Ming-Hsuan Yang. Online object tracking: a benchmark[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Portland: IEEE Computer Society Press,2013:2411-2418

        [13] Tianzhu Zhang , Bernard Ghanem, Si Liu , et al. Robust visual tracking via multi-task sparse learning[J]. International Journal of Computer Vision,2013.101(2):367-383

        猜你喜歡
        粒子濾波
        基于粒子濾波算法的視頻目標(biāo)跟蹤研究
        數(shù)字濾波技術(shù)的現(xiàn)狀與發(fā)展
        可見光與紅外CPCT彩色圖像融合研究與實現(xiàn)
        OCV處于平臺期的汽車鋰電池SOC估算的研究
        粒子濾波法在移動物體定位中的應(yīng)用
        基于智能粒子濾波的多傳感器信息融合算法
        基于重采樣粒子濾波的目標(biāo)跟蹤算法研究
        航空兵器(2016年5期)2016-12-10 17:12:24
        復(fù)雜場景中的視覺跟蹤研究
        一種針對海面弱小目標(biāo)的檢測方案
        交互多模型的Rao—Blackwellized粒子濾波算法在多目標(biāo)跟蹤中的應(yīng)用
        航空兵器(2014年4期)2015-01-15 02:31:43
        极品人妻少妇一区二区| 日本高清一区二区三区视频| 91美女片黄在线观看| 精品国产自拍在线视频| 隔壁的日本人妻bd高清中字| 日韩中文字幕熟女人妻| 黄片视频免费在线播放观看| 亚洲av成人片色在线观看| a级毛片无码久久精品免费| 亚洲另类自拍丝袜第五页| 国产哟交泬泬视频在线播放| av少妇偷窃癖在线观看| 国产成人综合久久精品推荐免费| 久久精品美女久久| 91精品人妻一区二区三区蜜臀| 少妇性l交大片免费快色| 日本成人精品在线播放| 成熟丰满熟妇av无码区| 免费va国产高清大片在线| 野外少妇愉情中文字幕| 一本大道久久东京热无码av| 亚洲一区二区高清精品| 国产一区二区丁香婷婷| 人妻少妇无乱码中文字幕| 按摩师玩弄少妇到高潮av| 精品国际久久久久999波多野| 精品999日本久久久影院| 国产在视频线精品视频| 国产偷国产偷亚洲欧美高清| 国产目拍亚洲精品二区| 国产人妖在线观看一区二区三区| 成人影院在线视频免费观看 | 97精品超碰一区二区三区| 免费的一级毛片| 久久深夜中文字幕高清中文| 日日噜噜噜夜夜狠狠久久蜜桃| 精品精品国产高清a毛片| 久久精品国产免费观看| 久久综合久久鬼色| 国产精品偷伦免费观看的| 一本大道综合久久丝袜精品|