亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于子空間聯(lián)合模型的視覺跟蹤

        2017-08-12 15:45:56楊國(guó)亮朱松偉
        關(guān)鍵詞:模型

        楊國(guó)亮 唐 俊 朱松偉 王 建

        (江西理工大學(xué)電氣工程與自動(dòng)化學(xué)院 江西 贛州 341000)

        ?

        基于子空間聯(lián)合模型的視覺跟蹤

        楊國(guó)亮 唐 俊 朱松偉 王 建

        (江西理工大學(xué)電氣工程與自動(dòng)化學(xué)院 江西 贛州 341000)

        目標(biāo)跟蹤是計(jì)算機(jī)視覺的重要組成部分,其魯棒性一直受到目標(biāo)遮擋,光照變化,目標(biāo)姿態(tài)變化等因素的制約。針對(duì)這個(gè)問題,提出了基于子空間聯(lián)合模型的視覺跟蹤算法。算法為了克服遮擋對(duì)目標(biāo)跟蹤的影響,采用局部動(dòng)態(tài)稀疏表示進(jìn)行遮擋檢測(cè),根據(jù)遮擋檢測(cè)結(jié)果來修正增量子空間誤差。此外,在稀疏子空間基礎(chǔ)上計(jì)算目標(biāo)模板和候選模板的相似性。在粒子濾波框架下,聯(lián)合候選目標(biāo)增量誤差和相似性實(shí)現(xiàn)目標(biāo)跟蹤。通過在多個(gè)具有挑戰(zhàn)性的視頻序列上進(jìn)行實(shí)驗(yàn),表明該算法具有較好的魯棒性。

        視覺跟蹤 增量子空間 粒子濾波 聯(lián)合模型 局部動(dòng)態(tài)稀疏表示

        0 引 言

        視覺跟蹤一直是計(jì)算機(jī)視覺領(lǐng)域的研究熱點(diǎn),它在智能控制、車輛導(dǎo)航、導(dǎo)彈制導(dǎo)、人機(jī)交互等領(lǐng)域具有大量的應(yīng)用。文獻(xiàn)[1-2]對(duì)視覺跟蹤做了簡(jiǎn)要回顧。雖然現(xiàn)在有大量經(jīng)典算法[3-5]被提出,但這個(gè)領(lǐng)域仍有很多問題有待解決,這個(gè)研究領(lǐng)域仍然充滿挑戰(zhàn)?,F(xiàn)階段視覺跟蹤面臨的技術(shù)難題是光照變化,目標(biāo)遮擋,視角變化以及快速運(yùn)動(dòng)等環(huán)境因素對(duì)跟蹤的影響。

        現(xiàn)階段,視覺跟蹤主要分為兩大類方法:鑒別式方法和生成式方法。鑒別式方法將跟蹤問題轉(zhuǎn)化成了一個(gè)二分類問題,其思想是通過分類器尋找與背景區(qū)分性最大的區(qū)域,從而實(shí)現(xiàn)目標(biāo)和背景的分離。而對(duì)于生成式方法[3-8],其主要思想是在圖像局部區(qū)域內(nèi)進(jìn)行搜索,從中尋找與目標(biāo)外觀最相似的區(qū)域。本文采用生成式方法實(shí)現(xiàn)視覺跟蹤。

        最近研究表明,稀疏表示模型[9]在人臉識(shí)別領(lǐng)域展現(xiàn)很強(qiáng)的魯棒性?;诖?,很多基于稀疏表示模型的視覺跟蹤算法[6-7,10-11]被呈現(xiàn)。Mei等[4-5]采用全局的模板作為目標(biāo)表觀模型,通過L1最小化模型實(shí)現(xiàn)目標(biāo)跟蹤。在全局稀疏表示中,全局模板被當(dāng)成字典,為了緩解目標(biāo)遮擋對(duì)目標(biāo)表觀的影響,大量瑣粹模板被使用。雖然對(duì)遮擋情況具有較好的魯棒性,但是瑣粹模板增加了稀疏表示的計(jì)算量。Zhong等[6]提出了稀疏合作表觀模型,在這個(gè)模型中,稀疏鑒別分類器(SDC)和稀疏生成模型(SGM)通過合作的方式確定跟蹤結(jié)果。通過全局模板,SDC從背景中分離跟蹤目標(biāo);而對(duì)于SGM,局部塊的空間信息被用來測(cè)量候選目標(biāo)和目標(biāo)模板相似度?;赑CA的子空間模型對(duì)目標(biāo)表觀變化有很強(qiáng)的魯棒性。根據(jù)傳統(tǒng)PCA,Ross等[3]提出了基于增量學(xué)習(xí)的視覺跟蹤算法,其對(duì)表觀變化具有很強(qiáng)的魯棒性。但是,IVT算法是全局的,其對(duì)目標(biāo)存在遮擋的情況魯棒性不強(qiáng)。

        針對(duì)視覺跟蹤存在的難點(diǎn)問題以及增量子空間和稀疏子空間的現(xiàn)有優(yōu)勢(shì),本文提出了基于子空間聯(lián)合模型的視覺跟蹤算法。首先,算法利用增量子空間模型求得候選目標(biāo)的增量誤差,并采用局部動(dòng)態(tài)稀疏表示模型檢測(cè)候選目標(biāo)的遮擋情況來減少目標(biāo)遮擋對(duì)增量子空間模型的影響。此外,為了更加準(zhǔn)確選擇候選目標(biāo),算法在局部動(dòng)態(tài)稀疏表示的基礎(chǔ)上計(jì)算目標(biāo)模板局部塊和候選模板局部塊之間相似性。最后,在粒子濾波框架下,利用聯(lián)合模型實(shí)現(xiàn)目標(biāo)跟蹤。通過在多個(gè)具有挑戰(zhàn)性的視頻序列上進(jìn)行實(shí)驗(yàn),算法對(duì)光照變化,目標(biāo)遮擋,視角變化,目標(biāo)姿態(tài)變化以及運(yùn)動(dòng)模糊有較好的魯棒性。

        1 粒子濾波

        基于粒子濾波的視覺跟蹤方法可以分為預(yù)測(cè)和更新兩個(gè)部分。假設(shè)在視頻序列的第t幀,y1:t-1={y1,y2,…,yt-1}表示第一幀到第t-1幀的目標(biāo)觀測(cè),xt表示目標(biāo)的真實(shí)狀態(tài),則粒子濾波的預(yù)測(cè)過程如式(1)所示:

        p(xt|y1:t-1)=∫p(xt|xt-1)p(xt-1|y1:t-1)dxt-1

        (1)

        其中,p(xt|x1:t-1)為狀態(tài)轉(zhuǎn)移模型。狀態(tài)轉(zhuǎn)移模型p(xt|x1:t-1)描述了目標(biāo)狀態(tài)和連續(xù)幀之間的關(guān)系。本文利用仿射變換建立目標(biāo)狀態(tài)與連續(xù)兩幀圖像之間的轉(zhuǎn)移模型,模型如式(2)所示:

        p(xt|xt-1)=N(xt,xt-1,Σ)

        (2)

        其中Σ為對(duì)角矩陣,其對(duì)角元素表示相應(yīng)元素的方差。在t時(shí)刻,當(dāng)觀測(cè)狀態(tài)yt可用時(shí),則根據(jù)式(3)執(zhí)行更新過程:

        (3)

        其中,p(yt|xt)是狀態(tài)xt的觀測(cè)似然。在得到所有候選目標(biāo)的觀測(cè)似然后,利用最大后驗(yàn)概率準(zhǔn)則估計(jì)跟蹤目標(biāo)的最優(yōu)狀態(tài),如式(4)所示:

        (4)

        2 增量子空間學(xué)習(xí)和局部動(dòng)態(tài)稀疏表示

        為了充分利用增量子空間和稀疏表示模型的各自優(yōu)勢(shì),本文提出了二者的聯(lián)合模型。首先根據(jù)增量子空間模型求得候選目標(biāo)的增量誤差,因?yàn)樵隽孔涌臻g沒有遮擋檢測(cè)機(jī)制,所以采用局部動(dòng)態(tài)稀疏表示實(shí)現(xiàn)遮擋檢測(cè),用檢測(cè)結(jié)果修正增量誤差。此外,在局部動(dòng)態(tài)稀疏表示基礎(chǔ)上計(jì)算候選目標(biāo)和目標(biāo)表觀的相似性。在以理論的基礎(chǔ)上利用聯(lián)合模型實(shí)現(xiàn)了本文的視覺跟蹤算法。

        2.1 增量子空間學(xué)習(xí)

        通過以上分析,t時(shí)刻的候選目標(biāo)yt的增量學(xué)習(xí)誤差ePCA可以通過式(5)求得:

        (5)

        其中,q為特征向量系數(shù)。

        在跟蹤過程中,需要實(shí)時(shí)更新訓(xùn)練集,這樣就降低了原訓(xùn)練集的貢獻(xiàn)度,因此引入遺忘因子f,f∈[0,1],則原有效樣本數(shù)變?yōu)閒×n。通過這種更新方式,增量子空間獲取了新的表觀變化,同時(shí)又保證了初始表觀在子空間中的重要地位。

        2.2 局部動(dòng)態(tài)稀疏表示

        (6)

        其中,bi是局部塊的稀疏系數(shù),λ是稀疏表示模型的權(quán)值參數(shù),字典D∈RG×J通過M個(gè)局部塊k均值聚類生成(J為聚類中心數(shù)量),η為相鄰幀跟蹤目標(biāo)之間相關(guān)性的控制參數(shù),Ht是相鄰幀之間的狀態(tài)轉(zhuǎn)移矩陣。本文局部塊的生成過程和局部塊稀疏系數(shù)柱狀如圖1所示。

        圖1 局部塊和稀疏系數(shù)柱狀圖

        通過局部動(dòng)態(tài)稀疏表示模型求解候選目標(biāo)局部塊的稀疏系數(shù)bi∈RJ×1,將所有稀疏系數(shù)連接起來形成一個(gè)向量,如式(7)所示:

        (7)

        其中,β∈R(J×M)×1表示一個(gè)候選目標(biāo)的稀疏系數(shù)向量。

        2.3 遮擋檢測(cè)

        (8)

        在稀疏編碼中,候選目標(biāo)的局部塊能夠由字典稀疏表示。如圖1所示,局部塊的表示系數(shù)是稀疏的。然而,遮擋塊不屬于目標(biāo)模板,其用字典表示時(shí)將會(huì)有很大的稀疏誤差。因此局部塊的遮擋情況可以通過稀疏誤差確定。定義遮擋指示器如式(9)所示:

        (9)

        其中,ξ是自定義閾值,用來確定局部塊是否被遮擋。定義候選目標(biāo)的遮擋檢測(cè)矩陣為O∈Rm×n,則根據(jù)遮擋指示器可以求得:

        (10)

        其中,p和q是第j個(gè)局部塊在候選目標(biāo)中的坐標(biāo)向量。Λ和Ω分別表示1矩陣和0矩陣。利用式(10)對(duì)所有局部塊進(jìn)行遮擋檢測(cè),對(duì)檢測(cè)結(jié)果進(jìn)行閾值處理可以求得遮擋檢測(cè)矩陣O。從而利用遮擋檢測(cè)矩陣修正增量學(xué)習(xí)誤差。

        在利用遮擋檢測(cè)矩陣對(duì)增量誤差進(jìn)行修正后,可以得到修正誤差,如式(11)所示:

        Ej=ej⊕O

        (11)

        其中,ej為第j候選目標(biāo)的增量誤差,Ej為對(duì)應(yīng)修正誤差,⊕表示元素之間的點(diǎn)乘。則可以求得所有候選目標(biāo)的修正誤差為:

        對(duì)于局部動(dòng)態(tài)稀疏表示模型,當(dāng)候選目標(biāo)存在遮擋時(shí),根據(jù)遮擋指示器生成加權(quán)系數(shù)向量:

        φ=β⊕g

        (12)

        其中,g為遮擋指示器。

        通過以上的遮擋檢測(cè)方式,本文不僅考慮了兩個(gè)模型的各自特點(diǎn),也充分利用了局部塊的空間信息,增強(qiáng)了算法對(duì)遮擋的魯棒性。

        2.4 聯(lián)合模型

        對(duì)于局部動(dòng)態(tài)稀疏表示模型,本文參考文獻(xiàn)[6]選擇向量求交來計(jì)算候選目標(biāo)和目標(biāo)模板相似度,公式如下所示:

        (13)

        其中,φc和ω分別表示第c個(gè)候選目標(biāo)和目標(biāo)模板的系數(shù)向量。所有候選目標(biāo)和目標(biāo)模板的相似度可以表示為L(zhǎng)=[L1,L2,…,LN]T。

        對(duì)于增量子空間模型和局部動(dòng)態(tài)稀疏表示模型,其相似性根據(jù)各自模型特點(diǎn)分開計(jì)算。但在最后的決策環(huán)節(jié)采用聯(lián)合模型確定最優(yōu)候選目標(biāo)。因?yàn)樵隽繉W(xué)習(xí)模型采用增量誤差衡量候選目標(biāo),其值應(yīng)該越小越好;而局部動(dòng)態(tài)稀疏表示模型采用目標(biāo)模板和候選目標(biāo)的相似度衡量候選目標(biāo),其值應(yīng)該越大越好。所以本文定義聯(lián)合模型如式(14)所示:

        (14)

        其中,α是控制高斯核函數(shù)的參數(shù),Γ為歸一下常量。

        3 模板更新

        在跟蹤過程中,目標(biāo)的表觀是經(jīng)常改變的,所以實(shí)時(shí)更新目標(biāo)模板顯得至關(guān)重要。對(duì)于增量子空間模型,當(dāng)目標(biāo)不存在遮擋時(shí),算法選擇間隔5幀更新一次訓(xùn)練集;當(dāng)目標(biāo)存在遮擋時(shí),算法利用遮擋檢測(cè)結(jié)果修正增量學(xué)習(xí)誤差,同時(shí)跟蹤結(jié)果不會(huì)更新到訓(xùn)練集。而對(duì)于局部動(dòng)態(tài)稀疏表示模型,字典D在此后的跟蹤結(jié)果中不會(huì)更新,但為了利用新的表觀信息,本文選擇更新模板系數(shù)向量的方式來跟蹤目標(biāo),更新過程如式(15)所示:

        ωn=μωf+(1-μ)ωlifGn

        (15)

        其中,ωn是新的系數(shù)向量,ωf是根據(jù)第一幀圖像生成的系數(shù)向量,而ωl是上一次存儲(chǔ)的系數(shù)向量,μ為平衡系數(shù),Gn表示跟蹤結(jié)果的遮擋情況,G0為自定義閾值。選擇這種模板更新方式一方面保證了第一個(gè)模板的重要性,另一方面也充分考慮了新的表觀變化,增強(qiáng)了算法的魯棒性。

        本文算法以粒子濾波為整體框架,通過將增量誤差和稀疏相似度作為候選目標(biāo)的觀測(cè)似然,在特定的遮擋檢測(cè)和模板更新方式下實(shí)現(xiàn)了目標(biāo)跟蹤。算法流程如算法1所示。

        算法1 基于子空間聯(lián)合模型的視覺跟蹤

        輸入:手工標(biāo)定目標(biāo)x1,字典D,前五幀通過模板匹配進(jìn)行跟蹤

        1.For t=6 ;t<= FrameNum ;t++

        8.end for

        4 實(shí)驗(yàn)及結(jié)果分析

        本文算法實(shí)驗(yàn)平臺(tái)為Intel Duo e7500雙核處理器,主頻為2.93 GHz,內(nèi)存為2 GB,Windows XP操作系統(tǒng),軟件環(huán)境為Matlab R2010b。實(shí)驗(yàn)之前,需要對(duì)參數(shù)進(jìn)行基本的設(shè)置,其中包括:樣本所投影的局部塊大小為32×32,訓(xùn)練集更新間隔為5,遺忘因子設(shè)為0.95。為了評(píng)估我們算法的性能,從標(biāo)準(zhǔn)測(cè)試庫(kù)[13]選擇了“Car2”,“Singer1”,“FaceOcc1”,“Walking2”,“Surfer”,“Jumping”,“David2”,“Sylvester”8個(gè)測(cè)試序列進(jìn)行實(shí)驗(yàn),測(cè)試序列總共包括4 390張視頻幀圖像,同時(shí)8個(gè)測(cè)試序列分別涵蓋光照變化,嚴(yán)重遮擋,運(yùn)動(dòng)模糊,姿態(tài)變化,尺度變化等挑戰(zhàn)。并與IVT跟蹤[3]、L1APG跟蹤[5]、CT跟蹤[8]、SCM跟蹤[6]、ASLA跟蹤[7]五個(gè)經(jīng)典算法進(jìn)行比較。為了確保實(shí)驗(yàn)的合理性,所有初始位置都根據(jù)目標(biāo)真實(shí)位置確定。

        4.1 定性比較

        這部分,在各種場(chǎng)景下將我們的算法和著名算法作對(duì)比,因?yàn)闃?biāo)準(zhǔn)測(cè)試序列幀數(shù)過多,不可能在跟蹤結(jié)果中全部展示,所以選擇關(guān)鍵位置作結(jié)果展示,結(jié)果如下:

        光照變化 “Car2”序列顯示一輛小車在劇烈光照變化下行駛,其中包括從下面通過一座橋,受陰影的影響很大。而在“Singer1”序列中,跟蹤除了受到演唱會(huì)現(xiàn)場(chǎng)強(qiáng)烈光照影響,還受到歌手自身姿態(tài)和尺度變化的影響。實(shí)驗(yàn)結(jié)果顯示,“Car2”序列中CT跟蹤跟丟目標(biāo),L1APG跟蹤精度不足,其他四個(gè)算法都能準(zhǔn)確跟蹤目標(biāo)。而對(duì)于“Singer1”序列,在圖像序列第120幀到第325幀之間存在劇烈的強(qiáng)光照射,這對(duì)IVT,L1APG和CT算法都有一定影響,三個(gè)算法都存在一定的跟蹤誤差。本文算法能夠準(zhǔn)確跟蹤目標(biāo)。表明本文算法對(duì)陰影和強(qiáng)光照射具有較好的魯棒性。

        嚴(yán)重遮擋 大面積遮擋對(duì)于目標(biāo)跟蹤很常見,它在算法性能評(píng)估中占有重要的地位。因此,本文選擇了2個(gè)存在遮擋的序列進(jìn)行實(shí)驗(yàn)。結(jié)果表明,在“FaceOcc1”序列中,六個(gè)算法都能正確跟蹤目標(biāo),但CT和IVT存在精度不足的缺點(diǎn),如圖2(c)所示。而對(duì)于“Walking2”序列,因?yàn)榇嬖诖竺娣e遮擋和很大尺度變化,IVT、CT以及ASLA跟蹤失敗,如圖2(d)所示。通過在2個(gè)遮擋視頻序列上進(jìn)行實(shí)驗(yàn),表明本文算法對(duì)遮擋情況具有較好的魯棒性。

        圖2 測(cè)試序列跟蹤結(jié)果1

        運(yùn)動(dòng)模糊 為了驗(yàn)證算法對(duì)運(yùn)動(dòng)模糊的跟蹤性能,本文選擇“Surfer”和“Jumping”視頻序列進(jìn)行實(shí)驗(yàn)。對(duì)于“Surfer”序列,其主要的挑戰(zhàn)是目標(biāo)快速運(yùn)動(dòng)和目標(biāo)姿態(tài)變化,實(shí)驗(yàn)表明SCM和本文算法展現(xiàn)了相當(dāng)?shù)母櫨龋硗馊齻€(gè)跟蹤算法跟蹤失敗。而對(duì)于“Jumping”序列,其不僅存在運(yùn)動(dòng)模糊,還存在背景雜斑,結(jié)果顯示CT和L1APG算法跟蹤失敗。通過在兩個(gè)運(yùn)動(dòng)模糊視頻序列上進(jìn)行實(shí)驗(yàn),結(jié)果表明本文算法對(duì)運(yùn)動(dòng)模糊和快速運(yùn)動(dòng)的目標(biāo)具有較好的跟蹤精度。

        姿態(tài)變化 “David2”序列存劇烈姿態(tài)變化,如圖3(c)所示。在此圖像序列上進(jìn)行實(shí)驗(yàn),結(jié)果表明本文算法對(duì)本圖像序列有較好的魯棒性。為了進(jìn)一步驗(yàn)證本文算法對(duì)姿態(tài)變化的跟蹤性能,選擇“Sylvester”視頻序列做進(jìn)一步性能分析。實(shí)驗(yàn)表明,本文算法能正確跟蹤目標(biāo),其他算法跟蹤精度不足。

        由以上實(shí)驗(yàn)可知,本文算法在光照變化,姿態(tài)變化,嚴(yán)重遮擋,運(yùn)動(dòng)模糊,尺度變化等各種復(fù)雜場(chǎng)景下,均能有效跟蹤目標(biāo),并且跟蹤窗口可以隨著跟蹤目標(biāo)自適應(yīng)尺度變化和姿態(tài)變化。

        圖3 測(cè)試序列跟蹤結(jié)果2

        4.2 定量分析

        由標(biāo)準(zhǔn)測(cè)試庫(kù)[13]可以得到目標(biāo)的真實(shí)狀態(tài)。所以為了進(jìn)一步對(duì)本文算法性能進(jìn)行評(píng)估,利用目標(biāo)真實(shí)邊界框和跟蹤結(jié)果邊界框的重疊率進(jìn)行定量分析。假設(shè)目標(biāo)的邊界框?yàn)镽T,準(zhǔn)確的邊界框?yàn)镽G,則跟蹤結(jié)果的重疊率為S=|RT∩RG|/|RT∪RG|,其中∩和∪分別表示兩個(gè)區(qū)域的交集和并集,|·|表示區(qū)域內(nèi)像素點(diǎn)的個(gè)數(shù)。由于篇幅所限,本文選擇4個(gè)測(cè)試序列繪制重疊率曲線如圖4所示,其橫坐標(biāo)為視頻序列的序號(hào),單位為幀,縱坐標(biāo)為目標(biāo)真實(shí)邊界框和跟蹤結(jié)果邊界框的重疊率。

        圖4 重疊率曲線

        此外,進(jìn)一步利用跟蹤結(jié)果與真實(shí)狀態(tài)之間的相對(duì)位置誤差對(duì)本文算法作進(jìn)一步的性能評(píng)估。其中,相對(duì)位置誤差e=ξ/d,ξ為跟蹤結(jié)果的中心位置與真實(shí)狀態(tài)的中心位置的偏移量,d為真實(shí)狀態(tài)的目標(biāo)矩形對(duì)角線長(zhǎng)度。6個(gè)跟蹤算法對(duì)應(yīng)8個(gè)測(cè)試序列的平均相對(duì)位置誤差如表1所示,其中最好的兩個(gè)算法平均相對(duì)位置誤差采用加粗方式表示。

        表1 平均相對(duì)位置誤差

        5 結(jié) 語

        針對(duì)單目標(biāo)跟蹤易受環(huán)境因素的影響,提出了基于子空間聯(lián)合模型的視覺跟蹤算法。算法利用增量子空間模型求解候選目標(biāo)的增量誤差。為了克服環(huán)境因素對(duì)目標(biāo)跟蹤的影響,采用局部動(dòng)態(tài)稀疏表示進(jìn)行遮擋檢測(cè),根據(jù)候選目標(biāo)的遮擋情況來修正增量學(xué)習(xí)誤差。因?yàn)榫植縿?dòng)態(tài)稀疏表示也能夠求得候選目標(biāo)和目標(biāo)模板的相似度,所以結(jié)合修正的增量誤差和局部動(dòng)態(tài)稀疏表示求得的相似度共同決定候選目標(biāo)。在上述理論的基礎(chǔ)上,以粒子濾波為框架實(shí)現(xiàn)了基于子空間聯(lián)合模型的視覺跟蹤算法。在多個(gè)具有挑戰(zhàn)性的視頻序列上進(jìn)行實(shí)驗(yàn),并與多個(gè)現(xiàn)有的跟蹤算法作對(duì)比,實(shí)驗(yàn)結(jié)果表明本文算法具有較好的魯棒性。

        [1] Yilmaz A, Javed O, Shah M. Object tracking:A survey[J]. Acm Computing Surveys,2006,38(4):13.

        [2] Smeulders A W, Chu D M, Cucchiara R, et al. Visual Tracking: An Experimental Survey[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2013,36(7):1442-1468.

        [3] Jing L. Incremental Learning for Robust Visual Tracking[J]. International Journal of Computer Vision, 2008,77(1-3):125-141.

        [4] Mei X, Ling H, Wu Y, et al. Minimum Error Bounded Efficient L1 Tracker with Occlusion Detection (PREPRINT)[C]//The 24th IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2011, Colorado Springs, CO, USA, 20-25 June 2011:1257-1264.

        [5] Bao C. Real time robust L1 tracker using accelerated proximal gradient approach[C]//IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2012:1830-1837.

        [6] Zhong W, Lu H, Yang M H. Robust object tracking via sparse collaborative appearance model[J]. IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society, 2014,23(5):2356-68.

        [7] Jia X. Visual tracking via adaptive structural local sparse appearance model[C]//IEEE Conference on Computer Vision & Pattern Recognition,2012:1822-1829.

        [8] Zhang K, Zhang L, Yang M H. Real-Time Compressive Tracking[C]//European Conference on Computer Vision. Springer-Verlag,2012:864-877.

        [9] Jie C, Zhang Y. Sparse Representation for Face Recognition by Discriminative Low-Rank Matrix Recovery[J].Journal of Visual Communication & Image Representation, 2014,25(5):763-773.

        [10] Chen F, Wang Q, Wang S, et al. Object tracking via appearance modeling and sparse representation[J].Image & Vision Computing,2011,29(11):787-796.

        [11] Wang D, Lu H, Yang M H. Online object tracking with sparse prototypes[J].IEEE Transactions on Image Processing, 2013, 22(1):314-25.

        [12] Ji Z, Wang W. Object tracking based on local dynamic sparse model[J].Journal of Visual Communication & Image Representation, 2015,28:44-52.

        [13] Wu Y, Lim J, Yang M H. Online Object Tracking: A Benchmark[C]//IEEE Conference on Computer Vision & Pattern Recognition,2013:2411-2418.

        VISUAL TRACKING BASED ON SUBSPACE COLLABORATIVE MODEL

        Yang Guoliang Tang Jun Zhu Songwei Wang Jian

        (SchoolofElectricalEngineeringandAutomation,JiangxiUniversityofScienceandTechnology,Ganzhou341000,Jiangxi,China)

        Target tracking is an important part of computer vision, and its robustness is always restricted to target occlusion, illumination variation and target pose change and so on. To this end, this paper proposes a visual tracking algorithm based on subspace collaborative model. In order to overcome the influence of occlusion on target tracking, this algorithm rectifies incremental subspace error by result of occlusion detection using local dynamic sparse representation. Besides, the similarity between target template and candidate template is computed based on local dynamic sparse representation. In the framework of particle filter, this algorithm is achieved based on combining incremental error with similarity. The experimental results on several sequences show that this algorithm has better performance of tracking.

        Visual tracking Incremental subspace Particle filter Collaborative model Local dynamic sparse representation

        2016-08-11。國(guó)家自然科學(xué)基金項(xiàng)目(51365017,61305019);江西省科技廳青年科學(xué)基金項(xiàng)目(20132bab211032)。楊國(guó)亮,教授,主研領(lǐng)域:模式識(shí)別與圖像處理,智能控制。唐俊,碩士生。朱松偉,碩士生。王建,碩士生。

        TP391.41

        A

        10.3969/j.issn.1000-386x.2017.07.029

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務(wù)本地化模型
        適用于BDS-3 PPP的隨機(jī)模型
        提煉模型 突破難點(diǎn)
        函數(shù)模型及應(yīng)用
        p150Glued在帕金森病模型中的表達(dá)及分布
        函數(shù)模型及應(yīng)用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        亚洲av日韩av综合aⅴxxx| 久久午夜羞羞影院免费观看| 国产精品福利自产拍在线观看| 丝袜AV在线一区二区三区| 国产精品亚洲综合色区丝瓜| 国产无套视频在线观看香蕉| 极品少妇被后入内射视| 最新中文字幕乱码在线| 亚洲人成综合第一网站| 免费1级做爰片1000部视频 | 国产亚洲超级97免费视频| 国产成人精品无码一区二区老年人 | 蜜桃成人精品一区二区三区| 亚洲福利二区三区四区| 久久久久国产精品| 超薄肉色丝袜一区二区| 國产AV天堂| 国产亚洲精选美女久久久久| 久久久亚洲av午夜精品| 国产尤物精品视频| 护士奶头又白又大又好摸视频| 国产成人午夜福利在线小电影| 无码精品一区二区三区免费16| 蜜臀一区二区av天堂| 激情综合五月开心婷婷| 青草视频在线播放| 欧美日韩在线免费看| 亚洲精品视频免费在线| 成人一区二区三区激情视频| 天堂网站一区二区三区| 青青青爽在线视频观看| 日韩毛片基地一区二区三区| 国产在线视频h| 一本色道精品亚洲国产一区| 亚洲av无码专区亚洲av网站| 久久香蕉国产线看观看网| 国产亚洲精品不卡在线| 亚洲中文字幕精品久久吃奶| 久久精品国产字幕高潮| 99精品视频在线观看免费 | 亚洲大胆美女人体一二三区|