亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于稀疏表達的超像素跟蹤算法

        2015-07-05 16:46:53齊苑辰吳成東陳東岳陸云松
        電子與信息學報 2015年3期
        關(guān)鍵詞:背景模型

        齊苑辰吳成東 陳東岳 陸云松

        (東北大學信息科學與工程學院 沈陽 110819)

        基于稀疏表達的超像素跟蹤算法

        齊苑辰*吳成東 陳東岳 陸云松

        (東北大學信息科學與工程學院 沈陽 110819)

        該文針對真實場景下視頻跟蹤過程中可能出現(xiàn)的目標形變、運動和遮擋等問題,該文分別構(gòu)建了基于超像素局部信息的判別式模型和基于顏色與梯度全局信息的產(chǎn)生式模型,通過兩者的結(jié)合提升了目標表觀特征描述的可區(qū)分性和不變性;此外,提出一種基于稀疏主成分分析的更新策略,在更新特征字典的同時減少其冗余度,在判別式模型的更新階段分別對每幀圖像獲得的跟蹤結(jié)果進行二次判別從而避免漂移現(xiàn)象的發(fā)生。實驗結(jié)果表明,與其它跟蹤算法相比,該算法在應對目標姿態(tài)變化、背景干擾以及遮擋等復雜情況時具有更好的穩(wěn)定性和魯棒性。

        計算機視覺;目標跟蹤;稀疏表達;超像素分割;稀疏主成分分析

        1 引言

        基于視頻的運動目標跟蹤是指在視頻序列中對目標狀態(tài)進行估計的過程。作為計算機視覺領域的重要研究方向,目標跟蹤技術(shù)在視頻監(jiān)控、人機交互以及智能機器人等領域都有著廣泛的應用。一個完整的跟蹤系統(tǒng)包括運動模型、搜索策略以及觀測模型3個部分。其中,運動模型用于預測目標可能的狀態(tài),一般通過卡爾曼濾波[1]或者粒子濾波[2,3]得以實現(xiàn);搜索策略用于尋找目標狀態(tài)的最優(yōu)估計,均值漂移(Mean Shift)[4]以及滑動窗口(Sliding Window)[5]等都可以達到此目的;觀測模型用來度量候選目標與參考目標之間的相似性,歐氏距離、擴散距離[6]、交叉元(Cross-bin)距離[7]等都可以作為度量標準。

        觀測模型必須建立在對目標表觀的精確描述的基礎上。采用全局特征建立目標觀測模型是視頻跟蹤算法中常見的研究思路[8-11],此類算法在目標為剛體且觀測視角變化不大的情況下能夠取得較好的效果。但是當目標在運動過程中發(fā)生比較劇烈的幾何形變和表觀變化時,這種全局方法就會失效并直接引發(fā)跟蹤漂移問題。另一種研究思路是采用局部特征建立目標觀測模型,將目標視為若干個子圖像塊的集合,通過對子圖像塊的跟蹤實現(xiàn)對整體目標的跟蹤。由于子圖像塊內(nèi)圖像模式的不變性較強,這類算法對于目標形變和遮擋問題處理能力更強。文獻[12]將子圖像塊的表示納入到稀疏表達框架下,通過對子圖像塊集合的訓練建立字典,并將候選區(qū)域的觀測模型的估計問題轉(zhuǎn)化為該區(qū)域內(nèi)子圖像塊的稀疏系數(shù)求和問題,從而實現(xiàn)對目標狀態(tài)的最優(yōu)估計。文獻[13]引入超像素分割算法以減少傳統(tǒng)算法中的硬性分塊對于目標邊緣信息的破壞,通過對超像素進行聚類獲取目標區(qū)域的特征分布以及每個超像素從屬于某個類別的概率分布,最后整合候選區(qū)域所有超像素的后驗概率給出候選樣本屬于目標的概率。這類算法雖然對于目標形變和遮擋問題的魯棒性更好,但是當目標圖像塊與背景圖像塊的色彩特征相似時容易產(chǎn)生誤判,并將這種誤判造成的誤差引入到更新階段,從而導致跟蹤失敗。

        通過分析可知,全局信息可區(qū)分度較高,但不變性差;而局部信息不變性好,但可區(qū)分性差。觀測模型的建立包括產(chǎn)生式和判別式兩種,前者強調(diào)模型的完整性和不變性[4,8,10,12],后者旨在更好地區(qū)分目標與背景[5,11,13]??紤]到兩者的互補性,本文分別在全局特征與局部特征的基礎上建立產(chǎn)生式模型與判別式模型,并通過兩者的融合實現(xiàn)對目標的有效描述。因為在跟蹤過程中目標可能發(fā)生各種變化,所以為了獲得更可靠的跟蹤結(jié)果需要對模板進行在線更新。目前已提出很多方法(模板更新[9],增量子空間學習[10],在線分類器[5]等),然而直接使用跟蹤結(jié)果對模板進行更新會造成誤差累積,進而導致跟蹤漂移。這種現(xiàn)象在有遮擋的情況下表現(xiàn)得尤為嚴重,為解決這一問題,本文在模板更新階段增加了對跟蹤結(jié)果的判別機制。

        2 算法描述

        跟蹤問題被廣泛理解為貝葉斯估計問題。令Xt表示目標在t時刻的狀態(tài),Y1:t表示從初始幀累加到t時刻的觀測序列,則待跟蹤目標的后驗概率p(Xt|Y1:t)可以由式(1)定義:

        其中,p(Yt|Xt)表示觀測模型;p(Xt|Xt-1)表示運動模型。利用最大后驗概率(Maximum A Posteriori, MAP)通過在t時刻得到的候選樣本中搜索使后驗概率p(Xt|Y1:t)達到最大的樣本,便可以確定t時刻目標狀態(tài)的最優(yōu)估計,如式(2)所示。

        因為觀測模型必須建立在對目標表觀信息的準確描述的基礎上,所以本文分別基于全局和局部信息建立全局和局部模型,并將觀測模型分解為這兩者的乘積的形式,從而體現(xiàn)了目標全局與局部信息的融合,其數(shù)學形式為

        其中,p(Yt|)表示候選樣本對應的觀測模型;pg(Yt|)表示基于全局信息對構(gòu)建的觀測模型;pl(Yt|)表示基于局部信息對構(gòu)建的觀測模型。之所以選擇這種分解策略是因為考慮到目標的全局和局部信息各自的優(yōu)點及其互補性;而之所以選擇這種乘法的融合機制是因為局部和全局這兩種模型是彼此獨立的,兩者的計算將分別在4.1節(jié)和4.2節(jié)給出詳細說明。

        3 運動模型

        其中,N表示均值為?X1t-,協(xié)方差矩陣為Ψ的正態(tài)分布;考慮到目標狀態(tài)內(nèi)部變量彼此間相互獨立所以假設Ψ為對角陣,其對角線上的元素分別為目標在位置和尺度上變化的方差。

        運動模型用于描述目標在相鄰幀的狀態(tài)的變化規(guī)律,在對目標運動規(guī)律沒有先驗知識的情況下,可假設運動模型服從正態(tài)分布:

        4 觀測模型

        4.1 基于超像素的判別式模型

        局部模型建立的基礎是局部特征的提取,而局部特征提取的前提是局部區(qū)域的分割。常見的基于局部特征的跟蹤算法大多選擇基于矩形格的硬性分割方法[11],此類算法雖然操作簡單但會破壞目標與背景的邊界以及目標內(nèi)部的紋理結(jié)構(gòu)。而超像素分割[14]技術(shù)將圖像中位置相鄰且顏色相似的像素劃分到一個小區(qū)域,從而可以在不破壞邊界的同時實現(xiàn)對圖像的分割。因此,本文采用基于超像素分割的局部區(qū)域劃分策略。

        假設共有m幀訓練圖像,在字典的建立階段共分4個步驟,如圖1所示。首先圍繞目標中心截取矩形區(qū)域作為觀測區(qū)域,矩形邊長為目標的外接矩形的對角線長度τt′的λs倍,如圖2(a)所示紅色線表示跟蹤結(jié)果,藍色線表示觀測區(qū)域的范圍。通過對觀測區(qū)域做超像素分割可以獲得如圖2(b)所示的分割結(jié)果。在判定類別標簽步驟,對于首幀圖像,由于紅色跟蹤框是手動框的,所以紅色框與藍色框之間的回字形區(qū)域一定是屬于背景的,故將中心落在該區(qū)域的超像素分類到背景區(qū)域,并利用這些超像素對中心落在紅色框內(nèi)部的超像素進行重建,對于重構(gòu)誤差大于某個指定閾值的超像素將其判定為目標,否則判定為背景。如圖2(c)所示,紅色星號表示被劃分到目標區(qū)域的超像素的中心,其中重構(gòu)誤差的計算將在式(5)后面給出介紹。而對于其它幀圖像,對觀測區(qū)域內(nèi)分割得到的每個超像素分別用已經(jīng)求得的目標字典和背景字典進行重構(gòu),并根據(jù)得到的重構(gòu)誤差對其類別屬性做判斷,判斷原則在第5節(jié)字典更新環(huán)節(jié)將做詳細介紹,最后使用被分到目標區(qū)域和背景區(qū)域的超像素分別建立目標字典和背景字典。

        圖1 字典建立的流程圖

        在跟蹤階段,當獲得新圖像時,首先圍繞上一時刻目標中心建立如圖3(a)所示的觀測區(qū)域,通過對該區(qū)域做超像素分割可獲得如圖3(b)所示的k個超像素塊。對每個超像素塊分別提取顏色直方圖特征記為yi,i=1,2,…,k ,每個yi可以用前面訓練好的字典D=[d1d2…dn]進行稀疏重構(gòu),如式(5)所示。

        其中,dj,j=1,2,…,n表示字典D的基向量;αij表示yi的第j個稀疏系數(shù);ai=[αi1αi2… αin]T∈表示yi的稀疏系數(shù)向量;ri∈表示誤差向量。稀疏表達一方面希望yi在字典D上的稀疏系數(shù)向量ai中非零元素盡可能地少,另一方面又希望減小重構(gòu)誤差。因此可由式(6)求得稀疏系數(shù)向量ai的解。

        其中,參數(shù)λ用于控制重構(gòu)誤差與系數(shù)稀疏性之間的比例,具體求解方法詳見文獻[9]。在針對超像素單元iy進行稀疏重構(gòu)時,如果iy與字典中的某些基向量越接近,那么重構(gòu)誤差就越小,反之則越大。因為每個超像素屬于目標的概率與屬于背景的概率的和等于1,因此建立表達式為

        其中,ω1和ω2分別表示目標和背景兩個類別;P(ω1|yi)和P(ω2|yi)分別表示yi屬于目標和背景的后驗概率,如圖3(c),圖3(d)所示;和分別表示用目標字典D+和背景字典對yi重建后獲得的重構(gòu)誤差。如果yi屬于目標,那么必定大于,利用式(7)計算得到的P(ω1|yi)也必定會大于P(ω2|yi),顯然這符合yi屬于目標的假設;如果yi屬于背景,那么必定小于,利用式(7)計算得到的P(ω1|yi)也必定小于P(ω2|yi),這同樣符合yi屬于背景的假設。

        考慮到超像素塊內(nèi)像素特征的連續(xù)性和相似性,可認為每個像素s從屬于目標和背景的概率等于該像素所在的超像素iy從屬于目標和背景的概率。即

        根據(jù)貝葉斯定理,對矩形觀測區(qū)域內(nèi)的所有像素綜合考慮,即可以得到目標和背景在觀測區(qū)域內(nèi)的概率密度分布函數(shù)p(s|ωu),如式(9)所示。

        其中,s表示觀測區(qū)域內(nèi)的每個像素;p(s)表示像素的概率密度函數(shù);P(ω1)=1-P(ω2)表示類別的先驗概率。將t時刻的第l個候選框看作是一個分類器,即認為框內(nèi)區(qū)域為目標而框外區(qū)域為背景,則該分類器錯誤分類的加權(quán)平均風險可定義為

        其中,P1為對應的跟蹤框內(nèi)像素si,i=1,2,…,本屬于背景卻被錯分為目標的風險;P2為位于觀測區(qū)域內(nèi)但是卻并不屬于當前跟蹤框的像素本屬于目標卻被錯分為背景的風險。由于在跟蹤問題中,跟蹤框一般被定義為目標的最小外接矩形,因此模型更加希望使像素被錯分為背景的風險最小化,但考慮到實際問題中對于每個像素的后驗概率P(ωu|s)的估計可能存在誤差,僅考慮P2會降低算法的魯棒性,因此分別為P1和P2賦予權(quán)重λ1和λ2,一般情況下λ1<λ2,且λ1+λ2=1。綜合式(8)到式(10)可知,跟蹤問題已經(jīng)轉(zhuǎn)化為在貝葉斯框架下尋找一個跟蹤框使得R()達到最小的問題?,F(xiàn)以“bird”視頻的第6幀為例說明其合理性。圖4(a)給出了圍繞目標中心由小到大依次建立的21個候選框,圖4(b)中的3條曲線分別描述了利用本文方法對上述候選框計算得到的P1,P2和R(這里λ1=0.4, λ2=0.6),其中最小值Rmin=0.044對應的候選框就是在當前時刻對目標狀態(tài)的最優(yōu)估計,如圖4(c)所示。

        圖2 字典建立階段樣本類別標簽的判定

        圖3 跟蹤階段超像素后驗概率圖的生成

        圖4 平均風險估計值曲線及其最小化示意圖

        加權(quán)平均風險R可以看作是對錯誤分類概率的一種有偏估計,它可以用于估計目標局部模型pl(Yt|),為了與全局模型更好地融合,構(gòu)建如式(11)所示的基于局部特征的目標觀測模型。

        4.2 基于全局信息的產(chǎn)生式模型

        在獲得候選樣本局部模型的基礎上,為了更精確地跟蹤目標需要對目標的整體信息加以把握。在訓練階段通過提取跟蹤框內(nèi)圖像的色調(diào)、飽和度、亮度以及梯度共4個特征來建立目標的全局模板ht′,f(t′=1,2,…,m;f=1,2,…,4),其中f表示4種特征的索引。在跟蹤階段令,f=1,2,…,4表示對候選框提取的4個特征直方圖,則基于全局信息的觀測模型可由式(12)計算:其中,η表示權(quán)重參數(shù);φ表示擴散距離函數(shù),用來計算兩個直方圖向量的距離。

        5 字典更新策略

        字典更新可以分為樣本的選擇與基向量的更新兩部分。在樣本選擇階段,本文并未簡單地根據(jù)跟蹤框進行正負樣本的劃分,而是根據(jù)觀測區(qū)域內(nèi)的超像素塊iy在目標和背景字典上的重構(gòu)誤差和對其類別屬性做出判斷。如果<,則yi被劃分為正樣本,否則為負樣本。在基向量更新階段,引入稀疏主成分分析技術(shù)[15](Sparse Principal Component Analysis, SPCA)。與傳統(tǒng)的主成分分析不同,SPCA計算得到的基向量并非原始樣本的一般性線性組合,而是直接從樣本集中選取表征能力和互補性最強的樣本作為基向量。該方法在保持了稀疏表達類算法在超完備性和有效性方面的優(yōu)勢的同時,還能保證最后得到的基向量具有明確的物理含義,因此更適合應用于自然場景下的非特定目標跟蹤問題。

        令F=[f1f2… fN]表示由訓練樣本構(gòu)成的矩陣,那么A=FTF可以被定義為關(guān)于樣本的格拉姆(Gramian)矩陣,則SPCA的第1個基向量x*為

        其中,||x||0≤γ表示向量x中非零元素的個數(shù)小于等于γ 。為了減少約束項現(xiàn)將式(13)改寫為

        其中,ρ表示懲罰項,其值越大,x的稀疏度越高。使用文獻[15]可以對式(14)求解,解后便可以得到第1個稀疏特征向量1x,令1=AA,將1A,1x代入Ai+1=Ai-(Aixi)xix,i=1,2,…,n -1便可以得到A2,將A2代入式(14)可獲得第2個稀疏特征向量x2,將上述過程迭代n次便可以獲得n個特征向量x1,x2,…,xn。對于每個向量xi,如果其第c個元素xi(c)≠0,則選取F中第c個列向量fc作為字典的基向量。由于每個特征向量ix的計算相當于在F中選擇了γ個樣本,且不同的ix選擇的樣本不同,所以n次迭代共選擇nγ個樣本來建立字典D,表示為

        其中,dj表示字典的第j列。基于上述分析,可以發(fā)現(xiàn)基于SPCA學習的字典可以在全面表征目標表觀的同時避免冗余。在對其進行更新時,首先利用新獲得的樣本與舊字典一起構(gòu)建新樣本,之后通過對新樣本做SPCA便可以獲得更新后的字典。

        6 實驗分析

        實驗在Matlab R2012a環(huán)境下進行,采用簡單線性迭代聚類(Simple Linear Iterative Clustering, SLIC)[14]算法完成對圖像的分割,并利用色度-飽和度-亮度顏色空間下的歸一化直方圖作為特征來表征分割后獲得的超像素。SLIC算法包括超像素個數(shù)和空間近似權(quán)重兩個參數(shù),前者越小表示分得的超像素個數(shù)越少,后者越小表示分得的超像素內(nèi)部越光滑,圖像邊界信息保留的越好,在本文的所有實驗中兩者分別取10和300。式(4)中標準差取3~8,式(6)中λ取0.01,式(10)中sλ取1.50,式(12)中η取5,式(14)中ρ取90??紤]到基于全局信息的產(chǎn)生式模型主要強調(diào)特征的不變性,而基于局部信息的判別模型則對于目標和背景的變化比較敏感,因此本文算法只對局部模型使用的字典進行更新。在跟蹤的初始階段為了獲得訓練數(shù)據(jù),在第1幀目標初始位置由手動框出,后9幀通過開源的VLFeat庫函數(shù)對目標中心作出估計。

        6.1 定性分析

        為了驗證本文算法的有效性,文中給出了“bird”,“woman”視頻的測試結(jié)果,并分別與1范數(shù)(L1)算法[9]、視頻跟蹤分解(Visual Tracking Decomposition, VTD)算法[8]以及塊跟蹤(FragTrack)算法[16]做了比較。其中,L1算法是在稀疏表達框架下建立的基于全局信息的跟蹤算法;VTD算法是在模型分解基礎上建立的基于全局信息的跟蹤算法;FragTrack算法是在積分直方圖基礎上建立的基于局部信息的跟蹤算法,均與本文算法的提出背景具有相關(guān)性,與之相比較更能體現(xiàn)出本文算法的穩(wěn)定性和魯棒性。

        實驗 1 圖5給出了4種算法在“bird”視頻[13]上獲得的跟蹤結(jié)果。該視頻中目標發(fā)生了較大程度的姿態(tài)變化,而且受背景干擾嚴重。從第13幀開始VTD算法由于受到周圍幾只飛翔的小鳥的影響,跟蹤框開始發(fā)生漂移,直到第16幀目標完全從框內(nèi)消失;同樣受此干擾,L1算法獲得的結(jié)果從第49幀開始逐漸偏離目標的真實位置,直到第60幀跟蹤框完全漂移到背景上;FragTrack算法從第24幀開始只能跟蹤到部分目標,直到第72幀完全失效。與這3種算法相比,本文算法因為采用了局部與全局信息相融合的目標表示方法,因此獲得了更精準的跟蹤結(jié)果。

        實驗 2 圖6給出了4種算法在“woman”視頻[16]上獲得的跟蹤結(jié)果。該視頻中目標受到其它物體長時間的干擾和遮擋影響,整個視頻長度為530幀,待跟蹤的目標為行走的女士。從第120幀開始由于受到周圍白色轎車的干擾,VTD, L1以及FragTrack 3種算法的跟蹤結(jié)果均出現(xiàn)了漂移,直到第157幀3種算法完全失效。與這3種算法相比,本文算法由于在字典更新階段對樣本類別的判定增加了判斷機制,因此在面對較長時間遮擋以及背景干擾時依然能夠很好地捕捉到目標。

        6.2 定量分析

        4種算法在“bird”,“woman”兩段視頻上的定量對比分析如圖7所示,橫軸表示圖像幀數(shù),縱軸表示4種算法獲得的目標估計相比于目標真實位置的中心誤差,以像素為單位。為了保證實驗數(shù)據(jù)的可靠性,每個算法都運行5次并將求出的平均值作為最后的定位誤差。通過對圖5,圖6,圖7進行分析,可以看出本文算法很好地解決了目標在跟蹤過程中可能出現(xiàn)的各種變化,并取得了比較精確的結(jié)果。

        圖5 “bird”視頻序列跟蹤結(jié)果

        圖6 “woman”視頻序列跟蹤結(jié)果

        圖7 VTD算法、L1算法、FragTrack算法與本文算法跟蹤結(jié)果的定量對比

        7 結(jié)束語

        本文提出一種基于目標局部與全局信息相融合的魯棒跟蹤算法,通過分別計算每個候選樣本的觀測模型來確定最終的目標估計。在字典更新階段利用SPCA技術(shù)在添加新信息的同時刪除舊信息,從而更準確地對目標在跟蹤過程可能發(fā)生的各種變化做出描述,且保證字典的基向量間彼此互補。針對姿態(tài)變化、背景干擾、遮擋等情形,在真實場景視頻下對本文提出的算法進行測試,實驗結(jié)果表明,與其它算法相比本文算法具有更好的魯棒性,能夠更精準地定位目標。

        [1] Yilmaz A, Javed O, and Shah M. Object tracking: a survey[J]. ACM Computing Surveys, 2006, 38(4): 2371-2378.

        [2] Wang Dong, Lu Hu-chuan, and Yang Ming-hsuan. Least soft-threshold squares tracking[C]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Portland, USA, 2013: 2371-2378.

        [3] Yang Fan, Lu Hu-chuan, and Yang Ming-hsuan. Robust visual tracking via multiple kernel boosting with affinity constraints[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2014, 24(2): 242-254.

        [4] Comaniciu D, Member V, and Meer P. Kernel-based object tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(5): 564-575.

        [5] Grabner H and Bischof H. Online boosting and vision[C]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, New York, USA, 2006: 260-267.

        [6] Ling Hai-bin and Okada K. Diffusion distance for histogram comparison[C]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, New York, USA, 2006: 246-253.

        [7] Leichter I. Mean shift trackers with cross-bin metrics[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(4): 695-706.

        [8] Kwon J and Lee K. Visual tracking decomposition[C]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, San Francisco, USA, 2010: 1269-1276.

        [9] Mei Xue and Ling Hai-bin. Robust visual tracking and vehicle classification via sparse representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(11): 2259-2272.

        [10] Ross D, Lim J, Lin R, et al.. Incremental learning for robust visual tracking[J]. International Journal of Computer Vision, 2008, 77(1): 125-141.

        [11] Babenko B, Yang Ming-hsuan, and Belongie S. Robust object tracking with online multiple instance learning[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(8): 1619-1632.

        [12] Jia Xu, Lu Hu-chuan, and Yang Ming-hsuan. Visual tracking via adaptive structural local sparse appearance model[C]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Providence, USA, 2012: 1822-1829.

        [13] Yang Fan, Lu Hu-chuan, and Yang Ming-hsuan. Robust superpixel tracking[J]. IEEE Transactions on Image Processing, 2014, 23(4): 1639-1651.

        [14] Achanta R, Shaji A, Smith K, et al.. SLIC superpixels compared to state-of-the-art superpixel methods[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(11): 2274-2282.

        [15] D’Aspremont A, Ghaoui L, Jordan M, et al.. A direct formulation for sparse PCA using semidefinite programming[J]. Society for Industrial and Applied Mathematics (SIAM) Review, 2007, 49(3): 434-448.

        [16] Adam A, Rivlin E, and Shimshoni I. Robust fragments-based tracking using the integral histogram[C]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, New York, USA, 2006: 798-805.

        齊苑辰: 女,1983年生,博士生,研究方向為計算機視覺、智能視頻監(jiān)控、機器學習.

        吳成東: 男,1960年生,博士,教授,博士生導師,研究方向為圖像智能處理、無線傳感器網(wǎng)絡、建筑智能化技術(shù)、機器人控制、多源信息融合.

        陳東岳: 男,1980年生,博士,副教授,研究方向為圖像數(shù)據(jù)挖掘、仿生視覺計算模型、目標檢測跟蹤與識別技術(shù).

        Superpixel Tracking Based on Sparse Representation

        Qi Yuan-chen Wu Cheng-dong Chen Dong-yue Lu Yun-song
        (College of Information Science and Engineering, Northeastern University, Shenyang 110819, China)

        A novel tracking algorithm is proposed that can work robustly in real-world scenarios, in order to overcome the problems associated with severe changes in pose, motion and occlusion. A discriminative model based on the superpixels and a generative model based on global color and gradient features are constructed respectively. Through combining these two models, the distinguishing and invariance of target appearance features description are increased. Furthermore, an update strategy based on sparse principal component analysis is proposed, which can reduce the redundancy of feature dictionary when it updates. A discrimination mechanism is added in the update process of discriminative model to alleviate the drift problem. The experimental results demonstrate that the proposed algorithm performs more stable and robustly compared with several state-of-the-art algorithms when dealing with complex situations such as pose variation, background interference, and occlusion.

        Computer vision; Object tracking; Sparse representation; Superpixel segmentation; Sparse principal component analysis

        TP391.4

        A

        1009-5896(2015)03-0529-07

        10.11999/JEIT140374

        2014-03-19收到,2014-07-14改回

        國家自然科學基金(61273078, 61005032),中央高?;究蒲袠I(yè)務費(N1106040065032),國家科技支撐計劃項目(2013BAK02B01-02)和遼寧省科技計劃項目(2013231025)資助課題

        *通信作者:齊苑辰 qiyuanchen649@163.com

        猜你喜歡
        背景模型
        一半模型
        “新四化”背景下汽車NVH的發(fā)展趨勢
        《論持久戰(zhàn)》的寫作背景
        當代陜西(2020年14期)2021-01-08 09:30:42
        重要模型『一線三等角』
        黑洞背景知識
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        晚清外語翻譯人才培養(yǎng)的背景
        3D打印中的模型分割與打包
        背景鏈接
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        国产美女高潮流的白浆久久| 五月激情综合婷婷六月久久| 女人被男人爽到呻吟的视频| 成年女人免费视频播放体验区 | av网站免费线看精品| 成年女人a级毛片免费观看| 性色av闺蜜一区二区三区| 亚洲中文字幕乱码| 蜜桃视频中文字幕一区二区三区| 少妇被躁到高潮和人狍大战| 欧洲美女黑人粗性暴交视频| 国产无遮挡又爽又刺激的视频老师| 国产精品久久久久久久久免费| 人妻无码aⅴ中文系列久久免费| 一本色道亚州综合久久精品| 精品少妇人妻av一区二区蜜桃 | 草逼视频免费观看网站| 亚洲精品国产精品乱码在线观看| 国产97在线 | 中文| 午夜一级韩国欧美日本国产| 91久久国产自产拍夜夜嗨| 亚洲国产精品第一区二区三区 | 性色av一区二区三区密臀av| 青青青免费在线视频亚洲视频| 极品美女扒开粉嫩小泬图片| 一本久久伊人热热精品中文字幕| 日本午夜免费福利视频| 无码中文字幕av免费放| 青青青草视频手机在线| 一边摸一边做爽的视频17国产| 亚洲精品无码久久久久av老牛| 六月丁香久久| 最新国产成人自拍视频| 国产 一二三四五六| 国产三级在线观看播放视频| 亚洲综合综合在线| 成人黄色片久久久大全| 少妇被猛烈进入到喷白浆| 国产成人无码一区二区在线观看| 免费一区啪啪视频| 日韩精品极品视频在线观看蜜桃|