朱文青,劉 艷,卞 樂,張子龍
(1.河海大學(xué)物聯(lián)網(wǎng)工程學(xué)院,常州213022; 2.常州市傳感網(wǎng)與環(huán)境感知重點(diǎn)實(shí)驗(yàn)室,常州213022)
基于生成式模型的目標(biāo)跟蹤方法綜述
朱文青1,2,劉 艷1,2,卞 樂1,2,張子龍1,2
(1.河海大學(xué)物聯(lián)網(wǎng)工程學(xué)院,常州213022; 2.常州市傳感網(wǎng)與環(huán)境感知重點(diǎn)實(shí)驗(yàn)室,常州213022)
目標(biāo)跟蹤技術(shù)因其在視頻監(jiān)控、人機(jī)交互以及交通檢測等實(shí)際應(yīng)用中有著廣泛的應(yīng)用,一直是計(jì)算機(jī)視覺領(lǐng)域研究的熱點(diǎn)之一。傳統(tǒng)的判別式算法通過分類器從背景中找出與目標(biāo)最為相似的區(qū)域。為了取得更好的跟蹤效果,近年來越來越多的學(xué)者采用生成式算法跟蹤目標(biāo)。首先對生成式方法和判別式方法對比分析,針對生成式算法中的兩個最核心問題—目標(biāo)表示方法、目標(biāo)模型—的研究現(xiàn)狀通過分為不同的類別進(jìn)行縱橫對比綜述,然后分類描述出了2008年至2014年出現(xiàn)的效果比較好的生成式算法,最后對基于生成式模型目標(biāo)跟蹤的未來進(jìn)行展望。
判別式方法;生成式方法;生成式模型;目標(biāo)跟蹤;目標(biāo)模型;目標(biāo)表示方法
基于生成式模型的目標(biāo)跟蹤方法(Generative Method,簡稱為生成式方法)是相對于基于判別式模型的目標(biāo)跟蹤方法(Discriminative Method,簡稱為判別式方法)而言的??啥x為:先提取目標(biāo)特征學(xué)習(xí)出代表目標(biāo)的外觀模型,通過它搜索圖像區(qū)域進(jìn)行模式匹配,在圖像中找到和模型最匹配的區(qū)域,即為目標(biāo)。它是智能視頻監(jiān)控、人機(jī)交互和智能交通[1-4]等應(yīng)用中的第一步,近年來在軍事制導(dǎo)、醫(yī)療診斷、氣象分析及天文檢測等新興領(lǐng)域已得到廣泛應(yīng)用[5-6]。跟蹤目標(biāo)具有多樣性和不確定性,外觀易受亮度變化、遮擋、背景、尺寸和形變等內(nèi)在因素和外在因素的影響,使得基于生成式模型的目標(biāo)跟蹤成為計(jì)算機(jī)視覺的研究難點(diǎn)和熱點(diǎn)。
自2013年以來,目標(biāo)跟蹤數(shù)據(jù)庫(315個測試集,包括灰度圖像和彩色圖像[7])趨于大規(guī)模化,評價(jià)標(biāo)準(zhǔn)趨于全面、實(shí)時性要求更高。生成式模型所攜帶的目標(biāo)信息更豐富,在處理大量數(shù)據(jù)信息時更容易滿足目標(biāo)跟蹤的評價(jià)標(biāo)準(zhǔn)和目標(biāo)跟蹤的實(shí)時性要求。但目前還沒有專門針對基于生成式模型算法的研究綜述,缺乏對生成式算法共性問題的總結(jié)和對比剖析。Andrew Y.Ng[8]等對比了生成式方法和判別式方法,但沒有從目標(biāo)模型角度對生成式方法做深度剖析。文獻(xiàn)[2]對引入視覺注意機(jī)制的目標(biāo)跟蹤方法進(jìn)行綜述;Smeulders[9]等人對性能較好的19個跟蹤器分類并在315個測試集上進(jìn)行性能比較;文獻(xiàn)[1,3]只是總結(jié)了在某一特定場景下的目標(biāo)跟蹤技術(shù)狀況,但都只是從不同側(cè)面對目標(biāo)跟蹤技術(shù)進(jìn)行梳理,缺少對生成式方法研究現(xiàn)狀全面深入的剖析。
針對這些問題,首先對生成式方法和判別式方法做對比,然后就生成式方法中的最核心問題—目標(biāo)表示方法、目標(biāo)模型—進(jìn)行綜述。首先將這兩個問題的處理方法分為不同類別并從縱橫兩個方向?qū)Ρ确治?,然后對比了近幾年出現(xiàn)的跟蹤效果比較好的幾種算法(篇幅有限,主要總結(jié)了2008至2014這段時間內(nèi)的生成式方法),最后對生成式算法的發(fā)展前景進(jìn)行展望。
目前出現(xiàn)的目標(biāo)跟蹤算法大部分可分為生成式與判別式兩大類。生成式算法框架如圖1所示,通過建立目標(biāo)模型將現(xiàn)實(shí)世界中的目標(biāo)通過計(jì)算機(jī)視覺中的目標(biāo)表示方法進(jìn)行描述,在新的圖像幀中搜索與目標(biāo)外觀模型最相似的區(qū)域。判別類的跟蹤算法對目標(biāo)提取具有判別性的特征,采用機(jī)器學(xué)習(xí)中分類的方法來找出與目標(biāo)最為相似的區(qū)域。兩類算法的性能對比如表1所示。
圖1 生成式算法框架
表1 生成式方法與判別式算法性能對比
3.1 稀疏表示
近年來,稀疏表示被廣泛地應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域。受到Wright等提出的基于稀疏表示人臉識別方法的啟發(fā)[10-11],Mei和Ling[12]將稀疏表示運(yùn)用到目標(biāo)跟蹤中。利用L1范數(shù)最小化進(jìn)行求解得到候選目標(biāo)的稀疏表示;利用稀疏表示的重構(gòu)誤差作為候選目標(biāo)的權(quán)重,將最大權(quán)重的候選目標(biāo)選為跟蹤結(jié)果。然而,L1跟蹤器存在一些不足:對線性表示的稀疏性假設(shè)并不是在任何情況下都成立,當(dāng)候選樣本是背景區(qū)域或者發(fā)生部分遮擋時,整個系數(shù)不再稀疏,求解L1范數(shù)最小化就不合理;計(jì)算復(fù)雜度高,L1跟蹤器要對每個候選樣本求解一次L1范數(shù)最小化,每一次求解都比較耗時。在粒子濾波中,候選樣本的個數(shù)通常比較多,求解大量的L1范數(shù)最小化會大大增加算法的計(jì)算時間,影響算法的實(shí)時性。
針對以上問題,大量學(xué)者探討運(yùn)用不同的方法把稀疏表示用于目標(biāo)跟蹤中。Bao[13]等提出將加速近似梯度 (APG)方法用于求解L1范數(shù)最小化問題;Zhang[14]等提出一種多任務(wù)稀疏學(xué)習(xí)方法來改進(jìn)跟蹤算法。在這期間,人臉識別領(lǐng)域的一些研究者用L2范數(shù)最小化代替L1范數(shù)最小化進(jìn)行實(shí)驗(yàn),取得了和原來算法接近或者更高的識別率,同時計(jì)算復(fù)雜度遠(yuǎn)低于L1范數(shù)最小化?;诖?2012年,Xiao[15]等提出了一種快速有效的基于L2正則化的目標(biāo)跟蹤算法,用PCA基向量和分塊模板來建立目標(biāo)的表觀模型,再通過L2范數(shù)最小化來求解,在不損失精度的情況下大大提高了算法的計(jì)算速度??偟膩碚f,基于線性表示模型的稀疏表示跟蹤算法,在實(shí)驗(yàn)中表現(xiàn)出了較強(qiáng)的抗遮擋跟蹤性能。雖然基于此類模型的算法表現(xiàn)出了良好的抗遮擋跟蹤性能,但大多無法實(shí)現(xiàn)對目標(biāo)的實(shí)時在線跟蹤。
3.2 基于線性子空間的目標(biāo)表示方法
基于線性子空間的目標(biāo)跟蹤算法其實(shí)是子空間表示方法在目標(biāo)跟蹤領(lǐng)域上的延展。Black等人早在1996年就提出了基于子空間表示的目標(biāo)跟蹤算法。通過采集特定的圖像序列并使用PCA分析建立線性表示子空間來對目標(biāo)進(jìn)行表示,訓(xùn)練集中包含了不同角度的目標(biāo),所以子空間能夠?qū)δ繕?biāo)進(jìn)行多角度的表示。當(dāng)目標(biāo)外觀變化不明顯時,該算法能夠取得良好的效果,若目標(biāo)外觀具有明顯的變化,學(xué)習(xí)到的子空間無法對目標(biāo)進(jìn)行良好的表示,會出現(xiàn)很大的跟蹤誤差甚至?xí)櫴?,同時若要獲得良好的目標(biāo)表示能力,需要大量的圖像進(jìn)行訓(xùn)練,而這限制了該算法的適用性。
Ross等學(xué)者[16]提出的增量視覺跟蹤(IVT)算法,僅僅需要少量的訓(xùn)練樣本來學(xué)習(xí)目標(biāo)初始的外觀模型,在跟蹤過程中對目標(biāo)外觀模型進(jìn)行在線更新,從而避免了需要大量訓(xùn)練樣本的要求,同時能夠適應(yīng)由光照等干擾造成的目標(biāo)外觀輕微變化的影響。但是該算法無法有效抵擋遮擋這樣嚴(yán)重改變目標(biāo)外觀的干擾因素。
4.1 混合高斯模型
近年來,很多學(xué)者[17-18]針對視頻背景發(fā)生變化的情況提出來各種背景建模解決方法,混合高斯模型(Gaussians Mixture Model,GMM)是其中較為有效的一種[19-20]。在混合高斯模型中,每個像素點(diǎn)的顏色特征使用K(一般為3到5)個高斯分布函數(shù)來表征,這些分布函數(shù)組成了GMM的概率密度函數(shù),在獲得每幀新的圖像時對高斯參數(shù)進(jìn)行更新。概率密度分布函數(shù)如下所示:
用當(dāng)前圖像的每個像素點(diǎn)來匹配混合高斯模型,如果成功了就判斷該點(diǎn)屬于背景點(diǎn),否則為前景點(diǎn)。每個高斯模型都由方差和均值來決定,根據(jù)不同的學(xué)習(xí)機(jī)制對均值和方差進(jìn)行學(xué)習(xí),這些機(jī)制將影響到模型的精確性、穩(wěn)定性和收斂性?;旌细咚鼓P驮趹敉鈼l件下獲得了很好的特性。盡管混合高斯方法取得了比之前方法更好的效果,但是也存在明顯缺陷,如對運(yùn)動的背景較難分辨,對光線環(huán)境突變的適應(yīng)性不強(qiáng),以及較大的運(yùn)算量等。
4.2 貝葉斯網(wǎng)絡(luò)模型
近年來,基于貝葉斯框架的目標(biāo)檢測算法[15,19,20]得到了人們廣泛研究,并取得了較好成果。其中較著名的有[19],提出了使用貝葉斯規(guī)則進(jìn)行目標(biāo)檢測的方法。能在緩慢變化的光線和迅速變化光線環(huán)境下工作。其一個優(yōu)越的方面是,通過選擇恰當(dāng)?shù)奶卣鳎ㄎ闹惺褂玫氖穷伾卣骱皖伾珔f(xié)同特征),在貝葉斯規(guī)則的判斷下,不同類型的目標(biāo)(包括運(yùn)動的和靜止的目標(biāo))都能被檢測出來,而同時,運(yùn)動的背景場景也能被忽略掉。取得的效果優(yōu)于同期之前的大部分目標(biāo)檢測方法。后來,基于貝葉斯框架的視頻目標(biāo)檢測算法越來越多,典型的如[15,20]等。
4.3 馬爾可夫模型(MRF)
馬爾可夫隨機(jī)場,是概率圖模型的一種,在變量關(guān)系的依賴形式上和貝葉斯框架相似。但是馬爾可夫模型可以用來表示一些具有特定依賴關(guān)系的變量集合,而貝葉斯模型卻無法做到(比如帶環(huán)的依賴關(guān)系);另外,有些特殊的變量依賴關(guān)系貝葉斯網(wǎng)能表示而它不能(比如節(jié)點(diǎn)的父子關(guān)系)。近年來,隨著人們對問題的深入研究,提出了兩種全新的高效算法來求解馬爾可夫隨機(jī)場模型:BP算法和GC算法。
近年來,基于MRF的視覺信息處理受到了很大關(guān)注,在圖像分割、圖像還原以及目標(biāo)跟蹤、目標(biāo)檢測、立體視覺等方面提出了很多有效的算法[21-23],并得到了廣泛應(yīng)用,同時也為進(jìn)一步拓寬MRF在視覺信息處理領(lǐng)域的應(yīng)用奠定了基礎(chǔ)。當(dāng)MRF用于目標(biāo)跟蹤時,需要考慮當(dāng)前幀圖像和其前后幀之間的關(guān)系。文獻(xiàn)[24]提出一種基于MRF模型的目標(biāo)檢測算法,通過建立圖像的時間和空間相關(guān)信息對變化的背景建模,同時利用圖像顏色一致性和運(yùn)動的平滑性以及混合模型中的BP算法來解決模型的學(xué)習(xí)和估計(jì)問題。此外,文獻(xiàn)[25]討論了不同的MRF模型參數(shù)的選取對目標(biāo)檢測結(jié)果的影響,同時通過對基于BP算法下的MRF和之前的經(jīng)典運(yùn)動歷史圖(MHI)算法的詳細(xì)比較說明了MRF算法在目標(biāo)跟蹤上的高效性和準(zhǔn)確性。
為了闡述生成式算法的發(fā)展現(xiàn)狀,選擇了8個近幾年出現(xiàn)的基于生成式模型的經(jīng)典目標(biāo)跟蹤算法(優(yōu)缺點(diǎn)對比見表2),并分為三類:固定模型生成-匹配、擴(kuò)展模型生成-匹配-更新-匹配、基于稀疏表示的生成式模型,總結(jié)了當(dāng)前生成式算法的生成范式。
5.1 固定模型生成-匹配
基于固定模型生成-匹配方式的生成式算法根據(jù)目標(biāo)特征生成固定模型。
局部無序跟蹤 (Locally Orderless Tracking, LOT)[26]:局部無序跟蹤是一種可視化的跟蹤算法,使用地球移動器的距離(EMD)參數(shù)實(shí)現(xiàn)局部無須匹配(LOM),從而提出一種通過估計(jì)和調(diào)整在線跟蹤對象的剛性程度,自動估計(jì)出每一幀圖像區(qū)域中局部有序或局部無須數(shù)量的算法。LOT主要針對的是外觀發(fā)生變化的目標(biāo),但是在應(yīng)對光照變化時跟蹤性能較差。
分布式跟蹤場(Distribution Fields for Tracking,DFT)[27]:Sevilla-Lara等人采用一種新穎的分布場目標(biāo)表示方法,并將其引入到目標(biāo)跟蹤領(lǐng)域。首先通過對圖像自然分層,保留原始圖像的基本信息,通過對圖像各層以及層間進(jìn)行高斯平滑后,在目標(biāo)表示中引入模糊性,在一定程度上克服了形變和光照等變化的影響。最后,基于分布場的目標(biāo)表示,利用L1距離和梯度下降算法進(jìn)行跟蹤,在一些具有挑戰(zhàn)性的視頻序列中獲得了很好的結(jié)果。但是跟蹤速度還有待提高,而且極易陷入局部極優(yōu)解的不足。
基于全局搜索的實(shí)時分布場目標(biāo)跟蹤方法[28]:在分布場目標(biāo)跟蹤算法[27]中,在圖像域進(jìn)行匹配,采用梯度下降法檢測目標(biāo),然而[27]本身是一種求局部最優(yōu)解的方法,按照梯度下降方向搜索,當(dāng)出現(xiàn)極小值的時候停止搜索,部分降低運(yùn)算量。但由于目標(biāo)函數(shù)是非凸的,梯度下降法在具體跟蹤過程中只是根據(jù)上一幀檢測得到目標(biāo)的最大響應(yīng)位置,在當(dāng)前幀中從此位置開始在有限的區(qū)域內(nèi)計(jì)算L1范數(shù)搜索目標(biāo),這樣對于目標(biāo)運(yùn)動相對比較快的情況,在有限區(qū)域搜索易于陷入局部最優(yōu)解,限制了跟蹤效果。
為了提高分布場跟蹤算法的速度和克服其易陷入局部極優(yōu)解的不足,采用相關(guān)系數(shù)代替原始算法的L1范數(shù)度量目標(biāo)分布場與候選區(qū)域分布場的距離,運(yùn)用傅里葉變換,將相關(guān)系數(shù)從計(jì)算復(fù)雜度高的時域轉(zhuǎn)換到計(jì)算復(fù)雜性低的頻域,實(shí)現(xiàn)一次性計(jì)算搜索區(qū)域所有候選子窗口的相關(guān)系數(shù)。由于進(jìn)行全局搜索匹配可以解決原始分布場局部搜索的缺點(diǎn),同時又大大減少了運(yùn)算量,提高了速度,滿足了實(shí)時性要求。優(yōu)點(diǎn)是繼承了分布場算法的處理模糊和保持空間結(jié)構(gòu)敏感性等優(yōu)點(diǎn),對長時間大范圍遮擋、復(fù)雜背景變化和目標(biāo)與背景比較相似等場景時表現(xiàn)出優(yōu)良特性,但是在目標(biāo)匹配不準(zhǔn)確引起的跟蹤漂移問題上沒有得到有效解決。
5.2 擴(kuò)展模型生成-匹配-更新-匹配
將之前所有幀的目標(biāo)信息都用于模型(擴(kuò)展模型)的生成和更新,特別是對于長時間的目標(biāo)跟蹤而言。目標(biāo)模型的實(shí)時更新使得在面對各種干擾因素(遮擋,目標(biāo)旋轉(zhuǎn),尺度變化,光照變化等)時均能提高目標(biāo)跟蹤的精度和魯棒性。
增量視覺跟蹤(Incremental Visual Tracking, IVT)[16]:為了能夠?qū)δ繕?biāo)外觀模型進(jìn)行在線更新,Ross等學(xué)者[16]提出了基于增量PCA的目標(biāo)跟蹤算法,即增量視覺跟蹤 (Incremental Visual Tracking, IVT)算法,利用一個低維的主成分分析子空間來對感興趣的目標(biāo)進(jìn)行描述。在跟蹤中采用增量PCA算法來高效地學(xué)習(xí)以及更新PCA子空間,從而有效地適應(yīng)目標(biāo)在跟蹤過程中出現(xiàn)的外觀變化的情況,對目標(biāo)外觀進(jìn)行在線估計(jì)。其中運(yùn)動模型采用了廣泛應(yīng)用于目標(biāo)跟蹤中的粒子濾波模型[29-31],其中仿射參數(shù)的個數(shù)設(shè)置為6個,外觀模型采用了增量主成分分析模型。實(shí)驗(yàn)結(jié)果表明基于增量PCA模型的增量視覺跟蹤算法能夠很好地適應(yīng)因受到光照變化以及姿態(tài)變化而造成的目標(biāo)外觀改變的情況,對此類目標(biāo)具有良好的跟蹤效果。但是,當(dāng)遇到因?yàn)檎趽醵斐赡繕?biāo)外觀嚴(yán)重改變時,增量視覺跟蹤方法就無法取得良好的效果。
5.3 基于稀疏表示的生成式模型
最近幾年出現(xiàn)了很多基于稀疏表示的生成式目標(biāo)模型類的文獻(xiàn),通過對目標(biāo)特征的稀疏化表示實(shí)現(xiàn)稀疏最優(yōu)化,在提高跟蹤實(shí)時性方面有很好的效果。
基于最小L1范數(shù)的魯棒性目標(biāo)跟蹤算法(Robust Visual Tracking using L1 Minimization)[32]:根據(jù)L1范數(shù)對目標(biāo)實(shí)現(xiàn)稀疏最優(yōu)化,首先在目標(biāo)周圍區(qū)域抽樣得到的目標(biāo)窗口中根據(jù)灰度值進(jìn)行目標(biāo)的稀疏表示,非目標(biāo)區(qū)域的圖像灰度值可以根據(jù)需要采用。由上一幀目標(biāo)位置的周圍區(qū)域,根據(jù)粒子濾波從高斯分布中得到下一幀的備選目標(biāo)位置窗口。在所有的備選目標(biāo)位置窗口中選擇出最小L1錯誤率的新目標(biāo)區(qū)域,即為下一幀的目標(biāo)位置。雖然能夠有效抵擋遮擋等干擾因素,但是算法的實(shí)時性能很差。
基于分解的目標(biāo)跟蹤(Visual Tracking Decomposition,VTD)[33]:把目標(biāo)的跟蹤問題看做貝葉斯概率分布問題。在算法過程中,總體的觀測模型被分解成多個基本觀測模型,而這些分解的觀測模型是由s-PCA分析一組特征模板構(gòu)建而來,每個基礎(chǔ)外觀模型針對某一特定的外觀變化。在VTD中,s-PCA第一次被用來尋找包含聯(lián)合多特征的目標(biāo)模型,其中每一個目標(biāo)模型對應(yīng)一個基本的觀測模型。被選出來的基本觀測模型解釋了目標(biāo)外形的大多數(shù)變化,使得VTD在應(yīng)對多方面的外形變化時相當(dāng)魯棒。但是在現(xiàn)實(shí)環(huán)境中,無法確信r個基本外觀模型和s個基本行為模型的組合可以應(yīng)對現(xiàn)實(shí)環(huán)境的多變性和復(fù)雜性,而且硬性的固定模型個數(shù)太過死板。
采 樣 跟 蹤(Tracking by Sampling Trackers,VTS)[34]:跟VTD算法一樣,把目標(biāo)跟蹤問題看作貝葉斯概率分布問題。思想框架是把目標(biāo)外觀模型(基于 s-PCA)、目標(biāo)行為模型(K-Harmonic Means, KHM)、狀態(tài)表示模型和觀測模型四個模塊組合成為VTS抽樣算法。根據(jù)抽樣原理,對各個已建立的模板和各個模板所對應(yīng)的目標(biāo)狀態(tài)抽樣,選擇出CMAP(Conditioned Maximum a Posteriori)值最大的抽樣模板。它是抽樣原理算法中跟蹤魯棒性最好的算法,而且同時估計(jì)出下一幀中目標(biāo)的狀態(tài)(位置信息)。VTS將目標(biāo)狀態(tài)和算法的更新相結(jié)合,以得到更具魯棒性的算法,但是在實(shí)時性方面效果不好。
表2 八種跟蹤算法的優(yōu)缺點(diǎn)對比
基于多任務(wù)稀疏學(xué)習(xí)的魯棒性目標(biāo)跟蹤算法(Robust Visual Tracking via Multi-Task Sparse Learning,MTT)[35]:很多基于粒子濾波框架的跟蹤器[24-26]計(jì)算復(fù)雜度都是隨著抽樣粒子數(shù)目的增加而線性增加的,這就使得這些跟蹤器在現(xiàn)實(shí)跟蹤場景中的跟蹤實(shí)時性方面出現(xiàn)了瓶頸。主要是都假設(shè)各粒子之間是互相獨(dú)立的,忽略了它們之間的相互關(guān)系。MTT與其他算法不同的是根據(jù)各粒子之間的相似性,利用少量的字典模板表示每一幀中的所有粒子,根據(jù)混合規(guī)范的正規(guī)化矩陣對粒子表示模型進(jìn)行聯(lián)合稀疏計(jì)算,并利用APG(Accelerated Proximal Gradient)原理保證快速收斂以達(dá)到速度最優(yōu)化。MTT相對于算法[29-31]的改進(jìn)點(diǎn)就是降低了計(jì)算復(fù)雜度以提高跟蹤速度,而且跟蹤精度也有所提高。
對近幾年出現(xiàn)的基于生成式模型的目標(biāo)跟蹤算法進(jìn)行綜述,首先對生成式算法和判別式算法對比分析,并對比分析近幾年出現(xiàn)的效果比較好的生成式算法,然后總結(jié)出生成式算法常用的目標(biāo)模型,并對常用的目標(biāo)表示方法對比分析。雖然近幾年基于生成式模型的目標(biāo)跟蹤算法在跟蹤準(zhǔn)確度、魯棒性和速度方面得到了提高,但是距離實(shí)用性還依然很遙遠(yuǎn)。未來對生成式目標(biāo)跟蹤技術(shù)的研究需要從以下幾個方面著手:
(1)多視角和遮擋問題
目前大部分目標(biāo)跟蹤的研究為單目視覺,在單目視覺下多視角和遮擋問題很難解決。因此,可以采用多攝像機(jī)或利用深度信息來檢測目標(biāo)。同時在多攝像機(jī)下,目標(biāo)的外觀變化較易獲取,得到的目標(biāo)模型也更準(zhǔn)確,更能切合原始目標(biāo)。因此下一步可探討多視角中基于生成式模型的目標(biāo)檢測。
(2)特殊場景下的目標(biāo)跟蹤問題
一個具有較好魯棒性的目標(biāo)跟蹤算法必須能夠在特殊環(huán)境(比如雨雪等惡劣天氣、水下等)下工作,系統(tǒng)必須能對部分遮擋、分辨率低、光照變化、目標(biāo)旋轉(zhuǎn)等的目標(biāo)進(jìn)行準(zhǔn)確檢測,并保持較高的跟蹤精度。
(3)設(shè)計(jì)基于生成式模型的自適應(yīng)能力更強(qiáng)的跟蹤器
目前大多數(shù)研究者的目標(biāo)是構(gòu)建通用跟蹤器,而在特殊場景下如何利用增量式學(xué)習(xí)、在線學(xué)習(xí)等算法,將通用的基于生成式的目標(biāo)跟蹤算法遷移到特殊場景中,使得跟蹤器在跟蹤過程中通過自學(xué)習(xí)提高性能將是未來的研究重點(diǎn)。
總之,基于生成式模型的目標(biāo)跟蹤是當(dāng)今計(jì)算機(jī)視覺領(lǐng)域的核心難點(diǎn)問題,其解決具有重要的理論意義和良好的應(yīng)用前景,也吸引了大量的研究人員投入該領(lǐng)域進(jìn)行研究。雖然取得了一定成效,但有效的解決真實(shí)復(fù)雜場景下的目標(biāo)跟蹤問題,還有待進(jìn)一步的研究。
[1]楊峰,王永齊,梁彥,等.基于概率假設(shè)密度濾波方法的多目標(biāo)跟蹤技術(shù)綜述 [J].自動化學(xué)報(bào),2013,39(11): 1944-1956. Yang Feng,Wang Yongqi,Liang Yan,et.al.A Survey of PHD Filter Based Multi-target Tracking[J].Acta Automatica Sinica,2013,39(11):1944-1956.
[2]黎萬義,王鵬,喬紅.引入視覺注意機(jī)制的目標(biāo)跟蹤方法綜述[J].自動化學(xué)報(bào),2014(4):561-576. Li Wanyi,Wang Peng,Qiao Hong.A Survey of Visual Attention Based Methods for Object Tracking[J].Automatica Sinica,2014(4):561-576.
[3]薛陳,朱明,劉春香.遮擋情況下目標(biāo)跟蹤算法綜述[J].中國光學(xué)與應(yīng)用光學(xué),2009(5):388-394. Xue Chen,Zhu Ming,Liu Chunxiang.Review of tracking algorithms under occlusions[J].Chinese Optics and Applied Optics Abstracts,2009(5):388-394.
[4]邵文坤,黃愛民,韋慶.目標(biāo)跟蹤方法綜述 [J].影像技術(shù), 2006(1):17-20. Shao Wenkun,Huang Aimin,Wei Qing.Research on object tracking[J].Image Technology,2006(1):17-20.
[5]K.Cannons.A Review of Visual Tracking.Technical Report CSE-2008-07[R].[S.1.].Department of Computer Science and Engineering,York University,Canada,2008.
[6]F.Tang,S.Brennan,Q.Zhao et.al.Co-Tracking using semi-supervised support vector machines[C].//IEEE 11th International Conference on Computer Vision.Rio de Janeiro, BRAZIL:IEEE International Conference on Computer Vision,2007.
[7]A.Yilmaz,O.Javed,M.Shah.Object Tracking:A Survey[J]. ACM Computing Surveys,2006,38(4):1-45.
[8]A.Y.Ng,M.I.Jordan.On discriminative vs.generative classifiers:a comparison of logistic regression and naive Bayes[C].//15th Annual Conference on Neural Information Processing Systems(NIPS).Vancouver,Canada:Advances in neural information processing systems,2001.
[9]A.W.M.Smeulders,D.M.Chu,R.Cucchiara et.al.Visual Tracking:An Experimental Survey[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2014,36(8):1442.
[10]A.Y.Yang,S S.Sastry,A.Ganesh,et al.Fast 1-minimization algorithms and an application in robust face recognition:a review[C].//IEEE International Conference on Image Processing.Hong Kong:IEEE International Conference on Image Processing,2010.
[11]J.Wright,Yang A Y,Ganesh A,et al.Robust face recognition via sparse representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(2): 210-227.
[12]X.Mei,H.Ling,Y.Wu,et al.Efficient minimum error bounded particle resampling L1 tracker with occlusion detection[J].IEEE Transactions on image Processing,2013,22(2):2661-2675.
[13]C L Bao,Y Wu,H Ling,et al.Real time robust L1 tracker using accelerated proximal gradient approach[C].//IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Providence,RI:2012 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2012.
[14]T Z Zhang,B Ghanem,S Liu,et al.Robust visual tracking via multi-task sparse learning[C].//IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Providence,RI:2012 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2012.
[15]Z Y Xiao,H Lu,D Wang.Object tracking with L2-RLS[C]. //21st International Conference on Pattern Recognition (ICPR).Univ Tsukuba,Tsukuba,JAPAN:International Conference on Pattern Recognition(ICPR),2012.
[16]D A Ross,J Lim,R Lin,et al.Incremental learning for robust visual tracking[J].International Journal of Computer Vision,2008,77(1-3):125-141.
[17]P Kaew Tra Kul Pong,R Bowden.An improved adaptive background mixture model for real-time tracking with shadow detection[M].US:Video-Based Surveillance Systems, 2002.
[18]L Li,W Huang,I Y H Gu,et al.Foreground object detection from videos containing complex background[C].//International conference on Multimedia and Expo.ACM,San Jose,2003.
[19]O Tuzel,F Porikli,P Meer.A bayesian approach to background modeling[C].//IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2005.
[20]A B Godbehere,A Matsukawa,K Goldberg.Visual tracking of human visitors under variable-lighting conditions for a responsive audio art installation [C].//American Control Conference(ACC),2012:4305-4312.
[21]Z Zivkovic.Improved adaptive Gaussian mixture model for background subtraction[C].//IEEE Conference on Computer Vision and Pattern Recognition(CVPR).British Machine Vis Assoc,Cambridge,England:IEEE International Conference on Computer Vision,2004.
[22]T Bouwmans,F El Baf,B Vachon.Background modeling using mixture of gaussians for foreground detection-a survey [J].Recent Patents on Computer Science,2008,1(3): 219-237.
[23]張汝云,許明艷,江濤.一種基于隱馬爾科夫模型的目標(biāo)軌跡跟蹤算法 [J].計(jì)算機(jī)應(yīng)用研究,2013,30(5): 1455-1470. Zhang Ruyun,Xu Mingyan,Jiang Tao.A partial CSI based affinity propagation dynamic clustering algorithm[J].Application Research of Computers,2013,30(5):1455-1470.
[24]M F Tappen,W T Freeman.Comparison of graph cuts with belief propagation for stereo,using Identical MRF parameters[C].//IEEE International Conference on Computer Vision. Nice,France:Ninth IEEE International Conference on Computer Vision,2003.
[25]Z Yin,R Collins.Belief propagation in a 3D spatio-temporal MRF for moving object detection[C].//IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Minneapolis,MN:2007 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2007.
[26]S Oron,A Bar-Hillel,S.Avidan,Locally orderless tracking [J].International Journal of Computer Vision,2015,111(2): 213-228.
[27]S Sevilla-Lara,E Learned-Miller.Distribution fields for tracking[C].//IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Providence,RI:2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2012.
[28]叱干鵬飛,寧紀(jì)鋒,石武禎.基于全局搜索的實(shí)時分布場目標(biāo)跟蹤方法 [J].計(jì)算機(jī)應(yīng)用研究,2014,31(10): 3169-3173. Chi Ganpengfei.Real-time and global searching tracking algorithm based on distributions fields[J].Application Research of Computers,2014,31(10):3169-3173.
[29]李冰冰.基于粒子濾波的目標(biāo)跟蹤算法的應(yīng)用研究[D].長春:東北師范大學(xué),2007. Li Bingbing.Research on target tracking based on particle filter algorithm[D].Chang Chun:Northeast Normal University,2007.
[30]張寶亮,楊柳,張亮.基于粒子濾波模型目標(biāo)跟蹤算法研究[J].可編程控制器與工廠自動化,2007(7):98-101. Zhang Baoliang,Yang Liu,Zhang Liang.Study on object tracking algorithm based on particle filter model[J].Programmable Controller&Factory Automation,2007(7): 98-101.
[31]王丁.基于改進(jìn)粒子濾波的檢測前跟蹤算法 [D].成都:電子科技大學(xué),2012. Wang Ding.Track before detect based on improved particle filter[D].Cheng Du:University of Electronic Science and Technology of China,2012.
[32]X Mei,H Ling.Robust visual tracking using L1 minimization[C].//IEEE International Conference Computer Vision (ICCV).Kyoto,Japan:12th IEEE International Conference Computer Vision(ICCV),2009.
[33]J Kwon,K.M Lee.Visual tracking decomposition[C].//IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2010.
[34]J Kwon,K M Lee.Tracking by Sampling Trackers[C].// IEEE International Conference Computer Vision(ICCV). Barcelona,Spain:2011 IEEE International Conference Computer Vision(ICCV),2011.
[35]T Zhang,B Ghanem,S Liu,N Ahuja.Robust visual tracking via multi-task sparse learning[C].//IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Providence,RI:2012 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2012.
Survey on Object Tracking Method Base on Generative Model
Zhu Wenqing1,2,Liu Yan1,2,Bian Le1,2,Zhang Zilong1,2
(1.College of Internet of Things Engineering,Hohai University,Changzhou 213022,China; 2.Changzhou Sensor and Environmental Perception Laboratory,Changzhou 213022,China)
Object tracking is one of the most active research topics due to its wide range of applications such as visual surveillance,human-computer interaction,traffic monitoring,to name a few. Discriminative algorithm finds out the most similar area with object from background by classifier.In the past few decades,more and more researchers have adopted generative model in order to achieve better effect in the application of object tracking.A comparative analysis is introduced between generative algorithm and discriminative algorithm.Two important problems of discriminative algorithm,object representation methods and object models,separately are focused on.On the other hand,a detailed survey on state-of-the-art object detection methods based on generative model studied from 2008 to 2014 is evaluated.And future research trends of this field are proposed finally.
Discriminative method;Generative method;Generative model;Object tracking;Object model;Object representation method
10.3969/j.issn.1002-2279.2017.01.011
TP391.4
A
1002-2279-(2017)01-0041-07
江蘇省產(chǎn)學(xué)研前瞻性聯(lián)合研究資助項(xiàng)目(BY2014041)
朱文青(1991-),女,山東省菏澤市人,碩士研究生,主研方向:數(shù)字圖像處理。
2016-06-16