亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于局部稀疏表示的目標跟蹤算法

        2018-10-29 11:09:14程中建李康徐龍香
        軟件導刊 2018年8期
        關(guān)鍵詞:稀疏表示目標跟蹤

        程中建 李康 徐龍香

        摘要:目標跟蹤是計算機視覺領(lǐng)域重要的研究方向之一?;趌1最小化稀疏表示的目標跟蹤算法跟蹤精度高,但是在跟蹤部分遮擋目標或當背景中存在與目標相似的干擾物時會發(fā)生漂移。這主要是因為算法僅關(guān)注目標的整體特征,而忽略了目標局部特征的變化情況。為了解決該問題,提出基于目標外觀局部稀疏表示的跟蹤算法。首先,對待選樣本進行分塊,然后利用采集得到的模板對各分塊進行稀疏表示并計算重構(gòu)誤差,最后選取累積誤差最小的待選樣本作為跟蹤目標。實驗結(jié)果表明,該算法在跟蹤被部分遮擋的目標時相比l1跟蹤算法有更高的準確度。

        關(guān)鍵詞:目標跟蹤;稀疏表示;l1算法;分塊策略;生成模型

        DOIDOI:10.11907/rjdk.181568

        中圖分類號:TP312

        文獻標識碼:A 文章編號文章編號:1672-7800(2018)008-0106-04

        英文摘要Abstract:Object tracking is one of the most important research areas in computer vision.The object tracking algorithm based on l1 sparse representation minimization has high tracking accuracy.However,when the object is partially occluded or the environment is similar to the object,the tracker may drift.This is mainly because the algorithm only focuses on the overall characteristics of the object and ignores the changes of the local characteristics of the object.In order to solve this problem,we propose a tracking algorithm based on the local sparse representation.Firstly,the candidate sample is divided into several overlaped blocks.Then,we employ each block using the collected templates to calculate reconstructive error.Finally,the candidate sample with the smallest reconstructive error is selected as the target.Experimental results show that our algorithm has higher accuracy than l1 tracker when tracking partially occluded objects.

        英文關(guān)鍵詞Key Words:object tracking; sparse representation; l1algorithm; block strategy; generative model

        0 引言

        目標跟蹤是計算機視覺領(lǐng)域重要研究課題之一。在交通導航、虛擬現(xiàn)實、視頻監(jiān)控、無人機飛行等領(lǐng)域應用廣泛。近年來,國內(nèi)外大量跟蹤算法被開發(fā)出來[1-6]。但由于受到目標外觀變化、目標局部遮擋和目標信息缺失等眾多干擾因素影響,開發(fā)出魯棒性的跟蹤算法仍然面臨巨大挑戰(zhàn)。

        按照外觀模型的不同,現(xiàn)有目標跟蹤算法可以分為兩類:生成式模型和判別式模型。判別式算法模型[7-11]將目標跟蹤視為二值分類問題,通過使用采樣得到的正樣本和負樣本訓練分類器分離目標與背景,然后選擇具有最大分類響應值的待選樣本作為跟蹤結(jié)果。文獻[8]提出了一種基于在線增強方法更新判別特征的目標跟蹤算法。在此基礎(chǔ)上,文獻[9]提出一種半在線算法處理跟蹤漂移問題。多實例目標跟蹤(MIL)[10]使用在線Boosting算法訓練分類器處理非線性分類問題。邸男等[11]利用棱錐面方程的單峰特性并結(jié)合似然相似度函數(shù)提高目標與背景的區(qū)分度。判別式算法在跟蹤復雜環(huán)境中的目標時會得到魯棒性結(jié)果,但在處理外觀變化不大的目標時往往會丟失目標。

        生成式算法模型[12-17]通過訓練樣本學習目標外觀模型,然后在候選樣本中選擇重構(gòu)誤差最小的樣本作為跟蹤結(jié)果。Adam等[12]提出使用多尺度灰度直方圖表示目標特征。Mei等[13-14]利用目標整體特征建模外觀模型,通過求解l1最小化問題選擇具有最小重構(gòu)誤差的候選樣本作為跟蹤目標。Liu等[15]結(jié)合稀疏表示思想和均值漂移模型,提出了一種基于局部稀疏表示的目標跟蹤算法。周等[16]提出了幀間差分與局部Camshift的跟蹤算法解決運動目標提取后存在的”空洞”現(xiàn)象。Zhang等[17]通過將跟蹤過程建模為多任務稀疏學習問題,提出了一種協(xié)同跟蹤算法。與判別式跟蹤算法不同,基于生成式模型的算法具有較高的跟蹤精確度,但是在目標環(huán)境較為復雜時跟蹤結(jié)果不夠魯棒。

        基于l1最小化稀疏表示的目標跟蹤算法[13]跟蹤精度高、跟蹤速度快,但是該算法在跟蹤被遮擋的目標時容易發(fā)生漂移,主要因為該算法僅考慮了目標的整體外觀而忽略了目標被遮擋部分的外觀。為解決該問題,本文提出一種基于局部稀疏表示的目標跟蹤算法。首先,將目標樣本分割成多個有部分重疊的局部區(qū)域;然后針對每個局部區(qū)域分別進行稀疏表示,計算重構(gòu)誤差;最后選擇累積誤差最小的候選樣本作為跟蹤結(jié)果。算法在考慮目標整體外觀特征的同時,結(jié)合目標局部信息,解決被遮擋目標的跟蹤問題,提高跟蹤的魯棒性。

        1 局部稀疏表示跟蹤算法實現(xiàn)

        近年來,基于生成式模型的稀疏表示方法被應用于目標跟蹤,取得了魯棒的跟蹤效果[13-15,18]。該算法使用模板稀疏表示目標的整體外觀模型,并根據(jù)最小化l1選取具有最小重構(gòu)誤差的待選樣本作為跟蹤結(jié)果。但是,這類算法僅考慮了目標整體的外觀模型,忽略跟蹤目標的局部結(jié)構(gòu)信息,因此在利用l1最小化計算被部分遮擋的待選樣本時會產(chǎn)生較大的重構(gòu)誤差,導致這類算法在跟蹤被部分遮擋的目標時容易丟失目標。

        為了改進稀疏表示算法(簡稱L1算法)存在的問題,提出一種局部分塊稀疏表示的跟蹤策略。如圖1所示,首先對所有樣本進行分塊處理,然后使用稀疏表示計算每一個分塊的重構(gòu)誤差,最后選擇具有最小累積誤差的待選樣本作為跟蹤結(jié)果。分塊稀疏表示的策略綜合考慮了目標整體外觀和局部外觀信息,相較于L1算法在處理目標部分遮擋等問題時具有更高精準度。

        1.2 模板更新

        為了適應目標背景受非確定因素影響發(fā)生的變化,算法應及時更新各分塊區(qū)域?qū)哪0寮?。如果模板更新過快,模板的重構(gòu)誤差將會不斷積累,進而導致跟蹤結(jié)果發(fā)生偏移,與此相反,如果模板更新太慢或模板固定不變,將不能準確表達目標外觀模型,最終丟失目標。

        2.3 實驗結(jié)果分析

        從表1、表2(最好結(jié)果由粗體標出)可以看出,本文提出的算法與其它經(jīng)典算法相比具有較好的跟蹤效果。結(jié)合圖2,根據(jù)所選測試跟蹤序列特點進行具體分析。

        (1)Basketball。該測試跟蹤序列中由于目標區(qū)域存在大面積背景區(qū)域,如目標頭部兩側(cè)及腿部之間的區(qū)域,目標整體外觀模型隨背景變化,造成跟蹤困難。跟蹤過程中,VTD、L1分別在第33、351幀丟失目標,MIL在第351幀時偏移到非目標上,只有本文算法能夠準確跟蹤目標。測試結(jié)果表明,本文算法在光照變化和背景復雜的跟蹤環(huán)境中能夠準確跟蹤。

        (2)Dudek。該測試視頻序列為室內(nèi)環(huán)境,由于目標姿勢和運動變化,目標外觀模型劇烈改變,造成跟蹤困難。跟蹤過程中,MIL在第214幀發(fā)生漂移,L1、VTD、Ours均能夠準確跟蹤到目標。

        (3)Woman。該測試視頻在目標經(jīng)過汽車時,目標遮擋面積約為其總面積的2/3,遮擋過程持續(xù)時間近60幀。由于無法處理目標被部分遮擋的區(qū)域,第126幀時,L1漂移到車輛上,MIL與VTD丟失跟蹤目標。本文算法由于運用分塊策略,能夠?qū)δ繕朔謮K區(qū)域分別處理,再由稀疏表示計算出的重構(gòu)誤差從局部角度分析目標是否存在遮擋,避免L1算法中整體外觀模型產(chǎn)生的不足。本算法不更新存在嚴重遮擋的分塊對應的模板集,最大限度上降低了由于更新產(chǎn)生的誤差累積,使算法能夠準確針對目標的各塊外觀建模。跟蹤結(jié)果驗證了本算法能夠準確跟蹤部分遮擋的目標。

        (4)David2。在該視頻中,跟蹤目標區(qū)域較小、目標與背景區(qū)域局部相似造成跟蹤難點。L1、MIL分別在第28、198幀時發(fā)生漂移,并在第537幀完全丟失目標,僅VTD與本文算法能夠較準確跟蹤到目標。

        (5)David3。該測試視頻中,目標被樹木大面積遮擋。L1,MIL均在第90幀丟失目標,VTD在103幀丟失目標,而由于本文算法采用了分塊策略處理目標存在的部分遮擋問題,因此能夠準確地跟蹤到目標。

        3 結(jié)語

        本文通過分析傳統(tǒng)L1算法中目標整體稀疏表示存在忽略跟蹤區(qū)域局部信息的缺陷,提出了一種基于局部分塊稀疏表示的目標跟蹤算法。通過對目標區(qū)域進行分塊處理,可以對各分塊單獨運用稀疏表示求解重構(gòu)誤差,并以此判斷目標當前是否處于被遮擋狀態(tài)。在模板更新時,提出不更新重構(gòu)誤差較大的分塊,避免被遮擋的目標模板污染模板集,提高了算法的魯棒性。利用分塊思想對L1算法忽略的局部信息加以利用,使算法能夠處理更加復雜的跟蹤環(huán)境。本文算法將分塊稀疏表示理論應用于目標跟蹤,探討了局部重構(gòu)誤差對跟蹤結(jié)果的影響,加深了對多模塊聯(lián)合稀疏表示方法的認識,豐富了稀疏表示在目標跟蹤中的理論應用。實驗結(jié)果表明,該算法在跟蹤被部分遮擋的目標時,相比其它經(jīng)典跟蹤算法有更高的準確度。在未來工作中,將在現(xiàn)有研究基礎(chǔ)上結(jié)合深度特征對目標進行跟蹤。

        參考文獻:

        [1] DANELLJAN M,SHAHBAZ KHAN F,F(xiàn)ELSBERG M,et al.Adaptive color attributes for real-time visual tracking[C].IEEE Conference on Computer Vision and Pattern Recognition,2014:1090-1097.

        [2] ZHANG T,JIA K,XU C,et al.Partial occlusion handling for visual tracking via robust part matching[C].Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2014:1258-1265.

        [3] 王宇霞,趙清杰,蔡藝明,等.基于自重構(gòu)粒子濾波算法的目標跟蹤[J].計算機學報,2016,39(7):1294-1306.

        [4] 姜文濤,劉萬軍,袁姮,等.視覺量子目標跟蹤方法[J].軟件學報,2016,27(11):2961-2984.

        [5] 黃慶俊,何儒漢.基于協(xié)方差矩陣的壓縮感知跟蹤算法[J].軟件導刊,2017,16(4):31-35.

        [6] LIU Q,YANG J,ZHANG K,et al.Adaptive compressive tracking via online vector boosting feature selection[J].IEEE Transactions on Cybernetics,2017,47(12):4289-4301.

        [7] AVIDAN S.Ensemble tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29 (2):261-271.

        [8] GRABNER H,BISCHOF H.On-line boosting and vision[C].IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2006,1:260-267.

        [9] GRABNER H,LEISTNER C,BISCHOF H.Semi-supervised on-line boosting for robust tracking[C].European Conference on Computer Vision,2008:234-247.

        [10] BABENKO B,YANG M H,BELONGIE S.Visual tracking with online multiple instance learning[C].IEEE Conference on Computer Vision and Pattern Recognition,2009:983-990.

        [11] 邸男,朱明,韓廣良.似然相似度函數(shù)在目標跟蹤中的魯棒機理研究[J].軟件學報,2015,26(1):52-61.

        [12] ADAM A,RIVLIN E,SHIMSHONI I.Robust fragments-based tracking using the integral histogram[C].2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2006,1:798-805.

        [13] MEI X,LING H.Robust visual tracking using 1 minimization[C].2009 IEEE 12th International Conference on Computer Vision,2009:1436-1443.

        [14] MEI X,LING H,WU Y,et al.Minimum error bounded efficient 1 tracker with occlusion detection[C].2011 IEEE Conference on Computer Vision and Pattern Recognition,2011:1257-1264.

        [15] LIU B,HUANG J,YANG L,et al.Robust tracking using local sparse appearance model and k-selection[C].2011 IEEE Conference on Computer Vision and Pattern Recognition,2011:1313-1320.

        [16] 周文靜,陳瑋.基于改進幀間差分與局部Camshiift相結(jié)合的目標跟蹤算法[J].軟件導刊,2018,17(3):68-70.

        [17] ZHANG T,GHANEM B,LIU S,et al.Robust visual tracking via multi-task sparse learning[C].2012 IEEE Conference on Computer Vision and Pattern Recognition,2012:2042-2049.

        [18] LIU B,YANG L,HUANG J,et al.Robust and fast collaborative tracking with two stage sparse optimization[C].European Conference on Computer Vision,2010:624-637.

        [19] KWON J,LEE K M.Visual tracking decomposition[C].2010 IEEE Conference on Computer Vision and Pattern Recognition,2010:1269-1276.

        [20] WU Y,LIM J,YANG M H.Online object tracking:a benchmark[C].2013 IEEE Conference on Computer Vision and Pattern Recognition,2013:2411-2418.

        (責任編輯:江 艷)

        猜你喜歡
        稀疏表示目標跟蹤
        多視角目標檢測與跟蹤技術(shù)的研究與實現(xiàn)
        Grouplet變換原理及技術(shù)綜述
        基于改進連續(xù)自適應均值漂移的視頻目標跟蹤算法
        基于重采樣粒子濾波的目標跟蹤算法研究
        航空兵器(2016年5期)2016-12-10 17:12:24
        基于稀疏表示的圖像去噪和超分辨率重建
        基于字典學習和結(jié)構(gòu)聚類的圖像去噪算法研究
        分塊子空間追蹤算法
        空管自動化系統(tǒng)中航跡濾波算法的應用與改進
        科技視界(2016年5期)2016-02-22 12:25:31
        智能視頻技術(shù)在電力系統(tǒng)領(lǐng)域的應用
        基于車牌識別的機混車道視頻測速算法
        五月色丁香婷婷网蜜臀av| 国产在线AⅤ精品性色| 国产精品二区三区在线观看| 日本最新一区二区三区在线视频| 成人免费直播| 日韩精品一区二区在线天天狠天| 国产精品久久久久乳精品爆| 精品一区二区三区在线观看视频| 国产精品美女一级在线观看| 精品一区二区三区国产av| 免费不卡无码av在线观看| 亚洲成a人片在线观看无码3d| 成人h动漫精品一区二区| 亚洲熟妇大图综合色区| 中文字幕亚洲高清精品一区在线| av黄页网国产精品大全| 国自产精品手机在线观看视频| 成年无码aⅴ片在线观看| 国产成人久久综合热| 自拍视频国产在线观看| 美国黄色av一区二区| 狂猛欧美激情性xxxx大豆行情 | 久久天天躁夜夜躁狠狠85麻豆| 色偷偷噜噜噜亚洲男人| 国产夫妻av| 人妻风韵犹存av中文字幕| 国产乱理伦在线观看美腿丝袜| 天堂√在线中文官网在线| 毛片免费在线播放| 中文字幕日本人妻一区| 91偷拍与自偷拍亚洲精品86| 性猛交╳xxx乱大交| 中文在线а√天堂官网| 久草视频在线这里只有精品| 三级日本理论在线观看| 影视av久久久噜噜噜噜噜三级 | 精品久久综合一区二区| 亚洲精品中文字幕乱码3| 国产成人无码专区| 色伦专区97中文字幕| 少妇的诱惑免费在线观看|