亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于遮擋檢測的核相關濾波目標跟蹤算法

        2018-05-14 09:57:28張楊閆河楊曉龍
        數字技術與應用 2018年2期
        關鍵詞:分類器

        張楊 閆河 楊曉龍

        摘要:針對核相關濾波目標跟蹤算法在目標跟蹤中存在嚴重遮擋的問題,本文提出了基于遮擋檢測的核相關濾波目標跟蹤算法。該算法首先在目標跟蹤時利用峰值旁瓣比進行遮擋檢測判斷,然后當目標未遮擋時,繼續(xù)使用核相關濾波模塊進行跟蹤,當有遮擋時,在目標出遮擋之后使用本文所提出的分類器進行目標再檢測。為了驗證本文的有效性,采用OTB-2013中21組遮擋數據集,并和OTB-2013中跟蹤性能較好的跟蹤算法進行對比,實驗表明本文算法能有效的解決在目標跟蹤中存在的嚴重遮擋的問題。

        關鍵詞:核相關濾波;遮擋檢測;嚴重遮擋;分類器

        中圖分類號:TP391 文獻標識碼:A 文章編號:1007-9416(2018)02-0125-02

        1 引言

        目標跟蹤技術不管是在軍事還是民事上都有相當重要的作用。近年來,對目標跟蹤問題有廣泛的研究,并取得了很大的進展,涌現了很多目標跟蹤算法。但是現實生活中的目標跟蹤受遮擋、光照變換、目標與背景相似、目標背景復雜等因素的影響,目標跟蹤算法的準確性和實時性受到了一定的限制。然而遮擋問題是研究的重點和難點,尤其是在目標受到嚴重遮擋或者完全遮擋時。

        目標遮擋問題按目標被遮擋程度可分為三類,部分遮擋、嚴重遮擋、完全遮擋。遮擋處理一般分為三部分:進入遮擋、遮擋保持、離開遮擋[1]。因此解決遮擋問題目前有兩種方法,第一種是當目標出現部分遮擋時,通過局部特征匹配的方法對目標進行定位,當目標嚴重遮擋或完全遮擋時,對遮擋進行判斷,再重新檢測被跟蹤目標[2-5];第二種是對未被遮擋時目標的運動信息進行軌跡預測來實現后續(xù)幀的位置預測判斷[6、7]。

        上述遮擋方法都是基于生成式模型目標跟蹤方法,生成式模型目標跟蹤方法由于計算量大的原因無法滿足跟蹤的實時性要求,今年來有學者提出判別式模型方法,該方法將背景與目標區(qū)分開來,減少計算量,并且具有較好的魯棒性,最典型的就是目前由Heriques等提出核相關濾波目標跟蹤算法[8],該算法對訓練樣本進行循環(huán)移位,可近似看成是對目標的密集采樣,從而得到大量的訓練樣本來訓練分類器。此外分類器的訓練和檢測過程都利用離散傅里葉變換來實現快速計算。

        因此本文在核相關濾波目標跟蹤算法的基礎上增加了遮擋判斷,該遮擋判斷由峰值旁瓣比來完成,當峰值旁瓣比大于設定的閾值時,則直接繼續(xù)核相關濾波;當峰值旁瓣比小于所設定的閾值,則出現遮擋,當目標出現遮擋時通過幀間差分法對目標再檢測,并更新目標區(qū)域。實驗表明該方法在目標嚴重遮擋的情況下具有較好魯棒性。

        2 本文算法

        本文算法在核相關濾波算法的基礎上致力于解決目標跟蹤中的嚴重遮擋問題。本文將其分為兩個模塊,一是:遮擋檢測,二是:目標再檢測。圖1為本文算法的框架圖。

        2.1 核相關濾波目標跟蹤算法

        核相關濾波目標跟蹤算法,是一種判別式跟蹤方法,它將目標與背景區(qū)分開來,目標初始幀時,將目標進行循環(huán)移位,構造大量樣本,再使用核嶺回歸訓練分類器得到目標濾波器模型,再到一幀時,通過核相關判斷目標位置,并更新目標模型。具體方法參考文獻[8]。

        2.2 遮擋檢測策略

        對于目標遮擋問題一般可以分為三個步驟:進入遮擋、遮擋保持、離開遮擋[1],因此當目標發(fā)生遮擋時,首先要判斷目標是否發(fā)生遮擋,本文的遮擋檢測策略參考文獻[9、10],本文使用響應峰值旁瓣比(Peak to Sidelobe Ratio,PSR)對遮擋進行檢測,PSR的計算方法如下:

        其中為最大峰值,峰值周圍的區(qū)域定義為旁瓣,分別為旁瓣區(qū)域的均值和方差。實驗中設定閾值T,當PSR>T時,這無遮擋進行核相關濾波;當PSR

        2.3 目標再檢測

        當目標出現嚴重遮擋時,單靠目標局部特征信息很難穩(wěn)定的進行跟蹤。因此在上述檢測到目標被遮擋時,目標出遮擋后,通過重新檢測運動目標以達到穩(wěn)定的跟蹤。本文參考文獻[5]使用最近鄰分類器和樸素貝葉斯分類器組合來進行目標再檢測。

        該檢測方法是,首先通過樸素貝葉斯對目標初始幀分類訓練分類器有:

        通過樸素貝葉斯分類器對候選進行粗略的分類,然后再利用最近鄰分類器對樸素貝葉斯分類后剩下的目標候選塊找到與目標最接近的目標塊。若目標塊的相似度值(為閾值),則判定為檢測到目標,否則未找到目標。其中相似度值定義為:

        其中和表示目標候選塊與目標正樣本和目標負樣本中所有樣本最大相似度值,為正樣本和負樣本的集合,表示最終相似值。相似值越大則越能判斷出真正的目標。

        3 實驗結果與分析

        為了驗證本文算法的有效性,本文算法使用OTB-2013[11]中的21組遮擋數據來驗證,并且和四種性能較優(yōu)的算法進行對比,且評判的標準為跟蹤成功圖和跟蹤精確圖。該實驗結果如圖2所示。

        實驗結果表明本文所提算法較KCF、SCM[12]、Struck[13]、TLD[14],在遮擋問題,跟蹤精度分別提升了6.9%、35.9%、54.2%、69.1%,跟蹤成功率分別提升了18.1%、35.4%、59.3%、78.5%,因此本文算法在解決遮擋問題上有較好的魯棒性。

        4 結語

        遮擋問題一直是目標跟蹤研究的重點和難點,本文針對目標被遮擋的問題,在核相關濾波目標跟蹤算法的基礎上,提出了基于遮擋檢測的核相關濾波目標跟蹤算法。該算法加了目標遮擋檢測,可以一定程度上解決目標嚴重遮擋的問題,提高跟蹤的成功率和精確度。本文算法只考慮了遮擋目標為單目標的情況下,因此后續(xù)會針對復雜的目標進行研究。

        參考文獻

        [1]薛陳,朱明,劉春香,遮擋情況下目標跟蹤算法綜述[J].中國光學和應用光學,2009,5(10):(389-393).

        [2]PROKAJ J,MEDIONI G.Persistent Tracking for WideArea AerialSurveillance / / Proc of the IEEE Confere-nce on Computer Vision and Pattern Recognition.Wa-shington,USA: IEEE,2014: 1186-1193.

        [3]WANG D,LU H C,YANG M H. Online Object Tracking with Sparse Prototypes.IEEE Transactions on Image Processing,2013,22(1): 314-325.

        [4]儲珺,朱陶,繆君等.基于遮擋檢測和時空上下文信息的目標跟蹤算法[J].模式識別與人工智能,2017,30(8):718-727.

        [5]李春蘭.基于遮擋檢測的粒子濾波行人目標跟蹤算法研究[D].深圳大學,2017.

        [6]YANG H, ALAHARI K, SCHMID C. Online ObjectTracking with Proposal Selection / / Proc of the IEEEInternational Conference on Computer Vision. Washi-ngton,USA: IEEE,2015: 3092-3100.

        [7]YANG H, ALAHARI K,SCHMID C. Occlusion and Motion Reasoning for Long-Term Tracking / / Proc of the 13th European Conference on Computer Vision. New York,USA: Springer,2014,VI:172-187.

        [8]HENRIQUES J F, CASEIRO R, MARTINS P,et al.High speed tracking with kernelized correlation filters[J]. IEEE Transaction on Pattern Analysis and Machine Intelligence.2015,32(9):1627-164.

        [9]王暐,王春平,李軍等.特征融合和模型自適應更新相結合的相關濾波目標跟蹤[J].光學精密工程,2016,24(8):2059-2066.

        [10]BLOME D S, BEVERIDGE J R, and DRAPER B A,et,al.. Visual object tracking using adaptive correlation filters[C]. IEEE International Conference on Comput-ersion(CVPR).2010:2544-2550.

        [11]Wu Y, Lim J, and Yang M H. Online object tracking: A benchmark[C]. IEEE Conference on Computer Vision and Pattern Recognition,Portland,USA,2013:1354-1362.

        [12]ZHONG W, LU H, and YANG M H. Robust Object Tracking via Sparsity based Collaborative Model. In CVPR.2012.

        [13]HARE S, SAFFARI A, and TORN P H.Struck: Structured k-ernels[C]. IEEE International Conference on Computers Vision(ICCV).2011:263-270.

        [14]KALAL Z,MIKOLAJCZYK K,MATAS J. Face-TLD: Tracking-Learning-Detection Applied to Faces / / Proc of the 17th IEEE International Conference on Image Processing.Washington,USA:IEEE,2010:3789-3792.

        猜你喜歡
        分類器
        BP-GA光照分類器在車道線識別中的應用
        電子測試(2018年1期)2018-04-18 11:52:35
        基于差異性測度的遙感自適應分類器選擇
        基于實例的強分類器快速集成方法
        計算機應用(2017年4期)2017-06-27 08:10:42
        加權空-譜與最近鄰分類器相結合的高光譜圖像分類
        結合模糊(C+P)均值聚類和SP-V-支持向量機的TSK分類器
        人臉檢測的繼承式集成學習方法*
        一種基于信息復用的Boosting瀑布型分類器高效訓練方法
        基于Adaboost的人臉檢測算法研究
        電子世界(2014年12期)2014-10-21 11:09:39
        基于層次化分類器的遙感圖像飛機目標檢測
        基于LLE降維和BP_Adaboost分類器的GIS局部放電模式識別
        国产精品天天看大片特色视频| 亚洲中文字幕无码不卡电影| 久久久久亚洲av片无码v| 美女在线国产| 在线观看黄片在线播放视频| 国产精品高潮av有码久久| 日本激情一区二区三区| 国产日本精品视频一区二区| 伊人久久大香线蕉av网禁呦| 国产久热精品无码激情 | 久草久热这里只有精品| 高清日韩av在线免费观看| 国产aⅴ无码专区亚洲av麻豆| 精品久久久久久久久免费午夜福利| 亚洲av福利天堂在线观看| 女同一区二区三区在线观看| 亚洲精品无码高潮喷水a片软| 国产成人av一区二区三区无码| 国产成人AⅤ| 中文字幕丰满人妻av| 人妻 色综合网站| 久久精品国内一区二区三区| 99综合精品久久| 国产自拍一区在线视频| 日韩av无码久久一区二区| 亚洲丁香五月激情综合| 国产毛片A啊久久久久| 日本免费观看视频一区二区| 69一区二三区好的精华| 精品国产群3p在线观看| 日本成年少妇人妻中文字幕| 亚洲综合天堂av网站在线观看| 青草国产精品久久久久久| 国产午夜精品久久久久九九| 精品乱色一区二区中文字幕| 午夜精品久久久久久毛片| 热久久这里只有| 中文无字幕一本码专区| 朋友的丰满人妻中文字幕| 欧美人成人亚洲专区中文字幕| 亚洲一区二区三区在线更新|