亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于分層數(shù)據(jù)關(guān)聯(lián)的在線多目標(biāo)跟蹤算法

        2018-04-26 01:46:50李明華劉正熙
        現(xiàn)代計(jì)算機(jī) 2018年5期
        關(guān)鍵詞:關(guān)聯(lián)特征

        李明華,劉正熙

        (四川大學(xué)計(jì)算機(jī)學(xué)院,成都 610065)

        1 問題的提出

        多目標(biāo)跟蹤系統(tǒng)的目的是在監(jiān)控場景中能估計(jì)出多個(gè)運(yùn)動(dòng)目標(biāo)的連續(xù)平滑的軌跡,它在視頻監(jiān)控,事件檢測以及行為識別中都有重要的應(yīng)用。因此,研究多目標(biāo)跟蹤技術(shù)是計(jì)算機(jī)視覺領(lǐng)域的重要課題之一。

        由于目標(biāo)檢測技術(shù)[1-3]的快速發(fā)展,tracking-by-detection成為了一種廣泛使用的多目標(biāo)跟蹤框架。在tracking-by-detection框架中,目標(biāo)檢測器通過線下訓(xùn)練,可以在視頻的每一幀提供出跟蹤目標(biāo)的包圍框,然后通過數(shù)據(jù)關(guān)聯(lián)技術(shù)把這些包圍框分別匹配已存在的跟蹤目標(biāo),從而產(chǎn)生連續(xù)的運(yùn)動(dòng)軌跡。按照數(shù)據(jù)關(guān)聯(lián)算法的不同,多目標(biāo)跟蹤技術(shù)分為在線的[4-7]和離線的[8-11]。然而,在一些復(fù)雜的場景,由于跟蹤目標(biāo)的相互遮擋和背景的遮擋,這些先進(jìn)的目標(biāo)檢測技術(shù)仍然解決不了目標(biāo)丟失的問題。

        因此,許多學(xué)者提出離線的多目標(biāo)跟蹤方法用于解決這些由于長時(shí)間的遮擋而造成的目標(biāo)丟失問題。連接概率數(shù)據(jù)關(guān)聯(lián)算法(JPDA)[8-9]在視頻的每一幀中基于當(dāng)前幀提供的目標(biāo)包圍框和已存在的跟蹤目標(biāo)的連接概率相似度進(jìn)行數(shù)據(jù)關(guān)聯(lián)。多假設(shè)跟蹤算法(MHT)[10-11]為每一個(gè)跟蹤目標(biāo)所有可能的軌跡假設(shè)建立一棵關(guān)系樹,計(jì)算跟蹤軌跡的概率并選擇最大概率的軌跡組合。這些離線的多目標(biāo)跟蹤算法不僅要使用當(dāng)前幀的信息,而且要考慮未來一段時(shí)間窗口內(nèi)視頻幀的信息,所以這些離線方法都有一定的時(shí)間延遲,不適用于實(shí)時(shí)的視頻監(jiān)控系統(tǒng)。

        SORT跟蹤算法提出了一個(gè)簡單的在線trackingby-detection跟蹤框架,該框架使用線性卡爾曼濾波作為運(yùn)動(dòng)模型預(yù)測目標(biāo)的運(yùn)動(dòng),使用匈牙利算法匹配相鄰幀之間的目標(biāo)。使用這樣一種簡單的在線跟蹤框架卻能夠在公開的多目標(biāo)跟蹤數(shù)據(jù)集上獲得卓越的性能效果,并且這個(gè)框架的幀率能達(dá)到260Hz,速度上超越了絕大部分在線跟蹤方法。該框架的缺點(diǎn)是只使用了目標(biāo)的運(yùn)動(dòng)特征,而沒有使用目標(biāo)的外觀特征,并且沒有考慮到目標(biāo)之間的遮擋問題。

        本文提出了一種改進(jìn)版的tracking-by-detection框架。該框架采用了基于深度學(xué)習(xí)的外觀特征,并且采用了分層的數(shù)據(jù)關(guān)聯(lián)方法。該方法根據(jù)卷積特征的相似度把數(shù)據(jù)關(guān)聯(lián)分成兩個(gè)步驟。第一層關(guān)聯(lián)只考慮高相似度的目標(biāo)匹配對,因?yàn)楦呦嗨贫鹊膬蓚€(gè)待匹配的候選對象屬于同一個(gè)目標(biāo)的概率非常大。第二層關(guān)聯(lián)處理剩余的低相似度的目標(biāo)匹配對,相似度低說明目標(biāo)可能發(fā)生形變或者被其他跟蹤對象遮擋。

        2 算法實(shí)現(xiàn)

        本文提出的多目標(biāo)跟蹤框架采用Faster R-CNN檢測器[3]檢測出候選目標(biāo),使用卡爾曼濾波迭代地預(yù)測目標(biāo)的運(yùn)動(dòng)狀態(tài),接著使用卷積神經(jīng)網(wǎng)絡(luò)提取出目標(biāo)的深度外觀特征,根據(jù)目標(biāo)的外觀相似度和運(yùn)動(dòng)相似度使用匈牙利算法匹配候選目標(biāo)和目標(biāo)軌跡。本節(jié)著重介紹特征提取和分層數(shù)據(jù)關(guān)聯(lián)。

        2.1 特征提取

        特征提取用于數(shù)據(jù)關(guān)聯(lián)的相似度計(jì)算。本文融合了強(qiáng)特征和弱特征來進(jìn)行數(shù)據(jù)關(guān)聯(lián)。強(qiáng)特征是用卷積神經(jīng)網(wǎng)絡(luò)提取的深度外觀特征,而弱特征則使用了目標(biāo)的運(yùn)動(dòng)特征。每種特征都有其優(yōu)點(diǎn)以及作用。當(dāng)目標(biāo)連續(xù)可見并且沒有顯著的外觀變化時(shí),深度外觀特征能夠較好地區(qū)分兩個(gè)候選對象是不是同一個(gè)目標(biāo)。而當(dāng)目標(biāo)的外觀發(fā)生改變或者遇到遮擋問題時(shí),運(yùn)動(dòng)特征和形狀特征結(jié)合了跟蹤目標(biāo)上下文的時(shí)空信息輔助數(shù)據(jù)關(guān)聯(lián)。

        本文提出了一種深度外觀描述子用于描述跟蹤目標(biāo)的外觀,該描述子采用類似于AlexNet[12]的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)微調(diào)而成。首先我們用ImageNet數(shù)據(jù)集的預(yù)訓(xùn)練模型初始化卷積神經(jīng)網(wǎng)絡(luò)的權(quán)值,然后使用行人重識別數(shù)據(jù)集[13]離線微調(diào)該神經(jīng)網(wǎng)絡(luò),該數(shù)據(jù)集包含32000個(gè)標(biāo)注的行人標(biāo)簽。我們的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練模型包含5層卷積結(jié)構(gòu)和3層全連接層,在全連接層后面接上一個(gè)Softmax層用于目標(biāo)的分類。在特征提取階段我們僅提取第5個(gè)卷積層輸出的4096維特征,我們用 feati來表示第i個(gè)目標(biāo)的特征,深度外觀特征相似度定義為:

        運(yùn)動(dòng)特征的使用基于這么一個(gè)假設(shè),即當(dāng)視頻的幀率足夠高時(shí),現(xiàn)實(shí)場景中的目標(biāo)在連續(xù)幀中的運(yùn)動(dòng)軌跡是連續(xù)平滑的。運(yùn)動(dòng)特征充分利用了運(yùn)動(dòng)目標(biāo)的時(shí)空上下文信息,我們使用速度和方向來表述跟蹤目標(biāo)的運(yùn)動(dòng)屬性。由于余弦相似度只能描述運(yùn)動(dòng)目標(biāo)的方向一致性,本文考慮使用調(diào)整余弦相似度來描述運(yùn)動(dòng)目標(biāo)的方向一致性和速度一致性。運(yùn)動(dòng)特征相似度表示如下:

        2.2 分層數(shù)據(jù)關(guān)聯(lián)

        數(shù)據(jù)關(guān)聯(lián)是tracking-by-detection多目標(biāo)跟蹤框架的核心內(nèi)容,大部分跟蹤算法把數(shù)據(jù)關(guān)聯(lián)問題看成一個(gè)全局最優(yōu)匹配問題。但是這種方法有一個(gè)缺點(diǎn),就是當(dāng)目標(biāo)發(fā)生外觀變化或者目標(biāo)被遮擋時(shí),會(huì)導(dǎo)致目標(biāo)錯(cuò)誤匹配的情況。本文提出了一種分層的數(shù)據(jù)關(guān)聯(lián)策略,假設(shè)這樣一個(gè)場景:當(dāng)目標(biāo)在連續(xù)的視頻幀中出現(xiàn),并且外觀沒有發(fā)生比較大的變化,且沒有被其他物體遮擋時(shí),相鄰幀中屬于同一個(gè)目標(biāo)的候選對象外觀相似度值會(huì)非常大,這時(shí)我們僅使用目標(biāo)的深度外觀相似度用于數(shù)據(jù)關(guān)聯(lián)能取得非常好的效果。當(dāng)目標(biāo)遇到遮擋情況或者自身的外觀發(fā)生了嚴(yán)重變化時(shí),相鄰幀中的同一個(gè)目標(biāo)的外觀相似度可能會(huì)變得很小,這時(shí)我們就要引入運(yùn)動(dòng)特征來輔助判斷相鄰幀目標(biāo)的相似性。

        考慮第t幀的數(shù)據(jù)關(guān)聯(lián)問題,當(dāng)前幀t通過目標(biāo)檢測器得到一系列的目標(biāo)檢測框Dt,另外已知第t-1幀的目標(biāo)軌跡Tt-1,我們采用匈牙利算法[14]分別把這些檢測出的候選對象安排到不同的目標(biāo)軌跡中,就得到了當(dāng)前幀t的目標(biāo)軌跡Tt,匈牙利算法所使用的代價(jià)矩陣定義如下:

        為了減少目標(biāo)遮擋和目標(biāo)形變的帶來的數(shù)據(jù)關(guān)聯(lián)錯(cuò)誤問題,我們把數(shù)據(jù)關(guān)聯(lián)分成兩層進(jìn)行,不同層的數(shù)據(jù)關(guān)聯(lián)采用不同的相似度函數(shù)。在第一層關(guān)聯(lián)我們只考慮外觀相似度高于閾值Ta的匹配項(xiàng),外觀相似度高說明目標(biāo)沒有發(fā)生較大的形變或者被其他物體遮擋,因此,第一層關(guān)聯(lián)的相似度函數(shù)的外觀影響因子ω1設(shè)為1,運(yùn)動(dòng)影響因子ω2設(shè)為0。第二層數(shù)據(jù)關(guān)聯(lián)的匹配對的外觀相似度較低,說明目標(biāo)發(fā)生了外觀變化或者遭遇遮擋。此時(shí)單純依靠外觀特征不能做出正確的匹配決策,而需要引入運(yùn)動(dòng)特征來輔助判斷,經(jīng)實(shí)驗(yàn)驗(yàn)證把外觀影響因子ω1設(shè)為0.4運(yùn)動(dòng)影響因子ω2設(shè)為0.6能達(dá)到較好的效果。本文整體框架的工作流程如下所示:

        輸入:當(dāng)前幀的檢測框:Dt={d1,d2,...,dn},上一幀的目標(biāo)跟蹤軌跡:Tt-1={tr1,tr2,...,trm}

        1:使用神經(jīng)網(wǎng)絡(luò)提取檢測框的卷積特征

        2:使用卡爾曼濾波預(yù)測跟蹤目標(biāo)的運(yùn)動(dòng)狀態(tài)

        3:根據(jù)目標(biāo)的卷積特征和運(yùn)動(dòng)特征計(jì)算相似度矩陣At=Affinity(Dt,Tt-1)

        4:根據(jù)外觀相似度閾值Ta把相似度矩陣分為高相似度矩陣和低相似度矩陣

        表1 該跟蹤程序在MOT16數(shù)據(jù)集上的性能估計(jì)

        8:根據(jù)時(shí)間閾值Tt保留或者刪除匹配失敗的目標(biāo)跟蹤軌跡

        輸出:根據(jù)6,7,8步得到當(dāng)前幀的目標(biāo)跟蹤軌跡Tt={tr1,tr2,...,trk}。

        3 實(shí)驗(yàn)結(jié)果評估

        該多目標(biāo)跟蹤系統(tǒng)在MOT16[15]公開的數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)估計(jì),該數(shù)據(jù)集包含靜止的和運(yùn)動(dòng)的相機(jī)鏡頭下的監(jiān)控場景,適用于多目標(biāo)跟蹤的分析。實(shí)驗(yàn)結(jié)果如表1所示,評價(jià)指標(biāo)解釋如下:MOTA(↑)估計(jì)多目標(biāo)跟蹤的精確度,MT(↑)表示跟蹤軌跡和真實(shí)軌跡至少有80%重疊的概率,ML(↓)表示跟蹤軌跡和真實(shí)軌跡最多有20%重疊的概率,F(xiàn)P(↓)表示誤報(bào)的次數(shù),F(xiàn)N(↓)表示漏檢的次數(shù),IDS(↓)表示目標(biāo)ID轉(zhuǎn)變的次數(shù),F(xiàn)rag(↓)表示軌跡斷裂的次數(shù)。(↑)說明該項(xiàng)指標(biāo)越大越好,(↓)說明該項(xiàng)指標(biāo)越小越好。

        圖1 MOT16公開數(shù)據(jù)集的MOT16-06測試視頻圖像序列

        其中JPDA_m是連接概率數(shù)據(jù)關(guān)聯(lián)跟蹤方法,MHT_DAM是多假設(shè)跟蹤方法,SORTwHPD16是sort跟蹤方法,從表1中可以看出本文提出的多目標(biāo)跟蹤系統(tǒng)在MOT16數(shù)據(jù)集上的表現(xiàn)效果要遠(yuǎn)遠(yuǎn)高于上述跟蹤方法。

        4 程序運(yùn)行效果

        該程序運(yùn)行的效果如圖1所示,分別展示了跟蹤程序在視頻序列第55幀,第75幀以及第95幀的運(yùn)行結(jié)果。

        5 結(jié)語

        本文提出了一種分層的數(shù)據(jù)關(guān)聯(lián)方法用于多目標(biāo)跟蹤框架,并結(jié)合了卷積神經(jīng)網(wǎng)絡(luò)的深度外觀特征和跟蹤目標(biāo)本身的運(yùn)動(dòng)信息,在MOT16多目標(biāo)跟蹤公開數(shù)據(jù)集上取得了較好的結(jié)果,該程序的實(shí)現(xiàn)使用C++語言編寫,并依賴于OpenCV視覺庫和Caffe深度學(xué)習(xí)框架,該算法可用于解決實(shí)際監(jiān)控場景中的目標(biāo)跟蹤問題,具有一定的實(shí)際意義。

        參考文獻(xiàn):

        [1]N.Dalal and B.Triggs.Histograms of Oriented Gradients for Human Detection.In Proc.CVPR,2005.

        [2]P.F.Felzenszwalb,R.B.Girshick,D.McAllester,and D.Ra-manan.Object Detection with Discriminatively Trained Part Based Models.PAMI,32(9):1627-1645,2010.

        [3]Ren,S.,He,K.,Girshick,R.B.,Sun,J.:Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks.In:NIPS(2015).

        [4]J.Zhang,L.Lo Presti,S.Sclaroff.Online Multi-Person Tracking by Tracker Hierarchy.In Proceeding of the IEEE Conference on Advanced Video and Signal Based Surveillance(AVSS),2012.

        [5]Z.Wu,J.Zhang,and M.Betke.Online Motion Agreement Tracking.In Proc.BMVC,2013.

        [6]A.Bewley,G.Zongyuan,F.Ramos,and B.Upcroft.Simple online and Realtime Tracking.in ICIP,2016:3464-3468.

        [7]F.Yu,W.Li,Q.Li,Y.Liu,X.Shi,J.Yan.POI:Multiple Object Tracking with High Performance Detection and Appearance Feature.In BMTT,SenseTime Group Limited,2016.

        [8]T.E.Fortmann,Y.Bar-Shalom,and M.Scheffe.Sonar Tracking of Multiple Targets Using Joint Probabilistic Data Association.IEEE J.Ocean.Eng.,vol.8,no.3,pp.173-184,1983.

        [9]S.H.Rezatofighi,A.Milan,Z.Zhang,Qi.Shi,An.Dick,I.Reid.Joint Probabilistic Data Association Revisited.in ICCV,2015:3047-3055.

        [10]D.B.Reid.An Algorithm for Tracking Multiple Targets.IEEE Trans.Autom.Control,vol.24,no.6,pp.843-854,1979.

        [11]C.Kim,F.Li,A.Ciptadi,J.M.Rehg.Multiple Hypothesis Tracking Revisited.inICCV,2015:4696-4704.

        [12]B.Alexe,T.Deselaers,V.Ferrari.Measuring the Objectness of Image Windows.IEEE Transactions on Pattern Analysis and Machine Intelligence(TPAMI),2012.

        [13]L.Zheng,L.Shen,L.Tian,S.Wang,J.Wang,Q.Tian.Scalable Person Re-identification:A Benchmark.In CVPR,2015.

        [14]J.Munkres.Algorithms for the Assignment and Transportation Problems.J.of the Society of Industrial and Applied Mathematics,5(1):32-38,March 1957.

        [15]A.Milan,L.Leal-Taixé,I.Reid,S.Roth,K.Schindler.MOT16:A benchmark for Multi-Object Tracking.CoRR,2016.

        猜你喜歡
        關(guān)聯(lián)特征
        抓住特征巧觀察
        不懼于新,不困于形——一道函數(shù)“關(guān)聯(lián)”題的剖析與拓展
        “苦”的關(guān)聯(lián)
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識
        如何表達(dá)“特征”
        “一帶一路”遞進(jìn),關(guān)聯(lián)民生更緊
        不忠誠的四個(gè)特征
        奇趣搭配
        抓住特征巧觀察
        智趣
        讀者(2017年5期)2017-02-15 18:04:18
        中文字幕乱码熟妇五十中出| 97久久久一区二区少妇| 69精品国产乱码久久久| 日韩一区二区三区无码影院 | 国产不卡在线观看视频| 日本大乳高潮视频在线观看| 国产熟女高潮视频| 国产亚洲精品不卡在线| 国产av剧情精品麻豆| 欧洲多毛裸体xxxxx| 亚洲中文字幕无码专区| 麻豆人妻无码性色AV专区| 日韩av水蜜桃一区二区三区| 久久久久亚洲av无码专区喷水| 无码专区天天躁天天躁在线| 亚洲AV无码久久久久调教| 亚洲av色av成人噜噜噜| 中文字幕亚洲精品一区二区三区| 国产麻传媒精品国产av| 人妻丰满多毛熟妇免费区| 国产一区二区三区经典| 精品人妻av一区二区三区| 欧美亚洲国产一区二区三区| 乱中年女人伦av| 日本亚洲成人中文字幕| 国产自拍视频免费在线观看| 国产亚洲成av人片在线观看| 久久久久久成人毛片免费看| 国产无遮挡又黄又爽无VIP| 亚洲视频免费在线观看| 国精产品一区一区三区有限公司杨| 自拍欧美日韩| 在线亚洲国产一区二区三区| 人妻少妇看a偷人无码| 疯狂做受xxxx高潮欧美日本| 无码AV无码免费一区二区| 精品久久综合日本久久综合网| 久久久老熟女一区二区三区| 国产成人无码精品久久99| 亚洲精品国产av成人网| a级国产乱理伦片|