亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        在線(xiàn)學(xué)習(xí)機(jī)制下幾何模糊特征目標(biāo)檢測(cè)及跟蹤

        2016-04-11 01:21:53沈宋衍江南大學(xué)輕工過(guò)程先進(jìn)控制教育部重點(diǎn)實(shí)驗(yàn)室江蘇無(wú)錫214122
        光電工程 2016年2期
        關(guān)鍵詞:跟蹤目標(biāo)跟蹤在線(xiàn)學(xué)習(xí)

        陳 瑩,沈宋衍( 江南大學(xué) 輕工過(guò)程先進(jìn)控制教育部重點(diǎn)實(shí)驗(yàn)室,江蘇 無(wú)錫 214122 )

        ?

        在線(xiàn)學(xué)習(xí)機(jī)制下幾何模糊特征目標(biāo)檢測(cè)及跟蹤

        陳 瑩,沈宋衍
        ( 江南大學(xué) 輕工過(guò)程先進(jìn)控制教育部重點(diǎn)實(shí)驗(yàn)室,江蘇 無(wú)錫 214122 )

        摘要:針對(duì)目標(biāo)跟蹤中目標(biāo)框發(fā)生偏移、消失等問(wèn)題,于在線(xiàn)學(xué)習(xí)機(jī)制下提出一種基于幾何模糊的跟蹤檢測(cè)學(xué)習(xí)的目標(biāo)跟蹤方法。以跟蹤-檢測(cè)-學(xué)習(xí)為框架,利用Lucas-Kanade算法,獲得目標(biāo)的初步跟蹤結(jié)果。運(yùn)用幾何模糊的匹配思想代替?zhèn)鹘y(tǒng)檢測(cè)手法,有效校正跟蹤偏移,避免誤差累計(jì)。整合器比較跟蹤、檢測(cè)結(jié)果與上一幀結(jié)果的相似度,通過(guò)計(jì)算正負(fù)樣本與檢測(cè)子區(qū)域的歸一化相關(guān)系數(shù)比求得置信度,得到目標(biāo)的精準(zhǔn)定位。其結(jié)果通過(guò)學(xué)習(xí)器進(jìn)行在線(xiàn)學(xué)習(xí),從而進(jìn)行下一幀的跟蹤。實(shí)驗(yàn)結(jié)果表明,將該檢測(cè)思想應(yīng)用于快速移動(dòng)目標(biāo)跟蹤時(shí),在背景相似度較高的條件下,表現(xiàn)出了良好的性能,與其他新的方法比較也有較高的定位精度。

        關(guān)鍵詞:目標(biāo)跟蹤;幾何模糊;跟蹤-學(xué)習(xí)-檢測(cè);在線(xiàn)學(xué)習(xí)

        0 引 言

        視頻目標(biāo)跟蹤是計(jì)算機(jī)視覺(jué)的一個(gè)重要研究方向,在視頻監(jiān)控、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景[1],因此廣受研究者的關(guān)注,出現(xiàn)許多積極的研究成果。但是,由于明暗變化,目標(biāo)消失、變形,部分或者全部遮擋的問(wèn)題,設(shè)計(jì)一個(gè)魯棒的跟蹤系統(tǒng)仍是艱巨的任務(wù)。根據(jù)目標(biāo)外觀處理方式的不同,跟蹤方法可分為基于生成模型[2-6]和基于判別模型兩大類(lèi)[7-15]。

        生成模型首先要學(xué)習(xí)外觀模型來(lái)描述目標(biāo),然后搜索每一幀與目標(biāo)外觀最為相似的進(jìn)行學(xué)習(xí)。BLACK等人[2]通過(guò)離線(xiàn)的外觀模型學(xué)習(xí)一個(gè)子空間。然而,離線(xiàn)學(xué)習(xí)外觀模型對(duì)于適應(yīng)外觀變化是十分遲鈍的。為了處理這個(gè)外觀變化的問(wèn)題,許多在線(xiàn)模型被提出來(lái)了,例如WLS跟蹤[3]和IVT方法[4]。一般該類(lèi)方法要求訓(xùn)練得到一個(gè)完善的外觀模型,這需要大量的樣本,而在應(yīng)用中,已標(biāo)記的樣本很少,只能在跟蹤過(guò)程中獲得,跟蹤中獲得的樣本通常伴隨潛在的偏差,會(huì)導(dǎo)致跟蹤性能下降。

        基于判別模型的跟蹤算法,將跟蹤看作一個(gè)二分類(lèi)問(wèn)題,通過(guò)訓(xùn)練判別分類(lèi)器將目標(biāo)從背景中分離。Lichter[9]提出采用交叉bin顏色直方圖表示目標(biāo)特征,可以提高M(jìn)ean-Shift的魯棒性;Ning等人[10]指出采用BWH的Mean-Shift,通過(guò)迭代得到的結(jié)果與傳統(tǒng)Mean-Shift算法相同,并不能減少背景的影響;然后對(duì)BWH進(jìn)行改進(jìn),提出了CBWH,實(shí)現(xiàn)了對(duì)背景的有效抑制。在此之后,許多方法中的正樣本和負(fù)樣本也運(yùn)用到在線(xiàn)更新分類(lèi)器[11-15]:正樣本通過(guò)目標(biāo)定位從目標(biāo)位置上獲取,負(fù)樣本則是遠(yuǎn)離定位位置的圖片塊。但是,當(dāng)發(fā)生定位偏移時(shí),錯(cuò)誤的正負(fù)樣本將混淆分類(lèi)器,降低其分類(lèi)效果。文獻(xiàn)[14]中,TLD(Tracking-Learning-Detection)利用跟蹤檢測(cè)同時(shí)工作的思想,來(lái)共同確立跟蹤目標(biāo)框,并且利用二分類(lèi)的學(xué)習(xí)機(jī)制反饋給檢測(cè)器和跟蹤器,更新分類(lèi)器得到較高的跟蹤效率,但是一旦跟蹤器跟蹤失敗時(shí),無(wú)法產(chǎn)生新的正負(fù)樣本,那么分類(lèi)器分類(lèi)效果降低,即使在后續(xù)幀中能找到目標(biāo),目標(biāo)框也會(huì)引起延后的效果,導(dǎo)致目標(biāo)框發(fā)生了偏移。Martin Danelljan[15]提出了CNT算法,運(yùn)用顏色名稱(chēng)特征(Color Names)構(gòu)建目標(biāo)訓(xùn)練正則化最小二乘分類(lèi)器,進(jìn)行目標(biāo)跟蹤。

        本文在基于跟蹤-學(xué)習(xí)-檢測(cè)的目標(biāo)跟蹤框架下,為了解決TLD跟蹤發(fā)生偏移延后的問(wèn)題,引入了幾何模糊(Geometric Blur, GB)[16]特征匹配的思想,通過(guò)隨機(jī)森林初檢測(cè)和幾何模糊的深度檢測(cè)來(lái)設(shè)計(jì)TLD檢測(cè)器,改善檢測(cè)器精度和有效性,結(jié)合Lucas-Kanade (L-K)跟蹤與PN學(xué)習(xí),通過(guò)比較跟蹤和檢測(cè)置信度以及與上一幀的相似度更新學(xué)習(xí)的正負(fù)樣本,提高跟蹤準(zhǔn)確度,并根據(jù)跟蹤結(jié)果更新檢測(cè)器GB特征點(diǎn),進(jìn)而有效克服目標(biāo)的漂移問(wèn)題。

        1 基于GB的TLD檢測(cè)機(jī)制

        視頻幀進(jìn)入檢測(cè)器后,檢測(cè)器通過(guò)隨機(jī)森林分類(lèi)器選出多個(gè)最有可能是目標(biāo)的子區(qū)域,跟蹤器的結(jié)果相結(jié)合找到待匹配區(qū)域。在此基礎(chǔ)上,利用GB特征匹配得到檢測(cè)結(jié)果。

        1.1 初級(jí)檢測(cè)

        為了找到最接近目標(biāo)的子區(qū)域,與跟蹤器結(jié)果進(jìn)行相與確定匹配的區(qū)域,運(yùn)用隨機(jī)森林分類(lèi)器[17]中的隨機(jī)蕨叢(Random Ferns)[18]計(jì)算二維二值特征[19],通過(guò)后驗(yàn)概率進(jìn)行分類(lèi)尋找子區(qū)域。

        這些子區(qū)域與跟蹤器BBT的結(jié)果TB求覆蓋率覆蓋率最大的塊與BBT(TB)相或,所得區(qū)域則為待匹配區(qū)域,即目標(biāo)的初級(jí)檢測(cè)結(jié)果,其流程示意如圖2所示。

        圖1 目標(biāo)初級(jí)檢測(cè)Fig.1 The primary detection of object

        在圖1(a)中框內(nèi)為跟蹤器的結(jié)果;圖1(b)中框內(nèi)為隨機(jī)蕨叢初始檢測(cè)器的檢測(cè)結(jié)果,將覆蓋率最大的子區(qū)域與BBT相或,得到的區(qū)域即框內(nèi)區(qū)域(見(jiàn)圖1(c))??梢钥吹礁櫰鞯慕Y(jié)果對(duì)于目標(biāo)來(lái)說(shuō)已經(jīng)發(fā)生緩慢的偏移,而經(jīng)過(guò)初始檢測(cè)后,可以得到較好的匹配區(qū)域。

        1.2 基于GB特征的精檢測(cè)

        GB的局部特征點(diǎn)對(duì)形變下的目標(biāo)識(shí)別具有較好的效果,通過(guò)圖像邊緣能量特征點(diǎn),利用幾何描述,得到相對(duì)應(yīng)的匹配點(diǎn),這些匹配點(diǎn)個(gè)數(shù)不會(huì)因?yàn)閳D像變化而減少,且這些匹配特征點(diǎn)都位于目標(biāo)邊緣,通過(guò)匹配點(diǎn)的坐標(biāo)可以得到目標(biāo)檢測(cè)區(qū)域。

        1.2.1 GB特征點(diǎn)提取及匹配

        通常,目標(biāo)在發(fā)生形變的情況下,很難進(jìn)行精確匹配。Berg等[20]提出了一種形變狀態(tài)下的形狀匹配方法,即先對(duì)原信號(hào)進(jìn)行幾何模糊,通過(guò)對(duì)比不同物體形狀幾何模糊后的差別來(lái)判定兩個(gè)目標(biāo)是否相似。

        圖像幾何模糊特征提取的具體步驟如下:

        步驟1:通過(guò)對(duì)圖像進(jìn)行梯度計(jì)算得到4個(gè)方向(0°,45°,90°,135°)的邊緣能量稀疏信號(hào);

        步驟2:各稀疏通道通過(guò)卷積一個(gè)標(biāo)準(zhǔn)差為d的高斯核Gd,得到模糊模板Sd=Si* Gd。

        步驟3:計(jì)算基準(zhǔn)位置x0周?chē)膸缀文:枋鲎樱?/p>

        其中:α,β決定了模糊程度,x為x0周?chē)煌狞c(diǎn)。

        對(duì)于每個(gè)基準(zhǔn)點(diǎn),在4個(gè)通道中根據(jù)不同的距離均采樣,然后拼接4個(gè)通道的采樣點(diǎn)值從而得到最終的幾何模糊描述符。采樣一定的數(shù)量的邊緣點(diǎn)作為基準(zhǔn)點(diǎn),然后提取幾何模糊描述符用于匹配。

        否則,pi在目標(biāo)圖像中不存在匹配點(diǎn)。其中d為相似度衡量函數(shù)。

        1.2.2 精確目標(biāo)檢測(cè)

        由于目標(biāo)快速移動(dòng)或外界環(huán)境的影響,跟蹤器可能無(wú)法返回跟蹤結(jié)果,導(dǎo)致無(wú)法得到目標(biāo)初級(jí)檢測(cè)結(jié)果。為此,基于GB特征設(shè)計(jì)兩套精檢測(cè)方案。

        1) 當(dāng)跟蹤器返回跟蹤結(jié)果時(shí):采用1.1中的初級(jí)目標(biāo)檢測(cè)方法得到待匹配區(qū)域后,通過(guò)計(jì)算目標(biāo)圖像的GB特征點(diǎn),提取幾何模糊描述符,并且與模板圖像進(jìn)行匹配。

        如圖2所示,跟蹤器有結(jié)果時(shí),通過(guò)初檢測(cè)器,得到待匹配區(qū)域(圖中實(shí)線(xiàn)邊框)。并且初檢測(cè)區(qū)域與模板圖像通過(guò)式(2)進(jìn)行匹配,得到匹配結(jié)果,通過(guò)計(jì)算匹配點(diǎn)的最大最小的坐標(biāo)值,得到精檢測(cè)的結(jié)果(點(diǎn)畫(huà)線(xiàn))邊框區(qū)域)。由此可以通過(guò)精檢測(cè)的結(jié)果更加貼近目標(biāo)外界矩形,減少了背景對(duì)目標(biāo)的干擾。

        圖2 跟蹤器成功時(shí)的檢測(cè)結(jié)果Fig.2 The detection results of the tracker successfully

        2) 當(dāng)跟蹤器無(wú)法返回跟蹤結(jié)果時(shí),模板圖像與待檢測(cè)全圖進(jìn)行匹配,其操作流程如圖3所示,得到的GB匹配特征點(diǎn),將特征點(diǎn)位置的像素灰度置1得到的二值圖進(jìn)行膨脹得到Idilate(x, y ),同時(shí)計(jì)算原圖的梯度圖像,采用中值濾波和腐蝕操作方法消除背景噪聲得到圖像Ig(x, y),通過(guò)得到圖像Idect(x, y),可以通過(guò)Idect(x, y)膨脹填充等運(yùn)算找到面積最大的區(qū)域,得到檢測(cè)目標(biāo)區(qū)域。

        圖3 跟蹤器失敗時(shí)檢測(cè)流程Fig.3 Detection process when tracker failure

        2 在線(xiàn)學(xué)習(xí)整合器

        根據(jù)前文所述,無(wú)論跟蹤器是否成功,都能得到檢測(cè)結(jié)果,計(jì)算它的置信度。置信度的高低決定了跟蹤器和檢測(cè)器的效果。首先計(jì)算正負(fù)樣本與檢測(cè)結(jié)果的相似度,公式如下:

        其中:p+,p-為正負(fù)樣本,pBBd為檢測(cè)器的結(jié)果區(qū)域,CNCC為歸一化相關(guān)系數(shù)。

        利用正負(fù)樣本的相似度計(jì)算置信度:

        通過(guò)式(5)計(jì)算跟蹤器和檢測(cè)器的置信度,取置信度較高的作為跟蹤的最終結(jié)果。

        3 實(shí)驗(yàn)分析

        3.1 檢測(cè)器分析

        為檢驗(yàn)本文方法中檢測(cè)器有效性,將方法與基于SIFT匹配的檢測(cè)[21]以及原始TLD[14]檢測(cè)做分析比較。各方法的檢測(cè)結(jié)果如圖4所示,其中左側(cè)為檢測(cè)過(guò)程,右側(cè)為檢測(cè)結(jié)果。從圖中可以看出,通過(guò)SIFT匹配檢測(cè),匹配點(diǎn)通過(guò)與模板圖像的比例得到目標(biāo)框(紅色目標(biāo)框),由于發(fā)生了錯(cuò)誤匹配,目標(biāo)框發(fā)生嚴(yán)重偏移。而原始TLD的檢測(cè)器得到多個(gè)待選目標(biāo)框(圖中顯示為黃色框),從若干個(gè)大小不一的區(qū)域中選取最為合適的目標(biāo)區(qū)域,因?yàn)檫@些區(qū)域大小不一,導(dǎo)致檢測(cè)出來(lái)的結(jié)果可能只是目標(biāo)的一小部分,使得檢測(cè)結(jié)果發(fā)生偏移,跟蹤誤差增大。而本文的GB檢測(cè)機(jī)制可以在目標(biāo)圖像上找到比較多的匹配點(diǎn),從這些匹配點(diǎn)中得到檢測(cè)器的結(jié)果,并且效果對(duì)于前兩種算法來(lái)說(shuō)更好,能夠更好的約束跟蹤器結(jié)果。

        此外,檢測(cè)器的效率也影響著跟蹤結(jié)果,當(dāng)檢測(cè)器長(zhǎng)期處于沒(méi)有狀態(tài)的時(shí)候,那么相當(dāng)于TLD只有跟蹤器在工作,因此代碼的利用率也會(huì)降低。三種不同檢測(cè)方法的效率如表1。

        圖4 不同檢測(cè)方式對(duì)比Fig.4 Comparison of different detection methods

        從表1可以看出,本文的檢測(cè)器效率很高,TLD根據(jù)不同圖像檢測(cè)效率也不同,說(shuō)明TLD的檢測(cè)器并不是很穩(wěn)定,因此對(duì)于約束跟蹤器的結(jié)果也是時(shí)好時(shí)壞。SIFT特征匹配的檢測(cè)效果更差,很少能夠匹配成功,即使匹配成功,檢測(cè)到的目標(biāo)框?qū)Ω櫰鞯募s束也不是特別高,因此其效果不理想,沒(méi)有把目標(biāo)檢測(cè)全甚至沒(méi)有檢測(cè)到。本文的GB特征檢測(cè)器效率高,在多種復(fù)雜條件下能夠把目標(biāo)全檢測(cè)到,對(duì)跟蹤器的約束力也大大增加。

        表1 不同檢測(cè)器的檢測(cè)效率Table 1 The detection efficiency of different detectors

        3.2 跟蹤結(jié)果分析

        為驗(yàn)證本文跟蹤方法的有效性和先進(jìn)性,將本文方法與TLD且與較新的算法CT(Compressive Tracking)[22]和CNT(Color Names Tracker)[15]進(jìn)行效果對(duì)比,CT通過(guò)一定的寬松規(guī)則,生成一個(gè)稀疏的投影矩陣,然后直接將壓縮后的數(shù)據(jù)作為特征來(lái)使用。該跟蹤結(jié)果的分析采用兩種方式度量跟蹤性能,首先,利用跟蹤成功率對(duì)跟蹤性能進(jìn)行評(píng)價(jià):

        其中:Tв是跟蹤的邊界框,TG是真實(shí)的目標(biāo)框,當(dāng)csr>0.5時(shí)認(rèn)為跟蹤成功。

        表2顯示了不同算法的跟蹤成功率。從該表中可以看出,本文算法在3個(gè)視頻序列中的成功率相比較其他兩種算法均是最高的。TLD算法對(duì)運(yùn)動(dòng)的人以及目標(biāo)變化比較明暗,CT,CNT和TLD在目標(biāo)劇烈運(yùn)動(dòng)時(shí),會(huì)出現(xiàn)跟蹤丟失。而本文算法無(wú)論光照還是運(yùn)動(dòng)、形變等情況下,都有較好的成功率。

        其次,采用目標(biāo)中心的定位誤差δdist=|ctrack(x,y )-ctrue(x,y )|評(píng)價(jià)跟蹤性能,其中ctrack是跟蹤的中心點(diǎn)坐標(biāo),ctrue是真實(shí)的中心點(diǎn)坐標(biāo)。

        圖5顯示了跟蹤結(jié)果中心位置誤差的曲線(xiàn),從圖中可以看出Moto以及Pedestrian序列中本文算法的誤差率相對(duì)與其他兩種算法低,TLD算法在Pedestrian中產(chǎn)生嚴(yán)重起伏狀態(tài),表明跟蹤不穩(wěn)定,并且相比其他兩種方法,誤差大。CT在Moto中30~40幀之間產(chǎn)生劇烈起伏,CNT在30幀后發(fā)生嚴(yán)重漂移并且無(wú)法得到修正,誤差也越來(lái)越大,同樣產(chǎn)生漂移現(xiàn)象。David序列中,本文算法與其他算法曲線(xiàn)誤差不大,在80~110幀時(shí),目標(biāo)由暗往明亮的地方出現(xiàn)時(shí),光照明暗的快速變化,此時(shí)沒(méi)有TLD和CNT處理很好,但是隨著幀數(shù)的增加,本文算法慢慢修正補(bǔ)償,從160幀后誤差在快速下降。由此可見(jiàn),相比前兩種算法,本文算法對(duì)于漂移現(xiàn)象有很好的抑制作用。具體平均誤差如表3所示。

        表2 不同算法的成功率比較Table 2 Comparison of different algorithm success rate %

        表3 中心位置誤差Table 3 The center position error pixel

        從表3可以看出,本文算法在3組視頻上均是優(yōu)秀的。其他算法都有局限性,比如TLD算法的檢測(cè)器檢測(cè)效果無(wú)法對(duì)跟蹤器進(jìn)行約束,當(dāng)跟蹤器失敗的時(shí)候,檢測(cè)器的結(jié)果也不能保證檢測(cè)到或者檢測(cè)正確,導(dǎo)致跟蹤失敗。其檢測(cè)機(jī)制可能無(wú)法正確定位目標(biāo),這也導(dǎo)致錯(cuò)誤學(xué)習(xí),跟蹤效果大大降低,并且對(duì)于行走以及形變較大情況下,跟蹤有嚴(yán)重滯后現(xiàn)象。CT算法能很好面對(duì)遮擋,以及光照變化等問(wèn)題,但是目標(biāo)長(zhǎng)時(shí)間消失重現(xiàn)以后也無(wú)法跟蹤。CNT和CT面對(duì)劇烈運(yùn)動(dòng),攝像機(jī)運(yùn)動(dòng)等情況會(huì)出現(xiàn)嚴(yán)重偏離目標(biāo)現(xiàn)象,對(duì)于快速行走偶爾也會(huì)出現(xiàn)滯后現(xiàn)象。綜合來(lái)看,本文算法面對(duì)行走等形變的視頻序列跟蹤效果好于其他三種方法。對(duì)于劇烈運(yùn)動(dòng)、目標(biāo)遮擋、明暗變化也有較好的效果。

        圖5 中心位置誤差曲線(xiàn)Fig.5 The center position error curve

        圖6給出了4種方法在不同視頻的跟蹤結(jié)果,在Moto中,本文算法能更加準(zhǔn)確的處理一系列問(wèn)題,對(duì)于攝像機(jī)運(yùn)動(dòng),目標(biāo)劇烈運(yùn)動(dòng)等問(wèn)題相比于另外兩種方法更為出色。TLD在劇烈運(yùn)動(dòng)中,目標(biāo)范圍縮小的情況下,認(rèn)為不是目標(biāo),這樣白白丟失了目標(biāo)。CT和CNT在跟蹤時(shí),并沒(méi)有很好的跟蹤在目標(biāo)上,發(fā)生了跟蹤偏移,并且相當(dāng)嚴(yán)重,這也是因?yàn)閷?duì)于目標(biāo)背景相對(duì)于模糊的情況下,正負(fù)樣本在分類(lèi)時(shí)發(fā)生了錯(cuò)誤,導(dǎo)致了跟蹤失敗。

        在Pedestrain中,本文算法主要處理目標(biāo)走動(dòng)產(chǎn)生形變以及快速行走跟蹤滯后的問(wèn)題,CT、CNT與本文算法都能很好的跟蹤目標(biāo),成功率也相當(dāng)高。但是隨著幀數(shù)增加,CT、CNT會(huì)相對(duì)于真實(shí)目標(biāo)框稍微滯后一點(diǎn),而TLD由于目標(biāo)快速移動(dòng)并且形變較大,學(xué)習(xí)器并沒(méi)有很好的學(xué)習(xí),導(dǎo)致跟蹤嚴(yán)重滯后。

        綜上所述,原來(lái)的TLD檢測(cè)器對(duì)于變化較大的塊則認(rèn)為非目標(biāo),這樣就會(huì)降低檢測(cè)器的效率,對(duì)跟蹤器的約束也大大降低,因此降低了整體跟蹤精度。相較于原始的檢測(cè)器,基于GB的檢測(cè)方法可以避免因?yàn)樾巫兇蠖鴣G失的目標(biāo),并且增加了檢測(cè)精度以及效率,提高了對(duì)跟蹤器的約束,對(duì)正負(fù)樣本的修正也起到積極作用,對(duì)于目標(biāo)框偏移、消失有很好的抑制作用。

        4 結(jié) 論

        TLD跟蹤框架下,跟蹤器和檢測(cè)器通過(guò)在線(xiàn)學(xué)習(xí)機(jī)制不斷提升,能夠?qū)W習(xí)目標(biāo)諸多變化,但由于誤差累積或當(dāng)目標(biāo)發(fā)生較大偏移或形變時(shí)可能導(dǎo)致跟蹤失敗。論文基于幾何模糊匹配思想進(jìn)行檢測(cè)器設(shè)計(jì),當(dāng)跟蹤器發(fā)生偏移或丟失目標(biāo)時(shí),通過(guò)基于幾何模糊的目標(biāo)檢測(cè)機(jī)制定位目標(biāo)。在此基礎(chǔ)上進(jìn)行在線(xiàn)學(xué)習(xí),重新初始化跟蹤器,增加了檢測(cè)器以及學(xué)習(xí)的效率,有效解決跟蹤過(guò)程中目標(biāo)偏移和消失的問(wèn)題。

        參考文獻(xiàn):

        [1] Yilmaz A,Javed O,Shah M. Object tracking:A survey [J]. ACM Computing Surveys(S0360-0300),2006,38(4):13.

        [2] Black M J,Jepson A D. Eigentracking:Robust matching and tracking of articulated objects using a view-based representation[J].International Journal of Computer Vision(S0302-9743),1998,26(1):63-84.

        [3] Jepson A D,F(xiàn)leet D J,El-Maraghi T F. Robust online appearance models for visual tracking [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence(S1063-6919),2003,25(10):1296-1311.

        [4] Ross D A,Lim J,Lin R S,et al. Incremental learning for robust visual tracking [J]. International Journal of Computer Vision(S0920-5691),2008,77(1/3):125-141.

        [5] Adam A,Rivlin E,Shimshoni I. Robust fragments-based tracking using the integral histogram [C]// IEEE Conference on Computer Vision and Pattern Recognition,New York,2006,1:798-805.

        [6] MEI Xue,LING Haibin. Robust visual tracking using e1minimization [C]// IEEE 12th International Conference on Computer Vision,Kyoto,2009:1436-1443.

        [7] Collins R T,LIU Yanxi,Leordeanu M. Online selection of discriminative tracking features [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence(S0162-8828),2005,27(10):1631-1643.

        [8] Babenko B,YANG Ming-Hsuan,Belongie S. Robust object tracking with online multiple instance learning [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence(S0162-8828),2011,33(8):1619-1632.M Yang

        [9] Leichter I. Mean Shift Trackers with Cross-Bin Metrics [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence (S0162-8828),2012,34(4):695-706.

        [10] NING Jifeng,ZHANG Lei,ZHANG David,et al. Robust mean-shift tracking with corrected background-weighted histogram [J]. IET Computer Vision(S1751-9632),2012,6(1):62-69.

        [11] Babenko B,YANG Ming-Hsuan,Belongie S. Robust object tracking with online multiple instance learning [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence(S0162-8828),2011,33(8):1619-1632.

        [12] Kalal Z,Matas J,Mikolajczyk K. P-N learning:Bootstrapping binary classifiers by structural constraints [C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR),San Francisco,IEEE,2010:49-56.

        [13] ZHOU Qiuhong,LU Huchuan,YANG Ming-Hsuan. Online multiple support instance tracking [C]// IEEE International Conference on Automatic Face & Gesture Recognition and Workshops (FG 2011),Santa Barbara,IEEE,2011:545-552.

        [14] Kalal Z,Mikolajczyk K,Matas J. Tracking-learning-detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence(S0162-8828),2012,34(7):1409-1422.

        [15] Danelljan M,Khan F S,F(xiàn)elsberg M,et al. Adaptive color attributes for real-time visual tracking [C]// IEEE Conference on Computer Vision and Pattern Recognition (CVPR),Columbus,OH,June 23-28,2014:1090-1097.

        [16] Berg A C,Malik J. Geometric blur for template matching [C]// Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Kauai,Hawaii,December 8-14,2001,1:I-607-I-614 .

        [17] Breiman L. Random forests [J]. Machine Learning(S0885-6125),2001,45(1):5-32.

        [18] Ozuysal M,Calonder M,Lepetit V,et al. Fast keypoint recognition using random ferns [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence(S0162-8828),2010,32(3):448-461.

        [19] Kalal Z,Matas J,Mikolajczyk K. Online learning of robust object detectors during unstable tracking [C]// IEEE 12th International Conference on Computer Vision Workshops (ICCV Workshops),Kyoto,Sept. 27-Oct. 4,2009:1417-1424.

        [20] Berg A C,Berg T L,Malik J. Shape matching and object recognition using low distortion correspondences [C]// IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Berkeley,2005,1:26-33.

        [21] Lowe D G. Distinctive image features from scale-invariant keypoints [J]. International Journal of Computer Vision(S0920-5691),2004,60(2):91-110.

        [22] ZHANG Kaihua,ZHANG Lei,YANG Ming-Hsuan. Real-time compressive tracking [C]// Computer Vision–ECCV,F(xiàn)lorence,Italy,October 7-13,2012:866-879.

        Target Detection and Tracking Based on Geometric Blur with Online Learning Mechanism

        CHEN Ying,SHEN Songyan
        ( Key Laboratory of Advanced Process Control for Light Industry, Ministry of Education, Jiangnan University, Wuxi 214122, Jiangsu Province, China )

        Abstract:To solve the problem of tracking drifts or fail, a robust objects tracking algorithm based on geometric blur is proposed within the framework of online learning. Under the tracking-detection-learning mechanism, Lucas-Kanade algorithm is used to obtain the rough tracking estimation of the target. Based on the idea of geometric blur matching instead of traditional detection methods, the tracking drift is efficiently corrected. Then integrator is designed to compare the similarities between the previous frame and the results of the tracker and the detector. Their confidences are obtained by calculating normalized correlative coefficients between positive and negative samples and the detected region. An online learning is then developed to use the current result to update the tracker and the detector. Experimental results show that when applied to the fact moving target tracking under the condition of high background similarity, the proposed method performs well and outperforms other state-of-the-art methods with higher position accuracy.

        Key words:object tracking; geometric blur; tracking-detection-learning; online learning

        作者簡(jiǎn)介:陳瑩(1976-),女(漢族),浙江麗水人。副教授,博士,主要從事計(jì)算機(jī)視覺(jué)與模式識(shí)別的研究。E-mail: chengxx1991jn@163.com。

        基金項(xiàng)目:國(guó)家自然科學(xué)基金(61104213);江蘇省自然科學(xué)基金(BK2011146)

        收稿日期:2015-03-10; 收到修改稿日期:2015-06-08

        文章編號(hào):1003-501X(2016)02-0001-07

        中圖分類(lèi)號(hào):TP391

        文獻(xiàn)標(biāo)志碼:A

        doi:10.3969/j.issn.1003-501X.2016.02.001

        猜你喜歡
        跟蹤目標(biāo)跟蹤在線(xiàn)學(xué)習(xí)
        多視角目標(biāo)檢測(cè)與跟蹤技術(shù)的研究與實(shí)現(xiàn)
        工程建設(shè)手續(xù)辦理流程跟蹤與規(guī)劃移動(dòng)應(yīng)用研究
        基于改進(jìn)連續(xù)自適應(yīng)均值漂移的視頻目標(biāo)跟蹤算法
        信息化環(huán)境下高職英語(yǔ)教學(xué)現(xiàn)狀及應(yīng)用策略研究
        基于MOOC的微課制作方法
        基于混合式學(xué)習(xí)理念的大學(xué)生自主學(xué)習(xí)能力的培養(yǎng)研究
        基于SOA的在線(xiàn)學(xué)習(xí)資源集成模式的研究
        跟蹤學(xué)情,及時(shí)調(diào)整教學(xué)策略
        考試周刊(2016年64期)2016-09-22 21:56:24
        空管自動(dòng)化系統(tǒng)中航跡濾波算法的應(yīng)用與改進(jìn)
        科技視界(2016年5期)2016-02-22 12:25:31
        基于車(chē)牌識(shí)別的機(jī)混車(chē)道視頻測(cè)速算法
        亚洲va韩国va欧美va| 国产精品日本一区二区三区| 亚洲丰满熟女乱一区二区三区 | 毛片亚洲av无码精品国产午夜| 亚洲区小说区图片区| 中文字幕一区二区三在线| av黄页网国产精品大全| 免费无码一区二区三区蜜桃| 欧美一级三级在线观看| 国产激情视频在线观看你懂的| 亚洲综合日韩一二三区| 人妻有码中文字幕| 国产亚洲欧美日韩综合综合二区| 精品国产麻豆一区二区三区| 国产网站一区二区三区| 成av免费大片黄在线观看| 久久精品国产6699国产精| 国产av一区二区日夜精品剧情| 亚洲国产精品成人久久| 国产精品成人免费视频网站京东| 在线亚洲AV不卡一区二区| 亚洲乱码中文字幕三四区| 中文字幕中文有码在线| 性夜影院爽黄a爽在线看香蕉| 中文字幕日本女优在线观看| 中文字幕精品人妻在线| 国产精品成人久久电影| 国产最新一区二区三区天堂| 国产午夜福利在线观看中文字幕| 国产美女爽到喷出水来视频| 免费av片在线观看网站| 在线亚洲精品国产成人二区| 黄片视频免费在线播放观看| 国产无遮挡无码视频免费软件| 91精品久久久久含羞草| 日产国产精品亚洲高清| 亚洲色大成网站www永久网站| 丁香六月婷婷综合| 午夜国产在线精彩自拍视频| 亚洲中文字幕无码av永久| 欧美亚洲国产精品久久高清|