亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        類屬圖密集近鄰搜索的視覺跟蹤算法研究*

        2017-04-12 11:08:51王治丹蔣建國齊美彬
        傳感器與微系統(tǒng) 2017年4期
        關鍵詞:跟蹤器密集表象

        王治丹, 蔣建國, 齊美彬

        (合肥工業(yè)大學 計算機與信息學院,安徽 合肥 230009)

        類屬圖密集近鄰搜索的視覺跟蹤算法研究*

        王治丹, 蔣建國, 齊美彬

        (合肥工業(yè)大學 計算機與信息學院,安徽 合肥 230009)

        提出一種基于密集近鄰搜索的視覺跟蹤算法,能夠有效應對目標跟蹤過程中出現(xiàn)的形變和遮擋問題?;隈R爾科夫隨機場建立圖像分割模型,提取出目標部件,建立目標部件的類屬圖矩陣;通過搜索類屬圖矩陣中的密集近鄰,得到相鄰幀之間目標部件的匹配關系;通過匹配關系得到跟蹤目標位置概率圖,確定目標跟蹤位置。實驗結果表明:本文提出的方法相比其他同類方法效果更好。

        視覺跟蹤; 類屬圖; 密集近鄰搜索; 置信圖

        0 引 言

        視覺跟蹤作為計算機視覺領域的基礎問題,在各方面都取得了重要應用,比如視頻監(jiān)控等。之前,研究者設計出了各種算法并取得重要進展,但是由于目標在跟蹤過程中出現(xiàn)形變、面臨遮擋等情況,對目標的跟蹤仍然是一項很棘手的工作。

        早期的大多數(shù)跟蹤算法是基于目標整體模型建立特征表達來描述目標的表象變化,比如稀疏表示[1]以及子空間學習[2]等。由于存在目標形變和遮擋,即使將特征表達改進得相對全面和復雜,很多固定尺度的跟蹤器仍然會跟蹤丟失。為克服這一問題,研究者提出了基于部件的跟蹤器[3~5],可以更靈活地處理目標形變和尺度變化,并且有效檢測出遮擋的發(fā)生。文獻[3]基于簡單線性迭代聚類(simple linear iterative clustering,SLIC)算法將目標搜索區(qū)域分割成超像素集合,通過建立表象模型來區(qū)分前景和背景區(qū)域,抵御因形變和遮擋引入的背景噪聲。但是由于較少考慮目標部件之間的結構信息,當前景和背景表象相似時容易混淆目標。在此基礎上,文獻[4]考慮目標部件間的結構信息,基于頻譜分析算法將跟蹤問題轉化為圖匹配問題。相似地,文獻[5]利用目標結構信息,訓練了一個在線的結構化隱式支持向量機(support vector machine,SVM)模型來預測目標中各部件的位置。但是由于假設目標尺度不變,當目標發(fā)生形變的時候會出現(xiàn)跟蹤困難。另外,文獻[9,10]借助了圖像分割技術來區(qū)分目標和背景區(qū)域,較精確地給出了跟蹤目標的輪廓,提升跟蹤效果。

        考慮到跟蹤目標可能會出現(xiàn)形變和面臨遮擋,本文提出了基于類屬圖密集近鄰搜索的跟蹤(dense neighborhoods-based tracker, DNT)方法。首先,在當前幀的目標搜索區(qū)域內,根據(jù)圖像分割技術提取出目標部件,并建立目標部件的類屬圖矩陣。然后,通過搜索類屬圖矩陣的密集近鄰,得到相鄰幀之間的目標部件匹配關系。最后,通過目標部件及其匹配關系得到目標位置的概率圖(confidence map),通過采樣確定目標的最優(yōu)位置。

        1 目標類屬圖

        1.1 建立類屬圖

        首先,在當前幀的目標搜索區(qū)域內,基于馬爾科夫隨機場(Markov random field, MRF)建立圖像分割模型,根據(jù)圖割(graph cut)算法[8]技術提取出目標部件。初始化第一幀目標部件集合為P,當前幀提取出的候選目標部件集合為Q。根據(jù)兩幀目標部件集合,建立目標部件的類屬圖(affinity graph):G=(V,E),其中包括:1)圖節(jié)點v∈V,代表相鄰部件匹配對;2)圖邊e∈E,代表匹配對間的幾何關系。定義如下

        (1)

        1.2 類屬圖矩陣

        圖1 類屬圖矩陣含義

        2 密集近鄰搜索

        (2)

        (3)

        式中xo為起始目標節(jié)點分數(shù),k為密集近鄰內節(jié)點的個數(shù),初始化為一個很小的值,在搜索密集近鄰的過程中不斷增大,節(jié)點概率加權和最大時得到最優(yōu)解。

        圖2為密集近鄰關系搜索示意圖,左側為類屬圖,實心點為相對可信的匹配對,空心點為異常匹配對。如果k=3,根據(jù)關聯(lián)矩陣A,3NN(o)={a,c,q}[9],而通過密集近鄰搜索得到3DN(o)={b,c,q}的關聯(lián)值加權和最大,子矩陣B為該密集近鄰的類屬矩陣。

        圖2 密集近鄰關系搜索示意圖

        式(7)、式(8)是一個放松約束條件的二次規(guī)劃NP難問題,根據(jù)文獻[9],對于滿足公式(3)的向量解 ,通過以下步驟進行迭代,獲得最優(yōu)解

        (4)

        公式表明,每個迭代過程只更新一組節(jié)點對(xi,xj),i≠j。常數(shù)α由下式計算得到

        (5)

        3 計算目標位置

        θn(δl,δs)}

        (6)

        式中θr(δl,δs)和θc(δl,δs)分別代表目標中心lc+δl和尺度為s+δs確定的目標框里面,匹配候選部件和非匹配候選部件的像素個數(shù);θn(δl,δs)表示背景部件中的像素個數(shù)。振蕩項{δl,δs}設置為1.1節(jié)中定義的近鄰距離ε=1.5W·H/N。系數(shù)ω代表了匹配候選部件的可信度。

        4 實驗結果與分析

        基于文獻[15],本文使用了近年來更流行的精度曲線,即給出跟蹤成功率分別與位置誤差和目標覆蓋率大小的關系。圖3(a)表示成功率評價曲線(successplots),曲線下面積作為跟蹤器排序分數(shù);圖3(b)表示精度評價曲線(precisionplots),以像素20為閾值給出排序分數(shù)。從2組精度曲線和排序分數(shù)可以看出,本文提出的算法相比其他8種跟蹤器具有更好的效果。

        圖3 實驗結果評價曲線

        圖4給出了幾種序列各跟蹤方法的跟蹤效果?;诓考母櫰鱗3,4,14]相比基于整體目標的跟蹤器[2,12,13]在形變目標跟蹤上效果更好。這是由于基于部件的跟蹤器專注于局部部件表象而非全局目標表象,對目標結構變化不敏感。而本文算法相比于其它基于部件的跟蹤器[3,4,14]具有更精確的效果,是由于采用密集近鄰搜索算法將跟蹤過程中出現(xiàn)的異常值有效地舍去,選擇更可信的密集近鄰,成功地避免了形變或者遮擋問題引入的背景噪聲,捕捉丟失的前景信息。

        圖4 跟蹤結果

        本文提出的跟蹤器能在這類序列中表現(xiàn)出比較好的性能,得益于基于MRF的分割模型在目標搜索區(qū)域內提供了較為可靠的候選目標部件。另外更高精度的部件匹配算法也抵御了不規(guī)則運動的不利影響。

        5 結束語

        實驗在8個視頻序列上比較了最近的8種跟蹤算法,證明了本文提出算法的有效性。未來可考慮引入高階類屬圖建模,提高抗噪性;將目標整體表象和部件表象相結合建立更魯棒的表象特征,提升跟蹤效果。

        [1]ZhangK,ZhangL,YangMH.Real-timecompressivetra-cking[C]∥EuropeanConferenceonComputerVision,Florence,2012:864-877.

        [2]LiuH,YangX,LateckiLJ,etal.Denseneighborhoodsonaffinitygraph[J].InternationalJournalofComputerVision,2012,98(1):65-82.

        [3]ZhongW,LuH,YangMH.Robustobjecttrackingviasparsity-basedcollaborativemodel[C]∥ProceedingsofIEEEConferenceonComputerVisionandPatternRecognition,Rhode,2012:1838-1845.

        [4]LimJ,RossDA,LinRS,etal.Incrementallearningforvisualtracking[C]∥AdvancesinNeuralInformationProcessingSystems,Vancouver,2004:793-800.

        [5]HareS,SaffariA,TorrPHS.Struck:Structuredoutputtrackingwithkernels[C]∥InternationalConferenceonComputerVision,IEEETransPatternAnalMachIntell,2011:263-270.

        [6]WangS,LuH,YangF,etal.Superpixeltracking[C]∥Procee-dingsoftheIEEEInternationalConferenceonComputerVision,Barcelona,2011:1323-1330.

        [7]YaoR,ShiQ,ShenC,etal.Part-basedvisualtrackingwithonlinelatentstructurallearning[C]∥ProceedingsofIEEEConferenceonComputerVisionandPatternRecognition,Oregon,2013:2363-2370.

        [8]CaiZ,WenL,LeiZ,etal.Robustdeformableandoccludedobjecttrackingwithdynamicgraph[J].IEEETransactionsonImageProcessing,2014,23(12):5497-5509.

        [9]WenL,DuD,LeiZ,etal.JOTS:Jointonlinetrackingandsegmentation[C]∥IEEEConferenceonComputerVisionandPatternRecognition,Boston,2015:2226-2234.

        [10]ChangJ,FisherJW.Topology-constrainedlayeredtrackingwithlatentflow[C]∥IEEEInternationalConferenceonComputerVision,Sydney,2013:161-168.

        [11]BoykovY,KolmogorovV.Anexperimentalcomparisonofmin-cut/max-flowalgorithmsforenergyminimizationinvision[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2001,11(26):1124-1137.

        [12]ChoM,SunJ,DuchenneO,etal.Findingmatchesinahaystack:Amax-poolingstrategyforgraphmatchinginthepresenceofoutliers[C]∥ProceedingsoftheComputerVisionandPatternRecognition,Columbus,2014:2091-2098.

        [13]ZhangK,ZhangL,LiuQ,etal.Fastvisualtrackingviadensespatio-temporalcontextlearning[C]∥EuropeanConferenceonComputerVision,Zurich,2014:127-141.

        [14]AdamA,RivlinE,ShimshoniI.Robustfragments-basedtrackingusingtheintegralhistogram[C]∥ProceedingsofComputerVisionandPatternRecognition,NewYork,2006:798-805.

        [15]CehovinL,KristanM,LeonardisA.Robustvisualtrackingusinganadaptivecoupled-layervisualmodel[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2013,35(4):941-953.

        [16]WuY,LimJ,YangMH.Onlineobjecttracking:Abench-mark[C]∥IEEEConferenceonComputerVisionandPatternRecognition,2013:2411-2418.

        Research on visual tracking algorithm based on affinity graph dense neighborhoods searching*

        WANG Zhi-dan, JIANG Jian-guo, QI Mei-bin

        (School of Computer and Information,Hefei University of Technology,Hefei 230009,China)

        A visual tracking algorithm based on dense neighborhoods searching on affinity graph,which can be applied in the scenes with large deformations and severe occlusions.Object parts are extracted based on image segmentation model of Markov random field,affinity graph matrix is built by searching dense neighborhoods in affinity graph matrix, confidence map of target location is obtained by matching relationship to determine location of target tracking.Experimental results show that the proposed algorithm is better compared to other state-of-the-art methods.

        visual tracking; affinity graph; dense neighborhoods searching; confidence map

        10.13873/J.1000—9787(2017)04—0146—04

        2016—04—14

        國家自然科學基金資助項目(61371155);安徽省科技攻關資助項目(1301b042023)

        TP 751

        A

        1000—9787(2017)04—0146—04

        王治丹(1989-),女,碩士,研究方向為數(shù)字圖像處理、目標檢測以及智能視頻監(jiān)控系統(tǒng)。

        猜你喜歡
        跟蹤器密集表象
        光伏跟蹤器陣列跟蹤精度的測算方法研究
        太陽能(2022年3期)2022-03-29 05:15:50
        耕地保護政策密集出臺
        密集恐懼癥
        英語文摘(2021年2期)2021-07-22 07:56:52
        淺析一種風光儲一體化跟蹤器
        太陽能(2020年3期)2020-04-08 03:27:10
        超長待機的自行車位置跟蹤器
        繪畫往事:表象的折射
        雙向多軌跡判定方法在目標跟蹤中的應用研究
        透過表象看公式
        教你識破非法集資及傳銷的“十三種表象”
        談表象積累對學生思維能力的培養(yǎng)
        偷拍网日本一区二区三区| 精品人妻无码视频中文字幕一区二区三区 | 国产精品久久久久影院| 欧美色图中文字幕| 亚洲人成伊人成综合网中文| 蜜桃视频在线观看网址| 东京道一本热中文字幕| 亚洲爆乳无码专区| 精品视频在线观看一区二区有 | 亚洲一区二区三区av资源| 亚洲中文字幕剧情类别| 国产福利视频在线观看| 亚洲精品国产综合一线久久| 国产不卡一区在线视频| av网站在线观看大全| 国产午夜精品一区二区三区嫩草| 免费在线视频一区| 美腿丝袜一区在线观看| 国产欧美在线观看不卡| 激情综合色五月丁香六月亚洲 | 久久久麻豆精亚洲av麻花| 久久婷婷人人澡人人爽人人爱| 91精品国产综合成人| 亚洲一区二区三区品视频| 人妻精品视频一区二区三区| 精品国产一区二区三区免费| 本道无码一区二区久久激情| 91精品国产综合久久国产| 成品人视频ww入口| 巨熟乳波霸若妻在线播放| 看黄色亚洲看黄色亚洲| 国产自拍偷拍精品视频在线观看| 樱桃视频影视在线观看免费| 国产人澡人澡澡澡人碰视频| 少妇久久一区二区三区| 中文字幕人妻av四季| 日本精品av中文字幕| 色哟哟最新在线观看入口| 六月丁香婷婷色狠狠久久| 日本一区二区三区看片| 中文字幕日韩人妻少妇毛片|