亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        利用密度描述符對(duì)應(yīng)的視覺(jué)跟蹤算法

        2014-01-16 08:04:42查宇飛王錦江張立朝
        關(guān)鍵詞:關(guān)鍵點(diǎn)特征檢測(cè)

        查宇飛,楊 源,王錦江,張立朝

        (1.空軍工程大學(xué)航空航天工程學(xué)院,710038,西安;2.空軍工程大學(xué)空管領(lǐng)航學(xué)院,710038,西安;3.空軍工程大學(xué)綜合電子信息系統(tǒng)與電子對(duì)抗技術(shù)研究中心,710038,西安)

        魯棒視覺(jué)跟蹤系統(tǒng)的關(guān)鍵在于尋找目標(biāo)的不變特征,光流[1]假定目標(biāo)在相鄰圖像之間的亮度保持恒定。然而在實(shí)際情況下,當(dāng)目標(biāo)發(fā)生一些微小變化時(shí),如光照變化、目標(biāo)形變或視頻中噪音較大等,容易丟失目標(biāo),很難獲得滿意的跟蹤效果。顏色直方圖特征[2]描述了顏色分布的恒常性,文獻(xiàn)[3-4]分別在粒子濾波和均值漂移框架下,利用目標(biāo)直方圖不變特征來(lái)實(shí)現(xiàn)魯棒的目標(biāo)跟蹤。然而,直方圖本質(zhì)上是一種統(tǒng)計(jì)特征,未考慮目標(biāo)的結(jié)構(gòu)信息。子空間跟蹤算法[5]利用子空間的不變性,但當(dāng)目標(biāo)發(fā)生遮擋或姿態(tài)變化時(shí),主成分比重降低,易丟失目標(biāo)。尺度不變特征轉(zhuǎn)換(SIFT)描述符[6]、BRIEF描述符[7]和DBrief描述符[8]等不變特征描述符,利用局部相關(guān)像素對(duì)關(guān)鍵點(diǎn)進(jìn)行描述,使關(guān)鍵點(diǎn)具有尺度和旋轉(zhuǎn)不變性。文獻(xiàn)[9]利用SIFT算法檢測(cè)到的稀疏關(guān)鍵點(diǎn)及其描述符構(gòu)建相關(guān)圖來(lái)表征目標(biāo),然而在實(shí)際中相關(guān)圖的構(gòu)建比較困難,從而導(dǎo)致跟蹤失敗,可將SIFT描述符作為均值漂移的度量實(shí)現(xiàn)跟蹤[10]。

        以上基于局部不變特征描述符的跟蹤算法均屬于稀疏描述符,關(guān)鍵點(diǎn)檢測(cè)結(jié)果對(duì)跟蹤結(jié)果影響很大。與稀疏描述符不同,密度描述符不需要檢測(cè)關(guān)鍵點(diǎn),可直接對(duì)每一個(gè)像素建立描述符,DAISY描述符[11]是2010年提出的一種密度描述符,由像素點(diǎn)附近的多個(gè)采樣點(diǎn)所生成的卷積方向圖向量組成,該方法對(duì)仿射變換和光照差異都有較好的魯棒性,在稠密立體匹配中取得了較好的效果。Liu等人利用密度SIFT[12]尋求圖像對(duì)應(yīng)關(guān)系[13],但密度SIFT沒(méi)有考慮尺度的影響。為克服稀疏描述符在關(guān)鍵點(diǎn)檢測(cè)中的不穩(wěn)定性,本文提出了一種基于密度描述符的跟蹤算法,避免了關(guān)鍵點(diǎn)檢測(cè)不穩(wěn)定及其誤匹配帶來(lái)的影響。所提算法通過(guò)計(jì)算目標(biāo)在相鄰兩幀之間的密度描述符流,考慮目標(biāo)的空間分布特性和描述符的權(quán)重,得到目標(biāo)的運(yùn)動(dòng)矢量,獲得目標(biāo)在當(dāng)前幀中的估計(jì);根據(jù)密度描述符的運(yùn)動(dòng)矢量與目標(biāo)運(yùn)動(dòng)矢量的關(guān)系及其匹配程度,更新密度描述符的權(quán)重。如此迭代,從而實(shí)現(xiàn)對(duì)感興趣目標(biāo)的魯棒跟蹤。

        1 密度描述符及其運(yùn)動(dòng)矢量的計(jì)算

        尺度不變特征轉(zhuǎn)換是計(jì)算機(jī)視覺(jué)具有里程碑意義的工作,包含關(guān)鍵點(diǎn)的檢測(cè)、描述和匹配3個(gè)步驟,但本文所提算法不檢測(cè)關(guān)鍵點(diǎn),只是對(duì)圖像中像素點(diǎn)規(guī)則采樣,直接構(gòu)建圖像的密度描述。SIFT描述符在檢測(cè)到的關(guān)鍵點(diǎn)周圍取一個(gè)16×16的鄰域像素區(qū)域,并將鄰域劃分為16個(gè)子區(qū)域,每個(gè)子區(qū)域的直方圖分布為

        式中:N表示該區(qū)域中的像素個(gè)數(shù);Hi表示第i個(gè)子區(qū)域的直方圖,將圖像分成16個(gè)子區(qū)域;b表示圖像的灰度級(jí),一般設(shè)為8個(gè)灰度級(jí);p表示像素在圖像中的位置;Q(I(p),b)為指示函數(shù),若像素屬于灰度級(jí)b,則輸出為1,否則為0。因此,每個(gè)子區(qū)域?qū)?yīng)一個(gè)含有8個(gè)灰度級(jí)的直方圖來(lái)描述該像素的局部描述符,然后將每個(gè)子區(qū)域直方圖合并,得到一個(gè)128維的向量,即SIFT描述符

        SIFT描述符在匹配時(shí),要預(yù)先知道每個(gè)描述符的尺度和方向參數(shù)。SURF描述符[14]利用積分圖像,降低SIFT描述符計(jì)算,獲得接近SIFT描述符的效果。對(duì)于目標(biāo)的描述,需首先檢測(cè)目標(biāo)中的關(guān)鍵點(diǎn),然后對(duì)每個(gè)關(guān)鍵點(diǎn)進(jìn)行描述,構(gòu)成目標(biāo)模型

        式中:Pi表示關(guān)鍵點(diǎn)的位置;σi表示關(guān)鍵點(diǎn)的尺度;θi表示關(guān)鍵點(diǎn)的主方向;Fi表示描述符。然而,在實(shí)際中并不能總是在同一個(gè)位置、尺度和方向上得到相同的描述符,這樣會(huì)導(dǎo)致錯(cuò)誤的匹配,當(dāng)檢測(cè)到的特征很少時(shí),少量的匹配錯(cuò)誤將會(huì)使目標(biāo)模型無(wú)法有效地表示目標(biāo)。為了解決這一問(wèn)題,本文提出用密度特征描述符表征目標(biāo)模型,這種描述符不依賴特征檢測(cè),直接對(duì)目標(biāo)中的規(guī)則像素點(diǎn)進(jìn)行描述。

        設(shè)原始圖像I的尺寸是M×N,構(gòu)建的密度特征描述符記作F,其維度為M×N×128,最后一維表示SIFT特征描述符的維數(shù)。由于密度特征描述符不是建立在特征檢測(cè)的基礎(chǔ)上,故沒(méi)有尺度和方向信息。因此,目標(biāo)模型表示為

        在時(shí)刻t,圖像中位于(x,y)處的像素值表示為I(x,y,t),而光流假設(shè)相鄰兩幀像素灰度值保持不變,即I(x,y,t)=I(x+u,y+v,t+1),從而獲得像素的運(yùn)動(dòng)矢量(u,v)。假設(shè)相鄰幀的描述符保持不變,即F(x,y,t)=F(x+u,y+v,t+1),同樣獲得各個(gè)像素的運(yùn)動(dòng)矢量(u,v)。特征描述符含有該像素的局部信息,而不僅僅考慮單個(gè)像素的信息。

        取p=(x,y)作為與圖像等價(jià)的網(wǎng)格,取w(p)=(u(p),v(p))作為p 點(diǎn)的運(yùn)動(dòng)向量,得約束密度SIFT描述符為

        F(p,t)-F(p+w(p),t+Δt)=0 (5)式中:F(p,t)為t時(shí)刻時(shí)p點(diǎn)的密度特征描述符??紤]到跟蹤問(wèn)題中目標(biāo)運(yùn)動(dòng)的平滑性,利用一階馬爾科夫隨機(jī)場(chǎng)構(gòu)造能量函數(shù)

        式(6)中的能量函數(shù)包含數(shù)據(jù)項(xiàng)、位移項(xiàng)和平滑項(xiàng)3項(xiàng)。其中:數(shù)據(jù)項(xiàng)主要保證目標(biāo)在相鄰幀之間具有相同的描述符;位移項(xiàng)用來(lái)懲罰目標(biāo)在相鄰幀之間的運(yùn)動(dòng)量;平滑項(xiàng)用來(lái)約束目標(biāo)內(nèi)部的相鄰像素應(yīng)具有的相同的運(yùn)動(dòng)矢量。在目標(biāo)函數(shù)的位移和平滑項(xiàng)中引入閾值d,通過(guò)簡(jiǎn)化L1范數(shù),消除外點(diǎn)匹配和流不連續(xù)性的影響,其中β和α分別為數(shù)據(jù)項(xiàng)和平滑項(xiàng)的系數(shù),代表對(duì)應(yīng)項(xiàng)在整個(gè)能量函數(shù)中的比重。式(6)可以采用SITF流[14]、PatchMatch[15]、可變空域金字塔匹配[16]等方法進(jìn)行優(yōu)化。

        2 目標(biāo)跟蹤算法

        通過(guò)上節(jié)的分析,可以獲得密度描述符的運(yùn)動(dòng)矢量,而目標(biāo)在視頻中的位置不斷發(fā)生變化,同時(shí)自身的狀態(tài)(如尺度、方向等)也不斷發(fā)生變化,因此要實(shí)現(xiàn)對(duì)目標(biāo)的魯棒跟蹤,需要解決2個(gè)問(wèn)題:如何由單個(gè)特征描述符的運(yùn)動(dòng)矢量去估計(jì)目標(biāo)的運(yùn)動(dòng)矢量;如何有效地更新目標(biāo)模型,以適應(yīng)目標(biāo)的變化。本節(jié)將在上節(jié)獲得的密度描述符運(yùn)動(dòng)矢量的基礎(chǔ)上,詳細(xì)描述跟蹤的過(guò)程。

        (1)初始化。在初始化圖像中,手動(dòng)標(biāo)定目標(biāo)在圖像中的位置,用矩形R={x,y,w,h}來(lái)表示,其中(x,y)表示矩形左上角的位置,(w,h)表示矩形的寬和高。目標(biāo)圖像為x=I(R),即矩形框所對(duì)應(yīng)的圖像。構(gòu)建目標(biāo)的密度描述符,同時(shí)初始化每個(gè)描述符,使其權(quán)重相同,即wij=1/(M×N)。

        (2)跟蹤過(guò)程。當(dāng)獲得下一幀圖像后,在上一幀估計(jì)的目標(biāo)位置上獲取候選目標(biāo)圖像xt=It(Rt-1),同時(shí)獲得對(duì)應(yīng)的密度特征描述符Ft=Dense(xt)。通過(guò)計(jì)算相鄰兩幀目標(biāo)的密度特征描述符對(duì)應(yīng)關(guān)系,最小化能量函數(shù)獲得運(yùn)動(dòng)矢量

        式中:u、v為M×N矩陣,表示目標(biāo)中每個(gè)像素點(diǎn)的運(yùn)動(dòng)矢量。整個(gè)目標(biāo)的運(yùn)動(dòng)矢量還需要考慮目標(biāo)本身的空間分布特性和特征描述符的重要性。本文采用文獻(xiàn)[16]所提出的可變空域金字塔算法,可快速實(shí)現(xiàn)相鄰兩幀目標(biāo)的密度特征描述符對(duì)應(yīng)關(guān)系。在跟蹤過(guò)程中,一般采用矩形框標(biāo)識(shí)目標(biāo),因此離矩形中心越近的像素,屬于目標(biāo)的可能性越大,同時(shí)不同位置的描述符對(duì)表征目標(biāo)信息的貢獻(xiàn)也不一樣,因此可采用下式來(lái)估計(jì)目標(biāo)的運(yùn)動(dòng)矢量

        式中:pc表示矩形框的中心位置;w表示描述符的重要度度量;δ為空域分布參數(shù)。可以看出,目標(biāo)的運(yùn)動(dòng)矢量由密度描述符流、空間分布和描述符的重要程度共同決定。

        (3)更新過(guò)程。在跟蹤過(guò)程中需要適應(yīng)不斷變化的目標(biāo),而每個(gè)描述符表征目標(biāo)的重要程度不一樣,需要不斷更新權(quán)重。權(quán)重更新如下

        3 實(shí)驗(yàn)分析

        所有實(shí)驗(yàn)都是在Intel Core Duo 3.0GHz、2GB內(nèi)存的筆記本上進(jìn)行的。算法通過(guò)MATLAB實(shí)現(xiàn),核心算法采用MEX文件,其中計(jì)算SIFT流的算法采用文獻(xiàn)[16]的公開(kāi)代碼,能量函數(shù)構(gòu)建中的參數(shù)取值為:α=2,β=0.05,d=40,空域分布參數(shù)δ取目標(biāo)矩形框?qū)捀呔档?/4,權(quán)重更新參數(shù)λ=0.7。跟蹤過(guò)程中目標(biāo)狀態(tài)只考慮目標(biāo)在二維空間的狀態(tài),本文算法效率與目標(biāo)框的大小相關(guān),平均為20幀/s。相對(duì)于稀疏描述符,密度描述符不需要檢測(cè)關(guān)鍵點(diǎn),得益于文獻(xiàn)[16]提出的快速優(yōu)化算法,因此大大加快了匹配速度,保證了本文算法的實(shí)時(shí)性。

        實(shí)驗(yàn)數(shù)據(jù)為 MILT數(shù)據(jù)庫(kù)[17]和PROST數(shù)據(jù)庫(kù)[18]中的8段視頻,目標(biāo)真實(shí)狀態(tài)通過(guò)相應(yīng)的數(shù)據(jù)庫(kù)獲得,目標(biāo)初始狀態(tài)由數(shù)據(jù)庫(kù)給出。比較算法包括基于子空間不變的跟蹤算法(IVT)、基于正反向光流的跟蹤算法(Median Flow)[19]和基于稀疏不變特征的稀疏描述符[20]。IVT跟蹤和 Median Flow跟蹤的代碼分別來(lái)自公開(kāi)的代碼,稀疏描述符的代碼是由VLFEAT和RANSAC工具箱[21]編寫的。

        圖1 跟蹤結(jié)果

        3.1 定性分析

        圖1 是部分實(shí)驗(yàn)結(jié)果圖,IVT跟蹤算法、Median Flow跟蹤算法、稀疏描述符跟蹤算法和本文所提算法(DDC算法)分別用虛線、點(diǎn)線、點(diǎn)劃線和實(shí)線的矩形框表示。下面將從光照變化、姿態(tài)變化和部分遮擋3個(gè)方面對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行定性分析。

        (1)光照變化。在視頻“Sylvester”和“David”中,都有不同程度的光照變化,特別是“David”中,目標(biāo)由暗處走向亮處,光照變化較大,光照變化使目標(biāo)灰度值突然變化,導(dǎo)致目標(biāo)外觀改變,增加了跟蹤的難度?;谙∈杳枋龇母櫼蕾囂卣鼽c(diǎn)的檢測(cè)從而導(dǎo)致跟蹤的不穩(wěn)定。IVT跟蹤受光照的影響,導(dǎo)致正樣本更新產(chǎn)生誤差,而誤差積累會(huì)導(dǎo)致跟蹤結(jié)果偏離真實(shí)目標(biāo)。Median Flow跟蹤是利用光流在相鄰兩幀之間預(yù)測(cè)目標(biāo)運(yùn)動(dòng)矢量,在光照變化不大的情況下,能夠較好地跟蹤目標(biāo)。密度特征描述符利用相鄰像素相對(duì)分布關(guān)系,而目標(biāo)整體灰度的變化不會(huì)改變相對(duì)分布,從而避免了光照變化帶來(lái)的影響,故能穩(wěn)定地跟蹤目標(biāo)。

        (2)姿態(tài)變化。視頻“Girl”、“Jumping”、“Lemming”和“Box”中,目標(biāo)發(fā)生了大的姿態(tài)變化。雖然目標(biāo)的變化很大,但是它們都是漸變的,也就是目標(biāo)在時(shí)序上具有連續(xù)性,這將考驗(yàn)跟蹤算法的在線學(xué)習(xí)能力。IVT跟蹤是每隔5幀更新,對(duì)特征基向量進(jìn)行更新,不能適應(yīng)目標(biāo)的快速變化;Median Flow跟蹤只考慮相鄰兩幀之間的情況,誤差積累導(dǎo)致跟蹤結(jié)果偏離真實(shí)的目標(biāo);基于稀疏描述符的跟蹤能適應(yīng)目標(biāo)大的變化,但誤匹配和特征檢測(cè)的不穩(wěn)定會(huì)導(dǎo)致跟蹤失敗;本文的算法由于采用密度特征描述符,能夠適應(yīng)目標(biāo)的變化,同時(shí)利用動(dòng)態(tài)特征描述符,從而消除了誤差積累的影響。

        (3)部分遮擋。視頻“Faceocc”和“Faceocc2”主要測(cè)試遮擋對(duì)算法的影響,其中“Faceocc2”中的目標(biāo)還發(fā)生了旋轉(zhuǎn)變化。受遮擋影響最大的是基于稀疏描述符的跟蹤算法,由于目標(biāo)遮擋后無(wú)法檢測(cè)到特征,從而導(dǎo)致誤匹配;IVT跟蹤是將目標(biāo)整體當(dāng)作向量看待,遮擋使得特征基模糊,偏離了真實(shí)目標(biāo);Median Flow跟蹤由于只用匹配較好的點(diǎn),則目標(biāo)部分遮擋對(duì)算法的影響不是很大;本文算法基于密度特征,使得部分遮擋并不能導(dǎo)致匹配失敗。因此,在目標(biāo)發(fā)生各種變化和背景干擾很大的情況下,本文算法能夠很好地跟蹤目標(biāo),與Median Flow算法、IVT算法和稀疏描述符算法相比,能夠更好地處理光照、姿態(tài)變化和遮擋的影響。

        3.2 定量分析

        本文用重疊度、均方根誤差2個(gè)標(biāo)準(zhǔn)來(lái)衡量本文算法與其他算法的優(yōu)劣。重疊度是檢測(cè)目標(biāo)與真實(shí)目標(biāo)重疊部分與兩者的并集之比,即

        式中:^S和S分別表示估計(jì)值和真實(shí)值。當(dāng)檢測(cè)目標(biāo)與真實(shí)目標(biāo)完全重疊時(shí),重疊度為1;當(dāng)檢測(cè)到錯(cuò)誤目標(biāo)時(shí),重疊度會(huì)降低;當(dāng)完全檢測(cè)不到目標(biāo)時(shí),重疊度為0。若重疊度大于0.5,可認(rèn)為跟蹤成功,否則認(rèn)為目標(biāo)丟失。

        均方根誤差的計(jì)算如下

        式中:(x,y)為算法得出的跟蹤框的中心位置坐標(biāo);(^x,^y)為標(biāo)定的跟蹤框的中心位置坐標(biāo)。均方根誤差表示了目標(biāo)中心與真實(shí)目標(biāo)中心的誤差,值越小表明跟蹤精度越高。

        表1和表2分別為4種算法在各個(gè)視頻上的跟蹤成功率和均方根誤差。加粗和加線的表示在該視頻中的成功率排名第1和第2。與基于子空間不變的IVT和基于灰度不變的Median Flow相比,本文算法獲得了更好的結(jié)果,部分原因在于SIFT描述符能更好地描述變化目標(biāo)的不變屬性。與稀疏描述方法相比,本文算法由于不需要檢測(cè)關(guān)鍵點(diǎn)和計(jì)算仿射矩陣,同樣獲得了更好的結(jié)果。

        表1 不同算法的跟蹤成功率

        表2 不同算法的均方根誤差比較

        4 結(jié) 論

        魯棒視覺(jué)跟蹤的一個(gè)關(guān)鍵問(wèn)題在于如何快速有效地描述視頻中的目標(biāo),本文算法通過(guò)計(jì)算目標(biāo)在相鄰兩幀之間的密度描述符流,估計(jì)得到目標(biāo)的運(yùn)動(dòng)矢量,同時(shí)更新密度描述符的權(quán)重。在實(shí)驗(yàn)中,針對(duì)光照變化、姿態(tài)變化和遮擋等情況,對(duì)本文算法和其他相關(guān)算法進(jìn)行了對(duì)比實(shí)驗(yàn),結(jié)果表明本文算法能夠很好地適應(yīng)復(fù)雜的變化,能取得比其他算法更好的結(jié)果。本文算法的運(yùn)行效率需要進(jìn)一步提升,主要原因在于密度描述符對(duì)應(yīng)的計(jì)算量較大。

        [1] SENST T,EISELEIN V,SIKORA T.Robust local optical flow for feature tracking [J].IEEE Transactions on Circuits and Systems,2012,22(9):1377-1387.

        [2] LEE K Y,PARK R H,LEE S W.Color matching for soft proofing using a camera[J].IET Image Process,2012,6(3):292-300.

        [3] PEREZ P,HUE C,VERMAAK J,et al.Color-based probabilistic tracking[C]∥Proceedings of 7th European Conference on Computer Vision.Berlin,Germany:Springer,2002:661-675.

        [4] COMANICIU D,RAMESH V,MEER P.Kernel-based object tracking [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(5):564-577.

        [5] ROSS D,LIM J,LIN Ruei-Sung,et al.Incremental learning for robust visual tracking [J].International Journal of Computer Vision,2007,77(1):125-141.

        [6] DAVID G L.Scale & affine invariant interest point detectors[J].International Journal of Computer Vision,2004,60(1):63-86.

        [7] CALONDER M,LEPETIT V,F(xiàn)UA P.Binary robust independent elementary features[C]∥Proceedings of 11th European Conference on Computer Vision.Berlin,Germany:Springer,2010:778-792.

        [8] HEINLY J,DUMN E,F(xiàn)RAHM J M.Comparative evaluation of binary features[C]∥Proceedings of 12th European Conference on Computer Vision.Berlin,Germany:Springer,2012:369-382.

        [9] MIKOLAJCZYK K,SCHMID C.A performance evaluation of local descriptors [J].IEEE Trans on Pattern Analysis and Machine Intelligence,2005,27(10):1615-1630.

        [10]ZHOU Huiyu,YUAN Yuan,SHI Chunmei.Object tracking using SIFT features and mean shift[J].Computer Vision and Image Understand,2009,113(3):345-352.

        [11]ENGIN T,VINCENT L,PASCAL F.An efficient dense descriptor applied to wide baseline stereo [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(5):815-830

        [12]VEDALDI A,F(xiàn)ULKERSON B.An open and portable library of computer vision algorithms [C]∥Proceedings of the International Conference on Multimedia.New York,USA:ACM,2010:1469-1472

        [13]LIU Ce,JENNY Y,ANTONIO T,et al.Dense correspondence across different scenes[C]∥Proceedings of 9th European Conference on Computer Vision.Berlin,Germany:Springer,2008:28-42.

        [14]BAY H,TUYTELAARS T,GOOL L V.Speeded up robust features [C]∥Proceedings of 7th European Conference on Computer Vision.Berlin,Germany:Springer,2006:404-417

        [15]BARNES C,SHECHTMAN E,GOLDMAN D,et al.The generalized PatchMatch correspondence algorithm [C]∥Proceedings of 11th European Conference on Computer Vision.Berlin,Germany:Springer,2010:29-43.

        [16]KIM J,LIU Ce,SHA Fei,et al.Deformable spatial pyramid matching for fast dense correspondences[C]∥26th IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ,USA:IEEE,2013:2307-2314.

        [17]BABENKO B,YANG Ming-Hsuan,BELONGIE S.Visual tracking with online multiple instance learning[C]∥24th IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ,USA:IEEE,2009:983-990.

        [18]SANTNER J,LEISTNER C,SAFFARI A,et al.Parallel robust online simple tracking[C]∥ Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ,USA:IEEE,2010:723-730.

        [19]KALAL Z,MIKOLAJCZYK K,MATAS J.Tracking learning detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,6(1):1-14

        [20]藺海峰,馬宇峰,宋濤.基于SIFT特征目標(biāo)跟蹤算法研究 [J].自動(dòng)化學(xué)報(bào),2010,36(8):1204-1208.

        LIN Haifeng,MA Yufeng,SONG Tao.Research on object tracking algorithm based on SIFT [J].Acta Automatica Sinica,2010,36(8):1204-1208.

        [21]ZULIANI M,KENNEY C S,MANJUNATH B S.The multiRANSAC algorithm and its application to detect planar homographies[C]∥Proceedings IEEE International Conference on Image Processing.Piscataway,NJ,USA:IEEE,2005:153-156.

        猜你喜歡
        關(guān)鍵點(diǎn)特征檢測(cè)
        聚焦金屬關(guān)鍵點(diǎn)
        肉兔育肥抓好七個(gè)關(guān)鍵點(diǎn)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        醫(yī)聯(lián)體要把握三個(gè)關(guān)鍵點(diǎn)
        国产一级黄色性生活片| 国产综合在线观看| 无码成人aaaaa毛片| 丰满爆乳无码一区二区三区 | 免费jjzz在线播放国产| 韩国主播av福利一区二区| 精品黑人一区二区三区| 亚洲发给我的在线视频| 91三级在线观看免费| 美女露出粉嫩小奶头在视频18禁| 狠狠的干性视频| 免费人成年小说在线观看| 久久精品视频91| 口爆吞精美臀国产在线| 日韩亚洲一区二区三区四区 | 美女福利视频网址导航| 国产91会所女技师在线观看| 国产一区二区三区日韩精品 | 久久伊人精品一区二区三区| 中文字幕在线观看亚洲日韩| 精品久久久久久久无码| 性一交一乱一伦一视频一二三区| 亚洲一区二区三区在线观看蜜桃| 人妻少妇被猛烈进入中文| 亚洲国产精品av在线| 又嫩又硬又黄又爽的视频| 国产福利酱国产一区二区| 亚洲综合欧美在线| 国产精品av免费网站| 人妖在线一区二区三区| 亚洲最好看的中文字幕| 成人av鲁丝片一区二区免费| 国产女女做受ⅹxx高潮| 91情侣视频| 亚洲六月丁香色婷婷综合久久| 国产一区二区三区中文在线| 人与动牲交av免费| 国产精品一区高清在线观看| 成人av天堂一区二区| 国产亚洲一本二本三道| 精品久久久久久无码专区|