亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于中心對稱局部相似數(shù)量模型的均值漂移目標(biāo)跟蹤

        2016-07-18 01:27:48劉威趙文杰李成李婷譚海峰馬揚(yáng)銘
        自然資源遙感 2016年3期
        關(guān)鍵詞:目標(biāo)跟蹤

        劉威, 趙文杰, 李成, 李婷, 譚海峰, 馬揚(yáng)銘

        (1.空軍航空大學(xué)航空航天情報(bào)系,長春 130022; 2.解放軍73608部隊(duì),南京 210000)

        ?

        基于中心對稱局部相似數(shù)量模型的均值漂移目標(biāo)跟蹤

        劉威1, 趙文杰1, 李成1, 李婷1, 譚海峰1, 馬揚(yáng)銘2

        (1.空軍航空大學(xué)航空航天情報(bào)系,長春130022; 2.解放軍73608部隊(duì),南京210000)

        摘要:為實(shí)現(xiàn)對運(yùn)動(dòng)目標(biāo)的實(shí)時(shí)跟蹤,提出中心對稱局部相似數(shù)量(center symmetric-local similarity number,CS-LSN)這一新的局部顯著度紋理描述算子,并將其引入到目標(biāo)表征模型。該算子通過分析中心像素及其8鄰域像素之間的大小關(guān)系,在局部相似數(shù)量(local similarity number,LSN)紋理算子的基礎(chǔ)上,針對其無法區(qū)分同一局部顯著度下的不同紋理結(jié)構(gòu)的問題,增加以中心像素為對稱點(diǎn)的局部梯度信息,提取出候選目標(biāo)區(qū)域中具有CS-LSN主要模式的真實(shí)目標(biāo)像素,有效地抑制了背景像素的影響并減少了后續(xù)目標(biāo)表征模型的計(jì)算量; 利用真實(shí)目標(biāo)像素的CS-LSN紋理特征和色度特征構(gòu)建直方圖,完成目標(biāo)表征; 進(jìn)而將其嵌入到均值漂移(mean shift,MS)框架完成跟蹤。實(shí)驗(yàn)結(jié)果表明,該方法在目標(biāo)與背景相似、部分遮擋、光照變化及物體形變等情況下均能完成魯棒跟蹤,目標(biāo)大小為29像素×25像素時(shí),處理速度約為25幀/s,可滿足實(shí)時(shí)應(yīng)用的需求。

        關(guān)鍵詞:目標(biāo)跟蹤; 紋理特征; 中心對稱局部相似數(shù)量(CS-LSN); 均值漂移(MS)

        0引言

        運(yùn)動(dòng)目標(biāo)跟蹤在軍事制導(dǎo)、航空偵察、視覺導(dǎo)航等領(lǐng)域有著廣泛的應(yīng)用[1]。目標(biāo)表征模型及對應(yīng)的目標(biāo)搜索方法一直是目標(biāo)跟蹤領(lǐng)域的研究熱點(diǎn)。鑒于目標(biāo)跟蹤對實(shí)時(shí)性有較高要求,在眾多的目標(biāo)跟蹤方法中,基于均值漂移(mean shift,MS)跟蹤框架[2]的方法以其簡單高效的特點(diǎn)得到了廣泛的研究和應(yīng)用[3-5]; 而有效的目標(biāo)表征方法則對MS搜索匹配的效率和準(zhǔn)確性起著至關(guān)重要的作用。傳統(tǒng)MS跟蹤算法常采用顏色特征,當(dāng)光照發(fā)生變化時(shí)就容易跟蹤失?。?現(xiàn)有的改進(jìn)主要是引入多特征(如邊緣特征角點(diǎn)特征等[6]),但提取多特征的同時(shí)也加大了算法的復(fù)雜度。局部二值模式(local binary patterns, LBP)紋理特征及其改進(jìn)型紋理分析[7]不受光照影響,具有旋轉(zhuǎn)不變性和灰度不變性等優(yōu)點(diǎn),在目標(biāo)跟蹤領(lǐng)域得到了廣泛運(yùn)用。Ning等[8]提出了均勻LBP(uniform LBP)紋理模式,并結(jié)合顏色特征來表征目標(biāo); 張濤等[9]基于局部三值模式(local ternary patterns,LTP)和膚色特征提出一種人臉跟蹤算法; 張炯等[10]以對立色LBP模型為研究對象,并用其作為目標(biāo)表征模型,提高了MS的跟蹤性能,但改進(jìn)型的LBP紋理模式也大大增加了算法的計(jì)算量。近年來,對視覺顯著度的研究逐步升溫[11-12],受此啟發(fā),Tavakoli等[13]等在原始LBP的基礎(chǔ)上,提出了一種簡化模型——局部相似數(shù)量(local similarity number,LSN)這一紋理描述子,以鄰域內(nèi)相似像素的數(shù)量作為中心像素的局部顯著度; 在此基礎(chǔ)上,張紅穎等[14]提出了局部三值數(shù)量(local ternary number,LTN)紋理模式,用二維向量來代替LSN中的一維描述,并結(jié)合色度信息完成目標(biāo)跟蹤。

        LSN算子由于在同一局部顯著度下還包含不同紋理結(jié)構(gòu),無法較好地處理目標(biāo)與背景紋理相似的情況。本文受文獻(xiàn)[15]的啟發(fā),利用以中心像素為對稱點(diǎn)的局部梯度信息,提出了中心對稱局部相似數(shù)量(center symmetric-local similarity number,CS-LSN)模型這一新的局部顯著度紋理描述算子; 進(jìn)而生成CS-LSN掩模,提取出候選目標(biāo)區(qū)域中具有CS-LSN的5種主要模式的關(guān)鍵像素。利用CS-LSN掩模能更充分地提取出目標(biāo)框中的真實(shí)目標(biāo)信息,有效抑制背景像素的影響,并減少后續(xù)目標(biāo)表征模型中的計(jì)算量; 最后將抗光照能力強(qiáng)的色度信息融入到MS框架,完成目標(biāo)跟蹤。

        1局部顯著度紋理描述算子

        1.1LSN紋理描述算子

        LSN是一種點(diǎn)樣本估計(jì)紋理描述算子,不考慮鄰域內(nèi)像素與中心像素之間的結(jié)構(gòu)信息,直接利用與中心像素值相似的像素?cái)?shù)量描述中心像素的局部顯著度,即

        (1)

        (2)

        圖1 9種局部顯著度

        1.2CS-LSN紋理描述算子

        從圖1可以看出,同一局部顯著度下也可能包含不同的紋理結(jié)構(gòu),當(dāng)目標(biāo)與背景紋理相近時(shí),LSN將無法很好地描述目標(biāo)。為此,本文在LSN算子的簡單高效基礎(chǔ)上加以拓展,加入以中心像素為對稱點(diǎn)的局部梯度信息,提出CS-LSN這一新的局部顯著度紋理描述算子。該算子通過計(jì)算以中心像素為對稱點(diǎn)的4組鄰域像素點(diǎn)的亮度差,并結(jié)合原始LSN算子形成一組二維向量,即

        (3)

        式中:gc為中心像素值;gi為鄰域像素值;d為允許差異值;

        (4)

        本文以P=8,R=1,d=2(即鄰域像素與中心像素差值小于2時(shí)判定為相似)為例來說明CS-LSN算子的生成過程。圖2示出2組中心像素的LSN和CS-LSN算子的計(jì)算過程(圖中第3列的中心位置是8鄰域像素中被判定為1的個(gè)數(shù))。可以看出,2組示例具有不同的紋理結(jié)構(gòu),但LSN算子計(jì)算得到的局部顯著度都是3; 而CS-LSN算子通過計(jì)算以中心像素為對稱點(diǎn)的局部梯度信息,形成一個(gè)二維向量描述,由式(3)得到的示例1和示例2分別為(3,4)和(3,3),這就很好地區(qū)分開不同的紋理結(jié)構(gòu)。將CS-LSN算子引入MS跟蹤框架,可以提高目標(biāo)表征模型的抗干擾能力; 此外,CS-LSN算子計(jì)算中心像素之間的差值關(guān)系時(shí),不受場景中光照變化的影響,且對尺度和旋轉(zhuǎn)變化也有較好的適應(yīng)性。

        (a) 示例1

        (b) 示例2

        2基于 CS-LSN的目標(biāo)跟蹤算法

        本文利用CS-LSN掩模提取真實(shí)目標(biāo)像素的CS-LSN紋理特征和色度特征,構(gòu)建直方圖,完成目標(biāo)表征; 進(jìn)而將其嵌入到MS框架中,完成目標(biāo)跟蹤。算法框架如圖3所示。

        圖3 本文算法框架

        2.1基于CS-LSN掩模的目標(biāo)表征

        文獻(xiàn)[13]對圖1中9種局部顯著度進(jìn)行分析,以保留角點(diǎn)、邊緣、線等具有較高區(qū)分能力的真實(shí)目標(biāo)像素為出發(fā)點(diǎn),生成LSN掩模。為此,本文定義CS-LSN掩模為

        (5)

        利用1組運(yùn)動(dòng)員頭像中的頭部為跟蹤目標(biāo),分別給出了采用文獻(xiàn)[8]提出的LBP掩模和本文提出的CS-LSN掩模提取目標(biāo)像素的結(jié)果(圖4)。

        (a) 原始目標(biāo)塊

        (b) LBP掩模提取目標(biāo)像素

        (c) CS-LSN掩模提取目標(biāo)像素

        從圖4可以看出,目標(biāo)與背景顏色存在一定的相似性,直接將原始目標(biāo)塊中的所有像素形成顏色直方圖進(jìn)行MS迭代,將會(huì)發(fā)生局部收斂導(dǎo)致跟蹤漂移的情況; 如果能盡量減少目標(biāo)區(qū)域中背景像素的影響,則能使跟蹤器更好地收斂到真實(shí)目標(biāo)上。圖4(b)中LBP掩模能較好提取出真實(shí)目標(biāo)像素,但同時(shí)也丟失了大量的真實(shí)目標(biāo)像素。圖4(c)表明,本文提出的CS-LSN掩模能更好地保留目標(biāo)的完整性,并有效地抑制了背景像素。

        由于HSV彩色空間中的色度(H)分量受光照影響不大,本文擬將其作為目標(biāo)的顏色特征度量,量化成16個(gè)色度區(qū)間,且只提取用式(5)所示的CS-LSN掩模提取到的目標(biāo)像素的色度信息,從而減少了對非真實(shí)目標(biāo)像素的計(jì)算。而決定紋理特征度量的CS-LSN掩模決定的二維向量各有5種取值(同樣只對CS-LSN掩模提取到的目標(biāo)像素進(jìn)行計(jì)算),因此,本文的多特征目標(biāo)表征模型為16×5×5維直方圖。

        2.2MS跟蹤框架

        (6)

        同理可計(jì)算候選目標(biāo)區(qū)域的各特征空間量化值pu(y),其中y為中心坐標(biāo)。然后通過MS迭代進(jìn)行目標(biāo)定位,文獻(xiàn)[2]證明從現(xiàn)有中心到新的中心可利用以下迭代式,即

        (7)

        式中:g(x)=-k′(x);y1為迭代得到的目標(biāo)中心位置;xi為第i個(gè)像素所在位置;wi為xi所在位置的權(quán)重;pu(y)為當(dāng)前目標(biāo)中心位置的各特征空間量化值。

        2.3目標(biāo)跟蹤算法描述

        結(jié)合2.1節(jié)中的目標(biāo)表征方法和2.2節(jié)中的MS跟蹤框架,確定本文的目標(biāo)跟蹤算法步驟如下:

        2)同理計(jì)算候選目標(biāo)區(qū)域模型pu(y0),y0為區(qū)域中心;

        3)根據(jù)得到的pu(y0)計(jì)算候選目標(biāo)區(qū)域權(quán)重,并代入式(7)進(jìn)行迭代,得到新的候選目標(biāo)中心;

        5)讀取下一景圖像,轉(zhuǎn)向步驟2)。

        3實(shí)驗(yàn)與結(jié)果分析

        本文選用不同場景下的3組測試視頻,將本文算法與文獻(xiàn)[8](基于LBP模型)和文獻(xiàn)[13](基于LSN模型)中的跟蹤算法進(jìn)行對比分析,以驗(yàn)證本文算法的優(yōu)越性。實(shí)驗(yàn)平臺(tái)采用Intel Core(TM)2 Duo CPU主頻2.5 GHz的PC機(jī),利用OpenCV2.4.9在VS2010上進(jìn)行調(diào)試,進(jìn)行算法準(zhǔn)確性和實(shí)時(shí)性分析。

        3.1評估標(biāo)準(zhǔn)

        實(shí)驗(yàn)采用文獻(xiàn)中常見的3個(gè)評估標(biāo)準(zhǔn)對算法的性能進(jìn)行測試。

        1)平均跟蹤誤差(center location error,CLE)。定義為

        (8)

        式中: (xT,yT)為跟蹤結(jié)果的中心位置; (xG,yG)為目標(biāo)的真實(shí)位置。取每組測試視頻序列前200幀(由于前2種算法在200幀后可能會(huì)出現(xiàn)目標(biāo)完全丟失的情況)的中心位置誤差平均值作為評估標(biāo)準(zhǔn)。

        2)跟蹤成功率(success rate,SR)。定義每一幀跟蹤結(jié)果的得分為

        (9)

        式中:ROIT為跟蹤結(jié)果區(qū)域;ROIG為目標(biāo)真實(shí)區(qū)域(人工標(biāo)注)。若score>0.5,則認(rèn)為跟蹤結(jié)果是正確的。

        3)算法跟蹤速度。以單位時(shí)間處理的幀數(shù)(幀/s)為評估標(biāo)準(zhǔn)。

        4)平均迭代次數(shù)。因?yàn)楸疚乃惴ú捎昧薓ean Shift迭代框架,為驗(yàn)證用2.1節(jié)中CS-LSN掩模提取目標(biāo)真實(shí)像素的有效性,本文將各算法的平均迭代次數(shù)也作為評估標(biāo)準(zhǔn)。

        3.2結(jié)果分析

        3.2.1實(shí)驗(yàn)1

        為驗(yàn)證算法的抗背景干擾能力,選用文獻(xiàn)[16]中的機(jī)場小車視頻(共365幀)進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)的任務(wù)是跟蹤大小為29像素×25像素的中間那輛白色小車,跟蹤目標(biāo)較小,顏色信息單一,紋理結(jié)構(gòu)較平坦,與背景中的前后2輛車極為相似。圖5分別給出了3種算法的部分跟蹤結(jié)果(分別為第50,100,243,253和300幀)。

        (a) 基于LBP模型[8]

        (b) 基于LSN模型[13]

        (c) 基于CS-LSN模型

        從圖5可以看出,在第243幀時(shí),文獻(xiàn)[8]的方法已嚴(yán)重漂移; 文獻(xiàn)[13]的方法也出現(xiàn)了漂移情況,但在253幀時(shí)重新搜索到目標(biāo); 本文算法則能穩(wěn)定地完成跟蹤任務(wù)。這是因?yàn)楸疚奶岢龅腃S-LSN掩模能較好地去除目標(biāo)框中的背景像素信息,所提取的紋理信息能夠較好地表征目標(biāo)。表1給出了3種方法跟蹤性能的定量分析結(jié)果。可以看出,盡管本文方法的跟蹤速度較其他2種算法有所降低,但跟蹤成功率能夠達(dá)到100%,且23.94幀/s的跟蹤速度基本能夠滿足實(shí)時(shí)處理的需求。同時(shí),用本文的CS-LSN掩模提取目標(biāo)真實(shí)像素過程中,減少了背景像素的干擾,使得MS迭代次數(shù)比其他2種算法都低。

        表1 實(shí)驗(yàn)1中不同算法的跟蹤性能

        3.2.2實(shí)驗(yàn)2

        為驗(yàn)證算法的抗遮擋能力,選用文獻(xiàn)[17]中的小車視頻序列(共610幀)進(jìn)行實(shí)驗(yàn)。目標(biāo)大小為108像素×53像素,視頻序列中多次出現(xiàn)遮擋(第185—245幀出現(xiàn)了長時(shí)間遮擋,第345—365幀和第450—465幀出現(xiàn)了短時(shí)遮擋)。圖6分別給出了3種算法的部分跟蹤結(jié)果(分別為第25,206,247,352和364幀)。

        (a) 基于LBP模型[8]

        (b) 基于LSN模型[13]

        (c) 基于CS-LSN模型

        從圖6可以看出,文獻(xiàn)[8]的LBP模型無法準(zhǔn)確地描述目標(biāo)在第25幀出現(xiàn)的跟蹤漂移; 而文獻(xiàn)[13]的方法在第247幀時(shí)目標(biāo)被遮擋后不能再搜索到目標(biāo); 本文方法用CS-LSN算子提取的紋理特征具有較高的目標(biāo)表征能力,在目標(biāo)被長時(shí)及短時(shí)遮擋后,依然能夠繼續(xù)鎖定目標(biāo),出現(xiàn)了如圖6(c)的魯棒跟蹤效果,表現(xiàn)出了一定的抗遮擋能力。表2給出了3種方法跟蹤性能的定量分析結(jié)果。

        表2 實(shí)驗(yàn)2中不同算法的跟蹤性能

        從表2可以看出,本文算法的跟蹤速度與其他2種算法相當(dāng),但跟蹤成功率較其他2種算法分別提高了65.9%和59.67%。由于CS-LSN掩模抑制了候選目標(biāo)框中的大量背景像素,使得目標(biāo)跟蹤速度得到了提升,達(dá)到40.48幀/s。

        3.2.3實(shí)驗(yàn)3

        為驗(yàn)證算法抗光照變化和物體形變能力,選用David標(biāo)準(zhǔn)測試視頻[18](共250幀)。目標(biāo)大小為73像素×70像素,視頻序列中光照由弱到強(qiáng),人臉在第170幀發(fā)生轉(zhuǎn)動(dòng)時(shí)目標(biāo)形變較大。圖7分別給出了3種算法的部分跟蹤結(jié)果(分別為第5,31,117,170和200幀)??梢钥闯?,當(dāng)背景中光照發(fā)生變化時(shí),3種方法在第31幀均出現(xiàn)目標(biāo)漂移,但本文方法很快將目標(biāo)重新定位; 在第170幀時(shí),文獻(xiàn)[8]和[13]的方法均完全跟蹤到了錯(cuò)誤的目標(biāo),而本文的CS-LSN算子采用二維向量來表征目標(biāo)真實(shí)像素,因此能較好區(qū)分目標(biāo)與背景的紋理結(jié)構(gòu),表現(xiàn)出了良好的抗光照變化能力。3種方法跟蹤性能的定量分析結(jié)果見表3。

        (a) 基于LBP模型[8]

        (b) 基于LSN模型[13]

        (c) 基于CS-LSN模型

        表3 實(shí)驗(yàn)3中不同算法的跟蹤性能

        從表3可以看出,本文算法的處理速度與其他2種算法相當(dāng),但跟蹤成功率較其他2種算法分別提高了49.8%和46.4%。人臉在第170幀發(fā)生轉(zhuǎn)動(dòng)時(shí)形變較大,導(dǎo)致跟蹤結(jié)果出現(xiàn)了較大偏移,從而使本文方法的平均跟蹤誤差達(dá)到了12.55像素。

        最后,給出3組實(shí)驗(yàn)的迭代次數(shù)曲線(圖8)和跟蹤誤差曲線(圖9)。

        從圖8可以看出,本文方法在3組視頻中的迭代次數(shù)基本穩(wěn)定在2~5次,在不同場景中表現(xiàn)出較強(qiáng)的魯棒性,體現(xiàn)了用本文CS-LSN掩模提取目標(biāo)真實(shí)像素的高效性以及CS-LSN紋理特征較強(qiáng)的目標(biāo)表征能力。

        (a) 實(shí)驗(yàn)1 (b) 實(shí)驗(yàn)2(c) 實(shí)驗(yàn)3

        圖83組實(shí)驗(yàn)的單幀迭代次數(shù)曲線

        Fig.8Iterating times of single frame in three experiments

        (a) 實(shí)驗(yàn)1 (b) 實(shí)驗(yàn)2(c) 實(shí)驗(yàn)3

        圖93組實(shí)驗(yàn)的單幀跟蹤誤差曲線

        Fig.9Single frame’s tracking error of three experiments

        從圖9中可以看出,本文方法在實(shí)驗(yàn)1中跟蹤效果最好,中心位置誤差基本保持在4像素以內(nèi)。在實(shí)驗(yàn)2中,由于在第190幀以后目標(biāo)被部分遮擋,導(dǎo)致本文方法的跟蹤誤差偏大; 但當(dāng)目標(biāo)重新出現(xiàn)在場景中時(shí),本文算法依然能夠準(zhǔn)確定位到目標(biāo)。在實(shí)驗(yàn)3中,當(dāng)目標(biāo)尺度發(fā)生變化時(shí),本文方法出現(xiàn)跟蹤誤差偏大的情況,但隨后跟蹤誤差依然穩(wěn)定在20像素以內(nèi); 而其他2種算法則完全丟失了目標(biāo)。

        4結(jié)論

        1)本文從提高目標(biāo)表征能力的角度提升目標(biāo)跟蹤性能,提出了一種新的紋理描述算子——中心對稱局部相似數(shù)量(CS-LSN)模型。該算子能區(qū)分同一局部顯著度下的不同紋理結(jié)構(gòu),且通過CS-LSN掩模能較好地剔除目標(biāo)框中的背景像素,保留真實(shí)目標(biāo)像素; 通過計(jì)算真實(shí)目標(biāo)像素位置的CS-LSN掩模紋理特征和色度特征,代入MS框架完成跟蹤。

        2)實(shí)驗(yàn)結(jié)果表明,本文方法在目標(biāo)與背景相似、部分遮擋、光照變化及物體形變等情況下,都能完成魯棒跟蹤; 不同場景下跟蹤成功率保持在95%以上,目標(biāo)大小為29像素×25像素時(shí)處理速度約為24幀/s。

        3)但當(dāng)目標(biāo)被嚴(yán)重遮擋以及目標(biāo)尺度發(fā)生突變時(shí),本文方法出現(xiàn)了跟蹤誤差變大的情況。為此,下一步研究將結(jié)合遮擋判斷機(jī)制以及目標(biāo)尺度自適應(yīng)變化機(jī)制對本文方法進(jìn)行改進(jìn)。

        參考文獻(xiàn)(References):

        [1]Maggio E,Cavallaro A.Video Tracking: Theory and Practice[M].London,UK:Queen Mary University of London,2012.

        [2]Comaniciu D,Ramesh V,Meer P.Kernel-based object tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(5):564-577.

        [3]楊欣,費(fèi)樹岷,李剛,等.基于復(fù)雜特征融合的改進(jìn)mean shift目標(biāo)跟蹤[J].控制與決策,2014,29(7):1297-1300.

        Yang X,Fei S M,Li G,et al.Improved mean shift tracking algorithm based on complicated feature fusion[J].Control and Decision,2014,29(7):1297-1300.

        [4]Vojir T,Noskova J,Matas J.Robust scale-adaptive mean-shift for tracking[J].Pattern Recognition Letters,2014,49:250-258.

        [5]Li S X,Wu O,Zhu C F,et al.Visual object tracking using spatial context information and global tracking skills[J].Computer Vision and Image Understanding,2014,125:1-15.

        [6]董文會(huì),常發(fā)亮,李天平.融合顏色直方圖及SIFT特征的自適應(yīng)分塊目標(biāo)跟蹤方法[J].電子與信息學(xué)報(bào),2013,35(4):770-776.

        Dong W H,Chang F L,Li T P.Adaptive fragments-based target tracking method fusing color histogram and SIFT features[J].Journal of Electronics and Information Technology,2013,35(4):770-776.

        [7]Maenpaa T,Pietikainen M.Texture analysis with local binary patterns[M]//Handbook of Pattern Recognition and Computer Vision.USA:World Scientific Pub.Co.Inc,2005:197-216.

        [8]Ning J F,Zhang L,Zhang D,et al.Robust object tracking using joint color-texture histogram[J].International Journal of Pattern Recognition and Artificial Intelligence,2009,23(7):1245-1263.

        [9]張濤,蔡燦輝.基于多特征Mean Shift的人臉跟蹤算法[J].電子與信息學(xué)報(bào),2009,31(8):1816-1820.

        Zhang T,Cai C H.A face tracking algorithm based on multiple feature mean shift[J].Journal of Electronics & Information Technology,2009,31(8):1816-1820.

        [10]張炯,寧記峰,顏永豐,等.對立色LBP模型的目標(biāo)跟蹤[J].中國圖象圖形學(xué)報(bào),2012,17(11):1418-1424.

        Zhang J,Ning J F,Yan Y F,et al.Object tracking with opponent color LBP model[J].Journal of Image and Graphics,2012,17(11):1418-1424.

        [11]Borji A,Itti L.State-of-the-art in visual attention modeling[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(1):185-207.

        [12]黎萬義,王鵬,喬紅.引入視覺注意機(jī)制的目標(biāo)跟蹤方法綜述[J].自動(dòng)化學(xué)報(bào),2014,40(4):561-576.

        Li W Y,Wang P,Qiao H.A survey of visual attention based methods for object tracking[J].Acta Automatica Sinica,2014,40(4):561-576.

        [13]Tavakoli H R,Moin M S,Heikkila J.Local similarity number and its application to object tracking[J].International Journal of Advanced Robotic Systems,2013,10:184.

        [14]張紅穎,胡正.融合局部三值數(shù)量和色度信息的均值漂移跟蹤[J].電子與信息學(xué)報(bào),2014,36(3):624-630.

        Zhang H Y,Hu Z.Mean Shift tracking method combing local ternary number with hue information[J].Journal of Electronics and Information Technology,2014,36(3):624-630.

        [15]Heikkila M,Pietikainen M,Schnid C.Description of interest regions with local binary patterns[J].Pattern Recognition,2009,42(3),425-436.

        [16]陳東成,朱明,高文,等.在線加權(quán)多示例學(xué)習(xí)實(shí)時(shí)目標(biāo)跟蹤[J].光學(xué)精密工程,2014,22(6):1661-1667.

        Chen D C,Zhu M,Gao W,et al.Real-time object tracking via online weighted multiple instance learning[J].Optics and Precision Engineering,2014,22(6):1661-1667.

        [17]Kalal Z,Mikolajczyk K,Matas J.Tracking-learning-detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(7):1409-1422.

        [18]Babenko B,Yang M H,Belongie S.Robust object tracking with online multiple instance learning[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(8):1619-1632.

        (責(zé)任編輯: 劉心季)

        Mean shift object tracking based on center symmetric-local similarity number model

        LIU Wei1, ZHAO Wenjie1, LI Cheng1, LI Ting1, TAN Haifeng1, MA Yangming2

        (1. Department of Aerospace Intelligence, Aviation University of Air Force, Changchun 130022, China;2.PLA73608Troop,Nanjing210000,China)

        Abstract:In order to complete the task of real-time object tracking, this paper proposes a new local texture description operator, which is called center symmetric-local similarity number(CS-LSN). The operator analyzed the center pixel and its eight neighborhood pixels, on the basis of the local similarity number (LSN); as the texture operator fails to distinguish the same local saliency of different texture structures, the authors added the local gradient information using the center pixel as the symmetric point, extracted the key pixels which correspond only to the five major patterns of the CS-LSN in the target candidate region, effectively restrained the influence of the background pixels and reduced the computation in the target representation model, and then represented target by CS-LSN texture feature and the chromaticity in the true target pixel, which was embedded into the mean shift(MS) tracking framework. The experimental results show that the proposed method can continuously track the target when the background and the color are similar under the condition of changing illumination and in the occlusion cases. The processing speed can reach 25 frames or so per second when the object is 29 pixel×25 pixel, so it can satisfy the demand of real-time application.

        Keywords:object tracking; texture feature; center symmetric-local similarity number(CS-LSN); mean shift (MS)

        doi:10.6046/gtzyyg.2016.03.07

        收稿日期:2015-04-03;

        修訂日期:2015-05-04

        中圖法分類號(hào):TP 751.1; TP 391

        文獻(xiàn)標(biāo)志碼:A

        文章編號(hào):1001-070X(2016)03-0037-09

        第一作者簡介:劉威(1991-),男,碩士研究生,主要研究方向?yàn)橛?jì)算機(jī)視覺及目標(biāo)跟蹤。Email: 1224337250@qq.com。

        引用格式: 劉威,趙文杰,李成,等.基于中心對稱局部相似數(shù)量模型的均值漂移目標(biāo)跟蹤[J].國土資源遙感,2016,28(3):37-45.(Liu W,Zhao W J,Li C,et al.Mean shift object tracking based on center symmetric-local similarity number model[J].Remote Sensing for Land and Resources,2016,28(3):37-45.)

        猜你喜歡
        目標(biāo)跟蹤
        多視角目標(biāo)檢測與跟蹤技術(shù)的研究與實(shí)現(xiàn)
        基于改進(jìn)連續(xù)自適應(yīng)均值漂移的視頻目標(biāo)跟蹤算法
        基于重采樣粒子濾波的目標(biāo)跟蹤算法研究
        航空兵器(2016年5期)2016-12-10 17:12:24
        空管自動(dòng)化系統(tǒng)中航跡濾波算法的應(yīng)用與改進(jìn)
        科技視界(2016年5期)2016-02-22 12:25:31
        智能視頻技術(shù)在電力系統(tǒng)領(lǐng)域的應(yīng)用
        基于車牌識(shí)別的機(jī)混車道視頻測速算法
        自車速測量中的目標(biāo)檢測與跟蹤技術(shù)
        基于SIFT特征和卡爾曼濾波的運(yùn)動(dòng)目標(biāo)跟蹤方法
        基于目標(biāo)跟蹤的群聚行為識(shí)別
        圖像跟蹤識(shí)別技術(shù)在煤炭運(yùn)量視頻管理系統(tǒng)中的研究
        国产免费资源| 成人做爰69片免费看网站野花| 无码一区二区三区亚洲人妻| 久久久精品免费观看国产 | 久久久亚洲女精品aa| 自拍视频在线观看首页国产| 人人妻人人狠人人爽| 国内精品九九久久久精品| 无码天堂在线视频| 在线播放国产自拍av| 国产一区内射最近更新| 北条麻妃毛片在线视频| 伊人久久婷婷综合五月97色| 变态另类手机版av天堂看网| 免费少妇a级毛片人成网| 在线人妻无码一区二区| 久久综合这里只有精品| 亚洲性无码av中文字幕| 熟妇人妻av中文字幕老熟妇| 国产资源精品一区二区免费| 免费蜜桃视频在线观看| 无码无套少妇毛多18p| 天天躁日日躁狠狠躁av中文| 国产精品香蕉网页在线播放| 一区二区三区午夜视频在线| 免费毛片a线观看| 高清不卡一区二区三区| 伊人色综合久久天天人手人停| 久久精品国产亚洲av成人无人区| 黄片大全视频在线播放| 中日韩精品视频在线观看| 久久精品国产72国产精福利| h视频在线免费观看视频| 好男人社区影院www| 亚洲欧洲日本精品| 人妻少妇一区二区三区| 日本一区二区三区爱爱视频| 黑人巨茎大战俄罗斯美女| 亚洲欧美日韩一区在线观看| 亚洲视频不卡免费在线| 免费观看91色国产熟女|