亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        跟蹤窗自適應(yīng)的捷聯(lián)導(dǎo)引系統(tǒng)目標(biāo)跟蹤算法

        2014-06-27 05:41:50郭曉冉崔少輝曹歡楊鎖昌方丹
        兵工學(xué)報(bào) 2014年10期
        關(guān)鍵詞:區(qū)域模型

        郭曉冉,崔少輝,曹歡,楊鎖昌,方丹

        (1.軍械工程學(xué)院導(dǎo)彈工程系,河北石家莊 050003; 2.北京航天嘉誠(chéng)精密科技發(fā)展有限公司,北京 102600)

        跟蹤窗自適應(yīng)的捷聯(lián)導(dǎo)引系統(tǒng)目標(biāo)跟蹤算法

        郭曉冉1,崔少輝1,曹歡2,楊鎖昌1,方丹1

        (1.軍械工程學(xué)院導(dǎo)彈工程系,河北石家莊 050003; 2.北京航天嘉誠(chéng)精密科技發(fā)展有限公司,北京 102600)

        捷聯(lián)圖像末制導(dǎo)導(dǎo)彈在跟蹤的后期階段,彈目距離和成像視角的變化會(huì)引起圖像尺度和旋轉(zhuǎn)變化,目標(biāo)區(qū)域?qū)⒂尚∽兇笾敝脸錆M整個(gè)視場(chǎng)。針對(duì)經(jīng)典的Mean Shift算法在圖像制導(dǎo)目標(biāo)跟蹤過(guò)程中不能自適應(yīng)目標(biāo)的尺度和旋轉(zhuǎn)變化這一問(wèn)題,研究了一種跟蹤窗自適應(yīng)的Mean Shift目標(biāo)跟蹤算法。對(duì)初始選定的橢圓目標(biāo)跟蹤區(qū)域和候選區(qū)域進(jìn)行加權(quán)操作,并利用權(quán)值圖像的零階矩和Bhattacharyya系數(shù),對(duì)真實(shí)目標(biāo)面積進(jìn)行精確估計(jì)。利用估計(jì)出的目標(biāo)真實(shí)面積,并結(jié)合權(quán)值圖像的2階中心矩進(jìn)一步構(gòu)建可表達(dá)目標(biāo)窗口內(nèi)圖像特征的協(xié)方差矩陣,再通過(guò)奇異值分解建立橢圓面積與協(xié)方差矩陣特征值之間的關(guān)系,從而計(jì)算出橢圓目標(biāo)區(qū)域?qū)嶋H的主軸長(zhǎng)度和方向,實(shí)現(xiàn)跟蹤窗的自適應(yīng)變化。仿真實(shí)驗(yàn)結(jié)果表明,該方法既具有Mean Shift算法精度高、實(shí)時(shí)性好的特點(diǎn),同時(shí)又?jǐn)U展了Mean Shift算法在目標(biāo)發(fā)生尺度和旋轉(zhuǎn)變化時(shí)的自適應(yīng)能力。

        兵器科學(xué)與技術(shù);圖像制導(dǎo);捷聯(lián);Mean Shift算法;矩特征;自適應(yīng)

        0 引言

        在圖像制導(dǎo)系統(tǒng)中,隨著彈目距離和成像視角的變化會(huì)引起目標(biāo)的尺度和旋轉(zhuǎn)變化,如何有效應(yīng)對(duì)整個(gè)跟蹤過(guò)程中目標(biāo)在成像平面上的變化是實(shí)現(xiàn)穩(wěn)定跟蹤的關(guān)鍵所在。捷聯(lián)圖像末制導(dǎo)導(dǎo)彈在向下攻擊時(shí)有個(gè)點(diǎn)火的過(guò)程,這一過(guò)程會(huì)導(dǎo)致彈體發(fā)生劇烈抖動(dòng),使得成像視角發(fā)生一定量的變化,同時(shí)隨著彈目距離的逐漸減小,目標(biāo)的面積會(huì)由小到大不斷變化,這就要求跟蹤窗的大小也需要隨著目標(biāo)區(qū)域的增大而不斷擴(kuò)展,以使目標(biāo)能夠全部或絕大部分包含于跟蹤窗口內(nèi)。因此,在導(dǎo)彈末制導(dǎo)階段跟蹤算法除了要具有很好的實(shí)時(shí)性和精確性外,還需要能夠應(yīng)對(duì)目標(biāo)的尺度和旋轉(zhuǎn)變化。

        Mean Shift算法具有嚴(yán)謹(jǐn)?shù)睦碚撝巍⑤^強(qiáng)的實(shí)時(shí)性和較高的跟蹤精度,同時(shí)對(duì)目標(biāo)的遮擋和噪聲等不敏感,一直以來(lái)被廣泛應(yīng)用于目標(biāo)跟蹤中[1-3]。但是經(jīng)典的Mean Shift跟蹤算法[4-5]只適合估計(jì)目標(biāo)的位置變化,并不能估計(jì)目標(biāo)的尺度和旋轉(zhuǎn)變化,因此當(dāng)目標(biāo)發(fā)生尺度和旋轉(zhuǎn)變化時(shí),經(jīng)典的Mean Shift跟蹤性能將會(huì)大幅度下降甚至失效。CAMSHIFT算法是一種尺度和方向自適應(yīng)的方法[6],但是該算法沒(méi)有嚴(yán)格的數(shù)學(xué)理論支撐,同時(shí)跟蹤效果也不是十分理想,只能應(yīng)用于相對(duì)簡(jiǎn)單的視頻跟蹤中。Comaniciu等[7]為解決目標(biāo)發(fā)生形變時(shí)的尺度估計(jì)問(wèn)題提出了一種尺度自適應(yīng)的算法,該算法在3種不同的帶寬下分別運(yùn)行Mean Shift算法,取Bhattacharyya系數(shù)最大時(shí)所對(duì)應(yīng)的帶寬作為目標(biāo)的尺度。然而,由于目標(biāo)的方向變化和噪聲的影響,實(shí)際在Bhattacharyya系數(shù)最大時(shí)的帶寬并不一定能夠代表目標(biāo)的真實(shí)尺度。文獻(xiàn)[8]中提出了一種EMShift目標(biāo)跟蹤算法,該算法通過(guò)實(shí)時(shí)估計(jì)目標(biāo)的位置并利用協(xié)方差矩陣近似描述目標(biāo)的外形,它在一定程度上能夠適應(yīng)目標(biāo)的外形和尺度變化,并且具有較好的實(shí)時(shí)性。然而,該算法在計(jì)算過(guò)程中利用了高斯核,它的每一次迭代運(yùn)算都需要估計(jì)2階矩,導(dǎo)致其計(jì)算復(fù)雜度較高,并且在利用協(xié)方差矩陣確定目標(biāo)尺度的執(zhí)行方式上并沒(méi)有做詳細(xì)的闡述[9]。

        文獻(xiàn)[10]提出的跟蹤方法是將Mean Shift算法與仿射變換相結(jié)合,利用角點(diǎn)匹配算法計(jì)算仿射參數(shù),并通過(guò)Mean Shift算法定位目標(biāo)。該方法計(jì)算量較大,且在目標(biāo)特征點(diǎn)較少和目標(biāo)為非剛性物體時(shí)并不適用。文獻(xiàn)[11]將圖像制導(dǎo)系統(tǒng)中的距離信息應(yīng)用于目標(biāo)跟蹤,以動(dòng)態(tài)調(diào)整跟蹤窗口的尺度,并利用Bhattacharyya系數(shù)度量目標(biāo)特征與待搜索區(qū)域的相關(guān)程度,同時(shí)利用非線性方法在每一幀跟蹤收斂后更新目標(biāo)特征。該算法與傳統(tǒng)Mean Shift算法基本具有相同的時(shí)間及計(jì)算復(fù)雜度,能夠滿足圖像制導(dǎo)系統(tǒng)對(duì)實(shí)時(shí)性的要求,但是該方法并未說(shuō)明是否具備在目標(biāo)發(fā)生旋轉(zhuǎn)變化時(shí)的自適應(yīng)能力。

        本文引入了權(quán)值圖像的矩特征,并結(jié)合Bhattacharyya系數(shù)研究了一種跟蹤窗自適應(yīng)的Mean Shift目標(biāo)跟蹤算法。首先利用權(quán)值圖像的零階矩和Bhattacharyya系數(shù)估計(jì)橢圓形目標(biāo)區(qū)域的面積,然后利用已估計(jì)的目標(biāo)面積,結(jié)合權(quán)值圖像的2階中心矩構(gòu)建可表達(dá)目標(biāo)窗口內(nèi)圖像特征的協(xié)方差矩陣,進(jìn)而得到目標(biāo)的實(shí)際主軸長(zhǎng)度和方向,實(shí)現(xiàn)跟蹤窗的自適應(yīng)變化。

        1 跟蹤窗自適應(yīng)的Mean Shift算法

        1.1 目標(biāo)模型和候選模型的建立

        首先利用橢圓形跟蹤窗對(duì)目標(biāo)區(qū)域進(jìn)行近似,然后利用顏色直方圖建立區(qū)域內(nèi)目標(biāo)模型^q.表示目標(biāo)區(qū)域上規(guī)范化的像素位置,用一個(gè)各向同性核給區(qū)域中的每一個(gè)像素點(diǎn)進(jìn)行加權(quán),離中心點(diǎn)越遠(yuǎn)則表示該點(diǎn)為目標(biāo)點(diǎn)的概率越小,對(duì)應(yīng)的其權(quán)值就較低;而離中心點(diǎn)越近則表示該點(diǎn)為目標(biāo)點(diǎn)的概率越大,所以其權(quán)值也就較高。函數(shù)映射到相應(yīng)的特征空間的概率定義為

        在隨后的圖像序列中得到目標(biāo)的候選區(qū)域,計(jì)算其相應(yīng)的顏色直方圖,即為目標(biāo)候選模型^p(y),y表示候選區(qū)域的中心點(diǎn),所以,以y為中心的候選區(qū)域目標(biāo)候選模型定義為

        式中:{xi}i=1,…,nh表示候選區(qū)域中的像素位置集合;(y)表示候選模型(y)中第u個(gè)特征向量的概率密度;Ch是規(guī)范化常數(shù);h是窗口寬度,也稱(chēng)帶寬。

        1.2 目標(biāo)區(qū)域質(zhì)心位置的確定

        以上一幀坐標(biāo)中心位置y0作為當(dāng)前幀中目標(biāo)的中心,并以該點(diǎn)為搜索起點(diǎn),在其鄰域內(nèi)進(jìn)行目標(biāo)搜索,直到目標(biāo)模型與候選模型之間的Bhattacharyya系數(shù)達(dá)到最大值。假設(shè)當(dāng)前幀中目標(biāo)的中心為y,對(duì)(6)式在(y0)處進(jìn)行1階泰勒展開(kāi),

        得到目標(biāo)模型和候選模型后,再用表示m維特征向量之間夾角余弦的Bhattacharyya系數(shù)定義目標(biāo)模型和候選模型之間的距離。

        (7)式右邊第一項(xiàng)是常數(shù)項(xiàng),其不隨y的變化而變化,而第二項(xiàng)是一個(gè)關(guān)于y的函數(shù)。因此,要使達(dá)到最大,只需(7)式右邊的第二項(xiàng)最大即可。所以將(3)式帶入(7)式,得

        式中:nh表示候選區(qū)域中像素點(diǎn)的個(gè)數(shù);wi為候選區(qū)域中像素點(diǎn)i所對(duì)應(yīng)的權(quán)值,其表示候選區(qū)域中像素點(diǎn)xi屬于目標(biāo)的可能性,wi越大,表明其屬于目標(biāo)的可能性越高,

        (8)式的右邊第二項(xiàng)表示在當(dāng)前幀y處,基于各向同性核k(x)的密度估計(jì),應(yīng)取其密度的局部極大值,所以利用Mean Shift向量[5,7]可以得到候選區(qū)域中心y0到目標(biāo)中心新位置y1的表達(dá)式(10)式。

        通過(guò)不斷的迭代,候選區(qū)域的質(zhì)心將會(huì)落在權(quán)值最大的區(qū)域,最終收斂到目標(biāo)位置。

        本文選擇k(x)為Epanechnikov核,此時(shí)(10)式簡(jiǎn)化為

        1.3 估計(jì)目標(biāo)面積以及矩特征的引入

        利用權(quán)值圖像的0階矩及目標(biāo)模型和候選模型之間的Bhattacharyya系數(shù)估計(jì)目標(biāo)的面積。權(quán)值圖像的0階矩M00即為(11)式的分母,定義為

        Bhattacharyya系數(shù)可以用來(lái)度量跟蹤結(jié)果與目標(biāo)的相似性。跟蹤區(qū)域與目標(biāo)區(qū)域的相似性越高,則跟蹤結(jié)果與目標(biāo)的Bhattacharyya系數(shù)值就越大,但是只利用Bhattacharyya相關(guān)系數(shù)來(lái)估計(jì)目標(biāo)的面積,其結(jié)果的準(zhǔn)確度是難以保證的。

        通常在跟蹤窗內(nèi),除包含目標(biāo)外,還可能存在一定的背景信息,為了實(shí)現(xiàn)有效的跟蹤,候選區(qū)域尺寸一般都略大于目標(biāo)的實(shí)際尺寸,所以目標(biāo)只是候選區(qū)域的一部分,而不是整個(gè)候選區(qū)域。因此,目標(biāo)模型中屬于目標(biāo)部分的概率密度將大于其在候選模型中的概率。根據(jù)(11)式,屬于目標(biāo)的點(diǎn)在候選區(qū)域中的權(quán)值wi將大于1,那么表示權(quán)值之和的零階矩M00也將大于目標(biāo)的實(shí)際面積。如果候選區(qū)域與目標(biāo)的實(shí)際面積越接近,那么用M00估計(jì)目標(biāo)的面積也就越可靠。如果候選區(qū)域中出現(xiàn)了更多的背景信息,那么用M00估計(jì)面積的可靠性將隨之降低。

        通過(guò)上面的分析發(fā)現(xiàn),Bhattacharyya系數(shù)或權(quán)值圖像的零階矩M00都可以在一定程度上反映目標(biāo)的面積信息,但是單獨(dú)使用都不能較為準(zhǔn)確地估計(jì)出目標(biāo)的面積,因此如果能建立二者之間一定的函數(shù)關(guān)系,結(jié)合二者各自的信息,就有可能可以準(zhǔn)確地對(duì)目標(biāo)面積進(jìn)行估計(jì)。經(jīng)過(guò)大量的仿真實(shí)驗(yàn),本文提出了如下的函數(shù)關(guān)系,綜合利用Bhattacharyya系數(shù)和權(quán)值圖像的0階矩M00來(lái)估計(jì)目標(biāo)面積的實(shí)際值,

        式中:S代表目標(biāo)的實(shí)際面積;ρ是候選模型與目標(biāo)模型的之間的Bhattacharyya相關(guān)系數(shù)。利用ρ的余弦關(guān)系函數(shù)與0階矩M00的乘積來(lái)表示目標(biāo)面積。

        目標(biāo)模型與候選模型越相似,則ρ越接近1,由(13)式可以看出,S就越接近M00.隨著目標(biāo)模型與候選模型相似度的降低,ρ隨之減小,M00愈加大于目標(biāo)實(shí)際面積,但是通過(guò)上面的函數(shù)關(guān)系,又可以使S逼近目標(biāo)的真實(shí)面積。如果目標(biāo)模型與候選模型幾乎沒(méi)有相似度時(shí),則ρ接近于0,目標(biāo)丟失,S也逼近0.

        利用估計(jì)出的目標(biāo)面積S,再通過(guò)矩特征分析權(quán)值圖像,進(jìn)一步估計(jì)橢圓目標(biāo)區(qū)域?qū)嶋H的主軸長(zhǎng)度及方向。基于權(quán)值圖像計(jì)算出以下矩特征:

        式中:xi,1和xi,2分別表示候選區(qū)域中點(diǎn)i的橫、縱坐標(biāo);y1表示目標(biāo)候選區(qū)域的質(zhì)心。通過(guò)1階矩和0階矩之比獲得

        2階中心矩能夠描述目標(biāo)的方向以及目標(biāo)區(qū)域的形狀,可用來(lái)確定橢圓目標(biāo)區(qū)域的主軸信息,因此將2階矩轉(zhuǎn)換成以下的2階中心矩:

        1.4 目標(biāo)區(qū)域尺度及方向的自適應(yīng)調(diào)整

        由于上面的協(xié)方差矩陣Cov為2階正定的Hermite矩陣,所以協(xié)方差矩陣的奇異值等于其特征值,對(duì)協(xié)方差矩陣進(jìn)行奇異值分解,

        為了估計(jì)目標(biāo)的主軸長(zhǎng)度和方向,將(17)式寫(xiě)為協(xié)方差矩陣的表達(dá)形式:

        式中:λ1和λ2是協(xié)方差矩陣Cov的特征值。在橢圓目標(biāo)區(qū)域中,向量(u11,u21)T和(u12,u22)T分別表示在候選區(qū)域中實(shí)際目標(biāo)的兩個(gè)主軸方向。

        所以,

        因此,反映實(shí)際目標(biāo)主軸長(zhǎng)度和方向的協(xié)方差矩陣校正為

        求得當(dāng)前幀目標(biāo)的位置、主軸長(zhǎng)度和方向之后,接下來(lái)需要確定下一幀中目標(biāo)候選區(qū)域的位置。根據(jù)(23)式,下一幀的目標(biāo)候選區(qū)域用如下協(xié)方差矩陣來(lái)表示,Γl表示下一幀中候選區(qū)域的增量。

        1.5 算法實(shí)現(xiàn)步驟

        通過(guò)上面的分析,現(xiàn)整理完整的算法步驟如下:

        3)令d←‖y1-y0‖,y0←y1,設(shè)誤差閾值為ε,最大迭代次數(shù)為N.

        如果d<ε或者T≥N,停止,執(zhí)行步驟 4;否則T←T+1,執(zhí)行步驟2.

        4)用(23)式估計(jì)目標(biāo)候選區(qū)域兩個(gè)主軸的實(shí)際長(zhǎng)度和方向,并通過(guò)跟蹤結(jié)果估計(jì)下一幀的目標(biāo)候選區(qū)域尺寸,同時(shí)用(25)式確定下一幀中目標(biāo)的初始位置。

        該算法的前3步是對(duì)經(jīng)典的Mean Shift算法的一個(gè)整合,只是在步驟4增加了目標(biāo)候選區(qū)域兩個(gè)主軸的實(shí)際長(zhǎng)度和方向的估計(jì),而這些估計(jì)是在當(dāng)前幀跟蹤結(jié)束后,利用候選區(qū)域中的信息實(shí)現(xiàn)的,所以該算法的復(fù)雜度與經(jīng)典的Mean Shift算法相比幾乎沒(méi)有增加。

        2 仿真實(shí)驗(yàn)結(jié)果及分析

        該部分對(duì)經(jīng)典的Mean Shift算法、EM-Shift算法以及本文提出的算法進(jìn)行測(cè)試,比較它們的性能。在主頻2.5 GHz的64位Win7操作系統(tǒng)下,利用Matlab2013a對(duì)所有方法進(jìn)行測(cè)試。測(cè)試部分由3個(gè)實(shí)驗(yàn)組成。實(shí)驗(yàn)1用一段帶有尺度和方向變化的標(biāo)準(zhǔn)橢圓運(yùn)動(dòng)序列進(jìn)行測(cè)試,圖像大小為352× 240像素,共72幀。實(shí)驗(yàn)2為一段汽車(chē)由遠(yuǎn)及近并帶有方向變化的視頻測(cè)試序列,圖像的大小為768× 576像素,視頻長(zhǎng)度為300幀。實(shí)驗(yàn)3是一段模擬末制導(dǎo)階段彈目運(yùn)動(dòng)的視頻測(cè)試序列,圖像大小為480×320像素,共250幀。

        2.1 標(biāo)準(zhǔn)橢圓運(yùn)動(dòng)序列

        測(cè)試序列的第一幀用于定義目標(biāo)模型,接下來(lái)進(jìn)行跟蹤,分別選用視頻序列的第1、11、21、31、41、51、61和71幀作為實(shí)驗(yàn)結(jié)果。由圖1(a)可以看出, Mean Shift的跟蹤窗的大小和方向沒(méi)有跟隨目標(biāo)尺度及方向的變化而變化,當(dāng)目標(biāo)面積變大時(shí),跟蹤窗不能全部包含目標(biāo),同樣當(dāng)目標(biāo)面積變小時(shí),目標(biāo)框內(nèi)將會(huì)包含進(jìn)一些甚至大量的背景區(qū)域,這將會(huì)降低跟蹤精度,甚至出現(xiàn)丟失目標(biāo)的情況。在圖1(b)中,跟蹤窗雖然能隨著目標(biāo)區(qū)域的尺度和方向變化而自動(dòng)調(diào)整,但是可以明顯地看出,其自動(dòng)調(diào)整能力較弱,跟蹤過(guò)程中容易出現(xiàn)跟蹤窗內(nèi)包含大量背景信息以及跟蹤窗內(nèi)只包含部分目標(biāo)區(qū)域的情況。而由圖1(c)可以看出跟蹤窗口始終跟隨目標(biāo)的尺度和方向的變化而變化。

        2.2 尺度及方向變化的汽車(chē)運(yùn)動(dòng)序列

        圖2所示,目標(biāo)尺度由小變大的運(yùn)動(dòng)過(guò)程中,經(jīng)典的Mean Shift算法在起始階段,跟蹤窗內(nèi)幾乎完全包含目標(biāo),而在跟蹤的后期階段,跟蹤窗內(nèi)只包含了目標(biāo)的部分區(qū)域,大大增加了目標(biāo)丟失的可能性。如圖2(a)所示,從左至右依次為視頻序列的第1、61、121、181、241和300幀。在圖2(b)中,隨著目標(biāo)尺度的逐漸增大,EM-Shift算法的跟蹤窗內(nèi)充斥了大量的背景信息,增加了目標(biāo)誤跟蹤的可能性以及算法的計(jì)算量。本文提出算法的跟蹤窗在整個(gè)跟蹤過(guò)程中都完全和絕大部分包含目標(biāo)區(qū)域,并且?guī)缀醪话尘皡^(qū)域,保證了較好的跟蹤精度,如圖2(c)所示。

        圖1 標(biāo)準(zhǔn)橢圓運(yùn)動(dòng)序列的實(shí)驗(yàn)結(jié)果Fig.1 Experimental result of standard elliptic motion sequences

        圖2 目標(biāo)尺度由小到大運(yùn)動(dòng)序列的實(shí)驗(yàn)結(jié)果Fig.2 Experimental results of target scale changes from small to large motion sequences

        圖3給出了對(duì)尺度及方向變化的汽車(chē)運(yùn)動(dòng)序列跟蹤過(guò)程中3種算法跟蹤誤差的對(duì)比曲線圖,跟蹤誤差的計(jì)算公式為

        式中:(xj,yj)為計(jì)算出的第j幀圖像目標(biāo)中心點(diǎn)位置坐標(biāo);(xjr,yjr)為目標(biāo)的實(shí)際中心點(diǎn)坐標(biāo)。從圖3可以看出本文所提出的算法在目標(biāo)尺度及方向發(fā)生變化時(shí)其跟蹤準(zhǔn)確度要高于經(jīng)典的Mean Shift跟蹤算法和EM-Shift跟蹤算法。

        2.3 模擬彈目運(yùn)動(dòng)的測(cè)試序列

        圖3 3種算法跟蹤誤差對(duì)比Fig.3 Comparison of tracking errors of three algorithms

        圖4為一段模擬導(dǎo)彈末制導(dǎo)階段的視頻序列對(duì)3種算法的測(cè)試結(jié)果。由圖4(a)可以看出,經(jīng)典的Mean Shift算法的跟蹤窗自始至終都保持原始的大小,導(dǎo)致在跟蹤的末段跟蹤窗內(nèi)只包含很少的目標(biāo)區(qū)域,極易導(dǎo)致目標(biāo)丟失。圖4(b)中,EM-Shift算法的跟蹤窗雖然能夠隨目標(biāo)的尺度變化而變化,但是并不能保證較高的跟蹤精度。而本文提出的算法在整個(gè)跟蹤過(guò)程中,跟蹤窗始終隨目標(biāo)區(qū)域的變化而變化,實(shí)現(xiàn)了高精度的跟蹤,如圖4(c)所示。

        圖4 模擬彈目運(yùn)動(dòng)序列的實(shí)驗(yàn)結(jié)果Fig.4 Experimental result of missile and target simulation motion sequences

        圖5為模擬彈目運(yùn)動(dòng)序列跟蹤過(guò)程中3種算法跟蹤誤差的對(duì)比曲線圖。從圖中可以明顯地看出,在后期階段,本文提出的算法跟蹤精度要明顯高于另外兩種方法。

        圖5 3種算法跟蹤誤差對(duì)比Fig.5 Comparison of tracking errors of three algorithms

        為了比較和證明算法的實(shí)時(shí)性,表1給出了在本文的計(jì)算機(jī)配置和開(kāi)發(fā)環(huán)境下,3種方法在運(yùn)行以上3段視頻序列時(shí)的單幀平均運(yùn)算時(shí)間比較。從表中可以看出,EM-Shift算法和本文提出的算法在單幀平均計(jì)算耗時(shí)上都高于經(jīng)典的Mean Shift,但是本文提出的算法較接近經(jīng)典的Mean Shift算法,且遠(yuǎn)遠(yuǎn)低于EM-Shift算法的運(yùn)算時(shí)間。

        因此,本文提出的算法在提升了Mean Shift算法跟蹤精度的同時(shí),并沒(méi)有大幅增加算法的計(jì)算復(fù)雜度和運(yùn)算耗時(shí)。

        表1 平均運(yùn)算時(shí)間比較Tab.1 The comparison of average calculating timess

        3 結(jié)論

        針對(duì)圖像末制導(dǎo)系統(tǒng)的后期跟蹤階段,由于彈目距離及成像視角的迅速變化而引起的目標(biāo)尺度和方向變化的問(wèn)題,本文通過(guò)分析Mean Shift算法權(quán)值圖像的矩特征和Bhattacharyya系數(shù),研究了一種尺度和旋轉(zhuǎn)變化自適應(yīng)的目標(biāo)跟蹤算法。利用權(quán)值圖像的0階矩和Bhattacharyya相關(guān)系數(shù),推導(dǎo)出了一種有效的目標(biāo)真實(shí)面積估計(jì)方案。并通過(guò)結(jié)合估計(jì)出的目標(biāo)面積校正可表達(dá)目標(biāo)窗口內(nèi)圖像特征的協(xié)方差矩陣,從而計(jì)算出目標(biāo)的真實(shí)主軸長(zhǎng)度和方向,實(shí)現(xiàn)跟蹤窗的自適應(yīng)變化。該方法解決了經(jīng)典Mean Shift算法跟蹤窗不能適應(yīng)目標(biāo)發(fā)生尺度和旋轉(zhuǎn)變化的問(wèn)題,具有很高的實(shí)際應(yīng)用價(jià)值,并且該算法的計(jì)算復(fù)雜度和單幀平均運(yùn)行時(shí)間與經(jīng)典的Mean Shift算法相比并沒(méi)有大幅增加,能夠滿足圖像制導(dǎo)目標(biāo)跟蹤系統(tǒng)對(duì)精度和實(shí)時(shí)性的要求。

        (References)

        [1] Peihua Li.An adaptive binning color model for mean shift tracking[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2008,18(9):1293-1299.

        [2] Heechul H,Kwanghoon S.Automatic illumination and color compensation using mean shift and sigma filter[J].IEEE Transactions on Consumer Electronics,2009,55(3):978-986.

        [3] Li Z,Tang Q L,Sang N.Improved mean shift algorithm for occlusion pedestrian tracking[J].Electronics Letters,2008,44(10): 622-623.

        [4] Comaniciu D,Ramesh V,Meer P.Real-time tracking of non-rigid objects using mean shift[C]∥2000 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.South Carolina:IEEE,2000:142-149.

        [5] Comaniciu D,Meer P.Mean shift:a robust approach toward feature space analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(5):603-619.

        [6] Bradski G R.Computer vision face tracking for use in a perceptual user interface[J].Intel Technology Journal,1998,2(2).1-15.

        [7] Comaniciu D,Ramesh V,Meer P.Kernel-based object tracking[J]. IEEE transactions on Pattern Analysis and Machine Intelligence. 2003,25(4):564-575.

        [8] Zivkovic Z,Krose B.An EM-like algorithm for color-histogrambased object tracking[C]//2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE,2004:798-803.

        [9] Hu J,Juan C,Wang J.A spatial-color mean-shift object tracking algorithm with scale and orientation estimation[J].Pattern Recognition Letters,2008,29(8):2165-2173.

        [10] 康一梅,謝晚冬,胡江,等.目標(biāo)尺度自適應(yīng)的Mean-Shift跟蹤算法[J].兵工學(xué)報(bào),2011,32(2):210-216.

        KANG Yi-mei,XIE Wan-dong,HU Jiang,et al.Target scale adaptive Mean-Shift tracking algorithm[J].Acta Armamentarii, 2011,32(2):210-216.(in Chinese)

        [11] 冉歡歡,黃自立.基于距離信息的Mean-Shift跟蹤算法[J].兵工學(xué)報(bào),2013,34(1):82-86.

        RAN Huan-huan,HUANG Zi-li.Mean-Shift tracking algorithm based on distance information[J].Acta Armamentarii,2013, 34(1):82-86.(in Chinese)

        [12] 王耀明.圖像的矩函數(shù)—原理、算法及應(yīng)用[M].上海:華東理工大學(xué)出版社,2002:6-8.

        WANG Yao-ming.Image moment functions—theory,algorithm and applications[M].Shanghai:East China University of Science and Technology Press,2002:6-8.(in Chinese)

        Target Tracking Algorithm of Strapdown Homing System Based on Adaptive Tracking Window

        GUO Xiao-ran1,CUI Shao-hui1,CAO Huan2,YANG Suo-chang1,FANG Dan1
        (1.Department of Missile Engineering,Ordnance Engineering College,Shijiazhuang 050003,Hebei,China; 2.Beijing Aerospace Jiacheng Precision Technology Development Co.,Ltd,Beijing 102600,China)

        In strapdown imaging homing guidance system,the change of the distance between missile and target and the change of imaging visual angle may cause the rotation and scaling changes of image.The classical mean shift tracking algorithms can not robustly track a target which is under rotation and scaling. A scaling and rotation changing adaptive mean shift target tracking algorithm is proposed.The selected elliptic tracking region model and candidate tracking region model are weighted.Meanwhile,the moment characteristic and Bhattacharyya coefficient of weighted image are used to precisely estimate the actual area of target.Then a covariance matrix which can express the characteristic of image in tracking window is constructed using the estimated area and the second order center moment of weighted image.The relationship between the ellipse area and the eigenvalues of covariance matrix is established by singular value de-composition,the length and orientation of principal axis of ellipse are figured out,and the adaptive change of tracking window is realized.Test results indicate that this algorithm retains the high accuracy and real time of the classical mean shift algorithm,and at the same time,extends the adaptive ability of mean shift algorithm for the changes in scale and rotation of target.

        ordnance science and technology;image guidance;strap-down;mean shift algorithms;moment feature;adaptation

        TP391

        A

        1000-1093(2014)10-1604-08

        10.3969/j.issn.1000-1093.2014.10.013

        2013-12-25

        軍內(nèi)科技創(chuàng)新項(xiàng)目(裝司字[2012]665)

        郭曉冉(1985—),男,博士研究生。E-mail:vip850522@163.com;崔少輝(1965—),男,教授,博士生導(dǎo)師。E-mail:cuish@163.com

        猜你喜歡
        區(qū)域模型
        一半模型
        永久基本農(nóng)田集中區(qū)域“禁廢”
        分割區(qū)域
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        關(guān)于四色猜想
        分區(qū)域
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
        亚洲va久久久噜噜噜久久天堂| 天堂女人av一区二区| 欧美一级三级在线观看| 麻豆久久五月国产综合| 东京道一本热码加勒比小泽| 久久一区二区三区久久久| 免费a级毛片18禁网站| 国产精品无码专区av在线播放| 播放灌醉水嫩大学生国内精品 | 国产无套粉嫩白浆内精| 天天综合天天爱天天做| 亚洲小说区图片区另类春色| 精品一区二区av天堂| 亚洲天堂一区二区三区视频| 亚洲最大一区二区在线观看| 五月色婷婷丁香无码三级| 日本50岁丰满熟妇xxxx | 精品一区中文字幕在线观看| 免费无码毛片一区二区app| 97成人精品| 国产成人精品自拍在线观看| 香蕉视频在线观看亚洲| 国产欧美日韩综合精品二区| 久久精品波多野结衣中文字幕| 精品丝袜一区二区三区性色| 亚洲综合第一页中文字幕| 少妇无码av无码一区| 亚洲欧洲精品国产二码| 伊人影院成人在线观看| 成人国成人国产suv| 人人摸人人操| 人妻无码中文专区久久综合| 日韩伦理av一区二区三区| 女人张开腿让男人桶爽| 国产亚洲av手机在线观看| 国产精品一区二区AV不卡| 免费av日韩一区二区| a级毛片免费观看在线播放| 先锋影音av资源我色资源| 日本成人三级视频网站| 人妻久久久一区二区三区蜜臀 |