杜 江,楊建華,石 靜
(1.中國兵器工業(yè)試驗(yàn)測試研究院,陜西 渭南 714200;2.西北工業(yè)大學(xué),西安 710129)
景象匹配定位制導(dǎo)中誤匹配消除方法
杜 江1,楊建華2,石 靜2
(1.中國兵器工業(yè)試驗(yàn)測試研究院,陜西 渭南 714200;2.西北工業(yè)大學(xué),西安 710129)
為了提高景象匹配定位的精確性和可靠性,針對景象匹配中存在誤匹配問題,對SURF算法的2種匹配方法效果進(jìn)行研究與比較,提出2種匹配點(diǎn)取交集和RANSAC估計(jì)消除誤匹配的方法,即利用二者匹配結(jié)果交集消除部分誤匹配,再通過RANSAC估計(jì)直線模型參數(shù)消除剩余誤匹配。實(shí)驗(yàn)結(jié)果表明,該方法可以很好地消除誤匹配。
景象匹配;匹配方法;誤匹配;交集;直線模型
現(xiàn)代戰(zhàn)爭已經(jīng)從傳統(tǒng)機(jī)械化轉(zhuǎn)向高技術(shù)信息化,20世紀(jì)90年代至今,在全球局部地區(qū)的幾場戰(zhàn)爭中已經(jīng)確立了精確制導(dǎo)武器在現(xiàn)代戰(zhàn)爭中的重要地位[1-3]。在制導(dǎo)過程中,導(dǎo)引頭不斷獲取實(shí)時圖像,然后與基準(zhǔn)圖像進(jìn)行匹配,這需要大量的智能化信息處理,而完成這一任務(wù)所依賴基礎(chǔ)就是景象匹配技術(shù)。景象匹配技術(shù)在導(dǎo)航制導(dǎo)中的研究已經(jīng)開展很多年,國內(nèi)外在圖像匹配定位上均做了大量的研究,已經(jīng)達(dá)到了應(yīng)用的階段[4-5]。
針對圖像誤匹配嚴(yán)重影響定位精度的問題,本文研究通過對加速魯棒特征(speeded up robust features,SURF)算法的2種匹配方法匹配結(jié)果取交集和隨機(jī)抽樣一致(random sample consensus,RANSAC)算法消除誤匹配。
景象匹配是在基準(zhǔn)圖像上唯一地準(zhǔn)確定位實(shí)時圖像或模版圖像的計(jì)算處理過程[6],實(shí)則也是2幅圖像之間的空間坐標(biāo)和相應(yīng)灰度的匹配。假設(shè)實(shí)時圖I1(x,y)為景象區(qū)域A的成像,基準(zhǔn)圖I2(x,y)中包含景象區(qū)域A與區(qū)域A相連的其他景象區(qū)域,則二者的關(guān)系可以表示為
I2(x,y)=g(I1(f(x,y)))。
(1)
式中:f是一個二維空間的坐標(biāo)變換;g是一個一維的灰度變換;x、y為像素坐標(biāo)。
由式(1)得:基準(zhǔn)圖與實(shí)時圖正確匹配點(diǎn)之間存在一一對應(yīng)關(guān)系;但是因?yàn)閷?shí)際中地形、地貌有時候會出現(xiàn)相似的地方,造成多個相似特征點(diǎn),除匹配點(diǎn)對應(yīng)出錯外,也會出現(xiàn)一對多、多對一現(xiàn)象[7-8]。由于基準(zhǔn)圖的地理坐標(biāo)位置(或與目標(biāo)的相對位置)是事先知道的,那么實(shí)時圖中橫縱坐標(biāo)與地理經(jīng)緯度坐標(biāo)之間也存在唯一的對應(yīng)關(guān)系;如果擬合出這種對應(yīng)關(guān)系,則不滿足對應(yīng)關(guān)系的點(diǎn)也屬于誤匹配點(diǎn)。
近年來,圖像局部不變性特征是圖像處理領(lǐng)域的一個研究熱點(diǎn)。文獻(xiàn)[9]提出的SURF算法運(yùn)算速度快、魯棒性強(qiáng),對于需要實(shí)時運(yùn)算的場合,如導(dǎo)彈尋的制導(dǎo)時的目標(biāo)識別,通常需要在很短時間內(nèi)完成特征點(diǎn)搜索、特征向量生成、特征向量匹配、目標(biāo)鎖定等工作,SURF算法比較適應(yīng)這種需求[10]。文獻(xiàn)[10-12]詳細(xì)描述了SURF的基本原理。這里重點(diǎn)研究SURF中基于最近鄰距離的匹配和基于最近鄰距離與次近鄰距離比率的匹配2種匹配方法。
當(dāng)2幅圖像的SURF特征向量生成以后,下一步就是將興趣點(diǎn)特征向量的歐氏距離作為2幅圖像的相似性判定度量。取一幅圖像中的某個興趣點(diǎn),并找出其與另一幅圖像中歐氏距離最近的前2個興趣點(diǎn)?;谧罱従嚯x的匹配中,認(rèn)為2幅圖中特征向量歐氏距離最近的2個點(diǎn)為一對匹配點(diǎn),距離越近,匹配成功率越高[13]。如圖1與表1所示,基準(zhǔn)圖與實(shí)時圖基于最近鄰距離匹配,SURF會對所有的興趣點(diǎn)特征向量進(jìn)行距離計(jì)算并匹配,將所有的最近鄰距離從小到大排序,選擇前N對匹配點(diǎn)觀察匹配效果(N=50,100,200),可以發(fā)現(xiàn)隨著選取值N的增大,誤匹配點(diǎn)對數(shù)增加。
基于最近鄰距離與次近鄰距離比率的匹配中,如果最近鄰的距離除以次近鄰的距離小于某個比例閾值,則接受這一對匹配點(diǎn)。選擇的閾值越低,匹配點(diǎn)數(shù)目越少;但是更加穩(wěn)定[14]。如圖2與表2所示,基準(zhǔn)圖和實(shí)時圖基于最近鄰距離與次近鄰距離比率的匹配,由于經(jīng)過閾值T(T=0.8)篩選,匹配點(diǎn)對數(shù)明顯減少,如果繼續(xù)降低閾值(T=0.7,0.6),誤匹配點(diǎn)對數(shù)也會相應(yīng)減少。
在景象匹配中,實(shí)時圖一般包含的是基準(zhǔn)圖的一部分景物或者景象,如果基于最近鄰距離匹配,除了在排序中距離小的點(diǎn)對匹配成功率很高外,相當(dāng)多的匹配都是誤匹配。而第二種匹配方法中,雖然匹配成功率較高,但是仍有誤匹配存在;如果閾值降得過低,則會減少匹配點(diǎn),影響其后的定位解算。因此可以在第一種匹配點(diǎn)對中選取與第二種匹配點(diǎn)對數(shù)量等同并且距離小的前N對點(diǎn),取二者之間的匹配點(diǎn)對的交集,則可以有效剔除一些誤匹配,提高匹配準(zhǔn)確率。
匹配點(diǎn)數(shù)誤匹配點(diǎn)數(shù)502100920021
表2 基于不同距離比率閾值匹配
在景象匹配定位制導(dǎo)中,圖像定位精度和定位可靠性直接影響到導(dǎo)彈的命中精度,因此要求能夠準(zhǔn)確、可靠地完成匹配定位工作。通常情況下,導(dǎo)彈慣性偏差能夠保證在某個確定的范圍內(nèi),也保證了實(shí)時圖落在基準(zhǔn)圖上,并且方向偏差較小[15]?;鶞?zhǔn)圖中圖像坐標(biāo)與真實(shí)坐標(biāo)對應(yīng)關(guān)系已知,如果實(shí)時圖與基準(zhǔn)圖匹配完全準(zhǔn)確,圖像中的橫縱坐標(biāo)與現(xiàn)實(shí)中的地理坐標(biāo)存在一一對應(yīng)關(guān)系,即橫坐標(biāo)與經(jīng)度對應(yīng),縱坐標(biāo)與緯度對應(yīng)。如圖3所示,選擇匹配點(diǎn)畫出圖像坐標(biāo)與真實(shí)坐標(biāo)對應(yīng)關(guān)系,很容易發(fā)現(xiàn)無論是橫坐標(biāo)對應(yīng)經(jīng)度還是縱坐標(biāo)對應(yīng)緯度,都近似于一條直線。
圖像匹配中往往可以得到數(shù)以百計(jì)的特征點(diǎn)匹配對,即使經(jīng)過第2節(jié)中2種匹配方法匹配點(diǎn)對取交集,仍然會有誤匹配點(diǎn)存在,如果誤匹配點(diǎn)與大部分點(diǎn)偏離很大,擬合的直線與理想直線會發(fā)生很大的偏差,可用隨機(jī)抽樣一致性RANSAC算法進(jìn)一步剔除誤匹配點(diǎn)。
RANSAC是一種估計(jì)數(shù)學(xué)模型參數(shù)的迭代算法,通過采樣和驗(yàn)證的策略,求解大部分樣本都能滿足的數(shù)學(xué)模型的參數(shù)。迭代時,每次從數(shù)據(jù)集中采樣模型需要的最少數(shù)目樣本,計(jì)算數(shù)學(xué)模型的參數(shù),然后在數(shù)據(jù)集中統(tǒng)計(jì)符合該模型參數(shù)的樣本數(shù)目,最多樣本符合的參數(shù)就被認(rèn)為是最終模型的參數(shù)值。符合模型的樣本點(diǎn)叫做內(nèi)點(diǎn),不符合模型的樣本點(diǎn)叫做外點(diǎn)或者野點(diǎn)[16]。此例中確定直線方程需要2個數(shù)據(jù)點(diǎn),RANSAC每次隨機(jī)抽取2個樣本點(diǎn),得到直線方程后,再計(jì)算其他點(diǎn)到該直線的距離。如果距離小于閾值則被認(rèn)為是內(nèi)點(diǎn),否則被認(rèn)為是外點(diǎn),然后統(tǒng)計(jì)符合該直線方程的內(nèi)點(diǎn)數(shù)量;如此不斷重復(fù)采樣和驗(yàn)證,可估計(jì)出很多直線方程參數(shù)。最終,具有最多內(nèi)點(diǎn)的直線就被認(rèn)為是最終數(shù)學(xué)模型的參數(shù)估計(jì)。由于第2節(jié)中2種匹配結(jié)果取交集已經(jīng)消除了一些誤匹配,所以RANSAC迭代的次數(shù)也會隨之減少,可進(jìn)一步提升匹配效率。
本文運(yùn)用Matlab2010b進(jìn)行仿真實(shí)驗(yàn),在主頻為Intel 3.10 Hz、內(nèi)存為3GB的PC機(jī)上運(yùn)行,通過對2種匹配方法取交集消除誤匹配、RANSAC算法再次消除誤匹配以及定位解算進(jìn)行驗(yàn)證。
1)SURF算法2種匹配方法取交集減少誤匹配?;谧罱従嚯x的匹配結(jié)果中,特征向量距離越小,準(zhǔn)確率越高;但是由于所有特征點(diǎn)都參與匹配,隨著距離增大,匹配可信度會降低。而基于最近鄰距離與次近鄰距離比率的匹配中,只保留了距離比率大于閾值的匹配點(diǎn)對,匹配數(shù)量大大減少;但仍不能保證準(zhǔn)確率。經(jīng)過多次實(shí)驗(yàn)驗(yàn)證,從中取一例,如圖4與表3所示,閾值仍取0.8,與圖2(a)結(jié)果相比,2種匹配結(jié)果取交集后誤匹配點(diǎn)明顯減少。
表3 2種匹配結(jié)果取交集
2)RANSAC再次消除誤匹配及定位解算。經(jīng)過對SURF 2種匹配方法匹配結(jié)果取交集后,仍然可能會有誤匹配存在,所以有必要用RANSAC算法進(jìn)一步將誤匹配點(diǎn)消除,由于一部分誤匹配已被消除,所以RANSAC計(jì)算效率將提高。每次任取2個點(diǎn)得出直線方程,不斷計(jì)算點(diǎn)到直線距離,距離小于閾值的點(diǎn)作為內(nèi)點(diǎn)。通過不斷地采取樣本點(diǎn)與驗(yàn)證直線方程參數(shù),擁有最多內(nèi)點(diǎn)的直線即為理想模型參數(shù)估計(jì)。對上面的結(jié)果進(jìn)行RANSAC估計(jì),結(jié)果如圖5所示,2種對應(yīng)關(guān)系更加貼近于直線。
用RANSAC誤匹配點(diǎn)再消除后進(jìn)行匹配,如圖6與表4所示,誤匹配點(diǎn)繼續(xù)減少,匹配準(zhǔn)確率進(jìn)一步提高。
閾值匹配點(diǎn)數(shù)誤匹配點(diǎn)數(shù)0.8862
本文對景象匹配定位原理進(jìn)行了闡述,對基于局部不變特征的SURF算法的2種匹配方法匹配結(jié)果進(jìn)行分析對比,并應(yīng)用RANSAC算法再次消除誤匹配點(diǎn)。
局部不變特征算法SURF匹配中,特征向量間的歐氏距離越近,特征點(diǎn)的匹配準(zhǔn)確度越高,但是全部用來解算不僅顯得冗余,還會增加錯誤率;引入最近鄰距離與次近鄰距離比率閾值匹配后,雖然取得合適的匹配點(diǎn)數(shù)量,但是準(zhǔn)確率不及前者:對2種方法匹配結(jié)果取交集不僅可以消除部分誤匹配,而且還會減少隨后RANSAC的迭代次數(shù)和驗(yàn)證次數(shù),減少運(yùn)行時間,可以為快速定位解算提供保證。
[1] 毛國輝.精確制導(dǎo)武器與戰(zhàn)爭法[J].國防科技,2010,31(6):33-37.
[2] 畢開波.導(dǎo)彈武器及其制導(dǎo)技術(shù)[M].北京:國防工業(yè)出版社,2013:100-102.
[3] 趙晶,來慶福,戴幻堯,等.導(dǎo)彈武器全制導(dǎo)技術(shù)發(fā)展分析[J].中國電子科學(xué)研究院學(xué)報(bào),2012,7(1):34-41.
[4] 梁薇,張科.精確制導(dǎo)武器發(fā)展及其關(guān)鍵技術(shù)[J].火力與指揮控制,2008,33(12):5-7.
[5] 劉建業(yè),曾慶化,趙偉,等.導(dǎo)航系統(tǒng)理論與應(yīng)用[M].西安:西北工業(yè)大學(xué)出版社,2010:418-420.
[6] 李言俊,張科.景象匹配與目標(biāo)識別技術(shù)[M].西安:西北工業(yè)大學(xué)出版社,2009:3-5.
[7] 邱亞輝,李長青,崔有幀.RANSAC算法在剔除圖像配準(zhǔn)中誤匹配點(diǎn)的應(yīng)用[J].影像技術(shù),2014,26(4):46-47.
[8] 薛振華,王萍,張楚涵,等.圖像匹配中去除誤配的對抗性優(yōu)化方法的改進(jìn)[J].計(jì)算機(jī)應(yīng)用,2012,32(11):3157-3160.
[9] BAUER J,SUNDERHAUF N,PROTZEL P.Comparing several implementations of two recently published feature detectors[EB/OL].(2014-04-03)[2016-08-18].https://www.tu-chemnitz.de/etit/proaut/forschung/rsrc/iav07-surf.pdf.
[10]王永明,王貴錦.圖像局部不變性特征與描述[M].北京:國防工業(yè)出版社,2010:89-90.
[11]熊智,陳方,王丹,等.SAR/INS組合導(dǎo)航中基于SURF的魯棒景象匹配算法[J].南京航空航天大學(xué)學(xué)報(bào),2011,43(1):49-54.
[12]BAY H,TUYTELAARS T,GOOL V L.SURF:speeded up robust feature[EB/OL].(2006-10-26)[2016-08-18].http://www.vision.ee.ethz.ch/~surf/eccv06.pdf.
[13]BAY H,TUYTELAARS T,GOOL V L.Speeded up robust features(SURF)[J].Computer Vision and Image Understanding,2008,110(3):346-359.
[14]王君本,盧選民,賀兆.一種基于快速魯棒特征的圖像匹配算法[J].計(jì)算機(jī)工程與科學(xué),2011,33(2):112-115.
[15]曲圣杰,潘泉,趙春暉,等.景象匹配輔助導(dǎo)航系統(tǒng)匹配置信度評估方法[J].中國慣性技術(shù)學(xué)報(bào),2011,19(6):713-719.
[16]曲天偉,安波,陳桂蘭.改進(jìn)的RANSAC算法在圖像配準(zhǔn)中的應(yīng)用[J].計(jì)算機(jī)應(yīng)用,2010,30(7):1849-1851.
Mismatching eliminating method of scene matching,positioning and guidance
DUJiang1,YANGJianhua2,SHIJing2
(1.NORINCO Group Test and Measuring Academy,Weinan,Shaanxi 714200,China;2.Northwestern Polytechnical University,Xi’an 710129,China)
In order to improve the accuracy and the reliability of scene matching and positioning,aiming at the problem of mismatching in scene matching,the paper studied and compared the effects of the two matching methods based on SURF algorithm,and proposed to get the intersection of matching points from the two methods and estimate mismatching points by means of RANSAC algorithm:some mismatching points were eliminated during generating the intersection,and then the remaining mismatching points were eliminated via the estimation parameters of a linear model with RANSAC algorithm.Experimental result showed that the proposed method could effecitively eliminate mismatching points.
scene matching;matching method;mismatching;intersection;linear model
2016-09-09
杜江(1987—),男,河南三門峽人,碩士,工程師,研究方向?yàn)榻M合導(dǎo)航及景象匹配理論及應(yīng)用。
杜江,楊建華,石靜.景象匹配定位制導(dǎo)中誤匹配消除方法[J].導(dǎo)航定位學(xué)報(bào),2017,5(3):5-8,18.(DU Jiang,YANG Jianhua,SHI Jing.Mismatching eliminating method of scene matching,positioning and guidance[J].Journal of Navigation and Positioning,2017,5(3):5-8,18.)
10.16547/j.cnki.10-1096.20170302.
P228
A
2095-4999(2017)03-0005-05