孫大為,王仕成,楊東方,李永飛
(火箭軍工程大學(xué),西安 710025)
對(duì)目標(biāo)的準(zhǔn)確識(shí)別定位是精確制導(dǎo)武器末制導(dǎo)尋的階段的關(guān)鍵問(wèn)題,當(dāng)前的研究和應(yīng)用主要針對(duì)與背景特征差異明顯的顯著目標(biāo),采用模板匹配的方法,實(shí)現(xiàn)目標(biāo)的定位和識(shí)別。文獻(xiàn)[1]提出一種基于邊緣匹配的前視紅外目標(biāo)識(shí)別算法,對(duì)建筑物和冷凝塔等典型目標(biāo)進(jìn)行匹配,是一種基于模板匹配的方法,具有良好的匹配性能,但該算法對(duì)尺度不變性的適應(yīng)性較差。文獻(xiàn)[2]中提出的方法也是對(duì)冷凝塔等具有建筑規(guī)范的特殊建筑物目標(biāo)進(jìn)行的識(shí)別定位,該方法一定程度降低了模板制備過(guò)程對(duì)基礎(chǔ)保障數(shù)據(jù)的依賴(lài)。文獻(xiàn)[3]提出的基于形狀模板匹配的方法是對(duì)油庫(kù)、火電廠、建筑物、雷達(dá)站、水塔等典型地物目標(biāo)進(jìn)行識(shí)別,提出采用多尺度的感興趣區(qū)域檢測(cè)和基于模糊集的形狀特征提取,用改進(jìn)的 Hausdorff距離進(jìn)行匹配,但是該方法并未考慮目標(biāo)受背景干擾等導(dǎo)致目標(biāo)不顯著情況下的目標(biāo)識(shí)別。上述方法的研究對(duì)象都是具有顯著特征的目標(biāo),均采用直接識(shí)別定位目標(biāo)的策略。
然而,在實(shí)際應(yīng)用中,針對(duì)不顯著目標(biāo)的識(shí)別和定位更加具有研究?jī)r(jià)值和現(xiàn)實(shí)意義。當(dāng)目標(biāo)被遮擋、受到背景干擾或者目標(biāo)尺度較小、目標(biāo)相似度較高等情況下,以及受圖像拍攝尺度、視角、光照條件等因素的制約時(shí),目標(biāo)特征往往就變得并不顯著,對(duì)這類(lèi)不顯著目標(biāo)采用直接識(shí)別定位的方法通常是不可行的。文獻(xiàn)[4]提出通過(guò)匹配得到地標(biāo)在實(shí)時(shí)圖中的位置,并且已知地標(biāo)在大地坐標(biāo)系下的位置偏差,反過(guò)來(lái)解算目標(biāo)在實(shí)時(shí)圖中的位置,即采取先捕獲目標(biāo)所在場(chǎng)景中具有顯著特征的地物結(jié)構(gòu),再間接定位到感興趣目標(biāo),從而達(dá)到對(duì)感興趣目標(biāo)的間接定位與識(shí)別。這種方法更符合人類(lèi)視覺(jué)導(dǎo)航的特點(diǎn),但是該方法需要成像姿態(tài)參數(shù)作為保障,而對(duì)于載有慣性導(dǎo)航系統(tǒng)的武器而言,由于陀螺儀漂移的存在,導(dǎo)致角度參數(shù)的誤差隨時(shí)間積累,從而使得計(jì)算結(jié)果的精度難以保證。另外,算法需要地標(biāo)的多尺度、多視點(diǎn)特性視圖,這也限制了其在武器系統(tǒng)中的應(yīng)用。
針對(duì)上述問(wèn)題,本文提出一種基于仿射不變性映射的不顯著目標(biāo)間接定位方法,該方法借鑒了文獻(xiàn)[4]中提出的間接定位策略,但與文獻(xiàn)[4]的方法不同,本文提出的方法不依賴(lài)于地標(biāo)的多尺度視圖,同時(shí)為了克服前述定位算法對(duì)角度參數(shù)的依賴(lài),本文的算法則是通過(guò)解算實(shí)時(shí)圖與基準(zhǔn)圖之間的變換關(guān)系,實(shí)現(xiàn)對(duì)復(fù)雜地面背景中的不顯著目標(biāo)的識(shí)別定位。
在飛行器尋的制導(dǎo)階段,匹配算法使用的參考圖像通常是由遙感衛(wèi)星拍攝得到的衛(wèi)星圖像或由高空偵察機(jī)拍攝得到的航空?qǐng)D像,實(shí)時(shí)圖像則是由機(jī)載設(shè)備在實(shí)時(shí)飛行時(shí)拍攝,因此,目標(biāo)識(shí)別定位問(wèn)題可歸結(jié)為圖像的匹配問(wèn)題,就是要在待定位的圖像中尋找與模型圖像的最佳匹配。圖1給出了算法的流程,主要包括三個(gè)部分:1)顯著區(qū)域檢測(cè)和匹配;2)仿射變換和特征點(diǎn)匹配;3)基于仿射不變性的不顯著目標(biāo)定位。
圖1中的紅框標(biāo)識(shí)的區(qū)域?yàn)轱@著區(qū)域,通常是顯著性較強(qiáng)的地標(biāo)式建筑等,并非末制導(dǎo)最終要識(shí)別定位的目標(biāo),而“十字叉”標(biāo)記的不顯著目標(biāo)才是識(shí)別定位的對(duì)象。算法的第一階段是顯著區(qū)域的檢測(cè)和匹配,目的是為了檢測(cè)實(shí)時(shí)圖所拍攝的區(qū)域是否進(jìn)入了參考圖所示的區(qū)域,如果顯著區(qū)域檢測(cè)匹配成功,則程序進(jìn)入第二階段,否則,飛行器繼續(xù)飛行,更新實(shí)時(shí)圖,重復(fù)第一階段;第二階段是仿射變換和特征點(diǎn)匹配階段,該階段的主要任務(wù)是在實(shí)時(shí)圖和參考圖成功匹配的顯著區(qū)域內(nèi)提取ASIFT特征點(diǎn),利用特征點(diǎn)的匹配來(lái)估計(jì)顯著區(qū)域之間的仿射變換矩陣H,從而得到圖像之間的一一對(duì)應(yīng)關(guān)系;最后是對(duì)不顯著目標(biāo)的識(shí)別定位階段,已知參考圖中不顯著目標(biāo)的位置信息,利用仿射變換矩陣估計(jì)實(shí)時(shí)圖中的不顯著目標(biāo)的位置信息,從而實(shí)現(xiàn)對(duì)不顯著目標(biāo)的間接識(shí)別定位。
圖1 不顯著目標(biāo)的間接定位Fig.1 Flowchart of insignificant targets indirect location
上述算法的實(shí)施需要滿(mǎn)足一個(gè)前提條件,即實(shí)時(shí)圖和參考圖之間的變換是一個(gè)三維仿射變換。事實(shí)上,成像系統(tǒng)在遠(yuǎn)距離情況下,由于成像距離遠(yuǎn)遠(yuǎn)大于攝像機(jī)的焦距,此時(shí)被攝圖像中的場(chǎng)景可近似認(rèn)為在同一平面內(nèi),即圖像之間的變換可以用一個(gè)三維空間的仿射變換來(lái)近似,而這種條件下,三維空間的仿射變換可以用二維的射影變換來(lái)表示?;镜亩S平面變換如圖2所示,包括平移、旋轉(zhuǎn)、相似、仿射和射影變換。
射影變換又稱(chēng)透視變換,是更為一般的圖像變換模型,可以描述攝像機(jī)的平移、旋轉(zhuǎn)、縮放、水平掃動(dòng)和垂直掃動(dòng)等運(yùn)動(dòng)。二維平面的剛性變換、相似變換和仿射變換都是射影變換的特例,用二維空間中的點(diǎn)(,)xy??、(,)xy分別表示變換后和變換前的點(diǎn),則二維射影變換的齊次坐標(biāo)表示滿(mǎn)足:
其中:H是一個(gè)3×3的射影變換矩陣,有8個(gè)自由度,且 r ank ( H ) =3;η表示齊次坐標(biāo)之間相差的常數(shù)非零因子。
圖2 圖像二維平面基本變換關(guān)系Fig.2 Basic transformations in 2D planes
為了判斷視場(chǎng)中的顯著特征是否在實(shí)時(shí)圖和參考圖中同時(shí)出現(xiàn),需要對(duì)圖像進(jìn)行顯著區(qū)域的檢測(cè)和匹配。顯著區(qū)域檢測(cè)是依據(jù)視覺(jué)注意機(jī)制建立的模型,人眼根據(jù)這種機(jī)制可以在海量信息中快速捕獲到最容易引起注意的區(qū)域,并且將響應(yīng)強(qiáng)度作為該圖像的顯著性度量。近年來(lái),顯著區(qū)域檢測(cè)得到了快速的發(fā)展,被廣泛應(yīng)用于目標(biāo)檢測(cè)[5-9]、圖像分割[10-11]、目標(biāo)識(shí)別[12-14]和目標(biāo)跟蹤[15-17]等領(lǐng)域。
顯著區(qū)域檢測(cè)依據(jù)的視覺(jué)特征可以分為底層特征和高層特征,其中底層特征包括對(duì)比度、顏色、方向、形狀等,而高層特征則包括轉(zhuǎn)移性、返回抑制性、排他性等。本文應(yīng)用的顯著區(qū)域檢測(cè)算法模型是由Achanta等在文獻(xiàn)[13]中提出的顯著圖生成算法,該算法是一種頻率調(diào)諧的方法,利用顏色、亮度等底層的視覺(jué)特征的“中心—周?chē)惫烙?jì),自底向上地構(gòu)建顯著圖,可以很好地突出顯著區(qū)域的邊緣,并且是一種全分辨率的算法。為了得到圖像I的顯著圖S,定義顯著值為
式中:(x,y)為像素點(diǎn)坐標(biāo);Iμ為圖像像素的算術(shù)平均值; Iωhc為高斯卷積后的圖像;差值的絕對(duì)值表示顯著值,強(qiáng)調(diào)二者之間的差異程度,即顯著性。若用顏色和亮度的向量作為視覺(jué)特征,可以將式(2)擴(kuò)展改寫(xiě)為
其中:Iμ為圖像特征均值的向量;Iωhc為對(duì)應(yīng)特征的高斯卷積后的圖像;·為2范數(shù);采用Lab顏色空間,每一個(gè)像素的位置是一個(gè)[L a b ]T向量。通過(guò)對(duì)原始圖像所有像素點(diǎn)計(jì)算其顯著值,從而生成顯著圖。
為了將顯著區(qū)域分割出來(lái),還需要對(duì)顯著圖進(jìn)行二值化。比較簡(jiǎn)單的是采用閾值分割的方法,即顯著值大于一個(gè)顯著性閾值的區(qū)域?qū)儆陲@著區(qū)域。首先用Mean-shift算法對(duì)圖像進(jìn)行分割,然后選擇一個(gè)自適應(yīng)閾值作為顯著性閾值檢測(cè)顯著區(qū)域。該自適應(yīng)閾值定義為圖像顯著值均值的2倍,即滿(mǎn)足
其中:W和 H分別為顯著圖的像素寬度和高度;S(x,y)為在(x,y)位置的像素的顯著值。將顯著圖二值化后的圖像,通過(guò)匹配可以確定顯著特征是否同時(shí)出現(xiàn)在參考圖和實(shí)時(shí)圖中。當(dāng)顯著區(qū)域匹配時(shí),則表明飛行器實(shí)時(shí)采集的圖像已經(jīng)在參考圖所表示的區(qū)域內(nèi),反之則需要繼續(xù)探測(cè),更新實(shí)時(shí)圖。
該部分包含了算法的第二和第三階段。為了得到實(shí)時(shí)圖和參考圖之間的映射關(guān)系,需要對(duì)二者進(jìn)行匹配,利用圖像的不變特征匹配是常用的方法。所謂的圖像不變特征主要是指對(duì)于圖像的旋轉(zhuǎn)、平移、尺度和視角的變化等能夠保持穩(wěn)定的局部區(qū)域及其特征描述。David Lowe在總結(jié)基于不變特征檢測(cè)方法的基礎(chǔ)上,提出了一種基于尺度空間不變提取算法以及基于該特征的描述符,即尺度不變特征變換(Scale Invariant Feature Transform),簡(jiǎn)稱(chēng)SIFT算法[18],并將其進(jìn)行完善[19]。尺度不變特征具有在旋轉(zhuǎn)、縮放、平移甚至部分仿射變換條件下保持不變的特點(diǎn),SIFT算法可以較好地解決旋轉(zhuǎn)、縮放、視角變化以及場(chǎng)景部分遮擋等情況下的特征提取。
然而,SIFT算法只對(duì)仿射變換中的四個(gè)參數(shù)具有完全不變性,即平移、縮放和旋轉(zhuǎn),對(duì)剩下的兩個(gè)參數(shù)不具有完全不變性。文獻(xiàn)[20]針對(duì)這一問(wèn)題在SIFT算法的基礎(chǔ)上提出了ASIFT算法,即仿射尺度不變特征變換。該算法具有完全仿射不變性,后又不斷被改進(jìn)并拓展應(yīng)用[21]。本文將ASIFT方法應(yīng)用到飛行器的目標(biāo)定位過(guò)程中,使其對(duì)視角變化大的圖像仍然能夠進(jìn)行匹配。
數(shù)字圖像是攝像機(jī)將空間景物平面透視投影而成的,其透視投影模型可以用下式描述[20]:
如果景物與攝像機(jī)光心的距離遠(yuǎn)大于攝像機(jī)焦距時(shí),可將拍攝景物所在位置看作一個(gè)平面,故式(5)中的0u是景物平面,T表示由攝像機(jī)運(yùn)動(dòng)引起的剛性變換,A表示對(duì)景物平面的透視變換,1G表示模擬光學(xué)模糊的高斯卷積,1S表示標(biāo)準(zhǔn)的采樣操作子,u為得到的數(shù)字圖像。
如前所述,飛行器的目標(biāo)定位過(guò)程中,由于攝像機(jī)距離目標(biāo)較遠(yuǎn),此時(shí)針孔攝像機(jī)模型可以簡(jiǎn)化為一個(gè)仿射變換模型。事實(shí)上,仿射相機(jī)模型是透視投影模型在參考點(diǎn)鄰域內(nèi)的一階泰勒近似,在景物表面分段光滑的情況下,可以在局部用仿射模型來(lái)近似代替投影透視模型,也即是所有由攝像機(jī)運(yùn)動(dòng)引起的局部透視投影成像都可用仿射變換來(lái)描述,即
其中:λ>0,λt是A的行列式,R1、R2為旋轉(zhuǎn)矩陣,φ∈ [ 0 ,π); Tt表示傾斜,是一個(gè)對(duì)角陣,并且其第一個(gè)特征值為t(t > 1 ),第二個(gè)特征值為1。公式(7)滿(mǎn)足奇異值分解,其幾何解釋如圖3所示。仿射變形是由攝像機(jī)光軸的方向發(fā)生變化引起的,由兩個(gè)參數(shù)來(lái)決定:經(jīng)度角φ和緯度角θ,滿(mǎn)足 θ = a rccos1t ,ψ表示攝像機(jī)光軸的自轉(zhuǎn)角,λ表示尺度。攝像機(jī)位置發(fā)生變化時(shí),相應(yīng)的參數(shù)也發(fā)生變化,從而模擬攝像機(jī)的仿射變換。
圖3 ASIFT算法的幾何解釋Fig.3 Geometric interpretation of ASIFT
ASIFT算法是在SIFT算法的基礎(chǔ)上,通過(guò)模擬攝像機(jī)的運(yùn)動(dòng),從而實(shí)現(xiàn)完全仿射尺度不變。由于該算法采用SIFT算法生成特征描述符,既保留了SIFT算法的優(yōu)點(diǎn),又克服了受視角變換影響的缺點(diǎn),達(dá)到更好的匹配效果,因此ASIFT算法大致分為兩個(gè)階段:
1)模擬所有可能的仿射變形來(lái)實(shí)現(xiàn)圖像的變換。對(duì)緯度角θ的采樣,由傾斜度參數(shù)t來(lái)決定,圖像按照t = 1 ,a,a2,… ,an等比數(shù)列取值,通常取 a = 2,n =5。對(duì)于每一個(gè)傾斜度t,經(jīng)度角φ按照等差數(shù)列0,bt,…,kbt進(jìn)行采樣,通常取b≈72°,k是滿(mǎn)足kbt< 1 80°的最大正整數(shù)。對(duì)于數(shù)字圖像,在采樣前需要抗混疊濾波,即用標(biāo)準(zhǔn)差為 c t2- 1 的高斯核進(jìn)行卷積,SIFT算法中取 c = 0 .8,能確保很小的重疊誤差,更具體的細(xì)節(jié)可參閱文獻(xiàn)[20]。
2)對(duì)所有生成的仿射變換圖像運(yùn)用SIFT算法進(jìn)行特征點(diǎn)檢測(cè)和匹配,匹配過(guò)程中應(yīng)剔除一對(duì)多或者多對(duì)一匹配的特征點(diǎn)。
為了提高算法的實(shí)時(shí)性,特征提取的過(guò)程中采用圖像降采樣,而且對(duì)于參考圖特征點(diǎn)的提取可以離線計(jì)算,以減少算法的時(shí)間消耗。
根據(jù)極幾何理論中單應(yīng)矩陣約束思想可知,一張圖像上的任意一點(diǎn)可以映射到另一張圖像上的唯一一條直線[21]。該直線是唯一確定的,對(duì)應(yīng)點(diǎn)可以是直線上的任意一點(diǎn),但還不能唯一確定。然而,在目標(biāo)定位應(yīng)用中,往往需要從已知參考圖像中的一點(diǎn)找到實(shí)時(shí)圖像上的對(duì)應(yīng)點(diǎn),這里可以借助于兩視圖幾何中的單應(yīng)變換原理。在飛行器對(duì)地目標(biāo)尋找過(guò)程中,由于飛行器和目標(biāo)之間距離較遠(yuǎn),因此,目標(biāo)所處的位置相對(duì)于空間攝像機(jī)而言可以近似為在一個(gè)平面上,即具有相近的景物深度。此時(shí),可以利用仿射成像的約束條件,對(duì)極幾何關(guān)系進(jìn)行進(jìn)一步限制,得到相應(yīng)的映射關(guān)系。
考慮攝像機(jī)關(guān)于空間平面π的投影??臻g點(diǎn)X在攝像機(jī)P的作用下,其圖像點(diǎn)是 m = PX,以空間平面π為世界坐標(biāo)系的 O - xy平面,則平面π上點(diǎn)X的坐標(biāo)為 X =(x,y ,0,1)T,因此:
當(dāng)通過(guò)攝像機(jī)光心時(shí),平面π的投影是一條直線,這條直線是平面π與像平面的交線;當(dāng)平面π不通過(guò)攝像機(jī)光心時(shí),H是一個(gè)秩3的矩陣。因此它是從平面π到像平面二維射影變換,通常稱(chēng)矩陣H為平面π到像平面的單應(yīng)矩陣。
現(xiàn)假設(shè)π是不通過(guò)兩攝像機(jī)任一光心的空間平面,它在兩個(gè)攝像機(jī)下的圖像分別記為 I1、 I2。令X是平面π上的任一點(diǎn),它在兩個(gè)攝像機(jī)下的像分別記為 m1、 m2,則根據(jù)式(9)可知空間平面π與兩個(gè)像平面之間存在兩個(gè)單應(yīng)矩陣 H1、H2,使得 m1=H1X,m2=H2X。由于平面π不通過(guò)兩攝像機(jī)的任一光心,所以 H1、 H2實(shí)現(xiàn)平面π到對(duì)應(yīng)的像平面之間的二維射影變換。因此, m1、 m2之間也存在一個(gè)二維射影變換 H = H2H1-1,使得:
即平面在兩個(gè)攝像機(jī)下的圖像之間的關(guān)系也是二維射影變換。矩陣H實(shí)現(xiàn)第一個(gè)像平面與第二個(gè)像平面的一一變換。根據(jù)式(10)利用單應(yīng)矩陣H,從一幅圖像上的點(diǎn)可以得到另一幅圖像上的對(duì)應(yīng)點(diǎn),這正是本文所提算法的核心思想。一般情況下,實(shí)時(shí)圖和參考圖在圖像采集過(guò)程中,攝像機(jī)距離被攝景物距離較遠(yuǎn),被攝景物可以近似看作在一個(gè)平面上,所以?xún)蓤D像上對(duì)應(yīng)的點(diǎn)滿(mǎn)足式(10)。由于H是一個(gè)33×的矩陣,且有8個(gè)自由度,因此為了求解H至少需要知道4對(duì)匹配點(diǎn)對(duì)應(yīng)才可以計(jì)算出單應(yīng)矩陣,如果大于4對(duì),可以采用最小二乘法求解。
對(duì)參考圖和實(shí)時(shí)圖進(jìn)行ASIFT特征點(diǎn)檢測(cè)和匹配后,得到多對(duì)匹配的特征點(diǎn)對(duì)應(yīng),將其用齊次坐標(biāo)表示為矩陣形式,用最小二乘法求得參考圖與實(shí)時(shí)圖對(duì)應(yīng)的單應(yīng)矩陣H,這時(shí)如果已知參考圖中不顯著目標(biāo)的齊次坐標(biāo)為,利用式(10)可以得到m2=Hm1。將 m2提取一個(gè)因子η轉(zhuǎn)化為齊次坐標(biāo)即為實(shí)時(shí)圖中不顯著目標(biāo)的坐標(biāo)位置,即實(shí)現(xiàn)了對(duì)不顯著目標(biāo)的定位。
本文設(shè)計(jì)了三個(gè)實(shí)驗(yàn)來(lái)驗(yàn)證算法的有效性。
實(shí)驗(yàn)一:近距離拍攝,圖像中的目標(biāo)完全共面的情況。
如圖4所示,圖中有一張平面的海報(bào),兩圖像均為近距離拍攝的可見(jiàn)光圖像,分別模擬參考圖和實(shí)時(shí)圖。兩圖像是嚴(yán)格意義上的目標(biāo)完全共面的情況,滿(mǎn)足所提算法的條件,此時(shí),利用ASIFT對(duì)兩圖中紅框標(biāo)識(shí)的區(qū)域提取特征點(diǎn)并匹配,可以得到138對(duì)匹配點(diǎn),圖4中用藍(lán)色直線連接了部分匹配點(diǎn)對(duì)。根據(jù)這些匹配點(diǎn)對(duì)應(yīng)的坐標(biāo),求解得到單應(yīng)矩陣H。
對(duì)于參考圖中海報(bào)上的任一點(diǎn),就可根據(jù)式(10)求得實(shí)時(shí)圖中海報(bào)上的對(duì)應(yīng)點(diǎn),結(jié)果如圖5所示。
圖4 實(shí)驗(yàn)一的顯著區(qū)域ASIFT匹配Fig.4 ASIFT matching of salient regions in Experiment 1
圖5 實(shí)驗(yàn)一的不顯著目標(biāo)定位Fig.5 Insignificant targets location in Experiment 1
實(shí)驗(yàn)一中由于海報(bào)上的點(diǎn)都是在一個(gè)平面內(nèi),因此可以準(zhǔn)確求得兩幅圖像中的對(duì)應(yīng)點(diǎn)。
實(shí)驗(yàn)二:遠(yuǎn)距離拍攝,圖像中的目標(biāo)近似共面的情況。
參考圖和實(shí)時(shí)圖均為飛行器遠(yuǎn)距離拍攝的紅外圖像。首先進(jìn)行對(duì)圖像進(jìn)行顯著區(qū)域檢測(cè),得到結(jié)果如圖6(a)所示,左圖為參考圖的二值化顯著圖,右圖為實(shí)時(shí)圖的二值化顯著圖。通過(guò)兩顯著圖的匹配,可以表明飛行器實(shí)時(shí)拍攝的區(qū)域就在參考圖表示的區(qū)域范圍。實(shí)驗(yàn)二圖像中的場(chǎng)景并非嚴(yán)格意義上的共面,但是由于拍攝距離遠(yuǎn)大于攝像機(jī)焦距,可以近似看作是共面,從而滿(mǎn)足算法的條件。然后利用ASIFT算法對(duì)顯著區(qū)域提取特征點(diǎn)并匹配,可以得到99對(duì)匹配點(diǎn),并用藍(lán)色線條連接對(duì)應(yīng)匹配點(diǎn),如圖6(b)所示,并解算得到單應(yīng)矩陣H。對(duì)參考圖中的不顯著目標(biāo),可根據(jù)式(10)求得實(shí)時(shí)圖中不顯著目標(biāo)的對(duì)應(yīng)點(diǎn),結(jié)果如圖6(c)所示。
實(shí)驗(yàn)二的結(jié)果實(shí)現(xiàn)了對(duì)不顯著目標(biāo)的定位,驗(yàn)證了算法的有效性,但從結(jié)果看,存在一定的定位偏差,這是由于其單應(yīng)矩陣的計(jì)算是根據(jù)顯著區(qū)域計(jì)算的,而不顯著目標(biāo)和顯著區(qū)域并不嚴(yán)格在同一平面,只是近似看作在一個(gè)平面,因此存在定位偏差。
圖6 實(shí)驗(yàn)二結(jié)果Fig.6 Results of Experiment 2
實(shí)驗(yàn)三:遠(yuǎn)距離拍攝,實(shí)時(shí)圖存在仿射畸變的情況。參考圖與實(shí)驗(yàn)二是同一幅圖,而實(shí)時(shí)圖是在實(shí)驗(yàn)二的實(shí)時(shí)圖的基礎(chǔ)上平移、縮放和旋轉(zhuǎn)后得到,即兩實(shí)時(shí)圖之間產(chǎn)生了仿射畸變。實(shí)驗(yàn)的方法步驟同實(shí)驗(yàn)二,實(shí)驗(yàn)結(jié)果如圖7所示,從實(shí)驗(yàn)結(jié)果可以看出,即使圖像存在仿射畸變的情況,算法依然能夠?qū)崿F(xiàn)對(duì)不顯著目標(biāo)的定位,表明算法具有仿射不變性。
圖7 實(shí)驗(yàn)三結(jié)果Fig.7 Results of Experiment 3
在飛行器尋的過(guò)程中,由于機(jī)載攝像機(jī)距離拍攝對(duì)象較遠(yuǎn),得到的圖像中的景物具有相近的景深,可以用一個(gè)三維的仿射變換來(lái)描述圖像之間的變換關(guān)系。本文基于這一原理,提出一種對(duì)不顯著目標(biāo)的間接定位方法,該方法可以應(yīng)用于目標(biāo)被遮擋、受到復(fù)雜背景干擾或目標(biāo)相似度較高等情況下,經(jīng)實(shí)驗(yàn)驗(yàn)證表明:
1)當(dāng)圖像中景物具有相同或相近景深時(shí),仿射不變性成立,可以求得變換矩陣H。
2)近距離拍攝且目標(biāo)完全共面的情況下,利用本文的方法可實(shí)現(xiàn)對(duì)不顯著目標(biāo)的準(zhǔn)確定位。
3)遠(yuǎn)距離拍攝時(shí),在目標(biāo)近似共面情況下仍然可以利用本文的算法實(shí)現(xiàn)對(duì)不顯著目標(biāo)的定位,但會(huì)存在一定的定位偏差。不顯著目標(biāo)與顯著區(qū)域的景深越接近,定位偏差越小,反之則會(huì)越大。
4)當(dāng)飛行器實(shí)時(shí)拍攝的圖像存在仿射畸變時(shí),利用本文算法仍然可以實(shí)現(xiàn)對(duì)不顯著目標(biāo)的定位。
(
):
[1] 蘇娟, 徐青松, 劉剛. 一種基于邊緣匹配的前視紅外目標(biāo)識(shí)別算法[J]. 兵工學(xué)報(bào), 2012, 33(3): 271-277.Su J, Xu Q S, Liu G. A forward looking infrared target recognition algorithm based on edge matching[J]. Acta Armamentarii, 2012, 33(3): 271-277.
[2] 明德烈, 田金文. 紅外前視對(duì)一類(lèi)特殊建筑目標(biāo)識(shí)別技術(shù)研究[J]. 宇航學(xué)報(bào), 2010, 31(4): 1190-1194.Ming D L, Tian J W. Automatic infrared condensing tower target recognition using gradient vector features[J].Journal of Astronautics, 2010, 31(4): 1190-1194.
[3] 高晶, 孫繼銀, 吳昆, 等. 基于形狀模板匹配的前視紅外目標(biāo)檢測(cè)方法[J]. 北京工業(yè)大學(xué)學(xué)報(bào), 2012, 38(9):1359-1365.Gao J, Sun J Y, Wu K, et al. FLIR target detection algorithm based on shape template matching[J]. Journal of Beijing University of Technology, 2012, 38(9): 1359-1365.[4] Wang D W, Zhang T X. Building recognition based on indirect location of planar landmark in FLIR image sequences[J]. International Journal of Pattern Recognition and Artificial Intelligence, 2011, 25(3): 431-448.
[5] 趙愛(ài)罡, 王宏力, 楊小岡, 等. 基于極端學(xué)習(xí)機(jī)背景預(yù)測(cè)的紅外小目標(biāo)檢測(cè)算法[J]. 中國(guó)慣性技術(shù)學(xué)報(bào),2016, 24(1): 36-44.Zhao A G, Wang H L, Yang X G, et al. Infrared smalltarget detection algorithm based on background prediction by extreme learning machine[J]. Journal of Chinese Inertial Technology, 2016, 24(1): 36-44.
[6] Zhang L, Li J H, Lu H C. Saliency detection via extreme learning machine[J]. Neurocomputing, 2016, 218: 103-112.[7] You J, Zhang L H, Qi J Q, et al. Salient object detection via point-to-set metric learning[J]. Pattern Recognition Letters, 2016, 84: 85-90.
[8] Chen Z H, Liu Y, Sheng B, et al. Image saliency using Gabor texture cues[J]. Multimedia Tools and Applications,2016, 75(24): 16943-16958.
[9] Xu F, Liu J H. Ship detection and extraction using visual saliency and histogram of oriented gradient[J]. Optoelectronics Letters, 2016, 12(6): 473-477.
[10] Ramadan H, Tairi H. Robust segmentation of moving objects in video based on spatiotemporal visual saliency and active contour model[J]. Journal of Electronic Imaging, 2016, 25(6): 061612(1-10).
[11] Bai X Z, Wang P, Zhou F G. Pedestrian segmentation in infrared images based on circular shortest path[J]. IEEE Transactions on Intelligent Transportation Systems, 2016,17(8): 2214-2222.
[12] Kulshreshtha A, Deshpande A V, Meher S K. Time-frequency-tuned salient region detection and segmentation[C]//IEEE International Advance Computing Conference.Ghaziabad, 2013: 1080-1085.
[13] Achanta R, Hemami S, Estrada F, Susstrunk S. Frequency-tuned salient region detection[C]//IEEE Conference on Computer Vision and Pattern Recognition.Miami, 2009: 1597-1604.
[14] 馬巖. 基于視覺(jué)注意機(jī)制的紅外圖像識(shí)別與定位[D],沈陽(yáng): 沈陽(yáng)理工大學(xué), 2013.Ma Y. Research on infrared image detection and location based on visual attention[D]. Shenyang: Shenyang Polytechnic University, 2013.
[15] 黎萬(wàn)義, 王鵬, 喬紅. 引入視覺(jué)注意機(jī)制的目標(biāo)跟蹤方法綜述[J]. 自動(dòng)化學(xué)報(bào), 2014, 40(4): 561-576.Li W Y, Wang P, Qiao H. A survey of visual attention based methods for object tracking[J]. Acta Automatica Sinica, 2014, 40(4): 561-576.
[16] 張巧榮, 張慧娟. 基于視覺(jué)注意機(jī)制的目標(biāo)跟蹤方法[J]. 計(jì)算機(jī)工程與科學(xué), 2014, 36(8): 1549-1554.Zhang Q R, Zhang H J. Object tracking based on visual attention[J]. Computer Engineering & Science, 2014,36(8): 1549-1554.
[17] Wei W, Liu X H, Zhou B B, et al. Sea surface target detection and recognition algorithm based on local and global salient region detection[C]//Applications of Digital Image Processing. San Diego, 2016: 99712U(1-8).
[18] Lowe D G. Object recognition from local scale-invariant features[C]//International Conference on Computer Vision.1999: 1150-1157.
[19] Lowe D G. Distinctive image features from scaleinvariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.
[20] Morel J M, Yu G S. ASIFT: a new framework for fully affine invariant image comparison[J]. SIAM Journal on Imaging Sciences, 2009, 2(2): 438-469.
[21] Fu H, Xie D H, Zhong R F, et al. An improved ASIFT algorithm for indoor panorama image matching[C]//9th International Conference on Digital Image Processing.Hong Kong: SPIE 2017: 104201C(1-18).
中國(guó)慣性技術(shù)學(xué)報(bào)2017年6期