耿娟, 何成龍, 劉憲鑫
(1.西南交通大學(xué)軌道交通工程遙感聯(lián)合研究中心,成都 610031;
2.西南交通大學(xué)地球與工程學(xué)院,成都 610031)
?
基于CSIFT特性的無(wú)人機(jī)影像匹配
耿娟1, 何成龍2, 劉憲鑫2
(1.西南交通大學(xué)軌道交通工程遙感聯(lián)合研究中心,成都610031;
2.西南交通大學(xué)地球與工程學(xué)院,成都610031)
摘要:隨著無(wú)人機(jī)(unmanned aerial vehicle,UAV)平臺(tái)技術(shù)的發(fā)展,越來(lái)越多的應(yīng)用行業(yè)和研究領(lǐng)域開始使用UAV影像數(shù)據(jù)。不同于現(xiàn)有的攝影測(cè)量結(jié)合像控點(diǎn)的UAV影像匹配方法,提出一種新的UAV影像匹配方法。該方法采用彩色尺度不變特征轉(zhuǎn)換(color scale-invariant feature transform,CSIFT)算法,利用彩色信息的空間不變特性提取基準(zhǔn)影像與待匹配影像的特征匹配點(diǎn)對(duì); 并采用單應(yīng)性矩陣與隨機(jī)抽樣一致性(random sample consensus,RANSAC)算法對(duì)匹配結(jié)果進(jìn)行提純,得到最終匹配結(jié)果。仿真實(shí)驗(yàn)表明,該方法可在保證實(shí)驗(yàn)過(guò)程魯棒性的同時(shí),與傳統(tǒng)的尺度不變特征轉(zhuǎn)換(color scale-invariant feature transform,SIFT)方法相比,將匹配準(zhǔn)確率從70%提高到了88%,而且大大減少了特征點(diǎn)對(duì)的數(shù)量,縮短了處理時(shí)間,提高了UAV影像匹配效率。
關(guān)鍵詞:無(wú)人機(jī)影像; CSIFT特征; 特征匹配點(diǎn); 單應(yīng)性矩陣; 隨機(jī)抽樣一致性(RANSAC)
0引言
隨著科技發(fā)展的不斷推進(jìn),遙感技術(shù)正越來(lái)越多地深入各行各業(yè),并得到充分的應(yīng)用。同時(shí),遙感技術(shù)自身也在逐步發(fā)展,其中尤以無(wú)人機(jī)(unmanned aerial vehicle,UAV)技術(shù)比較突出。因其快速、便捷與費(fèi)用低等優(yōu)點(diǎn),越來(lái)越多的生產(chǎn)應(yīng)用單位愿意選擇UAV作為遙感影像數(shù)據(jù)的獲取方式。但是,不同于傳統(tǒng)大飛機(jī)平臺(tái)的穩(wěn)定與衛(wèi)星影像較強(qiáng)的剛性特征,UAV平臺(tái)受自身配重輕、抗風(fēng)能力弱的影響,獲取數(shù)據(jù)時(shí)存在一系列不穩(wěn)定因素,使獲取的影像數(shù)據(jù)容易產(chǎn)生復(fù)雜的幾何變形; 另一方面,由于UAV影像尺寸較小,在需要覆蓋大范圍區(qū)域的影像時(shí),就會(huì)涉及到多景UAV影像的匹配和拼接問(wèn)題。UAV影像的匹配與拼接一般可分為4個(gè)步驟: 影像預(yù)處理、影像配準(zhǔn)、影像坐標(biāo)系映射和影像融合。目前,較多的研究集中在影像配準(zhǔn)方面。影像配準(zhǔn)的核心工作是找出相鄰2景影像中的重疊區(qū)域,并確定這2景影像的變換關(guān)系?,F(xiàn)有對(duì)UAV影像匹配和拼接的研究比較多,主要分為2類: ①利用傳統(tǒng)攝影測(cè)量技術(shù),通過(guò)最終的正射影像圖進(jìn)行匹配和拼接。雖然結(jié)合地面控制點(diǎn)、利用嚴(yán)格的攝影測(cè)量方法有非常成熟的工作流程,但這種方法按攝影測(cè)量原理,需要高精度的控制點(diǎn)坐標(biāo)和穩(wěn)定的UAV飛行姿態(tài)參數(shù),其處理結(jié)果雖然精度高,但費(fèi)時(shí)費(fèi)力,無(wú)法體現(xiàn)UAV快速獲取數(shù)據(jù)的優(yōu)點(diǎn)。②在無(wú)控制點(diǎn)的前提下,針對(duì)影像本身特征進(jìn)行匹配和拼接?;谟跋裉卣鞯姆椒ㄖ饕糜跋竦娘@著特征(如特征角點(diǎn)或關(guān)鍵點(diǎn)、輪廓信息和其他一些不變矩)估計(jì)2景或多景影像之間的變換關(guān)系。這種方法的關(guān)鍵技術(shù)在于提取影像的特征點(diǎn)或特征輪廓[1],主要包括基于頻率域和空間域的配準(zhǔn)與加權(quán)融合[2-3]。其中,基于頻率域的影像配準(zhǔn)算法(如Fourier-Mellin算法)可以很好地解決UAV影像的平移、旋轉(zhuǎn)和縮放問(wèn)題,但對(duì)影像的尺度和重合度要求較高[4]; 基于空間域的配準(zhǔn)算法(如尺度不變特征轉(zhuǎn)換(scale-invariant feature transform,SIFT)算法)拼接后的結(jié)果影像質(zhì)量很高,但在搜索特征點(diǎn)時(shí)采用固定尺寸核,處理時(shí)間長(zhǎng)且效率不高[5]。而結(jié)合Harris 算子和區(qū)域相關(guān)系數(shù)(local area correlation coefficient,LACC)、利用金字塔多層匹配的多約束條件配準(zhǔn)算法,則復(fù)雜度高且效率低[6]。因此,鑒于SIFT算法效率不高,且需要提前將現(xiàn)有的UAV彩色影像轉(zhuǎn)為灰度影像進(jìn)行匹配拼接處理的問(wèn)題,本文擬采用彩色尺度不變特征轉(zhuǎn)換(color scale-invariant feature transform,CSIFT)算法,在保證影像顏色信息不變的前提下提取基準(zhǔn)影像與待匹配影像的特征匹配點(diǎn)對(duì),并采用單應(yīng)性矩陣與隨機(jī)抽樣一致性(random sample consensus,RANSAC)算法對(duì)匹配結(jié)果進(jìn)行提純。研究中進(jìn)行的仿真實(shí)驗(yàn)證明,與傳統(tǒng)的SIFT算法相比,本文方法可實(shí)現(xiàn)更高精度、更高效率的UAV影像匹配。
1UAV影像匹配
本文首先基于彩色信息空間不變特性的CSIFT方法和在重疊區(qū)域通過(guò)對(duì)特征點(diǎn)的約束實(shí)現(xiàn)對(duì)UAV影像匹配點(diǎn)對(duì)的提取,以解決傳統(tǒng)的SIFT算子運(yùn)算時(shí)間長(zhǎng)且需將彩色UAV影像灰度化的問(wèn)題; 然后利用單應(yīng)性矩陣與RANSAC算法對(duì)匹配點(diǎn)對(duì)進(jìn)行粗差剔除與提純; 最后利用最終的匹配點(diǎn)對(duì)計(jì)算基準(zhǔn)影像與待匹配影像之間的坐標(biāo)映射參數(shù),實(shí)現(xiàn)UAV影像的匹配(圖1)。
圖1 UAV影像匹配技術(shù)流程
2SIFT特征匹配
SIFT是一種基于尺度空間特性,對(duì)圖像縮放、旋轉(zhuǎn)以及仿射變換保持不變性的圖像局部特征描述算子。其核心的尺度空間函數(shù)為高斯函數(shù)與影像函數(shù)的卷積,即
L(x,y,σ)=G(x,y,σ)*I(x,y) ,
(1)
(2)
式中: (x,y)為影像的像素位置;σ為尺度空間因子;G(x,y,σ)為高斯函數(shù);I(x,y)為影像函數(shù);L(x,y,σ)為尺度空間函數(shù); * 為卷積運(yùn)算符。
SIFT算子的匹配操作流程如圖2所示。
圖2 SIFT算子匹配操作流程
首先獲取圖像的尺度空間,在該空間進(jìn)行極值檢測(cè),初步確定特征點(diǎn)的位置與尺度; 然后利用特征點(diǎn)鄰域像素的梯度大小與方向確定該特征點(diǎn)的方向; 由上一步中得到的特征點(diǎn)鄰域像素的梯度信息計(jì)算128維的特征向量; 完成特征向量計(jì)算后進(jìn)行匹配,逐一比較各個(gè)特征點(diǎn)的特征向量,如果滿足一定的條件,則確認(rèn)完成一個(gè)點(diǎn)對(duì)的匹配。
3CSIFT影像配準(zhǔn)
本文采用CSIFT配準(zhǔn)算法提取基準(zhǔn)影像與待配準(zhǔn)影像的匹配點(diǎn)。通過(guò)研究發(fā)現(xiàn),SIFT算子具有尺度、旋轉(zhuǎn)、仿射、視角和光照的不變性,對(duì)目標(biāo)的運(yùn)動(dòng)、遮擋、噪聲等因素也有較好的匹配性,可用于提取穩(wěn)定的多個(gè)匹配點(diǎn)對(duì)。但在實(shí)際運(yùn)算時(shí),SIFT算子需要處理大量的數(shù)據(jù),無(wú)法實(shí)現(xiàn)UAV影像的實(shí)時(shí)快速匹配與拼接[7]; 而且在應(yīng)用SIFT算法時(shí)需要先將彩色影像轉(zhuǎn)換為灰度影像,不利于對(duì)UAV影像的直接處理; 所以,本文采用CSIFT算法提取特征點(diǎn)[8]。通過(guò)實(shí)驗(yàn)還發(fā)現(xiàn),SIFT算子因計(jì)算量很大,容易產(chǎn)生錯(cuò)誤匹配點(diǎn)對(duì); 若結(jié)合重疊區(qū)域范圍分別對(duì)提取出的特征點(diǎn)進(jìn)行約束,則可剔除部分一定不會(huì)匹配成功的特征點(diǎn),不僅能為下一步的匹配工作減少計(jì)算時(shí)間,而且能提高計(jì)算結(jié)果的準(zhǔn)確率。因此,本文采用結(jié)合CSIFT算子與重疊區(qū)域范圍約束的方法來(lái)提取匹配點(diǎn)對(duì)。
3.1匹配點(diǎn)對(duì)提取
3.1.1顏色不變量計(jì)算
物體的光譜輻射模型為
E(λ,x)=i(λ,x)R∞(λ,x) ,
(3)
式中:λ為波長(zhǎng); x為二維矢量,表示觀測(cè)位置;i(λ,x)為在各波長(zhǎng)上保持不變而隨位置變化的光譜強(qiáng)度;R∞(λ,x)為材料反射率。
顏色不變量C表示物體的反射特性,與視點(diǎn)、表面方位、光照方向和光照強(qiáng)度無(wú)關(guān),即
(4)
式中: Eλ為E(λ,x)相對(duì)于λ的一階偏導(dǎo)數(shù);Eλλ為E(λ,x)相對(duì)于λ的二階偏導(dǎo)數(shù)。
采用高斯顏色模型作為表示光譜信息和局部影像結(jié)構(gòu)的一般模型,用于計(jì)算RGB彩色空間的不變量。計(jì)算光譜分量時(shí),可近似于人類視覺(jué)系統(tǒng)的CIE1964XYZ,通過(guò)RGB→XYZ和XYZ→高斯顏色模型的2次線性變換,得到用RGB表示的高斯顏色模型[9],即
(5)
3.1.2關(guān)鍵特征點(diǎn)提取
Lowe等于[10-11]1999年提出SIFT配準(zhǔn)算法,并在 2004年進(jìn)行了完善和總結(jié)。CSIFT算法在SIFT算法的基礎(chǔ)上,利用顏色不變量代替原來(lái)的影像信息[8]; 其主要任務(wù)是進(jìn)行尺度空間極值點(diǎn)檢測(cè),初步確定關(guān)鍵特征點(diǎn)的位置和所在尺度。1景影像的尺度空間可被定義為L(zhǎng)(x,y,σ)函數(shù),為尺度變化的高斯函數(shù)G(x,y,σ)與影像顏色不變量C(x,y)的卷積,即
L(x,y,σ)=G(x,y,σ)*C(x,y) ,
(6)
(7)
式中: (x,y)為影像的像素位置;σ為尺度空間因子; *為卷積運(yùn)算符。
在影像平面空間和高斯差分(difference-of-Gaussian,DOG)尺度空間中檢測(cè)局部極值點(diǎn)作為關(guān)鍵特征點(diǎn)。DOG算子定義為2個(gè)相鄰尺度的高斯核的差分D(x,y,σ),即
D(x,y,σ)=[G(x,y,kσ)-G(x,y,σ)]*C(x,y)=L(x,y,kσ)-L(x,y,σ) ,
(8)
式中:k為差分運(yùn)算中的固定系數(shù);C(x,y)為影像顏色不變量函數(shù)。
當(dāng)某點(diǎn)在DOG尺度空間本層及其上下2層中是最大值或最小值時(shí),就認(rèn)為該點(diǎn)為影像在該尺度下的一個(gè)關(guān)鍵特征點(diǎn)。從式(1)(2)(6)和(7)可以看出,CSIFT算法利用影像顏色不變量函數(shù)C(x,y)代替了SIFT算法中的影像函數(shù)I(x,y)。因此,DOG算子(式(8))中用C(x,y)代替了I(x,y)。
3.1.3關(guān)鍵特征點(diǎn)約束
利用CSIFT提取關(guān)鍵特征點(diǎn)是針對(duì)整景影像來(lái)實(shí)現(xiàn)的。從UAV影像匹配的角度考慮,其中有很多是勢(shì)必?zé)o法匹配成功的關(guān)鍵點(diǎn)。因此,在匹配之前要對(duì)這些關(guān)鍵點(diǎn)進(jìn)行正確率約束,以便節(jié)省匹配處理的時(shí)間,提高匹配結(jié)果的準(zhǔn)確率。CSIFT算法是基于SIFT算法改進(jìn)的,而SIFT算法在運(yùn)算過(guò)程中記錄了全部關(guān)鍵點(diǎn)坐標(biāo),故本文采用基于UAV的POS數(shù)據(jù)確定影像重疊區(qū)域的約束方法進(jìn)行關(guān)鍵特征點(diǎn)約束。
假設(shè)POS數(shù)據(jù)中基準(zhǔn)影像的中心地理平面坐標(biāo)為(x01,y01),待匹配影像的坐標(biāo)為(x02,y02),結(jié)合飛行航高h(yuǎn)與鏡頭焦距f可以計(jì)算出2景影像中心的坐標(biāo)偏移量,即
Sx=(x02-x01)f/h, Sy=(y02-y01)f/h 。
(9)
因?yàn)?景影像的像素大小a×b與影像尺寸p保持一致,設(shè)基準(zhǔn)影像的中心點(diǎn)為坐標(biāo)原點(diǎn),X方向?yàn)轱w行方向,Y方向?yàn)榇怪憋w行的方向,按照4個(gè)象限依次排列,沿著UAV飛行方向,基準(zhǔn)影像中重疊區(qū)域的4個(gè)角點(diǎn)的像素坐標(biāo)為
待匹配影像中重疊區(qū)域的4個(gè)角點(diǎn)的像素坐標(biāo)為
3.1.4關(guān)鍵特征點(diǎn)匹配
提取出關(guān)鍵特征點(diǎn)后,要計(jì)算各關(guān)鍵點(diǎn)的梯度向量并進(jìn)行匹配。
1)精確確定關(guān)鍵點(diǎn)梯度方向分布特征,為每個(gè)關(guān)鍵點(diǎn)指定方向參數(shù),使算子具備旋轉(zhuǎn)不變性。關(guān)鍵點(diǎn)(x,y)處的梯度模值m(x,y)和方向θ(x,y)為
(10)
θ(x,y)=arctan{[L(x, y+1)-L(x, y-1)]/[L(x+1, y)-L(x-1, y)]} 。
(11)
2)生成關(guān)鍵點(diǎn)的特征向量。將坐標(biāo)軸旋轉(zhuǎn)為關(guān)鍵點(diǎn)的方向,保證旋轉(zhuǎn)不變性; 然后以關(guān)鍵點(diǎn)為中心取8×8的窗口, 利用式(10)和(11)計(jì)算每個(gè)4像素×4像素小塊影像中8個(gè)方向的梯度方向直方圖,用每個(gè)梯度方向的累加值形成一個(gè)種子點(diǎn)。為了增強(qiáng)匹配的穩(wěn)健性,對(duì)每個(gè)關(guān)鍵點(diǎn)使用4像素×4像素共16個(gè)種子點(diǎn)來(lái)描述,這樣對(duì)于一個(gè)關(guān)鍵點(diǎn)就可以產(chǎn)生128個(gè)數(shù)據(jù)(即128維的CSIFT特征向量)。
3)生成2景影像關(guān)鍵點(diǎn)的特征向量后,進(jìn)行關(guān)鍵特征點(diǎn)匹配。采用特征向量的歐式距離作為2景影像中關(guān)鍵點(diǎn)的相似性判定準(zhǔn)則,當(dāng)此距離小于某閾值時(shí)則認(rèn)定得到滿足準(zhǔn)則的匹配點(diǎn)對(duì)。
3.2匹配點(diǎn)對(duì)穩(wěn)健估計(jì)
3.2.1誤差點(diǎn)對(duì)剔除
(12)
(13)
利用式(12)和(13),帶入10對(duì)以上的匹配點(diǎn)坐標(biāo),采取最小二乘原理方法求解; 設(shè)定閾值,剔除不滿足提取點(diǎn)誤差高斯分布規(guī)則的匹配點(diǎn)。評(píng)價(jià)精度的指標(biāo)Sn為H的平均幾何匹配誤差,即
(14)
式中D為匹配點(diǎn)對(duì)之間的像素距離。
3.2.2匹配點(diǎn)對(duì)提純
利用RANSAC檢驗(yàn)算法對(duì)經(jīng)過(guò)初步剔除誤差的匹配點(diǎn)對(duì)進(jìn)行提純。其基本思想是進(jìn)行參數(shù)估計(jì)時(shí),首先針對(duì)具體問(wèn)題設(shè)計(jì)出一個(gè)目標(biāo)函數(shù); 然后迭代估計(jì)該函數(shù)的參考值,利用這些初始值把全部數(shù)據(jù)分為內(nèi)點(diǎn)(滿足估計(jì)參數(shù)的點(diǎn))和外點(diǎn)(不滿足估計(jì)參數(shù)的點(diǎn))2部分; 最后反過(guò)來(lái)用內(nèi)點(diǎn)重新計(jì)算和估計(jì)該函數(shù)的參數(shù)[13]。上述方法可以最大限度地減少噪聲與外點(diǎn)的影響,進(jìn)一步得到精確的匹配點(diǎn)。
1)計(jì)算n對(duì)匹配點(diǎn)對(duì)的RMSE,即
(15)
(16)
2)以1個(gè)像素尺寸的大小為閾值,若RMSE大于閾值,則刪除(△xi,△yi)最大的匹配點(diǎn)對(duì); 然后反復(fù)迭代直至RMSE小于閾值,最終獲得m對(duì)特征匹配點(diǎn)。
4坐標(biāo)系統(tǒng)映射變換
目前常用的空間變換模型主要有平移變換、剛性變換、仿射變換以及投影變換等[14]。用矩陣的形式描述上述關(guān)系模型(8參數(shù)模型)[15]為
(17)
式中:m2為水平方向位移;m5為垂直方向位移;m0,m1,m3和m4分別表示尺度和旋轉(zhuǎn)量;m6與m7分別表示水平與垂直方向的變形量; (x′,y′)為變換后的點(diǎn)位坐標(biāo); (x,y)為變換前的點(diǎn)位坐標(biāo); M為8參數(shù)模型矩陣。
根據(jù)各參數(shù)的意義及不同變換模型的特點(diǎn)對(duì)矩陣M作相應(yīng)簡(jiǎn)化,即可得到各變換模型的參數(shù)矩陣。本文針對(duì)UAV影像,設(shè)定UAV平臺(tái)獲取影像數(shù)據(jù)時(shí)沒(méi)有明顯的航高變化(即只考慮待匹配影像的平移和旋轉(zhuǎn)),則有
(18)
式中: (△x,△y)為平移參數(shù);θ為旋轉(zhuǎn)角。采用最小二乘方法求得參數(shù)
(ATA)Θ=ATB ,
(19)
其中
(20)
5實(shí)驗(yàn)結(jié)果與分析
5.1實(shí)驗(yàn)數(shù)據(jù)
本次實(shí)驗(yàn)采用拍攝于四川省什邡市的UAV影像(圖3)及其POS數(shù)據(jù)(表1)。
圖3 什邡市UAV影像
參數(shù)基準(zhǔn)影像待匹配影像緯度/(°)31.112831.1139經(jīng)度/(°)104.2024104.2014高度/m1555.701554.80滾動(dòng)/(°)0.08-0.14俯仰/(°)0.070.03偏航/(°)320.05319.82
影像采集相機(jī)為Canon EOS 5D Mark II; 飛行高度1 636 m,飛行覆蓋范圍25 km2; 影像大小為5 616像素×3 744像素,影像的地面分辨率達(dá)到cm級(jí)。此次仿真實(shí)驗(yàn)基于Matlab語(yǔ)言實(shí)現(xiàn)。
5.2實(shí)驗(yàn)過(guò)程與結(jié)果分析
對(duì)經(jīng)過(guò)預(yù)處理的實(shí)驗(yàn)數(shù)據(jù),利用式(1)—(8),分別采用CSIFT和SIFT算子處理,得到2種情況下基準(zhǔn)影像與待匹配影像的關(guān)鍵特征點(diǎn)(圖4和圖5)。
(a) 基準(zhǔn)影像 (b) 待匹配影像
圖4關(guān)鍵特征點(diǎn)CSIFT提取結(jié)果
Fig.4Result of CSIFT key points extracted by CSIFT
(a) 基準(zhǔn)影像 (b) 待匹配影像
圖5關(guān)鍵特征點(diǎn)SIFT提取結(jié)果
Fig.5Result of key points extracted by SIFT
從圖4和圖5可以看出,用CSIFT算法計(jì)算出的2景影像的關(guān)鍵特征點(diǎn)分布密度比用SIFT算法計(jì)算出的關(guān)鍵特征點(diǎn)密度高。
根據(jù)式(9)分別計(jì)算出基準(zhǔn)影像中重疊區(qū)域的4個(gè)角點(diǎn)的像素坐標(biāo): (1 683,2 246),(-926,2 246),(-926,-2 246)和(1 683,-2 246)以及待匹配影像中重疊區(qū)域的4個(gè)角點(diǎn)的像素坐標(biāo): (926,2 246),(-1 683,2 246),(1 683,-2 246)和(926,-2 246),通過(guò)約束得到關(guān)鍵點(diǎn)提取結(jié)果(圖6)。
(a) 基準(zhǔn)影像 (b) 待匹配影像
圖6CSIFT提取關(guān)鍵點(diǎn)重疊區(qū)約束后結(jié)果
Fig.6Restrained result of key points extracted by
CSIFT in overlay area
從圖6可以看出,經(jīng)過(guò)重疊區(qū)范圍的約束后,關(guān)鍵點(diǎn)數(shù)量有所減少。經(jīng)過(guò)計(jì)算,基準(zhǔn)影像的關(guān)鍵點(diǎn)個(gè)數(shù)減少為715,待匹配影像的關(guān)鍵點(diǎn)個(gè)數(shù)減少為907。
然后利用式(10)和(11)進(jìn)一步計(jì)算2景影像中各點(diǎn)的梯度向量并進(jìn)行匹配。利用式(12)—(16)進(jìn)行匹配點(diǎn)對(duì)的穩(wěn)健估計(jì)計(jì)算后,最終關(guān)鍵點(diǎn)匹配結(jié)果為191對(duì)(圖7)。
圖7 CSIFT算子關(guān)鍵點(diǎn)匹配結(jié)果
通過(guò)匹配點(diǎn)對(duì)按式(17)—(20)進(jìn)行計(jì)算,確定基準(zhǔn)影像與待匹配影像之間的映射關(guān)系,最終得到匹配融合影像(圖8)。
圖8 CSIFT算法影像匹配結(jié)果
與圖8相比,在經(jīng)過(guò)特征點(diǎn)提取與匹配后, SIFT算法在大量的特征點(diǎn)基礎(chǔ)上生成了大量的匹配點(diǎn)對(duì),同時(shí)也存在著大量的誤匹配點(diǎn)對(duì)(圖9)。
圖9 SIFT算子關(guān)鍵點(diǎn)匹配結(jié)果
然后直接進(jìn)行誤差點(diǎn)對(duì)剔除,并融合生成結(jié)果影像(圖10)。
圖10 SIFT算法影像匹配結(jié)果
采用SIFT與CSIFT算法,針對(duì)2景相同的UAV影像進(jìn)行對(duì)比,詳細(xì)內(nèi)容如表2所示。
表2 SIFT 與 CSIFT算法比較
上述的2景影像匹配拼接的實(shí)驗(yàn)證明,本文提出的CSIFT方法比傳統(tǒng)的SIFT方法在精度提高的基礎(chǔ)上,運(yùn)算效率也大大提高。圖11示出采用CSIFT方法拼接的8景UAV影像的匹配和拼接結(jié)果,整個(gè)處理過(guò)程耗時(shí)202 s。從圖11可以看出,CSIFT方法在進(jìn)行多景無(wú)人機(jī)影像拼接時(shí)的結(jié)果很好(比如道路和規(guī)則形狀地物的拼接處看不出拼接縫)。可見(jiàn)采用本文提出的方法可以大大提高UAV影像的匹配準(zhǔn)確率并減少匹配過(guò)程耗用時(shí)間。
圖11 CSIFT方法多景影像匹配拼接結(jié)果
6結(jié)論
本文利用CSIFT算法對(duì)無(wú)人機(jī)(UAV)影像的基準(zhǔn)影像與待匹配影像分別進(jìn)行特征點(diǎn)的提取來(lái)完成影像的配準(zhǔn)鑲嵌,并且通過(guò)仿真實(shí)驗(yàn)證明了方法的有效性,保證了結(jié)果的魯棒性。得出如下結(jié)論:
1)本文方法的前提是UAV影像空間位置具有相對(duì)良好的空間姿態(tài),以便在特征點(diǎn)匹配前對(duì)提取結(jié)果進(jìn)行區(qū)域約束,快速選定重疊工作區(qū)域。
2)誤差點(diǎn)剔除準(zhǔn)則的選擇會(huì)引起運(yùn)算量增加,在一定程度上影響程序的運(yùn)行效率,特別是在閾值的選擇中,需要結(jié)合實(shí)時(shí)的影像質(zhì)量選定初值。
3)本文的處理過(guò)程僅針對(duì)數(shù)字圖像,結(jié)合相應(yīng)的算法改進(jìn),為UAV影像的快速拼接提供了一種思路,但并未考慮實(shí)際地形對(duì)UAV影像的影響(特別是在實(shí)現(xiàn)正射成圖方面)。
參考文獻(xiàn)(References):
[1]張永軍.無(wú)人駕駛飛艇低空遙感影像的幾何處理[J].武漢大學(xué)學(xué)報(bào):信息科學(xué)版,2009,34(3):284-288.
Zhang Y J.Geometric processing of low altitude remote sensing images captured by unmanned airship[J].Geomatics and Information Science of Wuhan University,2009,34(3):284-288.
[2]蘇俊英.SIFT特征匹配無(wú)人飛艇多光譜影像拼接[J].應(yīng)用科學(xué)學(xué)報(bào),2010,28(6):616-620.
Su J Y.Mosaicing of multiple spectrum images acquired from unmanned airship with SIFT feature matching[J].Journal of Applied Sciences,2010,28(6):616-620.
[3]狄穎辰,陳云坪,陳瑩瑩,等.無(wú)人機(jī)影像拼接算法綜述[J].計(jì)算機(jī)應(yīng)用,2011,31(1):170-174.
Di Y C,Chen Y P,Chen Y Y,et al.Survey on image mosaic algorithm of unmanned aerial vehicle[J].Journal of Computer Applications,2011,31(1):170-174.
[4]王斌,王偉鋒.一種基于局部灰度匹配的無(wú)人機(jī)圖像拼接算法[J].中國(guó)石油大學(xué)學(xué)報(bào):自然科學(xué)版,2009,33(2):169-173.
Wang B,Wang W F.Unmanned aerial vehicle image mosaic algorithm based on local gray fitting[J].Journal of China University of Petroleum:Edition of Natural Science,2009,33(2):169-173.
[5]白廷柱,侯喜報(bào).基于SIFT算子的圖像匹配算法研究[J].北京理工大學(xué)學(xué)報(bào),2013,33(6):622-627.
Bai T Z,Hou X B.An improved image matching algorithm based on SIFT[J].Transactions of Beijing Institute of Technology,2013,33(6):622-627.
[6]唐敏,李永樹,魯恒.無(wú)人機(jī)影像的同名點(diǎn)匹配[J].光電工程,2012,39(3):19-24.
Tang M,Li Y S,Lu H.Correspondence points matching of UAV images[J].Opto-Electronic Engineering,2012,39(3):19-24.
[7]劉立,彭復(fù)員,趙坤,等.采用簡(jiǎn)化SIFT算法實(shí)現(xiàn)快速圖像匹配[J].紅外與激光工程,2008,37(1):181-184.
Liu L,Peng F Y,Zhao K,et al.Simplified SIFT algorithm for fast image matching[J].Infrared and Laser Engineering,2008,37(1):181-184.
[8]吳寅初,馬戎.基于彩色信息的尺度不變特征變換圖像特征點(diǎn)提取與匹配[J].計(jì)算機(jī)應(yīng)用,2011,31(4):1024-1026.
Wu Y C,Ma R.Image feature extraction and matching of color-based scale-invariant feature transform[J].Journal of Computer Applications,2011,31(4):1024-1026.
[9]Geusebroek J M,van den Boomgaard R,Smeulders A W M,et al.Color invariance[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2001,23(12):1338-1350.
[10]Brown M,Lowe D G.Invariant features from interest point groups[C]//Proceedings of the British Machine Vision Conference.Cardiff,UK:[s.n.],2002:656-665.
[11]Lowe D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.
[12]王金泉,李欽富.基于單應(yīng)性矩陣的SAR圖像配準(zhǔn)技術(shù)研究[J].中國(guó)電子科學(xué)研究院學(xué)報(bào),2009,3(6):657-660.
Wang J Q,Li Q F.Research on SAR image registration based on homograph matrix[J].Journal of CAEIT,2009,3(6):657-660.
[13]Fischler M A,Bolles R C.Random sample consensus:A paradigm for model fitting with applications to image analysis and automated cartography[J].Communications of the ACM,1981,24(6):381-395.
[14]Szeliski R.Video mosaics for virtual environments[J].IEEE Computer Graphics and Applications,1996,16(2):22-30.
[15]王娟,師軍,吳憲祥.圖像拼接技術(shù)綜述[J].計(jì)算機(jī)應(yīng)用研究,2008,25(7):1940-1943.
Wang J,Shi J,Wu X X.Survey of image mosaics techniques[J].Application Research of Computers,2008,25(7):1940-1943.
(責(zé)任編輯: 劉心季)
UAV image matching based on CSIFT feature
GENG Juan1, HE Chenglong2, LIU Xianxin2
(1.JointRemoteSensingResearchCentreforRailTransitProject,SouthwestJiaotongUniversity,Chengdu610031,China;2.FacultyofEarthandEngineering,SouthwestJiaotongUniversity,Chengdu610031,China)
Abstract:With the development of the unmanned aerial vehicle(UAV)technique, currently UAV data have been gradually used in application and research fields. Differing from the current UAV matching method that integrates Photogrammetry and Image control points, the novel method presented in this paper is based on the color scale-invariant feature transform (CSIFT) feature to collect the key match points in the reference image and the image to be matched, followed by using the random sample consensus algorithm (RANSAC)method to extract the match points for the final matching result. The authors use an example to verify the feasibility and the validity of the method. Compared with the SIFT method, the accuracy could be increased from 70% to 88%, and the algorithm proposed in this paper can not only guarantee the matching result but also produce less matching points and use less working time.
Keywords:UAV image; CSIFT feature; feature matching point; homography matrix; random sample consensus(RANSAC)
作者簡(jiǎn)介:第一 耿娟(1985-),女,碩士,主要從事攝影測(cè)量與遙感應(yīng)用方面的研究。Email: gengjuan8519@gmail.com。
中圖法分類號(hào):TP 751.1
文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1001-070X(2016)01-0093-08
基金項(xiàng)目:國(guó)家重點(diǎn)基礎(chǔ)項(xiàng)目(973項(xiàng)目)“高分辨率遙感影像的信息度量與質(zhì)量改善”(編號(hào): 2012CB719901)、國(guó)家高技術(shù)研究發(fā)展計(jì)劃(863計(jì)劃)項(xiàng)目“多尺度遙感數(shù)據(jù)按需快速處理與定量遙感產(chǎn)品生成關(guān)鍵技術(shù)”(編號(hào): 2012AA12A304)和國(guó)家自然科學(xué)基金項(xiàng)目“地震災(zāi)區(qū)基于遙感信息的交通設(shè)施損毀快速評(píng)估”(編號(hào): 50848053) 共同資助。
收稿日期:2014-09-15;
修訂日期:2014-11-29
doi:10.6046/gtzyyg.2016.01.14
引用格式: 耿娟,何成龍,劉憲鑫.基于CSIFT特性的無(wú)人機(jī)影像匹配[J].國(guó)土資源遙感,2016,28(1):93-100.(Geng J,He C L,Liu X X.UAV image matching based on CSIFT feature[J].Remote Sensing for Land and Resources,2016,28(1):93-100.)