張永軍,熊小東,王夢(mèng)秋,魯一慧
武漢大學(xué)遙感信息工程學(xué)院,湖北武漢 430079
機(jī)載激光雷達(dá)點(diǎn)云與定位定姿系統(tǒng)數(shù)據(jù)輔助的航空影像自動(dòng)匹配方法
張永軍,熊小東,王夢(mèng)秋,魯一慧
武漢大學(xué)遙感信息工程學(xué)院,湖北武漢 430079
提出一種由機(jī)載LiDAR點(diǎn)云和POS數(shù)據(jù)共同輔助的航空影像連接點(diǎn)自動(dòng)匹配算法。首先,改進(jìn)了傳統(tǒng)相關(guān)系數(shù)匹配算法的最佳匹配點(diǎn)位搜索策略,提出快速算法。其次,提出一種基于虛擬地面控制點(diǎn)的相機(jī)安置角誤差自動(dòng)檢校方法,并在此基礎(chǔ)上重新自適應(yīng)確定影像匹配搜索范圍,用于整測(cè)區(qū)影像的自動(dòng)匹配。試驗(yàn)結(jié)果表明,本文提出的快速相關(guān)系數(shù)匹配算法可在保證匹配結(jié)果正確性的情況下節(jié)省約25%的匹配耗時(shí),相機(jī)安置角誤差自動(dòng)檢校方法能夠有效地提高由POS數(shù)據(jù)計(jì)算的影像外方位元素的精度,從而明顯改善匹配時(shí)同名點(diǎn)的預(yù)測(cè)精度。本文算法能處理多分辨率、多視角的交叉飛行航空影像,獲得高精度的匹配結(jié)果。
航空影像;連接點(diǎn)匹配;快速相關(guān)系數(shù)匹配;相機(jī)安置角;激光雷達(dá)
機(jī)載激光探測(cè)與測(cè)距(airborne light detection and ranging,機(jī)載LiDAR)是一項(xiàng)集成激光掃描儀和定位定姿系統(tǒng)(position and orientation system,POS)的三維地形數(shù)據(jù)快速獲取技術(shù)。通過在機(jī)載LiDAR設(shè)備上搭載數(shù)碼相機(jī),可同步獲取具有很強(qiáng)互補(bǔ)性[1]的LiDAR點(diǎn)云和高分辨率彩色航空影像。兩種數(shù)據(jù)的集成在三維建模以及正射影像制作等領(lǐng)域有著廣泛應(yīng)用[2]。然而由于相機(jī)多為臨時(shí)安置,其與POS設(shè)備之間的安置角很難準(zhǔn)確測(cè)量[3],導(dǎo)致由POS數(shù)據(jù)計(jì)算獲得的影像外方位元素精度不高,為此仍需對(duì)航空影像進(jìn)行區(qū)域網(wǎng)空中三角測(cè)量解算影像的準(zhǔn)確外方位元素[4-5]。
航空影像區(qū)域網(wǎng)空中三角測(cè)量中一個(gè)重要步驟是影像間連接點(diǎn)自動(dòng)匹配[6-8]。目前在攝影測(cè)量領(lǐng)域常采用SIFT(或SURF以及其他尺度與旋轉(zhuǎn)不變性特征)匹配、相關(guān)系數(shù)匹配、最小二乘匹配等算法以及金字塔影像匹配、仿射變換糾正等策略以獲取高精度匹配點(diǎn)[9-15]。為縮小影像匹配過程中同名點(diǎn)搜索范圍,還可利用有理多項(xiàng)式模型、POS數(shù)據(jù)等建立幾何約束條件輔助影像匹配[16-18]。由于機(jī)載LiDAR數(shù)據(jù)采集中,常會(huì)出現(xiàn)多個(gè)航高、交叉飛行的航帶,還需采用POS數(shù)據(jù)恢復(fù)影像間的重疊關(guān)系。文獻(xiàn)[18]提出了POS輔助航空影像自動(dòng)轉(zhuǎn)點(diǎn)方法,取得了很好的匹配結(jié)果,但需采用地面檢校場(chǎng)對(duì)POS系統(tǒng)進(jìn)行檢校,在檢校場(chǎng)布置較困難的地區(qū)應(yīng)用受到制約。有研究表明POS數(shù)據(jù)的主要誤差源在角元素中[19],而角元素的誤差主要來源于相機(jī)安置角誤差[3]。目前已有一些無需真實(shí)地面控制點(diǎn)、結(jié)合LiDAR數(shù)據(jù)進(jìn)行相機(jī)安置角誤差檢校的方法[3,20],但在自動(dòng)化程度和效率上不適合在影像匹配之前進(jìn)行安置角誤差快速檢校。
鑒于對(duì)機(jī)載LiDAR設(shè)備搭載的數(shù)碼相機(jī)同步獲取的影像進(jìn)行匹配時(shí),可將同步獲得的較高精度LiDAR點(diǎn)云數(shù)據(jù)生成數(shù)字表面模型(digital surface model,DSM)進(jìn)行物方約束的影像匹配[7,21],故本文研究了LiDAR點(diǎn)云和POS輔助航空影像連接點(diǎn)自動(dòng)匹配方法。從基于物方約束的影像匹配原理出發(fā),研究了快速相關(guān)系數(shù)匹配算法,并采用一種基于虛擬地面控制點(diǎn)的相機(jī)安置角誤差快速檢校方法提高影像外方位元素精度,在檢?;A(chǔ)上自適應(yīng)確定影像匹配搜索范圍,無需對(duì)影像進(jìn)行排航帶、旋轉(zhuǎn)、畸變糾正等操作即可自動(dòng)進(jìn)行匹配。研制了相應(yīng)的點(diǎn)云和POS輔助航空影像連接點(diǎn)自動(dòng)匹配軟件。采用8條航帶共62張航空影像及相應(yīng)LiDAR點(diǎn)云進(jìn)行試驗(yàn),驗(yàn)證了本文算法的有效性。
本文從基于物方約束的影像匹配原理出發(fā),先進(jìn)行基于虛擬地面控制點(diǎn)的相機(jī)安置角誤差檢校,在優(yōu)化影像外方位元素精度后進(jìn)行測(cè)區(qū)內(nèi)所有影像的連接點(diǎn)自動(dòng)匹配。在匹配過程中,采用快速相關(guān)系數(shù)匹配算法加快同名點(diǎn)搜索速度。相關(guān)算法原理如下。
2.1 物方約束匹配原理及快速相關(guān)系數(shù)匹配算法
2.1.1 基于物方約束的航空影像匹配基本原理
本文將與航空影像同步獲取的LiDAR點(diǎn)云按一定的間隔(取點(diǎn)云平均間距)采樣生成DSM,結(jié)合POS數(shù)據(jù),進(jìn)行物方約束的航空影像連接點(diǎn)匹配。方法如下:①依次將每張影像當(dāng)做參考影像,提取特征點(diǎn),對(duì)于參考影像上的特征點(diǎn),依據(jù)共線條件方程將其投影到DSM上,獲得該點(diǎn)對(duì)應(yīng)的概略物方坐標(biāo);②采用文獻(xiàn)[18]提出的POS輔助同名像點(diǎn)位置預(yù)測(cè)以及待匹配窗口影像的幾何變形改正方法,獲得特征點(diǎn)在所有相鄰待匹配影像上的搜索區(qū);③在參考影像與待匹配影像之間進(jìn)行兩級(jí)金字塔影像相關(guān)系數(shù)匹配,獲取準(zhǔn)確匹配點(diǎn)位,并采用最小二乘匹配方法精化匹配結(jié)果。
2.1.2 快速相關(guān)系數(shù)匹配算法
傳統(tǒng)的相關(guān)系數(shù)影像匹配需在搜索區(qū)逐點(diǎn)計(jì)算相關(guān)系數(shù),考慮到影像上相鄰像素點(diǎn)的灰度具有一定的連續(xù)性,相應(yīng)的相關(guān)系數(shù)值也應(yīng)具有一定連續(xù)性。圖1為某特征點(diǎn)在對(duì)應(yīng)匹配搜索區(qū)上的相關(guān)系數(shù)示意圖(相關(guān)系數(shù)小于0時(shí)設(shè)為0),用灰度表示點(diǎn)位處的相關(guān)系數(shù)值。圖中將相關(guān)系數(shù)值從0到1依次按從白到黑顯示,顏色越黑表示相應(yīng)點(diǎn)位處相關(guān)系數(shù)值越大。從圖1可見在最佳匹配點(diǎn)位(灰度最黑的點(diǎn)位)附近存在一片相關(guān)系數(shù)值連續(xù)區(qū)域。據(jù)此,設(shè)計(jì)如下用于相關(guān)系數(shù)匹配的最佳匹配點(diǎn)位快速搜索算法(簡稱快速相關(guān)系數(shù)匹配):首先,在圖2中格網(wǎng)所示的搜索區(qū)(共有16×16=256個(gè)搜索點(diǎn)位,以圖2中左上角5×5格網(wǎng)為一個(gè)基本單元對(duì)搜索區(qū)進(jìn)行劃分)中先逐個(gè)計(jì)算黑色點(diǎn)位處的相關(guān)系數(shù)值,找出相關(guān)系數(shù)大于閾值T1的所有點(diǎn)位;其次,判斷以上點(diǎn)位八鄰域內(nèi)還未參與計(jì)算的格網(wǎng)處是否存在相關(guān)系數(shù)大于閾值T1的點(diǎn)位,如有則繼續(xù)對(duì)這些點(diǎn)位八鄰域的格網(wǎng)點(diǎn)進(jìn)行分析,直至不再有新的相關(guān)系數(shù)大于閾值T1的點(diǎn)位出現(xiàn);最后,統(tǒng)計(jì)所有參與計(jì)算的點(diǎn)位處相關(guān)系數(shù)最大值,若其大于閾值T2,以最大值對(duì)應(yīng)的點(diǎn)位為最佳匹配點(diǎn)位。
該算法優(yōu)勢(shì)在于,對(duì)于圖1所示的大片相關(guān)系數(shù)為0的白色區(qū)域,只需通過在較稀疏的點(diǎn)位上進(jìn)行計(jì)算即可自動(dòng)跳過這一區(qū)域,無需逐點(diǎn)進(jìn)行相關(guān)系數(shù)計(jì)算。對(duì)于圖2所示搜索區(qū)中任何一個(gè)白色格網(wǎng)點(diǎn),在其周圍四個(gè)方向上(上下、左右及兩個(gè)對(duì)角方向)最少相鄰1個(gè)像素、最多相鄰2個(gè)像素均有在第一次搜索中參與計(jì)算的點(diǎn)位,無論該點(diǎn)的灰度值與周圍像素在哪一方向上連續(xù),只要該點(diǎn)的相關(guān)系數(shù)足夠大,均可保證該點(diǎn)最終被搜索到。將本算法應(yīng)用到2.1.1節(jié)的最上層金字塔影像匹配中,可節(jié)省計(jì)算量。在后文的試驗(yàn)部分將通過試驗(yàn)分析閾值T1與T2取值。
圖1 某特征點(diǎn)在影像匹配搜索區(qū)上的相關(guān)系數(shù)示意圖Fig.1 Illustration of correlation coefficient values between matching window and searching window
圖2 相關(guān)系數(shù)匹配最佳匹配點(diǎn)位快速搜索算法示意圖Fig.2 Illustration of fast searching algorithm for obtaining conjugate point in correlation matching
2.2 基于虛擬地面控制點(diǎn)的相機(jī)安置角誤差檢校及匹配搜索范圍自適應(yīng)確定
2.2.1 基于虛擬地面控制點(diǎn)的相機(jī)安置角誤差檢校
本文提出一種虛擬地面控制點(diǎn)計(jì)算模型,在對(duì)其理論分析基礎(chǔ)上設(shè)計(jì)了一種基于虛擬地面控制點(diǎn)的相機(jī)安置角誤差檢校算法:
首先,進(jìn)行基準(zhǔn)片匹配。結(jié)合POS數(shù)據(jù)與DSM,自動(dòng)選擇位于測(cè)區(qū)中間、地勢(shì)較平坦且非紋理貧乏區(qū)域(如無大面積水體、植被覆蓋的區(qū)域)的一張影像作為基準(zhǔn)片影像,采用物方約束影像匹配方法將該基準(zhǔn)片與所有相鄰影像進(jìn)行連接點(diǎn)自動(dòng)匹配,并進(jìn)行匹配點(diǎn)粗差剔除。由于受相機(jī)安置角誤差的影響,預(yù)測(cè)點(diǎn)位偏差較大,在匹配時(shí)需要設(shè)置較大的同名點(diǎn)搜索范圍。
然后,根據(jù)下文方法計(jì)算虛擬地面控制點(diǎn)的近似物方坐標(biāo)值。
最后,進(jìn)行外方位元素修正。在獲取的虛擬控制點(diǎn)的數(shù)目足夠且在基準(zhǔn)片上分布均勻的情況下,采用全部虛擬控制點(diǎn)對(duì)基準(zhǔn)片進(jìn)行單片空間后方交會(huì),在固定外方位線元素的條件下修正外方位角元素。在對(duì)基準(zhǔn)片進(jìn)行外方位角元素修正后,根據(jù)式(1)計(jì)算相機(jī)安置角誤差補(bǔ)償矩陣Rrot,然后根據(jù)公式(2)修正測(cè)區(qū)內(nèi)所有影像的外方位角元素
式(1)、式(2)中,R1為改正前影像外方位角元素構(gòu)成的旋轉(zhuǎn)矩陣;R2為經(jīng)過相機(jī)安置角誤差改正后的外方位角元素組成的旋轉(zhuǎn)矩陣;Rrot為相機(jī)安置角誤差補(bǔ)償矩陣。
本文采用下述方法計(jì)算虛擬控制點(diǎn)的近似物方坐標(biāo)。從位于地形局部平坦處的航帶間4°及以上重疊加密點(diǎn)(在每航帶內(nèi)至少有2°重疊)中選擇虛擬控制點(diǎn),假設(shè)某一加密點(diǎn)P的理想地面坐標(biāo)為(XPt,YPt,ZPt)(影像外方位元素?zé)o誤差的情況下的投影點(diǎn)位),其在各影像上的像點(diǎn)為pi(i=0,1,2,…,m;m≥3)。首先,采用影像初始外方位元素將各像點(diǎn)pi投影到DSM上,分別獲得對(duì)應(yīng)的物方點(diǎn)Pi(XPi,YPi,ZPi),通過比較各ZPi的最大值與最小值的差值是否小于閾值(設(shè)置為1.0 m)判斷投影點(diǎn)是否位于地形局部平坦處,如是則將該加密點(diǎn)作為一個(gè)虛擬地面控制點(diǎn)。然后,按式(3)計(jì)算點(diǎn)P的近似物方平面坐標(biāo)值(XP,YP)
式中,Wi(i=0,1,2,…,m;m≥3)為各影像對(duì)應(yīng)投影點(diǎn)的權(quán)值;W=W0+…+Wi+…+Wm。Wi=式中,XSi、YSi、ZSi為影像i的攝影中心坐標(biāo);H=ZS0-ZP0為概略航高。在計(jì)算各影像相應(yīng)投影點(diǎn)的權(quán)值時(shí),考慮到各物方投影點(diǎn)Pi的高程坐標(biāo)ZPi差別較小,故均用均值ˉZP代替。在計(jì)算出點(diǎn)P的近似物方平面坐標(biāo)值(XP,YP)后再在點(diǎn)云中內(nèi)插出該位置的高程值作為點(diǎn)P的近似高程值ZP。
下面分析上述計(jì)算獲得的P點(diǎn)的坐標(biāo)(XP,YP,ZP)相對(duì)于單張影像投影獲得的地面點(diǎn)坐標(biāo)(XPi,YPi,ZPi)(i=0,1,2,…,m;m≥3)的精度(由于位于局部平坦處,為方便分析,此處可近似認(rèn)為ZPi=ˉZP=ZP=ZPt,故僅需分析平面精度)。假設(shè)P點(diǎn)為位于S0、S1、S2、S34張影像上的航帶間4°重疊點(diǎn),S0、S1位于第一航帶,S2、S3位于第二航帶,第一航帶和第二航帶的飛行方向相反(影像飛行路線為S0—S1—S2—S3)。假設(shè)3個(gè)角元素的誤差分別為Δφ、Δω、Δκ,圖3分別為Δφ、Δω及Δκ對(duì)投影點(diǎn)的平面坐標(biāo)的影響示意圖。從圖3(a)和圖3(b)可見對(duì)于航帶間重疊影像S1和S3,由于飛行方向相反,導(dǎo)致Δφ(或Δω)對(duì)兩影像作用相反,使得投影點(diǎn)P1、P2與理想投影點(diǎn)P的偏移量相反;從圖3(c)可見Δκ亦對(duì)航帶間影像投影點(diǎn)的平面坐標(biāo)值造成相反的偏移量。由于Δφ、Δω及Δκ均為小角,可近似認(rèn)為3幅圖中偏移量分別為Δφ|SiP|、Δω|SiP|和Δκ|SiP|,即離該地面點(diǎn)距離越近的影像,其投影獲得的地面點(diǎn)坐標(biāo)值受安置角誤差的影響越小,地面點(diǎn)精度相對(duì)越高,故在式(3)中其權(quán)值應(yīng)越大。需說明的是,以上分析中的距離均為在投影面上的平面距離,由于其分別幾乎與相應(yīng)的三維空間距離成正比,故在計(jì)算權(quán)值時(shí)統(tǒng)一由攝影中心到地面點(diǎn)的三維距離代替。
2.2.2 影像匹配搜索范圍自適應(yīng)確定方法
本文在進(jìn)行相機(jī)安置角誤差檢校并更新影像外方位元素的基礎(chǔ)上,提出了同名點(diǎn)搜索范圍自適應(yīng)確定方法。其原理如下:①對(duì)于基準(zhǔn)片匹配獲得的加密點(diǎn),將基準(zhǔn)片上的像點(diǎn)投影到DSM上,獲取每一個(gè)像點(diǎn)對(duì)應(yīng)的物方坐標(biāo)值;②將獲得的物方坐標(biāo)值反投影到每張重疊影像上,分別計(jì)算投影點(diǎn)位與匹配點(diǎn)位的差值,并統(tǒng)計(jì)點(diǎn)位差值中誤差DRMS;③在對(duì)所有影像進(jìn)行連接點(diǎn)匹配過程中,將特征點(diǎn)投影到DSM上獲取其物方坐標(biāo)的同時(shí),判斷該點(diǎn)所處位置是否平坦。如果該點(diǎn)位于平坦處,匹配搜索范圍取4倍DRMS大小的窗口,否則,如果該點(diǎn)處于不平坦區(qū)域,預(yù)測(cè)點(diǎn)位誤差可能較大,相應(yīng)的搜索范圍取6倍DRMS大小的窗口。
圖3 3個(gè)角元素誤差分量對(duì)投影點(diǎn)的平面坐標(biāo)影響示意圖Fig.3 The affection of three angular elements errors to the horizontal coordinates of the projected ground point
3.1 試驗(yàn)數(shù)據(jù)
基于以上匹配算法,開發(fā)了LiDAR點(diǎn)云和POS數(shù)據(jù)輔助航空影像匹配軟件,采用某試驗(yàn)區(qū)的LiDAR點(diǎn)云、POS數(shù)據(jù)和航空影像進(jìn)行了影像連接點(diǎn)匹配試驗(yàn)。試驗(yàn)區(qū)為城區(qū),如圖4所示共有8條航帶62幅航空影像,以及同步獲取的8個(gè)條帶LiDAR點(diǎn)云,其中包括東西飛行的5條航帶和南北飛行的3條航帶(影像7-13與影像28-34所在航線重疊)。試驗(yàn)數(shù)據(jù)由Trimble H68機(jī)載掃描儀獲取,相機(jī)的像元大小為0.006 mm,焦距為51.71 mm,影像像幅大小為8984像素× 6732像素。東西飛行影像航向重疊度為60%,旁向重疊度為60%,飛行高度為750 m,影像地面分辨率為0.08 m;南北飛行的影像航向重疊度為68%,旁向重疊度為69%,飛行高度為1050 m,影像地面分辨率為0.12 m。LiDAR點(diǎn)云平均點(diǎn)間距約為0.7 m,點(diǎn)云高程精度約0.2 m。試驗(yàn)計(jì)算機(jī)配置為Intel雙核處理器,頻率2.53 GHz,內(nèi)存2 GB。
圖4 試驗(yàn)區(qū)正射影像及航線分布圖Fig.4 The orthoimage and distribution of flight line of the test site
3.2 快速相關(guān)系數(shù)匹配算法試驗(yàn)效果
為分析快速相關(guān)系數(shù)匹配算法的匹配效果,分別選擇兩組影像進(jìn)行匹配試驗(yàn)。對(duì)于每一組影像首先采用傳統(tǒng)的搜索區(qū)逐點(diǎn)搜索法進(jìn)行匹配,將匹配結(jié)果作為參考值。然后采用本文提出的快速搜索算法,分別取T1為0.01、0.1、0.2、…、0.6,統(tǒng)計(jì)漏匹配加密點(diǎn)數(shù)、漏匹配像點(diǎn)數(shù)、誤匹配像點(diǎn)數(shù)以及匹配耗時(shí),試驗(yàn)結(jié)果如表1所示。試驗(yàn)中影像相關(guān)窗口大小為19像素×19像素,影像搜索范圍大小為59像素×59像素(不包括相關(guān)窗口尺寸),T2值統(tǒng)一取0.7。
從對(duì)以上82個(gè)像對(duì)的匹配試驗(yàn)結(jié)果可見,隨著T1值的增大,錯(cuò)誤匹配數(shù)增多,而匹配耗時(shí)逐漸減少。當(dāng)T1取0.4時(shí)錯(cuò)誤匹配數(shù)仍然可忽略,綜合考慮匹配錯(cuò)誤率與匹配耗時(shí),本文匹配時(shí)取T1為0.3。從表1可知,在取T1為0.3時(shí)平均每對(duì)同名像點(diǎn)可節(jié)省匹配時(shí)間0.02 s,與傳統(tǒng)算法平均每對(duì)同名像點(diǎn)匹配耗時(shí)0.08 s相比,節(jié)省了25%的匹配耗時(shí)。由于本試驗(yàn)采用物方匹配,對(duì)影像進(jìn)行仿射變換糾正占據(jù)了部分的匹配耗時(shí),故采用快速搜索算法在節(jié)省影像匹配耗時(shí)上具有可觀的效益。
表1 最佳匹配點(diǎn)位快速搜索算法與傳統(tǒng)逐點(diǎn)搜索算法匹配結(jié)果對(duì)比Tab.1 Comparison of matching results using fast searching algorithm and conventional exhaustive searching algorithm
3.3 相機(jī)安置角誤差檢校試驗(yàn)分析
3.2.1 虛擬地面控制點(diǎn)坐標(biāo)精度驗(yàn)證
首先分析本文提出的虛擬地面控制點(diǎn)計(jì)算模型的正確性。由于試驗(yàn)中自動(dòng)匹配獲得的虛擬控制點(diǎn)一般位于平坦處,很難從點(diǎn)云中量取同名點(diǎn)作為參考值評(píng)價(jià)虛擬控制點(diǎn)的坐標(biāo)精度,故采取人工量測(cè)的方式在基準(zhǔn)片上均勻量測(cè)了18個(gè)4°及以上重疊的航帶間加密點(diǎn)(主要為房角點(diǎn))作為用于檢查的虛擬控制點(diǎn)。對(duì)于每個(gè)檢查點(diǎn)P,在點(diǎn)云中量測(cè)其坐標(biāo)(XP,YP,ZP),分別將該檢查點(diǎn)對(duì)應(yīng)的每一像點(diǎn)pi(i=0,1,2,…,m;m≥3)投影到ZP高程面上獲取投影的平面坐標(biāo)(XPi,YPi),并分別統(tǒng)計(jì)按式(3)計(jì)算的點(diǎn)P在單航帶內(nèi)投影點(diǎn)平面坐標(biāo)加權(quán)均值以及其全部投影點(diǎn)平面坐標(biāo)加權(quán)均值相對(duì)于點(diǎn)云中量測(cè)坐標(biāo)的殘差,統(tǒng)計(jì)結(jié)果如表2所示,其中dX、dY、dXY分別表示X坐標(biāo)殘差、Y坐標(biāo)殘差以及平面整體殘差。
從表2可見,所有投影點(diǎn)平面坐標(biāo)加權(quán)均值的精度相比單航帶投影點(diǎn)平面坐標(biāo)加權(quán)均值的精度有明顯提高??梢娪捎诤綆чg飛行方向相反,在計(jì)算虛擬地面控制點(diǎn)的物方平面坐標(biāo)時(shí),可以在一定程度上抵消相機(jī)安置角誤差的不利影響,獲得較為準(zhǔn)確平面坐標(biāo)值。另由于虛擬地面控制點(diǎn)高程值從精度較高的點(diǎn)云獲取(點(diǎn)云高程精度約0.2 m),故虛擬地面控制點(diǎn)坐標(biāo)平面精度和高程精度均較理想,此試驗(yàn)驗(yàn)證了本文設(shè)計(jì)的虛擬地面控制點(diǎn)計(jì)算模型的合理性。
表2 18個(gè)虛擬地面控制點(diǎn)的坐標(biāo)殘差結(jié)果統(tǒng)計(jì)Tab.2 Residuals of 18 virtual ground control points m
3.2.2 相機(jī)安置角誤差檢校前后點(diǎn)云與影像套合情況分析
在相機(jī)安置角誤差檢校過程中,對(duì)基準(zhǔn)片影像進(jìn)行匹配時(shí),2級(jí)金字塔影像(1級(jí)金字塔影像即原始影像)相關(guān)窗口大小為19像素×19像素, 2級(jí)金字塔影像搜索范圍大小(不包括相關(guān)窗口的大小)為59像素×59像素(相當(dāng)于原始影像上177像素×177像素,根據(jù)初始外方位元素的精度人工設(shè)定這一搜索范圍),原始影像上相關(guān)窗口大小為11像素×11像素,原始影像上搜索范圍大小為11像素×11像素,2級(jí)金字塔影像匹配相關(guān)系數(shù)閾值T2為0.70,原始影像匹配相關(guān)系數(shù)閾值T2為0.85。匹配獲得443個(gè)加密點(diǎn),初步剔除粗差后共有439個(gè)加密點(diǎn),包含有3378個(gè)像點(diǎn),其中4°及以上重疊航帶間加密點(diǎn)342個(gè)。
為分析相機(jī)安置角誤差檢校前后的影像外方位元素精度,在測(cè)區(qū)內(nèi)選擇了多張航空影像,在其覆蓋范圍內(nèi)的LiDAR點(diǎn)云中人工截取若干建筑物屋頂點(diǎn),分別采用相機(jī)安置角誤差檢校前后的影像外方位元素將建筑物屋頂點(diǎn)反投影到相應(yīng)影像上進(jìn)行對(duì)比。因篇幅所限,圖5展示了測(cè)區(qū)中兩幅影像(與基準(zhǔn)片距離很遠(yuǎn)且不在同一航帶上)上部分投影效果。從圖5可見,相機(jī)安置角誤差檢校后,屋頂點(diǎn)與影像套合效果得到明顯改善,證實(shí)了本文相機(jī)安置角誤差檢校的有效性。
3.2.3 相機(jī)安置角誤差檢校前后匹配像點(diǎn)預(yù)測(cè)點(diǎn)位精度分析
試驗(yàn)中選擇了一些影像上的若干特征點(diǎn),分析在相機(jī)安置角誤差檢校前后其預(yù)測(cè)同名點(diǎn)位與真實(shí)點(diǎn)位的接近程度。因篇幅限制,此處僅展示圖6中所示的一組預(yù)測(cè)結(jié)果,其中圖6(a)、圖6(b)分別為相機(jī)安置角誤差改正前后特征點(diǎn)在同一重疊影像上的預(yù)測(cè)點(diǎn)位,圖中的影像塊進(jìn)行過旋轉(zhuǎn)和尺度糾正,圖中圖片所在的影像與參考影像的飛行方向相差大約180°,真實(shí)同名點(diǎn)位用白色圓圈標(biāo)于圖6(a)中。試驗(yàn)中對(duì)所有預(yù)測(cè)點(diǎn)位進(jìn)行分析后發(fā)現(xiàn),相機(jī)安置角誤差改正后,預(yù)測(cè)同名點(diǎn)位均非常接近真實(shí)位置,證實(shí)了相機(jī)安置角誤差補(bǔ)償?shù)挠行浴?/p>
圖5 部分影像上建筑物屋頂點(diǎn)云投影結(jié)果(其中每組圖片左右分別為相機(jī)安置角誤差檢校前后的投影結(jié)果)Fig.5 The fitness of roof points to images(for each group,the left is the result before calibration and the right is the result after calibration)
圖6 某特征點(diǎn)在重疊影像上的預(yù)測(cè)點(diǎn)位Fig.6 The predicted conjugate point in correspond image
3.3 影像匹配結(jié)果分析
在相機(jī)安置角誤差改正后,通過搜索窗口大小自適應(yīng)計(jì)算,確定2級(jí)金字塔影像(1級(jí)金字塔影像即原始影像)最大搜索范圍大小為18×18(相當(dāng)于原始影像上54像素×54像素)。搜索窗口與最初的設(shè)定值相比,減小了123像素×123像素,有效地縮小了搜索范圍。2級(jí)金字塔影像相關(guān)窗口大小設(shè)定為15像素×15像素,原始影像上相關(guān)窗口大小為11像素×11像素,原始影像上搜索范圍大小為11像素×11像素,2級(jí)金字塔影像匹配相關(guān)系數(shù)閾值為0.70,原始影像匹配相關(guān)系數(shù)閾值為0.85。為節(jié)省連接點(diǎn)匹配時(shí)間,匹配時(shí)將各影像劃分成9×7個(gè)格網(wǎng),每個(gè)格網(wǎng)選擇一個(gè)特征點(diǎn)參與匹配。
表3為測(cè)區(qū)影像匹配獲得的各重疊度的加密點(diǎn)及其個(gè)數(shù)統(tǒng)計(jì)情況,總共獲得加密點(diǎn)2201個(gè),同名點(diǎn)13 511對(duì)。其中6°及以上重疊加密點(diǎn)1036個(gè),占總加密點(diǎn)數(shù)的47%,最高匹配出19°重疊的加密點(diǎn)。
表3 測(cè)區(qū)匹配結(jié)果中各重疊度的加密點(diǎn)及其個(gè)數(shù)Tab.3 Numbers of matched points at each overlap
圖7所示為某一特征點(diǎn)的匹配結(jié)果。從匹配結(jié)果可見,本文算法可以成功匹配出大旋角(90° 或180°)、較大尺度差異的影像間同名點(diǎn)。
圖7 測(cè)區(qū)某一特征點(diǎn)部分匹配結(jié)果Fig.7 Matched conjugate points in four images
為驗(yàn)證本文匹配算法的有效性,與不進(jìn)行安置角誤差檢校、不采用相關(guān)系數(shù)快速匹配的傳統(tǒng)的物方約束影像匹配進(jìn)行了對(duì)比試驗(yàn),試驗(yàn)結(jié)果如表4所示。從表4可見,傳統(tǒng)算法匹配的加密點(diǎn)和對(duì)應(yīng)像點(diǎn)數(shù)分別為2367和14 780個(gè),本文算法匹配獲得的加密點(diǎn)和像點(diǎn)數(shù)分別為2201和13 511個(gè),其原因在于本文自適應(yīng)地縮小了匹配搜索范圍,減少了因搜索范圍過大導(dǎo)致的誤匹配像點(diǎn)的數(shù)目;對(duì)加密點(diǎn)進(jìn)行光束法自由網(wǎng)平差后,本文算法的像點(diǎn)殘差中誤差為0.002 33 mm,約為1/3像素大小,相對(duì)于傳統(tǒng)算法的0.002 45 mm有所降低,其中傳統(tǒng)算法和本文算法匹配后殘差小于3倍對(duì)應(yīng)的像點(diǎn)殘差中誤差大小的像點(diǎn)比例分別為87.6%和92.0%,證明本文算法提高了匹配正確率;傳統(tǒng)算法和本文算法匹配總耗時(shí)分別為59 min和39 min,其中Harris特征點(diǎn)提取耗時(shí)均為14 min,因本文算法進(jìn)行安置角誤差檢校時(shí)需在基準(zhǔn)影像上對(duì)所有特征點(diǎn)(625個(gè))進(jìn)行逐一匹配,故耗時(shí)6 min。本文算法對(duì)相機(jī)安置角誤差檢校后自適應(yīng)縮小了匹配搜索范圍,且采用快速相關(guān)系數(shù)匹配,故在最終對(duì)所有影像進(jìn)行連接點(diǎn)匹配時(shí)僅耗時(shí)19 min,相比傳統(tǒng)算法節(jié)省26 min??紤]到安置角檢校耗時(shí)固定且與測(cè)區(qū)影像數(shù)目和匹配連接點(diǎn)數(shù)目無關(guān),當(dāng)測(cè)區(qū)內(nèi)影像數(shù)目越多、匹配連接點(diǎn)數(shù)目越多,本文算法所節(jié)省時(shí)間越可觀。
表4 本文算法與傳統(tǒng)算法匹配結(jié)果對(duì)比Tab.4 Comparison of matching results between using methods developed in this paper and conventional methods
針對(duì)機(jī)載LiDAR設(shè)備搭載數(shù)碼相機(jī)獲取的航空影像空三連接點(diǎn)匹配問題,本文提出一種LiDAR點(diǎn)云和POS輔助航空影像匹配方法。在基于物方約束的航空影像匹配算法基礎(chǔ)上,提出了一種快速相關(guān)系數(shù)匹配算法;同時(shí)采用虛擬地面控制點(diǎn)進(jìn)行相機(jī)安置角誤差檢校,提高影像外方位元素的精度,并在此基礎(chǔ)上實(shí)現(xiàn)影像匹配搜索范圍自適應(yīng)確定;最后采用更新后的外方位元素和LiDAR點(diǎn)云數(shù)據(jù)輔助進(jìn)行影像連接點(diǎn)匹配。
對(duì)快速相關(guān)系數(shù)匹配算法進(jìn)行的大量試驗(yàn)結(jié)果表明,所提出的快速算法能夠在幾乎不影響匹配正確率的情況下節(jié)省約25%的匹配耗時(shí)。相機(jī)安置角誤差檢校的試驗(yàn)表明,本文設(shè)計(jì)的虛擬地面控制點(diǎn)具有較好的精度,相機(jī)安置角檢校后點(diǎn)云與影像的套合效果以及匹配時(shí)同名點(diǎn)預(yù)測(cè)精度有了很大改善,匹配搜索范圍自適應(yīng)確定方法取得了良好的效果。采用本文設(shè)計(jì)的影像連接點(diǎn)匹配方法對(duì)62張影像進(jìn)行了匹配試驗(yàn),驗(yàn)證了該方法能匹配出大量6°及以上重疊的加密點(diǎn),可以成功匹配出大旋角(90°或180°)、較大尺度差異影像間同名點(diǎn),自由網(wǎng)平差精度達(dá)到約1/3像素,與傳統(tǒng)算法相比提高了匹配精度、節(jié)省了大量匹配耗時(shí)。
由于本文所能獲取的數(shù)據(jù)有限,無法進(jìn)一步驗(yàn)證本文算法對(duì)于無序影像的連接點(diǎn)匹配效果,后續(xù)的研究工作可圍繞此方面進(jìn)行。此外,還可采用GPU并行匹配算法[22]進(jìn)一步提高連接點(diǎn)匹配速度。
[1] BALTSAVIAS E P.A Comparison between Photogrammetry and Laser Scanning[J].ISPRS Journal of Photogrammetry and Remote Sensing,1999,54(2-3):83-94.
[2] SHAN J,TOTH C K.Topographic Laser Ranging and Scanning:Principles and Processing[B].Boca Raton: CRC Press,2008:445-477.
[3] YASTIKLI N,TOTH C,GREJNER-BRZEZINSKA D A.In-situ Camera and Boresight Calibration with LiDAR Data[C]∥Proceedings of the fifth International Symposium on Mobile Mapping Technology.Padua:ISPRS,2007.
[4] IP A,EI-SHEIMY N,MOSTAFA M.Performance Analysis of Integrated Sensor Orientation[J].Photogrammetric Engineering and Remote Sensing,2007,73(1):1-9.
[5] ZHANG Yongjun,XIONG Xiaodong,SHEN Xiang.Automatic Registration of Urban Aerial Imagery with Airborne LiDAR Data[J].Journal of Remote Sensing,2012,16 (3):579-595.(張永軍,熊小東,沈翔.城區(qū)機(jī)載LiDAR數(shù)據(jù)與航空影像的自動(dòng)配準(zhǔn)[J].遙感學(xué)報(bào),2012,16(3): 579-595.)
[6] SCHENK T.Towards Automatic Aerial Triangulation[J].ISPRS Journal of Photogrammetry and Remote Sensing, 1997,52(3):110-121.
[7] KRUPNIK A,SCHENK T.Experiments with Matching in the Object Space for Aerotriangulation[J].ISPRS Journal of Photogrammetry and Remote Sensing,1997, 52:160-168.
[8] TANG L,BRAUN J,DEBITSCH R.Automatic Aerotriangulation:Concept,Realization and Results[J].ISPRS Journal of Photogrammetry and Remote Sensing,1997, 52(3):122-131.
[9] ZEBEDIN L,KLAUS A,GRUBER-GEYMAYER B,et al.Towards 3D Map Generation from Digital Aerial Images [J].ISPRS Journal of Photogrammetry and Remote Sensing,2006,60(6):413-427.
[10] WILKINSON B E,DEWITT B A,WATTS A C,et al.A New Approach for Pass-point Generation from AerialVideo Imagery[J].Photogrammetric Engineering and Remote Sensing,2009,75(12):1415-1423.
[11] BARAZZETTI L,SCAIONI M,REMONDINO F.Orientation and 3D Modelling from Markerless Terrestrial Images: Combining Accuracy with Automation[J].The Photogrammetric Record,2010,25(132):356-381.
[12] ZHANG Y J,XIONG J X,HAO L J.Photogrammetric Processing of Low-altitude Images Acquired by Unpiloted Aerial Vehicles[J].Photogrammetric Record,2011,26 (134):190-211.
[13] LERMA J L,NAVARRO S,CABRELLES M,et al.Automatic Orientation and 3D Modelling from Markerless Rock Art Imagery[J].ISPRS Journal of Photogrammetry and Remote Sensing,2013,76:64-75.
[14] XIONG Xinghua,CHEN Ying,QIAN Zengbo.A Fast, Accruate and Robust Image Matching Algorithm[J].Acta Geodaetica et Cartographica Sinica,2005,34(1):40-45.(熊興華,陳鷹,錢曾波.一種快速、高精度和穩(wěn)健的影像匹配算法[J].測(cè)繪學(xué)報(bào),2005,34(1):40-45.)
[15] ZHAO Xi'an,CHEN Zhixue,LV Jingguo,et al.The Scale and Rotating Invariant Auto Stereo Matching[J].Acta Geodaetica et Cartographica Sinica,2012,41(1):81-86.(趙西安,陳志學(xué),呂京國,等.具有尺度與旋轉(zhuǎn)不變性的立體影像自動(dòng)匹配研究[J].測(cè)繪學(xué)報(bào),2012,41(1): 81-86.)
[16] JI Shunping,YUAN Xiuxiao.Automatic Matching of High Resolution Satellite Images Based on RFM[J].Acta Geodaetica et Cartographica Sinica,2010,39(6):592-598.(季順平,袁修孝.基于RFM的高分辨率衛(wèi)星遙感影像自動(dòng)匹配研究[J].測(cè)繪學(xué)報(bào),2010,39(6): 592-598.)
[17] ZHANG Guo,CHEN Tan,PAN Hongbo,et al.Patchbased Least Squares Image Matching Based on Rational Polynomial Coeffcients Model[J].Acta Geodaetica et Cartographica Sinica,2011,40(5):592-597.(張過,陳鉭,潘紅播,等.基于有理多項(xiàng)式系數(shù)模型的物方面元最小二乘匹配[J].測(cè)繪學(xué)報(bào),2011,40(5):592-597.)
[18] YUAN Xiuxiao,MING Yang.POS-supported Matching Method for Aerial Images between Neighboring Strips[J].Acta Geodaetica et Cartographica Sinica,2010,39(2):156-161.(袁修孝,明洋.POS輔助航帶間航攝影像的自動(dòng)轉(zhuǎn)點(diǎn)[J].測(cè)繪學(xué)報(bào),2010,39(2):156-161.)
[19] ZHANG Yongjun,XIONG Jinxin,XIONG Xiaodong,et al.Main Error Source of Vertical Parallax and Compensation Regression Model of POS Data[J].Acta Geodaetica et Cartographica Sinica,2011,40(5):604-609.(張永軍,熊金鑫,熊小東,等.POS數(shù)據(jù)的上下視差誤差源檢測(cè)及誤差補(bǔ)償回歸模型[J].測(cè)繪學(xué)報(bào),2011,40(5):604-609.)
[20] CHEN S Y,MA H C,ZHANG Y C,et al.Boresight Calibration of Airborne LiDAR System without Ground Control Points[J].IEEE Geoscience and Remote Sensing Letters,2012,9(1):85-89.
[21] WALKER A S.Responses to Users:The Continuing Evolution of Commercial Digital Photogrammetry[J].Photogrammetric Record,1999,16(93):469-483.
[22] XIAO Han,ZHANG Zuxun.Parallel Image Matching Algorithm Based on GPGPU[J].Acta Geodaetica et Cartographica Sinica,2010,39(1):46-51.(肖漢,張祖勛.基于GPGPU的并行影像匹配算法[J].測(cè)繪學(xué)報(bào),2010,39(1): 46-51.)
(責(zé)任編輯:叢樹平)
A New Aerial Image Matching Method Using Airborne LiDAR Point Cloud and POS Data
ZHANG Yongjun,XIONG Xiaodong,WANG Mengqiu,LU Yihui
School of Remote Sensing and Information Engineering,Wuhan University,Wuhan 430079,China
A novel aerial image tie point matching algorithm with the assistance of airborne LiDAR point cloud and POS data is proposed.Firstly,the conjugate point searching strategy used in traditional correlation coefficient matching is improved and a fast algorithm is presented.Secondly,an automatic camera boresight misalignment calibration method based on virtual ground control points is proposed,then the searching range of image matching is adaptively determined and applied to the image matching of the entire surveying area.Test results verified that the fast correlation coefficient matching algorithm proposed can reduce approximately 25%of the matching time without the loss of matching accuracy.The camera boresight misalignment calibration method can effectively increase the accuracy of exterior orientation elements of images calculated from POS data,and thus can significantly improve the predicted position of conjugate point for tie point matching.Our proposed image matching algorithm can achieve high matching accuracy with multi-scale,multi-view,cross-flight aerial images.
arial image;tie point matching;fast correlation match;camera boresight misalignment;LiDAR
P237
A
1001-1595(2014)04-0380-09
2012-12-17
張永軍(1975—),男,博士,教授,博士生導(dǎo)師,研究方向?yàn)閿?shù)字?jǐn)z影測(cè)量與遙感、計(jì)算機(jī)視覺等。First author:ZHANG Yongjun(1975—),male,PhD, professor,PhD supervisor,majors in digital photogrammetry and remote sensing,computer vision.
E-mail:zhangyj@whu.edu.cn
ZHANG Yongjun,XIONG Xiaodong,WANG Mengqiu,et al.A New Aerial Image Matching Method Using Airborne LiDAR Point Cloud and POS Data[J].Acta Geodaetica et Cartographica Sinica,2014,43(4):380-388.(張永軍,熊小東,王夢(mèng)秋,等.機(jī)載激光雷達(dá)點(diǎn)云與定位定姿系統(tǒng)數(shù)據(jù)輔助的航空影像自動(dòng)匹配方法[J].測(cè)繪學(xué)報(bào),2014,43(4):380-388.)
10.13485/j.cnki.11-2089.2014.0057
國家自然科學(xué)基金(41171292;41322010);國家973計(jì)劃(2012CB719904);“教育部博士研究生學(xué)術(shù)新人獎(jiǎng)”資助(5052012213001);中央高?;究蒲袠I(yè)務(wù)費(fèi)專項(xiàng)資金(2012213020207;2012213020205)
修回日期:2013-06-12