張 良,馬洪超,2,高 廣,陳 卓,3
1.武漢大學(xué)遙感信息工程學(xué)院,湖北武漢 430079;2.武漢大學(xué)測(cè)繪遙感信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室,湖北武漢 430079;3.中國(guó)科學(xué)院上海技術(shù)物理研究所,上海 200083
點(diǎn)、線相似不變性的城區(qū)航空影像與機(jī)載激光雷達(dá)點(diǎn)云自動(dòng)配準(zhǔn)
張 良1,馬洪超1,2,高 廣1,陳 卓1,3
1.武漢大學(xué)遙感信息工程學(xué)院,湖北武漢 430079;2.武漢大學(xué)測(cè)繪遙感信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室,湖北武漢 430079;3.中國(guó)科學(xué)院上海技術(shù)物理研究所,上海 200083
提出一種基于點(diǎn)、線相似不變性的城區(qū)航空影像與機(jī)載LiDAR點(diǎn)云自動(dòng)配準(zhǔn)算法。首先通過SIFT算子提取點(diǎn)特征并進(jìn)行粗配準(zhǔn),同時(shí)分別基于影像和LiDAR點(diǎn)云提取直線特征;然后利用局部區(qū)域點(diǎn)特征與線特征的相似不變性,通過匹配點(diǎn)對(duì)搜索匹配直線對(duì);最后采用基于擴(kuò)展共線方程的2D-3D嚴(yán)密配準(zhǔn)模型實(shí)現(xiàn)航空影像與LiDAR點(diǎn)云的精配準(zhǔn)。本方法的特點(diǎn)是:采取了由粗到精的配準(zhǔn)策略,通過點(diǎn)、線相似不變性,將基于強(qiáng)度的配準(zhǔn)算法和基于線特征的配準(zhǔn)算法有機(jī)結(jié)合,在較高的自動(dòng)化程度下實(shí)現(xiàn)了影像與點(diǎn)云的精確配準(zhǔn)。試驗(yàn)證明,與基于點(diǎn)云強(qiáng)度影像的自動(dòng)配準(zhǔn)算法相比,本文的算法在城市地區(qū)能夠取得較好的配準(zhǔn)結(jié)果。
自動(dòng)配準(zhǔn);激光雷達(dá);尺度不變特征變換(SIFT);相似不變性
航空影像語義信息豐富,是地物提取最大的數(shù)據(jù)源之一,由于缺乏直接的三維信息,單獨(dú)利用影像進(jìn)行數(shù)據(jù)處理有一定的局限性。機(jī)載激光雷達(dá)(airborne light detection and ranging,LiDAR)是一種新型的航空對(duì)地觀測(cè)傳感器,具有主動(dòng)觀測(cè)、受天氣影響小、不受陰影影響、對(duì)地物間縫隙有一定穿透性并能直接獲取地表三維幾何信息等優(yōu)點(diǎn)[1]。將航空影像和LiDAR點(diǎn)云配準(zhǔn)、融合,可同時(shí)獲取地物的空間信息及語義信息,有效彌補(bǔ)了單一數(shù)據(jù)源的不足[2],在災(zāi)害評(píng)估、真正射影像制作、道路、建筑物自動(dòng)建模等領(lǐng)域有很大的應(yīng)用前景[3-6]。
與傳統(tǒng)配準(zhǔn)算法不同,航空影像與機(jī)載LiDAR點(diǎn)云的配準(zhǔn),是二維與三維數(shù)據(jù)、連續(xù)影像與離散點(diǎn)云之間的配準(zhǔn)問題,傳統(tǒng)影像之間的配準(zhǔn)方法收效甚微[7]。近10年來,國(guó)內(nèi)外學(xué)者對(duì)其進(jìn)行了一定的研究,大致可以歸結(jié)為3類算法。①通過航空影像密集匹配獲取三維點(diǎn)集,然后通過ICP(iterative closest point)或其改進(jìn)方法[9-10]建立其與機(jī)載LiDAR點(diǎn)云的對(duì)應(yīng)關(guān)系,這本質(zhì)上是一種3D-3D配準(zhǔn)變換。這類算法無法進(jìn)行單張影像與點(diǎn)云的配準(zhǔn),同時(shí)密集匹配生成點(diǎn)云的過程會(huì)降低配準(zhǔn)精度。②將LiDAR點(diǎn)云按照高程或強(qiáng)度轉(zhuǎn)換為二維影像,再依據(jù)傳統(tǒng)的圖像配準(zhǔn)方法實(shí)現(xiàn)兩種數(shù)據(jù)的配準(zhǔn)。如基于互信息的全局配準(zhǔn)方法[11]、基于SIFT(scale invariant feature transform)算子的配準(zhǔn)方法[12]、基于FFT變換的算法[13]、6元組松弛法[14]等。這類算法充分利用了原有的成熟圖像配準(zhǔn)算法,自動(dòng)化程度高,然而規(guī)則化過程中的誤差、點(diǎn)位選取不準(zhǔn)的誤差,都會(huì)降低配準(zhǔn)精度。③部分學(xué)者嘗試建立遙感影像與機(jī)載LiDAR點(diǎn)云之間的直接配準(zhǔn)模型。文獻(xiàn)[15—16]用直線特征或平面特征建立遙感影像與激光點(diǎn)云的直接映射關(guān)系。文獻(xiàn)[17]將空間三維點(diǎn)采用參數(shù)方程和輔助變量聯(lián)合表示,通過擴(kuò)展的共線方程,建立起二維影像點(diǎn)(2D)與的點(diǎn)云空間三維直線(3D)的直接映射關(guān)系,避免了LiDAR空間點(diǎn)位選取不準(zhǔn)的誤差、點(diǎn)云內(nèi)插誤差以及密集匹配的誤差,配準(zhǔn)模型嚴(yán)密、簡(jiǎn)單,具有一定的推廣價(jià)值。該算法的自動(dòng)化程度取決于配準(zhǔn)基元的選取與匹配的自動(dòng)化程度,需要進(jìn)一步的研究。
基于上述分析,本文綜合第2類和第3類算法的優(yōu)點(diǎn),提出一種基于點(diǎn)、線相似不變性的自動(dòng)配準(zhǔn)算法。首先,將點(diǎn)云內(nèi)插成強(qiáng)度影像(和取反的強(qiáng)度影像),通過SIFT算法提取足夠多的匹配點(diǎn)對(duì),并實(shí)現(xiàn)點(diǎn)云與影像的粗配準(zhǔn);同時(shí)分別基于點(diǎn)云和航空影像提取邊緣特征,并通過一定規(guī)則將一條較長(zhǎng)的邊緣自動(dòng)的分割為若干較短的邊緣直線;然后利用局部區(qū)域中點(diǎn)特征與線特征的相似不變性,通過匹配點(diǎn)對(duì)搜索匹配直線對(duì);最后采用基于擴(kuò)展共線方程的2D-3D嚴(yán)密配準(zhǔn)模型實(shí)現(xiàn)航空影像與LiDAR點(diǎn)云的精配準(zhǔn)。技術(shù)流程如圖1所示。
圖1 基于點(diǎn)、線相似不變性的城區(qū)航空影像與機(jī)載LiDAR點(diǎn)云的自動(dòng)配準(zhǔn)技術(shù)流程Fig.1 The flow chart of automatic registration of urban aerial images with airborne LiDAR points based on line-point similarity invariants
SIFT算法通過在DOG尺度空間尋找極值點(diǎn)作為特征點(diǎn),并在鄰域計(jì)算梯度直方圖作為該點(diǎn)的局部特征描述符,它能夠較好地克服兩幅影像因旋轉(zhuǎn)、比例尺不一以及光源不同導(dǎo)致的差異[12]。本文采用文獻(xiàn)[12]的建議,分別利用Li-DAR點(diǎn)云內(nèi)插距離影像、強(qiáng)度影像和取反后的強(qiáng)度影像與遙感圖像進(jìn)行匹配,提取足夠多的匹配點(diǎn),并利用RANSAC算法消除錯(cuò)配,最后對(duì)所有匹配點(diǎn)按可靠性進(jìn)行排序,選擇可靠性較高的匹配點(diǎn),基于DLT模型進(jìn)行粗配準(zhǔn)。
3.1 LiDAR點(diǎn)云的線特征提取
本文采用從粗到細(xì)的策略從LiDAR點(diǎn)云中提取線特征(主要指建筑物輪廓線),首先利用文獻(xiàn)[18]提出的技術(shù)流程從LiDAR點(diǎn)云中快速提取建筑的大致輪廓線并進(jìn)行分割,然后根據(jù)建筑物的掃描特征,提出一種精確提取建筑物特征線的“微元特征分析法”。詳細(xì)步驟如下:
(1)建筑物點(diǎn)檢測(cè)。將點(diǎn)云柵格化成距離影像DSM,再采用形態(tài)學(xué)濾波方法[19]獲取DEM數(shù)據(jù),進(jìn)一步求得規(guī)則化的n DSM,最后利用高差閾值對(duì)nDSM進(jìn)行分割,求出建筑物區(qū)域及其對(duì)應(yīng)的建筑物點(diǎn)。
(2)建筑物輪廓生成與規(guī)則化。采用Alpha-Shapes[20]算法從檢測(cè)出的建筑物點(diǎn)中提取建筑物初始輪廓,采用袖子算法[21]提取原始輪廓的關(guān)鍵點(diǎn),進(jìn)而得到輪廓線的骨架,再對(duì)骨架線進(jìn)行規(guī)則化處理,最后得到規(guī)則化后的建筑物輪廓。
(3)特征直線提取。獲取規(guī)則化的建筑物輪廓后,依據(jù)線段的長(zhǎng)度與角度,將輪廓拆分為多條直線。
(4)利用“微元特征分析法”提取精確直線特征。
由于目前主流的機(jī)載LiDAR硬件所采集的點(diǎn)云空間分辨率不高,并非所用邊緣點(diǎn)都正好落在屋頂邊緣,同時(shí)考慮到建筑物點(diǎn)識(shí)別(特別是邊緣點(diǎn))可能存在誤差等原因,初步提取的建筑物輪廓通常不是嚴(yán)格分布在實(shí)際建筑物邊界,規(guī)則化后的邊緣線可能會(huì)向建筑物內(nèi)部收縮不超過點(diǎn)間距0.5倍的距離[22]。由于LiDAR的掃描特性,航線兩側(cè)特征線偏移的方向不一致,內(nèi)縮誤差在平差運(yùn)算中可能得到一定的消減,文獻(xiàn)[22]提出為控制點(diǎn)設(shè)定相應(yīng)的精度(權(quán)值),計(jì)點(diǎn)云高程精度為控制點(diǎn)高程精度,計(jì)0.5個(gè)點(diǎn)間距與點(diǎn)云平面精度之和為平面精度,然后代入平差方程求最優(yōu)解。該方法難以完全消除建筑物邊緣的內(nèi)縮誤差。
本文利用LiDAR的掃描特性,通過“微元特征分析法”對(duì)精化一部分邊緣線。其理論為:當(dāng)掃描角大于一定的閾值時(shí)(如圖2(a)所示),激光光束打到建筑物墻立面形成點(diǎn)云,利用概略邊緣線及其在地面上的投影組成一個(gè)特征立面V,該特征平面沿其法線方向的微小移動(dòng)即為V在該特征上的微小變量(本文dv取點(diǎn)間距的0.6倍,如圖2(b)),定義為“微元特征”。統(tǒng)計(jì)“微元特征”內(nèi)點(diǎn)的個(gè)數(shù)是否達(dá)到給定的閾值,若滿足,則利用最小二乘原理擬合墻立面,然后以墻立面的水平位置為約束獲取精化的邊緣直線。具體步驟如下:
(1)遍歷初始邊緣線,搜索每條直線的“微元特征”。
(2)統(tǒng)計(jì)微小立面的點(diǎn)云個(gè)數(shù),并計(jì)算出微元內(nèi)的點(diǎn)密度。
(3)若點(diǎn)密度大于閾值,根據(jù)最小二乘原理擬合墻立面,以墻立面與建筑物頂面的交線為約束條件精化邊緣線;反之,轉(zhuǎn)到(1)。
(4)遍歷所有的邊緣線,提取精化后的直線為特征線。
圖2 基于LiDAR點(diǎn)云的直線特征提取Fig.2 Linear features extraction based on LiDAR point clouds
建筑物是否存在立面點(diǎn)、立面點(diǎn)數(shù)量的多少與建筑物的高度、朝向、飛機(jī)的高度、飛行方向等眾多因素相關(guān)。LiDAR工程中,視場(chǎng)角一般在50°左右,即掃描角在-25°和+25°之間。試驗(yàn)發(fā)現(xiàn),當(dāng)掃描角絕對(duì)值大于5°時(shí),除特別小、密集的建筑(如棚屋區(qū))外,大部分建筑物至少有一個(gè)墻立面存在點(diǎn)云。因此,在城市地區(qū)利用“微元特征分析法”得到的精確特征線,可以覆蓋大部分區(qū)域,滿足精配準(zhǔn)的要求。當(dāng)精確提取的特征線分布不足時(shí),可參考文獻(xiàn)[21]的方案,將其他特征線賦以較小的權(quán)重,代入平差方程獲得最優(yōu)解。
3.2 航空影像的線特征提取
基于點(diǎn)云提取的線特征精度稍差但完整性好,基于影像提取的邊緣能準(zhǔn)確覆蓋建筑物內(nèi)外邊緣像素,但是比較破碎。本文采用LSD法提取特征直線[23],與傳統(tǒng)的Canny算子結(jié)合Hough變換提取直線的方法相比,漏檢現(xiàn)象少,完整性也較好。同時(shí),為了提高自動(dòng)匹配算法的運(yùn)行效率,通過計(jì)算線段的長(zhǎng)度、長(zhǎng)度比、角度、端點(diǎn)間距離、線段間法向距離等參數(shù),對(duì)基于影像提取的特征線進(jìn)行優(yōu)化。具體可分下述幾種情況:
(1)如圖3(a)所示的輪廓ABCD,通過角度閾值和長(zhǎng)度閾值,切割成AB、BC、CD3條線段。
(2)如圖3(b)的輪廓ABCDE,簡(jiǎn)化成選段AE。
(3)若一條明顯的線段被分割成幾條短小線段,如圖3(c)所示,線段AB、CD、EF可以合并為線段AF。
(4)若多條線段平行且線段間距離非常相近,如圖3(d)所示,選段AB、CD可以合并為線段A′B′。
圖3 基于影像提取的直線特征Fig.3 The linear features extracted by images
為了滿足共面條件,將基于LiDAR點(diǎn)云提取的特征線沿著Z軸投影到點(diǎn)云強(qiáng)度影像上,利用L1={q1,q2,…,qn}表示其集合,通過L2={p1,p2,…,pm}表示基于粗匹配后的航空影像提取的直線段集合,C={c1,c2,…,ck}表示匹配點(diǎn)對(duì)的集合,其中cm={(ai,bj),0≤m≤k}。本文中的直線通過系數(shù)矩陣表示,如直線Ax+By+C=0,表示為[A B C]T。
如圖4所示,特征線q位于點(diǎn)云空間,特征線p是q在航空影像上的匹配直線,由于粗匹配后的航空影像已被近似地投影到點(diǎn)云空間,大部分誤差已消除,同時(shí)一組匹配特征線對(duì)所涉及的范圍較小,可以假設(shè)它們之間只存在微小的角度差異和尺度差異,線對(duì)之間的關(guān)系可以通過式(1)表示
式中,H表示變換矩陣;s表示比例因子,其大小由H和p決定。
圖4 局部范圍點(diǎn)線之間的對(duì)應(yīng)關(guān)系Fig.4 The corresponding relation between points and lines in local area
式(5)的物理意義是:當(dāng)兩個(gè)特征點(diǎn)距離特征直線足夠近時(shí),特征點(diǎn)與特征直線之間的距離比相等,即滿足相似不變性。利用該特性,即可通過匹配點(diǎn)對(duì)搜索匹配的直線對(duì)。本文以點(diǎn)云空間的特征線q為例,介紹自動(dòng)匹配的步驟:
(1)以特征線q的法線方向α·L(q)和與直線平行方向的β·L(q)為界設(shè)置搜索區(qū)域(如圖5所示,本文α、β各取2),找出搜索區(qū)域內(nèi)所有的匹配點(diǎn)對(duì),以及影像空間中與該區(qū)域有交集的全部“待匹配特征線”ΔP={Δp1,Δp2,…,Δpn}。
圖5 搜索范圍Fig.5 Search range
(2)通過式(6)計(jì)算q與每條“待匹配直線”的相似性Sim(q,Δp),由式(6)可知,當(dāng)Δp與q相匹配且參與計(jì)算的兩個(gè)匹配點(diǎn)對(duì)也沒有錯(cuò)配時(shí),Sim(q,Δp)≈1。
(3)為了盡可能地消除粗匹配中錯(cuò)匹配點(diǎn)的影響,本文針對(duì)每條“疑似匹配直線”Δp,與搜索區(qū)域內(nèi)所有的匹配點(diǎn)對(duì)一起,計(jì)算所有的相似性測(cè)度值,然后取最大值max Sim(q)作為相似性測(cè)度依據(jù)
(4)重復(fù)(1)—(3),直到搜索出所有的匹配直線對(duì)。
(5)本文提取建筑物邊緣直線為線配準(zhǔn)基元,因此有大量的平行線段存在,假設(shè)c1、c2為平行的特征線附近的匹配點(diǎn)對(duì),當(dāng)c1、c2組成的“線段”與線特征平行時(shí),僅僅通過max Sim(q)進(jìn)行判斷邏輯不夠嚴(yán)密,容易造成錯(cuò)判。為了增強(qiáng)算法的抗差性,引入直線之間的距離作為輔助的相似性測(cè)度參數(shù)。直線距離定義如圖6所示:q為點(diǎn)云空間的特征線;Δp為影像空間的特征線在點(diǎn)云空間的投影直線;O為Δp的中點(diǎn),取O一定距離(本文取2.5 m)的端點(diǎn)A、B,A到q的距離為d1,B到q的距離為d2,則q與Δp的距離為
(6)引入長(zhǎng)度比和角度差作為測(cè)度依據(jù)。理論上,同名特征線長(zhǎng)度基本一致,考慮到基于影像提取的直線完整性不如基于點(diǎn)云提取的直線,本文限定點(diǎn)云特征線與影像特征線長(zhǎng)度比是1~ 3倍;特征線之間的夾角也可以起到有效的濾除效果,通過設(shè)定夾角閾值15°,可快速去除大部分不匹配的直線段。在(3)之前,通過(5)、(6)進(jìn)行明顯的非匹配直線濾除,可有效提高匹配效率。
圖6 直線段之間的距離Fig.6 Distance between two straight line-segments
共線方程是攝影測(cè)量中的基本方程,其實(shí)質(zhì)是二維影像坐標(biāo)和三維物方坐標(biāo)之間的轉(zhuǎn)化關(guān)系。如果在影像空間特征線p上任取一點(diǎn)α,可以確定α在LiDAR點(diǎn)云空間的同名點(diǎn)β在p的匹配特征線q上,通過特征線端點(diǎn)A、B的坐標(biāo)并引入輔助參數(shù)λ可精確表示β的坐標(biāo),如式(9)所示
將上述關(guān)系代入原始的共線方程,得到擴(kuò)展的共線方程模型(10),通過該模型實(shí)現(xiàn)航空影像與LiDAR點(diǎn)云的精配準(zhǔn)
通過最小二乘平差迭代使得點(diǎn)云空間每條直線表示的空間點(diǎn)不斷接近真值,最后同時(shí)解算出航空影像外方位元素以及輔助參數(shù)λ,實(shí)現(xiàn)精確配準(zhǔn),當(dāng)初始外方位元素未知時(shí),可利用該思路擴(kuò)展多項(xiàng)式模型等其他配準(zhǔn)模型實(shí)現(xiàn)精配準(zhǔn)。
為了驗(yàn)證本文算法的實(shí)際效果,采用長(zhǎng)春某地區(qū)的航空影像與LiDAR點(diǎn)云試驗(yàn)(如圖7所示),測(cè)區(qū)人工地物豐富,分布合理,典型性較高。其中,LiDAR點(diǎn)云平均點(diǎn)間距約0.7 m,高程精度約0.15 m,水平精度約0.4 m。相機(jī)的CCD像元大小為0.006 8 mm,焦距60 mm,航高約1500 m,地面分辨率約0.2 m。其中,粗配準(zhǔn)的結(jié)果如表1所示,基于點(diǎn)云提取的匹配點(diǎn)和特征線(精化后)的分布如圖8所示,粗配準(zhǔn)后的點(diǎn)云與影像疊加效果如圖9所示。
表1 基于SIFT算法的匹配(RANSAC算法消除配錯(cuò)點(diǎn)后)Tab.1 Matching based on SIFT algorithm(mismatched points are eliminated the by RANSAC)
圖7 試驗(yàn)數(shù)據(jù)Fig.7 Experimental data
圖8 基于點(diǎn)云提取的匹配點(diǎn)以及特征線的分布Fig.8 The distribution of Match points and feature lines extracted by LiDAR point clouds
圖9 粗配準(zhǔn)后的點(diǎn)云與航空影像疊加(局部)Fig.9 The superposition of aerial images with LiDAR point clouds in local area
由表1可知:①由于距離影像與航空影像紋理差異太大,錯(cuò)匹配率過高,匹配結(jié)果不具備實(shí)用性;②點(diǎn)云強(qiáng)度影像能取得較好的匹配效果,可能是機(jī)載LiDAR所采用的激光屬于紅外波段而光學(xué)影像屬于可見光波段的緣故,將強(qiáng)度值取反再與光學(xué)影像進(jìn)行匹配,獲取的匹配點(diǎn)數(shù)量更多、可靠性更高;③盡管試驗(yàn)中采取RANSAC算法進(jìn)行了去噪,但無論采用哪種數(shù)據(jù),都難以避免較大的錯(cuò)配率。
由圖8、圖9可知:①特征線分布比較均勻,分布密度與人工建筑的分布呈近似的正相關(guān)關(guān)系;②每條特征線周圍有一定數(shù)量的匹配點(diǎn)集,基本保證相似不變性的判斷條件;③粗匹配后的影像已經(jīng)近似投影到點(diǎn)云空間,但是通過圖9發(fā)現(xiàn),屋頂面沒有完全套合,尚存在一定的偏差。
為了對(duì)比精配準(zhǔn)和粗配準(zhǔn)之間的差別,分別截取幾個(gè)不同角落的點(diǎn)云,與通過精配準(zhǔn)模型轉(zhuǎn)化后的正射影像疊加,如圖10所示。上邊是基于SIFT算法的粗配準(zhǔn)結(jié)果,下面為精細(xì)配準(zhǔn)后的結(jié)果,從圖中可以看出,上面的點(diǎn)云與影像位置存在著較明顯的錯(cuò)位,精配準(zhǔn)后影像與點(diǎn)云的套合度均得到一定程度的改善。
圖10 精配準(zhǔn)前后的效果對(duì)比Fig.10 Comparison before and after precise registration
由于點(diǎn)云的特殊性,傳統(tǒng)光學(xué)影像之間的配準(zhǔn)精度評(píng)價(jià)方法(相關(guān)系數(shù)、互信息等),不適用于影像與LiDAR點(diǎn)云的配準(zhǔn)精度的精確評(píng)價(jià)。本文利用線特征作為配準(zhǔn)精度的評(píng)價(jià)依據(jù)。試驗(yàn)中,分別在點(diǎn)云和影像的9個(gè)角落人工勾畫9條同名直線作為“檢查線”,然后將影像空間的“檢查線”投影到點(diǎn)云空間,利用式(8)計(jì)算兩者的距離作為殘差值。表2列出了粗配準(zhǔn)與精配準(zhǔn)各個(gè)檢查線的殘差以及殘差平均值與中誤差。
表2 基于“檢查線”的殘差統(tǒng)計(jì)Tab.2 Statistics of residuals based on“check lines”m
由表2可得,精配準(zhǔn)后平均誤差、中誤差分別由粗配準(zhǔn)后的0.92 m、0.41 m、0.23 m減少到0.42 m、0.23 m、0.11 m,配準(zhǔn)精度得到了較明顯的提高。鑒于試驗(yàn)LiDAR數(shù)據(jù)的點(diǎn)間距約為0.7 m,高程精度約0.15 m,影像的地面分辨率約為0.2 m,可知本文提出的配準(zhǔn)算法已達(dá)到較理想的精度。
本文提出的自動(dòng)配準(zhǔn)算法的創(chuàng)新點(diǎn)有:①提出“微元特征分析法”,利用LiDAR的掃描特征,解決基于LiDAR點(diǎn)云提取建筑物頂邊緣精確度不足的問題;②通過局部區(qū)域中點(diǎn)特征與線特征的相似不變性原理,利用粗匹配的點(diǎn)對(duì)搜索匹配直線對(duì),有效結(jié)合基于點(diǎn)特征的粗匹配和基于線特征的精匹配各自的優(yōu)點(diǎn),保證配準(zhǔn)精度的同時(shí)提升算法自動(dòng)化程度。
試驗(yàn)證明,該方法在城市地區(qū)能夠以較高的自動(dòng)化程度取得較理想的配準(zhǔn)結(jié)果。在直線特征稀少的山區(qū)、郊區(qū),如何結(jié)合點(diǎn)特征和曲線特征實(shí)現(xiàn)航空影像與LiDAR點(diǎn)云的自動(dòng)配準(zhǔn),需要進(jìn)一步研究。另外,不同的影像分辨率和點(diǎn)云密度會(huì)影響特征提取的精度和密度,進(jìn)而影響自動(dòng)匹配的效果,兩者的尺度關(guān)系對(duì)配準(zhǔn)精度的影響,需要更豐富的試驗(yàn)去驗(yàn)證。
[1] AXELSSON P.Processing of Laser Scanner Data-algorithms and Applications[J].ISPRS Journal of Photogrammetry and Remote Sensing,1999,54(2-3):138-147.
[2] BALTSAVIAS E.A Comparison between Photogrammetry and Laser Scanning[J].ISPRSJournal of Photogrammetry and Remote Sensing,1999,54(2-3):83-94.
[3] SMITH M,ASAL F F F,PRIESTNALL G.The Use of Photogrammetry and LiDAR for Landscape Roughness Estimation in Hydrodynamic Studies[C]∥International Archives of Photogrammetry,Remot Sensing and Spatial Information Sciences.Netherlands:[s.n.],2004:714-719.
[4] CHEN Zhuo,MA Hongchao.Automatic Extracting and Modeling Approach of City Cloverleaf from Airborne LiDAR Data[J].Acta Geodaetica et Cartographica Sinica, 2012,41(2):252-258.(陳卓,馬洪超.基于機(jī)載LiDAR數(shù)據(jù)的大型立交橋自動(dòng)提取與建模方法[J].測(cè)繪學(xué)報(bào), 2012,41(2):252-258.)
[5] LI Yijing,HU Xiangyun,ZHANG Jianqing,et al.Automatic Road Extraction in Complex Scenes Based on Information Fusion from LiDAR Data and Remote Sensing Imagery [J].Acta Geodaetica et Cartographica Sinica,2012,41 (6):870-876.(李怡靜,胡翔云,張劍清,等.影像與LiDAR數(shù)據(jù)信息融合復(fù)雜場(chǎng)景下的道路自動(dòng)提取[J].測(cè)繪學(xué)報(bào),2012,41(6):870-876.)
[6] CHENG Liang,GONGJianya,LI Manchun,et al.3D Building Model Reconstruction from Multi-view Aerial Images and LiDAR Data[J].Acta Geodaetica et Cartographica Sinica, 2009,38(6):494-501.(程亮,龔健雅,李滿春,等.集成多視航空影像與LiDAR數(shù)據(jù)重建3維建筑物模型[J].測(cè)繪學(xué)報(bào),2009,38(6):494-501.)
[7] MISHRA R,ZHANG Y.A Review of Optical Imagery and Airborne LiDAR Data Registration Methods[J].The Open Remote Sensing Journal,2012(5):54-63.
[8] MOHD D N,MAAROF I,LATIF Z A,et al.LiDAR:A Review on Generating Digital True Orthophoto[C]∥IEEE 7th International Colloquium on Signal Processing and Its Applications.Penang:[s.n.],2011:336-340.
[9] HARRISON J W,ILES P J W,FERRIE F P,et al.Tessellation of Ground-based LiDAR Data for ICP Registration[C]∥Proceedings of the Fifth Canadian Conference on Computer and Robot Vision.Windsor:[s.n.],2008: 345-351.
[10] TEO T A,HUANG S H.Automatic Co-Registration of Optical Satellite Images and Airborne Lidar Data UsingRelative and Absolute Orientations[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2013,6(5):2229-2237.
[11] MASTIN A,KEPNER J.Automatic Registration of LiDAR and Optical Images of Urban Scenes[C]∥IEEE Conference on Computer Vision and Pattern Recognition.Cambridge:[s.n.],2009:2639-2646.
[12] ABEDINIA A,HAHNB M,SAMADZADEGAN F.An Investigation into the Registration of LiDAR Intensity Data and Aerial Images Using the SIFT Approach[C]∥The Internation Archives of the Photogrammetry,Remote Sensing and Spatial Information Sciences.Beijing:[s.n.], 2008:169-176.
[13] WONG A,ORCHARD J.Efficient FFT-Accelerated Approach to Invariant Optical-LiDAR Registration[J].Geoscience &Remote Sensing,2008,46(11):17-25.
[14] ZHONG Cheng,LI Hui,HUANG Xianfeng,et al.Automatic Registration of LiDAR Data and Aerial Image Based on a 6-Tuples Relaxation[J].Geomatics and Information Science of Wuhan University,2009(12):1426-1430.(鐘成,李卉,黃先鋒,等.利用6元組松弛法自動(dòng)配準(zhǔn)LiDAR數(shù)據(jù)與航空影像[J].武漢大學(xué)學(xué)報(bào):信息科學(xué)版, 2009(12):1426-1430.)
[15] HABIB A,GHANMA M,MORGAN M,et al.Photogrammetric and LiDAR Data Registration Using Linear Features[J].Photogrammetric Engineering and Remote Sensing,2005,71(6):699-707.
[16] HABIB A,SHIN S,KIM C,et al.Integration of Photogrammetric and LiDAR Data in a Multi-primitive Triangulation Environment[J].Lecture Notes in Geoinformation and Cartography,2006:29-45.
[17] MA Hongchao,YAO Chunjing,WU Jianwei.Registration of LiDAR Point Clouds and High Resolution Images Based on Linear Features[J].Geomatics and Information Science of Wuhan University,2012,37(2):136-141.(馬洪超,姚春靜,鄔建偉.基于線特征的LiDAR點(diǎn)云數(shù)據(jù)與航空影像的配準(zhǔn)[J].武漢大學(xué)學(xué)報(bào):信息科學(xué)版,2012,37(2): 136-141.)
[18] LEE J,HAN S,BYUN Y,et al.Extraction and Regularization of Various Building Boundaries with Complex Shapes Utilizing Distribution Characteristics of Airborne LiDAR Points[J].ETRI Journal,2011,33(4):547-557.
[19] SUI Lichun,YANG Yun.Filtering of Airborne LiDAR Point Cloud Data Based on car(p,q)Model and Mathematical Morphology[J].Acta Geodaetica et Cartographica Sinica,2012,41(2):219-224.(隋立春,楊耘.基于car(p, q)模型和數(shù)學(xué)形態(tài)學(xué)理論的LiDAR點(diǎn)云數(shù)據(jù)濾波[J].測(cè)繪學(xué)報(bào),2012,41(2):219-224.)
[20] SHEN Wei,LI Jing,CHEN Yunhao,et al Algorithms Study of Building Boundary Extraction and Normalization Based on LiDAR Data[J].Journal of Remote Sensing, 2008(5):692-698.(沈蔚,李京,陳云浩等.基于LIDAR數(shù)據(jù)的建筑輪廓線提取及規(guī)則化算法研究[J].遙感學(xué)報(bào), 2008(5):692-698.)
[21] ZHAO Z,SAALFELD A.Linear-time Sleeve-fitting Polyline Simplification Algorithms[C]∥Proceedings of AutoCarto.Seattle:[s.n.],1997:214-223.
[22] ZHANG Yongjun,XIONG Xiaodong,SHEN Xiang.Automatic Registration of Urban Aerial Imagery with Airborne LiDAR Data[J].Journal of Remote Sensing,2012,16 (3):579-595.(張永軍,熊小東,沈翔.城區(qū)機(jī)載LiDAR數(shù)據(jù)與航空影像的自動(dòng)配準(zhǔn)[J].遙感學(xué)報(bào),2012,16(3): 579-595.)
[23] VON GIOI R G,JAKUBOWICZ J,MOREL J M,et al.LSD: A Fast Line Segment Detector with a False Detection Control[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(4):722-732.
(責(zé)任編輯:陳品馨)
Automatic Registration of Urban Aerial Images with Airborne LiDAR Points Based on Line-point Similarity Invariants
ZHANG Liang1,MA Hongchao1,2,GAO Guang1,CHEN Zhuo1,3
1.School of Remote Sensing and Information Engineering,Wuhan University,Wuhan 430079,China;2.State Key Laboratory for Information Engineering in Surveying,Mapping and Remote Sensing,Wuhan University,Wuhan 430079, China;3.Shanghai Institute of Technical Physics,Chinese Academy of Sciences,Shanghai 200083,China
A novel algorithm for automatic registration of urban aerial images with airborne light detection and ranging(LiDAR)data sets was proposed.First of all,a coarse registration step was applied by the SIFT operator and in the meanwhile,straight line features were extracted from images and LiDAR point clouds respectively.And then,matched points were utilized to search matched lines via line-point similarity invariants in local areas.Finally,direct registration function model of 2D images and 3D LiDAR points based on line features was applied to achieve accurate registration.The main advantage of the proposed algorithm was that the coarse-to-fine matching strategy was adopted,which effectively combines traditional registration method based on LiDAR intensity images and the algorithm on the basis of line feature registration model,and thus an accurate registration result under a high degree of automation was implemented.The experimental result shows that this algorithm can achieve more accurate results in urban areas comparing with the algorithms on the basis of LiDAR intensity images.
automatic registration;LiDAR;SIFT;similarity invariants
ZHANG Liang(1986—),male,PhD candidate,majors in LiDAR data processing and application.
MA Hongchao
P237
A
1001-1595(2014)04-0372-08
2013-04-12
張良(1986—),男,博士生,研究方向?yàn)闄C(jī)載LiDAR數(shù)據(jù)處理與應(yīng)用。
E-mail:zhangliang19860711@163.com
馬洪超
E-mail:hchma@whu.edu.cn
ZHANG Liang,MA Hongchao,GAO Guang,et al.Automatic Registration of Urban Aerial Images with Airborne LiDAR Points Based on Line-point Similarity Invariants[J].Acta Geodaetica et Cartographica Sinica,2014,43(4):372-379.(張良,馬洪超,高廣,等.點(diǎn)、線相似不變性的城區(qū)航空影像與機(jī)載激光雷達(dá)點(diǎn)云自動(dòng)配準(zhǔn)[J].測(cè)繪學(xué)報(bào),2014,43(4):372-379.)
10.13485/j.cnki.11-2089.2014.0056
國(guó)家973計(jì)劃(2009CB72400401C);科技支撐課題(2012BAH34B02);武漢大學(xué)研究生自主科研項(xiàng)目(2012213020203;2012213020209)
修回日期:2013-11-07