張 帆,高云龍,黃先鋒,尹若捷,張志超,朱宜萱
1.武漢大學測繪遙感信息工程國家重點實驗室,湖北 武漢430079;2.武漢大學遙感信息工程學院,湖北武漢430079
地面激光掃描(terrestrial laser scanning)系統(tǒng)能夠快速獲取目標表面精確而密集的點集,是一種高效的數據獲取模式。激光掃描數據由密集而離散的三維點構成,又被稱作激光點云。三維激光點云的直線段提取是數據配準、對象識別和三維重建方法的基礎步驟。然而,目前較成熟的直線提取方法,如霍夫變換、啟發(fā)式連接、層次記號編組等[1]都只適用于二維圖像,無法直接應用于三維激光點云的直線段提取。
三維激光點云的直線提取,有兩大類方法:直接法和降維法。直接法是在點云數據三維計算和分析的基礎上提取直線,最常見的是平面相交法[2-3]。常見的直接法之一是將三維點云分割為不同的平面,擬合平面參數,通過相鄰且有一定夾角的平面相交提取直線。此方法提取直線精度較高,在機載點云的建筑物重建中應用較多,但因地面激光掃描數據分辨率高、鄰接關系復雜,該方法往往需要大量人工交互操作。另一類常見的直接法首先構建三維激光點云之間的鄰接關系或將點云擬合為參數表面,然后通過鄰近點或參數表面形成的面狀特征進行直線或曲線的提?。?-6]。這類方法適用于小型零件結構特征的精確提取,在逆向工程和計算機輔助設計方面應用廣泛,但復雜場景地面激光點云擬合表面本身就是一個較復雜的問題,因而,此類方法適用性較差。
地面激光點云數據量大、缺乏拓撲鄰接關系,直接法的三維計算需要消耗非常多的計算資源。因此,許多研究者提出將三維點云降維處理后進行特征檢測和直線提取,將三維激光掃描數據按掃描線進行分解,每條掃描線就是一個二維點集,以減少計算量。這類降維法大多用于面片提?。?-8]或移動機器人導航[9-11],無法提取整站地面激光點云中的直線特征。另一類常用的降維法是投影法,將點云以平行投影[12-15]或中心投影[16-18]的方式投影到對應的光學圖像上,利用圖像處理的方法檢測特征并提取直線段,再將二維圖像的直線段提取結果反投影到三維空間獲得三維直線段提取結果。這類方法在處理機載點云數據和地面激光掃描視場角較小的情況下能得到較好的結果,但激光掃描視場角較大(如超過180°)或場景較復雜時,通過這些投影方式必然會造成點的重疊或遮擋等問題,從而導致信息缺失或提取錯誤。更重要的是,這種投影很難保證點云中的三維點與投影后的二維點一一對應,因而,在反投影過程中容易出現錯誤。
為了克服投影法在投影過程中的重疊或遮擋等問題,文獻[19]將單站激光點云投影到以激光中心為球心的球面上進行分析計算從而構建三角網。因此,本文選擇這種球面投影的方法將單站激光掃描數據進行投影,并利用球面霍夫變換方法[20]提取球面投影后的三維直線段特征,最后利用穩(wěn)健的三維空間直線擬合方法計算激光點云中的三維直線段。
基于球面投影的單站地面激光掃描數據直線段提取方法流程如圖1所示,大體上分為球面投影、邊緣檢測、球面霍夫變換及三維直線擬合4個步驟:
(1)球面投影。將單站激光掃描數據進行球面投影,計算每個激光點對應球面坐標的兩個角度值,并利用這兩個角度值和激光點云強度信息生成全景圖,由于單站激光掃描角度間隔固定,所以全景圖的像素與點云中的激光點一一對應。
(2)邊緣檢測。利用數字圖像邊緣檢測方法對全景圖進行邊緣檢測,獲得全景圖上的邊緣點,這些邊緣點包含了組成直線段的特征點。
(3)球面霍夫變換。由于三維空間中的直線段經過球面投影后成為球面大圓的弧,球面霍夫變換在二維球面坐標空間中檢測邊緣點中的大圓,即可提取三維空間中的直線段特征點。
(4)三維直線擬合。由于投影及邊緣檢測帶來的錯誤,球面霍夫變換檢測的大圓可能包含錯誤點,利用穩(wěn)健的三維直線擬合方法剔除粗差,并擬合出精確的三維直線段,完成三維直線段提取。
本節(jié)將對算法涉及的理論和實施步驟進行詳細描述。
圖1 球面投影直線段提取方法流程Fig.1 Flow chart of proposed method
地面激光掃描儀的掃描方式是底座水平放置,激光脈沖發(fā)射方向隨著掃描頭在垂直方向上下擺動或連續(xù)轉動,同時掃描底座在水平方向緩慢自轉,掃描儀通過記錄激光脈沖的方向和經目標表面反射后返回的時間(或相位差)來計算目標表面三維坐標。因此,可將單站激光掃描數據中的掃描點無重疊的投影到以激光發(fā)射中心點為球心的球面上,通過由三維球坐標系降維簡化的二維球面坐標系來描述激光掃描數據。
球坐標系是利用球坐標(r,θ,φ)表示一個點P空間位置的三維正交坐標系[21]。圖2示意了球坐標的幾何意義:原點與點P之間的徑向距離r,原點到點P的連線與正Z軸之間的天頂角θ,以及原點到點P的連線在XOY平面的投影線MO與X軸之間的方位角φ。本文定義的球面坐標系是設徑向距離r為單位常量1的球坐標系,即,將三維球坐標系(r,θ,φ)簡化為二維球面坐標系(θ,φ)。
圖2 球坐標系Fig.2 Spherical coordinates
記空間中的一點P的三維坐標為(X,Y,Z),該點投影到半徑為1的單位球面后的點p的球面坐標為(φ,θ)、三維坐標為(x,y,z),則有
式中,φ和θ即為獲取該點時激光脈沖的水平角和垂直角。因單站激光掃描中,激光器水平和垂直方向的角分辨率是固定的,則點云在球坐標系下的φ和θ的間隔也是固定的,因此,對投影后的點云可以用二維柵格進行索引,某一點在柵格中的二維坐標由φ和θ確定。柵格中存放的是點云的三維坐標、深度和強度等信息,每個三維激光點都有唯一的二維柵格與之對應[22]。
如果將二維柵格表示為圖像,則該圖像為全景圖,圖像的像素灰度值可由其對應點云的深度或強度等信息決定。圖3用不同方式表現了單站地面激光掃描數據,像素的灰度值由點云回波強度決定。圖3(a)為點云的三維透視圖,其經過球面投影后如圖3(b)所示,將其展開為全景圖如圖3(c)所示。
圖3 按強度賦色的激光點云不同表現形式的圖像Fig.3 Different view types of point cloud colored according to intensity
點云的深度是被測點與掃描儀中心的距離,強度表示激光腳點經由目標表面反射后激光器接收激光信號的強弱。通常情況下,深度的階躍會導致強度的階躍變化。除此之外,顏色、材質、角度的變化也會導致強度的變化,因此,許多深度變化不明顯的地方,如建筑物的拐角處、不同顏色的裝飾處等在強度中的變化十分明顯。可見,強度包含了十分豐富的信息,利于激光掃描數據的分析與計算,本文選取由強度信息生成的全景圖進行進一步的特征提取。
全景圖與普通圖像一樣,可以用圖像處理的方法進行邊緣提取。Edison算子[23]將像素的嵌入置信度貫穿到Canny算子中,滿足最佳邊緣提取算子的3個準則:高信噪比、精確定位和單邊緣響應[24]。因此,本文選用了Edison算子進行邊緣檢測。
對圖3(c)的強度全景圖邊緣檢測結果如圖4所示。可以看出,利用Edison算子可以較好地檢測出強度全景圖中的邊緣特征。然而,三維空間中的直線在球面投影與展開后的全景圖中變成了曲線,無法用傳統(tǒng)霍夫變換提取這些直線。由立體幾何知識可知,三維空間中的直線段投影到球面上是一個大圓弧,而球面上大圓的軌跡可以用一系列的球面坐標(θi,φi)表示,而且這些二維坐標也能在球面坐標φ-θ空間中累積形成峰值。文獻[20]利用球面霍夫變換準確估計三維點云中圓柱的方向,基于類似原理,本文利用球面霍夫變換檢測球面空間的大圓。
圖4 強度全景圖的邊緣檢測結果Fig.4 Edge detection results of intensity panoramic image
球面上某一點Pi(θi,φi),記其對應的三維空間坐標為(xi,yi,zi),由式(2)可知
由立體幾何知識可知,一個球有且僅有一條直徑與球面上某一已知圓垂直,球面三角中將這條垂直直徑的兩個端點定義為該已知圓的極。因此,球面上一個大圓有且僅有兩個極,反之,以球面上一個點為極的大圓也是唯一的。
由極的定義可知,以Pi為極的大圓所在的平面垂直于線段OPi(O為球心),即該平面的法向為(xi,yi,zi),且該平面過原點,則該平面方程為
將式(4)代入式(5)得該平面與球面相交形成的大圓(即以Pi為極的大圓)的三維直角坐標系方程為
將式(2)代入式(6)可得該大圓的球面坐標系方程為
由極的定義可得到以下兩個有關極和大圓之間關系的推論,推論和證明如下:
推論1:經過球面上某一已知點的所有大圓的極形成的軌跡是球面上以該已知點為極的大圓。
證明:如圖5(a)所示,球面上某一已知點M,記經過點M的大圓直徑的另一端點為M′,那么經過點M的所有大圓Ci都會以MM′為直徑。根據極的定義,大圓Ci的極Ni和Ni′的連線NiNi′是與大圓Ci垂直的直徑,顯然直徑NiN′i垂直于直徑MM′。由此推斷,所有的點Ni和點N′i都在過圓心且垂直于直徑MM′的平面與球面的交線上,即為一個大圓,且該大圓的極為M和M′。
推論2:以球面上某一已知大圓上的所有點為極的大圓交匯于該已知大圓的極。
證明:如圖5(b)所示,記已知大圓C上的任一點為Mi,過Mi的大圓直徑的另一端點為M′i,過圓心且與直徑MiM′i垂直的平面與球面相交的大圓為Ci。由極的定義可知,大圓Ci的極為Mi和M′i。由于大圓Ci與大圓C的直徑MiM′i垂直,所以大圓Ci與大圓C垂直。記大圓C的極為P和P′,由于大圓Ci和直徑PP′均與大圓C垂直,且均過圓心O,因此,直徑PP′與大圓Ci共面,即球面上所有大圓Ci都交匯于點P和P′。
圖5 球面上極和大圓的關系Fig.5 Relationships between spherical poles and great circles
由上述推論可知,球面上一個點有且僅有唯一的大圓以該點為極,本文稱該大圓為“該點對應的大圓”。同時,由式(7)可知大圓軌跡可以在一個有限的φ-θ二維空間表現為一條曲線。利用霍夫變換原理,如果將一段大圓弧上所有點對應的大圓軌跡在這個φ-θ二維參數空間進行累積,則φ-θ二維參數空間中在該大圓弧的兩個極會形成峰值,通過峰值的φ-θ坐標即可求得大圓方程。
為避免霍夫變換全局投票給較短的特征線段帶來漏檢測或檢測不準確的影響,本文采用局部霍夫變換[25]的方法進行大圓檢測:首先,將邊緣點按鄰接關系分成若干的邊緣組;再以邊緣組為單位進行球面霍夫變換,單獨解算某條邊緣中包含大圓的參數;最后按照大圓參數和端點距離合并大圓弧段。
圖6為圖4通過球面霍夫變換檢測大圓弧段的結果,這些大圓弧段即對應三維點云中的直線段特征點集。
圖6 球面霍夫變換直線段提取結果Fig.6 Spherical Hough transform results of straight line segment extraction
由于邊緣提取誤差、球面投影帶來的空間歧義以及激光掃描系統(tǒng)本身在邊緣處的噪聲,導致球面霍夫變換提取的三維點云直線段特征點中除了真正的直線段特征點外,往往還包含一些噪聲點。激光掃描數據中比較理想的是脊狀邊緣上的直線段特征,如圖7(a)所示,對其提取到的三維直線段特征點如圖7(b)所示,這類特征比較理想,無噪聲點。然而,激光掃描數據中還存在大量如圖7(c)所示的由階躍引起的邊緣,由于激光光斑有一定的大小,在邊緣處的激光點會包含一些噪聲,如圖7(d)所示;此外,如圖7(e)所示直線段邊緣處有植被等其他對象干擾時也會在三維直線段特征點中引入一些噪聲點,如圖7(f)所示。對于存在噪聲點的直線段特征點集,如果僅用最小二乘法無法準確解算三維空間的直線段參數,本文用RANSAC[26]的方法剔除直線段特征中的粗差點,穩(wěn)健的擬合三維直線。這種方法與文獻[16]中的類似,本文不再詳細討論。通過穩(wěn)健的三維直線擬合得到的最終直線段提取結果如圖8所示。
記單站激光點云中包含的激光點Pi的三維空間坐標為(Xi,Yi,Zi),歸一化強度值為Ii。該站激光掃描水平與垂直角度范圍為H和V,角分辨率為RH和RV。本方法實施步驟如下:
2.4.1 球面投影及三維點索引
根據(Xi,Yi,Zi),利用式(1)和式(3)計算每個點Pi的球面坐標(θi,φi)。
根據H、V、RH和RV利用式(8)計算球面投影后的二維柵格大小M×N。
根據θi、φi、RH和RV利用式(9)計算點Pi在二維柵格中的存放位置ri和ci,并將點Pi的三維空間坐標(Xi,Yi,Zi)及歸一化強度Ii存入ri行ci列的柵格中。
建立一張M×N的圖像,圖像像素值設置為柵格中對應位置激光點的強度Ii×255,生成強度全景圖,對應柵格中沒有激光點的像素(如天空等無回波對象)像素值設置為0。
2.4.2 邊緣檢測與球面霍夫變換
利用Edison算子對步驟(1)生成的強度全景圖進行邊緣檢測,利用8連通將檢測到的邊緣點分組,以組為單位進行球面霍夫變換。
球面φ-θ參數空間中,完整球面的參數范圍是φ∈[0,2π),θ∈[0,π)。球面霍夫變換是累積大圓極的軌跡,一個大圓對應的兩個極在球面呈中心對稱,因此,只需半球的參數空間φ∈[0,π),θ∈[0,π)即可。參數空間量化間距大小取角度分辨率,從而,累積矩陣大小為:π/RV行,π/RH列。
利用式(7)計算該組內每個邊緣點對應的大圓軌跡,并計入累積矩陣。累積完成后,選取累積峰值及其對應的邊緣點。
所有邊緣組大圓檢測完成后,按大圓參數排序,合并大圓參數相同且弧段端點在一定閾值內的大圓弧。
2.4.3 三維直線擬合
步驟(2)中檢測出的大圓弧對應的是全景圖上的一系列邊緣點,每個邊緣點對應二維柵格中存儲的一個三維激光點。取出每個大圓弧對應的一系列三維激光點,通過穩(wěn)健的三維直線擬合方法擬合三維直線方程,通過邊緣點的范圍計算三維直線段的兩個頂點,完成三維直線段提取。
本文選擇了建筑物室外和室內兩站地面激光掃描數據進行直線段提取試驗。試驗數據的采集儀器為Z+F Imager5006型三維激光掃描儀。該掃描儀25m處測距中誤差為1.5mm,試驗數據采集的水平角度范圍為360°,垂直角度范圍為310°,角分辨率為0.018°。
對建筑物室外場景的激光掃描數據已經在第2節(jié)的方法描述中進行了試驗說明,提取直線段結果如圖8所示,建筑物上的主要直線段特征都被正確提取,但仍存在一些特征被遺漏,以及少量樹上干擾特征的過檢測。
建筑物室內激光掃描試驗數據集及中間步驟結果如圖9所示。其中,圖9(a)為點云三維透視視圖,圖9(b)為球面投影后展開的強度全景圖,由于建筑物內部的主要直線段特征在掃描儀中構象的水平角度范圍大,因此,直線段特征呈現出更明顯的彎曲。利用Edison算子的邊緣提取結果如圖9(c)所示,邊緣檢測結果中除了場景的直線段特征外,還存在大量的干擾特征。通過球面霍夫變換大圓檢測后,得到的大圓弧中保留了大部分主要特征,剔除了大部分干擾特征,如圖9(d)所示。通過直線擬合后的三維直線段提取結果如圖10所示。建筑物內部的主要直線段特征都被正確提取。
以上室內和室外場景兩組試驗都驗證了本文提出的直線段提取方法的正確性,雖然本方法存在少量直線段特征的過檢測和漏檢測,但目前其他文獻的方法從理論上,都無法自動完成此類全站激光掃描數據的直線段提取。
本文首先選擇了商業(yè)軟件Geomagic Studio進行對比試驗,并在精度上與文獻[15,17]中的直線段提取方法進行比較。
商業(yè)軟件Geomagic Studio的直線段提取采用的是平面相交法,具體步驟為:首先自動將待提取點云構建三角網,然后在三角網中自動提取平面,再通過人工交互選取相鄰且有一定夾角的平面相交提取直線段,最后人工交互合并鄰近且共線的直線段。
Geomagic Studio對數據量的限制及其方法需要大量人機交互操作,因此,對比試驗選取室外場景的臺階部分進行,此部分數據直線段特征集中,適合試驗分析。Geomagic Studio與本文方法的直線段提取結果對比如圖11所示。
效率方面。Geomagic Studio提取直線段過程較復雜,且需大量人工交互操作,而本方法為自動提取,效率高于Geomagic Studio軟件。
直線段提取完整性方面。Geomagic Studio的直線段提取依賴于平面特征檢測的結果,平面檢測的遺漏會導致直線段檢測的遺漏及長度完整性不夠。由圖11的對比結果可知,本方法提取的直線段也存在遺漏,但在直線段的長度完整性方面優(yōu)于Geomagic Studio。
直線段提取精度方面。由激光掃描原理可知,激光掃描點云擬合的平面精度高,因而Geomagic Studio的平面相交法提取的直線段精度較高。本文統(tǒng)計本方法與Geomagic Studio提取的16條同名直線段之間的夾角和距離,對本方法提取直線段的精度進行間接驗證,統(tǒng)計結果如表1所示。從統(tǒng)計數據看,夾角平均值為0.153°,距離平均值為0.003 3m。本文方法的距離平均值大幅度優(yōu)于文獻[17]中的結合影像與點云自動直線特征提取方法結果的0.009 6m,同時,本方法與文獻[15]中的霍夫變換與最小二乘提取直線的誤差統(tǒng)計結果相比也有較大的優(yōu)勢。
本文提出了一種基于球面投影的單站三維激光點云直線段提取方法,其核心思路是將單站激光掃描數據進行球面投影,不僅能用二維的規(guī)則格網對三維激光掃描數據索引,簡化計算和分析,更能避免其他投影方法引起的重疊或遮擋等問題。而在以強度信息為依據生成的影像上進行計算,不僅能檢測出幾何的直線段特征,也能檢測出紋理的直線段特征。
如何有效融合包括深度、強度甚至可見光影像的數據進行更穩(wěn)健的直線段提取,彌補單一強度信息特征提取的不足,是本文進一步的研究方向。此外,將直線段提取結果用于數據配準、對象識別和三維建模等方面,也將是下一步的研究方向。
表1 Geomagic Studio與本方法提取的同名直線段之間的夾角與距離統(tǒng)計Tab.1 Statistics of the angles and distances between the corresponding straight line segments extracting from Geomagic Studio and the proposed method
圖7 幾種典型的直線邊緣及對應的三維直線段特征點集Fig.7 Several typical straight line edges and corresponding 3Dpoint sets
圖8 三維直線段提取結果Fig.8 Results of 3Dstraight line segment extraction
圖9 室內點云試驗數據及中間步驟結果Fig.9 The data set of indoor scene and the interim results
圖10 室內場景三維直線段提取結果Fig.10 Results of straight line segment extraction of indoor scene
圖11 Geomagic Studio與本方法的直接提取結果對比Fig.11 Comparison of straight line segment extraction results of Geomagic Studio and proposed method
[1]WEN Gongjian,WANG Runsheng.A Robust Approach to Extracting Straight Lines[J].Journal of Software,2001,12(11):1660-1666.(文貢堅,王潤生.一種穩(wěn)健的直線提取算法[J].軟件學報,2001,12(11):1660-1666.)
[2]HABIB A,GHANMA M,MORGAN M,et al.Photogrammetric and LiDAR Data Registration Using Linear Features[J].Photogrammetric Engineering and Remote Sensing,2005,71(6):699-707.
[3]HUANG Xianfeng.Research on 3DBuilding Model Extraction from Airborne LIDAR Data[D].Wuhan:Wuhan University,2006.(黃先鋒.利用機載LIDAR數據重建3D建筑物模型的關鍵技術研究[D].武漢:武漢大學,2006.)
[4]DANIELS J,HA L K,OCHOTTA T,et al.Robust Smooth Feature Extraction from Point Clouds[C]∥Proceedings of the IEEE International Conference on Shape Modeling and Applications.Lyon:IEEE,2007:123-136.
[5]MEHDI-SOUZANI C,DIGNE J,AUDFRAY N,et al.Feature Extraction from High-density Point Clouds:Toward Automation of an Intelligent 3DContactless Digitizing Strategy[J].Computer-aided Design and Applications,2010,7(6):863-874.
[6]WEBER C,HAHMANN S,HAGEN H.Methods for Feature Detection in Point Clouds[C]∥Visualization of Large and Unstructured Data Sets:Applications in Geospatial Planning,Modeling and Engineering.Bodega Bay,CA:Schloss Dagstuhl-Leibniz-Zentrum fuer Informatik,2011:90-99.
[7]SURMANN H,LINGEMANN K,NüCHTER A,et al.A 3DLaser Range Finder for Autonomous Mobile Robots[C]∥Proceedings of the 32nd International Symposium on Robotics.[S.l.]:ISR,2001:153-158.
[8]PAN Guorong,GU Chuan,WANG Suihui,et al.Research on Fitting Line Automatic Extraction Algorithm of 3D Laser Scanning[J].Journal of Geodesy and Geodynamics,2009,29(1):57-63.(潘國榮,谷川,王穗輝,等.三維激光掃描擬合直線自動提取算法研究[J].大地測量與地球動力學,2009,29(1):57-63.)
[9]FERNáNDEZ C,MORENO V,CURTO B,et al.Clustering and Line Detection in Laser Range Measurements[J].Robotics and Autonomous Systems,2010,58(5):720-726.
[10]MOVAFAGHPOUR M A,MASEHIAN E.Poly Line Map Extraction in Sensor-based Mobile Robot Navigation U-sing a Consecutive Clustering Algorithm[J].Robotics and Autonomous Systems,2012,60(8):1078-1092.
[11]NOROUZI M,YAGHOBI M,SIBONI M R,et al.Recursive Line Extraction Algorithm from 2DLaser Scanner Applied to Navigation a Mobile Robot[C]∥Proceedings of the IEEE International Conference on Robotics and Biomimetics.Bangkok:IEEE,2009:2127-2132.
[12]SUI L C.Processing of Laser Scanner Data and Extraction of Structure Lines Using Methods of the Image Processing[J].Acta Geodaetica et Cartographica Sinica,2004,33(1):63-70.
[13]JIANG X,BUNKE H.Edge Detection in Range Images Based on Scan Line Approximation[J].Computer Vision and Image Understanding,1999,73(2):183-199.
[14]DENG Fei.Research on LiDAR and Digital Images Registration and Objects Extraction[D].Wuhan:Wuhan University,2006.(鄧非.LiDAR數據與數字影像的配準和地物提取研究[D].武漢:武漢大學,2006.)
[15]ZHAN Qingming,ZHOU Xingang,XIAO Yinghui,et al.Comparison of Linear and Circular Feature Extraction Methods Based on Laser Point Clouds of an Ancient Architecture[J].Geomatics and Information Science of Wuhan University,2011,36(6):674-677.(詹慶明,周新剛,肖映輝,等.從激光點云中提取古建筑線性和圓形特征的比較[J].武漢大學學報:信息科學版,2011,36(6):674-677.)
[16]LU Z J,BAEK S,LEE S.Robust 3DLine Extraction from Stereo Point Clouds[C]∥Proceedings of the IEEE Conference on Robotics,Automation and Mechatronics.Chengdu:IEEE,2008:1-5.
[17]MEIERHOLD N,SCHMICH A.Referencing of Images to Laser Scanner Data Using Linear Features Extracted from Digital Images and Range Images[C]∥Proceedings of the ISPRS Workshop Laser Scanning 2009.[S.l.]:ISPRS,2010:210-219.
[18]LEE S,KIM E,PARK Y.3DObject Recognition Using Multiple Features for Robotic Manipulation[C]∥Proceedings of the 2006IEEE International Conference on Robotics and Automation.Orlando,Florida:IEEE,2006:3768-3774.
[19]ZHANG Fan,HUANG Xianfeng,LI Deren.Spherical Projection Based Triangulation for One Station Terrestrial Laser Scanning Point Cloud[J].Acta Geodaetica et Cartographica Sinica,2009,38(1):48-54.(張帆,黃先鋒,李德仁.基于球面投影的單站地面激光掃描點云構網方法[J].測繪學報,2009,38(1):48-54.)
[20]SHAH T R.Automatic Reconstruction of Industrial Installations Using Point Clouds and Images[D].Delft:Technische Universiteit Delft,2006.
[21]ARFKEN G B.Mathematical Methods for Physicists[M].6th ed.Orlando,FL:Academic Press,2005.
[22]BRIESE C.Structure Line Modelling Based on Terrestrial Laser Scanner Data[C]∥Proceedings of the ISPRS Symposium on Image Engineering and Vision Metrology.Dresden:ISPRS,2006:129-136.
[23]MEER P,GEORGESCU B.Edge Detection with Embedded Confidence[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2001,23(12):1351-1365.
[24]CANNY J.A Computational Approach to Edge Detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1986,8(6):679-698.
[25]ZHANG F,HUANG X F,CHENG X G,et al.Edge Extraction Algorithm Based on Linear Perception Enhancement[C]∥Proceedings of the International Archives of the Photogrammetry,Remote Sensing and Spatial Information Sciences.Beijing:ISPRS,2008:497-502.
[26]FISCHLER M A,BOLLES R C.Random Sample Consensus:A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography[J].Communications of the ACM,1981,24(6):381-395.