引文格式:DONGZhen,YANGBisheng.HierarchicalExtractionofMultipleObjectsfromMobileLaserScanningData[J].ActaGeodaeticaetCartographicaSinica,2015,44(9):980-987.(董震,楊必勝.車載激光掃描數(shù)據(jù)中多類目標的層次化提取方法[J].測繪學報,2015,44(9):980-987.)DOI:10.11947/j.AGCS.2015.20140339
車載激光掃描數(shù)據(jù)中多類目標的層次化提取方法
董震1,2,楊必勝1,2
1. 武漢大學測繪遙感信息工程國家重點實驗室,湖北 武漢 430079; 2. 武漢大學時空數(shù)據(jù)智能獲取技術(shù)與應(yīng)用教育部工程研究中心,湖北 武漢 430079
HierarchicalExtractionofMultipleObjectsfromMobileLaserScanningData
DONGZhen1, 2,YANGBisheng1, 2
1.StateKeyLaboratoryofInformationEngineeringinSurveying,MappingandRemoteSensing,WuhanUniversity,Wuhan430079,China; 2.EngineeringResearchCenterforSpatial-temporalDataSmartAcquisitionandApplication,MinistryofEducationofChina,WuhanUniversity,Wuhan430079,China
Abstract:This paper proposes an efficient method to extract multiple objects from mobile laser scanning data. The proposed method firstly generates multi-scale supervoxels from 3D point clouds using colors, intensities and spatial distances. Then, a graph-based segmentation method is applied to segment the supervoxels by integrating their colors, intensities, normal vectors, and principal directions. Then, the saliency of each segment is calculated and the most salient segment is selected as a seed to cluster for objects clustering. Hence, the objects are classified and the constraint conditions of object’s category are included to re-clustering for more accurate extraction of objects. Experiments show that the proposed method has a promising solution for extracting buildings, ground, street lamps, trees, telegraph poles, traffic signs, cars, enclosures and the objects extraction overall accuracy is 92.3%.
Keywords:mobilelaserscanning;multi-scalesupervoxel;multipleobjectextraction;saliency;hierarchicalextraction
Foundationsupport:TheNationalBasicResearchProgramofChina(973Program)(No.2012CB725301);TheNationalNaturalScienceFoundationofChina(No.41071268)
摘要:提出了一種從車載激光掃描數(shù)據(jù)中層次化提取多類型目標的有效方法。該方法首先利用顏色、激光反射強度、空間距離等特征,生成多尺度超級體素;然后綜合超級體素的顏色、激光反射強度、法向量、主方向等特征利用圖分割方法對體素進行分割;同時計算分割區(qū)域的顯著性,以當前顯著性最大的區(qū)域為種子區(qū)域進行鄰域聚類得到目標;最后結(jié)合聚類區(qū)域的幾何特性判斷目標可能所屬的類別,并按照目標類別采用不同的聚類準則重新聚類得到最終目標。試驗結(jié)果表明,該方法成功地提取出建筑物、地面、路燈、樹木、電線桿、交通標志牌、汽車、圍墻等多類目標,目標提取的總體精度為92.3%。
關(guān)鍵詞:車載激光點云;多尺度超級體素;多類型目標提??;顯著性;層次化提取
中圖分類號:P237
基金項目:國家973計劃(2012CB725301);國家自然科學基金(41071268)
收稿日期:2014-07-01
作者簡介:第一 董震(1988—),男,博士生,研究方向為激光掃描數(shù)據(jù)處理。
1引言
車載激光掃描系統(tǒng)能夠在高速移動狀態(tài)下獲取道路以及道路兩側(cè)建筑物、樹木等地物表面的精確三維信息,已成為空間數(shù)據(jù)快速獲取的一種重要手段,被廣泛應(yīng)用于數(shù)字城市、基礎(chǔ)測繪、城市規(guī)劃、交通、環(huán)保等領(lǐng)域。目前車載激光掃描數(shù)據(jù)獲取與處理的研究主要為系統(tǒng)集成[1],點云數(shù)據(jù)組織管理[2],點云分割[3-4],道路提取與建模[5],桿狀目標提取[6-7],建筑物提取及立面重建[8-10]等方面。車載激光掃描數(shù)據(jù)具有目標多樣、點密度分布不均、存在缺失等特點,給車載激光掃描數(shù)據(jù)的目標提取帶來了巨大的挑戰(zhàn)。針對上述問題,學術(shù)界展開了廣泛的研究。目前從激光掃描數(shù)據(jù)中提取目標的方法主要有4類。一是直接對散亂的激光掃描數(shù)據(jù)進行分割,然后根據(jù)不同目標的空間分布與幾何特征進行目標提取的方法[11-12]。該類方法直接對散亂的點進行分割和目標提取,避免了生成圖像和劃分體素時的精度損失;但計算量較大,且容易受到噪聲的影響。二是利用激光腳點在掃描線上的分布特征進行分割和目標提取的方法[13-14]。該類方法通過對每條掃描線上的點云分布進行分析,可以簡單快速地實現(xiàn)不同目標的提取和分類,但難以處理散亂的激光掃描數(shù)據(jù)(特別是當激光掃描數(shù)據(jù)來自多個激光掃描頭)。三是將激光掃描數(shù)據(jù)生成圖像,借助圖像處理技術(shù)進行分割和目標提取的方法[15-16]。該類方法將散亂的點云生成規(guī)則的圖像,然后利用圖像分割、輪廓提取、形態(tài)學運算等圖像處理手段進行分割和目標提取,加快了運算的速度,提高了效率,但是在點云生成圖像的過程中會存在精度的損失,同時格網(wǎng)大小的選擇也會對分割和目標提取結(jié)果產(chǎn)生較大的影響。四是將激光掃描數(shù)據(jù)生成三維體素,然后進行目標提取的方法[17-18]。該類方法將點云過分割成體素,然后對體素進行分割和目標提取,減小了點云數(shù)據(jù)的冗余,加快了計算速度,但目前的體素生成方法大多只考慮了空間相鄰關(guān)系,沒有考慮體素內(nèi)點的同質(zhì)性,容易產(chǎn)生混合體素。
總體而言,車載激光掃描數(shù)據(jù)的目標提取仍然存在幾個方面的問題:①數(shù)據(jù)處理耗時;②場景復雜、目標多樣,基于單一實體和單一特征的分割及目標提取方法正確率和完整性較低;③多種目標距離相近時,容易導致目標提取錯誤。綜上考慮,本文提出一種從車載激光掃描數(shù)據(jù)中層次化提取多類型目標的方法。
2多類型目標層次化提取方法
本文提出的多類型目標提取方法主要包括數(shù)據(jù)預處理、多尺度超級體素生成、基于多特征的點云分割和多類型目標提取等4個步驟 (如圖1所示)。本方法對測量過程中的各種系統(tǒng)誤差和隨機誤差導致的噪聲點利用pointcloudlibrary中的statisticaloutlierremoval濾波器進行剔除,同時利用文獻[13]的方法區(qū)分地面點和非地面點。
圖1 多類型目標層次化提取流程圖 Fig.1 Flow chart of multiple objects extraction
車載激光掃描數(shù)據(jù)數(shù)據(jù)量大且密度分布不均勻,直接對其進行分割和目標提取計算量大而且耗時。本文方法受圖像處理方法中“超級像素”[19]的啟發(fā),通過分析點云空間分布以及激光點顏色特征,發(fā)展了車載激光掃描數(shù)據(jù)的多尺度超級體素生成方法。超級體素生成算法的偽代碼如下:
/*初始化*/
將激光掃描數(shù)據(jù)劃分成尺寸為S的規(guī)則體素,將距離每個體素中心最近的激光點初始化為超級體素的中心
repeat
/*賦值*/
for每個超級體素k,do
for以Ck為中心,以S為半徑的球內(nèi)的任意點i,計算點i到Ck的距離dik。
ifdik setd(i)=dik setl(i)=k endif endfor endfor /*更新*/ for每個超級體素k,do 把l(i)=k的所有點的平均值作為超級體素k的新的中心Ck,并計算新體素中心和前一次迭代的體素中心的位置偏移量p。 endfor untilp≤threshold 加權(quán)距離計算公式為 (1) 由于場景復雜性及目標多樣性,單一尺度的體素無法準確表達目標的局部幾何特征,如:尺度較小時,可以減少混合體素的出現(xiàn),但不利于樹干等較粗的桿狀目標的特征識別;尺度較大時,有利于樹干等較粗桿狀目標的特征識別,但不利于細節(jié)特征識別。因此,本文提出多尺度的超級體素劃分方法,首先使用大、小兩個尺度進行超級體素劃分,同時利用文獻[20—21]的方法計算每個超級體素在不同尺度下的線狀、面狀和球狀維數(shù)特征、法向量、主方向、顏色平均值、反射強度平均值和體素類別VL(VL=1體素呈線狀分布,VL=2體素呈現(xiàn)面狀分布,VL=3體素呈現(xiàn)球狀分布)等特征,然后根據(jù)表1的優(yōu)化策略確定最優(yōu)的尺度及其對應(yīng)的超級體素的特征。 線狀a1D、面狀a2D和球狀a3D維數(shù)特征和體素類別VL的計算公式如式(2)和式(3)所示 (2) (3) 式(2)、式(3)中,λ1、λ2、λ3(λ1≥λ2≥λ3)為體素內(nèi)的點構(gòu)建的協(xié)方差矩陣的特征值;法向量VN為協(xié)方差矩陣的最小特征值λ3對應(yīng)的特征向量;主方向VP為協(xié)方差矩陣的最大的特征值λ1對應(yīng)的特征向量。顏色平均值VC、反射強度平均值VI為體素內(nèi)點的顏色和反射強度的平均值。 表1 多尺度超級體素優(yōu)化策略 利用單一特征(如顏色、強度、法向量等)的一致性進行點云分割存在一定的局限性,會導致片面的分割結(jié)果。為克服上述不足,本方法融合體素的顏色、反射強度、法向量、主方向等多種特征,利用基于圖的分割方法[22]進行點云分割。同時提出了3種策略對傳統(tǒng)的圖分割方法進行改進,分別為:①利用超級體素在三維空間的相鄰關(guān)系代替圖像像素的二維相鄰關(guān)系,更好地將目標和背景中特征相似的區(qū)域區(qū)分開;②對每條邊定義了顏色差異、反射強度差異、法向量夾角、主方向夾角等4個權(quán)值,兼顧了各類地物的不同特點,克服了單一特征分割方法的不足;③采用不同的區(qū)域內(nèi)部一致性和區(qū)域間差異性準則對類別不同的體素分別構(gòu)圖。例如,對于桿狀分布的體素(VL=1)構(gòu)建的圖,區(qū)域內(nèi)部一致性為區(qū)域內(nèi)各體素主方向分布的標準差,差異性為相鄰區(qū)域主方向的夾角;對于面狀分布的體素(VL=2)構(gòu)建的圖,區(qū)域內(nèi)部一致性為區(qū)域內(nèi)各體素法向量分布的標準差,差異性為相鄰區(qū)域法向量的夾角;對于球狀分布的體素(VL=3)構(gòu)建的圖,區(qū)域內(nèi)部一致性為區(qū)域內(nèi)各體素顏色或者反射強度分布的標準差,差異性為相鄰區(qū)域內(nèi)各體素顏色或者反射強度平均值的差值。然后根據(jù)文獻[22]的合并規(guī)則,對3幅圖分別進行分割,最后把3幅圖的分割結(jié)果疊加得到最終的分割結(jié)果。其中區(qū)域內(nèi)部一致性和區(qū)域間差異性的計算見式(4) (4) (5) 現(xiàn)有的目標提取方法假設(shè)不同目標在空間中相對獨立,但城區(qū)環(huán)境中多類型目標相互交錯(如樹木和標牌、樹木和樹木),不滿足上述假設(shè),因此導致錯誤提取結(jié)果。為克服上述不足,本文利用層次化提取策略,實現(xiàn)多目標提取。關(guān)鍵技術(shù)包括區(qū)域顯著性指標、相鄰區(qū)域聚類和目標分類。 對于任意區(qū)域i,顯著性計算公式如式(5)。其中,n為區(qū)域的總個數(shù)。區(qū)域顯著性計算實現(xiàn)了多類型目標顯著度層次化排序(如建筑物的立面部分,電線桿、路燈、交通標牌的立桿部分,樹干或者樹冠部分,汽車、行人等較小的目標),為層次化的目標提取奠定基礎(chǔ),避免了空間鄰近目標對提取結(jié)果的影響。 表2 顯著性指標 首先以顯著性最大的區(qū)域為種子區(qū)域跟其相鄰區(qū)域聚類得到目標;然后計算目標的高度OH、寬度OW、幾何中心和重心高程差OΔh,多次回波點占總點數(shù)的百分比OPCT等特征,并利用表4的特征描述規(guī)則標識待識別的目標;然后根據(jù)識別目標的類別,融合相應(yīng)的聚類約束條件(表3)重新聚類;最后利用表4的特征描述規(guī)則重新標識待識別的目標,并從分割結(jié)果中移除已識別的目標。重復上述過程,直到所有目標被標識。 表3 不同類型目標聚類約束條件 表4 不同目標的分類規(guī)則 3試驗分析與討論 為驗證方法的有效性,本文采用四維遠見公司的車載激光建模測量系統(tǒng)(SSW-MMTS)采集的城區(qū)數(shù)據(jù)進行試驗。SSW-MMTS由1個激光掃描器、導航定位系統(tǒng)(IMU、GPS、DMI)、6個面陣相機組成,其最大測距300m,測距精度可達1cm,點位精度優(yōu)于5cm。試驗數(shù)據(jù)共有69.4億個點,每個點包含掃描線、激光反射強度、顏色值(RGB)等信息,平均點密度為77points/m2,數(shù)據(jù)覆蓋范圍為8.15km×5.02km(圖2)。點云數(shù)據(jù)中包含常見的多種目標,如高層建筑物立面、電線桿、茂盛的行道樹、路燈、汽車、行人、交通標牌、草坪以及柵欄等。 圖2 試驗區(qū)域 Fig.2 Overview of the test data sets 依據(jù)本文的方法分別在小尺度(10cm)、大尺度(50cm)下進行體素劃分(圖3),其中圖3(a)、圖3(b)和圖3(c)分別是原始數(shù)據(jù)和兩個尺度下的超級體素生成結(jié)果,并看出小尺度劃分超級體素時,可以減少混合體素的出現(xiàn),但此時會將較粗的桿狀目標誤分類為面狀(圖3(d));相反尺度較大時,有利于樹干等較粗桿狀目標的特征表達,但不利于細節(jié)特征的識別(圖3(e))。利用本文的多尺度超級體素生成方法很好地解決了上述兩個問題(圖3(f))。 圖3 超級體素生成 Fig.3 The result of supervoxel 圖4示例了相應(yīng)的分割結(jié)果。從圖4可以看出,利用法向量一致性分割時,建筑物的立面分割結(jié)果較好,路燈、樹木等目標出現(xiàn)過分割,如圖4(a);利用主方向一致性分割時,路燈、樹干分割結(jié)果較好,建筑物、樹冠等目標出現(xiàn)過分割,如圖4(b);利用顏色一致性分割時樹冠分割結(jié)果較好,其他目標分割結(jié)果較差,如圖4(c)。本文方法綜合上述3個特征對點云進行分割較好地解決了過分割和分割不足的情況,如圖4(d)。 圖4 點云分割結(jié)果 Fig.4 The result of segmentation 基于點云分割的多類型目標提取結(jié)果如圖5和圖6,其中目標提取中采用的參數(shù)閾值如表5,閾值根據(jù)物體的先驗知識以及特征統(tǒng)計直方圖的分析得到。圖5(a)為整個區(qū)域的目標提取結(jié)果,圖5 (b)、(d)、(f)、(h)和圖5 (c)、(e)、(g)、(i)分別是區(qū)域1、2、3、4按照目標類別和目標ID賦色的結(jié)果。從圖6可以看出,本文方法不僅能準確地提取相互獨立的地物目標,而且當不同目標相互交錯甚至被部分遮擋時,該方法仍然可以得到正確的提取結(jié)果,如圖6(a)、(b)、(c)、(d)中相互交錯并被樹木遮擋的路燈、交通標志牌、建筑物、電線桿等目標被正確提取。但是該方法仍然存在一些提取錯誤,如圖6(e)、(f),這些錯誤主要集中在枝葉稀少的樹木分類為其他桿狀目標(圖6(e)),部分區(qū)域存在嚴重遮擋,難以分辨的路燈被錯誤分類為樹木(圖6(f))等。 為檢驗本文方法多類型目標提取的正確性,基于手工標記試驗數(shù)據(jù)為參考數(shù)據(jù),對本文提出方法的正確率、召回率進行計算(表6)。從表6可以看出建筑物目標提取的正確率和召回率最高,超過了95.0%;樹木提取的正確率和召回率相對較低,為91%左右。同時對本文方法與文獻[4]方法的正確率、召回率、數(shù)據(jù)處理時間3個方面進行了對比,比較結(jié)果如表7。結(jié)果表明本文方法較文獻[4]方法的正確率和召回率均有所提高,整體精度提高約1%,提取效率提高了近1倍。 圖5 多目標提取結(jié)果 Fig.5 The result of multiple objects extraction 圖6 目標提取結(jié)果細節(jié) Fig.6 The details of multiple objects extraction 4結(jié)論 本文以車載激光掃描數(shù)據(jù)為研究對象,提出了一種適合復雜城市環(huán)境的多類型目標層次化提取方法。試驗驗證表明:該方法的主要貢獻在于:①發(fā)展了基于超級體素的點云分割方法,減小了數(shù)據(jù)冗余并加快了運算速度;②融合點云的幾何、紋理和反射強度等多種特征進行分割和分類,提高了復雜場景中點云分割和目標提取的質(zhì)量;③提出了一種多類型目標層次化提取方法,解決了多個目標距離相近時提取錯誤的問題,提高了多目標提取的正確率。但是方法仍然存在一些問題,主要在于點云分割的結(jié)果依賴于超級體素分類的結(jié)果,當體素分類出錯時,會導致錯誤的分割結(jié)果;目標提取規(guī)則無法提取不完整的汽車目標等。本文下一步的研究將對提取出的目標進行模型重建,主要包括單木參數(shù)(樹高、胸徑、樹冠輪廓、生物量等)計算及樹木模型重建,建筑物立面細節(jié)特征(窗戶、門洞、臺階、突起、陽臺、遮陽板)提取及精細模型重建等,相關(guān)的工作將從兩個方面來提高嚴重遮擋情況下的分類精度:①綜合利用區(qū)分性更強的局部特征描述子和全局特征描述子,融合兩類特征描述子各自的優(yōu)勢;②進行多尺度的點云分割,在過分割和分割不足之間取得平衡,同時融合語義知識,降低錯誤分類。 表6 多目標提取精度、召回率、整體準確度評價 表7 方法對比 參考文獻: [1]LUXiushan,LIQingquan,FENGWenhao,etal.Vehicle-borneUrbanInformationAcquisitionand3DModelingSystem[J].JournalofWuhanUniversityofHydraulicandElectricEngineering, 2003, 36(3): 76-80. (盧秀山, 李清泉, 馮文灝, 等. 車載式城市信息采集與三維建模系統(tǒng)[J]. 武漢大學學報:工學版, 2003, 36(3): 76-80.) [2]WANGYanmin,GUOMing.ACombined2Dand3DSpatialIndexingofVeryLargePoint-cloudDataSets[J].ActaGeodaeticaetCartographicaSinica, 2012, 41(4): 605-612. (王晏民, 郭明. 大規(guī)模點云數(shù)據(jù)的二維與三維混合索引方法[J]. 測繪學報, 2012, 41(4): 605-612.) [3]WUHangbin,LINan,LIUChun,etal.AirborneLiDARDataSegmentationBasedon3DMathematicalMorphology[J].JournalofRemoteSensing, 2011, 15(6): 1189-1201. (吳杭彬, 李楠, 劉春,等. 機載激光掃描數(shù)據(jù)分割的三維數(shù)學形態(tài)學模型[J]. 遙感學報, 2011, 15(6): 1189-1201.) [4]YANGBS,DONGZ.AShape-basedSegmentationMethodforMobileLaserScanningPointClouds[J].ISPRSJournalofPhotogrammetryandRemoteSensing, 2013, 81: 19-30. [5]LIYijing,HUXiangyun,ZHANGJianqing,etal.AutomaticRoadExtractioninComplexScenesBasedonInformationFusionfromLiDARDataandRemoteSensingImagery[J].ActaGeodaeticaetCartographicaSinica, 2012, 41(6): 870-876. (李怡靜, 胡翔云, 張劍清, 等. 影像與LiDAR數(shù)據(jù)信息融合復雜場景下的道路自動提取[J]. 測繪學報, 2012, 41(6): 870-876.) [6]LEHTOMKIM,JAAKKOLAA,HYYPPJ,etal.DetectionofVerticalPole-likeObjectsinaRoadEnvironmentUsingVehicle-basedLaserScanningData[J].RemoteSensing, 2010, 2(3): 641-664. [7]CABOC,ORDOEZC,GARCA-CORTéSS,etal.AnAlgorithmforAutomaticDetectionofPole-likeStreetFurnitureObjectsfromMobileLaserScannerPointClouds[J].ISPRSJournalofPhotogrammetryandRemoteSensing, 2014, 87: 47-56. [8]YANGYun,SUILichun.Object-orientedClassificationofLiDARDataBasedonMulti-featureFusion[J].BulletinofSurveyingandMapping, 2010(8): 11-15. (楊耘, 隋立春. 面向?qū)ο蟮腖iDAR數(shù)據(jù)多特征融合分類[J]. 測繪通報, 2010(8): 11-15.) [9]TANBen,ZHONGRuofei,LIQin.ObjectsClassificationwithVehicle-borneLaserScanningData[J].JournalofRemoteSensing, 2012, 16(1): 50-66. (譚賁, 鐘若飛, 李芹. 一種車載激光掃描數(shù)據(jù)的地物分類方法[J]. 遙感學報, 2012, 16(1): 50-66.) [10]YANGBisheng,DONGZhen,WEIZheng,etal.ExtractingComplexBuildingFacadesfromMobileLaserScanningData[J].ActaGeodaeticaetCartographicaSinica, 2013, 42(3): 411-417. (楊必勝, 董震, 魏征, 等. 從車載激光掃描數(shù)據(jù)中提取復雜建筑物立面的方法[J]. 測繪學報, 42(3):411-417.) [11]PUS,RUTZINGERM,VOSSELMANG,etal.RecognizingBasicStructuresfromMobileLaserScanningDataforRoadInventoryStudies[J].ISPRSJournalofPhotogrammetryandRemoteSensing, 2011, 66(6):S28-S39. [12]XUS,VOSSELMANG,ELBERINKSO.Multiple-entityBasedClassificationofAirborneLaserScanningDatainUrbanAreas[J].ISPRSJournalofPhotogrammetryandRemoteSensing, 2014, 88: 1-15. [13]YANGB,FANGL,LIJ.Semi-automatedExtractionandDelineationof3DRoadsofStreetScenefromMobileLaserScanningPointClouds[J].ISPRSJournalofPhotogrammetryandRemoteSensing, 2013, 79: 80-93. [14]MANANDHARD,SHIBASAKIR.Auto-extractionofUrbanFeaturesfromVehicle-borneLaserData[C]∥TheInternationalArchivesofPhotogrammetry,RemoteSensingandSpatialInformationSciences, 2002, 34(4): 650-655. [15]YANGBS,WEIZ,LIQ,etal.AutomatedExtractionofStreet-sceneObjectsfromMobileLiDARPointClouds[J].InternationalJournalofRemoteSensing, 2012, 33(18): 5839-5861. [16]YANGB,FANGL,LIQ,etal.AutomatedExtractionofRoadMarkingsfromMobileLiDARPointClouds[J].PhotogrammetricEngineering&RemoteSensing, 2012, 78(4): 331-338. [17]LIMEH,SUTERD. 3DTerrestrialLiDARClassificationswithSuper-voxelsandMulti-scaleConditionalRandomFields[J].Computer-aidedDesign, 2009, 41(10): 701-710. [18]AIJAZIAK,CHECCHINP,TRASSOUDAINEL.SegmentationBasedClassificationof3DUrbanPointClouds:ASuper-voxelBasedApproachwithEvaluation[J].RemoteSensing, 2013, 5(4): 1624-1650. [19]ACHANTAR,SHAJIA,SMITHK,etal.SLICSuperpixelsComparedtoState-of-the-artSuperpixelMethods[J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 2012, 34(11): 2274-2282. [20]LALONDEJF,VANDAPELN,HUBERDF,etal.NaturalTerrainClassificationUsingThree-dimensionalLiDARDataforGroundRobotMobility[J].JournalofFieldRobotics, 2006, 23(10): 839-861. [21]DEMANTKéJ,MALLETC,DAVIDN,etal.DimensionalityBasedScaleSelectionin3DLiDARPointClouds[C]∥InternationalArchivesofPhotogrammetry,RemoteSensingandSpatialInformationSciences.Calgary,Canada:[s.n.], 2011. [22]FELZENSZWALBPF,HUTTENLOCHERDP.EfficientGraph-basedImageSegmentation[J].InternationalJournalofComputerVision, 2004, 59(2): 167-181. (責任編輯:張艷玲) 修回日期: 2014-12-25 Firstauthor:DONGZhen(1988—),male,PhDcandidate,majorsinLiDARdataprocessing. E-mail:dongzhenwhu@whu.edu.cn 通信作者: 楊必勝 Correspondingauthor:YANGBisheng E-mail:bshyang@whu.edu.cn2.2 基于多特征的點云分割
2.3 多類型目標層次化提取
3.1 多尺度超級體素的生成與分割
3.2 多類型目標的提取結(jié)果