李梟凱,李廣云,索世恒,高欣圓
激光SLAM技術進展
李梟凱1,李廣云1,索世恒2,高欣圓3
(1. 信息工程大學 地理空間信息學院,鄭州 450001;2. 文化和旅游部 信息中心,北京 100740;3. 自然資源部 國土衛(wèi)星遙感應用中心,北京 100048)
針對近年來,基于激光雷達(LiDAR)的同時定位與地圖構建(SLAM)技術在激光傳感器技術的更新迭代、運動估計算法的穩(wěn)定性和準確性、地圖優(yōu)化算法的精度和一致性以及與其他多種傳感器深度融合等方面雖已取得顯著進展,然而面對運動場景和復雜場景時,基于點云匹配的激光雷達里程計魯棒性較差,容易失效,大規(guī)模場景下的后端優(yōu)化算法會消耗大量計算資源,無法滿足實時性的要求,以及不同場景下回環(huán)檢測的成本較高且易誤匹配等問題,研究分析激光SLAM技術進展:闡述激光雷達系統(tǒng)和激光SLAM框架;并詳細介紹激光SLAM的關鍵技術和模塊,針對激光SLAM與視覺SLAM系統(tǒng)開展對比研究;最后結合近年來的研究成果,指出激光SLAM技術在自動駕駛、機器人導航和工業(yè)自動化領域具有巨大的應用潛力,未來的研究趨勢將集中于多源傳感器融合、優(yōu)化策略的改進以及與場景識別和環(huán)境感知技術的結合。
激光雷達(LiDAR);同時定位與地圖構建(SLAM)技術;點云處理;掃描匹配;后端優(yōu)化
隨著計算機、通信技術和電子技術等新技術的快速發(fā)展,攜帶傳感器的無人載體在室內外復雜、特殊的地理空間信息數據采集中發(fā)揮著越來越大的作用,基于各類傳感器的自主定位和測圖方案開始成為研究熱點[1]?;诩す饫走_(laser radar,LiDAR)的同時定位與地圖構建(simultaneous localization and mapping,SLAM)技術的實現方案在解決高精度、實時定位、導航和地圖構建問題中發(fā)揮著重要作用。其中,激光雷達具有分辨率高、環(huán)境適應性好、抗有源干擾能力強等特點,廣泛應用于自動駕駛和測繪導航等領域。SLAM技術是機器人研究領域的一項前沿性工作,在使用無人載體上搭載的傳感器(如激光雷達、相機)進行地圖構建的同時,實時估計載體的位置,從而實現無人載體的自主移動、定位和地圖構建[2]。根據所依賴的傳感器不同,一般將SLAM技術分為激光SLAM技術和視覺SLAM技術。其中,依賴于激光雷達的激光SLAM技術作為一種穩(wěn)定可靠的SLAM解決方案,受到業(yè)內的廣泛關注,成為目前研究的熱點。
激光技術的問世推動了二維(two dimension,2D)激光雷達技術的發(fā)展。2D激光雷達利用單束激光進行環(huán)境感知,具有結構簡單、成本低、采樣率高等特點。2D激光SLAM算法一般采用基于濾波的方法實現定位和柵格地圖構建,在服務型機器人和工業(yè)自動化等領域得到廣泛應用。隨著LiDAR技術從單線到機械式多線的發(fā)展,基于三維(three dimension,3D)激光雷達的SLAM技術隨之出現。3D激光SLAM技術包括以下組成部分:數據預處理、前端激光里程計、后端優(yōu)化算法、回環(huán)檢測和地圖構建。數據預處理是對原始激光雷達采集的點云數據進行處理和優(yōu)化,旨在為后續(xù)的定位和地圖構建過程提供準確可靠的輸入,3D激光SLAM中常用的點云數據預處理方法主要包括特征提取、點云降采樣和聚類分割。激光里程計的核心問題是三維點云匹配問題,通過確定不同時刻2幀點云之間的正確對應關系實現位姿估計。點云匹配算法根據基本原理可分為2大類,即基于掃描的方法和基于特征的方法[3]?;趻呙杵ヅ涞姆椒ǜ鶕c云的整體特性,直接對所有掃描點進行配準;基于特征的方法只選取點云中的部分關鍵特征進行匹配。3D激光SLAM的后端優(yōu)化算法旨在處理和優(yōu)化機器人感知的數據,以提升定位和地圖的精度。回環(huán)檢測用于解決傳感器移動測圖過程中的累積誤差[4]。隨著3D激光SLAM技術的不斷發(fā)展,越來越多的解決方案涌現出來。其中文獻[5]提出的激光雷達里程計與建圖(LiDAR odometry and mapping,LOAM)框架是最具代表性的方法之一,該框架兼顧定位建圖的精度和效率,引領出眾多衍生算法。然而,隨著SLAM技術的應用環(huán)境日益復雜,傳統(tǒng)的3D激光SLAM方法面臨著越來越多的限制和挑戰(zhàn)。目前,主要研究方向包括以下幾個方面:1)多種傳感器深度融合,利用其他傳感器的優(yōu)勢來彌補LiDAR在特定工況下的局限性,從而提高定位建圖精度。2)多源信息融合,將雷達反射強度、聲學、5G等多源信息引入定位過程,從而提高定位和建圖的精度[6]。3)深度學習技術為SLAM領域帶來巨大變革,并在一些領域展現出了卓越的效果[7]。在計算機視覺領域,關于視覺SLAM技術的研究和綜述比較多,但對激光SLAM技術的總結成果相對匱乏。因此,本文首先給出常用的激光雷達傳感器和激光SLAM系統(tǒng)框架,其次闡述激光SLAM系統(tǒng)的關鍵技術,然后介紹激光SLAM與視覺SLAM系統(tǒng)的區(qū)別及其存在的問題,最后結合近年來的研究成果,分析激光SLAM的未來發(fā)展趨勢和應用方向。
激光雷達是激光探測與測距系統(tǒng)的簡稱,它通過測定激光雷達發(fā)射器與目標物體之間的傳播距離,分析目標物體的反射能量大小、反射波譜的幅度、頻率和相位等信息,從而呈現出環(huán)境精確的結構信息。根據結構不同,可將其分為2D激光雷達、3D激光雷達、混合固態(tài)激光雷達和固態(tài)激光雷達。其中,激光SLAM系統(tǒng)中常用的傳感器為2D激光雷達和3D激光雷達(如圖1所示)。
圖1 各類型激光雷達
2D SLAM框架的早期解決方案主要包括文獻[8]提出的Gmapping、文獻[9]提出的Hector SLAM,以及文獻[10]提出的Karto SLAM,它們分別采用Rao-Blackwellized Particle粒子濾波器、擴展卡爾曼濾(extended kalman filter,EKF)算法和位姿圖優(yōu)化(pose graph optimization,PGO)算法解決定位和建圖問題。文獻[11]提出的Cartographer框架在SLAM過程中采用局部和全局結合的方法優(yōu)化載體位姿,并增加閉環(huán)檢測以確保地圖的一致性,成為一種較為可靠的2D激光SLAM方案。文獻[12]引入傅里葉級數,將不規(guī)則閉合形狀特征進行參數化,建立基于傅里葉級數特征參數化的SLAM框架,在一定場景條件下該框架優(yōu)于Cartographer框架。
3D激光SLAM系統(tǒng)中,文獻[5]提出的LOAM框架通過提取各點曲率獲得線和面特征,利用點到線與面的匹配估計激光雷達運動,成為3D激光SLAM中的一個經典框架。LOAM框架能夠同時進行高頻位姿推估和低頻建圖2個線程,使其在精度和效率方面得到了較好的平衡。此外,LOAM框架具有較強的擴展性,因此吸引了許多研究者基于該框架進行進一步的研究。其中,一個主要研究方向是對LOAM本身進行改進,文獻[13]在LOAM的基礎上提出的針對地形變化的輕量級激光雷達里程計與建圖(lightweight and ground-optimized LiDAR odometry and mapping on variable terrain,LeGO-LOAM)框架,在分割地面點云約束垂直方向的漂移的同時增加回環(huán)檢測模塊,提升了算法精度。為了降低LOAM前端掃描匹配迭代過程中的計算量,文獻[14]提出了一種非迭代的2級失真補償方法。該方法利用邊緣特征和平面特征,分別與局部邊緣圖和局部平面圖進行匹配,從而降低計算量。文獻[15]將環(huán)境中參考對象的3D模型及其在全局坐標系中的已知位置作為先驗條件引入LOAM框架中,進一步提高了定位精度。
另一個主要研究方向是融合來自多種傳感器的數據。文獻[16]在LOAM的基礎上引入慣性測量單元(inertial measurement unit,IMU)預積分觀測量,提出在快速移動場景中性能更好的激光慣性里程計與建圖(laser-inertial odometry and mapping,LIOM)框架。文獻[17]提出的激光雷達慣性框架是在LeGO-LOAM基礎上進行改進,基于迭代卡爾曼濾波實現LiDAR與IMU緊耦合的前端里程計,提升定位建圖精度。文獻[18]提出的緊耦合激光雷達慣性里程計(tightly-coupled lidar inertial odometry via smoothing and mapping,LIO-SAM)框架對文獻[13]的 LeGO-LOAM框架進行擴展,在高效融合IMU數據和全球定位系統(tǒng)(global positioning system,GPS)觀測量的同時,采用非線性優(yōu)化和局部匹配策略,從而提高算法的精度和魯棒性。
激光雷達采集的原始點云數據量龐大,具有無序和不規(guī)則的特點,因此需要對原始數據進行進一步處理。激光SLAM中常用的點云數據處理方法主要有點云特征提取、點云采樣和點云聚類分割。
點云特征提取是從數據量冗余、特征不明顯的點云中提取點云本身所具有的特征信息。傳統(tǒng)的特征提取方法主要包括:
1)基于圖像特征檢測方法。此類方法將原始點云數據轉化為特征描述子,如尺度不變特征轉換算子、加速穩(wěn)健特征描述子和三維角點檢測描述子等。然后,通過這些特征描述子提取點云的特征信息[19]。
2)基于點云邊緣分割方法。此類方法通過對點云進行分割,提取點云中線特征的交點和面特征的交線。
3)基于離散點云幾何特征方法。此類方法根據點云拓撲關系,提取點云的空間距離、角度、法向矢量、曲率等幾何特征[20]。
4)基于點云聚類判別方法。此類方法首先對點云進行聚類分割,然后計算各個聚類的幾何、拓撲屬性,根據這些屬性的分布規(guī)律對所需特征進行識別和提取。
5)基于深度學習的點云特征提取方法。這是目前點云處理領域的前沿研究之一,其主要思路是利用深度學習網絡對點云數據進行特征提取?;谏疃葘W習的點云特征提取主要有3種方法:第一種是基于多視圖的方法,將點云轉換為多視圖數據,并在投影圖像上進行特征學習[21];第二種是基于體素化的方法,即將點云進行規(guī)則體素劃分后輸入到卷積神經網絡中進行學習[22];第三種是基于點云卷積的方法,即直接對點云數據進行全局處理[23]?;谏疃葘W習的特征提取方法致力于優(yōu)化網絡模型,從而降低計算復雜度,提高復雜場景下點云特征提取的準確度。
激光雷達獲取點云速度較快,同時數據量相對較大,因此需要剔除冗余數據。常用的點云采樣方法分為以下幾種:
1)傳統(tǒng)的點云采樣方法。傳統(tǒng)方法主要包括系統(tǒng)采樣法、均勻網格法、包圍盒法、非均勻網格法、曲率采樣法等[24],這些方法以2種不同的策略來處理點云數據:一種是將點云劃分為多邊形網格,根據特定規(guī)則選擇代表整個網格的點云;另一種方法則是以點云的幾何特征作為采樣依據,以保留點云整體幾何特征。這些方法計算簡單,采樣效率較高,但不適用于空間形態(tài)較為復雜的點云數據[25]。
2)基于聚類的點云采樣方法。這類方法通過對點云數據進行聚類,將每一聚類中的點云數據擬合成曲面,通過比較每個點的均方根曲率值和所有點的均方根平均曲率對點云進行采樣。該方法需要提前設定聚類中心數目,對于高特征強度點的保留效果較好,對于低特征強度點的保留效果相對較差。
3)基于信息熵的點云采樣方法。這類方法首先對每個點的重要性進行評估,通過刪除重要性最低的點實現點云降采樣。此類方法評估參數的構造特別關鍵,評估參數主要包括點云曲率熵[26]、點云簡化熵[27]和組合局部熵等。
4)基于深度學習的點云采樣方法?;谏疃葘W習的點云采樣方法是目前點云數據處理領域的熱點之一,其主要思路是通過深度學習模型來實現點云數據的自適應采樣。常用采樣算法有最遠點采樣[28]、逆密度重要性采樣[29]、隨機采樣[30]和格網采樣[31]。目前研究趨勢是進一步優(yōu)化網絡結構,提高點云采樣效率以及更好地保留點云幾何細節(jié)[32]。
點云分割的主要目標是將點云數據劃分成若干具有相似屬性的子集,其中激光雷達點云分割的常用方法是基于聚類的分割[33]。基于聚類的點云分割方法主要分為以下幾類:
1)層次聚類算法。這類算法主要通過逐步合并距離較近的數據點,將點云劃分為具有層級結構的多個簇,最終形成被稱為聚類特征樹(clustering tree)的樹形結構[34]。層次聚類不需要設定聚類數,聚類效果較好,但是算法計算復雜度高,魯棒性和擴展性較差[35]。
2)劃分聚類算法。這類方法首先選擇初始聚類中心,然后按照一定規(guī)則將每個點劃分到不同的聚類中,通過多輪次聚類中心的更新迭代,完成點云聚類分割[36]。這類算法比較簡單直觀,能夠以較小的計算代價得到較好的聚類效果,但是算法需要設定聚類數,容易陷入局部最優(yōu)。文獻[37]提出固定中心均值聚類(fixed-centered-means,FC-means)算法,根據先驗信息于聚類前固定了一些聚類中心,從而獲得數據點到聚類的最佳分布。該算法旨在提高聚類的準確性和穩(wěn)定性,能夠更有效地解決實際問題。
3)基于密度的聚類算法。這類方法主要利用樣本間的密度差異對點云進行聚類。文獻[38]提出的具有噪聲的基于密度的空間聚類算法(density-based spatial clustering of applications with noise,DBSCAN)通過定義鄰域半徑和密度閾值2個參數來確定核心點,然后從核心點逐個擴展聚類,最后通過更新遍歷新的核心點完成聚類。文獻[39]對文獻[38]的鄰域搜索方法進行改進,有效減少了無效距離計算,從而提高算法效率。文獻[40]對DBSCAN算法進行了改進。首先減少了DBSCAN算法的一個參數,然后采用迭代更新特征權重的方法進行聚類。實驗證明,這種改進算法的聚類效果優(yōu)于傳統(tǒng)的DBSCAN算法。
與上述2種聚類算法相比,基于密度的聚類算法魯棒性較強,能夠識別出數據集中存在的噪聲。但是算法時間復雜度較高,不適合處理大規(guī)模點云數據。
運動載體采集的激光點云數據的坐標系統(tǒng)為局部坐標系,為確定載體實時的位置和姿態(tài),需要將坐標系統(tǒng)進行統(tǒng)一。點云配準算法可分為2大類,即基于特征的匹配和基于掃描的匹配。其中,基于特征的匹配方法在各種結構化場景中有著廣泛的應用,但受限于匹配精度,該類方法難以在缺乏穩(wěn)定特征的場景和非結構化場景中使用,而且在運動估計中容易產生誤差累積。本文將著重介紹2類基于掃描的匹配算法,即迭代最近點(iterative closest point,ICP)算法和正態(tài)分布變換(normal distributions transform,NDT)算法。
標準ICP算法難以處理包含大量噪聲、結構比較復雜的點云數據。文獻[41]提出一種點對平面迭代匹配(point to plane ICP,PP-ICP)算法,通過計算法向量得到切平面,采用點到面的距離作為誤差度量,從而提高算法的魯棒性。文獻[42]提出的法向量迭代匹配(normal ICP,NICP)算法通過計算源點集和目標點集中每個點的切平面法向量及點云所在曲面的曲率,結合歐式距離構建誤差度量,通過非線性優(yōu)化方法迭代解算相對位姿。文獻[43]提出的基于隱式移動最小二乘匹配(implicit moving least squares ICP,IMLS-ICP)算法在文獻[42]的基礎上利用曲率、法向量篩選出具有代表性的點來進行匹配,同時利用每個點的法向量構建曲面的表達式,并根據點到曲面的距離構建誤差度量。這樣既能避免點云分布不均勻導致計算結果出現偏移,又能提高點云匹配精度。
ICP及其多數變種算法在迭代過程中易收斂到局部極值,導致匹配陷入局部最優(yōu)。針對這一問題,文獻[44]改進了ICP算法,通過降低點云密度和優(yōu)化目標函數,提高了點云匹配的準確性和速度。文獻[45]將ICP算法與自適應閾值的對應匹配、魯棒核函數、運動補償和點云采樣策略結合,實現了一個簡單有效的SLAM框架。
根據上述均值和方差,可將三維網格中的點云數據轉換成連續(xù)可微的概率密度函數,即
NDT算法匹配精度較高,適用于處理大規(guī)模點云數據。文獻[46]采用均值聚類方法代替體素網格,用于劃分點云生成高斯分布,在不同尺度上進行點云配準優(yōu)化。這種方法能夠解決NDT算法中代價函數不連續(xù)的問題,在提高算法收斂性的同時提升了計算效率。為進一步解決點云網格邊緣代價函數不連續(xù)的問題,文獻[47]提出分段區(qū)域生長正態(tài)分布變換(segmented region growing normal distributions transform,SRG-NDT)算法。該算法首先使用高斯過程回歸和增量采樣一致性的分割算法從點云集中剔除地面點,然后應用類似DBSCAN的區(qū)域生長算法對剩余的點進行聚類。這種方法從聚類結果中計算概率密度函數,能夠用更少的高斯分布描述環(huán)境,提高了算法效率。同時,通過聚類策略獲得的平滑和連續(xù)的代價函數,能夠提升算法的收斂性。
作為一種穩(wěn)健的點云匹配算法,NDT算法在激光SLAM中得到廣泛應用。其中,文獻[48]采用基于局部地圖和運動預測模型的NDT算法實現點云匹配。文獻[49]使用了基于點到分布的正態(tài)分布變換(point to distribution based NDT,P2D-NDT)方法,以實現單幀點云與動態(tài)地圖之間的匹配。相比ICP算法,NDT算法實用性更強且效率更高。但是NDT及其改進算法也容易陷入局部最優(yōu),匹配結果同樣依賴于良好的初始位姿。
圖2 圖優(yōu)化示意
文獻[50]對圖優(yōu)化SLAM的建模方法和優(yōu)化方法進行詳細闡述,將圖建模方法總結為基于動態(tài)貝葉斯網絡的圖建模方法、基于因子圖的圖建模方法和基于馬爾可夫的圖建模方法,同時對后端優(yōu)化方法進行總結和分類。文獻[13]的后端采用因子圖優(yōu)化,融合激光里程計因子和回環(huán)檢測因子,經優(yōu)化得到最終的全局地圖。文獻[18]在文獻[13]的基礎上引入IMU 預積分因子和GPS因子,以提高定位和建圖精度。文獻[51]以關鍵幀的姿態(tài)為節(jié)點,以前端里程計獲得的2個節(jié)點之間的相對運動估計為約束邊,從而構建了后端全局地圖優(yōu)化模塊,使用非線性最小二乘法進行全局優(yōu)化。
然而,圖優(yōu)化SLAM普遍存在魯棒性和實時性2個方面的問題。首先,圖優(yōu)化SLAM后端的魯棒性主要由前端數據關聯(lián)和后端優(yōu)化初值決定,正確的數據關聯(lián)和初值選取能夠獲得精確度高的優(yōu)化結果,從而得到高精度的全局一致性地圖。其次,圖優(yōu)化SLAM后端需要進行大量的非線性解算和迭代求解,難以滿足大規(guī)模點云數據實時解算的需求。
回環(huán)檢測主要通過全局數據關聯(lián)判斷是否到達歷史場景,其核心目的是通過匹配在不同位置和角度下采集到的點云數據,判斷路徑是否存在的重復區(qū)域,從而有效糾正累積誤差,提高配準精度,促使地圖閉環(huán)并生成全局一致性的映射地圖(如圖3所示)。
圖3 回環(huán)檢測示意
目前基于場景外觀相似性的判別方法是回環(huán)檢測中的主流方法,該方法通過人工設計位置描述符,對當前幀和候選幀進行相似性判別。
1)基于局部特征的判別方法。文獻[52]借鑒了視覺SLAM中的詞袋模型(bag of words,BOW),結合激光點云反射率信息,在點云數據中提取面向快速旋轉二進制魯棒獨立基本特征(oriented fast and rotated binary robust independent elementary features,ORB)加入詞袋模型中,用于快速重定位和回環(huán)檢測。文獻[53]提出一種基于描述符的概率投票方法,該方法通過查詢局部描述符數據庫中每個關鍵點的恒定最近鄰,并對投票結果進行聚合,從而完成匹配過程。文獻[54]通過融合點云和圖像數據,利用點云的深度信息構建二進制詞袋模型來實現閉環(huán)檢測,從而提升算法在多種場景下的魯棒性。文獻[55]則直接從LiDAR點云中提取線性關鍵點構建三維詞袋模型(bag of words 3D,BoW3D)。該方法可以實時進行位置姿態(tài)校正,為算法提供準確的閉環(huán)約束。
2)基于全局特征的判別方法。文獻[56]使用特征的相對位置關系生成局部地圖并加入哈希表中,通過相對位置關系實現重定位。文獻[57]提出幾何地標關系旋轉不變(geometric landmark relations rotation-invariant 3D,GLAROT-3D)方法,通過將成對的關鍵點的相對幾何位置編碼成直方圖,根據旋轉直方圖之間的距離來計算2個點映射的相似度。文獻[58]提出一種基于非直方圖的全局描述符,采用相似度得分作為判別依據,最后采用2階段搜索算法檢測回環(huán)。文獻[59]將2次掃描的點云輸入閉環(huán)網絡(loop closure network,LC-Net)中,根據網絡輸出結果判斷2次掃描是否存在重疊,同時輸出2次掃描之間的重疊角度,進行全局地圖校正。為了解決長距離環(huán)路的回環(huán)檢測問題,文獻[60]提出了一種基于特征組的分布和對應關系的3階段回環(huán)檢測方案。該方法首先利用特征組的分布來搜索閉環(huán)候選項,然后通過比較幾何參數找到與特征組相匹配的對應項并獲取初始變換,在此基礎上完成匹配和校正。
激光SLAM和視覺SLAM都是目前機器人領域中比較重要的定位和建圖技術。它們的主要區(qū)別在于傳感器類型、算法實現和應用場景等方面。
傳感器類型方面,激光SLAM采用激光雷達采集環(huán)境信息,按照飛行時間測距原理確定傳感器發(fā)射器與目標物體之間的傳播距離,從而得到環(huán)境中物體的位置和形狀等信息;視覺SLAM中使用的相機不需要向外發(fā)射能量,而是通過捕獲外界物體的光能量,將三維物體映射到二維圖像上,得到環(huán)境中物體的顏色和紋理信息。
此外,激光雷達可以實現高精度的測距,其精度為毫米級。但是激光雷達本身存在有效探測范圍,且傳感器成本較高;相機成像無探測距離限制,且傳感器成本較低。但是相機對光線的依賴程度較高。
算法實現方面,激光SLAM是將激光雷達所獲取到的點云數據進行濾波和幀間匹配,實現定位和建圖的任務;視覺SLAM的觀測模型是將空間中的3D點投影到平面坐標系下得到二維圖像,通過對圖像的特征匹配和重建,來實現定位和建圖。
應用場景方面,激光SLAM精度較高、數據穩(wěn)定,而且不受光照變化影響,因此廣泛應用于室內外定位、工業(yè)自動化及駕駛輔助中;視覺SLAM不受探測距離限制,采集信息更豐富,能夠在增強現實、智能家居及無人駕駛領域發(fā)揮巨大作用。
激光SLAM技術已日趨成熟并取得廣泛應用,但精度、環(huán)境適應性以及實時性等問題依舊是激光SLAM 研究中的難點,因此仍有以下重點值得關注:
1)多源傳感器融合。在退化環(huán)境和運動擾動環(huán)境下,激光SLAM系統(tǒng)可用點云數量也會大量減少,系統(tǒng)的感知準確度會降低。在這種情況下,需要激光雷達與視覺、慣性、GPS、超聲波、雷達等其他傳感器進行有機整合,實現優(yōu)勢互補,從而提高系統(tǒng)定位建圖的精度,滿足復雜場景需求。
2)更加靈活高效的優(yōu)化策略。首先,在復雜環(huán)境和動態(tài)條件下,觀測信息中存在大量的未知模型噪聲和粗差。為保證系統(tǒng)的有效性和精度,需要針對不同環(huán)境和動態(tài)性變化,采取相應的優(yōu)化策略。其次,在后端優(yōu)化過程中,存在許多復雜的非線性運算。當處理大規(guī)模點云數據時,可以通過采用并行計算和分布式計算等方法來提高運算效率。
3)場景識別和環(huán)境感知技術。利用機器學習、深度學習等方法,使載體從激光雷達采集的數據中自動識別出環(huán)境中的物體、區(qū)域和情景,是最具前沿性的研究方向之一。因此需要從點云中挖掘出物體、語義、關系等高層次特征來輔助對場景的實時理解,從而支持無人載體不同場景下的自主決策和控制。
激光SLAM利用激光傳感器實現自主定位與建圖,廣泛應用于自動駕駛、機器人定位以及工業(yè)自動化等領域。本文從激光雷達系統(tǒng)和經典激光SLAM框架出發(fā),梳理了激光SLAM算法在點云數據預處理、點云掃描匹配、后端優(yōu)化和回環(huán)檢測環(huán)節(jié)的國內外研究現狀,并根據激光SLAM和視覺SLAM的基本原理,對二者優(yōu)缺點進行分析歸納。綜合傳統(tǒng)激光SLAM技術的特點,闡述了激光SLAM技術與多傳感器融合的必要性,指出后端優(yōu)化算法方面仍有廣闊的研究前景。最后,提出基于深度學習技術的場景識別和環(huán)境感知對于激光SLAM技術的發(fā)展具有革命性的意義。
[1] 陳馳, 楊必勝, 田茂, 等. 車載 MMS 激光點云與序列全景影像自動配準方法[J]. 測繪學報, 2018, 47(2): 215-224.
[2] 周治國, 曹江微, 邸順帆. 3D 激光雷達 SLAM 算法綜述[J]. 儀器儀表學報, 2021, 42(9): 13-27.
[3] Furukawa T, Dantanarayana L, Ziglar J, et al. Fast global scan matching for high-speed vehicle navigation[C]// 2015 IEEE International Conference on Multisensor Fusion and Integration for Intelligent Systems (MFI). California, USA: IEEE, 2015: 37-42.
[4] Tan J, Torroba I, Xie Y, et al. Data-driven loop closure detection in bathymetric point clouds for underwater slam[C]// 2023 IEEE International Conference on Robotics and Automation (ICRA). London, UK: IEEE, 2023: 3131-3137.
[5] Zhang J, Singh S. Low-drift and real-time lidar odometry and mapping[J]. Autonomous Robots, 2017, 41: 401-416.
[6] Li S, Tian B, Zhu X, et al. InTEn-LOAM: Intensity and temporal enhanced LiDAR odometry and mapping[J]. Remote Sensing, 2022, 15(1): 242.
[7] Liao W H, Wang C C, Lin W C. GNN-based point cloud maps feature extraction and residual feature fusion for 3D object detection[C]// 2023 IEEE International Conference on Robotics and Automation (ICRA). London, UK: IEEE, 2023: 7010-7016.
[8] Grisetti G, Stachniss C, Burgard W. Improved techniques for grid mapping with rao-blackwellized particle filters[J]. IEEE transactions on Robotics, 2007, 23(1): 34-46.
[9] Kohlbrecher S, Von Stryk O, Meyer J, et al. A flexible and scalable SLAM system with full 3D motion estimation[C]// 2011 IEEE international symposium on safety, security, and rescue robotics. Kyoto, Japan: IEEE, 2011:155-160.
[10] Konolige K, Grisetti G, Kümmerle R, et al. Efficient sparse pose adjustment for 2D mapping[C]// 2010 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS). Taipei, China: IEEE, 2010: 22-29.
[11] Hess W, Kohler D, Rapp H, et al. Real-time loop closure in 2D LIDAR SLAM[C]// 2016 IEEE International Conference on Robotics and Automation (ICRA). Stockholm, Sweden: IEEE, 2016: 1271-1278.
[12] Zhao J, Li T, Yang T, et al. 2D laser SLAM with closed shape features: fourier series parameterization and submap joining[J]. IEEE Robotics and Automation Letters, 2021, 6(2): 1527-1534.
[13] Shan T, Englot B. Lego-loam: Lightweight and ground-optimized lidar odometry and mapping on variable terrain[C]// 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Madrid, Spain: IEEE, 2018: 4758-4765.
[14] Wang H, Wang C, Chen C L, et al. F-loam: Fast lidar odometry and mapping[C]// 2021 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Prague, Czech Republic: IEEE, 2021: 4390-4396.
[15] Oelsch M, Karimi M, Steinbach E. R-LOAM: Improving LiDAR odometry and mapping with point-to-mesh features of a known 3D reference object[J]. IEEE Robotics and Automation Letters, 2021, 6(2): 2068-2075.
[16] Ye H, Chen Y, Liu M. Tightly coupled 3D lidar inertial odometry and mapping[C]// 2019 IEEE International Conference on Robotics and Automation (ICRA). Montreal, Canada: IEEE, 2019: 3144-3150.
[17] Qin C, Ye H, Pranata C E, et al. Lins: A lidar-inertial state estimator for robust and efficient navigation[C]// 2020 IEEE International Conference on Robotics and Automation (ICRA). Paris, France: IEEE, 2020: 8899-8906.
[18] Shan T, Englot B, Meyers D, et al. Lio-sam: Tightly-coupled lidar inertial odometry via smoothing and mapping[C]// 2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Las Vegas, USA: IEEE, 2020: 5135-5142.
[19] Patel M I, Thakar V K, Shah S K. Image registration of satellite images with varying illumination level using HOG descriptor based SURF[J]. Procedia Computer Science, 2016, 93: 382-388.
[20] Lu X, Ai Y, Tian B. Real-time mine road boundary detection and tracking for autonomous truck[J]. Sensors, 2020, 20(4): 1121.
[21] Chen X, Ma H, Wan J, et al. Multi-view 3d object detection network for autonomous driving[C]// Proceedings of the IEEE conference on Computer Vision and Pattern Recognition (CVPR). Hawaii, USA: IEEE, 2017: 1907-1915.
[22] Wu Z, Song S, Khosla A, et al. 3D shapenets: A deep representation for volumetric shapes[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Boston, USA: IEEE, 2015: 1912-1920.
[23] QI C R, SU H, MO K, et al. Pointnet: Deep learning on point sets for 3d classification and segmentation[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Hawaii, USA: IEEE, 2017: 652-660.
[24] Mostafa S A, Ahmad I A. Recent developments in systematic sampling: A review[J]. Journal of Statistical Theory and Practice, 2018, 12(2): 290-310.
[25] Liu B, Chen S, Huang H, et al. Tree species classification of backpack laser scanning data using the PointNet++ point cloud deep learning method[J]. Remote Sensing, 2022, 14(15): 3809.
[26] Wang G, Wu L, Hu Y, et al. Point cloud simplification algorithm based on the feature of adaptive curvature entropy[J]. Measurement Science and Technology, 2021, 32(6): 065004.
[27] Zhang K, Qiao S, Wang X, et al. Feature-preserved point cloud simplification based on natural quadric shape models[J]. Applied Sciences, 2019, 9(10): 2130.
[28] Li J, Zhou J, Xiong Y, et al. An adjustable farthest point sampling method for approximately-sorted point cloud data[C]// 2022 IEEE Workshop on Signal Processing Systems (SiPS). Rennes, France: IEEE, 2022: 1-6.
[29] Liu K, Gao Z, Lin F, et al. Fg-net: A fast and accurate framework for large-scale lidar point cloud understanding[J]. IEEE Transactions on Cybernetics, 2022, 53(1): 553-564.
[30] Zhang Y, Hu Q, Xu G, et al. Not all points are equal: Learning highly efficient point-based detectors for 3D LiDAR point clouds[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR). New Orleans, USA: IEEE, 2022: 18953-18962.
[31] Dovrat O, Lang I, Avidan S. Learning to sample[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, USA: IEEE, 2019: 2760-2769.
[32] Hu Q, Yang B, Xie L, et al. Randla-net: Efficient semantic segmentation of large-scale point clouds[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle, USA: IEEE, 2020: 11108-11117.
[33] Xia S, Chen D, Wang R, et al. Geometric primitives in LiDAR point clouds: A review[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2020, 13: 685-707.
[34] Zhang T, Ramakrishnan R, Livny M. BIRCH: An efficient data clustering method for very large databases[J]. ACM Sigmod Record, 1996, 25(2): 103-114.
[35] Guha S, Rastogi R, Shim K. CURE: An efficient clustering algorithm for large databases[J]. ACM Sigmod Record, 1998, 27(2): 73-84.
[36] Lloyd S. Least squares quantization in PCM[J]. IEEE Transactions on Information Theory, 1982, 28(2): 129-137.
[37] Ay M, ?zbak?r L, Kulluk S, et al. FC-Kmeans: Fixed-centered-means algorithm[J]. Expert Systems with Applications, 2023, 211: 118656.
[38] Ester M, Kriegel H P, Sander J, et al. A density-based algorithm for discovering clusters in large spatial databases with noise[C]// Proceedings of the Second International Conference on Knowledge Discovery and Data Mining (KDD-96). Portland, Oregon, USA: AAAI Press,1996:96(34): 226-231.
[39] Chen Y, Tang S, Bouguila N, et al. A fast clustering algorithm based on pruning unnecessary distance computations in DBSCAN for high-dimensional data[J]. Pattern Recognition, 2018, 83: 375-387.
[40] Chowdhury S, Helian N, de Amorim R C. Feature weighting in DBSCAN using reverse nearest neighbours[J]. Pattern Recognition, 2023, 137: 109314.
[41] Yang C, Medioni G. Object modeling by registration of multiple range images[C]// 2002 IEEE International Conference on Robotics and Automation (ICRA). Washington, DC, USA: IEEE, 2002: 145-155.
[42] Serafin J, Grisetti G. NICP: Dense normal based point cloud registration[C]// 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Hamburg, Germany: IEEE, 2015: 742-749.
[43] Deschaud J E. IMLS-SLAM: Scan-to-model matching based on 3D data[C]// 2018 IEEE International Conference on Robotics and Automation (ICRA). Madrid, Spain: IEEE, 2018: 2480-2485.
[44] Qin Q, Huang D, Yang Y, et al. Point cloud registration algorithm based on improved ICP[C]// International Conference on Computer Vision, Application, and Algorithm (CVAA 2022). Chongqing, China: SPIE, 2023, 12613: 273-277.
[45] Vizzo I, Guadagnino T, Mersch B, et al. Kiss-icp: In defense of point-to-point icp–simple, accurate, and robust registration if done the right way[J]. IEEE Robotics and Automation Letters, 2023, 8(2): 1029-1036.
[46] Das A, Waslander S L. Scan registration with multi-scale-means normal distributions transform[C]// 2012 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS). Villamora, Portugal: IEEE, 2012: 2705-2710.
[47] Das A, Waslander S L. Scan registration using segmented region growing NDT[J]. The International Journal of Robotics Research, 2014, 33(13): 1645-1663.
[48] Jiang Y, Wang T, Shao S, et al. 3D SLAM based on NDT matching and ground constraints for ground robots in complex environments[J]. Industrial Robot: The International Journal of Robotics Research and Application, 2023, 50(1): 174-185.
[49] Chiu Y T, Srinara S, Tsai M L, et al. Improvement of LiDAR-SLAM-based 3D NDT localization using fault detection and exclusion algorithm[J]. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 2022, 43: 189-195.
[50] 張洪華, 劉璇, 陳付豪, 等. 基于圖優(yōu)化的SLAM后端優(yōu)化研究與發(fā)展[J]. 計算機應用研究, 2019(1): 7.
[51] Zhou B, Li C, Chen S, et al. ASL-SLAM: A LiDAR SLAM with activity semantics-based loop closure[J]. IEEE Sensors Journal, 2023, 23(12): 13499-13510.
[52] Shan T, Englot B, Duarte F, et al. Robust place recognition using an imaging LiDAR[C]// 2021 IEEE International Conference on Robotics and Automation (ICRA). Xi'an, China: IEEE, 2021: 5469-5475.
[53] Bosse M, Zlot R. Place recognition using keypoint voting in large 3D LiDAR datasets[C]// 2013 IEEE International Conference on Robotics and Automation (ICRA). Karlsruhe, Germany and Hong Kong, China: IEEE, 2013: 2677-2684.
[54] Yang L, Yu Z, Deng C, et al. Three-Dimensional LiDAR localization and mapping with loop-closure detection based on dense depth information[J]. Mathematics, 2023, 11(9): 2211.
[55] Cui Y, Chen X, Zhang Y, et al. Bow3d: Bag of words for real-time loop closing in 3D LiDAR slam[J]. IEEE Robotics and Automation Letters, 2022, 8(5): 2828-2835.
[56] Hofstetter I, Sprunk M, Ries F, et al. Reliable data association for feature-based vehicle localization using geometric hashing methods[C]// 2020 IEEE International Conference on Robotics and Automation (ICRA). Paris, France: IEEE, 2020: 1322-1328.
[57] Rizzini D L. Place recognition of 3D landmarks based on geometric relations[C]// 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Vancouver, Canada: IEEE, 2017: 648-654.
[58] Kim G, Kim A. Scan context: Egocentric spatial descriptor for place recognition within 3d point cloud map[C]// 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Madrid, Spain: IEEE, 2018: 4802-4809.
[59] Liu K, Cao M. Dlc-slam: A robust lidar-slam system with learning-based denoising and loop closure[J]. IEEE/ASME Transactions on Mechatronics, 2023.
[60] Xu M, Lin S, Wang J, et al. A LiDAR SLAM system with geometry feature group based stable feature selection and three-stage loop closure optimization[J]. IEEE Transactions on Instrumentation and Measurement, 2023.
Progress and application of LiDAR-based SLAM technology
LI Xiaokai1, LI Guangyun1, SUO Shiheng2, GAO Xinyuan3
(1.Institute of Geospatial Information, Information Engineering University, Zhengzhou, Henan 450001, China; 2.Information Center of the Ministry of Culture and Tourism, Beijing 100740, China; 3. Land Satellite Remote Sensing Application Center, Beijing 100048, China)
Aiming at the problems that in recent years, although significant progress has been made for laser radar (LiDAR)-based simultaneous localization and mapping (SLAM) in the advancements in laser sensor technology, the stability and accuracy of motion estimation algorithms, the accuracy and consistency of map optimization algorithms, and the deep integration with many other sensors, when dealing with moving and complex scenes, the LiDAR odometry based on point cloud matching exhibits poor robustness and is prone to failure, the backend optimization algorithms in large-scale scenarios consume a large amount of computing resources and cannot meet real-time requirements, and the loop back detection in different scenarios is easy to bring high cost and mismatch, and so on, the paper studied and analyzed the progress and application of LiDAR-based SLAM technology: the LiDAR system and the LiDAR-based SLAM framework were elaborated; and the key technologies and modules of LiDAR-based SLAM were introduced in detail, then the laser SLAM and visual SLAM systems were comparatively analyzed; finally, combined with recent research advancements, it was pointed out that laser SLAM technology could have significant application potential in the domains of autonomous driving, robot navigation and industrial automation, furthermore, the future research trend would primarily focus on the fusion of multi-source sensors, the enhancement of optimization strategies, and the integration with scene recognition and environmental awareness technologies.
laser radar (LiDAR); simultaneous localization and mapping (SLAM) technology; point cloud processing; scan matching; backend optimization
李梟凱, 李廣云, 索世恒, 等. 激光SLAM技術進展[J]. 導航定位學報, 2023, 11(4): 8-17.(LI Xiaokai, LI Guangyun, SUO Shiheng, et al. Progress and application of LiDAR-based SLAM technology[J]. Journal of Navigation and Positioning, 2023, 11(4): 8-17.)DOI:10.16547/j.cnki.10-1096.20230402.
P228
A
2095-4999(2023)04-0008-10
2022-12-20
李梟凱(1993—),男,河南洛陽人,博士,研究方向為室內導航定位與建圖。
李廣云(1965—),男,江蘇南京人,博士,教授,研究方向為大地測量學、測量工程和衛(wèi)星導航等。