摘" 要: 針對非結(jié)構(gòu)化內(nèi)河航道激光點(diǎn)云有效特征難以提取,導(dǎo)致回環(huán)檢測準(zhǔn)確率低的問題,提出一種基于反射強(qiáng)度掃描內(nèi)容的回環(huán)檢測算法。該算法首先提出了基于點(diǎn)云反射強(qiáng)度的全局描述子方法,對經(jīng)過預(yù)處理后的點(diǎn)云進(jìn)行反射強(qiáng)度校正,降低點(diǎn)云畸變影響;然后提出了基于ISC描述子的快速回環(huán)檢測方法,將點(diǎn)云的反射強(qiáng)度掃描內(nèi)容作為全局描述子,以增加有效特征點(diǎn)云;最后研究了基于幀?子地圖匹配的回環(huán)位姿變換方法,并搭建了一套船載激光SLAM軟硬件系統(tǒng)平臺驗(yàn)證了上述算法的可行性。實(shí)驗(yàn)結(jié)果表明,文中的回環(huán)檢測算法準(zhǔn)確率提升了20%,處理時(shí)間減少了24%,說明該算法在提高檢測速度的同時(shí)還提升了建圖的精度。
關(guān)鍵詞: 智能船舶; 激光點(diǎn)云; 反射強(qiáng)度; 位姿匹配; 回環(huán)檢測; 全局描述子
中圖分類號: TN911?34; U675.73" " " " " " " " " "文獻(xiàn)標(biāo)識碼: A" " " " " " " " " " 文章編號: 1004?373X(2024)23?0113?06
Shipborne LiDAR SLAM loop detection algorithm based on point cloud reflection intensity
WANG Chihua1, 2, CHEN Qian1, 3, HU Dakai3, HE Shuguang4, YANG Yueheng3, ZHANG Jinkun3, 5, TANG Xin1, 3, LI Xiaohuan1, 3
(1. Guangxi Research Institute of Comprehensive Transportation Big Data, Nanning 530001, China;
2. Guangxi Beigang Big Data Technology Co., Ltd., Nanning 530001, China; 3. Guilin University of Electronic Technology, Guilin 541004, China;
4. Guangxi Beibu Gulf International Port Group Co., Ltd., Nanning 530001, China; 5. GUET?Nanning E?Tech Research Institute Co., Ltd., Nanning 530001, China)
Abstract: In view of the low loop detection accuracy due to the difficulties in extracting effective features of LiDAR point clouds in unstructured inland waterways, a loop detection algorithm based on reflection intensity scanning content is proposed. A global descriptor method based on point cloud reflection intensity is proposed to correct the reflection intensity of the preprocessed point cloud, so as to reduce the distortion effect of the point cloud. Then, a fast loop detection method based on ISC descriptor is proposed, which takes the reflection intensity scanning content of point cloud as the global descriptor to increase the effective featured point cloud. A method of loop pose transformation based on frame?submap matching is further studied. A shipborne LiDAR SLAM software and hardware system platform is built to verify the feasibility of the above algorithm. Experimental results show that the proposed algorithm improves the loop detection accuracy by 20% and reduces the processing time by 24%, which indicates that the proposed algorithm improves not only the detection speed, but also the accuracy of mapping construction.
Keywords: intelligent ship; LiDAR point cloud; reflection intensity; pose matching; loop detection; global descriptor
0" 引" 言
內(nèi)河船舶作為我國水運(yùn)體系的重要組成部分,扮演著貨物運(yùn)輸、資源輸送等重要角色[1]。然而,傳統(tǒng)的船舶自動(dòng)識別系統(tǒng)(Automatic Identification System, AIS)、全球?qū)Ш叫l(wèi)星系統(tǒng)(Global Navigation Satellite System, GNSS)等存在自主定位誤差大的問題,不能應(yīng)用于智能船舶自動(dòng)靠離泊、無人駕駛船舶等,因此急需一種適用于內(nèi)河環(huán)境的高精船舶自主定位技術(shù)。激光SLAM(Simultaneous Localization and Mapping)作為一種自主定位與建圖技術(shù),可通過激光雷達(dá)獲取船舶周圍航行環(huán)境信息,實(shí)現(xiàn)船舶的自主定位與建圖[2]。
然而,在內(nèi)河水域中,水面會(huì)吸收大量激光點(diǎn)云,進(jìn)而使得接收的有效點(diǎn)云特征變得更加稀疏,且現(xiàn)有的研究多是基于地面點(diǎn)云特征的激光SLAM算法[3?5],僅通過里程計(jì)計(jì)算位姿信息并生成點(diǎn)云地圖[6],直接應(yīng)用于內(nèi)河船舶激光SLAM時(shí),定位和建圖精度急劇下降。文獻(xiàn)[7]在LeGO?LOAM算法[8]的基礎(chǔ)上融入IMU和GNSS差分?jǐn)?shù)據(jù),提高了地圖構(gòu)建的準(zhǔn)確性,但該方法嚴(yán)重依賴GNSS,未考慮從激光點(diǎn)云的特性參數(shù)進(jìn)行有效特征提取。文獻(xiàn)[9]提出激光雷達(dá)點(diǎn)云和IMU數(shù)據(jù),通過Cartographer框架進(jìn)行船載多傳感器融合定位,但該SLAM算法是基于單線激光雷達(dá),只能輸出二維地圖,無法滿足三維高精定位與建圖的有效特征提取需求。文獻(xiàn)[10]提出一種激光慣導(dǎo)緊耦合框架U?LOAM[11],使用IMU輸出對點(diǎn)云進(jìn)行運(yùn)動(dòng)畸變校正,提高了水面環(huán)境上的船舶自主定位精度,但其回環(huán)檢測模塊基于歐氏距離,未考慮累積誤差對回環(huán)檢測的影響。進(jìn)一步,隨著深度學(xué)習(xí)的迅速發(fā)展,激光SLAM中引入深度學(xué)習(xí)[12]的方法有PSF?LO[13]、CAE?LO[14]和DMLO[15]等,然而這些基于深度學(xué)習(xí)的SLAM算法普遍缺乏已標(biāo)注的點(diǎn)云數(shù)據(jù)集,且大多用于離線建圖,時(shí)效性也難以保障。進(jìn)一步,回環(huán)檢測使用局部點(diǎn)云特征進(jìn)行場景識別以提高建圖的精度[16]。文獻(xiàn)[17]通過從點(diǎn)云中隨機(jī)選擇關(guān)鍵點(diǎn)并提取區(qū)域形狀描述子,使用投票策略查找關(guān)鍵點(diǎn)最近鄰的方法來識別場景。文獻(xiàn)[18]將點(diǎn)云數(shù)據(jù)轉(zhuǎn)換為距離圖像,并提取每個(gè)關(guān)鍵點(diǎn)的特征描述子向量,并使用構(gòu)建的Kd?tree高效處理高維度向量。為了提高場景識別的性能,引入了NARF局部描述子和詞袋模型匹配方法[19],然而,局部描述子不足以表征整個(gè)點(diǎn)云的特征,全局有效特征難以獲取。
為解決上述挑戰(zhàn),本文提出一種基于點(diǎn)云反射強(qiáng)度的船載激光SLAM回環(huán)檢測算法。該算法首先基于點(diǎn)云反射強(qiáng)度的全局描述子方法,降低點(diǎn)云畸變影響;然后基于ISC描述子的快速回環(huán)檢測方法,以增加有效特征點(diǎn)云;最后基于幀?子地圖匹配的回環(huán)位姿變換方法,搭建船載激光SLAM軟硬件驗(yàn)證系統(tǒng)平臺以驗(yàn)證上述算法的有效性。
1" 算法設(shè)計(jì)
本文提出的船載激光SLAM系統(tǒng)如圖1所示。該系統(tǒng)主要針對非結(jié)構(gòu)化內(nèi)河航道激光點(diǎn)云有效特征難以提取導(dǎo)致回環(huán)檢測準(zhǔn)確率低的問題。首先,在前端里程計(jì)模塊中,輸入的激光雷達(dá)點(diǎn)云經(jīng)過無效點(diǎn)去除、降采樣等預(yù)處理操作后,按照點(diǎn)云的粗糙度提取平面和邊緣兩類特征點(diǎn),通過點(diǎn)到直線與點(diǎn)到平面的距離構(gòu)建非線性殘差方程,迭代求解以得到里程計(jì)位姿;然后,創(chuàng)新性提出了基于點(diǎn)云反射強(qiáng)度全局描述子的方法,用于提取建圖的有效點(diǎn)云特征,并對經(jīng)過預(yù)處理后的點(diǎn)云進(jìn)行反射強(qiáng)度校正以提取該幀點(diǎn)云的反射強(qiáng)度掃描內(nèi)容描述子,通過KNN算法快速查找與當(dāng)前點(diǎn)云幀相似的候選關(guān)鍵幀,并計(jì)算當(dāng)前幀與候選點(diǎn)云幀之間的相似程度,選擇其中最相似的點(diǎn)云幀作為最優(yōu)關(guān)鍵幀,實(shí)現(xiàn)快速回環(huán)檢測;最后,設(shè)計(jì)一種改進(jìn)的迭代最近鄰算法求解回環(huán)位姿變換,并將該位姿約束加入到后端建圖優(yōu)化模塊中,得到經(jīng)過修正后的航行軌跡和全局航道點(diǎn)云地圖。
1.1" 基于點(diǎn)云反射強(qiáng)度的全局描述子
激光雷達(dá)返回的點(diǎn)云強(qiáng)度值不僅受物體表面特性的影響,還會(huì)受到采集位置、儀器性能等各種因素的影響。因此,為了得到非結(jié)構(gòu)航道邊界物的點(diǎn)云反射強(qiáng)度值,降低點(diǎn)云畸變影響,本文首先對點(diǎn)云發(fā)射強(qiáng)度值進(jìn)行校正。激光點(diǎn)云的強(qiáng)度值由點(diǎn)云接收功率和發(fā)射功率二者之間的比值確定,接收功率[Pr]及激光點(diǎn)云強(qiáng)度值[Ir]定義為:
[Pr=PeD2rμ4R2ωsysωatmcos α] (1)
[Ir=PrPe=D2rμ4R2ωsysωatmcos α=ωcomμcos αR2] (2)
式中:[Pe]為激光的發(fā)射功率;[Dr]為激光接收器的孔徑大??;[μ]為激光點(diǎn)所在的材料反射率;[R]為激光點(diǎn)到接收器的距離;[ωsys]為激光束在接收系統(tǒng)中的傳輸因子;[ωatm]為激光束在空氣中的傳輸因子;[α]為激光束在物體表面的入射角;[ωcom]為最終合并的常數(shù)因子。
從式(1)和式(2)可以看出,物體表面的反射率[μ]與距離[R]和入射角[α]有關(guān)。
[μ∝IrR2cosα] (3)
對于某時(shí)刻測量得到的激光點(diǎn)云幀,各個(gè)點(diǎn)的距離已經(jīng)得到,入射角[α]可以通過分析點(diǎn)的法向量進(jìn)行估計(jì)。對于每個(gè)激光點(diǎn)[p∈R3],局部表面法向量[n]表示為:
[n=(p-p1)×(p-p2)p-p1p-p2] (4)
式中:[p1]、[p2]分別為當(dāng)前點(diǎn)[p]的兩個(gè)最近鄰點(diǎn)。
可以計(jì)算入射角[α]的余弦值為:
[cosα=pT?np] (5)
參考文獻(xiàn)[20],采用校正函數(shù)[φ]對反射強(qiáng)度通道讀數(shù)[Ir]進(jìn)行校正,可得校正后的反射強(qiáng)度[Ical]為:
[Ical=φIr,R] (6)
對于含有[n]個(gè)激光點(diǎn)的點(diǎn)云幀,表示為[P={p1,p2,…,pk,…,pn}],每個(gè)點(diǎn)[pk]都有4個(gè)通道的讀數(shù),分別是三維空間坐標(biāo)讀數(shù)和反射強(qiáng)度讀數(shù),在局部笛卡爾坐標(biāo)系[21]下可以表示為[pk=xk,yk,zk,ηk],將其轉(zhuǎn)換成極坐標(biāo)表示[Γpk=dk,θk],其中距離[dk]和方位角[θk]分別為:
[dk=x2k+y2k] (7)
[θk=arctanykxk] (8)
式中[θk]為激光與坐標(biāo)軸的夾角。將極坐標(biāo)按照徑向和環(huán)向劃分成[Nr×Ns]個(gè)子空間,每一個(gè)子空間的定義為:
[Sij=pk∈Pi?DmaxNr≤dklt;(i+1)?DmaxNr,j?2πNs≤θklt;(j+1)?2πNs] (9)
式中:[i]、[j]分別為徑向和環(huán)向的索引,并且[i∈1,2,…,Nr],[j∈1,2,…,Ns];[Dmax]為設(shè)置的最遠(yuǎn)距離閾值。
由于每個(gè)子空間遠(yuǎn)小于整個(gè)點(diǎn)云空間,當(dāng)子空間足夠小時(shí),可以認(rèn)為子空間內(nèi)的點(diǎn)云均屬于同一個(gè)物體,因此返回的強(qiáng)度讀數(shù)相近,所以使用式(10)對子空間進(jìn)行編碼。當(dāng)[Sij??]時(shí),[ζij=0]。至此,可以得到一幀點(diǎn)云的反射強(qiáng)度掃描內(nèi)容ISC描述子[Ω]。
[ζij=κSij=meanpk∈Sijηk] (10)
[Ω(i, j)=ζij] (11)
式中:[κ?]表示編碼函數(shù);mean表示取平均值。
1.2" 基于ISC描述子的快速回環(huán)檢測
回環(huán)檢測從所有歷史點(diǎn)云幀尋找與當(dāng)前時(shí)刻點(diǎn)云最相似的點(diǎn)云作為目標(biāo)回環(huán)幀,隨著運(yùn)動(dòng)時(shí)間的增加,歷史幀數(shù)據(jù)庫大小迅速增加,計(jì)算量也隨之劇增。為減少回環(huán)檢測的運(yùn)算量和計(jì)算時(shí)間,本文提出一種基于ISC描述子的快速回環(huán)檢測算法。
首先,從歷史幀數(shù)據(jù)庫中提取回環(huán)候選幀。引入快速索引向量概念,計(jì)算方式如式(12)所示。計(jì)算歷史幀ISC描述子的快速索引向量,然后構(gòu)建關(guān)于快速索引向量的Kd?tree[22],通過KNN近鄰搜索與當(dāng)前幀快速索引向量相似的快速索引向量對應(yīng)的歷史幀作為回環(huán)候選幀。
[ε=j=1NsΩ1, j,j=1NsΩ2, j,…,j=1NsΩNr, jT] (12)
式中[Ωi, j]為ISC描述子的第[i]行、第[j]列元素。
可以看出快速索引向量[ε]為ISC矩陣各行之和組成的列向量,并且具備旋轉(zhuǎn)不變性,當(dāng)在同一個(gè)地點(diǎn)激光雷達(dá)的水平視角變化時(shí),對應(yīng)的快速索引向量不會(huì)有太大改變。
使用余弦相似度作為快速索引向量之間相似程度的度量,如式(13)所示:
[cos(ε,ε)=ε?εεε] (13)
然后,計(jì)算當(dāng)前點(diǎn)云幀和回環(huán)候選幀之間的反射強(qiáng)度掃描內(nèi)容相似度。由于在同一場景中激光雷達(dá)水平視角變化時(shí),對應(yīng)的ISC描述子發(fā)生列偏移,所以使用所有列偏移情況下的最大相似度作為兩個(gè)ISC描述子的相似度。而直接使用ISC描述子計(jì)算所有列偏移量計(jì)算量過大,本文使用偏移索引向量計(jì)算最大相似度下的列偏移量。得到最佳偏移量后計(jì)算當(dāng)前點(diǎn)云幀與多個(gè)回環(huán)候選幀之間的ISC描述子相似度,選擇相似度最大且超過閾值的候選幀作為回環(huán)幀。偏移索引向量為ISC描述子各列之和組成的行向量,余弦相似度作為偏移索引向量之間相似程度的度量,表達(dá)式分別為:
[ψ=i=1NrΩi,1,i=1NrΩi,2,…,i=1NrΩi,Ns] (14)
[τ=maxk∈0,Ns-1=ψc?ψqkψcψqk=maxk∈0,Ns-1ψc?ψqk] (15)
式中:[ψc]表示回環(huán)候選幀對應(yīng)的偏移索引向量;[ψqk]表示當(dāng)前點(diǎn)云幀的偏移索引向量循環(huán)移動(dòng)[k]位后的新向量;[τ]為在兩個(gè)偏移索引向量最相似時(shí)當(dāng)前點(diǎn)云幀的偏移量,稱為最佳偏移。
獲得最佳偏移后,當(dāng)前點(diǎn)云幀的ISC描述子[Ωc]也進(jìn)行相應(yīng)的偏移得到新描述子[Ωcτ],計(jì)算回環(huán)候選幀與當(dāng)前點(diǎn)云幀的相似度。
[φ(Ωq,Ωcτ)=1Nsi=1Nsvqi?vcτivqivcτi] (16)
式中:[vqi]為回環(huán)候選幀的第[i]列向量;[vcτi]為[Ωcτ]的第[i]列向量。
1.3" 基于幀?子地圖匹配的回環(huán)位姿變換
快速回環(huán)檢測算法計(jì)算出當(dāng)前關(guān)鍵幀與回環(huán)候選幀的反射強(qiáng)度相似度之后,當(dāng)該值超過設(shè)定的閾值時(shí),則認(rèn)為檢測到了回環(huán),之后需要進(jìn)一步計(jì)算當(dāng)前幀與回環(huán)幀之間的位姿變換,以提高位姿匹配的精度。由于單幀點(diǎn)云數(shù)據(jù)較為稀疏,直接使用幀?幀進(jìn)行ICP匹配時(shí)誤差大,因此,本文提出一種基于幀?子地圖匹配的回環(huán)位姿變換方法。該方法將當(dāng)前關(guān)鍵幀與前面[K]幀點(diǎn)云拼接成局部子地圖,回環(huán)幀與其前后各[L]幀拼接成子地圖,對這兩個(gè)子地圖使用點(diǎn)到面ICP算法匹配求解二者的位姿變換。對于兩組點(diǎn)云[P={p1,p2,…,pi,…,pN}]和[Q={q1,q2,…,qj,…,qN}],待優(yōu)化的目標(biāo)函數(shù)為:
[F=minR,ti=1Nn(R?qi+t-pi)2] (17)
式中:[R]表示旋轉(zhuǎn)變換;[t]表示平移變換;[n]為平面的法向量;[pi]為點(diǎn)[qi]經(jīng)過旋轉(zhuǎn)變換后在點(diǎn)云[P]中的最近鄰點(diǎn),使用Kd?tree進(jìn)行最近鄰點(diǎn)搜索。
接著,本文使用高斯?牛頓法優(yōu)化求解位姿變換的過程。假設(shè)點(diǎn)[D]為[pi]經(jīng)過變換后得到的點(diǎn),點(diǎn)[A]、[B]、[C]為點(diǎn)[D]的3個(gè)近鄰點(diǎn),點(diǎn)[O]為點(diǎn)[D]在平面[ABC]上的投影,平面[ABC]的歸一化法向量為:
[n=lAD×lAB?normalize] (18)
目標(biāo)函數(shù)為點(diǎn)到平面的距離[lOD],表達(dá)式為:
[lOD=n?nT?lCD] (19)
式中[lCD=R?q+t-pc]。由于牛頓法中的Hessian矩陣計(jì)算復(fù)雜度高,且難以求解二次導(dǎo)數(shù),所以高斯?牛頓法使用Jacobian矩陣的乘積去近似Hessian矩陣,能夠加快計(jì)算速度的同時(shí)保留較高的精度。求取目標(biāo)函數(shù)關(guān)于優(yōu)化變量[t]、[R]的偏導(dǎo)數(shù):
[?lOD?t=?n?nT?R?q+t?t=n?nT] (20)
[?lOD?R=nlimΔ?→0nT?R?expΔ?×q-nT?RqΔ?=-n?nT?Rq×] (21)
Jacobian矩陣可以寫成:
[Ji=?lOD?t,?lOD?R=n?nT,-n?nT?Rq×] (22)
式中[?×]表示從向量轉(zhuǎn)換到對應(yīng)的反對稱矩陣。根據(jù)高斯?牛頓法的結(jié)論,Hessian矩陣可以表示成[Hi=JTiJi],殘差項(xiàng)為[bi=JTi?f=JTi?Idc],從而根據(jù)式(23)求出位姿增量[Δx]。
[i=1nHiΔx=i=1nbi] (23)
2" 基于ISC描述子的快速回環(huán)檢測性能分析
為驗(yàn)證文中提出的回環(huán)檢測算法的性能,本文選用scan context算法[23]作為實(shí)驗(yàn)比較對象,實(shí)驗(yàn)選用了KITTI數(shù)據(jù)集[24]中的序列00、05、07和08四個(gè)場景來評估所提出的方法。本文測試了點(diǎn)云的平均計(jì)算時(shí)間,如表1所示。本文算法比scan context算法的平均計(jì)算時(shí)間減少約24%,這是因?yàn)楸疚乃惴ㄔ诨丨h(huán)檢測時(shí)引入了快速索引向量。首先計(jì)算歷史幀ISC描述子的快速索引向量,然后構(gòu)建關(guān)于快速索引向量的Kd?tree,通過KNN近鄰搜索與當(dāng)前幀快速索引向量相似的快速索引向量對應(yīng)的歷史幀作為回環(huán)候選幀,大大減少了回環(huán)候選幀篩選所需的計(jì)算量,提高了回環(huán)檢測算法的時(shí)效性。
表1" 點(diǎn)云的平均計(jì)算時(shí)間" " " " " " " " " " ms
[算法 00序列 05序列 07序列 08序列 平均計(jì)算時(shí)間 scan context 1.026 1.106 0.992 1.127 1.06 本文算法 0.792 0.813 0.801 0.825 0.80 ]
進(jìn)一步,選用準(zhǔn)確率(Precision)和召回率(Recall)作為評價(jià)本文算法性能的指標(biāo)[25],如圖2所示。
由實(shí)驗(yàn)結(jié)果可以看出,本文提出的回環(huán)檢測算法在所有場景中均優(yōu)于對比算法,在識別出更多回環(huán)的同時(shí)保持較高的準(zhǔn)確率,在相同召回率的情況下(Recall=0.8),實(shí)現(xiàn)回環(huán)檢測準(zhǔn)確率提升了20%。這是因?yàn)椋罕疚乃惴ㄊ紫葘c(diǎn)云發(fā)射強(qiáng)度值進(jìn)行了校正,大大降低點(diǎn)云畸變的影響;同時(shí)提出一種基于幀?子地圖的ICP算法進(jìn)行位姿變換,將當(dāng)前關(guān)鍵幀與前面[K]([K]=4)幀點(diǎn)云拼接成局部子地圖,回環(huán)幀與其前后各[L]([L]=2)幀拼接成子地圖,解決了單幀點(diǎn)云數(shù)據(jù)較為稀疏的問題,有效提升了激光SLAM回環(huán)檢測的準(zhǔn)確率。
3" 船載激光SLAM系統(tǒng)搭建與驗(yàn)證
為了進(jìn)一步驗(yàn)證本文算法在內(nèi)河水面環(huán)境的建圖效果,本文搭建了一套激光點(diǎn)云數(shù)據(jù)采集設(shè)備,如圖3所示。激光雷達(dá)使用速騰聚創(chuàng)RS?16,計(jì)算單元采用AGX Xavier。點(diǎn)云數(shù)據(jù)于桂林漓江航段采集,該區(qū)域的衛(wèi)星圖像如圖4所示。實(shí)驗(yàn)采用LIO?SAM算法作為性能比較的對象,該算法和本文算法的激光SLAM實(shí)驗(yàn)效果分別如圖5和圖6所示。
從圖5a)中可以看出,經(jīng)過長時(shí)間的運(yùn)動(dòng)后算法產(chǎn)生的累積誤差較大,軌跡偏移嚴(yán)重,導(dǎo)致沒有檢測出回環(huán)區(qū)域,進(jìn)而使該區(qū)域處的點(diǎn)云地圖產(chǎn)生明顯的重影,如圖5b)所示。本文船載激光SLAM算法的建圖結(jié)果如圖6所示。由圖6a)可以看出,本文算法能正確識別出回環(huán)區(qū)域,圖6b)修正后的軌跡更接近真實(shí)情況,相應(yīng)的點(diǎn)云經(jīng)過匹配后消除了重影。因此,本文算法在定位精度和建圖效果方面有明顯改善。
4" 結(jié)" 語
本文圍繞非結(jié)構(gòu)化航道環(huán)境下激光點(diǎn)云有效特征難以提取,導(dǎo)致回環(huán)檢測準(zhǔn)確率低及激光SLAM建圖效果差的問題,創(chuàng)新性地引入點(diǎn)云反射強(qiáng)度到激光SLAM的回環(huán)檢測算法中。本文提出了一種基于點(diǎn)云反射強(qiáng)度回環(huán)檢測的船載激光SLAM算法,提高了船載激光SLAM回環(huán)檢測的準(zhǔn)確率和時(shí)效性。實(shí)驗(yàn)結(jié)果表明,該算法在內(nèi)河航道非結(jié)構(gòu)化水域航行環(huán)境下具有良好的實(shí)用性和性能優(yōu)勢,同時(shí)還能夠快速建圖,可應(yīng)用于輔助內(nèi)河智能船舶自主航行、自動(dòng)靠離泊等領(lǐng)域。
注:本文通訊作者為陳倩。
參考文獻(xiàn)
[1] 嚴(yán)新平,李晨,劉佳侖,等.新一代航運(yùn)系統(tǒng)體系架構(gòu)與關(guān)鍵技術(shù)研究[J].交通運(yùn)輸系統(tǒng)工程與信息,2021,21(5):22?29.
[2] 李梟凱,李廣云,索世恒,等.激光SLAM技術(shù)進(jìn)展[J].導(dǎo)航定位學(xué)報(bào),2023,11(4):8?17.
[3] LUO L, CAO S Y, SHENG Z H, et al. LiDAR?based global localization using histogram of orientations of principal normals [J]. IEEE transactions on intelligent vehicles, 2022, 7(3): 771?782.
[4] 柴夢娜,劉元盛,任麗軍.基于激光點(diǎn)云NDT特征的兩步回環(huán)檢測[J].激光與紅外,2020,50(1):17?24.
[5] LI D, LIU N, GUO Y L, et al. 3D object recognition and pose estimation for random bin?picking using partition viewpoint feature histograms [J]. Pattern recognition letters, 2019, 128: 148?154.
[6] JONNAVITHULA N, Lü Y C, ZHANG Z M. LiDAR odometry methodologies for autonomous driving: A survey [EB/OL]. [2021?09?21]. https://arxiv.org/abs/2109.06120.
[7] 張堡瑞.基于激光雷達(dá)掃描和視覺識別結(jié)合的水面環(huán)境探測[D].綿陽:西南科技大學(xué),2022.
[8] SHAN T X, ENGLOT B J. LeGO?LOAM: Lightweight and ground?optimized lidar odometry and mapping on variable terrain [C]// Proceedings of the 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems. New York: IEEE, 2018: 4758?4765.
[9] SHAN T, ENGLOT B, RATTI C, et al. LVI?SAM: Tightly?coupled lidar?visual?inertial odometry via smoothing and mapping [C]// 2021 IEEE International Conference on Robotics and Automation (ICRA). New York: IEEE, 2021: 5692?5698.
[10] ZHANG H, LIU Z Q, WANG Y L. U?LOAM: A real?time 3D lidar SLAM system for water?surface scene applications [C]// 2022 IEEE International Conference on Unmanned Systems. New York: IEEE, 2022: 653?657.
[11] 林子祥,張斌,王嘉盛,等.激光雷達(dá)IMU緊耦合的室內(nèi)大范圍SLAM方法[J].現(xiàn)代電子技術(shù),2023,46(20):135?141.
[12] 李曉,馬社祥,李嘯.基于卷積神經(jīng)網(wǎng)絡(luò)的回環(huán)檢測算法[J].現(xiàn)代電子技術(shù),2022,45(1):72?76.
[13] CHEN G B, WANG B S, WANG X L, et al. PSF?LO: Parame?terized semantic features based lidar odometry [C]// Procee?dings of the 2021 IEEE International Conference on Robotics and Automation (ICRA). New York: IEEE, 2021: 5056?5062.
[14] YIN D Y, ZHANG Q, LIU J B, et al. CAE?LO: LiDAR odometry leveraging fully unsupervised convolutional auto?encoder for interest point detection and feature description [EB/OL]. [2020?01?10]. http://arxiv.org/abs/2001.01354.
[15] LI Z C, WANG N Y. DMLO: Deep matching LiDAR odometry [C]// Proceedings of the 2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). New York: IEEE, 2020: 6010?6017.
[16] LI Y, LIN W B, ZHA T J, et al. Efficient loop closure detection method for Lidar SLAM in challenging environment [C]// Proceedings of the 2021 IEEE International Conference on Control, Robotics and Cybernetics (CRC). New York: IEEE, 2021: 196?199.
[17] BOSSE M, ZLOT R. Place recognition using keypoint voting in large 3D lidar datasets [C]// Proceedings of the 2013 IEEE International Conference on Robotics and Automation. New York: IEEE, 2013: 2677?2684.
[18] STEDER B, GRISETTI G, BURGARD W. Robust place recognition for 3D range data based on point features [C]// Procee?dings of the 2010 IEEE International Conference on Robotics and Automation. New York: IEEE, 2010: 1400?1405.
[19] STEDER B, RUHNKE M, GRZONKA S, et al. Place recognition in 3D scans using a combination of bag of words and point feature based relative pose estimation [C]// Proceedings of the 2011 IEEE/RSJ International Conference on Intelligent Robots and Systems. New York: IEEE, 2011: 1249?1255.
[20] HEWITT R A, MARSHALL J A. Towards intensity?augmented SLAM with LiDAR and ToF sensors [C]// Proceedings of the 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). New York: IEEE, 2015: 1956?1961.
[21] PARK C, MOGHADAM P, KIM S, et al. Elastic LiDAR fusion: Dense map?centric continuous?time SLAM [C]// Procee?dings of the 2018 IEEE International Conference on Robotics and Automation (ICRA). New York: IEEE, 2018: 1206?1213.
[22] BERECZK N, DUCH A, NEMETH K, et al. Quad?kd trees: A general framework for kd trees and quad trees [J]. Theoretical computer science, 2016, 616: 126?140.
[23] KIM G, KIM A. Scan context: Egocentric spatial descriptor for place recognition within 3D point cloud map [C]// Proceedings of the 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems. New York: IEEE, 2018: 4802?4809.
[24] GEIGER A, LENZ P, URTASUN R. Are we ready for autonomous driving? The KITTI vision benchmark suite [C]// Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2012: 3354?3361.
[25] WANG Y, SUN Z Z, XU C Z, et al. LiDAR iris for loop?closure detection [C]// Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). New York: IEEE, 2020: 5769?5775.
作者簡介:王池華(1979—),男,湖北荊州人,高級工程師,研究方向?yàn)橹悄艽啊⒅腔鄹酆健?/p>
陳" 倩(1984—),女,廣西桂林人,高級工程師,研究方向?yàn)橹悄芨兄?、智能交通?/p>
楊粵衡(2000—),男,湖南衡陽人,碩士研究生,研究方向?yàn)橹悄芨兄?、自?dòng)駕駛。
唐" 欣(1988—),男,湖南永州人,博士研究生,高級工程師,研究方向?yàn)槲锫?lián)網(wǎng)技術(shù)、無線通信及網(wǎng)絡(luò)。