張愛武,宮輝力,Jiaguo QI,胡少興,肖 楊
1. 首都師范大學(xué)三維空間信息獲取與應(yīng)用教育重點實驗室,北京 100048; 2. 密歇根州立大學(xué)全球變化和地球觀測中心,美國密歇根州 東蘭辛 48823; 3. 北京航空航天大學(xué)機械工程及自動化學(xué)院,北京 100191
本文提出并介紹作為基于計算機視覺的數(shù)字?jǐn)z影測量智能化新方法之二的“移動激光雷達(dá)瞬時三維構(gòu)像方法”。移動激光雷達(dá)在遙感、測繪、機器人、交通等眾多行業(yè)和部門廣泛應(yīng)用,但是主要應(yīng)用集中在室外[1-2],比如車載激光雷達(dá)系統(tǒng)和航空激光雷達(dá)系統(tǒng),很少在室內(nèi)、地下應(yīng)用。其原因在于常規(guī)的移動激光雷達(dá)必須依靠GPS/IMU(IMU慣性測量單元)組成的高精度POS支持,通過高精度的定向定位數(shù)據(jù)與激光點位數(shù)據(jù)事后融合,才能生成環(huán)境的三維點云圖。然而,在高大建筑群和高大樹林等環(huán)境內(nèi),常常接受不到GPS信號;在室內(nèi)和地下GPS不可用,需要其他手段來解決。移動機器人常用的SLAM(同步定位與地圖創(chuàng)建)方法[3]雖然可以某種程度解決上述問題,但是固化了應(yīng)用環(huán)境[4-9],大多算法不可移植。室內(nèi)可用的算法室外、地下未必可用,地上可用的算法空中未必可用,結(jié)構(gòu)化環(huán)境可用的算法非結(jié)構(gòu)化環(huán)境未必可用。
針對上述問題,本文提出了一種移動激光雷達(dá)的瞬時三維構(gòu)像方法,無須GPS輔助,不用昂貴的IMU,自主定位,瞬時構(gòu)像,并將定位和構(gòu)像誤差約束在有限范圍內(nèi),可在多種環(huán)境內(nèi)應(yīng)用。
本文以本研究團隊開發(fā)的手持激光雷達(dá)系統(tǒng)(圖1)為例,說明本文提出的瞬時構(gòu)像方法。手持激光雷達(dá)系統(tǒng)由3個2D激光雷達(dá)感器和1個低精度的慣性測量單元組成,如圖1。頂部激光傳感器水平掃描,左右2個激光傳感器垂直掃描。3個激光雷達(dá)分別為Top-Lidar、Left-Lidar和Right-Lidar。Left-Lidar和Right-Lidar對稱分布,由于單一激光雷達(dá)視場有限,左右對稱的設(shè)計可以在掃描平面上形成全視場(full field of view,F(xiàn)OV)掃描。
圖1 手持激光雷達(dá)系統(tǒng)結(jié)構(gòu)像Fig.1 Structure model of hand-held LiDAR system
首先將手持激光雷達(dá)移動軌跡看成時間的函數(shù),由激光點位、慣性測量等其他輔助信息計算出移動軌跡,給出每一時刻的位置和姿態(tài)。同時根據(jù)剛剛計算出的位置和姿態(tài)信息將激光腳點映射在一個統(tǒng)一的全局坐標(biāo)系內(nèi),生成三維點云圖。
圖2描述了本文手持激光雷達(dá)系統(tǒng)的工作原理,導(dǎo)航模塊負(fù)責(zé)處理慣性測量單元等傳感器的輸入數(shù)據(jù),解算出系統(tǒng)載體的位姿,有可擴展性。構(gòu)像模塊將導(dǎo)航模塊的位姿輸出和激光雷達(dá)的掃描數(shù)據(jù)融合,實現(xiàn)系統(tǒng)的定位并同步構(gòu)建三維點云圖,結(jié)合優(yōu)化平差算法去除累積誤差。各傳感器數(shù)據(jù)的姿態(tài)解算、坐標(biāo)轉(zhuǎn)換與數(shù)據(jù)融合在文獻[10—12]中有論述,這里不再贅述。本文重點論述其中的3個主要環(huán)節(jié):①定標(biāo),將視準(zhǔn)軸角誤差預(yù)先檢校出來;②有效特征提取,使其適應(yīng)不同應(yīng)用環(huán)境,提高計算速度;③快速平差,消除累計誤差。
圖2 手持激光雷達(dá)系統(tǒng)原理模型Fig.2 Principle model of hand-held LiDAR system
不同類型的傳感器采集信息的數(shù)據(jù)模式不同,信息描述空間也不同,物理屬性不同、局部坐標(biāo)系也不同,多傳感器獲取的多模式數(shù)據(jù)需要融合,構(gòu)建出同一空間描述的連續(xù)的三維環(huán)境點云圖。在這個過程中,影響激光雷達(dá)三維構(gòu)像質(zhì)量的因素很多[13],除了傳感器本身的誤差外,最重要的限制因素就是定位誤差和系統(tǒng)的安裝誤差。安裝誤差包括視準(zhǔn)軸角誤差和偏心距誤差。視準(zhǔn)軸角誤差是激光傳感器坐標(biāo)系與IMU本體坐標(biāo)系的三個軸向不能精確對齊導(dǎo)致的。偏心距是激光傳感器中心與慣性測量單元中心的偏差,可以在設(shè)計時給定,視準(zhǔn)軸角誤差只能通過試驗的方法定標(biāo),且不可忽略不計。
視準(zhǔn)軸角誤差對點云坐標(biāo)誤差的影響可以用式(1)近似表示
εboresight[m]=Range[m]×θboresight
(1)
式中,θboresight為視準(zhǔn)軸角誤差(以弧度表示);εboresight為點云坐標(biāo)誤差,Range為LiDAR到被測目標(biāo)點的距離。
如圖3所示,當(dāng)在不同方位下掃描同一平面特征時,由于有視準(zhǔn)軸角誤差的存在,會導(dǎo)致LiDAR到被測目標(biāo)點的距離變化。根據(jù)式(1)可知,兩次掃描得到的點云將分別位于紅色和綠色平面上,沒有完全共面,而黑色平面才是視準(zhǔn)軸角誤差消除后點云所屬的理想平面。
圖3 基于平面特征的視準(zhǔn)軸角誤差校正原理Fig.3 Principle of bore-sight error calibration based on plane features
常規(guī)的移動激光雷達(dá)系統(tǒng)視準(zhǔn)軸角誤差定標(biāo)方法有很多[14-15],以視準(zhǔn)軸角誤差會導(dǎo)致多方位掃描同一平面特征時所獲得的點云不共面為依據(jù),文獻[16]提出了多平面組合的點掃傳感器視準(zhǔn)軸角誤差定標(biāo)方法[19]。不需要額外控制點,以場景中構(gòu)成平面幾何特征的點云的原始觀測值作為輸入,建立針對平面特征點云的數(shù)學(xué)模型,然后線性化得到Gauss-Helmert平差模型,并推導(dǎo)出計算視準(zhǔn)軸角誤差的方程,以各傳感器制造商所提供的數(shù)據(jù)精度建立隨機模型,通過迭代計算視準(zhǔn)軸誤差。
常用的SLAM方法總是借助濾波的方法[3,9]推算出下一時刻的位姿,并抑制位置漂移,減少累積誤差。其主要消除定位誤差,對于其他誤差的限制并不明顯。
本文將激光傳感器獲取的每一時刻的點位數(shù)據(jù)稱為“單幀”三維點云。幀間三維點云需要關(guān)聯(lián)與配準(zhǔn),不斷預(yù)測與調(diào)整位置,增量構(gòu)像。那么,關(guān)聯(lián)與配準(zhǔn)好不好、快不快、在不同環(huán)境的適應(yīng)能力強不強與參與計算的特征有直接關(guān)系。本次研究團隊提出一種直線特征提取算法[10-11]及掃描線配準(zhǔn)方法[17],但在解決實際復(fù)雜問題有時受限。文獻[18—22]提出了不同的有效特征,雖然各有特點,但是不適合瞬時構(gòu)像。文獻[23]提出用學(xué)習(xí)方法構(gòu)建語義幾何特征,數(shù)據(jù)關(guān)聯(lián)與配準(zhǔn)的效果雖好,但很難獲取大量的學(xué)習(xí)訓(xùn)練樣本。本文提出用平整度構(gòu)造有效特征的方法。
每條激光掃描線會形成互不相交的掃描平面。特征提取以掃描線為單位,提取每條掃描線中的邊界特征點和平面特征點。用少數(shù)代表性最強的點描述一條掃描線包含的信息,而不是直接用全部點參加數(shù)據(jù)關(guān)聯(lián)配準(zhǔn),提高處理速度。對于某點i,選擇i兩側(cè)相同個數(shù)的點作為相鄰點集S,計算i到S中每個點的向量和的模,再除以i點到激光傳感器發(fā)射中心的距離,獲得該點“平整度”c。取出該掃描線中c值最大的n個點作為邊界點,取出c值最小(接近0)的n個點作為平面點。這兩類特征點存在于絕大部分應(yīng)用環(huán)境中。
(2)
式中,Pi為點i坐標(biāo)。
此時的特征點僅僅是一個孤立點,如果直接用這些提取的特征點進行幀間配準(zhǔn),往往出現(xiàn)二義性。筆者采用點特征直方圖描述子(point feature histogram,PFH)代替這孤立的特征點。以提取的特征點為中心點計算PFH。PFH是對中心點鄰域范圍內(nèi)空間差異的一種量化,通過數(shù)理統(tǒng)計的方法獲得一個用于描述中心點鄰域幾何信息的直方圖[24]。圖4表示的是中心點p0的PFH計算影響區(qū)域,p0用圓點標(biāo)注,深色線表示以p0為球心r為半徑的球,p0的所有鄰域點(即與點p0的距離小于半徑r的所有點)全部互相連接在一個網(wǎng)中。通過統(tǒng)計鄰域內(nèi)所有兩點之間的四參數(shù)[24],求得PFH描述子。PFH代表特征點鄰域的幾何信息。接下來的幀間配準(zhǔn)用特征點演繹出的PFH參與計算。
圖4 影響區(qū)域Fig.4 Sphere of influence
每一個特征點的PFH都有一個到上一幀數(shù)據(jù)的特征點PFH的特征距離d,如果能找到一個位姿變換盡量讓所有特征距離都為0,那這個位姿變換就是載體在這兩幀數(shù)據(jù)之間的運動。這個問題可以轉(zhuǎn)化為一個最優(yōu)化問題:求能使全部距離d最小的位姿變換Tk=[txtytzrxryrz],tx、ty、tz為平移距離;rx、ry、rz為繞各軸旋轉(zhuǎn)的角度。優(yōu)化問題概括為f(Pk,Tk)=dk→0,Pk為k時刻特征點矩陣,dk為k時刻特征距離矩陣,Tk為k-1時刻到k時刻載體的位姿變換。根據(jù)計算的Tk更新點云位置,不斷循環(huán),增量構(gòu)像。
持續(xù)的累加數(shù)據(jù)必然會造成位置軌跡漂移,需要優(yōu)化平差。以往的算法是最后進行全局優(yōu)化平差,速度慢,達(dá)不到瞬時構(gòu)像的目的。本文提出快速優(yōu)化平差算法,換句話就是幾幀一平差。在構(gòu)像的同時進行平差,根據(jù)平差結(jié)果繼續(xù)構(gòu)像。
假設(shè)在移動過程中,連續(xù)掃描了n+1幀S0,S1,…,Sn。若利用ICP算法,從S0,S1,…,Sn依次配準(zhǔn),會產(chǎn)生累積誤差。文獻[7,25]提出了6自由度的全局一致性激光掃描數(shù)據(jù)匹配方法,進行全局位置優(yōu)化,減小隨著載體移動而產(chǎn)生的累計導(dǎo)航誤差。設(shè)S0,S1,…,Sn對應(yīng)的載體在導(dǎo)航坐標(biāo)系內(nèi)的位姿向量為V0,…,Vn;Vi=(xi,yi,zi,rxi,ryi,rzi),i=0,…,n。假如Sn和Sm有Cnm對應(yīng)點對〈i1,j1〉,…,〈iCnm,jCnm〉,那么,根據(jù)ICP算法,位姿向量Vn和Vm約束條件是在導(dǎo)航坐標(biāo)系內(nèi)對應(yīng)點對距離平方和最小。
l(Vn,Vm)=
(3)
(4)
式中,q1和q2僅表示序號。經(jīng)過上述幾何校正,重新調(diào)整了三維點位坐標(biāo),減少了坐標(biāo)轉(zhuǎn)換過程中的累積誤差。
為了評估本文算法性能,用圖2的裝備在3種截然不同的環(huán)境中做構(gòu)像試驗。室內(nèi)試驗驗證算法對累積誤差的處理能力,爬樓梯試驗驗證算法的泛化能力,林地試驗驗證算法對非結(jié)構(gòu)化環(huán)境的適應(yīng)能力。
本文手持激光雷達(dá)系統(tǒng)不依靠GPS傳感器,可以在室內(nèi)應(yīng)用。因此,本試驗選擇了室內(nèi)走廊通道,手持激光雷達(dá)繞走廊行走一周,最后回到起點。由于實施了視準(zhǔn)軸誤差定標(biāo)、有效特征提取、優(yōu)化平差等措施,試驗者可一邊走一邊瞬時構(gòu)像,且回環(huán)處均無縫閉合(圖5),沒有跳躍,沒有不連續(xù),在直角拐彎處,點云圖保持直角。從圖5的局部放大圖中,獲的三維點云清晰表述了窗戶、門及屋內(nèi)房頂?shù)匿摷?。本文采用了快速?yōu)化平差,起點和終點處的三維點云完全閉合。
圖5 室內(nèi)走廊試驗獲取的三維激光點云(從屋內(nèi)走向走廊)Fig.5 3D loop-closed point cloud from an experiment done in interior corridors
圖6是室內(nèi)走廊點云的俯視圖,可以看到所有立面的水平投影均成直線。從放大圖上看立面投影的點均勻分布,沒有離散點。說明本文算法的定位和構(gòu)像誤差控制在了允許的范圍內(nèi),沒有造成大的跳躍和漂移。
圖6 室內(nèi)走廊試驗獲取的三維激光點云的俯視圖Fig.6 Top view of the closed 3D point cloud
同樣的走廊通道,采用文獻[18]提出的拓展卡爾曼濾波的數(shù)據(jù)處理方法,數(shù)據(jù)處理時間長,達(dá)不到瞬時構(gòu)像。
為了說明累計誤差修正的重要性,圖7顯示了累計誤差消除前后的對比結(jié)果。在增量構(gòu)像中能有效地抵制定位所帶來的發(fā)散誤差,卻不能直接消除定位累計誤差。圖7(a)中深色圈部分顯示了由于累計誤差在回環(huán)處出現(xiàn)了點云不連續(xù),圖7(b)顯示經(jīng)過快速優(yōu)化平差后的結(jié)果。可見優(yōu)化平差減小累計誤差是移動三維構(gòu)像一個重要方面。
圖7 累計誤差消除前后的對比圖Fig.7 Comparison diagram between with accumulative errors and without cumulative errors
爬樓梯實際上是對移動三維構(gòu)像非常大的挑戰(zhàn),特別是本文這種無GPS,沒有昂貴高精度IMU支持的移動激光雷達(dá)三維構(gòu)像系統(tǒng)。爬樓梯的過程屬于垂直構(gòu)像,而不是水平構(gòu)像。常規(guī)的移動激光雷達(dá),如車載激光雷達(dá)和機載激光雷達(dá)的構(gòu)像過程是水平構(gòu)像。垂直構(gòu)像對定位準(zhǔn)確性和抗干擾能力提出更高的要求。本文方法屬于自主定位與瞬時構(gòu)像,對外界的適應(yīng)能力更強。圖8是爬樓梯獲得的連續(xù)三維點云圖,深色線表示試驗者手持裝備行走的軌跡,包括上樓梯和下樓梯,點云連續(xù)不間斷、無跳躍。圖8中包含一小(a)一大(b)兩個樓梯,小樓梯是三級樓梯,試驗者手持裝備從小樓梯走上平臺,再從大樓梯走下平臺。這個過程是一個不斷攀升再下降的過程,在攀升下降過程中本文算法給出定位與構(gòu)像結(jié)果。實驗結(jié)果的點云圖中所有回環(huán)處沒有跳躍,點云連續(xù)不間斷。試驗證明了本文構(gòu)像方法對環(huán)境的自適應(yīng)能力和抗干擾能力。
圖8 爬樓梯獲得的連續(xù)三維點云圖Fig.8 3D laser point clouds collected while climbing stairs
試驗者手持激光雷達(dá)裝備自由穿梭在林蔭小路中,并且過橋,一邊走一邊獲取環(huán)境的三維數(shù)據(jù),環(huán)境中包含眾多非結(jié)構(gòu)化特征,如圖9。從結(jié)果中可以清晰的看到小橋,河邊的垂柳和石梯小路,在回環(huán)處沒有出現(xiàn)跳躍。常規(guī)的依靠GPS/IMU定位構(gòu)像的移動激光雷達(dá)在林地中往往因GPS信號失鎖而得不到理想的構(gòu)像數(shù)據(jù),但是本文方法卻得到了閉合的環(huán)境三維點云。林蔭小路構(gòu)像試驗進一步證明,本文提出的方法不但適合結(jié)構(gòu)化的環(huán)境,也同樣適合非結(jié)構(gòu)化環(huán)境,可以在狹小空間內(nèi)構(gòu)像。
上述試驗均是一邊走一邊構(gòu)像,是一種瞬時構(gòu)像模式。這種無需GPS和昂貴IMU的自定位構(gòu)像模式,操作靈活,非常適合應(yīng)急救援等需要快速響應(yīng)的環(huán)境。
圖9 林蔭小路三維點云圖Fig.9 3D point clouds of the tree-lined lane
但是,本文方法只與本文作者前期提出的方法做了簡單的比較,還需要進一步與其他方法比較。此外,本文試驗測試范圍相對較小,接下來將在更大范圍內(nèi)測試。
室內(nèi)、室外、地下等環(huán)境靈活自主定位同步構(gòu)像是移動激光雷達(dá)研究的主要難點問題。本文提出的移動激光雷達(dá)瞬時三維構(gòu)像方法,作為基于機器視覺的數(shù)字?jǐn)z影測量智能化新方法,不依賴GPS和高精度IMU,自主定位瞬時構(gòu)像,其理論研究和試驗結(jié)果表明:
(1) 提出的移動激光雷達(dá)瞬時三維構(gòu)像方法,詮釋了移動激光雷達(dá)自定位與瞬時構(gòu)像的原理。
(2) 本文方法不需要GPS和高精度IMU支持,在室內(nèi)、林地等環(huán)境,甚至爬樓梯均可一邊走一邊構(gòu)像,可用在多種環(huán)境。
(3) 爬坡構(gòu)像屬于垂直構(gòu)像,超出了平時意義上的水平構(gòu)像的范疇。在爬坡試驗中,激光點云沒有跳躍、各回環(huán)處閉合好。說明本文方法自適應(yīng)能力強。
常規(guī)的依靠GPS/IMU的激光雷達(dá)構(gòu)像方法不能在室內(nèi)構(gòu)像,也很少能在林地內(nèi)穿梭構(gòu)像。本文方法自主定位瞬時構(gòu)像,不受GPS限制,在室內(nèi)、室外、結(jié)構(gòu)化環(huán)境和非結(jié)構(gòu)化環(huán)境都可構(gòu)像。
文獻[26]也研發(fā)了手持激光雷達(dá)移動三維構(gòu)像裝置,但是構(gòu)像借助一個彈簧裝置,構(gòu)像原理和方法較為復(fù)雜。文獻[27]開發(fā)了室內(nèi)推車型的移動激光雷達(dá)三維構(gòu)像裝置,針對室內(nèi)結(jié)構(gòu)化環(huán)境三維構(gòu)像,獲取室內(nèi)環(huán)境三維點云,與本文算法比較泛化性稍差些。文獻[28]提出了一種背包式的室內(nèi)激光雷達(dá)移動構(gòu)像裝置和方法,在形式上與本文方法相似,但裝置較為復(fù)雜,且僅針對室內(nèi)結(jié)構(gòu)化環(huán)境。目前現(xiàn)有方法針對性強,大多固化了應(yīng)用環(huán)境,而本文方法可水平構(gòu)像,也可垂直構(gòu)像;可在結(jié)構(gòu)化環(huán)境中構(gòu)像,也可在非結(jié)構(gòu)化環(huán)境中構(gòu)像;可在開闊環(huán)境中應(yīng)用,也可在狹小空間內(nèi)應(yīng)用。
參考文獻:
[1] 楊必勝, 董震, 魏征, 等. 從車載激光掃描數(shù)據(jù)中提取復(fù)雜建筑物立面的方法[J]. 測繪學(xué)報, 2013, 42(3): 411-417.
YANG Bisheng, DONG Zhen, WEI Zheng, et al. Extracting Complex Building Facades from Mobile Laser Scanning Data[J]. Acta Geodaetica et Cartographica Sinica, 2013, 42(3): 411-417.
[2] 浦石, 李京偉, 郭四清. 融合語義特征與GPS位置的地面激光點云拼接方法[J]. 測繪學(xué)報, 2014, 43(5): 545-550. DOI: 10.13485/j.cnki.11-2089.2014.0075.
PU Shi, LI Jingwei, GUO Siqing. Registration of Terrestrial Laser Point Clouds by Fusing Semantic Features and GPS Positions[J]. Acta Geodaetica et Cartographica Sinica, 2014, 43(5): 545-550. DOI: 10.13485/j.cnki.11-2089.2014.0075.
[3] DURRANT-WHYTE H, BAILEY T. Simultaneous Localization and Mapping: Part I[J]. IEEE Robotics & Automation Magazine, 2006, 13(2): 99-110.
[4] PATHAK K, BIRK A, VASKEVICIUS N, et al. Online Three-dimensional SLAM by Registration of Large Planar Surface Segments and Closed-form Pose-graph Relaxation[J]. Journal of Field Robotics, 2010, 27(1): 52-84.
[5] SHALAL N, LOW T, MCCARTHY C, et al. Orchard Mapping and Mobile Robot Localisation Using on-board Camera and Laser Scanner Data Fusion-Part A: Tree detection[J]. Computers and Electronics in Agriculture, 2015, 119: 254-266.
[6] FRESE U. An O(logn) Algorithm for Simultaneous Localization and Mapping of Mobile Robots in Indoor Environments[D]. Nürnber Germany: University of Erlangen-Nürnber,
2004.
[7] LU Feng, MILIOS E. Robot Pose Estimation in Unknown Environments by Matching 2D Range Scans[J]. Journal of Intelligent and Robotic Systems, 1997, 18(3): 249-275.
[8] KOENIG N, HOWARD A. Design and Use Paradigms for Gazebo, An Open-source Multi-robot Simulator[C]∥Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems. Sendai, Japan: IEEE, 2004: 2149-2154.
[9] NüCHTER A, LINGEMANN K, HERTZBERG J. 6D SLAM-3D Mapping Outdoor Environments[J]. Journal of Field Robotics, 2007, 24(8-9): 699-722.
[10] 胡少興, 陳春朋, 張愛武. 同步定位及地圖創(chuàng)建算法在車載移動測繪系統(tǒng)中的應(yīng)用[J]. 中國激光, 2012, 39(11): 1108012.
HU Shaoxing, CHEN Chunpeng, ZHANG Aiwu. Application of SLAM in Vehicle-borne Mobile Mapping System[J]. Chinese Journal of Lasers, 2012, 39(11): 1108012.
[11] HU Shaoxing, CHEN Chunpeng, ZHANG Aiwu, et al. A Small and Lightweight Autonomous Laser Mapping System without GPS[J]. Journal of Field Robotics, 2013, 30(5): 784-802.
[12] 張愛武, 孫衛(wèi)東, 李風(fēng)亭. 大規(guī)模三維場景幾何信號基本處理方法[J]. 計算機輔助設(shè)計與圖形學(xué)學(xué)報, 2005, 17(7): 1486-1491.
ZHANG Aiwu, SUN Weidong, LI Fengting. Basic Processing Methods of 3D Geometrical Signals from Large-scale Scenes[J]. Journal of Computer-Aided Design & Computer Graphics, 2005, 17(7): 1486-1491.
[13] GLENNIE C, KUSEVIC K, MRSTIK P. Performance Analysis of A Kinematic Terrestrial LiDAR Scanning System[C]∥Proceedings of MAPPS/ASPRS Fall Conference. San Antonio, Texas: [s.n.], 2006.
[14] 王致華, 張愛武, 王書民, 等. 基于重疊航帶的機載激光雷達(dá)系統(tǒng)檢校[J]. 中國激光, 2014, 41(2): 0214003.
WANG Zhihua, ZHANG Aiwu, WANG Shumin, et al. Airborne Radar Calibration System Based on the Overlap Strip[J]. Chinese Journal of Lasers, 2014, 41(2): 0214003.
[15] SKALOUD J, LICHTI D. Rigorous Approach to Bore-sight Self-calibration in Airborne Laser Scanning[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2006, 61(1): 47-59.
[16] 孟憲剛, 胡少興, 張愛武, 等. 一種地面移動激光成像系統(tǒng)的視準(zhǔn)軸誤差自標(biāo)定方法研究[J]. 中國激光, 2014, 41(11): 1108008.
MENG Xiangang, HU Shaoxing, ZHANG Aiwu, et al. A Self-calibration Method for Bore-sight Error of Ground-based Mobile Mapping System[J]. Chinese Journal of Lasers, 2014, 41(11): 1108008.
[17] 王都虎. 基于LiDAR/IMU的同步定位與地圖創(chuàng)建方法研究[D]. 北京: 北京航空航天大學(xué), 2016.
WANG Duhu. Research on Simultaneous Localization and Mapping Based on LiDAR/IMU[D]. Beijing: Beihang University, 2016.
[18] TOMBARI F, SALTI S, DI STEFANO L. Unique Shape Context for 3D Data Description[C]∥3DOR’10 Proceedings of the ACM Workshop on 3D Object Retrieval. New York, NY: ACM, 2010: 57-62.
[19] TOMBARI F, SALTI S and DI STEFANO L. Unique Signatures of Histograms for Local Surface Description[M]∥DANIILIDIS K, MARAGOS P, PARAGIOS N. Computer Vision-ECCV 2010. Berlin, Heidelberg: Springer, 2010: 356-369.
[20] STEDER B, RUSU R B, KONOLIGE K, et al. Point Feature Extraction on 3D Range Scans Taking into Account Object Boundaries[C]∥IEEE International Conference on Robotics and Automation. Shanghai, China: IEEE, 2011.
[21] GUO Yulan, SOHEL F, BENNAMOUN M, et al. Rotational Projection Statistics for 3D Local Surface Description and Object Recognition[J]. International Journal of Computer Vision, 2013, 105(1): 63-86.
[22] RUSU R B, BRADSKI G, THIBAUX R, et al. Fast 3D Recognition and Pose Using the Viewpoint Feature Histogram[C]∥IEEE/RSJ International Conference on Intelligent Robots and Systems. Taipei, Taiwan: IEEE, 2010: 2156-2162.
[23] ZENG A, SONG Shuran, NIEβNER M, et al. 3DMatch: Learning Local Geometric Descriptors from RGB-D Reconstructions[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, Hawaii: IEEE, 2017: 199-208.
[24] 張愛武, 李文寧, 段乙好, 等. 結(jié)合點特征直方圖的點云分類方法[J]. 計算機輔助設(shè)計與圖形學(xué)學(xué)報, 2016, 28(5): 795-801.
ZHANG Aiwu, LI Wenning, DUAN Yihao, et al. Point Cloud Classification Based on Point Feature Histogram[J]. Journal of Computer-Aided Design & Computer Graphics, 2016, 28(5): 795-801.
[25] PFAFF P, TRIEBEL R, STACHNISS C, et al. Towards Mapping of Cities[C]∥IEEE International Conference on Robotics and Automation. Roma, Italy: IEEE, 2007: 4807-4813.
[26] BOSSE M, ZLOT R, FLICK P. Zebedee: Design of A Spring-mounted 3D Range Sensor with Application to Mobile Mapping[J]. IEEE Transactions on Robotics, 2012, 28(5): 1104-1119.
[27] TRIMBLE. Trimble Indoor Mobile Mapping Solution[EB/OL]. Trimble Navigation Limited, 2010. [2017-05-05].http:∥www.trimble.com/Indoor-Mobile-Mapping-Solution/pdf/Trimble_
Indoor_Mapping_brochure_0610.pdf.
[28] LIU T, CARLBERG M, CHEN G, et al. Indoor Localization and Visualization Using a Human-Operated Backpack System[C]∥International Conference on Indoor Positioning and Indoor Navigation. Zurich, Switzerland: IEEE, 2010.