李兆凱 李龍勇 李澤暉 孔德成 宋緒丁
(1.長安大學(xué),汽車學(xué)院,西安 710064;2.長安大學(xué),道路施工技術(shù)與裝備教育部重點實驗室,西安 710064;3.一汽解放汽車有限公司,長春 130011;4.吉林大學(xué),長春 130025)
主題詞:RGB-D SLAM 自主移動小車 避障試驗 路徑規(guī)劃 無人駕駛
智能移動機(jī)器人能夠根據(jù)外界環(huán)境及任務(wù)目標(biāo)自主移動,近年來在工業(yè)領(lǐng)域獲得了廣泛應(yīng)用。受應(yīng)用場景的限制,機(jī)器人的定位與避障問題較難解決[1-2]。無人駕駛車輛作為典型的自主式移動平臺,解決其定位與避障問題具有重要意義。
即時定位與地圖構(gòu)建(Simultaneous Localization and Mapping,SLAM)技術(shù)被廣泛應(yīng)用于機(jī)器人領(lǐng)域進(jìn)行建圖與定位工作[3-4]。根據(jù)數(shù)據(jù)源的不同,SLAM可以分為基于距離的SLAM 與基于視覺的SLAM。視覺SLAM 通過處理機(jī)器人(相機(jī))拍攝的照片構(gòu)建環(huán)境地圖,成本低、場景表達(dá)能力強(qiáng),被認(rèn)為是未來SLAM的主要發(fā)展方向[5]。視覺SLAM 可分為單目SLAM、雙目SLAM與RGB-D(Red-Green-Blue-Depth)SLAM 3種,其中,RGB-D SLAM 可以直接獲取圖像中物體的深度[6]。P.Henry等人在2010年首次提出RGB-D SLAM方法,并成功構(gòu)建出全局一致的環(huán)境地圖[7];F.Endres 等人在2012 年提出使用Octomap 結(jié)構(gòu)將環(huán)境地圖轉(zhuǎn)化為可用于機(jī)器人導(dǎo)航的柵格地圖的RGB-D SLAM 方法[8],在2014年提出生成三維地圖的建圖方法[9];悉尼科技大學(xué)的Hu等人提出RGB-D SLAM 改進(jìn)方法,使用光束平差法發(fā)展了一種快速建圖的新方法[10]。
路徑規(guī)劃作為無人駕駛的關(guān)鍵技術(shù)之一,是自主移動機(jī)器人的一項重要功能,分為全局路徑規(guī)劃和局部路徑規(guī)劃2 類方法。A*算法作為常用的全局路徑規(guī)劃算法,結(jié)合了啟發(fā)式方法與圖搜索算法,能快速規(guī)劃一條避障的最優(yōu)路徑[11]。動態(tài)A*算法考慮實際應(yīng)用場景下障礙物的動態(tài)變化,實時規(guī)劃路徑,避免全局重新規(guī)劃[12],但存在著增加不必要轉(zhuǎn)彎的缺點,而使用平滑的地圖作為路徑規(guī)劃可以解決這一問題[13]。使用跳點搜索方法減少環(huán)境地圖中的擴(kuò)展節(jié)點,可提高動態(tài)A*算法搜索效率[14]。
本文使用RGB-D SLAM 的方法實現(xiàn)環(huán)境全局地圖的建立與小車實時定位的功能,在全局地圖的基礎(chǔ)上應(yīng)用動態(tài)A*算法實現(xiàn)避障與路徑規(guī)劃,以期實現(xiàn)無人小車的自主移動與避障功能。
RGB-D SLAM的計算流程如圖1所示,可分為前端與后端2個部分。前端進(jìn)行信號采集與控制,對相機(jī)捕獲的圖像進(jìn)行特征提取與匹配,在估算小車位姿的同時進(jìn)行地圖構(gòu)建,前端的視覺里程計通過估計相鄰圖像間的關(guān)系來估計運動,并采用特征點法計算出小車的運動。后端用來處理噪聲,并盡可能地估計出當(dāng)前狀態(tài)的不確定性(最大后驗概率),所有被認(rèn)為在前端可能產(chǎn)生噪聲的數(shù)據(jù),均可通過后端進(jìn)行處理,以得到全局一致的軌跡。
在搭建前端的過程中會不可避免地出現(xiàn)漂移現(xiàn)象,但這種累積漂移可通過算法進(jìn)行優(yōu)化,即后端優(yōu)化與回環(huán)檢測。后端對全局狀態(tài)進(jìn)行估計與優(yōu)化,主要目的是處理傳感器信號所帶來的噪聲問題?;丨h(huán)檢測通過小車重復(fù)經(jīng)過同一位置時地圖及位姿的匹配對相機(jī)軌跡和地圖進(jìn)行全局一致性估計,從而消除漂移量。
使用小孔成像原理對相機(jī)進(jìn)行建模,通過投影變換得到相機(jī)的內(nèi)參矩陣K與外參矩陣H,進(jìn)而得到世界坐標(biāo)系、相機(jī)坐標(biāo)系及圖像坐標(biāo)系之間的轉(zhuǎn)換關(guān)系:
式中,Xw、Yw、Zw為特征點在世界坐標(biāo)系中的坐標(biāo);u、v為該點在圖像坐標(biāo)系中的投影坐標(biāo);Fw(X)為映射函數(shù)。
特征點是圖像中能夠反映本質(zhì)的像素點,包含圖像之間的匹配關(guān)系,是SLAM的基礎(chǔ)支撐。本文使用ORB(Oriented FAST and Rotated BRIEF)特征點進(jìn)行計算,ORB 特征點算子結(jié)合了加速分割測試特征(Features from Accelerated Segment Test,F(xiàn)AST)角點檢測算法與二進(jìn)制魯棒獨立基本特征(Binary Robust Independent Elementary Features,BRIEF)描述子算法,具備旋轉(zhuǎn)、平移與光照等不變性[15-17]。
FAST 角點檢測算法對每個像素點p周圍各點與該點灰度值之差的絕對值與閾值εd進(jìn)行比較,并統(tǒng)計前者大于后者的數(shù)量N,當(dāng)N>12個時,則標(biāo)記p為角點:
式中,I(i)、I(p)分別為第i點、臨近點的灰度值。
ORB 算子通過灰度質(zhì)心法為其加入了方向特性,通過對圖像金字塔上每一層圖像進(jìn)行角點檢測,使其具有尺度不變性。BRIEF 描述子通過比較測試點對的灰度值來描述圖像,其表達(dá)式為:
式中,fnd(p)為P點描述子的值,其結(jié)果的二進(jìn)制形式等價于將式(4)得到的值串聯(lián)形成的向量;nd為特征點周圍按照選定方法挑選的“點對”的數(shù)量;xj、yj為以特征點為中心的鄰域窗口中選取的隨機(jī)點。
通過將測試點對與對應(yīng)的旋轉(zhuǎn)矩陣相乘,使得特征描述子具有旋轉(zhuǎn)不變性。本文選擇漢明距離作為特征之間的相似性度量,增加了篩選錯誤匹配的條件,利用次優(yōu)匹配來進(jìn)一步剔除錯誤的匹配。經(jīng)前后幀的特征點匹配后,采用迭代最近點(Iterative Closest Point,ICP)算法進(jìn)行相機(jī)的位姿估計。ICP算法對2幀圖像中匹配的特征點建立歐拉變換公式,對每組圖像建立最小二乘問題:
式中,J為待優(yōu)化目標(biāo);pi、為匹配的特征點;R為2幀圖像的旋轉(zhuǎn)矩陣;t為平移向量;n為運動中檢測到的特征點數(shù)量。
使用奇異值分解(Singular Value Decomposition,SVD)算法求解該問題可得到2幀圖像對應(yīng)的位姿變化。
本文根據(jù)相機(jī)位姿的距離及2 幀照片之間的時間差選擇采集的部分圖像作為關(guān)鍵幀,減小后端優(yōu)化計算量,構(gòu)建局部地圖。圖像間的距離為:
式中,Ra、Rb分別為2個圖像幀的旋轉(zhuǎn)矩陣;ta、tb分別為2個圖像幀的平移向量;r為權(quán)重系數(shù),默認(rèn)取1,本文中由于旋轉(zhuǎn)對應(yīng)的相機(jī)位姿變化較大,取1.6。
如果當(dāng)前幀被判定為關(guān)鍵幀,根據(jù)位姿估計得到每個關(guān)鍵幀對應(yīng)的相機(jī)位姿及運動軌跡,將該關(guān)鍵幀對應(yīng)的三維點云地圖加入到局部地圖中,并對局部地圖中的相機(jī)位姿與路標(biāo)地圖點進(jìn)行優(yōu)化。通過對關(guān)鍵幀的檢測,識別之前訪問過的場景,增加圖模型的回環(huán)約束,消除累積誤差,得到全局一致的地圖。
A*算法是一種基于狀態(tài)空間的、廣泛應(yīng)用于機(jī)器人路徑規(guī)劃的啟發(fā)式搜索算法,能夠根據(jù)起始點、目標(biāo)點以及障礙物位置進(jìn)行啟發(fā)式搜索,得到一條避免碰撞的最短路徑。其基本數(shù)學(xué)模型為:
式中,F(xiàn)(n)為當(dāng)前節(jié)點的代價估計函數(shù),即經(jīng)過節(jié)點n的最優(yōu)路徑消耗的總能量;H(n)為從n點到達(dá)終點的最優(yōu)路徑消耗的能量;G(n)為從起始點到n點的最優(yōu)路徑消耗的能量。
其中選擇n點到終點的歐式距離作為最優(yōu)路徑消耗的能量:
式中,tx、ty為目標(biāo)點坐標(biāo);nx、ny為當(dāng)前節(jié)點n的坐標(biāo)。
從起始節(jié)點出發(fā),依次對當(dāng)前節(jié)點的代價函數(shù)進(jìn)行計算,用子節(jié)點中權(quán)重最小者對當(dāng)前節(jié)點進(jìn)行更新,直到遍歷所有節(jié)點,將障礙物的代價函數(shù)賦值為無窮大。對路網(wǎng)中所有節(jié)點賦值后,從目標(biāo)點反向?qū)ふ易顑?yōu)路徑,算法每次在擴(kuò)展時,均選取F(n)值最小的節(jié)點作為最優(yōu)路徑上的下一個節(jié)點。特殊地,如果H(n)=0,則表示無任何可利用的當(dāng)前節(jié)點與終點的信息,此時,A*算法退化為非啟發(fā)式的迪杰斯特拉(Dijkstra)算法,其搜索空間隨之變大,待處理節(jié)點的數(shù)量增多,搜索時間相應(yīng)變長。例如,運用迪杰斯特拉搜索算法的可視圖法計算每個節(jié)點到其他所有節(jié)點的最短路徑,主要特點是以起始點為中心向外層層擴(kuò)展,直到終點為止,由于它遍歷計算的節(jié)點很多,因而效率很低[18]。
A*算法在全局網(wǎng)絡(luò)中,依據(jù)擴(kuò)展節(jié)點,選擇當(dāng)前“代價”最低的節(jié)點進(jìn)行下一步搜索,直到搜索到終點,從而規(guī)劃出“成本”最低的路徑。在整個路徑規(guī)劃過程中,由于省略了大量無謂的搜索路徑,因而在計算效率方面具有一定優(yōu)勢。
此外,不同于基本A*算法,動態(tài)A*算法通過調(diào)整路徑規(guī)劃范圍,針對場景地圖變化需重新規(guī)劃路徑時不再進(jìn)行全局規(guī)劃,而是保留已通過路徑,并以當(dāng)前位置為起始點進(jìn)行二次規(guī)劃,從而減少了計算量。
小車采用四輪式底盤,其中前部為2 個獨立驅(qū)動輪,實現(xiàn)驅(qū)動與差速轉(zhuǎn)向功能,后部為2個相互獨立、釋放轉(zhuǎn)動自由度的萬向輪,避免在車輛移動過程中的滑移量干擾。選用額定功率為300 W的8寸輪轂電機(jī)(車輪直徑約200 mm)作為驅(qū)動電機(jī),采用無刷直流(Brushless Direct Current,BLDC)驅(qū)動器驅(qū)動車輪轉(zhuǎn)動。選擇STM32F103ZET6 作為底層控制器,采用1 000 線AB 兩相編碼器測速。自主移動小車的結(jié)構(gòu)如圖2所示。
圖2 自主移動小車
小車搭載Kinect v2 深度相機(jī)作為主傳感器,該相機(jī)能夠同時獲取環(huán)境的色彩及深度信息,如圖3所示。
圖3 自主移動小車主傳感器
自主小車的底盤采用雙輪轂電機(jī)驅(qū)動與轉(zhuǎn)向控制方案,因此,差速運動數(shù)學(xué)模型成為小車實現(xiàn)精確控制的基礎(chǔ)。圖4為小車差速運動模型。
圖4 小車差速運動模型
圖4中,A(xl,yl)、B(xr,yr)、M(x,y)分別為左輪、右輪及左右輪軸心連線中點的坐標(biāo),ω、vM分別為小車角速度、線速度,vl、vr分別為左、右輪線速度,常量R為車輪半徑,θ1為位置1與位置2左、右輪軸心連線延長線的夾角,θ2為從位置1 運動到位置2 后的左、右輪軸線連線與x軸的夾角,θ3為相鄰時刻航向角增量,l為輪距。
在微小時段Δt內(nèi),小車左輪駛過弧長為:
小車右輪駛過弧長為:
小車車體轉(zhuǎn)角增量為:
若Δt足夠小,可認(rèn)為:
若Δt非足夠小,則有:
假設(shè)初始狀態(tài)下,A、B點連線(向量AB)與x軸的夾角為β,則t時刻小車行進(jìn)方向與x軸夾角θ為:
且有:
小車車體轉(zhuǎn)動角速度為:
由于M為A、B點連線中點,因而在任意時刻,小車M點運動線速度為:
小車M點運動半徑為:
圖示時刻A、B點連線與x軸平行,假設(shè)AB轉(zhuǎn)過一角度θ后變?yōu)锳1B1,定義逆時針旋轉(zhuǎn)為正方向,在任意時刻,由幾何關(guān)系可得:
式中,xl、xr與yl、yr分別為小車左、右輪心的橫坐標(biāo)與縱坐標(biāo)。
定義BC為B點的速度,定義γ為x軸單位向量旋轉(zhuǎn)至與BC平行所得夾角,以逆時針旋轉(zhuǎn)為正方向,由幾何關(guān)系分析可得,任意時刻下:
因而,
定義AD為A點的速度,定義φ為x軸單位向量旋轉(zhuǎn)至與AD平行所得夾角,同理,有:
因而,
根據(jù)式(17)將式(21)、式(23)的速度矢量寫為分量形式,有:
假設(shè)初始時刻M點坐標(biāo)為M(x1,y1),因而M(x,y)運動軌跡參數(shù)方程為:
下位機(jī)程序面向自主小車的底層控制,在Keil環(huán)境下編寫,主要實現(xiàn)小車行進(jìn)的閉環(huán)控制、數(shù)據(jù)采集以及數(shù)據(jù)通信功能。主程序流程如圖5所示。
圖5 下位機(jī)主程序流程
STM32作為控制器,接收控制信息,控制小車行進(jìn),并通過其自帶的編碼器模式,利用定時器獲取傳回的脈沖信號,對脈沖信號進(jìn)行濾波處理,再對單個脈沖所代表的路程進(jìn)行分析,盡可能精確地反饋小車的實際運動,單片機(jī)將得到的里程計數(shù)據(jù)進(jìn)行處理之后,通過串口發(fā)送給上位機(jī)。底層的程序主要包括CAN總線的通用異步收發(fā)傳輸器(Universal Asynchronous Receiver∕Transmitter,UART)的串口通信、模數(shù)轉(zhuǎn)換器(Analogto-Digital Converter,ADC)、數(shù)模轉(zhuǎn)換器(Digital-to-Analog Converter,DAC)及脈沖寬度調(diào)制(Pulse Width Modulation,PWM)方波輸出、定時器的輸入捕捉和對編碼器的正交解碼以及對IO口的控制。通過對這些底層資源的操作,實現(xiàn)了小車的閉環(huán)控制、傳感器的數(shù)據(jù)采集和傳感器相互間以及與上位機(jī)之間的數(shù)據(jù)通信功能。
小車的上位機(jī)搭載Ubuntu 16.04系統(tǒng),Ubuntu系統(tǒng)內(nèi)安裝的機(jī)器人操作系統(tǒng)(Robot Operating System,ROS)作為小車上位機(jī)程序的運行平臺。在ROS中實現(xiàn)用戶界面(User Interface,UI)、人機(jī)交互、圖像處理、SLAM、路徑規(guī)劃、運動決策等功能并通過控制串口收發(fā)實現(xiàn)對小車運動的控制與傳感器信號的獲取。小車的下位機(jī)包括電機(jī)控制、編碼器數(shù)據(jù)采集、里程計數(shù)據(jù)融合等模塊。小車的上、下位機(jī)子模塊及其相互關(guān)系如圖6所示。
圖6 自主移動小車功能模塊及其關(guān)系
圖7 所示為本文無人小車基于特征點法搭建的RGB-D SLAM系統(tǒng)流程。
圖7 基于特征點法的系統(tǒng)流程
其中,Kinect v2傳感器采集周圍環(huán)境信息數(shù)據(jù)并通過USB 3.0 串口傳到上位機(jī),上位機(jī)通過驅(qū)動軟件Freenect 獲取景深數(shù)據(jù)。景深攝像傳感器最先獲取點云信息,將其處理后,通過顏色顯示出實際的2D深度信息,作為景深攝像頭的原始數(shù)據(jù)(見圖8),為后期建圖提供必要的數(shù)據(jù)支持。
圖8 傳感器數(shù)據(jù)獲取
在獲取點云數(shù)據(jù)后,結(jié)合之前的里程計信息與數(shù)據(jù)的后處理工作進(jìn)行地圖的實時構(gòu)建。同時,得到原始數(shù)據(jù)后,在對數(shù)據(jù)進(jìn)行后處理的基礎(chǔ)上完成回環(huán)檢測,實現(xiàn)小車的實時定位與建圖,如圖9所示。
圖9 建圖過程
獲取地圖后,通過全局與局部的方式進(jìn)行路徑規(guī)劃,獲取小車最佳行進(jìn)路線,完成避障。
將無人小車置于開闊的室外環(huán)境,驗證RGB-D SLAM 及動態(tài)A*算法的可靠性。設(shè)定小車的目標(biāo)地點為前方路口,正前方路徑上的灌木叢為障礙物。試驗中RGB-D SLAM 處理后的圖片如圖10 所示,結(jié)果表明,RGB-D SLAM能夠建立未知環(huán)境的稀疏點云地圖,為小車提供定位與地圖信息。
圖10 RGB-D SLAM驗證試驗
簡單場景下的自主避障試驗在室外環(huán)境進(jìn)行,選定灌木叢為障礙物,試驗中小車的避障路徑如圖11 所示。小車未觀測到障礙物時,朝著正前方直線運動,見圖11a、圖11b;小車檢測到前方障礙物后,開始向右轉(zhuǎn)彎,避開障礙物,見圖11c、圖11d;繞過障礙物后小車?yán)^續(xù)沿直線行駛,見圖11e、圖11f。
圖11 自主避障試驗
簡單場景下的自主避障試驗表明:RGB-D SLAM與A*算法結(jié)合能夠?qū)崿F(xiàn)未知環(huán)境的地圖構(gòu)建與無人小車的實時定位功能,并能夠根據(jù)地圖中出現(xiàn)的障礙物實時改變運動路徑,實現(xiàn)自主避障功能。
以上試驗表明小車具有自主行駛與避障能力。綜合試驗在更加復(fù)雜的場景下進(jìn)行,對無人小車的路徑規(guī)劃能力進(jìn)行測試。綜合試驗分為2 個部分:首先,在沒有先驗環(huán)境信息的條件下進(jìn)行路徑規(guī)劃試驗,考察小車完成自主建圖、定位及路徑規(guī)劃任務(wù)的能力;第二,在首次試驗建立的場景柵格地圖基礎(chǔ)上,進(jìn)行小車在已有路網(wǎng)信息下的定位及全局路徑規(guī)劃試驗。
4.3.1 無先驗環(huán)境信息
測試環(huán)境為十字路口場景,道路的前方與左側(cè)存在車輛(視為障礙物)。為考察小車在未知場景下自主捕獲環(huán)境信息、進(jìn)行場景分析及路徑規(guī)劃的能力,試驗中,將無人小車置于正對路口處,測試其能否避開障礙物并從右側(cè)路口駛離。
試驗過程中小車的運動軌跡如圖12所示。
如圖12a、圖12b所示,小車駛?cè)胛粗h(huán)境后沿著直線行駛,建立的局部地圖中出現(xiàn)障礙物1(直線行進(jìn)方向的前車)后,小車退回到左側(cè)入口處,執(zhí)行左轉(zhuǎn)策略,駛?cè)胱髠?cè)出口,避開障礙物1,如圖12c、圖12d所示。小車在左側(cè)通道內(nèi)繼續(xù)行駛,發(fā)現(xiàn)障礙物2(左側(cè)車)后,執(zhí)行調(diào)頭策略,返回到點云地圖上第1個路口的右側(cè)出口,通過右側(cè)出口駛離試驗場景,如圖12e、圖12f所示。
圖12 未知場景下小車自主行駛試驗
由試驗過程可見,小車在移動中不斷進(jìn)行建圖與定位,在全局地圖未知的情況下,根據(jù)已有的局部地圖規(guī)劃出最優(yōu)路徑,實現(xiàn)了復(fù)雜場景下的建圖、定位及路徑規(guī)劃工作。在行進(jìn)過程中建立的增量式點云地圖實現(xiàn)了小車的實時定位;根據(jù)所建地圖,規(guī)劃出最短的駛離路線。當(dāng)障礙物1出現(xiàn)后,動態(tài)A*算法在保留已有路徑規(guī)劃的基礎(chǔ)上,在當(dāng)前點重新規(guī)劃出最短路徑,駛向左側(cè)通道;之后,建立的點云地圖上出現(xiàn)障礙物2,小車?yán)^續(xù)重新規(guī)劃路徑,掉頭后駛向右側(cè)通道,最終駛離試驗環(huán)境。
試驗結(jié)果表明,RGB-D SLAM 能夠?qū)崟r構(gòu)建局部地圖以確定小車的位置,并能夠在建立的點云地圖上檢測到障礙物位置,規(guī)劃出最短路徑。試驗過程中小車進(jìn)行了3 次動態(tài)路徑規(guī)劃,每次基于當(dāng)前點規(guī)劃最短路徑,最終駛離試驗場景,由此可見,動態(tài)A*算法能夠應(yīng)對障礙物動態(tài)出現(xiàn)的場景,并能二次規(guī)劃出最短路徑。
4.3.2 有先驗環(huán)境信息
為測試動態(tài)A*算法的全局規(guī)劃能力,比較全局規(guī)劃與局部規(guī)劃的差異,相同場景下,利用第1 次試驗建立的全局地圖進(jìn)行全局路徑規(guī)劃試驗。試驗中,小車的行駛路線如圖13 所示。在開始階段,小車沿著直線運動,見圖13a、圖13b;運動至路口左側(cè)附近,直接執(zhí)行了右轉(zhuǎn)策略,見圖13c、圖13d;進(jìn)入右側(cè)通道后駛離,見圖13e、圖13f。
圖13 已知場景下小車自主行駛試驗
試驗中小車基于全局地圖只進(jìn)行1次路徑規(guī)劃,在左側(cè)路口附近直接右轉(zhuǎn)駛離。與未知環(huán)境下路徑規(guī)劃相比,小車不需要進(jìn)行地圖構(gòu)建、障礙檢測工作,減少了路徑規(guī)劃的次數(shù)與運動路徑的長度。
綜合試驗表明,RGB-D SLAM 與動態(tài)A*算法能夠滿足未知環(huán)境下小車自主運動及動態(tài)路徑規(guī)劃的要求。2 次試驗的對比表明,與局部路徑規(guī)劃相比,有先驗環(huán)境信息的全局路徑規(guī)劃能夠一次規(guī)劃出最優(yōu)路徑,基于RGB-D SLAM 建立的點云地圖可很好地為全局路徑規(guī)劃提供地圖信息。
本文基于RGB-D SLAM與動態(tài)A*算法設(shè)計搭建了自主式無人小車硬件及軟件系統(tǒng),并進(jìn)行了試驗研究。結(jié)果表明:采用RGB-D SLAM與A*算法相結(jié)合的方法,可實現(xiàn)無人小車在未知環(huán)境下的地圖構(gòu)建與實時定位功能,完成小車運動路徑隨地圖中所現(xiàn)障礙物的實時改變,使得小車具備自主行駛與避障能力,該方法也在一定程度上解決了GPS 信號缺失條件下的無人小車定位與導(dǎo)航問題;采用動態(tài)A*算法,無人小車能夠很好地應(yīng)對動態(tài)出現(xiàn)的障礙物,并能二次規(guī)劃出最短路徑,實現(xiàn)了復(fù)雜場景下的避障與路徑規(guī)劃功能;具有先驗環(huán)境信息的無人小車可一次規(guī)劃出全局最優(yōu)路徑,減少了規(guī)劃次數(shù)、縮短了運動長度、提高了執(zhí)行效率。