賈子永,任國全,李冬偉,程子陽
(軍械工程學院 車輛與電氣工程系,石家莊 050003) (*通信作者電子郵箱2432282264@qq.com)
基于梯形棋盤格的攝像機和激光雷達標定方法
賈子永,任國全*,李冬偉,程子陽
(軍械工程學院 車輛與電氣工程系,石家莊 050003) (*通信作者電子郵箱2432282264@qq.com)
針對無人車(UGV)自主跟隨目標車輛檢測過程中需要對激光雷達(LiDAR)數(shù)據(jù)和攝像機圖像進行信息融合的問題,提出了一種基于梯形棋盤格標定板對激光雷達和攝像機進行聯(lián)合標定的方法。首先,利用激光雷達在梯形標定板上的掃描信息,獲取激光雷達安裝的俯仰角和安裝高度;然后,通過梯形標定板上的黑白棋盤格標定出攝像機相對于車體的外參數(shù);其次,結(jié)合激光雷達數(shù)據(jù)點與圖像像素坐標之間的對應關(guān)系,對兩個傳感器進行聯(lián)合標定;最后,綜合激光雷達和攝像機的標定結(jié)果,對激光雷達數(shù)據(jù)和攝像機圖像進行了像素級的數(shù)據(jù)融合。該方法只要讓梯形標定板放置在車體前方,采集一次圖像和激光雷達數(shù)據(jù)就可以滿足整個標定過程,實現(xiàn)兩種類型傳感器的標定。實驗結(jié)果表明,該標定方法的平均位置偏差為3.569 1 pixel,折算精度為13 μm,標定精度高。同時從激光雷達數(shù)據(jù)和視覺圖像融合的效果來看,所提方法有效地完成激光雷達與攝像機的空間對準,融合效果好,對運動中的物體體現(xiàn)出了強魯棒性。
激光雷達;攝像機;聯(lián)合標定;無人車;信息融合
在無人車自主跟隨系統(tǒng)中,目標車輛檢測是跟隨車輛自主控制的基礎(chǔ)和前提。激光雷達(Light Detection And Ranging, LiDAR)和攝像機是車輛檢測常用的兩種傳感器,Zhao等[1]利用激光雷達分割算法探測目標和確定目標所處位置,同時對相機采集到的圖像進行分類,最終通過邏輯模糊算法對兩個傳感器分別處理后的信息進行融合,對車輛行駛環(huán)境進行場景理解。Tan等[2]先將激光雷達掃描點與攝像機圖像融合為深度圖像,然后根據(jù)深度圖像中路緣平面的法向方向?qū)β肪夁M行檢測。關(guān)超華[3]利用激光雷達和攝像機進行融合對道路上行駛的車輛進行檢測,利用激光雷達確定車輛的初始位置,然后利用車輛的Harr-like矩形特征對車輛進行AdaBoost分類識別。為減少目標檢測系統(tǒng)的處理時間和提高系統(tǒng)的實時性,融合激光雷達數(shù)據(jù)和攝像機信息成為當前階段研究的熱點[4]。
激光雷達和攝像機是兩種不同類型的傳感器,融合激光雷達數(shù)據(jù)和攝像機圖像前需要對激光雷達和攝像機進行標定,即建立傳感器坐標之間的變換關(guān)系,實現(xiàn)兩者的空間配準。激光雷達的標定方法主要包括立體標定法[5-6]和平面模板標定法[7],攝像機的標定方法經(jīng)過多年的發(fā)展逐漸成熟。Zhang等[8]較早研究了基于棋盤格平面板的攝像機和單線激光雷達的標定方法,其標定方法利用激光雷達掃描點位于棋盤格標定平面上的約束關(guān)系,實現(xiàn)了激光雷達和攝像機外參數(shù)的標定,但激光雷達在平面板上的掃描點是一條直線,3個掃描點是線性相關(guān)的,所以此方法要求至少采集5次標定板的數(shù)據(jù),才能實現(xiàn)標定。Pereira等[9]利用尋找球體中心位置變換得到激光雷達和攝像機的轉(zhuǎn)換關(guān)系,但該方法尋找球體質(zhì)心算法較復雜。彭夢等[10]設(shè)計了一套雙平行的平面標定板用于激光雷達和攝像機的標定,通過黑白棋盤格獲取攝像頭相對于車體的姿態(tài)外參數(shù),通過平行板和傾斜板獲取激光雷達的俯仰角和側(cè)傾角;雖然其標定過程只需要一次就可以實現(xiàn)激光雷達和攝像機的聯(lián)合標定,但是其標定板為立體標定板,加工精度高,標定過程復雜,在戶外使用攜帶不方便。
結(jié)合葉春蘭[11]提出的利用等腰直角三角板標定出激光雷達的俯仰角與安裝高度以及彭夢等[10]使用黑白棋盤格標定出攝像機的內(nèi)外參數(shù),本文提出了利用梯形棋盤格標定板對單線激光雷達和攝像機進行標定的新方法。實驗中只需要把梯形標定板放置在車輛的前方,采集一次數(shù)據(jù)就可以實現(xiàn)激光雷達坐標系與車體坐標系、攝像機坐標系和車體坐標系、激光雷達坐標系和攝像機坐標系之間的標定。
攝像機以一定的角度和安裝位置被固定在車輛上,攝像機完成的是將三維空間坐標系中的物體轉(zhuǎn)換到二維圖像坐標中。激光雷達和車體是剛性連接,兩者間的相對姿態(tài)和位移固定不變。任意的激光雷達掃描點,在車體坐標系中存在唯一的點與之對應,在攝像機圖像中也存在唯一的一個像素點與之對應,因此,對于在攝像機視角范圍內(nèi)的激光雷達掃描點,在圖像像素坐標系中都存在一個像素點與之對應。
1.1 攝像機標定原理
本文中選用的攝像機模型是針孔攝像機,針孔攝像機通過將三維空間中的點透視變換投影到圖像平面上,將三維空間上的物體從環(huán)境坐標系轉(zhuǎn)換至圖像坐標系中,攝像機模型的成像模型如圖1[12]所示。
圖1 攝像機的透視變換模型
圖1中,攝像機環(huán)境坐標系ovcxvcyvczvc指的是相機所在環(huán)境坐標系,即安裝攝像機的車體坐標系。ocxcyczc是攝像機坐標系,ouxuyu為圖像的物理坐標系,oouv為圖像的像素坐標。投影指的是車體坐標系中的物點P(xvc,yvc,zvc)反射出的或者起源于光源的光線(光束)穿過光心oc射在像平面的點Pi(u,v)處,f是相機透鏡的焦距。
車體坐標系中的物點P(xvc,yvc,zvc)到攝像機坐標系點P(xc,yc,zc)的轉(zhuǎn)換關(guān)系為:
(1)
其中:Rveh → cam為3×3的坐標旋轉(zhuǎn)矩陣;Tveh → cam為1×3坐標平移矩陣。Rveh → cam和Tveh → cam為攝像機的外部參數(shù)。
攝像機局部坐標系中的點P(xc,yc,zc)與圖像像素坐標系中像點Pi(u,v)的轉(zhuǎn)換關(guān)系:
(2)
其中:fx和fy分別為x方向和y方向的等效焦距;(u0,v0)為圖像像素中心的坐標。fx、fy、u0、v0等參數(shù)為攝像機的內(nèi)部參數(shù),與攝像機和鏡頭的內(nèi)部結(jié)構(gòu)有關(guān)系。
1.2 等腰直角三角板標定激光雷達原理
激光雷達在探測前方目標車輛過程中,主要用于確定車輛所在的候選區(qū)域,在實際應用中為了更好地定位車輛的位置應盡量減小安裝的側(cè)傾角。在安裝激光雷達過程中,利用激光雷達掃描對稱的物體,通過激光雷達成像調(diào)整激光雷達安裝的側(cè)傾角,使激光雷達的側(cè)傾角近乎為0。激光雷達工作過程中,掃描模型如圖2所示。
圖2 激光雷達掃描模型
圖2中,角度S表示激光雷達掃描范圍,(ρn,θn)表示在極坐標下激光雷達掃描點的距離和角度,其中,ρn是距離值,θn是對應角度。
利用等腰直角三角板對激光雷達俯仰角和安裝高度的標定效果如圖3所示。圖3中OLD為單線激光雷達的光心,Ovc為跟隨車的質(zhì)心,(xvc,yvc,zvc)為車體坐標系,DF為激光雷達掃描梯形板生成的掃描線,h為激光雷達安裝高度。由于△ABC為等腰直角三角形,則CF=DF,BF=BC-CF=BC-DF,根據(jù)余弦定理有:
(3)
(4)
由式(3)和式(4)聯(lián)合建立約束方程,需要把標定板放置在不同的位置,求得多組方程,進而求解得到激光雷達的俯仰角δ和安裝高度h。
將激光雷達坐標系下的參數(shù)轉(zhuǎn)化到車體坐標系下的變換關(guān)系:
(5)
圖3 利用等腰直角三角形對激光雷達進行標定
實驗過程中,激光雷達掃描線是不可見的,根據(jù)等腰直角三角板能夠標定出激光雷達的俯仰角與安裝高度,黑白棋盤格能夠標定出攝像機的內(nèi)參數(shù)和車體坐標與攝像機坐標之間的外參數(shù),設(shè)計了如圖4所示的標定板。圖中所示為梯形標定板,右側(cè)區(qū)域為黑白棋盤格,左側(cè)區(qū)域為等腰直角三角形,把兩者融合為一個直角梯形棋盤格。圖4中(x,y)坐標系表示標定板在攝像機圖像成像中的物理坐標系,(u,v)坐標系表示標定板在攝像機圖像成像中的像素坐標系。
圖4 梯形標定板的設(shè)計
2.1 基于梯形標定板激光雷達參數(shù)的標定
由圖3可知利用等腰直角三角形標定板可以標定出激光雷達的俯仰角和安裝高度,但是其需要放置在不同位置得到多個方程才能得到激光雷達的俯仰角和安裝高度。本文實驗把梯形標定板垂直放置在水平地面上,且水平地面區(qū)域視角廣闊。由于激光雷達安裝過程有向下的俯仰角,其前方照射的遠點為前方的地面,根據(jù)這一信息可知,求取出所有激光雷達掃描點的距離乘以該點角度的正弦,求取最大值l=max(ρn·sinθn)。根據(jù)正弦定理,可以得知:
δ=arcsin(h/(max(ρn· sin(θn))))
(6)
圖5為激光雷達掃描梯形棋盤格標定板的效果,F(xiàn)I為激光雷達掃描梯形板生成的掃描線。四邊形BCDE為直角梯形,△ABE為等腰直角三角形,則FG=EG,BG=BE-EG=BE-FG,FG=FI-BC。得到掃描線在根據(jù)圖中關(guān)系:
(7)
(8)
聯(lián)立式(6)和式(8)建立約束方程,進而求解得到激光雷達的俯仰角δ和安裝高度h。
圖5 激光雷達俯仰角標定原理
2.2 攝像機外參數(shù)的標定
攝像機外參數(shù)的標定,實質(zhì)是建立攝像機坐標系與車體坐標系的關(guān)系。在攝像機外參數(shù)標定過程中,將標定板平放在地面上容易造成圖片變小,使得棋盤格角點定位誤差變大。本文實驗將棋盤格垂直放置在車輛的前方,棋盤格標定板在圖像中的成像相對較大,角點提取的誤差也較小,放置關(guān)系如圖6所示。其中,(xpla,ypla,zpla)為標定板的坐標。
圖6 車體坐標與棋盤格坐標示意圖
由圖6知棋盤格坐標(xpla,ypla,zpla)與車體坐標(xvc,yvc,zvc)的旋轉(zhuǎn)矩陣為:
(9)
其中:Ry(π/2)為棋盤格坐標(xpla,ypla,zpla)繞y軸方向旋轉(zhuǎn)90°的旋轉(zhuǎn)坐標,Rx(π/2)為棋盤格坐標(xpla,ypla,zpla)繞x軸方向旋轉(zhuǎn)90°的旋轉(zhuǎn)坐標。
在標定過程中,攝像機坐標與標定棋盤格坐標兩者之間的關(guān)系:
(10)
其中:Rpla → cam為3×3棋盤格坐標到相機坐標的旋轉(zhuǎn)矩陣,Tpla → cam為3×3棋盤格坐標到相機坐標的平移矩陣。
棋盤格坐標系與車體的坐標的關(guān)系為:
(11)
其中:Rpla → veh為3×3棋盤格坐標到車體坐標的旋轉(zhuǎn)矩陣,Tpla → veh為3×3棋盤格坐標到車體坐標的平移矩陣。
聯(lián)立式(9)~(11)得:
(12)
為了獲取棋盤格坐標與攝像機坐標之間的旋轉(zhuǎn)矩陣Rpla → cam,通過建立棋盤格的角點在棋盤格坐標系下坐標M(x,y,z,1)和角點在圖像中的像素齊次坐標m(u,v,1)之間的對應關(guān)系:
(13)
其中:H為3×4矩陣。然后由m和M對應點集合構(gòu)成的線性方程求解,獲得H的最小二乘解。其中:
(14)
其中λ為常數(shù)。在攝像機內(nèi)參數(shù)已知的情況下,可以變換求解出棋盤格坐標與攝像機坐標之間的旋轉(zhuǎn)矩陣Rpla → cam。
2.3 激光雷達和攝像機的聯(lián)合標定
根據(jù)2.1節(jié)激光雷達和2.2節(jié)攝像機標定過程分析可得激光雷達安裝的俯仰角δ和安裝高度h,攝像機的內(nèi)參數(shù)和外參數(shù)。結(jié)合激光雷達和攝像機獨立標定的結(jié)果可以對激光雷達和攝像機兩個傳感器進行聯(lián)合標定,進而得到了激光雷達數(shù)據(jù)到攝像機圖像像素之間的對應變換關(guān)系為:
(15)
本實驗選用的激光雷達的測量范圍為0.1~50 m,角度分辨率為0.25°,掃描頻率為25 Hz。攝像機分辨率為1 294×964,水平和垂直像素大小為3.75 μm,鏡頭的焦距為6 mm。實驗是在一輛改裝的半自主車輛上完成,激光雷達和攝像機固定在半自主無人車上,實驗設(shè)備組成和安裝關(guān)系如圖7所示。
圖7 實驗設(shè)備組成和傳感器安裝關(guān)系
圖7中激光雷達固定于車體的正前方中點,攝像機利用二軸云臺固定于車體上方。激光雷達和攝像機的安裝位置關(guān)系為:激光雷達在攝像機的前方約0.15 m,攝像機處于激光雷達的上方,兩者相距1 m,左右方向兩者大致重合。梯形標定板由方形棋盤格板和等腰直角三角板拼接而成,梯形標定板的高度為0.7 m,上邊長為0.8 m,下邊長長度為1.5 m。標定時,梯形棋盤格放置于車輛的前方,讓激光雷達和攝像機同步采集數(shù)據(jù),攝像機的內(nèi)參數(shù)通過Matlab標定工具箱已知,所以只需要采集一次激光雷達數(shù)據(jù)和攝像機圖像即可以標定出激光雷達和攝像機坐標之間的變換矩陣。
為了評估本文方法的標定精度,對激光雷達掃描在梯形標定板的掃描點進行擬合,得到其在標定板上的位置。(udi,vdi)為提取點的實際圖像坐標,(ui,vi)為根據(jù)式(15)計算的投影點圖像坐標。引入空間點的再投影位置偏差,如式(16)描述:
(16)
其中N是參與評估的測試點數(shù)。
根據(jù)上述評判標準,多次變換標定板的位置,得到多組數(shù)據(jù),求得攝像機坐標與激光雷達坐標關(guān)系的標定精度為:平均精度Re=3.569 1 pixel,實驗所用的攝像機像元尺寸為3.75 μm/pixel,折算后的精度為13.38 μm。
為了進一步驗證本文方法,將本文方法與彭夢等[10]提出的基于雙平行標定板方法進行對比分析。利用彭夢等[10]方法對本車上安裝的激光雷達和攝像機進行了標定,并計算其再投影誤差,結(jié)果如表1所示。表1從棋盤格坐標到相機坐標的旋轉(zhuǎn)矩陣Rpla → cam、棋盤格坐標到相機坐標的平移矩陣Tpla → cam和平均位置偏差Re三個方面進行了比較。從表1中可以看出:本文方法標定的棋盤格坐標到相機坐標的旋轉(zhuǎn)矩陣Rpla → cam、棋盤格坐標到相機坐標的平移矩陣Tpla → cam與彭夢等[10]標定的非常接近,且在平均位置偏差Re方面優(yōu)于彭夢等[10]的方法。
表1 攝像機和激光雷達外參數(shù)聯(lián)合標定結(jié)果
為了直觀檢驗標定效果,將實驗中的激光雷達掃描點投影到攝像機圖像中。圖8(a)顯示的是激光雷達掃描周圍物體的點云圖,展示了周圍物體相對于激光雷達原點的距離和角度信息;圖8(b)顯示的是激光雷達數(shù)據(jù)和攝像機圖像之間的標定結(jié)果,白色圈內(nèi)的點集代表激光雷達掃描點映射到圖像上的位置。由于圖8中融合效果局部點不清晰,遂將激光雷達數(shù)據(jù)和攝像機圖像像素級融合結(jié)果進行局部放大,效果如圖9所示。
從圖9中可以看出箱子、錐桶等物體的各個邊緣點得到較好的匹配,標定的結(jié)果基本滿足實際情況。圖10顯示的是在無人車自主跟隨過程中,對目標車輛檢測時激光雷達掃描點和攝像機圖像融合的結(jié)果。從實驗結(jié)果可以看出,不論是靜止的靜態(tài)物還是運動的車輛,配準的激光雷達掃描點與實際目標物圖像都能夠很好地匹配,可以滿足無人車自主跟隨過程的實際應用。
圖8 激光雷達數(shù)據(jù)和圖像融合結(jié)果
圖9 激光雷達數(shù)據(jù)和視覺圖像融合效果放大圖
圖10 無人車跟隨系統(tǒng)中激光雷達數(shù)據(jù)和圖像融合效果
本文針對車輛檢測過程中激光雷達和攝像機的數(shù)據(jù)融合問題,采用梯形棋盤格標定板對單線激光雷達和攝像機進行聯(lián)合標定,有效地建立激光雷達坐標系與車體坐標系、攝像機坐標系和車體坐標系、激光雷達坐標系和攝像機坐標系之間的對應關(guān)系,實現(xiàn)了激光雷達掃描點投影到圖像上的像素級數(shù)據(jù)融合。實驗過程中把梯形棋盤格標定板垂直放置在車輛前方,利用激光雷達和攝像機觀察同一點時的空間約束,只要采集一次圖像和激光雷達數(shù)據(jù)就可以滿足整個標定過程,實現(xiàn)激光雷達掃描點投影到圖像上的簡單數(shù)據(jù)融合。實驗結(jié)果表明,該方法標定的平均位置偏差為3.569 1 pixel,折算后的精度為13 μm,標定精度高。同時從后續(xù)的融合效果來看,該方法融合效果好,具有較好的魯棒性,為下一步的基于信息融合的車輛檢測和車輛跟蹤研究打下了良好的基礎(chǔ)。后續(xù)將進行算法及標定方法優(yōu)化,進一步提高標定精度和數(shù)據(jù)處理速度。
References)
[1] ZHAO G Q, XIAO X H, YUAN J S, et al. Fusion of 3D-LiDAR and camera data for scene parsing [J]. Journal of Visual Communication and Image Representation, 2014, 25(1): 165-183.
[2] TAN J, LI J, AN X J, et al. Robust curb detection with fusion of 3D-Lidar and camera data [J]. Sensors, 2014, 14(5): 9046-9073.
[3] 關(guān)超華.智能車輛前方車輛檢測與交通信號燈識別技術(shù)研究[D].北京:北京理工大學,2009:37-68.(GUAN C H. Study on technology of preceding vehicle detection and traffic light recognition for intelligent vehicle [D]. Beijing: Beijing Institute of Technology, 2009: 37-68.)
[4] LIN K, CHANG C, DOPFER A, et al. Mapping and localization in 3D environments using a 2D laser scanner and a stereo camera [J]. Journal of Information Science and Engineering, 2012, 28(1): 131-144.
[5] GAO C, SPLETZER J R. On-line calibration of multiple LiDARs on a mobile vehicle platform [C]// Proceedings of the 2010 International Conference on Robotics and Automation. Piscataway, NJ: IEEE, 2010: 279-284.
[6] 程金龍,馮瑩,曹毓,等.車載激光雷達外參數(shù)的標定方法[J].光電工程,2013,40(12):89-94.(CHENG J L, FENG Y, CAO Y, et al. Extrinsic calibration method for multiple LiDARs mounted on mobile vehicle [J]. Opto-Electronic Engineering, 2013, 40(12): 89-94.)
[7] 劉大學,戴斌,李政,等.一種單線激光雷達和可見光攝像機的標定方法[J].華中科技大學學報(自然科學版),2008,36(S1):68-71.(LIU D X, DAI B, LI Z, et al. A method for calibration of single line laser radar and camera [J]. Journal of Huazhong University of Science and Technology (Natural Science Edition), 2008, 36(S1): 68-71.)
[8] ZHANG Q L, PLEASE R. Extrinsic calibration of a camera and laser range finder, WUCSE- 2003- 58 [R]. St. Louis: Washington University in St. Louis, 2003.
[9] PEREIRA M, SILVA D, SANTOS V, et al. Self calibration of multiple LiDARs and cameras on autonomous vehicles [J]. Robotics and Autonomous Systems, 2016, 83: 326-337.
[10] 彭夢,蔡自興.一種基于雙平行平面的激光雷達和攝像機標定方法[J].中南大學學報(自然科學版),2012,43(12):4735-4742.(PENG M, CAI Z X. A practical method for calibration of laser radar and camera based on double parallel planes [J]. Journal of Central South University (Science and Technology), 2012, 43(12): 4735-4742.)
[11] 葉春蘭.基于圖像顏色與激光點云信息的智能車輛行駛環(huán)境三維重建[D].北京:北京理工大學,2013:19-35.(YE C L. The 3D reconstruction of intelligent vehicle driving environment base on the image color and laser point cloud information [D]. Beijing: Beijing Institute of Technology, 2013: 19-35.)
[12] STEGER C, ULRICH M, WIEDEMANN C.機器視覺算法與應用[M].楊少榮,吳迪靖,段德山,譯.北京:清華大學出版社,2010:15-35.(STEGER C, ULRICH M, WIEDEMANN C. Machine Vision Algorithms and Applications [M]. YANG S R, WU D J, DUAN D S, translated. Beijing: Tsinghua University Press, 2010: 15-35.)
JIAZiyong, born in 1992, M. S. candidate. His research interests include vehicle detection based on sensor information fusion.
RENGuoquan, born in 1974, Ph. D., professor. His research interests include unmanned ground vehicle platform technology, oil analysis.
LIDongwei, born in 1979, Ph. D., lecturer. His research interests include unmanned ground vehicle platform technology,environmental perception.
CHENGZiyang, born in 1995, M. S. candidate. His research interests include autonomous driving control technology.
JointcalibrationmethodofcameraandLiDARbasedontrapezoidalcheckerboard
JIA Ziyong, REN Guoquan*, LI Dongwei, CHENG Ziyang
(DepartmentofVehiclesandElectricalEngineering,OrdnanceEngineeringCollege,ShijiazhuangHebei050003,China)
Aiming at the problem of information fusion between Light Detection And Ranging (LiDAR) data and camera images in the detection process of Unmanned Ground Vehicle (UGV) following the target vehicle, a method of joint calibration of LiDAR and camera based on a trapezoidal checkerboard was proposed. Firstly, by using the scanning information of the LiDAR in the trapezoidal calibration plate, the LiDAR installation angle and installation height were accessed. Secondly, the external parameters of the camera relative to the body were calibrated through the black and white checkerboard on the trapezoidal calibration plate. Then combining with the correspondence between the LiDAR data points and the pixel coordinates of the image, two sensors were jointly calibrated. Finally, integrating the LiDAR and the camera calibration results, the pixel data fusion of the LiDAR data and the camera image was carried out. As long as the trapezoidal calibration plate was placed in front of the vehicle body, the image and the LiDAR data were collected only once in the entire calibration process of two types of sensors. The experimental results show that the proposed method has high calibration accuracy with average position deviation of 3.569 1 pixels (13 μm), and good fusion effect of LiDAR data and the visual image. It can effectively complete the spatial alignment of LiDAR and the camera, and is strongly robust to moving objects.
Light Detection And Ranging (LiDAR); camera; joint calibration; Unmanned Ground Vehicle (UGV); information fusion
TP391.4
:A
2016- 12- 21;
:2017- 03- 09。
賈子永(1992—),男,安徽阜陽人,碩士研究生,主要研究方向:基于傳感器信息融合的車輛檢測; 任國全(1974—),男,安徽太和人,教授,博士,主要研究方向:無人地面平臺技術(shù)、油液分析; 李冬偉(1979—),男,河北石家莊人,講師,博士,主要研究方向:無人地面平臺技術(shù)、環(huán)境感知; 程子陽(1995—),男,河南駐馬店人,碩士研究生,主要研究方向:自主駕駛控制技術(shù)。
1001- 9081(2017)07- 2062- 05
10.11772/j.issn.1001- 9081.2017.07.2062