隗寒冰,白 林
(重慶交通大學 機電與車輛工程學院,重慶 400074)
融合多源異構(gòu)信息的環(huán)境感知算法是智能汽車目標檢測的關(guān)鍵和共性技術(shù)之一。近年來,采用單一傳感器信息進行目標檢測算法開發(fā)的研究較為普遍,對基于多線激光雷達、GPS、相機等多源信息融合的智能汽車環(huán)境感知算法研究還相對較少。文獻[1-3]通過遞歸思想將目標檢測構(gòu)建為一個回歸問題,利用單一神經(jīng)網(wǎng)絡預測目標的位置和分類。LIU Wei等[4]采用前饋卷積網(wǎng)絡產(chǎn)生固定大小的邊界框集合,并對這些邊界框中存在的目標類別實例進行評分,然后進行非極大值抑制來選擇最終檢測結(jié)果。.ARCOS-GARCA等[5]分析了幾種目標檢測框架與特征提取器相結(jié)合的性能,并提出遷移學習方法改進交通標志檢測算法,然后對檢測算法的mPA、內(nèi)存分配、運行時間等進行測試評價;但該算法未考慮到車輛運動狀態(tài)、天氣條件、傳感器抖動、目標遮擋、光照強度變化等因素對環(huán)境感知算法產(chǎn)生的影響。但基于深度學習識別交通標志的應用場景仍能在霧霾天氣進行[6]。
考慮到單一傳感器受自身條件與環(huán)境因素限制,XUE Jianru等[7]利用多傳感器數(shù)據(jù)融合進行障礙物檢測,并以手工標記障礙物的準確率為標準,采用數(shù)據(jù)關(guān)聯(lián)匹配對算法進行測試評價。CHEN Xiaozhi等[8]采用多視圖融合的目標檢測框架,將雷達點云映射到二維坐標圖像以得到前視圖和鳥瞰圖,然后通過提取感興趣區(qū)域特征信息進行目標檢測。LIANG Peijung等[9]采用相鄰數(shù)據(jù)幀跟蹤的方法對多源傳感器數(shù)據(jù)時間同步進行估計,空間配準變換矩陣來自點云SLAM(simultaneous localization and mapping),最后基于多源傳感器信息融合進行目標檢測,但該算法未考慮時間同步誤差、空間配準誤差、交通場景、車輛狀態(tài)等對多源信息融合目標檢測算法準確性、實時性等的影響。WANG Jun等[10]采用概率融合框架解決了行人檢測性能限制問題,應用激光雷達提取對象結(jié)構(gòu)特征并訓練SVM分類器,減少候選窗口數(shù)量,提高對行人檢測的準確率。DENG Zhidong等[11]通過關(guān)聯(lián)相機與激光雷達數(shù)據(jù),使關(guān)聯(lián)后的數(shù)據(jù)信息包含顏色與幾何特征信息,然后利用幾何特征進行目標檢測與識別。ZHOU Lipu等[12]基于激光雷達與相機的數(shù)據(jù),將位置、顏色、激光反射率和幾何特征等信息融合,以改進僅依靠圖像數(shù)據(jù)對交通標志識別的準確性。
筆者基于GPS、16線激光雷達和雙目深度相機等多源信息融合開發(fā)了智能汽車環(huán)境感知目標檢測算法,實現(xiàn)了信息融合過程中的時間同步、聯(lián)合標定及目標檢測。數(shù)據(jù)時間同步采用同一時間節(jié)點插值匹配,以減小多源傳感器基于相鄰幀估計同步時間的誤差;空間配準先對雙目深度相機與激光雷達單傳感器進行標定,以修正傳感器因自身物理結(jié)構(gòu)與安裝位置產(chǎn)生的誤差。然后改進文獻[13]提出的聯(lián)合標定算法,將修正后的單傳感器時間同步數(shù)據(jù)信息作為聯(lián)合標定算法的輸入,對雙目深度相機和激光雷達進行聯(lián)合標定求解最優(yōu)空間變換矩陣,利用標定結(jié)果得到的空間變換矩陣融合多源異構(gòu)傳感器信息進行目標檢測算法開發(fā),并在智能汽車實驗平臺對環(huán)境感知算法進行性能測試評價。
在多源異構(gòu)信息融合過程中,時間同步主要解決各傳感器之間因數(shù)據(jù)流時間周期或啟動時刻不同造成的觀測數(shù)據(jù)不匹配問題。筆者在GPS時間同步基礎(chǔ)上,采用時間節(jié)點插值匹配方法,實現(xiàn)異構(gòu)傳感器數(shù)據(jù)時間同步。根據(jù)數(shù)據(jù)幀頭求解激光雷達的啟動時間,并設(shè)置激光雷達的工作頻率為10 Hz,相機幀率設(shè)置為30幀,并在同一時間節(jié)點對各傳感器數(shù)據(jù)幀設(shè)置相同ID編號,實現(xiàn)數(shù)據(jù)同步接收。
雷達接收由GPS提供的數(shù)據(jù)包$GPRMC中的時間信息后,賦值到設(shè)備信息輸出協(xié)議(DIFOP)的時間信息內(nèi),在1 s內(nèi),設(shè)備信息輸出協(xié)議重復發(fā)送3次,數(shù)據(jù)長度為10個字節(jié),包括年、月、日、時、分、秒、毫秒,GPS的$GPRMC數(shù)據(jù)信息提供準確時間到秒,再以PPS正秒時刻為基準,當PPS 上升沿到來觸發(fā)雷達內(nèi)部的微處理器從零以微秒開始計數(shù),將GPS的UTC時間與雷達輸出的數(shù)據(jù)包時間戳計數(shù)值相加得到絕對精確時間,使GPS與激光雷達數(shù)據(jù)流時間同步,結(jié)果如圖1。
圖1 GPS與激光雷達時間同步序列Fig. 1 GPS and LIDAR time synchronization sequence
將多源異構(gòu)傳感器與工控機并聯(lián),設(shè)置工控機系統(tǒng)時間節(jié)點為基準時間標準,根據(jù)工控機系統(tǒng)時間節(jié)點求解激光雷達數(shù)據(jù)幀時間節(jié)點與相機數(shù)據(jù)幀時間節(jié)點,求解流程如圖2。若雷達數(shù)據(jù)幀時間節(jié)點與相機數(shù)據(jù)幀時間節(jié)點之差在設(shè)定閾值0.001 s內(nèi),即得到多源異構(gòu)傳感器時間同步數(shù)據(jù)流。
圖2 相機與激光雷達時間同步Fig. 2 Camera and LIDAR time synchronization
多源異構(gòu)傳感器聯(lián)合標定是為了求解傳感器坐標系與車輛坐標系之間的空間變換矩陣,然后根據(jù)變換矩陣將激光雷達數(shù)據(jù)與雙目深度相機進行空間配準,從而將采集的圖像和點云統(tǒng)一變換到車輛坐標系。假設(shè)激光雷達坐標系為OL-XLYLZL,車體坐標系為OV-XVYVZV,雙目深度相機坐標系為OC-XCYCZC,如圖3。
圖3 智能汽車實驗平臺Fig. 3 Intelligent vehicle experimental platform
相機標定采用張氏標定法[14]標定深度相機的內(nèi)外參數(shù),完成三維坐標系到圖像坐標系的映射。對激光雷達進行標定,根據(jù)雷達信息進行距離補償及垂直角度、水平角度、旋轉(zhuǎn)角度矯正。設(shè)激光雷達三維點云測量距離為r,激光雷達安裝位置的俯仰角為ω,旋轉(zhuǎn)角為α,并將雷達數(shù)據(jù)由極坐標變換為笛卡爾坐標(x,y,z)。
根據(jù)坐標系定義,激光雷達坐標系相對車體坐標系沿x,y軸方向的平移向量為0。激光雷達外參標定簡化為求解俯仰角α、橫擺角β、航向角γ和縱向位移這4個量。根據(jù)需求選取實驗場平整的水平地面作為參照,激光雷達俯仰角和橫擺角的存在使水平地面點云形成的平面在雷達坐標系OL-XLYLZL中相對XLYL方向具有一定傾斜值。假設(shè)水平地面返回的激光雷達點云信息構(gòu)成的平面在雷達坐標系中的平面擬合方程如式(1):
ZL=AXL+BYL+C
(1)
式中:A、B、C分別為點云平面方程常數(shù);XL、YL、ZL分別為三維空間的坐標軸。
假設(shè)雷達坐標系與車體坐標系之間的俯仰角和橫擺角偏差為0,使水平地面點云形成的平面在雷達坐標系中處于水平,平行車體坐標系XVYV平面,即參數(shù)A,B為0,C為兩個坐標系原點縱向距離。構(gòu)造無約束非線性優(yōu)化目標函數(shù)如式(2):
G(α,β)=argmin(|A|+|B|)
(2)
將雷達坐標系下地面點云通過坐標變換矩陣得到的校正值應與水平面充分平行,此時G取得最小值。式(2)難以求解析解,筆者根據(jù)優(yōu)化目標和優(yōu)化變量,將目標點云作為輸入。依據(jù)遺傳算法優(yōu)化應用場景及效果明顯[15],采用遺傳算法迭代求解α,β最優(yōu)值。
根據(jù)目標函數(shù)和變量初始化種群,利用二進制進行編碼,并通過函數(shù)轉(zhuǎn)化為十進制(x,y),如式(3):
(3)
式中:(ai1,ai2,…,aiL) ∈[ri,Ti]為某個個體的第i段,每段段長都為1;Ti和ri為第i段分量定義域的兩個端點,每個ai*均為0或1。
由坐標變換矩陣求解原始點云的變換坐標,擬合變換的點云坐標平面,求解系數(shù)A,B的值,由函數(shù)G(α,β)計算適應度值F′。根據(jù)適應度值進行選擇運算,對群體中個體進行優(yōu)勝劣汰,按與個體適應度成正比概率決定當前群體中的個體是否遺傳下一代。筆者采用輪盤賭法選擇算子,個體i被選中遺傳到下一代的概率如式(4):
(4)
式中:L為種群中個體數(shù)量;F′為個體i適應度值。
利用經(jīng)過選擇操作后種群中的兩個隨機對象作為交叉對象,并作為父個體進行染色體交換重組生成兩個子個體。染色體重組產(chǎn)生的變異運算是通過按變異概率隨機反轉(zhuǎn)某位等位基因的二進制字符值來實現(xiàn)。然后尋找最優(yōu)解,根據(jù)最優(yōu)解計算俯仰角、橫擺角及縱向距離,如圖4。
圖4 目標物的投影點擬合直線Fig. 4 Fitting straight line of the projection point of the target
對兩坐標系間的導航角求解,采用垂直水平地面的物體作為標志物,通過車輛直線行駛,采集包含標志物的多幀點云數(shù)據(jù),使用直通濾波、區(qū)域聚類等方法提取標志物點云投影至水平面,并標記每一幀數(shù)據(jù)的投影點為(xi,yi),其中i∈(1, 2, 3,…,n),對投影點進行直線擬合,如式(5):
y=kx+b
(5)
式中:k為斜率,b為截距。
由此推算航向角如式(6):
γ=arctan(k)
(6)
完成單一傳感器標定,修正傳感器因自身物理結(jié)構(gòu)與安裝位置產(chǎn)生的誤差。并將修正后的激光雷達與相機時間同步數(shù)據(jù)信息作為聯(lián)合標定算法的輸入。
多源異構(gòu)傳感器聯(lián)合標定是為了求解車體坐標系、激光雷達坐標系與相機坐標系之間的空間變換矩陣。調(diào)整雙目深度相機和激光雷達安裝位置,使之同時觀測到規(guī)則標定板平面,然后根據(jù)各傳感器數(shù)據(jù)在同一空間下測量時目標位姿不變性建立優(yōu)化目標,求閉式解或迭代優(yōu)化。對標定矯正的三維激光雷達點云數(shù)據(jù)進行濾波處理,即分別對XYZ三個維度方向進行濾波消除背景噪聲,以提取目標點云。對標定板平面激光雷達點云進行平面擬合,假設(shè)擬合平面法向量和激光雷達坐標系原點到擬合平面的距離分別為θL,sL。同時假設(shè)標定板平面在相機物理坐標系中法向量和相機物理坐標系原點至標定板平面的距離分別為θc,sc。其計算如式(7):
(7)
式中:θL為激光雷達點云擬合標定板平面法向量;sL為激光雷達坐標系原點到標定板的距離;θc為圖像中標定板平面法向量;sc為圖像坐標系原點到標定板平面距離。
對空間任意一點,激光雷達坐標系下觀測該點到標定板平面距離應與雙目深度相機物理坐標系下觀測結(jié)果相同。當該點取為雷達坐標系原點時,定義目標函數(shù)如式(8):
(8)
令該函數(shù)結(jié)果等于T0,如式(9):
(9)
求解該函數(shù)的閉式解如式(10):
(10)
與之類似,對于空間中的任意向量,先在激光雷達坐標系中進行觀測并變換到相機物理坐標系,應與相機物理坐標系中觀測結(jié)果相同,即內(nèi)積最大。當選取標定板平面法向量時,定義目標函數(shù),該令函數(shù)結(jié)果等于R0,其計算如式(11):
(11)
在內(nèi)積最大時,旋轉(zhuǎn)矩陣滿足正交矩陣條件,設(shè)此時的旋轉(zhuǎn)矩陣R有RTR=I,根據(jù)矩陣跡性質(zhì)將目標函數(shù)等價如式(12):
(12)
該函數(shù)閉式解如式(13):
Rl=VUT
(13)
求得旋轉(zhuǎn)矩陣、平移向量的初始閉式解后,在激光雷達坐標系的標定板平面任意取點,通過變換矩陣映射至相機物理坐標系,使激光雷達點云在相機物理坐標系觀測結(jié)果與相機理坐標系中直接觀測的結(jié)果相同,由此構(gòu)造優(yōu)化函數(shù)如式(14):
(14)
采集離線數(shù)據(jù)進行標定,求解空間變換矩陣,將激光雷達點云映射至圖像坐標系下,并變換到車輛坐標系,如式(15):
(15)
式中:PV、Pc為車體坐標下坐標和相機坐標下坐標;RVL、tVL為雷達坐標系到車輛坐標系的旋轉(zhuǎn)矩陣與平移向量;RcL、tcL為雷達坐標系到相機坐標系的旋轉(zhuǎn)矩陣與平移向量。
在多源傳感器時間同步和聯(lián)合標定結(jié)果基礎(chǔ)上,提出基于多源異構(gòu)信息融合的目標檢測算法,解決單一傳感器環(huán)境感知時的局限性問題,算法框架如圖5。其中:P(x,y,z)為激光雷達點云中每個點坐標信息;R為空間旋轉(zhuǎn)矩陣;T為平移向量;(x,y,w,h)lidar與(x,y,w,h)camera為異構(gòu)傳感器提供的位置信息。
圖5 基于多源信息融合的目標檢測算法框架Fig. 5 Framework of target detection algorithm based on multi-source information fusion
算法框架求解步驟如下:
1)根據(jù)C/S通信模型下的數(shù)據(jù)報通信協(xié)議實現(xiàn)多源傳感器之間通信及時間同步處理,完成傳感器之間數(shù)據(jù)的同步采集,得到原始數(shù)據(jù)集。
2)利用相機與激光雷達同一時間節(jié)點采集的環(huán)境信息,分別實現(xiàn)激光雷達目標檢測及圖像目標檢測,并分析基于單一傳感器信息進行目標檢測時存在的局限性。
3)利用基于遞歸神經(jīng)網(wǎng)絡方法對圖像信息進行預處理,在預處理過程中通過損失函數(shù)準確的求解出目標的位置信息和類別信息;利用基于幾何特征求解的方法對雷達信息預處理,并在預處理過程中利用聯(lián)合標定求解的空間變換矩陣進行空間配準,將配準的3D點云信息轉(zhuǎn)化為2D點云信息。
4)根據(jù)求解目標位置信息進行融合,融合后主要包含目標的位置信息和類別信息,能有效感知交通場景中的環(huán)境信息。
在傳感器信息融合算法基礎(chǔ)上,基于SVM點云分割與歐式聚類法對激光雷達點云中的目標進行檢測。對激光雷達點云數(shù)據(jù)使用網(wǎng)格化方法進行下采樣,使保持點云有效形狀特征的同時減少點數(shù)量;在下采樣基礎(chǔ)上進行空間剪切濾波,獲取空間下與相機相同視場點云數(shù)據(jù),并對點云數(shù)據(jù)進行濾波提取索引點云子集。假設(shè)索引點云集合為V,隨機選取點云V中的3個坐標點V1、V2、V3,求解兩點之間距離,設(shè)為d1、d2,即有式(16):
(16)
式中:V1、V2、V3分別為激光雷達點云集合中3個隨機點的坐標;d1為隨機點V2與隨機點V1之間坐標差值;d2為隨機點V3與隨機點V1之間坐標差值。
根據(jù)兩點之間坐標之差,求解SVM平面方程,如式(17):
a×x+b×y+c×z=d
(17)
式中:a、b、c分別為點云平面方程常數(shù);x、y、z分別為三維空間坐標軸。
則法向量n的表達式如式(18):
(18)
其中法向量n有式(19):
(19)
式中:a、b、c分別為平面方程常數(shù),可構(gòu)成平面方程法向量。
根據(jù)法向量和平面內(nèi)任意點云坐標V,即可求得點到平面的距離,在點云集合V中,遍歷求解點云到擬合平面的距離d′,如式(20):
(20)
若點云到擬合平面的在設(shè)定距離內(nèi),即生成索引點云子集,并對點云子集進行濾波處理,提取障礙物特征點云。采用歐式距離計算和對比不同數(shù)據(jù)點之間的距離,結(jié)合二叉樹搜索方法使距離值在閾值范圍內(nèi)的數(shù)據(jù)點進行組合,對障礙物特征點云進行目標聚類,如式(21):
(21)
式中:D(x,y)為點與點之間的距離值;xi、yi分別為每個點坐標值。
在目標聚類后,根據(jù)每個點云子集求解點云子集在空間雷達坐標系下的最大點坐標信息與最小點坐標信息,由最大點與最小點坐標信息求解障礙物的包圍框。激光雷達點云隨距離增加變得稀疏,環(huán)境感知算法對障礙物檢測性能降低[16],遠處目標不能有效檢測,如圖6。
圖6 激光雷達目標檢測Fig. 6 LIDAR target detection
結(jié)合基于遞歸神經(jīng)網(wǎng)絡目標檢測算法在實時性與準確性等方面的性能,對相同視場空間下的圖像處理采用文獻[3]的目標檢測算法,在圖像目標檢測方面權(quán)衡了實時性和準確性,尤其在小目標檢測方面性能較好。算法處理流程主要包含特征提取、目標預測、包圍框位置與目標類別的損失回歸等步驟,如圖7。
圖7 Yolo目標檢測算法結(jié)構(gòu)Fig. 7 Yolo target detection algorithm structure
筆者針對智能汽車行駛的實際交通場景,對算法模型超參數(shù)進行微調(diào),根據(jù)實際應用場景,學習需要檢測的障礙物目標如車輛、行人等。將采集的交通場景數(shù)據(jù)與手工標簽作為算法輸入,對場景中的目標進行特征提取、目標預測與分類,最后對包圍框與目標類別進行損失回歸,回歸函數(shù)分別對預測中心坐標、預測邊界框、類別與置信度做損失。其中:心坐標損失函數(shù)為Lc,預測邊界框的寬高損失函數(shù)為Lwh,預測類別損失函數(shù)為Lclass,預測置信度損失函數(shù)為Lci,其計算有式(22)~(25):
(22)
(23)
(24)
(25)
根據(jù)損失函數(shù)判斷是否為求解的檢測目標,如式(26):
Lobject=Lc+Lwh+Lclass+Lci
(26)
通過圖像紋理及顏色等信息能更有效感知環(huán)境信息,但對環(huán)境適應性較差,在目標遮擋、光照變化等條件下,會出現(xiàn)難適應環(huán)境變化的工況。
在實際交通場景中,車輛、行人及其他障礙物目標形態(tài)存在較大差異,視角遮擋等干擾因素很難獲得某種固定模式,從而進行有效的目標檢測。三維點云缺少目標對象的紋理信息及實際場景數(shù)據(jù)空間拓撲結(jié)構(gòu)信息;深度相機能標定目標的紋理輪廓信息,但缺少速度分辨率和角度分辨率;基于單傳感器信息的環(huán)境感知算法對環(huán)境適應性較差,并與實際場景的工程應用具有一定差距。文中算法在激光雷達信息目標檢測與圖像信息目標檢測基礎(chǔ)上,將激光雷達獲取的目標信息與相機圖像提供的目標顏色信息相結(jié)合,并基于時間同步、聯(lián)合標定的空間配準實現(xiàn)多源信息進行實時融合,為智能汽車在實際交通場景行駛時提供有效的環(huán)境感知信息。
根據(jù)圖5多源異構(gòu)傳感器信息融合算法框架,多源異構(gòu)信息包圍框位置信息如圖8。
圖8 多源異構(gòu)信息包圍框位置信息Fig. 8 Location information of multi-source heterogeneousinformation bounding box
將激光雷達信息進行預處理,提取障礙物點云的幾何特征信息,將擁有障礙物幾何特征的點云通過R、T組成的空間變換矩陣變換至相機坐標系,如式(27):
P(x,y,z)L_c=P(x,y,z)L×[RT]
(27)
式中:P(x,y,z)L為激光雷達點云信息;P(x,y,z)L_c為經(jīng)過旋轉(zhuǎn)矩陣R和平移矩陣T組成的空間變換矩陣變換的激光雷達點云信息。
(28)
根據(jù)式(28)變換后的點云幾何特征信息求解障礙物3D包圍框的極值坐標。圖像信息求解包圍框位置坐設(shè)為a、b、c、d,如式(29):
(29)
由點云信息和圖像信息求解的位置信息融合函數(shù)Hx_center、Hy_center、Hwidth、Hheight如式(30):
(30)
筆者以重慶交通大學行遠智能汽車作為實驗平臺。該平臺搭載差分GPS、小覓雙目深度相機、16線激光雷達等,其參數(shù)如表1。
表1 車載多源傳感器及工控機關(guān)鍵參數(shù)Table 1 Key parameters of automotive multi-source sensors and industrial computers
在時間同步與單傳感器標定基礎(chǔ)之上,進行聯(lián)合標定求解獲得空間變換矩陣[R,T],對多源傳感器數(shù)據(jù)進行空間變換,映射到圖像坐標系。根據(jù)采集20~30幀數(shù)據(jù)進行實驗,通過空間變換,能有效地將雷達數(shù)據(jù)流映射到圖像空間坐標系中,如圖9。
圖9 多源傳感器聯(lián)合標定實驗Fig. 9 Multi-source sensor joint calibration experiment
圖像信息處理采用文獻[3]中的深度學習算法模型,通過特征提取、分類回歸,求解圖像信息包含的障礙物位置信息與類別信息。激光雷達點云信息通過平面分割、歐式聚類等方法求解點云信息中障礙物的幾何特征,通過空間變換矩陣[R,T]將激光雷達點云信息中包含的障礙物幾何特征點云從激光雷達坐標系變換至相機物理坐標系,并將變換后的3D點云信息映射為2D信息,融合至相機圖像信息進行環(huán)境感知。
將文中構(gòu)建的多源異構(gòu)信息融合算法進行實車實驗,通過對時間同步誤差和空間配準誤差的優(yōu)化,融合圖像信息與激光雷達信息,從而有效彌補單一傳感器在環(huán)境感知中存在的局限性。校園光影遮擋環(huán)境下的算法測試結(jié)果如圖10,算法統(tǒng)計結(jié)果如表2。基于多源信息融合的目標檢測準確率在78.13%~85.56%,平均耗時0.16 s,具有較好的工程實際價值。
圖10 實際檢測結(jié)果Fig. 10 Actual test results
表2 多源異構(gòu)信息融合算法檢測結(jié)果統(tǒng)計Table 2 Statistics of detection results of multi-source heterogeneousinformation fusion algorithm
采用KITTI數(shù)據(jù)集對算法進行客觀評價,如圖11。在僅依靠圖像信息的環(huán)境感知算法中,基于卷積神網(wǎng)絡的圖像檢測算法準確率較高,如RV-CNN的準確率超過90%,但由于使用了非常深的網(wǎng)絡,即使使用GPU單幀目標檢測耗時仍然較高。YOLOv2通過優(yōu)化網(wǎng)絡結(jié)構(gòu),檢測速度有較好提升,但準確率有所下降。在僅依靠雷達信息的環(huán)境感知算法中,行人姿態(tài)不斷變化導致目標準確率均有所降低。雖然車輛等障礙物點云信息有固定目標檢測求解模式,其準確率也僅在70%左右。如Complex-YOLO相對VoxelNet算法,單幀數(shù)據(jù)檢測速度有所提升,但準確率又有所降低。而在信息融合檢測算法中,MV3D算法利用了較深層次的網(wǎng)絡,準確率接近80%。筆者開發(fā)的多源異構(gòu)信息融合環(huán)境感知算法平均準確率78.93%,檢測速度達到0.19 s/幀,準確率有所提升,且算法較好權(quán)衡了實時性和準確率。
圖11 標準數(shù)據(jù)集對比結(jié)果(KITTI車輛、行人數(shù)據(jù))Fig. 11 Comparison results of standard datasets (KITTI vehicle and pedestrian data)
1)針對多源異構(gòu)傳感器時間同步的數(shù)據(jù)幀信息多為隨機匹配,產(chǎn)生的誤差較大,筆者采用基于時間節(jié)點的插值匹配,能有效減少隨機匹配產(chǎn)生誤差,增加多源異構(gòu)信息的匹配度。
2)將雙目深度相機圖像標定結(jié)果與矯正的激光雷達點云作為聯(lián)合標定輸入,求解最優(yōu)的空間變換矩陣,將包含障礙物幾何特征的點云信息變換至圖像坐標系,融合圖像中求解的障礙物信息,彌補單一傳感器環(huán)境感知存在的局限性。
3)在KITTI數(shù)據(jù)集中及實車實驗對筆者提出的目標檢測算法進行驗證,準確率為78.13%~85.56%,每幀數(shù)據(jù)檢測平均耗時為0.16~0.19 s,在遮擋、光照變化等工況下均能準確檢測環(huán)境目標,具有較好的工程應用前景。