亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于開關式深度神經(jīng)網(wǎng)絡的擬人化自動駕駛決策算法

        2021-03-29 03:26:36王玉龍劉文如閆春香周衛(wèi)林
        中國機械工程 2021年6期
        關鍵詞:指令深度模型

        王玉龍 裴 鋒 劉文如 閆春香 周衛(wèi)林 李 智

        1.廣州汽車集團股份有限公司汽車工程研究院,廣州,510641 2.湖南大學汽車車身先進設計制造國家重點實驗室,長沙,410082

        0 引言

        傳統(tǒng)規(guī)則式自動駕駛系統(tǒng)將自動駕駛過程劃分為感知、決策、規(guī)劃以及控制執(zhí)行等子任務[1-2],其優(yōu)勢是算法結構清晰且可靠性高,但由于汽車在行駛過程中需要面臨非常復雜的行駛環(huán)境,僅依靠人為編寫規(guī)則很難滿足高級別自動駕駛對決策和規(guī)劃的開發(fā)需求。近年來,深度神經(jīng)網(wǎng)絡算法性能的大幅提升給自動駕駛帶來了全新的開發(fā)思路,深度神經(jīng)網(wǎng)絡算法已逐漸應用于自動駕駛感知、決策以及規(guī)劃等任務中。

        深度神經(jīng)網(wǎng)絡對自動駕駛感知能力的提升已經(jīng)得到了業(yè)界普遍認可[3-4],但在決策及規(guī)劃任務中的應用仍處于研究階段,其中一個重要的分支是研究擬人化自動駕駛決策。擬人化自動駕駛決策是通過建立深度神經(jīng)網(wǎng)絡模型來學習人類的駕駛行為,直接由傳感器信息映射到轉向、加速以及制動等車輛控制信號,不需要人為編寫大量的行駛規(guī)則,只需要提供足夠多的訓練數(shù)據(jù),系統(tǒng)就能自動學習到不同場景下的駕駛能力。BOJARSKI等[5-6]基于卷積神經(jīng)網(wǎng)絡(convolutional neural networks,CNN)建立了從單幀圖像映射到車輛轉向盤轉角的端到端擬人化自動駕駛決策模型,其測試結果表明,該模型在多種測試工況下均可獲得良好的車道保持效果;CHOWDHURI等[7]在跟車、換道、轉彎以及停車等不同場景下設計了不同的CNN模型,通過不同CNN模型的切換使得自動駕駛系統(tǒng)對多場景下的轉向盤轉角和速度均能較好的預測;CODEVILLA等[8]將CNN層與不同的全連接網(wǎng)絡(fully connected networks,FCN)分支結合,完成了導航功能的開發(fā)。上述CNN模型并未考慮自動駕駛過程中涉及的時序問題,而長短期記憶(long short-term memory,LSTM)網(wǎng)絡模型擅長解決時序問題。CHI等[9]采用CNN+LSTM的網(wǎng)絡模型,通過輸入圖片序列對轉向盤轉角進行了預測,該模型相比文獻[5]設計的模型更加穩(wěn)定和有效;ERAQI等[10]設計了卷積式長短期記憶(convolutional long short-term memory,C-LSTM)網(wǎng)絡模型,其基本結構與CNN+LSTM模型相似,但相比于一般的CNN模型,所設計模型的轉向盤轉角均方根誤差減小了35%;YANG等[11]構建了基于CNN+LSTM的多模態(tài)多任務模型,數(shù)據(jù)集測試效果顯示該模型可以同時準確地預測轉向盤轉角和速度。此外,許多研究為了提高模型的預測能力,在網(wǎng)絡訓練過程中加入了輔助任務。XU等[12]通過加入道路分割的輔助任務來對駕駛員的駕駛意圖進行預測;CHEN等[13]通過CNN模型識別出自動駕駛過程中的關鍵環(huán)境參數(shù),并將此參數(shù)作為網(wǎng)絡輸入來進行自動駕駛決策算法的設計。

        目前擬人化自動駕駛決策研究主要側重于單向控制或簡單任務的開發(fā)(如進行單獨的橫向控制或縱向控制),對復雜多任務下的算法研究比較缺乏。若采用單一網(wǎng)絡對自動駕駛決策軌跡進行預測,則無法滿足駕駛指令的輸入(如在同一個路口,導航指令會要求車輛進行左轉、右轉或者直行),而且在某些場景下會導致訓練標簽之間發(fā)生相互矛盾(如車輛前方有障礙物時,可以選擇跟車或者繞過障礙物)。為解決上述問題,文獻[8,14-15]采用分段網(wǎng)絡結構將自動駕駛網(wǎng)絡分成感知網(wǎng)絡、決策網(wǎng)絡以及控制網(wǎng)絡,其中決策網(wǎng)絡可根據(jù)駕駛指令分為不同的子網(wǎng)絡,但是此網(wǎng)絡結構復雜,存在大量的計算冗余,且無法進行端到端的訓練。為此,本文設計了一種開關式深度神經(jīng)網(wǎng)絡,該網(wǎng)絡由CNN層和LSTM層組成,在兩個子網(wǎng)絡間嵌入了具有開關性質的特征選擇層,然后通過不同的駕駛指令選擇激活不同的特征分支,基于一個所設計的網(wǎng)絡即可完成車道保持、繞障行駛以及導航轉向等多項復雜任務。

        1 開關式深度神經(jīng)網(wǎng)絡

        1.1 網(wǎng)絡結構設計

        開關式深度神經(jīng)網(wǎng)絡結構如圖1所示,網(wǎng)絡輸入為前向多幀圖像以及轉向盤轉角和速度的歷史軌跡,輸出為預測的轉向盤轉角和車輛行駛速度。網(wǎng)絡整體結構包括CNN層、特征選擇網(wǎng)絡(feature selection networks,FSN)層、LSTM層和FCN層。其中CNN層的主要作用是提取輸入圖像的特征,F(xiàn)SN層根據(jù)不同的駕駛指令對CNN層輸出的特征進行選取,LSTM層用以獲得不同圖像幀之間的時空關系,F(xiàn)CN層則根據(jù)LSTM層輸出的結果進行決策,并輸出車輛行駛的控制參數(shù)。

        圖1 開關式深度神經(jīng)網(wǎng)絡結構Fig.1 Switched deep neural networks structure

        本文中輸入的圖像幀數(shù)為5,即包括當前幀在內的前5幀圖像,經(jīng)過裁剪和縮放的圖像輸入大小為240 pixel×75 pixel。CNN層一共包括5層,采用3D卷積核,不同CNN層的超參數(shù)向量分別為(3,5,5,3,16)、(2,5,5,16,32)、(2,5,5,32,32)、(1,3,3,32,48)、(1,3,3,48,6),其中每個超參數(shù)向量中的前3個超參數(shù)分別為圖像序列長、寬和高的卷積核大小,第4個超參數(shù)為輸入圖像的通道數(shù)目,第5個是輸出圖像的通道數(shù)目,最終CNN層輸出的特征維度為(5,8,3,64),即每幀圖像均由64個10 pixel×4 pixel的圖像塊表示,將圖像塊進行展平可獲得維度為(5,2560)的特征向量。

        FSN層將CNN層輸出的特征切分為不同的特征分支,不同的駕駛指令通過選擇不同的特征分支,使得深度神經(jīng)網(wǎng)絡對不同的駕駛指令做出不同的響應。本文所選擇的駕駛指令包括兩類:導航指令和繞障指令。導航指令由手機地圖發(fā)出,包括左轉、右轉以及直行;繞障指令是當車輛前方遇到靜止障礙物時由系統(tǒng)發(fā)出繞障請求,此時自動駕駛車輛根據(jù)可行駛區(qū)域進行繞障行駛。因此最終可獲得4個指令:左轉、右轉、直行以及繞障行駛。4個指令平分CNN層輸出的特征向量,即每個指令對應的特征向量維度為 (5,640),同時將每幀圖像對應的前5幀轉向盤轉角和速度作為網(wǎng)絡的輸入,并與每個指令對應的特征向量進行拼接后輸入到LSTM層。

        LSTM層共包括兩層,節(jié)點數(shù)量均為256,在LSTM層后連接有兩個FCN分支,其中一個分支為轉向盤轉角預測,該分支包括3層FCN層,輸出層為當前幀的轉向盤轉角預測值,激活函數(shù)為反正切函數(shù);另一個分支為速度預測,與轉向盤轉角預測分支具有相同的網(wǎng)絡結構,輸出層為當前幀的速度預測值,激活函數(shù)為sigmoid函數(shù)。

        1.2 網(wǎng)絡損失函數(shù)設計

        神經(jīng)網(wǎng)絡是通過梯度下降法尋找從輸入到輸出的最佳函數(shù)表達式,因此網(wǎng)絡的損失函數(shù)對網(wǎng)絡的預測精度有非常重要的影響,本文基于開關式深度神經(jīng)網(wǎng)絡結構設計了獨特的損失函數(shù),可表示為

        Y=f(I,w,Ci)

        (1)

        式中,f(·)表示網(wǎng)絡輸入輸出的映射函數(shù);I為圖像輸入;w為網(wǎng)絡中涉及的優(yōu)化參數(shù);Ci為不同的駕駛指令輸入,i=1,2,3,4分別表示左轉、右轉、直行和繞障行駛指令;Y為每幀圖像對應網(wǎng)絡的輸出預測值。

        網(wǎng)絡優(yōu)化就是尋找最優(yōu)的參數(shù)w使得∑(y-Y)2值最小,其中y為每幀圖像對應車輛行駛控制的實際值。同時對訓練參數(shù)進行正則化處理,使得模型不會過擬合到訓練數(shù)據(jù)中的隨機噪聲,本文采用L2正則化方法,最終的網(wǎng)絡損失函數(shù)可表示為

        (2)

        式中,ws為不同駕駛指令共享的網(wǎng)絡參數(shù);wi(i=1,2,3,4)為不同駕駛指令下獨立的網(wǎng)絡參數(shù);θ、v分別為轉向盤轉角和速度的實際值;α、β分別為轉向盤轉角和速度偏差的權重系數(shù);λ為正則化權重系數(shù),取經(jīng)驗值為1×10-5。

        每一個駕駛指令都對應一個損失函數(shù),不同的駕駛指令共享參數(shù)ws,但具有不同的wi。為避免量綱不同所帶來的誤差,將轉向盤轉角和速度分別進行歸一化處理,其中轉向盤轉角除以其最大值歸一化到[-1,1],速度除以其最大值歸一化到[0,1],固定α值為1,優(yōu)化β值最終確定為0.1。

        2 訓練數(shù)據(jù)處理

        2.1 數(shù)據(jù)采集和處理

        擬人化自動駕駛決策算法是基于人類駕駛數(shù)據(jù)進行模型訓練的,因此數(shù)據(jù)對自動駕駛能力具有很大的影響。通過車輛前端安裝的攝像頭采集車輛行駛環(huán)境數(shù)據(jù),攝像頭視角為60°,采集頻率為10 Hz,圖像尺寸為1920 pixel×1208 pixel,采集圖像樣本不少于50萬幀,同時利用車載傳感器采集駕駛行為數(shù)據(jù),包括車輛轉向盤轉角、車輛速度以及車輛橫擺角速度等,采集頻率為100 Hz,采集的場景包括不同時間、道路、天氣、光線以及車流等。

        開關式深度神經(jīng)網(wǎng)絡可以接受不同的駕駛指令來完成相應的功能,因此在不同駕駛指令下對應的訓練數(shù)據(jù)是不同的,根據(jù)設定的4個駕駛指令(左轉、右轉、直行和繞障行駛)對數(shù)據(jù)進行切分標注,分為路口左轉數(shù)據(jù)、路口右轉數(shù)據(jù)、路口直行數(shù)據(jù)、車道內直行數(shù)據(jù)以及繞障數(shù)據(jù)。無論左轉、右轉還是繞障行駛都應該在相應功能開始前和結束后具有車道保持的功能,因此不同指令下的訓練數(shù)據(jù)均包含車道內直行數(shù)據(jù)。如左轉指令下的訓練數(shù)據(jù)包括路口左轉數(shù)據(jù)以及車道內直行數(shù)據(jù),車輛在路口左轉時,系統(tǒng)提前切換到左轉指令,在到達路口的這段距離內車輛仍然保持直行,在車輛到達路口后進行左轉,然后在左轉完成后繼續(xù)沿車道行駛,直至系統(tǒng)切換到直行指令;而繞障指令下的訓練數(shù)據(jù)包括繞障數(shù)據(jù)和車道內直行數(shù)據(jù),當車輛距障礙物一定距離時車輛可以保持在車道內行駛,當系統(tǒng)發(fā)出繞障指令時車輛進行繞障行駛,繞障完成后車輛沿著新的車道繼續(xù)行駛,直至系統(tǒng)切換到直行指令。不同指令下的數(shù)據(jù)構成如表1所示。

        表1 不同指令下的數(shù)據(jù)構成Tab.1 Data structure under different instructions

        2.2 數(shù)據(jù)增強

        在自動駕駛行駛過程中,所遇到的場景非常復雜,為了提高模型的泛化能力和魯棒性,需要針對采集的數(shù)據(jù)進行數(shù)據(jù)增強。但與目標識別所不同的是,車輛轉向盤轉角和速度與圖像參數(shù)相關性比較大,不能隨意對圖像進行旋轉、縮放、裁剪以及翻轉等操作。本文主要對圖像進行光線調整、陰影處理、平行移動以及加入高斯噪聲等處理,同時為了增加路口轉向的數(shù)據(jù),將左右轉向的圖像進行翻轉而獲得相反方向的數(shù)據(jù),自動駕駛數(shù)據(jù)增強后的效果如圖2所示。

        (a) 原始圖像

        (1)光線調整。將原始圖像(圖2a)從RGB空間轉換到HSV空間,隨機調節(jié)代表亮度變化的V值,調節(jié)范圍為-40%~40%,然后從HSV空間轉換到RGB空間,增強和減弱亮度的效果分別如圖2b和圖2c所示。圖像對應的轉向盤轉角和速度的標簽值不變化。

        (2)陰影處理。隨機從原始圖像上下邊緣選取兩個點將圖像分為兩部分,隨機挑選一部分加入圖像陰影,陰影透明度為50%,增加陰影后的效果如圖2d所示。圖像對應的轉向盤轉角和速度的標簽值不變化。

        (3)圖像平動。將原始圖像隨機進行上下左右平移,移出部分用黑色像素點填充,其中上下平移范圍為[-4 pixel,4 pixel],左右平移范圍為[-12 pixel,12 pixel],向上和向右為正,左上平移和右下平移的效果分別如圖2e和圖2f所示。上下平移時圖像對應的轉向盤轉角的標簽值不變化,每上移一個像素,速度標簽值增大1%,左右平移時圖像對應的速度的標簽值不變化,每右移一個像素,轉向盤轉角標簽值增大0.5%。

        (4)高斯噪聲。給原始圖像加入高斯白噪聲,平均值為0,偏差為0.1 dB,加入高斯白噪聲的效果如圖2g所示。圖像對應的轉向盤轉角和速度的標簽值不變化。

        (5)圖像翻轉。將原始圖像進行左右翻轉,翻轉后的效果如圖2h所示。圖像對應的速度標簽值不變化,轉向盤轉角標簽值變?yōu)閷呢撝怠?/p>

        3 網(wǎng)絡訓練

        3.1 模型訓練超參數(shù)設置

        將數(shù)據(jù)集分為左轉、右轉、直行以及繞障行駛4個子數(shù)據(jù)集,每個子數(shù)據(jù)集均包含訓練集、驗證集和測試集,比例分別為80%、10%和10%。訓練總步數(shù)為20萬,在每一步的訓練中分別對4個分支都進行一次迭代,共享的網(wǎng)絡參數(shù)在4個分支的迭代過程中均會得到更新,而每個分支獨有的網(wǎng)絡參數(shù)只會在該分支的迭代過程中得到更新。

        訓練采用Adam優(yōu)化算法,該算法可以自適應地調整訓練過程中的參數(shù)。同時為加快模型的收斂速度,采用階梯狀的學習率,其表達式如下:

        Dr=lrdrCstep/Dstep

        (3)

        式中,Dr為當前學習率;lr為基礎學習率,本文設置為10-3;dr為學習率的衰減率,本文設置為0.9;Cstep為當前訓練步數(shù);Dstep為達到衰減率的步數(shù),本文設置為1萬。

        同樣為了加快訓練過程中模型的收斂速度,將速度、轉向盤轉角以及圖像數(shù)據(jù)進行歸一化處理,即

        (4)

        3.2 模型預測結果分析

        采用均方根誤差(root mean squared error,RMSE)和決定系數(shù)R2對不同模型的預測性能進行評估[16]。RMSE和R2的計算表達式分別如下:

        (5)

        (6)

        RMSE是預測值與實際值之間的平均偏差,RMSE值越小表明模型的預測值和實際值的偏差越小,模型的預測能力越強。如果在相同數(shù)據(jù)集下則可以利用RMSE來衡量不同模型的性能,但本文訓練所涉及的數(shù)據(jù)集以及模型的輸出均有所不同,因此采用R2對模型進行評估。R2可以反映模型對樣本的擬合程度,R2值越大表明模型的預測精度越高,一般回歸模型的R2應在0.7以上才會取得較高的可信度。

        為了平滑模型的輸出,采用如下濾波算法對結果進行濾波處理,其表達式如下[5]:

        (7)

        其中,Y(t-1)為上一時刻t-1時轉向盤轉角或速度的預測值;Y(t)為當前時刻t時轉向盤轉角或速度的預測值;S(t)為當前時刻t時轉向盤轉角或速度的濾波值;γ為濾波系數(shù),本文設定轉向盤轉角的濾波系數(shù)為0.1,速度的濾波系數(shù)為0.2。

        圖3所示為不同導航指令下模型對速度和轉向盤轉角的離線預測,預測時間長度為100 s,左轉指令下車輛首先經(jīng)過一個急促的左轉彎,然后進行一段車道保持,之后又經(jīng)過一次左轉彎。右轉指令下車輛連續(xù)經(jīng)過三次右轉彎,中間段為車道保持過程。從圖3中可以看出,在左轉和右轉指令下,轉向盤轉角的預測值與實際值非常吻合,RMSE值分別為7.2°和7.9°,R2值分別為0.98和0.91,無論是在左急轉彎還是在右緩轉彎處,模型均可作出正確的轉角預測,且在沒有路口的位置,模型的預測值也與實際值吻合,車輛具有保持在車道內行駛的能力。速度的預測值與實際值之間略有偏差,在左轉和右轉指令下,RMSE值分別為2.5 km/h和1.1 km/h,R2值分別為0.87和0.88,這是因為在轉彎時,即使是相同的路口,不同時刻采集到的速度偏差較大,但總體來說,模型對速度變化趨勢的預測結果還是較為準確的,模型可以根據(jù)轉彎半徑的大小進行速度調整。

        (a) 路口左轉指令

        圖4所示為直行指令和繞障指令下模型對速度和轉向盤轉角的離線預測,預測時間長度為100 s,直行指令下車輛根據(jù)前方車輛的運動狀況進行了8次的起步和停止,繞障指令下車輛根據(jù)前方靜止車輛進行了13次繞障。從圖4中可以看出,無論是直行還是繞障指令下,模型對轉向盤轉角和速度的預測結果均與實際值比較吻合。其中轉向盤轉角的RMSE值分別為2.5°和8.2°,R2值分別為0.71和0.97,雖然直行指令下轉向盤轉角的RMSE值比繞障指令下轉向盤轉角的RMSE值小,但從圖4中可以看出避障指令下的預測結果與實際值更加吻合,因此R2比RMSE更能體現(xiàn)模型的預測能力。在直行和繞障指令下,速度預測的RMSE值分別為2.2 km/h和1.6 km/h,R2值分別為0.84和0.92,在直行過程中模型可以根據(jù)前方車輛狀態(tài)進行起步和停止,但由于直行采集過程中最高速度有所不同,因此預測的最高速度與實際值之間會有偏差。同樣在繞障過程中模型根據(jù)前方靜止車輛位置進行減速,然后在距離車輛較近的位置進行換道避障。

        (a) 直行指令

        3.3 不同特征分支重疊度對模型精度的影響

        本文對CNN層的輸出特征進行切分以獲得不同的特征分支,然后依據(jù)不同的指令選擇相應的特征分支來完成不同的駕駛任務。前述方法(3.1節(jié))是平分CNN層的輸出結果,此時各個特征分支完全獨立,但實際上不同特征分支并不是完全獨立的,如左轉和直行以及右轉和直行之間都會共享一些特征,因此本文分析了不同特征分支的重疊度對模型精度的影響。重疊度是指相鄰兩個特征分支之間共享的特征參數(shù)個數(shù)與每個分支所擁有的特征參數(shù)個數(shù)的比值,本文進行了重疊度分別為0、25%、50%、75%以及100%的測試,不同重疊度下轉向盤轉角和速度的R2如圖5所示。從圖5中可以看出,當重疊度增大到25%時,R2達到最大值,然后隨著重疊度的增大,R2的值緩慢減小,當重疊度超過50%時,R2值迅速減小,因此,本文最終選擇的重疊度為25%。為測試特征選擇層對模型推理時間的影響,本文選取了沒有特征選擇層的模型和特征選擇層中特征分支的重疊度分別為0、25%、50%、75%和100%的模型進行測試,其推理時間依次為70 ms、71 ms、72 ms、72 ms、73 ms和73 ms,其中本文選擇的特征分支重疊度為25%的模型的推理時間由70 ms增加至72 ms,增加比例為2.9%,小于5%,因此本文提出的開關式深度神經(jīng)網(wǎng)絡并沒有顯著增加模型的推理時間。

        圖5 不同特征分支的重疊度對模型精度的影響Fig.5 Influence of feature branches overlapping ratio on model accuary

        4 實車測試

        4.1 實車測試平臺

        采用電動車作為線控平臺(圖6a),控制器采用具有12個CPU核心、4個GPU核心以及8 GB內存的英偉達drivePx2,計算力達8TFLOPS,滿足深度神經(jīng)網(wǎng)絡對計算力的需求。控制軟件基于業(yè)界內普遍采用的機器人操作系統(tǒng)(robot operating system,ROS)開發(fā),其模塊化、通信機制以及兼容多編程語言等特性有助于復雜自動駕駛系統(tǒng)的搭建。網(wǎng)絡模型的輸出為轉向盤轉角和速度,轉向盤轉角通過車載電動助力轉向系統(tǒng)(electric power steering,EPS)進行閉環(huán),速度利用PID算法調節(jié)驅動扭矩和制動力矩進行閉環(huán)。

        4.2 開關式深度神經(jīng)網(wǎng)絡切換條件

        (1)導航指令切換條件。為測試模型對不同導航指令的響應,隨機選擇某十字路口作為測試場景,選擇距離路口較遠位置作為測試起點。導航指令由手機地圖軟件發(fā)出,通過手機藍牙將導航信息發(fā)送給控制系統(tǒng),導航信息包括前方路口動作和前方路口距離。開始時系統(tǒng)默認直行指令,當距離路口小于50 m時系統(tǒng)會發(fā)出轉向指令,當車輛完成轉彎后系統(tǒng)發(fā)出直行指令直至接近下一個路口。

        (2)繞障指令切換條件。繞障指令由駕駛員提前撥動轉向桿發(fā)出,當前方遇到障礙物時,如果沒有繞障指令發(fā)出,則車輛根據(jù)前車距離進行跟車行駛。當系統(tǒng)發(fā)出繞障指令時,車輛根據(jù)前車距離選擇適當位置進行換道,在換道完成后系統(tǒng)發(fā)出直行指令。當系統(tǒng)發(fā)出繞障指令而當時環(huán)境不允許換道時(如車輛左側沒有可通行區(qū)域),模型會阻止繞障指令并繼續(xù)進行跟車行駛,但由于未在車輛側后方安裝傳感器,因此模型無法阻止側后方來車時的換道。

        4.3 測試場景分析

        測試過程中采集以下3種情況下的轉向盤轉角數(shù)據(jù):①熟練駕駛員通過測試場景;②基于開關式深度神經(jīng)網(wǎng)絡的自動駕駛決策算法通過測試場景;③基于封閉式深度神經(jīng)網(wǎng)絡的自動駕駛決策算法通過測試場景。其中封閉式深度神經(jīng)網(wǎng)絡是與開關式深度神經(jīng)網(wǎng)絡具有相同的結構,但去除了中間的特征選擇層。測試區(qū)域選擇圖6a所示的島內區(qū)域,圖中紅色線為島內主干道路,不同線段交叉處為路口位置?;谏鲜鰲l件對模型進行了3種不同的場景測試。

        4.3.1測試場景1:車道保持功能測試

        選定圖6a所示區(qū)域內的環(huán)島路線作為測試路線,全程長度為5 km,大部分區(qū)域內車道線清晰,路口位置無車道線,部分區(qū)域內車道線的曲率較大,測試結果如圖6b所示,無論是采用封閉式深度神經(jīng)網(wǎng)絡還是開關式深度神經(jīng)網(wǎng)絡,車輛均可全程無接管完成測試。從圖6b中可以看出,封閉式深度神經(jīng)網(wǎng)絡預測的轉向盤轉角波動幅度大于開關式深度神經(jīng)網(wǎng)絡預測的轉向盤轉角波動幅度,其相對于熟練駕駛員輸出的轉向盤轉角的RMSE值為3.4°,比開關式深度神經(jīng)網(wǎng)絡對應的RMSE值(2.6°)增大了31%。

        4.3.2測試場景2:十字路口導航功能測試

        隨機選擇某十字路口作為測試場景,測試結果如圖6c所示,對于開關式深度神經(jīng)網(wǎng)絡,車輛可根據(jù)輸入的不同指令在同一個路口完成左轉、右轉和直行,同時無論是左轉或右轉指令,在車輛到達路口前均可以完成車道保持的功能,最終路口無接管通過率在90%以上。部分場景需要接管是因為數(shù)據(jù)采集時車流量較少,所以在轉彎過程中遇到對向來車時需要對車輛進行接管。對于封閉式深度神經(jīng)網(wǎng)絡,由于其無法接受導航指令的輸入,因此不能進行路口轉彎只能進行直行,同時該封閉式網(wǎng)絡會受到路口場景的影響,從而會導致測試過程中轉向盤抖動較大。

        4.3.3測試場景3:直行跟車和繞障功能測試

        選定主干道作為測試場景,在車輛前方設置有障礙車,障礙車會進行隨機停車等待,繞障指令由駕駛員提前撥動轉向桿發(fā)出。測試結果如圖6d所示,在直行階段,封閉式深度神經(jīng)網(wǎng)絡與開關式深度神經(jīng)網(wǎng)絡均可完成自動駕駛。但當前方有靜止障礙物時,開關式深度神經(jīng)網(wǎng)絡可順利繞過障礙物后再繼續(xù)保持直行,封閉式深度神經(jīng)網(wǎng)絡卻由于轉向時間較晚導致車輛轉向不足從而無法通過測試。

        (a) 測試車輛與測試區(qū)域

        5 結論

        (1)建立了一種基于CNN+LSTM的開關式深度神經(jīng)網(wǎng)絡,同時通過在CNN層和LSTM層之間嵌入具有開關性質的特征選擇層,使得模型可以接受不同的駕駛指令,從而完成相應的駕駛任務。

        (2)針對每個駕駛指令設計了其網(wǎng)絡損失函數(shù),網(wǎng)絡訓練過程中依次對不同駕駛指令下的網(wǎng)絡參數(shù)進行更新,每個駕駛指令擁有共享參數(shù)和獨立參數(shù),使得網(wǎng)絡既可接受不同駕駛指令又不會顯著增加網(wǎng)絡的推理時間。

        (3)采用均方根誤差(RMSE)和決定系數(shù)R2對模型的預測能力進行量化評估,離線測試結果表明,模型在左轉、右轉、直行以及繞障行駛時均對轉向盤轉角和速度有著良好的預測能力,且通過評價指標對特征分支的重疊度進行了優(yōu)化。

        (4)搭建了自動駕駛實車測試平臺,針對基于開關式深度神經(jīng)網(wǎng)絡的擬人化自動駕駛決策算法設計了3種不同的測試場景,測試結果表明,車輛可以根據(jù)駕駛指令很好地完成自動駕駛任務,可以有效地進行跟車、避障以及路口轉彎等操作。

        猜你喜歡
        指令深度模型
        一半模型
        聽我指令:大催眠術
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權M-估計的漸近分布
        深度觀察
        深度觀察
        ARINC661顯控指令快速驗證方法
        測控技術(2018年5期)2018-12-09 09:04:26
        LED照明產品歐盟ErP指令要求解讀
        電子測試(2018年18期)2018-11-14 02:30:34
        深度觀察
        国产99视频精品免视看9| 亚洲乱码中文字幕三四区| 亚洲精品国产av成人精品| 无码中文字幕免费一区二区三区| 亚洲av无码国产精品麻豆天美 | 激情视频在线观看好大| 五月四房播播| 国产精品视频一区二区噜噜| 欧美1区二区三区公司| 国产一区二区三区精品毛片| 亚洲日韩中文字幕在线播放 | 日本一区二区三区在线视频观看| 国产一区国产二区亚洲精品| 毛片a级毛片免费观看| 婷婷九月丁香| 久久久一本精品久久久一本| 国产精品无码制服丝袜| 一本色道久久99一综合| 中文字幕亚洲无线码高清| 美女被强吻并脱下胸罩内裤视频 | 成人国产一区二区三区av| av国产传媒精品免费| 亚洲不卡av不卡一区二区| 亚洲青涩在线不卡av| 东京热日本av在线观看| 亚洲日韩国产精品乱-久 | 日本一区二区三本视频在线观看 | 亚洲午夜久久久久久久久电影网 | 五月婷婷丁香视频在线观看| 色综合久久中文娱乐网| 少妇熟女视频一区二区三区| 果冻蜜桃传媒在线观看| 国产一级一片内射视频播放| 少妇性荡欲视频| 国产精品中文第一字幕| 中文字幕人妻精品一区| 无码国产色欲xxxx视频| 亚洲欧美国产日韩字幕| 久久熟女精品—区二区蜜臀| 色与欲影视天天看综合网| 3344永久在线观看视频|