人機協(xié)同信息化技術(shù)包含車內(nèi)人機界面(HMI)和車外基于5G的V2X,其中車與人、車與移動設(shè)備、車與其他車之間的通信,均體現(xiàn)了協(xié)同駕駛信息系統(tǒng)的重要性。本文針對協(xié)同駕駛信息化技術(shù)進行了如下的總結(jié):
道路交通在擁堵、安全和環(huán)境影響等方面存在嚴峻的問題,隨著移動通信、無線通信和遙感等技術(shù)的進步,智能交通系統(tǒng)(ITS)成為一種有前景的技術(shù)。開發(fā)新的交通系統(tǒng),需要對感知和人為因素的評估進行研究,以獲得最高的道路交通安全性及最優(yōu)的駕駛員舒適度,而防止交通事故發(fā)生的解決方案之一是提供有關(guān)駕駛員周圍環(huán)境的信息。
如今,AR使用嵌入式視覺技術(shù),通過計算機生成圖形來增強駕駛員對當前環(huán)境的感知,汽車制造商也一直將AR作為車載駕駛顯示器下一代的可視化技術(shù)?;贏R-HUD的車輛安全信息系統(tǒng)可以將周圍的交通信息疊加到用戶視圖上來增強ITS,并使駕駛員駕駛時保持注意力。本章提出一種基于AR和深度學(xué)習(xí)的創(chuàng)新智能駕駛員信息系統(tǒng),用于識別道路障礙類型、解釋和預(yù)測復(fù)雜的交通情況。目標是通過分析來自車輛外部的信息,系統(tǒng)可以主動地防止車輛事故的發(fā)生并改善駕駛員的安全性和體驗。同時提出一個輔助系統(tǒng),以便在擋風(fēng)玻璃上提供有關(guān)網(wǎng)絡(luò)拓撲的信息,增加駕駛員的可見度,避免在低能見度情況下發(fā)生交通事故。在障礙物類型、放置規(guī)則、可見性以及這些在車載顯示器上的投影等方面,引入一種新的AR-HUD方法來創(chuàng)建實時交互式交通動畫。所提出的協(xié)同駕駛信息系統(tǒng)如圖1所示。
圖1 協(xié)同駕駛信息系統(tǒng)[1]
提出一種定位圖像中對象的新方法,其中單個卷積網(wǎng)絡(luò)(CNN)同時輸出多個預(yù)測的ROI和類別的置信度。單個CNN在每次評估中直接從整個圖像預(yù)測感知域和類概率。為ROI中的每個單元引入二進制變量,首先進行網(wǎng)格單元分析,然后進行對象檢測(圖 2)。
圖2 深度CNN的物體檢測體系構(gòu)架[1]
由以上分析可知,車輛間視頻通信視覺AR和基于傳感器的系統(tǒng)與車輛的組合可以有效地減少交通事故的發(fā)生,即協(xié)同驅(qū)動系統(tǒng)是提高交通效率和道路安全可行的解決方案。
為了開發(fā)自動駕駛系統(tǒng),有必要連續(xù)記錄駕駛信息。通常以一定時間間隔存儲車輛狀態(tài)信息和駕駛員操作信息,記錄的車輛信息用于識別系統(tǒng)中各問題或不當操作的原因。駕駛信息記錄可應(yīng)用于多個領(lǐng)域,如自動駕駛系統(tǒng)研究中的問題分析和事故風(fēng)險分析。作者研究對象為現(xiàn)代汽車公司生產(chǎn)的一輛小型電動轎車,安裝了四臺用于自動駕駛的PC,分別用于識別、計劃、控制、存儲駕駛信息。用于驅(qū)動信息記錄的PC通過CAN(控制器區(qū)域網(wǎng)絡(luò))連接到車載網(wǎng)絡(luò),并通過以太網(wǎng)連接到其他PC。PC在自動駕駛系統(tǒng)啟動時自動執(zhí)行并記錄必要的數(shù)據(jù)。
駕駛信息記錄分為6類,分別為:記錄時間間隔、駕駛模式、駕駛員輸入、車輛運行狀態(tài)、駕駛模式的變化信息、車輛路徑中的對象信息。存儲的駕駛信息記錄通過組合每個信息,最終找出問題的原因。
駕駛員分神(DD)定義為由于某些事件、活動、物體或人員,通過損害駕駛員的聽覺、認知或視覺能力等,在車輛內(nèi)部或外部延遲識別用于保持車輛的橫向和縱向控制的安全信息,導(dǎo)致駕駛員將注意力從基本駕駛?cè)蝿?wù)轉(zhuǎn)移開。駕駛時與駕駛員執(zhí)行的主要任務(wù)無關(guān)的活動則定義為次要活動。駕駛員有兩種類型的輔助任務(wù):與車輛信息系統(tǒng)(IVIS)的交互(如控制舒適性、娛樂性)與車輛物品(例如便攜式電子設(shè)備、乘客等)的交互。本章介紹一種基于人工神經(jīng)網(wǎng)絡(luò)和模糊邏輯的魯棒方法,用于檢測、評估車載信息系統(tǒng)引起的駕駛員注意力分散。
DD檢測和評估包括三個步驟[3](圖3):
圖3 DD檢測和評估流程[3]
第1步是ANN預(yù)測特定路段上車輛的動態(tài)性能,即預(yù)測駕駛員在特定路段上的表現(xiàn)(維持速度在某一范圍內(nèi)且保持車輛在車道中間的能力)。
第2步是將預(yù)測變量與具有IVIS相互作用的實際駕駛性能進行比較。
第3步是FL-DD評估器具有“2輸入-1輸出”結(jié)構(gòu),采用五個對稱的重疊在UOD的三角形隸屬函數(shù)(MFs),保證輸入具有相同靈敏度。同時,前饋ANN采用Levenberg-Marquardt方法進行訓(xùn)練,含有兩個隱藏層,其中隱藏層采用的傳遞函數(shù)為雙曲正切函數(shù),輸出層中采用線性傳遞函數(shù)。
有效的人機協(xié)作通過融合來自機器和人體傳感器的“硬”和“軟”數(shù)據(jù),顯著改善諸多學(xué)習(xí)和規(guī)劃策略。信息價值(VOI)理論上是用于時序調(diào)整與人體傳感器交互的關(guān)鍵性決策指標。作者Kin Gwn Lore[4]提出一種新的基于深度學(xué)習(xí)的VOI估計框架,可通過有效的在線推理和最小手動調(diào)整策略來調(diào)整協(xié)同人機感知。監(jiān)督學(xué)習(xí)用于訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)(CNN),從通過數(shù)據(jù)融合獲得的“圖像”中提取分層特征(圖4)。
研究將人類用作智能機器系統(tǒng)的“軟數(shù)據(jù)傳感器”問題,特別是考慮如何使用大量人類觀察詞來增加對可測量動態(tài)物理狀態(tài)的估計,這些狀態(tài)必須由機器使用的常規(guī)“硬”傳感器數(shù)據(jù)連續(xù)監(jiān)測(物體位置、速度、狀態(tài)、溫度、質(zhì)量等)。
圖4 用于獎勵學(xué)習(xí)的CNN示意[4]
實現(xiàn)硬/軟傳感器的融合,數(shù)據(jù)融合中心可以隨時間調(diào)整和執(zhí)行信息量最大的語義查詢,人類傳感器可以用二進制形式進行回應(yīng)?;赩OI的調(diào)整需要NP-hard貝葉斯算法,將其解釋為部分可觀察的馬爾可夫決策過程(POMDP),允許通過值迭代來計算最優(yōu)傳感策略。
卷積神經(jīng)網(wǎng)絡(luò)(CNN)用于從圖像中提取相關(guān)的分層特征以進行檢測、分類和預(yù)測。CNN中,數(shù)據(jù)由每個隱藏層的多個特征映射來表示。在相應(yīng)的隱藏層中,將多個濾波器卷積輸入圖像來獲得特征映射,即輸入圖像與線性濾波器的卷積運算。評估CNN模型的性能并與AMDP進行比較,可知:CNN在環(huán)信息收集系統(tǒng)能夠降低預(yù)期熵及目標MAP估計與真實目標之間的預(yù)期誤差(見5和圖6)。
圖5 MAP估計與目標之間的誤差[4]
圖6 MAP估計與目標之間的誤差分布[4]