亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        自動駕駛預(yù)測算法簡介

        2022-03-01 22:51:01邱昱陳彩霞
        科學(xué)家 2022年1期

        邱昱 陳彩霞

        摘要:自動駕駛汽車的預(yù)測模塊基于歷史及當(dāng)前環(huán)境狀態(tài),預(yù)測附近交通參與者的未來狀態(tài),以降低風(fēng)險,減小傷害。本文簡要介紹了自動駕駛領(lǐng)域預(yù)測算法的重要性、問題定義與各種類型。對于預(yù)測算法的兩個大類:基于模型的方法和數(shù)據(jù)驅(qū)動的方法,本文對各類具體算法的意義、相關(guān)參數(shù)、區(qū)別與優(yōu)缺點等進行了簡要介紹。

        關(guān)鍵詞:自動駕駛,預(yù)測算法,卷積神經(jīng)網(wǎng)絡(luò),循環(huán)神經(jīng)網(wǎng)絡(luò),變形器,圖神經(jīng)網(wǎng)絡(luò)

        引言

        近年來,智能駕駛技術(shù)發(fā)展迅速,安全是重中之重。一方面,安全性是智能駕駛和自動駕駛技術(shù)的基石;另一方面,人們期望未來自動駕駛汽車的應(yīng)用可以降低道路事故發(fā)生率,提高道路安全【1】。安全,也就意味著事前盡量降低相關(guān)交通參與者遭受傷害的可能性與嚴(yán)重度。要實現(xiàn)這一點,對交通參與者的預(yù)測就極為必要。

        問題定義

        要執(zhí)行自動駕駛預(yù)測任務(wù),前提條件是能夠得到安裝在自動駕駛汽車上激光雷達(dá)、雷達(dá)或攝像頭等傳感器的實時數(shù)據(jù)流并且存在實時檢測和跟蹤交通參與者信息的系統(tǒng)。這些交通參與者的信息可以是邊界框、位置、速度、加速度、朝向角和朝向角變化率等。此外還需包括自車所行駛區(qū)域的地圖信息,如道路和人行橫道的位置,車道方向。這些地圖信息可以用特定方式建模描述:如道路多邊形用來描述可通行區(qū)域、人行橫道多邊形描述用于行人橫穿的道路區(qū)域、車道信息描述行駛路徑。

        未來軌跡是過去軌跡的后續(xù),那么預(yù)測就是基于對過去軌跡的觀測提供未來軌跡合理的可能輸出【2】。如果對于第 個交通參與者在觀測時刻 的歷史軌跡,我們用 來表示,其中 , 表示觀測序列中的當(dāng)前時間,則第 個交通參與者的歷史軌跡是一個序列 。所有交通參與者的未來軌跡則可以表示為 。

        算法介紹

        目前,對于軌跡預(yù)測的方法,主要分為基于模型和數(shù)據(jù)驅(qū)動的方法兩大類【3】。

        基于模型的方法

        基于模型的方法假設(shè)交通參與者按照某種預(yù)先定義好的模式運動,根據(jù)觀測到的歷史信息計算模型參數(shù),并進一步預(yù)測交通參與者未來的軌跡?;谀P偷姆椒ㄓ挚梢约?xì)分為:基于物理特征的模型、基于序列動作的模型和基于交互覺察的模型【4】。

        基于物理特征的模型

        基于物理特征的模型將車輛視作遵守物理規(guī)則的運動實體,基于控制輸入、車輛參數(shù)與外部狀態(tài)等對其未來運動進行預(yù)測。又可分為基于動力學(xué)的模型和基于運動學(xué)的模型【5】。

        基于動力學(xué)的模型要考慮車輛的動力學(xué)特征,模型復(fù)雜且必要性不高,較少應(yīng)用。

        基于運動學(xué)的模型不考慮影響運動的力,基于運動參數(shù)(如位置、速度和加速度)間的數(shù)學(xué)關(guān)系描述車輛的運動。包含恒速模型、恒加速度模型、定轉(zhuǎn)彎速率恒速模型和定轉(zhuǎn)彎速率恒加速模型等。

        基于物理特征的模型可通過不同方法用于軌跡預(yù)測:如單軌跡模擬、高斯噪聲模擬和蒙特卡羅模擬。

        單軌跡模擬方法直接將模型應(yīng)用于車輛的當(dāng)前狀態(tài),計算未來軌跡。其優(yōu)點是計算效率高。缺點是沒有考慮不確定情況及模型缺點,因此不適合做長期預(yù)測。

        高斯噪聲模擬方法將車輛的不確定性描述為高斯模型,通過卡爾曼濾波器對車的狀態(tài)進行預(yù)測。較之單軌跡模擬方法,高斯噪聲模擬方法能表達(dá)預(yù)測軌跡的不確定性。

        蒙特卡洛模擬方法,對模型輸入如速度、方向盤轉(zhuǎn)角進行隨機采樣,生成預(yù)測路徑,既可用于當(dāng)前狀態(tài)完全確定的情況,也可用于當(dāng)前狀態(tài)有不確定性的情況。

        基于物理特征的模型依賴于運動的低層級特征,因此僅能用于短于1s的預(yù)測。特別是其缺乏對交通規(guī)則的理解,沒有和其它車輛的交互,無法預(yù)測車輛任何運動狀態(tài)的變化。

        基于序列動作的模型

        基于序列動作的模型將車輛視作獨立的動作實體?;谛蛄袆幼髂P偷能壽E預(yù)測基于對駕駛員傾向執(zhí)行的動作的先期識別,預(yù)估與其匹配的車輛其未來運動。較之基于物理特征的模型,基于序列動作模型預(yù)測的軌跡更準(zhǔn)確可靠。

        基于序列動作的模型有兩種軌跡預(yù)測方法:原型軌跡和動作意圖估計。

        原型軌跡方法中,車的軌跡可以劃分為一系列的簇,每一簇對應(yīng)一個典型的運動模式。運動模式采用訓(xùn)練階段學(xué)習(xí)而來的原型軌跡進行表達(dá)。在預(yù)測階段,將車輛實際的待完成的部分軌跡與原型軌跡進行比較,取最相似的原型軌跡用于預(yù)測未來的運動。其缺點是對不同道路布局適應(yīng)性不強。

        基于意圖的模型主要是分為2部分,一是對意圖進行評估,然后再執(zhí)行。其首先估計駕駛員的動作意圖,如停止線等待、跟車和左轉(zhuǎn)等,然后預(yù)測后續(xù)的相匹配的物理狀態(tài)。與原型軌跡相比,它不需要將部分軌跡與原型軌跡匹配,而只需要抽取高級特征用于識別動作,從而更容易在任意類型道路布局生成學(xué)習(xí)模型。

        動作執(zhí)行階段按匹配的動作將軌跡預(yù)測出來,其輸入為車輛狀態(tài)、道路信息和駕駛員行為等。常用方法有多層感知機、邏輯回歸、相關(guān)向量機、支持向量機和隱馬爾科夫模型等。它的輸出可以是判定式預(yù)測的一條軌跡,也可以是生成式提供的多條軌跡及其概率。

        基于動作序列的模型假設(shè)車輛之間相互獨立運動,沒考慮車間交互的影響。而實際車輛是與其它車輛共享道路,一輛車的動作會影響其它車的動作。這種假設(shè)會導(dǎo)致對環(huán)境信息理解的錯誤,并影響風(fēng)險評估。

        基于交互覺察的模型

        基于交互察覺的模型仍然采用動作序列實體,但將車間交互也進行建模。這使得其對車輛的行為有了更好的解釋,對情況有更好的理解并對風(fēng)險有更可靠的評估。交互察覺模型通常是基于軌跡原型與動態(tài)貝葉斯網(wǎng)絡(luò)。

        基于軌跡原型的交互察覺模型在訓(xùn)練階段并不能將車間影響納入,但在匹配階段可通過假設(shè)駕駛員有避免碰撞的傾向納入車間的相互影響。

        大多數(shù)交互察覺動作模型是基于動態(tài)貝葉斯網(wǎng)絡(luò)。多物體間的兩兩依賴關(guān)系可用耦合隱馬爾科夫模型建模。

        基于交互覺察的模型比物理模型預(yù)測的時間更久,比基于意圖的預(yù)測更加穩(wěn)定,計算多個汽車之間的關(guān)系計算量比較大,不適用實時風(fēng)險評估。

        數(shù)據(jù)驅(qū)動方法

        這類方法通常指的就是深度學(xué)習(xí)方法,其使用大量數(shù)據(jù)訓(xùn)練一個黑盒子模型(通常是一個神經(jīng)網(wǎng)絡(luò))。之后將訓(xùn)練好的模型應(yīng)用于觀測到的數(shù)據(jù)進行預(yù)測。模型訓(xùn)練過程通常是離線計算,要消耗較多計算資源。而模型應(yīng)用于預(yù)測時,則非常快速。

        深度學(xué)習(xí)方法應(yīng)用于自動駕駛的預(yù)測時,通常是以多幀相關(guān)環(huán)境信息為輸入,目標(biāo)交通參與者的未來行為、軌跡、軌跡概率等為輸出。主要有四大類方法:卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)、變形器(Transformer)及圖神經(jīng)網(wǎng)絡(luò)模型(Graph Neural Network,GNN)。

        卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)被廣泛應(yīng)用于提取圖片數(shù)據(jù)特征,并在計算機視覺領(lǐng)域取得了成功,也被應(yīng)用于自動駕駛預(yù)測方面。有不同的卷積神經(jīng)網(wǎng)絡(luò)模型應(yīng)用于預(yù)測環(huán)境車輛的意圖、提取相關(guān)性特征、輸出圖形上未來時刻的占據(jù)情況和預(yù)測車輛軌跡等。但卷積神經(jīng)網(wǎng)絡(luò)受限于其卷積核感受野,長距離特征提取能力一般,影響了其應(yīng)用于預(yù)測的效果。

        循環(huán)神經(jīng)網(wǎng)絡(luò)

        較之卷積神經(jīng)網(wǎng)絡(luò),循環(huán)神經(jīng)網(wǎng)絡(luò)具有較好的長距離特征捕獲能力?;镜难h(huán)神經(jīng)網(wǎng)絡(luò)能逼近任何序列對的映射【6】。但由于梯度消失或爆炸,難以學(xué)習(xí)到長序列。門控循環(huán)神經(jīng)網(wǎng)絡(luò)被引進用于解決這個問題【7】。長短期記憶網(wǎng)絡(luò)(Long short-term memory,LSTM)和門控循環(huán)單元 (Gated recurrent unit, GRU)是最常用的門控循環(huán)神經(jīng)網(wǎng)絡(luò)。在車輛行為預(yù)測方面,長短期記憶網(wǎng)絡(luò)是常用的深度模型。循環(huán)神經(jīng)網(wǎng)絡(luò)擅長處理序列輸入,但并行計算能力較差,限制了其在預(yù)測領(lǐng)域的應(yīng)用。

        變形器

        與卷積神經(jīng)網(wǎng)絡(luò)及循環(huán)神經(jīng)網(wǎng)絡(luò)相比,變形器 (Transformer)并行計算能力與卷積神經(jīng)網(wǎng)絡(luò)差不多強,長距離特征捕獲能力與循環(huán)神經(jīng)網(wǎng)絡(luò)差不多強,而語義特征提取能力和任務(wù)綜合特征抽取能力顯著強于卷積神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)。其基于注意力(attention)機制,采用編碼器-解碼器(Encoder-Decoder)框架。最近,其在自動駕駛預(yù)測領(lǐng)域的應(yīng)用較之卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)有明顯的性能提升,取得了較好的成果。

        圖神經(jīng)網(wǎng)絡(luò)

        圖神經(jīng)網(wǎng)絡(luò)的基本思想是基于節(jié)點的局部鄰近信息通過神經(jīng)網(wǎng)絡(luò)來聚合每個節(jié)點及其周圍節(jié)點的信息。常用的圖神經(jīng)網(wǎng)絡(luò)有圖卷積神經(jīng)網(wǎng)絡(luò)(Graph Convolutional Network, GCN)與圖注意力神經(jīng)網(wǎng)絡(luò)(Graph Attention Network, GAT),分別是將圖模型與卷積神經(jīng)網(wǎng)絡(luò)及注意力模型相結(jié)合。圖神經(jīng)網(wǎng)絡(luò)可以用節(jié)點表示汽車,節(jié)點間的連線(邊)表示車輛間的關(guān)系,適合于包含車間交互信息的預(yù)測。近兩年,圖神經(jīng)網(wǎng)絡(luò)發(fā)展迅速,其應(yīng)用于自動駕駛預(yù)測領(lǐng)域也取得了較好的效果。

        總結(jié)

        整體來看,自動駕駛預(yù)測算法中,數(shù)據(jù)驅(qū)動方法性能優(yōu)于基于模型的方法。但目前,自動駕駛預(yù)測領(lǐng)域還沒有形成統(tǒng)一的評估指標(biāo)、接口定義和框架結(jié)構(gòu),各個方向都有相關(guān)探索,其中,變形器(transformer)和圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Network)近期性能表現(xiàn)較好。

        參考文獻:

        [1] “Research on the impacts of connected and autonomousvehicles(cavs) on traffic flow: Summary report,” UK Departmentfor Transport, Tech. Rep., May 2016. [Online].

        Available:https://assets:publishing:service:gov:uk/government/uploads/system/uploads/attachment data/file/530091/impacts-of-connected-andautonomous-vehicles-on-traffic-flow-summary-report:pdf

        [2] LEE, N., CHOI, W., VERNAZA, P., CHOY, C. B., TORR, P. H. S., AND CHANDRAKER,M. K. DESIRE: distant future prediction in dynamic scenes with interacting agents. CoRRabs/1704.04394 (2017).

        [3] SINGH, A. Prediction in autonomous vehicle - all you need to know, 2018.

        [4] LEFèVRE, S., VASQUEZ, D., AND LAUGIER, C. A survey on motion prediction and risk assessment for intelligent vehicles. Robomech Journal (2014).

        [5] Lefèvre, S., Vasquez, D. & Laugier, C. A survey on motion prediction and risk assessment for intelligent vehicles. Robomech J 1, 1 (2014). https://doi.org/10.1186/s40648-014-0001-z

        [6] B. Hammer, “On the approximation capability of recurrent neuralnetworks,” Neurocomputing, vol. 31, no. 1-4, pp. 107–123, 2000.

        [7] A. Graves, Long Short-Term Memory. Berlin, Heidelberg: SpringerBerlin Heidelberg, 2012, pp. 37–45. [Online]. Available: https://doi:org/10:1007/978-3-642-24797-2 4

        基金項目:國家重點研發(fā)計劃資助(2018YFB1802405)

        少妇高潮喷水正在播放| 亚洲爆乳无码精品aaa片蜜桃| 久久久久国产综合av天堂| 亚洲综合色成在线播放| 超清无码AV丝袜片在线观看| 亚洲精品中文字幕一二三| 在线观看av片永久免费| 欧美老熟妇欲乱高清视频| 免费黄色福利| 亚洲国产av高清一区二区三区| 欧美老肥婆牲交videos| 亚洲精品欧美二区三区中文字幕 | 99久久精品久久久| av免费资源在线观看| 女人被爽到高潮视频免费国产| 久久亚洲sm情趣捆绑调教| 太大太粗太爽免费视频| 国内自拍偷国视频系列| 久久久www免费人成精品| 国产精品女视频一区二区| 日本一区二区午夜视频| 亚洲精品无码永久中文字幕| 影音先锋每日av色资源站| 亚洲Va中文字幕无码毛片下载| 日韩美腿丝袜三区四区| 疯狂添女人下部视频免费| 日韩手机在线免费视频| 国产精品不卡在线视频| 激情综合五月婷婷久久| 亚洲日韩欧洲无码av夜夜摸| 丁香六月久久| 亚洲精品岛国av一区二区| 亚洲欧美日韩成人高清在线一区| 无码国产精品一区二区免| 国产精品一区又黄又粗又猛又爽 | 久久久精品国产sm调教网站 | 国产在视频线精品视频www666| 精品视频一区二区在线观看| 亚洲乱码国产乱码精华| 初尝黑人巨砲波多野结衣| 久青青草视频手机在线免费观看|