摘 "要: 針對真實(shí)駕駛場景下駕駛行為風(fēng)險(xiǎn)難以準(zhǔn)確判斷的問題,提出一種基于生成對抗網(wǎng)絡(luò)的生成序列評估框架,旨在通過車輛行駛狀態(tài)數(shù)據(jù)與駕駛場景信息匹配度評估來提高駕駛行為風(fēng)險(xiǎn)判斷的準(zhǔn)確性。構(gòu)建真實(shí)駕駛場景數(shù)據(jù)匹配序列框架,利用生成對抗網(wǎng)絡(luò)增加不同駕駛場景的數(shù)據(jù)量,提出一個(gè)駕駛員個(gè)性化情景感知樣本數(shù)據(jù)集,對比分析真實(shí)數(shù)據(jù)和生成數(shù)據(jù),并驗(yàn)證生成對抗網(wǎng)絡(luò)檢索與生成框架在匹配車輛行駛狀態(tài)數(shù)據(jù)與駕駛場景信息方面的有效性和準(zhǔn)確性。采用無監(jiān)督學(xué)習(xí)生成評估框架,結(jié)合自回歸模型中的監(jiān)督訓(xùn)練控制策略來解決數(shù)據(jù)擴(kuò)增問題,并通過迭代更新樣本序列進(jìn)行策略集成以保持模型魯棒性。實(shí)驗(yàn)結(jié)果表明,相較于現(xiàn)有方法,所提研究框架在識別危險(xiǎn)駕駛狀態(tài)方面具有明顯優(yōu)勢,為車輛行駛狀態(tài)數(shù)據(jù)與駕駛場景信息的匹配評估提供了一種新的視角。
關(guān)鍵詞: 生成對抗網(wǎng)絡(luò); 駕駛行為; 風(fēng)險(xiǎn)監(jiān)測; 評估框架; 數(shù)據(jù)匹配; 無監(jiān)督學(xué)習(xí); 車輛行駛狀態(tài)
中圖分類號: TN911.73?34; U491 " " " " " " " " " 文獻(xiàn)標(biāo)識碼: A " " " " " " " " " 文章編號: 1004?373X(2024)18?0133?06
A generative adversarial network?based risk monitoring approach for driving behavior
ZHAO Shuanfeng, WANG Mengwei, LUO Zhijian
(Faculty of Mechanical Engineering, Xi’an University of Science and Technology, Xi’an 710054, China)
Abstract: In allusion to the problems that it is difficult to accurately judge the risk of driving behavior in real driving scenes, a generative sequence evaluation framework based on generative adversarial network is proposed, aiming to improve the accuracy of driving behavior risk judgment by evaluating the matching degree between vehicle driving state data and driving scenario information. A sequence framework for matching real driving scene data is constructed, the generative adversarial network is used to increase the data volume of different driving scenes, and a personalized scene perception sample dataset for drivers is proposed. The comparison analysis for real data and generated data is conducted, and the effectiveness and accuracy of the generative adversarial network retrieval and generation framework in matching vehicle driving status data with driving scenario information are verified. The problem of data augmentation is solved by means of the unsupervised learning generative evaluation framework and combined with supervised training control strategies in autoregressive model, and the policy integration is conducted by iteratively updating sample sequences to maintain the robustness of the model. The experimental results show that, in comparison with the existing methods, the proposed framework has obvious advantages in identifying dangerous driving states and can provide a new perspective for the matching evaluation of vehicle driving state data and driving scene information.
Keywords: generate adversarial network; driving behavior; risk monitoring; evaluation framework; data matching; unsupervised learning; vehicle driving status
0 "引 "言
不同駕駛場景下駕駛?cè)硕加衅涮囟ǖ姆磻?yīng)特性[1],根據(jù)駕駛?cè)瞬僮鲃?dòng)作回溯相應(yīng)駕駛場景對于研究駕駛?cè)笋{駛特性[2]、行為習(xí)慣[3]和調(diào)查交通事故[4]意義重大。判斷汽車的行駛狀態(tài),如車道行駛、左轉(zhuǎn)、停車等,已經(jīng)有了廣泛的研究[5],而用于駕駛場景信息匹配的車輛駕駛狀態(tài)數(shù)據(jù)(如位置信息[6]、檔位和速度等),由于駕駛場景多樣[7],其變化規(guī)律較難判斷。
在車輛駕駛場景信息的研究領(lǐng)域,張昆等采用條件變異自動(dòng)編碼器生成候選車輛軌跡數(shù)據(jù),以辨識異常軌跡[8]。該研究提供了一種實(shí)時(shí)在線評估方法,用于預(yù)測由路邊裝置收集的駕駛軌跡,從而評估危險(xiǎn)駕駛狀態(tài)。熊璐等通過對具體危險(xiǎn)場景聚類來實(shí)現(xiàn)危險(xiǎn)域分區(qū),通過有效識別自動(dòng)駕駛邏輯場景中的危險(xiǎn)域,在邏輯場景層級全面且準(zhǔn)確地評估被測系統(tǒng)安全性[9]。周士謙等利用LSTM(Long Short?Term Memory)算法對駕駛行為進(jìn)行風(fēng)險(xiǎn)評估,建立了駕駛員碰撞風(fēng)險(xiǎn)評估模型[10]。
為解決數(shù)據(jù)稀疏問題,研究多采用遷移學(xué)習(xí)[11]和生成對抗模型[12]。文獻(xiàn)[13]使用未標(biāo)記場景的基于偽標(biāo)簽的判別分布匹配方案,驗(yàn)證了遷移學(xué)習(xí)在駕駛模式識別方面的有效性。文獻(xiàn)[14]提出了一種基于危險(xiǎn)駕駛數(shù)據(jù)的駕駛員個(gè)性化情景感知數(shù)據(jù)集,旨在深入分析駕駛員的危險(xiǎn)感知能力。熊堅(jiān)等構(gòu)建了考慮駕駛風(fēng)格因子的綜合風(fēng)險(xiǎn)場模型,為識別危險(xiǎn)駕駛?cè)巳汉吞岣甙踩{駛能力提供了一種新方法[15]。然而,如何將實(shí)際駕駛場景與操作動(dòng)作有效對應(yīng),特別是根據(jù)操作動(dòng)作生成匹配的駕駛場景,目前還缺乏有效的研究。
本文的動(dòng)態(tài)交通變化特征研究是基于真實(shí)駕駛場景來評估駕駛?cè)笋{駛行為。文中提出一種通過車輛行駛狀態(tài)檢索和生成駕駛場景信息的VDS?GAN(Vehicle Driving State?GAN)模型,該模型有效地匹配了提取的駕駛員周圍核心目標(biāo)要素信息與相應(yīng)的駕駛場景數(shù)據(jù),在真實(shí)駕駛環(huán)境中評估駕駛員的安全駕駛閾值,驗(yàn)證了VDS?GAN在檢索和生成駕駛員感知景觀信息方面的有效性。研究的核心在于:利用車輛動(dòng)態(tài)數(shù)據(jù)映射出駕駛員在駕駛過程中的周邊場景信息,為駕駛安全性評估、交通流優(yōu)化、自動(dòng)化技術(shù)發(fā)展以及人機(jī)交互改進(jìn)提供了理論和實(shí)踐依據(jù)。
1 "研究思路及框架
準(zhǔn)確判斷駕駛?cè)诵熊嚑顟B(tài)對應(yīng)的駕駛場景,需要依賴大量的樣本數(shù)據(jù)供神經(jīng)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí),因此本文采用基于生成對抗網(wǎng)絡(luò)的方法來生成一個(gè)駕駛?cè)藸顟B(tài)檢索的樣本數(shù)據(jù)庫。檢索框架如圖1所示。序列模型利用實(shí)際行駛環(huán)境中的圖像序列提取關(guān)于車輛周邊的場景信息,例如周圍車輛、道路類型、交通信號燈和車道線的位置信息,并對這些信息進(jìn)行編碼。同時(shí),行駛數(shù)據(jù)采集模塊會(huì)收集與圖像序列同步的車輛行駛數(shù)據(jù),如方向盤轉(zhuǎn)角、剎車和加速踏板的操作,這些目標(biāo)要素和行駛數(shù)據(jù)根據(jù)時(shí)間序列被編碼并組合,形成與駕駛狀態(tài)匹配的框架樣本數(shù)據(jù)。其中提取的目標(biāo)要素代表駕駛場景信息,而行駛數(shù)據(jù)反映駕駛?cè)说牟僮餍袨椤_@些樣本數(shù)據(jù)被輸入到生成對抗網(wǎng)絡(luò)模型中進(jìn)行數(shù)據(jù)增強(qiáng),以產(chǎn)生駕駛狀態(tài)的樣本數(shù)據(jù)庫。數(shù)據(jù)庫中每個(gè)生成的數(shù)據(jù)項(xiàng)均是駕駛狀態(tài)與要素編碼的結(jié)合,允許通過行駛數(shù)據(jù)推斷出相應(yīng)的近域核心目標(biāo)要素分布。與傳統(tǒng)評估方法相比,本文能夠直接針對駕駛?cè)酥車沫h(huán)境信息及行為反饋進(jìn)行研究,無需干擾正常駕駛,可以為駕駛?cè)颂峁└踩?、更舒適的駕駛體驗(yàn)。本文研究在提升駕駛安全性、優(yōu)化交通流、推動(dòng)自動(dòng)化技術(shù)發(fā)展以及改進(jìn)人機(jī)交互等方面具有重要的理論與實(shí)踐價(jià)值。
2 "模型構(gòu)建方法
2.1 "駕駛狀態(tài)與場景匹配檢索方法
本文提出的VDS?GAN是一種考慮時(shí)間動(dòng)態(tài)交通變化和樣本特征解碼約束的生成式序列模型,可將學(xué)習(xí)到的嵌入空間與監(jiān)督、非監(jiān)督損失進(jìn)行對抗和聯(lián)合訓(xùn)練,從而提高生成數(shù)據(jù)的可用性。該方法適用于樣本特征解碼約束和動(dòng)態(tài)交通的時(shí)間序列數(shù)據(jù),在每一幀中都包含隨機(jī)性。首先,利用無監(jiān)督特征學(xué)習(xí)模型預(yù)訓(xùn)練出訓(xùn)練數(shù)據(jù)集樣本的中間層特征;然后,使用嵌入網(wǎng)絡(luò)為生成模型識別低維空間,以學(xué)習(xí)數(shù)據(jù)的逐步分布和潛在動(dòng)態(tài)。圖2a)為VDS?GAN的框架圖,圖2b)為具體訓(xùn)練方案,其中實(shí)線表示數(shù)據(jù)的前向傳播,虛線為梯度后向傳播。該方法跨越了多個(gè)研究領(lǐng)域的交叉點(diǎn),結(jié)合了用于序列預(yù)測的自回歸模型、無監(jiān)督特征學(xué)習(xí)模型、基于GAN的序列生成方法和時(shí)間狀態(tài)序列表示學(xué)習(xí)等領(lǐng)域。
2.2 "基于VDS?GAN的檢索框架模型
VDS?GAN網(wǎng)絡(luò)是一種用于生成動(dòng)態(tài)交通變化特征序列數(shù)據(jù)的生成對抗網(wǎng)絡(luò),在GAN網(wǎng)絡(luò)優(yōu)化過程中,處理車輛行駛序列變化特征時(shí)可能會(huì)遇到不對稱、無邊界和梯度消失等問題。本文GAN網(wǎng)絡(luò)的一個(gè)核心組成部分是特征學(xué)習(xí),即嵌入網(wǎng)絡(luò),它的目的是預(yù)訓(xùn)練出真實(shí)特征變化序列的隱含特征C。不同于以往含自動(dòng)編碼機(jī)的GAN網(wǎng)絡(luò),VDS?GAN的目的是預(yù)訓(xùn)練出可用的隱含特征;解碼學(xué)習(xí)部分,先通過解碼約束條件對特征集隱含特征進(jìn)行解碼,然后采用參數(shù)共享機(jī)制,將解碼器Dec與生成網(wǎng)絡(luò)結(jié)構(gòu)對齊,目的是逼近KL散度的約束;對抗學(xué)習(xí)部分由嵌入函數(shù)、恢復(fù)函數(shù)組件與序列生成器、序列鑒別器組件聯(lián)合訓(xùn)練,VDS?GAN同時(shí)學(xué)習(xí)編碼特征、生成表示和跨狀態(tài)迭代。生成器首先將輸出導(dǎo)向嵌入空間,通過優(yōu)化JS散度使生成的狀態(tài)特征序列與真實(shí)的交通變化序列相似,而不是直接在特征空間中生成合成輸出;嵌入網(wǎng)絡(luò)是提供潛在空間的關(guān)鍵部分,該潛在空間進(jìn)行樣本數(shù)據(jù)生成的同時(shí),還通過精確設(shè)計(jì)的監(jiān)督損失實(shí)現(xiàn)了真實(shí)與合成交通場景數(shù)據(jù)之間動(dòng)態(tài)特征的同步。這種機(jī)制下,VDS?GAN能夠在模擬復(fù)雜駕駛環(huán)境的同時(shí),確保生成的駕駛場景與實(shí)際場景之間的高度一致性。對于復(fù)雜交通場景數(shù)據(jù),需要VDS?GAN模型掌握原始數(shù)據(jù)的分布特性(即基于有限歷史數(shù)據(jù)的量化匹配操作動(dòng)作和場景數(shù)據(jù))。在學(xué)習(xí)過程中,對模型提供一個(gè)隨機(jī)輸入,然后通過一系列聯(lián)合和對抗的模型訓(xùn)練,得到與原始匹配交通數(shù)據(jù)相似的輸出數(shù)據(jù)(即綜合匹配交通數(shù)據(jù)序列)。其中預(yù)訓(xùn)練是第一步,解碼學(xué)習(xí)與對抗學(xué)習(xí)部分必須聯(lián)合進(jìn)行動(dòng)態(tài)學(xué)習(xí)。
2.3 "構(gòu)建VDS?GAN檢索框架
2.3.1 "特征學(xué)習(xí)和解碼學(xué)習(xí)(嵌入和恢復(fù)功能)
特征學(xué)習(xí)和解碼學(xué)習(xí)代表特征和潛在空間之間的映射,允許對抗網(wǎng)絡(luò)通過低維表示學(xué)習(xí)數(shù)據(jù)的潛在狀態(tài)。假設(shè)[TC]表示特征向量空間,[TY]為時(shí)間特征向量空間,令[TC]、[TY]表示與特征空間[C]、[Y]相對應(yīng)的潛向量空間。那么嵌入函數(shù)[e:C×ΠtY→TC×ΠtTY]將靜態(tài)和時(shí)間特征分別取為其潛在代碼[tC],[t1:V=e(c,y1:V)]。本文通過一個(gè)循環(huán)網(wǎng)絡(luò)來實(shí)現(xiàn):
[tC=eC(c)] " " " " " " " "(1)
[tv=eY(tC,tv-1,yv)] " " " " " "(2)
式中:[eC:C→TC]為同一時(shí)間狀態(tài)下一一對應(yīng)的不同特征,即靜態(tài)特征的嵌入網(wǎng)絡(luò);[eC:TC×TY×T→TY]為車輛行駛動(dòng)態(tài)時(shí)間序列特征的循環(huán)嵌入網(wǎng)絡(luò)。
恢復(fù)函數(shù)[r:TC×ΠvTY→C×ΠvY]將靜態(tài)代碼和時(shí)間動(dòng)態(tài)代碼代回到它們的特征表示[s,y1:V=rtC,t1:V]。通過一個(gè)前饋網(wǎng)絡(luò)r在每一步實(shí)現(xiàn),公式如下:
[s=rC(tC)] (3)
[yv=rY(tv)] " " " "(4)
式中,[rC:TC→C]和[rY:TV→Y]為靜態(tài)和時(shí)間嵌入的恢復(fù)網(wǎng)絡(luò)。嵌入函數(shù)可以通過時(shí)間卷積來實(shí)現(xiàn),恢復(fù)函數(shù)可以通過基于注意力的解碼器來實(shí)現(xiàn),他們都是自回歸的,且每一步的輸出只能依賴于前面的信息。
2.3.2 "生成器和判別器
生成器首先將輸出定向到一個(gè)嵌入空間中,而非直接在特征空間中生成合成輸出。假設(shè)[ZC]、[ZY]代表了預(yù)先確定的分布,在此基礎(chǔ)上,模型從這些分布中抽取隨機(jī)向量作為[TC]、[TY]生成的輸入,進(jìn)而實(shí)現(xiàn)對車輛駕駛狀態(tài)和相應(yīng)駕駛場景信息的高效檢索與精確生成。生成函數(shù)[g:ZC×ΠvZY→TC×ΠvTY]將靜態(tài)隨機(jī)向量和時(shí)間序列隨機(jī)向量的元組作為合成潛在代碼[tC,t1:V=gzC,z1:V]。[g]是通過循環(huán)網(wǎng)絡(luò)實(shí)現(xiàn)的。
[tC=gC(zC)] " " " " "(5)
[hV=gY(hC,hV-1,zV)] " " " (6)
式中:[g:ZC→TC]為靜態(tài)特征的生成網(wǎng)絡(luò);[gY:TC×TY×ZY→TY]為時(shí)間特征的循環(huán)生成網(wǎng)絡(luò)。隨機(jī)向量[zC]可以從選擇的分布中抽樣,[zv]遵循隨機(jī)過程。判別器:[d:TC×ΠvTY→0,1×Πv0,1]接收靜態(tài)和時(shí)間代碼,返回分類[xC,x1:V=dhC,h1:V]。[t*]表示真實(shí)嵌入[(t*)]或合成嵌入[(t*)]的分類;[x*]表示真實(shí)[(x*)]或合成[(x*)]數(shù)據(jù)的分類。在本研究中,[d]由一個(gè)具有前饋輸出層的雙向遞歸網(wǎng)絡(luò)實(shí)現(xiàn)。
[xC=dC(tC)] " " " " " " " (7)
[xv=dY(uv,uv)] " " " " " " "(8)
式中:[uv=sY(tC,tv,uv-1)]為前向隱藏狀態(tài)的車輛行駛狀態(tài)序列;[uv=sY(hC,hv,uv+1)]為后向隱藏車輛行駛狀態(tài);[sY]、[sY]為遞歸函數(shù);[dC]、[dY]為輸出層分類函數(shù)。
2.3.3 "編碼、生成和迭代聯(lián)合學(xué)習(xí)
重建損失被設(shè)計(jì)為特征空間與潛在空間之間的可逆映射,通過嵌入和恢復(fù)函數(shù)從[c]、[y1:V]的潛在表征[c]、[y1:V]中精確地重建原始車輛行駛狀態(tài)序列[tC]、[t1:V]。重建損失函數(shù)是聯(lián)合學(xué)習(xí)過程中的第一個(gè)目標(biāo)函數(shù),如下所示:
[LR=Sc,y1:V~Pc-c2+vyv-yv2] "(9)
無監(jiān)督損失在聯(lián)合訓(xùn)練過程中,生成器包括兩個(gè)輸入:一個(gè)輸入是合成嵌入車輛行駛狀態(tài)序列;另一個(gè)輸入為[tC]、[t1:v-1],用于在下一個(gè)時(shí)間步長生成合成向量[tv]。然后,根據(jù)無監(jiān)督損失計(jì)算梯度。這與期望是一致的,即允許鑒別器最大化或生成器最小化,為訓(xùn)練車輛行駛狀態(tài)序列[xC]、[x1:V]與合成場景匹配序列(即輸出[tC]、[t1:V])提供正確分類[tC]、[t1:V]的可能性。無監(jiān)督損失[LU]公式如下:
[LU=Sc,y1:V~PlogxC+vlogxv+Sc,y1:V~Plog(1-xC)+vlog(1-xv)] (10)
監(jiān)督損失引入了一個(gè)額外損失來激勵(lì)生成器,從而獲取數(shù)據(jù)中的階躍條件分布。在訓(xùn)練過程中,生成器接收實(shí)際駕駛狀態(tài)數(shù)據(jù)的嵌入序列,即由嵌入網(wǎng)絡(luò)計(jì)算出的[t1:v-1]生成下一個(gè)潛在向量;然后根據(jù)獲取分布[pTvTC,T1:v-1]和[pTVTC,T1:v-1]之間差異的損失計(jì)算梯度,利用基于極大似然的監(jiān)督損失來控制學(xué)習(xí)過程,即:[LS=Sc,y1:V~Pvtv-gY(tC,tv-1,zv)2] " "(11)
式中[gY(tC,tv-1,zv)]與[Szv~NP(TvTc,T1:v-1,zv)]有近似樣本[zv]。在駕駛場景序列訓(xùn)練的每一步中,對比評估由嵌入函數(shù)得到的下一步實(shí)際潛在向量與基于實(shí)際歷史潛在序列條件下生成器產(chǎn)生的下一步潛在向量之間的偏差。[LU]是使生成器生成真實(shí)的序列,[LS]確保生成器生成類似的逐步過渡。
2.3.4 "優(yōu) "化
[θe]、[θr]、[θg]、[θd]分別表示嵌入網(wǎng)絡(luò)、恢復(fù)網(wǎng)絡(luò)、生成器網(wǎng)絡(luò)、鑒別器網(wǎng)絡(luò)的參數(shù)。前兩個(gè)組件在重建和監(jiān)督損失上進(jìn)行訓(xùn)練,公式為:
[minθe,θr(λLS+LR)] " " " " "(12)
式中[λ≥0],是一個(gè)平衡損失的超參數(shù)。[LS]通過在嵌入過程中降低對抗學(xué)習(xí)空間的維數(shù),顯著促進(jìn)了生成器在從車輛行駛狀態(tài)數(shù)據(jù)中學(xué)習(xí)時(shí)間序列關(guān)系的能力。此策略不僅優(yōu)化了生成器的學(xué)習(xí)效率,還為捕捉駕駛行為中的微妙變化提供了支持。
再對生成器和鑒別器網(wǎng)絡(luò)進(jìn)行對抗性訓(xùn)練:
[minθg(ηLS+maxθdLU)] " " " " (13)
式中[η≥0],是用于平衡損失的超參數(shù)。除了通過無監(jiān)督的極小化、極大化游戲提高分類精度外,生成器還致力于最小化監(jiān)督損失。VDS?GAN通過這種目標(biāo)組合,能夠同時(shí)進(jìn)行特征向量編碼、潛在空間的生成以及跨時(shí)間的迭代訓(xùn)練。利用超參數(shù)[λ]和[η]來平衡這三種損失函數(shù)。
3 "實(shí)驗(yàn)分析
為驗(yàn)證本文方法的準(zhǔn)確性,進(jìn)行了大量的交通場景數(shù)據(jù)分析實(shí)驗(yàn),評估所提出的檢索與生成VDS?GAN框架。
3.1 "樣本數(shù)據(jù)的匹配與檢索
基于動(dòng)態(tài)時(shí)間序列,駕駛狀態(tài)研究通過分析連續(xù)幀的駕駛場景圖像,從每幀中提取關(guān)鍵環(huán)境要素,如行人、車輛、交通信號燈和車道線,這些要素直接反映了駕駛者的行為和周邊情況。將這些要素與相應(yīng)時(shí)刻的車輛行駛狀態(tài)匹配,并錄入樣本數(shù)據(jù)庫,每組樣本均按動(dòng)態(tài)時(shí)間序列排布。建立該樣本數(shù)據(jù)庫框架,可以從中反推出某一車輛駕駛狀態(tài)時(shí)所對應(yīng)的駕駛場景信息。鑒于此類匹配數(shù)據(jù)量可能不足以支撐全面的信息檢索,本研究采用基于動(dòng)態(tài)時(shí)間序列變化的生成對抗網(wǎng)絡(luò),通過聯(lián)合監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí),根據(jù)輸入樣本的特征學(xué)習(xí)數(shù)據(jù)之間的關(guān)聯(lián)性及時(shí)間幀之間的變化,以生成與原始數(shù)據(jù)分布特性一致的數(shù)據(jù)。由于每一組樣本數(shù)據(jù)都是由駕駛場景目標(biāo)要素與行駛數(shù)據(jù)共同組成,因此,生成的數(shù)據(jù)能夠反映出實(shí)驗(yàn)車輛在特定時(shí)刻下的行駛狀態(tài)與駕駛場景要素的匹配。
通過比較輸入的行駛、駕駛狀態(tài)數(shù)據(jù)與樣本數(shù)據(jù)庫中數(shù)據(jù)的匹配度進(jìn)行誤差分析。圖3展現(xiàn)了一組數(shù)據(jù)的駕駛狀態(tài)匹配及檢索過程,其中記錄了駕駛員在不熟悉的路段駕駛時(shí)的數(shù)據(jù)。該數(shù)據(jù)顯示,由于駕駛員對路段不熟悉,車速較平時(shí)緩慢,[ti]和[tr]時(shí)刻與檢索框架的匹配度分析仍然顯示了較高匹配度,因此判斷為正常駕駛狀態(tài)。相反,駕駛處于[tm]時(shí)刻的數(shù)據(jù)匹配度低,被標(biāo)注為異常駕駛狀態(tài),這與采集數(shù)據(jù)時(shí)的觀察相符,表明駕駛員在特定時(shí)刻由于走錯(cuò)車道而無法左轉(zhuǎn),從而影響了駕駛狀態(tài)。
3.2 "結(jié)果評價(jià)
3.2.1 "模型對比
判別值通過訓(xùn)練后一個(gè)時(shí)間序列分類模型來區(qū)分原始數(shù)據(jù)集和生成的數(shù)據(jù)集中的序列,以此評估生成樣本的真實(shí)性。根據(jù)計(jì)算不同模型中判別模型在保留測試集上的錯(cuò)誤分類比例即判別器錯(cuò)誤率進(jìn)行評估,該判別值結(jié)果介于0~1,其中0表示生成樣本與真實(shí)樣本無法區(qū)分,而1表示完全錯(cuò)誤的分類。為有效預(yù)測車輛的未來行駛狀態(tài),該模型通過分析已生成數(shù)據(jù)的特征,訓(xùn)練出能夠預(yù)測輸入序列下一步時(shí)間向量的能力。在原始數(shù)據(jù)集上對訓(xùn)練完成的模型進(jìn)行評估,使用平均絕對誤差(Mean Absolute Error, MAE)作為性能指標(biāo),評估生成樣本的可用性。由表1所示的不同實(shí)驗(yàn)方法結(jié)果對比可知,在所有基準(zhǔn)模型中,VDS?GAN生成的樣本錯(cuò)誤率為0.196,相較于次佳模型RCGAN的錯(cuò)誤率0.306低35.9%,統(tǒng)計(jì)上顯著提升。同時(shí)VDS?GAN的預(yù)測值與原始數(shù)據(jù)的預(yù)測結(jié)果幾乎一致,這表明相比其他模型,VDS?GAN在考慮動(dòng)態(tài)時(shí)間序列變化的強(qiáng)相關(guān)性及同一幀數(shù)據(jù)的相關(guān)性變化方面表現(xiàn)更優(yōu),從而驗(yàn)證了本文的VDS?GAN模型在生成駕駛數(shù)據(jù)方面的性能最優(yōu)。
3.2.2 "消融實(shí)驗(yàn)
VDS?GAN的構(gòu)建基于三個(gè)核心部分:監(jiān)督損失、嵌入網(wǎng)絡(luò)以及聯(lián)合訓(xùn)練機(jī)制。為評估這些組成部分的關(guān)鍵作用,分別移除了VDS?GAN中的無監(jiān)督損失模塊、嵌入網(wǎng)絡(luò)模塊和聯(lián)合訓(xùn)練模塊,對比了其對判別和預(yù)測性能的影響。如表2所示,三個(gè)核心部分對于提升生成的動(dòng)態(tài)時(shí)間序列駕駛狀態(tài)數(shù)據(jù)的品質(zhì)至關(guān)重要。特別是在數(shù)據(jù)展現(xiàn)出高度時(shí)間相關(guān)性的情況下,監(jiān)督損失的角色變得尤為顯著;同時(shí),嵌入網(wǎng)絡(luò)和對抗網(wǎng)絡(luò)通過聯(lián)合訓(xùn)練策略實(shí)現(xiàn)目標(biāo)的一致性,顯著并持續(xù)地優(yōu)化了模型的生成能力。
4 "結(jié) "論
為深入挖掘駕駛狀態(tài)信息的匹配特征,本文基于生成對抗網(wǎng)絡(luò),提出了一種車輛駕駛數(shù)據(jù)的時(shí)間序列VDS?GAN模型。所提出的個(gè)性化異常駕駛判斷方法與傳統(tǒng)的駕駛狀態(tài)判斷手段相比,首次結(jié)合了完整場景與單一駕駛行為的數(shù)據(jù)集。且該方法設(shè)計(jì)了一種新的模塊化實(shí)時(shí)檢索框架,旨在提高異常駕駛識別的準(zhǔn)確性。所提方法在保障正常駕駛評估的安全性、高效性和合理性的基礎(chǔ)上,將駕駛數(shù)據(jù)解讀為具有時(shí)間序列動(dòng)態(tài)特性的按需匹配問題,為交通環(huán)境中的駕駛數(shù)據(jù)構(gòu)建了一個(gè)狀態(tài)檢索框架,并設(shè)定了匹配度閾值以判定駕駛狀態(tài),為當(dāng)前駕駛車輛的狀態(tài)評估提供了理論支撐。另外,融合無監(jiān)督框架和自回歸模型中的監(jiān)督模塊,設(shè)計(jì)出專門針對車輛行駛狀態(tài)變化特征的生成對抗網(wǎng)絡(luò)模型,實(shí)驗(yàn)結(jié)果表明,VDS?GAN模型在判別和預(yù)測性能上均展現(xiàn)出最佳表現(xiàn)。
注:本文通訊作者為趙栓峰。
參考文獻(xiàn)
[1] MA S, XU S C, SONG J F, et al. Study on driver’s active emergency response in dangerous traffic scenes based on driving simulator [J]. Traffic injury prevention, 2024, 25(2): 116?121.
[2] 李佳愷.駕駛?cè)藦澋佬熊嚿硖匦匝芯窟M(jìn)展[J].汽車實(shí)用技術(shù),2024,49(4):184?188.
[3] 陳林,曲延羽,劉宇凡,等.基于駕駛行為習(xí)慣的智能駕駛?cè)藱C(jī)交互系統(tǒng)[J].時(shí)代汽車,2021(14):197?198.
[4] 李佳芯.深度調(diào)查除隱患護(hù)平安[J].道路交通管理,2024(2):30?31.
[5] FERDOWSI A, CHALLITA U, SAAD W. Deep learning for reliable mobile edge analytics in intelligent transportation systems [J]. IEEE vehicular technology magazine, 2019, 14: 62?70.
[6] 王高祥.面向自動(dòng)駕駛的車輛周向多源傳感目標(biāo)運(yùn)動(dòng)信息獲取研究[D].長春:吉林大學(xué),2024.
[7] CHEN X Y, XU J J, ZHOU R, et al. TrajVAE: a variational autoencoder model for trajectory generation [J]. Neurocomputing, 2021, 428: 332?339.
[8] 張昆,浦同林,張倩兮,等.基于駕駛場景與決策規(guī)則的智能汽車換道決策[J].重慶理工大學(xué)學(xué)報(bào)(自然科學(xué)),2024,38(2):9?19.
[9] 熊璐,吳建峰,馮天悅,等.面向自動(dòng)駕駛邏輯場景評價(jià)的危險(xiǎn)域識別方法[J].中國公路學(xué)報(bào),2024,37(5):371?382.
[10] 周士謙,高永強(qiáng),齊龍,等.基于LSTM的駕駛行為風(fēng)險(xiǎn)評估研究[J].公路交通技術(shù),2024,40(1):163?170.
[11] 劉玉民,張雨虹.基于遷移學(xué)習(xí)的交通標(biāo)志識別系統(tǒng)設(shè)計(jì)[J].唐山學(xué)院學(xué)報(bào),2023,36(6):1?4.
[12] 景榮榮,吳蘭,張坤鵬.基于生成對抗網(wǎng)絡(luò)的自動(dòng)駕駛交通場景生成[J].電子測量技術(shù),2023,46(14):146?154.
[13] LIU Y, LI M Y, SHEN C Y, et al. Discriminative transfer learning for driving pattern recognition in unlabeled scenes [J]. IEEE transactions on cybernetics, 2022, 52(3): 1429?1442.
[14] GAN S, LI Q, WANG Q F, et al. Constructing personalized situation awareness dataset for hazard perception, comprehension, projection, and action of drivers [C]// 2021 IEEE International Intelligent Transportation Systems Conference. Indianapolis, IN, USA: IEEE, 2021: 1697?1704.
[15] 熊堅(jiān),施錦浩,萬華森.人車路綜合風(fēng)險(xiǎn)場模型構(gòu)建及駕駛風(fēng)格評估[J].交通運(yùn)輸系統(tǒng)工程與信息,2021,21(6):105?114.