李勇滔,孫晨旭,鄭偉光,2,許恩永,李育方,王善超
(1. 廣西科技大學,重型車輛零部件先進設計制造教育部工程研究中心,柳州 545616;2. 吉林大學汽車工程學院,長春 130000;3. 東風柳州汽車有限公司,柳州 545616)
隨著汽車“新四化”(電動化、智能化、網(wǎng)聯(lián)化、共享化)概念的提出[1],汽車的各方面技術不斷發(fā)展,由于目前交通道路日益復雜,極易發(fā)生交通安全事故,而高級駕駛輔助系統(tǒng)(advanced driving assistance system, ADAS)是提高智能汽車安全性與平穩(wěn)性的重要技術之一,通過主動安全裝置避免事故發(fā)生[2-3]。環(huán)境感知為駕駛輔助系統(tǒng)的核心技術之一,其通過不同類型的車載傳感器獲取周圍環(huán)境的物理信息,從而提醒駕駛員或輔助系統(tǒng)做出決策[4]。
毫米波雷達預警裝置具有高識別率、不易受環(huán)境影響以及較高的靈敏度和抗干擾性成為智能預警裝置的首選,但其分辨檢測目標的類別能力較差,對靜目標識別率低[5]。于增雨[6]針對上述分類較差問題,提出了一種結合CNN 與LSTM 的毫米波雷達目標分類方法,加強了對細節(jié)信息與時序信息的關注,有效地提高了目標分類的正確度。王戰(zhàn)古[7]考慮到天氣與車輛狀態(tài)等因素的影響,建立了多因素耦合的雷達車輛檢測模型,有效提高了毫米波雷達在不良天氣下對車輛檢測的精度。
與毫米波雷達裝置相比,視覺傳感器能夠獲取豐富的圖像信息,能夠準確識別靜態(tài)目標及其類別。視覺傳感器目標檢測算法主要分為兩大類算法,一類為基于傳統(tǒng)的機器學習目標檢測方法,另一類則為基于深度學習的目標檢測方法。其中,基于傳統(tǒng)的機器學習目標檢測注重于特征的提取,與具體應用密切相關,但泛化能力及魯棒性較差,又因為復雜的道路環(huán)境與車輛特征的復雜性,導致識別率低,誤檢率高[8]。深度學習目標檢測算法主要有兩大類:一類為基于候選區(qū)域提名的目標檢測算法,如RCNN[9]、SPP-net[10]等;另一類為基于端到端(end-toend)的目標檢測算法,無須區(qū)域提名的,如YOLO[11]、SSD[12]。張海明等[13]基于Faster R-CNN 網(wǎng)絡模型做出改進,針對池化層壓縮特征圖丟失信息問題,加入了空洞卷積,并采用多尺度特征融合等方法,提高了目標檢測的精度。談文蓉等[14]針對車輛檢測速度無法適應高速環(huán)境與小目標檢測困難的問題,對YOLOv4 算法的主干網(wǎng)絡、FPN 層與PAN 層進行改進,提高了識別準確率與檢測速度,但在雨天和雪天等環(huán)境下精度較低。
然而,視覺傳感器檢測目標易受環(huán)境影響[15]。但是,通過毫米波雷達與機械視覺的目標融合算法可以互相彌補單個傳感器的缺陷,且它們的成本低廉。Wang等[16]針對雷達的現(xiàn)有缺陷問題,利用提出的標定方法對攝像頭與雷達進行標定,并采用視覺算法YOLO 與雷達檢測結果進行決策級融合,結合兩傳感器各自優(yōu)勢,減少了車輛檢測的誤差。張炳力等[17]針對單一傳感器檢測精度差問題,將雷達檢測結果與深度視覺YOLOv2 算法檢測算法結合,并通過EKF 算法對目標進行追蹤,提高了檢測準確率,但采用的EKF 算法易受噪聲影響,會出現(xiàn)嚴重波動。胡延平等[18]提取視覺圖像Haar-like 特征,利用Adaboost分類算法檢測車輛并生成車輛感興趣區(qū)域,與雷達信息目標融合,最后通過KCF-KF 組合濾波算法對車輛目標追蹤。雖然該方法有效地提高了環(huán)境感知的準確率,但所采用的傳統(tǒng)視覺檢測算法受到人工調試經(jīng)驗的影響,采用的追蹤算法也未考慮外部環(huán)境影響。甘耀東等[19]對上述出現(xiàn)的問題,提出了自適應擴展卡爾曼濾波算法進行毫米波雷達追蹤目標,并與改進的SSD 深度視覺檢測目標信息相結合進行信息的決策級數(shù)據(jù)融合,充分考慮到外部因素對雷達追蹤的影響,有效地提高了識別車輛目標的精度。但文獻中設計的自適應追蹤算法采用傳統(tǒng)的開窗估計法,可能會使新息估計方差與實際差別較大,而采用的SSD 視覺檢測算法需要人工設置預選框,導致調試過程非常依賴經(jīng)驗。
前碰撞預警系統(tǒng)通過安全距離與碰撞時間的設計,發(fā)出報警信息來提醒駕駛員做出判斷。王艷玲[20]研究了駕駛員行為特性與環(huán)境因素對反應時間的影響,提出了基于模糊理論控制的安全距離模型,通過不同的反應時間來設置安全距離閾值,提高了預警系統(tǒng)的安全性與穩(wěn)定性,但未進行實車測試,也未考慮車輛實際狀態(tài)。
針對上述問題,本文提出了一種基于毫米波雷達與視覺融合車輛碰撞預警方法,其中對于雷達追蹤目標問題,提出一種改進的遺忘自適應卡爾曼濾波算法追蹤目標;對于視覺檢測目標算法,采用改進的YOLOv5 視覺檢測算法,由此提高檢測精度。最后將雷達追蹤目標ROI與視覺檢測ROI進行決策級融合,如圖1 所示。經(jīng)實驗證明,該方法提高了前方車輛識別的準確性與對外部環(huán)境的適應性。
圖1 融合預警算法的整體框架
毫米波雷達輸出數(shù)據(jù)為目標點,包括探測目標點的橫向距離、縱向距離、速度、角度等信息。在輸出的原始數(shù)據(jù)中含有大量的空目標、虛假目標以及非危險目標,對真實有效目標造成了一定的干擾,也增大處理程序的計算量。因此,迫切需要去除干擾目標。針對空目標,其距離和相對速度等物理信息均為0,將此類數(shù)據(jù)篩選去除即可?;谙鄬λ俣扰c橫向距離能夠有效地將干擾數(shù)據(jù)進行濾波,設置有效數(shù)據(jù)點橫向距離與相對速度閾值為
式中:X為后車與前方目標的橫向距離;X0為設置的有效目標橫向距離閾值;v為前方目標與后車的相對速度。毫米波雷達的檢測速度范圍為-66~66 m/s,根據(jù)相關公路規(guī)定以及大量實驗證出,選取X0=4.75 m。
針對持續(xù)時間較短、連續(xù)出現(xiàn)較少的虛假目標,本文采用目標生命周期的方法[21]對虛假目標進行過濾,將生命周期設置為如下3 個階段:形成、持續(xù)和消失。為此設定下列參數(shù):DetectNum 為前方目標被探測的次數(shù);LoseNum 為前方目標連續(xù)丟失的次數(shù)。
當前方目標每幀被探測到一次,則DetectNum加1;當前方目標每幀丟失一次,LoseNum 加1。根據(jù)設置閾值來處理,具體生命周期處理規(guī)則如表1所示。
表1 目標生命周期階段表示規(guī)則
毫米波雷達數(shù)據(jù)預處理具體算法流程如算法1偽代碼所示。首先定義閾值等相關參數(shù),通過橫向距離與相對速度閾值條件對集合G的每個數(shù)據(jù)點進行篩選,得到處理后的數(shù)據(jù)集合G′,將同一時間采集的數(shù)據(jù)進行分類,并對此集合每幀數(shù)據(jù)進行生命周期統(tǒng)計,最后計算出真實目標數(shù)據(jù)集合G"。
圖2 所示為毫米波雷達選取原始數(shù)據(jù)與數(shù)據(jù)預處理的對比。圖中的數(shù)據(jù)點表示檢測到的數(shù)據(jù),其中綠點表示有效目標,而白點表示噪聲。
圖2 原始數(shù)據(jù)預處理效果對比圖
毫米波雷達通過檢測前方目標,獲取目標位置等數(shù)據(jù),然后對該數(shù)據(jù)進行處理,自動形成航跡,并預測目標在下一時刻的位置。當雷達獲取目標距離速度信息時,由于測量誤差或過程中產(chǎn)生的噪聲,使所獲取的信息數(shù)據(jù)不準確,因此須采用濾波算法降低測量與實際值的誤差??柭鼮V波(KF)是一種采用最小估計均方差(MMSE)準則的遞歸算法,可以通過獲得先前觀察到的目標狀態(tài)估計和當前狀態(tài)的測量值來估計目標的當前狀態(tài)。由于交通道路車輛的非線性運動過程,可采用擴展卡爾曼濾波(EKF)將非線性問題線性化。EKF 主要包括目標狀態(tài)估計與更新校正兩大部分。
算法1 毫米波雷達數(shù)據(jù)預處理算法# define X0 4.75# define vmin -34; vmax 10//DetectNum為前方目標被探測的次數(shù)//LoseNum為前方目標連續(xù)丟失的次數(shù)輸入:原始采集未處理數(shù)據(jù)點集合G={G1,G2,…,GN};輸出:真實目標數(shù)據(jù)點G"1: 初始化環(huán)境、初始化數(shù)據(jù)G0,k←0;2: for k←1 to N do 3: 將集合G 中數(shù)據(jù)分別與閾值進行比較 //每個數(shù)據(jù)集合G(Xi,vi,…),包含距離、速度等4: if |Xi|<X0 && vmin<vi<vmax then 5: 將滿足條件的個體放入集合G′中;//將集合G′中同一幀采集的數(shù)據(jù)進行分類6: end 7: DetectNum←0;LoseNum←0;8: for i←1 to N do 9: if 此幀探測到數(shù)據(jù)點Gi 10: DetectNum++;11: else LoseNum++;12: end 13: end 14: if DetectNum≥5 && LoseNum<25 15: 將滿足條件的個體放入集合G"中;16: end 17: return G";
(1)目標狀態(tài)估計
對于前方目標做非線性運動,其狀態(tài)方程與測量方程分別為
式中:Wk-1為過程噪聲;Vk為測量噪聲,皆服從于高斯分布,Wk-1~N(0,Q),Vk~N(0,R) 。利用泰勒公式將式(3)中的非線性方程進行求偏導,得到雅可比矩陣,保留1 階項以實現(xiàn)對非線性函數(shù)近似線性化。
擴展卡爾曼濾波更新依賴測量精度R和預測精度Q,由于外部環(huán)境等因素不斷干擾信息過程,致使噪聲以及其方差統(tǒng)計特性是未知且不斷變化的,且不確定因素會造成擴展卡爾曼濾波無法精確追蹤目標等問題。根據(jù)此問題,本文提出了一種遺忘自適應拓展卡爾曼濾波算法(FAKF)。
將k時刻式(3)實際觀測值Zk和預測觀測值Z^ -k之差,即新息ek,其公式為
則新息協(xié)方差Cek為
為保證協(xié)方差矩陣Rk是正定的,本文采用基于殘差的自適應方法來估計Rk。
將k時刻實際觀測值Zk和估計觀測值^k之差定義為殘差εk,其公式為
殘差的理論協(xié)方差Cεk公式為
從上式得出噪聲協(xié)方差矩陣Rk為
通過記憶指數(shù)加權法來估計新息的協(xié)方差矩陣,傳統(tǒng)的開窗法只是對數(shù)據(jù)的平均,而此方法可以對最新測量的數(shù)據(jù)加權,提高最新時刻數(shù)據(jù)的權重,減少舊數(shù)據(jù)的影響,設置加權系數(shù),根據(jù)負指數(shù)函數(shù)的運算規(guī)則對加權系數(shù)進行賦值,其公式為
式中b為遺忘因子,在運用過程中,當系統(tǒng)受到影響較少變化平緩時,b取較大值,反之b取較小值,b的取值范圍為0.7~0.95。
由于式(9)對加權系數(shù)序列的要求,令
則加權系數(shù)為
利用遺忘因子求出自適應Rk:
同理利用新息求出狀態(tài)噪聲方差Q:
加入遺忘因子后求出自適應估計值為
在復雜的交通環(huán)境中,常見的CV 模型[22](恒定速度模型)、CA 模型[23](恒定加速度模型)為線性運動模型,不適合障礙目標的追蹤??紤]到目標的轉向等運動,本文采用更精確的CTRV 模型[24](恒速度恒角速度運動模型)。設運動目標的追蹤狀態(tài)量為
式中:x、y為目標位置;v為速度(x、y的合速度);θ為朝向角;w為偏航角速度。
假設目標的直線加速度aa和偏航角加速度aw為常數(shù),考慮到實際運動中伴隨著加速度的噪聲,最終狀態(tài)方程為
考慮到ω= 0時,簡化公式為
在CTRV 模型中,對各個元素求偏導可以得到狀態(tài)方程與觀測方程的雅克比矩陣F和H。
選擇YOLOv5 深度學習目標檢測算法,只使用一個CNN 網(wǎng)絡直接預測不同目標的類別與位置,并采用全圖信息來進行預測目標的bounding boxes,以識別目標的類別。在準確率較高的情況下,實現(xiàn)端到端實時目標檢測任務。
YOLOv5 具有比較簡潔的結構,確保一定整體檢測精度的條件下,計算處理速度快,但YOLOv5 在復雜的道路環(huán)境下檢測準確度還不夠,漏檢率和誤檢率較高。YOLOv5 的4 個模型中的YOLOv5s 模型由于深度淺、寬度窄的因素,部署成本降低,便于模型的快速部署[25]。因此,選擇YOLOv5s 并對其進行改進。
為提高YOLOv5 的檢測精度,本文提出了在卷積Conv模塊加入雙通道的注意力機制(convolutional block attention module,CBAM),結合了通道注意力和空間注意力的輕量級模塊,促使卷積網(wǎng)絡更加注重于所需局部目標特征的信息區(qū)域,減少全局冗余信息?;谕ǖ雷⒁饬Σ糠郑–AM),特征圖輸入,通過并行的最大池化處理(MaxPool)與平均池化處理(AvgPool)后,進入多層共享神經(jīng)網(wǎng)絡(MLP),然后將MLP 輸出的特征進行基于元素逐層相加,再經(jīng)過sigmoid 激活函數(shù)操作,生成具有權重的通道注意力特征圖。對于空間注意力模塊(SAM),將通道進行壓縮,在通道維度分別進行平均池化處理和最大池化處理,再將兩個通道的特征圖進行通道拼接(concat),最后通過卷積操作,經(jīng)過sigmoid 激活生成最終的特征。經(jīng)過實驗,將兩個模塊串行組合最優(yōu)化,特征圖先進行通道注意力模塊,再啟用空間注意力模塊,其過程公式為
式中:F為輸入的特征圖;MC為通道注意力的輸出加權處理;F1為經(jīng)過通道注意力加權特征圖;MS為空間注意力的輸出加權處理;F2為F1空間注意力加權得到輸出特征圖。
CBAM 中的通道注意力模塊是將特征圖在空間維度上進行壓縮,得到一維矢量,然后通過逐元素求和合并,最終得到通道注意力圖。由于空間的降維處理導致部分通道特征信息缺失,為避免此情況發(fā)生,選用ECA 模塊代替CAM 模塊。ECA 為不降維的局部跨信道交互策略,該策略可以通過一維卷積有效地實現(xiàn)。輸入特征圖通過全局平均池化(GAP),自適應選擇通過大小為k的一維卷積核大小進行卷積且特征提取。k的自適應取值公式為
式中:k表示局部跨通道交互的覆蓋范圍;C為通道維度;|t|odd表示距離t最近的奇數(shù);γ設為1;b設為2。
此外,空間注意力模塊中的池化操作會先壓縮特征圖,然后利用上采樣還原特征圖,這種先壓縮再還原的方式會導致特征圖的信息丟失,促使網(wǎng)絡提取的特征量不足,精度下降。利用空洞卷積[26]可以在感受野增大的同時,保持特征圖尺寸不變,一定程度避免了特征信息的丟失??斩淳矸e結構如圖3 所示,以3×3 為例,可以通過3×3 的卷積操作,從而達到5×5或7×7的卷積效果。
圖3 空洞卷積的效果圖
空洞卷積實際卷積核大小計算公式為
式中:k1為原始卷積核大?。籨為空洞卷積參數(shù)空洞率。因此可以將空洞卷積與SAM 結合,首先將輸入分別進行通道維度上的平均池化和最大池化,再進行空洞率為2 的空洞卷積處理,具體改進的SAM 結構如圖4所示。
圖4 改進的SAM空間注意力結構
以國際通用的NYC3Dcars車輛公開檢測數(shù)據(jù)集為主,其他數(shù)據(jù)集為輔進行整合,用作本文的數(shù)據(jù)集庫,并利用labellmg 標注工具進行手動標注,如圖5所示,并定義好檢測車輛的類別,將改進后的YOLOv5s模型作為數(shù)據(jù)集訓練權重,選用2 026張數(shù)據(jù)集作為YOLOv5 的訓練集,并選用1 488 張數(shù)據(jù)集作為測試。該數(shù)據(jù)集分為晴天、晴雨、晴夜、雨夜4 種天氣環(huán)境,占比分別為 34%、25%、30%、11%。檢測后對檢測數(shù)據(jù)集所有車輛類別進行mAP 指標計算,所得指標為76.16%,而本文提出的改進YOLOv5訓練mAP為78.79%。
圖5 手動標注數(shù)據(jù)集示意圖
圖6 為視覺算法檢測效果。表2 為YOLOv5 與本文改進的YOLOv5 的檢測對比結果。表中浮點運算數(shù)表示算法的計算量,本文算法與YOLOv5 算法相比,在輕微增加計算量與降低檢測速度的前提下,檢測平均精確度提高了2.73%,其中在YOLOv5 檢測時,環(huán)境中其他非危險物體被誤檢測為車輛目標,如廣告牌、房屋等,以及遠處多車輛重疊未能檢測出全部車輛目標等情況。而本文改進算法,添加了改進的注意力機制,更加注重目標特征,對上述問題起到一定的減輕作用,但還須借助毫米波雷達使精確度進一步提升。
表2 本文算法與YOLOv5算法的檢測精度對比
圖6 視覺算法檢測效果圖
本文提出的融合方法是將雷達數(shù)據(jù)形成感興趣區(qū)域,并與攝像頭識別的圖像數(shù)據(jù)進行匹配。由于毫米波雷達與攝像頭的空間位置和采樣頻率不同,同一目標不同傳感器感知的信息無法匹配。因此,當毫米波雷達與攝像頭融合算法進行前方目標識別時,需要對不同傳感器在空間和時間上進行同步。
毫米波雷達與視覺融合的關鍵之一是實現(xiàn)毫米波雷達坐標系、三維世界坐標系、相機坐標系之間精確的轉換關系,將不同的傳感器坐標的測量值統(tǒng)一到一個坐標系,主要的空間同步方法為將以毫米波檢測得到的目標坐標系轉換到圖像坐標系上。具體步驟為將毫米波雷達坐標系的坐標轉換到世界坐標系,然后將世界坐標系的坐標轉換到圖像像素坐標系。毫米波坐標到世界坐標系的轉換關系為
式中:[XY]為世界坐標系的二維橫縱坐標;[XwYw]為毫米波雷達在世界坐標系的偏移量;[XrYr]為毫米波雷達二維坐標。
世界坐標系(Xw,Yw,Zw)轉化為圖像像素坐標系(u,v) 的關系式為
式中:Zc為相機坐標系中的Z軸坐標;(u0,v0)是圖像坐標系投影點在像素坐標系中的坐標;R為相機外參旋轉矩陣,是一個3×3的正交矩陣,有3個自由度;T為相對位移向量;f為攝像頭焦距;dx、dy分別為每個像素對應像素坐標系橫縱坐標軸的單位物理量。
毫米波雷達與視覺傳感器經(jīng)過空間的融合后,還須在時間采集上進行融合。本文采用毫米波雷達的目標更新頻率為20 Hz,而視覺傳感器的采集頻率為30 Hz。即雷達每幀采集數(shù)據(jù)的時間間隔為50 ms,視覺傳感器的為33.3 ms。以毫米波雷達為基準,將具有較快采樣率的傳感器與具有較慢采樣率的傳感器兼容,融合具體原理如圖7所示。雷達每隔2幀時采集數(shù)據(jù),視覺傳感器每隔3 幀采集數(shù)據(jù),二者以100 ms 為周期同時進行采樣。例如,當毫米波雷達在100 ms 時,獲取一幀數(shù)據(jù)信息,同時視覺傳感器也完成圖像的采集,在采集時間上保持同步,以實現(xiàn)多傳感器時間上的融合。
圖7 毫米波雷達與視覺時間融合
本文提出決策級融合,將毫米波雷達檢測結果與視覺檢測結果對同一目標進行匹配,毫米波雷達基于遺忘自適應卡爾曼濾波處理后,輸出的數(shù)據(jù)點通過空間轉換投影到圖像上,如圖8所示。
圖8 圖像投影上的雷達數(shù)據(jù)
而視覺傳感器通過改進的YOLOv5 算法,識別障礙車輛目標,由此形成視覺感興趣區(qū)域,與雷達數(shù)據(jù)點為中心的感興趣融合采用交并比[27](IoU)的方法進行數(shù)據(jù)匹配。交并比公式為
式中SC、SR分別為攝像頭與雷達感興趣區(qū)域面積。設置交并比的閾值為0.3、0.5。當0.5 ≤IoU≤1時,雷達與攝像頭對同一目標均可識別,且檢測結果基本匹配。當0.3 ≤IoU<0.5 時,此時融合效果一般,但仍判斷目標存在,此時根據(jù)毫米波雷達與視覺各自優(yōu)勢,視覺輸出目標的類別,毫米波雷達輸出目標動態(tài)信息。
當毫米波雷達與視覺傳感器檢測到前方障礙目標后,須通過碰撞預警控制策略對其做出決策,輔助駕駛員及時發(fā)現(xiàn)前方危險。本文在馬自達安全距離模型[28]的基礎上,結合了駕駛環(huán)境變化和駕駛員制動行為特征的影響,提出了一種精確的分段距離估計模型,如圖9所示。
圖9 防撞最小安全距離模型
如圖10 所示,當前方車輛突然停止時,后車駕駛員并沒有立即做出相應的制動,而是通過τ1時間之后才開始意識到采取措施,直到τ2時間才開始進行制動,在反應時間段τ=τ1+τ2中,主車視為勻速運動。踩下制動踏板時,由于離合器膜片彈簧內端和分離軸承間的空隙,此時制動力逐漸增長,此時主車做變加速運動,此階段需要經(jīng)過時間τ3。制動逐漸穩(wěn)定后,主車開始做勻減速運動,此階段經(jīng)歷τ4時間,后車停止。預警最小安全距離d為
圖10 減速度變化圖
式中:v0為后車初速度,km/h;amax為后車最大減速度;L為車身長度,m。主車檢測到前方目標,當超過最小安全距離d時,做出報警決策。
為驗證本文融合預警方法的準確性與實效性,在晴天、晴夜、多云白天、多云夜晚、雨天、雨夜等多種天氣條件下進行實車測試。道路環(huán)境也包括不同路面、不同工況等多種情況,實驗采用的毫米波雷達型號為深圳的ANNGIC FR55F,工作頻率范圍為76~77 GHz,采用的圖像識別傳感器型號為深圳的ANNGIC FV-12M,輸出圖像分辨率為1280 ×1080 pixels,幀率為30 幀/s,計算機采用Intel Core i5-7300 處理器,內存為8 GB。算法采用MATLAB語言,上述設備滿足實驗計算要求。實驗車輛與傳感器如圖11所示。
圖11 實驗車輛與傳感器
在東風柳汽商用車試驗中心將實驗車按照規(guī)定的運動狀態(tài)與路徑進行測試,記錄毫米波雷達探測的實車數(shù)據(jù),以驗證本文提出的基于遺忘因子的自適應卡爾曼濾波算法的可靠性,如圖12 所示。分別利用FAEKF 算法與EKF 算法追蹤前方目標,并將兩種算法進行對比。圖12(a)中的真實值是對車速傳感器的實時車速與時間積分后進行差值計算獲得,測量值為毫米波雷達傳感器測得,兩值皆用高斯噪聲處理。圖12(b)為兩種算法每段時間與真實值的百分比誤差,可以明顯看出本算法的誤差較低,通過均方根誤差RMSE 來評價兩種算法的精度,具體公式為
圖12 EKF與FAEKF的軌跡圖與誤差曲線
式中:表示算法處理的最優(yōu)估計值;yi表示真實值。通過計算得出傳統(tǒng)算法EKF 的RMSE值為12.043 6,而本文算法FAEKF的RMSE值為9.750 4,對比顯示,本文所用的算法得到的最優(yōu)估計值與實際值誤差較小,精度更高。
毫米波雷達與視覺融合效果圖如圖13 所示,其中前3幅圖為晴天與晴雨道路場景,后3幅圖為夜天與夜雨道路場景。每幅圖中左邊動畫圖的綠點為毫米波雷達檢測出的障礙車輛,右邊圖為融合效果圖。為展示本文提出的融合預警算法相比于傳統(tǒng)的EKF算法和YOLOv5 算法結合的融合預警算法的優(yōu)勢,將不同算法分別進行實車測試,預警的定義為當目標進入最小安全距離,系統(tǒng)應該正常預警,若未報警則是漏警,而誤報警的定義為前方未有危險目標而錯誤報警。表3 為本文預警算法與YOLOv5 和EKF聯(lián)合的傳統(tǒng)融合預警算法的實驗對比結果。通過對比可得,基于相同的場景環(huán)境與里程數(shù),相比于傳統(tǒng)方法,本方法在預警準確率、漏警率和誤警率方面都有明顯優(yōu)勢。傳統(tǒng)方法中使用的YOLOv5 算法在夜晚的識別效果較差,且傳統(tǒng)的EKF 算法易受環(huán)境等噪聲的影響,誤警率較高。而本方法采用的視覺算法更加注重目標特征信息,一定程度上降低了漏檢率,采用的FAEKF 跟蹤算法自適應更新環(huán)境等噪聲影響,提高了雷達跟蹤目標的準確性。總體上本預警方法的準確率為94.72%,漏警率為2.97%,誤警率為2.53%,相比傳統(tǒng)的融合方法,準確率提高了2.41%,漏警率與誤警率分別降低了0.78%、1.85%。
表3 本文融合預警算法與傳統(tǒng)預警算法實驗對比結果
圖13 融合算法檢測結果圖
提出一種基于毫米波雷達與視覺融合的碰撞預警方法對前方車輛目標進行監(jiān)測,通過報警方式提醒駕駛員做出決策。根據(jù)毫米波雷達目標識別率較低的問題,提出了基于遺忘因子的自適應卡爾曼濾波算法,通過遺忘因子自適應更新與修正噪聲及其方差統(tǒng)計特性,提高追蹤目標的準確性。對于深度視覺算法精度較低、準確率較差的問題,提出了改進的YOLOv5 算法,在卷積模塊中加入改進的CBAM雙通道注意力機制,對前方車輛進行識別,促進了視覺檢測的精度。
本文的毫米波雷達與視覺融合的預警決策方法通過不同道路場景的實車測試,驗證結果證明,該融合檢測碰撞預警方法的誤警率和漏警率更低,具有更好的魯棒性與準確性。