亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合毫米波雷達(dá)與深度視覺的多目標(biāo)檢測與跟蹤*

        2021-08-12 08:13:52甘耀東張志達(dá)李以農(nóng)
        汽車工程 2021年7期
        關(guān)鍵詞:坐標(biāo)系雷達(dá)神經(jīng)網(wǎng)絡(luò)

        甘耀東,鄭 玲,張志達(dá),李以農(nóng)

        (重慶大學(xué),機(jī)械傳動國家重點(diǎn)實(shí)驗(yàn)室,重慶 400044)

        前言

        隨著汽車保有量的增加和交通環(huán)境的日益復(fù)雜,汽車帶來的交通安全事故日益增多,亟待通過駕駛輔助系統(tǒng)和高級自動駕駛技術(shù)等手段,降低交通事故的發(fā)生率,提高汽車行駛的安全性和效率。環(huán)境感知技術(shù)是自動駕駛汽車的關(guān)鍵技術(shù),它通過車載傳感器獲取車輛周邊的環(huán)境信息,為自動駕駛汽車的決策和控制提供依據(jù)[1-2]。

        視覺傳感器采集數(shù)據(jù)信息量豐富、易于目標(biāo)識別分類且成本較低,廣泛應(yīng)用于前方車輛檢測[3]。傳統(tǒng)的車輛檢測大多利用車輛特征進(jìn)行識別,如文獻(xiàn)[4]中利用車輛底部陰影特征生成車輛假設(shè),并使用Adaboost驗(yàn)證車輛假設(shè);文獻(xiàn)[5]中利用HOG方向梯度直方圖特征,結(jié)合LSVM訓(xùn)練車輛識別分類器,對多視角的車輛有較高的識別率。傳統(tǒng)的視覺檢測本質(zhì)上利用人工選擇的特征進(jìn)行識別分類,該方法適合于某一類特定場景下的目標(biāo)識別,其數(shù)據(jù)規(guī)模不大,泛化能力較差,較難在復(fù)雜應(yīng)用場景中達(dá)到快速準(zhǔn)確檢測的效果。近年來,深度學(xué)習(xí)技術(shù)因其可以自動學(xué)習(xí)目標(biāo)的有效特征,無須人工提取特征即能保證良好的檢測效果,受到研究人員的廣泛關(guān)注[6]。基于深度學(xué)習(xí)的目標(biāo)檢測算法主要分為兩類:(1)以R?CNN系列[7-9]為代表的基于分類的目標(biāo)檢測框架;(2)以SSD[10-11]和YOLO系列[12-14]為代表的基于回歸的目標(biāo)檢測框架。其中,基于分類的檢測算法須生成待檢測目標(biāo)的候選區(qū)域,并對這些候選區(qū)域進(jìn)行分類與位置校準(zhǔn)。該類方法檢測精度較高,但實(shí)時性較差。基于回歸的檢測算法則直接在特征圖中進(jìn)行目標(biāo)的識別與定位。該類方法在保證較高檢測精度的同時具有較快的檢測速度?;谝曈X的目標(biāo)檢測算法易受光照和雨雪等天氣的影響,檢測精度大幅降低,且無法獲取目標(biāo)的運(yùn)動信息。

        毫米波雷達(dá)具有抗環(huán)境干擾能力強(qiáng)、探測距離遠(yuǎn)、能獲取目標(biāo)運(yùn)動信息和成本低等優(yōu)點(diǎn),是目前汽車高級輔助駕駛系統(tǒng)的主流傳感器,得到國內(nèi)外學(xué)者廣泛關(guān)注[15]。文獻(xiàn)[16]中針對雷達(dá)彎道目標(biāo)跟蹤準(zhǔn)確性較低的問題,采用曼哈頓距離聚類和最鄰近數(shù)據(jù)關(guān)聯(lián)算法,減少了數(shù)據(jù)關(guān)聯(lián)計(jì)算并提高跟蹤準(zhǔn)確性。文獻(xiàn)[17]中通過兩級級聯(lián)邏輯進(jìn)行航跡的起始,解決了雷達(dá)存在的雜波和不確定量測情況下的目標(biāo)濾波問題。雖然基于毫米波雷達(dá)的檢測跟蹤算法在智能駕駛領(lǐng)域取得了一定的成果,但毫米波雷達(dá)無法獲取目標(biāo)的幾何信息與類別信息,另外,雷達(dá)檢測中還存在虛假目標(biāo)。

        針對單一傳感器自身功能的局限性,基于多傳感器信息融合的車輛檢測方法能充分融合不同傳感器的優(yōu)勢。文獻(xiàn)[18]和文獻(xiàn)[19]中采用毫米波雷達(dá)與視覺信息融合的方法檢測前方車輛,其中,文獻(xiàn)[18]中提出一種基于層次聚類的雷達(dá)雜波剔除方法,并采用KCF[20]-EKF[21]組合濾波算法對前方車輛進(jìn)行檢測跟蹤,有效降低了車輛檢測的漏檢率。文獻(xiàn)[19]中基于視覺圖像提取Haar?like特征,利用Adaboost算法檢測車輛并生成感興趣區(qū)域(region of interest,ROI),通過與雷達(dá)投影到視覺圖像產(chǎn)生的ROI計(jì)算重合率,完成雷達(dá)與視覺信息的融合,降低檢測時間。但是,上述視覺算法中采用傳統(tǒng)的機(jī)器視覺檢測方法,檢測精度受人工提取特征的影響,進(jìn)而影響后續(xù)融合算法的檢測效果。另外,上述雷達(dá)跟蹤算法中未考慮噪聲的先驗(yàn)統(tǒng)計(jì)特性和外部環(huán)境的動態(tài)變化,易造成濾波精度下降進(jìn)而導(dǎo)致跟蹤算法失效。

        為解決上述問題,做出以下改進(jìn):針對雷達(dá)跟蹤穩(wěn)定性問題,利用毫米波雷達(dá)的觀測數(shù)據(jù),實(shí)時估計(jì)和修正濾波器噪聲統(tǒng)計(jì)特性,提出一種自適應(yīng)EKF(adaptive extended Kalman filtering,AEKF)算法,用于提高目標(biāo)跟蹤的精度;針對傳統(tǒng)視覺檢測精度較低的問題,采用SSD+MobileNetV2相結(jié)合的深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行前方車輛目標(biāo)檢測。最后,結(jié)合毫米波雷達(dá)與深度視覺檢測信息,提出了決策級融合算法,用于提升前方車輛檢測的準(zhǔn)確性和實(shí)時性。

        1 基于AEKF的毫米波雷達(dá)跟蹤

        1.1 基于閾值篩選和前后幀關(guān)聯(lián)的雷達(dá)目標(biāo)提取

        選用Delphi公司的ESR毫米波雷達(dá)進(jìn)行車輛目標(biāo)檢測與跟蹤,該雷達(dá)的工作頻率為20 Hz。其中,每幀返回64個通道的數(shù)據(jù),每個通道的數(shù)據(jù)信息包括前方目標(biāo)的相對距離、相對速度、相對加速度、相對角度和反射率等。考慮到后續(xù)決策與路徑規(guī)劃中需要識別的道路車輛目標(biāo)主要為同車道前方車輛和左右兩側(cè)鄰近車道的同向車輛,以及高速道路上車輛運(yùn)動速度信息等,分別設(shè)置橫向距離閾值與速度閾值:

        式中:y為本車與前方車輛的橫向距離;Y0為車道橫向有效車輛范圍閾值;v1為前方車輛與本車輛相對速度。根據(jù)我國道路技術(shù)規(guī)范,行車道的標(biāo)準(zhǔn)寬度為3.75 m。經(jīng)過大量實(shí)驗(yàn)數(shù)據(jù)驗(yàn)證,可以選取Y0=4.8 m。

        為濾除毫米波雷達(dá)中的非連續(xù)數(shù)據(jù),使用前后幀關(guān)聯(lián)方法,其判斷準(zhǔn)則為

        式中:Xt=[d tx,d ty,vt]T表示t時刻每個通道測量前方目標(biāo)的橫向距離、縱向距離和相對速度;Xi=[dix,d iy,vi]T表示i時刻每個通道測量前方目標(biāo)的橫向距離、縱向距離和相對速度。

        選取道路實(shí)測數(shù)據(jù)、毫米波雷達(dá)原始數(shù)據(jù)和濾波后數(shù)據(jù)對比如圖1所示。其中,藍(lán)色像素點(diǎn)表示雜波干擾信息,紅色像素點(diǎn)表示經(jīng)過閾值篩選與前后幀關(guān)聯(lián)方法提取得到的目標(biāo)點(diǎn)??梢钥闯鲈摲椒軌蛴行V除前方雜波干擾信息。

        圖1 雷達(dá)數(shù)據(jù)濾波效果對比圖

        1.2 基于AEKF的毫米波雷達(dá)跟蹤

        基于EKF算法的毫米波雷達(dá)跟蹤通過求解Jacobian矩陣對系統(tǒng)1階線性化,可用于非線性估計(jì)。然而,EKF在未知噪聲的先驗(yàn)統(tǒng)計(jì)特性和外部環(huán)境的動態(tài)變化的情況下,易出現(xiàn)濾波精度下降甚至發(fā)散的問題,這些不確定性因素最終會導(dǎo)致EKF算法失效。針對此問題,本文中提出一種AEKF算法,在濾波的同時利用毫米波雷達(dá)觀測數(shù)據(jù)帶來的信息,不斷在線估計(jì)和修正濾波器噪聲統(tǒng)計(jì)特性,以提高濾波精度,得到估計(jì)狀態(tài)的最優(yōu)值。

        同時,在目標(biāo)追蹤運(yùn)動模型中,恒定速度與恒定加速度模型假定目標(biāo)為直線運(yùn)動,并不適合復(fù)雜環(huán)境下的車輛追蹤??紤]車輛在轉(zhuǎn)彎等復(fù)雜路況環(huán)境下的運(yùn)動特征,采用恒定轉(zhuǎn)彎率和速度(constant turn rate and velocity,CTRV)模型進(jìn)行追蹤。

        所提出的AEKF算法主要包括狀態(tài)預(yù)測、狀態(tài)更新和協(xié)方差矯正,具體實(shí)現(xiàn)過程如下。

        步驟1:狀態(tài)預(yù)測

        步驟2:狀態(tài)更新

        步驟3:協(xié)方差矯正

        k時刻新息d k定義為濾波器實(shí)際觀測值Z k和預(yù)測觀測值之差。假設(shè)d k具有各態(tài)歷經(jīng)性,則根據(jù)開窗估計(jì)法可得到新息的實(shí)時估計(jì)方差為

        式中W為滑動數(shù)據(jù)窗口長度。k時刻殘差r k定義為濾波器實(shí)際觀測值Z k和估計(jì)觀測值之差,即

        殘差方差為

        卡爾曼增益為

        式(13)兩邊同時左乘H k,并代入式(10)可得

        式(14)兩邊同時右乘R k可得

        將其代入式(12)得R k的估計(jì)值為

        同理,利用新息可以求得狀態(tài)噪聲方差Q的在線估計(jì)值:

        為保持方差Q的半正定性,只提取Q k-1主對角線上的元素值。結(jié)合CTRV模型,設(shè)置跟蹤目標(biāo)的狀態(tài)量為

        式中:θ為偏航角,是跟蹤目標(biāo)車輛在當(dāng)前車輛坐標(biāo)系下與x軸的夾角;w為偏航角速度??紤]到實(shí)際運(yùn)動中目標(biāo)車輛存在直線加速度和偏航角加速度噪聲,最終CTRV的狀態(tài)轉(zhuǎn)移函數(shù)為

        式中:μa為隨機(jī)縱向加速度;μω為隨機(jī)偏航角加速度。

        由于狀態(tài)轉(zhuǎn)移函數(shù)與觀測函數(shù)都為非線性函數(shù),故使用1階泰勒展開近似線性化得到狀態(tài)轉(zhuǎn)移函數(shù)與觀測函數(shù)的雅克比矩陣F和H。將毫米波雷達(dá)檢測結(jié)果進(jìn)行AEKF跟蹤,并將跟蹤結(jié)果通過投影方程投影到視覺圖像中。

        1.3 毫米波雷達(dá)在視覺圖像上投影

        通過閾值篩選與前后幀數(shù)據(jù)關(guān)聯(lián)提取出前方目標(biāo)車輛信息后,須將毫米波雷達(dá)識別結(jié)果通過空間與時間坐標(biāo)系進(jìn)行轉(zhuǎn)換進(jìn)而映射到視覺圖像中,以便之后與機(jī)器視覺檢測信息進(jìn)行融合[22]。具體步驟如下。

        (1)空間坐標(biāo)系轉(zhuǎn)換

        根據(jù)相機(jī)坐標(biāo)系與世界坐標(biāo)系、毫米波雷達(dá)坐標(biāo)系與世界坐標(biāo)系、相機(jī)坐標(biāo)系與圖像物理坐標(biāo)系、圖像像素坐標(biāo)系與圖像物理坐標(biāo)系之間相互的轉(zhuǎn)換關(guān)系可得到世界坐標(biāo)系到圖像像素坐標(biāo)系之間的轉(zhuǎn)換關(guān)系為

        式中:R為旋轉(zhuǎn)矩陣,由相機(jī)的俯仰角和偏航角決定;T為平移向量,是相機(jī)坐標(biāo)系原點(diǎn)在世界坐標(biāo)系[X YZ]方向上的坐標(biāo);f為相機(jī)焦距;d x、d y為像素坐標(biāo)系下每個單位像素對應(yīng)物理坐標(biāo)系下距離的大?。唬踃W YW ZW]為雷達(dá)監(jiān)測點(diǎn)在世界坐標(biāo)系中的坐標(biāo);[u,v]為雷達(dá)檢測點(diǎn)在圖像坐標(biāo)系中的坐標(biāo);Zc為雷達(dá)監(jiān)測點(diǎn)在相機(jī)坐標(biāo)系中的Z軸坐標(biāo)。

        (2)時間坐標(biāo)系對準(zhǔn)

        毫米波雷達(dá)與攝像機(jī)數(shù)據(jù)完成空間坐標(biāo)系的轉(zhuǎn)換之后,還須進(jìn)行時間信息上的匹配。本實(shí)驗(yàn)中采用的毫米波雷達(dá)采樣頻率為20幀/s,攝像機(jī)的采樣頻率為30幀/s,毫米波雷達(dá)每間隔2幀選取1次數(shù)據(jù)、攝像機(jī)每間隔3幀選取1次數(shù)據(jù),完成雷達(dá)與相機(jī)時間上的對準(zhǔn)。雷達(dá)與視覺坐標(biāo)系對準(zhǔn)規(guī)則如圖2所示。

        圖2 雷達(dá)與視覺時間同步示意圖

        通過空間坐標(biāo)系與時間坐標(biāo)系的轉(zhuǎn)換得到毫米波雷達(dá)跟蹤檢測結(jié)果在視覺圖像上的投影,如圖3所示。其中,紅色部分為雷達(dá)檢測跟蹤結(jié)果,range為前車與實(shí)驗(yàn)車相對距離,speed為前車與實(shí)驗(yàn)車的相對速度。

        圖3 雷達(dá)目標(biāo)投影ROI區(qū)域

        2 基于深度視覺的車輛檢測

        采用檢測精度與檢測速度都有較好表現(xiàn)的SSD(single shot multibox detector)神經(jīng)網(wǎng)絡(luò)算法作為視覺檢測算法。SSD算法直接在卷積網(wǎng)絡(luò)層進(jìn)行檢測,其檢測速度比基于分類檢測的two?stage方法大大提高;同時SSD算法通過提取不同尺度的特征圖,更好地適應(yīng)不同尺寸物體的檢測。SSD算法網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

        圖4 SSD檢測算法網(wǎng)絡(luò)結(jié)構(gòu)圖

        為解決SSD算法中參數(shù)過多、訓(xùn)練難度較大的問題,采用輕量級神經(jīng)網(wǎng)絡(luò)模型MobileNetV2替換原始SSD算法中的VGG模型[23]。MobileNetV2網(wǎng)絡(luò)結(jié)構(gòu)通過深度可分離卷積與逆殘差的方法,大大減少網(wǎng)絡(luò)參數(shù)的同時保證較好的檢測精度。

        截取滴滴車載視頻幀,并手動標(biāo)注車輛數(shù)據(jù)集訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)[24]。其中手動標(biāo)注車輛數(shù)據(jù)集過程如圖5所示。選取6 000張標(biāo)注數(shù)據(jù)集進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練,另選取2 000張數(shù)據(jù)集進(jìn)行檢測。設(shè)置訓(xùn)練的最大迭代次數(shù)為120k次,訓(xùn)練過程中實(shí)時記錄損失函數(shù)值的變化,直到損失函數(shù)值穩(wěn)定不變時結(jié)束訓(xùn)練。損失函數(shù)值變化如圖6所示。

        圖5 手動標(biāo)注數(shù)據(jù)集示例圖

        圖6 滴滴數(shù)據(jù)集訓(xùn)練損失函數(shù)值變化圖

        訓(xùn)練結(jié)束后對2 000張待檢測圖片進(jìn)行平均準(zhǔn)確率(average precision,AP)的計(jì)算,所得AP值為0.792。為進(jìn)一步測試神經(jīng)網(wǎng)絡(luò)檢測算法的準(zhǔn)確率,在天氣晴朗、光線良好的條件下采集4段城市道路視頻,并以每隔10幀的方式隨機(jī)抽取視頻圖像數(shù)據(jù)輸入至神經(jīng)網(wǎng)絡(luò)進(jìn)行檢測。其中,視頻幀大小為1920像素×1080像素。表1為神經(jīng)網(wǎng)絡(luò)算法基于采集視頻的檢測結(jié)果,圖7為神經(jīng)網(wǎng)絡(luò)算法檢測結(jié)果圖。其中,車輛總數(shù)為抽取到所有幀視頻圖像中車輛數(shù)目的總和,正確檢測數(shù)目為算法檢測出車輛的總和,漏檢數(shù)目為算法未檢測到車輛的總和??梢钥闯?,基于所提出的SSD+MobileNetV2神經(jīng)網(wǎng)絡(luò)檢測方法進(jìn)行車輛識別的平均準(zhǔn)確率為84.3%,平均漏檢率為3.1%,實(shí)時檢測幀率為24幀/s。結(jié)果表明,基于手動標(biāo)注滴滴數(shù)據(jù)集訓(xùn)練的SSD+MobileNet V2神經(jīng)網(wǎng)絡(luò)算法能快速準(zhǔn)確地識別前方車輛。

        圖7 神經(jīng)網(wǎng)絡(luò)算法檢測結(jié)果

        表1 神經(jīng)網(wǎng)絡(luò)算法檢測結(jié)果統(tǒng)計(jì)

        3 毫米波雷達(dá)與深度視覺信息融合框架

        在完成雷達(dá)AEKF跟蹤和深度學(xué)習(xí)算法的訓(xùn)練后,須對毫米波雷達(dá)與深度視覺檢測跟蹤結(jié)果進(jìn)行融合。提出決策級融合策略,具體流程如圖8所示。首先,將毫米波雷達(dá)原始數(shù)據(jù)進(jìn)行閾值篩選與前后幀關(guān)聯(lián),得到目標(biāo)特征信息之后進(jìn)行時間坐標(biāo)系與空間坐標(biāo)系的轉(zhuǎn)換和對準(zhǔn),基于AEKF算法將跟蹤檢測結(jié)果投影至視覺圖像;其次,標(biāo)注車載數(shù)據(jù)集進(jìn)行SSD+MobileNetV2神經(jīng)網(wǎng)絡(luò)訓(xùn)練,完成深度視覺目標(biāo)檢測;最后,將雷達(dá)與深度視覺檢測跟蹤結(jié)果進(jìn)行融合。

        圖8 融合框架邏輯圖

        對兩種傳感器得到的檢測框計(jì)算交并比(IOU)以便進(jìn)行決策級判斷。IOU計(jì)算公式為

        式中:SV為深度視覺檢測矩形框面積;SR為毫米波雷達(dá)檢測跟蹤矩形框面積。當(dāng)IOU∈[0.5,1],輸出視覺檢測類別與位置信息;當(dāng)IOU∈(0,0.5),輸出視覺檢測類別與毫米波雷達(dá)檢測的目標(biāo)位置和狀態(tài)信息;當(dāng)IOU=0時,針對SV≠0,SR=0和SV≠0,SR≠0的情況均不輸出檢測結(jié)果,當(dāng)SV=0,SR≠0時僅輸出雷達(dá)檢測目標(biāo)位置與狀態(tài)信息,直至IOU≠0。

        基于上述毫米波雷達(dá)與視覺信息融合規(guī)則,對于不同情況下的車輛狀態(tài)均能對其位置信息進(jìn)行融合且獲得較為準(zhǔn)確的前方車輛位置狀態(tài)輸出。

        4 實(shí)驗(yàn)結(jié)果分析

        主要對日間結(jié)構(gòu)化高速和快速道路環(huán)境下的車輛檢測進(jìn)行研究。用于驗(yàn)證本文融合算法有效性的實(shí)驗(yàn)數(shù)據(jù)包含復(fù)雜道路背景、路面陰影、密集車輛和不同車距車輛等多種道路環(huán)境。實(shí)驗(yàn)采用的毫米波雷達(dá)型號為德國的Delphi ESR,工作頻率20 Hz。視覺傳感器型號為羅技C920 Pro攝像頭,采集分辨率為1920×1080,采集頻率為30幀/s。計(jì)算機(jī)平臺的配置為Intel Core i7?8700k處理器,NVIDIA RTX 2080 8G顯存,滿足神經(jīng)網(wǎng)絡(luò)訓(xùn)練與檢測的要求。算法采用Python語言實(shí)現(xiàn),其中神經(jīng)網(wǎng)絡(luò)算法采用pytorch神經(jīng)網(wǎng)絡(luò)框架進(jìn)行搭建。實(shí)驗(yàn)融合檢測結(jié)果如圖9所示。其中,綠色框?yàn)楹撩撞ɡ走_(dá)跟蹤檢測框,紅色框?yàn)樯窠?jīng)網(wǎng)絡(luò)算法檢測框。本文算法檢測統(tǒng)計(jì)如表2所示,文獻(xiàn)[18]方法檢測結(jié)果如表3所示,不同檢測算法檢測速度對比結(jié)果如表4所示。

        圖9 算法檢測結(jié)果

        表2 本文方法檢測結(jié)果統(tǒng)計(jì)

        表3 文獻(xiàn)[18]方法檢測結(jié)果統(tǒng)計(jì)

        表4 不同檢測算法檢測速度對比

        為驗(yàn)證所提出的基于AEKF算法跟蹤與深度視覺信息融合算法的穩(wěn)定性與準(zhǔn)確性,與文獻(xiàn)[18]中的算法進(jìn)行對比分析。對比表2與表3可見,基于相同視頻序列的檢測結(jié)果,本文提出的毫米波雷達(dá)AEKF檢測跟蹤算法與深度視覺算法對前方車輛檢測精度與漏檢情況皆優(yōu)于文獻(xiàn)[18]中的傳統(tǒng)檢測方法,進(jìn)而提升了兩種傳感器信息融合檢測的精度。文獻(xiàn)[18]中采用EKF算法對毫米波雷達(dá)目標(biāo)進(jìn)行跟蹤,并未考慮噪聲先驗(yàn)統(tǒng)計(jì)特性和外部環(huán)境動態(tài)變化對濾波精度的影響。此外,其采用傳統(tǒng)的基于HOG特征的SVM分類器對車輛進(jìn)行檢測,泛化能力較差,較難在復(fù)雜應(yīng)用場景中達(dá)到快速準(zhǔn)確檢測的效果。本文改進(jìn)方法采用AEKF算法對毫米波雷達(dá)進(jìn)行跟蹤,檢測準(zhǔn)確率達(dá)93.2%,有效降低了雷達(dá)漏檢、誤檢對目標(biāo)檢測的影響。采用SSD+MobileNetV2神經(jīng)網(wǎng)絡(luò)算法提升了檢測準(zhǔn)確率,針對實(shí)車道路場景測試能達(dá)到22幀/s的檢測速度,實(shí)現(xiàn)了快速準(zhǔn)確檢測目標(biāo)?;跊Q策級融合策略,降低了光照、陰影等環(huán)境對算法的影響,進(jìn)一步提升了檢測精度,減少了漏檢與誤檢情況的發(fā)生,提高對目標(biāo)車輛位置、運(yùn)動狀態(tài)和幾何參數(shù)估計(jì)的準(zhǔn)確性。

        5 結(jié)論

        (1)針對融合毫米波雷達(dá)與機(jī)器視覺的信息檢測跟蹤算法準(zhǔn)確率低和實(shí)時性較差的問題,提出一種基于自適應(yīng)EKF濾波跟蹤算法。在未知噪聲先驗(yàn)統(tǒng)計(jì)特性和外部環(huán)境動態(tài)變化的情況下,利用毫米波雷達(dá)觀測數(shù)據(jù)不斷在線估計(jì)和修正濾波器噪聲統(tǒng)計(jì)特性,以提高濾波精度與穩(wěn)定性。

        (2)針對傳統(tǒng)機(jī)器視覺檢測算法精度較低、檢測速度較慢的問題,采用SSD+MobileNetV2的神經(jīng)網(wǎng)絡(luò)算法進(jìn)行前方車輛檢測,進(jìn)一步提升融合檢測算法的精度與速度。

        (3)提出毫米波雷達(dá)與深度視覺信息融合框架,為驗(yàn)證融合框架檢測跟蹤的有效性,進(jìn)行了不同交通環(huán)境場景下的實(shí)車實(shí)驗(yàn)。在存在光照變化、路面陰影和道路車輛密集的情況下,所提出的算法依然能快速準(zhǔn)確地對前方車輛進(jìn)行檢測跟蹤。結(jié)果表明所提出的檢測跟蹤算法有效降低了雷達(dá)檢測跟蹤的漏檢率,提高了車輛檢測精度與速度。

        (4)所提出的融合毫米波雷達(dá)與深度視覺信息檢測跟蹤算法可實(shí)時檢測跟蹤前方車輛,具有比傳統(tǒng)方法更好的可靠性與穩(wěn)定性,對提高智能汽車環(huán)境感知性能具有重要的意義。

        猜你喜歡
        坐標(biāo)系雷達(dá)神經(jīng)網(wǎng)絡(luò)
        有雷達(dá)
        大自然探索(2023年7期)2023-08-15 00:48:21
        神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        雷達(dá)
        解密坐標(biāo)系中的平移變換
        坐標(biāo)系背后的故事
        基于重心坐標(biāo)系的平面幾何證明的探討
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
        基于空時二維隨機(jī)輻射場的彈載雷達(dá)前視成像
        復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
        現(xiàn)代“千里眼”——雷達(dá)
        伊在人天堂亚洲香蕉精品区| 国产精品丝袜在线不卡| 免费一区在线观看| 欧美巨大xxxx做受中文字幕| 国产一区二区三区亚洲精品| av在线入口一区二区| 野花香社区在线视频观看播放 | 久久亚洲精品中文字幕蜜潮| 久久精品国产在热亚洲不卡| 人人妻人人添人人爽欧美一区| 国产一精品一av一免费 | 亚洲精品无人区| 亚洲AV电影天堂男人的天堂| 国产精品一级av一区二区| 成熟妇女毛茸茸性视频| 夫妻免费无码v看片| 老师脱了内裤让我进去| AV永久天堂网| aⅴ色综合久久天堂av色综合| 伊人久久大香线蕉av最新午夜| 国产精品久久久久高潮| 国产精品无码日韩欧| 丝袜 亚洲 另类 欧美| 亚洲精品偷拍自综合网| 免费成人在线电影| 日韩精品国产自在久久现线拍| 青青草综合在线观看视频| 婷婷色在线视频中文字幕| 国产午夜亚洲精品国产成人av | 日韩视频中文字幕精品偷拍| 日韩电影一区二区三区| 欧美性猛交xxxx乱大交蜜桃| 精品国产一区二区三区男人吃奶| 精品国产亚洲av麻豆| 国产97在线 | 中文| 亚洲专区路线一路线二天美| 亚洲不卡av二区三区四区| 日本一区二区三区视频在线观看| 久久久久亚洲av片无码v| 加勒比黑人在线| 一区二区人妻乳中文字幕|