亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于特征融合的無人駕駛多任務(wù)感知算法

        2023-04-29 10:02:57孫傳龍趙紅崔翔宇牟亮徐福良路來偉
        關(guān)鍵詞:特征融合多任務(wù)無人駕駛

        孫傳龍 趙紅 崔翔宇 牟亮 徐福良 路來偉

        摘要: 為提高無人駕駛汽車感知系統(tǒng)硬件資源利用率,構(gòu)建了一種基于特征融合的無人駕駛多任務(wù)感知算法。采用改進(jìn)的CSPDarknet53作為模型的主干網(wǎng)絡(luò),通過構(gòu)建特征融合網(wǎng)絡(luò)與特征融合模塊對多尺度特征進(jìn)行提取與融合,并以7種常見道路物體的檢測與可行駛區(qū)域的像素級分割兩任務(wù)為例,設(shè)計多任務(wù)模型DaSNet(Detection and Segmentation Net)進(jìn)行訓(xùn)練與測試。使用BDD100K數(shù)據(jù)集對YOLOv5s、Faster R-CNN以及U-Net模型進(jìn)行訓(xùn)練,并對mAP、Dice系數(shù)以及檢測速度等性能指標(biāo)做出對比分析。研究結(jié)果表明:DaSNet多任務(wù)模型在道路物體檢測任務(wù)上,mAP值分別比YOLOv5s和Faster RCNN高出0.5%和4.2%,在RTX2080Ti GPU上達(dá)到121FPS的檢測速度;在占優(yōu)先權(quán)與不占優(yōu)先權(quán)的可行駛區(qū)域上分割的Dice值相較于U-Net網(wǎng)絡(luò)分別高出了4.4%與6.8%,有較明顯的提升。

        關(guān)鍵詞: 無人駕駛;多任務(wù);特征融合;道路物體檢測;可行駛區(qū)域分割

        中圖分類號: TP391文獻(xiàn)標(biāo)識碼: A

        Multi-task Sensing Algorithm for Driverless Vehicle Based on Feature Fusion

        SUN Chuanlong1,ZHAO Hong1,CUI Xiangyu2,MU Liang1,XU Fuliang1,LU Laiwei1

        Abstract:In order to improve the utilization of hardware resources of driverless vehicle perception system, a multi-task driverless vehicle perception algorithm based on feature fusion is constructed. The improved CSPDarknet53 is used as the backbone network of the model, and multi-scale features are extracted and fused by constructing feature fusion network and feature fusion module. The detection of 7 common road objects and pixel-level segmentation of the driving area are taken as examples. Multi-task DaSNet (Detection and Segmentation Net) is designed for training and testing. In order to compare model performance, BDD100K data set is used to train YOLOv5s, Faster R-CNN and U-NET models, and comparative analysis is made on mAP, Dice coefficient and detection speed and other performance indicators. The results showed that DaSNet multi-task model′s mAP value is 0.5% and 4.2% higher than YOLOv5s and Faster RCNN, respectively, and the detection speed of 121FPS can be achieved on RTX2080Ti GPU. Compared with U-NET network, Dice value of segmentation in priority and non-priority drivable are 4.4% and 6.8% higher, showing an obvious improvement.

        Key words: driverless vehicle; multi-task; fature fusion; road object dection;driveable area segmentation

        0 引言

        目前,無人駕駛已經(jīng)成為眾多國家的發(fā)展戰(zhàn)略之一,其中,感知系統(tǒng)[1-3]作為無人駕駛汽車中不可或缺的部分之一,對環(huán)境的感知適應(yīng)性、實時性直接影響了無人駕駛汽車的安全性和可靠性,而目標(biāo)檢測、語義分割作為感知系統(tǒng)中的兩大任務(wù),其效果將直接影響無人駕駛汽車決策系統(tǒng)的決策質(zhì)量。

        近年來,深度學(xué)習(xí)[4]在目標(biāo)檢測、語義分割領(lǐng)域的應(yīng)用取得了重大的突破,這很大程度上歸功于大型數(shù)據(jù)集、計算機(jī)強(qiáng)大的計算能力、復(fù)雜的網(wǎng)絡(luò)架構(gòu)和優(yōu)化算法的進(jìn)展。在目標(biāo)檢測領(lǐng)域,兩階段算法與單階段算法是目前兩大類基于深度學(xué)習(xí)的目標(biāo)檢測算法,其中兩階段算法主要有R-CNN[5],其改進(jìn)后的Fast R-CNN[6]以及Faster R-CNN[7],這類算法需要先從圖像中選取候選框,再對候選框進(jìn)行分類與回歸,雖準(zhǔn)確率較高,但繁瑣的檢測步驟容易導(dǎo)致出現(xiàn)檢測速度較低,實時性較差等問題。以YOLO[8]為代表的單階段算法具有端到端的網(wǎng)絡(luò)結(jié)構(gòu),具有較高的檢測速度,同時,由于巧妙的網(wǎng)絡(luò)設(shè)計方式使其具備令人滿意的檢測準(zhǔn)確率。在圖像語義分割領(lǐng)域,基于區(qū)域分類的圖像語義分割和基于像素分類的圖像語義分割是目前主流的基于深度學(xué)習(xí)的語義分割方法,前者先將圖像劃分為一系列目標(biāo)候選區(qū)域,通過深度學(xué)習(xí)算法對目標(biāo)區(qū)域進(jìn)行分類,避免了超像素的生成,有效提高了圖像分割效率,其代表有MPA[9]、DeepMask[10]等;后者則是以像素分類的方式直接利用端到端結(jié)構(gòu)的深層神經(jīng)網(wǎng)絡(luò)進(jìn)行分割,避免了生成候選區(qū)域算法缺陷帶來的問題,其代表有DeepLab[11]、ICNet[12]、U-Net[13]等。

        以上算法雖然都在對應(yīng)的感知系統(tǒng)各項任務(wù)中取得了較好的效果,但“一項任務(wù)對應(yīng)一種算法模型”的方式,忽略了感知系統(tǒng)各項任務(wù)特征之間的聯(lián)系,這不僅加劇了感知系統(tǒng)的計算負(fù)擔(dān),而且降低了無人駕駛汽車中有限硬件資源的利用率。本文針對這一問題,通過整合感知系統(tǒng)各項任務(wù)特征之間的聯(lián)系與各項任務(wù)的算法結(jié)構(gòu)特點(diǎn),提出了一種基于特征融合[14]的端到端的多任務(wù)算法模型DaSNet(Detection and Segmentation Net),挖掘多任務(wù)之間的信息,通過算法自學(xué)習(xí)來優(yōu)化各項任務(wù)損失的權(quán)重,得到最佳權(quán)重配比,且構(gòu)建了可行駛區(qū)域分割與道路目標(biāo)檢測的多任務(wù)輕量化網(wǎng)絡(luò),在提高了無人駕駛道路環(huán)境感知系統(tǒng)中硬件資源的利用率的同時提升了檢測與分割任務(wù)的精度。

        1 DaSNet算法結(jié)構(gòu)

        DaSNet整體算法結(jié)構(gòu)如圖1所示,該模型由主干網(wǎng)絡(luò)、特征融合網(wǎng)絡(luò)、道路物體檢測層以及可行駛區(qū)域分割網(wǎng)絡(luò)四部分組成。

        輸入數(shù)字圖像經(jīng)過特定的預(yù)處理操作后輸入到主干網(wǎng)絡(luò),提取不同抽象等級的特征,并將得到的不同的尺度特征圖輸入到特征融合網(wǎng)絡(luò)中,在特征融合網(wǎng)絡(luò)中經(jīng)過多次上采樣與卷積操作,與其它特征圖融合以增強(qiáng)特征表達(dá)能力,最終輸出融合后3種尺度的特征圖;道路物體檢測層分別在3個特征圖上進(jìn)行檢測并輸出車輛、行人以及路標(biāo)等道路物體的預(yù)測信息。同時,可行駛區(qū)域分割網(wǎng)絡(luò)將來自主干網(wǎng)絡(luò)的可行駛區(qū)域的通用語義特征,即待預(yù)測圖像中的淺層語義信息和圖像內(nèi)容信息,與來自特征融合網(wǎng)絡(luò)的特征包含車輛行人等可能阻礙汽車前進(jìn)的物體的類別與位置信息通過Fusion融合模塊進(jìn)行自底向上的特征融合,恢復(fù)圖像細(xì)節(jié)與分辨率,實現(xiàn)對圖像中可行駛區(qū)域的像素級預(yù)測,進(jìn)而達(dá)到在一個模型上同時完成兩類任務(wù)的效果,其網(wǎng)絡(luò)的構(gòu)建為本文的重點(diǎn)。

        1.1 主干網(wǎng)絡(luò)

        主干網(wǎng)絡(luò)作為整個模型的前置部分,負(fù)責(zé)提取圖像中的信息,生成特征圖,供后置功能網(wǎng)絡(luò)使用。本文改進(jìn)了CSPDarknet53作為模型的主干網(wǎng)絡(luò),主要由改進(jìn)的Focus層,卷積塊CBL(Conv+Batchnorm+Leaky ReLU),殘差單元(ResUnit),跨階段局部單元CSP(Cross Stage Partial)和空間金字塔池化層SPP(Spatial Pyramid Pooling)組成,其結(jié)構(gòu)如圖2所示。為更好地保留輸入圖像原始信息,在DaSNet模型中對YOLOv5s中的Focus層做了結(jié)構(gòu)上的改進(jìn),即在原來的結(jié)構(gòu)基礎(chǔ)上增加一條通路,直接將輸入圖像進(jìn)行卷積,再將兩條通路進(jìn)行拼接后,經(jīng)過一次卷積,即可得到改進(jìn)的Focus層的輸出。這種結(jié)構(gòu)能在YOLOv5s中Focus層優(yōu)勢的基礎(chǔ)上,更多地保留原始圖像信息,并且將兩條通路結(jié)合,豐富輸入圖像信息,使后續(xù)卷積層可以獲得更好的特征提取效果。

        DaSNet模型中全部采用Leaky ReLU作為激活函數(shù)對卷積層得到的運(yùn)算結(jié)果進(jìn)行非線性激活,如圖3所示,傳統(tǒng)的ReLU激活函數(shù)雖然具有較快的計算速度與收斂速度,但當(dāng)輸入為負(fù)值時,會因為其0輸出導(dǎo)致神經(jīng)元無法更新參數(shù);而Leaky ReLU函數(shù)相較于傳統(tǒng)的ReLU函數(shù)在輸入的負(fù)半?yún)^(qū)間引入了Leaky值,避免了輸入為負(fù)值時0導(dǎo)數(shù)的出現(xiàn)導(dǎo)致神經(jīng)元無法更新參數(shù)的問題。

        1.2 特征融合網(wǎng)絡(luò)

        原始圖像中一些小尺寸目標(biāo)本身具有的像素較少,最后一層特征圖在經(jīng)過多次卷積與下采樣操作后,很可能將小尺寸目標(biāo)對應(yīng)的像素和信息丟失,因此,若僅使用主干網(wǎng)絡(luò)最后一層輸出特征來進(jìn)行目標(biāo)的預(yù)測,則會導(dǎo)致漏檢;且在主干網(wǎng)絡(luò)中,靠前的淺層卷積層更容易提取到抽象級別較低的圖像內(nèi)容信息,而較深卷積層更容易提取到抽象等級較高的特征信息,若只對主干網(wǎng)絡(luò)最后一層的特征圖進(jìn)行檢測,容易漏掉許多原始圖像的內(nèi)容信息,從而導(dǎo)致檢測結(jié)果不理想。因此在主干網(wǎng)絡(luò)后,加入特征融合網(wǎng)絡(luò),從主干網(wǎng)絡(luò)中提取多個尺度的特征并進(jìn)行融合,進(jìn)而使用融合后含有豐富信息的特征進(jìn)行檢測,使檢測性能得到大幅提升。

        類比PAN[15](Path Aggregation Network)特征融合網(wǎng)絡(luò),采用CSP2-1模塊作為基本單元構(gòu)成如圖4所示的特征融合網(wǎng)絡(luò)結(jié)構(gòu)。這種使用CPS2-1模塊改進(jìn)的PAN結(jié)構(gòu)多了一輪自低而上的融合步驟,提高了模型的特征表達(dá)能力,使融合后的特征含有更豐富的語義信息,從而進(jìn)一步提升檢測效果。

        1.3 道路物體檢測網(wǎng)絡(luò)

        道路物體檢測網(wǎng)絡(luò)來自特征融合網(wǎng)絡(luò)輸出的3個特征,分別對其進(jìn)行卷積操作,將3個輸出張量作為預(yù)測結(jié)果,網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

        DaSNet模型中先驗框初始值設(shè)置為橫向矩形,方形與縱向矩形3種,在道路感知場景中,這3種先驗框的配置可以很好地適應(yīng)車輛,路標(biāo)以及行人等目標(biāo)的預(yù)測。隨著網(wǎng)絡(luò)的訓(xùn)練,模型會根據(jù)數(shù)據(jù)集標(biāo)簽框的數(shù)值分布,自適應(yīng)地對先驗框大小做出調(diào)整。

        1.4 可行駛區(qū)域分割網(wǎng)絡(luò)

        可行駛區(qū)域分割網(wǎng)絡(luò)作為DaSNet模型的第22分支,負(fù)責(zé)對道路前方可以行駛的區(qū)域進(jìn)行像素級分割,其網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

        目前大多算法使用單獨(dú)的分割網(wǎng)絡(luò)對區(qū)域進(jìn)行預(yù)測,不但會消耗大量的算力,且由于路面區(qū)域語義特征不明顯,導(dǎo)致分割準(zhǔn)確率較差。而DaSNet中的可行使區(qū)域分割網(wǎng)絡(luò)的輸入分別來主干網(wǎng)絡(luò)以及特征融合網(wǎng)絡(luò)。來自主干網(wǎng)絡(luò)的特征包含待預(yù)測圖像中的淺層語義信息以及圖像內(nèi)容信息,能提供可行駛區(qū)域的通用語義特征;來自特征融合網(wǎng)絡(luò)的特征包含車輛行人等可能阻礙汽車前進(jìn)的物體的類別與位置信息;輸入特征在經(jīng)過上采樣后,經(jīng)過融合模塊Fusion與尺寸大一倍的輸入特征進(jìn)行融合。并在每兩次Fusion操作后使用CSP模塊進(jìn)行特征增強(qiáng),最后使用一個卷積層得到分割結(jié)果,其兩通道分別表示對應(yīng)像素為占優(yōu)先權(quán)的可行駛區(qū)域與不占優(yōu)先權(quán)的不可行駛區(qū)域的概率,若預(yù)測值小于閾值則認(rèn)為該像素點(diǎn)為不可行駛區(qū)域,其中閾值的選取與檢測分支的閾值選取同理。

        可行使區(qū)域分割網(wǎng)絡(luò)融合模塊Fusion將兩個輸入特征按通道方向拼接后進(jìn)行兩次CBL模塊運(yùn)算,并使用上采樣層恢復(fù)特征圖像細(xì)節(jié)與分辨率,作為下一個Fusion模塊的輸入特征。

        將區(qū)域分割的任務(wù)融合到道路物體檢測網(wǎng)絡(luò)中,作為一個附加的分支,達(dá)到在一個模型上同時完成兩類任務(wù)的效果,由于共用主干網(wǎng)絡(luò)以及特征融合網(wǎng)絡(luò)的特征,分割網(wǎng)絡(luò)可以獲取到模型已提取到的道路物體語義信息,由于道路前方的汽車與行人等障礙物會使可行駛區(qū)域發(fā)生改變,因此利用這些道路物體語義特征對可行駛區(qū)域進(jìn)行預(yù)測,在減少算力的同時,也可以使分割效果明顯提升。

        2 損失函數(shù)與數(shù)據(jù)集

        2.1 損失函數(shù)設(shè)計

        IoU(Intersection over Union)為交并比,是目前檢測中比較常用的指標(biāo),可以反映出預(yù)測檢測框與真實檢測框的檢測效果,計算公式為

        式(4)中,confLoss為單個預(yù)測框的置信度損失,yconfi為該預(yù)測框的置信度預(yù)測值,當(dāng)檢測目標(biāo)預(yù)測框的網(wǎng)格處有標(biāo)記物體時tconfi為1,否則為0;式(5)中clsLoss為分類概率損失,當(dāng)標(biāo)記物體的類別為i時,tclsi為1,否則為0,yclsi為模型輸出預(yù)測框類別為i的概率。

        在訓(xùn)練分割網(wǎng)絡(luò)時,選擇合適的損失函數(shù),也能使網(wǎng)絡(luò)得到更準(zhǔn)確光滑的分割效果。本文選用一種由度量集合相似度的度量函數(shù)演化而來的DiceLoss,其計算公式為

        (6)

        其中,X和Y分別為標(biāo)簽像素與預(yù)測像素,反映了區(qū)域與標(biāo)簽像素區(qū)域的重合關(guān)系。Dice損失更注重于優(yōu)化預(yù)測區(qū)域與標(biāo)簽區(qū)域的重合關(guān)系,更適合于DaSNet模型的可行駛區(qū)域分割任務(wù),因此在訓(xùn)練可行駛區(qū)域分割網(wǎng)絡(luò)時選擇DiceLoss作為損失函數(shù)。

        2.2 BDD100K網(wǎng)絡(luò)數(shù)據(jù)集

        本文采用2018年5月伯克利大學(xué)AI實驗室發(fā)布的BDD100K數(shù)據(jù)集,其中包含10萬個高清視頻序列,總時長超過1 100 h,涵蓋不同時間、不同天氣條件和駕駛場景。每個視頻對第10秒進(jìn)行關(guān)鍵幀采樣,得到10萬張尺寸為1 280*720的圖片,并對道路物體、可行駛區(qū)域、車道線和全幀實例分割進(jìn)行標(biāo)注,這些標(biāo)記能使模型更好地理解不同場景中數(shù)據(jù)和對象的多樣性。

        如圖7所示,在BDD100K數(shù)據(jù)集中,8用于目標(biāo)檢測的有公共汽車、交通燈、交通標(biāo)志、人、自行車、卡車、摩托車、汽車、火車和乘車人等共上百萬個目標(biāo)物體的標(biāo)注數(shù)據(jù);且有超過10萬張相關(guān)圖像含有用于語義分割與實例分割的像素級注釋和豐富實例級注釋;也有超過10萬張圖片的多種車道線標(biāo)注可用于車道線的檢測。

        3 實驗驗證及結(jié)果分析

        本文使用的模型訓(xùn)練環(huán)境均為高性能的桌面臺式機(jī),選用微星Z390主板、搭載Intel i9 9900KF處理器以及32GB運(yùn)行內(nèi)存,采用11G顯存的Nvidia Geforce RTX2080Ti GPU進(jìn)行模型的訓(xùn)練與測試;軟件方面,系統(tǒng)選用Ubuntu20.04版本,集成開發(fā)工具選用PyCharm 2020版本并結(jié)合Anaconda包管理器創(chuàng)建conda虛擬環(huán)境,使用Python3.7環(huán)境下的Pytorch10.1版本進(jìn)行算法模型的開發(fā)與測試。

        3.1 檢測主分支訓(xùn)練

        在道路物體檢測分支網(wǎng)絡(luò)訓(xùn)練過程中,對主干網(wǎng)絡(luò)、特征融合網(wǎng)絡(luò)以及檢測層做前向傳播,根據(jù)標(biāo)簽數(shù)據(jù)求出分類損失、置信度損失以及檢測框損失,在反向傳播后,使用隨機(jī)梯度下降算法更新主干網(wǎng)絡(luò)、特征融合網(wǎng)絡(luò)以及檢測層的網(wǎng)絡(luò)權(quán)重參數(shù)。在整個訓(xùn)練過程中,采用大小為16的batch size,并設(shè)置初始學(xué)習(xí)率為0.1,設(shè)置如圖8所示的學(xué)習(xí)率調(diào)整策略,在7萬張圖像的訓(xùn)練集上進(jìn)行300次迭代,由于Mosaic數(shù)據(jù)增強(qiáng)方法每次融合4張圖片,且網(wǎng)絡(luò)使用了較高性能的預(yù)訓(xùn)練權(quán)重,因此300次迭代足夠使模型達(dá)到收斂后較平穩(wěn)的區(qū)域。在網(wǎng)絡(luò)剛開始訓(xùn)練的階段,由于部分權(quán)重參數(shù)是隨機(jī)初始化生成的,如果使用較高的學(xué)習(xí)率會使訓(xùn)練過程非常不穩(wěn)定,所以采用warm up的方式在訓(xùn)練前4次迭代中將學(xué)習(xí)率逐漸增加到初始學(xué)習(xí)率0.01;在網(wǎng)絡(luò)訓(xùn)練后期,權(quán)重在最優(yōu)值附近,一直使用較高學(xué)習(xí)率會使權(quán)重每次都有較大變換,導(dǎo)致?lián)p失值在最小值左右來回震蕩,使用余弦退火的學(xué)習(xí)率衰減策略,使學(xué)習(xí)率在訓(xùn)練過程中不斷下降,從而使損失值收斂于最優(yōu)點(diǎn)。

        模型訓(xùn)練過程中在驗證集上的損失值迭代曲線如圖9所示,最上方為分類損失,中間為GIoU損失,下方為置信度損失??梢钥闯?,在訓(xùn)練開始階段,3種損失值較大,隨著學(xué)習(xí)率增加為初始值,損失值開始較快下降,隨著訓(xùn)練迭代次數(shù)的增加,由于調(diào)整策略的調(diào)整學(xué)習(xí)率緩慢下降,損失值的下降逐漸趨于平穩(wěn),在240次迭代中損失值到達(dá)最優(yōu)值,將此時的網(wǎng)絡(luò)權(quán)重保存作為最終訓(xùn)練結(jié)果,并對其性能做出評價。

        3.2 分割分支訓(xùn)練

        由于可行駛區(qū)域分割網(wǎng)絡(luò)以道路物體檢測網(wǎng)絡(luò)的特征層作為輸入,因此分割網(wǎng)絡(luò)的訓(xùn)練必須在道路物體檢測網(wǎng)絡(luò)訓(xùn)練之后進(jìn)行,訓(xùn)練時對主干網(wǎng)絡(luò),特征融合網(wǎng)絡(luò)以及分割網(wǎng)絡(luò)做前向傳播,網(wǎng)絡(luò)輸出與輸入圖像尺寸相同的掩膜,掩膜與標(biāo)記掩膜求Dice損失,并反向傳播,在更新網(wǎng)絡(luò)權(quán)重時,將主干網(wǎng)絡(luò)與特征融合網(wǎng)絡(luò)的參數(shù)固定,只對可行駛區(qū)域分割網(wǎng)絡(luò)進(jìn)行權(quán)重參數(shù)的更新。

        分割網(wǎng)絡(luò)分支無預(yù)訓(xùn)練的權(quán)重,因此將訓(xùn)練的迭代次數(shù)增加到600次,與檢測網(wǎng)絡(luò)采用相同學(xué)習(xí)率衰減策略與0.1的初始學(xué)習(xí)率,batch size同樣設(shè)置為16。網(wǎng)絡(luò)訓(xùn)練過程的損失值迭代曲線如圖10所示??梢钥闯?,由于主干網(wǎng)絡(luò)在檢測分支的訓(xùn)練過程中預(yù)先學(xué)習(xí)到了圖像的通用特征,因此分割網(wǎng)絡(luò)損失值有著較低的初始值,且在訓(xùn)練過程中隨著學(xué)習(xí)率的調(diào)整不斷波動,在最后100次迭代中收斂于最優(yōu)值。

        3.3 模型預(yù)測效果展示

        在預(yù)測過程中,圖片經(jīng)過自適應(yīng)填充縮放后,輸入到加載了訓(xùn)練過的權(quán)重的模型中進(jìn)行前向傳播并得到預(yù)測結(jié)果,將其解碼后經(jīng)過非極大值抑制算法過濾掉多余檢測框,并將檢測結(jié)果恢復(fù)到原始圖像的尺度,使用openCV庫在原始圖像上進(jìn)行結(jié)果繪制,即可得到如圖11所示的預(yù)測效果圖。

        從圖11可以看出,DaSNet模型對距離較近的行人、汽車以及路標(biāo)等有著非常精確的檢測效果,且置信度較高;對遠(yuǎn)處較小的汽車與行人目標(biāo)也有著較高的檢測率。分割網(wǎng)絡(luò)也能夠較準(zhǔn)確地識別出前方可行駛的道路區(qū)域,并且能明顯地區(qū)分出前方占優(yōu)先權(quán)的車道與不占有優(yōu)先權(quán)的車道。

        3.4 道路物體檢測網(wǎng)絡(luò)對比分析

        召回率與準(zhǔn)確率是目標(biāo)檢測領(lǐng)域常見的兩個指標(biāo),召回率代表模型在所有待預(yù)測目標(biāo)中的已檢測數(shù)量,而準(zhǔn)確率則代表模型預(yù)測正確數(shù)量。兩個指標(biāo)通常呈負(fù)相關(guān)的關(guān)系,因此經(jīng)常通過綜合評價召回率與準(zhǔn)確率的方法來評價模型性能,計算公式為

        對某一分類,從0.5到0.95中每隔0.05取一個值作為預(yù)測框的IoU閾值,并在所有取到的閾值下計算其召回率與準(zhǔn)確率,并作為橫坐標(biāo)與縱坐標(biāo)繪制P-R曲線,曲線下的面積即為當(dāng)前分類的AP值。mAP值即為所有分類AP值的平均值。其計算公式為

        其中,c為當(dāng)前分類的編號,n為總類別數(shù),precision(recall)為當(dāng)前召回率下準(zhǔn)確率的值。mAP值為模型檢測的精度,而檢測速度是除mAP之外另一個重要的評價指標(biāo),通常使用FPS(Frames per second)為單位,表示模型在一秒鐘內(nèi)能完成檢測的圖像數(shù)量。根據(jù)上述評價指標(biāo),使用BDD100K數(shù)據(jù)集中1萬張驗證集進(jìn)行推理測試,繪制其在驗證集上的P-R曲線,并計算mAP、mAP50以及推理速度,結(jié)果如圖12所示。

        可以看到,模型對于不同類別有著不同的P-R曲線,其中深黑色曲線為根據(jù)驗證集中所有類別的所有目標(biāo)求得的P-R曲線,利用該曲線可以求出模型的mAP值為33.7%;記錄模型對整個驗證集的推理時間,利用驗證集數(shù)量求得模型的推理速度為121FPS。

        為更好地評估DaSNet檢測分支的性能,分別選用目標(biāo)檢測領(lǐng)域單階段與兩階段兩類算法中性能最優(yōu)的算法進(jìn)行對比實驗,分別使用搭載了CSPDarknet53主干網(wǎng)絡(luò)與FPN特征融合網(wǎng)絡(luò)的YOLOv5s(YOLOv5s與DaSNet模型量級相近)模型與搭載了VGG16的Faster R-CNN模型在BDD100K訓(xùn)練集上進(jìn)行300次迭代,并計算相關(guān)指標(biāo),分別記錄其mAP值、mAP50值以及檢測速度,結(jié)果如表1所示??梢姡珼aSNet模型的道路物體檢測網(wǎng)絡(luò)比YOLOv5s模型速度稍慢,但提升了0.5%的mAP與1.1%的mAP50;且在檢測速度遠(yuǎn)高于Faster R-CNN模型的同時,比其高了4.2%的mAP與7.4%的mAP50。因此DaSNet模型相較于當(dāng)前主流的目標(biāo)檢測算法有了一定的提升。

        3.5 可行駛區(qū)域分割網(wǎng)絡(luò)對比分析

        與損失函數(shù)保持一致,使用Dice系數(shù)對可行駛區(qū)域分割網(wǎng)絡(luò)性能做出評估,其計算公式為

        其中,X為數(shù)據(jù)集的標(biāo)記掩膜,Y為模型預(yù)測掩膜,該系數(shù)很好地反映了標(biāo)簽掩膜與預(yù)測掩膜的重合關(guān)系,從而評估模型性能。

        使用BDD100K訓(xùn)練集在U-Net網(wǎng)絡(luò)上進(jìn)行600次迭代,并在驗證集上對訓(xùn)練后的U-Net模型進(jìn)行測試,計算其對占優(yōu)先權(quán)與不占優(yōu)先權(quán)兩種可行駛區(qū)域的Dice系數(shù),并與DaSNet模型的道路物體檢測網(wǎng)絡(luò)對比,兩種模型預(yù)測效果如圖13所示。

        由圖13可以看出,相較于U-Net,本文設(shè)計的DaSNet模型在可行駛區(qū)域邊緣部分的分割效果更加平滑,且對于車輛與行人周圍的區(qū)域,能更加精細(xì)地將可行駛區(qū)域分割出來,這說明加入的來自道路物體檢測網(wǎng)絡(luò)的輸入特征層確實能影響可行駛區(qū)域的分割效果。

        由表2可以看出,DaSNet模型在BDD100K數(shù)據(jù)集的可行駛區(qū)域分割效果上,相較于U-Net有著較大的提升,說明融合道路物體語義信息的可行駛區(qū)域分割方法在無人駕駛場景感知中有更好的效果;也說明了基于多任務(wù)間特征融合的模型設(shè)計方法的有效性。

        4 結(jié)論

        經(jīng)驗證,DaSNet對常見的7種道路物體有較高的檢測精度,在夜晚等復(fù)雜環(huán)境中幾乎沒有誤檢漏檢,具有較好的魯棒性,且能有效地對前方道路的可行駛區(qū)域進(jìn)行像素級分割,其輕量級的網(wǎng)絡(luò)結(jié)構(gòu)模型也帶來了可靠的實時性。通過對比實驗可知,DaSNet相較于當(dāng)前主流的單一任務(wù)的預(yù)測模型有著更好的表現(xiàn)效果。這說明本文提出的利用多任務(wù)特征共享的模型設(shè)計方法確實能有效改善模型的性能,在提高了無人駕駛道路環(huán)境感知系統(tǒng)中硬件資源利用率的同時提升了檢測與分割任務(wù)的精度,為提高感知系統(tǒng)的運(yùn)行效率起到積極作用。

        參考文獻(xiàn):

        [1]王俊. 無人駕駛車輛環(huán)境感知系統(tǒng)關(guān)鍵技術(shù)研究[D]. 合肥:中國科學(xué)技術(shù)大學(xué), 2016.

        WANG J. Research on keytechnologies of environment awareness system for unmanned vehicle [D]. Hefei: University of Science and Technology of China, 2016.

        [2]王世峰, 戴祥, 徐寧, 等. 無人駕駛汽車環(huán)境感知技術(shù)綜述[J]. 長春理工大學(xué)學(xué)報(自然科學(xué)版), 2017,40(1): 1-6.

        WANG S F, DAI X, XU N, et al. Overview on environment perception technology for unmanned ground vehicle[J]. Journal of Changchun University of Science and Technology (Natural Science Edition), 2017,40(1): 1-6.

        [3]CHEN Q, XIE Y, GUO S, et al. Sensingsystem of environmental perception technologies for driverless vehicle: a review of state of the art and challenges[J]. Sensors and Actuators A Physical, 2021, 319: 112566.

        [4]GAYATHRIK D, MAMATA R, NGUYEN T D L. Artificial intelligence trends for data analytics using machine learning and deep learning approaches[M]. USA: Calabasas: CRC Press, 2020.

        [5]GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition. Columbus: IEEE, 2014: 580-587.

        [6]GIRSHICK R. Fast r-cnn [C]// IEEE International Conference on Computer Vision. Santiago: IEEE, 2015: 1440-1448.

        [7]REN S, HE K, GIRSHICK R, et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137-1149.

        [8]REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once:unified, real-time object detection[C]// IEEE conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016: 779-788.

        [9]LIU S, QI X, SHI J, et al. Multi-scalepatch aggregation (MPA) for simultaneous detection and segmentation[C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Seattle :IEEE, 2016: 3141-3149.

        [10] PINHEIRO P, COLLOBERT R, DOLLAR P. Learning tosegments objects candidates[C]// Advances in Neural Information Processing Systems. Montreal:NIPS,2015.

        [11] CHEN L C, PAPANDREOU G, KOKKINOS I, et al. Semanticimage segmentation with deep convolutional nets and fully connected CRFs[J]. Computer Science, 2014(4): 357-361.

        [12] ZHAO H SH, QI X J, SHEN X Y, et al. ICNet forreal-time semantic segmentation on high-resolution images[J]. Lecture Notes in Computer Science, 2017, 11207: 418-434.

        [13] RONNEBERGER O, FISCHER P, BROX T. U-net: convolutional networks for biomedical image segmentation[J]. Lecture Notes in Computer Science, 2015, 9351: 234-241.

        [14] 李亞. 多任務(wù)學(xué)習(xí)的研究[D].合肥:中國科學(xué)技術(shù)大學(xué), 2018.

        LI Y. Research on multi-task learning [D]. Hefei: University of Science and Technology of China, 2018.

        [15] LIU S H, QI L, QIN H F, et al. Path aggregation network for instance segmentation[J/OL]. IEEE.[2021-10-01]. DOI:10.1109/CVPR.2018.00913.

        [16] REZATOFIGHI H, TSOI N, J Y GWAK, et al. Generalized intersection over union: a metric and a loss for bounding box regression[C]// 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach:IEEE, 2019: 658-666.

        (責(zé)任編輯 李 進(jìn))

        收稿日期: 2021-11-07;修回日期:2022-04-07

        基金項目: 山東省重點(diǎn)研發(fā)計劃(2018GGX105004);青島市民生科技計劃(19-6-1-88-nsh)

        第一作者: 孫傳龍(1997-),男,山東淄博人,碩士研究生,主要研究方向為深度學(xué)習(xí)與計算機(jī)視覺在無人駕駛中的應(yīng)用。

        通信作者: 趙紅? (1973-),女,河南南陽人,博士,副教授,主要研究方向為車輛節(jié)能減排與新能源技術(shù)。

        猜你喜歡
        特征融合多任務(wù)無人駕駛
        我們村的無人駕駛公交
        無人駕駛車輛
        科學(xué)(2020年3期)2020-11-26 08:18:28
        無人駕駛公園
        基于中心化自動加權(quán)多任務(wù)學(xué)習(xí)的早期輕度認(rèn)知障礙診斷
        基于移動端的樹木葉片識別方法的研究
        科技資訊(2017年11期)2017-06-09 18:28:13
        基于SIFT特征的港口內(nèi)艦船檢測方法
        融合整體與局部特征的車輛型號識別方法
        基于判別性局部聯(lián)合稀疏模型的多任務(wù)跟蹤
        電測與儀表(2016年5期)2016-04-22 01:13:46
        基于MATLAB的道路交通標(biāo)志識別
        国产亚洲精品资源在线26u| 日本一区二区三区丰满熟女| 中文字幕av高清人妻| 国产69精品久久久久久久| 久久99精品国产99久久| 国产精品久久久久免费看| 亚洲码专区亚洲码专区| 激情综合色综合啪啪开心| 思思久久96热在精品国产| 国产精品无码久久久一区蜜臀| 国产精品久久国产三级国| 亚洲天堂成人av在线观看| 五月综合激情婷婷六月色窝| 一本大道东京热无码中字| 大量老肥熟女老女人自拍| 亚洲色图在线免费观看视频| 天堂资源中文最新版在线一区| 狠狠色狠狠色综合日日92| 成年女人午夜特黄特色毛片免| 日本精品一区二区三区二人码| 情侣黄网站免费看| 亚洲精品成人av一区二区| 久久久精品国产av麻豆樱花| 国产精品无码无卡无需播放器| 国产成人精品一区二区视频| 久久亚洲精品成人综合| 亚洲国产精品婷婷久久| 99热这里有精品| 无码中文日韩Av| 91精品国产综合久久国产| 日本丰满熟妇videossexhd| 亚洲av第一成肉网| 亚洲国产av一区二区三| 色综合久久中文综合网亚洲| 人人爽人人爽人人爽人人片av| 九九久久国产精品大片| 日本一区二区三区综合视频| 情人伊人久久综合亚洲| 中文字幕亚洲无线码在一区| 丁香婷婷激情俺也去俺来也 | 加勒比一本heyzo高清视频|