亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于語(yǔ)義分割的實(shí)時(shí)車道線檢測(cè)方法

        2022-06-03 00:41:50黃影平郭志陽(yáng)楊靜怡
        光電工程 2022年5期
        關(guān)鍵詞:深度特征檢測(cè)

        張 沖,黃影平,郭志陽(yáng),楊靜怡

        上海理工大學(xué)光電信息與計(jì)算機(jī)工程學(xué)院,上海 200093

        1 引言

        車道線識(shí)別是自動(dòng)駕駛環(huán)境感知的一項(xiàng)重要任務(wù)。準(zhǔn)確且快速地檢測(cè)出車道線,是無人車安全可靠行駛的前提。車道線檢測(cè)可分為傳統(tǒng)視覺車道線檢測(cè)以及基于深度學(xué)習(xí)的車道線檢測(cè)。傳統(tǒng)車道線檢測(cè)大多是基于幾何方法、使用一些曲線模型來擬合車道線[1-4]。最近幾年,卷積神經(jīng)網(wǎng)絡(luò)快速發(fā)展,在目標(biāo)檢測(cè)和場(chǎng)景語(yǔ)義分割中取得了很好的效果。由此,研究人員開始使用卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)車道線檢測(cè)并且取得了一定的進(jìn)展[5-12],但在模型的實(shí)時(shí)性及檢測(cè)精度上仍有提升的空間。本文借鑒語(yǔ)義分割的思想,設(shè)計(jì)了一個(gè)基于編碼解碼結(jié)構(gòu)的輕量級(jí)車道線分割網(wǎng)絡(luò)。

        主要貢獻(xiàn)有:1) 提出了一種高效的車道線識(shí)別方法,采用圖像語(yǔ)義分割的思想,通過編碼器-解碼器結(jié)構(gòu)的深度學(xué)習(xí)模型將車道線識(shí)別問題轉(zhuǎn)化為像素分類問題。2) 引入深度可分離卷積,并且設(shè)計(jì)了有效的輕量級(jí)卷積結(jié)構(gòu),包括一個(gè)用于特征編碼的下采樣卷積模塊LaneConv 和一個(gè)用于特征解碼的上采樣卷積模塊LaneDeconv,提高計(jì)算效率以解決常規(guī)語(yǔ)義分割方法中因復(fù)雜的卷積計(jì)算而導(dǎo)致實(shí)時(shí)性差的問題。3) 相關(guān)的研究表明采用注意力機(jī)制的CBAM[13]模型可以充分利用局部信息來聚焦場(chǎng)景的顯著特征。本文在編碼階段加入CBAM 模塊獲得更好的車道線特征提取能力,以提高車道線分割精度。4)使用Tusimple車道線數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)評(píng)估,與多種基于深度學(xué)習(xí)的車道線檢測(cè)算法的對(duì)比分析表明,本文方法在分割精度和分割速度上具有綜合優(yōu)勢(shì)。

        2 相關(guān)工作

        2.1 傳統(tǒng)方法

        大多數(shù)經(jīng)典的車道檢測(cè)方法都是基于手工特征,并采用預(yù)定義的曲線模型如線模型或拋物線模型來匹配線特征。Yue 等人[1]提出了一種基于樣條的車道模型,該模型描述了平行線對(duì)通用車道邊界的透視效果。與其他車道模型如直線模型和拋物線模型相比,它可以通過不同的控制點(diǎn)形成任意形狀,以描述更大范圍的車道結(jié)構(gòu)。Jiang 等人[2]使用雙拋物線模型來描述更精確和可靠的車道線。朱鴻宇等人[3]提出一種基于級(jí)聯(lián)霍夫變換的車道線檢測(cè)方法,使用感興趣區(qū)域(region of interest,ROI)選取,濾波,邊緣檢測(cè),非極大值抑制等預(yù)處理,克服了傳統(tǒng)霍夫變換在映射過程時(shí)需對(duì)每一個(gè)點(diǎn)進(jìn)行極坐標(biāo)轉(zhuǎn)換的缺點(diǎn),使計(jì)算更簡(jiǎn)單。Tian 等人[4]提出了一種基于直線段檢測(cè)器(line segment detector,LSD)、自適應(yīng)角度濾波器和雙卡爾曼濾波器的ADAS 車道檢測(cè)與跟蹤方法。在車道檢測(cè)過程中,將輸入圖像中的感興趣區(qū)域(ROI)轉(zhuǎn)換為灰度圖像,然后對(duì)灰度圖像進(jìn)行中值濾波、直方圖均衡化、圖像閾值化和透視映射等預(yù)處理。然后,在ROI 上應(yīng)用快速魯棒的LSD 算法,并使用所提出的自適應(yīng)角度濾波器,更有效地消除不正確的車道線。

        2.2 深度學(xué)習(xí)方法

        目前基于深度學(xué)習(xí)的車道檢測(cè)方法可分為兩類:基于檢測(cè)的方法[5-8]和基于分割的方法[9-12]。基于檢測(cè)的方法會(huì)將場(chǎng)景圖片劃分為一個(gè)個(gè)大小相同的小網(wǎng)格區(qū)域,然后利用YOLO 這樣的目標(biāo)檢測(cè)器對(duì)每一行的網(wǎng)格區(qū)域進(jìn)行檢測(cè)判斷是否屬于車道線,最后將屬于車道線的網(wǎng)格擬合為車道線。基于分割的方法是將場(chǎng)景圖片的每一個(gè)車道線像素都進(jìn)行分類,判斷該像素是否屬于車道線或者背景?;跈z測(cè)方法的優(yōu)點(diǎn)是速度較快,處理直線車道能力較強(qiáng)。但是當(dāng)環(huán)境復(fù)雜且彎道較多的情況下,檢測(cè)效果要明顯比基于分割的方法更差?;诜指畹姆椒ㄒ话銠z測(cè)效果都要比基于檢測(cè)的方法更好,但是速度上要稍遜。

        在基于檢測(cè)的方法中,Qin 等人[5]將車道檢測(cè)過程視為基于行的選擇問題,它為無視覺線索的車道線檢測(cè)問題提供了很好的解決方案。但是,其結(jié)構(gòu)損失函數(shù)導(dǎo)致了在彎曲處車道線檢測(cè)效果不佳。Chen 等人[6]通過將線的表示構(gòu)造為可學(xué)習(xí)的點(diǎn)來提出了PointLaneNet,然后使用目標(biāo)檢測(cè)網(wǎng)絡(luò)來檢測(cè)這些車道線點(diǎn)進(jìn)而得到車道線。Tabelini 等人[7]對(duì)輸入圖像進(jìn)行特征提取,并使用多項(xiàng)式對(duì)車道線候選標(biāo)記進(jìn)而直接輸出車道線曲線。Ji 等人[8]通過改進(jìn)的YOLO 網(wǎng)絡(luò),并根據(jù)車道線分布來確定不同的檢測(cè)尺度,從而提升檢測(cè)效果和速度。通常,基于檢測(cè)的方法可以實(shí)現(xiàn)快速的運(yùn)行速度,而準(zhǔn)確性卻不是很突出。在基于分割的方法中,Neven 等人[9]和劉彬等人[10]是通過結(jié)合分割方法和聚類算法,將車道檢測(cè)過程視為一個(gè)實(shí)例分割問題。但是,這種方法在車道線不清晰或車道被遮擋的情況下不是很有效,并且無法達(dá)到實(shí)時(shí)性。田錦等人[11]基于實(shí)例分割方法Mask-RCNN 對(duì)車道線進(jìn)行實(shí)例分割,并且提出了一種自適應(yīng)擬合的方法,通過多項(xiàng)式擬合對(duì)不同視野內(nèi)的車道線特征點(diǎn)進(jìn)行擬合。Pan 等人[12]提出了SCNN,通過用逐片段卷積代替普通卷積來改善無視覺提示的問題。但是,逐片段卷積需要更多卷積運(yùn)算以融合局部上下文和層中的通道特征且SCNN 不適用于包含任意數(shù)量車道的場(chǎng)景。

        3 方 法

        本文方法的網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示,整體網(wǎng)絡(luò)結(jié)構(gòu)是基于編碼器-解碼器結(jié)構(gòu)。其中特征編碼階段采用輕量級(jí)卷積LaneConv (LC)與深度可分離卷積[14](DWConv)進(jìn)行快速特征下采樣。接著利用CBAM模塊獲得更多的全局語(yǔ)義信息以及學(xué)習(xí)更多的通道特征,保留更多的且重要的車道線細(xì)節(jié)。在特征解碼階段采用輕量級(jí)的LaneDeConv (LD)與深度可分離卷積(DWConv)進(jìn)行快速特征上采樣,還原特征圖尺寸,最后將分割的二值車道線聚類產(chǎn)生最終的車道線語(yǔ)義分割結(jié)果。

        圖1 方法框圖Fig.1 Framework of the method

        網(wǎng)絡(luò)的詳細(xì)參數(shù)設(shè)置如圖2 所示,圖2 中的每個(gè)分支包含多個(gè)卷積層。每一層的運(yùn)算(opr)可以是DWConv、LC 或LD,其中DWConv 表示深度可分離卷積層,LC 表示LaneConv 層,LD 表示LaneDeconv層。每個(gè)操作包含一個(gè)核大小k,步幅s,輸出通道c,重復(fù)次數(shù)r。

        3.1 深度可分離卷積

        類似于膨脹卷積[15],深度可分離卷積(DWConv)也是一種可以有效減少卷積計(jì)算量的輕量化卷積。深度可分離卷積是在MobileNet[14]網(wǎng)絡(luò)中最先提出,隨后Xception[16]也使用了它,在參數(shù)量不增加的情況下提升了模型效果。深度可分離卷積過程分為兩步,分別是逐通道卷積和逐點(diǎn)卷積,如圖3(a)和圖3(b)所示。逐通道卷積是指一個(gè)3×3 的卷積核只會(huì)與一個(gè)通道進(jìn)行卷積運(yùn)算,避免了普通卷積每個(gè)卷積核需要和每一個(gè)通道進(jìn)行卷積運(yùn)算所帶來的高昂運(yùn)算,此過程會(huì)產(chǎn)生與輸入的通道數(shù)相同的特征圖。但是可以看出,逐通道卷積并沒有將輸入特征的不同通道進(jìn)行關(guān)聯(lián),因此還需要逐點(diǎn)卷積來加強(qiáng)不同的通道間的聯(lián)系。逐點(diǎn)卷積的卷積核大小為1×1,這里的卷積運(yùn)算會(huì)將上一步的特征圖的不同通道進(jìn)行一個(gè)加權(quán)組合,生成新的特征圖??梢钥闯觯煌谄胀ň矸e,深度可分離卷積是將卷積過程分成兩步,從而大量減少卷積所帶來的運(yùn)算并且具有和普通卷積相同的感受野和相同的輸出特征通道數(shù)。

        圖3 深度可分離卷積。(a) 逐通道卷積;(b) 逐點(diǎn)卷積Fig.3 Depth separable convolution.(a) Channel by channel convolution;(b) Pointwise convolution

        3.2 輕量化卷積與反卷積網(wǎng)絡(luò)

        本文由Inception-V3[17]得到啟發(fā),設(shè)計(jì)了一種全新的快速下采模塊LaneConv 以獲得更快的檢測(cè)速度。如圖4 (a)所示,首先將大小為H×W×C的輸入張量輸入到一個(gè)1×1 卷積中,使通道數(shù)減小到C/2,然后用一個(gè)3×3 卷積來進(jìn)行下采樣,再加上一個(gè)并行的3×3 最大池化來恢復(fù)C的通道大小。給定相同的輸入和輸出大小,3×3 卷積層需要9C2參數(shù)和9HWC2計(jì)算量,而LaneConv 只需要3C2參數(shù)量和9HWC2/8 計(jì)算量。由SqueezeSeg[18]得到啟發(fā),本文也設(shè)計(jì)了一個(gè)快速上采樣模塊LaneDeConv。如圖4 (b)所示,先使用1×1 卷積進(jìn)行降維,再進(jìn)行反卷積操作,之后將不同卷積核的特征輸出進(jìn)行拼接操作。其中:Conv是卷積運(yùn)算。Mpooling 是最大池化,?表示拼接操作。同時(shí),1×1 和3×3 表示卷積核大小,H×W×C表示張量形狀(高度、寬度、深度)。如表1 所示,LaneConv和LaneDeConv 顯然比普通卷積和反卷積具有更高的計(jì)算效率。

        表1 參數(shù)量和計(jì)算量對(duì)比Table 1 Comparison of parameters and computations

        圖4 (a) LaneConv 結(jié)構(gòu)圖;(b) LaneDeconv 結(jié)構(gòu)圖Fig.4 (a) Laneconv structure;(b) Lanedeconv structure

        3.3 引入注意力機(jī)制的特征提取模塊(CBAM)

        CBAM 模塊結(jié)合了通道注意力與空間注意力來提高特征的表達(dá)能力。在ResNet,Vgg 等分類網(wǎng)絡(luò)中加入CBAM 模塊,分類效果會(huì)有明顯的提升[13]。而在Faster-RCNN[19]等目標(biāo)檢測(cè)網(wǎng)絡(luò)中加入CBAM 時(shí),其目標(biāo)檢測(cè)效果也會(huì)提升[13]。因此本文嘗試在車道線分割網(wǎng)絡(luò)中加入CBAM 模塊,以增強(qiáng)網(wǎng)絡(luò)的車道線特征提取能力。

        在判斷像素是否屬于車道線時(shí),需要考慮不同通道特征圖上的特征信息。每個(gè)通道對(duì)于不同任務(wù)的重要性是不同的。通道注意力通過賦予每個(gè)通道不同的權(quán)重,以增強(qiáng)判斷重要特征通道的能力??臻g注意力負(fù)責(zé)捕獲全局上下文信息,可以將所有車道線像素的位置信息與特征圖上的像素相結(jié)合,有助于推斷出模糊像素。下面給出空間注意力模塊的作用原理。

        如圖5(a)所示,特征F∈RH×W×C作為輸入,接著使用平均池化和最大池化操作將F轉(zhuǎn)換為平均池化特征和最大池化特征。然后,將這兩個(gè)輸出特征送到可以融合所有通道特征的多層感知器(multiple perceptron,MLP)。最后,使用逐元素求和將兩個(gè)輸出特征向量進(jìn)行合并,以生成通道注意力,該通道注意力機(jī)制計(jì)算方式可以表示為

        其中:σ表示sigmoid 函數(shù),ω0和ω1表示MLP 權(quán)重,ω0∈RC/r×C和ω1∈RC×C/r,其中減速比r=1/8。

        如圖5(b)所示,假設(shè)將特征編碼后的最后一層特征F∈RH×W×C作為輸入,分別轉(zhuǎn)換為三個(gè)特征圖,其中{F1,F2,F3}∈RC×H×W。F1和F2用于計(jì)算遠(yuǎn)程相關(guān)性;F3用于計(jì)算遠(yuǎn)程依賴關(guān)系。然后,將它們重塑為RC×N,其中N是像素?cái)?shù)。Cij表示特征圖中第ith位置和第jth位置之間的相關(guān)性,如下所示:

        圖5 (a) 通道注意力;(b) 空間注意力結(jié)構(gòu)圖Fig.5 (a) Channel attention;(b) Spatial attention

        應(yīng)用Softmax 函數(shù)將相關(guān)Ci j歸一化為Sij∈[0,1]并計(jì)算空間注意圖S∈RN×N,如下所示:

        其中:Sij衡量第ith位置對(duì)第jth位置的影響。兩個(gè)位置的特征表示越相似,它們之間的相關(guān)性就越高。最后,本文在S和F3(xi)的轉(zhuǎn)置之間執(zhí)行矩陣乘法,并將最終輸出重塑為RC×H×W,表示為X=(x1,x2,...,xj,...,xH×W)。每個(gè)最終特征圖可以計(jì)算為

        3.4 二值分割

        訓(xùn)練二值分割是將車道線像素二值化,從而指明哪些像素屬于車道線,哪些像素屬于背景。為了處理遮擋或陰影情況,本文在構(gòu)造標(biāo)簽時(shí)將真實(shí)車道線上的點(diǎn)連接起來以形成一條車道,其中包括諸如汽車遮擋或車道線褪色之類的對(duì)象。另外,使用標(biāo)準(zhǔn)交叉熵?fù)p失函數(shù)用于計(jì)算該分支的損失,其輸出的結(jié)果是一維的二值圖。對(duì)于像素x的特定類別,其損失函數(shù)計(jì)算如下:

        3.5 像素聚類及曲線擬合

        像素聚類及曲線擬合是對(duì)網(wǎng)絡(luò)輸出二值分割結(jié)果的后處理。為了后續(xù)的車道線擬合以及使車道線形狀更加平整,本文使用DBSCAN 聚類對(duì)分割得到的像素進(jìn)行聚類。DBSCAN 聚類是一種基于密度的聚類,它將同一類別的像素聚集在一起形成一條車道線。DBSCAN 聚類需要設(shè)置兩個(gè)參數(shù) ε和MinPts,其中參數(shù) ε是指鄰域的距離閾值,某個(gè)像素點(diǎn) ε半徑范圍以內(nèi)區(qū)域稱之為其鄰域,即如圖6 所示的紅色虛線圓所示,MinPts是指某一鄰域中像素點(diǎn)的數(shù)量閾值,某像素點(diǎn)鄰域如果至少含有MinPts個(gè)車道像素點(diǎn),則稱它為核心對(duì)象,如圖6 中紅色實(shí)線小圓所示。DBSCAN聚類的過程就是通過將核心對(duì)象和其鄰域內(nèi)的像素點(diǎn)聚類成一條車道線,而不在紅圈范圍內(nèi)的像素點(diǎn)則會(huì)被當(dāng)作噪點(diǎn)。其聚類過程如圖6 所示,需要注意的是,兩個(gè)核心對(duì)象要在同一個(gè)鄰域內(nèi),才會(huì)被聚成一個(gè)類簇。

        圖6 DBSCAN 聚類過程Fig.6 DBSCAN cluster

        網(wǎng)絡(luò)的輸出是二值圖,如圖7(a)所示,對(duì)二值圖的像素進(jìn)行聚類后,得到如圖7(b)所示的聚類輸出圖。因?yàn)門usimple 數(shù)據(jù)集評(píng)估需要得到車道線的具體坐標(biāo),所以還需對(duì)聚類后的車道線進(jìn)行擬合,擬合效果輸出如圖7(c)所示。為了提升網(wǎng)絡(luò)的檢測(cè)速度以及進(jìn)行端到端的輸出,本文使用了簡(jiǎn)單的三次多項(xiàng)式對(duì)車道線進(jìn)行擬合。

        圖7 不同階段的輸出圖。(a) 二值輸出圖;(b) 聚類輸出圖;(c) 擬合輸出圖Fig.7 The output in different stages.(a) Binary output;(b) Clustering output;(c) Fitting output

        4 實(shí)驗(yàn)結(jié)果與分析

        4.1 Tusimple 數(shù)據(jù)集

        本文采用Tusimple 數(shù)據(jù)集來驗(yàn)證模型的網(wǎng)絡(luò)性能。Tusimple 數(shù)據(jù)集是目前最常用的車道線檢測(cè)數(shù)據(jù)集,它含有3626 張訓(xùn)練圖片和2782 張測(cè)試圖片,包含多種天氣狀況,交通狀況。車道線多樣性方面包含了2 車道、3 車道、4 車道,以及少量的5 車道。圖像的注釋是json 格式的文件,文件中存儲(chǔ)著車道線上離散點(diǎn)的位置信息,即初始標(biāo)注是以點(diǎn)的連續(xù)車道線點(diǎn)的形式。在實(shí)際使用時(shí),本文將這些車道線點(diǎn)連接起來轉(zhuǎn)換成車道線的二值圖。

        4.2 評(píng)價(jià)指標(biāo)

        實(shí)驗(yàn)結(jié)果采用與真實(shí)標(biāo)記相同的格式進(jìn)行評(píng)價(jià),即每個(gè)車道線用一組固定y坐標(biāo)間隔的點(diǎn)表示。因此,需要對(duì)車道分割結(jié)果進(jìn)行后處理后擬合車道線點(diǎn),本文采用三次多項(xiàng)式擬合作為后處理。主要評(píng)價(jià)指標(biāo)由Tusimple 數(shù)據(jù)集官方提供的準(zhǔn)確度(Acc),假陽(yáng)性率(FP)與假陰性率(FN)指標(biāo),計(jì)算方式如下所示:

        其中:Cpred是預(yù)測(cè)正確點(diǎn),即預(yù)測(cè)點(diǎn)和真實(shí)點(diǎn)在一定閾值內(nèi),Cgt是真實(shí)點(diǎn)。除了準(zhǔn)確度,還提供了假陽(yáng)性率(FP)與假陰性率(FN)指標(biāo):

        其中:Fpred是預(yù)測(cè)錯(cuò)誤的車道線數(shù)量,Npred是預(yù)測(cè)正確的車道線數(shù)量,Mpred沒有正確預(yù)測(cè)真實(shí)車道線數(shù)量,Ngt是真實(shí)的車道線數(shù)量。

        另外,由于本文的模型是語(yǔ)義分割網(wǎng)絡(luò),那么均交并比(mIoU)也將作為一個(gè)重要的評(píng)估指標(biāo)。在本文中車道線的寬度設(shè)為10 pixels,mIoU計(jì)算方式可表示為

        其中:nc是類別數(shù),ti是真實(shí)情況下類別i的像素總數(shù),ni j表示預(yù)測(cè)屬于類別j的i類像素的數(shù)量。

        4.3 結(jié)果對(duì)比

        4.3.1 可視化評(píng)估

        本文方法與LaneNet[11]都是一個(gè)端到端的車道線分割網(wǎng)絡(luò)。所以本文主要與LaneNet 進(jìn)行可視化結(jié)果對(duì)比。數(shù)據(jù)均采用Tusimple 數(shù)據(jù)集中的圖片,對(duì)比結(jié)果如圖8 所示。

        圖8 在TuSimple 數(shù)據(jù)集下本文方法和基準(zhǔn)的可視化結(jié)果比較。(a) 原始場(chǎng)景;(b) 真值;(c) LaneNet 結(jié)果;(d) 本文結(jié)果Fig.8 Comparison between visualization results of baseline and our method on TuSimple.(a) Original scene;(b) True value;(c) Lanenet results;(d) Results of our method

        圖8 中紅色虛線框是兩個(gè)網(wǎng)絡(luò)的效果對(duì)比??梢钥闯觯琇aneNet 對(duì)車道線細(xì)節(jié)部分處理的并不好,而本文的檢測(cè)效果與真值相比,在各種情況下都能提供完美的檢測(cè)結(jié)果。紅色虛線框代表了因?yàn)檎趽醯仍蛟斐傻能嚨谰€漏檢,而本文的網(wǎng)絡(luò)可以借助CBAM恢復(fù)被遮擋的車道線。可以看出,LaneNet 在紅色框中生成錯(cuò)誤的檢測(cè)結(jié)果,具體地說,LaneNet 沒有很好地檢測(cè)到圖8 中遮擋的車道線,而本文的網(wǎng)絡(luò)可以更清楚地檢測(cè)到這些被遮擋的車道線。在第3 行中,LaneNet 僅僅識(shí)別出小部分未被遮擋的車道線,而本文網(wǎng)絡(luò)可以完整準(zhǔn)確地識(shí)別出這些車道線。此外,為了探究CBAM 對(duì)網(wǎng)絡(luò)的影響,本文還進(jìn)行了消融實(shí)驗(yàn),效果對(duì)比如圖9 黃色虛線部分所示,可以看出加入了CBAM 之后,能夠提升網(wǎng)絡(luò)的車道線分割精度。

        圖9 加入CBAM 前后效果對(duì)比。(a)未加入CBAM;(b)加入了CBAMFig.9 Comparison of effects before and after adding CBAM.(a) Not joined CBAM;(b) Joined CBAM

        圖10 顯示了本文的網(wǎng)絡(luò)在Tusimple 數(shù)據(jù)集的測(cè)試集上的一些經(jīng)典場(chǎng)景下生成的視覺結(jié)果。這些場(chǎng)景包括遮擋、陰影、多車道、曲線等情況。可以看出,本文的方法在各種情況下均表現(xiàn)良好。

        圖10 本文方法在某些典型情況下生成的視覺結(jié)果Fig.10 Visual results generated by our method on some of typical scenarios

        4.3.2 定量評(píng)估

        在定量評(píng)估中,本文選取了幾個(gè)最近幾年提出的車道線檢測(cè)方法來與本文方法的數(shù)據(jù)進(jìn)行定量比較。這些方法包括了基于檢測(cè)的方法和基于分割的方法。使用的數(shù)據(jù)集為Tusimple 數(shù)據(jù)集,對(duì)比結(jié)果如表2所示。

        表2 與其他方法在Tusimple 數(shù)據(jù)集上的比較結(jié)果Table 2 Comparison results with other methods on tusimple dataset

        可以看出本文的網(wǎng)絡(luò)的mIoU 達(dá)到了64.46%,超過了表中大部分基于分割的車道線識(shí)別方法,這表明了本文能夠很好的將車道線從場(chǎng)景中分割出來。需要注意的是,基于檢測(cè)的車道線識(shí)別方法無法使用mIoU這一指標(biāo)來評(píng)估。另外,由于Acc,FP和FN這三個(gè)評(píng)估指標(biāo)十分依賴于后處理,而本文僅使用了簡(jiǎn)單的三項(xiàng)式擬合,這樣的擬合在彎道情況下可能會(huì)出現(xiàn)擬合偏差。而PointLaneNet 可以直接得到車道線點(diǎn)的坐標(biāo),更加契合Tusimple 數(shù)據(jù)集的評(píng)估方式,因此本文方法在評(píng)估指標(biāo)上略差于PointLaneNet。而SCNN 使用了更加復(fù)雜的后處理,因此評(píng)估指標(biāo)上更加優(yōu)秀但效率上要稍差。然而在分割網(wǎng)絡(luò)對(duì)比中,mIoU能夠更加直觀反應(yīng)模型是否能夠精確地將車道線分割出來。從表2 的mIoU對(duì)比中,本文方法體現(xiàn)出明顯的優(yōu)勢(shì),也反應(yīng)了CBAM 能夠更好地提高車道線像素識(shí)別的精度。此外,為了了解新引入的卷積結(jié)構(gòu)除提高檢測(cè)速度外,對(duì)車道線檢測(cè)精度的影響,本文加入了消融實(shí)驗(yàn),結(jié)果如表2 中本文方法2 所示。和本文方法3 的對(duì)比結(jié)果顯示,新卷積結(jié)構(gòu)的加入會(huì)對(duì)分割精度有一定程度的降低,但是分割速度會(huì)有明顯的提升。

        在速度方面,本文的網(wǎng)絡(luò)可以達(dá)到98.7 f/s 的速度,能夠完成實(shí)時(shí)的車道線識(shí)別任務(wù),明顯優(yōu)于其他基于分割的車道線識(shí)別網(wǎng)絡(luò),但要稍遜于基于檢測(cè)的車道線識(shí)別網(wǎng)絡(luò)。因?yàn)榉指罹W(wǎng)絡(luò)計(jì)算量要比檢測(cè)網(wǎng)絡(luò)更大,而且本文的網(wǎng)絡(luò)還需要對(duì)像素進(jìn)行聚類,增加了計(jì)算量??偟膩碚f,本文的模型在檢測(cè)精度和速度方面展現(xiàn)了更綜合的優(yōu)勢(shì)。

        5 總結(jié)

        本文提出了一種高效的車道線語(yǔ)義分割方法,通過編碼器和解碼器結(jié)構(gòu)以及加入輕量化卷積,并結(jié)合CBAM 改善了車道線分割網(wǎng)絡(luò)的速度與精度。實(shí)驗(yàn)表明,CBAM 能夠提升分割的細(xì)節(jié)和增強(qiáng)網(wǎng)絡(luò)的全局信息捕獲能力,從而提高了車道線像素分割能力。此外,本文設(shè)計(jì)了高效的卷積結(jié)構(gòu)LaneConv 和LaneDeconv 并引入了深度可分離卷積來降低模型計(jì)算復(fù)雜性,提高運(yùn)行速度。在Tusimple 數(shù)據(jù)集上進(jìn)行的定量和定性實(shí)驗(yàn),結(jié)果表明,與其他方法相比,本文的模型具有綜合優(yōu)勢(shì)。

        猜你喜歡
        深度特征檢測(cè)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        深度理解一元一次方程
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        深度觀察
        深度觀察
        深度觀察
        抓住特征巧觀察
        久久久久无码精品国产app | 亚洲日本精品一区二区三区| 色婷婷久久精品一区二区| 性生交片免费无码看人| 久久欧美与黑人双交男男| 国色天香精品亚洲精品| 日韩美女高潮流白浆视频在线观看| 久久精品国产亚洲av一| 中文字幕亚洲高清视频| 亚洲无线一二三四区手机| 台湾佬综合网| 日韩国产一区| 久久这里只有精品黄色| 美丽的小蜜桃在线观看| 免费无码又黄又爽又刺激| 99成人精品| 成人性生交大片免费看7| 亚洲最大水蜜桃在线观看| 婷婷亚洲久悠悠色悠在线播放| 国产精品亚洲一区二区杨幂| 亚洲欧美日本人成在线观看| 全亚洲最大的私人影剧院在线看| 中文字幕乱码高清完整版| 亚洲日韩欧美国产另类综合| 亚洲国产精品免费一区| 国产精品亚洲二区在线看| 国产精品白丝久久av网站| 最近日本中文字幕免费完整 | 一区二区三区在线观看视频免费| 激情五月婷婷一区二区| 白天躁晚上躁麻豆视频| 久久久精品456亚洲影院| 伊人婷婷综合缴情亚洲五月| 国产一区二区三区在线观看完整版| 人妻无码一区二区视频| av色综合网站| 国产自拍视频一区在线| 在办公室被c到呻吟的动态图| 日本高清一区二区三区水蜜桃 | 蜜桃臀无码内射一区二区三区| 色人阁第四色视频合集网|