亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于弱光環(huán)境的車輛識(shí)別研究

        2024-04-02 03:42:28張峻祎
        現(xiàn)代電子技術(shù) 2024年7期
        關(guān)鍵詞:特征提取特征環(huán)境

        張峻祎,丁 冰,丁 潔

        (1.太原理工大學(xué)電氣與動(dòng)力工程學(xué)院,山西太原 030024;2.北京理工大學(xué)集成電路與電子學(xué)院,北京 100081)

        0 引 言

        隨著道路基建的完善與車輛保有量的提升,人們對(duì)于智能交通系統(tǒng)的需求日益增加。作為智能交通系統(tǒng)的基礎(chǔ),車輛檢測(cè)引起了研究人員的關(guān)注并逐漸成為相關(guān)領(lǐng)域研究的重點(diǎn)?;趫D像的車輛檢測(cè)算法可分為傳統(tǒng)檢測(cè)算法與基于深度學(xué)習(xí)的檢測(cè)算法。傳統(tǒng)檢測(cè)算法通?;谑止ぬ卣?,具有檢測(cè)精度差、檢測(cè)速度慢等問題;基于深度學(xué)習(xí)的車輛檢測(cè)算法因其檢測(cè)精度高、檢測(cè)速度快等優(yōu)勢(shì),逐漸成為車輛檢測(cè)研究的主要研究方向。相較于正常光照環(huán)境下的車輛識(shí)別,弱光環(huán)境下的車輛識(shí)別更為復(fù)雜,在弱光條件下車輛往往會(huì)與背景融合導(dǎo)致神經(jīng)網(wǎng)絡(luò)難以提取車輛特征,進(jìn)而難以識(shí)別車輛。因此,研究如何在弱光環(huán)境下識(shí)別車輛具有重要的現(xiàn)實(shí)意義。

        目前深度學(xué)習(xí)的檢測(cè)算法通常基于早期提出的經(jīng)典神經(jīng)網(wǎng)絡(luò)——AlexNet。在此之后,深度學(xué)習(xí)逐漸廣泛用于目標(biāo)檢測(cè)領(lǐng)域,并提出了許多經(jīng)典的底層框架,如VGG、GoogleNet、MobileNet[1]等,同時(shí)也提出了許多經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu),如FPN、CSP[2]、SPP、殘差結(jié)構(gòu)等。相較于傳統(tǒng)檢測(cè)方法,2014 年Ross 等人提出的基于卷積神經(jīng)網(wǎng)絡(luò)的RCNN 網(wǎng)絡(luò)在檢測(cè)準(zhǔn)確率方面有了大幅提升,而RCNN 系列網(wǎng)絡(luò)也是two-stage 檢測(cè)的代表作之一。相較于two-stage 檢測(cè),Girshick 等人于2016 年提出的one-stage 代表作YOLO 網(wǎng)絡(luò),以犧牲較小的準(zhǔn)確率,大幅提高了網(wǎng)絡(luò)的運(yùn)行速度,使之可以進(jìn)行實(shí)時(shí)檢測(cè),并在之后以此為基礎(chǔ)陸續(xù)提出了多個(gè)YOLO[3-6]系列網(wǎng)絡(luò),在檢測(cè)速度、檢測(cè)精度上都有了顯著的提高。近年來,隨著transformer[7-8]在NLP 領(lǐng)域的興起,許多研究人員嘗試將其引入到計(jì)算機(jī)視覺領(lǐng)域并提出了各種注意力機(jī)制[9-11],這些注意力機(jī)制在圖像分類、目標(biāo)識(shí)別等傳統(tǒng)計(jì)算機(jī)視覺任務(wù)中可有效提高網(wǎng)絡(luò)的效果,同時(shí)也有著非??捎^的發(fā)展前景。

        基于以上研究,可在正常光照條件下較好地完成各種車輛識(shí)別任務(wù)。但想要在弱光環(huán)境下完成車輛識(shí)別任務(wù)就需要進(jìn)一步的研究。文獻(xiàn)[12]通過融合來自CycleGAN的多尺度特征等方法提取弱光環(huán)境下的目標(biāo)車輛特征進(jìn)而進(jìn)行識(shí)別;文獻(xiàn)[13]基于全卷積網(wǎng)絡(luò)提出了一個(gè)端到端訓(xùn)練的低光圖像處理網(wǎng)絡(luò)以增強(qiáng)圖像在弱光環(huán)境下的特征;文獻(xiàn)[14]提出了一種改進(jìn)的BIMEF算法并將不同尺度的目標(biāo)車輛特征進(jìn)行融合以增強(qiáng)目標(biāo)車輛特征,進(jìn)而有效識(shí)別弱光環(huán)境下的車輛;文獻(xiàn)[15]提出了一種基于細(xì)粒度車輛識(shí)別的全局拓?fù)浼s束網(wǎng)絡(luò),采用全局拓?fù)浼s束的關(guān)系以集成目標(biāo)車輛各部分的特征進(jìn)而識(shí)別車輛。

        目前基于深度學(xué)習(xí)的弱光環(huán)境車輛檢測(cè)網(wǎng)絡(luò)雖然可以完成檢測(cè)任務(wù),但仍有提升的空間,主要包括以下三點(diǎn):

        1)雖然當(dāng)前弱光檢測(cè)神經(jīng)網(wǎng)絡(luò)可提取弱光環(huán)境下的目標(biāo)特征,但仍要考慮如何進(jìn)一步優(yōu)化網(wǎng)絡(luò)在弱光環(huán)境下的特征提取能力以提高網(wǎng)絡(luò)的檢測(cè)效果。

        2)為了能更好地在弱光環(huán)境下進(jìn)行車輛識(shí)別,通常會(huì)在網(wǎng)絡(luò)中設(shè)計(jì)復(fù)雜的模塊以提取弱光環(huán)境下的車輛特征。雖然可以提高網(wǎng)絡(luò)的檢測(cè)效果,但是也會(huì)使網(wǎng)絡(luò)更為復(fù)雜、檢測(cè)時(shí)間更長(zhǎng),因此也要考慮如何在保證網(wǎng)絡(luò)檢測(cè)效果的同時(shí)提高網(wǎng)絡(luò)的檢測(cè)速度。

        3)目前現(xiàn)有的方法雖然可以有效提取目標(biāo)車輛在弱光環(huán)境下的特征,但對(duì)訓(xùn)練數(shù)據(jù)集的要求較高,需要建立專門的對(duì)比數(shù)據(jù)集,即在相同背景環(huán)境、相同車輛、不同光照條件下的車輛圖片。

        為了建立這樣的數(shù)據(jù)集,一種方法是在不同的光照條件下拍攝相同背景環(huán)境、相同車輛的真實(shí)圖片,但這種方法對(duì)現(xiàn)實(shí)條件要求較高,很難獲得大量有效的圖片;另一種方法是拍攝車輛圖片后用計(jì)算機(jī)隨機(jī)調(diào)整亮度,并加入人工模擬噪聲,雖然這種方法可以獲得大量不同光照條件下的圖片,但訓(xùn)練出的網(wǎng)絡(luò)在效果上不如使用真實(shí)圖片的效果好。為了解決上述問題,本文提出了一種弱光環(huán)境下的車輛識(shí)別網(wǎng)絡(luò),在該網(wǎng)絡(luò)中,通過提出的特征提取模塊以提取弱光環(huán)境下的目標(biāo)車輛特征;使用設(shè)計(jì)的特征融合模塊以提高網(wǎng)絡(luò)的檢測(cè)精度;最后在網(wǎng)絡(luò)中使用模型結(jié)構(gòu)重參數(shù)化的方法以提高網(wǎng)絡(luò)的檢測(cè)速度。在構(gòu)建訓(xùn)練網(wǎng)絡(luò)的數(shù)據(jù)集時(shí)不需要額外地對(duì)照?qǐng)D片,僅使用弱光環(huán)境下的圖片就可訓(xùn)練網(wǎng)絡(luò)且取得較好的效果。

        1 本文網(wǎng)絡(luò)

        為了使網(wǎng)絡(luò)能在弱光環(huán)境下有效檢測(cè)目標(biāo)車輛,同時(shí)保證網(wǎng)絡(luò)檢測(cè)的實(shí)時(shí)性,本文基于YOLO-v7 網(wǎng)絡(luò),使用了PAN、SPP 等結(jié)構(gòu),提出了特征提取模塊、特征融合模塊,并使用模型結(jié)構(gòu)重參數(shù)化方法以優(yōu)化網(wǎng)絡(luò)。

        網(wǎng)絡(luò)的整體架構(gòu)如圖1 所示。

        圖1 網(wǎng)絡(luò)結(jié)構(gòu)

        網(wǎng)絡(luò)可分為三個(gè)部分:特征提取部分、特征增強(qiáng)部分與檢測(cè)部分。

        1)特征提取部分用以提取弱光圖像的特征,該部分由卷積模塊、ELAN 模塊、特征提取模塊等構(gòu)成,其核心是本文提出的特征提取模塊。

        2)特征增強(qiáng)部分用以增強(qiáng)特征提取部分提取到的圖像特征,進(jìn)一步提高網(wǎng)絡(luò)的檢測(cè)精度。該模塊由卷積模塊、特征融合模塊等模塊構(gòu)成,其核心是本文提出的特征融合模塊。

        3)檢測(cè)部分的核心是三個(gè)檢測(cè)輸出頭,用以輸出網(wǎng)絡(luò)在不同尺度上的預(yù)測(cè)結(jié)果,最后統(tǒng)一縮放映射到原圖片。

        1.1 特征提取模塊

        現(xiàn)有的目標(biāo)檢測(cè)網(wǎng)絡(luò)通常較為依賴輸入的圖像或視頻的質(zhì)量,即待檢測(cè)的圖片或視頻中目標(biāo)特征較為明顯時(shí)會(huì)有較好的效果。但在弱光環(huán)境下,目標(biāo)往往與背景相融合或被外界光源干擾,此時(shí)難以提取有效特征。為了解決該問題,本文提出了特征提取模塊,如圖2所示。

        圖2 特征提取模塊結(jié)構(gòu)

        考慮到弱光環(huán)境下圖像內(nèi)容較為復(fù)雜,如果使用簡(jiǎn)單的網(wǎng)絡(luò)結(jié)構(gòu)難以提取有效的目標(biāo)特征,因此采用多分支的方式設(shè)計(jì)特征提取模塊,將弱光環(huán)境下的特征提取問題分解為不同維度下特征相關(guān)的子問題,最后將多分支的輸出進(jìn)行融合以實(shí)現(xiàn)對(duì)弱光環(huán)境下目標(biāo)特征的提取。在特征提取模塊的構(gòu)成上,首先輸入特征提取模塊的特征圖經(jīng)過5 個(gè)串聯(lián)的卷積層,用以提取不同維度的特征,其中每個(gè)卷積層的后面都接了一層BN(Batch Normalization)層與一層Mish 激活函數(shù)層,用以提高網(wǎng)絡(luò)的訓(xùn)練速度與收斂速度,同時(shí)也防止過擬合。同時(shí),在其中加入了SimAM 注意力機(jī)制以進(jìn)一步提高該模塊的特征提取能力,用以從通道維度與空間維度對(duì)特征進(jìn)一步細(xì)化增強(qiáng),SimAM 注意力機(jī)制將在1.2 節(jié)中闡述。其次給上述每一個(gè)串聯(lián)的卷積層都并聯(lián)了一個(gè)子網(wǎng)絡(luò),其中每個(gè)子網(wǎng)絡(luò)由一層卷積層與一層反卷積層組成,最后將每一個(gè)子網(wǎng)絡(luò)的反卷積層輸出在深度上進(jìn)行拼接,并通過一個(gè)卷積核為1×1 的卷積層進(jìn)行特征的融合。最后也對(duì)該模塊使用模塊結(jié)構(gòu)重參數(shù)化的方法進(jìn)行優(yōu)化,以提高其運(yùn)行速度,模塊結(jié)構(gòu)重參數(shù)化將在1.3 節(jié)中闡述。

        圖3 為設(shè)計(jì)的特征提取模塊在對(duì)弱光環(huán)境下的圖像進(jìn)行增強(qiáng)后的效果圖,使用的圖片為訓(xùn)練集中的圖片。此時(shí)圖片成像效果更好,目標(biāo)車輛與背景環(huán)境有明顯的區(qū)分,目標(biāo)特征更為明顯,便于之后的檢測(cè)。

        圖3 特征提取模塊效果圖

        1.2 特征融合模塊

        為了進(jìn)一步提高網(wǎng)絡(luò)的檢測(cè)效果,在特征提取模塊后,本文設(shè)計(jì)了相應(yīng)的特征融合模塊,以對(duì)提取到弱光環(huán)境下的目標(biāo)特征進(jìn)一步的增強(qiáng)。特征融合模塊的具體結(jié)構(gòu)如圖4 所示。該模塊采用自上而下的傳播路徑與橫向連接的方式將特征提取模塊中不同尺度的特征圖進(jìn)行融合。首先,在特征提取部分的三個(gè)指定層各引出一個(gè)分支作為特征融合模塊的輸入,此時(shí)這三個(gè)輸入的特征圖尺寸不同,以便之后網(wǎng)絡(luò)利用不同維度的特征識(shí)別原始輸入圖像上不同大小的目標(biāo);其次,當(dāng)最小尺寸的特征圖輸入到特征融合模塊時(shí),先經(jīng)過三層并聯(lián)的池化層與一層卷積層,將每個(gè)池化層的輸出特征圖在深度上進(jìn)行拼接,再將拼接后的特征圖與卷積層輸出的特征圖再次在深度上進(jìn)行拼接,這樣既初步實(shí)現(xiàn)了不同尺度的特征圖融合,也提高了網(wǎng)絡(luò)對(duì)小目標(biāo)的檢測(cè)能力;然后,將上述拼接后的特征圖依次通過卷積、池化、上采樣等操作進(jìn)行進(jìn)一步處理,并與特征提取部分剩下的兩個(gè)輸入特征圖在指定的位置于深度上進(jìn)行拼接,此時(shí)特征融合模塊將低分辨率和語(yǔ)義強(qiáng)的特征與高分辨率及語(yǔ)義弱的特征相結(jié)合,以提高網(wǎng)絡(luò)的特征提取能力與對(duì)不同大小目標(biāo)的檢測(cè)能力;最后,在特征融合模塊的指定層引出三個(gè)分支作為該模塊的輸出。

        圖4 特征融合模塊結(jié)構(gòu)

        同時(shí),本文在特征融合模塊中引入了SimAM 注意力機(jī)制,以進(jìn)一步提高網(wǎng)絡(luò)的檢測(cè)效果。在視覺神經(jīng)科學(xué)中,信息量最大的神經(jīng)元通常與其周圍神經(jīng)元的放電模式不同且活動(dòng)的神經(jīng)元也會(huì)抑制其周圍神經(jīng)元的活動(dòng)。基于這一理論,不同于傳統(tǒng)的注意力機(jī)制對(duì)一個(gè)通道或一個(gè)空間位置的所有神經(jīng)元進(jìn)行同等的處理,SimAM 注意力機(jī)制在一維通道維度上與二維空間維度上進(jìn)一步提出了一個(gè)三維權(quán)重,通過設(shè)計(jì)的能量函數(shù)對(duì)網(wǎng)絡(luò)中每一個(gè)神經(jīng)元的重要性進(jìn)行評(píng)估,以增強(qiáng)特征在通道維度與空間維度的聯(lián)系。

        此時(shí)網(wǎng)絡(luò)的特征提取能力有了進(jìn)一步的增強(qiáng),同時(shí)也不會(huì)增加額外的參數(shù)以對(duì)網(wǎng)絡(luò)的運(yùn)行速度產(chǎn)生負(fù)面影響。

        1.3 模塊結(jié)構(gòu)重參數(shù)化

        基于以上所提出的網(wǎng)絡(luò),雖然可以有效地提高網(wǎng)絡(luò)對(duì)弱光環(huán)境下目標(biāo)特征的提取能力,但不可避免地使網(wǎng)絡(luò)的結(jié)構(gòu)更復(fù)雜。而在實(shí)際應(yīng)用中,復(fù)雜的網(wǎng)絡(luò)不僅對(duì)硬件有一定的要求,也會(huì)影響網(wǎng)絡(luò)的推理速度。因此,本文采用結(jié)構(gòu)重參數(shù)化的方法簡(jiǎn)化網(wǎng)絡(luò)模型,提高網(wǎng)絡(luò)運(yùn)行速度。

        結(jié)構(gòu)重參數(shù)化的核心思想是保留多分支結(jié)構(gòu)優(yōu)點(diǎn)的同時(shí)將多分支結(jié)構(gòu)轉(zhuǎn)為單路模型,這樣可以使得網(wǎng)絡(luò)更快、更靈活且節(jié)約內(nèi)存。在多分支結(jié)構(gòu)中,網(wǎng)絡(luò)推理在每個(gè)分支的推理速度不同,此時(shí)往往要等待所有的分支計(jì)算完成后才會(huì)進(jìn)行下一層推理,這無(wú)疑增加了網(wǎng)絡(luò)運(yùn)行的時(shí)間成本,同時(shí)也要考慮內(nèi)存訪問成本(Memory Access Cost, MAC),即在計(jì)算機(jī)計(jì)算時(shí)每一次計(jì)算都要訪問內(nèi)存。

        相較于單路模型,多分支結(jié)構(gòu)的訪問次數(shù)更多,消耗的時(shí)間也更多,因此結(jié)構(gòu)重參數(shù)化可提高網(wǎng)絡(luò)的運(yùn)行速度。同時(shí),相較于復(fù)雜的多分支結(jié)構(gòu),單路模型構(gòu)建的更簡(jiǎn)單,也更容易修改,因此結(jié)構(gòu)重參數(shù)化使得網(wǎng)絡(luò)更靈活。最后,相較于復(fù)雜的多分支結(jié)構(gòu),單路模型由于只有一條通道,也可以節(jié)約內(nèi)存,降低網(wǎng)絡(luò)對(duì)硬件的要求。

        模塊結(jié)構(gòu)重參數(shù)化的具體應(yīng)用如圖5 所示。

        圖5 模塊結(jié)構(gòu)重參數(shù)化

        最初設(shè)計(jì)的多分支結(jié)構(gòu)共有三個(gè)分支:第一個(gè)分支由一個(gè)卷積核為3×3的卷積層與一層BN 層組成;第二個(gè)分支由一個(gè)卷積核為1×1 的卷積層與一層BN 層組成;第三個(gè)分支只有一層BN 層。之后再將這三個(gè)分支的輸出在通道上拼接,最后輸入到激活函數(shù)中。為了進(jìn)一步優(yōu)化網(wǎng)絡(luò),首先是將卷積層與BN 層進(jìn)行融合,其中BN層的計(jì)算公式如下:

        式中:i= 1,2,…,c(c為通道數(shù))為輸入BN 層的特征圖的第i個(gè)通道;μi=為沿著輸入特征圖的批次方向計(jì)算每個(gè)相同通道位置處所有像素值的均值;=為沿著輸入特征圖的批次方向計(jì)算每個(gè)相同通道位置處所有像素的方差;ε為一個(gè)無(wú)窮小的正數(shù),用以防止分母處為0;γi與βi為待學(xué)習(xí)的BN參數(shù),一開始訓(xùn)練時(shí)分別設(shè)為1與0,之后可通過反向傳播進(jìn)行學(xué)習(xí)。

        對(duì)于方程(1),可以進(jìn)一步對(duì)其進(jìn)行變換,此時(shí)公式如下:

        進(jìn)一步將方程(2)展開,此時(shí)公式如下:

        此時(shí)將BN 層的計(jì)算公式轉(zhuǎn)換為y=WTx+b的形式,而在卷積神經(jīng)網(wǎng)絡(luò)中,其基礎(chǔ)卷積計(jì)算的形式也是y=WTx+b,也就是說,可以將相鄰的卷積層與BN 層融合為一層,此時(shí)公式如下:

        而在程序編寫中,為了使得經(jīng)過該模塊的輸入特征圖與輸出特征圖尺寸相同,在第一個(gè)卷積核為3×3 的分支中將輸入的特征圖周圍填充了一圈0;在第二個(gè)卷積核為1×1 的分支中,原輸入的特征圖不變,將卷積核周圍填充了一圈0,使其尺寸由1×1 變?yōu)?×3,但輸出結(jié)果不變;在第三個(gè)只有BN 層的分支中,為了使其滿足y=WTx+b的形式,人為添加了一層卷積,在該卷積層中卷積核尺寸為3×3,其不同通道的卷積核中心處的值依次為1,其余值分別為0,以此保證不改變?cè)敵龅那疤嵯聺M足形式要求。

        2 實(shí)驗(yàn)驗(yàn)證與結(jié)果分析

        2.1 實(shí)驗(yàn)平臺(tái)

        本文采用的操作系統(tǒng)版本為Ubuntu 18.04;處理器為Intel@Xeon?Silver 4210R CPU @2.40 GHz*20;GPU 為NVIDIA GeForce RTX 3090/PCIe/SSE2;CUDA 版本為11.4;深度學(xué)習(xí)框架為PyTorch 1.13.1;編程語(yǔ)言為Python。

        2.2 數(shù)據(jù)集與評(píng)價(jià)指標(biāo)

        本文自制了訓(xùn)練數(shù)據(jù)集,為了使網(wǎng)絡(luò)可以在不同光照環(huán)境下都可有效地檢測(cè)車輛,在制作數(shù)據(jù)集時(shí)選擇了不同光照環(huán)境(即正常光照環(huán)境與弱光環(huán)境)、不同背景、不同視角的道路圖片共計(jì)18 000 張。在訓(xùn)練網(wǎng)絡(luò)時(shí)按照7∶3 的比例將其劃分為訓(xùn)練集與驗(yàn)證集。同時(shí),也額外建立了一個(gè)測(cè)試數(shù)據(jù)集,用以檢測(cè)訓(xùn)練好的網(wǎng)絡(luò)針對(duì)弱光環(huán)境下的檢測(cè)效果,該測(cè)試數(shù)據(jù)集包含200 張弱光環(huán)境下的道路圖片。本文提出的網(wǎng)絡(luò)與后面對(duì)比實(shí)驗(yàn)提到的網(wǎng)絡(luò)在訓(xùn)練時(shí)都使用自制的訓(xùn)練數(shù)據(jù)集。

        本文使用的評(píng)價(jià)指標(biāo)為以下三種:準(zhǔn)確率P(Precision)、召回率R(Recall)與mAP(mean Average Precision),其計(jì)算公式如下:

        式中:當(dāng)網(wǎng)絡(luò)預(yù)測(cè)框與GT(Ground Truth)的IoU 大于設(shè)定閾值時(shí)為TP(True Positive),表示網(wǎng)絡(luò)檢測(cè)結(jié)果為目標(biāo)的同時(shí)實(shí)際上也是目標(biāo);當(dāng)網(wǎng)絡(luò)預(yù)測(cè)框與GT 的IoU小于設(shè)定閾值時(shí)為FP(False Positive),表示網(wǎng)絡(luò)檢測(cè)結(jié)果為目標(biāo)但實(shí)際上不是目標(biāo);FN(False Negative)表示網(wǎng)絡(luò)檢測(cè)結(jié)果不是目標(biāo)但實(shí)際上是目標(biāo)。此外,將網(wǎng)絡(luò)預(yù)測(cè)框與GT 的IoU 閾值設(shè)置為0.5。

        2.3 實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證提出方法的有效性,本文采用Faster-RCNN 網(wǎng)絡(luò)、RetinaNet 網(wǎng)絡(luò)、SSD 網(wǎng)絡(luò)、YOLO-v3 網(wǎng)絡(luò)、YOLO-v5 網(wǎng)絡(luò)、YOLO-v7 網(wǎng)絡(luò)這些主流檢測(cè)網(wǎng)絡(luò)作為對(duì)比網(wǎng)絡(luò),并使用自制的數(shù)據(jù)集對(duì)本文提出的網(wǎng)絡(luò)與對(duì)比網(wǎng)絡(luò)進(jìn)行訓(xùn)練。同時(shí)也對(duì)對(duì)比網(wǎng)絡(luò)進(jìn)行一定的優(yōu)化:在Faster-RCNN、SSD、RetinaNet 網(wǎng)絡(luò)中將底層特征提取部分改為ResNet50 以進(jìn)行結(jié)構(gòu)優(yōu)化,同時(shí)在SSD 網(wǎng)絡(luò)中采用了混合精度訓(xùn)練的方法;在RetinaNet 網(wǎng)絡(luò)加入了FPN 結(jié)構(gòu);而在YOLO-v3 網(wǎng)絡(luò)中加入了SPP 結(jié)構(gòu)并使用了CIoU 損失。各網(wǎng)絡(luò)的訓(xùn)練結(jié)果如圖6 與表1 所示,從中可見,本文提出的網(wǎng)絡(luò)不僅在mAP 值上高于其他網(wǎng)絡(luò),提高了檢測(cè)的效果,同時(shí)檢測(cè)單張圖片僅需要5.2 ms,低于其他大部分網(wǎng)絡(luò)且與檢測(cè)速度最快的網(wǎng)絡(luò)僅差了0.4 ms,保證了檢測(cè)的速度,可進(jìn)行實(shí)時(shí)檢測(cè)。

        表1 不同網(wǎng)絡(luò)檢測(cè)結(jié)果

        圖6 不同網(wǎng)絡(luò)效果對(duì)比

        本文也使用自制的測(cè)試數(shù)據(jù)集將提出的網(wǎng)絡(luò)與對(duì)比實(shí)驗(yàn)中檢測(cè)效果最好的網(wǎng)絡(luò)進(jìn)一步進(jìn)行測(cè)試,其結(jié)果如表2 所示。

        表2 網(wǎng)絡(luò)檢測(cè)結(jié)果對(duì)比

        由表2 可見,本文提出的網(wǎng)絡(luò)在檢測(cè)準(zhǔn)確率、召回率、mAP 上都有較好的表現(xiàn)。

        圖7是本文提出的網(wǎng)絡(luò)與對(duì)比網(wǎng)絡(luò)的實(shí)際檢測(cè)效果圖。

        圖7 實(shí)際檢測(cè)結(jié)果對(duì)比(漏檢)

        由圖7 可見:在對(duì)比網(wǎng)絡(luò)檢測(cè)的圖像中,通常存在漏檢目標(biāo)車輛的情況,如在無(wú)燈光輔助照明的條件下車輛會(huì)與背景相融合,此時(shí)肉眼難以有效看出目標(biāo)車輛,對(duì)比網(wǎng)絡(luò)也無(wú)法有效地檢測(cè)出來,甚至無(wú)法檢測(cè)到任何車輛目標(biāo),在圖像中的車輛重疊部分,由于光照環(huán)境差導(dǎo)致車輛特征不明顯,此時(shí)對(duì)比網(wǎng)絡(luò)只能檢測(cè)到1 個(gè)或0 個(gè)目標(biāo)車輛;而本文提出的網(wǎng)絡(luò)則可有效檢測(cè)出目標(biāo)車輛,效果較好。

        圖8 是本文提出的網(wǎng)絡(luò)與對(duì)比網(wǎng)絡(luò)的實(shí)際檢測(cè)效果圖。

        圖8 實(shí)際檢測(cè)結(jié)果對(duì)比(誤檢)

        由圖8 可見:在對(duì)比網(wǎng)絡(luò)檢測(cè)的圖像中,通常存在誤檢目標(biāo)車輛的情況,如圖中橋上的指示燈、車輛尾燈等也會(huì)被對(duì)比網(wǎng)絡(luò)誤檢測(cè)為車輛目標(biāo);而在本文提出的網(wǎng)絡(luò)中,不僅可以有效地檢測(cè)出目標(biāo)車輛,同時(shí)也不會(huì)將其他目標(biāo)誤檢為車輛,減少了誤檢問題的發(fā)生。

        3 結(jié) 語(yǔ)

        本文以one-stage 目標(biāo)檢測(cè)算法YOLO-v7 為基礎(chǔ),對(duì)弱光環(huán)境下的目標(biāo)車輛進(jìn)行檢測(cè),提出了特征提取模塊與特征融合模塊以增強(qiáng)網(wǎng)絡(luò)的特征提取能力與目標(biāo)識(shí)別能力,并使用模型結(jié)構(gòu)重參數(shù)化的方法以提高網(wǎng)絡(luò)的檢測(cè)速度,使網(wǎng)絡(luò)可以在保證檢測(cè)速度的前提下有效檢測(cè)弱光環(huán)境下的目標(biāo)車輛。在使用相同的數(shù)據(jù)集進(jìn)行訓(xùn)練后,本文方法不僅在檢測(cè)指標(biāo)上有較理想的效果,同時(shí)在實(shí)際檢測(cè)結(jié)果上也有較好的表現(xiàn)。在實(shí)驗(yàn)中,本文方法對(duì)弱光環(huán)境下小目標(biāo)的檢測(cè)有一定效果,但仍有較大的提升空間,下一階段的工作將以小目標(biāo)檢測(cè)為核心進(jìn)行研究。

        注:本文通訊作者為丁潔。

        猜你喜歡
        特征提取特征環(huán)境
        長(zhǎng)期鍛煉創(chuàng)造體內(nèi)抑癌環(huán)境
        一種用于自主學(xué)習(xí)的虛擬仿真環(huán)境
        孕期遠(yuǎn)離容易致畸的環(huán)境
        如何表達(dá)“特征”
        基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        不忠誠(chéng)的四個(gè)特征
        環(huán)境
        抓住特征巧觀察
        一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        日韩在线精品国产成人| 被黑人做的白浆直流在线播放| 国产精品情侣露脸av在线播放| 亚洲色图少妇熟女偷拍自拍 | 亚洲欧美精品伊人久久| 国产无码十八禁| 国产av天堂亚洲国产av麻豆| 久久熟女乱一区二区三区四区| 日本一区二区高清视频在线| 久久久国产精品123| 久久亚洲精品情侣| 婷婷色中文字幕综合在线| 女高中生自慰污免费网站| 国产在线播放免费人成视频播放 | 亚洲精品无码久久毛片| 百合av一区二区三区| 亚洲av午夜福利一区二区国产| 少妇精品亚洲一区二区成人| 最近最新中文字幕| 亚洲精品成人片在线观看| 中文字幕人妻丝袜成熟乱| 日韩精品免费观看在线| 日本本土精品午夜视频| 日本丰满熟妇videossexhd| 精品久久久无码中字| 久久精品国产亚洲vr| 大又黄又粗又爽少妇毛片| 亚洲av毛片在线网站| 亚洲娇小与黑人巨大交| 国内精品一区视频在线播放| 国产一区二区a毛片色欲| 日本一级片一区二区三区| 欧美国产激情18| 精品www日韩熟女人妻| 亚洲 暴爽 av人人爽日日碰| 国产av无码专区亚洲草草| 人妻精品人妻一区二区三区四区| 少妇仑乱a毛片| 18禁男女爽爽爽午夜网站免费| 久久久亚洲精品免费视频| 免费观看日本一区二区三区|