亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)YOLOv5s的車載紅外圖像目標(biāo)檢測(cè)

        2022-04-14 03:26:30甜,李穎,王
        現(xiàn)代計(jì)算機(jī) 2022年2期
        關(guān)鍵詞:特征檢測(cè)模型

        宋 甜,李 穎,王 靜

        (四川大學(xué)電子信息學(xué)院,成都 610065)

        0 引言

        車載紅外熱成像系統(tǒng)具有紅外線探測(cè)能力,可感應(yīng)人眼視覺(jué)之外的紅外線,能夠大幅度改善駕駛員夜間駕駛的環(huán)境感知能力,從而提高駕駛員的駕駛安全系數(shù)和駕車體驗(yàn),對(duì)夜間輔助駕駛具有重要意義。車載熱成像系統(tǒng)探測(cè)距離遠(yuǎn)且不依賴光源,所以車載紅外圖像具有分辨率較低、目標(biāo)小的特點(diǎn),給夜間目標(biāo)檢測(cè)帶來(lái)了一定的困難。且受限于車載嵌入式系統(tǒng)有限的負(fù)載能力和車載動(dòng)態(tài)環(huán)境,要求檢測(cè)網(wǎng)絡(luò)具有輕量化和實(shí)時(shí)高效的特點(diǎn)。因此,希望針對(duì)車載熱成像系統(tǒng)的特點(diǎn),提出一種目標(biāo)檢測(cè)方法。

        目標(biāo)檢測(cè)(object detection)技術(shù)作為視覺(jué)智能領(lǐng)域系統(tǒng)的一個(gè)重要研究方向,廣泛應(yīng)用于機(jī)器人導(dǎo)航、智能視頻監(jiān)控、工業(yè)檢測(cè)等諸多領(lǐng)域,通過(guò)計(jì)算機(jī)視覺(jué)減少對(duì)人力資本的消耗,具有重要的現(xiàn)實(shí)意義。目前基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法按照其功能主要可以分為基于區(qū)域提名的和基于端到端學(xué)習(xí)的目標(biāo)檢測(cè)模型兩類。2014年R.Girshick等提出的基于候選區(qū)域加卷積神經(jīng)網(wǎng)絡(luò)的R-CNN算法就屬于第一種目標(biāo)檢測(cè)模型,該算法的提出開(kāi)啟了基于 RCNN的研究熱潮。由于R-CNN系列的檢測(cè)過(guò)程中候選框的生成和邊框的回歸這兩個(gè)操作是分開(kāi)進(jìn)行的,從而使模型對(duì)于交通目標(biāo)的檢測(cè)速度達(dá)不到實(shí)時(shí)性的要求。于是在2016—2018年,國(guó)內(nèi)外的專家學(xué)者相繼提出基于深度學(xué)習(xí)的單階段目標(biāo)檢測(cè)實(shí)時(shí)性算法YOLO系列和SDD系列,YOLO把物體分類和邊界框預(yù)測(cè)結(jié)合在一起,直接通過(guò)回歸得到預(yù)測(cè)的邊界框和對(duì)應(yīng)的置信度和類別,SSD中采用特征金字塔,豐富了特征圖的尺寸,使得不同尺寸的特征圖擁有不同的感受野,對(duì)應(yīng)檢測(cè)不同尺寸的目標(biāo),從而解決了YOLOv1在小目標(biāo)上檢測(cè)困難,定位不準(zhǔn)的問(wèn)題。并且隨著后續(xù)學(xué)者的不斷改進(jìn),于2021年,Ultralytics公司推出了YOLOv5,YOLOv5是在原有的YOLOv4的架構(gòu)基礎(chǔ)上從各個(gè)方面引入一些優(yōu)化方法進(jìn)行改進(jìn)。相比于其它的目標(biāo)檢測(cè)算法,YOLOv5以其速度快、精度高而受到廣泛關(guān)注。由于YOLOv5網(wǎng)絡(luò)具有推理速度快、檢測(cè)精度高、體積小等優(yōu)點(diǎn),適合部署到車載嵌入式系統(tǒng)中。所以本文以YOLOv5網(wǎng)絡(luò)群中深度和特征圖寬度最小的YOLOv5s為車載紅外圖像目標(biāo)檢測(cè)的基本框架,對(duì)SPP模塊進(jìn)行密集連接的特征融合并添加到40×40和80×80大小的特征層,在骨干網(wǎng)絡(luò)的最后一層添加為輕量化網(wǎng)絡(luò)設(shè)計(jì)的坐標(biāo)注意力模塊(coordinate attention,CA),并 對(duì) 網(wǎng) 絡(luò) 的 邊 界 框 回 歸(bounding box regression,BBR)損失函數(shù)進(jìn)行改進(jìn),實(shí)驗(yàn)結(jié)果表明改進(jìn)網(wǎng)絡(luò)能夠提升網(wǎng)絡(luò)的檢測(cè)效果。

        1 YOLOv5s目標(biāo)檢測(cè)模型

        YOLOv5s網(wǎng) 絡(luò) 由Input、Backbone、Neck、Prediction四個(gè)部分組成。其網(wǎng)絡(luò)模型結(jié)構(gòu)如圖1所示。

        圖1 YOLOv5s網(wǎng)絡(luò)模型結(jié)構(gòu)

        1.1 Input

        Input輸入端包括Mosaic數(shù)據(jù)增強(qiáng)、自適應(yīng)錨框計(jì)算、自適應(yīng)圖片縮放三部分。Mosaic數(shù)據(jù)增強(qiáng)采用四張圖片,通過(guò)隨機(jī)縮放、隨機(jī)裁剪、隨機(jī)排布的方式進(jìn)行拼接。YOLOv5s初始設(shè)定了三種大小的錨框,每次訓(xùn)練之前,自適應(yīng)地計(jì)算不同訓(xùn)練集中的最佳錨框點(diǎn)。

        1.2 Bac kbone

        YOLOv5s的Backbone結(jié)構(gòu)由Focus、CBS、C3和SPP(spatial pyramid pooling)4個(gè)模塊組成。Focus模塊分為兩個(gè)步驟:切片拼接和卷積。CBS模塊由Conv2d、BN(BatchNorm2d)和SiLU(sigmoid weighted linear unit)組成。C3模塊由卷積層和X個(gè)Bottleneck模塊Concate組成。BottleNeck結(jié)構(gòu)本質(zhì)上是一個(gè)殘差網(wǎng)絡(luò),先通過(guò)一個(gè)1×1的卷積層,再通過(guò)一個(gè)3×3的卷積層,如果輸入和輸出的通道數(shù)相同且允許連接的時(shí)候,則把原始輸入和經(jīng)過(guò)兩個(gè)卷積后的結(jié)果進(jìn)行相加,作為最終的結(jié)果輸出。SPP模塊由四個(gè)并行的分支構(gòu)成,分別是池化核為5×5,9×9,13×13的最大池化和一個(gè)跳躍連接。

        1.3 Nec k

        YOLOv5s中采用FPN+PAN結(jié)構(gòu)作為Neck。在Backbone中,通過(guò)卷積下采樣后,特征圖的尺寸被不斷減小,在得到高層級(jí)特征的同時(shí),也伴隨著的信息的流失,越高級(jí)的特征圖包含的語(yǔ)義信息越豐富,而越淺層的特征圖包含位置信息更為豐富。特征金字塔網(wǎng)絡(luò)(Feature Pyramid Networks,F(xiàn)PN)通過(guò)上采樣將高層級(jí)的特征回流傳遞,與低層特征融合,增加淺層特征圖中的語(yǔ)義信息,提高小目標(biāo)的檢測(cè)性能。

        然而,隨著研究的不斷深入和目標(biāo)檢測(cè)算法的不斷發(fā)展,人們發(fā)現(xiàn),淺層的語(yǔ)義信息對(duì)于深層特征圖在檢測(cè)大尺寸物體時(shí)也有增強(qiáng)的效果,所以PANet(path aggregation network)被提出來(lái),并在語(yǔ)義分割任務(wù)中取得了出色的結(jié)果。YOLOv5s借鑒了PANet的思想,在FPN的下采樣后,又添加了2個(gè)PANet結(jié)構(gòu),形成一個(gè)自底向上的特征金字塔。通過(guò)以3×3的卷積核以步幅為2對(duì)FPN后獲得的最大尺度的特征圖做卷積操作,在重新進(jìn)行下采樣提取特征的同時(shí),縮小圖片的尺寸,然后與FPN中相同尺寸的特征圖做橫向連接,實(shí)現(xiàn)較大尺寸特征圖中的位置信息回傳到高層較小尺寸的特征圖中,提升對(duì)于大尺寸物體的檢測(cè)精度。

        通過(guò)FPN+PAN結(jié)構(gòu),實(shí)現(xiàn)了自上而下和自底向上的雙向融合。FPN+PAN結(jié)構(gòu)如圖2所示。

        圖2 FPN+PAN結(jié)構(gòu)

        1.4 Pr edi c t i on

        Prediction部分包括邊界框回歸損失函數(shù)和非極大值抑(non-maximum suppression,NMS)。YOLOv5s中使用CIOU Loss作為損失函數(shù),在目標(biāo)檢測(cè)結(jié)構(gòu)后處理階段,針對(duì)出現(xiàn)的眾多目標(biāo)框的篩選,采用加權(quán)NMS操作,獲得最優(yōu)目標(biāo)框。

        2 改進(jìn)型YOLOv5s介紹

        本文以YOLOv5s網(wǎng)絡(luò)結(jié)構(gòu)為基礎(chǔ),首先對(duì)SPP模塊進(jìn)行改進(jìn),引入密集連接減少特征丟失,并將改進(jìn)后的SPP模塊分別添加到40×40和80×80大小的特征層,從而提升檢測(cè)準(zhǔn)確度。然后針對(duì)車載紅外圖像分辨率低,目標(biāo)小且細(xì)節(jié)模糊的特點(diǎn),在骨干網(wǎng)絡(luò)的最后一層后即第一個(gè)C3_2模塊后添加CA注意力模塊,使模型能夠更好地學(xué)習(xí)重要的特征和感興趣的區(qū)域,對(duì)非背景物體有所側(cè)重。最后對(duì)網(wǎng)絡(luò)的邊界框損失函數(shù)進(jìn)行改進(jìn),采用EIOULoss代替網(wǎng)絡(luò)原本的CIOU Loss。

        2.1 改進(jìn)的SPP模塊

        SPP模塊嵌在YOLOv5s骨干網(wǎng)絡(luò)最后一個(gè)CBS模塊之后,由四個(gè)并行的分支構(gòu)成,分別是池化核為5×5,9×9,13×13的最大池化和一個(gè)跳躍連接。不同尺度的最大池化和跳躍連接,能夠讓圖片學(xué)習(xí)到不同尺度的特征,再將局部和全局特征融合,豐富了特征圖的表達(dá)能力。其中最大池化將圖像劃分為若干個(gè)矩形區(qū)域,對(duì)每個(gè)子區(qū)域輸出最大值。最大池化操作雖然能減少冗余信息,但是也容易造成特征信息的丟 失。本 文 受DenseNet的 啟 發(fā),借 鑒DenseNet構(gòu)造密集連接,加強(qiáng)特征復(fù)用的思想,對(duì)SPP模塊進(jìn)行改進(jìn),提出了SPP+模塊,從而減少SPP模塊最大池化帶來(lái)的特征信息丟失。改進(jìn)前后模塊結(jié)構(gòu)如圖3所示。

        圖3 改進(jìn)前后模塊結(jié)構(gòu)

        與SPP模塊不同,改進(jìn)后的SPP+模塊在將四個(gè)不同感受野的特征進(jìn)行concat連接前首先對(duì)各感受野的特征之間進(jìn)行密集連接,特征融合操作加強(qiáng)了特征的復(fù)用率,減少了三次最大池化操作帶來(lái)的特征信息丟失。

        YOLOv5s中SPP模塊只嵌在特征圖尺度最小的特征層后,輸入圖片尺寸為640×640時(shí)對(duì)應(yīng)20×20尺寸大小的特征圖,為了同時(shí)提高40×40和80×80大小的特征的表達(dá)能力和特征復(fù)用,本文將SPP+模塊插入網(wǎng)絡(luò)的第13層和第17層,即第一次和第二次concat操作后。添加SPP+模塊的網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

        圖4 SPP+模塊添加位置示意圖

        2.2 注意力機(jī)制模塊

        為了輔助駕駛員掌握遠(yuǎn)處的交通情況以便提前做好應(yīng)對(duì)準(zhǔn)備,車載熱成像系統(tǒng)具有探測(cè)距離遠(yuǎn)的特點(diǎn),所以車載紅外圖像分辨率低,圖像中大多數(shù)的目標(biāo)都比較小且細(xì)節(jié)模糊,網(wǎng)絡(luò)在進(jìn)行特征提取時(shí)容易丟失特征。所以,我們?cè)跈z測(cè)網(wǎng)絡(luò)中添加注意力機(jī)制,幫助網(wǎng)絡(luò)從眾多的信息中選擇出對(duì)當(dāng)前檢測(cè)任務(wù)目標(biāo)更關(guān)鍵的信息,通過(guò)使用注意力機(jī)制能夠使模型更多地關(guān)注重要特征并抑制背景信息等不必要的特征,從而提高模型的表現(xiàn)力。

        本文使用的是坐標(biāo)注意力模塊(coordinate attention,CA),針對(duì)通道注意力通常會(huì)忽略對(duì)生成空間選擇性注意力圖非常重要的位置信息的問(wèn)題,將位置信息嵌入到通道注意力中,使得網(wǎng)絡(luò)能夠在更大的區(qū)域上進(jìn)行注意力,CA注意力模塊添加的位置如圖5所示。

        圖5 CA模塊添加位置示意圖

        不同于通道注意力將輸入通過(guò)2D全局池化轉(zhuǎn)化為單個(gè)特征向量,CA模塊將通道注意力分解為兩個(gè)沿著不同方向聚合特征的1D特征編碼過(guò)程。這樣的好處是可以沿著一個(gè)空間方向捕獲長(zhǎng)程依賴,沿著另一個(gè)空間方向保留精確的位置信息。然后,將生成的特征圖分別編碼,形成一對(duì)方向感知和位置敏感的特征圖,它們可以互補(bǔ)地應(yīng)用到輸入特征圖來(lái)增強(qiáng)感興趣的目標(biāo)的表示。

        CA模塊通過(guò)精確的位置信息對(duì)通道關(guān)系和長(zhǎng)程依賴進(jìn)行編碼,分為兩個(gè)步驟:坐標(biāo)信息嵌入(coordinate information embedding)和坐標(biāo)注意力生成(coordinate attention generation),結(jié)構(gòu)如圖6所示。

        圖6 CA注意力模塊結(jié)構(gòu)

        2.2.1 坐標(biāo)信息嵌入

        全局池化方法通常用于通道注意編碼空間信息的全局編碼,但由于它將全局空間信息壓縮到通道描述符中,導(dǎo)致難以保存位置信息。為了促使注意力模塊能夠捕捉具有精確位置信息的遠(yuǎn)程空間交互,CA模塊按照以下公式將全局池化進(jìn)行分解,轉(zhuǎn)化為一對(duì)一維特征編碼:

        具體而言,對(duì)輸入X,先使用尺寸H×1和1×W的池化核沿著水平坐標(biāo)方向和豎直坐標(biāo)方向?qū)γ總€(gè)通道進(jìn)行編碼,因此,高度為h的第c個(gè)通道的輸出表示為:

        2.2.2 坐標(biāo)注意力生成

        通過(guò)坐標(biāo)信息嵌入可以很好的獲得全局感受野并編碼精確的位置信息。為了利用由此產(chǎn)生的表征,提出了坐標(biāo)注意力生成。坐標(biāo)注意力生成轉(zhuǎn)換首先級(jí)聯(lián)之前模塊生成的兩個(gè)特征圖,然后使用卷積變換函數(shù)對(duì)其進(jìn)行變換操作:

        然后沿著空間維數(shù)將f分解為2個(gè)單獨(dú)的張量f∈R和f∈R。再利用兩個(gè)1×1卷積F和F將特征圖f和f變換到和輸入X同樣的通道數(shù),得到:

        然后對(duì)g和g進(jìn)行拓展,作為注意力權(quán)重。

        最后,CA模塊的輸出表示為:

        2.3 邊界框回歸損失函數(shù)

        在目標(biāo)檢測(cè)中,邊界框回歸是決定目標(biāo)定位性能的關(guān)鍵步驟,邊界框回歸的三個(gè)重要幾何因素為:重疊面積、中心點(diǎn)距離、寬高比。CIOU Loss考慮了這三個(gè)重要的幾何因素,在DIOU Loss的基礎(chǔ)上,增加了寬高比影響因子,合并到懲罰項(xiàng)。

        CIOU Loss與之前的損失函數(shù)相比,收斂速度和檢測(cè)精度都有明顯的提高。但是通過(guò)其公式中的v反映的寬高比的差異,而不是寬高分別與其置信度的真實(shí)差異,所以有時(shí)會(huì)阻礙模型有效的優(yōu)化相似性。為了解決這個(gè)問(wèn)題,本文采用EIOU Loss代替CIOU Loss,將寬高比的影響因子拆開(kāi)分別計(jì)算目標(biāo)框和錨框的寬和高,能夠?qū)z測(cè)效果有一定提升。EIOU Loss定義如下:

        小麥成熟后應(yīng)及時(shí)收割、晾曬、篩選,如遇陰雨天氣,應(yīng)采取烘干措施,防止收獲和儲(chǔ)存過(guò)程中濕度過(guò)大,導(dǎo)致病菌再度大量繁殖,造成二次污染。

        其中,c和c是覆蓋兩個(gè)Box的最小外接框的寬度和高度。

        3 實(shí)驗(yàn)結(jié)果與分析

        3.1 實(shí)驗(yàn)環(huán)境及參數(shù)設(shè)置

        本文實(shí)驗(yàn)使用深度學(xué)習(xí)框架Pytorch,訓(xùn)練測(cè)試均在Pytorch 1.7.1環(huán)境下完成,編程語(yǔ)言為Python 3.8,基于Linux系統(tǒng),操作平臺(tái)為ubuntu16.04。實(shí)驗(yàn)的硬件條件為E5-2640V3 CPU,內(nèi)存64 GB,GPU為Nvidia Geforce GTX1080,11 GB顯存。初始學(xué)習(xí)率lr設(shè)為0.01,weight decay設(shè)置為0.0005,網(wǎng)絡(luò)優(yōu)化方法使用SGD,momentum為0.937,batchsize設(shè)置為16,訓(xùn)練輪數(shù)為300輪。

        3.2 數(shù)據(jù)集介紹

        本文使用2018年傳感器系統(tǒng)開(kāi)發(fā)商FLIR公司發(fā)布的自動(dòng)駕駛開(kāi)源紅外熱成像數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),對(duì)數(shù)據(jù)集中的行人、自行車、汽車3類目標(biāo)進(jìn)行檢測(cè)。該數(shù)據(jù)集是由安裝在車上的熱成像相機(jī)獲取,駕駛環(huán)境為11月至5月期間日間(60%)和夜間(40%)晴到多云天氣行駛在加利福尼亞州圣巴巴拉市街道和公路上。數(shù)據(jù)集總共包含14452張紅外圖像,其中10228張來(lái)自多個(gè)短視頻,訓(xùn)練集8862張,驗(yàn)證集1366張,大多數(shù)圖片的采樣率為1秒兩幀,少數(shù)環(huán)境中目標(biāo)較少時(shí),采樣率為1秒1幀。測(cè)試集為長(zhǎng)144 s的視頻中采樣的4224張圖片,采樣率為1秒30幀。訓(xùn)練集、驗(yàn)證集和測(cè)試集各類別的數(shù)量如圖7所示。

        圖7 FLIR數(shù)據(jù)集數(shù)量統(tǒng)計(jì)

        3.3 評(píng)價(jià)指標(biāo)

        在目標(biāo)檢測(cè)當(dāng)中,通常使用精確率(Precision)、召回率(Recall)、PR曲線、平均精度(average precision,AP)和多個(gè)類平均精度(mean average precision,mAP)來(lái)作為評(píng)價(jià)指標(biāo)。精確率和召回率定義如下:

        其中,TP為預(yù)測(cè)為正樣本實(shí)際為正樣本的數(shù)量,F(xiàn)P為預(yù)測(cè)為負(fù)樣本實(shí)際為正樣本的數(shù)量,F(xiàn)N為預(yù)測(cè)為負(fù)樣本實(shí)際為正樣本的數(shù)量。Precision為預(yù)測(cè)正確的正樣本個(gè)數(shù)和預(yù)測(cè)為正樣本個(gè)數(shù)的比值,Recall表示被正確判定的正樣本的個(gè)數(shù)占總的正樣本個(gè)數(shù)的比重。

        PR曲線反映的是精度和召回率之間的關(guān)系。如果模型精度越和召回率越高,則PR曲線與x,y軸所包圍的面積就越大,模型的總體性能也就越好。AP為PR曲線下方的面積,AP越大,則模型的準(zhǔn)確度越高,反之,模型的性能越差。mAP為多個(gè)類別AP的平均值。本文采用AP和mAP作為對(duì)模型檢測(cè)效果的評(píng)價(jià)標(biāo)準(zhǔn)。

        3.4 實(shí)驗(yàn)結(jié)果對(duì)比與分析

        本文首先使用YOLOv5s網(wǎng)絡(luò)在FLIR數(shù)據(jù)集的訓(xùn)練集和驗(yàn)證集上進(jìn)行訓(xùn)練和驗(yàn)證,保存訓(xùn)練結(jié)果最好的模型,在測(cè)試集上測(cè)試該模型的泛化能力。然后對(duì)YOLOv5s進(jìn)行改進(jìn),YOLOv5s模型和改進(jìn)模型在測(cè)試集上的檢測(cè)效果如圖8所示。

        圖8展示了基本網(wǎng)絡(luò)(左)和改進(jìn)網(wǎng)絡(luò)(右)的檢測(cè)效果對(duì)比,由圖中可知,改進(jìn)網(wǎng)絡(luò)后能夠檢測(cè)到基本網(wǎng)絡(luò)漏檢的一些目標(biāo),如兩圖第一列所示:其中圖一中漏檢了兩個(gè)自行車類目標(biāo),圖二中由于遮擋原因,少檢測(cè)了一個(gè)行人和一個(gè)自行車目標(biāo),圖三中由于目標(biāo)較小,少檢測(cè)了一個(gè)行人,通過(guò)改進(jìn)網(wǎng)絡(luò)后,能夠有效地減少漏檢情況。兩圖第二列中展示了對(duì)網(wǎng)絡(luò)錯(cuò)檢情況的改進(jìn),基本網(wǎng)絡(luò)分別將背景錯(cuò)檢為行人、自行車和汽車目標(biāo),而改進(jìn)網(wǎng)絡(luò)能夠改善錯(cuò)檢情況。

        圖8 測(cè)試效果

        從表1可以看出,對(duì)SPP改進(jìn)并嵌入40×40和80×80大小的特征層后,檢測(cè)結(jié)果均有提升,對(duì)比原始YOLOv5s網(wǎng)絡(luò)mAP@0.5值提升了2.2%。表2表明添加CA模塊后mAP@0.5值提升了1.2%,更改邊框回歸損失函數(shù)后,mAP@0.5值提升了1.1%。由此可見(jiàn),三種改進(jìn)方法都在不同程度上提高了模型的檢測(cè)精度。采用本文的方法,行人類的AP值提升了3.1%,自行車類AP值提升了6.8%,汽車類AP值提升了0.4%,總的mAP@0.5值提升了3.4%。

        表1 SPP改進(jìn)實(shí)驗(yàn)結(jié)果對(duì)比

        表2 網(wǎng)絡(luò)改進(jìn)對(duì)比

        從表3兩種模型的平均推理速度和權(quán)重大小對(duì)比可以看出,改進(jìn)網(wǎng)絡(luò)后,模型的推理速度幾乎沒(méi)有下降,權(quán)重大小僅增大了1.7 MB。由此得出,本文方法在提升檢測(cè)準(zhǔn)確率的同時(shí)并沒(méi)有帶來(lái)很大的模型權(quán)重大小增加和推理時(shí)間的消耗,模型依舊能夠滿足實(shí)時(shí)檢測(cè)的需求并保持體積小的優(yōu)點(diǎn),適合部署在車載嵌入式系統(tǒng)中。

        表3 兩種模型性能指標(biāo)對(duì)比

        4 結(jié)語(yǔ)

        本文設(shè)計(jì)了一種基于改進(jìn)YOLOv5s網(wǎng)絡(luò)的車載紅外圖像目標(biāo)檢測(cè)模型,適合部署在車載嵌入式系統(tǒng)中用于檢測(cè)交通目標(biāo),輔助夜間駕駛。首先提出YOLOv5s+3SPPs網(wǎng)絡(luò),在SPP模塊中引入密集連接并增加模塊數(shù)量,然后針對(duì)車載紅外圖像分辨率低、目標(biāo)小且細(xì)節(jié)模糊的特點(diǎn),在YOLOv5s的骨干網(wǎng)絡(luò)的最后一層添加CA注意力模塊,讓網(wǎng)絡(luò)專注于圖像上重要的目標(biāo)特征及感興趣區(qū)域。最后對(duì)網(wǎng)絡(luò)的邊界框回歸損失函數(shù)進(jìn)行改進(jìn)。本文實(shí)驗(yàn)表明:三種改進(jìn)方法在不同程度上都起到了提高網(wǎng)絡(luò)的檢測(cè)精度的作用。相比于YOLOv5s網(wǎng)絡(luò),本文提出的網(wǎng)絡(luò)在FLIR數(shù)據(jù)集測(cè)試集上的mAP@0.5值提升了3.4%,且?guī)缀醪挥绊憴z測(cè)速度,模型權(quán)重大小只增加了1.7 MB,滿足車載嵌入式系統(tǒng)對(duì)模型體積小和實(shí)時(shí)高效檢測(cè)的需求。

        猜你喜歡
        特征檢測(cè)模型
        一半模型
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        成美女黄网站18禁免费| 痉挛高潮喷水av无码免费| 无码国产精品一区二区vr老人| 日本少妇按摩高潮玩弄| 久久精品女人天堂av麻| 人妻诱惑中文字幕在线视频| 免费人成视频xvideos入口| 国产精品一区二区在线观看99| 久久国产精品男人的天堂av | av无码小缝喷白浆在线观看| 国产精品沙发午睡系列990531| 国产极品美女高潮抽搐免费网站| 中文字幕国产精品专区| 午夜少妇高潮在线观看| 尤物网址在线观看| 2021国产精品视频| 美女偷拍一区二区三区| 国产精品蝌蚪九色av综合网| 午夜精品一区二区三区的区别| 国产人成无码视频在线| 色婷婷精久久品蜜臀av蜜桃| 超碰国产精品久久国产精品99| 西西人体444www大胆无码视频| 亚洲一级无码片一区二区三区| 91精品国产综合久久久蜜臀九色| 国产自拍精品一区在线观看| 国语精品一区二区三区| 久久精品国产亚洲一区二区| 偷拍视频十八岁一区二区三区| 日本边添边摸边做边爱喷水 | 国产av无码专区亚洲aⅴ| 中文字幕乱码亚洲三区| 久久天堂综合亚洲伊人hd妓女| 可以免费观看的毛片| 久久精品国产亚洲av调教| 蜜桃av在线免费网站| 亚洲av成人无码网站…| 久久精品国产精品亚洲婷婷| 久久精品国产亚洲av天美| 神马不卡影院在线播放| 丝袜人妻一区二区三区|