亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于輕量級(jí)神經(jīng)網(wǎng)絡(luò)的車(chē)輛識(shí)別算法研究

        2024-04-30 03:29:30馬俊杰王有福李艷淇
        關(guān)鍵詞:識(shí)別率注意力卷積

        鄧 超,馬俊杰,嚴(yán) 毅,王有福,李艷淇

        (1.武漢科技大學(xué) 汽車(chē)與交通工程學(xué)院,湖北 武漢 430065;2.武漢科技大學(xué) 智能汽車(chē)工程研究院,湖北 武漢 430065;3. 四川省無(wú)人系統(tǒng)智能感知控制技術(shù)工程試驗(yàn)室,四川 成都 610225;4.云基物聯(lián)網(wǎng)高速公路建養(yǎng)設(shè)備智能化試驗(yàn)室,山東 濟(jì)南 250357)

        0 引 言

        公安部數(shù)據(jù)顯示,2022年,中國(guó)汽車(chē)保有量已達(dá)3.19億輛,交通安全和交通擁堵問(wèn)題日益突出,大量事故調(diào)查表明,人為因素是造成事故的主要原因[1]。自動(dòng)駕駛技術(shù)可以大幅減少因駕駛員的操作失誤而導(dǎo)致的交通問(wèn)題。其中,對(duì)環(huán)境周?chē)?chē)輛的識(shí)別和檢測(cè)是無(wú)人駕駛系統(tǒng)感知、判斷和預(yù)警的重要基礎(chǔ)。這要求檢測(cè)算法必須同時(shí)考慮精度和實(shí)時(shí)性要求,并且可以部署在邊緣設(shè)備上。

        傳統(tǒng)的車(chē)輛識(shí)別檢測(cè)首先通過(guò)幀間差分法、光流法[2]等進(jìn)行車(chē)輛運(yùn)動(dòng)目標(biāo)檢測(cè),在此基礎(chǔ)上通過(guò)手動(dòng)建立特征提取器,并基于支持向量機(jī)、隨機(jī)森林等算法[3]對(duì)所需目標(biāo)進(jìn)行分類來(lái)提取特征。該方法受環(huán)境和物體形狀變換的影響較大,其特征泛化和魯棒性較差,且算法復(fù)雜,精度不高,不能滿足車(chē)輛的實(shí)際性能需求。劉偉等[4]針對(duì)三幀差分運(yùn)算導(dǎo)致的目標(biāo)內(nèi)部信息提取不完全的問(wèn)題,采用具有自適應(yīng)學(xué)習(xí)率的混合高斯背景差分方法,通過(guò)更快的模型更新速度消除了目標(biāo)運(yùn)動(dòng)引起的“重影”,并基于當(dāng)前幀中目標(biāo)像素與相鄰8個(gè)像素之間的差異和背景模型來(lái)調(diào)整學(xué)習(xí)率,同時(shí),刪除了冗余高斯算法以降低算法的復(fù)雜性,并使用邊緣對(duì)比度差算法來(lái)降低背景點(diǎn)的錯(cuò)誤率。

        近年來(lái),基于深度學(xué)習(xí)的車(chē)輛識(shí)別檢測(cè)算法已經(jīng)成為研究熱點(diǎn),其可以分為T(mén)wo stage和One stage兩種方法。Two stage方法首先通過(guò)算法隨機(jī)提取圖像目標(biāo)幀,例如,基于SS算法隨機(jī)生成目標(biāo)檢測(cè)幀,然后將大量隨機(jī)目標(biāo)幀發(fā)送到卷積神經(jīng)網(wǎng)絡(luò)以提取圖像目標(biāo)特征,其主要算法有R-CNN(regions with CNN features)、Faster R-CNN[5]等。Faster R-CNN算法具有相對(duì)較高的檢測(cè)精度,但由于算法模型的復(fù)雜性,網(wǎng)絡(luò)參數(shù)較多,檢測(cè)速度較慢。One stage方法不需要選擇候選框,而是在網(wǎng)絡(luò)中實(shí)現(xiàn)特征提取和回歸分類,是一種端到端的算法,與Two stage方法相比,檢測(cè)速度大幅提升。One stage方法主要包括SSD(single shot multibox detector)、YOLO[6](you only look once)等算法,近年來(lái)相關(guān)的算法研究已有很多。

        郭克友等[7]根據(jù)黑暗場(chǎng)景中車(chē)輛檢測(cè)的需要,提出了Dim env YOLO檢測(cè)算法,利用MobileNetV3作為YOLOv4的主干網(wǎng)絡(luò),使用圖像暗光增強(qiáng),并引入注意力機(jī)制加強(qiáng)對(duì)特征信息的選擇,試驗(yàn)結(jié)果表明,該方法在黑暗條件下對(duì)車(chē)輛流量檢測(cè)的平均識(shí)別率達(dá)到90.49%,對(duì)于普通汽車(chē)檢測(cè),平均識(shí)別率超過(guò)96%,模型大小為132 MB;廖慕欽等[8]將SSD算法速度快和MobileNetV3內(nèi)存占用小的優(yōu)勢(shì)相結(jié)合,用MobileNetV3代替SSD算法的主干網(wǎng)絡(luò),提出了SSD-MobileNetV3算法,結(jié)果表明,與SSD相比,該算法的精度提高了3.1%,達(dá)到85.6%,模型大小減少了83.1%,達(dá)到16.9 MB,大大減少了內(nèi)存占用;徐浩等[9]基于殘差結(jié)構(gòu)以及注意力機(jī)制改進(jìn)了SSD算法,分別使用h-swish和h-sigmoid激活函數(shù)代替殘差結(jié)構(gòu)中的ReLU激活函數(shù)和通道注意力中的sigmoid激活函數(shù),并結(jié)合實(shí)際圖像,減少了特征融合層和默認(rèn)幀匹配的計(jì)算量,試驗(yàn)結(jié)果表明,改進(jìn)的SSD模型在BIT車(chē)輛數(shù)據(jù)集中的平均準(zhǔn)確率達(dá)到94.87%,比經(jīng)典SSD算法高0.83%,模型大小為39.7 MB。針對(duì)小規(guī)模多目標(biāo)問(wèn)題,龍賽等[10]引入了一種基于YOLOv5s的輕量級(jí)特征增強(qiáng)表示模塊,根據(jù)車(chē)輛目標(biāo)規(guī)模重新設(shè)計(jì)了特征融合網(wǎng)絡(luò),對(duì)網(wǎng)絡(luò)無(wú)效檢測(cè)分支進(jìn)行剪裁,并基于Kmeans++重新聚類錨點(diǎn),改進(jìn)后的網(wǎng)絡(luò)圖達(dá)到67.3%,參數(shù)數(shù)量減少20.4%,達(dá)到5.63 MB。YOLO系列算法是目前較為有名的目標(biāo)檢測(cè)算法,特別是該系列的YOLOv5算法在速度和精度上有著非常優(yōu)秀的表現(xiàn),但其網(wǎng)絡(luò)結(jié)構(gòu)仍然復(fù)雜,檢測(cè)效果不穩(wěn)定,難以部署在計(jì)算能力較差的邊緣設(shè)備上。

        針對(duì)上述問(wèn)題,筆者提出了一種基于混合注意力機(jī)制的輕量級(jí)神經(jīng)網(wǎng)絡(luò)算法MobileNetV3- YOLOv5s,以更好地滿足道路車(chē)輛實(shí)時(shí)檢測(cè)的要求。

        1 算法結(jié)構(gòu)設(shè)計(jì)

        1.1 MobileNetV3 small介紹

        MobileNetV3[11]是一個(gè)典型的輕量級(jí)算法,可以分為small和large兩個(gè)版本。為了減少計(jì)算量,筆者改進(jìn)了MobileNetV3 small的bneck結(jié)構(gòu),并用改進(jìn)的bneck結(jié)構(gòu)替換YOLOv5s的主干網(wǎng)絡(luò)。MobileNetV3 small的詳細(xì)結(jié)構(gòu)如表1、圖1。表1中,SE表示SENet;NL表示使用的激活函數(shù)類型,其中HS為h-swish激活函數(shù),RE為ReLU激活函數(shù);NBN表示無(wú)批次標(biāo)準(zhǔn)化;S為步長(zhǎng)。

        圖1 MobileNetV3 small框架Fig. 1 MobileNetV3 small framework diagram

        表1 MobileNetV3 small的詳細(xì)結(jié)構(gòu)

        由圖1可知,MobileNetV3 small的主體結(jié)構(gòu)由11個(gè)bneck組成。圖2展示了bneck的詳細(xì)結(jié)構(gòu)。輸入特征圖通過(guò)1×1卷積提升維度后,再經(jīng)過(guò)深度可分離卷積和SEnet,隨后由1×1卷積降維,最終與輸入特征圖相加得到輸出特征圖。

        圖2 Bneck結(jié)構(gòu)Fig. 2 Bneck structure

        圖2中的bneck結(jié)構(gòu)采用了深度可分離卷積,以充分減少網(wǎng)絡(luò)計(jì)算量,并將SENet(squeeze and extraction networks)算法應(yīng)用于網(wǎng)絡(luò),以提高網(wǎng)絡(luò)精度。同時(shí),筆者重新設(shè)計(jì)了激活函數(shù),采用了推理速度更快的h-swish激活函數(shù)。這些改進(jìn)使得網(wǎng)絡(luò)廣泛應(yīng)用于各種嵌入式設(shè)備中。

        1.1.1 深度可分離卷積

        深度可分離卷積首先在深度方向上逐層分割輸入特征圖和卷積核,并將它們的對(duì)應(yīng)層相乘以獲得具有與輸入特征圖相同層數(shù)的中間特征圖。然后采用1×1大小的卷積核進(jìn)行點(diǎn)卷積,融合不同通道的特征并提升深度方向的維數(shù)。深度可分離卷積的過(guò)程如圖3。K.SIMONYAN等[12]計(jì)算得出,在相同的輸入和輸出條件下,深度可分離卷積的計(jì)算量是標(biāo)準(zhǔn)卷積的1/9。

        圖3 深度可分離卷積過(guò)程Fig. 3 Deep separable convolution process

        1.1.2 h-swish激活函數(shù)

        MobileNetV3 small重新設(shè)計(jì)了激活函數(shù),并使用h-swish替代之前的ReLU6激活函數(shù)。h-swish是在swish功能的基礎(chǔ)上改進(jìn)而來(lái)。swish函數(shù)可以有效地提高網(wǎng)絡(luò)精度,但計(jì)算量比較大。swish函數(shù)見(jiàn)式(1):

        (1)

        式中:x為輸入特征變量。

        (2)

        1.2 改進(jìn)的bneck結(jié)構(gòu)

        1.2.1 利用級(jí)聯(lián)的小卷積核替換大卷積核

        bneck結(jié)構(gòu)使用了大量的5×5卷積,如圖2、表1。在確保網(wǎng)絡(luò)精度的條件下,使用較小的卷積核是減少網(wǎng)絡(luò)參數(shù)的重要手段。馮楊等[13]為了減少網(wǎng)絡(luò)的參數(shù)量,利用多層的小尺度卷積核替換大尺度卷積核。由于卷積核的每一層都必須經(jīng)歷非線性激活,網(wǎng)絡(luò)層數(shù)的增加使得算法具有更好非線性,這進(jìn)一步提高了網(wǎng)絡(luò)特征提取能力。此外,在感受相同的情況下還增加了網(wǎng)絡(luò)的深度,更好地避免了特征丟失,從而實(shí)現(xiàn)了更準(zhǔn)確的分類效果[13]。

        卷積運(yùn)算后輸出圖像的大小Mo如式(3):

        Mo=(M+2×p-k)/s+1

        (3)

        式中:M為輸入特征圖的尺寸;k為卷積核的尺寸;p為填充尺寸;s為步長(zhǎng)。

        在相同條件下,根據(jù)式(3),兩個(gè)3×3卷積和一個(gè)5×5卷積得到了相同大小的輸出特征,如圖4。而前者的參數(shù)量(3×3+3×3=18)僅為后者參數(shù)量(5×5=25)的72%。筆者采將bneck中所有的5×5卷積核替換為2個(gè)級(jí)聯(lián)的3×3卷積核,減少了網(wǎng)絡(luò)參數(shù)。

        1.2.2 在bneck結(jié)構(gòu)中添加混合注意力機(jī)制

        1) 通道注意力

        通道注意力模塊(channel attention module,CAM)基于不同通道對(duì)目標(biāo)的影響程度來(lái)調(diào)整每個(gè)通道的重要性權(quán)重,以提高目標(biāo)特征的表示能力,如圖5。CAM首先使用MaxPool和AvgPool分別提取特征圖F1的通道信息,然后用具有兩個(gè)全連接層的多層感知器來(lái)共享權(quán)重,最后融合像素,通過(guò)sigmoid激活函數(shù)后得到輸出特征圖,該過(guò)程可由式(4)表示:

        圖5 通道注意力Fig. 5 Channel attention module

        Mc=σ{L[G1(F1)]+L[G2(F1)]}

        (4)

        式中:σ(·)為sigmoid激活函數(shù);F1為輸入特征圖;L(·)為MLP多層感知器;G1(·)和G2(·)分別為平均池化和最大池化。

        2) 空間注意力

        在檢測(cè)目標(biāo)時(shí),特征圖中不同空間區(qū)域的重要性不同??臻g注意力模塊(spatial attention module,SAM)提取特征圖的空間維度信息,關(guān)注目標(biāo)的位置特征并完成對(duì)通道注意力的補(bǔ)充,如圖6。首先將輸入特征圖F2依次進(jìn)行MaxPool和AvgPool處理以降低特征圖的維度,并對(duì)兩次池化的輸出在通道上進(jìn)行拼接,送入卷積層提取特征,再經(jīng)過(guò)sigmoid激活函數(shù)得到輸出特征圖,該過(guò)程可由式(5)表示:

        圖6 空間注意力Fig. 6 Spatial attention module

        Ms=σ{C[G1(F2);G2(F2)]}

        (5)

        式中:F2為輸入特征圖;C為卷積運(yùn)算。

        3) 混合注意力

        SE算法是一種典型的通道注意機(jī)制。bneck結(jié)構(gòu)中集成了SEnet(squeeze and extraction networks)算法,如圖2。筆者在SE算法之后加入了空間注意力模塊,形成了混合注意力模塊?;旌献⒁饬δK的輸出特性圖F3可以由式(6)、式(7)表示:

        F2=Mc?F1

        (6)

        F3=Ms?F2

        (7)

        式中:F3為混合注意力模塊的輸出特性圖;?表示按元素相乘。

        綜上所述,改進(jìn)的bneck結(jié)構(gòu)如圖7,其中改進(jìn)的部分已框出。

        圖7 改進(jìn)的bneck結(jié)構(gòu)Fig. 7 Improved bneck structure

        1.3 改進(jìn)的SPPF算法

        SPPF(spatial pyramid pooling fast)為YOLOv5s中重要的特征融合算法。SPPF算法是對(duì)空間金字塔池(spatial pyramid pooling,SPP)算法的改進(jìn)[14],它可以將任意大小的輸入特征輸出到固定大小的特征向量。該算法首先使用1×1卷積降維,然后依次使用3個(gè)5×5池化層進(jìn)行最大池化操作,并使用concat方法對(duì)每個(gè)最大池化的結(jié)果進(jìn)行融合,最后使用1×1卷積輸出特征。SPPF算法采用了concat特征融合方法,即在深度方向上拼接不同的特征圖以增加通道的數(shù)量,使得每個(gè)通道下的信息保持不變,但計(jì)算量隨著特征深度的增加而增加,其計(jì)算過(guò)程如式(8):

        (8)

        式中:Xi和Yi分別為2個(gè)輸入特征;Ki、Ki+c均為卷積核。

        筆者利用特征融合中的add方法對(duì)SPPF算法進(jìn)行改進(jìn)。與concat方法相比,它不增加特征深度,而是直接將對(duì)應(yīng)特征相加,減少了特征融合的計(jì)算量。改進(jìn)的SPPF算法結(jié)構(gòu)如圖8,其計(jì)算過(guò)程可用式(9)表示:

        (9)

        圖8 改進(jìn)的SPPF算法Fig. 8 Improved SPPF algorithm

        綜上所述,筆者首先對(duì)MobiletNetV3的bneck結(jié)構(gòu)進(jìn)行優(yōu)化,采用級(jí)聯(lián)的3×3卷積核替換其中的5×5卷積核,從而進(jìn)一步減少參數(shù)量,同時(shí)在bneck結(jié)構(gòu)中添加空間注意力模塊,與原有的SE算法共同組成混合注意力模塊,提高算法對(duì)重要區(qū)域的檢測(cè)權(quán)重。然后,筆者對(duì)YOLOv5s中的SPPF算法進(jìn)行改進(jìn),采用add方法對(duì)三次最大池化的結(jié)果進(jìn)行特征融合,降低算法計(jì)算量。

        基于以上改進(jìn)點(diǎn),筆者提出的MobiletNetV3-YOLOv5s算法結(jié)構(gòu)如圖9。該算法由特征提取網(wǎng)絡(luò)、特征融合網(wǎng)路以及檢測(cè)部分組成。其中特征融合網(wǎng)絡(luò)和檢測(cè)部分與YOLOv5s一致;特征提取網(wǎng)絡(luò)主要由改進(jìn)的bneck結(jié)構(gòu)和改進(jìn)的SPPF算法構(gòu)成。相比于原YOLOv5s算法,改進(jìn)的輕量級(jí)bneck結(jié)構(gòu)和改進(jìn)的SPPF算法能夠有效減少算法的參數(shù)量和計(jì)算量,同時(shí)在bneck中融合混合注意力模塊,能夠緩解由于參數(shù)量下降導(dǎo)致的檢測(cè)精度下降問(wèn)題。

        圖9 MobileNetV3-YOLOv5s算法Fig. 9 MobileNetV3-YOLOv5s algorithm

        2 試驗(yàn)驗(yàn)證

        2.1 數(shù)據(jù)集和預(yù)處理

        該試驗(yàn)基于用于多目標(biāo)檢測(cè)的UA-DETRAC數(shù)據(jù)集[15]。該數(shù)據(jù)集由北京等24個(gè)不同地點(diǎn)的10 h視頻組成。視頻以25幀/s的速度錄制,像素大小為960×540。UA-DETRAC數(shù)據(jù)集共有超過(guò)140 000張圖像、超過(guò)8 250輛車(chē)輛和121萬(wàn)個(gè)邊界框。車(chē)輛分為4類,即轎車(chē)、公共汽車(chē)、面包車(chē)和其他車(chē)輛。天氣分為陰天、夜間、晴天和雨天。像素區(qū)域的平方根用于定義車(chē)輛標(biāo)簽的比例。車(chē)輛按照像素規(guī)模分為3類:0~50像素為小型,50~150像素為中型,超過(guò)150像素為大型。使用車(chē)輛邊界框被遮擋的比例描述遮擋程度,可分為無(wú)遮擋、部分遮擋(遮擋比例為1%~50%)和完全閉塞(遮擋比例大于50%)。

        邊框的顏色反映遮擋狀態(tài),分別用紅色、藍(lán)色和粉色表示沒(méi)有遮擋、部分被車(chē)輛遮擋和部分被環(huán)境遮擋。邊界框中顯示車(chē)輛的名稱和方向,并顯示車(chē)輛類型。天氣狀況、攝像頭狀態(tài)和車(chē)輛密度信息顯示在每個(gè)相框的左下角。

        初始的UA-DETRAC數(shù)據(jù)集將視頻數(shù)據(jù)的每一幀圖像抽出并組成圖片數(shù)據(jù)集,這導(dǎo)致相鄰幀對(duì)應(yīng)的圖片幾乎相同。為了避免相似圖片數(shù)據(jù)輸入網(wǎng)絡(luò),基于原始數(shù)據(jù)集,從第1張圖片開(kāi)始每間隔4張選取一張圖片組成訓(xùn)練集,共14 042張,并從第2張圖片開(kāi)始每間隔19張選取一張圖片組成測(cè)試集,共2 809張,保證了訓(xùn)練集和測(cè)試集之間沒(méi)有重疊交叉,并且減少了數(shù)據(jù)集的冗余。最后,將數(shù)據(jù)集轉(zhuǎn)換為VOC格式,數(shù)據(jù)集示例如圖10。

        圖10 數(shù)據(jù)集圖片F(xiàn)ig. 10 Dataset image

        2.2 參數(shù)設(shè)置

        該試驗(yàn)的運(yùn)行環(huán)境如下:設(shè)備為NVIDIA Jetson AGX NX開(kāi)發(fā)板,RAM為16 G,Jetpack版本為4.7,系統(tǒng)為Ubuntu 18.04,CUDA為10.2.3,cuDNN版本為8.2.1.32。

        不同的超參數(shù)對(duì)模型的訓(xùn)練速度和泛化能力有重要影響。為了與YOLOv5s對(duì)比,文中算法超參數(shù)設(shè)置與其保持一致,epoch設(shè)置為200,batch_size為8,輸入圖片統(tǒng)一調(diào)整為640×640。優(yōu)化器選擇AdamW。其他超參數(shù)見(jiàn)表2。

        表2 超參數(shù)

        2.3 對(duì)比試驗(yàn)

        通過(guò)與原YOLOv5s算法進(jìn)行對(duì)比試驗(yàn),驗(yàn)證文中算法在模型大小、檢測(cè)速度和識(shí)別精度方面的有效性。平均識(shí)別率、模型權(quán)重大小、召回和檢測(cè)速度被用作評(píng)估模型的指標(biāo)。精確率、召回率、同一類目標(biāo)的平均識(shí)別率和所有類別目標(biāo)的平均識(shí)別率如式(10)~式(13):

        (10)

        (11)

        (12)

        (13)

        式中:NTP、NFP和NFN分別為檢測(cè)正確、檢測(cè)錯(cuò)誤和漏檢的數(shù)量;P為精確率;R為召回率;Ai為同一類目標(biāo)的平均識(shí)別率;σMAP為所有類別目標(biāo)的平均識(shí)別率;r為分類類別的數(shù)量。

        在UA-DETRAC數(shù)據(jù)集上訓(xùn)練并驗(yàn)證YOLOv5和MobileNetV3-YOLOv5s算法。平均識(shí)別率與召回率隨迭代次數(shù)的變化如圖11。

        圖11 試驗(yàn)結(jié)果Fig. 11 Experiment results

        從圖11可以看出,平均識(shí)別率和召回率隨著迭代次數(shù)的增加逐漸收斂,在迭代到80次左右達(dá)到高點(diǎn),兩種算法的試驗(yàn)結(jié)果如表3。由表3可以看到,MobileNetV3-YOLOv5s的平均識(shí)別率為98.45%,相比YOLOv5s略微下降;模型權(quán)重大小為2.34 MB,下降了83.8%;檢測(cè)速度達(dá)到了31幀/s,提高了10.7%。

        表3 對(duì)比試驗(yàn)結(jié)果

        在滿足車(chē)輛檢測(cè)的實(shí)時(shí)性和準(zhǔn)確性基礎(chǔ)上,MobileNetV3-YOLOv5s算法與YOLOv5s算法相比精度略有下降,但仍具有相當(dāng)?shù)母?jìng)爭(zhēng)力。同時(shí),與YOLOv5s算法相比,MobileNetV3-YOLOv5s算法的參數(shù)數(shù)量大大減少,降低了內(nèi)存消耗和對(duì)計(jì)算機(jī)性能的要求,檢測(cè)速度也明顯提高。因此,MobileNetV3-YOLOv5s算法對(duì)于部署在計(jì)算能力較低的設(shè)備上具有明顯的優(yōu)勢(shì)。

        2.4 消融試驗(yàn)

        為了進(jìn)一步驗(yàn)證不同模塊對(duì)算法檢測(cè)精度和速度的優(yōu)化效果,筆者進(jìn)行了消融試驗(yàn)。試驗(yàn)1使用YOLOv5s算法。試驗(yàn)2僅使用bneck結(jié)構(gòu)替代YOLOv5s的主干網(wǎng)絡(luò)。試驗(yàn)3在試驗(yàn)2的基礎(chǔ)上進(jìn)一步使用小卷積核代替大卷積核。試驗(yàn)4在試驗(yàn)3的基礎(chǔ)上改進(jìn)了SPPF算法。試驗(yàn)5在試驗(yàn)4的基礎(chǔ)上融合了混合注意力機(jī)制。在UA-DETRAC數(shù)據(jù)集上訓(xùn)練和驗(yàn)證上述算法,結(jié)果如表4。

        表4 消融試驗(yàn)結(jié)果

        對(duì)比試驗(yàn)1和試驗(yàn)2可以看出,MobileNetV3 small的bneck結(jié)構(gòu)在算法的輕量化設(shè)計(jì)中起著決定性作用,且其檢測(cè)速度提升最大。從試驗(yàn)3可以看出,小卷積核替代大卷積核在一定程度上減少了模型的參數(shù)量,提高了檢測(cè)精度,但算法的檢測(cè)速度有所下降。試驗(yàn)4增加了改進(jìn)的SPPF結(jié)構(gòu),使得算法在保證檢測(cè)精度和速度的同時(shí)一定程度上減少了模型的參數(shù)量。試驗(yàn)5為筆者提出的MobileNetV3-YOLOv5s算法,雖然混合注意力機(jī)制略微增加了參數(shù)量,但檢測(cè)速度并未下降,同時(shí)平均識(shí)別率有一定提升,在考慮識(shí)別精度和識(shí)別速度的情況下,筆者所提出的算法能夠很好地適用于移動(dòng)板塊卡等邊緣設(shè)備中。

        2.5 討 論

        表5對(duì)比了目前研究成果與文中算法的檢測(cè)效果和模型參數(shù)量。

        表5 算法對(duì)比

        由表5可以看出,文中算法模型的權(quán)重大小僅為2.34 MB,與最近的研究相比,其在模型輕量化方面有著明顯進(jìn)步。同時(shí),其在算法識(shí)別率方面仍具有相當(dāng)?shù)母?jìng)爭(zhēng)力。

        3 結(jié) 語(yǔ)

        在復(fù)雜交通場(chǎng)景中,基于深度學(xué)習(xí)的車(chē)輛識(shí)別方法需要進(jìn)一步優(yōu)化以實(shí)現(xiàn)更快的檢測(cè)速度和可靠的識(shí)別效果。因此筆者結(jié)合YOLOv5s與MobileNetV3算法的優(yōu)勢(shì),提出輕量級(jí)神經(jīng)網(wǎng)絡(luò)模型,首先將輕量級(jí)網(wǎng)絡(luò)MobileNetV3 small的bneck結(jié)構(gòu)替換YOLOv5s的主干網(wǎng)絡(luò)。為了進(jìn)一步實(shí)現(xiàn)模型的輕量化,采用級(jí)聯(lián)的3×3小卷積核替代bneck中的大卷積核,并改進(jìn)YOLOv5s中的SPPF算法。同時(shí)為了提高檢測(cè)精度,實(shí)現(xiàn)更可靠的檢測(cè)效果,在bneck結(jié)構(gòu)中融合了SENet和CAM算法,組成混合注意力模塊。結(jié)果表明:文中算法參數(shù)量下降明顯,僅為2.34 MB,檢測(cè)速度與YOLOv5s相比提升了10.7%,平均識(shí)別率為98.45%,取得了良好的識(shí)別效果。

        未來(lái)的工作將聚焦于在特殊環(huán)境和天氣下優(yōu)化算法性能,以及將算法應(yīng)用于低性能的邊緣設(shè)備上,并促進(jìn)自動(dòng)駕駛環(huán)境感知應(yīng)用程序的開(kāi)發(fā)。

        猜你喜歡
        識(shí)別率注意力卷積
        讓注意力“飛”回來(lái)
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于真耳分析的助聽(tīng)器配戴者言語(yǔ)可懂度指數(shù)與言語(yǔ)識(shí)別率的關(guān)系
        提升高速公路MTC二次抓拍車(chē)牌識(shí)別率方案研究
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        A Beautiful Way Of Looking At Things
        高速公路機(jī)電日常維護(hù)中車(chē)牌識(shí)別率分析系統(tǒng)的應(yīng)用
        久久精品国产9久久综合| 亚洲欧美国产日韩字幕| 韩国主播av福利一区二区| 中国一级毛片在线观看| 久久婷婷国产综合精品| 午夜视频在线观看国产19| 成人内射国产免费观看| 秋霞鲁丝片av无码| 999国产精品亚洲77777| 国产高跟丝袜在线诱惑| 国产成人精品人人做人人爽97| 国产大屁股喷水视频在线观看| 国产98在线 | 日韩| 亚洲AV秘 无码一区二区三区1| 久久夜色精品亚洲天堂| 粗大猛烈进出高潮视频大全| av无码天堂一区二区三区| 国产成人精品日本亚洲语音1| 国产亚洲av一线观看| 男女交射视频免费观看网站| 正在播放国产多p交换视频| 这里只有久久精品| 中文字幕亚洲乱码熟女在线| 青青草免费手机视频在线观看| 人妻少妇精品视频无码专区| 最新国产精品亚洲二区| 日本免费精品一区二区三区视频| 一本加勒比hezyo无码专区 | 男人国产av天堂www麻豆| 国产suv精品一区二人妻| 亚洲www视频| 国产精品久久婷婷六月| 久久综合噜噜激激的五月天| 久久99精品国产麻豆| 无码人妻中文中字幕一区二区| 国产精品成人一区二区在线不卡 | 中文字幕乱偷乱码亚洲| 日本一区二区三区综合视频| 亚洲无线码一区二区三区| 97se亚洲国产综合自在线图片| 国产黄色看三级三级三级|