亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向交通視頻流的輕量化車輛檢測(cè)模型

        2023-12-12 04:25:36華,劉來(lái)
        關(guān)鍵詞:注意力神經(jīng)元車輛

        丁 華,劉 來(lái)

        (江蘇大學(xué) 汽車與交通工程學(xué)院, 江蘇 鎮(zhèn)江 212013)

        0 引言

        在智慧交通系統(tǒng)(ITS)中,車輛檢測(cè)技術(shù)是必不可少的重要環(huán)節(jié)[1],其檢測(cè)的速度和精度直接影響到智慧交通系統(tǒng)的實(shí)時(shí)性和準(zhǔn)確性。近年來(lái),基于自動(dòng)駕駛、智能監(jiān)控和數(shù)字孿生系統(tǒng)等新興方向的快速發(fā)展,以及各類視頻數(shù)據(jù)不斷涌現(xiàn)的背景下,對(duì)視頻流中的目標(biāo)物體進(jìn)行檢測(cè)開(kāi)始成為主流趨勢(shì)。視頻流樣本數(shù)據(jù)本質(zhì)上就是連續(xù)幀的圖像數(shù)據(jù),因此二者的檢測(cè)原理相差無(wú)幾。當(dāng)前在視頻檢測(cè)領(lǐng)域遇到的問(wèn)題主要有:1) 用于檢測(cè)的網(wǎng)絡(luò)模型的輕量化問(wèn)題[2]。視頻檢測(cè)模型往往網(wǎng)絡(luò)層數(shù)多,內(nèi)存需求和參數(shù)量很大,這會(huì)導(dǎo)致模型難以部署在移動(dòng)端或是嵌入式設(shè)備上。2) 在視頻流中待檢目標(biāo)隨著時(shí)間發(fā)生一系列變化的問(wèn)題[3]。不斷變化的目標(biāo)物體經(jīng)常會(huì)產(chǎn)生運(yùn)動(dòng)模糊、虛焦、遮擋之類的問(wèn)題,導(dǎo)致難以識(shí)別到目標(biāo)的有效特征。

        面向交通視頻流的車輛檢測(cè)模型的實(shí)現(xiàn)主要基于目標(biāo)檢測(cè)技術(shù)。傳統(tǒng)的目標(biāo)檢測(cè)算法主要靠人工技術(shù)來(lái)構(gòu)建特征,然后使用一個(gè)給定步幅的滑動(dòng)窗口進(jìn)行特征提取[4]。這類檢測(cè)方法主要有Haar+AdaBoost[5]、HOG+SVM[6]、DPM[7]等。這些基于人工提取特征信息的操作會(huì)導(dǎo)致信息冗余、內(nèi)存消耗過(guò)大、檢測(cè)效果差等問(wèn)題,同時(shí)也會(huì)使檢測(cè)速度極為緩慢。隨著深度學(xué)習(xí)在目標(biāo)檢測(cè)領(lǐng)域的應(yīng)用不斷增多,特別是隨著CNN(convolutional neural network)[8]的提出,使得圖像中的車輛檢測(cè)以及其他基于圖像的對(duì)象檢測(cè)任務(wù)取得了令人矚目的成功[9],以YOLO[10-14]系列、SSD[15]為主要代表的單階段檢測(cè)算法開(kāi)始成為車輛檢測(cè)中的主流方法。雖然在早期這類方法的精度會(huì)低于以Fast R-CNN等[16]為代表的2階段目標(biāo)檢測(cè)算法,但隨著one-stage算法的不斷迭代更新,目前最新的YOLOv6[17]、YOLOX[18]、YOLOv7[19]等檢測(cè)模型在速度和精度上都遠(yuǎn)遠(yuǎn)領(lǐng)先于2階段檢測(cè)算法。

        雖然單階段算法在檢測(cè)效果上取得了很大的成功,但是密集的層數(shù)、高額的參數(shù)量和難以識(shí)別的特征等依然是亟待解決的問(wèn)題。Tan等[20]提出了一種計(jì)算效率極高的輕量化CNN架構(gòu)ShuffleNet,將點(diǎn)態(tài)分組卷積和信道重組相結(jié)合,在維持精度的基礎(chǔ)上節(jié)省了對(duì)內(nèi)存的消耗。Tan等[21]提出了Fused-MBConv的概念,使用基于強(qiáng)化學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)搜索結(jié)構(gòu)探尋模型的最佳縮放因子,以此來(lái)同步更新模型的寬度、深度和分辨率,從而開(kāi)發(fā)出了EfficientNetV2,它的體積僅為之前最優(yōu)輕量化模型的14.7%,但是計(jì)算速度卻遠(yuǎn)超前者。Dong等[22]提出了一種輕量級(jí)YOLOv5車輛檢測(cè)方法,將C3Ghost和Ghost模塊引入YOLOv5頸部網(wǎng)絡(luò)來(lái)提升特征提取效果,此外還引入了注意模塊CBAM用來(lái)提高檢測(cè)精度,最終與YOLOv5模型基線相比參數(shù)量減少了19.37%,精度提高了3.2%。Wang等[23]修剪了YOLOv4-tiny的卷積核,并在網(wǎng)絡(luò)的殘差模塊中加入了擴(kuò)展卷積層,還增加了參考人體視覺(jué)機(jī)制的感受野模塊RFB用以提高網(wǎng)絡(luò)模型的空間注意力和通道注意力,實(shí)現(xiàn)了在降低模型規(guī)模的同時(shí)提高模型的平均精度和實(shí)時(shí)檢測(cè)速度。

        為了減少網(wǎng)絡(luò)模型的層數(shù)和參數(shù)量,實(shí)現(xiàn)檢測(cè)模型的輕量化需求,同時(shí)能夠?qū)﹄y以識(shí)別的特征起到更好的檢測(cè)效果,本文提出一種改進(jìn)YOLOv7的輕量化車輛檢測(cè)模型。通過(guò)結(jié)合MobileNetV3結(jié)構(gòu)減少網(wǎng)絡(luò)層數(shù)和參數(shù)量,以此實(shí)現(xiàn)網(wǎng)絡(luò)模型的輕量化。針對(duì)快速變化的目標(biāo)特征信息難以提取的問(wèn)題,引入一種無(wú)參注意力機(jī)制并融合雙向特征金字塔結(jié)構(gòu)來(lái)增強(qiáng)特征學(xué)習(xí)能力。最終通過(guò)對(duì)數(shù)據(jù)集進(jìn)行隨機(jī)區(qū)域忽略的處理來(lái)提高網(wǎng)絡(luò)模型的魯棒性。

        1 相關(guān)工作

        1.1 YOLOv7網(wǎng)絡(luò)模型

        與早前的YOLO系列網(wǎng)絡(luò)相比,YOLOv7的改進(jìn)工作之一是將激活函數(shù)由LeakyReLU改為SiLU[24],其他基本模塊借鑒殘差設(shè)計(jì)的思想進(jìn)行了優(yōu)化,但網(wǎng)絡(luò)的基本框架沒(méi)有發(fā)生太大的變化,仍然是由主干層、特征融合區(qū)域和檢測(cè)頭3個(gè)部分組成,其中特征融合區(qū)域和檢測(cè)頭是作為一個(gè)整體存在的。YOLOv7的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 YOLOv7網(wǎng)絡(luò)結(jié)構(gòu)

        1.1.1主干層

        YOLOv7的主干網(wǎng)絡(luò)主要包括擴(kuò)展高效層聚合網(wǎng)絡(luò)E-ELAN、用于下采樣和特征提取的CBS模塊、MP模塊和起到擴(kuò)大感受野減少梯度信息重復(fù)作用的SPPCSPC模塊,CBS作為最基礎(chǔ)的模塊,集成到其他模塊中。

        1.1.2特征融合區(qū)域

        頸部層的本質(zhì)就是起到一個(gè)特征融合區(qū)域的作用,它采用了傳統(tǒng)的PAFPN[25]結(jié)構(gòu),能夠讓網(wǎng)絡(luò)更好地學(xué)習(xí)從主干網(wǎng)絡(luò)中提取到的特征,不同細(xì)粒度的特征被分別學(xué)習(xí)并集中合并,以便學(xué)習(xí)盡可能多尺度的圖像特征。

        1.1.3檢測(cè)頭

        YOLOv7算法繼承了以前算法的優(yōu)點(diǎn),保留了3個(gè)檢測(cè)頭,用于探測(cè)和輸出目標(biāo)對(duì)象的預(yù)測(cè)類別概率、置信度和預(yù)測(cè)框坐標(biāo)。探測(cè)頭輸出3種特征尺度:20×20、40×40和80×80,這3個(gè)特征尺度分別對(duì)應(yīng)于大目標(biāo)、中目標(biāo)和小目標(biāo)。

        1.2 注意力機(jī)制

        注意力機(jī)制[26]的提出最早是基于對(duì)人類視覺(jué)系統(tǒng)的深入了解。它模擬了人類不會(huì)同時(shí)關(guān)注所有信息,而是會(huì)有針對(duì)性地著重聚焦于某些有用信息而弱化剩余無(wú)用信息的現(xiàn)象,以便合理利用有限的視覺(jué)處理資源。深度學(xué)習(xí)領(lǐng)域引入的注意力機(jī)制主要是通過(guò)只選擇輸入信息的一部分,或者對(duì)輸入信息的不同部分賦予不同的權(quán)重,來(lái)解決信息冗余的問(wèn)題。

        本文從聚焦淺層結(jié)構(gòu)中包含的重要目標(biāo)特征,弱化無(wú)關(guān)特征出發(fā),在頭部結(jié)構(gòu)中添加注意力機(jī)制,強(qiáng)化模型對(duì)難以識(shí)別的特征信息的學(xué)習(xí)能力,減少誤檢或漏檢情況的出現(xiàn)。

        2 網(wǎng)絡(luò)模型改進(jìn)

        2.1 輕量化模型MobileNetV3

        為了能夠?qū)崿F(xiàn)車輛檢測(cè)模型在移動(dòng)端或嵌入式設(shè)備上的部署,將YOLOv7的主干網(wǎng)絡(luò)替換為輕量級(jí)網(wǎng)絡(luò)模型MobileNetV3[27],大幅度地減少用于特征提取的主干網(wǎng)絡(luò)模型的參數(shù)量以及對(duì)于內(nèi)存空間的占用。MobileNetV3是在它的前身MobileNetV2基礎(chǔ)上進(jìn)行更新,主要的創(chuàng)新之處在于更新了激活函數(shù),引入了SE通道注意力模塊,重新設(shè)計(jì)了耗時(shí)層的結(jié)構(gòu),提高了模型的特征表達(dá)能力,其核心組成部分bneck模塊如圖2所示。

        圖2 bneck模塊

        2.2 無(wú)參注意力機(jī)制SimAM

        交通視頻流的圖像范圍廣,拍攝周期長(zhǎng),受遮擋和光線明暗度干擾較大,因此有效聚焦重要區(qū)域至關(guān)重要。SimAM[28]是一種無(wú)參數(shù)的注意力機(jī)制,可以靈活地為不同特征圖調(diào)整3D注意力權(quán)重,以此來(lái)提高網(wǎng)絡(luò)獲取目標(biāo)的能力,其原理如圖3所示。

        圖3 SimAM注意力機(jī)制原理

        當(dāng)從特征圖中獲得注意力權(quán)重時(shí),SimAM不用添加多余的參數(shù),從而得到更小的權(quán)重和更高的效率。SimAM的原理是利用計(jì)算神經(jīng)元之間的線性可分離度來(lái)發(fā)現(xiàn)主要的神經(jīng)元,并讓這些神經(jīng)元優(yōu)先獲得關(guān)注。本文將SimAM嵌入到改進(jìn)的YOLOv7模型中以提高目標(biāo)檢測(cè)的性能。SimAM來(lái)源于神經(jīng)科學(xué)理論,為了區(qū)分神經(jīng)元的重要性并成功實(shí)現(xiàn)注意,使用能量函數(shù)來(lái)定義神經(jīng)元t與位于相同通道中除t外任意一個(gè)其他神經(jīng)元之間的線性可分離度。每個(gè)神經(jīng)元的能量函數(shù)定義如下:

        (1)

        式中:t和xi是目標(biāo)神經(jīng)元和通道中的其他神經(jīng)元;wt和bt是t的線性變換的權(quán)重和偏差;i是空間維度中的指數(shù);λ是超參數(shù);M=HW是單個(gè)通道上所有神經(jīng)元的數(shù)量。變換權(quán)重和偏差表示如下:

        (2)

        (3)

        (4)

        (5)

        通過(guò)計(jì)算wt、bt以及通道中每一個(gè)神經(jīng)元的均值和方差的解析解,得到最小能量公式為:

        (6)

        (7)

        (8)

        從式(6)可以看出,能量函數(shù)值和神經(jīng)元t與其他神經(jīng)元之間的線性可分離度呈負(fù)相關(guān)的關(guān)系,線性可分離度會(huì)隨著能量函數(shù)值的減小而變大。整個(gè)注意力模塊都是在這個(gè)能量函數(shù)的指導(dǎo)下完成的,避免了過(guò)多的啟發(fā)式和調(diào)整工作。通過(guò)對(duì)單個(gè)神經(jīng)元進(jìn)行計(jì)算,同時(shí)將線性可分離度的思想應(yīng)用在整個(gè)模型中,使模型的學(xué)習(xí)能力得到了增強(qiáng)。本文的實(shí)驗(yàn)表明,在YOLOv7結(jié)構(gòu)中引入SimAM無(wú)參數(shù)注意力機(jī)制有助于模型在檢測(cè)過(guò)程中更有效地提取物體的特征信息,而不增加原始網(wǎng)絡(luò)參數(shù)。

        2.3 改進(jìn)的雙向特征金字塔網(wǎng)絡(luò)BiFPN

        YOLOv7在特征融合區(qū)域和檢測(cè)頭部分是沿用了FPN與PAN相結(jié)合的模式,對(duì)來(lái)自不同主干層的檢測(cè)參數(shù)進(jìn)行聚合。這種結(jié)合雖然有效地提高了模型的信息聚合能力,但也導(dǎo)致了一個(gè)問(wèn)題的出現(xiàn),即PAN結(jié)構(gòu)本質(zhì)上是對(duì)特征的再次提取,它獲得的信息數(shù)據(jù)都是先由FPN提取處理過(guò)的,在預(yù)先處理信息的過(guò)程中會(huì)丟失大量主干部分的初始特征。在訓(xùn)練過(guò)程中缺乏初始特征容易導(dǎo)致欠擬合現(xiàn)象的出現(xiàn),降低檢測(cè)的精度。從解決上述問(wèn)題出發(fā),本文使用了改進(jìn)的雙向特征金字塔網(wǎng)絡(luò)BiFPN[29]來(lái)改進(jìn)原始的YOLOv7結(jié)構(gòu)。原BiFPN網(wǎng)絡(luò)構(gòu)建了雙向通道,提出了跨尺度連接方法,增加了額外的邊,將特征提取網(wǎng)絡(luò)中的特征圖直接與自底向上路徑中相對(duì)應(yīng)尺寸的特征圖融合。因此,網(wǎng)絡(luò)保留了更多的淺層語(yǔ)義信息,而不會(huì)丟失太多的深層語(yǔ)義信息。原BiFPN網(wǎng)絡(luò)根據(jù)不同輸入的重要性設(shè)置了不同的權(quán)重,同時(shí)這種結(jié)構(gòu)被反復(fù)使用以加強(qiáng)特征融合。然而在實(shí)際使用時(shí)發(fā)現(xiàn)在YOLOv7中引入加權(quán)BiFPN后的結(jié)果并不理想,其原因可能是對(duì)輸入圖層進(jìn)行加權(quán)與添加注意力機(jī)制的操作非常相似。因此,本文去除了BiFPN的權(quán)重部分,引入了去權(quán)重的BiFPN,去加權(quán)BiFPN網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

        圖4 特征設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)

        將主干層替換為MobileNetV3結(jié)構(gòu),在MP模塊后加入SimAM注意力機(jī)制,并在融合采樣部分引入去加權(quán)的BiFPN結(jié)構(gòu),整體改進(jìn)后的YOLOv7網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

        3 實(shí)驗(yàn)與結(jié)果分析

        3.1 實(shí)驗(yàn)數(shù)據(jù)集

        本文主要是面向交通視頻流中的車輛檢測(cè),所以選擇的數(shù)據(jù)集為真實(shí)場(chǎng)景下的車輛視頻數(shù)據(jù)集UA-DETRAC[30],該數(shù)據(jù)集包含使用佳能EOS 550D相機(jī)在北京和天津的24個(gè)不同地點(diǎn)拍攝的長(zhǎng)達(dá)10 h的交通視頻。視頻數(shù)據(jù)以25幀/s的速度進(jìn)行錄制,樣本尺寸為960×540像素。UA-DETRAC 數(shù)據(jù)集中有14余萬(wàn)幀圖片和8 250輛標(biāo)注了相關(guān)信息的車輛,其中訓(xùn)練集約82 085張圖片,測(cè)試集約56 167張圖片,根據(jù)不同的場(chǎng)景和路段共分為60段視頻,數(shù)據(jù)集中的部分示例如圖6所示。

        圖6 UA-DETRAC部分?jǐn)?shù)據(jù)示意圖

        綜合考慮數(shù)據(jù)集的特征信息冗余和本次實(shí)驗(yàn)的算力,決定在所有視頻數(shù)據(jù)中每隔10幀取1張圖片,共獲得訓(xùn)練集8 639張,驗(yàn)證集2 231張,未被選取的即為測(cè)試集,并將數(shù)據(jù)集分為car、bus、van、others四類,各類樣式圖例如圖7所示。

        3.2 隨機(jī)區(qū)域忽略處理

        為了增強(qiáng)數(shù)據(jù)集中的圖像數(shù)據(jù),使網(wǎng)絡(luò)模型獲得更強(qiáng)的魯棒性,同時(shí)減輕對(duì)算力和內(nèi)存的需求,考慮使用一種隨機(jī)區(qū)域忽略的方法對(duì)圖8(a)所示的原始數(shù)據(jù)進(jìn)行處理,對(duì)每一張圖像隨機(jī)劃分出部分區(qū)域作為忽略區(qū)域,忽略區(qū)域主要是從路側(cè)的靜止車輛區(qū)域、過(guò)于遠(yuǎn)離攝像頭使得車輛目標(biāo)特征可以忽略不計(jì)的區(qū)域、無(wú)車輛目標(biāo)或是其他目標(biāo)的背景區(qū)域,處理后的樣本數(shù)據(jù)及標(biāo)注效果如圖8(b)所示。

        圖7 樣本分類圖例

        圖8 數(shù)據(jù)處理及標(biāo)注

        3.3 評(píng)價(jià)指標(biāo)

        為了評(píng)估相同實(shí)驗(yàn)條件下改進(jìn)前后網(wǎng)絡(luò)模型的優(yōu)越性,主要選取P-R曲線,當(dāng)預(yù)測(cè)框與目標(biāo)框的交并比(IOU)大于0.5時(shí)所有類別的平均準(zhǔn)確度的平均值mAP0.5,模型參數(shù)量,FPS等指標(biāo)來(lái)進(jìn)行對(duì)比,計(jì)算公式如下:

        (9)

        (10)

        (11)

        (12)

        (13)

        式中:TP為預(yù)測(cè)為陽(yáng)性的陽(yáng)性樣本數(shù);FP為預(yù)測(cè)為陽(yáng)性但實(shí)質(zhì)為陰性的樣本數(shù);FN為預(yù)測(cè)為陰性但實(shí)質(zhì)為陽(yáng)性的樣本數(shù);FPS為每秒可以處理的圖片;t為處理一張圖片所需的時(shí)間。

        3.4 實(shí)驗(yàn)準(zhǔn)備和訓(xùn)練細(xì)節(jié)

        本次實(shí)驗(yàn)所采用的設(shè)備與環(huán)境配置為:Intel(R)Xeon(R)Gold6226RCPU@2.90 GHz處理器、NVIDIA RTXA500顯卡、24 G顯存;Windows 11操作系統(tǒng)以及Python3.9.0+torch1.8.0+CUDA11.1軟件環(huán)境。訓(xùn)練參數(shù)如表1所示。

        表1 模型訓(xùn)練參數(shù)

        3.5 消融實(shí)驗(yàn)

        為了驗(yàn)證各項(xiàng)改進(jìn)內(nèi)容對(duì)于網(wǎng)絡(luò)模型的改進(jìn)效果,本文在實(shí)驗(yàn)環(huán)境維持不變的情況下,在UA-DETRAC上開(kāi)展了4組消融實(shí)驗(yàn)。消融實(shí)驗(yàn)結(jié)果見(jiàn)表2所示,其中“√”表示相對(duì)應(yīng)的改進(jìn)方法和實(shí)驗(yàn)序號(hào)。

        表2 改進(jìn)模塊消融實(shí)驗(yàn)結(jié)果

        從表2可以看出,第1組實(shí)驗(yàn)是將原始的YOLOv7作為基準(zhǔn),在不進(jìn)行任何改進(jìn)的情況下,其mAP值為62.9%,參數(shù)量為37.2 M,FPS可以達(dá)到45.7。第2組實(shí)驗(yàn)只將BackBone層替換為MobileNetV3結(jié)構(gòu),其mAP值雖然下降了8.4%,但是模型的參數(shù)量下降到了原來(lái)的1/6,FPS提升了3倍以上。第3組實(shí)驗(yàn)是在前面的基礎(chǔ)上融合了無(wú)參注意力機(jī)制SimAM,在參數(shù)量基本保持不變的情況下,mAP0.5有了一定的提升,FPS幾乎沒(méi)有太多變動(dòng)。第4組實(shí)驗(yàn)則是在考慮了第3組實(shí)驗(yàn)的前提下引入了一種改進(jìn)的BiFPN結(jié)構(gòu),進(jìn)一步增強(qiáng)了網(wǎng)絡(luò)模型的特征提取能力,與基準(zhǔn)模型相比參數(shù)量減少了30.3 M,FPS提高到了143.8,mAP0.5提升了9.1%,實(shí)現(xiàn)了網(wǎng)絡(luò)模型輕量化目標(biāo),達(dá)到了檢測(cè)速度和精度的要求。

        3.6 對(duì)比實(shí)驗(yàn)分析

        在保證各項(xiàng)參數(shù)保持一致的情況下,本文將原始的YOLOv7模型與改進(jìn)后的算法模型分別進(jìn)行訓(xùn)練來(lái)確定模型對(duì)比的公平性,訓(xùn)練結(jié)果分別如圖9所示。

        圖9 改進(jìn)前后模型訓(xùn)練結(jié)果

        從圖9可以看出,改進(jìn)后的YOLOv7算法模型mAP值從62.9%提高到72.0%,其中car類AP值從79.2%提高到81.6%,提升2.4個(gè)百分點(diǎn);bus類AP值從82.4%提高到87.6,提升5.2個(gè)百分點(diǎn);van類AP值從57.4提高到57.7,提升0.3個(gè)百分點(diǎn);others類AP值從32.7提高到61.2,提升28.5個(gè)百分點(diǎn),4種車輛類別檢測(cè)的AP值均有提升。

        為了驗(yàn)證改進(jìn)后算法的優(yōu)越性,在保持實(shí)驗(yàn)環(huán)境、訓(xùn)練細(xì)節(jié)和數(shù)據(jù)集不變的情況下,將改進(jìn)后的算法模型與其他經(jīng)典算法模型進(jìn)行比較,結(jié)果見(jiàn)表3所示。從表3中可以看出,改進(jìn)后的算法模型在輸入尺寸相同的情況下,mAP值和FPS都超過(guò)了其他經(jīng)典網(wǎng)絡(luò)模型,更加適合交通視頻流中的車輛檢測(cè)。

        表3 不同網(wǎng)絡(luò)模型性能

        3.7 可視化分析

        為了更加直觀地反映出算法模型改進(jìn)前后的差異性,選擇了3張不同情況下的數(shù)據(jù)樣本生成檢測(cè)效果如圖10所示。

        圖10 可視化樣例檢測(cè)效果

        在昏暗且有遮擋的條件下,原網(wǎng)絡(luò)沒(méi)有檢測(cè)到右上角的2輛車,而改進(jìn)后的算法成功檢測(cè)到了車輛和對(duì)應(yīng)的類別,說(shuō)明改進(jìn)后的網(wǎng)絡(luò)可以減少車輛漏檢情況。對(duì)于虛焦模糊且有遮擋的情況,改進(jìn)后的網(wǎng)絡(luò)整體檢測(cè)精度都要高于改進(jìn)前的網(wǎng)絡(luò),說(shuō)明改進(jìn)后的網(wǎng)絡(luò)在檢測(cè)效果上有明顯的提升。在圖像特征少的情況下,改進(jìn)前的網(wǎng)絡(luò)沒(méi)有檢測(cè)到下方的車輛,而改進(jìn)后的網(wǎng)絡(luò)檢測(cè)到了van,其精度為0.53,說(shuō)明改進(jìn)后的網(wǎng)絡(luò)對(duì)于有效特征的提取能力更加優(yōu)秀。

        4 結(jié)論

        針對(duì)YOLOv7模型在對(duì)交通視頻流中的車輛目標(biāo)進(jìn)行檢測(cè)時(shí)遇到的一些問(wèn)題,提出了一種改進(jìn)的網(wǎng)絡(luò)模型。通過(guò)將主干網(wǎng)絡(luò)替換為MobileNetV3,降低模型整體的參數(shù)量和內(nèi)存需求。引入SimAM注意力機(jī)制,對(duì)重要的特征信息聚焦處理,同時(shí)融合改進(jìn)的BiFPN結(jié)構(gòu),進(jìn)一步提高網(wǎng)絡(luò)的特征整合能力,最后在數(shù)據(jù)集上做了隨機(jī)區(qū)域忽略處理,增強(qiáng)模型的魯棒性。改進(jìn)后的網(wǎng)絡(luò)模型在數(shù)據(jù)集UA-DETRAC上的測(cè)試結(jié)果表明,相比較YOLOv7網(wǎng)絡(luò)模型,參數(shù)量有了大幅度的減少,FPS提高到了143.8,檢測(cè)精度mAP0.5提升了9.1個(gè)百分點(diǎn),證明了改進(jìn)算法的優(yōu)越性。但該模型只檢測(cè)了4種車輛類型,而且沒(méi)有對(duì)非機(jī)動(dòng)車和行人等非車輛單位進(jìn)行識(shí)別,后續(xù)可以對(duì)數(shù)據(jù)集進(jìn)行更精細(xì)、全面的類別劃分,以提高模型在實(shí)際檢測(cè)中的適應(yīng)能力。

        猜你喜歡
        注意力神經(jīng)元車輛
        讓注意力“飛”回來(lái)
        《從光子到神經(jīng)元》書(shū)評(píng)
        自然雜志(2021年6期)2021-12-23 08:24:46
        躍動(dòng)的神經(jīng)元——波蘭Brain Embassy聯(lián)合辦公
        車輛
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        冬天路滑 遠(yuǎn)離車輛
        車輛出沒(méi),請(qǐng)注意
        A Beautiful Way Of Looking At Things
        提高車輛響應(yīng)的轉(zhuǎn)向輔助控制系統(tǒng)
        汽車文摘(2015年11期)2015-12-02 03:02:53
        基于二次型單神經(jīng)元PID的MPPT控制
        日本五十路人妻在线一区二区| 亚洲a级片在线观看| 日日噜噜噜夜夜爽爽狠狠| 欧美精品AⅤ在线视频| 亚洲美女av二区在线观看| 国产不卡在线视频观看| 国产女主播精品大秀系列| 夜夜综合网| 中文字幕久区久久中文字幕| 国产亚洲精品熟女国产成人| 日韩亚洲欧美中文在线| 国产成人无码av在线播放dvd| 亚洲黄色性生活一级片| 日韩精品一区二区亚洲专区| 色狠狠色狠狠综合天天| 男人边吃奶边做好爽免费视频| 2017天天爽夜夜爽精品视频| 青青草视频在线观看绿色| 成人做爰69片免费看网站野花| 中国精学生妹品射精久久| 亚洲视频高清| 女同av免费在线播放| 丝袜美腿av在线观看| 伊人久久大香线蕉av色| 免费大片黄在线观看| 成年毛片18成年毛片| 澳门蜜桃av成人av| 日本一二三区视频在线| 欧美日韩中文国产一区| 亚洲青青草视频在线播放| 麻豆视频黄片在线免费观看| 乱码1乱码2美美哒| 7777精品久久久大香线蕉| 日韩在线手机专区av| 亚洲最大免费福利视频网| 久久精品国产www456c0m| 国产精品日日摸夜夜添夜夜添| 久久久精品亚洲人与狗| 少妇厨房愉情理伦bd在线观看| 免费又黄又爽又猛的毛片 | 亚洲av伊人久久综合性色|