亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv4-Tiny的交通車輛實(shí)時(shí)目標(biāo)檢測(cè)

        2023-11-13 01:37:42楊志軍昌新萌丁洪偉
        無(wú)線電工程 2023年11期
        關(guān)鍵詞:卷積精度車輛

        楊志軍,昌新萌,丁洪偉

        (1.云南大學(xué) 信息學(xué)院,云南 昆明 650500;2.云南師范大學(xué) 教育部民族教育信息化重點(diǎn)實(shí)驗(yàn)室,云南 昆明 650500;3.云南省教育廳 教學(xué)儀器裝備中心,云南 昆明 650223)

        0 引言

        交通車輛檢測(cè)是智能駕駛領(lǐng)域的核心技術(shù)之一,可為自動(dòng)駕駛整體系統(tǒng)提供有效的數(shù)據(jù)保障。因此,設(shè)計(jì)強(qiáng)實(shí)時(shí)性與準(zhǔn)確性的交通車輛目標(biāo)檢測(cè)算法具有重要的現(xiàn)實(shí)意義。

        近年來(lái),基于深度學(xué)習(xí)的交通車輛目標(biāo)檢測(cè)算法受到越來(lái)越多的關(guān)注。2012年,Krizhevsky等[1]將CNN用于圖像領(lǐng)域,推動(dòng)了深度學(xué)習(xí)在圖像領(lǐng)域的應(yīng)用。目前,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法主要分為雙階段目標(biāo)檢測(cè)算法和單階段目標(biāo)檢測(cè)算法[2]。在雙階段目標(biāo)檢測(cè)算法中,具有代表性的是R-CNN[3]、Fast R-CNN[4]、Faster R-CNN[5]和SPP-Net[6]等,雙階段目標(biāo)檢測(cè)算法首先生成感興趣區(qū)域,然后對(duì)感興趣區(qū)域進(jìn)行分類和定位,具有較高的檢測(cè)精度,但實(shí)時(shí)性較差,無(wú)法滿足自動(dòng)駕駛對(duì)車輛檢測(cè)速度的要求。單階段目標(biāo)檢測(cè)算法主要有SSD[7]、RetinaNet[8]、EfficientDet[9]和YOLO[10]等,單階段的目標(biāo)檢測(cè)算法不再提取候選區(qū)域,直接將待檢對(duì)象輸入網(wǎng)絡(luò),在輸出網(wǎng)絡(luò)中得到待檢對(duì)象的目標(biāo)邊界框和類別信息,處理速度快,能夠滿足車輛檢測(cè)的實(shí)時(shí)性要求。嚴(yán)開忠等[10]通過(guò)對(duì)YOLOv3的改進(jìn),提升了目標(biāo)檢測(cè)的速度,但精度下降;Bochkovskiy等[11]提出了YOLOv4,在檢測(cè)速度和檢測(cè)精度上有明顯提升;2020年6月,Bochkovskiy提出了YOLOv4-Tiny算法模型,模型檢測(cè)精度雖有下降,但檢測(cè)速度大幅提升。

        為了滿足自動(dòng)駕駛中對(duì)交通車輛檢測(cè)實(shí)時(shí)性的需求,本文提出了一種改進(jìn)的YOLOv4-Tiny交通車輛實(shí)時(shí)檢測(cè)模型。該模型以YOLOv4-Tiny模型為基礎(chǔ),對(duì)YOLOv4-Tiny算法中的特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network,FPN)、空間金字塔池化(Spatial Pyramid Pooling,SPP)層等進(jìn)行改進(jìn),同時(shí)引入注意力機(jī)制。實(shí)驗(yàn)表明,提出的模型在提升準(zhǔn)確率的同時(shí)保證了實(shí)時(shí)性,且降低了模型的大小。

        1 YOLOv4-Tiny模型概述

        YOLOv4-Tiny是一種基于YOLOv4的輕量化目標(biāo)檢測(cè)模型,相較于YOLOv4,檢測(cè)精度略有下降,但檢測(cè)速度提升明顯,參數(shù)量?jī)H為YOLOv4的1/10,降低了對(duì)硬件的要求,使其可以適用于可移動(dòng)設(shè)備和嵌入式系統(tǒng)等。

        1.1 YOLOv4-Tiny網(wǎng)絡(luò)結(jié)構(gòu)

        YOLOv4-Tiny由輸入、主干、網(wǎng)絡(luò)和預(yù)測(cè)四部分組成。輸入部分負(fù)責(zé)圖片的輸入;主干部分使用CSPDarkNet53-Tiny網(wǎng)絡(luò)替代YOLOv4中的CSPDarkNet53網(wǎng)絡(luò),負(fù)責(zé)特征提取;網(wǎng)絡(luò)部分包含CBL(Conv2D_BN_LeakyReLU)等負(fù)責(zé)上下采樣;預(yù)測(cè)部分獲取由網(wǎng)絡(luò)部分提取的特征圖。

        殘差模塊跨階段部分連接(Cross Stage Partial Connection,CSP)由CSPNet構(gòu)成,CBL模塊主要由卷積處理層Conv、歸一化處理層BN以及激活函數(shù)層LeakyReLU組成。以輸入圖像的尺寸(416,416,3)為例,輸入圖像在主干部分采用不同尺度的CSP層進(jìn)行下采樣,獲得3個(gè)不同尺度的特征圖;再經(jīng)過(guò)網(wǎng)絡(luò)層處理,將深層特征提取后進(jìn)行上采樣(Upsample)與淺層特征進(jìn)行拼接(Concat),得到不同尺度的特征圖,增加了特征圖的感受野;最后,預(yù)測(cè)部分對(duì)輸入的不同維度特征進(jìn)行解碼,解碼的格式為:3×(5+class),其中3表示先驗(yàn)框數(shù)量,5表示預(yù)測(cè)邊界框信息,class表示分類總數(shù),得到目標(biāo)檢測(cè)結(jié)果。YOLOv4-Tiny網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 YOLOv4-Tiny網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 YOLOv4-Tiny network structure

        1.2 SPP

        He等[6]在2015年提出SPP結(jié)構(gòu),將空間金字塔匹配集成到CNN中,并采用最大池化層代替bag-of-words層。Bochkovskiy等[11]介紹了SPP是一組特殊模塊的概念,可用于增強(qiáng)網(wǎng)絡(luò)的感受野。使用SPP結(jié)構(gòu)可以有效避免由圖像區(qū)域裁剪和縮放操作導(dǎo)致的圖像失真等問(wèn)題,且解決了CNN對(duì)圖像相關(guān)特征重復(fù)提取的問(wèn)題,極大地提高了產(chǎn)生候選框的速度,降低了計(jì)算成本。其結(jié)構(gòu)如圖2所示,計(jì)算方式如下:

        式中:w為輸入尺寸,n為輸出尺寸,k為池化窗口尺寸,s為步長(zhǎng),p為邊距,「?和?」分別為向上取整和向下取整。

        圖2中,k表示池化核的大小,s表示步長(zhǎng)。SPP將特征層分別通過(guò)一個(gè)池化核大小為5×5、9×9和13×13的最大池化層,然后在通道方向進(jìn)行拼接以進(jìn)一步融合,在一定程度上解決了目標(biāo)多尺度問(wèn)題。

        圖2 SPP結(jié)構(gòu)Fig.2 SPP structure

        在YOLO網(wǎng)絡(luò)中,SPP可以處理寬高比和尺寸不同的輸入圖像,提升圖像尺度不變性的同時(shí)降低過(guò)擬合,并且訓(xùn)練圖像尺寸的多樣化有利于訓(xùn)練過(guò)程的收斂。通過(guò)SPP模塊實(shí)現(xiàn)局部特征與全局特征的融合,豐富特征圖的表達(dá)能力,對(duì)于復(fù)雜的多目標(biāo)檢測(cè)有較大的精度提升。

        1.3 FPN

        2017年Lin等[12]提出特征金字塔結(jié)構(gòu),FPN解決了目標(biāo)檢測(cè)中的多尺度問(wèn)題,通過(guò)簡(jiǎn)單的網(wǎng)絡(luò)連接變換,在基本不增加原有模型計(jì)算量的情況下,大幅提升了小目標(biāo)檢測(cè)的性能,其網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

        圖3 FPN結(jié)構(gòu)模型Fig.3 Structure model of FPN

        圖3中,Conv2d表示卷積,s表示步長(zhǎng)。每一個(gè)特征圖經(jīng)過(guò)1×1卷積層的處理,對(duì)不同特征圖的通道數(shù)進(jìn)行調(diào)整,以保證融合時(shí)通道數(shù)相同;對(duì)高層特征進(jìn)行2倍上采樣,保證與下一層特征圖的尺寸大小相同;經(jīng)上述處理后,上一層與下一層特征圖的形狀完全相同,可進(jìn)行相加操作。

        以ResNet50作為主干為例,對(duì)于每個(gè)殘差模塊激活后的特征輸出,可以將其表示為:

        Ni=fi(Ci-1)=fi{fi-1[…f1(K)]},

        (3)

        式中:i={2,3,4,5}表示特征層數(shù),K和f分別表示輸入的圖形和相應(yīng)的卷積操作。

        Mi=w(Ni,Ni+1)=f3×3{f1×1[Ni]+f1×1[p(Ni+1)]},

        (4)

        式中:p表示深層特征上采樣操作,w表示相鄰特征的融合操作,3×3和1×1表示卷積核的尺寸。

        2 YOLOv4-Tiny算法的改進(jìn)

        2.1 CSPResNet模塊改進(jìn)

        YOLOv4-Tiny使用3個(gè)CSPResNet模塊提取模型中間部分的特征,將梯度變化集成到特征圖中,降低了目標(biāo)檢測(cè)任務(wù)對(duì)計(jì)算成本的依賴。但YOLOv4-Tiny中部分卷積層使用了512個(gè)卷積核,導(dǎo)致模型參數(shù)較多,降低了模型的檢測(cè)速度,不利于交通車輛的實(shí)時(shí)檢測(cè)。

        為了降低模型的計(jì)算量,將YOLOv4-Tiny中CSPResNet模塊卷積核的數(shù)量減半,并將CSPResNet模塊兩端的卷積核大小改為1×1,極大地減少了模型的計(jì)算量和大小,但會(huì)導(dǎo)致精度的損失。為了盡可能地降低參數(shù)量并提高模型的精度,在CSPResNet模塊中使用空洞卷積(Dilated Convolution),在不損失特征圖尺寸的情況下增大了感受野。CSPResNet結(jié)構(gòu)如圖4所示。

        (a)原CSPResNet結(jié)構(gòu)

        (b)修改后CSPResNet結(jié)構(gòu)

        (c)本文CSPResNet結(jié)構(gòu)

        2.2 SPP的改進(jìn)

        YOLOv3重新設(shè)計(jì)了SPP為SPP-YOLO[12],使用SPP-YOLO后,YOLOv3在MS COCO數(shù)據(jù)集上的AP50提高了2.7%,而只額外增加了0.5%的計(jì)算量。YOLOv4同樣使用SPP-YOLO模塊,模型性能超越Y(jié)OLOv3,達(dá)到SOTA級(jí)別的物體檢測(cè)表現(xiàn)。為了減少參數(shù)量,Scaled-YOLOv4[13]采用CSP-SPP跨階段執(zhí)行下采樣卷積操作。

        以上改進(jìn)的SPP結(jié)構(gòu)雖然可以提高目標(biāo)檢測(cè)模型的性能,但這些結(jié)構(gòu)是為具有大量參數(shù)的大規(guī)模目標(biāo)檢測(cè)模型而設(shè)計(jì),不適合交通車輛的實(shí)時(shí)目標(biāo)檢測(cè)。為了減少模型的計(jì)算量,使模型能夠部署在資源有限的交通車輛設(shè)備上,本文重新設(shè)計(jì)了CSP-SPP并提出CSP-SPPx,其結(jié)構(gòu)如圖5所示。

        圖5中,route表示特征矩陣按維度、元素相加,k表示池化核的大小。CSP-SPPx刪除了一個(gè)1×1卷積層和一個(gè)3×3卷積層,與CSP-SPP相比,模型參數(shù)量大幅減少,與CSP-SPP以route方式融合3個(gè)不同尺度的最大池化層的輸出特征不同的是,CSP-SPPx以捷徑分支方式融合3個(gè)不同尺度的最大池化層的輸出特征,因此,CSP-SPPx輸出特征的通道數(shù)是CSP-SPP的1/3,有效減少了模型的計(jì)算量,有利于將模型部署在資源有限的交通車輛設(shè)備上。

        (a)CSP-SPP

        (b)CSP-SPPx

        2.3 特征金字塔的改進(jìn)

        為了減少模型的推理時(shí)間,YOLOv4-Tiny僅采用自下而上的結(jié)構(gòu),無(wú)法將重要的深層特征和淺層特征進(jìn)行融合。交通車輛在行駛過(guò)程中,存在遮擋及路況復(fù)雜等情況,若不能實(shí)時(shí)且準(zhǔn)確地對(duì)相關(guān)物體進(jìn)行檢測(cè),交通車輛在自動(dòng)駕駛時(shí)將帶來(lái)極大的安全隱患。本文對(duì)YOLOv4-Tiny網(wǎng)絡(luò)結(jié)構(gòu)的FPN進(jìn)行改進(jìn),設(shè)計(jì)TFPN結(jié)構(gòu),在參數(shù)量和計(jì)算量較少的情況下顯著提升模型的性能,其整體結(jié)構(gòu)如圖6所示。

        圖6 TFPN整體結(jié)構(gòu)Fig.6 Overall structure of TFPN

        自下而上的路徑是TFPN的前饋計(jì)算網(wǎng)絡(luò)層,將其表示為{c1,c2,c3}。為了聚合特征的空間信息并關(guān)注更細(xì)節(jié)的特征,同時(shí)使用最大池化(MaxPool)和平均池化(AvgPool),通過(guò)MaxPool和AvgPool聚合特征圖的空間信息,生成2個(gè)不同的空間特征Fm1和Fα1,將特征融合后輸入到卷積層,進(jìn)一步減少模型的參數(shù),最后輸入到下一個(gè)MaxPool和AvgPool,以此得到更細(xì)化的特征。豐富的特征信息,使交通車輛能夠做出更加準(zhǔn)確的判斷,避免事故的發(fā)生。

        圖6中,route表示特征矩陣按維度、元素相加。在FPN中,最高層的特征自上而下傳遞,與低層特征融合,利用深層特征的語(yǔ)義信息增強(qiáng)低層的特征映射,減少由特征通道造成的信息丟失,但此結(jié)構(gòu)并不適合實(shí)時(shí)的交通車輛檢測(cè)?;贔PN的這些特征,提出的TFPN結(jié)構(gòu)采用了池化特征增強(qiáng)的方法,其中,池化特征增強(qiáng)的具體結(jié)構(gòu)如圖7所示,其計(jì)算可以表示為:

        Fout=σ(FConv1×1(Fα2)+FConv1×1(Fm2))。

        (5)

        池化特征增強(qiáng)模塊使用2個(gè)大小為1×1的卷積層和池化層,包括一個(gè)MaxPool和一個(gè)AvgPool。利用MaxPool操作和AvgPool操作,使輸入特征圖生成2種不同的語(yǔ)義信息,為了保證維度一致,在AvgPool操作后進(jìn)行上采樣操作,之后將2種類型的語(yǔ)義信息傳遞到同一個(gè)卷積核大小為1×1的網(wǎng)絡(luò)中以產(chǎn)生更深層次的語(yǔ)義特征。通過(guò)池化特征增強(qiáng)模塊,模型獲取了更豐富的特征信息,能夠更好地識(shí)別被遮擋的車輛信息,提高了交通車輛實(shí)時(shí)檢測(cè)的準(zhǔn)確性。

        圖7 池化特征增強(qiáng)PFA結(jié)構(gòu)Fig.7 PFA structure improved by pooling feature

        2.4 注意力機(jī)制

        減少YOLOv4-Tiny的參數(shù)量雖然降低了計(jì)算量,但也減弱了模型的特征提取能力,降低了交通車輛實(shí)時(shí)檢測(cè)的性能。注意力機(jī)制自從被提出后,在深度學(xué)習(xí)領(lǐng)域得到了快速發(fā)展,如SE-Net[15]、CBAM[16]、ECA-Net[17]、EPSANet[18]和GCNET[19]等。為了使模型能夠更好地關(guān)注通道和空間特征,在模型中添加通道注意力模塊(Channel Attention Module,CAM)和空間注意力模塊(Spatial Attention Module,SAM)[20]。Woo等[16]提出的CBAM模塊結(jié)合了CAM和SAM,其性能較僅使用CAM或SAM有明顯提升。為了使模型能夠更好地關(guān)注交通車輛的特征,對(duì)CBAM模塊進(jìn)行改進(jìn),并提出新的RCBAM模塊,其結(jié)構(gòu)如圖8所示。

        圖8 RCBAM模塊Fig.8 RCBAM module

        輸入I∈RC×H×W,CBAM的特征圖I先通過(guò)一維通道CAM,BC∈RC×1×1,之后通過(guò)二維的SAM,BS∈RC×H×W,CBAM的操作表示如下:

        O=I?BC(I)?BS(I?BC(I)),

        (6)

        式中:O是輸出特征,?表示逐個(gè)元素相乘。

        (7)

        圖9 CAMFig.9 CAM

        SAM是CAM的細(xì)化,其結(jié)構(gòu)如圖10所示。SAM使模型對(duì)特征的關(guān)鍵區(qū)域更加關(guān)注,本文SAM首先將CAM的輸出輸入到MaxPool層和AvgPool層,獲取特征圖的通道信息,為了保持特征圖的維度一致,在SAM中添加上采樣層,之后,通過(guò)卷積層對(duì)特征進(jìn)行處理和卷積,最后在通道中進(jìn)行合并,生成一個(gè)有效的二維空間特征區(qū)域,SAM的計(jì)算過(guò)程如下:

        (8)

        式中:σ表示sigmoid函數(shù),F3×3表示3×3的卷積操作。

        改進(jìn)后的YOLOv4-Tiny網(wǎng)絡(luò)結(jié)構(gòu)如圖11所示。圖11中,route表示特征矩陣按維度、元素相加。

        圖10 SAMFig.10 SAM

        3 實(shí)驗(yàn)結(jié)果

        3.1 實(shí)驗(yàn)環(huán)境

        本實(shí)驗(yàn)的環(huán)境配置如表1所示,對(duì)比實(shí)驗(yàn)的硬件配置與該實(shí)驗(yàn)的配置相同。

        表1 實(shí)驗(yàn)環(huán)境配置Tab.1 Experimental environment configuration

        本實(shí)驗(yàn)車輛圖像來(lái)自kaggle的交通車輛目標(biāo)檢測(cè)數(shù)據(jù)集和網(wǎng)絡(luò)收集標(biāo)注,共1 600張,其中70%為訓(xùn)練集,30%為驗(yàn)證集,以上數(shù)據(jù)均采用LabeIimg標(biāo)注。

        模型的默認(rèn)輸入圖像大小為416 pixel× 416 pixel,初始階段的batch size設(shè)置為32,初始學(xué)習(xí)率設(shè)置為0.001 4,共迭代3 000次。

        3.2 YOLOv4-Tiny算法改進(jìn)前后對(duì)比

        將本文改進(jìn)的YOLOv4-Tiny算法與原YOLOv4-Tiny算法進(jìn)行對(duì)比,以平均精度均值(mean Average Precision,mAP)、FPS、Model size作為評(píng)價(jià)指標(biāo),其對(duì)比結(jié)果如表2所示,輸入圖像尺寸統(tǒng)一為416 pixel×416 pixel。mAP可用來(lái)評(píng)價(jià)模型中每一類別的好壞,Recall用來(lái)評(píng)估模型是否漏檢,計(jì)算公式如下:

        式中:p表示準(zhǔn)確率,r表示召回率,以準(zhǔn)確率和召回率分別作為縱軸和橫軸,對(duì)pr曲線與坐標(biāo)軸圍成的區(qū)域積分,得到平均準(zhǔn)確率 (Average Precision,AP),再對(duì)AP取平均得到mAP;TP為真正例,FN為假反例。

        由表2可知,原YOLOv4-Tiny算法的精度較低、處理速度較慢且模型較大,與原YOLOv4-Tiny算法相比,本文改進(jìn)的YOLOv4-Tiny算法的mAP值提高了4.67%,圖片處理速度也有一定提升,模型大小僅為原模型大小的47.26%。從模型整體性能而言,本文改進(jìn)的YOLOv4-Tiny算法更優(yōu)。

        表2 原YOLOv4-Tiny算法與本文改進(jìn)YOLOv4-Tiny 算法對(duì)比結(jié)果

        3.3 與其他算法的對(duì)比

        為驗(yàn)證可行性,將本文改進(jìn)的YOLOv4-Tiny算法與Faster R-CNN、YOLOv3-Tiny、YOLOv4-MobileNet v3[16]、YOLOv5s和YOLOv4進(jìn)行對(duì)比,以mAP、FPS和Model size作為評(píng)價(jià)指標(biāo),實(shí)驗(yàn)結(jié)果如表3所示。

        表3 本文改進(jìn)的YOLOv4-Tiny算法與其他算法的對(duì)比結(jié)果Tab.3 Improved YOLOv4-Tiny algorithm compared with other algorithms

        由表3可以看出,本文改進(jìn)的YOLOv4-Tiny算法在FPS和Model size指標(biāo)上有明顯優(yōu)勢(shì),相比YOLOv4,YOLOv4-Tiny在特征提取階段未采用Mish激活函數(shù),刪除部分卷積結(jié)構(gòu),在特征加強(qiáng)層僅采用一個(gè)特征金字塔等,從而大大加快檢測(cè)速度并降低模型的大小,但由于提取的特征信息不夠豐富,導(dǎo)致其檢測(cè)精度低于YOLOv4。本文對(duì)YOLOv4-Tiny進(jìn)行改進(jìn)后,FPS是YOLOv4的2倍多,Model size僅為YOLOv4的1/23,滿足車輛檢測(cè)對(duì)精度和實(shí)時(shí)性的要求。

        Faster R-CNN是雙階段目標(biāo)檢測(cè)算法,先生成感興趣區(qū)域,然后對(duì)感興趣區(qū)域進(jìn)行分類和定位,其圖像處理速度遠(yuǎn)低于單階段目標(biāo)檢測(cè)算法且模型較大。與上一代YOLOv3-Tiny算法相比,雖然都采用DarkNet作為骨干網(wǎng)絡(luò),但YOLOv3-Tiny在訓(xùn)練過(guò)程中僅使用了上采樣,而未使用下采樣,是導(dǎo)致其mAP較低的原因之一。YOLOv4-MobileNet v3采用MobileNet v3作為主干網(wǎng)絡(luò),其mAP值較YOLOv3-Tiny有較大提升,但其模型大小呈倍數(shù)增加,圖像處理速度下降。YOLOv4同樣采用DarkNet作為主干網(wǎng)絡(luò),雖然取得了較高的mAP值,但其訓(xùn)練復(fù)雜度高且模型大,不適合部署于空間有限的輕量級(jí)設(shè)備。YOLOv5s在維持精度和FPS的同時(shí),降低了模型的大小,綜合mAP、FPS、模型大小來(lái)看,本文改進(jìn)的YOLOv4-Tiny算法有較好的性能。

        與主流的輕量級(jí)檢測(cè)算法YOLOv3-Tiny、YOLOv4-MobileNet v3、YOLOv5s相比,本文改進(jìn)的YOLOv4-Tiny算法的mAP均有提升,且模型大小及處理速度均是最優(yōu)的,同時(shí)滿足了車輛檢測(cè)對(duì)精度和實(shí)時(shí)性的要求,但模型大小仍有改進(jìn)空間。

        3.4 消融實(shí)驗(yàn)

        為驗(yàn)證本文改進(jìn)的YOLOv4-Tiny算法的有效性,進(jìn)行了消融實(shí)驗(yàn)。輸入圖像尺寸為416 pixel×416 pixel,骨干網(wǎng)絡(luò)為DarkNet,每次試驗(yàn)只改變一個(gè)變量,實(shí)驗(yàn)結(jié)果如表4所示。

        表4 本文改進(jìn)的YOLOv4-Tiny算法消融實(shí)驗(yàn)結(jié)果Tab.4 Ablation experiment results of improved YOLOv4-Tiny algorithm

        由表4可以看出,在YOLOv4-Tiny中使用CSPResNet和CSP-SPPx后,雖然模型的mAP提升較小,但通過(guò)剪枝操作后,模型的參數(shù)數(shù)量下降,模型大小減小及處理速度明顯提升。采用TFPN模塊后,模型的大小增加,在增加少量計(jì)算量的情況下,改進(jìn)后的模型精度有較大的提升而不影響模型的實(shí)時(shí)性。引入注意力機(jī)制后,模型的大小增加且FPS略有下降,這可能是改進(jìn)后的算法增加了模型的運(yùn)算復(fù)雜度,導(dǎo)致了模型大小的增加和處理速度的下降。

        通過(guò)消融實(shí)驗(yàn),證明了本文對(duì)YOLOv4-Tiny算法的改進(jìn)是有效的,能夠滿足車輛檢測(cè)對(duì)精度和實(shí)時(shí)性的要求。

        4 結(jié)束語(yǔ)

        在YOLOv4-Tiny的基礎(chǔ)上,通過(guò)對(duì)CSPResNet、SPP和FPN的改進(jìn),同時(shí)引入新的注意力機(jī)制,減少了YOLOv4-Tiny的參數(shù)量,提升了計(jì)算速度,并提高了準(zhǔn)確率。本文提出的TFPN結(jié)構(gòu)和CSP-SPPx結(jié)構(gòu)只需少量計(jì)算即可提高模型的性能,適用于輕量級(jí)目標(biāo)檢測(cè)網(wǎng)絡(luò),與原YOLOv4-Tiny相比,本文模型的精度和處理速度均有較大提升,能夠滿足車輛檢測(cè)對(duì)精度和實(shí)時(shí)性的需求。與其他輕量級(jí)目標(biāo)檢測(cè)算法相比,提出的改進(jìn)YOLOv4-Tiny算法性能最優(yōu),證明了本文改進(jìn)方法的有效性和可行性。最后通過(guò)消融實(shí)驗(yàn)驗(yàn)證了本文改進(jìn)方法的科學(xué)性。

        提出的改進(jìn)YOLOv4-Tiny算法在性能上有了較大的提升,但車輛行駛過(guò)程中存在遮擋及復(fù)雜路況,模型仍存在誤檢和漏檢的情況,后續(xù)將優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)以提高對(duì)此種情況的檢測(cè)。模型訓(xùn)練需要大量標(biāo)注好的樣本,對(duì)樣本的大量標(biāo)注耗時(shí)耗力,之后將利用半監(jiān)督學(xué)習(xí)的方式,使用較少的已標(biāo)注樣本,達(dá)到較好的訓(xùn)練效果。

        猜你喜歡
        卷積精度車輛
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        車輛
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        冬天路滑 遠(yuǎn)離車輛
        車輛出沒(méi),請(qǐng)注意
        GPS/GLONASS/BDS組合PPP精度分析
        提高車輛響應(yīng)的轉(zhuǎn)向輔助控制系統(tǒng)
        汽車文摘(2015年11期)2015-12-02 03:02:53
        改進(jìn)的Goldschmidt雙精度浮點(diǎn)除法器
        无码三级国产三级在线电影| 国产美女在线精品免费观看| 亚洲丁香五月激情综合| 91精品国产91热久久p| 国产又湿又爽又猛的视频| 亚洲精品国产精品乱码视色| 永久免费看啪啪网址入口| 亚洲中文字幕无码卡通动漫野外| 国产亚洲精品高清视频| 国产一区亚洲二区三区| 狠狠色噜噜狠狠狠狠米奇777| 狠狠躁夜夜躁人人爽天天| 亚洲视一区二区三区四区| 久久777国产线看观看精品| 亚洲精品一区二区| 久久久综合九色合综国产| 在线观看视频国产一区二区三区| 国产在线第一区二区三区| 亚洲精品综合欧美一区二区三区| 国产精品系列亚洲第一| 免费视频亚洲一区二区三区| 成人免费无遮挡在线播放| 欧美做受视频播放| 亚洲妇女av一区二区| 真实夫妻露脸爱视频九色网| 久久久久人妻精品一区蜜桃| 国产精品无码久久久久免费AV| 亚洲二区精品婷婷久久精品| 麻花传媒68xxx在线观看| 美女大量吞精在线观看456| 亚洲中文字幕av一区二区三区人| 国产91久久麻豆黄片| 精东天美麻豆果冻传媒mv| 国产亚洲精品成人无码精品网站| 国产大片在线观看91| 国产精品一区二区AV不卡| 亚洲欧美香港在线观看三级片| 亚洲中文字幕高清av| 色婷婷综合久久久久中文字幕| 国产免费av片在线观看麻豆| 色综合久久人妻精品日韩|