亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv4的小目標(biāo)檢測方法研究及應(yīng)用

        2023-01-31 03:36:58伊力哈木亞爾買買提白鵬飛
        計算機(jī)工程與設(shè)計 2023年1期
        關(guān)鍵詞:特征融合檢測

        伊力哈木·亞爾買買提,白鵬飛

        (新疆大學(xué) 電氣工程學(xué)院,新疆 烏魯木齊 830047)

        0 引 言

        在目標(biāo)檢測任務(wù)中,小目標(biāo)檢測精度低、漏檢率高一直是該領(lǐng)域亟待解決的問題。如何克服模型自身缺陷提高小目標(biāo)檢測效率,并應(yīng)用于施工現(xiàn)場安全設(shè)備佩戴檢測,是本文的研究意義。

        目前,基于深度學(xué)習(xí)的目標(biāo)檢測方法[1]被廣泛應(yīng)用于安全領(lǐng)域。其中,較為經(jīng)典的算法主要分為以Faster R-CNN[2]系列為代表的二階段目標(biāo)檢測算法和以YOLO[3,4]系列為代表的一階段目標(biāo)檢測算法。相較于一階段算法,二階段算法精度較高,對小目標(biāo)的檢測效果較好。而一階段算法檢測速度較快,可以滿足顯示實(shí)時性的需求。因此在滿足檢測速度的同時提高小目標(biāo)檢測精度,解決實(shí)際問題成為重中之重。Yu等[5]和Kisantal等[6]通過數(shù)據(jù)增強(qiáng)策略提高小目標(biāo)的檢測性能。Liu等提出SSD[7]多尺度特征層的思想,利用較淺層檢測小目標(biāo)。Zhao等[8]提出Cascade R-CNN,利用設(shè)置不同Iou的聯(lián)級結(jié)構(gòu)提升目標(biāo)檢測性能。徐守坤等[9]改進(jìn)Faster R-CNN算法應(yīng)用于安全帽檢測,提升了遠(yuǎn)景下小目標(biāo)的檢測效果。Fu等[10]通過上下文建模方法加強(qiáng)小目標(biāo)細(xì)節(jié)信息和語義特征利用。Yan等[11]提出一種注意力機(jī)制的特征金字塔模型,有效提升了小目標(biāo)檢測能力。相較以上算法,YOLOv4更能兼顧精度和速度滿足現(xiàn)實(shí)需求。但YOLOv4在復(fù)雜背景下對小目標(biāo)檢測效果欠佳,檢測網(wǎng)絡(luò)存在梯度消失問題并且參數(shù)運(yùn)算量較大。

        本文為解決上述問題,首先對檢測網(wǎng)絡(luò)特征融和方式進(jìn)行改進(jìn),其次設(shè)計CSP_F模塊代替普通卷積(CBL*5),最后改進(jìn)了類別損失函數(shù)。

        1 YOLOv4模型算法

        YOLOv4算法主要從輸入部分、主干網(wǎng)絡(luò)、檢測部分以及損失函數(shù)等諸多方面進(jìn)行改進(jìn)。在輸入端使用Mosaic數(shù)據(jù)增強(qiáng)訓(xùn)練網(wǎng)絡(luò)和GA(genetic algorithm)算法選擇最優(yōu)超參數(shù)來提升神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率,使得模型在有限的GPU情況下得到更好的預(yù)測結(jié)果。在YOLOv4的網(wǎng)絡(luò)結(jié)構(gòu)中,Backbone將DarketNet-53與CSPNet[12]方法結(jié)合起來組成新的特征提取網(wǎng)絡(luò),并且加入SPP[13]模塊。CSPDarknet53作為主干提取網(wǎng)絡(luò),通過將DarkNet中的基礎(chǔ)卷積層劃分為兩部分,利用梯度變化映射在特征圖中,最后跨階段的合并,這樣可以在減少參數(shù)量的情況下提取到更豐富全面的深層次特征,從而保證了準(zhǔn)確率。CSPDarknet53檢測部分在FPN[14]中融入上下文路徑聚合網(wǎng)絡(luò),組成FPN加PANet[15]結(jié)構(gòu)的特征融合網(wǎng)絡(luò)。這種結(jié)構(gòu)將底層高分辨率的信息與高層特征語義信息進(jìn)行反復(fù)特征融合再提取。最后用不同層的特征圖融合來做預(yù)測。輸入部分主要引入了新的數(shù)據(jù)增強(qiáng)方法和訓(xùn)練方式;對于預(yù)測部分中所使用的錨框方法和YOLOv3一致,主要改進(jìn)模型損失函數(shù)為CIOU-Loss兼顧長寬比,以及預(yù)測框篩選的NMS變?yōu)镈IOU-NMS。

        2 算法改進(jìn)框架

        為了提高小目標(biāo)的檢測性能,解決檢測網(wǎng)絡(luò)存在梯度消失和參數(shù)運(yùn)算量較大的問題。本文改進(jìn)原模型檢測網(wǎng)絡(luò)特征融合方式,在檢測網(wǎng)絡(luò)引入CAU(channal attention union)和SAU(spatial attention union)模塊進(jìn)行特征間的非線性融合,加強(qiáng)深層次空間和通道細(xì)?;畔⒗茫鰪?qiáng)上下文信息表征,改善小目標(biāo)的檢測性能。其次使用CSP_F(CSPNet-Fusion)模塊代替普通卷積塊(CBL*5),使網(wǎng)絡(luò)在利用跨階段梯度特征融合信息時,有效防止梯度消失并減少參數(shù)計算量。最后優(yōu)化了類別損失函數(shù),使網(wǎng)絡(luò)支持樣本類別的連續(xù)數(shù)值監(jiān)督。

        2.1 檢測網(wǎng)絡(luò)的改進(jìn)

        隨著網(wǎng)絡(luò)層級的增加,特征圖展現(xiàn)出的細(xì)節(jié)特征信息會不斷減少,而語義信息會更為明確。為使網(wǎng)絡(luò)在推理時兼顧二者特性,提升推理性能。利用特征融合將跨層次的感受野信息進(jìn)行融合,但檢測網(wǎng)絡(luò)自下而上和自上而下的線性特征疊加融合會引入很多冗余信息,失去對重要信息的關(guān)注度。為了關(guān)注安全帽和工作服中小目標(biāo),需要對其所在區(qū)域投入更多注意力資源,抑制其它無用信息,獲取更多所需要關(guān)注目標(biāo)的細(xì)節(jié)信息,提高安全帽和工作服中小目標(biāo)檢測性能。受人類注意力原理[16]啟發(fā),在檢測網(wǎng)絡(luò)中設(shè)計了CAU權(quán)重模塊和SAU權(quán)重模塊分別用于自下而上和自上而下的非線性特征融合,使網(wǎng)絡(luò)利用有限的資源從大量信息中快速篩選出高價值信息。在融合不同感受野信息的同時充分利用空間和通道信息,提高重要特征利用率,改善網(wǎng)絡(luò)對安全帽和工作服中小目標(biāo)挖掘檢測性能。

        改進(jìn)檢測網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,本文設(shè)計的CAU和SAU兩個輕量級通用模塊,SAU用于自下而上的特征融合,CAU用于自上而下的特征融合。這樣使檢測網(wǎng)絡(luò)在付出極少參數(shù)量的情況下,加強(qiáng)特征圖譜在空間和通道兩個維度的重要信息表征,抑制無用信息。提高網(wǎng)絡(luò)對安全帽和工作服中小目標(biāo)檢測能力。

        圖1 改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)

        SAU主要突出融合后的空間細(xì)節(jié)特征,在保留淺層細(xì)節(jié)特征信息推理時加強(qiáng)網(wǎng)絡(luò)語義特征理解,SAU的運(yùn)算如式(1)~式(3)所示

        F1=[(F_low?1×1 conv)Θ(F_high?1×1 conv?3×3 deconv)]

        (1)

        式(1)中,F(xiàn)1表示淺層特征卷積與深層特征反卷積運(yùn)算后的疊加結(jié)果。其中,?表示卷積運(yùn)算,Θ表示特征圖的疊加運(yùn)算,1×1conv和3×3deconv表示1×1的卷積運(yùn)算和3×3的反卷積運(yùn)算

        F2=σ[Avgpool(F1?3×3 conv)Θ
        Maxpool(F1?3×3 conv)]⊙F1?3×3 conv

        (2)

        式(2)中,F(xiàn)2是F1將中特征圖進(jìn)行空間權(quán)重增強(qiáng)后的輸出。其中,σ表示sigmiod激活函數(shù),⊙表示逐像素相乘,Avgpool表示全局平均池化操作,Maxpool表示全局最大池化操作

        Fout1=F_low+F2

        (3)

        最終SAU特征輸出如式(3)所示。

        在自下而上的路徑中,再通過通道注意力特證融合方式CAU來關(guān)注通道重要特征信息。CAU在特征融合過程中,采用注重淺層特征通道信息的方式來融合高層特征,以達(dá)到重要特征信息利用。CAU的運(yùn)算式如式(4)~式(6)所示

        F3=MLP(Avgpool(F_low)?1×1 conv)

        (4)

        式(4)運(yùn)算中,首先對輸入CAU的特征圖F_low進(jìn)行全局平均池化和一次普通卷積,將卷積結(jié)果做MLP卷積得到通道權(quán)重F3。其中,MLP表示兩次普通卷積,第一次輸入通道為C/16,輸出為C/16,第二次輸入通道為C/16,輸出通道為C。Avgpool表示全局平均池化,?表示卷積運(yùn)算

        F4=(F_high?3×3 conv)⊙F3

        (5)

        式(5)運(yùn)算中,最后利用得到的通道權(quán)重對深層特征進(jìn)行加權(quán)點(diǎn)積運(yùn)算,用以突出重要細(xì)節(jié)特征信息。經(jīng)過通道加權(quán)后的特征輸出為F4。其中,⊕表示逐像素相加,⊙表示逐像素相乘

        Fout2=F4⊕(F_low?3×3 conv)

        (6)

        最終CAU特征輸出如式(6)中Fout2所示,其將經(jīng)過通道加權(quán)后的特征輸出F4與淺層特征F_low相加,達(dá)到對整個淺層特征優(yōu)化的效果,這樣更能高效利用特征信息進(jìn)行推理。

        在檢測網(wǎng)絡(luò)不同階段分別使用SAU和CAU模塊加強(qiáng)目標(biāo)特征之后進(jìn)行特征融合。這兩種結(jié)構(gòu)可以有效利用重要細(xì)節(jié)特征信息并抑制自上而下和自下而上兩次特征融合帶來的特征冗余,改善模型小目標(biāo)的檢測效果,提升網(wǎng)絡(luò)整體性能。

        2.2 融合CSP_F特征模塊

        為了防止檢測網(wǎng)絡(luò)反復(fù)融合帶來的梯度消失問題和大量參數(shù)計算量問題。受CSPNet啟發(fā),在檢測網(wǎng)絡(luò)中添加特征融合模塊CSP_F卷積結(jié)構(gòu),通過優(yōu)化梯度組合方式代替原模型普通卷積(CBL*5),從開始和結(jié)束集成特征映射來注重梯度的可變性,融合更豐富的跨階段梯度信息,使網(wǎng)絡(luò)能夠在減少參數(shù)量的同時防止梯度消失。

        CSP_F模塊的結(jié)構(gòu)如圖2所示,其包含兩個分支,第一個分支經(jīng)過深層次的多次卷積,集成大量特征信息。第二個分支只進(jìn)行一次卷積后與第一個分支疊加來注重梯度可變性,減少梯度推理計算量的同時利用兩個分支引入的豐富特征信息。

        圖2 CSP_F模塊

        在CSP_F卷積運(yùn)算中w、h、c分別表示輸入特征圖譜的寬、高和特征通道數(shù)。G表示普通卷積,A表示普通卷積加歸一化與激活函數(shù),k表示卷積核大小?!唉ā北硎具M(jìn)行特征通道的連接,“?”表示卷積計算,“?”表示運(yùn)算的順序連接。CSP_F模塊運(yùn)算過程如式(7)~式(9)所示

        (7)

        式(7)中,X1表示CSP_F模塊的特征輸入,X2表示特征圖進(jìn)行第一個分支的運(yùn)算操作,滿足了原網(wǎng)絡(luò)具備的特征信息表征能力

        (8)

        式(8)中,X3表示特征圖進(jìn)行第二個分支的一次卷積操作,一次卷積操作節(jié)省了大量梯度運(yùn)算,保留了原始特征信息,提升模型對于非線性特征的表達(dá)能力,為跨階段特征融合提供豐富的淺層特征信息,加強(qiáng)全面的多層次特征信息利用

        X4=[(X2ΘX3)?BN?Leaky_relu]?A3×3×C

        (9)

        X4表示將兩個支路特征信息進(jìn)行融合,利用跨階段多尺度特征信息來進(jìn)行推理計算,既利用不同特征圖的梯度信息,又減少了大量的梯度運(yùn)算,有效減緩檢測網(wǎng)絡(luò)梯度衰退。

        2.3 損失函數(shù)優(yōu)化

        YOLOv4的原始的類別損失函數(shù)Lcla如式(10)所示,其并沒有明確度量難易樣本對類別損失的貢獻(xiàn)。本文對類別損失進(jìn)行改進(jìn),使類別損失函數(shù)即能度量難分類和易分類樣本對總損失的貢獻(xiàn)值,又能夠支持樣本類別連續(xù)數(shù)值的監(jiān)督

        (10)

        可以看出,原始的損失函數(shù)Lcla只使用了交叉熵[17]度量樣本差異性,而忽略了其它潛在特性,本文將對類別損失函數(shù)作以改進(jìn),改進(jìn)方法將結(jié)合Focalloss[18]函數(shù)的優(yōu)點(diǎn)并支持樣本連續(xù)數(shù)值的監(jiān)督。

        Focalloss只支持0或者1這樣的離散類別標(biāo)簽,有效平衡了正負(fù)、難易樣本的特性,但不能支持樣本連續(xù)數(shù)值的監(jiān)督,然而,本文使用Q_Focalloss分類-質(zhì)量聯(lián)合表示label的值為(0~1)的連續(xù)值,既保證Focalloss此前的平衡正負(fù)、難易樣本的特性,又讓其支持連續(xù)數(shù)值的監(jiān)督,持續(xù)度量樣本對總損失的貢獻(xiàn)值

        (11)

        原始的Focalloss如式(11)所示,其中,α為調(diào)節(jié)系數(shù),pt為類別概率

        Q_Focalloss=-|y-σ|β((1-y)log(1-σ)+ylog(σ))

        (12)

        Q_Focalloss如式(12)所示。其中,β為調(diào)節(jié)系數(shù),一般取2為最優(yōu),σ為預(yù)測概率值,y取值為(0~1)。為了解決數(shù)據(jù)樣本不均衡問題,并且能夠支持連續(xù)數(shù)值的輸出監(jiān)督,把Q_Focalloss引入Lcla損失函數(shù),改進(jìn)后的類別損失函數(shù)如式(13)所示

        (13)

        改進(jìn)后的損失函數(shù)提高了難以檢測樣本權(quán)重,使損失函數(shù)既能度量難分類和易分類樣本對總損失的貢獻(xiàn)值,又能夠支持連續(xù)數(shù)值的監(jiān)督。

        3 實(shí)驗分析

        3.1 實(shí)驗環(huán)境與數(shù)據(jù)集、性能評價指標(biāo)

        實(shí)驗在CPU inteli5-6600,16 GB內(nèi)存,Ubuntu16.04系統(tǒng)下搭建的pytorch環(huán)境下進(jìn)行,顯卡型號為GeForce GTX1080TI。

        實(shí)驗使用的數(shù)據(jù)是在工廠工地采集、網(wǎng)絡(luò)爬取,共7080張,每張圖片里的目標(biāo)都使用圖像標(biāo)注軟件labelImg進(jìn)行了仔細(xì)標(biāo)注,并進(jìn)行VOC格式的轉(zhuǎn)換,標(biāo)注總共分為3種類型:戴安全帽(hat)、不帶安全帽(person)和穿工作服(protective_clothing)。訓(xùn)練集包含5210張圖片,驗證集670張,測試集1600張(其中:模型評估測試集700張,小目標(biāo)測試集500張)。

        為了評價改進(jìn)后的網(wǎng)絡(luò)性能表現(xiàn),本文實(shí)驗用平均精度(AP)和平均精度均值(mAP)來衡量方法的有效性,計算公式如式(14)所示

        (14)

        其中,平均準(zhǔn)確率AP表示每一個安全設(shè)備佩戴類別PR曲線相對于X軸積分面積的大小。mAP表示所有安全設(shè)備佩戴類別目標(biāo)對AP求取均值。

        網(wǎng)絡(luò)最終訓(xùn)練損失變化如圖3所示,從最原始的3700左右下降到2左右震蕩,直至平緩。模型在訓(xùn)練時的整體走勢相對平穩(wěn),沒有較大的波動,而相對明顯的波動發(fā)生在大幅下降到趨于平穩(wěn)的過渡區(qū),但最終也走向平緩震蕩,說明網(wǎng)絡(luò)已經(jīng)完全收斂。

        圖3 損失函數(shù)變化

        3.2 實(shí)驗結(jié)果分析

        3.2.1 損失函數(shù)優(yōu)化分析

        本文優(yōu)化類別損失函數(shù),使其即能度量難分類和易分類樣本對總損失的貢獻(xiàn)值,又能夠支持連續(xù)數(shù)值的監(jiān)督。為了展現(xiàn)優(yōu)化后的性能效果表現(xiàn),本小節(jié)分別對原網(wǎng)絡(luò)交叉熵類別損失函數(shù)(Crossentry)、改進(jìn)后的交叉熵類別損失函數(shù)(Q_Focalloss)及融入焦點(diǎn)調(diào)節(jié)函數(shù)的交叉熵?fù)p失(Focalloss)做了對比分析。最終的對比結(jié)果如圖4所示。3個對比函數(shù)式如式(11)、式(13)、式(15)所示

        (15)

        交叉熵主要用于度量同一個隨機(jī)變量中真實(shí)概率分布與預(yù)測概率的兩個不同概率分布間的差異性,交叉熵的值越小,模型預(yù)測效果就越好。式(15)中,p(c)表示真實(shí)概率分布,q(c)表示模型預(yù)測概率估計。

        為了驗證優(yōu)化類別函數(shù)之后的表現(xiàn),我們使用ROC評價分類器的性能。ROC曲線作為一種反映連續(xù)變量信號敏感度和特異性的指標(biāo),能夠準(zhǔn)確反應(yīng)類別函數(shù)內(nèi)部機(jī)理對分類的好壞程度。

        利用不同損失函數(shù)的ROC曲線對比結(jié)果如圖4所示。從對比結(jié)果圖可以看出,融合了Q_Focalloss的損失函數(shù)具有較好的響應(yīng)結(jié)果。對目標(biāo)類別的分類性能相對于其它兩種表現(xiàn)較好。

        圖4 ROC測試曲線

        3.2.2 小目標(biāo)檢測性能分析

        為驗證網(wǎng)絡(luò)在安全領(lǐng)域的表現(xiàn)性能,利用安全帽和工作服中小目標(biāo)進(jìn)行檢測,從施工現(xiàn)場選取450張全為小目標(biāo)的圖片,圖片中的小目標(biāo)整體離檢測設(shè)備較遠(yuǎn),分布較散且與背景相融合。測試效果如圖5~圖8所示,兩組測試結(jié)果見表1。

        圖5 原網(wǎng)絡(luò)小目標(biāo)檢測效果

        由圖5、圖6可以看出,穿戴安全帽和工作服的小目標(biāo)散落在復(fù)雜的場景中與背景相似,而且場景中不乏一些遮擋目標(biāo)和不同狀態(tài)行為的目標(biāo)。改進(jìn)算法能很好挖掘小目標(biāo),對場景中的安全帽小目標(biāo)以及遮擋情況下的工作服都能準(zhǔn)確分類定位,這表明改進(jìn)算法對復(fù)雜場景下的安全帽和工作服小目標(biāo)有較好的魯棒性。

        圖6 改進(jìn)網(wǎng)絡(luò)小目標(biāo)效果

        表1展示了改進(jìn)模型在小目標(biāo)數(shù)據(jù)集上的準(zhǔn)確率,從測試結(jié)果可以看出改進(jìn)算法在小目標(biāo)數(shù)據(jù)集上的準(zhǔn)確率有2.17個百分點(diǎn)的提升,說明檢測網(wǎng)絡(luò)特征融合策略的有效性。從最終測試結(jié)果和效果圖綜合結(jié)果看出,改進(jìn)算法對于安全帽和工作服中的小目標(biāo)有較好表現(xiàn)。

        表1 小目標(biāo)測試結(jié)果

        3.2.3 CSP_F模塊實(shí)驗分析

        CSP_F結(jié)構(gòu)特征融合原理過程如圖7所示。首先經(jīng)過主干網(wǎng)絡(luò)提取的特征圖經(jīng)過支路一多次卷積歸一化運(yùn)算,得到深層次的特征圖。然后支路二經(jīng)過一次卷積歸一化后得的到淺層特征與深層特征做疊加,這樣即利用跨階段特征信息又減少了卷積冗余。

        圖7 CSP_F特征融合模塊

        為了驗證特征融合結(jié)構(gòu)是否減少參數(shù)量并提高推理速度。本節(jié)利用原網(wǎng)絡(luò)和替換成CSP_F模塊的改進(jìn)網(wǎng)絡(luò)進(jìn)行測試對比分析,結(jié)果見表2。

        表2 性能對比

        從表2可以看出,用CSP_F替換普通卷積后參數(shù)量較原網(wǎng)絡(luò)有3個百分點(diǎn)的下降,這是因為跨階段梯度信息減少了原有卷積的計算冗余。與此同時檢測速度相對于原算法有2.67個百分點(diǎn)的提升,說明了改進(jìn)算法的有效性。

        3.2.4 不同改進(jìn)方法性能對比

        為了驗證改進(jìn)方法的有效性。本文分別復(fù)現(xiàn)了2.1小節(jié)提出的跨階段上下文權(quán)重增強(qiáng)機(jī)制和2.2小節(jié)所提的跨階段特征融合改進(jìn)方法,并且與原模型進(jìn)行了性能分析對比。不同改進(jìn)模型在數(shù)據(jù)集上的性能結(jié)果見表3。

        從表3可以看出,原始YOLOv4算法模型的網(wǎng)絡(luò)模型的檢測工作服安全帽檢測準(zhǔn)確率為92.26%。使用跨階段多尺度CAU和SAU上下文權(quán)重增強(qiáng)機(jī)制之后的網(wǎng)絡(luò)模型準(zhǔn)確率提高了1.29個百分點(diǎn)。這是因為淺層的像素信息和深層的語義特征進(jìn)行了加強(qiáng)融合,在不丟失原有特征基礎(chǔ)上突出了重要細(xì)節(jié)特征,使網(wǎng)絡(luò)提高安全帽和工作服中小目標(biāo)和低分辨率目標(biāo)的定位分類能力。在原始網(wǎng)絡(luò)用CSP_F跨階段梯度特征融合模塊代替原有的普通卷積快,算法準(zhǔn)確率提高了0.61個百分點(diǎn),推理速度也有明顯提升。這是由于CSP_F模塊代替原有普通卷積塊,使網(wǎng)絡(luò)能夠優(yōu)化梯度組合,融合不同分流特征信息,在減少參數(shù)量的情況下又能保證推理速度。

        表3 不同改進(jìn)方法性能對比

        3.2.5 改進(jìn)算法在不同環(huán)境下的檢測效果對比

        改進(jìn)算法在不同環(huán)境下的檢測效果對比分析如圖8所示??梢钥闯霰疚奶岢龅母倪M(jìn)算法對多目標(biāo)檢測如圖8(a)所示,部分遮擋如圖8(a)、圖8(c)、圖8(d),目標(biāo)間尺寸相差較大效果如圖8(d)所示,可以看出模型對遠(yuǎn)景下的小目標(biāo)和近景下的大尺寸目標(biāo)都有很好的效果。夜間目標(biāo)效果如圖8(b)所示,可以看出模型在不同光線影響下仍具有較好魯棒性。從效果圖可以看出本文提出的算法適用不同環(huán)境下的工作服安全帽檢測,對安全帽和工作服中的小目標(biāo)和低分辨率目標(biāo)都有較好的魯棒性。

        圖8 改進(jìn)算法在不同環(huán)境下檢測效果

        3.2.6 不同算法模型性能對比

        為驗證算法改進(jìn)的有效性,使用當(dāng)下主流算法YOLOv3、RetinaNet、SSD300、YOLOv4進(jìn)行訓(xùn)練測試。并對穿戴工作服、戴安全帽、沒有戴安全帽3種穿戴情況做出對比分析。實(shí)驗從平均精度、平均精度均值兩個指標(biāo)對比評估RetinaNet、YOLOv3、YOLOv4、SSD這4個目標(biāo)檢測網(wǎng)性能表現(xiàn),網(wǎng)絡(luò)的檢測結(jié)果對比見表4。

        表4 模型性能對比

        從表4可以看出SSD對未帶安全帽人員(person)這種小目標(biāo)不敏感,魯棒性較差,RetinaNet的平局精度和單個類別目標(biāo)精度相對較低,不能滿足實(shí)際場景的實(shí)時性。YOLOv3對過大的工作服目標(biāo)和過小的目標(biāo)不能較好的挖掘。而本文改進(jìn)網(wǎng)絡(luò)無論在單個精度還是平均精度上都要優(yōu)于其余4種網(wǎng)絡(luò)。尤為明顯的是對安全帽(hat)這種小目標(biāo)。而對于工作服這種尺寸相差較大的分辨率低目標(biāo)也有不錯的表現(xiàn),平均精度提高了1.79個百分點(diǎn)。從整體看,改進(jìn)算法與YOLOv4相同但優(yōu)于其余3種網(wǎng)絡(luò)。改進(jìn)網(wǎng)絡(luò)整體性能相比于YOLOv4目標(biāo)檢測網(wǎng)絡(luò)有明顯的提升,大大提高了對工作人員頭部區(qū)域和安全帽區(qū)域的定位精度。改善了安全帽和工作服中小目標(biāo)和較靠后的低分辨率目標(biāo)檢測效果。

        4 結(jié)束語

        本文提出一種基于YOLOv4的改進(jìn)算法。在檢測網(wǎng)絡(luò)中設(shè)計多尺度CAU和SAU上下文特征融合機(jī)制,利用多尺度通道和空間信息改善小目標(biāo)的檢測性能;其次設(shè)計CSP_F模塊代替原模型普通卷積塊(CBL*5),防止檢測網(wǎng)絡(luò)特征層反復(fù)融合帶來的梯度消失和參數(shù)運(yùn)算量大的問題;接著優(yōu)化了損失函數(shù),使損失函數(shù)能夠連續(xù)度量類別損失對總損失的貢獻(xiàn)值。最終結(jié)果表明,改進(jìn)算法在克服檢測網(wǎng)絡(luò)梯度消失同時改善了模型整體性能。接下來,如何在復(fù)雜施工環(huán)境中進(jìn)一步提高遮擋和不同光照下的目標(biāo)檢測速率和準(zhǔn)確率,將是下一步的研究主題。

        猜你喜歡
        特征融合檢測
        村企黨建聯(lián)建融合共贏
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        融合菜
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        《融合》
        如何表達(dá)“特征”
        不忠誠的四個特征
        抓住特征巧觀察
        亚洲精品2区在线观看| 国产成人综合美国十次| 绝顶高潮合集videos| 国产亚洲一区二区在线观看| 日本中文字幕一区二区高清在线 | www婷婷av久久久影片| 亚洲综合久久精品无码色欲| 99久久婷婷国产综合亚洲91 | 18禁黄无遮挡免费网站| 日本女优久久精品观看| 日日躁夜夜躁狠狠躁| 超清精品丝袜国产自在线拍| 日韩内射美女人妻一区二区三区 | 国产人妖乱国产精品人妖| 久久精品中文字幕无码绿巨人| 吃奶摸下高潮60分钟免费视频| 亚欧色一区w666天堂| 国产98在线 | 免费| 久久久久久99精品| 日本肥老熟妇在线观看| 亚洲伊人av天堂有码在线| 无码日韩精品一区二区免费暖暖| 国产精品无码一区二区三区电影| 日产无人区一线二线三线乱码蘑菇| 俺来也俺去啦久久综合网| 91日本在线精品高清观看| 丝袜美腿诱惑一二三区| 国产av一区二区三区性入口| 人妻少妇久久中文字幕一区二区 | 亚洲av高清在线观看三区| 亚洲一区丝袜美腿在线观看| 日本一区二区国产精品| 97在线视频人妻无码| 精品国精品无码自拍自在线| 日日摸日日碰人妻无码老牲| 亚欧免费无码AⅤ在线观看| 中国黄色一区二区三区四区| 东北女人毛多水多牲交视频| 国产精品无码Av在线播放小说| 中文字幕在线一区乱码| 国产av久久在线观看|