亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        FPN-CenterNet 安全帽佩戴檢測(cè)算法

        2022-07-21 09:45:30趙江河王海瑞
        關(guān)鍵詞:安全帽邊框特征提取

        趙江河,王海瑞,吳 蕾

        昆明理工大學(xué) 信息工程與自動(dòng)化學(xué)院,昆明 650504

        安全帽作為施工工地的一項(xiàng)重要的安全保障,外殼能有效地分散下墜物的沖擊力量,內(nèi)部可以進(jìn)一步地對(duì)沖擊力進(jìn)行緩沖、吸能,從而保障工人的頭部安全。雖然安全帽可以有效地保護(hù)工人,但是依舊有很多建筑工人進(jìn)入建筑工地以及在施工現(xiàn)場(chǎng)不佩戴安全帽,盡管有很多建筑工人管理者都會(huì)在工人進(jìn)入建筑工地時(shí)進(jìn)行強(qiáng)制性的佩戴安全帽的要求。但是在施工中,難免會(huì)有許多工人忘記佩戴安全帽,而導(dǎo)致嚴(yán)重的后果。針對(duì)實(shí)時(shí)性的安全帽檢測(cè),需要使用計(jì)算機(jī)來(lái)代替人工巡視進(jìn)行處理。

        基于安全帽的佩戴檢測(cè),包括傳統(tǒng)的手工提取的方法以及基于深度學(xué)習(xí)的方法。

        傳統(tǒng)的手工提取的方法主要是通過(guò)膚色、眼睛等來(lái)大致判斷圖像中人臉?biāo)诘奈恢?,隨后通過(guò)顏色以及線條的特征來(lái)判斷人臉的區(qū)域內(nèi)是否有安全帽的特征。李太華等提出了一種基于頭盔的行人檢測(cè)和顏色識(shí)別算法,根據(jù)檢測(cè)到的行人識(shí)別是否戴頭盔[1]。馮國(guó)臣等采用Canny邊緣檢測(cè)方法先進(jìn)行人體的邊緣檢測(cè),通過(guò)人體的位置來(lái)估測(cè)實(shí)現(xiàn)安全帽的檢測(cè)識(shí)別,對(duì)估測(cè)矩形內(nèi)的像素特征進(jìn)行判別,若滿足安全帽像素特征,則判定為已佩戴安全帽,若不滿足,則判定為未佩戴安全帽[2]。龐霞等通過(guò)人臉定位來(lái)判斷安全帽的位置,采用檢測(cè)膚色和眼睛、嘴巴的映射定位人臉,然后掃描人臉上部的矩形區(qū)域區(qū)域,通過(guò)提取顏色和形狀特征來(lái)判斷頭部是否佩戴安全帽[3]。

        基于深度學(xué)習(xí)的方式則是使用目標(biāo)檢測(cè)的框架直接對(duì)安全帽進(jìn)行檢測(cè),不需要人手工地提取特征,實(shí)現(xiàn)起來(lái)相對(duì)簡(jiǎn)單?,F(xiàn)有的研究是在原有的SOTA(state-ofthe-art module)目標(biāo)檢測(cè)框架上進(jìn)行對(duì)應(yīng)的優(yōu)化來(lái)提升準(zhǔn)確度,如Faster-RCNN[4]、YOLO[5-7]、Mask-RCNN[8]、DSSD[9]、RetinaNet[10]、CenterNet[11]等。Long等通過(guò)訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)來(lái)優(yōu)化SSD[12]。Gu等基于骨骼點(diǎn)信息確定施工人員的頭部區(qū)域,使用YOLO v4檢測(cè)安全帽區(qū)域,通過(guò)兩個(gè)區(qū)域的交疊情況來(lái)判斷是否佩戴安全帽[13]。Li等提出了一種在線硬示例挖掘(OHEM)與多部分組合相結(jié)合的目標(biāo)檢測(cè)框架來(lái)優(yōu)化安全帽的檢測(cè)精度[14]。Shen等采用互蒸餾的方法訓(xùn)練了具有兩個(gè)對(duì)等DenseNet網(wǎng)絡(luò)的網(wǎng)絡(luò)模型來(lái)提高準(zhǔn)確性[15]。

        此外針對(duì)目標(biāo)檢測(cè)框架的優(yōu)化還有復(fù)用特征圖、增加注意力模塊、修改損失函數(shù)以及替換特征提取主干網(wǎng)絡(luò)等操作。方鈞婷等提出了一種基于注意力機(jī)制的級(jí)聯(lián)網(wǎng)絡(luò)缺陷檢測(cè)算法來(lái)優(yōu)化R-CNN[16]。趙鵬飛等選用Darknet-53來(lái)優(yōu)化SSD并融入特征增強(qiáng)模塊以及通道注意力機(jī)制[17]。宋艷艷等利用殘差結(jié)構(gòu)思想,將淺層特征和深層特征進(jìn)行上采樣連接融合來(lái)優(yōu)化YOLO v3[18]。

        綜上所述,由于施工場(chǎng)地采取到的圖像較小,小目標(biāo)的數(shù)量過(guò)多,導(dǎo)致深度學(xué)習(xí)的精確度并不高。本文采用網(wǎng)絡(luò)結(jié)構(gòu)較為簡(jiǎn)單的one-stage代表的CenterNet作為安全帽佩戴檢測(cè)的算法框架,并在此基礎(chǔ)上提出FPNCenterNet,實(shí)驗(yàn)結(jié)果表明,該算法在安全帽佩戴檢測(cè)上有良好的準(zhǔn)確性和效率。

        1 基于CenterNet改進(jìn)的安全帽佩戴檢測(cè)

        對(duì)于施工場(chǎng)地采集到的圖像來(lái)說(shuō),往往存在由于多個(gè)施工工人在一起而出現(xiàn)的目標(biāo)集中且目標(biāo)范圍小的特點(diǎn),這種情況,如:目標(biāo)遮擋、目標(biāo)重疊等就造成了關(guān)于關(guān)鍵點(diǎn)網(wǎng)絡(luò)(CenterNet)無(wú)法正常檢測(cè)目標(biāo)的問(wèn)題。

        CenterNet是基于關(guān)鍵點(diǎn)的one-stage的Anchor-free的目標(biāo)檢測(cè)網(wǎng)絡(luò),首先使用經(jīng)典的特征提取主干網(wǎng)絡(luò)(如:ResNet-50、DLA或Hourglass等)對(duì)圖像進(jìn)行特征提取操作。然后采用反卷積操作,將特征圖的長(zhǎng)寬變?yōu)樵驾斎雸D像的1/4。隨后在128×128長(zhǎng)寬的特征圖上進(jìn)行卷積計(jì)算分別求出128×128個(gè)物體類別以及置信度、對(duì)中心點(diǎn)的偏移進(jìn)行回歸以及對(duì)邊框的長(zhǎng)寬進(jìn)行回歸。本文使用的是ResNet-50作為特征提取的主干網(wǎng)絡(luò)。

        本文提出了針對(duì)CenterNet的三個(gè)方面的改進(jìn):

        (1)借鑒FPN[19]的思想,將CenterNet提取到的特征進(jìn)行金字塔的特征融合,構(gòu)建FPN-CenterNet框架,對(duì)提取到的特征進(jìn)行復(fù)用。

        (2)在FPN-CenterNet的基礎(chǔ)上,在特征提取的主干網(wǎng)絡(luò)層ResNet-50中增加ACB[20](非對(duì)稱卷積核)模塊,來(lái)增強(qiáng)特征提取能力。

        (3)針對(duì)Anchor-free邊框回歸精度不高的問(wèn)題,引入了DIoU[21]損失函數(shù)來(lái)優(yōu)化該問(wèn)題。

        改進(jìn)的算法的整體框架FPN-CenterNet如圖1所示。改進(jìn)之處分別用紅框框出并標(biāo)出序號(hào)。

        圖1 FPN-CenterNet框架Fig.1 Structure of FPN-CenterNet

        1.1 FPN-CenterNet框架

        FPN-CenterNet框架是在原有的CenterNet框架上融入了特征金字塔結(jié)構(gòu),將主干網(wǎng)絡(luò)提取到的特征以及反卷積提取到的特征進(jìn)行計(jì)算,實(shí)現(xiàn)特征的復(fù)用。FPN的框架如圖2所示。

        圖2 特征金字塔網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Structure of feature pyramid net

        小范圍目標(biāo)的定義為像素值低于32×32的目標(biāo)。當(dāng)進(jìn)行二倍下采樣的時(shí)候,原本32×32長(zhǎng)寬的特征圖會(huì)變成16×16長(zhǎng)寬的特征圖;當(dāng)進(jìn)行32倍下采樣的時(shí)候,會(huì)由原來(lái)的32×32長(zhǎng)寬的特征圖變成1×1長(zhǎng)寬的特征圖,由原來(lái)的1 024個(gè)像素點(diǎn)信息變成了1個(gè)像素點(diǎn)信息,在后面的預(yù)測(cè)中1個(gè)像素點(diǎn)的信息不足以支持高精確度的推導(dǎo)。在下采樣的過(guò)程中,小目標(biāo)的像素信息會(huì)急劇減少。在之后的上采樣過(guò)程中,由于小目標(biāo)像素點(diǎn)的信息較少,上采樣之后的信息也較少。

        特征金字塔FPN的出發(fā)點(diǎn)是當(dāng)特征圖在不斷的下采樣過(guò)程中特征圖的長(zhǎng)寬在不斷減小,小目標(biāo)由于本身所具有的像素信息就少,導(dǎo)致在下采樣的過(guò)程中信息會(huì)不斷消失。此外在CenterNet的上采樣的過(guò)程中會(huì)攜帶更少的小目標(biāo)的信息進(jìn)行推導(dǎo)從而導(dǎo)致CenterNet對(duì)小目標(biāo)的推導(dǎo)的準(zhǔn)確性并不高。因此采用FPN的結(jié)構(gòu)對(duì)CenterNet進(jìn)行優(yōu)化,復(fù)用主干網(wǎng)絡(luò)提取過(guò)程中的特征圖,使得網(wǎng)絡(luò)攜帶更多的小目標(biāo)的信息去推導(dǎo),從而提高CenterNet對(duì)小目標(biāo)推導(dǎo)的準(zhǔn)確性。

        1.2 ACNet

        ACNet(asymmetric convolution net)是通過(guò)三種不同的卷積核來(lái)對(duì)同一個(gè)特征圖進(jìn)行卷積操作,卷積核長(zhǎng)寬為H×W、1×W以及H×1三種尺寸。它的切入點(diǎn)是通過(guò)非對(duì)稱卷積核來(lái)獲取更好的特征表達(dá)。并且由于卷積計(jì)算滿足分配率的性質(zhì),其在推導(dǎo)過(guò)程中沒(méi)有帶來(lái)任何的時(shí)間損失。卷積計(jì)算的分配率如公式(1)所示:

        其中,I表示輸入的矩陣,K(1)和K(2)表示的是兩種大小的卷積核。

        以3×3的為例,在訓(xùn)練階段非對(duì)稱卷積核則是由3×3、1×3、3×1組成,分別對(duì)特征圖進(jìn)行三種不同的卷積計(jì)算,計(jì)算完成后則進(jìn)行卷積加操作。在推導(dǎo)階段,則是將這三種卷積進(jìn)行卷積加操作以3×3卷積核為基核,1×3的卷積核直接與3×3卷積核的第二行的各個(gè)值進(jìn)行相加,3×1的卷積核則與卷積核的第二列的各個(gè)值進(jìn)行相加操作,在對(duì)輸入的特征圖進(jìn)行卷積計(jì)算,從而在不增加推導(dǎo)時(shí)間的同時(shí)提升了整體提取特征圖信息的豐富性。ACB卷積核如圖3所示。

        圖3 非對(duì)稱卷積核Fig.3 Asymmetric convolution kernel

        非對(duì)稱卷積核能提升特征圖的信息,是因?yàn)槠涮嵘四P蛯?duì)目標(biāo)翻轉(zhuǎn)以及旋轉(zhuǎn)的魯棒性。如圖4所示,例如針對(duì)1×3的卷積核獲取到的特征提取,在圖像旋轉(zhuǎn)后就成了3×1的特征提取,三個(gè)紅色框分別代表原始的、翻轉(zhuǎn)后的以及旋轉(zhuǎn)后的1×3卷積核。因此1×3以及3×1的卷積核相對(duì)于3×3的卷積核來(lái)說(shuō)是一個(gè)特征提取的擴(kuò)展,可以更有效地獲取圖像中目標(biāo)旋轉(zhuǎn)以及翻轉(zhuǎn)之后的特征信息。

        圖4 圖像翻轉(zhuǎn)旋轉(zhuǎn)之后的信息Fig.4 Information after image flip and spin

        1.3 DIoU損失函數(shù)

        DIoU(distance-IoU)損失函數(shù)是在IoU損失函數(shù)的基礎(chǔ)上考慮了預(yù)測(cè)款和真實(shí)框中心點(diǎn)的距離,從而提升了回歸的準(zhǔn)確性。其計(jì)算公式如公式(2)所示:

        其中,ρ(b,bgt)表示的是預(yù)測(cè)框以及真實(shí)框之間中心點(diǎn)的距離,c表示的是兩個(gè)邊框構(gòu)成的最小閉包的對(duì)角線長(zhǎng)度。如圖5所示。

        圖5 預(yù)測(cè)框與真實(shí)框的距離比Fig.5 Distance ratio between bounding box and ground true

        公式(2)中IoU的值如公式(3)所示:

        其中,A表示的是預(yù)測(cè)框,B表示的是真實(shí)框。

        IoU的圖表示如圖6所示。其中A表示預(yù)測(cè)框,B表示真實(shí)框。

        圖6 交并比Fig.6 IoU

        原始的邊框的回歸分為兩個(gè)損失函數(shù),分別為邊框中心點(diǎn)的偏移回歸以及邊框的寬高回歸,原始的邊框回歸損失函數(shù)Lbox如公式(4)所示:

        公式(4)中λoff和λsize分別是偏移損失和尺寸損失的權(quán)重;偏移損失Loff如公式(5)所示:

        其中,N表示真實(shí)框的個(gè)數(shù),表示各個(gè)中心點(diǎn)偏移的預(yù)測(cè)值;表示原始點(diǎn)縮放比的向下取整,如公式(6)所示;R表示圖像的縮放比,這里的值一般設(shè)置為4。

        尺寸損失Lsize如公式(7)所示:

        其中,N表示真實(shí)框的個(gè)數(shù);表示各個(gè)中心點(diǎn)對(duì)應(yīng)的邊框長(zhǎng)寬的預(yù)測(cè)值;sk表示各個(gè)中心點(diǎn)對(duì)應(yīng)邊框的真實(shí)值。

        使用DIoU損失函數(shù)替換原始的邊框損失,故總修改之后的總損失如公式(8)所示:

        其中focal損失函數(shù)如公式(9)所示:

        其中,N表示熱度圖點(diǎn)的個(gè)數(shù);Yxyc表示的是在特征圖中(x,y,c)這個(gè)點(diǎn)是否代表有物體,0表示不是物體,1表示是物體;表示在特征圖中(x,y,c)這個(gè)點(diǎn)的置信度;α、β是超參數(shù),分別設(shè)置成2和4。

        DIoU是在IoU損失函數(shù)的基礎(chǔ)上添加了預(yù)測(cè)框與真實(shí)框之間的中心點(diǎn)的距離關(guān)系,并且將該項(xiàng)作為損失函數(shù)的懲罰項(xiàng)。它可以直接最小化兩個(gè)中心點(diǎn)的距離,比GIoU損失函數(shù)還要收斂得快,此外,當(dāng)兩個(gè)邊框沒(méi)有交集的時(shí)候,可以根據(jù)該懲罰項(xiàng)來(lái)提供梯度優(yōu)化的方向。

        對(duì)于Anchor-based的目標(biāo)檢測(cè)框架來(lái)說(shuō),每一個(gè)點(diǎn)都要預(yù)測(cè)3~9個(gè)不等的邊框,而對(duì)于Anchor-free的目標(biāo)檢測(cè)框架來(lái)說(shuō),每一個(gè)點(diǎn)只預(yù)測(cè)一個(gè)邊框。雖然Anchorfree減少了參數(shù)量,但是只有一個(gè)預(yù)測(cè)框會(huì)很大程度上導(dǎo)致整體預(yù)測(cè)框的不準(zhǔn)確性。針對(duì)以上分析,Anchor-free系列的目標(biāo)檢測(cè)框架應(yīng)該使用對(duì)交并比更敏感的DIoU的損失函數(shù)來(lái)進(jìn)行優(yōu)化。從而提升單個(gè)預(yù)測(cè)框的精度。

        2 實(shí)驗(yàn)結(jié)果與分析

        本實(shí)驗(yàn)采用的是Windows 10操作系統(tǒng),使用的深度學(xué)習(xí)框架是PyTorch深度學(xué)習(xí)框架,使用的是Python3.8作為代碼解釋器。實(shí)驗(yàn)環(huán)境配置如表1所示。

        表1 實(shí)驗(yàn)環(huán)境及配置Table 1 Experimental environment and configuration

        2.1 安全帽數(shù)據(jù)集

        由于網(wǎng)上沒(méi)有相關(guān)的安全帽數(shù)據(jù)集,因此在數(shù)據(jù)集方面需要自己去制作。該數(shù)據(jù)集的分類有兩類,一個(gè)是Hat(代表佩帶安全帽的),一類是Person(代表的是沒(méi)有佩戴安全帽的)。使用網(wǎng)絡(luò)爬蟲(chóng)的技術(shù)在百度圖庫(kù)等網(wǎng)站上抓取圖片,以及采用視頻截取的方式來(lái)獲取數(shù)據(jù)源圖片,然后使用Labelimg工具進(jìn)行圖片的標(biāo)注,將其制作成Voc格式的數(shù)據(jù)并存儲(chǔ)到硬盤(pán)中。

        由于在實(shí)際應(yīng)用環(huán)境中,可能會(huì)出現(xiàn)檢測(cè)目標(biāo)過(guò)小的情況,因此在數(shù)據(jù)采集的過(guò)程中盡量采集圖像中目標(biāo)較小的情況。最終收集到的數(shù)據(jù)集共7 581張圖像。圖像中目標(biāo)的展示如圖7所示。

        圖7 安全帽數(shù)據(jù)集Fig.7 Safety helmet date sets

        2.2 訓(xùn)練細(xì)節(jié)

        本實(shí)驗(yàn)的初始化學(xué)習(xí)率設(shè)為0.001,前5次的訓(xùn)練的批次設(shè)置為10。后55次的學(xué)習(xí)率設(shè)為0.000 1,訓(xùn)練批次為3。

        針對(duì)學(xué)習(xí)率的修改,使用的是PyTorch下的Reduce-LROnPlateau函數(shù)來(lái)動(dòng)態(tài)地更新學(xué)習(xí)率,當(dāng)發(fā)現(xiàn)評(píng)估的損失不再降低時(shí),則動(dòng)態(tài)減小學(xué)習(xí)率,factor設(shè)為0.5,patience設(shè)為2。后55次的學(xué)習(xí)率隨著訓(xùn)練次數(shù)的變化如圖8所示。

        圖8 學(xué)習(xí)率的變化Fig.8 Changes in learning rates

        修改DIoU損失函數(shù)后,損失函數(shù)的值由分類損失以及DIoU損失兩部分構(gòu)成,經(jīng)過(guò)115 600次梯度優(yōu)化之后,分類的損失徘徊在了0.74左右,DIoU的損失則是徘徊在了0.52左右。如圖9為后55輪訓(xùn)練后的loss值。

        在最后的5輪訓(xùn)練中,除了最開(kāi)始的一批的波動(dòng)外,損失值接近于平穩(wěn),如圖10所示分類損失穩(wěn)定在0.74左右,定位損失穩(wěn)定在0.52左右。

        圖9 分類和定位loss值Fig.9 Loss value of classify and locate

        圖10 最后5輪訓(xùn)練的損失值Fig.10 Loss value of last 5 rounds of training

        將原始的模型以及修改的三個(gè)模型(在原始的模型上依次增加FPN模塊、ACB非對(duì)稱卷積核模塊和DIOU損失函數(shù))按照上述相同的超參數(shù)進(jìn)行60輪的迭代訓(xùn)練,同時(shí)訓(xùn)練Faster-RCNN以及YOLO v3,并且對(duì)這幾種模型進(jìn)行比較。

        2.3 評(píng)判標(biāo)準(zhǔn)mAP

        mAP(mean average precision)表示的是各類AP的均值。AP表示的是PR曲線、x軸和y軸所圍成的近似面積。PR曲線是由Precision和Recall組成的曲線。其中精度Precision的計(jì)算公式如公式(10)所示,召回率Recall的計(jì)算公式如公式(11)所示。

        TP(true positives)表示的是推導(dǎo)結(jié)果是正樣本并且確實(shí)是正樣本;FP(false positives)表示的是推導(dǎo)結(jié)果為正樣本但實(shí)際為負(fù)樣本;FN(false negative)表示的是推導(dǎo)結(jié)果為負(fù)樣本但實(shí)際為正樣本。正樣本表示的是計(jì)算的類型為該類且計(jì)算的邊框與真實(shí)框的交并比大于某個(gè)閾值,AP(0.5)時(shí),該閾值為0.5。如圖11為FPNCenterNet的佩戴安全帽類的PR曲線。

        2.4 消融實(shí)驗(yàn)

        根據(jù)控制變量法的思想,對(duì)修改處進(jìn)行消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表2所示。其中mAP(0.5)表示的是在IoU交并比大于等于0.5的情況下,所有類的平均精確度。本實(shí)驗(yàn)中FPS是指在GTX GeForce 1050的顯卡上的每秒處理的幀數(shù)。

        圖11 FPN-CenterNet的佩戴安全帽類的PR曲線Fig.11 PR curve of wearing helmet of FPN-centernet

        表2 消融實(shí)驗(yàn)Table 2 Ablation experiment

        由表2的消融實(shí)驗(yàn)數(shù)據(jù)可知,在加入FPN(實(shí)驗(yàn)2)之后,mAP(0.5)提升了4.52個(gè)百分點(diǎn),F(xiàn)PS減少了0.51,提升了非常多,在沒(méi)有明顯減少推理速度的同時(shí)增加了mAP。證實(shí)了CenterNet在推理過(guò)程中,由于下采樣而造成的像素信息的消失,這也造成了在后續(xù)上采樣的過(guò)程中像素信息不夠而導(dǎo)致的小目標(biāo)的檢測(cè)精度不高。在引入FPN之后,安全帽佩戴檢測(cè)的精度有了很大程度的提升。原因在于FPN的引入很大程度上增加了推導(dǎo)的特征圖的像素信息,將特征提取的主干網(wǎng)絡(luò)推導(dǎo)過(guò)程中的特征圖進(jìn)行復(fù)用,即復(fù)用推導(dǎo)過(guò)程中特征圖的像素信息。

        實(shí)驗(yàn)3是在FPN的基礎(chǔ)上增加了ACNet模塊,將ACNet模塊添加到特征提取的主干網(wǎng)絡(luò)ResNet-50中,目的是為了增強(qiáng)主干網(wǎng)絡(luò)的特征提取能力,相比于實(shí)驗(yàn)2,其mAP增加了0.42個(gè)百分點(diǎn),F(xiàn)PS下降了0.9。本實(shí)驗(yàn)中使用ACB非對(duì)稱卷積模塊代替普通的3×3卷積核。目的在于通過(guò)額外增加的兩個(gè)卷積核來(lái)提升網(wǎng)絡(luò)提取旋轉(zhuǎn)以及翻轉(zhuǎn)后目標(biāo)特征的能力。在沒(méi)有明顯增加推理時(shí)間的同時(shí)能提升特征圖的細(xì)粒度信息。

        實(shí)驗(yàn)4是在實(shí)驗(yàn)3的基礎(chǔ)上將原始的邊框損失函數(shù)修改為了DIoU損失函數(shù)。mAP提升了0.05個(gè)百分點(diǎn)。由于沒(méi)有修改網(wǎng)絡(luò)結(jié)構(gòu),因此FPN不變。對(duì)于Anchorfree來(lái)說(shuō)一個(gè)點(diǎn)的邊框回歸只有一個(gè),不需要進(jìn)行非極大抑制剔除多余的預(yù)測(cè)框。不像Anchor-based可以一個(gè)點(diǎn)預(yù)測(cè)好幾種不同尺寸大小的邊框,當(dāng)使用非極大抑制算法來(lái)消去多余的預(yù)測(cè)框時(shí)會(huì)增加整體的推導(dǎo)時(shí)間,此外使用DIoU損失函數(shù)優(yōu)化效果也不是很明顯,但還是有點(diǎn)提升。由于數(shù)據(jù)集沒(méi)有進(jìn)行縮放等數(shù)據(jù)增強(qiáng)的行為,因此提升較低。

        2.5 實(shí)驗(yàn)結(jié)果與分析

        本實(shí)驗(yàn)中,還分別使用該數(shù)據(jù)集訓(xùn)練了YOLO v3和Faster-RCNN,它們的mAP以及FPS對(duì)比數(shù)據(jù)如表3所示。

        表3 各算法的性能對(duì)比Table 3 Performance comparison of each algorithm

        根據(jù)表3的數(shù)據(jù)顯示,改進(jìn)之后的FPN-CenterNet能有效地檢測(cè)安全帽的佩戴,相比與原始的CenterNet,mAP提升了4.99個(gè)百分點(diǎn)。相比于Faster-RCNN(Vgg-16)、Faster-RCNN(ResNet-50)、YOLO v3(ResNet-50)、YOLO v3(DarkNet-53)和FAENet(ResNet-50),mAP分別高了37.37、33.47、14.25、8.67和12.15個(gè)百分點(diǎn)。同時(shí)在GTX GeForce 1050的顯卡上,F(xiàn)PS分別提高了20.74、23.01、9.97、11.13和16.7。Hog+SVM算法則是使用opencv的人像檢測(cè)再按比例計(jì)算出頭部的位置,隨后根據(jù)SVM分類器進(jìn)行分類。由于人像檢測(cè)和分類器必須兩者全部預(yù)測(cè)正確,結(jié)果才能預(yù)測(cè)正確,因此mAP并不高。

        如圖12是原始的CenterNet和改進(jìn)之后的FPNCenterNet的效果比較。

        圖12 改進(jìn)前后的檢測(cè)結(jié)果比較Fig.12 Comparison of test results before and after improvement

        如圖12所示,改進(jìn)前圖像的中間有許多的目標(biāo)沒(méi)有檢測(cè)到從而導(dǎo)致了檢測(cè)精確度的下降。改進(jìn)之后中間許多目標(biāo)都檢測(cè)到了,每一個(gè)框的置信度都相較于原始的算法有了一定的提升。這說(shuō)明FPN-CenterNet能有效地利用像素的信息來(lái)有效地提升安全帽檢測(cè)的精度。其在安全帽數(shù)據(jù)集的效果如圖13所示。

        圖13 FPN-CenterNet效果展示Fig.13 FPN-Centernet effect display

        如本實(shí)驗(yàn)結(jié)果所示,F(xiàn)PN-CenterNet在安全帽的佩戴檢測(cè)方面有良好的精確度以及效率。

        3 結(jié)束語(yǔ)

        本文針對(duì)原始的CenterNet在安全帽佩戴檢測(cè)中精度不高的問(wèn)題做出了分析。由于小范圍目標(biāo)的數(shù)量較多而且容易出現(xiàn)密集分布,對(duì)于以關(guān)鍵點(diǎn)來(lái)驗(yàn)證的CenterNet來(lái)說(shuō),密集的分布更容易出現(xiàn)像素點(diǎn)信息的丟失。針對(duì)下采樣過(guò)程中像素點(diǎn)信息容易消散的問(wèn)題,結(jié)合了FPN的思想,對(duì)原始的框架進(jìn)行了修改,修改為FPN-CenterNet框架,將提取到的特征信息進(jìn)行了復(fù)用,從而減緩了下采樣過(guò)程中出現(xiàn)的像素點(diǎn)信息消散的情況;此外將非對(duì)稱卷積核融入到特征提取的主干網(wǎng)絡(luò)ResNet-50中,使用非對(duì)稱卷積來(lái)替換原始的3×3卷積核,在不增加推導(dǎo)時(shí)間的同時(shí)能豐富提取到的特征信息,提升特征圖的細(xì)粒度信息;最后通過(guò)DIoU損失函數(shù)替換原始的中心點(diǎn)偏移損失以及邊框的長(zhǎng)寬回歸損失,對(duì)于Anchor-free來(lái)說(shuō)每個(gè)點(diǎn)只有一個(gè)回歸的框,使用DIoU損失函數(shù)代替原有的邊框損失函數(shù),能在一定程度上提升邊框預(yù)測(cè)的準(zhǔn)確性。

        實(shí)驗(yàn)結(jié)果表明,F(xiàn)PN-CenterNet的改進(jìn)相比于原始的CenterNet在速度基本不變的情況下可以有更好的檢測(cè)精度。改進(jìn)之后的FPN-CenterNet算法相比于原始的CenterNet的mAP提升了4.99個(gè)百分點(diǎn),在GTX GeForce 1050的顯卡上FPS為25.81。實(shí)驗(yàn)表明修改之后的FPN-CenterNet算法在安全帽佩戴檢測(cè)上有良好的準(zhǔn)確性和效率。

        但依舊存在漏檢等問(wèn)題,該問(wèn)題出現(xiàn)在多個(gè)目標(biāo)重疊或相近等情況,可能的原因是單尺度預(yù)測(cè)導(dǎo)致多個(gè)關(guān)鍵點(diǎn)重疊從而在解碼階段只有一個(gè)關(guān)鍵點(diǎn)有預(yù)測(cè)的信息。今后的實(shí)驗(yàn)將會(huì)圍繞著這個(gè)問(wèn)題進(jìn)行優(yōu)化和改進(jìn)。

        猜你喜歡
        安全帽邊框特征提取
        刺猬戴上安全帽
        礦工有無(wú)數(shù)頂安全帽
        小小安全帽,生命保護(hù)傘
        一模六產(chǎn)品篩板模具的設(shè)計(jì)與應(yīng)用
        智能制造(2022年4期)2022-08-18 16:21:14
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        用Lightroom添加寶麗來(lái)邊框
        給照片制作專業(yè)級(jí)的邊框
        Bagging RCSP腦電特征提取算法
        擺脫邊框的束縛優(yōu)派
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        丰满人妻被持续侵犯中出在线| 成人在线激情网| 亚洲熟女av超清一区二区三区| 激情免费视频一区二区三区| 日韩 亚洲 制服 欧美 综合| 高潮又爽又无遮挡又免费| 国产伦精品一区二区三区视| 免费观看成人稀缺视频在线播放| 亚洲写真成人午夜亚洲美女| 精品区2区3区4区产品乱码9| 久久精品国产9久久综合| 激情人妻网址| 风韵人妻丰满熟妇老熟| 亚洲欧美日韩中文字幕一区二区三区 | 精品少妇爆乳无码aⅴ区| 日本美女性亚洲精品黄色| 国产麻花豆剧传媒精品mv在线| 成人白浆超碰人人人人| 亚洲三级在线播放| h视频在线免费观看视频| 欧美又粗又长又爽做受| 7878成人国产在线观看| 国产精品人人爱一区二区白浆| 丰满少妇被猛进去高潮| 成l人在线观看线路1| 熟妇无码AV| 国产在线a免费观看不卡| 色婷婷五月综合激情中文字幕| 久久综合精品国产丝袜长腿| 精品999无码在线观看| 国产精品国产三级国产av18| 国产成熟人妻换╳╳╳╳| 国产一级在线现免费观看| 青青草在线免费观看在线| 亚洲欧美一区二区成人片| 97se亚洲国产综合自在线图片 | 比较有韵味的熟妇无码| 99re6热在线精品视频播放6| 少妇一区二区三区乱码| 无码专区人妻系列日韩精品| 日韩无套内射视频6|