亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于工程環(huán)境背景下安全帽佩戴檢測(cè)算法研究

        2022-03-29 02:13:23劉川
        河南科技 2022年4期
        關(guān)鍵詞:損失函數(shù)目標(biāo)檢測(cè)

        劉川

        摘 要:針對(duì)當(dāng)前安全帽佩戴檢測(cè)算法存在結(jié)構(gòu)復(fù)雜、魯棒性差等問(wèn)題,提出一種借助改進(jìn)后的YOLOv3算法進(jìn)行安全帽佩戴檢測(cè)。利用包含通道注意力機(jī)制的SE-ResNeXt殘差結(jié)構(gòu),替換YOLOv3模型中Darknet53網(wǎng)絡(luò)的殘差結(jié)構(gòu),在不加深網(wǎng)絡(luò)結(jié)構(gòu)的情況下,利用通道注意力機(jī)制,捕獲特征有用信息,達(dá)到提高特征表示能力的目的。再利用空間池化金字塔模塊,對(duì)待測(cè)圖片進(jìn)行多尺度提取,提高檢測(cè)精度。最后將IOU損失函數(shù)替換成CIOU損失函數(shù),在進(jìn)一步提高檢測(cè)精度的同時(shí),加速模型收斂。通過(guò)自建數(shù)據(jù)集驗(yàn)證可知,改進(jìn)后模型檢測(cè)準(zhǔn)確率相比于原始YOLOv3模型,檢測(cè)平均精確度(mAP)提高了4.29%,每秒檢測(cè)幀數(shù)(FPS)提高了8.67%。

        關(guān)鍵詞:目標(biāo)檢測(cè);YOLOv3;SE-ResNeXt;SPP-Net;損失函數(shù)

        中圖分類號(hào):TP391.41 ? ? 文獻(xiàn)標(biāo)志碼:A ? ? 文章編號(hào):1003-5168(2022)4-0007-06

        DOI:10.19968/j.cnki.hnkj.1003-5168.2022.04.001

        Research on the Algorithm of Safety Helmet Wearing Detection Based on the Background of Engineering Environment

        LIU Chuan

        (School of Information Engineering, Chaohu University, Hefei 238014,China)

        Abstract:In view of the complex structure and poor robustness of the current helmet wearing detection algorithm, a helmet wearing detection method is proposed with the aid of the improved YOLOv3 algorithm. The SE-ResNeXt residual structure including the channel attention mechanism is used to replace the YOLOv3 model. The residual structure of the Darknet53 network, without deepening the network structure, uses the channel attention mechanism to capture useful information of features to achieve the purpose of improving feature representation. Then use the spatial pooling pyramid module to perform multi-scale extraction of the image to be tested. Improved the detection accuracy. Finally, the IOU loss function was replaced with the CIOU loss function, which further improved the detection accuracy while accelerating the model convergence. It can be seen from the self-built data set verification that the improved model detection accuracy rate is compared with the original YOLOv3 model. The average accuracy (mAP) has increased by 4.29%, and the number of frames per second (FPS) has increased by 8.67%.

        Keywords: target detection; YOLOv3; SE-ResNeXt; SPP-Net; loss function

        0 引言

        現(xiàn)如今安全生產(chǎn)已成為各施工單位最為重視的一環(huán)[1],為保障施工人員安全,依據(jù)國(guó)家安全生產(chǎn)相關(guān)法規(guī)條款規(guī)定,工作人員進(jìn)入施工場(chǎng)地必須佩戴安全帽。然而由于部分施工人員安全意識(shí)淡薄、個(gè)別施工監(jiān)管單位存在安全責(zé)任落實(shí)不到位等情況,常常導(dǎo)致施工場(chǎng)地安全事故頻發(fā)。目前各單位對(duì)施工員工佩戴安全帽監(jiān)管以人工監(jiān)管形式為主,實(shí)際操作起來(lái)存在效率低下、浮于表面、效果不佳等情況。因此,利用計(jì)算機(jī)視覺(jué)來(lái)自動(dòng)完成對(duì)施工場(chǎng)地實(shí)時(shí)安全帽佩戴檢測(cè),具有檢測(cè)范圍廣、成效優(yōu)、實(shí)時(shí)報(bào)警等特點(diǎn),為施工場(chǎng)地安全監(jiān)測(cè)提供了新方向。

        目前利用計(jì)算機(jī)視覺(jué)完成對(duì)施工人員佩戴安全帽檢測(cè)的方法主要分為以下幾類。一類是利用傳統(tǒng)算法實(shí)現(xiàn),Rubaigat等人利用物體色彩信息以及結(jié)合物體形狀特征來(lái)完成對(duì)施工人員安全帽佩戴檢測(cè)[2]。李琪瑞運(yùn)用機(jī)器學(xué)習(xí)領(lǐng)域中SVM分類器以及HOG方向梯度直方圖特征相結(jié)合完成對(duì)人員佩戴安全帽檢測(cè)[3]。在檢測(cè)效果方面,雖然以上方法都取得了一定成效,但通過(guò)利用傳統(tǒng)人為選取特征進(jìn)行分類檢測(cè),會(huì)依賴較強(qiáng)的先驗(yàn)知識(shí),實(shí)際工程應(yīng)用背景下會(huì)出現(xiàn)魯棒性差、泛化能力不足等問(wèn)題。

        伴隨目標(biāo)檢測(cè)領(lǐng)域中深度學(xué)習(xí)等相關(guān)技術(shù)的快速發(fā)展,研究人員借助深度學(xué)習(xí)技術(shù)來(lái)完成對(duì)圖像中待測(cè)目標(biāo)檢測(cè)與識(shí)別,并獲得較佳的效果。依據(jù)檢測(cè)步驟的不同,深度學(xué)習(xí)目標(biāo)檢測(cè)算法主要分成單步檢測(cè)算法和兩步檢測(cè)算法。以Faster R-CNN系列為代表的兩步檢測(cè)算法雖檢測(cè)精度優(yōu)于單步檢測(cè)算法,但檢測(cè)速率下降很多。如徐守坤等人使用改進(jìn)Faster R-CNN檢測(cè)安全帽佩戴情況[4],該類方法不適用于實(shí)時(shí)性要求較高的應(yīng)用場(chǎng)景。而以YOLO系列、SSD系列等為代表的單階段檢測(cè)算法,僅需要將待測(cè)圖像送入網(wǎng)絡(luò)一次即可預(yù)測(cè)出所有邊界框;王秋余對(duì)YOLO網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行優(yōu)化調(diào)整,引入半監(jiān)督學(xué)習(xí)的思想,完成對(duì)安全帽佩戴識(shí)別[5]。檢測(cè)速度雖較兩步檢測(cè)算法明顯提升,但在實(shí)際復(fù)雜檢測(cè)環(huán)境下漏檢和誤檢情況較多,尤其對(duì)于目標(biāo)尺寸較小情況檢測(cè)精度不佳。

        綜上,本研究提出一種基于YOLOv3為主干網(wǎng)絡(luò),進(jìn)行優(yōu)化改進(jìn)后的安全帽佩戴識(shí)別檢測(cè)算法。首先利用ResNeXt網(wǎng)絡(luò)結(jié)構(gòu)替換原始YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)中的ResNet的殘差結(jié)構(gòu),再引入通道注意力SE-Net模塊以及在網(wǎng)絡(luò)框架中加入SPP空間池化金字塔模塊,然后再使用CIOU損失函數(shù)替換原有IOU損失函數(shù)并基于自建數(shù)據(jù)集重新聚類獲得先驗(yàn)框,實(shí)現(xiàn)安全帽佩戴檢測(cè)。最后,在同一測(cè)試集下與原始YOLOv3、SSD和Faster-RCNN等檢測(cè)算法進(jìn)行比較,驗(yàn)證改進(jìn)后算法的性能。

        1 YOLOv3算法介紹

        YOLOv3網(wǎng)絡(luò)框架是一種單步實(shí)時(shí)目標(biāo)檢測(cè)模型,在確保高檢測(cè)精度的同時(shí),檢測(cè)速度要優(yōu)于其他基于兩步檢測(cè)網(wǎng)絡(luò)檢測(cè)算法。其構(gòu)建的主干網(wǎng)絡(luò)由之前的Darknet-19網(wǎng)絡(luò)結(jié)構(gòu)改為Darknet-53網(wǎng)絡(luò)結(jié)構(gòu),骨干網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。YOLOv3模型中還增添了殘差結(jié)構(gòu),保證網(wǎng)絡(luò)結(jié)構(gòu)在較深的情況,確保訓(xùn)練的模型能夠同時(shí)收斂,降低了模型的計(jì)算量。YOLOv3中Darknet53網(wǎng)絡(luò)主要由5個(gè)殘差塊構(gòu)成,每個(gè)殘差塊由若干個(gè)數(shù)量不等的殘差單元組成。此外,YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)也采用多尺度檢測(cè)技術(shù),引入了類似于FPN(Feature Pyramid Networks)特征金字塔結(jié)構(gòu),實(shí)現(xiàn)了高維和低維信息融合,提升了檢測(cè)的準(zhǔn)確率。

        YOLOv3網(wǎng)絡(luò)具有檢測(cè)準(zhǔn)確率高、實(shí)時(shí)性好等特點(diǎn),但在實(shí)際施工場(chǎng)景環(huán)境中存在著檢測(cè)目標(biāo)小,檢測(cè)背景復(fù)雜等問(wèn)題,因此本研究在原始YOLOv3網(wǎng)絡(luò)模型基礎(chǔ)之上,對(duì)其結(jié)構(gòu)進(jìn)行優(yōu)化調(diào)整,使得模型在復(fù)雜場(chǎng)景檢測(cè)下具有較高準(zhǔn)確率和容錯(cuò)能力。

        2 改進(jìn)YOLOv3算法

        2.1 殘差模塊設(shè)計(jì)

        YOLOv3網(wǎng)絡(luò)中的殘差模塊結(jié)構(gòu)Residual單元[7]參考了Jie等人提出的ResNet網(wǎng)絡(luò)結(jié)構(gòu),Residual網(wǎng)絡(luò)結(jié)構(gòu)相比于普通的卷積網(wǎng)絡(luò)結(jié)構(gòu)引入了跳躍連接,使得殘差塊之前的信息可以無(wú)阻礙地流入到下一個(gè)殘差模塊中去,既提高信息流入,也能防止由于網(wǎng)絡(luò)結(jié)構(gòu)過(guò)深所帶來(lái)的梯度消失和退化問(wèn)題。然而基于ResNet結(jié)構(gòu)的網(wǎng)絡(luò)模型進(jìn)一步提高檢測(cè)識(shí)別準(zhǔn)確率,就需要進(jìn)一步加深或加寬網(wǎng)絡(luò)結(jié)構(gòu),進(jìn)而會(huì)導(dǎo)致網(wǎng)絡(luò)中超參數(shù)的數(shù)量進(jìn)一步增加,使得整體網(wǎng)絡(luò)開(kāi)銷變大。本研究提出利用壓縮激發(fā)網(wǎng)絡(luò)SENet和ResNeXt網(wǎng)絡(luò)結(jié)構(gòu)融合組成SE-ResNeXt結(jié)構(gòu)替換Darknet53網(wǎng)絡(luò)中的ResNet結(jié)構(gòu),使得改進(jìn)后的網(wǎng)絡(luò)在不增加模型網(wǎng)絡(luò)開(kāi)銷基礎(chǔ)上提高了檢測(cè)性能。

        壓縮激發(fā)網(wǎng)絡(luò)SENet通過(guò)在特征通道之間建立相關(guān)性,來(lái)調(diào)整圖像特征圖的通道權(quán)重,加強(qiáng)具有判別能力的特征,弱化非判別能力的特征,特征圖通道的權(quán)重是采用學(xué)習(xí)方式獲得的。進(jìn)而增強(qiáng)了網(wǎng)絡(luò)計(jì)算的針對(duì)性,達(dá)到了提升檢測(cè)效果的目的。其中壓縮Squeeze模塊和激勵(lì)Excitation模塊,共同構(gòu)成了其總網(wǎng)絡(luò)結(jié)構(gòu)。圖2為SENet網(wǎng)絡(luò)結(jié)構(gòu)。

        其中,Squeeze操作主要是對(duì)特征通道數(shù)分別為H×W×C的輸入進(jìn)行全局平均池化,使得輸出為1×1×C的數(shù)據(jù)。Squeeze操作如公式(1)所示,其中z∈R是通過(guò)對(duì)特征u在空間維度H×W進(jìn)行縮放產(chǎn)生的。

        Squeeze操作后,則進(jìn)行Excitation操作。其主要通過(guò)賦值操作,賦予兩層全連接層各自一個(gè)權(quán)重值,來(lái)構(gòu)建不同通道互相之間的非線性相互作用關(guān)系,如公式(2)所示。式(2)中的σ和δ參數(shù)分別表示為激活函數(shù)sigmoid和relu,W1∈R(C/r)×C,W2∈R(C/r)×C。

        再進(jìn)行Reweight操作,則將Excitation的輸出的權(quán)重看作每個(gè)特征通道的重要性,然后將之前的特征通過(guò)乘法逐通道加權(quán)到原有的特征上,對(duì)原始特征在通道維度上重新校準(zhǔn)。Fscale為通道上的乘積,計(jì)算過(guò)程如公式(3)所示,uc∈RH×W。

        ResNeXt網(wǎng)絡(luò)結(jié)構(gòu)是在ResNet網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)上優(yōu)化得到的,其主要運(yùn)用了Inception的重構(gòu)網(wǎng)絡(luò)結(jié)構(gòu)的思想,將模型中采用疊加操作卷積層變成了自網(wǎng)絡(luò)的疊加,在提高檢測(cè)準(zhǔn)確率的同時(shí),克服了傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)模型為了提高模型的準(zhǔn)確率需要加深網(wǎng)絡(luò)的寬度和深度的困難,解決了網(wǎng)絡(luò)結(jié)構(gòu)加深帶來(lái)的梯度消失問(wèn)題。不同于Inception結(jié)構(gòu)之處是,ResNeXt在多路徑上采用相同的拓?fù)浣Y(jié)構(gòu)共享超參數(shù),通過(guò)基數(shù)來(lái)控制卷積分支數(shù),減少了需要手動(dòng)調(diào)節(jié)控制的超參數(shù),進(jìn)一步提高了模型可擴(kuò)展性。ResNet和ResNeXt的結(jié)構(gòu)對(duì)比如圖3所示。

        結(jié)合SE-Net網(wǎng)絡(luò)的特點(diǎn),將ResNeXt網(wǎng)絡(luò)結(jié)構(gòu)與SE-Net網(wǎng)絡(luò)相融合,通過(guò)SE-Net通道注意力機(jī)制的引入,對(duì)各個(gè)通道進(jìn)行加權(quán),從而側(cè)重于權(quán)重值大的通道特征,削弱對(duì)當(dāng)前任務(wù)不重要的通道特征,進(jìn)而改善ResNeXt網(wǎng)絡(luò)性能。改進(jìn)后的SE-ResNeXt結(jié)構(gòu),既能避免在網(wǎng)絡(luò)層數(shù)激增的同時(shí)所帶來(lái)的梯度消失問(wèn)題,又能確立特征通道之間的關(guān)聯(lián)情況,提升結(jié)節(jié)分類的能力。

        2.2 增加SPP模塊

        在實(shí)際檢測(cè)中發(fā)現(xiàn),檢測(cè)距離的不同會(huì)導(dǎo)致輸入檢測(cè)網(wǎng)絡(luò)中的安全帽信息尺度存在大小不一致問(wèn)題。為了克服這一問(wèn)題,在改進(jìn)的模型骨干網(wǎng)絡(luò)中引入空間池化金字塔模塊SPP結(jié)構(gòu),空間池化金字塔模塊SPP如圖4所示。此模塊主要利用了空間池化金字塔的思想,通過(guò)局部特征和全局特征的提取提升了模型的感受野,消除了因不同大小目標(biāo)造成特征信息尺度不一致的問(wèn)題,既能提高檢測(cè)準(zhǔn)確率,也提高了產(chǎn)生候選框的速度。

        改進(jìn)完成后的網(wǎng)絡(luò)框架總體結(jié)構(gòu)如圖5所示,與YOLOv3原始網(wǎng)絡(luò)相比較,新網(wǎng)絡(luò)結(jié)構(gòu)主要優(yōu)化了殘差網(wǎng)絡(luò)結(jié)構(gòu)并引入了空間金字塔模塊。

        2.3 基于K-means的錨點(diǎn)框重置

        YOLOv3模型采用了聚類算法在PASCAL VOC數(shù)據(jù)集上聚類生成3組9個(gè)先驗(yàn)框anchor box,用于預(yù)測(cè)邊界框的坐標(biāo)。為了更加適用于本研究檢測(cè)場(chǎng)景,對(duì)自建安全帽數(shù)據(jù)集進(jìn)行重新聚類,運(yùn)用了主流的聚類算法K-means方法,以確定獲得合適的安全帽聚類錨框。在聚類過(guò)程中使用測(cè)量真實(shí)框和預(yù)測(cè)框之間的相關(guān)度IOU作為度量函數(shù),度量函數(shù)如公式(4)所示。

        式中,box是標(biāo)注的真實(shí)目標(biāo)框,其中聚類中心點(diǎn)為centroid,IOU越大則距離越小,先驗(yàn)框也越接近于真實(shí)框。經(jīng)過(guò)K-means聚類算法在自建數(shù)據(jù)集處理,本研究選擇了初始候選框?yàn)?個(gè):(6,14)、(13,24)、(23,39)、(36,60)、(52,89)、(75,125)、(96,174)、(143,245)、(260,312),一方面既可以加速損失函數(shù)的收斂,另一方面也可減少候選框過(guò)多或過(guò)少帶來(lái)的誤差損失。

        2.4 基于CIOU的損失函數(shù)改進(jìn)

        在YOLOv3算法中利用IOU交并比的值大小,來(lái)判定模型所生成的預(yù)測(cè)框與真實(shí)框之間的重疊率。通常人為設(shè)定一個(gè)IOU值,當(dāng)檢測(cè)目標(biāo)IOU交并比值大于該閾值時(shí),則判定檢測(cè)到待測(cè)目標(biāo),否則認(rèn)為未正確檢測(cè)到目標(biāo)。其計(jì)算過(guò)程如公式(5)所示。其中A和B為預(yù)測(cè)框的面積和真實(shí)框的面積。

        然而IOU作為損失函數(shù)時(shí),會(huì)存在當(dāng)檢測(cè)框與真實(shí)目標(biāo)框之間未重合時(shí)IOU始終值為0的情況,此時(shí)不存在梯度,出現(xiàn)無(wú)法進(jìn)行梯度下降優(yōu)化情況。因此,引入CIOU作為邊界框回歸損失函數(shù)來(lái)替代原始IOU損失函數(shù),CIOU損失函數(shù)計(jì)算如公式(6)所示。

        其中,對(duì)于檢測(cè)框和真實(shí)框兩中心點(diǎn)之間的歐式距離的計(jì)算,采用ρ(b,b)表示,使用c來(lái)表述真實(shí)框和預(yù)測(cè)框之間最小閉包區(qū)域的對(duì)角線距離。ν參數(shù)反映檢測(cè)框和真實(shí)框之間的比例是否一致。計(jì)算公式如公式(7)所示。

        式中,[α]是用來(lái)平衡比例的參數(shù)。計(jì)算公式如公式(8)所示。

        CIOU相比于IOU,其直接最小化預(yù)測(cè)框與目標(biāo)框之間的歸一化距離實(shí)現(xiàn)了更快的模型收斂,且具有尺度不變性,同時(shí)使得模型會(huì)更加傾向于往重疊區(qū)域增多方向優(yōu)化。

        3 改進(jìn)版YOLOv3模型性能試驗(yàn)分析

        3.1 試驗(yàn)環(huán)境

        本試驗(yàn)?zāi)P陀?xùn)練使用的硬件平臺(tái)主要包含Intel i7-10700k CPU 3.8GHz,英偉達(dá)RTX 2080 Ti 11G GPU,16GB DDR4內(nèi)存;系統(tǒng)軟件方面采用Windows 10 操作系統(tǒng)、PyTorch 1.6.0框架,采用CUDA10.2和CUDNN7.6為GPU訓(xùn)練進(jìn)行加速。

        3.2 試驗(yàn)數(shù)據(jù)集

        本研究試驗(yàn)數(shù)據(jù)主要由兩個(gè)部分構(gòu)成,一部分選用開(kāi)源的安全帽數(shù)據(jù)集,包括SHWD、Hard Hat Workers Dataset等部分圖片,另一部分圖片主要為從施工場(chǎng)地現(xiàn)場(chǎng)進(jìn)行視頻拍攝幀截取得到的,避免單一從網(wǎng)上爬蟲(chóng)獲取導(dǎo)致脫離實(shí)際應(yīng)用背景。總數(shù)據(jù)集共包括了8 000張各種類型安全帽佩戴圖片并參考VOC2007標(biāo)注格式,利用開(kāi)源數(shù)據(jù)標(biāo)注工具Labeling對(duì)數(shù)據(jù)集進(jìn)行標(biāo)注。其中,正確佩戴安全帽標(biāo)記為hat,未佩戴安全帽標(biāo)記為no-hat。訓(xùn)練集、測(cè)試集及驗(yàn)證集分別從隨機(jī)總數(shù)據(jù)集中抽取,對(duì)應(yīng)訓(xùn)練集6 000張圖片,測(cè)試集及驗(yàn)證集各1 000張圖片。其中,測(cè)試集不含標(biāo)注信息,且測(cè)試集和訓(xùn)練集無(wú)重復(fù),從而達(dá)到驗(yàn)證目的。

        3.3 評(píng)測(cè)指標(biāo)

        為了驗(yàn)證改進(jìn)后的YOLOv3算法性能,本研究采用了平均精準(zhǔn)度(mean Average Precision,mAP)以及每秒檢測(cè)幀數(shù)(FPS)等指標(biāo)來(lái)對(duì)算法模型進(jìn)行評(píng)估。其中,單類別的平均準(zhǔn)確率采用AP表示,mAP則為多類別的AP均值。mAP的值越大則整體的識(shí)別率越高。計(jì)算方法如公式(9)所示,Precision和Recall為準(zhǔn)確率和召回率。其中,TP (True Positives)計(jì)算如下。

        數(shù)據(jù)集中正確判定為正例的實(shí)例數(shù)FP (False Positives)為數(shù)據(jù)集被誤標(biāo)記為正樣本的實(shí)例數(shù)。FN (False Negatives)為數(shù)據(jù)集中誤標(biāo)記為負(fù)樣本的實(shí)例數(shù)。

        3.4 試驗(yàn)結(jié)果分析

        采用建立好的安全帽訓(xùn)練集對(duì)提出的模型進(jìn)行訓(xùn)練,訓(xùn)練的參數(shù)主要參考了YOLOv3原始網(wǎng)絡(luò)的訓(xùn)練參數(shù),結(jié)合訓(xùn)練平臺(tái)硬件參數(shù),對(duì)訓(xùn)練中部分參數(shù)再進(jìn)行優(yōu)化,使得整個(gè)網(wǎng)絡(luò)檢測(cè)效果達(dá)到較佳,訓(xùn)練的參數(shù)設(shè)置如表1所示。

        3.5 算法性能測(cè)試及其對(duì)比試驗(yàn)

        為了驗(yàn)證改進(jìn)后的網(wǎng)絡(luò)模型的檢測(cè)效果,本研究將改進(jìn)版YOLOv3算法與原始YOLOv3模型、Faster-RCNN以及SSD模型運(yùn)用相同的測(cè)試數(shù)據(jù)集進(jìn)行對(duì)比驗(yàn)證,選擇統(tǒng)計(jì)并計(jì)算使用mAP指標(biāo)、每秒識(shí)別幀數(shù)進(jìn)行對(duì)比,評(píng)估模型。其中輸入測(cè)試集圖像尺寸為[416×416],檢測(cè)結(jié)果如表2所示。

        3.6 結(jié)果分析

        從試驗(yàn)結(jié)果分析可得,改進(jìn)后的YOLOv3算法mAP相比于其他對(duì)比算法都更高,達(dá)到了92.14%,對(duì)比于原始的YOLOv3算法檢測(cè)精度mAP提高了4.29%,且每秒檢測(cè)幀數(shù)(FPS)提高了8.67%,達(dá)到了每秒28.8幀,基本上達(dá)到了實(shí)時(shí)檢測(cè)的要求。盡管SSD算法相比于本研究算法其檢測(cè)速度更佳,在實(shí)際檢測(cè)過(guò)程中針對(duì)待測(cè)目標(biāo)較小以及遮擋情況等出現(xiàn)了明顯誤檢、漏檢情況,整體檢測(cè)精度較差。而本文算法在確保檢測(cè)準(zhǔn)確率的同時(shí),檢測(cè)速率也能達(dá)到實(shí)時(shí)檢測(cè),具備較佳的工程應(yīng)用價(jià)值。

        為了進(jìn)一步展示原始YOLOv3算法以及改進(jìn)后YOLOv3算法的檢測(cè)效果對(duì)比,本研究從驗(yàn)證集中選取了部分樣本進(jìn)行檢測(cè),其中包含顏色形狀干擾、腳手架遮擋以及小目標(biāo)檢測(cè)等情況,檢測(cè)結(jié)果如圖6所示。圖7給出了不同狀態(tài)下的部分測(cè)試結(jié)果,其中最左邊為原始圖像、中間為原始YOLOv3算法檢測(cè)圖像、右側(cè)為改進(jìn)后YOLOv3算法檢測(cè)結(jié)果。由圖7可以看出,在存在遮擋、檢測(cè)目標(biāo)小以及相似形狀等復(fù)雜環(huán)境背景下,本算法均能正確識(shí)別與檢測(cè),而原始YOLOv3模型卻存在著部分漏檢、誤檢的情況。

        4 結(jié)論與展望

        針對(duì)在工程施工領(lǐng)域安全帽佩戴檢測(cè)效果不理想情況,本研究在原始YOLOv3網(wǎng)絡(luò)模型的基礎(chǔ)上,通過(guò)引入SE-ResNeXt殘差單元改進(jìn)原始特征提取網(wǎng)絡(luò)Darknet53中的ResNet殘差結(jié)構(gòu),在加深網(wǎng)絡(luò)深度、獲取更高級(jí)別語(yǔ)義信息的同時(shí),減少了由于加深網(wǎng)絡(luò)深度帶來(lái)的模型退化問(wèn)題。在模型最后,引入了SPPNet空間池化金字塔模塊,對(duì)待測(cè)圖片進(jìn)行多尺度提取,提高了檢測(cè)精度。同時(shí),使用CIOU替換原始的IOU損失函數(shù),幫助模型在提高檢測(cè)效率的同時(shí),更快收斂。由在自建的數(shù)據(jù)集上測(cè)試驗(yàn)證可知,改進(jìn)后的YOLOv3檢測(cè)模型與原始的YOLOv3檢測(cè)模型相比,準(zhǔn)確率mAP從87.85%提高到92.14%,提高了4.29%,每秒檢測(cè)幀數(shù)(FPS)提高了8.67%,達(dá)到了每秒28.8幀。通過(guò)對(duì)施工現(xiàn)場(chǎng)攝像頭采集視頻流圖像識(shí)別結(jié)果表明,改進(jìn)后的YOLOv3算法檢測(cè)準(zhǔn)確率較高,識(shí)別速度快,具備工程使用價(jià)值。

        參考文獻(xiàn):

        [1] 常欣,劉鑫萌.建筑施工人員不合理佩戴安全帽事故樹(shù)分析[J].吉林建筑大學(xué)學(xué)報(bào),2018,35(6): 65-69.

        [2] RUBAIYAT A,TOMA T T,KALANTARI-KH-ANDANI M, et al. Automatic Detection of Helmet Uses for Construction Safety[C]// IEEE/WIC/ACM International Conference on Web Intelligence Workshops. ACM, 2017.

        [3] 李琪瑞.基于人體識(shí)別的安全帽視頻檢測(cè)系統(tǒng)研究與實(shí)現(xiàn)[D].成都:電子科技大學(xué), 2017.

        [4] 徐守坤,王雅如,顧玉宛,等.基于改進(jìn)Faster RCNN的安全帽佩戴檢測(cè)研究[J].計(jì)算機(jī)應(yīng)用研究,2020,37(3):901-905.

        [5] 王秋余.基于視頻流的施工現(xiàn)場(chǎng)工人安全帽佩戴識(shí)別研究[D].武漢:華中科技大學(xué),2018.

        [6] 郭玥秀,楊偉,劉琦,等.殘差網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)應(yīng)用研究,2020,37(5):1292-1297.

        猜你喜歡
        損失函數(shù)目標(biāo)檢測(cè)
        考慮應(yīng)急時(shí)間和未滿足需求量的應(yīng)急物資多階段分配模型
        基于深度學(xué)習(xí)的人臉屬性聯(lián)合估計(jì)
        基于福利損失函數(shù)的人民幣匯率制度選擇
        基于福利損失函數(shù)的人民幣匯率制度選擇
        視頻中目標(biāo)檢測(cè)算法研究
        軟件(2016年4期)2017-01-20 09:38:03
        行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
        移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
        基于P3電位的目標(biāo)檢測(cè)研究
        科技視界(2016年4期)2016-02-22 13:09:19
        蜜臀av毛片一区二区三区| 日本少妇春药特殊按摩3| 欧美xxxx做受欧美88| 人妻少妇精品视频无码专区| 日韩手机在线免费视频| 五月激情婷婷丁香| 亚洲一区二区三区在线观看蜜桃| 精品综合久久88少妇激情| 无码aⅴ精品一区二区三区浪潮| 漂亮人妻被中出中文字幕久久| 亚洲国产无套无码av电影| 国产欧美日韩视频一区二区三区| 国产成人精选在线不卡| 国产精品久久久久久久专区| 久久老熟女乱色一区二区| 亚洲乱妇熟女爽到高潮视频高清| 中文字幕亚洲精品久久| 国产太嫩了在线观看| 男女性高爱潮免费观看| 久久这里只有精品9| 日本一区免费喷水| 日本激情久久精品人妻热| 久久夜色精品国产噜噜噜亚洲av| 久久精品国产亚洲av麻豆色欲| 超级碰碰色偷偷免费视频| 中文人妻av久久人妻18| 色播在线永久免费视频网站| 亚洲一区二区三区av色婷婷| 少妇人妻中文久久综合| 欧美三级不卡在线观看| 精品久久久久久无码国产| 女人被躁到高潮嗷嗷叫| 高潮av一区二区三区| 经典三级免费看片天堂| 在线观看特色大片免费视频| 色噜噜狠狠色综合成人网| 欧美人与物videos另类| 国产精品白浆一区二区免费看| 99999久久久久久亚洲| 午夜精品久久久久成人| 激情五月婷婷综合|