亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)YOLOv3 的實(shí)時(shí)性視頻安全帽佩戴檢測(cè)算法

        2020-12-07 06:46:58黃林泉蔣良衛(wèi)高曉峰
        現(xiàn)代計(jì)算機(jī) 2020年30期
        關(guān)鍵詞:特征檢測(cè)

        黃林泉,蔣良衛(wèi),高曉峰

        (南華大學(xué)計(jì)算機(jī)學(xué)院,衡陽(yáng)421000)

        0 引言

        在如今的工業(yè)界中,各種生產(chǎn)安全事故頻繁發(fā)生,在對(duì)近幾年全國(guó)安全事故數(shù)據(jù)分析后發(fā)現(xiàn)95%的生產(chǎn)安全事故是由于工作人員的不安全行為所導(dǎo)致的,如未佩戴安全帽進(jìn)入車間。而產(chǎn)生這些現(xiàn)象的原因是由于生產(chǎn)監(jiān)管不力,因?yàn)槟壳暗纳a(chǎn)監(jiān)管工作枯燥且人力物力耗費(fèi)大。為了解決上述問(wèn)題,本文提出了一種視頻中安全帽佩戴檢測(cè)方法,可以很好的適用于多種復(fù)雜場(chǎng)景,具有較高的準(zhǔn)確率且滿足實(shí)時(shí)性要求。將該方法應(yīng)用于生產(chǎn)車間場(chǎng)景下,僅需一個(gè)攝像頭和一臺(tái)服務(wù)器便可完成工作車間的管控,實(shí)時(shí)可靠的檢測(cè)車間工作人員是否佩戴安全帽,對(duì)于不安全行為及時(shí)進(jìn)行報(bào)警提示,幫助車間管理人員更好更輕松地監(jiān)管車間的安全情況,避免安全事故的發(fā)生。

        1 優(yōu)化方法

        Joseph Redmon 于2018 年提出的YOLOv3[1-3]算法由于其輕量、依賴少、算法高效等優(yōu)點(diǎn)而十分受歡迎??墒窃诟邷?zhǔn)確率的要求下YOLOv3 卻很難達(dá)到高速率的要求。并且在YOLOv3 算法中,會(huì)分別取用特征提取網(wǎng)絡(luò)DarkNet53 輸出的三種尺度的特征圖進(jìn)行特征融合,這三種尺度的特征圖分別對(duì)應(yīng)了不同級(jí)別的特征信息,而這些特征圖之間跨度十分大,經(jīng)歷了多個(gè)卷積層之后導(dǎo)致上一尺度的特征信息丟失嚴(yán)重,進(jìn)而會(huì)導(dǎo)致特征融合質(zhì)量較差的問(wèn)題。針對(duì)上述問(wèn)題,本文種使用了基于ResNet[4]網(wǎng)絡(luò)和InceptionV3[11]網(wǎng)絡(luò)改進(jìn)的ResNeXt50[5]網(wǎng)絡(luò)作為新的特征提取網(wǎng)絡(luò)以增強(qiáng)特征圖的表達(dá)能力。同時(shí)引入CSP Net[6]中提出的梯度分流截?cái)鄼C(jī)制,在減少模型運(yùn)算量的同時(shí)進(jìn)一步的提高卷積網(wǎng)絡(luò)的學(xué)習(xí)能力。并且融入了SPP Net[7]和PA Net[8]網(wǎng)絡(luò)中的思想提高特征融合質(zhì)量。為了提高算法的整體速度,結(jié)合DeepSort[9]多目標(biāo)跟蹤技術(shù)實(shí)現(xiàn)跳幀檢測(cè),對(duì)檢測(cè)到的每個(gè)目標(biāo)進(jìn)行運(yùn)動(dòng)預(yù)測(cè),計(jì)算出目標(biāo)的下一幀位置以代替目標(biāo)檢測(cè),減少時(shí)耗,進(jìn)而提高算法處理視頻時(shí)的實(shí)時(shí)性。

        2 數(shù)據(jù)集構(gòu)建

        2.1數(shù)據(jù)采集

        目前開(kāi)源的安全帽數(shù)據(jù)集只有SHWD(Safety Hel?met Wear Dataset)數(shù)據(jù)集,該數(shù)據(jù)集一共包含7581 張圖片數(shù)據(jù),以Pascal VOC 格式進(jìn)行了標(biāo)注,共分為per?son(未佩戴安全帽)和ha(t佩戴安全帽)兩類。通過(guò)對(duì)該數(shù)據(jù)集進(jìn)行研究分析發(fā)現(xiàn),該數(shù)據(jù)集包括9044 個(gè)佩戴安全帽的目標(biāo)以及111514 個(gè)未佩戴安全帽的目標(biāo),正負(fù)例樣本十分不均衡,且存在數(shù)據(jù)場(chǎng)景種類較單一、拍攝角度多為直拍、缺乏易于安全帽混淆的帽子數(shù)據(jù)(如防曬帽、貝雷帽等)以及安全帽未正確佩戴數(shù)據(jù)(如安全帽置于手中或桌面上等情況)。因此本文針對(duì)性的采集了上述缺乏的數(shù)據(jù)和一些復(fù)雜難例數(shù)據(jù)共2400張圖片數(shù)據(jù)并且進(jìn)行標(biāo)注,與SHWD 數(shù)據(jù)集共9981 張圖片用于算法的訓(xùn)練以及驗(yàn)證。數(shù)據(jù)集樣例如圖1 和2 所示。

        圖1 易混淆安全帽數(shù)據(jù)

        圖2 安全帽未正確佩戴數(shù)

        2.2 數(shù)據(jù)增強(qiáng)

        針對(duì)于安全帽檢測(cè),大部分的數(shù)據(jù)都為遠(yuǎn)距離的小目標(biāo)數(shù)據(jù),而密集小目標(biāo)數(shù)據(jù)對(duì)于目標(biāo)檢測(cè)算法來(lái)說(shuō)一直都是一個(gè)難題,本文使用數(shù)據(jù)鑲嵌(Data Mosa?ic)的方法進(jìn)行數(shù)據(jù)增強(qiáng)。數(shù)據(jù)鑲嵌技術(shù)指的是在指定的圖像尺寸下,隨機(jī)選取4 張圖片轉(zhuǎn)換到同一尺寸,接著在圖像中隨機(jī)選取一點(diǎn)p 作為切分點(diǎn),將圖像切分為4 部分并且分別從上述隨機(jī)選取的4 張圖片中進(jìn)行裁剪得到section 1、2、3、4,最終將這四部分鑲嵌在一起得到結(jié)果。流程如圖3 所示。之后進(jìn)一步判斷各個(gè)部分是否包含了檢測(cè)目標(biāo),如果包含了目標(biāo)就將各sec?tion 所包含的目標(biāo)組合形成鑲嵌后圖像的標(biāo)注數(shù)據(jù)。此外,本文還使用了隨機(jī)放縮、隨機(jī)水平翻轉(zhuǎn)、隨機(jī)通道抖動(dòng)等數(shù)據(jù)增強(qiáng)手段。在訓(xùn)練過(guò)程當(dāng)中,采用了0.4-1.6 的圖像放縮,50%概率的水平翻轉(zhuǎn),以及幅值為0.7 的通道抖動(dòng)等。

        圖3 數(shù)據(jù)鑲嵌示意圖

        3 改進(jìn)YOLOV3算法

        為了提高算法精度,本文主要針對(duì)于YOLOv3 算法的特征提取網(wǎng)絡(luò)、特征融合以及損失函數(shù)三個(gè)部分進(jìn)行改進(jìn),改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)如圖4 所示。

        圖4 本文算法模型結(jié)構(gòu)

        3.1 特征提取網(wǎng)絡(luò)

        3.1.1 ResNeXt

        本文使用從ResNet 改進(jìn)而來(lái)的ResNeXt50 作為特征提取網(wǎng)絡(luò)并且通過(guò)梯度分流截?cái)鄼C(jī)制以提高特征圖的表達(dá)能力。兩者都屬于殘差網(wǎng)絡(luò),通過(guò)殘差機(jī)制加深網(wǎng)絡(luò)層次而有效避免梯度彌散和梯度爆炸的問(wèn)題。兩者的區(qū)別主要在于ResNeXt 的殘差單元引入了cardinality 因子,相當(dāng)于分組卷積的形式,如圖5 所示,這種形式使得每一組卷積網(wǎng)絡(luò)所學(xué)習(xí)到的特征具有較大的差異性,分別關(guān)注于不同的特征點(diǎn),因此會(huì)具有更強(qiáng)的特征表達(dá)能力,并且每組卷積都具有相同的拓?fù)浣Y(jié)構(gòu),簡(jiǎn)化了模型復(fù)雜度。對(duì)于圖5(b)所示的殘差單元其計(jì)算公式為:

        其中σ表示leaky relu 激活函數(shù),C 表示cardinality即集合數(shù),Wi表示每一組卷積的權(quán)重參數(shù),x表示上一個(gè)單元的輸出,f(x,Wi)表示輸入經(jīng)過(guò)拓?fù)浣Y(jié)構(gòu)卷積后的輸出。

        圖5 殘差單元對(duì)比

        3.1.2 CSP Net

        上述基于skip connection 的計(jì)算方式是相對(duì)暴力的,即在激活函數(shù)之前就將上一個(gè)單元的輸出與當(dāng)前單元的輸出進(jìn)行相加連接。包括ResNeXt 在內(nèi)的ResNet、DenseNet[15]等基于skip connection 機(jī)制的殘差網(wǎng)絡(luò)均存在這個(gè)問(wèn)題。以Dense Net 為例進(jìn)行論證,這個(gè)過(guò)程可以用公式(2)表示:

        這種方法會(huì)導(dǎo)致反向傳播過(guò)程中,梯度信息重復(fù)計(jì)算,被多個(gè)卷積層重復(fù)利用降低卷積網(wǎng)絡(luò)的學(xué)習(xí)能力并且增加模型重復(fù)的計(jì)算,如公式(3)所示:

        每一層的權(quán)重參數(shù)都重復(fù)使用了上一層的梯度信息。而CSP Net 中的跨層連接和梯度分流截?cái)嗫梢院芎玫慕鉀Q上述問(wèn)題。對(duì)于每一個(gè)殘差單元的輸入x0,首先將其分成兩部分先經(jīng)過(guò)一個(gè)dense block 進(jìn)行殘差映射得到輸出然后經(jīng)過(guò)一個(gè)跨通道池化操作進(jìn)行梯度信息截?cái)嗟玫絰T,之后直接與沒(méi)有進(jìn)行殘差映射的進(jìn)行拼接再經(jīng)過(guò)一個(gè)跨通道池化操作得到輸出xU。該方法的前向傳播和權(quán)重更新過(guò)程可以用公式(4)和(5)表示。

        通過(guò)這種方式,最后進(jìn)行拼接的兩部分輸出和均不存在重復(fù)的梯度信息,很好的避免了梯度重復(fù)計(jì)算。經(jīng)實(shí)驗(yàn)證明,該方法可以很好地適用于同樣基于skip connection 機(jī)制的ResNeXt 殘差網(wǎng)絡(luò),只需對(duì)原ResNeXt 殘差單元的輸入進(jìn)行切分即可,并且由于切分后的輸入僅為原輸入的一半,因此不再需要瓶頸層(bottleneck),如圖6。

        圖6 應(yīng)用CSP Net于ResNeXt

        使用本文算法其他結(jié)構(gòu)不變,僅更換特征提取網(wǎng)絡(luò)進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表1 所示。

        表1 特征提取網(wǎng)絡(luò)效果對(duì)比

        3.2 特征融合

        3.2.1 PA Net

        在YOLOv3 算法中,會(huì)選取特征提取網(wǎng)絡(luò)輸出的三種尺度的特征圖進(jìn)行特征融合,它們分別對(duì)應(yīng)了不同級(jí)別的特征信息,而這些特征圖之間跨度十分大,在經(jīng)過(guò)多個(gè)卷積層后導(dǎo)致各層級(jí)特征之間分離度較高,每個(gè)層級(jí)的特征對(duì)其他層級(jí)的特征信息保留較少。因此本文引用了PA Net 中從下至上(Bottom-Up)的特征融合思想。在高層級(jí)特征與低層級(jí)特征之間直接建立一個(gè)短連接(short connection)進(jìn)行融合產(chǎn)生新的特征圖。對(duì)于每種尺度的特征圖,首先經(jīng)過(guò)下采樣使其與下一級(jí)特征圖保持尺寸一致(最低層級(jí)映射后的結(jié)果就是自身),然后與其下一層級(jí)特征圖進(jìn)行元素級(jí)拼接,之后經(jīng)過(guò)一系列的卷積單元將其映射到新的特征圖上完成特征融合,其過(guò)程如圖7 所示,(a)部分代表的是原多尺度特征圖的形成過(guò)程即從上至下的過(guò)程,(b)部分代表的是Bottom-Up 從下至上的特征融合過(guò)程。

        圖7 Bottom-Up特征融合

        3.2.2 SPP Net

        為了提高算法在局部特征上的關(guān)注度以提高算法的尺度適應(yīng)能力。本文在最高層級(jí)(Y1)的特征圖上使用了空間金字塔層級(jí)的思想,分別進(jìn)行三次5×5、9×9、13×13 步長(zhǎng)(stride)為1 的最大池化(max pooling)得到三種不同局部的特征圖,然后將其在通道維度上進(jìn)行拼接。這種方式可以很好的關(guān)注圖像不同尺度的局部特征,并將局部特征與整體特征進(jìn)行融合,豐富特征圖的表達(dá)能力。融合過(guò)程如圖8 所示。

        圖8 SPP特征融合

        3.3 損失函數(shù)

        在YOLOv3 中使用均方方差(Mean Square Error)作為目標(biāo)框中心坐標(biāo)和寬高的損失函數(shù)如公式(6):

        其中S 表示網(wǎng)格個(gè)數(shù),一共S×S 個(gè)網(wǎng)格,B 表示每個(gè)網(wǎng)格產(chǎn)生B 個(gè)候選框。x、y、w 和h 分別表示目標(biāo)框的中心坐標(biāo)及寬高,x?、y?、w?和h?分別表示預(yù)測(cè)框的中心坐標(biāo)及寬高。I 表示當(dāng)前候選框是否負(fù)責(zé)預(yù)測(cè),若是則為1,否則為0。但這種方法無(wú)法區(qū)分目標(biāo)框與預(yù)測(cè)框之間不同的包含情況,且無(wú)法適應(yīng)尺度上的區(qū)別。而交并比(Intersect over Union,IoU)損失函數(shù)(公式7)可以較好地解決上述問(wèn)題。

        兩者效果對(duì)比如圖9 所示。

        圖9 MSE與IoU對(duì)比

        MSE 損失函數(shù)無(wú)法區(qū)分上述三種不同的包含情況,而IoU 損失函數(shù)表現(xiàn)較好。然而IoU 損失函數(shù)依舊存在問(wèn)題。即當(dāng)預(yù)測(cè)框和目標(biāo)框完全不相交時(shí)IoU為0,此時(shí)損失函數(shù)不可導(dǎo),無(wú)法優(yōu)化兩個(gè)框不相交的情況;IoU 無(wú)法反映兩個(gè)框是如何相交的(包括中心點(diǎn)距離、角度、長(zhǎng)寬比等問(wèn)題);因此本文使用更為優(yōu)化的CIoU[10]作為目標(biāo)框的損失函數(shù)。CIoU 在其基礎(chǔ)上充分考慮了目標(biāo)框與預(yù)測(cè)框之間重疊比、中心點(diǎn)距離以及長(zhǎng)寬比。計(jì)算公式為:

        其中IoU表示目標(biāo)框與預(yù)測(cè)框的交并比,ρ(b,bgt)表示預(yù)測(cè)的中心點(diǎn)與真實(shí)中心點(diǎn)之間的歐氏距離,用來(lái)擬合中心點(diǎn),υ用來(lái)衡量長(zhǎng)寬比一致性。使用CIoU作為損失函數(shù),可以很好的提升算法準(zhǔn)確率。

        4 DeepSort目標(biāo)跟蹤算法

        針對(duì)視頻流數(shù)據(jù),本文使用DeepSort 目標(biāo)跟蹤技術(shù)對(duì)每個(gè)目標(biāo)進(jìn)行位置預(yù)測(cè),代替目標(biāo)檢測(cè)結(jié)果以實(shí)現(xiàn)插幀檢測(cè)。DeepSort 通過(guò)目標(biāo)的外形特征以及運(yùn)動(dòng)特征對(duì)目標(biāo)進(jìn)行跟蹤,兩大核心算法是卡爾曼濾波和匈牙利算法分別負(fù)責(zé)對(duì)應(yīng)目標(biāo)的狀態(tài)估計(jì)和分配問(wèn)題。算法通過(guò)一個(gè)8 維向量(μ,υ,γ,h,x?,y?,γ?,h?)來(lái)表示目標(biāo)的狀態(tài),其中(μ,υ)是目標(biāo)框的中心坐標(biāo),γ是長(zhǎng)寬比,h是高,其余4 個(gè)變量分別代表目標(biāo)在圖像坐標(biāo)系中所對(duì)應(yīng)的速度信息。使用一個(gè)基于常量速度模型和線性預(yù)測(cè)模型的標(biāo)準(zhǔn)卡爾曼(Kalman)濾波器對(duì)目標(biāo)運(yùn)動(dòng)狀態(tài)進(jìn)行預(yù)測(cè),預(yù)測(cè)的結(jié)果為(μ,υ,γ,h)。在分配問(wèn)題上,DeepSort 同時(shí)考慮了目標(biāo)的運(yùn)動(dòng)信息以及外觀信息以進(jìn)行關(guān)聯(lián),以解決跟蹤過(guò)程中相機(jī)運(yùn)動(dòng)導(dǎo)致的目標(biāo)Id 頻繁切換的問(wèn)題。使用目標(biāo)檢測(cè)框與跟蹤器預(yù)測(cè)框之間的馬氏距離來(lái)描述運(yùn)動(dòng)關(guān)聯(lián)程度:

        其中dj表示第j 個(gè)檢測(cè)框的位置,yi表示跟蹤器對(duì)目標(biāo)i 的預(yù)測(cè)位置。Si表示目標(biāo)i 的檢測(cè)位置與預(yù)測(cè)位置之間的協(xié)方差矩陣,即以目標(biāo)檢測(cè)位置與預(yù)測(cè)位置之間標(biāo)準(zhǔn)差的形式對(duì)狀態(tài)測(cè)量的不確定性進(jìn)行考慮。然后使用重識(shí)別網(wǎng)絡(luò)提取目標(biāo)的特征向量作為外觀信息,對(duì)每一幀成功匹配的結(jié)果進(jìn)行緩存作為特征向量集,對(duì)于每一個(gè)目標(biāo)檢測(cè)框,將其特征向量與所有跟蹤器的特征向量集計(jì)算最小余弦距離。如公式(10):

        其中rj表示第j 個(gè)目標(biāo)檢測(cè)框的特征向量,Ri表示第i 個(gè)跟蹤器的特征向量集。最后使用兩種關(guān)聯(lián)方式的線性加權(quán)值作為最終匹配度量,λ為權(quán)重系數(shù)。

        5 實(shí)驗(yàn)分析

        5.1 生成錨點(diǎn)框

        在YOLOv3 算法中錨點(diǎn)框用于大致確定目標(biāo)位置以及大小以便后續(xù)算法進(jìn)行回歸精修。因此錨點(diǎn)框的質(zhì)量直接影響到目標(biāo)檢測(cè)的效果。本文使用K-means聚類算法在9981 張圖片數(shù)據(jù)上進(jìn)行9 類聚類以確定最適合當(dāng)前數(shù)據(jù)集的錨點(diǎn)框,然后根據(jù)錨點(diǎn)框大小將其分配到對(duì)應(yīng)尺度的特征圖上,得到的結(jié)果如表2。

        表2 錨點(diǎn)框分配

        5.2 訓(xùn)練模型

        本文將SHWD 數(shù)據(jù)集和自建數(shù)據(jù)集共9981 張圖片按照8:2 的比例分成訓(xùn)練集和測(cè)試集。在Ubuntu 18.04 操作系統(tǒng)進(jìn)行模型訓(xùn)練,使用GPU 加速工具CU?DA 10.1。 CPU 為 Intel Xeon Gold 6148 CPU @2.40GHz,GPU 為NVDIA Tesla V100@16 GB,內(nèi)存為32 GB。梯度下降方式為隨機(jī)梯度下降(Stochastic Gra?dient Descent,SGD),動(dòng) 量 為0.926,權(quán) 重 衰 減 為0.00048,使用4×16 小批量訓(xùn)練方式。學(xué)習(xí)率從0.001開(kāi)始。整個(gè)訓(xùn)練過(guò)程一共為20000 次迭代,按需調(diào)整學(xué)習(xí)率在迭代進(jìn)行到80%(16000)及90%(18000)的時(shí)候?qū)W習(xí)率分別減小10 倍。為了與原算法進(jìn)行效果對(duì)比,在相同環(huán)境下訓(xùn)練得到原始的YOLOv3 模型。

        5.3 實(shí)驗(yàn)結(jié)果分析

        本文使用目標(biāo)檢測(cè)領(lǐng)域常用的平均精度(Average Precision,AP)、平均精度均值(Mean Average Precision,mAP)和每秒檢測(cè)幀數(shù)(Frame Per Second,F(xiàn)PS)作為評(píng)測(cè)指標(biāo)來(lái)評(píng)測(cè)本文算法對(duì)安全帽佩戴檢測(cè)的效果。在將IoU 設(shè)置為0.5 時(shí)在規(guī)模為1996 張圖片的測(cè)試集進(jìn)行測(cè)試,結(jié)果如表3 所示。

        表3 實(shí)驗(yàn)結(jié)果對(duì)比

        可以發(fā)現(xiàn),本文算法由于引入了PA Net 和SPP Net 進(jìn)行特征融合,加大了模型運(yùn)算量,因此在未結(jié)合DeepSort 的時(shí)候,運(yùn)行效率略低于YOLOv3,但在檢測(cè)精度上,更換了特征表達(dá)能力更強(qiáng)的特征提取網(wǎng)絡(luò)以及優(yōu)化損失函數(shù)等,兩種類別的檢測(cè)精度相比于YO?LOv3 都有較大程度提升。具體檢測(cè)實(shí)例如圖10 所示,其中綠色方框表示佩戴安全帽,紅色方框表示未佩戴安全帽。在圖10(a)一般場(chǎng)景下,YOLOv3 與本文算法均具有較好的檢測(cè)效果。在圖10(b)人群較密集存在遮擋的場(chǎng)景下,YOLOv3 漏檢了部分遮擋較嚴(yán)重的目標(biāo),而本文算法未出現(xiàn)漏檢。在圖10(c)圖片質(zhì)量較差情況下,圖片中間存在一個(gè)由于運(yùn)動(dòng)而高度模糊的目標(biāo),YOLOv3 與本文算法均出現(xiàn)了漏檢。圖11(d)存在極小目標(biāo)的情況下,YOLOv3 算法對(duì)于小目標(biāo)出現(xiàn)了較為嚴(yán)重的漏檢而本文算法表現(xiàn)優(yōu)異。

        圖10 安全帽佩戴檢測(cè)效果對(duì)比

        5.4 消融實(shí)驗(yàn)分析

        為了評(píng)測(cè)PA Net 和SPP Net 對(duì)算法模型的貢獻(xiàn),本文中使用消融實(shí)驗(yàn)在相同測(cè)試集上進(jìn)行評(píng)測(cè),為了進(jìn)一步細(xì)化實(shí)驗(yàn)效果,將尺寸小于32×32 的目標(biāo)劃分為小目標(biāo)(Small),大于32×32 且小于64×64 的劃分為中等目標(biāo)(Medium),其余為大目標(biāo)(Large)。最終實(shí)驗(yàn)結(jié)果如表3 所示??梢园l(fā)現(xiàn),在第1 組中,算法對(duì)大目標(biāo)的檢測(cè)效果較好,相對(duì)來(lái)說(shuō)小目標(biāo)的檢測(cè)效果不太理想。在第2 組中引入了SPP Net 對(duì)三類目標(biāo)的檢測(cè)效果均有提升,其中提升最顯著的是中等目標(biāo)為5.28%,并且在檢測(cè)精度本就較高的大目標(biāo)上繼續(xù)提升了2.15%。在第3 組中引入PA Net,其大大提升了算法對(duì)小目標(biāo)和中等目標(biāo)的檢測(cè)精度而對(duì)大目標(biāo)的檢測(cè)精度提升較微弱。在第4 組同時(shí)引入SPP Net 和PA Net 的情況下,對(duì)小目標(biāo)、中等目標(biāo)和大目標(biāo)的檢測(cè)效果均取得了最優(yōu)。證明本文中所使用的方法能夠有效地提升算法檢測(cè)精度。

        表4 消融實(shí)驗(yàn)結(jié)果

        5.5 多場(chǎng)景測(cè)試

        為了驗(yàn)證本文算法可以很好地適用于各種復(fù)雜場(chǎng)景。對(duì)人群密集場(chǎng)景、低亮度場(chǎng)景、易混淆安全帽佩戴場(chǎng)景、遠(yuǎn)距離場(chǎng)景、多角度場(chǎng)景、低清晰度場(chǎng)景、背對(duì)鏡頭場(chǎng)景和安全帽未佩戴場(chǎng)景八種復(fù)雜場(chǎng)景進(jìn)行測(cè)試驗(yàn)證,實(shí)驗(yàn)結(jié)果如圖11 所示??梢钥闯霰疚乃惴▋H在遠(yuǎn)距離場(chǎng)景下對(duì)少數(shù)極小目標(biāo)存在漏檢以及低清晰度場(chǎng)景下存在漏檢,這也是后續(xù)希望進(jìn)一步優(yōu)化的方向。而在大多數(shù)場(chǎng)景下均具有較好的檢測(cè)效果,因此本文算法可以很好地適用于各種場(chǎng)景進(jìn)行安全帽佩戴檢測(cè)。

        圖11 多場(chǎng)景測(cè)試結(jié)果示例

        6 結(jié)語(yǔ)

        本文對(duì)YOLOv3 算法進(jìn)行改進(jìn)優(yōu)化,提出了一種對(duì)自然場(chǎng)景下視頻圖像中工作人員是否佩戴安全帽的實(shí)時(shí)性檢測(cè)算法。通過(guò)使用特征表達(dá)能力更強(qiáng)的特征提取網(wǎng)絡(luò)并且結(jié)合PA Net 和SPP Net 中的特征融合技術(shù),進(jìn)一步增強(qiáng)特征圖的尺度適應(yīng)能力以提高對(duì)小目標(biāo)的檢測(cè)效果,使用更加魯棒精確的CIoU 作為目標(biāo)框的損失函數(shù),提高對(duì)目標(biāo)位置預(yù)測(cè)的精度。在1996 張圖片以及多場(chǎng)景情況下進(jìn)行實(shí)驗(yàn)測(cè)試,測(cè)試結(jié)果表示本文算法均有較高的精度以及穩(wěn)定性,并且結(jié)合Deep?Sort 技術(shù),在NVIDIA GTX 1060 顯卡環(huán)境下檢測(cè)速率可以達(dá)到32 幀/s。以上測(cè)試結(jié)果均證明了本文方法的有效性。在未來(lái)研究中,將對(duì)算法結(jié)構(gòu)進(jìn)行進(jìn)一步的優(yōu)化以提高算法對(duì)小目標(biāo)和在低清晰度場(chǎng)景下的檢測(cè)精度。

        猜你喜歡
        特征檢測(cè)
        抓住特征巧觀察
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        “幾何圖形”檢測(cè)題
        “角”檢測(cè)題
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        日韩亚洲在线一区二区| 永久免费无码av在线网站 | 精品免费看国产一区二区| 人妻无码一区二区| 精品少妇后入一区二区三区| 国产成人自拍视频播放| 内射合集对白在线| 日本高清一区二区三区水蜜桃| 视频二区 无码中出| 国产主播性色av福利精品一区| 亚洲国产欧美在线观看| 精品人体无码一区二区三区| 欧美熟妇与小伙性欧美交| 你懂的视频在线看播放| 激情伊人五月天久久综合| 亚洲最大天堂无码精品区| 一本久久精品久久综合桃色| 第一九区另类中文字幕| 玩弄丰满奶水的女邻居| 国产在线一91区免费国产91| 情色视频在线观看一区二区三区| 青草久久婷婷亚洲精品| 粉嫩被粗大进进出出视频| 亚洲综合AV在线在线播放| 亚洲一区二区女优视频| 伊人中文字幕亚洲精品乱码| 一本色道久久99一综合| 亚洲区偷拍自拍29p| 久久精品国产在热亚洲不卡| 精品国产乱码久久久久久郑州公司 | AV中文码一区二区三区| 久久一区二区国产精品| 性xxxx18免费观看视频| 夜夜春精品视频| 日本免费三片在线播放| 亚洲成a人片在线观看无码专区| 88国产精品视频一区二区三区| 亚洲av永久青草无码精品| 国产一区二区三区免费精品视频| 97久久草草超级碰碰碰| 无码精品色午夜|