亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于特征引導(dǎo)的電力施工場(chǎng)景工裝合規(guī)穿戴二階段檢測(cè)算法

        2022-04-26 07:54:16林其雄閆云鳳齊冬蓮
        浙江電力 2022年4期
        關(guān)鍵詞:檢測(cè)

        林其雄,陳 暢,閆云鳳,齊冬蓮

        (1.廣東電網(wǎng)有限責(zé)任公司廣州供電局,廣州 510050;2.浙江大學(xué) 電氣工程學(xué)院,杭州 310027)

        0 引言

        電力施工場(chǎng)景下的監(jiān)管一直是國(guó)家安全生產(chǎn)監(jiān)管的一個(gè)重要方面。國(guó)內(nèi)電力行業(yè)的安全性評(píng)價(jià)、危險(xiǎn)點(diǎn)預(yù)控等安全管理方案早在20世紀(jì)90年代就開(kāi)始推廣[1],極大程度地降低了電網(wǎng)的事故率。但是在安全制度體系下,由于作業(yè)人員的違規(guī)行為以及單一依靠人力監(jiān)管的不完備性等原因,電力施工過(guò)程中事故仍偶有發(fā)生。目前,電力安全已經(jīng)得到了學(xué)界的重視,并產(chǎn)生了一些結(jié)合物聯(lián)網(wǎng)和人工智能技術(shù)的智能監(jiān)測(cè)成果[2-4]。

        電力施工現(xiàn)場(chǎng)環(huán)境復(fù)雜,工種任務(wù)多樣,工裝穿戴的合規(guī)性是安全生產(chǎn)的基本要求,正確佩戴安全帽、正確穿戴工裝能在很大程度上保護(hù)作業(yè)人員的人身安全。然而,由于作業(yè)人員自身的懈怠疏忽,管理人員監(jiān)管的放松警惕,施工過(guò)程中的安全風(fēng)險(xiǎn)時(shí)有發(fā)生。借由部署在施工場(chǎng)地的攝像頭,引入深度學(xué)習(xí)技術(shù),對(duì)監(jiān)控圖像視頻信息進(jìn)行分析,識(shí)別到未戴安全帽或者未正確穿戴工裝的作業(yè)人員并及時(shí)提醒,能夠提高監(jiān)管的有效性,增強(qiáng)作業(yè)人員的安全意識(shí),減少潛在的安全風(fēng)險(xiǎn),保證施工的安全性。

        計(jì)算機(jī)視覺(jué)的興起首先帶來(lái)了基于傳統(tǒng)圖像特征提取的作業(yè)穿戴規(guī)范識(shí)別方案,如馮國(guó)臣[5]等提出的基于機(jī)器學(xué)習(xí)的人體檢測(cè)方案,劉曉惠[6]等提出的基于安全帽輪廓特征的檢測(cè)方法。這些方案或多或少都受到復(fù)雜施工環(huán)境的影響,很難達(dá)到良好的精度和準(zhǔn)確率。

        近些年來(lái),隨著人工智能和深度學(xué)習(xí)技術(shù)的發(fā)展,一些基于深度學(xué)習(xí)的智能監(jiān)控方案逐步進(jìn)入施工現(xiàn)場(chǎng),為安全生產(chǎn)保駕護(hù)航。Mneymneh[7]等提出的改進(jìn)方法可以用來(lái)判斷作業(yè)人員是否佩戴安全帽,但受限于人員工作姿態(tài)和身體特征的復(fù)雜性,沒(méi)有達(dá)到預(yù)期精度。楊莉瓊[8]等人提出基于機(jī)器學(xué)習(xí)方法的安全帽佩戴行為,在YoLo系列[9-11]檢測(cè)基礎(chǔ)上,改進(jìn)原有傳統(tǒng)特征提取器,結(jié)合SVM(支持向量機(jī))分類器進(jìn)行分類[12-13],但算法驗(yàn)證集小,測(cè)試場(chǎng)地較為單一,無(wú)法很好地說(shuō)明算法的泛化能力。李華[14]等針對(duì)復(fù)雜場(chǎng)景引入多尺度信息,提升了檢測(cè)準(zhǔn)確度,但是對(duì)于小目標(biāo)仍存在檢測(cè)困難。在整體穿戴方面,張春堂[15]等人設(shè)計(jì)了SSD-MobileNet,對(duì)多種穿戴設(shè)備進(jìn)行識(shí)別,雖然通過(guò)小模型優(yōu)化了檢測(cè)速度,但是囿于單模型的設(shè)計(jì),在整體圖片中對(duì)于小樣本的檢測(cè)仍有困難。

        目前基于深度學(xué)習(xí)的電力施工場(chǎng)景工裝穿戴檢測(cè)研究存在以下兩個(gè)問(wèn)題:現(xiàn)有方法主要針對(duì)安全帽佩戴,而沒(méi)有考慮整體工裝穿戴的要求;在針對(duì)作業(yè)人員進(jìn)行定位時(shí)使用通用的目標(biāo)檢測(cè)算法,而無(wú)視了生產(chǎn)場(chǎng)景下人員姿態(tài)動(dòng)作的復(fù)雜多樣性。因此,本文在充分采集作業(yè)場(chǎng)地工裝穿戴樣本的基礎(chǔ)上,提出一種二階段的工裝合規(guī)穿戴檢測(cè)算法,并針對(duì)上述的第二個(gè)問(wèn)題進(jìn)一步提出基于Faster R-CNN[16]優(yōu)化的人員定位算法,通過(guò)引入FPN(特征金字塔網(wǎng)絡(luò))[17]和Guided An?chor[18]模塊,增強(qiáng)模型對(duì)不同層次特征的提取以及對(duì)不同人體檢測(cè)框的擬合。

        1 工裝合規(guī)穿戴檢測(cè)算法

        電力建設(shè)場(chǎng)景下對(duì)作業(yè)人員工裝穿戴的監(jiān)管主要關(guān)注的部分有:作業(yè)人員的頭部是否穿戴安全帽;工裝上衣是否合規(guī)穿戴;工裝褲子是否合規(guī)穿戴。具體來(lái)說(shuō),除了常規(guī)考慮工裝上衣、褲子的穿戴,算法設(shè)計(jì)過(guò)程中還考慮了作業(yè)人員是否存在卷起袖子等違規(guī)穿戴的情況,圖1為現(xiàn)場(chǎng)穿戴行為實(shí)例。

        圖1 穿戴行為實(shí)例

        工裝穿戴檢測(cè)算法主要解決兩個(gè)問(wèn)題:電力建設(shè)場(chǎng)景下環(huán)境復(fù)雜,人員流動(dòng)性強(qiáng),無(wú)法通過(guò)傳統(tǒng)匹配方案進(jìn)行高精度的定位;考慮到算法的實(shí)用性,算法使用的圖像視頻數(shù)據(jù)局限在電力建設(shè)場(chǎng)景下部署的現(xiàn)場(chǎng)攝像頭,精度有限,且往往部署在與作業(yè)人員有一定距離的高處,導(dǎo)致視頻圖像中作業(yè)人員的人體比例較小,對(duì)算法的檢測(cè)能力要求較高。此外,由于卷起袖子等行為在人體圖像區(qū)域中所占的比例也相對(duì)較小,算法設(shè)計(jì)過(guò)程中需要盡可能防止模型對(duì)現(xiàn)場(chǎng)情況的誤判或漏檢。

        考慮上述因素,設(shè)計(jì)了一個(gè)二階段的工裝合規(guī)穿戴檢測(cè)算法,包括人員定位階段和人體區(qū)域工裝合規(guī)檢測(cè)階段。人員定位階段用于在現(xiàn)場(chǎng)監(jiān)控圖像中定位作業(yè)人員,裁剪精確完整的人體圖像,并得到人員在畫(huà)面中的具體位置;人體區(qū)域工裝合規(guī)檢測(cè)階段則利用裁剪得到的低精度圖像,提取圖像中的工裝穿戴特征,對(duì)具體人員的工裝穿戴進(jìn)行檢測(cè),結(jié)合人員定位階段所得到的人員位置,給出最終的工裝合規(guī)穿戴檢測(cè)結(jié)果。

        區(qū)別于常規(guī)的直接對(duì)工裝區(qū)域進(jìn)行檢測(cè)再對(duì)人體和異常穿戴現(xiàn)象進(jìn)行匹配的流程,本文所采用的工裝合規(guī)穿戴檢測(cè)算法遵循一種“自上而下”的檢測(cè)流程,即先檢測(cè)人體區(qū)域,再對(duì)畫(huà)面中的各個(gè)人體區(qū)域逐步進(jìn)行工裝檢測(cè),具體流程見(jiàn)圖2?!白陨隙隆钡臋z測(cè)流程可以有效避免常規(guī)方案在匹配階段因?yàn)槿藛T位置重合而導(dǎo)致的錯(cuò)判和漏判,有效提升了方法的可信度。

        圖2 工裝合規(guī)穿戴檢測(cè)算法流程

        2 基于Faster R-CNN 優(yōu)化的人員定位算法

        本文在人員定位部分以Faster R-CNN算法作為研究的基礎(chǔ)檢測(cè)方法,以ResNet[19]作為特征提取的骨干網(wǎng)絡(luò)。電力建設(shè)場(chǎng)景下,圖像中人體比例較小,且人員定位框容易受到作業(yè)人員不同動(dòng)作狀態(tài)的影響,檢測(cè)框的長(zhǎng)寬比分布較為復(fù)雜。因此,引入FPN和Guided Anchor模塊用于算法在電力建設(shè)場(chǎng)景下的優(yōu)化?;贔aster R-CNN優(yōu)化的人員定位算法的整體框架如圖3所示。

        圖3 基于Faster R-CNN優(yōu)化的人員定位算法整體框架

        2.1 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)

        Faster R-CNN作為二階段檢測(cè)模型,引入了anchor(錨點(diǎn))概念,通過(guò)兩條檢測(cè)支路對(duì)特征圖的前景目標(biāo)和背景目標(biāo)進(jìn)行區(qū)域提取,結(jié)合骨干網(wǎng)絡(luò)提取的特征圖信息,通過(guò)末尾的幾個(gè)卷積層和全連接層進(jìn)行最終預(yù)測(cè)位置框的回歸和框內(nèi)目標(biāo)的分類。

        為了幫助檢測(cè)算法提取到更豐富的語(yǔ)義信息,提升網(wǎng)絡(luò)對(duì)于小目標(biāo)的檢測(cè)能力,采用FPN 結(jié)構(gòu)使模型能從不同尺度的特征圖提取不同層次的語(yǔ)義信息。FPN 保留了骨干網(wǎng)絡(luò)ResNet 中階段2 至階段5 的輸出,并對(duì)應(yīng)通過(guò)1×1 卷積核卷積,高層輸出統(tǒng)一降通道為256,選擇最近鄰插值法上采樣的2 倍,得到與4 個(gè)通道數(shù)均為256、相對(duì)輸入圖片整體下采樣系數(shù)為4的特征圖組。除了最高層的特征圖之外,其余幾層分別疊加相鄰上層的特征圖,再選擇一個(gè)輸入通道、輸出通道均為256的3×3 卷積核進(jìn)行疊加后特征圖的卷積,避免直接相加導(dǎo)致的特征混疊現(xiàn)象。

        Guided Anchor 模塊針對(duì)的是Faster R-CNN中的anchor 生成方式。原有anchor 生成方式都是基于滑動(dòng)窗口的思路,需要研究人員手動(dòng)預(yù)設(shè)an?chor 的基礎(chǔ)尺寸、長(zhǎng)寬比后,從特征圖的起始點(diǎn)開(kāi)始生成密集的anchors,并通過(guò)anchor 和圖像標(biāo)注的真實(shí)框的IoU(交并比)篩選anchor送入網(wǎng)絡(luò)進(jìn)行訓(xùn)練。從直觀上考慮,此方法生成的anchor 與要求的目標(biāo)檢測(cè)框分布是不同的。一方面,真實(shí)目標(biāo)檢測(cè)框無(wú)論是在單張圖像上還是在整個(gè)數(shù)據(jù)集上均為稀疏分布,均勻分布生成anchor 這一過(guò)程本身消耗了過(guò)多的計(jì)算資源;另一方面,直接使用IoU 為篩選指標(biāo)也會(huì)導(dǎo)致形狀不同的anchor進(jìn)入網(wǎng)絡(luò),使訓(xùn)練更加難以收斂。

        Guided Anchor 假定檢測(cè)目標(biāo)的位置分布方式如下:

        式中:I為輸入圖片;x和y為檢測(cè)目標(biāo)框的中心點(diǎn)位置坐標(biāo);w和h分別為檢測(cè)目標(biāo)框的長(zhǎng)和寬;p(x,y,w,h|I)表示給定輸入圖片I,對(duì)應(yīng)圖片上的anchor 分布位置和形狀的條件概率;p(x,y|I)為anchor 位置對(duì)圖片的條件概率;p(w,h|x,y,I)為anchor 形狀對(duì)輸入圖片的條件概率。Guided An?chor生成anchor的方式如圖4所示。

        圖4 Guided Anchor生成anchor的方式

        顯然,檢測(cè)目標(biāo)在圖像上的位置分布和目標(biāo)周圍的特征信息有關(guān),但是檢測(cè)目標(biāo)自身的長(zhǎng)、寬與周圍的特征信息并不直接相關(guān),而是通過(guò)物體本身特征和物體在圖像上所處的位置關(guān)聯(lián)的。因此,Guided Anchor 在生成anchor 的部分引入了兩個(gè)新的訓(xùn)練分支——位置預(yù)測(cè)分支和形狀預(yù)測(cè)分支,替代傳統(tǒng)的RPN(區(qū)域候選網(wǎng)絡(luò)),用來(lái)幫助框架依據(jù)特征圖局部特征完成稀疏anchor 的生成??蚣芨鶕?jù)這兩個(gè)分支的輸出結(jié)果與設(shè)定的閾值比較,首先得到特征圖上可能存在目標(biāo)的中心位置,再根據(jù)中心位置附近特征的局部特征來(lái)預(yù)測(cè)最有可能的anchor 形狀。通過(guò)這一流程篩選得到的anchor 形狀和大小,本身就包含了所需要檢測(cè)的電力場(chǎng)景中人員的語(yǔ)義信息和分布信息,近似于對(duì)輸入圖片進(jìn)行了一次初步的主要物體定位。在同樣存在一定量的統(tǒng)計(jì)樣本情況下,通過(guò)Guided Anchor 預(yù)測(cè)得到的anchor 會(huì)比單一通過(guò)統(tǒng)計(jì)整體真實(shí)框分布的原始anchor 生成方案對(duì)偏離正常分布的真實(shí)框有更好的IoU,降低檢測(cè)算法在后續(xù)定位時(shí)對(duì)邊框線性回歸的擬合難度。

        2.2 網(wǎng)絡(luò)損失函數(shù)和訓(xùn)練參數(shù)

        圖4 中,Guided Anchor 的位置分支通過(guò)1×1的卷積在輸入的特征圖上產(chǎn)生一個(gè)分?jǐn)?shù)圖,并通過(guò)對(duì)應(yīng)具體目標(biāo)涉及的sigmoid函數(shù)來(lái)得到圖上每個(gè)坐標(biāo)對(duì)應(yīng)的各種目標(biāo)的概率值,大于設(shè)定閾值則判定為正樣本,反之為負(fù)樣本。為了平衡樣本訓(xùn)練過(guò)程中正負(fù)樣本不平衡的問(wèn)題,位置分支的訓(xùn)練采用Focal Loss,具體如下:

        式中:Lloc為檢測(cè)網(wǎng)絡(luò)的定位損失;z′為經(jīng)過(guò)sig?moid函數(shù)的輸出結(jié)果;z為真實(shí)樣本標(biāo)簽;α為平衡因子,用來(lái)平衡正負(fù)樣本比例在訓(xùn)練時(shí)的影響,本文取值0.25;γ用來(lái)調(diào)節(jié)簡(jiǎn)單樣本權(quán)重在訓(xùn)練時(shí)下降的速率,幫助模型在訓(xùn)練時(shí)更關(guān)注難樣本,本文取值0.5。

        Guided Anchor 的形狀分支的作用是預(yù)測(cè)對(duì)應(yīng)位置anchor 與真實(shí)邊界框最匹配的寬和高。網(wǎng)絡(luò)分支首先將anchor與對(duì)應(yīng)的真實(shí)邊界框進(jìn)行匹配,再通過(guò)給定采樣的寬和高的值來(lái)計(jì)算擁有最大IoU的寬和高。損失函數(shù)如下:

        式中:Lshape為形狀分支的損失;L1為常用的smoothL1函數(shù);wg和hg分別為真實(shí)邊界框的寬和高。smoothL1中的β取值為0.2,smoothL1函數(shù)的計(jì)算方法如下:

        式中:t為輸入的參數(shù)。

        Guided Anchor 用式(2)和式(3)代替了原始Faster R-CNN 中anchor 生成部分的損失函數(shù),總體的損失函數(shù)L計(jì)算方法為:

        式中:λ1和λ2為權(quán)值系數(shù),本文分別取值1.5 和1.0;Lcls和Lreg分別為原始Faster R-CNN中分類分支和位置框回歸分支的損失函數(shù)。

        式中:i為生成初始預(yù)測(cè)框的編號(hào);pi為預(yù)測(cè)框是前景的概率;為預(yù)測(cè)框預(yù)測(cè)正確的概率(當(dāng)預(yù)測(cè)框與標(biāo)注框重合度大于0.7 時(shí),為1;當(dāng)重合度小于0.3 時(shí),為0);ti為預(yù)測(cè)框的邊界參數(shù);為前景目標(biāo)的真實(shí)標(biāo)注框邊界參數(shù);smoothL1函數(shù)中的β取值為3。

        3 人體區(qū)域合規(guī)穿戴檢測(cè)算法

        在獲取作業(yè)人員在輸入圖片中的位置之后,結(jié)合基于Faster R-CNN優(yōu)化的人員定位算法提供的置信度信息,對(duì)高于一定閾值置信度的檢測(cè)框進(jìn)行裁剪,得到待檢測(cè)的人體區(qū)域。

        因?yàn)檩斎氲膱D像尺寸較小,對(duì)于待檢測(cè)的人體區(qū)域同樣采用基準(zhǔn)的Faster R-CNN作為檢測(cè)算法。對(duì)比使用簡(jiǎn)單的識(shí)別網(wǎng)絡(luò)進(jìn)行穿戴識(shí)別,檢測(cè)算法在增加一定計(jì)算量的前提下,可以更準(zhǔn)確地利用圖像標(biāo)注中提供的目標(biāo)位置信息。因?yàn)樗枰袆e的合規(guī)穿戴區(qū)域相對(duì)固定,以Faster RCNN 所代表的目標(biāo)檢測(cè)算法可以快速通過(guò)學(xué)習(xí)穿戴標(biāo)注在圖像中的位置形狀信息,擬合出異?;蚝弦?guī)穿戴在人體區(qū)域中的相對(duì)位置,例如卷起袖子一般出現(xiàn)在裁剪后圖像的中部,卷起褲腿一般出現(xiàn)在圖像的底部。如果直接使用識(shí)別網(wǎng)絡(luò),則網(wǎng)絡(luò)獲取的信息只包含圖像的類別信息,而判別類別所使用的對(duì)應(yīng)區(qū)域語(yǔ)義特征是需要學(xué)習(xí)的。因此,訓(xùn)練一個(gè)目標(biāo)檢測(cè)算法對(duì)于合規(guī)穿戴任務(wù)來(lái)說(shuō),訓(xùn)練難度更低,準(zhǔn)確度更高。

        4 實(shí)驗(yàn)結(jié)果與分析

        數(shù)據(jù)集的制作采用在廣州電力建設(shè)現(xiàn)場(chǎng)實(shí)際采集的方式,共收集了15 477 張圖片用于人員定位算法的訓(xùn)練,包含正常佩戴、未戴安全帽、正常穿工裝上衣、正常穿工裝褲子、未合規(guī)穿工裝上衣(卷起工裝袖子),共5種穿戴行為。選擇其中的12 542張圖片作為訓(xùn)練集,剩余2 935張作為測(cè)試集。對(duì)數(shù)據(jù)集中的人體進(jìn)行裁剪后,得到29 341張人體區(qū)域圖片,其中26 406 張圖片用于人體區(qū)域合規(guī)穿戴檢測(cè)算法的訓(xùn)練,2 935張圖片用于算法性能的測(cè)試。本文模型訓(xùn)練與預(yù)測(cè)的實(shí)驗(yàn)硬件條件為NVIDIA RTX3090 GPU,系統(tǒng)環(huán)境為Ubuntu 16.04,訓(xùn)練框架為Pytorch。

        在訓(xùn)練人員定位算法時(shí),訓(xùn)練圖片進(jìn)入模型訓(xùn)練前進(jìn)行數(shù)據(jù)增強(qiáng),采用隨機(jī)翻轉(zhuǎn)和顏色通道標(biāo)準(zhǔn)化方法。將數(shù)據(jù)增強(qiáng)后的圖片像素統(tǒng)一縮放至1 333×800。模型采用ResNet50 作為特征提取骨干網(wǎng)絡(luò),采用在ImageNet 上與訓(xùn)練的模型參數(shù)作為初始化參數(shù),模型訓(xùn)練優(yōu)化器采用隨機(jī)梯度下降,批訓(xùn)練大小設(shè)置為8,初始學(xué)習(xí)率為0.02,動(dòng)量項(xiàng)為0.9,權(quán)值衰減系數(shù)1×10-4??偟螖?shù)為50 000,慢啟動(dòng)設(shè)置為2 000次迭代,并采用學(xué)習(xí)率階段下降方式,在迭代35 000 次和45 000 次時(shí)分別將學(xué)習(xí)率下降為當(dāng)前學(xué)習(xí)率的0.1倍。

        在訓(xùn)練人體區(qū)域合規(guī)穿戴檢測(cè)算法時(shí),將圖形像素統(tǒng)一縮放到150×400,批處理設(shè)置為128,初始學(xué)習(xí)率為0.02,動(dòng)量項(xiàng)為0.9,權(quán)值衰減系數(shù)1×10-4。總迭代次數(shù)為20 000,慢啟動(dòng)設(shè)置為500次迭代,在迭代14 000 次和18 000 次時(shí)分別將學(xué)習(xí)率下降為當(dāng)前學(xué)習(xí)率的0.1倍。

        本文在人員定位算法時(shí)使用標(biāo)準(zhǔn)的目標(biāo)檢測(cè)指標(biāo)mAP(平均準(zhǔn)確率)作為評(píng)價(jià)指標(biāo),閾值設(shè)置為0.5。最終整體的工裝穿戴合規(guī)檢測(cè)采用平均準(zhǔn)確率Am作為評(píng)價(jià)指標(biāo),計(jì)算方式如下:

        式中:k為穿戴行為的總類別數(shù);m為算法判斷準(zhǔn)確的圖片數(shù)量;n為該類別在測(cè)試數(shù)據(jù)集中的總數(shù)。圖片中所有人體的某類別都識(shí)別代表判斷準(zhǔn)確。

        圖5為人員定位結(jié)果,圖6為人體區(qū)域工裝合規(guī)檢測(cè)結(jié)果,圖7為最終的電力施工場(chǎng)景工裝合規(guī)穿戴檢測(cè)結(jié)果。定量指標(biāo)見(jiàn)表1和表2。

        表1 電力施工場(chǎng)景人員定位準(zhǔn)確率

        表2 合規(guī)穿戴準(zhǔn)確率

        圖5 人員定位結(jié)果

        圖6 人體區(qū)域工裝合規(guī)檢測(cè)結(jié)果

        圖7 電力施工場(chǎng)景工裝合規(guī)穿戴檢測(cè)結(jié)果

        因?yàn)殡娏κ┕?chǎng)景下作業(yè)人員的人體形狀分布不均勻,原始Faster R-CNN 的人員定位的mAP僅為85.1%;在采用了FPN對(duì)底層特征信息進(jìn)行增強(qiáng)之后,mAP 上升至89.7%;使用Guided Anchor 模塊替代原始方案中手工設(shè)置的anchor 參數(shù)后,mAP 進(jìn)一步提升至91.1%。由實(shí)驗(yàn)結(jié)果可知,本文提出的基于Faster R-CNN優(yōu)化的電力施工場(chǎng)景人員定位算法可以實(shí)現(xiàn)電力施工場(chǎng)景人員的準(zhǔn)確定位與識(shí)別。

        二階段Faster R-CNN方案對(duì)工裝合規(guī)穿戴檢測(cè)的平均準(zhǔn)確率達(dá)到92.9%,對(duì)于卷起袖子這類不顯著的違規(guī)穿戴行為檢測(cè)的平均準(zhǔn)確率也達(dá)到93.9%。此外,對(duì)比單階段Faster R-CNN 方案對(duì)于大圖片輸入中的小目標(biāo)漏檢,二階段Faster RCNN 方案通過(guò)人體位置的先驗(yàn),將人體區(qū)域合規(guī)穿戴檢測(cè)的平均準(zhǔn)確率提升了11.4%。同時(shí),在卷起袖子這類不顯著違規(guī)穿戴識(shí)別任務(wù)上,二階段方案的平均準(zhǔn)確率相比單階段方案提升了16.3%,體現(xiàn)了二階段方案對(duì)于工裝合規(guī)檢測(cè)中小目標(biāo)檢測(cè)任務(wù)的優(yōu)勢(shì)。

        定量檢測(cè)結(jié)果與圖7中檢測(cè)結(jié)果表明,本文所提方案能很好地應(yīng)用于電力施工場(chǎng)景下的工裝合規(guī)穿戴檢測(cè)。

        5 結(jié)語(yǔ)

        工裝合規(guī)穿戴識(shí)別對(duì)于電力施工場(chǎng)景下的安全作業(yè)具有重要意義,之前的工作大多針對(duì)安全帽檢測(cè),針對(duì)工裝合規(guī)穿戴檢測(cè)的研究較少。本文在原有工裝檢測(cè)方法的基礎(chǔ)上,將檢測(cè)內(nèi)容拓展到卷起袖子、卷起褲腿等穿戴場(chǎng)景,提出了一種二階段工裝合規(guī)穿戴檢測(cè)算法,包括人員定位階段和人體區(qū)域工裝合規(guī)檢測(cè)階段。在人員定位階段,對(duì)原始的Faster R-CNN進(jìn)行優(yōu)化,增加了FPN和Guided Anchor模塊,用于應(yīng)對(duì)電力施工場(chǎng)景下人員動(dòng)作導(dǎo)致的人體形狀檢測(cè)存在的問(wèn)題,有效提升了檢測(cè)精度。在人體區(qū)域工裝合規(guī)檢測(cè)階段,利用目標(biāo)檢測(cè)任務(wù)能提供給網(wǎng)絡(luò)更準(zhǔn)確的類別位置先驗(yàn)信息,采用Faster R-CNN進(jìn)行工裝穿戴是否合規(guī)的識(shí)別,對(duì)于卷起袖子等不顯著的違規(guī)穿戴行為也能實(shí)現(xiàn)準(zhǔn)確的判斷。實(shí)驗(yàn)結(jié)果表明:本文提出的方法對(duì)電力施工場(chǎng)景下的人員定位檢測(cè)精度達(dá)到91.1%,相比普通Faster R-CNN方案提升了6.0%;二階段工裝合規(guī)穿戴檢測(cè)方案對(duì)人體區(qū)域合規(guī)穿戴識(shí)別的平均準(zhǔn)確率達(dá)到92.9%,相比單階段Faster R-CNN提升了11.4%,具有較強(qiáng)的應(yīng)用性。

        猜你喜歡
        檢測(cè)
        QC 檢測(cè)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        “幾何圖形”檢測(cè)題
        “角”檢測(cè)題
        “有理數(shù)的乘除法”檢測(cè)題
        “有理數(shù)”檢測(cè)題
        “角”檢測(cè)題
        “幾何圖形”檢測(cè)題
        免费午夜爽爽爽www视频十八禁| 中文无码免费在线| 蜜桃av福利精品小视频| 成人影院视频在线免费观看| 色哟哟精品视频在线观看| 亚洲人成人影院在线观看| 亚洲日韩成人无码不卡网站| 国产一区二区三区口爆在线| 欧美大屁股xxxx高潮喷水| 精品久久人人妻人人做精品| 白丝美女被狂躁免费视频网站| a级三级三级三级在线视频| 4455永久免费视频| 国内精品伊人久久久久影院对白| 精品国产亚洲一区二区三区演员表| 国产日本精品一区二区| 影音先锋久久久久av综合网成人| 国产亚洲精品资源在线26u| 国产肉体XXXX裸体784大胆| 国产熟女露脸大叫高潮| 天天做天天爱夜夜爽女人爽| 国产色a在线观看| 欧美日一本| 中文字幕在线乱码av| 欧美video性欧美熟妇| 青青操国产在线| 在线免费观看国产视频不卡| 日韩极品视频免费观看| 日本在线看片免费人成视频1000| 国产精品久久无码不卡黑寡妇| 一区二区三区精品亚洲视频| 大陆国产乱人伦| 人人妻人人爽人人做夜欢视频九色 | 亚洲av乱码一区二区三区林ゆな| 在线亚洲人成电影网站色www| 丰满人妻一区二区乱码中文电影网| 国产三区二区一区久久| 被三个男人绑着躁我好爽视频 | 一区二区在线观看日本视频| 波多野42部无码喷潮在线| 欧美日韩综合网在线观看|