亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv5的安全帽檢測研究

        2022-11-18 07:34:40史德偉郭秀娟
        吉林建筑大學學報 2022年5期
        關(guān)鍵詞:實驗檢測模型

        史德偉,郭秀娟

        吉林建筑大學 電氣與計算機學院,長春 130118

        0 引言

        隨著我國基礎(chǔ)設(shè)施的快速發(fā)展,建筑工地事故也逐漸有所增加.在安全生產(chǎn)規(guī)范中,明確指出進入施工場地必須佩戴安全帽.佩戴安全帽可以在工程作業(yè)中有效保護施工人員頭部,故佩戴安全帽是進入建筑工地的關(guān)鍵.常用的安全帽佩戴檢測方法主要使用人工巡查以及視頻監(jiān)控等方式,在實際操作中,因施工環(huán)境復雜以及人員走動,只依靠人工巡查不僅會加大成本,還存在效率低、出現(xiàn)漏檢等情況.就目前建筑工地的視頻監(jiān)控來看其識別率低且實時性差.目前,針對這些問題使用監(jiān)控攝像頭,通過傳統(tǒng)的人工智能算法實現(xiàn)對建筑工地未佩戴安全帽人員監(jiān)測可以有效抑制安全帽漏檢的問題.但因環(huán)境復雜導致現(xiàn)階段安全帽佩戴檢測準確率較低,不符合實際生產(chǎn)環(huán)境的監(jiān)測需求.因此,應(yīng)用現(xiàn)代人工智能技術(shù),實現(xiàn)安全帽戴檢以確保施工人員安全,對提高安全生產(chǎn)治理具有重要意義.

        1 安全帽識別現(xiàn)狀

        隨著人工智能算法的發(fā)展,深度學習在各個領(lǐng)域有著廣泛的應(yīng)用.因此,在安全帽檢測應(yīng)用領(lǐng)域中,學者們應(yīng)用深度學習的方法對其展開了研究.Kelm 等[1]人通過移動射頻識別人員的個人防護設(shè)備是否合規(guī).但是射頻識別閱讀器具有一定的局限性,能檢測到安全帽與工人,不能確定工人是否正確佩戴安全帽.劉曉慧等[2]人以支持向量機(SVM)為模型,通過膚色檢測定位和Hu矩陣為特征向量來實現(xiàn)安全帽檢測.Wu 等[3]人提出了一種由局部二值模式(LBP)、Hu矩陣不變量(HMI)和顏色直方圖(CH)組成的基于顏色的混合描述子,用于提取不同顏色(紅、黃、藍)頭盔的特征.施輝等[4]人基于YOLOv3,利用圖像金字塔結(jié)構(gòu)獲取不同尺度的特征圖進行位置和類別預(yù)測,對目標幀參數(shù)進行聚類用這種方法實現(xiàn)安全帽佩戴的檢測.

        本文以YOLOv5 網(wǎng)絡(luò)模型為主體,將是否佩戴安全帽作為檢測任務(wù).實驗表明,該模型下的檢測具有良好的魯棒性以及較高的準確度.

        2 YOLOv5

        YOLO網(wǎng)絡(luò)是為目標檢測而設(shè)計的網(wǎng)絡(luò).由于其較比大多深度網(wǎng)絡(luò)計算速度更快,且具有良好的實時性,故在工業(yè)中有良好的應(yīng)用前景.而YOLOv5是YOLO系列經(jīng)過迭代更新的最新版本,所以本文選擇YOLOv5進行研究.YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,它是由主干網(wǎng)絡(luò)(Backbone)、頸部(NECK)以及輸出(Output)3個部分組成.其目標檢測原理可以概括為通過主干網(wǎng)絡(luò)提取特征值,將特征值進行融合,再對圖像特征進行預(yù)測,最后生成預(yù)測類別,并返回目標位置的邊框坐標[5].

        圖1 YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Network structure diagram of YOLOv5

        主干網(wǎng)絡(luò)主要包括切片結(jié)構(gòu)(Focus)、卷積模塊(Conv)、瓶頸層(C3)以及空間金字塔池化(SPP)[6].切片結(jié)構(gòu)是將高分辨率圖像中抽出像素點重新構(gòu)造到低分辨率圖像中,該模塊主要是用來加快計算速度.SPP模塊分別采用5/9/13的最大池化,再進行concat融合,提高感受野.在頸部網(wǎng)絡(luò)中使用了FPN+PAN的結(jié)構(gòu),較比之前版本,雖然總體結(jié)構(gòu)沒有改變,但其增加了sp2結(jié)構(gòu),加強了特征融合的能力.最后在輸出端使用了損失函數(shù)GIOU_Loss,GIOU函數(shù)同時包含了預(yù)測框和真實框的最小框的面積,其計算如公式(1)所示.該函數(shù)可以增強其檢測能力.

        CIOU_Loss=1-(IOU-Distance_22Distance_C2-v2(1-IOU)+v)

        v=4π2(arctanwgthgt-arctanwphp)2

        (1)

        3 實驗過程

        首先準備數(shù)據(jù)集,通過網(wǎng)上采集以及拍攝整理得到,然后對其篩選和標記,達到實驗要求.通過YOLOv5算法進行訓練,得到最優(yōu)的檢測模型,由最優(yōu)的檢測模型對測試集數(shù)據(jù)進行測試,最終得到結(jié)果.

        3.1 實驗數(shù)據(jù)集制作

        數(shù)據(jù)集的制作主要分為數(shù)據(jù)采集和整理、數(shù)據(jù)的預(yù)處理、數(shù)據(jù)的篩選和數(shù)據(jù)集標注[7].本實驗使用labelImg標注圖片.本次實驗將數(shù)據(jù)集分類為訓練集和測試集,其中訓練集為5 000張圖片,測試集為1 212張圖片.標注類別分為兩類,包括佩戴安全帽的施工人員與未佩戴安全帽的施工人員.圖2為數(shù)據(jù)集的分析可視化結(jié)果圖,圖2(a)為施工人員和戴安全帽的施工人員的分布圖;圖2(b)是中心點分布圖;圖2(c)是數(shù)據(jù)集寬高分布圖.

        (a) (b) (c)

        3.2 實驗平臺

        本文的實驗環(huán)境為:Intel(R) Xeon(R) Gold 6130H CPU @ 2.10GHz,32GB運行內(nèi)存,Nvidia Geforce 2080ti,ubuntu16.04,64位操作系統(tǒng) , Pytorch1.9.0.編程語言為 Python3.8,GPU 加速軟件Driver Version: 495.46 ,CUDA Version: 11.5.共訓練200輪.

        4 實驗結(jié)果分析

        如圖3所示,圖3(a)代表訓練集位置損失;圖3(b)代表訓練集置信度損失;圖3(c)代表訓練集類別損失.由圖3可知,訓練效果達到了較好的擬合狀態(tài),訓練集位置損失穩(wěn)定在0.032左右,置信度損失穩(wěn)定在0.049左右,類別損失穩(wěn)定在0.002左右.

        (a) (b) (c)

        在目標檢測中,均值平均精度(Mean average precision,MAP)是評估訓練模型性能和可靠性的常用指標[8].本文將通過均值平均精度評價指標評估實驗?zāi)P偷男阅?可得到兩類結(jié)果圖像,包括佩戴安全帽的施工人員和未佩戴安全帽的施工人員,如圖4所示.

        圖4 實驗?zāi)P徒Y(jié)果Fig.4 Results of experimental model

        正類正樣本(True Positive,TP)、正類負樣本(True Negative,TN) 、負類正樣本(False Positive,FP)和負類負樣本(False Negative,FN)是用來計算精度的關(guān)鍵.其中,hatTP是未佩戴安全帽的人,并且檢測正確,hatTN,hatFP,hatFN以此類推.AP值表示評價精確度,其計算公式見式(2).Hat precision表示安全帽的精確度,其計算公式見式(3).hatrecall表示安全帽召回率,其計算公式見式(4).圖5 Precision-recall藍色曲線下方面積代表本次實驗所有類別AP的值.

        圖5 Precision-recall曲線Fig.5 Precision-recall curve

        APhat=TPhat+TNhatTPhat+TNhat+FPhat

        (2)

        Recallhat=TPhatTPhat+FNhat

        (3)

        Precisionhat=TPhatTPhat+FPhat

        (4)

        MAP=1Q∑q∈QAP(q)

        (5)

        其中,mAP@0.5代表IOU閾值取0.5時對應(yīng)的mAP值.均值平均精度(mAP)為AP值在所有類別下取平均,計算公式見式(5).其中,Q為總類別數(shù)量.本次實驗person類別mAP值可達93.9 %,hat類別可達87.1 %,所有類別mAP可達90.5 %.

        5 結(jié)論

        本文對使用YOLOv5網(wǎng)絡(luò)解決安全帽佩戴檢測的方法進行了研究,通過最終的實驗數(shù)據(jù)表明,本文算法中工人頭部檢測的均值平均精度達到了93.9 %,工人佩戴安全帽的均值平均精度達到了87.1 %.該算法在復雜環(huán)境下準確率、檢測速率仍具有良好的表現(xiàn),因此YOLOv5算法可以適用于實際施工場地中.

        猜你喜歡
        實驗檢測模型
        一半模型
        記一次有趣的實驗
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        做個怪怪長實驗
        3D打印中的模型分割與打包
        NO與NO2相互轉(zhuǎn)化實驗的改進
        激情内射亚洲一区二区| 成人激情五月天| 国产剧情国产精品一区 | 精品国产人成亚洲区| 四虎影视成人永久免费观看视频| 亚洲男人av天堂午夜在| 国产在线手机视频| 国产精品一区二区久久精品蜜臀 | 东京热加勒比久久精品| 久久人妻av无码中文专区| 精品国产一区二区三区av片| 国产真人无遮挡免费视频| 亚洲色图少妇熟女偷拍自拍| 日本中文一区二区在线观看| 欧美另类高清zo欧美| 国产尤物精品自在拍视频首页 | 人妻丰满熟妇AV无码区HD| 日本草逼视频免费观看| 亚洲国产一区二区三区精品| 婷婷五月六月激情综合色中文字幕| 丁香美女社区| 国产日韩欧美亚洲精品中字| 亚洲国产成人精品激情资源9| 熟女人妻一区二区在线观看 | 在线观看国产成人av天堂野外| 亚洲av日韩av天堂一区二区三区| 欧美韩日亚洲影视在线视频| 亚洲精品一区二区三区日韩 | 一区二区三区国产免费视频| 亚洲一区二区三区无码国产| 精品国产亚洲一区二区三区演员表| 极品少妇一区二区三区| 日韩精品熟女中文字幕| 无码人妻丰满熟妇区五十路 | 国产精品深夜福利免费观看| 久久久黄色大片免费看| 无套无码孕妇啪啪| 久久综合久久鬼色| 亚洲区在线播放| 国产三级c片在线观看| 免费又黄又爽又色的视频|