呂宗喆,徐 慧,楊 驍,王 勇,王唯鑒
(1.北京機械工業(yè)自動化研究所,北京 100120;2.北自所(北京)科技發(fā)展股份有限公司,北京 100120)
在建筑業(yè)施工、制造業(yè)生產(chǎn)過程中,時常存在不同程度的安全隱患威脅著工作人員的人身安全。近5 年來,我國因受物體打擊或高處墜落導(dǎo)致的重大安全生產(chǎn)事故占總事故量的近三成[1]。安全帽的主要作用是使工作人員的頭部減輕或免受墜落物等外物的傷害,在關(guān)鍵時刻可以拯救工人的生命[2],因此安全帽的佩戴作為保障高危工作人群人身安全的一項重要措施,意義重大。目前,對于廠區(qū)安全帽佩戴檢測的方法主要有以下幾類:人工判定法、基于傳感器反饋的方法、基于圖像識別處理的方法和基于目標檢測的方法[3]。
在圖像處理技術(shù)沒有廣泛應(yīng)用的時期,安全帽的檢測主要依靠傳感技術(shù)實現(xiàn)。Kelm 等[4]設(shè)計了一種安裝移動射頻識別閘門,檢測經(jīng)過閘門工人的個人防護設(shè)備的佩戴情況;Dong 等[5]通過安裝在安全帽內(nèi)側(cè)的壓力傳感器檢測工人是否佩戴安全帽,并通過藍牙傳輸檢測結(jié)果,但是藍牙模塊需要定期充電,操作較為繁瑣。這些方法對硬件要求較高,穿戴和檢測較復(fù)雜,同時考慮到工人的健康和隱私,這些技術(shù)沒有得到推廣。
隨著圖像處理技術(shù)的發(fā)展,Birchfield[6]使用橢圓形對佩戴安全帽的頭部輪廓建模,并在狀態(tài)空間中搜索是否存在與該形狀匹配的區(qū)域,可以很好地檢測出正面的頭部圖像,但對于傾斜的頭部不能有效檢測;劉曉慧等[7]通過膚色檢測粗定位佩戴安全帽的頭部區(qū)域,提取安全帽的Hu 矩陣特征向量并使用支持向量機進行分類;Chiverton[8]在行人檢測的基礎(chǔ)上,采用方向梯度直方圖(Histogram of Oriented Gradient,HOG)、尺度不變特征變換(Scale-Invariant Feature Transform,SIFT)等算法提取行人頭部特征,通過手動選取特征進行分類檢測。這些方法均需要提取圖像特征,對圖像清晰度要求較高且計算量龐大,識別精度不高,不適合在復(fù)雜的工廠施工環(huán)境中使用。
近幾年,使用深度學(xué)習(xí)的目標檢測方法在工業(yè)領(lǐng)域掀起了熱潮。小目標檢測一直以來是目標檢測技術(shù)中的重難點,針對安全帽的目標檢測通常使用工業(yè)現(xiàn)場采集的低分辨率照片(640×480),目標密集、易出現(xiàn)遮擋且像素點少,屬于小目標的范疇。DOIR(Detection,Observation,Identification and Recognition )將大小低于圖像高度10%的檢測目標或大小低于圖像高度的20%的識別目標定義為兩類小目標[9]。MSCOCO(MicroSoft Common Objects in COntext)數(shù)據(jù)集[10]則將像素絕對值小于32×32 的目標定義為小目標。小目標具有特征表達不充分、分辨率低和圖像覆蓋面積小等特點,檢測難度更高。Rawat 等[11]使用紅外補丁圖像方法,在背景補丁圖像中引入總方差正則化項抑制復(fù)雜背景;Zhang 等[12]將雙向特征金字塔結(jié)構(gòu)引入RetinaNet,利用殘余連通的膨脹卷積塊充分提取圖像低特征層的高分辨率特征。這些方法都是為了保留小目標特征,增強特征表達。
對于小目標安全帽的目標檢測算法分為以YOLO(You Only Look Once)系列為代表的單階段算法和以R-CNN(Region-based Convolutional Neural Network)系列為代表的兩階段算法[13]。王慧[14]在Faster R-CNN 的基礎(chǔ)上,使用加性融合函數(shù)保留小目標特征,通過在線困難樣本挖掘機制挖掘數(shù)據(jù)集中損失較大的樣本,并分批次訓(xùn)練,顯著地降低了對安全帽的誤檢和漏檢率,但相較于單階段算法,檢測速度較低。
YOLO 和單點多盒檢測器(Single Shot multibox Detector,SSD)是典型的單階段目標檢測算法。李明山等[15]將特征融合的分支網(wǎng)絡(luò)引入SSD算法,通過可變參數(shù)調(diào)節(jié)先驗框大小,提升了安全帽檢測的速率和實時性。為了進一步提高檢測的準確性,肖體剛等[16]基于YOLOv3 網(wǎng)絡(luò),通過增大輸入圖像的尺度,使用深度可分離卷積的方法減少圖像特征的丟失,并使用K-Means 優(yōu)化先驗框,顯著地提升了安全帽佩戴檢測的準確性。王玲敏等[17]在YOLOv5 基礎(chǔ)上引入坐標注意力機制,改善原有的特征金字塔模型,使雙向跨尺度連接與加權(quán)特征融合更加高效,將小目標的平均檢測精度提高到95.9%。
相較于SSD 與YOLOv3 算法,YOLOv5 在檢測速度和精確率上均更勝一籌,因此本文采用YOLOv5 作為基礎(chǔ)的算法框架。為了對實際場景中小目標安全帽的獨特性檢測,需要對YOLOv5 的網(wǎng)絡(luò)結(jié)構(gòu)和微調(diào)推理部分進行相應(yīng)的調(diào)整和改進,提高所提算法在復(fù)雜密集的場景中對小目標的檢測精度。
本文采用的YOLOv5 網(wǎng)絡(luò)由主干網(wǎng)絡(luò)Backbone、頸部路徑聚合網(wǎng)絡(luò)(Path Aggregation Network,PANet)和輸出Output/Head 這3 個部分組成,網(wǎng)絡(luò)結(jié)構(gòu)如圖1[18]所示。主干網(wǎng)絡(luò)利用卷積神經(jīng)網(wǎng)絡(luò)使不同的圖像在細粒度上聚合形成圖像特征;頸部網(wǎng)絡(luò)采用了自頂向下與自底向上聯(lián)合的特征融合方式,將一系列的圖像特征混合并重新組合,再將特征傳遞到輸出層,更好地融合了主干網(wǎng)絡(luò)提取的多尺度特征[19];輸出層根據(jù)傳遞的圖像特征預(yù)測邊界框和類別,通過非極大值抑制(Non-Maximum Suppression,NMS)消除冗余預(yù)測框,最終輸出置信度最高的預(yù)測類別并返回邊框坐標。
圖1 YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Network structure of YOLOv5
圖1 中,F(xiàn)ocus 是代碼中一個類的名稱,它的意思就是集中,這個類的作用是下采樣,將寬度和高度信息集中到通道空間中;Conv 是卷積神經(jīng)網(wǎng)絡(luò)的一個常用模塊;C3 由3 個Conv 模塊構(gòu)成,用來增大網(wǎng)絡(luò)深度和感受野,提高特征提取能力;空間金字塔池化(Spatial Pyramid Pooling,SPP)用來拼接不同的池化結(jié)果,避免圖像因裁剪、縮放造成的失真問題;Concat 用來增加特征圖的通道數(shù);Upsample 是上采樣,用于將圖像放大;Conv2d 是二維情況下卷積神經(jīng)網(wǎng)絡(luò)的模塊;na是預(yù)測框數(shù),nc是待預(yù)測的類數(shù),均為在算法中定義的變量。
YOLOv5m(You Only Look Once version 5 medium)算法中損失函數(shù)由邊界框回歸損失(bounding box regression loss)、類別預(yù)測損失(class prediction loss)和置信度預(yù)測損失(confidence prediction loss)這3 個部分組成,其中使用廣義交并比損 失(Generalized Intersection over Union Loss,GIoU Loss)函數(shù)計算邊界框得分(Bounding box score),使用類別預(yù)測損失(class prediction loss)計算類別概率得分(Class probability score),使用置信度預(yù)測損失函數(shù)(confidence prediction loss)計算客觀性得分(Objectness score)。
1.2.1 邊界框回歸損失函數(shù)改進
邊界框回歸損失函數(shù)GIoU Loss 計算公式與計算過程中預(yù)測框和真實框的關(guān)系公式如下:
其中:x、y、w、h表示預(yù)測框中心點坐標和預(yù)測框的寬度及高度;xgt、ygt、wgt、hgt表示真實框中心點坐標和真實框的寬度及高度。
結(jié)合圖2 與式(1)~(3),B表示圖2 中灰色預(yù)測框的大小和位置,Bgt表示圖2 中黑色真實框的大小和位置,C表示無論B與Bgt是否相交,同時包含預(yù)測框和真實框的最小區(qū)域的對角線長度,d表示預(yù)測框和真實框中心點連線的長度。B與Bgt之間的距離越遠,C值越大[20]。
圖2 預(yù)測框和真實框的關(guān)系Fig.2 Relationship between prediction box and ground truth box
GIoU 雖然解決了在計算交并比(Intersection over Union,IoU)時,若預(yù)測框和真實框無重疊梯度消失的問題,但對IoU原本的封閉框十分依賴,需要更多的迭代,所以有時GIoU Loss 不能很好地收斂。如圖3 所示,當預(yù)測框出現(xiàn)在真實框的內(nèi)部時且預(yù)測框大小一樣時,GIou 退化為IoU,導(dǎo)致檢測結(jié)果不準確[21]。
圖3 GIoU退化為IoUFig.3 GIoU degrading into IoU
圖4 切片輔助微調(diào)的原理Fig.4 Principle of slicing aided fine-tuning
本文參考文獻[22]采用完全交并比損失(Complete Intersection over Union Loss,CIoU Loss)代替GIoU Loss 計算邊界框的回歸損失。CIoU Loss 考慮了邊界框橫縱比一致性的情況,公式如下:
其中:ρ(·)表示預(yù)測框和目標框中心點的歐氏距離,c表示包含兩個框的對角線長度,b和bgt表示預(yù)測框和真實框的中心點,α是一個正權(quán)衡參數(shù),υ用于衡量預(yù)測框和目標框橫縱比的一致性,wgt/hgt和w/h表示真實框和預(yù)測框的寬高比。CIoU使重疊面積因子在回歸中具有較高的優(yōu)先級,可以使預(yù)測框有更好的回歸效果。
1.2.2 置信度預(yù)測損失函數(shù)改進
YOLOv5 用于計算置信度預(yù)測損失的函數(shù)CrossEntropy Loss 包含式(7)中兩類損失函數(shù):
該損失函數(shù)的輸出為(batch,D),batch是樣本數(shù),D是類別數(shù),對每個batch所對應(yīng)的D求Softmax,其中Softmax 的值符合概率分布,它可以確保最終輸出的概率總和為1,并且各類別之間是互斥且相互關(guān)聯(lián)的[23-24]。該損失函數(shù)一般用于多類別分類問題。
由于本文研究的安全帽檢測屬于二分類問題,所以CrossEntropy Loss 不再適用。而BCEWithLogitsLoss 則是用于解決單標簽二分類或多標簽二分類問題的損失函數(shù),更符合本文算法需求,故使用式(8)計算置信度預(yù)測損失,它包含兩類損失函數(shù):
對每個batch所對應(yīng)的D值求LSigmoid,兩類檢測結(jié)果中batch所對應(yīng)的D相互獨立。
為了充分表達小目標特征,提高改進后YOLOv5 算法的檢測精度,本文在推理與微調(diào)過程中,對輸入網(wǎng)絡(luò)的圖像進行重疊切片。相較于直接輸入網(wǎng)絡(luò)的圖像,這種方法可以使圖像中的小目標對象產(chǎn)生較大的像素區(qū)域,盡可能地保留小目標的特征,避免因原圖像中小目標像素點過少導(dǎo)致特征丟失,同時保留對圖像中大目標的檢測精度。
微調(diào)(fine-tuning)是神經(jīng)網(wǎng)絡(luò)應(yīng)用中最流行的遷移學(xué)習(xí)策略之一[25]。在深度學(xué)習(xí)的實踐中,由于數(shù)據(jù)集較小,很少從頭開始訓(xùn)練網(wǎng)絡(luò)。常見的做法是使用預(yù)訓(xùn)練的網(wǎng)絡(luò)重新微調(diào)網(wǎng)絡(luò)參數(shù)。
微調(diào)就是利用已知的網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練參數(shù),調(diào)整輸出層前若干層的參數(shù),達到初始化網(wǎng)絡(luò)的目的。這個過程有效利用了深度神經(jīng)網(wǎng)絡(luò)強大的泛化能力,又免去了復(fù)雜的模型設(shè)計和耗時良久的訓(xùn)練,所以微調(diào)是當數(shù)據(jù)量較少時的一個比較合適的選擇[26]。
當前廣泛使用的檢測對象框架,如Detectron2(https://github.com/facebookresearch/detectron2)、MMDetection[27]和YOLOv5,均使用大型數(shù)據(jù)集ImageNet 或MSCOCO 進行預(yù)訓(xùn)練,并提供預(yù)訓(xùn)練權(quán)重,因此本文在訓(xùn)練自己的網(wǎng)絡(luò)時只需要構(gòu)建較小的數(shù)據(jù)集,花費更短的訓(xùn)練周期,在預(yù)訓(xùn)練的基礎(chǔ)上微調(diào)網(wǎng)絡(luò)權(quán)重,不需要重新使用大型的數(shù)據(jù)集進行訓(xùn)練,同時使用切片的方式輔助這一過程。
切片輔助微調(diào)隨著切片尺寸(patch size)的減小,使切片無法覆蓋大目標的圖像區(qū)域,這可能導(dǎo)致對大物體的檢測性能變差;因此,采用切片輔助推理(Slicing Aided Hyper Inference,SAHI)的方法解決微調(diào)過程中出現(xiàn)的問題。
如圖5 所示,將原始輸入圖像I分割為l個p×q的重疊切片(上標I 表示推理(Inference)),在保持寬高比不變的基礎(chǔ)上調(diào)整patch 的大小,單獨對每個重疊切片應(yīng)用目標檢測的正向傳遞對小目標進行推理;同時使用原始圖像的可選全推理(Full Inference,F(xiàn)I)檢測大目標,最終使用NMS 將兩類預(yù)測結(jié)果合并為原始圖像。在NMS 的過程中,通過遍歷所有的檢測框,計算各檢測框與當前置信度最高的檢測框之間的交并比,把交并比值大于一定閾值Tm或置信度低于一定閾值Td的檢測框都剔除,最終得到目標預(yù)測框。Tm是交并比的最大閾值,Td是置信度的最低閾值。
圖5 切片輔助推理的原理Fig.5 Principle of slicing aided hyper inference
本文使用的是安全帽佩戴檢測數(shù)據(jù)集Safety Helmet Wearing-Dataset(https://github.com/njvisionpower/Safety-Helmet-Wearing-Dataset)。該數(shù)據(jù)集包含7 581 張圖像,其中有9 044 個佩戴安全帽的對象(positive)和111 514 個未佩戴安全帽的對象(negative)。本文將該數(shù)據(jù)集標注文件的VOC格式通過編寫腳本的方式批量轉(zhuǎn)化為YOLO 格式,方便訓(xùn)練YOLOv5 算法。標注文件的內(nèi)容包括類別序號0、1 和目標位置的邊框坐標,其中0 代表hat,即佩戴安全帽;1 代表person,即未佩戴安全帽。同時編寫腳本,按7∶2∶1 隨機將該數(shù)據(jù)集劃分為訓(xùn)練集、測試集和驗證集,訓(xùn)練集包含5 457 張圖像,測試集包含1 517 張,驗證集包含607 張。
本次實驗在Windows 10 操作系統(tǒng)上進行,CPU 為12th Gen Intel Core i9-12900KF 3.19 GHz,GPU 為12 GB顯存的NVIDIA GeForce RTX 3080Ti,深度學(xué)習(xí)框架選擇PyTorch1.9.0。
為了有更好的檢測效果,本文實驗預(yù)訓(xùn)練權(quán)重選擇YOLOv5m,由于使用VOC2028 數(shù)據(jù)集,實驗超參文件為hyp.finetune.yaml。實驗使用YOLOv5 中自帶的Mosaic 數(shù)據(jù)增強方法,實驗的關(guān)鍵超參數(shù)如表1 所示。
表1 實驗關(guān)鍵超參數(shù)Tab.1 Key hyperparameters in experiments
實驗中對真實情況和預(yù)測情況的分類如表2 所示,其中真正例TP(True Positive)代表真實情況與預(yù)測情況均為正例,假正例FP(Flase Positive)代表真實為反例而預(yù)測為正例,假反例FN(Flase Negative)代表真實情況為正例而預(yù)測為反例,真反例TN(True Negative)代表真實情況與預(yù)測情況均為反例。
表2 真實情況和預(yù)測情況的分類Tab.2 Classification of real and prediction situations
本文實驗采用的衡量指標包括精確率(Precision,P)、召回率(Recall,R)和平均精確率均值(mean Average Precision,mAP)。P 是預(yù)測出的真正正例在預(yù)測出的所有正例中所占比例;召回率R 是指預(yù)測出的真正正例在所有真實正例中所占比例;平均精確率(Average Precision,AP)是對精確率-召回率曲線(PR 曲線)和坐標軸之間所包圍的面積上的Precision 值求平均值,一般使用積分法計算,mAP 則是對每一個檢測的類別計算出的AP 值求平均值,一般以IoU=0.5計算mAP 的值,即mAP_0.5。以上指標的計算公式如下:
其中:S為檢測的類別數(shù),本文實驗的S為2;(VAP)i代表第i個類別的精確率。
實驗中將修改損失函數(shù)后的算法與原始YOLOv5m 算法在相同的實驗條件下分別訓(xùn)練300 輪,數(shù)據(jù)集分析效果如圖6 所示。圖6(a)表明數(shù)據(jù)集中包含的hat 類別與person 類別的數(shù)量,圖6(b)表明訓(xùn)練的圖片中標注出的hat 與person錨框的寬度與高度,圖6(c)表明訓(xùn)練的圖片中標注出的hat與person 錨框中心點的坐標。
圖6 數(shù)據(jù)集分析效果Fig.6 Dataset analysis rendering
改進后的算法在制作好的訓(xùn)練集上訓(xùn)練300 輪后的效果如圖7 所示。圖7(a)是IoU 閾值為0.5 時平均精確率曲線,圖7(b)是IoU 閾值從0.50~0.95,步長為0.05 時的平均精確率曲線。可以觀察到,在訓(xùn)練前65 輪過程中模型迅速收斂,100 輪之后mAP 值趨于穩(wěn)定,且模型沒有出現(xiàn)欠擬合和過擬合現(xiàn)象,訓(xùn)練效果比較理想。
圖7 改進損失函數(shù)后算法訓(xùn)練效果Fig.7 Algorithm training performance after improving loss function
為了進一步驗證改進后算法的訓(xùn)練效果,設(shè)計如下消融實驗。原始YOLOv5m 使用的是組合1(CrossEntropyLoss+GIoULoss)對Bounding box score 和Objectness score 進行計算,本文以此為基礎(chǔ)分別改進兩類損失函數(shù),設(shè)計組合2(CrossEntroyLoss+CIoULoss)、組 合3(BCEWithLogitsLoss+GIoULoss)和組合4(BCEWithLogitsLoss+CIoULoss)這3 組消融實驗。在相同訓(xùn)練集下訓(xùn)練網(wǎng)絡(luò),以精確率(P)、召回率(R)和平均精確率(mAP)作為評估指標,實驗結(jié)果如表3所示。
表3 消融實驗結(jié)果對比 單位:%Tab.3 Comparison of ablation experimental results unit:%
從表3 中可以看出,相較于原始YOLOv5m,分別引入兩類損失函數(shù)之后,算法的精確率和召回率都有一定的提升,將兩種損失函數(shù)同時融入后,精確率提升了0.26 個百分點,召回率提升了0.38 個百分點,平均精確率提升了0.46 個百分點,表明將兩種損失函數(shù)融合后得到了最佳的優(yōu)化算法模型。
為了進一步驗證本文算法改進的有效性,現(xiàn)將本文算法與引入特征融合的SSD 算法[15]、使用深度可分離卷積的YOLOv3 算法[16]、增加淺層特征圖的YOLOv5 算法[20]和原始YOLOv5 算法在同一測試集下進行測試,各項性能指標對比結(jié)果如表4 所示。其中文獻[20]中使用防毒面具數(shù)據(jù)集訓(xùn)練了網(wǎng)絡(luò),對于防毒面具的檢測結(jié)果會更高,但對本文檢測安全帽的結(jié)果上并不比原始YOLOv5 算法好。從表4 中可以看出,本文算法對小目標安全帽的檢測性能更好,hat 與person 的AP 值相較于其他4 種算法均有一定提升,mAP 達到95.77%,相較于對比算法提高了0.46~13.27 個百分點,訓(xùn)練結(jié)果比較理想,說明了本文算法的可行性。
表4 不同算法性能對比 單位:%Tab.4 Performance comparison of different algorithms unit:%
使用上文中修改了兩種損失函數(shù)(BCEWithLogitsLoss+CIoULoss)后訓(xùn)練的算法模型和在原有YOLOv5m 權(quán)重上進行訓(xùn)練的算法模型分別對圖像進行檢測,之后在進行切片輔助推理及微調(diào)的基礎(chǔ)上再次對這些圖像進行檢測。
為了檢驗優(yōu)化后的算法在不同場景下的檢測效果,根據(jù)距離越遠檢測難度越大的特點,本實驗將檢測圖像分為近距離聚集小目標、中距離聚集小目標和中遠距離小目標三類。
實驗在安全帽數(shù)據(jù)集上的檢測結(jié)果如圖8 所示。其中在未進行切片輔助推理及微調(diào)前,對比檢測結(jié)果如圖8(a)和圖8(b)??梢钥闯?,相較于圖8(a),圖8(b)中目標的檢測結(jié)果均有所提升,置信度更高。其中圖8(b)在近距離聚集小目標的檢測上糾正了誤檢的結(jié)果,最左側(cè)的保安頭戴鴨舌帽,在原檢測結(jié)果中會被誤檢為佩戴安全帽的目標,而優(yōu)化后的算法則可以將它與佩戴安全帽的目標進行區(qū)分;對于檢測難度較大的中距離聚集目標,圖8(b)的檢測結(jié)果說明優(yōu)化后的算法仍然具有很好的識別能力,且識別結(jié)果更加精確;但對于檢測難度最大的中遠距離小目標,雖然圖8(b)在精度上有所提升,但仍然存在漏檢的情況,且檢測結(jié)果中出現(xiàn)了低于0.5 的置信度,檢測結(jié)果不完全可靠。。
為了更進一步提高算法對小目標的檢測精度,改善漏檢的問題,本節(jié)在修改損失函數(shù)的基礎(chǔ)上,通過切片輔助推理及微調(diào)對相同的測試圖像進行檢測,檢測結(jié)果如圖8(c)所示。圖8(c)為修改兩類損失函數(shù)的同時進行切片輔助推理及微調(diào)后對三種不同距離目標的檢測效果。相較于圖8(a)(b),圖8(c)中對于小目標的檢測精確率再次提高。其中圖8(c)中對于近距離和中距離小目標的檢測置信度明顯提升,檢測難度最大的中遠距離小目標中檢測出了7 個小目標,相較于圖8(a)(b)中只檢測出的5 個以下小目標,進一步減少了遠距離小像素目標的漏檢情況,置信度也更高。以上實驗結(jié)果表明,相較于原始YOLOv5m 算法,修改兩類損失函數(shù)可以改善安全帽檢測中誤檢的問題,使近距離和中距離密集小目標的檢測結(jié)果更加精確;使用切片輔助推理及微調(diào)可以改善安全帽檢測中漏檢的問題,即對于遠距離小目標的識別更加精確。將兩類優(yōu)化方法結(jié)合后的算法,在3 種檢測場景下的檢測精度、誤檢和漏檢的情況均有一定改善,表明本文設(shè)計的目標檢測器在密集小目標和遠距離小目標的檢測場景下泛化能力更強。
針對工地場景下安全帽檢測過程中,密集小像素目標存在漏檢誤檢的情況,本文基于YOLOv5m 算法,通過修改計算邊界框回歸、置信度預(yù)測損失函數(shù)和使用切片輔助微調(diào)及推理,與原始算法相比,提升了訓(xùn)練過程的平均精確度和檢測過程的置信度,減少了誤檢漏檢的情況,提高了密集小目標場景下的泛化能力。改進后的算法能夠集成到一個完整的安全檢查框架中,可廣泛部署于各類生產(chǎn)現(xiàn)場,具有較強的應(yīng)用推廣價值。接下來將進一步整理本文算法結(jié)構(gòu),使它能夠安全可靠地應(yīng)用在實際工廠場景的安全帽檢測工作中。