亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv5s的建筑護(hù)欄目標(biāo)檢測

        2024-09-13 00:00:00俞愷洪濤厲勛
        現(xiàn)代電子技術(shù) 2024年14期
        關(guān)鍵詞:欄板護(hù)欄注意力

        摘" 要: 目前,建筑場所上仍存在因建筑護(hù)欄缺失或建筑護(hù)欄安全性降低而導(dǎo)致的建筑工人高空墜亡事件。針對該問題,提出一種基于改進(jìn)YOLOv5s的建筑護(hù)欄檢測算法。首先,針對建筑護(hù)欄普遍存在的安全隱患,收集影響護(hù)欄安全性較大的情況的圖像,例如:建筑護(hù)欄欄板的存在圖像、建筑護(hù)欄欄板的缺失圖像、護(hù)欄網(wǎng)圖像、護(hù)欄欄板銜接錯位圖像和護(hù)欄欄板銜接正確圖像等,并且制作成訓(xùn)練數(shù)據(jù)集。為提升YOLOv5s在復(fù)雜環(huán)境下多目標(biāo)檢測任務(wù)和區(qū)分任務(wù)結(jié)果的準(zhǔn)確率,將新型的Biformer注意力機(jī)制與SE注意力機(jī)制相結(jié)合,嵌入到原模型的特征提取網(wǎng)絡(luò)中,并利用CBAMC3取代原特征提取網(wǎng)絡(luò)的C3模塊。最后,使用CLAHE算法較大程度地解決部分圖像亮度偏暗,影響檢測精度的問題。實(shí)驗(yàn)結(jié)果表明,所提檢測算法的mAP50值和召回率分別達(dá)到了79.6%和83%,相比于原YOLOv5s算法分別提高了3.7%和6.8%。

        關(guān)鍵詞: 目標(biāo)檢測; 建筑護(hù)欄; 改進(jìn)YOLOv5s; Biformer注意力機(jī)制; CBAMC3; CLAHE算法

        中圖分類號: TN911.73?34; TP391.4" " " " " " " " " "文獻(xiàn)標(biāo)識碼: A" " " " " " " " 文章編號: 1004?373X(2024)14?0135?07

        Building guardrail object detection based on improved YOLOv5s algorithm

        YU Kai1, HONG Tao1, LI Xun2

        (1. College of Quality and Safety Engineering, China Jiliang University, Hangzhou 310018, China;

        2. Zhejiang Provincial Yijian Construction Group LTD., Hangzhou 310018, China)

        Abstract: There are many incidents of construction workers falling from heights on construction sites due to the reduced safety of building guardrails. On this basis, a building guardrail detection algorithm based on improved YOLOv5s is proposed. In allusion to the safety hazards that are prevalent in building guardrails, images that have an impact on guardrail safety, such as images of the presence of building guardrails, images of missing building guardrails, images of guardrail nets, images of misaligned guardrail panel connections, and images of correct guardrail panel connections are collected, and these images are created for a training dataset. In order to improve the accuracy of YOLOv5s detection results when performing multi?target detection and discrimination tasks in complex environments, a novel Biformer attention mechanism combined with SE attention mechanism is embedded into the feature extraction network of the original model, and CBAMC3 is used to replace the C3 module of the original feature extraction network. The use of CLAHE algorithm can largely solve the problem of dim brightness in some images, which affects detection accuracy. The experimental results show that the mAP50 value and recall of the proposed detection algorithm can reach 79.6% and 83%, respectively, which are 3.7% and 6.8% higher than those of the original YOLOv5s algorithm.

        Keywords: object detection; building guardrail; improved YOLOv5s; Biformer attention mechanism; CBAMC3; CLAHE algorithm

        0" 引" 言

        建筑護(hù)欄作為一種重要的非結(jié)構(gòu)建筑組成部分,其安全性和耐久性會直接影響到建筑工地工人的生命安全[1],若建筑護(hù)欄失效或缺失,將會發(fā)生不少建筑工地高處墜亡事件。一種能檢測建筑護(hù)欄安全隱患問題的方法成為了建筑工地實(shí)現(xiàn)現(xiàn)代安全管理必不可少的需求之一。經(jīng)過實(shí)地調(diào)研和分析,目前建筑護(hù)欄普遍存在的安全隱患問題如下:護(hù)欄欄板缺失以及由于護(hù)欄欄板錯誤安裝造成護(hù)欄欄板銜接錯位。然而,利用傳統(tǒng)人力檢測這類隱患問題將導(dǎo)致額外的人力和時間消耗,且該方式無法和現(xiàn)代建設(shè)安全管理相匹配。

        目前計算機(jī)視覺技術(shù)作為非人工目標(biāo)檢測方法,擁有提取特征(顏色、形狀和紋理)的能力[2],因此,建筑護(hù)欄的目標(biāo)檢測得以實(shí)現(xiàn)。隨著近年來深度學(xué)習(xí)技術(shù)的發(fā)展,利用基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)技術(shù)可有效提高特征提取能力[3]。這同時也成為了通過建筑護(hù)欄圖像發(fā)現(xiàn)建筑護(hù)欄安全隱患問題,提升隱患問題檢測效率并且解決上述問題的高適應(yīng)性方法。因此,使用基于深度學(xué)習(xí)的建筑護(hù)欄安全隱患檢測方法十分必要。

        基于神經(jīng)網(wǎng)絡(luò)的建筑安全目標(biāo)檢測研究較多,如張錦等提出一種改進(jìn)的YOLOv5方法[4],利用K?Means++算法聚類目標(biāo)框尺寸,并且將多光譜通道注意力(Multispectral Channel Attention, MCA)模塊引入特征提取網(wǎng)絡(luò)中,以此強(qiáng)化反背景干擾能力。然而該方法使得算法的參數(shù)量較大且檢測速率有所降低。黃志清等人提出了一種嵌入自校準(zhǔn)多尺度特征融合模塊的改進(jìn)YOLOv4算法,以檢測室內(nèi)工人的安全帽[5]。這種方法提高了監(jiān)控圖像中模糊和微小物體的檢測準(zhǔn)確率,然而實(shí)際復(fù)雜環(huán)境的影響會使得該算法產(chǎn)生誤檢。

        對此,本研究則通過對建筑護(hù)欄存在的安全隱患形式進(jìn)行研究,提出了一種改進(jìn)型的YOLOv5s檢測模型算法,在降低計算量的同時提高了復(fù)雜環(huán)境下目標(biāo)檢測識別能力、準(zhǔn)確性和效率。

        1" YOLOv5s算法原理

        本研究所使用的建筑護(hù)欄檢測方法的初始核心模型為YOLOv5s,其結(jié)構(gòu)總體分成四部分:第一部分是Input,即輸入端,該端將圖像預(yù)先調(diào)整方式和錨框自適應(yīng)鎖定計算方式皆具體應(yīng)用于輸入圖像中;第二部分是Backbone,即主干網(wǎng)絡(luò),該部分實(shí)現(xiàn)了圖像特征的提取,且包含卷積層、C3模塊和計算速度較快的SPPF模塊,其中C3模塊對于特征的提取和學(xué)習(xí)起到主要作用;第三部分是Neck網(wǎng)絡(luò),即PANet組合網(wǎng)絡(luò),主要作用是融合來自Backbone的不同尺度的特征,其路徑采取自頂向下和自底向上;第四部分是Prediction,即輸出端,主要作用是檢測,其具體形式是將錨定框的功能實(shí)現(xiàn)在Neck網(wǎng)絡(luò)輸出的特征圖上,最終輸出有效的預(yù)測類別[6]。

        2" YOLOv5s建筑護(hù)欄檢測模型改進(jìn)

        2.1" 特征提取能力強(qiáng)化

        單張建筑護(hù)欄圖像包含多個目標(biāo),且目標(biāo)位置不固定。此外,由于獲取圖像時的拍攝角度不同,同一目標(biāo)的外觀存在差異,不同類別的目標(biāo)導(dǎo)致其在一張圖像中所占的面積差異較大,因此圖像檢測算法在完成圖像檢測后,需要用矩形框精確定位檢測目標(biāo)??紤]到Y(jié)OLOv5s的主干網(wǎng)絡(luò)在圖形特征提取任務(wù)中起到重要的作用[7],本研究利用CBAMC3(Convolutional Block Attention Module C3)模塊取代原主干網(wǎng)絡(luò)的C3模塊,因?yàn)镃BAMC3模塊將通道注意力機(jī)制引入內(nèi)部,使得其能夠?qū)γ總€通道的特征圖進(jìn)行加權(quán),同時該模塊擁有C3模塊的全部功能特點(diǎn)。之后,將SE(Squeeze?and?Excitation)注意力機(jī)制模塊置于SPPF模塊之后,以幫助YOLOv5s算法更好地專注于重要的特征通道,并提升模型性能[8]。SE和CBAMC3注意力機(jī)制模塊的結(jié)構(gòu)分別如圖1和圖2所示。

        2.2" 引入Biformer注意力機(jī)制

        為了使改進(jìn)的YOLOv5s算法的檢測精度和準(zhǔn)確度得到進(jìn)一步強(qiáng)化,本研究設(shè)計在主干網(wǎng)絡(luò)的首個CBAMC3模塊和首個卷積模塊之間引入一種新式的注意力機(jī)制,即Biformer注意力機(jī)制[9]。該設(shè)計旨在優(yōu)化主干網(wǎng)絡(luò)靠前部分的計算復(fù)雜度,以及提升模型總體的檢測準(zhǔn)確度。

        傳統(tǒng)的注意力機(jī)制在運(yùn)行過程中不僅計算量大而且內(nèi)存占用空間大;而本研究的Biformer注意力機(jī)制模塊擁有雙層路由,其用于實(shí)現(xiàn)計算的有效分配的方式源自動態(tài)和查詢(query)感知的方式。因此Biformer注意力機(jī)制計算分配具有內(nèi)容感知且更加靈活,以此避免上述問題,同時其在圖像處理方面有更好的效果。

        Biformer注意力機(jī)制的整體框架如圖3所示。

        通過注意力機(jī)制復(fù)雜度計算可評估Biformer注意力機(jī)制的計算成本,該指標(biāo)以浮點(diǎn)運(yùn)算數(shù)(Floating Point Operations)的值進(jìn)行判斷。首先將輸入該注意力機(jī)制且尺寸和通道數(shù)參數(shù)整體為H×W×C的特征圖劃分為n×n個完全無交互的區(qū)域。該操作使得每個區(qū)域獲得數(shù)量為[H?Wn2]的特征向量,最終完整計算公式如下所示:

        [FLOPs=FLOPsLP+FLOPsRT+FLOPsTA] (1)

        式中:FLOPs為浮點(diǎn)運(yùn)算數(shù);FLOPsLP為線性投影(Linear Projection);FLOPsRT為Region?to?region Routing;FLOPsTA為Token?to?Token注意力(Token?to?Token Attention)。結(jié)合以上特征圖區(qū)域劃分后相關(guān)參數(shù),可將式(1)進(jìn)一步拓展為:

        [FLOPsTP=3?H?W?C2FLOPsRT=2?(n?n)2?CFLOPsTA=2?H?W?k?H?Wn2?C] (2)

        式中參數(shù)k為預(yù)測任務(wù)的結(jié)果中可能性最大且從高到低排序靠前的結(jié)果數(shù)量。將式(2)的各項(xiàng)相加,最后可得到:

        [FLOPs≥3?H?W?C2+3?C?k23?214?H?W43] (3)

        由式(3)可得,Biformer注意力機(jī)制的復(fù)雜度為[OH?W43],屬于較低值。

        綜上所述,將Biformer注意力機(jī)制引入YOLOv5s進(jìn)行主干網(wǎng)絡(luò)特征提取部分的操作,意為以Biformer注意力機(jī)制較好的特征提取能力強(qiáng)化特征提取網(wǎng)絡(luò)對特征信息的辨識能力,并且可為接下來的特征融合操作步驟提供更精準(zhǔn)的特征信息。

        此外,Biformer注意力機(jī)制相對較低的復(fù)雜度,使得建筑護(hù)欄目標(biāo)檢測算法擁有更高的計算效率,同時降低過擬合帶來的影響。改進(jìn)后的YOLOv5s結(jié)構(gòu)見圖4。

        2.3" 優(yōu)化圖像檢測

        本研究所需的建筑護(hù)欄皆位于室外,因此在獲取某些圖像的過程中會由于陰暗天氣或樹蔭遮蔽而使得受光照偏少,導(dǎo)致獲取的數(shù)據(jù)集圖像亮度不足,進(jìn)而影響到圖像檢測的準(zhǔn)確率。為了防止數(shù)據(jù)集圖像的亮度過暗而導(dǎo)致本研究所用的圖像檢測算法準(zhǔn)確度低,使用CLAHE算法解決上述問題[10]。CLAHE算法可有效提升偏暗圖像的亮度,以避免本研究的圖像檢測算法對低亮度圖像的檢測失誤,同時該算法引入改進(jìn)的YOLOv5s的方式,如圖5所示。輸入的待檢測圖像經(jīng)過CLAHE算法處理后再輸入到已應(yīng)用了訓(xùn)練后參數(shù)和權(quán)重數(shù)據(jù)的Prediction模塊中,最后輸出檢測后的圖像。

        CLAHE算法在處理圖像時,利用累計分布函數(shù)來減小圖像失真率,同時降低其計算復(fù)雜度。最終,經(jīng)CLAHE算法處理前后的圖像對比結(jié)果圖如圖6所示。從對比中可明顯發(fā)現(xiàn),CLAHE算法對偏暗的安全建筑護(hù)欄圖像有較好的亮度提升作用。

        3" 實(shí)驗(yàn)結(jié)果與分析

        3.1" 實(shí)驗(yàn)數(shù)據(jù)集

        本研究實(shí)驗(yàn)所采集的數(shù)據(jù)來源于施工現(xiàn)場,并利用無人機(jī)對較高樓層處的護(hù)欄圖像進(jìn)行采集。所獲得的數(shù)據(jù)包括視頻和圖像,其中對視頻進(jìn)行逐幀查看,提取有用的圖像。最后將這些數(shù)據(jù)用Labelimg進(jìn)行標(biāo)注[11],且標(biāo)注的內(nèi)容包括需檢測對象與其相對應(yīng)的標(biāo)簽。其中,檢測目標(biāo)分作五類,分別是護(hù)欄欄板完整、護(hù)欄欄板缺失、護(hù)欄網(wǎng)、欄板銜接正確、欄板銜接錯位。為應(yīng)對實(shí)際環(huán)境的復(fù)雜情況,數(shù)據(jù)集中的檢測目標(biāo)具體背景情況包括:單一目標(biāo)、多數(shù)量同種目標(biāo)、多數(shù)量不同種目標(biāo)、亮光環(huán)境下的目標(biāo)和偏暗環(huán)境下的目標(biāo)。隨之將采集得到的數(shù)據(jù)通過8∶1∶1的比例劃分成訓(xùn)練集、驗(yàn)證集和測試集。其中,訓(xùn)練集數(shù)據(jù)通過名為Mosaic的數(shù)據(jù)增強(qiáng)方式擴(kuò)充數(shù)據(jù)集[12],最終數(shù)據(jù)集數(shù)量為5 670幅。本數(shù)據(jù)集圖像在訓(xùn)練前的尺寸統(tǒng)一重新調(diào)整為合適訓(xùn)練且不增顯卡內(nèi)存壓力的值,取為256×256。

        3.2" 實(shí)驗(yàn)環(huán)境與訓(xùn)練

        本實(shí)驗(yàn)操作平臺配置如表1所示。其中,Pytorch框架包含了建筑護(hù)欄圖像檢測模型的搭建、訓(xùn)練和結(jié)果測試的全套流程,擁有較高版本的硬件顯卡并且提高了模型運(yùn)算效率。

        本實(shí)驗(yàn)的模型訓(xùn)練參數(shù)設(shè)置如表2所示。

        在表2的參數(shù)基礎(chǔ)上,本次實(shí)驗(yàn)置入預(yù)訓(xùn)練權(quán)重文件yolov5s.pt于模型訓(xùn)練階段,并且利用K?means聚類算法將訓(xùn)練集的目標(biāo)框進(jìn)行重聚類,使之適應(yīng)建筑護(hù)欄目標(biāo)檢測五個類別的目標(biāo)檢測需求。在優(yōu)化模型性能方面,本實(shí)驗(yàn)采用AdamW優(yōu)化器進(jìn)行模型優(yōu)化。在模型訓(xùn)練階段,迭代次數(shù)epoch為1時開始采用學(xué)習(xí)率熱身,并且將初始學(xué)習(xí)率倍數(shù)設(shè)置為0.1,在之后每5個迭代進(jìn)行一次學(xué)習(xí)率熱身。學(xué)習(xí)率從初始的0.001開始,在余弦退火算法的處理下逐漸增加到最大值0.1;同時,為了使模型的穩(wěn)定性能夠穩(wěn)固,學(xué)習(xí)率會在訓(xùn)練的進(jìn)行階段逐漸減小,降至最小值0.000 01。

        在建筑護(hù)欄目標(biāo)檢測算法的訓(xùn)練過程中,生成的模型結(jié)構(gòu)損失函數(shù)(Loss)對模型的性能評價起著重要作用,損失函數(shù)值越小代表模型的性能越好,優(yōu)化效果越好[13]。本實(shí)驗(yàn)得到的算法改進(jìn)方法訓(xùn)練后損失函數(shù)曲線變化圖如圖7所示。

        3.3" 評價指標(biāo)

        為了評估建筑護(hù)欄目標(biāo)檢測算法訓(xùn)練階段的性能強(qiáng)度,本實(shí)驗(yàn)采用目標(biāo)檢測算法指標(biāo)[14],即交并比閾值為50%的平均精度均值(mean Average Precision at 50%, mAP50)、精度(Precision, P)和召回率(Recall, R)。將模型預(yù)測正確的正類樣本個數(shù)、預(yù)測錯誤的正類樣本個數(shù)、預(yù)測正確的負(fù)類樣本個數(shù)和預(yù)測錯誤的負(fù)類樣本個數(shù)[15]分別設(shè)為A1、A2、B1和B2。在已知檢測類別數(shù)量為x以及平均精度為AP的基礎(chǔ)上,可利用這四類參數(shù)得到上述三類指標(biāo)的具體計算公式,如下所示:

        [P=A1A1+A2] (4)

        [R=A1A1+B2] (5)

        [AP=A1+B1A1+B1+A2mAP=y=1xAPyx] (6)

        3.4" 實(shí)驗(yàn)結(jié)果分析

        為了探索三種注意力機(jī)制模塊對初始YOLOv5s的影響,本研究通過消融實(shí)驗(yàn)對結(jié)果進(jìn)行了驗(yàn)證,結(jié)果如表3所示。由表3可知,增加Biformer、CBAMC3和SE模塊組合對整個算法的性能提升最大。

        本實(shí)驗(yàn)所使用的建筑護(hù)欄目標(biāo)檢測算法簡稱為YOLOv5s?BCS。為了驗(yàn)證改進(jìn)算法的實(shí)際效果,本研究利用YOLOv5s?BCS和初始YOLOv5s的訓(xùn)練曲線進(jìn)行比較。訓(xùn)練曲線以epoch為x軸,以第3.3節(jié)中的三類指標(biāo)為y軸。對比結(jié)果如圖8~圖10所示。由圖8~圖10可以看出,YOLOv5s?BCS的曲線收斂速度比初始YOLOv5s的曲線快,而且在最后一個epoch,YOLOv5s?BCS的所有mAP值均高于初始YOLOv5s的值。

        在相同的數(shù)據(jù)集和配置條件下,本研究使用通用率較高的深度學(xué)習(xí)目標(biāo)檢測網(wǎng)絡(luò),如三重尺度訓(xùn)練的YOLOv5s(將訓(xùn)練圖像大小分別重置為64×64、96×96和128×128,然后隨機(jī)輸入訓(xùn)練網(wǎng)絡(luò))、具有CBAMC3注意力機(jī)制的YOLOv5s、具有SE注意力機(jī)制的YOLOv5s、具有Biformer注意力機(jī)制的YOLOv5s以及同為輕量級網(wǎng)絡(luò)的YOLOv5n,對實(shí)驗(yàn)結(jié)果進(jìn)行綜合比較。數(shù)字編號 1~5分別代表有護(hù)欄板、無護(hù)欄板、護(hù)欄網(wǎng)、護(hù)欄欄板銜接正確和護(hù)欄板銜接錯位。實(shí)驗(yàn)的具體結(jié)果如表4所示。其中,YOLOv5s?BCS的mAP50值最高,最能勝任建筑護(hù)欄的目標(biāo)檢測算法。使用YOLOv5s?BCS模型結(jié)合 CLAHE算法檢測圖像的最終結(jié)果如圖11所示。

        從圖11中可以看出,YOLOv5s?BCS 的檢測算法結(jié)合CLAHE算法,最終可以在建筑護(hù)欄的五種目標(biāo)檢測中,將全部檢測目標(biāo)鎖定在矩形框內(nèi)部。綜上所述,本實(shí)驗(yàn)中YOLOv5s的改進(jìn)算法在多目標(biāo)情況下,對建筑護(hù)欄目標(biāo)檢測的五類目標(biāo)的檢測效果較好。

        4" 結(jié)" 語

        本研究提出了一種改進(jìn)型YOLOv5s建筑護(hù)欄檢測算法。首先,收集相關(guān)圖像數(shù)據(jù),建立數(shù)據(jù)集;然后,利用CBAMC3模塊替代Backbone的C3模塊,并在初始 YOLOv5s的特征提取網(wǎng)絡(luò)中加入了Biformer和SE注意力機(jī)制,以提高檢測模型的檢測能力和區(qū)分能力;最后,利用CLAHE算法解決了部分圖像亮度較暗,對檢測精度影響較大的問題。經(jīng)過對比實(shí)驗(yàn),顯示本研究改進(jìn)的算法在綜合方面呈現(xiàn)出更好的檢測效果。由于實(shí)際存在目標(biāo)檢測任務(wù)中目標(biāo)數(shù)量多、目標(biāo)區(qū)分任務(wù)中目標(biāo)外形相似度高的情況,使得置信度還有上升空間。未來的研究方向則是進(jìn)一步提升網(wǎng)絡(luò)模型在包含其他建材的復(fù)雜環(huán)境下的多目標(biāo)檢測精度。

        注:本文通訊作者為洪濤。

        參考文獻(xiàn)

        [1] 樊莉昌,蘇中華,劉中明,等.建筑用玻璃與金屬護(hù)欄實(shí)驗(yàn)室檢測設(shè)備研究[J].中國測試,2020,46(z1):100?104.

        [2] 郭陽陽,洪文浩,丁屹,等.基于坐標(biāo)注意力機(jī)制和YOLOv5s模型的山羊臉部檢測方法[J].農(nóng)業(yè)機(jī)械學(xué)報,2023,54(7):313?321.

        [3] 李廣博,查文文,陳成鵬,等.基于改進(jìn)YOLOv5s的豬臉識別檢測方法[J].西南農(nóng)業(yè)學(xué)報,2023,36(6):1346?1356.

        [4] 張錦,屈佩琪,孫程,等.基于改進(jìn)YOLOv5的安全帽佩戴檢測算法[J].計算機(jī)應(yīng)用,2022,42(4):1292?1300.

        [5] 黃志清,張煜森,張嚴(yán)心,等.基于改進(jìn)型Yolov4的室內(nèi)安全帽佩戴狀態(tài)檢測算法[J].天津大學(xué)學(xué)報(自然科學(xué)與工程技術(shù)版),2023,56(1):64?72.

        [6] LIN H, JIANG F, JIANG Y, et al. A model for helmet?wearing detection of non?motor drivers based on YOLOv5s [J]. Computers, materials amp; continua, 2023, 75(3): 5321?5336.

        [7] WANG S, ZHU J, LI Z, et al. Coal gangue target detection based on improved YOLOv5s [J]. Applied sciences, 2023, 13(20): 11220.

        [8] 周彥,孟江南,王冬麗,等.基于多尺度輕量化注意力的鋼材缺陷檢測[J].控制與決策,2024,39(3):901?909.

        [9] ZHU L, WANG X, KE Z, et al. BiFormer: vision transformer with Bi?level routing attention [EB/OL]. [2023?09?18]. http://arxiv.org/abs/2303.08810.

        [10] 金豪.基于深度學(xué)習(xí)的公路護(hù)欄目標(biāo)檢測方法研究[D].重慶:重慶交通大學(xué),2022.

        [11] 劉閃亮,吳仁彪,屈景怡,等.基于A?YOLOv5s的機(jī)場小目標(biāo)檢測方法[J].安全與環(huán)境學(xué)報,2023,23(8):2742?2749.

        [12] FANG C, XIANG H, LENG C, et al. Research on real?time detection of safety harness wearing of workshop personnel based on YOLOv5 and OpenPose [J]. Sustainability, 2022, 14(10): 5872.

        [13] TANG X, RU X, SU J, et al. A transmission and transformation fault detection algorithm based on improved YOLOv5 [J]. Computers, materials amp; continua, 2023, 76(3): 2997?3011.

        [14] QIAN Y, WANG B. A new method for safety helmet detection based on convolutional neural network [J]. PLOS ONE, 2023, 18(10): e0292970.

        [15] WANG L, ZHANG X, YANG H. Safety helmet wearing detection model based on improved YOLO?M [J]. IEEE access, 2023, 11: 26247?26257.

        猜你喜歡
        欄板護(hù)欄注意力
        基于日照輻射的施工期間混凝土外欄板溫度作用效應(yīng)分析與施工質(zhì)量控制
        讓注意力“飛”回來
        高速公路護(hù)欄碰撞監(jiān)控系統(tǒng)探討
        新區(qū)300m2燒結(jié)廠臺車欄板改造
        昆鋼科技(2020年6期)2020-03-29 06:39:32
        基于Arduino單片機(jī)的智能多功能護(hù)欄設(shè)計
        電子制作(2019年20期)2019-12-04 03:51:16
        不要跨越護(hù)欄
        普通碰撞事故為何造成重大傷亡事故調(diào)查揭開真相
        汽車與安全(2018年5期)2018-06-26 08:36:58
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        高速護(hù)欄引發(fā)離奇官司
        久久97精品久久久久久久不卡| 热久久亚洲| 尤物AV无码色AV无码麻豆| 自拍情爱视频在线观看| 欧美群妇大交群| 又粗又硬又黄又爽的免费视频| 538任你爽精品视频国产| 97超碰国产一区二区三区| 日本在线观看一区二区三| 蜜桃无码一区二区三区| 中文字幕第八页| 熟女人妻一区二区中文字幕| 天堂一区二区三区在线观看视频| 国产精品无码专区av在线播放| 亚洲国产精品嫩草影院久久| 免费国产自拍视频在线观看| 国产精选自拍视频网站| 久久久无码中文字幕久...| 自拍亚洲一区欧美另类| 国产精品一区二区三区色| 在线观看国产视频你懂得| 欧美寡妇xxxx黑人猛交| 国产精品.xx视频.xxtv| 久久久久亚洲精品美女| 日韩中文字幕乱码在线| 免费a级毛片18禁网站| 久久视频在线| av中文字幕综合在线| 日本岛国视频在线观看一区二区 | 亚洲一区二区三在线播放| 国产熟女一区二区三区不卡| 成人免费777777被爆出| 成年在线观看免费视频| 免费国人成人自拍视频| 国内自拍速发福利免费在线观看| 桃花影院理论片在线| 亚洲精品国产国语| 日本一区二区三级免费| 国产精品国三级国产av| 日韩亚洲欧美中文高清在线| 免费av在线视频播放|