亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        火焰和煙霧檢測中YOLOv8的應用和改進

        2025-02-21 00:00:00韓偉娟平翼楊奧林遠京輝崔二強董新捷
        現(xiàn)代信息科技 2025年2期

        摘 要:火災事件嚴重威脅著人民生命財產(chǎn)安全,因此火災檢測是極其必要的?;赮OLOv8算法進行煙霧和火焰檢測,并對模型結構進行改進以提高準確度。改進包括3個方面,一是引入DBB模塊,二是使用動態(tài)卷積,三是優(yōu)化損失函數(shù)。實驗表明,三種改進算法均在一定程度上提高了檢測準確度,而同時使用三種改進的YOLOv8n模型,相比原來的YOLOv8n,mAP50提升了3.03%,mAP50-95提升了3.37%,相比于Faster R-CNN等其他模型,mAP50、mAP50-95等各項性能指標也獲得了大幅提升,火災檢測準確度也有所提高。

        關鍵詞:YOLOv8;網(wǎng)絡結構;卷積;損失函數(shù);mAP;準確度

        中圖分類號:TP391.4 文獻標識碼:A 文章編號:2096-4706(2025)02-0001-06

        Application and Improvement of YOLOv8 in Flame and Smoke Detection

        HAN Weijuan1, PING Yi2, YANG Aolin3, YUAN Jinghui2, CUI Erqiang2, DONG Xinjie2

        (1.School of Electro-mechanical Engineering, Zhongyuan Institute of Science and Technology, Zhengzhou 450000, China; 2.Department of Information and Communication, Department of Public Security of Henan Province, Zhengzhou 450003, China; 3.School of Public Administration, Henan University of Economics and Law, Zhengzhou 450046, China)

        Abstract: The fire incidents seriously threaten the safety of people's lives and property, so the fire detection is extremely essential. Based on the YOLOv8 algorithm, this paper carries out the smoke and flame detection, and improves the model structure to raise accuracy. The improvements include 3 aspects of introducing the DBB module, using the Dynamic Convolution, and optimizing the loss function. The experiments demonstrate that the three kinds of improved algorithms all have a specific rise in detection accuracy, and the YOLOv8n model which uses three improvements at the same time has increased mAP50 by 3.03% and mAP50-95 by 3.37% compared to the original YOLOv8n. Compared to Faster R-CNN and other models, various performance indicators such as mAP50 and mAP50-95 have notable enhancements, and the precision of fire detection is also improved.

        Keywords: YOLOv8; network structure; convolution; loss function; mAP; accuracy

        DOI:10.19850/j.cnki.2096-4706.2025.02.001

        0 引 言

        火災是嚴重影響人民生命安全的危險因素,因此對有關區(qū)域進行火焰和煙霧檢測是十分必要的,近年隨著視頻攝像頭的廣泛使用,基于視頻和圖像的火災檢測技術得到不斷發(fā)展。目標檢測主要分為兩階段算法如Faster R-CNN[1]系列和一階段算法如SSD[2]、YOLO[3]系列。兩階段算法需要先用特征提取器生成一系列可能包含待檢物體的預選框,之后對預選框進行篩選,最后在預選框上面進行的物體類別分類,檢測和分類速度較慢。一階段算法會直接在網(wǎng)絡中提取特征來預測物體分類以及位置,提高了檢測速度,是目前的主流方向。YOLO[4]自2016年提出以來,研究者們已經(jīng)對YOLO進行了多次更新迭代,截至目前已存在YOLOv1到YOLOv10共10個版本。本文將基于YOLOv8對火焰和煙霧進行檢測,并探索進一步提高檢測準確率。

        1 相關工作

        火焰和煙霧檢測也是目標檢測的研究熱點之一,謝康康[5]等人基于YOLOv7提出了改進的火焰和煙霧目標檢測算法,在骨干網(wǎng)中引入GhostNetV2長距離注意力機制,降低參數(shù)量的同時,增加模型檢測的準確度,在包括公開數(shù)據(jù)集的自建數(shù)據(jù)集上測試,相比原YOLOv7,參數(shù)量下降了約3.4 MB,mAP50上升了2.4%,達到70.3%。王一旭[6]等人提出一種基于YOLOv5s的小目標煙霧火焰檢測算法,添加注意力機制SimAM,修改網(wǎng)絡中的Neck結構,結合了加權雙向特征金字塔網(wǎng)絡結構,增強了特征融合過程,提高小目標的檢測能力,在自建數(shù)據(jù)集上mAP50達到了78.9%。宋華偉[7]等人基于YOLOv5s提出一種改進的火焰煙霧檢測算法,將YOLOv5s頸部原有模塊替換為雙向交叉多尺度融合模塊,在頭部添加協(xié)調注意力的推理層,使用K-means聚類算法獲取數(shù)據(jù)集先驗錨框,在自建數(shù)據(jù)集上與原YOLOv5s相比,mAP50提升了3.2%,達到了84.1%。以上算法通過網(wǎng)絡結構改進等方法,提升了模型識別準確度,但準確度值仍有改進空間,本文將基于YOLOv8進行火焰和煙霧檢測并改進算法,進一步提高檢測準確度。

        2 YOLOv8結構

        YOLOv8n網(wǎng)絡結構[8-9]如圖1所示,共包括Conv、C2f、SPPF等共21個模塊225層,參數(shù)量3.01 MB,計算量8.2GFLOPs,總體上可分為特征提取骨干網(wǎng)絡(backbone)和頭部檢測(head)部分,骨干網(wǎng)中的Conv、C2f、SPPF均為特征提取模塊。Conv為普通卷積,使用Silu激活函數(shù),YOLOv8將YOLOv5中的C3模塊被替換成了C2f模塊,使用了更多的特征融合和殘差連接,SPPF采用空間池化結構,在不同尺度上進行特征提取,并將這些特征通過Concat操作進行融合。整體結構采用PAN-FPN特征金字塔結構,F(xiàn)PN是自頂向下卷積,將高層的語義特征傳遞下來,PAN是一個自底向上的卷積金字塔,通過路徑聚合,將淺層特征和深層特征進行聚合。總體結構先進行下采樣,然后進行上采樣,上采樣和下采樣之間跨層融合連接,得到3個檢測頭分支。

        檢測頭分支使用了主流的解耦結構,將分類和檢測分離,錨框不需要預設,從原有的Anchor-Based轉換為Anchor-Free,正負樣本分配上YOLOv8使用動態(tài)分配策略TaskAlignedAssigner,根據(jù)分類與回歸的分數(shù)加權選擇正樣本,分類損失使用VFL,定位損失使用了DFL和CIoU。使用YOLOv8對火災進行目標檢測取得了良好效果,本文將在3個方面探索進一步改進YOLOv8模型。

        3 改進點

        3.1 融合DBB模塊

        DBB[10]是Diverse Branch Block的簡稱,是一種類似Inception[11]的結構,如圖2所示,使用并行的卷積核卷積后進行拼接,不同大小的卷積核增強了網(wǎng)絡對不同尺寸特征圖的適應性,本文將采用DBB以提高火焰和煙霧檢測正確率。DBB對于輸入的特征圖,用4個分支分別處理,第1個分支為1×1卷積和BN層,第2個分支依次為1×1卷積、BN層、3×3卷積、BN層,第3個分支依次為1×1卷積、BN層、AVG平均池化層、BN層,第4個分支為3×3卷積、BN層,所有分支結果經(jīng)過累加后作為模型輸出。本文對模型進行改進,包括在累加操作后增加一個平均池化層,取消了Pad層。DBB在YOLOv8模型結構中位置如圖3所示。

        3.2 可變卷積DCN

        可變卷積網(wǎng)絡[12](Deformable Convolution Network, DCN)是指卷積核的形狀是可變的,而不僅僅是個規(guī)則的矩形,對于不同形狀的特征圖,通過可變卷積模塊,增強了對目標的學習能力,火焰及煙霧的不規(guī)則形狀很適合采用可變卷積。在實際計算中,DCN的卷積核形狀一般不改變,而是通過計算特征圖上的目標偏移量來實現(xiàn)。對于普通卷積,其計算如式(1)所示,Φ表示卷積核偏移量,w(Pn)表示卷積核,x(P0+Pn)表示特征圖對應像素點。對于可變卷積,其計算方法如式(2)所示,對比普通卷積,增加了?Pn,表示目標在特征圖上的偏移量,如果這個偏移是個小數(shù),采用雙線性差值辦法計算這個像素點數(shù)值。本文將YOLOv8中的C2f模塊替換為使用動態(tài)卷積的C2f_DCN,在YOLOv8中的位置如圖4所示。

        (1)

        (2)

        3.3 損失函數(shù)優(yōu)化

        YOLOv8損失函數(shù)包括兩種,一類是類別損失VFL,采用交叉熵算法,另外一類是定位損失,包括邊框回歸損失DFL和重疊損失CIoU,通過DFL快速得到目標大致位置,然后CIoU進行精確定位。DFL是以概率的方式對每個像素點的預測框進行回歸,經(jīng)過正負樣本篩選后,將每個像素點的邊框回歸視為一個n分類,YOLOv8默認為16,回歸得到每個目標的位置信息,在計算損失時同樣采用交叉熵算法。

        CIoU是計算交并比的一種,即計算目標預測位置和真實位置的重合程度的損失函數(shù)。目前存在CIoU、EIoU、SIoU、WIoU等多種損失函數(shù)。

        CIoU[13]如式(3)所示,也是YOLOv8的默認算法。其中IoU表示交并比,ρ表示預測框和真實框兩個中心點之間的歐式距離,c表示包含預測框和真實框最小外接矩形的對角線距離,wgb/hgb表示真實框的寬高比,wpb/hpb表示預測框的寬高比。CIoU考慮了重疊面積、中心點距離、預測框和真實框寬高比。

        (3)

        EIoU[14]如式(4)所示。EIoU損失函數(shù)包含四個部分:重疊損失、中心距離損失、寬度差異損失、高度差異損失,前兩部分延續(xù)CIoU中的方法,寬度差異損失是目標框與預測框的寬度之差平方與最小外接矩形的寬度平方比值,高度差異損失是目標框與預測框的高度之差平方與最小外接矩形的高度平方比值。Cw表示最小外接矩形的寬度,Ch表示最小外接矩形的高度。

        (4)

        SIoU[15]如式(5)所示,損失包括三部分,一是IoU,二是考慮預測框和真實框長寬比的形狀損失Ω,三是距離損失Δ,距離損失不僅與兩個中心點之間的距離有關,還與兩個中心點連線角度相關。sin(α)表示兩個中心點連線夾角的較小角度的正弦值,本實驗中σ取1,ε取4。

        (5)

        MPDIoU[16]主要計算預測框和真實框左上點之間和右下點之間的距離作為損失。如式(6)所示,(x1pb,y1pb)和(x2pb,y2pb)分別表示預測框左上點和右下點坐標,(x1gb,y1gb)和(x2gb,y2gb)分別表示真實框左上點和右下點坐標。w和h分別表示輸入圖像的寬度和高度。

        (6)

        WIoU[17]如式(7)所示。核心思想是降低質量差的錨框系數(shù)以減少有害梯度,提高質量高的錨框系數(shù)以加快收斂。通過一個和IoU相關的系數(shù)調整因子γ,低質量錨框的損失系數(shù)被相對放大,高質量錨框的損失系數(shù)被相對縮小,快速放棄低質量備選錨框,選擇高質量備選錨框,從而快速收斂并提高模型的定位性能。本文實驗中α取1.9,δ取3,η取0.002 6。

        (7)

        4 實驗環(huán)境

        目前公認的大批量火焰煙霧數(shù)據(jù)集較少,本文搜集互聯(lián)網(wǎng)數(shù)據(jù),共標注訓練及測試集6 000張(8比2劃分訓練集和測試集),隨機選擇9張圖片如圖5所示,并進行了預處理。本文YOLOv8選擇SGD優(yōu)化器,初始學習率設為0.01,動量設為 0.937,batch為16。GPU為GeForce RTX 4060Ti,操作系統(tǒng)為Windows 11,PyTorch版本為 1.10.1,Cuda版本11.3,Python版本3.7,所有實驗均訓練200個批次。

        5 實驗結果

        實驗指標包括模型參數(shù)量parameters,數(shù)值越大代表模型越大,浮點運算數(shù)GFLOPs,數(shù)值越大代表計算復雜度越高,平均準確度mAP50,表示IoU值為0.5時的平均準確度,mAP50-95表示IoU值為0.5到0.95間隔為0.05的平均準確度,本實驗為火焰和煙霧兩類。

        5.1 優(yōu)化損失函數(shù)結果

        優(yōu)化損失函數(shù)實驗如表1所示,結果顯示YOLOv8n使用WIoU時獲得最佳效果,對比使用默認算法CIoU的YOLOv8n,mAP50提升1.72%,mAP50-95提升了0.44%。

        5.2 消融實驗

        YOLOv8n整合DBB模塊、采用DCN可變卷積、使用WIoU損失函數(shù)三種改進,以及相關消融實驗結果,如表2所示,其中DDW指使用全部三種改進的模型。從實驗中看出,DDW取得最好效果,比起YOLOv8n,mAP50提升3.03%,mAP50-95提升了3.37%。

        5.3 和其他模型對比結果

        與其他模型Faster R-CNN、SSD、YOLOv7等對比結果如表3所示。相比Faster R-CNN和SSD,YOLOv8n-DDW在參數(shù)量和計算量大幅降低的情況下,mAP50和mAP50-95指標獲得了大幅提升;相比YOLOv7-tiny,YOLOv8n-DDW參數(shù)量下降39.87%和計算量微升3.03%的情況下,mAP50提高4.11%,mAP50-95提高11.43%;使用三種改進的YOLOv8系列其他模型,如YOLOv8s-DDW對于YOLOv8s,mAP50微升0.97%,mAP50-95提高了2.01%。

        各算法實驗視覺效果圖如圖6所示,從圖中可以看出Faster R-CNN識別和定位也很好,但存在多余的可以合并的識別框,SSD識別點存在著一定的遺漏,從圖中的實際效果看,YOLOv8n-DDW相對YOLOv8n,不僅正確識別率高,定位也更加準確。

        6 結 論

        本文基于YOLOv8進行火焰和煙霧檢測,并對模型結構進行改進以提高準確度,改進包括YOLOv8n骨干網(wǎng)引入DBB模塊、使用DCN可變卷積、使用WIoU損失函數(shù)三個方面。通過消融實驗,YOLOv8n-DDW對比YOLOv8n,mAP50提升3.03%,mAP50-95提升了3.37%,相比Faster R-CNN、SSD、YOLOv7等其他模型,各項性能指標也獲得了大幅提升,提升了火災檢測準確度。

        參考文獻:

        [1] REN S Q,HE K M,GIRSHICK R,et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(16):1137-1149.

        [2] LIU W,ANGUELOV D,ERHAN D,et al. SSD: Single Shot Multibox Detector [C]//Computer Vision-ECCV 2016.Amsterdam:Springer International Publishing,2016:21-37.

        [3] JIANG P Y,ERGU D,LIU F Y,et al. A Review of YOLO Algorithm Developments [J].Procedia Computer Science,2022,199:1066-1073.

        [4] REDMON J,DIVVALA S,GIRSHICK R,et al. You Only Look Once: Unified, Real-time Object Detection [C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2016:779-788.

        [5] 謝康康,朱文忠,謝林森,等.基于改進YOLOv7的火焰煙霧檢測算法 [J].國外電子測量技術,2023,42(7):41-49.

        [6] 王一旭,肖小玲,王鵬飛,等.改進YOLOv5s的小目標煙霧火焰檢測算法 [J].計算機工程與應用,2023,59(1):72-81.

        [7] 宋華偉,屈曉娟,楊欣,等.基于改進YOLOv5的火焰煙霧檢測 [J].計算機工程,2023,49(6):250-256.

        [8] ZHOU Y J,ZHU W G,HE Y H,et al. Yolov8-based Spatial Target Part Recognition [C]//2023 IEEE 3rd International Conference on Information Technology,Big Data and Artificial Intelligence(ICIBA).Chongqing:IEEE,2023:1684-1687.

        [9] 袁紅春,陶磊.基于改進的Yolov8商業(yè)漁船電子監(jiān)控數(shù)據(jù)中魚類的檢測與識別 [J].大連海洋大學學報,2023,38(3):533-542.

        [10] DING X H,ZHANG X Y,HAN J G,et al. Diverse Branch Block: Building a Convolution as an Inception-like Unit [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville:IEEE,2021:10886-10895.

        [11] SZEGEDY C,VANHOUCKE V,IOFFE S,et al. Rethinking the Inception Architecture for Computer Vision [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas:IEEE,2016:2818-2826.

        [12] DAI J F,QI H Z,XIONG Y W,et al. Deformable Convolutional Networks [C]//Proceedings of the IEEE International Conference on Computer Vision.Venice:IEEE,2017:764-773.

        [13] ZHENG Z H,WANG P,LIU W,et al. Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression [C]//Proceedings of the AAAI Conference on Artificial Intelligence.AAAI:New York, 2020,34(7):12993-13000.

        [14] ZHANG Y F,REN W Q,ZHANG Z,et al. Focal and Efficient IOU Loss for Accurate Bounding Box Regression [J].Neurocomputing,2022,506:146-157.

        [15] GEVORGYAN Z. SIoU Loss: More Powerful Learning for Bounding Box Regression [J/OL].arXiv:2205.12740 [cs.CV].(2022-05-25).https://arxiv.org/abs/2205.12740.

        [16] MA S L,XU Y. MPDIoU: A Loss for Efficient and Accurate Bounding Box Regression [J/OL].arXiv:2307.07662 [cs.CV].(2023-07-14).https://arxiv.org/abs/2307.07662.

        [17] TONG Z J,CHEN Y H,XU Z W,et al. Wise-IoU: Bounding Box Regression Loss with Dynamic Focusing Mechanism [J/OL].arXiv:2301.10051 [cs.CV].(2023-04-08).https://arxiv.org/abs/2301.10051.

        作者簡介:韓偉娟(1986—),女,漢族,河南禹州人,中級工程師,碩士,研究方向:深度學習、圖像處理、無線傳感網(wǎng)絡。

        收稿日期:2024-07-16

        18黑白丝水手服自慰喷水网站| 日韩精品一级在线视频| 国产三级不卡在线观看视频| 久久亚洲AV无码一区二区综合| 色婷婷av一区二区三区不卡| 国产精品久久久免费精品| 午夜毛片不卡免费观看视频 | 又湿又紧又大又爽a视频国产| 亚洲欧洲无码一区二区三区| 在线观看av国产自拍| 国产在线视频一区二区三区不卡| 综合亚洲伊人午夜网| 男人扒开女人下面狂躁小视频 | 中国xxx农村性视频| 久久精品熟女不卡av高清| 日本一区二区三区在线视频播放| 国产精品国产三级国产av剧情| 日日碰狠狠躁久久躁9| 国产成人永久在线播放| 亚洲精品中文字幕乱码| 亚洲女同一区二区| 一个人看的www免费视频中文 | av天堂中文亚洲官网| 风情韵味人妻hd| 亚洲一区二区三区国产精华液| 开心五月婷婷综合网站| 国产成人精品日本亚洲i8| 久久久久久久波多野结衣高潮| 最近日韩激情中文字幕| 亚洲一本之道高清在线观看| 国产自拍视频免费在线| 久久久久久人妻毛片a片| 手机色在线| 亚洲精品中字在线观看| 亚洲熟妇少妇任你躁在线观看无码 | 日本精品少妇一区二区| 手机看黄av免费网址| 亚洲人成无码网www| 99久久免费精品色老| 久久国语露脸国产精品电影| 久久久久99精品成人片试看 |