亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進YOLOv5的火災檢測研究

        2023-06-22 12:32:03馬世森劉國巍
        無線互聯(lián)科技 2023年4期

        馬世森 劉國巍

        摘要:針對傳統(tǒng)火災系統(tǒng)預警不及時、容易誤報等問題,文章提出了一種基于改進YOLOv5的火災檢測算法。為了增強網(wǎng)絡(luò)對火焰的方向和位置信息的敏感度,在模型中引入CA( Coordinate Attention)注意力機制:為了提高回歸精度和收斂速度,使用損失函數(shù)SIOU替換CIOU。改進的YOLOv5算法的精確率和平均精度達到了74. 2%和69.4%.相較于標準算法的精確率和平均精度提高了8.8%和2.8%.優(yōu)化定位框和誤檢情況。實驗結(jié)果表明,改進的YOLOv5算法模型提高了火災檢測的準確性和實時性。

        關(guān)鍵詞:預警:火災檢測:YOLOv5:注意力機制:損失函數(shù)SIOU

        中圖分類號: TP391.4 文獻標志碼:A

        0 引言

        火如水一樣,能為生活提供便利,也能讓人們蒙受巨大的損失甚至付出生命。傳統(tǒng)的火災預警檢測系統(tǒng)是利用溫濕度和煙霧感應(yīng)器檢測周圍環(huán)境中的溫度、濕度、煙霧氣體密度等變化,從而做出判斷[1],存在著預警不及時、準確度低、容易誤報的問題。

        近年來,深度學習在檢測、識別等領(lǐng)域迎來了空前繁榮[2]。深度學習的火災檢測技術(shù)檢測速度快、精度高、不受環(huán)境影響限制、成本低。針對傳統(tǒng)的火災檢測模型所存在的不足,本文基于靈活度高的YOLOv5算法模型進行改進。為了增強網(wǎng)絡(luò)對火焰特征的方向和位置等參數(shù)信息的敏感度,在模型中引入了CA( Coordinace Attention)注意力機制:為了提升回歸定位精度和收斂速度使用損失函數(shù)SIOU替換CIOU。做好消融實驗繪制數(shù)據(jù)表,并通過對比其它算法證明改進算法對火災預警具有的意義。

        1

        YOLOv5目標檢測算法原理

        YOLO系列發(fā)展到Y(jié)OLOv5以來一直在更新[3].本文改進的是YOLOv5 6.0版本。主要由圖像輸入端、主干網(wǎng)絡(luò)( Backbone)、頸部(Neck)和輸出端4部分組成。根據(jù)寬、深度的不同,主要提供s,m,l,x4個模型。本文選用速度快精度較好的YOLOv5s為基準模型,其輸入端使用聚類算法采用白適應(yīng)錨框功能得到最佳錨框值,對數(shù)據(jù)集進行預處理得到豐富數(shù)據(jù)集:主干網(wǎng)絡(luò)將之前版本Focus替換成卷積層Conv.使用C3 - Darknec模塊解決出現(xiàn)的梯度信息重復問題,使模型輕量化,并且在骨干網(wǎng)絡(luò)末端加入SPPF模塊:頸部網(wǎng)絡(luò)采用特征金字塔和白上而下的路徑聚集網(wǎng)絡(luò)結(jié)構(gòu)相結(jié)合的方式:輸出端對頸部輸出的特征圖通過損失函數(shù)CIOU和經(jīng)典非極大值抑制來實現(xiàn)對不同大小目標的預測。

        2 YOLOv5s算法改進

        2.1 CA注意力機制

        為了使算法模型增強網(wǎng)絡(luò)對特征的方向和位置等信息的敏感度,在主干網(wǎng)絡(luò)結(jié)構(gòu)中引用了一種將位置信息嵌入到通道的CA注意力機制[4]。通過精確的位置信息編碼,對特征圖的寬度和高度兩個位置全局平均池化,給定輸入值后使用尺寸為(H,1)或(1,W)的pooling kernel分別沿著水平和垂直坐標對每個通道進行編碼。表示寬度為w的第c通道的輸出函數(shù)和高度為h的第c通道的輸出函數(shù)如式(1)和式(2)所示。

        將上述池化后的特征圖進行w維度上的拼接操作,經(jīng)過一個卷積和非線性激活函數(shù)的操作在通道維度拆分,通過卷積和Sigmoid激活函數(shù)獲得對應(yīng)權(quán)重最終帶有注意力權(quán)重機制的特征圖。為了加強特征提取對位置信息的效果,將CA加在網(wǎng)絡(luò)模塊SPPF的前面。

        2.2 SIOU損失函數(shù)

        已知YOLOv5的損失函數(shù)是由Bhox回歸損失、目標置信度損失和類別損失3部分組成,在YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)使用CIOU loss作為Bhox回歸損失。CIOU函數(shù)將目標和邊框的距離、尺度等考慮在內(nèi),使目標框在回歸時候變得準確和穩(wěn)定,函數(shù)表達如式(3)所示。預測框的交并比,A和B表示真實和預測框;p表示預測和真實框的中心點的歐式距離:c表示包含預測和真實框最小區(qū)域的對角線長度:d表示權(quán)重函數(shù):v表示用來度量真實和預測框的長寬比的相似性。為了提高YOLOv5模型的回歸精度和收斂速度,引入了一種新的SIOU損失函數(shù)替換原來的CIOU,由Angle,DistanCe.Shape和IOU4個Cost函數(shù)組成,具體如下列公式所示。

        上述公式對距離重新定義表達y=2 -A,y表示被賦予時間的距離值,p表示預測和真實框中心歐式距離;θ值定義每個數(shù)據(jù)集Shape其值的唯一性;結(jié)合IOU和上述公式得出最終損失函數(shù)表達式。保證數(shù)據(jù)集和參數(shù)以及訓練次數(shù)的設(shè)置相同,最后在理論基礎(chǔ)下的實驗結(jié)果表明.SIOU較CIOU能更好地提高回歸定位精度和速度。

        3 實驗結(jié)果和分析

        3.1 實驗環(huán)境

        實驗操作平臺操作電腦系統(tǒng)為Windowsll. 64位,顯卡為NVIDIA GeForce RTX 3050.處理器是Inrel@

        Core'rMi5 - 12500 H 2.50 GHz.運行內(nèi)存為16 G。整個實驗的學習框架是PyTorch l.12.實驗環(huán)境是PVthon 3.8,使用PvCharm編譯工具仿真實驗,使用GPU加速軟件為CUDA 11.3。實驗訓練中設(shè)置EpoChs為300, Batch-size為8,Image -size為640x640n

        3.2 準備數(shù)據(jù)集

        實驗使用的數(shù)據(jù)集是通過飛槳AI Studio網(wǎng)站和視覺中國網(wǎng)站等獲取圖片,包括森林和草原火災、戶外建筑火災、實驗室火災等,整理后得到總共2 059張圖像作為數(shù)據(jù)集,采用標注工具Labelimg進行數(shù)據(jù)集標注,標注類別為fire.保存為YOLO系列的txt格式。再將其按8:2比例隨機分配為訓練集和驗證集,得到1 647張訓練圖和412張驗證圖。

        3.3 評價指標

        本實驗中YOLOv5主要采用準確率P、召回率R、平均精度AP、平均精度均值mAP和檢測速度FPS等作為模型性能的評價指標。具體計算公式如下所示。

        其中.P表示所有預測目標中正確的比例,TP和FP指的是正負樣本預測的正負樣本個數(shù):R表示所有已標注目標中正確的比例,F(xiàn)N指的是正樣本預測出負樣本的個數(shù):AP表示以R為橫軸,P為縱軸形成曲線的面積;mAP用來表示衡量精度的識別。

        3.4 消融實驗

        針對改進的YOLOv5算法做了對應(yīng)的消融實驗對比驗證,改進點l為在主干網(wǎng)絡(luò)中加入CA注意力機制而增加獲取位置信息的敏感度,改進點2為修改損失函數(shù)用SIOU函數(shù)替換原模型中CIOU去加強輸出端的回歸精度和收斂速度,具體實驗數(shù)據(jù)如表1所示。

        從表l中序號2和3的實驗得知,在YOLOv5模型中分別加入2種不同改進措施都可以有效地提高算法的精度;序號4得知,最終改進YOLOv5算法相比于標準算法,主要在精確率和mAP@0.5上分別提高了8. 8%和2.8%.有效地提高了火災檢測的精度。

        3.5 算法對比實驗

        為了和其他算法做比較,要保證所有的實驗都在相同的實驗環(huán)境和數(shù)據(jù)集上進行,選擇了YOLOv3和算法SSD對比[5-6].并對主要評價數(shù)據(jù)進行比較,如表2所示。

        從表2可以得知,對比SSD和YOLOv3算法,改進YOLOv5在平均精度上最高;在精確率上雖然低于SSD算法,相較于YOLOv3.YOLOv5還是有明顯提高的。實驗結(jié)果表明,改進的YOLOv5算法模型提高了火災檢測的準確性。

        4 結(jié)語

        本文提出了一種基于改進YOLOv5的火災檢測算法,在算法模型主干網(wǎng)絡(luò)加入CA坐標注意力機制去提高網(wǎng)絡(luò)獲取位置信息的敏感度;修改輸出端的損失函數(shù)用SIOU替換CIOU來提高回歸精度和收斂速度,從而提高檢測性能。實驗表明,改進后的算法可以很好地針對火災情況提高圖像檢測的性能。后期的研究中,保證模型精度的同時,對網(wǎng)絡(luò)進行輕量化處理,并結(jié)合到移動端設(shè)備或低端設(shè)備中,提高火災檢測的實時性。

        參考文獻

        [1]王繼武,王勝.林木智能化火災預警系統(tǒng)設(shè)計——基于物聯(lián)網(wǎng)和圖像處理[J].農(nóng)機化研究,2022( 7):224-227.

        [2]祝玉華,司藝藝,李智慧.基于深度學習的煙霧與火災檢測算法綜述[J].計算機工程與應(yīng)用,2022(23):1-11.

        [3]蘇凱第,趙巧娥.基于YOLOv5算法的無人機電力巡檢快速圖像識別[J].電力科學與工程,2022(4):43-48.

        [4]肖粲俊,潘睿志,李超,等.基于改進YOLOv5s絕緣子缺陷檢測技術(shù)研究[J].電子測量技術(shù),2022(24):137-144.

        [5]楊萍,房可佳,謝元莎.基于改進YOLOv3的火災識別關(guān)鍵技術(shù)研究[J].物聯(lián)網(wǎng)技術(shù).2022(3):21-23.

        [6]田靚靚.基于SSD網(wǎng)絡(luò)的蘋果葉片病害檢測方法研究[D].咸陽:西北農(nóng)林科技大學.2022.

        (編輯沈強)

        国产一区二区三区色哟哟| 亚洲另类欧美综合久久图片区 | av在线天堂国产一区| 美女mm131爽爽爽| 越南女子杂交内射bbwbbw| 亚洲天天综合色制服丝袜在线| 最新国产精品国产三级国产av| 91久久精品国产综合另类专区| 亚洲日韩国产一区二区三区在线| 欧美性福利| 日韩人妻av不卡一区二区三区| 一区二区三区在线少妇| 337p日本欧洲亚洲大胆精品| 亚洲欧美精品91| 国产一区二区三区av香蕉| 国产一区二区精品亚洲| 无人视频在线观看免费播放影院| 日韩中文网| 久久亚洲春色中文字幕久久久综合| 日本h片中文字幕在线| 久久夜色精品国产噜噜亚洲av| 亚洲视频高清| 久久精品国产黄片一区| 中国精品18videosex性中国| 日韩精品无码久久一区二区三| 日韩偷拍视频一区二区三区| 91精品国产一区国产二区久久| 最新亚洲人成网站在线观看| 久久精品国产免费观看99| 人妻秘书被社长浓厚接吻| 久久久久人妻一区二区三区| 成人做爰69片免费看网站| 麻豆av一区二区天堂| 国产精品一区二区黑丝| 久久夜色精品国产噜噜亚洲av| 久久精品熟女不卡av高清| 亚洲一区二区三区重口另类| 精品欧洲av无码一区二区14| 日韩爱爱网站| 国产成人亚洲综合二区| 曰韩无码无遮挡a级毛片|