何揚 胡秀云
摘? 要:近年來,大多數(shù)火災(zāi)自動報警系統(tǒng)都是通過檢測感溫、感煙和感光等傳感器的方法進行檢測,只能針對單一特征信息進行判斷識別,受到外界空間、環(huán)境或人為因素的影響。卷積神經(jīng)網(wǎng)絡(luò)(CNN)以其高準確率的識別率在廣泛應(yīng)用成為一個活躍的研究課題。然而如何可靠、有效地解決火焰檢測問題仍然是實踐中一個具有挑戰(zhàn)性的問題。本文提出了一種新的基于CNN的火焰實時檢測算法,該算法通過對普通攝像機監(jiān)控場景產(chǎn)生的視頻數(shù)據(jù)進行處理。首先,為了提高識別效率,提出了一種候選目標(biāo)區(qū)域特征提取算法,用于處理可疑火焰區(qū)域。其次,提取候選區(qū)域的圖像特征根據(jù)設(shè)計的基于CNN的深度神經(jīng)網(wǎng)絡(luò)模型進行分類,最后根據(jù)分類得到相應(yīng)的判斷。
關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)? 火焰檢測? 特征提取? 深度學(xué)習(xí)
中圖分類號:TP319? ? ? ? ? ? ? ? ? ? ? ? ? 文獻標(biāo)識碼:A文章編號:1674-098X(2021)05(b)-0109-03
Flame Detection Method Based on Convolution Neural Network
HE Yang? HU Xiuyun
(School of Information Science and Engineering, Shenyang Ligong University, Shenyang, Liaoning Province, 110159 China)
Abstract: In recent years, most of the automatic fire alarm systems are detected by detecting temperature, smoke and light sensors. They can only judge and identify single feature information, which is affected by the external space, environment or human factors. Convolutional neural network (CNN) has become an active research topic in a wide range of applications because of its high accuracy. However, how to solve the problem of flame detection reliably and effectively is still a challenging problem in practice. In this paper, a new real-time flame detection algorithm based on CNN is proposed. The algorithm processes the video data produced by ordinary camera monitoring scene. Firstly, in order to improve the recognition efficiency, a candidate target region feature extraction algorithm is proposed to deal with the suspicious flame region. Secondly, the image features of candidate regions are extracted and classified according to the designed CNN based deep neural network model. Finally, the corresponding judgment is obtained according to the classification.
Key Words: Convolution neural network; Flame detection; Feature extraction; Deep learning
為了有效地實時檢測火災(zāi),傳統(tǒng)的火焰檢測方法識別算法大多采用人工特征,如顏色、形狀、質(zhì)地和運動。然而,火焰單一特征的提取不能滿足高的火焰檢測率。所以各種深度學(xué)習(xí)算法被廣泛應(yīng)用于該領(lǐng)域,反向傳播(BP)、貝葉斯神經(jīng)網(wǎng)絡(luò)(BNN)和卷積神經(jīng)網(wǎng)絡(luò)(CNN),去提高火災(zāi)視頻檢測性能。
1? 火焰檢測方法概述
提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)[1]的彩色火焰特征檢測與識別方法。首先,利用所提出的RGB模型[2]提取火焰圖像的顏色特征,得到候選區(qū)域。其次,利用神經(jīng)網(wǎng)絡(luò)對歸一化特征圖進行分類。最后,利用卷積神經(jīng)網(wǎng)絡(luò)的分類結(jié)果得到報警信號,并對所提出的神經(jīng)網(wǎng)絡(luò)的性能進行了測試。本文選用方法主要包括3個主要階段。
2? 火焰視頻圖像采集
首先選取火焰視頻圖像數(shù)據(jù)作為自己的訓(xùn)練集[3],訓(xùn)練集主要包含在不同環(huán)境下采集的圖像數(shù)據(jù),其次訓(xùn)練集中的圖像數(shù)據(jù)包括75%的正序列(fire)和25%的負序列(nofire),正序列即包含帶有火焰的數(shù)據(jù)圖像,負序列即不帶有火焰的圖像數(shù)據(jù)。
3? 擬定方法
本文以提高火災(zāi)探測性能為目標(biāo),提出了一種基于深度神經(jīng)網(wǎng)絡(luò)的火災(zāi)探測方法。
算法原理圖如圖1所示。該算法可分為2個主要階段。第一,提出了一種基于不同環(huán)境的顏色模型來精確分割視頻序列中的火災(zāi)候選區(qū)域。第二,通過以下方法確定歸一化候選區(qū)域,即一種基于CNN的新型結(jié)構(gòu)。第三,根據(jù)辨識結(jié)果做出響應(yīng)。
3.1 候選火焰區(qū)域提取方法
因為火災(zāi)危害極大,警告越早火災(zāi)造成的損失越小。因此,火焰識別算法的實時性要求在實際消防工程中具有重要意義。
傳統(tǒng)的目標(biāo)檢測深度學(xué)習(xí)方法大多基于多尺度滑動窗口[4],但這些方法大大降低了算法的效率。本文通過加入火焰顏色特征模型,提高了算法的計算速度。由于RGB模型的計算復(fù)雜度低于其他顏色模型[5],因此本文采用RGB模型提取火焰顏色特征。首先,利用火焰顏色模型對原始圖像進行分割,得到候選區(qū)域,基于統(tǒng)計經(jīng)驗數(shù)據(jù),實驗結(jié)果表明,火災(zāi)的每個RGB像素應(yīng)滿足以下條件:
這里,M(x,y)表示分段函數(shù)圖像顏色二值化掩模,fR(x,y)是通道R的值,fB(x,y)是通道B的值。然后,通過獲取連通區(qū)域的外矩形,提取神經(jīng)網(wǎng)絡(luò)的歸一化候選區(qū)域,得到不同外場景的外矩形區(qū)域的二值圖像。
3.2 神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)
卷積神經(jīng)網(wǎng)絡(luò)(CNN)的結(jié)構(gòu)分為3個部分:卷積層、池化層和全連通層。這3個部分的功能分別是魯棒特征提取、函數(shù)特征降維和分類[6]。根據(jù)CNN的結(jié)構(gòu),提出了一種新的CNN結(jié)構(gòu)更適合火災(zāi)探測的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。
3.2.1 卷積層
卷積層是所提出的神經(jīng)網(wǎng)絡(luò)的核心。為了有效區(qū)分火和像火一樣的分心,這些層由一個矩形的神經(jīng)元網(wǎng)格組成,這使得分類更加快捷。在卷積層中,基于RGB模型的火災(zāi)圖像經(jīng)過三次卷積運算,卷積核大小分別設(shè)置為最優(yōu)參數(shù)。眾所周知,ReLU[7]函數(shù)φ(x)具有單側(cè)抑制、寬激發(fā)邊界和稀疏激活等優(yōu)點,因此具有ReLU函數(shù)φ(x)在每個卷積層后采用,滿足以下條件:φ(x)=max(0,x),其中max(.)表示0和x之間的較大值。第一層卷積核函數(shù)的可視化,神經(jīng)網(wǎng)絡(luò)模型的卷積濾波器主要檢測邊緣、角度和曲線等低階特征。然后,第一層的卷積特征映射,可以看出得出不同的特征由不同的濾波器檢測出來。
3.2.2 匯集層
在前3個ReLU函數(shù)φ(x)之后,處理后的數(shù)據(jù)在池層中進行下采樣。為了減少更多參數(shù)的成本,采用了一個最大池化窗口。為了提高該結(jié)構(gòu)的泛化能力,避免擬合現(xiàn)象的產(chǎn)生,數(shù)據(jù)在前兩個池化層用范數(shù)理論進行歸一化。歸一化函數(shù)滿足以下條件:
其中,||.||1和||.||2分別代表L1范數(shù)和L2范數(shù),x表示卷積特征向量火災(zāi)候選區(qū)域。
3.2.3 完全連接層
最后,在第3個池化層之后,全連通層的功能是級聯(lián)火災(zāi)特征圖像。為了減少過平滑現(xiàn)象,在最后2個ReLU函數(shù)φ(x)之后采用了dropout方法,包括以一定的概率將所選層中每個隱藏神經(jīng)元的輸出設(shè)置為零。
4? 結(jié)語
本文提出的基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的算法流程圖如圖2所示。在訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的過程中,卷積層的訓(xùn)練就是訓(xùn)練一些卷積濾波器,這些濾波器具有高激活度的獨特模式,以達到CNN的目的。層數(shù)越多,特征就越復(fù)雜。為了訓(xùn)練出更好的卷積核,并得到這些卷積核更有效的組合方式,本文利用所提出的模型得到最優(yōu)參數(shù),然后用最優(yōu)參數(shù)對測試樣本進行有效分類,訓(xùn)練集和測試集的損失函數(shù)通過計算可以得出,隨著訓(xùn)練和測試迭代次數(shù)的增加,損失函數(shù)都減小,函數(shù)趨于穩(wěn)定。試驗精度通過計算可以得出,隨著訓(xùn)練迭代次數(shù)的增加,測試精度提高。
參考文獻
[1] 楊真真,匡楠,范露,等.基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類算法綜述[J].信號處理,2018,34(12):1474-1489.
[2] 王玲.彩色數(shù)字圖像的量子表示及加密算法研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2020.
[3] 馬天兵,劉健,杜菲,等.基于改進Otsu方法的振動圖像分割研究[J].電光與控制,2019,26(2):11-15,31.
[4] 鐘卓耀.基于深度學(xué)習(xí)的自然場景圖像中文字檢測的研究和應(yīng)用[D].廣州:華南理工大學(xué),2020.
[5] 陳杰.基于色彩信息的圖像增強研究[D].南京:南京郵電大學(xué),2017.
[6] 章琳,袁非牛,張文睿,等.全卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計算機工程與應(yīng)用,2020,56(1):25-37.
[7] 王紅霞,周家奇,辜承昊,等.用于圖像分類的卷積神經(jīng)網(wǎng)絡(luò)中激活函數(shù)的設(shè)計[J].浙江大學(xué)學(xué)報:工學(xué)版,2019,53(7):1363-1373.