齊懷琴,徐 剛,王 娜
(齊齊哈爾大學 通信與電子工程學院,黑龍江 齊齊哈爾 161041)
基于視頻的火災檢測方法是當前火災檢測領域的重要手段,能有效克服傳統(tǒng)檢測技術的有效探測距離短、覆蓋范圍小等缺點,使大空間對火災的檢測成為可能。近年來,人們針對視頻的火災檢測技術已經(jīng)展開了深層次的研究[1-8]。Phillips W等[1]利用色彩視頻序列圖像中物體的顏色和抖動來確定火焰的存在;沈詩林等[2]提出的一種基于圖像相關性進行火災檢測的方法以及Yamagishi等[3]提出的基于HSV空間和神經(jīng)網(wǎng)絡的彩色圖像火焰檢測算法,對靜態(tài)圖像判決較好,但卻沒利用動態(tài)特征;袁菲牛等[4]提出的通過度量火焰輪廓信息,并在頻域內(nèi)進行分析來對火焰進行識別,此方法能準確地度量圖像的時空閃爍特征,張本礦等[5]提出了將神經(jīng)網(wǎng)絡和模糊函數(shù)相結合的辦法,通過神經(jīng)網(wǎng)絡學習功能,自動生成隸屬度函數(shù),但算法復雜,在嵌入式系統(tǒng)中實現(xiàn)較為困難。
針對上述問題,筆者提出了一種基于視頻的火災圖像檢測算法,以火焰疑似目標的重心和面積的變化率作為特征量,通過設定隸屬度函數(shù)來確定對火焰的隸屬程度,從而判斷是否有火焰發(fā)生。
筆者提出的火災識別算法分兩個步驟:1)先對現(xiàn)場圖像進行預處理,利用火焰的靜態(tài)和動態(tài)特性,通過閾值對現(xiàn)場圖像進行分割,進而提取主要檢測目標;2)通過設定模糊判定法則以及隸屬度函數(shù)來判斷目標是否為火災。
色彩是火焰的主要靜態(tài)特征,HSI色彩空間是從人的視覺系統(tǒng)出發(fā),用色調(diào)(hue)、飽和度(saturation)和亮度(intensity)來描述色彩,更加方便色彩的處理和識別。圖1是一幅火災圖像及其色調(diào)、飽和度和亮度的分量圖。圖中顯示,火災圖像的飽和度和亮度的分量圖最能體現(xiàn)火焰特征。
因此,本文的火焰目標提取主要針對火災圖像的飽和度特征和亮度特征進行處理。對于視頻圖像中的第i幀圖像,分別通過對其飽和度分量圖和亮度分量圖設定閾值,進行二值化處理,提取飽和度分量圖和亮度分量圖的公共目標區(qū)域,作為Gi。
由于火焰燃燒時的相鄰圖像間火焰圖像部分存在差異,而背景圖像部分基本不變,因此利用火焰圖像的上述動態(tài)特性進行火焰圖像提取。對相鄰兩幀圖像提取目標區(qū)域圖像為Gi和Gi+1,然后對這兩幅圖像進行相減處理(對于小于0的值設為0),生成圖像GD(x,y)
應用Wiener濾波器對GD(x,y)進行平滑除噪處理,去除孤立點噪聲。然后利用以下方法判斷出圖像Gi+1中的火災區(qū)域。本文改進了區(qū)域增長法,不僅種子的選取采用差分圖像,增長條件也從一般的判斷單方向梯度改進為判斷各個方向梯度的最大值,可有效減少像素的漏判。步驟為:
1)以圖像GD(x,y)作為開始檢測目標像素集。
2)以新的像素集作為檢測起始點。
3)確定聚類條件作為像素增長準則。
(1)與種子點相鄰。
(2)像素點本身的亮度值大于T。經(jīng)試驗,T一般取值在0.9左右比較合適。
(3)定義 Gi+1圖像中各方向的梯度最大值 R(x,y),因為火焰區(qū)域中 R(x,y)一般取值較小,因此設定 R(x,y)小于0.1基本可以有效檢測到火焰區(qū)域。其中,R(x,y)定義為
4)對整幅圖像進行搜索,找到符合步驟3)的像素,加入到像素集。生成新的像素集,判斷像素集是否增加,如果增加,回到步驟2),如果沒有增加,執(zhí)行步驟 5)。
5)用像素集里的像素生成圖像G2′。
由于火災監(jiān)控現(xiàn)場的復雜性,各種干擾源都可能出現(xiàn),因此對火災目標的識別存在模糊性。本文定義模糊數(shù)學的隸屬函數(shù)來判斷目標是否為火災。提取疑似火焰圖像后,主要從疑似火焰圖像的重心位置變化和面積變化比率來分析。
面積定義為目標提取二值圖像中像素為1的點的和
對于一個m×n大小的圖像面積變化率定義為
首先考慮重心位置變化,定義目標圖像的重心位置,則二值化圖像 G2′重心位置 C(xc,yc)為
通過計算各幀圖像的重心坐標位移偏移量CDLi,以及與目標圖像標準長度大小LS的比率Lv來設定隸屬函數(shù)。CDLi,LS,Lv分別定義如下
由于火災現(xiàn)場的火焰處于一種不穩(wěn)定狀態(tài),其變化十分復雜,因此構建兩層模糊分類系統(tǒng),定義兩個隸屬函數(shù)分別為
由于面積變化率和重心坐標偏移率具有非相關性,任何一條都可以獨立判斷火災是否發(fā)生,因此兩者的乘積對判斷火災更為準確。最后的隸屬度函數(shù)定義為σ,其表達式為
為了驗證算法的性能,對大量火災視頻進行了研究實驗。圖2a是從火災視頻中提取的12幀連續(xù)變化的火焰圖像,通過2.1節(jié)的火焰目標提取方法,得到了目標提取圖像,如圖2b所示。
可以看出,火焰目標提取算法能基本有效提取火焰目標。 通過實驗得出, 當 tS1=0.25,tS2=0.75,tl1=0.01,tl2=0.12時一定有火災發(fā)生。圖3顯示了上述12幀火焰圖像序列的面積變化率ΔS和重心偏移量比率Lv都在閾值范圍內(nèi)。
對燈光圖像和蠟燭圖像進行測試,分別提取了連續(xù)的5幀圖像,并按式(10)分別計算了隸屬度,表1為計算結果。
對各種目標的分析如下:1)路燈,光亮部分基本靜止,重心偏移量比率及面積變化率都接近為0,因此隸屬度為0;2)蠟燭,重心偏移量比率及面積變化率都很小,因此隸屬度很?。?)公路上車燈,重心偏移量比率較大,但面積變化率接近為0,因此隸屬度為0。
表1 不同情況的隸屬度數(shù)據(jù)
筆者提出一種面向視頻圖像序列的火災識別算法,本算法兼顧了利用火災圖像的靜態(tài)特征和動態(tài)特征,構造模糊隸屬度函數(shù)來判斷火災是否發(fā)生。本文方法計算速度快,耗時較少,對火災圖像識別率高,可以在嵌入式系統(tǒng)中實現(xiàn),對于實時的火災檢測十分有效,值得進一步研究。
[1]PHILLIPS W,SHAH M,LOBO N V.Flame recognition in video[J].Pattern Recognition Letters,2002,23(1-3):319-327.
[2]SHEN S,YU C,YUAN F.Renovated method for identifying fire plume based on image correctation[J].Journal of Safety and Environment,2007,7(6):96-99.
[3]YAMAGISHI H,YAMAGUCHI J.Fire flame detection algorithm using a color camers[C]//Proc.1999 International Symposium on Micromechatronios and Human Science.Nagoya,Japan:[s.n.],1999:255-260.
[4]袁非牛,廖光煊,張永明.計算機視覺火災探測中的特征提取[J].中國科學技術大學學報,2006,36(1):39-43.
[5]張本礦,吳龍標,王進軍.火災探測的模糊神經(jīng)網(wǎng)絡方法研究[J].科技導報,2000,22(4):687-691.
[6]王躍宗,劉京會.基于視頻的火災實時檢測方法[J].計算機工程與技術,2009,30(18):4330-4332.
[7]王亞軍,徐大芳,陳向成.基于火焰圖像動態(tài)特征的火災識別算法[J].測控技術,2007,26(5):7-9.
[8]汪錦,于偉華,韓韜.面向紅外視頻圖像的火焰識別[J].上海交通大學學報,2008,12(42):1979-1982.