李健偉, 廖偉興, 馬鎮(zhèn)威
(深圳供電局有限公司,深圳 518000)
隨著遙感技術、圖像處理技術和信息處理技術的不斷發(fā)展和提高,我們可以從遙感圖像中獲取和發(fā)掘更多有價值的信息和數(shù)據(jù)。為了滿足不同遙感圖像的信息處理要求,對遙感圖像進行有效分類具有重要的理論價值和實際意義。傳統(tǒng)的遙感圖像分類方法主要有極大似然法[1]、最小距離法[2]、ISODATA[3]等監(jiān)督與非監(jiān)督的分類法,但此類方法存在分類精度不高的缺點,容易導致錯分和漏分[4-5]。隨著計算機技術和模式識別技術的發(fā)展,神經(jīng)網(wǎng)絡、數(shù)學形態(tài)學、模糊技術以及專家系統(tǒng)等新方法和技術被應用于遙感圖像分類,使得分類精度較傳統(tǒng)方法有了一定程度的提高,但仍然存在一定的不足。為了提高遙感圖像的分類精度,在相似性測度的基礎上,運用極限學習機[6](Extreme Learning Machine,ELM)的快速收斂能力和較強的泛化能力,提出一種基于相似性測度和極限學習機的遙感圖像分類方法。
圖像相似性測度[7]是測度圖像邊緣特征的一個重要指標,其表示圖像在一個很小區(qū)域σ內的復雜程度,通常σ是一個直徑為3~10個像素點的圓。若圖像在σ區(qū)域內無變化,則圖像相似性信息測度值為0;反之,圖像相似性信息測度值則較大。如圖1所示。
圖1 σ區(qū)域
圖像f(x,y)以像素點(x0,y0)為中心的鄰域為區(qū)域σ,σ={(x,y)||x-x0|≤ρ,|y-y0|≤ρ},其中ρ為鄰域半徑。直線l經(jīng)過點(x0,y0),且角度為θ(0~180°),該直線將σ區(qū)域分成兩個部分,分別為σ1和σ2。
為了有效可靠地度量σ區(qū)域內的圖像相似度信息,本文運用鄰域一致性、方向性信息和結構性信息測度等表征圖像相似度信息。
圖像中點(x0,y0)的方向性信息測度O(x0,y0)可由公式(1)表示為式(1)。
(1)
若點(x0,y0)在圖像邊緣區(qū)域,則O(x0,y0)值較大;若點(x0,y0)在圖像平滑區(qū),則O(x0,y0)值較小。
圖像中點(x0,y0)的鄰域一致性測度R(x0,y0)可以有效反映圖像邊緣點在鄰域的灰度信息分布情況,其可由公式(2)表示[8]為式(2)—式(4)。
k=0,1,…,n
(2)
其中,θ表示步長,k表示步進序列號。
(3)
(4)
若點(x0,y0)在圖像邊緣區(qū)域,則R(x0,y0)值較大;若點(x0,y0)在圖像平滑區(qū),則R(x0,y0)值較小。
圖像中點(x0,y0)的結構性信息測度C(x0,y0)有平均作用,可以減少噪聲對圖像邊緣的影響,其公式可表示為式(5)。
(5)
其中,點(x,y)∈lk,g(x,y)表示點(x,y)處的梯度幅值,梯度公式如式(6)。
(6)
極限學習機是在Moore-Penrose矩陣理論基礎上所提出的一種新型的單隱含層前饋神經(jīng)網(wǎng)絡[9],其結果示意圖如圖2所示。
圖2 ELM結構示意圖
若有N個訓練樣本數(shù)據(jù),其輸入和輸出樣本數(shù)據(jù)分別為xi=[xi1,xi2,xin]T∈Rn,t=[ti1,ti2,tim]T∈Rm,i=1,2,…,N,假設ELM的隱含層節(jié)點數(shù)為L,則ELM的輸出可表示為[10]式(7)。
(7)
其中,j=1,…,L,ai=[ai1,ai2,…,ain]T和βi=[βi1,βi2,…,βim]T分別表示第i個隱含層神經(jīng)元的輸入權值和輸出權值;ai·xj和bi分別表示ai和xj的內積和第i個隱含層神經(jīng)元的偏置,式(7)可表示為式(8)。
Ηβ=Τ
(8)
其中,Η、β、Τ分別表示ELM隱含層的的輸出矩陣、輸出權值和輸出矩陣。
固定ai,bi,ELM數(shù)學模型通過最小二乘法可求解為式(9)。
(9)
其中,H+表示Moore-Penrose廣義逆矩陣。
針對遙感圖像樣本,提取遙感圖像相似性測度特征,遙感圖像的特征向量I(i,j)可表示為式(10)。
I(i,j)={R(i,j),O(i,j),C(i,j)}
(10)
基于圖像相似性測度和ELM的遙感圖像的分類,如圖3所示。
圖3 基于相似性測度和ELM的圖像分類流程圖
流程如下:
(1) 讀取遙感圖像樣本數(shù)據(jù);
(2) 提取遙感圖像相似性測度特征I(i,j);
(3) 標記遙感圖像標簽;
(4) 將遙感圖像相似性測度特征分為訓練樣本和測試樣本,將訓練樣本的遙感圖像的相似度特征作為ELM的輸入,訓練樣本的遙感圖像標簽類別作為ELM的輸出,建立ELM模型;
(5) 針對測試樣本,運用ELM遙感圖像分類模型進行分類。
為評價遙感圖像分類的效果,選擇分類精度和Kappa系數(shù)作為遙感圖像分類結果的評價指標,其評價公式如下:
分類精度為式(11)。
(11)
其中,A表示正確識別類別的數(shù)量,B表示實際類別數(shù)量。
Kappa系數(shù)[11]為式(12)。
(12)
其中,K表示Kappa系數(shù),N表示總像元數(shù)量,xi+、x+i分別表示第i行和第i列的總像元數(shù)量,xii表示第i行第i列上的像元數(shù)量,m表示誤差矩陣中行的數(shù)量。
為了驗證本文算法的有效性,選擇遙感圖像和實地照片(上排為林地、草地、裸地、水體以及積雪的遙感圖像,如圖4所示。
林地草地裸地水體積雪
圖4 遙感圖像和實地照片對比圖
下排為林地、草地、裸地、水體以及積雪的實地照片)為研究對象,遙感圖像由6個波段組成,分別為TM1、TM2、TM3、TM4、TM5和TM7,其中TM1、TM2和TM3表示可見光通道,TM4表示近紅外通道,而TM5和TM7表示中紅外通道。影像上的地物包括林地、草地、裸地、水體以及積雪。為了便于計算和圖像分類,將所有地物樣本尺寸統(tǒng)一為100x100個像素。
為了說明本文算法的優(yōu)勢,將本文算法和決策樹法[12]、最大似然法[13]進行對比,對比結果如圖6-圖8所示。圖5為原始遙感圖像。
圖5 原始遙感圖像
圖6 極限學習機
圖7 決策樹法圖
圖8 最大似然法
由圖5-圖8遙感圖像分類結果和表1、表2 精度對比可知。
本文算法的Kappa系數(shù)為0.970 1,優(yōu)于決策樹法的0.961 5和最大似然法的0.943 7,極限學習機總體分類精度為97.50%,優(yōu)于決策樹法的97.15%和最大似然法的95.50%。耗費時間只有1.82 s,遠遠低于決策樹的5.95 s和最大似然法的10.56 s。通過對比可知,本文提出的基于相似性測度和極限學習機的遙感圖像分類方法,可以有效提高分類精度,為遙感圖像分類提供新的方法和指導。
表1 分類結果矩陣
表2 不同分類方法各類別所占比例
表3 耗費時間
為了提高遙感圖像的分類精度,將相似性測度作為遙感圖像的分類特征數(shù)據(jù),運用極限學習機(Extreme Learning Machine,ELM)的快速收斂能力和較強的泛化能力,提出一種基于相似性測度和極限學習機的遙感圖像分類方法。研究表明,提出的方法可以有效提高分類精度,為遙感圖像分類提供新的方法和指導。