栗 業(yè) 周汝良 王云飛 蘆 珊
(1.西南林業(yè)大學(xué),云南 昆明 650224;2.中國林業(yè)科學(xué)研究院 資源信息研究所,中國 北京 100091)
Edison采用的是基于均值漂移原理的影像分割,如果影像維數(shù)為p,當(dāng)空間位置向量與顏色向量一起合為“空間-顏色”域時,維數(shù)為p+2,作為防輻射對稱核和歐幾里德多元核表示為:
式中,xs為特征矢量的空間部分;xr為特征矢量的顏色部分;k[x]在空間和顏色域中都是用相同的核;hs、hr分別為空間帶寬與色度帶寬;C為相應(yīng)的歸一化常數(shù)。因此,帶寬參數(shù)(hs,hr)就成為均值漂移分割過程中的重要參數(shù)。
對于基于均值漂移的影像分割過程,設(shè)xi為d維輸入影像,zi(i=1,...,n)為其濾波影像,Li為分割影像的第i個像元,則分割過程為:①進(jìn)行均值濾波,存儲d維濾波數(shù)據(jù)zi=yi,c;②對所有空間域小于hs且范圍域小于 hr的 zi進(jìn)行聚類{Cp},p=1,...,m;③對于每個 i=1,2...,n,計算Li={p|zi∈Cp};④瓷都合并過程,將連續(xù)空間域小于合并尺度M個像元的區(qū)域進(jìn)行進(jìn)一步合并。
首先,均值漂移分割算法需要將RGB色度空間轉(zhuǎn)換到LUV特征空間,以更好地實(shí)現(xiàn)其特征空間的分離,這是因?yàn)镽GB空間為非線性,不具有較好地空間統(tǒng)計性及尺度對應(yīng)關(guān)系,而LUV可以更好地應(yīng)用分割過程中的影像不同像元的光譜信息并進(jìn)行統(tǒng)計。對于彩色影像來說,假設(shè)彩色圖像的特征空間為L,則圖像中不同顏色的物體,就對應(yīng)特征空間上不同的聚類。彩色圖像映射到特征空間L后,再結(jié)合像素在圖像中的位置,即空間信息(X,Y),就能得到每個像素在5維特征空間中的值,即(X,Y,L*,U*,V*)。其中,L*表示圖像的亮度,U*和V*分別表示色差。在此基礎(chǔ)上采用聚類算法,就可以吧空間和顏色歐式距離相近的點(diǎn)歸為一類,從而實(shí)現(xiàn)彩色圖像的分割。
確定算法的和函數(shù)及帶寬后就可進(jìn)行基于空間與顏色域的均值濾波過程,即均值漂移書案發(fā)的主題部分。對于算法的多尺度實(shí)現(xiàn)方法,有效確定不同尺度的算法合并位置,并對前期處理的中間結(jié)果進(jìn)行存儲,建立或更新影像的尺度層次關(guān)系,可有效避免同一影像、同一參數(shù)在不同分割時的重復(fù)性工作,達(dá)到提高分割效率的目的。多尺度分割的實(shí)現(xiàn)過程中,確定不同尺度的合并序列{M1,M2,...,Mn},并在濾波結(jié)果的基礎(chǔ)上進(jìn)行迭代,通過對濾波結(jié)果的存儲能夠達(dá)到多尺度分割過程的尺度M。[1]
在Matlab中通過函數(shù)實(shí)現(xiàn)圖像區(qū)域中灰度值小于閾值的點(diǎn)的合并。
首先設(shè)置與影像像元個數(shù)相同的區(qū)域結(jié)點(diǎn),根據(jù)像元個數(shù)與影像維數(shù)建立各個區(qū)域的模式。將影像的類別標(biāo)記矩陣的初始值設(shè)定為-1,并建立判別像元是否已經(jīng)被訪問過的邏輯型標(biāo)記矩陣。
為方便處理,將圖像波段鄰域轉(zhuǎn)化為由中心位置與周圍相鄰的八個位置共同組成的九維矩陣,從而建立判別圖像位置關(guān)系的鄰域矩陣,同時建立與之相對應(yīng)的位置索引矩陣。
將LUV小于指定閾值的像元標(biāo)記為同一區(qū)域來獲得非連通圖的極大連通分量。順序掃描所有頂點(diǎn),利用判別矩陣判斷該點(diǎn)是否已經(jīng)被訪問,如果沒有,則訪問這個連通分量。
確定連通區(qū)域的過程中,對每一定點(diǎn)采用廣度優(yōu)先搜索方法,建立訪問標(biāo)記矩陣,將當(dāng)前點(diǎn)取進(jìn)隊(duì)列,獲得當(dāng)前處理點(diǎn)對應(yīng)的行列坐標(biāo),從隊(duì)列中退出頂點(diǎn),獲得連通的鄰域位置索引集合,如果當(dāng)前點(diǎn)未訪問過且未被其他區(qū)域標(biāo)記,則當(dāng)前點(diǎn)進(jìn)入隊(duì)列。搜索的同時更新訪問判別矩陣的標(biāo)記和類別標(biāo)記矩陣,并完成對區(qū)域的編號。
依據(jù)區(qū)域標(biāo)記矩陣,獲得每個結(jié)點(diǎn)的邊。統(tǒng)計計算當(dāng)前點(diǎn)的標(biāo)號與右、下、右下、左下的標(biāo)號是否相同來確定區(qū)域鄰接關(guān)系,判定完畢后進(jìn)行排序,將重復(fù)的區(qū)域消除。最后完成對鄰域信息的更新。
DNVI是植被影像解譯的重要參考,其計算方法如下:
其中NIR代表近紅外波段,R代表紅波段。
表1 TM影像DNVI值Tab.1 DNVI of TM image
使用Matlab中的regionprops函數(shù)提取由分割影像構(gòu)建的標(biāo)記矩陣所標(biāo)記的各個區(qū)域的面積 (Area)、存儲區(qū)域像素的索引下標(biāo)(PixelIdxList)等屬性特征。
將DNVI值與源影像一起構(gòu)造線索特征集合,并計算區(qū)域光譜及NDVI均值集合和區(qū)域光譜及NDVI方差集合。
最后選擇所有特征,包括波段區(qū)域的光譜均值、NDVI均值、光譜方差、NDVI均方差、面積記性數(shù)據(jù)范圍歸一化。
對預(yù)先生成的訓(xùn)練樣本影像和測試樣本影像生成訓(xùn)練樣本矩陣和測試樣本矩陣,以用于分類和結(jié)果檢驗(yàn)。其分類的依據(jù)是根據(jù)各類別樣本在影像中所對應(yīng)的亮度值不同。
圖1 樣本影像及其樣本矩陣Fig.1 Sample Image and Sample Matrix
讀取訓(xùn)練樣本矩陣,對各類樣本建立對應(yīng)的訓(xùn)練區(qū)域標(biāo)號和區(qū)域特征,獲得每個類別所有訓(xùn)練樣本的區(qū)域編號。遍歷樣本點(diǎn),考察其類別是否為空,若為空則添加類別,同時比較源影像與訓(xùn)練樣本之間的相似程度,為影像分類做準(zhǔn)備。
采用最小距離分類器對源影像進(jìn)行分類,先計算每個類別的均值,再調(diào)用分類函數(shù),獲得每個區(qū)域的類別變換。最小距離分類器的原理很簡單,即計算每個區(qū)域到訓(xùn)練樣本各類別的距離,然后取其最小值為區(qū)域分類。計算距離的實(shí)現(xiàn)方法為:
其中d為所求距離;M為與模式矩陣x列數(shù)相同的矩陣,其行為類別均值向量的集合;x為模式矩陣;W為樣本個數(shù)。
讀取測試樣本的樣本矩陣,提取測試樣本的個數(shù),遍歷樣本,查找標(biāo)記類型為u而測試類型為v的樣本個數(shù),從而建立混淆矩陣。
表2 混淆矩陣Tab.2 confusion matrix
混淆矩陣對角線位置的元素代表判別正確的對象個數(shù),將其求和后與總體測試樣本個數(shù)相比,得到總體精度。
把測試樣本總數(shù)乘以混淆矩陣對角線的和,再減去某一類中測試樣本總數(shù)與該類中被分類樣本總數(shù)之積對所有類別求和的結(jié)果,再除以樣本總數(shù)的平方減去某一類中測試樣本總數(shù)與該類中被分類像元總數(shù)之積對所有類別求和的結(jié)果所得到的。其公式如下:
其中^K是Kappa系數(shù),r是混淆矩陣的行數(shù),xii對角線上的值,xi+和x+i分別是第i行的和與第i列的和,N是樣本總數(shù)。
生產(chǎn)者(制圖)精度:指假定地表真實(shí)為A類,分類器能將一幅圖像的像元?dú)w為A的概率,即混淆矩陣對角線元素與其所在行元素和的比;用戶精度:指假定分類器將像元?dú)w到A類時,相應(yīng)的地表真實(shí)類別是A的概率,即混淆矩陣對角線元素與其所在列元素和的比。
[1]沈占鋒,駱劍承,胡曉東,孫衛(wèi)國.高分辨率遙感影像多尺度均值漂移分割算法研究[J].計算機(jī)研究與發(fā)展,2012,35(3):313-316.Shen Z F,Luo J C,Hu X D,Sun W G.Researchof Multiple Dimensioned Mean Shift Segmentation Algorithm for High Resolution Remote Sensing Image[J].Geomatics and Information Science of Wuhan University,2012,35(3):313-316.
[2][美]Rafael C.Gonzalez,Richard E.Woods,Steven L.Eddins.岡薩雷斯數(shù)字圖像處理(MATLAB 版)[M].阮秋琦,等,譯.北京:電子工業(yè)出版社,2005:367-36.