徐超,馮燕
(西北工業(yè)大學(xué) 陜西 西安 710129)
隨著高光譜遙感技術(shù)的發(fā)展,高光譜圖像的譜間分辨率越來(lái)越高,從而可以更好地對(duì)地物進(jìn)行分類(lèi)[1-2]。極高的譜間分辨率同時(shí)也帶來(lái)了一些問(wèn)題,如增大了存儲(chǔ)壓力,更大的計(jì)算量等。在這些問(wèn)題中,最嚴(yán)重的應(yīng)是小樣本問(wèn)題或Hugh現(xiàn)象[3]。最大似然分類(lèi)器由于具有多分類(lèi)、概率輸出的特點(diǎn)在遙感圖像分類(lèi)中得到廣泛應(yīng)用,而在使用最大似然分類(lèi)器進(jìn)行分類(lèi)時(shí),為了有效的估計(jì)協(xié)方差矩陣,樣本集的大小應(yīng)大于數(shù)據(jù)維度。由于高光譜數(shù)據(jù)的維度高達(dá)幾十甚至上百,且遙感圖像地物樣本的采集相對(duì)困難,從而導(dǎo)致了小樣本問(wèn)題。為了解決小樣本問(wèn)題,通常的做法是在分類(lèi)前對(duì)數(shù)據(jù)進(jìn)行降維。常用的降維方法有特征提取[4-6]和特征選擇[7-8]。特征提取對(duì)原始特征進(jìn)行組合得到新的特征,在保持有用信息的同時(shí)最大限度降低維度。特征選擇使用分離度準(zhǔn)則和搜索算法從原始特征中挑選合適特征組成特征子集,從而在保持?jǐn)?shù)據(jù)分離度的同時(shí)降低數(shù)據(jù)維度[9]。相對(duì)于特征提取,特征選擇更加簡(jiǎn)單,且能在降維的同時(shí)保持?jǐn)?shù)據(jù)的物理意義,從而廣泛應(yīng)用于高光譜數(shù)據(jù)降維中。
現(xiàn)有文獻(xiàn)對(duì)特征選擇的研究主要集中在分離度準(zhǔn)則和特征搜索算法,即提出新的準(zhǔn)則描述類(lèi)別間的分離度或改進(jìn)特征搜索算法提高效率和性能。在我們看來(lái),特征選擇應(yīng)由分離度準(zhǔn)則、搜索算法與特征選擇框架三部分組成。特征選擇框架的作用在于對(duì)分離度準(zhǔn)則與搜索算法進(jìn)行有效集成,從而最大限度的利用原始數(shù)據(jù)。傳統(tǒng)的特征選擇框架是在分類(lèi)之前選取特征子集,并在分類(lèi)過(guò)程中保持特征子集不變。該方法雖然簡(jiǎn)單,但適應(yīng)性差,不能充分利用高光譜數(shù)據(jù),造成誤分類(lèi)概率增大。通過(guò)對(duì)最大似然分類(lèi)器的概率輸出進(jìn)行觀察,我們發(fā)現(xiàn),大多數(shù)情況下目標(biāo)所屬類(lèi)別獲得的概率值在所有類(lèi)別中排在前兩位,換言之,若誤分類(lèi)情況出現(xiàn),即目標(biāo)所屬類(lèi)別沒(méi)有獲得最大的概率值,它也很可能獲得第二大概率值,且與最大概率值相差不大。我們將這個(gè)現(xiàn)象稱(chēng)為混淆現(xiàn)象。利用這個(gè)現(xiàn)象,我們提出一種新的特征選擇框架,命名為特征重選擇框架。新框架在初始階段針對(duì)所有類(lèi)別選取一個(gè)通用特征子集,并對(duì)目標(biāo)進(jìn)行預(yù)分類(lèi),若概率輸出滿(mǎn)足混淆條件,則針對(duì)當(dāng)前目標(biāo)選擇特征子集,并進(jìn)行最終分類(lèi)。相對(duì)于傳統(tǒng)的特征選擇框架,提出的框架在特征選擇中不僅考慮地物類(lèi)別總體,同時(shí)考慮地物類(lèi)別個(gè)體,從而可以兼顧同一類(lèi)別中不同個(gè)體的差異,適應(yīng)性更強(qiáng),可以更準(zhǔn)確的對(duì)地物進(jìn)行分類(lèi)。
首先對(duì)傳統(tǒng)的特征選擇方法進(jìn)行簡(jiǎn)單介紹。特征選擇方法主要由三部分組成,分離度準(zhǔn)則、搜索算法和特征選擇框架。
分離度準(zhǔn)則的作用在于定量描述類(lèi)別間的可分性,從而指導(dǎo)特征的選取。常用的分離度準(zhǔn)則主要有歐式距離、馬氏距離和J-M距離等。選定合適的距離測(cè)度后,通過(guò)式(1)即可算出類(lèi)別的分離度D。
式中m代表類(lèi)別總數(shù),p(wi)代表第i類(lèi)的先驗(yàn)概率,Dij代表第i類(lèi)與第j類(lèi)之間的距離。
特征搜索算法尋找一個(gè)特征子集使得類(lèi)別分離度達(dá)到最大,即
其中 Λ 代表指標(biāo)集,Λ?{1,1, …,t}(t是圖像的光譜維度),DΛ指的是各類(lèi)別在特征子集Λ下的分離度,|Λ|代表特征子集的大小,Λopt是最終選取的特征子集??梢钥闯觯卣魉阉魇且粋€(gè)組合最優(yōu)化問(wèn)題,通常使用貪婪算法求解,這里回顧一種前向序列搜索算法,該算法思路清晰,使用簡(jiǎn)單。前向序列搜索算法首先選擇一個(gè)使類(lèi)間分離度達(dá)到最大的特征,并將其加入特征子集,進(jìn)而將剩下的特征挨個(gè)放入特征子集,計(jì)算分離度,最終保留分離度最大的特征子集。重復(fù)該操作,直到特征子集大小滿(mǎn)足要求。
特征選擇框架主要研究如何更好地使用分離度準(zhǔn)則與搜索算法。傳統(tǒng)的特征選擇框架選擇一個(gè)特征子集使得類(lèi)間分離度達(dá)到最大,并在分類(lèi)過(guò)程中對(duì)所有目標(biāo)使用該特征子集。該框架簡(jiǎn)單,計(jì)算量小,但是沒(méi)有考慮到目標(biāo)個(gè)體的差異,適應(yīng)性不強(qiáng),沒(méi)有充分利用數(shù)據(jù)。為了解決這些問(wèn)題,本文提出一種新的特征選擇框架。
首先給出混淆條件的定義。對(duì)于最大似然分類(lèi)器的概率輸出,令第i類(lèi)獲得的概率為pi,對(duì)各個(gè)類(lèi)別的概率值進(jìn)行排序,不失一般性,假設(shè)第m類(lèi)和第n類(lèi)獲得最大的兩個(gè)概率值,計(jì)算它們之間的距離,即
若Pd小于給定的閾值,則稱(chēng)該概率輸出滿(mǎn)足混淆條件。
從混淆條件的定義可以看出,當(dāng)概率輸出滿(mǎn)足混淆條件時(shí),分類(lèi)器無(wú)法有效地對(duì)目標(biāo)進(jìn)行分類(lèi),這時(shí)若簡(jiǎn)單的將概率最大的類(lèi)別作為最終類(lèi)別,則很可能造成誤分類(lèi)??紤]到特征提取可能造成的信息損失,面對(duì)混淆情況時(shí),我們可以針對(duì)混淆的兩類(lèi)重新進(jìn)行特征選擇,即選擇特征子集使得當(dāng)前兩類(lèi)的分離度最大,從而最大程度利用數(shù)據(jù),提高分類(lèi)精度。具體方法如下。
在分類(lèi)前,首先用傳統(tǒng)的特征提取方法進(jìn)行特征選擇,得到類(lèi)別意義上最優(yōu)的特征子集,稱(chēng)其為全局最優(yōu)特征子集。使用最大似然分類(lèi)器對(duì)目標(biāo)進(jìn)行分類(lèi),得到概率輸出,并確定概率最大的兩類(lèi),不失一般性,令Pm>Pn,若不等式
成立,則概率輸出滿(mǎn)足混淆條件。為了消除混淆情形,重新選擇一個(gè)特征子集使得當(dāng)前兩類(lèi)分離度最大,即
使用重選擇的特征子集再次對(duì)目標(biāo)進(jìn)行分類(lèi),得到概率輸出,令第m類(lèi)的概率為Pmm,第n類(lèi)的概率為Pnn,假設(shè)Pmm>Pnn,則最終確定目標(biāo)類(lèi)別為m,對(duì)應(yīng)的概率為
最后給出算法的流程圖,如圖1。
圖1 算法流程圖Fig.1 The flow chart of the algorithm
這里給出新框架的理論分析,從分析的角度驗(yàn)證新框架相對(duì)于傳統(tǒng)框架的有效性,首先給出引理和假設(shè)。
引理:設(shè)針對(duì)多類(lèi)選擇的特征子集為Λ1,針對(duì)m,n兩類(lèi)選擇的特征子集為Λ2,兩個(gè)特征子集關(guān)于兩類(lèi)的分離度分別為 DΛ1mn和 DΛ2mn,則 DΛ1mn≤DΛ2mn成立。
證明:為了使得多類(lèi)的分離度達(dá)到最大,Λ1滿(mǎn)足
為了使得兩類(lèi)的分離度達(dá)到最大,則Λ2滿(mǎn)足
從Λ1和Λ2的表達(dá)式可以清楚的看出,
假設(shè):對(duì)于最大似然分類(lèi)器來(lái)講,若類(lèi)間分離度變大,分類(lèi)正確率隨之提高。
現(xiàn)在分析提出的框架。若最大似然分類(lèi)器輸出滿(mǎn)足混淆條件,即目標(biāo)真實(shí)類(lèi)別的概率排在所有類(lèi)別概率的前兩位,從而通過(guò)特征重選擇,可以使易混淆的兩類(lèi)的分離度變大,根據(jù)我們的假設(shè),分類(lèi)度越大,分類(lèi)正確率提高,從而我們給出的框架分類(lèi)正確率優(yōu)于傳統(tǒng)的分類(lèi)框架。
本節(jié)通過(guò)實(shí)驗(yàn)驗(yàn)證特征重選擇框架的有效性,選用的高光譜數(shù)據(jù)為Indian Pines數(shù)據(jù)集。該數(shù)據(jù)及其對(duì)應(yīng)的真實(shí)類(lèi)別圖可以從GIC下載。Indian Pines高光譜圖像譜間維度為220,空間分辨率為145×145。該高光譜圖像共包含16個(gè)地物類(lèi),選取其中最大的13個(gè)地物類(lèi)進(jìn)行實(shí)驗(yàn)。
在實(shí)驗(yàn)中,使用序列前向搜索算法作為特征搜索算法,并使用J-M距離作為分離度準(zhǔn)則。在實(shí)驗(yàn)中,隨機(jī)挑選像素點(diǎn)加入樣本集和測(cè)試集。為了更好地測(cè)試框架,使用不同的樣本容量和特征集大小,對(duì)于隨機(jī)生成的樣本集與測(cè)試集,重復(fù)實(shí)驗(yàn)20次,使用平均結(jié)果作為最終結(jié)果。樣本集容量分別為真實(shí)分類(lèi)圖容量的10%和20%,測(cè)試集容量為真實(shí)分類(lèi)圖容量的30%。使用相應(yīng)的訓(xùn)練集和測(cè)試集對(duì)框架進(jìn)行測(cè)試,分類(lèi)精度在圖2中給出。
從實(shí)驗(yàn)結(jié)果可以看出,對(duì)于不同的樣本集大小和特征集大小,本文提出方法 (FHRC)的分類(lèi)精度高于傳統(tǒng)方法(FSHC),從而驗(yàn)證了本文方法的有效性,并與理論分析一致。這同時(shí)說(shuō)明,相對(duì)于傳統(tǒng)的特征選擇框架,提出的框架可以更好地利用數(shù)據(jù)。在特征維度較小時(shí),提出方法相對(duì)于傳統(tǒng)方法分類(lèi)精度提升很大。這是因?yàn)槌跏嫉奶卣骷?lèi)間分離度很小,通過(guò)特征重選擇后,類(lèi)間分離度得到很大的提升,從而分類(lèi)精度隨之提升。
圖2 特征選擇框架測(cè)試結(jié)果Fig.2 The experiment result feature selection framework
基于特征重選擇,本文給出了一個(gè)新穎的高光譜圖像特征選擇框架。通過(guò)特征重選擇,地物的類(lèi)間分離度得到了提高,從而提高了分類(lèi)精度。通過(guò)理論分析和實(shí)驗(yàn),算法的有效性與穩(wěn)定性得到了驗(yàn)證??梢钥闯?,針對(duì)易混淆兩類(lèi)的特征選擇算法在本框架中起著重要的作用,故設(shè)計(jì)相應(yīng)的分離度準(zhǔn)則與搜索算法是一項(xiàng)有意義的工作。
[1]RUIZ P,MATEOS J,CAMPS-VALLS G,et al.Bayesian active remote sensing image classification[J].IEEE Ransactions on Geoscience and Remote Sensing,2014,52(4):2186-2196.
[2]陳善靜,胡以華,石亮,等.空-譜二維蟻群組合優(yōu)化SVM的高光譜圖像分類(lèi)[J].光譜學(xué)與光譜分析,2013,33(8):2192-2197.CHEN Shan-jing,HU Yi-hua,SHI Liang,et al.Classification of hyperspectral imagery based on ant colony compositely optimizing SVM in spatial and spectral features[J].Spectroscopy and Spectral Analysis,2013, 33(8):2192-2197.
[3]HUGHES G.On the mean accuracy of statistical pattern recognizers[J].IEEE Transactions on Information Theory,1968,14(1):55-63.
[4]WEI Li,PRASAD S,F(xiàn)OWLER JE,et al.Locality-Preserving discriminant analysis in Kernel-Induced feature spaces for hyperspectral image classification[J].IEEE Geoscience and Remote Sensing Letters,2011,8(5):894-898.
[5]LUNGA D,PRASAD S,CRAWFORD M M,et al.Manifold-Learning-Based feature extraction for classification of hyperspectral data:a review of advances in manifold learning[J].Ieeesignal Processing Magazine,2014,31(1):55-66.
[6]HSIAO-YUN H,BOR-CHEN K.Double nearest proportion feature extraction for Hyperspectral-Image classification[J].IEEE Transactions on Geoscience and Remote Sensing,2010,48(11):4034-4046.
[7]SHEN Lin-lin,ZHU Ze-xuan,SEN Jia,et al.Discriminative gabor feature selection for hyperspectral image classification[J].IEEE Geoscience and Remote Sensing Letters,2013,10(1):29-33.
[8]CHEN Yang,LIU Si-cong,BRUZZONE L,et al.A Feature-Metric-Based affinity propagation technique for feature selection in hyperspectral image classification[J].IEEEGeoscience and Remote Sensing Letters,2013,10(5):1152-1156.
[9]MAGHSOUDI Y,COLLINSM J, LECKIE D.On the use of feature selection for classifying multitemporal Radarsat-1 images for forest mapping[J].IEEE Geoscience and Remote Sensing Letters,2011,8(5):904-908.