陳善學(xué), 周艷發(fā), 漆若蘭
(重慶郵電大學(xué)移動(dòng)通信技術(shù)重慶市重點(diǎn)實(shí)驗(yàn)室, 重慶 400065)
高光譜圖像具有較高的空間與光譜分辨率的這一特點(diǎn)使其被廣泛的應(yīng)用于各個(gè)領(lǐng)域,例如在軍事、環(huán)境、海洋、地理、農(nóng)業(yè)等領(lǐng)域。在以上的這些領(lǐng)域里,高光譜圖像的分類已經(jīng)成為一個(gè)非常重要的研究?jī)?nèi)容之一。在高光譜圖像中,每個(gè)像元(或像素)都是一個(gè)高維的光譜曲線向量。在一定光譜波段,不同的地物具有不同的反應(yīng)(吸收或反射)。因此,人們可以根據(jù)它們的光譜曲線對(duì)地物進(jìn)行識(shí)別和分類。
基于高光譜圖像的光譜特征,各種分類方法被提出,例如支持向量機(jī)(support vector machine, SVM)方法和其他基于核的分類方法[1-4],人工神經(jīng)網(wǎng)絡(luò)(artificial neural network, ANN)[5]。最近,基于稀疏表示(sparse representation, SR)的分類方法[6-8]越來越多地被應(yīng)用于高光譜圖像的分類,稀疏表示分類(sparse representation classification, SRC)方法通過全部訓(xùn)練樣本的稀疏線性組合來重構(gòu)表示一個(gè)測(cè)試樣本,然后通過最小表示殘差來分類測(cè)試樣本。通過一種協(xié)同表示機(jī)制,在高光譜圖像的分類中,SRC表現(xiàn)出了比較良好的分類性能。文獻(xiàn)[9]提出一種基于稀疏表示的任務(wù)驅(qū)動(dòng)字典學(xué)習(xí)算法,該算法僅僅用了少量的訓(xùn)練樣本。文獻(xiàn)[10]通過利用相鄰像元之間具有相似的特性,將其最近的相鄰像素對(duì)所有像素進(jìn)行空間平均,形成一種聯(lián)合協(xié)作表示形式,極大地提高了算法的分類精度。通過加入空間信息,文獻(xiàn)[11]提出一種聯(lián)合稀疏表示模型(joint sparse representation model, JSM),或者同時(shí)正交匹配追蹤(simultaneous orthogonal matching pursuit, SOMP),在該模型中待測(cè)試像元與其空間鄰域的像元通過少量共同的訓(xùn)練樣本稀疏線性組合同時(shí)稀疏表示。在JSM框架中,待測(cè)試像元與其鄰域像元共享同一個(gè)稀疏模型并且鄰域像元對(duì)中心像元有同等的貢獻(xiàn)。在待測(cè)試像元分類過程中通過并入空間鄰域信息,JSM分類方法能夠?qū)崿F(xiàn)很好的分類效果,然而,該算法對(duì)待測(cè)試中心像元鄰域的像元均予以相同的權(quán)重,對(duì)于同構(gòu)區(qū)域是非常合適的,對(duì)于異構(gòu)區(qū)域就會(huì)導(dǎo)致錯(cuò)誤的分類,尤其是邊界部分?;谖墨I(xiàn)[11]提出聯(lián)合稀疏模型框架思想,文獻(xiàn)[12]提出一種聯(lián)合魯棒性稀疏表示分類算法,在聯(lián)合稀疏模型的基礎(chǔ)上充分利用殘差波段中包含的特征信息對(duì)分類的影響,通過套索[13]萊斯塔特絕對(duì)收縮和選擇算子(least absolute shrinkage and selection operator,LASSO)算法最優(yōu)化稀疏系數(shù)與殘差,從而分類待測(cè)樣本??紤]到鄰域像元的獨(dú)特性,文獻(xiàn)[14]提出了非局部權(quán)重聯(lián)合稀疏表示分類(nonlocal weigth joint sparse representation classification, NLW-JSRC)算法,主要?jiǎng)?chuàng)新在于在鄰域像元上引入非局部權(quán)重來反映中心測(cè)試像元與鄰域像元的相關(guān)性。上述兩種聯(lián)合稀疏表示分類模型第一次定義中心測(cè)試像元周圍的鄰域像元為與其最近的n×n正方形內(nèi)的鄰域像元并且在中心測(cè)試像元所在的局部區(qū)同時(shí)聯(lián)合稀疏表示中心像元與鄰域像元來分類中心測(cè)試像元。JSM對(duì)鄰域像元均予以相同的權(quán)重,而NLW-JSRC對(duì)不同鄰域像元予以不同權(quán)重。此外,聯(lián)合稀疏表示模型也經(jīng)常被用于目標(biāo)檢測(cè)與生物識(shí)別等領(lǐng)域[15]。
基于NLW-JSRC算法的思想,提出基于核函數(shù)的聯(lián)合稀疏表示分類方法。主要方法在于考慮到在中心測(cè)試像元分類過程中不同的鄰域像元對(duì)其分類有不一樣貢獻(xiàn)。與以上兩種聯(lián)合稀疏模型不同之處在于對(duì)每個(gè)中心測(cè)試像元與其周圍所有的鄰域像元均求一次權(quán)重,然后取權(quán)重最大的T個(gè)不規(guī)則鄰域像元為最優(yōu)鄰域窗口。本文采用3種核函數(shù)[16]來自適應(yīng)對(duì)待測(cè)中心像元的鄰域像元賦予權(quán)重。這種自適應(yīng)加權(quán)方案不僅可以計(jì)算待測(cè)中心像元的局部鄰域像元權(quán)重大小,還可以計(jì)算整個(gè)圖像的鄰域像元權(quán)重大小。
在高光譜圖像,通常相鄰像元由相似地物組成,它們存在極大的可能屬于同一地物,因此可以共享同一個(gè)稀疏模型。假設(shè)有C類不同的地物,每類均有n個(gè)訓(xùn)練樣本,則由所有訓(xùn)練樣本組成的字典可以表示為A=[A1,A2,…,AC]∈RB×N,其中,B表示高光譜圖像的光譜波段數(shù);N為C類訓(xùn)練樣本字典組成的訓(xùn)練樣本總數(shù);AC為第C類字典。待測(cè)中心像元與其鄰域像元可以表示為Y=[y1,y2,…,yT]∈RB×T,其中,y1為待測(cè)的中心像元;其余像元為y1的鄰域像元;T為待測(cè)中心像元與其鄰域像元數(shù)量的總和。
因此在聯(lián)合稀疏表示模型中,Y可以表示為
Y=[Aα1,Aα2,…,AαT]=AS
(1)
式中,S=[α1,α2,…,αT]∈RN×T為稀疏矩陣;ai(i∈[1,T])為只有K(K
(2)
式中,‖·‖F(xiàn)表示Frobenius范數(shù);‖S‖row,0表示S矩陣非零行的行數(shù);K為稀疏系數(shù)的上限值。SOMP算法能夠用于解決式(2)的優(yōu)化問題。稀疏系數(shù)矩陣S可通過式(2)求得,則待測(cè)中心像元便可以根據(jù)重構(gòu)殘差被分類出來,其表達(dá)式為
(3)
在JSM中,在局部鄰域內(nèi)的像元均相似并被予以相同的權(quán)重。然而,不是所有的局部鄰域像元都是同一類地物,尤其是圖像邊界地區(qū)由不同種類的地物組成。為了更好的區(qū)分鄰域像元,文獻(xiàn)[14]提出NLW-JSRC分類算法,其表達(dá)式為
(4)
式中,W=diag{w1,w2,…,wT}為對(duì)角權(quán)重矩陣。在論文中一種非局部權(quán)重聯(lián)合稀疏表示分類算法被用于測(cè)量中心像元與鄰域像元的相似度。
在JSRC分類算法中,利用像元間的空間位置信息,即相鄰像元具有相似性,可以共享同一稀疏模型,從而建立一個(gè)JSM。在NLW-JSRC分類算法中,基于JSM框架提出非局部權(quán)重思想,充分利用鄰域像元間的相似性與獨(dú)特性。文獻(xiàn)[9]提出的聯(lián)合核函數(shù)表示方法計(jì)算鄰域像元權(quán)重的基礎(chǔ)上,提出一種改進(jìn)核函數(shù)的聯(lián)合稀疏表示分類算法。算法主要?jiǎng)?chuàng)新在于將測(cè)量像元空間信息的核函數(shù)與測(cè)量像元光譜信息的核函數(shù)以一定比例結(jié)合并采用JSM框架來聯(lián)合稀疏表示分類,即相鄰且相似的像元共用同一稀疏表示模型來進(jìn)行地物的分類。最終根據(jù)改進(jìn)的聯(lián)合核函數(shù)計(jì)算待測(cè)中心像元與鄰域像元的權(quán)重來自適應(yīng)的選擇每個(gè)待測(cè)像元的最優(yōu)鄰域。核函數(shù)的選擇如文獻(xiàn)[16]所示的3種核函數(shù),其表達(dá)式為
(5)
式中,Ep,q、Gp,q、Cp,q分別為指數(shù)核函數(shù)、高斯核函數(shù)、余弦核函數(shù),其中xp、xq、μd分別表示待測(cè)中心像元的像素坐標(biāo)、鄰域像元的像素坐標(biāo)、像素空間距離標(biāo)準(zhǔn)差,μd的求解由文獻(xiàn)[9]可知。式(5)中的3種核函數(shù)用于計(jì)算待測(cè)中心像元與鄰域像元空間距離權(quán)重。
在高光譜圖像中,由于每種地物邊界部分均可能存在多種其混合地物以及基于測(cè)量空間距離的核函數(shù)K對(duì)距離待測(cè)中心像元較近的地物會(huì)賦予較大的權(quán)重而造成類別的錯(cuò)分。針對(duì)以上問題本文提出對(duì)空間距離權(quán)重K與光譜距離權(quán)重GS(p,q)予以1:λ(λ>0)的比重,其表達(dá)式為
(6)
wp,q=K*GS(p,q)
(7)
式(6)中,GS(p,q)表示待測(cè)中心像元與鄰域像元的光譜相似權(quán)重;xp、xq、μs分別表示待測(cè)中心像元光譜值、鄰域像元光譜值以及光譜標(biāo)準(zhǔn)差;μs亦可由文獻(xiàn)[9]得知。式(7)中,wp,q是由兩種核函數(shù)結(jié)合,即空間距離與光譜距離結(jié)合并用于度量待測(cè)中心像元與鄰域像元的相似性,即計(jì)算鄰域權(quán)重。當(dāng)權(quán)重wp,q小于某一閾值δ(0<δ)時(shí),像元xp與xq屬于不同地物,當(dāng)權(quán)重wp,q大于δ時(shí),像元xp與xq權(quán)重為wp,q。因此,采用文獻(xiàn)[14]提出的權(quán)重改善方案,并在此基礎(chǔ)上進(jìn)行改進(jìn),其表達(dá)式為
(8)
通過式(6)~式(8)計(jì)算得到的權(quán)重Wp,q可以計(jì)算出每個(gè)待測(cè)中心像元的最優(yōu)鄰域T,求每個(gè)待測(cè)中心像元鄰域大小的基本流程如圖1所示。
圖1 聯(lián)合核函數(shù)算法流程圖Fig.1 Block diagram of combined kernel function
由圖1可知,該算法不同于JSRC分類算法和NLW-JSRC分類算法均以待測(cè)試像元為中心取周圍的n×n像元作為鄰域窗口大小,而是通過聯(lián)合核函數(shù)算法計(jì)算每個(gè)待測(cè)中心像元的鄰域像元權(quán)重來選擇鄰域窗口,窗口是不規(guī)則且大小不同,并且每個(gè)鄰域窗口大小都是此算法下最優(yōu)鄰域。
根據(jù)兩個(gè)數(shù)據(jù)集地物分布的特點(diǎn):Indian Pines數(shù)據(jù)集的地物比較集中,而University of Pavia相對(duì)分散。測(cè)量距離權(quán)重選擇高斯核函數(shù)對(duì)University of Pavia數(shù)據(jù)集分類比較合適,而指數(shù)核函數(shù)對(duì)Indian Pines數(shù)據(jù)集分類較為合適,通過文獻(xiàn)[16]對(duì)3種核函數(shù)進(jìn)行了分析,提出將指數(shù)型核函數(shù)與余弦型核函數(shù)結(jié)合來強(qiáng)化高斯核函數(shù)加權(quán)不足和弱化指數(shù)型核函數(shù)過度加權(quán),其表達(dá)式為
(9)
KK表示兩種核函數(shù)結(jié)合后的空間距離核函數(shù),即余弦型指數(shù)核函數(shù)。KK與其他核函數(shù)的曲線圖如圖2所示。
圖2 4種核函數(shù)權(quán)重曲線圖Fig.2 Weight curves of four kinds of kernel functions
分析圖2可知,隨著像元之間的歐氏距離增大,指數(shù)核函數(shù)下降很快以至于加權(quán)過重,高斯核函數(shù)和余弦核函數(shù)的曲線下降得較為緩慢。而本文改進(jìn)的余弦型指數(shù)核函數(shù)在距離較小時(shí)權(quán)重很大,隨著距離的增大而權(quán)重減小,余弦型指數(shù)核函數(shù)的這一特點(diǎn)彌補(bǔ)了高斯型核函數(shù)加權(quán)不足而指數(shù)型核函數(shù)加權(quán)過度的缺點(diǎn)。
通過分析,將式(7)轉(zhuǎn)化成式(10)為
(10)
式中,權(quán)重wp,q可以通過如上3種聯(lián)合核函數(shù)求得,基于光譜與空間距離的聯(lián)合核函數(shù)的聯(lián)合稀疏表示分類算法的基本模型如式(4)所示。其中W=diag{w1,w2,…,wT}為對(duì)角權(quán)重矩陣,它的對(duì)角元素wp,q表示周圍鄰域像元對(duì)中心像元xp貢獻(xiàn)的大小即權(quán)重,權(quán)重Wp,q如式(10)所示。通過以上權(quán)重公式計(jì)算出每個(gè)待測(cè)中心像元與周圍所有鄰域像元權(quán)重Wp,q的大小來選擇最優(yōu)的鄰域T的大小,最終通過JSM計(jì)算出如下所示的重構(gòu)殘差來分類中心測(cè)試像元y為
(11)
將上述基于JSM算法框架而改進(jìn)聯(lián)合核函數(shù)聯(lián)合稀疏表示分類算法的具體流程總結(jié)成如算法1所示。
算法1基于核函數(shù)的聯(lián)合稀疏表示分類算法
輸入在每類地物中隨機(jī)選取同樣大小樣本組成訓(xùn)練類字典A=[A1,A2,…,AC]
初始化初始?xì)w一化字典A
For高光譜圖像中的每個(gè)像元y:
(2) 構(gòu)建聯(lián)合信號(hào)矩陣Y=[y1,y2,…,yT]∈RB×T,并且歸一化聯(lián)合信號(hào)矩陣Y;
(3) 通過式(4)計(jì)算系數(shù)稀疏矩陣S;
(4) 通過式(10)計(jì)算殘差r,并標(biāo)記測(cè)試樣本y;
(5) 返回下一個(gè)待測(cè)像元。
End For
輸出一個(gè)所有像元均帶標(biāo)簽的二維矩陣
Indian Pines:Indian Pines圖像是在1992年通過AVIRIS傳感器獲得的。圖像大小為145×145個(gè)像素,共有220個(gè)波段,把其中水吸收和噪聲波段去掉,最終剩下200個(gè)波段,獲得的數(shù)據(jù)共包含16個(gè)類別。本次實(shí)驗(yàn)集選取其中的9個(gè)樣本較多的類進(jìn)行分類實(shí)驗(yàn)。這9類分別為:免耕玉米(Corn-notill),少耕玉米(Corn-mintill),草牧場(chǎng)(Grass-pasture),草樹(Grass-trees),干草勻堆料(Hay-windrowed),免耕大豆(Soybean-notill),少耕大豆(Soybean-mintill),凈耕大豆(Soybean-clean),木材(Woods)。
University of Pavia:University of Pavia圖像是在2001年通過ROSIS傳感器獲得的,圖像大小為610×340個(gè)像素,共有115個(gè)波段,除去其中水吸收和噪聲波段去掉,剩下其中103個(gè)波段,該圖像總共包含9個(gè)類別地物分別為:瀝青(Asphalt),草地(Meadows),礫石(Gravel),樹(Trees),金屬板材(Painted metal sheets),裸露土壤(Bare Soil),柏油屋頂(Bitumen),自擋磚(Self-Blocking Bricks),陰影(Shadows)。
仿真實(shí)驗(yàn)在主頻3.7 GHz,內(nèi)存8 GB的PC機(jī)上進(jìn)行,操作系統(tǒng)為Window(64位),仿真平臺(tái)為Matlab2014a(64位)。本文提出的核函數(shù)聯(lián)合稀疏表示(K-JSRC)算法對(duì)比于其他算法,例如NLW-JSRC、SOMP、SRC、SVM算法。本文將在Indian Pines和University of Pavia兩個(gè)數(shù)據(jù)集上進(jìn)行不同的仿真對(duì)比。在Indian Pines數(shù)據(jù)集上,通過對(duì)比幾組在訓(xùn)練樣本大小不同的條件下的總體分類精度、Kappa系數(shù)(K)來評(píng)估算法的分類性能。在University of Pavia數(shù)據(jù)集上,通過對(duì)比每類的分類精度、總體分類精度、Kappa系數(shù)(K)來評(píng)估算法的分類性能。
參數(shù)設(shè)置:在Indian Pines數(shù)據(jù)集中NLW-JSRC、JSRC、SRC訓(xùn)練樣本的大小的取值如表1所示。SVM算法中的RBF核的γ值設(shè)置為高光譜數(shù)據(jù)維度的倒數(shù),正則化參數(shù)c實(shí)驗(yàn)時(shí)設(shè)置為林智仁教授libsvm工具包中的默認(rèn)參數(shù)1。由文獻(xiàn)[11,14]可知,JSRC算法與NLW-JSRC算法的最優(yōu)鄰域大小T為5×5和9×9。
圖3 University of Pavia數(shù)據(jù)集上參數(shù)λ對(duì)總體分類精度的影響Fig.3 Effects of upper parameters λ on the overall classification accuracy of the
圖4 University of Pavia數(shù)據(jù)集上參數(shù)w1和w2對(duì)總體分類精度的影響 Fig.4 Effects of upper parameters w1 and w2 on the overall classification accuracy of the University of Pavia dataset
在Indian Pines數(shù)據(jù)集上,通過5組在不同訓(xùn)練樣本的精度對(duì)比,每類訓(xùn)練樣本均隨機(jī)選,其余作為測(cè)試樣本。在University of Pavia數(shù)據(jù)集上,我們?cè)诿款愒又须S機(jī)選取30個(gè)作為訓(xùn)練樣本,其余為測(cè)試樣本。實(shí)驗(yàn)重復(fù)10次取平均值,在兩個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果如表1和表2所示。
對(duì)比表1與表2分類結(jié)果和圖5與圖6的分類效果可知,我們可以得出如下幾點(diǎn)結(jié)論:
(1) 在兩個(gè)數(shù)據(jù)集上,對(duì)比于其他算法,本文提出的3種K-JSRC算法展現(xiàn)了更好的分類效果,而其中CEK-JSRC算法在3種K-JSRC算法中分類效果最好。從效果圖也能看出本文提出的核算法分類效果最好,由于CEK-JSRC算法只比其他兩種核函數(shù)算法的精度高1至2個(gè)百分點(diǎn),所以效果圖并不是很明顯,但相對(duì)其他對(duì)比算法還是要明顯一些。
(2) 在Indian Pines數(shù)據(jù)集上EK-JSRC算法的分類精度要好于GK-JSRC算法,而在University of Pavia數(shù)據(jù)集上要差于GK-JSRC算法。主要原因在于Indian Pines數(shù)據(jù)集上地物更集中,在一定的鄰域范圍內(nèi),距離待測(cè)中心像元越近權(quán)重越大更有利于提高分類精度,而University of Pavia數(shù)據(jù)集上的地物較之為分散。
(3) 基于空間-光譜的分類算法(JSRC,NLW-JSRC,K-JSRC)明顯要優(yōu)于基于光譜分類算(OMP,SVM)。
(4) 對(duì)比JSRC算法,本文提出K-JSRC算法加入了光譜權(quán)重,對(duì)鄰域像元特別是邊界的不同地物像元的判別有了很大改進(jìn)。對(duì)比于NLW-JSRC算法,本文提出的3種K-JSRC算法對(duì)每個(gè)待測(cè)像元求鄰域權(quán)重和最優(yōu)鄰域大小,因此,K-JSRC算法分類精度要于NLW-JSRC算法和JSRC算法。
表1 Indian Pines數(shù)據(jù)集分類精度
圖5 Indian Pines數(shù)據(jù)集分類結(jié)果Fig.5 Classification result in Indian Pines data set
類#樣本訓(xùn)練測(cè)試分類算法SVMOMPJSRCNLW?JSRCK?JSRCGaussianExponentialCosineExponentialAsphalt30663176.1556.6788.3787.5991.5592.1193.09BareSoil301864972.0668.8980.5188.9382.0480.9391.46Bitumen30209970.4265.5488.6179.3679.7078.8397.44Bricks30306493.3092.0980.8286.3593.9493.2495.39Gravel30134599.1199.391199.7099.8599.75Meadows30502984.2463.3976.5178.8497.2897.3477.14Metalsheets30133091.7883.8595.2480.4699.4699.8599.00Shadows30368279.3461.9454.6845.9569.1765.9949.14Trees3094799.7890.0865.5477.2183.8682.7794.77總體分類精度/%78.6670.1081.6084.0287.3686.7988.41稀疏度K71.0660.5474.5876.2779.9780.7181.93
圖6 University of Pavia數(shù)據(jù)集分類結(jié)果Fig.6 Classification result University of Pavia data set
本文提出的基于核函數(shù)的聯(lián)合稀疏表示分類算法改善了JSRC算法對(duì)邊界像元分類不完全及NLW-JSRC算法未充分挖掘每個(gè)待測(cè)像元的最優(yōu)鄰域像元的不足。改進(jìn)傳統(tǒng)核函數(shù)對(duì)權(quán)重計(jì)算上的不足,引入余弦型高斯核函數(shù)來改善權(quán)重,測(cè)量每個(gè)待測(cè)中心像元鄰域像元相似度并自適應(yīng)的得到每個(gè)待測(cè)中心像元最優(yōu)鄰域T的大小。在兩個(gè)數(shù)據(jù)集上的仿真實(shí)驗(yàn)結(jié)果表明,該算法在精度與穩(wěn)定性上要優(yōu)于同類算法與傳統(tǒng)的分類算法。但是,研究工作還有幾處待改進(jìn)的地方,例如,如何進(jìn)一步優(yōu)化權(quán)重與比重,如何進(jìn)一步增強(qiáng)算法的自適應(yīng)性和穩(wěn)定性等。
[1] FARID M, LORENZO B. Classification of hyperspectral remote sensing images with support vector machines[J]. IEEE Trans.on Geoscience and Remote Sensing, 2004, 42(8): 1778-1790.
[2] BOR-CHEN K, HSIN-HUA H, Hsuan C A. Kernel-based feature selection method for SVM with RBF kernel for hyperspectral image classification[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(1): 317-320.
[3] GUSTAVO C V, LORENZO B. Kernel-based methods for hyperspectral image classification[J]. IEEE Trans.on Geoscience and Remote Sensing, 2005, 43(6): 1351-1362.
[4] LIU T Z, GU Y F, JIA X P, et al. Class-specific sparse multiple kernel learning for spectral-spatial hyperspectral image classification[J]. IEEE Trans.on Geoscience and Remote Sensing, 2005, 43(6): 1351-1362.
[6] ZHANG B, LAN T, HUANG X, et al. Spatial-spectral kernel sparse representation for hyperspectral image classification[J]. IEEE Journal of Selected Topics in Applied Earth Observations & Remote Sensing, 2013, 6(6): 2462-2471.
[7] LI W, DU Q. Adaptive sparse representation for hyperspectral image classification[C]∥Proc.of the IEEE Geoscience and Remote Sensing Symposium, 2015: 4955-4958.
[8] JIA S, ZHANG X, LI Q. Spectral-spatial hyperspectral image classification using, regularized low-rank representation and sparse representation-based graph cuts[J]. IEEE Journal of Selected Topics in Applied Earth Observations & Remote Sensing, 2015, 8(6): 2473-2484.
[9] WANG Z, NASRABADI N M, HUANG T S. Semisupervised hyperspectral classification using task-driven dictionary learning with laplacian regularization[J]. IEEE Trans.on Geoscience & Remote Sensing, 2015, 53(3): 1161-1173.
[10] XIONG M, RAN Q, et al. Hyperspectral image classification using weighted joint collaborative representation[J]. IEEE Geoscience & Remote Sensing Letters,2015,12(6):1209-1213.
[11] CHEN Y, NASRABADI N M, TRAN T D. Hyperspectral image classification using dictionary-based sparse representation[J]. IEEE Trans.on Geoscience & Remote Sensing, 2011, 49(10): 3973-3985.
[12] LI C, MA Y, MEI X, et al. Hyperspectral image classification with robust sparse representation[J]. IEEE Geoscience & Remote Sensing Letters, 2016, 13(5): 641-645.
[13] TIBSHIRANI R. Regression shrinkage and selection via the lasso[J]. Journal of the Royal Statistical Society, 1996, 58(3): 267-288.
[14] ZHANG H, LI J, HUANG Y, et al. A nonlocal weighted joint sparse representation classification method for hyperspectral imagery[J]. IEEE Journal of Selected Topics in Applied Earth Observations & Remote Sensing, 2014, 7(6): 2056-2065.
[15] SHEKHAR S, PATEL V M, NASRABADI N M, et al. Joint sparse representation for robust multimodal biometrics recognition[J]. IEEE Trans.on Pattern Analysis & Machine Intelligence, 2014, 36(1): 113-126.
[16] TIAN J, YU W Y, XIE S L. On the kernel function selection of nonlocal filtering for image denoising[C]∥Proc.of the IEEE International Conference on Machine Learning and Cybernetics, 2008: 2964-2969.
[17] ZHANG L, ZHOU W D, CHANG P C, et al. Kernel sparse representation-based classifier[J]. IEEE Trans.on Signal Processing, 2012, 60(4): 1684-1695.