亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度極限學(xué)習(xí)機(jī)的高光譜遙感影像分類研究

        2018-03-21 09:58:46飛,
        關(guān)鍵詞:分類方法

        呂 飛, 韓 敏

        ( 大連理工大學(xué) 電子信息與電氣工程學(xué)部, 遼寧 大連 116024 )

        0 引 言

        高光譜遙感圖像主要包含空間、輻射和光譜3個(gè)至關(guān)重要的信息,其圖像在空間成像的過程中,使用光譜技術(shù)和光學(xué)成像技術(shù),并將兩種技術(shù)融合在一起,將每個(gè)目標(biāo)像素空間分散后,得到幾十至幾百個(gè)窄帶,從而進(jìn)行連續(xù)的光譜覆蓋,這些信息和技術(shù)使得地物的準(zhǔn)確分類成為了可能[1-2].將加大數(shù)據(jù)維數(shù),選取更多數(shù)據(jù)樣本作為前提,同時(shí)擴(kuò)展頻帶信息,使得模型的冗余度加大,雖然這樣提高了高光譜遙感圖像的光譜分辨率,但是卻大大影響了模型數(shù)據(jù)的處理速度,同時(shí)也降低了模型的精度,影響目標(biāo)識(shí)別.此外,Hughes現(xiàn)象是一種高維遙感數(shù)據(jù)中常見現(xiàn)象,表征了高維數(shù)據(jù)與低樣本量間的問題,是現(xiàn)在國(guó)內(nèi)外相關(guān)課題組研究的重點(diǎn)[3].

        針對(duì)Hughes現(xiàn)象,一般情況下采用減少維度的方法.減少維度在某種程度上,可以有效處理高維數(shù)據(jù)和低樣本量間的問題,削弱了該現(xiàn)象所帶來的不好的分類結(jié)果,降低了模型的信息冗余度,有效地增強(qiáng)了模型的計(jì)算效率.針對(duì)高光譜遙感數(shù)據(jù),適用的降維方法有特征提取和波段選擇.特征提取方法使用模型空間轉(zhuǎn)換,數(shù)據(jù)樣本直接從高維空間映射到低維空間,在高光譜遙感數(shù)據(jù)分類中起到了非常重要的作用.但使用特征提取方法也存在著一些不足.針對(duì)高光譜遙感數(shù)據(jù),使用波段選擇方法可以保持原有的性質(zhì),有效地反映相關(guān)波段的分類.但該方法也存在著一些局限性:數(shù)據(jù)量大,操作煩瑣,處理時(shí)間長(zhǎng),對(duì)模型的適用性具有很大的束縛,不能很好地提高模型的魯棒性,有時(shí)還會(huì)導(dǎo)致模型整體的精度下降[3].

        深度學(xué)習(xí)可以視為神經(jīng)網(wǎng)絡(luò)的延續(xù)與升華,通過模擬大腦的學(xué)習(xí)過程,從低級(jí)到高級(jí)地輸入數(shù)據(jù)逐步進(jìn)行特征提取,最終形成模式分類的理想特征,從而提高分類精度.Hinton等采用深度學(xué)習(xí)模型實(shí)現(xiàn)數(shù)據(jù)的維數(shù)縮減和分類,并指出神經(jīng)網(wǎng)絡(luò)的深層結(jié)構(gòu)可以更深入地學(xué)習(xí)對(duì)象的基本特征,分類性能強(qiáng)[4-8].目前,深度學(xué)習(xí)已經(jīng)在語音識(shí)別、圖像識(shí)別和信息檢索等方面取得了較好的成果[9-11].然而深度學(xué)習(xí)應(yīng)用于高光譜遙感圖像分類相對(duì)較少[12-18],為此本文提出基于深度極限學(xué)習(xí)機(jī)(deep extreme learning machine,D-ELM)的高光譜遙感圖像分類方法,并應(yīng)用于高光譜遙感圖像分類以驗(yàn)證其有效性.

        1 深度神經(jīng)網(wǎng)絡(luò)原理

        1.1 自動(dòng)編碼器

        自動(dòng)編碼器(auto-encoder,AE)主要分為3個(gè)部分:輸入層、隱含層和輸出層.其3層結(jié)構(gòu)的作用是將輸出與輸入盡量保持一致.其使用過程主要包括編碼和解碼兩部分.編碼是先對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行線性映射,再進(jìn)行非線性變換,求得隱含層表示.設(shè)樣本集為X={xi} (i=1,2,…,N),輸入樣本xi對(duì)應(yīng)的隱含層表示為

        hi=f(xi)=gh(W1xi+b1)

        (1)

        其中W1和b1分別代表編碼時(shí)輸入層與隱含層之間的權(quán)重和偏置,gh(·)表示隱含層的激勵(lì)函數(shù).解碼是將編碼后的輸出轉(zhuǎn)換成原空間,求得的解碼信號(hào)

        x^

        i可表示為

        i=g(xi)=go(W2hi+b2)

        (2)

        其中W2和b2分別代表解碼時(shí)輸入層與隱含層之間的權(quán)重和偏置,go(·)表示輸出層的激勵(lì)函數(shù).自動(dòng)編碼器的目的就是使輸出和輸入趨于一致,模型參數(shù)將誤差降到最低,從而構(gòu)建效果最優(yōu)的模型.其目標(biāo)函數(shù)如下:

        J(W1,W2,b1,b2)=argminW1,W2,b1,b2∑Ni=1xi-x^i22

        (3)

        訓(xùn)練完網(wǎng)絡(luò)第1層后,再把隱含層的激活值作為下一層網(wǎng)絡(luò)的輸入,依此類推,形成棧式自動(dòng)編碼器(stacked auto-encoder,SAE).

        1.2 棧式自動(dòng)編碼器

        棧式自動(dòng)編碼器主要應(yīng)用于模型學(xué)習(xí)和特征提取.棧式自動(dòng)編碼器第1步是確定參數(shù),在該環(huán)節(jié)適用貪婪算法,對(duì)網(wǎng)絡(luò)的每一層進(jìn)行計(jì)算;參數(shù)確定后,再?gòu)木W(wǎng)絡(luò)最上層調(diào)整網(wǎng)絡(luò)參數(shù).若最上層不添加標(biāo)簽信息,則該學(xué)習(xí)過程為無監(jiān)督的特征訓(xùn)練過程; 若最上層加入樣本數(shù)據(jù)的標(biāo)簽信息,不斷調(diào)整網(wǎng)絡(luò)參數(shù),則這個(gè)學(xué)習(xí)過程為有監(jiān)督的特征訓(xùn)練過程.棧式自動(dòng)編碼器網(wǎng)絡(luò)架構(gòu)如圖1所示.

        在圖1中,網(wǎng)絡(luò)一共有M層,最高層的隱含層就是網(wǎng)絡(luò)的輸出.一般情況下,將該網(wǎng)絡(luò)和softmax分類器一起使用,整合后的模型可以達(dá)到分類識(shí)別的目的.網(wǎng)絡(luò)整體參數(shù)微調(diào)的目標(biāo)函數(shù)為

        (4)

        其中yi表示樣本xi對(duì)應(yīng)的標(biāo)簽,Wk和bk分別表示整個(gè)網(wǎng)絡(luò)各層的權(quán)重和偏置[9].

        圖1 棧式自動(dòng)編碼器網(wǎng)絡(luò)架構(gòu)Fig.1 The network architecture of SAE

        2 特征提取

        高光譜遙感圖像數(shù)據(jù)維度偏高,數(shù)據(jù)量較少,維度相互間具有較強(qiáng)的內(nèi)聚性.深度神經(jīng)網(wǎng)絡(luò)模型對(duì)輸入數(shù)據(jù)的數(shù)量有較高的要求,數(shù)據(jù)量需要達(dá)到一定程度,深度神經(jīng)網(wǎng)絡(luò)模型才能發(fā)揮比較好的作用.為此必須先對(duì)數(shù)據(jù)進(jìn)行處理,在數(shù)據(jù)作為輸入樣本進(jìn)入模型前,對(duì)數(shù)據(jù)進(jìn)行添加和降維.

        高光譜遙感圖像訓(xùn)練數(shù)據(jù)少,不能很好地滿足深度神經(jīng)網(wǎng)絡(luò)模型的要求,本文采用鄰近像元相加求平均值的方法進(jìn)行數(shù)據(jù)量的擴(kuò)充,利用空間相關(guān)性,在不改變樣本屬性的前提下,增加一些新的樣本數(shù)據(jù),提高了模型的訓(xùn)練數(shù)據(jù)量.

        高光譜遙感圖像數(shù)據(jù)具有同類別相同區(qū)域密度較高的特點(diǎn),即具有較好的空間相關(guān)性.所以利用這個(gè)特點(diǎn),對(duì)輸入數(shù)據(jù)進(jìn)行整體調(diào)整,可以有效提高模型總體分類精度.如果簡(jiǎn)單地采用將訓(xùn)練像元和周圍鄰居像元相加作為輸入的話,就會(huì)帶來很高的維度和很大的冗余.

        為了獲取較低的維度,并且保證一定的空間相關(guān)性,需要使用特征提取方法對(duì)訓(xùn)練樣本數(shù)據(jù)進(jìn)行降維.棧式自動(dòng)編碼器和主成分分析(principal component analysis,PCA)都可以對(duì)數(shù)據(jù)進(jìn)行降維.區(qū)別在于棧式自動(dòng)編碼器為非線性降維,而主成分分析為線性降維.相比之下,棧式自動(dòng)編碼器能夠更好地保留數(shù)據(jù)特征.因此,本文采用棧式自動(dòng)編碼器進(jìn)行數(shù)據(jù)降維.

        3 基于深度極限學(xué)習(xí)機(jī)的高光譜圖像分類

        3.1 基于極限學(xué)習(xí)機(jī)的自動(dòng)編碼器

        除了基于極限學(xué)習(xí)機(jī)[19](extreme learning machine,ELM)的單隱層前饋神經(jīng)網(wǎng)絡(luò),ELM也被用于構(gòu)建多層感知機(jī)的自動(dòng)編碼器.概念上,自動(dòng)編碼器在多層學(xué)習(xí)框架里作為某種特征提取器.?dāng)?shù)學(xué)上,自動(dòng)編碼器將輸入數(shù)據(jù)x映射到高維表示,然后用隱式表示y通過一個(gè)確定性的映射y=hθ(x)=gh(A·x+b),由θ={A,b}參數(shù)化,其中A為d′×d權(quán)值矩陣,b為偏置向量.然后,隱式表示y映射回重構(gòu)向量z在輸入空間z=hθ′(y)=go(A′·y+b′),其中θ′={A′,b′}.

        使用隨機(jī)映射輸出作為隱式表示y,可容易地構(gòu)建基于ELM的自動(dòng)編碼器.x的重構(gòu)可以看作是一個(gè)ELM學(xué)習(xí)問題,其中A′可通過求解正則化最小均方優(yōu)化問題得到.由于原始ELM中使用L2懲罰,ELM自動(dòng)編碼提取的特征趨向于稠密,并可能具有冗余值.在這種情況下,更稀疏的解是首選.

        與傳統(tǒng)深度學(xué)習(xí)算法中使用的自動(dòng)編碼器不同,ELM自動(dòng)編碼器的輸入權(quán)值是通過搜索隨機(jī)空間的返回路徑建立的.ELM學(xué)習(xí)理論已證明,訓(xùn)練具有隨機(jī)映射輸入權(quán)值的ELM已足夠逼近任意的輸入數(shù)據(jù).也就是說,如果按照ELM的概念訓(xùn)練自動(dòng)編碼器,自動(dòng)編碼器一旦初始化,就不再需要調(diào)優(yōu).

        此外,為獲得輸入更完備的特征,L1優(yōu)化被用于構(gòu)建ELM自動(dòng)編碼器.因此,ELM自動(dòng)編碼器的優(yōu)化模型可以表示為

        (5)

        其中X表示輸入數(shù)據(jù),H表示隨機(jī)映射輸出,β表述想要獲得的隱含層權(quán)值.在現(xiàn)存的深度學(xué)習(xí)方法中,X通常是基于β的編碼輸出,而β在優(yōu)化的迭代中是需要進(jìn)行調(diào)整的.在ELM自動(dòng)編碼器中,由于隱含層特征提取利用了隨機(jī)映射,X為原始數(shù)據(jù),H為無須進(jìn)行調(diào)整的隨機(jī)初始化輸出.

        下面將給出L1優(yōu)化問題的求解描述.為表達(dá)清晰,將目標(biāo)函數(shù)(5)重定義為

        Fβ=p(β)+q(β)

        (6)

        本文采用快速迭代收縮閾值算法(fast iterative shrinkage-thresholding algorithm, FISTA) 求解優(yōu)化問題(6).快速迭代收縮閾值算法最小化光滑凸函數(shù)的計(jì)算復(fù)雜度為O(1/j2),其中j表示迭代次數(shù).快速迭代收縮閾值算法的實(shí)施細(xì)節(jié)如下:

        (2)令y1=β0∈Rn,t1=1為初始點(diǎn),開始迭代.對(duì)j(j≥1)有:

        ①βj=sγ(yj),其中sγ由下式計(jì)算得出:

        (7)

        通過計(jì)算上面的迭代步,可從被干擾的數(shù)據(jù)中恢復(fù)數(shù)據(jù).通過將結(jié)果基于β作為ELM自動(dòng)編碼器的權(quán)值,輸入和學(xué)習(xí)特征的內(nèi)積可形成原始數(shù)據(jù)的完備表示.

        3.2 深度極限學(xué)習(xí)機(jī)

        深度極限學(xué)習(xí)機(jī)基于如圖2所示的多層框架.與傳統(tǒng)深度學(xué)習(xí)算法的貪婪訓(xùn)練框架不同,深度極限學(xué)習(xí)機(jī)訓(xùn)練框架在結(jié)構(gòu)上分為兩個(gè)不同的階段:無監(jiān)督特征表示,監(jiān)督特征分類.在第1階段,基于ELM的自動(dòng)編碼器從輸入數(shù)據(jù)中提取多層稀疏特征.在第2階段,原始ELM回歸被用于進(jìn)行最終的決策.

        在無監(jiān)督特征學(xué)習(xí)之前,原始輸入數(shù)據(jù)需轉(zhuǎn)化為ELM隨機(jī)特征空間,可以幫助探索訓(xùn)練樣本間的隱含信息.然后,進(jìn)行N層無監(jiān)督學(xué)習(xí)以獲得最終的高層稀疏特征.?dāng)?shù)學(xué)上,每個(gè)隱含層的輸出可以表示為

        Hi=gh(Hi-1·β)

        (8)

        其中Hi為第i層(i∈[1,k])輸出,Hi-1為第i-1層輸出,β為輸出權(quán)值.需注意,深度極限學(xué)習(xí)機(jī)的每個(gè)隱含層是獨(dú)立的模塊,并且功能上作為獨(dú)立的特征提取器.隨著層數(shù)的增加,結(jié)果特征變得更加完備.當(dāng)上一層的特征被提取后,當(dāng)前層的權(quán)值或參數(shù)將會(huì)固定,并不再進(jìn)行微調(diào).

        圖2 多層極限學(xué)習(xí)機(jī)流程圖Fig.2 The flow diagram of multilayer ELM

        由圖2(a)可以看出,在深度極限學(xué)習(xí)機(jī)的無監(jiān)督層級(jí)訓(xùn)練后,第k層的結(jié)果輸出被視為從輸入數(shù)據(jù)提取的高層稀疏特征.當(dāng)被用于分類時(shí),這些特征被隨機(jī)擾動(dòng),然后被用作監(jiān)督ELM回歸的輸入以得到最終結(jié)果.對(duì)Hk進(jìn)行擾動(dòng)是因?yàn)樾枰獙?duì)輸入進(jìn)行隨機(jī)映射以保持ELM的通用逼近能力.

        4 仿真實(shí)例

        4.1 實(shí)驗(yàn)數(shù)據(jù)

        4.1.1 AVIRIS數(shù)據(jù) 第1組實(shí)驗(yàn)數(shù)據(jù)是高光譜遙感數(shù)據(jù)92AV3C,于1992年6月由機(jī)載可見光/紅外成像光譜儀(AVIRIS)拍攝于美國(guó)印第安納州西北部印度松林測(cè)試地[3],該數(shù)據(jù)屬于公共實(shí)驗(yàn)數(shù)據(jù),被大多數(shù)高光譜研究人員使用,方便研究者相互對(duì)比、改進(jìn)算法.

        圖3中圖像大小為145 pixel×145 pixel,波長(zhǎng)為0.40~2.50 μm;原始波段為220個(gè),除去20個(gè)水吸收波段(104~108,150~163,220)后的波段一共有200個(gè);圖像的空間分辨率約為20 m;光譜分辨率小于10 nm.圖3(a)是AVIRIS圖像的假彩色合成圖,圖3(b)是地物信息參考分類圖.AVIRIS圖像數(shù)據(jù)的地物類別情況如表1所示.針對(duì)16類地物類別,隨機(jī)選取10%樣本數(shù)據(jù)作為訓(xùn)練樣本,剩余90%樣本數(shù)據(jù)作為測(cè)試樣本.

        4.1.2 ROSIS數(shù)據(jù) 第2組實(shí)驗(yàn)數(shù)據(jù)是使用反射光學(xué)系統(tǒng)成像光譜儀(ROSIS)在Pavia大學(xué)(University of Pavia,PU)拍攝的.該數(shù)據(jù)空間分辨率為1.3 m,光譜波長(zhǎng)為0.43~0.86 μm,共有103個(gè)波段.主要拍攝的是校園建筑和環(huán)境.將該光譜圖像的地物分為9類,具體信息如表2所示,示意圖如圖4所示.針對(duì)9類地物類別,選取10%樣本數(shù)據(jù)作為訓(xùn)練樣本,剩余90%樣本數(shù)據(jù)作為測(cè)試樣本.

        圖3 AVIRIS圖像示意圖Fig.3 The schematic diagram of AVIRIS image

        表1 AVIRIS高光譜遙感數(shù)據(jù)的地物類別及樣本數(shù)

        Tab.1 The ground category and sample number of AVIRIS hyperspectral remote sensing data

        編號(hào)地物類別樣本數(shù)1Alfalfa462Corn-notill14283Corn-mintill8304Corn2375Grass-pasture4836Grass-trees7307Grass-pasture-mowed288Hay-windrowed4789Oats2010Soybean-notill97211Soybean-mintill245512Soybean-clean59313Wheat20514Woods126515Buildings-Grass-Trees-Drives38616Stone-Steel-Towers93

        表2 ROSIS高光譜遙感數(shù)據(jù)的地物類別及樣本數(shù)

        Tab.2 The ground category and sample number of ROSIS hyperspectral remote sensing data

        編號(hào)地物類別樣本數(shù)1Asphalt66312Meadows186493Gravel20994Trees30645PaintedmetalSheets14356BareSoil50297Bitumen13308Self-BlockingBricks36829Shadows947

        圖4 ROSIS圖像示意圖Fig.4 The schematic diagram of ROSIS image

        4.2 實(shí)驗(yàn)方法

        針對(duì)4.1節(jié)中選取的兩組數(shù)據(jù),使用AVIRIS進(jìn)行實(shí)驗(yàn)步驟說明.首先,使用鄰近像元相加求平均值的方法對(duì)訓(xùn)練樣本數(shù)據(jù)進(jìn)行擴(kuò)充,在實(shí)驗(yàn)過程中,設(shè)置擴(kuò)充后的數(shù)據(jù)量是原訓(xùn)練樣本的10倍.然后,通過實(shí)驗(yàn)確定D-ELM隱含層的層數(shù).分別使用不同層數(shù)對(duì)樣本進(jìn)行實(shí)驗(yàn).隱含層選取1~6,分別求得總體分類精度(OA)和Kappa系數(shù),如圖5所示.

        圖5 不同隱含層層數(shù)對(duì)應(yīng)的總體分類精度和 Kappa系數(shù)Fig.5 The OA and Kappa coefficient of different hidden layer number

        從圖5可以看出,隨著隱含層層數(shù)的不斷增加,總體分類精度和Kappa系數(shù)呈現(xiàn)先上升再下降的現(xiàn)象,對(duì)比可以看出當(dāng)層數(shù)為3時(shí),所得的總體分類精度和Kappa系數(shù)最大.因此,確定在實(shí)驗(yàn)過程中,隱含層層數(shù)為3.

        在隱含層層數(shù)確定的基礎(chǔ)上進(jìn)行實(shí)驗(yàn).通過D-ELM算法得到混淆矩陣,效果最好的一組信息值為對(duì)角矩陣diag{46,1 428,830,237,483,730,28,478,20,972,2 455,593,205,1 265,386,93}.

        4.3 實(shí)驗(yàn)結(jié)果

        4.3.1 AVIRIS數(shù)據(jù)實(shí)驗(yàn)結(jié)果 由4.2節(jié)中所得的混淆矩陣,采用本文D-ELM方法計(jì)算得到總體分類精度為0.934 0,Kappa系數(shù)為0.917 2.與ELM[19]、SVM和ELMK[20]方法的總體分類精度和Kappa系數(shù)比較如表3所示.

        從表3可以看出,本文D-ELM方法獲得了較好的分類結(jié)果.針對(duì)該組實(shí)驗(yàn)數(shù)據(jù),國(guó)內(nèi)外許多團(tuán)隊(duì)進(jìn)行了仿真,Galal等[21]用多個(gè)光譜特征,并在整個(gè)波段和波段的某個(gè)子集分別進(jìn)行分類,得到的總體分類精度分別為0.902 0和0.916 0.Alajlan等[22]提出了基于監(jiān)督-非監(jiān)督的分類方法,得到了0.915 0的總體分類精度.Camps-Valls等[23]結(jié)合空間信息和光譜信息的分割方法得到了0.918 0的總體分類精度和0.910 0的Kappa系數(shù).從總體分類精度和Kappa系數(shù)的對(duì)比來看,本文方法分類結(jié)果較好.

        表3 AVIRIS高光譜遙感數(shù)據(jù)總體分類精度和Kappa系數(shù)比較

        Tab.3 The OA and Kappa coefficient comparison of AVIRIS hyperspectral remote sensing data

        方法總體分類精度Kappa系數(shù)ELM[19]0.87460.8489SVM0.87940.8628ELMK[20]0.91380.9013D-ELM0.93400.9172

        此外,將不同分類方法的分類結(jié)果以圖像形式顯示,如圖6所示.

        圖6 AVIRIS圖像分類結(jié)果示意圖Fig.6 The classification result schematic diagram of AVIRIS image

        從圖6可以看出,D-ELM方法相比其他3種方法對(duì)類別10和11的分類結(jié)果有明顯的優(yōu)勢(shì).對(duì)比類別10可以看出,D-ELM分類結(jié)果錯(cuò)誤樣本點(diǎn)最少,SVM分類結(jié)果錯(cuò)誤樣本點(diǎn)最多.對(duì)比類別11可以看出,ELM、SVM和D-ELM分類結(jié)果錯(cuò)誤樣本點(diǎn)分布較為稀疏,ELMK分類結(jié)果錯(cuò)誤樣本點(diǎn)在小區(qū)域密度較大;從錯(cuò)誤樣本點(diǎn)數(shù)量上看,D-ELM方法的錯(cuò)誤率最低.但D-ELM對(duì)其他類別的處理效果優(yōu)勢(shì)不是特別明顯,從結(jié)果分析來看,類別10和11的空間信息更適合D-ELM 方法.

        4.3.2 ROSIS數(shù)據(jù)實(shí)驗(yàn)結(jié)果 采用D-ELM方法計(jì)算得到總體分類精度為0.946 5,Kappa系數(shù)為0.923 8.針對(duì)ROSIS圖像數(shù)據(jù),不同分類方法的總體分類精度和Kappa系數(shù)比較如表4所示.

        表4 ROSIS高光譜遙感數(shù)據(jù)總體分類精度和Kappa系數(shù)比較

        Tab.4 The OA and Kappa coefficient comparison of ROSIS hyperspectral remote sensing data

        方法總體分類精度Kappa系數(shù)ELM[19]0.88490.8580SVM0.89430.8734ELMK[20]0.92210.9123D-ELM0.94650.9238

        將不同分類方法的分類結(jié)果以圖像形式顯示,如圖7所示.

        圖7 ROSIS圖像分類結(jié)果示意圖Fig.7 The classification result schematic diagram of ROSIS image

        從圖7可以看出,對(duì)比類別2,ELM方法出現(xiàn)了局部錯(cuò)誤數(shù)據(jù)點(diǎn)密度較大的情況,可以看出ELM方法對(duì)類別2的分類結(jié)果不如其他3種方法.對(duì)比類別6可以看出,ELM和SVM方法出現(xiàn)了大范圍數(shù)據(jù)點(diǎn)錯(cuò)分成類別2的現(xiàn)象,過擬合嚴(yán)重,并未獲得很好的預(yù)期效果,而ELMK和D-ELM 方法也有局部錯(cuò)分的現(xiàn)象,錯(cuò)誤率較低,并且對(duì)比可以看出,D-ELM對(duì)類別6的分類結(jié)果更好.從樣本分類的整體來看,D-ELM方法與其他3種方法比較,在對(duì)每個(gè)類別數(shù)據(jù)處理的過程中,均顯示出了較高的魯棒性,以及對(duì)不同類別數(shù)據(jù)較強(qiáng)的適應(yīng)性,分類結(jié)果精度較高.

        5 結(jié) 語

        本文提出一種基于深度極限學(xué)習(xí)機(jī)的高光譜遙感影像分類方法,用于解決高光譜遙感分類中數(shù)據(jù)類型復(fù)雜、訓(xùn)練樣本多帶來的分類結(jié)果差、分類效率低等問題.該方法首先對(duì)原訓(xùn)練集進(jìn)行特征分割,對(duì)分割出的子特征進(jìn)行SAE變換,然后將深度極限學(xué)習(xí)機(jī)方法應(yīng)用到SAE變換后的數(shù)據(jù)上,再通過實(shí)驗(yàn)確定深度極限學(xué)習(xí)機(jī)的隱含層層數(shù),從而確定最終的模型結(jié)構(gòu).將最終模型應(yīng)用于AVIRIS和ROSIS兩組高光譜遙感數(shù)據(jù),并與ELM、SVM和ELMK 3種方法進(jìn)行比較,從總體分類精度和分類結(jié)果圖像上,均能看出本文方法大大提高了總體分類精度,具有較高的適應(yīng)性.同時(shí)針對(duì)AVIRIS高光譜遙感數(shù)據(jù),也與當(dāng)前一些復(fù)雜方法進(jìn)行了比較, 可以看出本文方法同樣具有較高的總體分類精度.

        此外,在對(duì)兩組數(shù)據(jù)進(jìn)行實(shí)驗(yàn)過程中,發(fā)現(xiàn)本文方法與其他3種方法相比,方法效率受隱含層層數(shù)限制較大,在今后的研究過程中,重點(diǎn)放在提高方法的效率上.

        [1] 梁 亮,楊敏華,李英芳. 基于ICA與SVM算法的高光譜遙感影像分類[J]. 光譜學(xué)與光譜分析, 2010,30(10):2724-2728.

        LIANG Liang, YANG Minhua, LI Yingfang. Hyperspectral remote sensing image classification based on ICA and SVM algorithm [J].SpectroscopyandSpectralAnalysis, 2010,30(10):2724-2728. (in Chinese)

        [2]譚 琨,杜培軍. 基于支持向量機(jī)的高光譜遙感圖像分類[J]. 紅外與毫米波學(xué)報(bào), 2008,27(2):123-128.

        TAN Kun, DU Peijun. Hyperspectral remote sensing image classification based on support vector machine [J].JournalofInfraredandMillimeterWaves, 2008,27(2):123-128. (in Chinese)

        [3]樊利恒,呂俊偉,鄧江生. 基于分類器集成的高光譜遙感圖像分類方法[J]. 光學(xué)學(xué)報(bào), 2014,34(9):91-101.

        FAN Liheng, Lü Junwei, DENG Jiangsheng. Classification of hyperspectral remote sensing images based on bands grouping and classification ensembles [J].ActaOpticaSinica, 2014,34(9):91-101. (in Chinese)

        [4]HINTON G E, OSINDERO S, TEH Y W. A fast learning algorithm for deep belief nets [J].NeuralComputation, 2006,18(7):1527-1554.

        [5]CHI M M, PLAZA A, BENEDIKTSSON J A,etal. Big data for remote sensing: Challenges and opportunities [J].ProceedingsoftheIEEE, 2016,104(11):2207-2219.

        [6]CHEN Yushi, LIN Zhouhan, ZHAO Xing,etal. Deep learning-based classification of hyperspectral data [J].IEEEJournalofSelectedTopicsinAppliedEarthObservationsandRemoteSensing, 2014,7(6):2094-2107.

        [7]CHAN T H, JIA K, GAO S H,etal. PCANet:A simple deep learning baseline for image classification? [J].IEEETransactionsonImageProcessing, 2015,24(12):5017-5032.

        [8]PENATTI O A B, NOGUEIRA K, DOS SANTOS J A. Do deep features generalize from everyday objects to remote sensing and aerial scenes domains? [C] //2015IEEEConferenceonComputerVisionandPatternRecognitionWorkshops,CVPRW2015. Boston: IEEE Computer Society, 2015:44-51.

        [9]耿 杰,范劍超,初佳蘭,等. 基于深度協(xié)同稀疏編碼網(wǎng)絡(luò)的海洋浮筏SAR圖像目標(biāo)識(shí)別[J]. 自動(dòng)化學(xué)報(bào), 2016,42(4):593-604.

        GENG Jie, FAN Jianchao, CHU Jialan,etal. Research on marine floating raft aquaculture SAR image target recognition based on deep collaborative sparse coding network [J].ActaAutomaticaSinica, 2016,42(4):593-604. (in Chinese)

        [10]劉大偉,韓 玲,韓曉勇. 基于深度學(xué)習(xí)的高分辨率遙感影像分類研究[J]. 光學(xué)學(xué)報(bào), 2016,36(4):306-314.

        LIU Dawei, HAN Ling, HAN Xiaoyong. High spatial resolution remote sensing image classification based on deep learning [J].ActaOpticaSinica, 2016,36(4):306-314. (in Chinese)

        [11]李 紅,劉 芳,楊淑媛,等. 基于深度支撐值學(xué)習(xí)網(wǎng)絡(luò)的遙感圖像融合[J]. 計(jì)算機(jī)學(xué)報(bào), 2016,39(8):1583-1596.

        LI Hong, LIU Fang, YANG Shuyuan,etal. Remote sensing image fusion based on deep support value learning networks [J].ChineseJournalofComputers, 2016,39(8):1583-1596. (in Chinese)

        [12]ZHAO Wenzhi, GUO Zhou, YUE Jun,etal. On combining multiscale deep learning features for the classification of hyperspectral remote sensing imagery [J].InternationalJournalofRemoteSensing, 2015,36(13):3368-3379.

        [13]CHEN Yushi, ZHAO Xing, JIA Xiuping. Spectral-spatial classification of hyperspectral data based on deep belief network [J].IEEEJournalofSelectedTopicsinAppliedEarthObservationsandRemoteSensing, 2015,8(6):2381-2392.

        [14]YUE Jun, ZHAO Wenzhi, MAO Shanjun,etal. Spectral-spatial classification of hyperspectral images using deep convolutional neural networks [J].RemoteSensingLetters, 2015,6(6):468-477.

        [15]李 鐵,孫勁光,張新君,等. 高光譜遙感圖像空譜聯(lián)合分類方法研究[J]. 儀器儀表學(xué)報(bào), 2016,37(6):1379-1389.

        LI Tie, SUN Jinguang, ZHANG Xinjun,etal. A spectral-spatial joint classification method of hyperspectral remote sensing image [J].ChineseJournalofScientificInstrument, 2016,37(6):1379-1389. (in Chinese)

        [16]戴曉愛,郭守恒,任 淯,等. 基于堆棧式稀疏自編碼器的高光譜影像分類[J]. 電子科技大學(xué)學(xué)報(bào), 2016,45(3):382-386.

        DAI Xiaoai, GUO Shouheng, REN Yu,etal. Hyperspectral remote sensing image classification using the stacked sparse autoencoder [J].JournalofUniversityofElectronicScienceandTechnologyofChina, 2016,45(3):382-386. (in Chinese)

        [17]李新國(guó),黃曉晴. 一種基于DBN的高光譜遙感圖像分類方法[J]. 電子測(cè)量技術(shù), 2016,39(7):81-86.

        LI Xinguo, HUANG Xiaoqing. Deep neural networks based on hyperspectral image classification [J].ElectronicMeasurementTechnology, 2016,39(7):81-86. (in Chinese)

        [18]TANG Jiexiong, DENG Chenwei, HUANG Guangbin. Extreme learning machine for multilayer perceptron [J].IEEETransactionsonNeuralNetworksandLearningSystems, 2016,27(4):809-821.

        [19]HUANG G B, ZHU Q Y, SIEW C K. Extreme learning machine:Theory and applications [J].Neurocomputing, 2006,70(1/2/3):489-501.

        [20]HUANG Guangbin, ZHOU Hongming, DING Xiaojian,etal. Extreme learning machine for regression and multiclass classification [J].IEEETransactionsonSystems,Man,andCybernetics,PartB:Cybernetics, 2012,42(2):513-529.

        [21]GALAL A, HASAN H, IMAM I F. Learnable hyperspectral measures [J].EgyptianInformaticsJournal, 2012,13(2):85-94.

        [22]ALAJLAN N, BAZI Y, MELGANI F,etal. Fusion of supervised and unsupervised learning for improved classification of hyperspectral images [J].InformationSciences, 2012,217:39-55.

        [23]CAMPS-VALLS G, TUIA D, BRUZZONE L,etal. Advances in hyperspectral image classification:Earth monitoring with statistical learning methods [J].IEEESignalProcessingMagazine, 2014,31(1):45-54.

        猜你喜歡
        分類方法
        分類算一算
        垃圾分類的困惑你有嗎
        大眾健康(2021年6期)2021-06-08 19:30:06
        學(xué)習(xí)方法
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        可能是方法不對(duì)
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        国产欧美精品一区二区三区四区 | 国产96在线 | 亚洲| 午夜影视啪啪免费体验区入口| 手机av在线观看视频| 精品少妇一区二区三区免费| 国产成人精品a视频一区| 亚洲精品无码高潮喷水在线| 尤物蜜芽福利国产污在线观看 | 免费看av在线网站网址| 中国年轻丰满女人毛茸茸| 中文字幕亚洲综合久久| 国产人妻久久精品二区三区老狼| 免费人成在线观看| 300部国产真实乱| 久久精品熟女不卡av高清| 国产又湿又爽又猛的视频| 成人丝袜激情一区二区| 人人爽人人爽人人爽| 亚洲欧洲综合有码无码| 日本一区二区三级免费| 丰满少妇作爱视频免费观看| 小12箩利洗澡无码视频网站| 丰满人妻AV无码一区二区三区| 国产视频一区二区三区观看 | 久热爱精品视频在线观看久爱| 99久久精品人妻一区二区三区 | 日韩精品一区二区在线视| 人人妻人人添人人爽欧美一区| 人妻少妇精品中文字幕av蜜桃| 日韩一区二区不卡av| 视频区一区二在线观看| 69精品人人人人| 污污污污污污WWW网站免费| 中文字幕无线精品亚洲乱码一区 | 国产国拍亚洲精品mv在线观看| 国产成人美女AV| 日本一区二区三区一级片| 朋友的丰满人妻中文字幕| 真人男女做爰无遮挡免费视频| 日韩av一区在线播放| 久久久99精品免费视频|