亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種改進(jìn)的高空間分辨率遙感影像森林類型深度學(xué)習(xí)精細(xì)分類方法: 雙支FCN-8s*

        2020-04-28 07:10:00郭穎李增元陳爾學(xué)張旭趙磊陳艷王雅慧
        林業(yè)科學(xué) 2020年3期
        關(guān)鍵詞:分辨率卷積精度

        郭穎李增元陳爾學(xué)張旭趙磊陳艷王雅慧

        (中國(guó)林業(yè)科學(xué)研究院資源信息研究所 北京 100091)

        近年來,隨著遙感技術(shù)迅速發(fā)展,衛(wèi)星遙感影像的空間、輻射和時(shí)間分辨率逐步提升,為提高森林資源的監(jiān)測(cè)效率和精度奠定了良好數(shù)據(jù)基礎(chǔ)。但遙感影像空間分辨率大小對(duì)影像分類精度的影響具有兩面性:一方面,精細(xì)的空間分辨率可減少邊界混合像元,在一定程度上提高分類精度; 另一方面,過高的分辨率也可能導(dǎo)致類別內(nèi)部的光譜可變性增大,采用傳統(tǒng)機(jī)器學(xué)習(xí)算法進(jìn)行森林類型分類時(shí),仍存在分類精度和可有效區(qū)分類別總數(shù)較低的問題(任沖, 2016)。

        深度學(xué)習(xí)(deep learning,DL)是機(jī)器學(xué)習(xí)領(lǐng)域一個(gè)新的研究方向,其本質(zhì)是構(gòu)建含有多隱層的機(jī)器學(xué)習(xí)架構(gòu)模型,通過大規(guī)模數(shù)據(jù)進(jìn)行訓(xùn)練,得到大量更具代表性的特征信息,近年來在計(jì)算機(jī)視覺、自動(dòng)駕駛等多類應(yīng)用中取得了突破性進(jìn)展(尹寶才, 2015)。深度卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)是一類包含卷積計(jì)算且擁有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(feedforward neural networks),是深度學(xué)習(xí)的代表算法之一,具有局部連接、權(quán)值共享等特性,可有效提高圖像處理能力,但也存在計(jì)算量大、神經(jīng)元感受野受限以及容易丟失像元位置信息等不足(L?ngkvistetal., 2016)。為了克服這些缺陷,Long等(2014)提出了全卷積神經(jīng)網(wǎng)絡(luò)(fully convolutional networks, FCN)模型,該模型可以接受任意大小的輸入圖像,能夠從抽象的特征中恢復(fù)出每個(gè)像素所屬類別,使得分類從圖像級(jí)別延伸到像素級(jí)別,同時(shí)更加高效。目前,國(guó)內(nèi)外許多學(xué)者已成功將FCN應(yīng)用于高空間分辨率遙感影像分類中(方旭等, 2018; 何小飛等, 2016; 陳廣勝等, 2018; Sherrah, 2016),但是對(duì)于森林類型,特別是細(xì)化至優(yōu)勢(shì)樹種級(jí)別的森林類型遙感精細(xì)分類還未見相關(guān)報(bào)道。

        從FCN構(gòu)建方式來看,現(xiàn)階段主要有完全訓(xùn)練、預(yù)訓(xùn)練和微調(diào)3種策略(Nogueiraetal., 2016)。完全訓(xùn)練是指從頭開始構(gòu)建網(wǎng)絡(luò),可以完全控制參數(shù)和架構(gòu),具有很高的穩(wěn)健性,但是需要大量的訓(xùn)練數(shù)據(jù)(Bengio, 2009)。預(yù)訓(xùn)練和微調(diào)2種策略依賴于使用預(yù)先訓(xùn)練的卷積核,其中,預(yù)訓(xùn)練策略通過移除網(wǎng)絡(luò)最后的分類層,僅將預(yù)先訓(xùn)練的卷積核作為特征提取器進(jìn)行分類; 微調(diào)策略則是使用預(yù)先訓(xùn)練的卷積核,并基于當(dāng)前參與建模的遙感數(shù)據(jù)對(duì)卷積核的權(quán)重進(jìn)行微調(diào)。許多研究表明,微調(diào)策略可以優(yōu)化遙感地物類型分類效果(Marmanisetal., 2018; Rezaeeetal., 2018)。

        歸一化植被指數(shù)(normalized difference vegetation index,NDVI)已被廣泛用于森林類型遙感分類領(lǐng)域中,研究(黃建文等, 2004; 雷光斌等, 2014)表明,針對(duì)高空間分辨率遙感影像分類問題,將影像光譜反射率與紋理特征、NDVI、地形因子等結(jié)合,可以提升FCN的分類效果。劉大偉等(2016)在原始光譜特征基礎(chǔ)上加入紋理特征,實(shí)現(xiàn)了基于高空間分辨率遙感影像的深度神經(jīng)網(wǎng)絡(luò)模型分類。徐慧敏(2018)將多源數(shù)據(jù)相結(jié)合,有效改善了U-Net模型的分類精度。張永宏等(2018)基于多特征源輸入的 FCN 模型,提升了高空間分辨率遙感影像道路提取精度。Sun等(2018)通過加入數(shù)字表面模型數(shù)據(jù),有效提高了FCN模型的分類精度。

        雙支結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)領(lǐng)域的一類新興方法。Gaetano等(2018)針對(duì)多光譜和全色遙感影像分類,提出一種基于雙分支的端到端深度卷積神經(jīng)網(wǎng)絡(luò),并在大區(qū)域范圍內(nèi)取得了良好分類效果。Liu等(2018)發(fā)展一種基于深度多實(shí)例學(xué)習(xí)的雙支端到端深度卷積模型,聯(lián)合高空間分辨率多光譜和全色數(shù)據(jù)的光譜和空間信息進(jìn)行分類,發(fā)現(xiàn)該方法優(yōu)于卷積神經(jīng)網(wǎng)絡(luò)和堆疊自編碼網(wǎng)絡(luò)。Tan等(2018)提出一種雙支卷積神經(jīng)網(wǎng)絡(luò)模型,結(jié)合高空間分辨率全色和多光譜影像的信息自動(dòng)提取建筑物,結(jié)果表明該方法具有較高的分類精度和較好的泛化能力。

        綜上可見,為了充分利用多光譜和全色遙感影像的空間和光譜信息,前人已從網(wǎng)絡(luò)微調(diào)、增加NDVI等多源特征、設(shè)計(jì)雙支結(jié)構(gòu)網(wǎng)絡(luò)等方面對(duì)FCN的具體應(yīng)用方法進(jìn)行了優(yōu)化改進(jìn),但這些研究多是以市區(qū)一般地物類型的分類為目標(biāo),很少有針對(duì)森林類型細(xì)分的應(yīng)用報(bào)道。鑒于此,本研究基于FCN8s模型構(gòu)建雙支結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò),綜合利用網(wǎng)絡(luò)微調(diào)以及增加NDVI遙感特征等策略,以期改善高空間分辨率遙感影像用于森林類型分類的效果,從而發(fā)展一種面向高空間分辨率遙感影像森林類型精細(xì)分類的雙支FCN-8s方法。

        1 研究區(qū)概況與數(shù)據(jù)獲取

        1.1 研究區(qū)概況

        以內(nèi)蒙古赤峰市旺業(yè)甸林場(chǎng)所轄區(qū)域?yàn)檠芯繀^(qū)。該區(qū)位于赤峰市喀喇沁旗西南部,118°09′—118°30′E,41°35′—41°50′N,屬生態(tài)主導(dǎo)型多功能林業(yè)區(qū),行政區(qū)域?qū)儆诳咂烀懒宙?zhèn)。年均氣溫7.4 ℃,年均降雨量400 mm。區(qū)內(nèi)植物種類豐富,森林覆蓋率達(dá)94%。林場(chǎng)總面積2 530 7 hm2, 其中有林地面積22 016 hm2,包括天然林11 218 hm2、人工林10 798 hm2。人工林以油松(Pinustabulaeformis)、華北落葉松(Larixprincipis-rupprechtii)為主,天然林以白樺(Betulaplatyphylla)為主。

        1.2 遙感影像及其預(yù)處理

        采用GF-2 PMS遙感影像,成像時(shí)間為2017年9月5日。對(duì)遙感影像進(jìn)行預(yù)處理,預(yù)處理過程包括輻射定標(biāo)、大氣校正、正射和地形輻射校正以及影像融合。進(jìn)行輻射定標(biāo)時(shí),利用中國(guó)資源衛(wèi)星數(shù)據(jù)與應(yīng)用中心公布的絕對(duì)輻射定標(biāo)系數(shù),將衛(wèi)星觀測(cè)的像元亮度值轉(zhuǎn)換為表觀輻亮度,根據(jù)GF-2衛(wèi)星多光譜和全色數(shù)據(jù)附帶的太陽(yáng)高度角參數(shù),將獲得的表觀輻亮度轉(zhuǎn)換為表觀反射率。采用ENVI5.3軟件的FLAASH(fast line-of-sight atmospheric analysis of hypercubes)模塊完成全色數(shù)據(jù)和多光譜數(shù)據(jù)的大氣校正。利用全色和多光譜影像自帶的參數(shù)進(jìn)行正射校正,并參考2 m空間分辨率的ZY-3數(shù)字正射影像產(chǎn)品(digital orthophoto map,DOM),通過尺度不變特征變換算法自動(dòng)進(jìn)行影像配準(zhǔn),同時(shí)手工采集30個(gè)控制點(diǎn)對(duì)校正模型進(jìn)行優(yōu)化,控制點(diǎn)高程信息來自研究區(qū)的ZY-3 DEM。優(yōu)化后的正射模型東西向誤差為1.55 m,南北向誤差為1.25 m。運(yùn)用VECA地形輻射校正模型(高永年等, 2008)和ZY-3 DEM數(shù)據(jù)對(duì)GF-2 PMS影像進(jìn)行地形輻射校正處理,采用ENVI5.3軟件的融合工具NNDiffuse Pan Sharpening將全色與多光譜影像融合,得到0.8 m高空間分辨率多光譜遙感影像,見圖1。

        圖1 預(yù)處理后GF-2影像Fig.1 Preprocessed GF-2 image

        1.3 樣本數(shù)據(jù)

        為了構(gòu)建深度學(xué)習(xí)模型,本研究在外業(yè)調(diào)查數(shù)據(jù)基礎(chǔ)上,基于多期高空間分辨率遙感影像并結(jié)合林相圖,通過目視解譯方式構(gòu)建了154塊樣本,每塊樣本均由1個(gè)預(yù)處理后的遙感影像塊和1個(gè)在像素級(jí)別匹配的解譯圖像塊構(gòu)成,樣本大小為310像元×310像元(圖2),其中林相圖數(shù)據(jù)可提供每個(gè)小班的樹種起源、林種、優(yōu)勢(shì)樹種、郁閉度、小班面積和地類等屬性信息。在模型訓(xùn)練過程中,隨機(jī)選取80%樣本塊(124塊)作為訓(xùn)練數(shù)據(jù),剩余20%樣本塊(30塊)作為測(cè)試數(shù)據(jù)??紤]到樣本不均衡會(huì)影響分類效果,本研究在構(gòu)建樣本時(shí)將樣本均勻分布在影像空間范圍內(nèi)(圖3),且保證每個(gè)類別所對(duì)應(yīng)的樣本數(shù)目均衡。

        此外,為了驗(yàn)證深度學(xué)習(xí)模型的分類精度,于2017年9月進(jìn)行外業(yè)實(shí)地調(diào)查,共采集404個(gè)樣點(diǎn)的地類信息,樣點(diǎn)對(duì)整個(gè)林場(chǎng)的覆蓋情況如圖3所示,圖中方塊區(qū)域?yàn)椴糠钟?xùn)練樣本塊的空間分布情況,圓形區(qū)域?yàn)椴杉瘶狱c(diǎn)的分布范圍。

        1.4 分類系統(tǒng)和擬分類別

        參考《森林資源規(guī)劃設(shè)計(jì)調(diào)查主要技術(shù)規(guī)定(2010)》規(guī)定的地類分類系統(tǒng),通過對(duì)遙感影像預(yù)分類結(jié)果進(jìn)行潛在地類分析,確定本研究的分類系統(tǒng)如表1所示。共分12個(gè)類別,包括油松、華北落葉松、紅松(Pinuskoraiensis)、白樺、山楊、蒙古櫟、其他林地、灌木林地、草地、耕地、建設(shè)用地和其他非林地,其中油松、華北落葉松、紅松、白樺、山楊(Populusdavidiana)、蒙古櫟(Quercusmongolica)、灌木林地和其他木地屬于林地的細(xì)分類別,其他非林地主要包括裸地、水體等。

        圖2 部分訓(xùn)練樣本細(xì)節(jié)Fig.2 Examples in details for some of the training samplesa.原始影像塊Original image blocks; b.與原始影像塊對(duì)應(yīng)的解譯影像塊Ground truth (GT) image blocks corresponding to the original image blocks.

        圖3 實(shí)地調(diào)查樣點(diǎn)和部分訓(xùn)練樣本分布Fig.3 Spatial distribution of the field survey sample points and some of the training samples

        2 研究方法

        2.1 FCN模型

        FCN模型的核心是經(jīng)典CNN網(wǎng)絡(luò)結(jié)構(gòu),不同的是FCN模型將CNN模型中的全連接層替換為卷積層,這一改變使得模型可以輸入任意大小的圖像,直接在輸出端得到每個(gè)像素所屬類別,從而實(shí)現(xiàn)一對(duì)一的端到端訓(xùn)練。

        FCN模型具有卷積化、反卷積和跳躍結(jié)構(gòu)3個(gè)特點(diǎn)。卷積化是指將CNN模型的全連接層替換為卷積層,完成對(duì)任意大小圖像的分類。反卷積也稱為轉(zhuǎn)置卷積,是卷積的逆過程。FCN模型使用反卷積方式還原圖像原始大小,反卷積卷積核大小ks的計(jì)算公式如下(假設(shè)輸入特征圖像大小為wl×wl, 輸出特征圖像大小為wl′×wl′):

        ks=wl′+2×padding-stride×(wl-1)。

        (1)

        式中: stride為步長(zhǎng); padding為邊界填充值。

        由于FCN模型的池化操作會(huì)降低圖像分辨率,造成圖像空間細(xì)節(jié)信息丟失,為此Long等(2014)提出了跳躍結(jié)構(gòu)進(jìn)行優(yōu)化。該結(jié)構(gòu)的基本思想是將FCN模型中低層網(wǎng)絡(luò)的細(xì)節(jié)信息和高層網(wǎng)絡(luò)的語(yǔ)義信息進(jìn)行融合,然后對(duì)融合結(jié)果進(jìn)行反卷積操作得到最終結(jié)果。

        FCN模型主要包括FCN-32s、FCN-16s和FCN-8s 3種基本結(jié)構(gòu),如圖4所示。FCN-32s模型將conv7層生成的特征圖像進(jìn)行32倍上采樣,得到輸出結(jié)果; FCN-16s模型首先對(duì)conv7層生成的特征圖像進(jìn)行2倍上采樣,然后與pool4層生成的特征圖像相結(jié)合,并對(duì)結(jié)合結(jié)果進(jìn)行16倍上采樣,得到輸出結(jié)果; FCN-8s模型則首先對(duì)conv7層和pool4層生成的特征圖像分別進(jìn)行4和2倍上采樣,然后與pool3層生成的特征圖像相結(jié)合,并對(duì)結(jié)合結(jié)果進(jìn)行8倍上采樣,得到輸出結(jié)果??梢钥闯?,F(xiàn)CN-8s模型在反卷積過程中結(jié)合了多個(gè)低層特征,較FCN-32s、FCN-16s模型使用了更多細(xì)節(jié)和語(yǔ)義信息,結(jié)果也優(yōu)于2種模型(Longetal., 2014)。本研究以FCN-8s為基礎(chǔ)模型。

        表1 研究區(qū)分類系統(tǒng)Tab.1 Classification system of the study area

        圖4 FCN模型架構(gòu)Fig.4 FCN model architecture

        2.2 雙支FCN-8s分類方法

        雙支FCN-8s分類方法的總體流程如圖5所示。該方法包含2個(gè)FCN-8s子模型,基礎(chǔ)分類器均為Resnet(Heetal., 2016),其中一個(gè)子模型使用GF-2全色增強(qiáng)后影像的R、G、B三波段,基于ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練好的權(quán)重,采用微調(diào)方式構(gòu)建; 另一個(gè)子模型使用GF-2全色增強(qiáng)后影像的四波段(R、G、B、NIR)和NDVI特征構(gòu)建。在結(jié)果輸出部分,2個(gè)子模型分別提取下采樣8、16和32倍時(shí)的輸出結(jié)果,將模型對(duì)應(yīng)位置的輸出結(jié)果進(jìn)行級(jí)聯(lián)卷積,并上采樣至與輸入影像相同大小(圖6); 同時(shí)將上采樣結(jié)果進(jìn)行融合,輸入softmax分類器中,得到每個(gè)像元的類別概率值和標(biāo)號(hào)。

        2.3 支持向量機(jī)分類方法

        支持向量機(jī)(support vector machine, SVM)是一種基于統(tǒng)計(jì)學(xué)習(xí)理論的機(jī)器學(xué)習(xí)方法(Vapniketal., 1963),其基本原理是通過將樣本空間映射到一個(gè)高維特征空間中,使得在原有樣本空間中非線性可分的問題轉(zhuǎn)化為在特征空間中線性可分的問題。在高維特征空間中,對(duì)數(shù)據(jù)進(jìn)行分類的直線稱為超平面【式(2)】,距離超平面最近的點(diǎn)稱為支持向量,可通過引入Lagrnage乘子αi轉(zhuǎn)換為對(duì)偶問題【式(3)】求解(丁世飛等, 2011):

        圖5 雙支FCN-8s分類方法的總體流程Fig.5 The general workflow of the two-branch FCN-8s classification method

        圖6 雙支FCN-8s分類方法的數(shù)據(jù)流程Fig.6 The data flow of the two-branch FCN-8s classification method

        wTx+b=0;

        (2)

        (3)

        選擇不同核函數(shù),可以生成不同SVM模型。本研究選擇徑向基核函數(shù),通過格網(wǎng)化方法對(duì)參數(shù)進(jìn)行優(yōu)選,其中懲罰系數(shù)C為100,核函數(shù)參數(shù)γ為0.001。

        使用SVM模型進(jìn)行森林類型分類的主要流程為: 首先,對(duì)GF-2遙感影像進(jìn)行分割; 其次,提取光譜波段均值和植被指數(shù),包括比值植被指數(shù)(ratio vegetation index,RVI)、歸一化植被指數(shù)(normalized difference vegetation index,NDVI)、重新歸一化植被指數(shù)(re-normalized difference vegetation index,RDVI)、優(yōu)化土壤調(diào)節(jié)植被指數(shù)(optimized soil adjusted vegetation index,OSAVI)、歸一化水體指數(shù)(normalized difference water index,NDWI)、歸一化綠度指數(shù)(normalized difference greenness index,NDGI)、可見光波段差異植被指數(shù)(visible difference vegetation index,VDVI)、近紅外波段與藍(lán)波段的比值[ratio of near-infrared (NIR) band to blue band,NIRB](Fengetal., 2017; 黃建文等, 2004; Wangetal., 2015; 2017),以及紋理特征,包括均值、標(biāo)準(zhǔn)差、對(duì)比度、差異性、熵和同質(zhì)性(Haralicketal., 1973); 然后采用隨機(jī)森林算法計(jì)算每個(gè)特征的重要性并排序,通過序列后向搜索方法,每次從特征集合中去掉重要性最小的特征后進(jìn)行分類,逐次迭代計(jì)算每次的分類精度,得到變量個(gè)數(shù)最少、分類正確率最高的特征序列,具體為光譜信息中4個(gè)波段均值、NDVI、OSAVI、NDGI、VDVI、NIRB、紅波段同質(zhì)性、藍(lán)波段和近紅外波段的熵、綠波段和近紅外波段的標(biāo)準(zhǔn)差; 最后將優(yōu)選的特征導(dǎo)入SVM分類器進(jìn)行分類。

        2.4 網(wǎng)絡(luò)訓(xùn)練

        雙支FCN-8s網(wǎng)絡(luò)模型基于Tensorflow框架構(gòu)建,使用Adam方法作為優(yōu)化器訓(xùn)練網(wǎng)絡(luò),參數(shù)按照Kingma(2014)推薦的參數(shù)進(jìn)行設(shè)置,其中,平滑參數(shù)為1e-08,每次更新后的學(xué)習(xí)率衰減值為0.004,學(xué)習(xí)率初始值為1e-04。網(wǎng)絡(luò)權(quán)重共更新20 000次,每次更新過程中,共迭代15次,每次迭代使用16個(gè)樣本對(duì),網(wǎng)絡(luò)權(quán)重每更新1次,所有訓(xùn)練樣本均參與建模。當(dāng)權(quán)重停止更新的次數(shù)大于10次后,網(wǎng)絡(luò)停止訓(xùn)練。網(wǎng)絡(luò)在1塊NVIDIA Tesla K40C計(jì)算顯卡上訓(xùn)練,GPU內(nèi)存為8 G。

        2.5 精度檢驗(yàn)方法

        采用基于混淆矩陣的方法評(píng)價(jià)分類結(jié)果,具體評(píng)價(jià)指標(biāo)包括總體精度(overrall accuracy,OA)、用戶精度(user accuracy,UA)、生產(chǎn)者精度(producer accuracy,PA)和Kappa系數(shù)(Foody, 2010)。

        3 研究結(jié)果

        3.1 雙支FCN-8s方法的分類結(jié)果

        雙支FCN-8s方法的分類結(jié)果混淆矩陣見表2,總體分類精度為85.89%,Kappa系數(shù)為0.84。該方法可有效對(duì)大部分森林類型進(jìn)行提取,其中,對(duì)針葉樹種、蒙古櫟、草地和灌木林地等類別的分類,生產(chǎn)者精度均在90%左右,但對(duì)白樺、山楊和其他林地容易混分和錯(cuò)分,分析其原因是因?yàn)檫@些類別均屬闊葉樹種,影像獲取時(shí)間為生長(zhǎng)季,具有相似的光譜信息,較難區(qū)分。具體分類結(jié)果如圖7所示。

        圖7 雙支FCN-8s方法分類結(jié)果Fig.7 Classification result of the two-branch FCN-8s method

        3.2 雙支FCN-8s與其他模型的分類效果比較

        為驗(yàn)證所提方法的有效性,本研究對(duì)雙支FCN-8s方法與傳統(tǒng)FCN-8s方法(本研究簡(jiǎn)稱FCN-8s)的分類效果進(jìn)行比較。FCN-8s方法的基分類器為Resnet,雙支FCN-8s方法在建模時(shí)不僅使用融合后的四波段光譜信息,而且還使用NDVI特征,F(xiàn)CN-8s方法同樣使用上述特征參與建模。

        從表3可以看出,F(xiàn)CN-8s方法的總體分類精度為82.67%,Kappa系數(shù)為0.80。相比FCN-8s方法,雙支FCN-8s方法可以提高大部分森林類型的分類精度,尤其對(duì)油松、紅松、白樺等類別改善效果明顯。

        為進(jìn)一步驗(yàn)證該方法的效果,本研究同時(shí)與經(jīng)過特征優(yōu)選與SVM模型分類效果進(jìn)行比較,結(jié)果發(fā)現(xiàn),相對(duì)傳統(tǒng)基于特征優(yōu)選的SVM模型而言,雙支FCN-8s方法的總體分類精度由75%上升至85.89%,精度提升大于10%(表3),各類別的分類效果均有改善。

        從分類細(xì)節(jié)(圖8)中可以看出,雙支FCN-8s方法可明顯優(yōu)化闊葉混交林和針闊混交林的分類效果,相比而言,F(xiàn)CN-8s會(huì)將大部分其他林地錯(cuò)分為山楊,SVM則會(huì)將大面積油松錯(cuò)分為華北落葉松,白樺和其他林地也會(huì)出現(xiàn)大面積錯(cuò)分現(xiàn)象,同時(shí)SVM相對(duì)于本研究的深度學(xué)習(xí)方法而言,分類邊界破碎,不夠平滑。

        3.3 網(wǎng)絡(luò)微調(diào)策略和NDVI特征對(duì)分類效果的影響

        為探究微調(diào)策略對(duì)分類結(jié)果的貢獻(xiàn),本研究進(jìn)一步分析不使用微調(diào)策略的雙支FCN-8s分類效果。由表4可知,不使用微調(diào)策略得到的總體分類精度為79.46%,Kappa系數(shù)為0.77; 使用微調(diào)策略后,模型的總體分類精度由79.46%上升至85.89%,可顯著提高油松、白樺、灌木林地及建筑用地的分類精度。

        同時(shí),本研究也對(duì)加入NDVI特征前后雙支FCN-8s方法的分類效果進(jìn)行比較分析。由表4可知,未使用NDVI特征的總體分類精度為81.93%,Kappa系數(shù)為0.80; 加入NDVI特征后,模型對(duì)油松、山楊改善效果明顯。

        從分類細(xì)節(jié)(圖8)中可以看出,使用微調(diào)策略以及加入NDVI特征,可明顯改善其他林地以及山楊和白樺的錯(cuò)分現(xiàn)象,同時(shí)能優(yōu)化灌木林地、草地和蒙古櫟的混分問題,對(duì)于建設(shè)用地和耕地的混分現(xiàn)象也有明顯改善。

        圖8 分類結(jié)果細(xì)節(jié)Fig.8 The detailed classification resultsa.GF-2 PMS; b.解譯樣本Label; c.雙支FCN-8s Two-branch FCN-8s; d.FCN-8s; e.SVM; f.雙支 FCN-8s不使用微調(diào)策略Two-branch FCN-8s without finetune strategy; g.雙支FCN-8s 不加入 NDVI Two-branch FCN-8s without NDVI.

        表2 雙支FCN-8s方法的分類結(jié)果混淆矩陣①Tab.2 Confusion matrix of classification result of two-branch FCN-8s

        ① 總體精度Overall accuracy: 85.89%; Kappa系數(shù)Kappa coefficient: 0.84.

        表3 雙支FCN-8s與FCN-8s、SVM的分類精度對(duì)比Tab.3 Comparison of classification accuracy among two-branch FCN-8s, FCN-8s and SVM

        表4 NDVI特征和微調(diào)策略對(duì)雙支FCN-8s模型分類效果的影響Tab.4 Impact of NDVI features and finetune strategy on classification accuracy of two-branch FCN-8s model

        4 討論

        本研究提出的雙支FCN-8s高空間分辨率遙感影像森林類型深度學(xué)習(xí)精細(xì)分類方法,可有效提升森林類型的細(xì)分程度和分類精度,滿足高空間分辨率遙感影像林地類型信息提取及森林類型精細(xì)識(shí)別的應(yīng)用需求。雙支FCN-8s方法對(duì)大部分森林類型都可得到90%以上的生產(chǎn)者精度,在同等樣本數(shù)量的條件下,相對(duì)于傳統(tǒng)經(jīng)過特征優(yōu)選的SVM模型而言,雙支FCN-8s方法可將分類精度提升10%以上,有效改善分類效果,在一定程度上驗(yàn)證了該方法的優(yōu)越性。

        然而,對(duì)于白樺、山楊和其他林地類別,雙支FCN-8s方法的分類精度較低,可能有以下2個(gè)原因: 首先,圖9展示了基于GF-2 PMS的典型地物類型(圖9a)以及白樺、山楊和其他林地(圖9b)的光譜曲線,從圖9b中可以看出,白樺、山楊和其他林地的光譜差異很小,特別是白樺和山楊2個(gè)類別,本應(yīng)是2條光譜曲線,但現(xiàn)在光譜曲線基本重疊,這不可避免增加了區(qū)分該森林類型的難度; 其次,旺業(yè)甸林場(chǎng)山楊的分布范圍較小,采集的樣本相對(duì)較少,在一定程度上會(huì)導(dǎo)致模型欠擬合現(xiàn)象,同時(shí)由于基于該時(shí)相的遙感數(shù)據(jù),白樺和山楊的邊界難以明確區(qū)分,進(jìn)一步增加了分類的難度。

        圖9 地物類型光譜曲線Fig.9 Spectral curves of land cover typesa.典型地物類型Typical land cover types; b.白樺、山楊和其他林地Betula platyphylla, Populus davidiana and other forest land.

        雙支FCN-8s方法的總體分類精度為85.89%,雖然相比傳統(tǒng)基于特征優(yōu)選的SVM模型分類精度明顯提升,但是相對(duì)于部分已發(fā)表的基于FCN進(jìn)行高空間分辨率遙感分類精度高于90%以上的研究而言,本研究分類精度并不高,這可能主要?dú)w結(jié)于以下2方面原因: 首先,本研究?jī)H有124塊樣本塊參與建模,相對(duì)于其他研究而言,樣本量成倍減少; 其次,本研究包括12個(gè)地物類別,其中6個(gè)屬于樹種級(jí)類別,較其他研究而言分類類別較細(xì)。如Liu等(2018)基于FCN模型對(duì)7個(gè)地物類型進(jìn)行遙感分類,分類精度為87.1%,但是該研究利用400個(gè)正射影像,共提取2 800塊樣本塊,樣本量遠(yuǎn)遠(yuǎn)大于本研究; Fu等(2017)基于FCN模型和兩期GF-2影像對(duì)城市區(qū)域的地物進(jìn)行分類,雖然同樣是12個(gè)地物類型,但是該研究將兩期遙感影像分割為74塊影像塊,每塊影像塊的像素大小為1 024像元×1 024像元,其中70塊用于訓(xùn)練,4塊進(jìn)行測(cè)試,4塊測(cè)試影像最終的平均分類精度為81%。本研究每塊影像塊的像素大小僅為310像元×310像元,樣本量遠(yuǎn)低于該研究,但本研究分類精度略高于該研究。這些比較結(jié)果表明本研究提出方法在樣本量有限情況下的有效性。

        與以往高空間分辨率遙感影像森林類型精細(xì)分類,尤其是樹種分類的研究結(jié)果比較表明,如果只使用單一時(shí)相的高空間分辨率遙感影像進(jìn)行森林類型精細(xì)分類,難以有效區(qū)分闊葉樹種,分類精度較低。Xie等(2019)基于多時(shí)相ZY-3數(shù)據(jù)在本研究區(qū)進(jìn)行地物細(xì)分類型分類,雖然整體分類精度為84.9%,但是對(duì)于白樺、山楊等闊葉樹種的分類精度可達(dá)85%左右。使用多時(shí)相數(shù)據(jù)進(jìn)行森林類型精細(xì)分類的效果同樣也已被其他一些研究所證明,如任沖等(2016)基于多時(shí)相SPOT-5和GF-1數(shù)據(jù)進(jìn)行森林類型精細(xì)分類,精度高達(dá)92%;Agata等(2019)基于多時(shí)相Sentinel-2和DEM進(jìn)行大區(qū)域范圍內(nèi)的樹種分類,精度高達(dá)94.8%?;诖耍瑢⒍鄷r(shí)相遙感數(shù)據(jù)結(jié)合深度學(xué)習(xí)方法進(jìn)行森林類型精細(xì)分類可作為下一階段的研究?jī)?nèi)容。

        5 結(jié)論

        本研究以內(nèi)蒙古赤峰市旺業(yè)甸林場(chǎng)為研究區(qū),基于GF-2衛(wèi)星多光譜和全色遙感影像,發(fā)展了一種雙支FCN-8s高空間分辨率遙感影像深度學(xué)習(xí)分類方法,并驗(yàn)證了該方法的有效性。結(jié)果表明: 1) 雙支FCN-8s方法的總體分類精度為85.89%,Kappa系數(shù)為0.84;相比傳統(tǒng)FCN-8s,雙支FCN-8s方法可提高大部分森林類型的分類精度,尤其對(duì)油松、紅松、白樺等類別改善效果明顯。2) 相對(duì)于傳統(tǒng)基于特征優(yōu)選的SVM模型而言,雙支FCN-8s方法的總體分類精度由75%上升至85.89%,精度提升大于10%,各類別的分類效果均有改善。3) 使用微調(diào)策略以及加入NDVI特征后,模型可有效改善油松、山楊和白樺等樹種的分類效果??傊?,本研究提出的雙支FCN-8s高空間分辨率遙感影像森林類型深度學(xué)習(xí)精細(xì)分類方法,可有效提升森林類型的細(xì)分程度和分類精度。

        猜你喜歡
        分辨率卷積精度
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        EM算法的參數(shù)分辨率
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        原生VS最大那些混淆視聽的“分辨率”概念
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        基于深度特征學(xué)習(xí)的圖像超分辨率重建
        一種改進(jìn)的基于邊緣加強(qiáng)超分辨率算法
        GPS/GLONASS/BDS組合PPP精度分析
        改進(jìn)的Goldschmidt雙精度浮點(diǎn)除法器
        污污污污污污污网站污| 国产精品久久免费中文字幕| 亚洲av无码专区在线观看下载| 爱情岛论坛亚洲品质自拍hd | 女主播国产专区在线观看| 精品人妻系列无码人妻漫画 | 亚洲国产精品一区二区第四页| 午夜国产精品视频免费看电影| 激情五月开心五月啪啪| 久久精品国产自在天天线| 亚洲精品无码高潮喷水在线| 欧美—iGAO视频网| 国产av一卡二卡日韩av| 亚洲图片日本视频免费| 亚洲成a人片在线| 国产成人午夜av影院| 日本高清一道本一区二区| 337p西西人体大胆瓣开下部| 无码精品一区二区免费AV| 男女啦啦啦视频在线观看| 在线一区二区三区国产精品| 性生交大片免费看淑女出招 | 免费人成视频网站在线不卡| 国产成人av大片大片在线播放 | 美国黄色片一区二区三区| 一区二区三区av资源网| 无码专区人妻系列日韩精品| 欧美亚洲日本国产综合在线| 无码国产精品一区二区AV| 男人的精品天堂一区二区在线观看| 成熟丰满熟妇av无码区| 国产乱沈阳女人高潮乱叫老| 亚洲视频一区二区久久久| 三级国产精品久久久99| 亚洲一本到无码av中文字幕| 免费一级国产大片| 国产自拍91精品视频| 久久久久亚洲av无码麻豆| 国产一级片毛片| 色综合中文字幕综合网| 午夜天堂精品久久久久|