林志瑋, 涂偉豪, 黃嘉航, 丁啟祿, 周錚雯, 劉金福,4
(1.福建農(nóng)林大學(xué)計(jì)算機(jī)與信息學(xué)院,福州 350002; 2.福建農(nóng)林大學(xué)林學(xué)院,福州 350002; 3.福建農(nóng)林大學(xué)林學(xué)博士后流動(dòng)站,福州 350002; 4.福建省高校生態(tài)與資源統(tǒng)計(jì)重點(diǎn)實(shí)驗(yàn)室,福州 350002)
為實(shí)現(xiàn)森林資源的可持續(xù)利用,必須對森林資源進(jìn)行管理。森林資源調(diào)查是森林資源管理的重要內(nèi)容。傳統(tǒng)森林資源調(diào)查方式主要為人工實(shí)地調(diào)查,需耗費(fèi)大量人力物力與時(shí)間。自動(dòng)化樹種識別技術(shù)的提出,提高了森林資源調(diào)查的速度及精度,并有效降低了調(diào)查成本。20世紀(jì)70年代,衛(wèi)星遙感技術(shù)開始被引用于林業(yè)領(lǐng)域,使得準(zhǔn)確、便捷地實(shí)現(xiàn)樹種識別成為可能,但由于衛(wèi)星圖像的空間分辨率較低,無法精確識別小區(qū)域范圍內(nèi)各植被的分布,無法滿足森林資源高精度調(diào)查的需求; 隨著無人機(jī)技術(shù)的發(fā)展,低空航拍獲取的無人機(jī)圖像被引入了林業(yè)調(diào)查中[1-3]。由于森林結(jié)構(gòu)是動(dòng)態(tài)變化的,群落結(jié)構(gòu)復(fù)雜多變,學(xué)者多利用無人機(jī)搭載高光譜成像設(shè)備獲得樹種的高光譜圖像信息,進(jìn)行樹種識別[4-9],提高了樹種識別精度。但高光譜圖像包含眾多光譜波段,導(dǎo)致數(shù)據(jù)冗余,使用時(shí)需要做降維和去噪處理,增加了數(shù)據(jù)處理的復(fù)雜度,因此,有學(xué)者利用無人機(jī)搭載高清數(shù)碼相機(jī),獲取可見光遙感圖像進(jìn)行研究[10-11]。相較于高光譜圖像,可見光圖像僅含有紅、綠、藍(lán)3種波段,數(shù)據(jù)維度較少,對植被波段進(jìn)行組合運(yùn)算較為簡單,使得波段信息預(yù)測不易造成信息冗余。
神經(jīng)網(wǎng)絡(luò)模型能夠自適應(yīng)地提取分類特征,有學(xué)者將其應(yīng)用于可見光圖像的植物葉片紋理與顏色特征的提取,進(jìn)行樹種識別[12-16],取得了較高的精度。但神經(jīng)網(wǎng)絡(luò)模型存在收斂速度慢的問題。除此之外,有學(xué)者基于面向?qū)ο蠓诸惙椒ㄌ崛浞N類型,面向?qū)ο蠓诸愃惴ㄍㄟ^圖像的光譜及質(zhì)地紋理特征進(jìn)行圖像分割,增強(qiáng)分類對象的空間信息,緩解了傳統(tǒng)基于像素分類存在椒鹽現(xiàn)象的問題[17-18],但面向?qū)ο蟮闹脖环诸愃惴y以應(yīng)用于低空高空間分辨率的可見光圖像: 一方面,在高空間分辨率可見光圖像中,不同樹種的樹枝錯(cuò)綜交錯(cuò),背景混雜,紋理特征相似,而同種樹種亮度不一致,基于紋理、亮度等特征分割的面向?qū)ο蠓诸惙椒y以準(zhǔn)確地分割每一樹種并加以識別; 另一方面,面向?qū)ο蠓诸愃惴ǖ姆诸惥纫蕾囉谒x擇的分割尺度,但分割尺度的難以確定使其在植被識別中存在明顯的局限性。上述的分類方法不管是傳統(tǒng)的基于像素分類還是基于面向?qū)ο蠓诸悾谛?shù)據(jù)集上得到了較好的分類效果,但不適用于大數(shù)據(jù)集的植被識別。卷積神經(jīng)網(wǎng)絡(luò)模型(convolutional neural network, CNN)是適用于大數(shù)據(jù)集的圖像識別方法[19-22]。隨著深度神經(jīng)網(wǎng)絡(luò)方法在圖像識別領(lǐng)域取得重大發(fā)展,它開始被應(yīng)用于樹種的圖像識別[23-27],提高了植物葉片的識別效果。CNN模型接受輸入的每張圖像僅能包含一類樹種,但無人機(jī)航拍圖像中每張圖片一般包含多類樹種,需經(jīng)過大量人工處理才能輸入網(wǎng)絡(luò)進(jìn)行訓(xùn)練,故CNN模型存在一定局限性,采用基于像素級分類的全卷積網(wǎng)絡(luò)模型(fully convolutional networks, FCN)更為合適。
FCN[28]模型是圍繞感受野進(jìn)行設(shè)計(jì)的。感受野是指神經(jīng)網(wǎng)絡(luò)每一層網(wǎng)絡(luò)層輸出的特征圖上的像素點(diǎn)在原圖上映射的區(qū)域大小,因此FCN在基于像素分類的同時(shí),還考慮到了圖像的空間信息,在一定程度上克服了傳統(tǒng)像素分類出現(xiàn)椒鹽現(xiàn)象的難題。FCN網(wǎng)絡(luò)沒有全連接層,通過反卷積直接輸出分割結(jié)果,隨著網(wǎng)絡(luò)結(jié)構(gòu)加深,深層網(wǎng)絡(luò)的局部信息逐漸減少,很難從深層網(wǎng)絡(luò)直接反卷積得到精確的分類結(jié)果。DenseNet模型[29]可視為是CNN模型的拓展,其除了比CNN能使用更深的網(wǎng)絡(luò)層之外,更通過對先前產(chǎn)生的特征圖進(jìn)行疊加,減少圖像局部信息的損失,能較好維持深層網(wǎng)絡(luò)的局部信息。因此,本文基于DenseNet模型和FCN模型,構(gòu)建FC-DenseNet模型,設(shè)計(jì)Dense模塊結(jié)構(gòu),融合及利用網(wǎng)絡(luò)提取的淺層紋理特征、光譜特征,減少計(jì)算參數(shù),并以福建省安溪縣崩崗區(qū)為研究區(qū),基于可見光圖像進(jìn)行樹種識別,為林業(yè)資源調(diào)查提供新的思路。
安溪縣位于福建省東南沿海區(qū)域,縣域范圍為E117°36′~118°17′,N24°50′~25°26′,屬于中南亞熱帶海洋性季風(fēng)氣候區(qū),年平均降水量為1 300~2 000 mm。該縣地處閩東南花崗巖分布區(qū),由于人為活動(dòng)的影響,安溪縣水土流失嚴(yán)重,其中崩崗區(qū)內(nèi)侵蝕現(xiàn)象發(fā)育,亟須進(jìn)行植被恢復(fù)[30]。
本文利用大疆INSPIRE 1 RAW 型號無人機(jī)搭載高清相機(jī)對安溪地區(qū)進(jìn)行了航拍。相機(jī)型號為ZENMUSE X5R,尺寸為17.3 mm ×13.0 mm (高寬比4∶3 ),有效像素為1 600萬,ISO范圍為100~25 600,照片分辨率為4 608×3 456,航拍高度為離地20 m,為測得航拍圖像的解析度,以A4紙?jiān)趫D像上的像素點(diǎn)數(shù),測得的航拍圖像解析度及測試圖如表1和圖1所示。
表1 航拍圖像分辨率分析Tab.1 Tab.e of Aerial video resolution
圖1 20 m高度航拍圖像解析度測試圖Fig.1 Test map of 20 m aerial image resolution
本文主要采用左右、上下鏡像和逆時(shí)針旋轉(zhuǎn)60°,120°,180°,240°,300°等方法,對航拍所得的圖像進(jìn)行增強(qiáng),共計(jì)獲得了6 336張圖像。其中,訓(xùn)練集和驗(yàn)證集分別包含4 608張和1 728張圖像,圖像大小為864像素×576像素。圖像增強(qiáng)示意如圖2所示。根據(jù)《中國植被》[31]所提出的植被生活型將本次航拍樹種類別劃分為喬木、草本、灌木、蕨類、禾本植物和苔蘚,考慮到當(dāng)?shù)赝N植被的形態(tài)結(jié)構(gòu)特征存在明顯差異,且部分植被由于自然因素或人為因素導(dǎo)致枯萎,與正常植被在紋理和顏色上都存在明顯差異,同時(shí)研究區(qū)內(nèi)有較大面積的裸露地面,故又將類別細(xì)分為13類,即裸露地面、馬尾松、枯萎馬尾松、檸檬桉、幼年檸檬桉、芒萁、枯萎芒萁、石楠、孔雀豆、東方烏毛蕨、金銀花、芒和苔蘚。以圖像每一像素點(diǎn)為分類單元,通過FC-DenseNet模型對每一像素點(diǎn)進(jìn)行分類,各類別的訓(xùn)練數(shù)據(jù)量如圖3所示,其中馬尾松、檸檬桉和芒萁為研究區(qū)內(nèi)優(yōu)勢樹種。
(a) 原始圖像(b) 左右鏡像(c) 上下鏡像 (d) 旋轉(zhuǎn)60°(e) 旋轉(zhuǎn)120° (f) 旋轉(zhuǎn)180°(g) 旋轉(zhuǎn)240°(h) 旋轉(zhuǎn)300°
圖2 圖像增強(qiáng)示意圖
Fig.2Imageenhancementschematic
圖3 訓(xùn)練數(shù)據(jù)各類別像素點(diǎn)占比Fig.3 Proportion of pixels in each category of training data
FCN用卷積層代替CNN模型的全連接層,通過反卷積操作還原至與原始圖像大小一致的預(yù)測圖像。Dense模塊能重復(fù)利用先前產(chǎn)生的特征圖信息,豐富深層網(wǎng)絡(luò)的信息,因此,在FCN中嵌入Dense模塊構(gòu)建FC-DenseNet模型。FC-DenseNet模型網(wǎng)絡(luò)主要包括Dense 模塊、concatenation、上采樣模塊和下采樣模塊。FC-DenseNet通過Dense模塊對樹種圖像進(jìn)行卷積運(yùn)算,運(yùn)用concatenation結(jié)合Dense模塊中各網(wǎng)絡(luò)層的結(jié)果,采用下采樣模塊縮小數(shù)據(jù)維度,降低參數(shù)計(jì)算,通過上采樣模塊和Dense模塊將多尺度融合的特征圖擴(kuò)大為原始圖像大小,并采用Softmax分類進(jìn)行分類,以此達(dá)到對圖像各像素進(jìn)行分類的效果。其框架如圖4所示。
圖4 FC-DenseNet模型框架Fig.4 Frames of FC-DenseNet
Dense模塊具有多層網(wǎng)絡(luò)層,每層網(wǎng)絡(luò)層均由批標(biāo)準(zhǔn)化(batch normalization,BN)、激活函數(shù)、3像素×3像素(以下省略“像素”)卷積核和Dropout組成,由于Dense模塊將之前所有層的輸出作為輸入,計(jì)算參數(shù)大,因此在Dense模塊中各網(wǎng)絡(luò)層采用concatenation作為輸入從而減少計(jì)算參數(shù),concatenation是將Dense模塊一層網(wǎng)絡(luò)層的輸出結(jié)果與前一層的網(wǎng)絡(luò)輸出結(jié)果進(jìn)行融合,以concatenation來代替多層網(wǎng)絡(luò)層的輸出,其示意圖如圖5所示,圖中c為concatenation。
圖5 Dense模塊示意圖Fig.5 Sketch map of the Dense module
由于每一層的輸出值都會隨著網(wǎng)絡(luò)運(yùn)算發(fā)生變化,輸出數(shù)據(jù)的分布發(fā)生偏差,因此可以通過BN[32]進(jìn)行特征標(biāo)準(zhǔn)化,平衡神經(jīng)網(wǎng)絡(luò)層輸出的分布,解決CNN層數(shù)太多導(dǎo)致無法有效前向傳遞的問題。ReLU激活函數(shù)收斂速度快,計(jì)算參數(shù)少,為網(wǎng)絡(luò)模型引入了非線性因素,從而提升了神經(jīng)網(wǎng)絡(luò)模型的表達(dá)能力。其函數(shù)定義為輸入值大于0時(shí),輸出原值; 否則為0。激活函數(shù)運(yùn)算后進(jìn)行3×3的卷積運(yùn)算,即利用卷積核對圖像特定區(qū)域進(jìn)行矩陣運(yùn)算,提取圖像的紋理特征和光譜特征。 為防止模型過擬合,在Dense模塊中加入Dropout。Dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)訓(xùn)練過程中,對于某些神經(jīng)元,以一定概率抑制其激活,被抑制神經(jīng)元可在測試時(shí)重新激活,增強(qiáng)模型的泛化能力。
下采樣模塊由BN,ReLU,1×1卷積核,Dropout和2×2的最大池化層組成,其中最核心的部分為最大池化層,即以圖像一個(gè)區(qū)域上的某個(gè)特定特征的最大值來代表這個(gè)區(qū)域的特征,歸納了一個(gè)區(qū)域內(nèi)的特征輸出,在減小圖像維度的同時(shí),避免了維度下降所導(dǎo)致的信息損失,增強(qiáng)了網(wǎng)絡(luò)提取的特征信息。
上采樣模塊是由3×3的反卷積組成。反卷積是卷積的逆過程。由于圖像經(jīng)過下采樣運(yùn)算,圖像維度變小,為實(shí)現(xiàn)像素級的語義分割,需經(jīng)過反卷積將縮小的特征圖還原至與原始圖像大小一致的預(yù)測圖。與非線性插值不同,反卷積中引入了學(xué)習(xí)參數(shù),進(jìn)而提高了反卷積的性能。
FC-DenseNet通過上采樣特征圖,并且與淺層Dense模塊提取的特征串聯(lián),生成新的Dense模塊的輸入。為避免參數(shù)量過大,僅采用Dense模塊中最后一個(gè)concatenation的結(jié)果,再與上采樣特征圖進(jìn)行融合,融合后經(jīng)過Dense模塊運(yùn)算,繼續(xù)融合其他淺層特征信息進(jìn)行上采樣,最后經(jīng)過Dense模塊和卷積運(yùn)算獲取與原圖大小一致的預(yù)測圖。其示意圖如圖4所示。
可見光圖像經(jīng)過卷積和下采樣后產(chǎn)生維度縮小的特征圖像,每一特征圖像的像素點(diǎn)均為原始圖像某一區(qū)域的映射,感受野即衡量特征圖像上的一個(gè)像素點(diǎn)到原始圖像的映射大小,其示意圖如圖6所示 。 2×2卷積層、3×3卷積層和原始圖像間均存在著信息映射關(guān)系,通過多層卷積和下采樣后,F(xiàn)CN最后一層特征圖上的每一個(gè)像素高度映射著原始圖像的區(qū)域信息,增強(qiáng)了空間信息,有效克服了基于像素分類存在的椒鹽現(xiàn)象的難題。
圖6 感受野示意圖Fig.6 Sketch map of receptive field
在FC-DenseNet模型中,可設(shè)置成多個(gè)Dense模塊、下采樣模塊和上采樣模塊,因此不同個(gè)數(shù)的Dense模塊、下采樣模塊和上采樣模塊,使得FC-DenseNet模型具有不同的網(wǎng)絡(luò)深度。以FC-DenseNet-56和FC-DenseNet-103為例[33],其網(wǎng)絡(luò)設(shè)置如表2所示。在FC-DenseNet-56模型中,每一個(gè)Dense模塊均有4層網(wǎng)絡(luò),共計(jì)有56層網(wǎng)絡(luò)層; 而FC-DenseNet-103模型其Dense模塊的網(wǎng)絡(luò)層數(shù)更大,其總層數(shù)也更大,總計(jì)有103層網(wǎng)絡(luò)層。
表2 FC-DenseNet網(wǎng)絡(luò)結(jié)構(gòu)Tab.2 Tab.e of FC-DenseNet network structure
注: DB為Dense模塊; TD為下采樣模塊; TU為上采樣模塊。
常見的語義分割的精度評估主要采用4種度量指標(biāo),分別為: ①像素點(diǎn)正確率(pixel accuracy, PA),指分類正確的像素占總像素的比例; ②平均正確率(mean pixel accuracy, MPA),指平均所有類別中被正確分類的像素比例; ③平均IU指數(shù)(mean intersection over union, mIoU),指正樣本被分為正樣本的像素點(diǎn)數(shù)與被分類成其他類別像素點(diǎn)數(shù)之比; ④加權(quán)IU指數(shù)(frequency weighted intersection over union, fIoU),在平均IU指數(shù)上考慮各類別出現(xiàn)的頻率,以每一類出現(xiàn)頻率作為每一類別的權(quán)重計(jì)算平均IU指數(shù)。令nij為類別i的被預(yù)測為類別j的像素?cái)?shù)量,ncl為類別數(shù),ti為第i類像素?cái)?shù)量,則各度量指標(biāo)的計(jì)算公式分別為
(1)
(2)
(3)
(4)
(5)
為了分析不同網(wǎng)絡(luò)深度對模型的影響,基于研究區(qū)無人機(jī)航拍光學(xué)圖像,分析FC-DenseNet-56和FC-DenseNet-103植物識別精度差異,確定最優(yōu)模型,并基于最優(yōu)模型探討數(shù)據(jù)種類增多對識別準(zhǔn)確率的影響。實(shí)驗(yàn)采用tensorflow深度學(xué)習(xí)平臺,基于CPU為Intel i7-7700K 4.2 GHZ、GPU為GeForce GTX1070、內(nèi)存為32 G的ubuntu系統(tǒng)運(yùn)行。實(shí)驗(yàn)的模型學(xué)習(xí)率設(shè)置為10-4,即每次迭代調(diào)整神經(jīng)網(wǎng)絡(luò)權(quán)重的速度為10-4,每次輸入4張圖像更新一次權(quán)重,設(shè)置迭代次數(shù)為115 200,每張圖像訓(xùn)練次數(shù)為100次,即epoch為100,同時(shí)將圖像大小縮小為224×224。
為分析不同網(wǎng)絡(luò)深度的FC-DenseNet模型的分類效果,討論FC-DenseNet-56和FC-DenseNet-103識別植物和非植物的結(jié)果。分別基于研究區(qū)航拍圖像數(shù)據(jù)集建立FC-DenseNet-56和FC-DenseNet-103模型,并采用adam優(yōu)化算法在數(shù)據(jù)訓(xùn)練過程中更新神經(jīng)網(wǎng)絡(luò)的權(quán)重。在訓(xùn)練中,通過降低交叉熵(loss)使模型訓(xùn)練收斂,2個(gè)模型訓(xùn)練過程中的loss值見圖7。
圖7 模型訓(xùn)練loss值Fig.7 Graph of training loss
FC-DenseNet-103和FC-DenseNet-56的loss均在epoch=2時(shí)下降最快,達(dá)到0.25左右,但2個(gè)模型的收斂速度有所不同,F(xiàn)C-DenseNet-56模型的訓(xùn)練速度在epoch=2時(shí)趨于收斂,而FC-DenseNet-103模型在epoch=90時(shí)逐漸收斂,收斂速度相對較慢,loss值不再發(fā)生變化。2個(gè)模型均能在epoch=100時(shí)收斂,其分類效果如圖8和表3所示。
(a) 原始圖像 (b) FC-DenseNet-56模型 (c) FC-DenseNet-103模型分類結(jié)果分類結(jié)果
圖8 不同模型分類結(jié)果示例
Fig.8Graphofdifferentmodelsclassification
表3 不同模型的分類結(jié)果評估
Tab.3Classificationresultsfordifferentmodels(%)
模型PAMPAmIoUfIoUFC-DenseNet-5691.762.641.688.1FC-DenseNet-10392.163.744.988.7
由表3中統(tǒng)計(jì)結(jié)果可知,在各項(xiàng)指標(biāo)上,F(xiàn)C-DenseNet-103模型的PA高達(dá)92.1%,MPA為63.7%,mIoU為44.9%,fIoU為88.7%,F(xiàn)C-DenseNet-103模型的識別效果均優(yōu)于FC-DenseNet-56模型。由此可見,網(wǎng)絡(luò)深度的增加會提高模型的識別效果。這是因?yàn)榫W(wǎng)絡(luò)深度的增加使得模型提取的紋理特征和光譜特征更為泛化; 同時(shí),由于FC-DenseNet模型中的Dense模塊會不斷結(jié)合淺層的信息,并且在反卷積的融合結(jié)構(gòu)中加入了Dense模塊進(jìn)行訓(xùn)練,使得模型在反卷積時(shí)可以通過Dense模塊進(jìn)行增強(qiáng),提高了模型反卷積的精度,解決了隨著網(wǎng)絡(luò)深度加深而導(dǎo)致局部信息量減少的問題。因此,本文選擇FC-DenseNet-103模型進(jìn)行實(shí)驗(yàn)。
在林業(yè)應(yīng)用中,信息調(diào)查不僅僅是需要植物與非植物的分布信息,更需要優(yōu)勢樹種的分布信息。因此,將研究區(qū)內(nèi)的植物與非植物細(xì)化為13類; 其中主要優(yōu)勢樹種有馬尾松、檸檬桉和芒萁,3種植被均在植被恢復(fù)中起到了重要作用,識別并探測其覆蓋強(qiáng)度有助于植被恢復(fù)。在數(shù)據(jù)集中,3種優(yōu)勢樹種的面積占比分別高達(dá)40.58%,20.73%和18.86%,合計(jì)占數(shù)據(jù)集總面積的80.17%?;谘芯繀^(qū)無人機(jī)20 m航拍高度圖像所建立的FC-DenseNet-103模型的分類正確率和分類效果如圖9和圖10所示。
圖9 FC-DenseNet-103優(yōu)勢樹種的分類正確率Fig.9 Classification of FC-DenseNet-103 dominant species
(a) 原始圖像1 (b) 標(biāo)準(zhǔn)圖1 (c) FC-DenseNet預(yù)測圖1(d) 面向?qū)ο笏惴A(yù)測圖1
(e) 原始圖像2 (f) 標(biāo)準(zhǔn)圖2 (g) FC-DenseNet預(yù)測圖2(h) 面向?qū)ο笏惴A(yù)測圖2
(i) 原始圖像3 (j) 標(biāo)準(zhǔn)圖3 (k) FC-DenseNet預(yù)測圖3 (l) 面向?qū)ο笏惴A(yù)測圖3
圖10 優(yōu)勢樹種的分類效果
Fig.10Schematicdiagramofclassificationeffectofdominanttreespecies
隨著類別細(xì)化,圖像更為復(fù)雜,影響著模型的識別效果; 在數(shù)據(jù)集中,由于優(yōu)勢數(shù)種數(shù)據(jù)占比大,其他類別的數(shù)據(jù)占比極小,模型很難從中提取足夠的有效分類特征。因此,本文重點(diǎn)分析優(yōu)勢樹種的識別效果。從圖9中可以看出圖像中大部分優(yōu)勢樹種均能被正確分類。馬尾松、檸檬桉和芒萁的MPA分別高達(dá)到79%,70%和78%。但從總體上看,將類別細(xì)化后,F(xiàn)C-DenseNet-103模型分類效果低于植被與非植被的識別效果,這是由于隨著類別的細(xì)化,其數(shù)據(jù)信息更為復(fù)雜,當(dāng)類別分為植被與非植被時(shí),其紋理特征和光譜特征區(qū)分度較高,當(dāng)類別細(xì)分為13類時(shí),植被與植被間的紋理特征和光譜特征區(qū)分度降低,各植被相互交錯(cuò),很難界定各植被的界線; 并且,樹種種類的增加提高了數(shù)據(jù)的復(fù)雜度,增加了模型的分類難度,分類效果也會隨之下降。但在類別細(xì)化的情況下,F(xiàn)C-DenseNet-103模型均能準(zhǔn)確地識別優(yōu)勢樹種的空間分布信息。
基于面向?qū)ο蟮姆诸愃惴◤V泛應(yīng)用于遙感圖像植被識別,并取得較高的分類精度,為驗(yàn)證FC-DenseNet-103模型在可見光遙感圖像的分類效果,將其與面向?qū)ο笾脖环诸惸P瓦M(jìn)行比較。面向?qū)ο蠓诸悓?shí)驗(yàn),利用ENVI 5.3并選擇最優(yōu)分割參數(shù),測試最優(yōu)分類算法為K-最鄰近算法,隨機(jī)抽取20張驗(yàn)證集進(jìn)行驗(yàn)證,其MPA如圖11所示。
圖11 基于面向?qū)ο笏惴▋?yōu)勢樹種的分類精度Fig.11 Classification accuracies of the object-basedalgorithm for dominant tree species
基于面向?qū)ο蠓诸愃惴▽τ隈R尾松、檸檬桉和芒萁的MPA分別為78%,66%和63%,基本能夠準(zhǔn)確識別優(yōu)勢樹種。但在高空間分辨率的可見光遙感圖像中,由于背景復(fù)雜,存在裸地、裸石、苔蘚等,且各類樹枝縱橫交錯(cuò),導(dǎo)致同種樹種在可見光圖像下的亮度和紋理不盡相同,采用分割算法難以對整個(gè)樹種進(jìn)行準(zhǔn)確分割,在植被識別結(jié)果中存在嚴(yán)重的椒鹽現(xiàn)象。因此,在高空間分辨率的可見光圖像上,F(xiàn)C-DenseNet-103模型的分類效果優(yōu)于基于面向?qū)ο蠓诸愃惴ā?/p>
基于福建省安溪縣崩崗區(qū)無人機(jī)航拍光學(xué)圖像建立FC-DenseNet模型,探測各植被類別與空間分布信息。實(shí)驗(yàn)表明: FC-DenseNet-103在研究區(qū)優(yōu)勢樹種分類任務(wù)中識別精度很高,馬尾松、檸檬桉和芒萁這3類優(yōu)勢樹種精度分別為79%,70%和78%,為低空航拍高空間分辨率光學(xué)圖像的樹種識別提供了新的思路?;诒敬窝芯可写嬖诘牟蛔?,今后將在以下方面對模型進(jìn)行改進(jìn):
1)在本實(shí)驗(yàn)中,模型訓(xùn)練采用的是尺寸為224×224的輸入圖像,且通過圖像增強(qiáng)使圖像總數(shù)量達(dá)到6 336張,但數(shù)據(jù)量仍不足。未來將增加數(shù)據(jù)集的數(shù)量,基于更多的數(shù)據(jù),更大的圖片尺寸,來提升分割效果。
2)FC-DenseNet模型分割結(jié)果在邊緣存在一些噪聲,樹種的邊界難以準(zhǔn)確界定,未來將通過降低噪聲來進(jìn)一步提高FC-DenseNet模型的預(yù)測精度。