亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        深圳市寶安區(qū)土地利用遙感分類方法對(duì)比分析

        2024-01-29 14:42:54劉宇承羅芳杜清運(yùn)黃文麗石儀瑋
        地理信息世界 2023年4期
        關(guān)鍵詞:分類深度特征

        劉宇承,羅芳,杜清運(yùn),黃文麗,石儀瑋

        1. 自然資源部城市國(guó)土資源監(jiān)測(cè)與仿真重點(diǎn)實(shí)驗(yàn)室,深圳 518034;

        2. 深圳市規(guī)劃和自然資源調(diào)查測(cè)繪中心,深圳 518034;

        3. 武漢大學(xué) 資源與環(huán)境科學(xué)學(xué)院,武漢 430079

        1 引 言

        明確土地利用類型是城市進(jìn)行土地生產(chǎn)利用與規(guī)劃管理的前提,有利于城市進(jìn)行合理的土地配置,維護(hù)生態(tài)環(huán)境與自然資源,促進(jìn)經(jīng)濟(jì)發(fā)展,保障人民健康生活(張?jiān)鱿榈龋?016)。遙感技術(shù)是獲取空間地理信息的重要方式,海量的高分辨率和多時(shí)相遙感數(shù)據(jù),為土地利用監(jiān)管提供了充足的信息來源。

        遙感影像解譯是遙感應(yīng)用的基礎(chǔ)任務(wù)。早期解譯主要依靠人工目視和基于統(tǒng)計(jì)聚類思想的計(jì)算機(jī)輔助分類;其后,發(fā)展出了基于超平面分割思想的支持向量機(jī)(support vector machine,SVM)、基于樹狀結(jié)構(gòu)的決策樹、基于集成多分類器思想的隨機(jī)森林(random forest,RF),以及從高分辨率獲取更多幾何與紋理特征的面向?qū)ο蠓诸惙椒ǎ荒壳?,主流的遙感影像解譯方法以深度學(xué)習(xí)模型為代表(張繼賢等,2021)??傮w而言,解譯單元經(jīng)歷了像素、對(duì)象和場(chǎng)景等語義單元的發(fā)展階段,解譯方法從人工和簡(jiǎn)單分類器逐漸發(fā)展成基于集成學(xué)習(xí)和深度神經(jīng)網(wǎng)絡(luò)的方法(周培誠(chéng)等,2021)。

        圍繞土地覆蓋/土地利用分類方法,學(xué)者們展開了許多研究。季順平等(2020)利用全空洞卷積神經(jīng)網(wǎng)絡(luò),基于高分辨率影像對(duì)武漢市進(jìn)行了城市土地覆蓋類型分類。王協(xié)等(2020)設(shè)計(jì)了多尺度特征學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),并與全卷積神經(jīng)網(wǎng)絡(luò)(fully convolutional network,F(xiàn)CN)和支持向量機(jī)的分類結(jié)果進(jìn)行了比較。王俊強(qiáng)等(2021)結(jié)合改進(jìn)的金字塔場(chǎng)景解析網(wǎng)絡(luò)和全連接條件隨機(jī)場(chǎng)提升了遙感影像分割精度。任向宇等(2021)研究了多端元混合像素分解與面向?qū)ο蠓诸惤Y(jié)合的分類方法。許澤宇等(2022)、邵振峰等(2022)分別對(duì)DeepLab模型和U-Net 模型兩種主流語義分割進(jìn)行了智能優(yōu)化改進(jìn)。徐進(jìn)勇等(2022)提出了對(duì)中國(guó)土地資源多尺度遙感智能解譯分類體系。

        在區(qū)域?qū)嶋H生產(chǎn)中,還需考慮不同方法精度、效率與可操作性。當(dāng)前將第三次全國(guó)國(guó)土調(diào)查(簡(jiǎn)稱國(guó)土“三調(diào)”)成果和0.2 m 超高分辨率影像用于解譯土地利用類型的研究還較少。本文結(jié)合這兩類數(shù)據(jù),參考土地利用分類國(guó)家標(biāo)準(zhǔn),構(gòu)建面向深圳市土地分類樣本庫;實(shí)驗(yàn)比較了傳統(tǒng)機(jī)器學(xué)習(xí)模型和深度學(xué)習(xí)模型中分類效果最好的模型、比較了在數(shù)據(jù)量較少或充足的不同情況下適用的分類方法,以及分類單位為像素或?qū)ο髸r(shí)分類結(jié)果的差異;最終得出在深圳市寶安區(qū)大范圍實(shí)際生產(chǎn)場(chǎng)景中,應(yīng)用效果較好的土地利用智能分類方法。

        2 研究區(qū)域與數(shù)據(jù)源

        2.1 研究區(qū)概況

        廣東省深圳市是沿海城市,經(jīng)濟(jì)發(fā)展迅速,城市化程度高,地處亞熱帶季風(fēng)氣候區(qū),自然資源類型多樣,有著“花園城市”之稱。寶安區(qū)(113° 90′E,22° 57′ N),位于深圳市西北部沿海地區(qū),土地面積397 km2,占全市的19.9%。寶安區(qū)屬低山丘陵濱海區(qū),地貌類型多樣全年溫暖濕潤(rùn),平均氣溫為22℃,年降水量為1926 mm。

        2.2 實(shí)驗(yàn)數(shù)據(jù)

        本文以2019 年深圳市寶安區(qū)超高分辨率RGB三通道光學(xué)航空遙感影像(0.2 m)、國(guó)土“三調(diào)”地理信息系統(tǒng)矢量成果為數(shù)據(jù)源。

        首先結(jié)合國(guó)家標(biāo)準(zhǔn)《土地利用現(xiàn)狀分類》(GB/T 21010—2017)和《第三次全國(guó)國(guó)土調(diào)查技術(shù)規(guī)程》(TD/T 1055—2019)確定分類體系。在國(guó)土“三調(diào)”數(shù)據(jù)基礎(chǔ)上人工修正部分標(biāo)簽,構(gòu)建寶安區(qū)地表自然資源豐富區(qū)域的樣本庫。每張圖片尺寸為1024像素×1024 像素,標(biāo)簽包含林地、建設(shè)用地、水域、草地、濕地、耕地、園地及無數(shù)據(jù)的背景類8 個(gè)類別。樣本庫主要有三部分:①大容量樣本a,含訓(xùn)練樣本2499 張、驗(yàn)證樣本92 張、測(cè)試樣本894 張;②小容量樣本b,在大容量樣本a 中選取部分影像,含訓(xùn)練樣本44 張、測(cè)試樣本15 張,用于比較傳統(tǒng)機(jī)器學(xué)習(xí)與深度學(xué)習(xí)模型;③人工選取樣本c,含各類別樣本數(shù)較均衡的12 張,用于測(cè)試各模型最終分類效果。樣本位置分布與示例,如圖1 所示。

        圖1 樣本分布Fig.1 Overview of the data sample

        3 城市土地利用分類方法

        3.1 傳統(tǒng)機(jī)器學(xué)習(xí)分類

        早期遙感影像解譯,以像素為最小分類單元。同類地物在不同波段中的光譜亮度、空間紋理結(jié)構(gòu)和其他相關(guān)信息,會(huì)在特征空間中構(gòu)成集群。通過選取特征和樣本,再訓(xùn)練分類器,可將像素預(yù)測(cè)為所屬的地物類別。隨著遙感技術(shù)發(fā)展,高空間分辨率遙感影像成像波段普遍較少,光譜信息減少的同時(shí),空間細(xì)節(jié)信息大幅增多。面向?qū)ο蠓诸惙椒ㄒ杂跋穹指詈蟮膶?duì)象為最小分類單元,其提取幾何和紋理特征的能力更強(qiáng)。

        3.1.1 特征選擇

        傳統(tǒng)機(jī)器學(xué)習(xí)分類器對(duì)輸入特征有強(qiáng)依賴性?;谙袼胤诸悤r(shí)常用光譜特征,如各波段光譜值、歸一化植被指數(shù)(normalized difference vegetation index,NDVI)和歸一化水體指數(shù)(normalized difference water index,NDWI)等,影像紋理特征,即經(jīng)局部二值模式(local binary pattern,LBP)、Gabor 濾波等方法提取,并通過多項(xiàng)式的方式交互光譜和紋理特征;利用面向?qū)ο笏枷敕诸悤r(shí),進(jìn)一步選擇以對(duì)象為最小分類單元的特征,如對(duì)象位置、與鄰域?qū)ο箨P(guān)系、長(zhǎng)度等形狀因子,灰度共生矩陣等紋理特征,使目標(biāo)地物分類更準(zhǔn)確。

        3.1.2 分類器

        1)K 近鄰

        K 近鄰(k-nearest neighbour,KNN)是Cover和Hart(1967)提出的分類算法。K值選取較為重要,以樣本在特征空間中最鄰近K個(gè)樣本類別判斷該樣本類別。KNN 算法原理成熟且易于理解,模型訓(xùn)練時(shí)間快,需要調(diào)整的參數(shù)少,本文選為基線模型進(jìn)行參考。

        2)支持向量機(jī)

        支持向量機(jī)是Cortes 和Vapnik(1995)提出的經(jīng)典機(jī)器學(xué)習(xí)模型。其通過在特征空間中建立間隔最大的超平面進(jìn)行二分類,使用核方法進(jìn)行非線性分類,并構(gòu)建多個(gè)二分類模型來執(zhí)行多分類任務(wù)。

        3)隨機(jī)森林

        Breiman(2001)在決策樹算法的基礎(chǔ)上,結(jié)合Bagging 集成學(xué)習(xí)與隨機(jī)子空間方法,提出了隨機(jī)森林。決策樹依照最優(yōu)分裂特征不斷遞歸迭代,將數(shù)據(jù)集分為不同特征的部分。隨機(jī)森林模型則集成多個(gè)互不關(guān)聯(lián)決策樹,預(yù)測(cè)時(shí)每棵決策樹分別判斷,最終通過統(tǒng)計(jì)所有樹的判斷投票產(chǎn)生結(jié)果。

        4)梯度提升決策樹

        梯度提升決策樹(gradient boosting decision tree,GBDT)采用Boosting 集成學(xué)習(xí)方法,依據(jù)錯(cuò)誤率來取樣,通常比隨機(jī)森林有更高準(zhǔn)確度(Friedman,2001)。本文采用的GBDT 模型,集成決策樹類型回歸樹,在預(yù)測(cè)分類時(shí),通過累加所有結(jié)果,將概率最高的類作為預(yù)測(cè)結(jié)果。

        3.2 深度學(xué)習(xí)分類

        在當(dāng)今大數(shù)據(jù)和高算力背景下,深度學(xué)習(xí)相較傳統(tǒng)機(jī)器學(xué)習(xí)方法,能從海量數(shù)據(jù)中學(xué)習(xí)更多特征,在遙感影像分類任務(wù)中有顯著優(yōu)勢(shì)。其應(yīng)用于遙感影像分類主要分為對(duì)切片的對(duì)象識(shí)別、基于對(duì)象的分類和端對(duì)端的語義分割(周培誠(chéng)等,2021)。

        3.2.1 語義分割

        語義分割是在像素級(jí)別上的分類,如全卷積神經(jīng)網(wǎng)絡(luò)將卷積神經(jīng)網(wǎng)絡(luò)中全連接層替換為卷積層,實(shí)現(xiàn)端到端像素級(jí)分類(Long 等,2015)。常用語義分割模型有U-Net(Ronneberger 等,2015)、DeepLab(Chen 等,2018a)、DeepLabV3(Chen 等,2017)和DeepLabV3+模型(Chen 等,2018b)等。

        本文選取DeepLabV3+、Resnet50-unet 和U-Net三種深度學(xué)習(xí)語義分割模型進(jìn)行測(cè)試。在大容量樣本集a 上進(jìn)行測(cè)試,損失函數(shù)選擇焦點(diǎn)損失,其中,超參數(shù)γ表示難分類樣本的權(quán)重。采用總體精度(overall accuracy,OA)和語義分割常用評(píng)價(jià)指標(biāo)平均交并比(mean intersection over union,MIoU)進(jìn)行精度評(píng)價(jià),結(jié)果如表1 所示。使用焦點(diǎn)損(γ=5)的DeepLabV3+模型在深圳市寶安區(qū)樣本庫中的分類效果最佳(總體精度0.83,平均交并比0.61),因此,本文將其作為深度學(xué)習(xí)方法的代表。

        表1 深度學(xué)習(xí)語義分割模型分類結(jié)果Tab.1 Classification results of deep learning semantic segmentation model

        3.2.2 DeepLabV3+模型

        DeepLabV3+網(wǎng)絡(luò)結(jié)構(gòu),如圖2 所示,其整體使用編碼器解碼器結(jié)構(gòu)。首先,通過編碼器卷積和下采樣方式,減少特征圖尺寸,獲取更多低級(jí)特征和更高級(jí)語義信息;通過解碼器融合,提取特征并上采樣恢復(fù)到輸入影像空間維度進(jìn)行預(yù)測(cè)。其次,影像輸入模型中,通過帶有空洞卷積的深度卷積神經(jīng)網(wǎng)絡(luò)(deep convolutional neural network,DCNN)分別輸出高級(jí)特征和低級(jí)特征。高級(jí)特征在空間金字塔池化后連接,經(jīng)過1×1 卷積融合后進(jìn)行4 倍上采樣,再與經(jīng)過1×1 卷積進(jìn)行降維的低級(jí)特征連接。最后,采用3×3 卷積進(jìn)一步融合特征,4 倍上采樣還原成原始空間大小進(jìn)行語義分割。

        圖2 DeepLabV3+網(wǎng)絡(luò)結(jié)構(gòu)示意Fig.2 Structure of DeepLabV3+

        DeepLabV3+ 模型中, DCNN 是改進(jìn)的Xception。與DeepLabV3 的模型骨干網(wǎng)絡(luò)ResNet(He 等,2016)相比,改進(jìn)的Xception 使用了深度可分離卷積,通過逐個(gè)通道卷積和逐點(diǎn)卷積方式,減少計(jì)算量的同時(shí)提升了網(wǎng)格分割效果。

        4 實(shí)驗(yàn)與分析

        基于前述構(gòu)建的寶安區(qū)樣本庫,本研究設(shè)計(jì)了三組實(shí)驗(yàn),如表2 所示:①在對(duì)大容量樣本a 隨機(jī)抽樣的情況下,KNN、SVM、RF 與GBDT 四種傳統(tǒng)機(jī)器學(xué)習(xí)模型的比較;②在小容量樣本b 下,傳統(tǒng)機(jī)器學(xué)習(xí)模型GBDT 和深度學(xué)習(xí)模型DeepLabV3+的比較;③在大容量樣本a 下,傳統(tǒng)機(jī)器學(xué)習(xí)模型RF 與深度學(xué)習(xí)模型DeepLabV3+的比較。三組實(shí)驗(yàn)采用OA、Kappa 系數(shù)、F1 分?jǐn)?shù)(F1-score)和MIoU進(jìn)行精度評(píng)價(jià)。

        表2 實(shí)驗(yàn)使用的數(shù)據(jù)集與模型Tab.2 Data sets and models selected for the experiments

        基于Scikit Learn與LightGBM庫構(gòu)建傳統(tǒng)機(jī)器學(xué)習(xí)模型,在像素分類時(shí)選擇的特征為RGB 值、LBP、Gabor 濾波提取的紋理特征。

        面向?qū)ο蠓诸愂褂胑Cognition 實(shí)現(xiàn)。以尺度參數(shù)為100,形狀因子為0.3,緊致度因子為0.5 進(jìn)行多尺度分割,在RF 分類器中輸入特征包含RGB 三波段均值、亮度值、對(duì)象長(zhǎng)寬比、灰度共生矩陣0°、45°、90°和135°方向的均值與對(duì)比度、對(duì)象密度指數(shù)。基于TensorFlow 構(gòu)建DeepLabV3+模型,損失函數(shù)設(shè)為焦點(diǎn)損失(γ=5),初始學(xué)習(xí)率設(shè)為0.00005。操作系統(tǒng)為Ubuntu 20.04.3 LTS,GPU 硬件配置為NVIDIA 3090 Ti,通過CUDA 進(jìn)行加速。

        4.1 傳統(tǒng)機(jī)器學(xué)習(xí)模型比較

        以像素作為最小分類單元進(jìn)行比較,使用大容量樣本a 中的訓(xùn)練樣本,對(duì)每張1024 像素×1024 像素尺寸的影像隨機(jī)抽取1000 個(gè)點(diǎn),按6∶4 隨機(jī)分成訓(xùn)練集與測(cè)試集。

        由表3 知,RF 模型相較KNN、SVM 與GBDT模型,有更高的OA(0.64)、Kappa 系數(shù)(0.49)、F1 分?jǐn)?shù)(0.67)和MIoU(0.37)。由于訓(xùn)練樣本林地和建設(shè)用地兩類數(shù)目較多,分類器存在過擬合現(xiàn)象,即傾向?qū)y(cè)試樣本分成該兩類別。SVM 模型的過擬合現(xiàn)象尤為明顯,分類結(jié)果較低。

        表3 傳統(tǒng)機(jī)器學(xué)習(xí)模型的分類結(jié)果Tab.3 Classification results of the traditional machine learning model

        4.2 少樣本的傳統(tǒng)機(jī)器學(xué)習(xí)與深度學(xué)習(xí)模型比較

        比較傳統(tǒng)機(jī)器學(xué)習(xí)與深度學(xué)習(xí)模型時(shí),以相同訓(xùn)練集作為前提。深度學(xué)習(xí)模型訓(xùn)練需以整張影像方式進(jìn)行輸入,單張影像尺寸較大。傳統(tǒng)機(jī)器學(xué)習(xí)模型,過大數(shù)據(jù)量會(huì)導(dǎo)致模型難擬合。經(jīng)測(cè)試得到,滿足模型擬合且訓(xùn)練數(shù)據(jù)量最多的傳統(tǒng)機(jī)器學(xué)習(xí)模型為GBDT。在小容量樣本b 下,本文選擇對(duì)GBDT 模型與DeepLabV3+模型進(jìn)行比較。

        由表4 知,DeepLabV3+模型的OA(0.68)、Kappa 系數(shù)(0.55)、F1 分?jǐn)?shù)(0.62)和MIoU(0.34)均優(yōu)于GBDT 模型;但由于訓(xùn)練樣本量不足,難以發(fā)揮出深度學(xué)習(xí)復(fù)雜的模型的優(yōu)勢(shì),其解譯結(jié)果存在意義不明的問題,如圖3(Ⅰ)、(Ⅲ)所示,有大面積的錯(cuò)誤。GBDT 模型的優(yōu)勢(shì)在于訓(xùn)練對(duì)硬件條件的要求低,所需人工標(biāo)注數(shù)據(jù)也較少,且訓(xùn)練和預(yù)測(cè)時(shí)間耗時(shí)均較短;同時(shí),解譯結(jié)果邊界清晰,可解釋性強(qiáng),但“椒鹽噪聲”問題嚴(yán)重,如圖3 所示。

        表4 GBDT 與DeepLabV3+模型的分類結(jié)果Tab.4 Classification results of GBDT and DeepLabV3+

        圖3 GBDT 與DeepLabV3+分類結(jié)果示例Fig.3 Classification samples of GBDT and DeepLabV3+

        4.3 充足樣本的傳統(tǒng)機(jī)器學(xué)習(xí)與深度學(xué)習(xí)模型比較

        深度學(xué)習(xí)相較于傳統(tǒng)機(jī)器學(xué)習(xí)方法,能從更多數(shù)據(jù)中學(xué)習(xí)特征,在大容量樣本a 上訓(xùn)練后,能充分發(fā)揮出DeepLabV3+模型的優(yōu)勢(shì)。作為比對(duì),選擇隨機(jī)森林作為基于像素分類的傳統(tǒng)機(jī)器學(xué)習(xí)分類器。此外,面向?qū)ο蠓诸愒诟叻直媛视跋駪?yīng)用中能獲取更多的空間細(xì)節(jié)特征,也作為一種分類方式進(jìn)行比較,在多尺度分割的影像上,對(duì)中心區(qū)域周圍八鄰域1024 像素×1024 像素的影像進(jìn)行對(duì)象級(jí)的標(biāo)注后,也輸入隨機(jī)森林分類器中。

        在各類別像素?cái)?shù)目較為均衡的測(cè)試集(c.測(cè)試樣本)上的分類結(jié)果,如表5 所示,DeepLabV3+分類方法有最高的OA(0.86)、Kappa 系數(shù)(0.83)、F1 分?jǐn)?shù)(0.85)和MIoU(0.63),如圖4 所示,除濕地外,各類別準(zhǔn)確度都較高。隨機(jī)森林(基于像素)分類精度最低,其主要原因包括:分類任務(wù)相對(duì)復(fù)雜,超高分影像空間分辨率高(0.2 m)但光譜分辨率低;寶安區(qū)樣本庫中仍存在類別不均衡現(xiàn)象,導(dǎo)致RF(基于像素)模型出現(xiàn)過擬合。另外,RF(面向?qū)ο螅┑姆椒ㄒ杂跋穹指詈髮?duì)象為最小分類單元,獲取了高分辨率影像中較多空間特征,其分類結(jié)果優(yōu)于RF(基于像素)的分類方法。

        表5 RF(基于像素)、RF(面向?qū)ο螅┡cDeepLabV3+模型的分類結(jié)果Tab.5 Classification results of RF (pixel-based), RF(object-oriented) and DeepLabV3+

        圖4 RF(基于像素)、RF(面向?qū)ο螅┡cDeepLabV3+模型的混淆矩陣Fig.4 Confusion matrices of RF (pixel-based), RF (object-oriented), and DeepLabV3+

        局部解譯結(jié)果示例,如圖5 所示。RF(基于像素)分類方法解譯結(jié)果錯(cuò)誤最多,預(yù)測(cè)多為水域、林地和建設(shè)用地,難以細(xì)分出其他類別,且“椒鹽噪聲”問題嚴(yán)重。RF(面向?qū)ο螅┓诸惙椒ɑ窘鉀Q了“椒鹽噪聲”問題,解譯結(jié)果整體性較強(qiáng),但存在特征相近的類別難以區(qū)分的問題,如園地類型預(yù)測(cè)為林地和草地(圖5(Ⅱ)),以及耕地與濕地類別解譯錯(cuò)誤較多(圖5(Ⅲ)~(Ⅴ))。DeepLabV3+分類方法的結(jié)果整體準(zhǔn)確較好,解譯結(jié)果與真實(shí)標(biāo)簽基本相同,輪廓清晰,內(nèi)部較為完整,如圖5(Ⅰ)、(Ⅱ)、(Ⅳ)、(Ⅴ)所示。

        圖5 RF(基于像素)、RF(面向?qū)ο螅┡cDeepLabV3+分類結(jié)果示例Fig.5 Classification samples of RF (pixel-based), RF (object-oriented), and DeepLabV3+

        最后,本文以DeepLabV3+模型作為土地利用遙感分類方法,應(yīng)用在寶安區(qū)整體區(qū)域得到寶安區(qū)土地利用分類圖,如圖6 所示。結(jié)果表明,深圳市寶安區(qū)的北部與東部林地、草地、水域、耕地與園地等自然資源較為豐富,西部沿海建設(shè)用地面積廣且集中,城市化水平較高,符合國(guó)土“三調(diào)”情況。對(duì)比分析結(jié)果表明,對(duì)于超高分辨率遙感影像多類別土地利用分類,在具備深度學(xué)習(xí)模型訓(xùn)練環(huán)境和充足數(shù)據(jù)量情況下,DeepLabV3+模型分類精度遠(yuǎn)高于傳統(tǒng)機(jī)器學(xué)習(xí)模型,解譯結(jié)果與實(shí)際情況相近,且能應(yīng)用于大范圍區(qū)域。

        圖6 基于DeepLabV3+模型的寶安區(qū)分類Fig.6 Classification map of Bao’an District based on DeepLabV3+

        5 結(jié) 論

        本文參考超高分辨率航拍影像和經(jīng)人工修正的國(guó)土“三調(diào)”數(shù)據(jù),構(gòu)建面向深圳市寶安區(qū)的土地利用分類樣本庫,針對(duì)城市自然資源和土地現(xiàn)代化監(jiān)管精度與效率需求,比較了有代表性的傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)分類方法,得到以下主要結(jié)論。

        (1) 傳統(tǒng)機(jī)器學(xué)習(xí)方法難以適用于大范圍超高分辨率航拍影像土地利用類型分類?;谙裨姆诸惤Y(jié)果存在較嚴(yán)重的“椒鹽噪聲”問題。面向?qū)ο蠓诸惙椒?,將影像分割后?duì)象作為最小分類單元,有效解決了“椒鹽噪聲”問題,可較好地區(qū)分超高分影像中不同土地利用類型,但在大范圍應(yīng)用時(shí)仍存在效率較低的問題。

        (2) 樣本量和算力對(duì)分類方法選取起重要作用。訓(xùn)練樣本容量較小時(shí),傳統(tǒng)機(jī)器學(xué)習(xí)分類結(jié)果可解釋性較強(qiáng),比深度學(xué)習(xí)方法算力要求低。較充足樣本量情況下,傳統(tǒng)機(jī)器學(xué)習(xí)方法僅用RGB 影像難以區(qū)分多種土地利用類型;以DeepLabV3+為代表的深度學(xué)習(xí)方法,能兼顧大范圍區(qū)域土地利用類型數(shù)據(jù)生產(chǎn)的精度和效率要求。

        本文還存在一些不足。一是使用的遙感影像雖然空間分辨率較高(0.2 m)但只含RGB 波段影響了分類精度,后續(xù)研究將以數(shù)據(jù)融合方式加入對(duì)于植被信息更為敏感的紅外波段特征,以提升分類精度。二是本文實(shí)驗(yàn)比較不同方法分類結(jié)果時(shí),以保證采用相同的訓(xùn)練集和測(cè)試集為前提,但模型結(jié)構(gòu)不同導(dǎo)致訓(xùn)練方式存在一定差別,為了提升結(jié)果可比性以支撐結(jié)論,實(shí)驗(yàn)設(shè)計(jì)仍需進(jìn)一步優(yōu)化。

        猜你喜歡
        分類深度特征
        分類算一算
        深度理解一元一次方程
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        分類討論求坐標(biāo)
        深度觀察
        深度觀察
        深度觀察
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        蜜桃夜夜爽天天爽三区麻豆av| 亚洲人成网站www| 伊人久久综合精品无码av专区 | av区无码字幕中文色| 国产精品扒开腿做爽爽爽视频| 日本午夜精品理论片a级app发布| 午夜福利电影| 91久久精品无码人妻系列| 中文字幕精品亚洲无线码二区 | 无码av免费永久免费永久专区| 高清亚洲精品一区二区三区| 亚洲乱码中文字幕三四区| 亚洲av精二区三区日韩| 精品国产性色无码av网站| 国产亚洲精品久久久久婷婷瑜伽| 国产在线丝袜精品一区免费| 欧美日韩综合在线视频免费看| 亚洲黄片av在线免费观看| 日韩在线观看入口一二三四| 久久综合九色综合久99| 无遮挡边摸边吃奶边做视频免费| 久久AV中文一区二区三区| 免费大学生国产在线观看p| 高潮av一区二区三区| 人妻久久一区二区三区蜜桃| 国产成人无码精品久久久露脸 | 亚洲精品久久激情国产片| 欧美性猛交xxxx乱大交3| 国产极品美女高潮无套在线观看| 成人在线免费视频亚洲| 狼人综合干伊人网在线观看| 色中文字幕在线观看视频| 少妇装睡让我滑了进去| 人妻无码人妻有码不卡| 日本精品av中文字幕| 国产一区二区视频在线免费观看| 日本乱偷人妻中文字幕在线| 亚洲色在线视频| 中文字幕第一页在线无码一区二区| 在线观看国产视频午夜| 国内精品久久久久伊人av|