亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學習的農(nóng)業(yè)區(qū)土地利用無人機監(jiān)測分類

        2019-10-09 08:53:36田琳靜宋文龍盧奕竹李煥新
        關鍵詞:土地利用卷積精度

        田琳靜,宋文龍,盧奕竹,呂 娟,李煥新,陳 靜

        (1.首都師范大學 資源環(huán)境與旅游學院,北京 100048;2.中國水利水電科學研究院 水利部防洪抗旱減災工程技術研究中心,北京 100038;3.渭南市東雷二期抽黃工程管理局,陜西 渭南 714000)

        1 研究背景

        農(nóng)業(yè)干旱較為復雜,同時涉及地上氣象-水文通量(如降水、灌溉、蒸散發(fā)等)和地下水文通量(如土壤水),并且農(nóng)業(yè)干旱情勢與影響因作物類型及其生長發(fā)育階段等而異[1-6]。農(nóng)業(yè)區(qū)土地利用快速監(jiān)測與分類對農(nóng)業(yè)旱情與旱災監(jiān)測評估具有重要意義,有助于制定合理的抗旱減災應對措施,并為政府部門制定規(guī)劃、土地資源管理、生態(tài)環(huán)境保護規(guī)劃與決策提供了重要的基礎數(shù)據(jù)[7-8]。

        近些年無人機(Unmanned Aerial Vehicle,簡稱UAV)低空遙感技術快速發(fā)展,具有云下作業(yè)、機動靈活、數(shù)據(jù)分辨率高等優(yōu)勢,能夠彌補衛(wèi)星遙感影像獲取能力的不足,在高分辨率遙感影像快速獲取與應急方面優(yōu)勢日益突出[9-10]?;谛l(wèi)星遙感的土地利用分類研究較為成熟[11-16],傳統(tǒng)的分類方法主要包括監(jiān)督分類、非監(jiān)督分類、面向對象分類等。非監(jiān)督分類操作簡單,人為干預少,但分類精度較低。監(jiān)督分類需要對分類地區(qū)有一定的先驗知識,利用樣本區(qū)干預分類類別及結果,通過提高樣本區(qū)的質(zhì)量來提高分類精度。這兩種分類方法都是基于像元進行分類,存在“椒鹽”現(xiàn)象[17]。而面向對象分類方法能夠有效的減少基于像元分類出現(xiàn)的“椒鹽”噪聲現(xiàn)象,但其對圖像的特征提取不夠全面[18-20]。近年來,源于人工神經(jīng)網(wǎng)絡的深度學習方法,作為機器學習的一個研究新領域受到社會廣泛關注,具有利用多層非線性的網(wǎng)絡結構從大量數(shù)據(jù)中學習數(shù)據(jù)本質(zhì)特征的能力[21-25]。其中,卷積神經(jīng)網(wǎng)絡深度學習方法具有較強的分層學習特征能力,在語音識別、視覺識別以及圖像分類等方面表現(xiàn)出獨特優(yōu)勢[26-29]。杜敬[30]利用深度學習方法,結合無人機影像進行水體提??;王術波等[31]對雜草進行分類;金永濤等[32]利用深度學習結合面向對象方法對典型地物進行提取,其提取精度較理想。

        本文面向無人機技術在高分辨率下墊面信息快速獲取方面的優(yōu)勢,利用卷積神經(jīng)網(wǎng)絡深度學習方法開展農(nóng)業(yè)區(qū)土地利用分類研究,主要通過建立樣本庫、利用樣本庫訓練卷積神經(jīng)網(wǎng)絡模型以及圖像分類等步驟實施,并與最大似然法比較,利用隨機選取的樣本點對二者進行精度評價,并結合視覺評估驗證該方法的可行性。

        2 研究區(qū)與數(shù)據(jù)源

        2.1 研究區(qū)選取東雷二期抽黃灌區(qū)中具有代表性下墊面的兩個典型區(qū)域作為研究區(qū)(見圖1),區(qū)域1、區(qū)域2總面積分別為1 333 099.33m2、168 698.41m2。東雷二期灌區(qū)地處陜西省關中東部旱塬地區(qū),位于東經(jīng)109°10′~110°10′、北緯34°41′~35°00′之間,地勢由西北向東南傾斜,海拔385 ~ 600 m,總面積1469.81 km2。該地區(qū)干濕季分明,年平均降水量519~552 mm,年蒸發(fā)量1700~2000 mm。主要農(nóng)作物為冬小麥、夏玉米,經(jīng)濟作物為水果、蔬菜等。其中,冬小麥生長周期為10月至次年6月中旬,夏玉米生長周期為6月下旬至10月,蔬菜主要采用大棚種植。

        圖1 東雷二期抽黃灌區(qū)典型區(qū)域航飛圖(區(qū)域1和區(qū)域2)

        2.2 數(shù)據(jù)源研究區(qū)無人機航片利用大疆精靈phantom 4 Pro無人機搭載全色相機航拍獲得,無人機和相機主要參數(shù)參見表1。以2018年6月15日東雷二期抽黃灌區(qū)區(qū)域1和區(qū)域2兩個區(qū)域的無人機全色航片為數(shù)據(jù)源,其飛行高度為200 m,每張航片尺寸為5472×3648像素,空間分辨率5.45 cm,采用由中國水利水電科學研究院與北京易測天地科技有限公司聯(lián)合研發(fā)、具有獨立知識產(chǎn)權的無人機航片智能處理軟件(YC-mapper)系統(tǒng),對無人機航片進行校正、拼接等預處理,該軟件無需人工干預,可快速完成空三解算、DEM生成、正射影像拼接等一系列任務。

        表1 大疆精靈phantom 4 Pro無人機及其相機主要參數(shù)

        3 基于深度學習的土地利用分類方法

        3.1 深度學習原理深度學習是機器學習領域一個新的研究方向,其主要利用多層非線性結構,由低到高逐層提取數(shù)據(jù)特征,并利用其特征訓練模型,從對數(shù)據(jù)信息進行預測及識別。如圖2所示,深度學習模型是由輸入層、隱藏層(一層或多層)和輸出層等多層感知器組成。典型的深度學習模型有層疊自動去燥編碼機(Stacked Deoising Autoencoder,SDA)、深度置信網(wǎng)絡(Deep Belief Network,DBN)和卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)等[30,33]。

        圖2 深度學習網(wǎng)絡模型

        其中,CNN在語音識別、視覺識別以及圖像分類等方面應用廣泛,并表現(xiàn)出獨特的優(yōu)勢[34]。CNN是一種前饋式多層神經(jīng)網(wǎng)絡,其具有局部連接的結構,權重共享的特點,并有較強的分層學習特征能力。CNN的基本結構主要包括輸入層、卷積層、池化層(子采樣層)、全連接層以及輸出層五個部分(見圖3)。一個CNN結構中至少存在一個卷積層,并且卷積層與池化層是成對出現(xiàn)的,即一個卷積層后面緊跟一個池化層,共同構成特征提取器[35]。

        圖3 卷積神經(jīng)網(wǎng)絡結構

        卷積層是CNN網(wǎng)絡結構的核心部分,主要作用是從樣本數(shù)據(jù)中提取樣本數(shù)據(jù)特征,并利用這些特征作為濾波器,對整幅影像進行卷積運算,最終獲得整幅影像每個位置不同特征的激活值[31]。其計算公式為

        式中:為卷積層n的第j個特征圖;f為激活函數(shù);Mi為選擇輸入特征圖;為卷積層n-1的第i個特征圖;*為卷積操作;kij為上一卷積層第i個特征圖與本卷積層第j個特征圖之間的卷積核;為卷積層n的偏置值。

        池化層是對圖像局部區(qū)域不同位置的特征進行聚類統(tǒng)計運算,以減少訓練分類器的計算量,避免過擬合現(xiàn)象的發(fā)生。其計算公式為:

        式中,f為激活函數(shù);為子采樣系數(shù);down()為子采樣函數(shù);為子采樣層n-1的第j個特征圖;為子采樣層n的偏置值。

        卷積層與池化層組成的提取器所提取的是局部特征,全連接層的作用在于將提取的局部特征進行優(yōu)化,通過權值矩陣獲得全局特征,以減少特征數(shù)量提高計算速度。其計算公式為

        式中,f為激活函數(shù);wn為全連接網(wǎng)絡的權重系數(shù);xn-1為上一層的特征圖;bn為全連接層n的偏置值。

        CNN本質(zhì)是構建輸入與輸出的一種映射關系,根據(jù)輸入層的數(shù)據(jù)由低到高逐層提取特征,從而構建一個從低級到高級特征的映射。在這個過程中,不需要具體的數(shù)學公式計算,只需要用已知的樣本數(shù)據(jù)對CNN進行訓練,從而構建出具有輸入輸出能力的網(wǎng)絡[23]。本研究采用CNN深度學習方法對目標地物進行提取。

        3.2 深度學習基本流程采用CNN深度學習方法,基于高空間分辨率的無人機遙感影像,對農(nóng)業(yè)區(qū)土地利用進行分類,基本流程如圖4所示。在通過深度學習方法對特定的目標地物進行識別時,首先需要建立目標地物的樣本庫,樣本庫構建的質(zhì)量直接影響利用深度學習識別目標地物的精度。因此,在建立樣本庫時,每類地物的樣本庫應該選取包含該類地物各種形態(tài)的面狀樣本數(shù)據(jù),并且盡量保證每類樣本庫都是“較純”樣本庫,即每類樣本庫內(nèi)只存在本類樣本,不摻雜其他類型的樣本,以防止給模型的構建以及訓練帶來干擾,影響分類結果。研究區(qū)土地利用分類的樣本庫構建如表2所示,樣本類型主要包括林地、裸地、建設用地、農(nóng)作物以及大棚等,其中建設用地包括建筑物和道路等,裸地包括收割后未種植的耕地。然后利用構建的樣本庫訓練模型,進而利用訓練好的模型對研究區(qū)域進行土地利用分類,最終對分類結果進行精度評價。

        圖4 基于深度學習和無人機遙感影像識別目標地物的流程圖

        4 結果分析

        4.1 土地利用分類結果根據(jù)研究區(qū)下墊面類型特征,東雷二期抽黃灌區(qū)研究區(qū)域1面積為133 099.33 m2,土地利用分類主要包括林地、裸地、建設用地三類,研究區(qū)域2面積為168 698.41 m2,土地利用分類主要包括林地、農(nóng)作物、裸地、大棚、建設用地五類,分類結果如圖5和表3所示。因試驗區(qū)為農(nóng)作物種植區(qū),主要土地利用類型以農(nóng)用地為主,包括裸地(收割后未種植耕地)、大棚、生長中的農(nóng)作物等,建設用地、林地占比較少。兩個實驗區(qū)內(nèi),裸地(收割后未種植耕地)所占比例最大,分別占試驗區(qū)總面積的61.49%和51.69%,主要原因是無人機航拍時間為6月15日,冬小麥剛收割,大部分耕地未種植或已種植作物但并未長出。區(qū)域1中林地占比較大,約為29.15%;區(qū)域2中大棚占比較大,約為27.56%。

        表2 目標地物樣本庫

        圖5 基于深度學習的土地利用分類結果

        表3 土地利用各類型所占面積及比例

        4.2 精度驗證與分析利用基于最大似然法的監(jiān)督分類方法與本方法進行對比?;谧畲笏迫环ǖ姆诸惤Y果如圖6所示,并采用隨機抽樣方法,分別在每個研究區(qū)域影像上以均勻分布的原則選擇158個樣本點,用于評價兩種方法的分類精度,樣本點分布情況如圖7所示。精度結果顯示,基于深度學習的土地利用分類,區(qū)域1總體精度為93.04%,Kappa系數(shù)為0.90;區(qū)域2總體精度為93.04%,Kap-pa系數(shù)為0.91?;谧畲笏迫环ǖ谋O(jiān)督分類,區(qū)域1總體精度81.65%,Kappa系數(shù)為0.73;區(qū)域2總體精度為70.26%,Kappa系數(shù)為0.62。

        圖7 東雷二期抽黃灌區(qū)(區(qū)域1、區(qū)域2)樣本點分布圖

        如表4—表7所示,在土地利用分類的混淆矩陣中可以看出,影像中林地、農(nóng)作物這兩類在顏色、紋理等特征上存在極大的相似性,難以完全有效區(qū)分開。建筑物附近存在大量的樹木,且建筑物類型復雜,增大了分類難度,與林地間也存在部分混分現(xiàn)象。基于深度學習的土地利用分類效果較為理想,少數(shù)樣本點存在錯分漏分現(xiàn)象。區(qū)域1中,錯分誤差低至10.91%,漏分誤差低至9.26%,制圖精度達到90.74%,用戶精度達到89.09%。區(qū)域2中,錯分誤差低至21.62%,漏分誤差低至13.33%,制圖精度為86.67%,用戶精度為78.36%。由于區(qū)域2比區(qū)域1中分類類別多,其分類精度略低于區(qū)域1的分類精度。而基于最大似然法的土地利用分類結果錯分漏分現(xiàn)象較為嚴重,其中,建設用地錯分為裸地、大棚的比例較高,林地與農(nóng)作物兩類混分現(xiàn)象較嚴重。區(qū)域1中,錯分誤差高達36.07%,漏分誤差高達41.94%,制圖精度低至58.06%,用戶精度達到63.93%。區(qū)域2中,錯分誤差高達50.00%,漏分誤差高達79.41%,制圖精度為20.59%,用戶精度為50.00%?;谏疃葘W習的土地利用分類結果優(yōu)于最大似然法的土地利用分類方法,尤其在分類類別較多的情況下優(yōu)勢更加明顯。

        表4 東雷二期抽黃灌區(qū)區(qū)域1土地利用分類混淆矩陣(個)

        基于較高空間分辨率無人機航片與深度學習方法的農(nóng)業(yè)區(qū)土地利用分類,在地物邊界識別方面具有明顯優(yōu)勢,如圖8所示,林地、農(nóng)作物、裸地的邊界能夠被清晰地識別并提取出來。但由于受陰影的影響,大棚和建設用地的邊界提取存在一定的誤差。

        表5 東雷二期抽黃灌區(qū)區(qū)域1土地利用錯分誤差、漏分誤差、制圖精度與用戶精度(%)

        表6 東雷二期抽黃灌區(qū)區(qū)域2土地利用分類混淆矩陣(個)

        表7 東雷二期抽黃灌區(qū)區(qū)域2土地利用錯分誤差、漏分誤差、制圖精度與用戶精度(%)

        圖8 邊界識別提取

        5 結論

        本文以東雷二期抽黃灌區(qū)具有下墊面代表性的小區(qū)域為研究區(qū),利用深度學習方法,針對較高空間分辨率的無人機航片影像,開展了農(nóng)業(yè)區(qū)土地利用監(jiān)測分類研究,并利用基于最大似然法的監(jiān)督分類方法進行對比,探究該方法對于農(nóng)業(yè)區(qū)土地利用監(jiān)測分類的適用性。主要結論如下:

        (1)研究區(qū)的土地利用分類總體精度達到93%以上,Kappa系數(shù)為0.9以上,錯分誤差低至21.62%,漏分誤差低至13.33%,制圖精度達到86.67%以上,用戶精度達到78.36%以上。錯分誤差較大和用戶精度較低的類型為農(nóng)作物,漏分誤差較高和制圖精度較差的類型為大棚。并該方法的分類精度明顯優(yōu)于最大似然法,尤其在分類類別較多的情況下優(yōu)勢更加明顯。

        (2)利用CNN深度學習方法對較高空間分辨率的無人機航片影像進行土地利用分類,能夠更清晰地識別提取出地物邊界,如林地、農(nóng)作物以及裸地,但由于受陰影的影響,大棚和建設用地的邊界提取存在一定的誤差;林地與農(nóng)作物間,林地與建設用地間,由于顏色、紋理等特征相似性,存在混分現(xiàn)象;進一步提高分類精度是未來該領域的研究方向之一。

        猜你喜歡
        土地利用卷積精度
        基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        基于傅里葉域卷積表示的目標跟蹤算法
        土地利用生態(tài)系統(tǒng)服務研究進展及啟示
        GPS/GLONASS/BDS組合PPP精度分析
        濱海縣土地利用挖潛方向在哪里
        改進的Goldschmidt雙精度浮點除法器
        一種基于卷積神經(jīng)網(wǎng)絡的性別識別方法
        電視技術(2014年19期)2014-03-11 15:38:20
        巧用磨耗提高機械加工精度
        河南科技(2014年14期)2014-02-27 14:11:53
        亚洲国产av导航第一福利网| 久草视频这里只有精品| 国产精品亚洲精品日韩已方| 超清纯白嫩大学生无码网站| 人妻少妇精品无码专区二| 蜜桃av夺取一区二区三区| 美女免费视频观看网址| 亚洲精品久久久久成人2007| 18无码粉嫩小泬无套在线观看| 国产精品无码久久久久久| 久久久窝窝午夜精品| 国产一区二区三区白浆在线观看| 人妻中文字幕日韩av| 最爽无遮挡行房视频| 精品人无码一区二区三区| 国产三级国产精品国产专区| 久久精品av在线观看| 另类老妇奶性生bbwbbw| 动漫在线无码一区| 国产麻豆国精精品久久毛片| 国产精品久久精品第一页| 久久久久99精品成人片试看| 九九精品国产99精品| 中文字幕一区二区综合| 国产精品成人aaaaa网站| 国产成人精选在线不卡| 亚洲第一女人天堂av| 男人的天堂av高清在线| 免费无码午夜福利片69| 一本一道AⅤ无码中文字幕| 日本午夜艺术一区二区| 99精品人妻无码专区在线视频区| 99re这里只有热视频| 粗一硬一长一进一爽一a视频| 亚洲av成人精品一区二区三区| 国产欧美日韩一区二区三区在线| 久久dvd| 日本一区二区国产精品| 无码乱人伦一区二区亚洲一| 欧洲亚洲视频免费| 国产视频一区2区三区|