邱儒瓊 彭少坤 李孟璠
摘要:針對現(xiàn)有基于深度卷積神經網絡進行水稻(Oryza sativa L.)遙感識別中樣本采集工作量大、樣本標注要求高及水稻感受野尺度選擇難等問題,構建了一種基于像元和多尺度的深度卷積神經網絡(DCNN)水稻遙感識別模型。首先,針對水稻種植分布特點,綜合深度卷積神經網絡方法的特點,設計了基于像元的DCNN提取模型;其次,將多尺度與DCNN相結合,構建多尺度DCNN模型,增加感受野的多尺度特性;最后,為了驗證多尺度DCNN模型提取水稻的效果,以高分一號和高分二號衛(wèi)星影像為數(shù)據源,選取傳統(tǒng)機器學習SVM模型、語義分割D-Linknet模型、單一尺度DCNN模型進行分類精度對比分析。結果表明,本研究提出的多尺度DCNN模型的準確率、精確率、召回率、平衡F分數(shù)分別為97.75%、96.68%、99.08%、97.85%;與其他模型相比,多尺度DCNN模型結構簡單、樣本制作簡便、識別精度高,具有較好的應用價值。
關鍵詞:水稻(Oryza sativa L.);高分辨率遙感影像;深度學習;種植面積提??;像元分類;深度卷積神經網絡(DCNN);多尺度DCNN模型
中圖分類號:P237 ? ? ? ? 文獻標識碼:A
文章編號:0439-8114(2023)11-0176-07
DOI:10.14088/j.cnki.issn0439-8114.2023.11.031 開放科學(資源服務)標識碼(OSID):
Extracting rice planting area based on deep learning and remote sensing data
QIU Ru-qiong1,2,PENG Shao-kun2,LI Meng-fan2
(1.National Engineering Research Center of Geographic Information System ,China University of Geosciences(Wuhan), Wuhan ?430074,China;
2.Hubei Development Planning Research Institute Co., Ltd., Wuhan ?430071,China)
Abstract: A pixel and multi-scale Deep Convolutional Neural Networks (DCNN) rice(Oryza sativa L.) remote sensing recognition model was constructed to address the issues of large sample collection workload, high sample labeling requirements, and difficulty in selecting the scale of rice receptive fields in existing rice (Oryza sativa L.) remote sensing recognition based on Deep Convolutional Neural Networks. Firstly, based on the distribution characteristics of rice planting, a pixel based DCNN extraction model was designed by integrating comprehensively the characteristics of Deep Convolutional Neural Networks methods;secondly, by combining multi-scale and DCNN, a multi-scale DCNN model was constructed to enhance the multi-scale characteristics of the receptive field; finally, in order to verify the effectiveness of the multi-scale DCNN model in extracting rice, the traditional machine learning SVM model, semantic segmentation D-Linknet model, and single-scale DCNN model were selected for classification accuracy comparison and analysis using Gaofen-1 and Gaofen-2 satellite images as data sources. The results showed that the accuracy, precision, recall, and equilibrium F-scores of the multi-scale DCNN model proposed in this study were 97.75%, 96.68%, 99.08%, and 97.85%, respectively;compared with other models, the multi-scale DCNN model had a simple structure, simple sample production, and high recognition accuracy, which had good application value.
Key words: rice (Oryza sativa L.); high resolution remote sensing images; deep learning; extraction of planting area; pixel classification; deep convolutional neural networks (DCNN); multi-scale DCNN model
水稻、玉米等是中國的主要糧食作物,其中,水稻的種植面積和產量直接影響了湖北省的糧食安全,及時準確獲取水稻等糧食作物的種植面積和種植結構,對于指導農作物種植、規(guī)劃農產品生產布局和經濟發(fā)展、保障糧食與耕地安全具有重要意義。
得益于航天航空技術的發(fā)展,遙感技術已經成為當前農作物分類、種植面積調查和監(jiān)測的重要手段。傳統(tǒng)的遙感分類方法包括面向像素的遙感分類方法和面向對象的遙感分類方法。單捷等[1]利用支持向量機,基于環(huán)境衛(wèi)星影像對水稻進行識別,總體精度為80.38%。Xiao等[2]利用中低分辨率的衛(wèi)星數(shù)據,計算了中國南部和東南亞地區(qū)水稻的NDVI、LSWI、EVI指數(shù),對水稻種植面積進行提取和估算。陳樹輝等[3]根據線性光譜混合模型,利用環(huán)境衛(wèi)星數(shù)據和ALOS衛(wèi)星數(shù)據對河南省息縣的水稻進行類型監(jiān)測和種植面積估算,將其結果與高分辨率ALOS數(shù)據進行位置精度計算,平均精度達87.89%。蔣怡等[4]在最大似然法的基礎上,結合圖像融合技術對四川省丘陵地區(qū)的水稻進行提取,在OLI影像上得到較高的精度,其中淺丘區(qū)平均精度為93.7%,深丘區(qū)平均精度為92.5%。玉素甫江·如素力等[5]以中分辨率的Landsat為主要數(shù)據,提出一種面向對象的決策樹農作物分類方法,平均精度為92.09%。深度卷積神經網絡(Deep convolutional neural networks,DCNN)具有局部鏈接、權重共享等特征,已廣泛應用到遙感影像農作物分類中,并在高分辨率遙感影像上開展水稻提取研究[6-14],這些研究通常使用U-Net[15]、D-Linknet[16]等語義分割模型進行像素級分類,分類準確率超過90%。上述方法雖然得到很好的分類效果,但均需要高可靠的樣本。在一個省級范圍的工程實施中,細致化、高可靠的樣本標注工作量將十分巨大,導致此類模型無法在大范圍水稻面積提取中應用。同時,水稻種植的形狀和面積多變,因此水稻感受野尺度是實現(xiàn)水稻高精度提取的關鍵。
本研究以湖北省江漢平原為研究區(qū)域,以高分辨率遙感影像的水稻種植面積提取為切入點,綜合分析深度卷積神經網絡方法的特點,設計一種基于像元和多尺度的DCNN提取模型,為基于高分辨率遙感影像的農作物自動化、智能化、高精度的信息提取提供技術參考和支撐。
1 研究區(qū)與數(shù)據預處理
1.1 研究區(qū)概況
研究區(qū)域如圖1所示,在江漢平原潛江市和江陵縣交界處。江漢平原位于長江中游,西起宜昌市枝江市,東迄武漢市,北抵荊門市鐘祥市,南與洞庭湖平原相連,位于北緯29°26′—31°37′,東經111°14′—114°36′,面積4.6萬km2,是重要的水稻產地之一。該區(qū)域氣候濕潤,屬亞熱帶季風氣候,年均降水量 ?1 100~1 300 mm,年均日照時數(shù)約2 000 h,年太陽輻射總值為460~480 kJ/cm2。
1.2 數(shù)據預處理
根據水稻的最佳識別時間選擇2019年8月2日的高分一號(GF1)數(shù)據、2019年7月28日的高分二號(GF2)數(shù)據為數(shù)據源,進行大氣校正、輻射校正等預處理工作。2019年8月18—24日在研究區(qū)進行實地采樣,使用無人機DJI P4M+集思寶UG 905對研究區(qū)的水稻等地物樣本邊界軌跡進行采集。在ArcGIS軟件平臺中生成與遙感數(shù)據地理坐標、投影、地理位置匹配的野外調查數(shù)據集,輔助樣本勾畫和檢驗。圖1為地面調查點分布情況,每簇地面調查點對應一張0.03 m×0.03 m分辨率的無人機影像。
本研究共構建2種類型的樣本數(shù)據,一種是像元分類要求的樣本數(shù)據,一種是語義分割要求的樣本數(shù)據。樣本數(shù)據的構建包括樣本標簽矢量數(shù)據勾畫、規(guī)則樣本生成和樣本集制作3個步驟。
1.2.1 像元分類要求的樣本標簽矢量數(shù)據勾畫 面向像元分類要求的樣本標簽矢量數(shù)據勾畫可以采用傳統(tǒng)遙感監(jiān)督分類的樣本采樣方式(圖2),即在地物上勾畫純凈的圖斑,無需將地物邊界勾畫出來。
根據地面調查點、無人機數(shù)據、GF1和GF2遙感影像,利用ArcMap軟件在研究區(qū)域內勾畫面向像元分類要求的樣本標簽矢量數(shù)據(表1)。
1.2.2 語義分割要求的樣本標簽矢量數(shù)據勾畫 面向語義分割要求的樣本標簽矢量數(shù)據勾畫要求準確表達樣區(qū)內所有地物的邊界。當不同地物在內業(yè)地物類別判定時,會引入判讀誤差,如水稻與玉米、花生等容易混淆。同時,長勢不一的水稻也會增加相同地物的邊界判定難度,進一步增加樣本勾畫的難度。圖3為面向語義分割要求的水稻樣本標簽勾畫范例。
根據地面調查點、無人機數(shù)據、GF1和GF2遙感影像,利用ArcMap軟件在研究區(qū)域內勾畫面向語義分割要求的樣本標簽矢量數(shù)據(表2)。
由表1、表2可知,面向語義分割要求的樣本標簽矢量數(shù)據勾畫要求準確繪制所有地物的邊界,面向像元分類要求的樣本標簽矢量數(shù)據勾畫僅需繪制分類地物的純凈邊界。在實際工程應用中,面向語義分割要求的樣本標簽矢量數(shù)據勾畫工作量和工作難度將會大幅增加。
1.3 規(guī)則樣本生成
1.3.1 像元分類要求的規(guī)則樣本生成 第一步:輸入表1的樣本標簽矢量數(shù)據,按照圖4的流程進行規(guī)則樣本制作;第二步:通過調用PyTorch的均值平滑、高斯平滑、高斯噪聲、裁剪、鏡像、縮放、旋轉、銳化、平移樣本增強算法,對上述規(guī)則樣本進行樣本增強,從而豐富樣本數(shù)量和樣本形態(tài)。
1.3.2 語義分割要求的規(guī)則樣本生成 第一步:輸入表2的樣本標簽矢量數(shù)據、遙感影像;第二步:設定樣本的尺寸,按照尺度對樣本標簽矢量數(shù)據、遙感影像進行裁切,其中樣本標簽矢量數(shù)據裁切后輸出為柵格Mask層,每個矢量圖斑的像素值為樣本類型編碼,考慮研究區(qū)域內非水稻樣本標簽矢量數(shù)據較少,對輸出柵格Mask層的非水稻地物類型編碼統(tǒng)一賦值為0;第三步:對輸出的柵格Mask層以及對應裁切的遙感影像塊進行樣本增強。
1.4 樣本集制作
1.4.1 像元分類要求的水稻提取DCNN樣本集
1)單一尺度像元水稻提取DCNN樣本集。按照“1.3”項流程,利用GF2遙感影像的樣本標簽矢量數(shù)據,在GF2遙感影像上進行樣本制作,樣本尺度設定為13 px×13 px。像元分類基本樣本數(shù)量通常較小,因此選擇13 px×13 px作為輸入大小。在GF2遙感影像上進行的最小樣本面積集中在250 m2左右,采用13 px×13 px基本可以最大化地適用這些基本樣本,同時增大感受野,從而得到盡可能多的特征上下文信息。
表3為單一尺度像元水稻提取DCNN樣本集,并按照7∶2∶1劃分為訓練集、驗證集和測試集。
2)多尺度像元水稻提取DCNN樣本集。按照“1.3”項流程,利用GF2遙感影像的樣本標簽矢量數(shù)據,在GF2遙感影像上按照7 px×7 px、13 px×13 px、19 px×19 px 3個尺度進行樣本制作,生成表4所示的樣本集,并按照7∶2∶1劃分為訓練集、驗證集、測試集。
1.4.2 語義分割要求的水稻提取DCNN樣本集 按照“1.3”項流程,利用GF2遙感影像的樣本標簽矢量數(shù)據,按照128 px×128 px的樣本尺度在GF2遙感影像上進行樣本集制作,樣本數(shù)據量為103 684個,并按照7∶2∶1劃分為訓練集、驗證集、測試集。
2 基于像元和多尺度的水稻識別提取模型設計
深度卷積神經網絡的經典模型一直層出不窮,但模型的基本單元未發(fā)生編號變化,主要包括輸入層、卷積層、池化層、全連接層、輸出層[17]。
2.1 基于像元分類的水稻提取DCNN模型構建
本研究借鑒LeNet-5[18]、ResNet[19]、AlexNet[20]等DCNN圖像分類方法來實現(xiàn)水稻像素級別的遙感分類,其基本思路為將該像素及周邊的區(qū)域作為一個像素塊輸入網絡進行預測,通過像素塊標定像素的類型以實現(xiàn)像素級別的遙感分類。中國的農田普遍存在零散化、地塊面積小的問題,感知區(qū)域受到像素大小限制,因此采用AlexNet等復雜DCNN模型時會因為樣本過小導致無法開展模型訓練。LeNet-5是最早的卷積神經網絡之一,其優(yōu)勢是卷積核較小,能有效減少網絡的計算復雜度,且能夠提取紋理及深度信息,使多通道間的信息相互關聯(lián)增加交互,對數(shù)字識別和局部紋理重復顯著、小圖像的目標識別具有較好效果。同時,在樣本上勾畫上,LeNet-5只要求在地物目標中勾畫有代表性的一個小塊即可,不需要在全部圖像范圍內精細勾畫目標的邊界,大大減輕樣本勾畫難度。因此,本研究以LeNet-5為原型,通過對LeNet-5進行改進,提出可適用于水稻提取的DCNN模型。
模型總體架構包括輸入層Input、卷積層C1、卷積層C2、卷積層C3、池化層P1、卷積層C4、池化層P2、全連接層、輸出層Output,如圖5所示。
表5為模型結構對應的具體參數(shù)描述,包括模型每層類型(Type)、步長(Stride)、卷積核大?。≒atch size)、特征圖數(shù)(FeatureMap size)、每層輸出尺度(Output size)。
2.2 基于多尺度的水稻提取DCNN模型優(yōu)化
基于不同尺度的圖像特征可以獲取不同尺度下的上下文信息,從而提高模型對不同尺寸和形狀水稻目標的提取能力。在深度卷積神經網絡中,圖像特征尺度與感受野密切相關。為了進一步提高模型性能,本研究將多尺度與DCNN相結合,構建多尺度融合網絡,增加感受野的多尺度特性,實現(xiàn)更高精度的水稻提取。
對“2.1”項水稻提取DCNN模型的輸入尺度進行調整,形成19 px×19 px×4 px、9 px×9 px×4 px、13 px×13 px×4 px 3個感受野不同的訓練通道,如圖6所示。3個訓練的網絡結構相同,并同時進行網絡反向傳播,共享網絡權值。3個訓練結果經過池化層P2后形成3個1 px×1 px×200 px的特征圖,然后進行相加操作形成1 px×1 px×600 px的特征圖,最后通過全連接層和輸出層形成分類結果。
3 結果與分析
3.1 試驗環(huán)境和參數(shù)設置
1)試驗數(shù)據。將“1.4”項制作的樣本集作為試驗數(shù)據,訓練集、驗證集和測試集的比例為7∶2∶1。
2)軟件環(huán)境。操作系統(tǒng)為內存64 GB的CentOS 7.2,深度學習框架為PyTorch 1.5,編程環(huán)境為Python 3.5。
3)硬件環(huán)境。CPU型號為Intel(R) Xeon(R) E5-2650 v4 @2.20 GHz,GPU為Tesla P100。
4)參數(shù)設置。batch size設定為256,學習率初始設置為0.003,通過貝葉斯自動化調參框架進行學習率調整。
3.2 模型訓練過程
圖7為“2.1”項設計的模型(單一尺度DCNN模型)在訓練集和驗證集上隨迭代數(shù)(Epoch)的準確率(acc)變化折線圖。模型在第23個Epoch的時候,將學習率從0.003調整為0.000 6;模型在第31個Epoch的時候,學習率從0.000 6調整為0.000 12,模型基本穩(wěn)定。
3.3 分類結果與精度分析
表6為單一尺度DCNN模型在測試集上分類結果的混淆矩陣,水稻分類精確率(Precision)為95.93%,召回率(Recall)為98.67%,平衡F分數(shù)(F1-Score)為97.28%。結果表明,單一尺度DCNN模型對水稻及非水稻地物均有較高的準確率,說明單一尺度DCNN模型對地物分類的支撐和泛化能力較強。
3.4 不同模型的水稻提取效果分析
為了驗證“2.2”項設計的模型(多尺度DCNN模型)提取水稻效果,選取傳統(tǒng)機器學習的SVM模型、語義分割的D-Linknet模型和單一尺度DCNN模型進行對比分析。
3.4.1 單一尺度DCNN模型與SVM模型的對比 計算了單一尺度DCNN模型和SVM模型(選取徑向基函數(shù)為核函數(shù))在測試集上的準確率、精確率、召回率和平衡F分數(shù),結果如表7所示。
水稻分類效果如圖8所示,采用SVM模型鹽噪聲問題嚴重,且容易與非水稻的植被混淆,易將水稻誤識別為林地、菜地。單一尺度DCNN模型能夠較好地處理鹽噪聲問題,且分類準確率較SVM模型有較大提升。
3.4.2 單一尺度DCNN模型與D-Linknet模型的對比 由表8可知,相較于D-Linknet模型,單一尺度DCNN模型的精確率較低、召回率較高、平衡F分數(shù)相近,2種模型都能準確提取絕大部分的水稻。
由圖9可知,針對水稻邊界細節(jié)信息,D-Linknet模型提取結果更接近標簽地物邊界,表現(xiàn)更優(yōu)。因此,后續(xù)研究可結合D-Linknet模型結構的優(yōu)點,對單一尺度DCNN模型結構進行優(yōu)化,構建既有分類精度又有邊界精度的水稻提取模型。
3.4.3 單一尺度DCNN模型與多尺度DCNN模型的對比 由表9可知,相較于單一尺度DCNN模型,多尺度DCNN模型在準確率、精確率、召回率、平衡F分數(shù)上均有提升。
由圖10可知,從整體提取效果看,多尺度DCNN模型提取的水稻邊界更加合理,且水稻內的孔洞較少,表現(xiàn)優(yōu)于單一尺度DCNN模型。
4 小結與展望
針對當前基于深度學習的高分辨率遙感影像水稻提取存在的標簽樣本匱乏、采集成本高等問題,借鑒LeNet-5、AlexNet等圖像分類方法,基于高分衛(wèi)星影像,使用多尺度DCNN模型對水稻進行提取,并與傳統(tǒng)機器學習SVM模型、語義分割D-Linknet模型、單一尺度DCNN模型進行對比。研究區(qū)域的水稻提取結果顯示,多尺度DCNN模型水稻提取準確率、精確率、召回率、平衡F分數(shù)分別為97.75%、96.68%、99.08%、97.85%,與試驗的其他模型相比,多尺度DCNN模型結構簡單、樣本制作簡便、識別精度高。后續(xù)將進一步研究將多尺度DCNN模型與D-Linknet模型的優(yōu)點融合,既解決樣本匱乏的問題,同時得到既有分類精度又有邊界精度的水稻提取效果。
參考文獻:
[1] 單 捷,岳彩榮,江 南,等.基于環(huán)境衛(wèi)星影像的水稻種植面積提取方法研究[J]. 江蘇農業(yè)學報, 2012(4):728-732.
[2] XIAO X,BOLES S,LIU J,et al.Mapping paddy rice agriculture in southern China using multi-temporal MODIS images[J]. Remote sensing of environment, 2005, 95(4): 480-492.
[3] 陳樹輝,李 楊,曾凡君, 等. 基于環(huán)境星的混合像元分解水稻面積提?。跩]. 安徽農業(yè)科學, 2011,39(10): 6104-6106.
[4] 蔣 怡,李宗南,李丹丹, 等.基于OLI影像的四川丘陵地區(qū)水稻種植面積監(jiān)測[J]. 西南農業(yè)學報, 2018,31(5):1051-1054.
[5] 玉素甫江·如素力,李蘭海,哈麗旦·司地克,等.基于面向對象決策樹的農作物分類識別方法[J]. 新疆師范大學學報:自然科學版, 2016,35(1):25-32.
[6] 謝登峰,張錦水,潘耀忠,等. Landsat 8和MODIS融合構建高時空分辨率數(shù)據識別秋糧作物[J]. 遙感學報,2015,19(5):791-805.
[7] 陳安旭,李月臣. 基于 Sentinel-2 影像的西南山區(qū)不同生長期水稻識別[J]. 農業(yè)工程學報,2020,36(7):192-199.
[8] 高永康, 王臘紅, 陳家贏,等. 一種利用形態(tài)相似性的水稻信息提取算法[J]. 遙感信息, 2020,35(2): 76-86.
[9] 許童羽, 胡開越, 周云成, 等.基于 CART決策樹和 BP神經網絡的Landsat 8 影像粳稻提取方法[J]. 沈陽農業(yè)大學學報,2020,51(2):169-176.
[10] 王建勛,華 麗,鄧世超,等. 基于GF-1與MODIS時空融合的南方丘陵區(qū)水稻提取研究[J]. 中國農業(yè)資源與區(qū)劃,2019,40(5):37-46.
[11] 趙亞杰, 黃進良, 王立輝,等. 基于時空融合NDVI及物候特征的江漢平原水稻種植區(qū)提取研究[J]. 長江流域資源與環(huán)境,2020, 29(2):424-432.
[12] 賴格英,楊星衛(wèi). 南方丘陵地區(qū)水稻種植面積遙感信息提取的試驗[J]. 應用氣象學報, 2000, 11(1):247-254.
[13] ZHONG L,HU L,ZHOU H. Deep learning based multi-temporal crop classification[J].Remote sensing of environment,2019(221):430-443.
[14] HUETE A,DIDAN K,MIURA T,et al. Overview of the radiometric and biophysical performance of the MODIS vegetation indices[J].Remote sensing of environment,2002,83(1-2):195-213.
[15] RONNEBERGER O, FISHCHER P, BROX T. U-Net: Convolutional networks for biomedical image segmentation[A].Medical image computing and computer assisted intervention society.International conference on medical image computing and computer-assisted intervention[C]. Cham: Springer, 2015. 234-241.
[16] 鄭 鑫,潘 斌,張 健.可變形網絡與遷移學習相結合的電力塔遙感影像目標檢測法[J].測繪學報,2020,49(8):1042-1005.
[17] 劉艷飛. 面向高分辨率遙感影像場景分類的深度卷積神經網絡方法[D]. 武漢:武漢大學,2019.
[18] 吳陽陽, 彭廣德, 吳相飛.基于LeNet-5改進的卷積神經網絡圖像識別方法[J]. 信息與電腦, 2018(7):127-130.
[19] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[A]. IEEE conference on computer vision and pattern recognition. proceedings of 2016 IEEE conference on computer vision and pattern recognition[C]. Las Vegas:IEEE. 2016. 770-778.
[20] KRIZHERVSKY A, SUTSKERVER I, HINTON G E. Imagenet classification with deep convolutional neural networks[A].Conference and workshop on neural information processing systems.Advances in neural information processing systems[C]. Stateline:Stateline, 2012.1097-1105.