亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進DeepLabV3+網(wǎng)絡的遙感影像農(nóng)作物分割方法

        2022-06-09 11:59:16任鴻杰史俊才
        計算機工程與應用 2022年11期
        關鍵詞:薏米特征提取農(nóng)作物

        任鴻杰,劉 萍,岱 超,史俊才

        太原理工大學 大數(shù)據(jù)學院,山西 晉中 030600

        農(nóng)作物種植面積估計是農(nóng)業(yè)監(jiān)測的一個重要部分[1]。傳統(tǒng)的農(nóng)作物種植面積估計是通過統(tǒng)計方法來獲得,主要有兩種方法:一是層層上報,按照縣、地區(qū)、省和國家為單位逐級進行統(tǒng)計并最后上報;二是通過抽樣調(diào)查,設置有代表性的樣本,根據(jù)抽樣統(tǒng)計原理來估算大區(qū)域內(nèi)的農(nóng)作物種植面積[2]。傳統(tǒng)方法耗費了大量的人力物力,統(tǒng)計速度慢,結(jié)果不夠客觀,并且不能時空動態(tài)監(jiān)測。

        遙感技術由于其具有監(jiān)測范圍廣、獲取資料速度快、獲取的信息量大以及能夠時空動態(tài)監(jiān)測等特點,逐漸取代了傳統(tǒng)的人工區(qū)域調(diào)查方法,被廣泛應用于農(nóng)業(yè)遙感監(jiān)測的各個方面[3-4]。

        傳統(tǒng)的農(nóng)業(yè)遙感檢測常使用人工目視解譯的方法,但是人工目視解譯對于解譯人員的技術要求高,并且其效率不能滿足海量的遙感數(shù)據(jù)處理。近幾年來,深度學習在圖像處理、自然語言處理、數(shù)據(jù)分析等領域取得了大量關鍵性突破,成為當今最受關注的科學研究之一[5]。隨著深度學習的快速發(fā)展與廣泛應用,基于卷積神經(jīng)網(wǎng)絡的分割算法在分割技術上取得了突破性進步[6]。當前廣泛使用的語義分割網(wǎng)絡以Long等[7]提出全卷積神經(jīng)網(wǎng)絡(fully convolutional network,F(xiàn)CN)為代表,通過使用卷積層替換全連接層,輸出保留上下文空間特征的圖像,實現(xiàn)圖像像素級別端到端的預測?;贔CN架構,鄭二功等[8]利用無人機影像實現(xiàn)了對玉米倒伏區(qū)域自動提??;黃云等[9]以Sentinel-2衛(wèi)星遙感影像為數(shù)據(jù)基礎,利用Segnet網(wǎng)絡對河南省新蔡縣花生種植區(qū)域提取,Segnet網(wǎng)絡基于FCN網(wǎng)絡進行了一些改進,添加了編碼解碼(encoder-decoder,ED)結(jié)構,每個編碼層對應一個解碼層,使得反卷積的結(jié)果更加精細,分類精度與總體效率都有所提升。雖然以上研究為農(nóng)作物自動提取做出了一定貢獻,但是在精度和邊緣識別效果等方面仍有較大的改進空間。DeepLab語義分割系列模型提出空洞空間金字塔池化(atrous spatial pyramid pooling,ASPP)[10],在不改變分辨率的條件下擴大感受野,同時對不同層級的特征進行融合,對物體的邊界劃分效果較好。DeepLabV3+結(jié)合了ED結(jié)構和ASPP模塊的優(yōu)點,成為當前綜合性能優(yōu)異的語義分割算法。Zhu等[11]采用DeepLabV3+對高分辨率遙感甘蔗田進行提取,提取精度較高;楊蜀秦等[12]基于DeepLabV3+網(wǎng)絡,利用無人機多光譜遙感影像對向日葵、玉米等多類農(nóng)作物提取,農(nóng)作物邊緣分割效果較好。

        以上研究表明,DeepLabV3+相對于常用于農(nóng)作物提取的FCN、Segnet等分割模型具有更好的分割效果,但是由于其本身網(wǎng)絡結(jié)構較為復雜,上采樣幅度過大導致特征圖中重要像素信息丟失,對于當前遙感影像農(nóng)作物提取仍存在識別精度較低、邊緣識別效果較差、提取速度慢等問題。為改善農(nóng)作物分割效果,更加高效準確獲取農(nóng)作物的種植信息,本文提出了一種改進Deep-LabV3+網(wǎng)絡的遙感影像農(nóng)作物分割方法。首先,將傳統(tǒng)用于DeepLabV3+模型特征提取的Xception[13]網(wǎng)絡改為更輕量級的MobileNetV2[14]網(wǎng)絡,大幅減少了模型的參數(shù)計算量,降低內(nèi)存占用;其次,將ASPP模塊中普通卷積改為深度可分離卷積(deep separable convolution,DSC),進一步減少模型參數(shù),提高模型計算速度;最后,在特征提取模塊以及ASPP模塊加入雙注意力機制(double attention mechanism,DAM)[15],從而訓練出更準確的分割模型。此外針對農(nóng)作物數(shù)據(jù)集類別不平衡問題,引入加權損失函數(shù),給予玉米、薏米與背景類不同的權重,提高模型對農(nóng)作物區(qū)域分割精度。以2019年某地區(qū)的無人機遙感影像為研究對象,對玉米、薏米兩種農(nóng)作物進行分割,實驗結(jié)果表明,本文提出的方法能夠兼顧準確率、平均召回率、平均交并比、檢測速度、網(wǎng)絡大小等各方面的要求,對農(nóng)作物具有更好的分割效果。

        1 數(shù)據(jù)來源與預處理

        本文數(shù)據(jù)來源于阿里云天池大賽提供的某地區(qū)無人機遙感影像,影像大小為44 647×32 881像素,影像分辨率為1 m,原圖格式為RGBA的四通道影像。本文為便于研究,采用RGB三通道數(shù)據(jù)合成新的影像作為研究對象,標注分為玉米、薏米以及背景值三類。背景區(qū)域主要包括人造建筑和道路、裸地、草地等非人造建筑。對影像進行無重疊滑動切割,由于影像中存在mask無效區(qū)域,為了避免無效樣本對實驗的干擾,滑動切割完之后剔除掉影像中含有mask無效區(qū)域的樣本,最終裁剪出無重疊的9 538張256×256像素的RGB影像作為實驗數(shù)據(jù),并按7∶1∶2的比例將圖像隨機劃分成訓練集、驗證集和測試集,其樣本數(shù)量分別為6 671幅、953幅和1 914幅。部分數(shù)據(jù)集影像示例如圖1所示,對應標簽示例如圖2所示,其中橙色為薏米,黃色為玉米,黑色為背景。

        圖1 部分數(shù)據(jù)集影像示例Fig.1 Partial dataset image example

        圖2 對應標簽示例Fig.2 Corresponding label example

        2 研究方法

        2.1 傳統(tǒng)的DeepLabV3+網(wǎng)絡分割算法

        DeepLabV3+是一種用于語義分割的典型網(wǎng)絡,該網(wǎng)絡是對DeepLabV3網(wǎng)絡的改進,以殘差網(wǎng)絡為底層網(wǎng)絡,添加了ED結(jié)構,通過恢復空間信息獲得清晰的對象邊界,從而優(yōu)化邊界分割。編碼端利用Xception網(wǎng)絡對輸入圖像作特征提取,之后利用ASPP模塊將圖像特征進行融合,避免信息損失。其中Xception為含輸入流、中間流和輸出流的深度卷積神經(jīng)網(wǎng)絡,ASPP則為含多個空洞卷積擴張率的多尺度金字塔特征提取模塊。解碼端融合Xception輸入流模塊輸出低層特征和編碼端輸出高層特征再進行雙線性插值上采樣,輸出分割結(jié)果,最終提高了網(wǎng)絡分割的精度。網(wǎng)絡結(jié)構如圖3所示。

        圖3 傳統(tǒng)DeepLabV3+模型結(jié)構圖Fig.3 Structure diagram of traditional DeepLabV3+model

        2.2 改進的DeepLabV3+網(wǎng)絡分割算法

        DeepLabV3+網(wǎng)絡是目前最為優(yōu)秀的語義分割模型之一,其在VOC數(shù)據(jù)集上取得優(yōu)異成績[16]。但Deep-LabV3+模型也存在一些不足。首先,編碼端特征提取過程中逐漸縮減輸入數(shù)據(jù)的空間維度導致有用信息丟失,在解碼時不能很好地實現(xiàn)細節(jié)恢復;其次,ASPP模塊的引入雖然可以提高模型對目標的邊界提取能力,但是不能完整地模擬出目標局部特征間的聯(lián)系,使目標分割存在空洞現(xiàn)象,導致對目標分割的準確率降低;最后,為了追求分割精度,選擇網(wǎng)絡層數(shù)較多、參數(shù)量較大的Xception作為特征提取網(wǎng)絡,并且ASPP模塊中卷積方式為普通卷積,進一步增加了參數(shù)量,模型深度的加深以及參數(shù)量的增加,導致模型的復雜度增加,對硬件的要求更高,增加了網(wǎng)絡訓練難度,網(wǎng)絡訓練速度更慢、收斂更慢。為了提高網(wǎng)絡分割性能,改善以上不足,本文在傳統(tǒng)DeeplabV3+網(wǎng)絡結(jié)構上做了以下改進:

        首先,將傳統(tǒng)用于DeepLabV3+模型特征提取的Xception網(wǎng)絡改為更輕量級的MobileNetV2網(wǎng)絡,大幅地減少了模型的參數(shù)計算量,降低內(nèi)存占用,提高模型的計算速度;其次,將ASPP模塊中的普通卷積改為DSC,進一步減少模型參數(shù),提高模型計算速度;最后,在特征提取模塊以及ASPP模塊加入DAM,減少精度損失,從而訓練出更準確的分割模型。此外針對農(nóng)作物數(shù)據(jù)集類別不平衡問題,引入加權損失函數(shù),給予玉米、薏米與背景類不同的權重,提高模型對農(nóng)作物區(qū)域分割精度。網(wǎng)絡結(jié)構如圖4所示。

        圖4 改進DeepLabV3+模型結(jié)構圖Fig.4 Structure diagram of improved DeepLabV3+model

        2.2.1 特征提取模塊

        在編碼層,將DeepLabV3+特征提取模塊Xception網(wǎng)絡改為更輕量級的MobileNetV2網(wǎng)絡。該網(wǎng)絡的提出是為了解決在圖像模型訓練過程中出現(xiàn)的卷積神經(jīng)網(wǎng)絡龐大、硬件訓練不足等問題,相較于Xception網(wǎng)絡,該網(wǎng)絡網(wǎng)絡層數(shù)更淺,參數(shù)量更少,模型復雜度更低,網(wǎng)絡訓練速度更快,收斂更快。MobileNetV2網(wǎng)絡主要分為3個部分。第一部分為一個3×3的卷積塊,用于提取特征;中間部分是多個含有DSC層的網(wǎng)絡結(jié)構,由多個1×1和3×3的卷積塊組成;最后一部分由兩個1×1的卷積塊和一個7×7的平均池化塊組成。結(jié)合DeepLabV3+網(wǎng)絡結(jié)構,本文用到了該網(wǎng)絡的前兩個部分,具體網(wǎng)絡結(jié)構如表1所示,其中t是輸入通道的倍增系數(shù)(即擴張倍數(shù)),c是輸出通道數(shù),n是該模塊的重復次數(shù),s是stride。

        表1 MobileNetV2網(wǎng)絡結(jié)構Table 1 MobileNetV2 network structure

        2.2.2 DAM模塊

        注意力在人類感知中起著重要作用,人類利用一系列局部觀察,并選擇性地專注于顯著部分,以便更好地捕捉視覺結(jié)構[17]。近年來,許多研究人員[18-20]通過添加注意力機制來改善卷積神經(jīng)網(wǎng)絡在大規(guī)模分類任務中的性能。本文在特征提取模塊以及ASPP模塊加入DAM。具體操作為:首先分別在特征的空間維度和通道維度抓取特征之間的全局依賴關系,捕獲上下文特征信息,增強特征的表達能力;然后將兩個注意力模塊的輸出相加,以進一步改進特征表示;最后獲得更精確的分割結(jié)果。該模塊的結(jié)構如圖5所示。

        圖5 DAM模塊Fig.5 DAM module

        通道注意力機制。通道注意力機制通過整合所有通道圖中的相關特征,有選擇地強調(diào)相互關聯(lián)的通道圖。因此,本文通過增加通道注意力機制模塊來顯式地建模通道之間的相互依賴關系。具體操作為:給定輸入特征圖F∈RC×W×H,其中C表示輸入特征圖的通道數(shù),W和H分別表示特征圖的寬度和高度。首先采用并行的全局最大池化和全局平均池化兩種池化方式對輸入特征圖F進行空間維度壓縮分別得到背景描述然后經(jīng)多層感知機MLP組成的共享網(wǎng)絡計算相加進行Sigmoid函數(shù)最終獲得通道注意力機制映射特征圖Mc∈RC×1×1;最后,將生成的特征圖進行特征映射,使其大小變?yōu)镃×W×H,并將原始輸入特征圖逐元素相乘,從而得到通道注意力加權圖F Cout∈RC×W×H。具體計算過程如下所示:

        其中,σ表示Sigmoid激活函數(shù),?表示元素間的乘法,F(xiàn) c表示將Mc沿著空間維度進行復制得到C×W×H的特征向量。

        通道注意力機制模塊的網(wǎng)絡結(jié)構如圖6所示。

        圖6 通道注意力機制模塊Fig.6 Channel attention mechanism module

        空間注意力機制??臻g注意力機制通過所有位置的特征加權總和選擇性地聚集每個位置的特征。無論距離遠近,相似的特征都會相互關聯(lián)。因此為了建立更豐富的局部特征間的上下文關系,引入空間注意力機制模塊。具體操作為:給定輸入特征圖F∈RC×W×H,其中C表示輸入特征圖的通道數(shù),W和H分別表示特征圖的寬度和高度。首先采用并行的全局最大池化和全局平均池化兩種池化方式對輸入特征圖F進行通道壓縮分別得到背景描述并將兩個特征圖合并,經(jīng)一個7×7卷積操作降維到1通道;然后經(jīng)Sigmoid函數(shù)獲得空間注意力機制映射特征圖M s∈R1×W×H;最后,將生成的特征圖進行特征映射,使其大小變?yōu)镃×W×H,并將原始輸入特征圖逐元素相乘,得到空間注意力加權圖F Sout∈RC×W×H。具體計算過程如下所示:

        其中,σ表示Sigmoid激活函數(shù),f7×7表示卷積操作,卷積核大小為7×7,?表示元素間的乘法,F(xiàn) s表示將M s沿著通道方向進行復制得到C×W×H的特征向量。

        空間注意力機制模塊的網(wǎng)絡結(jié)構如圖7所示。

        圖7 空間注意力機制模塊Fig.7 Spatial attention mechanism module

        2.2.3 加權損失函數(shù)

        對于一個輸入樣本,模型的輸出值與該樣本真實值之間的差異稱為損失。損失函數(shù)是描述這種差異的函數(shù)。對于一個深度學習模型,模型中的神經(jīng)網(wǎng)絡權重通過損失反向傳播來完成訓練[21]。因此,損失函數(shù)決定了深度學習模型的訓練效果,至關重要。本研究農(nóng)作物數(shù)據(jù)集標注分為玉米、薏米以及背景值三類,所以使用多類別交叉熵作為損失函數(shù)。但由于數(shù)據(jù)集中背景類別占比大,導致網(wǎng)絡在訓練時偏向于對背景類特征的學習,不能有效地提取農(nóng)作物區(qū)域的特征,從而造成農(nóng)作物區(qū)域分割精度低的問題。為了解決農(nóng)作物數(shù)據(jù)集類別不平衡導致對農(nóng)作物區(qū)域分割精度低的問題,引入了一種加權損失函數(shù),在原始多分類交叉熵損失函數(shù)的基礎上,給予玉米、薏米與背景類不同的權重,具體計算公式如下所示:

        3 實驗與分析

        3.1 實驗環(huán)境

        本文實驗所使用的CPU為AMD A10-7300,內(nèi)存為8 GB,GPU為Telas V100,內(nèi)存為16 GB,開發(fā)環(huán)境為TensorFlow1.14.0、keras2.3.1、cuda9.0、python3.5。

        3.2 評價指標

        本研究針對農(nóng)作物數(shù)據(jù)集進行分割性能評估,實驗選取像素準確率(PA)、平均交并比(mIou)、平均召回率(mRecall)指標評價網(wǎng)絡分割性能。

        其中PA為預測正確的像素點與總像素點的比值,計算公式如下:

        mIou為語義分割實驗中最常用的度量指標,其取值為先計算每類上真實值和預測值兩個集合交集與并集的比值,再求所有類別交并比的平均值,即均交并比,計算公式如下:

        mRecall為每一類分類正確的像素點數(shù)與預測為該類的所有像素點數(shù)的比值之和的平均值,計算公式如下:

        式中,k表示總的類別數(shù),P ij表示本屬于i類但被預測為j類的像素數(shù)量,P ii表示預測正確的數(shù)量,P ij和P ji分別稱為假正和假負。

        3.3 實驗結(jié)果及分析

        3.3.1 實驗過程

        模型訓練超參數(shù)的確定。文獻[16]中提出原始DeeplabV3+模型,在初始學習率為0.007,batch-size為16的前提下,模型在pascalVOC2012和城市景觀數(shù)據(jù)集上的平均交并比分別為89.0%和82.1%,取得了良好的分割效果。在此基礎上,查閱相關文獻,獲取到網(wǎng)絡訓練超參數(shù)常用經(jīng)驗值,經(jīng)過反復實驗,最終確定原始DeeplabV3+網(wǎng)絡的最優(yōu)學習率為0.007,最優(yōu)batch-size為32,改進DeeplabV3+網(wǎng)絡的最優(yōu)學習率為0.000 1,最優(yōu)batch-size為32。

        本文模型訓練細節(jié)。實驗階段,按7∶1∶2的比例將圖像隨機劃分成訓練集、驗證集和測試集。初始學習率設置為0.000 1,batch-size設置為32,為了提高模型精度,在模型訓練之前加載MobileNetV2預訓練權重參數(shù),使用加權損失函數(shù)作為分割模型的損失函數(shù),給予玉米、薏米與背景類不同的權重,提高模型對農(nóng)作物區(qū)域分割精度。

        模型訓練結(jié)果比較。傳統(tǒng)DeepLabV3+網(wǎng)絡和改進DeepLabV3+網(wǎng)絡的訓練過程如圖8所示,其中紅色為傳統(tǒng)DeepLabV3+網(wǎng)絡訓練過程,藍色為改進Deep-LabV3+網(wǎng)絡訓練過程。由圖可知,當訓練迭代次數(shù)超過100時,損失值和精度趨于穩(wěn)定??傮w來看二者的損失值隨迭代次數(shù)的增加而減少,精度隨迭代次數(shù)的增加而增加,最終逐漸趨于穩(wěn)定。但相較于傳統(tǒng)的Deep-LabV3+網(wǎng)絡來看,改進的DeepLabV3+網(wǎng)絡收斂速度更快,后期波動更小。這是由于DAM模塊有效結(jié)合空間通道維度,抓取特征之間的全局依賴關系,捕獲上下文特征信息,增強了特征的表達能力,使網(wǎng)絡學習能力和排除干擾信息的能力得到加強,且改進DeepLabV3+網(wǎng)絡參數(shù)量更少,進一步加快了收斂速度。

        圖8 網(wǎng)絡訓練結(jié)果曲線Fig.8 Network training result curve

        3.3.2 消融實驗

        為了驗證將傳統(tǒng)用于DeepLabV3+模型特征提取的Xception網(wǎng)絡改為更輕量級的MobileNetV2網(wǎng)絡、ASPP模塊中的普通卷積改為DSC的必要性,以及同時在特征提取模塊以及ASPP模塊加入DAM的有效性,利用語義分割常用評價指標,設置了四組不同的改進方案進行消融實驗。實驗結(jié)果如表2所示。

        表2 消融實驗結(jié)果Table 2 Results of ablation experiment

        (1)方案一:在傳統(tǒng)DeepLabV3+網(wǎng)絡的基礎上,將特征提取網(wǎng)絡改為更輕量級的MobileNetV2網(wǎng)絡,將ASPP模塊中的普通卷積改為DSC。

        (2)方案二:在方案一的基礎上,在特征提取模塊加入DAM。

        (3)方案三:在方案一的基礎上,在ASPP模塊加入

        DAM。

        (4)方案四:在方案一的基礎上,在特征提取模塊及ASPP模塊分別加入DAM。

        由表2消融實驗結(jié)果可得,相對于傳統(tǒng)DeepLabV3+,方案一模型參數(shù)量、訓練時間以及單圖預測時間明顯減少,表明將傳統(tǒng)用于DeepLabV3+模型特征提取的Xception網(wǎng)絡改為更輕量級的MobileNetV2網(wǎng)絡、將ASPP模塊中的普通卷積改為DSC可極大減少模型的參數(shù)量,明顯提高模型訓練時間以及預測速度。相對于方案一,方案二、方案三與方案四在像素準確率(PA)、平均召回率(mRecall)、平均交并比(mIou)方面均有所提升,但方案四提升幅度更大一些,表明在特征提取模塊或者ASPP模塊加入DAM都可以一定程度上提高模型分割精度,但是同時在特征提取模塊以及ASPP模塊加入DAM模型分割精度提升更明顯。

        為了進一步驗證加權損失函數(shù)對提高農(nóng)作物區(qū)域分割精度的有效性,對方案四和本文方法在農(nóng)作物分割數(shù)據(jù)集上的分割精度進行了詳細對比實驗,實驗結(jié)果如表3所示。

        由表3分割精度詳細對比結(jié)果可得,相對于方案四,本文方法在玉米和薏米的召回率(Recall)上有所提升,但在背景的召回率(Recall)上略有下降,在玉米、薏米以及背景的交并比(Iou)上均有所提升。從整體來看,本文方法的像素準確率(PA)、平均召回率(mRecall)以及平均交并比(mIou)相較于實驗四均有所提升。實驗數(shù)據(jù)證明,加權損失函數(shù)的引入能夠提高模型對農(nóng)作物區(qū)域的分割精度,從而進一步提升模型整體分割精度。

        表3 分割精度詳細對比結(jié)果Table 3 Detailed comparison results of segmentation accuracy %

        3.3.3 不同分割方法性能分析

        為了進一步驗證改進DeepLabV3+模型的分割性能,將本文方法與傳統(tǒng)DeepLabV3+、Unet、Segnet等常用于農(nóng)作物語義分割的模型進行對比,對比結(jié)果如表4所示。

        從表4可以看出,在像素準確率(PA)方面,傳統(tǒng)DeepLabv3+算法的像素準確率為92.5%,Unet的像素準確率為92.9%,Segnet算法的像素準確率為92.3%,本文改進方法的像素準確率為94.0%,較傳統(tǒng)DeepLabV3+算法、Unet算法和Segnet算法分別提高了1.5、1.1和1.7個百分點;在平均召回率(mRecall)方面,傳統(tǒng)DeepLabv3+算法的平均召回率為88.4%,Unet的平均召回率為87.9%,Segnet算法的平均召回率為86.4%,本文改進方法的平均召回率為91.1%,較傳統(tǒng)DeepLabV3+算法、Unet算法和Segnet算法分別提高了2.7、3.2和4.7個百分點;在平均交并比(mIou)方面,傳統(tǒng)DeepLabv3+算法的平均交并比為80.6%,Unet的平均交并比為81.1%,Segnet算法的平均交并比為80.0%,本文改進方法平均交并比為84.2%,較傳統(tǒng)DeepLabV3+算法、Unet算法和Segnet算法分別提高了3.6、3.1和4.2個百分點。實驗數(shù)據(jù)證明,在本文方法中加入DAM以及加權損失函數(shù)的引入提高了模型的特征提取能力,對農(nóng)作物遙感影像分割精度更高。

        在常見的神經(jīng)網(wǎng)絡模型中,模型層數(shù)越多,模型涉及參數(shù)量越大,模型越復雜,訓練難度也就越大。由表4可得,相較于傳統(tǒng)DeepLabV3+以及Unet模型,本文方法參數(shù)量有明顯的減少,并且模型訓練時間以及單圖預測時間更快;相較于Segnet模型,本文方法參數(shù)量有明顯的減少,但模型訓練時間以及單圖預測時間略有增加,這是由于Segnet模型雖然參數(shù)量較多,但是本身模型結(jié)構較為簡單,減少了模型訓練時間以及單圖預測時間,但檢測精度不及本文方法??傮w來說,本文方法中選擇更輕量級的MobileNetV2作為特征提取網(wǎng)絡以及將ASPP模塊中的普通卷積改為DSC,極大減少了參數(shù)量,提高了模型計算速度。

        表4 作物分割方法對比Table 4 Comparison of crop segmentation methods

        為了更全面地評估本文方法,對本文方法及其他對比模型在玉米、薏米以及背景上的分割精度進行了對比實驗,實驗結(jié)果如表5所示。

        表5 各類別目標分割結(jié)果Table 5 Segmentation results of various targets %

        對比表5中玉米、薏米以及背景在各個方法上的召回率(Recall)及交并比(Iou)可以看出,背景的交并比及召回率最高,玉米次之,薏米最低。是因為整張遙感圖像中背景占比最大,玉米次之,薏米占比最少。從整體來看,本文方法在玉米、薏米以及背景上的召回率、交并比均高于其他對比模型,說明了本文方法對提升各個類別的分割精度都有一定的效果。

        實驗選擇了4種算法在2019年某地區(qū)無人機遙感影像部分測試集上的分割結(jié)果進行可視化展示,如圖9所示。其中橙色代表薏米,黃色代表玉米,黑色代表背景。

        圖9 4種分割算法分類效果比較Fig.9 Comparison of classification effect of four segmentation algorithms

        由不同模型的分割效果圖對比可知,傳統(tǒng)Deep-LabV3+方法與本文方法相較于Segnet、Unet方法來說,對玉米、薏米種植區(qū)域邊緣的識別程度更高,這是由于DeepLabv3+模型本身最大的優(yōu)勢就是在編碼部分加入了含多個空洞卷積擴張率的多尺度ASPP特征提取模塊,該模塊增強模型識別不同尺寸的同一物體的能力,捕獲多尺度特征,可以更好恢復物體的邊緣信息。除此之外,本文方法相較于傳統(tǒng)DeepLabV3+方法,邊緣識別效果略有提升,存在的漏分和錯分現(xiàn)象更少,相較于Segnet、Unet方法,對玉米和薏米的分割效果更好,進一步證明了加入DAM以及引入加權損失函數(shù)的必要性。

        4 結(jié)束語

        為更加高效準確獲取農(nóng)作物的種植信息以滿足農(nóng)業(yè)精細化管理需求,本文提出了一種改進DeepLabV3+網(wǎng)絡的遙感影像農(nóng)作物分割方法。模型本身含有ASPP模塊,可以更好恢復物體的邊緣信息;加入DAM提高了模型的特征提取能力,存在的漏分和錯分現(xiàn)象更少,對玉米、薏米種植區(qū)域邊緣的識別效果更好,分割精度更高;修改特征提取網(wǎng)絡為輕量級神經(jīng)網(wǎng)絡MobileNetV2,將ASPP模塊中普通的卷積改為DSC,有效地減少了模型參數(shù)量,提高了模型計算速度。此外針對農(nóng)作物數(shù)據(jù)集類別不平衡問題,引入加權損失函數(shù),提高了模型對農(nóng)作物區(qū)域分割精度。實驗結(jié)果表明,該方法能夠有效提取農(nóng)作物種植區(qū)域,實現(xiàn)對農(nóng)作物更加高效準確的分割。

        猜你喜歡
        薏米特征提取農(nóng)作物
        土壤污染與農(nóng)作物
        軍事文摘(2024年6期)2024-02-29 10:01:50
        高溫干旱持續(xù) 農(nóng)作物亟須“防護傘”
        俄發(fā)現(xiàn)保護農(nóng)作物新方法
        夏季農(nóng)作物如何防熱害
        薏米水降尿酸治便秘
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        Bagging RCSP腦電特征提取算法
        米中第一薏米
        飲食保健(2016年19期)2016-12-05 09:21:33
        薏仁的挑選方法
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        久久这里有精品国产电影网 | 日韩精品一区二区亚洲av性色 | 亚洲aⅴ无码成人网站国产app| 国产欧美日韩在线观看| 亚洲人成绝费网站色www| 日本中文字幕乱码中文乱码| 免费无码不卡视频在线观看| 日韩无套内射视频6| 人妻少妇不满足中文字幕| 中文字幕精品乱码一区| 狠狠综合久久av一区二区蜜桃| 激情伊人五月天久久综合| 久久久精品人妻一区二区三区蜜桃| 亚洲色图视频在线| 亚洲中文字幕国产综合| 中国老熟女露脸老女人| 男女做爰猛烈啪啪吃奶动| 丰满爆乳无码一区二区三区| 精品人伦一区二区三区蜜桃麻豆| 91青青草免费在线视频| 海外华人在线免费观看| 亚欧中文字幕久久精品无码| 久久久窝窝午夜精品| 日本道免费一区日韩精品| 精品日韩一级免费视频| 天堂…在线最新版资源| 精品无码AⅤ片| 美女叉开双腿让男人插| 中国老熟女露脸老女人| 亚洲精品一区久久久久久| 亚洲日韩精品久久久久久| 婷婷久久亚洲中文字幕| 国内精品久久久久国产盗摄| 护士奶头又白又大又好摸视频| 久久99亚洲综合精品首页| 精品国产一区二区三区九一色| 国产在线观看91一区二区三区| 麻豆╳╳╳乱女另类| 十八岁以下禁止观看黄下载链接| 日韩免费高清视频网站| 国内精品国产三级国产|