Research on Accurate Identification of Tea Gardens Based on Satellite Remote Sensing Images
Li Dongxue',Li Feng2, Zhao Mengjie',Ding Zhaotang3,Ma Qingping'(1. Collge of Agriculture and Biology, Liaocheng University, Liaocheng 2520oo, China;2. Shandong Climate Center, Jinan 250031,China ;3. Tea Research Institute, Shandong Academy of Agricultural Sciences, Jinan 25010o, China)
AbstractDue to the complex and varied textural features and spatial distribution characteristics of tea garden in satelite remote sensing images,it is a challenge to effectively recognize tea garden using traditional methods.Therefore,this study was aimed to achieve precise identification of tea gardens through satelite remote sensing images combined with high-precision semantic segmentation technology.Firstly,according to the satelite images of Rizhao City,the Labelme tool was utilized to accurately annotate the textural information of tea gardens and construct a dataset of tea garden remote sensing images.Based on this dataset,seven semantic segmentation models such as Vgg-unet, Resnet5O-unet and Segformer_b2 were trained using data augmentation techniques for precise identification of tea gardens.The results indicated that among the seven models,Segformer_b2 showed the best property with accuracy of 91.29% ,recall rate of 91.09% ,mean intersection over union(mIoU)of 84.45% and F1-score of 91.20% for tea garden remote sensing image segmentation. To further enhance the performance of the Segformer_b2 model in identifying tea gardens,the multi-head context attention(MCA)mechanism was introduced,and strided convolution was integrated to enhance the model's ability to capture key textural features of tea gardens and its perception and processing capabilities for local details in the images.The improved Segformer-b2 model exhibited enhanced performance in tea garden remote sensing image segmentation with accuracy increased to 91.31% ,recall rate increased to 92.97% ,mIoU increased to 85.87% ,and F1-score increased to 92.12% ,which could achieve the high precision and efficiency identification of tea gardens remote sensing images.This study could not only provide strong support for future precise identification and management of tea gardens,but also showcase the potential of satelite remote sensing technology in the agricultural field.
KeywordsSatellite remote sensing images; Tea garden recognization; Semantic segmentation model
遙感技術(shù)具有信息獲取迅速、觀測(cè)范圍廣等優(yōu)點(diǎn),在資源普查、土地利用規(guī)劃、環(huán)境監(jiān)測(cè)等領(lǐng)域得到廣泛應(yīng)用[1-4]。當(dāng)前,我國(guó)茶園面積廣,但茶園信息化管理仍面臨諸多挑戰(zhàn),如傳統(tǒng)的茶園識(shí)別與面積提取往往依賴于人工實(shí)地測(cè)量和經(jīng)驗(yàn)判斷,存在工作量大、成本高、精度低等問(wèn)題。因此,利用衛(wèi)星遙感和深度學(xué)習(xí)技術(shù)實(shí)現(xiàn)茶園的自動(dòng)化提取和監(jiān)測(cè),對(duì)于提高茶園管理效率、降低管理成本具有重要意義。
深度學(xué)習(xí)中的語(yǔ)義分割是計(jì)算機(jī)視覺(jué)研究中的一項(xiàng)基礎(chǔ)但又具有挑戰(zhàn)性的任務(wù)[5],語(yǔ)義分割方法可以更好地應(yīng)用于影像分析、機(jī)器視覺(jué)識(shí)別、視頻監(jiān)控以及農(nóng)業(yè)生態(tài)監(jiān)測(cè)等實(shí)際任務(wù)[6]。目前,語(yǔ)義分割技術(shù)已經(jīng)在多個(gè)領(lǐng)域廣泛應(yīng)用[7-8] ODong等為應(yīng)對(duì)城市遙感圖像語(yǔ)義分割的類(lèi)不平衡挑戰(zhàn),提出DenseU-Net架構(gòu)與MFB_F損失函數(shù)相結(jié)合的方法,這提高了對(duì)小目標(biāo)類(lèi)的識(shí)別能力。Li等[10]提出了一種改進(jìn)的Segformer 網(wǎng)絡(luò),使得算法能夠有效地篩選建筑物的正面信息。沈駿翱等[]利用深度神經(jīng)網(wǎng)絡(luò)識(shí)別高分辨率遙感影像信息,同時(shí)引入注意力模塊,建立了比現(xiàn)有的U-Net、SegNet、DeeplabV3+等多個(gè)模型具有更高準(zhǔn)確率、更快預(yù)測(cè)速度的全新深度語(yǔ)義分割模型Samp;CMNet,用于高分辨率遙感圖像水體提取任務(wù)。Wang等[12]提出一種基于DFANet優(yōu)化的圖像語(yǔ)義分割方法,提高了遙感圖像多類(lèi)別區(qū)域的高效精準(zhǔn)識(shí)別。Zhang等[13]設(shè)計(jì)的低空遙感農(nóng)田圖像語(yǔ)義分割網(wǎng)絡(luò),以IResNet為編碼器核心,強(qiáng)化了特征提取,提升了農(nóng)田作物與空位的分割精度。
在茶園識(shí)別提取中,Chen等[14]利用機(jī)器學(xué)習(xí)分類(lèi)器支持向量機(jī)和隨機(jī)森林提取茶園分布,總體準(zhǔn)確率分別為 90.79% 和 89.42% ;Yao 等[15]提出R-CNN模型預(yù)測(cè)茶園的空間分布,結(jié)果顯示F1分?jǐn)?shù)和平均交并比( ΠmIoU′ )分別為 88.5% 和79.3% ,同時(shí)發(fā)現(xiàn)茶園邊界容易與其他地物混合,從而導(dǎo)致茶園分類(lèi)錯(cuò)誤。盡管現(xiàn)有方法在茶園遙感監(jiān)測(cè)中取得了一定的成果,但仍存在茶園與其他地物錯(cuò)分、識(shí)別準(zhǔn)確率較低等問(wèn)題。因此,本研究基于日照市的衛(wèi)星遙感影像,選用 ΔVgg-unet 、Resnet50-unet和Segformer_b2等7種經(jīng)典語(yǔ)義分割模型進(jìn)行訓(xùn)練,首先從中篩選出最適合茶園識(shí)別提取的模型,然后引人MCA(Multi-headCon-textAttention)注意力機(jī)制,并融合條形卷積(Stri-dedConvolution)對(duì)選定模型進(jìn)行改進(jìn),以提高模型對(duì)茶園關(guān)鍵紋理特征的捕獲能力和對(duì)圖像局部細(xì)節(jié)的感知和處理能力,從而為實(shí)現(xiàn)茶園的精準(zhǔn)識(shí)別和茶園面積的準(zhǔn)確提取提供良好的技術(shù)支持。
材料與方法
1.1 研究區(qū)域概況及數(shù)據(jù)獲取
本研究區(qū)域選在山東省東南部的日照市L (35°04′~36°25′N,118°35′~119°39′E) ,其總面積約為5 358.57km2 。日照市地形多樣,自南向北依次展現(xiàn)出山區(qū)、丘陵、平原的過(guò)渡特征,其中山區(qū)和丘陵地帶占據(jù)較大比例,這為茶樹(shù)等特色農(nóng)作物的種植提供了得天獨(dú)厚的土壤和氣候條件。
本研究選擇日照市2022年9月—2023年8月共計(jì)12個(gè)月的Planet3B遙感影像以及Google高清影像作為數(shù)據(jù)源,數(shù)據(jù)大小共有5.15GB。
Planet3B影像是由Planet公司提供的正射級(jí)數(shù)據(jù)產(chǎn)品,該產(chǎn)品經(jīng)過(guò)傳感器、輻射定標(biāo)和正射校正等處理,地面分辨率為 3m ,以GeoTIFF格式提供,包含多波段反射率圖像及相應(yīng)的元數(shù)據(jù),構(gòu)成完整的影像數(shù)據(jù)集。Google高清影像數(shù)據(jù)通過(guò)谷歌地球(https://earth.google.com/web/)平臺(tái)獲取。
在ArcGIS軟件中利用系統(tǒng)工具箱SpatialAnalystTools.tbx中的影像分割與分類(lèi)工具導(dǎo)出深度學(xué)習(xí)的訓(xùn)練數(shù)據(jù),切片大小設(shè)置為1024像素 ×1024 像素,導(dǎo)出格式為png,共切出7635張圖片,然后在Labelme軟件中對(duì)茶園進(jìn)行標(biāo)注,共標(biāo)注了1916張茶園。將數(shù)據(jù)集裁剪好后按照9:1劃分為訓(xùn)練集、驗(yàn)證集,對(duì)訓(xùn)練集數(shù)據(jù)進(jìn)行在線增強(qiáng),通過(guò)隨機(jī)變換如平移、旋轉(zhuǎn)等形成新的訓(xùn)練數(shù)據(jù),從而間接提高數(shù)據(jù)的多樣性和模型的泛化能力。
1.2 實(shí)驗(yàn)參數(shù)設(shè)置與模型訓(xùn)練
使用Intel@ CoreTM i5-9300H CPU @ 2.40GHz搭配N(xiāo)VIDIA GeForceGTX1660 Ti 顯存的GPU,在Windows11操作系統(tǒng)下配置深度學(xué)習(xí)環(huán)境,借助 Anaconda 軟件平臺(tái)建立虛擬環(huán)境,并選用Py-Torch 框架和 PyCharm Community Edition 2024.1.1版本,對(duì) Vgg-unet、Resnet5O-unet、Mobilenet-psp-net、Resnet5O - pspnet、Mobilenet_Deeplabv3 + !Xception_deeplabv3 + 和Segformer_b2共7種經(jīng)典語(yǔ)義分割模型進(jìn)行訓(xùn)練,選擇性能最高的模型進(jìn)行改進(jìn)。7種經(jīng)典語(yǔ)義分割模型的具體信息見(jiàn)表1。
1.3 改進(jìn)Segformer_b2模型對(duì)茶園進(jìn)行提取識(shí)別
針對(duì)篩選出的高性能Segformer_b2模型進(jìn)行改進(jìn):首先,為了增強(qiáng)模型的紋理特征提取能力,引入MCA機(jī)制,以捕捉茶園圖像中從微觀細(xì)節(jié)到宏觀結(jié)構(gòu)的各種特征,進(jìn)而更精確地識(shí)別茶園邊界和內(nèi)部結(jié)構(gòu);其次,為了進(jìn)一步提升模型的空間感知能力,融合條形卷積到Segformer_b2模型中,以增強(qiáng)模型對(duì)茶園區(qū)域內(nèi)部紋理和形狀特征的感知,有效捕捉圖像中的長(zhǎng)距離依賴關(guān)系,幫助模型更好地理解茶園區(qū)域的連續(xù)性和一致性;最后,為了平衡茶園識(shí)別任務(wù)中正負(fù)樣本和難易樣本之間的權(quán)重,改進(jìn)了DiceLoss和FocalLoss的混合損失函數(shù),以優(yōu)化模型對(duì)茶園區(qū)域的分割精度。
在模型訓(xùn)練完成后,利用mIoU、精確率(Pre-cision)、召回率(Recall)和F1分?jǐn)?shù)(F1-score)進(jìn)行性能評(píng)估,一般來(lái)說(shuō),值越高模型的性能越好[16]。其計(jì)算公式如下:
式中,TP、FP、FN、TN依次表示正確識(shí)別數(shù)目、錯(cuò)誤識(shí)別數(shù)目、目標(biāo)類(lèi)被識(shí)別成其他類(lèi)的數(shù)目、正確識(shí)別其他類(lèi)的數(shù)目[17];P表示精確率;R表示召回率;F1表示F1分?jǐn)?shù)。
2 結(jié)果與分析
2.1 7種經(jīng)典語(yǔ)義分割模型在茶園識(shí)別中的性能比較
用7種不同經(jīng)典語(yǔ)義分割模型對(duì)茶園遙感影像數(shù)據(jù)集進(jìn)行訓(xùn)練,從損失函數(shù)(Loss)的變化曲線(圖1)來(lái)看,Mobilenet-pspnet和Mobilenet_Deeplabv3 + 模型在整個(gè)訓(xùn)練過(guò)程中呈現(xiàn)出較大的波動(dòng),表明這兩個(gè)模型在訓(xùn)練過(guò)程中穩(wěn)定性較差。相比之下, ΔVgg-unet 和Resnet50-unet 模型在前半段波動(dòng)較大,但隨后逐漸趨于平穩(wěn),顯示出較好的訓(xùn)練穩(wěn)定性。Resnet50-pspnet 和 Xception-deeplabv 3+ 模型在第60個(gè)訓(xùn)練輪次(Epoch)后逐漸收斂,loss值穩(wěn)定在 0.10~0.15 之間,表明這兩個(gè)模型在訓(xùn)練后期具備較好的收斂性。而 Seg-former_b2模型在整個(gè)訓(xùn)練過(guò)程中波動(dòng)較小,訓(xùn)練過(guò)程平穩(wěn),顯示出優(yōu)越的擬合效果。
進(jìn)一步分析mIoU的變化曲線(圖2),發(fā)現(xiàn)Vgg-unet、Resnet5O-unet 和 Xception-deeplabv. 3+ 模型在前60個(gè)Epoch中mloU曲線趨勢(shì)不穩(wěn)定,波動(dòng)較大,但在80個(gè)Epoch后逐漸趨于平穩(wěn),并達(dá)到約 80% 的水平。Mobilenet-pspnet 和 Res-net50-pspnet模型在前40個(gè)Epoch內(nèi)表現(xiàn)相對(duì)平穩(wěn),但在隨后的20個(gè)Epoch中出現(xiàn)了不同程度的波動(dòng),其中 Mobilenet-pspnet 的波動(dòng)幅度超過(guò)10% ,而Resnet50-pspnet的波動(dòng)幅度較小,最終 兩者均穩(wěn)定在 80% 左右。Mobilenet_Deeplabv3 + 和Segformer_b2模型在整個(gè)驗(yàn)證過(guò)程中均表現(xiàn)出 穩(wěn)定的mIoU變化曲線,表明其性能更加優(yōu)越
觀察7種語(yǔ)義分割模型在茶園識(shí)別提取中的效果(圖3), ΔVgg-unet 和Resnet50-unet模型對(duì)茶園存在一定程度的錯(cuò)分且茶園邊緣分割較粗糙;Resnet5O-pspnet 和 Xception-deeplabv 3+ 模型對(duì)茶園邊緣分割較平滑,但也存在少量的茶園錯(cuò)分;Mobilenet-pspnet和Mobilenet_Deeplabv3 + 模型對(duì)茶園邊界的分割較粗糙,且對(duì)小范圍茶園的提取不精細(xì);Segformer_b2模型也存在少量茶園邊緣識(shí)別不準(zhǔn)確的現(xiàn)象,但總體而言,其邊緣分割效果相較于其他模型更為平滑和精細(xì),能夠準(zhǔn)確捕捉到茶園與周?chē)h(huán)境的細(xì)微差別,從而在邊緣處實(shí)現(xiàn)更清晰的分割。相比而言,Segformer_b2模型在茶園識(shí)別中的效果最好,
性能指標(biāo)對(duì)比結(jié)果(表2)表明,Segformer_b2模型的精確率、召回率、茶園IoU(tea-IoU)、背景IoU( BG-IoU )、mIoU和F1分?jǐn)?shù)最高,分別是91.29% 、91. 09% ! 74.00% 、95. 00% ! 84.45% 和91.20% ,展現(xiàn)出了最優(yōu)的綜合性能。表明 Segformer_b2模型在茶園圖像語(yǔ)義分割任務(wù)中不僅具有較高的準(zhǔn)確性,而且能夠較為全面地識(shí)別出圖像中的各類(lèi)語(yǔ)義區(qū)域
綜合以上分析,Segformer_b2模型在7種經(jīng)典語(yǔ)義分割模型中脫穎而出,不僅在訓(xùn)練過(guò)程中展現(xiàn)出優(yōu)異的穩(wěn)定性,而且在mIoU指標(biāo)上也取得了顯著的優(yōu)勢(shì)。因此,本研究選用該模型進(jìn)行改進(jìn)優(yōu)化,以滿足基于衛(wèi)星遙感影像精準(zhǔn)識(shí)別茶園的需求。
2.2 改進(jìn)Segformer_b2模型在茶園識(shí)別中的性能分析
為進(jìn)一步提高茶園識(shí)別的準(zhǔn)確度,本研究引入MCA機(jī)制及融合條形卷積對(duì)Segformer_b2模型進(jìn)行改進(jìn),同時(shí)改進(jìn)DiceLoss和Focal Loss的混合損失函數(shù)。Segformer_b2模型改進(jìn)前后的結(jié)構(gòu)見(jiàn)圖4。
改進(jìn)前后的模型性能對(duì)比結(jié)果(表3)顯示,在茶園識(shí)別的語(yǔ)義分割任務(wù)中,引入MCA機(jī)制和融合條形卷積后,Segformer_b2_MCA_SC模型的mIoU和F1分?jǐn)?shù)均獲得一定程度的提升,分別由84.45% 和 91.20% 提升至 85.58% 和 91.94% ,表明模型在識(shí)別茶園區(qū)域時(shí)能夠更好地捕捉茶園與背景之間的邊界。改進(jìn)后的最終模型Segformer_b2_all_mixloss精確率、召回率、 Ω.Tea-IoUΩ,BG-IoU. mloU、F1分?jǐn)?shù)均較Segformer_b2有明顯提升,分別達(dá)到 91.31% 1 92.97% ! 76.00% ! 96. 00% !85.87% 、 92.12% ,表明模型能對(duì)難以分類(lèi)的樣本給予更多關(guān)注,從而更全面地覆蓋目標(biāo)區(qū)域,減少識(shí)別錯(cuò)誤和遺漏。
同時(shí),觀察訓(xùn)練曲線(圖5)和mIoU(圖6)發(fā)現(xiàn),改進(jìn)前后的模型訓(xùn)練損失(trainloss)均隨著迭代次數(shù)的增加而逐漸下降,表明模型在逐步收斂。相較于原始Segformer_b2,引入MCA機(jī)制(Segformer_b2_MCA)或融合條形卷積(Segformer_b2_SC)的模型訓(xùn)練損失下降更快,表明這些機(jī)制有助于模型更快地收斂;同時(shí)引入MCA機(jī)制和融合條形卷積的模型(Segformer_b2_MCA_SC)訓(xùn)練損失下降最為迅速,證實(shí)了兩者結(jié)合的優(yōu)勢(shì);而進(jìn)一步改進(jìn)損失函數(shù)后的Segformer_b2_all_mixloss模型訓(xùn)練損失下降得迅速且平穩(wěn),表明改進(jìn)損失函數(shù)對(duì)模型訓(xùn)練過(guò)程有一定的優(yōu)化作用。所有模型的mIoU均隨著迭代次數(shù)的增加而逐漸提高,表明模型的分割性能在逐步增強(qiáng)。相較于 Seg-former_b2,引入MCA機(jī)制或融合條形卷積的模型的mIoU均有所提高,表明這些改進(jìn)機(jī)制對(duì)模型性能有正面影響;同時(shí)引人MCA機(jī)制和融合條形卷積的模型mIoU進(jìn)一步提升,證實(shí)了兩者結(jié)合的協(xié)同作用;改進(jìn)后的Segformer_b2_all_mixloss的mIoU最高,表明引人MCA機(jī)制、融合條形卷積和改進(jìn)損失函數(shù)對(duì)模型性能提升作用最好,在訓(xùn)練效率和分割性能上均達(dá)到了最優(yōu)。
通過(guò)對(duì)比改進(jìn)前的Segformer_b2與改進(jìn)后的Segformer_b2_all_mixloss模型在茶園特征提取任務(wù)中的分割結(jié)果(圖7),可以清晰地看到,通過(guò)引入MCA機(jī)制,紅色區(qū)域被進(jìn)一步細(xì)分為多個(gè)子區(qū)域,顯示出MCA機(jī)制在細(xì)節(jié)處理上的優(yōu)勢(shì);融合條形卷積后,在保持地形整體結(jié)構(gòu)的基礎(chǔ)上對(duì)地形進(jìn)行了更為精細(xì)的分割,紅色區(qū)域的形狀和大小更加接近原始圖像中的地形特征,顯著提升了茶園分割的精度;改進(jìn)損失函數(shù)之后的圖像則表現(xiàn)出更全面的分割效果,茶園與其他地物的邊界更為清晰。具體而言,改進(jìn)后的Segformer_b2_all_mixloss模型在茶園邊界識(shí)別和形狀捕捉上更為準(zhǔn)確,使得茶園邊界更加平滑連貫,減少了鋸齒狀和斷裂的現(xiàn)象,同時(shí)茶園與背景區(qū)域的界限也更加清晰,有效減少了錯(cuò)分和漏分的問(wèn)題??梢?jiàn),改進(jìn)后的模型在茶園邊緣處理、小目標(biāo)檢測(cè)以及復(fù)雜背景下茶園識(shí)別等方面表現(xiàn)出明顯提升效果。
3討論與結(jié)論
為了解決茶園面積提取困難與提高茶園管理的問(wèn)題,本研究提出一種基于衛(wèi)星遙感影像結(jié)合高精度語(yǔ)義分割的茶園識(shí)別方法,
首先,本研究對(duì)7種經(jīng)典語(yǔ)義分割模型進(jìn)行性能測(cè)試,結(jié)果表明, ΔVgg-unet 在處理復(fù)雜場(chǎng)景如茶園圖像時(shí),其特征提取能力可能受限于VGG網(wǎng)絡(luò)的較淺層次,導(dǎo)致在細(xì)節(jié)保留和邊緣分割上略顯不足,進(jìn)而出現(xiàn)錯(cuò)分和漏分現(xiàn)象。Resnet50-unet通過(guò)引入殘差學(xué)習(xí)機(jī)制,有效緩解了深層網(wǎng)絡(luò)訓(xùn)練中的梯度消失問(wèn)題,增強(qiáng)了網(wǎng)絡(luò)對(duì)復(fù)雜特征的提取能力,因此在整體分割準(zhǔn)確率上有所提升,但仍未能在小范圍茶園提取中達(dá)到理想效果。Mobilenet-pspnet因結(jié)構(gòu)簡(jiǎn)化而犧牲了部分細(xì)節(jié)捕捉能力,導(dǎo)致分割結(jié)果不夠精細(xì)。Xception-deeplabv 3+ 則結(jié)合了Xception 模塊的高效深度可分離卷積和DeepLab系列的空間金字塔池化(SPP)技術(shù),雖然在許多場(chǎng)景中表現(xiàn)出色,但在茶園的小范圍精細(xì)分割上,可能因模型設(shè)計(jì)側(cè)重點(diǎn)不同而未能完全發(fā)揮其優(yōu)勢(shì)。Segformer_b2模型在茶園圖像語(yǔ)義分割任務(wù)中表現(xiàn)最為出色,主要由于該模型利用Transformer強(qiáng)大的全局上下文建模能力,有效捕捉圖像中的長(zhǎng)距離依賴關(guān)系,這對(duì)于識(shí)別茶園這類(lèi)具有連續(xù)性和廣泛分布特征的語(yǔ)義區(qū)域尤為重要[18];同時(shí),Segformer通過(guò)輕量級(jí)的解碼器設(shè)計(jì),保持了較高的計(jì)算效率,使得模型能夠在保證精度的同時(shí)實(shí)現(xiàn)較快的推理速度。因此,選用Segformer_b2作為原始模型。
鑒于Segformer_b2模型仍然存在少量茶園邊緣識(shí)別不準(zhǔn)確的現(xiàn)象,本研究在該模型中引入MCA機(jī)制,以使模型能更精準(zhǔn)地捕捉茶園區(qū)域的關(guān)鍵紋理特征,從而提高茶園識(shí)別的準(zhǔn)確性和魯棒性;同時(shí),融合條形卷積操作,優(yōu)化模型對(duì)圖像局部細(xì)節(jié)的感知和處理能力,進(jìn)一步提升分割效果;此外,改進(jìn)混合DiceLoss和FocalLoss損失函數(shù),有效應(yīng)對(duì)類(lèi)別不平衡問(wèn)題,進(jìn)一步提高模型的整體性能。結(jié)果表明,改進(jìn)后的Segformer all_mixloss模型的茶園識(shí)別準(zhǔn)確性明顯提高,精確率、召回率、mIoU和F1分?jǐn)?shù)分別由 91.29% !91.09%.84.45%.91.20% 提升至 91.31%.92.97% 85.87%.92.12% ,在識(shí)別衛(wèi)星遙感影像中的茶園尤其小范圍茶園提取中,展現(xiàn)出了較高的精度和魯棒性,可為茶園管理、產(chǎn)量預(yù)測(cè)以及資源優(yōu)化配置等提供技術(shù)支撐
綜上所述,通過(guò)對(duì) Segformer_b2 模型進(jìn)行一系列改進(jìn),包括引入MCA機(jī)制、融合條形卷積以及改進(jìn)DiceLoss和FocalLoss的混合損失函數(shù),成功地提升了模型的訓(xùn)練穩(wěn)定性和識(shí)別性能表現(xiàn),為后續(xù)的茶園管理與分析提供了更為可靠的數(shù)據(jù)支持。改進(jìn)后的Segformer_b2_all_mixloss模型在茶園遙感圖像語(yǔ)義分割任務(wù)中展示出強(qiáng)大的特征提取和上下文理解能力,能夠更全面地識(shí)別出圖像中的各類(lèi)語(yǔ)義區(qū)域,包括茶園的邊界、內(nèi)部紋理以及與其他地物的區(qū)分。但仍需正視當(dāng)前研究中存在的一些問(wèn)題,例如如何進(jìn)一步提高模型在復(fù)雜場(chǎng)景下的泛化能力、如何更好地處理遙感圖像中的噪聲和干擾等,因此未來(lái)研究中可以探索新的圖像預(yù)處理技術(shù)、更優(yōu)化的算法以及更高效的特征提取方法等,以進(jìn)一步降低噪聲干擾,提高圖像質(zhì)量,進(jìn)而提高茶園遙感影像識(shí)別的準(zhǔn)確性和效率。另外,本研究數(shù)據(jù)采用的是 3m 分辨率的衛(wèi)星影像,未來(lái)可以考慮采用更高分辨率的衛(wèi)星影像進(jìn)行研究
參考文獻(xiàn):
[1]Enoguanbhor E C,Gollnow F,Nielsen JO,et al. Land cover change in the Abuja city-region,Nigeria:integrating GIS and remotely sensed data to support land use planning[J]. Sustainability,2019,11(5):1313.
[2] YaoH,QinRJ,ChenXY.Unmannedaerial vehicleforremote sensingapplications:a review[J].Remote Sensing,2O19,11 (12) :1443.
[3] LiJ,Pei YQ,Zhao S H,et al.A review of remote sensing for environmental monitoring in China[J]. Remote Sensing,2020, 12(7) :1130.
[4] MohanrajanSN,Loganathan A,ManoharanP.SurveyonLand Use/Land Cover(LU/LC) change analysis in remote sensing and GIS environment:techniques and challenges[J]. Environmental Scienceand Pollution Research International,2O20,27 (24):29900-29926.
[5] JingL L,Chen YC,Tian YL. Coarse-to-fine semantic segmentation from image-level labels[J]. IEEE Transactions on Image Processing,2019,29:225-236.
[6] 李旭青,吳冬雪,王玉博,等.基于改進(jìn)HRNet的遙感影像 冬小麥語(yǔ)義分割方法[J].農(nóng)業(yè)工程學(xué)報(bào),2024,40(3): 193-200.
[7] 張羽豐,楊景,鄧寒冰,等.基于RGB和深度雙模態(tài)的溫室 番茄圖像語(yǔ)義分割模型[J].農(nóng)業(yè)工程學(xué)報(bào),2024,40(2): 295-306.
[8] 王嫣然,陳清亮,吳俊君.面向復(fù)雜環(huán)境的圖像語(yǔ)義分割方 法綜述[J].計(jì)算機(jī)科學(xué),2019,46(9):11.
[9] Dong R S,Pan X Q,Li F Y. DenseU-Net-based Semantic segmentation of small objects in urban remote sensing images[J]. IEEEAccess,2019,7:65347-65356.
[10]LiML,Rui J,YangSK,etal.Method ofbuildingdetection in optical remote sensing images based on segformer[J]. Sensors, 2023,23(3):1258.
[11]沈駿翱,馬夢(mèng)婷,宋致遠(yuǎn),等.基于深度學(xué)習(xí)語(yǔ)義分割模型 的高分辨率遙感圖像水體提?。跩].自然資源遙感,2022, 34(4) :129-135.
[12]Wang Z,Guo JX,Huang WZ,et al.High-resolution remote sensing image semantic segmentation based on a deep feature aggregation network[J].Measurement Science and Technology,2021,32:095002.
[13] Zhang X X,Yang Y H,Li Z Y,et al.An improved encoder-decoder network based on strip pool method applied to segmentationof farmland vacancy field[J].Entropy,2021,23(4) :435.
[14]Chen PP,Zhao C J,Duan D D,et al. Extracting tea plantations incomplex landscapes using Sentinel-2 imagery and machine learning algorithms[J]. Community Ecology,2022,23:163- 172.
[15]Yao Z X,Zhu X C,Zeng Y,et al.Extracting tea plantations from multitemporal Sentinel-2 images based on deep learning networks[J].Agriculture,2023,13(1):10.
[16]Wang L,Wang C L,Sun Z Q,et al. An improved Dice loss for pneumothorax segmentation by mining the information of negativeareas[J].IEEEAccess,2020,8:167939-167949.
[17]王鴻雁,車(chē)向紅,徐辛超,等.利用DeepLabv3 + 模型提取分 析街景圖像綠視率:以北京三環(huán)內(nèi)為例[J].測(cè)繪通報(bào), 2024(3):88-94.
[18]張久丹,王浩宇,李均力,等.基于改進(jìn)D-UNet模型的典型 洪泛濕地信息提取[J].遙感學(xué)報(bào),2025,29(1):300-313.