亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于LW一CBAM的荒漠草原植被蓋度提取方法研究

        2025-08-15 00:00:00解一恒張燕斌杜健民畢玉革李文靜高新超
        中國農(nóng)機化學(xué)報 2025年7期
        關(guān)鍵詞:荒漠輕量化植被

        中圖分類號:S812;TP751 文獻標(biāo)識碼:A 文章編號:2095-5553(2025)07-0111-07

        Abstract:Inorder toextractdesert grassland fractionalvegetationcoverage inrealtime,accuratelyandquickly,this paper proposedalightweightnetwork model method integrated atention mechanism(Lightweightnetwork-Convolutional Block Atention Module,LW—CBAM)based on the collected UAV hyperspectral remote sensing data.This method improved the traditional 2Dconvolution kernel to 3Ddeeplyseparableconvolution kernel,andcombined the multi-branch methodand theatention mechanismmoduletomakethe modellightweightandimprovedtheaccuracyof themodel.Inordertoobtain the optimal model,this paperoptimized the batch size and learning rateof the model.Theresultsshowed thatcompared with popular deep learning methods such as ResNet34,VGG16,MobileNetV2andMobileNetV3,LW—CBAM had a higher classification accuracy,OA was 98.97% , Kappa coefficient was 97.94,and the model had a higher estimation accuracy for fractional vegetation coverage.The absolute error from the true value was only 0.17% .TheLW— CBAM's parameter count was reduced by over 90% compared to the other models,and its computational requirements were respectively 1.37% , 0.74% , 13.33% ,and 14.81% of the four other models. During the model validation stage,the estimation error of fractional vegetation coverage by LW—CBAM was below 0.3% . This model provided a feasible method for estimating fractional vegetation coverage in desert steppe and provided a basis for grassland degradation control.

        Keywords:fractional vegetation coverage;hyperspectral remote sensing;deep learning;lightweight network; attention mechanism;desert steppe

        0 引言

        草原是我國生態(tài)系統(tǒng)中不可或缺的一部分[1]。我國的草地面積將近 4×108hm2 ,居世界第二位[2]。然而,自從20世紀(jì)60年代以來,草原退化現(xiàn)象在全國各地出現(xiàn)上升趨勢[3],黨的二十大報告指出,推行草原森林河流湖泊濕地休養(yǎng)生息,提升生態(tài)系統(tǒng)多樣性、穩(wěn)定性、持續(xù)性。全國第六次荒漠化和沙化土地監(jiān)測調(diào)查結(jié)果顯示,內(nèi)蒙古荒漠化土地占全國荒漠化土地面積的 23.04%[4] ,土地沙化、次生鹽漬化嚴(yán)重,生態(tài)修復(fù)的任務(wù)艱巨[5]

        草原荒漠化主要表現(xiàn)為植被蓋度(FVC)減少、植被種類減少、裸地面積增加等,因此, FVC 是荒漠化監(jiān)測的重要指標(biāo)[6。傳統(tǒng)的植被蓋度監(jiān)測方法以地面實測為主,優(yōu)點是精度高、數(shù)據(jù)可靠,但只能在小范圍內(nèi)進行植被蓋度計算[7]。得益于技術(shù)的發(fā)展,衛(wèi)星遙感法可以在大范圍內(nèi)對植被蓋度進行反演,但其分辨率不夠高,成本也比較高昂[8]。近年來,無人機(UAV)搭載高光譜儀借助成本低、分辨率高、操作靈活等優(yōu)勢迅速被大范圍應(yīng)用9,可為荒漠草原植被蓋度的計算提供技術(shù)支持。

        1數(shù)據(jù)采集與預(yù)處理

        植被蓋度通常被定義為植被(包括枝、莖、葉)在單位面積內(nèi)的垂直投影面積所占百分比[10]。張燕斌等[11]采用改進的3D—ResNet模型對荒漠草原地物進行分類,其總體分類精度為 97.73% ,為荒漠草原整體生態(tài)系統(tǒng)研究奠定基礎(chǔ); Xu 等[12]提出了MSR—3DCNN模型用于高光譜圖像分類,并在3個開源數(shù)據(jù)集上進行試驗。深度可分離卷積(DSC)[13]降低了模型參數(shù)量,為深度學(xué)習(xí)模型的輕量化提供新思路。程鉻杰等[14]提出了輕量化殘差網(wǎng)絡(luò)模型,分類精度較高,且計算量和參數(shù)量較??;孫一帆等[15]提出了融合注意力機制的輕量化關(guān)系網(wǎng)絡(luò),在小樣本條件下也有較高的分類精度?,F(xiàn)有的方法存在計算效率不夠高的問題,因此,構(gòu)建一種能夠快速、準(zhǔn)確計算FVC的方法,對荒漠草原的治理具有重要的現(xiàn)實意義。

        本文采用無人機搭載高光譜儀組建無人機高光譜遙感系統(tǒng),對研究區(qū)荒漠草原的高光譜影像進行采集和數(shù)據(jù)預(yù)處理,構(gòu)建一種融合注意力機制的輕量化網(wǎng)絡(luò)模型(LW一CBAM),對高光譜影像中的植被和非植被進行分類并計算FVC,與ResNet34、VGG16、MobileNetV2、MobileNetV3等目前流行的深度學(xué)習(xí)方法進行對比。旨在為以無人機高光譜遙感為手段的草原監(jiān)測奠定基礎(chǔ),為草原退化治理提供依據(jù)。

        1.1 研究區(qū)概況

        研究區(qū)位于內(nèi)蒙古農(nóng)牧業(yè)科學(xué)院四子王基地,地處內(nèi)蒙古自治區(qū)中部的烏蘭察布市四子王旗格根塔拉草原,地理坐標(biāo)北緯 41°78 、東經(jīng) 111°88 。該區(qū)域海拔在 1 400~1 500m ,屬于溫帶大陸性氣候,全年平均氣溫在 1°C~6°C ,年降水量為 280mm[16] ,主要集中在 6-9 月。土壤類型大部分為淡栗鈣土,土壤有機碳含量為 16g/kg ,含氮量為 1.67g/kg 。作為我國荒漠草原的典型代表,其植被稀疏低矮、種類貧乏,主要有短花針茅、冷蒿、無芒隱子草、錦雞兒、駝絨藜等。

        1.2無人機高光譜遙感系統(tǒng)

        無人機高光譜遙感系統(tǒng)由A3Pro飛行控制系統(tǒng)控制的大疆 M600Pro 六旋翼無人機、GaiaSky-mini型高光譜儀、如影云臺MX、小型機載計算機組成,如圖1所示。無人機采用大疆經(jīng)緯 M600Pro 六旋翼無人機,空機重量為 9.5kg (含電池),最大起飛重量為 15.5kg ,滿載時可持續(xù)飛行 16min 。高光譜儀采用GaiaSky一mini型高光譜儀,光譜通道數(shù)為256,光譜范圍為 400~1000nm 光譜分辨率為 3.5nm ,圖像分辨率為775像素 ×696 像素,掃描方式為懸停內(nèi)置掃描。機載計算機的CPU為Inteli7—7567U,配有512G的固態(tài)硬盤。

        1.3數(shù)據(jù)采集

        無人機數(shù)據(jù)采集時間為2023年7—8月,包括高光譜數(shù)據(jù)采集和可見光數(shù)據(jù)采集。在研究區(qū)內(nèi)隨機布置60個大小為 1m×1m 的樣方,使用小旗和地墊輔助標(biāo)記樣方。為降低天氣等外部條件對數(shù)據(jù)采集的影響,選擇時間為10:00—14:00,且在天氣晴朗、無云霧遮擋、風(fēng)力低于3級(少風(fēng)或微風(fēng))的條件下采集。高光譜數(shù)據(jù)采集時無人機飛行高度為 20m ,空間分辨率為1.73cm/pixel ,且對每個地物樣方拍攝3次。每個架次起飛前后分別進行標(biāo)準(zhǔn)白板校正,將光照強度的變化對高光譜圖像的影響降到最低。可見光數(shù)據(jù)采集使用大疆精靈3無人機采集,采集高度為 8m ,每個樣方拍攝2次。

        1.4 數(shù)據(jù)預(yù)處理

        通過人工對比,剔除成像不佳、過度曝光以及欠曝光的圖像,將高光譜數(shù)據(jù)導(dǎo)人SpecVIEW軟件,結(jié)合采集的白幀和黑幀對反射率進行校正。圖2為經(jīng)過反射率校正后的光譜曲線??梢钥闯?,植被和非植被的反射率曲線存在明顯差異,在 680nm 處植被反射率曲線有明顯的“波谷”,之后快速上升,而非植被在 400~ 800nm 上升較為平緩,且無明顯波動。反射率的差異為精確區(qū)分植被和非植被以及FVC的計算提供可能。

        圖2植被和非植被的反射率曲線 Fig.2Reflectance curve of vegetation and non-vegetation

        ?

        相比傳統(tǒng)的遙感圖像,高光譜圖像具有分辨率高、特征維數(shù)高的特點,但同時也存在信息冗余的問題,在數(shù)據(jù)處理過程中會出現(xiàn)維數(shù)災(zāi)難和Hughes現(xiàn)象[17]。為避免模型學(xué)到無關(guān)信息,采用主成分分析(PCA)[18,19]法對高光譜數(shù)據(jù)進行降維處理。表1為高光譜數(shù)據(jù)經(jīng)過PCA后主成分的協(xié)方差貢獻率。可以看出,經(jīng)過PCA降維后,前30個主成分的累計協(xié)方差貢獻率為 99.80% ,基本可以包含原始高光譜圖像的全部信息,因此,選擇將高光譜數(shù)據(jù)降至30維。為方便處理,將高光譜圖像進行裁剪,最終高光譜圖像的尺寸為500lines ×500 samples ×30 bands。

        表1協(xié)方差貢獻率Tab.1 Covariance contribution rate

        ?

        在ENVI5.6軟件中使用ROI感興趣區(qū)域制作標(biāo)簽數(shù)據(jù)集,其中植被像元24809個,非植被像元26673個,共有51482個樣本,將總樣本的 40% 作為訓(xùn)練集,其余作為測試集。

        1.5 FVC真實值

        為確定FVC的真實值,使用大疆精靈3無人機采集樣方的可見光圖像,此操作在完成樣方的高光譜數(shù)據(jù)采集后進行。為了使可見光圖像與 500lines×500 samples的高光譜影像相對應(yīng),使用PhotoshopCC2015對可見光圖像進行裁剪,保證可見光圖像的植被蓋度可以作為真實值。支持向量機(SVM是一種機器學(xué)習(xí)算法,常被用于二分類問題,因此,選用SVM對可見光圖像進行監(jiān)督分類并結(jié)合目視解譯法得到FVC真實值。

        將裁剪后的可見光圖像導(dǎo)人ENVI5.6中,首先對圖像進行歸一化處理,接著通過ROI感興趣區(qū)域定義訓(xùn)練樣本(訓(xùn)練樣本約占總樣本的 15%~20% ,并計算樣本的可分離度。可分離度的值為 0~2.0 ,可分離度大于1.9,說明樣本之間可分離性很好;可分離度小于1.8,則需要重新選擇樣本。最后使用SVM監(jiān)督分類對整幅圖像進行分類,通過目視解譯法對分類錯誤的區(qū)域進行調(diào)整,之后分別統(tǒng)計植被和非植被的像元個數(shù),植被像元數(shù)與總像元數(shù)的比值即為FVC真實值。通過SVM對可見光圖像進行監(jiān)督分類并結(jié)合目視解譯法最終得到植被蓋度的真實值為 50.92% 。

        2 研究方法

        2.1 注意力機制

        注意力機制被廣泛應(yīng)用于深度學(xué)習(xí)中,本文將3D卷積注意力機制模塊(CBAM)[20]融入深度學(xué)習(xí)模型,其可以分為兩部分:第一部分為通道注意力機制;第二部分為空間注意力機制。圖3為CBAM的整體結(jié)構(gòu),假設(shè)網(wǎng)絡(luò)輸入的特征尺寸為 H×W×C ,首先在空間維度(H,W 維度)分別作3DGlobalAveragePooling和3DGlobalMaxPooling,接著進行通道壓縮、展開操作, r 為通道 C 下降的倍數(shù),即可得到每個 c 的權(quán)重,將二者相加后與原始特征圖相乘即可得到通道加權(quán)后的特征圖。之后在 c 維度分別作3DGlobalAveragePooling和3DGlobalMaxPooling,將二者在通道維度拼接,再通過卷積將通道合二為一,即可得到空間權(quán)重圖,將其與通道加權(quán)特征圖相乘即可得到通道空間加權(quán)的特征圖。

        圖3卷積注意力機制模塊 Fig.3 Convolutional block attention module

        ?

        2.2 神經(jīng)網(wǎng)絡(luò)模型

        傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)運算量大、運算時間長,而深度可分離卷積(DSC)的出現(xiàn)大大減少了模型的參數(shù)量和運算量。因此,選擇使用DSC,以達到輕量化的目的。圖4為融合注意力機制的輕量化網(wǎng)絡(luò)模型(LW—CBAM的結(jié)構(gòu)圖,通過PCA將高光譜數(shù)據(jù)降至30維,經(jīng)過Patch后以 30×9×9 的大小送人神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練。首先通過一個 7×7×7 的3D—DSC,并采用ReLU激活函數(shù)進行特征初步提取;接著分為3條支路分別提取特征,第一條支路為 3×3×3 的3D—DSC,第二條支路包括最大池化下采樣和上采樣,將第一條支路和第二條支路提取到的特征在維度方向上進行拼接,并在其后融入CBAM,第三條支路同樣是 3× 3×3 的3D—DSC;最后將第三條支路的特征與拼接后的結(jié)果進行融合,在其后也融入CBAM,通過展平層、全連接層以及Logsoftmax函數(shù)后輸出分類結(jié)果。此外,在每個卷積之后都加入批量歸一化(BN)操作,避免梯度消失與爆炸,加快模型收斂。為避免模型過擬合,在訓(xùn)練階段使用dropout操作,隨機失活 40% 的神經(jīng)元。

        圖4神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig.4Neural network structure

        ?

        3 結(jié)果與分析

        數(shù)據(jù)處理在Windows10系統(tǒng)上進行,RAM為16 GB,CPU 為 Intel Core i5-9300H ,顯卡為NVIDIAGeForceGTX1650,4GB獨顯。神經(jīng)網(wǎng)絡(luò)模型基于Pytorch1.13.0框架編寫,編譯器選擇Anaconda 的 Spyder。

        輸人神經(jīng)網(wǎng)絡(luò)的圖像大小為30像素 ×9 像素 ×9 像素,訓(xùn)練批次為100,采用交叉熵?fù)p失函數(shù),優(yōu)化器選擇Adam。并選用ResNet34、VGG16、MobileNetV2、MobileNetV3等目前流行的深度學(xué)習(xí)模型與LW—CBAM模型進行對比。

        3.1 評價指標(biāo)

        對于分類精度,選用總體分類精度(OA)和Kappa系數(shù)21進行評價。 OA 為被正確分類的像元個數(shù)除以總像元個數(shù)。 OA 越高, Kappa 越大,模型效果越好。OA和Kappa系數(shù)的計算如式(1)和式(2)所示。

        ?

        ?

        式中: k 分類的類別數(shù);xii (204 第 i 類樣本中被正確分類的個數(shù);n (2 樣本總數(shù)量;P e 期望分類精度;Po 總體分類精度。

        假設(shè)每一類真實樣本個數(shù)分別為 x1,x2,…,xa , 預(yù)測出的每一類樣本個數(shù)為 y1,y2,…,ya ,則

        ?

        對于植被蓋度的計算結(jié)果,選用估算值與真實值的絕對誤差 (AE )進行評價,絕對誤差越小,植被蓋度的計算結(jié)果越準(zhǔn)確。絕對誤差的計算如式(4)所示。

        ?

        式中: Z (20 -FVC的估算值;

        ? (204號 -FVC的真實值。

        對于模型輕量化,選擇參數(shù)量(Params)、運算量(Flops)[22] ,并輔以訓(xùn)練時間和預(yù)測時間進行評價,Params和Flops運算量越小,訓(xùn)練時間和預(yù)測時間越短,表明模型越輕量化。

        3.2 結(jié)果分析

        為得到最優(yōu)模型,將LW—CBAM模型進行批量大?。╞atchsize)和學(xué)習(xí)率(learningrate)的優(yōu)化。為避免模型運算的偶然性,數(shù)據(jù)均為3次重復(fù)運算取平均值的結(jié)果。評估batchsize對模型效果的影響時,分別設(shè)置32、64、128、256共4種不同的batchsize,學(xué)習(xí)率為0.001。表2為對比結(jié)果,可以看出,在4種不同的batchsize下, OA 均高于 97.9% ,當(dāng)batchsize為64時,取得最佳分類精度 98.44% 。

        表2批量大小優(yōu)化結(jié)果對比Tab.2Comparison of optimization results for batch sizt

        ?

        在batch size為64的基礎(chǔ)上,設(shè)置0.00l、0.004、0.007,0.01,0.02 共5種不同的learningrate,目的是確定最佳的learningrate參數(shù)。由表3可知, OA 介于 98%~99% ,當(dāng)學(xué)習(xí)率為0.01時,總體分類精度最高為 98.97% 。在試驗過程中,當(dāng)learningrate為0.02時,訓(xùn)練后期準(zhǔn)確率振蕩劇烈,這是學(xué)習(xí)率過大導(dǎo)致的。因此,經(jīng)過優(yōu)化后,最終的批量大小和學(xué)習(xí)率分別為64、0.01。

        表3學(xué)習(xí)率優(yōu)化結(jié)果對比 Tab.3Comparison of optimization results for learning rate

        ?

        為更好地評估模型的性能,將LW一CBAM與ResNet34、VGG16、MobileNetV2、MobileNetV3等深度學(xué)習(xí)網(wǎng)絡(luò)模型進行對比。圖5為5種模型的OA和Kappa系數(shù)對比。由圖5可知, OA 與Kappa系數(shù)的變化呈現(xiàn)相同的趨勢, OA 高的模型Kappa系數(shù)也高,其關(guān)系為LW—CI BAMgt; MobileNetV3gt;VGG16gt; MobileNet V2gt; ResNet34。需要說明的是,本文對Kappa系數(shù)做了放大100倍的處理。LW—CBAM的 OA 和 Kappa 系數(shù)分別為 98.97% 797.94,MobileNetV3的分類精度緊隨其后,分別為97.76%.96.15 。VGG16的性能處于5種模型的中間位置,分類精度為LW一CBAM的 98.30% 、96.54% 。MobileNetV2的效果表現(xiàn)不佳,OA和Kappa系數(shù)僅為 95.57%.91.13 。ResNet34的OA和Kappa系數(shù)最低,分別為 94.58% 、89.14,相比于LW—CBAM,分別降低 4.39%.8.8 。

        模型訓(xùn)練完成,需要對整幅高光譜圖像的覆蓋度進行預(yù)測,并與真實值進行對比,表4為5種模型計算FVC的結(jié)果,可以看出,LW—CBAM估算的植被覆蓋度與真實的植被覆蓋度最為接近,其絕對誤差為 0.17% 其次為MobileNetV3,估算植被覆蓋度為 50‰ ,絕對誤差為 0.24% ,VGG16和MobileNetV2模型的估算結(jié)果與真實值相差不大,絕對誤差分別為 0.32%.0.35% ResNet34的預(yù)測結(jié)果與真實值相差最大,絕對誤差為 0.44% 。

        表4FVC估算結(jié)果Tab.4Estimation of FVC

        ?

        圖5OA和Kappa系數(shù) Fig.5 OA and Kappa coefficient

        ?

        表5為各模型參數(shù)的對比,可以看出,LW—CBAM迭代100次的時間為 9.73min ,分別為ResNet34、VGG16、MobileNetV2、MobileNetV3的27.79% 、 60.12% ! 63.99% 、 66.82% ,預(yù)測時間為18s ,較其他模型分別降低 23.33s,11.39s,15.61s ‘14.63s 。LW一CBAM的參數(shù)量僅為 0.74M ,較ResNet34、VGG16、MobileNetV2、MobileNetV3模型分別下降 99.11%.98.09%.91.90%.92.39% ,降幅均在 90% 以上,運算量分別為其他模型的 1.37% 、0.74%.13.33%.14.81% 。

        表5模型參數(shù)對比Tab.5Model parameter comparison

        ?

        FVC的可視化對比如圖6所示。

        圖6可視化對比 Fig.6Visual contrast chart

        ?

        為驗證LW一CBAM在荒漠草原FVC估算方面的有效性,對另外3張高光譜圖像進行FVC估算,結(jié)果如表6所示??梢钥闯觯琇W—CBAM對3張影像的FVC估算值分別為 51.91%.47.51%.52.56% ,與真實值的絕對誤差均在 0.3% 以下,驗證LW—CBAM在荒漠草原植被蓋度估算中的精準(zhǔn)性。圖7為可視化結(jié)果。

        表6FVC估算值與真實值對比 Tab.6Compare the estimated value with the truevalueofFVC

        ?

        圖7覆蓋度估算模型可視化結(jié)果

        Fig. 7Visualization results of coverage estimation model

        ?

        4結(jié)論

        通過無人機遙感系統(tǒng)采集荒漠草原的高光譜數(shù)據(jù),研究融合注意力機制的卷積神經(jīng)網(wǎng)絡(luò)模型對荒漠草原植被蓋度計算的準(zhǔn)確性和快速性。

        1)提出一種基于無人機高光譜圖像計算植被蓋度的輕量化網(wǎng)絡(luò)模型(LW—CBAM),并在該模型中融合注意力機制。結(jié)果表明,該模型的OA為 98.97% ,Kappa為97.94,與其余4種模型相比,分類精度更高,且該模型對荒漠草原植被蓋度估算的絕對誤差僅為 0.17% ,可以準(zhǔn)確估算荒漠草原的 FVC 。

        2)LW—CBAM舍去傳統(tǒng)的2D卷積模塊,采用3D深度可分離卷積模塊(3D—DSC),使得模型更加輕量化。與ResNet34、VGGl6、MobileNetV2、MobileNetV3相比,LW一CBAM的參數(shù)量降低 90% 以上,運算量分別為4種模型的 1.37%.0.74%.13.33%.14.81% ,且在模型訓(xùn)練時間與預(yù)測時間上都有顯著優(yōu)勢。

        3)為驗證LW—CBAM在荒漠化草原蓋度估算方面的有效性,使用模型分別對3張高光譜影像進行植被蓋度估算。結(jié)果表明,LW一CBAM對植被蓋度的估算誤差在 0.3% 以下,實現(xiàn)高精度、快速的荒漠草原植被蓋度估算。

        4)LW—CBAM為荒漠草原植被蓋度的計算提供一種切實可行的方法,為以無人機高光譜遙感為手段的荒漠草原監(jiān)測奠定基礎(chǔ)。

        參考文獻

        [1]俞樹毅,王睿.草原生態(tài)文明建設(shè)進路中“圍欄困境”的破解[J].蘭州大學(xué)學(xué)報(社會科學(xué)版),2022,50(4):63-73.Yu Shuyi, Wang Rui. The solution ofthe“FenceDilemma”in the construction of grassland ecologicalcivilization[J]. Journal of Lanzhou University (SocialSciences),2022,50(4):63-73.

        [2]石磊,孫海蓮,王慧敏,等.內(nèi)蒙古草地生態(tài)系統(tǒng)質(zhì)量評估[J].北方農(nóng)業(yè)學(xué)報,2021,49(6):128—134.Shi Lei,Sun Hailian,Wang Huimin,et al.Assessmentof grassland ecosystem quality in Inner Mongolia [J]. Journalof Northern Agriculture,2021,49(6):128—134.

        [3]臧琛,尚士友,王志國,等.典型草原退化評價因子及其分級標(biāo)準(zhǔn)的研究[J].中國農(nóng)機化學(xué)報,2016,37(10):210—213,245.Zang Chen,Shang Shiyou,Wang Zhiguo,et al. Studyon degradation evaluation factorsof typical steppeand its classification standard [J]. Journal of ChineseAgriculturalMechanization,2016,37(10):210-213,245.

        [4]昝國盛,王翠萍,李鋒,等.第六次全國荒漠化和沙化調(diào)查主要結(jié)果及分析[J]:林業(yè)資源管理,2023(1):1-7.Zan Guosheng,Wang Cuiping,Li Feng,et al.Keydata results and trend analysis of the sixth national surveyondesertification andsandification[J]. ForestryResources Management,2023(1):1—7.

        [5]韓芳,劉朋濤,牛建明,等.50a來內(nèi)蒙古荒漠草原氣候干燥度的空間分布及其演變特征[J].干旱區(qū)研究,2013,30(3):449-456.Han Fang,LiuPengtao,Niu Jianming, etal.Spatial distribution and evolution ofclimaticaridityin desert steppe in Inner Mongolia in recent 5O years [J].AridZoneResearch,2013,30(3):449-456.

        [6]Oliveira D E T,F(xiàn)reitas D S D, GianeziniM,et al.Agricultural land use change in the Brazilian Pampa biome:The reduction of natural grasslands [J]. Land Use Policy,2017(63):394-400.

        [7]郭慶華,胡天宇,馬勤,等.新一代遙感技術(shù)助力生態(tài)系統(tǒng)

        生態(tài)學(xué)研究[J].植物生態(tài)學(xué)報,2020,44(4):418-435.Guo Qinghua,Hu Tianyu,Ma Qin,et al.Advance forthenewremotesensingtechnologyinecosystemecology research [J]. Chinese Journal of Plant Ecology,2020,44(4):418-435.

        [8]劉克.衛(wèi)星遙感技術(shù)縣域應(yīng)用現(xiàn)狀及前景分析[J].科技風(fēng),2022(35):7—10.Liu Ke. Application status and prospect analysis ofsatellite remote sensing technology in counties [J].Science and Technology Style,2022(35):7-10.

        [9]Riihimaki H, Luoto M,Heiskanen J.Estimatingfractional cover of tundra vegetation at multiple scales usingunmanned aerial systems and optical satelite data [J].Remote Sensing of Environment,2019,224:119—132.

        [10]HuaL,MichaelRR,TimRM,etal.Decomposition ofvegetation cover into woody and herbaceous componentsusing AVHRR NDVI time series [J]. Remote Sensing ofEnvironment,2003,86(1):1—18.

        [11]張燕斌,杜健民,王圓,等.基于無人機高光譜遙感和3D—ResNet的荒漠草原地物分類[J].中國農(nóng)機化學(xué)報,2022,43(4):66—73.Zhang Yanbin, Du Jianmin, Wang Yuan, etal.Terrain classificationindesert steppe based onUAV hyperspectral remote sensing and 3D-ResNet[J]. Journal of Chinese AgriculturalMechanization,2022,43(4):66-73.

        [12] Xu H,Yao W,Cheng L,et al.Multiple spectralresolution3Dconvolutional neural networkforhyperspectral image clasification [J]. Remote Sensing,2021,13(7):1248.

        [13]Andrew G H,Menglong Z,Bo C,et al. MobileNets:Efficientconvolutionalneuralnetworksformobilevision applications [J].arXiv preprint arXiv:1704.04861,2017.

        [14]程諮杰,楊耘,李龍威,等.基于深度可分離卷積的輕量化殘差網(wǎng)絡(luò)高光譜影像分類[J].光學(xué)學(xué)報,2023,43(12):311-320.Cheng Rongjie, Yang Geng, Li Longwei, etal.Lightweightresidual networkbasedon depthwiseseparableconvolution forhyperspectral imageclassification[J]. Acta Optica Sinica,2023,43(12):311—320.

        [15]孫一帆,余旭初,譚熊,等.面向小樣本高光譜影像分類的輕量化關(guān)系網(wǎng)絡(luò)[J].武漢大學(xué)學(xué)報(信息科學(xué)版),2022,47(8):1336—1348.SunYifan, Yu Xuchu, Tan Xiong, etal.Lightweightrelation networkorsmall samplehyperspectral'image classification [J]. Geomatics andInformation Science of Wuhan University,2O22,47(8):1336—1348.

        [16]潘占磊,王忠武,韓國棟,等.短花針茅荒漠草原甲烷通量對增溫和施氮的響應(yīng)[J].生態(tài)環(huán)境學(xué)報,2016,25(2):209-216.Pan Zhanlei, Wang Zhongwu, Han Guodong,et al.Responseofmethanefluxes on warming andnitrogen addition in Stipa breviflora desert steppe [J].Ecology and Environment Sciences,2016,25(2):209-216.

        [17] Ma W, Gong C, Hu Y, et al.The Hughesphenomenon in hyperspectral classification based onthe ground spectrum of grasslands in the region aroundQinghai Lake[J].The International Society for OpticalEngineering,2013,8910.

        [18] Taskin K,Hasan T, Merve E Y, et al.Dimensionality reduction and classification ofhyperspectral images using object-based imageanalysis [J].Journal of the Indian Society of RemoteSensing,2018,46(8):1297—1306.

        [19]孫肖,彭軍還,趙鋒,等.基于空間統(tǒng)計學(xué)的高光譜遙感影像主成分選擇方法[J].自然資源遙感,2022,34(2):37—46.Sun Xiao,Peng Junhuan,Zhao Feng,et al.Principalcomponentselectionmethodofhyperspectralremotesensing images based on spatial statistics [J]. Remote Sensingfor Natural Resources,2022,34(2):37-46.

        [20] Chaoqun W,Binbin L,Bin J. Fault diagnosis of rollingbearing basedon convolutionalneuralnetworkofconvolutional block attention module [J]. JournalofPhysics:Conference Series,2021,1732(1):012045.

        [21]陳桂芬,曾廣偉,陳航,等.基于紋理特征和神經(jīng)網(wǎng)絡(luò)算法的遙感影像分類方法研究[J].中國農(nóng)機化學(xué)報,2014,35(1):270—274.ChenGuifen,Zeng Guangwei,Chen Hang,etal.Studyof RS image classification method based on texturefeatures and neural network algorithm [J]. Journal ofChinese Agricultural Mechanization, 2014, 35(1):270—274.

        [22] Tao Z, Yuge B, Fei H,etal. Transformerattentionnetworkand unmanned aerial vehiclehyperspectralremote sensingfor grassland rodentpest monitoring research [J]. Journal of Applied RemoteSensing,2022,16(4):044525.

        猜你喜歡
        荒漠輕量化植被
        草原蝗蟲多樣性及群落結(jié)構(gòu)特征
        荒漠里的黑格蘭情歌
        5G輕量化加速落地,將帶來怎樣的未來?
        陽泉市植被覆蓋遙感監(jiān)測與時序分析
        基于改進YOLOv7一tiny的煙葉主脈輕量化檢測研究
        基于改進YOLOv8s的礦用輸送帶異物檢測方法
        工礦自動化(2025年6期)2025-08-15 00:00:00
        新型高精度垂直起降無人機激光雷達掃描解決方案
        無人機(2025年1期)2025-07-21 00:00:00
        麻豆成人精品国产免费| 搞黄色很刺激的网站二区| 海外华人在线免费观看| 精品在线视频在线视频在线视频 | a国产一区二区免费入口| 国产污污视频| 亚洲av网站首页在线观看| 中文字幕午夜精品久久久| а√天堂资源官网在线资源| 国产色诱视频在线观看| 国产毛片A啊久久久久| 尤物精品国产亚洲亚洲av麻豆| 久久99热国产精品综合| 日本午夜精品理论片a级app发布| 日日干夜夜操高清视频| 国产成人精品cao在线| 亚洲日本一区二区在线| 无码视频在线观看| 国产麻豆精品一区二区三区v视界| 最新手机国产在线小视频| 开心五月骚婷婷综合网| 日本熟妇人妻xxxx| 久久久久99精品成人片试看| 精品久久久久88久久久| 蜜桃高清视频在线看免费1 | 国产二级一片内射视频播放| 老熟女毛茸茸浓毛| 国产欧美亚洲另类第一页| 国产一级内射一片视频免费| 国产欧美日韩一区二区三区 | 人妻无码一区二区三区| 婷婷五月综合缴情在线视频| 国产情侣一区在线| 亚洲一区二区三区av色婷婷| 巨爆中文字幕巨爆区爆乳| 亚洲精品久久久久久久久久吃药| 破了亲妺妺的处免费视频国产| 亚洲先锋影院一区二区| 精品一区二区三区亚洲综合| 欧美日韩精品久久久免费观看| 亚洲精品无码av片|