亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進YOLOv8的無人機圖像玉米幼苗檢測

        2025-07-29 00:00:00胡健威馬慧敏寧孝梅代騰輝戴明宇王小申吳旖
        江蘇農(nóng)業(yè)學報 2025年6期
        關鍵詞:幼苗損失卷積

        中圖分類號:S513 文獻標識碼:A 文章編號:1000-4440(2025)06-1179-09

        Abstract:Unmannedaerial vehicletechnology,withits higheficiencyandprecision,hasbeen playingan importantrole intheagricultural fieldandhasben widelyappedinfarmlandmonitoring,precisionfertilization,andpestanddiseasecontrol. However,inthecomsedingimagescolectedbyunmannederialvehicle,weedsndotherinterferentsinthefieldhavecolors similar tocomseedlings,whichcaneasilylead to1detectionand mised detectionintheYOLOv8 model.Additionally,the occlusionbetweencornsedlingscanalsoafectthedetectionaccuracyof the model.Inresponsetotheseproblems,this study proposed the YOLOv8+MultiSEAM + MetaNeXtStag + WIoU(YOLOv8-MMW)model. Based on the YOLOv8 model architecture, this modelfirstintroducedthe MultiSEAMatentionmechanismintothenecknetwork,whichefectivelyenhancedthemodel's featureextractionabilityincomplexscenes.SecondlyitincorporatedtheMetaNeXtStagemodulefromInceptionNeXt.Onhisbasis,theWise-IoUlossfunctionwasadoptedtoimprovemodelaccuracy.Theexperimentalresultsonthetestsetshowedthatthe accuracy and the mean average precision at an intersection-over-union threshold of O.50( mAP50 )ofthe YOLOv8-MMW model

        reach 98.9% and 89.6% ,respectively,which were 6.1 percentage points and 2.4 percentage points higher than those ofthe original YOLOv8n model.The YOLOv8-MMW model proposed in this study demonstrates stronger robustnessin complex farmland environmentsand can effectively improve the detection accuracy of corn seedling images captured by inmanned aerial vehicle,and can provide technical support for agricultural management and monitoring

        Key words:corn seedling;unmanned aerial vehicle;YOLOv8;MultiSEAM;MetaNeXtStage;lossfunctior

        玉米是中國種植面積1和產(chǎn)量均居首位的作物2,也是重要的經(jīng)濟作物,對國家糧食安全具有重大戰(zhàn)略意義[3]。近年來,中國的玉米生產(chǎn)取得長足發(fā)展,但全球玉米生產(chǎn)仍面臨諸多挑戰(zhàn)。隨著全球人口快速增長和老齡化加劇,糧食需求持續(xù)增加。聯(lián)合國糧食和農(nóng)業(yè)組織預測,2050年全球人口將增至 9.1× 109 人,為滿足人口增長需求,在保障自然資源安全的前提下,糧食產(chǎn)量需實現(xiàn) 70% 的可持續(xù)增長[4]。因此,建立高效的農(nóng)業(yè)系統(tǒng)以提高農(nóng)業(yè)生產(chǎn)效率和質(zhì)量、降低勞動力投入、改善工作條件勢在必行。

        卷積神經(jīng)網(wǎng)絡(CNN)作為深度學習的核心技術,具有自動提取圖像特征的能力,對位移、縮放和畸變等幾何變換具有較強的自適應能力,該技術已被廣泛用于計算機視覺領域,包括人臉識別、遙感影像分析和無人駕駛系統(tǒng)等[5-7]。近年來,卷積神經(jīng)網(wǎng)絡在農(nóng)業(yè)領域的應用研究也取得了顯著進展,成為智慧農(nóng)業(yè)發(fā)展的重要技術支撐[8-1]。Malik 等[12]提出一種深度卷積神經(jīng)網(wǎng)絡模型TreeNet,該模型的分類準確率、精確度、召回率和F1得分分別達到 99.8%.99.0% 、100.0% 和 99.0% 。Liu等[13]提出目標檢測算法Agro-nomicTeacher,用于玉米葉片病害識別,與基線模型相比,該算法在MaizeData數(shù)據(jù)集上的平均精度均值(mAP) 提高6.5個百分點,在通用目標檢測基準Pas-calVOC數(shù)據(jù)集上的 mAP 提高8.2個百分點,表現(xiàn)出良好的泛化能力。李金瑞等[14]提出一種基于RTM-Det-tiny的輕量級雄穗檢測模型MLCE-RTMDet。試驗結果顯示,改進的MLCE-RTMDet模型參數(shù)量減少到 5.9×106 ,浮點運算數(shù)減少到 |5.3×109 ,測試集上模型平均精度均值 (mAP) 達到 92.2% ,比原模型提高了1.2個百分點。Puyenbroeck等[15]利用推帚式高光譜成像系統(tǒng)對收獲期玉米進行掃描,建立基于偏最小二乘判別分析(PLS-DA)的像素級分類模型,實現(xiàn)了玉米籽粒與其他谷物的精準識別,分類準確率達95.2% 。Mei等[16]提出分子光譜深度融合策略,通過結合低級特征融合與中級特征融合,并構建一維卷積神經(jīng)網(wǎng)絡(1D-CNN)模型,實現(xiàn)了玉米油中毒死蜱殘留的快速精準檢測。

        無人機遙感技術的發(fā)展推動了農(nóng)業(yè)智能監(jiān)測系統(tǒng)的完善[17]。Abel等[18]基于無人機影像和全卷積神經(jīng)網(wǎng)絡,實現(xiàn)了對農(nóng)作物數(shù)量的自動預測。Chen等[19]針對小規(guī)模玉米穗和強光照條件下的檢測問題,開發(fā)了RESAM-YOLOv8n模型,通過增大輸入圖像尺寸增強網(wǎng)絡檢測能力。Xiao等[20]整合無人機、地理信息系統(tǒng)(GIS)和深度學習技術,利用YOLOv5模型完成對不同管理模式下玉米植株的計數(shù)。有學者基于無人機光學遙感技術,提出一種深度學習方法,能夠有效提取多光譜圖像的關鍵特征,實現(xiàn)了南方玉米銹病的高效監(jiān)測[21]。鄔開俊等[22]提出了一種基于YOLO-TSCAS模型的玉米植株中心檢測算法,試驗結果表明,與現(xiàn)有的 YOLOX 算法相比,該算法的正確率提高 22.73% ,F(xiàn)1分數(shù)提高0.255,平均對數(shù)漏檢率減少0.35。Ni等[23]設計的玉米混合視覺轉換器(MaizeHT)模型,對 224×224 分辨率圖像的識別準確率達 97.71% ,對 512×512 分辨率圖像的識別準確率達到 98.71% 。

        上述研究結果表明,基于深度學習的模型能夠有效識別無人機獲取的玉米幼苗圖像。但在田間環(huán)境下,田間雜草干擾、玉米幼苗間相互遮擋均會影響模型檢測精度。針對這些問題,本研究擬提出一種基于YOLOv8模型的玉米幼苗檢測模型,主要從以下3個方面進行優(yōu)化:首先,重構主干網(wǎng)絡架構,采用多尺度特征融合策略增強特征表達能力;其次,嵌入混合注意力機制,提升模型對幼苗關鍵特征的關注度;最后,改進邊界框回歸損失函數(shù),提高模型精度。本研究結果旨在為農(nóng)業(yè)管理和監(jiān)測提供技術支持。

        1材料與方法

        1.1 數(shù)據(jù)采集和預處理

        以幼苗期玉米為研究對象,采用如圖1所示的大疆無人機DJIAir2S進行圖像采集。該設備具有體積小、操作便捷等優(yōu)點,主要技術參數(shù)如下:最大續(xù)航時間 31min ,最快飛行速度 19m/s ,懸停精度垂直 ±0.1m ,水平 ±0.1m ,最大照片分辨率 5472× 3648,感光度(ISO)為 100~3200 。試驗于2024年6月25日(9:30-11:00)在安徽省合肥市安徽農(nóng)業(yè)大學國家高新技術農(nóng)業(yè)園(東經(jīng) 117°1230.927′′ ,北緯 31°5610.859′′ 開展。如圖2所示,采集過程中,設置圖像分辨率為 3 840×2 160 ,分別在飛行高度2m.4m.6m.8m 拍攝圖像。根據(jù)大田地形規(guī)劃航線,共獲取不同高度圖像500余張。

        本研究對采集的無人機圖像進行了系統(tǒng)的預處理,包括數(shù)據(jù)標注、數(shù)據(jù)增強和數(shù)據(jù)集劃分3個關鍵步驟。在數(shù)據(jù)標注環(huán)節(jié),采用LabelImg工具對玉米幼苗進行精確標注,確保每株幼苗的邊界框選準確無誤,同時保持不同拍攝條件和光照環(huán)境下標注標準的一致性。在數(shù)據(jù)增強環(huán)節(jié),如圖3所示,通過 ±20° 隨機旋轉和鏡像翻轉圖像實現(xiàn)幾何變換;在圖像中添加高斯噪聲和椒鹽噪聲增強模型抗干擾能力;隨機調(diào)整圖像亮度和對比度模擬不同光照條件;通過隨機裁剪和縮放圖像提升模型空間適應性。這些增強技術的組合應用使訓練集樣本量擴充至原始數(shù)據(jù)的5倍,顯著提升了數(shù)據(jù)多樣性。在數(shù)據(jù)集劃分環(huán)節(jié),從所有圖像中隨機選取1920張圖像,構建訓練集;同時分別從 2m.4m.6m.8m 飛行高度拍攝的圖像中抽取60張圖像,共計240張圖像,構建測試集,用于檢驗模型評估的全面性和可靠性。

        圖1大疆無人機 Fig.1DJIunmanned aerial vehicle
        圖2不同高度無人機拍攝的玉米幼苗圖像 Fig.2Corn seedling imagescapturedbyunmanned aerial vehicleat different altitudes

        1.2YOLOv8+MultiSEAM+MetaNeXtStag + WIoU 模型的構建

        YOLOv8模型是一種基于單階段檢測框架的實時目標檢測算法,可以直接預測圖像中的邊界框和類別概率。根據(jù)網(wǎng)絡深度和寬度的不同配置,YOLOv8被分為YOLOv8n、YOLOv8s、YOLOv8m、YOLOv8l和YOLOv8x5 個版本。本研究選用YOLOv8n作為基準模型進行改進。YOLOv8網(wǎng)絡架構由輸入模塊、主干網(wǎng)絡(Backbone)頸部網(wǎng)絡(Neck)和檢測頭(Head)4個核心組件構成[24]。其中,主干網(wǎng)絡包含卷積單元(Conv)、空間金字塔池化快速模塊(SPPF)、YOLOv5中的特征提取模塊C3和YOLOv7中的特征提取模塊C2f。頸部網(wǎng)絡采用跨階段局部網(wǎng)絡(CSPNet)架構以增強特征融合能力,檢測頭則通過路徑聚合網(wǎng)絡與預測頭實現(xiàn)特征融合與目標識別。

        YOLOv8模型對玉米幼苗圖像的檢測存在以下問題:(1)田間雜草等干擾物與玉米幼苗顏色相近,導致模型誤檢、漏檢;(2)玉米幼苗間相互遮擋,造成模型檢測精度下降?;谏鲜鰡栴},本研究對YOLOv8網(wǎng)絡結構進行了改進。如圖4所示,在頸部網(wǎng)絡中引入MultiSEAM模塊和MetaNeXtStage模塊。MultiSEAM模塊部署于第27層、30層、33層的輸出端,即最終檢測層前,用于提升模型的多尺度特征處理能力。MetaNeXtStage模塊則被嵌人第20層、24層、29層、32層的卷積層之后,用于增強模型特征表示能力。檢測層采用第28層、31層和34層的特征圖作為輸人,有效整合了MultiSEAM和Meta-NeXtStage模塊的多尺度特征增強效果。

        圖4YOLOv8-MMW模型結構Fig.4Architectureof theYOLOv8-MMWmodel

        1.2.1MultiSEAM注意力機制擠壓和激勵注意力模塊(SEAM)[25]通過全局平均池化和全連接層增強特征表達,采用深度可分離卷積與殘差連接的組合結構,其中深度可分離卷積按通道進行操作。該模塊利用注意力機制突出重要特征,抑制無關特征,從而提升模型識別能力。如圖5所示,SEAM模塊左側為整體架構,包含3個不同像素塊尺寸(patch-6、patch-7、patch-8)的通道和空間混合模塊(CSMM),對各模塊輸出進行平均池化和通道擴展操作,通過特征相乘方式實現(xiàn)特征增強;右側為CSMM模塊,該模塊通過多尺度特征提取,并采用深度可分離卷積學習空間與通道之間的相關性。

        MultiSEAM模塊將小目標檢測層集成到頸部網(wǎng)絡,生成多尺度特征圖,并將這些特征圖輸人SEAM模塊進行增強處理。該設計具有以下優(yōu)勢:整合全局與局部上下文信息,提升復雜場景下的特征表達能力;采用多尺度處理策略,增強模型對不同尺寸目標的檢測能力。在玉米幼苗檢測過程中,Multi-SEAM模塊能夠有效應對復雜背景和密集目標。

        1.2.2InceptionNeXt卷積神經(jīng)網(wǎng)絡架構如圖6所示,InceptionNeXt[26]是一種卷積神經(jīng)網(wǎng)絡架構,通過融合Inception的多分支結構和ConvNeXt的高效設計,實現(xiàn)了對大核深度卷積的優(yōu)化分解。該架構繼承了Inception的多尺度特征處理能力,同時采用高效卷積操作,在保持大感受野優(yōu)勢的前提下,顯著降低了計算復雜度和參數(shù)量。此外,InceptionNeXt還集成了自適應優(yōu)化技術,使模型在訓練過程中更快收斂。本研究采用InceptionNeXt的核心模塊Meta-NeXtStage,該模塊能夠動態(tài)調(diào)整卷積核參數(shù),增強模型對局部細節(jié)的敏感性;自適應優(yōu)化特征圖權重,突出全局關鍵信息;通過多尺度特征的高效融合,實現(xiàn)性能與計算效率的平衡。

        1.2.3基于動態(tài)非單調(diào)聚焦機制的邊界框損失函數(shù)(Wise-IoU)為提升目標檢測模型的性能,本研究系統(tǒng)性地探究了不同邊界框回歸損失函數(shù)對模型性能的影響。原始YOLOv8模型采用的完全交并比損失函數(shù)(Complete-IoU)通過引入長寬比懲罰項來優(yōu)化預測框的形狀匹配,在模型訓練過程中表現(xiàn)出良好的擬合特性。然而,該損失函數(shù)在計算預測框寬高比時存在固有缺陷:一方面,寬高比作為相對量計算時具有不確定性;另一方面,其對高質(zhì)量和低質(zhì)量錨框的不同影響可能阻礙回歸損失的優(yōu)化過程。

        圖5MuItiSEAM注意力機制Fig.5 TheMultiSEAMattentionmechanism

        Patch-6:將圖像分割成 6×6 像素的塊;Patch-7:將圖像分割成 7× 7像素的塊;Patch-8:將圖像分割成 8×8 像素的塊。Input:輸入;CSMM:通道和空間混合模塊;AveragePooling:平均池化層;Channelexp:通道擴展;PatchEmbedding:圖像塊嵌入;GELU:高斯誤差線性單元激活函數(shù);BatchNorm:批量歸一化;DepthwiseConvolution:深度可分離卷積模塊;PointwiseConvolution:逐點卷積模塊。

        為解決上述問題,本研究對以下4種邊界框回歸損失函數(shù)的性能進行對比:基于動態(tài)非單調(diào)聚焦機制的邊界框損失函數(shù)(WIoU)[27]、完全交并比損失函數(shù)(CIoU)高效交并比損失函數(shù)(EIoU)[28]、距離交并比損失函數(shù)(DIoU)[29]。WIoU( v3 版本)損失函數(shù)計算公式如下:

        式中, LWIoU 為基于動態(tài)非單調(diào)聚焦機制的邊界框損失函數(shù); r 為縮放因子; RwIoU 為距離損失; LIoU 為原始交并比損失函數(shù); bcxgt,bcygt 為目標框的中心點坐標; bcx,bcy 為預測框的中心點坐標; cw 為目標框在 x 軸方向的歸一化寬度; cb 為目標框在 y 軸方向的歸一化高度: 為比例系數(shù); δ 和 α 為調(diào)整參數(shù); LIoU* 為優(yōu)化后的交并比損失函數(shù)。

        圖6InceptionNeXt卷積神經(jīng)網(wǎng)絡 Fig.6InceptionNeXt convolutional neural network

        MLP:多層感知機; Norm :歸一化操作;Tokenmixer:令牌混合器模塊;Concat:拼接操作; DWConv :深度可分離卷積模塊;Split:分割操作;Depthwise Convolution;深度可分離卷積模塊;MetaFormerblock;通用視覺模型架構;MetaNeXt:MetaNeXt卷積神經(jīng)網(wǎng)絡架構;ConvNeXt block:ConvNeXt卷積神經(jīng)網(wǎng)絡架構;InceptionNeXt block:InceptionNeXt卷積神經(jīng)網(wǎng)絡架構;InceptionDepthwiseConvolution:Inception深度卷積;Identity:恒等映射。

        1.3模型性能指標

        為評估無人機玉米幼苗檢測模型的性能,以精度 (P) 、召回率 (R) 、平均精度均值 (mAP) 作為評估指標。

        精度 (P) 計算公式如下:

        式中, TP 為正確預測的正例數(shù)量, FP 為誤判為正例的數(shù)量。精度越高,表明模型誤檢率越低。

        召回率 (R) 計算公式如下:

        式中, FN 為漏檢的正例數(shù)量。召回率越高,表明模型漏檢率越低。

        平均精度均值 (mAP) 計算公式如下:

        式中, N 為類別總數(shù), APi 為第 i 個類別的平均精度。 mAP 綜合了模型對所有類別的檢測性能,其值越高,表明模型的整體檢測能力越優(yōu)。

        1.4 試驗環(huán)境

        硬件環(huán)境為Intel Xeon Silver 42102.40 GHzCPU、RTX308010GGPU和64GB內(nèi)存。軟件環(huán)境為PyTorch1.9.0和Python3.8.0。試驗設置如下:迭代次數(shù)為100次,批次大小為2,輸入圖像尺寸調(diào)整為 640×640 ,并進行歸一化處理。優(yōu)化算法采用隨機梯度下降法(SGD)[30],學習率調(diào)度策略為線性衰減。

        2 結果與分析

        2.1Wise-IoU損失函數(shù)對模型性能的影響

        如圖7所示,引入EIoU損失函數(shù)的模型收斂速度最慢,且最終的損失值最大;引入DIoU損失函數(shù)和CIoU損失函數(shù)的模型收斂速度低于引入EIoU損失函數(shù)的模型,最終損失值小于引入EIoU函數(shù)的模型。值得注意的是,引入WIoU損失函數(shù)的模型在前20輪迭代中能快速收斂,其最終損失值顯著低于引入其他3種損失函數(shù)的模型。如表1所示,引入WIoU損失函數(shù)不僅加快了模型的收斂速度,還顯著提升了模型的關鍵性能指標:精度提高6.9個百分點,交并比閾值為0.50時的平均精度均值(mAP50 提高0.2個百分點。

        圖7各損失函數(shù)收斂速度Fig.7 The convergence speed of each loss function

        DIoU:距離交并比損失函數(shù);EIoU:高效交并比損失函數(shù);CIoU:完全交并比損失函數(shù); WIoU :基于動態(tài)非單調(diào)聚焦機制的邊界框損失函數(shù);epoch:訓練的輪數(shù)。

        2.2引入的各模塊對模型性能的影響

        為驗證各模塊對模型性能的影響,基于原始模型 ΥOLOv8n ,分別引入MultiSEAM、MetaNeXtStag、WIoU。如表1所示,YOLOv8模型的 mAP50 為87.2% 。在YOLOv8主干網(wǎng)絡的第27層、30層、33層的輸出端和最終檢測層前層部署MultiSEAM注意力機制,YOLOv8n + MultiSEAM模型 mAP50 較YOLOv8模型提高了2.0個百分點;進一步在主干網(wǎng)絡的第20層、24層、29層、32層的卷積層之后嵌人MetaNeXtStage模塊,YOLOv8n+MultiSEAM + Meta-NeXtStag 模型 mAP50 較 YOLOv8n 模型提高了2.2個百分點。表明MetaNeXtStage和MultiSEAM模塊能夠有效增強模型對復雜場景中多尺度特征的提取能力。將邊界框損失函數(shù)替換為WIoU后, YOLOv8n+ MultiSEAM + MetaNeXtStag + WIoU模型(簡稱YOLOv8-MMW模型)的 mAP50 達到 89.6% ,較ΥOLOv8n 模型提升2.4個百分點;精度達到98.9% ,較YOLOv8模型提升6.1個百分點。消融試驗結果表明,本研究提出的改進策略顯著提升了YOLOv8n模型的檢測性能。

        2.3模型性能對比

        基于測試集對YOLOv8-MMW模型的性能進行檢測。如表2所示,YOLOv8-MMW模型對不同飛行高度的無人機圖像均表現(xiàn)出優(yōu)異的檢測性能,當飛行高度為 8m 時,YOLOv8-MMW模型的 mAP50 仍可以保持在 89.4% ,召回率達到 95.0% ,展現(xiàn)出良好的尺度適應性和檢測穩(wěn)定性。

        表1消融試驗結果Table1 Ablationstudyresults
        mAP50 :交并比閾值為0.50時的平均精度均值;R:召回率; P :精度;WIoU:基于動態(tài)非單調(diào)聚焦機制的邊界框損失函數(shù)。
        表2YOLOv8n+MultiSEAM+MetaNeXtStag + WIoU模型對不同高度圖像的檢測性能
        mAP50 :交并比閥值為0.50時的平均精度均值;R:召回率 ?;P? :精度。

        將目標檢測模型YOLOv8s模型、YOLOv5s模型和YOLOv8-MMW模型進行對比。如表3所示,與YOLOv8s模型相比,YOLOv8-MMW模型 mAP50 提升0.8個百分點,精度提升9.3個百分點;與YOLOv5s模型相比,YOLOv8-MMW模型 mAP50 提升3.6個百分點,精度提升10.1個百分點。

        表3不同模型性能對比Table3 Comparison of performance amongdifferent models
        YOLOv8s、YOLOv5s:當前主流的目標檢測網(wǎng)絡;YOLOv8-MMW:本研究改進的模型; mAP50 :交并比閾值為0.50時的平均精度均值;R:召回率;P:精度。

        如圖8所示,總計目標數(shù)為22213個,在幼苗重疊和雜草干擾等復雜場景下,YOLOv8s模型和YOLOv5s模型分別漏檢了1368個、1609個目標,漏檢率分別為 6,2%,7.2% ,而YOLOv8-MMW模型僅漏檢了321個目標,漏檢率為 1.4% 。表明Multi-

        SEAM和MetaNeXtStage模塊的協(xié)同作用不僅能夠有效增強目標特征的顯著性,還能夠抑制復雜背景的干擾。相較于YOLOv8s模型和YOLOv5s模型,YOLOv8-MMW模型在復雜場景下展現(xiàn)出更優(yōu)異的檢測性能。

        YOLOv8s、YOLOv5s:當前主流的目標檢測網(wǎng)絡;YOLOv8-MMW:本研究改進的模型; corn :玉米;實線框:正確識別結果。

        圖8不同模型檢測結果對比Fig.8Comparison of detection resultsamongdifferentmodels

        3 討論與結論

        本研究針對無人機檢測玉米幼苗提出了YOLOv8-MMW模型。首先,基于YOLOv8n原始模型,在模型頸部網(wǎng)絡中引入MultiSEAM注意力機制,該機制能夠在高效捕捉細節(jié)的同時,提供更強大的特征表達能力,從而顯著提升模型在復雜場景下的表現(xiàn);其次,引人InceptionNeXt網(wǎng)絡的MetaNeXt-Stage模塊;在此基礎上,采用WIoU損失函數(shù)以加快模型收斂速度和精度。與YOLOv8n模型相比,YOLOv8-MMW模型精度和 mAP50 分別提升了6.1個百分點、2.4個百分點。該模型顯著提升了復雜背景下玉米幼苗的檢測精度和效率,為大田玉米幼苗計數(shù)及產(chǎn)量估算提供了有力支持。

        未來的研究方向將聚焦于進一步提升模型的檢測性能并降低其復雜度,通過輕量化處理優(yōu)化模型結構,同時深入探索該算法在不同環(huán)境條件下的適應性。

        參考文獻:

        [1]仇煥廣,欒昊,李瑾,等.風險規(guī)避對農(nóng)戶化肥過量施用行

        為的影響[J].中國農(nóng)村經(jīng)濟,2014(3):85-96.

        [2] 徐云姬,顧道健,張博博,等.玉米果穗不同部位籽粒激素含量 及其與胚乳發(fā)育和籽粒灌漿的關系[J].作物學報,2013,39 (8):1452-1461.

        [3] 趙久然,王榮煥.中國玉米生產(chǎn)發(fā)展歷程、存在問題及對策中 國農(nóng)業(yè)科技導報[J].中國農(nóng)業(yè)科技導報,2013(3):1-6.

        [4] 陳源源,呂昌河,尚凱麗.食物安全的內(nèi)涵、指標與評價方法綜 述[J].中國農(nóng)學通報,2017,33(22):158-164.

        [5] WANGY,XIEF,ZHAOCX,etal.Robust facerecognition model based sample mining and loss functions[J].KnowledgeBasedSystems,2024,302:112330.

        [6] ZHANGY S,YANSK,ZHANGLF,etal.Fast projected fuzzy clusteringwith anchor guidance formultimodal remote sensingimagery[J]. IEEE transactions on image processing,2O24(33), 4640-4653.

        [7] QIUCQ,TANGH,YANGYC,etal.Machinevision-based autonomous road hazard avoidance system for self-drivingvehicles [J].ScientificReports,2024,14(1):12178.

        [8]JIANGHK,CHENQC,WANGRJ,etal.SWFormer:a scalewise hybrid CNN-Transformer network for multi-classes weed segmentation[J]. Journal of King Saud University-Computer and InformationSciences,2024,36(7) :102144.

        [9] MUQADDASS,QURESHIWS,JABBARH,etal.Acomprehensive deep learning approach for harvest ready sugarcane pixel classification in Punjab,Pakistan using Sentinel-2 multispectral imagery[J].Remote Sensing Applications:Society and Environment,2024,35:101225.

        [10]周善良,李銳.基于卷積神經(jīng)網(wǎng)絡的農(nóng)作物病蟲害識別研究 綜述[J].智慧農(nóng)業(yè)導刊,2024,4(17):39-45.

        [11]CHENF,JIXZ,BAIMX,etal.Networkanalysisofdifferent exogenous hormones on the regulation of deep sowing tolerance in maize seedlings[J].Frontiers in Plant Science,2021,12:739101.

        [12] MALIK M M,F(xiàn)AYYAZ A M, YASMIN M, et al. A novel deep CNN model with entropy coded sine cosine for corn disease classification[J]. Journal ofKing Saud University-Computer and Information Sciences,2024,36(7) :102126.

        [13]LIUJQ,HUYX,SUQF,et al. Semi-supervised one-stage object detection for maize leaf disease[J].Agriculture,2024,14 (7):1140.

        [14]李金瑞,杜建軍,張宏鳴,等.基于輕量化MLCE-RTMDet的人 工去雄后玉米雄穗檢測算法[J].農(nóng)業(yè)機械學報,2024,55 (11) :1-14.

        [15]PUYENBROECK EV,WOUTERS N,LEBLICQ T,et al.Detection of kernels in maize forage using hyperspectral imaging[J]. Computers and Electronics in Agriculture,2024,225:109336.

        [16]MEICL,XUEYC,LIQH,etal.Deeplearning model based on molecular spectra to determine chlorpyrifos residues in corn oil[J]. Infrared Physics and Technology,2024,140:105402.

        [17]FANBK,LIY,ZHANGRY,etal.Review on the technological development and application of UAV systems[J]. Chinese Journal ofElectronics,2020,29(2):5-13.

        [18]ABEL B,PHILIPP L,RAMONIYF,et al.AutomaticUAVbased counting of seedlings in sugar-beet field and extension to maizeand strawberry[J].Computers and Electronics in Agriculture,2021,191:106493.

        [19]CHEN JH,F(xiàn)U Y S,GUO Y H, et al. An improved deep learning approach for detection of maize tassels using UAV-based RGB images[J].International Journal of Applied Earth Observation and Geoinformation,2024,130:103922.

        [20]XIAOJ,SUABSA,CHENXY,etal.Enhancing assessmentof corn growth performance using unmanned aerial vehicles(UAVs) and deep learning[J].Measurement,2023,214:112764.

        [21]LV ZG,XUBY,ZHONGL H,et al.Improved monitoring of southern corn rustusing UAV-based multi-viewimagery and anattention-based deep learning method[J].Computers and Electronicsin Agriculture,2024,224:109232.

        [22]鄔開俊,白晨帥,杜建軍,等.無人機影像的玉米植株中心檢測 模型和方法[J].計算機工程與應用,2024(6):1-17.

        [23]NIXD,WANGFM,HUANGH,etal.ACNN-and self-attention-based maize growth stage recognition method and platform from UAVorthophoto images[J]. Remote Sensing,2024,16(14): 2672.

        [24]楊國亮,盛楊楊,洪鑫芳,等.改進YOLOv8n的果園番茄目標 檢測算法[J].計算機工程與應用,2024,60(23):1-13.

        [25]WANGYD,ZHANGJ,KAN MN,et al. Self-supervised equivariant attention mechanism for weakly supervised semantic segmentation[EB/OL].(2020-04-09)[2024-10-30]. https://arxiv.org/ abs/2004.04581.

        [26]YU WH,ZHOUP,YAN SC,et al. InceptionNeXt:when inception meets ConvNeXt[EB/OL].(2023-03-29)[2024-10-30].https://arxiv.org/abs/2303.16900.

        [27]TONGZJ,CHENYH,XUZW,etal.Wise-IoU:boundingbox regression loss with dynamic focusing mechanism[EB/OL]. (2023-01-24)[2024-10-30]. https://arxiv.0rg/abs/2301.10051.

        [28]ZHANGYF,RENWQ,ZHANG Z,etal.Focal and efficient IOU loss for accurate bounding box regression[EB/OL].(2O21-01-20) [2024-10-30]. https://arxiv.org/abs/2101.08158.context=cs.CV.

        [29]ZHENG Z H,WANGP,LIUW,et al.Distance-IoU loss:faster and better learning for bounding box regression[EB/OL].(2019- 11-19)[2024-10-30].https://arxiv.org/abs/1911.08287.

        [30] CHAKROUN I,HABER T,ASHBY J T. SW-SGD: the sliding window stochastic gradient descent algorithm[J].Procedia Computer Science,2017,108:2318-2322.

        (責任編輯:成紓寒)

        猜你喜歡
        幼苗損失卷積
        光照強度與土壤水分對新疆野蘋果種子萌發(fā)及幼苗生存的影響
        基于時間圖卷積網(wǎng)絡的交通流時空預測模型
        不同促根劑對西瓜幼苗生長及根系成團的影響
        中國瓜菜(2025年7期)2025-08-15 00:00:00
        兩條守恒定律在解決碰撞模型中的應用
        基于圖卷積的自適應特征融合MRI腦腫瘤分割方法
        基于YOLOX的輕量化目標檢測算法及其應用
        面向可重構陣列的CNN多維融合數(shù)據(jù)復用方法
        低·高溫脅迫對尾巨桉幼苗光合特征和生長的影響
        云南松幼苗生長及化學計量對遮陰和干旱互作的響應
        廣西植物(2025年6期)2025-07-28 00:00:00
        變暖3℃,每個人都將“失去”早餐
        科學導報(2025年43期)2025-07-28 00:00:00
        秋霞午夜无码鲁丝片午夜精品 | 97高清国语自产拍| 豆国产95在线 | 亚洲| 色窝综合网| 亚洲国产精品悠悠久久琪琪| 亚洲sm另类一区二区三区| 一本一本久久aa综合精品| 国产成人综合久久精品推| 丰满人妻中文字幕乱码| 日韩精品乱码中文字幕| 亚洲av无码乱码国产精品| 四虎永久免费一级毛片| 久久人妻av不卡中文字幕| 青青河边草免费在线看的视频 | 亚洲av无码国产精品色午夜软件 | 国产精品自线在线播放| 国产三级国产精品国产专播| 三级做a全过程在线观看| 99久久免费看少妇高潮a片特黄| 完整在线视频免费黄片| 国产成人国产三级国产精品| 中文字幕人妻熟在线影院| 免费看操片| 黄色中文字幕视频网站| 日本xxxx色视频在线观看| 久久人人妻人人做人人爽| 一区二区三区日韩亚洲中文视频| 亚洲中国美女精品久久久| 一本色道久久亚洲av红楼| 中文字幕中文有码在线| 亚洲日本va中文字幕久久| 按摩女内射少妇一二三区| 亚洲av专区一区二区 | 亚洲av永久无码国产精品久久 | 国产丝袜美女一区二区三区| 全免费a级毛片免费看视频| 亚洲精品熟女乱色一区| 亚洲视频在线一区二区| 国产日产欧洲系列| 日韩h网站| 日韩av在线不卡观看|