亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于優(yōu)化YOLOv5算法的玉米苗間雜草檢測研究

        2025-08-15 00:00:00張?zhí)煊?/span>韓靜廖洪暉曲欣銳
        關(guān)鍵詞:雜草閾值玉米

        中圖分類號:S451 文獻(xiàn)標(biāo)識碼:A 文章編號:2095-5553(2025)07-0220-06

        Abstract:Toaddress the problems of diverse weedspecies,high detection complexity,and slow detection speed in the detection of weedsamong maize seedlings,thispaperproposesa weed detection method based on optimized YOLOv5 algorithm.The SE parameter-freeatentionmoduleis introduced intotheconvolutional layersof theYOLOv5 backbone network,withthe SE一integrated C3module replacing theoriginal C3 moduleto beterfocus ondetection targets. The traditional residual neural network is replaced with the BoTNetmodule,andglobal multi-headself-attention is used to replace 3×3 spatial convolution in thelastthree botleneck blocksof ResNet,thereby improving the accuracy of detecting smalltargets.The improvedtargetdetectionalgorithmisused todetect weeds,withnon-maizeseedlingareas inthe fieldlabeledasweeds.The super-green feature,combinedwith the OTSU threshold segmentation algorithm,is used tosegment thesoilbackgroundandidentifytheforegroundareasof weeds,effectivelysolving theproblemof weed detection inmaizesedling fields.The resultsshowthattheimproved YOLOv5algorithmachievesatarget detection precision of 97.5% for maize seedlings,which is 7.4% higher than the original YOLOv5 algorithm. The detection speed reaches 40ms ,thereby improving the detection accuracy and model robustness to meet the needs of real-time detection.

        Keywords:wed detection among maize seedlings;YOLOv5;attention module;BoTNet module;super-green feature; OTSU threshold segmentation

        0 引言

        與高產(chǎn)作物爭奪生長空間、陽光、水分和土壤養(yǎng)分,容易引發(fā)病蟲害等問題,嚴(yán)重影響作物的健康生長,從而導(dǎo)致農(nóng)產(chǎn)品的產(chǎn)量和質(zhì)量下降[1,2]。因此,雜草檢測農(nóng)田雜草是對農(nóng)業(yè)生產(chǎn)最嚴(yán)重的威脅之一,雜草技術(shù)的重要性不言而喻。

        目前,國內(nèi)外廣泛致力于雜草檢測研究,主要分為基于傳統(tǒng)方法和深度學(xué)習(xí)方法。傳統(tǒng)的雜草識別方法包括遙感識別法、光譜識別法;而深度學(xué)習(xí)方法則涵蓋基于圖像處理和計(jì)算機(jī)視覺技術(shù)識別法、機(jī)器視覺識別法[3-5]。研究者采用不同的技術(shù)手段來應(yīng)對雜草識別的挑戰(zhàn)。沈?qū)殗?采用顏色特征來區(qū)分棉田中的棉苗莖稈與雜草,融合雜草位置信息實(shí)現(xiàn)雜草的識別。吳蘭蘭等通過改進(jìn)Itti模型,提取原始圖像特征圖,分割出目標(biāo)區(qū)域,通過區(qū)域融合得到雜草區(qū)域。王二銳[8基于YOLOv4卷積神經(jīng)網(wǎng)絡(luò)模型,通過數(shù)據(jù)增強(qiáng)技術(shù),增加網(wǎng)絡(luò)訓(xùn)練的復(fù)雜性,提高檢測準(zhǔn)確性,實(shí)現(xiàn)雜草識別和定位的視覺系統(tǒng),其雜草檢測率為 93.19% 。然而,雜草檢測在技術(shù)層面仍然面臨一些難題:光照變化對識別準(zhǔn)確性的影響、不同雜草種類的形態(tài)差異導(dǎo)致的分類挑戰(zhàn)、小目標(biāo)檢測的困難、深度學(xué)習(xí)對樣本需求量大等。

        本文通過優(yōu)化YOLOv5算法的玉米苗間雜草檢測研究,在主干網(wǎng)絡(luò)中引人SE無參數(shù)注意力模塊和BotNet模塊,采用超綠特征灰度化( ExG* 和OTSU閥值分割算法進(jìn)行雜草分割,致力于解決這些技術(shù)上的難題,提高雜草檢測技術(shù)的精度、魯棒性和實(shí)用性。

        1數(shù)據(jù)采集與處理

        1.1 數(shù)據(jù)圖像采集

        使用數(shù)碼相機(jī)在實(shí)地采集 3~5 葉齡玉米苗和雜草的高清圖片,如圖1所示。

        圖1作物與雜草的分布情況

        針對雜草和玉米苗這種特定物體的目標(biāo)檢測,目前尚無可用公開數(shù)據(jù)集。因此,通過自主采集方式構(gòu)建新的數(shù)據(jù)集。樣本采集時(shí)間為2022年6月6—20日,地點(diǎn)位于黑龍江八一農(nóng)墾大學(xué)試驗(yàn)田,采用垂直拍攝方式,采集的圖像包含玉米苗及伴生雜草,展現(xiàn)作物與雜草的分布情況。

        1.2 圖像預(yù)處理

        考慮到數(shù)據(jù)集的復(fù)雜性,采集的圖片在不同光照、時(shí)間、天氣和土壤背景(如土壤濕度和秸稈殘茬)條件下進(jìn)行拍攝,共采集1427幅圖片,經(jīng)過篩選和清理,最終保留1050幅原始圖像。為增強(qiáng)數(shù)據(jù)集的豐富性,對采集的原始圖像進(jìn)行數(shù)據(jù)增強(qiáng)處理,包括圖像裁剪、旋轉(zhuǎn)、鏡像翻轉(zhuǎn)、顏色變化以及噪聲注入等,如圖2所示。通過數(shù)據(jù)增強(qiáng),將樣本容量擴(kuò)展4倍,總共獲得4200幅圖像。

        圖2數(shù)據(jù)增強(qiáng)示意圖

        Fig.2 Schematic diagram of data enhancement

        2 YOLOv5模型結(jié)構(gòu)與優(yōu)化

        2.1 YOLOv5的模型結(jié)構(gòu)

        為提升目標(biāo)檢測性能,改進(jìn)YOLOv5算法的主干特征提取網(wǎng)絡(luò)。在CSP層之后,引人SE注意力模塊,并采用BottleneckTransformer編碼器模塊來替代原有編碼器。優(yōu)化后YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

        圖3優(yōu)化后YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)

        Fig.3YOLOv5 network structure after optimization

        2.1. 1 YOLOv5目標(biāo)檢測算法原理

        目前,深度神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測算法分為兩階段檢測和單階段檢測,主要區(qū)別在于是否存在候選框產(chǎn)生的階段。雙階段算法通常具有更高的檢測精度,常見的算法包括R—CNN、FastR—CNN、FasterR—CNN;單階段算法也稱為回歸分析目標(biāo)檢測算法,雖然準(zhǔn)確性不如FasterR一CNN算法,但實(shí)時(shí)性更好,通常采用YOLO算法和 SSD算法[9-11]

        YOLO目標(biāo)檢測算法將目標(biāo)檢測視為一個(gè)回歸問題,直接從輸入圖像中預(yù)測物體的種類和位置,同時(shí)生成檢測框,無須進(jìn)行候選框提取的復(fù)雜過程,具備高速的推理能力和低成本的模型部署優(yōu)勢。YOLOv5的網(wǎng)絡(luò)模型主要由4個(gè)關(guān)鍵部分組成,包括輸人層(Input)、主干網(wǎng)絡(luò)(Backbone)、中間連接層(Neck)以及預(yù)測層(Prediction)[12.13]。(1)輸人層(Input):定義圖像的尺寸和通道數(shù),同時(shí)采用Mosaic數(shù)據(jù)增強(qiáng)技術(shù),提高模型訓(xùn)練速度和網(wǎng)絡(luò)精度。(2)主干網(wǎng)絡(luò)(Backbone):負(fù)責(zé)從輸入圖像中提取有關(guān)目標(biāo)的關(guān)鍵信息,YOLOv5中的主干網(wǎng)絡(luò)使用CSP和Focus結(jié)構(gòu)作為基準(zhǔn)網(wǎng)絡(luò)。(3)中間連接層(Neck):融合和處理來自不同層級的特征,以提升目標(biāo)檢測的準(zhǔn)確性。YOLOv5使用SPP模塊和FPN + PAN模塊,F(xiàn)PN層實(shí)現(xiàn)自下而上的強(qiáng)定位傳遞特征,又稱為特征融合層。(4)預(yù)測層(Prediction):將檢測頭預(yù)測的信息轉(zhuǎn)化為目標(biāo)框的位置和類別概率,被稱為預(yù)測層,其輸出用于生成目標(biāo)檢測的最終結(jié)果。

        2.1.2SE卷積注意力機(jī)制

        由于玉米苗和雜草在顏色、形狀和紋理特征上相似,引人SE(Squeeze-and-Excitation)注意力模塊增強(qiáng)網(wǎng)絡(luò)對玉米苗的關(guān)注度,特別是在復(fù)雜農(nóng)田背景中。解決原始網(wǎng)絡(luò)中存在的注意力不足問題,使網(wǎng)絡(luò)在檢測過程中更專注于檢測目標(biāo),減少無關(guān)信息的干擾。SE模塊算法流程如圖4所示。

        SE注意力機(jī)制是對每個(gè)通道(特征圖中的每一個(gè)特定特征)應(yīng)用不同的權(quán)重,以突出或抑制特定通道的信息,這個(gè)過程可以分為3個(gè)步驟。

        第一步,擠壓(squeeze):通過全局平均池化,將每個(gè)通道的二維特征( (H×W) 壓縮為一個(gè)實(shí)數(shù),將特征圖從 [H,W,C] 壓縮成[1,1, ?C] 的形狀,計(jì)算如式(1)所示。

        式中: zc 一 壓縮后的通道描述符;uc(i,j) ——圖像在坐標(biāo) (i,j) 處的灰度值;i 一 圖像的高度;j 一 圖像的寬度;H 輸人特征圖的高度;W 輸人特征圖的寬度。

        第二步,激勵(lì)(excitation):生成每個(gè)特征通道權(quán)重值,建立不同通道之間的相關(guān)性。通過兩個(gè)全連接層 (τυ1 和 w2 )完成,對前一步得到的向量 z 進(jìn)行處理,從而產(chǎn)生與輸人特征圖的通道數(shù)相同數(shù)量的權(quán)重值。最終得到的通道權(quán)重值 s 中的不同數(shù)值表示不同通道的權(quán)重信息,為不同通道賦予了不同的重要性,計(jì)算如式(2)所示。

        s=Fex(z,w)=σ(g(z,w))=σ(w2δ(w1z)) (2)式中: z 1 每個(gè)通道的平均值;w 權(quán)重矩陣; 1 兩個(gè)MLP層的權(quán)重。

        第三步,權(quán)重(scale):通過生成的特征向量 s(1× 1×C 與特征圖 U(H×W×C) 相應(yīng)通道的點(diǎn)乘,得到所需的特征圖 ,計(jì)算如式(3)所示。

        式中: uc 一 原始特征圖中的第 c 個(gè)通道;

        sc 一 激勵(lì)權(quán)重。

        通過在主干特征提取網(wǎng)絡(luò)中引入SE注意力機(jī)制,解決原網(wǎng)絡(luò)無注意力偏好問題,使網(wǎng)絡(luò)更專注于待檢測目標(biāo)。

        2.1.3 BoTNet模塊

        在目標(biāo)檢測任務(wù)中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)的卷積層主要關(guān)注局部信息,建立相鄰像素之間的關(guān)系,而Transformer模型具備全局感知視野,能夠建模長距離依賴關(guān)系,捕獲豐富的全局信息,這兩者之間存在互補(bǔ)的優(yōu)勢[14]。BoTNet將注意力模塊融合到CNN原有的模塊中。卷積層結(jié)構(gòu)如圖5所示。

        BoTNet塊中使用的多頭自注意(MHSA)層,將ResNet中最后3個(gè) 3×3 卷積層替換成MHSA層,在小目標(biāo)檢測方面顯著改善,同時(shí)減少了參數(shù)量,從而使得延遲最小化。

        2.2雜草分割算法原理

        采用超綠特征灰度化( ExG 和OTSU閾值分割算法進(jìn)行雜草分割。由于王壤和綠色植被之間的顏色特征差異很大,通過超綠特征灰度化方法將彩色圖像轉(zhuǎn)換為灰度圖像,突出顯示綠色植被部分。通過OTSU閾值分割算法將灰度圖像分割為雜草和背景兩個(gè)部分,獲得二值化的分割圖像。

        超綠色方法在提取綠色植物圖像方面效果出色,能夠明顯抑制陰影、雜草、苗和土壤等圖像成分,使苗、草圖像更加突出。針對作物識別和雜草檢測,超綠色方法是最常用的灰度化方法,計(jì)算如式(4)所示。

        ExG=2G-R-B 式中: G # 綠色通道值;R 紅色通道值;B 藍(lán)色通道值。

        經(jīng)超綠特征灰度化處理后的圖像,采用OTSU閾值分割算法自動(dòng)選擇最優(yōu)閾值 T 。再利用這個(gè)閾值將圖像二值化,同時(shí)像素分為兩個(gè)類別,產(chǎn)生一個(gè)黑白的二值化圖像。OTSU算法的優(yōu)點(diǎn)在于其不需要人工干預(yù),能夠在圖像中自動(dòng)確定合適的閾值,使圖像分割過程更加簡便和穩(wěn)定。二值化計(jì)算如式(5)所示。

        當(dāng)灰度值為0時(shí),像素點(diǎn)為黑色,表示土壤背景;當(dāng)灰度值為255時(shí),像素點(diǎn)為白色,表示雜草背景。

        在 ExG 特征通道圖像上應(yīng)用OTSU自適應(yīng)閾值法來確定一個(gè)適當(dāng)?shù)姆指铋撝?,將圖像分割為前景和背景。對二值圖像進(jìn)行形態(tài)學(xué)運(yùn)算,以去除噪點(diǎn)并填充空洞,最終得到植被分割的前景圖像。

        目標(biāo)檢測算法生成檢測框后,通過在前景圖像上創(chuàng)建一個(gè)黑色掩膜,掩蓋在前景圖像的玉米苗檢測框位置,從而將玉米苗從圖像中移除,只保留待檢測的雜草目標(biāo),再使用二值圖像連通域標(biāo)記算法來識別前景圖像中的雜草目標(biāo)的連通域,實(shí)現(xiàn)雜草檢測。OTSU閾值分割算法通過分割圖像中的像素點(diǎn),將雜草與土壤背景分離開來,這一過程包括4個(gè)步驟:(1)分割圖像中的像素點(diǎn),標(biāo)記雜草像素。(2)遞歸遍歷雜草像素的八鄰域,找到完整的雜草連通域。(3)連接連通域的邊界像素,構(gòu)建閉合的矩形框。(4)連通域內(nèi)像素點(diǎn)的均值,輸出雜草的連通域外接矩形框和質(zhì)心坐標(biāo)。

        3 試驗(yàn)結(jié)果與分析

        3.1試驗(yàn)平臺(tái)與模型訓(xùn)練設(shè)置

        目標(biāo)檢測算法需要高性能設(shè)備進(jìn)行計(jì)算,試驗(yàn)平臺(tái)配置如下:設(shè)備系統(tǒng)為Windows11,CPU為Intel(R)Core(TM)i7-11800H,GPU為NVIDIAGeForceRTX3060,學(xué)習(xí)框架為Python3.8。YOLOv5模型采用隨機(jī)梯度下降法(SGD)作為優(yōu)化器,通過根據(jù)梯度更新參數(shù)來降低損失函數(shù)的值。在此過程中,學(xué)習(xí)率動(dòng)量被設(shè)置為0.937,初始學(xué)習(xí)率為0.01,采用余弦退火學(xué)習(xí)率策略,逐漸減小學(xué)習(xí)率[15]。此外,權(quán)重衰減系數(shù)設(shè)為0.0005,批量大?。╞atchsize)為16,總訓(xùn)練周期(epoch)為300,前3個(gè)周期使用預(yù)熱訓(xùn)練算法[16]

        3.2 結(jié)果分析

        3.2.1模型評估指標(biāo)設(shè)置

        目標(biāo)檢測算法精度評估通常采用準(zhǔn)確率 P 、召回率 R 、平均精度均值 mAP 指標(biāo),計(jì)算如式 (6)~ 式(8)所示。

        式中: TP (20 模型正確預(yù)測為正類別的樣本數(shù);FP 模型錯(cuò)誤預(yù)測為正類別的負(fù)樣本數(shù);(204號 FN 模型錯(cuò)誤預(yù)測為負(fù)類別的正樣本數(shù);AP 平均精度;k 類別的總數(shù)。

        改進(jìn)后的YOLOv5算法在數(shù)據(jù)集上進(jìn)行300輪訓(xùn)練,性能指標(biāo)曲線如圖6所示。

        圖6性能指標(biāo)曲線Fig.6Performance index curve

        在玉米苗間雜草數(shù)據(jù)集上,模型的準(zhǔn)確率為97.485% ,召回率為 96.982% ;當(dāng)閾值為0.5時(shí),平均精度均值為 98.5% ;當(dāng)閾值為 0.5~0.95 時(shí),平均精度均值為 74.04% ,可以看出,該模型對檢測指定目標(biāo)具有很好的識別效果。

        3.2.2 損失函數(shù)分析

        依據(jù)設(shè)定好的訓(xùn)練參數(shù),使用優(yōu)化后的YOLOv5—SE—BoT算法在標(biāo)注好的數(shù)據(jù)集上進(jìn)行訓(xùn)練,模型損失函數(shù)曲線如圖7所示; P-R 曲線如圖8所示。YOLOv5使用GIoULoss作為boundingbox的損失函數(shù),包括誤差損失 $( b o x \_ l o s s \$ )、置信度損失 和分類損失 個(gè)部分,由于檢測目標(biāo)只有玉米苗這一類,不需要對物體進(jìn)行分類,所以分類損失 Lcls 損失函數(shù)圖沒有數(shù)據(jù)。如圖7所示,經(jīng)過300個(gè)周期的訓(xùn)練后,其余兩類損失函數(shù)均具有較低的收斂值,模型的誤差損失 Lbox 和置信度損失 Lobj 在第8輪左右開始收斂,收斂于0.019和0.012,從而改進(jìn)的YOLOv5模型具備出色的訓(xùn)練收斂性能和訓(xùn)練效果。試驗(yàn)中,將 IoU 閾值設(shè)為0.5,計(jì)算所有圖像玉米苗的 P 一 ?R 曲線,可以看出,平均精度均值 mAP 達(dá)到 98.5% ,表明改進(jìn)后的YOLOv5模型在玉米苗檢測方面有較高的識別精度。

        3.2.3 不同算法模型對比

        為展示改進(jìn)后算法優(yōu)勢,在相同數(shù)據(jù)集下,對SSD、FasterR—CNN、原YOLOv5以及本文算法(YOLOv5—SE—BoT)進(jìn)行充分訓(xùn)練,性能檢測對比結(jié)果如表1所示。本文算法與SSD和FasterR—CNN相比,準(zhǔn)確率和召回率都有顯著的提高, mAP 值分別提升 9.2%.7.8% 。與原YOLOv5算法相比, P 、R 和 mAP 分別提升 7.4%.5.5% 和 6.1% 。綜合各項(xiàng)性能指標(biāo),本文算法具有更好的檢測性能。

        表1性能檢測對比結(jié)果Tab.1 Performance test comparison results

        3.3 YOLOv5模型玉米苗檢測

        為驗(yàn)證本文算法在檢測效果上的優(yōu)勢,以玉米苗田圖像為例,選取雜草稀疏、雜草密集和多種雜草伴生情況下的圖片進(jìn)行對比測試,對比YOLOv5和本文算法,檢測結(jié)果對比如圖9所示。可以看出,在多種雜草伴生的情況下,YOLOv5受到周圍多種雜草的干擾,容易出現(xiàn)漏檢和誤檢的情況。而本文算法表現(xiàn)出更好的穩(wěn)定性,能夠準(zhǔn)確檢測出所有情況下的玉米苗,避免漏檢和誤檢的情況。由于本文算法引入了SE注意力模塊和Transformer編碼器模塊,檢測置信度明顯高于原始的YOLOv5算法,引人的SE注意力模塊有助于提高對檢測目標(biāo)的注意力,降低無關(guān)信息的干擾,Transformer編碼器模塊增強(qiáng)目標(biāo)定位能力,進(jìn)一步降低漏檢率和誤檢率。

        圖9檢測結(jié)果對比Fig. 9Comparison of test results

        4結(jié)論

        1)基于YOLOv5目標(biāo)檢測算法構(gòu)建的模型,通過改進(jìn)主干特征提取網(wǎng)絡(luò),并引人SE無參數(shù)注意力模塊,使算法模型更好地聚焦主體目標(biāo);同時(shí)將BoTNet模塊替換原本的殘差神經(jīng)網(wǎng)絡(luò),從而提高對小目標(biāo)檢測的精度,模型的平均精度均值 mAP 達(dá) 98.5% 。

        2)采用 ExG 超綠特征結(jié)合OTSU閾值分割算法分離土壤背景,找出玉米苗和雜草的前景區(qū)域,再通過黑色掩膜掩蓋目標(biāo)檢測框位置來剔除玉米苗圖像,只保留待檢測的雜草目標(biāo),再使用二值圖像連通域標(biāo)記算法來識別前景圖像中的雜草目標(biāo)的連通域,實(shí)現(xiàn)玉米苗田中的雜草檢測,同時(shí)解決復(fù)雜情況下雜草種類多、檢測速度慢等問題。

        3)改進(jìn)后的YOLOv5算法在玉米苗的目標(biāo)檢測上精確率達(dá) 97.5% ,較原始的YOLOv5算法提高7.4% 。雖然檢測速度略微降低,但檢測精度提升,滿足實(shí)時(shí)檢測的需求。

        參考文獻(xiàn)

        [1]付豪,趙學(xué)觀,翟長遠(yuǎn),等.基于深度學(xué)習(xí)的雜草識別方法研究進(jìn)展[J].中國農(nóng)機(jī)化學(xué)報(bào),2023,44(5):198-207.FuHao,Zhao Xueguan,Zhai Changyuan,etal.Researchprogress on weed recognition method based on deeplearningtechnology[J].JournalofChineseAgricultural Mechanization,2023,44(5):198-207.

        [2]王宇博,馬廷淮,陳光明.基于改進(jìn)YOLOv5算法的農(nóng)田雜草檢測[J].中國農(nóng)機(jī)化學(xué)報(bào),2023,44(4):167—173.Wang Yubo,MaTinghuai, Chen Guangming.Weedsdetectionin farmland basedona modifiedYOLOv5algorithm[J].Journal of ChineseAgriculturalMechanization,2023,44(4):167-173.

        [3]Wang A,Zhang W,Wei X. A review on weed detectionusing ground-based machine vision and image processingtechniques [J]. Computers and Electronics in Agriculture,2019,158.

        [4]王寶聚,蘭玉彬,陳蒙蒙,等.機(jī)器學(xué)習(xí)在無人農(nóng)場中的應(yīng)用現(xiàn)狀與展望[J].中國農(nóng)機(jī)化學(xué)報(bào),2021,42(10):186-192,217.Wang Baoju, LanYubin, Chen Mengmeng, etal.Application status and prospect of machine learning inunmanned farm [J]. Journal of Chinese AgriculturalMechanization,2021,42(10):186—192,217.

        [5]李金陽,張偉,康燁,等.基于無人機(jī)遙感技術(shù)的大豆苗數(shù)估算研究[J].中國農(nóng)機(jī)化學(xué)報(bào),2022,43(4):83—89.Li Jinyang,Zhang Wei,KangYe,et al. Researchonsoybeanseedlingnumberestimationbased onUAV remote sensing technology [J]. Journal of ChineseAgricultural Mechanization,2022,43(4):83-89.

        [6]沈?qū)殗?,陳樹人,尹建軍,等.基于顏色特征的棉田綠色雜草圖像識別方法[J].農(nóng)業(yè)工程學(xué)報(bào),2009,25(6):163—167.Shen Baoguo, Chen Shuren, Yin Jianjun, etal.on color feature [J]. Transactions of the Chinese Society ofAgricultural Engineering,2009,25(6):163—167.

        [7]吳蘭蘭,徐愷,熊利榮.基于視覺注意模型的苗期油菜田間雜草檢測[J].華中農(nóng)業(yè)大學(xué)學(xué)報(bào),2018,37(2):96—102.Wu Lanlan, Xu Kai, Xiong Lirong. Detecting weedin seedling rapeseed oil field based on visual-attentionmodel[J]. Journal of Huazhong Agricultural University,2018,37(2):96—102.

        [8]王二銳.基于深度學(xué)習(xí)的前胡除草機(jī)部件設(shè)計(jì)與試驗(yàn)[D].合肥:安徽農(nóng)業(yè)大學(xué),2022.

        [9]尚文卿,齊紅波.基于改進(jìn)FasterR—CNN與遷移學(xué)習(xí)的農(nóng)田雜草識別算法[J].中國農(nóng)機(jī)化學(xué)報(bào),2022,43(10):176-182.Shang Wenqing,Qi Hongbo. Identification algorithm offield weeds based on improved Faster R—CNN and transferlearning[J].JournalofChineseAgriculturalMechanization,2022,43(10):176—182.

        [10]RenS,He K, Girshick R,et al.Faster R一CNN:Towards real-time object detection with region proposalnetworks [J]. IEEE Transactions on Pattern Analysisamp;Machine Intelligence,2017,39(6):1137—1149.

        [11]李春明,逯杉婷,遠(yuǎn)松靈,等.基于FasterR—CNN的除草機(jī)器人雜草識別算法[J].中國農(nóng)機(jī)化學(xué)報(bào),2019,40(12):171—176.Li Chunming,Lu Shanting,Yuan Songling,et al.Weed identification algorithm of weeding robot based onFaster R-CNN[J]. Journal of ChineseAgricultural Mechanization,2019,40(12):17l—176.

        [12]李茂暉,吳傳平,鮑艷,等.論YOLO算法在機(jī)器視覺中應(yīng)用原理[J].教育現(xiàn)代化,2018,5(41):174—176.

        [13] Bochkovskiy A, WangC, LiaoH. YOLOv4:Optimal speed and accuracy of object detection [J].arXivpreprint arXiv:2004.10934,2020.

        [14]王貴參,楊承林,蒲佳佳,等.基于改進(jìn)的VisionTransformer雜草生長周期識別方法研究[J].長春工業(yè)大學(xué)學(xué)報(bào),2022,43(6):712-718.

        [15]東輝,陳鑫凱,孫浩,等.基于改進(jìn)YOLOv4 和圖像處理的蔬菜田雜草檢測[J].圖學(xué)學(xué)報(bào),2022,43(4):559-569.Dong Hui,Chen Xinkai,Sun Hao,et al.WeeddetectioninvegetablefieldbasedonimprovedYOLOv4 and image processing [J]. Journal of Graphics,2022,43(4):559-569.

        [16]張偉康,孫浩,陳鑫凱,等.基于改進(jìn)YOLOv5 的智能除草機(jī)器人蔬菜苗田雜草檢測研究[J].圖學(xué)學(xué)報(bào),2023,44(2):346-356.Zhang Weikang,Sun Hao,Chen Xinkai,et al. Research onweed detection in vegetable seedling fields based on theimproved YOLOv5 intelligent weeding robot [J]. Journal ofGraphics,2023,44(5):346-356.

        猜你喜歡
        雜草閾值玉米
        基于FY-4A衛(wèi)星的沙塵暴識別方法研究與比較
        籽粒玉米品種農(nóng)藝性狀綜合評價(jià)及品質(zhì)性狀鑒定
        嘧菌酯、苯醚甲環(huán)唑防治玉米灰斑病效果
        玄武巖粉配施對鮮食甜糯玉米生長和產(chǎn)量品質(zhì)的影響
        基于多閥值模糊邏輯的新能源汽車電驅(qū)動(dòng)系統(tǒng)絕緣故障定位技術(shù)探析
        專用汽車(2025年7期)2025-08-15 00:00:00
        生氣的玉米
        基于礦工操作姿態(tài)識別的井下鉆機(jī)鉆桿計(jì)數(shù)算法
        AI時(shí)代:一場人機(jī)博弈
        拔雜草
        水稻田幾種難防雜草的防治
        中文字幕一区二区精品视频| 九九久久精品国产| 国产成人精品一区二区视频| 色欧美与xxxxx| 无码熟妇人妻av在线c0930| 在线日本高清日本免费| 97女厕偷拍一区二区三区| 高潮内射主播自拍一区| 精品人妻少妇av中文字幕| 欧洲熟妇色| 国产99久久亚洲综合精品| 中文字幕不卡在线播放| 音影先锋色天堂av电影妓女久久| 日本一级淫片免费啪啪| 国产精品国产三级久久| 大陆国产乱人伦| 最近2019年好看中文字幕视频| 日本japanese少妇高清| 国产成人精品日本亚洲专区6| 国产一级自拍av播放| 国产一区二区三区在线男友| 国内精品久久久人妻中文字幕| 久久精品国产69国产精品亚洲| 国产WW久久久久久久久久| 蜜桃av夺取一区二区三区| 青青草视频视频在线观看| 男女啪啪视频高清视频| 欧美噜噜久久久xxx| 日韩一卡2卡3卡4卡新区亚洲| 亚洲乱妇老熟女爽到高潮的片| 亚洲人成在线播放a偷伦| 精品国产黄一区二区三区| 亚洲av成人无码一区二区三区在线观看| 欧美日韩精品一区二区在线观看| 亚洲AV无码国产精品色午夜软件| 天天综合色中文字幕在线视频| 亚洲a无码综合a国产av中文| 亚洲人精品亚洲人成在线| 中国精学生妹品射精久久| 厕所极品偷拍一区二区三区视频| 99久久99久久久精品蜜桃|