摘要:農(nóng)作物生長過程中其伴生雜草的及時清除能夠有效提高農(nóng)作物的產(chǎn)量和質(zhì)量。針對當(dāng)前對于甜菜雜草檢測精度較低、小目標(biāo)漏檢等問題,提出了基于改進(jìn)YOLO v8n的甜菜雜草檢測算法。首先,在檢測頭部分增加一個小目標(biāo)檢測層,提高模型對生長初期甜菜和雜草的檢測能力。其次,在主干部分引入感受野坐標(biāo)注意力卷積(receptive-field coordinated attention convolutional operation,RFCAConv),更好地識別圖像中的邊緣、紋理、形狀等低級特征,并且所增加的計算開銷極小。最后,引入損失函數(shù)PIoU v2替換YOLO v8n原來的損失函數(shù),增強(qiáng)對中等質(zhì)量錨框的聚焦能力,加快收斂速度,并提高檢測精度。通過公開的Lincolnbeet數(shù)據(jù)集進(jìn)行試驗,試驗結(jié)果表明,改進(jìn)后的YOLO v8n模型總的mAP@0.5達(dá)到了0.902,對比YOLO v8n原模型提高了0.035,甜菜和雜草分別提升了0.026、0.041,參數(shù)量減少了3.3%,平均每幅圖片的檢測時間為4.1 ms,能夠滿足實時檢測的要求。
關(guān)鍵詞:甜菜;雜草識別;YOLO v8n;感受野坐標(biāo)注意力卷積;小目標(biāo)檢測
中圖分類號:S126;TP319.41" 文獻(xiàn)標(biāo)志碼:A
文章編號:1002-1302(2024)24-0196-09
收稿日期:2024-07-08
基金項目:安徽省高校協(xié)同創(chuàng)新項目(編號:GXXT-2023-068)。
作者簡介:黃友銳(1971—),男,安徽淮南人,博士,教授,主要從事智能控制、智能制造研究。E-mail:hyr628@163.com。
通信作者:王小橋,碩士研究生,主要從事圖像處理研究。E-mail:2022200878@aust.edu.cn。
甜菜作為一種重要的農(nóng)業(yè)作物,不僅是蔬菜和糖制品的原料[1],還用于生產(chǎn)生物燃料和飼料,主要種植于內(nèi)蒙古、新疆和黑龍江等地區(qū)[2]。雜草在生長過程中與作物爭奪水、陽光、肥料和空間[3],同時促進(jìn)害蟲和病原體的生長傳播,影響作物產(chǎn)量和質(zhì)量[4-5]。傳統(tǒng)的雜草管理方法依賴化學(xué)或機(jī)械手段,如均勻施用除草劑,但因雜草分布不均,導(dǎo)致農(nóng)藥過量使用,不僅造成環(huán)境問題,還易導(dǎo)致雜草產(chǎn)生抗藥性[6-7]。隨著精準(zhǔn)農(nóng)業(yè)的發(fā)展,自動化、智能化的雜草檢測技術(shù)受到了廣泛關(guān)注,這些技術(shù)旨在提高雜草管理的效率和準(zhǔn)確性,有助于減少田間農(nóng)藥的使用,保護(hù)農(nóng)業(yè)生態(tài)環(huán)境,因此,雜草識別和檢測至關(guān)重要[8-10]。
為了實現(xiàn)田間雜草的精確檢測和識別,國內(nèi)外許多學(xué)者采用機(jī)器視覺、圖像處理等技術(shù)手段,進(jìn)行了大量雜草檢測研究[11-14]。近年來,隨著深度學(xué)習(xí)在各種視覺任務(wù)中的巨大成功,許多基于圖像的深度學(xué)習(xí)算法已經(jīng)被開發(fā)出來[15]。例如,兩階段算法:Faster-RCNN[16]、Mask-RCNN[17];單階段算法:SSD[18]、You Only Look Once(YOLO)系列算法[19]。其中,YOLO系列算法因其快速、準(zhǔn)確的檢測性能而廣受歡迎,它由不同的版本組成,在2016年首次推出YOLO,后幾年又推出了YOLO v2、YOLO v3、YOLO v4、YOLO v5、YOLO v6、YOLO v7和YOLO v8版本。許多研究人員將YOLO系列應(yīng)用于雜草檢測和其他農(nóng)業(yè)目標(biāo)識別任務(wù)[20]。Ying等應(yīng)用YOLO v4改進(jìn)了一個輕量級的雜草檢測模型,用于檢測胡蘿卜幼苗中的雜草,研究結(jié)果為雜草檢測、機(jī)器人除草和選擇性噴灑提供了參考[21]。Wang等構(gòu)建了一種結(jié)合YOLO v5和注意力機(jī)制的模型,用于檢測茄子的沙丘種子,經(jīng)過多尺度訓(xùn)練后,其檢測速度和檢測效果可應(yīng)用于入侵雜草長喙龍葵幼苗的田間實時檢測[22]??簼嵉忍岢鲆环N基于多尺度融合模塊和特征增強(qiáng)的雜草檢測方法,對小目標(biāo)作物與雜草以及葉片交疊情況的檢測能力均有提高[23]。鄧天民等為了解決無人機(jī)(UAV)航拍圖像檢測存在的小目標(biāo)檢測精度低和模型參數(shù)量大的問題,提出輕量高效的航拍圖像檢測算法 FS-YOLO,該算法泛化能力較強(qiáng),較其他先進(jìn)算法更具競爭力[24]。
上述研究雖然能夠在特定環(huán)境下達(dá)到較好的檢測效果,但是,當(dāng)應(yīng)用于復(fù)雜的農(nóng)田環(huán)境中,尤其是在檢測小型或密集分布的雜草時,仍然有一定的局限性。因此,本研究基于最新的YOLO v8n算法,提出了一種改進(jìn)的甜菜雜草檢測模型。為了更好地識別圖像中的邊緣、紋理、形狀等低級特征,使用RFCAConv替換主干部分的普通卷積。為了提高模型對生長初期的甜菜和雜草的檢測能力,在檢測頭部分增加了一個小目標(biāo)檢測層。為了增強(qiáng)對中等質(zhì)量錨框的聚焦能力,提升模型的檢測精度以及收斂速度,引入了一個損失函數(shù)PIoU v2。
1 材料與方法
1.1 YOLO v8概述
YOLO v8是ultralytics公司在2023年1月發(fā)布的,可以進(jìn)行圖像分類、物體檢測和實例分割,該模型易于部署和操作,因此被應(yīng)用于各種不同的實際場景中[19]。算法的模型結(jié)構(gòu)包括:Backbone、Head、Neck。Backbone 和Neck部分參考了YOLO v7 ELAN設(shè)計思想,將C3模塊與ELAN結(jié)構(gòu)結(jié)合起來構(gòu)成C2f模塊;Head部分是目前主流的解耦頭結(jié)構(gòu),將分類和檢測頭分離,同時也將Anchor-Based換成了Anchor-Free。另外,Loss計算方面采用了CIoU Loss和Distribution Focal Loss作為回歸損失函數(shù)[25]。在數(shù)據(jù)增強(qiáng)方面,引入了YOLOX中所提出的最后10epoch關(guān)閉Mosiac增強(qiáng)的操作。
1.2 改進(jìn)YOLO v8n模型結(jié)構(gòu)
1.2.1 增加小目標(biāo)檢測層
在YOLO v8n中本身有3個檢測層,位于網(wǎng)絡(luò)結(jié)構(gòu)的不同深度,從淺層的特征圖提取細(xì)節(jié)信息,從深層的特征圖提取更加抽象和語義豐富的信息。然而,較深的特征圖很難學(xué)習(xí)到小目標(biāo)的特征信息,這會導(dǎo)致對小目標(biāo)的識別效果下降。所以,針對甜菜雜草數(shù)據(jù)集中的小目標(biāo),在Head部分引入一個小目標(biāo)檢測層P2,對較淺特征圖與較深特征圖拼接后輸出的大小為160×160的特征圖進(jìn)行檢測,160×160的特征圖保留了較多的細(xì)節(jié)信息,有利于檢測小目標(biāo)。
改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,虛線框為改進(jìn)模塊。
1.2.2 感受野坐標(biāo)注意力卷積運(yùn)算(RFCAConv)
將注意力模塊集成到Y(jié)OLOv8n中 可以增強(qiáng)對圖像局部特征的提取,例如引入坐標(biāo)注意力(coordinated attention,CA)模塊[26]。但CA只關(guān)注空間特征,不能解決大卷積核參數(shù)共享的問題。為此,本研究引入了感受野坐標(biāo)注意力卷積(receptive-field coordinated attention convolutional operation,RFCAConv)[27],這是一種基于感受野注意力(receptive-field attention,RFA)理念的創(chuàng)新卷積方法,其核心在于整合了CA至感受野注意力卷積(receptive-field attention convolutional operation,RFAConv)中。
感受野空間特征是專門為卷積核設(shè)計的,并根據(jù)核大小動態(tài)生成。由圖2可見,以3×3卷積核為例,“Spatial Feature”指的是原始的特征圖,“Recetive-Field Spatial Feature”是空間特征根據(jù)卷積核大小變換后的特征圖,該方法強(qiáng)調(diào)了感受野滑塊內(nèi)不同特征的重要性,完全解決了卷積核參數(shù)共享的問題,為大尺寸卷積核的應(yīng)用提供了有效的注意力加權(quán)。RFA的計算公式如下:
F=Softmax{g1×1[AvgPool(x)]}×ReLU{Norm[gk×k(x)]}=Arf×Frf。(1)
式中:F是每個卷積滑塊獲得的值;gi×i是大小為i×i的分組卷積;k是卷積核的大??;Norm是歸一化;X是輸入特征圖;Arf是注意力圖;Frf是變換后的感受野空間特征。
RFA將全局和局部信息結(jié)合起來,以優(yōu)化特征提取過程。全局特征聚合步驟通過平均池化和1×1卷積來計算全局注意力權(quán)重,強(qiáng)調(diào)重要的特征。局部特征歸一化與增強(qiáng)步驟通過k×k卷積、歸一化和ReLU激活來提取和增強(qiáng)局部特征。
為了進(jìn)一步提高感受野注意力的性能,將考慮了長距離信息、通過全局平均池化方式獲取全局信息的CA引入感受野空間特征,生成RFCAConv,徹底解決了參數(shù)共享的問題。RFCAConv的詳細(xì)結(jié)構(gòu)如圖3所示。
1.2.3 損失函數(shù)改進(jìn)
目標(biāo)檢測領(lǐng)域中,邊界框定位精度是衡量模型性能的重要指標(biāo),它在很大程度上取決于邊框回歸損失函數(shù)的設(shè)計和實現(xiàn)。在YOLO v8中計算邊框損失采用的是DFL損失和CIoU相結(jié)合的方法[25],這種損失函數(shù)受到不合理懲罰因子的影響,在回歸過程中錨框不斷擴(kuò)大,不利于小目標(biāo)的定位,導(dǎo)致收斂速度慢。所以本研究使用了Powerful-IoU(PIoU)來解決這一問題[28],PIoU中有適應(yīng)目標(biāo)大小的懲罰因子P,其計算公式如下:
P=dw1wgt+dw2wgt+dh1hgt+dh2hgt4。(2)
式中:dw1、dw2、dh1、dh2是預(yù)測框和目標(biāo)框?qū)?yīng)邊緣之間距離的絕對值;wgt、hgt是目標(biāo)框的寬度和高度。
從式(2)可以看出,P的大小只取決于目標(biāo)框的高度和寬度,不會隨著錨框的擴(kuò)大而改變。并且只有當(dāng)錨框和目標(biāo)框完全重疊的情況下,P才為0,所以該懲罰因子具有對目標(biāo)尺寸的適應(yīng)性。各變量之間的關(guān)系如圖4所示。
為了進(jìn)一步提升損失函數(shù)的效果,基于上文得到的懲罰因子P,引入了一個適應(yīng)錨框質(zhì)量的懲罰函數(shù),其引導(dǎo)錨框沿著更直接、更高效的路徑回歸,加速收斂并提高檢測準(zhǔn)確度。其表達(dá)式如下:
f(x)=1-e-x2;(3)
LPIoU=LIoU+f(x),1≤LPIoU≤2。(4)
式中:f(x)是懲罰函數(shù);LPIoU是PIoU損失函數(shù);LIoU是IoU損失函數(shù)。
函數(shù)f(x)能夠根據(jù)錨框與目標(biāo)框的差異自動調(diào)整梯度幅度,以便在不同階段進(jìn)行自適應(yīng)優(yōu)化。在錨框與目標(biāo)框差異顯著時,P值較大,導(dǎo)致函數(shù)導(dǎo)數(shù)f′(p)較小,從而抑制低質(zhì)量錨框的梯度影響,避免模型過度調(diào)整以適應(yīng)這些質(zhì)量差的錨框。錨框與目標(biāo)框差異較小時,P值接近1,導(dǎo)數(shù)f′(p)較大,有助于模型更快地調(diào)整錨框,加速模型對這些比較接近的錨框的優(yōu)化過程。當(dāng)錨框非常接近目標(biāo)框時,P值接近0,導(dǎo)數(shù)f′(p)隨錨框質(zhì)量提升逐漸減小,允許錨框通過較小的梯度調(diào)整,穩(wěn)定優(yōu)化直至與目標(biāo)框?qū)R。
為進(jìn)一步提高檢測模型的性能,提出PIoU v2,它是一個由單個超參數(shù)控制的非單調(diào)注意力層與PIoU損失相結(jié)合形成的,即在PIoU損失中添加了注意力層,增強(qiáng)了集中在中高等質(zhì)量錨框上的能力。注意力函數(shù)和PIoU v2損失的表達(dá)式如下:
q=e-P,q∈(0,1];(5)
u(x)=3x·e-x2;(6)
LPIoU v2=u(λq)·LPIoU=3·(λq)·e-(λq)2·LPIoU。(7)
式中:q是代替P作為懲罰因子,范圍為(0,1],用來測量錨框的質(zhì)量;u(x)是非單調(diào)注意力函數(shù);λ是控制注意力函數(shù)行為的超參數(shù);LPIoU v2是PIoU v2損失函數(shù)。
當(dāng)q為1時,意味著P為0,這時錨框與目標(biāo)框是完全重合的。從式(5)可以看出,當(dāng)P增大時,q會逐漸減小,此時代表的是低質(zhì)量的錨框。式(7)中,PIoU v2只需要λ這一個超參數(shù),簡化了調(diào)優(yōu)的過程。
2 結(jié)果與分析
2.1 數(shù)據(jù)集及預(yù)處理
本研究使用公開數(shù)據(jù)集Lincolnbeet[29],數(shù)據(jù)集中包含4 402張圖片,有甜菜和雜草2類目標(biāo),分別有16 399、22 847個目標(biāo)邊界框。圖像尺寸為1 920像素×1 080像素,數(shù)據(jù)集中包含的標(biāo)簽為COCOjson、XML和darknets格式。
另外,為了使數(shù)據(jù)集的樣本更加均衡,同時提升模型在面對未知、復(fù)雜或噪聲數(shù)據(jù)時的魯棒性和泛化能力,更好地適應(yīng)現(xiàn)實世界中的各種應(yīng)用場景,對其中的部分包含目標(biāo)較多的圖片采用旋轉(zhuǎn)、平移、調(diào)節(jié)亮度、Cutout以及添加高斯噪聲等基礎(chǔ)數(shù)據(jù)增強(qiáng)方式。其中,旋轉(zhuǎn)的角度為35°,平移的距離為最大允許距離的1/3,亮度調(diào)節(jié)的參數(shù)在0.8~1.2之間,Cutout的矩形邊框大小為100像素。經(jīng)過處理后,數(shù)據(jù)集擴(kuò)充為5 897張,并按7 ∶2 ∶1的比例將數(shù)據(jù)集劃分為訓(xùn)練集、驗證集、測試集,劃分后分別為4 127、1 180、590張。處理前后的圖片如圖5所示。
2.2 試驗環(huán)境
本試驗在深度學(xué)習(xí)服務(wù)器下進(jìn)行,GPU型號為NVIDIA GeForce RTX4090,內(nèi)存為24 GB,python編譯器版本為3.9,深度學(xué)習(xí)框架為PyTorch-1.10.0,CUDA版本:12.2。試驗時間為2023年9月至2024年6月,試驗地點為安徽理工大學(xué)百川樓。試驗具體的超參數(shù)設(shè)置如表1所示。
2.3 評價指標(biāo)
采用2類對象的平均精度均值(mAP@0.5)評估模型的整體性能,參數(shù)量(Params)反映模型的規(guī)模和復(fù)雜性,浮點運(yùn)算次數(shù)(GFLOPs)衡量模型計算復(fù)雜度,F(xiàn)PS評估模型的檢測速度。AP通過計算精度-召回率曲線下的面積來評估模型在檢測多個對象類別時的表現(xiàn),考慮了模型在識別目標(biāo)時的準(zhǔn)確性(P),同時也考慮了模型在實際目標(biāo)中正確識別的比例(R)。這個PR曲線下的面積提供了模型在各個對象類別中檢測性能的綜合評估。
AP的計算公式如下:
AP=∫10P(R)dR。(8)
mAP是AP的均值,計算公式如下:
mAP=1N∑ni=1APi。(9)
2.4 對比試驗
為了驗證本研究所提出的改進(jìn)后的YOLO v8算法的有效性,將其與當(dāng)前流行的檢測模型進(jìn)行比較。比較它們在同一數(shù)據(jù)集上的性能,試驗結(jié)果如表2所示。
根據(jù)表2可知,將改進(jìn)后的算法與YOLO系列算法:YOLO v8n、YOLO v3-tiny、YOLO v5n、YOLO v7-tiny,以及SSD進(jìn)行對比,改進(jìn)模型mAP@0.5指標(biāo)顯著超越了YOLO v3-tiny、YOLO v5n、YOLO v8n,并且檢測時間為4.1 ms,能夠滿足實時檢測的要求。與YOLO v8n相比,改進(jìn)模型不僅在mAP@0.5上提高0.035,而且在參數(shù)量上減少了3.3%,所以整體性能上顯著高于YOLO v8n。改進(jìn)模型參數(shù)量較小,僅次于參數(shù)量最小的YOLO v5n,但mAP@0.5提高了0.038。YOLO v3-tiny、YOLO v7-tiny模型在識別中的mAP@0.5均比較高,分別達(dá)到0.834、0.859,但他們的參數(shù)量和計算量都比較大,檢測時間也更長,不適合在資源有限的嵌入式設(shè)備上部署和運(yùn)行。SSD算法具有較大的參數(shù)量和計算量,并且mAP@0.5值很低,遠(yuǎn)不如其他幾個算法。綜合比較模型的復(fù)雜性、檢測的準(zhǔn)確性以及實際的使用環(huán)境,改進(jìn)模型在多個目標(biāo)檢測模型中表現(xiàn)優(yōu)秀,能夠保證較高的檢測精度和檢測速度,更適用于具有不同大小目標(biāo)的甜菜雜草檢測。
從表2可以看出,YOLO v3-tiny、YOLO v5n、YOLO v7-tiny、YOLO v8n這4個模型mAP@0.5相對較高,比較接近改進(jìn)模型。以上模型在訓(xùn)練300輪的過程中,mAP@0.5隨著訓(xùn)練批次的變化圖如圖6所示。從圖中可以看出,改進(jìn)后的算法從開始訓(xùn)練后,曲線始終處于最上方,并且整體呈上升趨勢,當(dāng)訓(xùn)練到150輪之后趨于平穩(wěn),mAP@0.5基本達(dá)到頂峰,模型逐步收斂。變化曲線圖更加直觀地說明了改進(jìn)的模型在檢測精度和收斂速度上相對于其他模型表現(xiàn)更優(yōu),正確識別和定位目標(biāo)的能力更強(qiáng)。
2.5 消融試驗
為了驗證模型改進(jìn)的3個模塊的效果,進(jìn)行了針對單一改進(jìn)以及兩兩組合改進(jìn)措施的有效性對比試驗,試驗結(jié)果如表3所示。
通過分析表3的數(shù)據(jù),可以觀察到,第4組試驗引入了針對小尺寸目標(biāo)的檢測層P2,模型的mAP@0.5相較于原始模型上升了0.021。具體來看,甜菜提高了0.014,而雜草則提高了0.024,對于標(biāo)注框較小的雜草來說,有顯著的提升,展示了添加小目標(biāo)檢測層所帶來的積極效果。第2、3、4組試驗均是單一改進(jìn)模塊,對比YOLO v8n模型,mAP@0.5分別提升了0.01、0.011、0.021。第5、6、7組試驗是3個改進(jìn)措施中的任意2種組合,相較于單一改進(jìn)措施,均有性能上的提升,因此,證明了本研究3個改進(jìn)模塊的有效性。最后一組試驗同時融合這3個模塊,對比YOLO v8n模型,整體的mAP@0.5得到了0.035的提升,其中,甜菜提升了0.026,雜草增加了0.041,參數(shù)量沒有增大。從這些結(jié)果可以看出,改進(jìn)后的模型在識別甜菜和雜草方面效果很好。
2.6 改進(jìn)算法性能分析
在相同的試驗環(huán)境下,對改進(jìn)前后的算法進(jìn)行試驗,圖7展示了2種模型在訓(xùn)練300輪的過程中各類損失值的變化情況。
邊界框損失(Box_loss)的作用是評估模型預(yù)測的邊界框與真實邊界框之間的差異。從圖7中可以看出,改進(jìn)后的模型在訓(xùn)練集和驗證集上都表現(xiàn)出更低的損失值和更快的收斂速度。這表明,引入的PIoU v2損失函數(shù)顯著提升了模型定位目標(biāo)物體的精度。此外,改進(jìn)模型的分類損失(cls_loss)和分布焦點損失(dfl_loss)曲線均低于原模型,表明改進(jìn)模型在識別目標(biāo)物體類別方面表現(xiàn)更佳。上述結(jié)果表明,通過優(yōu)化這些損失函數(shù),改進(jìn)后的模型在訓(xùn)練過程中能夠更快速、更準(zhǔn)確地定位和分類目標(biāo),實現(xiàn)了高效且精確的目標(biāo)檢測。
為了測試模型在復(fù)雜環(huán)境下的檢測性能,使用包含甜菜和雜草的4種不同場景的測試集圖片,對YOLO v8n和改進(jìn)模型進(jìn)行分析。試驗結(jié)果如圖8、圖9所示。
第1類圖像(a)具有較高的光照強(qiáng)度,從中可以觀察到,經(jīng)過優(yōu)化的模型在檢測置信度上顯著優(yōu)于YOLO v8n。這表明模型在訓(xùn)練了經(jīng)過數(shù)據(jù)增強(qiáng)處理的數(shù)據(jù)集之后,對高亮度圖像的檢測能力得到了顯著提升。在第2類圖片(b)里,甜菜的特征與背景有著顯著的對比,使得2種模型都能較好地識別圖片中的大目標(biāo),但改進(jìn)模型的檢測置信度高于YOLO v8n,并且不存在小目標(biāo)漏檢的情況,而改進(jìn)后的模型能夠完全檢測。在第3類圖片(c)中,由于目標(biāo)之間的相互遮擋,YOLO v8n未能完全檢測出目標(biāo),而經(jīng)過改進(jìn)后的模型對此類復(fù)雜場景進(jìn)行了優(yōu)化,因此可以準(zhǔn)確地辨識并區(qū)分相互重疊的目標(biāo),顯著提升了對遮擋情況下物體識別的能力。第4類圖片(d)中,包含較多小目標(biāo),YOLO v8n出現(xiàn)了漏檢的情況,相比之下,改進(jìn)后的模型通過增加一個專門針對小目標(biāo)的檢測層,從而在小目標(biāo)的識別上展現(xiàn)了更佳的性能,這一改進(jìn)使得模型在小尺寸目標(biāo)的檢測方面表現(xiàn)更為出色??偟膩砜矗倪M(jìn)后的模型在目標(biāo)檢測方面的表現(xiàn)超過了YOLO v8n,這表明該網(wǎng)絡(luò)能夠捕捉到淺層的局部信息和更加豐富的語義特征,從而具有更優(yōu)秀的性能表現(xiàn)。
3 結(jié)論
為了解決現(xiàn)有研究對于甜菜雜草檢測精度較低、存在小目標(biāo)漏檢等問題,本研究基于最新的YOLO v8n算法,提出了一種改進(jìn)的甜菜雜草檢測模型。首先,通過在YOLO v8n模型的主干部分引入RFCAConv,提高了模型識別圖像特征的能力。其次,在檢測頭部分增加了一個小目標(biāo)檢測層,提高了模型對生長初期的甜菜和雜草的檢測能力。最后,引入了PIoU v2損失函數(shù),加快了收斂速度,并且提高了檢測精度。通過使用公開的Lincolnbeet數(shù)據(jù)集進(jìn)行試驗,試驗結(jié)果表明,改進(jìn)YOLO v8n模型總的mAP@0.5達(dá)到了0.902,對比YOLO v8n原模型提高了0.035,平均每幅圖片的檢測時間為 4.1 ms,能夠滿足實時檢測的要求。與其他4種主流模型比較,改進(jìn)后的模型參數(shù)量較小,識別模型精度最高,減少了小目標(biāo)漏檢現(xiàn)象,在甜菜雜草檢測方面具有較好的性能。
研究使用的數(shù)據(jù)集主要包括生長早期的雜草。未來的研究將集中在收集甜菜和雜草在其他生長階段的數(shù)據(jù),以提高模型在現(xiàn)實場景中的性能。
參考文獻(xiàn):
[1]周艷麗,李曉威,劉 娜,等. 內(nèi)蒙古甜菜制糖產(chǎn)業(yè)發(fā)展探析[J]. 中國糖料,2020,42(2):59-64.
[2]劉曉雪,蒙威宇,謝由之. 甜菜生產(chǎn)大幅波動的原因探究:基于199份農(nóng)戶調(diào)查問卷[J]. 中國糖料,2024,46(2):92-102.
[3]湯雷雷,萬開元,陳 防. 養(yǎng)分管理與農(nóng)田雜草生物多樣性和遺傳進(jìn)化的關(guān)系研究進(jìn)展[J]. 生態(tài)環(huán)境學(xué)報,2010,19(7):1744-1749.
[4]袁洪波,趙努東,程 曼. 基于圖像處理的田間雜草識別研究進(jìn)展與展望[J]. 農(nóng)業(yè)機(jī)械學(xué)報,2020,51(2):323-334.
[5]李 彧,余心杰,郭俊先. 基于全卷積神經(jīng)網(wǎng)絡(luò)方法的玉米田間雜草識別[J]. 江蘇農(nóng)業(yè)科學(xué),2022,50(6):93-100.
[6]孟慶寬,張 漫,楊曉霞,等. 基于輕量卷積結(jié)合特征信息融合的玉米幼苗與雜草識別[J]. 農(nóng)業(yè)機(jī)械學(xué)報,2020,51(12):238-245,303.
[7]毛文華,張銀橋,王 輝,等. 雜草信息實時獲取技術(shù)與設(shè)備研究進(jìn)展[J]. 農(nóng)業(yè)機(jī)械學(xué)報,2013,44(1):190-195.
[8]姜紅花,張傳銀,張 昭,等. 基于Mask R-CNN的玉米田間雜草檢測方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報,2020,51(6):220-228,247.
[9]苗中華,余孝有,徐美紅,等. 基于圖像處理多算法融合的雜草檢測方法及試驗[J]. 智慧農(nóng)業(yè),2020,2(4):103-115.
[10]胡 煉,劉海龍,何 杰,等. 智能除草機(jī)器人研究現(xiàn)狀與展望[J]. 華南農(nóng)業(yè)大學(xué)學(xué)報,2023,44(1):34-42.
[11]翁 楊,曾 睿,吳陳銘,等. 基于深度學(xué)習(xí)的農(nóng)業(yè)植物表型研究綜述[J]. 中國科學(xué)(生命科學(xué)),2019,49(6):698-716.
[12]Li Y,Guo Z Q,Shuang F,et al. Key technologies of machine vision for weeding robots:a review and benchmark[J]. Computers and Electronics in Agriculture,2022,196:106880.
[13]胡盈盈,王瑞燕,郭鵬濤,等. 基于近地光譜特征的玉米田間雜草識別研究[J]. 江蘇農(nóng)業(yè)科學(xué),2020,48(8):242-246.
[14]化春鍵,張愛榕,陳 瑩. 基于改進(jìn)的Retinex算法的草坪雜草識別[J]. 江蘇農(nóng)業(yè)學(xué)報,2021,37(6):1417-1424.
[15]李柯泉,陳 燕,劉佳晨,等. 基于深度學(xué)習(xí)的目標(biāo)檢測算法綜述[J]. 計算機(jī)工程,2022,48(7):1-12.
[16]Ren S Q,He K M,Girshick R,et al. Faster R-CNN:Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,39(6):1137-1149.
[17]He K M,Gkioxari G,Dollár P,et al. Mask R-CNN [C]//Proceedings of the IEEE International Conference on Computer Vision. Italy:IEEE Press,2017:2961-2969.
[18]Liu W,Anguelov D,Erhan D,et al. SSD:single shot MultiBox detector[C]//Computer Vision-ECCV 2016. Cham:Springer International Publishing,2016:21-37.
[19]Kumar P,Misra U. Deep learning for weed detection:exploring YOLO v8 algorithms performance in agricultural environments[C]//Proceedings of the 2024 2nd International Conference on Disruptive Technologies (ICDT). Greater Noida:IEEE Press,2024:255-258.
[20]Gallo I,Rehman A U,Dehkordi R H,et al. Deep object detection of crop weeds:performance of YOLO v7 on a real case dataset from UAV images[J]. Remote Sensing,2023,15(2):539.
[21]Ying B Y,Xu Y C,Zhang S,et al. Weed detection in images of carrot fields based on improved YOLO v4[J]. Traitement Du Signal,2021,38(2):341-348.
[22]Wang Q F,Cheng M,Huang S,et al. A deep learning approach incorporating YOLO v5 and attention mechanisms for field real-time detection of the invasive weed Solanum rostratum Dunal seedlings[J]. Computers and Electronics in Agriculture,2022,199:107194.
[23]亢 潔,劉 港,郭國法. 基于多尺度融合模塊和特征增強(qiáng)的雜草檢測方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報,2022,53(4):254-260.
[24]鄧天民,程鑫鑫,劉金鳳,等. 基于特征復(fù)用機(jī)制的航拍圖像小目標(biāo)檢測算法[J]. 浙江大學(xué)學(xué)報(工學(xué)版),2024,58(3):437-448.
[25]Zheng Z H,Wang P,Liu W,et al. Distance-IoU loss:Faster and better learning for bounding box regression[C]//Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(7):12993-13000.
[26]Hou Q B,Zhou D Q,F(xiàn)eng J S. Coordinate attention for efficient mobile network design[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville:IEEE Press,2021:13713-13722.
[27]Zhang X,Liu C,Yang D,et al. RFAConv:innovating spatial attention and standard convolutional operation [EB/OL]. arxiv preprint,arxiv:2304.03198v6(2023-04-06) [2024-04-07]. https://doi.org/10.48550/arXiv.2304.03198.
[28]Liu C,Wang K G,Li Q,et al. Powerful-IoU:more straightforward and faster bounding box regression loss with a nonmonotonic focusing mechanism[J]. Neural Networks,2024,170:276-284.
[29]Salazar-Gomez A,Darbyshire M,Gao J,et al. Beyond mAP:towards practical object detection for weed spraying in precision agriculture [C]//Proceedings of the 2022 IEEE/RSJ International Conference on Intelligent Robots and Systems. Kyoto Japan:IEEE Press,2022:9232-9238.