中圖分類號:S6;TP391.41 文獻標識碼:A 文章編號:2095-5553(2025)07-0211-09
Abstract:Rapidandaccurate identificationofcrops intheearlystageof epidemicdiseaseisanimportantlink toreducethe economicloss of crops.Aiming at theactual production environment,thetraditional image procesingalgorithms can not accurately identifythe leaf surface texture features and determine the typeof disease,and the YOLOv5s model hasa large number of parameters,andthe recognition efect is poor in complex environments and other problems,this paper proposes an integratedand improved method for potato disease detectionandidentification.In this paper,the numberof parameters isreducedbyreplacing thelightweight network ofYOLOv5s,thefusionabilityofdiferent featurelayersof the modelisenhancedbyusing the weightedbidirectional featurepyramid network(BiFPN),andtheattntion mechanism module SimAMis increased,theabilityof theYOLOalgorithmis enhanced toextract thekey information by usingthe GSConvconvolution,andfinally,theregressonaccuracyisimproved byintroducing theSIOUlossfunctionUnder the same experimental conditions,comparedwith the original model of YOLOv5s,YOLOv7—tiny,F(xiàn)aster R—CNN and other models,the accuracy rate,recallrate,and average recognition accuracy of this proposed method reaches 97.7% , (20 95.9% and 95.4% , respectively. The proposed algorithm not only improves the accuracy and average accuracy, but also reaches the speed of 144.93 frames/s,which meets the requirement of potato blight detection.
Keywords: potato blight detection;YOLOv5s; loss function; SimAM attention; lightweight network
0 引言
馬鈴薯別名土豆,是世界七種主要糧食作物之一,同時也是十大熱門營養(yǎng)健康食品之一,具有良好的發(fā)展前景[12]。馬鈴薯的種植依賴于充足的光照和適宜的溫度,這使得馬鈴薯很容易在環(huán)境的影響下發(fā)生疫病,從而導(dǎo)致馬鈴薯減產(chǎn)。馬鈴薯早(晚)疫病是影響馬鈴薯產(chǎn)量的主要因素,可以發(fā)生在馬鈴薯生長的各個時期,發(fā)病后如不及時處理,不僅會對馬鈴薯的莖、葉和塊莖造成實質(zhì)性傷害,還會侵染花蕾、槳果等,使植株提前枯死,給生產(chǎn)者帶來巨大的經(jīng)濟損失[3]。因此,提前對疫病進行干涉是急需解決的問題。
近年來,F(xiàn)asterR一CNN、YOLO系列、SSD等目標檢測算法不斷更新迭代,在農(nóng)業(yè)領(lǐng)域得到了廣泛應(yīng)用。由于傳統(tǒng)圖像處理方法已無法滿足當前農(nóng)業(yè)生產(chǎn)的需求,深度學習應(yīng)運而生。通過計算機網(wǎng)絡(luò)的輸入、輸出來實現(xiàn)大數(shù)據(jù)學習,達到對農(nóng)作物識別的目的。Xia等通過融合 ResNet+SeNet 在農(nóng)作物的開源數(shù)據(jù)集上進行訓(xùn)練和驗證,可以達到 90% 以上的識別準確率。Wang等5采用CNN網(wǎng)絡(luò)結(jié)構(gòu)對包含14種作物、26種病害、38個類別的共54306幅健康以及患病葉片圖像的公開數(shù)據(jù)集進行試驗,準確率高達 99% 以上。李淼等將MobileNet和InceptionV3模型作為特征提取器,進行黃瓜和水稻的病害特征提取,在改進的AlexNet模型和VGG模型上,用AMS—IMAGE對預(yù)訓(xùn)練模型進行修改和調(diào)整,以期進行作物病害的識別,識別準確率可達 96.8% 。李好等[7]在ShuffleNetV2的基礎(chǔ)上引人ECA(Efficient Channel Attention)注意力模塊,對常見的5種農(nóng)作物的26種病害進行識別,病害平均識別率高達 99.24% 。杜甜甜等[8]通過在線增強的方式增加樣本的多樣性,在RegNet的基礎(chǔ)上改進多尺度融合策略和增加注意力機制的理論模型,對農(nóng)作物的病害程度進行了評估,識別準確率達 94.5% 。李明等通過使用注意力機制和Ghost卷積來對黃瓜霜霉病孢子囊進行檢測。Buzzy等[1o]利用YOLOv3—tiny網(wǎng)絡(luò)準確地檢測葉子的實時位置。Khaki等提出了一種基于YOLOv4的計算機視覺方法來檢測麥穗。高偉鋒[12]提出了一種基于YOLOv8的柑橘病蟲害識別系統(tǒng),采集柑橘的患病圖像,對在實際環(huán)境中的柑橘病蟲進行識別。
YOLOv5算法檢測速度快,檢測精度高,可適應(yīng)不同環(huán)境下對疫病植株的目標檢測要求。本文以馬鈴薯疫病為例,以YOLOv5s為基礎(chǔ)模型,提出一種改進馬鈴薯疫病檢測模型,在更換主干網(wǎng)絡(luò)的基礎(chǔ)上,通過使用輕量級卷積方法來代替標準卷積,使其冗余信息減少;通過引入注意力機制,增強算法的特征提取能力;通過引入BiFPN特征融合,可更深層次地提取特征;替換損失函數(shù),以保證馬鈴薯疫病識別的精度和時效性。
1材料與方法
1.1 樣本采集
隨機選取PlantVillage[13]公開數(shù)據(jù)集中的馬鈴薯疫病圖像2840幅,數(shù)據(jù)集圖像示例如圖1(a)所示。PlantVillage公開數(shù)據(jù)集中的患病葉片為單片葉片,識別率較高,但由于外界環(huán)境、土壤遮擋、氣候等影響,多葉片在復(fù)雜環(huán)境下識別率較低。因此,于2023年5—7月在太倉市采集患病馬鈴薯葉片的圖像作為原始數(shù)據(jù)集的補充,分別在不同天氣、不同時間使用植保無人機上的云臺相機,如圖1(b)所示,并且在不同位置拍攝患有馬鈴薯疫病的植株圖像。收集數(shù)據(jù)圖像2500幅,如圖1(c)所示,由于在實際的采集中既包含患早(晚)疫病,也包含健康葉片,故在訓(xùn)練前需要對患病葉片進行標注。
圖1數(shù)據(jù)集圖像示例Fig.1Dataset image example
1. 2 樣本預(yù)處理
本文對所獲取圖像進行數(shù)據(jù)增強以提高訓(xùn)練模型的泛化能力,避免網(wǎng)絡(luò)過度擬合,通過添加噪聲、圖像旋轉(zhuǎn)、亮度調(diào)整和鏡面翻轉(zhuǎn)等方法對獲得的圖像進行增強,將圖像擴充到7175幅。由于室外產(chǎn)生的噪聲點較多,因此,選擇添加高斯噪聲來表達真實環(huán)境。對原始圖像進行水平、垂直和對角線角度的隨機旋轉(zhuǎn),以提高數(shù)據(jù)的穩(wěn)定性,增強后的數(shù)據(jù)如圖2所示。
圖2數(shù)據(jù)增強的圖片F(xiàn)ig.2 Data enhanced images
將增強后的數(shù)據(jù)集按照 8:1:1 劃分訓(xùn)練集(5737幅)、驗證集(719幅)和測試集(719幅)。馬鈴薯在發(fā)生早疫病時,葉片受害產(chǎn)生圓形或近圓形黑褐色病斑,病斑具有同心輪紋,而在晚疫病時,往往發(fā)生在葉尖和葉緣,后期病斑擴展到主脈或葉柄,使葉片萎蔫下垂,整個植株變?yōu)榻购?,呈濕腐狀。為更有效地針對馬鈴薯疫病進行識別檢測,使用圖像標注軟件LabelImg對馬鈴薯圖像進行標注,生成對應(yīng)YOLO數(shù)據(jù)格式的XML文件,但標注后的XML文件并不能被直接識別,所以需要通過腳本文件轉(zhuǎn)換為TXT文件,TXT文件包含3種類別,即早疫病(Earl-Blight)、健康植株(Healthy-Plant)、晚疫?。↙ate-Blight)。
2改進YOLOv5s網(wǎng)絡(luò)模型
2.1 YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)
與YOLO前幾代模型相比,YOLOv5僅增加Focus和SPP結(jié)構(gòu),其余整體未發(fā)生太大變化。Focus結(jié)構(gòu)采用切片操作將高分辨率圖像分割成多個低分辨率圖像,降低計算量。SPP結(jié)構(gòu)可通過多尺度池化來擴大感受野范圍,融合不同尺度的物體圖信息,完成特征融合。根據(jù)網(wǎng)絡(luò)結(jié)構(gòu)的深度和寬度,YOLOv5分為5個版本,YOLOv5n、YOLOv5s、 YOLOv5m 、YOLOv51和 YOLOv5x ,其中YOLOv5n模型參數(shù)量最小, YOLOv5x 模型參數(shù)量最大。雖然YOLOv5n檢測時間最短,但其殘差結(jié)構(gòu)數(shù)量較少導(dǎo)致檢測精度低,而且YOLOv5m、YOLOv5l、YOLOv5x檢測時間較長,不適合實時監(jiān)控。選擇復(fù)雜度較低的YOLOv5s,既能保證檢測精度,又保證檢測時間,在提高檢測率的同時減少計算機內(nèi)存消耗。
YOLOv5算法主要包括輸人端、骨干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)和預(yù)測頭部。首先采用數(shù)據(jù)增強,對輸人數(shù)據(jù)隨機縮放、排列等,以提高目標檢測模型的魯棒性和泛化能力,同時采用自適應(yīng)錨框計算來算出最適合輸人圖像的參數(shù),提高目標檢測的精確性和魯棒性。再通過骨干網(wǎng)絡(luò)的卷積操作進行特征提取后輸人到頸部網(wǎng)絡(luò)進行特征融合。最后在預(yù)測頭生成檢測目標的類別和位置信息。其網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。
2.2基于ShuffleNetV2輕量化網(wǎng)絡(luò)
本文的檢測目標為馬鈴薯葉片,YOLOv5原始網(wǎng)絡(luò)模型在單類別檢測任務(wù)中,參數(shù)量以及計算量冗余的問題尤為突出,在Backbone中,C3模塊為特征提取模塊,結(jié)構(gòu)較為復(fù)雜,因此,將C3模塊替換為YOLOv5特征提取網(wǎng)絡(luò)的ShuffleNetV2[14]輕量級網(wǎng)絡(luò)核心模塊,這樣就可以壓縮模型大小,減少模型計算次數(shù),提高目標檢測速度,保證檢測網(wǎng)絡(luò)的實時運行。
ShuffleNetV2是一種經(jīng)典的輕量級網(wǎng)絡(luò),通過ChannelSplit替代分組卷積,如圖4所示,滿足4條設(shè)計準則,達到速度和精度的最優(yōu)權(quán)衡。ShuffleNetV2充分考慮內(nèi)存訪問成本(MAC),提出減少組卷積、模型分支和通道插入等元素級操作,保證 1×1 卷積操作的通道寬度相同。與ShuffleNetV1相比,ShuffleNetV2擁有更高效的網(wǎng)絡(luò)模塊,通過通道分割操作將輸人特征圖分為2個分支,右分支由深度卷積和普通卷積組成,左分支執(zhí)行相同的映射,并通過通道融合將2個分支的特征圖合并,再將不同通道的信息合并,從而提高ShuffleNetV2的性能。ShuffleNetV2的第二個主要模塊是下降模塊,如圖5所示,它不再使用通道分離,而是將特征圖直接插入2個通道,每個下降分支轉(zhuǎn)化為階段2,最后將2個通道合并,這樣可以使特征圖空間減半,但通道數(shù)量增加1倍。
圖4ChannelShuffle原理
圖5ShuffleNetV2原理圖
Fig.5 ShuffleNetV2 schematic
注:ChannelSplit為特征圖的通道切分;BN為批量歸一化操作;ReLU為激活函數(shù);DWConv為深度可分離卷積。
將YOLOv5特征提取網(wǎng)絡(luò)的C3模塊替換為ShuffleNetV2中心網(wǎng)絡(luò)模塊,可以有效降低模型的參數(shù)量和計算量,提升目標檢測速度,但同時會帶來精度的損失,所以需進一步對網(wǎng)絡(luò)模型進行改進,以彌補網(wǎng)絡(luò)輕量化對模型精度造成的影響,較好地平衡檢測速度與精度。
2.3 BiFPN特征融合
在設(shè)計馬鈴薯葉片實時檢測模型時,要充分考慮馬鈴薯種植基地里復(fù)雜的情況。因此,在更換主干網(wǎng)絡(luò)的基礎(chǔ)上進行優(yōu)化,以提高其精度和識別效率。將YOLOv5s中原來的PaNet[15層改進為BiFPN層,從而實現(xiàn)自上而下與自下而上的深淺層特征雙向融合,增強不同網(wǎng)絡(luò)層之間特征信息的傳遞。
關(guān)于對馬鈴薯葉片疫病特征的識別,采取BiFPN結(jié)構(gòu)具有兩方面優(yōu)越性:(1)BiFPN通過引入跨層連接和特征加權(quán),能較好地均衡特征金字塔的各個層級,提高對不同尺度目標識別,從而提高對馬鈴薯葉片在疫病發(fā)生初期發(fā)病特征不明顯的檢測效果。(2)BiFPN網(wǎng)絡(luò)通過自上而下和自下而上融合不同層級的特征圖,準確地感知復(fù)雜環(huán)境中的馬鈴薯葉片。為了更有效地反映BiFPN結(jié)構(gòu)對網(wǎng)絡(luò)的貢獻,BiFPN網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示,其中, P3~P7 為節(jié)點。
圖6BiFPN網(wǎng)絡(luò)結(jié)構(gòu)Fig.6BiFPNnetwork architecture
BiFPN的帶權(quán)特征融合計算如式(1)所示。
式中: O 1 輸出;(204號 I 輸入;e 用于約束數(shù)值振蕩的極小值學習率;wi?wj 對應(yīng)權(quán)重。
以P6層為例,對應(yīng)的計算方法見式(2)和式(3)。
式中: P6td 以P6層為例自上而下的中間特征層;(2 Pe out 以P6層為例自下而上的輸出特征層;
(20 P6 in 以P6層為例自下而上的輸入特征層;
Resize 上采樣或者下采樣操作;
w,w′ 各層對應(yīng)的權(quán)重;
E 防止分母為0設(shè)置的極小非零常數(shù)。
2.4 Slim-Neck模塊
考慮到對馬鈴薯葉片疫病識別的準確性,方便后期務(wù)農(nóng)人員精準用藥,同時滿足檢測速度和準確性,為此將GSConv模塊(GSConv用于減輕模型的復(fù)雜度并保持準確性,能夠很好地提升無人駕駛性能)融入YOLOv5s的網(wǎng)絡(luò)模型中。圖7為GSConv的網(wǎng)絡(luò)結(jié)構(gòu)。GSConv工作原理:首先輸人進行一個普通卷積的下采樣;然后使用深度卷積,并將兩個卷積的結(jié)果拼接起來;最后進行Shuffle操作,使得兩個卷積的對應(yīng)通道數(shù)在一起。
圖7GSConv的網(wǎng)絡(luò)結(jié)構(gòu)
Fig.7Network structure of GSConv
注:Shuffle表示兩個卷積的對應(yīng)通道數(shù)在一起。
2.5 SimAM注意力機制
SimAM[16] 是一種無參數(shù)的注意力機制,與現(xiàn)有的基于通道和空間的注意力模塊不同,SimAM通過推斷特征圖中的三維注意力權(quán)重來工作,無需向原始網(wǎng)絡(luò)添加參數(shù),其結(jié)構(gòu)如圖8所示。具體而言,SimAM是基于神經(jīng)科學理論,提出優(yōu)化能量函數(shù)以找到每個神經(jīng)元重要性的方法,進一步推導(dǎo)能量函數(shù)的快速閉合形式解。該模塊的另一優(yōu)點為大多數(shù)運算符是基于定義的能量函數(shù)的解來選擇,避免過多的結(jié)構(gòu)調(diào)整工作。對各種視覺任務(wù)的定量評估表明,所提出的模塊具有靈活性和有效性,可以提高許多ConvNets的表征能力。
為更好地實現(xiàn)注意力,需要評估每個神經(jīng)元的重要性。因此,定義能量函數(shù)如式(4)所示。
式中: t 一 目標神經(jīng)元;
y 標簽,代表是否為重要神經(jīng)元;
xi 其他神經(jīng)元;
單位目標神經(jīng)元向量;
一單位其他神經(jīng)元向量;
(20 ωt 權(quán)重;
bt 偏置;
M 神經(jīng)元數(shù)量;
φ0 指導(dǎo)搜索最佳值。
采用二值標簽,并添加正則項,最終的能量函數(shù)定義如式(5)所示。
[1-(ωtt+bt)]2+λωt2
式中: λ 正則化系數(shù)。
式中: μt (204 均值;σt2 方差。
由于每個通道上所有神經(jīng)元都遵循相同的分布,因此,可以先對輸入特征在預(yù)測框的寬和高兩個維度上計算均值和方差,避免重復(fù)計算。
式中: 1 協(xié)方差值;
λ 一 權(quán)重系數(shù)。
整個過程可以表示為
式中: E 1 特征圖 X 上所有最小能量的集合。
2.6 SloU損失函數(shù)
上述方法未考慮期望的真實框和預(yù)測框之間不匹配的問題,這一缺點導(dǎo)致收斂速度較慢,效率較低,因此,提出新的損失函數(shù)SIoU。SIoU[17]重新定義懲罰度量,考慮了期望回歸之間的向量夾角,提高收斂速度和效率。角度損失定義如式(10)所示。
式中: Ch —真實框和預(yù)測框中心點之間的高度差;σ 真實框和預(yù)測框中心點的距離。
在考慮角度損失的基礎(chǔ)上,重新定義距離損失。
式中: ρt ——衡量預(yù)測框中心點與真實框中心點之間坐標偏差的歸一化指標, t=x 表示橫坐標, t=y 表示縱坐標;cw?ch ———預(yù)測框和真實框最小外接矩形寬和高;Ccxgt?Ccygt (2號 真實框中心的橫坐標和縱坐標;bcx,bcy 預(yù)測框中心的橫坐標和縱坐標。
形狀損失的定義如式(13)所示。
式中: ω 衰減系數(shù);θ -可學習的縮放參數(shù)。
SIoU損失函數(shù)定義如式(14)所示。
SIoU考慮所需回歸之間向量的角度,引入角度損失因子以減少回歸的自由度,加快收斂速度,并調(diào)整懲罰措施以提高學習速度和推理精度。
改進后的網(wǎng)絡(luò)結(jié)構(gòu)如圖9所示,具體改進:在更換主干網(wǎng)絡(luò)的基礎(chǔ)上增加注意力機制模塊,并使用GSConv卷積,應(yīng)用BiFPN特征融合,替換損失函數(shù)。
圖9 改進后的網(wǎng)絡(luò)結(jié)構(gòu)
Fig.9Improved network structure
注:CBRM由Conv、BN層、ReLU激活函數(shù)和Maxpool組成;SimAM為注意力機制模塊;C3為CBS和Bottleneck模塊組成的卷積結(jié)構(gòu)。
3 試驗與結(jié)果分析
3.1 試驗環(huán)境
本文方法基于Python3.8和Pytorch1.10.2框架實現(xiàn)。模型設(shè)置圖像大小為640像素 ×640 像素,在單張高性能NVIDIAGeForceGTX4060顯卡上訓(xùn)練。模型的訓(xùn)練周期Epoch為300、批量大小Batchsize為8、初始學習率為O.01。
3.2 評價指標
目標檢測算法的性能會受到遮擋或類似物體干擾的影響,因此,有必要建立評價指標來評估目標檢測算法的性能。試驗采用精確率 P 、召回率 R,mAP@0.5 、mAP@0.5:0.95 作為評價指標。 mAP0.5 表示 IoU 設(shè)為0.5時,計算每一類的所有圖片的 AP ,然后所有類別求平均。 mAP@0.5:0.95 表示在不同 IoU 國值 (0.5~0.95 ,步長為0.05)上的 mAP 值。計算如式 (15)~ 式(17)所示。
式中: TP 1 被模型預(yù)測為正類的正樣本數(shù);FP 1 被模型預(yù)測為正類的負樣本數(shù);FN 被模型預(yù)測為負類的正樣本數(shù);n ( 樣本總數(shù)。
3.3 結(jié)果分析
3.3.1不同輕量化網(wǎng)絡(luò)對模型的影響
在保持其余部分不變的基礎(chǔ)上替換一些輕量級網(wǎng)絡(luò),例如MobileNetV3、ShuffleNetV2替換原來YOLOv5s的主干。試驗結(jié)果如表1所示,與其他輕量化網(wǎng)絡(luò)相比,在保證精度的基礎(chǔ)上ShuffleNetV2顯著降低參數(shù)量和模型的復(fù)雜程度。與此同時,模型的檢測速度基于常規(guī)C3Net提升約 25% 。輕量化網(wǎng)絡(luò)可以有效降低模型復(fù)雜度,但同時會造成檢測精度的損失,因此為實現(xiàn)模型各方面性能的平衡,在輕量化網(wǎng)絡(luò)的基礎(chǔ)上對模型進行優(yōu)化。
表1不同主干網(wǎng)絡(luò)模型對比Tab.1 Comparison of different backbone network models
注:Params表示參數(shù)量, FLOPs 表示浮點運算數(shù),F(xiàn)PS表示在1s內(nèi)處理的圖像幀數(shù)。
3.3.2 注意力機制試驗對比分析
為減輕網(wǎng)絡(luò)輕量化對模型檢測精度的影響,將SimAM注意力機制引入特征提取網(wǎng)絡(luò),提高模型對馬鈴薯葉片疫病特征檢驗性能,彌補輕量化網(wǎng)絡(luò)對模型檢測精度的損失。注意力機制施加在不同的位置對模型的大小和檢測性能均會有不同的影響,因此,通過試驗對比選取施加SimAM注意力機制的最佳位置。
在輕量化網(wǎng)絡(luò)的基礎(chǔ)上,將注意力機制施加在圖10所示的3個不同位置,令3個位置的模型分別為SimAM—1、SimAM—2和SimAM—3,對比不同的施加位置對模型檢測效果的影響。結(jié)果如表2所示,在檢測精度方面,將SimAM注意力機制施加在位置1,模型檢測精度為 94.1% ,相比于輕量化網(wǎng)絡(luò)提高0.7% ,相比于原始算法有 0.2% 提升;施加在位置2處,檢測精度較原始YOLOv5原始網(wǎng)絡(luò)精度有下降;施加在位置3,相比于原始算法模型檢測精度下降 0.4% 。
表2注意力機制試驗對比Tab.2 Comparison of attention mechanism tests
由此可知,在輕量化模型網(wǎng)絡(luò)較后的位置施加注意力機制,精度可以有更好的提升,SimAM注意力機制對特征提取更加敏感,位置1處于特征提取網(wǎng)絡(luò)的末端,相較前2個位置能獲取到更加豐富的特征信息,因此,可以較好地提升模型檢測精度。
3.3.3不同IoU損失函數(shù)試驗結(jié)果
由于原始損失函數(shù)在訓(xùn)練過程中沒有考慮寬高比對檢測結(jié)果影響,收斂速度慢。因此,在增加注意力機制SimAM基礎(chǔ)上,通過對比不同損失函數(shù),分析各損失函數(shù)對模型性能的影響,試驗結(jié)果如表3所示,分別對比SIoU和EIoU的各項指標,可以看出,SIoU明顯好于EIoU,在預(yù)測框與真實框之間的誤差回歸中,SIoU的收斂速度和精度要比EIoU表現(xiàn)優(yōu)秀。二者對比如圖11所示。
表3不同IoU損失函數(shù)識別結(jié)果對比Tab.3 Comparison of recognition results withdifferent IoU loss functions
3.3.4 消融實驗
改進消融實驗如圖12所示,改進YOLOv5s模型在更換主干網(wǎng)絡(luò)基礎(chǔ)上融合SimAM注意力模塊,使用GSConv更換加權(quán)雙向特征金字塔網(wǎng)絡(luò)并替換損失函數(shù)。為了能更加直觀地分析改進YOLOv5s模型相較于原始模型的提升,分別進行試驗并對比試驗的 mAP 值,試驗結(jié)果如表4所示,可以看出不同算法對馬鈴薯疫病檢測性能的影響。第1組試驗將YOLOv5s更換加權(quán)雙向特征金字塔網(wǎng)絡(luò),模型的 mAP 提升 1.4% ;第2組試驗將YOLOv5s模型的普通卷積替換為GSconv,模型的 mAP 上升 1.1% ,參數(shù)量降低 11.3% ;第3組試驗將模型加人一種無參數(shù)的注意力機制,模型的mAP提升 1.4% ;在第4組試驗中替換YOLOv5s模型的邊界框損失函數(shù),模型的 mAP 上升 0.7% 。接下來的兩組試驗中,將模塊進行組合添加到模型上,使得mAP都獲得不同程度的提高。最后一組試驗,使用GSConv卷積,并且應(yīng)用加權(quán)雙向特征金字塔網(wǎng)絡(luò),增加注意力機制,解決信息過載問題,并提高任務(wù)處理的效率和準確性,更換損失函數(shù)為SIoU,構(gòu)成本文提出的改進模型。模型mAP提升 2% ,模型內(nèi)存占用量降低 0.36M ,浮點運算數(shù)減少到7.8B,傳輸幀數(shù)為144.93幀/s。試驗結(jié)果表明,在提高整個檢測網(wǎng)絡(luò)的識別精度的同時可滿足實時檢測的需求,將模型部署到手機APP后,可以在保證識別精度的同時擁有較快的檢測速度。
表4YOLOv5s不同改進消融實驗結(jié)果 Tab.4 YOLOv5s different improved ablation test results
3.3.5 不同模型的對比分析
為驗證改進后的YOLOv5s模型在馬鈴薯疫病數(shù)據(jù)集上的檢測效果,分別將YOLOv3、YOLOv5s、YOLOv7—tiny、FastR—CNN四種網(wǎng)絡(luò)模型在馬鈴薯疫病數(shù)據(jù)集上進行訓(xùn)練,結(jié)果如表5所示,在相同的迭代次數(shù)中,YOLOv3、YOLOv5s、YOLOv7—tiny、FastR一CNN四種網(wǎng)絡(luò)模型對數(shù)據(jù)集進行提取特征的效果并不理想,進一步說明網(wǎng)絡(luò)模型中模型對馬鈴薯疫病識別不到位,導(dǎo)致檢測精度不高。將SimAM注意力機制加入更換主干網(wǎng)絡(luò)后的YOLOv5s模型中,引入加權(quán)雙向特征金字塔網(wǎng)絡(luò),并使用GSConv卷積,改進損失函數(shù),對比4種網(wǎng)絡(luò)模型在對疫病識別情況訓(xùn)練情況,得出改進后的YOLOv5s的mAP比YOLOv3、YOLOv5s、YOLOv7—tiny、Fast R—CNN模型分別高出 3.3%、1.5%、3.0%、7.8% 0
表5不同模型試驗結(jié)果
Tab.5 Results ofdifferent model tests
注:a指BiFPN;b指GSConv;c指SimAM,d指SIoU?!啊蘚"表示在YOLOv5s中增加該模塊;“ x ”表示在YOLOv5s中未采用該模塊。
為驗證改進后的YOLOv5模型在實際環(huán)境下的檢測效果,采用改進后的YOLOv5模型在訓(xùn)練過程中生成的權(quán)重文件對驗證集中的數(shù)據(jù)集進行推理驗證,推理驗證結(jié)果如圖13所示。從圖14可以看出,熱力圖是一個學習識別目標中心的空間和語義信息的訓(xùn)練過程。馬鈴薯葉片在檢測過程中,通過去掉檢測框?qū)ξ矬w特征信息的分析,圖片中的顏色信息越深,學習到的物體特征信息越多,目標檢測框的置信度越高,熱力圖的分布主要從物體的中心點開始,與未改進算法產(chǎn)生的熱力圖比較,圖14中的馬鈴薯葉片被提取了位置特征信息,越靠近產(chǎn)生病害特征的顏色越深。
圖13改進算法推理驗證結(jié)果
圖14熱力圖結(jié)果對比 Fig.14 Comparison of heat map results
從圖14可看出,改進后的模型能在復(fù)雜環(huán)境下準確地識別患病葉片。因此,結(jié)合上述試驗,所提出的基于改進YOLOv5s的馬鈴薯疫病識別方法可以滿足實際生產(chǎn)生活的需要。
4結(jié)論
1)針對在不同場景下對馬鈴薯疫病不易識別的問題,提出基于改進YOLOv5s的馬鈴薯疫病識別模型。為解決原始算法中出現(xiàn)的識別問題,增強模型的特征提取能力,提高模型的檢測精度,在更換主干網(wǎng)絡(luò)的基礎(chǔ)上融入SimAM注意力模塊,可以降低參數(shù)量且提升精度,應(yīng)用加權(quán)雙向特征金字塔網(wǎng)絡(luò)增強模型不同特征層的融合能力,并使用GSConv卷積,最后替換損失函數(shù),提高回歸精度。
2)在相同環(huán)境下,將改進模型與YOLOv3、YOLOv5s、YOLOv7—tiny、FastR—CNN進行對比,在提高mAP的同時模型參數(shù)量降低 51% 。最終得出識別精確率和召回率分別為 97.7% 、 95.9% .mAP@0.5 為 95.4% ,進一步驗證改進方法對馬鈴薯疫病識別的有效性,為后續(xù)提前干預(yù)提供支持。
參考文獻
[1]謝從華.馬鈴薯產(chǎn)業(yè)的現(xiàn)狀與發(fā)展[J].華中農(nóng)業(yè)大學學報(社會科學版),2012(1):1-4.XieConghua. Potatoindustry: Status anddevelopment [J]. Journal of Huazhong AgriculturalUniversity(Social Sciences Edition),2012(1): 1-4
[2]高華援,梁桓赫,王鳳,等.中國馬鈴薯栽培技術(shù)研究進展[J].吉林農(nóng)業(yè)科學,2007(5):17—19,27.
[3]賈萍.馬鈴薯早疫病和晚疫病的特征及防治方法[J].新農(nóng)業(yè),2023(3):6-8.
[4] Xia X,Wu Y,Lu Q,et al.Experimental study oncrop disease detection based on deep learning [C].IOPConference Series: Materials Science and Engineering.IOP Publishing,2019,569(5):052034.
[5]Wang L,Sun J,Wu X,et al. Identification of cropdiseases using improved convolutional neural networks [J].IET ComputerVision,2020,14(7):538-545.
[6]李淼,王敬賢,李華龍,等.基于CNN和遷移學習的農(nóng)作物病害識別方法研究[J].智慧農(nóng)業(yè),2019,1(3):46-55.Li Miao,Wang Jingxian,Li Hualong,et al.Methodfor identifying crop disease based on CNN and transferlearning [J].Smart Agriculture,2019,1(3):46-55.
[7]李好,邱衛(wèi)根,張立臣.改進ShuffleNetV2的輕量級農(nóng)作物病害識別方法[J].計算機工程與應(yīng)用,2022,58(12):260—268.LiHao,Qiu Weigen,ZhangLichen. Improved ShuffleNetV2 forlightweightcropdiseaseidentification[J].ComputerEngineering and Applications,2022,58(12):260—268.
[8]杜甜甜,南新元,黃家興,等.改進RegNet識別多種農(nóng)作物病害受害程度[J].農(nóng)業(yè)工程學報,2022,38(15):150—158.Du Tiantian, Nan Xinyuan, Huang Jiaxing,et al.Identifying the damage degree of various crop diseasesusing an improved RegNet[J]. Transactions of the ChineseSociety ofAgricultural Engineering,2022,38(15):150—158.
[9]李明,丁智歡,趙靖暄,等.基于改進YOLOv5s的日光溫室黃瓜霜霉病孢子囊檢測計數(shù)方法[J].中國農(nóng)機化學報,2023,44(5):63—70.LiMing, DingZhihuan, Zhao Jingxuan, etal.Detectionmethodforcumcumberdownymildewsporangia inasolargreenhouse based on improvedYOLOv5s[J].Journal ofChineseAgriculturalMechanization,2023,44(5):63-70.
[10]BuzzyM,ThesmaV,DavoodiM,etal.Real-timeplantleaf counting using deep object detection networks [J].Sensors,2020,20(23):6896.
[11]KhakiS,SafaeiN,PhamH,etal.WheatNet:Alightweightconvolutionalneuralnetworkforhigh-throughput image-basedwheatheaddetectionandcounting[J].Neurocomputing,2022,489:78-89.
[12]高偉鋒.基于YOLOv8的柑橘病蟲害識別系統(tǒng)研究與設(shè)計[J].智慧農(nóng)業(yè)導(dǎo)刊,2023,3(15):27-30.Gao Weifeng. Research on the design of citrus disease andpest identification system based on YOLOv8 [J].JournalofSmartAgriculture,2023,3(15):27-30.
[13]MohamethF,Bingcai C,Sada K A.Plant disease
detection with deep learning and feature extraction usingplantvillage[J].JournalofComputerandCommunications,2020,8(6):10-22.
[14]Ma N,Zhang X,Zheng H T,et al. ShuffleNetV2:Practicalguidelines forefficient CNNarchitecturedesign[C].Proceedings of the European ConferenceonComputerVision,2018:116—131.
[15] Liu S,Qi L,Qin H,et al. Path aggregation networkforinstance segmentation[C].Proceedings of the IEEEConference on Computer Vision and Pattern Recognition,2018:8759—8768.
[16]YangL,ZhangRY,LiL,etal.SimAM:Asimple,parameter-freeattentionmoduleforconvolutionalneural networks[C].International ConferenceonMachineLearning,PMLR,2021:11863—11874.
[17]Gevorgyan Z. SIoU loss:More powerful learning forbounding box regression [J].arXiv preprintarXiv:2205.12740,2022.