doi:10.15889/j.issn.1002-1302.2024.20.024
摘要:隨著深度學(xué)習(xí)在圖像識別領(lǐng)域的廣泛應(yīng)用,目標(biāo)檢測算法已取得顯著進(jìn)展。然而,在農(nóng)業(yè)病害檢測特別是馬鈴薯葉病害檢測方面,仍面臨諸多挑戰(zhàn),如自然光影響和數(shù)據(jù)不平衡問題等。為此,提出一種改進(jìn)YOLOX的馬鈴薯葉病害檢測方法。首先以輕量化MobileNet v3網(wǎng)絡(luò)作為骨干替換原有的CSPDarkNet53網(wǎng)絡(luò),以提高模型在特征提取上的效率,同時(shí)減少計(jì)算量。其次引入V通道網(wǎng)絡(luò),增加模型對復(fù)雜光照環(huán)境的適應(yīng)性,更精確地捕獲紋理信息。最后設(shè)計(jì)一種自適應(yīng)的交叉熵?fù)p失函數(shù),以解決樣本不平衡的問題,確保模型的魯棒性和準(zhǔn)確性。在公開數(shù)據(jù)集PlantVillage上進(jìn)行試驗(yàn)驗(yàn)證,結(jié)果表明,改進(jìn)模型平均準(zhǔn)確率、浮點(diǎn)運(yùn)算次數(shù)、內(nèi)存和FPS分別為98.55%、14.63×109次、49.35 MB、125.92幀/s。相比原始YOLOX模型,平均準(zhǔn)確率和單幀識別速度分別提高4.38百分點(diǎn)、36.65%;浮點(diǎn)運(yùn)算次數(shù)和內(nèi)存分別降低43.23%、34.33%。此外,與不同模型對比試驗(yàn)以及嵌入式平臺上的試驗(yàn)結(jié)果均表明,本研究提出的改進(jìn)YOLOX模型在準(zhǔn)確率、計(jì)算效率和速度方面均具有明顯的優(yōu)勢,為農(nóng)作物葉片病害檢測提供了一種有效的解決方案。
關(guān)鍵詞:馬鈴薯病害檢測;YOLOX;MobileNetv3;V通道網(wǎng)絡(luò);交叉熵?fù)p失
中圖分類號:S126;TP391.41" 文獻(xiàn)標(biāo)志碼:A
文章編號:1002-1302(2024)20-0199-10
收稿日期:2023-10-06
基金項(xiàng)目:國家自然科學(xué)基金(編號:62002330)。
作者簡介:張凱萍(1983—),女,河南許昌人,碩士,副教授,研究方向?yàn)闄C(jī)器學(xué)習(xí)、目標(biāo)檢測。E-mail:zhangkp1983@163.com。
通信作者:李國霞,教授,主要從事農(nóng)業(yè)信息技術(shù)、計(jì)算機(jī)視覺研究。E-mail:zhangkp1983@163.com。
馬鈴薯是全球最重要的糧食作物之一,年產(chǎn)量近3億t,為全球超過十億人口提供穩(wěn)定的食物來源[1]。除了其在食品產(chǎn)業(yè)的核心地位,馬鈴薯在多個(gè)工業(yè)領(lǐng)域也有廣泛應(yīng)用[2]。然而,該農(nóng)作物頻繁地受到各種病害的侵襲,尤其是葉片病害,如晚疫病和早疫病。這些病害不僅可以影響植物的莖、根和果實(shí),還可能嚴(yán)重?fù)p害作物的質(zhì)量和產(chǎn)量。晚疫病和早疫病等疾病在早期階段對于種植者來說常常難以識別[3]。因此,及時(shí)和準(zhǔn)確地診斷葉片病害對于減緩經(jīng)濟(jì)損失至關(guān)重要。
傳統(tǒng)的病害診斷方法主要依賴農(nóng)民的經(jīng)驗(yàn)和觀察,這在準(zhǔn)確性和可靠性上有局限。先進(jìn)的診斷技術(shù)如光譜儀[4]和聚合酶鏈?zhǔn)椒磻?yīng)[5]雖提高了診斷精度,但高成本和操作復(fù)雜性限制了其廣泛應(yīng)用。近年來,深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)(CNN)的發(fā)展為農(nóng)業(yè)病害檢測帶來了技術(shù)革命,并被證明是一種高效的作物病害識別方法[6-8]。例如,Khan等成功地運(yùn)用VGGNet-16和AlexNet分離出感染區(qū)域并提取病害特征,實(shí)現(xiàn)了高達(dá)98.6%的識別準(zhǔn)確率[9];Liu等設(shè)計(jì)了一種創(chuàng)新的特征提取結(jié)構(gòu),并通過引入密集連接策略顯著提高了葡萄葉病害的識別準(zhǔn)確性[10]。然而,大多數(shù)研究仍專注于單一類型的病害識別,限制了其在實(shí)際應(yīng)用中的廣泛性。
近年來,目標(biāo)檢測算法因能同時(shí)識別和定位多種病害而受到關(guān)注[11-13]。目標(biāo)檢測算法主要可分為兩大類:第1類是基于候選框的雙階段目標(biāo)檢測算法,如R-CNN、Fast R-CNN和Faster R-CNN[14-16]。這些算法首先從圖像中提取候選區(qū)域,然后進(jìn)行二次精細(xì)化,從而實(shí)現(xiàn)高精度的目標(biāo)檢測。如Khalifa等專門為馬鈴薯的早疫病和晚疫病設(shè)計(jì)了一種優(yōu)化的Faster-CNN模型[17];Zhang等成功地應(yīng)用改進(jìn)的Faster-CNN模型來診斷番茄的多種病害[18]。雖然這些算法在病害檢測精度上表現(xiàn)出色,卻因其復(fù)雜的計(jì)算結(jié)構(gòu),難以在移動(dòng)平臺上實(shí)現(xiàn)實(shí)時(shí)應(yīng)用。第2類是單階段目標(biāo)檢測算法,這類算法更加注重檢測速度,如YOLO系列和SSD[19-22],如趙越等成功地采用YOLO v3模型實(shí)現(xiàn)了馬鈴薯葉病害的準(zhǔn)確診斷[23];Rashid等則利用YOLO v5開發(fā)了一種多級檢測模型,并構(gòu)建了一個(gè)全新的病害檢測數(shù)據(jù)集[24]。Liu等的研究也展示了單階段目標(biāo)檢測算法在多種植物病害診斷中的有效性,這些算法更適合用于資源有限的設(shè)備[25-27]。
盡管現(xiàn)有目標(biāo)檢測算法在準(zhǔn)確性方面取得了顯著進(jìn)展,但在植物葉病害檢測領(lǐng)域,仍然存在3個(gè)未解決的關(guān)鍵問題。(1)大多數(shù)算法過分側(cè)重于特定數(shù)據(jù)集上的高準(zhǔn)確性,卻常常忽略了模型在資源有限的硬件平臺上的實(shí)用性,這就產(chǎn)生了一個(gè)實(shí)際問題:如何在不犧牲準(zhǔn)確性的前提下,優(yōu)化模型以適應(yīng)硬件限制;(2)現(xiàn)有研究往往未能充分考慮到自然環(huán)境下復(fù)雜的光照條件,這些變化容易引起色彩偏移,從而影響模型的檢測準(zhǔn)確性;(3)雖有理論突破,但嵌入式設(shè)備上的應(yīng)用幾乎是空白的,需驗(yàn)證其實(shí)用性和可行性。這些問題不僅是理論上的關(guān)注點(diǎn),也影響農(nóng)業(yè)實(shí)踐的效率和準(zhǔn)確性。
為解決以上問題,實(shí)現(xiàn)更精確和高效的馬鈴薯葉片病害檢測,本研究基于YOLOX架構(gòu)設(shè)計(jì)一種實(shí)時(shí)馬鈴薯葉片病害檢測模型。使用MobileNet v3作為模型的骨干網(wǎng)絡(luò),以減輕計(jì)算負(fù)擔(dān)和內(nèi)存需求,保證模型不僅在高性能計(jì)算環(huán)境中有效,同時(shí)也適用于資源受限的設(shè)備。為使模型在不同光照條件下都能保持較高的準(zhǔn)確率,設(shè)計(jì)一個(gè)V通道定位網(wǎng)絡(luò),生成一組與YOLOX模型預(yù)測層尺度相匹配的特征圖,以便更準(zhǔn)確地捕捉由光照引發(fā)的紋理和顏色變化,提高模型對光照變化的魯棒性。針對樣本不平衡問題,提出一種自適應(yīng)的懲罰系數(shù),加快模型的收斂速度,進(jìn)一步提升馬鈴薯葉片病害檢測的性能。最后將所提方法部署在嵌入式設(shè)備上,以驗(yàn)證其能否滿足實(shí)時(shí)和高精度的病害檢測需求。
1" 數(shù)據(jù)與方法
首先選定了一個(gè)合適的數(shù)據(jù)集并進(jìn)行了數(shù)據(jù)增強(qiáng),以模擬多種實(shí)際應(yīng)用場景。其次,基于YOLOX框架,開發(fā)一個(gè)針對馬鈴薯葉片病害的改進(jìn)識別算法。為全面驗(yàn)證模型性能,設(shè)計(jì)消融試驗(yàn)和與其他先進(jìn)方法的對比試驗(yàn),明確了模型的優(yōu)缺點(diǎn)。進(jìn)一步,將模型部署到嵌入式設(shè)備,驗(yàn)證其可行性和實(shí)用性。本研究框架如圖1所示。
1.1" 數(shù)據(jù)獲取與處理
本研究使用公開可獲取的PlantVillage數(shù)據(jù)集作為圖像數(shù)據(jù)源,該數(shù)據(jù)集含有54 309張高質(zhì)量圖像,覆蓋了14種不同農(nóng)作物,例如蘋果、藍(lán)莓、櫻桃、玉米等。本研究主要關(guān)注馬鈴薯葉片病害的自動(dòng)檢測,原始樣本圖片共2 152張,分辨率為256像素×256像素,主要包括早疫病、晚疫病和健康葉片這3個(gè)類別,其詳細(xì)描述見表1。
本研究將2 152張馬鈴薯葉片圖像依照 8 ∶1 ∶1 的比例分配到訓(xùn)練集、驗(yàn)證集和測試集中。鑒于樣本數(shù)量有限可能引發(fā)過擬合,采用CycleGAN[24]這一先進(jìn)的數(shù)據(jù)增強(qiáng)方法對訓(xùn)練樣本進(jìn)行優(yōu)化,主要通過旋轉(zhuǎn)、裁剪、翻轉(zhuǎn)等手段來增加樣本多樣性。增強(qiáng)后的數(shù)據(jù)集細(xì)節(jié)請參見表2。
為進(jìn)一步提高模型的準(zhǔn)確性和可靠性,使用Labelimg圖形注釋工具對表2中的圖像樣本進(jìn)行精細(xì)的手動(dòng)標(biāo)注。在每張圖像上,不論是健康或患病的葉片,都被準(zhǔn)確地用一個(gè)矩形邊界框標(biāo)出。其位置坐標(biāo)以(xmin,ymin,xmax,ymax)形式給出。其中(xmin,ymin)代表邊界框左上角的坐標(biāo),(xmax,ymax)代表邊界框右下角的坐標(biāo)。
經(jīng)過以上的數(shù)據(jù)處理和增強(qiáng),成功地?cái)U(kuò)大了樣本數(shù)量,為后續(xù)模型的訓(xùn)練打下了堅(jiān)實(shí)的基礎(chǔ)。
1.2" 馬鈴薯葉片病害檢測方法
馬鈴薯葉片病害檢測屬于目標(biāo)檢測任務(wù),其目的是在圖像中準(zhǔn)確定位和分類不同區(qū)域的病害。
為了適應(yīng)資源受限的設(shè)備環(huán)境,選用高效的YOLOX模型作為基線模型,進(jìn)一步設(shè)計(jì)一種更為高效和精準(zhǔn)的馬鈴薯葉片病害檢測模型[28]。該模型力求實(shí)現(xiàn)目標(biāo)檢測準(zhǔn)確性與計(jì)算效率之間的最優(yōu)平衡,確保在資源有限的應(yīng)用場合中仍能展示出卓越的性能。
1.2.1" YOLOX模型
YOLOX是一種不依賴先驗(yàn)框的單階段目標(biāo)檢測模型,其由CSPDarkNet53主干網(wǎng)絡(luò)、特征金字塔網(wǎng)絡(luò)(FPN)、路徑聚合網(wǎng)絡(luò)(PAN)和預(yù)測頭(Head)四大核心模塊組成[28-29]。這些模塊聯(lián)合工作,實(shí)現(xiàn)了對目標(biāo)檢測任務(wù)的高效準(zhǔn)確處理。
在YOLOX的工作流程中,CSPDarkNet53首先作為特征提取器,從輸入圖像中提取出基礎(chǔ)視覺特征。接著,F(xiàn)PN構(gòu)建了一個(gè)多層次的特征圖,實(shí)現(xiàn)了對不同尺寸和復(fù)雜度目標(biāo)的高效識別。它將主干網(wǎng)絡(luò)提取的高級和低級特征融合,增強(qiáng)對小目標(biāo)的檢測性能。PAN進(jìn)一步優(yōu)化以上流程,它通過上下采樣和橫向連接,強(qiáng)化FPN中不同層級特征圖之間的信息傳遞,提升模型在多尺度目標(biāo)檢測上的表現(xiàn)。最后,Head的Cls分支對目標(biāo)框內(nèi)的對象進(jìn)行屬性分類并預(yù)測類別概率;Reg分支預(yù)測目標(biāo)框的精確坐標(biāo);Obj分支判斷目標(biāo)框內(nèi)對象是前景還是背景。這3個(gè)分支共同輸出目標(biāo)的分類標(biāo)簽和具體的邊界框坐標(biāo),完成目標(biāo)的最終分類和定位。總體而言,YOLOX模型在復(fù)雜場景和多尺度目標(biāo)檢測方面表現(xiàn)優(yōu)秀,但也存在一些不足,如計(jì)算復(fù)雜度高和對復(fù)雜光照、低對比度環(huán)境的識別能力有限。盡管一些研究嘗試通過引入通道注意力機(jī)制來改善這些問題,提高模型對關(guān)鍵特征的敏感性和整體的檢測精度,但這些改進(jìn)仍有局限性。
為進(jìn)一步提升模型的性能和適用范圍,本研究基于前人的工作進(jìn)行了一系列創(chuàng)新性的優(yōu)化。首先,用輕量級的MobileNet v3網(wǎng)絡(luò)替代原始的CSPDarkNet53主干網(wǎng)絡(luò)。這一改變旨在減少計(jì)算負(fù)擔(dān)并提高模型在資源受限環(huán)境下的運(yùn)行效率。其次,引入V通道網(wǎng)絡(luò)以增強(qiáng)模型在復(fù)雜光照條件下的目標(biāo)檢測準(zhǔn)確性。最后,設(shè)計(jì)一種自適應(yīng)的交叉熵?fù)p失函數(shù),以提升模型的魯棒性,同時(shí)增加模型的識別準(zhǔn)確性。
1.2.2nbsp; 輕量化骨干網(wǎng)絡(luò)
為優(yōu)化模型的計(jì)算效率和實(shí)時(shí)性能,選用更為輕量級的MobileNet v3網(wǎng)絡(luò)替代原有的CSPDarkNet53主干網(wǎng)絡(luò)[30],其基本結(jié)構(gòu)如圖2所示。
MobileNet v3繼承了MobileNet v1和v2的核心優(yōu)點(diǎn),尤其突出了深度可分離卷積(Depthwise Separable Convolutions,簡稱DSC)和反向殘差塊的應(yīng)用。DSC是一種高效的卷積方法,它通過分解傳統(tǒng)卷積操作以減少計(jì)算量。具體而言,DSC首先在每個(gè)輸入通道上獨(dú)立應(yīng)用卷積,然后再通過1×1的點(diǎn)態(tài)卷積將這些通道的輸出合并。這樣做的優(yōu)勢是,與傳統(tǒng)的3×3卷積相比,DSC能夠?qū)⒂?jì)算量減少到原來的1/9到1/8。
MobileNet v3還解決了非線性激活函數(shù)可能對低維特征造成的不良影響。具體地,其反向殘差塊通過2次1×1的卷積操作實(shí)現(xiàn)特征維度的先升后降,以此減輕激活函數(shù)對原始特征的影響。此外,MobileNet v3的反向殘差塊還引入了信道注意力模塊(squeeze-and-excitation,SE)以提升網(wǎng)絡(luò)對顯著性特征的識別能力。
1.2.3" V通道網(wǎng)絡(luò)
為更有效地捕捉馬鈴薯葉片病害的紋理信息,引入了一種基于HSV顏色空間的特征提取策略。該策略致力于解決在自然環(huán)境下,由于光線、遮擋和陰影等因素,造成的圖像亮度變化問題。3種馬鈴薯葉病害的HSV顏色空間如圖3所示。
在自然環(huán)境下捕獲的圖像常受到自然光、遮擋和陰影等因素的影響,導(dǎo)致對亮度極為敏感。而在RGB顏色空間(圖3-a)中,這些細(xì)微的亮度變化往往難以準(zhǔn)確捕捉。為此,本文在RGB基礎(chǔ)之上加入了一個(gè)HSV顏色空間分支,如圖3-b、圖3-d、圖3-e所示。在HSV顏色空間中,H(色相)通道描述顏色在光譜中的位置,其值域范圍為0°~360°,S(飽和度)通道反映所選顏色的純度與其最大純度之間的比例,V(明度)通道反映了顏色的亮暗信息,其取值范圍為0~1。
在馬鈴薯葉片病害檢測中,H通道和S通道對顏色類型和純度有良好的識別,但它們?nèi)菀资艿阶匀画h(huán)境中光照和陰影的影響,導(dǎo)致特征信息的丟失或削弱。相較之下,V通道專注于顏色的明暗度,具有更高的敏感性和穩(wěn)健性,特別是在復(fù)雜的光照條件下。這使得V通道成為一個(gè)理想的選擇,能夠更準(zhǔn)確地捕捉和定位與病害相關(guān)的紋理信息。為此,本研究設(shè)計(jì)一個(gè)專門的V通道定位網(wǎng)絡(luò),其中采用了最大池化操作進(jìn)行降采樣。這不僅減少了計(jì)算的復(fù)雜性,還生成了一組與YOLOX模型預(yù)測層尺度相匹配的特征圖。這種設(shè)計(jì)精準(zhǔn)地捕捉了與紋理相關(guān)的位置信息,從而提高了模型在復(fù)雜環(huán)境下的病害檢測精度。
1.2.4" 自適應(yīng)交叉熵?fù)p失
原始YOLOX模型采用BCELoss函數(shù)進(jìn)行訓(xùn)練,主要用于類別預(yù)測和置信度預(yù)測,其數(shù)學(xué)表達(dá)式如公式(1)和公式(2)所示。
Li=-yilnyi′-(1-yi)ln(1-yi′)
=-lnyi′,""""" yi=1
-ln(1-yi′),yi=0;(1)
LBCE=1n∑ni=1Li 。(2)
式中:Li為像素i生成的LBCE值;yi為像素i的真實(shí)標(biāo)簽,正標(biāo)簽為1,負(fù)標(biāo)簽為0,表示前景對象類別和背景;yi′為像素i的預(yù)測值,取值范圍為[0,1];n為總像素?cái)?shù)。
BCELoss鼓勵(lì)模型對每個(gè)樣本的預(yù)測結(jié)果和實(shí)際標(biāo)簽接近。但這種損失函數(shù)并不考慮數(shù)據(jù)中各類別樣本的分布情況。因此,當(dāng)面對數(shù)據(jù)分布嚴(yán)重不平衡的場景時(shí),僅依賴BCELoss可能會(huì)導(dǎo)致模型的預(yù)測存在顯著的偏見,特別是對少數(shù)樣本的類別。從表2中的馬鈴薯葉片樣本數(shù)據(jù)可以明顯看出,類別不平衡的問題是非常突出的。如果單純地使用BCELoss作為損失函數(shù)進(jìn)行訓(xùn)練,可能會(huì)導(dǎo)致模型對多數(shù)樣本的類別過度擬合,而忽視了少數(shù)樣本的類別,進(jìn)而導(dǎo)致嚴(yán)重的識別偏差。為此,本文提出了一種樣本自適應(yīng)的交叉熵?fù)p失函數(shù),該函數(shù)通過一個(gè)自適應(yīng)懲罰系數(shù)進(jìn)行動(dòng)態(tài)權(quán)重調(diào)整。具體的數(shù)學(xué)表達(dá)式為公式(3)至公式(6)。
α=arctanP+NP+δ" y=1
arctanP+NN+δy=0," α∈[0,π2];(3)
β=sinα,β∈[0,1];(4)
BCELossβ=-βylny′-β(1-y)ln(1-y′);(5)
LBCE-β=11+exp(BCELossβ)。(6)
式中:β為樣本自適應(yīng)懲罰系數(shù);LBCE-β為樣本自適應(yīng)交叉熵?fù)p失函數(shù);P為網(wǎng)絡(luò)訓(xùn)練反饋的正樣本量總數(shù);N為網(wǎng)絡(luò)訓(xùn)練反饋的總負(fù)樣本量;δ為最小值。
樣本自適應(yīng)懲罰系數(shù)的引入使得損失函數(shù)能夠根據(jù)訓(xùn)練過程中正負(fù)樣本的數(shù)量進(jìn)行自適應(yīng)調(diào)整。例如,當(dāng)健康葉片的數(shù)量較少時(shí),該系數(shù)會(huì)增加健康葉片在損失函數(shù)中的權(quán)重,從而強(qiáng)化模型對少數(shù)類的識別能力。反之,如果病害葉片數(shù)量減少,病害葉片的權(quán)重會(huì)相應(yīng)提升。這種動(dòng)態(tài)調(diào)整機(jī)制有助于模型在不同階段保持正負(fù)樣本間的平衡,從而提高模型的穩(wěn)定性和準(zhǔn)確性。此外,還使用了Sigmoid函數(shù)作為激活函數(shù),以確保損失值輸出在[0,1]范圍內(nèi),進(jìn)一步增強(qiáng)模型的訓(xùn)練穩(wěn)定性。
1.2.5" 馬鈴薯葉片病害檢測模型框架
馬鈴薯葉片病害檢測模型結(jié)構(gòu)如圖4所示,由6個(gè)核心模塊組成,包括主干網(wǎng)絡(luò)(Backbonew)、V字通道(V channel)、注意力通道(CBAM)、特征金字塔網(wǎng)絡(luò)(FPN)、路徑聚合網(wǎng)絡(luò)(PAN)和預(yù)測頭(Detection head)。本研究使用MobileNet v3網(wǎng)絡(luò)作為主干特征提取,并引入V字通道生成一組與主干網(wǎng)絡(luò)尺度相配的特征圖,以便更準(zhǔn)確地捕捉由光照引發(fā)的紋理和顏色變化,其他模塊和原有YOLOX模型保持一致。
2" 馬鈴薯葉片病害檢測試驗(yàn)
2.1" 試驗(yàn)環(huán)境
本試驗(yàn)將使用一臺配置較高的計(jì)算機(jī)進(jìn)行所有模型訓(xùn)練,以確保結(jié)果的一致性和可靠性。該機(jī)器配備了12代英特爾酷睿i5-12400F CPU、NVIDIA GeForce RTX 3060 GPU以及16 GB的運(yùn)行內(nèi)存。軟件環(huán)境方面,選擇了Ubuntu 20.04作為操作系統(tǒng),使用VScode作為編譯器工具,并采用了支持CUDA 11.3的PyTorch 1.10.1框架。此次試驗(yàn)于2023年8月25日于許昌電氣職業(yè)學(xué)院信息工程系227實(shí)驗(yàn)室完成。
2.2" 評價(jià)指標(biāo)
在本研究中,模型性能的評估采用了多角度的指標(biāo)。首先,使用平均精度均值(mean average precision,簡稱mAP)來衡量模型在識別和分類馬鈴薯葉片病
害方面的準(zhǔn)確性。mAP是一個(gè)綜合性的指標(biāo),它計(jì)算了模型在所有類別上平均檢測精度的平均值。具體而言,mAP是根據(jù)召回率(recall,R)和精度(precision,P)在各個(gè)類別上計(jì)算的AP值的平均,其數(shù)學(xué)定義見公式(7)和公式(8),其中M表示病害類別。在這里,選用0.5作為評估標(biāo)準(zhǔn)。
AP=∫10P(R)dR;(7)
mAP=∑Mj=1APjM。(8)
除了關(guān)注模型的精度,還重點(diǎn)考慮了其計(jì)算效率和實(shí)用性。在這方面,模型的浮點(diǎn)運(yùn)算次數(shù)(FLOPs)和內(nèi)存(Size)被用作2個(gè)關(guān)鍵指標(biāo),用以衡量模型對計(jì)算資源的需求程度。低FLOPs數(shù)值通常意味著模型更為輕量級,因此更適用于資源受限的環(huán)境。同時(shí),也采用單幀圖像識別速度(FPS)作為另一個(gè)評價(jià)指標(biāo),以量化模型的實(shí)時(shí)性和識別效率。高FPS值表明模型能夠在短時(shí)間內(nèi)處理更多的圖像,這在需要實(shí)時(shí)反饋的應(yīng)用場景中具有非常重要的意義。通過這2個(gè)綜合性指標(biāo),不僅可以全面評估模型的性能,還能更準(zhǔn)確地確定其在實(shí)際應(yīng)用中的適用性和局限性。
2.3" 模型訓(xùn)練
模型訓(xùn)練涉及多個(gè)設(shè)置和參數(shù)。具體來說,訓(xùn)練總共進(jìn)行了200個(gè)epoch,每個(gè)批次的大小設(shè)置為4,優(yōu)化器選用SGD。輸入圖像的尺寸是224像素×224像素,學(xué)習(xí)速率設(shè)置為0.001,權(quán)重衰減因子為0.000 5,而動(dòng)量因子為0.937。
圖5-a展示了在200個(gè)epoch內(nèi),訓(xùn)練和驗(yàn)證損失的變化情況。盡管起初的損失值較高,但隨著epoch數(shù)量的增加,損失值逐漸減少,大約在150個(gè)epoch后趨于穩(wěn)定。同時(shí),訓(xùn)練與驗(yàn)證損失在整個(gè)過程中保持了相對的一致性,表明模型既沒有出現(xiàn)過擬合也沒有出現(xiàn)欠擬合。進(jìn)一步地,圖5-b顯示
了模型在訓(xùn)練集上的mAP隨損失減小而逐步提高。在完成150個(gè)epoch后,mAP值基本穩(wěn)定,并在200個(gè)epoch時(shí)達(dá)到了高達(dá)98.6%的準(zhǔn)確度。
3" 結(jié)果與分析
3.1" 分類結(jié)果分析
為直觀地展示優(yōu)化后的YOLOX模型在馬鈴薯葉片病害數(shù)據(jù)集上的識別與分類性能,根據(jù)測試集結(jié)果繪制了一張混淆矩陣,詳見圖6。從總體表現(xiàn)來看,該模型在識別晚疫病和健康葉片方面幾乎達(dá)到了完美的準(zhǔn)確率。然而,在早疫病的識別上,部分樣本被錯(cuò)誤地歸為晚疫病,這可能源于早疫病和晚疫病在某些特征,如顏色和紋理等方面的相似性,從而導(dǎo)致模型在區(qū)分這2種病害時(shí)出現(xiàn)一定程度的混淆。盡管如此,考慮到植物病害識別本身的復(fù)雜性和挑戰(zhàn)性,該模型的整體表現(xiàn)仍然較為出色。
3.2" 消融試驗(yàn)
本研究設(shè)計(jì)的馬鈴薯葉片病害檢測模型,是在先進(jìn)檢測模型YOLOX框架上進(jìn)行了一系列創(chuàng)新性的改進(jìn)。具體而言,所提模型以更輕量級MobileNet
v3網(wǎng)絡(luò)替換原有的CSPDarkNet53網(wǎng)絡(luò),同時(shí)引入V通道定位網(wǎng)絡(luò),并提出一種自適應(yīng)的交叉熵?fù)p失函數(shù)(LBCE-β),以實(shí)現(xiàn)更加精準(zhǔn)和高效的馬鈴薯葉病害檢測。為了量化這些改進(jìn)措施帶來的性能提升,試驗(yàn)對比使用CSPDarkNet53與MobileNet v3作為骨干網(wǎng)絡(luò)時(shí),V通道定位網(wǎng)絡(luò)和自適應(yīng)交叉熵?fù)p失函數(shù)對模型性能的具體影響,各性能指標(biāo)如表3所示。
由表3可知,當(dāng)使用更輕量級的MobileNet v3作為檢測模型的骨干網(wǎng)絡(luò),相對于傳統(tǒng)的CSPDarkNet53,模型在多個(gè)性能指標(biāo)上都有明顯提升。具體來說,模型的mAP從93.87%增加到95.44%,實(shí)現(xiàn)1.57百分點(diǎn)的提升。更值得注意的是,模型的浮點(diǎn)運(yùn)算次數(shù)(FLOPs)從25.77×109次大幅降低到14.51×109次,減少了43.69%;內(nèi)存從75.15 MB降低到 48.64 MB,降低了35.28%,這意味著模型在保持高準(zhǔn)確率的同時(shí),顯著減少了計(jì)算復(fù)雜性和空間資源需求。此外,模型的單幀識別速度(FPS)從92.15幀/s提升至127.20幀/s,提高38.03%,表明模型在實(shí)時(shí)性和識別效率方面也有顯著改進(jìn)。
進(jìn)一步觀察表3,可以明確地看出引入V通道定位網(wǎng)絡(luò)和自適應(yīng)交叉熵?fù)p失函數(shù)(LBCE-β)對模型精度具有正向積極的作用。以CSPDarkNet53為基礎(chǔ)的模型在引入這2項(xiàng)改進(jìn)后,其mAP值從93.87%提升至96.15%,增幅為2.28百分點(diǎn)。而以MobileNet v3為基礎(chǔ)的模型則從95.44%提升至98.55%,增幅為3.11百分點(diǎn)。值得一提的是,這2項(xiàng)改進(jìn)幾乎沒有增加模型的計(jì)算負(fù)擔(dān)。具體來說,無論是FLOPs、Size還是FPS,三者的變化都相對微小,這進(jìn)一步證實(shí)了這些改進(jìn)措施在提高精度的同時(shí),并沒有對模型的計(jì)算效率和實(shí)時(shí)性造成不利影響。
綜上,V通道定位網(wǎng)絡(luò)和自適應(yīng)交叉熵?fù)p失函數(shù)的引入對模型的整體性能有所提升,尤其在采用MobileNet v3為骨干網(wǎng)絡(luò)的情況下,這一效果更為顯著。這不僅進(jìn)一步證明了本研究所提改進(jìn)策略的有效性,也表明了這些策略在實(shí)際應(yīng)用中具有更廣泛的適用性和優(yōu)越性,確保了本研究提出的檢測模型在馬鈴薯葉病害檢測任務(wù)上有著更出色的表現(xiàn)。
3.3" 對比試驗(yàn)
為進(jìn)一步評估所提出改進(jìn)YOLOX模型在目標(biāo)檢測方面的性能,在相同的數(shù)據(jù)集和硬件配置條件下,依據(jù)控制變量法原則,進(jìn)行了一系列對比試驗(yàn)。這些對比試驗(yàn)涵蓋了多種主流的目標(biāo)檢測算法,包括Faster RCNN、SSD、RetinaNet、YOLO v5,以及原始版本的YOLOX模型。圖7詳細(xì)呈現(xiàn)了各檢測模型在4個(gè)關(guān)鍵評估指標(biāo)上的性能比較。
在馬鈴薯葉病害檢測任務(wù)中,本研究的改進(jìn)YOLOX模型在mAP方面表現(xiàn)出色,達(dá)到了98.55%。這一結(jié)果顯著優(yōu)于目前主流的其他目標(biāo)檢測算法,如Faster RCNN的97.27%。值得注意的是,盡管Faster RCNN在精度上與改進(jìn)的YOLOX接近,但在計(jì)算效率和實(shí)時(shí)性方面明顯不足。
在計(jì)算復(fù)雜度方面,改進(jìn)的YOLOX只需 14.63×109 浮點(diǎn)運(yùn)算次數(shù)(FLOPs)就能完成高精度的馬鈴薯葉病害檢測,遠(yuǎn)低于Faster RCNN的75.62×109浮點(diǎn)運(yùn)算次數(shù)(FLOPs)和RetinaNet的87.6×109浮點(diǎn)運(yùn)算次數(shù)(FLOPs)。這一優(yōu)勢在實(shí)際應(yīng)用中尤為重要,尤其是在需要快速、準(zhǔn)確診斷的農(nóng)業(yè)場景中。
在模型所占內(nèi)存方面,改進(jìn)的YOLOX模型僅為49.35 MB,遠(yuǎn)小于Faster RCNN (317.49 MB)和RetinaNet(292.3 MB)。這意味著在邊緣計(jì)算或嵌入式系統(tǒng)中,改進(jìn)的YOLOX模型更易于部署。最后,單幀識別速度上,改進(jìn)的YOLOX以125.92幀/s的速度運(yùn)行,遠(yuǎn)高于其他所有模型。這一點(diǎn)對于實(shí)時(shí)馬鈴薯疫病檢測尤為關(guān)鍵,可以有效地指導(dǎo)農(nóng)民及時(shí)采取防治措施。
綜合以上評估指標(biāo),改進(jìn)的YOLOX模型在馬鈴薯疫病檢測方面表現(xiàn)卓越,不僅在準(zhǔn)確性上達(dá)到了高水平,同時(shí)也在計(jì)算復(fù)雜度、模型體積和實(shí)時(shí)性方面展示了明顯優(yōu)勢。相較于Faster RCNN、SSD、RetinaNet以及原始版本的YOLOX,改進(jìn)的YOLOX在綜合性能上具有明顯優(yōu)勢。因此,該模型在馬鈴薯疫病檢測的研究和應(yīng)用中具有極高的價(jià)值。
3.4" 馬鈴薯葉病害檢測
本研究所提的基于YOLOX的改進(jìn)模型進(jìn)行了馬鈴薯葉病害的詳細(xì)檢測和分類。圖8展示了模型在多種場景下的高效性和準(zhǔn)確性。模型成功區(qū)分了早疫病、晚疫病和健康葉片3類,并在各自的3個(gè)不同實(shí)例上進(jìn)行了有效驗(yàn)證。即便在早疫病和晚疫病的微小病變區(qū)域內(nèi),模型也展現(xiàn)了高度的敏感性和精確度。在所有測試場景中,模型的置信度得分最低達(dá)到了0.91。這一出色表現(xiàn)可歸功于模型采用的先進(jìn)骨干網(wǎng)絡(luò)MobileNet v3,以及新增的V通道定位網(wǎng)絡(luò)和自適應(yīng)交叉熵?fù)p失函數(shù)。這些改進(jìn)不僅增強(qiáng)了模型的特征提取能力,還提升了其分類精度。值得一提的是,模型即便在健康葉片出現(xiàn)非病害性質(zhì)破損的情況下,也能進(jìn)行準(zhǔn)確分類,進(jìn)一步證實(shí)了其魯棒性??傮w而言,本模型在精確度和敏感性上達(dá)到了高標(biāo)準(zhǔn),特別是在處理復(fù)雜和微小的病害特征方面表現(xiàn)優(yōu)異,顯示出廣泛的應(yīng)用潛力。
3.5" 嵌入式裝置中馬鈴薯葉片病害的檢測效果
為實(shí)際評估改進(jìn)的YOLOX模型在馬鈴薯葉病害檢測中的性能,采用NVIDIA Jetson Nano作為邊緣計(jì)算平臺。該設(shè)備與農(nóng)業(yè)檢查機(jī)器人和馬鈴薯葉病害識別系統(tǒng)相結(jié)合,能夠在現(xiàn)場實(shí)時(shí)識別并標(biāo)記出受病害的馬鈴薯葉片。軟件環(huán)境包括TensorRT-7.1.3.0和JetPack-4.4.1,圖像輸入大小設(shè)置為224像素×224像素。通過TensorRT的模型量化和優(yōu)化,本文在Jetson Nano上進(jìn)行了模型檢測精度(mAP)和推理速度(FPS)測試。由于計(jì)算資源有限,嵌入式裝置測試中只測試了計(jì)算效率和體積較小的原始YOLOX和改進(jìn)的YOLOX模型,結(jié)果如表4所示。
表4對比了在嵌入式設(shè)備NVIDIA Jetson Nano上,原始YOLOX模型和改進(jìn)的YOLOX模型在mAP與FPS方面的性能。數(shù)據(jù)顯示,改進(jìn)的YOLOX在mAP方面從94.17%上升至98.55%,F(xiàn)PS也從2.17幀/s增加至3.94幀/s。更值得注意的是,在利用TensorRT加速后,該模型在保持相同mAP的同時(shí),F(xiàn)PS大幅提升至10.37幀/s。這些結(jié)果明確證實(shí)了改進(jìn)的YOLOX模型在精度和速度上都有顯著提升。尤其在應(yīng)用TensorRT加速之后,模型速度近乎提升了5倍,從而更有效地滿足了馬鈴薯葉片病害檢測的實(shí)時(shí)性需求。綜合來看,改進(jìn)的YOLOX模型在嵌入式環(huán)境中表現(xiàn)出了高效和高準(zhǔn)確度,具有很高的應(yīng)用潛力。
4nbsp; 結(jié)論與討論
為精確高效地檢測馬鈴薯葉病害,提出一種基于改良YOLOX架構(gòu)的先進(jìn)識別方法。該方法以輕量級MobileNet v3替代原有的CSPDarkNet53,優(yōu)化了特征識別和計(jì)算效率;結(jié)合V通道定位網(wǎng)絡(luò),精確捕捉紋理信息;并應(yīng)用自適應(yīng)交叉熵?fù)p失函數(shù)解決了樣本不平衡問題,從而增強(qiáng)了模型的魯棒性和準(zhǔn)確性。
試驗(yàn)數(shù)據(jù)進(jìn)一步證實(shí)了本研究中改進(jìn)YOLOX模型的顯著性能提升。該模型在mAP方面達(dá)到了98.55%,比原始YOLOX模型提高了4.38百分點(diǎn)。在計(jì)算效率方面,模型的FLOPs為14.63×109次,內(nèi)存占用僅為 49.35 MB,分別比原始模型降低了11.14×109次和25.80 MB。此外FPS提升到125.92幀/s,比原始模型快了36.65%。綜合性能對比分析也表明,改進(jìn)的YOLOX模型與FasterCNN、SSD、RetinaNet和YOLO v5等主流檢測模型相比,具有明顯的優(yōu)勢。
在嵌入式平臺測試中,改進(jìn)YOLOX模型平均準(zhǔn)確率為98.55%,相比原始YOLOX模型提高了4.38百分點(diǎn)。進(jìn)一步采用TensorRT加速后模型的檢測速度為10.37幀/s,實(shí)時(shí)檢測速度得到顯著提升。
綜上,本研究提出的改進(jìn)YOLOX模型在準(zhǔn)確率、計(jì)算效率和速度方面都表現(xiàn)出色,不僅能推動(dòng)農(nóng)業(yè)病害檢測技術(shù)的進(jìn)一步發(fā)展,也為相關(guān)領(lǐng)域提供了有價(jià)值的參考和啟示。
本研究所提出的方法適用于公開的葉片數(shù)據(jù)集,但并未涉及受到實(shí)際光照等復(fù)雜環(huán)境影響的農(nóng)田葉片數(shù)據(jù)。下一步,可利用無人機(jī)采集農(nóng)田葉片數(shù)據(jù)集進(jìn)行處理與測試,使模型可以更好地應(yīng)用于農(nóng)田生產(chǎn)實(shí)踐。另外,可考慮使用一些傳統(tǒng)機(jī)器學(xué)習(xí)與深度學(xué)習(xí)方法與本研究方法進(jìn)行對比,以改進(jìn)或選擇最適于分析農(nóng)田環(huán)境下由無人機(jī)采集的葉片圖像的算法。
參考文獻(xiàn):
[1]趙丙秀,董" 寧. 基于WOA-BP神經(jīng)網(wǎng)絡(luò)下馬鈴薯產(chǎn)量預(yù)測分析模型[J]. 農(nóng)機(jī)化研究,2024,46(3):47-51.
[2]劉崇林,趙勝雪,胡" 軍,等. 兩種淀粉薯收獲期莖稈機(jī)械特性的試驗(yàn)研究[J]. 農(nóng)機(jī)化研究,2020,42(6):117-122.
[3]胡新元,孫小花,羅愛花,等. 葉面噴施硫酸鋅對馬鈴薯抗病性和產(chǎn)量的影響[J]. 西北農(nóng)業(yè)學(xué)報(bào),2023,32(8):1187-1193.
[4]王" 凡,李永玉,彭彥昆,等. 便攜式馬鈴薯多品質(zhì)參數(shù)局部透射光譜無損檢測裝置[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2018,49(7):348-354.
[5]劉二龍,魏" 霜,關(guān)麗軍,等. 馬鈴薯成分微滴數(shù)字聚合酶鏈?zhǔn)椒磻?yīng)定量檢測方法建立[J]. 糧食與油脂,2021,34(3):120-123.
[6]Minaee S,Boykov Y,Porikli F,et al. Image segmentation using deep learning:a survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2022,44(7):3523-3542.
[7]Zhao Z Q,Zheng P,Xu S T,et al. Object detection with deep learning:a review[J]. IEEE Transactions on Neural Networks and Learning Systems,2019,30(11):3212-3232.
[8]Chen X,Wan M J,Ma C,et al. Recognition of small targets in remote sensing image using multi-scale feature fusion-based shot multi-box detector[J]. Optics and Precision Engineering,2021,29(11):2672-2682.
[9]Khan M A,Akram T,Sharif M,et al. CCDF:automatic system for segmentation and recognition of fruit crops diseases based on correlation coefficient and deep CNN features[J]. Computers and electronics in agriculture,2018,155:220-236.
[10]Liu B,Ding Z F,Tian L L,et al. Grape leaf disease identification using improved deep convolutional neural networks[J]. Frontiers in Plant Science,2020,11:1082.
[11]Abbas A,Jain S,Gour M,et al. Tomato plant disease detection using transfer learning with C-GAN synthetic images[J]. Computers and Electronics in Agriculture,2021,187:106279.
[12]Zhang K K,Wu Q F,Chen Y P.Detecting soybean leaf disease from synthetic image using multi-feature fusion faster R-CNN[J]. Computers and Electronics in Agriculture,2021,183:106064.
[13]Saeed A,Abdel-Aziz A A,Mossad A,et al. Smart detection of tomato leaf diseases using transfer learning-based convolutional neural networks[J]. Agriculture,2023,13(1):139.
[14]Girshick R,Donahue J,Darrell T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition,Columbus,OH,USA. IEEE,2014:580-587.
[15]Girshick R. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision (ICCV).Santiago,Chile.IEEE,2015:1440-1448.
[16]Ren S Q,He K M,Girshick R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transations on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.
[17]Khalifa N E M,Taha M H N,Abou El-Maged L M,et al. Artificial intelligence in potato leaf disease classification:a deep learning approach[M]//Hassanien A E,Darwish A. Machine learning and big data analytics paradigms:analysis,applications and challenges. Cham:Springer International Publishing,2021:63-79.
[18]Zhang Y,Song C L,Zhang D W. Deep learning-based object detection improvement for tomato disease[J]. IEEE Access,2020,8:56607-56614.
[19]Redmon J,Divvala S,Girshick R,et al. You only look once:unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Las Vegas,NV,USA.IEEE,2016:779-788.
[20]Redmon J,F(xiàn)arhadi A. YOLO9000:better,faster,stronger[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Honolulu,HI,USA.IEEE,2017:6517-6525.
[21]朱" 格,徐" 燕,孫瑩瑩,等. Darknet深度學(xué)習(xí)框架下基于YOLO v3的病蟲害識別和農(nóng)藥噴灑系統(tǒng)[J]. 農(nóng)業(yè)與技術(shù),2023,43(10):33-38.
[22]Liu W,Anguelov D,Erhan D,et al. SSD:single shot MultiBox detector[M]//Leibe B,Matas J,Sebe N,et al. Computer vision-ECCV 2016.Cham:Springer International Publishing,2016:21-37.
[23]趙" 越,趙" 輝,姜永成,等. 基于深度學(xué)習(xí)的馬鈴薯葉片病害檢測方法[J]. 中國農(nóng)機(jī)化學(xué)報(bào),2022,43(10):183-189.
[24]Rashid J,Khan I,Ali G,et al. Multi-level deep learning model for potato leaf disease recognition[J]. Electronics,2021,10(17):2064.
[25]Liu J,Wang X W. Tomato diseases and pests detection based on improved YOLY v3 convolutional neural network[J]. Frontiers in Plant Science,2020,11:898.
[26]宋" 玲,曹" 勉,胡小春,等. 基于YOLOX的復(fù)雜背景下木薯葉病害檢測方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2023,54(3):301-307.
[27]劉延鑫,王俊峰,杜傳印,等. 基于YOLO v3的多類煙草葉部病害檢測研究[J]. 中國煙草科學(xué),2022,43(2):94-100.
[28]張劍飛,柯" 賽. 基于YOLOX-s的農(nóng)業(yè)害蟲檢測研究[J]. 計(jì)算機(jī)技術(shù)與發(fā)展,2023,33(5):208-213.
[29]沈志豪,劉金江,張建洋. 基于改進(jìn)YOLOX-s的田間麥穗檢測及計(jì)數(shù)[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(12):164-171.
[30]Howard A,Sandler M,Chen B,et al. Searching for MobileNet v3[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV).Seoul,Korea (South).IEEE,2019:1314-1324.