施杰 林雙雙 羅建剛 楊琳琳 張毅杰 顧麗春
摘要:針對玉米作物病蟲害目標(biāo)檢測中由于圖像背景復(fù)雜、無關(guān)因素干擾較多而導(dǎo)致的對病蟲害目標(biāo)檢測效果不理想等問題,采用深度學(xué)習(xí)技術(shù),提出一種基于YOLO v5s改進模型的玉米作物病蟲害檢測方法。該方法通過引入無參SimAM注意力機制對YOLO v5s模型進行改進,利用該機制能更全面地評估模型特征權(quán)重,以增強玉米病蟲害的特征,削弱復(fù)雜背景和無關(guān)信息的干擾,從而提高模型的檢測性能。同時,將模型的損失函數(shù)由CIOU替換為EIOU,可使病蟲害預(yù)測框更加接近真實框,以提升模型檢測的準(zhǔn)確率。通過自建的玉米病蟲害數(shù)據(jù)集對模型進行試驗對比,結(jié)果表明,YOLO v5s(EIOU+SimAM)改進模型的精確率為94.6%,召回率為83.4%,平均精度均值為90.1%。經(jīng)比較發(fā)現(xiàn),改進模型比原始模型在上述3個指標(biāo)方面分別提升了5.4、0.5、1.9百分點,說明YOLO v5s(EIOU+SimAM)模型對玉米病蟲害檢測具有較強的魯棒性和泛化性。
關(guān)鍵詞:玉米作物病蟲害;YOLO v5s改進模型;注意力機制;EIOU;目標(biāo)檢測
中圖分類號:S126;TP391.41? 文獻標(biāo)志碼:A
文章編號:1002-1302(2023)24-0175-09
玉米是我國主要的糧食作物,其種植面積和產(chǎn)量長期穩(wěn)居三大谷物之首。近年來,玉米飼用消費和工業(yè)消費均持續(xù)增長,玉米產(chǎn)業(yè)的健康穩(wěn)定發(fā)展對國家糧食安全意義重大[1]。研究發(fā)現(xiàn),玉米生長期間的病蟲害問題是影響其產(chǎn)量、質(zhì)量的主要因素。因此,對玉米常見病蟲害進行早期診斷與防治是獲得玉米豐產(chǎn)的重要措施[2-3]。
農(nóng)作物在種植期間的傳統(tǒng)管理模式主要依靠人工來觀測病蟲害,存在主觀性強、工作量大等問題。隨著人工智能和大數(shù)據(jù)技術(shù)的不斷發(fā)展,利用基于深度學(xué)習(xí)的機器視覺技術(shù)對圖像形狀、顏色及紋理等特征信息進行提取,能夠有效解決農(nóng)作物種植期間病蟲害檢測準(zhǔn)確率低、效率低等問題,也是農(nóng)作物種植管理智能化的重要研究方向[4-7]。目前,國內(nèi)外研究者在將深度學(xué)習(xí)和機器視覺技術(shù)應(yīng)用于農(nóng)作物管理方面開展了大量研究。Woebbecke等通過圖像數(shù)字化對葉片形態(tài)特征進行識別與檢測,實現(xiàn)了對單子葉植物與雙子葉植物的分類,其準(zhǔn)確率達到60%~80%[8]。El-Faki等研究了一種基于顏色特征的雜草識別方法,具有不易受拍攝距離、遮擋等因素影響的優(yōu)點,試驗結(jié)果表明,該方法對小麥、雜草的識別率分別達到了54.9%、62.2%[9]。毛文華等研究了玉米葉苗期植株、株心具有的不同特征,提出了一種利用玉米株心顏色特征識別田間雜草的方法,結(jié)果顯示,玉米植株、雜草的正確識別率平均分別為88%、84%[10]。孟慶寬等提出一種基于輕量卷積神經(jīng)網(wǎng)絡(luò)結(jié)合特征信息融合機制的改進單步多框檢測器模型,通過構(gòu)建輕量化前置基礎(chǔ)網(wǎng)絡(luò)替代SSD模型中的VGG16網(wǎng)絡(luò)以提高圖像特征提取速度,將深層語義信息與淺層語義信息進行融合以提高對小尺寸作物與雜草的檢測準(zhǔn)確率,最終結(jié)果顯示,平均精度均值為88.27%,同時檢測速度與參數(shù)量有較大改善[11]。徐會杰等提出了YOLO v3-Corn的玉米葉片病蟲害檢測模型,該模型使用Darkknet-53作為特征提取網(wǎng)絡(luò),并用聚類算法選取先驗框分別匹配到檢測層中進行目標(biāo)識別,模型檢測的精度、召回率分別為93.31%、93.08%[12]。胡文澤等研究了玉米幼苗的檢測問題,對Cascade R-CNN模型進行了改進,使用殘差網(wǎng)絡(luò)和特征金字塔作為特征提取器,使玉米幼苗檢測的平均精度達到91.76%[13]。
綜上所述,目前的研究普遍存在模型對關(guān)鍵特征信息關(guān)注度不夠的問題,容易導(dǎo)致預(yù)測結(jié)果不準(zhǔn)確;此外,還存在未充分考慮目標(biāo)真實框與預(yù)測框之間關(guān)系等問題。因此,本研究提出一種基于YOLO v5s改進模型的玉米作物病蟲害檢測模型,該模型在YOLO v5s模型基礎(chǔ)上,通過在backbone區(qū)域引入無參SimAM注意力機制,利用該機制全面評估特征權(quán)重,以減弱復(fù)雜背景與無關(guān)信息的干擾,增強玉米病蟲害的特征信息,從而提高模型的檢測性能;同時,采用EIOU損失函數(shù)對模型預(yù)測框與真實框之間的距離進行評估,以提升檢驗框檢測的準(zhǔn)確性;最后,通過在自建數(shù)據(jù)集上進行試驗,以驗證改進模型的有效性。
1 材料與方法
1.1 數(shù)據(jù)采集
本研究目標(biāo)檢測對象為玉米病蟲害圖像。研究發(fā)現(xiàn),黏蟲、灰飛虱、銹病和斑病是玉米生長過程中最常見的病蟲害,也是影響玉米產(chǎn)量和質(zhì)量的主要因素之一,其病蟲害樣本見圖1[14-16]。
數(shù)據(jù)集的質(zhì)量會直接影響模型訓(xùn)練后的魯棒性、泛化性,為了減小數(shù)據(jù)集對模型的影響,本研究自建了玉米病蟲害數(shù)據(jù)集。數(shù)據(jù)集的數(shù)據(jù)來源如下:在云南農(nóng)業(yè)大學(xué)玉米種植試驗田內(nèi)采集的圖像、在云南省昭通市昭陽區(qū)玉米種植田內(nèi)采集的圖像和源自網(wǎng)絡(luò)的玉米病蟲害圖像。圖像的采集時間在2022年7—9月,為滿足數(shù)據(jù)集多樣性的要求,分別在晴天、陰天和雨天,以正面、側(cè)面、仰視等不同拍攝角度進行數(shù)據(jù)圖像的采集,包含密集、稀疏、重疊、遮擋、順光、逆光等不同背景噪聲的圖像。圖2為采集的部分圖像樣本。
1.2 數(shù)據(jù)集的制作
首先,對采集的圖像數(shù)據(jù)進行旋轉(zhuǎn)、平移、變亮、變暗、高斯噪聲、椒鹽噪聲等數(shù)據(jù)增強操作,以實現(xiàn)數(shù)據(jù)集的擴展和多樣化,從而提高模型訓(xùn)練的魯棒性與泛化性。然后,采用labelImg工具對經(jīng)數(shù)據(jù)增強后的1 985張圖像進行手動特征標(biāo)注,分別將玉米黏蟲、玉米灰飛虱、玉米銹病、玉米斑病標(biāo)注為N、H、X、B 4個類別,并將其類別信息和位置信息保存為XML格式文件,進而再轉(zhuǎn)換為YOLO v5s所需要的txt格式文件。最后,劃分訓(xùn)練集、驗證集和測試集,以供模型訓(xùn)練和測試時使用。標(biāo)注時需特別注意的是,由于數(shù)據(jù)量較大,為了避免人工標(biāo)注時因疲倦而造成誤差,每標(biāo)注0.5 h需休息5 min;為了避免由不同人標(biāo)注而產(chǎn)生的細小差別,所有標(biāo)注均為1人完成,再由1人檢查以保證數(shù)據(jù)集標(biāo)簽的準(zhǔn)確性。表1為玉米病蟲害圖像數(shù)據(jù)集的詳細信息。
1.3 YOLO v5s的改進
1.3.1 YOLO v5s模型 YOLO系列算法采用回歸思想,憑借檢測精度高、推理速度快等優(yōu)勢,能夠快速完成目標(biāo)檢測任務(wù),在很多領(lǐng)域都取得了較為滿意的結(jié)果,已經(jīng)成為主流算法之一[17-19]。隨著技術(shù)的發(fā)展,YOLO v5s一直被各領(lǐng)域的學(xué)者完善與優(yōu)化,并展現(xiàn)出不錯的性能。YOLO v5s算法由輸入端、主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)以及預(yù)測頭構(gòu)成[20]。
(1)輸入端。輸入端具有Mosaic數(shù)據(jù)增強、自適應(yīng)錨框計算和自適應(yīng)圖片縮放功能。數(shù)據(jù)增強沿用了YOLO v4的Mosaic數(shù)據(jù)增強方法,通過隨機縮放、裁減增加了大量小目標(biāo),從而加強了網(wǎng)絡(luò)對小目標(biāo)的提取能力,增強了網(wǎng)絡(luò)的魯棒性,加快了網(wǎng)絡(luò)的訓(xùn)練速度[21]。自適應(yīng)錨框計算會在每次訓(xùn)練時自適應(yīng)地計算不同訓(xùn)練集中的最佳錨框值。自適應(yīng)圖片縮放功能采用自適應(yīng)添加最少黑邊的方法,有效改善了縮放填充引起信息冗余進而導(dǎo)致網(wǎng)絡(luò)推理速度慢。
(2)主干網(wǎng)絡(luò)。主干網(wǎng)絡(luò)由CBS、CSP1_X、SPPF等模塊構(gòu)成。CBS模塊由卷積操作、批量歸一化和激活函數(shù)組成。CSP1_X模塊將輸入分為2個分支,其中1個分支在卷積操作后進行Resunit操作,另1個分支在卷積操作后進行Concat操作,從而增強了特征融合能力,讓模型學(xué)習(xí)到更多圖片特征。
(3)頸部網(wǎng)絡(luò)。這是采用加強特征提取網(wǎng)絡(luò)特征金字塔并結(jié)合路徑聚合的結(jié)構(gòu),通過上采樣、下采樣得到2個特征并進行融合,使不同尺寸特征圖都能包含檢測目標(biāo)語義、特征信息,從而保證對不同尺寸圖片的準(zhǔn)確預(yù)測,提升了網(wǎng)絡(luò)特征的提取能力,增強了模型對小目標(biāo)的敏感度[22-23]。YOLO v5s 中的卷積操作采用CSP2_X模塊,有效地提升了網(wǎng)絡(luò)的特征融合能力。
(4)預(yù)測頭。YOLO v5s以CIOU_Loss作為損失函數(shù),數(shù)值越小表明預(yù)測結(jié)果越好,從而改善模型的預(yù)測效果。網(wǎng)絡(luò)采用加權(quán)非極大值抑制對多個目標(biāo)進行篩選,保留最優(yōu)目標(biāo)框,提高目標(biāo)識別的準(zhǔn)確性[24]。
1.3.2 SimAM注意力機制 由于背景中存在雜草、土地,加上玉米種植密集導(dǎo)致的光線遮擋等問題,使得對玉米病蟲害的目標(biāo)檢測更為復(fù)雜。為了降低復(fù)雜背景對病蟲害目標(biāo)檢測的干擾,研究者將采集的圖像進行去背景等處理,但效率較低。鑒于病蟲害特征信息在圖像中的占比較小,模型需減少對無關(guān)特征信息的關(guān)注度,而不用均衡對圖像中所有信息的關(guān)注度。因此,在YOLO v5s中引入了注意力機制(attention mechanism,AM)。注意力機制是機器學(xué)習(xí)中的一種數(shù)據(jù)處理方法,已被廣泛運用于計算機視覺領(lǐng)域。注意力機制本質(zhì)上與人類視覺系統(tǒng)極為相似,其對輸入圖像中標(biāo)注的特征進行學(xué)習(xí),讓網(wǎng)絡(luò)學(xué)習(xí)到圖像中需要關(guān)注的部分,并更新權(quán)重分布,使模型作出更準(zhǔn)確的判斷。SimAM注意力機制有自身的獨特優(yōu)勢,它與通道注意力、空域注意力不同,無需引入額外參數(shù)就能為特征圖推導(dǎo)出3D注意力權(quán)值。
在SimAM中,具有更多信息的神經(jīng)元與其相鄰神經(jīng)元相比通常表現(xiàn)出不同的放電模式,并會對相鄰神經(jīng)元產(chǎn)生空間抑制現(xiàn)象,在處理相關(guān)任務(wù)時其被賦予更高權(quán)重[25]。在玉米病蟲害檢測任務(wù)中,SimAM能夠更加全面地評估特征權(quán)重,以增強玉米病蟲害的特征,減弱復(fù)雜背景與無關(guān)信息干擾,從而增強模型的魯棒性和泛化能力,提升檢測性能。
SimAM通過能量函數(shù)[公式(1)~公式(4)]對每個神經(jīng)元進行評估,神經(jīng)元與其相鄰神經(jīng)元之間依據(jù)能量高低進行區(qū)分,能量越低表明與其相鄰神經(jīng)元的區(qū)分度越高,也就越重要。
式中:M為能量函數(shù)數(shù)量;E為每個通道上的能量函數(shù);t為輸入特征的目標(biāo)神經(jīng)元;X為輸入的特征,t∈X;λ為超參數(shù);μ為X中每個通道上的均值;σ2為X中每個通道上的方差;X~為增強后的特征。
1.3.3 損失函數(shù)的改進 在模型訓(xùn)練中損失函數(shù)發(fā)揮了重要作用,它能夠評估模型預(yù)測框與真實框之間的距離,距離越接近表明損失函數(shù)值越小。針對不同檢測問題,選擇適合的損失函數(shù)可以使模型在訓(xùn)練時收斂更快、定位更精確、效果更好。
在現(xiàn)有的損失函數(shù)中,交并比(intersection over union,IOU)是大多數(shù)目標(biāo)檢測算法選擇作為預(yù)測框與真實框之間的距離的衡量標(biāo)準(zhǔn)[26]。從數(shù)學(xué)上看,IOU等于2個矩形框的交并比,也就是檢測圖像中目標(biāo)真實框與模型預(yù)測框重疊區(qū)域的面積與兩框整體所占區(qū)域的面積之比,IOU損失函數(shù)計算公式如下:
式中:B為目標(biāo)真實框所占面積;Bi為模型預(yù)測框所占面積,LIOU∈(0,1)。
當(dāng)真實框與預(yù)測框重疊區(qū)域的面積越大時,LIOU越小,預(yù)測出的物體區(qū)域就越準(zhǔn)確。但是,當(dāng)真實框與預(yù)測框沒有完全重疊或完全不重疊時,IOU便無法反映二者的重合度和距離,使得模型無法進行訓(xùn)練,這時便可用CIOU損失函數(shù)來評估模型預(yù)測框與真實框之間的距離。CIOU包括兩框之間的中心點距離、縱橫比和重疊面積信息,使目標(biāo)邊框回歸更加穩(wěn)定。CIOU損失函數(shù)的計算公式如下:
式中:h為預(yù)測框的高;w為預(yù)測框的寬;hgt為真實框的高;wgt為真實框的寬;b為預(yù)測框中心點;bgt為目標(biāo)框中心點;ρ2為兩框中心點之間的歐式距離;c同時包含兩框最小閉包矩形框的對角線距離。
雖然CIOU損失函數(shù)彌補了IOU損失函數(shù)的不足,但還是忽略了邊界框的尺寸與其置信度之間存在的真實差異。針對這一問題,Zhang等提出了有效交并比損失函數(shù)(efficient intersection over union,EIOU)[27]。EIOU的懲罰項是將縱橫比的影響因子拆開,以計算目標(biāo)框和錨框的長、寬,它包括IOU損失、中心點距離損失和寬高損失3個部分,其中寬高損失直接使目標(biāo)盒與錨盒的寬度與高度之差最小。EIOU-Loss公式如下:
式中:ch為覆蓋預(yù)測框和真實框的最小外接框的高;cw為覆蓋預(yù)測框和真實框的最小外接框的寬。
在邊框回歸損失中,EIOU損失函數(shù)解決了其他損失函數(shù)中存在的問題,表現(xiàn)出良好的性能,所以本研究將采用EIOU Loss損失函數(shù)對模型進行改進。
2 結(jié)果與分析
2.1 試驗環(huán)境
本試驗是基于深度學(xué)習(xí)框架Pytorch進行的模型構(gòu)建與改進,在64位Windows 10系統(tǒng)上進行模型訓(xùn)練與測試。試驗平臺參數(shù):CPU為AMD RYZEN R7 6800H 3.20 GHz,內(nèi)存為16 G,GPU為NCIDIA GE Force RTX 3060,顯存為6 G。試驗環(huán)境:Python 3.8,Pytorch 1.10.1。為了提高網(wǎng)絡(luò)訓(xùn)練速度,用GPU進行加速,軟件版本為CUDA 11.3、CUDNN 8.2.1。
2.2 評價指標(biāo)
在玉米病蟲害檢測模型的試驗中,本研究采用精確率(precision,P)、召回率(recall,R)和平均精度均值(mean average precisoin,mAP)等作為性能評價指標(biāo),具體計算公式如下:
式中:TP為檢測正確的樣本數(shù)量;FP為檢測錯誤的樣本數(shù)量;FN為檢測遺漏的樣本數(shù)量;K為檢測類別數(shù);AP為P-R曲線圍成的面積;P為檢測正確的樣本占所有檢測樣本數(shù)量的比例;R為檢測正確的樣本占所有檢測樣本中正確樣本數(shù)量的比例;mAP為所有類別AP的平均值。
2.3 試驗對比與分析
2.3.1 試驗對比 為驗證本研究提出的YOLO v5s改進模型的優(yōu)越性,在相同試驗環(huán)境下使用同一數(shù)據(jù)集,與具有Alpha IOU、SIOU、EIOU損失函數(shù)的YOLO v5s(Alpha IOU)、YOLO v5s(SIOU)模型,以及分別加入CA、SE、CBAM注意力機制的YOLO v5s(CA)、YOLO v5s(SE)、YOLO v5s(CBAM)模型進行對比試驗。
(1)不同損失函數(shù)改進的YOLO v5s測試結(jié)果對比。YOLO v5s原始模型使用的損失函數(shù)是CIOU,從表2可以看出,在模型中分別加入Alpha IOU、SIOU和EIOU損失函數(shù)后,相比原始模型,R雖然有所下降,但是P都有明顯提升,分別提高了3.5、3.4、6.9百分點,尤其以EIOU損失函數(shù)的提升最為顯著。P提升說明EIOU損失函數(shù)在計算預(yù)測框與真實框之間的距離關(guān)系方面更加準(zhǔn)確。
(2)不同注意力機制改進的YOLO v5s測試結(jié)果對比。 由表3可以看出, 無論在YOLOv5s原始
模型中加入何種注意力機制模塊,與原模型相比在性能上都有明顯提升。例如,添加CA注意力機制后的P比原始模型提高了3.5百分點,添加SE注意力機制后的R比原始模型提高了1.9百分點,添加CBAM注意力機制后的R、mAP分別比原始模型提高了0.7、2.4百分點,添加SimAM注意力機制后的R比原網(wǎng)絡(luò)提高了1.3百分點。R的提高說明,添加注意力機制能讓模型更好地評估不同特征的權(quán)重占比,使目標(biāo)檢測結(jié)果更加準(zhǔn)確。
(3)損失函數(shù)與注意力機制同時改進的YOLO v5s測試結(jié)果對比。在上述試驗中,分別對YOLO v5s中的損失函數(shù)、注意力機制開展了改進對比試驗。下面將進一步探究同時改進注意力機制和損失函數(shù)對模型性能的影響。從表2可以看出,EIOU損失函數(shù)的效果最優(yōu),因此將EIOU固定為模型的損失函數(shù),只需將其分別與CA、SE、CBAM和SimAM注意力機制進行組合對比即可。由表3、表4可知,改進的YOLO v5s分別比原始模型的P提高了4.3、5.0、2.5、5.4百分點;CA、SE注意力機制的R分別降低0.4、2.7百分點,CBAM和SimAM注意力機制提高1.0、0.5百分點;CA、CBAM和SimAM注意力機制的mAP分別提升了0.4、 1.1、1.9百分點,SE 注意力機制降低0.9百分點。尤其是YOLO v5s(EIOU+SimAM)模型的P、R和mAP總體優(yōu)于其他改進模型,由此證明本研究提出的改進模型能對玉米作物病蟲害進行有效檢測。
2.3.2 改進模型的性能試驗 為了進一步驗證YOLO v5s(EIOU+SimAM)模型的性能,將其與YOLO v5s原始模型進行性能對比。訓(xùn)練集在YOLO v5s(EIOU+SimAM)上經(jīng)過200輪迭代后, P為92.2%,R為94.0%,mAP為95.2%。從圖3可以看出,改進模型的性能均比原始模型有顯著提升。
采用測試集中的196張玉米作物病蟲害圖像對YOLO v5s(EIOU+SimAM)、YOLO v5s原始模型進行測試。從表5可以看出,總體上改進模型的P、R、mAP相比原始模型分別提高了5.4、0.5、1.9百分點。在對黏蟲、銹病和斑病的圖像檢測時發(fā)現(xiàn),改進模型的P分別較原始模型提高了4.6、12.1、3.8百分點。在對黏蟲、灰飛虱的圖像進行檢測時發(fā)現(xiàn),與原始模型相比,改進模型的R分別提高了7.6、3.1百分點。在對黏蟲、灰飛虱和銹病的圖像進行檢測時發(fā)現(xiàn),與原始模型相比,改進模型的mAP分別提升了為4.7、2.4、1.9百分點。試驗結(jié)果表明,邊界回歸損失函數(shù)的改進使得模型能更準(zhǔn)確地定位和識別黏蟲、銹病和斑病圖像,P也得到明顯提高。在模型中添加了注意力機制模塊后,能夠抑制背景干擾,提高特征提取能力,R得到提高。將二者結(jié)合同時對模型進行改進,能讓模型的P、R、mAP都有顯著提升。由此可見,YOLO v5s(EIOU+SimAM)模型能夠更有效地對玉米作物病蟲害進行檢測。
通過上述試驗對比與分析,可以驗證本研究中改進的YOLO v5s(EIOU+SimAM)模型對玉米病蟲害的檢測效果最佳。為了更清楚地說明每個改進點對檢測效果的提升效果,從測試集中隨機選取玉米作物病蟲害圖片(圖4)進行討論。
在圖4-a為YOLO v5s原始模型檢測結(jié)果,圖中出現(xiàn)8處錯檢、3處漏檢;圖4-b為修改損失函數(shù)時模型檢測結(jié)果,圖中出現(xiàn)3處錯檢、5處漏檢;圖4-c為添加注意力機制時檢測結(jié)果,圖中出現(xiàn)3處錯檢、0處漏檢;圖4-d為兩者同時改進時模型檢測結(jié)果,圖中出現(xiàn)0處錯檢、1處漏檢。雖然YOLO v5s(EIOU+SimAM)模型改進方法有1處漏檢,但是相比于其他模型改進方法,在定位、識別效果和置信度值方面都有顯著提升。
3 結(jié)論
本研究基于損失函數(shù)、注意力機制改進 YOLO v5s 模型的玉米病蟲害檢測方法,并通過試驗對比進行模型驗證,主要結(jié)論如下:(1)通過對模型的損失函數(shù)和注意力機制2個方面的改進,提出了YOLO v5s(EIOU+SimAM)的改進模型。與原始模型相比,其在特征提取、預(yù)測框回歸精度等方面效果有顯著提升,具有較高的準(zhǔn)確率和良好的魯棒性。(2)在不同環(huán)境下采集了玉米病蟲害圖片,通過數(shù)據(jù)增強方法對圖片進行擴充,建立了玉米病蟲害數(shù)據(jù)集,并將該數(shù)據(jù)集用于改進模型的試驗驗證。(3)本研究建立的數(shù)據(jù)集僅包含4類常見的玉米作物病蟲害,后續(xù)還需要進一步擴充數(shù)據(jù)集以增加模型的泛化能力。同時還需研究網(wǎng)絡(luò)的輕量化問題,以便將其移植到嵌入式平臺。
參考文獻:
[1]代瑞熙,徐偉平. 中國玉米增產(chǎn)潛力預(yù)測[J]. 農(nóng)業(yè)展望,2022,18(3):41-49.
[2]安艷麗. 玉米常見病害的識別與防治[J]. 農(nóng)業(yè)與技術(shù),2017,37(18):44.
[3]王文明. 玉米常見病蟲害防治措施探討[J]. 農(nóng)業(yè)開發(fā)與裝備,2017(12):149,151.
[4]Ren S Q,He K M,Girshick R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.
[5]Liu W,Anguelov D,Erhan D,et al. SSD:single shot multibox detector[C]//European Conference on Computer Vision 2016. Cham:Springer International Publishing,2016:21-37.
[6]陳桂珍,龔聲蓉. 計算機視覺及模式識別技術(shù)在農(nóng)業(yè)生產(chǎn)領(lǐng)域的應(yīng)用[J]. 江蘇農(nóng)業(yè)科學(xué),2015,43(8):409-413.
[7]周 維,牛永真,王亞煒,等. 基于改進的YOLO v4-GhostNet水稻病蟲害識別方法[J]. 江蘇農(nóng)業(yè)學(xué)報,2022,38(3):685-695.
[8]Woebbecke D M,Meyer G E,Von Bargen K,et al. Color indices for weed identification under various soil,residue,and lighting conditions[J]. Transactions of the ASAE,1995,38(1):259-269.
[9]El-Faki M S,Zhang N,Peterson D E. Weed detection using color machine vision[J]. Transactions of the ASAE,2000,43(6):1969-1978.
[10]毛文華,王 輝,趙 博,等. 基于株心顏色的玉米田間雜草識別方法[J]. 農(nóng)業(yè)工程學(xué)報,2009,25(增刊2):161-164.
[11]孟慶寬,張 漫,楊曉霞,等. 基于輕量卷積結(jié)合特征信息融合的玉米幼苗與雜草識別[J]. 農(nóng)業(yè)機械學(xué)報,2020,51(12):238-245,303.
[12]徐會杰,黃儀龍,劉 曼. 基于改進YOLO v3模型的玉米葉片病蟲害檢測與識別研究[J]. 南京農(nóng)業(yè)大學(xué)學(xué)報,2022,45(6):1276-1285.
[13]胡文澤,王寶聚,耿麗杰,等. 基于Cascade R-CNN的玉米幼苗檢測[J]. 農(nóng)機化研究,2023,45(5):26-31.
[14]陳玉沖,龍夢玲,郭 輝,等. 灰飛虱研究的文獻計量分析[J]. 江蘇科技信息,2021,38(15):22-25,53.
[15]楊春媛. 玉米常見病害的發(fā)病癥狀及防治措施[J]. 鄉(xiāng)村科技,2017(24):63-64.
[16]路興濤,吳翠霞,張 勇,等. 玉米灰飛虱與粗縮病的發(fā)生規(guī)律及綜合防治策略[J]. 安徽農(nóng)業(yè)科學(xué),2013,41(19):8168-8169.
[17]Redmon J,Divvala S,Girshick R,et al. You only look once:unified,real-time object detection[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. Las Vagas:IEEE,2016:779-788.
[18]Zhai N. Detection using YOLO v5n and YOLO v5s with small balls[C]//International Conference on Computer Graphics,Artificial Intelligence,and Data Processing. SPIE,2022,12168:428-432.
[19]Bochkovskiy A,Wang C Y,Liao H Y M. YOLO v4:optimal speed and accuracy of object detection[J]. arXiv,2020,2004:10934.
[20]郭 磊,王邱龍,薛 偉,等. 基于改進YOLO v5的小目標(biāo)檢測算法[J]. 電子科技大學(xué)學(xué)報,2022,51(2):251-258.
[21]范曉飛,王林柏,劉景艷,等. 基于改進YOLO v4的玉米種子外觀品質(zhì)檢測方法[J]. 農(nóng)業(yè)機械學(xué)報,2022,53(7):226-233.
[22]王鵬飛,黃漢明,王夢琪. 改進YOLO v5的復(fù)雜道路目標(biāo)檢測算法[J]. 計算機工程與應(yīng)用,2022,58(17):81-92.
[23]孫豐剛,王云露,蘭 鵬,等. 基于改進YOLO v5s和遷移學(xué)習(xí)的蘋果果實病害識別方法[J]. 農(nóng)業(yè)工程學(xué)報,2022,38(11):171-179.
[24]李惠惠,范軍芳,陳啟麗.改進YOLO v5的遙感圖像目標(biāo)檢測[J]. 彈箭與制導(dǎo)學(xué)報,2022,42(4):17-23.
[25]彭紅星,何慧君,高宗梅,等. 基于改進ShuffleNetV2模型的荔枝病蟲害識別方法[J]. 農(nóng)業(yè)機械學(xué)報,2022,53(12):290-300.
[26]Yu J H,Jiang Y N,Wang Z Y,et al. Unitbox:an advanced object detection network[C]//Proceedings of the 24th ACM International Conference on Multimedia. New York:ACM,2016:516-520.
[27]Zhang Y F,Ren W,Zhang Z,et al. Focal and efficient IoU loss for accurate bounding box regression[J]. Neurocomputing,2022,506:146-157.