龍陽 肖小玲
摘要:針對蘋果葉部病害在復(fù)雜環(huán)境下出現(xiàn)的多尺度病斑識別和定位不準確等難題,并提高對小目標病害特征的識別能力,提出了一種基于改進YOLO v5s的蘋果葉部病害檢測算法。首先,在骨干網(wǎng)絡(luò)中采用ConvNeXtBlock模塊替換傳統(tǒng)的CSP模塊,以增強對病害特征的提取能力。同時,為了更準確地檢測小目標病害特征,引入自注意力和卷積集成的ACmix注意力機制,使得改進后的骨干網(wǎng)絡(luò)在復(fù)雜環(huán)境下也能更準確地檢測到蘋果葉部病害。在頸部網(wǎng)絡(luò)中,采用通道和空間混合的CBAM注意力機制以及SK注意力機制,以進一步提高模型對多尺度病害特征的精確定位和提取能力,并賦予了模型更強的語義信息理解能力,使其能夠更好地適應(yīng)不同尺寸和復(fù)雜度的病害狀況。試驗結(jié)果表明,與傳統(tǒng)的YOLO v5s相比,改進后的算法精確率提高了12.2百分點,召回率提高了12.0百分點,mAP@0.5提高了12.72百分點,平均精度達到94.03%,具有較好的識別精度,誤檢和漏檢概率顯著減少。本研究的改進算法在蘋果葉部病害檢測方面取得了顯著成果。該算法不僅提高了對多尺度病害特征的識別和定位能力,在復(fù)雜環(huán)境下也能更準確地檢測到小目標病害特征。這一算法的應(yīng)用潛力不僅限于蘋果葉部病害,還可推廣至其他農(nóng)作物病害檢測領(lǐng)域,對于提高農(nóng)業(yè)病害防控水平具有重要意義。
關(guān)鍵詞:蘋果葉部病害;YOLO v5s;ConvNeXtBlock;ACmix;CBAM;SK;注意力機制
中圖分類號:TP391.41? 文獻標志碼:A
文章編號:1002-1302(2023)23-0178-09
當今社會,農(nóng)業(yè)產(chǎn)業(yè)的發(fā)展對于糧食供應(yīng)和經(jīng)濟增長至關(guān)重要。然而,農(nóng)作物病害是農(nóng)業(yè)生產(chǎn)的主要障礙之一,尤其是水果作物,其中蘋果葉部病害對蘋果產(chǎn)量和質(zhì)量的影響尤為顯著。因此,快速、準確地檢測和識別蘋果葉部病害對于農(nóng)業(yè)生產(chǎn)具有重要意義。
目前,深度學(xué)習(xí)方法在圖像處理和分類任務(wù)中取得了顯著的突破。其中,卷積神經(jīng)網(wǎng)絡(luò)被廣泛應(yīng)用于目標檢測和圖像分類任務(wù)中。針對蘋果葉部病害檢測,研究者們也嘗試利用深度學(xué)習(xí)方法來提高檢測的準確性。例如,王云露等提出了基于改進Faster R-CNN的蘋果葉片病害識別方法,能夠在實際場景中進行無損測量識別,平均精度均值(mAP)達到86.2%[1]。Jiang等提出了一種新的使用? Deep-CNN 的蘋果葉病檢測模型來檢測5種常見的蘋果葉病。結(jié)果表明,INAR-SSD模型在ALDD上達到了78.80%的 mAP檢測效果[2]。Sun等提出了一種可以實時檢測蘋果葉片病害的輕量級CNN模型,其試驗結(jié)果表明,該模型能夠達到 83.12%的mAP檢測效果[3]。劉斌等構(gòu)建了一種基于快照集成方法的蘋果葉部病害程度識別模型,在其試驗結(jié)果中,對蘋果黑星病早晚期病害程度的識別準確率高達90.82%[4]。然而,在過去的研究中,雖然已經(jīng)取得了一定的成果,但其中的一些方法仍然受到一些限制。例如,一些早期研究可能對于多尺度和復(fù)雜環(huán)境下的蘋果葉部病害檢測表現(xiàn)不佳。此外,在小目標病害的準確識別方面存在挑戰(zhàn),這在實際農(nóng)業(yè)生產(chǎn)中尤為重要。
在實際場景和實驗室場景混合的應(yīng)用中,像VGG、GoogleNet和ResNet等卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練效果一般,隨著數(shù)據(jù)集的數(shù)量增多、規(guī)模增大,訓(xùn)練的時間也較長[5-7]。像Faster R-CNN和FPN等二階段檢測算法的準確率較高,但是檢測速度較慢[8-9]。YOLO系列算法和SSD等單階段檢測算法的檢測速度比較快,但是準確率較低[10-11]。這些現(xiàn)有模型的局限性啟發(fā)了本研究選擇YOLO v5s算法并進行改進,以克服這些挑戰(zhàn)并提高蘋果葉部病害檢測的準確性和效率。YOLO v5s具備較快地檢測速度,但在準確率方面需要改進,特別是在復(fù)雜情境下。因此,筆者所在課題組對YOLO v5s進行相關(guān)改進,以提高其適應(yīng)復(fù)雜環(huán)境的能力,并使其更具魯棒性。本研究的主要目的如下:(1)使用ConvNeXtBlock模塊替換主干網(wǎng)絡(luò)中的CSP模塊,增強主干網(wǎng)絡(luò)的特征提取能力,提高病害特征的檢測精度,降低模型誤檢率。(2)使用ACmix和CBAM注意力集成的模塊添加到原YOLO v5s中,ACmix能夠提高網(wǎng)絡(luò)對小目標的敏感度,降低復(fù)雜環(huán)境下的影響。CBAM在頸部網(wǎng)絡(luò)中能夠?qū)臻g和通道特征的權(quán)重進行再分配,提高網(wǎng)絡(luò)識別精度。(3)使用SK注意力機制添加到頸部網(wǎng)絡(luò),采用不同大小卷積核來識別不同尺度的病害特征,增強網(wǎng)絡(luò)對多尺度病害特征的提取能力和自適應(yīng)能力。
1 材料與方法
1.1 數(shù)據(jù)集采集
本研究數(shù)據(jù)取自已公開的AppleLeaf9數(shù)據(jù)集,該數(shù)據(jù)集是從PlantVillage、ATLDSD、PPCD 2020和PPCD 2021中融合得到的[12-15]。這個數(shù)據(jù)集匯集了不同來源的圖像,使得所提出的算法能夠識別出更多種類的蘋果葉部病害,尤其是在野外環(huán)境下也能表現(xiàn)出色,增強了模型在應(yīng)對環(huán)境變化時的魯棒性。數(shù)據(jù)集中經(jīng)過人工篩選的圖片數(shù)據(jù)包括鏈格孢葉斑病408張、褐斑病381張、蛙眼葉斑病360張、灰斑病339張、花葉病371張、白粉病410張、銹病361張、黑星病370張,共計8種病害3 000張圖片。該數(shù)據(jù)集的多樣性反映了蘋果葉部病害的真實多樣性,其中像鏈格孢葉斑病、蛙眼葉斑病和銹病等都屬于小目標病斑,因此為本文解決小目標檢測問題提供了有力的支持。表1為蘋果葉部8種病害的主要癥狀和原因,圖1為蘋果葉部8種病害數(shù)據(jù)集的示例圖。
1.2 數(shù)據(jù)集處理
通過 LabelImg 工具對圖像上的病斑進行標注,再對應(yīng) xml 文件中存儲病斑的位置信息和其對應(yīng)的類別信息。訓(xùn)練集和測試集以8 ∶2的比例隨機劃分并將圖像路徑信息寫入到對應(yīng)的 train.txt、test.txt 文件中,各病害圖像標注名稱及數(shù)量見表2。
1.3 YOLO v5s模型
YOLO v5有不同的變種,用字母標記,如“s”“m”“l(fā)”和“x”,表示模型的大小。其中最小的變種是YOLO v5s,旨在更快速,并具有較小的內(nèi)存占用,適用于實時或資源受限的應(yīng)用程序。YOLO v5s模型由輸入、骨干網(wǎng)絡(luò)、頸部、頭部和輸出組成,彼此協(xié)同工作,實現(xiàn)高效的目標檢測。輸入端主要包括Mosaic數(shù)據(jù)增強、自適應(yīng)錨框計算等預(yù)處理操作。
其中骨干網(wǎng)絡(luò)主要由CBS卷積塊、CSP結(jié)構(gòu)、SPPF特征金字塔池化等組成,主要功能是不斷進行特征提取后再進行特征融合。頸部則使用類似路徑聚合網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)得到80×80×512、40×40×512、20×20×512(單位均為像素px) 3種大小的特征圖,頭部則采用不同尺度的特征圖用于檢測[16]。
1.4 改進的YOLO v5s模型
如圖2所示,改進的模型是在YOLO v5s 6.0版本的基礎(chǔ)上進行的。在骨干網(wǎng)絡(luò)中將CSP模塊替換為ConvNeXtBlock模塊,增強骨干網(wǎng)絡(luò)的特征提取能力,并添加ACmix注意力機制,通過融合卷積和Self-attention操作來實現(xiàn)對小目標的精確識別;在頸部網(wǎng)絡(luò)的輸出階段添加CBAM注意力機制和SK注意力機制串行結(jié)構(gòu),其中CBAM注意力機制是將注意力集中在通道和空間上,而SK注意力機制則是將注意力集中在此后的卷積核尺寸維度上,這樣能夠?qū)Χ喑叨忍卣鬟M行權(quán)重分配并進一步提高網(wǎng)絡(luò)的識別能力。
1.4.1 ConvNeXtBlock結(jié)構(gòu)
在實際場景中,蘋果葉部病害區(qū)域與背景區(qū)域之間存在相似度較大的情況,這使得將病害特征與背景進行區(qū)分變得更加困難。這個問題導(dǎo)致原始 YOLO v5s 的主干提取網(wǎng)絡(luò)在進行下采樣時,可能會錯過一些局部細節(jié)的特征信息,從而降低了后續(xù)特征融合的準確性。為了解決這一問題,本研究提出了使用優(yōu)化的 ConvNeXtBlock 模塊替代原始主干提取網(wǎng)絡(luò)中的 CSP 模塊[17]。ConvNeXtBlock 模塊通過使用一個較大卷積核的深度卷積,擴大感受野,捕獲更多的特征信息,從而增強了主干提取網(wǎng)絡(luò)的特征提取能力。這一改進旨在提高模型對蘋果葉部病害細節(jié)特征的捕獲,使得模型更好地區(qū)分病害特征與背景區(qū)域,從而增強了檢測精度,降低了漏檢和誤檢率。
ConvNeXtBlock模塊結(jié)構(gòu)如圖3所示,利用卷積核大小為7的Depthwise卷積對輸入特征進行逐通道卷積操作,進行空間信息的交互,擴大感受野,同時提高模型的計算效率。經(jīng)過Layer Norm歸一化來加速網(wǎng)絡(luò)的收斂并減少梯度動蕩。用1×1卷積和GELU激活函數(shù),使訓(xùn)練更加穩(wěn)定,通道數(shù)變?yōu)樵瓉淼?倍。然后再通過1×1卷積層和Layer Scale歸一化操作,用向量形式的可學(xué)習(xí)參數(shù)gamma對每個通道進行縮放,最后使用DropPath正則化方法,隨機丟棄一些連接,來提高模型的泛化能力。將主分支與identity分支連接,得到最終輸出特征圖。
1.4.2 ACmix注意力機制
在蘋果葉部病害檢測任務(wù)中,小目標的檢測通常受到以下問題的影響:由于蘋果葉部病害區(qū)域與背景區(qū)域的相似性,使得小目標的區(qū)分難度較大,這導(dǎo)致檢測器在識別小目標時的準確性不高。此外,純卷積操作可能無法有效捕獲全局特征,而自注意力機制則可能忽略了局部特征。因此,為了解決這些問題,筆者所在課題組引入了ACmix模塊。ACmix是融合Self-Attention和卷積操作的模塊,示意圖如圖4所示[18]。它同時享有自注意力和卷積的好處,且與純卷積或自注意力對應(yīng)物相比具有最小的計算開銷。
第1階段:將輸入的特征圖進行3個1×1的卷積操作,在通道上升維,得到3×N個特征圖的豐富中間特征集,然后作為輸入給下一階段。
第2階段:分為2個模塊,對于自注意力模塊,將中間特征集聚集成N組,遵循傳統(tǒng)的多頭注意力機制,每組分別進行查詢、鍵和值操作得到相對應(yīng)的特征圖,然后通過特征融合得到H×W×C的特征圖Fatt;對于卷積模塊,通過一個3N×k2N全連接層后對子特征圖進行特征平移和融合得到H×W×C的特征圖Fconv。最后將2個模塊的輸出進行相加操作,得到最終的輸出特征圖Fout,如公式1所示,α和β是2個可學(xué)習(xí)的標量控制。
Fout=αFconv+βFatt。(1)
通過如上分階段過程,ACmix集成了卷積和自注意力模塊的優(yōu)點,通過合并2個分支的輸出結(jié)果,模型可以同時兼顧全局特征和局部特征。這種綜合考慮有助于提升網(wǎng)絡(luò)對于小目標的檢測效果,使其更具魯棒性,能夠在復(fù)雜環(huán)境中更準確地識別和定位蘋果葉部的小目標病害。
1.4.3 CBAM注意力機制
由圖5可以看出,CBAM結(jié)構(gòu)包含2個獨立的子模塊,通道注意力模塊和空間注意力模塊,這些模塊的引入在頸部網(wǎng)絡(luò)的輸出上起到了關(guān)鍵作用,幫助網(wǎng)絡(luò)更好地識別蘋果葉部病害區(qū)域[19]。具體而言,蘋果葉部病害區(qū)域往往具有復(fù)雜的紋理和顏色變化,這增加了檢測的難度。通道注意力模塊有助于網(wǎng)絡(luò)集中注意力在最相關(guān)的通道上,以提高對蘋果葉部病害特征的敏感度。而空間注意力模塊則有助于網(wǎng)絡(luò)集中注意力在最相關(guān)的空間區(qū)域上,從而提高了對蘋果葉部病害位置的準確性。因此,CBAM注意力機制的引入可以使網(wǎng)絡(luò)更有效地識別和定位蘋果的葉部病害,從而提升檢測性能。
通道注意力模塊如圖6所示,具體流程如下:將輸入特征圖F分別經(jīng)過最大池化和平均池化,得到2個1×1×C的特征圖,接著再將它們分別送入多層感知器,將多層感知器輸出的特征進行加和操作,再經(jīng)過sigmoid激活操作,生成最終的特征圖M。最后,將輸出特征圖M和輸入特征圖F做乘法操作,作為空間注意力模塊需要的輸入特征。
空間注意力模塊如圖7所示,具體流程如下:將通道注意力模塊輸出的特征圖M經(jīng)過與原始輸入特征圖進行乘積得到的特征圖M1作為本模塊的輸入特征圖。首先做一個基于通道的最大池化和平均池化,得到2個H×W×1 的特征圖;然后將這2個特征圖經(jīng)過一個卷積操作,降維為1個通道;再經(jīng)過sigmoid生成輸出特征圖M2;最后與M1做乘積,得到最終生成的特征。
這2個注意力模塊的綜合作用使得網(wǎng)絡(luò)能夠更好地適應(yīng)蘋果葉部病害的多樣性和復(fù)雜性,提高了對小目標病害的敏感性,同時提高了對其準確定位的能力。因此,CBAM注意力機制的引入有助于解決本文中提出的問題,提高了蘋果葉部病害檢測的性能。
1.4.4 SK注意力機制
在蘋果葉部病害檢測中,不同的病害可能具有不同的尺度和特征, 傳統(tǒng)的卷積操作可能無法充分捕捉到這些多尺度特征,導(dǎo)致檢測性能下降。SK注意力機制是針對卷積核的注意力機制,根據(jù)不同大小的目標對不同大小的卷積核敏感度不同,SK注意力機制對不同的圖像動態(tài)生成不同的卷積核,嘗試找到最合適大小的卷積核[20]。因此,SK注意力機制具有目標尺度自適應(yīng)的特點,可以更好地捕捉不同尺度的目標特征,從而提高了網(wǎng)絡(luò)的多尺度目標檢測能力和精度。圖8所示是SK注意力機制的基本結(jié)構(gòu),主要流程分為拆分、融合和選擇。
(1)拆分:對輸入向量[WTHX]X進行不同卷積核大小的完整卷積操作,如使用3×3、5×5的卷積核同時進行處理,得到2個不同的特征圖,主要測試不同卷積核對目標的敏感度,以提高檢測精度。
(2)融合:對上一步得到的2個不同的特征圖進行融合,接著沿著H和W這2個維度進行全平均池化,將所有空間信息平均成一個值,得到一維向量S,代表著不同特征的重要程度。通過線性變換將其映射為Z維信息。
(3)選擇:再通過2個線性變換將其復(fù)原為 C 維信息,然后進行 Softmax 歸一化,得到了反映通道重要程度分數(shù)的2個權(quán)重矩陣a和b,最后a和b等2個權(quán)重矩陣對之前的2個特征圖進行加權(quán)操作,得到了2個經(jīng)過加權(quán)了的特征圖,然后融合得到輸出向量。相比于初始X,輸出特征圖舍棄無關(guān)特征的同時保留了更豐富的細節(jié)信息特征。
由于本研究在試驗過程中采用了4組不同的卷積核,分別為1×1、3×3、5×5和7×7。因此,SK注意力機制的引入有助于解決本研究中提出的問題,使網(wǎng)絡(luò)能夠更好地適應(yīng)蘋果葉部病害的多尺度特征,從而提高檢測性能和精度。
2 結(jié)果與分析
2.1 試驗環(huán)境
本試驗基于ubuntu 20.04系統(tǒng)環(huán)境下進行,硬件配置為 Intel Xeon Platinum 8358P CPU @2.60 GHz,A40 GPU,80 GB內(nèi)存,顯存為48 GB。編譯環(huán)境為Python3.8+Pytorch 1.10.0+CUDA 11.3。
2.2 評測指標
試驗使用Precision(P)、Recall(R)、平均精度(AP)、平均精度均值(mAP)來評價檢測模型的準確性。評價指標計算公式如下:
式中:m表示樣本類別數(shù);p(r)表示Precision以Recall為參數(shù)的一個函數(shù);TP是指被正確識別的正樣本數(shù);TN為被正確識別的負樣本數(shù);FP表示負樣本被錯誤識別為正樣本數(shù);FN表示正樣本被錯誤識別為負樣本數(shù)。
2.3 消融試驗
為了更好地驗證本研究算法的有效性,本研究進行了消融試驗,共試驗了4種不同的改進方法。同樣使用上面的數(shù)據(jù)集進行測試,在epoch設(shè)為150時,試驗?zāi)P偷膶Ρ冉Y(jié)果如表3所示。改進1通過引入SK注意力機制,模型能夠更好地適應(yīng)多尺度目標,表現(xiàn)出更高的檢測效果。這一改進對于蘋果葉部病害的多樣性非常有幫助。改進2是添加了ACmix和CBAM注意力機制集成的模塊,使模型能夠更好地捕捉全局和局部特征,這有助于模型更準確地定位和識別蘋果葉部病害。改進3是將ConvNeXtBlock替換掉骨干網(wǎng)絡(luò)中的CSP模塊,提高了模型的特征提取能力,同時提升了檢測效果。最后是本研究算法將改進1、改進2 和改進3 集成在一起,綜合考慮了多尺度特征、全局和局部特征以及更強的特征提取能力。結(jié)果表明,精確度、召回率、mAP@0.5分別上升了12.2、12.0、12.72百分點,說明本研究算法在蘋果葉部病害特征的識別和定位上是更加優(yōu)秀的。
本研究將結(jié)果繪制成曲線,由圖9可明顯看到本算法將所有改進點集成以后相比于原始模型,在mAP@0.5、mAP@0.50~0.95、精確率和召回率等指標上都有明顯的提升。它能夠更準確地檢測目標,具有更高的召回率,并且在不同IoU閾值下取得更高的準確性。
2.4 對比試驗
為了驗證本算法與其他算法的性能對比,同樣使用上面的數(shù)據(jù)集,結(jié)果如表4所示,可看出本算法表現(xiàn)出優(yōu)于Faster R-CNN、SSD和RetinaNet的效果[21]。首先,本研究算法在mAP@0.5方面表現(xiàn)最為優(yōu)越,達到了94.03%,相比其他3個模型,差距明顯,表明本研究算法在準確性上具有優(yōu)勢。然而,即使在提供更好性能的同時,本研究算法在參數(shù)數(shù)量方面相較于Faster R-CNN仍然保持較小規(guī)模,這意味著更輕量級的模型更容易存儲和部署。此外,本研究算法的GFLOPs也相對較低,顯示出更高的計算效率。最后,在模型權(quán)重大小方面,雖然本算法略大于YOLO v5s,但仍然明顯小于Faster R-CNN、SSD和RetinaNet,表明本研究算法在模型尺寸上保持了相對的小型化。綜合來看,本研究算法在性能、模型規(guī)模和計算效率3個關(guān)鍵方面均取得了明顯的優(yōu)勢,在蘋果葉部病害檢測領(lǐng)域成為一個更具競爭力和實用性的選擇。
除此之外,在600張測試集上進行對比試驗,各種病害的平均精度如表5所示。本研究算法模型在測試集上檢測各種病害種類的平均精度明顯優(yōu)于其他模型。它展現(xiàn)出更高的準確性和召回率,在不同病害種類上取得了更好的檢測結(jié)果。這意味著該模型能夠更精確地定位和識別各種病害,從而提高病害檢測的整體性能。
圖10為部分蘋果葉部病害檢測結(jié)果圖,可以看出原始YOLO v5s模型還存在誤檢、漏檢和精確度不高的問題。本研究所改進的模型的優(yōu)化設(shè)計使其能夠更好地應(yīng)對病害檢測任務(wù)的挑戰(zhàn),它在提高檢測準確性和可靠性方面取得了顯著的表現(xiàn)。與原始模型相比,改進模型能夠更精確地識別各種病害,并且更少地出現(xiàn)誤檢和漏檢的情況。以上結(jié)果都展現(xiàn)出改進模型在病害檢測任務(wù)中的優(yōu)越性,為相關(guān)領(lǐng)域的應(yīng)用提供了更可靠和高效的解決方案。
3 結(jié)論與討論
本研究為了解決蘋果葉部病害在復(fù)雜環(huán)境下多尺度病斑難以精確定位和識別的問題,提出了基于改進YOLO v5s的模型,通過在骨干網(wǎng)絡(luò)添加CNB模塊和ACmix注意力機制,在頸部網(wǎng)絡(luò)添加CBAM和SK串行的注意力機制,試驗結(jié)果的mAP@0.5、精確率和召回率分別高達94.03%、92.6%和90.0%,表明改進方法對于正常情況下的物體檢測更加可靠,能夠準確地區(qū)分目標物體和背景噪聲。
綜上所述,改進模型在檢測效果方面相比原始模型表現(xiàn)更好。它在準確性、漏檢和誤檢方面都取得了顯著的改善,從而提高了整體的檢測性能。后續(xù)可以在本研究算法的基礎(chǔ)上將其輕量化,即減少模型的參數(shù)量和計算復(fù)雜度,讓其保持較高檢測性能的同時,更好地滿足在移動設(shè)備上進行實時檢測。
參考文獻:
[1]王云露,吳杰芳,蘭 鵬,等. 基于改進Faster R-CNN的蘋果葉部病害識別方法[J]. 林業(yè)工程學(xué)報,2022,7(1):153-159.
[2]Jiang P,Chen Y H,Liu B,et al. Real-time detection of apple leaf diseases using deep learning approach based on improved convolutional neural networks[J]. IEEE Access,2019,7:59069-59080.
[3]Sun H N,Xu H W,Liu B,et al. MEAN-SSD:a novel real-time detector for apple leaf diseases using improved light-weight convolutional neural networks[J]. Computers and Electronics in Agriculture,2021,189:106379.
[4]劉 斌,徐皓瑋,李承澤,等. 基于快照集成卷積神經(jīng)網(wǎng)絡(luò)的蘋果葉部病害程度識別[J]. 農(nóng)業(yè)機械學(xué)報,2022,53(6):286-294.
[5][JP3]Simonyan K,Zisserman A. Very deep convolutional networks for large-scale image recognition[EB/OL]. (2015-04-10)[2023-06-10]. https://arxiv.org/abs/1409.1556.
[6]Szegedy C,Liu W,Jia Y Q,et al. Going deeper with convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston,2015:1-9.
[FK(W21][TP龍陽10.tif;S+2mm][FK)]
[7]He K M,Zhang X Y,Ren S Q,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas,2016:770-778.
[8]Ren S Q,He K M,Girshick R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.
[9]Lin T Y,Dollár P,Girshick R,et al. Feature pyramid networks for object detection[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Honolulu,2017:936-944.
[10]Redmon J,Divvala S,Girshick R,et al. You only look once:unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas,2016:779-788.
[11]Liu W,Anguelov D,Erhan D,et al. SSD:single shot MultiBox detector[C]//European Conference on Computer Vision.Cham:Springer,2016:21-37.
[12]Yang Q,Duan S K,Wang L D. Efficient identification of apple leaf diseases in the wild using convolutional neural networks[J]. Agronomy,2022,12(11):2784.
[13]Hughes D P,Salathe M.An open access repository of images on plant health to enable the development of mobile disease diagnostics[EB/OL]. (2016-04-12)[2023-06-10]. https://arxiv.org/abs/1511.08060.
[14]Feng J Z,Chao X F. Apple tree leaf disease segmentation dataset[DS/OL]. (2022-03-31) [2023-06-10]. https://doi.org/10.11922/sciencedb.01627.[HJ2.08mm]
[15]Thapa R,Zhang K,Snavely N,et al. The Plant Pathology Challenge 2020 data set to classify foliar disease of apples[J]. Applications in Plant Sciences,2020,8(9):e11390.
[16]Liu S,Qi L,Qin H F,et al. Path aggregation network for instance segmentation[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,2018:8759-8768.
[17]Liu Z,Mao H Z,Wu C Y,et al. A ConvNet for the 2020s[C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New Orleans,2022:11966-11976.
[18]Pan X R,Ge C J,Lu R,et al. On the integration of self-attention and convolution[C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New Orleans,2022:805-815.
[19]Woo S,Park J,Lee J Y,et al. CBAM:convolutional block attention module[C]//European Conference on Computer Vision.Cham:Springer,2018:3-19.
[20]Li X,Wang W H,Hu X L,et al. Selective kernel networks[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach,2020:510-519.
[21]Lin T Y,Goyal P,Girshick R,et al. Focal loss for dense object detection[C]//2017 IEEE International Conference on Computer Vision (ICCV). Venice,2017:2999-3007.