項(xiàng)新建 鄭雨 曹光客 李旭 尤欽寅 姚佳娜
摘要:水稻葉病防治在提高水稻產(chǎn)量中具有重要作用,針對水稻葉病人工檢查速度慢、主觀性高的問題,提出一種基于改進(jìn)Yolov5s的水稻葉病目標(biāo)檢測方法。采用K-means聚類算法得到先驗(yàn)框尺寸,增強(qiáng)檢測模型對水稻葉病的適應(yīng)性;將輕量級空間注意力與通道注意力融合,對高層語義特征信息增強(qiáng),增強(qiáng)模型對病害信息的感知度;并結(jié)合特征金字塔網(wǎng)絡(luò),融合多尺度感受野獲取目標(biāo)上下文信息,有效地增強(qiáng)模型對目標(biāo)周圍特征的提取,提高目標(biāo)檢測的準(zhǔn)確度。試驗(yàn)結(jié)果表明:改進(jìn)后的Yolov5s算法平均檢測精度(IOU=0.5)提高4.3%,F(xiàn)1值提高5.3%,幀率FPS為58.7 f/s。有效提升Yolov5s算法對水稻葉病的檢測精度,達(dá)到實(shí)時檢測的需求。
關(guān)鍵詞:水稻葉病檢測;K-means聚類;注意力機(jī)制;多尺度感受野
中圖分類號:S435.11: TP391.41? 文獻(xiàn)標(biāo)識碼:A? 文章編號:2095-5553 (2024) 03-0212-07
Detection method of rice leaf disease based on improved Yolov5s
Xiang Xinjian1, Zheng Yu1, Cao Guangke1, 2, Li Xu3, You Qinyin1, Yao Jiana1
(1. School of Automation and Electrical Engineering, Zhejiang University of Science and Technology, Hangzhou,310023, China; 2. Hangzhou Shenhao Technology Co., Ltd., Hangzhou, 310023, China;3. Hangzhou Shengguan Technology Co., Ltd., Hangzhou, 310023, China)
Abstract:
Rice leaf disease prevention plays an important role in improving rice yield. Aiming at the problems of slow manual inspection speed and high subjectivity of rice leaf disease, a target detection method of rice leaf disease based on improved Yolov5s is proposed. The K-means clustering algorithm is used to obtain the prior frame size, which enhances the adaptability of the detection model to rice leaf disease. The lightweight spatial attention and channel attention are fused to enhance the high-level semantic feature information and the models awareness of disease information. Finally, the feature pyramid network is combined with the multi-scale receptive field to obtain target context information, which effectively enhances the models extraction of features around the target and improves the accuracy of target detection. The experimental results show that the average detection accuracy (IOU=0.5) of the improved Yolov5s algorithm is increased by 4.3%, the F1 value is increased by 5.3%, and the FPS is 58.7 f/s. The proposed method effectively improves the detection accuracy of the Yolov5s algorithm for rice leaf disease and meets the demand of real-time detection.
Keywords:rice leaf disease detection; K-means clustering; attention mechanism; multi-scale receptive field
0 引言
水稻病害及時準(zhǔn)確識別對農(nóng)作物增產(chǎn)增收具有重要意義[1]。當(dāng)前對水稻病害的檢測主要通過人工實(shí)地觀測,不僅速度慢,且病害不同發(fā)展階段紋理信息存在差距,檢測者的主觀意識對檢測結(jié)果具有決定性作用。若沒有經(jīng)驗(yàn)的農(nóng)民對葉片病害種類判斷錯誤,后續(xù)進(jìn)行的防治措施將缺乏意義[2, 3]。
利用高光譜技術(shù)的光譜反射原理[4]能夠有效地對病害組織進(jìn)行檢測,但野外環(huán)境復(fù)雜以及此方法檢測成本較高,高光譜技術(shù)仍停留于實(shí)驗(yàn)室研究階段。隨著人工智能和計(jì)算機(jī)視覺領(lǐng)域的快速發(fā)展,采用機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的方法對農(nóng)業(yè)病害進(jìn)行檢測得到了深入研究,Liu等[5]使用基于支持向量機(jī)的方法,實(shí)現(xiàn)小麥蚜蟲自動識別和計(jì)數(shù),但準(zhǔn)確率只有75.8%;魏麗冉等[6]使用基于核函數(shù)支持向量機(jī)檢測方法對植物葉片的4種病害進(jìn)行檢測,最高準(zhǔn)確率為89.5%。鮑文霞等[7]使用深度分割網(wǎng)絡(luò)對小麥圖像進(jìn)行分割后使用多路卷積神經(jīng)網(wǎng)絡(luò)對小麥赤霉病進(jìn)行檢測,達(dá)到了98%以上的準(zhǔn)確率。Sun等[8]提出輕量級CNN模型MEAN-SSD對5種蘋果葉病進(jìn)行檢測,mAP達(dá)到了83.12%。以上方法都存在模型檢測精度較低或模型過于復(fù)雜導(dǎo)致無法對葉面病害進(jìn)行準(zhǔn)確快速檢測。
注意力機(jī)制能夠從大量信息中選擇性的關(guān)注對當(dāng)前目標(biāo)更重要的信息,SENet、GCNet等在相關(guān)神經(jīng)網(wǎng)絡(luò)中都取得了可觀的效果。曾偉輝等[9]在膠囊網(wǎng)絡(luò)中引入注意力機(jī)制,驗(yàn)證了其在農(nóng)業(yè)病蟲害檢測的有效性。但相關(guān)注意力模塊都不可避免的導(dǎo)致模型加深和計(jì)算量增大[10]。當(dāng)前注意力機(jī)制中普遍使用平均池化或最大池化的方式,將輸入特征編碼為同一全局特征,導(dǎo)致網(wǎng)絡(luò)忽略其局部特征[11]。
水稻葉病害目標(biāo)寬高比與Yolov5s所使用的COCO數(shù)據(jù)集中目標(biāo)并不相似,大規(guī)模種植的水稻自然環(huán)境復(fù)雜,同時存在葉片遮擋晃動,導(dǎo)致病害葉片的目標(biāo)檢測難度上升。針對上述問題,為在實(shí)時檢測過程中提高水稻葉病的檢測精度,引入輕量級Yolov5s[12, 13]作為水稻葉病的檢測模型,使用K-means聚類算法對數(shù)據(jù)集進(jìn)行分析聚類,得到更為適配的anchors尺寸,引入輕量級空間與通道注意力進(jìn)行融合,并通過空洞卷積實(shí)現(xiàn)多尺度感受野融合,獲取目標(biāo)周圍環(huán)境信息,提高水稻葉病目標(biāo)檢測精度。
1 改進(jìn)Yolov5s的水稻葉病檢測方法
1.1 目標(biāo)檢測算法
基于深度學(xué)習(xí)的目標(biāo)檢測算法主要分為一階段和二階段,其中一階段目標(biāo)檢測算法主要有Yolov3、Yolov4、Yolov5、SSD和RetinaNet等[1416],直接對目標(biāo)的位置和類別進(jìn)行預(yù)測,速度較快。二階段算法指主要有Faster R-CNN[17]以及Mask R-CNN[18],其精度高,但檢測速度慢。近年來,隨著目標(biāo)檢測領(lǐng)域的廣泛研究,Yolo系列算法在實(shí)時性和準(zhǔn)確性方面取得了顯著的提升。與傳統(tǒng)的兩階段方法相比,Yolo算法的一階段直接對目標(biāo)的位置和種類進(jìn)行預(yù)測,省去了候選框生成和回歸的復(fù)雜過程,從而大幅提升了處理速度。
由于水稻葉病檢測對實(shí)時性的要求,選擇了輕量級網(wǎng)絡(luò)Yolov5s作為檢測模型。采用K-means算法聚類數(shù)據(jù)集,得到優(yōu)化的anchors尺寸。在網(wǎng)絡(luò)的低層引入上下文信息融合模塊(Context Information Fusion Module, CIFM),結(jié)合FPN結(jié)構(gòu),在Yolov5s頸部與低層信息融合;在高層語義特征SPPF層后引入輕量級語義信息增強(qiáng)模塊(Semantic Information Enhancement Module,SIEM),將空間注意力機(jī)制與通道注意力融合,對高級語義特征的關(guān)鍵信息進(jìn)行增強(qiáng),搭建網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
1.2 K-means聚類anchors算法
K-means算法作為一種經(jīng)典而有效的聚類方法,K-means算法作為一種經(jīng)典而有效的聚類方法,通過計(jì)算樣本集中每個樣本點(diǎn)與其所屬簇的中心點(diǎn)之間的距離,將相似的樣本劃分為同一類別(簇)。在應(yīng)用K-means算法時需要關(guān)注兩個關(guān)鍵問題:(1)樣本與樣本之間的距離如何表示,需要根據(jù)應(yīng)用場景設(shè)計(jì),常見的距離度量方法包括歐式距離等;(2)將樣本分為幾類,即聚類的簇?cái)?shù)。
通過實(shí)地調(diào)研以及對數(shù)據(jù)集分析,水稻葉病害根據(jù)感染程度不同,病害部分在葉片上的寬高比與COCO數(shù)據(jù)集圖像存在較大差別,原anchors尺寸并不適用于葉面病害的檢測。為此K-means聚類算法對標(biāo)注好的數(shù)據(jù)集進(jìn)行聚類,得到改進(jìn)后的anchors尺寸,增強(qiáng)模型檢測能力。
傳統(tǒng)K-means聚類算法使用誤差平方和(Sum of Square Error, SSE)計(jì)算每個樣本與每個簇中心的距離。在目標(biāo)檢測領(lǐng)域,樣本為圖像中的目標(biāo)物體,因此采用式(1)計(jì)算樣本之間的距離。
d=1-IOU(bboxes,anchors)(1)
式中:d——樣本之間距離;bboxes——真實(shí)框;anchors——先驗(yàn)框。
本文簇的個數(shù)設(shè)置為9,即預(yù)測9種尺寸的anchors。每個簇采取不重復(fù)采樣。之后經(jīng)過遺傳算法(Genetic Algorithm,GA)對K-means聚類得到的anchors進(jìn)行變異(GA優(yōu)化在Yolov5中已實(shí)現(xiàn)),最終得到訓(xùn)練網(wǎng)絡(luò)使用的anchors為[47, 29]、[43, 91]、[93, 51]、[89, 132]、[149, 89]、[166, 209]、[108, 458]、[310, 204]、[432, 471],對聚類得到的anchors,計(jì)算得到的適應(yīng)度為74.83%,召回率100%,聚類結(jié)果如圖2所示。
1.3 語義信息增強(qiáng)模塊(SIEM)
注意力機(jī)制能夠在基本不影響網(wǎng)絡(luò)運(yùn)行速度的情況下,從大量信息中選擇性的關(guān)注對當(dāng)前檢測任務(wù)更關(guān)鍵的信息。水稻田具有較為復(fù)雜的背景,水稻葉感染程度的不同也會呈現(xiàn)不同特征,引入注意力機(jī)制使模型更多地關(guān)注目標(biāo)信息,抑制復(fù)雜背景對檢測的干擾。在Yolov5的特征提取網(wǎng)絡(luò)中,高層特征含有豐富的語義信息,底層特征具有更細(xì)節(jié)的輪廓信息。高層語義信息與低層輪廓信息的融合對提高模型的檢測精度至關(guān)重要,因此,本文在特征提取網(wǎng)絡(luò)的SPPF層后引入本文設(shè)計(jì)的語義信息增強(qiáng)模塊,通過改進(jìn)的空間注意力機(jī)制與輕量級ECANet模塊融合,對高級語義關(guān)鍵信息進(jìn)行增強(qiáng),并在Yolov5的FPN結(jié)構(gòu)中通過上采樣,與淺層信息進(jìn)行融合,使增強(qiáng)后的語義信息引導(dǎo)特征融合。
1.3.1 空間注意力
如圖3所示,與已有的空間注意力不同,對于特征提取網(wǎng)絡(luò)輸出特征F,分別通過并行連接的三個1×1卷積,得到WM,WB,WA,其維度為[B×C×H×W],其中B為圖片序列,C為通道數(shù),H、W分別表示圖片的高和寬,再reshape為[C×HW]形式,將WB的轉(zhuǎn)置矩陣與WM相乘,得到空間注意力圖WS[HW×HW],高寬的相乘讓圖像每個像素點(diǎn)之間都產(chǎn)生了一定的聯(lián)系,即兩個不同空間位置的向量相關(guān)性,通過矩陣變換為[C×H×W],并使用激活函數(shù)Softmax激活得到權(quán)重系數(shù)WS。
WS=σ(WBT×WM)(2)
式中:σ——Softmax激活函數(shù)。
將權(quán)重系數(shù)WS輸入特征F[C×H×W]相乘得到空間注意力輸出特征FC。根據(jù)式(3)運(yùn)算結(jié)果,對輸入特征賦予權(quán)重系數(shù),關(guān)鍵特征得以增強(qiáng)。
FC=WS×(3)
1.3.2 通道注意力(ECANet)
大多數(shù)通道注意力趨向于引入復(fù)雜結(jié)構(gòu)來增強(qiáng)模型性能,不利于目標(biāo)的快速檢測,因此引入通道注意力模塊ECANet,ECANet是對SENet的一種改進(jìn),在引入極少運(yùn)算量的同時,能夠提高模型精度,對提升輕量化模型的檢測精度具有重要意義。ECANet采用了一種無需降維的局部跨通道交互策略和自適應(yīng)選擇一維卷積內(nèi)核大小的方法,實(shí)現(xiàn)性能的提升,如圖4所示,圖4中GAP表示全局平均池化。
輸入特征在不降維的情況下進(jìn)行逐通道全局平均池化再傳入卷積核大小為k的一維卷積層進(jìn)行特征提取,實(shí)現(xiàn)通道之間的信息交互,如式(4)所示。
w=δ[fConv(1×1)Dk(y)](4)
式中:fConv(1×1)——一維卷積操作;δ——激活函數(shù)Sigmoid;y——聚合特征;k——卷積核大小,表示本地跨通道交互范圍,即有k個近臨通道參與一個通道的特征預(yù)測;Dk(y)——全局平均池化操作。
ECA將自適應(yīng)確定交互范圍(即卷積核大小k)與通道維度C(卷積核數(shù)量)之間的關(guān)系設(shè)置如式(5)所示。
C=(k)=2(γ×k-b)(5)
式中:γ、b——常數(shù),本文設(shè)置γ=2,b=1。因此給定通道維數(shù)C時,即可確定卷積核大小k的值。
k=φ(C)=log2Cγ+bγodd(6)
式中:|x|odd——當(dāng)前與x最接近的奇數(shù)。
1.3.3 注意力融合模塊
如圖5所示,將空間注意力和通道注意力采用并行連接的方式,將得到的結(jié)果進(jìn)行相加并通過Sigmoid激活得到FSH,將原始輸入特征信息通過殘差結(jié)構(gòu)與相加融合后的權(quán)重相乘,得到輸出結(jié)果FY,即
FY=δ(FSH+FCS)×F(7)
根據(jù)式(7)可以看出,通過全局特征增強(qiáng)殘差模塊后的輸出FY為原輸入特征信號F經(jīng)過加權(quán)的結(jié)果。
1.4 上下文信息融合模塊
增大網(wǎng)絡(luò)的感受野增大網(wǎng)絡(luò)訓(xùn)練過程中卷積核相對于原圖的視野范圍,對于輸入特征F,通過空洞卷積層,得到的感受野大小為
RFl+1=RFl+(fl+1-1)×∏li-1Si(8)
式中:RFl+1——計(jì)算的目標(biāo)感受野大?。籖Fl——上一層特征圖對應(yīng)的感受野大??;i、l——第i、l層;fl+1——當(dāng)前卷積核大??;Si——對應(yīng)卷積層的步長。
空洞率的增加一定程度上增加了感受野,能夠獲取目標(biāo)周圍環(huán)境信息,但較大的感受野對小目標(biāo)的檢測性能較差。深度可分離卷積將普通卷積分解為深度卷積與逐點(diǎn)卷積,相較于普通卷積運(yùn)算,能夠減少模型計(jì)算參數(shù),Mobilenet模型是深度可分離卷積的經(jīng)典應(yīng)用。
為使網(wǎng)絡(luò)能夠?qū)?fù)雜環(huán)境下的不同尺寸大小的水稻病害目標(biāo)都能準(zhǔn)確檢測,借鑒語義分割任務(wù)中常見的ASPP結(jié)構(gòu),為避免模型加深導(dǎo)致檢測速度大幅下降,結(jié)合深度可分離卷積,提出上下文信息融合模塊。輸入特征F首先經(jīng)過卷積核大小為3×3的深度可分離卷積層(其中深度卷積核為3×3,點(diǎn)卷積核為1×1),并將輸出輸入到后續(xù)空洞率分別為1,3,5,卷積核大小為3×3深度可分離空洞卷積層,對特征進(jìn)行提取,多個感受野能得到更為豐富的上下文信息,增強(qiáng)特征層對目標(biāo)周圍環(huán)境的預(yù)測能力;同時將原輸入特征F經(jīng)過殘差結(jié)構(gòu)中的1×1卷積,保留原輸入信號,最后將四個并行分支的輸出在拼接后,通過1×1的卷積實(shí)現(xiàn)不同感受野的特征融合,如圖6所示。
由于多個感受野的堆疊會帶來大量的計(jì)算,引入深度可分離卷積能有效降低模型參數(shù),避免模型檢測速率的大幅下降。通過融合函數(shù)對多尺度感受野獲取到的上下文信息進(jìn)行融合,能有效提高模型檢測精度。由于高層特征已具有相對原圖較大的感受野范圍,為簡化模型,結(jié)合FPN結(jié)構(gòu),僅在兩個底層特征層后引入CIFM。
2 試驗(yàn)分析
2.1 數(shù)據(jù)集和訓(xùn)練平臺
訓(xùn)練數(shù)據(jù)集為Sethy等發(fā)布的Rice Leaf Disease Image Samples(RLDIS),共5 932張病害圖片,數(shù)據(jù)集中提供4類水稻葉片病害:白葉枯?。˙acterialblight)1 584張、稻瘟病(Blast)1 440張、褐斑?。˙rownspot)1 308張、東格魯?。═ungro)1 600張。采用人工標(biāo)注方式對數(shù)據(jù)集圖像進(jìn)行標(biāo)注,保存為PASCAL-VOC格式。訓(xùn)練服務(wù)器環(huán)境為Pytorch 1.7.0-GPU,GPU為NVIDIA GeForce RTX2080Ti×3。
2.2 訓(xùn)練分析
2.2.1 模型訓(xùn)練
基于遷移學(xué)習(xí)的思想,采用Yolov5s預(yù)訓(xùn)練模型訓(xùn)練,在第一個epoch已經(jīng)可以取得很好的效果,因此采用不凍結(jié)訓(xùn)練方式。bachsize設(shè)置為32,初始學(xué)習(xí)率設(shè)置為0.01,輸入圖片resize為640像素×640像素,訓(xùn)練100個epoch。訓(xùn)練得到的mAP(IOU=0.5)和Loss曲線如圖7所示。由于網(wǎng)絡(luò)加深,訓(xùn)練開始時收斂速度相比于原Yolov5s下降,但最終檢測精度高于原Yolov5s算法。
2.2.2 評價(jià)指標(biāo)
采用在COCO評價(jià)指標(biāo)中目標(biāo)檢測平均精度(Mean Average Precision,mAP,%)(IOU=0.5)作為模型檢測精度的評價(jià)指標(biāo),與準(zhǔn)確率(Precision,P,%)、召回率(Recall,R,%)的計(jì)算公式如式(9)~式(12)所示。
P=TPTP+FP×100%(9)
R=TPTP+FN×100%(10)
AP=∫10P(R)dR(11)
mAP=1M∑Mi=1AP(i)×100%(12)
式中:TP——正確劃為正樣本的數(shù)量;FP——錯誤劃為正樣本的數(shù)量;FN——錯誤劃為負(fù)樣本的數(shù)量;M——分類的類別數(shù)。
F1是用于衡量二分類(或多任務(wù)二分類)模型精確度的指標(biāo),如式(13)所示。
F1=2×P×RP+R(13)
2.2.3 模型對比
將本文算法與SSD-300,Yolov3-SPP,Yolov4,RetinaNet以及Faster R-CNN網(wǎng)絡(luò)進(jìn)行對比,結(jié)果如表1所示,F(xiàn)PS是在配置為:GPU:Nvidia RTX2070;CPU:IntelCoreTMi79750H 2.6 GHz測試結(jié)果,APB、APD、APH、APDG分別為白葉枯病、稻瘟病、褐病斑、東格魯病的AP值。F1B、F1D、F1H、F1DG分別為白葉枯病、稻瘟病、褐病斑、東格魯病的F1值。
根據(jù)對比試驗(yàn)結(jié)果可知,本文方法對比Faster R-CNN算法雖精度有所降低,但Faster R-CNN對水稻葉病檢測的FPS僅為3.0 f/s。圖8為各算法檢測效果圖,SSD-300、Yolov4、RetinaNet都存在對感染程度低的特征存在漏檢現(xiàn)象(圖中橢圓圈出)。本文方法檢測精度較Faster R-CNN低,但FPS達(dá)到了58.7 f/s,檢測速度遠(yuǎn)高于Faster R-CNN。雖存在一個漏檢目標(biāo),但其他評價(jià)參數(shù)優(yōu)于其他算法模型,并滿足實(shí)時檢測的需求。
2.3 消融試驗(yàn)
表2為對本文所設(shè)計(jì)的模塊設(shè)計(jì)不同的消融試驗(yàn),相對于未改進(jìn)的Yolov5s,采用K-means聚類anchors、增加CIFM、增加SIEM時,mAP(IOU=0.5)分別提高了1.6%、0.8%、1.9%,F(xiàn)1值分別提高1.0%、2.7%、2.2%,證明了各模塊的有效性,改進(jìn)后的算法相對于原算法mAP(IOU=0.5)提高了4.3%,F(xiàn)1值提高了5.3%,檢測速度雖稍有下降,但檢測精度得到了有效的提升,驗(yàn)證了本文方法的有效性。
3 結(jié)論
為在水稻葉病實(shí)時檢測過程中提高檢測精度,提出一種改進(jìn)Yolov5s目標(biāo)檢測模型的方法,以解決當(dāng)前水稻葉病實(shí)時檢測精度較低的問題。
1) ?采用K-means聚類算法優(yōu)化得到改進(jìn)的先驗(yàn)證框尺寸;對Yolov5s網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化,引入輕量級的空間注意力與通道注意力,并將其融合,使模型更好地關(guān)注于關(guān)鍵信息;結(jié)合深度可分離卷積在減少計(jì)算量的情況下,將底層特征通過多尺度的感受野加以聚合,提高模型對目標(biāo)周圍信息的感知。實(shí)現(xiàn)Yolov5s算法在引入較少計(jì)算量的前提下,有效提高水稻葉病的檢測精度。
2) ?對比試驗(yàn)表明,改進(jìn)后的Yolov5s算法相對于原Yolov5s算法,mAP提高4.3%,F(xiàn)1值提高5.3%,F(xiàn)PS為58.7f/s,遠(yuǎn)高于SSD-300,Yolov3-SPP,Yolov4,RetinaNet以及Faster R-CNN目標(biāo)檢測網(wǎng)絡(luò)。在提高檢測精度的同時,滿足實(shí)時檢測的需求。
3) ?設(shè)計(jì)消融試驗(yàn)對各模塊的有效性進(jìn)行驗(yàn)證,結(jié)果表明:采用K-means聚類、增加CIFM、增加SIEM時,mAP分別提高了1.6%、0.8%、1.9%,F(xiàn)1值分別提高1.0%、2.7%、2.2%,證明了本文方法的有效性。
參 考 文 獻(xiàn)
[1]Bao W, Qiu X, Liang D, et al. Recognition insect images at the order level based on elliptic metric learning [J]. Applied Engineering in Agriculture, 2021, 37(1): 163-170.
[2]謝錫水. 水稻病蟲害防治中的突出問題及其對策淺析[J]. 中國農(nóng)業(yè)信息, 2017(19): 54-56.
[3]Lim S, Kim S, Park S, et al. Development of application for forest insect classification using CNN [C]. 2018 15th International Conference on Control, Automation, Robotics and Vision (ICARCV). IEEE, 2018: 1128-1131.
[4]Zhao J, Fang Y, Chu G, et al. Identification of leaf-scale wheat powdery mildew (Blumeria graminis f. sp. Tritici) combining hyperspectral imaging and an SVM classifier [J]. Plants, 2020, 9(8): 936.
[5]Liu T, Chen W, Wu W, et al. Detection of aphids in wheat fields using a computer vision technique [J]. Biosystems Engineering, 2016, 141: 82-93.
[6]魏麗冉, 岳峻, 李振波, 等. 基于核函數(shù)支持向量機(jī)的植物葉部病害多分類檢測方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2017, 48(S1): 166-171.Wei Liran, Yue Jun, Li Zhenbo, et al. Multi-classification detection method of plant leaf disease based on kernel function SVM [J]. Transactions of the Chinese Society for Agricultural Machinery, 2017, 48(S1): 166-171.
[7]鮑文霞, 孫慶, 胡根生, 等. 基于多路卷積神經(jīng)網(wǎng)絡(luò)的大田小麥赤霉病圖像識別[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2020, 36(11): 174-181.Bao Wenxia, Sun Qing, Hu Gensheng, et al.Image recognition of field wheat scab based on multi-way convolutional neural network [J]. Transactions of the Chinese Society of Agricultural Engineering, 2020, 36(11): 174-181.
[8]Sun H, Xu H, Liu B, et al. MEAN-SSD: A novel real-time detector for apple leaf diseases using improved light-weight convolutional neural networks [J]. Computers and Electronics in Agriculture, 2021, 189: 106379.
[9]曾偉輝, 唐欣, 胡根生, 等. 基于卷積塊注意力膠囊網(wǎng)絡(luò)的小樣本水稻害蟲識別[J]. 中國農(nóng)業(yè)大學(xué)學(xué)報(bào), 2022, 27(3): 63-74.Zeng Weihui, Tang Xin, Hu Gensheng, et al. Small-sample rice pest identification based on convolutional block attention capsule network [J]. Journal of China Agricultural University, 2022, 27(3): 63-74.
[10]任歡, 王旭光. 注意力機(jī)制綜述[J]. 計(jì)算機(jī)應(yīng)用, 2021, 41(S1): 1-6.Ren Huan, Wang Xuguang. Areview of attention mechanism [J]. Journal of Computer Applications, 2021, 41(S1): 1-6.
[11]陳瑩, 龔蘇明. 改進(jìn)通道注意力機(jī)制下的人體行為識別網(wǎng)絡(luò)[J]. 電子與信息學(xué)報(bào), 2021, 43(12): 3538-3545.Chen Ying, Gong Suming. Human action recognition network based on improved channel attention mechanism [J]. Journal of Electronics & Information Technology, 2021, 43(12): 3538-3545.
[12]Xu Z, Huang X, Huang Y, et al. A real-time zanthoxylum target detection method for an intelligent picking robot under a complex background, based on an improved YOLOv5s architecture [J]. Sensors, 2022, 22(2): 682.
[13]王文亮, 李延祥, 張一帆, 等. MPANet-YOLOv5:多路徑聚合網(wǎng)絡(luò)復(fù)雜海域目標(biāo)檢測[J]. 湖南大學(xué)學(xué)報(bào)(自然科學(xué)版), 2022, 49(10): 69-76.Wang Wenliang, Li Yanxiang, Zhang Yifan, et al. MPANet-YOLOv5: Multi-path aggregation network for complex sea object detection [J]. Journal of Hunan University (Natural Sciences), 2022, 49(10): 69-76.
[14]顧寶興, 劉欽, 田光兆, 等. 基于改進(jìn)YOLOv3的果樹樹干識別和定位[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2022, 38(6): 122-129.Gu Baoxing, Liu Qin, Tian Guangzhao, et al. Recognizing and locating the trunk of a fruit tree using improved YOLOv3 [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(6): 122-129.
[15]Yang R, Li W, Shang X, et al. KPE-YOLOv5: An improved small target detection algorithm based on YOLOv5 [J]. Electronics, 2023, 12(4): 817.
[16]Zheng Z, Qi H Y, Zhuang L, et al. Automated rail surface crack analytics using deep data-driven models and transfer learning [J]. Sustainable Cities and Society, 2021, 70: 102898.
[17]Ren S, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. Advances in Neural Information Processing Systems, 2015, 28.
[18]Zhang K, Zhou H, Bian H, et al. Certified defense against patch attacks via mask-guided randomized smoothing [J]. Science China Information Sciences, 2022, 65(7): 170306.
基金項(xiàng)目:浙江省重點(diǎn)研發(fā)計(jì)劃項(xiàng)目(2018C01085);杭州市農(nóng)業(yè)與社會發(fā)展科研項(xiàng)目(20200401A05);浙江省大學(xué)生科技創(chuàng)新活動計(jì)劃暨新苗人才計(jì)劃項(xiàng)目(2020R415032)
第一作者:項(xiàng)新建,男,1964年生,浙江永康人,碩士,教授;研究方向?yàn)槿斯ぶ悄堋C(jī)器人。E-mail: 188002@zust.edu.cn
通訊作者:曹光客,男,1981年生,浙江杭州人,工程師;研究方向?yàn)闄C(jī)器人。E-mail: cgk@shenhaoinfo.com