亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進YOLO v8的草莓病害檢測方法

        2024-12-31 00:00:00葉琪王麗芬馬明濤趙鑫段必沖
        江蘇農(nóng)業(yè)科學 2024年20期
        關(guān)鍵詞:注意力機制

        doi:10.15889/j.issn.1002-1302.2024.20.030

        摘要:針對自然條件下草莓病害檢測難度大、人工檢測效率低下、傳統(tǒng)計算機檢測方式步驟繁瑣、檢測精度差以及模型的參數(shù)量與計算量大的問題,構(gòu)建一種基于改進YOLO v8的草莓病害檢測模型。該模型使用Slim-Neck結(jié)構(gòu)代替原YOLO v8網(wǎng)絡的頸部(Neck)結(jié)構(gòu)以降低深度可分離卷積特征提取和融合能力差的缺陷對模型造成的負面影響,在降低模型參數(shù)量和計算量的同時不會損失檢測的準確度,并且該結(jié)構(gòu)能使模型更好地應用于復雜的草莓種植環(huán)境。模型還引入了通道注意力和空間注意力機制(CBAM)以提高病害特征的提取能力同時忽略圖片中不相關(guān)的信息。最后模型將YOLO v8中的邊界框損失函數(shù)替換為MPDIoU以提升檢測和目標定位的能力。結(jié)果表明,本模型在一個含有7類草莓病害的開源數(shù)據(jù)集可以實現(xiàn)96.5%的平均精度(mAP),同時僅有2.9 M參數(shù)量和 7.4 GFLOPs 值,相比于原始YOLO v8n、YOLO v7-tiny、YOLO v6n和YOLO v5s模型的mAP分別提升1.2、1.9、3.7和2.5百分點。改進后的模型具有更高的檢測精度和更小的參數(shù)量與計算量,可為實際草莓種植環(huán)境下的病害檢測提供參考。

        關(guān)鍵詞:病害檢測;YOLO v8;注意力機制;Slim-Neck;MPDIoU

        中圖分類號:S126;TP391.41" 文獻標志碼:A

        文章編號:1002-1302(2024)20-0250-10

        收稿日期:2023-11-02

        基金項目:吉林省科技發(fā)展計劃(編號:20230201073GX);吉林省重點新興交叉學科“數(shù)字農(nóng)業(yè)”課題。

        作者簡介:葉" 琪(2000—),男,福建泉州人,碩士研究生,研究方向為計算機視覺。E-mail:1564633612@qq.com。

        通信作者:王麗芬,碩士,副教授,主要從事計算機圖形學、軟件工程研究,E-mail:306923482@qq.com;馬明濤,博士,教授,主要從事電子電路和信號的檢測、傳輸研究,E-mail:35172318@qq.com。

        草莓是一種深受人們喜愛的水果,在世界范圍內(nèi)被廣泛種植。根據(jù)聯(lián)合國糧食及農(nóng)業(yè)組織(FAO)的調(diào)查數(shù)據(jù),2008年到2018年10年間全球草莓數(shù)量增加了39.4%,我國的草莓產(chǎn)量也從2008年的190萬t增長到2018年的300萬t[1]。但是草莓在種植過程中極易受到各種病害的侵蝕,細菌、真菌和病毒等會對草莓的葉片果實等造成危害,影響草莓成長甚至造成草莓植株的死亡[2]。因此,精準識別并控制草莓病害的傳播對草莓種植產(chǎn)業(yè)顯得尤為重要。

        傳統(tǒng)的人工檢測植物病害的方法成本高、效率差且誤檢率高,隨著精準農(nóng)業(yè)的興起,計算機輔助檢測植物病害技術(shù)開始在實際農(nóng)業(yè)生產(chǎn)過程中得到應用[3]。蔣龍泉等提出了一種基于多特征融合和支持向量機(support vector machine,簡稱SVM)分類器的植物病蟲害檢測方法,使用Bag Of Features(BoF)多特征融合技術(shù)后,檢測正確度達到95.91%[4]。Eaganathan等提出一種基于k均值分割和k近鄰(k-nearest neighbors,簡稱KNN)分類器的甘蔗病害識別算法,該方法對甘蔗葉片焦枯病的監(jiān)測準確率達95%[5]。

        近年來,憑借自動化學習和特征提取的優(yōu)勢,深度學習成為農(nóng)業(yè)植物保護領(lǐng)域的研究熱點,不同于傳統(tǒng)圖像處理和識別技術(shù),深度學習可以簡化識別流程,減少人工特征提取的干擾,并且可以在更復雜的自然條件下進行檢測,大大提高了植物病害的檢測效率[6]。Khan等提出了一種實時病蟲害檢測模型,先使用輕量級卷積神經(jīng)網(wǎng)絡(convolutional neural network,簡稱CNN)對健康與患病的葉片進行分類,隨后使用目標檢測模型對葉片病害區(qū)域進行檢測,最終實現(xiàn)88%的分類準確度和42%的檢測準確度[7]。毛銳等通過構(gòu)建Faster-RCNN和改進的ResNet-50網(wǎng)絡模型,對小麥條銹病和黃矮病的識別平均準確率達93.56%[8]。Liu等采用基于圖像金字塔的多尺度特征融合、目標邊界框維度聚類和多尺度訓練的方法改進YOLO v3網(wǎng)絡,在一個自建的多類別番茄病蟲害數(shù)據(jù)集的檢測效果可達92.39%[9]。在草莓病害檢測方面,Nie等提出了一種基于Faster-RCNN和多任務處理的草莓黃萎病檢測網(wǎng)絡,它可以對草莓的葉柄和葉片進行檢測并推測整個植株是否感染黃萎病,該模型在一個含4種類別的數(shù)據(jù)集中取得了77.54%的平均檢測精度[10]。Kim等提出了一種以PlanetNet為骨干特征提取器的兩階段級聯(lián)草莓病害檢測網(wǎng)絡,首先識別疑似病變區(qū)域,隨后再對病變區(qū)域進行精細檢測,該網(wǎng)絡對多種草莓病害的平均檢測精度達到91.65%[11]。Li等提出了一種DAC-YOLO v4網(wǎng)絡對草莓葉片白粉病進行檢測,這種改進的YOLO v4網(wǎng)絡相比于原始網(wǎng)絡平均精度上漲了5.1%,達到72.7%,同時擁有更快的檢測速度[12]。Zhang等提出了一種基于YOLO v4-tiny的草莓檢測網(wǎng)絡RTSD-Net,它將原有的CSPNet替換為參數(shù)減少、結(jié)構(gòu)簡化的2種CSPNet,該結(jié)構(gòu)檢測精度相較于YOLO v4 tiny下降了0.62%,但是檢測速度提高了25幀/s[13]。

        以上深度學習方法相比于傳統(tǒng)的機器學習方法檢測植物病害雖然在速度或精度上有一定提升,并且可以在更復雜的環(huán)境中進行檢測,但是仍然存在一些問題:使用二階段檢測方法的模型雖然準確率較好但檢測效率較低;一些模型無法同時滿足精度和速度提升的要求??紤]到傳統(tǒng)草莓病害的各種問題,本研究以YOLO v8n模型為基礎(chǔ),提出了一種全新的草莓病害檢測模型,主要貢獻有:

        (1)使用由GSConv卷積和VoV-GSCSP模型組成的Slim-Neck架構(gòu)代替原有YOLO v8的頸部結(jié)構(gòu),這樣的結(jié)構(gòu)不僅有效降低了模型的參數(shù)和計算量并且可以保證模型精度不損失[14]。

        (2)在模型中加入通道注意力和空間注意力機制(Convolutional Block Attention Module,簡稱CBAM)以提高模型對病蟲害特征的提?。?5]。

        (3)使用MPDIoU代替初始模型的邊界框回歸損失函數(shù)[16]。

        1" YOLO v8介紹

        YOLO(You Only Look Once)是一種單階段目標檢測模型,最早是由Redmon等于2016年提出的[17]。相比于更早之前的多階段目標檢測模型,YOLO簡化了網(wǎng)絡結(jié)構(gòu)和檢測流程,同時YOLO也更易部署在嵌入式等資源受限的設備上。本研究所采用的模型是基于YOLO v8進行改進的,它是由ultralytics團隊繼YOLO v5后推出的最新圖像檢測算法,圖1展示了YOLO v8的結(jié)構(gòu)。

        YOLO v8的主干部分(Backbone)將之前 YOLO v5 中的C3結(jié)構(gòu)替換為C2f,C2f結(jié)構(gòu)的設計參考了C3結(jié)構(gòu)和YOLO v7中的ELAN結(jié)構(gòu)思想[18],這使得YOLO v8除了擁有更精簡的結(jié)構(gòu)外還擁有更豐富的梯度流信息。同時在主干部分的最后使用SPPF結(jié)構(gòu),SPPF結(jié)構(gòu)是一種圖像特征提取技術(shù),它是SPP結(jié)構(gòu)[19]的改進版本,可以增大感受野,通過在不同尺寸的網(wǎng)格上對特征圖進行池化操作,可以使網(wǎng)絡能夠處理不同尺寸的輸入圖像,而不需要調(diào)整網(wǎng)絡結(jié)構(gòu)。

        YOLO v8的頸部部分(Neck)采用的仍然是YOLO v5中的PAN-FPN架構(gòu),不同的是所有C3模塊都被替換為C2f模塊,并且刪除了上采樣前的2個1×1卷積層,直接將主干部分所提取的不同特征輸入進行上采樣操作。

        YOLO v8的頭部部分(Head)將原先的耦合頭(Coupled Head)替換為與YOLOX和YOLO v6網(wǎng)絡類似的解耦頭(Decoupled Head)。同時使用 Anchor-替換掉原先網(wǎng)絡中的Anchor-Based思想,它可以自適應地學習目標的位置和尺寸,降低模型復雜度和計算量,更容易應用于不同類型的目標檢測任務。

        YOLO v8采用了全新的動態(tài)正負樣本標簽匹配算法對齊分類器(TaskAlignedAssigner)[20],它能根據(jù)回歸與加權(quán)的分數(shù)選擇正樣本,相比于YOLO v5的靜態(tài)分配策略,可以更有效地利用資源,增強檢測系統(tǒng)的魯棒性。YOLO v8的Loss計算包含回歸損失和類別損失,相比于YOLOv5少了置信度損失

        (Objectness Loss)?;貧w損失采用Distribution Focal Loss + CIoU Loss策略[21],它可以減少模型計算量并提高檢測速度。類別損失采用經(jīng)典的二值交叉熵損失(Binary Cross-Entropy Loss,簡稱BCE Loss),它能夠使模型更準確地區(qū)分不同的類別,提高分類的精度。

        2" 網(wǎng)絡改進

        YOLO v8網(wǎng)絡雖然相比于之前的目標檢測網(wǎng)絡在性能和網(wǎng)絡結(jié)構(gòu)方面得到了明顯的優(yōu)化和提高,但是為了滿足實際農(nóng)業(yè)種植的需求,網(wǎng)絡在保證簡潔輕量化的同時也不應該忽視檢測精度,本研究針對原版YOLO v8進行改進,將原版YOLO v8的Neck部分替換為了融合GSConv和VoV-GSCSP的Slim-Neck結(jié)構(gòu),同時使用CBAM注意力機制增強草莓病蟲害的特征提取,最后將邊界框回歸損失函數(shù)由原網(wǎng)絡的CIoU Loss替換為了MPDIoU Loss,改進后的網(wǎng)絡如圖2所示。

        2.1" Slim-Neck結(jié)構(gòu)

        Slim-Neck包含了GSConv和VoV-GSCSP 2個部分。它最早是一種作用于自動駕駛汽車目標檢測的輕量化架構(gòu),因此它對于復雜環(huán)境和場景檢測有較好的提升,而草莓病害檢測也可能受光照、病害密度等復雜環(huán)境的影響,所以本研究選擇用 Slim-Neck替換原YOLO v8的Neck結(jié)構(gòu)。

        經(jīng)典的輕量化網(wǎng)絡,如Mobilenets、Shufflenet和Ghostnet等網(wǎng)絡雖然能減少網(wǎng)絡的參數(shù)量和計算量,但是這往往需要犧牲網(wǎng)絡的檢測精度去換取。很多輕量化網(wǎng)絡會使用深度可分離卷積替代標準卷積,深度可分離卷積包含2個獨立的卷積操作,雖然這一特性能僅針對每個輸入通道執(zhí)行卷積操作使得學習權(quán)重數(shù)量減少進而降低模型參數(shù),但是這

        也會導致網(wǎng)絡特征提取和融合的能力降低,影響檢測精度。為了使深度可分離卷積的輸出精度接近標準卷積,一種全新的卷積GSConv被提出,它使用“通道隨機排序”(Channel Shuffle)的方法將標準卷積生成的信息滲透到深度可分離卷積輸出的信息中,并且不需要添加其他冗余的結(jié)構(gòu),其網(wǎng)絡架構(gòu)如圖3所示。考慮到如果在Backbone和Neck部分一起添加GSConv可能會導致網(wǎng)絡層數(shù)的增加以及網(wǎng)絡數(shù)據(jù)流變復雜,進而導致網(wǎng)絡變大,因此本研究只在模型的Neck部分使用GSConv。

        此外Slim-Neck還包含一種基于GSConv的跨階段部分網(wǎng)絡VoV-GSCSP,本研究主要是用于替換網(wǎng)絡Neck部分的C2f結(jié)構(gòu),其結(jié)構(gòu)如圖4所示。這個結(jié)構(gòu)類似CSP結(jié)構(gòu),它引入了分階段的特征提取,能將特征圖送入“主干”和“支干”2個不同的卷積階段,這樣的設計有助于信息在不同階段之間自由流動,確保了低級別特征(如邊緣紋理信息)和高級別特征(如語義信息)之間的傳遞,從而充分利用不同層次的特征信息,避免了殘差結(jié)構(gòu)中的梯度消失和信息瓶頸的問題。同時配合上GSConv的使用可以減少整體參數(shù)量和計算量,提高模型的計算效率。

        2.2" CBAM注意力機制

        為了提高模型對草莓病蟲害特征的提取能力,

        同時忽略掉次要和不相關(guān)的信息,本研究決定在模型的Neck部分使用注意力機制。CBAM注意力機制結(jié)合了空間注意力機制(Spatial Attention)和通道注意力機制(Channel Attention),相較于單通道或單空間注意力機制,CBAM可以同時調(diào)整通道和空間位置的特征重要性,更全面地優(yōu)化特征表示。

        CBAM的結(jié)構(gòu)如圖5所示。對于輸入的圖像,通道注意力模塊首先進行全局平均池化對通道進行降維處理,但是相比于SE注意力機制,這里還多引入了一個最大池化處理,這樣經(jīng)過2次池化操作后可以得到2個標量(scaler)。隨后將這個標量特征值傳遞到一個小型全連接神經(jīng)網(wǎng)絡中,這個網(wǎng)絡一般包含1個全連接層和1個ReLU激活函數(shù),接著這個全連接網(wǎng)絡的輸出還會通過另一個全連接層,并且經(jīng)過激活函數(shù)Sigmoid產(chǎn)生一個通道注意力權(quán)重向量。這個權(quán)重向量的維度與輸入通道數(shù)相同,每個元素表示對應通道的權(quán)重。最后,通過乘法操作將通道注意力權(quán)重向量應用于原始輸入特征圖的每個通道。

        通道注意力輸出的權(quán)重向量將會被用于調(diào)節(jié)原始輸入特征圖的每個通道,并使用1×1卷積核進行卷積操作得到新的特征圖。隨后進行最大池化和平均池化操作并對生成的2個二維向量進行拼接,之后還要經(jīng)過一個7×7或3×3卷積核的卷積操作,最后經(jīng)過一個Sigmoid激活函數(shù)生成通道注意力的權(quán)重向量并將該權(quán)重與輸入特征圖相乘。

        2.3" MPDIoU邊界框回歸損失函數(shù)

        邊界框回歸損失函數(shù)的作用是衡量目標檢測任務中預測邊界框與實際目標邊界框之間的誤差,YOLO v8默認的IoU損失函數(shù)為CIoU,它的示意圖如圖6所示,公式如式(1)所示:

        LCLoU=1-IoU+ρ2(Bgt,Bprd)C2+αV

        IoU=Bgt∩BprdBgt∪Bprd

        V=4π2arctanwgthgt-arctanwprdhprd2

        α=V1-IoU+V。(1)

        式中:Bgt和Bprd分別表示真實邊界框與預測邊界框;ρ(Bgt,Bprd)表示真實框與預測框中心點之間的歐氏距離;C表示兩者最小的封閉矩形的對角線長度;wgt、wprd、hgt和hprd分別表示真實框與預測框的長寬;V用于度量長寬比;α是一個正的平衡參數(shù)。

        雖然CIoU損失函數(shù)對之前的IoU損失函數(shù)所存在的預測框與真實框不重疊、預測框被真實框完全覆蓋或預測框與真實框中心點重合等問題進行了優(yōu)化,但是CIoU僅僅是把長寬比視為一個相對的比值,如果真實框與預測框擁有相同的長寬比但是長寬的值不相同,這很有可能導致罰項失效并且邊界框長寬無法同增同減的問題,進而影響模型的收斂速度和預測精度。因此一種全新的基于IoU的損失函數(shù)MPDIoU被提出,它的示意圖如圖7所示,其公式如公式(2)所示:

        LMPDIoU=1-IoU+d21w2+h2+d22w2+h2

        d21=(xprdtl-xgttl)2+(yprdtl-ygttl)2

        d22=(xprdbr-xgtbr)2+(yprdbr-ygtbr)2。(2)

        式中:(xgttl,ygttl)、(xgtbr,ygtbr)分別表示真實邊界框左上頂點和右下頂點的坐標;(xprdtl,yprdtl)、(xprdbr,yprdbr)表示預測邊界框左上頂點和右下頂點的坐標;d1是預測框和真實框左上角間的距離;d2是預測框和真實框右下角間的距離。

        區(qū)別于其他IoU損失函數(shù),MPDIoU以預測框和真實框的左上角點與右下角點為基準建立一個矩形(圖7),以往IoU損失函數(shù)需要考慮的2框重疊與不重疊、中心點距離和長寬比問題均可通過這個矩形確定。由此可以看出,MPDIoU相對于之前的邊界框回歸損失函數(shù)不僅考量的數(shù)據(jù)更為全面,而且相對于CIoU計算步驟更為簡便。

        3" 結(jié)果與分析

        3.1" 數(shù)據(jù)集的構(gòu)建

        本試驗選取了由Afzaal等建立的一個開源草莓數(shù)據(jù)集[23]。數(shù)據(jù)集中的圖片均經(jīng)過仔細的篩選和標注,將所有圖片統(tǒng)一壓縮為640×640×3大小。數(shù)據(jù)集中包含7種常見的草莓病害共2 460張圖片,按照8 ∶1 ∶1的比例將數(shù)據(jù)集劃分為訓練集、驗證集和測試集。為了提高模型的泛化能力,防止過擬合,本研究采用隨機旋轉(zhuǎn)、曝光度調(diào)節(jié)、明暗度調(diào)節(jié)和裁剪等圖像處理手段對訓練集進行擴充,每種病害以及它們擴充前后的圖片數(shù)量如表1所示。

        3.2" 試驗環(huán)境和初始設置

        本試驗所使用的操作系統(tǒng)為微軟公司的Windows 11,運行程序的軟件為Pycharm 2023.2.1,使用的框架為CUDA 11.3+Python 3.8+Pytorch 1.11.0,使用的運算硬件為NVIDIA RTX4090 24 G+ Intel Xeon Platinum 8 352 V CPU @ 2.10 GHz。本試驗使用YOLO v8團隊提供的官方預訓練權(quán)重以提高模型的訓練效果,同時開啟了Mosaic數(shù)據(jù)增強,YOLO v8默認會在訓練的最后10個epoch自動關(guān)閉該功能。超參數(shù)設置如表2所示。

        3.3" 評價標準

        本試驗主要采用參數(shù)量(Parameters)、計算量(FLOPs)和幀數(shù)(FPS)作為模型大小、復雜度與檢測速度的衡量指標。準確率(precision,簡稱P)、召回率(recall,簡稱R)和均值平均精度(mean average precision,簡稱mAP)作為檢測準確性的判別指標,準確率越高表示誤檢的概率越小,召回率越高表示漏檢的概率越小,它們的公式如公式(3)、公式(4)和公式(5)所示:

        P=TPTP+FP;(3)

        R=TPTP+FN;(4)

        mAP=1N∑Nj=1APj。(5)

        式中:TP表示正樣本被正確識別的數(shù)量;FP表示識別錯誤的負樣本數(shù)量;FN表示被漏檢的正樣本數(shù)量;N表示類別數(shù);APj表示第j個類別的值。

        3.4" 試驗結(jié)果

        3.4.1" 注意力模塊的對比

        為了驗證相較于其他注意力機制,CBAM在本試驗所用到的數(shù)據(jù)集中是否有更好的效果,本研究選取了其他注意力機制進行對比,分別是SE、CA、GMA、ShuffleAttention和EMA注意力機制[24-28]。對比的結(jié)果如表3所示。

        可以看出使用SE、CA和EMA注意力機制,相較于原版模型改進后的模型出現(xiàn)了掉點的情況,而添加GMA注意力機制的模型出現(xiàn)了參數(shù)增加、模型變復雜、導致幀數(shù)大幅下降的情況,使用CBAM的網(wǎng)絡不僅mAP值和魯棒性優(yōu)于其他注意力機制,而且不會造成網(wǎng)絡的過分冗余。圖8對比了原版YOLO v8網(wǎng)絡和添加CBAM注意力機制后的熱力圖GradCAM,其中紅色突出的區(qū)域表示了模型集中注意力的感興趣區(qū)域,可以看到CBAM可以更好地關(guān)注病害發(fā)生的區(qū)域。

        3.4.2" 消融試驗

        為了證明本研究所采用的改進方法的有效性,本研究使用了幾組消融試驗進行對比驗證,試驗結(jié)果如表4所示。

        由表4可以看出,模型1為未改進的原版YOLO v8n模型。模型3在添加Slim-Neck模塊之后,準確率和mAP值分別上漲了2百分點和0.4百分點,同時參數(shù)量和計算量分別下降了6.67%和9.76%,這證明了Slim-Neck在使網(wǎng)絡更輕量的同時也能做到檢測精度不損失。模型5相比模型3加入了CBAM注意力機制,雖然準確率略微下降0.4百分點,但召回率和mAP值均有小幅上漲,分別上漲了2.8百分點和0.7百分點。模型8在模型5的基礎(chǔ)上又添加了MPDIoU,召回率下滑1.4百分點,但是準確率和mAP分別上漲0.7百分點和0.1百分點。圖9是模型訓練的mAP值變化曲線圖,可以看出所有模型在100輪后逐漸開始擬合,模型8在125輪前增長效果不如其他模型,但在125輪后平均精度mAP值逐漸超越其他模型。

        相較于原版模型,模型8雖然檢測的速率有所

        降低,但是參數(shù)和計算量仍然比原版模型減少3.33%和9.76%,很適合部署在硬件條件受限的移動設備中以滿足實際草莓病害檢測的需求。綜合考慮各種因素,本研究最終決定選用各項數(shù)據(jù)相對平衡的模型8作為草莓檢測模型。

        3.4.3" 與其他模型的對比

        本研究使用 YOLO v5s、YOLO v6n、YOLO v7-tiny和YOLO v8n模型與改進的模型進行對比,對比的結(jié)果如表5所示。

        可以看出,相較于YOLO v5s、YOLO v6n、YOLO v7-tiny 等流行的YOLO目標檢測網(wǎng)絡模型,改進后的模型不僅檢測的精度和魯棒性都優(yōu)于這些模型,并且模型參數(shù)、計算量相比這些模型都有較大幅度的減少,同時檢測的速度也優(yōu)于這些模型,具有良好的實時性。

        圖10對比了以上模型的實際檢測結(jié)果,可以看出YOLO v7-tiny網(wǎng)絡存在較多漏檢的情況,YOLO v6n 和YOLO v8n網(wǎng)絡都把炭疽病果實腐爛誤檢為了灰霉病,并且YOLO v8n網(wǎng)絡在密集的且嚴重感染白粉病的葉片環(huán)境存在部分小目標漏檢和誤檢的情況,同時在葉斑病圖片中將左上角光線較暗環(huán)境下的健康葉片誤檢為病害圖片。YOLO v5s 對圖中的白粉病葉片圖片同樣存在漏檢,而本研究所改進的網(wǎng)絡由于增強了草莓病害特征提取的能力,同時采用了更先進的邊界框回歸損失函數(shù),因此能更有效地避免目標被誤檢或漏檢以更好地應用在實際的農(nóng)業(yè)生產(chǎn)種植過程中。

        4" 結(jié)論

        考慮到人工檢測草莓病害效率低下以及傳統(tǒng)計算機檢測方法步驟繁瑣,模型結(jié)構(gòu)復雜以及檢測精度不高等問題,本研究設計了一個基于YOLO v8n的改進草莓病害檢測模型。為了更好地對草莓病害的特征進行提取,本研究對比了6種注意力機制,最終選定添加CBAM注意力機制。為了精簡模型參數(shù)量和計算量,同時不損失檢測精度,本研究將原模型的Neck結(jié)構(gòu)替換成了Slim-Neck結(jié)構(gòu)。為了優(yōu)化預測邊界框與實際目標邊界框之間的誤差計算,本研究使用MPDIoU代替原模型的CIoU。經(jīng)測試,改進后的模型相比于原YOLO v8網(wǎng)絡mAP值提高了1.2百分點,參數(shù)量和計算量分別降低了減少3.33%和9.76%。同時對比其他YOLO目標檢測模型也有明顯的優(yōu)勢。在未來的工作中,將對模型的骨干網(wǎng)絡進行更輕量化的處理,提高網(wǎng)絡實時檢測的速率,同時部署到移動設備以更好地滿足實際生產(chǎn)過程的需要。

        參考文獻:

        [1]梁" 容,摘譯. 全球:十年間草莓產(chǎn)量增長近40%[J]. 中國果業(yè)信息,2020(10):48.

        [2]宋長年,李紅月,董瑞萍,等. 大櫻桃病害防治技術(shù)研究進展[J]. 現(xiàn)代農(nóng)業(yè)科技,2022(15):115-118,122.

        [3]汪京京,張" 武,劉連忠,等. 農(nóng)作物病蟲害圖像識別技術(shù)的研究綜述[J]. 計算機工程與科學,2014,36(7):1363-1370.

        [4]蔣龍泉,魯" 帥,馮" 瑞,等. 基于多特征融合和SVM分類器的植物病蟲害檢測方法[J]. 計算機應用與軟件,2014,31(12):186-190.

        [5]Eaganathan U,Sophia J,Luckose V,et al. Identification of sugarcane leaf scorch diseases using K-means clustering segmentation and K-NN based classification[J]. International Journal of Advances in Computer Science and Technology,2014,3(12):11-16.

        [6]Li L L,Zhang S J,Wang B. Plant disease detection and classification by deep learning:a review[J]. IEEE Access,2021,9:56683-56698.

        [7]Khan A I,Quadri S M K,Banday S,et al. Deep diagnosis:a real-time apple leaf disease detection system based on deep learning[J]. Computers and Electronics in Agriculture,2022,198:107093.

        [8]毛" 銳,張宇晨,王澤璽,等. 利用改進Faster-RCNN識別小麥條銹病和黃矮?。跩]. 農(nóng)業(yè)工程學報,2022,38(17):176-185.

        [9]Liu J,Wang X W. Tomato diseases and pests detection based on improved YOYO v3 convolutional neural network[J]. Frontiers in Plant Science,2020,11:898.

        [10]Nie X,Wang L Y,Ding H X,et al. Strawberry Verticillium wilt detection network based on multi-task learning and attention[J]. IEEE Access,2019,7:170003-170011.

        [11]Kim B,Han Y K,Park J H,et al. Improved vision-based detection of strawberry diseases using a deep neural network[J]. Frontiers in Plant Science,2021,11:559172.

        [12]Li Y,Wang J C,Wu H R,et al. Detection of powdery mildew on strawberry leaves based on DAC-YOLO v4 model[J]. Computers and Electronics in Agriculture,2022,202:107418.

        [13]Zhang Y C,Yu J Y,Chen Y,et al. Real-time strawberry detection using deep neural networks on embedded system (rtsd-net):an edge AI application[J]. Computers and Electronics in Agriculture,2022,192:106586.

        [14]Li H L,Li J,Wei H B,et al. Slim-neck by GSConv:a lightweight-design for real-time detector architectures[J]. Journal of Real-Time Image Processing,2024,21(3):62.

        [15]Woo S,Park J,Lee J Y,et al. CBAM:convolutional block attention module[C]//European Conference on Computer Vision.Cham:Springer,2018:3-19.

        [16]Siliang M,Yong X. MPDIoU:a loss for efficient and accurate bounding box regression[EB/OL]. (2023-06-14)[2023-10-25]. https://arxiv.org/abs/2307.07662.

        [17]Redmon J,Divvala S,Girshick R,et al. You only look once:unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas,NV,USA.IEEE,2016:779-788.

        [18]Wang C Y,Bochkovskiy A,Liao H Y M. YOLO v7:trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Vancouver,BC,Canada.IEEE,2023:7464-7475.

        [19]He K M,Zhang X Y,Ren S Q,et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(9):1904-1916.

        [20]Feng C J,Zhong Y J,Gao Y,et al. Tood:task-aligned one-stage object detection[C]//2021 IEEE/CVF International Conference on Computer Vision. Montreal,QC,Canada.IEEE,2021:3490-3499.

        [21]Li X,Wang W H,Wu L J,et al. Generalized focal loss:learning qualified and distributed bounding boxes for dense object detection[J]. Advances in Neural Information Processing Systems,2020,33:21002-21012.

        [22]Afzaal U,Bhattarai B,Pandeya Y R,et al. An instance segmentation model for strawberry diseases based on mask R-CNN[J]. Sensors,2021,21(19):6565.

        [23]Hu J,Shen L,Sun G. Squeeze-and-excitation networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City,UT,USA.IEEE,2018:7132-7141.

        [24]Hou Q B,Zhou D Q,F(xiàn)eng J S. Coordinate attention for efficient mobile network design[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville,TN,USA.IEEE,2021:13708-13717.

        [25]Liu Y C,Shao Z R,Hoffmann N. Global attention mechanism:retain information to enhance channel-spatial interactions[EB/OL]. (2021-12-10)[2023-10-25]. https://arxiv.org/abs/2112.05561.pdf.

        [26]Zhang Q L,Yang Y B. SA-net:shuffle attention for deep convolutional neural networks[C]//ICASSP 2021 - 2021 IEEE International Conference on Acoustics,Speech and Signal Processing. Toronto,ON,Canada.IEEE,2021:2235-2239.

        [27]Ouyang D L,He S,Zhang G Z,et al. Efficient multi-scale attention module with cross-spatial learning[C]//ICASSP 2023 - 2023 IEEE International Conference on Acoustics,Speech and Signal Processing. Rhodes Island,Greece.IEEE,2023:1-5.

        猜你喜歡
        注意力機制
        基于注意力機制的行人軌跡預測生成模型
        計算機應用(2019年3期)2019-07-31 12:14:01
        基于注意力機制和BGRU網(wǎng)絡的文本情感分析方法研究
        多特征融合的中文實體關(guān)系抽取研究
        基于序列到序列模型的文本到信息框生成的研究
        基于深度學習的手分割算法研究
        從餐館評論中提取方面術(shù)語
        面向短文本的網(wǎng)絡輿情話題
        基于自注意力與動態(tài)路由的文本建模方法
        軟件導刊(2019年1期)2019-06-07 15:08:13
        基于深度學習的問題回答技術(shù)研究
        基于LSTM?Attention神經(jīng)網(wǎng)絡的文本特征提取方法
        日本女优中文字幕有码| 亚洲肥老熟妇四十五十路在线| 国产精品无码专区av在线播放| 国产亚洲av综合人人澡精品| 久久狠狠第一麻豆婷婷天天| 成在线人免费视频播放| 亚洲一区二区三区99| 成人av鲁丝片一区二区免费| 人人妻人人澡人人爽人人精品电影 | 国产让女高潮的av毛片| 熟女性饥渴一区二区三区| 澳门精品无码一区二区三区| 亚洲精品在线观看一区二区| 美女下蹲露大唇无遮挡| 特级无码毛片免费视频尤物| AV永久天堂网| 日本美女性亚洲精品黄色| 体验区试看120秒啪啪免费| 又湿又黄裸乳漫画无遮挡网站| 男女视频在线一区二区| 女同舌吻互慰一区二区| 亚洲成a人v欧美综合天堂| 亚洲中文字幕无码专区| 巨臀精品无码AV在线播放| 中文字幕女同人妖熟女| 猫咪av成人永久网站在线观看| 男女下面进入的视频| 国产在线欧美日韩一区二区| 亚洲精品国产成人久久av盗摄 | 99精品国产一区二区三区| 麻豆AV免费网站| 日本特殊按摩在线观看| 亚洲精品欧美精品日韩精品| 亚洲av成人精品日韩一区| 中文字幕乱码亚洲无线| 国产美女高潮流白浆视频| 国产精品扒开腿做爽爽爽视频| 99久久久无码国产精品9| 在线观看黄片在线播放视频| 国产一区二区三区精品免费av| 中文字幕日本特黄aa毛片|