亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于BCE-YOLOv5的蘋果葉部病害檢測方法

        2023-09-11 07:48:26曾晏林賀壹婷藺瑤費加杰黎強楊毅
        江蘇農(nóng)業(yè)科學 2023年15期
        關鍵詞:葉部注意力卷積

        曾晏林 賀壹婷 藺瑤 費加杰 黎強 楊毅

        摘要:針對自然環(huán)境中,人工目視解譯蘋果葉部病害耗時耗力、人為主觀因素強的問題。本研究提出了一種融合自注意力機制和Transformer模塊的目標檢測算法——BCE-YOLOv5,實現(xiàn)對自然環(huán)境下對蘋果葉片病蟲害的自動識別與檢測。該算法首先使用BotNet、ConvNeXt模塊分別替換Backbone網(wǎng)絡和Neck網(wǎng)絡的CSP結(jié)構(gòu),增加自注意力機制對目標的特征提取能力。通過將改進的CBAM引入YOLOv5的特征融合網(wǎng)絡之后,使注意力機制對特征融合信息更加地關注。最后,用α-IoU損失函數(shù)替換IoU損失函數(shù),使得網(wǎng)絡在模型訓練過程中收斂的更加穩(wěn)定。BCE-YOLOv5算法在傳統(tǒng)算法YOLOv5基礎上平均精準率均值提升了2.9百分點,并且改進后的算法的模型大小和計算量較傳統(tǒng)算法分別減小了0.2 M和0.9 GFLOPs。平均精度均值比YOLOv4s、YOLOv6s、YOLOx-s和YOLOv7模型分別高2.5、1.3、3.5、2.2百分點。該方法能快速準確識別蘋果葉部病害,為蘋果種植過程中提供智能化管理做參考。

        關鍵詞:蘋果;葉片病害;識別;注意力機制;YOLOv5;BotNet;ConvNeXt;CBAM;α-IoU

        中圖分類號:TP391.41 文獻標志碼:A

        文章編號:1002-1302(2023)15-0155-09

        基金項目:云南省重大科技專項(編號:202002AE09001002)。

        作者簡介:曾晏林(1993—),男,四川廣安人,碩士研究生,主要從事計算機視覺方面研究。E-mail:786823791@qq.com。

        通信作者:楊 毅,教授,主要從事農(nóng)業(yè)信息化方面研究。E-mail:yyang66@126.com。

        蘋果種植在我國已有2 000多年的發(fā)展歷程,目前栽培面積正逐漸增加。在國家宏觀經(jīng)濟政策的扶持下,中國傳統(tǒng)蘋果行業(yè)正逐漸地向現(xiàn)代化方向發(fā)展,我國已逐步發(fā)展為全球的蘋果行業(yè)強國。但同時,在蘋果栽培行業(yè)高速發(fā)展的背后,蟲害防控問題始終是困惑果農(nóng)的主要難點所在。

        隨著深度學習的崛起和計算機計算能力的增強,采用智慧農(nóng)業(yè)物聯(lián)網(wǎng)系統(tǒng)對農(nóng)作物病蟲害進行智能診斷,不僅省時省力,而且科學精準,從動態(tài)采集農(nóng)作物的病蟲害信息,到精準識別,提出有針對性的防治決策,全過程基本實現(xiàn)自動化、科學化,降低農(nóng)業(yè)成本。

        近年來,國內(nèi)外學者提出許多基于傳統(tǒng)機器學習算法來解決針對蘋果葉部病害的識別。劉斌等研究了在移動端建立蘋果葉部病蟲害輕量級識別模型[1];龍滿生等利用改進的Alex Net網(wǎng)絡對棉花葉部病蟲害進行識別[2];于洪濤等提出的VGG-F采用學習率的動態(tài)調(diào)整實現(xiàn)蘋果病害的識別,該方法在復雜情況下識別準確率較差[3];王云露等基于Faster R-CNN 對蘋果葉部病害進行識別,其算法時間效率不高[4];田靚靚等利用SSD網(wǎng)絡對蘋果葉片病害進行檢測[5];Di等建立了基于改進卷積神經(jīng)網(wǎng)絡的蘋果葉部病害檢測方法[6];Tian等基于YOLOv3深度學習方法對果園蘋果病斑進行檢測[7-8];Li等利用YOLOv5對蘋果早期葉部病害在移動終端進行識別[9];Wang等通過改進YOLOv5對蘋果病害的精度和檢測速度來提高識別率[10-12];晁曉菲等基于輕量級改進的YOLO對蘋果葉部病害進行檢測[13-14];在輕量級檢測上Polder等在深度學習上利用智能相機進行蘋果和葡萄的早期病害檢測[15];Liu等基于深度卷積神經(jīng)網(wǎng)絡對蘋果葉部病害進行識別[16]。雖然上述算法對蘋果病害的檢測過程做了一定優(yōu)化,但是在檢測能力方面仍舊存在不足,例如檢測速度較慢、檢測條件要求較高等問題。在基準模型YOLOv5的基礎上,本研究提出一種基于YOLOv5的目標檢測算法——BCE-YOLOv5。針對蘋果葉片的病害檢測任務,為了提高對蘋果葉片病害檢測精度和檢測速率,以當前發(fā)現(xiàn)較嚴重的病害(斑葉病、灰斑病、鐵銹?。檠芯繉ο?。

        1 YOLOv5算法簡述

        YOLOv5結(jié)構(gòu)由4個部分組成,分別為輸入端、骨干網(wǎng)絡部分、多尺度特征融合部分、預測端,其網(wǎng)絡結(jié)構(gòu)如圖1所示。

        在輸入端,YOLOv5可以通過Mosaic、自適應錨框算法、自適應圖像壓縮等信號增強手段,對輸入信號進行預處理。Mosaic數(shù)據(jù)增強技術通過對多張數(shù)據(jù)以隨機壓縮、隨機編輯、隨機排布等的方法重新拼接到一起,使之進一步豐富了數(shù)據(jù)的樣本,同時提高了系統(tǒng)的泛化性能。YOLOv5默認使用3個錨框?qū)獧z測不同大小的目,其錨框的參數(shù)范圍為[10,13,16,30,33,23][30,61,62,45,59,119][116,90,156,198,373,326]分別對應尺度為80×80、40×40、20×20的特征圖,自適應錨框是預測框值與實際框值之差,并利用數(shù)據(jù)迭代方法獲得最佳的錨框值。而自適應圖像壓縮則是將數(shù)據(jù)集中在各個尺寸的特征圖像,統(tǒng)一縮至相應的尺寸。

        骨干網(wǎng)絡(Backbone)由切片結(jié)構(gòu)Focus、卷積模塊CBS、瓶頸層CSP(cross stage partial network)模塊以及空間金字塔池化(spatial pyramid pooling,SPP)組成。Focus模塊采用隔列切片操作,把高分辨率特征圖拆分成多個低分辨率的特征圖,然后再拼接在一起。CBS基本模塊由Conv2d+Batch Normalization+SiLu組成。CSP殘差結(jié)構(gòu)可以增加深層網(wǎng)絡中層間反向傳播的梯度值,避免了深層網(wǎng)絡導致的梯度消失,加快了推理速度。SPP模塊采用一個卷積層和3個多尺度最大池化進行多尺度融合。

        多尺度特征融合(Neck)主要使用自上而下增強語義特征提取的特征金字塔網(wǎng)絡(feature pyramid networks,F(xiàn)PN)結(jié)構(gòu),使用自底向上增強定位特征的路徑聚合網(wǎng)絡(path aggregation network,PAN)結(jié)構(gòu),實現(xiàn)不同尺寸目標特征信息的融合,解決了多尺度問題。

        預測端頭部網(wǎng)絡(Head)采用3種損失函數(shù)分別計算分類、定位和置信度損失,通過非極大抑制(non maximum suppression,NMS)去除檢測框重疊并提高多目標的檢測能力。

        2 YOLOv5算法改進

        2.1 改進策略

        植物葉片病蟲害檢測任務中容易存在背景干擾,待檢測病斑被遮擋、尺寸小等問題。本研究在YOLOv5模型的基礎上提出4點改進,首先改進骨干網(wǎng)絡Backbone部分,使用改進后的SPPF替換原有的SPP層,并用BoTNet[17]結(jié)構(gòu)替換相應的CSP結(jié)構(gòu),增加有效信息與位置感知關聯(lián)。再引入改進的卷積塊注意力模塊(convolution block attention module,CBAM)提高了神經(jīng)網(wǎng)絡識別特征區(qū)域的能力,并選擇有效的位置添加到 YOLOv5 網(wǎng)絡中,使模型更加精準地定位和識別感興趣的目標特征。再次用ConvNeXt[18-19]結(jié)構(gòu)對Neck中的特征金字塔部分的CSPLayer層進行改進,增加對語義特征的提取能力,提高特征提取的精準度;最后在預測部分改進損失函數(shù),用α-IoU替換現(xiàn)有的IoU損失計算方式。本研究改進的網(wǎng)絡模型BCE-YOLOv5的結(jié)構(gòu)如圖2所示。

        2.2 SPP結(jié)構(gòu)替換

        空間金字塔池化能將任意大小的圖片轉(zhuǎn)換成網(wǎng)絡需要的固定大小特征向量,減少對候選區(qū)域的重復卷積計算,減少計算冗余。SPP的結(jié)構(gòu)首先經(jīng)過一個卷積再分別經(jīng)過3個不同大小的最大池化后再做拼接,最后再經(jīng)過一個卷積,這能夠在一定程度上解決目標多尺度的問題。其結(jié)構(gòu)如圖3所示。

        通過把SPP換成了SPPF,其作用是一樣的,但后者效率更高。SPP需要指定3個最大池化(maxpool),池化核大小分別為5×5、9×9、13×13,而SPPF只需要指定3個大小為5×5的maxpool。

        在結(jié)構(gòu)上串行2個5×5大小的maxpool層和一個 9×9 大小的maxpool層計算結(jié)果是一樣的,同樣的串行3個maxpool層和一個13×13大小的maxpool層計算結(jié)果是一樣的。但是SPPF在計算量上要比SPP小,并且效率上比SPP要更快。其結(jié)構(gòu)如圖4所示。

        2.3 BoTNet結(jié)構(gòu)

        BotNet結(jié)構(gòu)是一種基于Transformer的網(wǎng)絡結(jié)構(gòu),它利用了卷積和自注意力的混合網(wǎng)絡,以提升模型的性能,BotNet如圖5所示。通過結(jié)合CNN+Transformer[20-21]的組合方式提出一種Bottleneck Transformer來代替ResNet Bottleneck,即僅在ResNet框架的最后3個bottleneck blocks中使用全局多頭自注意力(multi-head selfattention,MHSA)替換3×3空間卷積。

        MHSA層利用全局注意力對特征圖中的信息進行捕獲,增加全局特征之間的聯(lián)系,可以有效地處理大圖像,通過卷積進行空間下采樣,讓注意力能在小分辨率圖像上獲取特征信息。在MHSA模塊中對Q(查詢向量)、K(鍵向量)、V(值向量)進行自注意力變換,對過程重復h次(h為MHSA的頭數(shù))的結(jié)果進行拼接,最后進行線性變換得到MHSA模塊的最終輸出。

        在YOLOv5的整體改進中,在最后一個階段中的3個BottleNeck使用了MHSA模塊,因為自注意力機制在訓練過程中需要消耗巨大的計算量,而在Backbone的最后CSP模塊加入的時候特征圖的大小較小,從而可以使得整個網(wǎng)絡的計算量減少。

        2.4 注意力機制

        在輸入的病蟲害葉片圖像中,除了葉片的病斑,經(jīng)常還伴有噪音,隨著卷積的深度增加會產(chǎn)生大量的冗余信息,從而丟失部分有用信息,導致目標檢測精度降低。為此,本研究提出了一種改進的CBAM[22],并選擇有效的網(wǎng)絡位置添加到Y(jié)OLOv5網(wǎng)絡中,這使得網(wǎng)絡能夠更準確地定位和識別感興趣的區(qū)域。

        CBAM 是一種即插即用并且使用方便的注意力機制,其由通道域和空間域組成。通道域關注不同通道上特征點的權(quán)重,利用權(quán)重對不同通道進行乘法運算,以增強網(wǎng)絡對關鍵通道域的注意力。首先,特征圖進入通道域,然后在寬度和高度上進行全局最大池化(global max pooling,GAP)和全局平均池化(global average pooling,GMP),并使用多層感知器(multi-layer perception,MLP)計算不同通道的注意力權(quán)重,接下來使用 Sigmoid 函數(shù)對這些權(quán)重進行歸一化處理,最后通過每個通道的權(quán)重乘以原始輸入特征圖,以獲得更準確的結(jié)果。

        具體公式如下所示。

        在公式(1)中,F(xiàn)cavg和Fcmax分別表示平均池化和最大池化后的特征圖,σ是 Sigmoid 激活函數(shù),W1和W2表示2層全連接層的權(quán)重。

        根據(jù)公式(1)得到的感興趣的通道特征Mc與原始圖像特征相乘,并送至空間域模塊。空間域模塊關注的是目標特征在圖像上的位置信息,并將空間特征做對應的變換,從而將關鍵信息提取出來。通道注意特征Mc與原圖像特征F相乘,得到一個新的特征圖Fs,公式如下所示。

        空間域經(jīng)過全局最大池化和全局平均池化,得到新的特征圖Fs的寬度和高度,使特征維度從H×W轉(zhuǎn)化為1×1,然后通過卷積核進行7×7卷積,再通過Sigmoid激活函數(shù)進行歸一化,最后與通道注意力輸出特征圖進行合并,公式如下所示。

        在公式(3)中,f7×7表示7×7的卷積層。

        通過公式(2)的Fs和公式(3)的Ms做乘積運算,再與原圖像特征圖F相加,經(jīng)過ReLU激活函數(shù),得到特征圖MF,公式如下所示。

        式中:表示特征合并操作;表示逐元素相乘;σ表示激活函數(shù)。

        上述CBAM中的通道域采用全連接層,壓縮通道特征的空間維度以降低模型的復雜性,通道特征被映射到一個較低維度的空間并再次映射。在降維中不可避免地導致一些通道域的感興趣區(qū)域信息丟失,對于復雜的特征圖,不可能獲得完整的特征信息。因此,為了減少上述通道域感興趣信息的丟失,以及提高病變識別網(wǎng)絡檢測的準確性,本研究引入改進的CBAM,其中原通道域使用改進通道注意力網(wǎng)絡(efficient channel attention network,ECA-Net)進行替換,保留原空間域。

        ECA-Net[23-24]模塊使用一種不降維的局部跨通道交互策略,有效避免了降維對于通道注意力學習效果的影響。對每個特征圖求均值,從一個H×W×C變成1×1×C,通過大小為K的一維卷積來有效實現(xiàn),其中卷積核大小為K代表了局部跨信道交互的覆蓋率。通過公式調(diào)整K值大小,公式如下所示。

        在公式(5)中:C表示通道數(shù);b設置為1;γ設置為2;|t|odd表示t的最接近奇數(shù)。

        本研究通過把ECA-Net模塊里面原圖像特征圖與經(jīng)過Sigmoid函數(shù)處理的特征圖的乘積處理去掉,得到新的ECA-Net應用于CBAM中的通道域,改進后的CBAM[25]結(jié)構(gòu)圖如圖6所示。

        2.5 ConvNeXt結(jié)構(gòu)

        ConvNeXt結(jié)構(gòu)于2022年被提出,該網(wǎng)絡結(jié)合了近年來卷積神經(jīng)網(wǎng)絡方面提出的各項主要改進,并將其融合[18]。ConvNeXt網(wǎng)絡結(jié)構(gòu)如圖7所示,卷積塊的輸入數(shù)據(jù)為通道數(shù)維度(dim)的特征圖。首先經(jīng)過卷積塊大小為7×7的深度卷積層,隨后通過LN層進行歸一化后再經(jīng)過卷積塊大小為 1×1 的卷積層,得到通道數(shù)變?yōu)樵斎胪ǖ赖?倍。再經(jīng)過GELU激活函數(shù)賦予非線性,在此之后經(jīng)過卷積塊大小為1×1輸出通道變回原來的維度。最后輸入數(shù)據(jù)和輸出數(shù)據(jù)通過一個殘差連接進行拼接,得到最終的結(jié)果。

        在深度卷積神經(jīng)網(wǎng)絡中,圖像的語義信息得到了增強,但隨著圖像的不斷卷積,詳細的特征被減少。相反,淺層的圖像細節(jié)表現(xiàn)能力強,但是語義信息表達較弱。YOLOv5 采用的特征金字塔結(jié)構(gòu)來進行特征融合,F(xiàn)PN 結(jié)構(gòu)是自頂向下傳遞高層圖像的語義信息,但是在傳遞過程中會丟失位置細節(jié)信息。為使網(wǎng)絡更加適合不同大小的病斑檢測,在網(wǎng)絡Neck部分原有的CSP結(jié)構(gòu)上進行改進,替換CSPLayer層并使用ConvNeXt層。

        2.6 改進損失函數(shù)

        傳統(tǒng)的YOLOv5采用LossGIoU作為回歸損失的損失函數(shù),當實際框與預測框水平或豎直重合或2個框為包含關系時,此時GIoU值相同,無法區(qū)分相對位置關系,從而LossGIoU退化成LossIoU,而LossIoU不能解決實際框與預測框不重合的問題。

        為了解決這個問題,本研究引入Lossα-IoU用于改進原損失函數(shù)[26],Lossα-IoU在保留原損失函數(shù)的性質(zhì)時,同時可以更好地關注目標,提高了檢測框回歸的準確性。Lossα-IoU在原有的LossIoU上加上一個冪指數(shù),以α為冪,其公式如下所示。

        在不增加額外的參數(shù)和訓練時間下,通過對 α-IoU 中的參數(shù)α進行調(diào)制,可以很容易地擴展到更復雜的具有多個IoU或懲罰項的損失函數(shù)。

        本研究采用效果較好的LossCIoU改進為Lossα-CIoU,其公式如下所示。

        公式(7)中:b、bgt分別表示預測框和真實框的中心線距離;ρ2α代表的是在2個中心點之間的歐式間隔;c是能容納預測框和真實框的最小封閉區(qū)間的對角線長度;表示目標框的寬高比;表示預測框各自的寬高比。

        3 試驗與分析

        3.1 試驗數(shù)據(jù)集

        蘋果葉部病蟲害收集了云南省昭通市邵陽區(qū)守望鄉(xiāng)蘋果種植和百度飛漿公開數(shù)據(jù)集共5 106張圖片,共分為3類常見病害:斑點落葉?。╝lternaria boltch)、灰斑?。╣rey_spot)、銹病(rust)作為試驗數(shù)據(jù)集,圖8是部分數(shù)據(jù)集圖像,其中有較大的病斑圖像,有較小的病斑,還有陰影的病斑。

        3.2 預訓練

        本研究訓練使用的操作系統(tǒng)為Windows 10,CPU 型號為AMD Ryzen7 5800H,GPU型號為RTX 3060,深度學習框架為Pytorch 1.10.0以及CUDA 11.4版本框架。由于試驗數(shù)據(jù)的樣本數(shù)量不多,因此在訓練過程中采用遷移學習策略來解決數(shù)據(jù)匱乏的問題,利用YOLOv5官方提供的預訓練權(quán)重作為訓練初始化參數(shù)。

        3.3 評價標準

        在目標檢測領域,評價網(wǎng)絡性能的指標是平均精準率均值(mean average precision,mAP)、模型大小以及計算量(GFLOPS)。mAP評價指標是對精準率(precision,P)、召回率(recall,R)的綜合考量,可以評估模型的有效性。

        精準率是指正確被預測為某類病斑目標占全部預測為該類正確病斑目標的比例,召回率是指正確被預測為某類病斑目標占實際上全部為該類病斑目標的比例。

        模型大小能夠表明模型對硬件內(nèi)存的需求,對于外界復雜環(huán)境且硬件設備受限的情況下則需要輕量級模型;計算量反映了模型對硬件設備的計算單元的要求,同樣對于硬件設備受限的情況下,計算量越小越好。

        3.4 結(jié)果與對比

        為了直觀地體現(xiàn)改進后的YOLOv5算法的有效性,如圖9所示,通過對比4組圖片,分別使用傳統(tǒng)的YOLOv5s和本研究改進的BCE-YOLOv5算法對測試圖片進行檢測,從對比圖可以看出傳統(tǒng)的YOLOv5檢測的精度普遍較低,而改進后的YOLOv5檢測精度有所提升。通過第3組對比圖片可以看出,傳統(tǒng)的YOLOv5存在漏檢,而改進后的算法對葉片灰斑病細節(jié)更加注重,改善了對背景模糊的漏檢。通過第4組對比圖片可知,在大圖片小目標葉片背景下病斑難以區(qū)分的情況下,傳統(tǒng)的YOLOv5存在錯檢,而改進后的算法具有較好的識別能力。

        3.5 消融試驗

        為了檢驗本研究中改進后的CBAM是否對訓練有效,試驗在YOLOv5頸部網(wǎng)絡Neck后分別引入原始ECA注意力模塊、原始CBAM以及改進后的CBAM,本研究將改進的CBAM表示為ECBAM。其試驗對比結(jié)果如表1所示,在YOLOv5傳統(tǒng)算法的相同位置上引入注意力機制其mAP均有提升,其中ECA和CBAM注意力模塊分別貢獻了0.2百分點和1.6百分點的提升,而ECBAM提升了1.8百分點。這表明改進后的ECBAM在通道域上不壓縮感興趣特征,而是對通道域進行全局池化然后再進行一維卷積,從而有效避免降維帶來的通道特征丟失,提高ECBAM在聚合網(wǎng)絡中的整體能力。結(jié)果顯示,改進后的ECBAM能夠有效提升網(wǎng)絡性能。

        為了驗證本研究提出的改進模型的有效性,在訓練參數(shù)和數(shù)據(jù)集相同的情況下對改進的YOLOv5網(wǎng)絡進行對比試驗,結(jié)果如表2所示,表中Backbone改進、Neck改進、CBAM改進分別表示在傳統(tǒng)YOLOv5網(wǎng)絡中加入改進方案。由表2可以分析得到,首先采用改進的Backbone后為模型提升了1.4百分點,這使得模型檢測的準確性更高,并在一定程度上緩解了由于背景復雜的模糊圖像造成的漏檢或誤檢問題;其次,加入CBAM后,模型比基準mAP提升了2.5百分點,說明添加CBAM模塊可以使網(wǎng)絡更加注意病斑,使得整個模型的性能提升;再在原CBAM基礎之上加以改進,得到新的注意力機制ECBAM,在模型中加入ECBAM后獲得比原CBAM提升了0.4百分點,由此可以看出改進后的注意力機制較原注意力機制更能注重小目標;使用上述改進方法最終為模型的mAP比基線模型性能提高了2.9百分點的增益,證明了3種改進方法的有效性。

        同時,圖10清楚地顯示了YOLOv5的學習過程中損失曲線在改進前后的變化。其中α-CIoU損失曲線在GIoU損失曲線的下方,說明α-CIoU損失值更低,同時在出現(xiàn)拐點之后α-CIoU損失值在10個Epoch后趨于平穩(wěn),而GIoU損失曲線在85個 Epoch后和α-CIoU曲線基本重合,說明α-CIoU損失在整個訓練過程中網(wǎng)絡可以更快、更平穩(wěn)地收斂。

        3.6 對比試驗

        對比本研究BCE-YOLOv5目標檢測算法相比其他算法的優(yōu)越性,本研究與各種先進的目標檢測算法(YOLOv4s[27] 、YOLOxs[28]、YOLOv6s[29]、YOLOv7s[30])進行對比試驗。由表3可以看出,改進后的YOLOv5s算法在檢測精度上達到92.1%,優(yōu)于其他算法,比YOLOv4s、YOLOxs、YOLOv6s和YOLOv7s分別高出2.5、3.5、1.3、2.2百分點;BCE-YOLOv5模型大小分別比其低230.5、58.3、24.6、61.3 M;在計算量上BCE-YOLOv5相比YOLOv5s、YOLOxs、YOLOv6s和YOLOv7s算法分別低0.9、29.0、11.7、88.3 GFLOPs。本研究改進的BCE-YOLOv5算法在模型大小、檢測精度及計算量上均優(yōu)于其他類算法,證明其改進算法的有效性。說明本研究的 BCE-YOLOv5 算法適合后續(xù)在邊緣設備部署。

        4 結(jié)論

        針對蘋果葉部病蟲害檢測的識別任務,本研究提出一種基于YOLOv5改進模型的蘋果葉檢測方法。首先將BotNet和ConvNeXt分別與原始YOLOv5的骨干網(wǎng)絡和特征融合網(wǎng)絡融合,利用Transformer的上下文理解能力,提高網(wǎng)絡對圖像特征的識別;其次使用CBAM注意力機制引入到Y(jié)OLOv5多尺度特征融合模塊之后,能夠有效的提升對目標的檢測精度;最后使用α-IoU損失函數(shù)代替原來的損失函數(shù),使網(wǎng)絡可以更快、更平穩(wěn)地收斂,并改善了復雜圖像的漏檢和小目標識別效果差的問題。在消融試驗對比中,本研究改進的 BCE-YOLOv5 與原 YOLOv5相比,其mAP提高了2.9百分點,具有較高的精準率。本研究改進的BCE-YOLOv5網(wǎng)絡模型具有檢測速度快、檢測準確率高、計算量和模型小等特點。

        為了達到推廣應用的效果,今后還需開展以下研究:(1)加大對蘋果葉部病害分類的研究;(2)進一步擴充數(shù)據(jù),增加病害數(shù)據(jù)以及種類;(3)進一步優(yōu)化模型,提高模型的訓練效果在復雜背景下的識別水平;(4)研究在不同階段對蘋果葉部病害的識別能力,從而提高模型的泛化能力。

        參考文獻:

        [1]劉 斌,賈潤昌,朱先語,等. 面向移動端的蘋果葉部病蟲害輕量級識別模型[J]. 農(nóng)業(yè)工程學報,2022,38(6):130-139.

        [2]龍滿生,歐陽春娟,劉 歡,等. 基于卷積神經(jīng)網(wǎng)絡與遷移學習的油茶病害圖像識別[J]. 農(nóng)業(yè)工程學報,2018,34(18):194-201.

        [3]于洪濤,袁明新,王 琪,等. 基于VGG-F動態(tài)學習模型的蘋果病蟲害識別[J]. 科學技術與工程,2019,19(32):249-253.

        [4]王云露,吳杰芳,蘭 鵬,等. 基于改進Faster R-CNN的蘋果葉部病害識別方法[J]. 林業(yè)工程學報,2022,7(1):153-159.

        [5]田靚靚. 基于SSD網(wǎng)絡的蘋果葉片病害檢測方法研究[D]. 楊凌:西北農(nóng)林科技大學,2022.

        [6]Di J,Li Q. A method of detecting apple leaf diseases based on improved convolutional neural network[J]. PLoS One,2022,17(2):e0262629.

        [7]Tian Y,Yang G,Wang Z,et al. Detection of apple lesions in orchards based on deep learning methods of cyclegan and yolov3-dense[J]. Journal of Sensors,2019,2019.

        [8]Mathew M P,Mahesh T Y. Determining the region of apple leaf affected by disease using YOLO V3[C]//2021 International Conference on Communication,Control and Information Sciences (ICCISc). IduKKi,India,2021:1-4.

        [9]Li J,Zhu X,Jia R,et al. Apple-YOLO:a novel mobile terminal detector based on YOLOv5 for early apple leaf diseases[C]//2022 IEEE 46th Annual Computers,Software,and Applications Conference (COMPSAC). Los Alamitos,CA,USA,2022:352-361.

        [10]Wang Y L,Sun F G,Wang Z J,et al. Apple leaf disease identification method based on improved YoloV5[M]//Sun J D,Wang Y,Huo M Y,et al. Signal and information processing,networking and computers. Singapore:Springer,2023:1246-1252.

        [11]Kuznetsova A,Maleva T,Soloviev V. YOLOv5 versus YOLOv3 for apple detection[M]//Kravets A G,Bolshakov A A,Shcherbakov M.Cyber-physical systems:modelling and intelligent control. Cham:Springer,2021:349-358.

        [12]Chen Z,Wu R,Lin Y,et al. Plant disease recognition model based on improved YOLOv5[J]. Agronomy,2022,12(2):365.

        [13]晁曉菲,池敬柯,張繼偉,等. 基于PSA-YOLO網(wǎng)絡的蘋果葉片病斑檢測[J]. 農(nóng)業(yè)機械學報,2022,53(8):329-336.

        [14]邸 潔,曲建華.基于Tiny-YOLO的蘋果葉部病害檢測[J]. 山東師范大學學報(自然科學版),2020,35(1):78-83.

        [15]Polder G,Blok P M,van Daalen J T,et al. Early disease detection in apple and grape using deep learning on a smart-camera[C]//Proceedings of the European Conference on Agricultural Engineering. EurAgEng,Cranfield,2021:51-56.

        [16]Liu B,Zhang Y,He D J,et al. Identification of apple leaf diseases based on deep convolutional neural networks[J]. Symmetry,2017,10(1):11.

        [17]Srinivas A,Lin T Y,Parmar N,et al. Bottleneck transformers for visual recognition[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Kuala Lumpur,2021:16519-16529.

        [18]Liu Z,Mao H Z,Wu C Y,et al. A convnet for the 2020s[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New Orleans,2022:11976-11986.

        [19]黃文博,黃鈺翔,姚 遠,等. 融合注意力的ConvNeXt視網(wǎng)膜病變自動分級[J]. 光學精密工程,2022,30(17):2147-2154.

        [20]Zhang Z,Lu X,Cao G,et al. ViT-YOLO:Transformer-based YOLO for object detection[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. 2021:2799-2808.

        [21]Liu Y,He G,Wang Z,et al. NRT-YOLO:Improved YOLOv5 based on nested residual transformer for tiny remote sensing object detection[J]. Sensors,2022,22(13):4953.

        [22]Woo S,Park J,Lee J Y,et al. Cbam:Convolutional block attention module[C]//Proceedings of the European Conference on Computer Vision (ECCV). Munich,2018:3-19.

        [23]Wang Q L,Wu B G,Zhu P F,et al. Eca-net:Efficient channel attention for deep convolutional neural networks[C]//2020 IEEE Conference on Computer Vision and Pattern Recognition. Seattle,2020.

        [24]Wang Q,Wu B,Zhu P,et al. Supplementary material for ‘ECA-Net:efficient channel attention for deep convolutional neural networks[C]//Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition,IEEE,Seattle,WA,USA. 2020:13-19.

        [25]Li X,Xia H,Lu L. ECA-CBAM:Classification of diabetic retinopathy:classification of diabetic retinopathy by cross-combined attention mechanism[C]//2022 the 6th International Conference on Innovation in Artificial Intelligence (ICIAI). 2022:78-82.

        [26]He J B,Erfani S M,Ma X J,et al. Alpha -IoU:a family of power intersection over union losses for bounding box regression[J]. Advances in Neural Information Processing Systems,2021,34:20230-20242.

        [27]Bochkovskiy A,Wang C Y,Liao H Y M. Yolov4:Optimal speed and accuracy of object detection[EB/OL]. [2022-12-12].https://arxiv.org/abs/2004.10934.

        [28]Ge Z,Liu S T,Wang F,et al. Yolox:Exceeding yolo series in 2021[EB/OL]. [2022-12-12]. https://arxiv.org/abs/2107.08430.

        [29]Li C,Li L,Jiang H,et al. YOLOv6:A single-stage object detection framework for industrial applications[EB/OL]. [2022-12-12].https://https://arxiv.org/abs/2209.02976.

        [30]Wang C Y,Bochkovskiy A,Liao H Y M. YOLOv7:Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[EB/OL]. [2022-12-12]. http://arXiv.ORG/ABS/2207.02696.

        猜你喜歡
        葉部注意力卷積
        面向移動端的蘋果葉部病蟲害輕量級識別模型
        基于YOLOv3的多類煙草葉部病害檢測研究
        讓注意力“飛”回來
        基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于顏色差異性的植物葉片病害圖像分割方法
        基于傅里葉域卷積表示的目標跟蹤算法
        “揚眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        推廣新型農(nóng)藥噻蟲嗪防治甘蔗葉部害蟲突破14萬公頃
        中國糖料(2016年1期)2016-12-01 06:49:03
        A Beautiful Way Of Looking At Things
        亚洲av日韩av卡二| 天天摸天天做天天爽天天舒服| 亚洲专区在线观看第三页| 白浆高潮国产免费一区二区三区| 色综合悠悠88久久久亚洲| 无码人妻精品一区二区三区蜜桃| 亚洲av无码专区首页| 自拍偷自拍亚洲精品播放| 亚洲在战AV极品无码| 国产成人av三级三级三级在线 | 国产精品国产三级国产AvkTV| 激情偷拍视频一区二区| 爆操丝袜美女在线观看| 极品白嫩的小少妇| 久久久久亚洲av无码a片软件| 青榴社区国产精品| 深夜日韩在线观看视频| 公和我做好爽添厨房| 中文字幕乱码熟女人妻水蜜桃| 国产日产精品久久久久久| 淫妇日韩中文字幕在线| 日本一区二区三区清视频| 粉嫩小泬无遮挡久久久久久| 亚洲精品美女久久久久99| 亚洲成a∨人片在线观看无码| 国产精品毛片av一区二区三区| 大量漂亮人妻被中出中文字幕| 国产综合久久久久久鬼色| 国产精品视频一区二区噜噜| 亚洲中文字幕无码不卡电影| 亚洲美女主播内射在线| 天天摸天天做天天爽水多| 青青草原综合久久大伊人| 亚洲AⅤ樱花无码| 在线免费观看毛视频亚洲精品 | 国外精品视频在线观看免费| av无码一区二区三| 日韩av中文字幕波多野九色| 人人妻人人澡人人爽人人dvd| 亚洲欧美激情在线一区| 五月天无码|