亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于遷移學(xué)習(xí)與注意力機(jī)制的花生葉部病害識(shí)別算法

        2025-08-15 00:00:00鄭大帥余瓊李德豪黃勁龍員玉良
        關(guān)鍵詞:花生注意力準(zhǔn)確率

        中圖分類號(hào):S565.2;TP183 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-5553(2025)07-0226-08

        Abstract:Aimingattheproblemsoflowidentificationeficiencyofpeanutleafdiseasesanddiffcultyinone-site identification,apeanutleaf diseaserecognitionalgorithmbasedontheConvolution Block AtentionModule(CBAM) andMobileNetV2isproposed throughtransfer learning and by integrating theatentionmechanismof CBAM. Firstly,adataset offivekindsof peanut leaf disease images,including healthyleaves,black spotdisease leaves, brown spot disease leaves,net spot disease leaves,and mosaic disease leaves,is established.Secondly,a peanut leaf diseaserecognitionmodelisbuiltbyintegratingchannelatentionmechanismandspatialattentionmechanism.Finally, therecognitionaccuracy beforeandaftermodel improvement isanalyzed,compared with VGG16,InceptionV3and ResNet5O,and the detection time of a single image is predicted. Theexperimental results show that theaccuracy rates of MobileNetV2,VGG16,InceptionV3 and ResNet50 are 97.54% , 97.34% , 96.06% and 74.88% ,respectively, which are all lower than the accuracy rate of the improved model at 99.41% . The detection time for a single image is 0.061 s. The peanutleaf diseaserecognitionalgorithmbasedon transferlearningandatentionmechanismisalightweightneuralnetwork withhighaccuracyandfewmodelparameters.Itcanbeapliedinpeanutfieldsandusedforon-sitedetectionof peanutdiseasesby using mobile devices,enabling farmers to understand the growth status of peanuts in a timely manner.

        Keywords:peanut;leaf disease identification;attention mechanism;transfer learning;MobileNetV2

        0 引言

        年都會(huì)出現(xiàn)花生產(chǎn)量減少和品質(zhì)下降等問(wèn)題,進(jìn)而給種植戶帶來(lái)較大的經(jīng)濟(jì)損失。因此,對(duì)花生病害進(jìn)行快速、準(zhǔn)確地識(shí)別,并及時(shí)采取防治措施,可有效降低花生是我國(guó)的主要農(nóng)作物之一。受病害影響,每損失。傳統(tǒng)的花生病害識(shí)別通常通過(guò)人工完成,這種識(shí)別方法效率低,且需要一定的知識(shí)儲(chǔ)備,易受人為因素干擾。因此,亟須一種實(shí)時(shí)、快速、準(zhǔn)確的識(shí)別方法。

        隨著科技的進(jìn)步與計(jì)算機(jī)科學(xué)技術(shù)的發(fā)展,圖像識(shí)別與人工智能技術(shù)被廣泛用于農(nóng)業(yè)領(lǐng)域,為農(nóng)業(yè)生產(chǎn)發(fā)展注入了新的動(dòng)力。鄧?yán)^忠等1提出了一種基于圖像識(shí)別的小麥黑穗病分類診斷技術(shù),利用濾波增強(qiáng)和病害區(qū)域分割提取圖像特征,BP網(wǎng)絡(luò)充當(dāng)分類器實(shí)現(xiàn)對(duì)小麥黑穗病的診斷;馬佳佳等[2]提出了一種基于優(yōu)化SVM的蟲(chóng)害圖像識(shí)別方法,通過(guò)HOG特征描述提取圖像特征,利用粒子群優(yōu)化算法對(duì)SVM進(jìn)行優(yōu)化,復(fù)雜背景下識(shí)別準(zhǔn)確率為 93.89% ;杜曉晨等3使用顏色直方圖、灰度共生矩陣和Gabor濾波提取甘薯圖像特征,提出一種基于圖像顏色和紋理特征的薯種識(shí)別算法,平均準(zhǔn)確率達(dá) 90% 。

        傳統(tǒng)圖像識(shí)別技術(shù)需要對(duì)圖像進(jìn)行預(yù)處理,提取重要特征信息,再將特征傳人合適的分類器[4],過(guò)程復(fù)雜、泛化能力差。深度學(xué)習(xí)的出現(xiàn)很好地解決了這個(gè)問(wèn)題,已廣泛應(yīng)用于許多領(lǐng)域。Zhu等[5]以EfficientNet為基礎(chǔ),添加卷積注意力機(jī)制模塊(CBAM),得到改進(jìn)EfficientNet模型,并與ResNet5O等模型比較,最后準(zhǔn)確率達(dá) 97.02% ,優(yōu)于試驗(yàn)中的其他模型;Zhang等在不同深度的殘差網(wǎng)絡(luò)(ResNet)添加注意力機(jī)制,提出了一種結(jié)合注意力機(jī)制和殘差網(wǎng)絡(luò)的不完美小麥籽粒識(shí)別方法,平均識(shí)別準(zhǔn)確率達(dá) 97.5% ;Zhao等針對(duì)植物病情程度問(wèn)題,提出一種注意力網(wǎng)絡(luò)模型(SEV—Net),此模型減少了通道信息的冗余,將重點(diǎn)放在信息最豐富的區(qū)域,對(duì)番茄多、單株病情嚴(yán)重程度識(shí)別準(zhǔn)確率分別為97.59%.95.57% ,優(yōu)于現(xiàn)有的注意網(wǎng)絡(luò)SE—Net和CBAM;Zhang等[利用DenseNet和 Self—Attention機(jī)制融合進(jìn)行6種臍橙病蟲(chóng)害的識(shí)別,在測(cè)試中的準(zhǔn)確率高達(dá)96.9% 。由此可見(jiàn),引入注意力機(jī)制可顯著提高模型的特征提取能力。目前基于輕量級(jí)網(wǎng)絡(luò)與注意力機(jī)制的研究相對(duì)較少,尤其是對(duì)于病害識(shí)別移動(dòng)設(shè)備的研究。

        移動(dòng)端要求模型參數(shù)量少、識(shí)別快、準(zhǔn)確率高。王春山等9在ResNet18的基礎(chǔ)上,增加多尺度特征提取模塊,改變殘差層連接方式,分解大卷積核,進(jìn)行群卷積操作,提出多尺度殘差(Multi-scaleResNet)輕量級(jí)病害識(shí)別模型,識(shí)別準(zhǔn)確率在 90% 以上,并且具備在硬件受限的場(chǎng)景下部署和運(yùn)行的能力,為神經(jīng)網(wǎng)絡(luò)在移動(dòng)端部署提供參考;劉陽(yáng)等[10]在經(jīng)典SqueezeNet網(wǎng)絡(luò)的基礎(chǔ)上改進(jìn)SqueezeNet,平均準(zhǔn)確率達(dá) 97.62% ,并且通過(guò)縮減模型參數(shù)量,實(shí)現(xiàn)輕量化的分類檢測(cè);張善文等[1針對(duì)性地優(yōu)化了傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò),提出多尺度融合卷積神經(jīng)網(wǎng)絡(luò)概念,將其應(yīng)用于黃瓜葉片病害分割中,平均分割準(zhǔn)確率為 93.12% 。

        上述研究對(duì)經(jīng)典網(wǎng)絡(luò)進(jìn)行修改,準(zhǔn)確率得到提高,結(jié)合輕量化網(wǎng)絡(luò)與注意力機(jī)制,為神經(jīng)網(wǎng)絡(luò)成功部署于移動(dòng)端提供條件,但是應(yīng)用于花生病害識(shí)別方面的研究較少。本文提出一種基于CBAM—MobileNetV2的花生葉部病害識(shí)別方法,該方法通過(guò)在ImageNet數(shù)據(jù)上遷移學(xué)習(xí)輕量級(jí)網(wǎng)絡(luò)MobileNetV2,引人融合通道注意力和空間注意力的 CBAM[12] 注意力卷積模塊,以提升花生葉部病害的表征能力,為植物病害識(shí)別模型部署于移動(dòng)設(shè)備上提供思路。

        1數(shù)據(jù)采集與處理

        1.1 圖像數(shù)據(jù)集采集

        圖像數(shù)據(jù)集來(lái)自中國(guó)山東省煙臺(tái)市農(nóng)業(yè)植保站專用試驗(yàn)田 (37°3147′′N,121°2441′′E) 和山東省城陽(yáng)區(qū)惜福鎮(zhèn)街道花生種植田 (36°1911′′N,120°2345′′E) 。分別使用OLYMPUSIMAGINGCORP.C7070WZ相機(jī)、CanonEOSKissX5相機(jī)以及SONYDSC-HX30V相機(jī)拍攝,圖片大小為3072像素 ×2304 像素,所采集圖像均為單葉狀態(tài)。為保證圖片清晰,方便后續(xù)對(duì)圖片的預(yù)處理,通過(guò)手動(dòng)劃分各類圖片,裁剪出合適的圖片大小,獲得單葉狀態(tài)圖像。將這些圖片分為健康、黑斑病、褐斑病、網(wǎng)斑病、花葉病5大類,并劃分訓(xùn)練集、驗(yàn)證集和測(cè)試集,5種花生典型葉部圖像如圖1所示。

        圖1花生4種病害和健康葉部圖

        Fig.1Four diseases and healthy leaves of peanut

        1. 2 數(shù)據(jù)預(yù)處理

        數(shù)據(jù)集的圖像質(zhì)量是影響網(wǎng)絡(luò)模型訓(xùn)練和測(cè)試的重要因素之一[13],如果數(shù)據(jù)集樣本分布失衡,則容易導(dǎo)致網(wǎng)絡(luò)過(guò)擬合現(xiàn)象。為構(gòu)建不同復(fù)雜環(huán)境背景下的圖片,使模型適應(yīng)不同的復(fù)雜背景,加強(qiáng)模型的魯棒性,提高網(wǎng)絡(luò)模型的識(shí)別準(zhǔn)確率,需要對(duì)數(shù)據(jù)集進(jìn)行增強(qiáng)處理,對(duì)圖像進(jìn)行旋轉(zhuǎn)、平移、翻轉(zhuǎn)調(diào)整,將數(shù)據(jù)集擴(kuò)增到9693張,健康葉片及4種病害葉片數(shù)據(jù)集增強(qiáng)前后數(shù)量如表1所示。

        表1數(shù)據(jù)集詳細(xì)信息Tab.1 Dataset details

        按 6:2:2 分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,訓(xùn)練集5695張,驗(yàn)證集2014張,測(cè)試集1984張,并統(tǒng)一成224像素 ×224 像素大小的圖片。

        2 模型構(gòu)建

        2.1 MobileNetV2模型

        MobileNetV2[14]具有占用內(nèi)存少、計(jì)算量小等優(yōu)點(diǎn),適用于移動(dòng)設(shè)備和嵌入式微機(jī)部署。不同于傳統(tǒng)卷積網(wǎng)絡(luò),MobileNetV2引人深度可分離卷積與2個(gè)超參數(shù) α 和 β,α 能調(diào)整卷積核的個(gè)數(shù), β 能控制輸入網(wǎng)絡(luò)的圖像尺寸參數(shù)。表2為MobileNetV2的網(wǎng)絡(luò)結(jié)構(gòu)參數(shù),此模型在MobileNetV1的基礎(chǔ)上引人線性瓶頸層,提出倒置殘差網(wǎng)絡(luò)的架構(gòu)。傳統(tǒng)的殘差結(jié)構(gòu):1×1 卷積降維 卷積 卷積升維,這是一個(gè)降維到升維的過(guò)程,而倒置殘差結(jié)構(gòu)恰好相反[15,16]。倒置殘差結(jié)構(gòu)如圖2所示,前兩層使用ReLU函數(shù),最后一層使用Linear函數(shù),這樣可以減少特征損失。但是花生病害圖像具有背景復(fù)雜、病斑分布廣等特點(diǎn),利用MobileNetV2進(jìn)行圖像識(shí)別時(shí),存在特征提取不準(zhǔn)確、感興趣區(qū)域分散等問(wèn)題。

        表2MobileNetV2網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)配置Tab.2MobileNetV2 network structure parameter configuration

        注:“—\"表示該處值不存在; ?k ”表示任意正整數(shù)值。

        2.2 遷移學(xué)習(xí)

        遷移學(xué)習(xí)[17]是圖像識(shí)別中常用的方法,該方法可節(jié)省計(jì)算資源,提高訓(xùn)練效率?;谶w移學(xué)習(xí)的花生葉部病害圖像分類模型訓(xùn)練過(guò)程如圖3所示,加載ImageNet的MobileNetV2模型,在全連接層前面加上全局平均池化層和Dropout層,可以加強(qiáng)特征圖與類別的一致性,使卷積結(jié)構(gòu)更簡(jiǎn)單,避免模型過(guò)擬合,并且整合全局空間信息,提高輸入圖片空間平移的魯棒性。

        ImageNet上的MobileNetV2模型為1000分類的全連接層輸出,加載模型時(shí)去掉模型的輸入與輸出,重新定義輸人為 128×128×3 ,全連接層輸出為5分類,并采用Softmax函數(shù)對(duì)圖像進(jìn)行分類。

        圖3模型整體結(jié)構(gòu)

        Fig. 3Overall structure of the model

        2.3 CBAM注意力機(jī)制

        卷積注意力模塊[18能夠使網(wǎng)絡(luò)在進(jìn)行圖像識(shí)別時(shí)專注于主要信息而忽略無(wú)關(guān)信息。常見(jiàn)注意力模塊有DA注意力模塊[19]、SE注意力模塊[20]以及CBAM注意力模塊等。

        DA模塊通過(guò)位置注意力機(jī)制和通道注意力機(jī)制并行獲取信息;SE模塊主要在通道維度上增加注意力;CBAM注意力機(jī)制由通道注意力與空間注意力串行,兩種注意力關(guān)注不同的特征,通道注意力關(guān)注有意義的輸入特征,空間注意力會(huì)自動(dòng)尋找圖像中最重要的區(qū)域?;ㄉ『D像的環(huán)境背景復(fù)雜,花生病斑大小不一,空間注意力使網(wǎng)絡(luò)更加關(guān)注花生病害圖像中對(duì)分類起決定作用的像素區(qū)域而忽略無(wú)關(guān)緊要的區(qū)域,會(huì)更加關(guān)注斑點(diǎn)而忽略綠色葉片以及背景。通道注意力則負(fù)責(zé)處理特征圖通道的分配關(guān)系,對(duì)2個(gè)維度進(jìn)行注意力分配,達(dá)到注意力機(jī)制對(duì)模型性能提升的最佳效果[21.22]。CBAM模塊內(nèi)部無(wú)大量卷積結(jié)構(gòu),只有少量池化層和特征融合操作,計(jì)算量小且能有效提高模型性能。因此,加人CBAM模塊能有效提高模型的特征提取能力。

        通道注意力機(jī)制[23流程如圖4所示。將輸入特征圖分別進(jìn)行全局最大池化和全局平均池化,基于2個(gè)維度對(duì)特征映射進(jìn)行壓縮,得到2個(gè)維度不同的特征描述。池化后的特征圖共用一個(gè)多層感知器(MLP),先通過(guò) 1×1 卷積降維,再 1×1 升維,再將2張圖相加,經(jīng)過(guò)Sigmoid激活函數(shù)歸一化特征圖得到每個(gè)通道的權(quán)重,權(quán)重與輸入特征圖相乘得到新特征。

        圖4通道注意力模塊Fig.4 Channel attention module

        空間注意力機(jī)制[24模塊如圖5所示,空間注意力位于通道注意力后面,處理通道注意力輸出特征圖的空間域,特征圖分別經(jīng)過(guò)基于通道維度的最大池化和平均池化處理,再將2張?zhí)卣鲌D在通道維度堆疊,1×1 卷積對(duì)通道數(shù)調(diào)整,最后經(jīng)過(guò)Sigmoid函數(shù)歸一化權(quán)重,得到的權(quán)重與輸入特征相乘便可得到新特征。在原始模型后加人CBAM模塊、GAP層和Dropout層,重新定義輸人層和全連接層,使之適用于圖像的5分類輸出。

        圖5空間注意力模塊Fig.5 Spatial attention module

        2.4 模型微調(diào)與訓(xùn)練

        在TensorFlow學(xué)習(xí)框架下,使用預(yù)訓(xùn)練模型MobileNetV2作為特征提取器,將凍結(jié)預(yù)訓(xùn)練網(wǎng)絡(luò)的所有層,之后依次解凍靠近最后一層的部分卷積層,其余層的權(quán)重直接使用,重新訓(xùn)練未凍結(jié)的卷積層參數(shù)和分類器。試驗(yàn)過(guò)程中發(fā)現(xiàn)模型收斂位于 10~20 次迭代,設(shè)置學(xué)習(xí)率為0.0001,迭代次數(shù)(epochs)為50,使得模型訓(xùn)練效果更佳。由于沒(méi)有GPU加速訓(xùn)練,因此一個(gè)批次訓(xùn)練所使用的樣本數(shù)(batchsize)為32,每次迭代的圖像數(shù)為241。使用自適應(yīng)矩陣估計(jì)算法(Adam)[25]來(lái)優(yōu)化網(wǎng)絡(luò)的損失函數(shù)。Dropout層丟失率為0.2。網(wǎng)絡(luò)損失函數(shù)采用交叉熵?fù)p失函數(shù)(cross-entropy),用于度量預(yù)測(cè)的概率與真實(shí)的差異情況,其值越小則準(zhǔn)確率越高,計(jì)算如式(1)所示。

        式中: L ——交叉熵?fù)p失值;g(xi) ——模型輸出預(yù)測(cè)值;yi 1 輸人 xi 的真實(shí)值;c 樣本數(shù)。

        表3為整個(gè)模型的網(wǎng)絡(luò)特征參數(shù),預(yù)處理后的圖像以 128×128×3 形式輸人,經(jīng)過(guò)MobileNetV2網(wǎng)絡(luò)后變?yōu)?4×4×1 280 ,再依次通過(guò)添加的CBAM模塊、GAP層、Dropout層,最后經(jīng)過(guò)Dense分類層。

        表3模型網(wǎng)絡(luò)特征參數(shù)Tab.3 Model network characteristic parameters

        2.5 評(píng)價(jià)指標(biāo)

        采用準(zhǔn)確率 Acc 、召回率 R 、精確率 P?F1 分?jǐn)?shù)( (F1) 和模型參數(shù)量對(duì)模型進(jìn)行評(píng)價(jià)[26], Acc,R,P 和F1 計(jì)算如式 (2)~ 式(5)所示。

        式中: TPi ——正樣本被預(yù)測(cè)為正樣本的數(shù)量;TNi ——負(fù)樣本被預(yù)測(cè)為負(fù)樣本的數(shù)量;(204號(hào) FPi ———負(fù)樣本被錯(cuò)誤預(yù)測(cè)為正樣本的數(shù)量;FNi ———正樣本被錯(cuò)誤預(yù)測(cè)為負(fù)樣本的數(shù)量。

        3試驗(yàn)結(jié)果與分析

        3.1 試驗(yàn)環(huán)境

        試驗(yàn)在Windowsl064位操作系統(tǒng)和處理器為CPU的環(huán)境下進(jìn)行,Tensorflow版本為2.8.0,Python版本為3.9。CPU為IntelCorei5-7200U,內(nèi)存為 12GB 。

        3.2 試驗(yàn)結(jié)果

        為驗(yàn)證CBAM模塊優(yōu)于其他注意力機(jī)制,在MobileNetV2模型上分別添加DA注意力機(jī)制、SE注意力機(jī)制、空間注意力機(jī)制和通道注意力機(jī)制,并通過(guò)測(cè)試集測(cè)試各模型的性能,結(jié)果如表4所示。

        添加CBAM模塊所得到的每類病害精確率、召回率和 F1 值均高于添加其他注意力模塊,并且在增加參數(shù)量可觀的前提下,準(zhǔn)確率較MobileNetV2提高1.87% 。在圖像預(yù)測(cè)方面,添加CBAM模塊的模型單幅圖像預(yù)測(cè)時(shí)間為0.061s,僅比MobileNetV2多0.001s。添加SE的模型雖然在預(yù)測(cè)時(shí)間上取得優(yōu)勢(shì),但是在準(zhǔn)確率方面不如添加CBAM的模型。添加空間注意力機(jī)制和通道注意力機(jī)制所得到的準(zhǔn)確率分別是 97.07%.98.96% ,單幅圖像預(yù)測(cè)時(shí)間分別是 ,添加融合空間與通道注意力機(jī)制的模型得到的準(zhǔn)確率為 99.41% ,單幅圖像預(yù)測(cè)時(shí)間為0.061s,證明融合這兩種注意力機(jī)制比單獨(dú)注意力機(jī)制更能提升網(wǎng)絡(luò)準(zhǔn)確率和識(shí)別速度。

        表4不同注意力模塊對(duì)比Tab.4Comparison of different attention modules

        3.3 模型改進(jìn)前后對(duì)比

        圖6為模型改進(jìn)前后的準(zhǔn)確率曲線??梢钥闯?,2種模型在約10次迭代中快速擬合,準(zhǔn)確率快速增加,當(dāng)?shù)?0次后,準(zhǔn)確率維持平穩(wěn)。在相同條件下搭建2種網(wǎng)絡(luò)結(jié)構(gòu),迭代50次后,CBAM—MobileNetV2模型準(zhǔn)確率達(dá)到 99.41% ,MobileNetV2模型準(zhǔn)確率為

        97.54% ,并且訓(xùn)練過(guò)程中CBAM—MobileNetV2模型準(zhǔn)確率始終比MobileNetV2模型高。表明改進(jìn)后模型更能精準(zhǔn)捕捉花生病害圖像信息,獲得圖像中更多的特征,防止模型過(guò)擬合,證明改進(jìn)模型的有效性。圖7為訓(xùn)練集、驗(yàn)證集損失值曲線,可以看出,與準(zhǔn)確率曲線相對(duì)應(yīng),迭代次數(shù)達(dá)到30次后,損失值趨于平穩(wěn)。

        圖9改進(jìn)后MobileNetV2混淆矩陣 Fig.9Improved MobileNetV2 confusion matrix

        圖8和圖9為改進(jìn)前、后的混淆矩陣,其中大部分的分類數(shù)據(jù)位于混淆矩陣的對(duì)角線上,說(shuō)明模型性能較好,每類病害都有較高的準(zhǔn)確率。CBAM—MobileNetV2預(yù)測(cè)正確的每類圖像數(shù)量均多于MobileNetV2,從表4可以看出,CBAM—MobileNetV2的每類圖像精確率、召回率、F1值均高于原始MobileNetV2。健康葉片與其他4種病害的區(qū)別最為明顯,因此,健康葉片全都被正確識(shí)別。

        圖 10~ 圖12為InceptionV3、VGG16、ResNet50的混淆矩陣,CBAM—MobileNetV2預(yù)測(cè)正確的每類圖像數(shù)量均多于其他4種模型。由圖9可知,有17張黑斑病被識(shí)別成褐斑病,有6張被識(shí)別成網(wǎng)斑病。如圖13所示,黑斑病和褐斑病的癥狀都是相同大小的圓形斑點(diǎn),兩者最大區(qū)別是顏色不同,褐斑病圓形斑點(diǎn)外圍多一圈黃褐色圓環(huán),容易將2種病害葉片判別錯(cuò)誤。當(dāng)黑斑病嚴(yán)重時(shí),斑點(diǎn)會(huì)擴(kuò)大并相連,形狀就會(huì)類似網(wǎng)斑病,因此,會(huì)把嚴(yán)重的黑斑病識(shí)別成網(wǎng)斑病。

        圖13不同程度病害葉片對(duì)比

        3.4 與經(jīng)典網(wǎng)絡(luò)對(duì)比

        為更好地驗(yàn)證CBAM—MobileNetV2的性能,加人VGG16、InceptionV3和ResNet50進(jìn)行對(duì)比。從表5可以看出,CBAM—MobileNetV2的準(zhǔn)確率比VGG16高出2.07% ;比InceptionV3高出 3.35% ;比ResNet50高出24.53% ,并且模型所占內(nèi)存均少于其他經(jīng)典模型,所需時(shí)間僅比MobileNetV2多 0.03s ,明顯少于其他模型。由此可知,CBAM—MobileNetV2在內(nèi)存占用少的情況下依然保持較高的識(shí)別準(zhǔn)確率和效率。如圖14所示,網(wǎng)絡(luò)模型準(zhǔn)確率都呈現(xiàn)上升趨勢(shì),模型在訓(xùn)練時(shí)不斷學(xué)習(xí),曲線都在10次迭代之后趨于平穩(wěn)。CBAM—MobileNetV2模型在識(shí)別準(zhǔn)確率和參數(shù)內(nèi)存方面都取得較好的平衡,能夠較好地滿足移動(dòng)端花生病害識(shí)別的要求。

        表5經(jīng)典模型性能對(duì)比 Tab.5Classic model performance comparison

        4結(jié)論

        1)針對(duì)花生葉部的健康、黑斑病、褐斑病、網(wǎng)斑病、花葉病5種狀態(tài),基于CBAM—MobileNetV2建立的花生病害識(shí)別模型的準(zhǔn)確率達(dá)到 99.41% 。

        2)通過(guò)適當(dāng)?shù)膱D像預(yù)處理方式可以提高模型的性能。利用ImageNet數(shù)據(jù)集上訓(xùn)練好MobileNetV2模型進(jìn)行遷移學(xué)習(xí),通過(guò)加人CBAM模塊、全局平均池化層和Dropout層,準(zhǔn)確率比原始網(wǎng)絡(luò)提高 1.87% ,并且預(yù)測(cè)速度幾乎不變,同時(shí)與經(jīng)典網(wǎng)絡(luò)對(duì)比,性能均優(yōu)于其他網(wǎng)絡(luò)。

        3)所建立的模型在5種花生葉部狀態(tài)識(shí)別任務(wù)中取得很好的效果,但是花生不僅有病害,還有蟲(chóng)害,以及病害和蟲(chóng)害同時(shí)發(fā)生的情況。下一步可以對(duì)花生的更多病蟲(chóng)害進(jìn)行識(shí)別。此模型屬于輕量級(jí)神經(jīng)網(wǎng)絡(luò),可應(yīng)用于花生田間,利用移動(dòng)設(shè)備即可現(xiàn)場(chǎng)檢測(cè)花生病害,能夠及時(shí)了解花生生長(zhǎng)狀況,選擇正確的藥物,進(jìn)行花生病害防治,可大大減少花生的損失。

        參考文獻(xiàn)

        [1]鄧?yán)^忠,李敏,袁之報(bào),等.基于圖像識(shí)別的小麥腥黑穗病害診斷技術(shù)研究[J].東北農(nóng)業(yè)大學(xué)學(xué)報(bào),2012,43(5):74—77.Deng Jizhong,Li Min,Yuan Zhibao,et al. Study ondiagnosis of Tilletia based on image recognition [J].Journal of Northeast Agricultural University,2012,43(5):74-77 :

        [2]馬佳佳,陳友鵬,王克強(qiáng),等.基于優(yōu)化SVM的蟲(chóng)害圖像識(shí)別研究[J].中國(guó)糧油學(xué)報(bào),2022,37(5):10—15.

        [3]杜曉晨,張幸,陸國(guó)權(quán).基于圖像處理的甘薯種類識(shí)別方法研究[J].中國(guó)糧油學(xué)報(bào),2014,29(11):118—122,128.

        [4]黃林生,羅耀武,楊小冬,等.基于注意力機(jī)制和多尺度殘差網(wǎng)絡(luò)的農(nóng)作物病害識(shí)別[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2021,52(10):264-271.Huang Linsheng,Luo Yaowu, Yang Xiaodong,et al.Crop disease recognition based on attentionmechanism andmulti-scaleresidualnetwork[J].Transactions of the Chinese Society for AgriculturalMachinery,2021,52(10):264-271.

        [5] Zhu X, Zhang X,Sun Z,et al. Identification of oil tea (Camelliaoleifera C. Abel) cultivars using EfficientNet—B4 CNN modelwith attention mechanism[J].Forests,2021,13(1):1.

        [6] ZhangW,Ma H,Li X, etal. Imperfectwheatgrain recognition combined with an attentionmechanism and residual network [J]. Applied Sciences,2021,11(11):5139.

        [7] Zhao Y,Chen J,Xu X,et al. SEV—Net:Residualnetwork embeddedwithattention mechanismforplant disease severity detection [J]. Concurrency andComputation:PracticeandExperience, 2021,33(10):e6161.

        [8] Zhang Y,Liu Y. Identification of navel orange diseases andpests based on the fusionofDenseNetandself-attention mechanism [J]. Computational Intelligenceand Neuroscience,2021,2021(1):5436729.

        [9]王春山,周冀,吳華瑞,等.改進(jìn)Multi-scaleResNet的蔬菜葉部病害識(shí)別[J].農(nóng)業(yè)工程學(xué)報(bào),2020,36(20):209—217.Wang Chunshan,Zhou Ji,Wu Huarui,et al.Identificationof vegetable leaf diseases based on improved Multi-scaleResNet [J]. Transactions of the Chinese Society ofAgricultural Engineering,2020,36(20):209—217.

        [10]劉陽(yáng),高國(guó)琴.采用改進(jìn)的SqueezeNet模型識(shí)別多類葉片病害[J].農(nóng)業(yè)工程學(xué)報(bào),2021,37(2):187-195.LiuYang, Gao Guoqin.Identification of multipleleaf diseases using improved SqueezeNet model [J].Transactions of the Chinese Society of AgriculturalEngineering,2021,37(2):187-195.

        [11]張善文,王振,王祖良.多尺度融合卷積神經(jīng)網(wǎng)絡(luò)的黃瓜病害葉片圖像分割方法[J].農(nóng)業(yè)工程學(xué)報(bào),2020,36for image segmentation of cucumber disease leaves basedon multi-scale fusion convolutional neural networks [J].Transactions of the Chinese Society of AgriculturalEngineering,2020,36(16):149-157.

        [12]張旭,周云成,劉忠穎,等.基于改進(jìn)ShuffleNetV2模型的蘋(píng)果葉部病害識(shí)別及應(yīng)用[J].沈陽(yáng)農(nóng)業(yè)大學(xué)學(xué)報(bào),2022,53(1):110—118.Zhang Xu, Zhou Yuncheng,Liu Zhongying,et al.Identification and application of apple leaf diseases basedonimproved ShuffleNetV2 model [J]. Journal ofShenyang Agricultural University, 2022, 53(1):110—118.

        [13]王金,李顏娥,馮海林,等.基于改進(jìn)的FasterR一CNN的小目標(biāo)儲(chǔ)糧害蟲(chóng)檢測(cè)研究[J].中國(guó)糧油學(xué)報(bào),2021,36(9): 164—171.

        [14]孫俊,朱偉棟,羅元秋,等.基于改進(jìn)MobileNetV2的田間農(nóng)作物葉片病害識(shí)別[J].農(nóng)業(yè)工程學(xué)報(bào),2021,37(22):161—169.Sun Jun,Zhu Weidong,Luo Yuanqiu,et al. Recognizingthe diseases of crop leaves in fields using improvedMobileNetV2[J]. Transactions of the Chinese Society ofAgricultural Engineering,2021,37(22):161—169.

        [15]李國(guó)進(jìn),黃曉潔,李修華.采用輕量級(jí)網(wǎng)絡(luò)MobileNetV2的釀酒葡萄檢測(cè)模型[J].農(nóng)業(yè)工程學(xué)報(bào),2021,37(17):168—176.Li Guojin,Huang Xiaojie,Li Xiuhua. Detection model forwine grapes using MobileNetV2 lightweight network [J].Transactions of the Chinese Society of AgriculturalEngineering,2021,37(17):168-176.

        [16]鄧楊,王粵,尚玉婷.基于深度學(xué)習(xí)的大米堊白分割算法研究[J].中國(guó)糧油學(xué)報(bào),2021,36(4):139—144.

        [17]張寧,吳華瑞,韓笑,等.基于多尺度和注意力機(jī)制的番茄病害識(shí)別方法[J].浙江農(nóng)業(yè)學(xué)報(bào),2021,33(7):1329—1338.Zhang Ning,Wu Huarui,Han Xiao, et al.Tomatodisease recognition scheme based on multi-scale andattentionmechanism [J]. Acta AgriculturaeZhejiangensis,2021,33(7):1329-1338.

        [18]寧紀(jì)鋒,倪靜,何宜家,等.基于卷積注意力的無(wú)人機(jī)多光譜遙感影像地膜農(nóng)田識(shí)別[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2021,52(9):213-220.Ning Jifeng,Ni Jing,He Yijia,et al. Convolutional attentionbased plastic mulching farmland identification via UAVmultispectral remote sensing image [J]. Transactions of theChinese Society for Agricultural Machinery,2O21,52(9):213-220.

        [19]陸仲達(dá),張春達(dá),張佳奇,等.雙分支網(wǎng)絡(luò)的蘋(píng)果葉部病害識(shí)別[J].計(jì)算機(jī)科學(xué)與探索,2022,16(4):917-926.

        [20]李書(shū)琴,陳聰,朱彤,等.基于輕量級(jí)殘差網(wǎng)絡(luò)的植物葉片病害識(shí)別[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2022,53(3):243—250.LiShuqin,Chen Cong,Zhu Tong, etal. Plant leafdisease identification based on lightweightresidualnetwork [J].Transactions the Chinese Society forAgriculturalMachinery,2022,53(3): 243-250

        [21]章權(quán)兵,胡姍姍,舒文燦,等.基于注意力機(jī)制金字塔網(wǎng)絡(luò)的麥穗檢測(cè)方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2021,52(11):253-262.Zhang Quanbing,Hu Shanshan, Shu Wencan, etal.Wheat spikes detection method based on Pyramidal Networkattention mechanism [J].Transactions the ChineseSociety forAgriculturalMachinery,2021,52(11):253—262.

        [22]陳智超,焦海寧,楊杰,等.基于改進(jìn)MobileNetV2的垃圾圖像分類算法[J].浙江大學(xué)學(xué)報(bào)(工學(xué)版),2021,55(8):1490-1499.ChenZhichao, JiaoHaining, Yang Jie,etal.Garbageimageclassificationalgorithm based onimprovedMobileNetV2[J].Journal ZhejiangUniversity(Science),2021, 55(8):1490—1499.

        [23]YaoL,He S,Su K,et al.Facial expression recognitionbased on spatial channel attention mechanisms [J].Wireless Personal Communications,2022,125(2):1483-1500.

        [24] Zhao X,Li K,Li Y, et al.Identification method vegetable diseasesbased ontransfer learningattention mechanism [J]. Computers Electronics inAgriculture,2022,193:106703.

        [25]楊晶晶,韓閏凱,吳占福,等.基于CNN 和圖像深度特征的雛雞性別自動(dòng)鑒別方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(6):258-263,92.Yang Jingjing, Han Runkai, Wu Zhanfu, etal.Automatic recognition method chick sex based onconvolutional neural network imagedepthfeatures [J]. Transactions the Chinese Society forAgriculturalMachinery,2020,51(6):258-263,92.

        [26]朱明,張鎮(zhèn)府,黃凰,等.基于輕量級(jí)神經(jīng)網(wǎng)絡(luò)MobileNetV3—Small的鱸魚(yú)攝食狀態(tài)分類[J].農(nóng)業(yè)工程學(xué)報(bào),2021,37(19):165—172.Zhu Ming, Zhang Zhenfu, Huang Huang,et al.Classificationperchingestingconditionusinglightweight neural network MobileNetV3—Small [J].Transactions the Chinese Society Agricultural,2021,37(19):165—172.

        猜你喜歡
        花生注意力準(zhǔn)確率
        看家本事
        改進(jìn)蜣螂算法優(yōu)化機(jī)器學(xué)習(xí)模型
        閩南“口酥”
        家庭百事通(2025年8期)2025-08-18 00:00:00
        基于ResNet18改進(jìn)模型的玉米葉片病害識(shí)別
        注意力分配視角下對(duì)大學(xué)生碎片化學(xué)習(xí)注意力失焦現(xiàn)象的積極理解
        基于改進(jìn)MobileNetV2的煙絲種類識(shí)別
        母愛(ài)無(wú)邊
        犬類可精準(zhǔn)識(shí)別帕金森患者
        AI預(yù)測(cè)點(diǎn)球方向比守門(mén)員準(zhǔn)
        基于改進(jìn)Swin-Transformer的果樹(shù)病葉分類模型
        虎白m粉嫩小在线播放| 亚洲欧洲久久久精品| 美腿丝袜av在线播放| 91九色视频在线国产| 国产激情无码一区二区| 亚洲中文字幕无码mv| 久久99精品久久久久九色| 国语对白自拍视频在线播放| 国产日产精品_国产精品毛片| 国产乱人视频在线播放| 一本无码人妻在中文字幕| 在线免费午夜视频一区二区| 国产一区二区三区在线观看完整版| 中文字幕在线精品视频入口一区 | caoporen国产91在线| 亚洲视频中文字幕更新| 国产最新女主播福利在线观看| 欧美俄罗斯40老熟妇| 亚洲AV无码一区二区三区天堂网| 国产99视频一区二区三区| 91久久精品色伊人6882| 国产精品毛片久久久久久久| 人妻丰满av无码中文字幕| 人妻丰满熟妇一二三区| 国产成人午夜福利在线观看| 内射精品无码中文字幕| 无码8090精品久久一区| 亚洲熟女少妇一区二区三区青久久| 高h纯肉无码视频在线观看| 欧美另类视频在线| 国产自产在线视频一区| 亚洲丁香婷婷久久一区二区| 久久99精品国产99久久6尤物| 久久露脸国产精品WWW| 亚洲精品国产综合久久| 久久久久久久综合综合狠狠| 亚洲色图视频在线| 亚洲av第二区国产精品| 无码喷潮a片无码高潮| 中文字幕无码精品亚洲资源网久久| 亚洲青涩在线不卡av|