亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于注意力機(jī)制與改進(jìn)殘差模塊的豆葉病害識別

        2023-12-11 19:43:26鮑浩張艷
        江蘇農(nóng)業(yè)科學(xué) 2023年16期
        關(guān)鍵詞:注意力機(jī)制卷積神經(jīng)網(wǎng)絡(luò)

        鮑浩 張艷

        摘要:豆類作物病害的有效識別對于病害的科學(xué)防控具有指導(dǎo)意義。針對傳統(tǒng)作物病害識別方法效率低、準(zhǔn)確率差的不足,利用深度學(xué)習(xí)方法設(shè)計(jì)了一種高效的輕量級豆葉病害識別模型,模型由卷積模塊與改進(jìn)的殘差模塊構(gòu)成。卷積模塊提取圖像中的病害特征,在卷積模型中引入注意力機(jī)制增強(qiáng)了模型對病害區(qū)域的關(guān)注,同時(shí)降低非病變區(qū)域與背景對識別結(jié)果的干擾;在原始?xì)埐钅K中添加更多的卷積層、激活函數(shù)與批歸一化層得到了改進(jìn)的殘差模塊,使得殘差模塊具有非線性表征和特征提取能力,從而提高模型對于高級病害特征的信息融合能力。結(jié)果表明,提出的模型對實(shí)際田間拍攝的豆葉病害圖像的識別性能均達(dá)到99%以上。模型參數(shù)量僅為7.4×105,分別為MobileNetV2、ResNet50、VGG16、VGG19以及DenseNet121模型參數(shù)量的32.74%、3.14%、5.03%、3.69%、10.51%;模型占用內(nèi)存僅為8.75 MB,分別為MobileNetV2、ResNet50、VGG16、VGG19以及DenseNet121模型占用內(nèi)存的33.14%、3.24%、5.21%、3.82%、10.68%。因此,本研究提出的模型具有參數(shù)量少、占用內(nèi)存小以及性能好的優(yōu)勢,為田間環(huán)境下的豆葉病害智能識別系統(tǒng)的研發(fā)提供了理論基礎(chǔ)。

        關(guān)鍵詞:角葉斑??;豆銹??;卷積神經(jīng)網(wǎng)絡(luò);注意力機(jī)制;殘差網(wǎng)絡(luò)

        中圖分類號:S126;TP391.41文獻(xiàn)標(biāo)志碼:A

        文章編號:1002-1302(2023)16-0187-08

        收稿日期:2022-09-11

        基金項(xiàng)目:國家自然科學(xué)基金(編號:62141501、62265003)。

        作者簡介:鮑 浩(1998—),男,貴州安順人,碩士研究生,研究方向?yàn)槿斯ぶ悄堋C(jī)器學(xué)習(xí)及其在植物早期疾病的無損檢測。E-mail:2662051997@qq.com。

        通信作者:張 艷,博士,教授,主要從事生物信息無損檢測、激光雷達(dá)方面的研究。E-mail:Eileen_zy001@sohu.com。

        豆類作物具有豐富的營養(yǎng)物質(zhì),主要有蛋白質(zhì)、脂肪以及碳水化合物等,營養(yǎng)價(jià)值與動物性食品相當(dāng)[1。然而在豆類作物的種植過程中,管理不當(dāng)會使得植株的抗病能力降低,使得豆類作物易受到病蟲害脅迫,最終會使得品質(zhì)與產(chǎn)量受到較大的影響2。傳統(tǒng)的作物病蟲害識別方法主要分為人工分析與理化檢測,人工分析的方法往往需要借助前人的種植經(jīng)驗(yàn),該方法受人為主觀因素影響較大;而理化檢測方法依賴于具有特定知識背景的專業(yè)人員,該方法不僅費(fèi)時(shí)費(fèi)力,而且低效。

        人工智能的快速發(fā)展使得基于深度學(xué)習(xí)的識別方法已廣泛應(yīng)用于作物病害識別[3-6。在深度學(xué)習(xí)發(fā)展中,研究人員對人類注意力進(jìn)行研究,提出了神經(jīng)網(wǎng)絡(luò)注意力機(jī)制7,使得神經(jīng)網(wǎng)絡(luò)具有關(guān)注重要信息,忽略次要信息的能力。在植物病害識別中,注意力機(jī)制已經(jīng)得到了廣泛應(yīng)用。例如,Zeng等提出了基于自注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)模型,獲取了作物病變區(qū)域的局部特征,提高模型對病害的識別能力[8;Karthik等在模型中嵌入注意力機(jī)制,解決了由于番茄病害間相似性高導(dǎo)致的易錯(cuò)誤識別的問題[9。在深度學(xué)習(xí)模型的構(gòu)建中,隨著網(wǎng)絡(luò)模型層數(shù)的增加,模型性能也會提高,但在網(wǎng)絡(luò)層數(shù)達(dá)到一定數(shù)量時(shí),模型的性能卻呈現(xiàn)出下降的現(xiàn)象,并伴隨著難以訓(xùn)練的問題。為此,He等以跳躍連接的方式實(shí)現(xiàn)了層與層間的信息交互,從而訓(xùn)練了深層網(wǎng)絡(luò)模型,即殘差網(wǎng)絡(luò)模型[10。殘差網(wǎng)絡(luò)的設(shè)計(jì)模式在植物病害識別模型應(yīng)用中也得到了廣泛應(yīng)用。例如,方晨晨等以多尺度的方式在深度可分離卷積的基礎(chǔ)上構(gòu)建了新的殘差模塊,解決了原始?xì)埐钅K中存在的參數(shù)量大、信息表達(dá)不足的問題[11;曾偉輝等構(gòu)建了基于高階殘差的作物病害識別模型,高階殘差模塊可以為識別結(jié)果提供更豐富的特征表達(dá)[12。以上研究表明,使用深度學(xué)習(xí)模型在作物病害識別中可以取得較好的效果,注意力機(jī)制在植物病害識別模型構(gòu)建中可增強(qiáng)模型對于相似性病害的特征提取和表征能力,而殘差網(wǎng)絡(luò)模塊可實(shí)現(xiàn)病害間的特征融合以提供更具有代表性的高級病害特征。

        然而,現(xiàn)有許多研究都是基于實(shí)驗(yàn)室環(huán)境下獲取的作物病害圖像構(gòu)建識別模型,實(shí)驗(yàn)室環(huán)境下病害圖像背景與真實(shí)田園環(huán)境下病害圖像背景的差異較大。實(shí)驗(yàn)室環(huán)境下采集的病害圖像的背景簡單,而真實(shí)田園環(huán)境下采集的病害圖像的背景較復(fù)雜,如光照、環(huán)境等,難以應(yīng)用于實(shí)際的生產(chǎn)環(huán)境。同時(shí),許多識別模型需要大量的計(jì)算資源,在算力受限的移動設(shè)備上難以實(shí)現(xiàn)模型部署。因此,本研究圍繞上述2個(gè)難題展開試驗(yàn),基于真實(shí)農(nóng)業(yè)生產(chǎn)場景下采集的豆葉病害數(shù)據(jù)集設(shè)計(jì)一種基于注意力機(jī)制結(jié)合改進(jìn)殘差模塊的豆葉病害識別模型,以期為移動設(shè)備上的豆葉病害自動識別系統(tǒng)的設(shè)計(jì)提供理論基礎(chǔ)。

        1 材料與方法

        1.1 試驗(yàn)材料

        本研究使用的豆葉病害數(shù)據(jù)集(https://github.com/AI-Lab-Makerere/ibean/)由真實(shí)生產(chǎn)環(huán)境下采集的圖像構(gòu)成,病害圖像中均具有復(fù)雜的背景,例如物體陰影、雜草以及泥土等,這些背景將為構(gòu)建深度學(xué)習(xí)模型帶來挑戰(zhàn)。數(shù)據(jù)集包含2種豆葉病害,即角葉斑?。╝ngular leaf spot)、豆銹病(bean rust)以及1個(gè)健康類(healthy)圖像,角葉斑病和豆銹病初期都有類似于白色的病斑,在病害后期變?yōu)楹稚?,并伴隨著葉片干枯,部分感病作物圖像及其癥狀描述詳見表1。由于角葉斑病和豆銹病在發(fā)病癥狀上較相似,傳統(tǒng)的病害識別方法難以有效判別,同時(shí)病害的高相似性也增加了深度學(xué)習(xí)建模的難度。

        數(shù)據(jù)集中訓(xùn)練集、驗(yàn)證集以及測試集的圖像數(shù)量分別為1 034、133、128張。由于原始的圖像數(shù)量較少,為防止在訓(xùn)練模型中的過程中出現(xiàn)過擬合,對數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng)處理。為使測試集與驗(yàn)證集的數(shù)據(jù)分布盡可能來源于真實(shí)的生產(chǎn)環(huán)境,僅對訓(xùn)練集進(jìn)行數(shù)據(jù)增強(qiáng)操作。首先,在圖像輸入到神經(jīng)網(wǎng)絡(luò)之前使用在線數(shù)據(jù)增強(qiáng)的方式生成更多的圖像供神經(jīng)網(wǎng)絡(luò)訓(xùn)練,使用的在線數(shù)據(jù)增強(qiáng)的方式有旋轉(zhuǎn)、垂直翻轉(zhuǎn)、水平翻轉(zhuǎn)以及平移;然后,對圖像的像素值進(jìn)行歸一化,以提高模型的訓(xùn)練速度;最后,由于神經(jīng)元數(shù)量會隨著圖像尺寸大小變化而變化,選擇將輸入圖像的尺寸固定為256×256像素。數(shù)據(jù)增強(qiáng)之后生成的部分圖像見圖1。

        1.2 試驗(yàn)方法

        本研究利用深度學(xué)習(xí)方法設(shè)計(jì)一種高效的輕量級豆葉病害識別模型,即改進(jìn)殘差注意力網(wǎng)絡(luò)(improving residual attention mechanisms networks,簡稱IRes-AM-Net),模型主要由4個(gè)卷積模塊和3個(gè)改進(jìn)殘差模塊組成,詳見圖2。卷積模塊提取圖像中的局部病害信息,得到能表征病害信息的關(guān)鍵特征,在卷積模塊中嵌入卷積塊注意力模塊(convolutional block attention module,CBAM)注意力機(jī)制提高了卷積模塊對病變區(qū)域的特征提取能力,降低了對非病變區(qū)域和背景對識別結(jié)果的影響;改進(jìn)的殘差模塊可以將低級特征轉(zhuǎn)換為高級特征,實(shí)現(xiàn)高級特征間的信息交互,得到具有更豐富信息量的特征。使用全局平均池化層對卷積模塊4輸出的空間特征圖進(jìn)行處理,得到了具有空間信息的特征向量,然后通過含有softmax函數(shù)的分類層輸出識別結(jié)果。為了避免訓(xùn)練模型時(shí)出現(xiàn)過擬合的問題,使用了標(biāo)簽平滑技術(shù)。

        1.2.1 卷積模塊設(shè)計(jì)

        增加網(wǎng)絡(luò)層數(shù)和卷積核的數(shù)量可以提取病害深層次信息,但是隨著網(wǎng)絡(luò)層數(shù)和卷積核數(shù)量的增加,模型會發(fā)生過擬合。因此,在設(shè)計(jì)IRes-AM-Net模型時(shí)卷積模塊數(shù)量為4,各卷積模塊的卷積核數(shù)量分別為32、64、128以及512;由于較大的卷積核會需要更多的計(jì)算資源,因此在本模型中所有卷積核大小均為3×3,同時(shí)多個(gè)小卷積核疊加能具有與大卷積核相同的的感受野,并且還能帶來更多的非線性表征能力;為了獲取局部的病害特征,選擇卷積的步長為1;設(shè)置激活函數(shù)為relu具有訓(xùn)練速度快、增加網(wǎng)絡(luò)非線性、避免梯度消失以及帶來網(wǎng)絡(luò)的稀疏性等優(yōu)點(diǎn)。為了獲取到特征圖的全局信息,實(shí)現(xiàn)病斑特征間的融合,需要增大卷積的步長,但是較大的步長則會損失鄰近信息,因此在網(wǎng)絡(luò)的深處,即在卷積模塊4中設(shè)置卷積步長為2。為了避免在網(wǎng)絡(luò)深層由于最大池化層的作用出現(xiàn)信息丟失的問題,在卷積模塊3與卷積模塊4中刪除了最大池化層。由于卷積模塊4的卷積核數(shù)量較多,為了避免出現(xiàn)過擬合的問題,在卷積模塊4中添加L2正則化。其中,批歸一化層可增加網(wǎng)絡(luò)訓(xùn)練的穩(wěn)定性,最大池化層則對特征圖進(jìn)行下采樣操作,減少網(wǎng)絡(luò)的計(jì)算。

        1.2.2 注意力機(jī)制嵌入

        CBAM[13融合了通道注意力(channel attention)與空間注意力(spatial attention),通道注意力獲取目標(biāo)的類別信息,而空間注意力則關(guān)注目標(biāo)的空間位置信息,因此CBAM較單一的注意力機(jī)制能取得更好的性能。將CBAM嵌入卷積模塊中,可以更好地獲取特征圖中的關(guān)鍵信息[14-15。CBAM的結(jié)構(gòu)如圖3所示,計(jì)算公式如下:

        F1=Mc(F)UF;(1)

        G=Ms(F1) UF1;(2)

        Mc(F)=σ{MLP[AvgPool(F)]+MLP[MaxPool(F)]};(3)

        Ms(F1)=σ{fN×N{Concat[AvgPool(F1),MaxPool(F1)]}}。(4)

        式中:F∈RH×W×C,表示CNN提取的輸入特征圖,H、W、C分別表示特征圖的高度、寬度和通道數(shù);Mc(F)∈R1×1×C,是經(jīng)過通道注意力得到的特征圖權(quán)重;F1∈RH×W×C,表示通道注意力輸出的特征圖;Ms(F1)∈RH×W×1表示經(jīng)過空間注意力模塊得到的特征圖權(quán)重;G∈RH×W×C為CBAM模塊的輸出特征圖;表示矩陣的點(diǎn)乘操作;AvgPool(·)是平均池化操作;MaxPool(·)是最大池化操作;MLP(·)是一個(gè)多層感知機(jī);Concat(·)可以將多個(gè)特征圖在通道維度上拼接得到新的特征圖;σ(·)為激活函數(shù);fN×N是N×N的卷積操作。

        由公式(1)至公式(4)可知,當(dāng)特征圖F輸入CBAM模塊時(shí),通道注意力模塊輸出特征圖F的通道權(quán)重向量,并使用該權(quán)重向量對特征圖F的通道進(jìn)行加權(quán),增加有效通道的權(quán)重,抑制無用通道的權(quán)重,使得模型關(guān)注特征圖中的類別信息;空間注意力模塊通過對特征圖進(jìn)行卷積操作,增加了目標(biāo)所在區(qū)域的位置權(quán)重,使得模型專注于目標(biāo)所在的空間信息。

        1.2.3 改進(jìn)的殘差模塊設(shè)計(jì)

        殘差模塊[16-17通過跳躍連接的方式將淺層信息與深層信息進(jìn)行線性組合,增加了層與層間的信息交互,可以解決由于網(wǎng)絡(luò)層數(shù)加深導(dǎo)致的梯度消失或梯度爆炸問題。雖然殘差模塊(圖4)實(shí)現(xiàn)了特征復(fù)用,但僅是低級特征x與高級特征F(x)間的特征融合,考慮到低級特征x與高級特征F(x)間信息的差異,這種特征融合方式可能會造成信息的丟失。

        卷積層具有特征提取的作用,非線性激活函數(shù)可以為網(wǎng)絡(luò)帶來非線性表征能力,批歸一化層則可以增加網(wǎng)絡(luò)的收斂速度,并使得網(wǎng)絡(luò)在訓(xùn)練過程中保持穩(wěn)定。本研究在保留原始?xì)埐钅K優(yōu)勢的基礎(chǔ)上嵌入了更多的卷積層、批歸一化層與非線性激活函數(shù),在實(shí)現(xiàn)信息跨層交互的同時(shí)具有稀疏非線性的特征提取的能力,得到了如圖5所示改進(jìn)的殘差模塊。改進(jìn)后的殘差模塊對輸入信息的計(jì)算如下:

        H(x)=F(x)+y;(5)

        y=relu{BN[Conv(x)]}。(6)

        式中:H(x)為輸出;x為輸入;Conv(·)為卷積操作;BN(·)為批歸一化操作;relu(·)為非線性激活函數(shù)。

        為了使改進(jìn)的殘差模塊與卷積模塊的通道數(shù)相匹配,各改進(jìn)殘差模塊中卷積層的卷積核數(shù)量分別為64、128和128,并設(shè)置卷積核的大小均為1×1。在網(wǎng)絡(luò)中引入1×1卷積層具有以下優(yōu)勢:(1)實(shí)現(xiàn)跨通道的信息交互;(2)引入非線性函數(shù),提升網(wǎng)絡(luò)的特征提取能力;(3)實(shí)現(xiàn)特征圖的降維,以便進(jìn)行特征融合。與卷積模塊類似,在網(wǎng)絡(luò)淺層獲取病斑的局部信息,在網(wǎng)絡(luò)的深層將局部的病斑信息進(jìn)行整合,得到病斑的全局信息,因此設(shè)置了殘差模塊1和殘差模塊2中卷積層的步長為1,殘差模塊3中卷積層的步長為2。

        1.3 試驗(yàn)環(huán)境

        本次試驗(yàn)于2021年11月在貴州省農(nóng)產(chǎn)品無損檢測工程研究中心進(jìn)行。硬件平臺為Windows 10操作系統(tǒng),GPU為NVIDIA GTX1660Ti,GPU顯存為6 G,CPU為AMD Ryzen5 4600H的計(jì)算機(jī)。模型的編程語言為Python 3.9,編程平臺為PyCharm 2021.2.3(社區(qū)版),深度學(xué)習(xí)框架選擇Keras 2.4.3,以TensorFlow 2.5.0為后端。

        2 結(jié)果與分析

        2.1 性能評價(jià)指標(biāo)

        為了客觀地評價(jià)模型的識別性能,使用混淆矩陣、準(zhǔn)確率(accuracy)、精度(precision)、召回率(recall)以及F1分?jǐn)?shù)(F1-scores)等性能評價(jià)指標(biāo)對模型進(jìn)行評價(jià),計(jì)算公式如下:

        式中:TP是正確預(yù)測的正類數(shù)量;FP是負(fù)類預(yù)測為正類的數(shù)量;FN是正類預(yù)測為負(fù)類的數(shù)量;TN是正確預(yù)測的負(fù)類數(shù)量。最后,為了評價(jià)模型復(fù)雜度,還對模型參數(shù)量以及模型占用內(nèi)存進(jìn)行對比。

        2.2 參數(shù)設(shè)置

        在數(shù)據(jù)增強(qiáng)時(shí),使用TensorFlow模塊中的ImageDataGenerator函數(shù)進(jìn)行圖像的在線增強(qiáng)操作,參數(shù)設(shè)置詳見表2。

        在IRes-AM-Net模型的訓(xùn)練過程中,以交叉熵函數(shù)為損失函數(shù)訓(xùn)練模型,訓(xùn)練輪次為200,優(yōu)化器選擇Adam,批次大小為16,標(biāo)簽平滑度為0.1。為了避免出現(xiàn)過擬合的現(xiàn)象,采用提前停止的訓(xùn)練策略,提前停止的輪次為30。

        學(xué)習(xí)率對模型的收斂速度和精度起著決定性的作用,學(xué)習(xí)率較大雖具有收斂速度快的優(yōu)勢,但收斂精度往往不高;較小的學(xué)習(xí)率收斂精度較高,但收斂速度慢。通常在網(wǎng)絡(luò)訓(xùn)練初期設(shè)置較大的學(xué)習(xí)率,使得模型快速收斂到,然后隨著迭代次數(shù)的增加減小學(xué)習(xí)率增加模型的收斂精度。本研究結(jié)合線性函數(shù)與分段函數(shù)的特點(diǎn)設(shè)計(jì)了復(fù)合式衰減的學(xué)習(xí)率調(diào)度方式,如圖6所示。首先,學(xué)習(xí)率先線性增長25個(gè)輪次,使用增長式的學(xué)習(xí)率可使得模型快速收斂;然后,固定學(xué)習(xí)率15個(gè)輪次,以固定的學(xué)習(xí)率訓(xùn)練模型可緩解增長式學(xué)習(xí)率帶來的模型性能不穩(wěn)定的問題;最后,每經(jīng)過40個(gè)輪次進(jìn)行學(xué)習(xí)率衰減,衰減因子為0.1,衰減式的學(xué)習(xí)率可使得模型具有較好的收斂精度。

        2.3 性能對比分析

        首先分析CBAM注意力機(jī)制對IRes-AM-Net模型性能的影響,驗(yàn)證卷積模塊中嵌入CBAM注意力機(jī)制的重要性。在IRes-AM-Net模型中去除了CBAM注意力機(jī)制得到了IRes-Net模型,結(jié)果(表3)表明,雖然IRes-AM-Net模型的參數(shù)量與占用內(nèi)存略大于IRes-Net模型的參數(shù)量與占用內(nèi)存,但I(xiàn)Res-AM-Net模型取得了最高的識別性能,各性能指標(biāo)均在99%以上,而IRes-Net模型的識別性能均在94.5%左右,約提高了4.67%,說明將CBAM注意力機(jī)制嵌入卷積模塊中可以提高模型對病害的識別性能。

        其次為了驗(yàn)證IRes-AM-Net模型的先進(jìn)性,使用遷移學(xué)習(xí)的方法獲取了5種性能較好的深度學(xué)習(xí)模型,即MobileNetV2[18、ResNet50[10、VGG16[19及其變體VGG19以及DenseNet121[20-21。為保證模型性能不受參數(shù)設(shè)置的影響,固定了訓(xùn)練過程中所有的訓(xùn)練策略不變。但由于原始的學(xué)習(xí)率相對于VGG16、VGG19以及DenseNet121模型來說較大,使得模型出現(xiàn)無法訓(xùn)練的現(xiàn)象,故選擇將原始的學(xué)習(xí)率降低10倍,以訓(xùn)練VGG16、VGG19以及DenseNet121模型。

        各模型在訓(xùn)練集上的準(zhǔn)確率與損失隨迭代次數(shù)的變化如圖7所示。圖7-a為模型準(zhǔn)確率隨迭代次數(shù)的變化曲線,由于使用了遷移學(xué)習(xí)技術(shù),上述5種模型均快速收斂,IRes-AM-Net模型是重新開始訓(xùn)練的模型,因此IRes-AM-Net模型的收斂速度較慢,但在第80個(gè)迭代輪次時(shí)也已達(dá)到收斂。在訓(xùn)練過程中各模型的準(zhǔn)確率均呈穩(wěn)定上升的趨勢,準(zhǔn)確率均達(dá)到98%以上,說明各模型對訓(xùn)練集的訓(xùn)練效果較好。圖7-b為模型損失隨迭代次數(shù)的變化曲線,所有模型的損失在訓(xùn)練過程中均穩(wěn)定下降,最終都達(dá)到收斂的狀態(tài)。由于在訓(xùn)練IRes-AM-Net模型時(shí)使用了標(biāo)簽平滑技術(shù),導(dǎo)致 IRes-AM-Net模型的損失值較其他模型的損失值大,且收斂速度較慢,IRes-AM-Net模型的損失值在0.35左右,而其他模型的損失值均在0.3左右。

        IRes-AM-Net模型與上述5種模型在測試集上的性能對比如表4所示,IRes-AM-Net模型的準(zhǔn)確率、精度、召回率以及F1分?jǐn)?shù)均達(dá)到99%以上,較其他識別模型的識別性能提高了1.41%~4.69%,說明IRes-AM-Net模型對于豆葉病害的識別性能較好。IRes-AM-Net模型的參數(shù)與占用內(nèi)存均為最小,參數(shù)量僅為7.4×105,分別為MobileNetV2、ResNet50、VGG16、VGG19以及DenseNet121模型參數(shù)量的32.74%、3.14%、5.03%、3.69%、10.51%;占用內(nèi)存僅為8.75 MB,分別為MobileNetV2、ResNet50、VGG16、VGG19以及DenseNet121模型占用內(nèi)存的33.14%、3.24%、5.21%、3.82%、10.68%,參數(shù)量少和占用內(nèi)存小說明IRes-AM-Net模型對計(jì)算資源的需求低。結(jié)果表明,IRes-AM-Net模型在性能上優(yōu)于目前常用的5種深度學(xué)習(xí)模型,同時(shí)具有最低的參數(shù)量和占用內(nèi)存,體現(xiàn)了IRes-AM-Net模型的高效性和輕量性,可進(jìn)一步用于移動設(shè)備上的豆葉病害識別模型的開發(fā)。

        2.4 可視化分析

        為了分析IRes-AM-Net模型在識別豆葉病害時(shí)葉片各區(qū)域?qū)ψR別結(jié)果的影響,使用了類激活可視化方法。Grad-CAM[22是一種廣泛用于神經(jīng)網(wǎng)絡(luò)可視化分析的算法,通過反向傳播的梯度計(jì)算特征圖每個(gè)通道的權(quán)重,并基于該權(quán)重對整個(gè)特征圖進(jìn)行線性加權(quán)得到激活熱力圖,最后用得到的熱力圖表征原始圖像中特定區(qū)域?qū)δP皖A(yù)測結(jié)果的貢獻(xiàn),從而實(shí)現(xiàn)類激活可視化。從數(shù)據(jù)集中隨機(jī)選取3幅圖像進(jìn)行類激活可視化分析,并給出各區(qū)域所表示的權(quán)重系數(shù)大小,權(quán)重大小在0~1之間,越接近1表示該區(qū)域?qū)τ诓『ψR別具有指導(dǎo)性意義,越接近0表示該區(qū)域在病害識別中可以忽略。

        在表5中所示的3幅圖像及對應(yīng)的類激活圖中,黃色區(qū)域表示的權(quán)重系數(shù)較大,代表了網(wǎng)絡(luò)主要關(guān)注的區(qū)域,表示該部分區(qū)域?qū)W(wǎng)絡(luò)的識別結(jié)果起到關(guān)鍵性作用;而紅色區(qū)域表示的權(quán)重系數(shù)較小,說明該區(qū)域是網(wǎng)絡(luò)忽略的部分,即對于網(wǎng)絡(luò)的識別結(jié)果起較小的作用或基本不起作用。由類激活可視化可知,IRes-AM-Net模型關(guān)注葉片圖像中病斑周圍的區(qū)域,說明模型對于感病區(qū)域具有較高的關(guān)注度,從而能取得較好的識別性能。

        3 討論

        針對復(fù)雜場景下采集的豆葉病害圖像進(jìn)行研究,發(fā)現(xiàn)在角葉斑病和豆銹病的感病癥狀間存在較高的相似度,通過傳統(tǒng)方法難以進(jìn)行有效判別。利用深度學(xué)習(xí)強(qiáng)大的特征提取能力進(jìn)行豆葉病害識別,通過自行設(shè)計(jì)的卷積模塊可以深度挖掘病害圖像中深層次的病害特征,同時(shí)嵌入CBAM注意力機(jī)制使得模型重點(diǎn)關(guān)注到圖像中的感病區(qū)域,降低背景與非病變區(qū)域?qū)ψR別結(jié)果的影響;并且由于原始?xì)埐钅K進(jìn)行特征融合時(shí)未考慮到信息間的差異性,僅是低級特征與高級特征進(jìn)行簡單的線性疊加,可能會使得部分病害信息丟失,因此在原始?xì)埐钅K的基礎(chǔ)上添加更多的卷積層、批歸一化層以及激活函數(shù),從而在特征融合時(shí)將低級特征轉(zhuǎn)換為高級特征,實(shí)現(xiàn)高級特征間的交互,以增強(qiáng)模型對病害的特征提取能力。

        雖然本研究提出的模型在復(fù)雜場景下識別豆葉病害取得了較好的性能,但是由于使用的豆葉病害種類較少,本研究僅是驗(yàn)證了使用深度學(xué)習(xí)方法在復(fù)雜場景下實(shí)現(xiàn)豆葉病害識別的可能性。因此,在未來的研究中,研究人員可以建立龐大的豆葉病害數(shù)據(jù)集,豐富豆葉病害種類多樣性、環(huán)境多樣性以及豆葉姿態(tài)多樣性。將完善的豆葉病害數(shù)據(jù)集應(yīng)用于本模型的訓(xùn)練和改進(jìn),從而實(shí)現(xiàn)豆葉病害的高效識別,為豆類作物的病害防控提供科學(xué)的指導(dǎo)。

        4 結(jié)論

        本研究使用自行設(shè)計(jì)的豆葉病害識別模型(IRes-AM-Net)在真實(shí)生產(chǎn)場景下實(shí)現(xiàn)了豆類作物病害的有效識別,主要結(jié)論如下:(1)為了驗(yàn)證CBAM注意力機(jī)制在模型中的有效性,在IRes-AM-Net模型中去除CBAM注意力機(jī)制進(jìn)行對比分析,結(jié)果表明,添加CBAM模塊以后的模型性能提高了約4.67%,說明CBAM注意力機(jī)制可以使模型專注到有利于豆葉病害識別的關(guān)鍵信息,并忽略次要信息;(2)將IRes-AM-Net模型與5種常用的深度學(xué)習(xí)模型相比,IRes-AM-Net模型在各性能指標(biāo)上均達(dá)到最高,較其他模型提高了1.41%~4.69%,且模型參數(shù)與占用內(nèi)存為最低,說明IRes-AM-Net模型不僅性能好,且還具有對計(jì)算資源需求低的優(yōu)勢。因此,IRes-AM-Net模型具有輕量和性能好的優(yōu)勢,為移動設(shè)備上豆葉病害識別系統(tǒng)的設(shè)計(jì)和研發(fā)提供了理論基礎(chǔ)。

        參考文獻(xiàn):

        [1]王 寵,蔡健靈,焦 玲,等. 豆類食品的合理食用研究[J]. 糧食科技與經(jīng)濟(jì),2020,45(4):127-129.

        [2]馬鸞艷. 豆角露地高產(chǎn)栽培及病蟲害防治技術(shù)探討[J]. 南方農(nóng)業(yè),2021,15(32):48-50.

        [3]Ferentinos K P. Deep learning models for plant disease detection and diagnosis[J]. Computers and Electronics in Agriculture,2018,145:311-318.

        [4]Lee S H,Goёau H,Bonnet P,et al. Attention-based recurrent neural network for plant disease classification[J]. Frontiers in Plant Science,2020,11:601250.

        [5]王美華,吳振鑫,周祖光. 基于注意力改進(jìn)CBAM的農(nóng)作物病蟲害細(xì)粒度識別研究[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2021,52(4):239-247.

        [6]李 萍,邵 彧,齊國紅,等. 基于跨深度學(xué)習(xí)模型的作物病害檢測方法[J]. 江蘇農(nóng)業(yè)科學(xué),2022,50(8):193-199.

        [7]Bahdanau D,Cho K,Bengio Y. Neural machine translation by jointly learning to align and translate[R/OL]. 2014:arXiv:1409.0473.https://arxiv.org/abs/1409.0473

        [8]Zeng W H,Li M. Crop leaf disease recognition based on self-attention convolutional neural network[J]. Computers and Electronics in Agriculture,2020,172:105341.

        [9]Karthik R,Hariharan M,Anand S,et al. Attention embedded residual CNN for disease detection in tomato leaves[J]. Applied Soft Computing,2020,86:105933.

        [10]He K M,Zhang X Y,Ren S Q,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Las Vegas,NV,USA.IEEE,2016:770-778.

        [11]方晨晨,石繁槐. 基于改進(jìn)深度殘差網(wǎng)絡(luò)的番茄病害圖像識別[J]. 計(jì)算機(jī)應(yīng)用,2020,40(增刊1):203-208.

        [12]曾偉輝,李 淼,李 增,等. 基于高階殘差和參數(shù)共享反饋卷積神經(jīng)網(wǎng)絡(luò)的農(nóng)作物病害識別[J]. 電子學(xué)報(bào),2019,47(9):1979-1986.

        [13]Woo S,Park J,Lee J Y,et al. CBAM:convolutional block attention module[C]//European Conference on Computer Vision.Cham:Springer,2018:3-19.

        [14]張福玲,張少敏,支力佳,等. 融合注意力機(jī)制和特征金字塔網(wǎng)絡(luò)的CT圖像肺結(jié)節(jié)檢測[J]. 中國圖象圖形學(xué)報(bào),2021,26(9):2156-2170.

        [15]李明悅,何樂生,雷 晨,等. 基于注意力特征融合的SqueezeNet細(xì)粒度圖像分類模型[J]. 云南大學(xué)學(xué)報(bào)(自然科學(xué)版),2021,43(5):868-876.

        [16]陳 娟,陳良勇,王生生,等. 基于改進(jìn)殘差網(wǎng)絡(luò)的園林害蟲圖像識別[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2019,50(5):187-195.

        [17]雷建云,陳 楚,鄭 祿,等. 基于改進(jìn)殘差網(wǎng)絡(luò)的水稻害蟲識別[J]. 江蘇農(nóng)業(yè)科學(xué),2022,50(14):190-198.

        [18]Sandler M,Howard A,Zhu M L,et al. MobileNetV2:inverted residuals and linear bottlenecks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City,UT.IEEE,2018:4510-4520.

        [19]Simonyan K,Zisserman A. Very deep convolutional networks for large-scale image recognition[R/OL]. 2014:arXiv:1409.1556.https://arxiv.org/abs/1409.1556

        [20]Huang G,Liu Z,van der Maaten L,et al. Densely connected convolutional networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Honolulu,HI.IEEE,2017:4700-4708.

        [21]湯文亮,黃梓鋒. 基于知識蒸餾的輕量級番茄葉部病害識別模型[J]. 江蘇農(nóng)業(yè)學(xué)報(bào),2021,37(3):570-578.

        [22]Selvaraju R R,Cogswell M,Das A,et al. Grad-CAM:visual explanations from deep networks via gradient-based localization[C]//2017 IEEE International Conference on Computer Vision (ICCV). Venice:IEEE,2017:618-626.

        猜你喜歡
        注意力機(jī)制卷積神經(jīng)網(wǎng)絡(luò)
        面向短文本的網(wǎng)絡(luò)輿情話題
        基于自注意力與動態(tài)路由的文本建模方法
        基于深度學(xué)習(xí)的問題回答技術(shù)研究
        基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
        基于注意力機(jī)制的雙向LSTM模型在中文商品評論情感分類中的研究
        軟件工程(2017年11期)2018-01-05 08:06:09
        InsunKBQA:一個(gè)基于知識庫的問答系統(tǒng)
        基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        真实国产乱子伦精品视频| 甲状腺囊实性结节三级| 国产亚洲欧美日韩国产片| 日韩极品视频在线观看免费 | 亚洲小少妇一区二区三区| 亚洲熟妇一区二区蜜桃在线观看 | 亚洲视频网站大全免费看| 韩国女主播一区二区三区在线观看| 国产高潮精品一区二区三区av| 免费大学生国产在线观看p| 国产精品久久国产精品久久| 精品国产三区在线观看| 日本二一三区免费在线| 专干老熟女视频在线观看| 婷婷五月六月综合缴情| 2020年国产精品| 欧美日韩性视频| 日本久久一级二级三级| 亚洲一区二区三区av资源| 国产精品老熟女乱一区二区| 激情综合五月| 国产精品亚洲а∨天堂2021| 中文字幕乱码一区av久久不卡 | 秋霞国产av一区二区三区| 午夜一区二区三区福利视频| 蜜桃网站在线免费观看视频| 天天综合色中文字幕在线视频| 蜜桃视频羞羞在线观看| 亚洲av成人一区二区三区本码 | 亚洲最新精品一区二区| 麻豆91蜜桃传媒在线观看| 和黑人邻居中文字幕在线| 国产精品黄在线观看免费软件| 免费AV一区二区三区无码| 精品人妻中文av一区二区三区| 日韩人妻无码精品系列专区无遮| 国产情侣自拍偷拍精品| 日本精品视频二区三区| 狂猛欧美激情性xxxx大豆行情 | 欧美成人中文字幕| 日本高清一区二区三区在线|