亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多尺度特征增強的輕量化黃瓜病害識別模型

        2024-12-31 00:00:00李帥薄敬東龔瑞昆崔傳金
        江蘇農(nóng)業(yè)科學 2024年20期
        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)圖像識別輕量化

        doi:10.15889/j.issn.1002-1302.2024.20.032

        摘要:在復(fù)雜的背景環(huán)境下對農(nóng)作物病害進行準確識別與分類,為農(nóng)作物病害的診斷及防治提供可靠依據(jù),具有重要經(jīng)濟意義。提出了一種新的網(wǎng)絡(luò)模型——MeNet(multiscale enhance on me),用于對大田中黃瓜的8種形態(tài)(其中包含6種病害和鮮黃瓜、鮮葉)進行精準識別。該模型的設(shè)計包括適用于網(wǎng)絡(luò)前端的特征增強模塊,對原始圖像進行像素級多尺度特征增強,從而提升模型的特征表達效率;運用特征挑選的思想進行后續(xù)的特征提取和增強,再加入基于空域抑制的SimAM注意力,進一步突出了顯著特征,提高特征效用;運用逐點卷積對特征圖進行通道間信息交互,再以全局平均池化總結(jié)特征圖。結(jié)果表明,相較于其他模型,本研究的MeNet性能更為優(yōu)越,在復(fù)雜背景病害數(shù)據(jù)集上,平均準確率達到92.38%,最高準確率達到了92.92%,而模型的參數(shù)量僅為0.33 M,浮點運算量僅為 0.30 G,證明MeNet模型在圖像識別領(lǐng)域具有實際應(yīng)用的潛力和繼續(xù)研究的價值。

        關(guān)鍵詞:黃瓜病害;圖像識別;卷積神經(jīng)網(wǎng)絡(luò);輕量化;多尺度特征增強;空域抑制

        中圖分類號:S126;S436.421.1;TP391.41" 文獻標志碼:A

        文章編號:1002-1302(2024)20-0267-10

        收稿日期:2023-11-09

        基金項目:河北省自然科學基金(編號:F2015209308-PT);唐山市科技計劃項目(編號:20150212C);河北省高等學??茖W技術(shù)研究項目(編號:ZD2016070);河北省省級研究生示范課程建設(shè)項目(編號:KCJSX2021061)。

        作者簡介:李" 帥(1996—),男,安徽阜陽人,碩士,主要從事檢測技術(shù)及智能裝置研究。E-mail:ncstlishuai@163.com。

        通信作者:龔瑞昆,博士,教授,碩士生導(dǎo)師,主要從事檢測技術(shù)及智能裝置研究。E-mail:ncstgongruikun@163.com。

        生物防治是農(nóng)業(yè)可持續(xù)發(fā)展模式的重要內(nèi)容,生物防治學科為農(nóng)業(yè)可持續(xù)發(fā)展提供了重要的科學支撐。近年來,我國已進入加快推進農(nóng)業(yè)可持續(xù)發(fā)展的歷史階段,這為生物防治學科的發(fā)展提供了新的機遇,同時也對生物防治學科的發(fā)展提出了更高的要求[1]。

        在深度學習興起之前,人們主要使用傳統(tǒng)的機器學習方法來解決圖像分類問題。這些方法通常涉及人工設(shè)計的特征提取器和分類器,如支持向量機(SVM)、隨機森林等。這些方法在小規(guī)模問題上效果較好,但在復(fù)雜圖像數(shù)據(jù)上的分類任務(wù)中表現(xiàn)不佳。但是,關(guān)于深度學習的探索一直都在進行,一直到2012年Alex等的AlexNet在ImageNet圖像分類比賽中獲勝,標志著卷積神經(jīng)網(wǎng)絡(luò)(CNN)正式嶄露頭角。隨著卷積提取特征的特性被認可,深度學習開始向著更深的網(wǎng)絡(luò)進發(fā),此后的VGG和ResNet都將網(wǎng)絡(luò)推向了更深的方向,而GoogleNet則提出了多尺度卷積的概念,又讓網(wǎng)絡(luò)變得更寬,通過大量卷積的疊加,追求網(wǎng)絡(luò)的識別性能,因為人們普遍認為卷積神經(jīng)網(wǎng)絡(luò)中特征的復(fù)雜性是隨網(wǎng)絡(luò)深度加深而提高的[2]。在卷積不能滿足需求后,又發(fā)展出了疊加注意力機制的網(wǎng)絡(luò)模型,進一步提升識別準確度。

        劉陽等以PlantVillage數(shù)據(jù)集為對象,對經(jīng)典輕量級卷積神經(jīng)網(wǎng)絡(luò)SqueezeNet進行改進,通過修剪模型,更改通道參數(shù),以犧牲小部分性能換取了大幅度參數(shù)量減少[3];孫俊等以Kaggle網(wǎng)站收集到的11類病害萬張數(shù)據(jù)為對象,將CA坐標注意力和多尺度特征金字塔融入MobileNet v2,使網(wǎng)絡(luò)準確率提高了2.91%[4];彭紅星等以自IP102和PlantVillage收集到的葡萄病蟲害數(shù)據(jù)為對象,用深度可分離卷積構(gòu)建雙分支特征提取,輔以CA坐標注意力改進MobileNet v2,取得了1.83百分點的準確率提升[5];賈璐等以自農(nóng)管家平臺收集到的3種病害為對象,用Inception結(jié)構(gòu)和加入SE注意力的倒殘差結(jié)構(gòu)自建模型,在其自建數(shù)據(jù)集上取得了平均識別準確率87.93%的成績[6];王煥鑫等以PlantVillage中的4種作物為對象,用ECA注意力和AFF特征融合改進MobileNet v2,取得了參數(shù)量減少15.37%,識別準確率提升0.9百分點的成績[7];朱學巖等以自采集的油橄欖自建數(shù)據(jù)集為對象,以EfficientNet-B0為主干,輔以CBAM注意力和雙線性池化層,搭建雙線性網(wǎng)絡(luò),提升了識別準確率[8];杜海順等以AI challenger 2018數(shù)據(jù)集為對象,用大量的平均池化組成的特征信息融合改進ConvNeXt網(wǎng)絡(luò),使ConvNeXt識別準確率提升了2.01百分點[9];李建威等以國際皮膚影像合作組織的2018挑戰(zhàn)賽數(shù)據(jù)集為對象,用SE通道注意力和SimAM無參注意力改進ConvNeXt網(wǎng)絡(luò),也取得了較好的成績[10];Chen等以自采集的橡膠樹病害數(shù)據(jù)集為對象,用倒殘差結(jié)構(gòu)、SE注意力、EIoU損失函數(shù)改進了 YOLO v5 模型,在其自建數(shù)據(jù)集上平均精度達到了70%,比YOLO v5提高了5.4百分點[11]。

        經(jīng)過對參考文獻及其他諸多文獻的細致分析,總結(jié)了以往深度學習模型的一些關(guān)鍵問題:

        (1)在圖像分類的研究中出現(xiàn)的數(shù)據(jù)集大致分為2類,一類是單一背景的實驗室條件圖片,另一類是復(fù)雜背景的大田條件圖片。通常情況下,后者的圖像識別準確率普遍較低,這是一個重要的挑戰(zhàn)。

        (2)盡管已有的網(wǎng)絡(luò)模型已經(jīng)在植物病害識別中取得了較好的效果,但由于其本身的參數(shù)量和存儲空間的需求量很大,使其很難應(yīng)用在移動或嵌入式設(shè)備中大量推廣[12]。傳統(tǒng)的網(wǎng)絡(luò)模型通常具有大量參數(shù),且單個參數(shù)的利用率較低,也正因為如此讓深度學習變得難以解釋,宛如一個黑匣子。因此,精簡模型參數(shù)不僅有利于推廣應(yīng)用,還有利于進一步解釋深度學習,這是一項很有意義的工作。

        本研究基于以上2個問題,著眼于精簡模型參數(shù)和參數(shù)的可解釋性,設(shè)計了一種輕量化深度學習網(wǎng)絡(luò)用以解決黃瓜病害的分類問題。

        1" 黃瓜病蟲害數(shù)據(jù)集構(gòu)建及增廣處理

        本研究所使用的數(shù)據(jù)集是來源于Mendeley Data的一個黃瓜病害數(shù)據(jù)集,其中包含8種類型的黃瓜,即炭疽病、細菌性枯萎病、肚腐病、霜霉病、苜蓿果腐病、蔓枯病、鮮葉和鮮黃瓜,每類160張,共 1 280 張圖片。其黃瓜病害分類是在農(nóng)業(yè)專家的合作下完成的,該數(shù)據(jù)集原材料取自真實田間,對比實驗室條件下采集的數(shù)據(jù)集背景噪聲更復(fù)雜,也具有更強的真實性。

        為降低病害診斷模型在訓練過程中的過擬合風險,并提高其泛化效果,在現(xiàn)有圖像數(shù)據(jù)基礎(chǔ)上,采用數(shù)據(jù)增廣方法對樣本進行擴充。采用的主要方法包括翻轉(zhuǎn)、亮度、對比度、飽和度和色調(diào)技術(shù)生成增強圖像,用以模擬不同的拍攝角度和不同的拍攝距離,以盡可能地還原真實的拍攝條件并增加數(shù)據(jù)數(shù)量,這些方法均采用torchvision庫中的transforms方法實現(xiàn)。從數(shù)據(jù)集中分別隨機抽取80%作為訓練集,在訓練集上使用上述數(shù)據(jù)增廣方法;剩余20%作為測試集,不使用數(shù)據(jù)增廣方法,用于后續(xù)試驗。樣本質(zhì)量如圖1所示。

        為了普適性地反映網(wǎng)絡(luò)模型的性能,評估模型的泛化性能,本研究還給出了在PlantVillage數(shù)據(jù)集上的測試結(jié)果,這是一個公開的農(nóng)作物病害數(shù)據(jù)集,其中的所有圖像均是由專業(yè)人士出于科學研究目的而拍攝并標注的,具有很強的專業(yè)性,其中共包含13種農(nóng)作物的38類葉片圖像信息,這38類圖像細分為26類病害葉片和12類健康葉片,總計有54 305張圖片。該數(shù)據(jù)集的特點是數(shù)據(jù)量大,標注清晰,但其背景是單一的實驗室背景,背景便于區(qū)分。在試驗中,擾亂數(shù)據(jù)集的次序,并按照比例 8 ∶2 將其分成訓練集和測試集。同時將數(shù)據(jù)集中的原始圖像統(tǒng)一裁剪為3×224×224,使其適應(yīng)模型的輸入。樣本質(zhì)量如圖2所示。

        2" 相關(guān)方法

        2.1" MeNet模型設(shè)計思想和結(jié)構(gòu)

        本研究提出了一種輕量化深度學習模型,能夠在黃瓜病害的分類任務(wù)中實現(xiàn)較高的識別準確率。

        與主流網(wǎng)絡(luò)相比,該模型具有更精簡的參數(shù),更容易解釋,同時滿足小型模型的要求,有利于推廣應(yīng)用。

        在圖像分類任務(wù)中,每張圖片是以1個三通道的數(shù)值矩陣的形式呈現(xiàn)的,每個數(shù)值對應(yīng)1個像素點,通過卷積操作后得到特征圖,在反向傳播的時候不斷修正,直到特征圖適應(yīng)我們的預(yù)期。也就是說可以把原圖片看作一個原始特征圖集合;把原圖片的每一個通道看作一個原始特征圖;把組成原圖片的數(shù)值矩陣中的每個數(shù)值看作是一個原始特征;將源自同一張圖片的原始特征圖集合、原始特征圖、原始特征看作原始特征集合。已有網(wǎng)絡(luò)只在第一層卷積中利用了上述的原始特征集合,隨后便以最淺層特征集合代替原始特征集合向前傳播,之后的每一層都是如此更替的模式。筆者提出一種新的主張,不再用卷積得到的特征集合替代上一層的特征集合,而是將卷積得到的特征集合看作一種關(guān)注,疊加在原始特征集合上,以原始特征集合為“骨”,貫穿整個模型,以每一層卷積得到的特征集合為“肉”,不斷地附著在“骨”上。在前向傳播的過程中,單位“骨”上“肉”越多,卷積時所獲得的關(guān)注越多,作用越大。用這樣的方式可以規(guī)范特征圖的更新路徑,進而精簡模型參數(shù),并且能最大化地將原始圖片中的有效信息保留在每一層的特征圖上傳遞出來,以提高識別的準確率。

        本研究將其命名為MeNet(multiscale enhance on me)。MeNet的整體模型如圖3所示。

        結(jié)合圖3可知,MeNet模型主要由多尺度特征增強模塊(MFE)、特征挑選和空域抑制模塊(CC)、最大池化層、可分離卷積層、平均池化層和全連接層構(gòu)成。將上述思想用于黃瓜圖像分類的任務(wù)。

        2.2" 多尺度特征增強模塊(multi-scale feature enhancement module,MFE)

        在許多模型中,第一次下采樣操作通常通過控制卷積操作的步長來實現(xiàn),用以縮小特征圖,后續(xù)提取圖像的高層特征以支持識別任務(wù)[12]。然而,由于這種下采樣方式導(dǎo)致原始圖像中不同像素點的計算次數(shù)不同,不同的計算次數(shù)先天性地給予了不同像素點不同的重要性,這可能會使模型丟失一些原始圖像的重要特征[13]。尤其是對于真實田間背景這種復(fù)雜情況,這種損失很可能會導(dǎo)致模型忽略圖像邊緣的特征,進而影響模型的性能。為解決這個問題,本研究提出了一種新的方法:在第一次下采樣前,讓所有像素點的計算次數(shù)相同,提取底層特征后對原始圖像進行像素級特征增強,使網(wǎng)絡(luò)在進行第一次下采樣前能夠保留更多的有效特征,從而提升網(wǎng)絡(luò)的表達上限,搭配最大池化下采樣,起到突出特征、過濾噪聲的效果。

        多尺度結(jié)構(gòu)的核心思想在于利用不同感受野的卷積核提取不同尺度的信息,其實質(zhì)是讓網(wǎng)絡(luò)學習一個不同尺度局部區(qū)域內(nèi)像素之間的上下文關(guān)系,這有助于更好地捕捉不同尺寸的特征信息[14-15]。

        本模塊(MFE)學習輸入圖像不同尺度的特征信息,并且給予不同尺度特征圖不同的權(quán)重后,再疊加相應(yīng)尺度的特征增強;其中的權(quán)重由特征圖整體平均池化后經(jīng)過線性變換和sigmoid激活后得到,特征增強所用的增強矩陣由相應(yīng)尺度的最大池化和1×1卷積得到;最后將原始特征集合增維后與權(quán)重矩陣和增強矩陣進行像素級融合。

        本模塊包含2個感受野,分別是3×3和5×5,2個分支分別提取不同感受野的特征,由于輸入圖像都是3通道的RGB圖像,為了每個通道的特征圖都能均勻得到增強,本模塊所得到的特征圖通道須為3的倍數(shù)。

        本模塊的結(jié)構(gòu)圖如圖4所示。

        2.3" 特征挑選和空域抑制模塊(feature selection and spatial suppression module,SS)

        本模塊(SS)的主要目的是提取圖像特征,并用不同尺寸的最大池化對不同感受野內(nèi)的特征進行挑選,之后將挑選出來的突出特征與上一層特征圖進行像素級融合,讓網(wǎng)絡(luò)在提取特征的同時挑選更為突出的特征來加強自身。

        在近些年,注意力機制一直是一個重要的研究方向[16]。Yang等認為應(yīng)由神經(jīng)科學中的一些統(tǒng)一原則來指導(dǎo)注意力機制的計算,因此基于一些成熟的神經(jīng)科學理論提出了一種新的方法[17],可以有效地產(chǎn)生真正的三維權(quán)重。要想成功地實現(xiàn)注意力,需要根據(jù)特征圖來估算單個神經(jīng)元的重要性。在神經(jīng)科學中,信息量最大的神經(jīng)元通常是那些在周圍神經(jīng)元中顯示出獨特放電模式的神經(jīng)元。而且,一個活躍的神經(jīng)元通常會抑制周圍神經(jīng)元的活動,

        這種現(xiàn)象被稱為空域抑制。由此得到啟發(fā),在視覺加工過程中,表現(xiàn)出明顯空域抑制效應(yīng)的神經(jīng)元應(yīng)被賦予更高的優(yōu)先權(quán)(即重要性)。在尋找重要神經(jīng)元時,最簡單的方法就是度量神經(jīng)元之間的線性可分性。基于這一思想,為每個神經(jīng)元定義以下能量函數(shù)。

        et(wt,bt,y,xi)=(y-t^)2+1M-1∑M-1i=1(y-x^i)2

        t^=wtt+bt

        x^i=wtxi+bt 。(1)

        式中:t和xt為輸入特征X∈RC×H×W的單個通道中的目標神經(jīng)元和其他神經(jīng)元;i是空間維度上的索引;M=H×W是該通道上的神經(jīng)元數(shù)量;wt還有bt是計算中的權(quán)重和偏置。經(jīng)過研究人員一步步的計算后,最終給出了一個可以簡單計算的能量公式:

        e*t=4(σ2+φ)(t-μ)2+2σ2+2φ。(2)

        式中:μ和σ2是除t以外的所有神經(jīng)元的平均值和方差,系數(shù)φ在0.000 1時取得較好的性能。其能量越低,意味著神經(jīng)元t與周圍神經(jīng)元的差異越大,其重要性也越高。因此,神經(jīng)元的重要性可以通過1e*得到。最后,根據(jù)各神經(jīng)元的重要性,對特征圖進行優(yōu)化,并將其總結(jié)在一個通道上,則SimAM的計算流程可概況為

        X=sigmoid1E·X。(3)

        式中:輸出結(jié)果X為增強后的特征,X為輸入特征,·為點積運算,E為每個通道上所有神經(jīng)元能量函數(shù)的值列表,sigmoid則用來限制E值的范圍。

        通過這種方式,可以更準確地在神經(jīng)元群體中捕捉到在特定任務(wù)中扮演關(guān)鍵角色的神經(jīng)元以重現(xiàn)人腦中的注意力協(xié)同機制,并將其體現(xiàn)在SimAM注意力模塊中。

        整體的模塊結(jié)構(gòu)如圖5所示。

        2.4" 通道混合和壓縮模塊(channels and compression module,CC)

        深度可分離卷積(DP)由1個卷積核大小為3的深度卷積(DW)和1個卷積核大小為1的逐點卷積(PW)組成。相比于普通卷積,DW能節(jié)省非常多的參數(shù)量和運算量,而特征提取效果與普通卷積相比相差不大,且PW可以讓各通道間的信息進行融合,在降低計算成本的同時增加非線性容量,這有助于模型擬合數(shù)據(jù)分布,故而深度可分離卷積模塊對于輕量型模型來說是最好的選擇之一。

        上述幾個模塊不斷將模型的關(guān)注點聚焦到病害特征所在位置,這就使得此時的特征圖中包含2類特征點:其一為病灶位置的特征點,特征效率高,越靠近病灶位置的特征值就越高;其二為非病灶位置的特征點,離病灶位置越遠特征值就越低。非病灶位置的特征點在分類器中是有害的,一方面增加運算量,一方面干擾分類結(jié)果。要解決這一問題需要在最后分類前對特征圖進行優(yōu)化,采用全局平均池化將特征圖壓縮為一個值,由一個值的輸出來總結(jié)一個特征圖的關(guān)鍵信息,這將會使模型忽略非病灶位置的特征點,從而提高分類性能,同時能進一步減少參數(shù)量。

        本模塊(CC)的計算過程公式化表達為

        X2=PW[DW(X)]

        X3=MP{ReLU[BN(X2)]}

        X4=AVG(X3)。(4)

        式中:X為模塊輸入;X4為模塊輸出;DW為分組卷積;PW為點卷積;ReLU為激活函數(shù);BN為歸一化層;MP為最大池化操作;AVG為平均池化操作。

        3" 試驗結(jié)果

        3.1" 試驗平臺

        本研究采用的試驗平臺硬件環(huán)境:處理器為12 vCPU Intel Xeon Platinum 8255C CPU @ 2.50 GHz,內(nèi)存為40 GB,顯卡為NVIDIA GeForce RTX 2080 Ti,顯存為11 GB。編程語言為Python,深度學習框架:Pytorch 1.11.0,CUDA版本為11.3,進行模型的搭建和訓練。

        3.2" 訓練參數(shù)

        為試驗的有效性考量,所有試驗均采用相同的環(huán)境參數(shù):模型在訓練和測試時均采用相同的批處理的方式,每批數(shù)據(jù)包含64幅圖像,即批訓練數(shù)據(jù)量的大?。╞atch)設(shè)置為64。模型訓練的迭代總次數(shù)(Epoch)設(shè)置為300,采用Adam優(yōu)化器,初始學習率設(shè)置為0.001,betas設(shè)置為(0.9,0.999),損失函數(shù)使用交叉熵損失函數(shù)。

        3.3" 模型評價指標

        本研究是輕量化分類模型在黃瓜病害圖像上的應(yīng)用,所以將采用5個指標[18]來判斷模型的整體性能,分別是最高準確率、平均準確率、參數(shù)量、浮點運算數(shù)、混淆矩陣。

        其中的平均準確率為10次試驗在測試集上準確率的平均值,且平均準確率更高意味著模型的穩(wěn)定性更好;最高準確率為10次試驗在測試集上的最高值,最高準確率更高意味著模型的上限更好。

        參數(shù)量、浮點運算量由thop庫中的profile方法導(dǎo)出,其中浮點運算量為1張224像素×224像素分辨率的RGB圖像輸入網(wǎng)絡(luò)后前向傳播時共執(zhí)行的浮點運算次數(shù)。

        混淆矩陣是由sklearn庫中的metrics方法導(dǎo)出,經(jīng)過pandas庫對混淆矩陣進行美化,方便分析。本研究混淆矩陣的縱坐標為預(yù)測值,橫坐標為真實值?;煜仃囍凶宰笊现劣蚁碌膶蔷€數(shù)值為模型對于每種圖像預(yù)測正確的數(shù)量,哪種圖像對應(yīng)的數(shù)值越大則說明模型在此種圖像上的分類效果越好。

        3.4" 消融試驗

        由于本研究的目的是完成一種輕量化模型的設(shè)計,大體上有13層的卷積結(jié)構(gòu),故而以VGG16網(wǎng)絡(luò)進行網(wǎng)絡(luò)剪枝,以只保留13層卷積的CNN網(wǎng)絡(luò)為基礎(chǔ)模型,以下稱為BaseCNN,以此為基礎(chǔ)在試驗中驗證所包含的模塊性能。

        按照基礎(chǔ)模型(BaseCNN)中的特征圖尺寸變化規(guī)律,將BaseCNN中的普通卷積全部替換為深度可分離卷積模塊(DP),該模型以DPNet代指;將DPNet中的第1次下采樣(第1個DP)替換為本研究所采用的多尺度特征增強模塊(MFE),稱為MFE_DP;將模型的中間部分每一個DP都(中間3個DP)替換為本研究所采用的特征挑選和空域抑制模塊(SS),稱為MFE_SS_DP;將MFE_SS_DP中的SimAM空域抑制刪去,稱為MFE_S_DP;最后將模型的尾部(最后一個DP)替換為本研究所采用的通道混合和壓縮模塊(CC),稱為MFE_SS_CC(MeNet)。

        由表1可知,DPNet的最高準確率和平均準確率均比BaseCNN要高,而且參數(shù)量和運算量均超大幅度減少。這是因為深度可分離卷積(DP)本身分

        組卷積加點卷積的組合可以大幅降低參數(shù)量和運算量;DP中的點卷積能有效進行跨通道的特征整合,且點卷積的本質(zhì)也可以對原特征圖的每一個像素點進行1次像素級的加權(quán),這使得其準確率也有大幅度提高,這個優(yōu)點將保留在CC模塊中。

        MFE_DP的最高準確率和平均準確率均比DPNet要高,MFE模塊給DPNet帶來了1.45百分點的平均準確率提升和1.56百分點的最高準確率提升,運算量減少17.07%,參數(shù)量略微減少。因為MFE模塊為模型保留了不同感受野的完整圖像信息,對圖像邊緣的特征保留得也更全面,且能夠針對不同尺寸的病害信息給予特征圖相應(yīng)的增強信號。

        MFE_SS_DP和MFE_DP的比較說明SS模塊給MFE_DP帶來了1.72百分點的平均準確率提升和1.17百分點的最高準確率提升,參數(shù)量減少17.19%,運算量減少了11.76%。其中,MFE_S_DP中只包含了特征挑選,可以使MFE_DP的平均準確率提升0.33百分點,最高準確率提升0.39百分點。從MFE_SS_DP和MFE_S_DP的比較中看出,在特征挑選的基礎(chǔ)上加入SimAM(神經(jīng)元挑選)后平均準確率提升了1.39百分點,最高準確率提升了0.78百分點,說明空域抑制和特征挑選是可以配合使用的,并不會沖突,且空域抑制模塊挑選出的重要神經(jīng)元在分類中發(fā)揮了更強大的作用。通過反復(fù)3次的特征挑選和神經(jīng)元挑選,特征有效性大大提高,這是輕量化模型可以用少量參數(shù)實現(xiàn)較好分類效果的重要條件。

        MFE_SS_CC(MeNet)和MFE_SS_DP的比較說明CC模塊給MFE_SS_DP帶來了2.93百分點的平均準確率提升和3.08百分點的最高準確率提升,參數(shù)量減少了37.74%,運算量幾乎不變。CC模塊與被替換掉的DP模塊相比,雖然只多了一個特征圖壓縮的步驟,但是這個壓縮的過程正是貫徹設(shè)計思想的關(guān)鍵一招,大量非病灶位置的特征點的取值比較小,對分類任務(wù)起不利影響,用壓縮特征圖的方式將取值較小的特征點忽略,只有這樣才能真正地將前2個模塊處理好的高效特征的作用發(fā)揮出來,篩選有效的特征進入分類器。這種做法直接將下一步全連接分類時的輸入特征數(shù)減少為原來的 1/49,減少了大量的冗余連接,而保留了重要連接,讓分類更加準確,也大大減少了參數(shù)量。

        從整體上來看,試驗驗證了“2.1”節(jié)中的設(shè)計思想,可以實現(xiàn)黃瓜病害的分類,且大大提高了特征的有效性,讓模型用更少的參數(shù)完成了分類的任務(wù)。接下來,將用MeNet和其他主流模型對比以證明其優(yōu)越性。

        3.5" 對比試驗

        將本研究的網(wǎng)絡(luò)模型與主流網(wǎng)絡(luò)模型在相同數(shù)據(jù)集和訓練環(huán)境下作對比試驗,以評估MeNet的網(wǎng)絡(luò)性能,結(jié)果如表2所示。

        由表2可知,本研究提出的模型在復(fù)雜背景的黃瓜數(shù)據(jù)集上有著出色的性能表現(xiàn)。與老牌網(wǎng)絡(luò)VGG16相比,MeNet無論是參數(shù)量、浮點運算量還是準確率都更優(yōu)秀,充分說明對于深度學習來說,特征數(shù)量不是越多越好;與模型體量最接近的GhostNet、ShuffleNet v1、MobileNet v3網(wǎng)絡(luò)相比,MeNet在參數(shù)量和準確率上更具有優(yōu)勢,參數(shù)量僅為ShuffleNet v1的15.64%,但是浮點運算數(shù)卻比GhostNet高出了0.08 G,平均準確率則是最高的,比GhostNet高出5.08百分點,比ShuffleNet v1高出4.42百分點,比MobileNet v3高出2.58百分點;與準確率表現(xiàn)最接近的EfficientNetB0、Inception v2網(wǎng)絡(luò)相比,MeNet在網(wǎng)絡(luò)體量上有著巨大的優(yōu)勢,參數(shù)量不足它們的1/20,浮點運算數(shù)也只有它們的1/6,MeNet準確率也高出二者至少1.13百分點;這說明MeNet提取的特征更加簡潔、高效,具有更強的可解釋性,繼續(xù)研究的價值也更高。

        3.6" 可視化分析

        使用Grad-CAM++方法對模型的最后一層卷積層進行可視化分析,用疊加熱力圖的方式查看網(wǎng)絡(luò)經(jīng)過特征增強和挑選后所關(guān)注的特征。

        計算網(wǎng)絡(luò)模型的混淆矩陣,通過數(shù)據(jù)集內(nèi)容和混淆矩陣的對照,可以觀察出數(shù)據(jù)集的難分點和網(wǎng)絡(luò)模型的缺點,這對指明以后的研究方向很有幫助。

        可視化結(jié)果如圖6和圖7所示。

        由圖6可知,MeNet模型可以很好地將關(guān)注集中在病灶區(qū)域,這是模型能夠正確分類的保障,同時也驗證了模型切實提高了特征表達效率,使得模型在參數(shù)減少的同時保證準確率。

        由圖7可知,MeNet模型整體分類效果較好,最影響結(jié)果的是炭疽病(anthracnose)和蔓枯?。╣ummy stem blight),這2種病害的識別最為困難,因2種病害病灶區(qū)域極其相似,故而容易相互混淆。2種病害的圖像如圖8所示。

        3.7" 泛化性試驗

        將本研究的模型在大型公開數(shù)據(jù)集PlantVillage上運行,訓練集與測試集比例均為8 ∶2,用以測試模型的泛化能力。在對比試驗中挑選參數(shù)量最接近的和準確率最接近的模型共同參與。試驗結(jié)果如表3所示。

        從表3可以明顯看出,與GhostNet和EfficientNetB0模型相比,本研究提出的MeNet模型不僅在準確率方面表現(xiàn)更出色,而且模型的體積也更小。就MeNet模型本身而言, 其準確率完全滿足需求。且依據(jù)MeNet在大型數(shù)據(jù)集上的表現(xiàn)可以推斷,MeNet模型同樣可以很好地擬合大型數(shù)據(jù)集,

        有著很大的移植應(yīng)用空間。

        4" 結(jié)論

        以往神經(jīng)網(wǎng)絡(luò)模型存在復(fù)雜背景下病害識別困難和參數(shù)量大2個問題,導(dǎo)致網(wǎng)絡(luò)難解釋、難推廣、難應(yīng)用,歸根結(jié)底是由于以往模型提取的特征有效性不高所致。本研究據(jù)此展開研究并得出以下結(jié)論:采用“2.1”節(jié)提出的以輸入圖像原始特征集合為“骨”,以特征矩陣為“肉”構(gòu)建圖像特征的方法是可行的;本研究的模型以0.33 M的參數(shù)在復(fù)雜背景下達到了92.92%的準確率,優(yōu)于現(xiàn)有主流模型,證實本研究的方法是有效的;模型可視化結(jié)果證實了本研究的方法可以規(guī)范特征圖的更新路徑,讓特征更易解釋;參數(shù)量的大幅降低驗證了本方法能用少量高質(zhì)量特征替換大量低質(zhì)量特征,提高了特征效率,顯著降低了模型參數(shù)。

        本研究模型參數(shù)量與運算量極小,可以輕松移植到許多性能較低的設(shè)備上使用。這不僅降低了設(shè)備成本,增強了模型的可移植性;還有助于生產(chǎn)商減小設(shè)備的體積,增強設(shè)備便攜性,對于廣泛推廣電子設(shè)備用于農(nóng)作物病害的識別具有巨大的推動作用。

        參考文獻:

        [1]陳學新,杜永均,黃健華,等. 我國作物病蟲害生物防治研究與應(yīng)用最新進展[J]. 植物保護,2023,49(5):340-370.

        [2]Li Z W,Liu F,Yang W J,et al. A survey of convolutional neural networks:analysis,applications,and prospects[J]. IEEE Transactions on Neural Networks and Learning Systems,2022,33(12):6999-7019.

        [3]劉" 陽,高國琴. 采用改進的SqueezeNet模型識別多類葉片病害[J]. 農(nóng)業(yè)工程學報,2021,37(2):187-195.

        [4]孫" 俊,朱偉棟,羅元秋,等. 基于改進MobileNet v2的田間農(nóng)作物葉片病害識別[J]. 農(nóng)業(yè)工程學報,2021,37(22):161-169.

        [5]彭紅星,徐慧明,劉華鼐. 融合雙分支特征和注意力機制的葡萄病蟲害識別模型[J]. 農(nóng)業(yè)工程學報,2022,38(10):156-165.

        [6]賈 "璐,葉中華. 基于注意力機制和特征融合的葡萄病害識別模型[J]. 農(nóng)業(yè)機械學報,2023,54(7):223-233.

        [7]王煥鑫,沈志豪,劉" 泉,等. 基于改進MobileNet v2模型的農(nóng)作物葉片病害識別研究[J]. 河南農(nóng)業(yè)科學,2023,52(4):143-151.

        [8]朱學巖,陳鋒軍,鄭一力,等. 融合雙線性網(wǎng)絡(luò)和注意力機制的油橄欖品種識別[J]. 農(nóng)業(yè)工程學報,2023,39(10):183-192.

        [9]杜海順,張春海,安文昊,等. 基于多層信息融合和顯著性特征增強的農(nóng)作物病害識別[J]. 農(nóng)業(yè)機械學報,2023,54(7):214-222.

        [10]李建威,呂曉琪,谷" 宇. 基于改進ConvNeXt的皮膚鏡圖像分類方法[J]. 計算機工程,2023,49(10):239-246,254.

        [11]Chen Z Y,Wu R H,Lin Y Y,et al. Plant disease recognition model based on improved YOLO v5[J]. Agronomy,2022,12(2):365.

        [12]王" 軍,馮孫鋮,程" 勇. 深度學習的輕量化神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)研究綜述[J]. 計算機工程,2021,47(8):1-13.

        [13]吳建成,郭榮佐,成嘉偉,等. 注意力特征融合的快速遙感圖像目標檢測算法[J]. 計算機工程與應(yīng)用,2024,60(1):207-216.

        [14]Ioffe S,Szegedy C. Batch normalization:Accelerating deep network training by reducing internal covariate shift[C]. 32nd International Conference on Machine Learning,ICML 2015,2015,1:448-456.

        [15]齊國紅,許新華,師曉麗. 基于多尺度注意力U-Net的結(jié)球甘藍青蟲檢測方法[J]. 江蘇農(nóng)業(yè)學報,2023,39(6):1349-1357.

        [16]Wang Q L,Wu B G,Zhu P F,et al. ECA-net:efficient channel attention for deep convolutional neural networks[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle,WA,USA.IEEE,2020:11531-11539.

        [17]Yang L,Zhang R Y,Li L,et al. Simam:A simple,parameter-free attention module for convolutional neural networks[C]//International conference on machine learning. Virtual:IEEE,2021:11863-11874.

        [18]Sandler M,Howard A,Zhu M L,et al. MobileNet v2:inverted residuals and linear bottlenecks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT.IEEE,2018:4510-4520.

        [19]Tan M X,Le Q V. EfficientNet:rethinking model scaling for convolutional neural networks[EB/OL]. (2019-05-28)[2023-11-09]. http://arxiv.org/abs/1905.11946.

        [20]Han K,Wang Y H,Tian Q,et al. GhostNet:more features from cheap operations[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle,WA,USA.IEEE,2020:1577-1586.

        [21]Liu Z,Mao H Z,Wu C Y,et al. A ConvNet for the 2020s[C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New Orleans,LA,USA.IEEE,2022:11966-11976.

        猜你喜歡
        卷積神經(jīng)網(wǎng)絡(luò)圖像識別輕量化
        汽車輕量化集成制造專題主編
        基于Resnet-50的貓狗圖像識別
        電子制作(2019年16期)2019-09-27 09:34:50
        高速公路圖像識別技術(shù)應(yīng)用探討
        一種輕量化自卸半掛車結(jié)構(gòu)設(shè)計
        智富時代(2019年2期)2019-04-18 07:44:42
        圖像識別在物聯(lián)網(wǎng)上的應(yīng)用
        電子制作(2018年19期)2018-11-14 02:37:04
        圖像識別在水質(zhì)檢測中的應(yīng)用
        電子制作(2018年14期)2018-08-21 01:38:16
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
        深度學習算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識別的算法的研究
        精品无码久久久久久国产| 亚洲av网一区二区三区| 中国无码人妻丰满熟妇啪啪软件| 亚洲av无码一区二区三区四区| 五月丁香六月综合激情在线观看| 久久精品网站免费观看| 久久一区二区三区久久久| 国产人妻人伦精品1国产| 日韩一线无码av毛片免费| 蜜芽尤物原创AV在线播放| 色视频不卡一区二区三区| 日本久久久久亚洲中字幕| 国产精品国产三级国产av′| 久久精品国产精品亚洲婷婷| 久久精品国产亚洲av豆腐| 中国女人内谢69xxxxxa片| 免费a级毛片出奶水| 亚洲综合伦理| 中文字幕有码久久高清| 国产成人精品日本亚洲专区61| 少妇spa推油被扣高潮| 超碰观看| 中文字幕综合一区二区三区| 麻豆精品久久久久久中文字幕无码| 99精品电影一区二区免费看| 扒下语文老师的丝袜美腿| 亚洲午夜精品一区二区麻豆av| 51国产黑色丝袜高跟鞋| 国产综合自拍| 中文字幕视频一区二区| 中文字幕亚洲无线码在线一区| 久久久久久国产精品美女| 欧美手机在线视频| 大香蕉国产av一区二区三区 | 一区二区三区国产| 亚洲AV无码国产永久播放蜜芽| 亚洲无av码一区二区三区| 丰满人妻被两个按摩师| 亚洲的天堂av无码| 亚洲国产精品一区二区第一| 99久久精品在线视频|