劉小玲 崔艷榮
摘要:針對(duì)真實(shí)環(huán)境下蘋(píng)果葉片病害識(shí)別背景復(fù)雜、識(shí)別準(zhǔn)確率不高的問(wèn)題,提出了一種改進(jìn)輕量化網(wǎng)絡(luò)MobileNeXt的蘋(píng)果葉片病害識(shí)別方法。首先收集了4類(lèi)常見(jiàn)蘋(píng)果葉片病害圖像樣本,每類(lèi)由簡(jiǎn)單背景圖像與復(fù)雜背景圖像混合,通過(guò)多種數(shù)據(jù)增強(qiáng)方式對(duì)圖像進(jìn)行處理,以增加樣本多樣性,提高模型的泛化能力。接著基于輕量化網(wǎng)絡(luò)MobileNeXt中的sandglass結(jié)構(gòu),引入?yún)f(xié)調(diào)注意力機(jī)制CA分配權(quán)重,以區(qū)分目標(biāo)與背景,同時(shí)結(jié)合Inception模塊與Ghost模塊,設(shè)計(jì)了2種SCI(Sandglass-CA-Inception)結(jié)構(gòu),在參數(shù)增加量盡可能小的前提下,擴(kuò)充網(wǎng)絡(luò)深度與寬度,增強(qiáng)模型對(duì)于背景復(fù)雜病害圖像的特征學(xué)習(xí)能力。試驗(yàn)結(jié)果表明,改進(jìn)后的模型相比于MobileNeXt,Top-1準(zhǔn)確率提升了1.23百分點(diǎn),平均精確率提升了1.18百分點(diǎn),參數(shù)量只增加了0.62M,為真實(shí)場(chǎng)景下的蘋(píng)果葉片病害識(shí)別提供了一種有效的解決方案。
關(guān)鍵詞:蘋(píng)果病害識(shí)別;輕量化網(wǎng)絡(luò);MobileNeXt;sandglass;協(xié)調(diào)注意力機(jī)制;Inception;Ghost
中圖分類(lèi)號(hào):TP391.41文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1002-1302(2023)10-0185-08
蘋(píng)果富含維生素和礦物質(zhì),是最受歡迎的水果之一。我國(guó)是世界上最大的蘋(píng)果生產(chǎn)國(guó)與消費(fèi)國(guó)[1],據(jù)聯(lián)合國(guó)糧農(nóng)組織統(tǒng)計(jì),我國(guó)蘋(píng)果產(chǎn)量超過(guò)美國(guó)與波蘭,位列第一。在山東省、陜西省等以果樹(shù)產(chǎn)業(yè)為主的地區(qū),發(fā)展蘋(píng)果種植產(chǎn)業(yè)是當(dāng)?shù)毓r(nóng)脫貧致富的重要手段,更是促進(jìn)農(nóng)業(yè)產(chǎn)業(yè)化與農(nóng)村經(jīng)濟(jì)發(fā)展的有效途徑[2]。然而,蘋(píng)果的質(zhì)量與產(chǎn)量易受蘋(píng)果病害的影響,若能快速準(zhǔn)確地識(shí)別蘋(píng)果病害,及時(shí)防控,便能減少經(jīng)濟(jì)損失,保證蘋(píng)果產(chǎn)業(yè)的可持續(xù)健康發(fā)展[3]。
蘋(píng)果病害主要發(fā)生在葉部。傳統(tǒng)病害識(shí)別由人工現(xiàn)場(chǎng)觀測(cè)葉片,或者提取葉片病害圖像的淺層特征,如顏色特征、紋理特征等,準(zhǔn)確率與效率都很低,難以準(zhǔn)確快速地識(shí)別病害種類(lèi)。隨著人工智能時(shí)代發(fā)展,以卷積神經(jīng)網(wǎng)絡(luò)為代表的深度學(xué)習(xí)方法成為主流,廣泛應(yīng)用于礦業(yè)[4]、電力工業(yè)[5]、農(nóng)業(yè)[6]、醫(yī)學(xué)[7]等各個(gè)領(lǐng)域。深度學(xué)習(xí)方法大幅提高了農(nóng)作物病害識(shí)別的準(zhǔn)確率[8-9],但較深的網(wǎng)絡(luò)結(jié)構(gòu)產(chǎn)生了大量參數(shù),增加了計(jì)算量,提高了模型對(duì)設(shè)備的內(nèi)存要求,計(jì)算速度也隨之降低。為了平衡模型精度、尺寸與效率,研究者們提出了各種輕量化卷積神經(jīng)網(wǎng)絡(luò)[10]模型,主要有SqueezeNet[11]、Xception[12]、ShuffleNet[13-14]系列、MobileNet[15-17]系列,在農(nóng)作物病害識(shí)別方面取得了不錯(cuò)的效果。洪惠群等利用遷移學(xué)習(xí)和番茄單作物數(shù)據(jù)集,比較訓(xùn)練了Xception和ShuffleNetV20.5x模型,并將ReLU激活函數(shù)替換為L(zhǎng)eakyReLU,識(shí)別準(zhǔn)確率提高到86.5%[18];孫俊等在MobileNetV2模型上嵌入坐標(biāo)注意力機(jī)制,對(duì)不同尺寸特征圖進(jìn)行上采樣融合,并使用分組卷積,在16類(lèi)背景復(fù)雜農(nóng)作物葉片病害數(shù)據(jù)集中識(shí)別準(zhǔn)確率為92.20%,較改進(jìn)前提高了2.91百分點(diǎn)[19];李好等引入ECA注意力模塊與H-Swish激活函數(shù),減少ShuffleNetV2模型中單元個(gè)數(shù),使得參數(shù)量明顯減少,在PlantVillage數(shù)據(jù)集上識(shí)別平均準(zhǔn)確率高達(dá)99.26%[20]。
本研究基于MobileNet系列輕量化網(wǎng)絡(luò),尤其是新一代的MobileNeXt[21]模型,對(duì)蘋(píng)果葉片病害數(shù)據(jù)集進(jìn)行分類(lèi)識(shí)別,并做出相應(yīng)改進(jìn)使其適應(yīng)真實(shí)環(huán)境,可將訓(xùn)練好的模型部署于移動(dòng)端,在戶外場(chǎng)景對(duì)蘋(píng)果葉片病害進(jìn)行實(shí)時(shí)識(shí)別,便于果農(nóng)及時(shí)采取措施,減少經(jīng)濟(jì)損失。
1試驗(yàn)材料
1.1數(shù)據(jù)來(lái)源
本次研究對(duì)象為由西北農(nóng)林科技大學(xué)采集的蘋(píng)果葉片病害數(shù)據(jù)集,包括斑點(diǎn)落葉病、灰斑病、花葉病、銹斑病共4類(lèi)常見(jiàn)蘋(píng)果葉片病害圖像,每類(lèi)由簡(jiǎn)單背景圖像與復(fù)雜背景圖像混合,在晴天和陰雨天條件下均有采集,使得數(shù)據(jù)集更具豐富性與多樣性。圖像大小為512×512像素,具體如圖1所示。
1.2數(shù)據(jù)預(yù)處理
為了防止樣本數(shù)據(jù)不足導(dǎo)致網(wǎng)絡(luò)訓(xùn)練出現(xiàn)過(guò)擬合情況,在訓(xùn)練之前,對(duì)蘋(píng)果葉片病害圖像進(jìn)行了數(shù)據(jù)增強(qiáng),擴(kuò)充數(shù)據(jù)集的同時(shí)增加訓(xùn)練樣本的多樣性。通過(guò)圖像旋轉(zhuǎn)、水平和垂直鏡像,亮度、對(duì)比度調(diào)整等完成對(duì)數(shù)據(jù)集的預(yù)處理,得到蘋(píng)果葉片病害數(shù)據(jù)集信息(表1),預(yù)處理過(guò)程如圖2所示。該數(shù)據(jù)集以訓(xùn)練集∶測(cè)試集=8∶2劃分,訓(xùn)練時(shí)將從訓(xùn)練集中按0.2比例劃分出驗(yàn)證集。
2試驗(yàn)方法
2.1網(wǎng)絡(luò)結(jié)構(gòu)
本研究基于輕量化網(wǎng)絡(luò)MobileNeXt。MobileNeXt中提出了新穎的sandglass結(jié)構(gòu),該結(jié)構(gòu)根據(jù)MobileNetV2中的逆殘差結(jié)構(gòu)設(shè)計(jì),沿用了MobileNetV1的深度可分離卷積方式(即Dwise),更大程度上實(shí)現(xiàn)高效與輕量化。模型整體由sandglass
模塊簡(jiǎn)單堆疊構(gòu)成,如圖3所示,s表示步長(zhǎng),b表示sandglass模塊重復(fù)個(gè)數(shù),步長(zhǎng)為2只作用于每層的第一個(gè)模塊。本研究的蘋(píng)果葉片病害識(shí)別流程如圖4所示,通常在真實(shí)環(huán)境下采集的葉片病害圖像背景較為復(fù)雜、病斑大小與分布位置均有不同,為提高M(jìn)obileNeXt在實(shí)際應(yīng)用場(chǎng)景中的表現(xiàn)能力,將對(duì)其進(jìn)行相應(yīng)改進(jìn)。
2.2sandglass結(jié)構(gòu)
深度可分離卷積是一種常規(guī)卷積的替代方式,可以達(dá)到輕量化參數(shù)與計(jì)算量的需求,在MobileNetV1中實(shí)現(xiàn),并貫穿于整個(gè)MobileNet系列網(wǎng)絡(luò)結(jié)構(gòu)中。深度可分離卷積包含2個(gè)步驟:深度卷積與點(diǎn)卷積,深度卷積是指單獨(dú)對(duì)輸入圖像的每個(gè)通道進(jìn)行卷積,卷積核大小一般為3×3,輸出通道數(shù)與輸入一致;點(diǎn)卷積則將上一步得到的特征圖組合生成新的特征圖,卷積核大小為1×1,輸出通道數(shù)與卷積核個(gè)數(shù)一致。常規(guī)卷積與深度可分離卷積過(guò)程如圖5所示,假設(shè)常規(guī)卷積核大小為k,深度卷積核大小為d,輸入圖像大小為H×W,輸入通道數(shù)與輸出通道數(shù)分別為Cin、Cout,則普通卷積參數(shù)量Nstd與計(jì)算量Cstd為
自2015年何凱明等提出了深度殘差神經(jīng)網(wǎng)絡(luò)(ResNet)[22]以來(lái),該模型中的殘差結(jié)構(gòu)引起了研究者們極大的關(guān)注,且應(yīng)用日益廣泛。殘差結(jié)構(gòu)如圖6-a所示,采用跳躍連接,將淺層特征過(guò)渡至深層重復(fù)學(xué)習(xí),解決了網(wǎng)絡(luò)加深時(shí)會(huì)出現(xiàn)的梯度爆炸或梯度消失問(wèn)題。所學(xué)習(xí)的殘差函數(shù)可表示為F(),令激活函數(shù)為g(),則輸出函數(shù)為H(x)=g[F(x)+x],當(dāng)學(xué)習(xí)到的殘差F(x)=0時(shí),H(x)=x表示恒等映射。
逆殘差結(jié)構(gòu)是殘差結(jié)構(gòu)的變體,如圖6-b所示,在MobileNetV2中提出。逆殘差結(jié)構(gòu)將普通3×3卷積替換為深度可分離卷積,以減少計(jì)算量;采用升維-卷積-降維的方式,使得模型能在高維空間學(xué)習(xí)更多樣化的特征;同時(shí)使用非線性激活函數(shù)ReLU6與線性函數(shù)Linear,前者設(shè)置輸出邊界以滿足移動(dòng)端的低精度需求,后者防止維度變換過(guò)程中的信息丟失。但是,逆殘差的輸入特征需要先降維,難以保留足夠的有效信息,且跳躍連接所跨維度較少,可能阻礙梯度回傳。
注意力機(jī)制即告知模型應(yīng)該“看什么”與“看哪里”,可有效提高模型對(duì)重要信息的關(guān)注度。在輕量化網(wǎng)絡(luò)結(jié)構(gòu)中,使用較多的注意力機(jī)制是SE[24]、CBAM[25]。SE利用了二維全局池化降低計(jì)算成本,但只考慮了通道間的信息編碼;CBAM結(jié)合了通道注意力與空間注意力,但通過(guò)卷積只能捕獲局部的位置信息,無(wú)法建立大范圍的空間依賴(lài)關(guān)系。協(xié)調(diào)注意力機(jī)制CA[26]在SE的基礎(chǔ)上,將位置信息嵌入通道信息中,實(shí)現(xiàn)了大范圍上的注意。具體是將通道注意力分解為2個(gè)并行的一維特征編碼過(guò)程,然后整合到生成的注意力特征圖上,從而緩解二維全局池化導(dǎo)致的位置信息丟失。具體結(jié)構(gòu)如圖7所示,GAP表示全局平均池化。
CA模塊能夠捕獲特征跨通道信息、方向感知和位置敏感信息,有助于模型集中識(shí)別目標(biāo)區(qū)域,且參數(shù)量較小,不會(huì)增加過(guò)多的計(jì)算開(kāi)銷(xiāo)。本次研究所用數(shù)據(jù)集中包含背景復(fù)雜圖像,為了更好地區(qū)分目標(biāo)與背景,本研究將CA模塊插入到sandglass模塊中第1個(gè)3×3深度卷積之后,通過(guò)注意力權(quán)重分配來(lái)幫助模型更好地定位感興趣的區(qū)域。
2.4Inception模塊
增加網(wǎng)絡(luò)深度與寬度是提升網(wǎng)絡(luò)性能最直接的方法,但因此也會(huì)產(chǎn)生大量參數(shù),為解決這一問(wèn)題,研究者們提出了Inception[27]模塊。受生物神經(jīng)系統(tǒng)稀疏連接的啟發(fā),Inception模塊將不同的卷積層并聯(lián)結(jié)合,并串聯(lián)拼接不同卷積層處理的結(jié)果矩陣得到更深的子矩陣,既保持了網(wǎng)絡(luò)結(jié)構(gòu)的稀疏性,又通過(guò)將稀疏矩陣聚類(lèi)為密集子矩陣提高了計(jì)算性能。由圖8可知,Inception模塊包含4個(gè)分支,分別使用了3種不同尺寸卷積核與1個(gè)最大池化核,提供了不同大小的感受野,增加了網(wǎng)絡(luò)對(duì)不同尺寸的適應(yīng)性。
2.5Ghost模塊
Ghost模塊是GhostNet[28]模型的核心模塊,由華為諾亞方舟實(shí)驗(yàn)室提出,旨在通過(guò)低成本操作來(lái)生成更多特征圖。由圖9可知,Ghost模塊可分為2個(gè)部分,首先使用普通卷積對(duì)輸入特征進(jìn)行濃縮整合,生成本特征圖,接著對(duì)其進(jìn)行線性變換φ生成Ghost特征圖,最終輸出特征圖由本特征圖與Ghost特征圖拼接而成。
2.6SCI結(jié)構(gòu)
為了擴(kuò)充網(wǎng)絡(luò)的深度和寬度,提高模型的特征學(xué)習(xí)能力,本研究在sandglass結(jié)構(gòu)的基礎(chǔ)上結(jié)合協(xié)調(diào)注意力機(jī)制與Inception模塊,設(shè)計(jì)出2種SCI(Sandglass-CA-Inception)結(jié)構(gòu)(圖10)。在SCI_1結(jié)構(gòu)中,用Inception1模塊代替了sandglass結(jié)構(gòu)中用于升維的第2個(gè)1×1卷積,設(shè)計(jì)思路是希望在升維的同時(shí)進(jìn)行多尺度特征提取與融合,以獲取更為豐富的特征信息。SCI_2結(jié)構(gòu)則是針對(duì)步長(zhǎng)為2的情況設(shè)計(jì),Inception2模塊代替第2個(gè)3×3深度卷積,利用不同卷積與池化分支提供不同大小的感受野,一定程度上減少特征圖分辨率降低帶來(lái)的信息損失。此外,為了防止參數(shù)增加量過(guò)多,將Inception模塊中的1×1卷積替換為Ghost模塊,其他尺寸卷積沿用深度可分離卷積方式。
3試驗(yàn)結(jié)果與分析
3.1試驗(yàn)環(huán)境
本研究均使用同一算力平臺(tái)OpenBayes,CPU型號(hào)為AMDEPYC7773×64-COREProcessor,GPU型號(hào)為RT×3090,顯存24GB。使用Linu×系統(tǒng)開(kāi)發(fā)環(huán)境,深度學(xué)習(xí)框架為Pytorch1.7.1,Python環(huán)境3.6,Cuda11.0。
使用SGD優(yōu)化器訓(xùn)練所有模型,衰減和動(dòng)量設(shè)置為0.9,權(quán)重衰減保持0.00004,初始學(xué)習(xí)率為0.00625,采用余弦退火學(xué)習(xí)率更新策略,batchsize為32,輸入圖像大小統(tǒng)一設(shè)置為224×224像素,模型迭代訓(xùn)練100次。
3.2評(píng)估指標(biāo)
本研究主要根據(jù)Top-1準(zhǔn)確率(Top-1Accurcacy)、平均精確率(MeanPrecision)、平均召回率(MeanRecall)與MeanF1Scores這4個(gè)指標(biāo)對(duì)模型進(jìn)行評(píng)估。在混淆矩陣中,TP表示實(shí)例為正且被預(yù)測(cè)為正的樣本數(shù)量,F(xiàn)P表示實(shí)例為負(fù)但被預(yù)測(cè)為正的樣本數(shù)量,F(xiàn)N表示實(shí)例為正但被預(yù)測(cè)為負(fù)的樣本數(shù)量,TN表示實(shí)例為負(fù)且被預(yù)測(cè)為負(fù)的樣本數(shù)量。準(zhǔn)確率指分類(lèi)正確樣本占總樣本個(gè)數(shù)的比例,Accuracy=TP+TNTP+TN+FP+FN;精確率指模型預(yù)測(cè)與實(shí)際上都為正的樣本占被預(yù)測(cè)為正的樣本的比例,Precision=TPTP+FP;召回率指實(shí)際為正的樣本中被預(yù)測(cè)為正的樣本所占實(shí)際為正的樣本的比例,R=TPTP+FN;F1Score是精確率和召回率的調(diào)和平均值,F(xiàn)1=2+Precision+RPrecision+R。Top-1Acc表示使用最大概率值預(yù)測(cè)的結(jié)果與實(shí)際結(jié)果相符的準(zhǔn)確率,根據(jù)每個(gè)類(lèi)別相應(yīng)計(jì)算結(jié)果取均值可獲得其余3個(gè)指標(biāo)。
損失函數(shù)能夠反映模型預(yù)測(cè)數(shù)據(jù)與實(shí)際數(shù)據(jù)的差距。本研究模型中采用了分類(lèi)任務(wù)中常見(jiàn)的交叉熵?fù)p失函數(shù)H(p,q)=-∑n[]i=1p(xi)log[q(xi)],它表示真實(shí)概率分布與預(yù)測(cè)概率分布的差異,損失值越小,模型的預(yù)測(cè)效果越好。
模型參數(shù)量也是模型評(píng)估的一個(gè)指標(biāo),本研究借助flops-counter.pytorch完成模型參數(shù)量與浮點(diǎn)運(yùn)算量的計(jì)算。對(duì)于輕量化卷積神經(jīng)網(wǎng)絡(luò),本研究改進(jìn)遵循參數(shù)增加量盡可能少的原則,避免其帶來(lái)的存儲(chǔ)與效率問(wèn)題,便于后續(xù)在移動(dòng)端上進(jìn)行應(yīng)用。
3.3試驗(yàn)結(jié)果與分析
首先,本研究對(duì)MobileNet系列輕量化網(wǎng)絡(luò)進(jìn)行了對(duì)比試驗(yàn),以驗(yàn)證MobileNe×t模型在蘋(píng)果葉片病害數(shù)據(jù)集上的表現(xiàn)能力。由表2可知,MobileNe×t模型在各個(gè)指標(biāo)上的結(jié)果優(yōu)于其余3個(gè)模型,與MobileNetV2相比參數(shù)量(Param)不變,是MobileNet系列輕量化網(wǎng)絡(luò)中的佼佼者。
其次是注意力機(jī)制的對(duì)比,本試驗(yàn)在sandglass相同位置分別插入了SE、CBAM、CA注意力模塊,結(jié)果如表3所示。由于本試驗(yàn)所用數(shù)據(jù)集包含復(fù)雜背景圖像,目標(biāo)的位置信息影響著最終識(shí)別效果,而SE模塊只考慮通道信息,CBAM模塊帶來(lái)的參數(shù)量相對(duì)較大,因此選用CA模塊幫助模型定位目標(biāo)區(qū)域。
為進(jìn)一步提高M(jìn)obileNe×t模型對(duì)于真實(shí)場(chǎng)景下背景復(fù)雜的蘋(píng)果葉片病害識(shí)別準(zhǔn)確率,本研究通過(guò)設(shè)計(jì)2種SCI結(jié)構(gòu)對(duì)其進(jìn)行改進(jìn),在控制變量的情況下進(jìn)行了消融試驗(yàn),結(jié)果如表4所示。與MobileNe×t相比,MobileNe×t_Inception1與MobileNe×t_SCI1各指標(biāo)數(shù)據(jù)均下降,表明使用Inception1模塊代替升維部分并不合理,分析是由于分支中通道變換過(guò)程與非線性激活丟失了太多信息;而MobileNe×t_SCI2各指標(biāo)數(shù)據(jù)有所增長(zhǎng),Top-1準(zhǔn)確率達(dá)到96.16%,平均精確率達(dá)到了96.26%,因此確定MobileNe×t_SCI2為最終改進(jìn)模型,訓(xùn)練過(guò)程中的準(zhǔn)確率、損失值變化與混淆矩陣如圖11所示。
4結(jié)論
針對(duì)真實(shí)場(chǎng)景下蘋(píng)果葉片病害識(shí)別背景環(huán)境復(fù)雜的情況,為了增強(qiáng)模型的泛化能力與魯棒性,提高識(shí)別準(zhǔn)確率,本研究采用協(xié)調(diào)注意力CA模塊、Inception模塊、Ghost模塊對(duì)輕量化網(wǎng)絡(luò)MobileNe×t進(jìn)行改進(jìn),在sandglass的基礎(chǔ)上設(shè)計(jì)了2種SCI結(jié)構(gòu),完成了對(duì)4類(lèi)常見(jiàn)蘋(píng)果葉片病害的識(shí)別研究。試驗(yàn)結(jié)果表明,改進(jìn)后的模型MobileNe×t_SCI2更加適應(yīng)真實(shí)環(huán)境,特征學(xué)習(xí)能力有所增強(qiáng),與MobileNe×t相比,參數(shù)量只增加了0.62×106,但
Top-1準(zhǔn)確率提高了1.23百分點(diǎn),平均精確率提高了1.18百分點(diǎn),驗(yàn)證了改進(jìn)的有效性。
對(duì)于實(shí)際應(yīng)用場(chǎng)景,本研究存在一些不足之處,例如選取病害種類(lèi)較少、實(shí)時(shí)性不高、識(shí)別準(zhǔn)確率還有提升空間等。后期將導(dǎo)入更多種類(lèi)的病害圖像用于模型訓(xùn)練,不斷完善并部署于移動(dòng)端,將其投入到生產(chǎn)實(shí)踐中,為農(nóng)業(yè)發(fā)展貢獻(xiàn)一份力量。
參考文獻(xiàn):
[1]常倩,李瑾.2000年以來(lái)中國(guó)蘋(píng)果產(chǎn)業(yè)發(fā)展趨勢(shì)分析[J].北方園藝,2021(3):155-160.
[2]翟衡,史大川,束懷瑞.我國(guó)蘋(píng)果產(chǎn)業(yè)發(fā)展現(xiàn)狀與趨勢(shì)[J].果樹(shù)學(xué)報(bào),2007,24(3):355-360.
[3]王樹(shù)桐,王亞南,曹克強(qiáng).近年我國(guó)重要蘋(píng)果病害發(fā)生概況及研究進(jìn)展[J].植物保護(hù),2018,44(5):13-25,50.
[4]袁森,邵春.基于卷積神經(jīng)網(wǎng)絡(luò)的采煤機(jī)故障分類(lèi)與預(yù)測(cè)研究[J].煤炭技術(shù),2022,41(11):227-229.
[5]趙京鶴,修大元,王金龍,等.絕緣紙板典型缺陷局放特征的CNN識(shí)別[J].哈爾濱理工大學(xué)學(xué)報(bào),2022,27(5):79-88.
[6]喬丹.基于深度圖像和卷積神經(jīng)網(wǎng)絡(luò)的插秧機(jī)識(shí)別技術(shù)[J].農(nóng)機(jī)化研究,2023,45(7):196-200.
[7]舒甜督,劉芳,蔡茂.基于卷積神經(jīng)網(wǎng)絡(luò)的肺部CT圖像分類(lèi)算法研究[J].電子設(shè)計(jì)工程,2022,30(21):170-174,179.
[8]李彧,余心杰,郭俊先.基于全卷積神經(jīng)網(wǎng)絡(luò)方法的玉米田間雜草識(shí)別[J].江蘇農(nóng)業(yè)科學(xué),2022,50(6):93-100.
[9]于雪瑩,高繼勇,王首程,等.基于生成對(duì)抗網(wǎng)絡(luò)和混合注意力機(jī)制殘差網(wǎng)絡(luò)的蘋(píng)果病害識(shí)別[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2022,43(6):166-174.
[10]畢鵬程,羅健欣,陳衛(wèi)衛(wèi).輕量化卷積神經(jīng)網(wǎng)絡(luò)技術(shù)研究[J].計(jì)算機(jī)工程與應(yīng)用,2019,55(16):25-35.
[11]IandolaFN,HanS,MoskewiczMW,etal.SqueezeNet:AleNet-levelaccuracywith50fewerparametersand<0.5MBmodelsize[EB/OL].(2016-06-01)[2022-11-11].https://ariv.org/abs/1602.07360.
[12]CholletF.ception:deeplearningwithdepthwiseseparableconvolutions[C]//2017IEEEConferenceonComputerVisionandPatternRecognition(CVPR).July21-26,2017,Honolulu,HI,USA.IEEE,2017:1800-1807.
[13]ZhangY,ZhouY,LinM,etal.ShuffleNet:anetremelyefficientconvolutionalneuralnetworkformobiledevices[C]//2018IEEE/CVFConferenceonComputerVisionandPatternRecognition.June18-23,2018,SaltLakeCity,UT,USA.IEEE,2018:6848-6856.
[14]MaNN,ZhangY,ZhengHT,etal.ShuffleNetV2:practicalguidelinesforefficientCNNarchitecturedesign[C]//ComputerVision-ECCV2018:15thEuropeanConference,Munich,Germany,September8-14,2018,Proceedings,PartIV.NewYork:ACM,2018:122-138.
[15]HowardAG,ZhuML,ChenB,etal.MobileNets:efficientconvolutionalneuralnetworksformobilevisionapplications[EB/OL].(2017-06-06)[2022-11-11].https://ariv.org/abs/1704.04861.
[16]SandlerM,HowardA,ZhuML,etal.MobileNetV2:invertedresidualsandlinearbottlenecks[EB/OL].(2018-06-09)[2022-11-11].https://ariv.org/abs/1801.04381.
[17]HowardA,SandlerM,ChenB,etal.SearchingforMobileNetV3[C]//2019IEEE/CVFInternationalConferenceonComputerVision(ICCV).October27-November2,2019,Seoul,Korea(South).IEEE,2020:1314-1324.
[18]洪惠群,黃風(fēng)華.基于輕量級(jí)神經(jīng)網(wǎng)絡(luò)的農(nóng)作物病害識(shí)別算法[J].沈陽(yáng)農(nóng)業(yè)大學(xué)學(xué)報(bào),2021,52(2):239-245.
[19]孫俊,朱偉棟,羅元秋,等.基于改進(jìn)MobileNet-V2的田間農(nóng)作物葉片病害識(shí)別[J].農(nóng)業(yè)工程學(xué)報(bào),2021,37(22):161-169.
[20]李好,邱衛(wèi)根,張立臣.改進(jìn)ShuffleNetV2的輕量級(jí)農(nóng)作物病害識(shí)別方法[J].計(jì)算機(jī)工程與應(yīng)用,2022,58(12):260-268.
[21]ZhouDQ,HouQB,ChenYP,etal.RethinkingBottleneckStructureforEfficientMobileNetworkDesign[C]//VedaldiA,BischofH,BroT,etal.EuropeanConferenceonComputerVision.Cham:Springer,2020:680-697.
[22]HeKM,ZhangY,RenSQ,etal.Deepresiduallearningforimagerecognition[C]//2016IEEEConferenceonComputerVisionandPatternRecognition(CVPR).June27-30,2016,LasVegas,NV,USA.IEEE,2016:770-778.
[23]張宸嘉,朱磊,俞璐.卷積神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制綜述
[J].計(jì)算機(jī)工程與應(yīng)用,2021,57(20):64-72.
[24]HuJ,ShenL,SunG.Squeeze-and-ecitationnetworks[C]//2018IEEE/CVFConferenceonComputerVisionandPatternRecognition.June18-23,2018,SaltLakeCity,UT,USA.IEEE,2018:7132-7141.
[25]WooS,ParkJ,LeeJY,etal.CBAM:ConvolutionalBlockAttentionModule[C]//EuropeanConferenceonComputerVision.Cham:Springer,2018:3-19.
[26]HouQB,ZhouDQ,F(xiàn)engJS.Coordinateattentionforefficientmobilenetworkdesign[C]//2021IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR).June20-25,2021,Nashville,TN,USA.IEEE,2021:13708-13717.
[27]SzegedyC,LiuW,JiaYQ,etal.Goingdeeperwithconvolutions[C]//2015IEEEConferenceonComputerVisionandPatternRecognition(CVPR).June7-12,2015.Boston,MA,USA.IEEE,2015:1-9.
[28]HanK,WangYH,TianQ,etal.GhostNet:morefeaturesfromcheapoperations[C]//2020IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR).June13-19,2020.Seattle,WA,USA.IEEE,2020:1580-1589.