doi:10.15889/j.issn.1002-1302.2024.20.031
摘要:針對小麥病害圖像分類方法的識別準(zhǔn)確率不理想、模型參數(shù)量大等問題,提出一種基于P-MobileViT的小麥病害分類模型。首先對小麥圖像進(jìn)行健康和病害二分類,融合Grabcut算法、大律法對小麥病害圖像的病斑區(qū)域進(jìn)行分割;然后將病斑圖像輸入P-MobileViT分類模型,在其block的局部表征模塊中引入深度卷積提取病斑圖像的局部特征,在全局表征模塊使用PoolFormer結(jié)構(gòu)提取全局特征,以減少模型計算量和參數(shù)量;將輸入特征圖和全局特征疊加后與局部特征進(jìn)行融合,從而強(qiáng)化模型對特征的分類能力。與經(jīng)過遷移學(xué)習(xí)的輕量級深度學(xué)習(xí)模型MobileViT、ShuffleNet v2、MobileNet v3、GhostNet、EfficientNet v2在公開小麥病害數(shù)據(jù)集上進(jìn)行試驗(yàn)對比,結(jié)果表明,P-MobileViT模型的準(zhǔn)確率達(dá)到97.2%,比MobileViT模型高出了2.0百分點(diǎn),同時參數(shù)量、推理時間分別減少了23.1%、31.6%;與其中準(zhǔn)確率較高的模型MobileNet v3、GhostNet相比,P-MobileViT模型的準(zhǔn)確率也分別提高3.1、3.3百分點(diǎn),參數(shù)量分別減少58.3%、61.5%。在小麥病害分類任務(wù)中,P-MobileViT模型實(shí)現(xiàn)了識別精度的提升,有效減少了識別時間開銷,且降低了模型復(fù)雜度。
關(guān)鍵詞:小麥病害;病害分類;MobileViT;圖像分割;PoolFormer
中圖分類號:S126;TP391.41" 文獻(xiàn)標(biāo)志碼:A
文章編號:1002-1302(2024)20-0260-07
收稿日期:2023-11-24
基金項(xiàng)目:國家自然科學(xué)基金(編號:62066003);國家留學(xué)基金(編號:CSC202208360143);江西省研究生創(chuàng)新專項(xiàng)資金(編號:YC2022-s626)。
作者簡介:彭思繪(1997—),女,安徽池州人,碩士研究生,主要研究方向?yàn)橛嬎銠C(jī)視覺。E-mail:pengsh1002@163.com。
通信作者:汪宇玲,博士,教授,碩士生導(dǎo)師,主要從事模式識別與圖像處理、計算機(jī)視覺研究。E-mail:wangyuling_119@vip.163.com。
小麥?zhǔn)侨虍a(chǎn)量最大的主要糧食作物之一,決定全球大部分國家的糧食安全。小麥病害不僅是限制其產(chǎn)量的主要因素之一[1],還是阻礙優(yōu)質(zhì)、高效農(nóng)業(yè)持續(xù)發(fā)展的重要原因;其中葉部病害等問題對小麥產(chǎn)量有顯著不利影響[2-3]。在傳統(tǒng)農(nóng)業(yè)中,對小麥病害發(fā)生情況的評估主要依賴于日常的田間巡查和經(jīng)驗(yàn)判斷,容易導(dǎo)致問題發(fā)現(xiàn)不及時而延誤最佳防治時機(jī),而診斷范圍不準(zhǔn)也會導(dǎo)致過度噴灑化學(xué)藥劑等問題[4]。目前基于深度學(xué)習(xí)和計算機(jī)視覺的方法被廣泛應(yīng)用于農(nóng)作物病害檢測[5],以高效、智能的方式實(shí)現(xiàn)病害檢測自動化,在農(nóng)作物經(jīng)濟(jì)效益提升方面具有重大價值意義[6]。
近年來,基于深度學(xué)習(xí)的作物病害識別技術(shù)得到快速發(fā)展,在作物病害檢測方面取得了許多成果[7-8]。在復(fù)雜背景下的分割領(lǐng)域中,顧博等針對玉米的3種病害類型,結(jié)合SLIC算法、GrabCut算法進(jìn)行分割,得到較好的分割效果[9]。陳燕等提出基于ResNet50、Unet網(wǎng)絡(luò)的分割模型,對小麥莖稈截面的分割精度有較大提升[10]。病斑區(qū)域被有效分割后,還需對其病害類型進(jìn)行識別。馮曉等基于MobileNet v2網(wǎng)絡(luò)構(gòu)建小麥葉部病害識別模型,利用遷移學(xué)習(xí)方法得到較高的識別精度[11]。Nanni等基于不同結(jié)構(gòu)的CNN模型在3個病害數(shù)據(jù)集上進(jìn)行訓(xùn)練,發(fā)現(xiàn)不同Adam的CNN組合模型表現(xiàn)最好,并且節(jié)約了訓(xùn)練時間和資源[12]。Khan等提出基于深度遷移學(xué)習(xí)模型的病害識別系統(tǒng),結(jié)果表明,這種模型在大數(shù)據(jù)集上的性能優(yōu)于現(xiàn)有的分類算法[13]。Li等在相同的數(shù)據(jù)集上比較學(xué)習(xí)速率、遷移學(xué)習(xí)、數(shù)據(jù)增強(qiáng)方法在不同組合下的分類精度,發(fā)現(xiàn)使用遷移學(xué)習(xí)模型的分類精度優(yōu)于新學(xué)習(xí)的模型[14]。相較于傳統(tǒng)農(nóng)業(yè)生產(chǎn)中判斷植物病害的方法,深度神經(jīng)網(wǎng)絡(luò)在病蟲害識別中具有準(zhǔn)確、及時、客觀的優(yōu)勢[15-16]。對于區(qū)分度明顯的分類任務(wù)來說,卷積神經(jīng)網(wǎng)絡(luò)的識別效果顯著,但是對于農(nóng)作物病害分類識別而言,其識別精度還不夠理想,這與農(nóng)作物病害種類多且區(qū)分度較低等有關(guān)[17-18]。卷積神經(jīng)網(wǎng)絡(luò)大多參數(shù)量較大,對硬件設(shè)備的需求較高,不利于模型在實(shí)際應(yīng)用中的部署。
綜上,本研究提出一種基于P-Mobile ViT的小麥病害分類模型。本研究模型針對小麥病害圖像,將大律法融合到GrabCut算法中實(shí)現(xiàn)病斑區(qū)域的分割,從而提升病害識別精度;在P-MobileViT block中分別引入深度卷積、PoolFormer結(jié)構(gòu),用于降低模型復(fù)雜度,增加融合局部特征,提升模型對小麥病害特征的感知能力。該模型在提升準(zhǔn)確率的同時節(jié)省了算力資源,在小麥病害的智能診斷方面具有一定的參考價值。
1" 材料與方法
1.1" 數(shù)據(jù)獲取
為了保證數(shù)據(jù)正確可靠,本研究小麥病害數(shù)據(jù)來源于2個部分:kaggle網(wǎng)站(https://www.kaggle.com)中的Wheat Leafs Diseases數(shù)據(jù)集以及CGIAR Computer Vision for Crop Disease數(shù)據(jù)集。去除重復(fù)數(shù)據(jù)和無效數(shù)據(jù)后,共獲取數(shù)據(jù)圖像2 807幅,分別為黑穗病、葉枯病、白粉病、條銹病、稈銹病、葉銹病、健康7種類型,將上述各類數(shù)據(jù)均按照80%訓(xùn)練集和20%測試集進(jìn)行劃分。詳細(xì)數(shù)據(jù)信息見表1,部分可視化樣本如圖1所示。
1.2" MobileViT模型
MobileViT是一種適用于移動設(shè)備的輕量級通用視覺Transformer模型[19-20],其主要構(gòu)成包括MobileNet v2網(wǎng)絡(luò)和MobileViT block,如圖2所示。其中MobileViT block結(jié)合了卷積神經(jīng)網(wǎng)絡(luò)(CNN)和Vision Transformer(ViT)的優(yōu)點(diǎn)[21],通過使用N個Transformer模塊提取數(shù)據(jù)的全局信息,同時保持CNN的空間歸納偏置,以適用于移動視覺任務(wù)的輕量級設(shè)備部署。相比于傳統(tǒng)的CNN模型,MobileViT模型具有更少的參數(shù)量和計算量,因此更加適合在移動設(shè)備上部署。在ImageNet-1k數(shù)據(jù)集上,MobileViT實(shí)現(xiàn)了78.4%的Top-1精度,擁有約600萬個參數(shù);與類似的參數(shù)量模型相比,其精度比MobileNet v3(基于CNN)、DeiT(基于ViT)分別提升3.2、6.2百分點(diǎn)[22-23]。
2" P-MobileViT模型
MobileViT是ViT的一個輕量級版本,其計算高效且參數(shù)量較少,因此成為移動設(shè)備上應(yīng)用視覺任務(wù)的較優(yōu)選擇。然而,在小麥病害識別應(yīng)用中,MobileViT的性能仍然需要進(jìn)一步提升?;诖耍狙芯刻岢鯬-MobileViT模型,針對MobileViT block在局部表征模塊、全局表征模塊、融合模塊3個方面進(jìn)行改進(jìn),得到P-MobileViT block結(jié)構(gòu)(圖3)。
2.1" 局部特征提取
MobileViT block的局部表征模塊包含1個3×3卷積層和1個1×1卷積層,用于提取局部特征。但3×3卷積層通常需要大量的計算資源(圖4-a),不適用于輕量級模型。因此,P-MobileViT block引入深度卷積(depthwiseconvolution)來提取局部特
征[24],深度卷積將輸入特征圖根據(jù)通道分離開,每個通道僅與1個卷積核相對應(yīng),分別對該通道的特征圖進(jìn)行卷積操作(圖4-b),使得該卷積在保證精度的同時,有效減少計算量;接著通過1×1卷積層將張量映射到高維空間d,以獲取局部特征A,如圖3局部表征模塊所示。在本研究中,深度卷積設(shè)置為3×3卷積核。
2.2" 全局特征提取
獲取全局特征可以捕捉到整個小麥病害圖像的信息,幫助模型更好地理解病害類別,以提高識別精度。MobileViT block的全局表征模塊包含多個transformers模塊,用于提取全局特征。transformers模塊中使用多頭自注意力機(jī)制(multi-head attention,MHA)來計算每個位置的注意力分布,以掌握全局信息。然而,MHA的計算復(fù)雜度較高,需要大量的計算資源,且推理時間較長,不利于輕量級模型的部署。
為了解決該問題,P-MobileViT block采用PoolFormer來提取全局特征,進(jìn)一步減少計算資源的占用。PoolFormer是一種用池化算子來作為Token Mixer的MetaFormer結(jié)構(gòu),而MetaFormer可以抽象成Transformer的通用結(jié)構(gòu)[25](圖5-a)。這一結(jié)構(gòu)已被證實(shí)是實(shí)現(xiàn)Transformer(圖5-b)高效性能的主要原因,且Token Mixer模塊的改變,對該結(jié)構(gòu)整體性能的影響不大。因此,通過使用無參數(shù)的池化算子替代原始的自注意力機(jī)制作為Token Mixer(圖5-c),可以明顯節(jié)約模型的算力資源,更有利于實(shí)現(xiàn)對移動設(shè)備的部署。
將局部特征A展開為多個不重疊的扁平patch,然后輸入PoolFormer模塊編碼全局信息,編碼完成后,通過折疊操作還原大小,最后使用1×1卷積層將張量映射到低維空間C,得到全局特征B(圖3)。
2.3" 特征融合
MobileViT block中僅將輸入特征與全局特征融合,但對于一些區(qū)分度較低的小麥病蟲害(如白粉病、蚜蟲等),更需要局部特征來豐富語義信息。因此,P-MobileViT block在融合模塊上增加局部特征,以提高模型對圖像全局和局部信息的感知能力,在處理小麥病害圖像時可以更好地捕捉病害區(qū)域的特征。具體操作如下:將輸入特征圖X和全局特征B進(jìn)行疊加后,與局部特征A進(jìn)行拼接,再使用1×1卷積層進(jìn)行特征融合,從而獲取融合特征Y,融合流程見圖3。相較于普通卷積,使用1×1卷積層避免了模型縮放時參數(shù)和浮點(diǎn)運(yùn)算數(shù)(FLOPs)的大幅增加。
3" 試驗(yàn)與分析
3.1" 試驗(yàn)環(huán)境及參數(shù)設(shè)置
硬件環(huán)境:試驗(yàn)配置中央處理器(CPU)為Intel Xeon Platinum 8255C CPU @ 2.50 GHz,內(nèi)存 43 GB;GPU為NVIDIA GeForce RTX 3090,顯存 24 GB。軟件環(huán)境:操作系統(tǒng)為Ubuntu 22.04,深度學(xué)習(xí)框架采用Pytorch 1.13.0,編程語言使用Python 3.9,CUDA版本為11.7,在Pycharm 2022.3平臺搭建模型。
為保證模型的訓(xùn)練能力和泛化能力,從每種小麥病害種類中隨機(jī)抽出平均80%作為訓(xùn)練集,圖片輸入尺寸統(tǒng)一為224像素×224像素。優(yōu)化器采用Adam(Adaptive moment estimation)自動優(yōu)化學(xué)習(xí)率,共選擇3種初始學(xué)習(xí)率,分別為0.001、0.000 1、0.000 01。通過試驗(yàn)對比選定其他超參數(shù)的值,將識別準(zhǔn)確率最高的1組超參數(shù)應(yīng)用到分類模型中,其中批次大?。˙atchsize)設(shè)置為32,迭代輪次(Epoch)設(shè)置為100,訓(xùn)練集在每次迭代訓(xùn)練前會被隨機(jī)打亂。
3.2" 評價指標(biāo)
選擇當(dāng)前主流的評價指標(biāo)對分類模型進(jìn)行評估,主要為準(zhǔn)確率(Accuracy)、F1分?jǐn)?shù)、精確率(Precision)、召回率(Recall)、參數(shù)量(params)。計算如公式(1)至公式(5)所示。
Accuracy=TP+FNTP+FN+FP+FN×100%;(1)
F1分?jǐn)?shù)=2×Precision×RecallPrecision+Recall;(2)
Precision=TPTP+FP×100%;(3)
Recall=TPTP+FN×100%。(4)
式中:TP表示模型預(yù)測正確的正樣本個數(shù),F(xiàn)P表示模型預(yù)測錯誤的正樣本個數(shù),TN表示模型預(yù)測正確的負(fù)樣本個數(shù),F(xiàn)N表示模型預(yù)測錯誤的負(fù)樣本個數(shù)。
對于每個卷積層而言,參數(shù)量計算如公式(5)所示:
params=Co×(kw×kh×Ci+1)。(5)
式中:Co表示輸出通道數(shù),Ci表示輸入通道數(shù),kw表示卷積核寬,kh表示卷積核高。
3.3" 試驗(yàn)方案
在預(yù)處理階段,首先使用支持向量機(jī)(support vector machines,SVM)將小麥圖像預(yù)先分為健康圖像、病害圖像2類;目的是為了將病害圖像提取出來,并僅對病害圖像分割處理后輸入分類模型進(jìn)行分類。相較于直接將所有數(shù)據(jù)輸入分類模型,該步驟節(jié)省了算力資源。
3.3.1" 圖像分割
針對復(fù)雜背景下難以精確劃分小麥病害區(qū)域的問題,本研究改進(jìn)傳統(tǒng)分割算法,通過使用大律法輔助GrabCut算法,以達(dá)到較好的分割效果,實(shí)現(xiàn)運(yùn)用少量計算資源且有效提高分割精度。
3.3.1.1" 大津法(Otsu)
大津法是一種基于圖像灰度信息的自適應(yīng)閾值分割算法[26],其核心是通過尋找最佳的閾值將圖像二值化分割,從而最大化圖像中目標(biāo)和非目標(biāo)像素之間的類間方差。這一算法以其計算簡便、對亮度和對比度變化不敏感等特點(diǎn)而被廣泛應(yīng)用,尤其在前景和背景分離中表現(xiàn)較好。盡管該算法能夠較好地分割出目標(biāo)葉片邊緣,但同時也會粘連較多的背景像素(圖6-b),病斑位置定位不夠精準(zhǔn),導(dǎo)致識別精度不理想。
3.3.1.2" GrabCut算法
GrabCut算法是一種半自動圖像分割方法,2004年由英國微軟研究院的Carsten Rother提出[27],該算法使用高斯混合模型(GMM)建模和圖割優(yōu)化迭代,實(shí)現(xiàn)前景和背景的分割。與Otsu算法相比,該算法能更好地分離目標(biāo)與非目標(biāo)的粘連部分且分割速度快。然而,要獲取更精確的分割結(jié)果,需要通過手動交互標(biāo)記ROI區(qū)域才能實(shí)現(xiàn),且存在目標(biāo)邊緣過分割的問題(圖6-c)。
3.3.1.3" 結(jié)合算法
基于上述問題,本研究提出一種改進(jìn)方法,將經(jīng)過大律法分割后的圖像,使用腐蝕形態(tài)學(xué)來分離與目標(biāo)相連的區(qū)域,并保留最大連通域,然后將因腐蝕操作缺失的像素通過膨脹操作還原;接著將經(jīng)過處理后的二值圖作為ROI區(qū)域進(jìn)行框選,并作為GrabCut算法的標(biāo)記框進(jìn)行分割操作,從而省去手動標(biāo)記步驟;最后將Otsu算法和改進(jìn)的Grabcut算法的分割結(jié)果進(jìn)行求交集處理,得到最終分割結(jié)果,如圖6-d、圖6-e所示。
3.3.2" 遷移學(xué)習(xí)訓(xùn)練
在小麥病害數(shù)據(jù)集上訓(xùn)練全新的模型時,在訓(xùn)練過程中出現(xiàn)了準(zhǔn)確率較低且無法穩(wěn)定收斂的問題,因此本研究采用遷移學(xué)習(xí)的方法來進(jìn)行訓(xùn)練。常用的遷移學(xué)習(xí)方法一般為2類,一是凍結(jié)預(yù)訓(xùn)練模型除分類器外的所有層,僅在目標(biāo)數(shù)據(jù)集上對新分類器進(jìn)行訓(xùn)練;二是不凍結(jié)預(yù)訓(xùn)練模型的任何網(wǎng)絡(luò)層,直接在目標(biāo)數(shù)據(jù)集上進(jìn)行訓(xùn)練。由于P-MobileViT屬于輕量級模型,模型參數(shù)量相對較小,故采用第2種遷移學(xué)習(xí)方法進(jìn)行訓(xùn)練。首先在ImageNet數(shù)據(jù)集上對P-MobileViT模型進(jìn)行預(yù)訓(xùn)練,得到預(yù)訓(xùn)練權(quán)重;然后在小麥病害數(shù)據(jù)集上,加載預(yù)訓(xùn)練權(quán)重并使用訓(xùn)練所有網(wǎng)絡(luò)層的遷移學(xué)習(xí)方法進(jìn)行訓(xùn)練。
3.4" 試驗(yàn)結(jié)果分析
3.4.1" 不同初始學(xué)習(xí)率對比
本研究將使用3種不同初始學(xué)習(xí)率的模型進(jìn)行訓(xùn)練,識別準(zhǔn)確率如圖7-A、圖7-B所示,可以看出,初始學(xué)習(xí)率為 0.000 1 的模型的識別準(zhǔn)確率較高,收斂快且較穩(wěn)定。而初始學(xué)習(xí)率為0.001的模型雖然在訓(xùn)練集上表現(xiàn)優(yōu)異,但在驗(yàn)證集上振蕩較大,模型不夠穩(wěn)定;初始學(xué)習(xí)率為0.000 01的模型在訓(xùn)練集和驗(yàn)證集上均表現(xiàn)穩(wěn)定,但是收斂速度過慢。這是由于模型已經(jīng)通過遷移學(xué)習(xí)獲得良好的權(quán)重參數(shù),初始學(xué)習(xí)率選取過大會導(dǎo)致參數(shù)更新幅度過大,容易在最優(yōu)解附近徘徊從而產(chǎn)生振蕩;而學(xué)習(xí)率過小會導(dǎo)致參數(shù)更新幅度小,收斂時間長且易陷入局部最優(yōu)。
3.4.2" 不同改進(jìn)方法對比
針對4種不同改進(jìn)方法的MobileViT模型(均為xxs型號),分別為僅增加圖像分割的MobileViT模型(MobileViT_seg)、僅引入深度卷積的MobileViT模型(MobileViT_DW)、僅增加局部特征的MobileViT模型(MobileViT_LF)、僅使用PoolFormer的MobileViT模型(MobileViT_PF)。將經(jīng)過預(yù)訓(xùn)練后的上述4種模型、MobileViT模型、P-MobileViT模型分別在小麥病害數(shù)據(jù)集上進(jìn)行訓(xùn)練,試驗(yàn)對比結(jié)果如表2所示??梢钥闯觯狙芯刻岢龅腜-MobileViT的準(zhǔn)確率要明顯高于其他模型,比基準(zhǔn)模型高出2.0百分點(diǎn),且浮點(diǎn)運(yùn)算數(shù)和參數(shù)量分別減少了33.5%、23.1%,該模型實(shí)現(xiàn)識別準(zhǔn)確率提升的同時,明顯降低了模型復(fù)雜度。
3.4.3" 不同輕量級網(wǎng)絡(luò)模型對比
將4種輕量級網(wǎng)絡(luò)模型ShuffleNet v2(1.0×型號)、MobileNet v3(Samll型號)、GhostNet、EfficientNet v2(B0型號)進(jìn)行預(yù)訓(xùn)練后,分別在小麥病害數(shù)據(jù)集上進(jìn)行訓(xùn)練,對比結(jié)果如表3所示??梢钥闯?,相較于準(zhǔn)確率較高的MobileNet v3、GhostNet模型,P-MobileViT的準(zhǔn)確率分別提升3.1、3.3 百分點(diǎn),參數(shù)量分別減少58.3%、61.5%;并且在相似的浮點(diǎn)運(yùn)算數(shù)下,P-MobileViT模型的識別時間開銷更少,與MobileViT模型相比降低31.6%。
3.4.4" 測試樣本識別結(jié)果
對測試樣本的識別結(jié)果進(jìn)一步統(tǒng)計,結(jié)果如圖8所示,各類別樣本識別準(zhǔn)確率分別為黑穗病99%、葉枯病93%、白粉病98%、條銹病98%、稈銹病94%、葉銹病97%、健康98%,其中葉枯病、稈銹病的識別準(zhǔn)確率明顯低其他6類,考察樣本的特征表現(xiàn),發(fā)現(xiàn)因黑穗病呈明顯黑褐色,而健康樣本幾乎無病斑區(qū)域,故容易區(qū)分;條銹病和葉銹病的病斑顏色、形態(tài)明顯不同,也較易區(qū)分;而稈銹病樣本中往往伴隨葉片呈枯黃色,和葉枯病病斑較為相似,使其區(qū)分難度增加,從而導(dǎo)致誤判。
4" 討論與結(jié)論
本研究以小麥病害為研究對象,基于P-MobileViT和遷移學(xué)習(xí)構(gòu)建小麥病害分類模型,對7種(含健康)小麥病害進(jìn)行分類研究。通過圖像分割,引入深度卷積、PoolFormer結(jié)構(gòu)和增加融合局部特征等,進(jìn)一步優(yōu)化模型的識別精度和推理時間。與MobileViT模型相比,P-MobileViT的準(zhǔn)確率提升了2.0百分點(diǎn),達(dá)到了97.2%,浮點(diǎn)運(yùn)算數(shù)和參數(shù)量分別減少了33.5%、23.1%,推理時間減少31.6%。與輕量級網(wǎng)絡(luò)MobileNet v3、GhostNet模型相比,P-MobileViT的準(zhǔn)確率分別提升了3.1、3.3百分點(diǎn),參數(shù)量分別降低58.3%、61.5%,表明本研究模型取得較好的效果,驗(yàn)證了改進(jìn)方案的可行性。在實(shí)際應(yīng)用中,本模型更有利于移動設(shè)備的部署,為農(nóng)業(yè)病害分類等實(shí)際應(yīng)用提供有力的技術(shù)支持。在本研究的圖像分割過程中,對近端的主病害區(qū)域進(jìn)行了分割,但對遠(yuǎn)端的病害區(qū)域未予以考慮,這可能會對病害的識別準(zhǔn)確率產(chǎn)生一定的影響。在下一步的研究中,將進(jìn)一步優(yōu)化和改進(jìn)分割策略,以提升模型的分類性能和魯棒性。同時,也將探索小麥病害分類任務(wù)與其他計算機(jī)視覺任務(wù)(如病害檢測、預(yù)測等)相結(jié)合等方法,以提高任務(wù)的多樣性和應(yīng)用范圍。
參考文獻(xiàn):
[1]Liu W,Wang B,Zhao Z,et al. Historical review and countermeasures of wheat stripe rust epidemics in China[J]. China Plant Prot,2022,42:21-7.
[2]Picon A,Seitz M,Alvarez-Gila A,et al. Crop conditional Convolutional Neural Networks for massive multi-crop plant disease classification over cell phone acquired images taken on real field conditions[J]. Computers and Electronics in Agriculture,2019,167:105093.
[3]焦" 悅,王思曼,趙喜蘭,等. 50個國外小麥品種(系)抗葉銹性鑒定[J]. 河南農(nóng)業(yè)科學(xué),2019,48(12):79-88.
[4]刁智華,袁萬賓,羅雅雯,等. 基于圖像處理的小麥白粉病病斑生長模型構(gòu)建[J]. 中國農(nóng)機(jī)化學(xué)報,2019,40(6):158-161.
[5]Boulent J,F(xiàn)oucher S,Théau J,et al. Convolutional neural networks for the automatic identification of plant diseases[J]. Frontiers in Plant Science,2019,10:941.
[6]孫" 俊,譚文軍,毛罕平,等. 基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的多種植物葉片病害識別[J]. 農(nóng)業(yè)工程學(xué)報,2017,33(19):209-215.
[7]Xiong Y H,Liang L F,Wang L,et al. Identification of cash crop diseases using automatic image segmentation algorithm and deep learning with expanded dataset[J]. Computers and Electronics in Agriculture,2020,177:105712.
[8]Singh P,Verma A,Alex J S R. Disease and pest infection detection in coconut tree through deep learning techniques[J]. Computers and Electronics in Agriculture,2021,182:105986.
[9]顧" 博,鄧?yán)倮?,? 巍,等. 基于GrabCut算法的玉米病害圖像識別方法研究[J]. 中國農(nóng)機(jī)化學(xué)報,2019,40(11):143-149.
[10]陳" 燕,朱成宇,胡小春,等. 基于改進(jìn)Unet的小麥莖稈截面參數(shù)檢測[J]. 農(nóng)業(yè)機(jī)械學(xué)報,2021,52(7):169-176.
[11]馮" 曉,李丹丹,王文君,等. 基于輕量級卷積神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí)的小麥葉部病害圖像識別[J]. 河南農(nóng)業(yè)科學(xué),2021,50(4):174-80.
[12]Nanni L,Manfè A,Maguolo G,et al. High performing ensemble of convolutional neural networks for insect pest image detection[J]. Ecological Informatics,2022,67:101515.
[13]Khan M K,Ullah M O. Deep transfer learning inspired automatic insect pest recognition[C]//Proceedings of the 3rd international conference on computational sciences and technologies. Jamshoro,Pakistan:Mehran University of Engineering and Technology,2022.
[14]Li C,Zhen T,Li Z H. Image classification of pests with residual neural network based on transfer learning[J]. Applied Sciences,2022,12(9):4356.
[15]楊非凡,徐偉誠,陳盛德,等. 融合Focal Loss與典型卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的水稻病害圖像分類[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(14):198-204.
[16]惠巧娟,孫" 婕. 基于多尺度特征度量元學(xué)習(xí)的玉米葉片病害識別模型研究[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(9):199-206.
[17]Khalifa N E M,Loey M,Taha M H N. Insect pests recognition based on deep transfer learning models[J]. J Theor Appl Inf Technol,2020,98(1):60-68.
[18]Pattnaik G,Shrivastava V K,Parvathi K. Transfer learning-based framework for classification of pest in tomato plants[J]. Applied Artificial Intelligence,2020,34(13):981-993.
[19]Mehta S,Rastegari M. MobileViT:light-weight,general-purpose,and mobile-friendly vision transformer[EB/OL]. (2021-10-05)[2023-11-01]. https://arxiv.org/abs/2110.02178.
[20]Vaswani A,Shazeer N,Parmar N,et al. Attention is all you need[EB/OL]. (2017-06-12)[2023-11-01]. https://arxiv.org/abs/1706.03762.
[21]Dosovitskiy A,Beyer L,Kolesnikov A,et al. An image is worth 16×16 words:transformers for image recognition at scale[EB/OL]. (2020-10-22)[2023-11-01]. https://arxiv.org.abs/2010.11929.
[22]Howard A,Sandler M,Chen B,et al. Searching for MobileNet v3[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV).Seoul,Korea (South):IEEE,2019:1314-1324.
[23]Touvron H,Cord M,Douze M,et al. Training data-efficient image transformers amp; distillation through attention[EB/OL]. (2020-12-23)[2023-11-01]. https://arxiv.org/abs/2012.12877.
[24]Howard A G,Zhu M L,Chen B,et al. MobileNets:efficient convolutional neural networks for mobile vision applications[EB/OL]. (2017-04-17)[2023-11-01]. https://arxiv.org/abs/1704.04861.
[26]Otsu N. A threshold selection method from gray-level histograms[J]. IEEE Transactions on Systems,Man,and Cybernetics,1979,9(1):62-66.
[27]Rother C,Kolmogorov V,Blake A. GrabCut:interactive foreground extraction using iterated graph cuts[M]//Seminal Graphics Papers:Pushing the Boundaries,Volume 2.New York,NY,USA:ACM,2023:593-598.