徐振南 王建坤 胡益嘉 張智聰 趙旭東 楊琳琳 李文峰
摘要:針對(duì)傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)在馬鈴薯葉部病害識(shí)別中結(jié)構(gòu)復(fù)雜、參數(shù)龐大,難以實(shí)現(xiàn)在移動(dòng)設(shè)備上的良好應(yīng)用的問題,提出一種基于輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí)的馬鈴薯葉部病害識(shí)別方法。首先,采集馬鈴薯葉部病害圖像樣本,再運(yùn)用GrabCut算法進(jìn)行圖像分割;再基于 MobileNetV3構(gòu)建病害識(shí)別基礎(chǔ)模型,并通過調(diào)整模型結(jié)構(gòu)及寬度系數(shù)α等方式對(duì)模型進(jìn)行優(yōu)化,最后運(yùn)用遷移學(xué)習(xí)的方式將預(yù)訓(xùn)練參數(shù)遷移至優(yōu)化模型進(jìn)行訓(xùn)練。結(jié)果表明,該方法對(duì)馬鈴薯健康、晚疫病、早疫病、炭疽病及其他病害葉部圖像識(shí)別準(zhǔn)確率為 98.00%,模型權(quán)重僅為0.68 MB,識(shí)別速率為0.014 s/幅。本研究結(jié)果可為馬鈴薯葉部病害識(shí)別在移動(dòng)設(shè)備上應(yīng)用的實(shí)現(xiàn)提供理論支持。
關(guān)鍵詞:馬鈴薯;葉部病害;GrabCut;MobileNetV3;遷移學(xué)習(xí);小樣本
中圖分類號(hào): TP391.41? 文獻(xiàn)標(biāo)志碼: A
文章編號(hào):1002-1302(2022)10-0176-07
馬鈴薯是我國(guó)四大糧食作物之一,目前,已知馬鈴薯病害有100余種,其中晚疫病和早疫病造成的危害最為嚴(yán)重,馬鈴薯早疫病發(fā)病嚴(yán)重時(shí)減產(chǎn)可達(dá)30%以上[1],晚疫病則可造成高達(dá)80%~100%的減產(chǎn)[2]。傳統(tǒng)馬鈴薯病害識(shí)別通常為專家直接對(duì)患病部位進(jìn)行觀察,如晚疫病發(fā)病初期在葉尖或葉緣有水浸狀綠褐色斑點(diǎn)[3]。該方法具有較高的準(zhǔn)確率,但效率較低,且受限于專家數(shù)量,難以實(shí)現(xiàn)有效推廣。
由于計(jì)算機(jī)智能識(shí)別技術(shù)在對(duì)農(nóng)業(yè)病害進(jìn)行檢測(cè)識(shí)別時(shí),具有無損、快速的特點(diǎn)[4],故被廣泛應(yīng)用于病害識(shí)別。趙建敏等用8層CNN+softmax分層卷積神經(jīng)網(wǎng)絡(luò)模型識(shí)別了簡(jiǎn)單背景單一病斑[5];孫文杰等使用一種基于VGGNet-BiLSTM的算法實(shí)現(xiàn)了對(duì)桃樹葉部病害圖像的識(shí)別[6];謝裕睿等通過構(gòu)造恒等殘差塊和卷積殘差塊來搭建20層的ResNet模型識(shí)別了5種常見煙草病害[7]。上述研究在圖像識(shí)別領(lǐng)域取得了良好效果,但其所采用的模型存在深度及參數(shù)過大等不足。目前,農(nóng)業(yè)病害識(shí)別趨向于模型結(jié)構(gòu)小型化、實(shí)用化,以期更好地實(shí)現(xiàn)其在移動(dòng)端的應(yīng)用。楊森等提出一種基于輕量卷積網(wǎng)絡(luò)的馬鈴薯外部缺陷無損分級(jí)方法,識(shí)別準(zhǔn)確率為96.04%[8]。劉洋等基于MobileNet與IncptionV3提出2種輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)作物病害分類模型[9]。以上研究表明,輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)模型在減少網(wǎng)絡(luò)參數(shù)量的同時(shí),可保證較高的識(shí)別準(zhǔn)確率,適用于移動(dòng)端。
本研究提出一種基于MobileNetV3優(yōu)化和遷移學(xué)習(xí)方法的馬鈴薯葉部病害圖像識(shí)別方法,并從訓(xùn)練、測(cè)試準(zhǔn)確率及損失函數(shù)、模型權(quán)重和識(shí)別速率等方面對(duì)模型進(jìn)行評(píng)估,為開發(fā)移動(dòng)端的馬鈴薯害智能識(shí)別系統(tǒng)提供模型構(gòu)建技術(shù)支持。
1 圖像數(shù)據(jù)集及預(yù)處理
1.1 試驗(yàn)數(shù)據(jù)
圖像數(shù)據(jù)采集點(diǎn)為云南省昭通市,為體現(xiàn)樣本多樣性,選用不同品牌手機(jī)、相機(jī)進(jìn)行拍攝,拍攝角度、時(shí)間、地點(diǎn)等多樣化。此外,通過互聯(lián)網(wǎng)公開數(shù)據(jù)集收集部分樣本,收獲馬鈴薯健康葉部圖像39幅、晚疫病61幅、早疫病50幅、炭疽病54幅以及其他病害33幅,總計(jì)獲得葉部圖像237幅,部分原始圖像如圖1所示。
1.2 濾波去噪
實(shí)際拍攝所得圖像通常會(huì)存在不同數(shù)量的噪聲,這些噪聲會(huì)對(duì)圖像識(shí)別造成一定干擾。因此,為有效過濾圖像中椒鹽噪聲等噪聲信息,采用均值濾波、高斯濾波以及中值濾波方式對(duì)圖像進(jìn)行圖像平滑濾波處理,處理后部分圖像示例如圖2所示。
1.3 圖像分割
由于部分圖像拍攝時(shí)背景相對(duì)復(fù)雜,會(huì)對(duì)病害識(shí)別造成一定干擾,因此運(yùn)用GrabCut算法對(duì)部分背景相對(duì)復(fù)雜的樣本進(jìn)行圖像分割,提取害病葉片圖像,削弱背景影響。GrabCut算法于2004年由Rother等提出,其通過圖像中所蘊(yùn)含的紋理(顏色)信息以及邊界(反差)信息,僅需少量的用戶交互操作,再結(jié)合圖像處理算法,即可取得良好的分割結(jié)果[10],具體如圖3所示。
1.4 圖像增強(qiáng)
在對(duì)樣本圖像特征信息進(jìn)行收集時(shí),通過多種方式對(duì)原始數(shù)據(jù)進(jìn)行數(shù)據(jù)增廣,可提升模型泛化能力,提高模型的魯棒性[11]。對(duì)于數(shù)據(jù)集的數(shù)據(jù)分布,擴(kuò)充后數(shù)據(jù)集中各類訓(xùn)練樣本數(shù)量相同、分布均勻,這使得模型對(duì)于各類別的學(xué)習(xí)過程不會(huì)偏向某一類或某幾類,所得模型泛化能力較強(qiáng)[12]。因此,要對(duì)分割后的數(shù)據(jù)集進(jìn)行一定程度的數(shù)據(jù)擴(kuò)充。
首先,將分割后數(shù)據(jù)集按照8 ∶2的比例隨機(jī)劃分訓(xùn)練集和測(cè)試集。其次,通過旋轉(zhuǎn)、水平翻轉(zhuǎn)、平移、對(duì)比度增強(qiáng)、改變色度的方式增強(qiáng)圖像數(shù)據(jù),將劃分后的數(shù)據(jù)集擴(kuò)充至每類200張,共1 000張圖片,擴(kuò)充后訓(xùn)練集和測(cè)試集比例仍為8 ∶2。為探究圖像分割對(duì)識(shí)別效果的影響,不分割原始圖像重復(fù)上述操作建立數(shù)據(jù)集。圖像分割并增強(qiáng)后部分示例如圖4所示。
因采集工具多樣,故原始圖像分辨率不統(tǒng)一,在訓(xùn)練前將圖像進(jìn)行歸一化、標(biāo)準(zhǔn)化處理。將訓(xùn)練集圖片隨機(jī)大小、隨機(jī)長(zhǎng)寬比進(jìn)行裁剪,再重置圖片為224×224像素;重置測(cè)試集圖片為256×256像素,再中心裁剪為224×224像素,最后將圖片統(tǒng)一轉(zhuǎn)化成tensor張量并進(jìn)行標(biāo)準(zhǔn)化處理。
2 馬鈴薯葉部病害識(shí)別模型
2.1 MobileNetV3網(wǎng)絡(luò)模型
卷積神經(jīng)網(wǎng)絡(luò)由AlexNet[13]到VGGNet[14],再到GoogleNet[15]、 ResNet[16],網(wǎng)絡(luò)性能不斷提升,但網(wǎng)絡(luò)也是不斷加深,由此引發(fā)效率問題,該問題一定程度上決定著CNN在實(shí)際生活中的應(yīng)用。谷歌于2017年提出MobileNets模型[17],于2019年提出MobileNetV3模型[18],其基本網(wǎng)絡(luò)單元如圖5所示。
由圖5可知,相較于ResNet模型,該模型運(yùn)用了MobileNetV2模型[19]中的倒置殘差結(jié)構(gòu)(inverted residuals),該結(jié)構(gòu)先升維,深度可分離卷積后再降維,深度可分離卷積主要起減少網(wǎng)絡(luò)參數(shù),加快運(yùn)行速度的作用[20]。在此之上,還根據(jù)Mnas Net(谷歌提出的一種移動(dòng)平臺(tái)感知神經(jīng)結(jié)構(gòu)搜索)[21]引入基于壓縮獎(jiǎng)懲(squeeze and excitation,SE)結(jié)構(gòu)的輕量級(jí)注意力模型,SE結(jié)構(gòu)能通過訓(xùn)練過程在特征圖上自行分配權(quán)重,使網(wǎng)絡(luò)從全局信息出發(fā)選擇性地放大有價(jià)值的特征通道并抑制無用的特征通道[22]。
此外,相較于EfficientNet模型[23],MobileNetV3加入一種新的激活函數(shù)Hard-swish,如公式(1)所示。
h-swish[x]=xReLU(x+3)6。(1)
式中:x為輸入;ReLU為ReLU激活函數(shù)。
MobileNetV3模型識(shí)別準(zhǔn)確率高、尺寸小,適用于移動(dòng)端,但目前將其用于作物病害識(shí)別研究較少,為實(shí)現(xiàn)將馬鈴薯葉部病害識(shí)別模型應(yīng)用于移動(dòng)端的任務(wù),要對(duì)該模型部分網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行修改。該模型可分為MobileNetV3-Large和Small,因本研究針對(duì)小樣本數(shù)據(jù)集進(jìn)行研究,故選用MobileNetV3-Small網(wǎng)絡(luò),具體結(jié)構(gòu)如表1所示。
2.2 模型改進(jìn)設(shè)計(jì)
由于需要識(shí)別的葉片類型為5類,因此將表1中最后一個(gè)卷積層輸出通道數(shù)由1 000修改為5,將此模型記作MobileNetV3-S0,并以此模型作為后續(xù)改進(jìn)的基礎(chǔ)模型。
為減少模型參數(shù)并保持其在馬鈴薯葉片數(shù)據(jù)集上的性能,基于MobileNetV3-S0進(jìn)行修改:將超參數(shù)reduce_divider由1調(diào)整為4,修改后網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示,并將該模型命名為MobileNetV3-S1。
由圖6可知,超參數(shù)reduce_divider將影響bneck模塊9的輸出通道數(shù),bneck模塊10、11的輸入、輸出以及bneck內(nèi)倒殘差結(jié)構(gòu)進(jìn)行升維后的通道數(shù),其表現(xiàn)如下述公式所示。
Final Output=Output/reduce_divider。(2)
式中:Final Output為最終輸出通道數(shù);Output為輸出通道數(shù)。
深度學(xué)習(xí)的網(wǎng)絡(luò)深度過深將帶來梯度不穩(wěn)定,網(wǎng)絡(luò)退化等問題。因此,為選擇合適的模型深度,對(duì)MobileNetV3-S1進(jìn)行如下操作:移除bneck模塊6~8,將bneck模塊9的輸入通道數(shù)由48縮減為40,并將bneck模塊9~11的輸出通道數(shù)由96縮減為48,并將改動(dòng)后模型命名為MobileNetV3-S2,詳見圖7。
圖像輸入分辨率、網(wǎng)絡(luò)的深度以及寬度3個(gè)參數(shù)的合理化配置對(duì)網(wǎng)絡(luò)性能具有一定的影響。寬度大而深度較淺的網(wǎng)絡(luò)很難學(xué)習(xí)到更深層次的特征。故在降低網(wǎng)絡(luò)深度的同時(shí),有必要進(jìn)一步調(diào)整網(wǎng)絡(luò)寬度。對(duì)MobileNetV3-S2進(jìn)行如下操作:將超參數(shù)寬度系數(shù)α由默認(rèn)的1改為0.5;為進(jìn)一步降低網(wǎng)絡(luò)深度和計(jì)算成本,減少參數(shù)量:移除bneck模塊5,最終將該模型命名為MobileNetV3-S3,詳見圖8。
考慮到數(shù)據(jù)集相對(duì)較小,直接用于網(wǎng)絡(luò)訓(xùn)練將產(chǎn)生過擬合或準(zhǔn)確率較低等問題。遷移學(xué)習(xí)可以考慮到大部分?jǐn)?shù)據(jù)和任務(wù)間的相關(guān)性,將使用其他大批量數(shù)據(jù)訓(xùn)練所得模型來訓(xùn)練新數(shù)據(jù),從而減少訓(xùn)練步驟,縮短訓(xùn)練時(shí)間,并增加數(shù)據(jù)量,從而降低過擬合程度[24]。故將在公開數(shù)據(jù)集PlantVillage上進(jìn)行預(yù)訓(xùn)練的模型參數(shù),遷移至馬鈴薯葉部病害識(shí)別模型,縮短模型訓(xùn)練時(shí)間,提高模型泛化性。
3 結(jié)果與分析
3.1 試驗(yàn)環(huán)境與相關(guān)參數(shù)設(shè)置
試驗(yàn)軟件環(huán)境為Windows10操作系統(tǒng),使用python3.8.5編程語言,以Pytorch作為深度學(xué)習(xí)開源框架,CUDA11.0編程平臺(tái)。試驗(yàn)硬件環(huán)境為16 GB內(nèi)存,NVIDIA GeForce RTX2060顯卡,搭載IntelCoreTMi7-10875H@5.10 GHz CPU處理器。
在訓(xùn)練前,將樣本數(shù)據(jù)分為多個(gè)批次(Batch),綜合考慮樣本數(shù)量及計(jì)算機(jī)的硬件環(huán)境,本研究在試驗(yàn)過程中將Batch大小設(shè)置為32,模型迭代次數(shù)(Epoch)設(shè)為100次。
3.2 試驗(yàn)設(shè)計(jì)
綜合考慮硬件設(shè)備性能及訓(xùn)練效果,在相同條件下對(duì)同一模型進(jìn)行訓(xùn)練,包括采用2種不同的遷移學(xué)習(xí)訓(xùn)練方式(只訓(xùn)練全連接層與訓(xùn)練全部層)、不同學(xué)習(xí)率、3種不同濾波方式對(duì)圖像數(shù)據(jù)進(jìn)行處理以及圖像分割與否等情況進(jìn)行試驗(yàn),同時(shí)在相同條件下對(duì)不同網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練對(duì)比試驗(yàn)。
3.3 模型性能的影響因素分析
3.3.1 學(xué)習(xí)率對(duì)模型性能的影響
進(jìn)行深度學(xué)習(xí)模型訓(xùn)練時(shí),學(xué)習(xí)率是最影響模型性能的超參數(shù)之一[25],學(xué)習(xí)率過大將導(dǎo)致模型不收斂,過小將導(dǎo)致模型收斂過慢或者無法學(xué)習(xí)。因此,通過試驗(yàn)選取適用于MobileNetV3-S0的學(xué)習(xí)率。試驗(yàn)選用單純圖像增強(qiáng)后數(shù)據(jù)集,以訓(xùn)練全部層的遷移學(xué)習(xí)方式進(jìn)行,將學(xué)習(xí)率設(shè)置為0.01、0.001和0.000 1進(jìn)行討論。
由圖9-a可知,相較于0.01和0.000 1的學(xué)習(xí)率,學(xué)習(xí)率為0.001時(shí),模型訓(xùn)練準(zhǔn)確率最高。交叉熵?fù)p失函數(shù)常用于評(píng)估模型預(yù)測(cè)值與真實(shí)值的不一致程度,交叉熵?fù)p失函數(shù)越小,模型的魯棒性越好。由圖9-b可知 學(xué)習(xí)率為0.001訓(xùn)練時(shí) 交叉熵?fù)p失函數(shù)均低于其他學(xué)習(xí)率時(shí)的交叉熵?fù)p失函數(shù),且模型訓(xùn)練準(zhǔn)確率與交叉熵?fù)p失函數(shù)收斂速度最快。因此,綜合考慮訓(xùn)練時(shí)模型平均識(shí)別準(zhǔn)確率與交叉熵?fù)p失函數(shù),后續(xù)試驗(yàn)中取0.001學(xué)習(xí)率及未分割增強(qiáng)后數(shù)據(jù)集完成模型訓(xùn)練與測(cè)試。
3.3.2 遷移學(xué)習(xí)方式對(duì)模型性能的影響
MobileNetV3-S0模型,在不采用遷移學(xué)習(xí)和采用2種不同(只訓(xùn)練全連接層與訓(xùn)練全部層)遷移學(xué)習(xí)方式時(shí),模型訓(xùn)練準(zhǔn)確率和交叉熵?fù)p失函數(shù)變化如圖10-a、圖10-b所示。
從圖10可知,MobileNetV3-S0在運(yùn)用3種不同方式訓(xùn)練過程中,采用遷移學(xué)習(xí)訓(xùn)練的模型收斂速度和訓(xùn)練準(zhǔn)確率明顯高于不采用遷移學(xué)習(xí)的模型,交叉熵?fù)p失函數(shù)則明顯低于不采用遷移學(xué)習(xí)的模型。
同時(shí),觀察圖10中曲線變化可知,在經(jīng)過50次左右迭代訓(xùn)練后,訓(xùn)練準(zhǔn)確率和交叉熵?fù)p失函數(shù)逐漸趨于穩(wěn)定,其中,采用訓(xùn)練全部層方式的模型準(zhǔn)確率最高,交叉熵?fù)p失函數(shù)最小,基本降到0.1以下,且交叉熵?fù)p失函數(shù)波動(dòng)最小。這說明采用訓(xùn)練全部層的遷移學(xué)習(xí)方式對(duì)模型性能的提升最大。
3.3.3 濾波方式對(duì)識(shí)別準(zhǔn)確率的影響
將原始數(shù)據(jù)集分別經(jīng)過均值濾波、高斯濾波和中值濾波這3種濾波方式處理并通過圖像增強(qiáng)后,依次放入模型中進(jìn)行訓(xùn)練與測(cè)試,其所得識(shí)別準(zhǔn)確率如表2所示。
由表2可知,除經(jīng)過中值濾波處理的數(shù)據(jù)集訓(xùn)練準(zhǔn)確率與原始數(shù)據(jù)集一致外,其余濾波方式下的訓(xùn)練準(zhǔn)確率均略有下降。同時(shí),3種經(jīng)濾波處理的數(shù)據(jù)集測(cè)試準(zhǔn)確率相較于原始數(shù)據(jù)集均有所降低,其中表現(xiàn)最好的中值濾波方式仍降低了1.00百分點(diǎn)。這說明,雖然濾波處理可以去除圖像中干擾識(shí)別效果的噪聲,但同時(shí)也對(duì)圖像本身的部分特征信息造成了一定影響。因此,仍選擇經(jīng)過圖像增強(qiáng)但未濾波圖像數(shù)據(jù)集用于模型的訓(xùn)練。
3.3.4 模型性能對(duì)比
運(yùn)用ResNet18、EfficientNet-B0和MobileNetV3-S0這3種模型進(jìn)行對(duì)比訓(xùn)練和測(cè)試,結(jié)果(表3)表明,MobileNetV3-S0模型的訓(xùn)練識(shí)別準(zhǔn)確率分別僅比EfficientNet-B0和 ResNet-18 高出1.26和0.12百分點(diǎn),測(cè)試識(shí)別準(zhǔn)確率則是比ResNet-18高1.50百分點(diǎn),比EfficientNet-B0低4.00百分點(diǎn)。
雖然MobileNetV3-S0的測(cè)試準(zhǔn)確率略低于EfficientNet-B0,但同時(shí)由表3可分析出,ResNet18、EfficientNet-B0的權(quán)重參數(shù)分別為MobileNetV3-S0的4.60倍和2.08倍,反之MobileNetV3-S0的識(shí)別速率則是ResNet18、EfficientNet-B0的18.50倍和18.96倍。
由表4可知,MobileNetV3-S1模型相比較于MobileNetV3-S0模型,權(quán)重減小7.39 MB,測(cè)試準(zhǔn)確率下降1.00百分點(diǎn),這說明調(diào)整超參數(shù)reduce_divider可以較大程度地減小模型權(quán)重,但同時(shí)會(huì)損失一定準(zhǔn)確率。而MobileNetV3-S2相較于MobileNetV3-S1,權(quán)重縮減0.51 MB,測(cè)試準(zhǔn)確率升高2.50百分點(diǎn),說明基于MobileNetV3-S1降低模型深度,不但能減小模型權(quán)重,還有助于提高測(cè)試準(zhǔn)確率。MobileNetV3-S3的權(quán)重比MobileNetV3-S2減少了1.12 MB,測(cè)試準(zhǔn)確率降低0.50百分點(diǎn),由此可知,在降低模型深度的同時(shí),減小模型寬度,可進(jìn)一步減少模型冗余參數(shù),但會(huì)損失一定的準(zhǔn)確率。
因模型結(jié)構(gòu)不同于MobileNetV3-S0,因此對(duì)于MobileNetV3-S3,0.001的學(xué)習(xí)率可能不是最佳學(xué)習(xí)率。故再進(jìn)行對(duì)比試驗(yàn),由表5可知,在3種學(xué)習(xí)率中,最適合MobileNetV3-S3的仍是0.001。
綜上可知,相比MobileNetV3-S2,MobileNetV3-S3的識(shí)別準(zhǔn)確率略有下降,但比MobileNetV3-S0提升了1.00百分點(diǎn),且MobileNetV3-S3的權(quán)重僅為MobileNetV3-S0的7.01%,對(duì)單張圖片識(shí)別速率也略有提升。因此,以MobileNetV3-S3作為最終的馬鈴薯葉部病害識(shí)別模型。
3.3.5 圖像分割對(duì)識(shí)別效果的影響
將運(yùn)用GrabCut算法對(duì)部分背景相對(duì)復(fù)雜圖像進(jìn)行圖像分割,提取圖像后再進(jìn)行圖像增強(qiáng),所得數(shù)據(jù)集輸入MobileNetV3-S3中。由表6可知,經(jīng)過GrabCut算法分割后數(shù)據(jù)集訓(xùn)練準(zhǔn)確率降低了0.50百分點(diǎn),但是測(cè)試準(zhǔn)確率卻提升了1.50百分點(diǎn)。由此可知,運(yùn)用GrabCut算法進(jìn)行圖像分割,有助于進(jìn)一步提高病害葉片的識(shí)別準(zhǔn)確率。故最終選用經(jīng)GrabCut算法圖像分割擴(kuò)充后的數(shù)據(jù)集。
4 結(jié)論與討論
本研究針對(duì)馬鈴薯病害快速準(zhǔn)確實(shí)時(shí)識(shí)別的需求,建立包含馬鈴薯健康、晚疫病、早疫病、炭疽病及其他病害共5種馬鈴薯葉部圖像數(shù)據(jù)集。對(duì)該數(shù)據(jù)集運(yùn)用GrabCut算法進(jìn)行圖像分割并進(jìn)行圖像增強(qiáng)操作,在對(duì)MobileNetV3-Small模型進(jìn)行優(yōu)化后,基于優(yōu)化后模型和遷移學(xué)習(xí)方式進(jìn)行訓(xùn)練,并與ResNet18、EfficientNet-b0這2種網(wǎng)絡(luò)模型進(jìn)行對(duì)比試驗(yàn)。根據(jù)試驗(yàn)結(jié)果得出如下結(jié)論:(1)采用遷移學(xué)習(xí)的方式在提高模型的識(shí)別準(zhǔn)確率的同時(shí)降低了模型的交叉熵?fù)p失函數(shù),增強(qiáng)了模型穩(wěn)定性。而這2種遷移學(xué)習(xí)訓(xùn)練方式,從識(shí)別率和損失函數(shù)收斂2個(gè)方面來看,訓(xùn)練全部層的方式更優(yōu)。(2)基于MobileNetV3-Small改進(jìn)所得模型MobileNetV3-S3,采用0.001的學(xué)習(xí)率和訓(xùn)練全部層的遷移學(xué)習(xí)方式,對(duì)僅進(jìn)行圖像增強(qiáng)的數(shù)據(jù)集訓(xùn)練后所得測(cè)試準(zhǔn)確率最高為96.50%,比MobileNetV3-S0高出1.00百分點(diǎn)。在運(yùn)用GrabCut算法分割圖像后,模型測(cè)試準(zhǔn)確率提升至98.00%。(3)MobileNetV3-S3權(quán)重大小為 0.68 MB,MobileNetV3-S0權(quán)重為其14.26倍。MobileNetV3-S3模型測(cè)試準(zhǔn)確率雖略低于EfficientNet-B0,但其識(shí)別速率為后者的70.43倍,且其權(quán)重僅為后者的3.37%,有利于馬鈴薯病害識(shí)別在移動(dòng)端的實(shí)現(xiàn)。
綜上所述,將基于GrabCut算法分割圖像所建數(shù)據(jù)集,結(jié)合基于MobileNetV3-Small改進(jìn)的模型MobileNetV3-S3,運(yùn)用遷移學(xué)習(xí)方式訓(xùn)練所得識(shí)別模型,在馬鈴薯葉部病害識(shí)別上,具有準(zhǔn)確率高、識(shí)別快、權(quán)重小等特點(diǎn)。該方法為實(shí)現(xiàn)馬鈴薯葉部病害識(shí)別在移動(dòng)端的良好應(yīng)用提供了可行性。
參考文獻(xiàn):
[1]肖金鐘. 馬鈴薯生產(chǎn)中的常見病害[J]. 現(xiàn)代園藝,2020,43(18):37-40.
[2]范子耀,王文橋,孟潤(rùn)杰,等. 7種殺菌劑對(duì)馬鈴薯早疫病菌室內(nèi)毒力及田間防效[J]. 農(nóng)藥,2011,50(7):531-533.
[3]王秀鵬. 馬鈴薯常見病害識(shí)別及防治技術(shù)[J]. 種子科技,2018,36(6):101,103.
[4]邊柯橙,楊海軍,路永華. 深度學(xué)習(xí)在農(nóng)業(yè)病蟲害檢測(cè)識(shí)別中的應(yīng)用綜述[J]. 軟件導(dǎo)刊,2021,20(3):26-33.
[5]趙建敏,李 艷,李 琦,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的馬鈴薯葉片病害識(shí)別系統(tǒng)[J]. 江蘇農(nóng)業(yè)科學(xué),2018,46(24):251-255.
[6]孫文杰,牟少敏,董萌萍,等. 基于卷積循環(huán)神經(jīng)網(wǎng)絡(luò)的桃樹葉部病害圖像識(shí)別[J]. 山東農(nóng)業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2020,51(6):998-1003.
[7]謝裕睿,苗 晟,張 鑠,等. 基于殘差神經(jīng)網(wǎng)絡(luò)的煙草病害識(shí)別研究[J]. 現(xiàn)代計(jì)算機(jī),2020(30):27-31.
[8]楊 森,馮 全,張建華,等. 基于輕量卷積網(wǎng)絡(luò)的馬鈴薯外部缺陷無損分級(jí)[J]. 食品科學(xué),2021,42(10):284-289.
[9]劉 洋,馮 全,王書志. 基于輕量級(jí)CNN的植物病害識(shí)別方法及移動(dòng)端應(yīng)用[J]. 農(nóng)業(yè)工程學(xué)報(bào),2019,35(17):194-204.
[10]Rother C,Kolmogorov V,Blake A.“GrabCut”:interactive foreground extraction using iterated graph cuts[J]. ACM Transactions on Graphics,2004,23(3):309-314.
[11]鮑文霞,吳 剛,胡根生,等. 基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的蘋果葉部病害識(shí)別[J]. 安徽大學(xué)學(xué)報(bào)(自然科學(xué)版),2021,45(1):53-59.
[12]賈鶴鳴,郎春博,姜子超. 基于輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)的植物葉片病害識(shí)別方法[J]. 計(jì)算機(jī)應(yīng)用,2021,41(6):1812-1819.
[13]Krizhevsky A,Sutskever I,Hinton G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM,2017,60(6):84-90.
[14]Simonyan K,Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science,2014,52(3):1-14.
[15]Szegedy C,Liu W,Jia Y Q,et al. Going deeper with convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition.June 7-12,2015,Boston,MA.IEEE,2015:1-9.
[16]He K M,Zhang X Y,Ren S Q,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition,June 27-30,2016,Las Vegas,NV,USA.Las Vegas:IEEE,2016:770-778.
[17]Howard A G,Zhu M L,Chen B,et al. MobileNets:efficient convolutional neural networks for mobile vision applications[EB/OL]. [2021-08-17]. https://arxiv.org/abs/1704.04861.
[18]Howard A,Sandler M,Chen B,et al. Searching for MobileNetV3[C]//Proceeding of the IEEE/CVF International Conference on Computer Vision (ICCV). Seoul:IEEE,2019:1314-1324.
[19]Sandler M,Howard A,Zhu M,et al. MobileNetV2 inverted residuals and linear bottlenecks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern? Recognition. Salt Lake City:IEEE,2018:4510-4520.
[20]劉夢(mèng)倫,趙希梅,魏 賓. 基于MobileNet V2-ELM的肝硬化識(shí)別[J]. 青島大學(xué)學(xué)報(bào)(自然科學(xué)版),2019,32(4):17-21.
[21]Tan M X,Chen B,Pang R M,et al. MnasNet:platform-aware neural architecture search for mobile[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 15-20,2019,Long Beach,CA,USA. IEEE,2019:2815-2823.
[22]Hu J,Shen L,Sun G,et al. Squeeze-and-excitation networks[C]//Proceeding of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Piscataway:IEEE,2018:7132-7141.
[23]Tan M X,Le Q V. EfficientNet:rethinking model scaling for convolutional neural networks[C]//36th International Conference on Machine Learning(ICML 2019).Los Angeles:Proceeding of Machine Learning Research,2019:6105-6114.
[24]米 碩,孫瑞彬,李 欣,等. 遷移學(xué)習(xí)在卷積神經(jīng)網(wǎng)絡(luò)中的應(yīng)用[J]. 中國(guó)新通信,2018,20(7):121.
[25]馮 曉,李丹丹,王文君,等. 基于輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí)的小麥葉部病害圖像識(shí)別[J]. 河南農(nóng)業(yè)科學(xué),2021,50(4):174-180.