張倩如,王云飛,呂帥朝,宋磊,尚鈺瑩,宋懷波
(西北農林科技大學機械與電子工程學院/農業(yè)農村部農業(yè)物聯(lián)網(wǎng)重點試驗室,陜西 楊凌 712100)
小麥秸稈是生物質能源資源化利用的重要來源之一[1-2],完整的小麥秸稈外表皮組織致密,有光滑的蠟質層并堆積有大量穩(wěn)定的硅質結構,抵御了纖維素酶的進入,使秸稈內部的纖維素難以被降解利用[3-6]。對秸稈進行預處理,破壞其結構完整性,打破其表面的致密結構,是提高秸稈資源化利用效率的關鍵[7]。秸稈表皮結構的完整性通常在顯微鏡下由分析人員進行主觀評價,導致目前無法用秸稈破碎程度對預處理效果進行量化分析,如何實現(xiàn)秸稈表面結構完整性的自動分類是其關鍵之一。
為了降低人工分析的不確定性并減少試驗時間成本,部分學者將以深度學習為代表的機器學習方法引入顯微組織的自動識別之中,借助深度學習強而有效的特征提取能力,自動提取圖像中可用于顯微組織識別的強有效特征,消除人工識別的不確定性,可有效、快速且自動地對材料顯微圖像進行識別和分類[8]。Azimi等[9]以低碳鋼的某些組織成分為例,提出了一種組織分類的深度學習方法,該方法采用全卷積神經(jīng)網(wǎng)絡達到了93.94%的分類準確率。Yamamoto等[10]用一種封閉的卷積神經(jīng)網(wǎng)絡(convolutional neural networks,CNN)對材料特征進行預測,實現(xiàn)了金屬-絕緣體、非磁性-磁性體的二元分類。Ruelas等[11]采用多層感知器的人工神經(jīng)網(wǎng)絡,結合數(shù)字圖像處理技術,實現(xiàn)了高溫條件下導體材料不同物理狀態(tài)的識別與分類,平均精度為96.82%。王詩琪等[12]用CNN模型對色素痣和脂溢性角化癥的皮膚鏡圖像進行分類,分類準確率為88.33%。周蕾蕾等[13]用一種能夠自動學習CT圖像特征并分類的影像組學方法,ResNet 50模型的準確率達92.9%。王培珍等[14]采用深度學習方法,構建了基于遷移學習的煤巖殼質組顯微組分類別識別模型,實現(xiàn)了煤巖殼質組的自動識別,以ResNet 50為基礎的遷移學習模型對測試樣本識別準確率為92.38%。孫世丁等[15]提出了基于CNN的病毒顯微圖像識別和分類方法,表明輕量級網(wǎng)絡ShuffleNet V2模型可用更少的參數(shù)量和浮點運算次數(shù)進行病毒顯微圖像的識別,其參數(shù)量和浮點運算次數(shù)分別是ResNet的約1/15和1/90。
GhostNet特征網(wǎng)絡的核心思想是以更少的參數(shù)來生成更多特征,既可以減少模型參數(shù)量,又可以減少模型運算量[16]。在農作物種類分類和農作物病害的識別中,GhostNet被證明擁有更好的性能[17]。本研究將GhostNet網(wǎng)絡模型輕量化、高準確率的優(yōu)良特性應用于小麥秸稈表皮結構的完整性分類之中[16],在獲取小麥秸稈表皮顯微圖像并制作相應數(shù)據(jù)集的基礎上,利用GhostNet對小麥秸稈表皮顯微圖像數(shù)據(jù)集進行訓練。為了降低GhostNet模型過擬合的風險,將遷移學習引入GhostNet中,為了提升網(wǎng)絡的分類準確率,將Dropout層引入GhostNet網(wǎng)絡。為了驗證算法的有效性,將改進后的GhostNet網(wǎng)絡與ShuffleNet V2[18]、ResNet 50[19]和AlexNet[20]網(wǎng)絡進行對比,以驗證網(wǎng)絡對小麥秸稈表皮完整和破碎情況的分類效果,以期在生物質能源資源化利用領域,為小麥秸稈預處理技術的定量分析研究提供更高效和準確的判別手段。
選用由江蘇連云港聯(lián)豐農產(chǎn)品深加工廠提供的小麥植株為試驗原料,只取秸稈麥稈部分,去除麥穗,剪切為1 cm左右的秸稈段,自然晾曬。將晾曬后的秸稈隨機均分為2組,一組不進行后續(xù)處理,另一組采用最為廣泛使用的機械粉碎方式進行粉碎,獲得更細碎的秸稈材料(0.425~0.850 mm),該方式對秸稈的破碎作用較緩和[6],可有效驗證深度學習對秸稈表皮完整性的分類能力。
1.1.1 設備型號和拍攝條件采用日本電子株式會社研發(fā)的新一代超高分辨率的JSM-7800F場發(fā)射掃描電子顯微鏡,該電子顯微鏡配備了新開發(fā)的超級混合式物鏡,在保持極高的可操作性的同時,實現(xiàn)了低加速電壓下的高分辨率成像,電子源采用浸沒式肖特基場發(fā)射電子槍,能以大束流電流進行穩(wěn)定的分析。場發(fā)射掃描電子顯微鏡配有1個高位和1個低位共2個二次電子探測器;1個對中工作臺和一系列樣品架,可根據(jù)應用要求容納直徑高達100 mm,高度可及40 mm的樣品。系統(tǒng)加速電壓為0.01~30 kV,束流強度為1×10-13~2×10-9A,放大倍數(shù)為25~100 000倍。本研究設定觀察條件為:使用超級混合式物鏡和高位二次電子探測器,在15 kV的加速電壓下進行背散射電子成像。
1.1.2 試樣制備和圖像采集將黑色導電膠帶粘在樣品座上,分次把2組處理的小麥秸稈試樣隨機撒在上面,用洗耳球吹去粘住的秸稈,將試樣放入樣品艙后抽真空,調整試樣的距離、掃描的襯度,獲得放大500倍的圖像,通過計算機圖像顯示和記錄系統(tǒng)進行觀察和拍照,圖像模式為灰度模式,分辨率為640像素×480像素,圖像保存為JPG格式。
未經(jīng)粉碎和經(jīng)過粉碎的小麥秸稈分別采集432幅圖像,共計864幅圖像。本研究所用圖像數(shù)據(jù)集包含單獨秸稈和堆疊秸稈圖像,不同拍攝亮度、高度的秸稈圖像等多種復雜情況,保證了數(shù)據(jù)集的多樣性。小麥秸稈完整表皮與破損表皮的顯微圖像如圖1所示,圖中用黃色方框標出了小麥秸稈完整表皮上的硅質突起結構。在實際操作中,由于小麥秸稈的制樣過程會有樣品堆疊等情況,樣品艙的真空環(huán)境拍攝會產(chǎn)生漂移現(xiàn)象,影響拍攝的效率和成像品質。從圖1可見,2種處理條件下的小麥秸稈在掃描電鏡下的形態(tài)和外觀相近,肉眼區(qū)分困難,直接由分析人員進行主觀評價會導致對秸稈破碎程度的量化分析出現(xiàn)偏差。
圖1 小麥秸稈完整表皮(A)和破碎表皮(B)的顯微圖像Fig.1 Microscopic image of intact wheat straw epidermis(A)and broken wheat straw epidermis(B)
為了獲得大規(guī)模樣本集,防止網(wǎng)絡訓練過擬合,提高網(wǎng)絡的泛化能力,本研究通過數(shù)據(jù)增強的方式實現(xiàn)了數(shù)據(jù)集的擴展。對2種處理方式的小麥秸稈表皮顯微圖像依次進行了水平翻轉、垂直翻轉、水平垂直翻轉和添加方差為0.02的高斯噪聲處理,將864幅小麥秸稈的顯微圖像擴充為4 320幅圖像的數(shù)據(jù)集(表1),并按照6∶2∶2的比例將其分為訓練集、驗證集、測試集3部分,即:隨機將2種處理條件下的2 592幅圖像作為訓練集,864幅圖像作為驗證集,剩余864幅圖像作為測試集展開試驗。
表1 數(shù)據(jù)集圖像詳細信息Table 1 Details of the data set used in this research
2.1.1 GhostNet網(wǎng)絡模型輕量級的神經(jīng)網(wǎng)絡模型已應用在農業(yè)領域[21]。為了實現(xiàn)將該模型移植到常規(guī)硬件平臺或移動設備上使用的目的,本研究著重對輕量級的卷積神經(jīng)網(wǎng)絡進行了研究。GhostNet作為一種輕量級網(wǎng)絡模型,它采用一種新型的端側神經(jīng)網(wǎng)絡架構,使用線性運算代替部分卷積,相比于傳統(tǒng)的卷積,GhostNet分兩步進行,如圖2所示。GhostNet中引入了卷積運算與線性運算相結合的模塊。Ghost模塊采用普通的卷積首先生成少量的內在特征圖,然后利用線性運算來擴充特征,增加通道數(shù)。這些線性運算可用更少的參數(shù)來生成更多的特征圖,在不改變輸出特征圖大小的條件下,Ghost模塊中所需的參數(shù)總數(shù)和計算復雜度均低于普通CNN網(wǎng)絡[16]。該模塊中的線性操作具有較大的多樣性,不局限于先前有效架構中的深度卷積或移位操作。同時,Ghost模塊可實現(xiàn)識別和線性變化并行,保留固有的特征映射,在維持相似識別性能的同時降低通用卷積層的計算成本,有助于提升算力。
圖2 傳統(tǒng)卷積層(A)和輸出相同數(shù)量特征圖的Ghost模塊(B)Fig.2 Original convolutional layer(A)and the proposed Ghost module(B)for outputting the same number of feature mapsΦ1—Φk表示簡便運算。Φ1-Φk represents the cheap operation.
圖3 不同步長的Ghost瓶頸結構Fig.3 Ghost bottlenecks structure with different stride BN:批量歸一化Batch normal;ReLU:線性激活函數(shù)Rectified linear units.
GhostNet基于端側類殘差模塊(Ghost bottlenecks,G-bneck)構建,G-bneck包含2種Ghost模塊,圖3顯示了G-bneck的結構[22]。第1個Ghost模塊用作擴展層,增加了通道數(shù);第2個Ghost模塊減少通道數(shù),使其與直連(shortcut)路徑匹配。Shortcut用來連接這2個Ghost模塊的輸入和輸出。第2個Ghost模塊不使用線性激活函數(shù)(rectified linear units,ReLU),其他層在每層之后均應用了批量歸一化(batch normal,BN)和ReLU。上述G-bneck適用于步長(stride)為1的情況,對于步長為2的情況,Shortcut路徑由下采樣層和步長為2的深度卷積(depthwise convolution,Dw Conv)實現(xiàn)?;谛士紤],Ghost模塊中的初始卷積為點卷積。
GhostNet網(wǎng)絡的整體結構如表2所示。整個網(wǎng)絡主要由堆疊的G-bneck組成,其中G-bneck以Ghost模塊為基礎構建。第1層為具有16個卷積核的標準卷積層,隨后是一系列G-bneck,通道逐漸增加。G-bneck根據(jù)其輸入特征圖的大小分為不同的階段。每階段最后一個G-bneck 的步長為2,其他所有G-bneck的步長均為1。最后,利用全局平均池化層和卷積層將特征圖轉換為1 280維特征向量進行最終分類。某些G-bneck中的殘留層應用了擠壓與激發(fā)(squeeze-and-excitation,SE)模塊[23]。Conv2d為卷積層,AvgPool為平均池化層,FC(fully connected)為全連接層。
表2 GhostNet 網(wǎng)絡結構參數(shù)Table 2 GhostNet network parameters
原始特征圖輸入后,經(jīng)過16個G-bneck結構提取小麥秸稈顯微圖像特征,最后經(jīng)過FC層提取秸稈圖像的高維特征向量,該高維特征向量通過Softmax歸一函數(shù)得到置信度為[0,1]的向量,該置信度代表了該圖像被判別為完整與破損的概率。
2.1.2 GhostNet網(wǎng)絡模型的優(yōu)化1)遷移學習。對掃描電子顯微鏡拍攝到的2種不同處理條件下的小麥秸稈表皮顯微圖像進行分類,為加快訓練速度,使用GhostNet網(wǎng)絡在ImageNet數(shù)據(jù)集上預分類訓練得到的模型參數(shù),進行遷移學習[24]。加載預訓練模型后,模型參數(shù)在初始化時較接近實際特征提取參數(shù),使得模型訓練初始損失值低于未加載預訓練權重模型,較好地加快了模型的訓練時間。在加載模型時,凍結除FC層外的所有網(wǎng)絡權重,使這些層參數(shù)不更新,保證其權重不變,僅訓練FC層網(wǎng)絡參數(shù),讓網(wǎng)絡在學習過程中重點關注數(shù)據(jù)特征的分類,從而提升模型效果。2)Dropout層。當相對較大的模型用于較小的數(shù)據(jù)集時,通過通道隨機丟棄策略可以防止過擬合,并提高泛化能力[25]。為了提升網(wǎng)絡的分類準確率,在FC層前添加了Dropout層,并參照文獻[26]將Dropout率取為0.2,即在每次訓練中,在輸入FC層之前Dropout層按照隨即丟棄策略參數(shù)值0.2的比率隨機將輸入FC層的神經(jīng)元輸出結果設置為0,不讓其參與計算,達到緩解過擬合的效果。Dropout率過小,通常要求該層的神經(jīng)元個數(shù)較大,此時容易出現(xiàn)訓練震蕩,并且可能出現(xiàn)欠擬合,Dropout率過大可能導致正則化效果不夠[27]。3)交叉熵損失函數(shù)。損失函數(shù)用于評價模型訓練過程的精度,并用于更新梯度,是描述預測值與真實值差距的標準。分類模型中采用交叉熵函數(shù),即將兩類樣本視為同等重要[28]。本研究采用交叉熵損失(cross entropy loss,CEL)作為損失函數(shù)。
根據(jù)數(shù)據(jù)集的特點,具體的參數(shù)設置為:模型初始學習率為0.001,采用等間隔調整學習率的策略,間隔為200次訓練,設置調整倍數(shù)為0.1倍;數(shù)據(jù)集批樣本數(shù)量(batch size)設置為24;迭代次數(shù)(epoch)統(tǒng)一設置為1 000;輸出神經(jīng)元個數(shù)為2。訓練設備為GPU。
2.2.1 AlexNet網(wǎng)絡模型AlexNet網(wǎng)絡模型的優(yōu)勢在于,使用ReLU作為CNN的激活函數(shù),在訓練時使用Dropout隨機忽略一部分神經(jīng)元,避免模型過擬合。AlexNet網(wǎng)絡模型的結構如圖4所示,在隱含層中,AlexNet全部使用最大池化(max pooling),避免平均池化的模糊化效果[29]。
圖4 AlexNet網(wǎng)絡模型結構Fig.4 Structure of AlexNet
2.2.2 ShuffleNet V2網(wǎng)絡模型ShuffleNet V2網(wǎng)絡模型和GhostNet同屬于輕量級網(wǎng)絡模型。ShuffleNet V2的基本結構是基于殘差網(wǎng)絡的殘差結構,其核心采用了2種操作:分組卷積和通道打亂(channel shuffle),這2種操作在保持精確度的同時大大降低了模型的計算量[29]。如圖5所示,在每個單元的開始,輸入的特征通過通道分離(channel split)分成2個分支。一個分支進行同等映射,另一個分支由3個輸入和輸出通道數(shù)相同的卷積組成。卷積后,2個分支的輸出進行合并,保持輸出通道數(shù)和輸入通道數(shù)相同。隨后對2個分支合并的結果進行Channel Shuffle,使得2個分支的通道信息流通。這些操作的設計符合曠視科技提出的4種優(yōu)化準則[30],可大幅降低模型運行時間。
圖5 ShuffeNet V2的區(qū)塊結構Fig.5 ShuffleNet V2 block structure
圖6 ResNet 50殘差學習構建模塊Fig.6 Building block of residual learning of ResNet 50
2.2.3 ResNet 50網(wǎng)絡模型殘差網(wǎng)絡ResNet 50設計了一種殘差模塊以訓練更深的網(wǎng)絡。如圖6所示,殘差模塊在輸入和輸出之間建立了一個直接連接,這樣新增的層只需要在原來輸入層的基礎上學習新的特征,減少了學習難度,即殘差學習。利用殘差模塊,ResNet 50可以訓練152層的殘差網(wǎng)絡[31]。
采用PyTorch1.5.1深度學習框架,以Python3.8作為編程語言,在PyCharm平臺搭建模型。處理器型號為英特爾 Xeon E5-1620 v4,擁有四核八線程,最大頻率為3.5 GHz,顯卡為NVIDIA GeForce RTX 2080 Ti,內存32 G,Win10操作系統(tǒng)。
為評估訓練所得模型的檢測效果,選取準確率P值,損失函數(shù)L值作為深度學習的評價指標。P代表圖像分類的準確性,越接近于1表明分類結果越準確。L用來估量模型的輸出與真實值之間的差距,其值越接近0,模型輸出與真實值之間的差距越小。P值、L值的計算公式如下:
P=TP+TN/(TP+TN+FP+FN)
(1)
L=-[ylogy′+(1-y)log(1-y′)]
(2)
式中:TP表示被正確分類的正例樣本數(shù)量;TN表示被正確分類的負例樣本數(shù)量;FP表示被錯誤分類的負例樣本數(shù)量;FN表示被錯誤分類的正例樣本數(shù)量。y為真值,y′為估計值。
在本研究中,P值表示小麥秸稈表皮顯微圖像被正確分類的個數(shù)在所識別樣本中所占比率,它分為訓練集準確率和測試集準確率。訓練集準確率用于模型訓練階段,對模型參數(shù)進行評估。測試集準確率用于評判訓練完的模型性能,評估模型泛化能力。訓練集的P值越高,表明訓練所得模型參數(shù)設置越合理;測試集的P值越高,表明分類效果越好。
將掃描電子顯微鏡拍攝的小麥秸稈表皮顯微圖像作為數(shù)據(jù)集,選取改進后的GhostNet、ShuffleNet V2、AlexNet和ResNet 50這4種CNN模型。其中,AlexNet代表早期層數(shù)較少的CNN模型,ResNet 50代表有深層網(wǎng)絡的CNN模型,ShuffleNet V2網(wǎng)絡模型與本網(wǎng)絡模型同為輕量級CNN模型。本研究將改進后的網(wǎng)絡模型與上述3個模型進行比較,以驗證本輕量型網(wǎng)絡的檢測效果。最終將4種網(wǎng)絡模型按照同樣的初始學習率、初始動量因子、初始隨機參數(shù)設置等模型訓練參數(shù)應用在所選數(shù)據(jù)集上,對小麥秸稈表皮顯微圖像進行分類。為提升模型訓練時間,4種模型均采用了遷移學習策略。
試驗結果顯示,4個模型訓練過程的P值接近1,均在86.6%以上。表明4種CNN模型可成功實現(xiàn)對小麥秸稈表皮顯微圖像的分類功能。但4種不同的網(wǎng)絡模型之間存在差異,具體如表3所示。從訓練結果上看,改進后的GhostNet、ResNet 50和AlexNet網(wǎng)絡模型訓練集的P值均為99.9%,表明這3個模型的參數(shù)設置合適,ShuffleNet V2網(wǎng)絡模型訓練集的P值為89.2%,說明該模型的學習能力不足。
從4種模型在驗證集上的P值來看,改進后的GhostNet可達到99.2%的準確分類,P值最高,與ShuffleNet V2、ResNet 50和AlexNet模型相比,驗證集P值分別提高了14.55%、3.66%和3.44%。
表3 不同模型的訓練結果Table 3 Training results of different models
圖7展示了不同算法的P值和L值曲線。從P值曲線來看,4種模型的精確率上升曲線均較為平滑,波動較小。改進后的GhostNet、ResNet 50和AlexNet的測試集曲線在前100次迭代中波動稍大,其中,改進后的GhostNet模型P值最先趨于穩(wěn)定,且該模型的P值整體提升最快。ShuffleNet V2模型的準確率在迭代后期的波動高于其他3個模型,其不穩(wěn)定性最高。從L值曲線可知,4種模型均可快速收斂。改進后的GhostNet和AlexNet的L值較小,表明在本研究對小麥秸稈表皮顯微圖像的分類任務中,這2個模型經(jīng)過參數(shù)迭代自動優(yōu)化后更適合小麥秸稈顯微圖像的分類。
圖7 不同算法模型的P值(A)和L值(B)變化Fig.7 Changes of P value(A)and L value(B)of different models
為了驗證算法的有效性,分別就圖像亮度和高斯噪聲對模型分類效果的影響進行了分析。
圖8 小麥秸稈完整表皮在明(A)和暗(B)2種亮度下的顯微圖像Fig.8 Micrographs of intact epidermis on wheat straw with bright(A)and dark(B)two kinds of brightness
3.2.1 圖像亮度對算法準確率的影響在人工對秸稈表皮完整性與否進行分類的任務中,成像較暗的圖像會極大地增加人工檢測時間,降低檢測準確率。圖8展示了小麥秸稈完整表皮在不同亮度下的顯微圖像,可見亮度降低會明顯增加研究人員的分析時間,降低分類準確率。
采用4種模型對顯微圖像的明亮度進行了測試,從試驗結果表4可見:P值在不同網(wǎng)絡模型中的高低排序和全集數(shù)據(jù)集P值一致,最大P值仍出現(xiàn)在改進后的GhostNet模型上,高于98.65%。同一網(wǎng)絡模型對亮圖像的分類P值略高于對暗圖像的分類P值,最大差異出現(xiàn)在AlexNet網(wǎng)絡模型上,亮圖像數(shù)據(jù)集P值比暗圖像數(shù)據(jù)集P值高了3.77%。不同模型對亮圖像的分類時間均快于暗圖像,ResNet 50在2類圖像的識別和分類上所用時間僅相差0.59 ms。微弱的P值差異和分類時間差異表明,GhostNet模型對不同亮度的顯微圖像均具有良好的魯棒性。
表4 不同亮度圖像數(shù)據(jù)集上的P值Table 4 P value for test results with different brightness
3.2.2 噪聲處理對準確率的影響考慮到實際環(huán)境,受拍攝顯微圖像儀器設備的影響,拍攝過程的樣品艙中可能存在漂移等影響圖像清晰度的狀況,會得到較模糊的顯微圖像。
為了驗證所選4種模型對模糊圖像的識別和分類能力,在訓練集模型的基礎上,對高斯噪聲、泊松噪聲和椒鹽噪聲處理后的圖像數(shù)據(jù)集進行了測試,可見其畫質不清晰,增加了識別和分類的難度(圖9)。測試后的P值如表5所示。不同噪聲對測試集P值影響不同,ShuffleNet V2模型對噪聲最敏感,下降幅度最大為7.05%,改進后的GhostNet模型和ResNet 50、AlexNet模型在不同噪聲處理后的數(shù)據(jù)集上P值僅有微弱的差異,最大差異分別為0.60%、3.03%和1.83%,表明網(wǎng)絡模型對于顯微圖像數(shù)據(jù)集有較好的調節(jié)能力。GhostNet模型的P值達到96.53%,更適合小麥秸稈表皮顯微圖像數(shù)據(jù)集的完整性分類。
圖9 噪聲處理前、后小麥秸稈表皮顯微圖像Fig.9 Micrographs of wheat straw epidermis before and after noiseA.原始顯微圖像;B. 高斯噪聲處理后的顯微圖像;C. 泊松噪聲處理后的顯微圖像;D. 椒鹽噪聲處理后的顯微圖像。A. Raw micrograph;B. Gaussian processed micrograph;C. Poisson processed micrograph;D. Salt & Pepper processed micrograph.
為進一步驗證改進后GhostNet網(wǎng)絡模型的魯棒性,對數(shù)據(jù)集添加了不同方差數(shù)值的高斯噪聲,模型的P值如圖10所示。從圖10可看出,隨著高斯噪聲的方差逐漸增加,模型分類的準確率下降。方差小于0.06時,模型的準確率從96.53%緩慢下降至93.64%,表現(xiàn)出對圖像較好的分類能力。當高斯噪聲的方差大于0.06時,模型的分類準確率從93.64%下降至78.03%。
表5 噪聲處理數(shù)據(jù)集上的P值Table 5 P value for test results after noise processing %
圖10 GhostNet模型在不同方差高斯噪聲處理數(shù)據(jù)集上的P值Fig.10 P values of GhostNet model on Gaussian noise datasets with different variances
當方差加到0.06時,圖像的模糊程度已經(jīng)超過了實際拍攝中會遇到的模糊程度(圖11),其分類的準確率為93.64%,能夠實現(xiàn)對圖像的分類任務。綜合來看,改進后的模型可準確完成圖像的分類功能,并且在實際應用中有較強的適應能力。
3.2.3 運行時間從表4可知,ShuffleNet V2、ResNet 50和AlexNet網(wǎng)絡模型用時基本無差別,改進后的GhostNet模型一代訓練用時為25.71 s,耗時最長,分別比ShuffleNet V2、ResNet 50和AlexNet慢了5.03、4.58和5.23 s。這一結果可能是因為GhostNet模型較深導致的。但該模型所能達到的準確率最高,對目標分類效果更好。
圖11 高斯噪聲處理前、后小麥秸稈表皮顯微圖像Fig.11 Micrograph of wheat straw epidermis before and after Gaussian noiseA.原始顯微圖像;B—F依次是方差為0.02、0.04、0.06、0.08和0.10高斯噪聲處理后的顯微圖像。A. Raw micrograph;B-F. Gaussian with a variance of 0.02,0.04,0.06,0.08 and 0.10 micrograph.
3.2.4 權重文件大小由表3結果可知,2個輕量級網(wǎng)絡模型ShuffleNet V2和GhostNet具有較小的權重大小。ShuffleNet V2的權重僅為ResNet 50權重的5.53%,不到AlexNet權重的2.3%。GhostNet的權重約為ResNet 50權重的16.78%,為AlexNet權重的6.96%。較低的權重文件大小可確保普通的計算機設備有足夠的存儲空間來構建CNN模型,便于模型向嵌入式設備進行移植使用。
為實現(xiàn)小麥秸稈表皮顯微圖像的完整性分類,提出了一種基于改進GhostNet模型的小麥秸稈表皮完整性分類方法,主要結論如下:
1)4 320幅數(shù)據(jù)集圖像的測試結果表明,改進后的GhostNet模型準確率最高,可達到99.2%。與ShuffleNet V2、ResNet 50、AlexNet模型相比分別提高了14.55%、3.66%和3.44%,表明改進后的GhostNet模型更適用于小麥秸稈表皮完整性分類。
2)改進后的GhostNet模型在不同亮暗圖像數(shù)據(jù)集和高斯噪聲處理后的數(shù)據(jù)集的準確率在4種模型中最高,表明該方法對不同干擾因素的顯微圖像有良好的魯棒性。
3)該模型的一代訓練時長為25.71 s,平均高出其他3種模型4.95%。權重約為ResNet 50和AlexNet的16.78%和6.96%,略高于ShuffleNet V2。
由于需求場景不同,本研究綜合考慮以上要素后認為,GhostNet網(wǎng)絡模型更適合用于小麥秸稈表皮顯微圖像數(shù)據(jù)集的分類。未來將繼續(xù)進行模型的優(yōu)化研究,進一步提高模型的檢測速度,降低權重。