亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于輕量級(jí)神經(jīng)網(wǎng)絡(luò)的農(nóng)作物病害識(shí)別算法

        2021-06-07 06:13:30洪惠群黃風(fēng)華
        關(guān)鍵詞:深度模型

        洪惠群,黃風(fēng)華

        (陽(yáng)光學(xué)院 人工智能學(xué)院/空間數(shù)據(jù)挖掘與應(yīng)用福建省高校工程研究中心,福州350015)

        大多數(shù)農(nóng)作物病害在可見(jiàn)光波段會(huì)產(chǎn)生某些可見(jiàn)癥狀,為人工診斷提供可行性[1]。隨著圖像處理技術(shù)的發(fā)展,基于深度學(xué)習(xí)的圖像分析技術(shù)常被用于農(nóng)作物葉片病害檢測(cè)[2],相較于化學(xué)病害檢測(cè),它能更早地對(duì)早期病害特征進(jìn)行監(jiān)測(cè),避免對(duì)被測(cè)農(nóng)作物造成不可逆轉(zhuǎn)的破壞[2],減少農(nóng)藥使用[3],利于精準(zhǔn)農(nóng)業(yè)的發(fā)展。與傳統(tǒng)圖像識(shí)別技術(shù)[4-5]相比,將深度學(xué)習(xí)網(wǎng)絡(luò)[6-10]運(yùn)用在農(nóng)作物病害檢測(cè)準(zhǔn)確性更好,但存儲(chǔ)計(jì)算開(kāi)銷巨大,使其在低功耗領(lǐng)域的應(yīng)用嚴(yán)重受限。如何解決深度學(xué)習(xí)網(wǎng)絡(luò)部署時(shí)移動(dòng)設(shè)備的計(jì)算資源緊張[11-14]的技術(shù)瓶頸?主要采取將深度學(xué)習(xí)模型部署在服務(wù)器端,返回服務(wù)器計(jì)算結(jié)果給移動(dòng)設(shè)備[15]和精簡(jiǎn)模型,減少深度學(xué)習(xí)網(wǎng)絡(luò)參數(shù)量[11]兩種方法。后者不依賴網(wǎng)絡(luò)環(huán)境,實(shí)時(shí)處理效果較好,但準(zhǔn)確度相較前者有所降低。為保證深度學(xué)習(xí)模型能正常運(yùn)行在移動(dòng)端,且準(zhǔn)確度不大幅丟失,研究人員研究了專門用于移動(dòng)端設(shè)備的輕量級(jí)神經(jīng)網(wǎng)絡(luò)[16-19]。本研究根據(jù)需要對(duì)比了多種輕量級(jí)網(wǎng)絡(luò)[16-19]在移動(dòng)端識(shí)別農(nóng)作物病害的表現(xiàn)。

        1 輕量級(jí)深度學(xué)習(xí)算法簡(jiǎn)介

        1.1 ShuffleNet V1和V2網(wǎng)絡(luò)

        ShuffleNet V1[19]是基于逐點(diǎn)組卷積和通道混合構(gòu)建的。圖1 給出了ShuffleNet V1 單元的可視化表示,每個(gè)單元都是由Group Convolution(GConv)、Channel Shuffle和Shuffle Net單元3個(gè)基本操作[19]。

        圖1 ShuffleNet V1單元示意圖Figure 1 ShuffleNet V1 unit

        與AlexNet 網(wǎng)絡(luò)、ResNet 網(wǎng)絡(luò)等的其他單元相比,ShuffleNet V1 單元通常具有比較少的計(jì)算量,如:ShuffleNet V1 0.5x 僅用40MFLOPs 的計(jì)算復(fù)雜度,就達(dá)到了AlexNet 720MFLOPs的性能[19]。

        ShuffleNet V2[20]是改進(jìn)版本,在文獻(xiàn)[20]中,作者提出“設(shè)計(jì)一個(gè)高效網(wǎng)絡(luò)架構(gòu),僅用計(jì)算復(fù)雜度來(lái)衡量是不夠的,要遵循的 G1-G4 的 4 個(gè)準(zhǔn)則”[20]。ShuffleNet V1 網(wǎng)絡(luò)違反其中G1 G2 準(zhǔn)則。因此,作者提出了利用通道分割的操作,構(gòu)建ShuffleNet V2 網(wǎng)絡(luò),其單元如圖2。圖2a 在每個(gè)單元的開(kāi)始,c 特征通道的輸入被分為c-c'通道和c'通道兩支[20],其中一個(gè)分支保持不變,另一個(gè)分支由3個(gè)卷積組成,令輸入和輸出通道相同以滿足G1準(zhǔn)則。此外,圖中兩個(gè)1×1 卷積,不再是組卷積,因?yàn)橐淹ㄟ^(guò)分割操作產(chǎn)生兩個(gè)組。卷積之后,把兩個(gè)分支串聯(lián)起來(lái),可以使得通道數(shù)量保持不變,并通過(guò)通道混洗,使兩個(gè)分支間,能進(jìn)行信息交流?;煜粗螅乱粋€(gè)單元開(kāi)始運(yùn)算。

        空間下采樣單元(圖2b),將通道分割運(yùn)算進(jìn)行移除,使得輸出通道數(shù)量翻倍。ShuffleNet V2 網(wǎng)絡(luò)遵循G1-G4 四個(gè)準(zhǔn)則,因此架構(gòu)設(shè)計(jì)十分高效[20]。本設(shè)計(jì)的ShuffleNet V2的網(wǎng)絡(luò)結(jié)構(gòu)圖如表1。

        圖2 ShufflenetV2 的模塊Figure 2 Building blocks of ShuffleNet V2 [20]

        1.2 ReLU激活函數(shù)和LeakyReLU激活函數(shù)

        ReLU激活函數(shù)是指修正線性單元,只有輸入超出閾值時(shí),ReLU的神經(jīng)元才激活,并且當(dāng)輸入為正的時(shí),導(dǎo)數(shù)不為零,因此允許基于梯度的學(xué)習(xí)。相比Sigmoid/tanh 函數(shù),ReLU 激活函數(shù)收斂速度更快。可是,當(dāng)輸入為負(fù)值的時(shí)候,ReLU激活函數(shù)的學(xué)習(xí)速度可能就會(huì)變得很慢,甚至使神經(jīng)元直接無(wú)效,因?yàn)榇藭r(shí)輸入為負(fù)值而梯度為零,從而使得其權(quán)重?zé)o法更新。為解決上述問(wèn)題,引入帶泄露修正線性單元函數(shù),即Leaky ReLU 函數(shù)。該函數(shù)是在ReLU函數(shù)的負(fù)值區(qū)間,引入一個(gè)泄露值(Leaky值),是ReLU函數(shù)的變體。Leaky ReLU 函數(shù)輸出對(duì)負(fù)值輸入有很小的坡度,因此導(dǎo)數(shù)總是不為零,能減少靜默神經(jīng)元的出現(xiàn),可以允許基于梯度的學(xué)習(xí)。Leaky Re-LU函數(shù)數(shù)學(xué)表達(dá)式為:

        表1 Shufflenet V2的網(wǎng)絡(luò)結(jié)構(gòu)Table 1 Overall architecture of ShuffleNet V2

        式中:ai為(1,+∞)區(qū)間內(nèi)的固定參數(shù);xi為輸入;yi為輸出。

        本研究通過(guò)對(duì)多種網(wǎng)絡(luò)結(jié)構(gòu)的遷移學(xué)習(xí),研究如何利用輕量級(jí)深度學(xué)習(xí)網(wǎng)絡(luò)提取農(nóng)作物圖片病害特征,實(shí)現(xiàn)對(duì)葉片病害圖像的精準(zhǔn)識(shí)別,最后將輕量級(jí)深度學(xué)習(xí)網(wǎng)絡(luò)ShuffleNet V2 0.5x移植到移動(dòng)設(shè)備端。

        2 農(nóng)作物葉片病害圖片數(shù)據(jù)集

        2.1 數(shù)據(jù)集來(lái)源

        本研究中病害數(shù)據(jù)集大部分是從AI Challenger 2018競(jìng)賽數(shù)據(jù)集獲取,按照物種、病害程度來(lái)分類,剔除兩個(gè)小樣本分類,合計(jì)有59個(gè)分類,10個(gè)物種,26種病害,共45284幅植物葉片圖像。為對(duì)比分析,將其中的番茄樣本(9種病害),共計(jì)13112張,另外抽出來(lái)做對(duì)比數(shù)據(jù)集。識(shí)別過(guò)程中,系統(tǒng)將數(shù)據(jù)集隨機(jī)分為訓(xùn)練數(shù)據(jù)集和驗(yàn)證數(shù)據(jù)集。每張圖中主要位置為一片葉子,背景單一。數(shù)據(jù)集中的部分病害葉片如圖3。

        2.2 數(shù)據(jù)預(yù)處理

        目前,大多數(shù)農(nóng)作物病害識(shí)別的研究都是基于深度學(xué)習(xí)進(jìn)行的,需要大量的數(shù)據(jù)樣本(大數(shù)據(jù)集)進(jìn)行訓(xùn)練、驗(yàn)證,屬于高密集計(jì)算量的算法,對(duì)硬件資源要求高,農(nóng)作物病害種類比較多,而每一種病在同一個(gè)場(chǎng)景下能獲得的典型圖像數(shù)據(jù)卻不多,也就是小數(shù)據(jù)集,在無(wú)法收集到大量數(shù)據(jù)樣本的情況下,課題組利用遷移學(xué)習(xí)方法,對(duì)大的數(shù)據(jù)集進(jìn)行分類預(yù)訓(xùn)練,然后微調(diào)參數(shù)使之適合農(nóng)作物病害種類的識(shí)別,并通過(guò)對(duì)原始圖像數(shù)據(jù)進(jìn)行圖像增強(qiáng),擴(kuò)充農(nóng)作物數(shù)據(jù)集,彌補(bǔ)訓(xùn)練數(shù)據(jù)不足,提高識(shí)別準(zhǔn)確率。

        本研究采用旋轉(zhuǎn)、翻轉(zhuǎn)、模糊、光線變換、隨機(jī)裁剪、疊加噪聲等方法對(duì)訓(xùn)練集數(shù)據(jù)進(jìn)行擴(kuò)充,增加數(shù)據(jù)的多樣性,減少訓(xùn)練階段的過(guò)度擬合,以提升網(wǎng)絡(luò)模型的泛化能力。由于原始圖像大小不同,可能含有冗余信息,不利于農(nóng)作物病害的分類。本研究將葉片的圖像樣本歸一化為224*224*3 像素,并將處理后的圖像去均值。擴(kuò)充后數(shù)據(jù)集有了顯著的增加。以其中的番茄病害數(shù)據(jù)為例,擴(kuò)充數(shù)據(jù)前,訓(xùn)練數(shù)據(jù)集共計(jì)包含13112幅圖像,擴(kuò)充后的數(shù)據(jù)集大小為41263張圖像。算法模型使用圖像增強(qiáng)后的圖像數(shù)據(jù)集對(duì)模型進(jìn)行訓(xùn)練。

        圖3 農(nóng)作物葉片病害圖像示例Figure 3 Example of crop leaf disease symptoms

        3 試驗(yàn)結(jié)果與分析

        3.1 訓(xùn)練及驗(yàn)證過(guò)程

        本研究是在pycharm 平臺(tái)下選用Python語(yǔ)言開(kāi)發(fā)的,先使用ImageNet大數(shù)據(jù)集進(jìn)行網(wǎng)絡(luò)預(yù)訓(xùn)練,對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行優(yōu)化,隨后將收集到的農(nóng)作物病害圖像數(shù)據(jù)集,隨機(jī)分為訓(xùn)練數(shù)據(jù)集、驗(yàn)證數(shù)據(jù)集,并進(jìn)行圖像預(yù)處理,接著把訓(xùn)練數(shù)據(jù)集、驗(yàn)證數(shù)據(jù)集分別送到各個(gè)預(yù)訓(xùn)練的深度學(xué)習(xí)網(wǎng)絡(luò),進(jìn)行訓(xùn)練、驗(yàn)證、優(yōu)化,使網(wǎng)絡(luò)模型能夠更有效地識(shí)別出農(nóng)作物病害,并達(dá)到較高的準(zhǔn)確率,對(duì)比分析Xception、MobileNet V2、ShuffleNet V1 以及ShuffleNet V2等網(wǎng)絡(luò)。系統(tǒng)總體框圖如圖4。本研究中,基于Shuffle Net V2網(wǎng)絡(luò)的農(nóng)作物病害識(shí)別流程如圖5。分別采用ReLU 和LeakyReLU 激活函數(shù)進(jìn)行ShuffleNet V2 網(wǎng)絡(luò)模型的構(gòu)建及對(duì)比,利用模型遷移完成ShuffleNet V2模型訓(xùn)練及優(yōu)化。

        圖4 系統(tǒng)總體框架Figure 4 Overall framework of the system

        圖5 基于ShuffleNetV2網(wǎng)絡(luò)的農(nóng)作物病害識(shí)別流程Figure 5 The process of crop disease identification based on ShuffleNet V2 network

        3.2 模型結(jié)果比較

        綜合考慮目前安卓手機(jī)的性能水平和不同規(guī)模下、不同網(wǎng)絡(luò)的計(jì)算復(fù)雜度,本研究通過(guò)對(duì)比了ShuffleNet V1 網(wǎng)絡(luò)、ShuffleNet V2 網(wǎng)絡(luò)、MobileNet V2 網(wǎng)絡(luò)、Xception 網(wǎng)絡(luò),在不同規(guī)模的計(jì)算復(fù)雜度、訓(xùn)練準(zhǔn)確率、訓(xùn)練損失率和運(yùn)算速度(表2)。為了更好地比較,結(jié)果按照計(jì)算的復(fù)雜性級(jí)別分組,圖像尺寸為224*224,GPU批處理大小選擇8,ARM批處理大小選擇1。由表2可知,Xception 1x在圖像識(shí)別方面的表現(xiàn)不錯(cuò),ShuffleNet V1 0.5x(g=3)計(jì)算復(fù)雜度最小,同時(shí),訓(xùn)練準(zhǔn)確率相對(duì)較好,ShuffleNet V2 0.5x網(wǎng)絡(luò)表現(xiàn)相對(duì)不錯(cuò),計(jì)算復(fù)雜度也比較小。與ShuffleNet V1 0.5x(g=3)相比,ShuffleNet V2 0.5x 模型在ARM 上的表現(xiàn)稍好,因此,本研究將對(duì)ShuffleNet V2 0.5x 模型進(jìn)行移植。MobileNet V2 0.6 網(wǎng)絡(luò)在ARM 的表現(xiàn)相對(duì)比較不好??傮w上各個(gè)網(wǎng)絡(luò)的識(shí)別準(zhǔn)確率還有待提高,這其中跟數(shù)據(jù)集也有很大的關(guān)系,部分分類的訓(xùn)練數(shù)據(jù)量不夠,后續(xù)將繼續(xù)優(yōu)化完善數(shù)據(jù)集。

        表2 幾種網(wǎng)絡(luò)的計(jì)算復(fù)雜度、準(zhǔn)確率、損失率及速度對(duì)比Table 2 Comparison of several network architectures over computing complexity, accuracy,loss rate and speed(the image size is 224 × 224)

        為驗(yàn)證分類準(zhǔn)確率和數(shù)據(jù)集的關(guān)系,更好地進(jìn)行對(duì)比分析,將其中的番茄樣本抽出來(lái)做對(duì)比數(shù)據(jù)集。由表3 可知,不同數(shù)據(jù)集進(jìn)行模型訓(xùn)練時(shí),準(zhǔn)確率不大一樣,其中,項(xiàng)目組對(duì)番茄病害數(shù)據(jù)集進(jìn)行整理,使得每個(gè)分類圖片數(shù)量比較均勻,相較于全部病害的數(shù)據(jù)集,準(zhǔn)確率有所上升。同時(shí),本研究通過(guò)多次試驗(yàn)發(fā)現(xiàn),物種的類型和疾病種類的識(shí)別準(zhǔn)確率比較高,疾病的嚴(yán)重程度的識(shí)別準(zhǔn)確率相對(duì)較低,說(shuō)明分類錯(cuò)誤的部分原因是由于病害的嚴(yán)重程度難以區(qū)分。

        3.3 模型的改進(jìn)方案

        多種網(wǎng)絡(luò)比較后,針對(duì)選用的ShuffleNet V2 0.5x 模型,筆者進(jìn)行了改進(jìn)。對(duì)比了LeakyReLU 激活函數(shù)和ReLU 激活函數(shù)在模型中的表現(xiàn)后,發(fā)現(xiàn)LeakyReLU 激活函數(shù)能改進(jìn)當(dāng)輸入為負(fù)值時(shí),ReLU 函數(shù)的缺陷,并進(jìn)行相應(yīng)的測(cè)試。由于在深度學(xué)習(xí)中,對(duì)數(shù)據(jù)集的要求通常是數(shù)量龐大的、質(zhì)量高的,且有標(biāo)簽,自采集的數(shù)據(jù)集,由于受到人力、物力的影響,往往達(dá)不到要求。因此,本研究利用遷移學(xué)習(xí)技術(shù),在Image Net 數(shù)據(jù)集上預(yù)先進(jìn)行預(yù)訓(xùn)練,以解決上述問(wèn)題。在遷移學(xué)習(xí)中,將網(wǎng)絡(luò)參數(shù)前面幾層進(jìn)行固定,最后一層進(jìn)行微調(diào),以改善因數(shù)據(jù)集不大造成的模型過(guò)擬合問(wèn)題,并在驗(yàn)證集上進(jìn)行驗(yàn)證,得到了較好的準(zhǔn)確率。預(yù)訓(xùn)練后,在自有數(shù)據(jù)集上分別采用不同的激活函數(shù)進(jìn)行訓(xùn)練。通過(guò)對(duì)比Leaky ReLU 激活函數(shù)和ReLU 激活函數(shù),在ShuffleNetV2模型上的表現(xiàn),發(fā)現(xiàn)采用Leaky Re-LU 激活函數(shù)能較好地解決部分落到硬飽和區(qū)的輸入的對(duì)應(yīng)權(quán)重?zé)o法更新的問(wèn)題。在自有數(shù)據(jù)集上進(jìn)行訓(xùn)練,采用不同激活函數(shù)的訓(xùn)練集與驗(yàn)證集的準(zhǔn)確度如圖6。由圖6 可知,當(dāng)模型采用ReLU 激活函數(shù),驗(yàn)證集的識(shí)別準(zhǔn)確度是85.6%,訓(xùn)練集的識(shí)別準(zhǔn)確度是84.8%,而當(dāng)模型采用Leaky ReLU 激活函數(shù),訓(xùn)練集的識(shí)別準(zhǔn)確度是86.5%,驗(yàn)證集的準(zhǔn)確度是85.1%。因此,在ShuffleNet V2 網(wǎng)絡(luò)結(jié)構(gòu)不發(fā)生改變的情況下,選用Leaky ReLU 激活函數(shù),可在稍微提高了網(wǎng)絡(luò)模型的準(zhǔn)確度。

        表3 兩個(gè)數(shù)據(jù)集在不同網(wǎng)絡(luò)下的準(zhǔn)確率Table 3 Accuracy of the two data sets in different networks

        圖6 不同激活函數(shù)下的訓(xùn)練集與驗(yàn)證集的準(zhǔn)確度Figure 6 Accuracy of training sets and verification sets under different activation functions

        4 討論與結(jié)論

        傳統(tǒng)的農(nóng)作物病害識(shí)別主要依賴專業(yè)人員進(jìn)行判斷或化學(xué)檢測(cè)[1-3,7],耗時(shí)長(zhǎng),成本高,無(wú)法廣泛推廣,基于圖像處理的農(nóng)作物病害識(shí)別[4-10]可以實(shí)時(shí)對(duì)早期病害特征進(jìn)行監(jiān)測(cè),并能廣泛推廣,避免對(duì)被測(cè)農(nóng)作物造成不可逆轉(zhuǎn)的破壞,利于精準(zhǔn)農(nóng)業(yè)的發(fā)展?;趫D像處理的農(nóng)作物病害識(shí)別分為基于傳統(tǒng)圖像識(shí)別技術(shù)[4-5]和基于深度學(xué)習(xí)的圖像識(shí)別技術(shù)[6-10],其中,后者準(zhǔn)確率更高,但對(duì)計(jì)算機(jī)資源要求較高。為更廣泛地幫助農(nóng)民朋友進(jìn)行農(nóng)作物病害監(jiān)測(cè),需要將深度學(xué)習(xí)網(wǎng)絡(luò)部署在手機(jī)端上,解決移動(dòng)端資源有限與深度學(xué)習(xí)網(wǎng)絡(luò)所需資源巨大的矛盾。目前,主要采取將深度學(xué)習(xí)模型部署在服務(wù)器端,返回服務(wù)器計(jì)算結(jié)果給移動(dòng)設(shè)備[15]和精簡(jiǎn)模型,減少深度學(xué)習(xí)網(wǎng)絡(luò)參數(shù)量[11]兩種方法,后者不依賴網(wǎng)絡(luò)環(huán)境,實(shí)時(shí)處理效果較好。因此,本研究采用精簡(jiǎn)模型,減少深度學(xué)習(xí)網(wǎng)絡(luò)參數(shù)量的方法,即輕量級(jí)別級(jí)深層神經(jīng)網(wǎng)絡(luò)進(jìn)行研究。

        本研究結(jié)果表明,使用ShuffleNet V2 0.5x網(wǎng)絡(luò)可以較為快速有效地對(duì)多種作物葉片的病害類型進(jìn)行分類。在識(shí)別過(guò)程中,物種的類型和疾病種類的識(shí)別準(zhǔn)確率比較高,疾病的嚴(yán)重程度的識(shí)別準(zhǔn)確率較低。不同數(shù)據(jù)集對(duì)訓(xùn)練過(guò)程稍有影響,可通過(guò)數(shù)據(jù)擴(kuò)充來(lái)提高模型訓(xùn)練的效率。通過(guò)對(duì)比Leaky ReLU 和ReLU 激活函數(shù)在ShuffleNetV2 模型上的表現(xiàn),發(fā)現(xiàn)采用Leaky ReLU 激活函數(shù)能較好地解決部分落到硬飽和區(qū)的輸入的對(duì)應(yīng)權(quán)重?zé)o法更新的問(wèn)題,并稍微提高識(shí)別的準(zhǔn)確率由原來(lái)的85.6%提高到86.5%。

        猜你喜歡
        深度模型
        一半模型
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        深度觀察
        深度觀察
        深度觀察
        深度觀察
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        色综合久久久久久久久久| 国产精品理人伦国色天香一区二区| 国产免费看网站v片不遮挡| 国产免费一级在线观看| 国产精品久久这里只有精品| 中文字幕日本五十路熟女| 亚洲av综合国产av日韩| 欧美大屁股xxxx| 日本动态120秒免费| 成人国产乱对白在线观看| 小池里奈第一部av在线观看| 无码人妻一区二区三区兔费| 久久综合精品国产丝袜长腿| 天堂AV无码AV毛片毛| 五月激情四射开心久久久| 一本丁香综合久久久久不卡网站| 国产成人无码a区在线观看视频| 国内精品九九久久久精品| 久久久2019精品视频中文字幕| 偷拍综合在线视频二区日韩| 欧美日韩国产精品自在自线| 欧美乱妇日本无乱码特黄大片| 在线观看日韩精品视频网站| 男女无遮挡高清性视频| 国产国拍精品av在线观看按摩| 色www亚洲| 日本不卡不二三区在线看 | 久久久精品人妻一区二区三区免费| 日韩精品高清不卡一区二区三区 | 美女一区二区三区在线观看视频| 亚洲精品成人一区二区三区| 国产色系视频在线观看| 中国精学生妹品射精久久| 99久久久精品国产性黑人| 亚洲av毛片在线免费观看| 亚洲熟女www一区二区三区 | 亚洲国产一区二区av| 午夜精品射精入后重之免费观看| 国产精品美女久久久久久2018| 91青青草免费在线视频| 国产激情视频在线观看大全|