鄒瑋,岳延濱*,馮恩英,彭順正,張愛民,肖玖軍
基于YOLO v2的辣椒葉部蚜蟲圖像識別
鄒瑋1,岳延濱1*,馮恩英1,彭順正1,張愛民2,肖玖軍3
1. 貴州省農(nóng)業(yè)科技信息研究所, 貴州 貴陽 550006 2. 貴州省辣椒研究所, 貴州 貴陽 550006 3 貴州省山地資源研究所, 貴陽 550006
針對傳統(tǒng)辣椒蚜蟲識別精度不高、研究較少等問題,本研究一種基于YOLO v2的辣椒蚜蟲圖像識別方法,準(zhǔn)確定位蚜蟲位置,識別兩種不同類型蚜蟲,并探究不同網(wǎng)絡(luò)深度對模型性能的影響。首先YOLO v2目標(biāo)檢測網(wǎng)絡(luò)與Resnet50網(wǎng)絡(luò)六種不同深度卷積結(jié)構(gòu)相融合,構(gòu)建辣椒蚜蟲識別模型,然后利用預(yù)測框生成算法設(shè)置候選框參數(shù),對六種模型進(jìn)行訓(xùn)練,根據(jù)訓(xùn)練結(jié)果設(shè)計(jì)辣椒蚜蟲識別系統(tǒng)。在驗(yàn)證集上進(jìn)行對比試驗(yàn),結(jié)果表明Resnet-22模型對辣椒葉部蚜蟲識別精度最高,平均識別準(zhǔn)確率為96.49%,其中黃色蚜蟲識別準(zhǔn)確率為98.70%,綠色蚜蟲識別準(zhǔn)確率為94.27%,識別時(shí)間為0.129 s。Resnet-22模型具有較強(qiáng)的魯棒性,為實(shí)現(xiàn)田間復(fù)雜背景下辣椒蚜蟲識別奠定基礎(chǔ)。
辣椒; 蚜蟲; 圖像識別
目前我國辣椒常年種植面積約為214.4多萬hm2,是我國種植面積最大的蔬菜作物之一,栽培面積和總產(chǎn)量居世界首位[1]。由于受天氣、土壤和防治技術(shù)等因素的影響,蚜蟲危害日益加重,嚴(yán)重降低了辣椒品質(zhì)和產(chǎn)量。蚜蟲多以成蟲、若蟲群集于辣椒葉背和嫩尖上刺吸汁液,主要危害表現(xiàn)為:嫩葉卷曲皺縮、成齡葉上產(chǎn)生褪綠斑點(diǎn),葉片發(fā)黃,老化,植株矮小、生長緩慢,嚴(yán)重的甚至萎蔫枯死,此外,蚜蟲還是造成病毒病傳播的主要媒介,其吸食汁液后排泄的蜜露會誘發(fā)煤污病[2]。一般辣椒受害減產(chǎn)可高達(dá)20%~30%,因此,對蚜蟲進(jìn)行早期識別和防控是保證辣椒高產(chǎn)、優(yōu)質(zhì)的重要措施之一。
傳統(tǒng)的作物病蟲害識別方法仍停留在人工調(diào)查和田間取樣上,該過程耗時(shí)、費(fèi)力,而且存在代表性差、主觀性強(qiáng)和時(shí)效性差等弊端,從而影響作物病蟲害及時(shí)防治。隨著計(jì)算機(jī)技術(shù)的不斷發(fā)展,利用圖像處理技術(shù)對病蟲害進(jìn)行識別,已成為農(nóng)作物病蟲害監(jiān)測的重要研究方向[3]。傳統(tǒng)識別方法是基于顏色、紋理和形狀特征對圖片信息進(jìn)行提取分析,由于受作物種類、病蟲害類型、光照環(huán)境等因素的影響,病蟲害特征提取較為困難[4]。在作物病蟲害分類識別的研究中主要包括支持向量機(jī)(SVM)、-Means聚類算法[5]、貝葉斯分類器以及人工神經(jīng)網(wǎng)絡(luò)(ANN)等幾種比較典型的傳統(tǒng)機(jī)器學(xué)習(xí)算法。如彭勤等[6]基于支持向量機(jī)SVM提取豆類病害特征并對豆類作物斑病進(jìn)行分類識別,模型準(zhǔn)確率為93.27%。楊昕薇等[7]用逐步判別分析法對水稻常見的3種病害特征進(jìn)行分析,發(fā)現(xiàn)識別準(zhǔn)確率與病斑的飽和度紋理相關(guān)性較大,與顏色相關(guān)性較小,在剔除相關(guān)性較小的特征后利用貝葉斯分類器進(jìn)行分類識別,平均準(zhǔn)確率達(dá)97.5%。房俊龍等[8]通過提取圖像中番茄果徑和圓度特征并結(jié)合人工神經(jīng)網(wǎng)絡(luò)可以準(zhǔn)確地判斷番茄生理病害果。
基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)( Deep convolutional neural network,DCNN)能夠不依賴特定特征,在目標(biāo)檢測領(lǐng)域得到了廣泛應(yīng)用。目前目標(biāo)檢測方法主要分為兩類:一是基于區(qū)域生成的檢測方法,先由算法生成一系列樣本候選框,再對候選框中的目標(biāo)進(jìn)行分類,R-CNN[9]、Fast R-CNN[10]網(wǎng)絡(luò)均屬于這類算法,宋中山等[11]提出一種基于二值化的Faster R-CNN區(qū)域檢測模型對自然環(huán)境下柑橘葉片病害進(jìn)行檢測,平均準(zhǔn)確率為87.5%。這類方法檢測精度高、漏檢率也較低,但運(yùn)行時(shí)間長,難以滿足現(xiàn)實(shí)場景需求。二是基于回歸的方法,該方法通過一系列卷積操作提取特征,最后進(jìn)行分類和邊框回歸,實(shí)現(xiàn)了輸入原始圖像到直接輸出目標(biāo)位置和類別的優(yōu)化[12]。典型算法有SSD[13]和YOLO[14-16]系列網(wǎng)絡(luò),這類方法運(yùn)行速度快,而且實(shí)時(shí)檢測精度也能達(dá)到第一類方法的水平[17]。
以上基于傳統(tǒng)機(jī)器視覺和基于深度學(xué)習(xí)的目標(biāo)檢測算法模型,相對于傳統(tǒng)的作物病蟲害識別方法來說檢測時(shí)間和識別精度均取得了較好的效果,但是,基于回歸的目標(biāo)檢測算法在辣椒蟲害識別方面的研究還較少。因此,本研究以離體辣椒葉片上的蚜蟲為研究對象,提出一種基于YOLO v2目標(biāo)檢測網(wǎng)絡(luò)的辣椒蚜蟲識別算法,以期為實(shí)現(xiàn)田間辣椒蚜蟲精細(xì)化、智能化管理奠定基礎(chǔ)。
本研究中模型訓(xùn)練的硬件環(huán)境配置為:Windows10 64位操作系統(tǒng),CPU為Intel(R) Core(TM) i5-10400 2.9GHz,GPU為NVIDIA GeForce GT 710內(nèi)存10G,系統(tǒng)型號為戴爾Vostro 3888-China HDD Protection 1.3.1。軟件開發(fā)環(huán)境為:CUDA 11.4,MATLAB 2020b。圖像采集裝置為iPhone XR,圖像分辨率為3024像素×4032像素。
1.2.1 數(shù)據(jù)來源辣椒蚜蟲葉片采集于貴州省農(nóng)業(yè)科學(xué)院,采集時(shí)間2022年8月,采集的葉片帶回實(shí)驗(yàn)室后平鋪在吸光白板上,分別采集蚜蟲葉片正反面圖像,并用標(biāo)簽做好標(biāo)記,拍攝高度約為12 cm。
1.2.2 數(shù)據(jù)預(yù)處理原圖采集的辣椒葉片圖像中包含了標(biāo)簽、蚜蟲和背景板,如果對原圖進(jìn)行目標(biāo)檢測,將出現(xiàn)模型的運(yùn)行時(shí)間長、精度低等問題,所以需要對圖片進(jìn)行尺寸轉(zhuǎn)換,以縮短網(wǎng)絡(luò)運(yùn)行時(shí)間,提升訓(xùn)練效率。根據(jù)特征提取網(wǎng)絡(luò)對圖像尺寸的要求,將原始圖片裁剪為224×224大小,MATLAB通過imcrop函數(shù)對圖像目標(biāo)區(qū)域進(jìn)行截取,如圖1所示。
圖 1 截取蚜蟲區(qū)域圖像
經(jīng)過裁剪后試驗(yàn)共采集了291張辣椒蚜蟲樣本圖像,其中黃色蚜蟲圖像146張,綠色蚜蟲圖像145張,這兩種蚜蟲分別代表了兩種不同類型蚜蟲的狀態(tài)。一般而言,檢測結(jié)果與光照、拍攝角度等有很大關(guān)系,為了使模型具有較強(qiáng)的泛化能力,避免出現(xiàn)過擬合現(xiàn)象,采用數(shù)據(jù)增強(qiáng)技術(shù)對圖像進(jìn)行擴(kuò)增[18],對已有圖像進(jìn)行平移、鏡像、縮放、旋轉(zhuǎn)、對比度增強(qiáng)以及高斯白噪聲等操作將圖像擴(kuò)充至2619張,數(shù)據(jù)增強(qiáng)效果如圖2所示。
圖 2 數(shù)據(jù)增強(qiáng)
本研究使用MATLAB自帶的圖像標(biāo)注工具Image Labeler對數(shù)據(jù)集進(jìn)行ROI標(biāo)注,黃色蚜蟲用橘黃色方框標(biāo)注,標(biāo)簽名設(shè)置為aphid1,綠色蚜蟲用藍(lán)色方框標(biāo)注,標(biāo)簽名設(shè)置為aphid2。標(biāo)注時(shí)真實(shí)框(Ground trurh)為蚜蟲的最小外接矩形框,以減少真實(shí)框內(nèi)額外像素的面積,數(shù)據(jù)集標(biāo)注如圖3所示。標(biāo)注好的數(shù)據(jù)集按照比例7:3劃分為訓(xùn)練集、驗(yàn)證集,數(shù)據(jù)量分別為1833張、786張。其中,訓(xùn)練集主要用來訓(xùn)練網(wǎng)絡(luò)中的參數(shù),驗(yàn)證集用來評估模型的性能[19]。
圖 3 數(shù)據(jù)集標(biāo)注
YOLO系列網(wǎng)絡(luò)是由Redmon J等[20]在2015年提出的一種端到端的單階段目標(biāo)檢測網(wǎng)絡(luò),與之前以Faster R-CNN區(qū)域檢測模型為代表的兩階段網(wǎng)絡(luò)不同,YOLO網(wǎng)絡(luò)直接將帶分類的目標(biāo)檢測問題視為回歸問題,加快了檢測速度且能將目標(biāo)和背景更好地區(qū)分開。該模型利用特征提取網(wǎng)絡(luò)自動提取前景目標(biāo)特征,最后通過檢測網(wǎng)絡(luò)預(yù)測目標(biāo)類別和邊框位置如圖4所示。
圖 4 YOLO網(wǎng)絡(luò)檢測流程圖
本研究選用YOLO v2作為分類檢測網(wǎng)絡(luò),綜合考慮時(shí)間和檢測精度因素,在精度均滿足條件的情況下,較高級的YOLO模型訓(xùn)練時(shí)間較長,對計(jì)算機(jī)的性能要求更高。YOLO v2網(wǎng)絡(luò)相對于原始YOLO網(wǎng)絡(luò)而言,對網(wǎng)絡(luò)模型結(jié)構(gòu)進(jìn)行了相應(yīng)改進(jìn),提升了網(wǎng)絡(luò)檢測性能,能夠適應(yīng)本試驗(yàn)要求。與之前的網(wǎng)絡(luò)相比,做出的改進(jìn)如下:
(1)加入了Batch Normalization(批歸一化)層[21],可以把每個(gè)神經(jīng)元的輸出限制在以0為均值,標(biāo)準(zhǔn)差為1的分布里,加快神經(jīng)網(wǎng)絡(luò)收斂速度,起到正則化作用,防止模型過擬合。
(2)提高了圖像分辨率。YOLO v2在預(yù)訓(xùn)練網(wǎng)絡(luò)進(jìn)行特征提取時(shí)使用ImageNet數(shù)據(jù)集初始化網(wǎng)絡(luò)參數(shù),此時(shí)圖像分辨率為224×224,為提高網(wǎng)絡(luò)檢測精度,在訓(xùn)練檢測網(wǎng)絡(luò)時(shí),將輸入圖像分辨率調(diào)整為448×448,這一操作將網(wǎng)絡(luò)的精度整體提升了約3.5%。
(3)加入了Anchor機(jī)制。事先給定B個(gè)長、寬大小不一的先驗(yàn)參考框,每個(gè)Anchor對應(yīng)一個(gè)預(yù)測框,預(yù)測框只需要預(yù)測它對應(yīng)的Anchor的偏移量。原始YOLO網(wǎng)絡(luò)中B設(shè)置為2,而YOLO v2網(wǎng)絡(luò)可以增加預(yù)測框數(shù)量。
(4)利用-means聚類選定先驗(yàn)參考框尺寸。在ROI標(biāo)注的數(shù)據(jù)集上用-means聚類自動選擇先驗(yàn)框長寬比,這種方式比Faster R-CNN網(wǎng)絡(luò)中用手動設(shè)置更加科學(xué),能夠盡可能覆蓋所有目標(biāo)。不同的聚類個(gè)數(shù)對應(yīng)不同的IOU,個(gè)數(shù)越多覆蓋的IOU越大,但相應(yīng)模型的復(fù)雜度也會大大增加。
目前,Resnet網(wǎng)絡(luò)主要有Resnet18、Resnet34、Resnet50、Resnet101和Resnet152,隨著Resnet網(wǎng)絡(luò)層數(shù)不斷加深,卷積核尺寸減小、數(shù)量增多,模型參數(shù)量增加,從而導(dǎo)致訓(xùn)練過程計(jì)算量增大且容易出現(xiàn)梯度消失現(xiàn)象,但小卷積核提取的語義信息更加全面。考慮到本研究圖像目標(biāo)特征較為簡單,因此選擇Resnet50作為特征提取網(wǎng)絡(luò)。
Resnet50[22]主要包含三種基本結(jié)構(gòu):獨(dú)立卷積結(jié)構(gòu)、卷積殘差結(jié)構(gòu)、平均池化和全連接結(jié)構(gòu)。其中卷積殘差結(jié)構(gòu)通過跳躍連接、恒等映射將淺層特征與深層特征融合,有效解決了梯度彌散等問題,殘差網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。在特征提取網(wǎng)絡(luò)中引入殘差結(jié)構(gòu)能夠保留更多蚜蟲特征信息,可以進(jìn)一步提高模型檢測性能。
圖 5 殘差網(wǎng)絡(luò)結(jié)構(gòu)示意圖
本研究以Resnet50在數(shù)據(jù)集ImageNet上進(jìn)行測試的預(yù)訓(xùn)練網(wǎng)絡(luò)為起點(diǎn),通過遷移學(xué)習(xí)來微調(diào)網(wǎng)絡(luò)參數(shù),即利用預(yù)訓(xùn)練網(wǎng)絡(luò)Resnet50提取辣椒葉片上蚜蟲的圖像特征,再使用學(xué)習(xí)到的圖像特征訓(xùn)練分類器。Resnet提出以前,普遍認(rèn)為網(wǎng)絡(luò)的深度越深,提取到的特征越抽象,模型的檢測效果越好。在實(shí)際訓(xùn)練過程中,發(fā)現(xiàn)網(wǎng)絡(luò)層數(shù)越深,就會出現(xiàn)梯度消失和模型退化等問題,從而導(dǎo)致模型的學(xué)習(xí)能力下降,檢測準(zhǔn)確率也會降低,甚至出現(xiàn)不能檢出目標(biāo)的情況。為進(jìn)一步驗(yàn)證不同深度網(wǎng)絡(luò)模型對辣椒葉片上蚜蟲的識別性能,特征提取模塊分別選用Resnet50前10、16、22、28、34、42層卷積網(wǎng)絡(luò),去掉最后的平均池化層和全連接層,分類檢測模塊采用YOLO v2網(wǎng)絡(luò)結(jié)構(gòu),構(gòu)成辣椒蚜蟲檢測模型,模型整體框架如圖6所示。將這六個(gè)模型分別叫做Resnet-10、Resnet-16、Resnet-22、Resnet-28、Resnet-34、Resnet-42,Resnet50卷積結(jié)構(gòu)與YOLO v2網(wǎng)絡(luò)相融合的位置在圖中分別用紅色、藍(lán)色、綠色、粉色、紫色和黃色箭頭位置表示。
圖 6 辣椒蚜蟲檢測模型框架
YOLO v2網(wǎng)絡(luò)中加入Anchor機(jī)制,為選擇最具代表性的候選框,使用-means聚類算法,選出適合實(shí)際問題的候選框數(shù)量和尺寸。-means聚類的相似度檢測通常用歐式距離進(jìn)行度量,對YOLO v2來說,候選框尺寸的衡量標(biāo)準(zhǔn)為IOU,所以YOLO v2利用IOU來計(jì)算距離,公式如下:
(box,centroid)= 1-IOU(box,centroid)(1)
在使用-means聚類方法時(shí)需要人為指定聚類數(shù),針對本研究中要檢測識別辣椒葉片上蚜蟲類型的問題,需要在ROI標(biāo)注蚜蟲的數(shù)據(jù)集上進(jìn)行-means聚類,以得到適合圖像中標(biāo)注蚜蟲的anchor box尺寸和數(shù)量。聚類結(jié)果如圖7所示,當(dāng)<5時(shí),AvgIOU隨值增加而增大,當(dāng)>5時(shí),AvgIOU隨值增加而上下浮動。AvgIOU表示辣椒蚜蟲數(shù)據(jù)集上預(yù)測的anchor box與實(shí)際標(biāo)注框覆蓋度的平均值,設(shè)置不同聚類數(shù)對應(yīng)不同地AvgIOU,AvgIOU值越大說明預(yù)測框?qū)ρ料x位置、尺寸預(yù)測越準(zhǔn)確,但值越大則anchor box數(shù)量越多,會導(dǎo)致模型復(fù)雜度增加,因此本研究將anchor box個(gè)數(shù)設(shè)置為5。
圖 7 K-means聚類結(jié)果
辣椒葉片圖像中每個(gè)目標(biāo)對應(yīng)多個(gè)預(yù)測框,每個(gè)預(yù)測框都有一個(gè)置信度,先去除置信度低于閾值的預(yù)測框,本試驗(yàn)設(shè)置置信度閾值為0.5,將剩余預(yù)測框按照置信度大小排序,選取置信度最高的預(yù)測框,分別計(jì)算其余預(yù)測框與該框的重疊度IOU,最后將IOU大于閾值的預(yù)測框去除,以上操作經(jīng)過不斷迭代,輸出的圖像中每個(gè)目標(biāo)將由唯一的預(yù)測框進(jìn)行預(yù)測,IOU閾值大小應(yīng)根據(jù)實(shí)際情況而定,設(shè)置過高,多余預(yù)測框?qū)槐A粝聛恚O(shè)置過低,可能會消除相近目標(biāo)對象的預(yù)測框,因此反復(fù)試驗(yàn)后將IOU閾值設(shè)置為0.5。通過上述NMS極大值抑制算法處理后即可得到蚜蟲在辣椒葉片中的準(zhǔn)確位置。
損失函數(shù)是網(wǎng)絡(luò)訓(xùn)練中很重要的一環(huán),在訓(xùn)練過程中,YOLO v2網(wǎng)絡(luò)的輸出層通過優(yōu)化預(yù)測框與實(shí)際標(biāo)注框之間的均方誤差損失來調(diào)整網(wǎng)絡(luò)中的各項(xiàng)參數(shù)。YOLO v2的損失函數(shù)定義如下[23]:
(2)
1、2、3、4分別代表預(yù)測框定位誤差損失權(quán)重、在網(wǎng)格的第個(gè)邊界框中檢測到一個(gè)對象的置信度誤差權(quán)重、網(wǎng)格的第個(gè)邊界框中沒有檢測到對象時(shí)的誤差權(quán)重、預(yù)測框分類誤差權(quán)重
損失函數(shù)中第一項(xiàng)和第二項(xiàng)負(fù)責(zé)修正預(yù)測框定位參數(shù),第三項(xiàng)和第四項(xiàng)負(fù)責(zé)檢測預(yù)測框中是否包含蚜蟲,當(dāng)不包含對象的網(wǎng)格數(shù)量超過包含對象的網(wǎng)格數(shù)量時(shí),置信度損失可能會導(dǎo)致訓(xùn)練發(fā)散,為了彌補(bǔ)這一點(diǎn),可以增加2的值降低3的值。第五項(xiàng)負(fù)責(zé)修正預(yù)測框中檢測到蚜蟲的類條件概率平方誤差。
試驗(yàn)中檢測網(wǎng)絡(luò)在訓(xùn)練和測試時(shí)選擇GPU進(jìn)行加速,其中ExecutionEnvironment參數(shù)默認(rèn)選擇GPU,部分訓(xùn)練參數(shù)設(shè)置為:選擇SGDM算法對模型進(jìn)行優(yōu)化,動量為0.9,初始學(xué)習(xí)率0.001,每次訓(xùn)練迭代的小批量大小為8,每迭代50次顯示一次訓(xùn)練結(jié)果,3-7個(gè)epoch后訓(xùn)練結(jié)果輸出變化不大,模型基本收斂,因此最大訓(xùn)練輪數(shù)設(shè)置為8個(gè)epoch。
模型訓(xùn)練損失曲線可以描述損失函數(shù)的變化趨勢,表示隨著迭代次數(shù)的增加,模型預(yù)測辣椒葉片上蚜蟲位置和類別與真實(shí)值之間的偏差情況,損失值大小與模型預(yù)測出錯(cuò)概率相關(guān)。本次試驗(yàn)各模型在訓(xùn)練集中訓(xùn)練迭代1 520次的損失曲線如圖8(a)所示,為便于清楚查看損失值波動情況,通過間隔10次取值的方式對各模型訓(xùn)練迭代過程中損失值的顯示如圖8(b)所示??梢钥吹剑訰esnet50前10層卷積結(jié)構(gòu)為特征提取網(wǎng)絡(luò)的模型Resnet-10收斂緩慢且波動較大,其他結(jié)構(gòu)模型以小批量進(jìn)行訓(xùn)練迭代200次后迅速收斂,迭代1 000次后所有模型基本趨于穩(wěn)定。
圖 8 模型訓(xùn)練損失曲線
試驗(yàn)中選用的評價(jià)指標(biāo)主要有精度precision、召回率recall、P-R曲線、綠色和黃色蚜蟲的識別準(zhǔn)確率、平均識別準(zhǔn)確率、訓(xùn)練時(shí)間1和識別時(shí)間2。其中精度表示本次試驗(yàn)中模型檢測出所有辣椒葉片上的蚜蟲有多大比例與標(biāo)簽值相同,召回率代表數(shù)據(jù)集中被標(biāo)記的蚜蟲有多大比例被模型檢測出來,識別準(zhǔn)確率是驗(yàn)證集中各類蚜蟲識別精度的平均,其大小為P-R曲線下的面積。計(jì)算公式如下:
式中:—表示圖像中目標(biāo)被識別為對應(yīng)類型蚜蟲且識別正確;—表示圖像中目標(biāo)被識別為背景且識別正確;—表示圖像中目標(biāo)被識別為對應(yīng)類型蚜蟲但識別錯(cuò)誤;—表示圖像中目標(biāo)被識別為背景但識別錯(cuò)誤;Pinterpo—表示召回率為時(shí)的精度;—驗(yàn)證集樣本個(gè)數(shù)。
評價(jià)指標(biāo)中的P-R曲線反映了召回率與準(zhǔn)確率之間的關(guān)系,一般橫坐標(biāo)為recall,縱坐標(biāo)為precision,可以度量目標(biāo)檢測分類器模型優(yōu)劣。模型的輸出是某個(gè)類別的概率值,概率值越大表示屬于某一類別的概率越大,根據(jù)預(yù)測結(jié)果將驗(yàn)證集樣本按從大到小順序進(jìn)行排列,選取第一個(gè)樣本的概率值作為判斷目標(biāo)對象是蚜蟲還是背景的閾值,將大于等于該值的樣本視為對應(yīng)類型蚜蟲,小于這個(gè)值的樣本看作背景,由此計(jì)算recall和precision的值,遍歷整個(gè)驗(yàn)證集樣本后繪制兩個(gè)類別蚜蟲的P-R曲線如圖9所示??梢钥闯觯S著閾值的降低,召回率recall值逐漸增加,閾值較高時(shí)值越大值越小,因此精度precision值較大且比較平穩(wěn),當(dāng)閾值降低時(shí),值增加,精度precision值開始降低。由圖可知隨著特征提取網(wǎng)絡(luò)層數(shù)逐漸增加,模型識別性能變好,但深度到一定層數(shù)后又逐漸變差。其中Resnet-22模型的P-R曲線表現(xiàn)最優(yōu),值分別為98.70%和94.27%,Resnet-42模型性能最差,對綠色蚜蟲的識別準(zhǔn)確率僅為76.10%。
圖9 P-R曲線
本研究中六個(gè)模型是基于YOLO v2網(wǎng)絡(luò),融合Resnet50前10、16、22、28、34、42層卷積結(jié)構(gòu)構(gòu)成,在神經(jīng)網(wǎng)絡(luò)中,網(wǎng)絡(luò)深度會影響模型檢測效果,因此需要分析不同深度網(wǎng)絡(luò)模型對辣椒葉片上蚜蟲的識別性能,以獲得最優(yōu)模型。利用訓(xùn)練集和驗(yàn)證集對六個(gè)模型進(jìn)行性能分析的結(jié)果如表1所示。
表 1 六種網(wǎng)絡(luò)模型的識別結(jié)果
由表1可知,在相同試驗(yàn)條件下,隨著網(wǎng)絡(luò)層數(shù)不斷加深,模型訓(xùn)練時(shí)間變長,由開始的0.22 h增加至1.98 h,單張圖片識別時(shí)間也有所增加,圖片識別準(zhǔn)確率提高,以Resnet50前22層卷積結(jié)構(gòu)為特征提取網(wǎng)絡(luò)的模型Resnet-22對蚜蟲識別準(zhǔn)確率最高,平均識別準(zhǔn)確率為96.49%,但之后隨著網(wǎng)絡(luò)深度增加,模型識別準(zhǔn)確率降低。由于綠色蚜蟲顏色與辣椒葉片相近、形態(tài)與葉片上莖稈相似,因此綠色蚜蟲的識別準(zhǔn)確率整體低于黃色蚜蟲。通過對比表中數(shù)據(jù)發(fā)現(xiàn),淺層網(wǎng)絡(luò)模型Resnet-10的識別準(zhǔn)確率均高于深層網(wǎng)絡(luò)模型Resnet-28、Resnet-34、Resnet-42,說明對于本研究中目標(biāo)特征較為簡單的圖像,增加過多地卷積層將導(dǎo)致梯度消失模型學(xué)習(xí)能力下降,識別準(zhǔn)確率降低。在利用深度卷積網(wǎng)絡(luò)作為特征提取器時(shí),卷積網(wǎng)絡(luò)深度對網(wǎng)絡(luò)性能具有較大影響,與淺層網(wǎng)絡(luò)相比,深層網(wǎng)絡(luò)可以擬合更復(fù)雜的特征、識別檢測性能更好,但隨著網(wǎng)絡(luò)層數(shù)不斷加深,反向傳播算法無法將輸出誤差梯度傳播至更遠(yuǎn)節(jié)點(diǎn),權(quán)重得不到調(diào)整,導(dǎo)致網(wǎng)絡(luò)擬合能力變?nèi)?,增加網(wǎng)絡(luò)的深度將變得毫無意義。本試驗(yàn)中Resnet-22模型識別準(zhǔn)確率最高,識別時(shí)間與其余四個(gè)模型相比差距不大,因此本研究選用模型Resnet-22識別辣椒葉片上的蚜蟲,用該模型對兩種不同生長階段蚜蟲進(jìn)行識別的結(jié)果如圖10所示。由圖可知Resnet-22模型能夠比較精準(zhǔn)地定位蚜蟲位置并識別蚜蟲類型。
圖 10 辣椒葉片上蚜蟲識別結(jié)果
App Designer是MATLAB內(nèi)置的App開發(fā)工具,采用面向?qū)ο蟮姆绞竭M(jìn)行編程,該軟件包含前端交互界面設(shè)計(jì)和后臺代碼編寫模塊,在程序開發(fā)過程中,需要按照實(shí)際需求添加回調(diào)函數(shù)、修改控件屬性等,更改控件屬性后代碼會自動更新,大大提高了開發(fā)效率。
本研究開發(fā)的辣椒蚜蟲識別系統(tǒng)界面如圖11所示,其中設(shè)計(jì)視圖界面添加了Button控件、Label控件、TextArea文本區(qū)域控件和Image圖像顯示控件。各控件根據(jù)實(shí)際情況添加回調(diào)函數(shù),回調(diào)相當(dāng)于MFC中的響應(yīng)函數(shù),是與界面交互的接口。例如“打開圖片”按鈕控件的功能是讓待識別辣椒蚜蟲圖片顯示在Image控件上,“識別蟲害”按鈕控件的回調(diào)函數(shù)設(shè)計(jì)是為了調(diào)用訓(xùn)練好的蚜蟲檢測模型并將檢測結(jié)果(蚜蟲類型和數(shù)量)顯示在Label控件中。界面和回調(diào)函數(shù)設(shè)計(jì)完成后,將其保存為.mlapp文件并退出。
圖 11 辣椒蚜蟲識別界面
(1)針對傳統(tǒng)辣椒蚜蟲識別精度不高等問題,本研究提出了一種YOLO v2目標(biāo)檢測網(wǎng)絡(luò)與Resnet50不同深度卷積結(jié)構(gòu)相結(jié)合的方法,對離體辣椒葉片上的蚜蟲進(jìn)行分類識別和定位。檢測效果最好的模型為Resnet-22,平均識別準(zhǔn)確率為96.49%,其中黃色蚜蟲識別準(zhǔn)確率為98.70%,綠色蚜蟲識別準(zhǔn)確率為94.27%,模型訓(xùn)練時(shí)間為0.35 h,單張圖片識別時(shí)間為0.129 s;
(2)本文探究了不同深度網(wǎng)絡(luò)模型對辣椒葉片上蚜蟲識別性能的影響,發(fā)現(xiàn)淺層網(wǎng)絡(luò)模型對辣椒蚜蟲識別準(zhǔn)確率高于深層網(wǎng)絡(luò),表明根據(jù)不同的圖像特征要選擇合適地網(wǎng)絡(luò)深度模型,模型結(jié)構(gòu)不是越復(fù)雜越好;
(3)本研究與結(jié)果表明,辣椒蚜蟲檢測模型Resnet-22,能夠更好地進(jìn)行辣椒葉片上蚜蟲的定位和識別,具有較強(qiáng)的魯棒性,可以為實(shí)現(xiàn)田間辣椒蚜蟲識別奠定基礎(chǔ),同時(shí)該模型也具有很強(qiáng)的穩(wěn)定性和實(shí)用性,對于其他作物蟲害識別具有一定的參考價(jià)值。
[1] 趙澤陽.我國辣椒價(jià)格波動分析研究[D].保定:河北農(nóng)業(yè)大學(xué),2019
[2] 邱寧宏,劉芬,江秋菊,等.遵義辣椒智慧產(chǎn)業(yè)園辣椒病蟲害發(fā)生情況調(diào)查[J].長江蔬菜,2022(16):61-66
[3] 李靜,陳桂芬,安宇.基于優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)的玉米螟蟲害圖像識別[J].華南農(nóng)業(yè)大學(xué)學(xué)報(bào),2020,41(3):110-116
[4] 王翔宇,溫皓杰,李鑫星,等.農(nóng)業(yè)主要病害檢測與預(yù)警技術(shù)研究進(jìn)展分析[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2016,47(9):266-277
[5] 唐林.自動采摘目標(biāo)圖像快速識別算法研究——基于K-means聚類算法[J].農(nóng)機(jī)化研究,2023,45(05):32-36
[6] 彭勤,高士,彭佳紅.基于SVM的豆類作物病害識別研究[J].電腦知識與技術(shù),2019,15(24):210-211
[7] 楊昕薇,譚峰.基于貝葉斯分類器的水稻病害識別處理的研究[J].黑龍江八一農(nóng)墾大學(xué)學(xué)報(bào),2012,24(3):64-67,79
[8] 房俊龍,張長利,潘偉,等.用遺傳算法訓(xùn)練的人工神經(jīng)網(wǎng)絡(luò)識別番茄生理病害果[J].農(nóng)業(yè)工程學(xué)報(bào),2004(3):113-116
[9] Yanyan D, Subin P, Kidong L. Utilizing mask R-CNN for solid-volume food instance segmentation and calorie estimation [J]. Applied Sciences,2022,12(21):10938
[10] Cheng X. Research on application of the feature transfer method based on fast R-CNN in smoke image recognition [J]. Advances in Multimedia, 2021(1):1-7
[11] 宋中山,汪進(jìn),鄭祿,等.基于二值化的Faster R-CNN柑橘病蟲害識別研究[J].中國農(nóng)機(jī)化學(xué)報(bào),2022,43(6):150-158
[12] Marietta I, Kenneth M,Sean XG,. A multimodal (FACILE) classification for optical diagnosis of inflammatory bowel disease associated neoplasia [J]. Endoscopy, 2019,51(2):133-141
[13] 程海超.基于YOLO的番茄病蟲害識別算法研究[J].農(nóng)業(yè)與技術(shù),2022,42(10):38-40
[14] 印志本,劉鋒,欒世偉.改進(jìn)SSD算法在駿棗黑斑病識別模型研究[J].農(nóng)業(yè)與技術(shù),2022,42(22):15-18
[15] 傅云龍,梁丹,梁冬泰,等.基于機(jī)器視覺與YOLO算法的馬鈴薯表面缺陷檢測[J].機(jī)械制造,2021,59(8):82-87
[16] 周維,牛永真,王亞煒,等.基于改進(jìn)的YOLOv4-GhostNet水稻病蟲害識別方法[J].江蘇農(nóng)業(yè)學(xué)報(bào),2022,38(3):685-695
[17] 徐會杰,黃儀龍,劉曼.基于改進(jìn)YOLOv3模型的玉米葉片病蟲害檢測與識別研究[J].南京農(nóng)業(yè)大學(xué)學(xué)報(bào),2022,45(6):1276-1285
[18] 劉芳,劉玉坤,林森,等.基于改進(jìn)型YOLO的復(fù)雜環(huán)境下番茄果實(shí)快速識別方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(6):229-237
[18] 朱曉慧,錢麗萍,傅偉.圖像數(shù)據(jù)增強(qiáng)技術(shù)研究綜述[J].軟件導(dǎo)刊,2021,20(5):230-236
[19] 李就好,林樂堅(jiān),田凱,等.改進(jìn)Faster R-CNN的田間苦瓜葉部病害檢測[J].農(nóng)業(yè)工程學(xué)報(bào),2020,36(12):179-185
[20] Redmon J, Farhadi A. YOLO9000: Better, Faster, Stronger [C]. San Juan, Puerto Rico: IEEE Conference on Computer Vision and Pattern Recognition, 2017
[21] Ioffe S, Szegedy C. Batch normalization: accelerating deep network training by reducing internal covariate shift [J]. CoRR,2015,abs/1502.03167
[22] 余小東,楊孟輯,張海清,等.基于遷移學(xué)習(xí)的農(nóng)作物病蟲害檢測方法研究與應(yīng)用[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(10):252-258
[23] 馮艷君,劉軍,周臺典,等.基于改進(jìn)特征提取網(wǎng)絡(luò)和YOLO V2的手勢識別[J].電子世界,2020(19):198-200
Image Recognition of Aphid on Pepper Leaves Based on YOLO v2
ZOU Wei1, YUE Yan-bin1*, FENG En-ying1, PENG Shun-zheng1, ZHANG Ai-min2, XIAO Jiu-jun3
1.550006,2.550006,3.550006,
Aiming at the low identification accuracy and less research of traditional pepper aphid recognition, we studies a YOLO v2-based image identification method of pepper aphid to accurately locate aphid locations, identify two different types of aphids, and explore the impact of different network depths on model performance. First, the YOLO v2 target detection network is integrated with six different deep convolutional structures of the Resnet50 network to construct a pepper aphid recognition model, and then the candidate box parameters are set using the prediction box generation algorithm, finally, the six models are trained, and the pepper aphids identification system is designed. The comparative test results on the validation set demonstrate that Resnet-22 model has the highest identification accuracy, and achieves the average identification accuracy of 96.49% on two different types of aphid species, the identification accuracy of yellow aphid and green aphid is 98.70% and 94.27% respectively, and the average identification time of one picture is 0.129 s. Resnet-22 model is robust and lays the foundation for pepper aphid identification in a complex context in the field.
Pepper; aphid; image recognition
TP751
A
1000-2324(2023)05-0700-10
10.3969/j.issn.1000-2324.2023.05.009
2023-02-26
2023-05-02
貴州省科技計(jì)劃項(xiàng)目(黔科合支撐[2021]一般173);貴州省科技計(jì)劃項(xiàng)目(黔科合支撐[2020]IY172號)
鄒瑋(1997-),女,碩士,實(shí)習(xí)研究員,主要從事圖像處理、植物表型等方面研究工作. E-mail:171465192@qq.com
Author for correspondence. E-mail:58644230@qq.com