邱榮洲, 趙 健, 何玉仙, 陳韶萍, 黃美玲, 池美香, 梁 勇, 翁啟勇,*
(1. 福建省農(nóng)業(yè)科學院植物保護研究所, 福建省作物有害生物監(jiān)測與治理重點實驗室, 福州 350013;2. 福建省農(nóng)業(yè)科學院數(shù)字農(nóng)業(yè)研究所, 福州 350003; 3. 漳州市長泰區(qū)植保站, 福建漳州 363900)
草地貪夜蛾Spodopterafrugiperda屬鱗翅目(Lepidoptera)夜蛾科(Noctuidae),是一種原產(chǎn)于美洲熱帶和亞熱帶地區(qū)的多食性、遷飛性重大農(nóng)業(yè)害蟲(Sparks, 1979; Toddel and Pooler, 1980; 郭井菲等, 2018)。2019年草地貪夜蛾已在我國南方的熱帶、南亞熱帶地區(qū)完成定殖過程(吳孔明, 2020)。對草地貪夜蛾進行種群監(jiān)測是明確其發(fā)生規(guī)律并指導防治的重要基礎性工作。傳統(tǒng)的性信息素誘捕、燈光誘捕、田間調查等人工測報方法,需要由專人定期調查田間的發(fā)生為害情況并統(tǒng)計蟲口數(shù)量,專業(yè)性強,勞動強度大,耗時且效率低下。現(xiàn)代信息技術的創(chuàng)新發(fā)展為害蟲監(jiān)測預警工作提供了新的方法和強有力的技術支持,基于機器學習的害蟲圖像識別與計數(shù)系統(tǒng),可以克服傳統(tǒng)監(jiān)測方法存在的短板和不足,實現(xiàn)無人值守的草地貪夜蛾成蟲自動識別與精準計數(shù)。
近年來,隨著圖像處理和機器學習等相關技術的快速發(fā)展,基于深度學習的圖像識別技術在植物病蟲害智能識別領域已得到廣泛應用。例如,Liu等(2016)應用卷積神經(jīng)網(wǎng)絡(convolutional neural network, CNN)等方法來解決水稻12種害蟲種類自動識別的問題,并取得較好的結果。Sladojevic等(2016)提出了一種識別13種病害的深度學習模型,采用人工圖像預處理來突出目標區(qū)域,從而提高識別率,不足之處是耗時較長。田冉等(2016)利用支持向量機(support vector machine, SVM)對果樹害蟲圖像進行識別分類,獲得了88%的識別準確率。周愛明等(2017)利用CaffeNet模型進行蝴蝶科級標本圖像識別,獲得了95.8%的識別準確率。Lu等(2017)提出了水稻病害識別方法,用深層CNN技術識別10種常見水稻病害,提高了水稻病害識別收斂速度和精度。Leonardo等(2018)提出一種使用深度學習架構進行果蠅識別的方法,并獲得了95.68%的準確率。Ferentinos(2018)利用CNN診斷和鑒定植物健康和患病的葉片。Wang等(2019)建立10種害蟲識別模型,獲得了93.84%分類準確率。Li等(2020)利用改進的GoogLeNet模型實現(xiàn)在自然場景中10種作物害蟲的自動分類,并獲得98.91%的分類準確率。上述基于深度學習的病蟲害自動識別的研究,主要是應用不同的算法和模型解決不同場景下植物病蟲害的圖像分類和識別的問題,并取得了較好的結果。然而,在田間害蟲監(jiān)測的實際應用場景中,僅對目標害蟲進行種類識別,還無法有效解決目標害蟲定性與定量自動監(jiān)測預警的問題。
深度學習目標檢測網(wǎng)絡可以同時監(jiān)測目標的類別和位置,快速實現(xiàn)目標物體的數(shù)量統(tǒng)計。當前比較有代表性的算法有RCNN(Girshicketal., 2014), Fast RCNN(Renetal., 2017),SSD(Liuetal., 2016)和YOLO(Redmonetal., 2016)等。Ding和Taylor(2016)使用深度學習對田間誘捕器內拍攝的鱗翅目害蟲進行計數(shù),僅將深度卷積神經(jīng)網(wǎng)絡作為滑動窗口方法的分類器,導致可檢測目標尺寸單一且運算量巨大。Sun等(2018)提出了一種基于優(yōu)化Fast R-CNN深度學習的檢測模型,實現(xiàn)誘捕器內紅脂大小蠹的自動計數(shù),并獲得0.746的檢測精度。Liu和Wang等(2020)進行了SSD, Faster R-CNN和YOLO算法應用在番茄病蟲害檢測精度和速度的對比實驗,YOLO的檢測精度與SSD和Faster R-CNN相當,檢測時間優(yōu)于SSD和Faster R-CNN。因此,本研究選擇YOLO-V5網(wǎng)絡建立草地貪夜蛾深度卷積網(wǎng)絡監(jiān)測模型,并通過圖像背景去除、增加對照數(shù)據(jù)類別等方法,篩選和優(yōu)化出最優(yōu)的監(jiān)測模型,實現(xiàn)對草地貪夜蛾成蟲圖像的快速、準確的自動識別與計數(shù),為害蟲智能化自動監(jiān)測裝備開發(fā)提供核心算法支持。
圖1 害蟲智能監(jiān)測設備示意圖(左)和實物圖(右)Fig. 1 Schematic diagram (left) and actual image (right)of pest monitoring equipmentA: 太陽能電池板Solar panels; B: 植保智盒(多功能控制終端)Plant protection box (multi-function control terminal); C: 鋰電池Lithium battery; D: 性信息素誘芯Sex pheromone lure; E: 殺蟲用高壓電網(wǎng)High voltage power grid for killing insects; F: 自動拍攝單元Automatic shooting unit; G: 立桿Upright pole; H: 實物圖Physical picture.
本研究使用自動監(jiān)測設備自動拍攝和常規(guī)誘捕器+相機/手機拍攝兩種方法采集草地貪夜蛾圖像。自動監(jiān)測設備為課題組自主研制的害蟲圖像監(jiān)測設備FAAS-Pest Monitor(授權專利號: ZL201921202577.5),由性誘單元、電擊單元、拍攝單元、植保智盒(多功能控制終端)、太陽能供電組件等組成(圖1)。設備工作的主要原理是利用性信息素定向誘集目標昆蟲,通過高壓電網(wǎng)擊倒昆蟲,蟲體掉入拍攝單元的白色背景集蟲板,通過植保智盒控制攝像頭定時拍攝集蟲板上的昆蟲圖像,并通過4G無線網(wǎng)絡上傳到云端。監(jiān)測設備攝像頭分辨率為1 800像素×1 350像素,攝像頭與底部白色背景集蟲板的距離為200 mm,四周設有LED補光燈。每日12∶00時自動采集1次圖像,每次圖像采集后,設備自動清理蟲體,保證每張圖片的蟲口數(shù)為清理前24 h的蟲量。試驗以性信息素誘捕的草地貪夜蛾雄成蟲為檢測對象,斜紋夜蛾雄成蟲(相似檢測目標)為數(shù)據(jù)擴增樣本,通過安裝在福建漳州、廈門、莆田、三明等地的設備自動捕獲圖像2 232張(表1)。
常規(guī)誘捕器+相機/手機數(shù)據(jù)采集方法中采用的誘捕器為漳州英格爾公司生產(chǎn)的船形誘捕器,相機型號為Sony-RX100,手機型號為小米M5。通過相機、手機人工拍攝船型誘捕器的粘蟲板上誘捕的草地貪夜蛾照片749張(表1),圖像分辨率分別為5 472像素×3 648像素和4 000像素×3 000像素,拍攝距離為150~200 mm。試驗數(shù)據(jù)采集地為福建云霄縣東廈鎮(zhèn)佳洲島玉米種植基地。
表1 本研究采自福建的樣本數(shù)據(jù)的來源及數(shù)量Table 1 The source and amount of sample data taken from Fujian, southern China in this study
為了探討不同數(shù)據(jù)集對模型訓練結果的影響,對圖像進行了標準化預處理。首先,將采集的2 981張原始大小圖片用圖像處理軟件Photoshop(PS)統(tǒng)一處理成同比例800像素×x像素或x像素×800像素(x<800)的分辨率,再隨機挑選2 671張(含10 824頭草地貪夜蛾成蟲,2 153頭斜紋夜蛾成蟲)作為訓練樣本進行邊界框標注,剩余的310張作為測試圖像。本研究使用自行開發(fā)的樣本標注軟件TFLabelTool,標注草地貪夜蛾、斜紋夜蛾目標邊界框。標注時將草地貪夜蛾的最小外接矩形框作為真實框,以減少真實框內的背景像素。標注文件以圖片同名的.TXT文本格式進行存儲,數(shù)據(jù)格式與開源LabelTools標注軟件生成的標簽文件相一致。
根據(jù)樣本圖像標注目標類別,將數(shù)據(jù)集分為草地貪夜蛾、斜紋夜蛾和負樣本3個類型(表2)。數(shù)據(jù)集A1為自動監(jiān)測設備誘捕和船形誘捕采集的草地貪夜蛾成蟲的原始圖像,將訓練集A1清除原始訓練圖像的標注框內的殘缺目標(馬賽克處理或虛化背景,要求標注框內的草地貪夜蛾是完整的單頭蟲體,且不含其他草地貪夜蛾的殘缺蟲體,圖2),對處理后的圖像進行邊界框標注,形成訓練集A2;數(shù)據(jù)集B為自動監(jiān)測設備誘捕采集的未經(jīng)邊緣殘缺目標清除處理的斜紋夜蛾圖像;數(shù)據(jù)集C為機器誘捕和船形誘捕采集的無檢測目標的負樣本圖像,包括空白背景、樹葉和其他無關昆蟲(除草地貪夜蛾和斜紋夜蛾外的其他昆蟲)的背景圖像。
模型訓練集和測試集均包含背面朝上、腹面朝上、正面(頭部朝上)、側面朝上、無鱗片蟲體、翅展蟲體、破損蟲體和蟲體接觸或遮擋等圖像樣本。根據(jù)圖像識別的難易程度把測試集分為簡單測試集T1(圖3: A-D)、困難測試集T2(圖3: E-H)和無檢測目標測試集T3(圖3: I-L)3個梯度,各個測試集的圖片數(shù)分別為110, 140和60幅(表3)。
表2 訓練集樣本數(shù)據(jù)量Table 2 The sample size of training sets
圖2 測試集示例圖Fig. 2 Typical images of test setsA, C: 原始圖像Original images; B, D: 邊緣殘缺目標清除處理后圖像Images with edge incomplete objects removed.
表3 測試集樣本數(shù)據(jù)量Table 3 The sample size of test sets
圖3 測試集中的典型圖像Fig. 3 Typical images of test setsA: 蟲體背面朝上Moths with dorsal side up; B: 蟲體側面朝上Moths with lateral side up; C: 蟲體腹面朝上Moths with ventral side up; D: 蟲體邊緣殘缺Moths with incomplete edge of body; E: 蟲體腹面朝上、擁擠重疊Moths with ventral side up or/and crowded overlap; F: 蟲體鱗片丟失、擁擠重疊Moths with scales lost or overlapping densely; G: 成像模糊、蟲體重疊Blurred imaging or moth bodies overlapping; H: 背景復雜、擁擠重疊Complex background or overlapping densely; I: 其他無關昆蟲Other unrelated insects; J: 斜紋夜蛾S. litura; K: 樹葉和其他無關昆蟲Leaves and other unrelated insects; L: 無檢測目標Without detection objects; A, B, E, F, I-L: 機器采集的圖片Images taken by machine; C, G: 手機拍照的圖片Images taken by mobile phone; D, H: 相機拍照圖片Images taken by camera.
1.3.1試驗平臺:為降低部署成本,便于模型后期移植到邊緣計算終端實際部署應用,神經(jīng)網(wǎng)絡模型結構采用Yolov5系列中深度最小的Yolov5s網(wǎng)絡結構。模型訓練采用的操作系統(tǒng)為Ubuntu16.04,訓練框架為pytorch,服務器平臺配置為:Intel Xeon(R) CPU E3-1245 v3@ 3.40 GHz處理器,32 GB運行內存,8 GB GeForce1080顯卡。測試的框架為pytorch,處理器為E5-2620V4@2.10GHz,八核,16 GB RAM,顯卡為NvidiaGeForce1050,使用版本號為:CUDA10.0并行計算框架,配合CUDNN7.3版本的深度神經(jīng)網(wǎng)絡API。
1.3.2識別模型的訓練:識別模型的訓練實驗分為2個組。第1組集中在圖像背景處理問題上,目標是討論樣本背景對檢測精度的影響。該組共使用2個小組圖像:a)未修改的草地貪夜蛾圖像數(shù)據(jù)集A1;b)去除邊緣殘缺目標的草地貪夜蛾圖像數(shù)據(jù)集A2。第2組集中在增加數(shù)據(jù)類別樣本對檢測精度的影響,重點分析與草地貪夜蛾具有相似特征的斜紋夜蛾樣本對模型的影響。共使用3個小組圖像:a)草地貪夜蛾的圖像數(shù)據(jù)集A1;b)在數(shù)據(jù)集A1基礎上增加斜紋夜蛾的圖像數(shù)據(jù)集B,組成數(shù)據(jù)集A1+B;c)在數(shù)據(jù)集A1+B的基礎上再增加負樣本C,組成數(shù)據(jù)集A1+B+C。在每組案例中,每個模型訓練隨機抽取80%的樣本用于訓練,另20%用于驗證。使用網(wǎng)絡模型YOLOv5s對各組的數(shù)據(jù)集進行對比訓練試驗,并在3種不同的測試數(shù)據(jù)集上驗證模型效果。
模型訓練參數(shù)設置為每批量樣本數(shù)為28,動量因子為0.937,初始學習率為0.01,訓練周期300個。
模型選取準確率(precision, P)、召回率(recall, R)、F1值(F1-measure)、平均準確率(average precision, AP)和計數(shù)準確率(counting accuracy, CA)這5個指標作為評價標準,計算公式參考Fawcett(2006)和王志彬等(2014)的方法,如式(1)~(5),表示如下:
(1)
(2)
(3)
(4)
(5)
其中,真陽性(true positive, TP)指被算法檢測到為草地貪夜蛾且真實是草地貪夜蛾的樣本數(shù)量;假陽性(false negative, FP),也就是誤檢,指被算法檢測為草地貪夜蛾但真實不是草地貪夜蛾的樣本數(shù)量;假陰性(false negative, FN),也就是漏檢,指被算法檢測為非草地貪夜蛾但真實是草地貪夜蛾的樣本數(shù)量。F1值是基于準確率和召回率的調和平均值。AP值是根據(jù)準確率(P)和召回率(R)繪制的P-R曲線與坐標軸之間的面積。m表示人工計數(shù)草地貪夜蛾的樣本數(shù)量。
為驗證清除邊緣殘缺目標對檢測精度的影響,分別使用訓練數(shù)據(jù)集A1和A2進行對比試驗,結果見表4。與未處理的原始圖片訓練的模型Yolov5s-A1相比,通過數(shù)據(jù)集A2訓練獲得的模型Yolov5s-A2對測試集(T1+T2+T3)中草地貪夜蛾識別的準確率(P)提升了5.78%,召回率(R)下降了5.47%,F(xiàn)1值下降了0.02。 其中,簡單數(shù)據(jù)集T1的準確率(P)提升2.61%,召回率(R)下降3.09%, F1值下降0.26; 困難數(shù)據(jù)集T2的準確率(P)提升4.17%, 召回率(R)下降5.86%,F(xiàn)1值下降1.32。結果表明,清除邊緣殘缺目標可以提高模型的識別準確率,對困難數(shù)據(jù)集的檢測精度的影響大于簡單數(shù)據(jù)集。從P-R曲線可以看出,模型Yolov5s-A2要優(yōu)于Yolov5s-A1(圖6)。
分別使用訓練數(shù)據(jù)集A1, A1+B和A1+B+C訓練Yolov5s網(wǎng)絡模型,得到Yolov5s-A1, Yolov5s-AB和Yolov5s-ABC 3個草地貪夜蛾網(wǎng)絡模型。進一步利用測試集T1, T2, T3和T1+T2+T3進行驗證。結果表明,模型Yolov5s-AB的F1值、AP值均高于模型Yolov5s-A1;雖然模型Yolov5s-ABC能更好地檢測出無目標對象的圖像,但是整體F1值、AP值均低于模型Yolov5s-AB(表4)。從P-R曲線可以看出,模型Yolov5s-AB和Yolov5s-ABC優(yōu)于Yolov5s-A1(圖6)。
如果誘捕蟲量較大,會存在草地貪夜蛾蟲體間相互遮擋重疊的問題,這將對檢測結果產(chǎn)生較大影響。因此,我們將遮擋程度作為控制變量,分別取測試集T1和T2驗證檢測結果,見表4和圖4(A-L)。其中AP值最高的Yolov5s-AB網(wǎng)絡模型,對輕度遮擋簡單測試集的識別,模型的準確率(P)為97.42%,召回率(R)為97.92%,F(xiàn)1值為97.67。對遮擋重疊復雜測試集的識別,準確率(P)為96.84%,召回率(R)為90.93%,F(xiàn)1值為93.79。結果表明,在草地貪夜蛾被遮擋以及重疊的情況下,Yolov5s-AB網(wǎng)絡模型的識別精度會有所降低,但仍能大部分檢測出。
在實際應用中,存在機器定時自動采集的圖片中沒有草地貪夜蛾或其他昆蟲的情況。本研究選擇12張斜紋夜蛾的圖像、12張空白背景、36張其他昆蟲等共60張無檢測目標的圖像(圖4: M-P)來測試檢測模型。結果顯示,4個檢測模型Yolov5s-A1, Yolov5s-A2, Yolov5s-AB和Yolov5s-ABC的誤檢樣本數(shù)FP分別為184,101, 15和1頭,其中使用Yolov5s-ABC檢測網(wǎng)絡進行檢測,60張圖像中只有1張為其他昆蟲(1頭粘蟲)圖像誤檢為草地貪夜蛾。
圖4 4個不同網(wǎng)絡模型檢測結果對比Fig. 4 Comparison of detection results using four different network modelsA-D: 簡單測試集T1 Simple test training dataset T1; E-L: 復雜測試集T2 Complicated test training dataset T2; L-M: 無目標測試集T3 No object test training dataset T3; A, E, I, M: Yolov5s-A1; B, F, J, N: Yolov5s-A2; C, G, K, O: Yolov5s-AB; D, H, L, P: Yolov5s-ABC; SF: 草地貪夜蛾成蟲Spodoptera frugiperda adults; MS: 斜紋夜蛾成蟲S. litura adults.
將4個識別模型與人工計數(shù)的方法進行比較,應用公式(5)進行計數(shù)準確率計算。4個模型中對簡單數(shù)據(jù)集的計數(shù)準確率最高的為Yolov5s-AB,最低的為Yolov5s-ABC;對復雜數(shù)據(jù)集的計數(shù)準確率最高的為Yolov5s-AB,最低的為Yolov5s-A1(表5)。各梯度測試集比較結果顯示,模型Yolov5s-AB效果最好。以每張測試集圖像的人工計算的蟲量作為橫坐標,對應的模型算法計算的蟲量作為縱坐標,繪制散點圖,并且畫出y=x直線,結合y=x直線和散點的分布對4個模型進行分析。模型Yolov5s-AB的散點分布最靠近人工計數(shù)y=x直線,也就是說該模型的優(yōu)于其他3模型;從每張圖片包含的蟲量上看,當單張蟲量小于40頭時,4個模型和人工計數(shù)基本符合線性模型,大于40頭時,出現(xiàn)個別離群點現(xiàn)象(圖5)。
表5 不同網(wǎng)絡模型不同梯度測試集的識別計數(shù)結果對比Table 5 Comparison of counting results using differentgradient test sets and network models
圖5 算法計數(shù)與人工計數(shù)差異分析Fig. 5 Analysis results of algorithm counting and manual countingA: Yolov5s-A1; B: Yolov5s-A2; C: Yolov5s-AB; D: Yolov5s-ABC. 點號示一張圖片。A dot indicates an image.
通過不同訓練集構建了4個識別模型,分別為原始圖像集Yolov5s-A1、清除邊緣殘缺目標圖像集Yolov5s-A2、增加斜紋夜蛾樣本圖像訓練的模型Yolov5s-AB和增加無檢測對象負樣本訓練的模型Yolov5s-ABC。4個識別模型對測試集T1+T2+T3檢測的P-R曲線如圖6所示。 4個模型Yolov5s-A1, Yolov5s-A2, Yolov5s-AB和Yolov5s-ABC的AP值分別為94.01%, 97.00%, 99.09%和98.70%(表4),從高到低排列為:Yolov5s-AB>Yolov5s-ABC>Yolov5s-A2>Yolov5s-A1,其中Yolov5s-AB與Yolov5s-ABC結果相近。
圖6 4種不同數(shù)據(jù)集訓練的模型P-R曲線比較Fig. 6 Comparison of P-R curves of the model trained with four different training sets
深度學習正迅速成為圖像分類的標準技術。利用深度學習方法進行植物病蟲害自動識別面臨的主要問題是缺乏能夠反映實際病蟲害的各種狀況和癥狀特征的圖像數(shù)據(jù)庫(Barbedo, 2019)。圖像處理等數(shù)據(jù)擴充技術降低了樣本量不足的影響,但這些技術不能再現(xiàn)大多數(shù)實際的多樣性應用場景。魏靖等(2020)、于業(yè)達等(2019)、Chulu等(2019)、Chiwamba等(2019)等基于深度學習技術的草地貪夜蛾圖像識別研究,其數(shù)據(jù)集的圖像來源于網(wǎng)上下載、實驗室獲取、田間拍攝、數(shù)據(jù)增強等方式,采集數(shù)據(jù)量小,適用于田間單只草地貪夜蛾成蟲的識別,與我國現(xiàn)行的草地貪夜蛾監(jiān)測的實際應用場景不一致。本研究從田間草地貪夜蛾性誘測報的實際應用出發(fā),除了應用相機、手機等人工采集誘捕器上的圖像外,還采用本單位自主研發(fā)的自動監(jiān)測設備來定期采集圖像,有效地拓展了實際應用場景下的真實樣本數(shù)量,通過這兩種方法共采集2 981幅原始圖像,其中草地貪夜蛾訓練樣本數(shù)量792幅10 824頭。
本研究利用深度學習中的Yolov5s網(wǎng)絡模型對害蟲自動監(jiān)測設備、相機、手機等多種設備拍攝條件下的草地貪夜蛾圖像進行訓練,結果表明,獲得4個草地貪夜蛾自動識別與計數(shù)模型,在3個不同難易梯度的測試集上測試中,模型Yolov5s-AB的檢測精度最高,對遮擋和重疊干擾具有更強魯棒性,準確率和召回率分別達96.84%和90.93%,F(xiàn)1值達93.79,計數(shù)準確率CA值達89.01%。研究結果證實了利用深度學習開發(fā)草地貪夜蛾識別計數(shù)模型是可行的,且能夠達到較高的識別準確率。本研究與魏靖等(2020)基于深度學習的草地貪夜蛾圖像識別模型研究比較,參加模型訓練的草地貪夜蛾訓練樣本數(shù)據(jù)量更大,且圖像均來源于田間的實際應用場景,研究結果可直接應用于草地貪夜蛾誘捕器粘蟲板的識別計數(shù)以及自動監(jiān)測設備。
本研究采用去除邊緣殘缺目標的方式,實質上是通過減小標注邊界框內非目標前景區(qū)域特征的干擾,增強了對目標前景區(qū)域卷積特征的學習,通過清除背景邊界框內被遮擋的殘缺草地貪夜蛾及其他干擾物的數(shù)據(jù)集訓練獲得的模型Yolov5s-A2,其識別性能優(yōu)于未處理的原始圖片訓練的模型Yolov5s-A1,但出現(xiàn)準確率提升而召回率下降的情況,這與Barbedo(2018)報道的結果完全相一致。此外,本研究中模型Yolov5s-A2的準確率提升了5.78%,但召回率卻下降了5.47%,與薛月菊等(2018)的報道的準確率和召回率分別提高了1.5%和2.38%相比,存在較大差異。因此可推斷,在清除背景中邊緣殘缺目標的算法中雖然增強了對目標前景區(qū)域卷積特征的學習,但弱化了背景與檢測目標相關性的特征學習。在實際應用場景中,背景往往與檢測目標處于不可分狀態(tài),因此,通過去除背景的方法雖然提高了準確率,但是會降低查全率,不適用于草地貪夜蛾的田間圖像識別計數(shù)。
本研究發(fā)現(xiàn),增加斜紋夜蛾樣本圖像訓練的模型Yolov5s-AB優(yōu)于單一草地貪夜蛾樣本訓練的模型Yolov5s-A1,但與增加負樣本無檢測目標的模型Yolov5s-ABC無明顯差異,表明增加相似特征的數(shù)據(jù)類別對提高圖像識別率有著重要作用,而增加負樣本對提高圖像識別率作用有限。這可能是斜紋夜蛾和草地貪夜蛾同屬于夜蛾科昆蟲,成蟲外型大小、可見特征相似,可以提升相似部分的特征學習分辯效率。這個結果與Tian等(2019)報道的增加數(shù)據(jù)類別的數(shù)量可以提高Yolo模型的檢測能力的結果相一致。因此,在樣本數(shù)據(jù)集構建過程中,可以增加檢測目標相似特征數(shù)據(jù)類別的樣本數(shù)據(jù)的采集,可以提升模型的泛化能力(generalization ability)。
本研究首次將YOLO-V5應用于草地貪夜蛾監(jiān)測的識別計數(shù)問題,結果表明將深度學習應用于控制條件下害蟲監(jiān)測設備及誘捕器粘蟲板上草地貪夜蛾的識別計數(shù)是可行的;增加相似特征數(shù)據(jù)類別的斜紋夜蛾樣本數(shù)據(jù)對提高草地貪夜蛾圖像識別算法的準確率有著重要作用。因此將本研究的優(yōu)化模型作為草地貪夜蛾種群消長圖像監(jiān)測的核心算法,可為草地貪夜蛾自動化監(jiān)測設備的精準監(jiān)測提供核心技術支撐,為廣泛開展田間的草地貪夜蛾種群智能化監(jiān)測預警提供科學依據(jù)。