何穎,陳丁號,彭琳
(云南農(nóng)業(yè)大學(xué)大數(shù)據(jù)學(xué)院,昆明市,650201)
經(jīng)濟(jì)林木是指經(jīng)濟(jì)價值較高的林木,我國森林資源的重要組成部分[1]。在林木生長階段,一旦發(fā)生蟲害,后果將十分嚴(yán)重,在經(jīng)濟(jì)效益受損的同時,生態(tài)平衡也會被打破。從源頭控制森林蟲害,采取蟲害精確檢測的防治措施是提升經(jīng)濟(jì)林木資源保護(hù),促使林業(yè)生態(tài)環(huán)境持續(xù)優(yōu)化的重要舉措[2]。
近年來,我國研究人員在基于光譜分析技術(shù)對作物的光譜圖像進(jìn)行蟲害檢測分析領(lǐng)域,進(jìn)行了大量探索性研究。例如,田有文等[3]利用主成分分析法(PCA)和BP神經(jīng)網(wǎng)絡(luò)對蘋果高光譜圖像進(jìn)行蟲害快速檢測。劉子毅[4]利用對農(nóng)田蟲害光譜數(shù)據(jù)進(jìn)行圖像數(shù)據(jù)特征分析,實(shí)現(xiàn)了農(nóng)業(yè)蟲害的自動化檢測。鄧小玲等[5]利用柑橘葉片熒光數(shù)據(jù)進(jìn)行概率神經(jīng)網(wǎng)絡(luò)建模及分類處理,實(shí)現(xiàn)了對健康的、非黃龍病黃化的以及患有黃龍病的三種柑橘植株的鑒別。但上述方法所需數(shù)據(jù)的獲取和處理成本較高,不利于推廣。隨著農(nóng)業(yè)信息設(shè)施的推廣,蟲害照片圖像的采集和存儲變得越來越容易,同時深度學(xué)習(xí)也在圖像處理領(lǐng)域取得了新的進(jìn)展,因此采用深度學(xué)習(xí)對蟲害數(shù)據(jù)進(jìn)行分析越來越受到關(guān)注。例如,張軍國等[6]首先對無人機(jī)航拍的蟲害數(shù)據(jù)進(jìn)行去噪處理,然后利用分水嶺算法對蟲害區(qū)域進(jìn)行分割提取。楊國國等[7]通過AlexNet卷積神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)茶園害蟲檢測,并采用圖像顯著性分析和Grabcut算法對茶葉害蟲進(jìn)行定位,其檢測準(zhǔn)確率可達(dá)91.5%;李衡霞等[8]利用VGG16卷積神經(jīng)網(wǎng)絡(luò)提取油菜蟲害圖像的特征,然后用區(qū)域候選網(wǎng)絡(luò)滑窗生成油菜害蟲位置候選框,最后Fast R-CNN實(shí)現(xiàn)候選框的分類和定位。Tetila等[9]首先使用簡單線性迭代聚類(SLIC)方法分割圖像,然后使用CNN分類模型對大豆葉片蟲害進(jìn)行識別。但上述方法需要對數(shù)據(jù)進(jìn)行預(yù)處理,同時也大多局限于單種作物的蟲害檢測。并且,針對經(jīng)濟(jì)林木蟲害數(shù)據(jù)集(含20種經(jīng)濟(jì)林木蟲害)的目標(biāo)檢測研究還未見報道。
本文針對經(jīng)濟(jì)林木蟲害目標(biāo)小,一張圖片含多個目標(biāo)等問題,采用特征融合技術(shù)和修改自適應(yīng)Anchor計算方法對YOLOv5主干網(wǎng)絡(luò)模型進(jìn)行改進(jìn),并在含20種經(jīng)濟(jì)林木蟲害的圖像數(shù)據(jù)集上進(jìn)行試驗,旨在為經(jīng)濟(jì)林木蟲害預(yù)警系統(tǒng)提供算法支撐。
1.1.1 YOLOv5網(wǎng)絡(luò)簡介
YOLOv5模型是You only look once(YOLO)系列最新的一階段算法模型,是在YOLOv3[10]的基礎(chǔ)上進(jìn)行改進(jìn),具有模型尺度靈活多變,部署成本低,訓(xùn)練時間和推理速度更快等特點(diǎn)。YOLOv5模型結(jié)構(gòu)可分為四部分,分別是輸入端、骨干網(wǎng)、特征網(wǎng)絡(luò)架構(gòu)以及輸出端[11]。
由輸入端包括Mosaic數(shù)據(jù)增強(qiáng)、自適應(yīng)圖片縮放以及自適應(yīng)錨框三部分。Mosaic數(shù)據(jù)增強(qiáng)將四張圖片進(jìn)行有序組合,達(dá)到豐富圖片背景的效果。自適應(yīng)圖片縮放是將原始圖片自適應(yīng)添加黑邊,統(tǒng)一縮放到一個標(biāo)準(zhǔn)尺寸,再送入檢測網(wǎng)絡(luò)中。自適應(yīng)錨框是指每次訓(xùn)練時,自適應(yīng)的計算訓(xùn)練集中的最佳錨框值。
骨干網(wǎng)結(jié)構(gòu)主要包含了Focus、BottleneckCSP模塊和SPP(空間金字塔池化),F(xiàn)ocus模塊是將圖像進(jìn)行切片操作,如圖1所示,將一張2×2×3的圖像進(jìn)行切片之后變成1×1×12的特征圖,將輸入通道擴(kuò)充為原來的4倍,并經(jīng)過一次卷積操作得到下采樣特征圖,減少了模型的計算量,提升了運(yùn)算速度。BottleneckCSP模塊參考CSPNet[12](跨階段局部網(wǎng)絡(luò))由卷積層和X個Resnet模塊組成,增強(qiáng)整個算法模型學(xué)習(xí)性能的同時大幅減少計算量,圖片經(jīng)過BottleneckCSP模塊后提取特征,再經(jīng)過空間金字塔池化提取固定大小特征,解決了輸入圖像大小必須固定的問題,從而可以使得輸入圖像高寬比和大小任意。
圖1 Focus操作示意圖Fig. 1 Focus operation diagram
特征網(wǎng)絡(luò)架構(gòu)采用了與PANet[13](路徑聚合網(wǎng)絡(luò))結(jié)合的結(jié)構(gòu),主要解決目標(biāo)檢測中的多尺度檢測問題,F(xiàn)PN(特征金字塔網(wǎng)絡(luò))將高層的特征信息通過使用自下而上,自上而下,橫向連接三種方式進(jìn)行特征傳遞融合,提高最后網(wǎng)絡(luò)層特征信息能力,不過FPN只增強(qiáng)了語義信息傳遞,對淺層定位信息傳遞較弱。而PANet是在FPN通過3×3卷積后再添加一個自底向上的金字塔,加強(qiáng)定位信息的傳遞。YOLOv5將FPN生成的76×76的特征作為輸出。同時,將PANet生成的38×38,19×19的特征作為輸出,結(jié)合Anchor,完成不同尺度目標(biāo)的檢測。
輸出端采用GIOU_Loss(廣義交叉聯(lián)合)做Boundingbox(邊框回歸)的損失函數(shù),在目標(biāo)檢測的后處理過程中,針對很多目標(biāo)框的篩選,通常還需要Non-Maximum Suppression(非極大值抑制)操作,生成的三種不同大小特征圖用于后面的loss(損失函數(shù))計算。
YOLOv5模型結(jié)構(gòu)如圖2所示。
圖2 YOLOv5網(wǎng)絡(luò)模型Fig. 2 YOLOv5 network model
1.1.2 YOLOv5模型改進(jìn)
針對YOLOv5模型在經(jīng)濟(jì)林木蟲害檢測中的實(shí)際需求,本文對YOLOv5模型做出如下改進(jìn)。
1) 根據(jù)感受野計算公式(1),在卷積神經(jīng)網(wǎng)絡(luò)中網(wǎng)絡(luò)結(jié)構(gòu)特征圖的感受野是隨著卷積層數(shù)加深而越變越大的如圖3所示,而感受野區(qū)域內(nèi)的像素點(diǎn)會影響特征信息的輸出。于是選擇合適大小Anchor去覆蓋特征圖上感受野可提高模型檢測召回率。YOLOv5模型依靠人工設(shè)計9個不同大小的Anchor框,來定位不同特征層級上不同尺度大小的目標(biāo),如果Anchor太小只能觀察到局部的特征,不足以得到整個目標(biāo)的信息。如果Anchor過大則會引入過多噪聲和無效信息。因此合理的調(diào)整Anchor的大小,可減少網(wǎng)絡(luò)模型計算量以及提高定位的準(zhǔn)確率。而通常Anchors是基于bounding boxes(邊界框)與Anchor之間平均歐氏距離進(jìn)行計算,本文將自適應(yīng)錨框計算方法修改為1-IoU(bboxes,Anchors)[14],具體步驟為在所有的bboxes中隨機(jī)挑選k(k大于類別數(shù))個作為簇的中心,再計算每個bboxes離每個簇的距離1-IoU(bboxes,Anchors),根據(jù)1-IoU計算每個bboxes距離最近的簇中心,并分配到離它最近的簇中。然后根據(jù)計算中值重新計算每個簇中的bboxes簇中心,一直重復(fù)上述操作直到每個簇中元素不在變化,如圖4所示(k=3)。
(1)
式中:Hk——第k網(wǎng)絡(luò)層的感受野大??;
Fk——第k層卷積核大?。?/p>
Si——第i層步長。
(a) stage0_Focus_features
(b) stage14_Conv_features圖3 不同特征層感受野對比Fig. 3 Comparison of receptive fields in different feature layers
(a) 開始
(b) 第4次
(c) 第13次
(d) 第15次
(e) 第19次
(f) 結(jié)束圖4 修改K-means聚類獲得Anchor區(qū)間Fig. 4 Modify K-means clustering to obtain Anchor interval
2) 根據(jù)CNN(卷積神經(jīng)網(wǎng)絡(luò))特性,特征信息會隨著卷積操作而減少或者消失,從而增加了小目標(biāo)物體的檢測難度。針對上述問題,在骨干網(wǎng)絡(luò)額外添加一層特征提取層,這樣可在不增加計算量的情況下,提升模型對淺層特征的提取能力。同時將提取的特征層信息與最后幾層卷積層進(jìn)行融合,提升模型對小目標(biāo)物體的特征信息。具體改進(jìn)如圖5所示,將網(wǎng)絡(luò)層經(jīng)過Focus后進(jìn)行1×1的卷積分支操作,提取圖片淺層特征信息如經(jīng)濟(jì)林木蟲害顏色特征,邊緣特征等,并對特征圖進(jìn)行上采樣等處理,使得特征圖繼續(xù)擴(kuò)大,同時在第5層時,將獲取到的大小為160×160的特征圖與骨干網(wǎng)絡(luò)中第4層網(wǎng)絡(luò)層進(jìn)行級聯(lián)融合,以獲得對小目標(biāo)物體具有更多語義信息的特征圖。骨干網(wǎng)絡(luò)經(jīng)過Focus操作后經(jīng)過3×3Conv+BN+ReLU運(yùn)算后,輸入到BottleneckCSP層進(jìn)行非線性運(yùn)算將得到的特征圖直接傳入下一級頸部網(wǎng)絡(luò)中,重復(fù)上述步驟,這樣可以增強(qiáng)模型其對于不同縮放尺度對象的檢測,從而能夠識別不同大小和尺度的同一個物體。
圖5 改進(jìn)的YOLOv5骨干網(wǎng)絡(luò)模型Fig. 5 Improved YOLOv5 Backbone network model
3) 輸入圖片經(jīng)YOLOv5網(wǎng)絡(luò)中的主干網(wǎng)絡(luò)提取特征后,需要經(jīng)過檢測頸部網(wǎng)絡(luò)進(jìn)行預(yù)測輸出。本文對數(shù)據(jù)集蟲害圖像進(jìn)行分析,發(fā)現(xiàn)多數(shù)害蟲目標(biāo)都屬于中小尺寸情況如圖6所示。
圖6 數(shù)據(jù)集蟲害目標(biāo)尺寸分布Fig. 6 Data purpose object size distribution
為提升模型對小目標(biāo)物體的檢測效果,改進(jìn)原模型PANet結(jié)構(gòu)。使用BiFPN(加權(quán)雙向特征金字塔網(wǎng)絡(luò))[15]對原始的FPN模塊進(jìn)行改進(jìn)增添上下文信息的邊,并乘以一個相應(yīng)的權(quán)重(圖7),將YOLOv5模型中低層特征與高層特征進(jìn)行高效融合,使其具有強(qiáng)語義信息的同時對細(xì)節(jié)仍有較強(qiáng)的感知力,達(dá)到提升模型對小目標(biāo)檢測的精度,具體改進(jìn)如圖8所示。
圖7 加權(quán)雙向特征金字塔網(wǎng)絡(luò)Fig. 7 Weighted bi-directional feature pyramid network
改進(jìn)PANet網(wǎng)絡(luò)結(jié)構(gòu)只有單條輸入和輸出邊的結(jié)點(diǎn),在輸入輸出結(jié)點(diǎn)是同一層級時,使用殘差方式[16]增加一條額外的輸入和輸出邊,這樣可以在不增加額外開銷的同時融合更多圖片特征,通過不同層級連接和同級跨越連接這樣高效的多尺度特征融合方式,并對每一條邊引入了加權(quán)策略,重復(fù)上述操作最終獲得四個不同層級的特征圖,增強(qiáng)網(wǎng)絡(luò)模型的預(yù)測信息。
(b) Our圖8 改進(jìn)之后的特征網(wǎng)絡(luò)架構(gòu)對比Fig. 8 Comparison of improved feature network architecture
本文所有試驗基于Pytorch深度學(xué)習(xí)框架,實(shí)現(xiàn)網(wǎng)絡(luò)的訓(xùn)練和測試,實(shí)驗室服務(wù)器的主要配置如下,硬件平臺是NVIDIAGeForceRTX3090顯卡運(yùn)行內(nèi)存為24 GB和AMDEPYC7302中央處理器并且運(yùn)行內(nèi)存為64 GB,操作系統(tǒng)為Ubuntu20.04,使用Python語言編程訓(xùn)練和測試。
模型進(jìn)行訓(xùn)練時,使用COCO上的預(yù)訓(xùn)練權(quán)重初始化網(wǎng)絡(luò)參數(shù),同時為了防止梯度爆炸將初始學(xué)習(xí)率設(shè)置為0.01[17],采用Adam[18]算法作為神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法,動量因子設(shè)置為0.9,權(quán)重衰減系數(shù)設(shè)置為0.001。
由于經(jīng)濟(jì)林木蟲害數(shù)據(jù)稀缺且難以收集,為了保證收集數(shù)據(jù)準(zhǔn)確性,本文試驗數(shù)據(jù)集部分來源于大規(guī)模開源數(shù)據(jù)集IP102[19],部分來源于北京林業(yè)大學(xué)昆蟲數(shù)據(jù)集[20]。以經(jīng)濟(jì)林木為范圍,本文收集了20種經(jīng)濟(jì)林木蟲害,共3 907張圖片,部分圖片如圖9所示,具體類別如圖10所示。
為選取最優(yōu)模型,本文采用多項指標(biāo)對模型的性能進(jìn)行評估,具體指標(biāo)包括交并比(IoU)、準(zhǔn)確率(P)、召回率(R)、平均精度均值(mAP)。
(2)
式中:Ba——預(yù)測框的區(qū)域;
Bb——真實(shí)框的區(qū)域。
(a) Adristyrannus (b) Aphids
圖10 各個類別以及Anchor圖Fig. 10 Various categories and Anchor diagrams
IoU越高,代表預(yù)測框與真實(shí)框的重疊度越高,則預(yù)測值就越接近真實(shí)值。
(3)
(4)
(5)
式中:TP——正樣本被檢測為正樣本數(shù)量;
FP——負(fù)樣本被檢測為正樣本數(shù)量;
FN——正樣本被檢測為負(fù)樣本數(shù)量;
N——檢測樣本類別數(shù)量。
分別用YOLOv5模型與最終改進(jìn)YOLOv5模型對經(jīng)濟(jì)林木蟲害進(jìn)行檢測,對比蟲害識別準(zhǔn)確率以及識別位置。圖11和表1是兩種模型識別對比結(jié)果。
(a) 未改進(jìn)模型檢測效果
Bird cherry-oata phid
Fig. 11 Comparison of two model detection effects
從圖11(a)可知未改進(jìn)模型對大目標(biāo)物體識別準(zhǔn)確率為70%,且小目標(biāo)物體并未識別出來存在明顯不足,而經(jīng)過改進(jìn)的模型,不僅對大目標(biāo)物體識別準(zhǔn)確率提升了15%,而且小目標(biāo)物體也能達(dá)到與大目標(biāo)物體一樣的準(zhǔn)確率。
本文將圖片大小進(jìn)行resize操作,統(tǒng)一保持輸入圖片像素為640×640。然后采用隨機(jī)亮度變換、Random Erasing、隨機(jī)添加高斯噪聲等數(shù)據(jù)增強(qiáng)方法進(jìn)行數(shù)據(jù)擴(kuò)充,數(shù)據(jù)分布如圖12和圖13所示。再按8∶2比例劃分訓(xùn)練集、測試集,將原始數(shù)據(jù)與增強(qiáng)之后數(shù)據(jù)在本文改進(jìn)的模型上進(jìn)行對比試驗,增強(qiáng)結(jié)果如表2所示。由表3可知,通過增強(qiáng)后的數(shù)據(jù),模型能明顯提升對經(jīng)濟(jì)林木蟲害特征的提取,mAP提升了0.172。
(a) 數(shù)據(jù)增強(qiáng)前真實(shí)框在原圖位置分布圖
(b) 數(shù)據(jù)增強(qiáng)前真實(shí)框長寬分布圖圖12 數(shù)據(jù)增強(qiáng)前真實(shí)標(biāo)簽分布圖Fig. 12 Real label distribution before data enhancement
(a) 數(shù)據(jù)增強(qiáng)后真實(shí)框在原圖位置分布圖
(b) 數(shù)據(jù)增強(qiáng)后真實(shí)框長寬分布圖圖13 數(shù)據(jù)增強(qiáng)后真實(shí)標(biāo)簽分布圖Fig. 13 Real label distributim after data enhancement
表2 各類別真實(shí)框數(shù)量對比Tab. 2 Comparison of the number of true boxes of various categories
因一張圖片可能包含多種類別,多個數(shù)量。所以表2真實(shí)框數(shù)量遠(yuǎn)遠(yuǎn)大于圖片數(shù)量。
表3 數(shù)據(jù)增強(qiáng)對比試驗Tab. 3 Dataenhancementcomparison test
采用增強(qiáng)后數(shù)據(jù)集作為輸入數(shù)據(jù),將改進(jìn)主干網(wǎng)絡(luò)與未改進(jìn)主干網(wǎng)絡(luò)進(jìn)行對比試驗,結(jié)果如表4所示。由表可知,改進(jìn)的主干網(wǎng)絡(luò)模型比未改進(jìn)的模型mAP提高了0.002。證實(shí)了該改進(jìn)的有效性。
表4 主干網(wǎng)絡(luò)對比試驗Tab. 4 Comparison test of backbone network
首先采用自適應(yīng)錨框算法得出數(shù)據(jù)集合適Anchor(錨框)大小,如表5所示,更改模型Anchor大小與未改進(jìn)模型進(jìn)行對比試驗,結(jié)果如表6所示??勺C實(shí)改進(jìn)之后自適應(yīng)錨框大小更符合本文數(shù)據(jù)集,相比mAP提升0.017。
表5 調(diào)整自適應(yīng)錨框大小結(jié)果Tab. 5 Results of resizing adaptive Anchor box size
表6 調(diào)整自適應(yīng)錨框?qū)Ρ仍囼濼ab. 6 Improved adaptive Anchor box contrastive experiment
采用增強(qiáng)后的數(shù)據(jù)集作為輸入數(shù)據(jù),只進(jìn)行特征網(wǎng)絡(luò)架構(gòu)改進(jìn)與未改改進(jìn)特征網(wǎng)絡(luò)架構(gòu)對比試驗,結(jié)果如表7所示??梢钥闯觯?jīng)過改進(jìn)特征網(wǎng)絡(luò)架構(gòu)后的特征提取能力更強(qiáng),與改進(jìn)前相比,其mAP提升了0.04。
表7 特征網(wǎng)絡(luò)架構(gòu)對比試驗Tab. 7 Feature network architecture comparison test
為了驗證本文提出的所有改進(jìn)能否取得更好的檢測效果,在增強(qiáng)后數(shù)據(jù)集上進(jìn)行對比測試實(shí)驗。為了確保試驗嚴(yán)謹(jǐn),本消融試驗中,網(wǎng)絡(luò)設(shè)置、訓(xùn)練步驟、所用Pytorch版本、CUDA版本以及顯卡平臺均保持一致。上述試驗已驗證了改進(jìn)后主干網(wǎng)絡(luò)結(jié)構(gòu)模型的有效性,因此后續(xù)試驗都將使用改進(jìn)后的主干網(wǎng)絡(luò)作為基準(zhǔn)模型,針對自適應(yīng)錨框和改進(jìn)特征網(wǎng)絡(luò)架構(gòu)進(jìn)行消融實(shí)驗,試驗結(jié)果所表8所示。由表8可知,本文提出的所有改進(jìn)能夠在經(jīng)濟(jì)林木蟲害數(shù)據(jù)集上取得更好的檢測效果,與原始YOLOv5模型相比,改進(jìn)模型mAP提升了0.111。
表8 多改進(jìn)消融試驗Tab. 8 Multiple improvement of ablation test
為了更好地證明本文改進(jìn)算法的性能,還與各個先進(jìn)模型在檢測精度與推斷速度進(jìn)行試驗比較,結(jié)果如表9所示,效果對比如表10以及圖14所示。
表9 本文算法與先進(jìn)目標(biāo)檢測算法實(shí)驗對比Tab. 9 Comparative comparison of this algorithm and advanced object detection algorithm
表10 各模型檢測對比Tab. 10 Comparison of each model detection
綜合來看,本文算法相比于其他算法,對經(jīng)濟(jì)林木蟲害的檢測效果更好。與YOLO系列算法模型YOLOv3、YOLOv4相比不僅在mAP上保持優(yōu)勢,而且在推斷速度上也保持領(lǐng)先地位。與二階段算法傳統(tǒng)模型Faster-RCNN相比mAP提升相對較少,但是在推斷速度上依舊保持著單階段算法的優(yōu)勢達(dá)到了64.9幀,并且模型大小只有其1/5,與Anchor-free模型CenterNet相比在保持更大尺寸圖片輸入情況下,檢測精度更高。
本文在相同環(huán)境下與Faster-RCNN、YOLOv3、YOLOv4、CenterNet四種模型進(jìn)行對比,實(shí)驗結(jié)果表明:本文提出的改進(jìn)模型在推斷速度上明顯優(yōu)于二階段目標(biāo)檢測方法,原因是本文提出的改進(jìn)算法屬于一階段目標(biāo)檢測算法。雖然本文提出的改進(jìn)模型與YOLOv5算法相比在精確度上處于領(lǐng)先位置,但推斷速度稍遜于YOLOv5,原因是本文增加了小目標(biāo)特征提取層和檢測層,這種改動在增強(qiáng)目標(biāo)特征提取能力的同時也增加了模型參數(shù)。
圖14 檢測圖片真實(shí)框分布圖Fig. 14 Detect picture ground truth box profile
1) 本文提出了一種基于改進(jìn)YOLOv5模型的經(jīng)濟(jì)林木蟲害目標(biāo)檢測算法,這種方法精度高、速度快,其平均精度均值達(dá)到了0.923,平均檢測一張圖片時間僅需0.015 s,該方法可直接用于經(jīng)濟(jì)林木病蟲害預(yù)警系統(tǒng)。
2) 本文采用隨機(jī)亮度變換、Random Erasing、隨機(jī)添加高斯噪聲等方法進(jìn)行數(shù)據(jù)擴(kuò)充,解決數(shù)據(jù)樣本不平衡會影響模型的性能問題,實(shí)驗結(jié)果證明了數(shù)據(jù)增強(qiáng)的有效性。針對經(jīng)濟(jì)林木蟲害這個目標(biāo)小、大小不一的特點(diǎn),本文采用了自適應(yīng)錨框,相對于模型原有的錨框參數(shù),自適應(yīng)錨框可以根據(jù)數(shù)據(jù)集對錨框參數(shù)進(jìn)行調(diào)整,從而提高了模型的性能。由于本文數(shù)據(jù)集沒有做背景去除處理,因此特征的提取也變得更難,本文增加了一層小目標(biāo)特征提取層、修改特征金字塔結(jié)構(gòu)以及增加一層檢測層,相對于原有網(wǎng)絡(luò)結(jié)構(gòu),這種方式提取目標(biāo)特征的能力更強(qiáng),其平均精度均值提高了0.113。
3) 本文改進(jìn)的YOLOv5模型在經(jīng)濟(jì)林木蟲害數(shù)據(jù)集上的平均精度均值為0.923,推斷速度達(dá)到64.9幀,模型大小為99.6M,其結(jié)果明顯優(yōu)于與之對比的目標(biāo)檢測算法模型(YOLOv3、YOLOv4、Faster-RCNN、CenterNet),此外也證明了本文所有改進(jìn)(數(shù)據(jù)增強(qiáng)、改進(jìn)主干網(wǎng)絡(luò)、改進(jìn)特征網(wǎng)絡(luò)架構(gòu)和自適應(yīng)錨框)在經(jīng)濟(jì)林木蟲害數(shù)據(jù)集上的有效性,可為經(jīng)濟(jì)林木蟲害預(yù)警系統(tǒng)提供算法支撐。受限于試驗數(shù)據(jù)集中蟲害種類的局限性,本文在后續(xù)研究中將增加經(jīng)濟(jì)林木蟲害的種類以擴(kuò)充數(shù)據(jù)集。