亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv5模型的經(jīng)濟(jì)林木蟲害目標(biāo)檢測算法研究*

        2022-04-24 12:55:40何穎陳丁號彭琳
        關(guān)鍵詞:特征檢測模型

        何穎,陳丁號,彭琳

        (云南農(nóng)業(yè)大學(xué)大數(shù)據(jù)學(xué)院,昆明市,650201)

        0 引言

        經(jīng)濟(jì)林木是指經(jīng)濟(jì)價值較高的林木,我國森林資源的重要組成部分[1]。在林木生長階段,一旦發(fā)生蟲害,后果將十分嚴(yán)重,在經(jīng)濟(jì)效益受損的同時,生態(tài)平衡也會被打破。從源頭控制森林蟲害,采取蟲害精確檢測的防治措施是提升經(jīng)濟(jì)林木資源保護(hù),促使林業(yè)生態(tài)環(huán)境持續(xù)優(yōu)化的重要舉措[2]。

        近年來,我國研究人員在基于光譜分析技術(shù)對作物的光譜圖像進(jìn)行蟲害檢測分析領(lǐng)域,進(jìn)行了大量探索性研究。例如,田有文等[3]利用主成分分析法(PCA)和BP神經(jīng)網(wǎng)絡(luò)對蘋果高光譜圖像進(jìn)行蟲害快速檢測。劉子毅[4]利用對農(nóng)田蟲害光譜數(shù)據(jù)進(jìn)行圖像數(shù)據(jù)特征分析,實(shí)現(xiàn)了農(nóng)業(yè)蟲害的自動化檢測。鄧小玲等[5]利用柑橘葉片熒光數(shù)據(jù)進(jìn)行概率神經(jīng)網(wǎng)絡(luò)建模及分類處理,實(shí)現(xiàn)了對健康的、非黃龍病黃化的以及患有黃龍病的三種柑橘植株的鑒別。但上述方法所需數(shù)據(jù)的獲取和處理成本較高,不利于推廣。隨著農(nóng)業(yè)信息設(shè)施的推廣,蟲害照片圖像的采集和存儲變得越來越容易,同時深度學(xué)習(xí)也在圖像處理領(lǐng)域取得了新的進(jìn)展,因此采用深度學(xué)習(xí)對蟲害數(shù)據(jù)進(jìn)行分析越來越受到關(guān)注。例如,張軍國等[6]首先對無人機(jī)航拍的蟲害數(shù)據(jù)進(jìn)行去噪處理,然后利用分水嶺算法對蟲害區(qū)域進(jìn)行分割提取。楊國國等[7]通過AlexNet卷積神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)茶園害蟲檢測,并采用圖像顯著性分析和Grabcut算法對茶葉害蟲進(jìn)行定位,其檢測準(zhǔn)確率可達(dá)91.5%;李衡霞等[8]利用VGG16卷積神經(jīng)網(wǎng)絡(luò)提取油菜蟲害圖像的特征,然后用區(qū)域候選網(wǎng)絡(luò)滑窗生成油菜害蟲位置候選框,最后Fast R-CNN實(shí)現(xiàn)候選框的分類和定位。Tetila等[9]首先使用簡單線性迭代聚類(SLIC)方法分割圖像,然后使用CNN分類模型對大豆葉片蟲害進(jìn)行識別。但上述方法需要對數(shù)據(jù)進(jìn)行預(yù)處理,同時也大多局限于單種作物的蟲害檢測。并且,針對經(jīng)濟(jì)林木蟲害數(shù)據(jù)集(含20種經(jīng)濟(jì)林木蟲害)的目標(biāo)檢測研究還未見報道。

        本文針對經(jīng)濟(jì)林木蟲害目標(biāo)小,一張圖片含多個目標(biāo)等問題,采用特征融合技術(shù)和修改自適應(yīng)Anchor計算方法對YOLOv5主干網(wǎng)絡(luò)模型進(jìn)行改進(jìn),并在含20種經(jīng)濟(jì)林木蟲害的圖像數(shù)據(jù)集上進(jìn)行試驗,旨在為經(jīng)濟(jì)林木蟲害預(yù)警系統(tǒng)提供算法支撐。

        1 試驗方法

        1.1 基于改進(jìn)YOLOv5模型的經(jīng)濟(jì)林木蟲害目標(biāo)檢測算法

        1.1.1 YOLOv5網(wǎng)絡(luò)簡介

        YOLOv5模型是You only look once(YOLO)系列最新的一階段算法模型,是在YOLOv3[10]的基礎(chǔ)上進(jìn)行改進(jìn),具有模型尺度靈活多變,部署成本低,訓(xùn)練時間和推理速度更快等特點(diǎn)。YOLOv5模型結(jié)構(gòu)可分為四部分,分別是輸入端、骨干網(wǎng)、特征網(wǎng)絡(luò)架構(gòu)以及輸出端[11]。

        由輸入端包括Mosaic數(shù)據(jù)增強(qiáng)、自適應(yīng)圖片縮放以及自適應(yīng)錨框三部分。Mosaic數(shù)據(jù)增強(qiáng)將四張圖片進(jìn)行有序組合,達(dá)到豐富圖片背景的效果。自適應(yīng)圖片縮放是將原始圖片自適應(yīng)添加黑邊,統(tǒng)一縮放到一個標(biāo)準(zhǔn)尺寸,再送入檢測網(wǎng)絡(luò)中。自適應(yīng)錨框是指每次訓(xùn)練時,自適應(yīng)的計算訓(xùn)練集中的最佳錨框值。

        骨干網(wǎng)結(jié)構(gòu)主要包含了Focus、BottleneckCSP模塊和SPP(空間金字塔池化),F(xiàn)ocus模塊是將圖像進(jìn)行切片操作,如圖1所示,將一張2×2×3的圖像進(jìn)行切片之后變成1×1×12的特征圖,將輸入通道擴(kuò)充為原來的4倍,并經(jīng)過一次卷積操作得到下采樣特征圖,減少了模型的計算量,提升了運(yùn)算速度。BottleneckCSP模塊參考CSPNet[12](跨階段局部網(wǎng)絡(luò))由卷積層和X個Resnet模塊組成,增強(qiáng)整個算法模型學(xué)習(xí)性能的同時大幅減少計算量,圖片經(jīng)過BottleneckCSP模塊后提取特征,再經(jīng)過空間金字塔池化提取固定大小特征,解決了輸入圖像大小必須固定的問題,從而可以使得輸入圖像高寬比和大小任意。

        圖1 Focus操作示意圖Fig. 1 Focus operation diagram

        特征網(wǎng)絡(luò)架構(gòu)采用了與PANet[13](路徑聚合網(wǎng)絡(luò))結(jié)合的結(jié)構(gòu),主要解決目標(biāo)檢測中的多尺度檢測問題,F(xiàn)PN(特征金字塔網(wǎng)絡(luò))將高層的特征信息通過使用自下而上,自上而下,橫向連接三種方式進(jìn)行特征傳遞融合,提高最后網(wǎng)絡(luò)層特征信息能力,不過FPN只增強(qiáng)了語義信息傳遞,對淺層定位信息傳遞較弱。而PANet是在FPN通過3×3卷積后再添加一個自底向上的金字塔,加強(qiáng)定位信息的傳遞。YOLOv5將FPN生成的76×76的特征作為輸出。同時,將PANet生成的38×38,19×19的特征作為輸出,結(jié)合Anchor,完成不同尺度目標(biāo)的檢測。

        輸出端采用GIOU_Loss(廣義交叉聯(lián)合)做Boundingbox(邊框回歸)的損失函數(shù),在目標(biāo)檢測的后處理過程中,針對很多目標(biāo)框的篩選,通常還需要Non-Maximum Suppression(非極大值抑制)操作,生成的三種不同大小特征圖用于后面的loss(損失函數(shù))計算。

        YOLOv5模型結(jié)構(gòu)如圖2所示。

        圖2 YOLOv5網(wǎng)絡(luò)模型Fig. 2 YOLOv5 network model

        1.1.2 YOLOv5模型改進(jìn)

        針對YOLOv5模型在經(jīng)濟(jì)林木蟲害檢測中的實(shí)際需求,本文對YOLOv5模型做出如下改進(jìn)。

        1) 根據(jù)感受野計算公式(1),在卷積神經(jīng)網(wǎng)絡(luò)中網(wǎng)絡(luò)結(jié)構(gòu)特征圖的感受野是隨著卷積層數(shù)加深而越變越大的如圖3所示,而感受野區(qū)域內(nèi)的像素點(diǎn)會影響特征信息的輸出。于是選擇合適大小Anchor去覆蓋特征圖上感受野可提高模型檢測召回率。YOLOv5模型依靠人工設(shè)計9個不同大小的Anchor框,來定位不同特征層級上不同尺度大小的目標(biāo),如果Anchor太小只能觀察到局部的特征,不足以得到整個目標(biāo)的信息。如果Anchor過大則會引入過多噪聲和無效信息。因此合理的調(diào)整Anchor的大小,可減少網(wǎng)絡(luò)模型計算量以及提高定位的準(zhǔn)確率。而通常Anchors是基于bounding boxes(邊界框)與Anchor之間平均歐氏距離進(jìn)行計算,本文將自適應(yīng)錨框計算方法修改為1-IoU(bboxes,Anchors)[14],具體步驟為在所有的bboxes中隨機(jī)挑選k(k大于類別數(shù))個作為簇的中心,再計算每個bboxes離每個簇的距離1-IoU(bboxes,Anchors),根據(jù)1-IoU計算每個bboxes距離最近的簇中心,并分配到離它最近的簇中。然后根據(jù)計算中值重新計算每個簇中的bboxes簇中心,一直重復(fù)上述操作直到每個簇中元素不在變化,如圖4所示(k=3)。

        (1)

        式中:Hk——第k網(wǎng)絡(luò)層的感受野大??;

        Fk——第k層卷積核大?。?/p>

        Si——第i層步長。

        (a) stage0_Focus_features

        (b) stage14_Conv_features圖3 不同特征層感受野對比Fig. 3 Comparison of receptive fields in different feature layers

        (a) 開始

        (b) 第4次

        (c) 第13次

        (d) 第15次

        (e) 第19次

        (f) 結(jié)束圖4 修改K-means聚類獲得Anchor區(qū)間Fig. 4 Modify K-means clustering to obtain Anchor interval

        2) 根據(jù)CNN(卷積神經(jīng)網(wǎng)絡(luò))特性,特征信息會隨著卷積操作而減少或者消失,從而增加了小目標(biāo)物體的檢測難度。針對上述問題,在骨干網(wǎng)絡(luò)額外添加一層特征提取層,這樣可在不增加計算量的情況下,提升模型對淺層特征的提取能力。同時將提取的特征層信息與最后幾層卷積層進(jìn)行融合,提升模型對小目標(biāo)物體的特征信息。具體改進(jìn)如圖5所示,將網(wǎng)絡(luò)層經(jīng)過Focus后進(jìn)行1×1的卷積分支操作,提取圖片淺層特征信息如經(jīng)濟(jì)林木蟲害顏色特征,邊緣特征等,并對特征圖進(jìn)行上采樣等處理,使得特征圖繼續(xù)擴(kuò)大,同時在第5層時,將獲取到的大小為160×160的特征圖與骨干網(wǎng)絡(luò)中第4層網(wǎng)絡(luò)層進(jìn)行級聯(lián)融合,以獲得對小目標(biāo)物體具有更多語義信息的特征圖。骨干網(wǎng)絡(luò)經(jīng)過Focus操作后經(jīng)過3×3Conv+BN+ReLU運(yùn)算后,輸入到BottleneckCSP層進(jìn)行非線性運(yùn)算將得到的特征圖直接傳入下一級頸部網(wǎng)絡(luò)中,重復(fù)上述步驟,這樣可以增強(qiáng)模型其對于不同縮放尺度對象的檢測,從而能夠識別不同大小和尺度的同一個物體。

        圖5 改進(jìn)的YOLOv5骨干網(wǎng)絡(luò)模型Fig. 5 Improved YOLOv5 Backbone network model

        3) 輸入圖片經(jīng)YOLOv5網(wǎng)絡(luò)中的主干網(wǎng)絡(luò)提取特征后,需要經(jīng)過檢測頸部網(wǎng)絡(luò)進(jìn)行預(yù)測輸出。本文對數(shù)據(jù)集蟲害圖像進(jìn)行分析,發(fā)現(xiàn)多數(shù)害蟲目標(biāo)都屬于中小尺寸情況如圖6所示。

        圖6 數(shù)據(jù)集蟲害目標(biāo)尺寸分布Fig. 6 Data purpose object size distribution

        為提升模型對小目標(biāo)物體的檢測效果,改進(jìn)原模型PANet結(jié)構(gòu)。使用BiFPN(加權(quán)雙向特征金字塔網(wǎng)絡(luò))[15]對原始的FPN模塊進(jìn)行改進(jìn)增添上下文信息的邊,并乘以一個相應(yīng)的權(quán)重(圖7),將YOLOv5模型中低層特征與高層特征進(jìn)行高效融合,使其具有強(qiáng)語義信息的同時對細(xì)節(jié)仍有較強(qiáng)的感知力,達(dá)到提升模型對小目標(biāo)檢測的精度,具體改進(jìn)如圖8所示。

        圖7 加權(quán)雙向特征金字塔網(wǎng)絡(luò)Fig. 7 Weighted bi-directional feature pyramid network

        改進(jìn)PANet網(wǎng)絡(luò)結(jié)構(gòu)只有單條輸入和輸出邊的結(jié)點(diǎn),在輸入輸出結(jié)點(diǎn)是同一層級時,使用殘差方式[16]增加一條額外的輸入和輸出邊,這樣可以在不增加額外開銷的同時融合更多圖片特征,通過不同層級連接和同級跨越連接這樣高效的多尺度特征融合方式,并對每一條邊引入了加權(quán)策略,重復(fù)上述操作最終獲得四個不同層級的特征圖,增強(qiáng)網(wǎng)絡(luò)模型的預(yù)測信息。

        (b) Our圖8 改進(jìn)之后的特征網(wǎng)絡(luò)架構(gòu)對比Fig. 8 Comparison of improved feature network architecture

        1.2 試驗平臺

        本文所有試驗基于Pytorch深度學(xué)習(xí)框架,實(shí)現(xiàn)網(wǎng)絡(luò)的訓(xùn)練和測試,實(shí)驗室服務(wù)器的主要配置如下,硬件平臺是NVIDIAGeForceRTX3090顯卡運(yùn)行內(nèi)存為24 GB和AMDEPYC7302中央處理器并且運(yùn)行內(nèi)存為64 GB,操作系統(tǒng)為Ubuntu20.04,使用Python語言編程訓(xùn)練和測試。

        1.3 模型訓(xùn)練

        模型進(jìn)行訓(xùn)練時,使用COCO上的預(yù)訓(xùn)練權(quán)重初始化網(wǎng)絡(luò)參數(shù),同時為了防止梯度爆炸將初始學(xué)習(xí)率設(shè)置為0.01[17],采用Adam[18]算法作為神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法,動量因子設(shè)置為0.9,權(quán)重衰減系數(shù)設(shè)置為0.001。

        2 試驗結(jié)果與分析

        2.1 試驗方案

        由于經(jīng)濟(jì)林木蟲害數(shù)據(jù)稀缺且難以收集,為了保證收集數(shù)據(jù)準(zhǔn)確性,本文試驗數(shù)據(jù)集部分來源于大規(guī)模開源數(shù)據(jù)集IP102[19],部分來源于北京林業(yè)大學(xué)昆蟲數(shù)據(jù)集[20]。以經(jīng)濟(jì)林木為范圍,本文收集了20種經(jīng)濟(jì)林木蟲害,共3 907張圖片,部分圖片如圖9所示,具體類別如圖10所示。

        為選取最優(yōu)模型,本文采用多項指標(biāo)對模型的性能進(jìn)行評估,具體指標(biāo)包括交并比(IoU)、準(zhǔn)確率(P)、召回率(R)、平均精度均值(mAP)。

        (2)

        式中:Ba——預(yù)測框的區(qū)域;

        Bb——真實(shí)框的區(qū)域。

        (a) Adristyrannus (b) Aphids

        圖10 各個類別以及Anchor圖Fig. 10 Various categories and Anchor diagrams

        IoU越高,代表預(yù)測框與真實(shí)框的重疊度越高,則預(yù)測值就越接近真實(shí)值。

        (3)

        (4)

        (5)

        式中:TP——正樣本被檢測為正樣本數(shù)量;

        FP——負(fù)樣本被檢測為正樣本數(shù)量;

        FN——正樣本被檢測為負(fù)樣本數(shù)量;

        N——檢測樣本類別數(shù)量。

        2.2 改進(jìn)模型的檢測可視化結(jié)果

        分別用YOLOv5模型與最終改進(jìn)YOLOv5模型對經(jīng)濟(jì)林木蟲害進(jìn)行檢測,對比蟲害識別準(zhǔn)確率以及識別位置。圖11和表1是兩種模型識別對比結(jié)果。

        (a) 未改進(jìn)模型檢測效果

        Bird cherry-oata phid

        Fig. 11 Comparison of two model detection effects

        從圖11(a)可知未改進(jìn)模型對大目標(biāo)物體識別準(zhǔn)確率為70%,且小目標(biāo)物體并未識別出來存在明顯不足,而經(jīng)過改進(jìn)的模型,不僅對大目標(biāo)物體識別準(zhǔn)確率提升了15%,而且小目標(biāo)物體也能達(dá)到與大目標(biāo)物體一樣的準(zhǔn)確率。

        2.3 數(shù)據(jù)增強(qiáng)效果

        本文將圖片大小進(jìn)行resize操作,統(tǒng)一保持輸入圖片像素為640×640。然后采用隨機(jī)亮度變換、Random Erasing、隨機(jī)添加高斯噪聲等數(shù)據(jù)增強(qiáng)方法進(jìn)行數(shù)據(jù)擴(kuò)充,數(shù)據(jù)分布如圖12和圖13所示。再按8∶2比例劃分訓(xùn)練集、測試集,將原始數(shù)據(jù)與增強(qiáng)之后數(shù)據(jù)在本文改進(jìn)的模型上進(jìn)行對比試驗,增強(qiáng)結(jié)果如表2所示。由表3可知,通過增強(qiáng)后的數(shù)據(jù),模型能明顯提升對經(jīng)濟(jì)林木蟲害特征的提取,mAP提升了0.172。

        (a) 數(shù)據(jù)增強(qiáng)前真實(shí)框在原圖位置分布圖

        (b) 數(shù)據(jù)增強(qiáng)前真實(shí)框長寬分布圖圖12 數(shù)據(jù)增強(qiáng)前真實(shí)標(biāo)簽分布圖Fig. 12 Real label distribution before data enhancement

        (a) 數(shù)據(jù)增強(qiáng)后真實(shí)框在原圖位置分布圖

        (b) 數(shù)據(jù)增強(qiáng)后真實(shí)框長寬分布圖圖13 數(shù)據(jù)增強(qiáng)后真實(shí)標(biāo)簽分布圖Fig. 13 Real label distributim after data enhancement

        表2 各類別真實(shí)框數(shù)量對比Tab. 2 Comparison of the number of true boxes of various categories

        因一張圖片可能包含多種類別,多個數(shù)量。所以表2真實(shí)框數(shù)量遠(yuǎn)遠(yuǎn)大于圖片數(shù)量。

        表3 數(shù)據(jù)增強(qiáng)對比試驗Tab. 3 Dataenhancementcomparison test

        2.4 改進(jìn)主干網(wǎng)的效果

        采用增強(qiáng)后數(shù)據(jù)集作為輸入數(shù)據(jù),將改進(jìn)主干網(wǎng)絡(luò)與未改進(jìn)主干網(wǎng)絡(luò)進(jìn)行對比試驗,結(jié)果如表4所示。由表可知,改進(jìn)的主干網(wǎng)絡(luò)模型比未改進(jìn)的模型mAP提高了0.002。證實(shí)了該改進(jìn)的有效性。

        表4 主干網(wǎng)絡(luò)對比試驗Tab. 4 Comparison test of backbone network

        2.5 采用自適應(yīng)錨框的效果

        首先采用自適應(yīng)錨框算法得出數(shù)據(jù)集合適Anchor(錨框)大小,如表5所示,更改模型Anchor大小與未改進(jìn)模型進(jìn)行對比試驗,結(jié)果如表6所示??勺C實(shí)改進(jìn)之后自適應(yīng)錨框大小更符合本文數(shù)據(jù)集,相比mAP提升0.017。

        表5 調(diào)整自適應(yīng)錨框大小結(jié)果Tab. 5 Results of resizing adaptive Anchor box size

        表6 調(diào)整自適應(yīng)錨框?qū)Ρ仍囼濼ab. 6 Improved adaptive Anchor box contrastive experiment

        2.6 改進(jìn)特征網(wǎng)絡(luò)架構(gòu)的效果

        采用增強(qiáng)后的數(shù)據(jù)集作為輸入數(shù)據(jù),只進(jìn)行特征網(wǎng)絡(luò)架構(gòu)改進(jìn)與未改改進(jìn)特征網(wǎng)絡(luò)架構(gòu)對比試驗,結(jié)果如表7所示??梢钥闯觯?jīng)過改進(jìn)特征網(wǎng)絡(luò)架構(gòu)后的特征提取能力更強(qiáng),與改進(jìn)前相比,其mAP提升了0.04。

        表7 特征網(wǎng)絡(luò)架構(gòu)對比試驗Tab. 7 Feature network architecture comparison test

        2.7 消融試驗結(jié)果

        為了驗證本文提出的所有改進(jìn)能否取得更好的檢測效果,在增強(qiáng)后數(shù)據(jù)集上進(jìn)行對比測試實(shí)驗。為了確保試驗嚴(yán)謹(jǐn),本消融試驗中,網(wǎng)絡(luò)設(shè)置、訓(xùn)練步驟、所用Pytorch版本、CUDA版本以及顯卡平臺均保持一致。上述試驗已驗證了改進(jìn)后主干網(wǎng)絡(luò)結(jié)構(gòu)模型的有效性,因此后續(xù)試驗都將使用改進(jìn)后的主干網(wǎng)絡(luò)作為基準(zhǔn)模型,針對自適應(yīng)錨框和改進(jìn)特征網(wǎng)絡(luò)架構(gòu)進(jìn)行消融實(shí)驗,試驗結(jié)果所表8所示。由表8可知,本文提出的所有改進(jìn)能夠在經(jīng)濟(jì)林木蟲害數(shù)據(jù)集上取得更好的檢測效果,與原始YOLOv5模型相比,改進(jìn)模型mAP提升了0.111。

        表8 多改進(jìn)消融試驗Tab. 8 Multiple improvement of ablation test

        2.8 與不同算法模型的對比結(jié)果

        為了更好地證明本文改進(jìn)算法的性能,還與各個先進(jìn)模型在檢測精度與推斷速度進(jìn)行試驗比較,結(jié)果如表9所示,效果對比如表10以及圖14所示。

        表9 本文算法與先進(jìn)目標(biāo)檢測算法實(shí)驗對比Tab. 9 Comparative comparison of this algorithm and advanced object detection algorithm

        表10 各模型檢測對比Tab. 10 Comparison of each model detection

        綜合來看,本文算法相比于其他算法,對經(jīng)濟(jì)林木蟲害的檢測效果更好。與YOLO系列算法模型YOLOv3、YOLOv4相比不僅在mAP上保持優(yōu)勢,而且在推斷速度上也保持領(lǐng)先地位。與二階段算法傳統(tǒng)模型Faster-RCNN相比mAP提升相對較少,但是在推斷速度上依舊保持著單階段算法的優(yōu)勢達(dá)到了64.9幀,并且模型大小只有其1/5,與Anchor-free模型CenterNet相比在保持更大尺寸圖片輸入情況下,檢測精度更高。

        本文在相同環(huán)境下與Faster-RCNN、YOLOv3、YOLOv4、CenterNet四種模型進(jìn)行對比,實(shí)驗結(jié)果表明:本文提出的改進(jìn)模型在推斷速度上明顯優(yōu)于二階段目標(biāo)檢測方法,原因是本文提出的改進(jìn)算法屬于一階段目標(biāo)檢測算法。雖然本文提出的改進(jìn)模型與YOLOv5算法相比在精確度上處于領(lǐng)先位置,但推斷速度稍遜于YOLOv5,原因是本文增加了小目標(biāo)特征提取層和檢測層,這種改動在增強(qiáng)目標(biāo)特征提取能力的同時也增加了模型參數(shù)。

        圖14 檢測圖片真實(shí)框分布圖Fig. 14 Detect picture ground truth box profile

        3 結(jié)論

        1) 本文提出了一種基于改進(jìn)YOLOv5模型的經(jīng)濟(jì)林木蟲害目標(biāo)檢測算法,這種方法精度高、速度快,其平均精度均值達(dá)到了0.923,平均檢測一張圖片時間僅需0.015 s,該方法可直接用于經(jīng)濟(jì)林木病蟲害預(yù)警系統(tǒng)。

        2) 本文采用隨機(jī)亮度變換、Random Erasing、隨機(jī)添加高斯噪聲等方法進(jìn)行數(shù)據(jù)擴(kuò)充,解決數(shù)據(jù)樣本不平衡會影響模型的性能問題,實(shí)驗結(jié)果證明了數(shù)據(jù)增強(qiáng)的有效性。針對經(jīng)濟(jì)林木蟲害這個目標(biāo)小、大小不一的特點(diǎn),本文采用了自適應(yīng)錨框,相對于模型原有的錨框參數(shù),自適應(yīng)錨框可以根據(jù)數(shù)據(jù)集對錨框參數(shù)進(jìn)行調(diào)整,從而提高了模型的性能。由于本文數(shù)據(jù)集沒有做背景去除處理,因此特征的提取也變得更難,本文增加了一層小目標(biāo)特征提取層、修改特征金字塔結(jié)構(gòu)以及增加一層檢測層,相對于原有網(wǎng)絡(luò)結(jié)構(gòu),這種方式提取目標(biāo)特征的能力更強(qiáng),其平均精度均值提高了0.113。

        3) 本文改進(jìn)的YOLOv5模型在經(jīng)濟(jì)林木蟲害數(shù)據(jù)集上的平均精度均值為0.923,推斷速度達(dá)到64.9幀,模型大小為99.6M,其結(jié)果明顯優(yōu)于與之對比的目標(biāo)檢測算法模型(YOLOv3、YOLOv4、Faster-RCNN、CenterNet),此外也證明了本文所有改進(jìn)(數(shù)據(jù)增強(qiáng)、改進(jìn)主干網(wǎng)絡(luò)、改進(jìn)特征網(wǎng)絡(luò)架構(gòu)和自適應(yīng)錨框)在經(jīng)濟(jì)林木蟲害數(shù)據(jù)集上的有效性,可為經(jīng)濟(jì)林木蟲害預(yù)警系統(tǒng)提供算法支撐。受限于試驗數(shù)據(jù)集中蟲害種類的局限性,本文在后續(xù)研究中將增加經(jīng)濟(jì)林木蟲害的種類以擴(kuò)充數(shù)據(jù)集。

        猜你喜歡
        特征檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        如何表達(dá)“特征”
        不忠誠的四個特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        日韩熟女精品一区二区三区视频| 久久人人爽人人爽人人av东京热| 囯产精品无码va一区二区| 日日摸夜夜添夜夜添一区二区| 婷婷色国产精品视频一区 | 日本一区二区三区资源视频| 高潮精品熟妇一区二区三区| 中国午夜伦理片| 国产操逼视频| 色欲av一区二区久久精品| 国产精品三级自产拍av| 日本亚洲视频免费在线看| 久久精品人妻少妇一二三区| 精品国产一二三产品区别在哪 | 久久精品久久久久观看99水蜜桃| 国产一级淫片a免费播放口| 日本五十路熟女在线视频| 日本大片一区二区三区| 亚洲日本国产精品久久| 亚洲成在人网站av天堂| 色综合久久综合欧美综合图片 | 亚洲大片免费| 日韩狼人精品在线观看| 亚洲第一网站免费视频| 亚洲国产日韩欧美综合a| 国产欧美一区二区精品性色| 秋霞日韩一区二区三区在线观看 | 天涯成人国产亚洲精品一区av| 青青草原亚洲| 亚洲精品无码久久毛片| 国产精品久久久久孕妇| 97人妻精品一区二区三区免费 | 国产精品亚洲一区二区三区久久| 成人免费a级毛片无码片2022| 中文字幕人妻偷伦在线视频 | 国产美女一区三区在线观看| 电驱蚊液可以插一晚上吗| 老妇女性较大毛片| 亚洲熟妇20| 国产熟女精品一区二区| 羞羞色院99精品全部免|