胡嘉沛,李 震,2,黃河清,洪添勝,姜 晟,曾鏡源
(1. 華南農(nóng)業(yè)大學(xué)電子工程學(xué)院,廣州 510642; 2. 國家柑橘產(chǎn)業(yè)技術(shù)體系機械研究室,廣州 510642;3. 華南農(nóng)業(yè)大學(xué)工程學(xué)院,廣州 510642; 4. 廣東省山區(qū)特色農(nóng)業(yè)資源保護(hù)與精準(zhǔn)利用重點實驗室,梅州 514015)
黃龍病是當(dāng)前全球范圍內(nèi)最嚴(yán)重的柑橘疾病之一,對世界柑橘產(chǎn)業(yè)構(gòu)成巨大威脅[1]。柑橘木虱是柑橘黃龍病的主要傳播媒介[2],對柑橘木虱進(jìn)行檢測與防控可以有效地控制黃龍病傳播[3]。目前常用的檢測方法都依賴于人工檢測,如通過黃色粘蟲板或捕蟲網(wǎng)采集計數(shù)和使用塑料棒敲打枝干取樣[4]。此類方法存在實時性差、工作效率低和勞動強度大等缺點[5-6]。因此,研究柑橘木虱高效精確檢測的關(guān)鍵技術(shù)對于黃龍病防控具有十分重要的意義。
近年來,隨著機器視覺技術(shù)的快速發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)被廣泛應(yīng)用于各類農(nóng)作物病蟲害的檢測。Zhou等[7]以卷積神經(jīng)網(wǎng)絡(luò)為基礎(chǔ),提出用于檢測油菜病蟲害的深度學(xué)習(xí)模型,識別率為96%。Wang等[8]使用改進(jìn)的YOLOv3檢測番茄的12種病蟲害,識別率為92.39%。Selvaraj等[9]基于卷積神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí)方法提出了可識別8種香蕉病蟲害的檢測模型,識別的平均精度高于90%。以上研究的開展證明了機器視覺技術(shù)應(yīng)用于農(nóng)作物病蟲害檢測切實可行,為卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于柑橘病蟲害識別提供了參考。
對于自然環(huán)境下柑橘病蟲害的識別問題,國內(nèi)外學(xué)者已提出了多種基于卷積神經(jīng)網(wǎng)絡(luò)的解決方案。You等[10]基于壓縮卷積神經(jīng)網(wǎng)絡(luò),提出一種適用于移動端的柑橘病蟲害分類方法,在共有16 528幅圖像的數(shù)據(jù)集進(jìn)行訓(xùn)練和測試,其中包含14種柑橘病蟲害,分類的準(zhǔn)確率達(dá)到93.2%。Xing等[11-12]在柑橘病蟲害分類領(lǐng)域開展系列研究,首先構(gòu)建一個共有12 561幅圖像的數(shù)據(jù)集,包含24類柑橘病蟲害,其中柑橘木虱圖像有359張,其次提出柑橘病蟲害分類模型WeaklyDenseNet和BridgeNet-19,分類的準(zhǔn)確率分別為93.42%和95.47%,模型大小分別為30.5和69.8 MB。上述研究主要應(yīng)用于輔助農(nóng)戶進(jìn)行柑橘病蟲害分類,模型的輸出不包含檢測目標(biāo)的位置和數(shù)量信息,無法精確地判斷蟲害情況,不適合應(yīng)用于柑橘木虱監(jiān)測。Partel等[5]以四輪摩托為行走機構(gòu),通過氣動敲擊機構(gòu)拍打柑橘樹的枝干,使柑橘木虱跌落至白色背景的觀察臺,結(jié)合計算機視覺技術(shù)實現(xiàn)柑橘木虱檢測,其中檢測算法采用YOLOv1和YOLOv3目標(biāo)檢測模型,在8 800幅白色背景的柑橘木虱圖像進(jìn)行訓(xùn)練和測試,識別準(zhǔn)確率為80%,召回率為95%;該設(shè)備通過機器敲打取樣,解決了柑橘木虱個體小和在果園中容易被葉片遮擋等導(dǎo)致模型識別準(zhǔn)確率低的問題。中國橘園機械作業(yè)環(huán)境復(fù)雜[13],柑橘樹行株距不統(tǒng)一,且大部分在山坡地種植,不便于使用上述設(shè)備和敲打取樣,通過小型嵌入式設(shè)備直接檢測果樹上的病蟲害是更合適的解決方案[14]。
綜上,本研究以果園場景下采集的柑橘木虱圖像為研究對象,以柑橘木虱為檢測目標(biāo),利用數(shù)據(jù)增強方法構(gòu)建柑橘木虱彩色圖像數(shù)據(jù)集,以適用于嵌入式硬件平臺的YOLOv4-Tiny模型為基礎(chǔ),改進(jìn)模型的頸部網(wǎng)絡(luò),優(yōu)化批歸一化方法并在訓(xùn)練階段引入Mosaic數(shù)據(jù)增強,并通過試驗測試模型識別果園場景柑橘木虱的效果,以期為實現(xiàn)柑橘木虱的快速精確監(jiān)測提供參考。
本研究試驗數(shù)據(jù)采集于華南農(nóng)業(yè)大學(xué)東區(qū)果園和工程學(xué)院果園,采集時間為2020年6月25日-2020年8月24日。為獲取不同自然光照強度下的柑橘木虱圖像,每天分為3個時間段進(jìn)行采集,分別為9:00-11:00、14:00-15:00和17:00-18:00。使用手持式照相器材(榮耀20,華為,中國)對果樹上的柑橘木虱成蟲進(jìn)行拍攝,拍攝距離為4~6 cm。獲得田間柑橘木虱圖像2 024張,涵蓋3 024×4 032、2 592×1 944和1 200×1 600(像素)3種分辨率。在此基礎(chǔ)上,又加入117張由全國各地柑橘專家或果農(nóng)拍攝的柑橘木虱圖像,最終數(shù)據(jù)集包含2 141張原始圖像。
為防止訓(xùn)練數(shù)據(jù)量過少發(fā)生過擬合現(xiàn)象,本研究參考通用方法[15-16],對圖像進(jìn)行數(shù)據(jù)增強處理,包括隨機調(diào)節(jié)對比度、隨機調(diào)節(jié)亮度、加入高斯噪聲、加入伽馬噪聲、限制對比度自適應(yīng)直方圖均衡(Contrast Limited Adaptive Histogram Equalization,CLAHE)、中值模糊、水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)和轉(zhuǎn)置,每張原始圖像都生成9張新圖像,最終柑橘木虱數(shù)據(jù)集包含21 410幅圖像。
使用Labelimg工具標(biāo)注每張圖片中的柑橘木虱目標(biāo)所在區(qū)域,柑橘木虱數(shù)據(jù)集按照7∶1∶2的比例劃分為訓(xùn)練集(14 990張)、驗證集(2 140張)和測試集(4 280張),每個數(shù)據(jù)集都包含自行采集的圖像和全國各地柑橘專家或果農(nóng)拍攝的圖像。
本研究以YOLOv4-Tiny模型為基礎(chǔ),設(shè)計柑橘木虱識別模型。YOLOv4-Tiny模型結(jié)構(gòu)精簡、推理速度快,適用于嵌入式硬件平臺。但是,該模型對果園場景下柑橘木虱的識別精度有待提高,需要進(jìn)一步優(yōu)化完善。
1.3.1 YOLOv4-Tiny模型改進(jìn)
柑橘木虱目標(biāo)的體型較小,本研究按照微軟公開數(shù)據(jù)集MS COCO的標(biāo)準(zhǔn),將圖像中分辨率小于32×32 (像素)的柑橘木虱目標(biāo)定義為小目標(biāo)。YOLOv4-Tiny模型的主干網(wǎng)絡(luò)中包含3個跨階段局部(Cross Stage Partial,CSP)模塊,分別為CSP1、CSP2和CSP3。其中,CSP2層包含的位置信息更準(zhǔn)確,細(xì)節(jié)信息更多,但語義信息較少。CSP3層包含更多的語義信息,但細(xì)節(jié)信息少、位置信息粗糙,許多小目標(biāo)的位置信息和細(xì)節(jié)信息丟失。為提高YOLOv4-Tiny模型對柑橘木虱小目標(biāo)的識別精度,本研究對其結(jié)構(gòu)進(jìn)行改進(jìn),提出改進(jìn)的YOLOv4-Tiny模型,具體結(jié)構(gòu)如圖1所示。在原YOLOv4-Tiny模型的頸部網(wǎng)絡(luò)中添加一條與主干網(wǎng)絡(luò)CSP2層相連的路徑,并將檢測尺度由2個擴展至3個。CSP2層和上采樣層(UP層)的輸出在通道維度上進(jìn)行連接操作,融合這兩層的特征圖,隨后經(jīng)過2個CBL模塊,最終得到相對輸入圖像分辨率像素8倍下采樣的特征圖。對于分辨率為416×416(像素)的輸入圖像,改進(jìn)的YOLOv4-Tiny模型輸出3個尺度的特征圖,分辨率分別為13×13、26×26和52×52(像素)。
1.3.2 交叉小批量歸一化(CmBN)方法
在目標(biāo)檢測任務(wù)中,由于顯卡內(nèi)存容量的限制,批歸一化(Batch Normalization,BN)方法對統(tǒng)計信息的估算不準(zhǔn)確,容易導(dǎo)致模型的誤差增加[17]。因此本研究使用交叉小批量歸一化(Cross mini-Batch Normalization,CmBN)方法代替原YOLOv4-Tiny模型中的BN方法。在訓(xùn)練模型時,批量的訓(xùn)練集圖像數(shù)據(jù)被平均分成若干個小批量分別傳入模型進(jìn)行前向傳播,一次迭代完成前模型的權(quán)重不變,所以同一個批量中的小批量統(tǒng)計信息可以直接疊加。CmBN方法的實現(xiàn)步驟如下:
1)結(jié)合前i-1個小批量訓(xùn)練集圖像數(shù)據(jù)的卷積層輸出信息,計算第i個小批量的均值和標(biāo)準(zhǔn)差;
2)將第i個小批量數(shù)據(jù)的卷積層輸出轉(zhuǎn)換成均值為0、方差為1的正態(tài)分布;
3)使用可學(xué)習(xí)參數(shù)對第i個小批量數(shù)據(jù)標(biāo)準(zhǔn)化后的卷積層輸出進(jìn)行線性變換,以增加其表達(dá)能力。
CmBN方法的前向傳播計算過程如式(1)~式(5)所示:
式中l(wèi)為卷積層的層數(shù),t為小批量的索引值,m為小批量數(shù)據(jù)的大小,i為小批量數(shù)據(jù)的索引值,τ為小批量索引值的序號,為第i個小批量中第i批數(shù)據(jù)在第l層卷積層的輸出,分別為第t和t-τ個小批量在第l層卷積層的輸出均值為第t個小批量在第l層卷積層輸出均值的平方和為第t個小批量在第l層卷積層輸出的標(biāo)準(zhǔn)差,C為增加數(shù)值穩(wěn)定性而添加的常數(shù)為第t個小批量中第i批數(shù)據(jù)在第l層卷積層歸一化后的輸出,γ和β為可學(xué)習(xí)的縮放和平移參數(shù),為第t個小批量中第i批數(shù)據(jù)在第l層卷積層的輸出經(jīng)過交叉小批量歸一化后得到的結(jié)果。
1.3.3 Mosaic數(shù)據(jù)增強
由于柑橘木虱尺寸小,在拍攝時極易被葉片、葉柄等非檢測目標(biāo)遮擋,嚴(yán)重影響目標(biāo)識別的準(zhǔn)確率。針對上述問題,本研究在訓(xùn)練模型時引入Mosaic數(shù)據(jù)增強,以提高模型對遮擋目標(biāo)的識別能力。在每一次迭代開始前,深度學(xué)習(xí)框架不僅會從訓(xùn)練集讀取圖像,而且會通過Mosaic數(shù)據(jù)增強生成新圖像,隨后將新生成的圖像和讀取的圖像組合成訓(xùn)練樣本,輸入到模型進(jìn)行訓(xùn)練。Mosaic數(shù)據(jù)增強從柑橘木虱訓(xùn)練集中隨機選取4張圖像,分別對4張被選中圖像進(jìn)行隨機裁剪,將裁剪后的圖像按順序拼接得到1張新圖像,Mosaic數(shù)據(jù)增強生成圖像與4張訓(xùn)練集圖像的分辨率保持一致。在隨機裁剪的過程中訓(xùn)練集圖像目標(biāo)框的一部分可能會被裁掉,從而模擬柑橘木虱被枝葉等物體遮擋的效果。
此外,本研究對Mosaic數(shù)據(jù)增強進(jìn)行優(yōu)化,提出改進(jìn)的Mosaic數(shù)據(jù)增強,以交并比(Intersection-over-Union,IoU)作為指標(biāo),結(jié)合標(biāo)定數(shù)據(jù)集時所使用的相關(guān)標(biāo)準(zhǔn)設(shè)定閾值,用于篩選新生成圖像中的目標(biāo)框。改進(jìn)的Mosaic數(shù)據(jù)增強按照Mosaic數(shù)據(jù)增強的步驟生成新圖像,并對新生成圖像中的目標(biāo)框進(jìn)行過濾,如果新圖像目標(biāo)框與相應(yīng)原圖目標(biāo)框的IoU小于閾值,刪除新圖像中的目標(biāo)框,認(rèn)為此處不存在柑橘木虱目標(biāo)。反之,如果新圖像目標(biāo)框與相應(yīng)原圖目標(biāo)框的IoU大于或等于閾值,則保留新圖像中的目標(biāo)框,認(rèn)為此處存在柑橘木虱目標(biāo)。
1.4.1 試驗平臺
計算機配置為Intel Core i7-10700 處理器,主頻2.90 GHz,運行內(nèi)存為16 GB,顯卡為Nvidia GeForce RTX 2080Ti,操作系統(tǒng)為Ubuntu16.04 LTS,深度學(xué)習(xí)框架為Darknet和PyTorch。嵌入式硬件平臺分別選用Jetson nano和Raspberry Pi 4B,運行內(nèi)存均為4 GB。
1.4.2 模型訓(xùn)練
在模型訓(xùn)練時,將訓(xùn)練集圖像的分辨率全部轉(zhuǎn)換為416×416(像素)。優(yōu)化器使用小批量梯度下降法(Mini-batch Gradient Descent,MBGD),批量設(shè)置為64,小批量設(shè)置為16。權(quán)值的衰減速率設(shè)為0.000 5,動量設(shè)置為0.9。模型迭代次數(shù)為20 000次,每迭代1 000次保存一次模型權(quán)重,最終選擇模型識別精度最高的權(quán)重。初始學(xué)習(xí)率為0.002 61,衰減系數(shù)為0.1。
1.4.3 評價指標(biāo)
采用推理速度(ms/幀)作為模型識別速度的評判指標(biāo),推理速度為模型識別一幅圖像所需要的時間[18]。采用平均精度(Average Precision,AP,%)作為模型識別精度的評判指標(biāo)[19-20]。AP與模型的準(zhǔn)確率(Precision,P,%)和召回率(Recall,R,%)有關(guān),P、R和AP的計算如式(6)~式(8)所示:
式中TP為被正確地檢測為柑橘木虱的數(shù)量,F(xiàn)P為被錯誤地劃分為柑橘木虱的數(shù)量,F(xiàn)N為圖像中目標(biāo)被漏檢的數(shù)量。
YOLOv4-Tiny模型和改進(jìn)的YOLOv4-Tiny模型對測試集的試驗結(jié)果如表1所示。其中平均精度為模型對測試集中柑橘木虱的識別精度,小目標(biāo)對應(yīng)模型識別測試集中分辨率小于32×32(像素)柑橘木虱的平均精度,所有目標(biāo)對應(yīng)模型識別測試集中所有柑橘木虱的平均精度,小目標(biāo)在測試集所有目標(biāo)中的占比為25.33%。YOLOv4-Tiny模型識別測試集中小目標(biāo)和所有目標(biāo)的平均精度分別為78.85%和94.02%。改進(jìn)的YOLOv4-Tiny模型識別測試集中小目標(biāo)和所有目標(biāo)的平均精度相比原模型分別提高了4.29和1.02個百分點。改進(jìn)的YOLOv4-Tiny模型的頸部網(wǎng)絡(luò)減少了主干網(wǎng)絡(luò)中低層特征圖細(xì)節(jié)信息和位置信息的流失。新增加的特征圖感受野較小,適合檢測圖像中分辨率較低的柑橘木虱目標(biāo),提高了模型對小目標(biāo)的檢測能力。改進(jìn)的YOLOv4-Tiny模型的模型大小增加了1 MB,每一幅圖像的推理時間增加了0.26 ms。改進(jìn)后的模型只在頸部網(wǎng)絡(luò)增加3個卷積層、1個上采樣操作和1個連接操作,模型的主干網(wǎng)絡(luò)并沒有改變。因此改進(jìn)后的YOLOv4-Tiny模型在提高檢測精度的同時保持較快的推理速度。
表1 YOLOv4-Tiny模型改進(jìn)前后的平均精度、推理速度和模型大小對比Table 1 Comparison of average precision, inference speed and model size of YOLOv4-Tiny model before and after improvement
以YOLOv4-Tiny模型和改進(jìn)的YOLOv4-Tiny模型為基礎(chǔ),分別使用BN和CmBN作為模型的歸一化方法,并用相同的訓(xùn)練參數(shù)對模型進(jìn)行訓(xùn)練,在測試集中的平均精度對比如表2所示。使用BN作為歸一化方法,YOLOv4-Tiny模型和改進(jìn)的YOLOv4-Tiny模型的平均精度分別為94.02%和95.04%。使用CmBN作為歸一化方法可以令2個模型的平均精度分別提高0.66和0.27個百分點。由于設(shè)備限制,本試驗以4幅圖像作為1個批次進(jìn)行小批量訓(xùn)練。BN只能使用當(dāng)前小批量的卷積層輸出特征,所以統(tǒng)計信息不準(zhǔn)確,導(dǎo)致BN的性能下降,而CmBN則通過累積小批量的信息,變相地實現(xiàn)擴大樣本數(shù),使統(tǒng)計信息的估算更準(zhǔn)確。因此使用CmBN歸一化方法可以提高改進(jìn)的YOLOv4-Tiny模型識別柑橘木虱的平均精度。
以YOLOv4-Tiny模型和改進(jìn)的YOLOv4-Tiny模型為基礎(chǔ),使用BN作為歸一化方法,對比在訓(xùn)練模型時不使用Mosaic數(shù)據(jù)增強、使用Mosaic數(shù)據(jù)增強和使用本研究提出的改進(jìn)的Mosaic數(shù)據(jù)增強的情況下,模型在測試集中的平均精度,試驗結(jié)果如表2所示。本研究所使用的數(shù)據(jù)集不標(biāo)注遮擋超過80%的柑橘木虱,結(jié)合試驗將改進(jìn)的Mosaic數(shù)據(jù)增強的閾值設(shè)定為0.2。使用Mosaic數(shù)據(jù)增強后,YOLOv4-Tiny模型和改進(jìn)的YOLOv4-Tiny模型的平均精度分別為94.93%和95.48%,2個模型的平均精度比不使用Mosaic數(shù)據(jù)增強分別提高0.91和0.44個百分點。Mosaic數(shù)據(jù)增強生成的圖像使模型在訓(xùn)練過程中僅通過局部特征對目標(biāo)進(jìn)行識別,強化模型對柑橘木虱局部特征的認(rèn)知,弱化模型對于目標(biāo)全部特征的依賴。使用本研究提出的改進(jìn)的Mosaic數(shù)據(jù)增強后,2個模型的平均精度分別提高了1.18和0.57個百分點,進(jìn)一步提升了模型的識別效果。
表2 改進(jìn)前后的YOLOv4-Tiny模型使用不同歸一化方法和Mosaic數(shù)據(jù)增強的平均精度Table 2 Average precision of different normalization methods and Mosaic data augmentations for YOLOv4-Tiny model before and after improvement
Mosaic數(shù)據(jù)增強改進(jìn)前后生成的圖像如圖2所示。Mosaic數(shù)據(jù)增強生成圖像中的白色目標(biāo)框由于IoU低于閾值(圖2a和圖2b),在相應(yīng)的改進(jìn)的Mosaic數(shù)據(jù)增強生成的圖像中均被刪除(圖2c和圖2d)。Mosaic數(shù)據(jù)增強會產(chǎn)生只包含極少柑橘木虱目標(biāo)信息甚至完全沒有目標(biāo)信息的目標(biāo)框,這類含有歧義的目標(biāo)框會導(dǎo)致模型的學(xué)習(xí)變得困難,而結(jié)合IoU改進(jìn)后的Mosaic數(shù)據(jù)增強可以過濾部分含有歧義的目標(biāo)框。
為對比本研究提出的模型與常用典型模型[22]的效果,分別對典型模型快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Faster Region Convolutional Neural Networks,F(xiàn)aster R-CNN)、YOLOv4、YOLOv4-Tiny和本研究提出的改進(jìn)的YOLOv4-Tiny 模型采用柑橘木虱數(shù)據(jù)集進(jìn)行訓(xùn)練和測試,并將深度學(xué)習(xí)框架和訓(xùn)練后的模型移植到Jetson nano和Raspberry Pi 4B,測試模型在嵌入式硬件平臺上的推理速度,其中改進(jìn)的YOLOv4-Tiny 模型同時使用了CmBN方法和改進(jìn)的Mosaic數(shù)據(jù)增強。不同模型對被遮擋柑橘木虱和小目標(biāo)柑橘木虱的檢測結(jié)果如圖3所示,對于被枝葉遮擋的柑橘木虱,F(xiàn)aster R-CNN和本研究提出的改進(jìn)YOLOv4-Tiny模型的檢出率最高,識別出全部目標(biāo),而YOLOv4和YOLOv4-Tiny模型對于被遮擋的目標(biāo)均存在漏檢的情況。小目標(biāo)柑橘木虱圖像中的檢測目標(biāo)共計2個,F(xiàn)aster R-CNN、YOLOv4和本研究提出的改進(jìn)的YOLOv4-Tiny模型都可以識別出全部柑橘木虱目標(biāo),而YOLOv4-Tiny模型只識別出1個。
Faster R-CNN、YOLOv4、YOLOv4-Tiny和改進(jìn)的YOLOv4-Tiny 模型的平均精度、推理速度和模型大小的統(tǒng)計如表3所示,其中平均精度包括模型對訓(xùn)練集、驗證集和測試集的平均精度,推理速度包括模型在圖形處理器RTX 2080Ti與嵌入式硬件平臺Jetson nano和Raspberry Pi 4B的推理速度。本研究提出的改進(jìn)的YOLOv4-Tiny模型對測試集中柑橘木虱目標(biāo)的平均精度最高(96.16%),比Faster R-CNN高1.69個百分點,此外Faster R-CNN為二階段網(wǎng)絡(luò),模型大推理速度慢,不適用于嵌入式設(shè)備。改進(jìn)的YOLOv4-Tiny模型較YOLOv4模型的模型大小縮小近10倍,在圖形處理器RTX2080 Ti上的推理速度快了3倍以上,兩者的平均精度相近。YOLOv4-tiny模型的平均精度比改進(jìn)的YOLOv4-Tiny模型低2.16個百分點,在推理速度和模型大小方面與本研究提出的改進(jìn)模型相近。本研究提出的改進(jìn)的YOLOv4-Tiny模型不會在推理過程中引入太多額外的算力和內(nèi)存開銷,該模型在具備高識別精度的同時,保持結(jié)構(gòu)精簡和推理速度快的優(yōu)點,所需要的算力資源較小,適合部署于嵌入式硬件平臺。
表3 不同模型的平均精度、推理速度和模型大小對比Table 3 Comparison of average precision, inference speed and model size of different models
1)本研究基于YOLOv4-Tiny模型提出一種果園自然環(huán)境下的柑橘木虱目標(biāo)檢測模型。通過改進(jìn)YOLOv4-Tiny模型的頸部網(wǎng)絡(luò),利用淺層卷積層包含的位置信息和細(xì)節(jié)信息,提高了模型對柑橘木虱小目標(biāo)的識別能力。使用交叉小批量歸一化方法替代卷積層的批歸一化方法,提高統(tǒng)計信息的準(zhǔn)確度,有效地提升了網(wǎng)絡(luò)的檢測精度。
2)本研究為提高模型對遮擋目標(biāo)的識別能力,在訓(xùn)練模型時使用Mosaic數(shù)據(jù)增強,強化模型對柑橘木虱局部特征的認(rèn)知,并通過交并比指標(biāo)優(yōu)化Mosaic數(shù)據(jù)增強,減少含有歧義的目標(biāo)框,幫助模型更好地學(xué)習(xí)特征。
3)本研究制作了自然場景下的柑橘木虱數(shù)據(jù)集用于模型的訓(xùn)練和測試,試驗結(jié)果表明,本研究提出的各項改進(jìn)方法均能提升模型對柑橘木虱的識別精度,改進(jìn)的YOLOv4-Tiny模型融合交叉小批量歸一化方法和改進(jìn)的Mosaic數(shù)據(jù)增強后,識別柑橘木虱的平均精度達(dá)到96.16%,在圖形處理器上的推理速度為3.63 ms/幀,且模型大小為24.50 MB。該模型對果園環(huán)境下的柑橘木虱檢測性能良好,可對黃龍病防控技術(shù)以及柑橘木虱監(jiān)測裝備的研制提供參考。