亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv5的林業(yè)有害生物檢測與識別

        2022-09-25 02:38:50孫麗萍譚少亨周宏威鄒青池
        森林工程 2022年5期
        關(guān)鍵詞:害蟲卷積林業(yè)

        孫麗萍,譚少亨,周宏威*,鄒青池

        (1.東北林業(yè)大學(xué) 機電工程學(xué)院,哈爾濱 150040;2.遼寧省天然林保護中心,沈陽 110036)

        0 引言

        國內(nèi)外學(xué)者對于深度學(xué)習(xí)方法在農(nóng)業(yè)和林業(yè)害蟲檢測與識別方面均有大量研究。孫鵬等[11]提出了一種基于注意力的卷積神經(jīng)網(wǎng)絡(luò)用于大豆害蟲識別,將注意力機制與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,極大地增強了模型的特征提取能力。佘顥等[12]對SSD模型進行了改進,將SSD原來的多尺度特征映射替換為特征金字塔,豐富了模型特征,提高了小目標(biāo)檢測性能與歸一化程度。張博等[13]將空間金字塔池化與改進的YOLOv3網(wǎng)絡(luò)相結(jié)合,提出一種農(nóng)作物害蟲種類識別算法,改進的YOLOv3利用采樣和卷積操作相結(jié)合實現(xiàn)反卷積,有效地提高了模型的檢測和泛化能力。楊國國等[14]結(jié)合圖像的顯著性分析,通過對整幅圖像進行顏色衰減加速計算,得出每個超區(qū)域的顯著性值,結(jié)合超像素區(qū)域之間的空間影響,進而給出害蟲目標(biāo)的潛在區(qū)域利用優(yōu)化后的卷積神經(jīng)網(wǎng)絡(luò)進行檢測。陳娟等[15]在實際環(huán)境中構(gòu)建了園林害蟲的數(shù)據(jù)集,通過富邊緣檢測算法獲得了更精細的害蟲圖像,以殘差網(wǎng)絡(luò)為主體,通過改進殘差塊和共軛算法對網(wǎng)絡(luò)進行優(yōu)化。Jiao等[16]提出了一種用于檢測24種害蟲的無錨區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(AF-RCNN):首先,設(shè)計特征融合模塊,從害蟲信息中提取有效特征,然后確定一種基于融合特征圖的無錨區(qū)域建議網(wǎng)絡(luò)(AFRPN),來獲取可能的蟲害位置,最后,將無錨區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(AF-RCNN)和Faster R-CNN合并為一個網(wǎng)絡(luò),以解決小目標(biāo)害蟲的識別問題。Liu等[17]構(gòu)建了一個新的害蟲數(shù)據(jù)集,收集了80 000多幅圖像,并提出了一種基于區(qū)域的端到端PestNet網(wǎng)絡(luò),用于對多種類型的害蟲進行大規(guī)模檢測和分類,主要分為3部分:①卷積神經(jīng)網(wǎng)絡(luò),用于結(jié)合通道空間注意的特征提取與增強;②區(qū)域建議網(wǎng)絡(luò),用于從特征圖中獲取模型的潛在輸出; ③位置敏感計分圖替換模型的全連接層。Li等[18]提出了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的害蟲檢測和識別方法;通過粗網(wǎng)和細網(wǎng)設(shè)計,對不同種群分布下的小目標(biāo)害蟲進行識別和計數(shù)。梁萬杰等[19]提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的研究方法,設(shè)計了一個10層的卷積神經(jīng)網(wǎng)絡(luò)模型,用來提取圖像的特征,對水稻二化螟蟲進行識別。Liu等[20]構(gòu)建了一個真實環(huán)境下的番茄病蟲害數(shù)據(jù)集,提出了一種改進的YOLOv3算法來檢測番茄病蟲害,改進后的YOLOv3網(wǎng)絡(luò)利用特征金字塔提高了小目標(biāo)的檢測精度,對番茄蟲害數(shù)據(jù)上包圍框的維度進行聚類,為模型提供全局先驗位置信息,提高了模型的訓(xùn)練速度;然后通過多尺度訓(xùn)練,證明模型可以適應(yīng)不同分辨率的圖像,提高了模型的泛化能力。Sun等[21]提出了一種深度學(xué)習(xí)檢測方法,利用先進的RetinaNet檢測模型,在信息素誘捕器中直接識別和計數(shù)成年紅松樹脂甲蟲(RTB),采用k-means錨點優(yōu)化和殘差分類子網(wǎng),縮小了探測器的尺寸。

        計算機視覺技術(shù)在林業(yè)有害生物的檢測與識別方面應(yīng)用廣泛,對不同的害蟲進行檢測與識別。有害生物檢測與識別存在3個難點:①不同種類的害蟲有相似之處,如圖1所示;②同種害蟲具有不同的姿態(tài),如圖2所示;③在多只害蟲的情況下,圖像中通常會出現(xiàn)重疊害蟲,如圖3所示。深度學(xué)習(xí)方法在實現(xiàn)林業(yè)有害生物的檢測與識別方面有著極大的優(yōu)勢。

        圖1 不同種類的相似害蟲

        圖2 同種害蟲的不同姿態(tài)

        圖3 重疊的害蟲

        YOLO算法是深度學(xué)習(xí)中的一種新興的目標(biāo)檢測算法,該算法由Redmon等[22]提出,通過一個網(wǎng)絡(luò)同時實現(xiàn)了目標(biāo)檢測的分類和定位,YOLO算法在目標(biāo)檢測中得到了廣泛的應(yīng)用。目前,YOLO算法經(jīng)歷了從YOLOv1到Y(jié)OLOv5的發(fā)展,其中YOLOv5效果最優(yōu)[22-24]。YOLOv5于2020年推出,具有體積小、速度快和精度高的優(yōu)點,在生態(tài)成熟的PyTorch中實現(xiàn)。R-CNN目標(biāo)檢測算法可以有效地改善圖像中待檢測目標(biāo)的問題,但是R-CNN的算法模型比YOLOv5更復(fù)雜,計算量更大。因此,選取最新的YOLOv5目標(biāo)檢測算法對林業(yè)有害生物數(shù)據(jù)集進行檢測與識別。

        1 YOLOv5模型

        YOLOv5是YOLO算法中最新的目標(biāo)檢測算法,分為4種權(quán)重,分別為YOLOv5s、YOLOv5m、YOLOv5l和YOLOv5x,其中YOLOv5s的體積最小。本文選擇YOLOv5s權(quán)重,由輸入、骨干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)和預(yù)測4個部分組成。網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

        圖4 YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)

        1.1 輸入

        在輸入端,YOLOv5借鑒了CutMix方法,利用馬賽克數(shù)據(jù)增強,有效地提高了對小目標(biāo)的檢測與識別。添加自適應(yīng)縮放處理,將圖像縮放到統(tǒng)一大小,然后發(fā)送到網(wǎng)絡(luò)中學(xué)習(xí),增強網(wǎng)絡(luò)數(shù)據(jù)處理能力。

        1.2 骨干網(wǎng)絡(luò)

        骨干網(wǎng)絡(luò)包括CSP網(wǎng)絡(luò)和Focus結(jié)構(gòu)等。Focus結(jié)構(gòu)包含4個切片操作和一個32個卷積核的卷積,將原來的608×608×3圖像轉(zhuǎn)化為304×304×12的特征圖。CSP網(wǎng)絡(luò)進行局部跨層融合,利用不同層的特征信息獲得更豐富的特征圖。

        1.3 頸部網(wǎng)絡(luò)

        頸部網(wǎng)絡(luò)部分同時包含PANet和SPP。PANet充分整合不同層的圖像特征,將不同CSP網(wǎng)絡(luò)的頂部特征信息和輸出特征按照自上而下的順序進行聚合,然后將淺層特征從底向上進行聚合。SPP使用4個不同大小的核進行最大池化,然后進行張量拼接。

        在手表式血壓計的基礎(chǔ)上提供一種通過手機攝像頭以及閃光燈測量心率的方式。該模塊使用基于小波變換的帶通濾波器及快速傅里葉變換(FFT)技術(shù),通過手機自帶攝像頭以及閃光燈實現(xiàn),在食指指腹輕貼攝像頭時,通過捕捉毛細血管的搏動,對血液流變以及毛細血管蠕動的影像分析,獲得其心率值(如圖5所示)。

        1.4 預(yù)測

        預(yù)測部分包含GIOU_Loss損失函數(shù)和非最大值抑制。YOLOv5s的損失函數(shù)使用GIOU_Loss,解決了IOU_Loss無法處理2個包圍框的情況。幾何關(guān)系如圖5所示。假設(shè)預(yù)測框(Pred)與真實框(Re)的最小矩形包圍框是C, 預(yù)測框和真實框的并集為N, 預(yù)測盒框與真實框的交集為M,交集與并集之比為IOU,如公式(1)所示。

        圖5 幾何關(guān)系

        (1)

        D是C和N的差集,如公式(2)所示。

        D=|C-N|。

        (2)

        GIOU是IOU減去D與C的比值,如公式(3)所示。

        (3)

        GIOU_LOSS的計算如公式(4)所示,其中GIOU_LOSS為交并比的損失函數(shù)。

        (4)

        由于滑動窗口,同一目標(biāo)可能有不止一個檢測框。YOLOv5使用非最大值抑制(Non-Maximum Suppression,NMS)選擇檢測框,使用DIOU_NMS,刪除多余的檢測框,保留最佳檢測框。DIOU_NMS可以提高重疊目標(biāo)和遮擋目標(biāo)的檢測精度。

        2 實驗結(jié)果與分析

        2.1 害蟲分類推理模型

        該模型的框架如圖6所示,分為2部分:訓(xùn)練階段和測試階段。在訓(xùn)練階段,將訓(xùn)練集輸入模型進行訓(xùn)練。在測試階段,模型完成對輸入圖像的害蟲檢測和分類。該模型對美國白蛾、松墨天牛、星天牛、麻皮蝽、霜天蛾、人紋污燈蛾、柳藍葉甲、草履蚧和桑天牛這9個類別的預(yù)測得分進行處理,然后將預(yù)測的害蟲種類和得分繪制在輸出圖像上。

        圖6 病蟲害識別框架

        2.2 數(shù)據(jù)集

        構(gòu)建了一個林業(yè)有害生物數(shù)據(jù)集。在Google、Naver 和 FreshEye 等搜索引擎收集了約2 668張害蟲照片,包括美國白蛾、松墨天牛、星天牛、麻皮蝽、霜天蛾、人紋污燈蛾、柳藍葉甲、草履蚧和桑天牛9種林業(yè)害蟲,9種林業(yè)害蟲圖像如圖7所示。隨后建立樣本庫,為獲取的害蟲圖像篩選和標(biāo)記類別,以避免數(shù)據(jù)的重復(fù)和錯誤,原始數(shù)據(jù)集涵蓋害蟲目標(biāo)的不同拍攝視角。通過翻轉(zhuǎn)、旋轉(zhuǎn)、裁剪、變形、縮放、調(diào)整亮度和添加噪聲等圖像增強過程,最終制成包含8 389張圖片的數(shù)據(jù)集。在此數(shù)據(jù)集中,利用標(biāo)記工具labelimg對圖片中的林業(yè)害蟲進行了標(biāo)記:首先從數(shù)據(jù)集圖片中利用矩形框框選出相應(yīng)的害蟲目標(biāo);然后將框選出的害蟲標(biāo)記類別;再將標(biāo)記后的標(biāo)簽存為txt格式的標(biāo)簽文件;最后將標(biāo)簽完成的數(shù)據(jù)集按照8∶2的比例劃分為訓(xùn)練集和測試集。

        圖7 9種害蟲圖像

        2.3 評價指標(biāo)

        本實驗使用精確度(Precision)、召回率(Recall)和均值平均精度(mean Average Precision,mAP)作為評價指標(biāo)。檢測結(jié)果為真正例(TP)、假正例(FP)、真負例(TN)和假負例(FN)4種。定義見表1。

        表1 不同樣本的定義

        精確度(Precision,公式中用P表示)是指預(yù)測正確的正樣本數(shù)量與所有預(yù)測為正樣本的樣本數(shù)量之比,如公式(5)所示。

        (5)

        召回率(Recall,公式中用R表示)是指預(yù)測正確的正樣本數(shù)量與檢測正確的樣本數(shù)量之比,計算如公式(6)所示。

        (6)

        平均精度(Average Precision, AP,公式中用AP表示)為P和R圍合的曲線面積,均值平均精度(Mean Average Precision, mAP,公式中用mAP表示)為各類別AP的平均值,計算如公式(7)所示。

        (7)

        式中:G為蟲害類別的數(shù)量。

        2.4 YOLOv5算法試驗與分析

        對本文YOLOv5s算法模型進行訓(xùn)練,訓(xùn)練后的Precision、Recall和mAP如圖8所示。

        圖8 訓(xùn)練結(jié)果

        由圖8可以看出,前100 epochs,模型的Precision、Recall和mAP上升較快,在訓(xùn)練200 epochs后已經(jīng)達到相當(dāng)高的精度,訓(xùn)練300 epochs后接近最優(yōu)值,可達到準(zhǔn)確識別林業(yè)有害生物的效果。

        實驗結(jié)果如圖9所示。

        由圖9可以看出,該模型能夠從檢測結(jié)果中正確地檢測和識別帶有物體遮擋、重疊和模糊的害蟲圖像。其中正常害蟲圖像的預(yù)測得分達到了0.9以上,被物體遮擋、互相遮擋、模糊的害蟲圖像也能達到很高的識別精度。

        圖9 測試結(jié)果

        2.5 不同算法性能比較

        本實驗采用Pytorch框架,模型在GeForce GTX 1080ti(顯存12G)顯卡, CUDA 10.2實驗環(huán)境下進行訓(xùn)練。3種算法的訓(xùn)練參數(shù)設(shè)置見表2。

        表2 各算法參數(shù)設(shè)置

        對本文提出的YOLOv5s算法和YOLOv3、Faster-RCNN算法進行測試集的檢測和識別,得到不同模型的指標(biāo),如圖10所示。

        圖10 不同算法的準(zhǔn)確率、召回率和均值平均精度

        從圖10可以看出,本文YOLOv5s算法的Precision達到了0.973,Recall達到了0.929,mAP達到了0.942。與YOLOv3和Faster-RCNN相比,具有更高的Precision、Recall和mAP,該模型相比其他算法的識別精度更高,實時性好,魯棒性好,性能也優(yōu)于其他算法,適合作為實現(xiàn)林業(yè)有害生物檢測與識別的算法。

        3 結(jié)論

        本研究提出了一種林業(yè)有害生物檢測與識別方法,基于YOLOv5算法在目標(biāo)檢測方面的強大功能,選擇YOLOv5算法中4種模型中體積最小的YOLOv5s模型, 實現(xiàn)了林業(yè)有害生物圖像檢測與識別。

        試驗結(jié)果表明,該模型能夠準(zhǔn)確地檢測和識別被物體遮擋的、重疊和模糊的害蟲圖像。與YOLOv3和Faster-RCNN算法相比,本文提出的林業(yè)有害生物識別模型具有良好的檢測識別效果和明顯的性能優(yōu)勢。

        為了達到推廣應(yīng)用的效果,今后還需要開展以下方面的研究: ①增加林業(yè)害蟲分類的研究;②進一步擴充數(shù)據(jù),增加病蟲害的種類和數(shù)量;③進一步優(yōu)化模型,提高模型訓(xùn)練效果和識別水平; ④研究模型對害蟲不同生育階段的識別能力,從而提高模型的泛化能力和水平。

        猜你喜歡
        害蟲卷積林業(yè)
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        蝸牛一覺能睡多久?
        好孩子畫報(2021年9期)2021-09-26 12:26:31
        《林業(yè)科學(xué)》征稿簡則
        冬季果樹常見蛀干害蟲的防治
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        land produces
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        棗樹害蟲的無公害防治
        農(nóng)業(yè)害蟲的冬季防治
        林業(yè)有害生物的防治
        狠狠色噜噜狠狠狠888米奇视频| 日韩av在线亚洲女同| 亚洲黄色天堂网站在线观看禁18 | 国产白浆大屁股精品视频拍| 亚洲精品av一区二区| 综合五月激情二区视频| 无码成人aaaaa毛片| 久久久久亚洲精品天堂| 日本视频一区二区这里只有精品| 亚洲最大水蜜桃在线观看| 欧美成人猛片aaaaaaa| 99久久国产福利自产拍| 国产美女白浆| av天堂吧手机版在线观看| 青青草在线免费观看视频| 美女午夜福利视频网址| 国产性生交xxxxx无码| 国产免费午夜a无码v视频| av手机在线天堂网| 蜜桃av中文字幕在线观看| 玩弄白嫩少妇xxxxx性| 蜜臀av免费一区二区三区| 亚洲VA欧美VA国产VA综合| 国产不卡av一区二区三区 | 成人免费无码大片a毛片抽搐色欲| 欧美性猛交xxxx富婆| 久久亚洲道色宗和久久| 午夜婷婷国产麻豆精品| 亚洲国产综合在线亚洲区亚洲av| 男女18禁啪啪无遮挡激烈网站| 一本一道av无码中文字幕| 午夜久久精品国产亚洲av| 国产在线观看免费不卡视频| 无码伊人66久久大杳蕉网站谷歌| 久久香蕉国产线看观看精品yw| 99热在线精品播放| 国产黄色看三级三级三级| 亚洲丁香婷婷久久一区二区| 痉挛高潮喷水av无码免费| 亚洲国产麻豆综合一区| 国产在线视频一区二区三|