亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于分量分割與YOLOv8s的紅火蟻蟻巢識別

        2023-02-28 09:46:52張澤駿李健釗吳武林鐘潔鳳吳亞榕林欽永
        現(xiàn)代信息科技 2023年20期
        關(guān)鍵詞:紅火蟻

        張澤駿 李健釗 吳武林 鐘潔鳳 吳亞榕 林欽永

        摘? 要:提出一種基于分量分割與YOLOv8s的紅火蟻蟻巢識別模型,為無人化滅蟻等相關(guān)研究提供參考。利用紅火蟻蟻巢土壤與周圍環(huán)境色相差異較大的特征將蟻巢初步分割出來并進(jìn)行二值化,將色相分割二值圖與明度分量二值圖融合以消除雜草的遮擋干擾,利用圖像形態(tài)學(xué)算法對得到的圖像進(jìn)行優(yōu)化,使用YOLOv8s作為基礎(chǔ)網(wǎng)絡(luò),添加SK注意力機(jī)制,構(gòu)建紅火蟻蟻巢檢測網(wǎng)絡(luò)模型。模型研究環(huán)境下對紅火蟻蟻巢樣本圖像進(jìn)行預(yù)測的精度為93.3%,召回率為89.7%,有效AP值達(dá)83.1%,網(wǎng)絡(luò)前向時(shí)間為15.7 ms,F(xiàn)1綜合評價(jià)指標(biāo)為92.0%,模型GFLOPs為41.0。研究還進(jìn)一步精確了紅火蟻蟻巢土的H值范圍(不被陽光照射的情況下為342~27,陽光照射情況下為25.9~35.8),并比較了不同光照條件對紅火蟻蟻巢土的H值的影響。

        關(guān)鍵詞:紅火蟻;YOLOv8;Varifocal Loss;HSV空間

        中圖分類號:TP391.4;S433 文獻(xiàn)標(biāo)識碼:A 文章編號:2096-4706(2023)20-0066-09

        Red Fire Ant Nest Recognition Based on Component Segmentation and YOLOv8s

        ZHANG Zejun, LI Jianzhao, WU Wulin, ZHONG Jiefeng, WU Yarong, LIN Qinyong

        (College of Automation, Zhongkai University of Agriculture and Engineering, Guangzhou? 510225, China)

        Abstract: This paper proposes a red fire ant nest recognition model based on component segmentation and YOLOv8s, providing reference for related research such as unmanned ant extermination. By utilizing the significant color difference between the red fire ant nest soil and surrounding environment, the nest is preliminarily segmented and binarized. The color segmentation binary map and brightness component binary map are fused to eliminate weed occlusion interference. Image morphology algorithms is used to optimize the resulting image. YOLOv8s is used as the basic network, and SK attention mechanism is added to construct a red fire ant nest detection network model. The prediction accuracy of red fire ant nest sample images in the model research environment is 93.3%, the recall rate is 89.7%, the effective AP value is 83.1%, the network forward time is 15.7 ms, the F1 comprehensive evaluation index is 92.0%, and the model GFLOPs is 41.0. The study further refines the H value range of red fire ant nest soil (342~27 without sunlight and 25.9~35.8 with sunlight), and compares the effects of different lighting conditions on the H value of red fire ant nest soil.

        Keywords: red fire ant; YOLOv8; Varifocal Loss; HSV space

        0? 引? 言

        紅火蟻(Solenopsis invicta Buren)原分布于南美洲,是全球最具危險(xiǎn)性的100種入侵生物之一。目前,紅火蟻已經(jīng)擴(kuò)散至我國10余個(gè)省區(qū),對農(nóng)業(yè)生產(chǎn)和群眾的健康生活造成了嚴(yán)重的損害[1-3]。而防治蟻患入侵的手段主要以人工作業(yè)為主。但傳統(tǒng)的人工踏查方式存在著肉眼識別錯(cuò)誤率高、工作效率低、易被叮蟄等難點(diǎn)[4]。

        隨著農(nóng)業(yè)智能化的提高,無人機(jī)逐漸被應(yīng)用于農(nóng)業(yè)生產(chǎn)中,而運(yùn)用無人機(jī)在空中掃描圖片,結(jié)合圖像處理算法定位紅火蟻蟻巢可以較好地解決上述問題。近些年來,我國專家學(xué)者就此問題提出多種算法。吳偉斌等[5]僅用色相差異分離紅火蟻蟻巢土和普通土,經(jīng)實(shí)際運(yùn)用后發(fā)現(xiàn),如果蟻巢土被陽光照射,其色相將變?yōu)?5.9~35.8,與普通土色相相似。同時(shí),有相當(dāng)一部分的枯草、沙土的色相與其重疊,但該算法并未將這些干擾消除,故其局限性較大。朱立學(xué)等[6]采用超綠灰度圖分離雜草,并利用明度差異區(qū)分蟻巢和草坪,是一種行之有效的紅火蟻蟻巢識別算法。但該算法未考慮蟻巢土和普通土的分離,在草覆蓋率低的區(qū)域容易產(chǎn)生誤判,其適用場景有限。

        在提取目標(biāo)方面,常見的邊緣檢測算法有Sobel[7]、Canny算子、二維Otsu算法[8]、FCM算法[9]。夏亞飛[10]基于K均值聚類和Otsu算法對棉花HSV圖像進(jìn)行分割;張國權(quán)等[11]利用Sobel算子對彩色圖像進(jìn)行邊緣化處理。但隨著農(nóng)業(yè)機(jī)械化和信息化的高速發(fā)展對于病蟲害的識別已經(jīng)由傳統(tǒng)的識別算法發(fā)展為基于深度學(xué)習(xí)的目標(biāo)檢測。張海波等[12]使用BP神經(jīng)網(wǎng)絡(luò)來進(jìn)行圖像的識別,識別率可以達(dá)到95.7%;王業(yè)等[13]利用Faster-RCNN算法來進(jìn)行對設(shè)備安全的自動巡視,實(shí)現(xiàn)了二次設(shè)備巡視工作的無人化或少人化;魏甫豫等[14]利用卷積神經(jīng)網(wǎng)絡(luò)與遷學(xué)習(xí)進(jìn)行昆蟲種類的識別,經(jīng)過訓(xùn)練后的識別率可以達(dá)到96.5%。

        上述基于深度學(xué)習(xí)的目標(biāo)識別,為深度學(xué)習(xí)技術(shù)應(yīng)用于紅火蟻窩的識別提供了參考。YOLO算法采用單個(gè)神經(jīng)網(wǎng)絡(luò)直接對整個(gè)圖像進(jìn)行前向傳遞,并輸出每個(gè)目標(biāo)的類別概率和邊界框坐標(biāo)。相比于傳統(tǒng)的目標(biāo)檢測算法,如基于區(qū)域提取的R-CNN系列,YOLO算法具有更快的檢測速度和更高的實(shí)時(shí)性。謝椿輝

        等[15]提出了一種基于改進(jìn)的YOLOv5模型,通過融合多尺度、多層次的信息與設(shè)計(jì)多尺度通道注意力模塊使得在無人機(jī)上對小目標(biāo)檢測的精度達(dá)到了60.24%,且檢測時(shí)間僅為16 ms。雷榮智等[16]提出了一種基于改進(jìn)的YOLOv3算法,通過引入SPP層和PAN結(jié)構(gòu)使得在無人機(jī)上對房屋和農(nóng)田的平均識別率達(dá)到了72.6%。馬宏興等[17]提出了一種基于改進(jìn)YOLOv5的蝗蟲識別方法,平均識別準(zhǔn)確率為96.8%。YOLOv8是Ultralytics公司于2023年初公布的目標(biāo)檢測模型,是YOLO系列網(wǎng)絡(luò)的最新模型,它在以前成功的YOLO版本基礎(chǔ)上引入了新的功能和改進(jìn),進(jìn)一步提升了其性能和靈活性。因此,YOLO系列模型被廣泛應(yīng)用于目標(biāo)檢測、圖像分割和圖像分類任務(wù)中。

        由于自然環(huán)境下拍攝的蟻窩圖像相對較為復(fù)雜,蟻窩的形狀和顏色與普通土堆相似,容易導(dǎo)致目標(biāo)識別的誤判或漏檢。為提高識別準(zhǔn)確性,可以結(jié)合傳統(tǒng)算法和YOLOv8模型的優(yōu)點(diǎn),將兩個(gè)模型進(jìn)行級聯(lián)。傳統(tǒng)算法可用于增強(qiáng)蟻窩圖像特征,神經(jīng)網(wǎng)絡(luò)模型可用于學(xué)習(xí)特征并進(jìn)行目標(biāo)檢測。

        1? 圖像獲取及預(yù)處理

        研究于2022年12月中旬在廣東省中山市南朗鎮(zhèn)紅火蟻疫情荒地,使用vivo X50手機(jī),在距離紅火蟻蟻巢60~70 cm的高度,與地面成60°~90°夾角進(jìn)行拍攝。由于紅火蟻筑巢環(huán)境多變,因此分別選擇了3種背景下的蟻巢類型進(jìn)行圖像采集,圖像數(shù)據(jù)分辨率為4 000×3 000,共采集到1 300張紅火蟻蟻巢圖像與100張地表圖像,如圖1所示。將圖像分辨率壓縮為480×640,加快算法遍歷。使用Labelimg軟件對圖像進(jìn)行標(biāo)注,并將構(gòu)建的蟻巢數(shù)據(jù)集按照8:1:1的比例分為訓(xùn)練集、驗(yàn)證集和測試集。

        2? 基于分量分割與YOLOv8的紅火蟻蟻巢識別

        2.1? 紅火蟻蟻巢的提取與除雜

        HSV顏色模型的3個(gè)參數(shù)是:色相、飽和度、明度[18]。式(1)為RGB色彩空間轉(zhuǎn)化到HSV色彩空間的轉(zhuǎn)化公式,提取H分量后獲得的圖像中目標(biāo)的凸顯性較好[19]。經(jīng)過研究蟻巢圖像的各個(gè)分量圖(圖2)總結(jié)得出,蟻巢和背景在H分量上差別較大,因此選用蟻巢HSV圖像的H通道進(jìn)行目標(biāo)的分割研究。

        色相分割算法,是從H分量中提取閾值內(nèi)像素點(diǎn)。設(shè)Hi為圖像所對應(yīng)的H分量,由式(2)可求得蟻巢區(qū)域H分量的平均分布 ,由此確定閾值Sh。設(shè)f (x,y)為圖像像素對應(yīng)的H分量的值,當(dāng) f (x,y) ∈ Sh時(shí),將其灰度賦為255;當(dāng)f (x,y) ? Sh時(shí),將其灰度賦為0,如式(3):

        式中,n為樣本總數(shù)。

        由蟻巢區(qū)域H分量的平均分布,可知其集中分布于342~27之間,如圖3(a)所示。有針對性地將閾值設(shè)為338.8~15.5可取得較為理想的分離效果如圖3(b)所示。此外,圖像中不可避免地會存在閾值內(nèi)的干擾像素,具有明顯的噪聲,直接影響圖像分割的準(zhǔn)確性。采用中值濾波的方法[20]對圖像外圍干擾像素進(jìn)行剔除,消除圖像在分割過程中的噪聲,為后續(xù)的圖像增強(qiáng)做好準(zhǔn)備。

        2.2? 圖像的增強(qiáng)

        從空中檢測蟻巢,不可避免地會在雜草遮擋的情況下獲取圖像,在色相分割二值圖表現(xiàn)為蟻巢區(qū)存在線形黑色區(qū)域。需要對圖像進(jìn)行增強(qiáng),減少雜草的遮擋影響。由于圖像中某一區(qū)域的明度通常不會有較大變化[21],因此選用明度分割算法以消除雜草遮擋造成的區(qū)域缺失。

        2.2.1? 利用明度分割對圖像進(jìn)行增強(qiáng)

        明度分割算法,是從V分量中提取閾值內(nèi)像素點(diǎn)。設(shè)Vi為圖像所對應(yīng)的V分量,由式(4)可求得蟻巢區(qū)域V分量的平均分布 ,由此確定閾值Sv。為了將從圖像中提取蟻巢,首先需要確定蟻巢區(qū)域的V值范圍,由式(3)可求得測定組中所有蟻巢圖像V分量的平均分布,如圖4(a)所示。設(shè) f (x,y)為圖像像素對應(yīng)的V分量的值,當(dāng) f (x,y) ∈ Sv時(shí),將其灰度映射到[0,1];當(dāng) f (x,y) ? Sv時(shí),將其灰度賦為0,如式(5):

        式中,n為樣本總數(shù),ni為第i個(gè)灰度等級的像素總數(shù),Ri為圖像中所有像素點(diǎn)。

        由圖4(a)蟻巢區(qū)域V分量的平均分布可以發(fā)現(xiàn),其V分量集中分布于0.55~0.84之間。有針對性地將閾值設(shè)為0.65~0.84可取得較為理想的分離效果,將明度分割二值圖和色相分割二值圖進(jìn)行融合可以得到融合二值圖,如圖4(b)所示。

        2.2.2? 利用均值加權(quán)算法對圖像進(jìn)行增強(qiáng)

        由于明度分割二值圖蟻巢區(qū)域灰度等級較低,對蟻巢區(qū)域中線形黑色區(qū)域的填充效果不明顯,需要繼續(xù)對圖像進(jìn)行增強(qiáng)。李文娟等[22]提出了一種改進(jìn)的加權(quán)均值算法。將其改進(jìn)后可以取得較好的增強(qiáng)效果,其流程如下:

        1)取相鄰矩陣中所有像素的灰度中值。以圖像的每一像素為中心,選取3×3大小的矩陣w,剔除矩陣內(nèi)的最大灰度值和最小灰度值像素點(diǎn),將剩余像素的集合記為H,即式(6),計(jì)算權(quán)值,先求出H內(nèi)像素的均值Mean (H [ f (x,y)]),然后采用式(7)的方法計(jì)算H內(nèi)各像素的對應(yīng)權(quán)值:

        式中,H為像素集合, 為各像素點(diǎn)的權(quán)值,k為像素點(diǎn)個(gè)數(shù)。

        2)H內(nèi)各像素點(diǎn)灰度值與其內(nèi)像素點(diǎn)均值Mean (H [ f (x,y)])差的絕對值為Dk,即式(8):

        3)將所有Dk的平均值,表示一個(gè)闕值T,采用閾值優(yōu)化原則計(jì)算權(quán)值。即如果H內(nèi)某像素的Dk大于閾值T,則權(quán)值由Dk決定,如果Dk小于值T,則權(quán)值由T決定,即式(9):

        4)將H集合中的全部像素點(diǎn)與其相對應(yīng)的權(quán)值進(jìn)行加權(quán)運(yùn)算,其結(jié)果作為矩陣W中心點(diǎn)的灰度值,有式(10):

        有針對性地將權(quán)值設(shè)為? 時(shí)增強(qiáng)效果最佳。此時(shí)蟻巢區(qū)域內(nèi)部由雜草遮擋引起的缺失部分已被基本填滿(圖5)。

        2.3? 圖像形態(tài)學(xué)處理

        2.3.1? 利用開運(yùn)算進(jìn)行去噪

        原始圖像在經(jīng)過分割和增強(qiáng)后,圖像細(xì)節(jié)得到了增強(qiáng),蟻巢區(qū)域趨于完整。但是,由于存在干擾像素,圖像仍然存在噪聲。運(yùn)用圖像形態(tài)學(xué)運(yùn)算進(jìn)行圖像去噪,并對圖像進(jìn)行進(jìn)一步優(yōu)化,增強(qiáng)圖像細(xì)節(jié)。

        腐蝕與膨脹運(yùn)算為圖像數(shù)學(xué)形態(tài)學(xué)處理的兩個(gè)基本運(yùn)算。腐蝕運(yùn)算是一種消除邊界點(diǎn),使邊界點(diǎn)向內(nèi)部收縮的過程。常用于消除圖像中一些小且意義不大的物體[23,24]。其定義如式(11):

        式中,A為輸入圖像,B為結(jié)構(gòu)元素。

        膨脹運(yùn)算就是將與物體接觸所有背景合并到該物體中,使邊界向外擴(kuò)張的過程。因此,膨脹運(yùn)算常用來填補(bǔ)物體中的空洞及消除目標(biāo)物體中的小顆粒噪聲。其定義如式(12):

        對圖像先腐蝕再膨脹稱為開運(yùn)算。由于干擾部分的像素較為分散,進(jìn)行腐蝕處理即可消除大部分干擾像素。處理完畢后再進(jìn)行膨脹使目標(biāo)恢復(fù)之前的大小。開運(yùn)算需要選定適當(dāng)?shù)拈撝?。如果閾值過小則無法消除泥土的干擾,如圖6(d~f)所示;如果閾值過大會使蟻巢區(qū)域縮小嚴(yán)重,如圖6(a~c)所示,導(dǎo)致無法識別面積較小的蟻巢。經(jīng)過多次測試,把開運(yùn)算閾值設(shè)定為30時(shí),可將干擾面積降低。

        2.3.2? 利用閉運(yùn)算進(jìn)行復(fù)原

        圖像經(jīng)過開運(yùn)算處理后,蟻巢區(qū)域出現(xiàn)了部分缺失,且沒有構(gòu)成一個(gè)完整地連通域,對之后的識別存在干擾。對二值圖像先膨脹再腐蝕為閉運(yùn)算。閉運(yùn)算可以去除目標(biāo)內(nèi)部的小孔或缺失。首閉運(yùn)算也需要選定適當(dāng)?shù)拈撝?。如果閾值過小則缺失區(qū)域填充效果差,如圖7(a~c)所示,如果閾值過大會使干擾對照組出現(xiàn)大面積連通域造成誤判,如圖7(d~f)。經(jīng)過多次測試,把閉運(yùn)算閾值設(shè)定為80時(shí),可相對完整地復(fù)原蟻巢區(qū)域并構(gòu)成連通域,同時(shí)不會在干擾對照組內(nèi)形成大面積的連通域。

        2.4? YOLOv8s模型

        2.4.1? YOLOv8網(wǎng)絡(luò)架構(gòu)概述

        YOLOv8是YOLO系列最新的模型,如圖8所示。該網(wǎng)絡(luò)模型主要包括4部分:輸入(Input)、主干特征提取網(wǎng)絡(luò)(Backbone)、頭部(Head)和預(yù)測(Predict)。

        Input由mosaic(數(shù)據(jù)加強(qiáng))、圖像自動裁剪拼接和自適應(yīng)錨框組成,會對圖像進(jìn)行預(yù)處理,保證圖像大小統(tǒng)一。

        Backbone采用了CSPDarknet架構(gòu),由CBS(標(biāo)準(zhǔn)卷積層)、C2f模塊和SPPF(金字塔池化)組成。通過5次標(biāo)準(zhǔn)卷積層和C2f模塊逐步提取圖像特征,并在網(wǎng)絡(luò)末尾添加SPPF模塊,將任意大小的輸入圖像轉(zhuǎn)換成固定大小的特征向量。分別取P3、P4、P5層的特征提取結(jié)果,向Head輸出80×80、40×40、20×20三個(gè)尺度的特征層。

        C2f模塊借鑒了殘差網(wǎng)絡(luò)(ResNet)以及ELAN[25]的思想,其結(jié)構(gòu)分為兩個(gè)分支,主干部分利用Bottleneckm[26]模塊逐步加深網(wǎng)絡(luò),分支部分保留輸入層通道并與主干部分特征進(jìn)行融合,如圖9所示。通過標(biāo)準(zhǔn)卷積層提取新的特征層,相比于YOLOv5使用的C3模塊,C2f模塊可以在卷積層和全連接層之間建立一個(gè)平滑的轉(zhuǎn)換,從而實(shí)現(xiàn)了參數(shù)的共享,提高了模型的效率和泛化能力。

        Head采用了PAN-FPN結(jié)構(gòu),將Backbone輸入的3個(gè)特征層進(jìn)行多尺度融合,進(jìn)行自頂向下(FAN)和自底向上(PAN)的特征傳遞,對金字塔進(jìn)行增強(qiáng),使不同尺寸的特征圖都包含強(qiáng)目標(biāo)語義信息和強(qiáng)目標(biāo)特征信息,保證了對不同尺寸樣本的準(zhǔn)確預(yù)測。

        Detect借鑒了Decoupled-Head思想,用一個(gè)解耦檢測頭將輸入的不同尺寸特征層分成2個(gè)分支進(jìn)行檢測。第1個(gè)分支在進(jìn)行3次卷積后使進(jìn)行回歸任務(wù),輸出預(yù)測框。第2個(gè)分支在進(jìn)行3次卷積后進(jìn)行分類任務(wù),輸出類別的概率。采用Varifocal_Loss[27]作為損失函數(shù),其式為:

        式中,p為預(yù)測的IACS得分,q為目標(biāo)IoU分?jǐn)?shù)。α為樣本權(quán)重,β為平衡因子,γ為一個(gè)可調(diào)節(jié)的參數(shù)。當(dāng)γ = 0時(shí),Varifocal_Loss等價(jià)于Focal_Loss損失函數(shù);當(dāng)γ>0時(shí),會減小簡單樣本的權(quán)重,增加困難樣本的權(quán)重,使得模型更加關(guān)注難以區(qū)分的樣本。

        YOLOv8使用Task_Aligned Assigner[28]匹配算法代替?zhèn)鹘y(tǒng)的IoU匹配算法。其使用Task_aligned head(T-head)和Task Alignment Learning(TAL)來解決分類和定位對不齊的問題。其中T-head由一個(gè)簡單的特征提取器(式(15))和2個(gè)Task_aligned Predictors(TAP)構(gòu)成。通過一個(gè)特征提取器來從卷積層中學(xué)習(xí)task_interactive特征以加強(qiáng)2個(gè)任務(wù)的交互。之后會把計(jì)算得到的task_interactive feature送入2個(gè)TAP來對齊分類和定位。

        式中,convk和δ分別為第K個(gè)conv層和一個(gè)ReLU函數(shù)。

        在TAP中,因?yàn)?個(gè)任務(wù)的注意點(diǎn)是不同的,因此會不可避免的引入2個(gè)任務(wù)的特征沖突,因此引入一個(gè)layer attention(式(16))機(jī)制來解決,通過動態(tài)計(jì)算task_specific的特征來進(jìn)行任務(wù)的分解。最終,分類或定位的結(jié)果從每個(gè)xtask中得到。

        式中,wk為學(xué)習(xí)層注意的第k個(gè)元素,fc2、fc1為2個(gè)全連接層、σ為一個(gè)sigmod函數(shù),xinter為對Xinter使用平均池化得到的、ztask將會通過sigmod函數(shù)轉(zhuǎn)換為得分。

        最后TAL中使用分類得分和IoU的高階組合來衡量task_alignment的程度,如式(17)。選取m個(gè)前t大的value作為正樣本。為了精準(zhǔn)的提升分類得分并減少誤差,通過規(guī)范選取t并用一種簡單的實(shí)例級規(guī)范化調(diào)整? 的尺度,如式(18)。與此同時(shí),使用Focal Loss損失函數(shù)緩解正負(fù)樣本不平衡問題。因此,最終的損失函數(shù)如式(19):

        式中,S、u分別為分類得分和IoU值,α和β分別為權(quán)重。

        2.4.2? 基于SK注意力的注意力機(jī)制替換

        YOLOv8在目標(biāo)檢測中具有較快的速度和較高的精度,研究僅對紅火蟻蟻巢的二值圖像進(jìn)行識別,無須對圖像中黑色區(qū)域進(jìn)行檢測。另外,無人機(jī)搭載的嵌入式單片機(jī)還需要部署路徑規(guī)劃、數(shù)據(jù)回傳等任務(wù)。對此,采用YOLOv8模型中最簡單的YOLOv8s模型進(jìn)行注意力機(jī)制的替換。

        SK-Nets(Selective Kernel Networks)是Li Xiang[29]提出的一種通道注意力模塊,旨在提高特征表示的表達(dá)能力,適用于圖像分類和目標(biāo)檢測等任務(wù)。其核心思想是通過自適應(yīng)選擇卷積核大小和數(shù)量,從而實(shí)現(xiàn)空間維度和通道維度上的特征選擇。SK注意力模塊首先對特征圖進(jìn)行多組卷積,每組卷積使用不同大小的卷積核,但使其的卷積后的大小相同,得到不同的感受野。然后,對于每組卷積后的特征圖,采用自適應(yīng)門控機(jī)制對其進(jìn)行選擇,通過學(xué)習(xí)生成不同大小的通道注意力權(quán)重。這種權(quán)重能夠自適應(yīng)地選擇不同的卷積核大小,并加權(quán)融合不同大小的特征響應(yīng),得到最終的特征表示。相較于其他的注意力機(jī)制,SK注意力模塊具有計(jì)算量小、效果好,以及具有較強(qiáng)的自適應(yīng)能力等優(yōu)點(diǎn)。改進(jìn)后的YOLOv8s網(wǎng)絡(luò)結(jié)構(gòu)如圖10所示,訓(xùn)練該網(wǎng)絡(luò)作為紅火蟻蟻巢的識別模型。

        圖10中,kemel為對輸入進(jìn)行3×3、5×5的卷積,⊕為將2個(gè)特征圖按元素求和,S和Z為特征圖分別在H和W維度求平均值得到C×1×1的一維向量,a和b為對一維向量分別使用2次線性變換得到的C維信息,?是將得到權(quán)重應(yīng)用到特征圖上,component segmentation表示進(jìn)行分量分割算法,CBS為Conv+BN+Silu激活函數(shù)組成的模塊,用以對通道進(jìn)行縮放和增加以增強(qiáng)通道的信息交互的模塊,SPPF為空間金字塔池化。

        3? 結(jié)果與分析

        3.1? 訓(xùn)練平臺與評價(jià)指標(biāo)

        使用的訓(xùn)練平臺配置如下:選用Ubuntu 22.04操作系統(tǒng),硬件配置為Intel i7-10875H 8核處理器與Nvidia RTX 2060(6 GB顯存)顯卡;采用Pytorch 1.13.1作為框架,編程語言為Python 3.8;采用CUDA 11.7進(jìn)行加速。

        采用有效平均精度(AP@0.5,IoU>0.5)、精度(Precision)、召回率(Recall)、綜合評價(jià)指標(biāo)(F1)、十億浮點(diǎn)運(yùn)算數(shù)(GFLOPs)和網(wǎng)絡(luò)前向時(shí)間(Latency)作為評價(jià)指標(biāo)。其中YOLOv8(Improved)訓(xùn)練時(shí)輸入的圖像大小為480×640,訓(xùn)練批次為16,訓(xùn)練迭代次數(shù)為100,采用二分類降低計(jì)算量。其中,精度、召回率、F1、AP@0.5的計(jì)算如式(20)~(23)所示:

        式中,TP為正確檢測到的蟻巢數(shù)量,F(xiàn)P為被模型錯(cuò)誤認(rèn)為是蟻巢的數(shù)量,F(xiàn)N為漏檢的蟻巢數(shù)量。

        3.2? 紅火蟻蟻巢識別算法的結(jié)果與分析

        為驗(yàn)證研究所提模型的預(yù)測效果,在相同測試集下,將改進(jìn)模型分別與YOLOv8s、YOLOv8n、YOLOv8m、YOLOv8l、YOLOv8x、YOLOv8x6和YOLOv5s網(wǎng)絡(luò)模型進(jìn)行對比,其評價(jià)指標(biāo)如表1所示。分析各模型的評價(jià)指標(biāo)可知,YOLOv8x的精度最高,YOLOv8x6的精度最低。改進(jìn)模型的精度低于YOLOv8x、YOLOv8m、YOLOv8s、YOLOv5s,但YOLOv8x的GFLOPs較大、網(wǎng)絡(luò)前向時(shí)間較長,不適合作為無人機(jī)搭載的嵌入式單片機(jī)的紅火蟻蟻巢的識別網(wǎng)絡(luò);YOLOv8m比改進(jìn)模型的召回率低3.5個(gè)百分點(diǎn),十億浮點(diǎn)運(yùn)算數(shù)高91.95%,網(wǎng)絡(luò)前向時(shí)間低0.7 ms;YOLOv5s的召回率比改進(jìn)模型低1.9個(gè)百分點(diǎn)。

        改進(jìn)模型的有效平均精度AP@0.5達(dá)到83.1%,遠(yuǎn)高于其他7種模型,比YOLOv8s基礎(chǔ)網(wǎng)絡(luò)模型高21.1個(gè)百分點(diǎn),比YOLOv8n網(wǎng)絡(luò)模型高22.4個(gè)百分點(diǎn),比YOLOv8m網(wǎng)絡(luò)模型高28.7個(gè)百分點(diǎn),比YOLOv8l網(wǎng)絡(luò)模型高35.4個(gè)百分點(diǎn),比YOLOv8x網(wǎng)絡(luò)模型高17.0個(gè)百分點(diǎn),比YOLOv8x6網(wǎng)絡(luò)模型高16.8個(gè)百分點(diǎn),比YOLOv5s網(wǎng)絡(luò)模型高19.1個(gè)百分點(diǎn)。改進(jìn)模型的十億浮點(diǎn)運(yùn)算數(shù)和網(wǎng)絡(luò)前向時(shí)間分別為41.0 GFLOPs和15.7 ms,可以在無人機(jī)搭載的嵌入式單片機(jī)中以較快的識別速度對紅火蟻蟻巢進(jìn)行精確識別。

        此外,將改進(jìn)模型與YOLOv8s基礎(chǔ)網(wǎng)絡(luò)模型的部分預(yù)測結(jié)果進(jìn)行對比,如圖11所示。若蟻巢區(qū)域內(nèi)存在雜草干擾,YOLOv8s基礎(chǔ)網(wǎng)絡(luò)模型易對單個(gè)蟻巢產(chǎn)生重復(fù)預(yù)測,且存在置信度與IoU值較低等問題。改進(jìn)模型在雜草干擾的場景中仍保持了較高的置信度和IoU值,且不會對產(chǎn)生重復(fù)預(yù)測??梢?,改進(jìn)的模型具有強(qiáng)魯棒性。

        3.3? 光照條件下算法結(jié)果與分析

        對被陽光照射的蟻巢區(qū)域進(jìn)行色相分析,發(fā)現(xiàn)其色相平均分布集中于25.9~35.8。將色相分割閾值設(shè)置為338.8~35.8即可正常識別光照條件下的蟻巢。但泥土受到陽光照射后其色相平均分布于26.28~39.60,與蟻巢色相重疊度高。因此改進(jìn)的模型在光照條件下誤判率會提高。

        3.4? 草坪環(huán)境下算法結(jié)果與分析

        為驗(yàn)證改進(jìn)的模型在草坪環(huán)境下的適用性,研究于2023年1月中旬,在中山市石岐區(qū)大信海岸家園附近草坪,以同樣的采集方式,對區(qū)域中共58個(gè)紅火蟻蟻巢樣本依次進(jìn)行拍攝,草坪的地表特征基本一致,拍攝50張草坪地表圖像。共拍攝224張圖片。對草坪環(huán)境下的圖像執(zhí)行改進(jìn)的模型,預(yù)測精度為97.5%,召回率為100%,有效平均精度為87.5%,網(wǎng)絡(luò)前向時(shí)間為15.0 ms。證明其可以在草坪環(huán)境下預(yù)測。草坪蟻巢會因陽光照射導(dǎo)致其色相的改變,但改變后的色相不與雜草色相重合。因此,在保證草坪內(nèi)沒有泥土干擾的情況下,可以將色相閾值設(shè)置為338.8~35.8進(jìn)行識別。

        4? 結(jié)? 論

        研究針對無人機(jī)在空中對蟻巢的場景,提出了一種基于分量分割與YOLOv8s的紅火蟻蟻巢識別模型,經(jīng)過多種應(yīng)用場景的驗(yàn)證,結(jié)論如下:

        1)提出的改進(jìn)YOLOv8s模型預(yù)測精度為93.3%,召回率為89.7%,有效平均精度為83.1%,綜合評價(jià)指標(biāo)為92.0%,網(wǎng)絡(luò)前向時(shí)間為15.7 ms,模型十億浮點(diǎn)運(yùn)算數(shù)為41.0 GFLOPs,可以在有較多干擾的場景中以較快的速度準(zhǔn)確識別紅火蟻蟻巢。

        2)相較朱立學(xué)等提出的利用超綠模型進(jìn)行分割的算法只能識別草坪蟻巢的局限性,改進(jìn)的模型利用分量分割消除了雜草、泥土等干擾,適用范圍廣。

        3)相較于吳偉斌等提出的利用H = 30作為閾值區(qū)分普通土和蟻巢土方法,研究精確了多種情況下蟻巢土的色相范圍:不被陽光照射的情況下為:342~27;受到陽光照射的情況下為:25.9~35.8;同時(shí)發(fā)現(xiàn)陽光照射會將泥土的色相范圍為26.28~39.60。為后人的研究提供了數(shù)據(jù)參考。

        4)研究存在一定局限性,對紅火蟻蟻巢數(shù)據(jù)集的采集仍需人工踏查,存在潛在危險(xiǎn)。對數(shù)據(jù)集的標(biāo)注也需要大量時(shí)間。今后將嘗試用無人機(jī)搭載改進(jìn)的模型,實(shí)現(xiàn)蟻巢定位無人化,保障群眾的健康生活與農(nóng)業(yè)的安全生產(chǎn)。

        參考文獻(xiàn):

        [1] 王磊,陳科偉,馮曉東,等.我國大陸紅火蟻入侵?jǐn)U張趨勢長期預(yù)測 [J].環(huán)境昆蟲學(xué)報(bào),2022,44(2):339-344.

        [2] 陸永躍,曾玲,許益鐫,等.外來物種紅火蟻入侵生物學(xué)與防控研究進(jìn)展 [J].華南農(nóng)業(yè)大學(xué)學(xué)報(bào),2019,40(5):149-160.

        [3] 陳浩濤.我國紅火蟻主要行為特征、抗寒能力及發(fā)生風(fēng)險(xiǎn)分析的研究 [D].北京:中國農(nóng)業(yè)科學(xué)院,2010.

        [4] 陳曉娟,余德才,邊露.外來入侵物種紅火蟻的危害及防控技術(shù) [J].四川農(nóng)業(yè)科技,2022(9):44-46.

        [5] 吳偉斌,游展輝,洪添勝,等.基于計(jì)算機(jī)視覺技術(shù)的紅火蟻蟻巢探測 [J].河南農(nóng)業(yè)大學(xué)學(xué)報(bào),2017,51(2):184-188.

        [6] 朱立學(xué),黃培峰,黃偉鋒,等.基于圖像處理技術(shù)的紅火蟻檢測識別 [J].農(nóng)業(yè)工程學(xué)報(bào),2022,38(11):344-350.

        [7] 劉源,夏春蕾.一種基于Sobel算子的帶鋼表面缺陷圖像邊緣檢測算法 [J].電子測量技術(shù),2021,44(3):138-143.

        [8] 孫少林,馬志強(qiáng),湯偉.灰度圖像二值化算法研究 [J].價(jià)值工程,2010,29(5):142-143.

        [9] 丁震,胡鐘山,楊靜宇,唐振民.FCM算法用于灰度圖象分割的研究 [J].電子學(xué)報(bào),1997(5).

        [10] 夏亞飛.基于K均值聚類和二維Otsu的棉花HSV圖像分割 [J].軟件,2020,41(7):170-173.

        [11] 張國權(quán),李戰(zhàn)明,李向偉,等.HSV空間中彩色圖像分割研究 [J].計(jì)算機(jī)工程與應(yīng)用,2010,46(26):179-181.

        [12] 張海波,董槐林,龍飛,等.基于BP神經(jīng)網(wǎng)絡(luò)的圖像識別研究 [J].計(jì)算機(jī)與現(xiàn)代化,2008(5):17-19.

        [13] 王業(yè),崔玉,陸兆沿,等.基于CNN圖像識別算法的保護(hù)裝置智能巡視技術(shù) [J].電力工程技術(shù),2022,41(6):252-257.

        [14] 魏甫豫,張振宇,梁桂珍.基于卷積神經(jīng)網(wǎng)絡(luò)下昆蟲種類圖像識別應(yīng)用研究 [J].河南師范大學(xué)學(xué)報(bào):自然科學(xué)版,2022,50(6):96-105.

        [15] 謝椿輝,吳金明,徐懷宇.改進(jìn)YOLOv5的無人機(jī)影像小目標(biāo)檢測算法 [J].計(jì)算機(jī)工程與應(yīng)用,2023,59(9):198-206.

        [16] 雷榮智,楊維芳,蘇小寧.基于改進(jìn)YOLO-v3的無人機(jī)遙感圖像農(nóng)村地物分類 [J].電子設(shè)計(jì)工程,2023,31(3):178-184.

        [17] 馬宏興,張淼,董凱兵,等.基于改進(jìn)YOLO v5的寧夏草原蝗蟲識別模型研究 [J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2022,53(11):270-279.

        [18] 劉鵬宇.基于內(nèi)容的圖像特征提取算法的研究 [D].長春:吉林大學(xué),2004.

        [19] 許雪梅,黃征宇,李麗嫻,等.一種基于HSV顏色分割和模糊級聯(lián)分類器的人臉檢測技術(shù) [J].計(jì)算機(jī)應(yīng)用與軟件,2014,31(4):197-200+238.

        [20] 楊雷,唐瑞尹,王興朝.中值濾波在噪聲圖像匹配中的應(yīng)用 [J].現(xiàn)代計(jì)算機(jī),2021(17):135-139.

        [21] 姚凱凱.不同光照環(huán)境下圖像融合及圖像轉(zhuǎn)換算法的研究 [D].重慶:重慶郵電大學(xué),2020.

        [22] 李文娟,陳軍,張永剛,等.基于改進(jìn)加權(quán)均值濾波的醫(yī)學(xué)影像圖像除噪研究 [J].遼寧大學(xué)學(xué)報(bào):自然科學(xué)版,2022,49(1):30-35.

        [23] 高薪,胡月,杜威,等.腐蝕膨脹算法對灰度圖像去噪的應(yīng)用 [J].北京印刷學(xué)院學(xué)報(bào),2014,22(4):63-65.

        [24] 秦志新.計(jì)算機(jī)技術(shù)在圖像形態(tài)學(xué)處理中的應(yīng)用探討 [J].普洱學(xué)院學(xué)報(bào),2019,35(6):24-26.

        [25] ZHANG X D,ZENG H,GUO S,et al. Efficient Long-Range Attention Network for Image Super-Resolution [C]//Computer Vision–ECCV 2022.Tel Aviv:Springer,2022:649-667.

        [26] MUHAMMAD S,GU Z Q. Deep Residual Learning for Image Recognition: A Survey [J/OL].Applied Sciences,2022,12(18):[2023-02-10].https://doi.org/10.3390/app12188972.

        [27] ZHANG H Y,WANG Y,DAYOUB F,et al. VarifocalNet: An IoU-aware Dense Object Detector [C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Nashville:IEEE,2021:8510-8519.

        [28] FENG C J,ZHONG Y J,GAO Y,et al. TOOD: Task-aligned One-stage Object Detection [C]//2021 IEEE/CVF International Conference on Computer Vision(ICCV).Montreal:IEEE,2021:3490-3499.

        [29] LI X,WANG W H,HU X L. Selective Kernel Networks [C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Long Beach:IEEE,2019:510-519.

        作者簡介:張澤駿(2002—),男,漢族,廣東中山人,本科在讀,主要研究方向:圖像處理與機(jī)器人;通訊作者:林欽永(1987—),男,漢族,廣東陸豐人,副教授,博士,主要研究方向:圖像處理、人工智能與機(jī)器人研究。

        收稿日期:2023-03-20

        基金項(xiàng)目:國家自然科學(xué)基金(62003379);廣東省高等教育教學(xué)研究和改革項(xiàng)目(2020-296);廣東省普通高校重點(diǎn)領(lǐng)域?qū)m?xiàng)項(xiàng)目(2021ZDZX4061);廣州市基礎(chǔ)與應(yīng)用基礎(chǔ)研究項(xiàng)目(202201011274);廣東省本科高校在線開放課程項(xiàng)目(2022ZXKC237);興寧市肉鴿產(chǎn)業(yè)園技術(shù)研發(fā)項(xiàng)目(2021102418)

        猜你喜歡
        紅火蟻
        0.08%茚蟲威餌劑對紅火蟻的防治效果分析
        紅火蟻的識別與防控
        中國大陸紅火蟻防治費(fèi)用投入變化趨勢分析
        致命紅火蟻再度現(xiàn)身
        季德勝蛇藥片內(nèi)服外敷治療紅火蟻蜇傷的臨床觀察
        紅火蟻來勢洶洶 九部門聯(lián)合防控
        小獅子和紅火蟻
        No.3 紅火蟻已傳播至12個(gè)省份
        毒餌法毒殺紅火蟻
        2種植物源藥劑對紅火蟻工蟻的毒殺活性及行為影響
        国产主播无套内射一区| 无码毛片内射白浆视频| 乱码丰满人妻一二三区| 7777精品伊人久久久大香线蕉| 久久久国产精品福利免费| 亚洲无av高清一区不卡| 国语对白福利在线观看| 天天做天天爱天天综合网2021| 麻豆国产成人精品午夜视频| 欧美xxxxx精品| 国产黑丝美女办公室激情啪啪 | 日韩中文字幕无码av| 久久综合激情的五月天| 男人的天堂av网站| 性饥渴艳妇性色生活片在线播放 | 97精品国产高清自在线看超| 亚洲第一女优在线观看| 99精品国产成人一区二区| 欧美丰满熟妇乱xxxxx图片| 欧美日一本| 高潮精品熟妇一区二区三区| 日日天干夜夜狠狠爱| 亚洲精品国产综合一线久久| 精品日本一区二区视频| 亚洲精品午夜久久久九九| 精品深夜av无码一区二区老年| 亚洲AV无码精品色欲av| 日韩激情av不卡在线| 日本顶级metart裸体全部| 一本一本久久a久久精品综合麻豆 国产va免费精品观看 | 欧美极品色午夜在线视频| 中文字幕无码日韩欧毛| 亚洲av高清一区二区| 国模精品一区二区三区| 少妇的丰满3中文字幕| 男女干逼视频免费网站| 日韩精品亚洲一区二区| 日本阿v网站在线观看中文| 国产成人精品无码一区二区老年人| 国产三级精品和三级男人| 欧洲美女黑人粗性暴交|