亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合FasterViT架構(gòu)的基于YOLOv8s模型的生活垃圾檢測(cè)算法研究

        2025-04-15 00:00:00張欣
        電腦知識(shí)與技術(shù) 2025年6期

        摘要:為提高生活垃圾分揀效率和降低人工成本,文章提出一種融合FasterViT 架構(gòu)的改進(jìn)YOLOv8s 生活垃圾目標(biāo)檢測(cè)算法FV-YOLOv8s。該模型在通用目標(biāo)檢測(cè)數(shù)據(jù)集MS COCO2017 以及自建生活垃圾數(shù)據(jù)集上均表現(xiàn)出較高的檢測(cè)精度,在Precision、Recall、mAP50 和mAP50-95 等指標(biāo)上優(yōu)于基準(zhǔn)YOLOv8s 模型。

        關(guān)鍵詞:FasterViT;YOLOv8s;垃圾檢測(cè);目標(biāo)識(shí)別

        中圖分類(lèi)號(hào):TP753 文獻(xiàn)標(biāo)識(shí)碼:A

        文章編號(hào):1009-3044(2025)06-0060-04 開(kāi)放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

        0 引言

        據(jù)統(tǒng)計(jì)全世界每年產(chǎn)生大約40億噸垃圾,中國(guó)每年產(chǎn)生的垃圾總量約為2.5億噸,每年以8%~10%的速度增長(zhǎng)[1]。城市生活垃圾累積堆存量已達(dá)70億噸,垃圾存放占地累積達(dá)75萬(wàn)余畝。當(dāng)前我國(guó)垃圾處理方式包括焚燒、填埋、堆肥等,如果垃圾在處理之前沒(méi)有進(jìn)行合理的分類(lèi)則會(huì)造成環(huán)境污染、空氣污染、土壤惡化等問(wèn)題,因此垃圾分類(lèi)與檢測(cè)是一項(xiàng)必不可少的工作。現(xiàn)在隨著智能化城市的建設(shè)進(jìn)程加快,很多城市已開(kāi)始建設(shè)智能化垃圾分類(lèi)檢測(cè)系統(tǒng),利用人工智能等技術(shù)實(shí)現(xiàn)垃圾的精準(zhǔn)分類(lèi)檢測(cè)[2]。

        目標(biāo)檢測(cè)方法根據(jù)使用技術(shù)不同可分為傳統(tǒng)方法與基于深度學(xué)習(xí)技術(shù)的目標(biāo)檢測(cè)方法。在傳統(tǒng)方法中,在特征提取階段大多使用尺度不變特征變換、哈爾特征、方向梯度直方圖等方法來(lái)提取圖像特征,在特征分類(lèi)階段使用支持向量機(jī)、決策樹(shù)等方法對(duì)提取到的特征進(jìn)行細(xì)粒度分類(lèi)。傳統(tǒng)目標(biāo)檢測(cè)方法在目標(biāo)檢測(cè)精度上表現(xiàn)較差,一方面受限于特征提取描述子對(duì)目標(biāo)提取的特征較淺。另一方面受限于方法的泛化性較差,難以在復(fù)雜場(chǎng)景下準(zhǔn)確地檢測(cè)多個(gè)目標(biāo)。并且存在對(duì)小目標(biāo)檢測(cè)效果不佳、缺乏生活場(chǎng)景下的真實(shí)垃圾數(shù)據(jù)集等問(wèn)題。

        最近隨著深度學(xué)習(xí)理論尤其是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[3]的快速發(fā)展與應(yīng)用,當(dāng)前基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法在生活垃圾檢測(cè)任務(wù)上已有很多研究與應(yīng)用。石露露等人[4]在2023年提出一種改進(jìn)YOLOv5s[5]的明渠漂浮垃圾實(shí)時(shí)檢測(cè)方法,使用數(shù)據(jù)增強(qiáng)方法擴(kuò)充Flow-Img數(shù)據(jù)集得到10 000張圖像,在YOLOv5模型的特征融合階段提出一種多尺度加權(quán)特征融合方法來(lái)提高模型對(duì)小目標(biāo)的特征表達(dá)能力。郭洲等人[6]在2023年提出一種融合注意力機(jī)制的輕量化YOLOv4模型用于可回收垃圾檢測(cè),同時(shí)該方法提出在Neck模塊中應(yīng)用CBAM注意力模型來(lái)突出目標(biāo)區(qū)域的顯著度,更好地學(xué)習(xí)目標(biāo)區(qū)域的特征。徐宏偉等人[7]在2024年提出一種輕量化湖面漂浮物實(shí)時(shí)檢測(cè)方法C-X-YOLOv7,該方法將角點(diǎn)注意力模塊CA(Coordinate attention)引入到Y(jié)O?LOv7算法的骨干特征提取網(wǎng)絡(luò)的最后一層,提高模型準(zhǔn)確性和泛化能力。

        之前提出的基于深度學(xué)習(xí)技術(shù)的垃圾檢測(cè)方法均采取提出較早的目標(biāo)檢測(cè)算法如Faster RCNN、YO?LOv3、YOLOv4、YOLOv5等,最近YOLOv8[8]算法的提出為實(shí)現(xiàn)高精度實(shí)時(shí)目標(biāo)檢測(cè)任務(wù)提供了新的解決方案。同時(shí)注意到當(dāng)前生活場(chǎng)景下的垃圾目標(biāo)檢測(cè)方法較少,大多方法都構(gòu)建的是通用垃圾和水上垃圾數(shù)據(jù)集。為了填補(bǔ)這個(gè)空缺,本文首先構(gòu)建了一種生活垃圾目標(biāo)檢測(cè)數(shù)據(jù)集,并基于最新的YOLOv8算法提出一種改進(jìn)的目標(biāo)檢測(cè)算法FV-YOLOv8。為了增強(qiáng)特征提取模型對(duì)輸入圖像的特征提取與信息表達(dá),本文使用FasterViT模型替換原始的卷積塊,F(xiàn)asterViT 結(jié)合卷積層的快速局部表征學(xué)習(xí)與Vision Transformer 結(jié)構(gòu)的全局特征建模實(shí)現(xiàn)圖像特征的高效提取。最后在目標(biāo)邊框損失上使用WIoU Loss來(lái)挖掘更多的正樣本,縮減預(yù)測(cè)框與真實(shí)框之間的距離,并通過(guò)不同角度的實(shí)驗(yàn)來(lái)驗(yàn)證FV-YOLOv8的效果與可行性。

        1 YOLOv8

        YOLOv8是YOLO(You Only Look Once)系列算法的第八代版本,它是基于YOLOv5和YOLOv7算法改進(jìn)得到的,是新一代的基于CNN技術(shù)的單階段高性能實(shí)時(shí)目標(biāo)檢測(cè)算法。與其他目標(biāo)檢測(cè)算法不同,YO?LO算法通過(guò)將目標(biāo)檢測(cè)任務(wù)轉(zhuǎn)化為回歸問(wèn)題來(lái)提高圖像的檢測(cè)速度。在整體模型結(jié)構(gòu)設(shè)計(jì)上,YOLOv8 可分為圖像特征提取結(jié)構(gòu)塊、特征融合結(jié)構(gòu)塊以及檢測(cè)預(yù)測(cè)頭結(jié)構(gòu)塊,整體結(jié)構(gòu)如圖1所示。在圖像特征提取結(jié)構(gòu)塊中,YOLOv8是由CBS和C2f這兩個(gè)子模塊組成,其中CBS模塊由一個(gè)卷積層、一個(gè)批量歸一化層以及一個(gè)SiLU激活函數(shù)組成;C2f模塊由CBS、Bot?tleneck 以及concat 組件組成,其中Bottleneck 組件由兩個(gè)卷積層以及一個(gè)殘差連接塊組成,這個(gè)結(jié)構(gòu)是在YOLOv5中提出的,C2f模塊的結(jié)構(gòu)如圖2所示。

        2 FV-YOLOv8

        雖然YOLOv8算法在目標(biāo)檢測(cè)精度與速度之間取得了一個(gè)極佳的平衡,整體結(jié)構(gòu)精簡(jiǎn)高效,但全卷積的結(jié)構(gòu)對(duì)圖像的整體信息難以形成完整的表述,同時(shí)算法對(duì)小目標(biāo)未做明顯的優(yōu)化。為了解決這兩個(gè)問(wèn)題,本文提出一種改進(jìn)的YOLOv8算法FV-YOLOv8,并將其應(yīng)用到生活垃圾目標(biāo)檢測(cè)任務(wù)中。本文使用FasterViT模型[9]來(lái)更優(yōu)地提取圖像特征,其有效結(jié)合CNN的快速局部表征學(xué)習(xí)與ViT的全局特征建模實(shí)現(xiàn)圖像特征的高效提取;重新設(shè)計(jì)提出一種新穎的C2-S模塊,使用無(wú)參注意力機(jī)制SimAM[10]增強(qiáng)感興趣目標(biāo)周?chē)纳舷挛男畔ⅲ种茻o(wú)效背景特征;在目標(biāo)邊框損失函數(shù)上,使用WIoU Loss更精確地計(jì)算預(yù)測(cè)框與真實(shí)框之間的位置偏差,使得模型對(duì)小尺寸目標(biāo)的預(yù)測(cè)能夠更精確。基于以上三點(diǎn)設(shè)計(jì),本文提出的FV-YOLOv8算法能更好地提取圖像特征、更突出地表征目標(biāo)信息以及能更精確地預(yù)測(cè)小目標(biāo)。FV-YO?LOv8的整體結(jié)構(gòu)如圖3所示。

        2.1 FasterViT

        FasterViT模塊旨在更高效地處理高分辨率圖像,通過(guò)有效結(jié)合CNN的快速局部表征學(xué)習(xí)與ViT的全局特征建模實(shí)現(xiàn)圖像特征的高效提取,將具有二次復(fù)雜性的全局自注意力分解成計(jì)算成本更低的多層次注意力,能更充分地結(jié)合圖像的全局信息與目標(biāo)的局部特征,為后續(xù)的預(yù)測(cè)模塊提供強(qiáng)有力的圖像特征描述基礎(chǔ)。

        2.2 C2-S

        注意力機(jī)制在CNN中扮演著越來(lái)越重要的角色,它能夠幫助模型聚焦于圖像的關(guān)鍵區(qū)域來(lái)提升性能。然而,現(xiàn)有的注意力機(jī)制通常需要引入額外的參數(shù),增加模型復(fù)雜度和計(jì)算成本。SimAM是一種輕量級(jí)、無(wú)參數(shù)的卷積神經(jīng)網(wǎng)絡(luò)注意力機(jī)制,它通過(guò)計(jì)算特征圖的局部自相似性來(lái)生成注意力權(quán)重。同時(shí)更重要的是其不需要引入任何額外的超參數(shù)與計(jì)算量,可即插即用模型任何位置。SimAM的核心思想是基于圖像的局部自相似性。在圖像中,相鄰像素之間通常具有較強(qiáng)的相似性,而遠(yuǎn)距離像素之間的相似性則較弱。SimAM利用這一特性,通過(guò)計(jì)算特征圖中每個(gè)像素與其相鄰像素之間的相似性來(lái)生成注意力權(quán)重。

        在特征融合模塊,本文基于原始YOLOv8模型的C2f模塊以及無(wú)參注意力SimAM提出一種全新的C2-S模塊,輸入特征圖首先經(jīng)過(guò)一個(gè)無(wú)參注意力機(jī)制Si?mAM來(lái)重點(diǎn)關(guān)注感興趣目標(biāo)區(qū)域特征,后續(xù)分為三個(gè)分支分別通過(guò)Bottleneck模塊來(lái)融合圖像的上下文特征,其中Bottleneck 模塊是原始YOLOv8 使用的,C2-S模塊的結(jié)構(gòu)如圖4所示。

        2.3 WIoU Loss

        在目標(biāo)檢測(cè)任務(wù)中,目標(biāo)邊框回歸損失是必要且重要的,它能促使網(wǎng)絡(luò)在訓(xùn)練階段預(yù)測(cè)的結(jié)果輸出與真實(shí)標(biāo)簽盡可能地接近,進(jìn)而優(yōu)化參數(shù),在推理階段能完成準(zhǔn)確的目標(biāo)位置預(yù)測(cè)。之前算法常使用IoULoss來(lái)衡量目標(biāo)位置損失,但I(xiàn)oU Loss存在一些問(wèn)題,如當(dāng)兩個(gè)預(yù)測(cè)框與真實(shí)目標(biāo)框不重疊時(shí)則它們與真實(shí)目標(biāo)的IoU均為零,此時(shí)IoU Loss的梯度為零且無(wú)法進(jìn)行優(yōu)化。此外注意到數(shù)據(jù)集中包含一些低質(zhì)量的目標(biāo)標(biāo)注框,CIoU Loss使用的目標(biāo)中心點(diǎn)距離、目標(biāo)寬高縱橫比之類(lèi)的度量方法會(huì)加速損失對(duì)低質(zhì)量標(biāo)注目標(biāo)的懲罰而影響模型的性能。而WIoU Loss會(huì)根據(jù)目標(biāo)距離度量構(gòu)建一種基于距離注意力的目標(biāo)邊框損失減免精度損失,WIoU Loss整體表達(dá)式如下:

        本文在目標(biāo)邊框損失上使用WIoU Loss 替換掉YOLOv8使用的CIoU Loss,一方面降低計(jì)算量,另一方面WIoU Loss挖掘難樣本,使模型在訓(xùn)練過(guò)程中能平穩(wěn)地下降,關(guān)注到困難樣本的優(yōu)化,使得模型的檢測(cè)準(zhǔn)確率能進(jìn)一步地提高。

        3 實(shí)驗(yàn)與結(jié)果分析

        3.1 數(shù)據(jù)集

        本文實(shí)驗(yàn)的數(shù)據(jù)集包含目標(biāo)檢測(cè)基準(zhǔn)數(shù)據(jù)集MSCOCO2017 版本以及自建的生活垃圾圖像數(shù)據(jù)集。MS COCO2017數(shù)據(jù)集是微軟在2017年發(fā)布的目標(biāo)檢測(cè)大型基準(zhǔn)數(shù)據(jù)集,圖像標(biāo)注信息包含目標(biāo)框、目標(biāo)對(duì)象掩碼、圖像信息描述以及人體姿態(tài)關(guān)鍵點(diǎn)等。在目標(biāo)檢測(cè)任務(wù)上,MS COCO2017包含118 287張訓(xùn)練圖片,驗(yàn)證集包含5 000張圖片,測(cè)試集同樣也包含5 000張圖片。自建7類(lèi)生活垃圾目標(biāo)檢測(cè)數(shù)據(jù)集包含電池(Battery)、磚瓦陶瓷(BrickAndTileCeramics)、不包含垃圾(No_Rubbish)、金屬罐(Cans)、香煙(Ciga?rette)、食物垃圾(Food_waste)、塑料(Plastic)這7種目標(biāo),其中數(shù)據(jù)集的訓(xùn)練集和驗(yàn)證集分別包含7 319以及1 796張圖像樣本。部分生活垃圾數(shù)據(jù)集中的圖片如圖5所示。

        3.2 實(shí)驗(yàn)設(shè)備與環(huán)境

        YOLOv8與本文所提算法的開(kāi)發(fā)語(yǔ)言都是Py?thon,使用開(kāi)源的深度學(xué)習(xí)框架PyTorch來(lái)搭建模型與訓(xùn)練算法。本實(shí)驗(yàn)的硬件平臺(tái)包含中央處理器為In?tel(R) Xeon(R) Platinum 8350C CPU @ 2.60GHz、圖形處理器為單卡NVIDIA GeForce RTX 3090。本實(shí)驗(yàn)使用的Python版本為3.9,PyTorch框架版本為2.0.1,YO?LOv8的源碼Ultralytics庫(kù)版本為8.0.222,其他使用的一些重要庫(kù)的信息如下:OpenCV 版本為4.6.0.66、NumPy版本為1.24.0、Matplotlib版本為3.6.2。

        3.3 實(shí)驗(yàn)評(píng)價(jià)指標(biāo)

        當(dāng)前用于目標(biāo)檢測(cè)任務(wù)的實(shí)驗(yàn)評(píng)價(jià)指標(biāo)主要包括準(zhǔn)確率(Precision)、召回率(Recall)、平均精度(Av?erage Precision,AP)、平均精度均值(mean Average Pre?cision,mAP)。Precision 和Recall 的計(jì)算方式分別如式(3)和式(4)所示。

        3.4 實(shí)驗(yàn)結(jié)果分析

        在MS COCO2017數(shù)據(jù)集上,本文復(fù)現(xiàn)得到的YO?LOv8s模型指標(biāo)結(jié)果如下:模型在訓(xùn)練過(guò)程中,目標(biāo)類(lèi)別損失、邊框損失以及DFL分別下降到0.893、0.964以及1.09。在驗(yàn)證集上,YOLOv8s模型的目標(biāo)類(lèi)別損失、邊框損失以及DFL分別能下降到1.014、1.008以及1.105。在具體的精度結(jié)果指標(biāo)上,YOLOv8s模型在Precision、Recall、mAP50 以及mAP50-95 這4 個(gè)指標(biāo)上分別達(dá)到了67.6%、54.7%、59.9%以及43.9%。相較于其他同等參數(shù)量的單階段方法,YOLOv8s模型在這4個(gè)指標(biāo)上都有一定的提升。相較于其他的一些兩階段方法,YOLOv8s模型在訓(xùn)練時(shí)長(zhǎng)、訓(xùn)練過(guò)程的穩(wěn)定性以及推理時(shí)間上均表現(xiàn)出明顯的優(yōu)勢(shì)。本文提出的FV-YOLOv8s在MS COCO上的訓(xùn)練過(guò)程和驗(yàn)證指標(biāo)如圖6 所示,在Precision、Recall、mAP50 以及mAP50-95 這4 個(gè)指標(biāo)上分別達(dá)到了71.2%、57.2%、62.8%以及46.0%。相較于基準(zhǔn)YOLOv8s模型分別提高了3.6%、2.5%、2.9%以及2.1%。

        受益于FasterViT在特征提取網(wǎng)絡(luò)對(duì)圖像有著更豐富的目標(biāo)細(xì)節(jié)信息提取,本文方法在訓(xùn)練初期就能帶來(lái)一定的檢測(cè)準(zhǔn)確率,后續(xù)隨著C2-S模塊中的注意力模塊的不斷學(xué)習(xí),目標(biāo)特征與背景信息被進(jìn)一步地區(qū)分。同時(shí)得益于WIoU Loss的提出,本文方法無(wú)論在訓(xùn)練階段還是驗(yàn)證階段,目標(biāo)邊框損失均下降得更加快速與平穩(wěn)。

        在生活垃圾數(shù)據(jù)集上,本文提出的FV-YOLOv8s 模型的實(shí)驗(yàn)結(jié)果如圖7所示。從圖中可以看到,F(xiàn)VYOLOv8s在訓(xùn)練集上的目標(biāo)邊框、目標(biāo)類(lèi)別以及DFL 損失能收斂到0.550、0.377 以及1.01。在Precision、Recall、mAP50以及mAP50-95這4個(gè)指標(biāo)上分別能達(dá)到92.0%、88.0%、92.2% 以及80.1%。從圖中可以看出,無(wú)論是在訓(xùn)練階段還是在驗(yàn)證階段,F(xiàn)V-YOLOv8s 在目標(biāo)邊框損失、分類(lèi)損失和DFL上相較于YOLOv8s 模型均能收斂到一個(gè)更小的值,同時(shí)收斂的值也更加平穩(wěn)。這是由于本文方法使用FasterViT提高了模型對(duì)圖像的特征提取能力,能更精確地突出與表征目標(biāo)對(duì)象,另一方面WIoU Loss促使模型在訓(xùn)練階段學(xué)習(xí)到更多的困難樣本,為后續(xù)的模型參數(shù)優(yōu)化提供方向。在具體數(shù)值上,F(xiàn)V-YOLOv8s相較于YOLOv8s模型在訓(xùn)練階段的目標(biāo)邊框損失、分類(lèi)損失和DFL分別降低了0.34、0.39以及0.20,在驗(yàn)證階段的目標(biāo)邊框損失、分類(lèi)損失和DFL分別降低了0.25、0.36以及0.22。

        3.5 檢測(cè)結(jié)果可視化

        圖8是使用本文提出的FV-YOLOv8s模型在自建生活垃圾驗(yàn)證集上的圖片檢測(cè)結(jié)果。從圖8中可以看出,F(xiàn)V-YOLOv8s模型能準(zhǔn)確識(shí)別與檢測(cè)生活垃圾,同時(shí)有一個(gè)較高的檢測(cè)置信度,特別對(duì)于煙頭這種小目標(biāo),本文提出的方法也能準(zhǔn)確識(shí)別檢測(cè)。

        4 結(jié)論

        針對(duì)生活垃圾分類(lèi)與檢測(cè)的任務(wù),本文以基于深度學(xué)習(xí)技術(shù)的單階段目標(biāo)檢測(cè)算法YOLOv8為基礎(chǔ)提出一種改進(jìn)的算法FV-YOLOv8,并將其應(yīng)用到生活垃圾的分類(lèi)與檢測(cè)任務(wù)中。FV-YOLOv8在YOLOv8 的基礎(chǔ)上進(jìn)一步將FasterViT、C2-S以及WIoU Loss應(yīng)用到模型的特征提取階段、特征融合階段以及目標(biāo)邊框損失中,有效地增強(qiáng)了模型對(duì)輸入圖像的特征提取能力,同時(shí)穩(wěn)定了模型的訓(xùn)練過(guò)程。在通用目標(biāo)檢測(cè)數(shù)據(jù)集MS COCO2017以及自建生活垃圾數(shù)據(jù)集上,本文提出的FV-YOLOv8s模型在多個(gè)指標(biāo)上如Preci?sion、Recall、mAP50以及mAP50-95上相較于基準(zhǔn)模型YOLOv8s提升明顯。本文以深度學(xué)習(xí)技術(shù)與圖像檢測(cè)技術(shù)為基礎(chǔ),對(duì)生活垃圾的檢測(cè)與分類(lèi)進(jìn)行研究,為實(shí)現(xiàn)高精度垃圾分類(lèi)與檢測(cè)提供一種有效的解決方案,后續(xù)可以在現(xiàn)實(shí)生活中推廣使用。

        老汉tv永久视频福利在线观看| 人妻中文字幕在线网站| 亚洲国产一区二区,毛片| 白白发在线视频免费观看2| 日本无码欧美一区精品久久| 97精品伊人久久大香线蕉| 高清国产美女一级a毛片在线| 蜜臀精品一区二区三区| 国产av精选一区二区| 人成在线免费视频网站| 五月天中文字幕日韩在线| 精品国产性色无码av网站| 国产成人www免费人成看片| 国产成人亚洲综合小说区| av一区二区在线免费观看| 日本在线 | 中文| 欧美黑人巨大xxxxx| 亚洲一区二区情侣| 国产片在线一区二区三区| 寂寞少妇做spa按摩无码| 国产精品第一二三区久久蜜芽| 国产精品亚洲专区在线播放| 免费大学生国产在线观看p| 男人的精品天堂一区二区在线观看| 亚洲一区二区三区四区精品在线| 亚洲精品suv精品一区二区| 最新无码国产在线播放| AV中文码一区二区三区| 风流熟女一区二区三区| 免费a级毛片18以上观看精品| 波多野结衣视频网址| 亚洲AV无码成人精品区日韩密殿| 成人av资源在线播放| 老熟妇乱子交视频一区| 激烈的性高湖波多野结衣 | 国产三级在线观看播放视频| 乱子真实露脸刺激对白 | 手机av男人天堂免费网址| a级三级三级三级在线视频| 丰满大爆乳波霸奶| 国产成人精品无码播放|