亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進YOLOv5的多目標垃圾分類研究

        2023-08-22 03:47:04賀平安
        計算機時代 2023年8期
        關(guān)鍵詞:分類特征結(jié)構(gòu)

        孫 奧,代 琦,賀平安

        (浙江理工大學,浙江 杭州 310020)

        0 引言

        垃圾分類是“關(guān)鍵小事”和“民生大事”[1]。對于垃圾的分類,我們可以通過攝像頭采集垃圾圖像,通過垃圾分類模型快速檢測出垃圾的類別,降低人工成本,提高分類效率。因此研究垃圾分類算法有十分重要的現(xiàn)實意義。目前深度卷積神經(jīng)網(wǎng)絡在圖像分類上的精度和速度都有很大的提升。

        1989 年,LeCun 提出卷積神經(jīng)網(wǎng)絡(CNN)[2]可以有效、自動地提取圖像特征,并有較快的運行速度和識別精度。在2012 年,AlexNet 獲得了ImageNet 圖像分類競賽的冠軍,標志著深度學習的崛起。2013 年ImageNet 圖像分類競賽的冠軍由ZFNet 獲得,并將top5錯誤率降低了近三個百分點。2014年的GoogLeNet在圖像識別領(lǐng)域的準確度已經(jīng)達到認類水平。2015年ResNet 模型的準確度超過人類水平,并且其網(wǎng)絡層級非常深,可以提取更多的特征,標志著深度學習進入新的發(fā)展階段。同時隨著移動終端設備的不斷增加,也催生了輕量級的圖像識別網(wǎng)絡,如Google 團隊于2017 年發(fā)布的MobileNet,曠世團隊于2017 年發(fā)布ShuffleNet,Google 團隊又于2019 年發(fā)布EfficientNet。以上輕量級框架同時兼顧了精度和識別速度,方便部署在終端設備上,使得深度學習技術(shù)應用更為廣泛。

        我國將垃圾分為可回收垃圾、廚余垃圾、有害垃圾和其他垃圾四大類。按照此分類標準的垃圾圖像識別研究還比較少,準確率低,處理速度慢,并且大部分只能識別一張圖片上的單個垃圾目標。本文通過改進YOLOv5 多目標檢測網(wǎng)絡,來實現(xiàn)一種更輕量、快速、準確的網(wǎng)絡模型YOLOZ。

        1 網(wǎng)絡模型及改進

        1.1 YOLOv5網(wǎng)絡

        本文基于YOLOv5 網(wǎng)絡來實現(xiàn)多目標的檢測,YOLOv5 的Backbone 模塊使用NewCSP-Darknet53 結(jié)構(gòu)來進行圖像的特征提取,其中ConvBNSiLU 模塊用來對輸入圖片進行下采樣。BottleNeck 模塊利用了Resnet網(wǎng)絡中的殘差結(jié)構(gòu)[3],解決了隨著網(wǎng)絡深度的加深而出現(xiàn)的網(wǎng)絡退化問題。C3 模塊將原輸入分成兩個分支,分別進行卷積操作,使得通道數(shù)減半,這樣是為了讓模型學習到更多的特征,移除計算瓶頸并降低顯存的使用[4]。SPPF 是SPP(空間金字塔池化Spatial Pyramid Pooling)[5]模塊的優(yōu)化結(jié)構(gòu),可以加快GPU 的計算速度,并解決輸入圖像的大小必須固定的問題。Neck 模塊使用了FPN[6]加PAN[7]的結(jié)構(gòu),F(xiàn)PN 就是一種自頂向下的側(cè)邊連接在不同尺度上構(gòu)建出的高級語義特征圖,但是這種自頂向下的FPN 網(wǎng)絡受到單項信息流的限制,精度有待提高。PAN 是在FPN 的基礎上再建立一條自下而上的通路,這樣可以讓高層的特征圖具有更強的語義信息,有利于物體分類,底層的特征圖具有更強的位置信息,有利于物體定位。Head模塊的主要部分是三個Detect 檢測器,利用基于網(wǎng)格的anchor 在不同尺度的特征圖上進行目標檢測,輸出目標的坐標信息、置信度,以及類別信息。

        1.2 BatchNormalization

        Normalization 就是將所有的數(shù)據(jù)映射到同一尺度,讓特征圖滿足均值為0,方差為1 的分布。理論上整個樣本集的特征圖分布都要滿足這一規(guī)律,但對于大的數(shù)據(jù)集來說這是不太現(xiàn)實的,所以采用Batch-Normalization[8],batch 越大越接近整個數(shù)據(jù)集的分布。Batch Normalization 的計算方法如公式⑴所示,x為輸入特征圖,Mean 為特征圖的均值,Var 標識特征圖的方差,γ(默認值為1)用來調(diào)整數(shù)值分布的方差大小,β(默認值為0)用來調(diào)節(jié)數(shù)值均值的位置,這兩個參數(shù)是在方向傳播過程中學習得到的。

        1.3 結(jié)構(gòu)重參數(shù)化

        本文提出一種結(jié)合VGG 和ResNet 的模塊RepVGGBlock[9],在訓練時使用一個類似ResNet-style的多分支模型,可以增加網(wǎng)絡模型的表征能力防止網(wǎng)絡出現(xiàn)退化現(xiàn)象,但是推理速度慢。而單路模型使用的3*3卷積模塊推理速度快。所以我們采用結(jié)構(gòu)重參數(shù)化的方法,在推理時把多分支模型修改為單路模型,如圖1 所示,Conv2d 為卷積模塊,BN 是BatchNormalization 模塊。對于沒有卷積模塊的分支需要構(gòu)建一個恒等的Conv2d 模塊,再把所有的Conv2d 模塊的卷積核大小調(diào)整為3,這樣就可以進行結(jié)構(gòu)重參數(shù)化得到單路結(jié)構(gòu)。由公式⑵和公式⑶可知,Conv2d模塊和BN模塊可以融合為一個Conv2d模塊。

        圖1 結(jié)構(gòu)重參數(shù)化

        1.4 BiFPN

        YOLOv5 模型的Neck 結(jié)構(gòu)中有些網(wǎng)絡節(jié)點只有一條輸入邊,如圖2左側(cè)結(jié)構(gòu)所示,刪除它對我們的網(wǎng)絡影響不大,同時可以簡化網(wǎng)絡。如果原始輸入節(jié)點和輸出節(jié)點在同一層,就在原始輸入節(jié)點和輸出節(jié)點之間添加一條額外的邊,這可以在不增加太多成本的情況下融合更多的特征[10],可得到圖2 右側(cè)的結(jié)構(gòu)。傳統(tǒng)的特征融合往往只簡單地把不同的特征圖疊加或相加,比如Concat或Shortcut連接,而沒有對不同的特征圖進行區(qū)分。然而輸入的各特征圖分辨率也各不同,他們對融合輸入特征圖的貢獻也是不同的,對其進行簡單的相加或疊加處理并不是最佳操作,我們采用了一種類似SoftMax 的方法,把尺度歸一到[0,1]之間的簡單高效的加權(quán)特征融合機制。

        圖2 BiFPN結(jié)構(gòu)

        綜上我們結(jié)合結(jié)構(gòu)重參數(shù)化,BiFPN 模塊對原始YOLO 網(wǎng)絡進行優(yōu)化,得到改進后的網(wǎng)絡YOLOZ,如圖3所示。

        圖3 YOLOZ網(wǎng)絡結(jié)構(gòu)

        2 實驗及結(jié)果分析

        2.1 實驗環(huán)境

        本文實驗在Windows10系統(tǒng)下,利用Python語言,Pytorch 深度學習框架。機器配置為CPUIntelCorei5-11600k@3.9GHz,內(nèi)存為32GB,顯卡為NvidiaGeForceRTX3050,顯存為8GB。

        2.2 實驗數(shù)據(jù)

        數(shù)據(jù)來源為華為云AI 大賽提供的垃圾圖片數(shù)據(jù)以及網(wǎng)絡收集的垃圾圖片,并手動劃分四大類,分別為:可回收垃圾、有害垃圾、易腐垃圾、其他垃圾。每大類又細分為三小類。其中可回收垃圾細分為紙箱、塑料瓶、泡沫盒子,有害垃圾細分為電池、燈泡、軟膏,易腐垃圾細分為剩飯剩菜、蛋糕、蛋殼,其他垃圾細分為牙刷、口罩、煙蒂。共12 個類別3932 張圖片,8448個標注信息。

        2.3 實驗結(jié)果

        2.3.1 Mosaic數(shù)據(jù)增強

        為了增強數(shù)據(jù)集的圖片和標簽數(shù)量,可采用Mosaic數(shù)據(jù)增強的方式,Mosaic的方法是:使用4張圖片,對其進行隨機裁剪和縮放旋轉(zhuǎn)等操作,最后合成1張圖像,原圖的標簽信息也映射到新生成的圖像中,豐富了檢測物體的背景,增加了小尺度目標的數(shù)量、數(shù)據(jù)集圖片的數(shù)量以及標簽信息。但是Mosaic 數(shù)據(jù)增強是一個耗時的方法,所以我們可以設置一個閾值和一個隨機數(shù),當生成的隨機數(shù)小于該閾值時才采用Mosaic 數(shù)據(jù)增強,來根據(jù)不同的場景權(quán)衡訓練速度和模型精度的平衡。表1 所示是設置不同閾值下的Mosaic數(shù)據(jù)增強對模型精度的影響。

        表1 Mosaic數(shù)據(jù)增強結(jié)果

        由表1可知,本實驗數(shù)據(jù)較少,如果不采用Mosaic數(shù)據(jù)增強的方式,模型的精度很低,采用Mosaic 數(shù)據(jù)增強時,模型的精度相比不使用Mosaic 數(shù)據(jù)增強大幅提高,且隨著閾值的增大,精度不斷提高,但是模型每輪訓練耗時也再增加。

        2.3.2 結(jié)構(gòu)重參數(shù)化

        本論文模型中使用了結(jié)構(gòu)重參數(shù)化技術(shù),可以讓訓練后的模型在推理時保持精度不變的前提下提高推理速度。表2比較了同一模型在使用該技術(shù)前后的推理速度和推理精度。其中圖片的輸入尺寸全部被調(diào)整為640*640 大小,每張圖片的推理時間是推理測試集所需時間除以測試集圖片數(shù)的結(jié)果。

        表2 結(jié)構(gòu)重參數(shù)化

        由表2可知,開啟結(jié)構(gòu)重參數(shù)化后,網(wǎng)絡的推理速度提升了8%,模型的計算量下降了3.2%,并且網(wǎng)絡的精度沒有下降。

        2.3.3 BiFPN

        本論文模型中引進了BiFPN 網(wǎng)絡,優(yōu)化了原模型中的FPN 和PAN 結(jié)構(gòu),可以在不增加太多成本的情況下融合更多特征。通過實驗對比使用BiFPN 優(yōu)化前后的網(wǎng)絡,結(jié)果如表3所示。

        表3 BiFPN結(jié)構(gòu)優(yōu)化網(wǎng)絡

        由表3 可知,當使用了BiFPN 時網(wǎng)絡的mAP@.5提高了1.1 個百分點,mAP@.5:.95 提高了2 個百分點,引入BiFPN 結(jié)構(gòu)相比于原始的FPN+PAN 可以提高網(wǎng)絡的精度。

        2.3.4 不同多目標檢測模型對比

        基于YOLOv5 并結(jié)合本文所述的三種對網(wǎng)絡的改進得到Y(jié)OLOZ 網(wǎng)絡,通過和前幾代YOLO 版本以及其他目標檢測框架的比較,得出結(jié)果如表4 所示??梢娤啾容^于YOLOv3 和YOLOv4,模型的大小顯著降低,并且精度也有所提高。相較于YOLOv5 系列,本模型體積比YOLOv5s略大,但是在精度上有很大提高,并且比YOLOv5m 體積更小,精度更高。相比較于其他目標檢測模型如EfficientDet,在檢測速度和模型大小方面都占據(jù)優(yōu)勢。原YOLOv5 模型與YOLOZ模型在訓練時的mAP 曲線如圖4 所示,可見YOLOZ模型在收斂速度與mAP值上均優(yōu)于原YOLOv5模型。

        表4 不同目標檢測網(wǎng)絡的對比

        圖4 模型修改前后訓練時mAP對比

        3 結(jié)論

        本文針對多目標垃圾分類問題改進了YOLOv5網(wǎng)絡的Backbone 結(jié)構(gòu)、Neck 結(jié)構(gòu),并對數(shù)據(jù)集采用了Mosaic 的增強方法。得到了YOLOZ 模型,該模型在精度和體積方面都優(yōu)于改進前的模型。但是在數(shù)據(jù)集的數(shù)量與標注質(zhì)量上,本數(shù)據(jù)集圖片質(zhì)量較低,數(shù)量較少,且分類類別較多,導致模型的mAP 值不高。接下來,還需要繼續(xù)對YOLOZ 模型進行優(yōu)化,結(jié)合ShuffleNet、EfficientNet 等輕量級網(wǎng)絡,進一步減小模型體積,并將其移植到嵌入式設備中。

        猜你喜歡
        分類特征結(jié)構(gòu)
        《形而上學》△卷的結(jié)構(gòu)和位置
        哲學評論(2021年2期)2021-08-22 01:53:34
        分類算一算
        如何表達“特征”
        論結(jié)構(gòu)
        中華詩詞(2019年7期)2019-11-25 01:43:04
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        分類討論求坐標
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        抓住特征巧觀察
        論《日出》的結(jié)構(gòu)
        人妻系列无码专区久久五月天| 丰满人妻无奈张开双腿av| 日韩手机在线免费视频| 人妻少妇中文字幕久久69堂| 日本精品人妻一区二区| 久久精品国产99国产精品澳门 | 少妇做爰免费视频网站| 久久久久久久中文字幕| 在线日本高清日本免费| 日韩三级一区二区不卡| 亚洲中文字幕无码一久久区| 久久亚洲欧洲无码中文| 手机av男人天堂免费网址| 亚洲精品中文字幕视频色| 久久久国产乱子伦精品作者| 国产综合激情在线亚洲第一页| 在线不卡中文字幕福利| 人妻少妇精品视频一区二区三区l| 少妇被粗大的猛烈进出免费视频| 亚洲一二三区在线观看| 男女干逼视频免费网站| 国产夫妻自拍视频在线播放| 亚洲av无码一区二区乱孑伦as| 精品四虎免费观看国产高清| 在线观看人成网站深夜免费| 人妻少妇精品视频专区vr| 人人妻人人澡人人爽欧美精品| 欧美日韩亚洲国产千人斩| 亚洲天堂一区二区精品| 欧美性猛交xxx嘿人猛交| 中国凸偷窥xxxx自由视频妇科 | 久久无码字幕中文久久无码| 欧美亚洲日韩国产人成在线播放| 成人午夜免费福利| 日本精品一级二区三级| 真人做人试看60分钟免费视频| 国自产偷精品不卡在线| 国产精品亚洲一区二区三区正片| 人妻少妇中文字幕久久| 亚洲国产精品久久久久婷婷老年 | 日本高清成人一区二区三区|