亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合注意力機(jī)制的YOLOv5 交通標(biāo)志目標(biāo)檢測算法

        2024-05-19 10:08:00朱春燕ZHUChunyan
        價(jià)值工程 2024年13期
        關(guān)鍵詞:特征實(shí)驗(yàn)檢測

        朱春燕ZHU Chun-yan

        (西安培華學(xué)院智能科學(xué)與工程學(xué)院,西安 710125)

        0 引言

        隨著智能交通系統(tǒng)的迅速發(fā)展,交通標(biāo)志智能檢測技術(shù)在道路交通安全中扮演著重要的角色。交通標(biāo)志檢測算法已經(jīng)成為無人駕駛、輔助駕駛、自動駕駛和車輛安全領(lǐng)域的研究熱點(diǎn)之一。因此,設(shè)計(jì)一種在交通標(biāo)志檢測領(lǐng)域具備優(yōu)異檢測性能的算法具有重要意義和應(yīng)用價(jià)值。

        目前國內(nèi)外基于深度學(xué)習(xí)的一階段目標(biāo)檢測算法包括SSD 和YOLO 系列等,它們具有較高的檢測精度和較快的檢測速度[1]。其中,YOLOv5 是一種檢測精度較高的算法,在目標(biāo)檢測中受到廣泛關(guān)注[2]。近年來,對于小目標(biāo)交通標(biāo)志的檢測,注意力機(jī)制在深度學(xué)習(xí)領(lǐng)域受到廣泛關(guān)注和運(yùn)用。文獻(xiàn)[3]使用改進(jìn)的YOLOv5 算法通過改進(jìn)特征金字塔深度等方法提升了檢測精度,但實(shí)時(shí)檢測速度下降。文獻(xiàn)[4]中采用自適應(yīng)關(guān)注模塊,降低特征圖生成過程中的信息遺失,優(yōu)化模型在檢測小尺度交通標(biāo)志方面的性能。盡管上述方法在提高交通標(biāo)志檢測準(zhǔn)確性方面取得了進(jìn)展,但目前的算法仍存在不同環(huán)境條件下,小目標(biāo)交通標(biāo)志的檢測難度增加,容易出現(xiàn)不易檢測或錯檢問題。

        為了提高小目標(biāo)的檢測精度,并兼顧模型大小和檢測速度,本文開發(fā)了一種基于融合注意力機(jī)制的改進(jìn)YOLOv5 方案,用于交通標(biāo)志小目標(biāo)的檢測,具體包括以下三個(gè)內(nèi)容:①在主干網(wǎng)絡(luò)融入CBAM 卷積注意力模塊,利用其通道和空間注意力子模塊來增強(qiáng)特征提取的效果,進(jìn)而提升目標(biāo)檢測的性能。②在頸部網(wǎng)絡(luò)特征融合模塊中,引入加權(quán)雙向特征金字塔網(wǎng)絡(luò)BiFPN,以融合不同尺度的特征并綜合位置與語義信息,進(jìn)一步提升檢測性能。③采用SIoU 損失函數(shù),著重關(guān)注高質(zhì)量的分類樣本,以提高算法對不同環(huán)境下樣本的學(xué)習(xí)能力進(jìn)一步提升檢測性能。

        1 YOLOv5 模型原理

        YOLOv5 是一種單步目標(biāo)檢測算法,它通過改變深度和寬度來分為YOLOv5s、YOLOv5m、YOLOv5l 和YOLOv5x不同的模型,可應(yīng)用于各種檢測需求[5]。該網(wǎng)絡(luò)結(jié)構(gòu)包含輸入端、主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)和輸出端四個(gè)部分。

        2 改進(jìn)的YOLOv5 算法

        2.1 卷積注意力機(jī)制CBAM

        卷積注意力機(jī)制CBAM(Convolutional Block Attention Module)是由包括通道注意力模塊CAM(Channel Attention Module)和空間注意力模塊SAM(Spatial Attention Module)構(gòu)成的一種卷積注意力機(jī)制[6]。應(yīng)用于主干網(wǎng)絡(luò)中,用于增強(qiáng)特征提取過程中的通道和空間信息,如圖1 所示。

        圖1 卷積注意力機(jī)制CBAM

        通道注意力模塊CAM 可以自適應(yīng)地調(diào)整不同通道的權(quán)重,讓模型更加關(guān)注重要的通道特征,從而增強(qiáng)模型的表示能力,CAM 模塊如圖2 所示。在CAM 模塊之后,空間注意力模塊SAM 則利用卷積操作在特征圖上實(shí)現(xiàn)空間感知,圖3 說明了計(jì)算過程。本文通過將CBAM 添加到骨干網(wǎng)絡(luò)的最后,并用其替換第一個(gè)C3 結(jié)構(gòu),提高網(wǎng)絡(luò)的特征提取效果和模型識別準(zhǔn)確度。

        圖2 通道注意力模塊CAM

        圖3 空間注意力模塊CAM

        2.2 加權(quán)雙向特征金字塔結(jié)構(gòu)BiFPN

        FPN(Feature Pyramid Network)利用特征金字塔結(jié)構(gòu),有助于整合高級語義信息和底層細(xì)節(jié)信息[7],如圖4(a)所示,原始的金字塔結(jié)構(gòu)通過自頂向下的特征傳遞來提取更準(zhǔn)確的特征表示。然而,多次下采樣操作會導(dǎo)致圖像中的細(xì)節(jié)和低層次信息丟失,影響小尺寸目標(biāo)的檢測效果。為了解決這個(gè)問題,YOLOv5 采用了PANet(Path Aggregation Network)結(jié)構(gòu),如圖4(b)所示,該結(jié)構(gòu)在FPN 的基礎(chǔ)上引入了上采樣和下采樣分支,通過自上而下和自下而上的路徑傳遞特征來提高目標(biāo)檢測效果。為了進(jìn)一步提高特征金字塔網(wǎng)絡(luò)在交通標(biāo)志檢測中的表現(xiàn),改進(jìn)模型在YOLOv5的Neck 網(wǎng)絡(luò)引入了加權(quán)雙向BiFPN(Bi-directional Feature Pyramid Network),通過加權(quán)處理不同尺度的特征并同時(shí)進(jìn)行自頂向下和自底向上的信息傳遞,以優(yōu)化模型在不同尺度目標(biāo)上的檢測效果。如圖4(c)所示,為實(shí)現(xiàn)雙向跨尺度特征融合,刪除了PANet 中只有一個(gè)輸入的節(jié)點(diǎn),并將連接原始輸入與同級輸出實(shí)現(xiàn)跨尺度的特征融合,提高檢測算法的準(zhǔn)確性。

        圖4 YOLOv5 特征金字塔結(jié)構(gòu)

        2.3 損失函數(shù)SIoU

        在目標(biāo)定位領(lǐng)域,為了解決預(yù)測框與真實(shí)框之間的角度匹配問題,本文引入了一種新的損失函數(shù)——SIoU(Scale-Invariant Intersection over Union)[8]。該損失函數(shù)的設(shè)計(jì)考慮了距離、形狀和角度等多個(gè)因素,并由預(yù)測框與真實(shí)框的角度、距離和形狀以及傳統(tǒng)IoU 的四部分損失組成,以實(shí)現(xiàn)在不同尺度和大小下預(yù)測框與真實(shí)框之間的準(zhǔn)確匹配。通過采用SIoU 損失替代傳統(tǒng)的CIoU 損失函數(shù),可以更加專注于真實(shí)框與預(yù)測框的角度和位置信息,從而增強(qiáng)目標(biāo)檢測算法在更為復(fù)雜和多變的場景中的適應(yīng)性,提高算法的準(zhǔn)確性、魯棒性和穩(wěn)定性。

        2.4 改進(jìn)后算法

        為了提高交通標(biāo)志的識別準(zhǔn)確率和定位精度,提出了一種改進(jìn)的交通標(biāo)志檢測方法,基于CBMA 注意力機(jī)制和BiFPN 的改進(jìn)后的YOLOv5 模型展示在圖5 中。

        圖5 改進(jìn)后的YOLOv5 模型

        3 實(shí)驗(yàn)與結(jié)果分析

        3.1 實(shí)驗(yàn)環(huán)境

        實(shí)驗(yàn)設(shè)置可以參考表1。

        表1 實(shí)驗(yàn)環(huán)境配置

        3.2 數(shù)據(jù)集

        為了驗(yàn)證本文改進(jìn)算法的效果,選擇中國交通標(biāo)志檢測數(shù)據(jù)集(CCTSDB)作為實(shí)驗(yàn)的數(shù)據(jù)來源[9]。該數(shù)據(jù)集包含來自中國部分城市道路和高速公路的交通標(biāo)志圖片,涵蓋了不同的尺度、角度、光照條件,以及標(biāo)注不明顯的情況??偣彩珍浟?5,724 張圖片。為簡化實(shí)驗(yàn)過程,本文從中選取了5000 張圖片作為實(shí)驗(yàn)數(shù)據(jù)集,其中4000 張用于訓(xùn)練,另外1000 張用于測試。經(jīng)過劃分,實(shí)驗(yàn)數(shù)據(jù)集被分為了三個(gè)不同的類別:Mandatory、Prohibitory 和Warning。

        3.3 實(shí)驗(yàn)評價(jià)指標(biāo)

        本文主要采用兩個(gè)評價(jià)指標(biāo)來評估算法的性能:檢測精度和檢測速度。其中,檢測精度用于評估算法在目標(biāo)準(zhǔn)確定位和分類方面的能力,主要通過計(jì)算精確率(P)、召回率(R)和平均精度均值(mAP)來衡量模型的檢測能力。對于檢測速度,通常使用每秒傳輸幀數(shù)(FPS)作為性能指標(biāo)進(jìn)行評估。

        3.4 實(shí)驗(yàn)結(jié)果分析

        3.4.1 消融實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證基于YOLOv5 的交通標(biāo)志檢測算法的有效性,在CCTSDB 數(shù)據(jù)集上進(jìn)行了消融實(shí)驗(yàn),以評估不同的改進(jìn)方式對交通標(biāo)志檢測算法性能的影響。通過對實(shí)驗(yàn)結(jié)果的統(tǒng)計(jì)分析,能夠得出對于YOLOv5 等交通標(biāo)志檢測算法,不同的改進(jìn)方式對模型性能的有效性進(jìn)行評估。具體數(shù)據(jù)見表2。對比YOLOv5 算法后,發(fā)現(xiàn)原算法存在檢測性能低、誤檢和漏檢等問題。為此,本文提出了多種改進(jìn)方法,并在相同的實(shí)驗(yàn)條件下進(jìn)行對比。首先,將卷積注意力模塊CBAM 引入到Y(jié)OLOv5 模型中,改進(jìn)后的模型相較于原模型,在mAP 值上提升了5.5%。在YOLOv5 的特征金字塔模塊引入了BiFPN 模塊,改進(jìn)后的模型在mAP 值上獲得了0.6%的提升,同時(shí)略微減少了參數(shù)量。最后,通過優(yōu)化損失函數(shù)SIOU,將模型的mAP 值提升了0.5%,而對參數(shù)量和檢測速度沒有顯著影響。綜合以上改進(jìn)方法,本文提出的改進(jìn)的YOLOv5 模型相較于原模型,在相同的實(shí)驗(yàn)條件下,mAP 值提升了6.7%,參數(shù)量減少了0.86×106,檢測速度為63.13FPS。這一改進(jìn)使得交通標(biāo)志檢測算法具備更少參數(shù)、更高平均精度和更快速度的特點(diǎn)。

        表2 消融實(shí)驗(yàn)

        3.4.2 與其它算法對比分析

        研究使用CCTSDB 數(shù)據(jù)集進(jìn)行了改進(jìn)后模型與其他網(wǎng)絡(luò)模型在交通標(biāo)志識別性能方面的對比實(shí)驗(yàn)。實(shí)驗(yàn)包括了Faster R-CNN、YOLOv4、YOLOv8、SSD 等主流算法,以及參考文獻(xiàn)中提及的其他模型(文獻(xiàn)[10]和文獻(xiàn)[11])。根據(jù)表3 展示的實(shí)驗(yàn)數(shù)據(jù),與YOLOv4 相比,本文改進(jìn)的算法在mAP 上提升了9%,并且參數(shù)量減少了2.77×106。此外,改進(jìn)后的算法在檢測速度方面也有顯著提升。相較于SSD模型,新的算法在指標(biāo)方面有所提升,同時(shí)達(dá)到了實(shí)時(shí)檢測的要求。此外,優(yōu)化的模型在在mAP 和參數(shù)量方面取得了最佳表現(xiàn),分別達(dá)到了93.6%和6.34×106,并且處理速度高達(dá)63.13FPS,展現(xiàn)出優(yōu)異的性能。因此,該模型非常適用于路標(biāo)的識別,并可有效運(yùn)行在嵌入設(shè)備上。

        表3 不同算法檢測交通標(biāo)志性能對比

        3.4.3 檢測效果對比

        為了評估改進(jìn)算法在交通標(biāo)志檢測方面的性能,本文從網(wǎng)絡(luò)中隨機(jī)選擇了不同尺寸的交通標(biāo)志圖片,并進(jìn)行了比較。此外,還將檢測場景考慮到了不同的天氣條件下,包括白天晴朗、夜晚雨雪以及白天霧霾,檢測效果對比部分實(shí)驗(yàn)結(jié)果如圖6 所示。

        圖6 不同尺寸交通標(biāo)志的檢測效果

        通過比較結(jié)果得出,當(dāng)涉及到不同尺寸的目標(biāo)時(shí),改進(jìn)模型展現(xiàn)了更高的置信度,尤其在大目標(biāo)和中目標(biāo)的檢測中,無論是簡單目標(biāo)檢測還是多目標(biāo)檢測,兩種模型都能夠正確識別目標(biāo),改進(jìn)模型在置信度方面稍微優(yōu)于原始YOLOv5。在不同天氣環(huán)境下的實(shí)驗(yàn)中,在白天晴朗的情況下,兩種模型都能夠準(zhǔn)確檢測出交通標(biāo)志,改進(jìn)模型的置信度相對更高。在白天霧霾天氣下,改進(jìn)模型能夠檢測出更多的標(biāo)志,而原始模型存在一定的漏檢和誤檢。最后,在夜晚雨雪條件下的檢測中,改進(jìn)模型沒有產(chǎn)生誤檢,而原始模型存在誤檢的情況。

        4 結(jié)束語

        針對現(xiàn)有交通標(biāo)志檢測方法存在的問題,本文提出了一種改進(jìn)的交通標(biāo)志檢測算法,利用了YOLOv5 作為主干網(wǎng)絡(luò),并引入了CBAM 注意力機(jī)制進(jìn)行特征融合。此外,網(wǎng)絡(luò)還采用BiFPN 結(jié)構(gòu)和IoU 損失函數(shù)來加強(qiáng)檢測頭部的性能,有效解決了錯檢、漏檢和低精度等問題。通過在CCTSDB 數(shù)據(jù)集上訓(xùn)練,實(shí)現(xiàn)了性能的顯著提升,實(shí)驗(yàn)結(jié)果顯示,優(yōu)化后的算法在mAP 表現(xiàn)較好,達(dá)到了93.6%,同時(shí)保持著穩(wěn)定的檢測幀率為63.13FPS,參數(shù)量為6.3×106,表現(xiàn)令人滿意。相較于主流目標(biāo)檢測模型,改進(jìn)模型具有模型體積小、檢測精度高、推理速度較快等優(yōu)勢,能夠滿足實(shí)時(shí)交通標(biāo)志檢測的需求。未來的工作將會將本文方法搭載在嵌入式平臺上,并應(yīng)用于實(shí)際交通標(biāo)志檢測工程中。

        猜你喜歡
        特征實(shí)驗(yàn)檢測
        記一次有趣的實(shí)驗(yàn)
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        如何表達(dá)“特征”
        做個(gè)怪怪長實(shí)驗(yàn)
        不忠誠的四個(gè)特征
        抓住特征巧觀察
        NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
        實(shí)踐十號上的19項(xiàng)實(shí)驗(yàn)
        太空探索(2016年5期)2016-07-12 15:17:55
        国产综合色在线视频| 国产又色又爽无遮挡免费软件| 天堂资源中文最新版在线一区 | 国产99在线视频| 韩国精品一区二区三区无码视频| 亚洲男人的天堂精品一区二区| 精品国精品自拍自在线| 在线观看亚洲第一黄片| 亚洲午夜福利在线视频| 国产精品视频久久久久| 日本人妖一区二区三区| 亚洲国产成人极品综合| 好日子在线观看视频大全免费动漫 | 99视频在线精品免费观看6| 毛片大全真人在线| 在线观看精品国产福利片100 | 欧美人与物videos另类| 无码之国产精品网址蜜芽| 美国又粗又长久久性黄大片| 久久久久人妻精品一区二区三区 | 无码人妻一区二区三区在线| 人妻被黑人粗大的猛烈进出| 午夜国产精品视频免费看电影| 亚洲一区亚洲二区视频在线| 中文字幕人妻熟在线影院 | 国产av无码专区亚洲av中文 | 无码啪啪人妻| 国产免费人成视频网站在线18| 亚洲无亚洲人成网站77777| 久久久久亚洲av成人网址| 国产影片免费一级内射| 在线亚洲高清揄拍自拍一品区| 人禽无码视频在线观看| 国产精品综合色区av| 国产综合精品久久99之一| 国产97色在线 | 日韩| 青草蜜桃视频在线观看| 亚洲禁区一区二区三区天美| 亚洲精品夜夜夜妓女网| 午夜亚洲国产理论片亚洲2020| 伊人久久大香线蕉av色婷婷|