亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合注意力機制的YOLOv8?TS交通標志檢測網(wǎng)絡

        2025-01-06 00:00:00黃智淵方遒郭星浩
        現(xiàn)代電子技術(shù) 2025年1期
        關(guān)鍵詞:特征檢測模型

        摘" 要: 道路交通標志識別是自動駕駛、車聯(lián)網(wǎng)的重要組成部分,為進一步提高交通標志檢測的精度和速度,提出一種基于YOLOv8s改進的YOLOv8?TS道路交通標志檢測網(wǎng)絡。首先,對YOLOv8s進行了整體的輕量化設(shè)計,并設(shè)計了Conv?G7S和CSP?G7S模塊,減少了網(wǎng)絡的參數(shù)量;其次,設(shè)計了CSP?SwinTransformer模塊,強化了模型利用窗口內(nèi)的特征信息進行上下文感知和建模的能力;然后,在頸部網(wǎng)絡融合了卷積注意力機制(CBAM),強化了模型對不同通道、空間權(quán)重信息的學習;最后,對損失函數(shù)進行了改進,提升了邊界框回歸性能。實驗結(jié)果表明,在中國道路交通標志TT100K數(shù)據(jù)集上,精確率(Precision)、平均精度(mAP@0.5)分別提高了6.9%、3.7%,而改進后模型的參數(shù)量下降了75.4%,模型的大小僅為5.8 MB,平均精度(mAP@0.5)達到96.5%,檢測速度由126.58 f/s提升至136.99 f/s。

        關(guān)鍵詞: 交通標志檢測; YOLOv8?TS; 輕量化; 注意力機制; Conv?G7S; WIoU

        中圖分類號: TN911.73?34; TP391.41" " " " " " " nbsp; "文獻標識碼: A" " " " " " " " "文章編號: 1004?373X(2025)01?0179?08

        YOLOv8?TS traffic sign detection network integrating attention mechanism

        HUANG Zhiyuan1, FANG Qiu1, 2, GUO Xinghao1

        (1. School of Mechanical and Automotive Engineering, Xiamen University of Technology, Xiamen 361024, China;

        2. School of Aerospace Engineering, Xiamen University, Xiamen 361005, China)

        Abstract: Road traffic sign recognition is an important part of automatic driving and Internet of Vehicles (IoV). In view of this, the paper proposes an improved YOLOv8?TS road traffic sign detection network based on YOLOv8s to further improve the accuracy and speed of traffic sign detection. The overall lightweight design of the YOLOv8s is carried out. The Conv?G7S and CSP?G7S modules are designed to reduce the number of network parameters. The CSP?SwinTransformer block is designed to enhance the ability of the model to use the feature information in the window for context awareness and modeling. Then, CBAM (convolutional block attention module) is integrated in the neck network to strengthen the learning of different channels and spatial weight information. The loss function is improved to improve the performance of boundary box regression. The experimental results show that on the TT100K data set of Chinese road traffic signs, the precision and the mAP@0.5 are improved by 6.9% and 3.7%, respectively, while the parameters of the improved model decreases by 75.4%, its size is only 5.8 MB, its mAP@0.5 reaches 96.5%, and its detection speed is increased from 126.58 f/s to 136.99 f/s.

        Keywords: traffic sign inspection; YOLOv8?TS; lightweight; attention mechanism; Conv?G7S; WIoU

        0" 引" 言

        交通標志檢測技術(shù)的研究與應用,不僅提升了無人駕駛汽車的實時感知能力,而且對于提醒駕駛員規(guī)范駕駛以減少交通事故也有重要意義。近些年來,涌現(xiàn)了許多與交通標志檢測相關(guān)的研究,主要分為傳統(tǒng)的特征提取方法[1]和深度學習方法,在傳統(tǒng)的方法中,研究人員通過分析交通標志的形狀、顏色等特征[2?4],手動設(shè)計對應的特征提取器來識別交通標志。近年來,隨著ResNet[5]、SSD[6]、Faster?RCNN、YOLO等模型的不斷涌現(xiàn),基于深度學習的目標檢測技術(shù)發(fā)展迅速。

        在交通標志檢測領(lǐng)域,文獻[7]提出了一種多尺度特征融合與極限學習機結(jié)合的交通標志識別方法,該方法融合了3個網(wǎng)絡模型來構(gòu)建多尺度神經(jīng)網(wǎng)絡,把提取的多尺度特征送入極限學習機,來實現(xiàn)交通標志的識別。文獻[8]提出了一種基于拓展特征金字塔改進的交通標志識別網(wǎng)絡,在TT100K數(shù)據(jù)集上達到了91.58%的平均精度,遺憾的是,由于這類擴展特征金字塔網(wǎng)絡設(shè)計復雜、參數(shù)量太多,檢測幀率非常低,只有幾幀。文獻[9]提出了一種融合坐標注意力機制的交通標志識別方法,該方法將通道注意力嵌入到模型中,使得模型可以很好地學習不同通道之間的權(quán)重關(guān)系,但是該方法僅僅使用了通道注意力[10]而忽略了空間注意力[11],而交通標志一般具有明顯的空間位置信息,而且該模型只將交通標志分為了警告、指示、禁止三大類,不能很好地實現(xiàn)交通標志的細分類。

        針對目前研究中存在的不足,本文提出了一種基于YOLOv8?TS的交通標志檢測網(wǎng)絡,主要工作包括以下方面。

        1) 去除了存在信息冗余的Detect3檢測頭,并對原YOLOv8s網(wǎng)絡進行了整體的輕量化設(shè)計。

        2) 設(shè)計了新的Conv?G7S模塊和強化特征提取的CSP?G7S模塊,引入到Y(jié)OLOv8s網(wǎng)絡,替換了部分Conv模塊和C2f模塊,減少了模型的參數(shù)量。

        3) 設(shè)計了輕量級的CSP?SwinTransformer模塊,將移位窗口注意力機制[12]引入到空間金字塔池化層之前,使得模型對于小目標交通標志更加敏感。

        4) 在頸部網(wǎng)絡融合了卷積注意力機制,增強了模型對于空間權(quán)重、通道權(quán)重的學習,并對YOLOv8s的損失函數(shù)進行了改進。

        1" YOLOv8s網(wǎng)絡介紹

        YOLOv8s是Ultralytics于2023年提出的最新的YOLO系列檢測網(wǎng)絡,YOLOv8s分為Backbone、Neck和Head三個部分,如圖1所示。

        圖1中:第一部分是Backbone網(wǎng)絡,主要用于輸入圖像的特征提取,并通過逐層卷積將輸入圖像轉(zhuǎn)換成多通道的高維特征表示,主要包含Conv、C2f和空間金字塔池化層(Spatial Pyramid Pooling Fast, SPPF)[13]。第二部分是Neck網(wǎng)絡,主要包括特征金字塔網(wǎng)絡(Feature Pyramid Network, FPN)和路徑聚合網(wǎng)絡(Path Aggregation Network, PAN),其中FPN通過自底向上和自頂向下的特征融合來生成特征金字塔,而PAN網(wǎng)絡主要通過路徑聚合,將多個分辨率的特征圖進行融合,F(xiàn)PN與PAN兩者的結(jié)合可以更好地捕捉目標在不同尺度下的特征。第三部分是Head網(wǎng)絡,用于邊界框和類別的預測。此外,在圖1中,當輸入圖像縮放為640×640時,經(jīng)過卷積后,三個檢測頭Detect1、Detect2、Detect3得到的特征圖分別是80×80、40×40、20×20,而輸入圖像縮放為1 024×1 024時,三個檢測頭得到的特征圖分別是128×128、64×64、32×32,考慮到檢測的交通標志大多是小目標,其尺寸只占到了整張圖的0.006%~0.13%,采用較高的分辨率可以得到細節(jié)特征更加豐富的特征圖用于分類,因此在后面實驗過程中將輸入圖像統(tǒng)一縮放為1 024×1 024。

        2" 改進的YOLOv8?TS網(wǎng)絡設(shè)計

        YOLOv8s特征提取主要采用的是C2f模塊,其內(nèi)部通過Split和大量卷積操作,實現(xiàn)了豐富的梯度流信息融合,但不可避免的是,Split操作會將原本完整的一張?zhí)卣鲌D分成多張小特征圖進行并行計算,需要額外的存儲空間,此外,測試YOLOv8s網(wǎng)絡時發(fā)現(xiàn),多個檢測頭之間存在信息冗余,而模塊的重復使用也導致模型存在大量參數(shù)冗余。

        因此,本文設(shè)計了一些新的Conv?G7S和CSP?G7S模塊,從輕量化、融合注意力機制等方面對原始的YOLOv8s網(wǎng)絡進行了改進,改進后的YOLOv8?TS(Traffic Sign)結(jié)構(gòu)如圖2所示。

        2.1" 引入CBAM

        注意力機制是一種模擬人類視覺的機制,就像人的眼睛一樣,人觀察東西時往往注意的是輸入整幅圖像的中央部分,過濾掉視覺中央以外的信息。這樣做顯然有兩個好處:一方面增強了對細節(jié)特征的提取能力;另一方面使得大腦的枕葉在處理圖像信息時不必承擔太多的工作量,注意力機制也是這樣產(chǎn)生的。

        本文在YOLOv8s中引入了卷積注意力機制(Convolutional Block Attention Module, CBAM)[14],其結(jié)構(gòu)如圖3所示,它由通道注意力模塊(Channel Attention Module, CAM)和空間注意力模塊(Spatial Attention Module, SAM)串聯(lián)組成[15]。

        通道注意力模塊(CAM)結(jié)構(gòu)如圖4所示。

        在圖4中,對于輸入特征圖[F],首先對每個通道分別進行最大池化和平均池化,得到兩個特征圖[FMaxPool]和[FAvgPool],然后將它們輸入到多層感知機(Multi?Layer Perceptron, MLP)中,通過學習通道之間的權(quán)重關(guān)系,進而得到兩個1×1×[C]的通道注意力圖,兩個通道注意力圖相加后經(jīng)過Sigmoid激活函數(shù)進行非線性映射,將權(quán)重限制在0~1的范圍之內(nèi),進而得到通道注意力權(quán)重[Mc],[Mc]與輸入特征圖[F]進行逐元素相乘得到加權(quán)后的中間特征圖[F′],這里是通過乘運算乘以不同的權(quán)值來強調(diào)不同通道的重要性。通道注意力權(quán)重[Mc]的計算如式(1)所示:

        [Mc(F)=σMLPAvgPool(F)+MLPMaxPool(F)] (1)

        空間注意力模塊SAM的結(jié)構(gòu)如圖5所示。

        對于中間特征圖[F],依次進行最大池化和平均池化得到兩個[H×W×]1的特征圖[F′MaxPool]和[F′AvgPool],拼接后得到[H×W×2]的特征圖,經(jīng)過卷積層后再經(jīng)過Sigmoid激活函數(shù)后得到空間注意力權(quán)重[Ms],[Ms]與中間特征圖[F]進行逐元素相乘加權(quán)后得到最終的注意力特征圖[F]。

        空間注意力權(quán)重[Ms]的計算如式(2)所示:

        [Ms(F')=σ(f7×7([AvgPool(F');MaxPool(F')]))] (2)

        2.2" Conv?G7S模塊和CSP?G7S模塊的設(shè)計

        為提高卷積的計算效率,本文設(shè)計了Conv?G7S模塊,Conv?G7S模塊結(jié)構(gòu)如圖6所示。

        首先,對輸入的特征圖進行Conv1卷積,接著,對一半的通道進行Conv7的大核卷積操作,這樣設(shè)計是考慮到7×7的卷積核有更大的感受野,能夠捕捉到更多的細節(jié)信息,這有助于道路交通標志中的小目標檢測。當完成大核卷積后,接下來,將兩組特征圖進行Concat拼接,讓之前兩組特征圖對應的通道挨在一起。

        為進一步降低網(wǎng)絡結(jié)構(gòu)的復雜性,設(shè)計了跨級部分網(wǎng)絡CSP?G7S模塊,它包含了豐富的特征融合梯度流,結(jié)構(gòu)如圖7所示。從圖7中可以看到,與原始C2f模塊相比,重新設(shè)計的CSP?G7S簡潔一些,采用了殘差連接,將經(jīng)過單個Conv的輸出與經(jīng)過2個Conv?G7S卷積層的輸出相加,以保留原始信息并提供豐富的梯度流。最后,將兩組[c2 2]通道的特征圖進行Concat拼接并通過1×1卷積調(diào)整通道數(shù)即可。經(jīng)過實驗測試這樣的改進不僅減少了模型的參數(shù)量,而且在使用了CSP?G7S模塊后模型精度也有了小幅度提升。

        2.3" 融合SwinTransformer注意力

        為進一步提升骨干網(wǎng)絡的特征提取能力,接下來設(shè)計了輕量化的CSP?SwinTransformer模塊,其結(jié)構(gòu)如圖8所示。

        在圖8中,首先使用了1×1的卷積進行通道數(shù)的調(diào)整,接著,為減少運算量,將[c2 2]的通道接入SwinTransformer_W?MSA(Windows Multi?head Self?Attention,窗口自注意力圖)塊來實現(xiàn)不同尺度上的注意力計算,然后將輸出的特征張量與另外[c2 2]通道的特征張量進行Concat拼接,最后經(jīng)過卷積層得到最終的輸出特征張量。在注意力模塊內(nèi)部,為了強化網(wǎng)絡對于局部小目標的關(guān)注度,對移位窗口注意力模塊SwinTransformer Block[16]進行修改,設(shè)計了SwinTransformer_W?MSA模塊,其結(jié)構(gòu)如圖9所示。

        在圖9中,首先通過Norm1模塊對輸入特征圖進行層歸一化,接著通過partition模塊將輸入特征圖劃分為大小相等的窗口,這里采用了窗口自注意力,主要是考慮到小目標交通標志往往分散在不同的窗口中,直接利用全局自注意力機制可能會導致大部分注意力集中在大目標或背景上,而對小目標的關(guān)注不足,因此,通過W?MSA窗口級別的這種局部自注意力機制,可以促進交通標志之間的特征交互。接下來,通過加運算將Norm1歸一化前的輸入與經(jīng)過W?MSA的輸出特征圖合并來實現(xiàn)殘差連接,然后使用Norm2模塊、MLP對特征圖進行歸一化和特征提取。最后,采用跨層殘差連接來幫助模型學習到殘差部分的特征。

        2.4" 優(yōu)化損失函數(shù)

        YOLOv8s的損失函數(shù)由邊界框損失[Lbox_CIoU]、分類損失[Lcls]、回歸損失[Ldfl]三部分組成,其計算如式(3)所示:

        [Lsum=k1×Lbox_CIoU+k2×Lcls+k3×Ldfl] (3)

        評估邊界框損失的示意圖如圖10所示。左上角為標注框,右下角為預測框,設(shè)[xgt]和[ygt]為標注框的中心坐標,[wgt]和[hgt]為標注框的寬度和高度;設(shè)[x]、[y]為預測框的中心坐標,[w]和[h]為預測框的寬度和高度;[Wg]、[Hg]為標注框和預測框最小外接矩形的寬和高;IoU為標注框和預測框的交并比。

        原始的YOLOv8s網(wǎng)絡用CIoU函數(shù)評估邊界框損失,邊界框損失[Lbox_CIoU]用式(4)進行表示:

        [Lbox_CIoU=LIoU+(x-xgt)2+(y-ygt)2H2g+W2g+αv] (4)

        其中:

        [LIoU=1-IoU] (5)

        [α=v(1-IoU)+v] (6)

        [v=4π2arctanwgthgt-arctanwh2] (7)

        在式(3)中,[k1]、[k2]、[k3]的取值為7.5、0.5、1.5,從系數(shù)權(quán)重可以看出,邊界框損失[Lbox_CIoU]對總體損失起了決定性作用,而總體損失將直接用于整個反向傳播過程中梯度的計算和模型參數(shù)的更新。為進一步提升模型對交通標志小目標的檢測精度,接下來在YOLOv8s中引入動態(tài)非單調(diào)的邊界框損失Wise?IoUv3[17],改進后總的損失函數(shù)如式(8)所示:

        [Lsum_wise=k1×Lbox_WIoUv3+k2×Lcls+k3×Ldfl] (8)

        其中:

        [Lbox_WIoUv3=rLbox_WIoUv1] (9)

        [Lbox_WIoUv1=RWIoULIoU] (10)

        [RWIoU=exp(x-xgt)2+(y-ygt)2H2g+W2g*] (11)

        [r=βδαβ-δ] (12)

        [β=L*IoU LIoU ] (13)

        從式(4)和式(10)可以看到:與CIoU直接加上中心點比值和懲罰項不同,WIoU通過[RWIoU]和[LIoU]這兩部分相乘來調(diào)節(jié)邊界框損失,其中[RWIoU]∈[0,e],采用了以e指數(shù)為底,進一步顯著放大了低質(zhì)量預測框的[LIoU];而[LIoU]∈[0,1],對于高質(zhì)量預測框來說,IoU接近于1,[LIoU]接近于0,因此,乘以[LIoU]后,這將顯著降低高質(zhì)量預測框的[RWIoU],并在預測框與標注框幾乎重合時,重點關(guān)注預測框與標注框中心點之間的距離。

        3" 實驗設(shè)計與結(jié)果分析

        3.1" 中國道路交通標志TT100K數(shù)據(jù)集

        TT100K是清華大學與騰訊聯(lián)合實驗室整理并公開的中國道路交通標志數(shù)據(jù)集,拍攝地點包括北京、青島、南京、上海、蘇州、杭州、重慶、廣州等城市。TT100K數(shù)據(jù)集中交通標志數(shù)量大于100個的有45類,為與其他相關(guān)研究保持一致,本實驗也選用了這45類數(shù)量較多的交通標志共計9 170張,本實驗按照9∶1隨機劃分數(shù)據(jù)集,共得到8 177張訓練集和993張測試集。

        3.2" 評價指標與實驗環(huán)境

        本實驗采用的評價指標包括[P]、[R]、mAP@0.5、mAP@0.5:0.95、Modelsize、Parameter、FPS,其中精確率[P]用于衡量預測結(jié)果是否正確,而召回率[R]用于衡量檢測是否全面。mAP@0.5是指IoU閾值設(shè)置為0.5時所有類別的平均預測精度。本實驗的訓練環(huán)境為NVIDIA 4060Ti?16 GB,進行模型訓練時,參數(shù)設(shè)置如表1所示。

        3.3" 模型輕量化實驗

        本文設(shè)置imgsz為1 024×1 024,經(jīng)測試,在YOLOv8s上就可以達到92.8%的平均精度,但高分辨率也帶來了檢測速度下降的問題,為了探究如何對模型進行輕量化,下面進行了相關(guān)實驗,訓練過程的平均精度對比曲線如圖11所示。訓練完成后,測試了模型的推理性能,結(jié)果如表2所示。在圖11和表2中,OnlyD1表示只采用Detect1檢測頭,Light表示去除了Detect3檢測頭并對骨干和頸部進行了精簡。

        結(jié)合圖11和表2可以看到,僅采用Detect1檢測頭就可以達到較好的推理精度,多個檢測頭之間存在特征信息冗余或排斥,Detect3檢測頭對于平均精度的貢獻較小。此外,相比原模型,輕量化的Light模型召回率[R]、mAP@0.5分別損失了2.7%、1.3%,但參數(shù)量大幅減少,檢測速度提升至147.06 f/s。

        3.4" 消融實驗

        為探究不同改進對模型的影響,做了消融實驗,訓練中的平均精度對比曲線如圖12所示。

        接下來,測試了模型的推理性能,如表3所示,A為原始的YOLOv8s(基準),B為輕量化模型,C模型為采用了Conv?G7S和CSP?G7S的大核卷積模型,可以看到采用大核卷積后,C模型相對于B模型的mAP@0.5提升了1.6%,這說明大核卷積的大感受野有助于模型獲得更多的細節(jié)信息。D為把2個C2f塊替換為CSP?SwinTransformer塊的模型,可以看到模型體積減少至5.780 MB,但由于注意力模塊內(nèi)部的層級較多,推理速度有所下降。E為融合了CBAM注意力的模型,平均精度mAP@0.5相對于D提升了1.2%。F為YOLOv8?TS模型,可以看到相對于A模型(基準),精確率[P]、召回率[R]分別提升了6.9%、3.7%,mAP@0.5提升至96.5%,參數(shù)量從11.143×106下降至2.736×106,檢測速度提升至136.99 f/s。

        3.5" 與其他模型的對比實驗

        為評估模型,這里進行了對比實驗,設(shè)置圖片分辨率均為1 024×1 024,實驗結(jié)果如圖13所示。

        同時,本文也測試了模型的推理性能,如表4所示,可以看到,采用同樣的1 024×1 024分辨率時,與YOLOv5s[18]、YOLOv5s改進[18]、YOLOv8m、YOLOv8n?p2、YOLOv8s模型相比,本文模型的檢測速度FPS低于YOLOv8n?p2,但是從其他指標來看,本文模型具有更高的召回率和平均精度,而且本文模型的體積更小、參數(shù)量更低,在檢測速度和檢測精度上做到了較好的平衡。

        接下來,做了第二組實驗。將輸入圖像縮放到1 280×1 280分辨率,實驗結(jié)果如表5所示,可以看到,與YOLOv5n6改進[19]、SSD[20]、Faster R?CNN[20]、YOLOv3[20]、YOLOv5n改進[20]這些模型相比,本文的YOLOv8?TS模型的召回率達到了92.3%,平均精度mAP@0.5達到96.7%,同時模型體積僅為5.9 MB,參數(shù)量只有2.736×106,在多個性能指標上領(lǐng)先其他模型,這將有助于部署在算力有限的嵌入式終端中,一定程度上滿足了交通標志檢測的實時性要求。

        3.6" 道路實測

        為測試模型的實際推理效果,對YOLOv8s和YOLOv8?TS做了對比實驗,如圖14所示。

        從圖14中第一行的對比圖可以看到,改進前后的模型都識別出了pl30(限速30 km/h)、p11(禁鳴喇叭)、w55(注意兒童),并且對于樹木遮擋的ip(注意行人)也都做出了很好的預測,但對于下面比較模糊且斜對的p10(機動車限行),改進后的YOLOv8?TS模型置信度更高,達到了84%。在第二行的對比圖中,改進前后的模型對pl40(限速40 km/h)、pne(禁止駛?cè)耄?、p5(禁止掉頭)、pn(禁止停車)都做出了置信度較高的預測,但是對于左邊的小目標,原始模型做出了po(其他標志)的誤判,而YOLOv8?TS模型則對其做出了p10(機動車限行)的正確預測,且置信度高達88%,綜上,改進后的YOLOv8?TS模型對于小目標交通標志的正確識別具有更好的魯棒性。

        3.7" 熱力圖分析

        Grad?CAM熱力圖可以幫助了解模型在推理過程中對不同區(qū)域的關(guān)注程度,這有助于進一步了解模型的注意力機制和決策依據(jù)。有鑒于此,將改進前后兩個模型的Grad?CAM熱力圖進行了對比,結(jié)果如圖15所示。

        在圖15的第一行對比圖中,可以看到改進前后的兩個模型對于交通標志都有很好的關(guān)注度,但是原始的YOLOv8s模型的噪聲較多,注意力有些分散,它除了關(guān)注4個交通標志,還關(guān)注了一些無關(guān)因素比如天空中的白云,而改進后的模型的注意力就比較集中,除了注意到類似交通標志的車輪,重點注意了5個交通標志(包括比較模糊的p10機動車限行),這個與圖14的第一組測試結(jié)果中p10達到84%的高置信度具有一致性。另外,在第二行對比圖中,可以看到,改進后的YOLOv8?TS對于小目標或者圓形外框的物體更加敏感,它注意到了最左邊的p10(機動車限行)并推理得出88%的置信度(見圖14),而原始的模型卻把一部分注意力消耗在了天空和樹木上,由此可見,改進的模型對于道路交通標志的檢測具有更佳的敏感性和更優(yōu)異的推理能力。

        4" 結(jié)" 語

        針對現(xiàn)有網(wǎng)絡模型參數(shù)多、對小目標識別不準確的問題,本文設(shè)計了輕量級的移位窗口注意力機制,使得模型可以用較低的計算成本利用窗口內(nèi)的特征信息進行上下文感知和建模。此外,設(shè)計了CSP?G7S模塊以使得小目標也有更加細膩的特征圖,提高了對遮擋目標、小目標的識別效果。

        最終,與原始網(wǎng)絡相比,本文算法的檢測精度提升了3.7%,達到96.5%,減少了75.4%的參數(shù)量,同時,道路實測結(jié)果表明,本文算法對于小目標交通標志識別有一定提升。未來,將對本文方法繼續(xù)進行優(yōu)化,部署在算力有限的嵌入式開發(fā)板上。

        注:本文通訊作者為方遒。

        參考文獻

        [1] XU X, JIN J, ZHANG S, et al. Smart data driven traffic sign detection method based on adaptive color threshold and shape symmetry [J]. Future generation computer systems, 2019, 94: 381?391.

        [2] CAO J, SONG C, PENG S, et al. Improved traffic sign detection and recognition algorithm for intelligent vehicles [J]. Sensors, 2019, 19(18): 4021.

        [3] JIN Y M, FU Y S, WANG W Q, et al. Multi?feature fusion and enhancement single shot detector for traffic sign recognition [J]. IEEE access, 2020, 8: 38931?38940.

        [4] AHMED N, RABBI S, RAHMAN T, et al. Traffic sign detection and recognition model using support vector machine and histogram of oriented gradient [J]. International journal of information technology and computer science, 2021, 13(3): 61?73.

        [5] LI K Y. Robustness analysis of traffic sign recognization based on ResNet [J]. Highlights in science, engineering and technology, 2023, 39: 1188?1195.

        [6] YOU S, BI Q, JI Y M, et al. Traffic sign detection method based on improved SSD [J]. Information, 2020, 11(10): 475.

        [7] 馬永杰,程時升,馬蕓婷,等.多尺度特征融合與極限學習機結(jié)合的交通標志識別[J].液晶與顯示,2020,35(6):572?582.

        [8] 高天樂.基于深度學習的交通標志檢測系統(tǒng)研究與實現(xiàn)[D].武漢:華中科技大學,2022.

        [9] 周姚.基于深度學習的道路交通標志識別研究[D].杭州:杭州電子科技大學,2023.

        [10] 張漢霖,王貞,吳志勇,等.基于多重注意力機制優(yōu)化的卷積網(wǎng)絡故障診斷方法[J].現(xiàn)代電子技術(shù),2023,46(21):68?75.

        [11] 趙亮,郭杜杜,王慶慶,等.基于深度學習的遙感影像道路提取[J].現(xiàn)代電子技術(shù),2023,46(23):48?54.

        [12] LIANG J Y, CAO J Z, SUN G L, et al. SwinIR: Image restoration using Swin transformer [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2021: 1833?1844.

        [13] 張躍,陳寧,孔明,等.基于改進YOLOv4網(wǎng)絡的手機曲面玻璃缺陷檢測[J].現(xiàn)代電子技術(shù),2023,46(23):103?108.

        [14] 彭家旭,顧亦然.基于深度學習的橋梁裂縫的智能識別與分類[J].現(xiàn)代電子技術(shù),2023,46(24):135?140.

        [15] 付國棟,黃進,楊濤,等.改進CBAM的輕量級注意力模型[J].計算機工程與應用,2021,57(20):150?156.

        [16] LIU Z, LIN Y T, CAO Y, et al. Swin transformer: Hierarchical vision transformer using shifted windows [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2021: 9992?10002.

        [17] WANG G, CHEN Y F, AN P, et al. UAV?YOLOv8: A small?object?detection model based on improved YOLOv8 for UAV aerial photography scenarios [J]. Sensors, 2023, 23(16): 7190.

        [18] 嚴梓維.基于機器視覺的交通標志智能檢測系統(tǒng)研究[D].廣州:廣州大學,2023.

        [19] 楊茜茜.復雜場景下交通標志識別算法研究[D].荊州:長江大學,2023.

        [20] 李文舉,于杰,沙利業(yè),等.基于全維動態(tài)卷積的交通標志識別[J].計算機工程與應用,2024,60(18):316?323.

        基金項目:福建省自然科學基金項目(2022J011247)

        作者簡介:黃智淵(1999—),男,河南南陽人,碩士研究生,研究方向為汽車電子技術(shù)和目標檢測。

        方" 遒(1967—),男,福建漳州人,教授,研究方向為汽車電子技術(shù)和計算機視覺。

        郭星浩(1998—),男,河南鄭州人,碩士研究生,研究方向為圖像處理和計算機視覺。

        猜你喜歡
        特征檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        3D打印中的模型分割與打包
        国产精品沙发午睡系列| 亚洲av中文无码乱人伦在线咪咕| 亚洲一区二区丝袜美腿| 麻豆视频在线播放观看| 无码成人一区二区| 一本大道香蕉最新在线视频| 久久免费网站91色网站| 东北熟妇露脸25分钟| 亚洲人成77777在线播放网站 | 77777_亚洲午夜久久多人| 久久男人av资源网站无码| 国产在线欧美日韩精品一区二区| 国产精女同一区二区三区久| 一本色道久久88加勒比—综合| 亚洲av无码电影网| 在线无码免费看黄网站| 国产白色视频在线观看| 国产ww久久久久久久久久| 亚洲依依成人综合在线网址| 久久激情人妻中文字幕| 国产精品一区二区黑丝| 欧美人与物videos另类| 久久精品国产亚洲婷婷| 凹凸世界视频a一二三| 成人无码av一区二区| 精品少妇一区二区三区视频| 91亚洲最新国语中文字幕| 婷婷久久国产综合精品| 无码综合天天久久综合网| 在线亚洲AV不卡一区二区| 少妇人妻精品久久888| 日韩精品一区二区午夜成人版 | 精品久久中文字幕系列| 中文字幕久久久人妻无码| 国产福利酱国产一区二区| 中文字幕中文字幕三区| 欧美成人秋霞久久aa片| 亚洲爆乳无码专区| 亚洲午夜精品国产一区二区三区| 精品含羞草免费视频观看| 野花社区www高清视频|