亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向交通標(biāo)志的Ghost-YOLOv8檢測算法

        2023-10-30 08:58:16熊恩杰張榮芬劉宇紅彭靖翔
        計算機(jī)工程與應(yīng)用 2023年20期
        關(guān)鍵詞:交通標(biāo)志注意力卷積

        熊恩杰,張榮芬,劉宇紅,彭靖翔

        貴州大學(xué) 大數(shù)據(jù)與信息工程學(xué)院,貴陽 550025

        近年來,隨著無人駕駛技術(shù)和智能輔助駕駛系統(tǒng)進(jìn)入高速發(fā)展的階段,對道路上交通標(biāo)志檢測的要求也越來越高。因此設(shè)計出一種檢測精度高、模型參數(shù)量小的交通標(biāo)志檢測算法非常有必要。

        傳統(tǒng)的交通標(biāo)志檢測算法主要是靠人為地去提取交通標(biāo)志的形狀、顏色以及邊緣等表層信息進(jìn)行識別,還有一種是基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測算法。傳統(tǒng)的目標(biāo)檢測算法大多采用的是通過使用滑動窗口在輸入圖片上選擇候選區(qū)域,再對候選區(qū)域進(jìn)行特征提取,最后通過分類器進(jìn)行分類。所以傳統(tǒng)的目標(biāo)檢測算法存在運(yùn)行時間長、特征提取模塊復(fù)雜、計算成本大、提取的特征魯棒性低、識別精度低等問題。相反,基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)使用逐級提取圖像特征并自主學(xué)習(xí)獲取特征信息,可以使得精度更高并且模型相比更小,所以近年來在交通標(biāo)志的檢測鄰域多使用基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)。

        近些年基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法發(fā)展迅速,根據(jù)檢測階段的數(shù)量不同,分為兩類。一類是二階段(two-stage)檢測算法,需要先生成候選區(qū)域,再去對候選區(qū)域進(jìn)行識別,所以存在檢測時間過長,不能滿足實(shí)時需求等問題,具體的有Girshick等人提出的R-CNN[1]、Fast-RCNN[2]以及Faster-RCNN[3]等方法;另一類就是單階段的檢測算法,具體的有YOLO[4-7]系列、SSD[8-10]系列以及OverFeat[11]等。其中YOLOv8作為YOLO系列中最新的模型,具有更高的精度以及更小的參數(shù)量和模型大小,所以本文基于YOLOv8n 網(wǎng)絡(luò)針對交通標(biāo)志檢測任務(wù)進(jìn)行改進(jìn)和優(yōu)化。

        在交通標(biāo)志的檢測方面,Lee 等人[12]提出基于SSD(single shot multibox detector)算法構(gòu)建的CNN 算法同時估計交通標(biāo)志位置與邊界,在基于VGG16 模型下最高的平均準(zhǔn)確率(mean average precision,mAP)達(dá)到88.4%,但是使用CNN的檢測方法,網(wǎng)絡(luò)設(shè)計復(fù)雜,參數(shù)量龐大,不利于移動端的部署。Jin等人[13]將底層特征融合到頂層特征中以提高對中小目標(biāo)的檢測性能,并且通過增強(qiáng)有效通道的特征以及抑制無效通道特征改善檢測的效果,但是該方法對模型性能的提升并不明顯。隨著關(guān)注像素重要特征的注意力機(jī)制在開始應(yīng)用于神經(jīng)網(wǎng)絡(luò),注意力機(jī)制為單目標(biāo)檢測算法在不同應(yīng)用背景下的障礙物檢測的準(zhǔn)確率也帶來了巨大提升。Jiang 等人[14]提出使用平衡特征金字塔網(wǎng)絡(luò)加入通道注意力的方法來提升YOLOv5對小目標(biāo)的檢測效果,但是僅僅使用通道注意力對特征金字塔網(wǎng)絡(luò)的改進(jìn),在特征融合(Neck)時仍然無法很好地傳遞位置信息。薄景文等人[15]提出改進(jìn)YOLOv3 的礦石輸送帶雜物檢測方法,引入CBAM[16]注意力機(jī)制,但是該注意力機(jī)制依次進(jìn)行通道和空間注意力操作,忽略了通道與空間的相互作用,進(jìn)而丟失了跨維信息。

        針對上述存在的問題,本文引入了一種基于Ghost-YOLOv8的交通標(biāo)志檢測模型,以此來解決當(dāng)前傳統(tǒng)網(wǎng)絡(luò)對交通標(biāo)志進(jìn)行檢測時存在的精度低、模型過大等問題。主要貢獻(xiàn)在于:

        (1)引入Ghostconv模塊以及設(shè)計的全新模塊C2fGhost,使得網(wǎng)絡(luò)達(dá)到輕量化的效果,網(wǎng)絡(luò)的參數(shù)量大大減小,提升了網(wǎng)絡(luò)模型檢測的性能。

        (2)將注意力模塊GAM[17]融合到特征融合網(wǎng)絡(luò)(Neck)中,提高了網(wǎng)絡(luò)對小目標(biāo)的興趣,增強(qiáng)了網(wǎng)絡(luò)的特征提取以及特征融合能力。

        (3)增加160×160 尺度的小目標(biāo)檢測層,增強(qiáng)了深層語義信息與淺層語義信息的結(jié)合,提升了小目標(biāo)檢測的精確度。

        (4)使用廣義交并比邊界損失函數(shù)GIoU[18]代替原模型中的CIoU[19]邊界損失函數(shù),有效提升了模型的邊界框回歸性能。

        1 YOLOv8n網(wǎng)絡(luò)介紹

        YOLOv8作為最新的YOLO模型,可使用于對象檢測、圖像分類和實(shí)例分割任務(wù),本文用于對象檢測任務(wù)。根據(jù)網(wǎng)絡(luò)深度和寬度的不同,YOLOv8分為YOLOv8n、YOLOv8s、YOLOv8m、YOLOv8l、YOLOv8x?;谀P痛笮〉目紤],本文選用體積小、精度高的YOLOv8n網(wǎng)絡(luò)。YOLOv8n模型檢測網(wǎng)絡(luò)主要由四個部分組成(如圖1所示):Input、Backbone、Neck、Head。

        圖1 YOLOv8n模型結(jié)構(gòu)圖Fig.1 YOLOv8n model structure diagram

        Input 使用Mosaic 進(jìn)行數(shù)據(jù)增強(qiáng),但是在最后的10個epoch 會將其關(guān)閉;使用anchor-free 機(jī)制直接預(yù)測對象的中心而不是已知錨框的偏移量,減少了錨框預(yù)測的數(shù)量,從而加速了非最大抑制NMS[20]。

        主干部分(Backbone)主要用于特征提取,其中包含Conv、C2f、SPPF 等模塊。其中Conv 模塊主要作用就是對輸入圖像進(jìn)行卷積、BN 和SiLU 激活函數(shù)操作;YOLOv8n設(shè)計了全新的C2f結(jié)構(gòu),這是對殘差特征進(jìn)行學(xué)習(xí)的主要模塊,其結(jié)構(gòu)讓YOLOv8n 可以在保證輕量化的時候能夠同時擁有豐富的梯度流信息;SPPF 模塊又稱空間金字塔池化,它能夠?qū)⑷我獯笮〉奶卣鲌D轉(zhuǎn)換成固定大小的特征向量。

        頸部網(wǎng)絡(luò)(Neck)的主要作用是對多尺度的特征進(jìn)行融合,生成特征金字塔,Neck部分采用的結(jié)構(gòu)是PANet 結(jié)構(gòu),其核心結(jié)構(gòu)由特征金字塔網(wǎng)絡(luò)FPN[21]和路徑聚合網(wǎng)絡(luò)PAN[22]兩部分組成。FPN 首先在卷積神經(jīng)網(wǎng)絡(luò)中提取特征圖來構(gòu)建特征金字塔,隨后自頂向下利用上采樣與更粗粒度的特征圖融合來實(shí)現(xiàn)不同層次特征的融合,但是如果僅有FPN 就會缺少目標(biāo)的位置信息;PAN 則是FPN 的補(bǔ)充,使用自底向上的結(jié)構(gòu),通過使用一個卷積層來融合來自不同層次的特征圖,精確地保留了空間信息。FPN與PAN的結(jié)合,充分實(shí)現(xiàn)了網(wǎng)絡(luò)的上下信息流的融合,提升了網(wǎng)絡(luò)的檢測性能。

        Head 輸出端作為最后的預(yù)測部分,根據(jù)不同尺寸的特征圖來獲取不同大小目標(biāo)物體的類別和位置信息。

        2 YOLOv8n算法改進(jìn)策略

        針對當(dāng)前傳統(tǒng)網(wǎng)絡(luò)對交通標(biāo)志的檢測不準(zhǔn)確、模型參數(shù)量以及模型大小過大等問題,本文引入一種基于Ghost-YOLOv8的交通標(biāo)志檢測模型。本文所提出算法模型Ghost-YOLOv8的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,主要有4個改進(jìn)部分。針對當(dāng)前交通標(biāo)志的檢測模型過大的問題,引入GhostNet 網(wǎng)絡(luò)中的GhostConv 以及全新設(shè)計模塊C2fGhost來減少模型參數(shù)量;為確保模型算法集中于小目標(biāo)的檢測,引入GAM注意力機(jī)制;基于交通標(biāo)志的圖像數(shù)據(jù)集中遠(yuǎn)處目標(biāo)居多,即圖像中小目標(biāo)居多的現(xiàn)象,增加小目標(biāo)檢測層,如圖2中的黑色框內(nèi)所示;為提升網(wǎng)絡(luò)模型的邊界框回歸性能,引入GIoU損失函數(shù)。

        圖2 Ghost-YOLOv8模型結(jié)構(gòu)圖Fig.2 Model structure drawing of Ghost-YOLOv8

        2.1 GhostNet模塊

        GhostNet[23]是華為諾亞方舟實(shí)驗(yàn)室在2020 年設(shè)計的輕量級網(wǎng)絡(luò),Ghostconv 是GhostNet 網(wǎng)絡(luò)中的一個卷積模塊,可以代替普通的卷積。如圖3 所示,GhostNet輕量級網(wǎng)絡(luò)模型可以保持原有卷積輸出特征圖的尺寸以及通道大小的前提下,降低網(wǎng)絡(luò)的計算量和參數(shù)量,首先利用少量的普通卷積核對輸入的特征圖進(jìn)行特征信息的提取,然后對特征圖進(jìn)行相比普通卷積更加廉價的線性變化運(yùn)算,最后通過Concat生成最終的特征圖。

        圖3 GhostNet設(shè)計核心Fig.3 GhostNet design core

        如圖4所示,其中的Cheap operation是一種廉價的線性運(yùn)算,GhostConv首先使用原卷積一半大小的卷積生成一半的特征圖,接著繼續(xù)經(jīng)過一個5×5 卷積核、步長為1的廉價計算Cheap operation得到另一半特征圖,最后通過Concat 操作將兩部分特征圖拼接成完整的特征圖。

        圖4 GhostConv結(jié)構(gòu)Fig.4 GhostConv structure

        如圖5 所示,GhostBottelneck 首先經(jīng)過作為擴(kuò)展層的第一個GhostConv增加通道的數(shù)量,接著經(jīng)過正則化和SiLU 激活函數(shù),然后經(jīng)過第二個GhostConv 減少輸出特征圖的通道數(shù)使其與輸入通道數(shù)相匹配,最后將上一步得到的特征圖與殘差邊相加進(jìn)行特征融合。

        圖5 GhostBottelneck結(jié)構(gòu)Fig.5 GhostBottelneck structure

        如圖6所示,設(shè)計的全新模塊C2fGhost是將原網(wǎng)絡(luò)中C2f 模塊中的Bottelneck 全部替換為GhostBottelneck得到,該結(jié)構(gòu)利用跨階段特征融合策略和截斷梯度流技術(shù)增強(qiáng)不同網(wǎng)絡(luò)層間學(xué)習(xí)特征的可變性,從而減少冗余梯度信息的影響,增強(qiáng)網(wǎng)絡(luò)的學(xué)習(xí)能力。由于引入GhostConv和C2fGhost模塊減少了原結(jié)構(gòu)中大量的3×3的普通卷積,大大壓縮了網(wǎng)絡(luò)的模型大小,減少了參數(shù)量以及計算量,使得模型可以部署在移動端,更易實(shí)現(xiàn)交通標(biāo)志的邊緣計算檢測。

        圖6 C2fGhost結(jié)構(gòu)Fig.6 C2fGhost structure

        2.2 GAM注意力

        由于本文使用的數(shù)據(jù)集的圖像中背景占圖像的大部分,并且需要檢測的交通標(biāo)志中小目標(biāo)居多,為了提高模型對交通標(biāo)志的特征表達(dá)能力,本文算法模型中引入了GAM(global attention mechanism)注意力機(jī)制。GAM 是繼CBAM 后全新的注意力模塊,其結(jié)構(gòu)如圖7所示,是一種結(jié)合通道注意力機(jī)制和空間注意力機(jī)制的模塊,是可以在減少彌散信息的同時放大全局維度特征交互的注意力機(jī)制。通過給定一個特征圖F1,經(jīng)過兩個獨(dú)立的注意力子模塊,先通過通道注意力機(jī)制模塊對原特征圖進(jìn)行校正,得到中間狀態(tài)F2,然后經(jīng)過空間注意力機(jī)制模塊再次校正,得到最終特征圖F3。

        圖7 GAM注意力模塊Fig.7 GAM attention module

        通道注意力子模塊如圖8所示,使用三維排列來保留三維信息,然后利用兩層的多層感知器MLP 以此來放大跨維通道空間依賴關(guān)系。

        中間狀態(tài)的定義為式(1)(其中MC是通道注意圖,?表示基于元素的乘法):

        空間注意力子模塊如圖9 所示,輸入特征圖F2的大小為C×H×W,使用兩個7×7 的卷積來建模7×7 方塊中像素點(diǎn)的非線性關(guān)系,因此參數(shù)能夠更多捕獲像素空間之間的關(guān)系。

        圖9 空間注意力子模塊Fig.9 Spatial attention submodule

        中間狀態(tài)的定義為式(2)(其中MS是空間注意圖):

        2.3 小目標(biāo)檢測層

        由于小目標(biāo)樣本的尺寸較小并且YOLOv8 的下采樣倍數(shù)比較大,較深的特征圖比較難學(xué)到小目標(biāo)的特征信息,所以YOLOv8 原模型對小目標(biāo)的檢測能力較差。原始模型的輸入圖像大小640×640,最小檢測尺度80×80檢測每一個網(wǎng)格所得到的感受野是8×8,如果原始圖像中的目標(biāo)高寬均小于8像素,原網(wǎng)絡(luò)就難以識別網(wǎng)格內(nèi)的目標(biāo)特征信息。

        因此本文提出增加小目標(biāo)檢測層,如圖2中黑色框所示,在原來的網(wǎng)絡(luò)中增加160×160尺度的小目標(biāo)檢測層,其中包括補(bǔ)充的融合特征層以及引入的額外的檢測頭,以此增強(qiáng)小目標(biāo)的語義信息和特征表達(dá)能力。首先將Backbone中的第五層的80×80尺度特征層與Neck中的上采樣特征層繼續(xù)向上堆疊,經(jīng)過C2f和上采樣處理后得到包含小目標(biāo)特征信息的深層語義特征層,繼續(xù)與Backbone中的第三層的淺層位置特征層進(jìn)行堆疊,補(bǔ)充完善160×160 尺度融合特征層對小目標(biāo)語義特征以及位置信息的表達(dá)能力,最后經(jīng)過C2f送至Head中的一個額外的解耦頭(Decoupled Head)。

        Head部分的補(bǔ)充,使得小目標(biāo)的特征信息通過Head結(jié)構(gòu)繼續(xù)沿著下采樣路徑傳遞到其他三個尺度特征層,從而加強(qiáng)網(wǎng)絡(luò)的特征融合能力,提升小目標(biāo)的檢測精度;額外的解耦頭的引入,可以擴(kuò)大交通標(biāo)志的檢測范圍。檢測精度以及范圍的改進(jìn),使得網(wǎng)絡(luò)更加精確地識別道路旁的交通標(biāo)志。

        2.4 GIoU損失函數(shù)

        原始的YOLOv8 模型使用的是DFL Loss+CIoU Loss 作為回歸損失,但是CIoU 在縱橫交并比描述的相對值方面存在一定的模糊,并且沒有考慮難易樣本的平衡問題。因此本文引入GIoU Loss 代替CIoU Loss,GIoU 作為IoU 的改進(jìn)形式,同樣具有尺度不變性的優(yōu)點(diǎn),并且,相比IoU,GIoU 還考慮了目標(biāo)的非重疊區(qū)域,彌補(bǔ)了IoU 邊界損失函數(shù)無法量化真實(shí)框與預(yù)測框不相交的缺點(diǎn)。GIoU的定義為式(3):

        式中,C為包圍A、B的最小矩形框,IoU的取值區(qū)間為[0,1],而GIoU的取值區(qū)間為[-1,1],其中IoU的定義為式(4):

        GIoU作為損失函數(shù),表示為式(5):

        3 實(shí)驗(yàn)設(shè)計與結(jié)果分析

        3.1 TT100K數(shù)據(jù)集

        本實(shí)驗(yàn)使用由清華大學(xué)和騰訊的聯(lián)合實(shí)驗(yàn)室所整理公開的TT100K[24]中國交通標(biāo)志數(shù)據(jù)集,在中國5個不同城市中選擇了10 個區(qū)域,從騰訊數(shù)據(jù)中心下載了十萬張全景圖,每張全景圖的尺寸為8 192×2 048,通過水平滑動將每張圖片分割成4幅圖像,之后對圖像中的交通標(biāo)志進(jìn)行了邊界框標(biāo)注,類別標(biāo)注以及像素級標(biāo)注。其中包括警告、禁令、指示3 大類共120+個小類的中國交通標(biāo)志。本實(shí)驗(yàn)從其中選取了實(shí)例數(shù)都大于100 張的42 類交通標(biāo)志,其中6 598 張作為訓(xùn)練集,1 889 張作為測試集。

        3.2 實(shí)驗(yàn)環(huán)境與參數(shù)配置

        本實(shí)驗(yàn)在操作系統(tǒng)Ubuntu18.04 下進(jìn)行,GPU 為NVIDIA RTX 1080TI,主機(jī)內(nèi)存為12 GB,編程語言為Python3.8,使用CUDAv10.1 和CUDNNv7.1.4 對GPU 進(jìn)行加速,基于深度學(xué)習(xí)框架Pytorch1.7.1 進(jìn)行訓(xùn)練。訓(xùn)練參數(shù)設(shè)置如表1所示。

        表1 訓(xùn)練參數(shù)設(shè)置Table 1 Training parameter setting

        3.3 評價指標(biāo)

        本實(shí)驗(yàn)使用精確率Precision、召回率Recall、平均精度均值mAP 對模型進(jìn)行評價,其中精確率是指正確預(yù)測為正(TP)的占全部預(yù)測為正(TP+FP)的比例,計算公式如式(6)所示:

        而召回率是指正確預(yù)測為正(TP)的占實(shí)際為正(TP+FN)的比例,計算方式如式(7)所示:

        平均精度均值(mAP)中m 代表平均,AP@0.5 指的是當(dāng)混淆矩陣的IoU 的閾值取0.5 時,針對這一類樣本的平均精確度,而mAP@0.5 即是將所有的類別的樣本的Precision 值取平均值,它反映的是模型的精確率(Precision)隨召回率(Recall)的變化趨勢,該值越高代表模型越容易在高召回率下保持著高精確率;而mAP@0.5:0.95 則代表在不同IoU 閾值(從0.5 到0.95,步長0.05)上的平均mAP。計算方式如下所示:

        3.4 實(shí)驗(yàn)結(jié)果與分析

        3.4.1 對比實(shí)驗(yàn)

        為驗(yàn)證本文算法Ghost-YOLOv8 相比當(dāng)前熱門的交通標(biāo)志檢測模型的優(yōu)越性,以Precision、Recall、mAP@0.5、mAP@0.5:0.95、Parameters、Model size 作為評價指標(biāo),將本文算法與Faster R-CNN、YOLOv3、YOLOv4、YOLOX、YOLOv5、YOLOv7、YOLOv8、文獻(xiàn)[25]、文獻(xiàn)[26]算法在相同的條件下(統(tǒng)一的配置以及相同的數(shù)據(jù)集)進(jìn)行實(shí)驗(yàn)對比。

        根據(jù)表2 可得,YOLOv8n 在參數(shù)量及模型大小均小于其他五個網(wǎng)絡(luò)的情況下,精確率、回歸率、mAP 均優(yōu)于Faster R-CNN、YOLOv3-tiny、YOLOv4、YOLOX以及YOLOv7,雖然YOLOv5s 略高于YOLOv8n,但是YOLOv5s的參數(shù)量及模型大小差不多是YOLOv8n的兩倍。本文改進(jìn)算法Ghost-YOLOv8 相比原始YOLOv8n雖然FPS略微降低,但是改進(jìn)模型的參數(shù)量及模型大小更小,并且精確率等均優(yōu)于原始YOLOv8n 算法。并且相比近些年相關(guān)文獻(xiàn)算法如文獻(xiàn)[25]、文獻(xiàn)[26],本文算法在各個指標(biāo)方面都展現(xiàn)了其優(yōu)越性。

        表2 對比實(shí)驗(yàn)Table 2 Contrast experiment

        3.4.2 消融實(shí)驗(yàn)

        為了驗(yàn)證本文算法改進(jìn)模塊的有效性,以原始模型YOLOv8n為基線模型,并以Precision、Recall、mAP@0.5、mAP@0.5:0.95、Parameters、Model size 作為評價指標(biāo),通過多個改進(jìn)模塊不同的組合方式進(jìn)行消融實(shí)驗(yàn)。如表3所示。

        表3 消融實(shí)驗(yàn)Table 3 Ablation experiment

        根據(jù)表3可得,添加了小目標(biāo)檢測層的模型相比原始的YOLOv8n模型,Precision、Recall、mAP@0.5、mAP@0.5:0.95 分別提高了7.4、2.2、5、3.7 個百分點(diǎn);在添加了CBAM 注意力機(jī)制后,相比添加GAM 一些指標(biāo)都存在降低,所以選擇加入GAM注意力機(jī)制;添加了GAM 注意力機(jī)制后,Precision、mAP@0.5、mAP@0.5:0.95 分別提高了2.6、1、0.6個百分點(diǎn);添加了輕量化模型GhostConv以及設(shè)計的C2fGhost后,Precision提高了0.4個百分點(diǎn),并且模型參數(shù)量(Parameters)、模型大?。∕odel size)分別下降了0.576×109、1.12 MB;添加了GIoU 損失函數(shù)后,Recall、mAP@0.5、mAP@0.5:0.95 分別提高了5、1.2、0.7 個百分點(diǎn)。通過表3 的實(shí)驗(yàn)結(jié)果表明本文改進(jìn)后的Ghost-YOLOv8 模型相比較于原始的YOLOv8n 網(wǎng)絡(luò)模型,雖然FPS有略微下降,但是在Precision、Recall、mAP@0.5、mAP@0.5:0.95 上分別提高了9.5、4.5、6.5、4.5 個百分點(diǎn),并且模型的參數(shù)量(Parameters)、模型大?。∕odel size)分別下降了0.223×109、0.2 MB,證明了本文所提出的算法改進(jìn)的有效性。

        3.4.3 算法驗(yàn)證

        通過YOLOv5s、YOLOv8n 以及本文改進(jìn)的Ghost-YOLOv8 算法(從左至右)在交通標(biāo)志的檢測結(jié)果進(jìn)行可視化圖片對比,如圖10所示,根據(jù)A組以及B組的實(shí)驗(yàn)結(jié)果對比,可得到:改進(jìn)的Ghost-YOLOv8 算法具備更高的識別精度,證明本文算法可以改善遠(yuǎn)處較小目標(biāo)的交通標(biāo)志識別不佳的問題;并且根據(jù)C組的實(shí)驗(yàn)結(jié)果對比,可以看出改進(jìn)的算法可以檢測到其他模型檢測不到的目標(biāo),證明本文算法可以改善交通標(biāo)志目標(biāo)定位不準(zhǔn)確及目標(biāo)特征表達(dá)不充分的問題。

        圖10 交通標(biāo)志檢測效果對比圖Fig.10 Comparison of traffic sign detection effect

        4 結(jié)語

        本文提出一種高效、輕量的Ghost-YOLOv8 網(wǎng)絡(luò)模型來對交通標(biāo)志進(jìn)行檢測和識別,引入GhostConv模塊以及設(shè)計的全新模塊C2fGhost,減小了模型的參數(shù)量及模型大?。惶砑恿薌AM注意力模塊,提升了模型的特征融合能力;并增加了小目標(biāo)檢測層,提高了模型檢測小目標(biāo)的精確度;使用GIoU作為損失函數(shù),提升了網(wǎng)絡(luò)模型的邊界框回歸性能。改進(jìn)的Ghost-YOLOv8 網(wǎng)絡(luò)模型在精確率及mAP@0.5相比較于原始網(wǎng)絡(luò)模型分別提升了9.5、6.5 個百分點(diǎn),并且網(wǎng)絡(luò)的參數(shù)量及模型大小相較于原始網(wǎng)絡(luò)模型分別降低了0.223×109、0.2 MB。未來將在該模型基礎(chǔ)上繼續(xù)研究改進(jìn)網(wǎng)絡(luò)模型,使得模型在具有更高的檢測精度的同時擁有較快的檢測速度,且考慮該應(yīng)用方向在現(xiàn)實(shí)生活中所具有的實(shí)際應(yīng)用價值,后續(xù)也將對模型進(jìn)行邊緣移動平臺的移植驗(yàn)證和改進(jìn),使得模型更小、更易部署。

        猜你喜歡
        交通標(biāo)志注意力卷積
        交通標(biāo)志認(rèn)得清
        基于雙向特征融合的交通標(biāo)志識別
        讓注意力“飛”回來
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實(shí)現(xiàn)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        交通標(biāo)志小課堂
        我們歡迎你!
        亚洲中文字幕无码爆乳| 日日摸夜夜添夜夜添无码免费视频| 国产欧美日韩一区二区三区在线| 无码不卡高清毛片免费| 亚洲 无码 制服 丝袜 自拍| 欧美日本视频一区| 隔壁人妻欲求不满中文字幕 | 国产黑丝美腿在线观看| 护士的小嫩嫩好紧好爽| 欧美日韩中文国产一区发布| 大地资源网最新在线播放| 天堂Av无码Av一区二区三区| 午夜黄色一区二区不卡| 久久午夜av一区二区三区| 国产激情久久久久影院老熟女| 91老司机精品视频| 国产黄色看三级三级三级| 久久精品亚洲熟女av蜜謦| 免费看又色又爽又黄的国产软件| 国产精品r级最新在线观看| 亚洲av电影天堂男人的天堂| 亚洲丁香五月激情综合| 国产一区二三区中文字幕| 久久久久久人妻无码| 亚洲欧洲偷自拍图片区| 亚洲一区区| 亚洲女同免费在线观看| 日韩精品人妻久久久一二三| 女邻居的大乳中文字幕| 亚洲女同精品一区二区久久| 国产精品老女人亚洲av无| а天堂中文在线官网在线| 国产午夜福利小视频合集| 无码91 亚洲| 国语对白在线观看免费| 欧美性受xxxx狂喷水| 欧美深夜福利网站在线观看| 白丝美女扒开内露出内裤视频| 日韩欧美中文字幕公布| 丰满人妻无奈张开双腿av| 国产性色av一区二区|