亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)先驗(yàn)框和損失的交通標(biāo)志多尺度檢測(cè)

        2021-12-17 00:56:14李絲絳張榮芬劉宇紅
        關(guān)鍵詞:特征檢測(cè)

        李絲絳,張榮芬,劉宇紅

        (貴州大學(xué) 大數(shù)據(jù)與信息工程學(xué)院,貴陽(yáng) 550025)

        0 引言

        隨著交通問題的日益嚴(yán)峻,智能化交通的發(fā)展是當(dāng)今社會(huì)發(fā)展的一大趨勢(shì),交通標(biāo)志檢測(cè)與識(shí)別作為計(jì)算機(jī)視覺中一個(gè)重要的領(lǐng)域,是智能化交通發(fā)展中的重要一環(huán)。由于自然場(chǎng)景的復(fù)雜多變性及交通標(biāo)志本身在尺寸與距離上的特殊性,增加了目標(biāo)檢測(cè)和識(shí)別的難度。

        深度學(xué)習(xí)的快速發(fā)展為交通標(biāo)志識(shí)別帶來了新的思路,相比于過去基于顏色或形狀的檢測(cè)方法[1],基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的檢測(cè)方法能夠?qū)煌?biāo)志進(jìn)行準(zhǔn)確的定位和分類。2012 年Alex等人提出了AlexNet 網(wǎng)絡(luò)[2],在ImageNet 競(jìng)賽中獲得冠軍。該網(wǎng)絡(luò)使用雙GPU 并行處理,并采用卷積加全連接的網(wǎng)絡(luò)結(jié)構(gòu)對(duì)目標(biāo)進(jìn)行檢測(cè),在交通標(biāo)志類的大規(guī)模數(shù)據(jù)集的識(shí)別過程中,該網(wǎng)絡(luò)top-5 錯(cuò)誤率僅為15.3%;2015 年Redmon J[3]提出了用于目標(biāo)檢測(cè)的YOLOv3 網(wǎng)絡(luò)模型,其在交通標(biāo)志檢測(cè)與識(shí)別領(lǐng)域中有著很寬泛的應(yīng)用,通過多尺度單階段對(duì)交通標(biāo)志進(jìn)行檢測(cè);Mingyu Gao[4]等人提出了基于高斯混合模型和類別聚焦損失的交通標(biāo)志目標(biāo)檢測(cè)網(wǎng)絡(luò),并將類別比例因子納入網(wǎng)絡(luò)中,在提高識(shí)別精度的同時(shí)以解決數(shù)據(jù)集類別不平衡的問題;Chang Sun[5]等人采用單一對(duì)象檢測(cè)框架,并構(gòu)建稠密鏈接傳輸模塊對(duì)低像素交通標(biāo)志圖像進(jìn)行檢測(cè)并獲得上下文信息,從而進(jìn)行更為準(zhǔn)確的識(shí)別。目標(biāo)聯(lián)合交集(IoU)是目標(biāo)檢測(cè)中最為常用的評(píng)估指標(biāo)之一,Hamid Rezatofighi[6]等人提出了通用IoU,并將這一指標(biāo)以損失函數(shù)的改進(jìn)方式添加到經(jīng)典的目標(biāo)檢測(cè)算法(例如Fast R-CNN、Mask R-CNN)中,改進(jìn)后算法在檢測(cè)與識(shí)別精度上都獲得了顯著的提升;Khaled Bayoudn[7]等人提出了基于遷移學(xué)習(xí)的混合2D-3D 的CNN 模型,并通過上采樣和反卷積的操作組成空間語(yǔ)義檢測(cè)的架構(gòu),從而提升交通標(biāo)志檢測(cè)及識(shí)別的精度。

        本文以darknet-62為特征提取網(wǎng)絡(luò),以基于FPN 的五尺度預(yù)測(cè)網(wǎng)絡(luò)、先驗(yàn)框中心定位、基于GIoU的損失函數(shù)為改進(jìn)點(diǎn),用以提高在交通標(biāo)志檢測(cè)上的精確度。

        1 模型分析

        交通標(biāo)志檢測(cè)模型由特征提取網(wǎng)絡(luò)Darknet62和五尺度預(yù)測(cè)網(wǎng)絡(luò)組成,并在最淺輸出特征層添加先驗(yàn)框改進(jìn)設(shè)計(jì)方法,改進(jìn)后的模型結(jié)構(gòu)如圖1 所示?;贔PN 的五尺度預(yù)測(cè)網(wǎng)絡(luò)獲取豐富的上下文信息,以檢測(cè)尺寸較小的交通標(biāo)志;改進(jìn)的先驗(yàn)框設(shè)計(jì)從特征圖網(wǎng)格角度,解決與小目標(biāo)檢測(cè)有關(guān)的預(yù)測(cè)框定位問題;通過引入GIoU作為目標(biāo)定位損失函數(shù),優(yōu)化常用的目標(biāo)定位損失與最大化目標(biāo)檢測(cè)評(píng)估指標(biāo)IoU值之間的偏差問題,進(jìn)一步提高網(wǎng)絡(luò)的整體識(shí)別精度。

        圖1 交通標(biāo)志檢測(cè)網(wǎng)絡(luò)模型結(jié)構(gòu)Fig.1 Structure of traffic sign detection network model

        Darknet62 中,在卷積層后添加批次歸一化(Batch Normalization)層[8]和Mish 激活函數(shù),防止過度擬合并增加網(wǎng)絡(luò)的非線性表達(dá)能力,以CBM(卷積+批次歸一化+Mish 激活函數(shù))卷積作為Darknet62的基本單位;為了增加特征提取網(wǎng)絡(luò)的深度,同時(shí)避免訓(xùn)練過程梯度爆炸和梯度消失問題,使用1×1 CBM卷積和3×3 CBM 卷積執(zhí)行殘差連接[9],以形成res 殘差單元結(jié)構(gòu),并將resN 殘差塊結(jié)構(gòu)設(shè)計(jì)為由3×3 CBM 卷積和N res 殘差單元串聯(lián)連接。Darknet62 首先將輸入圖像的大小調(diào)整為512×512×3,然后使用3×3 CBM 卷積來過濾輸入圖像,依次使用res1、res2、res8、res8、res4、res4 對(duì)特征圖進(jìn)行下采樣,獲得的128×128×64、64×64×128、32×32×256、16×16×512、8×8×1024 這5 個(gè)特征圖層將通過特征融合[10],輸出5 個(gè)不同比例的特征圖,用于五尺度預(yù)測(cè)。

        1.1 基于FPN 的五尺度預(yù)測(cè)網(wǎng)絡(luò)

        淺層特征圖層的特征語(yǔ)義信息較少,不利于檢測(cè)目標(biāo)的分類,但像素豐富、分辨率高、目標(biāo)信息準(zhǔn)確;高深層特征圖層特征語(yǔ)義信息比較豐富,但像素較少、分辨率低、目標(biāo)位置不準(zhǔn)確。特征金字塔網(wǎng)絡(luò)(Feature Pyramid Networks,F(xiàn)PN)通過將低分辨率但強(qiáng)語(yǔ)義深層特征圖上采樣與高分辨率但弱語(yǔ)義淺層特征圖融合[11],構(gòu)建在所有層次上共享豐富語(yǔ)義的特征金字塔,極大提高了具有高分辨率、用以檢測(cè)小目標(biāo)的淺層輸出特征圖的目標(biāo)檢測(cè)精度。

        在五尺度預(yù)測(cè)網(wǎng)絡(luò)中,由卷積層、批次歸一化和線性整流ReLU 激活函數(shù)組成CBL(卷積+批次歸一化+ReLU 激活函數(shù))卷積,作為五尺度預(yù)測(cè)網(wǎng)絡(luò)的基本單元。同時(shí),使用CBL 卷積形成res 殘差單元和resN 殘差塊結(jié)構(gòu)。其次,為了增加預(yù)測(cè)網(wǎng)絡(luò)中的感受野,在Darknet62 之后添加了SPP 塊(由4 個(gè)具有不同比例(1、5、9、13)的maxpool 并行構(gòu)成并將輸出串聯(lián)在一起),SPP 塊在不影響網(wǎng)絡(luò)識(shí)別速度的同時(shí),可以顯著分離出最重要的上下文特征,并提高網(wǎng)絡(luò)識(shí)別精度。在SPP 塊前后添加3 個(gè)CBL 卷積(V3:CBL×3 Kernel:1,3,1)用以更好地匹配要素圖的大小和通道數(shù),并替換了基礎(chǔ)網(wǎng)絡(luò)的5 個(gè)CBL 卷積。

        為了充分利用網(wǎng)絡(luò)中淺層特征所包含的小目標(biāo)像素信息,更好檢測(cè)圖像中像素較小的交通標(biāo)志。如圖1 所示,本文基于FPN 思想,將Darknet62 的8×8×1024 特征圖經(jīng)過V1(CBL×3+maxpool×4+CBL×3)和V2(CBL×2)操作,獲得8×8×105 的輸出特征圖層;另將8×8×1024 特征圖,通過V1、1×1 CBL 卷積和上采樣(Up Sample)操作獲得新的特征圖,并與16×16×512 特征圖進(jìn)行特征融合。融合后的新圖層可以通過V5(CBL×7)操作獲得16×16×105 的輸出特征圖,通過V4(CBL×6)和上采樣(Up Sample)操作進(jìn)一步與更淺層特征圖32×32×256 特征融合。以此類推,分別在Darknet62 的其余64×64×128、128×128×64 特征圖上執(zhí)行類似操作。最終,預(yù)測(cè)網(wǎng)絡(luò)可以獲得五尺度預(yù)測(cè)結(jié)果,分別為128×128×280、64×64×2 105、32×32×105、16×16×105 和8×8×105。本次改進(jìn)將結(jié)合豐富語(yǔ)義信息的輸出圖層,分辨率提高到了128×128,因此預(yù)測(cè)網(wǎng)絡(luò)對(duì)于圖像中的較小較遠(yuǎn)的交通標(biāo)志將具有更好的性能。

        在前向過程中,預(yù)測(cè)網(wǎng)絡(luò)執(zhí)行邊界框回歸過程,將先驗(yàn)框(anchors)轉(zhuǎn)換為相應(yīng)的預(yù)測(cè)邊界框(predicted bounding box),依次通過設(shè)定的閾值和非極大值抑制(NMS)算法刪除不符合的預(yù)測(cè)邊界框[12]。最后,在圖像或視頻的相應(yīng)位置標(biāo)記,并輸出預(yù)測(cè)框和交通標(biāo)志的檢測(cè)類別。

        1.2 先驗(yàn)框改進(jìn)設(shè)計(jì)方法

        先驗(yàn)框是一組預(yù)設(shè)的邊框,用于定位輸入圖像中的目標(biāo)對(duì)象,一個(gè)先驗(yàn)框可以由邊框的縱橫比和邊框的面積(尺度)來定義,相當(dāng)于一系列預(yù)設(shè)邊框的生成規(guī)則。在圖像劃分的每一個(gè)網(wǎng)格(grid cell),生成一系列的邊框,需要在訓(xùn)練過程之前進(jìn)行設(shè)計(jì),通常使用K 均值(K-means)聚類得到先驗(yàn)框形狀和尺寸。對(duì)于每個(gè)真實(shí)標(biāo)注框(GTB),將選擇具有最大交并比(IoU)值,且IoU值高于閾值(通常為0.5)的先驗(yàn)框作為匹配項(xiàng)。

        通過研究發(fā)現(xiàn),為了更好適用于小目標(biāo)檢測(cè),原始的先驗(yàn)框設(shè)計(jì)方法并不是最佳的。因?yàn)樗邢闰?yàn)框的中心通常固定于每個(gè)網(wǎng)格的中心,即相對(duì)坐標(biāo)(0.5,0.5)。對(duì)于具有較小尺寸并且位于彼此相鄰的兩個(gè)網(wǎng)格或小型對(duì)象交界處的交通標(biāo)志,可能導(dǎo)致小目標(biāo)對(duì)象與GTB 丟失匹配,難以檢測(cè)精準(zhǔn)[13]。

        圖2(a)、(b)中的實(shí)線框feature map cell為最淺輸出特征圖(128×128)中的一個(gè)網(wǎng)格,居中虛線框代表未改進(jìn)的先驗(yàn)框,其中心與網(wǎng)格中心重合(0.5,0.5),角落虛線框代表改進(jìn)后的先驗(yàn)框。在圖2(a)中檢測(cè)目標(biāo)位于網(wǎng)格的角落,改進(jìn)框的中心坐標(biāo)為(0.25,0.75),明顯可以看出位于網(wǎng)格角落的小交通標(biāo)志(GTB)和改進(jìn)框之間的IoU要高于同一GTB 和未改進(jìn)框之間的IoU,因此改進(jìn)先驗(yàn)框更為適合;在圖2(b)中檢測(cè)目標(biāo)彼此相鄰,改進(jìn)框的中心坐標(biāo)分為(0.25,0.75)和(0.75,0.75),這類情況下,改進(jìn)框可以同時(shí)匹配兩個(gè)彼此相鄰的小型交通標(biāo)志(GTB1 和GTB2),而未改進(jìn)框只能匹配其中一個(gè),且匹配度不高。

        圖2 原始先驗(yàn)框設(shè)計(jì)的局限性Fig.2 The limitation of original prior bounding box design

        基于上述研究,本文對(duì)先驗(yàn)框的設(shè)計(jì)方法做出以下改進(jìn):

        (1)應(yīng)用k 均值聚類獲得先驗(yàn)框形狀

        原始網(wǎng)絡(luò)配置中,聚類獲得的先驗(yàn)框形狀適合于具有不同縱橫比的GTB(針對(duì)VOC 和COCO 數(shù)據(jù)集進(jìn)行聚類),但現(xiàn)實(shí)世界中的交通標(biāo)志通常具有相似的縱橫比。為了更適用于本文交通標(biāo)志檢測(cè),提高目標(biāo)檢測(cè)精度,通過對(duì)訓(xùn)練集的真實(shí)標(biāo)注框進(jìn)行K 均值聚類,獲得新的先驗(yàn)框形狀。其中,k設(shè)置為14(2 組尺度分配給最淺輸出特征圖,其余4 層輸出特征圖每層分配3 組尺度)。

        (2)確定先驗(yàn)框中心坐標(biāo)

        改進(jìn)模型將輸出5 個(gè)不同尺度的特征圖作為預(yù)測(cè)(五尺度預(yù)測(cè)網(wǎng)絡(luò))。在步驟1 中獲得的先驗(yàn)框形狀對(duì)應(yīng)于目標(biāo)對(duì)象的不同比例。其中最淺輸出特征圖(128×128)使用小型先驗(yàn)框,其具有小的感受野,針對(duì)小目標(biāo)具有更好的檢測(cè)效果。將兩組先驗(yàn)框尺度應(yīng)用于該特征圖上,并將先驗(yàn)框的中心坐標(biāo)分別設(shè)置為每個(gè)網(wǎng)格相對(duì)位置(0.25,0.25)、(0.25,0.75)、(0.75,0.25)和(0.75,0.75),使最淺的特征圖網(wǎng)格的先驗(yàn)框總數(shù)為2×4=8,其余4 層輸出特征圖先驗(yàn)框中心位置保持(0.5,0.5)不變,每個(gè)網(wǎng)格分配3 個(gè)尺度的先驗(yàn)框。

        1.3 改進(jìn)目標(biāo)定位損失函數(shù)

        IoU(交并比,Intersection over Union),是比較2 個(gè)任意形狀之間相似度的最常用指標(biāo)[13-14]。通過對(duì)目標(biāo)的形狀屬性進(jìn)行編碼(例如,將2 個(gè)比較的邊界框?qū)挾?、高度、位置放到region 屬性中。),然后計(jì)算歸一化度量。在目標(biāo)檢測(cè)中,通常使用預(yù)測(cè)框與真實(shí)標(biāo)注框IoU評(píng)價(jià)模型檢測(cè)性能。而目前常用的目標(biāo)定位損失函數(shù)則是預(yù)測(cè)框與真實(shí)標(biāo)注框角點(diǎn)坐標(biāo)距離的1-范數(shù)Loss 或者2-范數(shù)Loss。

        通常在優(yōu)化常用的目標(biāo)定位損失與最大化IoU值之間是存在差距的。如圖3(a),深色框代表預(yù)測(cè)框,淺色框代表真實(shí)標(biāo)注框。由于這3 個(gè)預(yù)測(cè)框的第二角都位于以真實(shí)標(biāo)注框的第二角為中心的固定半徑圓上,因此具有相同的2-范數(shù)Loss,但是其IoU值卻各不相同,顯而易見IoU值最高的第3 個(gè)檢測(cè)結(jié)果精確度更好;同理,如圖3(b),當(dāng)1-范數(shù)Loss相同時(shí),IoU值和檢測(cè)效果也各不相同。直觀的是,針對(duì)1-范數(shù)Loss 和2-范數(shù)Loss 的良好局部最優(yōu)不一定是評(píng)價(jià)指標(biāo)IoU的局部最優(yōu),而要使檢測(cè)性能最優(yōu)選擇就是指標(biāo)本身[15]。

        圖3 相同范數(shù)Loss 的不同IoU 和GIoUFig.3 Different IoU and GIoU with the same norm loss

        但是IoU作為損失函數(shù)仍然存在2 個(gè)問題:

        (1)如果真實(shí)標(biāo)注框與預(yù)測(cè)框不重疊,則IoU值將為0,并且反映兩個(gè)框之間的距離。如果將IoU用作Loss,則其梯度將為零且無(wú)法優(yōu)化。

        (2)IoU對(duì)于預(yù)測(cè)框與真實(shí)標(biāo)注框之間不同的對(duì)齊方式,是無(wú)法進(jìn)行辨認(rèn)的。

        基于以上問題,本文通過引入GIoU[16](Generalized Intersection over Union,通用IoU)作為損失函數(shù),以解決IoU存在的非重疊問題。GIoU的計(jì)算過程如下:

        (1)對(duì)于預(yù)測(cè)框A和真實(shí)標(biāo)注框B,找到最小的包圍凸對(duì)象C,并將A和B都包圍起來。

        (2)計(jì)算IoU:

        (3)以C 占用的面積(不包括A 和B)的部分為分子,以C 占用的總面積為分母,代表著重于A 和B 之間的空白部分的標(biāo)準(zhǔn)化度量。最后,通過從IoU值中減去此比率來獲得GIoU:

        (4)與IoU類似,GIoU作為距離度量[17],loss 計(jì)算公式如下:

        GIoU具有以下屬性:

        (1)具有與IoU相同的定義,即將比較對(duì)象的形狀屬性編碼為region 屬性。

        (2)保持了IoU的尺度不變性,以及對(duì)目標(biāo)大小的不敏感性。

        (3)GIoU始終作為IoU的下界,即?A,B GIoU(A,B)≤IoU(A,B)。同時(shí)在預(yù)測(cè)框與真實(shí)標(biāo)注框重疊度增加的情況下,確保了與IoU的強(qiáng)相關(guān)性。即,在A和B形狀完全重合時(shí),則有GIoU=IoU=1。

        (4)由于 引入了最小包圍凸對(duì)象C,即使A、B不重合時(shí),LGIoU依然可以進(jìn)行優(yōu)化。當(dāng)A和B不重合度越高,GIoU越趨近于-1。

        總之,GIoU既保留了IoU的主要特性,同時(shí)解決了IoU存在的問題。

        2 實(shí)驗(yàn)與結(jié)果分析

        2.1 交通標(biāo)志數(shù)據(jù)集

        本文采用的數(shù)據(jù)集為中國(guó)交通標(biāo)志違規(guī)概率top30 數(shù)據(jù)集,由Gao[4]等人整理貢獻(xiàn)。該數(shù)據(jù)集包含Go Straight Slot、No Entry、Bus-only Lane、Speed Limit 120、Left Turn Slot、No Trucks、One-way Road等30 類交通標(biāo)志,共10 000張圖片,其中每張包含1~6 個(gè)交通標(biāo)志。在數(shù)據(jù)集中,將劃分7 000個(gè)樣本作為訓(xùn)練集,3 000 個(gè)樣本作為測(cè)試集。

        2.2 實(shí)驗(yàn)環(huán)境和參數(shù)設(shè)置

        硬件環(huán)境:CPU為Intel ? CoreTMi7-7800X 6核,GPU為GTX1080Ti,顯存大小11 GB,運(yùn)行內(nèi)存64 GB。

        軟件環(huán)境:操作系統(tǒng)Ubuntu16.04、OpenCV3.4.1、Tensorflow1.6.0、Python 3.6、Keras 2.1.5。

        使用k-means++聚類算法對(duì)交通標(biāo)志數(shù)據(jù)集的真實(shí)標(biāo)注標(biāo)注框進(jìn)行聚類操作,得到對(duì)應(yīng)5 個(gè)輸出特征圖的14 組anchor,尺寸分別為:

        此外,訓(xùn)練階段通過更改網(wǎng)絡(luò)配置文件參數(shù),對(duì)訓(xùn)練集進(jìn)行旋轉(zhuǎn)、飽和度調(diào)整、曝光度調(diào)整、色調(diào)調(diào)整、噪聲調(diào)整等數(shù)據(jù)增強(qiáng)預(yù)處理,在原有數(shù)據(jù)集基礎(chǔ)上生成更多訓(xùn)練樣本,提高模型泛化能力。

        基于遷移學(xué)習(xí)的方法,使用在coco 數(shù)據(jù)集上的darknet-62 預(yù)訓(xùn)練模型作為基礎(chǔ)特征提取網(wǎng)絡(luò)。

        輸入圖像大小調(diào)整為512×512,圖像通道數(shù)為3。在迭代過程中,batchsize 設(shè)置為16,優(yōu)化器選擇SGD 算法[18],初始學(xué)習(xí)率設(shè)置為0.001,動(dòng)量和權(quán)重衰減分別配置為0.9 和0.000 5,最大迭代次數(shù)設(shè)置為50 200,并在迭代次數(shù)達(dá)到40 000和45 000時(shí),學(xué)習(xí)率分別更改為0.000 1 和0.000 01。在訓(xùn)練階段,網(wǎng)絡(luò)參數(shù)會(huì)迭代更新,直到迭代次數(shù)達(dá)到預(yù)設(shè)值,或者損失函數(shù)的變化小于閾值,獲得最終訓(xùn)練模型。

        2.3 實(shí)驗(yàn)結(jié)果分析

        為了有效說明算法對(duì)交通標(biāo)志檢測(cè)的性能優(yōu)勢(shì),將本文算法與幾種最新交通標(biāo)志識(shí)別算法在相同條件下進(jìn)行了性能比較實(shí)驗(yàn)。評(píng)價(jià)指標(biāo)使用模型大?。⊿ize),每秒幀數(shù)(FPS):判斷網(wǎng)絡(luò)識(shí)別速度的指標(biāo),其值越大,網(wǎng)絡(luò)的識(shí)別速度越快;平均精度均值(mAP,mean average precision):30 類交通標(biāo)志平均精度(AP)的平均值;平均精確率(AP,average precision):每一類別被正確檢測(cè)出來的交通標(biāo)志占全部檢出區(qū)域的百分比,APS、APM、APL分別代表小型交通標(biāo)志、中型交通標(biāo)志、大型交通標(biāo)志的平均精確率。實(shí)驗(yàn)結(jié)果見表1。其中,方法A-F分別代表基于改良的FasterR-CNN[19]、SSD[20]、RefineDet[21]、RetinaNet50[22],基于GMM 和類別質(zhì)量焦點(diǎn)損失優(yōu)化算法[4]及基于YOLOv3 交通標(biāo)志識(shí)別算法[23]。以加粗字體代表最佳結(jié)果。

        表1 不同交通標(biāo)志檢測(cè)算法的性能對(duì)比Tab.1 Objective evaluation of the performance of different traffic sign recognition algorithms

        從表1 中可以看出,與兩階段算法改進(jìn)的Faster R-CNN(A)相比,本文算法的檢測(cè)速率高于其3 倍多,同時(shí)在mAP、APS、APM、APL均取得更好的檢測(cè)效果。與一階段算法中表現(xiàn)較優(yōu)的YOLOv3(F)和基于GMM 和類別質(zhì)量焦點(diǎn)損失優(yōu)化算法(E)相比,本文算法在模型尺寸和檢測(cè)速率上略占劣勢(shì)。但本文算法通過選用相較于YOLOv3 的特征提取網(wǎng)絡(luò)層數(shù)更深的darknet-62 網(wǎng)絡(luò)、結(jié)合損失函數(shù)改進(jìn)提升了模型的整體檢測(cè)精度,同時(shí)融合基于FPN 的五尺度預(yù)測(cè)網(wǎng)絡(luò)、改進(jìn)先驗(yàn)框設(shè)計(jì),顯著優(yōu)化了小型交通標(biāo)志的檢測(cè)性能,在mAP、APS、APM、APL相較于檢測(cè)精度第二的結(jié)果分別提高了3.5%、5.2%、2.2%、1.1%,其中小型交通標(biāo)志檢測(cè)性能提升顯著。

        本文算法與改良的FasterR-CNN 算法(A)、基于GMM 和類別質(zhì)量焦點(diǎn)損失優(yōu)化算法(E)的檢測(cè)效果對(duì)比如圖4 所示。在背光環(huán)境下的圖4(a)~(c)中,本文算法能夠較為精準(zhǔn)的檢測(cè)出不同遠(yuǎn)近的交通標(biāo)志,而A 算法漏檢了遠(yuǎn)處較暗的Strictly No Parking 交通標(biāo)志,E 算法檢測(cè)精度較低,對(duì)于較遠(yuǎn)且相鄰的小交通標(biāo)志的定位也不夠精準(zhǔn);在遮擋環(huán)境下圖4(d)~(f)中,本文算法對(duì)部分遮擋的交通標(biāo)志識(shí)別置信度達(dá)0.86,而A 算法和E 算法僅有0.62 和0.74;在多目標(biāo)復(fù)雜環(huán)境下圖4(g)~(i)中,本文算法能將圖中多達(dá)6 個(gè)不同尺寸和角度交通標(biāo)志無(wú)遺漏檢測(cè),而A 算法和E 算法均存在不同程度的漏檢和置信度降低。

        圖4 各算法檢測(cè)效果對(duì)比Fig.4 Comparison of detection effect of each algorithm

        3 結(jié)束語(yǔ)

        本文融合基于FPN 的五尺度預(yù)測(cè)網(wǎng)絡(luò),將輸出特征層的分辨率提高到128×128,為小型交通標(biāo)志生成豐富的上下文信息,改進(jìn)了先驗(yàn)框設(shè)計(jì)方法,更精準(zhǔn)的檢測(cè)位于特征圖單元拐角處的小型交通標(biāo)志或相鄰的小型交通標(biāo)志。由于度量的最佳損失是度量本身,通過引入GIoU-Loss 用作損失函數(shù),提升模型整體檢測(cè)精度。結(jié)合上述改進(jìn),本文相比較最新算法,在檢測(cè)小型交通標(biāo)志(<322 像素)方面具有顯著提升效果,并且在平均檢測(cè)精度、中型(322 像素<中<962 像素)和大型交通標(biāo)志(962 像素<大<4 002像素)方面也獲得了更好的性能。但是由于模型參數(shù)較多,仍然占用過多空間,同時(shí)圖像檢測(cè)時(shí)間仍有待提高,如何在保持甚至進(jìn)一步優(yōu)化檢測(cè)精度的基礎(chǔ)上,簡(jiǎn)化網(wǎng)絡(luò)結(jié)構(gòu)、降低計(jì)算量將是未來的主要研究方向。

        猜你喜歡
        特征檢測(cè)
        抓住特征巧觀察
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        “幾何圖形”檢測(cè)題
        “角”檢測(cè)題
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        韩国三级中文字幕hd| 亚洲av无码专区电影在线观看 | 婷婷亚洲久悠悠色悠在线播放| 久久青草伊人精品| 日韩极品视频在线观看免费| 丰满老熟女性生活视频| 精品国际久久久久999波多野| 玩弄丰满奶水的女邻居| 美丽人妻被按摩中出中文字幕 | 精品人妻潮喷久久久又裸又黄| 国产在线一区二区三区av| 久久久人妻丰满熟妇av蜜臀| 亚洲精品中文字幕免费专区| 亚州性无码不卡免费视频| 疯狂做受xxxx高潮欧美日本| 91中文人妻丝袜乱一区三区| 亚洲第一女优在线观看| 性无码一区二区三区在线观看| 巨胸喷奶水www视频网站| 在线一区不卡网址观看| 日本成人三级视频网站| 不卡av一区二区在线| 麻花传媒68xxx在线观看| 日韩人妻精品无码一区二区三区| 国产在线手机视频| 性视频毛茸茸女性一区二区| 中文字幕人成人乱码亚洲av| 日本不卡一区二区三区在线| 精品不卡久久久久久无码人妻| 国产精品一级av一区二区| 91久久精品一区二区三区大全| 极品尤物一区二区三区| 狠狠躁夜夜躁人人爽天天天天97| 高跟丝袜一区二区三区| 亚洲国产精品久久无人区| 亚洲精品乱码久久久久久不卡| 国产精自产拍久久久久久蜜| 亚洲AV永久天堂在线观看| 一区二区三区免费自拍偷拍视频| 国产爆乳无码一区二区麻豆| 国产午夜影视大全免费观看|