亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Cache-DCN YOLOX算法的交通標(biāo)志檢測方法研究

        2024-02-29 04:21:36高尉峰王如剛王媛媛郭乃宏
        計算機測量與控制 2024年2期
        關(guān)鍵詞:檢測模型

        高尉峰,王如剛,王媛媛,周 鋒,郭乃宏

        (1.鹽城工學(xué)院 信息工程學(xué)院,江蘇 鹽城 224051;2.鹽城雄鷹精密機械有限公司,江蘇 鹽城 224006)

        0 引言

        在無人駕駛系統(tǒng)中,交通標(biāo)志對于車輛的行駛具有非常重要的作用。作為自動駕駛中的關(guān)鍵技術(shù),交通標(biāo)志檢測識別精度的提升對于經(jīng)濟(jì)發(fā)展、社會和諧相處都具有十分重要的意義。傳統(tǒng)的目標(biāo)檢測方法主要依靠人工自主選擇特征從而進(jìn)行訓(xùn)練,如HOG、SIFT、Haar等[1-3],該類方法不僅計算量大,且檢測速度和精度都不能滿足實際的應(yīng)用需求。隨著深度神經(jīng)網(wǎng)絡(luò)的逐漸完善,由于較強的特征提取能力,深度神經(jīng)網(wǎng)絡(luò)技術(shù)被廣泛應(yīng)用于目標(biāo)檢測任務(wù)中。目前,常用的目標(biāo)檢測算法有以YOLO[4-6]系列算法、SSD[7-8]系列算法為代表的單階段算法和以R-CNN[9-10]系列算法為代表的兩階段算法。其中單階段算法是將目標(biāo)檢測過程看作一個回歸問題來處理,而兩階段算法則是先產(chǎn)生一個建議區(qū)域,再對該區(qū)域進(jìn)行分類及邊界框回歸,提取特征。由于具有良好的實時性,因此,單階段檢測被更多地應(yīng)用在交通標(biāo)志檢測領(lǐng)域,許多研究人員對單階段算法進(jìn)行了優(yōu)化以便更好地檢測交通標(biāo)志。如,為了解決天氣的干擾對交通標(biāo)志檢測的影響問題,代小宇等研究人員在YOLOv5中加入了SE注意力機制并融合雙向特征金字塔BiFPN,相比于原算法,檢測精度和召回率分別提高了7.94%和4.98%[11]。針對交通標(biāo)志在圖像中占據(jù)位置小、檢測中精度較低的問題,尹宋麟等研究人員在YOLOv4的基礎(chǔ)上,使用152×152的尺度檢測層替代原有的19×19的大感受野檢測層,并加入了ECA模塊去提高算法的檢測能力,在TT100K數(shù)據(jù)集上訓(xùn)練的準(zhǔn)確率相較于原算法提升了4.58%[12]。為解決交通標(biāo)志檢測任務(wù)中,在復(fù)雜路況出現(xiàn)錯檢漏檢的情況,趙宏等研究人員提出了一種改進(jìn)的CGS-Ghost YOLO算法,將Focus模塊用StemBlock代替進(jìn)行采樣,降低了模型的參數(shù)量的同時提高了模型的檢測精度[13]。為了提高各個類別的檢測精度,Dubey等研究人員在RetinaNet的框架上以更多層數(shù)的ResNet為基礎(chǔ)網(wǎng)絡(luò),同時提出一種兩步TSR方法,在交通標(biāo)志數(shù)據(jù)集CCTSDB上進(jìn)行分類檢測,得到了較好的檢測精度[14-16]。為解決目標(biāo)檢測過程中計算量大的問題,Rachmadi等研究人員提出了一種新型的輕量級空間金字塔卷積神經(jīng)網(wǎng)絡(luò)分類結(jié)構(gòu),該結(jié)構(gòu)將每一層金字塔所學(xué)習(xí)到的特征與第一層疊加,使得每一層網(wǎng)絡(luò)所能得到的學(xué)習(xí)區(qū)域更加平滑,最后的檢測訓(xùn)練實現(xiàn)了在較低的計算量基礎(chǔ)上有著良好的檢測精度[17]。為解決交通標(biāo)志檢測速度低的問題,黨宏社等研究人員在YOLOv5算法上引入了MobileNetv3主干網(wǎng)絡(luò),結(jié)合了RFB模塊與ECA-Net模塊,并采用了Matrix NMS篩選候選框,最終對交通標(biāo)志實現(xiàn)了更快的檢測速度[18]。為解決傳統(tǒng)檢測方法速度慢、精度低的問題,呂禾豐等研究人員使用加權(quán)Cluster非極大值抑制(NMS)代替YOLOv5的加權(quán)NMS算法,提高了生成檢測框的準(zhǔn)確率,改進(jìn)后的算法比原算法提高了6.23%的準(zhǔn)確率[19]。為了解決交通標(biāo)志檢測實時性不足的問題,王林等研究人員在YOLOv3算法中融入了金字塔池化模塊SPP,并充分利用上下文信息增強對小目標(biāo)的檢測,實現(xiàn)了更快的檢測速度,并提高了對小目標(biāo)的檢測精度[20]。從現(xiàn)有的研究結(jié)果來看,眾多學(xué)者基于單階段目標(biāo)檢測算法做出改進(jìn),能夠良好地提升檢測精度,但是對于受干擾較大的交通標(biāo)志例如遮擋、陰影或小目標(biāo)交通標(biāo)志等,無法實現(xiàn)更好的特征提取,使得檢測精度難以進(jìn)一步提高。

        為了加強模型的特征提取能力,本文提出了一種基于緩存方案和可變形卷積的YOLOX優(yōu)化算法。首先將骨干網(wǎng)絡(luò)中普通的卷積模塊替換成DCN可變形卷積,使得模型在應(yīng)對不規(guī)則形狀的目標(biāo)物體時,能夠更加精確地感知和定位;然后使用EIOU損失函數(shù)替換原有的GIOU損失函數(shù),提高收斂速度和回歸精度;最后使用多種數(shù)據(jù)增強的模式來提升模型的性能,并加入cache方案提升其檢測速度及精度。

        1 YOLOX算法

        YOLOX-Darknet53算法的骨干網(wǎng)絡(luò)采用了5個ResX殘差組件和32倍下采樣的特征提取方式,并保留了先驗的YOLOv3算法的Darknet-53骨干網(wǎng)絡(luò)和FPN頸部網(wǎng)絡(luò)。這個模型設(shè)計了3個解耦頭,采用分類和定位分離的方法來緩解深骨干網(wǎng)絡(luò)所帶來的性能瓶頸。在輸入為640×640×3的圖像下,3個解耦頭輸出尺度大小分別為20×20×85、40×40×85、80×80×85,最終拼接轉(zhuǎn)置輸出尺度大小為85×8 400。此外,該算法還使用了SPP子模塊和FPN子模塊實現(xiàn)多尺度空間特征的融合。跟之前的YOLO系列算法相比,YOLOX算法具有更好的性能,能夠?qū)崿F(xiàn)更高的準(zhǔn)確率及更快的速度。YOLOX-Darknet53的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。從圖1中可以看出,YOLOX-Darknet53中引入了大量殘差結(jié)構(gòu),主干網(wǎng)絡(luò)部分,用卷積層代替Darknet19中的最大池化下采樣層,輸入的640×640×3圖像通過堆疊的下采樣卷積和n個殘差塊,得到3張分別為原圖像1/8、1/16、1/32大小的特征圖(feature map),隨后對3張?zhí)卣鲌D進(jìn)行上采樣和下采樣,通過解耦檢測頭后,進(jìn)行多尺度特征融合,最終輸出85×8 400的圖像。

        圖1 YOLOX-Darknet53網(wǎng)絡(luò)結(jié)構(gòu)圖

        2 YOLOX算法改進(jìn)

        2.1 backbone部分改進(jìn)優(yōu)化

        各算法基本結(jié)構(gòu)如圖2所示,從圖2(a)可以看出,YOLOX中使用的是1×1與3×3卷積的Basic Block。從圖2(b)可以看出,在YOLOv6、YOLOv7中,使用的是重參數(shù)化Block,但重參數(shù)化的訓(xùn)練代價高,且不易量化,需要其他方式來彌補量化誤差。如圖2(c)所示,本文則將Darknet中的1×1卷積替換成3×3卷積,并將原有模塊中的3×3卷積替換成了3×3可變形卷積,利用可變形卷積的形變建模能力,提高網(wǎng)絡(luò)模型的特征提取能力,從而更精確地檢測目標(biāo)。改進(jìn)后的模型整體框架如圖3所示,從圖3中可以看出,本文的算法改進(jìn)了CspLayer中的CspBlock部分,在YOLOX的主干網(wǎng)絡(luò)中,殘差卷積的主干部分為1×1卷積和3×3卷積,改進(jìn)模型則為CspBlock中加入了3×3的可變形卷積來增大模型的感受野,加強模型主干特征提取網(wǎng)絡(luò)的性能。輸入的特征圖首先經(jīng)過DCNConv(Deformable Convolutional Networks Convolution),在可變形卷積中,每個位置的卷積核都會根據(jù)該位置的偏移量進(jìn)行調(diào)整,以更好地適應(yīng)目標(biāo)形狀和姿態(tài)變化,然后再通過一些附加的卷積層進(jìn)行特征提取和壓縮,最終得到預(yù)測框的類別和位置信息。在檢測交通標(biāo)志時,可變形卷積所帶來了更大的感受野,能夠使得模型在檢測時能夠獲取到更豐富的關(guān)鍵特征,對于小目標(biāo)、遮擋等交通標(biāo)志的檢測能夠?qū)崿F(xiàn)更高的檢測精度。

        圖2 算法的Basic Block對比示意圖

        圖3 改進(jìn)模型整體框架圖

        可變形卷積(Deformable Convolution)是一種基于空間變形的卷積運算方法,在卷積神經(jīng)網(wǎng)絡(luò)中常被用來處理具有空間變形特征的圖像。相較于傳統(tǒng)的卷積操作,可變形卷積具有更強的自適應(yīng)能力和更好的感受野控制能力,能夠?qū)δ繕?biāo)物體的不規(guī)則形狀進(jìn)行更加精確的感知和定位。

        標(biāo)準(zhǔn)的卷積操作通??梢苑譃閮刹糠郑?)在輸入的特征圖上使用標(biāo)準(zhǔn)固定網(wǎng)格進(jìn)行采樣;2)對各個采樣點的數(shù)值進(jìn)行加權(quán)運算。特征圖的標(biāo)準(zhǔn)卷積可以用式(1)表示:

        y(p0)=∑pn∈Rw(pn)·x(p0+pn)

        (1)

        其中:p0為特征圖的原始位置;pn為包含采樣點中所列位置;R為每個分塊的索引編號;w(pn)為權(quán)重;x(p0+pn)為原始圖。由式(1)可知,在標(biāo)準(zhǔn)卷積中,每個卷積核所對應(yīng)的權(quán)重是相同的。而可變形卷積則引入了額外的偏移量,使得卷積核可以基于輸入特征圖的空間變化進(jìn)行自適應(yīng)調(diào)整,因此特征圖的映射關(guān)系可以用式(2)表示:

        y(p0)=∑pn∈Rw(pn)·x(p0+pn+Δpn)

        (2)

        其中:Δpn為偏移量;x(p0+pn+Δpn)和y(p0)為原始圖以及卷積所得特征圖的映射關(guān)系,可變形卷積的操作過程如圖4所示,首先使用傳統(tǒng)的卷積核提取特征圖,得到特征響應(yīng)映射(Feature Response Map)。將上一步得到的特征響應(yīng)映射作為可變形卷積操作的輸入,對其施加一個新的卷積層,生成2N個通道的偏移量特征圖,其中N表示卷積核大小。每兩個通道代表著一個坐標(biāo)偏移量,即用來描述卷積核在該位置上的位移距離,這些偏移量可以隨著訓(xùn)練進(jìn)行不斷地調(diào)整,以適應(yīng)不同的輸入圖像。對偏移量特征圖進(jìn)行雙線性插值,將其上采樣至與輸入特征圖相同大小,以便后面能夠使用偏移量特征圖來調(diào)整卷積核的位置和大小。最后,結(jié)合上采樣后的偏移量特征圖和原始輸入特征,在反向傳播算法的優(yōu)化下同時學(xué)習(xí)它們,以獲得動態(tài)調(diào)整可變形卷積核的大小和位置的能力。

        圖4 可變形卷積結(jié)構(gòu)示意圖

        本文基于可變形卷積構(gòu)建basic block,在基礎(chǔ)的3×3卷積后,再使用3×3的可變形卷積進(jìn)行特征提取加強,增大了其感受野,從而能夠更好地提取特征,提高檢測的準(zhǔn)確率。

        2.2 損失函數(shù)改進(jìn)

        損失函數(shù)是一個衡量模型預(yù)測值和真實值之間差距的函數(shù),在目標(biāo)檢測中扮演著非常重要的角色,選擇一個合適的良好的損失函數(shù)能夠加強模型的性能,使模型更快更好地收斂。而IoU損失函數(shù)則是一種在目標(biāo)檢測任務(wù)中常用的評估方法,它能夠很好地反映模型預(yù)測框與真實標(biāo)注框之間的重疊程度。該損失函數(shù)可以幫助模型優(yōu)化預(yù)測結(jié)果,使其更加準(zhǔn)確地匹配實際標(biāo)注,IoU及IoU的損失函數(shù)可分別用式(3)和式(4)表示:

        (3)

        (4)

        其中:B表示預(yù)測框的面積;Bi表示真實框的面積。IoU損失函數(shù)可以將預(yù)測框與真實框之間的重疊程度表示為0~1之間的值以評估檢測效果。但是在現(xiàn)實情況下,存在預(yù)測框與真實框不相交的情況,這樣就無法進(jìn)行有效地學(xué)習(xí)。此外,IoU并沒有考慮預(yù)測框與真實框之間的距離,無法精確地反映兩者之間的重合度情況。因此,在這些情況下,IoU損失函數(shù)的效果可能會受到影響。

        因此YOLOX算法使用了GIOU損失函數(shù)。GIoU損失函數(shù)的公式可用式(5)表示:

        (5)

        其中:C為最小外接矩形的面積。GIoU在計算時,是以公式中的C-B∪Bi除去兩個框的其余面積,然而在預(yù)測框和真實框在相同距離的情況下,此部分面積最小,對Loss的貢獻(xiàn)也就越小,從而導(dǎo)致在垂直水平方向上回歸效果較差,模型的收斂速度慢。

        因此,本文采用了EIOU損失函數(shù)來替換YOLOX所使用的損失函數(shù)。相比于GIOU損失函數(shù),EIoU用分別計算寬高的差異值取代了縱橫比,同時引入Focal Loss解決難易樣本不平衡的問題。EIoU損失函數(shù)將最小外接矩形替換為最小化兩個框中心點的標(biāo)準(zhǔn)化距離,并分開計算目標(biāo)框的長和寬。EIoU損失函數(shù)可用式(6)表示:

        (6)

        其中:b和bgt分別為預(yù)測框和真實框的中心點,ρ為兩個中心點的歐氏距離,d為預(yù)測框和真實框最小外接矩形的對角線距離,ω、ωgt、h、hgt分別為預(yù)測框和真實框的寬度與長度,cω、ch為覆蓋兩個框的最小外接矩形的寬度與長度。EIoU損失函數(shù)考慮了預(yù)測框和真實框的重疊部分對結(jié)果的影響,在計算IoU時,使用一個權(quán)重因子來平衡兩個框的面積,并將重疊部分的貢獻(xiàn)歸屬到各自的框中。這樣可以更準(zhǔn)確地評估預(yù)測框和真實框的位置關(guān)系,避免了GIoU中出現(xiàn)兩個框并集等于其中一個框面積的情況,提升了收斂的速度和回歸精度。

        為了解決GIoU損失函數(shù)在目標(biāo)框水平和垂直方向上誤差較大的問題,并提高收斂速度和回歸精度,本文算法采用EIoU損失函數(shù)替換原來的損失函數(shù)。EIoU損失函數(shù)將目標(biāo)框的長度和寬度分開計算,從而避免了GIoU損失函數(shù)誤差較大的問題,同時提高了收斂速度和回歸精度,更準(zhǔn)確地確定兩個框的位置關(guān)系。在模型訓(xùn)練時,能夠帶來更好的收斂效果,從而提高模型對于交通標(biāo)志的檢測精度。

        2.3 數(shù)據(jù)增強改進(jìn)

        在模型的訓(xùn)練過程中,為了保證訓(xùn)練的樣本充足,需要對樣本做數(shù)據(jù)增強,來提高樣本的質(zhì)量和數(shù)量,從而提升模型的泛化能力。在很多目標(biāo)檢測器中,Mosaic+Mixup的混合數(shù)據(jù)增強方式被廣泛應(yīng)用,但是Mosaic+Mixup的數(shù)據(jù)增強方式失真度比較高,持續(xù)使用這種太強的數(shù)據(jù)增強對模型產(chǎn)生負(fù)面影響。于是YOLOX中采用的是強弱兩階段的數(shù)據(jù)訓(xùn)練方式,但是YOLOX中的訓(xùn)練引入了旋轉(zhuǎn)、切片以及翻轉(zhuǎn),導(dǎo)致box標(biāo)注產(chǎn)生誤差。

        于是對于此模塊,本文采用多種數(shù)據(jù)增強的方式來增加模型的性能,主要包括單圖數(shù)據(jù)增強以及混合類數(shù)據(jù)增強,其中包括交通標(biāo)志圖像色相調(diào)整、飽和度調(diào)整、明度調(diào)整、平移和 Mosaic以及MixUp。但是其中取消了旋轉(zhuǎn)、切片以及翻轉(zhuǎn)的數(shù)據(jù)增強方式,因為部分交通標(biāo)志經(jīng)過旋轉(zhuǎn)及翻轉(zhuǎn)等方式后,將會導(dǎo)致其含義改變,如圖5所示的部分交通標(biāo)志展示圖,列舉的兩種不同的交通標(biāo)志在旋轉(zhuǎn)或翻轉(zhuǎn)后,將會導(dǎo)致檢測的誤差。

        圖5 旋轉(zhuǎn)后會改變含義的部分交通標(biāo)志圖

        模型的數(shù)據(jù)增強模塊采用強弱兩階段訓(xùn)練,在前280個epoch中,模型采用了單圖數(shù)據(jù)增強和不帶旋轉(zhuǎn)、翻轉(zhuǎn)及剪切的Mosaic+MixUp混合數(shù)據(jù)增強,同時,將每一個訓(xùn)練樣本中的混合圖像數(shù)量由原有的4加至8,以提升強度以及樣本的數(shù)量。在后20個epoch中,模型使用了比較小的學(xué)習(xí)率,關(guān)閉了Mosaic+Mixup高強度數(shù)據(jù)增強,同時采用了指數(shù)移動平均(EMA),使模型在比較弱的增強下進(jìn)行微調(diào),通過EMA將參數(shù)緩慢更新至模型。如果關(guān)閉太早則不能發(fā)揮Mosaic等高強度數(shù)據(jù)增強模式的效果,關(guān)閉太晚則由于之前已經(jīng)過擬合,此時再關(guān)閉沒有任何增益,選擇在剩余20個epoch關(guān)閉可以避免持續(xù)使用原有數(shù)據(jù)增強所帶來的負(fù)面影響,同時減少誤差,提升準(zhǔn)確率。

        同時加入cache方案,由于Mosaic&MixUp涉及多張圖片的混合,在每次迭代中需要加載多張圖片來進(jìn)行訓(xùn)練,會引入更多的數(shù)據(jù)加載成本并減緩訓(xùn)練的速度。如在YOLOv5中,每次做Mosaic時,4張圖片的信息都需要從硬盤中重新加載。緩存方案則是重新載入當(dāng)前的一張圖片,其余參與混合增強的圖片則從緩存隊列中獲取,通過犧牲一定內(nèi)存空間的方式提升效率。整體流程如圖6所示,從圖6中可以看出,cache隊列中預(yù)先儲存了N張已加載的圖像與標(biāo)簽數(shù)據(jù),每一個訓(xùn)練步驟只需加載一張新的圖片及其標(biāo)簽數(shù)據(jù)并更新到cache隊列中,當(dāng)需要進(jìn)行混合數(shù)據(jù)增強時,只需要從cache中隨機選擇需要的圖像進(jìn)行拼接等處理,通過利用緩存,可以將訓(xùn)練流水線中混合圖像的時間成本顯著降低到處理單個圖像的水平,提升了模型的性能。

        由于在數(shù)據(jù)增強階段中取消了旋轉(zhuǎn)、切片和翻轉(zhuǎn)的數(shù)據(jù)增強方式,模型在檢測交通標(biāo)志時避免了box標(biāo)注產(chǎn)生的誤差,并使得部分交通標(biāo)志的檢測不會出現(xiàn)錯誤,同時cache方案的引入減少了對數(shù)據(jù)加載的需求,能夠提升交通標(biāo)志檢測的速度。

        3 實驗與分析

        3.1 數(shù)據(jù)集選取

        本文的實驗采用了我國Tsinghua-Tencent100K交通標(biāo)志數(shù)據(jù)集,該數(shù)據(jù)集是騰訊和清華一起合作制作的交通標(biāo)志數(shù)據(jù)集,是目前國內(nèi)唯一基于真實場景的公開交通標(biāo)志數(shù)據(jù)集。數(shù)據(jù)集包含10萬幅街景圖像,經(jīng)過計算,訓(xùn)練數(shù)據(jù)集總共包含16 527個實例,測試數(shù)據(jù)集包含8 190個實例。這些圖片包含了各種不同情形下的交通標(biāo)志圖,例如遮擋、能見度低、小目標(biāo)等情形。該數(shù)據(jù)集下的交通標(biāo)志圖所處的環(huán)境復(fù)雜,面臨的挑戰(zhàn)較多,能夠很好地檢驗?zāi)P偷男阅?,并真實地反映現(xiàn)實中不同情況下的場景。本次實驗對于訓(xùn)練集、驗證集和測試集按照8∶1∶1的比例來劃分。

        3.2 實驗平臺及結(jié)果分析

        實驗使用一張顯存大小為24 GB的NVIDIAGeforce3090顯卡訓(xùn)練和測試所有模型。使用pytorch1.10.0框架,Cuda版本為11.3,使用python3.8版本語言進(jìn)行編程。訓(xùn)練過程中對網(wǎng)絡(luò)設(shè)定的部分超參數(shù)如表1所示。其中,batch為一次訓(xùn)練所抓取的數(shù)據(jù)樣本數(shù)量,它的大小影響訓(xùn)練速度和模型優(yōu)化,設(shè)置得合理可以讓梯度下降的方向更為準(zhǔn)確,這里batch的大小設(shè)置為16;weight_decay為權(quán)重衰退,它主要是為了防止過擬合,避免梯度爆炸;max_epochs為對完整數(shù)據(jù)進(jìn)行迭代的次數(shù),一般在200以上網(wǎng)絡(luò)才會收斂;base_lr為網(wǎng)絡(luò)的基礎(chǔ)學(xué)習(xí)率,學(xué)習(xí)率過高可能會導(dǎo)致無法梯度下降,過低則可能會使網(wǎng)絡(luò)收斂速度緩慢;momentum為動量,它可以幫助損失函數(shù)在訓(xùn)練的過程中更好地達(dá)到全局最優(yōu)的狀態(tài)。從表中可以看出,基礎(chǔ)學(xué)習(xí)率為0.001,最大訓(xùn)練代數(shù)固定為300。

        圖7為兩個算法模型在訓(xùn)練過程中的損失函數(shù)折線圖,可以看出本模型的損失函數(shù)收斂效果明顯優(yōu)于原算法。模型經(jīng)過280個epoch后,進(jìn)入后20個epoch的弱增強階段,進(jìn)行進(jìn)一步訓(xùn)練,由圖可見由于YOLOX算法采用的數(shù)據(jù)增強方式,導(dǎo)致前280個epoch和后20個epoch的訓(xùn)練差距較大,圖中A點為280 epoch點,B點為290 epoch點,可以看出兩點之間的曲率有一定的差距,說明模型的收斂效果較差,驗證了本文之前數(shù)據(jù)增強模塊的理論分析內(nèi)容,而本文算法的收斂效果整體平穩(wěn)。訓(xùn)練結(jié)束,最終原YOLOX算法模型總損失在2左右振蕩穩(wěn)定,而本模型最終則穩(wěn)定在0.3左右。

        在模型訓(xùn)練完成后,對比兩個模型的mAP值,如圖8為兩個模型的mAP值隨epoch變化的折線圖,mAP表示所有檢測類別平均準(zhǔn)確率的均值,可以用公式(7)表示:

        (7)

        圖8 mAP折線圖

        其中:∑AP為各類別的平均準(zhǔn)確率的總和,N為類別個數(shù)。作為模型訓(xùn)練性能的指標(biāo),mAP值越高,代表模型的性能越好,檢測精度越高。由圖8中可以看出,YOLOX算法在訓(xùn)練至280 epoch時其mAP值甚至有下降趨勢,在后20個epoch的弱數(shù)據(jù)增強的作用下才進(jìn)一步提升,圖中C點為280 epoch點,圖中D點為290 epoch點,可以看出兩點之間準(zhǔn)確率有一定的差距,驗證了本文之前數(shù)據(jù)增強模塊的理論分析內(nèi)容,而本模型在強弱兩階段訓(xùn)練過程中,mAP值穩(wěn)定提升。最終經(jīng)過300個epoch,本文模型訓(xùn)練所得的mAP值達(dá)到了67.2%,而YOLOX算法在同樣的條件下mAP值則為60.8%。相較于原算法,本算法模型的mAP值提升了6.4%,由此可以看出該算法對于網(wǎng)絡(luò)模型檢測精度的提升是有效果的。

        為了進(jìn)一步驗證改進(jìn)算法的有效性,本文在相同的配置與參數(shù)下對加入的模塊進(jìn)行了消融實驗,消融實驗的結(jié)果對比如表2所示。從表2中可以看出,加入的3個模塊相比較于原算法而言,mAP值都有一定程度的提升,其中加入可變形卷積模塊時,提升了2.8個點,這是因為加入的DCNConv有著很強的感受野控制能力,加強了模型的特征提取,原有的不規(guī)則交通標(biāo)志例如殘缺交通標(biāo)志等,在DCNConv的作用下能夠更準(zhǔn)確地識別出來。另外,在加入cache方案下的數(shù)據(jù)增強模塊時,mAP又提升了3.1個點,主要是cache方案減少了對數(shù)據(jù)加載的需求,使得模型收斂得更好,訓(xùn)練效率大大提升。同時改進(jìn)的算法在數(shù)據(jù)增強模塊中取消了裁剪及旋轉(zhuǎn)等增強方式,避免了框注釋和輸入之間的錯位,從而避免部分交通標(biāo)志的檢測出現(xiàn)錯誤,提升了檢測的精度。

        表2 消融實驗結(jié)果對比

        同時將本文算法與目前主流的YOLO系列算法進(jìn)行對比實驗,實驗對比結(jié)果如表3所示。由表3可以看出,在相同的配置環(huán)境下,改進(jìn)的算法的mAP值要明顯優(yōu)于其他YOLO系列的算法。與同系列的YOLOv3與YOLOv5相比,mAP_50:95值分別提升了10.9、6.9個點,與原算法相比,改進(jìn)的算法提升了6.4個點。本文算法的推理速度為33.4,能夠良好地滿足實際檢測需求。綜上所述,與其他主流的YOLO算法相比,改進(jìn)的YOLOX算法在能夠滿足良好的實時性的同時,有著更高的檢測精度。

        表3 不同算法實驗結(jié)果對比

        最后為了直觀地看出所改進(jìn)后模型的網(wǎng)絡(luò)性能,以及在不同情形下的檢測效果,分別將原模型與改進(jìn)后的模型在4種不同的情形下進(jìn)行檢測,分別是無遮擋大目標(biāo)、遮擋大目標(biāo)、密集小目標(biāo)以及遮擋小目標(biāo)環(huán)境下進(jìn)行檢測。檢測框中的數(shù)字為置信度,即該樣本為正樣本的概率,它與準(zhǔn)確率成正比,置信度越高越好。其環(huán)境中的交通標(biāo)志都是數(shù)據(jù)集中實際拍攝所得,能夠真實反映現(xiàn)實情況。

        圖9為檢測無遮擋大目標(biāo)時的效果圖,由圖可以看出,在檢測無遮擋大目標(biāo)交通標(biāo)志pm20時,YOLOX算法和本文算法都實現(xiàn)了成功檢測,但是YOLOX算法的檢測置信度為68.9%,而本文算法的檢測置信度為95.8%,遠(yuǎn)高于原算法。

        圖10為檢測遮擋大目標(biāo)時的效果圖,由圖可以看出,在檢測出現(xiàn)部分遮擋的大目標(biāo)交通標(biāo)志時,YOLOX算法由于其數(shù)據(jù)增強引入了旋轉(zhuǎn)和切片等方式,導(dǎo)致預(yù)測框出現(xiàn)了重疊、錯亂的情況,未能成功標(biāo)注出兩個交通標(biāo)志,其中交通標(biāo)志w55的置信度為34.9%,pl30的置信度為42.4%。而在本文算法模型中,預(yù)測框與圖像中交通標(biāo)志的重合度較高,兩個交通標(biāo)志都被正常地識別出來,其中,交通標(biāo)志w55的置信度為93%,pl30的置信度為45.9%。從檢測結(jié)果中可以看出,無論是檢測精度還是預(yù)測框的重合度,本文算法都要優(yōu)于YOLOX算法。

        圖10 檢測遮擋大目標(biāo)

        圖11為檢測密集小目標(biāo)的效果圖,由圖可以看出,在檢測密集的小目標(biāo)時,兩個算法的置信度基本相同,但是YOLOX算法出現(xiàn)了錯檢,將交通標(biāo)志p12錯檢成了p26,其置信度為32.8%。而本文算法則成功地檢測出了交通標(biāo)志p12,其置信度為33.6%。可以看出本文算法在檢測密集的小目標(biāo)時,也有較好的效果。

        圖11 檢測密集小目標(biāo)

        圖12為檢測遮擋小目標(biāo)的效果圖,由圖可以看出,YOLOX算法在檢測遮擋的小目標(biāo)時,出現(xiàn)了漏檢的情況,未能檢測出交通標(biāo)志p23,本文算法則是成功檢測出了遮擋的小目標(biāo)交通標(biāo)志p23,其置信度為21.1%。從檢測對比圖中可以看出,本文的算法模型相對于YOLOX算法而言,具有更好的環(huán)境適配性,能夠較好地應(yīng)對不同的環(huán)境。

        圖12 檢測遮擋小目標(biāo)

        4 結(jié)束語

        為了提高模型對交通標(biāo)志的檢測精度,本文提出了一種基于Cache方案和DCN可變形卷積的YOLOX優(yōu)化算法。在YOLOX算法的基礎(chǔ)上,進(jìn)行了三點改進(jìn):首先將backbone的基本框架中的普通卷積替換成3×3普通卷積+3×3DCN可變形卷積,提高感受野,增強模型的特征提取能力;然后將原有的GIOU損失函數(shù)替換成EIOU損失函數(shù),解決了GIOU損失函數(shù)誤差較大的問題,并且提高了收斂的速度和回歸的精度。最后采用多種數(shù)據(jù)增強的方式來增加模型的性能,且加入Cache方案,通過緩存隊列提升檢測效率,并進(jìn)一步提升其檢測精度。實驗證明本文算法能夠在多種應(yīng)用場景下更好地檢測識別交通標(biāo)志。

        猜你喜歡
        檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        3D打印中的模型分割與打包
        小波變換在PCB缺陷檢測中的應(yīng)用
        国产超碰人人模人人爽人人喊| 亚洲av激情一区二区| 色欲一区二区三区精品a片| 天码人妻一区二区三区| 日本成人久久| 亚洲一区二区视频蜜桃| 国产主播一区二区三区蜜桃| 亚瑟国产精品久久| 欧美成人久久久免费播放| 国产精品99久久精品女同| 青青草亚洲视频社区在线播放观看| 亚洲av无码久久精品狠狠爱浪潮| 99国产精品久久久久久久成人热| 欧美精品一区二区蜜臀亚洲| 国产短视频精品区第一页| 青青草绿色华人播放在线视频| 国产人妻鲁鲁一区二区| 国产国语熟妇视频在线观看| 久久这里都是精品一区| 伊人精品成人久久综合97| 四虎成人精品国产永久免费无码| 亚洲不卡中文字幕无码| 人妻无码中文专区久久AV| 日本人妻系列中文字幕| 久久99精品久久水蜜桃| 五月天综合网站| 久久综合久中文字幕青草| 免费看美女被靠到爽的视频| 97久久天天综合色天天综合色hd| 官网A级毛片| 日本视频一中文有码中文| 国产人妻精品无码av在线| 亚洲红怡院| 中文字幕亚洲永久精品| 偷看农村妇女牲交| 欧美日韩亚洲精品瑜伽裤| 婷婷色在线视频中文字幕| 青青草 视频在线观看| 亚洲精品无播放器在线播放| 国产日韩三级| 99精品国产一区二区三区|