亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOX的車輛檢測技術(shù)研究

        2022-02-15 02:48:28
        信息記錄材料 2022年12期
        關(guān)鍵詞:注意力車輛機(jī)制

        李 卓

        (山東科技大學(xué)交通學(xué)院 山東 青島 266400)

        0 引言

        隨著社會(huì)經(jīng)濟(jì)的快速發(fā)展,運(yùn)輸行業(yè)也因此得到大力發(fā)展,人們對出行的需求日益增加?,F(xiàn)如今,道路上會(huì)出現(xiàn)各種類型的車輛,使道路環(huán)境愈加復(fù)雜,截至2022年,全國汽車保有量已達(dá)3.07億輛,這對道路行車安全是極大的挑戰(zhàn),而車輛檢測在自動(dòng)駕駛[1]和交通安全[2]領(lǐng)域中已廣泛使用,智能車輛的目標(biāo)檢測技術(shù)能大大彌補(bǔ)交通參與者因?yàn)槠诨蜃呱穸l(fā)的交通事故,對車輛的識別檢測也是駕駛風(fēng)險(xiǎn)評估的重要組成部分。

        相較于傳統(tǒng)方式的目標(biāo)檢測,目前主流的目標(biāo)檢測算法大致上可以分為雙階段(two-stage)檢測算法和單階段(one-stage)檢測算法,雙階段檢測算法中具有代表性的有Ross Girshick[3]提出的R-CNN算法和Ren[4]提出的Fast-RCNN算法,它們第一階段運(yùn)用算法定位出可能含有目標(biāo)的感興趣區(qū)域,第二階段則是進(jìn)行深層特征提取,然后根據(jù)這些特征點(diǎn)去定位到檢測的目標(biāo)。而一階段檢測算法的代表作是Redmon等[5]提出的YOLOv3算法,它是目前使用非常廣泛的目標(biāo)檢測算法,YOLOv3算法以固定數(shù)量的錨框代替二階段算法中無定量且大量冗余的區(qū)域提案,大幅提升了檢測效率,比Fast R-CNN快100倍,但因?yàn)樘卣魈崛∥恢貌粔蛉?,所以檢測容易發(fā)生遺漏,精度較二階段算法低。

        國內(nèi)外學(xué)者在提高檢測精度、優(yōu)化訓(xùn)練網(wǎng)絡(luò)上已經(jīng)做了大量研究。劉學(xué)平等[6]結(jié)合K-means聚類并在YOLOv3網(wǎng)絡(luò)中加入SENet結(jié)構(gòu)來增加網(wǎng)絡(luò)的感受野;為了提高檢測的實(shí)時(shí)性,徐麗等[7]基于YOLOv4算法模型,將主干特征提取網(wǎng)絡(luò)更改為靈活性強(qiáng)且易于實(shí)現(xiàn)的MobileNet V2,并用深度可分離卷積替換掉原來加強(qiáng)特征提取網(wǎng)絡(luò)里面的普通卷積;為了避免傳統(tǒng)錨框?qū)τ跈z測性能所產(chǎn)生的負(fù)面影響,F(xiàn)u等[8]提出了一種基于特征平衡和細(xì)化網(wǎng)絡(luò)的小目標(biāo)檢測方法,使用無錨框機(jī)制進(jìn)行語義增強(qiáng)使檢測效果達(dá)到最佳;為了緩解正樣本和負(fù)樣本的數(shù)量不均衡問題,并且解決數(shù)據(jù)集小且少的問題,Yu等[9]提出了一種Scale Match方法,對預(yù)訓(xùn)練數(shù)據(jù)集進(jìn)行尺度變換,實(shí)現(xiàn)了額外數(shù)據(jù)的增強(qiáng)式擴(kuò)充。

        綜上,權(quán)衡實(shí)時(shí)性與準(zhǔn)確性,本文決定以YOLO系列中識別效率高的YOLOX-S為基礎(chǔ),對其網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行優(yōu)化改進(jìn),通過加入注意力機(jī)制CBAM以實(shí)現(xiàn)網(wǎng)絡(luò)自適應(yīng),減少計(jì)算資源的浪費(fèi),并且使用Gamma變換進(jìn)行數(shù)據(jù)集增強(qiáng),避免過擬合,從而提高模型的泛化能力,進(jìn)一步提高該算法的檢測性能。

        2 基于CBAM和數(shù)據(jù)集增強(qiáng)的YOLOX網(wǎng)絡(luò)模型

        2.1 YOLOX網(wǎng)絡(luò)結(jié)構(gòu)

        YOLOX使用了Anchor-free和標(biāo)簽分配策略SimOTA[10]。在輸入端中,YOLOX對輸入到網(wǎng)絡(luò)的圖片進(jìn)行Mosaic和Mixup數(shù)據(jù)增強(qiáng),輸入圖像的3個(gè)通道在輸入后,繼續(xù)使用Focus網(wǎng)絡(luò)將圖像的長和寬的信息集中到12個(gè)通道信息中去,backbone主干網(wǎng)絡(luò)部分采用了CSPDarknet-53作為提取網(wǎng)絡(luò),然后運(yùn)用卷積和silu激活函數(shù),通過不同池化核大小的最大池化進(jìn)行特征提取。

        在Neck結(jié)構(gòu)中,采用了FPN結(jié)構(gòu)進(jìn)行特征融合,它是對主干網(wǎng)絡(luò)中提取到的特征點(diǎn)進(jìn)行強(qiáng)化,在此YOLOX沿用了YOLOv3中經(jīng)典的特征金字塔網(wǎng)絡(luò)結(jié)構(gòu)。它將從主干系統(tǒng)中收集到的有效特征層,先進(jìn)行對深層特征層的取樣并與淺層特征層結(jié)合,之后再對與淺層特征層混合后的數(shù)據(jù)進(jìn)行下取樣并與深層特征層中的有效特征結(jié)合。

        Yolo Head是目標(biāo)檢測的分類器和回歸器[11],預(yù)測時(shí)先進(jìn)行分類,然后再進(jìn)行特征點(diǎn)對比回歸。首先經(jīng)過卷積運(yùn)算和激活函數(shù)找到與特征點(diǎn)最接近的物體的種類來進(jìn)行分類,然后進(jìn)行相同的卷積激活操作查找到與這個(gè)特征點(diǎn)相匹配的對象。本文YOLOX基于YOLOv3的整體架構(gòu), 在此部分將Head進(jìn)行了decouple,這種去耦合方式能夠更好地讓網(wǎng)絡(luò)學(xué)習(xí)到類別和對應(yīng)的坐標(biāo)回歸。

        綜上,YOLOX的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 YOLOX網(wǎng)絡(luò)結(jié)構(gòu)

        2.2 CBAM注意力機(jī)制

        在人眼視覺中,人類會(huì)選擇性地關(guān)注視覺區(qū)域內(nèi)的特定部分,然后集中關(guān)注它,同時(shí)忽略其他可見的信息,這樣可以避免造成視覺資源的浪費(fèi);注意力機(jī)制的核心重點(diǎn)就是讓網(wǎng)絡(luò)關(guān)注到它更需要關(guān)注的地方,使用注意力機(jī)制可以讓卷積神經(jīng)網(wǎng)絡(luò)去自適應(yīng)的關(guān)注重要的物體,它是實(shí)現(xiàn)網(wǎng)絡(luò)自適應(yīng)注意的一個(gè)方式。

        CBAM是注意力機(jī)制的一種,是通道注意力機(jī)制和空間注意力機(jī)制的結(jié)合,比SENet單獨(dú)的注意力機(jī)制對網(wǎng)絡(luò)的優(yōu)化更好。CBAM對輸入進(jìn)來的特征層進(jìn)行通道注意力模塊和空間注意力模塊的運(yùn)算后,分別得到通道和空間的注意力權(quán)重,然后將權(quán)重與原始特征圖相乘,從而對特征進(jìn)行自適應(yīng)調(diào)整,更關(guān)注對目標(biāo)物體的識別,使其關(guān)注重要特征,抑制不必要特征。其實(shí)現(xiàn)示意圖如圖2所示。

        圖2 CBAM注意力機(jī)制示意圖

        由圖2可知,圖像的前半部分為通道注意力機(jī)制,通道注意力機(jī)制的實(shí)現(xiàn)可以分為兩個(gè)部分,它會(huì)對輸入進(jìn)來的單個(gè)特征層,分別進(jìn)行平均池化和最大池化,通過全連接層處理經(jīng)過平均池化和最大池化的特征層,接著對得到的兩個(gè)結(jié)果進(jìn)行相加,再取一次sigmoid函數(shù)后,獲得輸入特征層的通道的權(quán)值,最后再將這個(gè)權(quán)值乘上原輸入特征層。綜上,通道注意力機(jī)制公式如下式所示:

        式中,σ為sigmoid函數(shù),MLP為人工神經(jīng)網(wǎng)絡(luò),MLP的權(quán)重由W0和W1共享;

        圖像的后半部分為空間注意力機(jī)制,它會(huì)對輸入進(jìn)來的特征層,在每一個(gè)特征點(diǎn)的通道上取最大值和平均值,之后將這兩個(gè)結(jié)果進(jìn)行一次堆疊,利用一次通道數(shù)為1的卷積調(diào)整通道數(shù),然后取一次激活函數(shù),此時(shí)獲得了輸入特征層的特征點(diǎn)的權(quán)值,最后同樣是將這個(gè)權(quán)值乘上原輸入特征層。綜上,通道注意力機(jī)制公式如下式所示:

        式中,σ為sigmoid函數(shù),f7×7為7×7大小的卷積核。

        本文在主干網(wǎng)絡(luò)Darknet中加入注意力機(jī)制,在提取出來的三個(gè)有效特征層上增加了注意力機(jī)制,同時(shí)在特征金字塔中每個(gè)上采樣和下采樣之后使用注意力機(jī)制。在之后的實(shí)驗(yàn)中將未添加注意力機(jī)制之前和添加注意力機(jī)制之后的算法效果進(jìn)行對比實(shí)驗(yàn),從而證明本文注意力機(jī)制對車輛檢測方法的有效性。

        2.3 數(shù)據(jù)集增強(qiáng)——Gamma變換

        數(shù)據(jù)集的拍攝時(shí)間為中午12點(diǎn)到傍晚6點(diǎn),其光照強(qiáng)度由30 000 lux變化到500 lux,亮度變化明顯,由于傍晚的車輛亮度不足的原因,處于圖像暗部時(shí)車輛輪廓模糊,若將未處理的數(shù)據(jù)集直接輸入,目標(biāo)檢測的難度會(huì)大大增加,于是對數(shù)據(jù)集進(jìn)行增強(qiáng)。

        Gamma變換又稱冪律變換[12],是圖像數(shù)據(jù)預(yù)處理的一種常用方法,尤其適用于目標(biāo)處于過度曝光和曝光不足時(shí),通過拓展圖像的灰度值,調(diào)整亮度及對比度,對圖像進(jìn)行矯正。在此主要是用來提升暗部細(xì)節(jié),它的主要原理是對輸入圖像灰度值進(jìn)行非線性操作,讓輸出圖像灰度值與輸入圖像灰度值呈指數(shù)關(guān)系:

        式中Vout為輸出的灰度值,Vin為輸入的灰度值,γ為Gamma,當(dāng)γ=1時(shí),此變換是線性的,通過線性方式改變原圖,當(dāng)γ不為1時(shí),輸出圖像會(huì)通過拉伸暗區(qū)域的灰度或壓縮亮區(qū)域的灰度,來使處于陰影或過度曝光區(qū)域內(nèi)的物體變得清晰。經(jīng)過Gamma轉(zhuǎn)化的前后圖像效果對比如圖3所示。

        圖3 前后效果對比圖

        3 實(shí)驗(yàn)過程與分析

        3.1 實(shí)驗(yàn)平臺及參數(shù)配置

        本次實(shí)驗(yàn)編程語言選擇使用python3.7。實(shí)驗(yàn)所用的計(jì)算機(jī)硬件配置:CPU為AMD Ryzen9 5900HX with Radeon Graphics 3.30 GHz,內(nèi)存為雙通道16 GB,顯卡為RTX3060,顯存為8G,操作系統(tǒng)為Windows11家庭版,訓(xùn)練的batch size設(shè)置為16,有300個(gè)epoch,initial lr為0.01。進(jìn)行數(shù)據(jù)集采集的攝像頭默認(rèn)分辨率為640*480,輸入訓(xùn)練網(wǎng)絡(luò)時(shí)圖片resize為640*640。

        3.2 實(shí)驗(yàn)數(shù)據(jù)集與評價(jià)指標(biāo)

        本次目標(biāo)檢測實(shí)驗(yàn)的原始數(shù)據(jù)集采用自建數(shù)據(jù)集,測試時(shí)間為白天和傍晚,光照強(qiáng)度在每次實(shí)驗(yàn)前使用照度計(jì)進(jìn)行測試,數(shù)據(jù)集獲取地點(diǎn)是青島市黃島區(qū),是以駕駛員為第一視角,在不同時(shí)間段不同光照強(qiáng)度下進(jìn)行的,數(shù)據(jù)集中含有照片1 887張,其中設(shè)置了訓(xùn)練集1 287張,驗(yàn)證集300張,測試集300張,本次實(shí)驗(yàn)使用Labelimg對數(shù)據(jù)集進(jìn)行標(biāo)注。本次實(shí)驗(yàn)會(huì)采用準(zhǔn)確率(P),召回率(R)和平均精度(AP)等指標(biāo)來衡量模型性能。在網(wǎng)絡(luò)進(jìn)行訓(xùn)練的過程中,對數(shù)據(jù)集進(jìn)行檢測驗(yàn)證時(shí),通常會(huì)產(chǎn)生這4類檢測結(jié)果:

        TP:預(yù)測為正例(P),事實(shí)上是反例(N)的數(shù)量(預(yù)測錯(cuò)誤);

        TN:預(yù)測為反例(N),事實(shí)上是反例(N)的數(shù)量(預(yù)測正確);

        FP:預(yù)測為正例(P),事實(shí)上是正例(P)的數(shù)量(預(yù)測正確);

        FN:預(yù)測為反例(N),事實(shí)上是正例(P)的數(shù)量(預(yù)測錯(cuò)誤)。

        式中,P、R分別代表準(zhǔn)確率與召回率,以準(zhǔn)確率為縱坐標(biāo),召回率為橫坐標(biāo),得到準(zhǔn)確率-召回率曲線,這條曲線和坐標(biāo)軸圍成的面積就是目標(biāo)檢測的平均精度(AP)。

        實(shí)驗(yàn)中使用遷移學(xué)習(xí)進(jìn)行模型訓(xùn)練,用Labelimg進(jìn)行標(biāo)注,下圖為使用Labelimg軟件進(jìn)行數(shù)據(jù)標(biāo)注時(shí)的界面,車輛被標(biāo)注為car。Labelimg界面圖如圖4所示。

        圖4 Labelimg界面圖

        3.3 實(shí)驗(yàn)結(jié)果

        利用改進(jìn)的YOLOX算法檢驗(yàn)自建數(shù)據(jù)集的識別效果,通過訓(xùn)練自建車輛的數(shù)據(jù)集,獲得最終車輛檢測模型權(quán)重。改進(jìn)后的YOLOX檢測網(wǎng)絡(luò)對車輛的檢測精確率達(dá)到93.11%,召回率達(dá)到86.27%,模型的平均精度達(dá)到91.98%,其效果圖如圖5、圖6所示。

        圖5 模型的精確率和召回率

        圖6 模型的平均精度

        為了證實(shí)結(jié)合CBAM和數(shù)據(jù)集增強(qiáng)的檢測方法的有效性,本次實(shí)驗(yàn)還對比了不同的深度學(xué)習(xí)網(wǎng)絡(luò),具體如表1所示??梢钥闯?,在對同一種數(shù)據(jù)集進(jìn)行深度學(xué)習(xí)時(shí),改進(jìn)的算法相較Faster R-CNN算法在Precision值、Recall值和AP值上都有較大的提升;與直接使用YOLOX檢測網(wǎng)絡(luò)模型進(jìn)行檢測對比,在精確率(Precision)提高了1.63%,平均精度(AP)提高了1.64%;對比之前經(jīng)常使用的二階段算法YOLOv5,在Precision值、Recall值和AP值上均分別提高了2.44%,1.27%,4.52%,因此,結(jié)合CBAM和數(shù)據(jù)集增強(qiáng)的YOLOX訓(xùn)練模型在車輛檢測實(shí)驗(yàn)中具有較好的魯棒性。

        表1 不同網(wǎng)絡(luò)模型對比

        為了驗(yàn)證改進(jìn)后算法的檢測性能和它在應(yīng)用場景中的檢測效果,選取隧道內(nèi)、傍晚光照不足環(huán)境時(shí)的圖像,兩個(gè)場景的實(shí)際運(yùn)用中的檢測效果如圖7和圖8所示。從兩張圖中可以看出,原始YOLOX算法對于處于隧道口黑暗環(huán)境,輪廓不鮮明的車輛的檢測效果不太理想,很容易產(chǎn)生漏檢。改進(jìn)后的YOLOX算法能對在不同光照強(qiáng)度下的車輛進(jìn)行準(zhǔn)確的識別檢測,在車輛目標(biāo)較小,光照不同的道路環(huán)境下,也能取得較為穩(wěn)定良好的效果。因此,在實(shí)際運(yùn)用的道路車輛檢測中尤其是車輛處于弱光照射的環(huán)境中時(shí),改進(jìn)后的YOLOX算法的檢測效果明顯高于原始YOLOX算法。

        圖7 原YOLOX算法檢測結(jié)果

        圖8 改進(jìn)后YOLOX算法檢測結(jié)果

        4 結(jié)語

        綜上所述,本文在YOLOX-S目標(biāo)檢測算法的基礎(chǔ)上,自制交通場景數(shù)據(jù)集并利用Gamma變換進(jìn)行增強(qiáng),防止過暗場景下的汽車輪廓模糊,避免了特征提取過程中的信息缺失遺漏,加強(qiáng)了網(wǎng)絡(luò)的泛化能力;同時(shí)在網(wǎng)絡(luò)中引入注意力機(jī)制模塊,強(qiáng)化了網(wǎng)絡(luò)性能,使原有網(wǎng)絡(luò)的特征表達(dá)能力得到改善。在對原模型改進(jìn)后的模型和網(wǎng)絡(luò)模型的對比實(shí)驗(yàn)中,實(shí)驗(yàn)結(jié)果表明,相較于傳統(tǒng)YOLOX算法,改進(jìn)后的算法在準(zhǔn)確率、召回率、平均精度方面均提升了1.63%,0.71%和1.64%,車輛檢測效果得到提升。未來車輛檢測系統(tǒng)會(huì)在實(shí)時(shí)性方面進(jìn)行研究,在后續(xù)研究中,訓(xùn)練網(wǎng)絡(luò)會(huì)結(jié)合行車場景,平衡正負(fù)樣本,在準(zhǔn)確性方面進(jìn)一步優(yōu)化,進(jìn)一步提高智能車輛的環(huán)境感知能力。

        猜你喜歡
        注意力車輛機(jī)制
        讓注意力“飛”回來
        自制力是一種很好的篩選機(jī)制
        文苑(2018年21期)2018-11-09 01:23:06
        車輛
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        冬天路滑 遠(yuǎn)離車輛
        車輛出沒,請注意
        A Beautiful Way Of Looking At Things
        提高車輛響應(yīng)的轉(zhuǎn)向輔助控制系統(tǒng)
        汽車文摘(2015年11期)2015-12-02 03:02:53
        破除舊機(jī)制要分步推進(jìn)
        注重機(jī)制的相互配合
        一本大道久久a久久综合精品| 波多野结衣中文字幕在线视频| 国产亚洲sss在线观看| 人妻风韵犹存av中文字幕| 国产一区二区三区我不卡| 免费人成激情视频在线观看冫| 久久精品国产亚洲av忘忧草18| 亚洲一区二区三区精品网| 亚洲国产成人久久精品美女av| 国产激情久久久久久熟女老人| 爆爽久久久一区二区又大又黄又嫩 | 免费在线观看av不卡网站| 天天躁日日躁狠狠躁欧美老妇| 无码中文字幕加勒比一本二本 | 日韩精品真人荷官无码| 国产亚洲av人片在线观看| 人妻少妇精品无码专区app| 亚洲三级香港三级久久| 领导边摸边吃奶边做爽在线观看| 无码久久精品国产亚洲av影片| 国产乱子伦视频一区二区三区| 亚洲熟女熟妇另类中文| 日日摸天天摸97狠狠婷婷| 久久久无码一区二区三区| 国产成人综合亚洲av| 精品国产一区二区三区香| 国产熟女内射oooo| 国模私拍福利一区二区| 国产一区二区三区日韩精品| 日韩精品一区二区在线天天狠天| 国产成人aaaaa级毛片| 国产一区二区三区小说| 国产成人亚洲精品一区二区三区| 精品亚洲国产成人蜜臀av| 男女肉粗暴进来120秒动态图 | 亚洲成人免费av影院| 国产精品爽黄69天堂a| 久久国产欧美日韩高清专区| 成人影院羞羞的视频免费观看| 夜夜躁狠狠躁日日躁视频| 国产成人精品午夜福利|