亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于優(yōu)化的YOLOv5模型的車輛檢測與分類研究

        2022-11-07 05:35:34李佳昊陸錦泉
        交通科技與管理 2022年20期
        關鍵詞:檢測模型

        李佳昊,陸錦泉

        (廣東省城鄉(xiāng)規(guī)劃設計研究院有限責任公司,廣東 廣州 510290)

        0 引言

        卷積神經網絡的目標檢測算法已經在道路交通監(jiān)控領域得到廣泛應用,YOLO系列算法是基于回歸的一階段法,不用產生候選區(qū)域,而是通過應用算法來直接對圖像進行定位與分類。為解決檢測實時性問題,Fukai Zhang等[1]對YOLOv3進行了改進,將不同大小的卷積特征圖和殘差網絡中對應尺度的特征圖進行融合,提高車輛檢測的精度及速度。2020年3月以來,YOLOv4及YOLOv5相繼被提出,對于這種具有更加優(yōu)秀檢測性能的網絡模型來說,在車輛檢測領域將是一個跨越式發(fā)展。

        1 優(yōu)化方法

        1.1 先驗框機制的自適應調整

        先驗框Anchor是一組預先設置好的目標檢測候選框,實際的候選框是通過在其之上的調整而得出。Anchor設置的合理與否,極大地影響著最終模型檢測性能的好壞。

        該文使用K-Means算法對數據集中標注好的目標檢測框的寬高進行重新聚類,從而獲得適用于檢測小尺度目標圖像的Anchor尺寸。其中聚類方法中距離公式見下式:

        式中,centroid——簇的中心;box——標注的邊框坐標;IoU——交并比。選取合適的先驗框k值可以使得在盡可能高IoU的情況下,模型復雜度也較低,取得一個較好的平衡。最終獲得了九組適用于本數據集的Anchor,大小分別為:[32,28],[70,59],[127,119],[252,227],[585,275],[596,392],[454,577],[587,477],[573,580]。

        1.2 注意力機制的引入及卷積的替換

        計算機視覺中的注意力機制的基本思想就是能使系統專注于某件事,能夠忽略無關信息而將注意力放在重點關注信息上。在車輛檢測過程中,為了進一步提升檢測的專注力,引入SE模塊可以將檢測視野集中于所需檢測的目標車輛上,這樣可以大大減少背景建筑物的干擾[1]。

        在真實道路交通視頻檢測中,存在路段車輛較少的情況,此時,單張圖片的所檢測的車輛目標個數少且所檢測的目標尺寸偏小。因此,在網絡的Head部分中,在張量拼接操作及BCSP模塊之間加入了SE注意力模塊,讓網絡更加專注于所檢測的車輛[2]。

        此外,為了減小原始YOLOv5的計算量,以提升檢測的速度,該文對結構中的卷積層進行了改進。該文將Head里卷積層的部分普通卷積替換成了深度可分離卷積[3],從而減少模型的參數量,使得檢測的速度有進一步的提升。圖1為各部分修改完成之后與原模型對比示意圖。

        圖1 優(yōu)化前后的Head部分示意圖

        1.3 非極大值抑制的調整

        在目標檢測的過程中,通常在同一個物體的位置上會出現眾多的候選框,這些候選框兩兩之間存在相交的情況。當遇到擁堵路段密集車輛的圖像時,如果不去除這種冗余的候選框,將會非常影響檢測和分類的準確性。因此,針對這種重疊候選框的篩選,通常需要進行非極大值抑制(nms)操作。YOLOv5中采用普通的IoU的計算方式。這種方式在抑制多余的檢測框時,因為僅考慮了重疊區(qū)域,對于遮擋情況經常產生錯誤抑制。因此,使用DIoU作為非極大值抑制的標準,在考慮重疊區(qū)域面積的同時,還考慮了中心點距離。該文對YOLOv5模型的非極大值抑制進行了調整,采用了DIoU的方法。DIoU在IoU基礎上引入了懲罰項R,目的是最小化兩個與預測框的中心點距離,因此比IoU速度快。對于包含兩個車輛交錯重疊的情況,采用DIoU-nms的方式可以將其區(qū)分檢測出來,檢測效果有了進一步改善。

        2 實驗及結果分析

        2.1 數據集描述

        為了能夠實現對復雜道路情況下車輛的快速檢測,采集了實際道路交通視頻信息用于提取分類器訓練的樣本。該文采用數據集如下,選出包含2 100張有清晰樣本的圖像,并將其分成三部分:1 680張圖像作為訓練集,210張圖像作為驗證集,210張圖像作為測試集。之后,將圖像尺寸統一設置為416*416,并進行圖像標注,將車輛分為五個類別標簽:Car、Bus、Truck、 Bicycle和Motorcycle。各類型車型識別數據集見表1。

        表1 車型識別數據集

        2.2 訓練過程

        根據已搭建好的車輛圖像數據集及OP-YOLOv5網絡訓練方法,執(zhí)行訓練過程:將訓練集中的1 680張圖片輸入到YOLOv5和OP-YOLOv5網絡中,經過訓練后,學習到了各卷積層、BN層以及檢測層[4]的權重參數,最終得到車輛檢測模型。

        在整個訓練的過程中,設置參數批量為32,動量為0.937,權重衰減配置為0.000 5,總迭代次數為200次,初始學習率lr=0.01。

        2.3 實驗結果及分析

        在訓練完成之后,將測試集中待檢測的圖片分別輸入以上5種模型中,得到檢測結果。

        經過試驗,模型的三種損失都隨著訓練次數的增加而逐漸下降,當訓練次數達50次左右時,模型的損失變化趨于平緩,基本達到收斂;當訓練次數達到200次時,改進前后車輛檢測模型的損失均降到0.005以下,兩種模型的損失基本不再變化,此時終止訓練即可獲得穩(wěn)定的模型權重。

        該文通過均值平均精度(mAP)、檢測速率、查準率和查全率四項指標對不同模型檢測的結果進行評價與分析[5]。表2是改進前后的兩種網絡結構經過深度學習訓練后,所得到的模型的平均精度(IoU≥0.5)和每秒幀數。

        從表2中可以看出,基于YOLOv5模型平均檢測精度可達93.8%,傳輸速度為53.1 f/s,而改進后的OPYOLOv5可以獲得高達95.7%的mAP,且傳輸速率也有了提升,可達到60.5 f/s。對于5種分類的車型而言,卡車和自行車的mAP效果提升最明顯,分別提高了7.0%和2.5%。其中,由于小轎車的車型樣式多樣,自行車騎行中行人的干擾,它們兩者的平均檢測精度相對其他種類來說較低,但也能保持在90%以上的高準確率,具有良好的檢測效果。圖2可以看出,相對于YOLOv5而言,OP-YOLOv5隨著迭代次數的增多,收斂效果更好,且速度也較快。當迭代次數達50次時,就可以獲得90%的mAP。該文提出的OP-YOLOv5方法不僅在平均檢測精度上較原有模型提高了近2%,檢測速度也有了提升,具有良好的檢測實時性。

        表2 不同方法實驗對比結果

        圖2 優(yōu)化前后模型平均精度曲線對比圖

        在此選取查準率、查全率作為車輛分類模型的評價指標來對5種類別車輛的分類檢測結果進行進一步分析,統計結果見表3。

        由表3可以看出,改進前后方法檢測公交車得到的查全率和查準率在所有車型中是最高的,優(yōu)化后的方法檢測所得查全率和查準率高達99%,具有很好的識別效果。而對于卡車和轎車來說,查全率和查準率略有下降,自行車的查全率和查準率最低,但總的查準率和查全率可分別達到92%、94%。相比之下,OP-YOLOv5比YOLOv5對不同車型的識別效果有了進一步提升。

        表3 查準率與查全率統計表

        YOLOv5和OP-YOLOv5車輛檢測模型的查準率和查全率繪制出P-R曲線圖,如圖3所示。模型檢測的準確性會隨著查全率的升高而降低,當查全率約為90%時,查準率約為90%,此時模型在具有較高的查全率的同時,又保證了較高的檢測精度。當查準率相等時,相對于YOLOv5來說,OP-YOLOv5方法能夠取得更高的查全率,即可以將測試集中更多的車輛檢測出來。

        圖3 P-R對比圖曲線

        此外,從測試樣本集中選出小目標車輛及重疊遮擋的車輛圖片進行檢測試驗,對比改進YOLOv5模型前后的識別分類效果,如圖4所示,左側為原模型檢測效果圖,右側為改進后模型檢測效果圖。在圖4(a)(b)中,測試樣本通過YOLOv5模型處理后,最終未能檢測出較遠的小尺度車輛目標,相比之下,OP-YOLOv5模型可以將視野中這個較遠處的車輛檢測出來。圖4(c)(d)為車輛側面檢測效果,可以看出OP-YOLOv5不僅提高了檢測精度值,而且將原圖中錯檢的摩托車,進行了更正,降低了錯檢率。在圖4(e)(f)中,YOLOv5模型僅識別出了前方的2個摩托車,而OP-YOLOv5模型對于后方被重疊遮擋的摩托車,也可以清晰地辨別出來。因此,OP-YOLOv5模型具有更高的查全率和查準率,可以獲得更好的檢測效果。

        圖4 車輛檢測分類效果對比圖

        3 結束語

        在計算機視覺技術迅速發(fā)展的今天,利用深度學習算法檢測車輛類型,可以為交通量的分類統計提供幫助,還可為交通事故和識別查證提供一定的有效信息。該文在YOLOv5的基礎上進行了優(yōu)化,利用K-means聚類算法自適應產生合適的錨框尺寸,更改部分卷積網絡,并在輸出端利用DIoU的方法進行非極大值抑制,使得特征圖的表征能力進一步提高,同時也提高了車輛識別的準確性。OP-YOLOv5可以精準地輸出每個車輛的預測框并判斷車輛的類型,如Car、Bus、Bicycle等。在后續(xù)工作中,筆者將對不同環(huán)境條件下(包括天氣、光線因素)的車輛檢測進行研究,改進檢測模型對不同環(huán)境的適應能力,使其更好地為交通管理服務。

        猜你喜歡
        檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權M-估計的漸近分布
        3D打印中的模型分割與打包
        小波變換在PCB缺陷檢測中的應用
        亚洲av综合av一区| 国产精品午夜高潮呻吟久久av| 久久麻传媒亚洲av国产| 欧美成人www在线观看| 国内精品无码一区二区三区| 亚洲欧洲AV综合色无码| 国内精品毛片av在线播放| 亚洲av香蕉一区区二区三区| 搡老熟女老女人一区二区| 国产黑色丝袜在线观看视频| 日韩激情视频一区在线观看| 一边做一边说国语对白| 欧美孕妇xxxx做受欧美88| 亚洲国产成人Av毛片大全| 99久久人妻无码精品系列蜜桃| 国产白浆精品一区二区三区| 蜜桃一区二区三区视频| 中文无码日韩欧| 人妻在线中文字幕| 久久本道久久综合一人| 我和丰满妇女激情视频| 精品无码一区在线观看| 国产成人精品曰本亚洲| 草青青在线视频免费观看| 丰满少妇被粗大猛烈进人高清| 免费人成年小说在线观看| 国产三级国产精品三级在专区| 91国产精品自拍在线观看| 中文字幕久久久人妻无码| 国产精品高清视亚洲乱码有限公司 | 国产一区二区三区不卡在线播放 | 亚洲人成人网毛片在线播放| 成人短篇在线视频夫妻刺激自拍| 蜜桃视频免费进入观看| 亚洲国产长腿丝袜av天堂| АⅤ天堂中文在线网| 国产成人综合精品一区二区| 凹凸在线无码免费视频| 国产精品欧美久久久久老妞| 亚洲一区二区三区在线高清中文 | 国产成人精品亚洲日本在线观看 |