亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv3的道路車輛檢測算法研究*

        2023-01-07 13:12:40張緒德
        科技與創(chuàng)新 2023年1期
        關(guān)鍵詞:特征檢測模型

        張緒德,李 康

        (凱里學院,貴州 黔東南苗族侗族自治州 556011)

        隨著人工智能科學的不斷發(fā)展,智能交通逐漸走進大眾的視野中,汽車作為人們?nèi)粘3鲂械闹饕煌üぞ?,自動駕駛將陸續(xù)應(yīng)用于汽車中,對車輛進行實時的目標檢測是自動駕駛系統(tǒng)中非常重要的內(nèi)容。在研究中對道路車輛的檢測可以分為基于深度學習的目標檢測算法和基于人工特征的目標檢測算法,其中基于人工的檢測算法首先需要從圖像中提取出特征,然后將提取出來的特征進行分類利用機器學習的方法進行訓練[1]。

        隨著計算機硬件的發(fā)展和CNN網(wǎng)絡(luò)成熟,基于深度學習的目標檢測算法在實時性和準確性方面顯現(xiàn)出優(yōu)勢,成為計算機視覺領(lǐng)域的研究熱點。根據(jù)是否預(yù)生成候選框,基于深度學習的目標檢測算法分為Two-stage目標檢測算法和One-stage目標檢測算法[2]。Two-stage算法精度較高,速度較慢[3-4],如Faster R-CNN[5]算法;One-stage算法速度更快,精度會有所損失,如YOLO[6]系列算法、SSD[7]算法等。

        道路中車輛檢測要求檢測速度快、檢測精度能很好滿足要求,應(yīng)該采用One-stage算法,在One-stage算法中,YOLOv3具有魯棒性好、檢測精度較高、算法結(jié)構(gòu)簡單、檢測速度快等優(yōu)點,在實際道路中通過調(diào)參可以獲得具體場景下的目標檢測模型,可以很好地檢測目標車輛,對車輛進行屬性識別。

        1 YOLOv3算法模型

        YOLOv3算法是One-stage中的經(jīng)典算法模型,其整體結(jié)構(gòu)采用主干網(wǎng)絡(luò)為Darknet53,主干網(wǎng)絡(luò)Darknet53進行特征提取,利用多尺度特征進行對象檢測,在最后對象分類時使用Logistic[8],YOLOv3算法中的Darknet53網(wǎng)絡(luò)采用了23處殘差結(jié)構(gòu)來增加網(wǎng)絡(luò)的深度,提高了網(wǎng)絡(luò)提取特征的能力,網(wǎng)絡(luò)中大部分采用1×1和3×3的卷積結(jié)構(gòu)減少計算量。YOLOv3算法的整個網(wǎng)絡(luò)結(jié)構(gòu)沒有池化層,使用的是一個全卷積網(wǎng)絡(luò),改變卷積層步長可以實現(xiàn)對網(wǎng)路的下采樣,當網(wǎng)絡(luò)下采樣時,通道數(shù)變?yōu)樵瓉淼?倍,有利于減少網(wǎng)絡(luò)中信息的損失,并且增加信息特征的維度,更能提取到網(wǎng)絡(luò)的抽象特征,最后隨著卷積層數(shù)的加深,神經(jīng)網(wǎng)絡(luò)會出現(xiàn)過擬合現(xiàn)象,為了抑制過擬合,Darknet53網(wǎng)絡(luò)在卷積層后添加了批量歸一化層。

        YOLOv3算法中不同尺度的感受野能表達不同層次的語義信息,為了實現(xiàn)對圖中不同大小信息的檢測,YOLOv3采用FPN[9]結(jié)構(gòu),F(xiàn)PN結(jié)構(gòu)指出可以采用不同特征圖對目標對象進行檢測。如當輸入圖片尺寸為416×416時,在進行道路車輛目標檢測時,對于大尺度檢測目標,選取的是網(wǎng)絡(luò)結(jié)構(gòu)中79層32倍下采樣13×13大小的特征圖,此特征圖相比于其他尺度特征圖相比感受野大,適合對大物體目標進行檢測;對于中等尺度檢測物體,選取的是網(wǎng)絡(luò)結(jié)構(gòu)中79層特征圖做上采樣然后和61層特征圖拼接,得到16倍下采樣26×26大小的特征圖,此特征圖跟其他尺度特征圖相比感受野適中,適合對中等物體目標進行檢測;對于小尺度檢測物體,選取的是26×26大小的特征圖做上采樣然后和36層特征圖拼接,得到8倍下采樣52×52大小的特征圖,此特征圖跟其他尺度特征圖相比感受野較小,適合對小物體目標進行檢測[10]。

        2 車輛目標檢測

        2.1 數(shù)據(jù)集的選取與制作

        在進行YOLOv3的算法研究中,選取合適的數(shù)據(jù)集是研究的基礎(chǔ),應(yīng)該選取類別均衡、使用場景普及化、數(shù)據(jù)量大的數(shù)據(jù)集,數(shù)據(jù)集選取不標準,訓練過程中容易出現(xiàn)飽和和過擬合的現(xiàn)象[11],會引起檢測模型應(yīng)用范圍小、泛化能力不足等問題。采用YOLOv3算法時需要用到圖片對應(yīng)的標簽文件,數(shù)據(jù)集不存在標簽文件時,需要利用labelimg制作自己的深度學習目標檢測數(shù)據(jù)集,因此在選擇數(shù)據(jù)集時可以選擇自動生成標簽數(shù)據(jù)集,節(jié)省訓練時間。經(jīng)綜合考慮在進行車輛目標檢測時選取的數(shù)據(jù)集是UA-DETRAC,該數(shù)據(jù)集包括在中國北京和天津的24個區(qū)域道路的監(jiān)控視頻。UA-DETRAC數(shù)據(jù)集為每個文件夾中的圖片提供xml文件,xml文件中的目標為car,不需要進行手動標識,只需要將xml文件分成對應(yīng)每個圖片的xml,然后再將xml文件轉(zhuǎn)換成YOLOv3規(guī)定的txt文件即可,如圖1所示。由于數(shù)據(jù)集中照片數(shù)量太大,為了節(jié)省訓練時間,隨機選取其中6 000多張圖片用來進行訓練。

        圖1 轉(zhuǎn)換成txt文件形式

        2.2 數(shù)據(jù)集訓練

        UA-DETRAC數(shù)據(jù)集在制作完成后,利用目標檢測算法對數(shù)據(jù)集進行模型訓練。數(shù)據(jù)集在訓練時采用ultralytics-YOLOv3版本,ultralytics-YOLOv3版本檢測速度快,版本一直在優(yōu)化中。本實驗采用的硬件配置是服務(wù)器為NVIDIA RTX 3050TI的GPU,軟件環(huán)境選擇pycharm腳本編輯器、YOLOv3目標檢測算法。使用網(wǎng)絡(luò)結(jié)構(gòu)時,首先需要檢測的對象對算法進行分類與檢測修改,網(wǎng)絡(luò)結(jié)構(gòu)選用YOLOv3-spp.cfg進行參數(shù)配置,需要對卷積層的卷積核個數(shù)、目標分類數(shù)進行配置,為了減少訓練次數(shù),可以選取YOLOv3-spp.weights為預(yù)訓練權(quán)重。根據(jù)現(xiàn)有GPU實際情況,將模型訓練的batch-size設(shè)為2,subdivisions設(shè)為64,然后對數(shù)據(jù)進行模型訓練,訓練過程中自動保存訓練日志、訓練模型和最優(yōu)訓練模型。訓練過程如圖2所示。在采用ultralytics-YOLOv3版本進行UA-DETRAC數(shù)據(jù)集訓練時,需要進行不斷調(diào)節(jié)參數(shù),使訓練過程不斷優(yōu)化。在訓練的前期階段,訓練時采用學習率較大的量級,在訓練過程后期,可以采用相對之前學習率較小的量級,其次考慮動量對訓練過程的影響,當對UA-DETRAC數(shù)據(jù)集訓練達到瓶頸時修改動量,以提高預(yù)測精度[12]。在對訓練集進行200次訓練迭代后,取訓練權(quán)重中最好的權(quán)重進行模型驗證,獲得最優(yōu)的訓練模型。

        圖2 訓練過程

        2.3 測試結(jié)果

        模型訓練完成后在對實際道路中不同交通場景情況下進行圖像數(shù)據(jù)的測試,測試時對道路交通場景下的圖像數(shù)據(jù)進行測試,主要考慮車輛在道路的覆蓋、不同光線、不同角度以及道路擁堵等問題。測試時采用的實際道路測試場景選擇應(yīng)該具有多樣化,涵蓋城市道路、鄉(xiāng)鎮(zhèn)的十字路口、單向道路、多向道路等多種場景,以保證該多目標檢測適用于監(jiān)控下的實時檢測。本次研究訓練結(jié)果的評價指標是精準率P值、召回率R值、均值平均精度mAP值。

        對于此次車輛目標檢測任務(wù),當預(yù)測框和真實檢測框的IOU大于預(yù)設(shè)值時,則視其為正確結(jié)果,表示檢測到車輛;否則為錯誤的結(jié)果,表示沒有檢測到車輛模型。測試所有類別的AP的平均值就是均值平均精度mAP,本次目標檢測只具有車輛一個類型,AP值和mAP值相等。

        訓練完成后通過觀察圖3可以看到數(shù)據(jù)集的P值為0.834,R值為0.991,mAP@0.5值為0.956。

        圖3 訓練結(jié)果

        在對實際道路中的車輛圖像數(shù)據(jù)進行測試時,選取圖片需要考慮不同光線、不同場景、不同時間、不同角度中實際情況。

        圖4為將白天的照片輸入進行驗證的情況,圖5為晚上道路車輛圖片輸入進行驗證的情況,通過觀察可以看到,無論白天還是晚上對車輛的識別都取得不錯效果。

        圖4 白天圖片測試

        圖5 晚上圖片測試

        3 結(jié)語

        本研究基于pytorch深度學習框架下YOLOv3目標檢測算法在實際道路場景中進行車輛目標檢測,通過數(shù)據(jù)集選取與制作、數(shù)據(jù)集訓練、測試結(jié)果驗證YOLOv3目標檢測算法在實際道路中的應(yīng)用。實驗表明,YOLOv3目標檢測算法在車輛檢測中取得了良好的效果,平均檢測精度達到95.6%?;赮OLOv3道路車輛檢測算法可以很好地對道路車輛進行檢測,此算法可以很好地減少車輛檢測過程中存在的誤檢、漏檢問題,但也需要充分認識到車輛檢測在實際應(yīng)用中存在的諸多挑戰(zhàn):車輛真實道路行駛過程中時,遇到的環(huán)境復雜多變,在夜間情況下光線不足時,極端復雜天氣、道路車輛進行高速移動時復雜場景下,基于YOLOv3道路車輛檢測算法依然面臨非常大的挑戰(zhàn)性,在后續(xù)的車輛檢測算法研究中依然任重而道遠。

        猜你喜歡
        特征檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        3D打印中的模型分割與打包
        亚洲久无码中文字幕热| 日本边添边摸边做边爱喷水| 48久久国产精品性色aⅴ人妻| 人人妻人人澡av天堂香蕉| 亚洲国产成a人v在线观看| 午夜视频一区二区在线观看| 亚洲αv在线精品糸列| 无码粉嫩虎白一线天在线观看| 国产肉体XXXX裸体784大胆| 蜜桃激情视频一区二区| 丰满少妇人妻无码| 午夜精品一区二区三区的区别| 天天草夜夜草| 亚洲av色精品国产一区二区三区 | 精品亚洲第一区二区三区| 色爱无码av综合区| 中文字幕第1页中文字幕在| 中文字幕精品一区二区日本| 日韩av毛片在线观看| 东北妇女xx做爰视频| av天堂精品久久久久| 精品人妻av区二区三区| 天天摸天天做天天爽水多| 久久国产精久久精产国| 亚洲国产精品久久久久婷婷软件| 中文字幕女同人妖熟女| 97午夜理论片影院在线播放| 欧美日韩精品乱国产| 美女福利视频网址导航| 日日麻批免费40分钟无码| 欧美巨大性爽| 如何看色黄视频中文字幕| 国产精品国产三级野外国产| 老师粉嫩小泬喷水视频90| 国产亚洲高清不卡在线观看| 精品蜜桃av免费观看| 人妻洗澡被强公日日澡电影| 亚洲av成本人无码网站| 91青青草在线观看视频| 久久久久亚洲av无码a片| 国产超碰人人做人人爱ⅴa|