亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv3 算法的公路車道線檢測(cè)方法

        2022-07-03 02:11:38崔文靚王玉靜康守強(qiáng)謝金寶王慶巖MIKULOVICHVladimirIvanovich
        自動(dòng)化學(xué)報(bào) 2022年6期
        關(guān)鍵詞:檢測(cè)

        崔文靚 王玉靜 康守強(qiáng) 謝金寶 王慶巖 MIKULOVICH Vladimir Ivanovich

        車道線檢測(cè)是智能駕駛領(lǐng)域的關(guān)鍵技術(shù)之一,廣泛應(yīng)用于汽車輔助駕駛系統(tǒng)、車道偏離預(yù)警系統(tǒng)以及車輛防碰撞系統(tǒng)中.隨著計(jì)算機(jī)科學(xué)、人工智能和目標(biāo)檢測(cè)技術(shù)的飛速發(fā)展,研究端到端的智能化車道線檢測(cè)方法是自動(dòng)駕駛領(lǐng)域的一條全新途徑[1-6].因此,研究基于深度學(xué)習(xí)的公路車道線檢測(cè)方法對(duì)于提高公路交通安全具有重要意義.

        對(duì)于車道線檢測(cè)問題,國內(nèi)外學(xué)者已開展了相關(guān)研究,取得了一定的研究成果[7-9].基于傳統(tǒng)方法的車道線檢測(cè)實(shí)質(zhì)是通過圖像特征和車載傳感器來感知車輛當(dāng)前環(huán)境并進(jìn)行建模[10].存在檢測(cè)速度慢、檢測(cè)精度差、抗環(huán)境干擾能力差等問題.文獻(xiàn)[11]在常見的直線模型、多項(xiàng)式曲線模型、雙曲線模型和樣條曲線模型等二維模型的基礎(chǔ)上,提出了基于車道線特征的檢測(cè)方法.文獻(xiàn)[12]在霍夫變換的基礎(chǔ)上使用道路擬合算法精確標(biāo)出道路俯視圖中的車道線位置,該方法可有效改善圖像中其他車輛位置對(duì)檢測(cè)效果的影響.文獻(xiàn)[13]提出了基于立體視覺的路緣邊線檢測(cè)方法,該方法在真實(shí)路況條件下具有較強(qiáng)的穩(wěn)定性.文獻(xiàn)[14]提出了基于車道線顏色和方向的幾何特征結(jié)構(gòu)化檢測(cè)方法,綜合顏色和方向兩個(gè)方面的信息對(duì)車道線進(jìn)行擬合,實(shí)現(xiàn)了車道線的檢測(cè).文獻(xiàn)[15]提出了基于視覺更具有魯棒性的檢測(cè)方法,通過并行約束和多路模型擬合的方法提高了車道線檢測(cè)的準(zhǔn)確性.

        近年來,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network,CNN)在圖像分類、目標(biāo)檢測(cè)、圖像語意分割等領(lǐng)域取得了一系列突破性的研究成果.基于深度學(xué)習(xí)方法的車道線檢測(cè)常通過卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像特征進(jìn)行學(xué)習(xí)、分類和檢測(cè)[16-17].文獻(xiàn)[18-20]先后提出了區(qū)域卷積神經(jīng)網(wǎng)絡(luò)、快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)和超快區(qū)域卷積神經(jīng)網(wǎng)絡(luò),將網(wǎng)絡(luò)應(yīng)用到目標(biāo)檢測(cè)問題中,并在檢測(cè)速度和準(zhǔn)確率方面不斷提高.文獻(xiàn)[21]將改進(jìn)的CNN 應(yīng)用在公路車道線檢測(cè)方面,測(cè)試效果較霍夫變換和隨機(jī)抽樣一致算法大幅提升.為了進(jìn)一步提高目標(biāo)檢測(cè)的速度,文獻(xiàn)[22]又提出了一種端到端的目標(biāo)檢測(cè)算法YOLO (You only look once),將目標(biāo)檢測(cè)問題轉(zhuǎn)化為回歸問題,進(jìn)而將目標(biāo)和背景進(jìn)行更好的區(qū)分.文獻(xiàn)[23]提出的YOLOv2 算法在簡(jiǎn)化網(wǎng)絡(luò)結(jié)構(gòu)的同時(shí)提高了目標(biāo)檢測(cè)的準(zhǔn)確率.文獻(xiàn)[24]將YOLOv2 算法應(yīng)用在無人機(jī)航拍定位領(lǐng)域并得到理想效果,在一定程度上驗(yàn)證了算法的普適性.文獻(xiàn)[25]提出了一種端到端的可訓(xùn)練網(wǎng)絡(luò)VPGNet (Vanishing point guide network),通過對(duì)大量圖片的訓(xùn)練得到圖像中的車道線位置,為車道線檢測(cè)問題提供了一種全新的解決思路.文獻(xiàn)[26]提出的YOLOv3 算法借鑒了殘差神經(jīng)網(wǎng)絡(luò)的思想,成為目標(biāo)檢測(cè)算法中集檢測(cè)速度和準(zhǔn)確率于一身的優(yōu)秀方法,但其較YOLOv2算法相比,網(wǎng)絡(luò)結(jié)構(gòu)更為復(fù)雜,卷積層數(shù)目大幅增加,加大了小目標(biāo)在深層卷積過程中特征消失的風(fēng)險(xiǎn).

        為提高算法在車道線檢測(cè)方面的適用性和準(zhǔn)確性,本文在YOLOv3 算法的基礎(chǔ)上進(jìn)行改進(jìn),采用隨機(jī)性更小的K-means++算法替代K-means 算法對(duì)車道線標(biāo)簽進(jìn)行聚類分析,確定最優(yōu)的聚類數(shù)目和相應(yīng)的寬高值,并據(jù)此修改YOLOv3 算法中的Anchor 參數(shù).針對(duì)車道線檢測(cè)實(shí)時(shí)性和檢測(cè)目標(biāo)較小的特點(diǎn),改進(jìn)YOLOv3 算法卷積層結(jié)構(gòu),在保證檢測(cè)準(zhǔn)確率的同時(shí),提高算法的檢測(cè)速度,從而實(shí)現(xiàn)對(duì)公路車道線的檢測(cè).

        1 YOLOv3 算法

        1.1 YOLOv3 算法原理

        YOLOv3 算法將原輸入圖像劃分為S×S的網(wǎng)格,分別在每個(gè)網(wǎng)格中預(yù)測(cè)B個(gè)邊界框,以對(duì)C類目標(biāo)進(jìn)行檢測(cè),輸出每類目標(biāo)的邊界框且分別計(jì)算每個(gè)邊界框的置信度.置信度由每個(gè)網(wǎng)格中包含檢測(cè)目標(biāo)的概率和輸出邊界框的準(zhǔn)確度共同確定,其中輸出邊界框的準(zhǔn)確度定義為預(yù)測(cè)邊界框與真實(shí)邊界框的交并比(Intersection over union,IOU),其計(jì)算式為

        式中,conf為邊界框的置信度,Pr(obj)為網(wǎng)格中含有某類目標(biāo)的概率.

        每個(gè)網(wǎng)格預(yù)測(cè)的類別置信度為

        式中,i=1,2,···,I,I為檢測(cè)類別數(shù).

        通過設(shè)定閾值,將類別置信度低于閾值的邊界框剔除,并對(duì)類別置信度高于閾值的邊界框進(jìn)行非極大抑制后得到最終的邊界框.預(yù)測(cè)得到的邊界框包含x,y,w和h四個(gè)參數(shù),為了加快網(wǎng)絡(luò)學(xué)習(xí)速度、減少奇異樣本數(shù)據(jù)的影響,對(duì)以上四個(gè)參數(shù)進(jìn)行歸一化處理.如圖1 所示,設(shè)S=7,將整幅圖像劃分為7×7 的網(wǎng)格,虛線區(qū)域?yàn)檫吔缈蛭恢?點(diǎn)(x0,y0)為邊界框中心點(diǎn)坐標(biāo),中心點(diǎn)所在網(wǎng)格坐標(biāo)為(row,col)、widthimg和heightimg分別為整幅圖像的寬度和高度,widthbox和heightbox分別為邊界框的寬度和高度.歸一化過程如下.

        圖1 邊界框參數(shù)歸一化處理Fig.1 The normalization of boundary box parameters

        1)邊界框?qū)捀邭w一化處理

        2)中心點(diǎn)坐標(biāo)歸一化處理

        歸一化處理后,由于在每個(gè)網(wǎng)格中可得到x,y,w,h,conf五個(gè)預(yù)測(cè)量和C個(gè)類別中的一類,因此網(wǎng)絡(luò)的輸出大小為S×S×(5×B+C).

        1.2 YOLOv3 算法損失函數(shù)的計(jì)算

        損失函數(shù)用來表征模型的預(yù)測(cè)值與真實(shí)值間的不一致程度,是決定網(wǎng)絡(luò)效果的重要參數(shù)之一.YOLOv3算法的損失函數(shù)的設(shè)計(jì)主要從邊界框坐標(biāo)預(yù)測(cè)誤差、邊界框的置信度誤差、分類預(yù)測(cè)誤差這三個(gè)方面進(jìn)行考慮.損失值越小說明模型的魯棒性越好.YOLOv3損失函數(shù)計(jì)算式為

        式中,S為圖像的劃分系數(shù),B為每個(gè)網(wǎng)格中所預(yù)測(cè)的邊界框個(gè)數(shù),C為總分類數(shù),p為類別概率,c=0,1,···C為類別序號(hào),i=0,1,···S2為網(wǎng)格序號(hào),j=0,1,···B為邊框序號(hào),xi為第i個(gè)網(wǎng)格中的邊界框中心點(diǎn)橫坐標(biāo),yi為第i個(gè)網(wǎng)格中的邊界框中心點(diǎn)縱坐標(biāo),ωi為第i個(gè)網(wǎng)格中的邊界框的寬度,hi為第i個(gè)網(wǎng)格中的邊界框的高度,λcoord為權(quán)重系數(shù),λnoobj為懲罰權(quán)重系數(shù).

        2 YOLOv3 算法網(wǎng)絡(luò)改進(jìn)

        2.1 Darknet-53 特征提取網(wǎng)絡(luò)結(jié)構(gòu)

        YOLOv3 算法在Darknet-19 和ResNet 網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上提出了新的特征提取網(wǎng)絡(luò)Darknet-53.該特征提取網(wǎng)絡(luò)由52 個(gè)卷積層和1 個(gè)全連接層組成,交替使用3×3 和1×1 大小的卷積核進(jìn)行卷積,其網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示.

        圖2 Darknet-53 網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 The network structure of Darknet-53

        Darknet -53 網(wǎng)絡(luò)與 Darknet -19、ResNet-101、ResNet-152 網(wǎng)絡(luò)相比,在Top-1 準(zhǔn)確率、Top-5 準(zhǔn)確率和每秒鐘浮點(diǎn)運(yùn)算次數(shù)三個(gè)方面均具有明顯優(yōu)勢(shì)[26].

        2.2 YOLOv3 算法網(wǎng)絡(luò)結(jié)構(gòu)改進(jìn)

        YOLOv3 算法采用Darknet-53 特征提取網(wǎng)絡(luò),較Darknet-19 網(wǎng)絡(luò)相比,通過加深網(wǎng)絡(luò)層數(shù)提高了特征提取能力.然而,隨著網(wǎng)絡(luò)層數(shù)的加深,在提高目標(biāo)檢測(cè)的準(zhǔn)確性和召回率的同時(shí)也會(huì)帶來如特征消失等問題,兩者存在著一定的相互制衡關(guān)系.為得到更適合車道線目標(biāo)的深度學(xué)習(xí)網(wǎng)絡(luò),降低車道線小目標(biāo)在復(fù)雜背景下的漏檢風(fēng)險(xiǎn),精簡(jiǎn)YOLOv3網(wǎng)絡(luò)結(jié)構(gòu),分別去掉三個(gè)yolo 層前的兩組卷積層.改進(jìn)后的YOLOv3 算法共101 層,由69 層卷積層、23 層殘差層、4 層特征層、2 層上采樣層和3 層yolo 層構(gòu)成,其網(wǎng)絡(luò)結(jié)構(gòu)如圖3 所示.

        圖3 改進(jìn)YOLOv3 算法的網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 The network structure of the improved YOLOv3 algorithm

        首先,將圖像縮放為3 通道長寬均為416 的統(tǒng)一形式,作為整個(gè)網(wǎng)絡(luò)的輸入.其次,通過Darknet-53 網(wǎng)絡(luò)進(jìn)行特征提取,交替使用3×3 和1×1 大小的卷積核進(jìn)行卷積運(yùn)算,為避免隨著卷積深度的加深導(dǎo)致的退化問題,在原始YOLOv3 網(wǎng)絡(luò)的基礎(chǔ)上適當(dāng)減少卷積層數(shù),并在卷積過程中引入殘差網(wǎng)絡(luò)進(jìn)行恒等映射.分別將在77、84 和94 層得到13×13×512 維、26×26×768 維和52×52×384 維的輸出量作為三個(gè)特征,降維后送入yolo 層,通過三個(gè)尺度的訓(xùn)練得到最終的權(quán)重模型.最后,將標(biāo)記出車道線的測(cè)試圖像進(jìn)行輸出.

        2.3 YOLOv3 算法網(wǎng)絡(luò)參數(shù)優(yōu)化

        YOLOv3 算法中引入了Anchor 參數(shù),Anchor是一組寬高值固定的先驗(yàn)框.在目標(biāo)檢測(cè)過程中,先驗(yàn)框大小直接影響到檢測(cè)的速度和準(zhǔn)確度,因此在對(duì)公路車道線數(shù)據(jù)進(jìn)行訓(xùn)練時(shí),根據(jù)車道線標(biāo)簽固有特點(diǎn)設(shè)定網(wǎng)絡(luò)參數(shù)就顯得尤為重要.為適應(yīng)公路車道線標(biāo)簽的固有特點(diǎn),達(dá)到最優(yōu)的訓(xùn)練效果,使用K-means++聚類算法代替K-means 聚類算法對(duì)車道線標(biāo)簽進(jìn)行維度聚類分析,并進(jìn)行比較.上述兩種算法均為典型的聚類算法,由于考慮到Kmeans 算法在初始聚類中心的選擇上存在較大的隨機(jī)性,這種隨機(jī)性會(huì)對(duì)聚類結(jié)果產(chǎn)生一定的影響.因此,使用隨機(jī)性更小的K-means++算法可以有效降低K-means 算法由于隨機(jī)選擇初始聚類中心所帶來的聚類結(jié)果偏差.

        在使用K-means 和K-means++兩種聚類算法確定Anchor 參數(shù)的過程中,為減少由于先驗(yàn)框自身大小所帶來的歐氏距離誤差,以車道線標(biāo)簽樣本框與先驗(yàn)框間的交并比代替原始算法中的歐氏距離作為目標(biāo)函數(shù),目標(biāo)函數(shù)大小表示各個(gè)樣本與聚類中心間的偏差,目標(biāo)函數(shù)值越小表示聚類效果越好.目標(biāo)函數(shù)D的計(jì)算式為

        式中,box為樣本標(biāo)簽的目標(biāo)框,cen為聚類中心,n為樣本數(shù),k為類別數(shù).

        3 公路車道線檢測(cè)方法

        公路車道線檢測(cè)方法以YOLOv3 算法網(wǎng)絡(luò)結(jié)構(gòu)為基礎(chǔ),為精簡(jiǎn)網(wǎng)絡(luò)結(jié)構(gòu)、減少在小目標(biāo)檢測(cè)時(shí)由于卷積層深度過深而導(dǎo)致的特征消失問題,分別去掉三個(gè)yolo 層前的兩組卷積層,使用改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行訓(xùn)練和測(cè)試,圖4 為公路車道線檢測(cè)框圖,其檢測(cè)具體流程如下.

        圖4 公路車道線檢測(cè)框圖Fig.4 The flow chart of road lane line detection

        1)對(duì)訓(xùn)練集中的車道線數(shù)據(jù)進(jìn)行圖像預(yù)處理,將處理后統(tǒng)一形式的圖像作為整個(gè)訓(xùn)練網(wǎng)絡(luò)的輸入;

        2)將處理后的圖像送入Darknet-53 網(wǎng)絡(luò)進(jìn)行車道線特征提取;

        3)提取第77 層輸出量作為第1 個(gè)特征,并對(duì)該特征進(jìn)行一層卷積和一次上采樣;

        4)將第83 層輸出量與第61 層輸出量進(jìn)行特征拼接得到第2 個(gè)特征,并對(duì)該特征進(jìn)行一層卷積和一次上采樣;

        5)將第93 層輸出量與第36 層輸出量進(jìn)行特征拼接得到第3 個(gè)特征;

        6)分別將3 個(gè)特征送入yolo 層進(jìn)行訓(xùn)練,達(dá)到訓(xùn)練次數(shù)后停止迭代,并生成最終的權(quán)重模型;

        7)將測(cè)試集圖像輸入同一網(wǎng)絡(luò),調(diào)用訓(xùn)練得到的權(quán)重模型對(duì)測(cè)試集中圖像進(jìn)行車道線檢測(cè),并輸出檢測(cè)結(jié)果.

        4 實(shí)驗(yàn)與分析

        4.1 公路車道線數(shù)據(jù)集標(biāo)簽制作

        在目標(biāo)檢測(cè)問題中,訓(xùn)練數(shù)據(jù)集的選擇和原始圖像的標(biāo)簽制作是兩個(gè)至關(guān)重要的步驟,原始圖像標(biāo)簽的準(zhǔn)確性直接影響訓(xùn)練效果和測(cè)試的準(zhǔn)確性.實(shí)驗(yàn)中使用美國加利福尼亞理工大學(xué)車道線檢測(cè)數(shù)據(jù)庫作為數(shù)據(jù)集,庫內(nèi)共包含1 225 幅公路圖片,分別在科爾多瓦和華盛頓兩個(gè)地區(qū)對(duì)兩組不同場(chǎng)景進(jìn)行拍攝采集.首先將數(shù)據(jù)庫中的圖像按照VOC2007數(shù)據(jù)集格式進(jìn)行整理,按比例將數(shù)據(jù)集中的圖像隨機(jī)分為訓(xùn)練集和測(cè)試集兩類.其次使用labelImg 工具對(duì)訓(xùn)練集中的圖像進(jìn)行逐一標(biāo)記,并生成與之對(duì)應(yīng)的xml 格式的目標(biāo)框位置信息文件.最后編寫python 程序?qū)ml 格式的目標(biāo)框位置信息進(jìn)行歸一化處理并轉(zhuǎn)化為txt 格式,作為公路車道線數(shù)據(jù)集標(biāo)簽.

        4.2 公路車道線數(shù)據(jù)集標(biāo)簽聚類分析

        由于VOC 數(shù)據(jù)集中并不含有與公路車道線相關(guān)的數(shù)據(jù),使用YOLOv3 原始參數(shù)進(jìn)行訓(xùn)練會(huì)對(duì)訓(xùn)練時(shí)間和訓(xùn)練準(zhǔn)確度造成一定影響.因此需要對(duì)公路車道線標(biāo)簽重新進(jìn)行聚類分析,從而得到針對(duì)車道線檢測(cè)更具有代表性的Anchor 參數(shù).

        分別使用K-means 算法和K-means++算法對(duì)車道線標(biāo)簽進(jìn)行維度聚類分析,隨著k的不同取值,目標(biāo)函數(shù)D 變化曲線如圖5 所示,K-means++算法聚類后得到的先驗(yàn)框?qū)捀呷绫? 所示.

        圖5 不同 k 值對(duì)應(yīng)的目標(biāo)函數(shù)Fig.5 The objective function corresponding to different k values

        由圖5 可以看出,隨著k值的增大,K-means算法和K-means++算法目標(biāo)函數(shù)值均逐漸減小,聚類效果逐漸提高.然而,在目標(biāo)函數(shù)下降過程中,K-means++算法較K-means 算法曲線更為平滑,趨勢(shì)更為穩(wěn)定,在一定程度上減小了聚類偏差.同時(shí)由表1 結(jié)果可以看出在k值超過9 時(shí)會(huì)出現(xiàn)大小較為相近的聚類結(jié)果,產(chǎn)生冗余,由此取k=9 時(shí)的聚類結(jié)果作為改進(jìn)后的參數(shù).該參數(shù)與YOLOv3算法原始參數(shù)(10,13),(16,30),(33,23),(30,61),(62,45),(59,119),(116,90),(156,98)和(373,326)相比,聚類結(jié)果較為集中,且寬高明顯小于原始參數(shù),因此使用K-means++算法聚類得到Anchor 參數(shù)替代原始參數(shù)進(jìn)行訓(xùn)練和測(cè)試.

        表1 不同 k 值對(duì)應(yīng)的先驗(yàn)框?qū)捀逿able 1 The width and height of priori boxes corresponding to different k values

        4.3 實(shí)驗(yàn)環(huán)境配置與模型訓(xùn)練結(jié)果

        使用Intel(R)-CPU-E5-2620-V4 處理器,在Ubuntu 16.04 操作系統(tǒng)下進(jìn)行實(shí)驗(yàn).為了提高計(jì)算速度、減少訓(xùn)練時(shí)間,使用Nvidia GeForce GTX 1080 Ti 顯卡、CUDA8.0 和cuDNN6.0 調(diào)用GPU進(jìn)行加速.訓(xùn)練過程中,對(duì)算法的各項(xiàng)指標(biāo)進(jìn)行動(dòng)態(tài)記錄,隨著迭代次數(shù)的不斷增加,平均損失函數(shù)的變化趨勢(shì)如圖6 所示,平均交并比變化趨勢(shì)如圖7所示.

        圖6 平均損失變化曲線Fig.6 The change curve of average loss

        由圖6 可以看出,訓(xùn)練開始時(shí)的損失函數(shù)值約為1.7,隨著訓(xùn)練迭代次數(shù)的增加,損失值逐漸減小,趨勢(shì)逐漸平穩(wěn).迭代至50 000 次時(shí)的損失值在0.1上下浮動(dòng),即達(dá)到理想效果.

        由圖7 可以看出,訓(xùn)練開始時(shí)的平均交并比為0.58,隨著訓(xùn)練迭代次數(shù)的增加,平均交并比逐漸增大,說明模型的檢測(cè)準(zhǔn)確率在不斷提高,迭代至10 000次后,平均交并比可保持在90%以上.調(diào)用訓(xùn)練生成的權(quán)重文件對(duì)測(cè)試集圖片進(jìn)行測(cè)試,測(cè)試后可自動(dòng)對(duì)測(cè)試圖片中的同向白色實(shí)線車道進(jìn)行標(biāo)記,并給出相應(yīng)標(biāo)簽和置信度,測(cè)試效果如圖8 所示.

        圖7 平均交并比變化曲線Fig.7 The change curve of average IOU

        圖8 車道線測(cè)試效果Fig.8 The result of lane line test

        4.4 YOLO 算法測(cè)試性能對(duì)比

        對(duì)數(shù)據(jù)集中250 幅城市路面圖像進(jìn)行分組,剔除部分不包含車道線目標(biāo)的圖像后,學(xué)習(xí)樣本和測(cè)試樣本共計(jì)225 幅,采用5 倍交叉驗(yàn)證法,即學(xué)習(xí)樣本180 幅,測(cè)試樣本45 幅,進(jìn)行實(shí)驗(yàn).在確定訓(xùn)練權(quán)重模型的過程中,為加快網(wǎng)絡(luò)的訓(xùn)練速度,有效防止過擬合,根據(jù)經(jīng)驗(yàn)設(shè)定網(wǎng)絡(luò)中的權(quán)值衰減系數(shù)為0.005,初始學(xué)習(xí)率為0.001,閾值為0.25,迭代次數(shù)為50 200,類別數(shù)為1,Anchor 參數(shù)為表1 中使用K-means++算法聚類分析后得到的寬高結(jié)果.

        對(duì)相同車道線訓(xùn)練集分別使用K-means 聚類算法優(yōu)化Anchor 參數(shù)的YOLOv3 網(wǎng)絡(luò)(YOLOv3-107)、K-means 聚類算法優(yōu)化Anchor 參數(shù)并改進(jìn)網(wǎng)絡(luò)層數(shù)(YOLOv3-101)、K-means++聚類算法優(yōu)化Anchor 參數(shù)(YOLOv3-K-107)、K-means++聚類算法優(yōu)化Anchor 參數(shù)并改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)(YOLOv3-K-101)等四種網(wǎng)絡(luò)進(jìn)行4 輪實(shí)驗(yàn).

        分別使用每輪訓(xùn)練最終生成的權(quán)重文件對(duì)測(cè)試集中45 幅公路圖像的車道線進(jìn)行檢測(cè),平均測(cè)試時(shí)間、平均漏檢率和平均準(zhǔn)確率 (Mean average precision,mAP)統(tǒng)計(jì)結(jié)果如表2 所示.對(duì)單幅圖像在4 組不同網(wǎng)絡(luò)中得到的測(cè)試準(zhǔn)確率對(duì)比結(jié)果如圖9 所示.

        表2 不同網(wǎng)絡(luò)結(jié)構(gòu)測(cè)試性能對(duì)比Table 2 The test performance comparison of different network structures

        圖9 測(cè)試集圖像在不同網(wǎng)絡(luò)結(jié)構(gòu)中的檢測(cè)準(zhǔn)確率Fig.9 The detection accuracy of test images in different network structures

        由表2 和圖9 可見,改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)的YOLOv3-101 網(wǎng)絡(luò)相比未改進(jìn)的YOLOv3-107 網(wǎng)絡(luò),檢測(cè)的平均測(cè)試時(shí)間縮短了2 ms,mAP 提高了5.4%,且有效避免了車道線漏檢情況;使用K-means++算法進(jìn)行聚類的YOLOv3-K-107 網(wǎng)絡(luò),相比使用Kmeans 算法進(jìn)行聚類的YOLOv3-107 網(wǎng)絡(luò),平均漏檢概率降低了6.7%且mAP 值提高了7%;使用K-means++算法進(jìn)行聚類且精簡(jiǎn)網(wǎng)絡(luò)結(jié)構(gòu)的YOLOv3-K-101 網(wǎng)絡(luò)效果最優(yōu),其mAP 值為95.3%,測(cè)試速度達(dá)50 幀/s 且有效避免了漏檢.

        5 結(jié)束語

        本文提出了一種改進(jìn)YOLOv3 算法的公路車道線檢測(cè)方法.首先使用K-means++算法對(duì)Anchor 參數(shù)進(jìn)行優(yōu)化,其次利用Darknet-53 網(wǎng)絡(luò)進(jìn)行特征提取,最后通過改進(jìn)的YOLOv3-K-101 網(wǎng)絡(luò)實(shí)現(xiàn)特征拼接進(jìn)而實(shí)現(xiàn)公路車道線檢測(cè),得到以下結(jié)論:

        1)提出了基于深度學(xué)習(xí)YOLOv3 算法的公路車道線檢測(cè)方法,將深度學(xué)習(xí)方法與車道線檢測(cè)問題相結(jié)合,實(shí)現(xiàn)了對(duì)公路車道線的端到端檢測(cè).

        2)根據(jù)公路車道線目標(biāo)自身特點(diǎn),使用隨機(jī)性更小的K-means++聚類算法替代K-means 算法,對(duì)YOLOv3 算法中的Anchor 參數(shù)進(jìn)行優(yōu)化.實(shí)驗(yàn)表明,優(yōu)化后的YOLOv3-K-107 網(wǎng)絡(luò)比未優(yōu)化的網(wǎng)絡(luò)mAP 值提高了7%,在一定程度上提高了車道線檢測(cè)的準(zhǔn)確性.

        3)針對(duì)公路車道線檢測(cè)中漏檢率高的問題,精簡(jiǎn)YOLOv3 網(wǎng)絡(luò)結(jié)構(gòu),改進(jìn)后的YOLOv3-101 網(wǎng)絡(luò)較未改進(jìn)前,有效避免了車道線漏檢情況,同時(shí)mAP 值提高了5.4%,平均測(cè)試時(shí)間縮短2 ms.

        4)結(jié)合2)和3),優(yōu)化網(wǎng)絡(luò)參數(shù)且改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)的YOLOv3-K-101 網(wǎng)絡(luò),mAP 值達(dá)95%,較改進(jìn)前提高了11%,檢測(cè)速度達(dá)50 幀/s,同時(shí)也有效避免了車道線漏檢現(xiàn)象.

        由于所提方法在對(duì)傾斜的車道線檢測(cè)方面存在局限性,下一步將采用對(duì)豎直目標(biāo)框進(jìn)行圖像變換的方法或結(jié)合語義分割的思路進(jìn)一步深入研究.

        猜你喜歡
        檢測(cè)
        QC 檢測(cè)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        “幾何圖形”檢測(cè)題
        “角”檢測(cè)題
        “有理數(shù)的乘除法”檢測(cè)題
        “有理數(shù)”檢測(cè)題
        “角”檢測(cè)題
        “幾何圖形”檢測(cè)題
        免费啪啪视频一区| 蜜桃精品人妻一区二区三区| 日本一卡二卡3卡四卡免费观影2022| 亚洲av天堂一区二区| 揄拍成人国产精品视频| 中国农村熟妇性视频| 无码不卡免费一级毛片视频| 亚洲女同性恋在线播放专区| 精品精品久久宅男的天堂| 99久久精品日本一区二区免费| 精品国产AⅤ一区二区三区4区| 日韩av一区二区三区在线观看| 青青草骚视频在线观看| 成人国内精品久久久久一区| 亚洲日韩图片专区小说专区| 日本高清在线一区二区| 久久精品网站免费观看| 在线亚洲午夜理论av大片| 最新国产成人在线网站| 精品婷婷国产综合久久| 午夜性色一区二区三区不卡视频| 好男人视频在线视频| 亚洲中文字幕有码av| 日韩不卡的av二三四区| 欧美性巨大╳╳╳╳╳高跟鞋| 在线观看av手机网址| 亚洲av色精品国产一区二区三区| 手机在线看片| 无码精品黑人一区二区三区| 国产一区二区精品网站看黄| 久久本道久久综合伊人| 女人和拘做受全程看视频| 欧美性猛交xxxx乱大交蜜桃| 中文字幕一区二区区免| 变态调教一区二区三区女同| 亚洲av无码国产精品色午夜洪| 一本大道久久a久久综合| 日本韩国三级在线观看| 熟女少妇精品一区二区| 欧美日韩精品乱国产| 日本一区人妻蜜桃臀中文字幕|