亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv5+DeepSORT檢測(cè)數(shù)據(jù)的車頭時(shí)距混合分布模型研究

        2023-08-12 03:47:22丁正道吳紅蘭孫有朝
        測(cè)控技術(shù) 2023年7期
        關(guān)鍵詞:時(shí)距車頭邊框

        丁正道, 吳紅蘭, 孫有朝

        (南京航空航天大學(xué) 民航學(xué)院,江蘇 南京 211106)

        車頭時(shí)距是指在同向行駛的一列車隊(duì)中,兩輛連續(xù)行駛的車輛的車頭駛過(guò)某一點(diǎn)的時(shí)間間隔。車輛的到達(dá)被視為一個(gè)隨機(jī)事件序列,因此車頭時(shí)距是一個(gè)隨機(jī)變量,研究該變量的分布規(guī)律對(duì)于交通安全研究、通行能力分析、道路服務(wù)水平、優(yōu)化道路設(shè)計(jì)和管理等具有重要意義[1]。

        由于交通流的到達(dá)具有某種程度的隨機(jī)性,采用單一的標(biāo)準(zhǔn)統(tǒng)計(jì)模型很難描述這種隨機(jī)性的統(tǒng)計(jì)規(guī)律。嚴(yán)穎等[2]基于高斯混合模型將車頭時(shí)距分為飽和狀態(tài)和非飽和狀態(tài),但只考慮了飽和狀態(tài)交通流的車頭時(shí)距分布,未對(duì)自由流狀態(tài)的車頭時(shí)距進(jìn)行研究。陶鵬飛等[3]將車輛的行駛狀態(tài)分為跟馳和自由流2種狀態(tài),提出車頭時(shí)距的混合分布模型。王福建等[4]在陶鵬飛的研究基礎(chǔ)上,引入強(qiáng)弱跟馳狀態(tài),結(jié)合自由流狀態(tài)的負(fù)指數(shù)分布模型,構(gòu)建三元混合分布模型,但對(duì)于描述自由流狀態(tài)的負(fù)指數(shù)分布模型,較小的車頭時(shí)距出現(xiàn)的概率較大,這與實(shí)際情況不符。

        此外,對(duì)于車頭時(shí)距研究的數(shù)據(jù)采集方式,以往多采用實(shí)地采集并填調(diào)查表格的方法,這種方法耗費(fèi)大量人力和時(shí)間,且采集車頭時(shí)距精確度較低。隨著智能交通采集技術(shù)的發(fā)展,車頭時(shí)距采集的方式逐漸增多。章慶等[5]提出一種基于雷達(dá)數(shù)據(jù)的飽和車頭時(shí)距檢測(cè)方法,此種方法需要在道路上搭建微波發(fā)射設(shè)備,但對(duì)于多車道的檢測(cè)需要布置多個(gè)雷達(dá)設(shè)備,且雷達(dá)在惡劣天氣檢測(cè)效果差。王殿海等[6]采用基于自動(dòng)車牌識(shí)別數(shù)據(jù)對(duì)不同車型的車頭時(shí)距進(jìn)行檢測(cè),采用不同數(shù)量單一模型的高斯混合模型對(duì)采集的數(shù)據(jù)進(jìn)行擬合,最后使用AIC準(zhǔn)則對(duì)最優(yōu)單一模型數(shù)量進(jìn)行判斷,計(jì)算過(guò)程復(fù)雜,且僅采用過(guò)車視頻結(jié)合人工調(diào)查的方式模擬車牌數(shù)據(jù)采集,未進(jìn)行車頭時(shí)距自動(dòng)采集的實(shí)踐。嚴(yán)穎等[2]雖然采用交叉口電子警察的號(hào)牌識(shí)別數(shù)據(jù)進(jìn)行采集,但僅限于在有專業(yè)交通電子設(shè)備的路段進(jìn)行采集,不具有便捷性,而且自動(dòng)車牌識(shí)別數(shù)據(jù)的時(shí)間戳僅精確到秒,采樣精度低。

        為實(shí)現(xiàn)車頭時(shí)距樣本的自動(dòng)化采集并提高車頭時(shí)距模型的準(zhǔn)確性,采用YOLOv5+DeepSORT算法對(duì)車頭時(shí)距樣本進(jìn)行自動(dòng)精確采集,并提出一種車頭時(shí)距混合模型。首先,分別訓(xùn)練用于車輛目標(biāo)檢測(cè)的YOLOv5檢測(cè)器模型和DeepSORT算法中用于描述車輛外觀特征的ReID模型,接著將過(guò)車視頻每一幀輸入到訓(xùn)練好的YOLOv5模型和DeepSORT算法便可實(shí)現(xiàn)對(duì)車輛的實(shí)時(shí)檢測(cè)跟蹤。在此基礎(chǔ)上,抽取過(guò)車視頻第一幀為基準(zhǔn)圖,在基準(zhǔn)圖中框選檢測(cè)區(qū)域和設(shè)置檢測(cè)線,通過(guò)檢測(cè)車輛是否觸碰到檢測(cè)線來(lái)對(duì)車頭時(shí)距樣本進(jìn)行自動(dòng)采集;針對(duì)強(qiáng)跟馳、弱跟馳和自由流三種駕駛行為特性,構(gòu)建雙高斯-移位負(fù)指數(shù)混合模型;根據(jù)自動(dòng)采集的樣本,采用最大期望(Expectation Maximization,EM)算法擬合出雙高斯-移位負(fù)指數(shù)混合模型,最后采用K-S(Kolmogorov-Smirnov)檢驗(yàn)對(duì)擬合結(jié)果進(jìn)行擬合優(yōu)度檢驗(yàn),并與三元混合分布、二元混合分布和威布爾分布模型的擬合效果進(jìn)行對(duì)比。

        1 車頭時(shí)距采集算法

        1.1 YOLOv5車輛檢測(cè)模型

        YOLOv5是一個(gè)單階段探測(cè)器和基于區(qū)域的目標(biāo)檢測(cè)網(wǎng)絡(luò)模型,由3個(gè)主要組件構(gòu)成:BackBone、Neck和Head[7],因其高檢測(cè)準(zhǔn)確性和實(shí)時(shí)性而在各個(gè)領(lǐng)域被廣泛研究與應(yīng)用。YOLOv5的官方模型中有YOLOv5n、YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x等多個(gè)版本,性能和特點(diǎn)如表1所示。

        表1 YOLOv5的官方模型的性能及特點(diǎn)

        表1中,YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x的模型參數(shù)量依次增大,其相應(yīng)的檢測(cè)精度也隨著提升。然而隨之模型變大,檢測(cè)速度也有所降低,可以看到Y(jié)OLOv5s檢測(cè)速度為2.2 ms,而YOLOv5x的檢測(cè)速度是其將近3倍。而在車頭時(shí)距樣本采集時(shí),在滿足檢測(cè)實(shí)時(shí)性的情況下,模型的檢測(cè)速度越高,則代表其每秒處理的幀數(shù)越多,從而其采集車頭時(shí)距樣本的準(zhǔn)確度也越高。

        此外,在實(shí)際的采集車頭時(shí)距樣本中,為避免因傳輸過(guò)車視頻環(huán)節(jié)帶來(lái)的時(shí)間延遲導(dǎo)致樣本采集的實(shí)時(shí)性降低,從而降低了車頭時(shí)距自動(dòng)采集在智能交通中的實(shí)時(shí)性應(yīng)用價(jià)值的問(wèn)題,應(yīng)采用路側(cè)邊緣端處理,較大參數(shù)量的模型對(duì)邊緣端設(shè)備的性能有很高的要求,設(shè)備采購(gòu)成本將會(huì)極大地增加。

        因此,選擇小參數(shù)量的YOLOv5s模型無(wú)疑是降低車頭時(shí)距采集成本,提高車頭時(shí)距采集準(zhǔn)確度和實(shí)時(shí)性的較好選擇。故本文選用YOLOv5s模型檢測(cè)車輛,關(guān)于YOLOv5s模型的車輛檢測(cè)精確度問(wèn)題,將在下文的測(cè)試結(jié)果中表明其是否滿足采集需求。

        1.1.1 數(shù)據(jù)集

        本文所采用訓(xùn)練YOLOv5模型的數(shù)據(jù)集是從網(wǎng)絡(luò)上的過(guò)車視頻中截取,圖像中車輛全為朝向鏡頭行駛方向,共300張,其中包括單目標(biāo)圖像、多目標(biāo)圖像和目標(biāo)重疊等圖像,圖1為數(shù)據(jù)集中車輛檢測(cè)的主要場(chǎng)景,展現(xiàn)了數(shù)據(jù)集中幾種較為典型的檢測(cè)場(chǎng)景。

        圖1 數(shù)據(jù)集中車輛檢測(cè)的主要場(chǎng)景

        因?yàn)橛脕?lái)訓(xùn)練模型的數(shù)據(jù)較少,為了提升模型泛化性并避免過(guò)度擬合,所以對(duì)數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng)處理以擴(kuò)充數(shù)據(jù)集[8],數(shù)據(jù)增強(qiáng)的部分圖片如圖2所示。

        圖2 數(shù)據(jù)增強(qiáng)的部分圖片

        每張圖像都有2個(gè)增強(qiáng)版本,因此最終數(shù)據(jù)集圖像數(shù)量比原始圖像數(shù)量增加了2倍。

        利用makesense.ai標(biāo)注軟件對(duì)所用數(shù)據(jù)集圖片進(jìn)行標(biāo)注,轉(zhuǎn)化為訓(xùn)練所用的txt格式,并將數(shù)據(jù)集以8:1:1的比例分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。

        1.1.2 模型改進(jìn)

        (1) 采用CIoU損失函數(shù)。

        交并比(IoU)是一種評(píng)價(jià)目標(biāo)檢測(cè)器性能的指標(biāo),是由預(yù)測(cè)框與目標(biāo)框間交集和并集的比值計(jì)算,其考慮的是預(yù)測(cè)框和目標(biāo)框重疊面積。

        (1)

        式中:A為預(yù)測(cè)框;B為目標(biāo)框。

        然而,IoU沒(méi)有引入目標(biāo)框與預(yù)測(cè)框中心的之間的距離信息和邊界框?qū)捀弑鹊某叨刃畔?這使得目標(biāo)物體的預(yù)測(cè)框無(wú)法準(zhǔn)確貼合目標(biāo)。但在采集車頭時(shí)距樣本時(shí),檢測(cè)框是否貼合目標(biāo)的真實(shí)輪廓和是否穩(wěn)定決定著檢測(cè)框能否代表車輛的準(zhǔn)確位置,這直接影響著樣本的采集精度。而LossCIoU作為改進(jìn)模型的邊界框損失函數(shù),考慮了邊框中心距離和邊框?qū)捀弑鹊某叨刃畔?使網(wǎng)絡(luò)在訓(xùn)練時(shí)可以保證預(yù)測(cè)框快速收斂,并能夠得到更高的回歸定位精度。CIoU計(jì)算公式為

        (2)

        式中:b和bgt分別為預(yù)測(cè)邊框和真實(shí)邊框的中心點(diǎn);ρ(b,bgt)為兩框中心點(diǎn)間距離;c為預(yù)測(cè)框與目標(biāo)框的最小外接矩形的對(duì)角線距離;α和v由式(3)、式(4)計(jì)算。

        (3)

        (4)

        式中:h和hgt分別為預(yù)測(cè)框與目標(biāo)框的高度;w和wgt分別為預(yù)測(cè)框與目標(biāo)框的寬度。LossCIoU計(jì)算公式為

        LossCIoU=1-CIoU

        (5)

        (2) 采用DIoU-NMS。

        在傳統(tǒng)的NMS中,IoU常用于提取置信度高的目標(biāo)檢測(cè)框,而抑制置信度低的誤檢框。其操作方法是,選取得分最高的檢測(cè)框M,將與M的IoU大于NMS閾值的其他檢測(cè)框的置信度置為0,從而剔除了冗余檢測(cè)框。然而在面對(duì)車輛重疊場(chǎng)景的時(shí)候,兩輛車很接近,由于兩車輛檢測(cè)框的IoU值較大,經(jīng)過(guò)傳統(tǒng)的NMS處理后,有可能只剩下一個(gè)檢測(cè)框,導(dǎo)致與實(shí)際情況不符。對(duì)于傳統(tǒng)NMS在重疊遮擋情況中經(jīng)常產(chǎn)生錯(cuò)誤抑制,DIoU-NMS引入了檢測(cè)框之間的中心距離作為額外的檢測(cè)準(zhǔn)則。DIoU-NMS的得分Score更新公式定義如下。

        (6)

        式中:si為類別得分值;M為得分最高的檢測(cè)框;Bi為其他檢測(cè)框;ε為NMS閾值。對(duì)于兩物體檢測(cè)框IoU較大的情況,DIoU-NMS將考慮兩個(gè)框之間的中心距離大小,若它們之間的中心距離較大時(shí),將同時(shí)保留這兩個(gè)物體的檢測(cè)框,從而有效提高檢測(cè)精度。因此,本文選用DIoU-NMS替代NMS。

        1.1.3 實(shí)驗(yàn)設(shè)置

        YOLOv5s模型實(shí)驗(yàn)配置如表2所示。

        表2 YOLOv5s模型實(shí)驗(yàn)配置

        訓(xùn)練參數(shù)設(shè)置為:輸入圖像尺寸為640像素×640像素;訓(xùn)練過(guò)程中,初始學(xué)習(xí)率為0.01,終止學(xué)習(xí)率為0.2;動(dòng)量參數(shù)設(shè)為0.937;衰減系數(shù)為0.0005;Batch-size為8;訓(xùn)練輪數(shù)為200 epoches。

        1.1.4 YOLOv5訓(xùn)練結(jié)果

        本文采用YOLOv5官方給出的預(yù)訓(xùn)練網(wǎng)絡(luò)模型YOLOv5s進(jìn)行遷移學(xué)習(xí),經(jīng)200 epoches迭代訓(xùn)練后,選取得到的最優(yōu)模型對(duì)測(cè)試集進(jìn)行測(cè)試。測(cè)試結(jié)果如表3所示。

        表3 原YOLOv5s模型和本文改進(jìn)模型經(jīng)測(cè)試的結(jié)果對(duì)比

        經(jīng)過(guò)訓(xùn)練后的本文模型精準(zhǔn)率達(dá)到了95.5%,召回率為96.9%,平均精度AP(0.5)達(dá)到98.1%,滿足后期檢測(cè)需求,選取該模型用于車頭時(shí)距檢測(cè)。

        1.2 DeepSORT多目標(biāo)跟蹤算法

        在對(duì)車頭時(shí)距樣本進(jìn)行采集時(shí),需要跟蹤每一輛駛?cè)霗z測(cè)區(qū)域的車輛。DeepSORT算法可對(duì)檢測(cè)到的每輛車進(jìn)行軌跡跟蹤,并為其分配特定的ID號(hào)。DeepSORT算法帶有深度關(guān)聯(lián)特征[9],在SORT算法的基礎(chǔ)上,添加了一個(gè)CNN模型[10]。這個(gè)CNN模型被稱為重識(shí)別ReID模型,用來(lái)提取由檢測(cè)器界定目標(biāo)部分的圖像的特征,利用深度學(xué)習(xí)算法以減少大量ID切換。

        1.2.1 跟蹤處理和狀態(tài)估計(jì)

        DeepSORT 利用目標(biāo)檢測(cè)器的結(jié)果初始化跟蹤器,每個(gè)跟蹤器都設(shè)置有一個(gè)計(jì)數(shù)器,該計(jì)數(shù)器在卡爾曼濾波預(yù)測(cè)期間遞增,并在軌跡與測(cè)量關(guān)聯(lián)匹配時(shí)重置為0。跟蹤器在預(yù)定的最大時(shí)間內(nèi)沒(méi)有關(guān)聯(lián)匹配到合適的檢測(cè)結(jié)果,則認(rèn)為該目標(biāo)已離開(kāi)場(chǎng)景,將其從軌跡集中刪除。對(duì)于無(wú)法從現(xiàn)有軌跡集中關(guān)聯(lián)匹配的每個(gè)檢測(cè)目標(biāo),都會(huì)分配跟蹤器,若這些跟蹤器在前3幀都能有預(yù)測(cè)結(jié)果匹配檢測(cè)結(jié)果,則認(rèn)為出現(xiàn)了新的軌跡;若前3幀內(nèi)無(wú)法成功關(guān)聯(lián)軌跡,則刪除跟蹤器。

        1.2.2 分配問(wèn)題

        DeepSORT通過(guò)匈牙利算法匹配預(yù)測(cè)框和跟蹤框,并在此過(guò)程中結(jié)合運(yùn)動(dòng)信息和外觀特征兩項(xiàng)指標(biāo)。對(duì)于運(yùn)動(dòng)信息,算法使用馬氏距離度量卡爾曼濾波器的預(yù)測(cè)結(jié)果和檢測(cè)器結(jié)果的匹配程度,馬氏距離的計(jì)算公式為

        d(1)(i,j)=(dj-yi)TSi-1(dj-yi)

        (7)

        (8)

        然后指定一個(gè)閾值,比較d(2)(i,j)與閾值的大小來(lái)判斷關(guān)聯(lián)與否。此時(shí),就可以使用馬氏距離提供關(guān)于物體短期運(yùn)動(dòng)的位置信息預(yù)測(cè);使用余弦距離提供的外觀特征信息來(lái)對(duì)長(zhǎng)期遮擋后的目標(biāo)進(jìn)行ID恢復(fù)。最后使用加權(quán)和將這兩個(gè)指標(biāo)進(jìn)行結(jié)合。

        ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j)

        (9)

        1.2.3 ReID模型訓(xùn)練

        DeepSORT算法使用一個(gè)殘差卷積神經(jīng)網(wǎng)絡(luò)作為ReID模型以提取目標(biāo)的外觀特征。原始算法是對(duì)行人進(jìn)行檢測(cè)跟蹤,其輸入圖像均被縮放為128像素×64像素大小[9],為使ReID模型適用于車輛特征的提取,將ReID模型的輸入圖像大小設(shè)置為128像素×128像素[11],該ReID模型如表4所示。

        訓(xùn)練ReID模型的數(shù)據(jù)集來(lái)自VeRi數(shù)據(jù)集[12],其由20臺(tái)攝像機(jī)拍攝完成,包含超過(guò)50000張776輛車的圖像。模型結(jié)構(gòu)采用上述調(diào)整后的CNN模型選取VeRi數(shù)據(jù)集中常見(jiàn)車型的100輛車的圖片為訓(xùn)練數(shù)據(jù)集,并且提取每輛車的第一個(gè)圖片為測(cè)試集。經(jīng)200 epoches訓(xùn)練后得到的ReID模型,測(cè)試結(jié)果的Top-1準(zhǔn)確率為80%。采用過(guò)車視頻對(duì)模型進(jìn)行檢測(cè),無(wú)明顯ID跳變和漏檢。

        2 樣本數(shù)據(jù)采集

        采用基于YOLOv5+DeepSORT的方法對(duì)車頭時(shí)距樣本進(jìn)行采集,圖3為車頭時(shí)距樣本數(shù)據(jù)的采集流程。

        圖3 采集車頭時(shí)距樣本數(shù)據(jù)的方法流程

        2.1 過(guò)車視頻拍攝與樣本采集

        攝像機(jī)在拍攝過(guò)車視頻時(shí)應(yīng)避免較大的抖動(dòng),防止因抖動(dòng)導(dǎo)致檢測(cè)線標(biāo)定位置相對(duì)于路面移動(dòng)導(dǎo)致車頭時(shí)距檢測(cè)出現(xiàn)誤差。

        抽取過(guò)車視頻第一幀圖像作為基準(zhǔn)并標(biāo)定檢測(cè)區(qū)域,如圖4所示,在要檢測(cè)的車道上沿車道線選取合適的四邊形檢測(cè)區(qū)域,以四邊形底邊為車頭時(shí)距檢測(cè)線,當(dāng)有車輛越過(guò)該線時(shí),記錄此車與前車之間的車頭時(shí)距。

        圖4 提取出過(guò)車視頻的第一幀為基準(zhǔn)并標(biāo)定檢測(cè)區(qū)域

        采集單個(gè)車頭時(shí)距樣本的具體流程如下:

        ① 通過(guò)YOLOv5和DeepSORT算法檢測(cè)和跟蹤每輛車,并取每輛車的檢測(cè)邊框底邊中心點(diǎn)作為此輛車的位置。

        ② 當(dāng)前幀中,通過(guò)判斷車輛邊框底邊中心點(diǎn)相對(duì)于檢測(cè)區(qū)域四條邊的位置關(guān)系,判斷此車輛是否在該檢測(cè)區(qū)域內(nèi),并依此計(jì)算當(dāng)前幀中四邊形檢測(cè)區(qū)域內(nèi)所有車輛,將車輛編號(hào)計(jì)入數(shù)組Car_Array=[C1,C2,…,Ci,…,Cn]。

        ③ 若接下來(lái)的某幀中,其上一幀的Car_Array內(nèi)Ci不在當(dāng)前幀的Car_Array中,則代表前車越過(guò)車頭時(shí)距檢測(cè)線,并記當(dāng)前此幀序號(hào)第k1幀。

        ④ 同理,當(dāng)相鄰的下一次車輛越過(guò)車頭時(shí)距檢測(cè)線時(shí),記此幀序號(hào)第k2幀。

        ⑤ 計(jì)算得到車頭時(shí)距為

        t=(k2-k1)×tframe

        (10)

        式中:tframe為相鄰兩幀之間的時(shí)間間隔;若視頻幀率為30 f/s,則tframe=1/30 s。

        此外,通過(guò)車輛計(jì)數(shù)的方法也可對(duì)車頭時(shí)距樣本進(jìn)行自動(dòng)采集,采集流程與上述使用車輛編號(hào)的方法類似,通過(guò)對(duì)比前后兩幀檢測(cè)區(qū)域內(nèi)車輛的數(shù)量是否減少來(lái)確定前車是否駛過(guò)檢測(cè)線,從而確定駛過(guò)時(shí)刻。但若在同一幀中,前車越過(guò)檢測(cè)線駛出檢測(cè)區(qū)域,后邊一輛車正好越過(guò)檢測(cè)區(qū)域四邊形的頂邊進(jìn)入檢測(cè)區(qū)域,此種情況無(wú)法判斷是否有車輛駛離檢測(cè)區(qū)域,則會(huì)帶來(lái)樣本漏采的情況。

        2.2 樣本采集可靠性分析

        在對(duì)車頭時(shí)距樣本進(jìn)行采集時(shí),誤差可能來(lái)自以下幾個(gè)方面。

        (1) YOLOv5檢測(cè)車輛時(shí),目標(biāo)車輛檢測(cè)的位置誤差。

        ① 檢測(cè)框上代表車輛的像素點(diǎn)選取不當(dāng)。

        ② 檢測(cè)邊框無(wú)法貼合實(shí)際車輛輪廓。

        (2) 多目標(biāo)跟蹤準(zhǔn)確度(Multiple Object Tracking Accuracy,MOTA)[13]。

        ① YOLOv5檢測(cè)時(shí)漏檢和誤檢車輛。

        ② DeepSORT算法跟蹤車輛時(shí)目標(biāo)ID跳變。

        (3) 其他情況:攝像機(jī)拍攝時(shí)的抖動(dòng)、視頻幀率大小情況等。

        采集誤差來(lái)源的第(1)條,YOLOv5模型檢測(cè)車輛位置的誤差來(lái)自兩個(gè)方面。

        一是選取YOLOv5目標(biāo)檢測(cè)框上的像素點(diǎn)無(wú)法準(zhǔn)確代表車輛在地平面上的位置而帶來(lái)系統(tǒng)誤差。車頭時(shí)距視頻監(jiān)控視角如圖5所示。

        圖5 代表目標(biāo)車輛位置的檢測(cè)框上像素點(diǎn)

        由投影幾何學(xué)知識(shí)可知,若選擇檢測(cè)邊框頂邊中點(diǎn)C用以采集樣本(如圖6(a)所示),邊框頂邊中點(diǎn)C在地面的投影距離車輛車頭真實(shí)位置的長(zhǎng)度為d1,位置誤差較大。采集樣本的過(guò)程中,當(dāng)車頭駛過(guò)檢測(cè)區(qū)域很大一段距離時(shí),才記錄當(dāng)前車輛的駛離時(shí)間。而且對(duì)于不同車高的車輛,即便是處于同一位置,其投影點(diǎn)位置也會(huì)有所不同,會(huì)導(dǎo)致車輛位置檢測(cè)誤差和不穩(wěn)定。本文選擇車輛檢測(cè)邊框的底邊中點(diǎn)D來(lái)代表車輛車頭位置(如圖6(b)所示),其在地平面上的投影點(diǎn)B相比于其他投影點(diǎn)要更接近于車頭的實(shí)際位置,車輛底盤高度帶來(lái)的位置檢測(cè)誤差為d2,且不同車輛的底盤高度差別并不是很大,這也提高了YOLOv5車輛位置檢測(cè)的穩(wěn)定性。所以選擇目標(biāo)檢測(cè)邊框的底邊中點(diǎn)代表每一輛車的位置更符合實(shí)際情況,提高了車輛位置檢測(cè)的可靠性。

        圖6 車輛監(jiān)控視角攝影示意圖

        二是檢測(cè)邊框的跳動(dòng),檢測(cè)邊框無(wú)法貼合實(shí)際車輛輪廓,導(dǎo)致車輛的檢測(cè)位置不定帶來(lái)的不定誤差。通過(guò)測(cè)量車輛實(shí)際邊框底邊中點(diǎn)相對(duì)于YOLOv5檢測(cè)邊框的底邊中點(diǎn)的距離d,然后對(duì)該距離進(jìn)行歸一化處理以衡量車輛位置因檢測(cè)邊框的跳動(dòng)帶來(lái)的檢測(cè)誤差(err):

        (11)

        式中:Ddiagonal為當(dāng)前幀中實(shí)際車輛檢測(cè)邊框的對(duì)角線長(zhǎng)度。

        樣本采集誤差來(lái)源第(2)條中,由于YOLOv5在檢測(cè)目標(biāo)時(shí)出現(xiàn)車輛漏檢和誤檢的情況,與DeepSORT算法跟蹤目標(biāo)時(shí)出現(xiàn)車輛ID跳變的情況將直接影響車頭時(shí)距樣本采集的準(zhǔn)確性。為綜合考慮漏檢、誤檢和ID跳變所帶來(lái)的誤差影響,采用MOTA指標(biāo)綜合評(píng)價(jià)本文算法的有效性,MOTA被定義為

        (12)

        式中:t為幀序列數(shù);FN為車輛漏檢數(shù);FP為車輛誤檢數(shù);IDSW為目標(biāo)ID跳變數(shù);GTt為當(dāng)前幀中總目標(biāo)數(shù)量。

        采用過(guò)車視頻對(duì)采集算法進(jìn)行測(cè)試。在過(guò)車視頻中,實(shí)際過(guò)車數(shù)量為248輛,實(shí)測(cè)車頭時(shí)距平均值為2.66 s;隨機(jī)抽取過(guò)車中的50輛車,再抽取每一個(gè)車輛的任意2幀圖片進(jìn)行位置誤差計(jì)算,最后計(jì)算得到平均位置檢測(cè)誤差;選取檢測(cè)區(qū)域內(nèi)車輛的。本文方法檢測(cè)結(jié)果及其對(duì)比如表5所示。

        表5 本文采集方法與其他采集方法的檢測(cè)結(jié)果

        由表5可知,采用車輛計(jì)數(shù)的方法采集車頭時(shí)距獲得的車頭時(shí)距誤差較大為4.89%。使用改進(jìn)YOLOv5s模型作為檢測(cè)器的方法的車輛位置檢測(cè)平均誤差為0.92%,使用原YOLOv5s模型的采集方法的檢測(cè)位置平均誤差為1.2%,這表明本文方法中YOLOv5檢測(cè)車輛位置具有較高的可靠性,且前者相比于后者的位置檢測(cè)更加準(zhǔn)確。此外改進(jìn)后模型的漏檢次數(shù)為2次,ID跳變3次,均小于使用原始YOLOv5s模型的采集方法。本文算法對(duì)檢測(cè)區(qū)域內(nèi)的MOTA指標(biāo)為99.93%,表明此算法可有效滿足車頭時(shí)距樣本采集的需求。

        兩者采集的車頭時(shí)距樣本平均值相當(dāng),分別為2.72 s和2.73 s,樣本平均相對(duì)誤差分別為2.25%和2.63%,車頭時(shí)距樣本采集誤差在5%以內(nèi)即可接受[14],所以,雖然本文方法在車頭時(shí)距樣本采集時(shí)有漏檢、車輛ID跳變、檢測(cè)位置誤差、視頻幀率等原因存在,但其平均相對(duì)誤差仍在可接受范圍之內(nèi),所以本文方法滿足車頭時(shí)距樣本采集精確度的需求。過(guò)車視頻的幀率為30 f/s,而本文算法的單幀檢測(cè)速度為10 ms左右,滿足車頭時(shí)距實(shí)時(shí)性采集需求。

        3 車頭時(shí)距分布模型構(gòu)建

        對(duì)于正常行駛在道路上的車輛,在對(duì)車頭時(shí)距的概率分布進(jìn)行研究時(shí),分為跟馳狀態(tài)和自由流狀態(tài),兩者的概率分布性質(zhì)不同。

        跟馳狀態(tài)主要出現(xiàn)在交通流的密度較大時(shí),車隊(duì)中任意一輛車的車速受前車的制約,與前車保持緊隨。但前后車之間保持一個(gè)安全距離,以留給后車足夠的反應(yīng)時(shí)間來(lái)面對(duì)前車的突發(fā)制動(dòng)。由于車隊(duì)具有制約性、延遲性和傳遞性,所有這個(gè)安全距離是波動(dòng)的。不同的駕駛員對(duì)安全距離的心理閾值不同,基于此類情況將跟馳行為分為謹(jǐn)慎型和激進(jìn)型,故跟馳所保持的車頭時(shí)距概率分布情況亦有所不同。王福建[4]和Taieb-Maimon[15]等對(duì)激進(jìn)型和謹(jǐn)慎型兩種駕駛行為的車頭時(shí)距進(jìn)行了研究,表明其概率分布呈現(xiàn)以均值為中心的左右對(duì)稱的情況,并成功用高斯混合模型對(duì)跟馳狀態(tài)的車頭時(shí)距做出通過(guò)顯著性水平為0.05假設(shè)檢驗(yàn)的擬合。

        自由流狀態(tài)出現(xiàn)在交通流密度較小時(shí),駕駛員能夠根據(jù)自己的駕駛風(fēng)格、道路和車輛條件進(jìn)行駕駛,基本不受道路上其他車輛的影響,并保持期望車速行駛。而在關(guān)于混合駕駛行為的車頭時(shí)距研究中,大多采用負(fù)指數(shù)分布來(lái)表示自由流交通的車頭時(shí)距分布特性,但這導(dǎo)致較小的車頭時(shí)距出現(xiàn)的概率較大,與實(shí)際情況不符。因此,對(duì)于車頭時(shí)距概率分布特性的描述很難用單一的標(biāo)準(zhǔn)分布模型來(lái)描述,故本文采用高斯混合模型結(jié)合移位負(fù)指數(shù)模型來(lái)描述路段車頭時(shí)距分布特性。本文車頭時(shí)距概率分布模型如式(13)所示。

        f(t)=w1f1j+w2f2j+w3f3j

        (13)

        式中:f(t)為車頭時(shí)距t的概率混合分布模型函數(shù);w1、w2、w3分別為兩種跟馳狀態(tài)和自由流狀態(tài)的樣本數(shù)據(jù)占總數(shù)據(jù)的比例,并且w1+w2+w3=1;f1j、f2j和f3j的表達(dá)式為

        (14)

        (15)

        (16)

        式中:j=1,2,3,…,N,N為樣本總量;μ1、μ2分別為兩種跟馳狀態(tài)模型的均值;σ1、σ2為兩種跟馳狀態(tài)模型的標(biāo)準(zhǔn)差,表示兩種狀態(tài)下車頭時(shí)距t相對(duì)于均值的離散程度;λ為自由流狀態(tài)下車輛到達(dá)率;τ為移位參數(shù),取車頭時(shí)距t數(shù)據(jù)中最小的值min(t)。

        4 模型參數(shù)估計(jì)算法

        本文采用EM算法來(lái)對(duì)模型的參數(shù)進(jìn)行估計(jì)。EM算法是一種迭代算法,用于含有隱變量的概率模型參數(shù)極大似然估計(jì)。算法步驟為:

        輸入:檢測(cè)到車頭時(shí)距(t1,t2,…,tN),本文模型f(t)。

        輸出:本文模型參數(shù)θ=(σ1,σ2,μ1,μ2,λ,w1,w2,w3)。

        ① 初始化模型參數(shù)的值進(jìn)行迭代。

        (17)

        (18)

        ③ M步:計(jì)算下一輪迭代的模型參數(shù)。

        (19)

        (20)

        (21)

        (22)

        ④ 重復(fù)第②步和第③步,直至各參數(shù)收斂在給定范圍內(nèi)波動(dòng)停止迭代。

        5 實(shí)例應(yīng)用

        5.1 樣本數(shù)據(jù)采集

        過(guò)車視頻拍攝地點(diǎn)位于寧宣高速路段,時(shí)間為傍晚高峰時(shí)刻。視頻拍攝完成后,采用YOLOv5 + DeepSORT算法對(duì)過(guò)車視頻中車頭時(shí)距樣本進(jìn)行采集。

        對(duì)比分析基于ALPR采集方式[6]和本文采集方式因數(shù)據(jù)采樣所產(chǎn)生的誤差,如表6所示。

        表6 不同車頭時(shí)距樣本采集方式與人工實(shí)測(cè)數(shù)據(jù)之間的平均相對(duì)誤差

        表6中,車頭時(shí)距樣本的實(shí)測(cè)平均值為2.58 s,基于ALPR和本文方法的樣本平均值分別為2.92 s和2.63 s,兩種采樣方法相對(duì)與實(shí)測(cè)平均值的相對(duì)誤差分別為13.18%和1.94%。由于數(shù)據(jù)誤差在5%以內(nèi)才可接受[14],基于ALPR的車頭時(shí)距采集方式誤差較大,采用本文YOLOv5+DeepSORT識(shí)別方法采集的車頭時(shí)距樣本滿足實(shí)際的數(shù)據(jù)輸入準(zhǔn)確性要求。

        5.2 模型估計(jì)結(jié)果與分析

        利用YOLOv5+DeepSORT檢測(cè)過(guò)車視頻中車頭時(shí)距數(shù)據(jù),按照統(tǒng)計(jì)檢驗(yàn)方法對(duì)獲取的數(shù)據(jù)進(jìn)行本文模型的擬合,應(yīng)用EM算法進(jìn)行參數(shù)估計(jì),本文模型及對(duì)比模型的參數(shù)估計(jì)結(jié)果如表7所示。

        表7 本文模型及對(duì)比模型的參數(shù)估計(jì)結(jié)果

        各模型擬合效果對(duì)比如圖7所示,可以看出威布爾分布和二元混合分布模型對(duì)樣本數(shù)據(jù)的擬合效果較差,而本文模型和三元混合分布模型兩者的擬合曲線與樣本數(shù)據(jù)最為接近,可以明顯看出后兩者的雙峰特征,代表強(qiáng)跟馳和弱跟馳兩種跟馳狀態(tài)的車頭時(shí)距密度分布狀況。但本文模型由于引入移位負(fù)指數(shù)模型來(lái)描述自由流狀態(tài)的車頭時(shí)距分布,所以在較小車頭時(shí)距處的概率密度分布更貼合實(shí)際樣本數(shù)據(jù)。

        圖7 各模型擬合效果對(duì)比

        擬合結(jié)果采用K-S檢驗(yàn)[16]進(jìn)行評(píng)估,原假設(shè)H0為總體樣本數(shù)據(jù)符合相應(yīng)的模型分布,顯著性水平選取0.05,計(jì)算樣本數(shù)據(jù)與本文模型和對(duì)比模型的累計(jì)分布曲線之間相應(yīng)的最大垂直差D值,然后與K-S檢驗(yàn)臨界值表中的顯著性水平為0.05的臨界值D0進(jìn)行比較,若D>D0則拒絕原假設(shè),否則接受原假設(shè)。本文模型與對(duì)比模型的K-S檢驗(yàn)結(jié)果如表8所示,表中p值是對(duì)原假設(shè)成立的評(píng)價(jià),代表模型在顯著水平為0.05情況下的非拒絕率。如果p值較小,則對(duì)原假設(shè)有效性產(chǎn)生懷疑;若p值越大,則越能接受該模型[17]。

        表8 顯著水平0.05情況下的K-S檢驗(yàn)結(jié)果

        在表8中,臨界值D0為0.0548,本文模型、三元混合分布、二元混合分布和威布爾分布模型的最大垂直差的D值分別為0.03、0.04、0.07和0.11。所以僅本文模型和三元混合模型的D值小于臨界值D0,接受原假設(shè)H0,即采集的車頭時(shí)距數(shù)據(jù)樣本符合本文模型和三元混合模型在顯著水平為0.05下的概率密度分布。但本文模型的非拒絕率p值為63.2%,要遠(yuǎn)遠(yuǎn)大于三元混合模型的非拒絕率p值30.1%,所以相比于三元混合模型,本文所建立的概率分布模型更好地?cái)M合了實(shí)測(cè)的樣本數(shù)據(jù)。

        6 結(jié)束語(yǔ)

        采用YOLOv5+DeepSORT的方法對(duì)車頭時(shí)距數(shù)據(jù)進(jìn)行自動(dòng)化采集,此方法對(duì)車輛的位置檢測(cè)可靠,滿足車頭時(shí)距采集的準(zhǔn)確度需求和實(shí)時(shí)性要求,并避免了樣本漏檢的情況,解決了人工采集方法工作量大、耗時(shí)長(zhǎng)和基于ALPR車牌數(shù)據(jù)采集的不準(zhǔn)確的問(wèn)題。此算法可以部署在邊緣端智能化交通檢測(cè)器上對(duì)道路上的車頭時(shí)距進(jìn)行實(shí)時(shí)采集,并通過(guò)通信技術(shù)將數(shù)據(jù)上傳至數(shù)據(jù)庫(kù),可為智能化道路交通參數(shù)采集提供一種方法。此外,本文在三元混合分布模型的基礎(chǔ)上對(duì)車頭時(shí)距概率分布模型進(jìn)行改進(jìn),引入移位負(fù)指數(shù)分布模型來(lái)描述自由流狀態(tài)車頭時(shí)距的概率密度分布。結(jié)果表明該模型具有更好地?cái)M合效果,可以更好的體現(xiàn)車頭時(shí)距在各種交通流狀態(tài)下的變化特性,可將此模型進(jìn)一步應(yīng)用到交通安全研究、通行能力分析、道路服務(wù)水平、優(yōu)化道路設(shè)計(jì)和管理等方面。

        進(jìn)行車頭時(shí)距采集的環(huán)境是在天氣晴朗的白天。在未來(lái)的研究中,可考慮加入雨天和黑夜等復(fù)雜交通場(chǎng)景下的車頭時(shí)距樣本采集,提高該車頭時(shí)距采集方法的通用性。

        猜你喜歡
        時(shí)距車頭邊框
        一模六產(chǎn)品篩板模具的設(shè)計(jì)與應(yīng)用
        智能制造(2022年4期)2022-08-18 16:21:14
        趣味性進(jìn)度提示設(shè)計(jì)對(duì)時(shí)距知覺(jué)的影響
        高鐵車頭為什么是子彈頭的?
        軍事文摘(2020年24期)2020-02-06 05:56:58
        學(xué)習(xí)障礙學(xué)生與普通學(xué)生短時(shí)距估計(jì)的比較
        用Lightroom添加寶麗來(lái)邊框
        回溯式時(shí)距估計(jì)的計(jì)時(shí)機(jī)制*
        給照片制作專業(yè)級(jí)的邊框
        在市場(chǎng)中成熟起來(lái)的大車頭村
        擺脫邊框的束縛優(yōu)派
        標(biāo)量計(jì)時(shí)模型的影響因素及發(fā)展*
        国产99r视频精品免费观看| 国产在线无码精品无码| 激情伊人五月天久久综合| 天天综合亚洲色在线精品| 色欲AV无码久久精品有码| 日本美女性亚洲精品黄色| 精品一区二区av天堂| 中文字幕一区二区三在线| 亚洲天堂av中文字幕在线观看| 国产精品人成在线观看免费| 天堂а√在线最新版中文在线| 欧美亚洲综合另类| 精品国产亚洲av成人一区| 国产自产二区三区精品| 国产女人的高潮国语对白| 国产精品无需播放器| 亚洲中文字幕国产综合| 亚洲高清三区二区一区| 亚洲精品熟女国产| 国产 中文 制服丝袜 另类| 精精国产xxxx视频在线播放器| 久久伊人中文字幕有码久久国产| 高清日韩av在线免费观看| 国产亚洲欧美精品久久久| 国产欧美久久久另类精品| 国产网友自拍视频在线观看| 亚洲av综合av一区二区三区 | 日韩毛片在线| 国产一区二区三区免费主播| 亚洲精品成人无百码中文毛片| 99精品国产一区二区三区a片 | 亚洲在线一区二区三区四区| 国内揄拍国内精品久久| 亚洲国产精品无码久久一线| 国产成a人亚洲精v品无码性色| 99热这里只有精品久久6| 一道之本加勒比热东京| 毛片无码国产| XXXXBBBB欧美| 国产日产高清一区二区三区| 三级做a全过程在线观看|