亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv5和DeepSort的交通流參數(shù)檢測(cè)方法

        2023-09-25 17:13:06單振宇侯曉雯
        現(xiàn)代計(jì)算機(jī) 2023年14期
        關(guān)鍵詞:檢測(cè)模型

        單振宇,張 琳,侯曉雯

        (1. 長沙理工大學(xué)交通運(yùn)輸工程學(xué)院,長沙 410114;2. 中國海洋大學(xué)信息與工程學(xué)部,青島 266100)

        0 引言

        交通流量、速度等交通流參數(shù)的檢測(cè)是交通調(diào)查外業(yè)工作中的主要任務(wù)之一,采集的交通流信息可用于靈活的交通管理與交通安全評(píng)價(jià)等任務(wù)。目前交通調(diào)查中常用的交通流參數(shù)檢測(cè)方法仍然以人工現(xiàn)場(chǎng)觀測(cè)為主,但人工方法存在效率低、誤檢率高、成本大等問題;此外,高峰時(shí)期車流量較大,現(xiàn)場(chǎng)觀測(cè)也存在一定的安全隱患。因此本研究基于外業(yè)采集的交通視頻,利用深度學(xué)習(xí)技術(shù)在內(nèi)業(yè)完成流量與速度的自動(dòng)檢測(cè)任務(wù)。

        基于視頻的交通流參數(shù)檢測(cè)方法可分為傳統(tǒng)機(jī)器學(xué)習(xí)方法和深度學(xué)習(xí)方法。對(duì)于傳統(tǒng)機(jī)器學(xué)習(xí)方法,El Bouziady 等[1]通過背景差分法檢測(cè)車輛,由合加速穩(wěn)健特征算法(speeded up robust features,SURF)對(duì)車輛顯著外型信息特征進(jìn)行匹配并生成稀疏深度圖,經(jīng)過像素坐標(biāo)轉(zhuǎn)換后由幀差法計(jì)算車速。Tourani 等[2]把通過混合高斯背景差分法檢測(cè)到的車輛使用形態(tài)學(xué)變換與過濾算法進(jìn)行匹配,結(jié)合斑點(diǎn)跟蹤算法跟蹤車輛,由幀間行駛距離估計(jì)車速。蔣建國等[3]借助視覺前景提取算法(visual background extractor, ViBe)分離背景,隨后基于像素以及視頻幀相結(jié)合的算法更新背景,最后由虛擬線圈法統(tǒng)計(jì)道路交通流量。張冬梅等[4]針對(duì)無人機(jī)(unmanned aerial vehicle,UAV)視頻,利用改進(jìn)的多幀平均方法獲取初始背景,由混合高斯背景算法更新背景,通過背景差分法檢測(cè)車輛目標(biāo),最后由虛擬線圈法獲取實(shí)時(shí)交通流量。上述傳統(tǒng)機(jī)器學(xué)習(xí)方法檢測(cè)過程相對(duì)簡(jiǎn)單,處理速度較快,但是對(duì)檢測(cè)環(huán)境要求較高,檢測(cè)精度不穩(wěn)定。

        對(duì)于深度學(xué)習(xí)方法,Arinaldi等[5]使用Faster R-CNN 檢測(cè)模型檢測(cè)交通視頻中的車輛目標(biāo),基于核相關(guān)濾波算法(kernel correlation filter,KCF)進(jìn)行目標(biāo)跟蹤,根據(jù)被跟蹤車輛行駛距離和時(shí)間檢測(cè)車速。Ke 等[6]利用組合Haar 級(jí)聯(lián)和卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)來檢測(cè)UAV 視頻中的車輛目標(biāo),并通過KLT(Kanade Lucas Tomasi)跟蹤算法跟蹤車輛,進(jìn)而獲取道路上車輛速度以及交通流量等信息。Liu 等[7]使用遷移學(xué)習(xí)后的深度神經(jīng)網(wǎng)絡(luò)(deep neural network, DNN)檢測(cè)道路中的車輛,然后基于卡爾曼濾波算法進(jìn)行跟蹤,根據(jù)跟蹤結(jié)果估計(jì)了車流量與車速。Li 等[8]提出一種基于Faster R-CNN 和域自適應(yīng)(DA)的車輛檢測(cè)方法,通過空間金字塔Lucas Kanade光流法計(jì)算車輛在兩幀之間的行駛距離,并結(jié)合檢測(cè)道路區(qū)域面積和車輛數(shù)獲取流量、密度、速度信息。Li等[9]在YOLOv3目標(biāo)檢測(cè)模型的基礎(chǔ)上引入了金字塔網(wǎng)絡(luò)結(jié)構(gòu),改進(jìn)了小尺寸和遮擋場(chǎng)景下的車輛檢測(cè)效果,隨后使用多目標(biāo)跟蹤算法(confidence multi-object tracking,CMOT)跟蹤車輛,構(gòu)建了交通流三參數(shù)的檢測(cè)框架。賴見輝等[10]使用YOLOv3 目標(biāo)檢測(cè)算法檢測(cè)路側(cè)采集的交通視頻,建立了透視投影變換加卡爾曼濾波預(yù)測(cè)加匈牙利分配的交通流量計(jì)數(shù)框架。

        深度學(xué)習(xí)技術(shù)的發(fā)展有效降低了外界環(huán)境對(duì)目標(biāo)特征信息提取的影響,提高了車輛檢測(cè)與跟蹤效果。然而,多數(shù)深度學(xué)習(xí)的方法采用的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,模型參數(shù)量與計(jì)算量較大,不適合小算力的移動(dòng)端設(shè)備使用,且難以在實(shí)際應(yīng)用中實(shí)時(shí)運(yùn)行。意識(shí)到了這一點(diǎn),劉磊等[11]提出YOLO 檢測(cè)和Meanshift 快速跟蹤的車流量檢測(cè)方法。文奴等[12]通過使用可變性卷積和MobileNetV3 輕量化的YOLOv4 目標(biāo)檢測(cè)模型接合DeepSort 算法實(shí)現(xiàn)了多車道的交通流量檢測(cè)。上述工作的改進(jìn)雖有一定成效,但準(zhǔn)確率和實(shí)時(shí)性仍有一定的提升空間。

        因此,本文提出一種基于改進(jìn)YOLOv5s 和DeepSort 的端到端的實(shí)時(shí)交通流參數(shù)檢測(cè)方法。為提高車輛檢測(cè)模型運(yùn)行速度、降低對(duì)使用設(shè)備的算力要求,引入MobileNetV3 網(wǎng)絡(luò)作為YOLOv5s 的骨干網(wǎng)絡(luò);為提高車輛檢測(cè)時(shí)的定位精度,使用SIoU Loss 作為車輛邊界框的損失函數(shù)。為提高車輛跟蹤算法的跟蹤精度與速度,輕量化原算法的外觀特征提取網(wǎng)絡(luò)并在車輛重識(shí)別數(shù)據(jù)集上重新訓(xùn)練。最后,融合改進(jìn)的YOLOv5s 目標(biāo)檢測(cè)模型和DeepSort 多目標(biāo)跟蹤算法實(shí)施交通流參數(shù)檢測(cè)任務(wù)。

        1 交通流參數(shù)檢測(cè)模型

        本文提出的實(shí)時(shí)交通流參數(shù)檢測(cè)方法主要分為車輛檢測(cè)、車輛跟蹤、交通流參數(shù)檢測(cè)三部分,整體流程如圖1所示。首先,使用改進(jìn)的YOLOv5s 模型提取視頻中的車輛目標(biāo)的位置與類型信息;其次,使用改進(jìn)的DeepSort 多目標(biāo)跟蹤算法結(jié)合車輛外觀信息與運(yùn)動(dòng)信息跟蹤車輛目標(biāo);最后,設(shè)置虛擬檢測(cè)線并構(gòu)建檢測(cè)區(qū)域,通過檢測(cè)區(qū)域中車輛的行駛方向和時(shí)間計(jì)算流量與速度信息。

        圖1 交通流參數(shù)檢測(cè)流程

        1.1 車輛檢測(cè)

        1.1.1 YOLOv5s

        YOLOv5 是YOLO(you only look once)系列檢測(cè)模型的最新版本,較前代版本(YOLOv3、YOLOv4 等)在速度、精度上均有較大提升。YOLOv5按照模型大小,從小到大可分為YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x。鑒于實(shí)時(shí)性的考慮,本文選擇YOLOv5s作為基礎(chǔ)檢測(cè)模型。

        YOLOv5s 模型的網(wǎng)絡(luò)結(jié)構(gòu)主要包括輸入端、Backbone 骨干網(wǎng)絡(luò)、Neck 融合網(wǎng)絡(luò)和輸出端四部分。其中,輸入端對(duì)輸入圖像進(jìn)行Mosaic 數(shù)據(jù)增強(qiáng)、自適應(yīng)錨框計(jì)算以及自適應(yīng)圖片縮放等數(shù)據(jù)預(yù)處理操作,豐富數(shù)據(jù)特征。Backbone骨干網(wǎng)絡(luò)提取不同層次的圖像特征,是占比整個(gè)模型參數(shù)量最大的部分,原模型使用Focus模塊、CSP 瓶頸層結(jié)構(gòu)以及空間金字塔池化模塊SPPF。Neck 融合網(wǎng)絡(luò)的設(shè)計(jì)采用了路徑聚合結(jié)構(gòu)PAN 加特征金字塔結(jié)構(gòu)FPN 的結(jié)構(gòu),加強(qiáng)特征信息的融合能力,進(jìn)一步擴(kuò)大感受野,有效保留圖像的上下文信息。輸出端輸出檢測(cè)結(jié)果,包括目標(biāo)位置和類別信息。

        1.1.2 YOLOv5s改進(jìn)

        為進(jìn)一步降低模型的參數(shù)量和計(jì)算量,使其更適合部署到移動(dòng)端設(shè)備,本文使用Mobile-NetV3-Small[13]作為Backbone 骨干網(wǎng)絡(luò)。Mobile-NetV3 通過使用逆向殘差結(jié)構(gòu)(inverted residual structure)、線性瓶頸模塊(linear bottleneck)、深度可分離卷積(depthwise separable convolutions)降低模型參數(shù)大小與計(jì)算量,并引入具有SE(squeeze and excite)機(jī)制的輕量級(jí)注意力機(jī)制模塊,通過神經(jīng)結(jié)構(gòu)搜索NAS來獲取網(wǎng)絡(luò)的最佳結(jié)構(gòu)、參數(shù)配置,彌補(bǔ)網(wǎng)絡(luò)輕量化帶來的精度損失,既保持了良好的特征提取能力,又極大程度上壓縮了模型。此外,本文還改進(jìn)YOLOv5s的邊界框損失函數(shù),使用SIoU Loss[14]作為目標(biāo)邊界框損失函數(shù),相比原損失函數(shù)增加了預(yù)測(cè)邊界框和真實(shí)邊界框中心距離和長寬比例的懲罰項(xiàng),可以加快網(wǎng)絡(luò)訓(xùn)練時(shí)預(yù)測(cè)框的收斂,提高回歸定位精度。本文改進(jìn)的檢測(cè)模型記作M-YOLOv5s,網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

        圖2 改進(jìn)的YOLOv5s網(wǎng)絡(luò)結(jié)構(gòu)

        1.2 車輛跟蹤

        1.2.1 DeepSort

        DeepSort算法是經(jīng)典的多目標(biāo)跟蹤算法,由Sort 算法改進(jìn)而來,由于Sort 算法僅考慮了目標(biāo)運(yùn)動(dòng)信息,當(dāng)目標(biāo)被遮擋后容易出現(xiàn)跟蹤丟失的問題。因此,DeepSort算法在運(yùn)動(dòng)信息的基礎(chǔ)上添加了外觀信息,即加入神經(jīng)網(wǎng)絡(luò)提取目標(biāo)的外觀特征信息,提高遮擋情況下的跟蹤準(zhǔn)確率。除此之外,整體依舊延續(xù)了卡爾曼濾波算法預(yù)測(cè)和匈牙利算法匹配的技術(shù)路線,如圖3所示。首先,由卡爾曼濾波預(yù)測(cè)目標(biāo)運(yùn)動(dòng)狀態(tài),得到描述目標(biāo)位置和狀態(tài)的信息(x,y,r,h,x?,y?,r?,h?);其中:(x,y)表示檢測(cè)框的中心坐標(biāo);r,h分別表示檢測(cè)框的長寬比和寬度;(x?,y?,r?,h?)表示前四個(gè)參數(shù)對(duì)應(yīng)的速度信息。其次,結(jié)合運(yùn)動(dòng)信息和外觀信息進(jìn)行目標(biāo)關(guān)聯(lián),計(jì)算運(yùn)動(dòng)信息時(shí)使用馬氏距離描述卡爾曼濾波算法預(yù)測(cè)結(jié)果和檢測(cè)模型檢測(cè)結(jié)果之間的誤差,馬氏距離表達(dá)式為

        圖3 DeepSort跟蹤算法流程

        其中:dj表示第j個(gè)檢測(cè)結(jié)果的狀態(tài)向量,yi表示第i個(gè)預(yù)測(cè)結(jié)果的狀態(tài)向量。Si表示檢測(cè)結(jié)果和跟蹤結(jié)果之間的協(xié)方差矩陣。對(duì)于外觀信息,則先計(jì)算出每一個(gè)檢測(cè)框dj對(duì)應(yīng)的外觀特征描述符rj。由于車輛和行人運(yùn)動(dòng)方式不同,車輛通常是直線運(yùn)動(dòng),相鄰兩幀的外觀相似度變化不大,而行人會(huì)經(jīng)常更換行進(jìn)位置導(dǎo)致相鄰兩幀的外觀相似度變化較大。因此,對(duì)于車輛而言不需要再構(gòu)建車輛外觀特征合集,只計(jì)算檢測(cè)結(jié)果和跟蹤結(jié)果最近時(shí)間的相似度即可,一定程度上簡(jiǎn)化了算法復(fù)雜度。外觀信息相似度由深度余弦距離衡量,其定義為

        隨后,使用線性加權(quán)的方式(見式(3))結(jié)合二者,λ為超參數(shù),由匈牙利算法進(jìn)行幀間目標(biāo)匹配。

        再次,對(duì)狀態(tài)確定的目標(biāo)通過前后兩幀目標(biāo)框之間的交并比(IoU)大小構(gòu)建相似度矩陣,再次使用匈牙利算法匹配。最后,更新卡爾曼濾波算法。

        1.2.2 DeepSort改進(jìn)

        在提取外觀信息時(shí),原算法使用的是一個(gè)離線神經(jīng)網(wǎng)絡(luò)(wide residual network,WRN),但由于WRN 參數(shù)量和計(jì)算量較大,使得Deep-Sort 算法相比Sort算法運(yùn)行速度降低。鑒于實(shí)時(shí)性考慮,本文使用輕量型神經(jīng)網(wǎng)絡(luò)Mobile-NetV3-Small 作為DeepSort 算法的外觀特征提取網(wǎng)絡(luò)。此外,原算法的特征提取網(wǎng)絡(luò)使用行人重識(shí)別數(shù)據(jù)集訓(xùn)練,并把輸入圖片限定為128 × 64大小來擬合行人寬高比。因此,為使其更適用于車輛特征提取,本文將輸入圖像大小調(diào)整到64 ×128,并在車輛重識(shí)別數(shù)據(jù)集VeRi[15]上重新進(jìn)行訓(xùn)練。本文改進(jìn)的跟蹤算法記作M-DeepSort。

        1.3 交通流參數(shù)檢測(cè)

        1.3.1 流量檢測(cè)

        考慮到DeepSort 跟蹤算法中卡爾曼濾波需要一定的時(shí)間確保預(yù)測(cè)的穩(wěn)定性,本文設(shè)置了虛擬檢測(cè)區(qū)域,如圖4灰色區(qū)域所示。當(dāng)一個(gè)全新的車輛ID 通過檢測(cè)區(qū)域時(shí),自動(dòng)生成數(shù)據(jù)字典保存該ID 車輛在檢測(cè)區(qū)域出現(xiàn)的幀次數(shù),根據(jù)其出現(xiàn)的次數(shù)判斷該次計(jì)數(shù)是否有效,可以減少車輛因出現(xiàn)身份切換IDs導(dǎo)致的流量統(tǒng)計(jì)錯(cuò)誤,本文將其設(shè)置為三次。其次,根據(jù)同一ID車輛的在檢測(cè)區(qū)域的運(yùn)動(dòng)軌跡的起終點(diǎn)坐標(biāo)計(jì)算一個(gè)矢量方向來判斷該車輛的運(yùn)動(dòng)方向。最后,根據(jù)行駛方向信息和流量計(jì)數(shù)區(qū)域的身份檢測(cè)信息進(jìn)行雙向交通流量統(tǒng)計(jì)。

        圖4 車輛檢測(cè)線與檢測(cè)區(qū)域示意圖

        1.3.2 速度檢測(cè)

        速度由車輛經(jīng)過兩虛擬檢測(cè)線的時(shí)間除以檢測(cè)線之間的實(shí)際距離獲得。相比于根據(jù)像素距離推算車速的方法,本文方法優(yōu)點(diǎn)如下:由于不需要對(duì)攝像機(jī)進(jìn)行標(biāo)定,該方法普適性更強(qiáng);由于只需要計(jì)算車輛在兩個(gè)檢測(cè)線之間的行駛時(shí)間,方法更為簡(jiǎn)單。速度的計(jì)算公式如下:

        其中:f1為車輛ID 檢測(cè)框質(zhì)點(diǎn)坐標(biāo)經(jīng)過檢測(cè)線1時(shí)的幀數(shù),f2為經(jīng)過檢測(cè)線2 時(shí)的幀數(shù),F(xiàn)PS 為檢測(cè)視頻的幀率,S為兩條檢測(cè)線之間的實(shí)際距離,由實(shí)際測(cè)量確定。

        2 實(shí)驗(yàn)結(jié)果與分析

        本文實(shí)驗(yàn)在Windows 10環(huán)境下使用Python語言,基于PyTorch 深度學(xué)習(xí)框架進(jìn)行,硬件配置為NVIDIA RTX3090 GPU,Intel(R)i9-10900K CPU。

        2.1 模型訓(xùn)練

        本節(jié)模型訓(xùn)練采用的評(píng)價(jià)指標(biāo)包括檢測(cè)精度AP、運(yùn)行速度FPS、模型參數(shù)量/MB,計(jì)算量/G,IDs/次,其中,前兩個(gè)指標(biāo)的數(shù)值越高,表明模型效果越好,后三個(gè)指標(biāo)的數(shù)值越低則表明效果越好。

        2.1.1 車輛檢測(cè)模型訓(xùn)練

        車輛檢測(cè)模型訓(xùn)練使用的數(shù)據(jù)集為UADETRAC 數(shù)據(jù)集,其由北京市、天津市的24 個(gè)不同卡口視頻截取組成,包括近14 萬幀圖像,121萬已標(biāo)記的檢測(cè)框,由于兩幀圖像之間相似度較高,為了減少訓(xùn)練時(shí)間,本文每隔10 幀抽取一張圖片,共獲得13402 張圖像,按照7∶3的比例劃分訓(xùn)練集與測(cè)試集。

        為保證實(shí)驗(yàn)的客觀性,本文將YOLOv5s 和M-YOLOv5s在UA-DETRAC數(shù)據(jù)集上進(jìn)行重新訓(xùn)練時(shí)超參數(shù)的設(shè)置保持一致,均使用YOLOv5s預(yù)訓(xùn)練模型進(jìn)行權(quán)重初始化,加快網(wǎng)絡(luò)擬合速度,縮短訓(xùn)練時(shí)間。訓(xùn)練圖像大小為640×640,優(yōu)化器為SGD,初始學(xué)習(xí)率為0.01,動(dòng)量為0.935,衰減系數(shù)為0.0005,訓(xùn)練次數(shù)100個(gè)輪次,批大小為16,由于僅保留car類目標(biāo),故沒有分類損失曲線。M-YOLOv5s 訓(xùn)練過程的邊界框損失和置信度損失隨訓(xùn)練輪次變化如圖5所示,網(wǎng)絡(luò)已經(jīng)基本收斂。

        圖5 M-YOLOv5s訓(xùn)練損失

        兩個(gè)模型測(cè)試結(jié)果見表1,本文輕量化的YOLOv5s 的模型參數(shù)量?jī)H為3.54 MB,為原YOLOv5s的1/2;計(jì)算量為2.94 G,為原YOLOv5s的1/3,而準(zhǔn)確率AP 較原模型僅下降1.2%,取得了更好的速度與精度之間的均衡,更適合低算力設(shè)備部署使用。

        表1 車輛檢測(cè)實(shí)驗(yàn)結(jié)果

        2.1.2 車輛跟蹤模型訓(xùn)練

        將改進(jìn)外觀特征提取網(wǎng)絡(luò)在VeRi 車輛重識(shí)別訓(xùn)練集上重訓(xùn)練,VeRi[15]數(shù)據(jù)集來自20 個(gè)不同位置的監(jiān)控?cái)z像頭,拍攝場(chǎng)景包括交叉口和道路斷面,包括776輛汽車以及從不同視角拍攝的近50000 張圖像。訓(xùn)練圖像大小為64 × 128,訓(xùn)練200個(gè)輪次,其余超參數(shù)與檢測(cè)模型訓(xùn)練時(shí)的配置相同,訓(xùn)練時(shí)的損失函數(shù)變化如圖6所示,訓(xùn)練200個(gè)輪次后網(wǎng)絡(luò)損失函數(shù)變化基本穩(wěn)定。

        圖6 外觀特征提取網(wǎng)絡(luò)訓(xùn)練損失

        為驗(yàn)證本文改進(jìn)跟蹤算法的有效性,在UADETRAC測(cè)試集的MVI_123123、MVI_1234534上進(jìn)行跟蹤效果測(cè)試,測(cè)試結(jié)果見表2。結(jié)果表明本文改進(jìn)算法在所列跟蹤指標(biāo)的表現(xiàn)中均優(yōu)于原DeepSort,由于經(jīng)過車輛重識(shí)別數(shù)據(jù)集的訓(xùn)練,本文算法較原算法IDs 降低4 次。此外,輕量型外觀特征提取網(wǎng)絡(luò)使得算法整體運(yùn)行速度較原算法提高17%,改進(jìn)后的跟蹤算法更適用于車輛跟蹤任務(wù)。

        表2 車輛跟蹤實(shí)驗(yàn)結(jié)果

        2.2 交通流參數(shù)檢測(cè)性能驗(yàn)證

        驗(yàn)證使用的視頻共兩段,每段視頻時(shí)長5 min,分辨率為1080 p,S=5 m。視頻1、2分別對(duì)應(yīng)平峰、高峰場(chǎng)景,每段視頻拍攝角度、位置固定。使用準(zhǔn)確率評(píng)價(jià)性能,定義為公式(5),真實(shí)值由人工采集,估計(jì)值由算法自動(dòng)采集。性能對(duì)比時(shí)本文算法指M-YOLOv5s+M-DeepSort,原算法指YOLOv5s+DeepSort。

        2.2.1 流量檢測(cè)驗(yàn)證

        分別采用人工統(tǒng)計(jì)、本文算法、原算法統(tǒng)計(jì)每個(gè)視頻片段上行、下行與總的交通流量,結(jié)果如圖7所示。兩段視頻中真實(shí)的上行交通流量略小于下行交通流量,算法檢測(cè)到的交通流量也同樣符合此種情況。其次,本文算法較原算法的估計(jì)值更接近人工統(tǒng)計(jì)的真實(shí)值,表3展示了兩種算法的統(tǒng)計(jì)準(zhǔn)確率,本文算法在上行、下行和總和的準(zhǔn)確率均高于原算法,表明了本文改進(jìn)算法的有效性。此外,視頻2中由于車流密度增加、車輛遮擋較為嚴(yán)重,本文算法的統(tǒng)計(jì)精度較視頻1中的精度降低,但精度仍穩(wěn)定在94%以上,整體表現(xiàn)效果依舊良好。

        表3 交通流量檢測(cè)準(zhǔn)確率對(duì)比

        圖7 不同視頻車流量檢測(cè)結(jié)果

        2.2.2 速度檢測(cè)驗(yàn)證

        由于無法獲取每個(gè)車輛真實(shí)的行駛速度,故以平均速度為基準(zhǔn)進(jìn)行比較。視頻1的實(shí)際平均速度為41.56 km/h,視頻2 為39.87 km/h。由于車流密度增加,車輛之間的影響增大,車輛行駛速度會(huì)有所降低,因此視頻1中車輛平均速度較視頻2稍高,符合實(shí)際情況,且算法采集到數(shù)據(jù)樣本均值也符合此情況。此外由表4對(duì)比結(jié)果可知,本文算法在視頻1、2 中采集到的速度數(shù)據(jù)的平均值的準(zhǔn)確率比原算法都高,再次證明本文算法的有效性。

        表4 速度估計(jì)準(zhǔn)確率對(duì)比

        2.2.3 檢測(cè)實(shí)時(shí)性驗(yàn)證

        當(dāng)車流密度增加時(shí)算法的運(yùn)行速度會(huì)相應(yīng)降低,為檢驗(yàn)本文算法在高峰時(shí)期的運(yùn)行速度的情況,對(duì)算法主要部分耗時(shí)情況進(jìn)行了統(tǒng)計(jì),結(jié)果見表5。車輛檢測(cè)任務(wù)耗時(shí)10.21 ms,占總消耗時(shí)間的61.25%,其次為車輛跟蹤任務(wù)耗時(shí)4.18 ms,最后為視頻讀取任務(wù)2.28 ms。相對(duì)于日常視頻25 幀/s 的速率,本文算法可達(dá)到59 幀/s,可滿足實(shí)時(shí)性的要求。圖8展示了本文算法的實(shí)際應(yīng)用效果,從圖8可以看出本文算法具有較強(qiáng)的可靠性。

        表5 算法實(shí)時(shí)性測(cè)試分析單位:ms

        圖8 車流量與車速檢測(cè)效果

        3 結(jié)語

        本文提出了一種基于改進(jìn)YOLOv5s和Deep-Sort 的交通流參數(shù)檢測(cè)方法,改進(jìn)的YOLOv5s在精度較原YOLOv5s 僅降低1.2%的情況下,參數(shù)量和計(jì)算量分別降低1/2 和2/3;通過重構(gòu)DeepSort外觀特征提取網(wǎng)絡(luò),調(diào)整圖像輸入尺寸并進(jìn)行車輛重識(shí)別訓(xùn)練,使得改進(jìn)DeepSort 算法更適合用于車輛的跟蹤任務(wù)。實(shí)際試驗(yàn)結(jié)果表明,該方法的平均準(zhǔn)確率在92%以上,運(yùn)行速度可達(dá)59 幀/s,滿足實(shí)時(shí)使用的要求并具有較強(qiáng)的實(shí)用性。未來將進(jìn)一步提高方法在雨、雪等惡劣天氣、夜間或者道路極度擁擠等場(chǎng)景下的適用性。

        猜你喜歡
        檢測(cè)模型
        一半模型
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        “幾何圖形”檢測(cè)題
        “角”檢測(cè)題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        国产成人精品无码一区二区老年人| 波多野结衣av一区二区全免费观看| 久久久久无码国产精品一区| 国产专区国产av| 91超碰在线观看免费| 国产精品午夜福利天堂| 精品人妻av区乱码色片| 国产成人精品久久一区二区三区| 真人男女做爰无遮挡免费视频| 国产码欧美日韩高清综合一区 | 日本一区午夜艳熟免费| 亚洲高清中文字幕精品不卡| 人妻中文字幕在线一二区| 一边捏奶头一边高潮视频| 中文字幕无码日韩专区免费| 国产精品女视频一区二区| 中文在线最新版天堂av| 亚洲精品中文字幕一区二区| 激情影院内射美女| 在线观看视频一区| 一个人的视频免费播放在线观看| 懂色av一区二区三区尤物 | 国产福利小视频91| 中文字幕一区二区综合| 中文字幕一区日韩精品| 国产美女网站视频| 国产精品毛片大尺度激情| 亚洲精品中文字幕一二三区| 精品国产一区二区三区香蕉| 一本久道久久综合五月丁香| 丰满熟女人妻一区二区三区| 国产av无码专区亚洲版综合| 毛茸茸的中国女bbw| 深夜福利国产| 国产自拍在线观看视频| 国产尤物av尤物在线观看| 亚洲国产麻豆综合一区| 人妻熟女中文字幕av| 亚洲无av在线中文字幕| 日韩av无码成人无码免费| 亚洲熟女国产熟女二区三区|