亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLO的道路車(chē)輛擁堵分析模型

        2019-08-01 01:35:23張家晨陳慶奎
        計(jì)算機(jī)應(yīng)用 2019年1期
        關(guān)鍵詞:交通擁堵

        張家晨 陳慶奎

        摘 要:針對(duì)當(dāng)前交通運(yùn)行出現(xiàn)的擁堵問(wèn)題,提出一種新型的道路狀態(tài)判斷模型。首先,模型基于YOLOv3目標(biāo)檢測(cè)算法,然后結(jié)合圖片對(duì)應(yīng)的特征值矩陣,通過(guò)相鄰幀之間的特征矩陣作差并將差值逐項(xiàng)求和得到的結(jié)果與預(yù)設(shè)值進(jìn)行比較來(lái)判斷當(dāng)前道路是處于擁堵?tīng)顟B(tài)還是正常通行狀態(tài),其次再將當(dāng)前計(jì)算出的道路狀態(tài)與前兩次計(jì)算出的道路狀態(tài)進(jìn)行比較,最后運(yùn)用模型里的第二個(gè)算法狀態(tài)統(tǒng)計(jì)法此句指代不清晰,能否具體化一點(diǎn),例如具體的算法名稱(chēng)。來(lái)統(tǒng)計(jì)道路某狀態(tài)(擁堵或通暢)的持續(xù)時(shí)間。該模型能夠同時(shí)對(duì)一條道路的三個(gè)車(chē)道進(jìn)行狀態(tài)統(tǒng)計(jì)分析,經(jīng)過(guò)實(shí)驗(yàn),模型對(duì)單條車(chē)道狀態(tài)判斷的平均準(zhǔn)確率能達(dá)到80%以上,并且白天與夜晚的道路均適用。該模型的提出對(duì)引導(dǎo)人們的方便出行以及交通擁堵的緩解具有重要的實(shí)際意義。

        關(guān)鍵詞:交通擁堵;擁堵檢測(cè);車(chē)道分析;擁堵時(shí)間;高峰時(shí)段

        中圖分類(lèi)號(hào): TP393; TP18

        文獻(xiàn)標(biāo)志碼:A

        Abstract: To solve traffic congestion problems, a new road condition judgment model was proposed. Firstly, the model was based on YOLOv3 target detection algorithm. Then, according to the eigenvalue matrix corresponding to the picture, the difference between adjacent frames was made by the eigenvalue matrix, and the difference value was compared with preset value to determine whether the current road was in a congested state or a normal traffic state. Secondly, the current calculated road state was compared with previous two calculated road states. Finally, the state statistics method in the model was used to calculate the duration of a state (congestion or patency) of road. The proposed model could analyze the states of three lanes of a road at the same time. Through experiments, the average accuracy of model to judge the state of single lane could reach 80% or more, and it was applicable to both day and night roads. The proposed model is of great practical significance to guide people to travel conveniently and alleviate traffic congestion.

        Key words: traffic congestion; congestion detection; lane analysis; congestion time; rush hour

        0 引言

        隨著經(jīng)濟(jì)的發(fā)展與城市化進(jìn)程的加快,人們的生活水平日益提高,機(jī)動(dòng)車(chē)成為了越來(lái)越多人的出行首選工具。根據(jù)中國(guó)公安部交管局的統(tǒng)計(jì)數(shù)據(jù)[1],截至2017年6月底,全國(guó)機(jī)動(dòng)車(chē)保有量達(dá)3.04億輛,其中汽車(chē)2.05億輛;機(jī)動(dòng)車(chē)駕駛?cè)诉_(dá)3.71億人,其中汽車(chē)駕駛?cè)?.28億人。數(shù)量巨大的機(jī)動(dòng)車(chē)也為城市交通的良好運(yùn)行帶來(lái)了巨大的挑戰(zhàn),我國(guó)道路交通擁堵情況非常嚴(yán)重,尤其是在特大、超大型城市,比如北京、廣州、上海等。除了我國(guó),交通擁堵在其他國(guó)家也是個(gè)大問(wèn)題,根據(jù)《Inrix:2016年全球交通擁堵情況排行榜報(bào)告》[2]顯示,洛杉磯以人均104h堵在路上位居第一。由此可見(jiàn),道路擁堵是個(gè)亟待解決的問(wèn)題。

        當(dāng)前存在的一些道路車(chē)輛擁堵檢測(cè)方法包括:利用路面?zhèn)鞲衅鞫〞r(shí)采集道路車(chē)流數(shù)據(jù)信息以達(dá)到實(shí)時(shí)判斷道路擁堵情況,或者對(duì)特定路段的交通車(chē)輛數(shù)據(jù)流進(jìn)行分時(shí)段的統(tǒng)計(jì)與數(shù)據(jù)分析。常用的路面?zhèn)鞲衅鱗3]比如檢測(cè)器有線(xiàn)圈[4]此句不通順,請(qǐng)調(diào)整、浮動(dòng)車(chē)[5]等。這兩個(gè)方法可移植性差,并且對(duì)每個(gè)路口都要進(jìn)行設(shè)備安裝或者數(shù)據(jù)統(tǒng)計(jì),因此這些方法存在著成本高、代價(jià)高的缺點(diǎn)。本文提出一種新型的道路車(chē)輛擁堵分析模型,該模型具有運(yùn)行速度快、準(zhǔn)確率高、成本低、易于部署等優(yōu)點(diǎn)。實(shí)驗(yàn)結(jié)果證明,針對(duì)直行車(chē)道,該模型的平均準(zhǔn)確率均能達(dá)到80%以上。

        1 相關(guān)工作

        當(dāng)前基于目標(biāo)檢測(cè)的道路擁堵分析算法很少見(jiàn),常見(jiàn)的目標(biāo)檢測(cè)方法有SSD(Single Shot multibox Detection)[6]、YOLO(You Only Look Once)[7]、RCNN(Regions with Convolutional Neural Network)[8]、Fast R-CNN(Fast Regions with Convolutional Neural Network feature)[9]等。RCNN的基本思想是利用Selective Search[10]高效率地尋找圖片中可能包含目標(biāo)物體的Box,再用CNN(Convolutional Neural Network)[11]提取特征,最后再做個(gè)分類(lèi)便完成了目標(biāo)檢測(cè)的工作。RCNN目標(biāo)檢測(cè)的效果好,但是計(jì)算量大,算法運(yùn)行緩慢,而Fast R-CNN[12]此處是指代文獻(xiàn)9,即是Fast;若是文獻(xiàn)12,則為Faster。若為文獻(xiàn)12,則應(yīng)調(diào)整正文中的引用順序了和文獻(xiàn)列表的順序了?;貜?fù):標(biāo)注的12是重復(fù)多余的。便是對(duì)RCNN進(jìn)行的改進(jìn),主要改進(jìn)有兩點(diǎn):第一點(diǎn)是對(duì)RCNN中的ROI(Region Of Interest)[1312]提取特征后,把物體框的回歸和分類(lèi)這兩個(gè)任務(wù)的loss融合在一起訓(xùn)練,這使得訓(xùn)練效率更高,運(yùn)行也就更快;第二點(diǎn)是把SPP(Spatial Pyramid Pooling)[1413]改換成了ROI Pooling[1514]。相比RCNN,F(xiàn)ast R-CNN算法在運(yùn)行速度上得到了很大提升。

        從RCNN和Fast R-CNN甚至后來(lái)的Faster R-CNN(Faster Regions with Convolution Neural Network feature)[1215]請(qǐng)補(bǔ)充Faster R-CNN的英文全稱(chēng)這一系列方法都是基于Region Proposal[16]的,而不用Region Proposal的目標(biāo)檢測(cè)算法也有很多,其中比較有代表性的便是YOLO和SSD。YOLO是一種簡(jiǎn)單、高效的目標(biāo)檢測(cè)算法,其運(yùn)行速度非???,這是其最大的特點(diǎn),YOLO的把一幅圖片劃分成S*S的格子,以每個(gè)格子所在位置和對(duì)應(yīng)內(nèi)容來(lái)進(jìn)行預(yù)測(cè)目標(biāo)存在的位置。與基于Region Proposal方法的不同之處在于YOLO是一個(gè)單純的卷積神經(jīng)網(wǎng)絡(luò),把物體檢測(cè)轉(zhuǎn)化成了回歸問(wèn)題,沒(méi)有Region Proposal和對(duì)每個(gè)ROI的計(jì)算,再加上利用了GPU(Graphics Processing Unit)的并行計(jì)算優(yōu)點(diǎn),因此YOLO的運(yùn)行速度非常快,用于實(shí)時(shí)目標(biāo)檢測(cè)沒(méi)有問(wèn)題;而SSD是同時(shí)借鑒了YOLO和Faster R-CNN思想,SSD可以達(dá)到在實(shí)時(shí)目標(biāo)檢測(cè)的水平下仍然有很高的檢測(cè)精度。與YOLO相近的地方在于,SSD也會(huì)在CNN的最后階段得到S*S的響應(yīng)圖;與Faster R-CNN相近的地方在于,SSD會(huì)基于每個(gè)格子的位置借鑒anchor box的思想生成默認(rèn)的物體框。YOLOv3[17]與其他目標(biāo)檢測(cè)算法在精度與檢測(cè)時(shí)間上存在一定的差異,具體來(lái)說(shuō),是YOLOv3可以在保持快速檢測(cè)的同時(shí)依然具有相當(dāng)高的準(zhǔn)確度,因此,本模型選擇了YOLOv3算法來(lái)進(jìn)行目標(biāo)檢測(cè)。

        本模型基于YOLOv3(YOLOv3于2018年提出),相比YOLOv2,YOLOv3的目標(biāo)檢測(cè)準(zhǔn)確性得到了進(jìn)一步提升。YOLO是一個(gè)單純的卷積神經(jīng)網(wǎng)絡(luò),用作目標(biāo)檢測(cè),速度快且準(zhǔn)確度高;然而其缺陷是并不能體現(xiàn)出物體的運(yùn)動(dòng)狀態(tài)信息,比如物體的運(yùn)動(dòng)速度或者物體某段運(yùn)動(dòng)狀態(tài)的持續(xù)時(shí)間等。想要獲得物體的運(yùn)動(dòng)速度或者運(yùn)動(dòng)狀態(tài)持續(xù)時(shí)間等信息,必須建立起新的數(shù)學(xué)模型,因此,本文在YOLOv3之上提出了一個(gè)獲得車(chē)輛運(yùn)動(dòng)信息的新方法。該方法提取出了車(chē)輛在圖片中的特征矩陣,再通過(guò)特征矩陣之間的一系列計(jì)算得到當(dāng)前道路中車(chē)輛總體的運(yùn)行狀態(tài)。不僅可以檢測(cè)出道路上的車(chē)輛,還能獲得車(chē)輛的位置以及停止或運(yùn)行狀態(tài)等信息,用以進(jìn)一步判斷當(dāng)前路段是處于交通擁堵?tīng)顩r還是交通運(yùn)行暢通狀況,該方法的提出對(duì)交通擁堵的緩解以及人們生活水平的提高具有非常大的實(shí)際意義。

        2 模型結(jié)構(gòu)

        2.1 特征矩陣表示

        本模型計(jì)算出圖片中目標(biāo)的特征值并將該特征值按相應(yīng)規(guī)則存放于矩陣中所得到的該矩陣即為特征矩陣。首先,根據(jù)圖片幀的寬高與目標(biāo)在圖片中的寬高進(jìn)行計(jì)算,得到特征矩陣的行數(shù)和列數(shù),然后將所有目標(biāo)的特征值映射到矩陣中的相應(yīng)位置便得到了當(dāng)前圖片幀對(duì)應(yīng)的特征矩陣。當(dāng)前特征提取的方法有很多,比如有:基于車(chē)窗定位的車(chē)輛特征提取方法[18]、基于方向梯度直方圖(Histogram of Oriented Gradients, HOG)特征提取的車(chē)輛檢測(cè)方法[19]以及使用角點(diǎn)檢測(cè)來(lái)提取車(chē)輛特征[20],這些方法雖然具有一定的效果,但是計(jì)算復(fù)雜,本研究選擇了一種更加輕量、快速、簡(jiǎn)單的車(chē)輛特征計(jì)算方法。計(jì)算目標(biāo)X的特征值要注意的是,現(xiàn)實(shí)環(huán)境是復(fù)雜多變的,天氣的變化、光照的變化等都會(huì)對(duì)目標(biāo)造成影響。為了最大限度地避免環(huán)境因素以得到較為穩(wěn)定的特征值輸出,本模型中目標(biāo)的特征值計(jì)算方法為:選擇目標(biāo)X的中心像素值,取其紅色、綠色、藍(lán)色分量值,分別記為R、G、B,目標(biāo)的面積大小記為S。記特征值為value,其計(jì)算方法如下:

        接下來(lái)計(jì)算value在矩陣中的位置。

        設(shè)當(dāng)前的特征矩陣為M,該矩陣M有R行、C列。當(dāng)前目標(biāo)X的value在圖片中的位置posX、posY,計(jì)算其在M中相應(yīng)的位置row、column:

        其中CAR_WIDTH、CAR_HEIGHT為預(yù)設(shè)值。

        假設(shè)一幅圖片寬800像素、高900像素,目標(biāo)在該圖中的平均寬高分別為100像素和100像素,那么用圖像的寬高分別除以目標(biāo)的寬高便得到了對(duì)應(yīng)的特征矩陣的列數(shù)與行數(shù)。如下所示為一個(gè)8行9列的特征矩陣。

        說(shuō)明:其中特征矩陣中非零的元素便是計(jì)算出的目標(biāo)車(chē)輛的特征值。

        2.2 狀態(tài)計(jì)算

        要計(jì)算當(dāng)前幀中道路的狀態(tài),需要根據(jù)特征矩陣中特征值的大小來(lái)進(jìn)行計(jì)算,將相鄰兩(數(shù))幀的特征矩陣進(jìn)行一系列運(yùn)算,最后將運(yùn)算得到的結(jié)果diff與預(yù)設(shè)值進(jìn)行比較,以此來(lái)得到當(dāng)前道路的狀態(tài)信息。

        計(jì)算diff:

        3,x≥>5(5)條件存在交叉,在=5時(shí),屬于哪一個(gè)條件?

        其中:S=0時(shí)表示車(chē)輛停止運(yùn)動(dòng)(或沒(méi)有車(chē)輛);S=1時(shí)表示車(chē)輛緩慢運(yùn)動(dòng);S=2時(shí)表示車(chē)輛中速運(yùn)動(dòng);S=3時(shí)表示車(chē)輛快速運(yùn)動(dòng)。

        參數(shù)說(shuō)明 FM為當(dāng)前得到的目標(biāo)特征值矩陣;FM2為上一幀得到的目標(biāo)特征值矩陣;E為滿(mǎn)足條件FM和FM2中在相同坐標(biāo)處均不為0的坐標(biāo)的個(gè)數(shù);N為當(dāng)前幀中的目標(biāo)數(shù)目。

        首先運(yùn)行YOLOv3神經(jīng)網(wǎng)絡(luò)檢測(cè)當(dāng)前視頻流中顯示的當(dāng)前幀圖片,會(huì)得到圖片中的目標(biāo)的位置以及目標(biāo)所在的矩形框大小,然后根據(jù)目標(biāo)在圖片中的位置計(jì)算其在特征矩陣中的對(duì)應(yīng)位置:行數(shù)、列數(shù),與此同時(shí),還要根據(jù)目標(biāo)在圖片中的位置計(jì)算其當(dāng)前處于哪個(gè)車(chē)道:左轉(zhuǎn)彎車(chē)道、右轉(zhuǎn)彎車(chē)道或者中間直行車(chē)道。計(jì)算其在矩陣中的位置是為了確定目標(biāo)的特征值在矩陣中的存放位置。計(jì)算特征值要注意,由于車(chē)輛可能一直在運(yùn)動(dòng),因此,背景也很可能處于不斷變化中,所以,為了得到目標(biāo)較為穩(wěn)定的特征值,這里選取目標(biāo)的中心坐標(biāo)點(diǎn)的像素值來(lái)進(jìn)行目標(biāo)特征值的計(jì)算,將計(jì)算出的特征值結(jié)果存放在特征矩陣的相應(yīng)位置中。將當(dāng)前幀的特征矩陣與上一幀的特征矩陣進(jìn)行相減,將得到的每一項(xiàng)的結(jié)果相加得到一個(gè)diff,根據(jù)diff的大小來(lái)判斷當(dāng)前道路的狀態(tài)。

        2.3 狀態(tài)統(tǒng)計(jì)

        為了統(tǒng)計(jì)出當(dāng)前車(chē)道某個(gè)狀態(tài)的持續(xù)時(shí)間,本文提出一種狀態(tài)增量state-bonus算法來(lái)計(jì)算道路某狀態(tài)的持續(xù)時(shí)間。算法描述:一個(gè)車(chē)道分為四個(gè)狀態(tài),分別記為S1、S2、S3、S4。每一個(gè)狀態(tài)分別用一個(gè)對(duì)應(yīng)的信號(hào)量Signal記錄:Signal_s1、Signal_s2、Signal_s3、Signal_s4。根據(jù)當(dāng)前幀計(jì)算出的S_CUR與上兩幀計(jì)算出的道路狀態(tài)S_LAST,S_OLD來(lái)計(jì)算bonus,bonus的計(jì)算方法如下:

        如果當(dāng)前幀得到的道路狀態(tài)Si與前兩幀得到的道路狀態(tài)完全相同,則獲得最大bonus,Si得到最大化程度的加強(qiáng),表明當(dāng)前道路的Si狀態(tài)已經(jīng)很明顯,需要被記錄。如果當(dāng)前幀得到的道路狀態(tài)Si與前兩幀得到的道路狀態(tài)完全不同,則當(dāng)前狀態(tài)獲得最低bonus,表明Si狀態(tài)還不夠穩(wěn)定,需要繼續(xù)觀察。

        當(dāng)一條道路的某個(gè)狀態(tài)Si被加強(qiáng)的時(shí)候,該道路對(duì)應(yīng)的其余三個(gè)狀態(tài)則被削弱,如果Si狀態(tài)對(duì)應(yīng)的信號(hào)量Signal_si≥MAX_SIGNAL,則確定當(dāng)前道路進(jìn)入了狀態(tài)Si,否則,道路狀態(tài)還未被確定,或者目前道路狀態(tài)較為復(fù)雜,需要持續(xù)觀察。假設(shè)道路T的S1狀態(tài)被加強(qiáng),則道路T下的信號(hào)量計(jì)算算法為:

        其中:Signal_s1為道路當(dāng)前狀態(tài)1對(duì)應(yīng)的信號(hào)量,Signal_s2為道路當(dāng)前狀態(tài)2對(duì)應(yīng)的信號(hào)量,Signal_s3為道路當(dāng)前狀態(tài)3對(duì)應(yīng)的信號(hào)量,Signal_s4為道路當(dāng)前狀態(tài)4對(duì)應(yīng)的信號(hào)量。

        3 實(shí)驗(yàn)及模型準(zhǔn)確性分析

        3.1 實(shí)驗(yàn)環(huán)境說(shuō)明

        本次實(shí)驗(yàn)的硬件環(huán)境如下:CPU為Intel Core i5-6300HQ CPU @2.30GHz,電腦運(yùn)行內(nèi)存為8GB,顯卡為NVIDIA Geforce GTX 950M,顯存為4GB。

        開(kāi)發(fā)環(huán)境為Visual Studio 2015,需要配置CUDA8.0并行計(jì)算庫(kù)、cuDNNv7.0.5并行加速庫(kù)、OpenCV2.4.9圖像處理庫(kù)和YOLOv3物體檢測(cè)框架。

        3.2 道路車(chē)輛運(yùn)行數(shù)據(jù)獲取

        為了測(cè)試模型的準(zhǔn)確性,本研究對(duì)上海市的金橋路、淮海路、大世界三個(gè)路口的車(chē)輛運(yùn)行情況進(jìn)行了視頻錄制,白天和夜晚的車(chē)輛運(yùn)行情況均有涉及,每個(gè)路口的視頻錄制時(shí)間均在5h以上,3個(gè)路口視頻總時(shí)長(zhǎng)達(dá)到15h以上。

        視頻錄制后,按照模型里給出的道路狀態(tài),將每個(gè)路口的視頻進(jìn)行了狀態(tài)時(shí)間劃分,以金橋路為例,該路段的左轉(zhuǎn)彎車(chē)道、中間直行車(chē)道、右轉(zhuǎn)彎車(chē)道在1min內(nèi)各個(gè)狀態(tài)的持續(xù)時(shí)間如表1所示(狀態(tài)0表示擁堵情況,狀態(tài)1表示車(chē)輛緩慢運(yùn)動(dòng)情況,S列為當(dāng)前車(chē)道的狀態(tài)值,S列后一列為T(mén)列,表示當(dāng)前狀態(tài)下的持續(xù)時(shí)間,單位為s)。

        以左車(chē)道為例,由表1可知,左車(chē)道的第一個(gè)狀態(tài)(S1)是0,該狀態(tài)持續(xù)了8s(即T1值),第二個(gè)狀態(tài)(S2)是1,該狀態(tài)持續(xù)了3s(即T2值),第三個(gè)狀態(tài)(S3)是0,該狀態(tài)持續(xù)了40s(即T3值),最后一個(gè)狀態(tài)(S4)是1,該狀態(tài)持續(xù)了5s(即T4值),其他車(chē)道的分析同理。本實(shí)驗(yàn)整理了各個(gè)路口具有明顯狀態(tài)變化的視頻共15段,每個(gè)路口5段視頻,按照同樣的方法,為每個(gè)道口制作出了其狀態(tài)持續(xù)時(shí)間表,為后面計(jì)算模型準(zhǔn)確性做數(shù)據(jù)準(zhǔn)備。

        3.3 模型測(cè)試以及模型準(zhǔn)確性分析

        將前面提到的15段視頻分別用本文的模型進(jìn)行分析,以金橋路路口2018年4月7日夜間7點(diǎn)18分至夜間7點(diǎn)19分交通狀況視頻為例,模型分析該路口運(yùn)行期間效果如圖1(a)所示,其中,被矩形框框出來(lái)的即為需要的目標(biāo),矩形框線(xiàn)條的顏色不同表示不同車(chē)道的目標(biāo)。如圖1(a):左邊車(chē)道中矩形框?yàn)樯詈谏?,表示這是左車(chē)道中的目標(biāo);中間車(chē)道的矩形框?yàn)榛疑硎具@是中間車(chē)道中的目標(biāo);最右邊的矩形框?yàn)榘咨?,表示這是右邊車(chē)道中的目標(biāo)加圖例。

        準(zhǔn)確率計(jì)算公式:

        其中k為當(dāng)前道路出現(xiàn)的狀態(tài)數(shù)目。如上,只有0、1兩個(gè)狀態(tài)出現(xiàn),因此k=2,exS為實(shí)驗(yàn)下S狀態(tài)的持續(xù)時(shí)間,m為exS狀態(tài)的數(shù)目,realS為實(shí)際情況下該道路S狀態(tài)的持續(xù)時(shí)間,n為realS狀態(tài)的數(shù)目。依據(jù)準(zhǔn)確率計(jì)算公式,該視頻經(jīng)過(guò)模型分析后,與實(shí)際數(shù)據(jù)相比,模型在左車(chē)道、中車(chē)道、右車(chē)道的準(zhǔn)確率分別為97%、87%、99%。

        模型分析淮海路的實(shí)驗(yàn)圖如圖1(b),該幀對(duì)應(yīng)的特征矩陣如下所示:

        模型分析大世界路的實(shí)驗(yàn)圖如圖1(c),該幀對(duì)應(yīng)的特征矩陣如下所示:

        按照上面的方法,對(duì)15個(gè)視頻一詞用模型視頻數(shù)據(jù)用本文模型感覺(jué)“視頻一詞用模型”這個(gè)說(shuō)法有些奇怪,正確嗎?請(qǐng)明確分析并且與道路的實(shí)際情況相比后,得到如下金橋路、淮海路、大世界路三個(gè)路口的平均準(zhǔn)確率分別如表4。

        4 結(jié)語(yǔ)

        本文提出了一種新的交通道路運(yùn)行情況判斷方法,該方法具有一定的創(chuàng)新性,算法準(zhǔn)確性高,運(yùn)算速度快,效果理想,同時(shí)簡(jiǎn)單易于部署。YOLO是一個(gè)目標(biāo)檢測(cè)算法,本身是無(wú)法提取出目標(biāo)的運(yùn)動(dòng)信息的。本文提出的方法建立在YOLO之上,不僅能進(jìn)行目標(biāo)檢測(cè),還能提取出目標(biāo)的關(guān)鍵信息,創(chuàng)新地將YOLOv3與特征值矩陣、狀態(tài)時(shí)間統(tǒng)計(jì)state-bonus算法相結(jié)合,不僅能檢測(cè)出道路上的車(chē)輛數(shù)目,還能判斷車(chē)輛是停止還是運(yùn)行并且能獲得停止或者移動(dòng)狀態(tài)下的狀態(tài)持續(xù)時(shí)間信息,并且可以做到分車(chē)道(左轉(zhuǎn)彎車(chē)道、中間車(chē)道、右轉(zhuǎn)彎車(chē)道)獨(dú)立檢測(cè),在道路擁堵判斷方面,已經(jīng)在一定程度上領(lǐng)先了其他方法,這對(duì)于今后的分析,包括道路交通擁堵的緩解,改善以及優(yōu)化人們的出行都具有重要的意義。

        同時(shí),由于城市路口的復(fù)雜多變,情況十分繁雜,如何能做到任何路口都能用本模型準(zhǔn)確判斷道路的運(yùn)行狀況,如何更加正確地處理畫(huà)面上顯示重疊的車(chē)輛,如何得到更加穩(wěn)定的目標(biāo)特征值輸出,如何進(jìn)一步提升算法的穩(wěn)健性、準(zhǔn)確性以及通用性,這將是今后工作的重點(diǎn)。

        參考文獻(xiàn) (References)

        [1] 劉羨.大全國(guó)機(jī)動(dòng)車(chē)保有量達(dá)3.04億輛機(jī)動(dòng)車(chē)駕駛?cè)?.71億人[N/OL].中國(guó)新聞網(wǎng),2017-07-11(14)[2018-05-30]. http://finance.chinanews.com/sh/2017/07-11/8274683.shtml.(LIU X. The number of motor vehicles in China has reached 304 million, with 371 million drivers[N/OL]. China News, 2017-07-11(14)[2018-05-30]. http://finance.chinanews.com/sh/2017/07-11/8274683.shtml.)

        [2] 于建SF069.2016年全球最堵城市洛杉磯奪冠[N/OL].新浪財(cái)經(jīng),2017-02-21(15)[2018-05-30]. http://finance.sina.com.cn/stock/usstock/c/2017-02-21/us-ifyarrcf5236517.shtml.(YU J SF069. Los Angeles, the worlds biggest city, wins in 2016[N/OL]. Sina Finance and Economics, 2017-02-21(15)[2018-05-30]. http://finance.sina.com.cn/stock/usstock/c/2017-02-21/us-ifyarrcf5236517.shtml.)

        [3] 張立東.城市交通溢流智能協(xié)調(diào)控制算法研究[D].濟(jì)南:山東大學(xué),2012:2-4.(ZHANG L D. Research on intelligent coordinated control algorithm of urban traffic overflow[D]. Jinan: Shandong University, 2012:2-4.)

        [4] 陸化普,孫智源,屈聞聰.大數(shù)據(jù)及其在城市智能交通系統(tǒng)中的應(yīng)用綜述[J].交通運(yùn)輸系統(tǒng)工程與信息,2015,15(5):45-52.(LU H J, SUN Z Y, QU W C. Big data and its application in urban intelligent transportation system[J]. Transportation Systems Engineering and Information, 2015, 15(5): 45-52.)

        [5] 廖孝勇.浮動(dòng)車(chē)交通參數(shù)檢測(cè)及在道路交通狀態(tài)分析中的應(yīng)用研究[D].重慶:重慶大學(xué),2011:6-8(LIAO X Y. Study on the detection of floating vehicle traffic parameters and its application in road traffic state analysis[D]. Chongqing: Chongqing University, 2011: 6-8.)

        [6] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single Shot multibox Detector [C]// Proceedings of the 2016 European Conference on Computer Vision. Berlin: Springer. 2016: 21-37.

        [7] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real time object detection [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2016: 779-788.

        [8] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]// Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2014: 580-587.

        [9] GIRSHICK R. Fast R-CNN [C]// Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2015: 1440-1448.

        [10] UIJLINGS J R R, VAN DE SANDE K E A, GEVERS T, et al. Selective search for object recognition[J]. International Journal of Computer Vision, 2013, 104(2): 154-171.

        [11] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[C]// Proceedings of the 2012 Advances in Neural Information Processing Systems. Lake Tahoe: [s.n.], 2012: 1097-1105.

        [12] BRETT M, ANTON J L, VALABREGUE R, et al. Region of interest analysis using an SPM toolbox[C]// Proceedings of the 8th International Conference on Functional Mapping of the Human Brain. Cambridge: Academic Press, 2002: 497210-217.

        [13] HE K, ZHANG X, REN S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[C]// Proceedings of the 2014 European Conference on Computer Vision. Berlin: Springer, 2014: 346-361.

        [14] GRAHAM B. Fractional max-pooling[J]. ArXiv Preprint, 2014, 2014: 1412.6071.

        [15] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks [C]// Proceedings of the 2015 Advances in Neural Information Processing Systems. Montréal: [s.n.], 2015: 91-99.

        [16] MA Y, JIANG Z, ZHANG H, et al. Generating region proposals for histopathological whole slide image retrieval[J]. Computer methods and Programs in Biomedicine, 2018, 159: 1-10.

        [17] REDMON J, FARHADI A. YOLOv3: an incremental improvement [J]. ArXiv Preprint, 2018, 2018: 1804.02767.

        [18] 汪毅.基于車(chē)窗定位的車(chē)輛特征提取與車(chē)型分類(lèi)識(shí)別[J].科學(xué)技術(shù)創(chuàng)新,2018(3):17-19.(WANG Y. Vehicle feature extraction and vehicle classification based on window location [J]. Science and Technology Innovation, 2018(3): 17-19.)

        [19] 劉家旭.基于HOG特征提取的車(chē)輛檢測(cè)方法研究[D].北京:華北電力大學(xué),2017:4-6.(LIU J X. Research on vehicle detection method based on HOG feature extraction [D]. Beijing: North China Electric Power University, 2017: 4-6.)

        [20] 劉荊橋,戴光明.角點(diǎn)檢測(cè)在車(chē)輛特征提取中的應(yīng)用[J].軟件導(dǎo)刊,2008(4):91-92.(LIU J Q, DAI G M. The application of corner detection in vehicle feature extraction [J]. Software Guide, 2008(4): 91-92.)

        猜你喜歡
        交通擁堵
        制度經(jīng)濟(jì)學(xué)視角下應(yīng)對(duì)城市擁堵的對(duì)策
        制度經(jīng)濟(jì)學(xué)視角下應(yīng)對(duì)城市擁堵的對(duì)策
        太原市城市交通擁堵問(wèn)題的經(jīng)濟(jì)學(xué)分析
        特種車(chē)輛在城市交通擁堵中的現(xiàn)狀及建議
        城市交通擁堵問(wèn)題國(guó)內(nèi)研究述評(píng)
        淺談泰安市區(qū)交通狀況及改善措施
        科技視界(2016年25期)2016-11-25 10:09:31
        新公共管理理論視角下重慶市交通擁堵整改問(wèn)題研究
        商(2016年23期)2016-07-23 13:57:31
        三臺(tái)縣城市公共交通發(fā)展問(wèn)題研究
        商(2016年13期)2016-05-20 10:35:22
        狹窄路段交通控制系統(tǒng)設(shè)計(jì)研究
        水平代步電梯在城市交通中的應(yīng)用探討
        51国偷自产一区二区三区| 国产伦奸在线播放免费| 亚洲一区二区国产激情| 在线天堂www中文| 亚洲一区爱区精品无码| 老肥熟女老女人野外免费区| 人妖啪啪综合av一区| 麻豆蜜桃av蜜臀av色欲av| 亚洲中久无码永久在线观看同 | 超清精品丝袜国产自在线拍| 99er视频| 午夜日本理论片最新片| 国产一区二区视频免费在线观看| 无码一区二区三区亚洲人妻| 香蕉色香蕉在线视频| 国产一区二区三区av香蕉| 日韩有码中文字幕在线观看| 亚洲国产天堂一区二区三区| 国产一级毛片卡| 国产91精品清纯白嫩| 国产在线高清理伦片a| 久久久久久伊人高潮影院| 日韩av一区二区毛片| 一本色道精品亚洲国产一区| 久久亚洲欧美国产精品| 亚洲人成网站77777在线观看 | 麻豆精品导航| 亚洲综合色自拍一区| 国产精品乱子伦一区二区三区| 国产成人精品久久二区二区91 | 116美女极品a级毛片| 亚洲一区二区情侣| 精品一级一片内射播放| 把女邻居弄到潮喷的性经历| 国产aⅴ夜夜欢一区二区三区| 人妖与人妖免费黄色片| 亚洲一区二区三区尿失禁| 亚洲精品自产拍在线观看| 人妻少妇久久精品一区二区| 亚洲成人中文字幕在线视频| 国产伦久视频免费观看视频|