亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于NGSIM數(shù)據(jù)的車輛瞬時速度獲取方法

        2018-03-10 02:04:00劉東亮王秋爽
        吉林大學學報(工學版) 2018年1期
        關(guān)鍵詞:車頭車速輪廓

        劉東亮,王秋爽

        (1.東北師范大學 信息科學與技術(shù)學院,長春 130021;2.吉林大學學報(信息科學版)編輯部,長春 130012;3.吉林大學 計算機科學與技術(shù)學院,長春 130012)

        科學的交通協(xié)同策略和管控措施需要準確的情報信息支撐,因此交通信息的采集成為交通研究過程的重要基礎(chǔ)和關(guān)鍵環(huán)節(jié)。交通信息采集方法中,對視頻和無線傳感的相關(guān)研究較多。其中,基于視頻識別的交通信息采集方法由美國加利福尼亞州的噴氣推進實驗室(Jet propulsion laboratory)于1978年首先提出,隨后歐洲、日本也開始了對該領(lǐng)域的研究[1]。近十年,我國也開始重視交通信息的視頻識別技術(shù),許多專家學者對該領(lǐng)域進行了多方面的研究,取得了一系列成果[2-7]?;跓o線傳感網(wǎng)絡(luò)(WSN)的交通信息采集方法,最早由美國加州大學伯克利分校的Bajwa等[8]進行研究并將其應(yīng)用于交通領(lǐng)域,當前在該領(lǐng)域國內(nèi)外已有相當多的研究與應(yīng)用。此外,國內(nèi)外還有學者研究了依靠圖像信息參數(shù)進行車輛速度判別的方法,如王祺等[9]分析了不同車頭間距下車速的分布規(guī)律,利用對數(shù)正態(tài)分布和負指數(shù)分布對交通流速度統(tǒng)計建模。Leitloff等[10]深入分析了遙感系統(tǒng)中全色影像與多波段影像的生成時刻,提出了一種利用全色-多光譜影像采集時間差推導車速的方法,文獻[11,12]在重點進行圖像處理的基礎(chǔ)上利用該方法進行了交通信息采集研究,取得了一定成果。

        雖然交通信息采集方法較多,若應(yīng)用于大范圍單車運行信息采集,上述方法仍有各自的不足:①對車頭間距與車速相關(guān)性的研究尚滯留在統(tǒng)計層面,雖得到不同車頭間距區(qū)間內(nèi)速度的概率分布,但并未找到車頭間距與車速間的嚴格映射關(guān)系,無法直接應(yīng)用于廣域交通信息采集;②基于遙感成像時間差的車速判別方法,必須以獲取全色-多光譜影像采集時間差為前提,而該參數(shù)并非遙感系統(tǒng)的主要參數(shù)因而極難獲取,籠統(tǒng)地使用文獻[10]中的參數(shù)值將嚴重影響車速識別的精度。

        針對統(tǒng)計方法所建映射關(guān)系不可直接應(yīng)用、基于全色-多光譜時間差采集方法關(guān)鍵參數(shù)難以獲取的現(xiàn)狀,本文以NGSIM數(shù)據(jù)為基礎(chǔ)數(shù)據(jù),使用BP神經(jīng)網(wǎng)絡(luò)確定了被檢測交通區(qū)域中車頭間距、車輛輪廓兩個圖像信息參數(shù)與瞬時車速之間的映射關(guān)系,分析了瞬時車速隨車頭間距、車輛輪廓的變化趨勢,建立了基于圖像信息參數(shù)的瞬時車速模型,使用相近時間段的數(shù)據(jù)進行了模型驗證,通過輸出車速與實際車速的絕對平均誤差證明了模型的可用性,并進一步分析了適用于本瞬時車速模型的車輛類型。

        1 NGSIM數(shù)據(jù)

        NGSIM(Next generation simulation)是由美國聯(lián)邦高速公路管理局啟動的下一代交通仿真工程,其收集、處理了大量的道路交通數(shù)據(jù),為中微觀交通研究提供了可靠、海量的數(shù)據(jù)源。NGSIM可為用戶提供包含車長、車寬、車頭間距、車輛速度等數(shù)據(jù)的“vehicle-trajectory-data”數(shù)據(jù)包。數(shù)據(jù)包中的數(shù)據(jù)由視頻處理技術(shù)直接得到,因而能夠反映目標車輛的瞬時狀態(tài),且初處理得到的車輛狀態(tài)參數(shù)與目標車輛也保持高度一致。因此,本文選擇NGSIM的“vehicle-trajectory-data”數(shù)據(jù)包作為模型建立的原始數(shù)據(jù)。

        2 參數(shù)選擇與數(shù)據(jù)處理

        本文將NGSIM提供的“vehicle-trajectory-data”數(shù)據(jù)包作為模型建立的原始數(shù)據(jù),數(shù)據(jù)采集位置分別為道路狀況相近的US-101 Hollywood Freeway段(美國101快速路洛杉磯段)和I-80 Emeryville段,采集時間分別為2013年6月15日的8:20~8:35和2013年4月13日的17:15~17:30兩個高峰時段。每個“vehicle-trajectory-data”數(shù)據(jù)包約有100萬條數(shù)據(jù)記錄,共分18個項目。數(shù)據(jù)項目見表1。

        表1 數(shù)據(jù)項目Table 1 Data items

        2.1 參數(shù)選擇

        (1)車頭間距(Headway)

        非線性跟馳理論認為,反應(yīng)強度系數(shù)與車頭間距成反比[13],即:

        λ=λ1/s(t)=λ1/[xn(t)-xn+1(t)]

        式中:λ為反應(yīng)強度系數(shù);λ1為常量參數(shù);s(t)為t時刻車輛間的車頭間距;xn(t)為t時刻n車的位置;xn+1(t)為t時刻n+1車的位置。

        反應(yīng)強度系數(shù)是根據(jù)前車所做的加速或減速運動而對后車進行的相應(yīng)操縱行為及其效果。車頭間距與反應(yīng)強度成反比,反應(yīng)強度對瞬時車速有影響,而車頭間距也可由圖像獲取,因此選擇車頭間距Headway作為模型的輸入?yún)?shù)。

        (2)輪廓指數(shù)(Outline)

        由于車輛性能和駕駛員行為的差異性,當車頭間距相同時,不同的車輛會采取不同的跟馳速度[14],因而引入反映車輛性能的參數(shù)將提高模型的精度。車輛長度、車輛寬度均反映車輛輪廓情況,與車輛的型號及動力性有關(guān),為減少輸入?yún)?shù)的數(shù)量,定義車長與車寬之和為車輛輪廓指數(shù)并作為模型的輸入?yún)?shù):

        Outline=Length+Width

        式中:Outline為車輛輪廓指數(shù);Length為車輛長度;Width為車輛寬度。

        2.2 數(shù)據(jù)處理

        (1)數(shù)據(jù)篩選

        NGSIM中數(shù)據(jù)來源于美國高速公路,車輛種類包括摩托車、小型汽車和卡車。對于不同類型的車輛,外廓尺寸與車輛動力性的對應(yīng)關(guān)系差別較大,為排除摩托車和卡車對模型造成的干擾,研究中僅使用Class項為2(小型汽車)的數(shù)據(jù)記錄。

        車頭間距過大、車速過高說明車輛處于自由流狀態(tài),相鄰車輛間的影響極小。而車頭間距過小、車速過低則說明交通流處于阻塞狀態(tài),兩種情況下圖像信息參數(shù)與瞬時車速的映射關(guān)系均不明顯[15]。為使模型更準確,選擇車頭間距為[5,200]m,車速為[30,70]km/h。

        NGSIM未對車輛換道情況及換道時各圖像信息參數(shù)進行詳細的記錄,無法研究換道跟馳現(xiàn)象,且由于外側(cè)車道車輛數(shù)量較少,僅使用內(nèi)側(cè)1車道的數(shù)據(jù),并將US-101 Hollywood freeway段2013年6月15日8:20~8:35時間段內(nèi)的數(shù)據(jù)作為基礎(chǔ)數(shù)據(jù);將I-80 Emeryville段2013年4月13日17:15~17:30段內(nèi)的數(shù)據(jù)作為模型驗證數(shù)據(jù)。針對基礎(chǔ)數(shù)據(jù)與模型驗證數(shù)據(jù)兩部分數(shù)據(jù)均根據(jù)車頭間距與車速范圍指標進行了篩選,將符合指標的數(shù)據(jù)用于后續(xù)的神經(jīng)網(wǎng)絡(luò)訓練及模型驗證。

        (2)數(shù)據(jù)的歸一化處理

        由于本文擬使用神經(jīng)網(wǎng)絡(luò)進行建模,神經(jīng)網(wǎng)絡(luò)以樣本在事件中的統(tǒng)計分布幾率進行訓練和預測,而當所有樣本的輸入信號都為正值時,與第一隱含層神經(jīng)元相連的權(quán)值只能同時增加或減小。此外,由于一般神經(jīng)網(wǎng)絡(luò)將Sigmoid 函數(shù)作為傳遞函數(shù),其值域為(-1,1)或(0,1),網(wǎng)絡(luò)的輸出也是如此,若不進行歸一化處理,將導致學習速度變慢。為提高訓練網(wǎng)絡(luò)的收斂性,加快網(wǎng)絡(luò)學習速度,需對輸入輸出數(shù)據(jù)(見表2)進行歸一化處理,使數(shù)據(jù)的均值接近于0或與其均方差相比很小。

        表2 輸入和輸出參數(shù)Table 2 Input and output parameters

        本研究所用數(shù)據(jù)均為正值,因而對車輛輪廓指數(shù)、車頭間距、車速數(shù)據(jù)使用線性函數(shù)轉(zhuǎn)換方法按如下公式進行歸一化處理:

        y=(x-MinValue)/(MaxValue-MinValue)

        式中:x為轉(zhuǎn)換前數(shù)值;y為轉(zhuǎn)換后數(shù)值;MaxValue為樣本最大值;MinValue為樣本最小值。

        3 BP神經(jīng)網(wǎng)絡(luò)的建立

        由跟馳理論可知,車輛速度、加速度、車頭間距、駕駛員反應(yīng)時間之間并非互不相干的獨立關(guān)系,因而基于圖像參數(shù)的車速模型是非線性模型??紤]到BP神經(jīng)網(wǎng)絡(luò)具有較強的海量數(shù)據(jù)處理和非線性擬合能力,本文采用BP神經(jīng)網(wǎng)絡(luò)建立以圖像參數(shù)為輸入的車輛瞬時速度模型。

        3.1 BP網(wǎng)絡(luò)結(jié)構(gòu)確定

        已證明任何一個連續(xù)函數(shù)均可由一個3層神經(jīng)網(wǎng)絡(luò)以任意精度逼近,含有一個隱含層的3層BP神經(jīng)網(wǎng)絡(luò)即可滿足輸入?yún)?shù)到輸出參數(shù)的非線性映射。因此,本文選擇使用3層BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

        一般利用試湊法確定隱含層節(jié)點數(shù)。試湊時,采用經(jīng)驗公式進行隱含層節(jié)點數(shù)的初步選擇[16]:

        式中:m為隱含層節(jié)點個數(shù);n為輸入層節(jié)點個數(shù);l為輸出層節(jié)點個數(shù);α為1至10之間的常數(shù)。本研究中輸入層節(jié)點數(shù)為2,輸出層節(jié)點數(shù)為1,由于車輛輪廓指數(shù)的存在使映射關(guān)系變得復雜,本實驗中取α為4,得到隱含層節(jié)點數(shù)為6。

        3.2 傳遞函數(shù)確定

        Sigmoid型函數(shù)不同于Pureline等線性閾值函數(shù),其連續(xù)可微,適合作為傳遞函數(shù)用于隱含層(見圖1)。具體到本研究,輸出參數(shù)均為正值,應(yīng)使用log-sigmoid單極性傳遞函數(shù):

        圖1 Log-sigmoid與Purelin函數(shù)曲線Fig.1 Log-sigmoid and Pureline function curves

        若BP 網(wǎng)絡(luò)的輸出層為Sigmoid 型函數(shù),則網(wǎng)絡(luò)的輸出將被限制在(0,1)內(nèi),因而選擇Pureline 型函數(shù)作為網(wǎng)絡(luò)的輸出層函數(shù),使訓練后的網(wǎng)絡(luò)可輸出任意值:

        fpurelin(x)=x

        3.3 訓練方法確定

        梯度下降動量(Gradient descent with momentum backpropagation)算法可避免最速梯度下降算法(Gradient descent backpropagation,GDB)陷于局部極小的情況,并可調(diào)節(jié)學習速率從而提高算法的可靠性和收斂性[17]:

        wij(k+1)=wij(k)+η[(1-

        α)d(k)+αd(k-1)]

        式中:d(k)為k時刻的負梯度,d(k-1)為k-1時刻的負梯度,η為學習速率,α為動量因子。

        α∈[0,1] ,當α=0時,權(quán)值修正只與當前負梯度有關(guān),當α=1時,權(quán)值修正完全取決于上一次循環(huán)的負梯度。此方法加入的動量項相當于阻尼項,可以減小學習過程的震蕩趨勢,改善收斂性。

        雖然梯度下降動量算法收斂速度較慢且需要較多的存儲空間,但本研究非實時數(shù)據(jù)處理,對存儲空間和收斂速度無特殊要求,選擇有動量的梯度下降算法(GDM)作為網(wǎng)絡(luò)訓練方法。

        4 網(wǎng)絡(luò)訓練與仿真驗證

        4.1 神經(jīng)網(wǎng)絡(luò)訓練

        將初處理后神經(jīng)網(wǎng)絡(luò)訓練數(shù)據(jù)組中的車頭間距Headway和車輛輪廓指數(shù)Outline作為輸入,車速Velocity作為輸出,規(guī)定最大訓練次數(shù)為1000,使用表3所示BP神經(jīng)網(wǎng)絡(luò)參數(shù),經(jīng)多次調(diào)整確定隱含層節(jié)點數(shù)為10,訓練后兩個BP神經(jīng)網(wǎng)絡(luò)以0.0527的均方誤差達到終止條件,作為反映輸入輸出參數(shù)映射關(guān)系的瞬時車速模型。

        表3 BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)Table 3 BP neural network structure parameters

        4.2 仿真驗證與結(jié)果分析

        圖2和圖3分別是模型的仿真網(wǎng)格圖和效果驗證圖。以各變量1%的步長形成模型曲面,仿真曲面反映出如下趨勢:輪廓最大的車輛在車頭間距最小時速度最慢;輪廓最小的車輛在車頭間距最大時速度最快。車頭間距與瞬時車速的正相關(guān)關(guān)系與王祺等[9]的統(tǒng)計結(jié)果一致。

        將模型驗證組中的圖像信息數(shù)據(jù)輸入訓練后的神經(jīng)網(wǎng)絡(luò)中,輸出兩車道基于模型的瞬時車速,與相應(yīng)實際車速對比,得絕對平均誤差為13.73 km/h。

        為詳細分析誤差產(chǎn)生原因,做出訓練數(shù)據(jù)的車輛輪廓指數(shù)直方圖與車速絕對平均誤差(相應(yīng)輪廓指數(shù)區(qū)間的MAE均值)曲線,如圖4所示。

        圖2 模型仿真網(wǎng)格圖Fig.2 Model simulation mesh diagrams

        圖3 模型效果驗證圖Fig.3 Model effect validation diagrams

        圖4 輪廓指數(shù)直方圖與車速MAE曲線Fig.4 Histograms of outline and waves ofvehicle speed MAE

        輪廓指數(shù)是指車型車輛識別與分類的過程中大體的整車輪廓大小。由車輛輪廓指數(shù)直方圖與車速絕對平均誤差曲線可見:車輛輪廓指數(shù)集中分布在4.7~5.3 m和6.0~7.6 m的區(qū)間內(nèi);MAE曲線隨不同輪廓指數(shù)的車輛數(shù)量變化,4.7~5.3 m和6.0~7.6 m區(qū)間內(nèi)車速MAE較低,而其他車輛輪廓范圍對應(yīng)的車速MAE較高。

        原因分析:

        (1)進行BP神經(jīng)網(wǎng)絡(luò)訓練時,輪廓指數(shù)在4.7~5.3 m和6.0~7.6 m區(qū)間內(nèi)的車輛其樣本量較大,神經(jīng)網(wǎng)絡(luò)的擬合效果較好;

        (2)輪廓指數(shù)超過7.6 m的車輛,該類型車輛多為可進行貨物運輸車輛且發(fā)動機額定功率一般較大,使?jié)M載和空載時的加速能力等動力學參數(shù)產(chǎn)生明顯差別,從而可造成不同樣本情況下車速的較大差異。

        5 結(jié) 論

        (1)以NGSIM數(shù)據(jù)為基礎(chǔ)數(shù)據(jù),使用BP神經(jīng)網(wǎng)絡(luò)可確定被檢測交通區(qū)域中車頭間距、車輛輪廓兩個圖像信息參數(shù)與瞬時車速之間的映射關(guān)系。

        (2)使用BP神經(jīng)網(wǎng)絡(luò)建立基于圖像信息參數(shù)的瞬時車速模型可處理相近時間段的NGSIM數(shù)據(jù),其輸出車速與實際車速的絕對平均誤差證明模型具有較高的可用性。

        (3)仿真驗證與分析結(jié)果表明,在US-101的NGSIM數(shù)據(jù)采集路段中,本文提出的車輛瞬時速度模型其總體準確性可以接受,且對輪廓指數(shù)為4.7~5.3 m和6.0~7.6 m區(qū)間內(nèi)的中小型車輛較為適用。

        (4)本文所做模型仿真實驗是基于NGSIM數(shù)據(jù)樣本進行的,將本文所提出的方法應(yīng)用于實際情況時,為獲得更好的效果,不應(yīng)直接采用本文中NGSIM數(shù)據(jù)樣本的訓練結(jié)果,應(yīng)針對應(yīng)用環(huán)境下的交通數(shù)據(jù)流進行BP神經(jīng)網(wǎng)絡(luò)樣本訓練。

        [1] 徐文聰. 基于視頻的交通數(shù)據(jù)采集技術(shù)研究[D]. 山東大學機電與信息工程學院, 2012.

        Xu Wen-cong. Research on the techniques of vision-based traffic data collection[D].Jinan:College of Mediatronics and Information Engineerig,Shandong University, 2012.

        [2] Yin M, Zhang H, Meng H, et al. An HMM-based algorithm for vehicle detection in congested traffic situations[C]∥Intelligent Transportation Systems Conference,Seattle,WA,USA,2007: 736-741.

        [3] Zhu Z, Xu G Y, Yang B, et al. VISATRAM: a real-time vision system for automatic traffic monitoring[J]. Image and Vision Computing, 2000, 18(10): 781-794.

        [4] 李子青.人臉識別技術(shù)應(yīng)用和市場分析[J].中國安防,2007(8):49-53.

        Li Zi-qing . Face recognition technology and market analysis [J]. Security & Protection,2007(8):42-46.

        [5] Tan T N, Sullivan G D, Baker K D. Model-based localisation and recognition of road vehicles[J]. International Journal of Computer Vision, 1998, 27(1): 5-25.

        [6] Tai J C, Tseng S T, Lin C P, et al. Real-time image tracking for automatic traffic monitoring and enforcement applications[J]. Image and Vision Computing, 2004, 22(6): 485-501.

        [7] Jin S, Wang D H, Xu C, et al. Short-term traffic safety forecasting using Gaussian mixture model and Kalman filter[J]. Journal of Zhejiang University (Science A), 2013, 14(4): 231-243.

        [8] Bajwa R, Rajagopal R, Varaiya P, et al. In-pavement wireless sensor network for vehicle classification[C]∥10th International Conference on Information Processing in Sensor Networks (IPSN),Chicago,IL,USA,2011: 85-96.

        [9] 王祺,李力,胡堅明,等.不同車頭間距下交通流的速度分布[J].清華大學學報: 自然科學版,2011,51(3):23-26.

        Wang Qi, Li Li, Hu Jian-ming, et al. Traffic velocity distributions for different spacings [J]. Journal of Tsinghua University(Science and Technology), 2011, 51(3): 309-312.

        [10] Leitloff J, Hinz S, Stilla U. Inferring traffic activity from optical satellite images[J]. International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, 2007, 36(3/W49B): 89-93.

        [11] 索明亮.衛(wèi)星圖像中運動車輛探測和速度提取研究 [D].北京: 北京交通大學城市交通復雜系統(tǒng)理論與技術(shù)教育部重點實驗室,2011.

        Suo Ming-liang. Research on moving vehicle detection and velocity extraction from satellite image [D].Beijing: MOE Key Laboratory for Urban Transportation Complex Systems Theory and Technology,Beijing Jiaotong University,2011.

        [12] 張素蘭.基于衛(wèi)星遙感影像的交通狀態(tài)判別研究 [D].北京: 北京交通大學交通運輸規(guī)劃與管理學院,2010.

        Zhang Su-lan. Research on traffic state estimation from satellite remote sensing images [D].Beijing: College of Transportation Planning and Management,Beijing Jiaotong University,2010.

        [13] 王殿海. 交通流理論[M]. 北京: 人民交通出版社, 2002:52.

        [14] Bonzani I, Mussone L. From the discrete kinetic theory of vehicular traffic flow to computing the velocity distribution at equilibrium[J]. Mathematical and Computer Modelling, 2009, 49(3): 610-616.

        [15] Bando M, Hasebe K, Nakayama A, et al. Dynamical model of traffic congestion and numerical simulation[J]. Physical Review E, 1995, 51: 1035-1042.

        [16] 李孝安, 張曉繢. 神經(jīng)網(wǎng)絡(luò)與神經(jīng)計算機導論 [M]. 西安: 西安電子工業(yè)出版社, 1994.

        [17] Wang J, Yang J, Wu W. Convergence of cyclic and almost-cyclic learning with momentum for feedforward neural networks[J].IEEE Transactions on Neural Networks,2011, 22(8): 1297-1306.

        猜你喜歡
        車頭車速輪廓
        OPENCV輪廓識別研究與實踐
        高鐵車頭為什么是子彈頭的?
        軍事文摘(2020年24期)2020-02-06 05:56:58
        基于實時輪廓誤差估算的數(shù)控系統(tǒng)輪廓控制
        2012款奔馳R300車修改最高車速限制
        在市場中成熟起來的大車頭村
        在線學習機制下的Snake輪廓跟蹤
        計算機工程(2015年4期)2015-07-05 08:27:39
        北京現(xiàn)代途勝車車速表不工作
        兩車直角碰撞車速計算方法及應(yīng)用
        道路交通事故中車速計算方法及應(yīng)用
        城市快速路單車道車頭間距的研究
        大白屁股流白浆一区二区三区| 无码日韩精品一区二区免费暖暖| 午夜dy888国产精品影院| 国产夫妻自偷自拍第一页| 日本免费大片一区二区| 激情综合五月开心婷婷| 久久久久久九九99精品| 久久精品无码一区二区三区免费| 免费a级毛片18以上观看精品| 亚洲av永久无码精品网址| 欧美粗大无套gay| 2021久久精品国产99国产 | 欧美性狂猛xxxxx深喉| 色系免费一区二区三区| 国产亚洲精品国看不卡| 精品日本韩国一区二区三区| 亚洲一区二区在线观看av| 国产亚洲91精品色在线| 国产成a人亚洲精品无码樱花| 东北妇女xx做爰视频| 国产午夜亚洲精品午夜鲁丝片| a级毛片毛片免费观看久潮喷| 精品亚洲女同一区二区| 亚洲男人在线天堂av| 免费亚洲老熟熟女熟女熟女| 无人区一码二码三码四码区| 久久国产色av| 在线不卡中文字幕福利| 在线日本国产成人免费精品| 中文字幕精品一区久久| 影音先锋中文字幕无码资源站| 国模无码视频一区| 美女精品国产一区二区三区| 女同av一区二区三区| 日韩av高清在线观看| 亚洲日韩一区二区一无码| 亚洲AV无码精品呻吟| 国产一区二区丰满熟女人妻| 青青青视频手机在线观看| 亚州av高清不卡一区二区| 欧美老妇交乱视频在线观看|