亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向?qū)崟r(shí)人群動力學(xué)分析的深度基本圖網(wǎng)絡(luò)

        2021-08-02 02:29:48宋衛(wèi)國
        火災(zāi)科學(xué) 2021年1期
        關(guān)鍵詞:實(shí)驗(yàn)

        馬 晴,康 宇,,宋衛(wèi)國*,曹 洋

        (1.中國科學(xué)技術(shù)大學(xué)火災(zāi)科學(xué)國家重點(diǎn)實(shí)驗(yàn)室,合肥,230026;2.中國科學(xué)技術(shù)大學(xué)自動化系,合肥,230026)

        0 引言

        在行人疏散動力學(xué)研究中,基本圖是行人動力學(xué)分析中一項(xiàng)重要的工具。研究人員在臨界密度、最大流量、行人自由速度等方面都有不同的研究成果。Weidmann[1]通過行人運(yùn)動基本圖研究發(fā)現(xiàn),行人自由速度隨密度增大而減小,在行人密度達(dá)到5.4人/m2時(shí)速度為0,臨界密度為1.55人/m2時(shí)最大流量1.15人/m/s;但Helbing等[2]通過分析2006年麥加朝圣踩踏事故的行人運(yùn)動基本圖發(fā)現(xiàn),在極高密度的情況下(10人/m2),行人運(yùn)動速度不為0,行人仍然可以緩慢行走,且行人密度出現(xiàn)第二峰值,與前人的研究結(jié)果不同;Armin Seyfrid課題組[3]在比較了不同文化背景下行人運(yùn)動基本圖后得到如下結(jié)論,相同密度下印度人的行走速度大于德國人;Cao等[4]分析了不同年齡人群單列實(shí)驗(yàn)的基本圖發(fā)現(xiàn),老年人的最大流量大于混合人群的最大流量。研究人員通過分析基本圖獲得了很多重要的行人動力學(xué)規(guī)律,因此快速準(zhǔn)確的獲得基本圖有助于行人動力學(xué)研究。

        目前主流獲得基本圖的方法是對視頻中的行人進(jìn)行軌跡跟蹤,再計(jì)算得到基本圖。其基本思想是,區(qū)分前景和背景,給定特定顏色閾值建立參考模型來提取行人運(yùn)動軌跡。這種使用RGB閾值的方法雖然可以較準(zhǔn)確的提取前景中的行人,但在行人軌跡跟蹤過程中會出現(xiàn)目標(biāo)丟失現(xiàn)象。

        隨著深度學(xué)習(xí)的發(fā)展,針對人群計(jì)數(shù)問題,研究者們提出了不同的網(wǎng)絡(luò)結(jié)構(gòu)[5-7],這些網(wǎng)絡(luò)的特點(diǎn)是采用了多列結(jié)構(gòu),即網(wǎng)絡(luò)中包含幾個子網(wǎng)絡(luò),子網(wǎng)絡(luò)之間的卷積核大小不同,不同大小的卷積核可以提取不同尺寸的行人信息。網(wǎng)絡(luò)都是在GPU上加速運(yùn)行的,程序運(yùn)行速度快。考慮到實(shí)時(shí)獲得行人動力學(xué)信息的任務(wù),我們提出了一種深度基本圖網(wǎng)絡(luò)。

        我們的深度基本圖網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,網(wǎng)絡(luò)由多尺度遞歸卷積神經(jīng)網(wǎng)絡(luò)(MSR-Net)和光流模塊組成。MSR-Net用于獲得行人密度圖,MSR-Net使用多列結(jié)構(gòu),但將輸出改為行人密度圖以獲得行人空間信息,便于進(jìn)一步應(yīng)用于異常檢測。光流模塊(OF-Net)對運(yùn)動目標(biāo)進(jìn)行檢測,可以得到行人的速度圖。我們的光流模塊選用LK稀疏光流法,稀疏光流運(yùn)算量小、速度快,適用于我們的實(shí)時(shí)任務(wù)。通過密度圖和速度圖可以獲得基本圖。同時(shí),通過速度圖和密度圖的空間對應(yīng)關(guān)系還可以實(shí)現(xiàn)異常檢測。

        圖1 深度基本圖網(wǎng)絡(luò)結(jié)構(gòu)Fig. 1 The structure of the proposed deep fundamental diagram network

        1 方法

        我們提出的深度基本圖網(wǎng)絡(luò)由兩部分組成,一部分是用于獲得行人密度圖的多尺度網(wǎng)絡(luò)(MSR-Net),另一部分是用于獲得行人速度圖的光流模塊。下面詳細(xì)介紹這兩部分如何獲得行人密度和速度以及通過二者空間對應(yīng)關(guān)系獲得基本圖的方法。

        1.1 多尺度遞歸卷積神經(jīng)網(wǎng)絡(luò)(MSR-Net)

        1.1.1 準(zhǔn)備訓(xùn)練數(shù)據(jù)

        選取2組公開實(shí)驗(yàn)(UNI_CORR_500_01、UNI_CORR_500_02)[8]制作數(shù)據(jù)集,共有6 682張有效幀圖像,隨機(jī)選取500張圖片作為測試集,剩余圖片作為訓(xùn)練集。數(shù)據(jù)集的質(zhì)量直接影響訓(xùn)練效果,為了獲得密度圖,手工標(biāo)記了6 682張圖像上所有行人頭部的位置pi,采用2D高斯核函數(shù)生成密度圖作為數(shù)據(jù)集的標(biāo)簽:

        (1)

        其中,n表示一張圖像上標(biāo)記的行人總數(shù),N表示高斯核,σ表示方差。密度圖的生成過程如圖2所示,每個點(diǎn)經(jīng)過高斯核變換之后的像素累加值為1,因此圖2中所有像素值相加值等于實(shí)際人數(shù)C,即:

        圖2 行人密度圖生成過程Fig. 2 Crowd density map generation process

        (2)

        對全部6 682張帶有行人頭部標(biāo)記的圖像進(jìn)行高斯變換,得到相應(yīng)的人群密度圖作為訓(xùn)練和測試標(biāo)簽。

        1.1.2 網(wǎng)絡(luò)結(jié)構(gòu)

        考慮到不同試驗(yàn)場景下拍攝的行人頭部大小不一致的問題,我們需要一種能夠提取不同尺度信息的網(wǎng)絡(luò)結(jié)構(gòu)。多列卷積神經(jīng)網(wǎng)絡(luò)(MCNN)[6]和多尺度遞歸卷積神經(jīng)網(wǎng)絡(luò)(MRCNN)[7]都提出了多列結(jié)構(gòu)用于學(xué)習(xí)多尺度信息,多列結(jié)構(gòu)由3個子網(wǎng)絡(luò)組成,每個子網(wǎng)絡(luò)中卷積核大小不同,在卷積運(yùn)算中感受野大小不同,大的卷積核可以提取圖片中大尺度紋理信息,小的卷積核可以提取到細(xì)節(jié)紋理信息,網(wǎng)絡(luò)的輸出都是行人數(shù)量。因此,我們提出了MSR-Net來提取多尺度信息,網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。我們的網(wǎng)絡(luò)保留了多列結(jié)構(gòu),多列結(jié)構(gòu)中三個子網(wǎng)絡(luò)相互獨(dú)立,卷積核大小不同,用于提取不同大小頭部的紋理特征。網(wǎng)絡(luò)的融合部分(Concat)將三個子網(wǎng)絡(luò)提取的行人不同尺度信息進(jìn)行融合,相互促進(jìn)和學(xué)習(xí),讓我們的網(wǎng)絡(luò)能夠提取大尺寸頭部的細(xì)節(jié)特征和小尺寸頭部的全局特征。遞歸卷積部分參數(shù)共享,在增大感受野的同時(shí)既不會丟失像素信息,又不會增加網(wǎng)絡(luò)參數(shù)。這部分的輸入是多尺度融合的輸出,由于擴(kuò)大了感受野,就有更多的信息交互,增加了網(wǎng)絡(luò)表征能力。我們的網(wǎng)絡(luò)將輸出改為行人密度圖,行人密度圖由遞歸卷積部分輸出特征,通過一個卷積核大小為1×1的卷積層映射而來。我們的網(wǎng)絡(luò)所有池化層采用最大池化,激活函數(shù)選用ReLu。

        圖3 多尺度遞歸卷積神經(jīng)網(wǎng)絡(luò)(MSR-Net)結(jié)構(gòu)Fig. 3 The struct of MSR-Net

        1.1.3 網(wǎng)絡(luò)訓(xùn)練

        本文利用Caffe深度學(xué)習(xí)框架[9]對網(wǎng)絡(luò)模型進(jìn)行微調(diào)。我們的方法已經(jīng)在MATLAB中實(shí)現(xiàn),在3.60 GHz Intel(R) Core (TM) i7 CPU, 16G RAM的PC上運(yùn)行。CNN是在GPU上運(yùn)行的,我們使用NVIDIA GTX 1050ti GPU。運(yùn)行系統(tǒng)是Ubuntu 16.04 LTS。

        網(wǎng)絡(luò)訓(xùn)練需要一個初始化權(quán)值,我們的網(wǎng)絡(luò)使用標(biāo)準(zhǔn)差為0.01的高斯分布初始化權(quán)重,基本學(xué)習(xí)率1e-5,動量參數(shù)為0.9,衰減率0.000 5,選用Adam優(yōu)化參數(shù)。我們使用1.1.1節(jié)制作的密度圖來微調(diào)預(yù)訓(xùn)練好的網(wǎng)絡(luò),直到損失函數(shù)值不再降低就停止訓(xùn)練。

        我們的網(wǎng)絡(luò)輸出是密度圖,采用歐式距離作為損失函數(shù),計(jì)算網(wǎng)絡(luò)估計(jì)結(jié)果和真實(shí)結(jié)果間的差距,函數(shù)定義為:

        (3)

        其中,N是訓(xùn)練圖像的個數(shù),Xi是輸入圖像,F(xiàn)d(Xi;Θd)表示通過MSR-Net生成的人群密度圖,Di表示真實(shí)密度圖,LD(Θ)表示網(wǎng)絡(luò)估計(jì)得到的密度圖與真實(shí)密度圖之間的損失值。

        1.2 光流模塊

        在我們的光流模塊中,選擇LK光流算法,也稱為稀疏光流法[10],與稠密光流相比計(jì)算量更小,速度更快。其中運(yùn)動場景可描述為:

        (4)

        IxVx+IyVy=-It

        (5)

        假設(shè)相鄰兩幀圖像位移很小,局部向量(Vx,Vy)必須滿足:

        Ix(qi)Vx+Iy(qi)Vy+It(qi)=0

        i=1, 2, 3…,n

        (6)

        其中,qi為鄰域內(nèi)像素的個數(shù)。Ix(qi),Iy(qi),It(qi)是當(dāng)前時(shí)刻圖像在點(diǎn)qi處對x,y位置和時(shí)間t的偏導(dǎo)數(shù)。以矩陣形式表示為:

        Av=b

        (7)

        v=(ATA)-1ATb

        (8)

        在真實(shí)場景中的真實(shí)移動距離轉(zhuǎn)換如下:

        (9)

        其中,d是真實(shí)實(shí)驗(yàn)場景中長度L包含的像素個數(shù),x是每個像素移動的距離。每個像素的真實(shí)速度為:

        (10)

        其中,p是幀率。

        1.3 計(jì)算基本圖

        1.3.1 時(shí)間-密度圖

        在1.1我們的網(wǎng)絡(luò)學(xué)習(xí)了輸入圖像和密度圖之間的映射關(guān)系,每輸入一幀圖像就可以得到這一幀的密度圖。密度圖的像素和等于行人數(shù)量,測量區(qū)域的密度可表示為:

        (11)

        其中d(x,y)為測量區(qū)域內(nèi)(x,y)位置的像素值。N是測量區(qū)域內(nèi)像素個數(shù)總和。A是測量區(qū)域的面積。這樣我們就可以得到每一幀的密度,進(jìn)一步得到時(shí)間-密度圖。相對于軌跡跟蹤的方法,每輸入一幀圖像我們的網(wǎng)絡(luò)就可以輸出這一幀的密度圖并得到測量區(qū)域的密度,具有實(shí)時(shí)性,對于行人動力學(xué)分析更具有價(jià)值。

        1.3.2 時(shí)間-速度圖

        輸入的圖片經(jīng)光流模塊處理后,得到一張速度圖,每個像素值表示該像素真實(shí)的位移大小和方向。由于光流模塊會提取到行人走路時(shí)快速擺手,對真實(shí)速度的計(jì)算產(chǎn)生干擾,我們需要利用1.3.1的密度圖消除速度計(jì)算偏差。

        首先,利用密度圖對速度圖的計(jì)算偏差進(jìn)行校正。在行人頭部的位置,密度圖的像素值非零,其他位置像素值為零,可以說密度圖提供了行人的定位。如圖4(a),密度圖和速度圖都在同一坐標(biāo)系下,存在空間對應(yīng)關(guān)系。如圖4(b),上下為同一幀的密度圖和速度圖,同時(shí)遍歷兩張圖的所有像素,密度圖像素值為0的點(diǎn),速度圖的同一坐標(biāo)位置像素值也置為0;密度圖像素值非零的點(diǎn),速度圖的同一坐標(biāo)像素值保持不變,這樣我們可以得到一張校正后的速度圖。

        圖4 (a)密度圖和速度圖的空間對應(yīng)關(guān)系;(b)通過密度圖和速度圖的空間對應(yīng)關(guān)系校正原有速度圖,得到新的速度圖。Fig. 4 (a) Correspondence between density map and velocity map; (b) The new velocity map obtained by correcting the original velocity map through the spatial correspondence between the density map and the velocity map.

        然后,在這張新的速度圖上,我們可以由以下公式得到被測區(qū)域內(nèi)行人的平均速度:

        (12)

        其中,v(x,y)為測量區(qū)域內(nèi)(x,y)位置的像素值。M是測量區(qū)域中值不為0的像素個數(shù)。因此,通過密度和速度兩個重要的行人動力學(xué)信息,我們可以得到基本圖。

        我們使用的稀疏光流模塊計(jì)算量小、運(yùn)行速度快,可對每幀圖像進(jìn)行處理,無需提取圖像的前景和背景,不需要跟蹤每個行人就可以得到某一幀的行人速度,對行人動力學(xué)的實(shí)時(shí)分析具有實(shí)際意義。

        2 實(shí)驗(yàn)結(jié)果和分析

        本文用公開實(shí)驗(yàn)數(shù)據(jù)集UNI_CORR_500[8]來驗(yàn)證我們的方法,其中前兩組實(shí)驗(yàn)被用來制作訓(xùn)練集,第三到七組實(shí)驗(yàn)作為驗(yàn)證集。所有視頻的幀率為25 fps,第三到第七組實(shí)驗(yàn)視頻分別有4 047、4 083、3 943、4 270、5 128幀有效幀(有效幀表示圖像上有行人)。每個實(shí)驗(yàn)都包含了軌跡跟蹤文件,可作為真實(shí)值與我們的結(jié)果進(jìn)行對比。圖5和表1為該實(shí)驗(yàn)數(shù)據(jù)集的場景設(shè)置和行人進(jìn)入寬度設(shè)置。

        圖5 試驗(yàn)場景設(shè)置。區(qū)域A是我們指定的測量區(qū)域。該試驗(yàn)場景寬5 m,長18 m,行人交替從兩邊進(jìn)入。Fig. 5 Experiment setup. Area A is our designated area. A five-meter-wide and 18-meter-long corridor was constructed from exhibition walls, Pedestrians are sent alternately from both sides.

        表1 實(shí)驗(yàn)設(shè)置

        為了證明我們的深度基本圖網(wǎng)絡(luò)適用于不同場景,我們選擇的實(shí)驗(yàn)數(shù)據(jù)中,03~05組為直通道實(shí)驗(yàn),06和07為瓶頸實(shí)驗(yàn)。

        在我們的實(shí)驗(yàn)中,用平均絕對值誤差(MAE)和均方誤差(MSE)來評價(jià)密度圖和速度圖估計(jì)的準(zhǔn)確性和魯棒性。平均絕對值誤差(MAE)表示如下:

        (13)

        均方誤差表示如下:

        (14)

        MSE越小表示我們的方法魯棒性越好。

        密度圖在公開實(shí)驗(yàn)上的定量結(jié)果和時(shí)間-密度關(guān)系如表2和圖6所示,無論是直通道實(shí)驗(yàn)還是瓶頸實(shí)驗(yàn),我們的密度平均誤差為0.09,也就是說每平方米相差人數(shù)不到0.1人,與真實(shí)值相差不大。從基本圖來看,通過我們提出的方法得到的基本圖與軌跡跟蹤方法得到的基本圖變化趨勢一致,可以描述行人運(yùn)動整體規(guī)律。

        表2 行人密度(1/m2)和速度(m/s)的定量結(jié)果

        圖6 (a),(b),(c),(d),(e)是第3~7組實(shí)驗(yàn)中密度隨時(shí)間的變化圖。藍(lán)點(diǎn)線表示軌跡文件得到的地面真值密度,紅實(shí)線表示CNN得到的密度。Fig. 6 (a), (b), (c), (d), (e) are the time evolution of the density of the third to seventh video. The blue dot line represents the ground truth density obtained from the trajectory file, the red line represents the density obtained from CNN.

        速度圖在公開實(shí)驗(yàn)上的定量結(jié)果和時(shí)間-速度關(guān)系如表2和圖7所示。從定量結(jié)果來看我們的方法平均誤差為0.04,從時(shí)間-速度基本圖來看,我們的結(jié)果更平滑,波動更小,整體趨勢與軌跡跟蹤法得到的基本圖保持一致,可以很好的描述行人運(yùn)動規(guī)律。與密度的MAE相比,速度的MAE值較大,這是由于實(shí)驗(yàn)在開始和結(jié)束時(shí)亮度非恒定,受亮度影響,速度圖的魯棒性波動較大。

        圖7 (a),(b),(c),(d),(e)是第3~7組實(shí)驗(yàn)中速度隨時(shí)間的變化圖。藍(lán)點(diǎn)線表示從軌跡文件計(jì)算出的行人速度,紅實(shí)線表示從我們的方法中得到的行人速度。Fig. 7 (a), (b), (c), (d), (e) are the time evolution of the velocity of the third to seventh video. The blue dot line represents the ground truth speed calculated from trajectory file, The red line represents the speed obtained from our method.

        表3是獲得一幀行人密度和速度所需的時(shí)間。因?yàn)椴⑿杏?jì)算,通過MSR-Net獲得行人密度所需時(shí)間極短。獲得一幀行人密度需要進(jìn)行一次偏差校正,運(yùn)行時(shí)間比獲得行人密度的時(shí)間稍長,但也不到0.5 s,我們的方法可以直接得到每一幀行人的密度和速度,說明我們的方法可以用于實(shí)時(shí)獲得基本圖,對行人動力學(xué)實(shí)時(shí)分析有現(xiàn)實(shí)意義。由于我們方法的實(shí)時(shí)性,在獲得基本圖的同時(shí)可以通過空間對應(yīng)關(guān)系檢測出速度和方向異常的行人(如圖8所示),我們的方法對行人動力學(xué)分析具有很好的應(yīng)用前景。

        表3 獲得行人密度和速度所運(yùn)行的時(shí)間(s)

        圖8 十二幀連續(xù)圖像。異常行人(箭頭處)用紅色標(biāo)記。Fig. 8 12 consecutive frames. Abnormal pedestrian where the arrows point at is marked in red.

        3 結(jié)論

        本文提出了一種實(shí)時(shí)獲得基本圖的方法。利用多尺度遞歸卷積神經(jīng)網(wǎng)絡(luò)對行人密度進(jìn)行估計(jì),通過光流模塊獲得行人速度。密度圖提供行人密度和行人位置信息,速度圖包含行人移動速度和方向。通過密度圖和速度圖的空間對應(yīng)關(guān)系,我們可以獲得基本圖。公開數(shù)據(jù)集的實(shí)驗(yàn)表明,我們的方法與軌跡跟蹤的方法得到了一致的基本圖。我們的方法可以對每一幀圖像進(jìn)行處理并得到這一幀的行人密度和速度,所需的運(yùn)行時(shí)間不足0.5 s,具有實(shí)時(shí)性。同時(shí),我們的方法可以檢測出異常的行人,對行人動力學(xué)分析具有很好的應(yīng)用價(jià)值。

        猜你喜歡
        實(shí)驗(yàn)
        我做了一項(xiàng)小實(shí)驗(yàn)
        記住“三個字”,寫好小實(shí)驗(yàn)
        我做了一項(xiàng)小實(shí)驗(yàn)
        我做了一項(xiàng)小實(shí)驗(yàn)
        記一次有趣的實(shí)驗(yàn)
        有趣的實(shí)驗(yàn)
        微型實(shí)驗(yàn)里看“燃燒”
        做個怪怪長實(shí)驗(yàn)
        NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
        實(shí)踐十號上的19項(xiàng)實(shí)驗(yàn)
        太空探索(2016年5期)2016-07-12 15:17:55
        精品少妇白浆一二三区| 丰满的少妇xxxxx青青青| 热の国产AV| 精品国产91久久综合| 蜜臀一区二区av天堂| 国产91会所女技师在线观看| 性猛交ⅹxxx富婆视频| 人人妻人人澡人人爽久久av | 日韩亚洲欧美中文高清在线| 日本啪啪一区二区三区| 一本色道久久综合亚洲精品蜜臀| 久久精见国产亚洲av高清热| 偷看农村妇女牲交| 天天躁日日躁狠狠躁人妻| 中文字幕有码在线视频| 日本不卡一区二区三区久久精品| 牛牛在线视频| 久久精品国产亚洲av成人| 日日骚一区二区三区中文字幕| 亚洲一二三四区免费视频| 一本一本久久aa综合精品| 一级呦女专区毛片| 亚洲一区二区三区亚洲| 久久久久亚洲av成人人电影| 久久人人爽人人爽人人片av麻烦 | 久久亚洲色www成人欧美| 国产资源精品一区二区免费| 日本一区二区三区一级片| 国产精品无码av无码| 韩国19禁主播深夜福利视频| 亚洲美女av一区二区| 青青草骚视频在线观看| 最近日本免费观看高清视频| 久久亚洲第一视频黄色| 亚洲av在线观看播放| 人妻哺乳奶头奶水| 在线人妻无码一区二区| 日韩三级一区二区三区四区| 无套中出丰满人妻无码| 欧美成人形色生活片| 男女男在线精品免费观看|