亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結(jié)合行人檢測(cè)與單應(yīng)性變換的安全社交距離估計(jì)

        2022-03-25 04:45:06張建賀陶杭宇王亞名陳積澤姜曉燕
        軟件導(dǎo)刊 2022年3期
        關(guān)鍵詞:行人尺度平面

        張建賀,陶杭宇,王亞名,陳積澤,姜曉燕

        (上海工程技術(shù)大學(xué)電子電氣工程學(xué)院,上海 201620)

        0 引言

        新冠肺炎的全球大流行嚴(yán)重影響了公共衛(wèi)生安全。世界衛(wèi)生組織提出了減少病毒傳播的指導(dǎo)方針,其中最重要的措施之一是外出時(shí)與他人保持安全的社交距離。社交距離是一種公共衛(wèi)生實(shí)踐,旨在防止患病人群與健康人群密切接觸,以減少疾病傳播機(jī)會(huì)[1]。最新研究表明[2],與感染者距離大于1m 時(shí)被傳染幾率為2.6%,1m 內(nèi)則可能高達(dá)12.8%。因此,監(jiān)測(cè)和調(diào)節(jié)人與人之間的社交距離在抑制病毒傳播方面具有至關(guān)重要的作用。

        從圖像或視頻中自動(dòng)估計(jì)現(xiàn)實(shí)場(chǎng)景中行人之間的物理距離被稱為視覺社交距離估計(jì)[3],其中基于單張圖像的視覺社交距離估計(jì)又稱為單目視覺社交距離估計(jì),既可以用于基于安全原因的社交距離監(jiān)測(cè),也可以利用監(jiān)測(cè)結(jié)果分析其各種影響。雖然目前也有利用移動(dòng)電子設(shè)備、Wi-Fi 或藍(lán)牙技術(shù)的測(cè)距方法[4],但視覺社交距離估計(jì)方法具有非侵入性、安全性、易部署等優(yōu)點(diǎn),應(yīng)用較為廣泛。此外,視頻監(jiān)控設(shè)備遍布主要公共場(chǎng)所,為單目視覺社交距離估計(jì)提供了廣泛基礎(chǔ)。通過單目視覺社交距離估計(jì)方法提醒人們及時(shí)保持安全社交距離,不僅能有效抑制病毒傳播,而且通過統(tǒng)計(jì)分析社交距離違規(guī)情況可以識(shí)別出擁擠的危險(xiǎn)區(qū)域,為公共場(chǎng)所的安全性改進(jìn)提供建議。

        1 相關(guān)研究

        基于單目視覺的社交距離估計(jì)涉及到兩個(gè)任務(wù)[3],分別為行人檢測(cè)和距離估計(jì),具體分為4 種方法:第一種是基于行人檢測(cè)框中心的像素距離計(jì)算。例如姚博等[5]利用YOLOv4 行人檢測(cè)模型得到行人檢測(cè)框,然后直接計(jì)算每個(gè)行人檢測(cè)框中心點(diǎn)像素坐標(biāo)之間的歐氏距離,最后通過設(shè)定閾值判斷行人是否違反安全社交距離。該種方法只能粗略地估計(jì)像素距離,并沒有直接估計(jì)現(xiàn)實(shí)場(chǎng)景中人與人之間的物理距離;第二種是基于行人檢測(cè)和已知相機(jī)內(nèi)外參數(shù),將像素行人距離轉(zhuǎn)換為現(xiàn)實(shí)場(chǎng)景的物理距離。例如Rezaei 等[6]同時(shí)利用行人檢測(cè)器和相機(jī)內(nèi)外參數(shù)計(jì)算行人社交距離,但現(xiàn)實(shí)場(chǎng)景中無法直接獲取相機(jī)的內(nèi)外參數(shù),因此該方法有一定的局限性;第三種是基于行人檢測(cè)和手動(dòng)校準(zhǔn)估算社交距離。例如Shorfuzzaman 等[7]首先利用行人檢測(cè)模型檢測(cè)行人,再通過手動(dòng)選取4 個(gè)點(diǎn)并校準(zhǔn)尺度信息得到透視變換矩陣,從而得到鳥瞰圖,最后計(jì)算鳥瞰圖中的行人距離,即行人物理社交距離。該種方法因需要手動(dòng)校準(zhǔn)而無法直接應(yīng)用于一般場(chǎng)景;第四種僅基于單張圖像而無需相機(jī)校準(zhǔn)信息。例如Gupta 等[8]利用行人檢測(cè)和追蹤技術(shù)完成行人定位與計(jì)數(shù),然后估計(jì)每個(gè)行人到成像平面的距離,再由此計(jì)算行人之間的距離;Aghaei等[9]提出利用人體姿態(tài)估計(jì)算法檢測(cè)未校準(zhǔn)圖像中行人之間安全距離的違反情況,具體方法為通過兩個(gè)預(yù)定義的比例參數(shù)估計(jì)地面到圖像平面的單應(yīng)性矩陣,然后使用人體關(guān)節(jié)點(diǎn)長(zhǎng)度先驗(yàn)信息及其對(duì)應(yīng)的圖像關(guān)節(jié)點(diǎn)像素長(zhǎng)度得到尺度信息,最后估計(jì)得到圖像中行人橢圓形安全區(qū)域,通過判斷其是否重疊來檢測(cè)行人違反安全社交距離的情況。

        綜上可知,如果已知監(jiān)控?cái)z像頭的內(nèi)外參數(shù),可以準(zhǔn)確將像素距離轉(zhuǎn)換為現(xiàn)實(shí)場(chǎng)景的物理距離。然而對(duì)于大多數(shù)已安裝在公開場(chǎng)所的攝像頭來說,即使通過攝像頭廠商得到相機(jī)內(nèi)參,但外參由攝像頭姿態(tài)決定,無法直接獲取。為使算法不局限于攝像頭內(nèi)外參數(shù)必須已知的條件,對(duì)于未知攝像頭校準(zhǔn)信息的單張圖像,本文引入Aghaei等[9]提出的通過識(shí)別圖像中行人局部近鄰安全區(qū)域是否重疊以檢測(cè)行人安全社交距離違反情況的方法。然而,Aghaei 等[9]采用姿態(tài)關(guān)鍵點(diǎn)檢測(cè)估計(jì)尺度信息,由于行人一直在移動(dòng),各個(gè)關(guān)節(jié)部位在幀間產(chǎn)生的變化幅度較大,加之姿態(tài)關(guān)鍵點(diǎn)算法的估計(jì)誤差,即使利用近似剛體的軀干高度估計(jì)尺度信息,也會(huì)引起較大誤差,使得前后幀的行人安全區(qū)域估計(jì)不符合實(shí)際情況。為了彌補(bǔ)該誤差,本文直接使用行人檢測(cè)框的高度作為計(jì)算尺度的基礎(chǔ),同時(shí)訓(xùn)練了一個(gè)魯棒性較好的行人檢測(cè)器生成行人檢測(cè)框,其不受人體關(guān)節(jié)局部運(yùn)動(dòng)的影響,能提供幀間穩(wěn)定的行人檢測(cè)框高度,提高了尺度估計(jì)的穩(wěn)定性。

        2 YOLOv5s 行人檢測(cè)網(wǎng)絡(luò)

        一個(gè)魯棒性好的行人檢測(cè)模型需要克服行人形態(tài)變化、行人尺度變化、場(chǎng)景變化等困難。深度學(xué)習(xí)技術(shù)中的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)能較好地提取高層語(yǔ)義特征與多尺度特征。基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法一類是以R-CNN[10]為代表的兩階段算法,另一類是以YOLO[11]為代表的基于回歸的單階段算法。理論上,兩階段算法比單階段算法精度高而速度慢。以Faster-RCNN[12]為代表的兩階段目標(biāo)檢測(cè)算法模型由卷積層、區(qū)域候選網(wǎng)絡(luò)、感興趣區(qū)域池化層和預(yù)測(cè)層組成,需要先提取特征產(chǎn)生候選框,再對(duì)候選區(qū)域進(jìn)行分類和候選框調(diào)整,因此推理時(shí)間較長(zhǎng)。而以YOLO 系列為代表的單階段目標(biāo)檢測(cè)算法模型僅由卷積層和預(yù)測(cè)層組成,一次性完成目標(biāo)定位與分類。目前新提出的YOLOv5[13]目標(biāo)檢測(cè)算法達(dá)到了速度和精度的先進(jìn)水平。

        YOLOv5 包 括YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x,它們的網(wǎng)絡(luò)深度和寬度依次增大,可適用于不同速度和精度要求的場(chǎng)合,其中YOLOv5s 體積最小,權(quán)重僅14.4MB。本文在行人檢測(cè)模塊中利用推理速度最快的輕量型YOLOv5s 網(wǎng)絡(luò),其具有與其他領(lǐng)先方法(例如SSD[14]或Faster-RCNN[12])相當(dāng)?shù)男阅?。YOLOv5s的原始工作是基于MSCOCO 數(shù)據(jù)集訓(xùn)練80 類目標(biāo)檢測(cè)器[15],最簡(jiǎn)單的方法是使用多類別檢測(cè)器,只提取檢測(cè)出的行人目標(biāo)而忽略其他類別,這意味著如果圖片中還有其他類別的物體,檢測(cè)器也會(huì)檢測(cè)到它們。為了提高檢測(cè)器的有效性,本文利用MSCOCO 數(shù)據(jù)集中只包含行人的數(shù)據(jù)訓(xùn)練一個(gè)只檢測(cè)行人的單類別目標(biāo)檢測(cè)器。

        YOLOv5s 模型結(jié)構(gòu)如圖1 所 示,分別由Input、Backbone、Neck 和Prediction 組成。Input:輸入圖像大小為640×640×3,數(shù)據(jù)增強(qiáng)方法包括Mosaic、隨機(jī)翻轉(zhuǎn),使用自適應(yīng)錨框計(jì)算。Backbone:包 含F(xiàn)ocus、CSPNet[16](Cross Stage Partial Networks)和SPP(Space Pyramid Pooling)結(jié)構(gòu),其中Focus 結(jié)構(gòu)包含4 次切片操作和1 次32 個(gè)卷積核的卷積操作,可最大程度地減少信息損失,從而進(jìn)行下采樣操作;CSPNet 利用跳層連接的思想,進(jìn)行局部跨層融合獲得更為豐富的特征圖;SPP 模塊先采用不同大小的核進(jìn)行最大池化操作,再通過拼接融合多尺度的池化特征。Neck:包含PANet[17](Path Aggregation)結(jié)構(gòu),其是對(duì)FPN[18](Feature Pyramid Network)的改進(jìn),首先自頂向下將高層特征信息與不同層CSP 模塊的輸出特征進(jìn)行聚合,再通過自底向上路徑聚合結(jié)構(gòu)淺層特征,從而充分融合不同層的圖像特征。Prediction:使用3 個(gè)尺度的特征圖分別預(yù)測(cè)與之對(duì)應(yīng)的預(yù)定義錨框的偏移量,每個(gè)特征點(diǎn)最多預(yù)測(cè)3 個(gè)行人,因此最后預(yù)測(cè)的總通道數(shù)為(1class+1object+4coordinates)*3anchors=18。采用CIOU[19](Complete-IoU)代替Smooth L1 范數(shù)作為損失函數(shù),即使預(yù)測(cè)框與真實(shí)框交并比為零時(shí),仍然可以反向傳播優(yōu)化網(wǎng)絡(luò)權(quán)值。分類損失直接使用BCE(Binary Cross Entropy)損失,后處理采用NMS(Non-maximum Suppression)對(duì)行人目標(biāo)檢測(cè)框進(jìn)行篩選,只保留最接近真實(shí)矩形框的檢測(cè)結(jié)果。

        Fig.1 YOLOv5s model structure圖1 YOLOv5s 模型結(jié)構(gòu)

        3 單應(yīng)性與尺度估計(jì)

        相機(jī)的成像過程可以簡(jiǎn)化為小孔成像模型,式(1)為投影過程的數(shù)學(xué)模型,其中s 為比例系數(shù);[u v 1]T為圖像坐標(biāo)的齊次坐標(biāo);K 為相機(jī)固有參數(shù),稱為相機(jī)內(nèi)參矩陣;R、T 分別為世界坐標(biāo)系相對(duì)于相機(jī)坐標(biāo)系的旋轉(zhuǎn)矩陣和位移向量;[X Y Z 1]T為真實(shí)世界中三維坐標(biāo)的齊次坐標(biāo)。在投影過程中,空間中的任意三維點(diǎn)先經(jīng)過R、T 從世界坐標(biāo)系轉(zhuǎn)換到相機(jī)坐標(biāo)系,再通過相機(jī)內(nèi)參矩陣K 投影到圖像平面上。

        假設(shè)地面是三維世界坐標(biāo)系中的一個(gè)平面,世界坐標(biāo)系的原點(diǎn)建立其上,則將地面上的三維點(diǎn)投影到圖像平面上時(shí),它們的坐標(biāo)Z 總是為0。因此,上述投影方程可以簡(jiǎn)化,利用Z 坐標(biāo)始終為0的條件消去相機(jī)旋轉(zhuǎn)矩陣的第三列,表示為:

        通過式(2)可將三維空間中地面上的任一點(diǎn)P=[X Y 1]T投影到圖像平面點(diǎn)p=[u v 1]T,并用H 表示該映射矩陣,則H 稱為從地面到圖像平面的單應(yīng)性矩陣。

        由于K、R、T 內(nèi)外參數(shù)未知,本文通過攝像頭安裝的通用場(chǎng)景進(jìn)行合理假設(shè)來估計(jì)H 矩陣。首先假設(shè)世界坐標(biāo)系到相機(jī)坐標(biāo)系的翻滾角為0°(繞Y 軸的旋轉(zhuǎn)角為0°),因?yàn)橥ㄟ^觀察可以發(fā)現(xiàn)圖像中的行人身體都是豎直的;然后假設(shè)攝像機(jī)的偏移角為0°(繞Z 軸的旋轉(zhuǎn)角為0°)。如圖2 所示,定義攝像機(jī)主軸在地平面上的交點(diǎn)處為世界坐標(biāo)系原點(diǎn),攝像機(jī)安裝高度為h,相機(jī)俯仰角為θ(繞X 軸的旋轉(zhuǎn)角90° +θ),則可得到:

        基于以上假設(shè),地面上平行于X 軸的直線投影到圖像平面上仍保持平行,而平行于Y 軸的直線在圖像平面上則交匯于滅點(diǎn)。因此,地面上寬高為W、H的矩形投影到圖像平面后會(huì)變成寬高為W′、H′的等腰梯形。如式(5)所示,定義水平邊的投影比例為ρv,豎直邊的投影比例為ρh,這兩個(gè)參數(shù)只與相機(jī)俯仰角θ和相機(jī)安裝高度h相關(guān)。

        Fig.2 Camera imaging model圖2 相機(jī)成像模型

        給定ρh,ρv∈[0,1],可以找到地平面矩形與圖像平面等腰梯形之間相對(duì)應(yīng)的4 個(gè)角點(diǎn),從而估計(jì)出單應(yīng)矩陣H。這里H 并不反映像素與真實(shí)長(zhǎng)度之間的度量映射,因?yàn)镵是未知的。這里估計(jì)的H 可以將每個(gè)人周圍的圓形安全區(qū)域經(jīng)過透視變換投影在圖像平面上,形成一個(gè)近似的橢圓。為了計(jì)算地面投影到圖像平面上的尺度信息,本文選取人類平均身高。研究表明,人類平均身高為1.7m[20],在不同種族之間只有很小差異。直接利用垂直于地面的人體平均身高和圖像行人檢測(cè)框像素高度計(jì)算地平面到圖像平面的比例是不合理的,但是對(duì)于大多數(shù)監(jiān)控?cái)z像頭安裝場(chǎng)景來講,安裝高度大于行人高度很多,而且朝地面的傾角θ是接近45°的銳角,所以仍然可以利用人體身高近似地估計(jì)地面上行人局部區(qū)域投影到圖像平面的尺度。設(shè)定行人安全距離為2m,則行人周圍的圓形安全區(qū)域半徑為1m。首先利用行人檢測(cè)器得到圖像中的行人檢測(cè)框,通過檢測(cè)框像素高度與人類平均身高的比例計(jì)算出行人對(duì)應(yīng)地面圓形安全區(qū)域半徑為1m的圖像平面像素半徑;然后根據(jù)估計(jì)出的H 將圓形投影為橢圓,以行人檢測(cè)框的底邊中點(diǎn)像素坐標(biāo)為中心,在圖像上繪制橢圓形行人安全區(qū)域(見圖3);最后通過判斷圖像中所有行人橢圓形安全區(qū)域是否重疊檢測(cè)其安全社交距離的違反情況。

        4 實(shí)驗(yàn)方法與結(jié)果分析

        實(shí)驗(yàn)運(yùn)行環(huán)境:操作系統(tǒng)為Ubuntu18.04,開發(fā)語(yǔ)言為Python,深度學(xué)習(xí)框架為PyTorch,CPU 為Intel Xeon w-2123,GPU 為GeForce GTX 1080Ti,內(nèi)存為16G。

        Fig.3 Pedestrian safety social distance violation detection results圖3 行人安全社交距離違反檢測(cè)結(jié)果示意圖

        Yolov5s 行人檢測(cè)模型訓(xùn)練數(shù)據(jù)使用MSCOCO 中只包含行人的數(shù)據(jù),其中訓(xùn)練數(shù)據(jù)圖像共58 783 張,驗(yàn)證數(shù)據(jù)圖像2 693 張。使用在MSCOCO 數(shù)據(jù)集上多目標(biāo)檢測(cè)訓(xùn)練過的模型對(duì)網(wǎng)絡(luò)進(jìn)行初始化,優(yōu)化算法使用隨機(jī)梯度下降算法。主要訓(xùn)練參數(shù):Batch 大小為32,最大迭代次數(shù)為100,初始學(xué)習(xí)率設(shè)置為0.01,并采用OneCycleLR[21]策略周期性調(diào)整學(xué)習(xí)率。

        分別使用YOLOv5s-Mul-Cls 和YOLOv5s-Person 模型在MSCOCO 驗(yàn)證數(shù)據(jù)集上對(duì)行人檢測(cè)效果進(jìn)行評(píng)估。其中YOLOv5s-Mul-Cls 是對(duì)MSCOCO 數(shù)據(jù)集進(jìn)行訓(xùn)練的80類原始多目標(biāo)檢測(cè)器,YOLOv5s-Person 是只利用MSCOCO數(shù)據(jù)集中行人數(shù)據(jù)訓(xùn)練的單目標(biāo)檢測(cè)器。準(zhǔn)確率、召回率和AP 值的計(jì)算是在交并比IoU=0.5的條件下得到的,mAP0.5∶0.9 是指IoU 從0.50~0.95 間隔0.05 取值對(duì)應(yīng)AP的平均值。從表1 中可以看出,本文訓(xùn)練的單目標(biāo)行人檢測(cè)器具有更高的召回率和準(zhǔn)確率,對(duì)場(chǎng)景中的行人檢測(cè)數(shù)量更多,識(shí)別更準(zhǔn)確。

        Tabel 1 Pedestrian detector evaluation results in MSCOCO verification set表1 行人檢測(cè)器在MSCOCO 只含行人數(shù)據(jù)驗(yàn)證集上的評(píng)價(jià)結(jié)果(%)

        在OTC 數(shù)據(jù)集上[22]進(jìn)行行人安全社交距離違反檢測(cè)的驗(yàn)證與行人檢測(cè)性能的評(píng)價(jià)。OTC 數(shù)據(jù)集是一段包含7 498 幀的視頻,每幀平均包含16 個(gè)行人,其中行人是否違反安全社交距離的真實(shí)標(biāo)簽是利用數(shù)據(jù)集提供的相機(jī)內(nèi)外參數(shù)計(jì)算得到的。行人檢測(cè)評(píng)價(jià)指標(biāo)使用IoU=0.5 時(shí)檢測(cè)的準(zhǔn)確率、召回率和AP,其中姿態(tài)關(guān)鍵點(diǎn)檢測(cè)算法預(yù)測(cè)的行人檢測(cè)框是由姿態(tài)關(guān)鍵點(diǎn)的豎直外接矩形計(jì)算得到。行人安全社交距離檢測(cè)評(píng)價(jià)指標(biāo)采用二分類的準(zhǔn)確率(Precision)、召回率(Recall)和F1 值,表示為:

        式中,TP表示算法檢測(cè)出違反安全社交距離的行人數(shù)量,F(xiàn)P表示未違反安全社交距離但是被檢測(cè)為違反安全社交距離的行人數(shù)量,F(xiàn)N表示違反了安全社交距離行人的漏檢數(shù)量。為與改進(jìn)前Aghaei 等[9]提出的基于姿態(tài)關(guān)鍵點(diǎn)估計(jì)的方法進(jìn)行比較,設(shè)置ρv=0.5,ρh=0.8,保持與改進(jìn)前算法設(shè)置相同。具體評(píng)價(jià)結(jié)果如表2 所示,其中Open-Pose_BBX_VSD[9]是指利用OpenPose 算法[23]檢測(cè)的關(guān)鍵點(diǎn)豎直外接矩形高度估計(jì)尺度信息的檢測(cè)方法;Open-Pose_Torso_VSD[9]是指利用OpenPose 算法得到軀干關(guān)節(jié)點(diǎn)間的長(zhǎng)度以估計(jì)尺度信息的檢測(cè)方法;YOLOv5s_VSD 是本文利用YOLOv5s 行人檢測(cè)算法得到行人檢測(cè)框的高度進(jìn)而估計(jì)尺度信息的檢測(cè)方法。

        Tabel 2 Evaluation results of pedestrian detection and safe social distance violation detection on OTC表2 OTC 數(shù)據(jù)集上行人檢測(cè)及安全社交距離違反檢測(cè)評(píng)價(jià)結(jié)果單位:%

        從表2 可以看出,本文訓(xùn)練的YOLOv5s 行人檢測(cè)模型性能具有很大提升,與OpenPose 算法相比,其行人檢測(cè)準(zhǔn)確率和召回率分別提升45.8%和49.7%。從圖4 可視化對(duì)比結(jié)果來看,由于OpenPose 姿態(tài)關(guān)鍵點(diǎn)檢測(cè)不能很好地克服行人遮擋、尺度變化、姿態(tài)變化等問題,無法作出穩(wěn)定檢測(cè)。如圖4(a)所示,OpenPose 沒有檢測(cè)出小尺度的半身行人,對(duì)于騎行姿態(tài)的行人關(guān)鍵點(diǎn)檢測(cè)存在誤差,導(dǎo)致得到的矩形框與真實(shí)標(biāo)簽的IoU 小于0.5,無法判斷為正樣本。相比圖4(b)用YOLOv5s 對(duì)同一圖像區(qū)域的檢測(cè)結(jié)果來看,YOLOv5s 能更好地解決上述問題,對(duì)小尺度半身行人、騎行姿態(tài)的行人均作出了正確檢測(cè)。

        關(guān)于行人安全社交距離違反檢測(cè)結(jié)果,YOLOv5s_VSD的準(zhǔn)確率、召回率和F1 值分別比OpenPose_Torso_VSD 提升了16.01%、6.82%、12.75%,說明利用本文訓(xùn)練的YOLOv5s 模型得到的行人檢測(cè)框高度比軀干高度計(jì)算尺度信息更具有魯棒性,降低了由于人體關(guān)節(jié)局部運(yùn)動(dòng)產(chǎn)生的尺度估計(jì)誤差。此外,YOLOv5s_VSD 和OpenPose_BBX_VSD均利用檢測(cè)框高度估計(jì)尺度信息,但從對(duì)比結(jié)果來看,YOLOv5s_VSD 性能具有更大提升,原因是OpenPose 算法專注于整張圖中人體姿態(tài)關(guān)鍵點(diǎn)的回歸檢測(cè)[23],在對(duì)每個(gè)行人的關(guān)鍵點(diǎn)進(jìn)行預(yù)測(cè)時(shí)可能會(huì)錯(cuò)誤連接其他近鄰行人關(guān)鍵點(diǎn),或漏檢頭部、腳部等關(guān)鍵點(diǎn)(如圖4(c)所示),導(dǎo)致由此計(jì)算的行人檢測(cè)框高度及安全區(qū)域中心點(diǎn)可能存在誤差。相比之下,使用YOLOv5s 模型直接對(duì)行人整體語(yǔ)義特征進(jìn)行矩形框檢測(cè)(如圖4(d)所示),能夠預(yù)測(cè)出更穩(wěn)定的接近真實(shí)標(biāo)簽的行人檢測(cè)框,有利于圖像上行人安全區(qū)域的估計(jì)。

        Fig.4 Detection results comparison of OpenPose(a,c)and YOLOv5s(b,d)on OTC圖4 OpenPose(a,c)和YOLOv5s(b,d)在OTC 數(shù)據(jù)集上的檢測(cè)結(jié)果比較

        5 結(jié)語(yǔ)

        本文結(jié)合行人檢測(cè)與單應(yīng)性變換估計(jì)對(duì)監(jiān)控場(chǎng)景作出一般性假設(shè),提出一種用于未校準(zhǔn)攝像頭下行人安全社交距離違反檢測(cè)的方法。行人社交距離檢測(cè)任務(wù)的前提是行人檢測(cè)漏檢率要低、準(zhǔn)確率要高,且要保證在現(xiàn)代GPU 算力下具有良好的實(shí)時(shí)性。為此,本文提供了一個(gè)基于YOLOv5s的輕量型行人檢測(cè)模型,可對(duì)監(jiān)控視頻實(shí)現(xiàn)實(shí)時(shí)高效的行人檢測(cè),從而為行人社交安全區(qū)域的估計(jì)提供穩(wěn)定、準(zhǔn)確的行人位置和檢測(cè)框高度信息。本文并沒有對(duì)行人社交距離進(jìn)行直接計(jì)算,而是將任務(wù)簡(jiǎn)化為圖像中行人局部安全區(qū)域的重疊判斷,比直接估計(jì)全局單應(yīng)性矩陣與尺度信息,再通過計(jì)算行人之間的距離判斷是否違反安全社交距離的方法更具有準(zhǔn)確性。此外,本文還通過對(duì)監(jiān)控場(chǎng)景中攝像機(jī)的安裝情況作出合理假設(shè),簡(jiǎn)化了從場(chǎng)景地面到圖像平面單應(yīng)性矩陣估計(jì)的任務(wù),保證了一般監(jiān)控場(chǎng)景下行人安全社交距離違反檢測(cè)的良好性能。然而,本文提出的方法仍然受遮擋問題影響而導(dǎo)致圖像中行人安全區(qū)域估計(jì)不夠準(zhǔn)確,后續(xù)將結(jié)合監(jiān)控視頻的幀間信息對(duì)行人遮擋問題進(jìn)行改進(jìn),從而優(yōu)化尺度估計(jì),使其適用于更多場(chǎng)景。

        猜你喜歡
        行人尺度平面
        毒舌出沒,行人避讓
        意林(2021年5期)2021-04-18 12:21:17
        財(cái)產(chǎn)的五大尺度和五重應(yīng)對(duì)
        路不為尋找者而設(shè)
        我是行人
        參考答案
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        關(guān)于有限域上的平面映射
        9
        參考答案
        行人流綜述
        精品人妻av区二区三区| 亚洲av无码乱码国产精品| 熟妇人妻无乱码中文字幕| 亚洲午夜精品a区| 精品国产一区二区三区男人吃奶| 日本二区三区视频在线观看| 久久精品国产9久久综合| 中国女人内谢69xxxxxa片| 日日噜噜噜夜夜爽爽狠狠视频| 在线观看视频亚洲| 亚洲女同恋中文一区二区| 亚洲中文字幕舔尻av网站| 中国丰满熟妇xxxx性| 中文字幕人妻丝袜美腿乱| 免费的一级毛片| 色综合色综合久久综合频道| 老熟妇嗷嗷叫91九色| 国产精品久免费的黄网站 | 日本一区午夜艳熟免费| 久久综合亚洲色社区| 人妻无码AⅤ中文系列久久免费| 亚洲av色在线播放一区| 中国杭州少妇xxxx做受| 1000部夫妻午夜免费| 欧美日韩高清一本大道免费| 男女视频一区二区三区在线观看| 久久精品女人天堂av免费观看| 精品无码中文字幕在线| 91成人午夜性a一级毛片| 国内自拍视频在线观看h| 国产自拍av在线观看视频| 国产一区内射最近更新| 国产激情视频白浆免费| 蜜桃视频一区二区三区在线| 国产午夜精品视频观看| 精品成在人线av无码免费看| 在教室伦流澡到高潮hgl视频| 日韩毛片久久91| 日本一区二区偷拍视频| 中国久久久一级特黄久久久| 婷婷色婷婷开心五月四房播播|