亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的人群密度分析防踩踏系統(tǒng)

        2024-09-24 00:00:00夏軍王鑫一鄢嫣姚平
        物聯(lián)網(wǎng)技術(shù) 2024年5期
        關(guān)鍵詞:機(jī)器視覺(jué)

        摘 要:隨著城市化進(jìn)程的加快,節(jié)日聚會(huì)等大型活動(dòng)越來(lái)越多,在這種人群密集的環(huán)境中,人民群眾的生命安全受到很大的威脅。鑒于此問(wèn)題,提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的人群密度分析防踩踏方法,利用已有的人群計(jì)數(shù)手段CAN人群計(jì)數(shù)模型和ShanghaiTech數(shù)據(jù)集,輔以計(jì)算圖片中場(chǎng)景的實(shí)際面積,實(shí)現(xiàn)了圖片中人群密度的識(shí)別,并按照3種不同的密集程度劃分預(yù)警狀態(tài),給出相應(yīng)的防范措施,以達(dá)到防踩踏的目的。實(shí)驗(yàn)結(jié)果表明,本系統(tǒng)對(duì)于防止人群密集程度過(guò)大導(dǎo)致的踩踏事故具有較大的可行性和較高的可靠性。

        關(guān)鍵詞:防踩踏;人群計(jì)數(shù);人群密度:卷積神經(jīng)網(wǎng)絡(luò);照相機(jī);機(jī)器視覺(jué)

        中圖分類(lèi)號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1302(2024)05-0-05

        0 引 言

        隨著經(jīng)濟(jì)和科技的發(fā)展,現(xiàn)代交通越來(lái)越方便,城市化進(jìn)程越來(lái)越迅速,城市間的人口流動(dòng)不斷增加,演唱會(huì)、節(jié)日聚會(huì)等大型活動(dòng)也越來(lái)越多,在這種人群密集的環(huán)境中,人民群眾的生命安全會(huì)受到很大的威脅。2022年10月29日韓國(guó)首爾龍山區(qū)梨泰院發(fā)生大規(guī)模踩踏事故,造成156人死亡,150余人受傷[1]。主要原因就是對(duì)大規(guī)模人群聚集活動(dòng)的安全管理的忽視,并且當(dāng)?shù)鼐綄?duì)于游客的報(bào)警信號(hào),并沒(méi)有做出及時(shí)的反應(yīng),最終導(dǎo)致了悲劇的發(fā)生。為保證人民群眾的生命安全,對(duì)人流進(jìn)行防踩踏識(shí)別是十分必要的。發(fā)生踩踏最主要的原因就是人群過(guò)于密集,所以對(duì)于不同的人群密集程度,劃分預(yù)警狀態(tài),并給出相應(yīng)的防踩踏措施是十分必要的。因此,通過(guò)計(jì)算出圖片的人數(shù)和圖片中場(chǎng)景的實(shí)際面積,得到人群密度;再根據(jù)圖片的人群密度,做好及時(shí)有效的應(yīng)對(duì)措施,對(duì)于防止踩踏,保證人民群眾的生命安全有十分重要的意義。本文利用已有的人群計(jì)數(shù)手段和人群計(jì)數(shù)數(shù)據(jù)集,輔以計(jì)算圖片中場(chǎng)景的實(shí)際面積,實(shí)現(xiàn)了圖片中人群密度的識(shí)別,并按照3種不同的密集程度劃分預(yù)警狀態(tài),給出相應(yīng)的防踩踏措施,以達(dá)到防踩踏的目的。

        1 人群計(jì)數(shù)發(fā)展

        人群計(jì)數(shù),又叫人群密度估計(jì),是一種通過(guò)計(jì)算機(jī)計(jì)算或估計(jì)圖像中人數(shù)的技術(shù)。在傳統(tǒng)的人群計(jì)數(shù)方法中,研究人員主要采用基于檢測(cè)、回歸的傳統(tǒng)方法估計(jì)人群數(shù)量。

        基于整體檢測(cè)的方法采用哈爾小波、方向梯度直方圖(Histogram of Oriented Gradient, HOG)、Shapelet訓(xùn)練器,以及支持向量機(jī)(Support Vector Machine, SVM)、提升、隨機(jī)森林、集群等算法來(lái)完成人群計(jì)數(shù)任務(wù)中的檢測(cè)或分類(lèi)[2]。

        基于回歸的方法是通過(guò)特征提取和回歸建模展開(kāi),特征提取主要針對(duì)前景特征、邊緣特征、紋理和梯度特征等,將特征提取出來(lái)后,利用不同的回歸算法來(lái)計(jì)數(shù),例如線(xiàn)性回歸、分段線(xiàn)性回歸、嶺回歸和高斯過(guò)程回歸等方法。

        上述兩種方法在人群稀疏的場(chǎng)景下有著較好的效果,但是在密集的場(chǎng)景下效果就不盡如人意了。

        隨著深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)的識(shí)別、分割、檢測(cè)方法上的發(fā)展,人群計(jì)數(shù)經(jīng)歷了從傳統(tǒng)的基于檢測(cè)和基于回歸向現(xiàn)在的基于密度圖預(yù)測(cè)的跨越式發(fā)展。密度圖預(yù)測(cè),就是將輸入的人群圖像映射到其對(duì)應(yīng)的密度圖[3-4],如圖1所示,該密度圖指示圖像中每個(gè)像素對(duì)應(yīng)的人數(shù)。

        卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)在人群計(jì)數(shù)方面有極其強(qiáng)大的優(yōu)勢(shì),例如:(1)自動(dòng)化計(jì)數(shù);(2)對(duì)圖像中復(fù)雜的場(chǎng)景和多樣的人群分布具有較強(qiáng)的適應(yīng)性;(3)對(duì)實(shí)時(shí)圖像進(jìn)行快速計(jì)數(shù);(4)利用遷移學(xué)習(xí)進(jìn)行模型訓(xùn)練;(5)可以對(duì)不同分辨率的圖像進(jìn)行計(jì)數(shù)。

        卷積神經(jīng)網(wǎng)絡(luò)優(yōu)異的特征學(xué)習(xí)能力和深度學(xué)習(xí)的網(wǎng)絡(luò)結(jié)構(gòu),已成為研究熱門(mén),并被廣泛應(yīng)用于人群計(jì)數(shù)、交通監(jiān)測(cè)、城市管理等領(lǐng)域。

        2 設(shè)計(jì)思路

        本系統(tǒng)先對(duì)圖片進(jìn)行人群計(jì)數(shù),為了得到更準(zhǔn)確的人群計(jì)數(shù)結(jié)果,對(duì)識(shí)別模型進(jìn)行選擇時(shí),選擇識(shí)別準(zhǔn)確率更高的模型來(lái)對(duì)圖片進(jìn)行人群計(jì)數(shù);然后計(jì)算圖片中人數(shù)和圖片中場(chǎng)景的實(shí)際面積,得到圖片的人群密度;最后通過(guò)人群密度來(lái)劃分預(yù)警狀態(tài),并采取相應(yīng)的防踩踏措施,從而達(dá)到預(yù)防人群踩踏事故發(fā)生的目的。設(shè)計(jì)思路如圖2所示。

        3 人群計(jì)數(shù)模型選擇

        為了得到更加精確的人群密度,對(duì)比了2種目前準(zhǔn)確率較高的人群計(jì)數(shù)模型。

        3.1 多列卷積神經(jīng)網(wǎng)絡(luò)(MCNN)

        多列卷積神經(jīng)網(wǎng)絡(luò)(Multi-Column CNN, MCNN)是Zhang等人[5]為了解決多尺度問(wèn)題所提出的一種人群計(jì)數(shù)模型。其網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,MCNN包含多個(gè)CNN網(wǎng)絡(luò),每個(gè)網(wǎng)絡(luò)都有不同的感受野(即卷積核的大小和步長(zhǎng)),這些網(wǎng)絡(luò)可以處理不同大小的人群,從而提高了計(jì)數(shù)的準(zhǔn)確性。同時(shí),為了解決密集人群計(jì)數(shù)時(shí)的重疊問(wèn)題,MCNN還引入了最大池化操作和重疊區(qū)域加權(quán)的技術(shù)。最后將多列子網(wǎng)絡(luò)輸出的人員密度圖做線(xiàn)性加權(quán)得到該圖像的人群密度圖。

        MCNN中采用了多個(gè)CNN網(wǎng)絡(luò)進(jìn)行前向傳播,每個(gè)CNN網(wǎng)絡(luò)使用不同的卷積核大小和步長(zhǎng),從而可以提取不同感受野下的特征。例如,較小的感受野可以用于計(jì)算局部特征,較大的感受野可以用于計(jì)算全局特征。這些CNN網(wǎng)絡(luò)可以使用相同或不同的結(jié)構(gòu)和參數(shù),也可以通過(guò)遷移學(xué)習(xí)預(yù)先訓(xùn)練好的權(quán)重進(jìn)行初始化。同時(shí)在MCNN中,不同感受野下的特征圖需要進(jìn)行融合,以得到一個(gè)全局的特征圖,從而提高計(jì)數(shù)的準(zhǔn)確性。MCNN使用了兩種不同的特征融合方法:并聯(lián)(Parallel)和級(jí)聯(lián)(Cascade)。并聯(lián)方法將每個(gè)CNN網(wǎng)絡(luò)提取的特征圖連接起來(lái),形成一個(gè)較大的特征圖。這種方法的優(yōu)點(diǎn)是簡(jiǎn)單、計(jì)算速度較快,但由于特征圖的尺寸較大,計(jì)算量也會(huì)相應(yīng)增加。級(jí)聯(lián)方法將不同CNN網(wǎng)絡(luò)的特征圖依次融合,最終形成一個(gè)較小的全局特征圖。這種方法可以減少計(jì)算量,但需要進(jìn)行多次特征融合操作,同時(shí)對(duì)不同感受野下的特征進(jìn)行加權(quán)融合,以保證對(duì)不同尺度人群的計(jì)數(shù)準(zhǔn)確性。最終,MCNN使用回歸模型對(duì)全局特征圖進(jìn)行處理,得到人群數(shù)量的預(yù)測(cè)結(jié)果。在MCNN中,回歸模型可以是一個(gè)全連接層,也可以是一個(gè)更復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,例如LeNet、VGG等。

        總體來(lái)說(shuō),MCNN使用多個(gè)CNN網(wǎng)絡(luò)和特征融合方法,可以提高人群計(jì)數(shù)的準(zhǔn)確性,并且能夠適應(yīng)不同尺度的人群計(jì)數(shù)。同時(shí),MCNN還可以通過(guò)遷移學(xué)習(xí)進(jìn)行訓(xùn)練,從而減少對(duì)大量標(biāo)注數(shù)據(jù)的依賴(lài),提高了模型的泛化能力。

        3.2 上下文感知人群計(jì)數(shù) (CAN)

        上下文感知人群計(jì)數(shù)(Context-Aware Crowd Counting,CAN)是一種基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的人群計(jì)數(shù)方法[6]。CAN的主要思想是通過(guò)捕捉圖像中的上下文信息來(lái)提高人群計(jì)數(shù)的準(zhǔn)確性,結(jié)構(gòu)如圖4所示。

        CAN首先對(duì)輸入的圖像進(jìn)行前向傳播,通過(guò)CNN網(wǎng)絡(luò)提取出特征圖。為了提高特征圖的表征能力和計(jì)算效率,CAN使用了VGG網(wǎng)絡(luò)的特征提取器,該特征提取器包括13個(gè)卷積層和5個(gè)最大池化層。通過(guò)這些卷積和池化操作,VGG網(wǎng)絡(luò)能夠有效地提取出圖像的低級(jí)特征和高級(jí)特征?;谔崛〕龅奶卣鲌D,CAN構(gòu)建了一個(gè)上下文感知模塊,用于捕捉圖像中的上下文信息。該模塊包括全局上下文模塊和局部上下文模塊。全局上下文模塊使用一個(gè)全局池化層,將整個(gè)特征圖進(jìn)行池化操作,得到一個(gè)全局的特征向量。該特征向量表示了整個(gè)圖像中的上下文信息,包括圖像的大小、形狀等。局部上下文模塊使用一個(gè)卷積層和一個(gè)最大池化層,對(duì)特征圖進(jìn)行卷積和池化操作,得到一個(gè)局部的特征圖。該特征圖表示了圖像中的局部上下文信息,包括人群的分布、密度等。

        最終,CAN將全局特征向量和局部特征圖進(jìn)行連接,得到一個(gè)上下文感知的特征向量。通過(guò)一個(gè)全連接層,將該特征向量映射到人群數(shù)量的預(yù)測(cè)結(jié)果。具體地,CAN將全局特征向量和局部特征圖分別經(jīng)過(guò)兩個(gè)全連接層進(jìn)行降維,得到兩個(gè)低維特征向量,再將這兩個(gè)向量進(jìn)行連接,形成一個(gè)上下文感知的特征向量。通過(guò)一個(gè)全連接層,將該特征向量映射到人群數(shù)量的預(yù)測(cè)結(jié)果。該特征向量中包含了圖像的全局上下文信息和局部上下文信息,可以更準(zhǔn)確地反映出人群的數(shù)量。

        3.3 評(píng)價(jià)指標(biāo)

        平均絕對(duì)誤差(Mean Absolute Error, MAE)表征算法估計(jì)的準(zhǔn)確性,其定義為:

        (1)

        均方誤差的平方根(Root Mean Squared Error, RMSE)表征算法估計(jì)的穩(wěn)定性,其定義為:

        (2)

        式中:N表示測(cè)試圖片的個(gè)數(shù);zi表示第i張圖片的真實(shí)人數(shù);代表第i張圖片的預(yù)測(cè)人數(shù)。

        3.4 運(yùn)行結(jié)果及分析

        采用MCNN和CAN兩種網(wǎng)絡(luò)模型對(duì)ShanghaiTech數(shù)據(jù)集進(jìn)行識(shí)別。

        ShanghaiTech數(shù)據(jù)集[5]包含A和B兩個(gè)數(shù)據(jù)集,一共1 198張圖片樣本,330 165個(gè)人頭標(biāo)記。A數(shù)據(jù)集為密集人群數(shù)據(jù)集,包含482張圖片樣本,其中300張用于訓(xùn)練,182張用于測(cè)試。B數(shù)據(jù)集為稀疏人群數(shù)據(jù)集,共包含716張圖片樣本,其中400張用于訓(xùn)練,316張用于測(cè)試。

        本方法選用ShanghaiTech數(shù)據(jù)集進(jìn)行識(shí)別驗(yàn)證,數(shù)據(jù)結(jié)果見(jiàn)表1所列。

        在Part_A中從MAE指標(biāo)上來(lái)看,CAN模型比MCNN低48.2;從RMSE指標(biāo)上來(lái)看,CAN 模型比 MCNN 低 79.7。在Part_B中從MAE指標(biāo)上來(lái)看,CAN 模型比 MCNN 低17.8;從RMSE指標(biāo)上來(lái)看,CAN模型比MCNN低30.7??梢?jiàn)基于CAN的模型在ShanghaiTech數(shù)據(jù)集中識(shí)別準(zhǔn)確率更高,結(jié)果更穩(wěn)定,能夠滿(mǎn)足本研究的需求。因此,利用該訓(xùn)練集得到的CAN模型可以用于本研究中人群防踩踏的識(shí)別過(guò)程中。

        4 圖片中場(chǎng)景實(shí)際面積計(jì)算

        當(dāng)知道一張圖片中一個(gè)物體的實(shí)際面積時(shí),可以通過(guò)比例來(lái)計(jì)算整個(gè)圖片中場(chǎng)景的實(shí)際面積。已知某個(gè)物體在圖片中的面積是S1,該物體的實(shí)際面積是S2,圖片的總面積是S3,該物體在圖片中所占的比例就是S1/S3,物體在圖片中所占的比例和該物體在實(shí)際場(chǎng)景中的尺寸比例相等,由此可以得到圖片中場(chǎng)景的實(shí)際面積。由于透視效應(yīng)的影響,圖像會(huì)出現(xiàn)“近大遠(yuǎn)小”現(xiàn)象,讓計(jì)算值與場(chǎng)景中實(shí)際面積出現(xiàn)較大的誤差,所以引入一個(gè)矯正系數(shù)K,用來(lái)減小誤差。整個(gè)圖片的實(shí)際面積可以通過(guò)下式計(jì)算:

        (3)

        (4)

        式中:P為物體在圖片中所占的比例;S為圖片中場(chǎng)景對(duì)應(yīng)的真實(shí)面積;K為矯正系數(shù)。

        在本研究中,識(shí)別的每一張圖片都有一個(gè)共同的特征,就是“人”,而人的正臉表面積其實(shí)都相差不大,根據(jù)已知數(shù)據(jù),成年人的頭部正視圖面積約為100~120 cm2。本研究使用的是ShanghaiTech數(shù)據(jù)集的圖片,該數(shù)據(jù)集多來(lái)源于上海街道,絕大部分都是中國(guó)人,而中國(guó)人的整體頭部尺寸相較其他國(guó)家的人較為適中,所以本研究選取頭部正視圖面積的中間值110 cm2。

        計(jì)算圖片中場(chǎng)景的實(shí)際面積時(shí),已知圖片中人的頭部的實(shí)際面積,可以得到人的頭部在圖片中所占的比例,由此就能計(jì)算出圖片中場(chǎng)景的實(shí)際面積。為此編寫(xiě)了一個(gè)程序,能夠?qū)崿F(xiàn)用矩形框框選圖片中的區(qū)域,然后輸出矩形框框選區(qū)域占整個(gè)圖片的比例,矩形框框選示意圖如圖5所示。

        在用矩形框框選圖片中人的頭部時(shí),要盡量框選正面的頭部,有利于正確代入正面頭部的實(shí)際尺寸,讓誤差更小。同時(shí),盡量框選距離照相機(jī)鏡頭較近的“人頭”。第一個(gè)原因是距離照相機(jī)鏡頭較近的“人頭”更加清晰,利于框選。第二個(gè)原因是當(dāng)拍攝一個(gè)物體時(shí),它會(huì)通過(guò)相機(jī)鏡頭進(jìn)入相機(jī)內(nèi)部;在相機(jī)內(nèi)部,光線(xiàn)會(huì)經(jīng)過(guò)鏡頭的透鏡系統(tǒng),被聚焦在相機(jī)感光元件上,形成一張圖像;在透鏡系統(tǒng)中,距離相機(jī)感光元件較近的物體會(huì)形成一個(gè)較大的投影,而距離相機(jī)感光元件較遠(yuǎn)的物體則會(huì)形成一個(gè)較小的投影,表現(xiàn)出“近大遠(yuǎn)小”現(xiàn)象。本研究是從防踩踏的角度出發(fā),選取距離照相機(jī)鏡頭較近的“人頭”時(shí),選擇“人頭”的矩形框會(huì)在圖片中占據(jù)較大的比例,最后計(jì)算出的實(shí)際圖片面積會(huì)偏小,導(dǎo)致最后計(jì)算出的人員密度偏大[7],會(huì)更加容易逼近防踩踏的人員密度標(biāo)準(zhǔn),但是從防踩踏安全角度出發(fā),這樣做則能夠有效預(yù)防踩踏的發(fā)生,更能維護(hù)人民群眾的生命安全。

        5 人群密度和防踩踏識(shí)別

        5.1 人群密度

        人群密度是進(jìn)行防踩踏狀態(tài)劃分的重要指標(biāo),通過(guò)式(5)計(jì)算:

        (5)

        式中:ρ是人群密度,單位是人/m2;N是圖片中的人群個(gè)數(shù);S是圖片中場(chǎng)景的實(shí)際面積。

        如圖6所示,先用CAN網(wǎng)絡(luò)得到圖片的人數(shù),再用矩形框框選圖片中距離照相機(jī)較近的正面“人頭”,得到框選區(qū)域占整個(gè)圖片的比例,用于后面人群密度的計(jì)算。

        圖6中,CAN預(yù)測(cè)圖片中的人數(shù)為137.677 73,矩形框框選圖片中的“人頭”占全部圖片面積的0.24%。將占比代入式(3),此時(shí)矯正系數(shù)K取25,計(jì)算得到圖片中場(chǎng)景的實(shí)際面積是114.58 m2,將人數(shù)和圖片中場(chǎng)景的實(shí)際面積代入到式(5),最后得到人群密度約為1.2人/m2。

        5.2 防踩踏識(shí)別

        人群密度過(guò)大是導(dǎo)致踩踏事故的一個(gè)重要因素[8]。人群密度超過(guò)某一閾值時(shí),人們的行動(dòng)就會(huì)變得非常局限,而這種局限可能導(dǎo)致踩踏事故的發(fā)生[9-11]。所以要對(duì)不同的人群密度進(jìn)行合理的劃分,然后采取相應(yīng)的預(yù)防踩踏的措施。

        本系統(tǒng)給人群密度標(biāo)定2個(gè)閾值:3人/m2、5人/m2。在0~3人/m2范圍內(nèi)為綠色狀態(tài),表示無(wú)需采取措施;3~5人/m2范圍內(nèi)為黃色狀態(tài),表示進(jìn)入警戒狀態(tài),區(qū)域內(nèi)要禁止人流進(jìn)入;大于5人/m2時(shí)為紅色狀態(tài),表示人群密度已經(jīng)超過(guò)了限制,非常容易發(fā)生踩踏事故,要在限制人流進(jìn)入的情況下,同時(shí)疏散現(xiàn)有人群。

        識(shí)別結(jié)果如圖7~圖9所示。圖7~圖9展示了圖片分別為綠色狀態(tài)、黃色狀態(tài)、紅色狀態(tài)的識(shí)別結(jié)果,表明了本系統(tǒng)對(duì)不同人群密度的識(shí)別效果,并能夠給出相應(yīng)的預(yù)警狀態(tài),結(jié)合對(duì)應(yīng)的防踩踏措施,對(duì)于預(yù)防因人群密集程度過(guò)大導(dǎo)致的踩踏事故,可行性好、可靠性高。

        6 結(jié) 語(yǔ)

        本文設(shè)計(jì)了基于卷積神經(jīng)網(wǎng)絡(luò)的人群密度分析防踩踏系統(tǒng)。在實(shí)驗(yàn)中先進(jìn)行模型的選擇,選擇CAN模型對(duì)圖片進(jìn)行人群計(jì)數(shù);然后計(jì)算圖片中場(chǎng)景的實(shí)際面積,通過(guò)圖片人數(shù)和圖片中場(chǎng)景的實(shí)際面積得到圖片的人群密度;最后根據(jù)人群密度來(lái)劃分預(yù)警狀態(tài),采取相應(yīng)的措施,從而達(dá)到預(yù)防人群踩踏的目的。實(shí)驗(yàn)表明,基于卷積神經(jīng)網(wǎng)絡(luò)的人群密度分析防踩踏系統(tǒng)能夠防止因人群密集程度過(guò)大導(dǎo)致的踩踏事故,可行性好、可靠性高。

        注:本文通訊作者為姚平。

        參考文獻(xiàn)

        [1]張海生,付嘉駿,陳函,等.梨泰院事故,韓公布兩大原因[N].環(huán)球時(shí)報(bào),2022-11-02(004).

        [2]盧振坤,劉勝,鐘樂(lè),等.人群計(jì)數(shù)研究綜述[J].計(jì)算機(jī)工程與應(yīng)用,2022,58(11):33-46.

        [3] SINDAGI V A,PATEL V M. A survey of recent advances in CNN-based single image crowd counting and density estimation [J]. Pattern recognition letters,2018,107:3-16.

        [4]潘婷.高校教學(xué)樓人流量預(yù)測(cè)的方法及模型研究[D].天津:天津大學(xué),2021.

        [5] ZHANG Y Y,ZHOU D S,CHEN S Q,et al. Singleimage crowd counting via multi-column convolutional neural network [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ:IEEE,2016:589-597.

        [6] LIU W,SALZMANN M,F(xiàn)UA P. Context-aware crowd counting [C]// 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach,CA,USA: IEEE,2019:5094-5103.

        [7] YANG Y H,WANG B,DING Y,et al. Facial anthropometric proportion of Chinese han nationality [J]. Journal of craniofacial surgery,2019,30(5):1601-1604.

        [8] HELBING D. Understanding crowd dynamics [J]. Advances in complex systems,2007,10(4):443-466.

        [9]陳璐.基于卷積神經(jīng)網(wǎng)絡(luò)的視頻密集群體行為識(shí)別[D].南京:南京郵電大學(xué),2020:10-11.

        [10]郭濠奇,楊杰,康莊.基于改進(jìn)CSRNet的人群計(jì)數(shù)算法[J].傳感器與微系統(tǒng),2022,41(6):150-152.

        [11]楊博涵.一種基于卷積神經(jīng)網(wǎng)絡(luò)的人群密度識(shí)別算法[J].電腦知識(shí)與技術(shù),2022,18(2):82-83.

        作者簡(jiǎn)介:夏 軍(2001—),男,碩士研究生,主要研究方向?yàn)閳D像識(shí)別。

        王鑫一(2001—),男,本科生,主要研究方向?yàn)楣怆姍z測(cè)。

        鄢 嫣(1980—),女,博士,副教授,主要研究方向?yàn)榱孔庸鈱W(xué)。

        姚 平(1978—),男,碩士,高級(jí)實(shí)驗(yàn)師,主要研究方向?yàn)楣怆姍z測(cè)。

        收稿日期:2023-05-06 修回日期:2023-06-05

        基金項(xiàng)目:國(guó)家自然科學(xué)基金項(xiàng)目(11704045)

        猜你喜歡
        機(jī)器視覺(jué)
        基于芯片點(diǎn)膠系統(tǒng)的視覺(jué)檢測(cè)技術(shù)研究
        全自動(dòng)模擬目標(biāo)搜救系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
        基于機(jī)器視覺(jué)的自動(dòng)澆注機(jī)控制系統(tǒng)的研究
        科技視界(2016年26期)2016-12-17 17:31:58
        機(jī)器視覺(jué)技術(shù)的發(fā)展及其應(yīng)用
        科技視界(2016年25期)2016-11-25 19:53:52
        視覺(jué)拉線(xiàn)檢測(cè)器的設(shè)計(jì)與實(shí)現(xiàn)
        科技視界(2016年25期)2016-11-25 09:27:34
        大場(chǎng)景三維激光掃描儀在研究生實(shí)踐教學(xué)培養(yǎng)中的應(yīng)用
        基于機(jī)器視覺(jué)的工件鋸片缺陷檢測(cè)系統(tǒng)設(shè)計(jì)
        軟件工程(2016年8期)2016-10-25 15:55:22
        基于機(jī)器視覺(jué)技術(shù)的動(dòng)態(tài)“白帶”常規(guī)檢測(cè)系統(tǒng)的開(kāi)發(fā)
        科技視界(2016年20期)2016-09-29 11:11:40
        對(duì)激光切割機(jī)的改進(jìn)
        科技視界(2016年6期)2016-07-12 09:12:40
        人工智能在高校圖書(shū)館的預(yù)期
        科技視界(2016年15期)2016-06-30 19:03:30
        国产白丝网站精品污在线入口| 亚洲日韩精品无码专区网址| 无码人妻久久一区二区三区app| 艳妇乳肉豪妇荡乳av无码福利 | 女人被弄到高潮的免费视频| 亚洲av理论在线电影网| 久久久久久AV无码成人| 亚洲丝袜美腿精品视频| 国产精品久久久久久| 精品久久久噜噜噜久久久| 欧美亚洲韩国国产综合五月天| 国产亚洲精品综合在线网站| 无码专区人妻系列日韩精品| 亚洲av成人一区二区三区| 欧美日韩性高爱潮视频| 亚洲av一区二区在线| 亚洲av男人电影天堂热app| 一本大道久久东京热无码av| 亚洲午夜看片无码| 免费人成在线观看播放视频| 国产日韩精品欧美一区喷水| 无码国产激情在线观看| 亚洲av综合色区在线观看| 人妖一区二区三区视频| 人人爽久久涩噜噜噜丁香| 综合网五月| 国产av三级精品车模| 中文字幕在线观看| 老少交欧美另类| 日本视频精品一区二区| av免费不卡一区二区| 免费a级毛片无码| 国内精品一区二区2021在线| 亚洲香蕉久久一区二区| 亚洲欧美v国产一区二区| 丰满人妻妇伦又伦精品国产| 中国老太老肥熟女视频| 日本伦理精品一区二区三区| 欧美艳星nikki激情办公室| 日本少妇被爽到高潮的免费| 国产极品大秀在线性色|