亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于人臉與步態(tài)特征的室外作業(yè)場(chǎng)景身份核驗(yàn)方法

        2021-12-28 07:49:45王劉旺鄭禮洋葉曉桐郭雪強(qiáng)
        關(guān)鍵詞:模式識(shí)別人臉識(shí)別

        王劉旺 鄭禮洋 葉曉桐 郭雪強(qiáng)

        摘 要:在建筑、通信、電力等工程行業(yè)中,作業(yè)人員需要頻繁執(zhí)行室外作業(yè)。由于室外環(huán)境復(fù)雜,許多運(yùn)維工作存在來(lái)自高壓、高空、深坑等因素的高風(fēng)險(xiǎn)。安全事故一旦發(fā)生,將造成巨大的人員和財(cái)產(chǎn)損失。因此,需要在作業(yè)過(guò)程中對(duì)作業(yè)人員進(jìn)行身份核驗(yàn),以方便監(jiān)督。然而,在傳統(tǒng)的監(jiān)督方式中,作業(yè)現(xiàn)場(chǎng)的人員管理和行為管控完全依靠人工核查,監(jiān)控視頻也依賴人工看守,無(wú)法做到人員身份實(shí)時(shí)核驗(yàn)以及對(duì)非作業(yè)人員入場(chǎng)的有效預(yù)警。針對(duì)室外作業(yè)場(chǎng)景中的作業(yè)人員身份識(shí)別,目前的研究方法大多基于人臉識(shí)別。人臉識(shí)別方法能夠在作業(yè)人員臉部信息清晰且完整時(shí)準(zhǔn)確識(shí)別出其身份信息。然而,當(dāng)存在遮擋,以及受檢測(cè)距離、檢測(cè)角度等因素影響時(shí),會(huì)造成臉部信息不完全或者模糊,導(dǎo)致采用人臉識(shí)別方法難以準(zhǔn)確識(shí)別出作業(yè)人員的身份。

        步態(tài)特征是一種描述行走方式的復(fù)雜行為特征,包括腳的觸地時(shí)間、離地時(shí)間和人體高度、雙手?jǐn)[動(dòng)幅值等。相比人臉識(shí)別,步態(tài)特征識(shí)別有以下優(yōu)點(diǎn):第一,步態(tài)識(shí)別適用的檢測(cè)距離更遠(yuǎn),而人臉特征隨著檢測(cè)距離的增加識(shí)別難度明顯上升;第二,步態(tài)特征識(shí)別是非主動(dòng)識(shí)別,現(xiàn)場(chǎng)作業(yè)人員幾乎隨時(shí)隨地處于行走狀態(tài),而人臉識(shí)別需要識(shí)別對(duì)象正對(duì)檢測(cè)裝置;第三,步態(tài)特征具有較強(qiáng)的特異性,不像人臉特征較易被模仿、修改。不過(guò),單獨(dú)采用步態(tài)特征進(jìn)行識(shí)別,雖然在作業(yè)人員運(yùn)動(dòng)時(shí)可以捕捉體態(tài)信息進(jìn)而較為準(zhǔn)確地對(duì)其進(jìn)行身份核驗(yàn),但是無(wú)法對(duì)靜態(tài)的作業(yè)人員進(jìn)行身份核驗(yàn)。

        針對(duì)此問(wèn)題,提出了一種多特征融合的身份核驗(yàn)方法,結(jié)合步態(tài)與人臉等多特征進(jìn)行識(shí)別,不受衣著、環(huán)境等外在因素的干擾,可以有效提高身份核驗(yàn)的準(zhǔn)確率。提出的融合人臉特征和步態(tài)特征的多特征身份核驗(yàn)方法包括身份注冊(cè)階段、訓(xùn)練階段與測(cè)試驗(yàn)證階段。身份注冊(cè)階段,人工標(biāo)注人臉與步態(tài)信息,并錄入人員信息庫(kù);訓(xùn)練階段,首先利用相關(guān)網(wǎng)絡(luò)提取視頻中圖像序列的步態(tài)輪廓圖與人臉區(qū)域,然后利用深度學(xué)習(xí)網(wǎng)絡(luò)模型提取相關(guān)特征,構(gòu)建融合的特征向量與身份ID間的關(guān)系;測(cè)試階段,首先判斷圖像中有無(wú)清晰人臉,如果有則使用多特征融合識(shí)別方法,否則僅通過(guò)步態(tài)特征進(jìn)行特征匹配進(jìn)而完成身份核驗(yàn)。結(jié)果表明,多特征融合方法在中科院自動(dòng)化所的CASIA-A數(shù)據(jù)集上的分類準(zhǔn)確率達(dá)到99.17%,數(shù)據(jù)集包含的3個(gè)視角下的分類準(zhǔn)確率分別為98.75%,100%和98.75%。因此,所提方法可以有效提高單人場(chǎng)景中的身份識(shí)別準(zhǔn)確率,是在室外作業(yè)場(chǎng)景中進(jìn)行身份核驗(yàn)的一種有效方法。

        關(guān)鍵詞:模式識(shí)別;身份核驗(yàn);多特征融合;室外作業(yè)場(chǎng)景;人臉識(shí)別;步態(tài)特征

        中圖分類號(hào):TN958.98?? 文獻(xiàn)標(biāo)識(shí)碼:A

        doi:10.7535/hbkd.2021yx06011

        Identity verification method based on face and gait features in outdoor operation scenes

        WANG Liuwang1,ZHENG Liyang2,YE Xiaotong2,GUO Xueqiang2

        (1.State Grid Zhejiang Electric Power Company Limited Research Institute,Hangzhou,Zhejiang 310014,China;2.College of Control Science and Engineering,Zhejiang University,Hangzhou,Zhejiang 310027,China)

        Abstract:In construction,communications,power and other engineering industries,workers need to perform outdoor operations frequently.Due to the complex outdoor environment,there are high risks from factors like high voltage,high altitude,and deep pits in many operation and maintenance tasks.Once an accident happens,huge losses in personnel and property would be caused.Therefore,it is necessary to verify identities of operators during the operation process for supervision.However,in the traditional supervision method,the personnel management and behavior control in the operation scenes rely entirely on manual verification,and the surveillance video also relies on manual guards.It is impossible to achieve real-time verification of personnel identities and effective warning of the entry of non operators.For the identification of workers in outdoor work scenes,most of the current research methods are based on the face recognition.Face recognition method can accurately identify the identity information of a worker when his facial information is clear and complete.However,when the facial information is incomplete or fuzzy because of occlusion,long detection distance or the inclined detection angle,it will be difficult to accurately identify the operator's identity with the face recognition method.

        Gait feature is a complex behavioral feature of a walking person,including the time the foot touch and leave the ground,the human height,and the swing amplitude of hands.Compared with face recognition,gait recognition has the following advantages.Firstly,the distance applicable to gait recognition is longer,while the recognition difficulty of facial features increases as the detection distance increases.Secondly,gait feature recognition is non-active,and workers on the operation scene are walking almost anytime and anywhere,but face recognition expects the recognition object to face the detection device.Thirdly,gait features have strong specificity and are difficult to be imitated and modified.Nevertheless,gait information cannot be used alone for identity verification of workers in static poses.

        To solve the above problems,a multi-feature fusion identity verification method was proposed,which combined multiple features such as gait and face features for recognition without being interfered by external factors such as clothing and environment.This method effectively improved the accuracy of identity verification.This multi-feature identity verification method,combining face recognition and gait recognition,included identity registration phase,training phase and test phase.In the registration phase,the face and gait information were manually marked and recorded in the database.In the training phase,the correlated network was used to extract the gait contour map and face region of the image sequence in the video.Then the deep learning network model was used to extract relevant features in order to build the relationship between the fused feature vector and the identity ID.In the test phase,whether there is a clear face in the image was judged.If so,the multi-feature fusion recognition method was used.Otherwise,only the gait feature for feature matching was used to complete the identity verification.The results show that the proposed multi-feature fusion method achieves the classification accuracy of 99.17% on the CASIA-A data set of the Institute of Automation,Chinese Academy of Sciences.The classification accuracy is 98.75%,100% and 98.75% in the three views included in the dataset.Therefore,the proposed method can effectively improve the accuracy of identification in single-person scenes,thus providing an effective scheme for identity verification in outdoor work scenes.

        Keywords:

        pattern recognition;identity verification;multi feature fusion;outdoor operation scenes;face recognition;gait features

        視頻監(jiān)控的普及和人工智能技術(shù)的發(fā)展,使得機(jī)器視覺(jué)技術(shù)在室外作業(yè)現(xiàn)場(chǎng)安全管控中的應(yīng)用越來(lái)越廣泛[1],主要包括作業(yè)人員安全著裝檢測(cè)[2]、身份識(shí)別與驗(yàn)證[3]、目標(biāo)檢測(cè)與跟蹤[4]、異常行為識(shí)別[5-7]等方面。其中,作業(yè)人員的身份識(shí)別與驗(yàn)證是安全管控中的重要一環(huán)。

        出于安防與監(jiān)管需求,室外作業(yè)場(chǎng)景中需要對(duì)人員進(jìn)行身份核驗(yàn)。部分室外作業(yè)中因人員著裝特殊且場(chǎng)景復(fù)雜,較難實(shí)現(xiàn)準(zhǔn)確的身份識(shí)別?,F(xiàn)有的識(shí)別方法大多基于人臉識(shí)別技術(shù)。人臉識(shí)別方法雖然發(fā)展成熟、準(zhǔn)確率高,但是易受到服裝遮擋、檢測(cè)距離以及檢測(cè)角度等因素的影響。相比于人臉特征,步態(tài)特征是一種更為穩(wěn)定、可靠的生物特征。考慮到人臉和步態(tài)特征的特點(diǎn),提出一種融合二者的多特征身份核驗(yàn)方法。

        1 方法概述

        1.1 多特征融合身份的識(shí)別框架

        基于人臉與步態(tài)的多特征融合身份識(shí)別框架,主要分為數(shù)據(jù)采集與標(biāo)注、算法模型訓(xùn)練、測(cè)試使用3個(gè)階段。

        1)數(shù)據(jù)采集與標(biāo)注 通過(guò)在應(yīng)用場(chǎng)景下采集相應(yīng)規(guī)模的視頻監(jiān)控?cái)?shù)據(jù)構(gòu)建數(shù)據(jù)集。標(biāo)注時(shí),首先使用目標(biāo)檢測(cè)算法YOLOv3[9]提取出包含行人的圖像框,該算法由于具有高精度和高速度的優(yōu)勢(shì),因而在室外作業(yè)現(xiàn)場(chǎng)中常用于實(shí)時(shí)計(jì)算機(jī)視覺(jué)檢測(cè)[10]。本文使用YOLOv3算法對(duì)單幀圖像中不同大小的行人目標(biāo)進(jìn)行檢測(cè),然后通過(guò)Mask R-CNN[11]算法進(jìn)行前景分割,以像素級(jí)別精確分割出人像,提取每幀圖像的二值化輪廓圖。通過(guò)上述算法得到圖片對(duì)應(yīng)的輪廓圖,用于構(gòu)建步態(tài)識(shí)別的數(shù)據(jù)集,數(shù)據(jù)集中每個(gè)訓(xùn)練、測(cè)試樣本為包含多幀的連續(xù)序列。采集步態(tài)數(shù)據(jù)的同時(shí)進(jìn)行人臉檢測(cè),即獲取行人圖像框后進(jìn)一步使用輕量級(jí)人臉檢測(cè)模型ultra-light-fast-generic-face-detector[12]檢測(cè)人臉,該模型是針對(duì)邊緣計(jì)算設(shè)備設(shè)計(jì)的輕量人臉檢測(cè)模型,具有檢測(cè)速度快、精度較高的特點(diǎn)。

        2)算法模型訓(xùn)練 因人臉特征具有通用性,所以訓(xùn)練部分側(cè)重于對(duì)步態(tài)特征的匹配建模。算法模型在GaitSet[13]步態(tài)識(shí)別網(wǎng)絡(luò)的基礎(chǔ)上加入特征壓縮模塊,可以更加有效地提取步態(tài)特征,并與人臉識(shí)別相結(jié)合。人臉識(shí)別采取InceptionResnetV1[14]網(wǎng)絡(luò)在Vggface數(shù)據(jù)集[15]上的預(yù)訓(xùn)練模型,模型在訓(xùn)練過(guò)程中同時(shí)約束人臉和步態(tài)特征與身份表征信息的空間距離。

        3)測(cè)試使用 利用訓(xùn)練好的算法模型同時(shí)提取一段序列圖片的步態(tài)與人臉特征(如無(wú)法檢測(cè)人臉,人臉特征向量為空),而后將特征輸入到所設(shè)計(jì)的身份分類器中,優(yōu)先采用人臉特征的分類結(jié)果。測(cè)試時(shí)的多特征融合身份識(shí)別框架如圖1所示。

        1.2 數(shù)據(jù)集的創(chuàng)建

        CASIA-A數(shù)據(jù)集創(chuàng)建于2001-12-10,包含20個(gè)人的室外行走數(shù)據(jù),每個(gè)行人有12個(gè)圖像序列、3個(gè)行走方向(與圖像平面分別成0°,45°,90°),每個(gè)方向有4個(gè)圖像序列。每個(gè)序列的長(zhǎng)度隨著行人行走的速度變化而變化,每個(gè)序列的幀數(shù)在37~127之間。整個(gè)數(shù)據(jù)庫(kù)包含13 139副RGB圖像,約2.2 GB。當(dāng)圖像中的測(cè)試者正向走來(lái)且人臉清晰時(shí),可檢測(cè)并提取人臉信息,CASIA-A數(shù)據(jù)集示例見(jiàn)圖2。

        1.3 人臉特征的提取

        使用ultra-light-fast-generic-face-detector算法檢測(cè)出圖像中的人臉部分,提取包含人臉的區(qū)域后,使用InceptionResnetV1在Vggface上的預(yù)訓(xùn)練模型進(jìn)行人臉特征提取。待比對(duì)的已知身份的人臉數(shù)據(jù)也采用相同的數(shù)據(jù)預(yù)處理方法,即將圖像大小縮放至256×256,并裁剪至224×224像素大小,而后進(jìn)行圖形歸一化處理。

        1.4 步態(tài)特征的提取

        步態(tài)識(shí)別是一種新興的生物特征識(shí)別技術(shù),通過(guò)人們走路的姿態(tài)進(jìn)行身份識(shí)別,圖3展示的是一個(gè)完整周期的步態(tài)輪廓圖。與其他的生物識(shí)別技術(shù)相比,步態(tài)識(shí)別具有非接觸、遠(yuǎn)距離、無(wú)需主動(dòng)配合、不容易偽裝等優(yōu)點(diǎn)。在智能視頻監(jiān)控和安防領(lǐng)域,步態(tài)識(shí)別較其他生物識(shí)別(人臉識(shí)別、虹膜識(shí)別等)方法更具優(yōu)勢(shì)。

        基于深度學(xué)習(xí)進(jìn)行步態(tài)識(shí)別,是目前步態(tài)識(shí)別研究領(lǐng)域的趨勢(shì)。利用深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)較強(qiáng)的學(xué)習(xí)能力,可以更為有效地提取身份特征信息,從而提高步態(tài)識(shí)別技術(shù)在處理跨視角、復(fù)雜狀態(tài)(包含攜帶物品與穿著遮擋性衣物)下的識(shí)別精度。按照所處理數(shù)據(jù)的屬性不同,步態(tài)識(shí)別方法可以分為基于時(shí)序輪廓圖的方法和基于特征表征模板的方法。

        基于步態(tài)特征的身份核驗(yàn)包含步態(tài)輪廓圖提取、步態(tài)特征提取以及特征比較3個(gè)步驟。其中步態(tài)輪廓圖提取過(guò)程如圖4和圖5所示。當(dāng)步態(tài)輪廓提取完成后,就可以利用訓(xùn)練好的深度學(xué)習(xí)模型對(duì)輪廓序列圖進(jìn)行步態(tài)特征提取,與已注冊(cè)的步態(tài)特征數(shù)據(jù)進(jìn)行對(duì)比,完成身份核驗(yàn)。

        為了更有效地從步態(tài)輪廓中提取信息,網(wǎng)絡(luò)骨架采用業(yè)界較為認(rèn)可的網(wǎng)絡(luò)模型GaitSet。網(wǎng)絡(luò)輸入數(shù)據(jù)為一段固定序列數(shù)量的步態(tài)輪廓圖,輪廓圖經(jīng)過(guò)GaitSet網(wǎng)絡(luò)后生成初級(jí)的步態(tài)特征向量。由GaitSet輸出的特征一方面利用三元損失函數(shù)Triplet Loss[16]約束樣本空間距離,另一方面接入所設(shè)計(jì)的特征重映射網(wǎng)絡(luò),用于與人臉特征的聯(lián)合匹配。

        2 多特征識(shí)別網(wǎng)絡(luò)

        2.1 框架設(shè)計(jì)

        基于人臉與步態(tài)的多特征識(shí)別的網(wǎng)絡(luò)架構(gòu)如圖6所示。輸入數(shù)據(jù)為一段場(chǎng)景下的視頻流數(shù)據(jù),利用人臉與步態(tài)檢測(cè)分割方法提取步態(tài)輪廓圖與人臉部分區(qū)域后,分別進(jìn)行步態(tài)、人臉特征提取,而后進(jìn)行特征融合與相關(guān)約束。

        2.2 訓(xùn)練流程

        對(duì)于一段待識(shí)別的行走序列,通過(guò)人臉檢測(cè)算法ultra-light-fast-generic-face-detector提取出序列中包含的有效人臉信息圖片,若無(wú)有效人臉信息則后續(xù)的人臉特征為空。然后,利用InceptionResnetV1模型對(duì)人臉圖片進(jìn)行人臉特征提取,將提取后的特征輸入全連接層,將其映射到隱層特征空間,人臉特征向量的最終維度為256。同時(shí),通過(guò)Mask R-CNN算法提取序列的步態(tài)輪廓圖信息。步態(tài)模型訓(xùn)練偽代碼如表1所示。

        對(duì)于提取輪廓后的步態(tài)輪廓圖,基于GaitSet提取初步步態(tài)特征并利用三元損失函數(shù)約束樣本空間距離。其中三元損失函數(shù)為

        Ltriplet=max(‖f(A)-f(P)‖2-‖f(A)-f(N)‖2+α, 0)。(1)

        式中:A為錨點(diǎn)樣本特征;P為與A相同類別的正樣本特征;N為與A不同類別的負(fù)樣本特征;α為調(diào)整正負(fù)樣本對(duì)間距離的閾值系數(shù);f為特征映射函數(shù)。步態(tài)特征重映射網(wǎng)絡(luò)由批歸一化層[17]、Dropout層[18]以及全連接層構(gòu)成,將由GaitSet輸出的62×256特征重映射為256維度大小的特征。

        對(duì)于提取的人臉與步態(tài)特征,采取維度拼接構(gòu)成最終融合的512維度聯(lián)合特征表征向量,實(shí)現(xiàn)特征融合。通過(guò)分類網(wǎng)絡(luò)后,利用交叉熵?fù)p失函數(shù)約束聯(lián)合特征:

        Lce=-1M∑Mi=1yilogy︿i。(2)

        式中:yi為圖片i的標(biāo)簽;y︿i為通過(guò)網(wǎng)絡(luò)預(yù)測(cè)出的身份屬性;M為一個(gè)訓(xùn)練批次的樣本數(shù)量。

        最終的損失函數(shù)為三元損失函數(shù)與交叉熵?fù)p失函數(shù)的加和,即

        Ltotal=Ltriplet+Lce。(3)

        3 參數(shù)設(shè)置及結(jié)果分析

        3.1 參數(shù)設(shè)置

        本文所有的實(shí)驗(yàn)均在配備了i5-3570處理器、NVDIA RTX 3060Ti顯卡、16 G內(nèi)存的計(jì)算機(jī)上進(jìn)行。在 Python3.6環(huán)境下用Pytorch框架實(shí)現(xiàn)模型算法,部分實(shí)驗(yàn)參數(shù)設(shè)置見(jiàn)表2。

        3.2 結(jié)果分析

        將數(shù)據(jù)集按照4種圖像序列分為4個(gè)交叉訓(xùn)練、驗(yàn)證集,每個(gè)子集包含60個(gè)步態(tài)序列,其中包含0°,45°和90°圖像各20張。結(jié)果如表3所示,4個(gè)交叉驗(yàn)證集上的分類正確率大致相當(dāng),僅用步態(tài)特征的平均分類正確率為98.33%,加入人臉后的平均分類正確率為99.17%。

        為了更好地體現(xiàn)本文所提方法的有效性,進(jìn)行了單視角下與其他經(jīng)典步態(tài)識(shí)別方法的對(duì)比實(shí)驗(yàn),結(jié)果如表4所示。由表4可以看出,本文所提出的步態(tài)識(shí)別方法在3個(gè)角度上的分類正確率均超越現(xiàn)有的其他方法,其中GRHT[21]模型利用了霍夫變換和主成分分析等機(jī)器學(xué)習(xí)方法,在CASIA-A數(shù)據(jù)集上達(dá)到了98.33%的識(shí)別準(zhǔn)確率。而本文結(jié)合人臉、步態(tài)的多特征融合方法在此水平上進(jìn)一步提高了準(zhǔn)確率,提升幅度為0.84%。

        對(duì)于所使用的網(wǎng)絡(luò)與損失函數(shù),進(jìn)行了如表5所示的對(duì)比研究,可見(jiàn)融合2種損失函數(shù),可以使網(wǎng)絡(luò)輸出的步態(tài)特征與標(biāo)簽建立較好的映射關(guān)系,得到更高的識(shí)別準(zhǔn)確度。

        為了更好地體現(xiàn)訓(xùn)練后模型對(duì)于不同身份圖片的區(qū)分能力,將模型在測(cè)試集圖片上生成的高維特征通過(guò)t-SNE[22]方法進(jìn)行非線性降維并可視化,如圖7所示。不同顏色的點(diǎn)代表不同身份的個(gè)體,模型訓(xùn)練前步態(tài)特征分布如圖7 a)所示,不同身份人員的步態(tài)特征無(wú)明顯區(qū)分。模型訓(xùn)練后,相同身份的特征數(shù)據(jù)的類內(nèi)距離減小而聚成一簇,不同身份的特征數(shù)據(jù)被分成多個(gè)簇,有較大的類間距,如圖7 b)所示。

        4 結(jié) 語(yǔ)

        1)多特征融合身份核驗(yàn)方法有效融合了人臉與步態(tài)信息,對(duì)于行走的包含人臉視頻的單人場(chǎng)景可以實(shí)現(xiàn)較高的識(shí)別準(zhǔn)確率,為室外作業(yè)場(chǎng)景中的身份核驗(yàn)提供了有效方法。

        2)在中科院CASIA-A數(shù)據(jù)集上實(shí)現(xiàn)了99.17%的多分類準(zhǔn)確率,超過(guò)了現(xiàn)有其他算法模型,證明了本文提出的步態(tài)識(shí)別網(wǎng)絡(luò)模塊與多特征融合身份識(shí)別框架的有效性。實(shí)際應(yīng)用中可應(yīng)用類似數(shù)據(jù)處理及特征提取方法,達(dá)到相近的身份核驗(yàn)準(zhǔn)確率。

        3)將步態(tài)特征與人臉特征結(jié)合應(yīng)用于室外場(chǎng)景的身份識(shí)別,既打破了長(zhǎng)期以來(lái)識(shí)別領(lǐng)域特征的單一性,又因使用雙損失函數(shù)約束特征而保證了特征提取的有效性。

        本研究方法雖有效提高了室外作業(yè)場(chǎng)景中人員身份核驗(yàn)的準(zhǔn)確度,但仍存在一定待優(yōu)化、改進(jìn)之處。首先,當(dāng)前用于進(jìn)行身份核驗(yàn)的數(shù)據(jù)集場(chǎng)景大多為光照充足、行人姿態(tài)清晰的場(chǎng)景,但在夜間室外作業(yè)場(chǎng)景中,難以使用普通RGB攝像頭拍攝行人姿態(tài)清晰可見(jiàn)的圖像,可以考慮使用紅外線攝像頭拍攝紅外圖像,用于本文所提方法中;其次,當(dāng)前識(shí)別任務(wù)適用于單個(gè)目標(biāo)的身份識(shí)別,不能同時(shí)對(duì)多個(gè)目標(biāo)進(jìn)行身份識(shí)別。在多目標(biāo)識(shí)別場(chǎng)景中,可以分別對(duì)不同的作業(yè)人員執(zhí)行本文所提出的身份核驗(yàn)方法,利用排他性(同一個(gè)場(chǎng)景中不可能出現(xiàn)2個(gè)同樣身份的人)和連續(xù)性(同一個(gè)人的身份不應(yīng)跳變)比較每個(gè)行人的身份概率,進(jìn)而得出身份核驗(yàn)結(jié)果。未來(lái)可將本文所提方法與現(xiàn)場(chǎng)安監(jiān)設(shè)備結(jié)合,實(shí)現(xiàn)室外作業(yè)場(chǎng)景的實(shí)時(shí)身份核驗(yàn)。

        參考文獻(xiàn)/References:

        [1] 王劉旺,周自強(qiáng),林龍,等.人工智能在變電站運(yùn)維管理中的應(yīng)用綜述[J].高電壓技術(shù),2020,46(1):1-13.

        WANG Liuwang,ZHOU Ziqiang,LIN Long,et al.Review on artificial intelligence in substation operation and maintenance management[J].High Voltage Engineering,2020,46(1):1-13.

        [2] 肖體剛,蔡樂(lè)才,高祥,等.改進(jìn)YOLOv3的安全帽佩戴檢測(cè)方法[J].計(jì)算機(jī)工程與應(yīng)用,2021,57(12):216-223.

        XIAO Tigang,CAI Lecai,GAO Xiang,et al.Improved YOLOv3 helmet wearing detection method[J].Computer Engineering and Applications,2021,57(12):216-223.

        [3] 陳曉江,龍震岳,曾紀(jì)鈞.基于人工智能算法的作業(yè)現(xiàn)場(chǎng)人員設(shè)備資質(zhì)識(shí)別技術(shù)研究[J/OL].電測(cè)與儀表.[2021-06-22].http://kns.cnki.net/kcms/detail/23.1202.TH.20210621.1803.002.html.

        CHEN Xiaojiang,LONG Zhenyue,ZENG Jijun.Research on equipment qualification recognition technology of job site personnel based on artificial intelligence algorithm[J/OL].Electrical Measurement & Instrumentation.[2021-06-22].http://kns.cnki.net/kcms/detail/23.1202.TH.20210621.1803.002.html.

        [4] 林磊,錢(qián)平,董毅,等.基于深度學(xué)習(xí)的變電站環(huán)境下行人檢測(cè)方法研究[J].浙江電力,2018,37(7):68-73.

        LIN Lei,QIAN Ping,DONG Yi,et al.Research on substation pedestrian detection method based on deep learning[J].Zhejiang Electric Power,2018,37(7):68-73.

        [5] 劉培貞,賈玉祥,夏時(shí)洪.一種面向電力運(yùn)維作業(yè)的LSTM動(dòng)作識(shí)別方法[J].系統(tǒng)仿真學(xué)報(bào),2019,31(12):2837-2844.

        LIU Peizhen,JIA Yuxiang,XIA Shihong.An LSTM-based motion recognition method for power operation andmaintenance[J].Journal of System Simulation,2019,31(12):2837-2844.

        [6] 丘浩,張煒,彭博雅,等.基于YOLOv3的特定電力作業(yè)場(chǎng)景下的違規(guī)操作識(shí)別算法[J].電力科學(xué)與技術(shù)學(xué)報(bào),2021,36(3):195-202.

        QIU Hao,ZHANG Wei,PENG Boya,et al.Illegaloperation recognition algorithm based on YOLOv3 in specific poweroperation scenario[J].Journal of Electric Power Science and Technology,2021,36(3):195-202.

        [7] 常政威,彭倩,陳纓.基于機(jī)器學(xué)習(xí)和圖像識(shí)別的電力作業(yè)現(xiàn)場(chǎng)安全監(jiān)督方法[J].中國(guó)電力,2020,53(4):155-160.

        CHANG Zhengwei,PENG Qian,CHEN Ying.Safety supervision method for power operation site based on machine learning and image recognition[J].Electric Power,2020,53(4):155-160.

        [8] WANG Y,YU S Q,WANG Y H,et al.GaitRecognition Based on Fusion of Multi-view Gait Sequences[M].Berlin:Springer-Verlag Berlin Heidelberg,2005.

        [9] REDMON J,F(xiàn)ARHADI A.YOLOv3:An Incremental Improvement[DB/OL].https://arxiv.org/abs/1804.02767v1,2021-07-13.

        [10]睢丙東,張湃,王曉君.一種改進(jìn)YOLOv3的手勢(shì)識(shí)別算法[J].河北科技大學(xué)學(xué)報(bào),2021,42(1):22-29

        SUI Bingdong,ZHANG Pai,WANG Xiaojun.A gesture recognition algorithm based on improved YOLOv3[J].Journal of Hebei University of Science and Technology,2021,42(1):22-29.

        [11]HE K M,GKIOXARI G,DOLLR P,et al.Mask R-CNN[C]//2017 IEEE International Conference on Computer Vision(ICCV).[S.l.]:IEEE,2017:2980-2988.

        [12]LINZAE R.Ultra-light-fast-generic-face-detector-1MB[DB/OL].https://github.com/Linzaer/Ultra-Light-Fast-Generic-Face-Detector-1MB,2021-07-13.

        [13]CHAOH Q,HE Y W,ZHANG J P,et al.GaitSet:Regarding gait as a set for cross-view gait recognition[J].Proceedings of the AAAI Conference on Artificial Intelligence,2019,33(1):8126-8133.

        [14]SZEGEDY C,IOFFE S,VANHOUCKE V,et al.Inception-v4,inception-ResNet and the impact of residual connections on learning[C]//Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence.[S.l.]:AAAI Press,2017:4278-4284.

        [15]HUANG G B,RAMESH M,BERG T,et al.Labeled Faces in the Wild:A Database for Studying Face Recognition in Unconstrained Environments[R/OL].https://people.cs.umass.edu/~elm/papers/lfw.pdf,2021-07-13.

        [16]HERMANS A,BEYER L,LEIBE B.In Defense of the Triplet Loss for Person Re-identification[DB/OL].https://arxiv.org/abs/1703.07737v2,2021-07-13.

        [17]IOFFE S,SZEGEDY C.Batch normalization:Accelerating deep network training by reducing internal covariate shift[C]//Proceedings of the 32nd International Conference on International Conference on Machine Learning.[S.l.]:JMLR,2015:448-456.

        [18]SRIVASTAVA N,HINTON G,KRIZHEVSKY A,et al.Dropout:A simple way to prevent neural networks fromoverfitting[J].Journal of Machine Learning Research,2014,15(1):1929-1958.

        [19]HAN J,BHANU B.Statistical feature fusion for gait-based human recognition[C]//Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.[S.l.]:IEEE,2004:I-II.

        [20]顧磊.基于圖像序列的人體步態(tài)識(shí)別方法研究[D].南京:南京理工大學(xué),2008.

        GU Lei.Research on Human Gait Recognition Methods Based on Image Sequences[D].Nanjing:Nanjing University of Science and Technology,2008.

        [21]LIU L F,JIA W,ZHU Y H.GaitRecognition using Hough Transform and Principal Component Analysis[M] Berlin:Springer-Verlag Berlin Heidelberg,2009:363-370.

        [22]CIESLAK M C,CASTELFRANCO A M,RONCALLI V,et al.t-distributed stochastic neighbor embedding (t-SNE):A tool for eco-physiological transcriptomic analysis[J].Marine Genomics,2020,51.doi:10.1016/j.margen.2019.100723.

        收稿日期:2021-07-18;修回日期:2021-10-24;責(zé)任編輯:張士瑩

        基金項(xiàng)目:國(guó)網(wǎng)浙江省電力有限公司科技資助項(xiàng)目(5211DS19002K);國(guó)家自然科學(xué)基金基礎(chǔ)科學(xué)中心資助項(xiàng)目(62088101)

        第一作者簡(jiǎn)介:王劉旺(1988—),男,安徽安慶人,高級(jí)工程師,博士,主要從事人工智能在電力系統(tǒng)應(yīng)用方面的研究。

        E-mail:mylovelysada@foxmail.com

        王劉旺,鄭禮洋,葉曉桐,等.

        基于人臉與步態(tài)特征的室外作業(yè)場(chǎng)景身份核驗(yàn)方法

        [J].河北科技大學(xué)學(xué)報(bào),2021,42(6):635-642.

        WANG Liuwang,ZHENG Liyang,YE Xiaotong,et al.

        Identity verification method based on face and gait features in outdoor operation scenes

        [J].Journal of Hebei University of Science and Technology,2021,42(6):635-642.

        猜你喜歡
        模式識(shí)別人臉識(shí)別
        人臉識(shí)別 等
        揭開(kāi)人臉識(shí)別的神秘面紗
        紫地榆HPLC指紋圖譜建立及模式識(shí)別
        中成藥(2018年2期)2018-05-09 07:19:52
        基于(2D)2PCA-LBP 的人臉識(shí)別方法的研究
        電子制作(2017年17期)2017-12-18 06:40:55
        人臉識(shí)別在高校安全防范中的應(yīng)用
        電子制作(2017年1期)2017-05-17 03:54:46
        淺談模式識(shí)別在圖像識(shí)別中的應(yīng)用
        第四屆亞洲模式識(shí)別會(huì)議
        可拓模式識(shí)別算法中經(jīng)典域的確定方法
        基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
        第3屆亞洲模式識(shí)別會(huì)議
        99精品欧美一区二区三区美图 | 人妻熟女中文字幕在线视频| 亚洲天堂av一区二区| 成人免费无码视频在线网站 | 精品国产一区二区三区AV小说| 国产av一区二区三区在线| 日本熟妇另类一区二区三区| 亚洲国产成人精品无码一区二区| 国产美女精品aⅴ在线| 国产丝袜美腿诱惑在线观看| 爆操丝袜美女在线观看| 色橹橹欧美在线观看视频高清| 黄色毛片视频免费| 亚洲天堂av在线免费看| 久久午夜av一区二区三区| 亚洲色欲综合一区二区三区| 午夜国产一区二区三区精品不卡| 亚洲av日韩av天堂久久不卡| 伊人久久大香线蕉午夜av| 无码国产午夜福利片在线观看 | 精品国产97av一区二区三区| 婷婷久久国产综合精品| 色五月丁香五月综合五月4438| 国产亚洲sss在线观看| 亚洲桃色蜜桃av影院| 蜜臀亚洲av无码精品国产午夜.| 99久久免费看少妇高潮a片特黄| 杨幂国产精品一区二区| 91精品国产一区国产二区久久 | 亚洲色无码中文字幕| 久久亚洲中文字幕乱码| 日本黄网站三级三级三级| 亚洲熟女网站| 亚洲国产女同在线观看| 国模精品一区二区三区| 欧韩视频一区二区无码| 少妇勾引视频网站在线观看| 日日噜噜夜夜狠狠久久丁香五月 | 日本午夜国产精彩| 日本成人中文字幕亚洲一区 | 99久久人妻精品免费二区|