亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于視覺的對人員在崗行為分析的算法

        2021-06-28 12:42:04馮高敏劉雨佳
        計算機工程與設(shè)計 2021年6期
        關(guān)鍵詞:關(guān)鍵點人臉頭部

        馮高敏,劉雨佳,2

        (1.深圳供電局有限公司 安全監(jiān)管部,廣東 深圳 518000;2.浙江大學(xué) 電氣工程學(xué)院,浙江 杭州 310058)

        0 引 言

        雖然目前我國的電力生產(chǎn)的自動化水平較高,但是仍然需要人員電力生產(chǎn)的過程進行監(jiān)管,以及對電力線路和輸電過程進行監(jiān)控,同時對電力故障進行及時的通報和處理[2]。因此,仍然需要人員進行24小時值班。但由于工作人員在值班過程中缺乏有效監(jiān)管,存在著工作不專心、分神等情況。容易引發(fā)未能及時處理突發(fā)問題等情況,可能會導(dǎo)致嚴重后果[3]。同時,由于人體身體機能的原因,當(dāng)人員在夜間值班時,容易感到疲勞和瞌睡。目前解決此類問題的方法較少,因此,為了防止值班人員未能專心處理工作事宜,本文提出了一種基于視頻的電力值班人員的狀態(tài)判斷算法(WATCH)。該算法主要由以下3個部分組成:人員頭部姿態(tài)估計、人員面部關(guān)鍵點檢測以及人員狀態(tài)的判斷。

        相對于現(xiàn)有算法,本文的創(chuàng)新點有以下幾點:①在WATCH算法中提出了一種基于流行學(xué)習(xí)的方法,并結(jié)合有向梯度直方圖、廣義判別公共向量和連續(xù)局部回歸,對人員頭部姿態(tài)進行估計;②對人臉關(guān)鍵點檢測主要是從TREE算法中提取高斯引導(dǎo)的關(guān)鍵點位置圖,并通過關(guān)鍵點回歸網(wǎng)絡(luò)預(yù)測人臉關(guān)鍵點;③為了提高準確性,WATCH算法在人員狀態(tài)判斷中結(jié)合多個特征狀態(tài),對人員狀態(tài)進行了估計。

        1 頭部姿態(tài)估計

        人員在非工作狀態(tài)和疲勞狀態(tài)時,其頭部姿態(tài)會發(fā)生變化,為了更好檢測人員狀態(tài),在此,將人員的頭部姿態(tài)作為狀態(tài)檢測標準的一部分,所以WATCH算法先對人員的頭部姿態(tài)進行估計。

        在WATCH算法中對頭部姿態(tài)估計框架由3個主要部分組成:基于方向梯度直方圖計算的初始特征提取、基于廣義判別公共向量(GDCV)的多值嵌入投影和由樣條擬合以及多元局部回歸組成的連續(xù)回歸。圖1描述了該方法的具體步驟以及每個步驟中涉及的子步驟。

        圖1 頭部姿態(tài)估計流程

        1.1 HOG特征提取

        首先,在計算最終特征嵌入空間之前,提取HOG特征以增強圖像中的判別信息。其基本思想是,局部物體的外觀和形狀具有良好的局部強度梯度和邊緣方向的分布特征,而對光照變化和背景的雜亂變化不太敏感。雖然可以直接使用原始圖像作為直接輸入來生成流形嵌入,但是使用HOG特征得到的空間增強了姿勢方向之間的區(qū)分。

        WATCH算法選擇定向梯度(HOG)描述器的局部歸一化直方圖,是因為它們相對于其它現(xiàn)有特征集具有優(yōu)異的檢測邊緣方向的性能。這些描述器的實現(xiàn)可以通過將圖像分割成較小的連接區(qū)域(單元),并且對于每個單元,計算單元內(nèi)像素的梯度方向直方圖(即邊緣方向)。在每個單元中,HOG特征提取無需平滑即可計算居中的水平和垂直漸變方向和大小。最后,根據(jù)直方圖或附近的單元或塊,對直方圖進行標準化。然后,這些直方圖的組合表示描述器,使得通過強度梯度或邊緣方向的分布來描述圖像中的局部對象外觀和形狀。整個HOG特征提取步驟概括如下:①計算待描述單元區(qū)域的梯度;②根據(jù)方向放入bin中;③將單元分成大的塊;④標準化每個塊。

        1.2 GDCV嵌入

        一旦計算出HOG特征,WATCH就要找到一個線性映射或投影到特征流形上,在特征流形上,輸入圖像與其角姿態(tài)之間的對應(yīng)比在原始空間中更容易估計。

        雖然許多降維方法,如主成分分析(PCA)或線性判別分析(LDA)可用于計算該嵌入,但應(yīng)考慮頭部姿勢估計問題的兩個特殊特征。首先,相同或非常接近的角度對應(yīng)的姿勢在投影后應(yīng)保持在一起,而角度非常不同的姿勢應(yīng)盡可能分開,以便以后實現(xiàn)有效的回歸。其次,該方法應(yīng)該能夠處理人臉圖像數(shù)據(jù)的大維度(甚至更大的HOG特征維度)與訓(xùn)練集中的可用樣本數(shù)相比,這導(dǎo)致了眾所周知的小樣本問題(SSS),在計算過程中產(chǎn)生奇異矩陣[4]。

        由于廣義判別公共向量(GDCV)[5]結(jié)合了這兩個性質(zhì),因此在WATCH的框架中提出了廣義判別公共向量(GDCV)。一方面,它提供了判別子空間,在計算機視覺和機器學(xué)習(xí)中具有良好的泛化特性,而不必考慮SSS假設(shè)。另一方面,GDCV是一種有監(jiān)督的技術(shù),利用類別信息,通過最大化類別之間的距離來獲得最有判別性的空間,同時最小化同一類別內(nèi)的樣本之間的距離。在WATCH的設(shè)置中,類是轉(zhuǎn)向(yaw)和俯仰(pitch)的可能角度。雖然角度估計問題在現(xiàn)實中是一個連續(xù)的問題,會產(chǎn)生無窮多個類,但實際上,訓(xùn)練中的角度數(shù)量是離散的和有限的,因為它受到訓(xùn)練集中兩個姿勢之間的獲取過程和步數(shù)的限制。

        (1)

        (2)

        (3)

        對于給定的α值,滿足上述條件的投影基可以通過Ur獲得,這樣r被重新分配。算法1給出了GDCV方法。

        Algorithm 1:GDCV Method

        Input:X∈Rd×M,α

        通過使用投影矩陣WGDCV,并結(jié)合式(4),可以將任何樣本xi投影到判別子空間中,以便更容易地分類

        (4)

        考慮到訓(xùn)練集通常偏向于某些角度,由于數(shù)據(jù)集通常是以固定的間隔記錄的,因此利用這一特性來減少在這些情況下投影中的噪聲。具體地說,如果該距離di,j低于小閾值(參考式(5)),則將先前的投影樣本i細化到最近的判別公共向量j的位置。否則,如式(4)所示,投影保持不變

        (5)

        每個公共向量的閾值計算為到所有其它公共向量的最小距離的三分之一。具體公式如下

        (6)

        1.3 多元回歸

        1.3.1 B-樣條

        B-樣條是具有方便性質(zhì)的數(shù)學(xué)曲線[6]。曲線重建問題是尋找B-樣條函數(shù)f,使得隱式曲線f(xi,Y(xi))=0和點云之間的幾何距離盡可能小。同時,利用隱式曲線具有最小的簡化薄板能量的條件,期望曲線具有良好的質(zhì)量。根據(jù)Pk控制點和Bk(xi)的B-樣條基函數(shù)定義了曲線Y(xi)

        (7)

        1.3.2 多元線性回歸

        估計的頭部姿態(tài)角的最終預(yù)測由回歸模型提供,該模型描述了因變量Z=[yaw,pitch]和一個或多個獨立(解釋性)變量Y之間的關(guān)系。在多元線性回歸的特殊情況下,一般模型可以寫成如下

        Z=Yβ+ε

        (8)

        同時可以將式(8)改寫為

        (9)

        zil=β0l+β1lyi1+β2lyi2+…+βklyik+εil是第i個響應(yīng)(i=1,…,M)的第l個輸出(l=1,…,d')。βk'l是第k個回歸系數(shù)(k'=1,…,k),εil是第i個噪聲項,用于模擬隨機誤差。由于轉(zhuǎn)向角和俯仰角是估計的,但是該方法可以被裁剪成只估計其中一個,或者進一步擴展到估計側(cè)傾角。k由前一步嵌入空間的維數(shù)給出,k=(c-1)。

        給定一組訓(xùn)練數(shù)據(jù)Y及其相應(yīng)的解Z,可以很容易地將回歸參數(shù)估計為

        β=(YTY)-1YTZ

        (10)

        1.4 訓(xùn)練和測試

        圖2展示了訓(xùn)練框架的主要步驟以及相關(guān)的參數(shù)。

        圖2 訓(xùn)練方法和參數(shù)

        在測試過程中,按照圖3所示的工作流程計算新樣本的頭部姿勢。

        圖3 測試方法

        總而言之,讓訓(xùn)練集X由M個樣本及其對應(yīng)的角度Z組成,算法2展示了MATCH算法頭部姿態(tài)估計框架的主要步驟。

        Algorithm 2:Main Steps of the Framework Propose to Head Pose Estimation

        Input:X∈Rd×M,Z∈RM×1 or 2

        (1)ComputeXHOG=HOG(X).

        (4)Computeβby using Eq.10.

        Test:xtest

        (1)ComputextestHOG=HOG(xtest).

        (4)ProjectxtestGDVinto the curveY.

        (5)The angular prediction is allocated asxtestGDCVβ.

        2 人臉關(guān)鍵點檢測

        在日?;顒又校^部的運動狀態(tài)以外,面部表情也是反映工作人員的狀態(tài)的重要的評判標準。為了使判斷更為準確,WATCH算法通過人臉關(guān)鍵點來檢測人員的面部表情,本節(jié)將具體說明在本方法中所用到的人臉關(guān)鍵點獲取的原理。

        本方法使用HOG+SVM人臉檢測算法,將最佳邊框檢測方法作為TREE算法[7]的核心,如圖4所示。

        圖4 使用不同關(guān)鍵點檢測方法結(jié)果

        如上所述,在使用MTCNN[8]的情況下,這是另一個有效的人臉檢測模型,它通過聯(lián)合級聯(lián)多任務(wù)學(xué)習(xí)方法學(xué)習(xí)了不同尺度的3個網(wǎng)絡(luò),但是該方法會在遵循TREE算法的初始邊框中出現(xiàn)錯誤的擬合問題。

        300 W數(shù)據(jù)集用于訓(xùn)練和測試。訓(xùn)練數(shù)據(jù)集由3148幅圖像組成,包含68個關(guān)鍵點真實位置,分別是LFPW、HELEN和AFW。測試數(shù)據(jù)集由689幅圖像和68個關(guān)鍵點真實位置組成,分別是LFPW、HELEN和IBUG。

        為了應(yīng)用來自TREE算法的關(guān)鍵點回歸方法,只使用HOG+SVM檢測到的訓(xùn)練圖像進行訓(xùn)練。因此,在3148幅的300 W圖像中使用3012幅圖像進行訓(xùn)練。

        對于關(guān)鍵點回歸網(wǎng)絡(luò),WATCH對ResNet[9]結(jié)構(gòu)進行了改進,該結(jié)構(gòu)易于處理,彌補了較深層次神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的缺點,即梯度信息通過殘差連接隨著網(wǎng)絡(luò)深度的增加而消失。

        WATCH中的關(guān)鍵點回歸網(wǎng)絡(luò)如圖5所示。

        圖5 WATCH的高斯引導(dǎo)關(guān)鍵點回歸網(wǎng)絡(luò)

        利用從TREE算法中獲取的先前關(guān)鍵點的信息,生成與輸入圖像大小相同的關(guān)鍵點特征圖,然后通過高斯核濾波生成高斯引導(dǎo)的關(guān)鍵點特征圖。輸入圖像和高斯引導(dǎo)的關(guān)鍵點特征映射在通道維度中連接起來,用作回歸網(wǎng)絡(luò)的4通道輸入圖像。

        如圖6所示,使用高斯引導(dǎo)的關(guān)鍵點特征圖,強調(diào)關(guān)于關(guān)鍵點位置的輸入信息,該信息可以被給予以使網(wǎng)絡(luò)能夠執(zhí)行更精確的關(guān)鍵點檢測。特征映射可以通過使用不同的高斯核大小進行修改。在WATCH算法中采用了ResNet50的高斯核,其大小為5×5。

        圖6 不同高斯核大小的高斯關(guān)鍵點特征映射

        為了使用TREE算法的先前關(guān)鍵點的關(guān)鍵點回歸,損失函數(shù)定義為

        L=‖x-(yTREE+yPRED)‖2

        (11)

        式中:x是給定的關(guān)鍵點真實信息,yTREE是TREE的初始關(guān)鍵點。網(wǎng)絡(luò)輸出yPRED是關(guān)于將先前的關(guān)鍵點移動到真實位置的向量信息。

        一般來說,人臉關(guān)鍵點檢測的準確度計算為點方向歸一化歐氏距離的平均值。MATCH算法使用標準化平均誤差計算公式為

        (12)

        式中:x代表關(guān)鍵點的真實位置,而y是回歸網(wǎng)絡(luò)的預(yù)測。dinter是左眼和右眼界標平均坐標之間的歐幾里得距離的眼距。然后,將眼距用于除以平均誤差。N是關(guān)鍵點的數(shù)量,NME是所有關(guān)鍵點的平均誤差值。圖7展示了利用WATCH算法對人員張嘴狀態(tài)下的關(guān)鍵點標記結(jié)果。

        圖7 張嘴狀態(tài)下人臉關(guān)鍵點的位置

        3 狀態(tài)判斷

        3.1 頭部狀態(tài)判斷

        通過前面章節(jié)的計算,可以獲得被檢測者的頭部姿勢估計,以及頭部轉(zhuǎn)向和俯仰角度的估計。通過對頭部姿態(tài)的獲取可以得到被檢測者在檢測過程中是否存在如打瞌睡、分心等情況。結(jié)合3.2節(jié)以及3.3節(jié)內(nèi)容,可以對被檢測者狀態(tài)進行分析。

        3.2 眼睛狀態(tài)判斷

        如前所述,在一定程度上,眼睛的狀態(tài)表明人員是否昏昏欲睡。因為清醒和昏昏欲睡的人閉上眼睛的時間有顯著差異。文獻[10]提出了一種描述瞳孔形狀的橢圓擬合方法。該方法首先用傳統(tǒng)的圖像處理方法分割瞳孔。然后,用代表眼睛形狀的白色像素來擬合橢圓。最后,利用橢圓長軸與短軸的比值來評價眼睛的狀態(tài)。

        但是它的性能可能受到以下因素的限制:①像素值是敏感的。多變的環(huán)境容易使圖像分割效果變差。②在實際應(yīng)用中,由于瞳孔與眼鏡之間的像素值非常接近,導(dǎo)致假橢圓擬合。WATCH算法使用了一個新的更穩(wěn)定的參數(shù)來評價人員的眼睛狀態(tài)。它避免了傳統(tǒng)的圖像處理,比橢圓擬合方法更穩(wěn)定、更精確。

        在前一節(jié)中,得到了基于的面部標志。每只眼睛周圍有6個點來定位眼睛的位置。如圖8所示,眼睛關(guān)鍵點的分布在開閉狀態(tài)之間存在顯著差異。在WATCH算法中,眼睛寬高比被用來記錄眨眼頻率。

        圖8 不同狀態(tài)下眼點分布的差異

        根據(jù)眼睛關(guān)鍵點的位置,可通過以下方法計算

        (13)

        式中:Pi,i=1,2,…,6是眼睛關(guān)鍵點的坐標。

        如圖9所示,當(dāng)人員眼睛睜開時,ES值大于0.2。相反,ES小于0.2。

        圖9 開閉狀態(tài)下的ES的值

        3.3 嘴巴狀態(tài)判斷

        當(dāng)被檢測者在說話唱歌或者疲勞時,嘴巴都會產(chǎn)生變化,因此探究嘴巴變化也是對人員狀態(tài)監(jiān)控的重要方法。如圖7所示,當(dāng)利用前文所述的方法獲取了嘴部的關(guān)鍵點后。利用關(guān)鍵點的坐標計算嘴巴張角(MOA),通過張角的大小來判斷,嘴巴是否處于張開狀態(tài),具體計算公式如下

        (14)

        如圖10所示,式(14)中θ1和θ2為嘴巴兩側(cè)的張角,兩個張角值通過分別計算A,B,C,D,E,F這6個點的坐標的得到。

        圖10 MOA計算

        3.4 人員狀態(tài)判斷

        根據(jù)文獻[11]的研究可知,在現(xiàn)實環(huán)境中,當(dāng)被檢測人員感到瞌睡、分心時,頭部姿態(tài)都會發(fā)生變化,尤其是當(dāng)人員處于與他人交談閑聊過程中,往往頭部會發(fā)生轉(zhuǎn)向,通過統(tǒng)計可知,一般在與兩側(cè)人員聊天時,頭部轉(zhuǎn)動最大角度為75°,因此從左往右轉(zhuǎn)動角度變化范圍為0°~150°。在WATCH算法中通過計算視頻流中人員頭部轉(zhuǎn)動范圍來估計該人員是否存在與他人閑聊、分心等非工作情況。同時,當(dāng)人員處于瞌睡狀態(tài)時,頭部會向下傾斜,角度最大為60°。所以,WATCH算法通過判斷頭部的向下傾斜角度來判斷人員是否處于瞌睡狀態(tài)。并且在現(xiàn)實環(huán)境中,當(dāng)人員處于瞌睡狀態(tài)時,往往頭部會多次向下傾斜。因此,WATCH算法還統(tǒng)計視頻流1 min內(nèi),頭部向下傾斜的次數(shù),當(dāng)次數(shù)大于5次時,認為該人員處于疲勞狀態(tài)。

        根據(jù)文獻[12]可知,當(dāng)人員疲勞時,視頻中1 min內(nèi)閉眼幀數(shù)在30%以上,因此在WATCH算法中,設(shè)置百分比閾值為30%,同時,當(dāng)人瞌睡時,單次閉眼時間較長,在此,當(dāng)單次閉眼時間大于2 s時,判定被檢測者為疲勞狀態(tài)。

        由前面內(nèi)容可知,當(dāng)被檢測者在進食、聊天、唱歌、打哈欠時、嘴巴都會張開。但是不同的嘴巴張角,代表著不同活動,通過大量數(shù)據(jù)統(tǒng)計以及文獻[13]和文獻[14]可知,當(dāng)人在打哈欠時,嘴巴張角為70°左右,當(dāng)人在聊天或者唱歌時,嘴巴張角一般為30°~50°,當(dāng)在吃東西時嘴巴張角為60°。因此,通過設(shè)置不同的角度閾值,來判斷人員可能的活動。同時,為了更加精確,WATCH算法還統(tǒng)計了1 min視頻流內(nèi),嘴巴張閉次數(shù),當(dāng)人員在聊天時,嘴巴張開次數(shù)大約25次,當(dāng)人員在進食時,嘴巴張開次數(shù)大約為10-15次,當(dāng)人員疲勞時,打哈欠導(dǎo)致嘴巴張開次數(shù)大約為2次。

        整個人員狀態(tài)判斷過程的具體算法如下:

        Algorithm 3:State estimation algorithm for WATCH

        Input:frames of the video

        Output: Evaluation of people’s state

        Load the frames of video

        Assess the states of the eye, mouth and head

        Calculaterthe ratio of the frame of eye closure in 1 minute andta duration time of eye closure.

        Calculateythe number of opening the mouth in 1 minute

        and MOA.

        Calculatetpthe number of head pitch in 1 minute andhp,hythe angle ofpitchandyaw.

        Iftp>5then

        wtp=1

        Endif

        Ifr>30%then

        wr=1

        Endif

        Ift>2 s and MOA=0then

        wt=1

        Endif

        If2≤y<10then

        wy=1

        Elseif10≤y<20then

        Peopleiseating

        Elseify>20then

        Peopleistalking

        Endif

        If60°

        wMOA=1

        Elseif50°

        Peopleiseating

        Elseif30°

        Peopleistalking

        Endif

        If-60°

        People isdrowsy

        Endif

        CalculateTthe total value of these weight. (T=wtp+wr+wt+wy+wMOA)

        IfT≥3then

        People is drowsy

        Else

        People is awake

        Endif

        4 實驗與結(jié)果

        4.1 實驗設(shè)置和數(shù)據(jù)集

        圖11展示了WATCH算法的檢測系統(tǒng)原型,其中顯示了系統(tǒng)的不同組件及連接方式。該原型用一個羅技的網(wǎng)絡(luò)攝像頭作為視屏采集的工具,采用樹莓派3 Model B+作為預(yù)處理器,對圖像進行處理。樹莓派有一個SD卡插入板上的插槽,它充當(dāng)樹莓派的硬盤存儲器。整個系統(tǒng)由USB供電,視頻輸出可以連接到監(jiān)視器等,也能將視頻流通過WIFI傳輸給云端服務(wù)器。本文為了方便處理,將視頻信號通過WIFI傳輸給個人電腦,進行后續(xù)操作。電腦型號為Macbook Pro筆記本電腦,3.5 Ghz酷睿i7處理器,16 G內(nèi)存。程序運行環(huán)境為python3.6,Anaconda1.9.7,OpenCV3.4和Tensorflow 1.8.

        圖11 WATCH算法檢測原型系統(tǒng)

        在頭部姿態(tài)估計部分,WATCH算法采用了CMU-PIE[15]、Taiwan[16]、PRIMA[17]、CASPEAL1 and 2[18],5個數(shù)據(jù)集來評估性能,在人臉關(guān)鍵點檢測部分,WATCH算法采用了300 W關(guān)鍵點檢測公開數(shù)據(jù)集來評估性能。對于狀態(tài)評估,由于目前未有公開的相關(guān)數(shù)據(jù)集,因此采用了自制數(shù)據(jù)集的方法,通過采集20位志愿者(男性志愿者為15人,女性為5人,年齡分布為25歲-48歲,平均年齡35歲,男性平均身高為174.5 cm,女性平均身高為163.2 cm)的相關(guān)視頻信息,制作成數(shù)據(jù)集。每段視頻時長達1 h。并且需要在視頻中模擬出瞌睡、清醒、聊天、進食等相關(guān)狀態(tài)。

        4.2 算法性能

        4.2.1 頭部姿態(tài)評估

        在本實驗中,在同一數(shù)據(jù)集的不同分區(qū)上進行訓(xùn)練和測試。具體來說,使用所有5個標準數(shù)據(jù)集,并用50%的樣本進行訓(xùn)練,用剩余的50%進行測試,交叉驗證作為評估方式,以避免偏向于特定的訓(xùn)練/測試分割,其中每個實驗用不同的隨機訓(xùn)練/測試樣本選擇運行10次。在相同的訓(xùn)練/測試設(shè)置中,WATCH方法與HPE[19]進行了比較。DRMF[20]和OPENFACE[21]也被加入到比較中,以供參考。結(jié)果見表1。

        表1 使用完整頭部圖像作為輸入數(shù)據(jù)集的平均誤差

        從表中可以看出,首先,WATCH使用的方法有著最佳的結(jié)果,相對于第二好的方法HPE,WATCH使用的方法誤差度大大降低。雖然HPE的轉(zhuǎn)向誤差有0°到37°,俯仰誤差最大增加25°,但根據(jù)數(shù)據(jù)集的不同,WATCH使用的方法在轉(zhuǎn)向誤差方面僅從0°增加到9°,俯仰誤差增加到20°。還可以注意到,俯仰角似乎更難估計,盡管這很可能是由于訓(xùn)練示例較少的結(jié)果,因為并非所有數(shù)據(jù)集都具有不同俯仰的圖像。

        4.2.2 關(guān)鍵點評估

        圖12展示了WATCH中的關(guān)鍵點檢測方法與TREE[7]和TCDCN[22]的結(jié)果比較。

        圖12 3種方式的結(jié)果比較(NME:10-2)

        在圖12中,第一列為TREE,第二列為TCDCN,第三列為本文方法。從圖中可以得出,帶有HOG+SVM檢測邊框的TCDCN方法,由于檢測與關(guān)鍵點之間的不能對齊,所以其性能較差。WATCH使用的回歸網(wǎng)絡(luò)表現(xiàn)出最好的性能,該方法為TREE方法的優(yōu)化版本。這驗證了初始先驗信息對于回歸任務(wù)的重要性。

        圖13顯示了TREE和本文方法對于相同數(shù)據(jù)集的輸出結(jié)果。從圖中可以看到,WATCH算法使用的人臉關(guān)鍵點檢測算法的網(wǎng)絡(luò)輸出的方向向量更接近于實際情況。

        圖13 人臉關(guān)鍵點檢測結(jié)果對比

        4.2.3 人員狀態(tài)評估

        利用制作好的數(shù)據(jù)集,對WATCH方法進行了評估,結(jié)果見表2。

        表2 不同環(huán)境下WATCH對人員行為評估準確性

        從表中可以看出,WATCH算法對于人員疲勞情況判斷準確率較高,平均能達到95%。對于進食狀態(tài)評估較差,精確度只有79%。通過分析可知,導(dǎo)致該結(jié)果的原因在于由于進食情況下人員張嘴大小較小,并且次數(shù)較少,所以導(dǎo)致了精確度不高。

        目前由于現(xiàn)有的利用視頻對人員狀態(tài)進行檢測的算法重點大多數(shù)在于檢測人員是否疲勞,未涉及到是否存在人員分心狀態(tài),所以在此只對比WATCH算法和其它算法對人員疲勞檢測的結(jié)果,見表3。

        表3 WATCH算法與其它算法對人員疲勞檢測結(jié)果

        從表中可知,WATCH算法的平均精確度是4種算法里面最高的,尤其是相對于Picot等[24]算法,精度提高了近13%。因此WATCH算法在疲勞檢測方面能夠滿足實際需求。

        5 結(jié)束語

        針對電力值班人員在非人為監(jiān)督情況下的狀態(tài)判斷,本文提出了一種名為WATCH的基于視覺的人員監(jiān)視方法,該方法利用人的頭部姿態(tài)以及人臉關(guān)鍵點,對人員狀態(tài)進行判斷,可以知道人員是否存在瞌睡,進食或者聊天等行為,從而達到對電力人員行為的監(jiān)督。為更好地實現(xiàn)WATCH算法,本文還提出了一種人員頭部姿態(tài)估計的方法,以及一種人臉關(guān)鍵點定位方法。從實驗結(jié)果來看,WATCH算法滿足日常工作需求,具有較好性能。

        猜你喜歡
        關(guān)鍵點人臉頭部
        聚焦金屬關(guān)鍵點
        肉兔育肥抓好七個關(guān)鍵點
        有特點的人臉
        頭部按摩治療老伴失憶
        火箭的頭部為什么是圓鈍形?
        軍事文摘(2020年22期)2021-01-04 02:16:38
        三國漫——人臉解鎖
        動漫星空(2018年9期)2018-10-26 01:17:14
        自適應(yīng)統(tǒng)計迭代重建算法在頭部低劑量CT掃描中的應(yīng)用
        馬面部與人臉相似度驚人
        醫(yī)聯(lián)體要把握三個關(guān)鍵點
        長得象人臉的十種動物
        奇聞怪事(2014年5期)2014-05-13 21:43:01
        日本男人精品一区二区| 亚洲欧美国产日韩天堂在线视| 人妻丰满熟妇av无码区hd| 日本亚洲成人中文字幕| 精品少妇大屁股白浆无码| 国产精品一区区三区六区t区| 国产av一卡二卡日韩av| 日本一区二区视频免费在线看| 97人人超碰国产精品最新| 久久国产A√无码专区亚洲| 亚洲国产精一区二区三区性色| 亚洲av网一区二区三区成人| 久久婷婷五月综合色高清| 亚洲精品久久久av无码专区| 亚洲综合久久成人a片| 91久久国产情侣真实对白| 免费啪啪av人妻一区二区 | 日韩av高清无码| 亚洲无码观看a| 亚洲精品久久视频网站| 超碰cao已满18进入离开官网| 日韩欧美中文字幕不卡| 精品在线视频免费在线观看视频| 一区二区三区国产免费视频| 无遮无挡爽爽免费毛片| 亚洲AⅤ无码国精品中文字慕 | 四虎国产精品永久在线国在线| 国产99在线视频| 开心激情网,开心五月天| 亚洲精品无码精品mv在线观看| 欧美日韩中文国产一区发布| 日韩美女高潮流白浆视频在线观看| 水蜜桃网站视频在线观看| 永久免费人禽av在线观看| 亚洲第一网站免费视频| 一区二区免费国产a在亚洲| 国产精品国产三级国产a | 日本大片在线看黄a∨免费| 精品一区二区三区影片| 二区视频在线免费观看| 国产亚洲日本精品无码|