亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于眼睛狀態(tài)多特征融合的疲勞駕駛檢測(cè)

        2022-11-25 07:26:10黃德啟
        關(guān)鍵詞:人眼差值人臉

        任 俊,魏 霞,黃德啟,劉 棟

        (新疆大學(xué) 電氣工程學(xué)院,新疆 烏魯木齊 830047)

        0 引 言

        視覺(jué)檢測(cè)[1-3]主要提取面部特征來(lái)判斷疲勞狀態(tài),然而這些特征提取會(huì)受到外界干擾,如何避免光照、眼鏡以及姿勢(shì)等因素的影響,提高疲勞狀態(tài)檢測(cè)的精度和速度是研究的關(guān)鍵。其中,吳良超等[4]提出構(gòu)建特征點(diǎn)動(dòng)態(tài)變化圖和神經(jīng)網(wǎng)絡(luò)的動(dòng)態(tài)表情結(jié)合的識(shí)別法,該方法通過(guò)特征點(diǎn)動(dòng)態(tài)變化圖提取人臉輪廓信息,用卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)提取人臉的紋理信息、人臉序列的時(shí)序信息。樊飛等[5]圍繞著人臉特征點(diǎn)檢測(cè)改進(jìn)算法進(jìn)行疲勞檢測(cè),通過(guò)牛頓提升樹(shù)結(jié)合統(tǒng)計(jì)量特征,提出CNBT人臉特征點(diǎn)檢測(cè)算法,能夠有效提高疲勞識(shí)別準(zhǔn)確率和穩(wěn)定性,但是沒(méi)有考慮駕駛員頭部姿勢(shì)變化等情況,在真實(shí)環(huán)境下的實(shí)用性有待提高。對(duì)于上述提到的問(wèn)題,需要設(shè)計(jì)一種實(shí)用性廣泛的疲勞檢測(cè)框架尤為重要,同時(shí)由于駕駛員會(huì)有不同程度的頭部偏轉(zhuǎn),采用單眼檢測(cè)來(lái)代替?zhèn)鹘y(tǒng)的雙眼檢測(cè)機(jī)制,增強(qiáng)檢測(cè)的范圍,提高實(shí)用性。根據(jù)特征點(diǎn)和二值圖像得到的縱橫比值、累積黑色素差值以及人眼水平投影高度和寬度比值作為支持向量機(jī)的3個(gè)輸入特征,進(jìn)而在三維立體圖形中得到眼睛狀態(tài)分類(lèi)結(jié)果,最后根據(jù)眼睛狀態(tài)計(jì)算ECR值作為眼部疲勞特征參數(shù)判斷駕駛員的疲勞狀態(tài)。

        1 圖像預(yù)處理及人臉檢測(cè)與跟蹤

        1.1 本文整體流程設(shè)計(jì)圖

        本文框架分為3個(gè)部分,經(jīng)過(guò)圖像預(yù)處理后檢測(cè)和跟蹤人臉,對(duì)定位好的3類(lèi)特征點(diǎn)進(jìn)行提取和校正,特征融合判別疲勞狀態(tài),本文設(shè)計(jì)流程如圖1所示。

        圖1 設(shè)計(jì)流程

        1.2 圖像濾波去噪與光照均衡化處理

        在實(shí)際采集駕駛員視頻和圖片時(shí)可能會(huì)受到周?chē)h(huán)境的噪聲和光照的影響,使得圖像變得模糊,因此需要先對(duì)采集的圖像進(jìn)行濾波去噪,提高后期人臉檢測(cè)和特征提取的準(zhǔn)確率。采用自適應(yīng)中值濾波[6]的方式,實(shí)際是利用中值濾波來(lái)消除孤立的斑點(diǎn),并采取自適應(yīng)鄰域中值代替是噪聲的原始像素值,再采用圖像動(dòng)態(tài)閾值的光照均衡化處理,使圖像的光照均勻分布,如圖2所示,均衡化處理后,圖片光照和亮度得到較好的改善,進(jìn)而有效提取人臉的特征。

        圖2 光照均勻化前后對(duì)比

        1.3 基于A(yíng)daBoost人臉檢測(cè)

        1.3.1 基于Haar-like特征的AdaBoost人臉檢測(cè)算法

        目前在人臉檢測(cè)過(guò)程中,人臉圖像可以用圖像灰度變化的特征來(lái)表征,而Haar-like特征[7]可以反映灰度變化。先用積分圖算法快速得到任意區(qū)域的像素和,再可以由像素灰度和差值來(lái)得到Haar-like模板特征。AdaBoost算法[8]用于人臉檢測(cè),是通過(guò)訓(xùn)練集訓(xùn)練弱分類(lèi)器,形成分類(lèi)效果較好強(qiáng)分類(lèi)器,進(jìn)而訓(xùn)練出最能代表面部特征,從而加快檢測(cè)速度和提高準(zhǔn)確率。其算法流程如圖3所示。

        圖3 AdaBoost算法流程

        1.3.2 實(shí)驗(yàn)結(jié)果分析

        對(duì)人臉特征識(shí)別完成后進(jìn)而對(duì)眼睛特征進(jìn)行檢測(cè),輸出可以識(shí)別的人臉區(qū)域和眼睛區(qū)域的矩形框,檢測(cè)效果如圖4所示,可以清楚標(biāo)識(shí)出來(lái)。

        圖4 人臉檢測(cè)效果

        1.4 面部目標(biāo)跟蹤算法

        考慮到在實(shí)際圖像采集的過(guò)程中,由于駕駛員面部偏移距離較小,都在一定范圍內(nèi),在第一次檢測(cè)到人臉之后,只需要跟蹤人臉上一幀人臉信息,快速獲得下一幀人臉位置信息。采用基于幀間差分法的Mean Shift算法[9]進(jìn)行人臉跟蹤,利用連續(xù)兩幀圖像之間的聯(lián)系,進(jìn)行差分運(yùn)算,然后利用二分閾值法提取邊緣區(qū)域,獲得下一幀人臉的位置信息,提高檢測(cè)速度。

        2 基于SVM的睜閉眼狀態(tài)識(shí)別

        2.1 基于級(jí)聯(lián)回歸樹(shù)的人臉特征點(diǎn)定位

        為了減少外界環(huán)境因素對(duì)人臉特征部位的檢測(cè)及定位的影響,在人眼檢測(cè)定位之前先使用了基于級(jí)聯(lián)回歸樹(shù)算法[10-12](ERT)對(duì)人臉的關(guān)鍵特征點(diǎn)進(jìn)行定位,然后在人臉特征點(diǎn)定位的基礎(chǔ)上,快速定位到人眼?;诩?jí)聯(lián)回歸樹(shù)算法是一種人臉對(duì)齊算法,不斷檢測(cè)特征點(diǎn)然后進(jìn)行更新,最后逐步定位到真實(shí)人臉位置。

        如圖5所示,ERT算法可以實(shí)現(xiàn)多個(gè)角度的人臉特征點(diǎn)定位且效果較好。

        圖5 不同角度人臉特征定位

        2.2 基于人眼特征點(diǎn)計(jì)算人眼縱橫比

        在提取人臉特征點(diǎn)之后,通過(guò)實(shí)驗(yàn)發(fā)現(xiàn),駕駛員在正常眨眼過(guò)程中,眼睛的特征點(diǎn)也會(huì)隨之變化,因此我們根據(jù)人眼特征點(diǎn)來(lái)求取眼睛的縱橫比值來(lái)表示人眼的狀態(tài)信息。而且縱橫比值不會(huì)因?yàn)轳{駛員面部位置和攝像頭距離改變而改變。如圖6所示P1到P6分別對(duì)應(yīng)人眼6個(gè)特征點(diǎn),眼睛縱橫比計(jì)算公式

        (1)

        圖6 人眼特征點(diǎn)分布

        由式(1)可知EAR由眼睛縱向長(zhǎng)度與橫向長(zhǎng)度比值得來(lái)的,當(dāng)頭部左右偏轉(zhuǎn)時(shí),眼睛的橫向長(zhǎng)度發(fā)生變化,當(dāng)頭部上下點(diǎn)動(dòng)時(shí),眼睛的縱向長(zhǎng)度發(fā)生變化。因此針對(duì)頭部左右偏轉(zhuǎn)和上下點(diǎn)動(dòng)時(shí)進(jìn)行特征點(diǎn)校正。圖7為眼睛縱向長(zhǎng)度變化。

        圖7 人眼縱向長(zhǎng)度變化

        圖7中l(wèi)0表示初始狀態(tài)下真實(shí)眼睛的縱向長(zhǎng)度,分別發(fā)生了點(diǎn)頭和抬頭,導(dǎo)致俯仰角β0變成β1和β2,l0也隨之變化為l1和l2。h0為l0投影到二維圖像的高度,h1為l1投影的高度,由于實(shí)際情況下點(diǎn)頭和偏轉(zhuǎn)眼睛真實(shí)縱向長(zhǎng)度不變,即l0=l1,則有

        (2)

        人眼左右偏轉(zhuǎn)變化和上述過(guò)程類(lèi)似,以w0和w1分別表示初始狀態(tài)下以及變化后的眼睛橫向長(zhǎng)度,α0和α1分別代表初始狀態(tài)下以及變化后的偏轉(zhuǎn)角,得到w0和w1關(guān)系

        (3)

        由此可以得到圖像中人眼縱橫比為

        (4)

        式中:EAR1是校正前眼睛縱橫比值,圖8是校正后的眼睛縱橫比值隨幀數(shù)變化的折線(xiàn)圖,由圖8可以看出,當(dāng)眼睛睜開(kāi)時(shí)縱橫比維持在0.32左右,當(dāng)縱橫比小于0.2時(shí)可視為閉眼狀態(tài)。因此可以通過(guò)計(jì)算人眼縱橫比值來(lái)判斷人眼狀態(tài)。

        圖8 人眼縱橫比值隨幀數(shù)變化

        2.3 基于自適應(yīng)閾值計(jì)算人眼黑色像素累積差值

        根據(jù)定位的人眼區(qū)域,先進(jìn)行人眼圖像二值化處理,再經(jīng)過(guò)中值濾波處理后顯示眼睛的輪廓,表1為人眼不同狀態(tài)下的二值圖像。

        表1 人眼不同狀態(tài)二值圖像

        在眼睛閉上的情況下,計(jì)算眼睛區(qū)域內(nèi)的黑色像素?cái)?shù)的累積差值,雖然睫毛和眼瞼等黑色區(qū)域可能會(huì)保留,但是瞳孔區(qū)域最大的黑色區(qū)域不會(huì)出現(xiàn),也就是說(shuō),當(dāng)眼睛閉上的時(shí)候,黑色像素?cái)?shù)量會(huì)比睜眼的時(shí)候大幅減少,然而,黑色像素的數(shù)量不僅會(huì)隨著眼睛狀態(tài)變化而變化,還會(huì)隨攝像頭與駕駛員面部的距離變化而變化,當(dāng)這個(gè)距離增大時(shí),眼睛區(qū)域黑色素的數(shù)量會(huì)減小。

        如圖9所示,圖(a)顯示了根據(jù)幀數(shù)變化的二值化區(qū)域內(nèi)的黑色像素?cái)?shù),看到在第101幀之后當(dāng)面部離開(kāi)攝像頭更遠(yuǎn)時(shí),眼睛區(qū)域的黑色像素減小,因此僅使用第101幀之前的閾值,就無(wú)法區(qū)分第101幀之后的眼睛是睜開(kāi)還是閉上的,可以采用連續(xù)圖像中眼睛區(qū)域的黑色素的差值。

        圖9 人眼睜閉過(guò)程中黑色像素值隨幀數(shù)變化

        當(dāng)采用的連續(xù)圖像中眼睛區(qū)域的黑色像素的差值作為特征時(shí),可以識(shí)別部分閉眼狀態(tài),但如圖(b)中在第41幀、105幀和106幀的差值小于靜態(tài)閾值,錯(cuò)誤地識(shí)別眼睛狀況,為了解決這一問(wèn)題,使用一種新的特征,即眼睛圖像中黑色像素?cái)?shù)的累積差值,當(dāng)檢測(cè)連續(xù)兩幀及以上圖像的差值小于0的條件下,將連續(xù)的差值進(jìn)行累加,如圖(c)中第一個(gè)滿(mǎn)足條件的情況出現(xiàn)在第40幀,而在第102幀時(shí),盡管差值小于0,但是它沒(méi)有在超過(guò)兩幀情況下保持,因此它不累加。

        然而對(duì)于如圖10所示,圖(a)這種情況,累積差值法在識(shí)別眼睛狀態(tài)時(shí)存在以下問(wèn)題,如圖(b)的第257和260幀所示,雖然它們顯示的是閉眼,但是由于差值大于0,它們不是累積的,導(dǎo)致圖(b)的第255幀到260幀都被錯(cuò)誤地識(shí)別為睜開(kāi)眼睛,因此使用了具有自適應(yīng)閾值的累積差值作為特征。

        圖10 自適應(yīng)人眼睜閉過(guò)程中黑色像素值隨幀數(shù)變化

        如圖11所示,將累積差與自適應(yīng)閾值的使用規(guī)則建模為有限狀態(tài)機(jī)[13](FSM),F(xiàn)SM有兩種狀態(tài),狀態(tài)0和狀態(tài)1,首先檢測(cè)當(dāng)前幀黑色像素與前一幀的差值是否大于或等于0,若大于或等于0設(shè)定為此時(shí)為狀態(tài)0并保持狀態(tài)不變,否則由狀態(tài)0變成狀態(tài)1,在狀態(tài)1時(shí),再檢測(cè)此時(shí)的差值是否小于閾值T(t)時(shí),若小于T(t)保持狀態(tài)1,并連續(xù)累積差值,否則,狀態(tài)1變成狀態(tài)0,差值不累積。

        圖11 有限狀態(tài)機(jī)

        基于自適應(yīng)閾值黑色像素算法如下

        (5)

        T(t)=α*|D(t-1)|,α∈[0,1]

        (6)

        FSM定義如下,其中ΔN(t) 為第t幀與前一幀的黑色像素?cái)?shù)差值,D(t-1) 為在t-1幀的累積差值,α為0到1之間的定值。

        通過(guò)自適應(yīng)閾值算法,如圖10(c)中255幀開(kāi)始差值小于0,設(shè)定為狀態(tài)1,且差值小于閾值,進(jìn)行連續(xù)累加差值,如圖10(c)中257幀和260幀差值可以正確累計(jì),因此第255幀到260幀可以正確判斷為閉眼狀態(tài)。

        2.4 基于積分投影計(jì)算人眼水平投影高度和寬度比值

        根據(jù)定位的人眼區(qū)域,提取人眼二值化圖像,再對(duì)二值化圖像進(jìn)行水平投影,得到如圖12所示不同狀態(tài)下人眼水平投影曲線(xiàn)。

        圖12 不同狀態(tài)下人眼水平投影曲線(xiàn)

        如圖12中所示,眼睛睜開(kāi)時(shí)縱坐標(biāo)跨度較大,橫坐標(biāo)峰值較小,而閉眼時(shí)縱坐標(biāo)跨度較小,橫坐標(biāo)峰值較大,但是實(shí)際情況二者差距不大,因此通過(guò)計(jì)算人眼水平投影的高度與寬度的比值來(lái)識(shí)別眼睛狀態(tài)。先計(jì)算水平投影曲線(xiàn)的高度h和寬度w,計(jì)算并保存h、w和h/w這3個(gè)值,分別記為H、W、K。當(dāng)滿(mǎn)足K值大于0.4時(shí),可以定義睜眼狀態(tài),否則為閉眼狀態(tài)。

        2.5 SVM分類(lèi)器融合多特征狀態(tài)識(shí)別

        SVM通過(guò)找出邊際最大的決策邊界,來(lái)對(duì)數(shù)據(jù)進(jìn)行分類(lèi)的分類(lèi)器。擁有更大的邊際的決策邊界在分類(lèi)中泛化誤差較小,從而使實(shí)際樣本間隔更大。通過(guò)SVM分類(lèi)器來(lái)進(jìn)行二分類(lèi),其中數(shù)據(jù)選取、處理、訓(xùn)練、測(cè)試都是基于PyCharm開(kāi)發(fā)環(huán)境和OpenCV視覺(jué)庫(kù)等平臺(tái)進(jìn)行具體實(shí)現(xiàn)的。

        2.5.1 數(shù)據(jù)選取

        本文從YawDD駕駛環(huán)境中拍攝的視頻數(shù)據(jù)集[13]、ZJU眨眼數(shù)據(jù)集[14]中各選取20人,男女各20人,其中20人戴眼鏡,20人不帶眼鏡,再?gòu)闹胁杉?000張睜眼圖像、4000張閉眼圖像,同時(shí)自己采集2000張睜眼圖像、2000張閉眼圖像,一共采集12 000張睜眼和閉眼狀態(tài)圖像。

        2.5.2 數(shù)據(jù)處理

        首先對(duì)每個(gè)樣本進(jìn)行提取人臉特征點(diǎn),然后通過(guò)式(4)計(jì)算眼睛縱橫比值記為第一個(gè)特征值F1、由自適應(yīng)閾值法得到的黑色像素累積差值記為第二個(gè)特征值F2、把水平投影高度和寬度的比值h/w記為第三個(gè)特征值F3,即對(duì)每個(gè)樣本提取3個(gè)特征值,3個(gè)特征值分別對(duì)應(yīng)X、Y、Z軸,對(duì)每個(gè)睜眼樣本和閉眼樣本都進(jìn)行特征提取操作。

        2.5.3 特征參數(shù)歸一化

        由于不同特征參數(shù)之間的量綱不同導(dǎo)致數(shù)值較小的特征參數(shù)在訓(xùn)練過(guò)程中的占比較小,需要對(duì)每個(gè)特征參數(shù)數(shù)據(jù)進(jìn)行歸一化處理,采用Z-score標(biāo)準(zhǔn)化方法,即求取原始參數(shù)數(shù)據(jù)的均值和標(biāo)準(zhǔn)差,再把均值和標(biāo)準(zhǔn)差進(jìn)行數(shù)據(jù)的標(biāo)準(zhǔn)化處理,使處理后的均值和標(biāo)準(zhǔn)差符合正態(tài)分布,然后再進(jìn)行以下轉(zhuǎn)化函數(shù)

        (7)

        式中:x*為歸一化后的值,x為原始特征值,μx為所有樣本數(shù)據(jù)的均值,σx為所有樣本數(shù)據(jù)的標(biāo)準(zhǔn)差。

        2.5.4 模型訓(xùn)練即參數(shù)尋優(yōu)

        SVM分類(lèi)器[15]可以表示為

        (8)

        (9)

        (10)

        式中:N是訓(xùn)練數(shù)據(jù)的總數(shù),yi∈{-1,1} 為訓(xùn)練樣本眼睛狀態(tài)類(lèi)別,-1表示閉眼狀態(tài),1表示睜眼狀態(tài),K(x,xi) 表示核函數(shù),系數(shù)ai可以通過(guò)由線(xiàn)性約束的二次規(guī)劃得到,常數(shù)b是偏差項(xiàng)。本文采取3個(gè)特征輸入,通過(guò)引入核函數(shù),支持向量機(jī)可以擴(kuò)展到非線(xiàn)性決策面上,然后利用支持向量確定可以區(qū)分兩類(lèi)的超平面,來(lái)尋找讓數(shù)據(jù)線(xiàn)性可分的高位空間。根據(jù)最小分類(lèi)誤差,RBF核函數(shù)分類(lèi)非線(xiàn)性情況效果較好,故本文采用RBF核函數(shù)進(jìn)行模型訓(xùn)練,式(9)為RBF核函數(shù),參數(shù)γ定義單個(gè)樣本的影響大小,式(10)為目標(biāo)方程,w和b是模型參數(shù),ξ參數(shù)為松弛變量,懲罰參數(shù)C是在錯(cuò)誤分類(lèi)樣本和分界面簡(jiǎn)單性之間進(jìn)行權(quán)衡,這兩個(gè)參數(shù)的選取對(duì)預(yù)測(cè)結(jié)果的精度非常關(guān)鍵。我們通過(guò)分類(lèi)器交叉驗(yàn)證法來(lái)尋找使預(yù)測(cè)結(jié)果最優(yōu)的參數(shù)C和γ,從收集到的特征值中選取2000組特征值分為10組,每次選9組為訓(xùn)練集,剩余1組為測(cè)試集,選取的所有特征值都經(jīng)過(guò)歸一化處理,測(cè)試結(jié)果標(biāo)簽保存到對(duì)應(yīng)類(lèi)別中,經(jīng)過(guò)尋優(yōu)發(fā)現(xiàn),當(dāng)參數(shù)C=1.92,γ=0.9時(shí),模型預(yù)測(cè)分類(lèi)效果較好。

        2.5.5 實(shí)驗(yàn)檢測(cè)

        當(dāng)用SVM分類(lèi)器融合校正后的特征點(diǎn)計(jì)算人眼的縱橫比值以及人眼二值圖像計(jì)算累積黑色素差值這兩個(gè)特征時(shí),得出的二維平面分類(lèi)結(jié)果如圖13所示,睜眼和閉眼這兩種類(lèi)別基本可以區(qū)分開(kāi)來(lái),但是還是有少量類(lèi)別區(qū)分錯(cuò)誤。當(dāng)用SVM分類(lèi)器融合校正后的特征點(diǎn)計(jì)算人眼的縱橫比值和人眼二值圖像計(jì)算累積黑色素差值以及人眼水平投影高度和寬度比值這3個(gè)特征時(shí),在三維立體坐標(biāo)系中進(jìn)行分類(lèi),如圖14所示,圖(a)和圖(b)采用了不同的角度展示分類(lèi)效果,在二維平面分類(lèi)錯(cuò)誤的點(diǎn)在三維坐標(biāo)系中得到正確的區(qū)分,分類(lèi)準(zhǔn)確率提升到97.51%。

        圖13 SVM二維平面分類(lèi)結(jié)果

        圖14 SVM三維立體分類(lèi)結(jié)果

        通過(guò)表2可以看出,提出基于融合多特征算法可以較準(zhǔn)確的識(shí)別眼睛的兩種狀態(tài),表3為不同算法對(duì)眼睛狀態(tài)的分類(lèi)準(zhǔn)確率對(duì)比,結(jié)果表明提出的SVM三維立體分類(lèi)的識(shí)別方法相較于SVM二維平面分類(lèi)的狀態(tài)識(shí)別方法分類(lèi)準(zhǔn)確率更高,與文獻(xiàn)[16]相比,本文算法睜眼和閉眼識(shí)別的準(zhǔn)確率也都要更高。

        表2 基于SVM融合多特征算法分類(lèi)測(cè)試結(jié)果

        表3 不同算法在眼睛狀態(tài)分類(lèi)對(duì)比

        2.6 基于眼睛篩選機(jī)制的實(shí)驗(yàn)對(duì)比

        在實(shí)際駕駛過(guò)程中,駕駛員會(huì)有多種頭部姿態(tài),當(dāng)左右偏頭幅度過(guò)大時(shí),會(huì)出現(xiàn)一只眼睛被遮擋,這時(shí)很難準(zhǔn)確提取雙眼的特征,一旦出現(xiàn)一只眼睛錯(cuò)檢,就會(huì)影響最終眼睛狀態(tài)的判斷,對(duì)實(shí)驗(yàn)結(jié)果有很大干擾。為驗(yàn)證頭部多姿態(tài)時(shí)檢測(cè)結(jié)果的準(zhǔn)確率,以駕駛員的正前方為中心軸,頭部向各個(gè)方向偏轉(zhuǎn)一定角度進(jìn)行雙眼檢測(cè)。

        如圖15所示,給出部分具有代表性的4種頭部偏轉(zhuǎn)狀態(tài)實(shí)驗(yàn)圖。當(dāng)駕駛員頭部偏轉(zhuǎn)較小方位內(nèi),雙眼檢測(cè)可以達(dá)到較好效果,圖(d)當(dāng)頭部出現(xiàn)極端角度時(shí),眼睛狀態(tài)檢測(cè)時(shí)出現(xiàn)了錯(cuò)檢,準(zhǔn)確率會(huì)大幅下降,因此可以采用單眼檢測(cè)機(jī)制,用未被遮擋的單只眼睛代替雙眼檢測(cè)機(jī)制。具體操作如圖16所示。

        圖15 雙眼檢測(cè)示例

        圖16 眼睛篩選機(jī)制

        圖16中x1和x2分別表示檢測(cè)框的寬和高,s表示兩個(gè)瞳孔中心間的距離,d表示瞳孔連線(xiàn)中心點(diǎn)到人臉右框的距離,由于檢測(cè)到的人臉大小不一,所以要對(duì)邊框進(jìn)行切割,提高準(zhǔn)確率,令w=3/4x1, 當(dāng)d大于w/2時(shí)只對(duì)圖中右眼進(jìn)行狀態(tài)判斷,反之只對(duì)圖中左眼進(jìn)行狀態(tài)判斷。這里測(cè)試600張人臉圖像,分別選取在轉(zhuǎn)動(dòng)角度為-30°到30°以及轉(zhuǎn)動(dòng)角度為-60°到60°情況,第一組檢測(cè)睜眼狀態(tài),第二組檢測(cè)閉眼狀態(tài),實(shí)驗(yàn)部分單眼檢測(cè)不戴眼鏡各種轉(zhuǎn)動(dòng)角檢測(cè)結(jié)果如圖17所示。

        圖17 基于眼睛篩選機(jī)制單眼檢測(cè)不戴眼鏡示例

        如圖18所示,第一組檢測(cè)睜眼狀態(tài),第二組檢測(cè)閉眼狀態(tài),戴眼鏡時(shí)單眼檢測(cè)不同轉(zhuǎn)動(dòng)角識(shí)別效果也較好。

        圖18 基于眼睛篩選機(jī)制單眼檢測(cè)戴眼鏡示例

        由表4和表5可知,單眼檢測(cè)對(duì)頭部適應(yīng)性較好,當(dāng)檢測(cè)到頭部大幅度偏轉(zhuǎn)時(shí)采用單眼檢測(cè)具有較高準(zhǔn)確率。

        表4 單眼檢測(cè)不戴眼鏡結(jié)果

        表5 單眼檢測(cè)戴眼鏡結(jié)果

        采用YawDD視頻數(shù)據(jù)集、ZJU眨眼數(shù)據(jù)集來(lái)測(cè)試單眼檢測(cè)和雙眼檢測(cè)的準(zhǔn)確率,各選取20組不戴眼鏡,10組戴眼鏡,總共從拍攝的視頻中選取10 000幀圖片,見(jiàn)表6,實(shí)驗(yàn)結(jié)果表明自適應(yīng)單眼檢測(cè)無(wú)論是在戴眼鏡還是不戴眼鏡情況下準(zhǔn)確率都更高。

        表6 單眼檢測(cè)和雙眼檢測(cè)眼睛狀態(tài)對(duì)比

        2.7 疲勞駕駛檢測(cè)

        當(dāng)在實(shí)際行駛過(guò)程中,駕駛員疲勞時(shí)會(huì)出現(xiàn)頻繁眨眼的現(xiàn)象,同時(shí)眼部狀態(tài)信息是最能顯示疲勞狀態(tài),為此可以通過(guò)獲取駕駛員眼部的狀態(tài)信息來(lái)判斷駕駛員的疲勞狀態(tài)。本文選取基于PERCLOSE準(zhǔn)則[17]的ECR作為眼部疲勞特征參數(shù),ECR指檢測(cè)到閉合狀態(tài)時(shí)幀數(shù)與一次眨眼整個(gè)過(guò)程幀數(shù)的比率,即

        (11)

        式中:n為閉合狀態(tài)時(shí)幀數(shù),N為眨眼整個(gè)過(guò)程幀數(shù),根據(jù)眼睛篩選機(jī)制判斷眼睛狀態(tài)方法得到參數(shù)n和N,當(dāng)ECR范圍在0.3到1視為疲勞狀態(tài),ECR范圍在0到0.2視為正常狀態(tài),ECR范圍在0.2到0.3內(nèi)時(shí)介于正常和疲勞狀態(tài)之間,為此對(duì)ECR這個(gè)范圍的閾值進(jìn)行6000組測(cè)試,測(cè)試結(jié)果見(jiàn)表7,當(dāng)ECR為0.25時(shí),檢測(cè)的準(zhǔn)確率最高。

        表7 不同ECR值的疲勞檢測(cè)準(zhǔn)確率對(duì)比

        文獻(xiàn)[18]采用CNN回歸網(wǎng)絡(luò)檢測(cè)人臉關(guān)鍵點(diǎn),并用寬度學(xué)習(xí)對(duì)面部狀態(tài)進(jìn)行判別,最后,通過(guò)二級(jí)寬度學(xué)習(xí)網(wǎng)絡(luò)融合眼睛,嘴部和頭部狀態(tài)預(yù)測(cè)駕駛員疲勞狀態(tài)。文獻(xiàn)[19]采用深度卷積層學(xué)習(xí)獲取圖像和特征,并利用相鄰幀間關(guān)系預(yù)測(cè)疲勞狀態(tài),不同算法疲勞檢測(cè)對(duì)比見(jiàn)表8,相比之下本文精度更高。根據(jù)研究發(fā)現(xiàn),駕駛員正常情況下的眨眼頻率為15到30 次/分鐘,本文提出的方法檢測(cè)每幀圖片只需要0.091 s,正常平均每次眨眼0.25 s到0.3 s,所以本文算法可以檢測(cè)多種姿態(tài)下的眼睛狀態(tài),同時(shí)滿(mǎn)足實(shí)時(shí)性的要求。

        3 結(jié)束語(yǔ)

        本文提出多特征融合的疲勞駕駛檢測(cè)方法,通過(guò)傳統(tǒng)的方法進(jìn)行特征提取,基于SVM分類(lèi)器融合人眼的縱橫比值、累積黑色素差值、人眼水平投影高度和寬度比值3個(gè)特征,再結(jié)合眼睛篩選機(jī)制進(jìn)行狀態(tài)檢測(cè),不僅可以適應(yīng)不同光照強(qiáng)度、減少頭部姿態(tài)和戴眼鏡的干擾,而且能實(shí)時(shí)更新檢測(cè)的疲勞狀況,實(shí)驗(yàn)結(jié)果表明該方法具有較高的識(shí)別率和較強(qiáng)的實(shí)用性。

        表8 不同算法的疲勞檢測(cè)性能對(duì)比

        猜你喜歡
        人眼差值人臉
        有特點(diǎn)的人臉
        差值法巧求剛體轉(zhuǎn)動(dòng)慣量
        人眼X光
        人眼為什么能看到虛像
        三國(guó)漫——人臉解鎖
        枳殼及其炮制品色差值與化學(xué)成分的相關(guān)性
        中成藥(2017年6期)2017-06-13 07:30:35
        閃瞎人眼的,還有唇
        優(yōu)雅(2016年12期)2017-02-28 21:32:58
        看人,星光璀璨繚人眼
        電影故事(2016年5期)2016-06-15 20:27:30
        馬面部與人臉相似度驚人
        基于區(qū)域最大值與平均值差值的動(dòng)態(tài)背光調(diào)整
        网禁拗女稀缺资源在线观看| 亚洲黄色大片在线观看| 性感美女脱内裤无遮挡| 亚洲av第二区国产精品| 亚洲最近中文字幕在线| 性欧美长视频免费观看不卡| 日韩人妻无码一区二区三区| 无码国产精品一区二区免费网曝| 国产精品女人一区二区三区| 国偷自拍av一区二区三区| 亚洲av最新在线网址| 国产a级网站| 色哟哟精品中文字幕乱码| 一区二区三区字幕中文| 暖暖视频在线观看免费| 国产成人午夜福利在线小电影| 丰满熟女人妻一区二区三区| 人妻熟妇乱又伦精品视频| 射死你天天日| 91亚洲欧洲日产国码精品| 免费在线亚洲视频观看| 国产a国产片国产| 热の国产AV| 日韩女同一区在线观看| 国产精品一区二区三区专区| 国产精品免费观看久久| 亚洲V无码一区二区三区四区观看 久久精品国产亚洲综合色 | 18禁无遮拦无码国产在线播放| 亚洲自拍另类制服在线| 日本成人三级视频网站| 水野优香中文字幕av网站| a级毛片无码免费真人| 2020久久精品亚洲热综合一本| 国产亚洲一本二本三道| 丰满多毛的大隂户毛茸茸| 国产白丝在线| 亚洲av综合色区久久精品| 婷婷成人丁香五月综合激情| 色一情一区二| 国产毛片三区二区一区| 少妇被猛烈进入中文字幕|