蔡 菁,程 雷,王紅霞
(武漢理工大學計算機科學與技術學院,湖北 武漢430063)
交通安全問題是當今社會亟待解決的一大難題。近年來隨著車輛數(shù)目的快速增長,道路交通安全狀況日益惡化,如何保障安全駕駛已成為影響社會經(jīng)濟發(fā)展的重要研究課題。調(diào)查研究發(fā)現(xiàn),疲勞駕駛是引發(fā)交通事故的重要原因之一[1]。針對這種情況,以駕駛員行為特征、駕駛員生理參數(shù)、車輛行為特征等為基礎的疲勞駕駛預警方法的研究受到廣泛關注,而進一步融合多種信息,提高疲勞駕駛監(jiān)測系統(tǒng)的適應性與可靠性,是今后的重點研究方向之一[2]。
有關疲勞狀態(tài)監(jiān)測及特征提取與融合的研究已經(jīng)有了一些探索。胡鴻志[3]設計了一種基于駕駛操作行為及車輛行駛狀態(tài)信息的駕駛疲勞識別系統(tǒng),采集指標并用神經(jīng)網(wǎng)絡方法判斷駕駛員駕駛狀態(tài)。呂健健[4]研究了基于貝葉斯網(wǎng)絡的駕駛員疲勞評估方法,利用因果關系構建出駕駛員疲勞評估模型拓撲結構??旅骶?]在駕駛員疲勞視頻監(jiān)測系統(tǒng)中歸納并提出了多項的疲勞程度評價指標并基于此構建駕駛員疲勞狀態(tài)評價模型。然而這些研究存在難以被駕駛員接受、投入成本較高、受光照等環(huán)境影響較大、或監(jiān)測準確率不夠高等問題。
微軟2010 年發(fā)布的Kinect傳感器集成了彩色攝像頭、紅外投影機和紅外攝像頭,它能快速進行骨骼監(jiān)測,并提供了高效的人臉識別算法,由于具有紅外攝像功能,減少了光照等環(huán)境因素的影響,而且物美價廉,應用于駕駛員安全駕駛狀態(tài)的監(jiān)測便于實際的應用和推廣。目前主流的用機器視覺對駕駛員進行疲勞檢測主要是基于行為特征的檢測,比如眼部、頭部、嘴部的檢測等[6],利用Kinect可以很方便地實現(xiàn)眼部、頭部及嘴部的檢測,進而綜合判斷疲勞狀態(tài)。
華南理工大學的胡習之建立了一種基于Kinect的駕駛員狀態(tài)監(jiān)測系統(tǒng),對汽車駕駛過程中容易出現(xiàn)的駕駛疲勞、注意力分散等狀況進行監(jiān)測,通過實車測試,驗證了將Kinect用于保障駕駛員安全駕駛的可行性[7]。但是,該監(jiān)測系統(tǒng)沒有很好地解決夜晚監(jiān)測效率下降的問題,只是簡單地利用Kinect獲取了駕駛員頭部、臉部、眼部等的特征信息,也沒有對各種特征信息進行有效融合。
疲勞駕駛在夜晚的發(fā)生率很高[8],而夜晚行車時車內(nèi)照明不足,由于Kinect本身提供了紅外數(shù)據(jù),且紅外數(shù)據(jù)受光照等環(huán)境因素的影響較少,于是在光線不足時,將紅外數(shù)據(jù)代替彩色數(shù)據(jù)作為人臉識別的源數(shù)據(jù),可在一定程度上解決夜晚太黑導致彩色攝像頭效率低的問題。本文基于Kinect傳感器研究設計一種駕駛員疲勞狀態(tài)綜合監(jiān)測系統(tǒng),利用Kinect提供的紅外圖像及人臉識別模塊獲取駕駛員嘴部、頭部、眼部等與駕駛員疲勞狀態(tài)監(jiān)測相關部位的特征信息,通過對Kinect獲取的紅外圖像數(shù)據(jù)的預處理,并通過融合各種特征信息,綜合判斷駕駛員的疲勞狀態(tài),提高白天尤其是夜晚的駕駛員疲勞狀態(tài)監(jiān)測準確率。
本 系 統(tǒng) 利 用 Microsoft 提 供 的Kinect for Windows SDK (K4WSDK)和Face Tracking SDK(FTSDK)工具進行相應開發(fā)。K4WSDK 提供了Kinect的驅動及開發(fā)接口,而FTSDK 通過人體骨架模型和深度數(shù)據(jù)結合彩色圖像數(shù)據(jù)實現(xiàn)人臉識別功能,相對于單獨基于彩色圖像數(shù)據(jù)的人臉識別方法,提高了效率和魯棒性。FTSDK 提供了IFTResult類以存儲人臉跟蹤結果。從IFTResult::Get2DShapePoints方 法 可 獲 取 臉 部 輪廓數(shù)據(jù)。Kinect可跟蹤100 個臉部輪廓特征點。從IFTResult::Get3DPose方法可獲得頭部姿態(tài)角度。FTSDK 也提供了IFTModel類以存放3D人臉模型識別結果。這個3D 人臉模型是根據(jù)Candide3模型定義的,有6個動態(tài)單元和11個形狀單元,形狀單元估計了人臉的形狀,而動態(tài)單元跟蹤了張嘴、皺眉等動作。系統(tǒng)處理流程如圖1所示。
Figure 1 System flowchart圖1 系統(tǒng)流程圖
本系統(tǒng)利用Kinect獲取彩色圖像、紅外圖像、深度圖像和骨骼模型等數(shù)據(jù),并對紅外圖像進行預處理。光照強時,使用彩色圖像;光照弱甚至沒有光照時,使用紅外圖像(通過檢測當前圖像平均灰度的大小實現(xiàn)切換)。再結合其他兩種數(shù)據(jù),通過FTSDK 進行臉部識別獲得眼睛的位置和人臉模型。從人臉模型中獲取嘴部狀態(tài)和頭部朝向并分別計算其疲勞參數(shù)。通過眼睛的位置獲取眼部的圖片,然后對眼部的狀態(tài)進行識別,計算眼部的疲勞參數(shù)。進而通過RBF神經(jīng)網(wǎng)絡對疲勞參數(shù)進行融合,并使用滑動平均法完成疲勞值的計算。最后通過疲勞值分級判斷疲勞狀態(tài)并報警。為便于積累監(jiān)測數(shù)據(jù)和經(jīng)驗進一步提高駕駛員疲勞狀態(tài)監(jiān)測效果,將疲勞參數(shù)、監(jiān)測數(shù)據(jù)和結果均保存到數(shù)據(jù)庫中。
Kinect 1.0設備提供了680*480的16 位紅外圖像數(shù)據(jù),每秒15幀。受激光投射的光斑的影響,不夠清晰。為進行人臉識別,首先對紅外數(shù)據(jù)圖像進行格式轉化,將紅外數(shù)據(jù)圖像格式和人臉識別模塊的接口統(tǒng)一起來,然后調(diào)節(jié)圖像對比度,最后進行高斯濾波、腐蝕等處理。
(1)格式轉化。
FTSDK 接收32位rgba圖像數(shù)據(jù),而提供的紅外圖像是16位的。首先將16位紅外圖像數(shù)據(jù)壓縮為8位灰度圖像數(shù)據(jù),并直接對8位灰度圖像進行對比度調(diào)節(jié)和濾波等處理,然后再轉化為32位的rgba圖像數(shù)據(jù)用于人臉識別。
(2)對比度調(diào)節(jié)。
為更多地保留圖像信息,避免常用的直方圖均衡化圖像處理方法會損失一部分圖像信息的問題,本文采用自適應的直接對比度增強方法。即:當檢測到人臉時,計算人臉矩形框的平均灰度a1,并增強整個圖像對比度,使a1達到一個定值A1;當沒有檢測到人臉時,計算整個圖像的平均灰度a2并增強,使a2達到一個定值A2。
(3)濾波等處理。
對于得到的灰度圖像,先采用高斯濾波減弱噪聲,再采用腐蝕突出輪廓。由于人眼像素低,可以在高斯濾波后直接識別人眼狀態(tài),以免因腐蝕操作擴大輪廓而增加誤差。
圖2a和圖2b給出了白天的原紅外圖像及預處理后的紅外圖像,本文方法明顯增強了圖像的可辨識度。夜晚無光時,Kinect也能獲取到紅外圖像,但由于只靠Kinect發(fā)射的紅外線而缺少太陽光提供的紅外線,圖像的效果會相對變差,識別效率會一定程度地降低。使用本文提出的紅外圖像預處理方法,夜晚Kinect也能比較正常地進行監(jiān)測,效果如圖2c所示。
本系統(tǒng)通過監(jiān)測駕駛員的低頭情況獲取兩個頭部疲勞參數(shù):駕駛員的低頭頻率(保存到整型變量headPara中),及單位時間(例如1 分鐘)內(nèi)是否出現(xiàn)長時間低頭情況(保存到布爾變量isHead-Low中)。
Figure 2 Infrared image before and after pretreatment圖2 預處理前后的紅外圖像
從IFTResult::Get3DPose方法可以獲取頭部的pitch俯仰角rotationX。角度在-90°到90°之間,頭上仰為正。通過監(jiān)測頭部俯仰角rotationX,首先檢測是否一直低頭。當rotationX小于λ1(例如-10°)且持續(xù)超過一定時間β1(例如3s)時,則判定是長時間低頭。同時,對低頭動作進行檢測,每當rotationX小于0 且持續(xù)下降超過λ2(例如10°)時,認為低頭一次,headPara++。變量isHeadLow和headPara每隔單位時間進行更新。
本系統(tǒng)通過監(jiān)測駕駛員打哈欠的情況獲取一個嘴部疲勞參數(shù):打哈欠的頻率(保存到整型變量mouthPara中)。
從IFTResult::GetAUCoefficients方法中獲取動態(tài)單元的參數(shù)pAUs,其中pAUs[1]表示了嘴部張合狀態(tài)。pAUs[1]=1 時嘴部完全張開;pAUs[1]=0時嘴部閉合。當pAUs[1]大于一定值α(例如0.4)時,認為嘴部張大到了打哈欠的程度。持續(xù)超過一定時間β2(例如3s),則判定打了一個哈欠。每打一個哈欠,打哈欠頻率加1,mouthPara++。mouthPara每隔單位時間更新。
由文獻[6]可知,PERCLOS值(單位時間內(nèi)眼睛閉合的時間占總時間的百分比值)與駕駛員是否疲勞有很大的關聯(lián)。本系統(tǒng)通過監(jiān)測眼睛睜閉情況獲取兩個眼部疲勞參數(shù):單位時間內(nèi)的眼部狀態(tài)監(jiān)測結果是否有效(保存到布爾變量isValid中),及單位時間的PERCLOS值(保存到浮點型變量eyePara中)。
(1)眼部圖像獲取。
從IFTResult::Get2DShapePoints方法中獲取臉部輪廓特征點,其中87號特征點為左眼中心,88號特征點為右眼中心。以左右眼中心為中心截取左右眼16*12像素的矩形圖片,水平方向為16像素,從左到右像素位置標記為X;垂直方向為12像素,從上到下像素位置標記為Y。
(2)眼部狀態(tài)識別。
眼部狀態(tài)有很多識別方法,如模板匹配法、橢圓擬合法、灰度投影法、支持向量機識別法等等。由于Kinect獲取的眼部圖像比較模糊且像素低,而另一方面,Kinect可以不受睜閉眼影響固定跟蹤人眼中心,故而采用灰度投影法。在監(jiān)測過程中,駕駛員頭部到Kinect設備的距離保持在0.8m左右。
在灰度投影法中,有兩個變量可以作為眼部狀態(tài)識別的標準:一個是使水平投影最小的Y值,水平投影是每一行像素的灰度值的和,如圖3a所示;另一個是水平投影積分比值,即當前水平投影積分與總積分的比值,如圖3b所示。相對而言,最小值的變化顯著,積分比值的變化不明顯,但積分比值能反映總體的情況。所以,用最小值來識別眼部的睜閉狀態(tài),同時,用積分比值來校驗眼部狀態(tài)識別的有效性。
Figure 3 Eye image analysis圖3 眼部圖像分析
首先計算眼部圖像的灰度水平投影,找到最小處,即波谷,記對應的Y值為K。睜眼和閉眼的波谷是完全不同的。睜閉眼時,K的變化情況如圖3c,K處于波峰時眼睛完全閉合。當K≥8時判定眼部閉合狀態(tài)的效果最好。當左右眼同時閉合時,判定眼睛完全閉合。
在眼部狀態(tài)識別中會存在一些誤判,必須采取一些措施減少誤判。本系統(tǒng)采用兩個方法識別誤判。
方法1 根據(jù)頭部偏離角度進行判斷。因為駕駛員的頭部一般都應該朝向正前方,當頭部朝向偏離正前方一定位置時,眼部監(jiān)測的準確率將大大降低,此時需定義眼部狀態(tài)識別結果無效。IFTResult::Get3DPose方法可以獲取頭部朝向的三個角度,當這三個角度中任一個角度偏離一定角度(例如10°)以上時,認定識別結果為無效。
方法2 有時候臉部移動過快,導致眼部不能正確跟蹤,這時可以根據(jù)水平投影積分進行篩選。計算7個像素(從第1個到第7個像素)的水平投影積分比值m。不管睜眼還是閉眼,明顯m≥0.5,若m<0.5,則判定結果為無效。
(3)PERCLOS值及有效性。
統(tǒng)計單位時間(例如1min)內(nèi)彩色/紅外圖像的總幀數(shù)n0(大約為900幀),對每一幀進行分析,統(tǒng)計有效的幀數(shù)n1,統(tǒng)計閉眼的幀數(shù)n2。那么PERCLOS值為eyePara=n2/n1。眼部狀態(tài)監(jiān)測結果的有效性為v,則v=n1/n0。當v小于一定值(例如0.8)時,判定眼部狀態(tài)監(jiān)測結果無效。
本系統(tǒng)采用徑向基RBF(Radical Basis Function)神經(jīng)網(wǎng)絡進行信息融合。RBF 是一種前向型神經(jīng)網(wǎng)絡[9],能夠以任意精度逼近任意連續(xù)函數(shù),特別適合于解決分類問題。RBF 有較強的輸入輸出映射功能,是前向網(wǎng)絡中完成映射功能的最優(yōu)網(wǎng)絡,有較好的分類能力和極快的學習收斂速度。
RBF方法可用來對一組多維空間中的數(shù)據(jù)點進行插值,插值的目的是尋找一個函數(shù)F(X)將每個矢量X映射到相應的目標值Y。首先要選擇P個基函數(shù),每個基函數(shù)對應一個訓練數(shù)據(jù),各基函數(shù)形式為φ(‖X-Xp‖ ),由于距離是徑向同性的,因此稱為徑向基函數(shù)?!琗-Xp‖表示差向量的模,或者叫2 范數(shù)?;趶较蚧瘮?shù)的插值函數(shù)為:
輸入X是個m維的向量,m<P;wp為權值。RBF的作用是把向量從低維m映射到高維P,使得低維線性不可分的情況到高維能夠變?yōu)榫€性可分的。
本系統(tǒng)采用Matlab工具箱設計和訓練RBF神經(jīng)網(wǎng)絡。RBF 網(wǎng)絡是由輸入層、隱含層和輸出層構成的三層前向型網(wǎng)絡。設輸入為矩陣P,輸出為矩陣T,則RBF 網(wǎng)絡的設計格式為net=netrb(P,T,GOAL,SPREAD)。其中,GOAL為均方誤差要求,默認為0;SPREAD為徑向基函數(shù)的擴展常數(shù),默認值為1,其值越大,函數(shù)逼近曲線越光滑。
用Matlab得到RBF 神經(jīng)網(wǎng)絡net,將其轉換為表達式,用于C++編程。RBF 網(wǎng)絡的訓練過程分為兩步,第一步為無導師式學習,確定訓練輸入層與隱含層之間的權值iw;第二步為有導師式學習,確定訓練隱含層與輸出層之間的權值lw[10]。訓練的目標是求取兩層的最終權值iw、lw和閾值b1、b2。
設定網(wǎng)絡輸入為向量x,隱含層采用徑向基函數(shù)作為激勵函數(shù),該徑向基函數(shù)為高斯函數(shù)。則隱含層第i個神經(jīng)元的輸出為:
ri =exp(-(‖iwi-x‖×b1))
輸出層采用純線性函數(shù)作為激勵函數(shù),其輸入為各隱含層神經(jīng)元輸出的加權求和。輸出層的輸出為:
文獻[11]劃分了四種疲勞程度:不疲勞、輕度疲勞、中度疲勞、嚴重疲勞,其疲勞程度對應著不同的疲勞值P(0≤P≤1)。疲勞程度與疲勞值P的劃分如表1所示。
Table 1 Correspondence between fatigue degree and the value of fatigue表1 疲勞程度與疲勞值的對應關系
對于疲勞參數(shù)isHeadLow和isValid,當出現(xiàn)長時間低頭或眼部識別無效時,表明駕駛員出現(xiàn)非常明顯的疲勞狀態(tài),可直接判定為嚴重疲勞,P=0.8。
進而根據(jù)文獻[11]中得出的PERCLOS值、打哈欠頻率、低頭頻率與疲勞值的對應關系,進行歸一化處理。由于PERCLOS值已處于0~1,不需要歸一化。對于打哈欠頻率和低頭頻率,由于是離散的,故采用分段歸一化方法,如表2所示。
Table 2 Normalized yawning frequency and normalized bow frequency表2 打哈欠頻率和低頭頻率的歸一化
對于駕駛員疲勞信息融合,已有一些研究。最簡單的一種是權值分配法[5]。權值分配法簡單直接,但靈活性不好,抗干擾能力弱。還有抗干擾能力強的貝葉斯網(wǎng)絡方法[4],但貝葉斯網(wǎng)絡方法適用于離散變量,需要將連續(xù)的PERCLOS值離散化,因而誤差變大。有的采用神經(jīng)網(wǎng)絡方法進行融合[3],從而識別疲勞狀態(tài)。但是,由于對于結果過于離散化,只有0和1兩個狀態(tài),造成誤差較大。
本系統(tǒng)采用RBF 神經(jīng)網(wǎng)絡方法,對于結果疲勞值采用連續(xù)化方法。根據(jù)文獻[11]得到14組數(shù)據(jù),用newrb()創(chuàng)建網(wǎng)絡net。經(jīng)過實驗,網(wǎng)絡參數(shù)保持默認值效果較好。神經(jīng)網(wǎng)絡訓練好之后,對先前預留的10組驗證數(shù)據(jù)進行疲勞識別,從而檢驗RBF神經(jīng)網(wǎng)絡識別駕駛疲勞狀態(tài)的準確性。將結果與估計的疲勞值進行比較,可以看出RBF 神經(jīng)網(wǎng)絡既保留了單一變量與結果之間的映射關系,也保留了多個變量與結果之間的映射關系。模擬實驗表明,只要用較準確的數(shù)據(jù)訓練網(wǎng)絡net,實驗結果就能達到精度要求。
通過疲勞信息融合可以得到單位時間(例如1min)內(nèi)的疲勞值,但這種結果容易受到非疲勞行為(例如偶爾低頭看儀表顯示)等的影響,可靠性不高。對此,本系統(tǒng)采用滑動平均法,對相對較長的一段時間(例如5min)的狀態(tài)進行綜合評價,從而提高疲勞監(jiān)測的穩(wěn)定性和可靠性。
每一單位時間可以獲得一個臨時疲勞值,對最近的N個單位時間進行綜合判斷,把臨時疲勞值放到長度為N的隊列中。首先進行差錯處理,由于疲勞時不會檢測成非疲勞狀態(tài),而非疲勞時可能檢測成疲勞狀態(tài)。所以,只要有一個臨時疲勞值小于0.2,則判定駕駛員不疲勞。然后進行誤差處理,在保證無差錯的情況下,對這個隊列的所有臨時疲勞值求均值,這樣就可以得到誤差較小的可靠結果。每當過了單位時間,就讓當前的臨時疲勞值入隊列,讓最遠的臨時疲勞值出隊列,將隊列長度保持為N。
一般監(jiān)測系統(tǒng)只是單純地識別狀態(tài)并發(fā)出警報,而忽略了對監(jiān)測到的歷史數(shù)據(jù)的利用。監(jiān)測到的歷史數(shù)據(jù)有諸多用途。首先,根據(jù)歷史數(shù)據(jù)能對駕駛員的全程狀態(tài)有一個較全面的判斷,使得當前駕駛員狀態(tài)的判斷更加準確。其次,根據(jù)對歷史數(shù)據(jù)的分析,可以歸納出駕駛員疲勞駕駛的習慣和規(guī)律,事先給駕駛員以警示。此外,歷史數(shù)據(jù)的記錄有助于深化疲勞駕駛的科學研究。目前疲勞駕駛還沒有明確的定義,一部分原因是實驗數(shù)據(jù)的不足??傊?,將疲勞駕駛的大量監(jiān)測數(shù)據(jù)綜合利用起來,從中可以得到更精準的疲勞狀態(tài)分析和預警。
本系統(tǒng)將前面所設定的疲勞參數(shù)和監(jiān)測到的相關疲勞值保存到數(shù)據(jù)庫中,方便查詢、利用和進一步的研究。
系統(tǒng)模擬實驗使用Windows 7 系統(tǒng)的臺式機,速龍2.9GHz雙核CPU,采用Microsoft Visual Studio 2010作為開發(fā)平臺,Kinect for Windows SDK v 1.8作為開發(fā)工具,OpenCV 2.4.10作為圖像處理工具,Microsoft SQL Server 2008作為數(shù)據(jù)庫工具,Matlab 作為數(shù)據(jù)處理工具,另有Kinect for XBox 360設備。
Kinect 1.0設備能提供彩色圖像和紅外圖像,但兩種圖像不能同時獲取。先在彩色圖像條件下進行測試。對彩色圖像進行識別,可直接跟蹤人臉;將彩色圖像轉化為灰度圖像,可用以上方法識別眼部狀態(tài)。然后,在紅外圖像條件下進行測試,最后對結果進行綜合分析。選兩名志愿者做模擬測試,與Kinect保持適當距離并直視前方。每種條件情況下對閉眼、點頭和打哈欠等識別測試10組,每組10次,共100次。
先用彩色圖像在不同光照條件下進行測試;光線充足選取的條件是晴朗天氣時室內(nèi)下午14:00~15:00,人臉顯得很清晰;光照不足選取的條件是晴朗天氣時太陽剛落山后,室內(nèi)光線較暗,人臉顯得模糊。完全入夜后,如果沒有額外光源,彩色圖像完全看不清,人臉識別無法進行。
Table 3 Fatigue recognition accuracy on color images表3 彩色圖像的疲勞狀態(tài)識別準確率
再用紅外圖像在不同光照條件下進行測試,將經(jīng)過預處理和未經(jīng)過預處理的測試結果進行對比。白天選取的條件是晴朗天氣下室內(nèi)下午14:00~15:00,這時有太陽光輻射的紅外線,紅外圖像效果較好;夜晚選取的條件是夜晚室內(nèi)21:00~22:00,這時室內(nèi)基本完全黑暗。
Table 4 Fatigue recognition accuracy on infrared images表4 紅外圖像的疲勞狀態(tài)識別準確率
測試結果表明,光照充足時采用彩色圖像識別效果最好,隨著光照的減弱,識別準確率逐漸下降,而光照減弱到一定程度時,完全無法識別。用紅外圖像進行測試時,在太陽光提供足夠紅外線條件下識別效果較好,但不及光照充足的彩色圖像。隨著太陽光紅外線的減弱,識別效果變差。然而,Kinect設備自身提供一定的紅外線,所以即使沒有太陽光也有一定的識別成功率。紅外圖像經(jīng)過本文提出的預處理之后,識別準確率都有一定的提升,其中夜晚打哈欠的識別準確率提升最大,超過20%。預處理能增強圖像對比度,突出面部輪廓,進而增加人臉識別的成功率。
實驗驗證了本文提出的將彩色圖像和紅外圖像綜合利用進行疲勞狀態(tài)監(jiān)測的效果最好,光照強時利用彩色圖像,光照弱或夜晚時利用紅外圖像;并且采用本文提出的預處理方法之后,疲勞狀態(tài)識別準確率都有進一步的提升。實驗表明本系統(tǒng)能有效地識別疲勞狀態(tài),且無論白天還是夜晚都能夠有較高的識別準確率。
本文基于Kinect研究設計駕駛員疲勞狀態(tài)綜合監(jiān)測系統(tǒng),通過Kinect人臉識別獲取駕駛員嘴部、頭部、眼部等與疲勞狀態(tài)監(jiān)測相關部位的特征信息,閉眼識別主要靠眼部位置灰度的變化,點頭識別主要靠五官的位置,而打哈欠識別主要靠嘴部的輪廓。通過對Kinect提供的紅外圖像進行預處理,減弱了光照不足的影響;采用自適應的直接對比度增強方法,將圖像的灰度平均值適量增大,能明顯改善圖像質量;采用灰度投影法進行人眼狀態(tài)識別和監(jiān)測,實現(xiàn)了基于模糊和低像素圖片的人眼狀態(tài)識別;利用RBF 神經(jīng)網(wǎng)絡對駕駛員頭部、嘴部、眼部等的特征信息進行融合,并利用滑動平均法及數(shù)據(jù)庫技術,使得疲勞狀態(tài)監(jiān)測更加準確可靠。模擬實驗表明,本系統(tǒng)在白天夜晚都能較有效地監(jiān)測駕駛員疲勞狀態(tài)。下一步將拓展對疲勞狀態(tài)的監(jiān)測,對駕駛員的注意力分散狀態(tài)進行監(jiān)測,并努力創(chuàng)造條件開展實車實驗。
[1] Li Hai-qin,Li Li.Analysis of unsafe driving behavior based on questionnaire[J].Automobile Technology,2015(2):145-148.(in Chinese)
[2] Sun Wei,Zhang Wei-gong,Zhang Xiao-rui,et al.Research progress of fatigue driving early warning system [J].Automotive Electrical Appliances,2009(1):4-8.(in Chinese)
[3] Hu Hong-zhi.Research of vehicle driving fatigue recognition system[D].Wuhan:Wuhan University of Technology,2010.(in Chinese)
[4] Lv Jian-jian.Study on driver fatigue alertness based on Bayesian network[D].Dalian:Dalian University of Technology,2013.(in Chinese)
[5] Ke Ming-jun.The key technics and architectural design of video-based drowsy driving detecting system[D].Changsha:National University of Defense Technology,2008.(in Chinese)
[6] Wu Ya-xuan,Li Wen-shu,Shi Guo-sheng,et al.Survey on fatigue driving detection method research[J].Industrial Control Computer,2011,24(8):44-46.(in Chinese)
[7] Hu Xi-zhi,Taha Mansour Jmour.The driver condition monitoring system based on Kinect sensor[J].Value Engineering,2014(20):193-194.(in Chinese)
[8] Li Du-h(huán)ou,Liu Qun,Yuan Wei,et al.Relationship between fatigue driving and traffic accident[J].Journal of Traffic and Transportation Engineering,2010,10(2):104-109.(in Chinese)
[9] Chai Jie,Jiang Qing-yin,Cao Zhi-kai.RBF neural network function approximation ability and algorithm [J].Pattern Recognition and Aitificial Intelligence,2002,15(3):310-316.(in Chinese)
[10] Zhang De-feng.Matlab neural network application design[M].Beijing:China Machine Press,2012.(in Chinese)
[11] Wang Lei,Sun Rui-shan.Study on face feature recognitionbased fatigue monitoring method for air traffic controller[J].China Safety Science Journal,2012,22(7):66-71.(in Chinese)
附中文參考文獻:
[1] 李海琴,黎莉.基于調(diào)查問卷的不安全駕駛行為分析[J].汽車實用技術,2015(2):145-148.
[2] 孫偉,張為公,張小瑞,等.疲勞駕駛預警系統(tǒng)的研究進展[J].汽車電器,2009(1):4-8.
[3] 胡鴻志.機動車駕駛疲勞識別系統(tǒng)研究[D].武漢:武漢理工大學,2010.
[4] 呂健健.基于貝葉斯網(wǎng)絡的駕駛員疲勞評估方法研究[D].大連:大連理工大學,2013.
[5] 柯明君.駕駛員疲勞視頻監(jiān)測系統(tǒng)設計與關鍵技術研究[D].長沙:國防科學技術大學,2008.
[6] 吳雅萱,李文書,施國生,等.疲勞駕駛檢測技術研究綜述[J].工業(yè)控制計算機,2011,24(8):44-46.
[7] 胡習之,Taha Mansour Jmour.基于Kinect傳感器的駕駛員狀態(tài)監(jiān)測系統(tǒng)[J].價值工程,2014(20):193-194.
[8] 李都厚,劉群,袁偉,等.疲勞駕駛與交通事故關系[J].交通運輸工程學報,2010,10(2):104-109.
[9] 柴杰,江青茵,曹志凱.RBF 神經(jīng)網(wǎng)絡的函數(shù)逼近能力及其算法[J].模式識別與人工智能,2002,15(3):310-316.
[10] 張德豐.Matlab神經(jīng)網(wǎng)絡應用設計[M].北京:機械工業(yè)出版社,2012.
[11] 汪磊,孫瑞山.基于面部特征識別的管制員疲勞監(jiān)測方法研究[J].中國安全科學學報,2012,22(7):66-71.