張雯頩, 康 冰
(1. 吉林省科學技術協(xié)會學會服務中心, 長春 130022; 2. 吉林大學 通信工程學院, 長春 130022)
目前我國已經成為世界汽車制造大國, 車輛的不斷增加以及基礎設施日趨完善, 給人們的出行帶來了極大的方便, 但也出現(xiàn)了一系列的負面問題, 比如交通事故和大氣污染等。以2002年統(tǒng)計數(shù)據(jù)為例, 在各類事故中, 交通事故死亡人數(shù)所占比例為78.5%, 已成為各種事故中的第一殺手。其中駕駛員疲勞造成的交通事故占20%, 占特大交通事故的40%以上[1-3]。
引發(fā)交通事故的一個主要原因是疲勞駕駛。駕駛員如果在疲勞狀態(tài)下行車, 不僅對自己的生命安全造成威脅, 而且對其他駕駛員及車輛也可能造成不堪設想的后果。因為交通事故并不是在駕駛員剛一產生疲勞就出現(xiàn), 所以完全可考慮在駕駛員剛剛出現(xiàn)疲勞狀態(tài)時就通過一種預警裝置提醒駕駛員, 這樣可使駕駛員有意識采取相應的措施, 防患于未然。數(shù)據(jù)表明, 在交通事故發(fā)生前, 如果司機的反應比疲勞時快0.5 s, 則60%的事故在很大程度上可以避免[4]。
筆者采用Adaboost算法檢測人臉并定位人眼后, 通過疲勞特征提取和疲勞狀態(tài)判斷等環(huán)節(jié), 提高判斷算法的準確性和運算效率, 最終設計并實現(xiàn)基于視頻圖像的駕駛員疲勞狀態(tài)檢測系統(tǒng)。
在人臉檢測和疲勞判斷之前, 對攝像頭捕捉到的圖像進行預處理[5,6]。首先將攝像頭采集到的RGB(Red Green Blue)圖像轉換成色彩空間YCrCb, 然后取出重點處理的單通道圖像, 對其進行高斯濾波和圖像增強, 并對標定區(qū)域進行二值化處理, 在此二值化圖像的基礎上進行中值濾波以及開運算、 閉運算的數(shù)字形態(tài)學濾波。通過上述處理后, 分割出眼睛區(qū)域并提取疲勞參數(shù)進行疲勞判斷。
在駕駛室環(huán)境下判斷駕駛員是否疲勞駕駛, 首先需從復雜環(huán)境下快速準確識別人臉[7-10]。筆者在Haar特征值的計算中引入積分圖概念[11], 記ii(x,y)為點(x,y)在對應的積分圖中的值,ii(x,y)表示原圖像上點(x,y)的左上部分的像素和, 即
(1)
其中i(x′,y′)表示原圖像中的像素點(x′,y′)。若定義s(x,y)為點(x,0)和(x,y)點組成的線段上的點的像素值之和, 即
(2)
則可用
s(x,y)=s(x,y-1)+i(x,y),ii(x,y)=ii(x-1,y)+s(x,y)
(3)
遞推公式計算ii(x,y), 則只需遍歷原圖像一次, 通過遞推關系就可將其積分圖分解, 從而避免不必要的重復計算。
如需計算任意區(qū)域的像素和, 同樣有快速計算方法。如圖1所示, 若需要計算D區(qū)域的像素和, 則可按照
P(D)=P(A+B+C+D)-P(A+B)-P(A+C)+P(A)
(4)
計算。
按照積分圖的定義,ii(x,y)即為點(x,y)左上部分的面積, 則有
圖1 任意區(qū)域像素和計算Fig.1 Pixel and calculation in any region
P(D)=ii(4)-ii(3)-ii(2)+ii(1)
(5)
故可在常數(shù)時間計算出D區(qū)域的像素和, 從而計算出某圖像區(qū)域的Haar特征值。一般而言, 為每個Haar構造的弱分類器通過確定一個合理的優(yōu)化閾值實現(xiàn), 該閾值使得用該特征進行分類時錯誤率足夠小[11]。假設存在一個包含n個樣本的訓練集S={(x1,y1),…,(xn,xn)}, 其中xi∈X(i=1,2,…,n)表示訓練樣本,yi∈Y是xi對應的判別標志, 且有Y={-1,1}。對于第i個訓練樣本的第j個弱分類器
(6)
其中Fj(xi)表示子窗口中第j個Haar特征的值,θj表示設定的閾值,pj用于控制不等號的方向。為使以上弱分類器能用于對人臉進行區(qū)分和鑒別, 還需對其進行適當?shù)慕M合或優(yōu)化。而AdaBoost算法正是通過尋找對人臉區(qū)域及非人臉區(qū)域區(qū)分能力最好的那些Haar特征, 從而得到由這些特征對應的弱分類器組合生成的對人臉區(qū)分能力最優(yōu)的強分類器。其過程為如下。初始化樣本權值
(7)
其中w1(i)表示第1輪訓練中第i個樣本的初始權值,p表示S中正樣本的總數(shù),q表示S中負樣本的總數(shù), 有p+q=n。
對于t=1,2,…,T,T為迭代次數(shù), 進行如下循環(huán)。
1) 權值歸一化
其中wt(i)表示第t輪訓練中第i個樣本的權值,i=1,2,…,n。
2) 對特征j訓練出其弱分類器hj, 計算其加權誤差
選擇加權誤差最低的分類器htmin作為此次循環(huán)的分類器。
3) 按照
更新樣本權值。當分類正確時,ht(xi)=yi,ei=0; 分類錯誤時,ht(xi)≠yi,ei≠0。由T個弱分類器得最終的強分類器
(8)
由上述過程可見, 每次迭代在當前的概率分布上找到了一個具有最小誤差的弱分類器, 然后調整概率分布, 減小當前分類器分類正確的樣本權重, 而增大其分類器錯誤的樣本權重, 從而使那些被錯誤分類的樣本得到重點學習, 因而得到的強分類器具有統(tǒng)計上的客觀性。
通過以上的方法得到的單個強分類器只能針對某些Haar特征進行判別, 并不能直接用于判斷某一窗口是否是人臉, 因此需要多個強分類器, 綜合多個強分類器的判別結果進行決策。為此, 提出了一種級聯(lián)方式的Adaboost人臉檢測方法[12,13], 即整個檢測系統(tǒng)由多層分類器組成, 每層都是一個由Adaboost算法得到的強分類器, 通過多層過濾, 最終得到人臉窗口。圖2給出了強分類器級聯(lián)圖。
圖2 強分類器級聯(lián)圖Fig.2 Classification of strong classifiers
在圖2所示的結構中, 前面若干級分類器只需少量特征就可排除大量的非人臉, 后面的若干級則需要大量的特征排除那些非人臉, 因為越到后面說明待檢測窗口就越像人臉。這樣可極大地減少計算量, 提高人臉檢測的速度。這樣的級聯(lián)結構使每個節(jié)點都具有較高的通過率, 但總的檢測結果基本不受影響。例如, 在檢測人臉時, 幾乎99.99%的人臉窗口都被檢出, 且允許通過, 但有50%的非人臉也得以通過??倷z測率并沒有因此而急劇降低, 因為20個節(jié)點使得總的檢測率達到0.999 920≈98%, 而錯誤接受率僅為0.520≈0.000 1%。
由于原圖像的尺寸較大, 如果直接對原圖像進行人臉檢測, 每檢測一幀所耗費的時間過長。因此, 先對原圖像進行縮放, 在縮放的圖像上進行人臉檢測, 然后在原圖像上標定出檢測結果。但存在的缺點是如果人臉離攝像頭較遠, 存在誤檢和漏檢等情況。在距攝像頭距離不變的情況下, 其檢測效果如表1所示。
表1 檢測效果對比表
由表1可知, 縮放后的圖像雖然在檢測率上有一定的減小, 但是檢測時間卻大大降低, 因此檢測的實時性顯著提升。如圖3所示, 無論白天黑夜, AdaBoost人臉檢測算法受光照的影響較小。這主要是由于AdaBoost訓練庫中包含了光線較暗時的人臉圖像, 因此無論是白天還是晚上, 都具有較高的檢測率。
a 白天 b 夜晚圖3 Adaboost人臉檢測Fig.3 Face detection of Adaboost
在檢測到人臉的基礎上, 筆者將Adaboost的人眼檢測算法、 邊緣檢測算法和膚色分割算法相結合進行人眼的精確定位。基于膚色分割的面部特征提取, 將圖像從RGB空間轉換到YCrCb色度空間[14]并使其色彩和亮度分離, 在不考慮亮度分量時, 膚色像素在此色度空間被呈現(xiàn)為較好的聚類[15]。其變換公式為
(9)
其中Y表示顏色亮度,Cr表示紅色分量,Cb表示藍色分量,Cr和Cb一起表示顏色的色度信息, 并且Cr和Cb之間是二維獨立的, 這樣就有效地將亮度和色度分隔開, 并且人體膚色在Cb、Cr空間中都具有較好的聚類, 也非常適合于將膚色區(qū)域從圖像背景中分割開。在YCrCb彩色空間里, 膚色在Cr,Cb通道內都在一個相對穩(wěn)定的范圍內。通過
C=E[(x-M)(x-M)T],x=[Cr,Cb]T,M=E(x)
(10)
確定膚色點在二維空間中的二維高斯模型[16]。其中x為每個像素的色度分量,M和C分別為均值和方差。先將圖像從RGB彩色空間轉換到YCrCb彩色空間, 然后運用
(11)
計算該像素點屬于膚色區(qū)域的概率, 即得到該像素點與膚色在二維高斯空間中分布中心的相似度。其中P(Cr,Cb)代表了圖像中各像素點與膚色的相似程度, 其值越大, 在圖像中就越接近白色, 表示其屬于膚色的概率就越大。圖4是對Cr、Cb通道進行膚色相似度計算后的圖像。
圖5為二值化圖像。由圖5可見, 對所檢測到的人臉區(qū)域進行膚色相似度計算后, 人臉的大部分膚色區(qū)域亮度很高, 接近白色, 但由于光照不均衡, 造成部分膚色區(qū)域灰度值較小, 但與眼睛區(qū)域的灰度相比, 仍然比較大, 如果選擇合適的閾值, 可以把膚色區(qū)域與眼部特征分開。
為縮小定位范圍, 根據(jù)人臉幾何特征“3庭5眼”的關系, 眼睛和眉毛分布在人臉區(qū)域一個集中的矩形范圍內。觀察圖6所示“3庭5眼”特征示意圖, 可近似認為眼睛眉毛集中在人臉高度1/4~1/2范圍內, 在實時視頻中標定此區(qū)域, 對所得到的二值化圖像(見圖5)進行邊緣檢測并用矩形框標定檢測到的特征。根據(jù)眼睛是長方形的特點, 可排除一部分誤檢。在環(huán)境光線亮度比較均勻的情況下, 這種檢測方法能準確定位出眼睛位置, 但如果環(huán)境太暗, 則會出現(xiàn)漏檢和誤檢的問題。
圖4 膚色形似度計算結果圖像 圖5 二值化圖像 Fig.4 Image of skin color image Fig.5 Binary image
運用Adaboost算法定位眼睛的檢測方法與基于訓練的Adaboost人臉檢測方法相似, 只是在訓練樣本時采用的人眼庫, 但有時還是會有誤判。將上述兩種檢測結果相結合, 能精確定位出眼睛位置。圖7為眼睛檢測的框定圖, 實驗驗證, 在光線均衡的視頻中, 該方法可較準確地檢測出眼睛區(qū)域。算法在不同環(huán)境下的準確率如表2所示。
圖6 3庭5眼特征 圖7 人眼檢測結果 Fig.6 5 Eye characteristics of atrium Fig.7 Human eye test results
測試集環(huán)境變化測試總數(shù)準確檢測檢測率/%1光照均衡1 00098898.82光照不均1 00085185.13配戴眼鏡1 00020220.24臉部傾斜1 000550555眼睛閉合1 00088188.1
由表2所示, 利用筆者眼睛檢測算法分別在光照均衡、 光照不均、 配戴眼鏡、 臉部傾斜及眼睛閉合情況下進行測試。由測試結果可知: 光照均衡條件下, 通過調節(jié)適當?shù)哪w色閾值, 可將眼睛檢測率提高到98.8%, 漏檢樣本可能由眼睛閉合造成, 也可能由姿勢傾斜造成; 光照不均條件下, 由于二值化人臉樣本存在高光或者偏光帶來的干擾, 導致灰度圖像中膚色與眼睛并不能完全分開, 造成檢測率下降; 佩戴眼鏡對眼睛檢測的干擾巨大, 訓練的樣本中沒有包含戴眼鏡的樣本; 臉部傾斜, 對基于灰度人眼檢測影響較大, 究其原因, 也是由于灰度圖像中膚色與眼睛并不能完全分開, 影響判別條件的適用性; 眼睛閉合情況下, 準確率較高, 調整膚色閾值可使眼睛區(qū)域無論睜開或者閉合都能較為準確定位。
眼皮運動是一種視覺行為, 可有效反映一個人的疲勞程度。根據(jù)易于測量并且疲勞狀態(tài)代表性強等性能指標, 筆者選擇兩個具有代表性的眼皮疲勞評價參數(shù), 對其進行實時提取[17], 分別為眼睛開閉時間內眼睛閉合時間所占的百分比(PERCLOS: Percent Eyelid Closure over the Pupil Time)和眼皮平均閉合速度(AECS: Average Eyelid Closing Speed)。
PERCLOS的測量原理如圖8所示。通過測量t1~t4的時間節(jié)點可計算出PERCLOS的值
(12)
圖8 測量PERCLOS值的原理Fig.8 Measures the PERCLOS value principle
其中f代表眼睛閉合時間的百分率, 即PERCLOS值;t1是眼睛最大瞳孔閉合到80%瞳孔所用時間;t2-t1是眼睛80%瞳孔閉合到20%瞳孔所用的時間;t3-t2是眼睛20%瞳孔閉合到20%瞳孔張開所用時間;t4-t3是眼睛20%睜開到80%睜開所用時間。定義當眼睛瞳孔開度大于20%是睜開, 等于或更小為閉合。眼睛睜開或閉合是通過將其與標準眼睛圖像像素的模板比較得出的, 時間可通過每幀圖像處理的時間算出。
AECS是眼皮的平均閉合速度, 一般用眼皮從完全睜開到完全閉合所經歷的時間表示, 該參數(shù)也能較好的反應疲勞程度。因此AECS的計算方法為
tAECS=teveryn
(13)
其中tAECS代表眼皮平均閉合速度, 即AECS;tevery為每幀處理時間;n為連續(xù)閉眼的幀數(shù)。
筆者運用一種基于閾值分割的眼睛區(qū)域像素計算法, 由于膚色區(qū)域與眼睛區(qū)域存在很大差別, 因此可有效得到分離, 并通過計算眼睛面積進行眼睛狀態(tài)的判定。一般情況下, 眼睛的大小與眼睛睜開程度成正比, 通過二值化圖像眼睛區(qū)域的面積就能大體判斷出眼睛的開合度。此方法較模板匹配算法簡單, 易于實現(xiàn), 較擬合曲線可靠性強。算法如下。
1) 分開標定左眼和右眼區(qū)域, 計算眼睛區(qū)域面積。
2) 記錄連續(xù)50幀眼睛區(qū)域面積, 由于此50幀內保留睜眼和閉眼兩種狀態(tài), 因此需進行冒泡排序, 求取瞳孔面積最大40幀平均值, 作為后續(xù)判斷的基準。
3) 眼睛閉合閾值選擇, 調整閾值R, 觀察實驗結果并評估眨眼判斷準確率, 當眼部區(qū)域面積小于R時, 認定為眼睛閉合。如果在單位時間內眼睛閉合的幀數(shù)大于某一閾值, 即認定駕駛員處于疲勞狀態(tài)。
信息融合[18]是利用計算機技術對來自多個傳感器觀測信息進行分析和綜合處理。從而得出決策和估計任務所需信息的處理過程。信息融合的另一種說法是數(shù)據(jù)融合。但其內涵更廣泛, 更確切, 更合理, 也更具有概括性, 其不僅包括數(shù)據(jù), 而且包括了信號和知識。
筆者采用的信息融合技術是將眼睛疲勞不同參數(shù)進行相關融合, 得到最終的可反映駕駛員疲勞狀態(tài)的綜合指標。公式如下
(14)
其中m為某只眼睛疲勞指數(shù)權重,n為另一只眼睛疲勞指數(shù)權重[19,20],ffatigue為經過信息融合的駕駛員疲勞指數(shù)。疲勞指數(shù)與已知的閾值d比較是否疲勞駕駛: 當ffatigue>d時, 輸出顯示駕駛員為疲勞狀態(tài); 當ffatigue≤d時, 輸出顯示駕駛員為正常狀態(tài)。
筆者實現(xiàn)的基于視頻圖像的眼疲勞檢測, 基于Windows 7平臺, 在Microsoft Studio 2010開發(fā)環(huán)境中采用MFC環(huán)境和開源視覺庫OpenCV實現(xiàn)。整個軟件的實現(xiàn)界面如圖9所示。
圖9 軟件實現(xiàn)界面Fig.9 Software implementation interface
顯示窗口分為5部分: 軟件界面、 駕駛員視頻加載區(qū)、 二值化圖像顯示區(qū)、 調試區(qū)域和縮放視頻顯示區(qū)。每個部分功能如下。
1) 軟件界面。界面上有6個按鈕和兩個文本框, 按下每個按鈕都會執(zhí)行不同的操作。
2) 駕駛員視頻加載區(qū)和調試區(qū)域。運行時點擊“打開攝像頭”按鈕后攝像頭才被打開, 彈出“VIDEO”窗口, 才開始捕捉視頻, 同時會彈出“閾值設置”的窗口, 用于后續(xù)操作中設置閾值, 共有3個閾值, 前兩個是二值化操作的閾值, 最后一個是設置睜眼與閉眼分界點的閾值。當要停止軟件運行, 點擊界面的“退出”按鈕直接退出。
3) 縮放視頻顯示區(qū)。點擊按鈕“視頻縮放”后, 會彈出“縮放視頻”這個窗口, 人臉檢測即在此窗口進行, 為了縮短程序運行時間, 標定人臉圖像時在原像上進行。
4) 二值化圖像顯示區(qū)。點擊“人臉定位”和“人眼定位”按鈕之后, 會彈出“BINARY”這個窗口, 前兩個閾值大小要根據(jù)這個窗口進行調整。
在準確定位眼睛后, 點擊“眨眼頻率”按鈕, 通過“閾值設置”中第3個進度條確定眼睛閉合的閾值。通過前文所述方法判斷是否為疲勞駕駛。
筆者主要研究對象是基于視覺的駕駛員疲勞檢測方法, 通過對視頻圖像的采集、 預處理與圖像增強、 人臉檢測、 眼睛定位以及疲勞算法的研究, 實現(xiàn)了疲勞檢測系統(tǒng)的相關流程, 經測試分析, 該算法具有較高的實時性等特點。
參考文獻:
[1]朱淑亮. 基于視頻圖像處理與信息融合的駕駛員疲勞檢測技術研究 [D]. 濟南: 山東大學機械工程學院, 2008.
ZHU Shuliang. Research on Driver Fatigue Detection Based on Video Analysis and Information Fusion [D]. Jinan: School of Mechanical Engineering, Shandong University, 2008.
[2]姜華. 基于模式識別的駕駛員疲勞狀態(tài)檢測系統(tǒng)研究 [D]. 哈爾濱: 哈爾濱工業(yè)大學汽車工程學院, 2011.
JIANG Hua. Study on Driver Fatigue Detect System Based on Pattern Recognition [D]. Harbin: School of Automobile Engineering, Harbin Institute of Technology, 2011.
[3]王軍. 駕駛員疲勞檢測算法研究 [D]. 北京: 北京交通大學電子信息工程學院, 2017.
WANG Jun. Study on Driver Fatigue Detection Algorithm [D]. Beijing: School of Electronic Information Engineering, Beijing Jiaotong University, 2017.
[4]黃每裕. 歐洲人告別疲勞駕駛 [J]. 勞動安全與健康, 2000(11): 48.
HUANG Meiyu. Europeans Bid Farewell to Fatigue Driving [J]. Work Safety and Health, 2000(11): 48.
[5]朱序謀. 國外如何防止疲勞駕駛 [J]. 道路交通管理, 2000(12): 19.
ZHU Xumou. How to Prevent Fatigue Driving Abroad [J]. Road Traffic Management, 2000(12): 19.
[6]章毓晉. 圖像工程(上冊): 圖像處理 [M]. 北京: 清華大學出版社, 2006: 65-69.
ZHANG Yujin. Image Project (Uploaded): Image Processing [M]. Beijing: Tsinghua University Press, 2006: 65-69.
[7]曹菊英. 基于眼睛跟蹤技術的司機疲勞檢測方法的研究 [D]. 長沙: 中南大學計算機應用技術學院, 2007.
CAO Juying. Study on Fatigue Detection of Motor Driver Based on Eyes Tracking Technology [D]. Changsha: School of Computer Applied Technology, Central South University, 2007.
[8]江俊. 人眼定位算法設計與人臉識別系統(tǒng)的軟件移植 [D]. 武漢: 華中科技大學電子信息與通信學院, 2012.
JIANG Jun. Design of Eyes Location Algorithm and Software Porting for Face Recognition System [D]. Wuhan: School of Electronic Information and Communications, Huazhong University of Science and Technology, 2012.
[9]羅超. 基于駕駛員行為特征的疲勞駕駛檢測方法的實現(xiàn) [D]. 武漢: 武漢理工大學信息工程學院, 2013.
LUO Chao. The Realization of Driver Fatigue Detection Method Based on Driver Behavior Characteristics [D]. Wuhan: School of Information Engineering, Wuhan University of Technology, 2013.
[10]鄭培, 宋正河, 周一鳴. 機動車駕駛員駕駛疲勞測評方法的研究狀況及發(fā)展趨勢 [J]. 中國農業(yè)大學學報, 2001, 6(6): 101-105.
ZHENG Pei, SONG Zhenghe, ZHOU Yiming. Study Situation and Developing Trend on Detecting and Evaluating Techniques of Motor Driver Fatigue [J]. Journal of China Agricultural University, 2001, 6(6): 101-105.
[11]YANG M H, KRIEGMAN D J, AHUJA N. Detecting Faces in Images: A Survey [J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2002, 24(1): 34-58.
[12]郭克友, 儲江偉, 王榮本. 駕駛員眼部狀態(tài)識別方法的研究 [J]. 系統(tǒng)工程與電子技術, 2003, 25(10): 1186-1188.
GUO Keyou, CHU Jiangwei, WANG Rongben. Study on the Recognition of the Driver’s Eye States[J]. Systems Engineering and Electronics, 2003,25(10): 1186-1188.
[13]WANG R B, GUO L, TONG B L, et al. Monitoring Mouth Movement for Driver Fatigue or Distraction with One Camera [C]∥The 7thInternational IEEE Conference on Intelligent Transportation Systems. Washington, D C, USA :AAAI Press, 2004: 314-319.
[14]WANG Tiesheng, SHI Pengfei. Yawning Detection for Determining Driver Drowsiness[C]∥Proceedings of IEEE International Workshop on VLSI Designer and Video Technology. Suzhou, China: IEEE Press, 2005: 373-376.
[15]LIN C. Face Detection in Complicated Backgrounds and Different Illumination Conditions by Using YCbCr Color Space and Neural Network [J]. Pattern Recognition Letters, 2007, 28(16): 2190-2200.
[16]夏良正, 李久賢. 數(shù)字圖像處理 [M]. 南京: 東南大學出版社, 2005.
XIA Liangzheng, LI Jiuxian. Digital Image Processing [M]. Nanjing: Southeast University Press, 2005.
[17]廖傳錦, 秦小虎, 黃席樾. 以人為中心的汽車主動安全技術綜述 [J]. 計算機仿真, 2004, 21(9): 152-156.
LIAO Chuanjin, QIN Xiaohu, HUANG Xiyue. The State of Arts of Human-Centered Vehicle Active Safety Technology [J]. Computer Simulation, 2004, 21(9): 152-156.
[18]黃超, 謝康林, 杜平. 基于Adaboost的快速人臉跟蹤算法 [J]. 計算機工程, 2004, 30(S): 373,374.
HUANG Chao, XIE Kanglin, DU Ping. A Fast Face Tracking Algorithm Based on Powerful Adaboost [J]. Computer Engineering, 2004, 30(S): 373,374.
[19]楊露菁, 余華. 多源信息融合理論與應用 [M]. 北京: 北京郵電大學出版社, 2006.
YANG Lujing, YU hua. Multi-Source Information Fusion Theory and Application [M]. Beijing: Beijing University of Posts and Telecommunications, 2006.
[20]李志春. 駕駛員疲勞狀態(tài)檢測技術研究及工程實現(xiàn) [D]. 鎮(zhèn)江: 江蘇大學汽車與交通工程學院, 2009: 67-69.
LI Zhichun. Research on Driver’s Fatigue Status Detection Technology and Realization in Engineering [D]. Zhenjiang: School of Automotive and Traffic Engineer, Jiangsu University, 2009: 67-69.