亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種疲勞駕駛檢測系統(tǒng)中快速人眼檢測方法

        2015-07-20 11:01蘇起揚(yáng)
        現(xiàn)代電子技術(shù) 2015年4期
        關(guān)鍵詞:人眼人臉分類器

        蘇起揚(yáng),婁 震

        (南京理工大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院 江蘇 南京 210094)

        0 引言

        國內(nèi)外研究表明,駕駛員在疲勞的狀態(tài)下,對(duì)周圍環(huán)境的感知能力、危險(xiǎn)的判斷能力和車輛的操控能力都會(huì)較正常情況有不同程度的下降,從而導(dǎo)致交通事故[1]。因此,疲勞駕駛檢測具有極為重要的意義。

        當(dāng)前疲勞檢測系統(tǒng)主要采用基于圖像處理技術(shù)的非接觸檢測方法,這種疲勞駕駛系統(tǒng)主要是檢測與分析駕駛員眼睛的狀態(tài)。在疲勞駕駛發(fā)生時(shí),駕駛員眨眼頻率會(huì)上升,閉眼時(shí)間增加,基于眼睛狀態(tài)的疲勞駕駛標(biāo)準(zhǔn) PERCLOS(Percentage of Eyelid Closure Over the Pu?pil Over Time)是目前最為準(zhǔn)確同時(shí)也是被廣泛接受的標(biāo)準(zhǔn)[2?3]。

        目前基于圖像處理技術(shù)的疲勞駕駛檢測系統(tǒng)的算法主要采用基于Haar特征的AdaBoost算法,該方法首先采用級(jí)聯(lián)分類器確定人臉區(qū)域,再用同樣的方法確定人眼位置,通過分析人眼狀態(tài)結(jié)合PERCLOS標(biāo)準(zhǔn)來判斷疲勞駕駛行為是否發(fā)生。而在實(shí)際運(yùn)用環(huán)境中,由于攝像頭與人臉?biāo)山嵌鹊母淖?、駕駛員頭部的晃動(dòng)、車輛抖動(dòng)等因素,AdaBoost算法表現(xiàn)出較差的魯棒性,拒真率高導(dǎo)致識(shí)別率較低[4];搜索人眼的過程中也有采用模板匹配的方法,模板匹配計(jì)算規(guī)模較大,而且在人眼睜閉時(shí),由于目標(biāo)形狀的變化,采用固定單一模板會(huì)丟失目標(biāo),如果采取多種模板匹配則計(jì)算量過大,無法達(dá)到實(shí)時(shí)性要求[5];也有通過主動(dòng)形狀模型(Active Shape Model,ASM)、動(dòng)態(tài)輪廓模(Active Appreance Model,AAM)獲取人眼精確的特征點(diǎn)坐標(biāo),再通過這些特征點(diǎn)計(jì)算上下眼眶距離完成眨眼判斷,這種方法結(jié)果精確,但是計(jì)算量龐大無法部署于實(shí)際操作環(huán)境中,并且算法對(duì)光照敏感[6]。國內(nèi)也有學(xué)者使用改進(jìn)的Mean?shift算法,根據(jù)像素值分布特征以及梯度方向特征追蹤人眼,這種方法同樣面臨實(shí)時(shí)性的問題[7]。

        綜上所述,若要在疲勞駕駛系統(tǒng)中人眼檢測必須具備如下要素:

        (1)實(shí)時(shí)性;

        (2)人眼檢測精確;

        (3)魯棒性強(qiáng)。

        1 方法設(shè)計(jì)

        疲勞駕駛檢測系統(tǒng)通常分為人臉檢測與人眼檢測兩部分,本文采用檢測與跟蹤相結(jié)合的方法完成這兩部分檢測;第一節(jié)討論了AdaBoost與差分跟蹤相結(jié)合的人臉檢測步驟;第二節(jié)討論了AdaBoost與變模板匹配相結(jié)合的人眼檢測步驟;第三節(jié)討論了傳統(tǒng)“人臉?人眼”模型的缺點(diǎn),并提出了一種改進(jìn)方法,提高了人臉檢測和人眼檢測兩部分整體的運(yùn)行效率。

        1.1 人臉檢測步驟

        人眼檢測目標(biāo)相對(duì)于整體圖像較小,直接檢測人眼運(yùn)算量較大,并且會(huì)產(chǎn)生較多非目標(biāo)結(jié)果,通常在檢測人眼之前首先進(jìn)行人臉區(qū)域定位。Paul Viola和Mi?chael Jones于 2001提出的基于Haar?like特征的 Ada?Boost算法可以精確快速地識(shí)別人臉區(qū)域。

        AdaBoost算法給予每個(gè)訓(xùn)練樣本不同的權(quán)重,每個(gè)權(quán)重表示相應(yīng)樣本被錯(cuò)分的概率。算法進(jìn)行N次迭代,產(chǎn)生N個(gè)弱分類器,在每一次迭代時(shí),樣本權(quán)重產(chǎn)生變化,在上次迭代中被錯(cuò)誤分類的樣本獲得更大的權(quán)重,進(jìn)入下一次迭代時(shí),根據(jù)更新后樣本的權(quán)重選取部分樣本訓(xùn)練下一個(gè)弱分類器,最后將這N個(gè)弱分類器加權(quán)得到一個(gè)級(jí)聯(lián)的強(qiáng)分類器[8]。訓(xùn)練方法如下:

        (1)根據(jù)樣本分布Dj,對(duì)訓(xùn)練集S進(jìn)行有放回的抽樣產(chǎn)生訓(xùn)練集Sj。

        (2)在訓(xùn)練集Sj上使用學(xué)習(xí)算法訓(xùn)練弱分類器cj。

        (3)用訓(xùn)練所得的分類器cj分類原訓(xùn)練集S中所有樣本,得到誤差:

        式中Zj是一個(gè)正規(guī)因子用來確保cj為本輪迭代所得弱分類器;αj為cj對(duì)應(yīng)的權(quán)重。

        (5)得到強(qiáng)分類器C,由上述所產(chǎn)生的所有弱分類器加權(quán)求和得到:

        上述算法在弱分類器訓(xùn)練中采用Haar?like特征,利用AdaBoost算法訓(xùn)練人臉分類器定位人臉。

        人臉檢測是粗定位,是為了確定下一步驟人眼檢測的搜索區(qū)域,對(duì)精確度要求不高。為了盡可能快速得到人臉區(qū)域,在前幾幀檢測到人臉的情況下,本文采用差分方法進(jìn)人臉跟蹤,根據(jù)之前幀中人臉位置確定當(dāng)前人臉位置。

        在視頻序列中 fk(x ,y),fk-3(x ,y)分別為第k幀和第k-3幀圖像中人臉矩形框向外各擴(kuò)大10像素以后的區(qū)域,width,height為其長寬。對(duì) fk(x ,y),fk-3(x ,y)進(jìn)行差值運(yùn)算,并二值化得到g(x ,y)。統(tǒng)計(jì)g(x ,y)中所有像素點(diǎn)I(x ,y)>0的個(gè)數(shù),記為N1。若N1小于某閾值即 N1<Threshold×(w idth×height),則認(rèn)為區(qū)域中人臉沒有產(chǎn)生明顯移動(dòng),將k-3幀中人臉區(qū)域作為第k幀結(jié)果,否則進(jìn)行更新,更新方法如下:

        (1)計(jì)算g(x ,y),水平方向和垂直方向的灰度投影pojH(y),pojV(x);

        (2)求解OffsetX,OffsetY使得:

        式中OffsetX,OffsetY為跟蹤結(jié)果相對(duì)于上一幀人臉區(qū)域的偏移量。

        (3)根據(jù)OffsetX,OffsetY更新人臉矩形區(qū)域。人臉粗定位效果如圖1所示。

        圖1 連續(xù)10幀人臉檢測與差分跟蹤結(jié)果

        1.2 人眼檢測步驟

        由上述步驟得到人臉區(qū)域后FROI(Face Region On Interest),在區(qū)域內(nèi)進(jìn)行人眼檢測。人眼檢測是整個(gè)系統(tǒng)的關(guān)鍵步驟,直接影響到后續(xù)人眼狀態(tài)分析,要求檢測到的人眼保證精確。由于人眼區(qū)域較小,采用Ad?aBoost等算法經(jīng)常會(huì)將鼻孔嘴巴等器官誤識(shí)別,所以在檢測前,首先根據(jù)人臉三庭五眼的特征,取人臉區(qū)域上部分區(qū)域進(jìn)行人眼檢測,同時(shí)縮小一半計(jì)算量。

        人眼檢測中使用的AdaBoost算法與人臉檢測中基本相同,在實(shí)際環(huán)境中,由于行車晃動(dòng),司機(jī)張望等客觀因素,AdaBoost很難達(dá)到較高的識(shí)別率,通常低于60%,而人類眨眼只需要0.2~0.6 s就可以完成,單一采用Ad?aBoost算法會(huì)嚴(yán)重影響系統(tǒng)的準(zhǔn)確度。

        雖然AdaBoost識(shí)別率較低,但是其檢測出的結(jié)果誤識(shí)率極低,即結(jié)果準(zhǔn)確。結(jié)合AdaBoost算法所得結(jié)果準(zhǔn)確的特點(diǎn),本文設(shè)計(jì)了一種采用改進(jìn)的LBP特征的快速模板匹配方法,該方法在AdaBoost算法失效時(shí),采用前一幀已檢測到的人眼作為新的模板進(jìn)行匹配,解決了模板匹配中單一模板無法應(yīng)對(duì)眨眼時(shí)結(jié)果不精確的問題,同時(shí)LBP特征對(duì)于旋轉(zhuǎn)和晃動(dòng)不敏感,有效的提高了人眼檢測的效果。

        LBP特征是一種用來描述圖像局部紋理的特征算子,它在1994年由T.Ojala,D.Harwood等人提出。算子描述如下:

        對(duì)于圖片中一個(gè)像素Ii=F(xi,yi),其中F為圖像,x,y分別為對(duì)應(yīng)像素橫縱坐標(biāo):

        式中P表示像素xi周圍像素點(diǎn)集合,LBP的計(jì)算采用二進(jìn)制。一個(gè)像素點(diǎn)產(chǎn)生一個(gè)8位的二進(jìn)制的字符串,一種字符串排列表示一種模式。本文采用Uniform LBP,即將二進(jìn)制字符串排列根據(jù)旋轉(zhuǎn)不變性從原來的256種模式壓縮成59種模式[9]。

        由于目標(biāo)人眼圖像中人的眼睛位于圖片中央,上下部分大多為皮膚,在匹配過程中,人眼部分的特征會(huì)被皮膚掩蓋,本文使用y軸方向一維高斯模板,給予人眼部分y軸方向較高的權(quán)重,皮膚部分較低權(quán)重,并且減少了眉毛部分對(duì)結(jié)果的影響,實(shí)驗(yàn)表明新特征LBPG得到了較好的效果,新算子表達(dá)如下:

        式中G為高斯函數(shù):

        式中 μ為H 2,H為圖像高度。

        取上一幀檢測到人眼位置上下左右各擴(kuò)展10%人臉區(qū)域長度個(gè)像素所得區(qū)域作為搜索區(qū)域,將上一幀檢測到的人眼作為模板進(jìn)行模板匹配搜索新的人眼位置。效果如圖2所示。

        1.3 “人臉?人眼”模型改進(jìn)

        上述兩節(jié)人臉檢測與人眼檢測的部分。在傳統(tǒng)“人臉?人眼”方法中,先進(jìn)行人臉檢測找出人臉區(qū)域FROI,再對(duì)FROI進(jìn)行人眼檢測找出人眼。這種方法對(duì)于每一幀都進(jìn)行以上兩個(gè)步驟,依次進(jìn)行,每一次檢測人臉區(qū)域都保證了下一步人眼檢測中待檢測區(qū)域的可靠性,但由于人臉檢測花費(fèi)時(shí)間巨大,犧牲了運(yùn)行速度。

        圖2 人眼檢測效果

        完成人眼檢測得到人眼結(jié)果后,可以發(fā)現(xiàn),在結(jié)果準(zhǔn)確的情況下,人眼位于圖片中央位置,而實(shí)際環(huán)境中,下一幀圖像中人眼位置發(fā)生的偏移并不大,檢測結(jié)果周圍區(qū)域可以直接作為下一幀新的FROI,直接進(jìn)行人眼檢測,跳過人臉檢測步驟。這樣可以省去人臉檢測的計(jì)算量,同時(shí)由于使用人眼結(jié)果周圍區(qū)域作為新的FROI,該區(qū)域通常小于人臉,從而減少了人眼檢測搜索面積也間接提高了人眼搜索算法的計(jì)算效率。

        上述分析可知,跳過人臉檢測步驟的前提是需要保證本幀人眼檢測是準(zhǔn)確的,即確保本幀檢測結(jié)果周圍區(qū)域作為新的FROI在下一幀對(duì)應(yīng)位置中包含人眼目標(biāo)。

        本文設(shè)計(jì)了一種基于logistic分類器用來檢驗(yàn)本幀檢測結(jié)果的準(zhǔn)確度,其輸入為本幀檢測結(jié)果和上一次AdaBoost成功檢測結(jié)果,分類器從多個(gè)角度判斷兩張圖片是否相似,由于AdaBoost人眼檢測誤識(shí)率極低,得到的人眼準(zhǔn)確度高,新檢測得到人眼如果與其相似,則認(rèn)為結(jié)果準(zhǔn)確,否則認(rèn)為本幀檢測結(jié)果不準(zhǔn)確。

        改進(jìn)后的流程在檢測完人眼以后,使用多特征分類器對(duì)結(jié)果進(jìn)行分析,判斷是否和上一幀人眼結(jié)果差異大小。一旦差異較小,則認(rèn)為人眼被檢測到,將人眼周圍區(qū)域作為下一幀的FROI跳過人臉檢測,否則算法依舊執(zhí)行人臉檢測部分,具體步驟如表1所示。

        表1 改進(jìn)后人眼檢測方法

        表中Step4具體步驟如下:

        對(duì)本幀圖像newEyeImg和上一次AdaBoost人眼檢測結(jié)果圖像AdaEyeImg,分別抽取特征向量v1,v2。本文從紋理特征,邊緣特征,灰度特征,以及彩色信息等角度來構(gòu)造特征向量v1,v2。

        接著分別計(jì)算v1,v2各特征分量之間的歐式距離得到差異特征向量D。采用logistic分類器對(duì)D進(jìn)行分類。特征分量具體如表2所示。

        表2 特征分量描述

        本文從17車次行車視頻中收集了1 217對(duì)正樣本,并在人眼檢測結(jié)果周圍選擇非人眼結(jié)果組成了1 537對(duì)負(fù)樣本,進(jìn)行訓(xùn)練,將1 389對(duì)樣本作為測試集,得到Logistic分類器準(zhǔn)確率為93.6%。

        2 實(shí)驗(yàn)及結(jié)果分析

        實(shí)驗(yàn)采用DM642芯片,主頻為720 MHz。實(shí)驗(yàn)對(duì)18位司機(jī)在其工作時(shí)進(jìn)行實(shí)際環(huán)境行車視頻采樣,共20段視頻。每段視頻各分析998幀行車視頻,圖像大小為352×288,得到人眼結(jié)果大小為20×20像素,首先驗(yàn)證了整體算法流程的識(shí)別率和效率,每段視頻平均檢測成功率為90.7%,具體如表3所示;接著比較傳統(tǒng)“人臉?人眼”模型和改進(jìn)過后方法各自每個(gè)步驟的執(zhí)行速度,如表4、表5所示所示;實(shí)驗(yàn)表明,兩種方法識(shí)別率接近,但是在計(jì)算時(shí)間上改進(jìn)后的方法明顯優(yōu)于傳統(tǒng)“人臉?人眼”模型,如表6所示。

        表3 總體算法檢測效果

        表4 “人臉?人眼模型”各步驟花費(fèi)時(shí)間

        表5 改進(jìn)后方法各步驟花費(fèi)時(shí)間

        表6 兩種方法識(shí)別率和運(yùn)算時(shí)間對(duì)比

        3 結(jié)語

        本文討論了傳統(tǒng)的“人臉?人眼”模型方式,總結(jié)了基于Haar?like特征的AdaBoost算法進(jìn)行人臉人眼檢測的優(yōu)缺點(diǎn),采用差分運(yùn)算快速跟蹤人臉以及變模板匹配提高人眼檢測成功率,并改進(jìn)了傳統(tǒng)的“人臉?人眼”模型,使用多特征的分類器跳過人臉部分,提高了整個(gè)系統(tǒng)的效率。實(shí)驗(yàn)表明,該方法在DSP開發(fā)板上可以以40 f/s左右的速度完成人眼的實(shí)時(shí)檢測,同時(shí)正確率在90%以上。該算法應(yīng)用于基于嵌入式芯片的疲勞駕駛檢測系統(tǒng)具有較高的實(shí)用性和商業(yè)價(jià)值。

        [1]李都厚,劉群,袁偉,等.疲勞駕駛與交通事故關(guān)系[J].交通運(yùn)輸工程學(xué)報(bào),2010,10(2):104?109.

        [2]劉秀,王長君,何慶.疲勞駕駛交通事的特點(diǎn)分析與預(yù)防[J].中國安全生產(chǎn)科學(xué)技術(shù),2008(1):129?131.

        [3]夏芹,宋義偉,朱學(xué)峰.基于PERCLOS的駕駛疲勞監(jiān)控方法進(jìn)展[J].自動(dòng)化技術(shù)與應(yīng)用,2008(6):43?46.

        [4]嚴(yán)超,王元慶,張兆揚(yáng).基于AdaBoost和Kalman算法的人眼檢測與跟蹤[J].南京大學(xué)學(xué)報(bào):自然科學(xué)版,2010,46(6):681?687.

        [5]王江波,李紹文.基于AdaBoost算法和模板匹配的人眼定位[J].計(jì)算機(jī)測量與控制,2012,20(5):1347?1349.

        [6]程如中,趙勇,戴勇,等.基于AdaBoost方法的車載嵌入式疲勞駕駛預(yù)警系統(tǒng)[J].北京大學(xué)學(xué)報(bào):自然科學(xué)版,2012,48(5):719?726.

        [7]彭召意,周玉,朱文球.用于疲勞駕駛檢測的人眼快速跟蹤方法[J].計(jì)算機(jī)工程,2010,36(15):191?193.

        [8]李維維,胡桂明,何龍玲,等.基于AdaBoost算法的人臉疲勞檢測[J].自動(dòng)化技術(shù)與應(yīng)用,2014,33(2):46?48.

        [9]鄭永斌,黃新生,豐松江.SIFT和旋轉(zhuǎn)不變LBP相結(jié)合的圖像匹配算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2010,22(2):286?292.

        猜你喜歡
        人眼人臉分類器
        有特點(diǎn)的人臉
        人眼X光
        人眼為什么能看到虛像
        三國漫——人臉解鎖
        BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
        閃瞎人眼的,還有唇
        加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
        結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
        看人,星光璀璨繚人眼
        馬面部與人臉相似度驚人
        少妇饥渴xxhd麻豆xxhd骆驼| 中文字幕高清不卡视频二区| 五月色丁香婷婷网蜜臀av| 99久久综合精品五月天| 91av视频在线| 国产精品毛片av一区二区三区 | 91孕妇精品一区二区三区| 77777亚洲午夜久久多人| 日韩欧美精品有码在线观看| 日本高清不卡二区三区| 亚洲国产精品久久久久久无码| 3d动漫精品一区二区三区| 国产一区二区三区爆白浆| 在线观看一区二区三区国产| 国产乱人无码伦av在线a| 亚洲va中文字幕无码久久不卡 | 国产美女自拍国语对白| 开心五月激情五月五月天| 色avav色av爱avav亚洲色拍| 久久天天爽夜夜摸| 日本黄色高清视频久久| 日本三级香港三级人妇99| 人人妻人人澡人人爽欧美二区| 欧美综合图区亚洲综合图区| 成人av一区二区三区四区 | 亚洲精品无码不卡在线播放he| 久久国产精品老女人| 国产丝袜美腿一区二区三区| 国产乱人对白| 狠狠噜天天噜日日噜| 精品国产一品二品三品| 精品亚洲一区二区三区四| 又爽又黄又无遮挡的激情视频| 在线成人tv天堂中文字幕| 国产在线一区二区三区四区乱码| 亚欧中文字幕久久精品无码| 亚洲男人天堂网站| 一区二区三区四区免费国产视频| 十八禁无遮挡99精品国产| 熟妇人妻中文字幕无码老熟妇| 成av人片一区二区三区久久|