亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合人眼特征與深度學習的疲勞駕駛檢測模型

        2021-08-20 04:54:26劉占文竇瑞娟
        計算機工程 2021年8期
        關(guān)鍵詞:眼部人臉投影

        樊 星,劉占文,林 杉,竇瑞娟

        (1.長安大學 電子與控制工程學院,西安 710064;2.長安大學 信息工程學院,西安 710064)

        0 概述

        疲勞駕駛是導(dǎo)致交通事故的重要因素之一,會給國家和個人的生命財產(chǎn)安全造成嚴重損失。疲勞是一種隨著時間的推移而積累的生理狀態(tài),在事故發(fā)生前的一段時間內(nèi)駕駛員就會出現(xiàn)相應(yīng)的征兆[1]。若能提前發(fā)現(xiàn)疲勞狀態(tài),使駕駛?cè)朔艞墝囕v的控制,則能有效減少疲勞駕駛造成的交通事故。

        現(xiàn)有疲勞駕駛檢測方法主要分為基于車輛行駛模式檢測、基于駕駛員生理特征檢測、基于駕駛員行為檢測3 類。車輛行駛模式包括轉(zhuǎn)向模式、制動模式和車輛在車道上的位置[2-3],對其檢測對路況和駕駛技能有很強的依賴性。駕駛員生理特征主要包括通過生物電信號獲得的腦電圖(EEG)、心電圖(ECG)和眼電圖(EOG)[4-5]。文獻[6]提出一種自適應(yīng)多尺度熵特征提取算法,基于腦電數(shù)據(jù)檢測疲勞狀態(tài)。文獻[7]提取駕駛員心率變異性數(shù)據(jù)以實現(xiàn)疲勞駕駛的檢測。文獻[8]利用表頸腰部肌電信號EMG和頭部腦電信號EEG 判別駕駛員的疲勞狀態(tài)。文獻[9]通過采集眼瞼周圍皮膚上的肌電信號檢測眼瞼的閉合情況,從而達到疲勞檢測的目的。然而,生理信號采集需要駕駛員佩戴各種信號測量工具,這降低了駕駛員的駕駛舒適性,易對駕駛行為造成影響,不能大范圍推廣。

        駕駛員行為監(jiān)測隨著機器視覺技術(shù)的廣泛應(yīng)用而成為研究的熱點,主要包括面部特征,如閉眼、頭部運動、打哈欠時間、凝視或面部表情。文獻[10]提出用Viola-Jones 算法檢測人臉表情和眼部位置,再利用眼跟蹤技術(shù)采集眨眼持續(xù)時間和眨眼頻率的特征來完成疲勞檢測。文獻[11]設(shè)計哈欠熱成像模型來檢測哈欠,以反映駕駛員的疲勞程度。文獻[12]通過結(jié)合駕駛員的面部幾何特征與手部運動特征來確定駕駛員的疲勞狀態(tài)。

        近年來,深度卷積神經(jīng)網(wǎng)絡(luò)(Deep Convolution Neural Network,DCNN)[13]在圖像分類、目標檢測、情感識別、場景分割等計算機視覺任務(wù)中取得了突破性成就。將人臉視覺特征與深度學習相結(jié)合,這種非接觸式的方法不會干擾駕駛員的正常駕駛,適用于實際駕駛環(huán)境下的疲勞駕駛檢測。文獻[14]提出三網(wǎng)絡(luò)并聯(lián)架構(gòu),使用AlexnNet[15]學習圖像特征,采用VGG FaceNet[16]提取人臉特征,再用FlowImageNet[17]提取行為特征。文獻[18]根據(jù)PFLD 深度學習模型進行人臉關(guān)鍵點檢測并通過多特征融合策略獲取駕駛?cè)藛T疲勞狀態(tài)。Reddy 利用多任務(wù)級聯(lián)卷積網(wǎng)絡(luò)(Multitask Cascade CNN,MTCNN)[19]對人臉進行檢測和對齊,然后利用駕駛員嗜睡檢測網(wǎng)絡(luò)(Driver Drowsiness Detection Network,DDDN)[20]檢測駕駛員疲勞。

        車載傳感器的廣泛應(yīng)用使得人臉特征與深度學習相互融合,為疲勞駕駛檢測提供了一種有效方法。然而,駕駛員的面部特征易受角度、方向變化的影響。同時,深度學習架構(gòu)的規(guī)模較大,且存在較多參數(shù)冗余,這增加了計算復(fù)雜度與時間復(fù)雜度。因此,如何提高檢測方法的準確性和實時性是疲勞檢測研究的重點。

        針對上述問題,本文提出一種融合人眼特征與深度學習的疲勞駕駛檢測模型。采用端到端的學習架構(gòu)進行人臉對齊,通過直接形狀回歸消除算法對人臉檢測的依賴性,減少關(guān)鍵點提取的時間消耗。在此基礎(chǔ)上,設(shè)計一個融合Ghost模塊和先驗約束的疲勞檢測網(wǎng)絡(luò),將駕駛員疲勞狀態(tài)定量地標記為9 個等級,實現(xiàn)對疲勞狀態(tài)的細粒度檢測與識別。此外,通過少樣本學習來解決收集數(shù)據(jù)標注成本高、難度大的問題,從而以最小的代價對收集到的訓(xùn)練數(shù)據(jù)進行標記。

        1 疲勞駕駛檢測模型

        1.1 眼部區(qū)域提取

        駕駛員處于疲勞狀態(tài)時,眼部張角會發(fā)生變化,眨眼頻率也會降低,在所有面部特征中,眼部參數(shù)能夠更全面地揭示反映疲勞程度的信息。然而,眼部在典型人臉圖像中所占的區(qū)域很小,導(dǎo)致人眼檢測的高難度、低精度以及低實時性?;谌四槝酥军c的眼部區(qū)域提取是一種有效解決上述問題的方法。人臉圖像和相關(guān)面部形狀之間的高度非線性關(guān)系是人臉關(guān)鍵點檢測的主要難點,為了減少對級聯(lián)回歸的依賴性,本文在端到端學習框架中通過直接形狀回歸網(wǎng)絡(luò)(Direct Shape Regression Network,DSRN)[21]實現(xiàn)人臉關(guān)鍵點提取。DSRN 利用雙卷積層和傅里葉特征聚合層有效地解決了圖像與形狀之間高度非線性關(guān)系,再結(jié)合低階學習的線性層有效地處理了關(guān)鍵點之間的相關(guān)性,提高了性能。由DSRN 獲得的面部標志點包括面部邊界、眉毛、眼部、鼻子和嘴唇,如圖1 所示。

        圖1 用于人臉對齊的DSRN 體系結(jié)構(gòu)Fig.1 DSRN framework for face alignment

        在所有標記點中,共有12 個點與眼部特征相關(guān),其中左眼和右眼分別為6 個。研究表明,局部人臉圖像可以提供與全局人臉圖像相似的特征[22],因此,本文只提取左眼相關(guān)特征進行疲勞檢測,標志點分布如圖2 所示。其中,A 和B 分別是上下眼瞼的內(nèi)交點和外交點,C、E 為AB 線三等分點近內(nèi)交點處與上下眼瞼的交點,D、F 為AB 線三等分點近外交點處與上下眼瞼的交點。則眼部的長度和寬度為:

        圖2 基于左眼標志點的眼部區(qū)域提取Fig.2 Eye region extraction based on left eye landmarks

        基于面部標志點提取的眼部區(qū)域為:

        1.2 模型構(gòu)建

        1.2.1 G-VGG16

        基于眼部區(qū)域建立疲勞駕駛檢測模型,提取疲勞相關(guān)特征,并根據(jù)眼部狀態(tài)在一段時間內(nèi)的變化來估計駕駛員的狀態(tài)。疲勞是一種隨著時間的推移而積累的生理狀態(tài)。當長時間無中斷駕駛時,駕駛員需要不斷地感知和識別其余交通參與者的行為狀態(tài),導(dǎo)致精神長期高度緊張,產(chǎn)生疲勞,造成事故瞬間發(fā)生。疲勞檢測的實時性對其產(chǎn)生預(yù)警作用至關(guān)重要。

        眼部結(jié)構(gòu)簡單,淺層網(wǎng)絡(luò)即可對眼部特征提取分類。然而,駕駛員疲勞產(chǎn)生過程中存在過渡狀態(tài),不能簡單地將其劃分為疲勞和清醒狀態(tài)。細化疲勞分類需要提取細粒度的眼部特征,選擇VGG16[23]作為基礎(chǔ)特征提取網(wǎng)絡(luò)。為了輕量化網(wǎng)絡(luò)以提高其實時性與移植性,受文獻[24]啟發(fā),本文在VGG16 中引入Ghost 模塊,得到G-VGG16。傳統(tǒng)CNN 通過不同卷積核參數(shù)計算得到的特征圖具有高度相似性,導(dǎo)致特征圖冗余。Ghost 模塊在減少輸出通道的情況下,通過常規(guī)卷積運算生成固有特征圖,再基于固有特征圖,通過簡單的線性變換生成更多的相似特征圖,稱為Ghost 特征圖,最后得到與普通卷積方法生成特征圖數(shù)量相同的特征圖,如圖3 所示。

        圖3 Ghost 模型架構(gòu)Fig.3 Ghost model architecture

        假設(shè)普通卷積的通道數(shù)為n,當前通道數(shù)為m,固有特征圖表示為Y′,則得到式(5)。

        G-VGG16 在原有卷積運算的基礎(chǔ)上,采用線性變換生成合適的Ghost 特征圖,充分揭示了特征的內(nèi)在關(guān)聯(lián)性。通過這種低成本的代換,有效地簡化了模型的參數(shù)量和運算量,可以在較短的響應(yīng)時間內(nèi)得到眼部的特征表示,從而降低模型的運行成本,提高其實時性和可移植性。

        1.2.2 GP-VGG16 網(wǎng)絡(luò)

        通過投影變換可以將特征從高維映射到低維,從而更緊湊。對眼部區(qū)域圖像進行二值化處理,并對二值化圖像進行垂直積分投影,獲得垂直積分投影曲線。觀察發(fā)現(xiàn),眼部狀態(tài)的不同會導(dǎo)致其整體投影特征有所差異,如圖4 所示。由于受眼球灰度的影響,睜眼的積分投影特征圖具有主峰波形。相反,閉眼的積分投影特征圖是平坦的波形,而當眼部張度不同時,主峰的高度也會隨之變化。眼部積分投影波形變化的特征可以對眼部張開狀態(tài)進行有效預(yù)判。

        圖4 不同眼部狀態(tài)的積分投影特征圖Fig.4 Integral projection feature maps of different eye states

        本文將積分投影得到的投影矢量調(diào)制作為先驗知識引入到疲勞狀態(tài)分類網(wǎng)絡(luò)中。將先驗信息看作一種特征映射直接附加到G-VGG16 卷積層的輸出中,在G-VGG16的輸出端增加concat層,將網(wǎng)絡(luò)特征提取結(jié)果與先驗知識相融合,如圖5所示,輸出前的最后一個卷積層可以有效提取包含先驗信息的眼部特征,這種增加離線計算,對輸入的眼部區(qū)域進行投影處理作為預(yù)處理的方法,可以提高眼部狀態(tài)識別的準確性和有效性。

        圖5 本文疲勞駕駛檢測網(wǎng)絡(luò)整體框架Fig5 Overall framework of the proposed fatigue driving detection network

        本文選用GP-VGG16 作為特征提取模型,并基于提取的眼部特征,建立眼部特征-疲勞等級模型。先將疲勞狀態(tài)劃分為9 個等級,再根據(jù)時間段內(nèi)疲勞等級的變化來定量地估計駕駛員狀態(tài)。

        1.3 少樣本學習

        現(xiàn)有公測數(shù)據(jù)集并不適用于本文模型,需要自己收集數(shù)據(jù)集進行訓(xùn)練與測試。然而深度學習模型需要大量的標記數(shù)據(jù)和多次迭代來訓(xùn)練參數(shù),若訓(xùn)練數(shù)據(jù)過少,在測試集上易出現(xiàn)過擬合現(xiàn)象,嚴重影響測試精度。因此,需要以最小的代價標記收集到的訓(xùn)練數(shù)據(jù)。少樣本學習就是在訓(xùn)練數(shù)據(jù)非常有限的情況下有效識別出新目標?,F(xiàn)有方法通常采用數(shù)據(jù)增強和正則化以及元學習來緩解數(shù)據(jù)缺乏問題,本文通過端到端的少樣本學習框架實現(xiàn)從有限的樣本實例中對新類識別的自學習。

        從訓(xùn)練數(shù)據(jù)集的每一類中選取M個樣本,并根據(jù)KSS 表[25]手動標記。然后從這M個樣本中選擇K個樣本作為支持集S,剩余樣本作為查詢集Q,用于模擬在數(shù)據(jù)標注中將遇到的未標記集?;谥С旨筒樵兗?xùn)練關(guān)系網(wǎng)絡(luò)(Relationship Network,RN)[26],再將所有的支持集和未標記數(shù)據(jù)集映射到RN 中,計算來自不同集合的2 幅圖像之間的相似度,對采集到的疲勞數(shù)據(jù)進行自適應(yīng)標記。

        RN 由2 個部分組成,一部分是用于提取圖像特征的嵌入模塊fφ,另一部分是用于計算2 個圖像相似性的關(guān)系模塊gφ,總體結(jié)構(gòu)如圖6 所示。

        圖6 RN 的整體架構(gòu)Fig.6 Overall architecture of RN

        首先通過嵌入模塊fφ分別得到支持集S 中樣本xi的特征圖fφ(xi)和查詢集Q 中樣本xj的特征圖fφ(xj);然后將fφ(xi)和fφ(xj)在深度維度中連接得到特征圖C(fφ(xi),fφ(xj)),連接特征圖通過關(guān)系模塊gφ輸出關(guān)系得分,以表示xi和xj之間的相似性,如式(6)所示。

        其中:ri,j表示關(guān)系得分,C 表示分類類別數(shù),本文中C為9。輸出關(guān)系得分為0~1,0 表示非常不同,1 表示完全相似。最后,根據(jù)關(guān)系得分判斷未標注樣本的類別。

        2 實驗

        2.1 疲勞檢測數(shù)據(jù)集

        目前用于疲勞檢測的公測數(shù)據(jù)集主要包括Drazy 數(shù)據(jù)集[27]、NTHU 駕駛員疲勞檢測數(shù)據(jù)集[28]、Closed Eyes in the Wild(CEW)數(shù)據(jù)集[29]和ZJU 眨眼數(shù)據(jù)集[30]。Drazy 數(shù)據(jù)集包含多種用于疲勞檢測的數(shù)據(jù),但其只包含11 個受試者的數(shù)據(jù),不適用于CNN 訓(xùn)練的模型。NTHU 數(shù)據(jù)集、CEW 數(shù)據(jù)集和ZJU 數(shù)據(jù)集包含各種場景下的RGB 圖像和視頻,然而其疲勞程度分類標簽主要為疲勞、不疲勞兩類,與本文的實驗環(huán)境不同,這些局限性使得上述數(shù)據(jù)集很難應(yīng)用于本文提出的模型。因此,本文在自己收集的自定義數(shù)據(jù)集上進行相應(yīng)實驗。

        實驗招募12 名年齡在25~35 歲的受試者(4 名女性和8 名男性),要求至少有2 年駕駛經(jīng)驗,無視力矯正,健康狀況良好,無睡眠障礙,且在實驗前24 h 時內(nèi)禁食咖啡和酒精。本文使用駕駛模擬器和攝像機記錄駕駛員的轉(zhuǎn)向數(shù)據(jù)和面部圖像。將人臉圖像作為疲勞狀態(tài)識別網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù)集,轉(zhuǎn)向數(shù)據(jù)作為數(shù)據(jù)標注的輔助。

        實驗采用天氣正常、交通參與者行為正常的全封閉標準公路作為測試駕駛環(huán)境。不同睡眠時間的參與者進入疲勞狀態(tài)的時間和最終的疲勞程度是不同的,為了收集到更全面的數(shù)據(jù),將受試者按照要求的睡眠時間分為2 組,一組睡眠時間為8 h(允許0.5 h 的誤差),另一組睡眠時間為4 h(允許0.5 h 的誤差)。實驗時間為上午8 點至11 點,每位駕駛員在最高車速為80 km/h 的要求下模擬駕駛4 h,直到疲勞過度無法繼續(xù)駕駛時實驗停止。實驗共獲得48 h的測試視頻數(shù)據(jù),將其劃分為2 880 個視頻片段,每個視頻片段包括1 500 張圖像。隨機抽取1 920 個視頻片段作為訓(xùn)練數(shù)據(jù)集,其余數(shù)據(jù)集作為測試數(shù)據(jù)集。

        2.2 數(shù)據(jù)標注

        為全面反映疲勞產(chǎn)生過程中的過渡狀態(tài),本文根據(jù)KSS 將疲勞狀態(tài)分為9 個等級,如表1 所示,每個等級都有唯一的KSS 得分標簽ki,ki∈1,2,…,9。研究表明,受試者的KSS 得分ki在駕駛期間呈線性增加,當ki∈1,2,3,4,5,6,駕駛員處于正常狀態(tài),當ki∈7 時,駕駛員處于過渡狀態(tài),當ki∈8,9 時,駕駛員處于疲勞駕駛狀態(tài)[4]。假定狀態(tài)的閾值為0.4,即當駕駛員在測試區(qū)間保持某個狀態(tài)的時間超過40%時,視為駕駛員處于該狀態(tài)。根據(jù)文獻[31],駕駛員處于喚醒狀態(tài)和過渡狀態(tài)時可以正??刂栖囕v。因此,當疲勞駕駛檢測模型輸出的KSS 評分滿足ki∈1,2,…,7 時,判定駕駛員處于正常狀態(tài),反之,駕駛員處于疲勞狀態(tài)。

        表1 Karolinska 困倦量化表Table 1 Karolinska sleepiness scale

        本文將駕駛員主觀評價與基于駕駛模擬器轉(zhuǎn)向數(shù)據(jù)的客觀評價方法相結(jié)合,實現(xiàn)駕駛員狀態(tài)的標注。首先要求駕駛員根據(jù)KSS 表在固定的時間間隔(5 min)報告其駕駛狀態(tài)。同時考慮到在從清醒到疲勞的整個駕駛狀態(tài)下,方向盤轉(zhuǎn)角的變化(CSWA)和方向盤轉(zhuǎn)角變化的速度(SSWAC)存在變化,選擇CSWA 和SSWAC 作為疲勞相關(guān)指標,對駕駛員報告的KSS 評分進行修正,得到最終的KSS 得分,作為疲勞駕駛檢測數(shù)據(jù)集中訓(xùn)練集的標簽。

        2.3 評價指標

        根據(jù)精確率、召回率、PRC、F1 值、準確度和運行速度對所提出的疲勞駕駛檢測模型的性能進行評估。

        精確率P和召回率R表示為:

        PRC 是由準確率和召回率組成的折線圖,F(xiàn)1是綜合識別率的評價指標,定義如下:

        2.4 實驗設(shè)計與分析

        2.4.1 疲勞駕駛檢測框架有效性驗證

        本文所有的訓(xùn)練和評估任務(wù)都基于配置NVIDIA GeForce GTX TITAN X GPU、12 GB 內(nèi)存的實驗平臺完成。采用隨機梯度下降(SGD)算法優(yōu)化訓(xùn)練疲勞駕駛檢測網(wǎng)絡(luò),動量和權(quán)重衰減分別設(shè)置為0.9和0.000 1。比較VGG16、G-VGG16、GP-VGG16這3 種網(wǎng)絡(luò)結(jié)構(gòu)的性能,以評估GP-VGG16 中該組成部分的有效性,實驗結(jié)果如表2 所示??梢钥闯?,Ghost 模塊的引入使得VGG16 緊湊化、輕量化,同時保持了較高的檢測性能。而先驗信息補充了相似開合度的眼部區(qū)域在特征提取過程中丟失的細節(jié)信息,提高了檢測識別精度。在運行速度方面,G-VGG16 算法將計算時間縮短了約40%,雖然增加積分投影特征圖對時間消耗帶來了輕微影響,但GP-VGG16 較好地平衡了檢測精度和時間成本,對疲勞狀態(tài)的高精度實時檢測具有重要意義。

        表2 不同檢測模型的性能比較Table 2 Performance comparison of different detection models

        選取4名不同測試階段的參與者的部分測試樣本,結(jié)果如圖7 所示。其中:參與者1 為25 歲男性,睡眠時間8 h;參與者2 為32 歲女性,睡眠時間8 h;參與者3 為28 歲男性,睡眠時間4 h;參與者4 為35 歲男性,睡眠時間8 h??梢钥闯?,不同的人經(jīng)過同一段時間,或者同一個人在不同的時間段,其疲勞狀態(tài)存在差異。在睡眠充足的條件下,在駕駛3 h 后,處于過渡狀態(tài)的概率大于疲勞狀態(tài)的概率。而當睡眠不充足時,在駕駛2 h后,即出現(xiàn)疲勞。4 h 睡眠對照組的建立有效地擴展了疲勞狀態(tài)的數(shù)據(jù)樣本。圖7 中測試樣本的檢測指標如圖8 所示。實驗結(jié)果表明,本文提出模型具有較高的檢測精度,且對年齡和性別差異魯棒性較好。

        圖7 不同參與者在不同駕駛階段的部分測試結(jié)果Fig.7 Some results of different participants at different driving stages

        圖8 部分測試樣本檢測結(jié)果Fig.8 Results of some test samples

        由于在對駕駛狀態(tài)進行分類時考慮了時間延續(xù)中出現(xiàn)的過渡狀態(tài),分別對9 種不同狀態(tài)下的檢測效果進行驗證。如圖9 所示,可以看出:當ki∈8,9,即駕駛員處于疲勞駕駛狀態(tài)時,眼部狀態(tài)與清醒時有很大不同,檢測精度較高;同樣,當ki∈1,2 時,檢測精度較高;當ki∈5,6,7 時,在KSS 評分的分類中,屬于正常狀態(tài)和過渡狀態(tài),但眼動狀態(tài)的差異相對較小,疲勞檢測的準確性降低。從總體上看,本文模型具有較高的檢測精度,能夠有效地檢測出駕駛員從清醒到疲勞的各個階段的狀態(tài)。

        圖9 9 種不同狀態(tài)的檢測效果Fig.9 Detection effects of nine different states

        2.4.2 與現(xiàn)有檢測網(wǎng)絡(luò)的對比

        將本文提出檢測模型與Faster R-CNN[32]架構(gòu)和DDDN 架構(gòu)進行對比。在數(shù)據(jù)集和硬件配置都相同的情況下,不斷調(diào)整參數(shù)以使3 種網(wǎng)絡(luò)都達到最佳性能。圖10 是平均精度和平均召回率的統(tǒng)計結(jié)果。實驗結(jié)果表明,GP-VGG16 通過在傳統(tǒng)的卷積結(jié)構(gòu)中引入Ghost 模型和先驗積分投影特征,對目前廣泛使用的疲勞檢測網(wǎng)絡(luò)進行了改進優(yōu)化,平均精度比采用Faster R-CNN 和DDDN 的方法提高了2%左右,在疲勞檢測方面取得了較好的性能表現(xiàn)。

        圖10 3 種對比度模型的P-R 曲線Fig.10 P-R curves of three contrast models

        由于在測試過程中引入積分投影會帶來額外的處理時間損失,因此對測試時間和模型的大小進行對比實驗,結(jié)果見表3,表中最后一列顯示了整個系統(tǒng)的運行時間,包括眼部特征提取和疲勞檢測??梢钥闯?,因為投影特征圖的特征易于提取,在網(wǎng)絡(luò)中加入積分投影的計算時間可以近似忽略。

        表3 運行速度和模型尺寸對比Table3 Comparison of running speed and model size

        2.4.3 與現(xiàn)有模型的比較

        將本文提出的疲勞駕駛檢測方法與基于車輛行駛模式監(jiān)測、基于駕駛員生理特征監(jiān)測以及基于駕駛員行為監(jiān)測中的典型方法進行測試對比,如表4 所示??梢钥闯觯何墨I[2]中基于行駛模式的疲勞駕駛檢測方法對駕駛員的駕駛風格和駕駛環(huán)境的差異非常敏感;文獻[7]的方法具有較高的實時性和穩(wěn)定性,然而這種接觸式的檢測方法會影響駕駛員的駕駛舒適度,影響駕駛行為;文獻[11]中基于眨眼監(jiān)測的方法受真實環(huán)境中的光照變化的影響而不穩(wěn)定。對比發(fā)現(xiàn),本文提出模型在準確性和實時性方面都是最好的,同時,利用少樣本學習方法減少了樣本標記過程中的時間和人力成本。

        表4 本文模型與現(xiàn)有檢測模型的比較Table 4 Comparison of the porposed model with exsisted detection models

        3 結(jié)束語

        根據(jù)駕駛員疲勞狀態(tài)對其進行提前預(yù)警,可以有效減少交通事故的發(fā)生。本文提出一種融合人眼特征與深度學習的疲勞駕駛檢測模型。通過DSRN提取人眼特征點,融合Ghost 模塊和先驗約束設(shè)計GP-VGG16 網(wǎng)絡(luò),基于眼部特征建立疲勞等級模型,對疲勞狀態(tài)進行定量分類。少樣本學習可以解決疲勞駕駛檢測模型建立過程中缺少標記數(shù)據(jù)的問題。實驗結(jié)果表明,本文模型能夠有效提高復(fù)雜駕駛環(huán)境中人臉特征提取的魯棒性,緩解特征提取過程中參數(shù)冗余的問題,減少模型訓(xùn)練過程中圖像數(shù)據(jù)標注的成本,實現(xiàn)對駕駛員疲勞狀態(tài)高效、精準的檢測識別。下一步將研究如何降低檢測網(wǎng)絡(luò)對硬件設(shè)備的依賴性,使其得到更廣泛的應(yīng)用。

        猜你喜歡
        眼部人臉投影
        有特點的人臉
        解變分不等式的一種二次投影算法
        基于最大相關(guān)熵的簇稀疏仿射投影算法
        找投影
        找投影
        學生天地(2019年15期)2019-05-05 06:28:28
        三國漫——人臉解鎖
        動漫星空(2018年9期)2018-10-26 01:17:14
        為什么要做眼部檢查
        戴眼罩有助消除眼部疲勞
        如何消除用電腦后的眼部疲勞
        早晨醒后別揉眼,容易感染
        国产精品久人妻精品老妇| 秀人网嫩模李梓熙大尺度| 在线观看国产av一区二区| 精品亚洲一区二区三区四区五| 亚洲国产精品久久电影欧美| 欧美不卡视频一区发布| 最新在线观看精品国产福利片 | 国产色视频一区二区三区qq号 | 亚洲国产成人久久一区| 在线观看精品国产福利片100| 白嫩少妇在线喷水18禁| 国产精品日日做人人爱| 亚洲av综合日韩| 久久国产精品老女人| 国产熟女露脸大叫高潮| 日本丰满少妇xxxx| 人妻系列无码专区久久五月天| 丰满人妻无套中出中文字幕| 免费看黄片视频在线观看| 欧洲乱码伦视频免费| 亚洲精品久久国产高清情趣图文| 精品少妇人妻成人一区二区| 精品国产a毛片久久久av| 免费国产黄网站在线观看视频| 成人网站免费大全日韩国产| 久久青草亚洲AV无码麻豆| 久久精品国产9久久综合| 国产v片在线播放免费无码| 久久久无码一区二区三区| 精品久久久亚洲中文字幕| 亚洲国产中文字幕无线乱码| 日韩乱码人妻无码中文字幕久久| 456亚洲人成影视在线观看| 天堂av在线播放观看| 无码国产精成人午夜视频一区二区| 国产成人av片在线观看| 呦泬泬精品导航| 伊人久久亚洲精品中文字幕| 国产精品美女久久久久av福利| 女同啪啪免费网站www| 男女啪啪免费视频网址|