亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度置信網(wǎng)絡(luò)和生成模型的駕駛疲勞識(shí)別

        2015-05-03 02:41:58夏利民
        關(guān)鍵詞:置信人臉分類(lèi)器

        王 軍, 夏利民

        (1.電子科技大學(xué) 中山學(xué)院,廣東 中山 528402;2.中南大學(xué) 信息科學(xué)與工程學(xué)院,湖南 長(zhǎng)沙 410075)

        ?

        基于深度置信網(wǎng)絡(luò)和生成模型的駕駛疲勞識(shí)別

        王 軍1, 2*, 夏利民2

        (1.電子科技大學(xué) 中山學(xué)院,廣東 中山 528402;2.中南大學(xué) 信息科學(xué)與工程學(xué)院,湖南 長(zhǎng)沙 410075)

        駕駛疲勞識(shí)別研究對(duì)預(yù)防交通事故提高交通安全具有重要意義.提出了一種基于深度置信網(wǎng)絡(luò)和生成模型的駕駛疲勞識(shí)別方法.為了有效地表示疲勞,采用深度置信網(wǎng)絡(luò)從人臉圖像中提取疲勞特征;結(jié)合已標(biāo)注樣本和未標(biāo)注樣本,提出了一種基于生成模型的半監(jiān)督學(xué)習(xí)的疲勞識(shí)別方法,解決了疲勞識(shí)別中的小樣本問(wèn)題.在自建疲勞數(shù)據(jù)庫(kù)上,采用該方法進(jìn)行了駕駛疲勞識(shí)別的仿真實(shí)驗(yàn),同時(shí)和其他幾種方法進(jìn)行了對(duì)比,結(jié)果表明該方法具有更高的識(shí)別精度.

        疲勞識(shí)別;特征提?。簧疃戎眯啪W(wǎng)絡(luò);生成模型

        疲勞駕駛是導(dǎo)致交通事故的一個(gè)重要因素,近年來(lái)受到了人們的廣泛關(guān)注,目前駕駛疲勞識(shí)別已成為交通信息和計(jì)算機(jī)視覺(jué)領(lǐng)域中的研究熱點(diǎn)之一,其研究對(duì)預(yù)防交通事故、提高交通安全有著重要的理論意義和應(yīng)用前景.

        本世紀(jì)以來(lái),國(guó)內(nèi)外研究人員對(duì)駕駛疲勞識(shí)別進(jìn)行了大量研究,提出了很多疲勞識(shí)別方法,其中基于計(jì)算機(jī)視覺(jué)的方法[1~10]是最流行的駕駛疲勞檢測(cè)方法,Singh 等人[1]利用mean-sift算法研究了基于眨眼睛時(shí)長(zhǎng)的疲勞識(shí)別方法;Ahmed[2]等人利用圖像處理方法提取人眼閉合、哈欠及點(diǎn)頭頻率等特征用于駕駛疲勞識(shí)別;Cyganek[3]利用視覺(jué)方法獲取人眼狀態(tài),采用高階SVD進(jìn)行駕駛疲勞識(shí)別;DaSgupta[4]利用Haar特征和卡爾曼濾波器檢測(cè)人臉,利用PCA檢測(cè)人眼,并采用SVM識(shí)別眼睛的開(kāi)狀態(tài),從而實(shí)現(xiàn)疲勞識(shí)別;Masala[5]利用符號(hào)分類(lèi)器和姿態(tài)字典監(jiān)測(cè)駕駛員注意力,識(shí)別結(jié)果不受噪聲和光照變化影響;Bao[6]利用Gabor濾波器抽取人臉特征,在此基礎(chǔ)上采用統(tǒng)計(jì)學(xué)習(xí)算法提取有效的疲勞特征和分類(lèi)器用于疲勞識(shí)別;Vural等人[7]利用機(jī)器學(xué)習(xí)建立了人臉表情編碼系統(tǒng),構(gòu)建了自動(dòng)分類(lèi)器用于駕駛疲勞檢測(cè);Vural 等人[8]提出了基于臉部表情和頭部運(yùn)動(dòng)的疲勞檢測(cè)方法.大多數(shù)基于計(jì)算機(jī)視覺(jué)的疲勞駕駛識(shí)別方法都是基于眨眼速度、眼睛閉合、哈欠頻率以及其他人為設(shè)計(jì)的人臉特征,而這些人為設(shè)計(jì)的特征由于有過(guò)多主動(dòng)因素介入,很難有效地描述人的疲勞狀態(tài).Dwivedi等人[10]利用卷積神經(jīng)網(wǎng)絡(luò)抽取人臉特征以及特征間的復(fù)雜關(guān)系,利用softmax層區(qū)分疲勞狀態(tài)和正常狀態(tài),該方法提高了疲勞識(shí)別率.但是該方法與其他疲勞識(shí)別方法一樣,采用的是統(tǒng)計(jì)識(shí)別方法,在構(gòu)建疲勞分類(lèi)器時(shí)需要大量的已知樣本,而實(shí)際中已知類(lèi)別的疲勞樣本非常少,這使得疲勞識(shí)別率不高.

        為了克服以上方法的缺陷,結(jié)合深度置信網(wǎng)絡(luò)和生成模型,提出了新的駕駛疲勞識(shí)別方法.首先,利用深度置信網(wǎng)絡(luò)提取駕駛疲勞特征,避免了過(guò)多主動(dòng)因素的干預(yù),該特征更有效地表征了疲勞特征信息.在此基礎(chǔ)上,為了解決疲勞分類(lèi)中的小樣本問(wèn)題,提出了基于生成模型的駕駛疲勞半監(jiān)督分類(lèi)方法,利用少量已標(biāo)記疲勞樣本初始化基于生成模型,然后利用大量未標(biāo)記疲勞樣本對(duì)模型進(jìn)行進(jìn)一步優(yōu)化.在自建疲勞數(shù)據(jù)庫(kù)上,采用該方法進(jìn)行了駕駛疲勞識(shí)別的仿真實(shí)驗(yàn),并和其他幾種方法進(jìn)行了對(duì)比,結(jié)果表明該方法能獲得更有效的疲勞特征,并具有更高的識(shí)別精度.

        1 基于深度置信網(wǎng)絡(luò)的疲勞特征提取

        深度學(xué)習(xí)是一種新的機(jī)器學(xué)習(xí)方法,利用各種網(wǎng)絡(luò)模型從未標(biāo)記數(shù)據(jù)中學(xué)習(xí)、挖掘復(fù)雜、非線(xiàn)性、高維特征表示[11~15],目前已成功地用于圖像處理與模式識(shí)別等領(lǐng)域.而深度置信網(wǎng)絡(luò)(Deep belief network,DBN)[16]是一種典型的深度學(xué)習(xí)模型,由多層受限玻爾茲曼機(jī)(restricted Boltzmann machine,RBM)網(wǎng)絡(luò)組成,采用無(wú)監(jiān)督的學(xué)習(xí)進(jìn)行模型訓(xùn)練,具有優(yōu)良的特征提取能力.本文借助DBN強(qiáng)大的學(xué)習(xí)能力提取疲勞本質(zhì)特征.

        1.1 受限玻爾茲曼機(jī)

        受限玻爾茲曼機(jī)是一種基于能量的模型,它由一個(gè)輸入層(可見(jiàn)層,visible layer)和一個(gè)隱含層(hidden layer)組成,其中輸入層和隱含層的神經(jīng)元全連接,而同一層中的神經(jīng)元無(wú)連接,圖1是典型的RBM結(jié)構(gòu)圖,其中,v、h和w分別表示輸入層、隱含層以及輸入層和隱含層之間的連接權(quán)值.

        RBM是一種隨機(jī)神經(jīng)網(wǎng)絡(luò),其輸入層和隱含層的神經(jīng)元為取值為{0,1}的隨機(jī)變量,設(shè)輸入層和隱含層的神經(jīng)元個(gè)數(shù)分別為N和M,vi和hj分別表示第i個(gè)輸入神經(jīng)元和第j個(gè)隱含層神經(jīng)元的狀態(tài),則RBM能量函數(shù)為:

        (1)

        式中,θ=(wij,ai,bj)是RBM待確定的參數(shù)向量,wij表示輸入層神經(jīng)元vi和隱含層神經(jīng)元hj之間的連接權(quán)值,ai和bj分別表示vi和hj的偏置值.

        RBM的狀態(tài)滿(mǎn)足正態(tài)分布,在狀態(tài)(v,h)下其聯(lián)合概率分布可表示為:

        (2)

        由于受限玻爾茲曼機(jī)的層內(nèi)神經(jīng)元無(wú)連接,因此,各個(gè)神經(jīng)元的條件概率分布p(hj|v,θ)可寫(xiě)為:

        (3)

        (4)

        其中,σ(x)=1/(1+e-x)為sigmoid函數(shù).

        通過(guò)求下列極大對(duì)數(shù)似然函數(shù)可確定RBM的參數(shù)向量θ,

        (5)

        其中,L為訓(xùn)練集樣本數(shù).

        利用迭代學(xué)習(xí)方法可估計(jì)參數(shù)向量θ,本文采用CD(contrastive divergence)算法[17],可得到各參數(shù)的更新規(guī)則如下:

        Δwij=ε(〈vihj〉data-〈vihj〉model),

        Δai=ε(〈vi〉data-〈vi〉model),

        Δbj=ε(〈hj〉data-〈hj〉model),

        (6)

        式中,ε為學(xué)習(xí)步長(zhǎng),<·>data為訓(xùn)練數(shù)據(jù)集上的數(shù)學(xué)期望,<·>model為模型定義的分布上的期望.

        1.2 深度置信網(wǎng)絡(luò)

        圖2是DBN的結(jié)構(gòu)圖,它是一種由多層RBM 組合而成的網(wǎng)絡(luò)模型,低層RBM的輸出,作為上一層RBM的輸入.DBN模擬人腦的組織結(jié)構(gòu),從簡(jiǎn)單到復(fù)雜、從低級(jí)到高級(jí)逐層提取輸入數(shù)據(jù)特征,并最終在頂層得到更客觀、更本質(zhì)的特征向量.

        DBN的訓(xùn)練,采用從低層向高層逐層訓(xùn)練的方式對(duì)各層中的RBM進(jìn)行訓(xùn)練,而每層參數(shù)的學(xué)習(xí)按式(6)進(jìn)行.

        1.3 基于深度置信網(wǎng)絡(luò)的疲勞特征提取

        將一幀N×N的人臉圖像逐行排列構(gòu)成N2維原始特征向量作為DBN的輸入,則DBN的輸出即為提取的疲勞特征.具體步驟如下:

        DBN訓(xùn)練過(guò)程:

        1) 將疲勞訓(xùn)練樣本圖像歸一化為N×N的人臉圖像,并構(gòu)建N2維原始特征向量;

        2) 對(duì)于第一層RBM,將N2維人臉原始特征向量作為其輸入,對(duì)其進(jìn)行無(wú)監(jiān)督訓(xùn)練,獲得該層參數(shù)估計(jì)值;

        3) 對(duì)于其他層RBM,將低層RBM的輸出作為上一層RBM的輸入,對(duì)其進(jìn)行無(wú)監(jiān)督訓(xùn)練,獲得RBM網(wǎng)絡(luò)參數(shù)估計(jì)值;

        4) 利用有監(jiān)督學(xué)習(xí)方法對(duì)訓(xùn)練好的各層參數(shù)進(jìn)行微調(diào),直到DBN達(dá)到全局最優(yōu).

        待測(cè)樣本的疲勞特征提取過(guò)程:

        1) 將測(cè)試樣本圖像歸一化為N×N的人臉圖像,寫(xiě)出其N(xiāo)2維原始特征向量;

        2) 將測(cè)試樣本的N2維人臉原始特征向量作為DBN可視層輸入,利用訓(xùn)練好的網(wǎng)絡(luò)提取測(cè)試樣本的抽象特征.

        2 基于生成模型的駕駛疲勞識(shí)別

        在實(shí)際中,已標(biāo)記的駕駛疲勞樣本非常有限,為了解決分類(lèi)的小樣本問(wèn)題,采用基于生成模型的最大似然估計(jì)的半監(jiān)督分類(lèi)方法[18],首先利用少量標(biāo)記駕駛疲勞樣本對(duì)模型進(jìn)行訓(xùn)練,得到分類(lèi)器模型參數(shù)的初始值,然后用大量未標(biāo)記駕駛疲勞樣本,對(duì)分類(lèi)器進(jìn)一步學(xué)習(xí),直到包含所有樣本的似然函數(shù)收斂到局部極大值,此時(shí)的模型為最佳疲勞識(shí)別模型.對(duì)于待測(cè)駕駛疲勞樣本,利用得到的生成模型,計(jì)算其在各類(lèi)別分布函數(shù)下的后驗(yàn)概率,以此進(jìn)行分類(lèi).

        2.1 概率生成模型

        假設(shè)駕駛疲勞是由一個(gè)包含c類(lèi)的混合模型生成的,且每個(gè)混合成分都滿(mǎn)足一個(gè)特定的分布p(X|θi),那么,數(shù)據(jù)的概率生成模型可表示為

        (7)

        式中,X為疲勞樣本的特征向量,p(Y)代表該疲勞樣本屬于第i類(lèi)的概率,或稱(chēng)先驗(yàn)概率;θ= {θ1,θ2,…,θc},θi表示第i類(lèi)樣本的均值向量與協(xié)方差矩陣,也就是模型訓(xùn)練過(guò)程中需要確定的參數(shù).假設(shè)每類(lèi)行為近似符合高斯分布,用p(X|θi)表示,而整個(gè)樣本集是由這些類(lèi)別按比例混合生成的(式(7)).

        2.2 似然函數(shù)

        樣本集包括未標(biāo)記樣本和已標(biāo)記樣本,即D=L+U={(X1,Y1),…,(Xl,Yl),Xl+1,…,Xl+u},Y∈C={1,2,…,c},l為已標(biāo)記樣本數(shù),u為未標(biāo)記樣本數(shù).由于它們是由同一個(gè)混合模型生成的,所以其對(duì)數(shù)似然函數(shù)可寫(xiě)成下列形式:

        (8)

        式中,最后一個(gè)等式的第一項(xiàng)對(duì)應(yīng)監(jiān)督分類(lèi)部分,完全由標(biāo)記樣本決定,Xik表示屬于第i類(lèi)的第k個(gè)標(biāo)記樣本的特征向量,li是屬于第i類(lèi)的標(biāo)記樣本數(shù)目;而第二項(xiàng)對(duì)應(yīng)無(wú)監(jiān)督部分,僅僅由未標(biāo)記樣本來(lái)確定;Xk表示未標(biāo)記樣本的特征向量.其中無(wú)監(jiān)督部分可寫(xiě)成:

        (9)

        將(9)式代入(8)式得到:

        (10)

        與上述對(duì)數(shù)似然函數(shù)最大值對(duì)應(yīng)的參數(shù)就是要估計(jì)的參數(shù).

        2.3 分類(lèi)模型參數(shù)估計(jì)

        首先,在式(10)中只考慮第一項(xiàng),即僅考慮標(biāo)記樣本,通過(guò)求解式(10)中的對(duì)數(shù)似然函數(shù)最大值,可得到對(duì)應(yīng)的參數(shù),以此參數(shù)作為分類(lèi)器參數(shù)的初始值;然后,利用EM算法來(lái)進(jìn)一步估計(jì)概率生成模型的參數(shù).

        E步:采用對(duì)數(shù)似然函數(shù)(式(10))求未標(biāo)注樣本的概率值,即預(yù)測(cè)未標(biāo)注樣本的類(lèi)別:

        (11)

        式中,pjk為當(dāng)前參數(shù)分布下第k個(gè)未標(biāo)注樣本對(duì)應(yīng)第j類(lèi)的概率.t-1、t表示迭代次數(shù).

        M步:在預(yù)測(cè)當(dāng)前未標(biāo)注樣本的類(lèi)別之后,求似然函數(shù)取極大值時(shí)各參數(shù)的取值,即p(Y)、μ(均值向量)和∑(協(xié)方差矩陣):

        (12)

        (13)

        (14)

        其中,p(Y=j)代表第j類(lèi)的先驗(yàn)概率,COVj(·)表示第j類(lèi)的協(xié)方差矩陣,u和l分別是未標(biāo)注樣本和已標(biāo)注樣本的個(gè)數(shù),lj是屬于第j類(lèi)的已標(biāo)注樣本個(gè)數(shù),而Xjk’表示屬于第j類(lèi)的第k個(gè)已標(biāo)注樣本.

        不斷重復(fù)E步和M步,直到收斂.其中收斂判別條件為:對(duì)數(shù)似然函數(shù)在相鄰兩次遞歸之間變化很小.

        2.4 基于生成模型的駕駛疲勞識(shí)別

        利用訓(xùn)練好的分類(lèi)器,可識(shí)別駕駛疲勞,首先根據(jù)待識(shí)別的駕駛疲勞圖像的特征分別計(jì)算其在每個(gè)類(lèi)別中的概率p(Y|X);然后根據(jù)概率p(Y|X)分類(lèi):若駕駛疲勞樣本在某類(lèi)的后驗(yàn)概率p(Y|X)最大,則該樣本屬于該類(lèi).

        根據(jù)貝葉斯公式,可求得待識(shí)駕駛疲勞樣本的最大后驗(yàn)概率:

        (15)

        假設(shè)采用的生成模型是符合高斯混合分布的,故式中p(Y|X)可由下式計(jì)算得到:

        (16)

        μY,∑Y為類(lèi)別Y的訓(xùn)練樣本的均值向量和協(xié)方差矩陣,也就是分類(lèi)器訓(xùn)練過(guò)程中需要確定的參數(shù)向量θ.

        基于生成模型的駕駛疲勞識(shí)別步驟歸納如下:

        (1) 訓(xùn)練分類(lèi)器

        1) 對(duì)于駕駛疲勞訓(xùn)練樣本集D,估計(jì)每個(gè)類(lèi)別的先驗(yàn)概率p(Y).

        2) 計(jì)算每個(gè)類(lèi)別的均值向量和協(xié)方差矩陣,即估計(jì)參數(shù)θi=(μi,∑i).

        (2) 駕駛疲勞識(shí)別

        計(jì)算待識(shí)別的駕駛疲勞對(duì)應(yīng)各類(lèi)別的后驗(yàn)概率,然后根據(jù)下式分類(lèi):

        Y*→X=argYmaxp(Y|X)

        在本文,只考慮疲勞狀態(tài)和正常狀態(tài)兩類(lèi),即Y={1,-1},1,-1分別代表正常狀態(tài)和疲勞狀態(tài).

        3 實(shí)驗(yàn)與結(jié)論

        我們自建了一個(gè)疲勞數(shù)據(jù)庫(kù).該疲勞數(shù)據(jù)庫(kù)包含二類(lèi)圖像樣本:160個(gè)已知疲勞類(lèi)別的視頻圖像(其中正常、疲勞分別為80個(gè))和400個(gè)未知疲勞類(lèi)別的人臉視頻圖像.這些圖像是在不同光照條件下拍攝的40個(gè)年齡在20至45歲之間的人臉視頻圖像.實(shí)驗(yàn)中每類(lèi)隨機(jī)抽取40個(gè)已知類(lèi)別的圖像(共80個(gè))和全部未知類(lèi)別的圖像做訓(xùn)練樣本,余下的80個(gè)已知類(lèi)別圖像作測(cè)試樣本.

        首先把全部樣本圖像經(jīng)過(guò)眼睛定位、校準(zhǔn)、剪切,歸一化到64×64.DBN訓(xùn)練參數(shù)選擇:學(xué)習(xí)率為0.05;由于DBN網(wǎng)絡(luò)經(jīng)過(guò)50次迭代后分類(lèi)精度基本上保持不變,所以DBN學(xué)習(xí)迭代次數(shù)選擇為50;當(dāng)DBN層數(shù)與隱含層神經(jīng)元個(gè)數(shù)取不同組合,我們發(fā)現(xiàn)當(dāng)DBN的層數(shù)為3層、隱含層節(jié)點(diǎn)數(shù)為128時(shí),疲勞識(shí)別率最高. 為此,在實(shí)驗(yàn)中選取3層的、隱含層神經(jīng)元個(gè)數(shù)為128的DBN.

        為了說(shuō)明文中方法的有效性,在自建的疲勞數(shù)據(jù)庫(kù)上,利用文中方法與其他幾種方法進(jìn)行了對(duì)比實(shí)驗(yàn).實(shí)驗(yàn)結(jié)果如表1所示.

        表1 4種不同方法的比較結(jié)果

        其中,文獻(xiàn)[4]利用人眼特征,采用SVM+有監(jiān)督學(xué)習(xí)方法進(jìn)行疲勞識(shí)別;文獻(xiàn)[6]方法是利用Gabor濾波器抽取人臉特征,采用Boosting方法提取疲勞特征、建立疲勞識(shí)別分類(lèi)器.實(shí)驗(yàn)結(jié)果表明,文獻(xiàn)[4]、[6]的方法識(shí)別較低,這是因?yàn)檫@兩種方法采用的特征均為人為設(shè)計(jì)的,很難準(zhǔn)確描述疲勞狀態(tài),且分類(lèi)器的建立采用有監(jiān)督學(xué)習(xí),需要大量的已知樣本,在小樣本情況下,識(shí)別效果不太理想,所以這兩種方法疲勞識(shí)別率稍差.文獻(xiàn)[10]利用深度學(xué)習(xí)提取疲勞特征,能很好描述疲勞狀態(tài),因此識(shí)別率有所提高,但DNN上層用softmax分類(lèi)器進(jìn)行疲勞狀態(tài)判別,該分類(lèi)器學(xué)習(xí)采用的是有監(jiān)督學(xué)習(xí)方法,在小樣本情況下,影響識(shí)別率.我們的方法采用深度學(xué)習(xí)提取疲勞特征,同時(shí)利用半監(jiān)督學(xué)習(xí)方法建立生成模型,使得識(shí)別率高于上述幾種方法.

        4 結(jié)束語(yǔ)

        駕駛疲勞識(shí)別對(duì)預(yù)防交通事故、提高交通安全有著重大的理論意義和應(yīng)用前景.本文提出了一種新的基于深度置信網(wǎng)絡(luò)和生成模型的駕駛疲勞識(shí)別方法.利用深度置信網(wǎng)絡(luò)提取駕駛疲勞特征,避免了過(guò)多主動(dòng)因素的干預(yù),該特征更有效地表征了疲勞特征信息.在此基礎(chǔ)上,提出了基于生成模型的駕駛疲勞半監(jiān)督分類(lèi)方法,該方法利用少量已標(biāo)注樣本初始化生成模型,利用大量未標(biāo)注樣本對(duì)模型進(jìn)行進(jìn)一步優(yōu)化,解決了疲勞識(shí)別中的小樣本問(wèn)題.在自建疲勞數(shù)據(jù)庫(kù)上,采用該方法進(jìn)行了駕駛疲勞識(shí)別的仿真實(shí)驗(yàn),并與其他幾種方法進(jìn)行了對(duì)比,結(jié)果表明該方法能獲得更有效的疲勞特征,并具有更高的識(shí)別精度.

        [1] SINGH M, KAUR G. Drowsy detection on eye blink duration using algorithm[J].International Journal of Emerging Technology and Advanced Engineering, 2012,2(4):155-164.

        [2] AHMED R, EMON KEK, HOSSAIN M F.Robust driver fatigue recognition using image processing[C]// 2014 International Conference on Informatics, Electronics and Vision (ICIEV), Dhaka, BANGLADESH: IEEE,2014: 74-83.

        [3] CYGANEK B,GRUSZCZYNSKI S.Hybrid computer vision system for drivers’eye recognition and fatigue monitoring[J].Neural computation,2014,126(4):78-94.

        [4] DASGUPTA A,GEORGE A,HAPPY S L,et al.A vision based system for monitoring the loss of attention in automotive drivers[J].IEEE Transactions on Intelligent Transportation Systems,2013,14(4):1 825-1 838.

        [5] MASSALA G L,GROSSO E. Real time detection of driver attention: Emerging solutions based on robust iconic classifiers and dictionary of poses[J]. Transportation Research part C-emerging Technologies,2014,49:32-42.

        [6] BAO C Y. Multiscale dynamic features based driver fatigue detection[J].International Journal of Pattern Recognition and Artificial Intelligence, 2009, 23(3): 3 575-3 589.

        [7] VURAL E, CETIN M, ERCIL A, et al. Drowsy driver detection using facial movement analysis[C]. Proc of the IEEE international conference on Human-computer interaction, Berlin Heidelberg:Springer-Verlag,2007: 6-18.

        [8] VURAL E, BARTLET M S, LITTLEWORT G. Discrimination of moderate and acute drowsiness based on spontaneous facial expressions[C]. IEEE International Conference on Pattern Recognition,2010:123-135.

        [9] 陳云華,余永權(quán),張靈,等.基于面部視覺(jué)特征的精神疲勞可拓辨識(shí)模型[J].計(jì)算機(jī)科學(xué),2013,40(2):284-288.

        [10] DWIVEDIK, BISWARANJAN K, SETHI A. Drowsy driver detection using representation learning[C]. 2014 IEEE International Advance Computing Conference (IACC), 2014:135-147.

        [11] BENGIO Y.On the expressive power of deep architectures[C].Proc of 14th International Conference On Discovery Science, Berlin:Springer-Verlag,2012: 18-36.

        [12] HINTON G E, SALAKHUTDINOV R R. Reducing the dimensionality of data with neural networks [J]. Science, 2006, 313(5 786): 504-507.

        [13] BENGIO Y. Deep learning of representations for unsupervised and transfer learning[C]. Workshop and Conference Proceedings, Washington, USA, 2012, 27: 17-36.

        [14] JONES N.The learning machines[J].Nature,2014,505 (7 482):146-148.

        [15] BENGIO Y,COURVILLE A,VINCENT P.Representation learning:A review-and new-perspectives[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2013,35(8):1 798-1 828.

        [16] HINTON G E,OSINDERO S,TEH Y.A fast learning algorithm for deep belief nets[J].Neural Computation,2006,18(7):1 527-1 554.

        [17] HINTON G E.Training products of experts by minimizing contrastive divergence[J]. Neural Computation,2002,14(8):1 771-1 800.

        [18] THOMPSON S, SAWYER J, BONAM R, et al.Building a better methane generation model: Validating models with methane recovery rates from 35 Canadian landfills [J]. Waste Management, 2009, 29(7):2 085-2 091.

        責(zé)任編輯:龍順潮

        Driver Fatigue Recognition Based on Deep Belief Network and Generative Model

        WANGJun1, 2*,XIALi-min2

        (1.Zhongshan Institute, University of Electronics Science and Technology, Zhongshan 528402;2.School of Information Science and Engineering, Central South University, Changsha 410075 China)

        Driver fatigue recognition has great theoretical significance and applied value in reducing accidents and improving traffic safety. A novel method based on deep belief network and generative model is proposed for driver fatigue recognition. In order to represent fatigue effectively, fatigue features are extracted using deep belief network (DBN) from the facial image. The semi-supervised learning method for fatigue recognition based on generative model is proposed to solve the problem of small sample in recognition, which makes use of both the labeled and unlabeled samples. Experiments were performed on self-built database to test and evaluate the proposed method. The experiment results show that our method has higher recognition accuracy than other state-of-the-art methods.

        fatigue recognition;feature extracting; deep belief network;generative model

        2015-04-21

        國(guó)家自然科學(xué)基金項(xiàng)目(50808025);湖南省科技計(jì)劃項(xiàng)目(2014FJ3057)

        王軍(1971— ),男,山西 應(yīng)縣人,博士生,講師.E-mail:505412600@qq.com

        TP391

        A

        1000-5900(2015)03-0075-07

        猜你喜歡
        置信人臉分類(lèi)器
        急診住院醫(yī)師置信職業(yè)行為指標(biāo)構(gòu)建及應(yīng)用初探
        基于置信職業(yè)行為的兒科住院醫(yī)師形成性評(píng)價(jià)體系的構(gòu)建探索
        有特點(diǎn)的人臉
        基于模糊深度置信網(wǎng)絡(luò)的陶瓷梭式窯PID優(yōu)化控制
        三國(guó)漫——人臉解鎖
        BP-GA光照分類(lèi)器在車(chē)道線(xiàn)識(shí)別中的應(yīng)用
        加權(quán)空-譜與最近鄰分類(lèi)器相結(jié)合的高光譜圖像分類(lèi)
        結(jié)合模糊(C+P)均值聚類(lèi)和SP-V-支持向量機(jī)的TSK分類(lèi)器
        基于CUDA和深度置信網(wǎng)絡(luò)的手寫(xiě)字符識(shí)別
        馬面部與人臉相似度驚人
        国产精品国产精品国产专区不卡| 日本岛国大片不卡人妻| 蜜桃av一区二区三区久久| 亚洲成人中文字幕在线视频 | 在线亚洲国产一区二区三区| 开心五月婷婷激情综合网| 狠狠色狠狠色综合| 亚洲一二三区在线观看| 午夜视频福利一区二区三区| 日本一区二区免费在线看| 大屁股人妻女教师撅着屁股| 亚洲人成无码网站久久99热国产| 亚洲人成在线播放a偷伦| 国产91成人精品高潮综合久久 | 射进去av一区二区三区| 草色噜噜噜av在线观看香蕉| 亚洲国产成人va在线观看天堂| 亚洲色www无码| 大陆成人精品自拍视频在线观看| 玩弄白嫩少妇xxxxx性| 97久久久久人妻精品专区| 国产日韩午夜视频在线观看| 六月婷婷亚洲性色av蜜桃| 久久精品无码av| 精品国产香蕉伊思人在线又爽又黄| 午夜av福利亚洲写真集| 性人久久久久| 色婷婷久久一区二区三区麻豆| 99精品视频69v精品视频免费| 亚洲女同系列在线观看| 久久久久免费看成人影片| 北条麻妃在线视频观看| 亚洲国产精品二区三区| 人禽杂交18禁网站免费| 越南女子杂交内射bbwbbw| 无码8090精品久久一区| 在线播放亚洲丝袜美腿| a级毛片免费观看在线| 国产精品原创av片国产日韩| 国产精品女同av在线观看| 中文字幕网伦射乱中文|