崔汪莉,衛(wèi)軍胡,紀(jì)鵬,劉哲
(1.西安交通大學(xué)機(jī)械制造系統(tǒng)工程國家重點(diǎn)實(shí)驗(yàn)室,710049,西安;2.西安交通大學(xué)機(jī)械工程學(xué)院,710049,西安;3.西安邦威電子科技有限公司,710049,西安)
?
基于加權(quán)局部梯度直方圖的頭部三維姿態(tài)估計(jì)
崔汪莉1,衛(wèi)軍胡1,紀(jì)鵬2,劉哲3
(1.西安交通大學(xué)機(jī)械制造系統(tǒng)工程國家重點(diǎn)實(shí)驗(yàn)室,710049,西安;2.西安交通大學(xué)機(jī)械工程學(xué)院,710049,西安;3.西安邦威電子科技有限公司,710049,西安)
在實(shí)時(shí)估計(jì)人的頭部三維姿態(tài)時(shí),基于局部梯度方向直方圖的面部特征表示方法容易受到背景和環(huán)境的影響,其檢測(cè)精度無法滿足實(shí)際需求。為了減少圖像或視頻序列中背景和環(huán)境的影響,提出了一種新的對(duì)面部特征進(jìn)行描述的方法,即基于膚色權(quán)值和高斯權(quán)值加權(quán)的局部梯度方向直方圖特征表示方法。在具體計(jì)算時(shí),首先進(jìn)行人臉檢測(cè)并將人臉區(qū)域縮放到統(tǒng)一大小,然后計(jì)算人臉區(qū)域每個(gè)像素點(diǎn)對(duì)應(yīng)的梯度方向,接著計(jì)算膚色權(quán)值并利用膚色權(quán)值和高斯權(quán)值對(duì)梯度方向進(jìn)行加權(quán)得到加權(quán)局部梯度方向直方圖,從而強(qiáng)化面部特征在直方圖中的比重,有效減小背景對(duì)頭部三維姿態(tài)估計(jì)的影響,最后利用非線性支持向量回歸機(jī)求解加權(quán)局部梯度方向直方圖與頭部三維姿態(tài)之間的關(guān)系。實(shí)驗(yàn)結(jié)果表明:該特征表示方法具有更高的檢測(cè)精度。
三維頭部姿態(tài)估計(jì);膚色權(quán)值;高斯權(quán)值;局部梯度方向直方圖;非線性支持向量回歸機(jī)
頭部三維姿態(tài)檢測(cè)是計(jì)算機(jī)視覺領(lǐng)域一個(gè)非常重要的研究內(nèi)容,在人臉識(shí)別、人機(jī)交互和疲勞駕駛檢測(cè)等方面有著非常廣泛的應(yīng)用前景。例如,在機(jī)場(chǎng)、地鐵站、火車站等安全通道進(jìn)行身份驗(yàn)證時(shí),對(duì)多個(gè)攝像頭捕捉到的人臉圖像進(jìn)行三維姿態(tài)估計(jì),篩選出最接近正面的圖片進(jìn)行人臉識(shí)別,能夠提高人臉識(shí)別的準(zhǔn)確度。在人機(jī)交互方面,通過頭部三維姿態(tài)檢測(cè)對(duì)人的頭部運(yùn)動(dòng)進(jìn)行分析。在疲勞駕駛檢測(cè)中,通過監(jiān)控視頻,計(jì)算駕駛員的頭部三維姿態(tài),判斷其大致的視線方向,再結(jié)合眨眼、打哈欠的頻率等參數(shù),推斷駕駛員的疲勞程度和注意力,及時(shí)給予提醒,有效減少交通事故。
頭部三維姿態(tài)檢測(cè)是根據(jù)輸入圖像或者視頻序列確定人的頭部在三維空間中的3個(gè)姿態(tài)參數(shù),即對(duì)應(yīng)于xyz的平面旋轉(zhuǎn)角度、垂直深度旋轉(zhuǎn)角度、側(cè)深度旋轉(zhuǎn)角度3個(gè)空間坐標(biāo)軸的偏轉(zhuǎn)角度[1],姿態(tài)示意圖如圖1所示。
圖1 頭部三維姿態(tài)示意圖
常見的頭部三維姿態(tài)檢測(cè)方法主要包括表觀模板法、檢測(cè)器陣列法、流形嵌入法、彈性模板法、幾何法、跟蹤法等[2]。幾何法(geometric methods)主要結(jié)合人臉特征點(diǎn)的位置和幾何關(guān)系進(jìn)行頭部姿態(tài)的計(jì)算[3],幾何法直觀、簡單,但是在很大程度上依賴于人臉特征點(diǎn)定位的準(zhǔn)確程度,對(duì)于偏轉(zhuǎn)角度較大的情形往往無法準(zhǔn)確定位出人臉特征點(diǎn)的位置,據(jù)此計(jì)算的頭部姿態(tài)誤差非常大,尤其對(duì)于沒有深度信息的人臉圖像,其俯仰角的計(jì)算誤差也是非常大的,所以幾何法在實(shí)際應(yīng)用中具有一定的局限性。跟蹤法(tracking methods)通過對(duì)視頻流中幀與幀之間臉部某些特征點(diǎn)的跟蹤來計(jì)算頭部三維姿態(tài)[4],但是如果頭部運(yùn)動(dòng)速度較快,在兩幀之間變化較大,特征點(diǎn)的跟蹤精度會(huì)受到影響,存在誤差逐幀累積的可能,相對(duì)而言,利用單張圖片信息進(jìn)行三維姿態(tài)判斷的方法精度更高。
近年來,機(jī)器學(xué)習(xí)在頭部姿態(tài)檢測(cè)中也得到了應(yīng)用,Erik采用局部梯度方向(LGO)直方圖表示圖像的梯度方向特征,使用非線性支持向量回歸(SVR)得到其與姿態(tài)角度之間的關(guān)系,從而進(jìn)行三維姿態(tài)角度的判定[5]。雖然LGO能夠很好地描述圖像的面部區(qū)域特征,計(jì)算速度快,但是我們?cè)陂_發(fā)疲勞駕駛實(shí)時(shí)檢測(cè)系統(tǒng)時(shí),利用OPENCV中的Adaboost人臉檢測(cè)方法從視頻或圖像中檢測(cè)到的人臉區(qū)域中往往包括了各種背景,如圖2所示,人臉框中的非人臉區(qū)域會(huì)影響LGO對(duì)臉部特征的描述。本文的目標(biāo)就是減少背景因素對(duì)面部特征的影響,提高檢測(cè)精度。
圖2 基于Adaboost的人臉檢測(cè)結(jié)果
膚色是人特有的一種特征,可以有效區(qū)分背景和臉部區(qū)域,如果在頭部姿態(tài)的特征表示中考慮膚色因素,會(huì)減少背景對(duì)檢測(cè)結(jié)果的影響。對(duì)每個(gè)采樣點(diǎn)使用高斯加權(quán)也可有效減少人臉框四周區(qū)域的權(quán)重,提高面部區(qū)域在整個(gè)特征表示中的權(quán)重,這是因?yàn)楸尘皡^(qū)域往往分布在靠近人臉框的位置。因此,本文提出了一種適用于普通光照條件下的基于膚色和高斯加權(quán)的頭部三維姿態(tài)估計(jì)方法,即用膚色權(quán)值和高斯權(quán)值對(duì)人臉區(qū)域的局部梯度方向直方圖進(jìn)行加權(quán),從而減弱背景區(qū)域?qū)τ?jì)算頭部三維姿態(tài)的影響,提高檢測(cè)的精確度。
LGO直方圖是描述人臉面部特征的一種非常有效的方法,與尺度不變特征變換(Sift)[6]相類似,需要計(jì)算局部梯度方向并用直方圖來描述,但是不同的是,它將整個(gè)臉部區(qū)域作為一個(gè)整體,用一個(gè)直方圖描述子進(jìn)行描述;用Sift描述人臉特征時(shí),需要確定人臉關(guān)鍵點(diǎn)的個(gè)數(shù)以及位置,然后對(duì)于每個(gè)關(guān)鍵點(diǎn)都需要用一個(gè)直方圖描述子進(jìn)行描述。LGO直方圖的計(jì)算方法可以描述為:首先利用公式把檢測(cè)得到的彩色人臉區(qū)域圖像轉(zhuǎn)換成對(duì)應(yīng)的灰度圖像
hgray=0.299R+0.587G+0.114B
(1)
然后把它分成M×N個(gè)子區(qū)域,對(duì)于任意一個(gè)子區(qū)域中位置為(x,y)的像素點(diǎn)計(jì)算其對(duì)應(yīng)的梯度方向ox,y,權(quán)值為1,如圖3所示,其中每個(gè)小格中箭頭方向就是對(duì)應(yīng)像素點(diǎn)的梯度方向,對(duì)這些梯度方向用直方圖進(jìn)行統(tǒng)計(jì)。梯度方向角度的范圍是0~360°,也是直方圖的統(tǒng)計(jì)范圍,在本文中取每45°為一個(gè)柱(Bin),共分為8個(gè)柱,即O=8,將360°分為8個(gè)柱的示意圖如圖3所示。繪制每個(gè)子區(qū)域的梯度方向累加值,從而得到一個(gè)M×N×O的三維梯度方向直方圖,如圖4所示,(m,n,o)表示該直方圖對(duì)應(yīng)的一個(gè)柱。其中(x,y)位置的梯度方向ox,y由以下步驟求得:對(duì)于上面得到的灰度圖像,分別用3×3的sobel算子濾波得到(x,y)位置的像素點(diǎn)對(duì)應(yīng)的橫向亮度差分近似值Xx(x,y)及縱向亮度差分近似值Xy(x,y),從而求得其對(duì)應(yīng)的梯度方向[5]
ox,y=
(2)
圖3 梯度方向示意圖
圖4 2×2×8的LGO示意圖
用一個(gè)3×3×3的核對(duì)LGO直方圖進(jìn)行平滑來防止混疊效應(yīng),從而得到人臉區(qū)域特征的最終表示方法,即
(3)
式中:a,b,c∈(-1,0,1);g(·)是脈沖函數(shù),即
根據(jù)上述過程計(jì)算LGO直方圖時(shí),由于經(jīng)過Adaboost檢測(cè)得到的人臉區(qū)域中往往帶有一定的背景區(qū)域,而LGO直方圖是對(duì)人臉檢測(cè)框內(nèi)部整個(gè)區(qū)域的描述,包括一些背景區(qū)域,而這些非人臉區(qū)域?qū)τ贚GO直方圖的描述也會(huì)造成一定影響,導(dǎo)致其只能近似描述出人臉區(qū)域的特征。為了削弱背景區(qū)域?qū)μ卣髅枋龅挠绊?本文利用膚色加權(quán)和高斯加權(quán)進(jìn)行改進(jìn)得到加權(quán)LGO直方圖。為了計(jì)算加權(quán)LGO直方圖,首先需要進(jìn)行膚色檢測(cè)。
2.1 膚色區(qū)域檢測(cè)
采用OPENCV中提供的Adaboost人臉檢測(cè)方法,得到一個(gè)包含部分背景的人臉區(qū)域。為了方便,把檢測(cè)到的人臉區(qū)域統(tǒng)一到同樣大小進(jìn)行處理。為了盡可能準(zhǔn)確地檢測(cè)出人臉的膚色區(qū)域,需要先進(jìn)行一系列均值濾波、光照補(bǔ)償?shù)阮A(yù)處理工作。
大量的研究表明[7]:人的膚色在YCbCr色彩空間有著比其他色彩空間更好的聚類特性,主要體現(xiàn)為膚色在色度上的差異遠(yuǎn)遠(yuǎn)大于亮度上的差異。所以,本文選擇在YCbCr色彩空間進(jìn)行人臉區(qū)域膚色部分的檢測(cè)。RGB色彩空間到Y(jié)CbCr色彩空間的轉(zhuǎn)換公式為[8]
(4)
根據(jù)統(tǒng)計(jì)學(xué)原理,像膚色這樣的隨機(jī)樣本在CbCr色度空間應(yīng)該符合高斯分布[9],通過擬合可以用高斯膚色模型表示,然后可以根據(jù)高斯分布的概率表達(dá)式求得圖像中像素點(diǎn)的膚色似然值P(Cb,Cr),該值越大,對(duì)應(yīng)的點(diǎn)越接近膚色。對(duì)應(yīng)的表達(dá)式為
(5)
式中:z=(Cb,Cr);μ是均值,表達(dá)式為
C是協(xié)方差矩陣,且
μ、C的值可以通過樣本統(tǒng)計(jì)得到,其中N是統(tǒng)計(jì)樣本的總個(gè)數(shù)。
根據(jù)以上步驟計(jì)算人臉區(qū)域位置為(x,y)的像素點(diǎn)對(duì)應(yīng)的膚色似然值P(Cbx,y,Crx,y),其中Cbx,y、Crx,y是該像素點(diǎn)對(duì)應(yīng)的色度分量。上述計(jì)算結(jié)果可以構(gòu)成對(duì)應(yīng)的膚色似然圖,如圖5所示,從圖中可以很明顯地分辨出人臉的膚色區(qū)域。
圖5 膚色似然圖
2.2 加權(quán)LGO直方圖
加權(quán)LGO直方圖是對(duì)每個(gè)點(diǎn)的梯度方向進(jìn)行加權(quán),它的權(quán)值包括膚色權(quán)值和高斯權(quán)值。其中,膚色加權(quán)主要是計(jì)算出人臉檢測(cè)框內(nèi)部的膚色區(qū)域,對(duì)應(yīng)像素是膚色的權(quán)值較大,非膚色的權(quán)值較小,可以有效減少非膚色區(qū)域的影響。高斯加權(quán)主要是為了讓人臉檢測(cè)框的中心區(qū)域(一般人臉在人臉檢測(cè)框的中間)所對(duì)應(yīng)的權(quán)值略微大些,這樣不容易受到人臉周圍的背景區(qū)域的影響,同時(shí)進(jìn)行平滑,能夠去除一些噪聲的影響。膚色和高斯加權(quán)是對(duì)臉部區(qū)域的位置為(x,y)的像素點(diǎn)計(jì)算得到的梯度方向ox,y進(jìn)行加權(quán),新的權(quán)值變?yōu)?×膚色權(quán)值×高斯權(quán)值。
本文用以下2種方法確定膚色權(quán)值:一是把膚色區(qū)域進(jìn)行二值化處理的結(jié)果當(dāng)作權(quán)值,也就是說,如果式(5)計(jì)算得到的某點(diǎn)的膚色似然值大于0.5,則認(rèn)為該點(diǎn)屬于膚色區(qū)域,其權(quán)值為1,否則屬于非膚色區(qū)域,權(quán)值為0。膚色二值化加權(quán)的權(quán)值表達(dá)式為
另一種方法則是直接將式(5)計(jì)算得到的膚色似然值作為膚色權(quán)值,即
高斯權(quán)值用二維高斯函數(shù)表示,即
式中:(x0,y0)是人臉框中心位置;r是人臉框的外接圓半徑。
(x,y)處的梯度方向的權(quán)值可以表示為
(6)
根據(jù)上述描述并結(jié)合LGO直方圖的計(jì)算方法,即對(duì)梯度方向的權(quán)值進(jìn)行統(tǒng)計(jì)可以得到兩種加權(quán)LGO直方圖,它們的膚色權(quán)值分別為膚色二值化值和膚色似然值。
上述得到的加權(quán)LGO直方圖是人臉區(qū)域特征的一種新的表示方法,計(jì)算結(jié)果是一個(gè)M×N×O維的特征。求解該特征到某個(gè)對(duì)應(yīng)姿態(tài)的映射就可以求得特征與三維姿態(tài)之間的關(guān)系,這是一個(gè)非線性回歸問題,可以用非線性支持向量回歸機(jī)(SVR)[10-11]求解。
非線性SVR的基本思想是通過一個(gè)非線性映射Φ把輸入數(shù)據(jù)x投影到一個(gè)高維特征空間H中,然后在這個(gè)高維空間中用函數(shù)f(x)=ωΦ(x)+b來擬合數(shù)據(jù)(xi,yi),其中xi∈Rd,yi∈R,i=1,2,…,l,l是樣本數(shù),從而在原來的低維空間取得非線性回歸的效果。在利用非線性SVR求解頭部特征和頭部三維姿態(tài)之間的對(duì)應(yīng)關(guān)系時(shí),xi是第i個(gè)樣本對(duì)應(yīng)的頭部特征,即第i個(gè)樣本的加權(quán)LGO直方圖,而yi是第i個(gè)樣本對(duì)應(yīng)的頭部三維姿態(tài)中其中的一個(gè),這樣便可以通過訓(xùn)練得到對(duì)應(yīng)的回歸器。求解此類問題一般是通過最小化超平面來實(shí)現(xiàn)的,該非線性SVR問題可描述為
(7)
其中的約束表示預(yù)測(cè)值與實(shí)際值的差距小于ε。
對(duì)該問題進(jìn)行求解,得到回歸函數(shù)為
(8)
式中:γ是核參數(shù),且γ>0。
本文在實(shí)驗(yàn)時(shí)利用OPENCV中的LibSVM自動(dòng)訓(xùn)練并優(yōu)化參數(shù),同時(shí)對(duì)非線性SVR進(jìn)行求解。為了計(jì)算頭部三維姿態(tài),使用了垂直深度旋轉(zhuǎn)、平面旋轉(zhuǎn)、側(cè)深度旋轉(zhuǎn)3個(gè)回歸器,輸入都是加權(quán)LGO直方圖。為更好地求解回歸參數(shù),將訓(xùn)練輸入和測(cè)試輸入的每一個(gè)成分的尺度進(jìn)行了歸一化處理,算法的流程圖如圖6所示。
圖6 訓(xùn)練過程流程圖
本文采用波士頓大學(xué)3D頭部跟蹤使用的視頻和測(cè)量的頭部三維姿態(tài)角度數(shù)據(jù)對(duì)算法性能進(jìn)行測(cè)試[12]。在這些視頻中人的頭部三維姿態(tài)角度連續(xù)、完整,比較符合實(shí)際應(yīng)用中頭部偏轉(zhuǎn)角度的要求。用4個(gè)人的數(shù)據(jù)作為訓(xùn)練樣本,1個(gè)人的數(shù)據(jù)作為測(cè)試樣本。在訓(xùn)練和測(cè)試前,需要將視頻流轉(zhuǎn)換成一系列對(duì)應(yīng)的圖像,其中訓(xùn)練圖像2 536張,測(cè)試圖像697張,并將人臉區(qū)域統(tǒng)一到34×34像素大小進(jìn)行處理,把人臉分成4×4個(gè)子區(qū)域。
進(jìn)行2次實(shí)驗(yàn),把加權(quán)LGO和原始LGO進(jìn)行了比較。實(shí)驗(yàn)1對(duì)如圖7所示的圖片進(jìn)行測(cè)試,結(jié)果如表1所示。表中的真實(shí)值是通過儀器檢測(cè)出的頭部三維姿態(tài)的實(shí)際值,誤差是真實(shí)值和測(cè)試值之差的絕對(duì)值??梢钥闯?加權(quán)LGO直方圖能夠更好地估計(jì)頭部三維姿態(tài)。
圖7 測(cè)試圖像示例
實(shí)驗(yàn)2對(duì)測(cè)試庫中的所有697張圖片進(jìn)行測(cè)試,在計(jì)算膚色權(quán)值的時(shí)候分別采用了二值化、似然值兩種方法。表2給出了真實(shí)值與測(cè)試值的平均誤差,其中Ep、Ey、Er分別為3個(gè)角度對(duì)應(yīng)的平均誤差。
表1 測(cè)試結(jié)果對(duì)比 (°)
表2 平均誤差 (°)
從表2可以看出,在LGO直方圖的基礎(chǔ)上利用膚色權(quán)值和高斯權(quán)值進(jìn)行加權(quán),對(duì)頭部三維姿態(tài)的3個(gè)參數(shù)的估計(jì)結(jié)果都得到了明顯提升。其中加權(quán)LGO方法在垂直深度和側(cè)深度兩個(gè)參數(shù)的估計(jì)方面更有優(yōu)勢(shì),精度平均能提高2°左右,但是對(duì)于平面旋轉(zhuǎn)這個(gè)參數(shù)的估計(jì),相對(duì)于原始LGO方法則提高較少。對(duì)于兩種加權(quán)LGO直方圖,主要根據(jù)膚色權(quán)值的計(jì)算方法不同加以區(qū)分。其中,基于膚色似然值的LGO直方圖可以很好地描述膚色的分布情況,從而提高膚色區(qū)域在計(jì)算加權(quán)LGO直方圖時(shí)的權(quán)重,而且可以通過膚色似然值的不同顯示出膚色不同區(qū)域之間的細(xì)小差異,比如鼻子部分等,保留了膚色的更多細(xì)節(jié)。基于膚色二值化值的LGO直方圖是在膚色似然值的基礎(chǔ)上進(jìn)行計(jì)算的,在閾值選擇比較精確時(shí)能夠比較好地區(qū)分背景區(qū)域和膚色區(qū)域,使得膚色和非膚色的界限比較明顯,容易突出輪廓。這兩種膚色權(quán)值表示方法都能比較好地區(qū)分背景和人臉部分,在具體使用中,尤其是在疲勞駕駛檢測(cè)中,主要涉及兩個(gè)參數(shù)的估計(jì),從表2可以看出,兩種方法的結(jié)果差別不大,所以可以使用膚色似然值或者膚色二值化值作為膚色權(quán)值。
本文對(duì)局部梯度方向直方圖進(jìn)行了改進(jìn),體現(xiàn)在計(jì)算梯度方向時(shí)用膚色權(quán)值和高斯權(quán)值進(jìn)行加權(quán)處理。使用膚色權(quán)值加權(quán)可以有效減少人臉檢測(cè)框中背景區(qū)域的影響,使用高斯加權(quán)則在進(jìn)一步減少背景區(qū)域影響的基礎(chǔ)上起到了平滑的作用。從實(shí)驗(yàn)1、2的結(jié)果可以看出,經(jīng)過膚色權(quán)值和高斯權(quán)值加權(quán)的局部梯度方向直方圖有著比原始LGO直方圖更好的效果,對(duì)垂直深度旋轉(zhuǎn)角度和側(cè)深度旋轉(zhuǎn)角度這兩個(gè)參數(shù)的估計(jì)提高了2°左右。這兩個(gè)參數(shù)是實(shí)際應(yīng)用中經(jīng)常需要計(jì)算的,其中垂直深度主要體現(xiàn)低頭、打哈欠等動(dòng)作,側(cè)深度主要體現(xiàn)搖頭、左右觀察等動(dòng)作,這兩個(gè)參數(shù)往往就可以大致判斷出頭部的轉(zhuǎn)向。在疲勞駕駛檢測(cè)系統(tǒng)中,在光線條件能夠檢測(cè)到人臉膚色的情況下,用本文方法進(jìn)行頭部三維姿態(tài)檢測(cè)可以大致估計(jì)出駕駛員的頭部三維姿態(tài),并據(jù)此判斷其是否處于瞌睡、四處張望等狀態(tài)。對(duì)于夜間的情況,可以考慮用去除背景區(qū)域的紅外圖像進(jìn)行處理。
[1] JI Qiang . 3D face pose estimation and tracking from a monocular camera [J]. Image and Vision Computing, 2002, 20(7): 499-511.
[2] MURPHY-CHUTORIAN E, TRIVEDI M M. Head pose estimation in computer vision: a survey [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(4): 607-626.
[3] WANG J G, SUNG E. EM enhancement of 3D head pose estimated by point at infinity [J]. Image and Vision Computing, 2007, 25(12): 1864-1874.
[4] 趙剛強(qiáng). 基于視覺的大范圍頭部姿態(tài)跟蹤關(guān)鍵技術(shù)研究 [D]. 杭州: 浙江大學(xué), 2009.
[5] MURPHY-CHUTORIAN E, DOSHI A, TRIVEDI M M. Head pose estimation for driver assistance systems: a robust algorithm and experimental evaluation [C]∥Intelligent Transportation Systems Conference. Piscataway, NJ, USA: IEEE, 2007: 709-714.
[6] LOWE D G. Distinctive image features from scale-invariant keypoints [J]. International Journal of Computer Vision, 2004, 60(2): 91-110.
[7] HSU R L, ABDEL-MOTTALEB M, JAIN A K. Face detection in color images [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(5): 696-706.
[8] 龔理專, 王威. 基于膚色信息和主分量分析的人臉實(shí)時(shí)檢測(cè)系統(tǒng) [J]. 計(jì)算技術(shù)與自動(dòng)化, 2005, 24(1): 92-94. GONG Lizhuan, WANG Wei. Real-time face detection system based on skin information and principal component analysis [J]. Computing Technology and Automation, 2005, 24(1): 92-94.
[9] 李偉, 孫世新. 基于膚色分割的人臉檢測(cè)算法研究 [D]. 西安: 電子科技大學(xué), 2006.
[10]BASAK D, PAL S, PATRANABIS D C. Support vector regression [J]. Neural Information Processing-Letters and Reviews, 2007, 11(10): 203-224.
[11]董國君, 余輝. 基于RBF核的SVM核參數(shù)優(yōu)化算法 [J]. 新疆大學(xué)學(xué)報(bào): 自然科學(xué)版, 2009(3): 355-358. DONG Guojun, YU Hui. Optimization algorithm of SVM kernel parameters based on RBF kernel [J]. Journal of Xinjiang University: Natural Science Edition, 2009(3): 355-358.
[12]LA C M, SCLAROFF S. Fast reliable head tracking under varying illumination [C]∥ IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway, NJ, USA: IEEE, 1999: 604-610.
[本刊相關(guān)文獻(xiàn)鏈接]
俱瑩,殷勤業(yè),陳媛,等.發(fā)射聚焦式的多天線跳空安全通信技術(shù).2015,49(6):22-26.[doi:10.7652/xjtuxb201506004]
劉天良,鄭海紅,羅圣美,等.改進(jìn)的混合動(dòng)靜態(tài)背景的分割方法.2015,49(2):25-30.[doi:10.7652/xjtuxb201502005]
楊建偉,桂小林,安健,等.一種信任關(guān)系網(wǎng)絡(luò)中的社團(tuán)結(jié)構(gòu)檢測(cè)算法.2014,48(12):80-86.[doi:10.7652/xjtuxb2014 12013]
楊陽,廖學(xué)文,高貞貞,等.多小區(qū)終端直通異構(gòu)網(wǎng)絡(luò)中利用圖論的資源分配方案.2014,48(10):22-28.[doi:10.7652/xjtuxb201410004]
趙建偉,賈維敏,姚敏立,等.移動(dòng)衛(wèi)星通信系統(tǒng)組合姿態(tài)估計(jì)算法.2014,48(8):36-41.[doi:10.7652/xjtuxb201408007]
任茂棟,梁晉,唐正宗,等.數(shù)字圖像相關(guān)法中的優(yōu)化插值濾波器.2014,48(7):65-70.[doi:10.7652/xjtuxb201407012]
屈鑒銘,劉志鏡,賀文驊.結(jié)合有向場(chǎng)景運(yùn)動(dòng)模式的粒子濾波行人跟蹤方法.2014,48(12):74-79.[doi:10.7652/xjtuxb 201412012]
儲(chǔ)穎,牟軒沁,洪偉.采用形狀一致性特征的盲圖像質(zhì)量評(píng)價(jià)方法.2014,48(8):12-17.[doi:10.7652/xjtuxb201408003]
袁飛,朱利,張磊.利用超圖圖割的圖像共分割算法.2014,48(2):20-24.[doi:10.7652/xjtuxb201402004]
趙軍,趙繼,張雷.焊縫結(jié)構(gòu)光圖像處理與特征提取方法.2013,47(1):114-119.[doi:10.7652/xjtuxb201301022]
田方浩,姚敏立,周淑華,等.寬帶移動(dòng)衛(wèi)星通信系統(tǒng)低成本姿態(tài)估計(jì)算法.2013,47(6):44-49.[doi:10.7652/xjtuxb 201306008]
(編輯 趙煒)
Head Pose Estimation Using Weighted Localized Gradient Orientation Histogram
CUI Wangli1,WEI Junhu1,JI Peng2,LIU Zhe3
(1. State Key Laboratory of Manufacturing Systems Engineering, Xi’an Jiaotong University, Xi’an 710049, China;2. School of Mechanical Engineering, Xi’an Jiaotong University, Xi’an 710049, China;3. Xi’an Bang Wei Electronic Technology Co., Ltd., Xi’an 710049, China)
When used for real-time 3D head-pose estimation, the facial features based on the localized gradient orientation histogram are easily affected by the environment and background so that the detection accuracy cannot meet the practical requirements. To reduce the influence of environment and background in images and video sequences, this paper presents a new weighted localized gradient orientation histogram to represent the facial features. During the computation, faces are detected and made the same size firstly. The gradient orientations of every point in the facial area are computed and then weighted by its skin-color probability and a Gaussian random value. Based on these gradient orientations a weighted localized gradient orientation histogram is obtained, in which the role of facial area is increased and that of environment and background are reduced. Finally the relationship between the 3D head-pose and the new features is computed using nonlinear support vector regression method. The results of numerical experiments show that this new method has a reletively high detection accuracy.
3D head pose estimation; skin-color weights; Gaussian weight; localized gradient orientation histogram; nonlinear support vector regression
2015-03-13。
崔汪莉(1989—),女,碩士生;衛(wèi)軍胡(通信作者),男,副教授。
10.7652/xjtuxb201511012
TH137
A
0253-987X(2015)11-0071-06