亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于面部特征點的單幅圖像人臉姿態(tài)估計方法

        2021-04-29 03:21:24傅由甲
        計算機工程 2021年4期
        關鍵詞:人臉姿態(tài)標簽

        傅由甲

        (重慶理工大學計算機科學與工程學院,重慶 400054)

        0 概述

        基于圖像的人臉姿態(tài)估計是指在輸入圖像中確定人臉在三維空間中偏轉角度的過程,通過姿態(tài)估計得到頭部轉動方向和眼睛注視位置,是多視角環(huán)境下的人機交互、視覺監(jiān)視的基礎。

        人臉姿態(tài)估計的途徑多種多樣,如激光雷達、立體相機、陣列相機或深度傳感器等,雖然從這些途徑中獲取的人臉姿態(tài)角精度很高,但在實際應用中由于受限于環(huán)境條件往往不能得到,因此僅從單幅圖像中估計人臉姿態(tài)的方法變得非常實用。

        單幅圖像由于可利用的信息量少,使得人臉姿態(tài)估計成為一個十分復雜的模式識別問題。基于深度學習的方法因其訓練過程依賴大量的標注樣本和硬件設施,訓練時間長,因而在一定程度上限制了其應用的范圍。本文針對以上問題,提出一種基于面部特征點定位的頭部姿態(tài)估計方法。

        1 相關工作

        基于圖像的人臉姿態(tài)估計方法主要有基于深度學習的方法、基于子空間分析的方法和基于模型的方法3 類。

        基于深度學習的姿態(tài)估計方法是目前使用較多的方法。文獻[1]使用基于臉部關鍵點的熱力圖神經(jīng)網(wǎng)絡回歸器(heatmap-CNN)預測人臉姿態(tài)。文獻[2]使用在300W-LP 上訓練的基于多均方誤差損失的卷積神經(jīng)網(wǎng)絡直接從圖像中預測人臉姿態(tài)。文獻[3]利用單獨的CNN 融合DCNN 的中間層,并運用多任務學習算法處理融合特征,通過任務之間的協(xié)同作用提高各自任務的性能。文獻[4]使用細分空間結構獲得更精細的偏轉角度預測。文獻[5]采用由粗到細的策略,在粗分階段中人臉姿態(tài)被分為4 類,然后送入到細分階段被進一步求精,以此增加對光照、遮擋和模糊的魯棒性。

        基于子空間分析方法假設人臉姿態(tài)和人臉圖像的某些特征間存在某種關系,通過統(tǒng)計學習建立這種關系實現(xiàn)姿態(tài)鑒別。文獻[6]提出一種將線性回歸與部分潛在輸出混合的方法,該方法結合了無監(jiān)督流形學習技術和回歸混合的優(yōu)點,可以在遮擋情況下預測頭部姿勢角度。文獻[7]提出一種多層次結構混合森林(MSHF)方法,從隨機選擇的圖像塊(頭部區(qū)域或背景)中提取多結構特征,使用MSHF回歸得到頭部輪廓,再選擇相應圖像塊的子區(qū)域輸入到MSHF 進一步得到頭部姿態(tài)。文獻[8]在連續(xù)局部回歸方法中將HoG 特征和廣義判別性公共向量相結合,以減小頭部姿勢估計中的誤差。

        基于模型的方法利用人臉幾何模型表示形狀,建立模型和圖像之間的對應關系,然后通過某種方法實現(xiàn)姿態(tài)估計。文獻[9]提出一個統(tǒng)一框架來同時處理人臉特征點定位、姿態(tài)估計和面部變形,該框架使用基于模型的頭部姿態(tài)估計進行級聯(lián)增強,實現(xiàn)迭代更新。文獻[10]利用人眼、鼻孔的位置實現(xiàn)頭部姿態(tài)的分類估計。文獻[11]在鼻下點、雙眼眼角和嘴角點的基礎上通過牛頓迭代法估計人臉在雙眼可見狀態(tài)下繞3 個坐標軸的偏轉值。文獻[12]提出基于四叉樹描述子的姿態(tài)估計方法,該方法基于臉部標記點來逐層細分人臉區(qū)域,通過測量描述子與參考模型間的距離來估計人臉的姿態(tài)方向。與深度學習方法相比,雖然基于模型的單張圖像人臉姿態(tài)估計方法的精度受到標記點精度的影響,但其具有計算簡單、占用內存小、利于部署在移動設備上的優(yōu)點。

        本文提出一種建立關聯(lián)特定人臉標記點定位器的稀疏通用3D 人臉模型方法,通過關聯(lián)Adrian Bulat 人臉特征點定位器[13],使其能適應平面內任意旋轉的且具有自遮擋的大姿態(tài)角度的人臉姿態(tài)估計。通過3 個公共數(shù)據(jù)庫上的測試,驗證了算法適用于俯仰角在[-50°,50°]、偏航角在[-90°,90°]和桶滾角在[0°,360°]的大范圍人臉姿態(tài)的估計,具有較高的平均姿態(tài)估計精度。

        2 人臉姿態(tài)估計算法

        2.1 人臉稀疏3D 模型

        基于模型的人臉姿態(tài)估計方法受到人臉標記點的影響,而不同的人臉標記點定位器定位的人臉標記點偏好有所不同,在從人臉檢測到姿態(tài)估計的自動化過程中,用于人臉姿態(tài)估計的3D 通用模型要與相應的人臉標記點定位器相匹配才能獲得較好的姿態(tài)預測精度。

        本文使用Adrian Bulat 人臉標記點定位器,定位出CMU Multi-PIE 數(shù)據(jù)庫[14]中337 個正面人臉的標記點輪廓,并運用ASM 人臉規(guī)格化方法[15]對標記點輪廓集進行歸一化,形成如圖1(a)所示的平均人臉。將圖1(b)所示的Candide-3 模型[16]中用于姿態(tài)估計的五官特征點正面對齊到圖1(a)的平均人臉上,保留對齊后的五官特征點的z坐標,而其x、y坐標則使用圖1(a)的平均人臉相應點的x、y坐標替換,形成與Adrian Bulat 人臉標記點定位器相匹配的稀疏通用3D 模型。

        圖1 歸一化平均人臉與Candide-3 人臉Fig.1 Normalization mean face and Candide-3 face

        2.2 人臉姿態(tài)估計算法

        人臉偏轉坐標軸如圖2 所示,其中,繞X軸的偏轉稱為俯仰(pitch),繞Y軸的偏轉稱為偏航(yaw),繞Z軸的偏轉稱為桶滾(roll)。

        圖2 人臉姿態(tài)及其坐標軸Fig.2 Facial pose and its coordinate axes

        本文使用Adrian Bulat 人臉特征點定位器完成人臉五官特征點(雙眼眼角、嘴角、鼻尖和鼻下點)的定位,如圖3(a)所示。該定位器適應于平面內旋轉人臉的特征點定位,而且除了可見的特征點外,還能定位出那些被遮擋或者不可見的人臉特征點。在人臉五官特征點基礎上,本文采用圖3(b)所示的INewton_PY+R 算法估計人臉姿態(tài)。該算法為了減小損失函數(shù)中的估計參數(shù),將同時估計人臉繞3 個軸的旋轉過程轉換為搜索稀疏模型繞Z軸一定旋轉范圍內的繞X、Y軸的最佳旋轉角的過程,消除損失函數(shù)中的roll角參數(shù)。通過將3D模型上的鼻下點與圖像上的鼻下點對準,約束模型只能以鼻下點為中心旋轉來消除損失函數(shù)中的平移參數(shù),使得損失函數(shù)僅保留縮放因子、pitch 角和yaw 角3 個參數(shù)。

        圖3 本文人臉姿態(tài)估計方法流程Fig.3 Procedure of proposed facial pose estimation method

        設s為3D 模型全局尺寸參數(shù),tx和ty分別為3D模型向XY平面平行投影后的X及Y方向平移參數(shù)。若已知人臉roll 角度γ,采用如下方法估計人臉深度方向偏轉角度α和β:將3D 模型的鼻下點與圖像上人臉的鼻下點重合并固定,然后調整s、α、β,使圖像上的其他特征點與經(jīng)二維投影后的3D 模型上的相應點對齊(滿足最小距離平方和)。

        最小距離平方和公式如下:

        將式(2)代入式(1),并由限制條件式(3)使用內點罰函數(shù)方法構造增廣目標函數(shù)(損失函數(shù)):

        其中,rk>0 為障礙因子。

        使用修正牛頓法[17]計算滿足式(4)的圖像人臉在指定γ角度情況下的pitch 和yaw 的偏轉參數(shù)α和β,以及3D 人臉模型的縮放系數(shù)s。

        將人臉平面內旋轉角度的估計與平面外偏轉角度估計相結合,以雙眼中心連線傾斜角θ為基礎,通過搜尋θ±90°范圍內最佳偏轉角α、β來獲得人臉繞各坐標軸偏轉的最終估計角度。具體算法如下:

        算法1迭代求解α,β,γ

        3 實驗結果與分析

        3.1 實驗數(shù)據(jù)集

        本文使用了3 個公共人臉庫來對本文方法進行驗證。第1 個是CMU Multi-PIE 人臉數(shù)據(jù)庫,該數(shù)據(jù)庫包含337 個人,每個人的多視角圖像由15 個圍繞在該對象周圍的攝像機同時拍攝完成,如圖4 所示。該數(shù)據(jù)庫一共包含750 000 張不同表情、光照和視角的人臉圖像。

        圖4 CMU Multi-PIE 多視角人臉及其攝像機分布Fig.4 CMU Multi-PIE multi-view pose and its distribution of cameras

        第2 個是BIWIi Kinect Head Pose 人臉數(shù)據(jù)庫[18]。該數(shù)據(jù)庫包含20 個人(6 個女性和14 個男性),超過15 000 張RGB 圖像。每個對象坐在離攝像機前面1 m 左右的位置轉動頭部,由深度攝像機和視頻攝像機記錄下相應的動作,給出每個人臉頭部的精確位置和姿態(tài)矩陣標簽,如圖5 所示。本文將其中能被人臉特征點定位器捕捉到的pitch 角為[-50°,50°]的共14 813 個樣本作為測試樣本。

        圖5 BIWI Kinect Head Pose 人臉庫中的人臉樣本Fig.5 Face samples from BIWI Kinect Head Pose face library

        第3 個是Annotated Facial Landmark in the Wild(AFLW)數(shù)據(jù)庫[19]。該數(shù)據(jù)庫包含來自網(wǎng)絡相冊的大約25 000 個沒有經(jīng)過裁剪和調整大小的樣本,大多數(shù)是RGB 圖像,涵蓋不同姿態(tài)、年齡、表情、種族以及成像條件。由于成像于非約束環(huán)境,數(shù)據(jù)庫使用POSIT 算法[20]給出了這些樣本中人臉的估計姿態(tài)。本文隨機抽取其中5%的樣本作為測試樣本。

        3.2 結果分析

        本文在公共人臉庫上進行了2組實驗測試。第1組測試本文算法在3 個人臉庫上的精度,第2 組則是對比本文算法與當前主要算法在精度上的差異。

        第1 組實驗包括在人臉庫上進行精度測試的3 個實驗。圖6 是本文算法分別在3 個人臉庫上的累計誤差分布。以標簽姿態(tài)的±15°為容許誤差[4],由圖6(a)可知,在Multi-PIE 上pitch 角滿足容許誤差的樣本占比為97.0%,yaw 角占比為99.7%,roll 角占比為100%。同樣,由圖6(b)可知,在BIWI 上pitch 角滿足容許誤差的樣本占比為97.7%,yaw 角占比為95.0%,roll 角占比為99.9%。由圖6(c)可知,算法對AFLW 數(shù)據(jù)集pitch 角滿足容許誤差的樣本占比為88.3%,yaw 角占比為85.8%,roll 角占比為96.8%。圖7 展示了該算法在3 個人臉集上的測試樣例及人臉方向線,其中,N為法向量,U為垂直切向量,T為水平切向量,第1 行為Multi-PIE 數(shù)據(jù)集,第2 行為BIWI 數(shù)據(jù)集,第3 行為AFLW 數(shù)據(jù)集。

        圖6 本文算法在3 個數(shù)據(jù)集上的位姿估計累計誤差分布Fig.6 Pose estimation cumulative error distribution of the proposed algorithm on the three datasets

        圖7 裁剪后的部分測試結果Fig.7 Partial test results after tailoring

        為對精度進一步評估,表1 為本文算法在3 個公共人臉測試集上的平均誤差統(tǒng)計結果,包括平均絕對誤差(MAE)、標準差(STD)和均方根誤差(RMSE)。

        表1 本文算法在公共人臉數(shù)據(jù)集上的誤差Table 1 Error of proposed algorithm on the public face datasets(°)

        從表1 可以看出,在Multi-PIE 上的實驗效果好于BIWI,除Multi-PIE 數(shù)據(jù)庫中的人臉質量明顯好于BIWI 的外,另一個原因在于BIWI 中人臉的位置偏移帶來的誤差。

        人臉的空間狀態(tài)由頭部姿態(tài)和位置組成。當人臉不在攝像機光軸中心時,透視投影會使人臉相對于攝像機產(chǎn)生偏轉效應,如圖8 所示,攝像機位于坐標系∠x′o′z′的原點,同一姿態(tài)的人臉在a、b、c3 個位置產(chǎn)生的圖像ac、bc、cc并不相同。因此,圖像上人臉呈現(xiàn)的姿態(tài)是由人臉實際姿態(tài)和由位置產(chǎn)生的偏轉姿態(tài)兩部分構成,這也是本文算法所測的人臉相對于攝像機的姿態(tài)。從圖4 可知Multi-PIE 數(shù)據(jù)庫中所有人臉位于攝像機光軸中心,而如圖5 所示,BIWI數(shù)據(jù)庫中人臉由于自身運動使一些樣本偏離攝像機光軸較大,造成實際姿態(tài)與相對姿態(tài)間產(chǎn)生差異。本文使用文獻[21]中的方法計算了BIWI 中人臉相對攝像機的姿態(tài),表2 展示了使用該姿態(tài)作為標簽姿態(tài)的統(tǒng)計結果,相比于實際姿態(tài)作為標簽,算法的誤差明顯減小。

        圖8 透視投影下不同位置人臉產(chǎn)生的偏轉Fig.8 Offset of rotation produced by different face positions under perspective projection

        表2 本文方法在BIWI 人臉數(shù)據(jù)集上的誤差Table 2 Error of proposed method on the BIWI face dataset(°)

        另一方面,不同于BIWI 中的精確人臉姿態(tài),AFLW 數(shù)據(jù)庫中的人臉姿態(tài)是由算法生成的粗略姿態(tài)。為對比本文算法估計姿態(tài)和AFLW 中由POSIT算法生成的標簽姿態(tài)的準確度,本文分析了所有誤差超過容許誤差(±15°)的測試樣本,根據(jù)估計姿態(tài)和標簽姿態(tài)的對比結果將它們分為3 組,其中,“估計姿態(tài)好于標簽姿態(tài)”組包含了通過觀察估計姿態(tài)明顯好于標簽姿態(tài)的樣本,“標簽姿態(tài)好于估計姿態(tài)”組包含了標簽姿態(tài)好于估計姿態(tài)的樣本,“不確定”組包含了僅憑觀察無法確定兩者哪個更準確的樣本。表3 列出了各組樣本占測試樣本的比率。圖9 顯示部分估計姿態(tài)好于標簽姿態(tài)的樣本以及兩者的人臉方向線。

        表3 AFLW 中估計姿態(tài)誤差較大的測試樣本中各組樣本比率Table 3 Sample ratio of each group in the test sample with large estimated attitude error in AFLW %

        圖9 估計姿態(tài)與標簽姿態(tài)的比較Fig.9 Comparison of estimated pose and label pose

        由表3 可知,在所有估計姿態(tài)超過容許誤差的樣本中,10.03%的樣本的估計姿態(tài)明顯比標簽姿態(tài)更合理,而僅有5.15%的標簽姿態(tài)好于估計姿態(tài)。而且隨著估計姿態(tài)與標簽姿態(tài)差異的增加(error >25°),估計姿態(tài)好于標簽姿態(tài)的樣本個數(shù)增加明顯,這意味著本文算法的精度非常接近POSIT 在AFLW 上的結果,甚至可能更接近真實的人臉姿態(tài)。表4 顯示了從估計誤差超過容許誤差的樣本中剔除估計姿態(tài)好于標簽姿態(tài)的樣本后的本文算法的誤差統(tǒng)計結果。

        表4 剔除估計姿態(tài)好于標簽姿態(tài)樣本后的精度Table 4 Pose errors of the proposed algorithm after removing the samples with measured poses better than label(°)

        第二組實驗是本文算法與當前主要人臉姿態(tài)估計算法在MAE 上的比較,包括與基于深度學習的算法和非深度學習算法的比較。表5 是不同算法在BIWI 數(shù)據(jù)庫上的比較,其中,文獻[4]實現(xiàn)平臺為Nvidia GTX 1080 Titan GPU,文獻[5]實現(xiàn)平臺為Nvidia GeForce GTX 1080 GPU,文獻[12]實現(xiàn)平臺為i5 quad core CPU+Intel Iris 540 GPU,*為姿態(tài)參數(shù)估計時間。表6 是不同算法在AFLW 數(shù)據(jù)庫上的比較,其中,文獻[1,3]實現(xiàn)平臺為Nvidia GTX Titan-X GPU,文獻[12]實現(xiàn)平臺為i5 quad core CPU+Intel Iris 540 GPU,*是表4 的統(tǒng)計結果。為對比本文算法與同類算法的性能,表中包含了一些當前效果最好的非深度學習算法。從表5、表6可以看出,本文算法平均精度超過了所有非深度學習算法,在BIWI 上比文獻[12]的結果高1.32°。雖然在AFLW 上本文算法僅比文獻[12]高0.7°,但本文算法的測試樣本涵蓋所有pitch在[-50°,50°]的姿態(tài),而文獻[12]則限定姿態(tài)范圍pitch 在±30°,yaw 在±45°之間。在與基于深度學習的方法對比中,本文算法在BIWI 上比最好的文獻[4]算法平均誤差高0.77°,在AFLW 上比最好的文獻[3]算法平均誤差高0.87°,比其他的當前深度學習算法的結果,如文獻[2,5]在BIWI 上的結果以及文獻[1]在AFLW 上的結果要好。如果考慮到AFLW上的一些樣本有著比標簽姿態(tài)更準確的估計姿態(tài)的事實,則本文算法的MAE 指標將降至6.04°,與文獻[3]的5.89°非常接近。考慮到本文算法沒有利用樣本學習,因此與主流深度學習算法性能接近。

        表5 BIWI 數(shù)據(jù)集上不同算法的MAE 對比Table 5 MAE comparison of different algorithm on BIWI dataset

        表6 AFLW 數(shù)據(jù)集上不同算法的MAE 對比Table 6 MAE comparison of different algorithm on AFLW dataset

        本文算法實驗環(huán)境為Intel?CoreTMi7-3632QM 2.2 GB 單CPU,Windows 筆記本電腦,姿態(tài)參數(shù)估計在C++平臺上運行時間小于2 ms,遠低于同類方法的時間。雖然高于深度學習型方法[4-5],但本文運行平臺為筆記本上的普通CPU,如果使用文獻[12]所用的實時人臉特征點檢測器[22],則有望超過文獻[1-3]的運行時間,達到實時估計的效果。

        4 結束語

        本文提出一種使用稀疏通用模型估計單幅圖像中人臉姿態(tài)的方法。該方法通過容易定位的人臉特征角點完成人臉的pitch、yaw 和roll 3 個角度的大范圍姿態(tài)估計,在Multi-PIE、BIWI 和AFLW 3 個人臉庫上表現(xiàn)良好。在BIWI 和AFLW 上的平均誤差測試結果表明,姿態(tài)估計準確度高于目前主流的非學習類型的方法,與主流的學習型方法具有可比性。本文INewton_PY+R 方法不依賴于訓練樣本,不受限于硬件設備,通過關聯(lián)特定人臉標記點定位器的稀疏通用三維人臉建模方法完成與不同的人臉特征點定位器搭配,可以實現(xiàn)人臉大姿態(tài)角度估計或者實時姿態(tài)估計的任務。下一步將引入稀疏可變模型及考慮透視投影下的人臉姿態(tài)估計,以提高算法的精確度。

        猜你喜歡
        人臉姿態(tài)標簽
        有特點的人臉
        攀爬的姿態(tài)
        學生天地(2020年3期)2020-08-25 09:04:16
        三國漫——人臉解鎖
        動漫星空(2018年9期)2018-10-26 01:17:14
        全新一代宋的新姿態(tài)
        汽車觀察(2018年9期)2018-10-23 05:46:40
        跑與走的姿態(tài)
        中國自行車(2018年8期)2018-09-26 06:53:44
        無懼標簽 Alfa Romeo Giulia 200HP
        車迷(2018年11期)2018-08-30 03:20:32
        不害怕撕掉標簽的人,都活出了真正的漂亮
        海峽姐妹(2018年3期)2018-05-09 08:21:02
        標簽化傷害了誰
        基于多進制查詢樹的多標簽識別方法
        計算機工程(2015年8期)2015-07-03 12:20:27
        馬面部與人臉相似度驚人
        а中文在线天堂| 久久天堂av综合合色| 熟女一区二区国产精品| 厨房人妻hd中文字幕| 东北寡妇特级毛片免费| 亚洲AV无码一区二区二三区我| 亚洲香蕉毛片久久网站老妇人| 国产亚洲午夜高清国产拍精品不卡| 久久av不卡人妻出轨一区二区| 蜜桃精品视频一二三区| 日本男人精品一区二区| 欧洲多毛裸体xxxxx| 日韩精品无码av中文无码版| 亚洲先锋影院一区二区| 精品老熟女一区二区三区在线| 99无码精品二区在线视频| 69一区二三区好的精华| 久久人人妻人人做人人爽| 丝袜国产高跟亚洲精品91| 中文字幕中文一区中文字幕| 一区二区三区国产在线视频| 精品国产乱码久久久久久影片| 特级毛片a级毛片免费播放| 亚洲欧美成人在线免费| 国产午夜激情视频在线看| 曰批免费视频播放免费| 人妻少妇av中文字幕乱码| √最新版天堂资源在线| 无码久久精品蜜桃| 国产精品一区二区三区播放| 国产女人的高潮国语对白| 婷婷丁香91| 羞涩色进入亚洲一区二区av | 亚洲精品久久久久久| 岛国视频在线无码| 日韩人妻中文字幕专区| 免费1级做爰片1000部视频| 亚洲综合av在线在线播放| 在线观看av国产自拍| 亚洲天堂av免费在线| 999zyz玖玖资源站永久|