程學軍,邢蕭飛
(1.河南工業(yè)大學漯河工學院 信息工程學院,河南 漯河 462000;2.廣州大學 計算機科學與網絡工程學院,廣東 廣州 528225)
人臉表情是最直接、最明顯的情感表達方式,對其有效的識別具有重要的理論意義和實用價值[1,2]。而實際中,光照變化致使人臉表情識別面臨著各種挑戰(zhàn),研究有效適用性強的人臉表情識別方法顯得更為迫切[3]。
對于計算機來說,人臉表情識別技術的本質是對采集圖像中海量數(shù)據進行優(yōu)化處理。因其采集圖像存在多樣性和復雜性,計算機處理系統(tǒng)會面臨樣本數(shù)據非線性不確定性的問題[4]。而傳統(tǒng)處理方法如主成分分析、尺度不變特征轉換等方法,也存在模型簡單、參數(shù)設置復雜等問題。
深度神經網絡則可實現(xiàn)對圖像數(shù)據的深度提取,并基于自身網絡的不斷學習,對于網絡模型參數(shù)也可進行及時調整,以滿足識別場景多樣性和表情識別準確性的需求[5,6]。
借鑒于現(xiàn)行深度學習技術,提出了一種利用高斯特征提取結合改進型VGG-16網絡模型的人臉表情識別方法。主要創(chuàng)新點總結如下:
(1)為更好支撐VGG-16神經網絡對被測圖像的表情識別,基于改進的高斯混合模型對圖像數(shù)據及采集數(shù)據進行圖像重建并實現(xiàn)特征的提??;
(2)針對傳統(tǒng)神經網絡的圖像識別忽略表情關聯(lián)性問題,基于VGG-16神經網絡模型對圖像特征采集進行相關情感標簽分布學習和正則化學習,實現(xiàn)判別性區(qū)分,從而提高識別準確度;
(3)面向在線表情實時識別的需求,采用小批量梯度下降法簡化網絡訓練模型目標函數(shù),減小運行內存,提高模型對于表情識別的時效性。
人臉表情識別研究涉及特征提取、圖像理解、數(shù)據分析和表情分類等內容,其研究成果對于計算機視覺、認知科學、心理學等領域有著重要意義。目前已有一定研究人員對人臉表情識別展開研究,其目的是對面部圖像6種基本情緒表情準確分類識別,包括[7,8]:憤怒(An)、厭惡(Di)、恐懼(Fe)、快樂(Ha)、悲傷(Sa)和驚訝(Su)。
傳統(tǒng)的人臉表情識別方法主要為表觀特征法和模型法兩種方法。主成分分析法作為表觀特征法的代表方式之一,基于近似理論通過尋找最小均方值[9,10],獲取原始數(shù)據的最大可能投影方向,但其運算量較大,且不計及圖像細節(jié)機構信息;Gabor濾波算法可有效提供測圖像數(shù)據細節(jié)信息[11],實現(xiàn)多數(shù)據多維度識別分析,但存在決策數(shù)據維數(shù)過高的問題,不滿足實時表情識別的需求;點分布模型(point distribution model,PDM)是一種模型化的圖像識別方法,其可計及圖像表情的形狀特征和紋理特征進行綜合考慮統(tǒng)一建模,實現(xiàn)圖像特征準確提取,但同樣面臨計算復雜的問題,并且存在場景自適應能力差的缺陷[12]。
機器學習可通過網絡模型中多層網絡結構的迭代分析決策,基于海量數(shù)據進行自主分析決策,以強大的學習能力實現(xiàn)人臉表情識別的實時性和準確性。針對面部表情識別問題,文獻[13]提出了一種基于概率融合的卷積神經網絡模型,采用卷積整流線性層作為第一層并實時調整模型訓練參數(shù)和架構來適應CNN的體系結構,具有較好的識別準確性;文獻[14]采用多任務深度卷積網絡(multiple task deep convolution neural network,MTCNN)檢測人臉的界標點,并通過冗余去除和降維改進實現(xiàn)圖像微表情中光流特征的高效提取,基于對課堂教學中的實際應用驗證方法合理性;文獻[15]提出一種基于深度信念網絡(deep belief network,DBN)使用簡化特征的半監(jiān)督情感識別算法,首先將特征提取應用于面部圖像,然后進行特征約簡,降低錯誤和無效的特征數(shù)據信息。
但以上方法均沒有對各種表情之間的關系進行闡釋分析,表情是由多個面部動作模塊組合而成,其面部動作模塊的變化并不是完全相同;其次,同一面部動作模塊的運動存在于不同的表情中。根據普魯奇克的情緒之輪理論,大多數(shù)情緒都是以基本情緒的組合、混合或復合形式出現(xiàn)的。同時,人類的面部表情往往是不同情緒的融合或復合,而不是單一的基本感覺。從這個意義上說,面部表情是模糊的或相關的,即可以使用多個表情數(shù)來描述人臉的外觀。因此,以上方法存在復雜場景下可能無法描述不同情緒中的相關性或模糊性,導致圖像表情識別低下的問題。VGG網絡結構非常簡潔,可通過不斷加深網絡結構可以提升性能,以實現(xiàn)多場景多噪聲環(huán)境下圖像表情準確區(qū)分與識別[16]。文獻[17]提出了一種改進的VGG網絡的表情識別模型,該模型優(yōu)化了網絡結構和網絡參數(shù),并通過遷移學習技術來克服圖像訓練樣本的不足。文獻[18]基于VGG網絡模型對面部表情和人聲變化進行識別,評估3種不同數(shù)據模式輸入中的躁動級別分類的有效性:單獨的語音觀察、單獨的視覺面部觀察以及組合的語音和面部觀察,顯著提升表情和人聲的識別率。
基于VGG深度神經網絡的易擴展、自適應能力強等優(yōu)點,結合高斯特征提取方法,提出了一種近紅外人臉表情識別方法,該方法能更好地提取圖像特征,并通過面部表情的基本情緒賦值,實現(xiàn)表情的準確識別。
為了更好地支撐VGG-16神經網絡對圖像特征的訓練和學習,以滿足更加精確的人臉表情識別,通過極大化數(shù)據模型對高斯混合模型進行改進,實現(xiàn)對圖像采集數(shù)據的圖像重建和特征提取。
由于采集的紅外人臉圖像存在圖像像素分布不均勻問題,需要對其進行圖像重建的操作。首先通過極大化數(shù)據模型的相似度對圖像模型數(shù)據參數(shù)進行針對性提取,并基于極大似然擬合算法計算該模型的熵值和高斯度數(shù)值,繼而可將模型轉化為高斯混合模型,以此將采集模型轉化為熱紅外人臉高斯混合模型[19]。
圖像重建操作具體操作如下:
(1)模型期望概率數(shù)值計算:對采集圖像的各像素隸屬k區(qū)域概率。C為模型概率矩陣,cik為圖像中像素xi可歸于區(qū)域k的期望數(shù)值,具體計算公式為
(1)
式中:pk為當前估計值計算概率矩陣C中元素cik的期望概率。
(2)模型鄰域概率計算:對每個像素相鄰8個鄰域隸屬概率值進行加權值計算。需要注意的是,在該步驟計算時需要對概率矩陣C和權重系數(shù)P′i進行迭代更新:
首先,對采集圖像的像素xi的鄰域隸屬概率的加權平均系數(shù)Pik進行計算;將加權平均值矩陣P設為n×K的矩陣,矩陣中元素Pik可通過下式進行計算表示
(2)
式中:∑8(xi)為像素xi鄰域的8個附鄰區(qū)域;υij為像素xi的鄰域像素xj對其的影響量化因子;cjk為鄰域像素xj可隸屬區(qū)域的概率。
其次,對模型概率矩陣C進行更新迭代計算,判斷xi像素是否為自由像素,若xi是,將概率cik的類歸屬于元素Pik的相同類;若xi否,則將加權平均參數(shù)Pik替換為更新后的概率矩陣。
再次,依據更新后的模型期望矩陣計算相應像素的權重值,計算公式為
(3)
(3)混合模型參數(shù)獲?。夯跇O大化數(shù)據模型的似然度計算獲取混合模型的相應參數(shù)。計算公式為
(4)
(5)
(6)
L[X|φ(pk,μk,σk)]=f[X|φ(pk,μk,σk)]=
(7)
(8)
(4)模型轉換:采用極大似然擬合將圖像模型轉換成高斯混合模型,主要可以分為3個步驟:
1)首先對模型對應像素Rk的理論最大熵值進行計算
(9)
2)計算模型像素Rk的真實熵值
(10)
其中,采集圖像中像素Rk鄰域所對應的總頻率記為frj。
3)實現(xiàn)模型似然度最大化,并計算模型的高斯度G
(11)
若模型中高斯度G→0,證實采集圖像數(shù)據模型已完整轉換為高斯混合模型,完成相應的熱紅外高斯混合人臉圖像重建。
在上文對于采集圖像高斯混合模型化的基礎上,選擇圖像中區(qū)域特征點標注為圓心Os,s=1,2,…,nk。為保證不出現(xiàn)重疊圓的現(xiàn)象,對相應區(qū)域的像素計算距離圖像邊緣的歐幾里得距離d并獲取相應的圖像半徑rjk
Bk(Os,rjk)={xi∈Rp|i=1,2,…,n,d(Os,Oi) (12) 式中:Oi為圓心標注位置,依據對象像素的位置確定;Bk(Os,rjk)為采集圖像中的第s個圓;d(Os,Oi)為Oi、Os兩圓間的歐幾里得距離。則重建人臉等溫特征集Yη為 Yη={Bl}l=1 to η (13) 式中:η為圓標標注參數(shù);Bl為采集圖像中第一個最大半徑的第l個圓,Bl∩Bm=?,Bm∈Yη,l≠m。 經極大化數(shù)據模型和高斯混合模型處理后,采集圖像情感特征的提取結果如圖1所示。 圖1 各種情感提取結果 在高斯混合模型對圖像特征提取的基礎上,基于VGG-16神經網絡模型對圖像特征采集進行相關情感標簽分布學習和正則化學習,實現(xiàn)表情識別分類;進一步采用小批量梯度下降法簡化目標函數(shù),減小運行內存,提高模型對于表情識別的時效性。 VGG神經網絡提出于2014年,其中VGG16模型因訓練學習過程簡潔實用,廣泛用于圖像處理和目標識別的研究工作中。VGG16神經網絡采用3×3的卷積核,較傳統(tǒng)的較大的卷積核,可保證其在對于模型數(shù)據的訓練學習過程中更為深入。 值得注意的是,對于VGG-16網絡模型的討論分析需要對于其各卷積層進行明確,表1為各卷積層的細節(jié)描述[20]。表中,參數(shù)conv為卷積層,其數(shù)字后綴表示為感受野的尺寸和信道數(shù)量。若采樣層的初始化為0時,對于下一采樣層需要基于一定規(guī)律實現(xiàn)梯度計算,表2為各層參數(shù)設置情況。 表1 各卷積層設置 表2 參數(shù)變量設置 VGG-16網絡模型輸入為特征提取后的圖像: 第A,A-LRN層卷積層結構為128個3×3卷積核; 第B層卷積層結構為256個3×3卷積核; 第C層卷積層結構為394個3×3卷積核; 第D層卷積層結構為512個3×3卷積核; 第E層卷積層結構為512個3×3卷積核; Softmax層為輸出層,將分析進行輸出。 (14) 圖2 典型表情及其相關系數(shù)和表情分布 經分析可知,相關情緒標簽分布的構建本質是一個映射關系運算(U,V)→D,即給定一個訓練集 E=(X1,q1),(X2,q2),…,(Xn,qn) (15) 其中,Qi={q1,q2,…,qn} 是對Xi的真實值的單一標簽。則真實值的情緒分布為 (16) 式中:y和qi表示相同的表情;yj和Ulj表示描述Xi的相同的特定情緒。以憤怒為例 (17) 相關情緒標簽分布學習(correlation emotion label distribution learning,CELDL)模型本質為一個映射函數(shù)p(y|X):X→D,可測潛在相關面部表情的情緒分布[21]。本文假設p(y|X)是從S中學習的參數(shù)模型p(y|X;θ),其中θ是模型參數(shù)的向量。 (18) 在VGG-16網絡中,可基于正則化避免過擬合,提高模型的泛化能力,如L2正則化。作為誤差測量的L2損失公式如下 (19) 然后,最佳模型參數(shù)向量θ*由以下公式決定 (20) 式中:λ表示L2范數(shù)正則化系數(shù)。 此外,利用softmax函數(shù)計算樣本的概率 (21) 式中:θ表示神經網絡的參數(shù);NN(X)是修改后VGG-16網絡的最后一個全連接層的輸出。 目標函數(shù)為 (22) 圖3 CELDL模型框架 采用相關情緒標簽分布結構有兩個主要優(yōu)點:首先,它緩解了不正確的真實值情感問題,只要真實值情感基本正確,即離真實情感不遠,那么對真實情感的描述仍然足夠高,足以傳達積極的標簽信息;其次,當學習特定表情的模型時,其它表情中的面部圖像可能會有幫助,這意味著可以增強每個表情的訓練樣本,而無需實際擴展整個訓練集。 采用小批量梯度下降法(mini-batch gradient descent, MBGD)有效地簡化目標函數(shù)L(θ)。關于θj的更新規(guī)則表示如下 (23) 式中:α表示MBGD 中的學習率。 用鏈式法則從第1層到第L層的參數(shù)可以計算出CELDL相對于θ的偏導數(shù),θ的遞推偏導數(shù)方程為 (24) 其中 (25) 和 (26) 則得到δL(θ)/δ(θj)后,用式(23)更新θj。算法1為所提算法的學習過程。 算法1:近紅外面部表情識別的CELDL模型 輸入:訓練集S={X,D} 集合:批量大小b,學習率為α (1)初始化θj (2)j←0 (3)重復 (4)通過式(24)計算δL(θj)/δθj (5)使用式(23)小批量更新θj (6)j←j+1 直至收斂 輸出:網絡層參數(shù)θ* 在本次實驗中采用的是Windows 10的操作系統(tǒng),CPU采用的型號是Intel i5-5400k 6.0 Hz,顯卡采用的型號為Radeon Graphics 8核;軟件支撐為Google旗下Tensorflow深度學習框架。對Oulu-CASIA近紅外數(shù)據集、UCHThermalFace數(shù)據集及自采集數(shù)據集分別實現(xiàn)表情識別。 Oulu-CASIA 數(shù)據集包含3種不同亮度情況和兩種成像系統(tǒng)的2880個圖像數(shù)據集,且該數(shù)據集能對憤怒、厭惡、恐懼、快樂、悲傷以及驚訝等6種情感表情進行合理劃分。本文實驗驗證選擇可見光數(shù)據中480個圖像表情進行所提識別方法可行性驗證。 UCHThermalFace數(shù)據集則是在不同的水平角度和垂直角度采集的熱成像人臉圖像,其也包含室內室外兩種情況。本文選擇對俯仰角在[-15°,15°]、偏轉角在[-30°,30°]的102個熱紅外圖像進行識別實驗驗證,包含快樂、悲傷憤怒等表情。 為驗證本文所提實驗具有工程適用性,本文亦選擇對實際采集圖像進行識別分析?;赩4L2視頻采集驅動實現(xiàn)測試圖像采集,其大致流程如圖4所示。采用內存映射方式,將設備采集的信息映射至應用程序的內存中,并基于mmap函數(shù)將數(shù)據緩沖區(qū)中的圖片信息進行導出。本文為提高采集圖像導出速率,在對采集數(shù)據進行處理時,同時調用兩個ioctl命令,先將采集數(shù)據緩沖出隊列,即VIDIOC_DQBUF,接著再將其入隊VIDIOC_QBUF,可有效提升其處理速度。 圖4 自采集數(shù)據集收集流程 4.2.1 Oulu-CASIA 數(shù)據集識別分析 為了評估所提出模型的學習能力,本文對所提的VGG-16 模型的準確率進行分析,如圖5所示。為了驗證學習能力優(yōu)越性,在暗光照下對Oulu_CASIA 進行了實驗。實驗結果分析準確率如圖5所示,VGG-16模型框架,隨著訓練次數(shù)的增加,準確率越來越高,在40次迭代后,所提方法的識別準確率趨于穩(wěn)定。 圖5 所提模型識別準確率 采用Grad-CAM來可視化重要區(qū)域,如圖6所示,同一個人的不同表情不僅展示了大多數(shù)不同的類別判別區(qū)域,而且還顯示了一小部分類別判別區(qū)域,圖6(a)為憤怒,圖6(b)為厭惡,圖6(c)為恐懼,圖6(g)為快樂,圖6(h)為悲傷,圖6(i)為驚訝,圖6(d)~圖6(f)和圖6(j)~圖6(l)表示來自訓練網絡的殘差表情圖像。結果表明,該模型可以在不同的表情中發(fā)現(xiàn)更多的有區(qū)別性的信息。 圖6 同一人不同表情的類別區(qū)分區(qū)域比較 圖7分別示出了憤怒、悲傷和驚訝的類別區(qū)分區(qū)域,圖7(a)~圖7(d)為憤怒,圖7(e)~圖7(h)為悲傷,圖7(i)~圖7(l)為驚訝。不同的人對同一表情的類別區(qū)分區(qū)域大部分在相同的區(qū)域被激活,驗證本文方法的可行性。 圖7 同一表情對不同人的類別區(qū)分區(qū)域的比較 進一步基于3種近紅外光照條件下對所提出的模型進行了識別實驗驗證,平均識別準確率比較結果見表3。在黑暗條件下,本文所提方法較文獻[13]、文獻[14]、文獻[15]、文獻[16]和文獻[17]的識別方法分別提高13.45%、9.34%、7.46%、6.89%和5.03%;在弱光照條件下,用文獻[13]計算的平均識別準確率僅為76.83%,本文方法的平均識別準確率可達到91.54%;在強光照條件下,本文方法比文獻[13]、文獻[14]、文獻[15]、文獻[16]和文獻[17]方法分別提高了8.35%、8.11%、4.89%、3.92%和2.67%。綜上所述,證實所提方法在不同光照條件下的可行性于優(yōu)越性,且在光照條件下的識別性能優(yōu)于黑暗條件和弱光照下的識別性能。 表3 Oulu_SACIA的表情識別平均準確率 同時,表4為各方法對于Oulu_SACIA數(shù)據集處理時間對比。從圖表中可明顯看出,在處理時效性上,所提方法可有效實現(xiàn)對于表情的快速判別。 表4 各模型及方法識別時間 4.2.2 UCHThermalFace 數(shù)據集識別分析 本文選取UCHThermalFace數(shù)據集中6個數(shù)據子集進行表情識別實驗,包含53個對象6個姿態(tài)圖像,共計318個數(shù)據圖像樣本。分別3種近紅外光照條件下基于UCHThermalFace數(shù)據集對所提出的模型進行了穩(wěn)定性驗證,平均識別準確率比較結果見表5。 如表5所示,所提方法對于UCHThermalFace數(shù)據集識別分析同樣存在強光環(huán)境下識別結果要優(yōu)于黑暗和弱光環(huán)境。在強光環(huán)境下,對于表情平均辨別準確率可達到93.51%,較文獻[13]、文獻[14]、文獻[15]、文獻[16]和文獻[17]方法分別提升12.23%、10.31%、8.12%、2.28%和2.75%;而黑暗環(huán)境中,因存在光線不足的原因,其識別準確性較強光實驗組有整體的下降,其準確率分別為71.23%、79.21%、85.12%、87.32%、88.96%和90.31%;而弱光場景下,所提模型準確率為92.34%,較文獻[13]提升13.56%的準確性。 面向UCHThermalFace數(shù)據集各方法處理時間見表6,所提方法具有明顯時效性。 表6 各模型及方法識別時間 4.2.3 自采集數(shù)據集識別分析 為了進一步驗證所提方法的工程實用性,采用現(xiàn)場采集的方法對200人表情特征進行黑暗環(huán)境、弱光環(huán)境和強光環(huán)境下的圖像采集與特征提取。如表7所示,所提方法因經過分布式學習和正則化學習的綜合訓練,對于黑暗環(huán)境、弱光環(huán)境和強光環(huán)境的識別準確率可以分別達到89.23%、90.23%和91.33%。而對比模型因訓練網絡結構簡單以及缺乏綜合訓練學習,其判斷效率和精度在各種場景下較所提方法存在一定差距。 表7 自采集圖像數(shù)據集識別平均準確率 如前文所述,所提算法為簡化計算步驟,提高計算效率采用MBGD方法實現(xiàn)算法網絡模型的優(yōu)化,從而提高識別效率。對于自采集人臉表情識別時間見表8,所提方法可在278.12 s對被測數(shù)據集完全實現(xiàn)識別,較文獻[13]、文獻[14]、文獻[15]、文獻[16]和文獻[17]方法提高20.31 s、24.7 s、18.34 s、11.44 s和12.09 s。 表8 各模型及方法識別時間 為進一步驗證所提方法的適用性,采用混淆矩陣對識別結果進行展示說明。如圖8(f)所示,所提方法對于憤怒表情、厭惡表情、悲傷表情、開心表情、沮喪表情和驚訝表情的識別準確分別為82%、79%、83%、95%、82%和92%。同時因VGG-16網絡訓練結構的復雜性和兩種學習規(guī)則的綜合,可實現(xiàn)對于各種表情之間的明顯區(qū)分。以開心表情為例,所提模型對其識別正確率可高至95%,對于厭惡和悲傷表情的識別區(qū)別錯誤率為4%和1%,并且對于其表情可實現(xiàn)完全區(qū)分;而對比模型并沒有充分考慮各表情之間的關聯(lián)關系,致使對于識別表情的區(qū)分性問題上存在缺陷,如文獻[13]中厭惡表情和憤怒表情識別錯誤率為19%,已將厭惡表情誤識別為憤怒。 圖8 不同方法下混淆矩陣 本文所提的卷積網絡模型輸出目標主要包括兩部分,即KL損失和L2損失。KL損失和L2損失參數(shù)對卷積網絡模型的表情識別準確度十分重要,其中參數(shù)λ在這兩個部分之間交換,參數(shù)σ控制相鄰表情的關聯(lián)度,均對識別精度有很大影響。如參數(shù)σ,若σ數(shù)值太小,單標簽真實值與其它相鄰表情之間的相關性變得很小,該方法類似于進行單標簽分類任務;若σ太大,則其它相鄰表情之間的相關性差別很小。 為了分析不同超參數(shù)λ和σ在CELDL 模型中的敏感度,以實現(xiàn)模型參數(shù)最優(yōu)化,在VGG-16網絡模型框架下對CELDL表情識別任務進行了實驗驗證。 在自采集數(shù)據集對模型參數(shù)優(yōu)適值進行分析,如圖9所示。在第一個實驗(a)中,根據多次實驗的設置,λ被固定為0.001,并在[0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,1.0]中改變σ來學習不同的模型??梢杂^察到,CELDL模型的準確率一般都是先提高,在0.7時達到最大值,然后下降。結果表明,當σ設為0.7時,網絡模型對參數(shù)選擇沒有影響,表情之間的相關性可以很好地表示出來。 圖9 模型參數(shù)靈敏度分析 實驗(b)將σ數(shù)值固定為0.7,在集合[0,0.0001,0.0005,0.001,0.005,0.01,0.05,0.1]中改變λ進行對比實驗。結果表明,識別性能對參數(shù)λ的取值非常敏感,λ=0.001是依據KL損失和L2損失作為綜合結果判定的情況,保障了深度學習特征的優(yōu)秀識別性能。 面向多場景下多表情識別的準確性和快速性需求,本文提出一種基于高斯特征提取和VGG-16神經網絡的紅外人臉表情識別方法,其主要分為3部分:①基于極大似數(shù)據模型和高斯混合模型對采集圖像進行處理,為后續(xù)深度神經網絡學習訓練提供良好的圖像訓練數(shù)據樣本支撐;②采用相關情感標簽分布學習和正則化學習對VGG-16神經網絡進行改進,對各表情情緒針對分析,保障多環(huán)境場景下采集圖像表情的精準識別;③基于MBGD方法有效簡化網絡模型的目標函數(shù),提高識別方法的識別速度,具有工程應用實際意義。通過對3種數(shù)據集的實驗仿真分析,可以得到所提方法較CNN模型、MTCNN模型和DBN模型具有人臉表情識別準確和快速的優(yōu)勢,其中對于自采集數(shù)據集的圖像識別在黑暗、弱光和強光環(huán)境下識別正確率可達到90.31%、92.34%和91.51%,具有一定的工程適用性。 未來研究重點將探討所提方法的平臺化,努力實現(xiàn)所提方法的商用化。3 學習與識別
3.1 VGG網絡結構
3.2 高斯標簽的分布構造
3.3 情緒標簽的分布學習
3.4 優(yōu) 化
4 算例驗證與結果討論
4.1 實驗數(shù)據集
4.2 人臉識別實驗驗證
4.3 模型參數(shù)敏感度分析
5 結束語