亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度流形學(xué)習(xí)的人臉年齡識別

        2024-09-14 00:00:00張會影圣文順金鑫
        無線電通信技術(shù) 2024年4期
        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)特征提取深度學(xué)習(xí)

        摘 要:現(xiàn)有的人臉年齡識別方法大多利用深度學(xué)習(xí)框架提取人臉特征來識別年齡,但深度學(xué)習(xí)方法提取的高維人臉特征往往包含大量的冗余信息,不利于人臉年齡的識別。為了提高人臉年齡識別算法的精度和魯棒性,提出了一種基于深度流形學(xué)習(xí)(Deep Manifold Learning,DML)的算法,采用深度學(xué)習(xí)提取人臉特征,通過流形學(xué)習(xí)選擇具有判別性的人臉特征,將深度學(xué)習(xí)提取的高維人臉特征嵌入到低維的判別子空間上識別年齡。在公開的人臉數(shù)據(jù)庫MORPH和FG-NET 上對DML 算法進行了實驗,結(jié)果表明DML 方案平均絕對誤差(Mean Absolute Error,MAE)大幅度降低,不同誤差值下識別累積評分(Cumulative Score,CS)明顯提高,顯著優(yōu)于當(dāng)前流行的人臉年齡識別方法。

        關(guān)鍵詞:年齡識別;流形學(xué)習(xí);深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);特征提取;平均絕對誤差

        中圖分類號:TN919. 23 文獻標(biāo)志碼:A 開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID):

        文章編號:1003-3114(2024)04-0799-08

        0 引言

        面部是人與人或人與機器之間交互時傳遞非語言信息的重要載體。通過面部可以推斷出一個人的性別、種族、身份、面部表情和年齡等特征,這些特征直接影響著個體的吸引力,并在交流中起到至關(guān)重要的作用。其中,年齡作為重要的面部特征,有助于理解雙方溝通中所要傳達的信息[1]。隨著人工智能的快速發(fā)展,基于計算機視覺的自動人臉年齡識別引起了人們越來越多的關(guān)注。年齡識別在現(xiàn)實世界中有著廣泛的應(yīng)用。在電子商務(wù)中,根據(jù)人的年齡可以自動推薦廣告,并顯示他們最可能喜歡的商品;在安全領(lǐng)域,基于年齡的人機交互可以防止未成年人購買煙酒等限制品,同時也有助于網(wǎng)頁內(nèi)容的過濾瀏覽等;在刑事案件中,年齡識別可以用來幫助警方判定受害人或嫌疑人的年齡或年齡范圍,為案件調(diào)查提供重要線索[2-3]。

        人臉年齡識別是指利用計算機分析人臉圖像特征來預(yù)測人的年齡范圍或年齡,即根據(jù)給定人臉圖像利用特定算法識別其年齡值。許多與年齡相關(guān)的特征提取算法提出從人臉的形狀、顏色和紋理中提取人臉特征,如人體測量模型[4]、柔性模型[5]和生物啟發(fā)特征(Biologically Inspired Features,BIF)[6]等。隨著深度學(xué)習(xí)的發(fā)展,目前流行的人臉年齡識別方法結(jié)合深度學(xué)習(xí),如卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)提取人臉特征進行年齡識別,將年齡識別性能提高到人類的水平[7-8]。然而,除了年齡信息之外,深度學(xué)習(xí)提取的人臉特征包含大量的冗余信息,如性別、表情和姿勢等,增加了年齡識別的復(fù)雜性。因此,為了提高年齡識別的準(zhǔn)確率,有必要剔除不相關(guān)的特征,尋找貼切描述年齡的有效特征。

        另一方面,人臉流形學(xué)習(xí),如主成分分析法(Principal Component Analysis,PCA)[9]、正交局部保持投影[10]、局部保持投影[11]和共形嵌入分析[12],通過原始的人臉灰度圖像空間提取人臉特征。流形學(xué)習(xí)試圖通過低維的方法來學(xué)習(xí)人臉特征。然而,將原始圖像的高維特征映射到低維流形空間會帶來計算困難和額外開銷,從而限制了其效率和可擴展性。

        為了提高人臉特征提取的有效性,同時降低計算成本,將深度學(xué)習(xí)與流形學(xué)習(xí)相結(jié)合,提出一種深度流形學(xué)習(xí)(Deep Manifold Learning,DML)算法。從CNN 中提取高維的人臉老化特征,基于流形學(xué)習(xí)將其嵌入到低維老化子空間中,學(xué)習(xí)人臉的年齡判別特征并進行年齡識別。通過對DML 的實驗,證明了該方法的有效性。

        1 相關(guān)工作

        年齡識別是當(dāng)前非常具有挑戰(zhàn)的研究熱點,國內(nèi)外研究者在過去近20 年中,根據(jù)人臉面部特征的提取方案提出了許多年齡識別方法。傳統(tǒng)的人臉年齡識別方法從人臉的形狀、面部骨骼線條、皮膚顏色和紋理等提取面部特征進行年齡分類或回歸任務(wù)。人體測量模型是最早的年齡識別模型之一,該方法計算顱面骨骼生長發(fā)育,由面部形狀的生長變化將人臉年齡粗略地分為幾個年齡組。另一個典型算法是柔性模型,主要包括主動形狀模型(Active ShapeModels,ASM)和主動外觀模型(Active AppearanceModels,AAM)。ASM 主要從人臉的形狀提取特征。而成人年齡變化表現(xiàn)在臉部紋理,研究者提出將人臉形狀與灰度/ 紋理相結(jié)合,即AAM,如Günay等[13]在人臉形狀特征提取中加入人臉紋理特征來識別年齡。

        面部隨年齡增長而變化,人臉臉型、面部脂肪和紋理變化較大,更多地體現(xiàn)在幾個關(guān)鍵區(qū)域,如嘴角、眼角和額頭等,ASM 和AAM 無法很好地捕捉到這些區(qū)域的細節(jié),影響老年人年齡識別。另外,基于AAM 的方法中,面部標(biāo)志(如眼睛、鼻子等)的精確定位是面部特征提取的決定性因素。基于局部特征提取的人臉識別方法能夠克服整體特征的局限性,更好地捕捉到人臉的細節(jié)特征,從而提高識別的準(zhǔn)確性。面部局部特征的提取方法有梯度直方圖(Histogram of Oriented Gradients,HOG)、局部二值模式(Local Binary Patterns,LBP)、尺度不變特征變換(Scale-Invariant Feature Transform,SIFT)、BIF 和Gabor 濾波器等[14]。HOG 計算圖像中局部區(qū)域的梯度方向直方圖來描述圖像的紋理和形狀特征,用于檢測人臉局部特征。LBP 通過比較像素點與其鄰域像素值的大小關(guān)系,將圖像劃分為不同的局部模式并編碼,捕捉圖像中的紋理和顏色特征。SIFT通過檢測圖像中的關(guān)鍵點,并提取這些關(guān)鍵點周圍的局部特征描述,SIFT 具有尺度不變性和旋轉(zhuǎn)不變性。BIF 是基于濾波器組的面部局部特征提取方法,使用一組獨立的濾波器來計算圖像的局部特征,然后組合起來形成特征向量。Gabor 濾波器模擬人類視覺系統(tǒng)的感知機制,在不同尺度和方向上對圖像進行濾波,提取出豐富的紋理特征。雖然人的年齡與面部特征有關(guān),但每個人的衰老過程受不同因素干擾形成獨特的老化形式,為了解決人臉?biāo)ダ线^程中的個體差異性,Geng 等[15]提出了年齡特征子空間模型(AGing pattErn Subspace,AGES),采用AAM 提取人臉特征,按每個人的年齡順序構(gòu)建個體的老化模式。構(gòu)建AGES 時,需要個體不同年齡的人臉圖像建立老化模式,因此AGES 適合包含個體多張不同年齡圖像的數(shù)據(jù)庫,且AGES 模型無法很好地提取局部紋理特征。

        基于深度學(xué)習(xí)的面部特征提取采用CNN 自動提取面部特征,與傳統(tǒng)的人臉特征提取相比,運用深度學(xué)習(xí)方法得到的特征識別度更高,且深度學(xué)習(xí)解決了端對端的人臉年齡識別任務(wù)。Gao 等[16]用16層的視覺幾何圖形組(Visual Geometry Group,VGG)網(wǎng)絡(luò)學(xué)習(xí)圖像的特征,得出人臉圖像的年齡識別值。Wen 等[17]采用深度殘參網(wǎng)絡(luò)ResNet18 對人臉年齡進行識別。Chen 等[18]采用VGG 在大型數(shù)據(jù)集上預(yù)訓(xùn)練學(xué)習(xí),然后遷移到MORPH 數(shù)據(jù)集上訓(xùn)練并識別年齡。Othmani 等[19]對Xception 網(wǎng)絡(luò)訓(xùn)練并對人臉年齡識別。Mei 等[20]和Chen 等[21]采用包含多個CNN 的框架,將多個CNN 的輸出組合為最終結(jié)果,相比于單個CNN,多個CNN 組合相對提高了年齡識別的準(zhǔn)確度。根據(jù)年齡分類結(jié)果與識別的錯誤率等,得出CNN 中卷積核的大小和卷積層數(shù)對特征提取的影響。小卷積核可以捕捉到面部較為細節(jié)的特征。大卷積核能夠捕捉到大范圍的特征,如形狀、整體結(jié)構(gòu)等。淺層卷積捕捉較為簡單、低級的局部特征。深層卷積可以提取更復(fù)雜的特征,如復(fù)雜的紋理等。增加卷積層數(shù)可以提高模型對輸入數(shù)據(jù)的抽象表示能力,但也會引入更多的參數(shù)和計算復(fù)雜度。同時,過深的卷積層可能導(dǎo)致梯度消失或梯度爆炸,使得網(wǎng)絡(luò)無法充分學(xué)習(xí)和訓(xùn)練。

        根據(jù)提取的面部特征,人臉年齡識別通常作為分類、回歸問題或者分類、回歸問題相結(jié)合。年齡作為分類問題時,將年齡分為離散的類別,每張人臉的年齡與分類標(biāo)記集{a1,a2,…,aM}中的一個標(biāo)記對應(yīng),其中M 為正整數(shù),表示分類數(shù),ai 為分類標(biāo)記,i=1,2,…,M。作為回歸問題時,目的是學(xué)習(xí)回歸函數(shù)識別人臉年齡,建立回歸模型,將面部特征映射到年齡標(biāo)記。

        2 DML 年齡識別

        本節(jié)首先介紹了老化流形學(xué)習(xí)、DML;然后介紹了年齡回歸;最后給出DML 人臉年齡識別框架。

        2. 1 老化流形學(xué)習(xí)

        老化流形特征學(xué)習(xí)旨在發(fā)現(xiàn)人臉老化空間的幾何特征,將高維的人臉特征嵌入于低維的流形中。老化流形特征對反映老化的高維變量進行觀測,對高維特征歸納總結(jié)并尋找數(shù)據(jù)之間的規(guī)律。高維變量的人臉特征為年齡識別提供了豐富的信息,但高維變量之間往往存在相關(guān)性,而增加了年齡識別復(fù)雜性,為年齡識別帶來不便。而任意減少人臉特征導(dǎo)致丟失人臉重要信息,造成年齡識別誤差的增加。

        老化流形學(xué)習(xí)假設(shè)原始人臉特征空間為F,表示為F ={fi:fi∈RD}Ni=1,其中D 表示特征空間的維度,N 表示人臉圖像的個數(shù),對應(yīng)真實的年齡標(biāo)記表示為y={ai} Ni=1,ai∈{1,2,…,100}。學(xué)習(xí)一個嵌入F 中的低維流形P,得到流形老化特征子空間X={xi:xi∈Rd}Ni=1,且dlt;lt;D。更具體地說,老化流形的學(xué)習(xí)目標(biāo)是找到一個D×d 的投影矩陣P =[p1,p2,…,pd ],使得X = PTF,其中F = [f1,f2,…,fN]∈RD×N。

        2. 2 DML

        從人臉圖像中提取能夠表征年齡變化的特征參數(shù),為人臉圖像的年齡識別奠定基礎(chǔ)。準(zhǔn)確的人臉特征,可大大提高年齡識別系統(tǒng)的性能,提升年齡識別算法的精確度。基于深度學(xué)習(xí)提取的人臉特征和傳統(tǒng)方法提取的人臉特征相比,深度學(xué)習(xí)所提取的人臉特征更具判別性,而基于深度學(xué)習(xí)的CNN 包括一系列卷積層(Convolution Layer)、池化層(PoolingLayer)和若干個全連接層(Fully Connected Layer)后,得到高維的人臉判別特征,除了年齡信息外,它還包含其他相關(guān)信息,例如身份、性別、種族、表情和姿勢等。為了改進人臉年齡識別精度,從深度學(xué)習(xí)特征中尋找適合描述年齡的特征尤其重要。當(dāng)特征變量具有高度相關(guān)性、噪聲和高維性時,將觀測數(shù)據(jù)投影到潛在變量的子空間上是一種有效的技術(shù)。因此,將CNN 提取的高維人臉特征,采用流形技術(shù)學(xué)習(xí)其判別老化子空間,降低人臉年齡識別誤差。

        通過深度學(xué)習(xí)模型,提取出高維的深度人臉特征空間C={ci:ci∈Rc}Ni=1,其中c 表示CNN 模型從原始人臉特征空間所提取的人臉特征空間的維度,學(xué)習(xí)一個嵌入C 中的低維流形使老化特征子空間X={xi:xi∈Rd}Ni=1,且dlt;lt;clt;lt;D。即DML 的學(xué)習(xí)目標(biāo)是分別找到D×c 的投影矩陣P=[p1,p2,…,pc]和c× d 的投影矩陣Q = [q1,q2,…,qd ],使得X =(PQ) T F,其中F=[f1,f2,…,fN]∈RD×N。

        2. 3 年齡回歸

        通過DML 得到人臉圖像子空間表示后,定義年齡識別作為回歸問題。根據(jù)文獻[12],在年齡識別問題中,人臉年齡子空間變量是年齡變量復(fù)雜的函數(shù)形式,年齡回歸規(guī)律表現(xiàn)為曲線形式,人臉年齡識別是復(fù)雜的非線性函數(shù),因此采用非線性回歸方法。與邏輯回歸相比,支持向量機在學(xué)習(xí)復(fù)雜的非線性方程時提供了一種更為清晰、有效的方式,不但算法簡單,而且具有較好的魯棒性。因此采用非線性支持向量機回歸,對人臉流形子空間進行回歸。

        2. 4 DML 人臉年齡識別框架

        基于DML 的人臉年齡識別框架如圖1 所示。DML 年齡識別包含5 個模塊,分別為人臉預(yù)處理、訓(xùn)練深度學(xué)習(xí)模型、特征提取、流形學(xué)習(xí)和年齡回歸模型。① 人臉預(yù)處理包括人臉檢測、檢測面部關(guān)鍵點和對齊,將檢測出的人臉裁剪成指定尺寸。② 訓(xùn)練深度學(xué)習(xí)模型并保存模型參數(shù)。③ 利用保存的模型參數(shù)提取人臉的高維特征向量。④ 采用流形學(xué)習(xí)方法學(xué)習(xí)人臉特征子空間,選擇更適合描述年齡的特征,即流形學(xué)習(xí)將CNN 提取的老化特征轉(zhuǎn)化為低維老化子空間。⑤ 低維的人臉特征用于年齡回歸模型的訓(xùn)練。

        3 實驗和結(jié)果分析

        3. 1 數(shù)據(jù)集及預(yù)處理

        為了比較DML 和先進的年齡識別方法,選擇公開的人臉庫MORPH 和FG-NET[15]作為試驗數(shù)據(jù)集。MORPH 包含13 618 人、55 134 張人臉圖像,平均每人4 張圖像,年齡在16 ~ 77 歲。FGNET 包括82 人、1 002 張人臉圖像,年齡在0 ~69 歲。

        人臉預(yù)處理流程如圖2 所示,采用DPM 技術(shù)[16]檢測面部,首先檢測面部區(qū)域,然后檢測面部5 個關(guān)鍵點,如鼻尖位置、左/ 右眼睛中心點位置和左/ 右嘴角位置,最后根據(jù)面部關(guān)鍵點對齊面部進行裁剪,裁剪為229 pixel×229 pixel×3 通道表示。預(yù)處理后的人臉圖像作為輸入訓(xùn)練CNN 模型,實現(xiàn)面部高維特征的提取。

        3. 2 評價標(biāo)準(zhǔn)

        本文用最常用的年齡識別評價標(biāo)準(zhǔn):平均絕對誤差(Mean Absolute Error,MAE)和累積評分(Cu-mulative Score,CS)。MAE 計算如下:

        式中:y 為真實年齡,y*為模型識別的年齡。

        CS 表示給定的絕對誤差年齡值下,年齡識別的準(zhǔn)確率,公式如下:

        CS=Nm/N ×100% , (2)

        式中:Nm 表示|y-y*≤m| 的人臉圖像的個數(shù),m 表示大于零的正整數(shù)(單位為年)。

        3. 3 Inception V4 卷積神經(jīng)網(wǎng)絡(luò)與訓(xùn)練

        目前流行的CNN 框架AlexNet、VGGNet、ResNet、Inception V4、DenseNet 可用于圖像分類、目標(biāo)檢測和語義分割等計算機視覺任務(wù)。其中AlexNet 較為簡單,有5 層卷積層。VGGNet 有16 層或19 層的卷積層,全連接層輸出為4 096 維。ResNet 使用深層的網(wǎng)絡(luò)結(jié)構(gòu)(50、101、152 層)和殘差連接,它的參數(shù)量相對較大,在小的數(shù)據(jù)集上訓(xùn)練,模型容易過擬合、梯度消失或爆炸。DenseNet 使用更深層網(wǎng)絡(luò)(121、169、201、264 層),通過密集連接(即每個層與前面所有層連接)來增加信息流動。DenseNet 參數(shù)量更大,需要更多的計算資源且小樣本場景下容易產(chǎn)生過擬合。Inception V4 的網(wǎng)絡(luò)層數(shù)介于VGGNet 和ResNet 之間,采用多個Inception 模塊和分支,有效捕捉不同尺度的特征,提高了模型的表達能力。

        Inception V4 網(wǎng)絡(luò)[22]由Google 團隊在2016 年提出的,它在Inception 體系結(jié)構(gòu)的基礎(chǔ)上進行了改進,Inception V4 網(wǎng)絡(luò)結(jié)構(gòu)如圖3 所示。Inception V4包含主干網(wǎng)絡(luò)(Stem)、4 個InceptionA 模塊、下采樣模塊ReductionA、7 個InceptionB 模塊、下采樣模塊ReductionB、3 個InceptionC 模塊,最后是全局平均池化、Dropout 層和softmax 輸出(圖3 中藍色表示輸入模塊、Inception 模塊和Dropout 層,紅色表示主干網(wǎng)絡(luò)Stem,紫色表示下采樣模塊Reduction 和平均池化,黃色表示softmax 輸出)。

        InceptionA 模塊、InceptionB 模塊和InceptionC模塊是Inception V4 網(wǎng)絡(luò)中的3 個重要模塊,它們通過在不同尺度上進行卷積操作,并將得到的特征圖進行拼接,從而捕捉到不同層次、不同尺度的特征。例如,圖4 中的InceptionA 塊,利用1×1、3×3 卷積核和多通道的優(yōu)勢,提取圖像特征信息。將經(jīng)過各個卷積層處理得到的特征圖進行拼接,得到InceptionA 模塊的輸出特征圖。

        在Windows 10 系統(tǒng)上使用開源的TensorFlow框架、Python 3. 7、PyCharm 開發(fā)環(huán)境和NVIDIATitan XP 顯卡訓(xùn)練Inception V4 模型。為了避免訓(xùn)練性能上的偏差,數(shù)據(jù)集MORPH 和FGNET 分別隨機分成兩部分,其中80% 用來訓(xùn)練,剩下的20%用來測試。各參數(shù)的設(shè)置如下:優(yōu)化算法選擇隨機梯度下降,丟棄率均為0. 8,MORPH 數(shù)據(jù)集較大,批處理設(shè)置為80,FG-NET 數(shù)據(jù)集較小,批處理設(shè)置為2,學(xué)習(xí)率均為0. 001,訓(xùn)練次數(shù)設(shè)置為100。訓(xùn)練后的Inception V4 最后全連接層的輸出作為面部特征。

        3. 4 流形學(xué)習(xí)方法的選擇

        數(shù)據(jù)的流形學(xué)習(xí)方法有多種,其中PCA 是一種最常用的無監(jiān)督降維方法。PCA 可以從高維特征空間中識別主要特征,并選擇較少的主成分來表示原始數(shù)據(jù)。PCA 通過線性變換將原始特征轉(zhuǎn)化為一組互不相關(guān)的主成分,從而去除特征之間的相關(guān)性,提高模型的穩(wěn)定性和可靠性。總之,PCA 能使用較少的數(shù)據(jù)維度,保留較多的原始數(shù)據(jù)特征,在保證信息量不丟失的情況下,對高維特征進行降維。因此,選擇PCA 流形學(xué)習(xí)方法。

        3. 5 試驗結(jié)果和分析

        從表1 和表2 可以看出,由Inception V4 提取1 536 維的人臉特征在MORPH 和FG-NET 上MAE 分別為2. 42 和3. 74。通過PCA 降維后保留的源信息比不同,在兩個數(shù)據(jù)集上維數(shù)也不一樣。經(jīng)過綜合分析,在MORPH 上選擇保留90% 的信息,MAE 值為1. 56、34 維度的特征向量;FG-NET 上選擇保留80%的信息,MAE 值為2. 98,35 維度的特征向量。

        這樣保留了特征數(shù)據(jù)中絕大部分源信息,MAE值較優(yōu),且保留的低維度特征數(shù)據(jù),有利于存儲,減少計算的復(fù)雜度,提高算法的效率和速度。

        DML 方法與年齡識別代表方法CS-LBFL[23]、CS-LBMFL[23]、ODFL[24 ]、MA-SFV2[25]、DEX (IMDB-WI-KI)[26]和DL-LDL[27]進行了比較。以上各種方法的MAE 值如表3 所示。

        從表3 可以看出,在數(shù)據(jù)集MORPH 和FG-NET上,年齡識別代表方法中,與現(xiàn)有的年齡識別方法相比,DML 方法MAE 最優(yōu),在MORPH 上MAE 提高了30. 0%,在FG-NET 上MAE 提高了5. 1%。

        圖5 和圖6 分別給出了以上各種方法在MORPH和FG-NET 數(shù)據(jù)集上的CS 曲線,橫軸表示真實年齡和識別年齡之間的絕對誤差,縱軸表示不同誤差值下的正確率。由圖5 和圖6 可以看出,在數(shù)據(jù)集MORPH 和FG-NET 上,DML 的CS 曲線在不同絕對誤差值(0 ~ 10)下的正確率均高于CS-LBFL、CS-LBMFL、ODFL 和DL-LDL 方法。從表3 各種方法MAE 值、圖5 和圖6 中CS 各種方法曲線對比,可以直觀地得出結(jié)論,DML 方法大大優(yōu)于深度學(xué)習(xí)方法。而基于深度學(xué)習(xí)的方法,MORPH 數(shù)據(jù)集的MAE 和CS 優(yōu)于FG-NET,主要原因是訓(xùn)練深度學(xué)習(xí)模型需要大量的數(shù)據(jù),MORTPH 比FG-NET 數(shù)據(jù)集中包含的數(shù)據(jù)量要大的多。

        流形學(xué)習(xí)能更好地捕捉數(shù)據(jù)中的非線性結(jié)構(gòu),從高維數(shù)據(jù)中提取具有鑒別性低維特征。通過降維,去除冗余信息,減少數(shù)據(jù)的維度,提高計算效率;在年齡識別任務(wù)中,通過PCA 流形學(xué)習(xí)方法,將InceptionV4 提取的高維人臉特征投影到主成分空間中,剔除一些無關(guān)或冗余的信息,從而提高了年齡識別的精度、魯棒性和泛化能力。

        通過分析試驗結(jié)果,總結(jié)DML 優(yōu)于其他方法的主要原因:① Inception V4 網(wǎng)絡(luò)結(jié)構(gòu)適合復(fù)雜的人臉特征提取,提取的高維人臉特征,具有一定的判別性。② 年齡識別算法在高維度特征數(shù)據(jù)上表現(xiàn)不佳,流形學(xué)習(xí)能夠有效學(xué)習(xí)判別年齡特征子空間。

        4 結(jié)束語

        雖然深度學(xué)習(xí)方法與傳統(tǒng)機器學(xué)習(xí)方法相比能夠自主學(xué)習(xí)有效的面部特征,但深度學(xué)習(xí)所提取的高維人臉特征包含了其他相關(guān)信息,增加了年齡識別模型學(xué)習(xí)的復(fù)雜度,不利于年齡識別精度的提高。通過流形學(xué)習(xí),將深度學(xué)習(xí)高維特征嵌入到低維的判別子空間上,學(xué)習(xí)人臉判別年齡老化子空間。DML 能有效地學(xué)習(xí)年齡老化子空間,在公開的數(shù)據(jù)集MORPH和FG-NET 上實驗表明,其MAE 和CS 均明顯優(yōu)于其他人臉年齡識別方法。研究不同的流形學(xué)習(xí)方法對年齡識別的影響,有效地選擇適合于年齡識別特定問題的流形學(xué)習(xí)方法,是下一步研究的重點。

        參考文獻

        [1] WU C M,LEE H J. Learning Age Semantic Factor to Enhance Groupbased Representations for Crossage FaceRecognition[J]. Neural Computing & Applications,2022,34(15):13063-13074.

        [2] LI S L,LEE H J. Effective Attentionbased Feature Decomposition for Crossage Face Recognition[J]. Applied Sciences,2022,12(10):4816.

        [3] LU D,WANG D P,ZHANG K Y,et al. Age Estimation fromFacial Images Based on Gabor Feature Fusion and theCIASOSA Algorithm[J]. CAAI Transactions on IntelligenceTechnology,2023,8(2):518-531.

        [4] ZHANG B C,BAO Y. Cross Dataset Learning for Age Estimation[J]. IEEE Access,2022,10:24048-24055.

        [5] SUN H M,PAN H Y,HAN H,et al. Deep Conditional Distribution Learning for Age Estimation[J]. IEEE Transactionson Information Forensics and Security,2021,16:4679-4690.

        [6] CUI X,ZHANG Z F,CAO J,et al. Combined Deep Learning with Directed Acyclic Graph SVM for LocalAdjustment of Age Estimation[J]. IEEE Access,2021,9:370-379.

        [7] BAO Z H,LUO Y T,TAN Z C,et al. Deep Domaininvariant Learning for Facial Age Estimation[J]. Neurocomputing,2023,534:86-93.

        [8] PRAMANIK S,DAHLAN H A. Face Age EstimationUsing Shortcut Identity Connection of ConvolutionalNeural Network [J]. International Journal of AdvancedComputer Science and Applications,2022,13 (4 ):515-521.

        [9] HAN H,LI W T,WANG J C,et al. EnhanceExplainability of Manifold Learning[J]. Neurocomputing,2022,500:877-895.

        [10]VAISHNAVI M S,VIJAYALAKSHMI A. Age EstimationUsing OLPP Features[J]. Oriental Journal of ComputerScience and Technology,2017,10(1):238-248.

        [11]SENDIK O,KELLER Y. DeepAge:Deep Learning ofFacebased Age Estimation[J]. Signal Processing:ImageCommunication,2019,78:368-375.

        [12]KSHATRIYA S,SAWANT M,BHURCHANDI K M.Feature Selection and Feature Manifold for Age Estimation[C]∥International Conference on Computer Vision andImage Processing (CVIP 2020 ): Communications inComputer and Information Science. Singapore:Springer,2020,1377:112-123.

        [13]GNAY A,NABIYEV V. Age Estimation Based onHybrid Features of Facial Images[C]∥Information Sciences and Systems 2015. Lecture Notes in Electrical Engineering. [S. l. ]:Springer,2016:295-304.

        [14]DAGHER I,BARBARA D. Facial Age Estimation UsingPretrained CNN and Transfer Learning[J]. MultimediaTools and Applications,2021,80(13):20369-20380.

        [15]GENG X,ZHOU Z H,SMITHMILES K. Automatic AgeEstimation Based on Facial Aging Patterns [J]. IEEETransactions on Pattern Analysis and MachineIntelligence,2007,29(12):2234-2240.

        [16]GAO B B,XING C,XIE C W,et al. Deep Label DistributionLearning with Label Ambiguity[J]. IEEE Transactions onImage Processing,2017,26(6):2825-2838.

        [17]WEN X,LI B Y,GUO H Y,et al. Adaptive Variance BasedLabel Distribution Learning for Facial Age Estimation[C]∥ 16th European Conference on Computer VisionECCV 2020. Glasgow:SpringerVerlag,2020:379-395.

        [18]CHEN Y L,HE S F,TAN Z C,et al. Age Estimation viaAttributeregion Association [J]. Neurocomputing,2019,367(20):346-356.

        [19]OTHMANI A,TALEB A R,ABDELKAWY H,et al. AgeEstimation fom Faces Using Deep Learning:A Comparative Analysis[J]. Computer Vision and Image Understanding,2020,196:102961.

        [20]MEI S H,GENG Y H,HOU J H,et al. Learning Hyperspectral Images from RGB Images via a CoarsetofineCNN[J]. Sciece China Information Sciences,2022,65(5):152102.

        [21]CHEN S X,ZHANG C J,DONG M. Deep Age Estimation:from Classification to Ranking[J]. IEEE Transactions onMultimedia,2018,20(8):2209-2222.

        [22]SZEGEDY C,IOFFE S,VANHOUCKE V,et al. InceptionV4,InceptionResNet and the Impact of Residual Connections on Learning [C]∥ Proceedings of the 31st AAAIConference on Artificial Intelligence (AAAI-17). Washington D. C. :AAAI,2017:4278-4284.

        [23]LU J W,LIONG V E,ZHOU J. Costsensitive LocalBinary Feature Learning for Facial Age Estimation[J].IEEE Transactions on Image Processing,2015,24(12):5356-5368.

        [24]LIU H,LU J W,FENG J J,et al. Ordinal Deep FeatureLearning for Facial Age Estimation[C]∥2017 12th IEEEInternational Conference on Automatic Face & GestureRecognition (FG 2017). Washington D. C. :IEEE ,2017:157-164.

        [25]LIU X H,ZOU Y,KUANG H L,et al. Face Image Age Estimation Based on Data Augmentation and Lightweight Convolutional Neural Network[J]. Symmetry,2020,12:146.

        [26]ROTHE R,TIMOFTE R,VAN GOOL L. Deep Expectationof Real and Apparent Age from a Single Image WithoutFacial Landmarks[J]. International Journal of ComputerVision,2018,126:144-157.

        [27]張會影,圣文順,曾耀徵. 基于標(biāo)記分布學(xué)習(xí)的人臉年齡識別算法[J]. 江蘇大學(xué)學(xué)報(自然科學(xué)版),2023,44(2):180-185.

        作者簡介:

        張會影 女,(1981—),碩士,副教授。主要研究方向:計算機視覺、圖像處理和深度學(xué)習(xí)。

        (*通信作者)圣文順 男,(1979—),碩士,副教授。主要研究方向:圖像處理和計算機視覺。

        金 鑫 女,(1988—),碩士,講師。主要研究方向:創(chuàng)意設(shè)計和高校美育設(shè)計。

        基金項目:2022 南京工業(yè)大學(xué)浦江學(xué)院教學(xué)改革重中之重項目(2022JG001Z);2023 年度江蘇高校哲學(xué)社會科學(xué)研究項目(2023SJYB0687);南京工業(yè)大學(xué)浦江學(xué)院自然科學(xué)重點培育項目(njpj2022-1-06);江蘇省高?!扒嗨{工程”項目(蘇教師函[2021]11 號);安徽省高校優(yōu)秀青年人才支持計劃項目(gxyq2022108)

        猜你喜歡
        卷積神經(jīng)網(wǎng)絡(luò)特征提取深度學(xué)習(xí)
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        Bagging RCSP腦電特征提取算法
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識別的算法的研究
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        Walsh變換在滾動軸承早期故障特征提取中的應(yīng)用
        軸承(2010年2期)2010-07-28 02:26:12
        国产精品国产三级国产av剧情| 18禁国产美女白浆在线| 亚洲一码二码在线观看| 国产一区二区三区精品毛片| 精品人妻va一区二区三区| 福利视频在线一区二区三区| 国产不卡在线观看视频| 久久人妻少妇嫩草av| 97人人模人人爽人人喊网| 国产97色在线 | 日韩| 亚洲AV无码久久久一区二不卡| 国内精品伊人久久久久av| 久久久亚洲欧洲日产国码是AV| 国产一区二区三区在线爱咪咪| 色吧噜噜一区二区三区| 国产日产精品一区二区三区四区的特点 | 无码人妻AⅤ一区 二区 三区| 国产成人午夜av影院| 久亚洲精品不子伦一区| 国产一区二区三区天堂| 日韩日韩日韩日韩日韩| 欧美丰满熟妇aaaaa片| 丰满熟妇人妻无码区| 亚洲每天色在线观看视频| 亚洲成人av一区免费看| 国产大屁股喷水视频在线观看 | 三年片免费观看大全国语| 久久精品人成免费| 欧美亚洲另类国产18p| 亚洲精品中文字幕乱码无线 | 免费人成无码大片在线观看| 久久99精品这里精品动漫6| 国产免费人成网站在线播放| 亚洲第一女人的天堂av| 国产精品无码久久综合网| 精品人妻系列无码一区二区三区| 永久免费毛片在线播放| 蜜臀av在线一区二区尤物| 日日日日做夜夜夜夜做无码| 国产乱子伦在线观看| h动漫尤物视频|