亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        SFSR-Age: 一種基于人臉強(qiáng)語義的年齡識別算法

        2024-05-15 19:23:13孫旭菲繆新穎畢甜甜王水濤喻芳宇
        關(guān)鍵詞:人臉識別

        孫旭菲 繆新穎 畢甜甜 王水濤 喻芳宇

        摘要: 針對因光照、 拍攝角度及圖片質(zhì)量等因素導(dǎo)致的經(jīng)典深度學(xué)習(xí)算法難以有效提取人臉特征、 人物身份識別準(zhǔn)確率難以達(dá)到理想精度的問題, 提出一種基于人臉強(qiáng)語義的年齡識別算法. 首先, 通過注意力矩陣增強(qiáng)人臉區(qū)域的特征權(quán)重, 達(dá)到提取特征區(qū)域的目的; 其次, 使用級聯(lián)雙向長短期記憶(Bi-LSTM)網(wǎng)絡(luò)學(xué)習(xí)時序幀之間的特征依賴關(guān)系, 彌補(bǔ)部分特征缺失對識別精度的影響. 在人臉數(shù)據(jù)集IMDB-WIKI和數(shù)據(jù)集Adience上進(jìn)行測試, 該算法的年齡識別準(zhǔn)確率分別達(dá)到78.34%和77.89%. 實驗結(jié)果表明, 相比于其他基于深度學(xué)習(xí)算法的方法, 該算法在基于圖片數(shù)據(jù)集的人物年齡識別任務(wù)上具有更高的準(zhǔn)確率.

        關(guān)鍵詞: 年齡識別; 人臉識別; 深度學(xué)習(xí)算法; 注意力矩陣; 級聯(lián)Bi-LSTM

        中圖分類號: TP391.41文獻(xiàn)標(biāo)志碼: A文章編號: 1671-5489(2024)02-0347-10

        SFSR-Age: An Age Recognition AlgorithmBased on Strong Facial Semantics

        SUN Xufei1,2, MIAO Xinying1,2, BI Tiantian1,2, WANG Shuitao1,2, YU Fangyu1

        (1. College of Information Engineering, Dalian Ocean University, Dalian 116023, Liaoning Province, China;

        2. Key Laboratory of Liaoning Provincial Marine? Information Technology, Dalian 116023, Liaoning Province, China)

        Abstract: Aiming at the problems that the classical deep learning algorithm was difficult to extract facial features effectively and the accuracy of character identification was difficult to reach the ideal accuracy due to factors such as illumination, shooting angle and image quality, we proposed an? age recognition algorithm based on strong facial semantics. Firstly, the feature weights of facial regions were enhanced by the attention matrix to achieve the purpose of extracting feature regions. Secondly, a cascaded bi-directional long short-term memory (Bi-LSTM) network was used to learn the feature dependency relationships between temporal frames and? compensate for the influence of missing features on recognition accuracy. When tested on IMDB-WIKI facial dataset and Adience dataset, the age recognition accuracy of the algorithm reached 78.34% and 77.89%, respectively. Experimental results show that compared with other methods based on deep learning algorithms, the proposed algorithm has higher accuracy in the task of person age recognition based on image datasets.

        Keywords: age recognition; facial recognition; deep learning algorithm; attention matrix; cascaded Bi-LSTM

        基于人臉的人物年齡識別算法在未成年人上網(wǎng)防沉迷、 網(wǎng)絡(luò)身份識別等領(lǐng)域應(yīng)用廣泛, 目前, 基于人臉年齡識別方法主要分為兩類: 基于圖像分析的方法和基于回歸分析的方法. 陳文兵等[1]提出了基于多模型融合的年齡識別模型CNN-SE-ELM, 該模型首先使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)初步提取人臉特征, 然后使用SENet(squeeze-and-excitation networks)進(jìn)一步提取人臉深層特征, 最后使用EM-ELM(error minimized extreme learning machine)算法實現(xiàn)對人臉年齡的分類及性別分類. 實驗結(jié)果表明, 該算法能提取更有效的面部特征, 且分類器能快速收斂. 陳濟(jì)楠等[2]提出了改進(jìn)的深度神經(jīng)網(wǎng)絡(luò)模型, 使用大卷積核以及跨連卷積實現(xiàn)對人臉特征的提取, 同時使用平均池化替代傳統(tǒng)的全連接層, 為充分訓(xùn)練網(wǎng)絡(luò)參數(shù), 設(shè)置相對較大的學(xué)習(xí)率以及較小的Dropout值, 實驗結(jié)果表明, 改進(jìn)的深度神經(jīng)網(wǎng)絡(luò)能在公開人臉數(shù)據(jù)集上達(dá)到較高的年齡識別準(zhǔn)確率. 周玉陽等[3]提出了基于改進(jìn)VGG(visual geometry group)[4]的年齡和性別分類算法, 在數(shù)據(jù)集Adience上的年齡識別準(zhǔn)確率達(dá)到90%, 性別識別準(zhǔn)確率達(dá)到93%. 錢麗萍等[5]提出了一種基于改進(jìn)集成學(xué)習(xí)算法的人臉年齡分類算法, 首先使用集成算法對圖像進(jìn)行分類, 然后使用基于加權(quán)閾值的投票方法將集成學(xué)習(xí)的弱分類器轉(zhuǎn)換成強(qiáng)分類器, 最終得到年齡的分類結(jié)果, 實驗結(jié)果表明, 該算法在人臉數(shù)據(jù)集上能得到較高的年齡分類準(zhǔn)確率. 房國志等[6]提出了基于多尺度的YOLO算法[7]的人臉年齡估計算法, 首先使用多尺度卷積網(wǎng)絡(luò)以及加權(quán)通道方法減緩卷積過程中目標(biāo)特征丟失問題, 基于決策樹回歸模型實現(xiàn)對年齡的估計, 該算法在多個數(shù)據(jù)集上均達(dá)到了較好的效果, 且魯棒性較強(qiáng). 趙丙娟[8]提出了基于有監(jiān)督的偏最小二乘降維的人臉年齡估計算法, 該算法首先使用AAM(active appearance models)算法[9]提取圖像特征, 然后使用偏最小二乘算法[10]對特征圖降維, 最后基于支持向量回歸(SVR)算法[11]實現(xiàn)對年齡估計, 實驗結(jié)果表明, 將最小二乘算法與SVR相結(jié)合的年齡估計算法具有更好的魯棒性和年齡估計準(zhǔn)確率. 田會娟等[12]提出了多任務(wù)卷積網(wǎng)絡(luò)在光線變化條件下的人臉年齡估計算法, 利用YCbCr色度以及Retinex算法增強(qiáng)對人臉特征提取效果, 在不同距離以及光照強(qiáng)度條件下的對比實驗表明, 特征提取增強(qiáng)模塊能更好地提取人臉特征, 年齡估計絕對平均誤差最大下降2.99%, 人臉識別準(zhǔn)確率最大提升25%. 田青等[13]提出了基于AE(auto encoder)算法的關(guān)系自學(xué)習(xí)年齡估計模型CRSAE, 該方法首先基于人臉協(xié)方差矩陣投影獲取初始人臉特征, 將輸入特征與輸出編碼之間建立關(guān)聯(lián)正則項, 然后使用一個額外的結(jié)構(gòu)矩陣學(xué)習(xí)輸入特征與輸出特征之間的關(guān)聯(lián)關(guān)系, 最后求解CRSAE最優(yōu)解, 實驗結(jié)果表明, CRSAE算法在多個人臉數(shù)據(jù)集上均能達(dá)到較高的魯棒性. 張會影等[14]提出了改進(jìn)的標(biāo)記分布學(xué)習(xí)用于學(xué)習(xí)真實年齡及相鄰年齡之間的模糊性和多義性, 以豐富年齡信息, 提高識別精度, 在數(shù)據(jù)集MORPH和FG-NET上的平均絕對誤差均有降低.

        上述算法均實現(xiàn)了基于人臉的年齡識別, 這些算法大多數(shù)改進(jìn)了現(xiàn)有的深度學(xué)習(xí)算法實現(xiàn)魯棒的人臉特征提取, 從而達(dá)到更高的年齡識別效果, 但均是從全局提取人臉特征, 缺乏將目標(biāo)區(qū)域與非目標(biāo)區(qū)域進(jìn)行有效劃分, 導(dǎo)致缺少對目標(biāo)區(qū)域的高效學(xué)習(xí)策略. 本文提出的SFSR-age(strong facial semantics recognition for age)算法實現(xiàn)了基于注意力矩陣的目標(biāo)區(qū)域?qū)W習(xí)機(jī)制, 提高了算法對目標(biāo)區(qū)域的建模魯棒性, 在多個人臉數(shù)據(jù)集上的實驗結(jié)果表明, 本文算法對基于人臉的年齡識別結(jié)果相對于對比算法有明顯優(yōu)勢.

        1 預(yù)備知識

        1.1 卷積神經(jīng)網(wǎng)絡(luò)基本組成

        卷積神經(jīng)網(wǎng)絡(luò)[15]的基本結(jié)構(gòu)包括卷積層、 采樣層、 全連接層和輸出層. 卷積層、 采樣層通常交替銜接. 全連接層的作用是將特征圖轉(zhuǎn)換成向量, 激活后作為最終的輸出.

        1.1.1 卷積層

        基于上層輸出, 卷積層通過卷積核在特征圖上進(jìn)行卷積操作, 得到新的特征圖. 卷積可分兩種形式: 1) SAME, 即卷積核在卷積過程中可部分移出被卷積特征圖, 特征圖不夠卷積的區(qū)域使用0填充, SAME類型的特征圖卷積過程如圖1所示; 2) VALID, 即卷積核在卷積過程中始終不能被移出卷積特征圖, VALID類型的特征圖卷積過程中, 卷積核在特征圖內(nèi)滑動, 且特征圖外圍不填充. 從卷積類型看, 卷積得到的新特征圖規(guī)模滿足如下公式:

        由式(1)和式(2)可見, 當(dāng)卷積形式是SAME時, 新特征圖的大小只與卷積核滑動步長Stride相關(guān), 當(dāng)卷積形式是VALID時, 新生成的特征圖大小與步長Stride和卷積核大小線性相關(guān). 對于一張確定的特征圖以及卷積形式, 均可通過公式計算出新特征圖的維度.

        1.1.2 采樣層

        1.1.3 全連接層

        全連接層是直接將高層特征進(jìn)一步通過矩陣的行列式乘積變成若干向量, 然后基于此開展下游任務(wù), 假設(shè)全連接任務(wù)是單標(biāo)簽預(yù)測和單值回歸, 全連接過程計算公式如下:fc=MF,

        Fw=MH,(5)其中表示特征圖M與矩陣F之間相乘, 得到目標(biāo)向量fc, 特征圖的最后一個維度與全連接矩陣的第一個維度相同.

        1.2 循環(huán)神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)以及淺層的全連接網(wǎng)絡(luò)考慮的是對單個特征圖的特征抽取, 缺乏對特征圖之間的關(guān)聯(lián)學(xué)習(xí), 循環(huán)神經(jīng)網(wǎng)絡(luò)[16]解決的是特征圖之間的語義關(guān)聯(lián)以及上下文的語義學(xué)習(xí). 循環(huán)神經(jīng)網(wǎng)絡(luò)常被用于知識推理、 語言生成和語義理解等領(lǐng)域. 常見的循環(huán)神經(jīng)網(wǎng)絡(luò)主要包括: GRU(gate recurrent unit)和Bi-LSTM(bi-directional long short-term memory)等. Bi-LSTM是常見的網(wǎng)絡(luò)架構(gòu), 如圖2所示. 由圖2可見, Bi-LSTM的基本架構(gòu)是兩層平行的LSTM(long short-term memory): 前向和后向. 兩者基于特征圖的不同輸入順序從兩個方向?qū)W習(xí)特征之間的相互依賴關(guān)系, 從而得到更魯棒的特征. 對Bi-LSTM的兩個維度的輸出進(jìn)行拼接便可得到融合模型, 一種典型的融合如圖3所示.

        2 算法設(shè)計

        SFSR-age算法首先使用殘差網(wǎng)絡(luò)提取人臉圖像特征圖; 然后基于注意力矩陣動態(tài)學(xué)習(xí)人臉目標(biāo)區(qū)域語義特征, 從語義上區(qū)分人臉和背景; 最后基于多層梯形Bi-LSTM網(wǎng)絡(luò)逐層提取人臉區(qū)域高層特征, 最終得到年齡分類結(jié)果.

        SFSR-age算法主要包括兩部分.

        1) 基于注意力矩陣的目標(biāo)人臉特征提取模塊. 由于光線、 用戶距離計算機(jī)攝像頭遠(yuǎn)近等的影響, 用戶面部圖像常出現(xiàn)模糊甚至被遮擋的情況, 如何快速鎖定用戶面部輪廓、 準(zhǔn)確提取面部特征對基于面部識別用戶身份至關(guān)重要. 本文使用目標(biāo)人臉注意力矩陣訓(xùn)練目標(biāo)圖片, 提取目標(biāo)圖片人臉特征, 最大程度地學(xué)習(xí)有用特征. 因此提出基于注意力矩陣的人臉區(qū)域快速定位和特征抽取算法.

        2) 基于分層級聯(lián)的Bi-LSTM人臉特征抽取算法. 不同時刻攝像頭采集的人臉圖像清晰度不同, 有時人臉被遮擋, 甚至部分人臉沒有出現(xiàn)在畫面中, 基于上下文信息借助衣著、 面部表情、 動作等識別出用戶身份, 能有效解決用戶面部短暫脫離攝像頭產(chǎn)生的身份識別不準(zhǔn)問題. 因此, 本文提出基于梯形結(jié)構(gòu)的分層Bi-LSTM抽取用戶面部特征.

        本文將1)和2)相結(jié)合共同提取用戶的面部特征, 用于實現(xiàn)對基于人臉年齡的識別. SFSR-age算法基本框架如圖4所示.

        2.1 SFSR-age算法注意力矩陣

        通過對大量人臉圖像進(jìn)行訓(xùn)練, 優(yōu)化全局動態(tài)注意力矩陣(attention matrix, AM)提取圖像中人臉特征, 同時弱化非人臉區(qū)域?qū)θ四槄^(qū)域特征邊界的干擾, 達(dá)到準(zhǔn)確提取人臉特征的目的. 由于目前大多數(shù)人臉年齡數(shù)據(jù)集缺少對人臉的標(biāo)注信息, 為滿足本文研究的需要, 需要對IMDB-WIKI和Adience等人臉年齡數(shù)據(jù)集進(jìn)行預(yù)處理得到人臉標(biāo)定信息. 本文使用基于YOLO5預(yù)訓(xùn)練模型實現(xiàn)對所使用的數(shù)據(jù)集人臉進(jìn)行初步標(biāo)注, 得到每張人臉的Bounding-Box, Bounding-Box區(qū)域即為目標(biāo)區(qū)域, 區(qū)域外即為背景. 只有Bounding-Box區(qū)域包含人臉, 對年齡識別起關(guān)鍵作用. 將目標(biāo)與背景進(jìn)行精確分割是準(zhǔn)確識別人臉輪廓的關(guān)鍵, 基于此本文設(shè)置全局注意力矩陣識別目標(biāo)輪廓, 過程如下.

        1) 將數(shù)據(jù)集中的每張圖像進(jìn)行如下處理:AtentionMatrix=Mn((Ai,j,h-H/2)2+(Ai,j,w-W/2)2,255.0),

        其中H和W分別表示目標(biāo)人臉區(qū)域特征圖的高度和寬度, A表示特征圖像素位置矩陣, Ai,j,h和Ai,j,w表示特征圖位置, (i,j)對應(yīng)相對原點的高度和寬度, 坐標(biāo)(W/2,H/2)表示人臉目標(biāo)中心, 由式(1)可見, 越遠(yuǎn)離目標(biāo)中心的像素點與目標(biāo)的關(guān)聯(lián)越小, 映射后的值越大. 其效果就是對于AtentionMatrix矩陣, 越靠近目標(biāo)中心的像素點映射后值越大, 顏色越淺, 越遠(yuǎn)離目標(biāo)中心的像素點映射后值越小, 顏色越深. 矩陣A的大小與原始圖像大小完全相同.

        2) 原始圖像特征提取. 使用殘差網(wǎng)絡(luò)提取圖像靜態(tài)特征, 實現(xiàn)對人臉輪廓及人臉區(qū)域的建模. 殘差網(wǎng)絡(luò)輸出的特征圖即為人臉特征, 使用目標(biāo)輪廓與預(yù)測輪廓進(jìn)行距離求解. 本文基于余弦距離和歐氏距離求解預(yù)測區(qū)域特征與真實目標(biāo)區(qū)域之間的差異, 為計算方便, 首先將目標(biāo)注意力矩陣與預(yù)測注意力矩陣進(jìn)行灰度化處理, 得到灰度矩陣, 計算兩者之間的距離損失, 即dis←∑B/q=0∑A/k=0∑Z/j=01-cos(pk,j,tk,j)+‖pk,j,tk,j‖,(7)其中B,A,Z分別是批大小、 圖像寬和高, k表示x軸坐標(biāo), j表示y軸坐標(biāo), q表示z軸坐標(biāo). 假設(shè)坐標(biāo)原點為o, 圖像任意一點均位于二維空間中, 如圖5所示.

        對人臉目標(biāo)進(jìn)行識別時, 預(yù)測向量與目標(biāo)向量越重疊, 余弦值越大, 優(yōu)化目標(biāo)是使1-cos(pk,j,tk,j)最小, 即cos(pk,j,tk,j)越大越好, 余弦距離只能保證向量平行, 平行包含重疊, 但對于目標(biāo)定位, 滿足平行不足以定位, 歐氏距離‖pk,j,tk,j‖是求解預(yù)測輪廓與實際輪廓之間的絕對距離, 能保證預(yù)測輪廓絕對靠近目標(biāo)輪廓. 因此, 基于上述兩個損失即可保證預(yù)測輪廓的準(zhǔn)確性.

        數(shù)據(jù)集IMDB-WIKI和Adience部分原始樣本和標(biāo)注后的樣本分別如圖6和圖7所示. 部分圖像的注意力矩陣如圖8所示. 在圖6和圖7中, 下半部分被紅色矩形圍起來的即為借助YOLO5算法框定的人臉區(qū)域, 人臉區(qū)域是年齡識別的主要學(xué)習(xí)目標(biāo). 圖8是YOLO5算法識別出的人臉區(qū)域基于式(6)計算得到的注意力矩陣, 矩陣中心顏色最深, 向外顏色逐漸變淺, 注意力逐漸減弱.

        2.2 基于分層Bi-LSTM人臉特征抽取

        基于殘差網(wǎng)絡(luò)提取的特征圖使用若干個層疊Bi-LSTM實現(xiàn)對目標(biāo)人臉的特征抽取, 得到分類特征, 完成對年齡階段及年齡的預(yù)測. 人臉特征的形式化表示如下:fea←f(f(xn)‖θ,λ0,…,λn),

        f(x0)=f(Xλ0,B),(8)其中B表示BasicCNN的網(wǎng)絡(luò)參數(shù), λn為第n層Bi-LSTM的隱藏層節(jié)點數(shù), X為第一層Bi-LSTM的輸入.

        本文為進(jìn)一步分層學(xué)習(xí)目標(biāo)人臉區(qū)域的深層次特征, 層疊Bi-LSTM之間均設(shè)置門控參數(shù), 實現(xiàn)對重要特征的蒸餾, 每層Bi-LSTM之間依次基于上一層的建模輸出乘以門控因子作為本層的輸入. 圖4中已經(jīng)給出了基于分層Bi-LSTM過程用來提取人臉特征. 基于層疊Bi-LSTM特征分層提取的網(wǎng)絡(luò)結(jié)構(gòu)如圖9所示. 由圖4和圖9可見, 本文基于人臉的年齡分類算法的誤差由兩部分組成: 人臉全域建模與特征提取和全域真實注意力矩陣之間的誤差, 誤差計算公式由式(7)給出.

        基于門控分層Bi-LSTM對年齡預(yù)測的損失, 由于本文使用的數(shù)據(jù)集均為帶年齡標(biāo)簽的數(shù)據(jù)集, 將對年齡的預(yù)測轉(zhuǎn)換成對年齡的分類問題, 誤差由交叉熵給出, 總的損失為Loss←dis-∑B/q=0∑C/k=0Pq.klog(pq.k),(9)其中C表示年齡類別, Pq.k表示樣本q被分類為類別k的概率.

        3 實驗結(jié)果與分析

        3.1 實驗環(huán)境與參數(shù)配置

        本文使用的數(shù)據(jù)集為IMDB-WIKI和Adience人臉年齡數(shù)據(jù)集. 本文提出的SFSR-age算法可在GPU快速部署運(yùn)行, 與其他算法在GPU上進(jìn)行對比實驗, 對比實驗硬件配置: GPU為RTX 2080Ti, 操作系統(tǒng)為Ubuntu18.04, 內(nèi)存為16 GB, 硬盤大小為1 000 GB, CPU核個數(shù)為4, GPU核個數(shù)為1~6. 實驗超參數(shù)設(shè)置: 批次大小設(shè)為64, 學(xué)習(xí)率設(shè)為0.001, 截斷損失為100, 優(yōu)化函數(shù)采用AdamOptimizer.

        3.2 數(shù)據(jù)集實驗結(jié)果

        將SFSR-age算法與對比算法在多個數(shù)據(jù)集上進(jìn)行對比實驗, 本文使用的數(shù)據(jù)集基本信息列于表1. 其中數(shù)據(jù)集IMDB-WIKI和Adience的8個類別樣本分布列于表2. 每個類別均給出了相應(yīng)的數(shù)據(jù)規(guī)模, 為使訓(xùn)練過程穩(wěn)定, 本文在選取樣本時盡量使男女比例為1∶1, 并且在整個數(shù)據(jù)集的所有年齡類別進(jìn)行采樣, 其中, 數(shù)據(jù)集IMDB-WIKI的每個年齡段選取1 000名男性和1 000名女性; 數(shù)據(jù)集Adience中, 由于數(shù)據(jù)分布特征, 每個類別的樣本均按最大限度采樣, 而又不使不同類別間樣本失衡, 最終選取出16 080個樣本數(shù)據(jù). 基于以上兩個數(shù)據(jù)集的采樣, 得到對應(yīng)的子集合并成新的數(shù)據(jù)集, 然后進(jìn)行對比實驗, 獲得實驗結(jié)果.

        本文實驗的對比算法為CNN[17],VGG-Face-SVM[18], CNN-SVM[19],VGG16-DEX-IMDB[20],CNN-SE-ELM,VGG-Face-FC. 評估指標(biāo)分別為: 準(zhǔn)確率(Accuracy)、 精確率(Precision)、 召回率(Recall)、 F1值(F1-Score), 直接調(diào)用Sklearn.metrics封裝好的計算公式計算這4個指標(biāo)值. 4種評估指標(biāo)計算公式分別為[FC(]Precision(p)=TP/TP+FP,

        3.3 數(shù)據(jù)集實驗分析

        本文算法在兩個數(shù)據(jù)集上的實驗結(jié)果列于表3. 由表3可見, 本文算法具有較好的魯棒性, 4種評估指標(biāo)下的實驗結(jié)果均較高. 為驗證本文提出的SFSR-age算法對人臉圖像特征提取的有效性以及年齡分類的準(zhǔn)確率, 本文算法與目前已有的算法實驗結(jié)果對比列于表4. 由表4可見, 本文SFSR-age算法在數(shù)據(jù)集IMDB-WIKI和Adience上的實驗結(jié)果優(yōu)于其他算法在原始數(shù)據(jù)集上的實驗結(jié)果.

        圖10為本文算法在數(shù)據(jù)集訓(xùn)練過程中預(yù)測的注意力矩陣逐步優(yōu)化過程, 其中第2行是目標(biāo)注意力矩陣, 第3行后的所有圖片均是算法訓(xùn)練過程中對注意力矩陣優(yōu)化過程中產(chǎn)生的. 由圖10可見, 算法訓(xùn)練早期, 預(yù)測的注意力矩陣是隨機(jī)的, 隨著訓(xùn)練的深入, 預(yù)測的注意力矩陣逐漸向目標(biāo)注意力矩陣靠攏直至重合.

        為進(jìn)一步量化SFSR-age算法相比其他對比算法在權(quán)威公開人臉數(shù)據(jù)集上年齡分類的準(zhǔn)確率提升情況, 不同算法在兩個數(shù)據(jù)集上評估指標(biāo)提升結(jié)果列于表5.

        由表4和表5可見, 以F1為評估指標(biāo)條件下, 本文算法在兩個數(shù)據(jù)集的F1值最大提升82.186%, 最小提升16.925%; 本文算法實驗準(zhǔn)確率完全超過CNN以及VGG-Face算法, 與目前最新的人臉年齡識別算法CNN-SE-ELM以及VGG16-DEX-IMDB算法相比, 本文算法在F1值上仍分別提升了19.815%和21.688%. 上述對比結(jié)果表明, 本文算法具有一定的優(yōu)勢.

        綜上所述, 針對因光照、 拍攝角度及圖片質(zhì)量等因素導(dǎo)致的經(jīng)典深度學(xué)習(xí)算法難以有效提取人臉特征、 人物身份識別準(zhǔn)確率難以達(dá)到理想精度的問題, 本文提出了一種基于人臉強(qiáng)語義的年齡識別算法. 首先采用殘差網(wǎng)絡(luò)提取人臉圖像特征圖, 基于注意力矩陣動態(tài)學(xué)習(xí)人臉目標(biāo)區(qū)域的語義特征, 從語義上區(qū)分人臉和背景; 其次, 利用多層梯形Bi-LSTM網(wǎng)絡(luò)逐層提取人臉區(qū)域的高層特征, 最終得到年齡分類結(jié)果. 在實驗中, 分別對數(shù)據(jù)集IMDB-WIKI和Adience進(jìn)行了預(yù)處理, 將每個樣本打上Bounding-Box標(biāo)簽, 使用多個損失共同優(yōu)化算法在人臉數(shù)據(jù)集上的年齡分類誤差. 實驗結(jié)果表明, 本文算法在數(shù)據(jù)集上的實驗具有更高的準(zhǔn)確率, 且優(yōu)于其他對比算法.

        參考文獻(xiàn)

        [1]陳文兵, 李育霖, 陳允杰. 一種基于CNN-SE-ELM的年齡和性別識別模型 [J]. 計算機(jī)工程與科學(xué), 2021, 43(5): 872-882. (CHEN W B, LI Y L, CHEN Y J. An Age and Gender Recognition Model Based on CNN-SE-ELM [J]. Computer Engineering and Science, 2021, 43(5): 872-882.)

        [2]陳濟(jì)楠, 李少波, 高宗, 等. 基于改進(jìn)CNN的年齡和性別識別 [J]. 計算機(jī)工程與應(yīng)用, 2018, 54(16): 135-139. (CHEN J N, LI S B, GAO Z, et al. Age and Gender Recognition Based on an Improved CNN [J]. Journal of Computer Engineering and Applications, 2018, 54(16): 135-139.)

        [3]周玉陽, 秦科. 改進(jìn)的VGG網(wǎng)絡(luò)可提升年齡與性別預(yù)測準(zhǔn)確率 [J]. 計算機(jī)工程與應(yīng)用, 2019, 55(18): 173-179. (ZHOU Y Y, QIN K. Improved VGG Network Can Enhance the Accuracy of Age and Gender Prediction [J]. Journal of Computer Engineering and Applications, 2019, 55(18): 173-179.)

        [4]SIMONYAN K, ZISSERMAN A. Very Deep Convolutional Networks for Large-Scale Image Recognition [EB/OL]. (2014-09-14)[2023-05-01]. https://arxiv.org/abs/1409.1556.

        [5]錢麗萍, 俞寧寧, 黃玉蘋, 等. 一種基于改進(jìn)集成學(xué)習(xí)策略的人臉圖像年齡識別方法: CN201910027193.2 [P]. 2021-06-18. (QIAN L P, YU N N, HUANG Y P, et al. An Age Recognition Method for Face Images Based on an Improved Ensemble Learning Strategy: CN201910027193.2 [P]. 2021-06-18.)

        [6]房國志, 孫康瞳. 多尺度YOLO人臉年齡估計方法研究 [J]. 計算機(jī)工程與應(yīng)用, 2019, 55(21): 135-141. (FANG G Z, SUN K T. Research on a Multi-scale YOLO Method for Face Age Estimation [J]. Journal of Computer Engineering and Applications, 2019, 55(21): 135-141.)

        [7]于秀萍, 呂淑平, 陳志韜. 基于YOLO算法的多類目標(biāo)識別 [J]. 實驗室研究與探索, 2019(3): 34-36. (YU X P, L S P, CHEN Z T. Multi-class Object Identification Based on YOLO Algorithm [J]. Laboratory Research and Exploration, 2019(3): 34-36.)

        [8]趙丙娟. 基于偏最小二乘降維的人臉年齡估計研究 [D]. 南昌: 南昌大學(xué), 2017. (ZHAO B J. Research on Face Age Estimation Based on Partial Least Square Dimension Reduction [D]. Nanchang: Nanchang University, 2017.)

        [9]COOTES T F, EDWARDS G J, TAYLOR C J. Active Appearance Models [C]//European Conference on Computer Vision. Berlin: Springer, 1998: 484-498.

        [10]WOLD H. Path Models with Latent Variables: The NIPALS Approach [J]. Quantitative Sociology, 1975, 11: 307-357.

        [11]GUO G D, MU G W, FU Y, et al. Human Age Estimation Using Bioinspired Features [C]//The 2009 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2009: 112-119.

        [12]田會娟, 喬明天, 蔡敏鵬. 基于變化光照下的人臉識別與年齡估計 [J]. 激光與光電子學(xué)進(jìn)展, 2022, 59(2): 252-262. (TIAN H J, QIAO M T, CAI M P. Face Recognition and Age Estimation under Changing Illumination Conditions [J]. Laser & Optoelectronics Progress, 2022, 59(2): 252-261.)

        [13]田青, 毛軍翔, 曹猛. 耦合關(guān)系自學(xué)習(xí)的人臉年齡估計研究[J]. 智能系統(tǒng)學(xué)報, 2022, 17(2): 257-265. (TIAN Q, MAO J X, CAO M. Self-learning Coupled Relationships for Face Age Estimation [J]. Journal of Intelligent Systems, 2022, 17(2): 257-265.)

        [14]張會影, 圣文順, 曾耀徵. 基于標(biāo)記分布學(xué)習(xí)的人臉年齡識別算法 [J]. 江蘇大學(xué)學(xué)報(自然科學(xué)版), 2023, 44(2): 180-185. (ZHANG H Y, SHENG W S, ZENG Y Z. Face Age Recognition Algorithm Based on Label Distribution Learning [J]. Journal of Jiangsu University (Natural Science Edition), 2023, 44(2): 180-185.)

        [15]竇慧, 張凌茗, 韓峰, 等. 卷積神經(jīng)網(wǎng)絡(luò)的可解釋性研究綜述 [J/OL]. 軟件學(xué)報, (2023-02-23)[2023-04-26]. https://kns.cnki.net/kcms/detail//11.2560.TP.20230222.1625.013.html. (DOU H, ZHANG L M, HAN F, et al. A Review of the Interpretability of Convolutional Neural Networks [J/OL]. Journal of Software, (2023-02-23)[2023-04-26]. https://kns.cnki.net/kcms/detail//11.2560.TP.20230222.1625.013.html.)

        [16]胡中源, 薛羽, 查加杰. 演化循環(huán)神經(jīng)網(wǎng)絡(luò)研究綜述 [J]. 計算機(jī)科學(xué), 2023, 50(3): 254-265. (HU Z Y, XUE Y, ZHA J J. A Review of Evolutionary Recurrent Neural Networks [J]. Computer Science, 2023, 50(3): 254-265.)

        [17]HU J, SHEN L, SUN G. Squeeze-and-Excitation Networks? [C]//The 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2018: 7132-7141.

        [18]OZBULAK G, AYTAR Y, EKENEL H K. How Transferable Are CNN-Based Features for Age and Gender Classification? [C]//2016 International Conference of the Biometrics Special Interest Group (BIOSIG). Piscataway, NJ: IEEE, 2016: 1-6.

        [19]WOLFSHAAR J, KARAABA M F, WIERING M A. Deep Convolutional Neural Networks and Support Vector Machines for Gender Recognition [C]//IEEE Symposium Series on Computational Intelligence. Piscataway, NJ: IEEE, 2015: 188-195.

        [20]ROTHE R, TIMOFTE R, VAN GOOL L. Deep Expectation of Real and Apparent Age from a Single Image without Facial Land-Marks [J]. International Journal of Computer Vision, 2018, 126(2): 144-157.

        (責(zé)任編輯: 韓 嘯)

        收稿日期: 2023-05-26.

        第一作者簡介: 孫旭菲(1999—), 男, 漢族, 碩士研究生, 從事數(shù)據(jù)挖掘和人臉識別的研究, E-mail: 3522945497@qq.com.

        通信作者簡介: 繆新穎(1977—), 女, 滿族, 博士, 教授, 從事智能控制和數(shù)據(jù)挖掘的研究, E-mail: miaoxinying@dlou.edu.cn.

        基金項目: 遼寧省揭榜掛帥重點項目(批準(zhǔn)號: 2022081)和設(shè)施漁業(yè)教育部重點實驗室開放課題項目(批準(zhǔn)號: 202306).

        猜你喜歡
        人臉識別
        人臉識別 等
        揭開人臉識別的神秘面紗
        人臉識別技術(shù)的基本原理與應(yīng)用
        電子制作(2019年14期)2019-08-20 05:43:34
        人臉識別技術(shù)在高速公路打逃中的應(yīng)用探討
        基于(2D)2PCA-LBP 的人臉識別方法的研究
        電子制作(2017年17期)2017-12-18 06:40:55
        淺談人臉識別技術(shù)
        人臉識別在高校安全防范中的應(yīng)用
        電子制作(2017年1期)2017-05-17 03:54:46
        巡演完美收官 英飛拓引領(lǐng)人臉識別新潮流
        人臉識別在Android平臺下的研究與實現(xiàn)
        基于Metaface字典學(xué)習(xí)與核稀疏表示的人臉識別方法
        最新国产主播一区二区| 内射中出无码护士在线| 欧美中文在线观看| 国产一区二区三区观看视频| 91盗摄偷拍一区二区三区| 国产综合精品一区二区三区| 久久久久99精品成人片试看 | 国产va在线播放| 精品日韩一区二区三区av| 成人欧美一区二区三区黑人| 久久精品免视看国产成人| 亚洲精品国产一二三无码AV| 99久久精品国产一区色| 国产亚洲成性色av人片在线观 | 久久tv中文字幕首页| 亚洲国产视频精品一区二区| 午夜免费观看国产视频| 亚洲愉拍99热成人精品热久久| 中文字幕+乱码+中文字幕无忧| yy111111少妇影院| 亚洲不卡免费观看av一区二区| 色综合av综合无码综合网站| 漂亮人妻被黑人久久精品| 久久久诱惑一区二区三区| 美女被男人插得高潮的网站| 欧美黑人群一交| 亚洲AV秘 片一区二区三| 亚洲精品综合一区二区| 国语自产精品视频在线看 | 久久噜噜噜| 国产精品二区三区在线观看| 夫妻免费无码v看片| 亚洲综合精品成人| 亚洲成AV人片无码不卡| 精品久久综合日本久久综合网| 中文字幕日韩人妻不卡一区| 国产污污视频| 国产免费一区二区三区在线观看| 国产爆乳无码一区二区麻豆| 国产内射性高湖| 国产免费视频一区二区|