亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的低質(zhì)量圖像模糊人臉識(shí)別方法

        2023-11-22 07:33:02何佑明馬榮榮
        關(guān)鍵詞:關(guān)鍵點(diǎn)人臉識(shí)別特征

        何佑明,馬榮榮

        (安徽文達(dá)信息工程學(xué)院 通識(shí)教育學(xué)院,安徽 合肥 231201)

        張晉婧等[1]采用融合注意力機(jī)制對(duì)人臉圖像進(jìn)行尺度不變特征變換,結(jié)合分類遷移學(xué)習(xí)模型,對(duì)圖像進(jìn)行卡爾曼濾波以提高圖像質(zhì)量,進(jìn)而實(shí)現(xiàn)人臉識(shí)別.該方法雖然能夠提高識(shí)別的健壯性,但未考慮圖片的動(dòng)態(tài)情況,使識(shí)別結(jié)果的融合性差.姚錦江等[2]采用特征匹配方法對(duì)人臉進(jìn)行識(shí)別,該方法通過特征值提取與判別,并嵌入空間匹配模塊對(duì)圖像像素點(diǎn)進(jìn)行加權(quán)處理,從而完成人臉識(shí)別.但此方法需要采用數(shù)據(jù)增強(qiáng)手段擴(kuò)充測(cè)試樣本以訓(xùn)練識(shí)別模型,需要的樣本數(shù)量規(guī)模較大.趙漢理等[3]設(shè)計(jì)了一種感知去模糊的生成對(duì)抗網(wǎng)絡(luò)結(jié)構(gòu),在粗略提取人臉結(jié)構(gòu)的基礎(chǔ)上,通過面部紋理細(xì)節(jié)恢復(fù)實(shí)現(xiàn)人臉識(shí)別,但是該方法受圖像質(zhì)量影響較高.ZHANG等[4]提出一種用于面部表情識(shí)別的模糊優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)-遞歸神經(jīng)網(wǎng)絡(luò)(CNN-RNN)方法.該方法雖然能夠解決沒有圖像增強(qiáng)的直接圖像卷積和簡單卷積堆棧,但是它忽略了特征逐層卷積導(dǎo)致信息丟失的問題,易受圖像清晰度影響.BANERJEE等[5]提出一種基于布朗運(yùn)動(dòng)的自適應(yīng)神經(jīng)模糊推理系統(tǒng)Crow 搜索算法來進(jìn)行人體圖像的面部表情識(shí)別.但是該方法主要集中于識(shí)別單個(gè)圖像的個(gè)人面部表情,有一定的局限性.WENYAN[6]對(duì)傳統(tǒng)的自適應(yīng)遺傳算法進(jìn)行改進(jìn),引入方向擾動(dòng)算子對(duì)自適應(yīng)調(diào)整概率進(jìn)行非線性化,進(jìn)而實(shí)現(xiàn)教學(xué)場(chǎng)景中的人臉識(shí)別,但是該方法局限于某一領(lǐng)域,需進(jìn)一步分析復(fù)雜環(huán)境中的應(yīng)用性能.

        本文綜合已有的研究成果,結(jié)合深度學(xué)習(xí)算法,針對(duì)低質(zhì)量圖像模糊人臉的識(shí)別方法進(jìn)行研究與設(shè)計(jì),以拓展生物識(shí)別技術(shù)的應(yīng)用范圍.

        1 低質(zhì)量圖像模糊人臉識(shí)別方法設(shè)計(jì)

        1.1 人臉輪廓線關(guān)鍵點(diǎn)檢測(cè)

        面部圖像的鼻子、眉毛和眼睛是關(guān)鍵點(diǎn)聚集區(qū)域,不同面部圖像的輪廓線差異也集中在該區(qū)域[7].因此,可以通過識(shí)別圖像中面部輪廓線的關(guān)鍵點(diǎn),并構(gòu)建空間信息表征人臉的面部特征.

        由于低質(zhì)量的模糊人臉圖像是一個(gè)離散信號(hào),為了提高人臉輪廓關(guān)鍵點(diǎn)的檢測(cè)效果,需要對(duì)圖像進(jìn)行連續(xù)離散化處理.利用小波變換算子對(duì)圖像中的模糊像素進(jìn)行傅立葉逆變換,變換系數(shù)的定義如下

        其中,C0表示離散變換系數(shù),f(t)表示像素重構(gòu)函數(shù),ψ0(t)表示結(jié)構(gòu)函數(shù),t表示采樣時(shí)間.

        對(duì)于模糊的面部圖像,可以通過一次包絡(luò)分解獲得低頻,然后通過二次包絡(luò)分解得到低頻圖像.二次包絡(luò)包括水平、垂直和對(duì)角線方向的面部信息[8],分別用LL、LH、HL和HH4個(gè)小波算子進(jìn)行描述,如圖1所示.

        圖1 圖像像素包絡(luò)分解示意圖

        在面部圖像中,紋理特征可以反映面部部位的灰度變化,這與像素灰度值pf和相鄰像素的灰度值直接相關(guān),可以表示為

        其中,L0表示像素?zé)o偏置項(xiàng)的參量,e表示輸出矩陣的通道數(shù),xi表示第i個(gè)表征人臉信息的小波算子.

        由于中心像素和相鄰像素之間灰度值的差異,因此,使用中心區(qū)域和相鄰區(qū)域之間的灰度差來描述面部紋理特征之間的差異[9],灰度差的表達(dá)式u0為:

        其中,pj表示第j個(gè)像素點(diǎn)的灰度值,由于面部紋理特征式中存在,因此pj與pf始終不相等,即pj≠pf。引入高斯濾波構(gòu)建面部輪廓線的差異尺度空間Hs,即:

        引入高斯濾波構(gòu)建面部輪廓線的差異尺度空間,即

        其中,H表示人臉三維尺度空間,Gs表示像素通道維數(shù),取值為1~M,表示疊加運(yùn)算符,σs表示特征疊加向量,其計(jì)算公式為

        其中,σ1和σ2表示不同的兩個(gè)面部輪廓特征原始向量,即圖像特征向量和形狀描述符向量,k1表示調(diào)節(jié)參數(shù)。

        使用較小的模糊數(shù)學(xué)分布確定圖像的隸屬度函數(shù)[10],并且模糊規(guī)則對(duì)于模糊圖像的灰度值的隸屬度函數(shù)建立如下

        其中,z表示圖像輸出的最大灰度值,b表示隸屬度函數(shù)中心所對(duì)應(yīng)的灰度值,c表示隸屬度函數(shù)曲線的擴(kuò)大展程度,d表示隸屬度函數(shù)曲線的陡峭程度.

        其中,n表示特征值數(shù)量,(x,y)表示降噪?yún)^(qū)域坐標(biāo).

        將含噪?yún)^(qū)域?qū)?yīng)的最大灰度值賦予圖像的中心像素點(diǎn),使該區(qū)域中的噪聲最小化[12].因此,面部目標(biāo)區(qū)域的灰度共生矩陣可表示為

        其中,Gx表示圖像灰度共生矩陣,(i,j)表示識(shí)別框與真實(shí)框的重合區(qū)域中心點(diǎn)的坐標(biāo),g和s分別表示特征尺度融合因子與提取因子.

        使用形狀變化指數(shù)對(duì)圖像進(jìn)行均勻采樣,并通過面部瞬時(shí)數(shù)據(jù)設(shè)置采樣點(diǎn)集的參數(shù)值,由此得到人臉輪廓線關(guān)鍵點(diǎn)的檢測(cè)結(jié)果為

        其中,F(xiàn)表示人臉輪廓線關(guān)鍵點(diǎn)采樣集,psk表示自適應(yīng)選取尺度.

        利用以上公式檢測(cè)低質(zhì)量模糊圖像人臉的輪廓線關(guān)鍵點(diǎn),并將此作為識(shí)別依據(jù),便于后續(xù)人臉關(guān)鍵點(diǎn)匹配.

        1.2 人臉關(guān)鍵點(diǎn)匹配

        收集面部輪廓線關(guān)鍵點(diǎn)對(duì)應(yīng)的不同面部特征,選擇不同角度匹配關(guān)鍵點(diǎn),將待識(shí)別的人臉和數(shù)據(jù)庫中的人臉變換到同一空間[13],求輸入圖像與原有圖像之間的差異程度,即協(xié)方差矩陣,公式如下

        其中,F(xiàn)表示人臉輪廓線關(guān)鍵點(diǎn)集合,Sij表示人臉庫中人臉曲面上的關(guān)鍵點(diǎn)i的特征j,p0和p1分別表示圖像切平面與法平面的參量.

        將特征向量進(jìn)行單位正交化,以挑選出大于閾值的特征值與特征向量[14],計(jì)算公式為

        其中,ex表示特征值閾值,λi表示像素最近鄰系數(shù),λk表示噪聲標(biāo)簽轉(zhuǎn)移概率,p′表示像素梯度下降系數(shù).

        計(jì)算各個(gè)特征向量與樣本之間的關(guān)聯(lián)程度,公式如下

        其中,λj表示圖像噪聲標(biāo)簽,αij表示交叉熵?fù)p失函數(shù).

        將輸入的人臉圖像樣本映射到低維空間,并最小化像素的損失函數(shù)[15],公式如下

        其中,N表示編碼向量數(shù)目,yi表示像素元參數(shù)的移動(dòng)平均值,xi′表示像素散度因子,θ表示運(yùn)算誤差,f(.)表示粗糙度函數(shù).

        將人臉輪廓線關(guān)鍵點(diǎn)輸出歸一化到0~1,獲得一個(gè)系數(shù)向量β0,則得到的關(guān)鍵點(diǎn)軟閾值為

        其中,xc表示特征通道,αc表示收縮閾值.

        由于目標(biāo)面部圖像質(zhì)量較低且模糊,兩張面部圖像在關(guān)鍵點(diǎn)匹配過程中容易出現(xiàn)特征值差異[16].因此設(shè)置比較損失Lc以補(bǔ)償由模糊引起的特征差異,表達(dá)式為

        其中,K表示人臉圖像的訓(xùn)練集總樣本數(shù),μ1(.)表示通道注意力權(quán)重,f0(.)表示平衡函數(shù).

        將鄰域中的所有關(guān)鍵點(diǎn)轉(zhuǎn)換到以圖像的中心像素為圓心的參考坐標(biāo)系中[17],以構(gòu)建局部最優(yōu)特征的空間結(jié)構(gòu),表達(dá)式如下

        其中,d(p2)表示像素單位向量,n(p2)表示像素模長.

        則可利用下式完成人臉關(guān)鍵點(diǎn)的匹配,即

        其中,νx,y表示人臉關(guān)鍵點(diǎn)匹配結(jié)果,大于0表明匹配成功,小于0表明匹配失敗,則應(yīng)重新計(jì)算關(guān)鍵點(diǎn)軟閾值;fx和fy分別表示測(cè)試集人臉曲面與人臉庫中的人臉曲面.

        通過將人臉輪廓線關(guān)鍵點(diǎn)進(jìn)行低維空間轉(zhuǎn)換,挑選出大于設(shè)定變換閾值的特征值與特征向量,結(jié)合損失函數(shù)與模糊補(bǔ)償函數(shù),對(duì)關(guān)鍵點(diǎn)進(jìn)行多角度匹配,為接下來實(shí)現(xiàn)人臉識(shí)別提供有利條件.

        1.3 基于深度學(xué)習(xí)的人臉識(shí)別

        根據(jù)人臉關(guān)鍵點(diǎn)匹配結(jié)果,運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)算法對(duì)人臉進(jìn)行識(shí)別,其識(shí)別流程如圖2所示.

        圖2 基于深度學(xué)習(xí)的人臉識(shí)別流程

        將原始輸入圖像調(diào)整為25×25×60大小,并根據(jù)每個(gè)面部圖像的比例刪除超過面部候選的預(yù)選框[18].將識(shí)別框中心點(diǎn)的坐標(biāo)設(shè)置為(n,m),且其到達(dá)真實(shí)框上邊緣與下邊緣的距離分別為s和z,卷積神經(jīng)網(wǎng)絡(luò)算法的置信度值可以使用以下公式計(jì)算

        其中,νx,y表示人臉關(guān)鍵點(diǎn)匹配結(jié)果,y表示識(shí)別元損失平均值,即確信值,表示敏感參數(shù),θ0表示像素交叉熵.

        將提取到的人臉關(guān)鍵點(diǎn)特征與匹配結(jié)果輸入卷積神經(jīng)網(wǎng)絡(luò)的輸入單元中,利用網(wǎng)絡(luò)的第二層卷積層對(duì)源數(shù)據(jù)進(jìn)行映射處理[19],即

        其中,Q(i,j)表示圖像數(shù)據(jù)Q的特征仿射,a1表示人臉冗余特征信息,v1表示卷積核.

        利用卷積神經(jīng)網(wǎng)絡(luò)的全連接層對(duì)輸入圖像進(jìn)行池化處理,得到

        其中,ξ表示人臉特征數(shù)據(jù)的池化最大值,I表示原始輸入圖像,a′和b′分別表示特征數(shù)據(jù)到預(yù)選框的水平距離與垂直距離.

        基于人臉數(shù)據(jù)的池化結(jié)果,利用網(wǎng)絡(luò)的記憶模塊對(duì)人臉進(jìn)行分類識(shí)別,其公式為

        其中,σ表示人臉圖像對(duì)比庫中的源數(shù)據(jù).將輸入圖像的池化結(jié)果與對(duì)比庫的源數(shù)據(jù)進(jìn)行比較,計(jì)算M的值.當(dāng)M=1時(shí),表明待識(shí)別圖像與網(wǎng)絡(luò)輸出人臉圖像為同一張人臉;當(dāng)M≠1時(shí),表明待識(shí)別圖像與網(wǎng)絡(luò)輸出人臉圖像不為同一張人臉.

        通過卷積神經(jīng)網(wǎng)絡(luò)算法進(jìn)行身份檢定,以此實(shí)現(xiàn)基于深度學(xué)習(xí)的低質(zhì)量圖像模糊人臉識(shí)別方法的設(shè)計(jì).

        2 實(shí)驗(yàn)論證

        為驗(yàn)證本文方法有效性,選取專用于研究低質(zhì)量模糊人臉圖像識(shí)別的FERET、ORL 和YALE 3種數(shù)據(jù)庫,以測(cè)試本文方法的識(shí)別效果.

        2.1 實(shí)驗(yàn)準(zhǔn)備

        面部識(shí)別方法測(cè)試實(shí)驗(yàn)使用Matla-bR2019b平臺(tái)進(jìn)行,CPU 為3.40GH,內(nèi)存為16GB,選擇Windows 11操作系統(tǒng)和i7處理器.FERET數(shù)據(jù)庫包含326個(gè)目標(biāo)對(duì)象和14123個(gè)3D面部圖像;ORL數(shù)據(jù)庫包含185個(gè)目標(biāo)對(duì)象和7875個(gè)3D面部圖像;YALE數(shù)據(jù)庫包含89個(gè)目標(biāo)對(duì)象和2395張3D面部圖像.3個(gè)數(shù)據(jù)庫中包含大量豐富的表情、姿態(tài)與角度不一的低質(zhì)量模糊人臉圖像,部分?jǐn)?shù)據(jù)集如圖3所示.

        圖3 部分?jǐn)?shù)據(jù)集圖像

        對(duì)原始實(shí)驗(yàn)數(shù)據(jù)集進(jìn)行平移、旋轉(zhuǎn)、縮放以及不透明度調(diào)整等處理,以增強(qiáng)數(shù)據(jù)集,然后使用專業(yè)圖像處理軟件對(duì)圖像進(jìn)行預(yù)處理操作.根據(jù)光照變化條件,可以將所有圖像劃分為5個(gè)子集.第一個(gè)子集的照明方向?yàn)?°~10°,第二個(gè)子集的光照方向?yàn)?1°~20°,第三個(gè)子集的光照方向?yàn)?1°~35°,第四個(gè)子集的光照方向?yàn)?6°~77°,第五個(gè)子集的光照方向?yàn)椋?8°.

        在實(shí)驗(yàn)過程中,選擇每個(gè)數(shù)據(jù)子集的20%作為實(shí)驗(yàn)樣本,采用設(shè)計(jì)方法和比較方法對(duì)其進(jìn)行人臉識(shí)別.

        由于關(guān)鍵點(diǎn)檢測(cè)時(shí),選擇的閾值會(huì)直接影響人臉識(shí)別結(jié)果,采用三類數(shù)據(jù)庫進(jìn)行實(shí)驗(yàn),獲取最優(yōu)閾值,得到穩(wěn)定性最高的關(guān)鍵點(diǎn).因此,在三個(gè)數(shù)據(jù)庫中分別對(duì)各表情類型進(jìn)行關(guān)鍵點(diǎn)檢測(cè),設(shè)置相同對(duì)象中相同位置的點(diǎn)為存在差異點(diǎn)云中歐式距離<3.9mm 的關(guān)鍵點(diǎn).

        2.2 實(shí)驗(yàn)說明

        實(shí)驗(yàn)時(shí),隨機(jī)選取數(shù)據(jù)集中前500張人臉圖像對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練與擬合,并按照表1所示的網(wǎng)絡(luò)運(yùn)行參數(shù)對(duì)卷積神經(jīng)網(wǎng)絡(luò)層次進(jìn)行設(shè)計(jì).

        表1 卷積神經(jīng)網(wǎng)絡(luò)算法運(yùn)行參數(shù)表

        采用softmax函數(shù)作為激活函數(shù)來監(jiān)督訓(xùn)練網(wǎng)絡(luò),軟閾值設(shè)為0.50,學(xué)習(xí)率設(shè)為0.0065,迭代輪數(shù)設(shè)為200;訓(xùn)練人臉分類識(shí)別模型時(shí)使用SGD 優(yōu)化算法,其中次梯度系數(shù)為0.1,偏差度因子為0.5.

        2.3 人臉識(shí)別準(zhǔn)確率實(shí)驗(yàn)對(duì)比分析

        從每個(gè)數(shù)據(jù)集中選擇前50幅圖像作為訓(xùn)練集.為避免原始圖像大小變化影響實(shí)驗(yàn)結(jié)果的問題,對(duì)所有數(shù)據(jù)集進(jìn)行無失真縮放,使每個(gè)圖像都包含不同角度的人臉,使算法更容易識(shí)別人臉判別特征.人臉識(shí)別過程如圖4所示.

        圖4 人臉識(shí)別流程

        人臉的1∶1驗(yàn)證是評(píng)估人臉識(shí)別算法的常用指標(biāo),為測(cè)試本文方法的有效性,采用文獻(xiàn)[1]融合注意力機(jī)制(方法1)、文獻(xiàn)[2]特征匹配(方法2)作為本文方法的對(duì)比方法,利用平均準(zhǔn)確度P作為不同識(shí)別算法的評(píng)價(jià)指標(biāo),其計(jì)算公式為

        其中,q1識(shí)別正確的人臉圖像數(shù)量,qN表示輸入的總?cè)四槇D像數(shù)量.

        分別采用以上3種方法對(duì)輸入網(wǎng)絡(luò)的容量圖像進(jìn)行識(shí)別分類,并利用上式計(jì)算不同方法的識(shí)別平均準(zhǔn)確度,以定性評(píng)估3種方法的識(shí)別性能.對(duì)比結(jié)果如圖5所示.

        圖5 不同方法的人臉識(shí)別準(zhǔn)確度結(jié)果對(duì)比

        圖5可以看出,在不同模糊比例較低的人臉圖像識(shí)別中,利用本文方法得到的識(shí)別準(zhǔn)確度均遠(yuǎn)高于對(duì)比方法.方法1建立的人臉識(shí)別分類模型沒有較好地平衡模型總控制參數(shù)量與模型學(xué)習(xí)率之間的關(guān)系,故影響了識(shí)別效果;方法2對(duì)模糊比例較低的人臉圖像識(shí)別準(zhǔn)確度相對(duì)較高,但對(duì)于模糊程度較高的低質(zhì)量人臉圖像,該方法無法準(zhǔn)確提取圖像邊角局部細(xì)節(jié)特征,所以方法2并不適用于較高模糊比例的人臉識(shí)別.由此可以說明,本文設(shè)計(jì)的方法能夠較準(zhǔn)確地識(shí)別低質(zhì)量圖像模糊人臉識(shí)別準(zhǔn)確度.

        3 結(jié)束語

        本文在人臉檢測(cè)與識(shí)別算法上,基于深度學(xué)習(xí)算法提出低質(zhì)量圖像模糊人臉識(shí)別方法,通過檢測(cè)人臉輪廓線關(guān)鍵點(diǎn)與匹配關(guān)鍵特征點(diǎn),利用卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)人臉識(shí)別.對(duì)比實(shí)驗(yàn)結(jié)果表明,提出的方法具有較高的識(shí)別準(zhǔn)確度.

        猜你喜歡
        關(guān)鍵點(diǎn)人臉識(shí)別特征
        人臉識(shí)別 等
        聚焦金屬關(guān)鍵點(diǎn)
        肉兔育肥抓好七個(gè)關(guān)鍵點(diǎn)
        揭開人臉識(shí)別的神秘面紗
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        抓住特征巧觀察
        基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
        醫(yī)聯(lián)體要把握三個(gè)關(guān)鍵點(diǎn)
        鎖定兩個(gè)關(guān)鍵點(diǎn)——我這樣教《送考》
        日本手机在线| 91国产精品自拍在线观看| 精品极品一区二区三区| 麻豆69视频在线观看| 成人av片在线观看免费| 亚洲欧洲国产成人综合在线| 特黄特色的大片观看免费视频| 免费人成毛片乱码| 国产一区二区三区视频免费在线 | 免费久久久一本精品久久区| 麻豆国产一区二区三区四区| 精品亚洲成在人线av无码| 国模无码视频一区| 精品人妻VA出轨中文字幕| АⅤ天堂中文在线网| 亚洲天堂一区二区精品| 国产夫妻精品自拍视频| 色熟妇人妻久久中文字幕 | 国产精品后入内射日本在线观看| 日本精品久久久久中文字幕| 亚洲国产成人片在线观看| 免费国产黄网站在线观看| 亚洲欧美日韩一区在线观看| 亚洲—本道中文字幕久久66| 国产91精品丝袜美腿在线| 久久精品蜜桃美女av| 开心五月婷婷激情综合网| 九九热线有精品视频86| 免费夜色污私人影院在线观看| 人妻无码∧V一区二区| 中文字幕乱码亚洲一区二区三区| 午夜理论片yy6080私人影院 | 一本久道久久综合婷婷五月| 日本女优中文字幕在线观看| 国产精品一区二区夜色不卡| 激情人妻另类人妻伦| 中日韩精品视频在线观看| 日韩亚洲欧美中文高清在线| 高潮社区51视频在线观看| 国产在线观看午夜视频| 久久久久99精品成人片|