亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于HOG/PCA/SVM的跨年齡人臉識別算法*

        2018-12-15 01:51:00彭思江戴厚平周成富
        吉首大學學報(自然科學版) 2018年5期
        關鍵詞:人臉識別特征

        彭思江,戴厚平,周成富,劉 倩

        (吉首大學數(shù)學與統(tǒng)計學院,湖南 吉首 416000)

        人臉識別技術(shù)被廣泛應用于交通安全、金融、法律等領域,國內(nèi)外學者對人臉識別問題進行了優(yōu)化建模和算法設計.如基于K-L變換[1-2]、模糊BP神經(jīng)網(wǎng)絡[3]、DCT和RBF神經(jīng)網(wǎng)絡[4]等設計人臉識別算法,這些研究的對象都是同一年齡階段的人臉圖像;又如基于深度卷積神經(jīng)網(wǎng)絡[5]、分解稀疏非負矩陣[6]等,這些算法可以進行跨年齡人臉識別.方向梯度直方圖(HOG)特征提取算法[7]是通過一致空間的密度矩陣提高準確率,能較準確地描述人臉的亮暗點和邊緣等局部分布特征;主成分分析(PCA)方法[8]是利用樣本中部分主要元素效果代替整體元素效果,將多維復雜問題簡化為低維簡單問題;SVM訓練原理[9]應用在小樣本、非線性樣本的分類問題中,取得了很好的分類效果.筆者將這3種方法結(jié)合,對跨年齡人臉進行識別.

        1 提取圖像的HOG特征

        HOG特征是對局部區(qū)域進行描述,在局部區(qū)域上構(gòu)建HOG,以此構(gòu)成圖像特征.設I為輸入圖像,I(x,y)為圖像在像素點(x,y)處的灰度值.HOG特征提取的計算步驟如下:

        Step1計算每個像素點處的梯度.圖像在像素點(x,y)處的水平方向梯度、垂直方向梯度分別為

        Gx(x,y)=H(x+1,y)-H(x-1,y),

        (1)

        Gy(x,y)=H(x,y+1)-H(x,y-1),

        (2)

        其中H(x,y)為像素值.由(1),(2)式可計算出像素點(x,y)處的梯度幅值和梯度方向分別為

        Step2對每一個細胞單元構(gòu)建HOG.將圖像劃分為n個大小相同的細胞單元ci(i=1,2,…,n),設細胞單元的大小為m×m像素,并以細胞單元作為單位統(tǒng)計出HOG.將梯度方向劃分為K個均勻的區(qū)間,用Vk(x,y)表示像素點(x,y)對第k個區(qū)間(記為Bk)的貢獻(即權(quán)值).本研究采用權(quán)值取法中較為簡單的一種,

        Step4收集HOG特征.將各個塊的HOG連接起來,就得到輸入圖像的HOG特征.

        2 PCA降維

        PCA[10]是一種無監(jiān)督的線性特征提取方法,其最優(yōu)變換是基于K-L變換在最小均方誤差意義下產(chǎn)生的.利用該變換可較大幅度地降低人臉表情數(shù)據(jù)特征的維數(shù).n個d維空間中的樣本a1,a2,…,an,其中ai=(ai1,ai2,…,aid)T∈Rd,設A為這n個樣本構(gòu)成的數(shù)據(jù)矩陣,即A=(a1,a2,…,an).給定m

        Step3求協(xié)方差矩陣S的前m個最大特征值,并將這m個特征值從大到小排序,即λ1≥λ2≥…≥λm,其對應的特征向量分別為φ1,φ2,…,φm,φj(j=1,2,…,m)∈Rd,由特征向量構(gòu)成的矩陣φm=(φ1,φ2,…,φm).

        3 SVM原理

        圖1 距離不同的2個超平面H1和H2Fig. 1 Two Hyperplanes with Different Distances

        SVM將N-D空間中的正樣本和負樣本看作2個不同的集合,并自動尋找一個超平面,將N-D空間分成2個部分,使得正、負樣本分別落在不同半徑的空間中,同時也使得正、負樣本之間的間隔拉到最大.圖1示出距離不同的2個超平面H1和H2,其中2d1和2d2均是樣本S1和S2之間的間隔.

        從圖1可看出,最大間隔為2d1,其對應的平面H1即所要尋找的超平面,與樣本S1和S2相切的超平面分別是Ha和Hb.位于超平面Ha和Hb上的數(shù)據(jù)即為支持向量,這些數(shù)據(jù)對超平面具決定性作用,新的測試樣本由已經(jīng)得到的支持向量來判定.

        給定訓練數(shù)據(jù)

        D={(xi,yi)|xi∈RN,yi∈{-1,1}}i=1,…,l.

        其中:xi是N-D特征空間中的向量;yi為xi對應的標簽,yi=1表示正樣本標簽,yi=-1表示負樣本標簽.訓練樣本線性可分時,最優(yōu)分隔超平面H一定存在,用w表示其法向量,b表示其截距,則根據(jù)文獻[11],有w·x+b=0.超平面H可以將不同類別的2個樣本分開,對應的約束條件為

        w·xi+b≥1yi=1,

        (3)

        w·xi+b≤-1yi=-1.

        (4)

        合并(3),(4)式,得到y(tǒng)i(w·xi+b)-1≥0.引入拉格朗日優(yōu)化理論,得到

        (5)

        (6)

        其中αi為拉格朗日乘子.由(5),(6)式得到SVM最終的優(yōu)化形式:

        (7)

        對模型(7)進行求解即可得αi,再由(5)式求出超平面H的法向量w.根據(jù)Karush-Kuhn-Tucher條件,可由w求出超平面H的截距b,計算公式為αi(yi(w·xi+b)-1)=0.w和b確定后,SVM也隨之產(chǎn)生,之后便可以利用此SVM對新樣本進行分類識別.

        4 仿真實驗

        4.1 圖像預處理

        筆者從FQ-NET數(shù)據(jù)庫中選取11個人臉圖像進行仿真實驗,其中1個人臉圖像為對照組,另外10個人臉圖像為實驗組.實驗組又分為2小組,每小組5個人臉圖像,第一小組圖像人物與對照組是同一人但年齡不同(編號A,B,C,D,E),第二小組為另一個人在不同年齡的人臉圖像(編號F,G,H,I,J).因選取的人臉圖像是彩色圖像,故先對其進行預處理.

        圖2 Gamma校正函數(shù)圖像Fig. 2 Image of the Gamma Correction Function

        將彩色圖像的RGB分量分別乘以一個權(quán)重再相加,得到灰度圖像,具體計算公式[12]為Y=0.3R+0.59G+0.11B.當圖像的灰度值較低時采用γ<1的Gamma校正,實現(xiàn)低灰度值向高灰度值拉伸;當圖像的灰度值較高時采用γ>1的Gamma校正,實現(xiàn)高灰度值向低灰度值拉伸.Gamma校正過程可用公式表達為

        其中:I(x,y)為原圖像灰度值;Y(x,y)為經(jīng)過Gamma校正后的圖像灰度值.圖像I為雙精度圖像,像素取值為0~1.Gamma校正函數(shù)圖像如圖2所示.人臉圖像預處理前后的對比效果如圖3所示.

        圖3 人臉圖像預處理前后的效果對比Fig. 3 Comparison of Effects Before and After Face Image Preprocessing

        4.2 人臉識別仿真過程

        預處理后的對照組和實驗組人臉圖像分別如圖4,5所示.將經(jīng)過預處理的實驗組樣本圖像分為正、負樣本圖像:以類內(nèi)圖像作為正樣本圖像,即實驗組第一小組的人臉圖像;以類間圖像作為負樣本圖像,即實驗組第二小組的人臉圖像.

        圖4 預處理后的對照組人臉圖像Fig. 4 Face Image of the Control Group After Preprocessing

        圖5 預處理后的實驗組人像圖像Fig. 5 Face Images of the Experimental Group After Preprocessing

        對經(jīng)預處理的人臉圖像提取其對應的HOG特征.首先,將預處理后的256×256像素的圖像劃分為16×16個大小相同的細胞單元,每個細胞單元的大小為16×16像素;其次,以細胞單元作為單位統(tǒng)計出HOG,將梯度方向劃分為9個均勻的區(qū)間,得到一個9維的特征向量;然后,將相鄰的2×2個細胞單元構(gòu)成一個大塊,得到一個36維的特征向量;接著,在每個大塊內(nèi)對所有像素的梯度方向在各個方向區(qū)間進行直方圖統(tǒng)計,并作歸一化處理;最后,相互連接225個大塊便得到整個圖像的HOG特征.提取過程如圖6所示.

        圖6 HOG特征提取的過程Fig. 6 Process of Extracting HOG Features

        接下來利用PCA方法對提取的HOG特征進行降維.將正樣本圖像的HOG特征差空間作為正樣本,其樣本標簽為1;將負樣本圖像的HOG特征差空間作為負樣本,其樣本標簽為-1;將確定好的正、負樣本輸入到SVM中進行訓練.表1示出實驗組的分類識別結(jié)果.

        表1 實驗組的分類識別結(jié)果

        由表1可知:A,B,C,D,E這5個被分類到正樣本的人臉圖像與對照組的匹配度相對較高(最高達90.91%),驗證了它們與對照組是不同年齡的同一個人的人臉圖像;F,G,H,I,J這5個被分類到負樣本的人臉圖像與對照組的匹配度相對較低,驗證了它們與對照組不是同一個人的人臉圖像.

        5 結(jié)語

        根據(jù)梯度幅值和梯度方向這2個重要的圖像特征之間的差異,筆者設計了基于HOG/PCA/SVM的跨年齡人臉圖像識別算法,并對算法進行了有效性驗證.下一步將以該算法為基礎,對光照等外界因素干擾的人臉圖像進行識別,以期更好地解決人臉識別問題.

        猜你喜歡
        人臉識別特征
        抓住特征巧觀察
        人臉識別 等
        作文中學版(2022年1期)2022-04-14 08:00:34
        新型冠狀病毒及其流行病學特征認識
        揭開人臉識別的神秘面紗
        學生天地(2020年31期)2020-06-01 02:32:06
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        基于(2D)2PCA-LBP 的人臉識別方法的研究
        電子制作(2017年17期)2017-12-18 06:40:55
        抓住特征巧觀察
        人臉識別在高校安全防范中的應用
        電子制作(2017年1期)2017-05-17 03:54:46
        基于類獨立核稀疏表示的魯棒人臉識別
        計算機工程(2015年8期)2015-07-03 12:19:07
        国产精品美女久久久久| av影片手机在线观看免费网址| 情爱偷拍视频一区二区| 久久久www成人免费精品| 青青视频一区| 男女在线免费视频网站| 国产丝袜长腿美臀在线观看| 一本一道av无码中文字幕麻豆| 中文字幕无线码中文字幕| 97久久精品午夜一区二区| 国产成+人+综合+亚洲专| 在线亚洲精品免费视频| 好吊妞视频这里有精品| 亚洲欧洲日本综合aⅴ在线| 久久久久久一级毛片免费无遮挡| 人妻av午夜综合福利视频| 久久久熟女一区二区三区| 国产欧美一区二区三区在线看| 日本动态120秒免费| 宅男久久精品国产亚洲av麻豆 | 国产三级久久精品三级91| 伊人激情av一区二区三区| 亚洲国产成人AV人片久久网站| 人妖系列在线免费观看| 国产精品久久久久久人妻无| 在线播放无码高潮的视频| 亚洲va欧美va| 国产自产在线视频一区| 精品高朝久久久久9999| 免费观看黄网站在线播放| 国产精品激情综合久久| 国产一区二区三区十八区| 国产人妻高清国产拍精品| a级毛片在线观看| 无码专区亚洲avl| 青青草视频网站在线观看| 熟妇激情内射com| 免费人成视频在线观看视频| 日韩精品中文字幕 一区| 亚洲国产中文字幕在线视频综合| 特级无码毛片免费视频尤物|