亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的人臉識(shí)別技術(shù)研究

        2019-01-03 02:30:28劉施樂(lè)
        電子制作 2018年24期
        關(guān)鍵詞:特征向量人臉識(shí)別人臉

        劉施樂(lè)

        (浙江省杭州高級(jí)中學(xué)貢院校區(qū),浙江杭州,310003)

        0 引言

        計(jì)算機(jī)視覺(jué)(Computer Vision)是專門(mén)對(duì)計(jì)算機(jī)圖形學(xué)進(jìn)行研究的重要領(lǐng)域。而人臉識(shí)別是目前計(jì)算機(jī)視覺(jué)研究的熱點(diǎn)。人臉識(shí)別最主要的功能是對(duì)不同的人進(jìn)行特征識(shí)別與區(qū)分,是一種重要的生物鑒別方法,其在智能安防、金融、智慧出行等領(lǐng)域有重要的應(yīng)用價(jià)值。

        人臉識(shí)別精度的提升,受益于深度學(xué)習(xí)方法在圖像識(shí)別領(lǐng)域的研究和應(yīng)用。傳統(tǒng)的圖像識(shí)別方法主要基于手工設(shè)計(jì)并提取特征,隨著卷積神經(jīng)網(wǎng)絡(luò)的提出,尤其是2012年在ImageNet挑戰(zhàn)賽使用深度卷積神經(jīng)網(wǎng)絡(luò),使用計(jì)算機(jī)進(jìn)行圖像分類的精度日益提高,并在ImageNet 1000挑戰(zhàn)中首次超越了人類識(shí)別分類的能力[1]。人臉識(shí)別算法的核心是通過(guò)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò),提取人臉特征并進(jìn)行準(zhǔn)確的分類,最終實(shí)現(xiàn)人臉與個(gè)體信息的匹配。在此基礎(chǔ)上,人臉關(guān)鍵點(diǎn)檢測(cè),基于人臉的年齡預(yù)測(cè)、表情識(shí)別等都取得了一定的進(jìn)展并廣泛應(yīng)用。尤其是活體檢測(cè),紅外光感技術(shù)的不斷突破與應(yīng)用,人臉識(shí)別已經(jīng)從學(xué)術(shù)界逐漸向工業(yè)界落地,比如目前肯德基,盒馬鮮生等實(shí)體店已經(jīng)開(kāi)啟了人臉識(shí)別的商業(yè)應(yīng)用。

        1 人臉識(shí)別關(guān)鍵技術(shù)

        和人類大腦進(jìn)行人臉識(shí)別的過(guò)程類似,使用機(jī)器進(jìn)行人臉識(shí)別的輸入為攝像頭捕捉到的待識(shí)別的人臉圖像,輸出為該圖像的人物ID。 具體的實(shí)現(xiàn)流程如圖1所示,在獲取照片后,經(jīng)過(guò)裁剪和對(duì)齊等預(yù)處理,獲得帶識(shí)別的圖像輸入,然后通過(guò)特征提取機(jī)制或者降維等算法,對(duì)人臉進(jìn)行特征提取,將提取到的特征向量與待匹配的人臉特征向量進(jìn)行比較,最后使用歐式距離或者余弦距離對(duì)其相似度進(jìn)行計(jì)算,最終得到最匹配的人臉I(yè)D。

        圖1 人臉識(shí)別流程

        舉例來(lái)說(shuō),如數(shù)據(jù)庫(kù)中分別存儲(chǔ)了已經(jīng)提取到的 N 個(gè)人臉數(shù)據(jù),我們的目標(biāo)也就是從N個(gè)人臉中選出最匹配的人臉。N 個(gè)人臉的特征可以表示為:

        當(dāng)有待匹配的照片輸入時(shí),使用同樣的特征提取結(jié)構(gòu)對(duì)照片進(jìn)行相同的處理,得到其特征信息,并將其與上述N個(gè)特征分別進(jìn)行相似度距離的匹配,從而得到最終配置的人臉,即:

        綜上所述,該算法的核心即對(duì)人臉的輸入圖片進(jìn)行準(zhǔn)確的特征提取,使得相似照片之間的特征向量距離較近,而差異較大的照片距離較大。

        2 基于卷積神經(jīng)網(wǎng)絡(luò)的特征提取

        人臉識(shí)別屬于機(jī)器學(xué)習(xí)中的有監(jiān)督學(xué)習(xí)方法,通過(guò)建立模型、策略、算法的統(tǒng)計(jì)機(jī)器學(xué)習(xí)三要素[2],并使用(人臉圖像:人臉I(yè)D)的有標(biāo)簽數(shù)據(jù)對(duì)深度學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,并使用一定的優(yōu)化方法得到模型的參數(shù),最終得到可以提取人臉特征的網(wǎng)絡(luò)模型,并以此進(jìn)行人臉的識(shí)別。

        如圖2所示的全連接神經(jīng)網(wǎng)絡(luò),其輸入為人臉圖像的總維度(3×224×224),輸出為要提取的特征向量的維度(如1024),中間是0-n個(gè)串行連接的隱藏層,使用多個(gè)網(wǎng)絡(luò)層次的根本原因是增加模型的非線性,從而提高其擬合效果。

        圖2 全連接神經(jīng)網(wǎng)絡(luò)

        對(duì)于人臉識(shí)別問(wèn)題,最終的目標(biāo)是神經(jīng)網(wǎng)絡(luò)的輸出盡可能的表征人臉的具體特征,因此我們可以用一個(gè)1024×1的一維向量來(lái)表征人臉。圖2中模型中的最終輸出就可以是1024個(gè)神經(jīng)元。由此可以看出,通過(guò)簡(jiǎn)單的全連接神經(jīng)網(wǎng)絡(luò),最終對(duì)圖像進(jìn)行了壓縮,使得一張3×224×224的向量簡(jiǎn)化為1024×1的特征向量,使得特征分布更為密集,方便后續(xù)的相似度判斷。

        全連接神經(jīng)網(wǎng)絡(luò)雖然理解簡(jiǎn)單,但是其過(guò)多的全連接造成了模型的冗余,過(guò)多的權(quán)重參數(shù)導(dǎo)致難以訓(xùn)練,模型的泛化能力也不盡如人意。針對(duì)全連接神經(jīng)網(wǎng)絡(luò)權(quán)重參數(shù)冗余的問(wèn)題,卷積神經(jīng)網(wǎng)絡(luò)通過(guò)使用權(quán)值共享和局部感受視野的方法,實(shí)現(xiàn)了權(quán)重?cái)?shù)量的大幅度降低,同時(shí)其多層次的局部感受視野帶來(lái)了圖像抽象層次的逐步擴(kuò)大,從而可以較好的實(shí)現(xiàn)圖像的特征抽取。

        隨著反向傳播算法和計(jì)算機(jī)硬件性能的提升,尤其是GPU性能的提升,大規(guī)模的神經(jīng)網(wǎng)絡(luò)算法得到的廣泛的應(yīng)用。簡(jiǎn)單來(lái)說(shuō),就是通過(guò)增加隱藏層的數(shù)目,實(shí)現(xiàn)更加復(fù)雜函數(shù)的擬合。但是在圖像處理領(lǐng)域,簡(jiǎn)單的增加網(wǎng)絡(luò)層次有一定的局限性:全連接神經(jīng)網(wǎng)絡(luò)對(duì)圖像輸入數(shù)據(jù)來(lái)說(shuō),數(shù)據(jù)維度過(guò)大,導(dǎo)致神經(jīng)網(wǎng)絡(luò)參數(shù)過(guò)大。在此基礎(chǔ)上提出了使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)的方法進(jìn)行圖像數(shù)據(jù)處理,其計(jì)算思路如圖3所示。

        圖3 卷積操作

        卷積神經(jīng)網(wǎng)絡(luò)的核心即局部處理和參數(shù)共享。如圖3所示,通過(guò)使用卷積核對(duì)輸入數(shù)據(jù)的局部進(jìn)行統(tǒng)一處理;并且共享同一個(gè)卷積核從而實(shí)現(xiàn)參數(shù)的共享。這樣,大大降低了權(quán)重參數(shù)的數(shù)目,同時(shí)由于圖像數(shù)據(jù)本身帶有局部特性,因此這種方法也有利于提取圖像的局部特征而不是孤立的以像素點(diǎn)的方式對(duì)待數(shù)據(jù)。

        另外,卷積神經(jīng)網(wǎng)絡(luò)還使用了池化的方法進(jìn)一步降低參數(shù)的維度。如圖4所示,典型的卷積神經(jīng)網(wǎng)絡(luò)將卷積、池化、全連接操作有機(jī)的組織在一起,從而實(shí)現(xiàn)降低參數(shù)維度、提取局部特征最終實(shí)現(xiàn)圖像的特征分類。

        圖4 典型的卷積神經(jīng)網(wǎng)絡(luò)

        3 特征區(qū)分度與損失函數(shù)

        對(duì)人臉進(jìn)行準(zhǔn)確識(shí)別的基礎(chǔ)是特征向量之間的區(qū)分度要能真實(shí)的反映現(xiàn)實(shí)中人臉之間的區(qū)分度。例如,當(dāng)兩張人臉差距較大時(shí),其特征向量間的距離也要較大,而對(duì)同一個(gè)人來(lái)說(shuō),其特征向量距離要足夠小。該問(wèn)題反映在模型中,就是模型損失函數(shù)的設(shè)計(jì)問(wèn)題。損失函數(shù)代表了給定的標(biāo)簽數(shù)據(jù)(Ground Truth)與預(yù)測(cè)值之間的差距,對(duì)于分類問(wèn)題來(lái)說(shuō),我們希望其特征向量與輸入的特征向量基本匹配,并對(duì)差距較大的向量進(jìn)行懲罰,最終獲取學(xué)習(xí)能力較強(qiáng)的模型。交叉熵是分類問(wèn)題中比較常見(jiàn)的損失函數(shù),當(dāng)預(yù)測(cè)值越接近真實(shí)值時(shí),損失函數(shù)越小。單個(gè)樣本的交叉熵?fù)p失函數(shù)如下所示,其中y為真實(shí)值,y^為預(yù)測(cè)值,當(dāng)兩者越接近時(shí),其L越小。

        使用卷積神經(jīng)網(wǎng)絡(luò)獲取特征之后,需要對(duì)其學(xué)習(xí)到的特征進(jìn)行評(píng)價(jià),通過(guò)一定的設(shè)計(jì)技巧,迫使網(wǎng)絡(luò)學(xué)習(xí)到對(duì)分辨不同的人其特征也要更有效。Facebook在CVPR2014中提出的DeepFace[3],使用了經(jīng)典的交叉熵?fù)p失函數(shù)(Softmax)進(jìn)行問(wèn)題優(yōu)化。該模型在LFW數(shù)據(jù)集上取得了97.35%的準(zhǔn)確率,已經(jīng)接近了人類的水平。之后Google推出了FaceNet[4],使用了三元組損失函數(shù)(Triplet Loss)替代了常用的Softmax交叉熵?fù)p失函數(shù)。

        圖5 三元損失函數(shù)

        如圖5所示,該三元損失函數(shù)決定了神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的目標(biāo),即anchor作為輸入的標(biāo)準(zhǔn),positive與anchor是同一張人臉圖像,negative與anchor是差距很大的圖像。我們的目標(biāo)就是盡可能讓negative遠(yuǎn)離anchor,讓positive靠近anchor,從而達(dá)到學(xué)習(xí)人臉特征更加準(zhǔn)確,區(qū)分度更高。隨著卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)性能的不斷提升,目前很多工作的重點(diǎn)都在于設(shè)計(jì)更好更高效的損失函數(shù)。

        4 應(yīng)用領(lǐng)域與展望

        使用深度學(xué)習(xí)方法進(jìn)行人臉檢測(cè)在公開(kāi)數(shù)據(jù)集上已經(jīng)達(dá)到了超越人類的表現(xiàn),如FaceNet在LFW上達(dá)到了99.63%的準(zhǔn)確度。隨著準(zhǔn)確度的不斷提高,以及數(shù)據(jù)集數(shù)量和質(zhì)量上的增長(zhǎng),人臉識(shí)別有了越來(lái)越廣泛的落地場(chǎng)景。如無(wú)人零售領(lǐng)域,支付環(huán)節(jié)極大的依賴于人臉識(shí)別的精度;在智能安防領(lǐng)域,大規(guī)模的智能人臉捕捉和實(shí)時(shí)識(shí)別都對(duì)人臉識(shí)別提出了較高的要求,尤其是在現(xiàn)實(shí)場(chǎng)景中,獲取到的人臉往往不是完美的正面且光線條件復(fù)雜,這就對(duì)大數(shù)據(jù)集,新技術(shù)提出了更高的要求。

        猜你喜歡
        特征向量人臉識(shí)別人臉
        二年制職教本科線性代數(shù)課程的幾何化教學(xué)設(shè)計(jì)——以特征值和特征向量為例
        人臉識(shí)別 等
        克羅內(nèi)克積的特征向量
        有特點(diǎn)的人臉
        揭開(kāi)人臉識(shí)別的神秘面紗
        三國(guó)漫——人臉解鎖
        一類特殊矩陣特征向量的求法
        EXCEL表格計(jì)算判斷矩陣近似特征向量在AHP法檢驗(yàn)上的應(yīng)用
        基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
        馬面部與人臉相似度驚人
        亚洲av少妇一区二区在线观看| 亚洲国产av精品一区二区蜜芽| 国产精品久久久久久52avav | 亚洲欧洲AV综合色无码| 国产一区二区三区在线影院| 人妻精品人妻一区二区三区四区| 日本在线一区二区三区不卡 | 亚洲狠狠婷婷综合久久久久图片| 久久综合五月天| 欧美日一本| 白白色福利视频在线观看| 国产在线观看视频一区二区三区| 国产69精品久久久久9999apgf| 激情综合色综合久久综合| 日本精品a在线观看| 亚洲国产综合专区在线电影| 日韩中文字幕乱码在线| 青青草成人免费在线视频| 亚洲av午夜成人片精品电影 | 又爽又猛又大又湿的视频| 久久精品亚洲94久久精品| 欧美多人片高潮野外做片黑人| 边做边流奶水的人妻| 亚洲成人福利在线观看| 熟女丝袜美腿亚洲一区二区三区 | 天堂а√在线最新版中文| av深夜福利在线| 91精品国产综合久久久蜜臀九色| 国产自拍精品一区在线观看| 精品国产人妻一区二区三区| 欧美精品在线一区| 国产内射视频在线播放| 精品老熟女一区二区三区在线| 老熟妇乱子伦牲交视频| 女厕厕露p撒尿八个少妇| av无码一区二区三| 国产精品日韩av一区二区| 免费操逼视频| 亚洲AV肉丝网站一区二区无码| 成年人男女啪啪网站视频| 亚洲国产精品不卡av在线|