亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人臉識(shí)別技術(shù)綜述與展望

        2018-10-19 16:09:22趙昆張輝蘇達(dá)釗商霓
        科學(xué)與財(cái)富 2018年25期
        關(guān)鍵詞:人臉識(shí)別特征提取深度學(xué)習(xí)

        趙昆 張輝 蘇達(dá)釗 商霓

        摘 要: 人臉識(shí)別是計(jì)算機(jī)技術(shù)研究領(lǐng)域比較熱門的方向之一,它融合許多跨學(xué)科知識(shí),應(yīng)用十分廣泛。本文首先介紹了人臉識(shí)別技術(shù),并對(duì)常用的幾種人臉識(shí)別方法進(jìn)行分析與比較,總結(jié)了人臉識(shí)別面臨的技術(shù)難題,最后展望了人臉識(shí)別技術(shù)發(fā)展方向。

        關(guān)鍵詞: 人臉識(shí)別;特征提??;模板匹配;深度學(xué)習(xí);神經(jīng)網(wǎng)絡(luò)

        1.引言

        人臉自動(dòng)識(shí)別技術(shù)是指計(jì)算機(jī)對(duì)人臉圖像進(jìn)行特征提取和識(shí)別的一門技術(shù)。無論是靜態(tài)圖像還是視頻圖像,該技術(shù)都可以從中找出需要檢測的人臉圖像,然后與數(shù)據(jù)庫中的人臉數(shù)據(jù)進(jìn)行對(duì)比,找出最佳匹配,從而達(dá)到身份識(shí)別與鑒定的目的。

        近年來,隨著科技的不斷進(jìn)步,人臉識(shí)別在保險(xiǎn)、金融、安防、教育、娛樂等行業(yè)發(fā)展迅速。與其他身份識(shí)別技術(shù)相比,人臉識(shí)別具有以下優(yōu)越性[2]:非接觸性;直觀性突出;可跟蹤性好;防偽性好;性價(jià)比高;精度高、速度快。但是人臉識(shí)別容易受到表情、背景、裝飾物、年齡跨度等諸多因素的干擾,從而加大了精準(zhǔn)識(shí)別的難度。

        2. 人臉識(shí)別的過程

        一般人臉識(shí)別過程如圖1所示。

        3. 人臉識(shí)別方法介紹

        (1)基于幾何特征的人臉識(shí)別方法

        基于幾何特征的人臉識(shí)別方法是BLEDSOE最先提出的。該方法主要是對(duì)面部特征點(diǎn)進(jìn)行幾何運(yùn)算,計(jì)算得出描述每個(gè)面部關(guān)鍵位置的特征矢量。目標(biāo)人臉由這些特征矢量表示出來,再與數(shù)據(jù)庫中的人臉進(jìn)行比對(duì),找出最為匹配的人臉。該方法優(yōu)點(diǎn):操作簡便,淺顯易懂;占據(jù)存儲(chǔ)空間小;識(shí)別速度快;受光照影響較小。但當(dāng)表情或者姿態(tài)發(fā)生變化時(shí),面部器官位置也隨之變化,導(dǎo)致無法提取穩(wěn)定的特征。而且由于忽略了整個(gè)圖像的很多細(xì)節(jié)信息,其識(shí)別率較低。

        (2)基于模板匹配的人臉識(shí)別方法

        基于模板匹配的方法預(yù)先給定包含了人臉特征的標(biāo)準(zhǔn)模板,但這些模板的長寬比例不同。然后在全局范圍內(nèi),通過不斷迭代來更改模板大小,根據(jù)這些模板與待測對(duì)象的相似性大小進(jìn)行比對(duì)和識(shí)別,尋求最佳匹配[2]。早在1993年,Poggio 和 Brunelli就對(duì)上述兩種方法進(jìn)行過比較,并得出模板匹配方法比幾何特征方法識(shí)別率高的結(jié)論。

        (3)基于特征臉的人臉識(shí)別方法

        在20世紀(jì)90年代初,TURK首次提出基于特征臉的人臉識(shí)別方法。首先按照從上到下、從左到右的順序,將一幅人臉圖像所有像素的灰度值組成一個(gè)高維向量,然后通過主成分分析法,將人臉圖像降維,之后采用線性判別分析,進(jìn)而識(shí)別人臉。該方法具有計(jì)算簡單、使用方便、效果良好的優(yōu)點(diǎn)。但是它對(duì)于拍照角度、拍照環(huán)境、光照強(qiáng)度等外界因素要求很高,進(jìn)而導(dǎo)致識(shí)別準(zhǔn)確率較低。

        (4)基于彈性圖匹配的人臉識(shí)別方法

        彈性圖匹配方法是基于動(dòng)態(tài)鏈接結(jié)構(gòu)的一種算法。Lades M等人在1992年首次將該方法用于人臉識(shí)別并取得了較好效果。使用該方法時(shí),首先尋找與目標(biāo)圖像最相近的模型圖,再對(duì)圖中的每個(gè)節(jié)點(diǎn)位置進(jìn)行相似匹配,最后生成一個(gè)拓?fù)鋱D。拓?fù)鋱D中節(jié)點(diǎn)和模型圖中對(duì)應(yīng)點(diǎn)的位置相近,進(jìn)而對(duì)人臉進(jìn)行識(shí)別[3]。該方法受光照、表情等因素影響較小,優(yōu)于特征臉方法。但計(jì)算速度慢,占據(jù)存儲(chǔ)空間大。

        (5)基于神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法

        基于人工神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究方法主要采用BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法。1997年,Lin.等研究了一種基于神經(jīng)網(wǎng)絡(luò)的全自動(dòng)人臉檢測系統(tǒng),在當(dāng)時(shí)引起了很大反響。人工神經(jīng)網(wǎng)絡(luò)優(yōu)秀的學(xué)習(xí)能力、分類能力使得對(duì)人臉進(jìn)行特征提取與識(shí)別更加容易[4]。神經(jīng)網(wǎng)絡(luò)方法通過學(xué)習(xí)過程,避免了復(fù)雜的特征提取工作,使獲得人臉識(shí)別規(guī)律的隱性表達(dá)更加容易。

        (6)基于深度學(xué)習(xí)的人臉識(shí)別方法

        深度學(xué)習(xí)能夠模擬人類視覺感知神經(jīng)系統(tǒng)的認(rèn)知學(xué)習(xí),從而獲得更具表征力的高層特征。2012年,Lee H等率先將深度學(xué)習(xí)用于 LFW數(shù)據(jù)庫的人臉識(shí)別。他們采用無監(jiān)督的特征學(xué)習(xí)方法,取得了 87%的識(shí)別率。目前,深度學(xué)習(xí)算法的識(shí)別率已經(jīng)達(dá)到了99.47%,,甚至超過了人眼的識(shí)別率[5]。該方法通過學(xué)習(xí)得到更有意義的數(shù)據(jù),并且能建立更精確的模型。然而,訓(xùn)練模型需要很長時(shí)間,并且要不斷地迭代來進(jìn)行模型優(yōu)化,但不能保證得到全局最優(yōu)解。

        4. 面臨的主要問題

        (1)影響人臉識(shí)別的諸多問題沒有得到根本性解決。一是光照、背景問題;二是面部表情、面部姿態(tài)問題;三是裝飾物遮擋問題;四是整容、化妝問題。

        (2)急需大型、公開人臉數(shù)據(jù)集。LFW數(shù)據(jù)集作為最實(shí)用的的人臉測試數(shù)據(jù)集,識(shí)別率一直被刷新?,F(xiàn)有人臉識(shí)別系統(tǒng)還不能準(zhǔn)確識(shí)別超百萬的數(shù)據(jù)集。所以未來急需更具挑戰(zhàn)性的公開人臉數(shù)據(jù)集]。

        (3)需要用戶友好的系統(tǒng),來保護(hù)我們的財(cái)產(chǎn)和隱私不被人竊取。現(xiàn)有的商業(yè)性人臉識(shí)別系統(tǒng)并不能滿足這樣的需求。

        5.總結(jié)與展望

        現(xiàn)在深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)已經(jīng)成為人臉識(shí)別領(lǐng)域的主流發(fā)展方向,但傳統(tǒng)的一些方法仍然取得了很好的效果。提高魯棒性、提高準(zhǔn)確率、提高運(yùn)行速度、減少計(jì)算量是未來識(shí)別技術(shù)研究的方向。在不久的將來,人臉識(shí)別技術(shù)將隨處可見,并且更加便利、更加安全。

        參考文獻(xiàn)

        [1]蘇祎芳.人臉識(shí)別技術(shù)應(yīng)用及前景展望[J].云南警官學(xué)院學(xué)報(bào),2017(04):106-110.

        [2]祝秀萍,吳學(xué)毅,劉文峰.人臉識(shí)別綜述與展望[J].計(jì)算機(jī)與信息技術(shù),2007(12):53-56.

        [3]李武軍,王崇駿,張煒等.人臉識(shí)別研究綜述[J].模式識(shí)別與人工智能,2006(2).

        [4]吳斯.基于多尺度池化的卷積神經(jīng)網(wǎng)絡(luò)人臉識(shí)別方法研究.[D] 浙江:浙江大學(xué),2016(6).

        [5]馬良慧.基于深度學(xué)習(xí)的人臉識(shí)別算法研究.[D] 山東:山東理工大學(xué),2017(4).

        猜你喜歡
        人臉識(shí)別特征提取深度學(xué)習(xí)
        人臉識(shí)別 等
        揭開人臉識(shí)別的神秘面紗
        基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        久草国产视频| 日本成本人片免费网站| 男女裸交无遮挡啪啪激情试看| 日韩高清亚洲日韩精品一区| 蜜桃av多人一区二区三区| 一区二区三区日韩精品视频| 国产日韩av在线播放| 大地资源中文在线观看官网第二页| 91精品在线免费| 日本视频一区二区三区在线 | 风间由美中文字幕在线| 亚洲av综合av一区二区三区| 国产福利一区二区三区在线观看| 欧美成人免费看片一区| 日本av一区二区三区四区| 天堂8在线新版官网| 精品无码人妻一区二区三区| 97超级碰碰碰久久久观看| 成熟的女人毛茸茸色视频| 无码一区二区三区免费视频| 久久国产精品无码一区二区三区| 国产成人综合久久三区北岛玲| 人妻少妇精品视频一区二区三| 少妇高潮流白浆在线观看| 日韩AV无码一区二区三区不卡毛片| 又爽又猛又大又湿的视频| 真实夫妻露脸自拍视频在线播放| 中文字幕人妻熟女人妻洋洋| 日韩在线精品在线观看| 亚洲高清一区二区精品| 97久久综合区小说区图片区| 久久福利青草精品免费| 91精品国产乱码久久久| 国产亚洲欧美精品永久| 亚洲av无码av制服丝袜在线| 麻豆人妻无码性色AV专区| 亚洲日本人妻少妇中文字幕| 日韩欧美人妻一区二区三区| 国产精品福利小视频| 亚洲一区二区蜜桃视频| 成人国产精品一区二区网站公司|