亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于大數(shù)據(jù)下的智能防護(hù)系統(tǒng)的研究

        2020-09-10 09:55:14張躍沖
        看世界·學(xué)術(shù)下半月 2020年12期
        關(guān)鍵詞:人臉識(shí)別

        張躍沖

        摘要:卷積神經(jīng)網(wǎng)絡(luò)CNN和MATLAB的相互結(jié)合之下,利用CNN在圖像學(xué)習(xí)方面的優(yōu)勢(shì),結(jié)合MATLAB的系統(tǒng)仿真來建立新的人臉識(shí)別系統(tǒng).MATLAB可以實(shí)現(xiàn)多種CNN模型并對(duì)其系統(tǒng)功能頁面進(jìn)行設(shè)計(jì),以此來完成系統(tǒng)所需要的人臉圖像的收集和驗(yàn)證。由于普通的CNN模型進(jìn)行訓(xùn)練的實(shí)驗(yàn)結(jié)果并不理想,我們?cè)谠瓟?shù)據(jù)的基礎(chǔ)上先用傳統(tǒng)的方法先對(duì)圖像進(jìn)行特征提取不僅可提高識(shí)別度同時(shí)也擴(kuò)充了數(shù)據(jù)集,然后再用普通的CNN進(jìn)行訓(xùn)練。通過仿真表明:改進(jìn)后CNN模型的正確率較高,可以很好的實(shí)現(xiàn)該系統(tǒng)所需要的功能。

        關(guān)鍵詞:人臉識(shí)別;卷積神經(jīng)網(wǎng)絡(luò);MATLAB

        一、前言

        隨著科技水平的提高,智能化越來越普及,我國的安全技術(shù)防范事業(yè)也得到迅速發(fā)展。同時(shí)互聯(lián)網(wǎng)的飛速發(fā)展使得生物識(shí)別技術(shù)被引入到安全領(lǐng)域來,利用生物特征進(jìn)行身份識(shí)別也被認(rèn)為是當(dāng)前最安全的身份識(shí)別方式。在機(jī)器視覺識(shí)別方面,人臉識(shí)別這一方法的簡易性使其成為了當(dāng)今相關(guān)方面研究的重點(diǎn)。由于淺層特征的圖像化信息缺失,使以其作為基本信息提取的傳統(tǒng)人臉識(shí)別技術(shù)存在很多的缺陷,最為基本的就是會(huì)影響人臉識(shí)別的識(shí)別率,利用深度學(xué)習(xí)進(jìn)行對(duì)人臉圖像進(jìn)行特征提取將會(huì)更加高效。本文研究了深入學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)并構(gòu)建了卷積神經(jīng)網(wǎng)絡(luò)人臉識(shí)別模型,并對(duì)其進(jìn)行了性能分析。

        二、系統(tǒng)方案的確定

        目前多數(shù)的防護(hù)系統(tǒng)通常采用刷卡或指紋識(shí)別驗(yàn)證方式。但這兩種防護(hù)系統(tǒng)系統(tǒng)存在一定的弊端。刷卡式圖書館防護(hù)系統(tǒng)卡片丟失后,一定程度上存在被他人利用可能造成財(cái)物損失等不安全隱患,使防護(hù)系統(tǒng)形同虛設(shè);采用指紋識(shí)別驗(yàn)證方式的防護(hù)系統(tǒng),對(duì)安全防范有所提高,但該系統(tǒng)存在8%左右的誤識(shí)率,且識(shí)別速度慢,如果需求量過高會(huì)影響工作效率。相對(duì)來說人臉識(shí)別比刷卡識(shí)別和指紋識(shí)別安全性更好。在人臉識(shí)別的前期我們大多需要人工設(shè)計(jì)的特征來進(jìn)行識(shí)別;這種傳統(tǒng)的方法具有一定的局限性,特征少了容易造成擬合,特征多了有需要進(jìn)行PCA降維,使得人臉識(shí)別系統(tǒng)的效率并不高。近幾年隨著大數(shù)據(jù)的不斷發(fā)展,深入學(xué)習(xí)不斷應(yīng)用到各個(gè)領(lǐng)域,人臉識(shí)別就是其中之一。深入學(xué)習(xí)對(duì)人臉數(shù)據(jù)庫進(jìn)行訓(xùn)練可以得到更加準(zhǔn)確的模型從而提高了對(duì)人臉識(shí)別。本文的防護(hù)系統(tǒng)的研究則是利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)人臉進(jìn)行識(shí)別,通過優(yōu)化方案來提高人臉的識(shí)別率。

        三、人臉識(shí)別防護(hù)系統(tǒng)的構(gòu)建

        由于MATLAB軟件有著強(qiáng)大的圖像處理功能,此系統(tǒng)的訓(xùn)練、仿真都在MATLAB的環(huán)境下進(jìn)行。人臉圖像數(shù)據(jù)的采集和檢測,人臉圖像的預(yù)處理,人臉圖像的特征提取,人臉圖像的匹配和識(shí)別這四個(gè)層面組成了最基本的人臉識(shí)別系統(tǒng)。本文采用的是利用卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建人臉識(shí)別的模型,將采集的圖像通過USB傳輸?shù)組ATLAB軟件,圖像預(yù)處理階段的灰度矯正以及噪聲過濾等我們都可以用MATLAB來實(shí)現(xiàn),之后系統(tǒng)將根據(jù)利用卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練得到數(shù)據(jù)對(duì)圖像進(jìn)行特征提取,再與人臉數(shù)據(jù)庫進(jìn)行比對(duì),最終得到最后的結(jié)果。

        (一)基于卷積神經(jīng)網(wǎng)絡(luò)人臉識(shí)別模型的構(gòu)建

        一般的卷積神經(jīng)網(wǎng)絡(luò)包含卷積層,池化層,全連接層等。其中卷積層的作用是通過卷積核與圖像進(jìn)行卷積操作,來實(shí)現(xiàn)對(duì)圖像的局部特征進(jìn)行感知,通過權(quán)值共享來實(shí)現(xiàn)對(duì)某一特征的提取,使用不同的卷積核可以提取出不同的特征圖。然后通過池化層來減少特征圖的維度,經(jīng)過多次卷積池化之后一般會(huì)接入全連接層,全連接層作用是轉(zhuǎn)換和圍定輸入輸出維度。

        本文使用的LeNet-5 模型是由Yann LeCun基于 LeNet 的基礎(chǔ)上改進(jìn)而來并被第一個(gè)應(yīng)用到手寫數(shù)字識(shí)別的CNN網(wǎng)絡(luò)。LeNet-5 模型的 7 層網(wǎng)絡(luò)結(jié)構(gòu)包含了卷積神經(jīng)網(wǎng)絡(luò)基本模塊,此模型包含C1、C3、C5三個(gè)卷積層,S2、S4 兩個(gè)池化層和F6、Output兩個(gè)全連接層。C1 卷積層有156個(gè)訓(xùn)練參數(shù);C3 卷積層需要訓(xùn)練的參數(shù)有1516個(gè);C5 卷積層網(wǎng)絡(luò)需要訓(xùn)練 48120個(gè)參數(shù)。池化層的作用是降低維度,S2池化層采用6個(gè)2×2的采樣區(qū)域;S4 池化層采用16個(gè)2×2的采樣區(qū)域。全連接層 F6 有84個(gè)神經(jīng)元節(jié)點(diǎn),接收C5 層輸出的 120 維向量,網(wǎng)絡(luò)訓(xùn)練參數(shù) 10164 個(gè);Output 層有10個(gè)神經(jīng)元節(jié)點(diǎn)。

        (二)系統(tǒng)的頁面設(shè)計(jì)

        系統(tǒng)的頁面是通過在MATLAB環(huán)境下設(shè)計(jì)GUI頁面實(shí)現(xiàn)的。通過GUI來實(shí)現(xiàn)顯示檢測的檢測到的人臉圖像,根據(jù)將數(shù)據(jù)庫中的圖像數(shù)據(jù)與檢測的進(jìn)行對(duì)比顯示識(shí)別的結(jié)果。

        四、 系統(tǒng)的優(yōu)化仿真以及實(shí)驗(yàn)結(jié)果

        (一)系統(tǒng)的優(yōu)化

        仿真所用的人臉圖像數(shù)據(jù)集由耶魯大學(xué)計(jì)算視覺與控制中心創(chuàng)建,包含了 15 個(gè)人,每人 11 張共 165 張圖片,數(shù)據(jù)庫里的人臉圖像包含了光照、表情和姿態(tài)的變化。初次實(shí)驗(yàn)得到的結(jié)果不理想,我們通過查閱資料所知傳統(tǒng)的特征提取方法LBP對(duì)光具有不敏感性,因此我們?cè)谡5腃NN上結(jié)合傳統(tǒng)的LBP,使新的“CNN”有更優(yōu)秀的泛化能力。新的CNN 實(shí)現(xiàn)步驟為:首先將數(shù)據(jù)庫人臉局部二值化處理,提取出人臉特征,新得的數(shù)據(jù)集用于擴(kuò)充原有數(shù)據(jù)集;其次將局部二值化的人臉圖像放入深度卷積網(wǎng)絡(luò)中訓(xùn)練,從而進(jìn)一步提高人臉識(shí)別率。

        (二)系統(tǒng)仿真及實(shí)驗(yàn)結(jié)果

        在實(shí)驗(yàn)仿真時(shí)我們將擴(kuò)充后的數(shù)據(jù)集按照7:3的比例劃分為訓(xùn)練集和測試集。訓(xùn)練采用隨機(jī)梯度下降SGD(stochastic gradient descent)方式迭代80次,基礎(chǔ)學(xué)習(xí)率為 0.05。訓(xùn)練集的正確率為 0.9655,訓(xùn)練集的正確率為0.9663,從而表明泛化效果比較好。實(shí)驗(yàn)結(jié)果如下圖2所示:

        五、總結(jié)

        本文通過采用卷積神經(jīng)網(wǎng)絡(luò)的方式來進(jìn)行人臉識(shí)別特征提取的發(fā)現(xiàn)單一的提取方法并不能將數(shù)據(jù)進(jìn)行的高效的識(shí)別。將傳統(tǒng)的特征提取方法LBP與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合通過訓(xùn)練結(jié)果顯示此方案有效。同時(shí)將傳統(tǒng)的特征提取方法與深入學(xué)習(xí)的方法相結(jié)合也可作為今后研究提高人臉識(shí)別識(shí)別率的一個(gè)思考方向。同時(shí)我們利用MATLAB軟件對(duì)我們的系統(tǒng)進(jìn)行了在線仿真,得到的效果良好。

        猜你喜歡
        人臉識(shí)別
        人臉識(shí)別 等
        揭開人臉識(shí)別的神秘面紗
        人臉識(shí)別技術(shù)的基本原理與應(yīng)用
        電子制作(2019年14期)2019-08-20 05:43:34
        人臉識(shí)別技術(shù)在高速公路打逃中的應(yīng)用探討
        基于(2D)2PCA-LBP 的人臉識(shí)別方法的研究
        電子制作(2017年17期)2017-12-18 06:40:55
        淺談人臉識(shí)別技術(shù)
        人臉識(shí)別在高校安全防范中的應(yīng)用
        電子制作(2017年1期)2017-05-17 03:54:46
        巡演完美收官 英飛拓引領(lǐng)人臉識(shí)別新潮流
        人臉識(shí)別在Android平臺(tái)下的研究與實(shí)現(xiàn)
        基于Metaface字典學(xué)習(xí)與核稀疏表示的人臉識(shí)別方法
        在线观看av国产自拍| 牛仔裤人妻痴汉电车中文字幕| 黄色三级一区二区三区| 亚洲乱码中文字幕综合久久| 日韩精品久久中文字幕| 国产日韩精品suv| 在线涩涩免费观看国产精品 | 久久人人爽人人爽人人av | 日本一区二三区在线中文| av在线播放亚洲天堂| 俺去啦最新地址| 丰满岳乱妇久久久| 中文人成影院| 熟妇人妻丰满少妇一区| 亚洲精品女同一区二区三区| 国产精品无码久久综合| 婷婷综合久久中文字幕蜜桃三电影| 91精品国产无码在线观看| 国产三级精品三级在线| 伊人情人色综合网站| 又粗又黄又猛又爽大片免费| 久久精品国产99国产精2020丨| 国产香蕉一区二区三区| 字幕网中文字幕精品一区| 草逼短视频免费看m3u8| 一本一道波多野结衣av中文| .精品久久久麻豆国产精品| 国产精品一区2区三区| 亚洲午夜精品国产一区二区三区 | 亚洲综合国产一区二区三区| 女高中生自慰污免费网站| 青青草精品在线免费观看| 中文字幕日韩有码在线| 成人精品天堂一区二区三区| www国产无套内射com| 日韩在线观看你懂的| 欧美精品一本久久男人的天堂| 免费播放成人大片视频 | 曰本无码人妻丰满熟妇啪啪| 人妻无码一区二区三区四区| 亚洲色欲久久久综合网|