亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于AlexNet 卷積神經(jīng)網(wǎng)絡(luò)模型的人臉識別方法與應(yīng)用

        2022-03-03 02:02:26張晨
        鄂州大學(xué)學(xué)報 2022年1期
        關(guān)鍵詞:人臉識別神經(jīng)元卷積

        張晨

        (廈門軟件職業(yè)技術(shù)學(xué)院 軟件工程系,福建廈門 361023)

        人臉識別技術(shù)作為當(dāng)下國內(nèi)外研究熱門,是一種利用圖像來匹配人臉特征從而區(qū)分個體的生物識別技術(shù)。人臉識別的過程主要包括人臉檢測定位、歸一化、特征提取、人臉識別幾個方面[1],已有的相關(guān)技術(shù)廣泛采用區(qū)域特征分析算法,并融合計算機(jī)圖像處理技術(shù)及生物統(tǒng)計學(xué)原理。人臉識別技術(shù)已有幾十年的發(fā)展歷程,逐漸由弱人工智能向強人工智能進(jìn)行轉(zhuǎn)化,已成為人工智能領(lǐng)域的重要應(yīng)用。隨著深度學(xué)習(xí)領(lǐng)域尤其是以卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)為代表的相關(guān)技術(shù)的快速發(fā)展,更加推動了人臉識別技術(shù)的發(fā)展。

        CNN 是一種深度學(xué)習(xí)模型,其本質(zhì)為前饋神經(jīng)網(wǎng)絡(luò),模型的工作方法和參數(shù)通常不需要人為過多干預(yù)即可完成特征提取和模式識別,相關(guān)模型可通過構(gòu)建深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練模式,來模擬人類大腦學(xué)習(xí)過程從而完成無監(jiān)督學(xué)習(xí)和有監(jiān)督學(xué)習(xí)。CNN 已廣泛滲透于規(guī)?;膱D像數(shù)據(jù)集的分類與識別領(lǐng)域,其中LeNet、AlexNet、VggNet、ResNet 是最為典型的四種網(wǎng)絡(luò)模型,其中AlexNet 網(wǎng)絡(luò)模型具有收斂快、不易過擬合、訓(xùn)練速度快等特點。本文主要對卷積神經(jīng)網(wǎng)絡(luò)特點出發(fā),針對人臉識別的過程基于AlexNet 卷積神經(jīng)網(wǎng)絡(luò)模型展開應(yīng)用研究。

        1 AlexNet 卷積神經(jīng)網(wǎng)絡(luò)模型

        1.1 卷積神經(jīng)網(wǎng)絡(luò)

        CNN 通過多層次網(wǎng)絡(luò)結(jié)構(gòu)的卷積運算來完成樣本圖像的深度抽象特征提取工作,模型能夠自適應(yīng)及自我學(xué)習(xí),在有限的條件下也能夠很好提取目標(biāo)圖像特征并完成分類。CNN 通常由輸入層、卷積層、池化層、全連接層及輸出層組成,不同的CNN網(wǎng)絡(luò),其卷積層與全連接層的數(shù)量也不相同。其中,輸入層用于接收樣本數(shù)據(jù)并進(jìn)行一定的預(yù)處理,網(wǎng)絡(luò)把輸入的原始數(shù)據(jù)通過一些簡單的非線性模型處理轉(zhuǎn)化為更深層次、更抽象的表達(dá),輸出層通常作為分類器完成模式分類。

        1)卷積層:CNN 網(wǎng)絡(luò)中的卷積層通過進(jìn)行卷積運算完成特征提取和特征映射,其中卷積核用于提取輸入圖片的不同特征,每個卷積層單元可以被理解為是圖像濾波器的集合。n 個卷積核的掃描將得到深度為n 的特征空間,即提取到了n 種類型的特征,卷積公式一般形式為:

        其中,yj為卷積層第j 個神經(jīng)元的輸出,f 為使用的激活函數(shù),Mj為輸入的特征空間,xi為上一層第i個神經(jīng)元結(jié)點的輸出,Wij為該層對應(yīng)上一層第i 個神經(jīng)元結(jié)點在當(dāng)前層第j 個神經(jīng)元結(jié)點間卷積核賦值的權(quán)重,bj為第j 個神經(jīng)元對應(yīng)的偏值置,n 為卷積核的位移量,*為卷積。在卷積神經(jīng)網(wǎng)絡(luò)中,卷積核越深則卷積后得到的特征圖數(shù)目相應(yīng)更多,同時該卷積層存儲的特征空間就更大,網(wǎng)絡(luò)模型學(xué)習(xí)效率也越高。但并不是層數(shù)越多越好,模型結(jié)構(gòu)越復(fù)雜計算量則越大。當(dāng)輸入矩陣大小為n×n、卷積核大小為f×f 時,卷積后輸出的卷積維度的大小為:

        2)池化層:位于卷積層之間,主要通過完成數(shù)據(jù)和參數(shù)的壓縮并降低特征維度,可達(dá)到減小模型的計算量和避免過擬合的目的。常用的有最大池化(Max-Pooling)和平均池化(Mean-Pooling),在特定需求下為了保留更多的圖像特征紋理,通常采用最大池化來輸出目標(biāo)區(qū)域中的最大值:

        其中,p 為池化窗口大小,即上一層輸出的特征圖縮放的倍數(shù)。

        3)全連接層:通常在卷積神經(jīng)網(wǎng)絡(luò)的末尾位置對特征進(jìn)行重新擬合,將含有類別區(qū)分性的部分信息進(jìn)行整合,減少特征信息的損失[2]。全連接層的每個神經(jīng)元都和上一層的全部神經(jīng)元相連接,同時每個神經(jīng)元對應(yīng)著一組權(quán)值與偏置值。常規(guī)的CNN網(wǎng)絡(luò)在輸出層基于softmax 激勵函數(shù)完成最后分類結(jié)果的輸出,把一個n 維的神經(jīng)元輸出向量y={y1,y2,y3…,yn} 轉(zhuǎn)換為與之對應(yīng)的另一個特征向量p={p1,p2,p3…,pn},其中所有向量值累加值為1,可等價于概率,故可以根據(jù)概率的大小來進(jìn)行分類的預(yù)測和判別,概率最大時就得到最優(yōu)分類[3]。

        4)激活函數(shù):由于卷積層的卷積計算是一種線性運算,因此需要通過激活函數(shù)來增加非線性映射,從而減少參數(shù)的相互依賴性,減緩模型的過擬合情況。激活函數(shù)可以將數(shù)據(jù)歸一化,避免模型產(chǎn)生線性依賴。常用的激活函數(shù)有Sigmoid、ReLU、Tanh 等。其中ReLU 函數(shù)具有收斂快、求梯度簡單的特點。

        1.2 AlexNet 網(wǎng)絡(luò)模型及算法流程

        AlexNet 是經(jīng)典的CNN 網(wǎng)絡(luò),由Krizhevsky[4]等于2012 年提出,是LeNet 的一種延伸,網(wǎng)絡(luò)引入隨機(jī)失活層來處理網(wǎng)絡(luò)中的過擬合,并使用激活函數(shù)ReLU 替代Sigmoid 作為激活函數(shù)使模型收斂速度得到提升。AlexNet 算法性能較為穩(wěn)定,是具有層次結(jié)構(gòu)的學(xué)習(xí)模型,可以通過卷積和采樣操作自適應(yīng)地來完成圖像深層特征的提取最后完成分類。AlexNet 模型結(jié)構(gòu)見圖1,網(wǎng)絡(luò)由五個卷積層和三個全連接層共八個層次構(gòu)成,其中最后一層全連接層完成模式識別分類工作。

        圖1 AlexNet 網(wǎng)絡(luò)模型結(jié)構(gòu)示意圖

        網(wǎng)絡(luò)模型的相關(guān)基本參數(shù)見表1,模型根據(jù)輸入的陣列自適應(yīng)得出當(dāng)前情況下行與列參數(shù)的值。

        表1 AlexNet 模型基本參數(shù)

        AlexNet 模型默認(rèn)輸入大小為227×227,對于人臉識別過程中經(jīng)過預(yù)處理后得到的黑白二值樣本,輸入AlexNet 的將是一個227×227 的二維神經(jīng)元。網(wǎng)絡(luò)的算法過程如下:

        Step1:輸入227×227×3 的樣本;

        Step2 :經(jīng)過卷積層conv1 的卷積操作生成227×227×d1的特征空間;

        Step3 :經(jīng)過池化層pool1 的池化操作后得到227/2×227/2×d1的特征空間;

        Step4:經(jīng)過卷積層conv2 的卷積操作生成227/2×227/2×d2的特征空間;

        Step5:經(jīng)過池化層pool2 的池化操作后得到227/4×227/4×d2的特征空間;

        Step6:經(jīng)過卷積層conv3 的卷積操作生成227/2×227/4×d3的特征空間;

        Step7:經(jīng)過卷積層conv4 的卷積操作生成227/2×227/4×d4的特征空間;

        Step8:經(jīng)過卷積層conv5 的卷積操作生成227/2×227/4×d5的特征空間;

        Step9:經(jīng)過卷積層pool3 的池化操作生成227/2×227/8×d5的特征空間;

        Step10:經(jīng)數(shù)據(jù)降維將特征空間轉(zhuǎn)化為m 維特征向量,并經(jīng)最后一個全連接層(softmax)輸出。其中,dn為卷積提取的特征空間的深度。

        2 應(yīng)用實驗與結(jié)果分析

        2.1 數(shù)據(jù)集選取及圖像預(yù)處理

        實驗所需的人臉圖像樣本選取尺寸適宜且樣本數(shù)據(jù)量較大的LFW 公開人臉數(shù)據(jù)集,該數(shù)據(jù)集是由來自全球范圍內(nèi)的部分知名人士在自然場景下不同表情、朝向、光照條件,共5749 個個體的13233 張人臉圖像構(gòu)成,數(shù)據(jù)集以彩色圖像為主,原始尺寸為250×250,每張圖片都有其唯一的姓名ID 和序號加以區(qū)分。由于數(shù)據(jù)集的樣本均來源于自然場景,尤其是在不同姿態(tài)、表情、年齡、光照、遮擋等因素下會使同一個個體對象拍攝出來的圖像差別較大,因此數(shù)據(jù)集的預(yù)處理工作尤為重要。實驗搭建的環(huán)境為An aconda(Python3.8,64bit)、PyCharm(Community2021.1.2),程序主要調(diào)取及采用PIL、Numpy、TensorFlow、OpenCV、Dlib 等庫,同時利用輕量、高性能的Tornado,編寫發(fā)布一個簡單的web 頁面作為前端人機(jī)交互窗口。圖像的預(yù)處理通過OpenCV 中GaussianBlur 函數(shù)完成高斯濾波,降低客觀環(huán)境條件帶來的圖像噪聲;使用cvtColor函數(shù)完成圖像的灰度化,將彩色RGB 圖像到灰度圖像進(jìn)行轉(zhuǎn)換,轉(zhuǎn)化后圖像為單通道的灰度圖;使用threshold 函數(shù)完成圖像的二值化,將整個圖像處理轉(zhuǎn)化為只有黑與白的視覺效果的圖像;使用resize 函數(shù)將原始樣本歸一化為227×227 的尺寸,契合模型輸入要求。同時完成所有樣本的數(shù)據(jù)類別標(biāo)注工作,利用Numpy 庫將圖片信息和類別標(biāo)簽信息轉(zhuǎn)化為array 矩陣格式。

        2.2 圖像預(yù)處理及卷積模型的訓(xùn)練分析

        采用了由五個卷積層、三個全連接層組成的AlexNet 網(wǎng)絡(luò)模型,池化層采用最大池化,其大小為3×3,激活函數(shù)采用的是ReLU,程序調(diào)取及采用TensorFlow 庫進(jìn)行模型的訓(xùn)練。為了使模型更具魯棒性,通過添加隨機(jī)噪聲、水平和垂直翻轉(zhuǎn)、適度旋轉(zhuǎn)或扭曲、亮度與對比度調(diào)節(jié)等非生成式的方法將每個樣本圖片隨機(jī)變換為12 個不同的樣本,再整合按照7:3 拆分為訓(xùn)練集和驗證集,輸入到卷積神經(jīng)網(wǎng)絡(luò)中。訓(xùn)練的基本參數(shù)設(shè)置見表2,其他參數(shù)為缺省參數(shù),模型根據(jù)輸入的陣列自適應(yīng)得出當(dāng)前情況下行與列參數(shù)的值,訓(xùn)練過程將對參數(shù)進(jìn)行優(yōu)化微調(diào)。

        表2 AlexNet 網(wǎng)絡(luò)模型訓(xùn)練基本參數(shù)

        訓(xùn)練參數(shù)將直接影響到模型的整體性能,尤其是訓(xùn)練次數(shù)的設(shè)置,次數(shù)過少網(wǎng)絡(luò)仍在學(xué)習(xí)中,過多則網(wǎng)絡(luò)易出現(xiàn)過擬合,為了得到最佳的效果根據(jù)損失值隨訓(xùn)練次數(shù)的變化趨勢,隨著訓(xùn)練次數(shù)的增加損失值呈現(xiàn)下降的趨勢,模型逐漸收斂,當(dāng)訓(xùn)練到30 Epoch 后,曲線雖有小幅度波動但整體趨勢逐漸接近于0 并更加趨于穩(wěn)定,網(wǎng)絡(luò)達(dá)到穩(wěn)定狀態(tài),此時可以結(jié)束當(dāng)前訓(xùn)練,見圖2。

        圖2 損失值隨訓(xùn)練次數(shù)的變化趨勢

        模型利用利益權(quán)值共享方式減少參數(shù)數(shù)量、提升效率。隨著網(wǎng)絡(luò)進(jìn)一步的加深,網(wǎng)絡(luò)提取到的特征將進(jìn)一步組合及抽象化,卷積網(wǎng)絡(luò)得到的特征也逐步向訓(xùn)練數(shù)據(jù)樣本的特征靠攏。權(quán)值共享和池化操作使卷積提升了網(wǎng)絡(luò)模型模型的訓(xùn)練效率。將得到的特征向量輸入到softmax 分類器中,經(jīng)過分類器的學(xué)習(xí)和訓(xùn)練,以完成最后的人臉識別檢測。

        2.3 實驗結(jié)果分析

        由于模型和實驗環(huán)境的條件,隨機(jī)選取預(yù)處理后的樣本組合成六個測試集進(jìn)行測試,每個測試集的樣本數(shù)量為300。測試數(shù)據(jù)結(jié)果由真負(fù)類(True Negative,TN)、真正類(True Positive,TP)來表示;識別錯誤的結(jié)果由假正類(False Positive,F(xiàn)P)、假負(fù)類(False Negative,F(xiàn)N)表示。在本文中,TP 表示將人臉正類預(yù)測為正類數(shù),F(xiàn)N 表示將人臉正類預(yù)測為負(fù)類數(shù),F(xiàn)P 表示將人臉負(fù)類預(yù)測為正類數(shù),TN 表示將人臉負(fù)類預(yù)測為負(fù)類數(shù)。實驗結(jié)果將正確率的高低作為主要指標(biāo),同時F1-Score 數(shù)值越接近于1 則表明分類識別的效果越好。得到綜合評價結(jié)果見表3:

        表3 AlexNet 網(wǎng)絡(luò)模型測試結(jié)果

        3 結(jié)語

        基于AlexNet 卷積神經(jīng)網(wǎng)絡(luò)模型對人臉識別的方法及應(yīng)用展開研究,利用卷積神經(jīng)網(wǎng)絡(luò)具有強大的特征學(xué)習(xí)能力,可以實現(xiàn)對圖像特征深層次的描述的特點。使用公開數(shù)據(jù)集并完成圖像預(yù)處理后,隨后完成模型訓(xùn)練、參數(shù)調(diào)優(yōu),最后利用訓(xùn)練好的模型完成人臉識別檢測。實驗結(jié)果表明在本實驗的環(huán)境和數(shù)據(jù)集的基礎(chǔ)上AlexNet 卷積神經(jīng)網(wǎng)絡(luò)可以較好得完成人臉識別。后續(xù)將進(jìn)一步進(jìn)行實際生產(chǎn)環(huán)境的人臉識別系統(tǒng)的部署研究與實驗。

        猜你喜歡
        人臉識別神經(jīng)元卷積
        人臉識別 等
        《從光子到神經(jīng)元》書評
        自然雜志(2021年6期)2021-12-23 08:24:46
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        揭開人臉識別的神秘面紗
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        躍動的神經(jīng)元——波蘭Brain Embassy聯(lián)合辦公
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        基于二次型單神經(jīng)元PID的MPPT控制
        基于類獨立核稀疏表示的魯棒人臉識別
        毫米波導(dǎo)引頭預(yù)定回路改進(jìn)單神經(jīng)元控制
        久久久久久人妻一区精品| 国精产品推荐视频| 亚洲色欲久久久综合网东京热| 亚洲精品午夜无码电影网| 制服丝袜天堂国产日韩| 一区二区三区国产视频在线观看| 中文字幕亚洲乱码熟女1区2区| 久久99精品久久久久麻豆| 国产乱子伦农村叉叉叉| 国产夫妻av| 亚洲国产精品成人一区| 亚洲女人毛茸茸粉红大阴户传播 | 亚洲国产综合久久天堂 | 亚洲人成电影在线播放| 久久国产自偷自免费一区100| 久久婷婷国产五月综合色| 国产亚洲精品视频一区二区三区 | 96免费精品视频在线观看| 精品人妻一区二区三区蜜臀在线 | 成人在线观看av毛片| 免费视频成人片在线观看| chinese国产乱在线观看| 一区二区三区不卡免费av| 成人自拍小视频在线看| 999精品无码a片在线1级| 内射少妇36p九色| 无码a级毛片免费视频内谢| 国产一区二区三区口爆在线| 男女性杂交内射妇女bbwxz| 玩弄放荡人妻一区二区三区| 激情人妻中出中文字幕一区| 午夜桃色视频在线观看| 亚洲av午夜福利精品一区| 日本强好片久久久久久aaa| 亚洲va精品va国产va| 日韩人妖视频一区二区| 无码人妻久久一区二区三区不卡 | 婷婷色综合成人成人网小说| 国产高跟丝袜在线诱惑| 黄污在线观看一区二区三区三州| 欧美大肥婆大肥bbbbb|