亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向人臉識(shí)別的Small-FRNet模型研究*

        2021-11-24 11:53:04黃躍俊
        傳感器與微系統(tǒng) 2021年11期
        關(guān)鍵詞:人臉識(shí)別深度特征

        黃躍俊, 白 創(chuàng)

        (長(zhǎng)沙理工大學(xué) 物理與電子科學(xué)學(xué)院,湖南 長(zhǎng)沙 410114)

        0 引 言

        人臉識(shí)別技術(shù)作為一門重要的生物特征識(shí)別技術(shù),已被廣泛應(yīng)用于身份驗(yàn)證領(lǐng)域。傳統(tǒng)人臉識(shí)別方法多是基于人工特征加分類器的思路,而人工特征屬于淺層表示,不足以表達(dá)高維的非線性人臉特征,導(dǎo)致人臉識(shí)別精度偏低[1]。由于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)能通過訓(xùn)練學(xué)習(xí)到深層次的隱性人臉特征,極大地提高了人臉識(shí)別準(zhǔn)確率,因此,在人臉識(shí)別領(lǐng)域得到了廣泛的研究和應(yīng)用[2]。

        近年來,Taigman Y等人[3]提出的DeepFace采用尺寸較大的卷積核,引入多個(gè)權(quán)重不共享的局部卷積層,增加了特征的多樣性。文獻(xiàn)[4,5]提出的DeepID系列網(wǎng)絡(luò),通過擴(kuò)大卷積層的通道數(shù)、采用連續(xù)卷積層等來增加網(wǎng)絡(luò)的寬度和深度,同時(shí)擴(kuò)充訓(xùn)練集,使得網(wǎng)絡(luò)性能有了較大的提升。Schroff F等人[6]提出的FaceNet采用三元組損失函數(shù),提高了特征的判別性,但三元組的選擇容易受壞數(shù)據(jù)的影響,導(dǎo)致模型陷入局部最優(yōu)乃至崩潰。

        這些卷積網(wǎng)絡(luò)結(jié)構(gòu)雖然通過增加網(wǎng)絡(luò)的層數(shù)能提高人臉識(shí)別精度,但網(wǎng)絡(luò)參數(shù)量和計(jì)算量也會(huì)成倍增加,需要耗費(fèi)更多的硬件資源和推理時(shí)間。針對(duì)卷積神經(jīng)網(wǎng)絡(luò)參數(shù)多、計(jì)算開銷大及推理時(shí)間長(zhǎng)的問題,采用了深度可分離卷積(depth separable convolution)和全局平均池化技術(shù)對(duì)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行設(shè)計(jì),同時(shí)通過加入中心損失優(yōu)化目標(biāo)函數(shù),提出一種小型、識(shí)別精度更高的Small-FRNet(small face recognition network)模型。

        1 Small-FRNet模型

        1.1 傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)

        圖1為L(zhǎng)eNet—5卷積神經(jīng)網(wǎng)絡(luò)。如圖1所示,傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)由輸入層、隱含層和輸出層三個(gè)部分組成。其中,輸入層為32×32的單通道圖像;隱含層負(fù)責(zé)對(duì)輸入圖像進(jìn)行特征提??;輸出層則預(yù)測(cè)出其所屬類別。

        圖1 LeNet—5卷積神經(jīng)網(wǎng)絡(luò)

        傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)的隱含層通常由卷積層、池化層和全連接層組成。當(dāng)卷積步長(zhǎng)為1、零填充時(shí),卷積層計(jì)算公式為

        式中W為k×k的卷積核,b為偏置值,X為M×N的輸入特征圖,H為(M-k+1)×(N-k+1)的輸出特征圖。由式(1)可知,卷積運(yùn)算包含了繁雜的乘法操作,且當(dāng)輸入特征圖X和卷積核W越大,更加增加了計(jì)算開銷。

        同時(shí)卷積神經(jīng)網(wǎng)絡(luò)中包含的全連接層雖然能有效地預(yù)測(cè)出特征表示的所屬類別,但是其計(jì)算量也十分龐大。

        綜上所述,傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)存在著運(yùn)算量大、參數(shù)量多等問題。因此本文采用深度可分離卷積和全局平均池化技術(shù)從網(wǎng)絡(luò)結(jié)構(gòu)上進(jìn)行改進(jìn),并聯(lián)合中心損失(center-loss)作為監(jiān)督信號(hào),提出了一種小型的、識(shí)別精度更高的Small-FRNet網(wǎng)絡(luò)。

        1.2 改進(jìn)的Small-FRNet模型

        圖2為Small-FRNet網(wǎng)絡(luò)。該網(wǎng)絡(luò)主要由深度可分離卷積層和全局平均池化層組成。相比傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)采用堆疊的深度可分離卷積層對(duì)輸入圖像實(shí)現(xiàn)高級(jí)特征提取,并以全局池化層作為特征表示層,減少網(wǎng)絡(luò)參數(shù)量和計(jì)算量。考慮局部信息會(huì)存在丟失,全局平均池化層還增加了與第五層的深度可分離卷積層的連接。此外在訓(xùn)練過程中聯(lián)合了SoftMax損失和中心損失(center-loss)作為監(jiān)督信號(hào),提高網(wǎng)絡(luò)的人臉識(shí)別精度。

        圖2 Small-FRNet網(wǎng)絡(luò)

        表1為Small-FRNet網(wǎng)絡(luò)參數(shù)配置。由表可知,Small-FRNet網(wǎng)絡(luò)的輸入為68×68的RGB三通道人臉圖像,每個(gè)卷積層采用了3×3或1×1的小卷積核,且均使用了ReLU激活函數(shù)。同時(shí)除DS Conv6卷積層保持不變外,每組卷積層的輸出特征圖大小成倍減少,輸出通道數(shù)則成倍遞增。此外整個(gè)網(wǎng)絡(luò)的參數(shù)量約為3.6×106個(gè),計(jì)算量約為72.3×106次。

        表1 Small-FRNet網(wǎng)絡(luò)的參數(shù)配置

        2 關(guān)鍵部件實(shí)現(xiàn)

        2.1 深度可分離卷積

        深度可分離卷積是標(biāo)準(zhǔn)卷積的一種分解形式[7,8],它將標(biāo)準(zhǔn)卷積分解成兩部分:Depthwise卷積和Pointwise卷積。圖3展示了將標(biāo)準(zhǔn)卷積分解成Depthwise卷積和Pointwise卷積的過程。Depthwise卷積負(fù)責(zé)對(duì)每個(gè)輸入通道采用單個(gè)濾波器進(jìn)行運(yùn)算(即Filter操作);Pointwise卷積采用1×1卷積組合Depthwise卷積的輸出(即Combine操作)。而標(biāo)準(zhǔn)卷積的Filter和Combine操作是在一個(gè)步驟內(nèi)同時(shí)完成的。

        圖3 標(biāo)準(zhǔn)卷積分解成Depthwise卷積和Pointwise卷積的過程

        假設(shè)標(biāo)準(zhǔn)卷積的輸入特征圖F大小為DF×DF,輸入通道數(shù)為M;輸出特征圖G大小也為DF×DF,輸出通道數(shù)為N。且卷積核K大小為DK×DK,步長(zhǎng)為1,有填充。則不考慮偏置時(shí),深度可分離卷積層與標(biāo)準(zhǔn)卷積層的計(jì)算量之比為

        而第一項(xiàng)中N取值往往相對(duì)較大,可以忽略。因此,當(dāng)DK取值為3時(shí),相比于標(biāo)準(zhǔn)卷積層,深度可分離卷積層的計(jì)算量能降低9倍。

        2.2 全局平均池化層

        全局平均池化層是指通過對(duì)每個(gè)輸入特征圖的整個(gè)區(qū)域求均值,以作為對(duì)應(yīng)特征圖的輸出[9]。圖4為全連接層與全局平均池化層的對(duì)比。假設(shè)輸入特征圖個(gè)數(shù)為n,則全局平均池化層輸出特征維度也為n,通過先對(duì)輸入特征圖分別進(jìn)行累加求均值,再送入SoftMax層計(jì)算出屬于各個(gè)類別的概率值,概率最大的即為所預(yù)測(cè)的類別。相比全連接層,全局平均池化層沒有額外參數(shù)和復(fù)雜的乘法,有效地降低了計(jì)算開銷;同時(shí)全局平均池化層對(duì)網(wǎng)絡(luò)結(jié)構(gòu)直接進(jìn)行了正則化,緩解了過擬合現(xiàn)象。

        圖4 全連接層與全局平均池化層的對(duì)比

        2.3 聯(lián)合監(jiān)督信號(hào)

        傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)使用SoftMax損失函數(shù)作為監(jiān)督信號(hào)來進(jìn)行訓(xùn)練。而對(duì)于人臉識(shí)別任務(wù)而言,SoftMax損失僅能促進(jìn)特征的可分離性,并不能提取出具有判別性的特征。因此,本文在SoftMax損失的基礎(chǔ)上,加入中心損失[10],構(gòu)建聯(lián)合監(jiān)督信號(hào)作為損失函數(shù)。

        假設(shè)訓(xùn)練樣本為xi(i=1,2,...,m),m為迭代時(shí)樣本個(gè)數(shù),yi為樣本xi所屬類別,cyi為第yi類的類別中心,則中心損失Lossc和聯(lián)合監(jiān)督信號(hào)Loss分別為

        式中Losss為SoftMax損失;W,b分別為SoftMax層的權(quán)重和偏置;λ為比例系數(shù),用于平衡SoftMax損失和中心損失之間的比例。在訓(xùn)練過程中,SoftMax損失迫使不同類別的特征保持分離;同時(shí)中心損失最小化特征與其類別中心之間的距離。因此,在聯(lián)合監(jiān)督信號(hào)的作用下,既擴(kuò)大了類間差異,又減少了類內(nèi)差異,從而提高特征的判別性。

        3 結(jié)果與分析

        本文基于TensorFlow框架實(shí)現(xiàn)Small-FRNet模型,采用CASIA-WebFace人臉庫(kù)(包含10 575個(gè)人,共494 414張人臉圖片)作為訓(xùn)練數(shù)據(jù)集,按4∶1的比例分成訓(xùn)練集和驗(yàn)證集,訓(xùn)練過程中將圖片水平翻轉(zhuǎn)、區(qū)域裁剪及尺寸縮放進(jìn)行數(shù)據(jù)擴(kuò)增,并在LFW人臉庫(kù)(包含5 749個(gè)人,共13 233張人臉圖片)上進(jìn)行測(cè)試。實(shí)驗(yàn)中,分別對(duì)比分析了深度可分離卷積與標(biāo)準(zhǔn)卷積、全局平均池化層與全連接層及聯(lián)合監(jiān)督信號(hào)與SoftMax損失,最后將Small-FRNet模型與其他的人臉模型進(jìn)行性能比較。

        1)深度可分離卷積層與標(biāo)準(zhǔn)卷積層的對(duì)比

        表2為深度可分離卷積與標(biāo)準(zhǔn)卷積在近似性能下的參數(shù)量和計(jì)算量對(duì)比。由表可知,在相同網(wǎng)絡(luò)深度和卷積核尺寸下,采用深度可分離卷積層時(shí)網(wǎng)絡(luò)識(shí)別準(zhǔn)確率為89.78 %,相比標(biāo)準(zhǔn)卷積層,僅有略微下降,但其參數(shù)量和計(jì)算量分別減少8.5 %和22.3 %。因此,在獲得近似識(shí)別精度下可以采用深度可分離卷積替代標(biāo)準(zhǔn)卷積來構(gòu)建卷積神經(jīng)網(wǎng)絡(luò),以減少網(wǎng)絡(luò)的參數(shù)量和計(jì)算量。

        表2 深度可分離卷積與標(biāo)準(zhǔn)卷積在近似性能下的參數(shù)量和計(jì)算量對(duì)比

        2)全局平均池化層與全連接層的對(duì)比

        表3為全局平均池化層與全連接層在近似性能下的計(jì)算量和參數(shù)量對(duì)比。由表可知,相比全連接層,以全局平均池化層作為特征表示層時(shí),全局平均池化層的參數(shù)量和計(jì)算量可忽略不計(jì),同時(shí)網(wǎng)絡(luò)的識(shí)別精度為95.58 %,能獲得近似的識(shí)別性能。因此,能采用全局平均池化層作為特征表示層來降低網(wǎng)絡(luò)的參數(shù)和計(jì)算量。

        表3 全局平均池化層與全連接層在近似性能下的計(jì)算量和參數(shù)量對(duì)比

        3)聯(lián)合監(jiān)督信號(hào)與SoftMax損失的對(duì)比

        聯(lián)合監(jiān)督信號(hào)與SoftMax損失在LFW數(shù)據(jù)集上的準(zhǔn)確率對(duì)比,二者準(zhǔn)確率分別為99.25 %和95.68 %。相比單一的SoftMax損失,聯(lián)合SoftMax損失和中心損失作為監(jiān)督信號(hào),提高了網(wǎng)絡(luò)識(shí)別精度近4 %。因此,通過在SoftMax Loss基礎(chǔ)上加入中心損失對(duì)目標(biāo)函數(shù)進(jìn)行優(yōu)化,能有效地提高特征的判別性,改善網(wǎng)絡(luò)的識(shí)別精度。

        4)Small-FRNet模型與其他模型的性能對(duì)比

        表4為Small-FRNet模型與其他模型在LFW數(shù)據(jù)集上的準(zhǔn)確率對(duì)比。由表可知,相比其他模型,Small-FRNet的人臉識(shí)別準(zhǔn)確率最高,達(dá)到了99.38 %,同時(shí)該模型的參數(shù)量和計(jì)算量最少,相比DeepFace網(wǎng)絡(luò)分別降低了97 %和86 %。因此,通過采用深度可分離卷積、全局平均池化技術(shù)和中心損失等來構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)模型,能有效地減少網(wǎng)絡(luò)的參數(shù)和計(jì)算量,提高人臉識(shí)別準(zhǔn)確率。

        表4 Small-FRNet模型與其他模型在LFW數(shù)據(jù)集上的準(zhǔn)確率對(duì)比

        4 結(jié)束語(yǔ)

        本文提出了一種Small-FRNet模型,采用深度可分離卷積對(duì)標(biāo)準(zhǔn)卷積進(jìn)行分解,減少了網(wǎng)絡(luò)的參數(shù)量和計(jì)算量,再以全局平均池化層替代全連接層作為特征表示層,進(jìn)一步簡(jiǎn)化了網(wǎng)絡(luò)結(jié)構(gòu),最后通過聯(lián)合SoftMax損失與中心損失作為監(jiān)督信號(hào)對(duì)損失函數(shù)進(jìn)行優(yōu)化,即在SoftMax-loss的基礎(chǔ)上,加入中心損失函數(shù),迫使特征向所屬類別中心聚攏,從而擴(kuò)大類間差異,縮小類內(nèi)差異,提高了特征的判別性,有利于識(shí)別精度的提升。

        猜你喜歡
        人臉識(shí)別深度特征
        人臉識(shí)別 等
        深度理解一元一次方程
        揭開人臉識(shí)別的神秘面紗
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        深度觀察
        深度觀察
        深度觀察
        抓住特征巧觀察
        基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
        毛片一级精油按摩无码| 中国女人做爰视频| 免费观看又污又黄的网站| 亚洲AV无码一区二区三区性色学| 激情视频在线观看免费播放| 国产精品久久久在线看| 怡红院av一区二区三区| 国产精品女同一区二区| www.尤物视频.com| 丁香婷婷六月综合缴清| 2019最新中文字幕在线观看| 久久无码av三级| 亚洲高清精品50路| 国产成人亚洲精品91专区高清| 少妇性俱乐部纵欲狂欢电影| 欧美三级乱人伦电影| 国产黄片一区视频在线观看| 色和尚色视频在线看网站| 久久99热狠狠色精品一区| 亚洲av色福利天堂| 99久久无色码中文字幕鲁信| 精品高清免费国产在线| 黑色丝袜秘书夹住巨龙摩擦| 亚洲成年网站在线777| 人妻少妇粉嫩av专区一| 欧美日韩午夜群交多人轮换| 国产超碰人人模人人爽人人喊| 97久久综合区小说区图片专区| 蜜桃在线高清视频免费观看网址 | 亚洲最大av网站在线观看| 美女胸又www又黄的网站| 激情人妻中出中文字幕一区| 永久免费视频网站在线| a级特黄的片子| 91亚洲精品福利在线播放 | 久久99久久99精品中文字幕| 国产亚洲精品A在线无码| 亚洲中文乱码在线视频| 色狠狠色狠狠综合天天| 无码人妻一区二区三区免费| 亚洲av熟女天堂系列|