亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于非對稱卷積-壓縮激發(fā)-次代殘差網(wǎng)絡(luò)的人臉關(guān)鍵點檢測

        2021-09-18 06:22:40王賀兵張春梅
        計算機應(yīng)用 2021年9期
        關(guān)鍵詞:關(guān)鍵點檢測

        王賀兵,張春梅

        (北方民族大學計算機科學與工程學院,銀川 750021)

        (*通信作者電子郵箱chunmei66@hotmail.com)

        0 引言

        人臉關(guān)鍵點檢測作為計算機視覺主要研究方向之一[1],其應(yīng)用場景包括人臉表情識別[2]、人臉追蹤[3]、身份驗證[4]等。雖然被廣泛地研究,但是存在多尺度人臉、復雜表情、光照、姿態(tài)和遮擋等情況,獲取高精度人臉關(guān)鍵點仍是一個具有挑戰(zhàn)性的問題。

        人臉關(guān)鍵點檢測是一項檢測人臉面部關(guān)鍵點位置的視覺任務(wù)[5],即在一張給定的人臉圖像坐標系中,定位出人臉面部關(guān)鍵區(qū)域的坐標,例如眼睛、嘴角、臉部輪廓等。本文是對人臉左眼、右眼、鼻尖、左嘴角和右嘴角五點進行定位。

        人臉關(guān)鍵點檢測算法從建模方法上劃分大體可以分為三類:

        1)基于形狀優(yōu)化建模。活動形狀模型(Active Shape Model,ASM)[6]將人臉關(guān)鍵點坐標構(gòu)建成形狀向量,人臉對齊計算出平均形狀向量然后進行主成分分析(Principal Component Analysis,PCA)降維得到形狀模型,為每一個關(guān)鍵點提取局部特征,以局部特征作為約束條件迭代匹配直至收斂。活動外觀模型(Active Appearance Model,AAM)[7]是由ASM 活動形狀模型改進而來,算法在構(gòu)建形狀模型的基礎(chǔ)上還構(gòu)建了紋理模型,將形狀模型與紋理模型融合再PCA 降維形成AAM 模型。ASM 與AAM 的泛化能力較差,對差異性較大的人臉準確率會下降,同時這種近似窮舉搜索的方式在一定程度上也影響了計算效率。

        2)基于級聯(lián)回歸建模:級聯(lián)回歸算法一般需要訓練一系列回歸器,通過級聯(lián)回歸器逐步將初始形狀回歸到關(guān)鍵點真實位置,每一步回歸器的計算都依賴于先前回歸器的輸出。級聯(lián)姿態(tài)回歸(Cascaded Pose Regression,CPR)[8]把由數(shù)據(jù)集形狀向量計算出的平均人臉作為輸入,提取姿態(tài)索引特征送入回歸器,將回歸偏移量加上當前階段形狀向量作為下一階段形狀向量,遞歸至收斂。CPR 很依賴回歸函數(shù)和人工特征的選擇,其有效程度會直接影響人臉關(guān)鍵點定位的精度。

        3)基于深度學習建模。神經(jīng)網(wǎng)絡(luò)具有近似擬合任意函數(shù)的能力,因此被廣泛地應(yīng)用在各個領(lǐng)域中,并取得了相當矚目的成果。級聯(lián)深度卷積神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Neural Network,DCNN)算法[9]首次將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[10]應(yīng)用到人臉關(guān)鍵點檢測任務(wù)中,同時結(jié)合了級聯(lián)回歸的思想,采用多階段級聯(lián)CNN 回歸策略,在人臉五點檢測上取得了相當高的精度。級聯(lián)DCNN 算法精心設(shè)計了三個階段:第一階段以整張人臉和裁剪后的左右眼鼻尖、鼻尖左右嘴角作為輸入,分別用來預測人臉五點、左右眼和鼻尖、鼻尖和左右嘴角的坐標,然后對預測的結(jié)果取平均值作為第一階段的輸出;第二階段以第一階段輸出的結(jié)果為中心對原圖像進行分割,將含有左右眼、鼻尖、左右嘴角的分割結(jié)果作為輸入,每兩個CNN 預測一個人臉器官的坐標偏差,取平均后作為該器官在第二階段的輸出;第三階段在第二階段的輸出結(jié)果上對原圖像進行裁剪預處理后作為輸入,同樣每兩個CNN 預測一個人臉器官的坐標偏差,取平均后作為該器官在第三階段的輸出,算法流程如圖1 所示。整個算法以第一階段預測結(jié)果為基礎(chǔ),經(jīng)第二、三階段結(jié)果矯正后,作為整個算法最終的輸出。精心設(shè)計的級聯(lián)DCNN 算法雖然取得了很高的精度,但是算法使用了三個階段來對人臉關(guān)鍵點坐標進行回歸計算,相鄰階段間還需要繁瑣的圖像預處理,整個算法流程相當?shù)貜碗s。

        圖1 級聯(lián)DCNN算法流程Fig.1 Flowchart of cascade DCNN algorithm

        為解決級聯(lián)算法在人臉五點檢測上不僅需要多階段回歸還需要在相鄰階段間進行圖像預處理的問題,本文在次代殘差網(wǎng)絡(luò)(Next Residual Network,ResNeXt)[11]基礎(chǔ)上,添加非對稱卷積(Asymmetric Convolution,AC)[12]結(jié)構(gòu),強化網(wǎng)絡(luò)空間學習能力提升對翻轉(zhuǎn)、旋轉(zhuǎn)圖像的魯棒性,添加壓縮激發(fā)結(jié)構(gòu)(Squeeze Excitation,SE)[13],提高特征映射的通道相關(guān)性,構(gòu)建出非對稱卷積-壓縮激發(fā)ResNeX(tAsymmetric Convolution-Squeeze Excitation ResNeXt,AC-SE-ResNeXt)網(wǎng)絡(luò),只使用單階段一個AC-SE-ResNeXt 網(wǎng)絡(luò)便可以完成人臉五點關(guān)鍵點檢測任務(wù)。

        本文的主要工作如下:1)在ResNeXt 網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上添加AC結(jié)構(gòu)和SE結(jié)構(gòu),強化網(wǎng)絡(luò)空間學習和通道學習;2)為了能精確擬合復雜環(huán)境下人臉,將AC-SE-ResNeXt 網(wǎng)絡(luò)模型加深到101 層,在單階段只使用一個網(wǎng)絡(luò)情況下,不僅達到了級聯(lián)策略的精度還降低了檢測失敗率,提高了算法魯棒性。

        1 相關(guān)網(wǎng)絡(luò)結(jié)構(gòu)

        1.1 ResNeXt塊結(jié)構(gòu)

        在訓練網(wǎng)絡(luò)時,隨著網(wǎng)絡(luò)深度增加,輸出結(jié)果會逐漸增至飽和后迅速退化,He等[14]為解決深度網(wǎng)絡(luò)中存在的網(wǎng)絡(luò)退化問題,提出殘差網(wǎng)絡(luò)(Residual Network,ResNet),在ResNet 中核心部分是殘差單元,使得網(wǎng)絡(luò)可以進行殘差學習和恒等映射,同時由于恒等映射ResNet 在一定程度上也能緩解梯度消失的問題。

        ResNeXt 保留了ResNet 的恒等映射部分,將殘差學習由單路徑卷積擴展成多路徑分組卷積,多路徑分組卷積遵循分割、轉(zhuǎn)換、合并范式,輸入數(shù)據(jù)會被分別送入到數(shù)量為分支基數(shù)(Cardinality)的多路徑中,各路徑獨立進行卷積計算,計算結(jié)果以通道為基準進行連接,ResNeXt塊如圖2所示。

        圖2 ResNeXt塊結(jié)構(gòu)Fig.2 Structure of ResNeXt block

        1.2 非對稱卷積模塊

        非對稱卷積結(jié)構(gòu)在非對稱卷積網(wǎng)絡(luò)(Asymmetric Convolution Network,ACNet)中最先被使用,利用CNN 卷積核中權(quán)重與權(quán)重空間位置的關(guān)系強化普通卷積層,添加水平方向和豎直方向卷積運算提升模型對翻轉(zhuǎn)和旋轉(zhuǎn)圖像的魯棒性。文獻[10]通過剪枝實驗證明,在卷積核中不同空間位置的權(quán)重其重要性也不同,中間骨架的權(quán)重最為重要,因此在訓練網(wǎng)絡(luò)時,可以將單路徑n×n卷積拆分成n×n、n× 1 和1×n三路卷積,在測試時將三路卷積權(quán)重線性相加重新合并成n×n,通過骨架權(quán)重合并的方式強化卷積層所提取的空間特征,同時還保持原測試網(wǎng)絡(luò)結(jié)構(gòu)不變,非對稱卷積模塊如圖3所示。

        圖3 非對稱卷積模塊示意圖Fig.3 Schematic diagram of asymmetric convolution module

        1.3 壓縮激發(fā)模塊

        壓縮激發(fā)網(wǎng)絡(luò)(Squeeze-and-Excitation Network,SENet)從特征通道相關(guān)性的角度出發(fā)構(gòu)建網(wǎng)絡(luò)模型,通過強化特征映射中重要通道的特征,減弱不重要通道的特征來增強卷積層所提取特征的指向性。SENet 的核心是壓縮激發(fā)結(jié)構(gòu),此結(jié)構(gòu)共分為兩個過程:壓縮與激發(fā)。對高寬通道數(shù)分別為H×W×C的輸入,首先進行全局平均池化(Global Average Pooling,GAP),輸出為1× 1×C的數(shù)據(jù),該過程稱為壓縮;然后對1× 1×C的輸入進行兩級全連接(Full Connection,F(xiàn)C),該過程稱為激發(fā);最后把激活函數(shù)Sigmoid的輸出1× 1×C作為一個縮放尺度乘到原輸入H×W×C的C個通道上,作為下一級的輸入,壓縮激發(fā)模塊的結(jié)構(gòu)如圖4所示。

        圖4 壓縮激發(fā)模塊結(jié)構(gòu)Fig.4 Structure of squeeze-and-excitation module

        2 AC?SE?ResNeXt人臉關(guān)鍵點檢測算法

        2.1 AC-SE-ResNeXt塊結(jié)構(gòu)

        本文算法是在自行設(shè)計的網(wǎng)絡(luò)結(jié)構(gòu)AC-SE-ResNeXt 基礎(chǔ)上對人臉五個關(guān)鍵點:左眼(Left Eye center,LE)、右眼(Right Eye center,RE)、鼻尖(Nose tip,N)、左嘴角(Left Mouth corner,LM)和右嘴角(Right Mouth corner,RM)進行檢測。AC-SE-ResNeXt 網(wǎng)絡(luò)結(jié)構(gòu)的核心組成部分是AC-SE-ResNeXt塊,如圖5所示。

        圖5 AC-SE-ResNeXt塊Fig.5 AC-SE-ResNeXt block

        輸入數(shù)據(jù)為矩陣X(b,h,w,c),其中:b表示一次送入網(wǎng)絡(luò)中樣本的數(shù)量即批量;h和w、c分別表示輸入矩陣的高、寬和通道數(shù)。數(shù)據(jù)進入AC-SE-ResNeXt 塊后會先進行批量歸一化(Batch Normalization,BN)[15]操作,以消除網(wǎng)絡(luò)在訓練過程中由于參數(shù)更新導致每一層輸入數(shù)據(jù)分布不穩(wěn)定所帶來的學習速度下降和梯度消失的問題。在單通道上批量歸一化可形式化表示為:

        其中:n表示通道且0 ≤n≤c-1;參數(shù)ε是一個很小的常數(shù),保證分母大于0;兩個可學習的超參數(shù)γ和β分別表示拉伸量和偏移量。經(jīng)BN 操作輸出的數(shù)據(jù)會由整流線性單元(Rectified Linear Unit,ReLU)作非線性映射,由此之后數(shù)據(jù)將分別流向恒等映射和殘差學習兩條分支。恒等映射分支會檢查輸入數(shù)據(jù)與輸出數(shù)據(jù)的通道匹配度,若不匹配則采用1× 1卷積擴充通道使之匹配,1× 1卷積運算具體可表示為:

        其中:m表示一次送入網(wǎng)絡(luò)中樣本的數(shù)量且0 ≤m≤b-1。圖5 中恒等映射分支卷積操作CONV 1× 1× 64 × 256 表示卷積核的尺寸為1× 1,輸入通道數(shù)為64,輸出通道數(shù)為256。

        為了使殘差學習分支可以提取出更豐富的特征,在ResNeXt 的分割、轉(zhuǎn)換、合并范式基礎(chǔ)上替換普通卷積為AC結(jié)構(gòu),以提高卷積層的空間信息提取能力和對翻轉(zhuǎn)、旋轉(zhuǎn)圖像的魯棒性,同時添加SE 結(jié)構(gòu),在網(wǎng)絡(luò)訓練過程中為特征映射的不同通道學習一個權(quán)重系數(shù),強化重要通道特征,弱化不重要通道特征,結(jié)合通道相關(guān)性增強特征映射的表征。殘差學習分支的1× 1 卷積通過學習特征映射通道相關(guān)性將輸入數(shù)據(jù)各個通道映射到新的特征空間中,卷積結(jié)果會被送入并行的多路徑中,每條路徑采用相同的拓撲結(jié)構(gòu)但訓練參數(shù)相互獨立,給層間結(jié)構(gòu)更多可以根據(jù)數(shù)據(jù)自動調(diào)節(jié)的空間,提高特征提取能力。其中基于硬件性能的考慮,本文使用了8 條并行路徑。在每條路徑層間連接的轉(zhuǎn)換部分借鑒了非對稱卷積思想,將單路徑3× 3 卷積拆分成3× 1、1× 3 和3× 3 三路并行卷積,不同尺寸卷積核的卷積運算聚焦不同的空間信息,把提取到的多尺度特征進行線性相加融合,強化卷積核骨架部分提取的特征,使得映射結(jié)果包含更豐富的空間信息。融合后的數(shù)據(jù)經(jīng)過ReLU 函數(shù)作非線性映射,各個分支的輸出結(jié)果以通道為基準進行連接合并,上述過程可表示為:

        其中:X為輸入矩陣;CONVn×n(?)表示卷積核尺寸為n×n的卷積運算;BN(?)為批量歸一化運算;C(?)表示以輸入矩陣通道為基準的連接運算。

        數(shù)據(jù)矩陣流動到SE 結(jié)構(gòu)會分為兩條分支:一條分支上的數(shù)據(jù)會原樣向下傳遞。另一條分支會對數(shù)據(jù)矩陣先進行GAP運算,即:

        其中:n表示通道且0 ≤n≤c-1。基于通道的整體信息來對原始數(shù)據(jù)矩陣進行降維,每一個矩陣切片的均值代表該通道初始權(quán)重。然后連接神經(jīng)元個數(shù)為的FC 層,其中c表示輸入數(shù)據(jù)的通道數(shù)目,r為一個超參數(shù),本文使用的數(shù)值為16。經(jīng)激活函數(shù)ReLU 運算后再連接神經(jīng)元個數(shù)為c的FC層,以保證跟原始數(shù)據(jù)通道匹配,最后sigmoid 函數(shù)將結(jié)果限制到范圍[0,1]內(nèi)。把通過訓練集學習出的權(quán)重系數(shù)乘到原始數(shù)據(jù)對應(yīng)通道上,使得不同通道的特征指向性更強。

        2.2 算法網(wǎng)絡(luò)結(jié)構(gòu)

        AC-SE-ResNeXt 將整張人臉圖像作為網(wǎng)絡(luò)的輸入,輸出網(wǎng)絡(luò)回歸的人臉關(guān)鍵點坐標。一張人臉圖像X∈Rq×1,其中q為圖像像素個數(shù),Y∈R2p×1表示輸出的p個關(guān)鍵點(p=5)坐標。整個人臉關(guān)鍵點檢測任務(wù)就是去學習一個人臉圖像輸入矩陣到人臉器官坐標輸出的映射函數(shù)f:X→Y,其中函數(shù)f需滿足關(guān)系:

        其中:向量Yt表示真實人臉器官坐標。從數(shù)學角度來看,人臉關(guān)鍵點回歸任務(wù)其實是一個逼近問題,在給定的訓練樣本中去學習一個映射函數(shù),用深度神經(jīng)網(wǎng)絡(luò)來求解回歸問題,那么映射函數(shù)的形式便是神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。神經(jīng)網(wǎng)絡(luò)具有近似擬合任意函數(shù)的能力,通過加深網(wǎng)絡(luò)和改進網(wǎng)絡(luò)結(jié)構(gòu),可以使網(wǎng)絡(luò)的擬合能力更強,近似精度更高。

        人臉圖像具有紋理結(jié)構(gòu)性的特點,即一般雙眼在鼻子上方,嘴巴在鼻子下方,器官間的相對位置固定。網(wǎng)絡(luò)在學習人臉關(guān)鍵點與對應(yīng)坐標的映射關(guān)系時,需要將人臉器官間相互約束的結(jié)構(gòu)性信息隱含其中,顯式地學習像素點到坐標的回歸關(guān)系,同時還需要隱式地學習圖像全局上下文信息,結(jié)合這兩方面的信息輸出預測結(jié)果。為了使網(wǎng)絡(luò)提取出更豐富的特征,從空間學習和通道學習兩個方面加強網(wǎng)絡(luò)特征提取能力,同時為了保證預測結(jié)果的精度,將整個網(wǎng)絡(luò)加深到101 層,AC-SE-ResNeXt 網(wǎng)絡(luò)結(jié)構(gòu)概覽如圖6 所示。人臉邊界框由先驗知識人臉檢測器得到,依據(jù)邊界框坐標將裁剪后的人臉圖像送入網(wǎng)絡(luò)中。網(wǎng)絡(luò)結(jié)構(gòu)詳細信息如表1所示。

        表1 AC-SE-ResNeXt網(wǎng)絡(luò)詳細信息Tab.1 AC-SE-ResNeXt network details

        圖6 AC-SE-ResNeXt網(wǎng)絡(luò)結(jié)構(gòu)概覽圖Fig.6 Overview of AC-SE-ResNeXt network structure

        3 實驗與結(jié)果分析

        平均誤差率和失敗率被廣泛地應(yīng)用于人臉關(guān)鍵點檢測算法中[16-19],誤差率和失敗率可以評價整個算法的準確性和可靠性。平均誤差率定義為:

        其中:(x,y)和(x′,y′)分別表示關(guān)鍵點的真實坐標和網(wǎng)絡(luò)預測的坐標;歸一化參數(shù)w可以是人臉檢測器檢測出的人臉框邊長,也可以是人臉雙目間距離。平均誤差率超過給定的閾值則被認為檢測失敗。為了與其他算法作比對,本文使用人臉雙目距離作為歸一化參數(shù),失敗率閾值設(shè)置為10%。

        3.1 實驗數(shù)據(jù)

        數(shù)據(jù)集分為三個部分:訓練集、驗證集和測試集。其中,訓練集和驗證集是由級聯(lián)DCNN 算法所使用的13 466 張人臉圖像數(shù)據(jù)增強(旋轉(zhuǎn)、平移)而來,增強后的數(shù)據(jù)共26 932 張,訓練集與驗證集分別使用了21 632 張和5 300 張。測試集使用的是公共數(shù)據(jù)集BioID[20]和LFPW[21],BioID 數(shù)據(jù)集中的人臉圖像是在實驗室條件下采集得到,LFPW 數(shù)據(jù)集則是從網(wǎng)絡(luò)上搜集的人臉圖像。對得到的公共數(shù)據(jù)集首先要進行數(shù)據(jù)清理,剔除掉數(shù)據(jù)集中因格式損壞、人臉邊界框偏差過大而無法使用的人臉圖像,經(jīng)處理后的BioID 數(shù)據(jù)集和LFPW 數(shù)據(jù)集分別為1 471 張、662 張。同時,BioID 數(shù)據(jù)集中的人臉圖像為單通道灰度圖像,為了保持網(wǎng)絡(luò)輸入通道一致性,將BioID 數(shù)據(jù)集單通道的人臉圖像擴充為三通道。

        3.2 實驗細節(jié)與縱向?qū)Ρ?/h3>

        本文所提AC-SE-ResNeXt 人臉關(guān)鍵點檢測算法的訓練和測試均是基于開源深度學習框架,其中網(wǎng)絡(luò)訓練過程中所使用的損失函數(shù)為:

        網(wǎng)絡(luò)權(quán)重采用Xavier[22]初始化方法,學習率設(shè)置為0.01,同時網(wǎng)絡(luò)在訓練過程中會依據(jù)提前設(shè)置的計劃表動態(tài)調(diào)整學習率,在經(jīng)過120、240 和300 次迭代時,會分別使學習率減小為原來的1/10,最終學習率為0.000 01,整個算法的迭代次數(shù)為450。訓練過程中使用L2正則減少過擬合,其中正則化參數(shù)設(shè)置為0.000 1。使用Adam[23]優(yōu)化器對損失函數(shù)即式(10)進行優(yōu)化,訓練批量的大小BatchSize設(shè)置為676。

        縱向?qū)Ρ葘嶒灠l(fā)現(xiàn)會造成結(jié)果產(chǎn)生明顯性差異的參數(shù)是網(wǎng)絡(luò)深度,實驗初期選用深度為50 層,其他參數(shù)設(shè)置基本相同的網(wǎng)絡(luò)結(jié)構(gòu),實驗結(jié)果精度上不如101 層網(wǎng)絡(luò),具體對比如表2~3所示。

        表2 在LFPW測試集上50層網(wǎng)絡(luò)與101層網(wǎng)絡(luò)的平均誤差率 單位:%Tab.2 Mean error rate of 50-layer network and 101-layer network on LFPW test set unit:%

        表3 在BioID測試集上50層網(wǎng)絡(luò)與101層網(wǎng)絡(luò)的平均誤差率 單位:%Tab.3 Mean error rate of 50-layer network and 101-layer network on BioID test set unit:%

        3.3 實驗結(jié)果分析

        為了驗證本文算法在人臉關(guān)鍵點檢測上的有效性,除了與級聯(lián)DCNN 算法[9]進行比較外,同時與已有的人臉五點關(guān)鍵點檢測算法和商業(yè)軟件進行比較。統(tǒng)計對比各個算法在LFPW、BioID 測試集上平均誤差率和失敗率如表4~7 所示。本文算法在測試集LFPW 上右眼平均誤差率低于級聯(lián)DCNN算法,左眼、鼻尖、左嘴角和右嘴角平均誤差率略高于級聯(lián)DCNN 算法,明顯優(yōu)于其他算法;各個關(guān)鍵點失敗率均低于其他算法,所有算法的綜合平均誤差率如表6~7所示,其中本文算法綜合平均誤差率為2.3%,級聯(lián)DCNN 算法綜合平均誤差率為2.19%。在測試集BioID上鼻尖、右嘴角平均誤差率低于級聯(lián)DCNN 算法,左眼、右眼和左嘴角略高于級聯(lián)DCNN 算法,較其他算法有明顯的優(yōu)勢;左右眼失敗率略高于級聯(lián)DCNN 算法,剩余關(guān)鍵點失敗率均低于其他算法,其中本文算法綜合平均誤差率為1.99%,級聯(lián)DCNN 算法綜合平均誤差率為2.02%。本文算法在平均誤差率上與級聯(lián)DCNN 算法相差不大,相較于其他算法優(yōu)勢明顯;在失敗率上相較于其他算法有所提升,說明本文算法在關(guān)鍵點檢測過程中魯棒性更強,可靠性上更有優(yōu)勢。

        表4 不同算法在LFPW測試集上的平均誤差率 單位:%Tab.4 Mean error rates of different algorithms on LFPW test set unit:%

        表5 不同算法在BioID測試集上的平均誤差率 單位:%Tab.5 Mean error rates of different algorithms on BioID test set unit:%

        表6 不同算法在LFPW測試集上的失敗率與綜合平均誤差率 單位:%Tab.6 Failure rates and comprehensive average error rates of different algorithms on LFPW test set unit:%

        圖7 為在驗證集、LFPW 和BioID 測試集上人臉關(guān)鍵點檢測結(jié)果示例,在不同光照、姿態(tài)、表情、面部遮擋等多種環(huán)境下,本文算法均能較為準確地定位到人臉左眼、右眼、鼻尖、左嘴角和右嘴角關(guān)鍵點的位置。

        圖7 在驗證集、LFPW和BioID測試集上的人臉關(guān)鍵點檢測結(jié)果示例Fig.7 Examples of facial landmark detection results on validation set,LFPW and BioID test sets

        4 結(jié)語

        為解決級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)策略在人臉關(guān)鍵點檢測中不僅需要多階段回歸還需要在相鄰階段間進行圖像預處理的問題,本文基于ResNeXt 網(wǎng)絡(luò)結(jié)構(gòu),結(jié)合ACNet、SENet 的思想,提出了基于AC-SE-ResNeXt 網(wǎng)絡(luò)的人臉關(guān)鍵點檢測算法。實驗結(jié)果表明,在網(wǎng)絡(luò)結(jié)構(gòu)上增加非對稱卷積模塊、壓縮激發(fā)模塊,強化網(wǎng)絡(luò)所提取的空間特征和特征通道相關(guān)性,增加網(wǎng)絡(luò)深度,可以有效地提高人臉關(guān)鍵點檢測精度,增強算法魯棒性,將級聯(lián)策略下多階段人臉關(guān)鍵點回歸模型簡化為端到端的單階段單網(wǎng)絡(luò)回歸模型。

        表7 不同算法在BioID測試集上的失敗率與綜合平均誤差率 單位:%Tab.7 Failure rates and comprehensive average error rates of different algorithms on BioID test set unit:%

        本文所設(shè)計的AC-SE-ResNeXt 網(wǎng)絡(luò)模型雖說可以達到與級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)策略相似的精度,但是整個網(wǎng)絡(luò)深度也達到了101 層。如何對網(wǎng)絡(luò)結(jié)構(gòu)進行壓縮以及嘗試使用回歸熱力圖進行訓練和檢測是接下來的研究方向。

        猜你喜歡
        關(guān)鍵點檢測
        聚焦金屬關(guān)鍵點
        肉兔育肥抓好七個關(guān)鍵點
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        豬人工授精應(yīng)把握的技術(shù)關(guān)鍵點
        小波變換在PCB缺陷檢測中的應(yīng)用
        醫(yī)聯(lián)體要把握三個關(guān)鍵點
        日日噜噜夜夜久久密挑| 亚洲爆乳少妇无码激情| 亚洲综合色秘密影院秘密影院| 日韩精品免费在线视频| 日本人妻系列中文字幕| 专干老熟女视频在线观看| 日韩精品人妻系列无码专区免费| 国产欧美日韩图片一区二区| 成人免费毛片立即播放| 免费无遮挡无码永久在线观看视频 | 久久国产欧美日韩高清专区| 国内精品国产三级国产avx| 人妖av手机在线观看| 99精品国产一区二区| 久久99国产精品尤物| 精品国产一区二区三区男人吃奶 | 亚洲一区二区三区免费av在线| 日韩精品一区二区三区乱码| а天堂中文最新一区二区三区 | 久久这里有精品国产电影网| 亚洲精品综合中文字幕组合| 亚洲高清乱码午夜电影网| 亚洲av无码一区二区三区在线| 欧美亚洲另类 丝袜综合网| 亚洲天堂一区二区偷拍| 免费人成视频x8x8入口| 国产白丝在线| 国产精品亚洲在钱视频| 亚洲蜜芽在线精品一区| 日韩美女av一区二区三区四区| 中国老熟妇506070| 这里只有久久精品| 人妻尤物娇呻雪白丰挺| 日韩人妻无码精品一专区二区三区| 日躁夜躁狠狠躁2001| 色播中文字幕在线视频| 高清国产国产精品三级国产av| 亚洲精品色婷婷在线影院| 亚洲成av人最新无码| 久久国产亚洲av高清色| 成人欧美一区二区三区黑人|