亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度殘差和特征金字塔網(wǎng)絡(luò)的實(shí)時(shí)多人臉關(guān)鍵點(diǎn)定位算法

        2019-01-06 07:27:07謝金衡張炎生
        計(jì)算機(jī)應(yīng)用 2019年12期

        謝金衡 張炎生

        摘 要:針對人臉關(guān)鍵點(diǎn)定位算法需要分為人臉區(qū)域檢測與單人臉關(guān)鍵點(diǎn)定位兩個(gè)步驟,導(dǎo)致處理時(shí)間成倍增加的情況,提出一步到位的實(shí)時(shí)且準(zhǔn)確的多人臉關(guān)鍵點(diǎn)定位算法。該算法將人臉關(guān)鍵點(diǎn)坐標(biāo)生成對應(yīng)的熱度圖作為數(shù)據(jù)標(biāo)簽,利用深度殘差網(wǎng)絡(luò)完成前期的圖像特征提取,使用特征金字塔網(wǎng)絡(luò)融合在不同網(wǎng)絡(luò)深度中表征不同尺度感受野的信息特征,應(yīng)用中間監(jiān)督思想,級聯(lián)多個(gè)預(yù)測網(wǎng)絡(luò)由粗到精地一次性回歸圖中所有人臉的關(guān)鍵點(diǎn),而無需人臉檢測步驟。在保持高定位精度的同時(shí),該算法完成一次前向傳播只需要約0.0075s(約每秒133幀),滿足了實(shí)時(shí)人臉關(guān)鍵點(diǎn)定位的要求,且在WFLW測試集中取得了6.06%的平均誤差與11.70%的錯(cuò)誤率。

        關(guān)鍵詞:殘差網(wǎng)絡(luò);特征金字塔網(wǎng)絡(luò);實(shí)時(shí)人臉關(guān)鍵點(diǎn)定位;中間監(jiān)督

        中圖分類號: TP391.4文獻(xiàn)標(biāo)志碼:A

        Real-time multi-face landmark localization algorithm based on

        deep residual and feature pyramid neural network

        XIE Jinheng, ZHANG Yansheng*

        (College of Electronic and Information Engineering, Guangdong Ocean University, Zhanjiang Guangdong 524088, China)

        Abstract: Most face landmark detection algorithms include two steps: face detection and face landmark localization, increasing the processing time. Aiming at the problem, a one-step and real-time algorithm for multi-face landmark localization was proposed. The corresponding heatmaps were generated as data labels by the face landmark coordinates. Deep residual network was used to realize the early feature extraction of image and feature pyramid network was used to fuse the information features representing receptive fields with different scales in different network depths. And then based on intermediate supervision, multiple landmark prediction networks were cascaded to realize the one-step coarse-to-fine facial landmark regression without face detection. With high accuracy localization, a forward propagation of the proposed algorithm only takes about 0.0075s (133 frames per second), satisfying the requirement of real-time facial landmark localization. And the proposed algorithm has achieved the mean error of 6.06% and failure rate of 11.70% on Wider Facial Landmarks in-the-Wild (WFLW) dataset.

        Key words: residual network; feature pyramid network; real-time face landmark localization; intermediate supervision

        0 引言

        人臉在視覺信息傳達(dá)中有著重要的作用,通過人臉信息可以獲得許多非語言信息,例如人的身份、年齡、表情和意圖。為準(zhǔn)確獲取這些信息,人臉關(guān)鍵點(diǎn)定位通常是許多人臉應(yīng)用中一個(gè)首要且非常關(guān)鍵的步驟,例如人臉識別[1-2]、人臉驗(yàn)證[3-4]、表情分析。但由于人臉常常伴隨著豐富的表情變化、外界光照程度、妝容以及物體遮擋等隨機(jī)因素,同時(shí)實(shí)際應(yīng)用中需要得到快速的響應(yīng),使得快速且精準(zhǔn)定位人臉關(guān)鍵點(diǎn)仍是計(jì)算機(jī)視覺中一個(gè)非常具有挑戰(zhàn)性的任務(wù)。

        目前,絕大多數(shù)人臉關(guān)鍵點(diǎn)定位算法直接使用數(shù)據(jù)集中提供的人臉區(qū)域坐標(biāo),著重針對單張人臉關(guān)鍵點(diǎn)定位,對多人臉情況未作充分考慮,使得實(shí)際應(yīng)用中需要定位圖中多個(gè)人臉的關(guān)鍵點(diǎn)時(shí),首先需要額外使用人臉檢測網(wǎng)絡(luò)獲得圖片中的人臉區(qū)域坐標(biāo),然后將檢測得到的人臉區(qū)域依次送入關(guān)鍵點(diǎn)定位網(wǎng)絡(luò),最后獲得人臉關(guān)鍵點(diǎn)坐標(biāo)。圖片中人臉數(shù)量增多時(shí)會直接導(dǎo)致處理時(shí)間成本成倍增加,同時(shí),人臉檢測效果的好壞也會直接影響人臉關(guān)鍵點(diǎn)定位的準(zhǔn)確性。因此,本文提出算法一次性定位圖中所有人臉的關(guān)鍵點(diǎn),解除了人臉檢測步驟與關(guān)鍵點(diǎn)定位步驟的耦合性,在更短時(shí)間內(nèi)檢測更多人臉的關(guān)鍵點(diǎn)。

        與直接利用坐標(biāo)回歸關(guān)鍵點(diǎn)的方法不同,本文借鑒了人體姿態(tài)估計(jì)算法[5-10]利用熱度圖來回歸人體關(guān)鍵點(diǎn)的思想,采用一個(gè)中間監(jiān)督網(wǎng)絡(luò),由粗到精地回歸關(guān)鍵點(diǎn)。本文算法的網(wǎng)絡(luò)結(jié)構(gòu)使用特征金字塔網(wǎng)絡(luò)融合不同尺度的感受野信息,從而充分利用卷積神經(jīng)網(wǎng)絡(luò)淺層與深層的語義特征,減少關(guān)鍵點(diǎn)預(yù)測網(wǎng)絡(luò)中卷積核的使用來減少參數(shù)冗余,使網(wǎng)絡(luò)完成一次前向傳播過程只需要約0.0075s(約每秒133幀),完全滿足了實(shí)時(shí)人臉關(guān)鍵點(diǎn)定位的需求。本文算法的流程如圖1所示。

        訓(xùn)練與評估數(shù)據(jù)集中的每張圖片中只有部分人臉標(biāo)注有98個(gè)關(guān)鍵點(diǎn),而本文方法是回歸圖中所有人臉的關(guān)鍵點(diǎn),導(dǎo)致圖中未被標(biāo)注的人臉成為了訓(xùn)練過程中的強(qiáng)烈干擾,所以必須首先對數(shù)據(jù)集作充分的預(yù)處理,即為圖中未被標(biāo)注的人臉生成矩形二進(jìn)制掩碼,在計(jì)算網(wǎng)絡(luò)損失前將其與預(yù)測網(wǎng)絡(luò)的輸出進(jìn)行點(diǎn)乘,去除干擾。本文還將人臉標(biāo)注分為上半臉45個(gè)關(guān)鍵點(diǎn)與下半臉53個(gè)關(guān)鍵點(diǎn)兩部分,如圖2(c),分別采用上、下兩個(gè)并行分支與一級中間監(jiān)督網(wǎng)絡(luò),使其達(dá)到更容易、由粗到精地回歸人臉關(guān)鍵點(diǎn)的效果。

        1 相關(guān)工作

        目前,基于深度學(xué)習(xí)的人臉關(guān)鍵點(diǎn)定位方法主要包含兩種:一是將關(guān)鍵點(diǎn)坐標(biāo)向量作為標(biāo)簽,利用神經(jīng)網(wǎng)絡(luò)建立輸入圖片與人臉關(guān)鍵點(diǎn)坐標(biāo)向量間的映射關(guān)系;二是利用人臉關(guān)鍵點(diǎn)坐標(biāo)生成各類關(guān)鍵點(diǎn)的概率分布熱度圖,建立輸入圖片與關(guān)鍵點(diǎn)熱度圖間的映射關(guān)系,將坐標(biāo)回歸問題轉(zhuǎn)化為熱度圖回歸問題??傮w而言,基于熱度圖回歸的模型往往更容易訓(xùn)練,并且可以取得更好的效果。

        其中關(guān)鍵點(diǎn)坐標(biāo)回歸這種方法將關(guān)鍵點(diǎn)坐標(biāo)向量作為標(biāo)簽,神經(jīng)網(wǎng)絡(luò)直接學(xué)習(xí)如何將輸入圖片映射為關(guān)鍵點(diǎn)坐標(biāo)向量。多任務(wù)卷積網(wǎng)絡(luò)(Multi-Task Convolutional Neural Network, MTCNN)[11]用三個(gè)獨(dú)立的神經(jīng)網(wǎng)絡(luò)P-Net、R-Net與O-Net由粗到精地回歸人臉關(guān)鍵點(diǎn),用P-Net網(wǎng)絡(luò)生成人臉建議框并使用非極大值抑制得到第一階段的候選窗口,將結(jié)果輸入到R-Net網(wǎng)絡(luò),對得到的輸出進(jìn)一步使用非極大值抑制剔除重復(fù)的候選窗口,最后通過O-Net同時(shí)輸出人臉區(qū)域坐標(biāo)與五個(gè)關(guān)鍵點(diǎn)坐標(biāo)。雖然獨(dú)立的多階段網(wǎng)絡(luò)可以使結(jié)果逐漸優(yōu)化,但是數(shù)據(jù)預(yù)處理復(fù)雜,訓(xùn)練過程調(diào)試難度高,較難保證獲得最優(yōu)的結(jié)果。兩步重初始化(Two-Stage Re-initialization, TSR)方法[12]將人臉分為多個(gè)部分,分別對每個(gè)部分的關(guān)鍵點(diǎn)坐標(biāo)進(jìn)行回歸,降低了輸入圖像特征的復(fù)雜度,卻也忽略了整個(gè)人臉區(qū)域的全局關(guān)系。雖然關(guān)鍵點(diǎn)坐標(biāo)回歸方法直接將坐標(biāo)作為數(shù)據(jù)標(biāo)簽,無需作任何的坐標(biāo)預(yù)處理,但是此類方法往往沒有基于熱度圖回歸的方法表現(xiàn)優(yōu)異。

        而關(guān)鍵點(diǎn)熱度圖回歸方法對每類關(guān)鍵點(diǎn)生成對應(yīng)的概率分布熱度圖,讓網(wǎng)絡(luò)回歸關(guān)鍵點(diǎn)熱度圖。這類方法在人體姿態(tài)估計(jì)[5-10]、人臉關(guān)鍵點(diǎn)定位等計(jì)算機(jī)視覺任務(wù)中均取得了非常好的成績。Kowalski等[13]采用級聯(lián)深度神經(jīng)網(wǎng)絡(luò),將整張人臉作為輸入,充分考慮人臉的全局信息,解決了頭部姿態(tài)變化帶來的泛化能力降弱的問題,輸出為人臉關(guān)鍵點(diǎn)熱度圖。Cao等[5]使用圖像分類網(wǎng)絡(luò)提取圖像特征,并級聯(lián)多個(gè)7×7大卷積核組成預(yù)測網(wǎng)絡(luò)使其擁有更充足的參數(shù)來更準(zhǔn)確地?cái)M合人體關(guān)鍵點(diǎn)檢測數(shù)據(jù)集。Wu等[14]不僅采用關(guān)鍵點(diǎn)熱度圖回歸方法,而且考慮到人臉部分關(guān)鍵點(diǎn)間具有一定的幾何邊界關(guān)系,同時(shí)生成邊界熱度圖來輔助神經(jīng)網(wǎng)絡(luò)對人臉關(guān)鍵點(diǎn)的定位,提升了定位精度。此類方法利用生成的概率分布的關(guān)鍵點(diǎn)熱度圖,巧妙地將坐標(biāo)回歸轉(zhuǎn)化為學(xué)習(xí)關(guān)鍵點(diǎn)坐標(biāo)周圍的概率分布,容許一定的偏差,且建立的是圖像像素矩陣與熱度圖矩陣之間的映射關(guān)系,更契合在圖像識別領(lǐng)域中表現(xiàn)優(yōu)異的卷積神經(jīng)網(wǎng)絡(luò),使網(wǎng)絡(luò)更容易擬合數(shù)據(jù)。

        2 本文方法

        近年來,深度學(xué)習(xí)方法在各項(xiàng)計(jì)算機(jī)視覺任務(wù)中表現(xiàn)出色,基于深度學(xué)習(xí)方法的人臉關(guān)鍵點(diǎn)定位算法在WFLW(Wider Facial Landmarks in-the-Wild)[14]、300-W(300 faces in-the-Wild challenge)[15]、AFLW(Annotated Facial Landmarks in-the-Wild)[16]、COFW(Caltech Occluded Faces in-the-Wild)[17]等數(shù)據(jù)集中也取得了非常出色的成績。同時(shí),數(shù)據(jù)集中標(biāo)注的人臉關(guān)鍵點(diǎn)個(gè)數(shù)也日益趨多,CelebA(CelebFaces Attributes dataset) 、300-W[15]和WFLW[14]標(biāo)注的人臉關(guān)鍵點(diǎn)分別是5、68、98,見圖2(a)、(b)。本文采用WFLW[14]數(shù)據(jù)集作為算法的訓(xùn)練集和測試集,為使網(wǎng)絡(luò)更容易地學(xué)習(xí)關(guān)鍵點(diǎn)周圍的概率分布,降低單個(gè)預(yù)測網(wǎng)絡(luò)擬合數(shù)據(jù)的難度,將人臉分為上、下兩個(gè)部分,見圖2(c),采用兩個(gè)并行分支回歸人臉關(guān)鍵點(diǎn),同時(shí)采用一個(gè)中間監(jiān)督網(wǎng)絡(luò),驅(qū)使預(yù)測網(wǎng)絡(luò)由粗到精地回歸關(guān)鍵點(diǎn)熱度圖。

        2.1 數(shù)據(jù)集預(yù)處理

        WFLW數(shù)據(jù)集(來源于Wider Face人臉檢測數(shù)據(jù)集)中有7500張標(biāo)記了98個(gè)關(guān)鍵點(diǎn)的人臉作為訓(xùn)練集,2500張人臉作為測試集。本文方法是一次性回歸圖片中所有人臉的關(guān)鍵點(diǎn),沒有經(jīng)過人臉檢測步驟,導(dǎo)致與WFLW數(shù)據(jù)集的標(biāo)注方式中存在這種矛盾——WFLW中一張圖片中出現(xiàn)多個(gè)人臉時(shí),只有其中的一部分人臉被標(biāo)注關(guān)鍵點(diǎn),這使得未被標(biāo)注的人臉成為網(wǎng)絡(luò)訓(xùn)練時(shí)的強(qiáng)烈噪聲,嚴(yán)重影響神經(jīng)網(wǎng)絡(luò)的模型學(xué)習(xí)。為去除這些干擾,本文利用Wider Face數(shù)據(jù)集中的人臉區(qū)域標(biāo)注,將其與WFLW數(shù)據(jù)集中已被標(biāo)注的人臉區(qū)域作差集,獲得未被標(biāo)注的人臉區(qū)域,利用它生成二進(jìn)制掩碼M∈R384×384×1,掩碼M中,在未被標(biāo)注的人臉區(qū)域像素值為0,其余為1,圖3為掩碼效果。實(shí)際操作是在網(wǎng)絡(luò)計(jì)算損失之前將二進(jìn)制掩碼分別與正確的關(guān)鍵點(diǎn)熱圖和預(yù)測的關(guān)鍵點(diǎn)熱度圖點(diǎn)乘,使噪聲區(qū)域不參與損失計(jì)算和反向傳播。通過數(shù)據(jù)標(biāo)簽格式的改變,將單人臉關(guān)鍵點(diǎn)定位轉(zhuǎn)化為多人臉關(guān)鍵點(diǎn)定位。

        2.2 關(guān)鍵點(diǎn)熱度圖

        為將人臉關(guān)鍵點(diǎn)坐標(biāo)回歸轉(zhuǎn)化為關(guān)鍵點(diǎn)熱度圖回歸,首先對每類人臉關(guān)鍵點(diǎn)生成二維關(guān)鍵點(diǎn)熱度圖C*n,k(p)作為正確標(biāo)簽,即每張熱度圖像素中的數(shù)值代表輸入圖片中第n個(gè)人臉的第k個(gè)關(guān)鍵點(diǎn)存在于像素點(diǎn)p∈R2的概率,如圖4所示。假設(shè)Xn,k為已標(biāo)注的人臉關(guān)鍵點(diǎn)的坐標(biāo),則C*n,k中像素點(diǎn)p∈R2的數(shù)值可由以下計(jì)算式表示:

        在WFLW數(shù)據(jù)集中,本文對每張樣本圖片生成了100張48×48分辨率的關(guān)鍵點(diǎn)熱度圖(其中有兩張為其余關(guān)鍵點(diǎn)熱度圖的疊加,無預(yù)測意義,但可形成一定的人臉邊界關(guān)系,類似于邊界熱度圖輔助關(guān)鍵點(diǎn)回歸)作為正確標(biāo)簽,其中每張熱度圖對應(yīng)樣本圖片中全部人臉的其中一類關(guān)鍵點(diǎn),并將其分成上分支46個(gè)與下分支54個(gè)分別對應(yīng)圖2(a),上半臉(標(biāo)號:33~75,96~97)與下半臉(標(biāo)號:0~32,76~95)。

        為更方便代碼復(fù)現(xiàn),本文提供訓(xùn)練網(wǎng)絡(luò)時(shí)使用的硬件設(shè)備參數(shù)。CPU為i7-8700 3.4GHz,內(nèi)存為16GB RAM,顯卡為8GB GTX1080 Graphics。訓(xùn)練時(shí)使用Pytorch深度學(xué)習(xí)框架,Adam優(yōu)化器,未設(shè)置正則化,設(shè)置初始學(xué)習(xí)率為0.0001,Batch size為10,迭代120輪后,將學(xué)習(xí)率調(diào)整為0.00001。大約花費(fèi)一天時(shí)間在WFLW數(shù)據(jù)集中迭代了200輪,最后的損失在0.00015左右震蕩,見圖7。從訓(xùn)練損失曲線圖看來,最終,fine效果比coarse的效果更好,表明本文使用的中間監(jiān)督網(wǎng)絡(luò)對后續(xù)預(yù)測網(wǎng)絡(luò)具有一定的優(yōu)化作用。

        3.3 評估結(jié)果

        在WFLW的2500張人臉測試集中的評估結(jié)果見表1,測試集Testset包括6個(gè)子集,分別為Pose、Expression、Illumination、Make-up、Occlusion與Blur。表1中:ESR(Explicit Shape Regression)[20]是通過形狀回歸的方法獲得人臉矯正結(jié)果;SDM(Supervised Descent Method)[21]利用線性模型與尺度不變特征變換(Scale Invariant Feature Transform, SIFT)特征獲得人臉矯正結(jié)果;CFSS(Coarse to Fine Shape Regression)[22]也是通過形狀回歸的方法獲得人臉矯正結(jié)果;LIIV(Leveraging Intra and Inter-dataset Variations)[23]則是利用數(shù)據(jù)集內(nèi)與數(shù)據(jù)集間的某種變化來獲得更好的人臉關(guān)鍵點(diǎn)定位效果。值得說明的是,本文使用的關(guān)鍵點(diǎn)標(biāo)注格式與其他算法有所不同,大多數(shù)算法分為人臉檢測與人臉關(guān)鍵點(diǎn)定位兩個(gè)步驟,而本文是直接檢測圖中所有人臉的關(guān)鍵點(diǎn),這使得本文算法在評估時(shí)對人臉的裁取方法有些不同,對預(yù)測結(jié)果有一定影響,但本文算法在多個(gè)測試子集中最終取得的平均誤差和錯(cuò)誤率比表中算法仍均有所降低。

        在保持高檢測精度的同時(shí),本文一步到位的定位方法與高效的模型相較于其他算法有更快的檢測速度,如表2所示。表2中:Size指的是模型的大小,Speed指的是處理單張圖片所需時(shí)間,Graphics為顯卡。其中SAN(Style Aggregated Network)[24]是利用多階段預(yù)測網(wǎng)絡(luò)檢測人臉關(guān)鍵點(diǎn)的方法。本文提出的算法運(yùn)行在相對較低級的設(shè)備中的處理速度卻仍能優(yōu)于表中其他對比算法8倍多(文獻(xiàn)[14]算法與SAN均未算上人臉檢測時(shí)間)。對于圖中有多張人臉的情況,本文算法可避免多個(gè)人臉區(qū)域的多次關(guān)鍵點(diǎn)檢測,而是一步到位,在更短的時(shí)間內(nèi)一次性定位更多人臉的關(guān)鍵點(diǎn),處理時(shí)間不受限于人臉數(shù)量。

        4 結(jié)語

        通過使用二進(jìn)制掩碼去除干擾,改變了人臉關(guān)鍵點(diǎn)數(shù)據(jù)集的標(biāo)注方式,利用殘差網(wǎng)絡(luò)模塊與特征金字塔的特征融合、中間監(jiān)督層建立起網(wǎng)絡(luò)間的前后緊密聯(lián)系,以及卷積神經(jīng)網(wǎng)絡(luò)習(xí)得的細(xì)節(jié)與高級特征,使得算法在保證高定位精度的同時(shí),一次性快速定位圖中所有人臉的關(guān)鍵點(diǎn)。但是缺點(diǎn)也隨之而來,本文提出的網(wǎng)絡(luò)對圖片中小區(qū)域與妝容非常嚴(yán)重的人臉關(guān)鍵點(diǎn)定位的能力還有待提高。在接下來的研究中會對算法作進(jìn)一步優(yōu)化,嘗試通過增大關(guān)鍵點(diǎn)熱度圖的分辨率,數(shù)據(jù)增強(qiáng)中采用跨度更大的縮放因子,訓(xùn)練時(shí)使用在線艱難樣本與關(guān)鍵點(diǎn)尋找的技巧,達(dá)到更加精確定位小區(qū)域與妝容嚴(yán)重的人臉的關(guān)鍵點(diǎn)的效果。嘗試運(yùn)用神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索(Neural architecture search)策略來搜索更優(yōu)的預(yù)測網(wǎng)絡(luò)結(jié)構(gòu)。

        參考文獻(xiàn) (References)

        [1]SCHROFF F, KALENICHENKO D, PHILBIN J. FaceNet: a unified embedding for face recognition and clustering [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2015: 815-823.

        [2]ZHU Z, LUO P, WANG X, et al. Deep learning identity-preserving face space [C]// Proceedings of the 2013 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2013: 113-120.

        [3]SUN Y, WANG X, TANG X. Deep learning face representation from predicting 10000 classes [C]// Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2014: 1891-1898.

        [4]SUN Y, WANG X, TANG X. Hybrid deep learning for face verification [C]// Proceedings of the 2013 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2013: 1489-1496.

        [5]CAO Z, SIMON T, WEI S E, et al. Realtime multi-person 2D pose estimation using part affinity fields [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017: 1302-1310.

        [6]OSOKIN D. Real-time 2D multi-person pose estimation on CPU: lightweight OpenPose [EB/OL]. [2019-01-02]. https://arxiv.org/pdf/1811.12004.pdf.

        [7]FANG H, XIE S, TAI Y W, et al. RMPE: regional multi-person pose estimation [C]// Proceedings of the 2017 IEEE Conference on Computer Vision. Piscataway: IEEE, 2017: 2353-2362.

        [8]LI W, WANG Z, YIN B, et al. Rethinking on multi-stage networks for human pose estimation [EB/OL]. [2019-01-02]. https://arxiv.org/pdf/1901.00148.pdf.

        [9]CHEN Y, WANG Z, PENG Y, et al. Cascaded pyramid network for multi-person pose estimation [C]// Proceedings of the 2018 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 7103-7112.

        [10]WEI S E, RAMAKRISHNA V, KANADE T, et al. Convolutional pose machines [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2016: 4724-4732.

        [11]ZHANG K, ZHANG Z, LI Z, et al. Joint face detection and alignment using multi-task cascaded convolutional networks [J]. IEEE Signal Processing Letters, 2016, 23(10): 1499-1503.

        [12]LV J, SHAO X, XING J, et al. A deep regression architecture with two-stage re-initialization for high performance facial landmark detection [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017: 3691-3700.

        [13]KOWALSKI M, NARUNIEC J, TRZCINSKI T. Deep alignment network: a convolutional neural network for robust face alignment [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops. Piscataway: IEEE, 2017: 2034-2043.

        [14]WU W, QIAN C, YANG S, et al. Look at boundary: a boundary-aware face alignment algorithm [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 2129-2138.

        [15]SAGONAS C, TZIMIROPOULOS G, ZAFEIRIOU S, et al. 300 faces in-the-wild challenge: the first facial landmark localization challenge [C]// Proceedings of the 2013 IEEE International Conference on Computer Vision Workshops. Piscataway: IEEE, 2013: 397-403.

        [16]KOSTINGER M, WOHLHART P, ROTH P M, et al. Annotated facial landmarks in the wild: a large-scale, real world database for facial landmark localization [C]// Proceedings of the 2011 IEEE International Conference on Computer Vision Workshops. Piscataway: IEEE, 2011: 2144-2151.

        [17]BURGOS-ARTIZZU X P, PERONA P, DOLLR P. Robust face landmark estimation under occlusion [C]// Proceedings of the 2013 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2013: 1513-1520.

        [18]HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2016: 770-778.

        [19]LIN T Y, DOLLR P, GIRSHICK R, et al. Feature pyramid networks for object detection [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017: 936-944.

        [20]CAO X, WEI Y, WEN F, et al. Face alignment by explicit shape regression [J]. International Journal of Computer Vision, 2014, 107(2): 177-190.

        [21]XIONG X, DE LA TORRE F. Supervised descent method and its applications to face alignment [C]// Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2013: 532-539.

        [22]ZHU S, LI C, LOY C C, et al. Face alignment by coarse-to-fine shape searching [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2015: 4998-5006.

        [23]WU W, YANG S. Leveraging intra and inter-dataset variations for robust face alignment [C]// Proceedings of the 2017 IEEE Conference on computer vision and Pattern Recognition Workshops. Piscataway: IEEE, 2017: 2096-2105.

        [24]DONG X, YAN Y, OUYANG W, et al. Style aggregated network for facial landmark detection [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 379-388.

        XIE Jinheng, born in 1998. His research interests include object detection, face detection and recognition, pose estimation, pedestrian reidentification.

        ZHANG Yansheng, born in 1962, associate professor. His research interests include information and communication engineering, image processing.

        收稿日期:2019-04-11;修回日期:2019-07-04;錄用日期:2019-07-04。

        作者簡介:謝金衡(1998—),男,廣東河源人,主要研究方向:目標(biāo)檢測、人臉檢測與識別、姿態(tài)估計(jì)、行人重檢測; 張炎生(1962—),男,湖北天門人,副教授,主要研究方向:信息與通信工程、圖像處理。

        文章編號:1001-9081(2019)12-3659-06 DOI:10.11772/j.issn.1001-9081.2019040600

        亚洲女同恋av中文一区二区| 久久久久无码精品国| 在线观看免费人成视频| 亚洲日本在线电影| 国产精品福利视频一区| 成年女人永久免费看片| 成人无码视频在线观看网站| 97超级碰碰碰久久久观看| 久久洲Av无码西西人体| 玩弄极品少妇被弄到高潮| 亚洲中文高清乱码av中文| 一本久道久久丁香狠狠躁| 久久精品女人av一区二区| 亚洲男女内射在线播放| 亚洲综合av永久无码精品一区二区| 天天躁日日躁狠狠躁| 怡红院a∨人人爰人人爽| 国产精品人妻一区夜夜爱| 亚洲av美女在线播放啊| 99热这里只有精品久久6| 99久久免费精品色老| 国产白色视频在线观看| 人妻少妇偷人精品免费看| 亚洲欧美国产精品久久| 国产成年女人特黄特色毛片免| 亚洲 都市 校园 激情 另类| 91狼友在线观看免费完整版| 青青草精品在线免费观看| 日本中文字幕精品久久 | 国产xxx69麻豆国语对白| 99久久人妻精品免费二区| 国产熟女亚洲精品麻豆| 日本理论片一区二区三区| 极品美女销魂一区二区三| 一区二区三区一片黄理论片 | 麻豆精品一区二区综合av| 国产精品成熟老女人| 亚洲码国产精品高潮在线| 久久这里只精品国产免费10| av一区二区三区亚洲| 午夜精品一区二区久久做老熟女 |