亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于分塊的有遮擋人臉識(shí)別算法

        2018-04-18 11:07:46周孝佳朱允斌
        關(guān)鍵詞:人臉識(shí)別特征提取特征

        周孝佳 朱允斌 張 躍

        1(復(fù)旦大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院 上海 201210) 2(上海視頻技術(shù)與系統(tǒng)工程研究中心 上海 201210)3(華為軟件技術(shù)有限公司 江蘇 南京 210012)

        0 引 言

        人臉識(shí)別技術(shù)在生物識(shí)別技術(shù)中有著十分重要的地位,長(zhǎng)時(shí)間以來,研究者們一直致力于人臉識(shí)別算法的研究。隨著時(shí)間的遷移,人臉識(shí)別算法不斷被提出,其準(zhǔn)確率和穩(wěn)定性也在不斷地提升。發(fā)展至今,人臉識(shí)別已經(jīng)在許多領(lǐng)域發(fā)揮著廣泛的作用,包括身份認(rèn)證、視頻監(jiān)控、人物追蹤等。

        人臉識(shí)別技術(shù)的商用化預(yù)示著其在特定環(huán)境下已經(jīng)有了很高的準(zhǔn)確率,這些技術(shù)展現(xiàn)出來的結(jié)果往往給人們?cè)斐梢环N人臉識(shí)別問題基本已經(jīng)被解決的錯(cuò)覺。然而,在真實(shí)場(chǎng)景下,我們獲取到的人臉往往都是質(zhì)量不一的。相比于受控環(huán)境,真實(shí)場(chǎng)景下獲取到的人臉圖像質(zhì)量往往會(huì)受到光照、姿態(tài)、表情和遮擋的制約,這種不可預(yù)測(cè)的變化為人臉識(shí)別帶來了極大的挑戰(zhàn)。正因如此,許多受控環(huán)境下表現(xiàn)良好的人臉識(shí)別算法在這些數(shù)據(jù)上效果往往會(huì)急劇下降,要讓人臉識(shí)別技術(shù)在真實(shí)場(chǎng)景下發(fā)揮出理想的效果,如何解決這種隨意性給算法帶來的挑戰(zhàn)就成為了其中最為關(guān)鍵的一步。

        人臉識(shí)別的研究者們長(zhǎng)期致力于遮擋條件下的人臉識(shí)別問題的研究,提出了很多有效的算法。Wright等[4]首次將稀編碼表示SRC(Sparse Recognition based Classification)的方法運(yùn)用于人臉識(shí)別領(lǐng)域,得出的人臉特征對(duì)噪聲、遮擋、表情等都有一定的魯棒性。但是這種稀疏表示方法基于所有人臉圖像事先嚴(yán)格對(duì)齊的假設(shè),在實(shí)際運(yùn)用中有比較大的限制。Yang等[3]在SRC的基礎(chǔ)上進(jìn)行改進(jìn),提出了一種魯棒的稀疏編碼算法RSC(Robust Sparse Coding),通過求解改進(jìn)的Lasso問題的方式進(jìn)而求解稀疏編碼問題。這種改進(jìn)的稀疏編碼表示方法被證明對(duì)遮擋有很強(qiáng)的魯棒性,但是這種求解的假設(shè)前提是編碼誤差必須服從高斯分布,而真實(shí)場(chǎng)景下可能并不滿足這一前提條件,這就導(dǎo)致真實(shí)條件下這種算法缺少足夠的魯棒性。

        除了從有遮擋人臉圖像中直接提取遮擋魯棒的特征之外,研究者們也嘗試去遮擋的方式進(jìn)行遮擋圖像修復(fù)。Cheng等[7]提出了一種雙通道的稀疏降噪自動(dòng)編碼器DC-SSDA(Double Channel Stacked Sparse Denoising Auto-encoders),使用雙通道進(jìn)行遮擋噪聲監(jiān)測(cè),用無噪節(jié)點(diǎn)代替有噪節(jié)點(diǎn), 優(yōu)化解碼部分的權(quán)重,得到無噪聲圖像,但是這種方法需要訓(xùn)練圖像和測(cè)試圖像擁有一樣的遮擋,因此限制比較大。Zhao[8]等提出一種基于長(zhǎng)短記憶LSTM(Long-Short Term Memory)的自動(dòng)編碼機(jī)進(jìn)行去人臉遮擋,并引入對(duì)抗網(wǎng)絡(luò)和分類的CNN輔助進(jìn)行參數(shù)優(yōu)化。

        雖然以上這些算法都能一定程度地完成遮擋人臉識(shí)別任務(wù),但其有效性仍然受到真實(shí)環(huán)境的制約,如何進(jìn)行真實(shí)環(huán)境下的人臉識(shí)別仍然有待研究和探索。

        1 基于分塊的有遮擋人臉識(shí)別算法

        本文針對(duì)遮擋條件下的人臉識(shí)別任務(wù),提出了一種基于分塊的有遮擋人臉識(shí)別算法,總體思想如下:

        將一張人臉圖像裁切出左眼、右眼、鼻子和嘴巴四個(gè)區(qū)塊,對(duì)每個(gè)人臉區(qū)塊分別進(jìn)行特征提取,利用一個(gè)遮擋二分類器進(jìn)行區(qū)塊的遮擋判別,最后根據(jù)遮擋判別的結(jié)果進(jìn)行特征融合,從而得到最終的人臉特征。由于有二分類器的存在,算法會(huì)對(duì)遮擋區(qū)塊特征是否應(yīng)該加入最終融合特征進(jìn)行判斷,因此最終獲取到的特征對(duì)遮擋具有較強(qiáng)的魯棒性。本文算法的特征提取流程如圖1所示。

        圖1 基于分塊的有遮擋人臉特征提取流程

        本文的分塊人臉識(shí)別算法基本可以分為以下幾個(gè)步驟:預(yù)處理、人臉分塊、特征提取、遮擋判別、特征融合和相似度匹配。

        1.1 預(yù)處理

        本文的預(yù)處理工作包括人臉檢測(cè)、人臉特征點(diǎn)定位、幾何歸一化、光照歸一化以及數(shù)據(jù)集擴(kuò)展。本文使用基于Faster R-CNN的算法訓(xùn)練了一個(gè)人臉檢測(cè)網(wǎng)絡(luò)進(jìn)行人臉檢測(cè)任務(wù);使用一種由粗到精的自編碼網(wǎng)絡(luò)CFAN(Coarse-to-Fine Auto-encoder Networks[5])定位人臉特征點(diǎn);使用基于人臉特征點(diǎn)定位的結(jié)果進(jìn)行幾何歸一化;使用直方圖均衡化進(jìn)行人臉圖像光照歸一化。

        在數(shù)據(jù)量不足的情況下,本文對(duì)訓(xùn)練集進(jìn)行了一定的擴(kuò)展,其中包括:添加高斯模糊、高斯噪聲、調(diào)節(jié)圖像的亮度、圖像銳化、邊界隨機(jī)裁切等。經(jīng)過處理后,本文將一張人臉圖像擴(kuò)展成15張,以防止訓(xùn)練后的模型過擬合,同時(shí)也提升模型對(duì)光照、模糊等各種變換的泛化能力。

        1.2 人臉分塊

        本文使用CFAN算法進(jìn)行人臉特征點(diǎn)定位,基于人臉特征點(diǎn)定位的結(jié)果(左眼中心、右眼中心、鼻尖、左側(cè)嘴角和右側(cè)嘴角),從人臉圖像中裁切出四個(gè)人臉區(qū)塊(左眼、右眼、鼻子和嘴),具體裁剪策略如下:

        (1) 將圖像調(diào)整到256×256的大小。

        (2) 對(duì)于左右眼區(qū)域,根據(jù)標(biāo)定出的左右眼關(guān)鍵點(diǎn)(xeye,yeye),以關(guān)鍵點(diǎn)為中心,裁剪出64×64大小的區(qū)塊,裁剪區(qū)域?yàn)?

        [(xeye-32,yeye-32),(xeye+32,yeye+32)]

        (3) 對(duì)于鼻子區(qū)域,根據(jù)標(biāo)定出的鼻子部分的關(guān)鍵點(diǎn)(xeye,yeye),裁剪出如下區(qū)塊:

        [(xlmouse-8,ylmouse+32),(xrmouse+8,yrmouse+32)]

        (4) 對(duì)于嘴巴區(qū)域,裁剪出如下區(qū)塊:

        [(xlmouse-8,ylmouse+32),(xrmouse+8,yrmouse+32)]

        圖2展示了本文進(jìn)行區(qū)域裁剪的部分樣例圖??梢园l(fā)現(xiàn),這種區(qū)域裁剪方法基本可以將人臉具有區(qū)分度的信息全部保留下來。劃分出來的四個(gè)區(qū)塊將作為分塊的人臉原圖輸入到后續(xù)的特征提取和遮擋判別中。

        圖2 人臉分塊結(jié)果示例

        1.3 特征提取

        本文為每個(gè)人臉區(qū)塊都訓(xùn)練了一個(gè)基于深度卷積神經(jīng)網(wǎng)絡(luò)的模型進(jìn)行特征提取。類似于傳統(tǒng)人臉識(shí)別訓(xùn)練集的構(gòu)造方法,本文使用單個(gè)人臉區(qū)塊代替整臉構(gòu)造數(shù)據(jù)集,從而使訓(xùn)練出來的網(wǎng)絡(luò)可以對(duì)單一人臉區(qū)塊進(jìn)行有區(qū)分的特征提取。本文使用Lightened-CNN[1]進(jìn)行訓(xùn)練任務(wù),考慮到單一人臉區(qū)塊相對(duì)于全臉來說特征較少,因此對(duì)Lightened-CNN網(wǎng)絡(luò)進(jìn)行一定的改進(jìn),主要修改的部分如下:

        (1) 輸入部分由128×128×1調(diào)整為64×64×1;

        (2) 每層的卷積核個(gè)數(shù)減少為原文的一半;

        (3) 網(wǎng)絡(luò)深度降低,減少3次卷積和1次pooling;

        (4) fc1層的輸出特征由256維調(diào)整為128維。

        相比于用于全局人臉特征提取的LCNN網(wǎng)絡(luò),調(diào)整后的網(wǎng)絡(luò)的參數(shù)進(jìn)一步減少,網(wǎng)絡(luò)訓(xùn)練和測(cè)試的速度更快,時(shí)間和空間得到了進(jìn)一步的優(yōu)化。

        基于上述改進(jìn)的LCNN網(wǎng)絡(luò),可以訓(xùn)練四個(gè)用于局部人臉特征提取的網(wǎng)絡(luò),每個(gè)網(wǎng)絡(luò)都對(duì)應(yīng)于一個(gè)人臉區(qū)塊,當(dāng)網(wǎng)絡(luò)接受到輸入圖像進(jìn)行前饋后,可以獲取到輸入圖像多尺度的特征表達(dá)。由于網(wǎng)絡(luò)從底層到高層學(xué)習(xí)到的圖像特征逐漸具體,因此fc1層可以最好地表達(dá)輸入圖像的語義特征, 由此本文取fc1層的輸出作為輸入人臉區(qū)塊的特征表達(dá)。

        一張完整的人臉被分割為4個(gè)區(qū)塊,輸入各自對(duì)應(yīng)的四個(gè)區(qū)域人臉特征提取網(wǎng)絡(luò)后,可以得到4個(gè)區(qū)域人臉特征:

        Vleye,Vreye,Vnose,Vmouse

        式中:Vleye表示左眼區(qū)塊特征;Vreye表示右眼區(qū)塊特征;Vnose表示鼻子區(qū)塊特征;Vmouse表示嘴巴區(qū)塊特征。

        1.4 遮擋判別

        由于自然條件下的非受控性,遮擋可能出現(xiàn)在人臉的任意部分。為了處理遮擋,本文基于Inception V3[2]網(wǎng)絡(luò)進(jìn)行fine-tune,訓(xùn)練一個(gè)用于判別人臉區(qū)塊是否被遮擋的網(wǎng)絡(luò)。由于人臉具有一定的對(duì)稱性,左眼和右眼區(qū)別很小,因此在做分類訓(xùn)練集構(gòu)造的時(shí)候,本文將左眼和右眼的類別合并為眼睛,即構(gòu)造出的訓(xùn)練集分為4類:眼睛類、鼻子類、嘴巴類和背景類。其中,背景類指除上述人臉關(guān)鍵區(qū)域外的其他部分,包括其他人臉相關(guān)的前景和無關(guān)的背景。本文構(gòu)造的背景數(shù)據(jù)集來自于被遮擋的人臉區(qū)塊和不是人臉區(qū)塊的其他圖片。

        由于輸入圖片是有額外信息的,即該圖片只有屬于一個(gè)特定的人臉區(qū)塊和屬于背景圖兩種結(jié)果,因此結(jié)合該信息,本文直接將多分類模型運(yùn)用于人臉區(qū)塊的二分類上,經(jīng)過模型處理后應(yīng)生成遮擋或未遮擋的判別信息。遮擋判別示例如圖3所示,輸入的圖片屬于人臉的鼻子區(qū)塊,分類網(wǎng)絡(luò)輸出其屬于每個(gè)類的概率,取其中概率最大的類為鼻子類,則判定輸入圖片是對(duì)應(yīng)的人臉區(qū)塊,判別輸出為未遮擋。另一遮擋判別示例如圖4所示,輸入的圖片屬于被遮擋的左眼區(qū)塊,分類網(wǎng)絡(luò)輸出其屬于每個(gè)類的概率,取其中概率最大的類為背景類,則判定輸入圖片不是對(duì)應(yīng)的人臉區(qū)塊(被遮擋),判別輸出為遮擋。

        結(jié)合輸入圖片的額外知識(shí),將多分類直接運(yùn)用在二分類問題上,從而使用一個(gè)分類器就能完成多個(gè)二分類器的任務(wù),極大地降低了復(fù)雜度,同時(shí)也提高了分類的效率。

        圖3 遮擋判別示例1

        圖4 遮擋判別示例2

        1.5 特征融合和相似度檢測(cè)

        特征融合: 結(jié)合特征提取和遮擋判別的結(jié)果,可以將多個(gè)區(qū)塊的特征融合成表征遮擋人臉的最終特征,具體融合方法如下:

        首先,將每個(gè)人臉區(qū)塊學(xué)習(xí)到的特征都?xì)w一化到[-1,+1],從而使每個(gè)區(qū)域?qū)傮w特征的貢獻(xiàn)度相同。其次,對(duì)各部分特征進(jìn)行簡(jiǎn)單的順序拼接,即對(duì)于一個(gè)完整未遮擋的人臉圖像I,最終生成的人臉特征V(I)如下:

        V(I)=[Vleye,Vreye,Vnose,Vmouse]

        式中:[Vleye,Vreye,Vnose,Vmouse]分別表示左眼、右眼、鼻子和嘴巴區(qū)塊提取出的特征。由于本文會(huì)剔除被遮擋判別模型視為遮擋的人臉區(qū)塊對(duì)應(yīng)的特征,因此表征遮擋人臉的特征長(zhǎng)度可能是變長(zhǎng)的。為了消除變長(zhǎng)特征對(duì)相似度檢測(cè)造成的影響,本文使用零向量填充缺失的特征部分,從而保證各種遮擋條件下獲取到的人臉特征長(zhǎng)度都是一定的。

        相似度檢測(cè):本文使用歐氏距離度量特征相似度。對(duì)于兩張人臉生成的兩個(gè)特征,本文取兩邊都未被判別為遮擋的區(qū)塊對(duì)應(yīng)的特征進(jìn)行相似度度量。即在比較兩個(gè)特征的時(shí)候,若有一個(gè)特征的特征段是零向量,則另一個(gè)向量的相應(yīng)段落也置零。在人臉識(shí)別分類的任務(wù)中,取最相似的特征表示的人臉作為分類的結(jié)果。

        2 實(shí)驗(yàn)結(jié)果

        2.1 局部人臉區(qū)塊遮擋判別實(shí)驗(yàn)

        本文使用CASIA WebFace[9]數(shù)據(jù)集,從中隨機(jī)篩選出20 000張人臉,將人臉分塊后的各個(gè)人臉區(qū)塊圖作為數(shù)據(jù)集,背景數(shù)據(jù)集的采集包括人工加入遮擋的人臉區(qū)塊、真實(shí)被遮擋的人臉區(qū)塊和其他真實(shí)背景圖。本文隨機(jī)取每個(gè)人臉區(qū)塊18 000張圖和背景18 000張圖作為訓(xùn)練集,剩下的每個(gè)人臉區(qū)塊各2 000張和剩余的所有背景圖作為測(cè)試集??紤]負(fù)類數(shù)據(jù)不足的情況,本文使用Hard Negative Mining的思想進(jìn)行負(fù)類選取,在訓(xùn)練好的模型上進(jìn)行進(jìn)一步fine-tune。

        本文二分類器訓(xùn)練后的效果如表1所示。歸功于便捷的模型fine-tune方法和Hard Negative Mining的負(fù)類選擇方法,本文的圖像二分類器在較短時(shí)間的訓(xùn)練后就取得了不錯(cuò)的效果,在人臉區(qū)塊分辨率足夠的情況下,本文訓(xùn)練的局部人臉區(qū)塊遮擋判別模型都可以進(jìn)行準(zhǔn)確的預(yù)測(cè)。

        表1 局部人臉區(qū)塊遮擋判別結(jié)果

        2.2 有遮擋人臉識(shí)別實(shí)驗(yàn)

        結(jié)合分塊特征提取和遮擋二分類器,可以實(shí)現(xiàn)本文提出的有遮擋人臉識(shí)別算法。

        本文使用AR數(shù)據(jù)集進(jìn)行有遮擋人臉識(shí)別的實(shí)驗(yàn),AR數(shù)據(jù)集包含126人共3 276張人臉圖像(其中包括70個(gè)男人和56個(gè)女人),每個(gè)人26張人臉圖像,其中包括了不同的人臉表情(正常、微笑、冷漠、憤怒),不同光照和遮擋的情況(墨鏡、圍巾)。遮擋的人臉圖像分別是不同光照下三張戴墨鏡的圖片和三張圍巾圖片。AR數(shù)據(jù)集部分人臉圖像示例如圖5所示。

        圖5 AR數(shù)據(jù)集人臉示例

        本文選取AR人臉數(shù)據(jù)集中100人(50個(gè)男人和50個(gè)女人),從每人14張無遮擋人臉圖像中隨機(jī)選取8張作為訓(xùn)練集,其他每人2張戴墨鏡的圖像和2張戴圍巾的圖像作為測(cè)試集。測(cè)試過程結(jié)合2.1節(jié)中訓(xùn)練的局部人臉區(qū)塊遮擋判別模型進(jìn)行。如果輸入的人臉區(qū)塊被二分類器判別為遮擋,則該局部特征不加入人臉特征比對(duì)過程中去。與此同時(shí),將測(cè)試人臉分為墨鏡遮擋和圍巾遮擋兩類進(jìn)行實(shí)驗(yàn)。本文的對(duì)比實(shí)驗(yàn)用到了經(jīng)典的SRC[4]、GSRC[6]和RSC[3]算法。實(shí)驗(yàn)結(jié)果如表2所示。

        表2 有遮擋人臉識(shí)別效果對(duì)比

        由表2可知,在圍巾遮擋的情況下,本文算法取得了非常好的識(shí)別效果,但是在墨鏡遮擋的情況下,本文算法準(zhǔn)確率略低于RSC。本文認(rèn)為,這是因?yàn)樵趪碚趽醯那闆r下,人臉部分嘴部區(qū)塊被遮擋,因此這部分特征會(huì)被舍棄,但是剩下三個(gè)人臉區(qū)塊的特征仍具有足夠的區(qū)分度,可以很好地表征一張人臉。但是在墨鏡遮擋的情況下,人臉圖像的左眼和右眼區(qū)塊被遮擋,這兩個(gè)部分的特征被舍棄,相比于戴圍巾只需舍棄嘴部區(qū)塊特征而言,墨鏡遮擋照成的影響更大。但是綜合考慮,本文算法在遮擋的情況下仍能取得很好的效果。

        2.3 大面積人臉遮擋實(shí)驗(yàn)

        本文仍選取AR數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),使用與2.2節(jié)一樣的方式進(jìn)行模型的訓(xùn)練,從每人14張無遮擋人臉圖像中隨機(jī)選取8張作為訓(xùn)練集,從剩下的6張中隨機(jī)選取2張作為測(cè)試集,使用黑塊對(duì)測(cè)試集中的人臉圖像進(jìn)行四個(gè)人臉區(qū)塊的遮擋處理,利用本文算法對(duì)不同遮擋情況的圖像進(jìn)行人臉識(shí)別(由于本文算法依賴于人臉特征點(diǎn)定位的結(jié)果,在高遮擋條件下,本文加入一定的人工進(jìn)行輔助定位工作)。對(duì)比SRC和RSC算法,實(shí)驗(yàn)結(jié)果如表3所示。

        表3結(jié)果的每一行分別統(tǒng)計(jì)了遮擋1個(gè)、2個(gè)、3個(gè)區(qū)塊的情況下各個(gè)算法識(shí)別準(zhǔn)確率的平均值。可以發(fā)現(xiàn),隨著遮擋區(qū)塊數(shù)量的增加,SRC和RSC算法的準(zhǔn)確率下降得都很快,而本文算法仍然可以保證一定的識(shí)別準(zhǔn)確率。

        本文算法的分塊特性保證了當(dāng)至少有一個(gè)人臉區(qū)塊未被遮擋或僅被少量遮擋時(shí),算法的識(shí)別準(zhǔn)確率不會(huì)受到太大的影響。

        2.4 預(yù)測(cè)速度和存儲(chǔ)空間對(duì)比

        本小節(jié)進(jìn)行了本文算法在預(yù)測(cè)速度和存儲(chǔ)空間上與其他深度神經(jīng)網(wǎng)絡(luò)的對(duì)比。對(duì)比結(jié)果如表4所示(本文速度在i7-4790上進(jìn)行測(cè)試)。由于本文使用的簡(jiǎn)化的LCNN+inception v4的模型組合不是端到端的,因此速度和存儲(chǔ)空間都分為兩部分??梢园l(fā)現(xiàn),本文使用的改進(jìn)的LCNN模型在特征提取速度和存儲(chǔ)空間上都較有優(yōu)勢(shì)(預(yù)測(cè)速度的56 ms×4的部分和存儲(chǔ)空間的22 MB×4的部分),但是使用的基于inception v3的遮擋判別網(wǎng)絡(luò)則在速度和空間上都消耗較大。因此后續(xù)可以考慮使用大量訓(xùn)練數(shù)據(jù)結(jié)合輕量級(jí)模型從頭訓(xùn)練的方法提升算法的速度和減少模型的大小。另外,由于人臉塊的特征提取和遮擋判別互不干擾,因此采用并行特征提取和遮擋判別則可將預(yù)測(cè)速度降至原來的1/4。

        表4 大面積人臉遮擋效果對(duì)比

        3 結(jié) 語

        本文提出了一種基于人臉分塊的有遮擋人臉識(shí)別算法,利用局部人臉區(qū)塊特征提取結(jié)合遮擋判別的方法獲取表征遮擋人臉的特征,這種特征對(duì)遮擋有較強(qiáng)的魯棒性,并且在滿足一定條件的前提下,在大面積遮擋的情況下仍能保持很高的準(zhǔn)確率。后續(xù)研究將需要處理局部區(qū)塊被部分遮擋的情況,且該算法的可用也依賴于遮擋人臉檢測(cè)和遮擋人臉特征點(diǎn)定位。

        [1] Wu X, He R, Sun Z. A lightened cnn for deep face representation[C]//2015 IEEE Conference on IEEE Computer Vision and Pattern Recognition (CVPR). 2015.

        [2] Szegedy C, Vanhoucke V, Ioffe S, et al. Rethinking the inception architecture for computer vision[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016: 2818-2826.

        [3] Yang M, Zhang L, Yang J, et al. Robust sparse coding for face recognition[C]//Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. IEEE, 2011: 625-632.

        [4] Wright J, Yang A Y, Ganesh A, et al. Robust face recognition via sparse representation[J]. IEEE transactions on pattern analysis and machine intelligence, 2009, 31(2): 210-227.

        [5] Zhang J, Shan S, Kan M, et al. Coarse-to-fine auto-encoder networks (cfan) for real-time face alignment[C]//European Conference on Computer Vision. Springer International Publishing, 2014: 1-16.

        [6] Yang M, Zhang L. Gabor feature based sparse representation for face recognition with gabor occlusion dictionary[C]//European conference on computer vision. Springer Berlin Heidelberg, 2010: 448-461.

        [7] Cheng L, Wang J, Gong Y, et al. Robust Deep Auto-encoder for Occluded Face Recognition[C]//Proceedings of the 23rd ACM international conference on Multimedia. ACM, 2015: 1099-1102.

        [8] Zhao F, Feng J, Jian Zhaoa, et al. Robust LSTM-Autoencoders for Face De-Occlusion in the Wild[J]. IEEE Transactions on Image Processing, 2016, 27(2): 778-790.

        [9] http://www.cbsr.ia.ac.cn/english/CASIA-WebFace-Database.html.

        [10] Simonyan K, Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition[J]. Computer Science, 2014.

        猜你喜歡
        人臉識(shí)別特征提取特征
        人臉識(shí)別 等
        揭開人臉識(shí)別的神秘面紗
        如何表達(dá)“特征”
        基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
        基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        亚洲av日韩综合一区二区三区| 中文字幕一区二区三区精品在线| 日韩精品免费av一区二区三区| 亚洲av无码一区东京热久久| 亚洲一线二线三线写真| av色综合网站| 中文字幕av一区二区三区诱惑| 国产禁区一区二区三区| 亚洲第一se情网站| 国产精品九九九久久九九| 亚洲av高清在线一区二区三区| 天堂影院久久精品国产午夜18禁| 麻豆AV无码久久精品蜜桃久久| 男男做h嗯啊高潮涩涩| 久久偷看各类wc女厕嘘嘘偷窃| 男女搞事在线观看视频| 青青草原亚洲| 久久久久国产精品免费免费搜索 | 女优一区二区三区在线观看| 高潮又爽又无遮挡又免费| 亚洲AV毛片无码成人区httP| 亚洲精品女同在线观看| 女人被狂躁的高潮免费视频| 中文字幕久无码免费久久| 一区二区视频观看在线| 亚洲一区二区三区色偷偷| 高潮抽搐潮喷毛片在线播放| 欧美做受视频播放| 黑人免费一区二区三区| 精品国产亚洲av麻豆| 亚洲精品无码不卡在线播放he| 全免费a级毛片免费看| av中文字幕性女高清在线| 无码a级毛片免费视频内谢| 亚洲av无码成人精品区在线观看| 国产精品亚洲综合色区丝瓜| 亚洲成人福利在线视频| v一区无码内射国产| 在线亚洲AV成人无码一区小说| 亚洲1区第2区第3区在线播放| 国模无码一区二区三区|