亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)與有向無(wú)環(huán)圖SVM的局部調(diào)整年齡估計(jì)

        2021-04-10 05:51:56楊雅志
        圖學(xué)學(xué)報(bào) 2021年1期
        關(guān)鍵詞:鄰域人臉調(diào)整

        李 駿,楊雅志

        基于深度學(xué)習(xí)與有向無(wú)環(huán)圖SVM的局部調(diào)整年齡估計(jì)

        李 駿1,楊雅志2

        (1. 成都工業(yè)學(xué)院教務(wù)處教學(xué)建設(shè)與教學(xué)質(zhì)量管理科,四川 成都 611730; 2. 成都工業(yè)學(xué)院計(jì)算機(jī)工程學(xué)院,四川 成都 611730)

        為了進(jìn)一步從人臉圖像中提高年齡估計(jì)的精度,提出一種基于深度學(xué)習(xí)與有向無(wú)環(huán)圖支持向量機(jī)(SVM)的局部調(diào)整年齡估計(jì)算法。在訓(xùn)練階段,首先將經(jīng)過(guò)VGGFace2數(shù)據(jù)集預(yù)訓(xùn)練的SE-ResNet-50網(wǎng)絡(luò)進(jìn)行微調(diào),并在收斂時(shí)提取全連接層,將其首尾相連形成的向量作為表征并訓(xùn)練得到多個(gè)one-versus-one SVM;在測(cè)試階段,先將待估計(jì)人臉圖像送入SE-ResNet-50以得到一個(gè)較為粗略的年齡估計(jì)值,然后設(shè)定具體鄰域,最后將訓(xùn)練而成的SVM組合為一個(gè)有向無(wú)環(huán)圖SVM并以全局估計(jì)值為中心進(jìn)行精準(zhǔn)的年齡估計(jì)。為了表明算法的普適性,在不同種族的MORPH和AFAD圖像集中進(jìn)行了實(shí)驗(yàn),結(jié)果驗(yàn)證了算法的有效性。

        年齡估計(jì);深度學(xué)習(xí);有向無(wú)環(huán)圖支持向量機(jī);局部調(diào)整

        年齡估計(jì),旨在判別輸入人臉圖像的年齡值或年齡組別。雖然基于人臉圖像的年齡自動(dòng)估計(jì)是多媒體應(yīng)用、人機(jī)交互等許多實(shí)際應(yīng)用中涉及的一項(xiàng)重要技術(shù),但從人臉圖像中估計(jì)年齡仍然是一個(gè)具有挑戰(zhàn)性的問(wèn)題:由于不同的人衰老的方式不同,衰老的過(guò)程不僅取決于人的基因,還取決于許多外部因素,如身體狀況、生活方式、居住地點(diǎn)和天氣狀況等。此外由于使用化妝品和配飾的程度不同,男性和女性的年齡也可能不同。如何在降低個(gè)體差異負(fù)面影響的同時(shí),提取出一般的判別性老化特征仍然是一個(gè)有待解決的問(wèn)題。

        基于經(jīng)典機(jī)器學(xué)習(xí)的年齡估計(jì)方法,包含特征提取與年齡判別2個(gè)步驟,其中特征提取通常利用主動(dòng)外觀模型[1]、局部二值模式[2]、流形學(xué)習(xí)[3]或者仿生特征[4]等淺層表征方法,此后再采用K近鄰 法[4]、二次回歸函數(shù)[5]或支持向量回歸[6]等機(jī)器學(xué)習(xí)方法進(jìn)行最終的年齡判別。

        近些年在研究年齡估計(jì)時(shí),常常采用深度學(xué)習(xí)的方法。文獻(xiàn)[6]利用卷積神經(jīng)(convolutional neural networks,CNN)的第2~5層特征圖作為特征向量,然后進(jìn)行非線性降維處理,最終利用支持向量分類與回歸、偏最小二乘法與典型性相關(guān)分析進(jìn)行年齡預(yù)測(cè)。文獻(xiàn)[7]采用一個(gè)類Alexnet的CNN模型進(jìn)行年齡估計(jì)。文獻(xiàn)[8]首先將人臉圖像分為不同的大小,再劃出多個(gè)局部對(duì)齊塊,最終將其輸入進(jìn)4層的網(wǎng)絡(luò),該方法通過(guò)增加樣本容量來(lái)增強(qiáng)CNN的泛化能力。文獻(xiàn)[9]將年齡標(biāo)簽看作實(shí)數(shù),使得輸出層含有一個(gè)神經(jīng)元,其本質(zhì)為年齡回歸。

        在上述方法中通常只采用一種特定的生成式模型、判別式模型、分類CNN或回歸CNN進(jìn)行年齡估計(jì),其弊端為樣本容量、迭代次數(shù)等超參數(shù)設(shè)置一旦不合理或參數(shù)未完全收斂,便毫無(wú)容錯(cuò)率可言,以至對(duì)最終的年齡估計(jì)精度產(chǎn)生決定性影響。

        針對(duì)此不足,且為了進(jìn)一步提高年齡估計(jì)的精度,將經(jīng)典的機(jī)器學(xué)習(xí)與深度學(xué)習(xí)方法相結(jié)合,本文提出一種由粗到細(xì)、由全局到局部的局部調(diào)整年齡估計(jì)方法(local adjusted age estimation,LAAE),如圖1所示。在訓(xùn)練階段,首先對(duì)經(jīng)過(guò)VGGFace2數(shù)據(jù)集預(yù)訓(xùn)練的SE-ResNet-50網(wǎng)絡(luò)進(jìn)行微調(diào),待到收斂時(shí)提取出全連接層,將其首尾相連形成的向量作為表征并訓(xùn)練出多個(gè)one-versus-one SVM;在測(cè)試階段,先將待估計(jì)人臉圖像送入SE-ResNet-50以得到一個(gè)較為粗略的年齡估計(jì)值,然后設(shè)定具體鄰域并將訓(xùn)練而成的支持向量機(jī)(support vector machine,SVM)組合為一個(gè)有向無(wú)環(huán)圖SVM以進(jìn)行精準(zhǔn)的年齡估計(jì)。

        1 SE-ResNet-50

        1.1 殘差網(wǎng)絡(luò)

        在超分辨率測(cè)試序列(visual geometry group,VGG)中,其CNN達(dá)到了19層,在GoogleNet中,網(wǎng)絡(luò)的層數(shù)史無(wú)前例地達(dá)到了22層,但是在深度學(xué)習(xí)中,網(wǎng)絡(luò)層數(shù)增多將伴隨著計(jì)算資源的消耗,模型易過(guò)擬合且易產(chǎn)生梯度消失與梯度爆炸問(wèn)題。計(jì)算資源的不足對(duì)企業(yè)或科研經(jīng)費(fèi)充足的高校而言,只需要通過(guò)GPU集群就可以解決;過(guò)擬合也可通過(guò)大量采集有效樣本數(shù)據(jù)并配合Dropout等正則化方法來(lái)解決;而梯度方面的問(wèn)題通過(guò)批量歸一化也可以很好地解決。貌似只要一直增加神經(jīng)網(wǎng)絡(luò)的層數(shù),就可以獲得收益,但是實(shí)驗(yàn)數(shù)據(jù)卻不能有效地支撐此觀點(diǎn)[10]:隨著神經(jīng)網(wǎng)絡(luò)層數(shù)的增多,訓(xùn)練誤差逐漸下降,并趨于飽和。再增加網(wǎng)絡(luò)深度時(shí),訓(xùn)練誤差反而會(huì)增大。當(dāng)網(wǎng)絡(luò)退化時(shí),淺層網(wǎng)絡(luò)比深層網(wǎng)絡(luò)有更好地訓(xùn)練效果,這時(shí)如果將低層的特征傳到高層,其效果不比淺層的網(wǎng)絡(luò)效果差。如一個(gè)VGG100網(wǎng)絡(luò)在第99層使用的是和VGG16第15層一模一樣的表征,那么VGG100的性能應(yīng)與VGG16的性能相同。因此可以在VGG100的99層和15層之間添加一條恒等映射來(lái)達(dá)到此效果。從信息論的角度而言,由于數(shù)據(jù)處理不等式的存在,在前向傳輸?shù)倪^(guò)程中,隨著層數(shù)的加深,特征圖譜包含的原圖像信息會(huì)逐層減少,而恒等映射的加入,保證了網(wǎng)絡(luò)后一層一定比前一層包含更多的圖像信息?;谶@種快捷映射的思想,便有了殘差神經(jīng)網(wǎng)絡(luò),即在原神經(jīng)網(wǎng)絡(luò)中加入一系列殘差模塊而形成的,如圖2所示。

        圖1 總體流程圖

        圖2 殘差模塊

        其可用X+1=(X)+(X+W)式表示,其中(X)=X為恒等映射在圖2左邊曲線;(X+W)為殘差部分在圖2右邊曲線,其中W為第l層的權(quán)重與偏置。當(dāng)前一層與后一層的特征圖譜數(shù)量維度不同時(shí),需要1*1卷積操作進(jìn)行降維或升維,此時(shí)(X)=WX,其中為1*1卷積操作。

        1.2 擠壓激勵(lì)模塊

        在CNN的卷積層中,一系列卷積核的集合可看作是輸入通道上的鄰域空間連接模式,可將空間維度上的信息和通道信息融合在局部感受野內(nèi)[11]。CNN通過(guò)將一系列卷積層,非線性激活函數(shù)與池化操作進(jìn)行堆疊以產(chǎn)生魯棒的表征,從而捕獲層次模式并獲得理論上的全局感受野。很多研究工作是從空間維度信息層面來(lái)提高網(wǎng)絡(luò)的性能,如Inception結(jié)構(gòu)中嵌入了多尺度信息,依次聚合多種感受野上的特征;Inside-Outside中考慮了空間的鄰域信息。擠壓-激勵(lì)模塊(squeeze-and-excitation module,SE)通過(guò)考慮特征通道中的關(guān)系來(lái)提升網(wǎng)絡(luò)性能,其方法是自動(dòng)學(xué)習(xí)每個(gè)特征通道的重要程度,然后依重要程度去提升有用的特征,同時(shí)抑制對(duì)當(dāng)前任務(wù)用處不大的特征。SE的各部分操作如下:

        (1):一般為卷積操作。

        (2):擠壓(squeeze)操作。本文順著空間維度進(jìn)行特征壓縮,使得輸出的維度和輸入的特征通道數(shù)相匹配。此外將每個(gè)二維的特征通道變成一個(gè)標(biāo)量,此標(biāo)量在某種程度上具有全局的感受野,其表征著在特征通道上響應(yīng)的全局分布,而且使靠近輸入的層也可獲得全局感受野。

        (3):激勵(lì)(excitation)操作。其是一個(gè)類似于循環(huán)神經(jīng)網(wǎng)絡(luò)中門的機(jī)制,通過(guò)學(xué)習(xí)用來(lái)顯式地建模特征通道間的相關(guān)性參數(shù)來(lái)為每個(gè)特征通道生成對(duì)應(yīng)權(quán)重。

        (4):重賦值(scale)操作。將激勵(lì)輸出的權(quán)重看做經(jīng)過(guò)特征選擇后的每個(gè)特征通道的重要性,然后逐通道相乘到先前的特征上,完成在通道維度上的對(duì)原始特征的重標(biāo)定(feature recalibration)。

        SE可集成到諸如Inception或殘差網(wǎng)絡(luò)中,本文將SE-ResNet-50作為主干網(wǎng)絡(luò),如圖3所示。

        圖3 SE-ResNet示意圖

        首先經(jīng)過(guò)一個(gè)殘差模塊,然后使用全局平均池化操作進(jìn)行“擠壓”,緊接著以2個(gè)全連接層去顯式建模通道間的相關(guān)性:首先特征維度將為原來(lái)的1/(取16),然后再通過(guò)一個(gè)全連接操作升回到原維度。這種“Bottleneck”模塊具有更強(qiáng)非線性且極大減少了參數(shù)量與運(yùn)算量。通過(guò)Sigmoid將特征權(quán)重歸一化為0~1間的值,最后通過(guò)Scale操作對(duì)各通道特征進(jìn)行加權(quán)。

        2 LAAE

        2.1 局部調(diào)整

        LAAE的思想是將CNN估計(jì)到的年齡值在局部鄰域內(nèi)盡可能靠近真實(shí)年齡。示意圖如圖4所示。

        圖4 局部調(diào)整示意圖

        假設(shè)輸入數(shù)據(jù)為,對(duì)應(yīng)的CNN輸出為(),即圖4中的1號(hào)小圓。也許()離圖中2號(hào)小圓的實(shí)際年齡值仍有一段距離,局部調(diào)整的年齡估計(jì)的思想便是在領(lǐng)域范圍2內(nèi)左右滑動(dòng)(即為增大或者減小)估計(jì)值(),使其更接近于實(shí)際年齡值,可用公式表示為?[()-,()+]。

        如此可將局部調(diào)整年齡估計(jì)分為2步進(jìn)行:①利用CNN網(wǎng)絡(luò)對(duì)所有訓(xùn)練數(shù)據(jù)進(jìn)行年齡分類。此步驟可看作是粗估計(jì)或全局估計(jì);②以第一步的結(jié)果作為中心在小范圍內(nèi)的領(lǐng)域中進(jìn)行局部調(diào)整。此步驟可看作是細(xì)調(diào)或局部估計(jì)。

        此時(shí)問(wèn)題的關(guān)鍵在于如何在一定范圍內(nèi)驗(yàn)證不同的年齡值,以便進(jìn)行局部調(diào)整。本文目標(biāo)是通過(guò)全局回歸將最初估計(jì)的年齡值盡可能向真實(shí)年齡靠攏。并將每個(gè)年齡標(biāo)簽看作是一個(gè)類,采用分類的方法對(duì)不同的年齡值進(jìn)行局部調(diào)整或驗(yàn)證。因?yàn)橹挥猩倭康哪挲g標(biāo)簽用于每個(gè)局部調(diào)整,因此回歸方法不能正常工作。對(duì)于基于分類方法的局部調(diào)整,在分類器方法有許多可選項(xiàng),但本文采用線性SVM用于局部調(diào)整。主要是因?yàn)镾VM對(duì)于訓(xùn)練樣本較少的情況具有魯棒性。這在之前的小樣本案例學(xué)習(xí)中已經(jīng)被論證過(guò),如人臉識(shí)別[12-13]、圖像檢索[14]、音頻分類與檢索[15]和人臉表情識(shí)別[16]。

        2.2 線性SVM

        給定分屬2類的訓(xùn)練向量(1,1),···,(,z),其中?,z?{-1, +1},線性SVM可以學(xué)習(xí)一個(gè)最優(yōu)分類超平面+=0以最大化2類之間的間隔(margin)[17-18]。SVM的學(xué)習(xí)本質(zhì)為求下列拉格朗日泛函的鞍點(diǎn),即

        其中,為拉格朗日乘子。其優(yōu)化目標(biāo)可以被轉(zhuǎn)化為如下的對(duì)偶問(wèn)題,即

        此時(shí)最優(yōu)超平面可表示為對(duì)偶解,即

        值可被代入原方程+=0當(dāng)中進(jìn)行求解。

        測(cè)試時(shí),對(duì)于任意數(shù)據(jù)點(diǎn),分類結(jié)果為

        若訓(xùn)練數(shù)據(jù)不可分,則可引入松弛變量,關(guān)于這部分可參考文獻(xiàn)[17]。

        2.3 有向無(wú)環(huán)圖SVM

        經(jīng)典SVM的設(shè)計(jì)是為了解決二分類問(wèn)題,當(dāng)其被拓展到多分類問(wèn)題時(shí)有以下幾種方法:①one- versus-one:為每2類學(xué)習(xí)一個(gè)分類器;②one-versus- many:為每一類與剩余的其他類訓(xùn)練出多個(gè)SVM;③many-versus-many:為所有類同時(shí)訓(xùn)練SVM。最后的2種方法顯然不適合于本文算法,因?yàn)樵谶M(jìn)行局部調(diào)整時(shí)只有少量的部分樣本包含在內(nèi)。若采用后面2種方法則SVM將會(huì)在每次局部調(diào)整時(shí)動(dòng)態(tài)地重新訓(xùn)練,這毫無(wú)疑問(wèn)地會(huì)增加訓(xùn)練復(fù)雜度。第一種方法在本次任務(wù)中是可行的,原因在于其不需要在線訓(xùn)練SVM,即所有成對(duì)SVM分類器都會(huì)被離線訓(xùn)練。

        圖5 有向無(wú)環(huán)圖SVM

        由圖5可見(jiàn),有向無(wú)環(huán)圖的頂層只含有一個(gè)節(jié)點(diǎn),即根節(jié)點(diǎn),第2層有2個(gè)節(jié)點(diǎn),以此類推,第層含有個(gè)節(jié)點(diǎn),直到最底層即將類分類完畢。若輸入一個(gè)樣本,有向無(wú)環(huán)圖由根節(jié)點(diǎn)開(kāi)始,計(jì)算每個(gè)節(jié)點(diǎn)的符號(hào)函數(shù)(·+)決策值(見(jiàn)式(4)),若為-1則進(jìn)入左子節(jié)點(diǎn),若為1則轉(zhuǎn)入右子節(jié)點(diǎn)。依次類推,在最后一層葉節(jié)點(diǎn)的輸出就可以表示樣本的類別。由此可見(jiàn),有向無(wú)環(huán)圖實(shí)際相當(dāng)于一個(gè)表格運(yùn)算:初始時(shí)表格中包含所有類,此后每次的節(jié)點(diǎn)運(yùn)算中對(duì)表格中的首尾2類進(jìn)行比較,排除樣本中最不可能屬于的類別,并刪除表中的一個(gè)類,到最后表格中剩下的唯一一類即為樣本所屬的類別。

        通常對(duì)于一個(gè)分類問(wèn)題,在測(cè)試階段只需要進(jìn)行-1次比較。這里,成對(duì)比較的次數(shù)被限制到了-1次,因?yàn)樵诰植空{(diào)整時(shí)只有類涉及到了(<)。

        2.4 領(lǐng)域范圍的設(shè)計(jì)

        理論上設(shè)計(jì)局部調(diào)整時(shí)的鄰域((),)= {|()-<<()+}是很難的,因?yàn)槠涫怯芍T多因素決定的,諸如樣本容量的大小與粗估計(jì)器的性能等。然而,可以有大方向存在:搜索的范圍越大,包含真實(shí)年齡的機(jī)會(huì)就越大。如果搜索范圍太小,可能達(dá)不到真實(shí)的年齡標(biāo)簽,就局部搜索而言可能會(huì)找到一個(gè)任意的年齡標(biāo)簽。另一方面,若局部搜索范圍太廣,其也增加了調(diào)整年齡時(shí)遠(yuǎn)離真實(shí)年齡的可能性,因?yàn)榫植糠诸愔皇且粋€(gè)局部最優(yōu)搜索。

        為了對(duì)年齡估計(jì)進(jìn)行局部調(diào)整與滿足有向無(wú)環(huán)圖SVM的特殊拓?fù)浣Y(jié)構(gòu),本文嘗試了2的冪次方的不同的局部搜索范圍:2(=1),4(=2),8(=4),16(=8)。理論上可將搜索范圍延展到與數(shù)據(jù)集的樣本容量一樣,但這樣不滿足“局部調(diào)整”的策略,因此,本文最多將搜索范圍設(shè)置到16。

        在實(shí)驗(yàn)中,本文指定了不同的范圍,并演示了不同的局部搜索范圍對(duì)于結(jié)果的影響。目的是為了表明局部調(diào)整的確可以提高單一機(jī)器學(xué)習(xí)分類器或深度學(xué)習(xí)網(wǎng)絡(luò)的年齡估計(jì)性能。

        3 實(shí)驗(yàn)結(jié)果及分析

        3.1 所用數(shù)據(jù)集

        為了驗(yàn)證本方法的有效性與普適性,選擇由黃種人組成的AFAD數(shù)據(jù)集[9]和白人與黑人組成的MORPH數(shù)據(jù)集[20]進(jìn)行消融與對(duì)比實(shí)驗(yàn)。

        (1) AFAD數(shù)據(jù)集。AFAD包括來(lái)自社交網(wǎng)路上的164 432張圖像,年齡范圍為15~40歲。是目前最大的用以年齡估計(jì)的開(kāi)源數(shù)據(jù)集,對(duì)于研究無(wú)約束環(huán)境下的人臉年齡相當(dāng)有意義。由于官方未提供對(duì)AFAD中訓(xùn)練集與測(cè)試集的劃分標(biāo)準(zhǔn),因此為了能與其他的年齡方法進(jìn)行對(duì)照,隨機(jī)將AFAD劃分為80%的訓(xùn)練集與20%的測(cè)試集。圖6為AFAD數(shù)據(jù)集中的部分示例。

        圖6 AFAD示例圖像

        (2) MORPH數(shù)據(jù)集。MORPH包括13 015個(gè)人的55 608張人臉圖像,年齡范圍為16~77歲。圖7為MORPH數(shù)據(jù)集中的一些示例。其劃分標(biāo)準(zhǔn)與AFAD類似。

        圖7 MORPH示例圖像

        3.2 預(yù)處理、實(shí)驗(yàn)設(shè)置與評(píng)價(jià)指標(biāo)

        在進(jìn)行年齡估計(jì)之前,首先對(duì)原始的人臉圖像做以下預(yù)處理:采用級(jí)聯(lián)VJ檢測(cè)器[21]進(jìn)行人臉檢測(cè),其次采用主動(dòng)外觀模型[1]對(duì)人臉基準(zhǔn)點(diǎn)進(jìn)行定位,最后將圖像縮放為224×224進(jìn)行實(shí)驗(yàn)。本次實(shí)驗(yàn)在caffe[22]的GPU開(kāi)源框架下進(jìn)行,且所用SE-ResNet-50模型來(lái)源于文獻(xiàn)[23]。

        3.3 消融實(shí)驗(yàn)

        為了證明LAAE的有效性,本文指定了不同的領(lǐng)域范圍,并演示了不同局部搜索范圍對(duì)于結(jié)果的影響。作為對(duì)比,還加入了只用SE-ResNet和只用SVM (此時(shí)的特征提取采用的是圖像三通道像素與線性降維–主成分分析)進(jìn)行的年齡估計(jì)。消融實(shí)驗(yàn)的結(jié)果見(jiàn)表1。

        表1 不同鄰域設(shè)置下的MAE對(duì)比

        由表1可得出以下結(jié)論:

        (1) MORPH中的表現(xiàn)總比AFAD要好。究其原因,在于MORPH中的圖像是官方進(jìn)行的拍攝,因此光照條件,攝像機(jī)性能等相當(dāng)良好;而AFAD中的圖像是從人人網(wǎng)中進(jìn)行爬取而獲得的,因此在分辨率上參差不齊,這便造成了性能上的差異。

        (2) 深度學(xué)習(xí)的方法在2個(gè)數(shù)據(jù)集中的表現(xiàn)均好于經(jīng)典的機(jī)器學(xué)習(xí)方法,這也進(jìn)一步論證了深度學(xué)習(xí)的優(yōu)越性。

        (3) 局部調(diào)整的效果好于單純的機(jī)器學(xué)習(xí)方法或單純的深度學(xué)習(xí)方法,但不同的鄰域使性能有所差異,且2個(gè)數(shù)據(jù)集上表現(xiàn)最好的鄰域設(shè)置是不一樣的。究其原因,在于MORPH與AFAD樣本容量的差異,即MORPH的類別數(shù)較多,因此其的搜索范圍越大表現(xiàn)的越好,但這一點(diǎn)在AFAD中卻截然相反,只有在=4時(shí)表現(xiàn)最好,之后鄰域越大效果反而越差。本文只將鄰域取到=8,除了上節(jié)所說(shuō)的鄰域越大不滿足局部調(diào)整的先驗(yàn)條件之外,還有一個(gè)重要原因,即若取=16,則局部調(diào)整的范圍就擴(kuò)大到了32,而AFAD中的類別為40-15+1=36,即相當(dāng)于年齡的二次估計(jì)。

        3.4 對(duì)比實(shí)驗(yàn)

        為了進(jìn)一步驗(yàn)證方法的有效性,將所得結(jié)果與其他的基于深度學(xué)習(xí)的年齡估計(jì)方法進(jìn)行對(duì)比。結(jié)果見(jiàn)表2和圖8~9。

        表2關(guān)于Deeply learned feature[6],Multi-scale[8]與MR-CNN[9]的描述可參見(jiàn)引言。GA-DFL[24]將年齡順序分為一組離散的群組,并且跨年齡群組去學(xué)習(xí)深度特征映射而將每對(duì)人臉映射至新的表征空間項(xiàng)目。同時(shí)來(lái)自訓(xùn)練集中的正向成對(duì)人臉組內(nèi)(intra-group)的方差被最小化且負(fù)向成對(duì)人臉組間(inter-group)的方差被最大化。OH-Ranker[25]與OR-CNN[9]通過(guò)在年齡估計(jì)中引入標(biāo)簽的排序信息進(jìn)行一系列的二分類,不同之處在于前者采用SVM而后者采用CNN模型。CNN-ELM[26]采用CNN進(jìn)行特征提取,而后采用極限學(xué)習(xí)機(jī)(extreme learning machine,ELM)進(jìn)行年齡分類。D2C[27]提出了一種新的基于點(diǎn)向累積信號(hào)(point-wise cumulative signal)的累積隱含層。在此累積隱含層中,模型是通過(guò)相鄰年齡段的人臉進(jìn)行間接學(xué)習(xí)的。由表2可看出,深度學(xué)習(xí)的方法優(yōu)于機(jī)器學(xué)習(xí)方法,且年齡標(biāo)簽問(wèn)題是年齡估計(jì)方法中不得不考慮的問(wèn)題。此外,本文方法在MORPH與AFAD中分別達(dá)到了3.04與3.17的平均絕對(duì)誤差,很明顯超出了之前方法的性能。相較于最好方法的OR-CNN,本文方法在平均情況下的性能提升了大約6%。

        表2 與其他方法的MAE對(duì)比

        圖8 局部調(diào)整年齡估計(jì)與其他方法在MORPH上關(guān)于CS的對(duì)比

        圖9 局部調(diào)整年齡估計(jì)與其他方法在AFAD上關(guān)于CS的對(duì)比

        在與其他方法的累計(jì)分?jǐn)?shù)指標(biāo)對(duì)比方面,分別選取了在MORPH上表現(xiàn)最好的LAAE (=8)和在AFAD上表現(xiàn)最好的LAAE (=4),實(shí)驗(yàn)結(jié)果如圖8與圖9所示。在圖8中,當(dāng)可允許的誤差年齡范圍大于4之后,本文方法領(lǐng)先于其他對(duì)比方法。在圖9中,本文方法一直優(yōu)于OR-CNN。

        4 結(jié)束語(yǔ)

        本文提出一種局部調(diào)整的年齡估計(jì)方法LAAE。首先利用深度學(xué)習(xí)進(jìn)行年齡全局的粗估計(jì),然后通過(guò)設(shè)定鄰域而在有向無(wú)環(huán)圖SVM上在進(jìn)行局部的細(xì)估計(jì)。通過(guò)實(shí)驗(yàn)結(jié)果可以看出LAAE的性能好于純深度學(xué)習(xí)與純機(jī)器學(xué)習(xí)方法,與其他方法的對(duì)比也能進(jìn)一步說(shuō)明LAAE的有效性。在其他模式識(shí)別方面,LAAE在理論上是可行的。未來(lái)的研究方向,可以數(shù)據(jù)驅(qū)動(dòng)鄰域搜索范圍而不是人為機(jī)械地進(jìn)行設(shè)置。

        [1] COOTES T F, EDWARDS G J, TAYLOR C J. Active appearance models[M]//Lecture Notes in Computer Science. Heidelberg: Springer, 1998: 484-498.

        [2] LU J W, LIONG V E, ZHOU J. Cost-sensitive local binary feature learning for facial age estimation[J]. IEEE Transactions on Image Processing, 2015, 24(12): 5356-5368.

        [3] GUO G D, FU Y, HUANG T S, et al. Locally adjusted robust regression for human age estimation[C]//2008 IEEE Workshop on Applications of Computer Vision. New York: IEEE Press, 2008: 1-6.

        [4] GUO G D, MU G W, FU Y, et al. Human age estimation using bio-inspired features[C]//2009 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2009: 112-119.

        [5] FU Y, HUANG T S. Human age estimation with regression on discriminative aging manifold[J]. IEEE Transactions on Multimedia, 2008, 10(4): 578-584.

        [6] WANG X L, GUO R, KAMBHAMETTU C. Deeply-learned feature for age estimation[C]//2015 IEEE Winter Conference on Applications of Computer Vision. New York: IEEE Press, 2015: 534-541.

        [7] LEVI G, HASSNCER T. Age and gender classification using convolutional neural networks[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). New York: IEEE Press, 2015: 34-42.

        [8] YI D, LEI Z, LI S Z. Age estimation by multi-scale convolutional network[EB/OL]. [2020-06-01]. https://link. springer.com/chapter/10.1007%2F978-3-319-16811-1_10.

        [9] NIU Z X, ZHOU M, WANG L, et al. Ordinal regression with multiple output CNN for age estimation[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2016: 4920-4928.

        [10] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2016: 770-778.

        [11] HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2018: 7132-7141.

        [12] GUO G D, LI S Z, CHAN K L. Support vector machines for face recognition[J]. Image and Vision Computing, 2001, 19(9-10): 631-638.

        [13] GUO G D, LI S Z, CHAN K L. Face recognition by support vector machines[C]//The 4th IEEE International Conference on Automatic Face and Gesture Recognition (FG 2000). New York: IEEE Press,2000: 196-201.

        [14] GUO G D, JAIN A K, MA W Y, et al. Learning similarity measure for natural image retrieval with relevance feedback[J]. IEEE Transactions on Neural Networks, 2002, 13(4): 811-820.

        [15] GUO G D, LI S Z. Content-based audio classification and retrieval by support vector machines[J]. IEEE Transactions on Neural Networks, 2003, 14(1): 209-215.

        [16] GUO G, DYER C R. Learning from examples in the small sample case: face expression recognition[J]. IEEE Transactions on Systems, Man and Cybernetics, Part B (Cybernetics), 2005, 35(3): 477-488

        [17] 李航. 統(tǒng)計(jì)學(xué)習(xí)方法[M]. 北京: 清華大學(xué)出版社, 2012: 15-16.LI H. Statistical learning methods[M]. Beijing: Tsinghua University Press, 2012:15-16 (in Chinese).

        [18] 周志華. 機(jī)器學(xué)習(xí)[M]. 北京: 清華大學(xué)出版社, 2016: 45-46. ZHOU Z H. Machine learning[M]. Beijing: Tsinghua University Press, 2016: 45-46 (in Chinese).

        [19] 王艷, 陳歡歡, 沈毅. 有向無(wú)環(huán)圖的多類支持向量機(jī)分類算法[J]. 電機(jī)與控制學(xué)報(bào), 2011, 15(4): 85-89.WANG Y, CHEN H H, SHEN Y. Classification algorithm of multi-class support vector machines for directed acyclic graphs[J]. Journal of Motor and Control, 2011, 15(4): 85-89 (in Chinese).

        [20] RAWLS A W, RICANEK K JR. MORPH: development and optimization of a longitudinal age progression database[M]// Biometric ID Management and Multimodal Communication. Heidelberg: Springer, 2009: 17-24.

        [21] VIOLA P, JONES M. Rapid object detection using a boosted cascade of simple features[C]//2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2001: 511-518.

        [22] JIA Y Q, SHELHAMER E, DONAHUE J, et al. Caffe: convolutional architecture for fast feature embedding[C]// Proceedings of the ACM International Conference on Multimedia – MM’14. New York: ACM Press, 2014: 675-678.

        [23] CAO Q, SHEN L, XIE W D, et al. VGGFace2: a dataset for recognising faces across pose and age[C]//The 13th IEEE International Conference on Automatic Face and Gesture Recognition (FG 2018). New York: IEEE Press, 2018: 67-74.

        [24] LIU H, LU J W, FENG J J, et al. Group-aware deep feature learning for facial age estimation[J]. Pattern Recognition, 2017, 66: 82-94.

        [25] CHANG K Y, CHEN C S, HUNG Y P. Ordinal hyperplanes ranker with cost sensitivities for age estimation[C]//2011 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2011: 585-592.

        [26] DUAN M X, LI K L, YANG C Q, et al. A hybrid deep learning CNN-ELM for age and gender classification[J]. Neurocomputing, 2018, 275: 448-461.

        [27] LI K, XING J L, HU W M, et al. D2C: deep cumulatively and comparatively learning for human age estimation[J]. Pattern Recognition, 2017, 66: 95-105.

        Locally adjusted age estimation based on deep learning and directed acyclic graph SVM

        LI Jun1, YANG Ya-zhi2

        (1. Teaching Construction and Teaching Quality Management Section, Department of Education, Chengdu Technological University, Chengdu Sichuan 611730, China; 2. School of Computer Engineering, Chengdu Technological University, Chengdu Sichuan 611730, China)

        In order to further enhance the accuracy of age estimation, we proposed a locally adjusted age estimation algorithm based on deep learning and directed acyclic graph-support vector machine(SVM). In the training phase, the SE-ResNet-50 network, pre-trained on the VGGFace2 data set, was first fine-tuned. When it converged, the fully connected layer was extracted, and the vector formed by its end-to-end connection was employed as a representation and further trained multiple one-versus-one SVM. In the testing phase, we first sent the face image into SE-ResNet-50 to obtain a rough age result, then set the specific neighborhood, finally integrated the trained SVM into a directed acyclic graph SVM, and conducted accurate age estimation centering on the global estimation value. In order to show the universality of the algorithm, the results of experiments undertaken in MORPH and AFAD datasets of different races can verify the effectiveness of the algorithm.

        age estimation; deep learning; directed acyclic graph support vector machine; local adjustment

        TP 391

        10.11996/JG.j.2095-302X.2021010001

        A

        2095-302X(2021)01-0001-07

        2020-07-07;

        7 July,2020;

        2020-09-15

        15 September,2020

        四川省教育廳《省級(jí)教育體制機(jī)制改革試點(diǎn)項(xiàng)目》(G5-08)

        :Provincial Education System and Mechanism Reform Pilot Project of Sichuan Provincial Education Department (G5-08)

        李 駿(1983-),男,四川瀘縣人,助理研究員,碩士。主要研究方向?yàn)橛?jì)算機(jī)輔助教學(xué)管理與高教研究。E-mail:luckyli1983@sina.com

        LI Jun (1983-), male, research assistant, master. His main research interests cover computer-aided teaching management and higher education research. E-mail:luckyli1983@sina.com

        楊雅志(1983-),男,四川崇州人,講師,在讀博士。主要研究方向?yàn)榇髷?shù)據(jù)與智慧教育。E-mail:yyzhi@mail.cdtu.edu.cn

        YANG Ya-zhi (1983-), male, lecturer, Ph.D candidate. His main research interests cover big data and wisdom education. E-mail:yyzhi@mail.cdtu.edu.cn

        猜你喜歡
        鄰域人臉調(diào)整
        夏季午睡越睡越困該如何調(diào)整
        有特點(diǎn)的人臉
        工位大調(diào)整
        意林(2020年10期)2020-06-01 07:26:37
        稀疏圖平方圖的染色數(shù)上界
        三國(guó)漫——人臉解鎖
        基于鄰域競(jìng)賽的多目標(biāo)優(yōu)化算法
        滬指快速回落 調(diào)整中可增持白馬
        關(guān)于-型鄰域空間
        馬面部與人臉相似度驚人
        18
        精品国产1区2区3区AV| 影音先锋中文字幕无码资源站| 国产涩涩视频在线观看| 亚洲综合AV在线在线播放| 亚洲国产一区二区三区视频在线| 人妻少妇中文字幕,久久精品 | 亚洲精品无码久久久久y| 久久综合精品国产一区二区三区无码| 精品国产免费Av无码久久久| 亚洲国产成人精品久久成人| 所有视频在线观看免费| 果冻传媒2021精品一区| 国产成年无码V片在线| 日本岛国一区二区三区| 亚洲av成人一区二区三区色| 久草视频这里有精品| 亚洲日日噜噜噜夜夜爽爽| 亚洲黄色在线看| 天堂麻豆精品在线观看| 四虎成人精品在永久免费| 黑人玩弄漂亮少妇高潮大叫| 亚洲一区二区三区av在线免费| 久久91精品国产91久久跳舞| 亚洲小说区图片区色综合网| a级毛片在线观看| 欧洲国产精品无码专区影院| 精品亚洲一区二区三洲| 扒开腿狂躁女人爽出白浆| 日韩精品一区二区三区在线观看 | 国产精品永久免费视频| 偷拍熟女亚洲另类| 阴唇两边有点白是怎么回事| 欧美成免费a级毛片| 国产白丝在线| 熟女乱乱熟女乱乱亚洲| 成午夜福利人试看120秒| 无码任你躁久久久久久| 国产乱人伦AⅤ在线麻豆A| 少妇太爽了在线观看免费| 激情综合色综合久久综合| 国产精品成人午夜久久|