亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人臉妝容遷移研究綜述

        2022-01-25 18:53:58米愛(ài)中喬應(yīng)旭許成敬霍占強(qiáng)
        關(guān)鍵詞:妝容化妝人臉

        米愛(ài)中,張 偉,喬應(yīng)旭,許成敬,霍占強(qiáng)

        1.河南理工大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,河南 焦作 454003

        2.河南能源化工集團(tuán)有限公司 九里山礦,河南 焦作 454150

        隨著社會(huì)的發(fā)展,人們?cè)絹?lái)越注重自己的外表形象,在面部美化技術(shù)中,化妝是一種通過(guò)化妝品來(lái)有效改善面部外觀的方法。據(jù)國(guó)家統(tǒng)計(jì)局?jǐn)?shù)據(jù)顯示,2020年12月,全國(guó)化妝品零售額為324億元,同比增長(zhǎng)9%;1~12月份全國(guó)化妝品零售額為3 400億元,同比增長(zhǎng)9.5%。美妝產(chǎn)業(yè)推出眾多美妝產(chǎn)品,包括粉底、眼影、唇膏、腮紅、貼紙等。但是面對(duì)琳瑯滿目的美妝產(chǎn)品,人們無(wú)從選擇,更不知什么樣的妝容更適合自己。因此,虛擬試妝逐漸成為愛(ài)美人士備受青睞的一項(xiàng)技術(shù),而人臉妝容遷移技術(shù)是虛擬試妝的核心。

        人臉妝容遷移是一項(xiàng)具有挑戰(zhàn)的任務(wù)。首先它需要從帶有妝容的參考圖像中提取化妝品成分;其次還需要分析人臉面部結(jié)構(gòu),以便在未對(duì)齊的面部之間準(zhǔn)確遷移妝容;最后人臉妝容遷移過(guò)程中有許多因素需要考慮,包括頭部姿勢(shì)、面部表情、光照和遮擋等。如圖1所示,人臉妝容遷移提供了一種高效的方式來(lái)實(shí)現(xiàn)虛擬試妝。其中,Sourcex指素顏圖像,Referencey指參考圖像,Result指妝容遷移后的結(jié)果。

        由于人臉妝容遷移的研究在零售業(yè)和娛樂(lè)業(yè)有著非常重要的應(yīng)用價(jià)值,越來(lái)越多的研究者試圖設(shè)計(jì)各種算法來(lái)解決人臉妝容遷移問(wèn)題。特別是在過(guò)去的幾年里,隨著生成對(duì)抗網(wǎng)絡(luò)的出現(xiàn),基于生成對(duì)抗網(wǎng)絡(luò)的模型在包括人臉妝容遷移的各種圖像生成任務(wù)中取得了壓倒性的優(yōu)勢(shì)。

        據(jù)作者所知,目前國(guó)內(nèi)外還沒(méi)有公開(kāi)發(fā)表的關(guān)于人臉妝容遷移的綜述性文章。本文重點(diǎn)對(duì)基于生成對(duì)抗網(wǎng)絡(luò)的人臉妝容遷移方法進(jìn)行梳理、分析、總結(jié)和展望,主要貢獻(xiàn)可以歸納為以下三點(diǎn):

        (1)從關(guān)注問(wèn)題、網(wǎng)絡(luò)架構(gòu)、優(yōu)缺點(diǎn)等方面對(duì)人臉妝容遷移領(lǐng)域的現(xiàn)有方法進(jìn)行全面系統(tǒng)的梳理,有利于研究者系統(tǒng)了解基于生成對(duì)抗網(wǎng)絡(luò)的人臉妝容遷移算法的研究現(xiàn)狀及核心技術(shù)。

        (2)對(duì)人臉妝容遷移方法常用的數(shù)據(jù)集、性能評(píng)價(jià)指標(biāo)及損失函數(shù)進(jìn)行總結(jié),為未來(lái)研究人員設(shè)計(jì)更好的妝容遷移模型提供經(jīng)驗(yàn)。

        (3)對(duì)人臉妝容遷移領(lǐng)域相關(guān)發(fā)展趨勢(shì)進(jìn)行展望,為進(jìn)一步研究基于生成對(duì)抗網(wǎng)絡(luò)的人臉妝容遷移技術(shù)提供可能的發(fā)展方向。

        1 人臉妝容遷移方法概覽

        人臉妝容遷移的各種方法主要分為三類:傳統(tǒng)方法、卷積神經(jīng)網(wǎng)絡(luò)方法以及生成對(duì)抗網(wǎng)絡(luò)(generative adversarial networks,GAN)方法。

        基于傳統(tǒng)方法的妝容遷移:Tong等[1]通過(guò)計(jì)算化妝前后色彩與光照變化,調(diào)整素顏圖像和妝容圖像的皮膚紋理和膚色差異,將妝容遷移到素顏圖像上。該方法對(duì)化妝前后圖片對(duì)要求較高,實(shí)用性較低。Guo等[2]提出類似于物理化妝的人臉妝容遷移方法,其核心是先將源圖像和參考圖像分為三個(gè)圖層:面部結(jié)構(gòu)層、皮膚細(xì)節(jié)層和顏色層,再將參考圖像的妝容信息通過(guò)每個(gè)圖層遷移到源圖像。該方法遷移過(guò)程較為復(fù)雜,處理速度較慢,耗費(fèi)時(shí)間較長(zhǎng)。Scherbaum等[3]使用人臉的三維形變模型[4]建立素顏到化妝的映射,該方法需要收集同一個(gè)人妝前妝后的成對(duì)圖片。Li等[5]將圖像分解成多個(gè)固有圖層,根據(jù)基于物理的反射模型,通過(guò)操作圖層來(lái)模擬化妝,最終實(shí)現(xiàn)面部化妝。該方法根據(jù)化妝品屬性直接對(duì)圖層進(jìn)行操作,不要求數(shù)據(jù)集中的樣本妝前妝后人臉對(duì)齊。但由于該方法很大程度上依賴固有圖層分解的精確性,因此分解誤差會(huì)降低遷移結(jié)果的質(zhì)量,另外,其處理速度也有待提高。

        基于卷積神經(jīng)網(wǎng)絡(luò)的妝容遷移方法:隨著深度學(xué)習(xí)的不斷發(fā)展以及傳統(tǒng)人臉妝容遷移方法的局限性,一些學(xué)者對(duì)基于卷積神經(jīng)網(wǎng)絡(luò)的妝容遷移進(jìn)行了研究。Liu等[6]提出一種深度局部妝容遷移網(wǎng)絡(luò),具體流程為:首先從已上妝人臉數(shù)據(jù)庫(kù)中挑選與當(dāng)前素顏人臉最相近的圖片;然后采用全卷積圖像分割網(wǎng)絡(luò)進(jìn)行人臉?lè)指?,提取五官區(qū)域;最后是完成對(duì)粉底(對(duì)應(yīng)面部)、唇彩(對(duì)應(yīng)雙唇)、眼影(對(duì)應(yīng)雙眼)的妝容遷移。該方法雖然可以控制妝容濃度,但整體效果不夠自然。Wang等[7]提出了一種自動(dòng)化妝檢測(cè)器和卸妝框架,對(duì)于化妝品檢測(cè),其采用局部約束字典學(xué)習(xí)算法來(lái)定位化妝品的使用情況,并使用一種基于局部約束的耦合字典學(xué)習(xí)(LC-CDL)框架來(lái)實(shí)現(xiàn)卸妝。王偉光等[8]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的新方法,首先對(duì)源圖像和參考圖像的特征信息進(jìn)行定位和提取,通過(guò)妝容遷移網(wǎng)絡(luò)和損失函數(shù)實(shí)現(xiàn)妝容的自動(dòng)遷移。黃妍等[9]提出一種多通路的分區(qū)域快速妝容遷移網(wǎng)絡(luò)模型,通過(guò)人臉關(guān)鍵點(diǎn)檢測(cè)完成端到端的人臉校準(zhǔn),利用通路差異的損失函數(shù)根據(jù)不同面部區(qū)域的妝容特點(diǎn)優(yōu)化網(wǎng)絡(luò),最后通過(guò)泊松融合及多通路的輸出生成遷移結(jié)果。

        基于生成對(duì)抗網(wǎng)絡(luò)的妝容遷移方法:傳統(tǒng)方法和基于卷積神經(jīng)網(wǎng)絡(luò)的方法雖能夠?qū)崿F(xiàn)人臉妝容遷移的效果,但是幾乎所有方法都將妝容風(fēng)格視為不同組件的簡(jiǎn)單組合,這導(dǎo)致整體輸出圖像看起來(lái)不自然,遷移效果整體較差。近年來(lái),生成對(duì)抗網(wǎng)絡(luò)技術(shù)[10]不斷發(fā)展,由于其能夠產(chǎn)生視覺(jué)上逼真的圖像的能力而被廣泛用于計(jì)算機(jī)視覺(jué)任務(wù)[11-14]。相比于傳統(tǒng)和基于卷積神經(jīng)網(wǎng)絡(luò)的人臉妝容遷移方法,基于生成對(duì)抗網(wǎng)絡(luò)的人臉妝容遷移方法可以顯著提升遷移效果,已經(jīng)成為當(dāng)前人臉妝容遷移領(lǐng)域的研究熱點(diǎn)。

        圖2按時(shí)間順序展示了近幾年基于生成對(duì)抗網(wǎng)絡(luò)的代表性工作。根據(jù)重點(diǎn)解決的問(wèn)題不同,基于生成對(duì)抗網(wǎng)絡(luò)的人臉妝容遷移研究可以分為五類:第一類受CycleGAN[15]啟發(fā),在循環(huán)生成對(duì)抗網(wǎng)絡(luò)上訓(xùn)練的面向上妝和卸妝的妝容遷移網(wǎng)絡(luò),如BeautyGAN[16]、Paired-CycleGAN[17]、LADN[18];第二類是面向遷移魯棒性的人臉妝容遷移網(wǎng)絡(luò),如PSGAN[19]、FAT[20]、PSGAN++[21];第三類是基于3D人臉模型的人臉妝容遷移網(wǎng)絡(luò),如CPM[22];第四類是基于弱監(jiān)督的人臉妝容遷移網(wǎng)絡(luò),如CA-GAN[23];第五類是除以上四類之外的其他解決人臉妝容遷移問(wèn)題的方法,如DMT[24]。

        圖2 近年來(lái)人臉妝容遷移領(lǐng)域的代表性工作Fig.2 Chronological overview of recent representative work in facial makeup transfer

        2 生成對(duì)抗網(wǎng)絡(luò)方法

        表1從基礎(chǔ)網(wǎng)絡(luò)、模型、年份、優(yōu)點(diǎn)、局限性和適用場(chǎng)景六個(gè)方面對(duì)2018年到2021年基于對(duì)抗生成網(wǎng)絡(luò)的代表性人臉妝容遷移方法進(jìn)行了歸納總結(jié)。下面將詳細(xì)介紹面向上妝和卸妝的妝容遷移方法、面向魯棒性的妝容遷移方法、基于3D人臉模型的妝容遷移方法、基于弱監(jiān)督的妝容遷移方法、其他妝容遷移方法等五類方法。

        表1 基于GAN的人臉妝容遷移模型對(duì)比Table 1 Comparison of facial makeup transfer models based on GAN

        2.1 面向上妝和卸妝的妝容遷移方法

        面向上妝和卸妝的妝容遷移方法是指一個(gè)妝容遷移網(wǎng)絡(luò)同時(shí)訓(xùn)練兩個(gè)映射,一個(gè)用于上妝,一個(gè)用于卸妝。代表工作主要有BeautyGAN[16]、PairedCycleGAN[17]、LADN[18]和SLGAN[25],典型網(wǎng)絡(luò)架構(gòu)如圖3所示。

        BeautyGAN:由于妝容風(fēng)格是由幾種局部化妝品組成,現(xiàn)有風(fēng)格遷移方法無(wú)法實(shí)現(xiàn)提取并遷移局部的精致的妝容信息。針對(duì)該問(wèn)題,Li等[16]提出一個(gè)雙輸入/輸出生成對(duì)抗網(wǎng)絡(luò)框架——BeautyGAN,將全局域級(jí)損失和局部實(shí)例級(jí)損失合并在同一網(wǎng)絡(luò)中,在統(tǒng)一的框架下實(shí)現(xiàn)妝容遷移,該模型的網(wǎng)絡(luò)框架圖如圖3(a)所示。為了保持面部特征和消除偽影,作者在總目標(biāo)函數(shù)中加入了感知損失和循環(huán)一致性損失,具體公式見(jiàn)3.2和3.3節(jié)。在域級(jí)遷移的基礎(chǔ)上,采用基于不同面部區(qū)域計(jì)算的像素級(jí)直方圖損失來(lái)實(shí)現(xiàn)實(shí)例級(jí)遷移,對(duì)比實(shí)驗(yàn)證明了直方圖損失對(duì)實(shí)例化妝品遷移是有益的。BeautyGAN作為最早使用GAN進(jìn)行妝容遷移的方法,從人類視覺(jué)感角度,相比于傳統(tǒng)方法,遷移效果獲得顯著的提升。但BeautyGAN只在正臉圖像上有較好的遷移效果,魯棒性相對(duì)較差,不能對(duì)妝容遷移結(jié)果進(jìn)行編輯。

        PairedCycleGAN:受到CycleGAN的啟發(fā),Chang等[17]提出了面向上妝和卸妝的PairedCycleGAN模型。該模型使用無(wú)監(jiān)督學(xué)習(xí)方法解決妝容遷移問(wèn)題,不要求妝前妝后成對(duì)的訓(xùn)練數(shù)據(jù)。該模型中引入兩個(gè)不對(duì)稱函數(shù)G和F,其中G負(fù)責(zé)遷移妝容風(fēng)格,F(xiàn)負(fù)責(zé)卸妝,該模型的網(wǎng)絡(luò)框架圖如圖3(b)所示。由圖3(b)可知,給定一張素顏圖片和一張化妝圖片,該模型同時(shí)學(xué)習(xí)一個(gè)妝容遷移函數(shù)G和一個(gè)卸妝函數(shù)F。為了實(shí)現(xiàn)遷移特定化妝風(fēng)格的同時(shí)保持源圖像的身份一致性,作者提出身份損失和風(fēng)格損失,具體損失函數(shù)見(jiàn)3.5節(jié)的公式(6)~(8)。相比于之前的工作,該模型生成圖像的速度更快,源圖像的身份特征信息保持得更好,但在遷移適用性、魯棒性和可編輯方面存在和BeautyGAN相同的局限性。

        圖3 面向上妝和卸妝的妝容遷移方法框架圖Fig.3 Framework diagram of makeup transfer methods for makeup and makeup removal

        LADN:針對(duì)生成對(duì)抗網(wǎng)絡(luò)不能在全局對(duì)抗中傳遞高頻細(xì)節(jié),只適用于簡(jiǎn)單風(fēng)格的問(wèn)題,Gu等[18]提出一種局部對(duì)抗分離網(wǎng)絡(luò)(LADN)。其核心思想是在一個(gè)內(nèi)容-風(fēng)格分離網(wǎng)絡(luò)中,使用多個(gè)重疊的局部對(duì)抗鑒別器,實(shí)現(xiàn)面部圖像之間的局部細(xì)節(jié)遷移。局部對(duì)抗鑒別器可以在無(wú)監(jiān)督的環(huán)境下進(jìn)行跨圖像風(fēng)格遷移時(shí),更好地區(qū)分生成的局部圖像細(xì)節(jié)是否與給定參考圖像中的相應(yīng)區(qū)域一致。跟之前的方法相比,LADN是第一個(gè)實(shí)現(xiàn)極端和戲劇性?shī)y容風(fēng)格上妝和卸妝的。為了處理極端妝容風(fēng)格包含的高頻成分,LADN引入非對(duì)稱損失函數(shù),具體損失函數(shù)見(jiàn)3.5節(jié)的公式(9)、(10)。LADN在上妝和卸妝效果上較之前的方法有了進(jìn)一步的提高,但在對(duì)極端妝容風(fēng)格進(jìn)行卸妝時(shí),存在局部顏色一致而整個(gè)面部顏色存在差異的問(wèn)題。

        SLGAN:Horita等[25]提出一個(gè)風(fēng)格編碼(style code)和潛在編碼(latent code)聯(lián)合引導(dǎo)的生成對(duì)抗網(wǎng)絡(luò)模型——SLGAN,這是第一個(gè)將風(fēng)格編碼和潛在編碼引導(dǎo)框架應(yīng)用于妝容遷移和卸妝的方法。該框架由生成器G、風(fēng)格編碼器SE、映射網(wǎng)絡(luò)MN和判別器D組成,如圖3(c)所示。生成器包括共享編碼器Enc、風(fēng)格引導(dǎo)解碼器Gs和風(fēng)格不變解碼器Gi。判別器D為多任務(wù)判別器,與風(fēng)格編碼器SE架構(gòu)相同。SLGAN提出了一個(gè)感知化妝損失和風(fēng)格不變的解碼器,前者可以根據(jù)直方圖匹配遷移化妝風(fēng)格,后者可以通過(guò)計(jì)算解碼器輸出和風(fēng)格引導(dǎo)編碼器之間的歐式距離以避免身份遷移。此外,SLGAN還使用自適應(yīng)實(shí)例歸一化(AdaIN)來(lái)調(diào)整生成器參數(shù),能夠執(zhí)行插值妝容遷移。定性和定量實(shí)驗(yàn)表明,SLGAN的妝容遷移和卸妝效果相比于之前的方法有一定的提升,局限性在于SLGAN不適用于極端妝容風(fēng)格遷移。

        2.2 面向魯棒性的妝容遷移方法

        面向魯棒性的妝容遷移方法是指在面部表情和姿態(tài)具有差異的條件下,妝容遷移網(wǎng)絡(luò)仍能獲得滿意的遷移效果。代表工作主要有PSGAN[19]、FAT[20]和PSGAN++[21],其網(wǎng)絡(luò)架構(gòu)如圖4所示。

        圖4 面向魯棒性的妝容遷移方法框架圖Fig.4 Framework diagram of robustness oriented makeup transfer methods

        PSGAN:針對(duì)在源圖像和參考圖像存在表情和姿態(tài)差異的情況下遷移效果較差和不能實(shí)現(xiàn)可控的妝容色彩遷移以及特定部位遷移的問(wèn)題,Jiang等[19]提出了姿態(tài)和表情魯棒的空間感知生成對(duì)抗網(wǎng)絡(luò),如圖4(a)所示。該網(wǎng)絡(luò)主要包括三個(gè)模塊:妝容蒸餾網(wǎng)絡(luò)(MDNet)、注意力妝容形變模塊(AMM)、妝容應(yīng)用網(wǎng)絡(luò)(MANet)。PSGAN使用注意力妝容形變模塊來(lái)處理不同頭部姿態(tài)和面部表情之間的轉(zhuǎn)換以實(shí)現(xiàn)魯棒性的妝容遷移,但當(dāng)參考圖像存在遮擋和陰影時(shí),遷移魯棒性較差,且該方法也不能實(shí)現(xiàn)卸妝。

        FAT:受Transformer[33]中的自注意力機(jī)制的啟發(fā),Wan等[20]設(shè)計(jì)了一個(gè)面部屬性變換器(FAT)對(duì)源圖像和參考圖像之間的語(yǔ)義對(duì)應(yīng)和交互進(jìn)行建模,進(jìn)而精確地估計(jì)和遷移人臉屬性,其網(wǎng)絡(luò)框架圖如圖4(b)所示。此外,為了方便面部形狀變形和變換,作者將薄板樣條函數(shù)(TPS)集成到FAT中,創(chuàng)建了空間FAT。通過(guò)FAT和空間FAT可以實(shí)現(xiàn)高質(zhì)量的妝容遷移,空間FAT是結(jié)合顏色遷移和形狀變換的妝容遷移方法,這也是第一個(gè)除了顏色和紋理之外,還可以遷移幾何屬性的方法。值得注意的是,該方法不僅適用于人臉妝容屬性遷移,也適用于其他人臉屬性遷移,比如人臉年齡屬性,局限性在于不能實(shí)現(xiàn)卸妝和妝容編輯。

        PSGAN++:Liu等[21]在PSGAN的基礎(chǔ)上,解決了妝容遷移中的上妝和卸妝問(wèn)題,其網(wǎng)絡(luò)框架如圖4(c)所示。該網(wǎng)絡(luò)框架主要包含四個(gè)模塊:妝容蒸餾網(wǎng)絡(luò)(MDNet)、注意力妝容形變模塊(AMM)、風(fēng)格遷移網(wǎng)絡(luò)(STNet)以及身份蒸餾網(wǎng)絡(luò)(IDNet)。相比于之前的妝容遷移方法,PSGAN++是一種多功能的方法,能夠?qū)崿F(xiàn)姿勢(shì)/表情魯棒、部分妝容遷移、妝容程度可控、細(xì)節(jié)保存遷移以及卸妝等多個(gè)功能。無(wú)論是定性還是定量實(shí)驗(yàn)結(jié)果,都表明該方法在遷移效果上有進(jìn)一步的提升。但與PSGAN相同的是,當(dāng)參考圖像存在遮擋和陰影問(wèn)題時(shí),遷移效果會(huì)受到影響。

        2.3 基于3D人臉模型的妝容遷移方法

        基于3D人臉模型的妝容遷移方法是指通過(guò)對(duì)源圖像和參考圖像擬合一個(gè)三維人臉模型來(lái)分解圖像的形狀和紋理以實(shí)現(xiàn)妝容遷移的方法。代表工作主要有CPM[22]和SOGAN[26],其網(wǎng)絡(luò)架構(gòu)如圖5所示。

        圖5 基于3D人臉模型的妝容遷移方法框架圖Fig.5 Framework diagram of makeup transfer methods based on 3D facial model

        CPM:Nguyen等[22]于2021年提出一個(gè)不僅可以遷移妝容顏色,還可以實(shí)現(xiàn)圖案遷移的整體妝容遷移框架。該框架包括兩個(gè)分支:顏色遷移分支和圖案遷移分支,分別處理妝容顏色和妝容圖案的遷移,兩個(gè)分支可以獨(dú)立地并行運(yùn)行,如圖5(a)所示。為了減少源圖像和參考圖像在形狀、頭部姿勢(shì)和表情之間的差異,顏色遷移分支和圖案遷移分支在訓(xùn)練時(shí)都使用了UV空間中的扭曲面。受3D人臉模型的啟發(fā),作者借鑒PRNet[34]的思想,使用UV轉(zhuǎn)換函數(shù)提取面部圖像的UV位置圖和UV紋理圖,并將紋理圖分別送入兩個(gè)分支在UV空間實(shí)現(xiàn)妝容變換,兩個(gè)分支的輸出融合為最終的紋理圖,使用渲染函數(shù)UV-1將其轉(zhuǎn)換為標(biāo)準(zhǔn)圖像表示。實(shí)驗(yàn)結(jié)果表明,無(wú)論是圖案遷移還是顏色遷移,CPM的遷移效果都領(lǐng)先于當(dāng)前的方法,但不足之處是CPM不能實(shí)現(xiàn)卸妝。

        SOGAN:目前的妝容遷移方法雖然在較大的姿勢(shì)和表情變化時(shí)也有不錯(cuò)的遷移效果,但當(dāng)參考圖像上存在遮擋和陰影時(shí),就會(huì)錯(cuò)誤地遷移陰影,導(dǎo)致輸出圖像出現(xiàn)重影偽影,這使得輸出圖像的相應(yīng)位置缺少妝容細(xì)節(jié)。為此,Lyu等[26]提出一種新的妝容遷移方法——SOGAN(3D-aware shadow and occlusion robust GAN),其網(wǎng)絡(luò)框架如圖5(b)所示。該方法只在UV紋理空間中遷移化妝,利用人臉在UV空間的對(duì)稱性,提出翻轉(zhuǎn)注意模塊(FAM)和妝容遷移模塊(MTM)來(lái)減輕陰影和遮擋的影響,以實(shí)現(xiàn)更精確的妝容遷移。但其局限性在于該方法不適用于極端妝容風(fēng)格遷移,且不能實(shí)現(xiàn)卸妝功能。

        2.4 基于弱監(jiān)督的妝容遷移方法

        基于弱監(jiān)督的妝容遷移方法是指在妝容遷移過(guò)程中采用弱監(jiān)督方式訓(xùn)練遷移網(wǎng)絡(luò)的方法。代表工作主要有CA-GAN[23]和MakeupBag[27],MakeupBag[27]的網(wǎng)絡(luò)架構(gòu)如圖6所示。

        圖6 MakeupBag網(wǎng)絡(luò)框架圖Fig.6 Framework diagram of MakeupBag

        CA-GAN:Robin等[23]為人臉妝容遷移提出一個(gè)新的目標(biāo),即學(xué)習(xí)一種顏色可控的妝容風(fēng)格合成。CA-GAN是一種顏色感知的條件GAN,可以將圖像中特定對(duì)象的顏色修改為任意的目標(biāo)顏色。CA-GAN引入了一個(gè)生成模型,它可以將圖像中的特定對(duì)象(如嘴唇或眼睛)的顏色修改為任意目標(biāo)顏色,且保留背景。由于顏色標(biāo)簽很少,并且獲取成本較高,該方法使用的是弱監(jiān)督條件生成對(duì)抗網(wǎng)絡(luò),這能夠更好地學(xué)習(xí)可控合成。雖然該模型可以實(shí)現(xiàn)對(duì)多種化妝品的顏色控制,但人臉妝容的空間信息卻沒(méi)有被考慮。

        MakeupBag:Hoshen[27]提出MakeupBag,將妝容遷移過(guò)程分為兩個(gè)階段,(1)妝容提??;(2)妝容應(yīng)用,其網(wǎng)絡(luò)框架如圖6所示。MakeupBag將妝容提取視為一項(xiàng)弱監(jiān)督的妝容分割任務(wù),該模塊的輸出是一個(gè)妝容分割掩膜(Mask),用于創(chuàng)建妝容遷移后的目標(biāo)圖像的估計(jì)圖像。在妝容應(yīng)用階段,生成器由全局生成器和局部增強(qiáng)器組成,將源圖像和參考圖像以及分割圖作為輸入,輸出一個(gè)妝容遷移后的真實(shí)圖像,以實(shí)現(xiàn)在任意人臉上應(yīng)用妝容風(fēng)格。相比于之前的方法,MakeupBag不僅允許編輯化妝風(fēng)格,還可以實(shí)現(xiàn)更高分辨率和更高質(zhì)量的妝容遷移,其局限性為該方法也不能實(shí)現(xiàn)卸妝和妝容編輯。

        2.5 其他妝容遷移方法

        DMT:Zhang等[24]提出了DMT(disentangled makeup transfer),實(shí)現(xiàn)了不同場(chǎng)景下妝容遷移的模型。該模型能夠處理不同的化妝遷移場(chǎng)景,包括成對(duì)遷移、插值遷移、混合遷移和多模態(tài)遷移,這些都是相關(guān)研究無(wú)法實(shí)現(xiàn)的。DMT是第一個(gè)借助解耦表征(disentangled representation)來(lái)解決妝容遷移的模型,相比之前的方法,模型在遷移效果上有進(jìn)一步的提高,其局限性為不適用于極端妝容遷移且不支持卸妝。

        BeautyGlow:Chen等[29]提出一種無(wú)監(jiān)督的按需妝容遷移方法——BeautyGlow,該方法是第一個(gè)基于Glow[35]的妝容遷移框架。BeautyGlow不需要訓(xùn)練生成器和鑒別器,使得它更加穩(wěn)定。該方法不適用于極端妝容遷移且魯棒性較差。

        Eye Makeup Transfer:Zhu等[28]提出了一種自動(dòng)編碼器結(jié)構(gòu),使用合成的成對(duì)數(shù)據(jù)和非成對(duì)數(shù)據(jù)進(jìn)行眼妝遷移。同時(shí),基于妝容表征,該框架通過(guò)簡(jiǎn)單地調(diào)整妝容權(quán)重來(lái)控制化妝程度,但該方法只適用于眼妝遷移。

        IPM-Net:Huang等[30]提出一個(gè)新的身份保持化妝模型IPM-Net,該模型將人臉圖像分解成兩種不同的信息編碼——身份內(nèi)容編碼和妝容風(fēng)格編碼,只需改變妝容風(fēng)格編碼就可以生成目標(biāo)人物的各種妝容圖像。該模型既可以保持源圖像的背景信息,也可以保持原始身份信息。在遷移效果評(píng)定標(biāo)準(zhǔn)方面,IPM-Net采用FID[36]和LPIPS[37]用于妝容真實(shí)性和多樣性評(píng)價(jià)。該方法不適用于極端妝容遷移和不支持卸妝。

        自動(dòng)上妝模型:包仁達(dá)等[31]提出一種掩碼控制的自動(dòng)上妝生成對(duì)抗網(wǎng)絡(luò),通過(guò)利用掩碼,能夠重點(diǎn)編輯上妝區(qū)域且約束無(wú)需化妝的區(qū)域不變,保持源圖像主體信息。同時(shí)可對(duì)人臉的眼睛、嘴唇和膚色單獨(dú)編輯妝容,實(shí)現(xiàn)特定區(qū)域上妝,豐富了上妝功能,但該方法也不適用于極端妝容遷移且魯棒性有待提高。

        SCGAN:Deng等[32]提出了一種全自動(dòng)的妝容遷移模型,通過(guò)編輯樣式編碼,即可實(shí)現(xiàn)帶有陰影控制的全局/局部妝容遷移。該模型由目標(biāo)風(fēng)格碼編碼、人臉身份特征提取和妝容融合三部分組成。參考圖像被分解成三部分——眼睛、皮膚、嘴,特定的風(fēng)格編碼器提取每部分的特征,并將這些特征映射到一個(gè)解耦風(fēng)格潛在空間W,人臉身份特征編碼器從源圖像中提取人臉身份特征,妝容融合解碼器將風(fēng)格碼ω與人臉身份特征融合生成最終遷移結(jié)果。該方法靈活且準(zhǔn)確,但無(wú)法遷移面部區(qū)域的局部圖案。

        2.6 小結(jié)

        面向上妝和卸妝的妝容遷移方法需要同時(shí)訓(xùn)練兩個(gè)子網(wǎng)絡(luò),一個(gè)用于上妝,一個(gè)用于卸妝。關(guān)鍵在于網(wǎng)絡(luò)架構(gòu)和損失函數(shù)的設(shè)計(jì),既要考慮全局域級(jí)損失又要考慮局部實(shí)例級(jí)損失??偟陌l(fā)展趨勢(shì)是從監(jiān)督學(xué)習(xí)向無(wú)監(jiān)督、半監(jiān)督和自監(jiān)督方向發(fā)展,由簡(jiǎn)單妝容遷移向支持極端妝容遷移發(fā)展。

        面向魯棒性的妝容遷移方法重點(diǎn)關(guān)注妝容遷移的魯棒性問(wèn)題,提升遷移前后面部表情和姿態(tài)存在差異時(shí)的遷移效果。目前仍然存在的問(wèn)題是當(dāng)參考圖像存在遮擋和陰影問(wèn)題時(shí),遷移效果不能滿足市場(chǎng)需求,有待進(jìn)一步提高。

        基于3D人臉模型的妝容遷移方法可能是人臉妝容遷移網(wǎng)絡(luò)發(fā)展的主流。用三維人臉模型分解圖像的形狀和紋理來(lái)實(shí)現(xiàn)妝容遷移有著天然的優(yōu)勢(shì)。選擇更合適的三維人臉模型,設(shè)計(jì)更合理的網(wǎng)絡(luò)模型和損失函數(shù),同時(shí)提高模型的魯棒性,較好地解決遮擋和陰影問(wèn)題,可能是人臉妝容遷移繼續(xù)發(fā)展的趨勢(shì)。

        基于弱監(jiān)督的妝容遷移方法主要解決特定問(wèn)題時(shí)標(biāo)注數(shù)據(jù)少,并且獲取成本較高的問(wèn)題。使用有限的、含有噪聲的或者標(biāo)注不準(zhǔn)確的數(shù)據(jù)來(lái)進(jìn)行模型參數(shù)的訓(xùn)練,也是一種解決數(shù)據(jù)標(biāo)注的可行方法。

        3 常用損失函數(shù)

        在人臉妝容遷移任務(wù)中,損失函數(shù)是影響遷移效果的關(guān)鍵因素之一。常用的人臉妝容遷移損失函數(shù)主要包括對(duì)抗損失、循環(huán)一致性損失、感知損失、妝容損失等。在本章中,用A和B分別表示源圖像域和參考圖像域,Isrc指源圖像,Iref指參考圖像,指妝容遷移圖像,指卸妝后圖像,和指源圖像和參考圖像的重構(gòu)圖像。

        3.1 對(duì)抗損失

        對(duì)抗損失是基于生成對(duì)抗網(wǎng)絡(luò)人臉妝容遷移網(wǎng)絡(luò)的基本損失函數(shù),其原理為通過(guò)生成器和判別器的不斷博弈,使生成器生成的圖像更加真實(shí),使判別器不斷提高對(duì)來(lái)自不同域的圖片的判別能力。對(duì)抗損失計(jì)算公式為:

        其中,E(*)代表分布期望,G代表生成器,D代表判別器。

        3.2 循環(huán)一致性損失

        由于缺少足夠的三元組數(shù)據(jù)(源圖像、參考圖像及遷移圖像),大多數(shù)妝容遷移方法以無(wú)監(jiān)督方式訓(xùn)練網(wǎng)絡(luò)。引入循環(huán)一致性損失可以約束重建圖像,循環(huán)一致性損失函數(shù)的定義為:

        3.3 感知損失

        感知損失函數(shù)可以在遷移妝容風(fēng)格時(shí)保持源圖像的個(gè)人身份信息,感知損失不是直接計(jì)算像素級(jí)歐氏距離之間的差異,而是計(jì)算深度卷積網(wǎng)絡(luò)提取的高級(jí)特征之間的差異,該網(wǎng)絡(luò)一般使用在ImageNet上預(yù)訓(xùn)練的VGG-16模型。感知損失計(jì)算公式為:

        3.4 妝容損失

        妝容損失包含嘴唇、眼睛和面部的三個(gè)局部顏色直方圖損失。在生成圖像和參考圖像Iref的相同面部區(qū)域分別執(zhí)行直方圖匹配得到一個(gè)重新映射圖像,其約束生成圖像和參考圖像在Mitem的位置具有相似的化妝風(fēng)格。Mitem是通過(guò)人臉解析模型獲得的局部區(qū)域,item∈{l ips,eye,face}。局部直方圖損失計(jì)算公式為:

        總妝容損失計(jì)算公式:

        其中,λ1、λ2、λ3為權(quán)重參數(shù),一般設(shè)為λ1=1,λ2=1,λ3=0.1。

        3.5 其他損失

        除了以上四種損失函數(shù)外,不同的妝容遷移方法還根據(jù)網(wǎng)絡(luò)訓(xùn)練的不同目標(biāo)提出了一些特有的損失函數(shù),包括PairedCycleGAN[17]提出的身份損失、風(fēng)格損失,LADN[18]提出的高階損失、光滑損失,PSGAN++[21]提出的妝容細(xì)節(jié)損失等。

        (1)身份損失

        身份損失類似于循環(huán)一致性損失,其目的是在妝容遷移過(guò)程中保持源圖像的身份信息,利用L1損失減小源圖像的重構(gòu)圖像和源圖像之間的差異,其公式為:

        其中,G負(fù)責(zé)妝容遷移,F(xiàn)負(fù)責(zé)卸妝,E(*)代表分布期望。

        (2)風(fēng)格損失

        PairedCycleGAN[17]除了身份損失,還提出了兩種風(fēng)格損失——L1重建損失LS和風(fēng)格判別器損失LP。風(fēng)格損失是為了確保特定化妝風(fēng)格細(xì)節(jié)的成功遷移。首先LS是為了保證參考圖像的重構(gòu)圖像和參考圖像越接近越好,如公式(7)所示。然而在像素域使用L1損失雖有助于一般結(jié)構(gòu)和顏色(例如眉毛的形狀和眼影)的遷移,但不能遷移睫毛和眼線這些邊緣區(qū)域。針對(duì)這一問(wèn)題,作者增加了一個(gè)輔助判別器DS來(lái)判斷給定的一對(duì)面部圖像是否妝容相同。由于缺乏真實(shí)妝容圖像對(duì),作者根據(jù)通過(guò)扭曲Iref來(lái)匹配Isrc中檢測(cè)到的面部特征點(diǎn)(Landmarks)生成一個(gè)合成Ground-truth——W(Isrc,Iref)。輔助判別器DS的損失函數(shù)如公式(8)。

        其中,G負(fù)責(zé)妝容遷移,F(xiàn)負(fù)責(zé)卸妝,E(*)代表分布期望。

        (3)高階損失

        為處理極端妝容包含的高頻成分,LADN[18]在妝容遷移分支中增加了高階損失Lho。受PairedcycleGAN[17]的啟發(fā),作者也生成一個(gè)合成groundtr uth——W(Isrc,Iref),其保留了參考圖像妝容風(fēng)格的大部分紋理信息。通過(guò)對(duì)W(Isrc,Iref)和Iref的局部塊(local patches)應(yīng)用拉普拉斯濾波器計(jì)算高階損失,其計(jì)算公式為:

        (4)平滑損失

        在一些極端妝容卸妝的過(guò)程中,很難從化妝后的圖像中觀察到人的原始面部顏色。因此LADN[18]基于化妝后的面部顏色通常是平滑的這一假設(shè)在卸妝分支中加入了平滑損失Lsmooth,其計(jì)算公式為:

        (5)妝容細(xì)節(jié)損失

        妝容損失提供了面部區(qū)域級(jí)別的約束,但這樣的損失很難遷移包括高光和腮紅在內(nèi)的化妝細(xì)節(jié)。因此,PSGAN++[21]提出一個(gè)妝容細(xì)節(jié)損失。首先使用密集面部對(duì)齊方法來(lái)檢測(cè)源圖像和參考圖像的密集面部特征點(diǎn)。然后選擇位于化妝細(xì)節(jié)區(qū)域(鼻子、臉頰)的K個(gè)特征點(diǎn)構(gòu)成妝容細(xì)節(jié)標(biāo)志。妝容細(xì)節(jié)損失是計(jì)算I Bsrc和Iref之間相應(yīng)妝容細(xì)節(jié)特征點(diǎn)之間的差,其公式為:

        其中,E(*)代表分布期望,G表示生成器,k表示第k個(gè)特征點(diǎn)。

        4 數(shù)據(jù)集與評(píng)價(jià)指標(biāo)

        4.1 數(shù)據(jù)集

        隨著人臉妝容遷移算法的不斷發(fā)展,該領(lǐng)域數(shù)據(jù)集越來(lái)越豐富且更具針對(duì)性,圖像的質(zhì)量和數(shù)量不斷提高。表2從數(shù)據(jù)集名稱、時(shí)間、主題數(shù)量、每個(gè)主題包含圖像張數(shù)、是否有妝前妝后圖像和圖像總數(shù)六方面列舉了2012年至2021年提出的有關(guān)人臉妝容數(shù)據(jù)集。

        表2 人臉妝容數(shù)據(jù)集Table 2 Facial makeup dataset

        YMU(YouTube makeup)于2012年提出,它主要是來(lái)自YouTube視頻化妝教程,共收集了151個(gè)主題,特別是白人女性。通過(guò)拍攝人臉化妝前后的照片,每張人臉對(duì)應(yīng)四張圖像:化妝前兩張圖像和化妝后兩張圖像,該數(shù)據(jù)集共有604張圖片。這些面部圖像中的妝容從細(xì)微到濃重不等。同時(shí)該數(shù)據(jù)集包含了表情和姿勢(shì)的一些變化,在同一個(gè)對(duì)象的多張照片上,照明條件相對(duì)固定。

        VMU(virtual makeup)于2012年提出,它是使用Taaz的公開(kāi)工具修改了FRGC(face recognition grand challenge)數(shù)據(jù)集中的51名白人女性的面部圖像以模擬化妝而形成的。其主要?jiǎng)?chuàng)造了三個(gè)虛擬妝容:(1)僅使用口紅;(2)僅使用眼妝;(3)整個(gè)面部化妝,包括唇膏、粉底、腮紅和眼妝。因此,該數(shù)據(jù)集包含每個(gè)主題的4個(gè)圖像,1張妝前圖像,3張妝后圖像,共有204張圖片。

        MIW(makeup in the“wild”)于2013年提出,數(shù)據(jù)集中化妝和素顏的面部圖像是從互聯(lián)網(wǎng)上獲取的,其面部是不受約束的,不包含人臉圖像的妝前妝后的成對(duì)圖像。該數(shù)據(jù)集包含154張圖片,其中化妝圖像77張,素顏圖像77張。

        MIFS(makeup induced face spoofing)于2017年提出,該數(shù)據(jù)集是為了研究化妝引起的人臉欺騙問(wèn)題而提出的,共包含107個(gè)化妝變換前后對(duì)象,這些變換都來(lái)自隨機(jī)的YouTube化妝教程視頻。每個(gè)對(duì)象有兩對(duì)化妝前后的圖像和兩個(gè)目標(biāo)圖像。

        MT(makeup transfer)于2018年提出,是目前大多數(shù)人臉妝容遷移研究采用的數(shù)據(jù)集。該數(shù)據(jù)集包括3 834張女性圖片,其中包含1 115張素顏圖像,2 719張化妝圖像,包括亞洲人、歐美人等,在姿勢(shì)、表情、背景等方面都有不同。素顏圖像均為裸妝,化妝圖像包含了許多化妝風(fēng)格,比如煙熏妝、復(fù)古妝、韓國(guó)化妝風(fēng)格以及日本化妝風(fēng)格等。與之前的化妝數(shù)據(jù)集相比,MT是最大的數(shù)據(jù)集。該數(shù)據(jù)集示例樣本如圖7(上)所示,第一行為素顏圖像,第二行為化妝圖像。

        LADN Makeup于2019年提出,其構(gòu)造過(guò)程如下:首先從互聯(lián)網(wǎng)上收集沒(méi)有遮擋的高質(zhì)量人臉圖像,通過(guò)面部特征點(diǎn)檢測(cè)器過(guò)濾掉沒(méi)有正面人臉的圖像;然后根據(jù)是否有化妝對(duì)其中一小部分圖像進(jìn)行標(biāo)記,從中提取眼影和嘴唇區(qū)域的色調(diào)直方圖,進(jìn)而訓(xùn)練一個(gè)簡(jiǎn)單的多層感知機(jī)分類器;最后利用分類器對(duì)剩余圖像進(jìn)行標(biāo)注,最終得到333張素顏圖像和302張化妝圖像。同時(shí),為了實(shí)現(xiàn)極端妝容遷移,該數(shù)據(jù)集還增加了115張化妝色彩、風(fēng)格、區(qū)域覆蓋差異較大的極端妝容圖像。

        FCC Dataset于2019年提出,它共有18 425張包含濃妝、淡妝以及不化妝的面部圖像,數(shù)據(jù)集有低分辨率(256×256)和高分辨率(512×512)子集,包含了不同種族的不同化妝風(fēng)格。該數(shù)據(jù)集包含了不同對(duì)象的化妝前后圖像,也可以用來(lái)研究彩妝應(yīng)用下的人臉識(shí)別問(wèn)題。

        Makeup-Wild于2020年提出,它包含具有各種姿勢(shì)、表情以及復(fù)雜背景的人臉圖像,主要是從網(wǎng)上收集素顏和化妝人臉圖像,并手動(dòng)刪除正面臉和中性表情的圖像,包含了403張妝容圖像和369張素顏圖像,其主要是用來(lái)對(duì)人臉妝容遷移算法的魯棒性進(jìn)行測(cè)試。該數(shù)據(jù)集示例樣本如圖7(中)所示,第一行為素顏圖像,第二行為化妝圖像。

        CPM于2021年提出,它包含了四類數(shù)據(jù)集:CPM-Real、CPM-Synt-1、CPM-Synt-2和Stickers,其中CPM-Real為無(wú)監(jiān)督的數(shù)據(jù)集,包含了3 895張妝容圖像,數(shù)量比之前最大的妝容數(shù)據(jù)集MT多43%?;瘖y風(fēng)格方面,該數(shù)據(jù)集既包含顏色化妝又包含圖案化妝,Stickers是577張高質(zhì)量圖像的貼紙數(shù)據(jù)集,用于增加妝容風(fēng)格的多樣性。CPM-Synt-1和CPM-Synt-2為監(jiān)督數(shù)據(jù)集。CPM-Synt-1是帶有圖案的妝容數(shù)據(jù)集,共包含了5 555張圖像,每張圖像都有對(duì)應(yīng)的圖案ground-truth分割掩碼以及UV圖。CPM-Synt-2數(shù)據(jù)集專為圖案遷移評(píng)估設(shè)計(jì),包含1 625個(gè)圖像三元組(源圖像、參考圖像、ground-truth)。該數(shù)據(jù)集示例樣本如圖7(下)所示,從上往下依次為CPM-Real、CPM-Synt-1、CPM-Synt-2。

        圖7 流行妝容數(shù)據(jù)集的視覺(jué)實(shí)例Fig.7 Visual examples of popular makeup datasets

        4.2 評(píng)價(jià)指標(biāo)

        (1)定性指標(biāo)

        該指標(biāo)具有一定的主觀性,主要是通過(guò)人眼來(lái)進(jìn)行判斷人臉妝容遷移的效果。圖8展示了不同人臉妝容遷移方法在MT數(shù)據(jù)集上的定性實(shí)驗(yàn)效果。由圖可知,當(dāng)參考圖像和源圖像之間沒(méi)有明顯的空間錯(cuò)位時(shí),雖然使用特定妝容遷移方法可以有效提高妝容遷移的準(zhǔn)確度,但也存在一定的問(wèn)題,如BeautyGlow生成的圖像中,眼影明顯比參考圖像暗;LADN生成的圖像包含頭發(fā)周圍的偽像,幾乎沒(méi)有保留源圖像的身份;PSGAN在眼睛周圍生成了不自然的結(jié)果;SLGAN的頭發(fā)顏色發(fā)生了改變等。

        圖8 不同方法在MT數(shù)據(jù)集上的定性結(jié)果Fig.8 Qualitative results of different methods on MT dataset

        (2)定量指標(biāo)

        定量評(píng)估主要包括:用戶感知評(píng)價(jià);inception score(IS);弗雷歇距離(Frechet inception distance,F(xiàn)ID);MS-SSIM等四種評(píng)測(cè)指標(biāo)。

        ①用戶感知評(píng)價(jià)是對(duì)風(fēng)格遷移效果的主觀評(píng)價(jià)指標(biāo)。一般做法為:隨機(jī)選擇N名學(xué)生,并每次提供若干張圖像,其中一個(gè)是素顏圖像,一個(gè)是妝容圖像,不同方法得到的遷移圖像。參與者需要根據(jù)質(zhì)量、真實(shí)感和化妝風(fēng)格對(duì)遷移圖像排序,排名越高表示遷移效果越好。

        ②inception score(IS)[42]是一種衡量生成圖像清晰度和多樣性的指標(biāo)。IS值越大,表示生成圖像質(zhì)量越高。計(jì)算公式為:

        其中,E表示期望值,DKL表示兩分布之間KL散度。

        ③弗雷歇距離(Frechet inception distance,F(xiàn)ID)[36]是計(jì)算真實(shí)圖像和生成圖像的特征向量之間距離的一種度量。距離越近,即FID值越小,表示生成模型的效果越好,即圖像質(zhì)量好和清晰度高。計(jì)算公式為:

        其中,X和G表示真實(shí)圖像和生成圖像,μx和μg是各自特征向量的均值,Σx和Σg表示各自特征向量的協(xié)方差矩陣,tr表示矩陣的跡(主對(duì)角線各元素的和)。相比于IS,F(xiàn)ID對(duì)噪聲有更魯棒的敏感性,且對(duì)模式崩潰也更為敏感,故FID的實(shí)際應(yīng)用相對(duì)更廣泛一些。

        ④MS-SSIM(multiscale structural similarity)是在SSIM[43]算法基礎(chǔ)上提出的,是一種計(jì)算多尺度結(jié)構(gòu)相似性的方法,可以衡量?jī)煞鶊D像之間的相似度。計(jì)算公式如式(14)所示。當(dāng)M=1時(shí),表示原始圖像;當(dāng)M=2時(shí),表示原始圖像縮小一半,以此類推。

        其中,L(X,Y)是亮度對(duì)比因子,C(X,Y)是對(duì)比度銀子,S(X,Y)是結(jié)構(gòu)對(duì)比因子,α、β和γ是用于調(diào)整各個(gè)分量的權(quán)重。

        5 總結(jié)與展望

        人臉妝容遷移具有重要的理論研究?jī)r(jià)值和巨大的市場(chǎng)應(yīng)用價(jià)值,但據(jù)作者所知,目前還沒(méi)有公開(kāi)發(fā)表的關(guān)于人臉妝容遷移的綜述文章。本文根據(jù)人臉妝容遷移領(lǐng)域重點(diǎn)解決的問(wèn)題,將基于生成對(duì)抗網(wǎng)絡(luò)的人臉妝容遷移算法分為面向上妝和卸妝的妝容遷移方法、面向魯棒性的妝容遷移方法、基于3D人臉模型的妝容遷移方法、基于弱監(jiān)督的妝容遷移方法和其他妝容遷移方法五類。從網(wǎng)絡(luò)架構(gòu)、損失函數(shù)、數(shù)據(jù)集和評(píng)價(jià)指標(biāo)四個(gè)方面對(duì)現(xiàn)有人臉妝容遷移算法進(jìn)行了系統(tǒng)的總結(jié)和梳理,并分析了各個(gè)模型的貢獻(xiàn)及局限性。經(jīng)過(guò)對(duì)該領(lǐng)域的系統(tǒng)研究,基于生成對(duì)抗網(wǎng)絡(luò)的人臉妝容遷移技術(shù)下一步可能的發(fā)展趨勢(shì)主要有:

        (1)引入單張圖像的三維人臉建模技術(shù)

        現(xiàn)實(shí)中人臉是三維的,其三維特征將影響人臉圖像的視覺(jué)外觀,比如形狀、姿勢(shì)和表情。又因?yàn)槟壳叭四槉y容遷移數(shù)據(jù)集都是由單張圖像組成的。因此,如何將單張圖像的三維人臉建模技術(shù)有效地引入人臉妝容遷移領(lǐng)域,并重建包含三維人臉特征信息的妝容圖像將是人臉妝容遷移領(lǐng)域中一個(gè)很有價(jià)值的發(fā)展方向。CPM[22]首次在這一方向上有所嘗試,但還有許多問(wèn)題有待完善。

        (2)將妝容遷移方法應(yīng)用于實(shí)時(shí)視頻中

        近年來(lái)對(duì)妝容遷移方法的研究主要集中在靜態(tài)圖像,針對(duì)視頻的研究很少。每一幀的姿勢(shì)和表情在視頻中是不斷變化的,與圖像妝容遷移相比,視頻妝容遷移是一項(xiàng)更具挑戰(zhàn)性但更有意義的任務(wù),在視頻中實(shí)現(xiàn)良好的妝容遷移效果具有非常廣闊的市場(chǎng)應(yīng)用前景,是未來(lái)的重點(diǎn)研究方向。

        (3)交互式人臉妝容遷移

        將圖像語(yǔ)義分割中的交互式分割和人臉妝容遷移相關(guān)結(jié)合,研究交互式人臉妝容遷移,具有重要的市場(chǎng)應(yīng)用價(jià)值。交互式人臉妝容遷移指使用點(diǎn)、框或線標(biāo)記遷移的目標(biāo)區(qū)域,也可以標(biāo)記非目標(biāo)區(qū)域,實(shí)現(xiàn)用戶定制化的人臉妝容遷移。無(wú)論從用戶個(gè)性化需求還是化妝品企業(yè)的產(chǎn)品設(shè)計(jì),交互式人臉妝容遷移有巨大的潛在市場(chǎng)應(yīng)用價(jià)值。

        (4)構(gòu)建高分辨率的人臉妝容遷移數(shù)據(jù)集

        目前的大多數(shù)妝容數(shù)據(jù)集規(guī)模小且分辨率不高,隨著算法模型的發(fā)展,對(duì)數(shù)據(jù)集的要求也越來(lái)越高。如何構(gòu)建高分辨率的人臉妝容遷移數(shù)據(jù)集,進(jìn)而實(shí)現(xiàn)高分辨率圖像的妝容遷移,也是后續(xù)值得研究的一項(xiàng)課題。

        總之,基于生成對(duì)抗網(wǎng)絡(luò)的人臉妝容遷移是一項(xiàng)新興的具有挑戰(zhàn)性的課題,既是機(jī)遇也有挑戰(zhàn),不僅受到學(xué)術(shù)界的廣泛研究,在商業(yè)界也有重要的研究?jī)r(jià)值。此綜述的目的也是為基于對(duì)抗生成網(wǎng)絡(luò)的人臉妝容遷移算法的進(jìn)一步研究提供參考。

        猜你喜歡
        妝容化妝人臉
        有特點(diǎn)的人臉
        給語(yǔ)言“化妝”
        學(xué)與玩(2018年5期)2019-01-21 02:13:10
        三國(guó)漫——人臉解鎖
        化妝
        能打造光澤透亮質(zhì)感的妝容
        給雞蛋化妝 等
        拯救妝容的“小棒子”
        Coco薇(2015年11期)2015-11-09 12:59:09
        走偏鋒 暗黑哥特妝容AB面
        Coco薇(2015年10期)2015-10-19 12:29:25
        少女的化妝
        馬面部與人臉相似度驚人
        亚洲制服无码一区二区三区| 免费无码不卡视频在线观看| 少妇aaa级久久久无码精品片| 亚洲影院天堂中文av色| av天堂线上| 日韩精品极品系列在线免费视频| 午夜亚洲av日韩av无码大全| 亚洲粉嫩高潮的18p| 亚洲色www无码| 成人自拍偷拍视频在线观看| 日本熟妇美熟bbw| 久久中文字幕人妻熟av女蜜柚m| 国产精品日日摸夜夜添夜夜添| 中文字幕高清视频婷婷| 久久综合狠狠综合久久综合88| 国产三级在线观看免费| 国产人妖xxxx做受视频| 一区二区三区日本高清| 大胸少妇午夜三级| 欧美激情二区| 色哟哟精品中文字幕乱码| 精品一区二区三区在线视频| 欲色天天网综合久久| 婷婷五月亚洲综合图区| 国产一区二区黑丝美胸| 扒开腿狂躁女人爽出白浆| 国产精品视频一区国模私拍 | 精品日本一区二区视频| 日本一区二区三区视频国产| 男男啪啪激烈高潮cc漫画免费| 国产精品久久久久尤物| 日本特殊按摩在线观看| 性猛交ⅹxxx富婆视频| 亚洲av日韩av无码av| 亚洲在线一区二区三区四区| 成人大片免费观看视频| 国产在线精品一区二区在线看| 永久免费看免费无码视频| 黑丝美腿国产在线观看| 和黑人邻居中文字幕在线 | 牛牛本精品99久久精品88m|