亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于膚色學(xué)習(xí)的多人臉前景抽取方法

        2021-07-02 08:54:36戴嫣然戴國(guó)慶袁玉波
        計(jì)算機(jī)應(yīng)用 2021年6期
        關(guān)鍵詞:人種膚色前景

        戴嫣然,戴國(guó)慶,袁玉波,2

        (1.華東理工大學(xué)信息科學(xué)與工程學(xué)院,上海 200237;2.上海大數(shù)據(jù)與互聯(lián)網(wǎng)受眾工程技術(shù)研究中心,上海 200072)

        (?通信作者電子郵箱dyr136006@163.com)

        0 引言

        如今,隨著信息社會(huì)的發(fā)展,圖像變得越來(lái)越重要,人臉又是圖像中的一個(gè)重要的分支,人臉信息在人臉跟蹤、人臉識(shí)別、視頻監(jiān)控等領(lǐng)域有著重要的應(yīng)用。人臉檢測(cè)是人臉識(shí)別的第一步,人臉檢測(cè)的準(zhǔn)確性直接影響到后面任務(wù)的可行性和效率,因此抽取正確的人臉信息是十分重要的。如何快速地提升人臉識(shí)別系統(tǒng)對(duì)不同人種的檢測(cè)性能,是一個(gè)實(shí)用的人臉識(shí)別算法應(yīng)該考慮的問(wèn)題[1]。在復(fù)雜的圖像中檢測(cè)人類皮膚已經(jīng)被證明是一個(gè)具有挑戰(zhàn)性的問(wèn)題,因?yàn)橛捎谠S多因素,如光照、種族、老化、成像條件和復(fù)雜的背景,皮膚顏色在其外觀上可以有很大的變化。

        顏色是簡(jiǎn)單、直觀且有效的特征,顏色特征常常用于人臉檢測(cè),不同顏色空間的選擇帶來(lái)的結(jié)果也有所差異[2]。Hsu等[3]提出了在YCrCb(Luminance,Red-difference Chrominance,Blue-difference Chrominance)顏色空間的人臉檢測(cè),通過(guò)非線性變換,將像素投射到Y(jié)CrCb空間,并用橢圓區(qū)域判斷是否為膚色像素。Shaik 等[4]使用兩種顏色空間進(jìn)行皮膚檢測(cè)的對(duì)比研究,認(rèn)為HSV(Hue,Saturation,Value)顏色空間在簡(jiǎn)單背景和均勻背景下的檢出率較高,而YCbCr 顏色空間在復(fù)雜背景下的檢出率較高。Pujol等[5]提出基于模糊熵膚色分割的人臉檢測(cè),在RGB(Red,Green,Blue)、YCbCr和HSV 三個(gè)顏色空間進(jìn)行人臉學(xué)習(xí)和模糊系統(tǒng)建模,最后進(jìn)行人臉的檢測(cè)。Bencheriet 等[6]使用膚色分割,結(jié)合局部二值模式(Local Binary Pattern,LBP)特征和高斯混合模型(Gaussian Mixed Model,GMM)模型,對(duì)人臉進(jìn)行學(xué)習(xí),然后抽取人臉。膚色特征的使用是十分重要的,是快速、有效定位人臉大致位置的方法。不同的膚色抽取策略對(duì)分割效果也不一樣,目前沒(méi)有明確的最佳顏色空間選擇方案,本文的研究目標(biāo)是提出一種新的顏色空間融合方案,為膚色抽取提出新思路。

        人臉的定位一直是人臉檢測(cè)的難點(diǎn),基于內(nèi)容的人臉檢測(cè)一般使用人臉特征如眼睛、嘴巴等,構(gòu)造人臉模板進(jìn)行匹配。模板的大小可以使用人眼間距和人臉的比例、人臉長(zhǎng)寬比等生物特征進(jìn)行確定。早期,Brunelli 等[7]用模板匹配的方式,計(jì)算鼻子的長(zhǎng)寬、嘴的位置和下巴的形狀來(lái)進(jìn)行人臉識(shí)別。Jin等[8]設(shè)定了臉部模板,由人臉框和人眼組成,然后在膚色分割后的候選區(qū)域內(nèi)進(jìn)行人臉檢測(cè)。胡祖奎等[9]提出了一種基于分層模板的人臉檢測(cè)方法,結(jié)合膚色信息和臉部分層的特征,構(gòu)造人臉結(jié)構(gòu)的參數(shù),檢測(cè)校園監(jiān)控中的人臉。Luo等[10]使用分類決策樹(shù)模型,對(duì)人臉進(jìn)行初步定位,然后結(jié)合人臉膚色的概率分布,得到人臉膚色區(qū)域。Wang等[11]將膚色分為深色和淺色兩種分類,并添加深色通道輔助膚色提取,然后使用模板匹配和人眼定位,將人臉框出。

        不同人種的膚色信息略有差異,在膚色檢測(cè)時(shí)的策略也不同,人種的膚色信息的主要差別是亮度。Tan 等[12]提出一種融合算法,結(jié)合了2D直方圖和高斯模型,分亞洲人、非洲人和歐美人三個(gè)人種,在對(duì)數(shù)顏色空間(Log Opponent chromaticity space,LO)中進(jìn)行膚色分割。Klevan 等[13]提出了不同的顏色空間融合方法,并將人臉?lè)殖煞侵奕?、亞洲人、歐美人和其他人種四個(gè)分類,最后用閾值濾波器將非膚色像素剔除,從而得到膚色像素。合理地對(duì)膚色進(jìn)行分類和檢測(cè)是重要的,將膚色根據(jù)人種進(jìn)行分割可以得到更加完整的膚色前景。

        目前利用深度學(xué)習(xí)進(jìn)行人臉檢測(cè)的方法已經(jīng)很多,Hao等[14]使用不同比例的網(wǎng)絡(luò)計(jì)算出圖像中人臉的尺度分布,然后按照該尺度歸一化圖像,再進(jìn)行人臉檢測(cè)。Hu等[15]從尺度不變性、圖像分辨率、上下文推理三方面對(duì)小臉檢測(cè)算法進(jìn)行改進(jìn),得到很好的效果。Li等[16]提出對(duì)偶的人臉檢測(cè)器,對(duì)特征進(jìn)行增強(qiáng),并改進(jìn)錨點(diǎn)匹配策略,模型具有極高的魯棒性和穩(wěn)定性。目前的深度學(xué)習(xí)算法大多針對(duì)人臉檢測(cè),較少有人臉內(nèi)容抽取的方法,人臉抽取相關(guān)的數(shù)據(jù)集也不足,用深度學(xué)習(xí)實(shí)現(xiàn)人臉抽取較困難。本文提出遺傳算法,對(duì)人臉內(nèi)容進(jìn)行計(jì)算,判斷人臉區(qū)域,對(duì)內(nèi)容進(jìn)行抽取,不依賴大量的數(shù)據(jù)集,也可以完成人臉抽取。

        在多人場(chǎng)景下,根據(jù)顏色信息進(jìn)行膚色分割在多人臉或復(fù)雜背景下容易失效,不同人種的檢測(cè)率也不一樣,白色人種和黃色人種的檢測(cè)率最高。因此,為了解決不同人種的膚色分割問(wèn)題和人臉抽取不完整的問(wèn)題,本文提出基于膚色學(xué)習(xí)的人臉抽取方法,將膚色按照四種人種進(jìn)行分割,分別是白色人種、黃色人種、棕色人種和黑色人種,并結(jié)合人臉生物特征,對(duì)人臉?lè)秶M(jìn)行判斷和框定,同時(shí),利用遺傳機(jī)制的思想,將人臉從膚色前景中抽取得更加準(zhǔn)確和完整。

        1 基于膚色學(xué)習(xí)的多人臉前景抽取方法

        本文提出一種基于膚色學(xué)習(xí)多人臉前景抽取方法,其技術(shù)框架如圖1,關(guān)鍵思想是對(duì)不同人種的膚色進(jìn)行學(xué)習(xí),根據(jù)學(xué)習(xí)得到的參數(shù)和閾值進(jìn)行膚色前景分割,并利用遺傳機(jī)制的思想,結(jié)合膚色信息,將人臉區(qū)域進(jìn)行生長(zhǎng),得到較為完整的人臉前景。

        圖1 基于膚色學(xué)習(xí)的多人臉前景抽取方法流程Fig.1 Flow chart of multi-face foreground extraction method based on skin color learning

        首先,建立基于膚色學(xué)習(xí)的膚色分割模型。本文將人種分為四種:白種人、黃種人、棕種人和黑種人,從各種圖像中抽取不同膚色人種的膚色塊,對(duì)膚色塊進(jìn)行顏色空間的轉(zhuǎn)換和像素分布分析,可以得到膚色像素的分布情況,從而計(jì)算膚色閾值,構(gòu)造膚色模型。

        其次,對(duì)輸入多人臉圖像進(jìn)行光線補(bǔ)償。真實(shí)場(chǎng)景照片會(huì)受到不同光線的影響,圖像中可能會(huì)存在光線不平衡的情況而造成色彩偏差,為了抵消這種整個(gè)圖像中存在的色彩偏差,進(jìn)行光線補(bǔ)償。根據(jù)建立好的膚色模型,對(duì)光線補(bǔ)償后的圖像進(jìn)行膚色前景分割。

        然后,確定遺傳機(jī)制的初始種子塊和生長(zhǎng)區(qū)域。利用自適應(yīng)回歸窗模型[17],檢測(cè)人臉特征點(diǎn),結(jié)合膚色模型抽取到的前景信息,選出在人臉前景中的特征點(diǎn),作為初始種子塊,人臉的最大范圍作為遺傳機(jī)制的生長(zhǎng)區(qū)域。

        最后,構(gòu)造遺傳機(jī)制的適應(yīng)性函數(shù),在生長(zhǎng)區(qū)域范圍內(nèi)進(jìn)行遺傳生長(zhǎng),經(jīng)過(guò)選擇、交叉、變異后,可以提取出更加完整的人臉區(qū)域。

        2 基于膚色學(xué)習(xí)的人臉前景分割模型

        對(duì)于給定的包含多人臉的圖像I,人臉前景分割的問(wèn)題定義如下:

        定義1對(duì)于給定的含有N(N≥3)個(gè)人臉彩色圖像I,表示如下:

        其中:p(x,y)表示(x,y)處的像素值;Ω為整個(gè)圖像區(qū)域。

        多人臉前景抽取的目標(biāo)定義是尋找最優(yōu)的子集F*?I,使得F*里面非人臉的像素點(diǎn)盡可能少,模型表示如下:

        其中C(pi)是計(jì)算器,記錄F*中非人臉像素點(diǎn)的數(shù)目,表達(dá)式如下:

        該問(wèn)題的關(guān)鍵在于如何判斷pi是人臉點(diǎn)。事實(shí)上,多人臉前景抽取模型可以等價(jià)定義為區(qū)域分割問(wèn)題,即尋找Ω的N個(gè)子集Ωi(i=1,2,…,N),滿足:

        人臉前景即為:

        也稱Ωb為背景。

        從上面模型可以看出,每一個(gè)人臉區(qū)域Ωi應(yīng)該具備兩個(gè)重要的特征:首先要是皮膚點(diǎn),其次要在人臉區(qū)域內(nèi)。從技術(shù)層面看,第一任務(wù)是從圖像I里抽取膚色點(diǎn),定義為膚色前景。

        2.1 膚色前景抽取

        膚色前景定義如下:

        定義2人臉彩色圖像I的膚色前景S定義為其子集S?I,使得S里面包含盡可能多的膚色點(diǎn),模型表示如下:

        其中s(pi)是計(jì)算器,記錄S中膚色點(diǎn)的像素?cái)?shù)目,表達(dá)式如下:

        從上面定義可以看出,膚色前景的關(guān)鍵在于如何判斷pi是膚色點(diǎn),由于膚色是人種的主要特征,不同的人種,膚色有差異,因此這個(gè)問(wèn)題的關(guān)鍵在于以下兩個(gè)問(wèn)題:

        問(wèn)題1 地球上常見(jiàn)人種有幾類?

        問(wèn)題2 每一種人種膚色均值E(pr)是多少?

        根據(jù)本文第1 章的敘述,問(wèn)題1 的答案是四種;但是對(duì)于問(wèn)題2,由于每一種族的個(gè)體差異也是比較大的,所以由于樣本選擇不同其均值必有差異,通過(guò)對(duì)國(guó)際上現(xiàn)有人臉圖像進(jìn)行分析,本文選擇了著名的SFA 數(shù)據(jù)庫(kù)作為膚色的參考數(shù)據(jù)庫(kù)。四種人種膚色樣本圖片塊如圖2所示。

        圖2 四種人種膚色樣本圖片塊Fig.2 Sampled image blocks of four racial skin color

        判斷種族的模型定義如下:

        其中E(pr)表示第r種人種膚色的像素期望值。

        膚色的像素期望值E(pr)的計(jì)算模型如下:

        其中c(Nr)表示第r種人種標(biāo)準(zhǔn)樣本膚色塊的像素點(diǎn)數(shù)量。

        標(biāo)準(zhǔn)膚色塊方差σr定義如下:

        由此,第r種人種的膚色點(diǎn)判定區(qū)間定義為:

        2.2 人臉?lè)N子區(qū)域抽取

        人臉的種子區(qū)域定義如下:

        定義3人臉?lè)N子區(qū)域C定義為各個(gè)人臉?lè)N子區(qū)域Ci的并集。

        人臉膚色前景S與人臉特征點(diǎn)所圍區(qū)域G*的交集,使得C中的點(diǎn)均為人臉上的點(diǎn),模型表示如下:

        其中N為人臉彩色圖像I的人臉個(gè)數(shù)。

        人臉特征點(diǎn)使用基于自適應(yīng)回歸窗模型的特征點(diǎn)定位方法,抽取初步定位的68個(gè)人臉特征點(diǎn),記為:

        其中,Ki為模型抽取到的單個(gè)人臉的68 個(gè)特征點(diǎn),1~18 號(hào)點(diǎn)為人臉輪廓點(diǎn),記為Ki*。

        將人臉輪廓點(diǎn)Ki*與膚色前景S作交集,在膚色前景S中的點(diǎn),就作為種子點(diǎn)

        最后將各個(gè)種子點(diǎn)作凸集合,得到種子區(qū)域Ci。因此,人臉特征點(diǎn)所圍區(qū)域Ci可以定義為:

        2.3 人臉再生

        根據(jù)前面得到的候選人臉前景C,人臉再生的目標(biāo)是在給定的有效范圍內(nèi),對(duì)不完整的人臉進(jìn)行像素級(jí)的判斷,利用遺傳機(jī)制,生長(zhǎng)出完整的人臉區(qū)域。

        其中r(pi)是計(jì)算器,記錄Ωi中人臉區(qū)域的像素?cái)?shù)目。Ei是第i張候選人臉的生長(zhǎng)有效范圍,確定模型如下:

        其中(xi,yi)是候選人臉區(qū)域的中心點(diǎn),計(jì)算式如下:

        a、b是橢圓區(qū)域的短半軸和長(zhǎng)半軸,計(jì)算式如下:

        人臉再生的有效范圍如圖3 所示。在式(17)中,Ωi的生成采用遺傳機(jī)制,基本像素生成原理參照文獻(xiàn)[18]。

        圖3 人臉特征點(diǎn)示意圖Fig.3 Schematic diagram of face features

        3 實(shí)驗(yàn)與結(jié)果分析

        3.1 數(shù)據(jù)集

        本文實(shí)驗(yàn)從網(wǎng)絡(luò)及現(xiàn)有數(shù)據(jù)庫(kù)中,隨機(jī)選擇多人臉圖像,構(gòu)建包括100 張多人臉圖像的數(shù)據(jù)集,人臉圖像分別來(lái)自網(wǎng)絡(luò)高清圖像、Pratheepan Dataset[19]和 BaoDataBase。Pratheepan Dataset 圖像是從谷歌隨機(jī)下載的用來(lái)進(jìn)行人體皮膚檢測(cè)方法的研究,這些圖像是在不同的光照下,并通過(guò)不同的色彩增強(qiáng)方法處理得到的。BaoDataBase 由274 張不同場(chǎng)景下的單一人臉和多人臉圖像組成。

        第一類圖像來(lái)自網(wǎng)絡(luò)高清圖片,包括不同場(chǎng)景的合照,選取的場(chǎng)景包括室內(nèi)和室外和合影,共50 張,示意圖如圖4所示。

        圖4 第一類圖片F(xiàn)ig.4 Images of first class

        第二類圖像來(lái)自Pratheepan Dataset,包括不同家庭的合照,共25張,示意圖如圖5所示。

        圖5 第二類圖片F(xiàn)ig.5 Images of second class

        第三類圖像來(lái)自BaoDataBase,共25 張,示意圖如圖6所示。

        圖6 第三類圖片F(xiàn)ig.6 Images of third class

        3.2 評(píng)價(jià)指標(biāo)及實(shí)驗(yàn)結(jié)果

        本實(shí)驗(yàn)的運(yùn)行環(huán)境為:Windows10 64位操作系統(tǒng),硬件配置是Intel Core i5-7200U 的CPU,2.50 GHz 的主頻和8 GB 的RAM,在Python3.6.5的環(huán)境中編程實(shí)現(xiàn)。

        本文采用準(zhǔn)確率(Precision,P)、召回率(Recall,R)和Fβ三個(gè)評(píng)價(jià)指標(biāo),其計(jì)算式如下:

        其中:TP表示實(shí)際為正、預(yù)測(cè)成正的個(gè)數(shù);FP表示實(shí)際為負(fù)、預(yù)測(cè)成正的個(gè)數(shù);FN實(shí)際為正、預(yù)測(cè)成負(fù)的個(gè)數(shù)。

        Fβ能夠很好地評(píng)估分割結(jié)果的整體性能,計(jì)算式如下:

        因?yàn)槿四樓熬疤崛≈袦?zhǔn)確率的重要程度高于召回率,因此這里取β為1,即F1。

        準(zhǔn)確率越高表示算法返回的相關(guān)結(jié)果比不相關(guān)的結(jié)果越多,召回率越高表示算法返回的相關(guān)結(jié)果越多。Fβ是準(zhǔn)確率和召回率的加權(quán)調(diào)和平均數(shù)。Fβ越高表示一個(gè)方法在不犧牲精度的情況下越能達(dá)到高的查全值。

        針對(duì)人臉前景區(qū)域,選擇文獻(xiàn)[20]的基于高斯變差的自動(dòng)前景提?。╝utoMatic Foreground extraction based on Difference Of Gaussian,F(xiàn)MDOG)方法、文獻(xiàn)[18]的基于遺傳機(jī)制和高斯變差的前景目標(biāo)提?。‵Oreground extraction with Genetic mechanism and difference of Guassian,GFO)方法、文獻(xiàn)[17]的人臉關(guān)鍵點(diǎn)檢測(cè)方法和文獻(xiàn)[21]的人臉?lè)指罘椒ㄅc本文方法進(jìn)行收取結(jié)果對(duì)比。文獻(xiàn)[20]方法使用圖像分割算子,結(jié)合高斯變差提取關(guān)鍵點(diǎn),構(gòu)建自動(dòng)前景目標(biāo)提取模型。文獻(xiàn)[18]方法使用改進(jìn)的圖像分割算子(Normalized cut,Ncut),結(jié)合遺傳算法,自動(dòng)抽取前景。文獻(xiàn)[21]方法使用維諾圖和2D(Dimensional)直方圖算法進(jìn)行人臉?lè)指睢H悎D片的實(shí)驗(yàn)結(jié)果如圖7~9所示。

        圖7 不同方法對(duì)第一類圖片的人臉?lè)指罱Y(jié)果Fig.7 Face segmentation results of first-class images by different methods

        圖8 不同方法對(duì)第二類圖片的人臉?lè)指罱Y(jié)果Fig.8 Face segmentation results of second-class images by different methods

        圖9 不同方法對(duì)第三類圖片的人臉?lè)指罱Y(jié)果Fig.9 Face segmentation results of third-class images by different methods

        文獻(xiàn)[20]方法可以提取大部分目標(biāo)前景,但是前景存在目標(biāo)缺損或者冗余等問(wèn)題。文獻(xiàn)[18]方法是對(duì)文獻(xiàn)[20]方法的改進(jìn),它可以很好地解決文獻(xiàn)[20]方法存在的問(wèn)題,可以提取到更加精確的目標(biāo)前景,但是對(duì)于人臉前景的提取仍不完整。文獻(xiàn)[17]方法主要提取特征區(qū)域,提取到的部分肯定為人臉區(qū)域,但是會(huì)丟失人臉邊緣和輪廓信息,缺乏完整性,也無(wú)法提取整個(gè)臉部區(qū)域。文獻(xiàn)[21]方法對(duì)于單人臉的簡(jiǎn)單場(chǎng)景效果較好,但是對(duì)于室外的場(chǎng)景,會(huì)引入非人臉的像素點(diǎn)。本文所提的方法可以有效剔除非人臉的膚色區(qū)域,并且將整個(gè)人臉區(qū)域,包括額頭等區(qū)域都提取完整,是更加有效的人臉前景抽取方法。

        五種方法的準(zhǔn)確率、召回率、F1值對(duì)比如圖10~圖12所示。

        由圖10 可以看出,本文所提方法的準(zhǔn)確率明顯高于文獻(xiàn)[20]方法和文獻(xiàn)[21]方法,略低于文獻(xiàn)[17]方法。文獻(xiàn)[20]方法會(huì)存在很多非人臉的區(qū)域如脖子、手臂等,結(jié)果過(guò)于冗余,造成誤檢率的升高,因此平均準(zhǔn)確率為85.6%。文獻(xiàn)[18]方法可以更準(zhǔn)確提取到前景,減少冗余,因此為人臉的概率很大,因此誤檢率較少,平均準(zhǔn)確率也提升到95.7%。文獻(xiàn)[17]方法側(cè)重于人臉特征點(diǎn)的提取,抽取區(qū)域基本都是人臉區(qū)域,因此誤檢率較少,但是仍有很多人臉區(qū)域無(wú)法捕捉到。文獻(xiàn)[21]方法基于維諾圖和直方圖的分割,會(huì)引入與膚色像素相近的像素。本文方法可以檢測(cè)完整的人臉區(qū)域,抽取到完成的人臉前景,平均準(zhǔn)確率提升至98.4%;但是當(dāng)頭發(fā)與背景的顏色和人臉很接近時(shí),會(huì)造成誤檢率的上升。

        圖10 不同方法的準(zhǔn)確率對(duì)比Fig.10 Precision comparison of different methods

        由圖11 可以看出,本文所提方法的召回率穩(wěn)定優(yōu)于其他四種方法。文獻(xiàn)[20]方法的結(jié)果涵蓋與皮膚顏色相近的像素,因此漏檢率較低,平均召回率為81%。文獻(xiàn)[18]方法的結(jié)果作為人臉?lè)N子塊,要確保種子點(diǎn)都在膚色人臉橢圓范圍內(nèi),因此比人臉小很多,造成了漏檢率的升高,平均召回率也相較文獻(xiàn)[20]方法要低很多,為57.8%。文獻(xiàn)[17]方法抽取人臉主要特征區(qū)域,會(huì)漏檢非特征區(qū)域,導(dǎo)致人臉前景抽取不完整。文獻(xiàn)[21]方法使用距離變化選擇感興趣的區(qū)域,因此人臉區(qū)域能有效檢出,平均召回率為95.5%。本文所提方法能有效抽取人臉,遺傳機(jī)制可以補(bǔ)全人臉區(qū)域,減少漏檢的像素?cái)?shù),但如果人臉在極端光線下,抽取結(jié)果較差,導(dǎo)致漏檢率升高,平均召回率為89.5%,低于文獻(xiàn)[21]方法。

        圖11 不同方法的召回率對(duì)比Fig.11 Recall comparison of different methods

        由圖12 可以看出,作為準(zhǔn)確率和召回率的調(diào)和,F(xiàn)1值可以通過(guò)使用準(zhǔn)確率和召回率來(lái)提供對(duì)測(cè)試表現(xiàn)更現(xiàn)實(shí)的度量。可以看出,本文所提方法的F1值均大于其他四種方法,達(dá)到87.3%,表明本文方法的總體結(jié)果優(yōu)于其他四種方法,具有更強(qiáng)的可靠性和魯棒性。文獻(xiàn)[17]方法能有效抽取人臉特征,在抽取人臉區(qū)域時(shí)也具有較好的效果,雖然漏檢率高,但是抽取的區(qū)域均為人臉區(qū)域,降低了誤檢率,因此F1值為78.2%。文獻(xiàn)[20]方法和文獻(xiàn)[21]方法的誤檢率高,文獻(xiàn)[18]方法的漏檢率高,因此這三個(gè)方法F1值的均值在42.2%~70.9%。

        圖12 不同方法的F1值對(duì)比Fig.12 F1 value comparison of different methods

        3.3 時(shí)間評(píng)估

        對(duì)100張人臉圖像的修復(fù)耗時(shí)箱型圖如圖13所示。本文方法在人臉抽取耗時(shí)上略多于其他方法。對(duì)于所有人臉圖像進(jìn)行實(shí)驗(yàn),文獻(xiàn)[20]方法的平均耗時(shí)為27.5 s,文獻(xiàn)[18]方法的平均耗時(shí)為34.6 s,文獻(xiàn)[17]方法的平均耗時(shí)為4.4 s,文獻(xiàn)[21]方法的平均耗時(shí)為11.1 s,本文方法的平均耗時(shí)為48.4 s。算法耗時(shí)與圖片像素有關(guān),文獻(xiàn)[18]方法與本文方法使用遺傳算法,在精確抽取的同時(shí)會(huì)增加時(shí)間消耗。文獻(xiàn)[17]方法使用學(xué)習(xí)好的模型,人臉抽取的速度較快。

        圖13 不同方法的耗時(shí)箱型圖對(duì)比Fig.13 Comparison of time-consuming box plots of different methods

        4 結(jié)語(yǔ)

        在多人臉場(chǎng)景下,現(xiàn)有基于內(nèi)容的人臉抽取并不是很完善,無(wú)法抽取完整的人臉區(qū)域,因此本文提出了基于膚色學(xué)習(xí)的人臉抽取技術(shù)。首先,按照四個(gè)人種的膚色進(jìn)行膚色學(xué)習(xí),四個(gè)人種分別為白色人種、黃色人種、棕色人種和黑色人種,根據(jù)學(xué)習(xí)到的膚色模型進(jìn)行膚色分割,可以分割到更加完整的膚色區(qū)域;然后,利用遺傳機(jī)制的思想,結(jié)合人臉特征點(diǎn)的先驗(yàn)信息,對(duì)人臉區(qū)域進(jìn)行遺傳生長(zhǎng),從而將人臉區(qū)域抽取得更加完整。本文方法雖然具有較高的復(fù)雜度,但其準(zhǔn)確率和召回率相較其他方法有明顯提升。

        未來(lái)的工作中,可研究改進(jìn)遺傳種子和遺傳區(qū)域的選取,基于深度學(xué)習(xí)進(jìn)行人臉?lè)秶_定,并選取種子點(diǎn),提高遺傳算法的精確度。

        猜你喜歡
        人種膚色前景
        我國(guó)旅游房地產(chǎn)開(kāi)發(fā)前景的探討
        四種作物 北方種植有前景
        Conversation in a house
        人的膚色為什么不同
        姐妹三人種芝麻
        一斤干飯,九兩蘋(píng)果——“十六連豐”后,陜西人種啥?吃啥?
        離岸央票:需求與前景
        量子糾纏的來(lái)歷及應(yīng)用前景
        太空探索(2016年10期)2016-07-10 12:07:01
        膚色檢測(cè)和Hu矩在安全帽識(shí)別中的應(yīng)用
        關(guān)于人種
        中外文摘(2013年14期)2013-09-29 03:45:46
        亚洲小说区图片区另类春色| 熟妇人妻av中文字幕老熟妇| 亚洲中文字幕久爱亚洲伊人| 中文字幕精品一二三四五六七八 | 日本一区二区三区亚洲| 亚洲一区二区婷婷久久| 亚洲精品乱码久久久久久中文字幕 | 亚洲中文字幕一区二区在线| 免费观看视频在线播放| 91制服丝袜| 大陆极品少妇内射aaaaa| 99无码精品二区在线视频| 开心久久婷婷综合中文字幕| 亚洲中国美女精品久久久| 国产丝袜一区二区三区在线不卡| 亚洲av无码第一区二区三区| 精品无码无人网站免费视频| 日韩产的人妻av在线网| 2020亚洲国产| 久久香蕉国产线看观看网| 青草视频在线播放| 亚洲av无码乱码在线观看牲色 | 国产老熟女精品一区二区| 久久精品国产亚洲不卡| 永久免费的拍拍拍网站| 国产999视频| 国产精品无码日韩欧| 台湾无码av一区二区三区| 24小时日本在线视频资源| 亚洲av无码精品无码麻豆| 国产内射视频在线观看| 九色91精品国产网站| 欧美国产小视频| 欧性猛交ⅹxxx乱大交| 国产成人综合亚洲精品| 亚洲性爱视频| 色爱无码av综合区| 人妻无码一区二区三区免费| 麻豆网神马久久人鬼片| 亚洲国产精品一区二区成人片国内| 午夜福利视频一区二区二区|