亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv3和YCrCb的人臉口罩檢測(cè)與規(guī)范佩戴識(shí)別

        2020-12-24 08:01:42肖俊杰
        軟件 2020年7期
        關(guān)鍵詞:膚色人臉橢圓

        摘? 要: 2020年初,新冠病毒席卷全球,為防止其傳播,在很多公共場(chǎng)合要求佩戴口罩。利用計(jì)算機(jī)視覺檢測(cè)人臉是否佩戴口罩以及識(shí)別是否佩戴規(guī)范,可以避免檢測(cè)人員與他人接觸感染的風(fēng)險(xiǎn)且更加高效。針對(duì)人臉口罩檢測(cè)問(wèn)題,提出了基于YOLOv3的目標(biāo)檢測(cè)算法,實(shí)現(xiàn)對(duì)佩戴口罩的人臉和未佩戴口罩的人臉的檢測(cè)。針對(duì)口罩規(guī)范佩戴識(shí)別問(wèn)題,則基于前者檢測(cè)結(jié)果,提取佩戴口罩的人臉區(qū)域,利用YCrCb的橢圓膚色模型對(duì)該區(qū)域進(jìn)行膚色檢測(cè),依據(jù)人臉中鼻和嘴周圍區(qū)域的皮膚暴露狀況來(lái)判斷口罩是否佩戴規(guī)范。實(shí)驗(yàn)結(jié)果表明,人臉口罩檢測(cè)的mAP達(dá)到89.04%,口罩規(guī)范佩戴的識(shí)別率達(dá)到82.48%,滿足實(shí)際應(yīng)用的需求。

        關(guān)鍵詞: 人臉口罩檢測(cè);口罩規(guī)范佩戴識(shí)別;YOLOv3算法;YCrCb橢圓膚色模型

        中圖分類號(hào): TP391.4 ???文獻(xiàn)標(biāo)識(shí)碼: A??? DOI:10.3969/j.issn.1003-6970.2020.07.033

        本文著錄格式:肖俊杰. 基于YOLOv3和YCrCb的人臉口罩檢測(cè)與規(guī)范佩戴識(shí)別[J]. 軟件,2020,41(07):164-169

        Masked Face Detection and Standard Wearing Mask RecognitionBased on YOLOv3 and YCrCb

        XIAO Jun-jie

        (College of Computer Science and Technology, Wuhan University of Technology, Wuhan 430070, China)

        【Abstract】: In early 2020, 2019-nCoV swept the world, and masks were required to wear in many public places to prevent its spread. Using computer vision to detect whether a face wears a mask and recognize whether the mask is properly worn will avoid the risk of contact with others and be more efficient. To solve the masked face detection, a algorithm based on YOLOv3 is proposed to detect faces both with masks and without masks. For the problem of standard wearing mask recognition, masked face area is extracted from the former result and the skin of this part could be detected by YCrCb ellipse skin model, and whether the mask is properly worn is judged according to the skin exposure around nose and mouth in the face. The experimental results indicate that the mAP of masked face detection reaches 89.04%, and the recognition rate of standard wearing mask achieves 82.48%, which can meet the requirements of practical application.

        【Key words】: Masked face detected; Standard wearing mask recognition; YOLOv3 algorithm; YCrCb ellipse skin model

        0? 引言

        新型冠狀病毒在全球范圍內(nèi)蔓延,人們的健康受到嚴(yán)重威脅。為了防止病毒在人群中的肆意傳播,社會(huì)要求人們出行、工作時(shí)務(wù)必佩戴好口罩。因此,在疫情時(shí)期檢測(cè)是否佩戴口罩,以及口罩是否正確佩戴成為了剛性需求。本文提出利用計(jì)算機(jī)視覺來(lái)進(jìn)行口罩佩戴和佩戴規(guī)范性檢測(cè),不僅能避免檢測(cè)人員和他人接觸感染的風(fēng)險(xiǎn),也能提高檢測(cè)效率。它可用于機(jī)場(chǎng)車站、街道、公園等人員流動(dòng)較密集場(chǎng)所的監(jiān)控系統(tǒng),檢測(cè)人們佩戴口罩的情況,也可用于小區(qū)人臉門禁、企業(yè)人臉打卡這類系統(tǒng),識(shí)別人們是否規(guī)范佩戴了口罩。此外在日常時(shí)期,這些技術(shù)仍有用武之地,比如可以檢測(cè)佩戴口罩的可疑人員、識(shí)別醫(yī)護(hù)人員在工作時(shí)是否規(guī)范佩戴了口罩等。

        人臉口罩檢測(cè)技術(shù)可利用深度學(xué)習(xí)的方法實(shí)現(xiàn)?;谏疃葘W(xué)習(xí)的目標(biāo)檢測(cè)算法十分豐富,有YOLO[1-3]、SSD[4]等one-stage系列算法,也有Fast R-CNN[5]、Faster R-CNN[6]等two-stage系列算法。one-stage具有出色的檢測(cè)速度,卻存在較低檢測(cè)精度的問(wèn)題。相反,two-stage具有優(yōu)良的檢測(cè)精度,但是由于其復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),在檢測(cè)速度方面卻遜色于one-stage。然而,one-stage中的YOLO算法經(jīng)歷了幾代的更迭改進(jìn)之后,逐漸彌補(bǔ)了自身的眾多不足之處。從YOLOv1[1]、YOLOv2[2]到Y(jié)OLOv3[3],在保持速度優(yōu)勢(shì)的前提下,不僅在檢測(cè)精度方面?? 有了明顯的提高,而且對(duì)小目標(biāo)的檢測(cè)性能有大幅提升。兼顧檢測(cè)的實(shí)時(shí)性和準(zhǔn)確性兩方面,本文?? 選擇了效果優(yōu)良的YOLOv3算法來(lái)實(shí)現(xiàn)人臉口罩? 檢測(cè)。

        另一方面,關(guān)于口罩規(guī)范佩戴識(shí)別的研究近年來(lái)還很少,但受到文獻(xiàn)[7]中利用皮膚來(lái)檢測(cè)人臉口罩的啟發(fā),聯(lián)想到可以通過(guò)檢測(cè)人臉中鼻和嘴周圍皮膚的暴露狀況來(lái)判斷口罩是否佩戴規(guī)范。皮膚檢測(cè)主要有基于RGB、基于HSV和基于YCrCb的檢測(cè)算法[8,9]。前人實(shí)驗(yàn)研究發(fā)現(xiàn)單純基于RGB或HSV顏色空間來(lái)判斷皮膚的方法容易受到亮度的影響,魯棒性較低,而在YCrCb顏色空間中膚色像素具有一定聚類性,分布相對(duì)集中,不易受到亮度的干擾,更適合應(yīng)用于皮膚檢測(cè)。因此,本文提出利用基于YCrCb顏色空間的橢圓膚色模型[10,11]來(lái)解決口罩規(guī)范佩戴識(shí)別問(wèn)題。

        綜上,針對(duì)人臉口罩檢測(cè)和規(guī)范佩戴識(shí)別問(wèn)題,本文方法的優(yōu)勢(shì)和創(chuàng)新在于:YOLOv3算法檢測(cè)速度快且精度較高;創(chuàng)新性地利用皮膚檢測(cè)來(lái)判斷佩戴口罩的規(guī)范性;YCrCb橢圓膚色模型減輕了光線亮度對(duì)皮膚檢測(cè)的干擾,增強(qiáng)了魯棒性。

        1 ?人臉口罩檢測(cè)模型

        本文采用基于YOLO3算法進(jìn)行人臉口罩檢測(cè)。首先可以通過(guò)攝像頭獲取初始圖像,在檢測(cè)時(shí),直接將圖片輸入事先用特定訓(xùn)練集訓(xùn)練好的YOLOv3模型,快速檢測(cè)出圖像中的佩戴口罩和未佩戴口? 罩的人臉。在輸出的圖像中用不同顏色的檢測(cè)框框選出對(duì)應(yīng)目標(biāo),并標(biāo)注對(duì)應(yīng)的類別。該部分模型基本框架如圖1所示。本節(jié)具體從YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)以及先驗(yàn)框的尺寸設(shè)置來(lái)展開介紹YOLOv3算法。

        1.1 ?YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)

        YOLOv3算法和前面兩代相比,做出了些許的改變,在保持速度優(yōu)勢(shì)的前提下也提升了檢測(cè)的精度和檢測(cè)小目標(biāo)的性能。YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,主要由兩大部分構(gòu)成:DarkNet53網(wǎng)絡(luò)和多尺度預(yù)測(cè)。DarkNet53的作用是對(duì)圖像進(jìn)行特征提取,輸入該網(wǎng)絡(luò)的圖片大小為416×416。它主要由一系列的1×1和3×3的卷積層構(gòu)成,一共53個(gè)(不包括殘差塊中的卷積層)。其中每個(gè)卷積層后都會(huì)跟有一個(gè)BN層和一個(gè)LeakyReLU層。此外,它借用殘差網(wǎng)絡(luò)的做法,在一些層使用了殘差塊。每個(gè)殘差塊包含有2個(gè)卷積層,所作的工作是先進(jìn)行一次1×1的卷積,在此基礎(chǔ)上,再進(jìn)行一次3×3的卷積,并將此結(jié)果加上原來(lái)殘差塊的輸入作為最終結(jié)果輸入到下一階段。經(jīng)過(guò)DarkNet53的特征提取后,則是利用多尺度特征圖進(jìn)行對(duì)象預(yù)測(cè)。在該部分,YOLOv3提取了3個(gè)不同尺度的特征圖,分別位于中間層、中下層、底層。其中,底層進(jìn)行一系列卷積后,一部分會(huì)再經(jīng)過(guò)后續(xù)處理作為結(jié)果輸出,另一部分再做卷積和上采樣操作并與中下層的特征圖融合,得到中下層粒度較細(xì)的特征圖。然后將該特征圖經(jīng)過(guò)同樣的處理,輸出對(duì)應(yīng)結(jié)果同時(shí)再進(jìn)行卷積、上采樣和中間層特征圖融合。在中間層只需將融合的圖進(jìn)行卷積操作后輸出結(jié)果即可。最終,一共會(huì)得到3個(gè)對(duì)應(yīng)不同尺度的預(yù)測(cè)結(jié)果,每個(gè)結(jié)果中包含3個(gè)先驗(yàn)框的預(yù)測(cè)信息,每個(gè)先驗(yàn)框的預(yù)測(cè)信息對(duì)應(yīng)7維,分別是坐標(biāo)值(4)、置信度(1)、種類(2)。關(guān)于種類,針對(duì)人臉口罩檢測(cè)種類只有戴口罩和未戴口罩2種。

        1.2 ?先驗(yàn)框尺寸設(shè)置

        由于人臉口罩檢測(cè)的環(huán)境比較復(fù)雜多樣,圖像中的人臉大小有大有小,使得精準(zhǔn)預(yù)測(cè)物體位置的難度變大。然而YOLOv3算法的anchor機(jī)制能夠很好解決該問(wèn)題。在YOLOv3算法中,每個(gè)特征圖都被劃分成多個(gè)單元,每個(gè)單元會(huì)預(yù)測(cè)多個(gè)邊框。通過(guò)設(shè)置先驗(yàn)框的尺寸,會(huì)改變這些單元預(yù)測(cè)框的大小??偣部稍O(shè)置9種尺度的先驗(yàn)框,在13×13,26×26,

        52×52的特征圖中,分別設(shè)置3種先驗(yàn)框,對(duì)應(yīng)地分別適合檢測(cè)較大的對(duì)象,中等大小對(duì)象,較小對(duì)象。關(guān)于這9種先驗(yàn)框尺寸的具體設(shè)置,YOLOv3提出的方案是利用K-means聚類算法針對(duì)特定的訓(xùn)練集中目標(biāo)物體大小來(lái)確定。在人臉口罩的訓(xùn)練集上,聚類得出的先驗(yàn)框尺寸如表1所示。這樣的設(shè)置可以檢測(cè)到絕大多數(shù)尺寸的人臉,滿足人臉口罩檢測(cè)各種應(yīng)用場(chǎng)景的基本需求。

        2 ?口罩規(guī)范佩戴識(shí)別模型

        口罩規(guī)范佩戴識(shí)別是基于人臉口罩檢測(cè)結(jié)果進(jìn)行的,該部分的輸入是人臉口罩檢測(cè)的輸出且是有佩戴口罩的人臉。首先,將人臉部分的圖像提取出來(lái);然后映射到Y(jié)CrCb顏色空間并進(jìn)行非線性變換,經(jīng)過(guò)橢圓膚色模型檢測(cè)后輸出一張灰度圖,其中皮膚部分像素點(diǎn)為255(白色),非皮膚部分像素點(diǎn)為0(黑色);最后再通過(guò)遍歷人臉中鼻和嘴周圍的像素點(diǎn),得到皮膚暴露狀況,從而判斷是否規(guī)范佩戴口罩了。識(shí)別模型結(jié)構(gòu)如圖3所示。本節(jié)具體介紹了YCrCb橢圓膚色模型、人臉中鼻和嘴部分的劃分、以及通過(guò)膚色狀況判斷是否規(guī)范佩戴口罩的邏輯關(guān)系。

        2.1 ?YCrCb橢圓膚色模型

        YCrCb橢圓膚色模型[11]是Hsu等人所提出的,它能夠很好地利用皮膚在YCrCb顏色空間聚類的特點(diǎn)進(jìn)行皮膚檢測(cè),并且降低光線亮度對(duì)檢測(cè)的影響。構(gòu)建該模型,首先需要將膚色檢測(cè)的圖片從RGB顏色空間轉(zhuǎn)換到Y(jié)CrCb顏色空間,具體轉(zhuǎn)換公式如下:

        得到了原始圖片在YCrCb顏色空間的映射之后,還需要對(duì)其中Cr和Cb色度進(jìn)行一系列非線性變換,得到Cr′和Cb′,即得到新的YCr′Cb′顏色空間。與此同時(shí),還要去掉高光陰影部分,采用四個(gè)邊界限制膚色聚類區(qū)域,以此適應(yīng)原始圖片中亮度過(guò)明或過(guò)暗的區(qū)域。皮膚信息在YCr′Cb′顏色空間中會(huì)產(chǎn)生聚類現(xiàn)象,其分布近似為一個(gè)橢圓形狀,如圖4所示。

        該橢圓區(qū)域即為橢圓膚色模型,其計(jì)算公式如公式(2)所示,x、y的取值如公式(3)所示。

        對(duì)于皮膚的檢測(cè),只需要求出原始圖片中某個(gè)像素點(diǎn)在YCr′Cb′顏色空間中的映射Cr′和Cb′,然后根據(jù)公式(3)求出對(duì)應(yīng)坐標(biāo),再依據(jù)公式(2)判斷該點(diǎn)是否落在該橢圓區(qū)域內(nèi)即可。如果是,則該像素點(diǎn)判斷為皮膚,否則判斷為非皮膚。

        2.2 ?人臉區(qū)域劃分及識(shí)別判斷

        一般來(lái)說(shuō),人們佩戴口罩不規(guī)范的情況可能是將鼻子露出,或是嘴巴露出,或是鼻子嘴巴都露出。所以,識(shí)別一張佩戴有口罩的人臉是否將口罩佩戴規(guī)范了,可以通過(guò)檢測(cè)其鼻子周圍和嘴巴周圍的皮膚情況,來(lái)判斷這些部位是否暴露在外面。要完成該過(guò)程,就涉及到鼻子和嘴巴部分的區(qū)域劃分。經(jīng)過(guò)大量觀察并測(cè)量人臉口罩檢測(cè)結(jié)果的檢測(cè)框發(fā)現(xiàn),人臉中,鼻子周圍部分所在位置大約在47%~ 67%的高度,嘴巴周圍部分所在位置大約在67%~ 95%的高度。這兩部分的寬度與檢測(cè)框的寬度相同。如圖5(a)所示。

        nose_ymin、nose_ymax分別表示Nose part框的最小縱坐標(biāo)和最大縱坐標(biāo)。mouse_ymin、mouse_ ymax分別表示Mouse part框的最小縱坐標(biāo)和最大縱坐標(biāo)。width、height分別表示整個(gè)人臉圖像的寬度和高度。

        將人臉口罩檢測(cè)框部分的圖片經(jīng)過(guò)YCrCb橢圓膚色模型處理后,得到一張對(duì)應(yīng)的灰度圖,如圖5(b)所示。檢測(cè)為皮膚的像素點(diǎn)設(shè)為255(白色),檢測(cè)為非皮膚的像素點(diǎn)設(shè)為0(黑色)。在該灰度圖上,遍歷鼻和嘴周圍部分的所有像素點(diǎn),得出在對(duì)應(yīng)部分范圍里皮膚所占的面積百分比。經(jīng)過(guò)反復(fù)的實(shí)驗(yàn)測(cè)試發(fā)現(xiàn)鼻子部分閾值設(shè)置為30%,嘴巴部分閾值設(shè)置為25%時(shí)合理性最高。在進(jìn)行口罩佩戴規(guī)范情況識(shí)別時(shí),如果鼻子和嘴巴部分皮膚所占百分比超過(guò)對(duì)應(yīng)的閾值,就說(shuō)明該部分暴露在外面,再基于下面的命題邏輯表達(dá)式進(jìn)行整體判定。

        其中,表示佩戴口罩,表示鼻子暴露在外面,表示嘴巴暴露在外面。由于該識(shí)別是在已佩戴口罩人臉的基礎(chǔ)上,所以一直為true。當(dāng)表達(dá)式(7)真值為true時(shí),識(shí)別結(jié)果為口罩未規(guī)范佩戴;真值為false時(shí),識(shí)別結(jié)果為口罩已規(guī)范佩戴。

        3 ?實(shí)驗(yàn)

        3.1 ?數(shù)據(jù)集

        實(shí)驗(yàn)采用了WIDER FACE數(shù)據(jù)集[12]和MAFA數(shù)據(jù)集[13]進(jìn)行訓(xùn)練,驗(yàn)證和測(cè)試。WIDER FACE是一個(gè)比較成熟的開源人臉檢測(cè)數(shù)據(jù)集,包含3萬(wàn)多張圖片,近40萬(wàn)個(gè)人臉,其中,佩戴口罩的人臉不多,但是可以采集到大量沒有遮擋的人臉。而相反,MAFA是一個(gè)人臉遮擋的數(shù)據(jù)集,其中大部分的遮擋物為口罩,因此可以從中選取出許多佩戴口罩的人臉。

        針對(duì)本次的實(shí)驗(yàn),在WIDER FACE數(shù)據(jù)集中選取了3292張沒有佩戴口罩的人臉圖片,在MAFA數(shù)據(jù)集中,選取了3741張包含有戴口罩的人臉圖片,一共7033張。對(duì)應(yīng)地,數(shù)據(jù)集圖片里的標(biāo)簽也有2類:have_mask和no_mask。其中,4676張圖片用于訓(xùn)練。520張圖片用于驗(yàn)證。1837張圖片用于測(cè)試。

        3.2 ?人臉口罩檢測(cè)實(shí)驗(yàn)結(jié)果

        將訓(xùn)練后YOLOv3網(wǎng)絡(luò)模型,在測(cè)試集上進(jìn)行人臉口罩檢測(cè)的測(cè)試,對(duì)測(cè)試結(jié)果從多個(gè)方面來(lái)進(jìn)行評(píng)價(jià)。其中,正確檢測(cè)表示檢測(cè)結(jié)果和測(cè)試樣本的類別一致,誤檢表示將其他物體檢測(cè)為該類別,漏檢表示將該類別的測(cè)試樣本檢測(cè)為其他類別或未檢測(cè)出類別,AP表示該類別的檢測(cè)準(zhǔn)確率均值,mAP表示所有類別檢測(cè)準(zhǔn)確率均值的平均值,即have_mask和no_mask兩個(gè)類別的平均準(zhǔn)確率均值。具體結(jié)果如表2所示。

        由表2的結(jié)果可以看出,在該測(cè)試集上have_ mask和no_mask兩個(gè)類別的準(zhǔn)確率均值分別為92.67%和85.41%,它們的平均準(zhǔn)確率均值為89.04%,在準(zhǔn)確度方面達(dá)到了優(yōu)良的水平。由此可以說(shuō)明YOLOv3算法檢測(cè)人臉口罩的準(zhǔn)確性有一定的保障。此外,關(guān)于檢測(cè)的速度,可以達(dá)到35FPS左右,滿足實(shí)時(shí)性檢測(cè)的需求。具體檢測(cè)效果樣例如6圖所示。紅色框?yàn)榕宕骺谡秩四?,青色框?yàn)槲磁宕骺谡秩四?,檢測(cè)框上的數(shù)字為置信度。

        3.3 ?口罩規(guī)范佩戴識(shí)別實(shí)驗(yàn)結(jié)果

        口罩規(guī)范佩戴識(shí)別是在人臉口罩檢測(cè)基礎(chǔ)上進(jìn)行的,其測(cè)試集從人臉口罩檢測(cè)的測(cè)試集中進(jìn)一步篩選。篩選的標(biāo)準(zhǔn)是檢測(cè)結(jié)果為有佩戴口罩,人臉正對(duì)且傾斜幅度不大。一共選取了451張圖片,其中規(guī)范佩戴的圖片有251張,未規(guī)范佩戴的圖片有200張。對(duì)應(yīng)識(shí)別類別也有兩類:masked_well和masked_wrong。測(cè)試結(jié)果用混淆矩陣表示,如圖7所示。

        由混淆矩陣可知,規(guī)范佩戴口罩類別的識(shí)別率可達(dá)87%,未規(guī)范佩戴口罩類別的識(shí)別率略低,只有76%。整體的識(shí)別率為82.48%。由此可看出,雖然未規(guī)范佩戴口罩的識(shí)別率不高,但整體的識(shí)別率還是比較理想的,識(shí)別效果達(dá)到了一定水平。具體識(shí)別效果樣例如圖8所示。綠色框表示識(shí)別結(jié)果為規(guī)范佩戴口罩,紅色框表示識(shí)別結(jié)果為未規(guī)范佩戴口罩。

        4 ?結(jié)束語(yǔ)

        為了解決疫情時(shí)期在要求佩戴口罩的場(chǎng)合檢測(cè)人們是否佩戴了口罩以及識(shí)別是否規(guī)范佩戴的問(wèn)題,本文提出了基于YOLOv3的深度學(xué)習(xí)算法用于人臉口罩的檢測(cè),并且可以在該檢測(cè)結(jié)果的基礎(chǔ)上,將佩戴有口罩的人臉框部分映射到Y(jié)CrCb顏色空間并進(jìn)行非線性變換,通過(guò)橢圓膚色模型來(lái)檢測(cè)該人臉框中鼻和嘴部分的皮膚暴露的狀況,進(jìn)而識(shí)別出是否規(guī)范佩戴了口罩。利用公開數(shù)據(jù)集對(duì)模型進(jìn)行訓(xùn)練和測(cè)試,實(shí)驗(yàn)結(jié)果顯示,人臉口罩檢測(cè)和佩戴規(guī)范識(shí)別都具有較高的精度,具有較高應(yīng)用價(jià)值。

        但本文的方法仍存在不足之處,當(dāng)人臉區(qū)域比較小時(shí),仍存在漏檢的情況。此外,口罩規(guī)范佩戴識(shí)別對(duì)于異常角度和傾斜的人臉錯(cuò)誤率較高。因此,提高對(duì)人臉區(qū)域較小的口罩檢測(cè)的性能,以及加強(qiáng)口罩規(guī)范佩戴識(shí)別的魯棒性,是未來(lái)進(jìn)一步研究的方向。

        參考文獻(xiàn)

        1. Redmon J, Divvala S, Girshick R, et al. You Only Look Once: Unified, Real-Time Object Detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2016.

        2. Redmon J, Farhadi A. YOLO9000: Better, Faster, Stronger [C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2016.

        3. Redmon J, Farhadi A. YOLOv3: An Incremental Improvement[C]//2018 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2018.

        4. Liu W, Anguelov D, Erhan D, et al. SSD: single shot multibox detector [C]//Proc of European Conference on Computer Vision. Springer, 2016: 21-37.

        5. Girshick R. Fast R-CNN[C]// 2015 IEEE International Conference on Computer Vision (ICCV). IEEE, 2016.

        6. Ren S, He K, Girshick R, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137-1149.

        7. Nieto-Rodríguez, Mucientes M, Brea V M. System for Medical Mask Detection in the Operating Room Through Facial Attributes[C]//Iberian Conference on Pattern Recognition and Image Analysis. 2015.

        8. 劉萌. 基于膚色HSV彩色模型下的人臉檢測(cè)[J]. 商洛學(xué)院學(xué)報(bào), 2012, 26(02): 46-50.

        9. 邱迪. 基于HSV與YCrCb顏色空間進(jìn)行膚色檢測(cè)的研究[J]. 電腦編程技巧與維護(hù), 2012(10): 76-77.

        10. 趙杰, 桑慶兵, 劉毅錕. 基于分裂式K均值聚類的膚色檢測(cè)方法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2014, 50(1): 134-138.

        11. Hsu R L, Abdel-Mottaleb M, Jain A K. Face Detection in Color Images[J]. Journal of Chengdu Textile College, 2002, 24(5): 696-706.

        12. Yang S, Luo P, et al. WIDER FACE: A Face Detection Benchmark[C]//IEEE Conference on Computer Vision and Pattern Recognition, IEEE, 2016.

        13. Ge S, Li J, Ye Q, et al. Detecting Masked Faces in the Wild with LLE-CNNs[C]//IEEE Conference on Computer Vision & Pattern Recognition. IEEE, 2017.

        猜你喜歡
        膚色人臉橢圓
        Heisenberg群上由加權(quán)次橢圓p-Laplace不等方程導(dǎo)出的Hardy型不等式及應(yīng)用
        有特點(diǎn)的人臉
        例談橢圓的定義及其應(yīng)用
        Conversation in a house
        人的膚色為什么不同
        一道橢圓試題的別樣求法
        三國(guó)漫——人臉解鎖
        橢圓的三類切點(diǎn)弦的包絡(luò)
        馬面部與人臉相似度驚人
        長(zhǎng)得象人臉的十種動(dòng)物
        奇聞怪事(2014年5期)2014-05-13 21:43:01
        乱色视频中文字幕在线看| 成人毛片无码一区二区三区| 少妇高潮潮喷到猛进猛出小说| 日韩永久免费无码AV电影| 亚洲中文字幕不卡一区二区三区| 蜜桃91精品一区二区三区| 丰满少妇被粗大的猛烈进出视频| 亚洲国际无码中文字幕| 亚洲一区二区成人在线视频| 男女激情视频网站在线| 久久天天躁狠狠躁夜夜avapp| 亚洲av成本人无码网站| 亚洲免费无毛av一区二区三区| 日本免费观看视频一区二区| 麻豆精品国产精华液好用吗| 精品日韩国产欧美在线观看| 亚洲av色香蕉一区二区三区蜜桃| 亚洲精品视频中文字幕| 成l人在线观看线路1| 啪啪无码人妻丰满熟妇| 黄色中文字幕视频网站| www国产亚洲精品| 欧美国产一区二区三区激情无套| 国产av一区二区三区区别| av天堂手机在线看片资源| 高潮抽搐潮喷毛片在线播放| 鲁一鲁一鲁一鲁一澡| 久久精品国产一区二区涩涩| 最新国产熟女资源自拍| 四虎影视永久地址www成人| 国产精品每日更新在线观看| 国产一区二区三区精品乱码不卡| 三级做a全过程在线观看| 国产一级做a爱免费观看| 国内自拍偷拍一区二区| 久久久久久夜精品精品免费啦 | 天天做天天爱天天爽综合网| 国产三级黄色在线观看| 一区二区高清免费日本| 国产精品无码无片在线观看3d| 久久国产热精品波多野结衣av|