楊凱雯 楊佳樂(lè)
摘 ?要:提出一種教室場(chǎng)景下人臉檢測(cè)與識(shí)別的算法,基于RetinaFace人臉檢測(cè)框架進(jìn)行改進(jìn),在主干網(wǎng)絡(luò)中引入可變形卷積以適應(yīng)人臉遮擋以及人臉變形,調(diào)整預(yù)設(shè)Anchor并在上下文敏感模塊中引入殘差結(jié)構(gòu)以適應(yīng)教室場(chǎng)景下尺度變化的特點(diǎn)。在公開數(shù)據(jù)集WIDER FACE上訓(xùn)練基礎(chǔ)權(quán)重,然后在教室場(chǎng)景下自標(biāo)注的數(shù)據(jù)集中進(jìn)行遷移學(xué)習(xí)以適應(yīng)教室場(chǎng)景,最后通過(guò)ArcFace人臉識(shí)別網(wǎng)絡(luò)進(jìn)行人臉識(shí)別。本算法在公開數(shù)據(jù)集WIDER FACE上batch size設(shè)置為16時(shí),Easy、Medium和Hard的人臉檢測(cè)精度分別為96.34%、95.12%和89.64%;在自標(biāo)注的數(shù)據(jù)集上batch size設(shè)置為4時(shí),人臉檢測(cè)精度為94.72%,人臉識(shí)別精度為92.11%。實(shí)驗(yàn)結(jié)果表明,該算法可以有效提高教室場(chǎng)景下人臉檢測(cè)與識(shí)別的效果。
關(guān)鍵詞:人臉檢測(cè);人臉識(shí)別;RetinaFace;ArcFace
中圖分類號(hào):TP399 ? ? 文獻(xiàn)標(biāo)識(shí)碼:A
Face Detection and Recognition in Classroom Scenarios
YANG Kaiwen1, YANG Jiale2
(1.School of Information, Shenyang University of Technology, Shenyang 110870, China;
2.School of Artificial Intelligence, Shenyang University of Technology, Shenyang 110870, China)
527410159@qq.com; 2082873733@qq.com
Abstract: This paper proposes an algorithm for face detection and recognition in classroom scenes, which is improved based on the RetinaFace face detection framework. Deformable convolution is introduced into the core network to adapt to face occlusion and face deformation. The preset Anchor is adjusted and the residual structure is introduced into the context-sensitive module to adapt to the characteristics of scale changes in classroom scenes. The basic weights are trained on the public dataset WIDER FACE, and then the self-labeled dataset in the classroom scene is used for transfer learning to adapt to the classroom scene. Finally, face recognition is carried out through ArcFace face recognition network. When the batch size of this algorithm is set to 16 on the public dataset WIDER FACE, the face recognition precision rates of Easy, Medium and Hard are 96.34%, 95.12% and 89.64% respectively. When the batch size on the self-labeled dataset is 4, the face detection precision is 94.72%, and the face recognition precision is 92.11%. Experimental results show that the algorithm can effectively improve the effect of face detection and recognition in classroom scenes.
Keywords: face detection; face recognition; RetinaFace; ArcFace
1 ? 引言(Introduction)
如今校園教學(xué)中的考勤系統(tǒng)大部分通過(guò)傳統(tǒng)點(diǎn)名簽到的人工考勤方式來(lái)記錄學(xué)生的出勤情況,這樣不僅會(huì)耗費(fèi)師生大量的時(shí)間,更有可能影響高校的教學(xué)進(jìn)度和安排。人臉檢測(cè)和人臉識(shí)別技術(shù)為教室考勤提供了新的方向,從圖像中快速、準(zhǔn)確地檢測(cè)到人臉位置信息是人臉識(shí)別技術(shù)的關(guān)鍵,如果人臉檢測(cè)的性能不佳,勢(shì)必會(huì)導(dǎo)致人臉識(shí)別的效果大打折扣。
在深度學(xué)習(xí)廣泛應(yīng)用前,著名的人臉檢測(cè)器MTCNN[1]使用圖像金字塔的方法來(lái)檢測(cè)不同分辨率的人臉目標(biāo),后來(lái)提出了將不同層級(jí)的特征圖融合起來(lái)以提升目標(biāo)檢測(cè)的性能,即特征金字塔網(wǎng)絡(luò)FPN[2]。還有其他檢測(cè)不同尺度大小人臉特征的方式如SSH[3]、R-FCN和PyramidBox[4],以及對(duì)Anchor采樣和匹配策略改進(jìn)的方式如FaceBoxes、S3FD和半監(jiān)督學(xué)習(xí)方法maskedFaceNet[5]等。
RetinaFace[6]是2019 年提出的人臉檢測(cè)模型,原模型添加了SSH網(wǎng)絡(luò)的檢測(cè)模塊,標(biāo)注了WIDER FACE[7]的人臉五個(gè)關(guān)鍵點(diǎn)標(biāo)注數(shù)據(jù),融合了多任務(wù)損失,同時(shí)提出了一個(gè)自監(jiān)督的人臉編碼器用于人臉的檢測(cè)。
2 ? 人臉檢測(cè)(Face detection)
2.1 ? RetinaFace網(wǎng)絡(luò)
本文對(duì)比了多個(gè)人臉檢測(cè)網(wǎng)絡(luò)的性能,最終選用RetinaFace人臉檢測(cè)框架進(jìn)行實(shí)驗(yàn)。RetinaFace是一個(gè)單階段的人臉檢測(cè)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)圖如圖1所示,在多特征層級(jí)的基礎(chǔ)上使用了特征金字塔結(jié)構(gòu),更充分地利用了多層級(jí)信息,并通過(guò)上下文融合模塊進(jìn)行不同層級(jí)間信息的特征融合,采用多任務(wù)損失函數(shù)獲得更好的人臉檢測(cè)效果[8]。相對(duì)于自然場(chǎng)景,教室場(chǎng)景下人臉有固定的尺度特征范圍,且存在學(xué)生姿態(tài)輕微扭曲以及前后排遮擋問(wèn)題,本文針對(duì)以上問(wèn)題將骨干網(wǎng)絡(luò)替換為ResNet50,并從檢測(cè)框策略、信息融合模塊和遷移學(xué)習(xí)等方面對(duì)人臉檢測(cè)網(wǎng)絡(luò)進(jìn)行改進(jìn)。
2.2 ? 可變形卷積
卷積神經(jīng)網(wǎng)絡(luò)在目標(biāo)檢測(cè)與識(shí)別任務(wù)上解決了很多問(wèn)題,激活函數(shù)、網(wǎng)絡(luò)結(jié)構(gòu)和損失函數(shù)也在不斷更迭創(chuàng)新,而卷積層和池化層的操作一般都只能在正方形的區(qū)域內(nèi)對(duì)應(yīng)地進(jìn)行映射運(yùn)算,如圖2(a)所示,這種大小比例固定的方法對(duì)于教室場(chǎng)景下學(xué)生人臉姿態(tài)輕微扭曲的問(wèn)題檢測(cè)效果不夠好。
本文在骨干網(wǎng)絡(luò)ResNet50中引入了可變形卷積結(jié)構(gòu)[9],對(duì)每一層卷積核的對(duì)應(yīng)位置增加偏移,加上偏移量的學(xué)習(xí)之后,可變形卷積核的大小和位置可以根據(jù)當(dāng)前需要識(shí)別的圖像內(nèi)容進(jìn)行動(dòng)態(tài)調(diào)整,其直觀效果就是不同位置的卷積核采樣點(diǎn)位置會(huì)根據(jù)圖像內(nèi)容發(fā)生自適應(yīng)的變化,以適應(yīng)不同物體的形狀、大小等幾何形變,從而提高對(duì)教室中每個(gè)學(xué)生臉部的大小、姿態(tài)和扭曲情況下的檢測(cè)效果。
2.3 ? Anchor縮減策略
經(jīng)過(guò)計(jì)算,RetinaFace一共需要在特征金字塔的五層特征層上生成102,300 個(gè)Anchor預(yù)測(cè)框,如表1所示,并提取出每個(gè)預(yù)測(cè)框內(nèi)的特征信息進(jìn)行判斷以及篩選是否存在人臉和置信度等信息進(jìn)行人臉檢測(cè)。雖然這種方式可檢測(cè)到的人臉尺度范圍非常大,但是在訓(xùn)練和測(cè)試過(guò)程中耗費(fèi)的算力和顯存也是非常巨大的。考慮到教室場(chǎng)景下人臉尺度大小范圍較自然場(chǎng)景下范圍較小,人臉圖像約為20—100 像素,所以為了避免顯存的浪費(fèi),本設(shè)計(jì)去掉了P5和P6兩層特征層,將五層特征金字塔縮減為可以檢測(cè)16—101.59 像素大小人臉圖像的三層特征層結(jié)構(gòu),同時(shí)上下文模塊也由原始的五個(gè)縮減為三個(gè)融合模塊。
2.4 ? 上下文預(yù)測(cè)模塊
RetinaFace網(wǎng)絡(luò)結(jié)構(gòu)中的信息融合模塊使用的是SSH上下文模塊,SSH通過(guò)在不同分支上不同的卷積核層堆疊來(lái)擴(kuò)展感受野的大小,學(xué)習(xí)更多的上下文信息;DSSD網(wǎng)絡(luò)在單階段檢測(cè)網(wǎng)絡(luò)SSD[10]中引入殘差網(wǎng)絡(luò),從而得到更深度的預(yù)測(cè)分支。而本設(shè)計(jì)使用的CPM上下文預(yù)測(cè)模塊借鑒了以上兩種思路。CPM模塊結(jié)構(gòu)如圖3所示,在SSH上下文模塊中的前面添加殘差預(yù)測(cè)模塊,在網(wǎng)絡(luò)結(jié)構(gòu)深度增加的同時(shí)增加了網(wǎng)絡(luò)寬度以提取更深層次的特征信息,既能增加特征信息提取能力,又防止由于網(wǎng)絡(luò)深度增加而帶來(lái)的梯度消失和梯度爆炸問(wèn)題,使得預(yù)測(cè)模塊在分類和定位上能得到更好的效果。
2.5 ? 遷移學(xué)習(xí)
目前很多骨干網(wǎng)絡(luò)通過(guò)預(yù)訓(xùn)練提取特征的效果較好,但是這些網(wǎng)絡(luò)基本都是在ImageNet數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練的,而實(shí)際中的各種任務(wù)目標(biāo)各有不同,如果只依靠ImageNet數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練可能無(wú)法涵蓋各個(gè)領(lǐng)域目標(biāo)檢測(cè)的需求。由于教室場(chǎng)景下數(shù)據(jù)量有限,因此本文使用遷移學(xué)習(xí)中fine-tunning的方式,在大型公開數(shù)據(jù)集上預(yù)訓(xùn)練得到的網(wǎng)絡(luò)模型基礎(chǔ)上,使用教室場(chǎng)景下自標(biāo)注的數(shù)據(jù)集再次訓(xùn)練人臉檢測(cè)網(wǎng)絡(luò),從而使這個(gè)網(wǎng)絡(luò)能夠?qū)W習(xí)到教室場(chǎng)景下的特征特點(diǎn),在數(shù)據(jù)集較小的情況下訓(xùn)練出效果更好、更適合教室場(chǎng)景的人臉檢測(cè)模型。
3 ? 人臉識(shí)別(Face recognition)
3.1 ? ArcFace模型
在對(duì)人臉識(shí)別算法的改進(jìn)上,國(guó)內(nèi)外研究者首先將精力放在提出一個(gè)識(shí)別、驗(yàn)證、聚類等問(wèn)題的統(tǒng)一解決框架,考慮如何將人臉更好地映射到特征空間;后來(lái)考慮到深度學(xué)習(xí)的網(wǎng)絡(luò)復(fù)雜程度已經(jīng)很高,研究者們便開始了對(duì)損失函數(shù)優(yōu)化的研究。ArcFace[11]是目前人臉識(shí)別性能最好的開源模型之一,該模型提出了新的損失函數(shù)以更好地縮小預(yù)測(cè)與實(shí)際數(shù)據(jù)的差距,從而得到性能更好的人臉識(shí)別模型。
3.2 ? ArcFace損失函數(shù)
無(wú)論是SphereFace、CosFace、CurricularFace還是ArcFace的損失函數(shù),都是基于Softmax函數(shù)進(jìn)行改進(jìn)的。ArcFace在SphereFace的基礎(chǔ)上改進(jìn)了對(duì)特征歸一化和加性角度間隔,提高了類間可分性的同時(shí)增大了類內(nèi)緊度和類間差異。ArcFace損失函數(shù)如下式所示,自然數(shù)的指數(shù)部分使用的是,其中m是間距,是樣本大小,s指scale參數(shù)。
以二分類為例,通過(guò)上述各人臉識(shí)別模型的損失函數(shù)可以求得SphereFace、CosFace和ArcFace損失函數(shù)的分類邊界函數(shù)。將分類邊界公式用二維坐標(biāo)表示,如圖4所示,由圖中可以直觀地看出ArcFace是直接在角度空間最大化分類邊界。
4 ? 實(shí)驗(yàn)(Experiment)
4.1 ? 實(shí)驗(yàn)參數(shù)
本文運(yùn)行實(shí)驗(yàn)的平臺(tái)環(huán)境為1080Ti GPU、CUDA 10.2、Cudnn v7和PyTorch組成的框架。本文人臉檢測(cè)模型使用在WIDER FACE數(shù)據(jù)集上預(yù)訓(xùn)練的ResNet50模型為基礎(chǔ)網(wǎng)絡(luò),預(yù)訓(xùn)練權(quán)重采用SGD優(yōu)化方法,batch size設(shè)置為4,初始化學(xué)習(xí)率設(shè)置為0.001,動(dòng)量為0.9,權(quán)重衰減為0.0005。輸入圖像大小為1920×1080,通過(guò)主干網(wǎng)絡(luò)提取特征前改變尺寸為840×840。人臉識(shí)別網(wǎng)絡(luò)在CASIA-WebFace數(shù)據(jù)集中3,000 個(gè)名人以及教室場(chǎng)景下的學(xué)生合并得到的數(shù)據(jù)集下進(jìn)行訓(xùn)練,主干網(wǎng)絡(luò)為ResNet50,損失函數(shù)為ArcFace Loss,采用SGD優(yōu)化方法,共訓(xùn)練130 個(gè)輪次得到最優(yōu)訓(xùn)練結(jié)果。
4.2 ? 消融實(shí)驗(yàn)
本文分別以batch size為4和16在WIDER FACE數(shù)據(jù)集和自標(biāo)注數(shù)據(jù)集上進(jìn)行了對(duì)比試驗(yàn),驗(yàn)證人臉檢測(cè)算法是否有效。
實(shí)驗(yàn)一:如表2所示為自標(biāo)注數(shù)據(jù)集下顯存使用情況及精度,第一行為原始五層特征金字塔,第二行為縮減后的三層特征金字塔。通過(guò)第二列的比較可以得出將特征層進(jìn)行縮減后,訓(xùn)練時(shí)耗費(fèi)的顯存明顯減少,檢測(cè)精度輕微下降。如表3前兩行數(shù)據(jù)所示,第一行是batch size設(shè)置為4時(shí),原始RetinaFace網(wǎng)絡(luò)在公開數(shù)據(jù)集WIDER FACE上的實(shí)驗(yàn)結(jié)果;第二行是對(duì)原始RetinaFace網(wǎng)絡(luò)進(jìn)行縮減Anchor策略后的實(shí)驗(yàn)結(jié)果。由表2、表3綜合對(duì)比得知,Easy、Medium和Hard的精度都有0.58%—1.62%的下降。由于Anchor縮減策略本質(zhì)上是將特征金字塔去掉了兩層特征層,并調(diào)整每層特征層上的預(yù)設(shè)Anchor以減少算力和顯存的浪費(fèi),導(dǎo)致網(wǎng)絡(luò)可以檢測(cè)到的人臉框大小范圍縮小了,因此在公開數(shù)據(jù)集上檢測(cè)精度下降,但對(duì)自標(biāo)注的數(shù)據(jù)集檢測(cè)效果幾乎沒(méi)有下降,表明Anchor縮減策略符合且適應(yīng)本文場(chǎng)景數(shù)據(jù)集尺度特征。
實(shí)驗(yàn)二:通過(guò)在主干網(wǎng)絡(luò)ResNet50中引入可變形卷積以適應(yīng)教室場(chǎng)景人臉姿態(tài)輕微扭曲問(wèn)題。表3第三行是在Anchor縮減策略上加入了可變形卷積后的實(shí)驗(yàn)結(jié)果,與第二行未引入可變形卷積時(shí)相比精度Easy提高了2.75%,Medium提高了2.81%,Hard提高了1.87%。由此可以得出,可變形卷積的引入提高了公開數(shù)據(jù)集WIDER FACE的精度,增強(qiáng)了對(duì)變形人臉目標(biāo)的檢測(cè)效果。
實(shí)驗(yàn)三:通過(guò)替換為CPM模塊,即在SSH上下文模塊中的前面添加殘差預(yù)測(cè)模塊提高模型精度。表3第四行是替換為CPM模塊后模型的精度實(shí)驗(yàn)結(jié)果,雖然與第三行實(shí)驗(yàn)結(jié)果差距較小,但是與原始RetinaFace人臉檢測(cè)模型相比,公開數(shù)據(jù)集精度Easy提高了2.26%,Medium提高了3.1%,Hard提高了0.95%??梢缘贸鎏鎿Q為CPM模塊后,在增加網(wǎng)絡(luò)結(jié)構(gòu)深度的同時(shí)增加了網(wǎng)絡(luò)寬度以提取更深層次的特征信息,既能增加特征信息提取能力,又防止由于網(wǎng)絡(luò)深度增加而帶來(lái)的梯度消失和梯度爆炸問(wèn)題,使得預(yù)測(cè)模塊在分類和定位上取得了更好的效果。
實(shí)驗(yàn)四:表3后四行為batch size設(shè)置為16時(shí)各方面改進(jìn)后的對(duì)比實(shí)驗(yàn)結(jié)果,雖然最后一行全部改進(jìn)后在公開數(shù)據(jù)集上的精度沒(méi)有達(dá)到原始網(wǎng)絡(luò)的實(shí)驗(yàn)結(jié)果,但是經(jīng)過(guò)后三行數(shù)據(jù)的對(duì)比可以看出,無(wú)論是可變形卷積的加入還是CPM模塊的替換,都有效地提高了人臉檢測(cè)精度。
實(shí)驗(yàn)五:表4展示了在自標(biāo)注的教室場(chǎng)景數(shù)據(jù)集上的消融實(shí)驗(yàn)。第一行是原始網(wǎng)絡(luò)在自標(biāo)注數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果。第二行是進(jìn)行遷移學(xué)習(xí)fine-tunning的方法,由于自標(biāo)注數(shù)據(jù)集較小且與公開數(shù)據(jù)集相似,檢測(cè)目標(biāo)相同而檢測(cè)場(chǎng)景略有區(qū)別,通過(guò)fine-tunning方式能夠提高人臉檢測(cè)模型針對(duì)教室場(chǎng)景的檢測(cè)效果,使得精度提高了1.66%,模型更加適應(yīng)教室場(chǎng)景。第三行是縮減Anchor后的實(shí)驗(yàn)結(jié)果,由表2也可以得出,自標(biāo)注數(shù)據(jù)集精度變化不大,但在訓(xùn)練時(shí)明顯更加節(jié)省顯存。第四行是加入可變形卷積后的實(shí)驗(yàn)結(jié)果,自標(biāo)注數(shù)據(jù)集檢測(cè)精度提高了2.37%。第五行替換為CPM模塊后精度提高了2.12%,對(duì)比原始未改進(jìn)網(wǎng)絡(luò)檢測(cè)結(jié)果,自標(biāo)注教室場(chǎng)景下數(shù)據(jù)集人臉檢測(cè)精度一共提高了6.03%,證明一系列網(wǎng)絡(luò)改進(jìn)對(duì)教室場(chǎng)景人臉檢測(cè)以及識(shí)別的效果提高顯著。
實(shí)驗(yàn)六:本文使用ResNet50作為基礎(chǔ)特征提取網(wǎng)絡(luò)、ArcFace作為損失函數(shù)對(duì)教室場(chǎng)景下人臉識(shí)別網(wǎng)絡(luò)進(jìn)行建模,得到教室場(chǎng)景下人臉識(shí)別精度為92.11%。
從教室場(chǎng)景下人臉檢測(cè)以及人臉識(shí)別結(jié)果上看,本文算法改進(jìn)后的實(shí)驗(yàn)效果有一定程度的提高,具體檢測(cè)示例效果如圖5所示。圖5(a)為教室場(chǎng)景下采集到的原始圖像;圖5(b)為本算法人臉檢測(cè)效果,可以看出對(duì)于小尺寸以及略微遮擋的人臉目標(biāo)檢測(cè)效果良好,人臉檢測(cè)置信度也較高;圖5(c)為本算法人臉識(shí)別實(shí)驗(yàn)效果。
5 ? 結(jié)論(Conclusion)
本文提出一種針對(duì)教室場(chǎng)景下人臉檢測(cè)與識(shí)別的算法,以提高學(xué)生出勤管理的效率。首先基于RetinaFace人臉檢測(cè)框架進(jìn)行了改進(jìn),在主干網(wǎng)絡(luò)中引入可變形卷積以適應(yīng)人臉遮擋以及人臉變形;針對(duì)教室場(chǎng)景下的尺度特征,本文調(diào)整預(yù)設(shè)Anchor并在上下文敏感模塊中引入殘差結(jié)構(gòu);先在公開數(shù)據(jù)集WIDER FACE上進(jìn)行基礎(chǔ)權(quán)重的訓(xùn)練,然后通過(guò)遷移學(xué)習(xí)的方法在教室場(chǎng)景下訓(xùn)練得到適應(yīng)場(chǎng)景的人臉檢測(cè)模型;最后通過(guò)ArcFace人臉識(shí)別網(wǎng)絡(luò)進(jìn)行人臉識(shí)別,并通過(guò)界面顯示將檢測(cè)和識(shí)別結(jié)果顯示出來(lái)。本算法在公開數(shù)據(jù)集WIDER FACE上batch size設(shè)置為16時(shí),Easy、Medium和Hard的人
臉檢測(cè)精度分別為96.34%、95.12%和89.64%;在自標(biāo)注的數(shù)據(jù)集上batch size設(shè)置為4時(shí),人臉檢測(cè)精度為94.72%,人臉識(shí)別精度為92.11%。本文進(jìn)行了完整的方案設(shè)計(jì)與實(shí)現(xiàn),對(duì)其進(jìn)一步的應(yīng)用具有較好的參考價(jià)值。
參考文獻(xiàn)(References)
[1] ZHANG K, ZHANG Z, LI Z, et al. Joint face detection and alignment using multitask cascaded convolutional networks[J]. IEEE Signal Processing Letters, 2016, 23(10):1499-1503.
[2] LIN T Y, DOLLAR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]// IEEE. 2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Honolulu, USA: IEEE, 2017:2117-2125.
[3] NAJIBI M, SAMANGOUEI P, CHELLAPPA R, et al. SSH: Single stage headless face detector[C]// IEEE. 2017 IEEE International Conference on Computer Vision(ICCV). Venice, Italy: IEEE, 2017:4875-4884.
[4] TANG X, DU D K, HE Z, et al. Pyramidbox: A context-assisted single shot face detector[C]// Springer. 2018 European Conference on Computer Vision (ECCV). Munich, Germany: Springer, 2018:797-813.
[5] PRASAD S, LI Y, LIN D, et al. MaskedFaceNet: A progressive semi-supervised masked face detector[C]// IEEE. 2021 IEEE Winter Conference on Applications of Computer Vision (WACV). Waikoloa, USA: IEEE, 2021:3389-3398.
[6] DENG J, GUO J, VERVERAS E, et al. Retinaface: Single-shot multi-level face localisation in the wild[C]// IEEE. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR). Seattle, USA: IEEE, 2020:5203-5212.
[7] YANG S, LUO P, LOY C C, et al. Wider face: A face detection benchmark[C]// IEEE. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, USA: IEEE, 2016:5525-5533.
[8] 史祺鈺.基于人臉識(shí)別的銀行自助柜員機(jī)身份自動(dòng)認(rèn)證系統(tǒng)的研究[D].太原:中北大學(xué),2021.
[9] DAI J, QI H, XIONG Y, et al. Deformable convolutional networks[C]// IEEE. 2017 IEEE International Conference on Computer Vision (ICCV). Venice, Italy: IEEE, 2017:764-773.
[10] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot multibox detector[C]// Springer. 2018 European Conference on Computer Vision (ECCV). Amsterdam, The Netherlands: Springer, 2016:21-37.
[11] DENG J, GUO J, XUE N, et al. Arcface: Additive angular margin loss for deep face recognition[C]// IEEE. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, USA: IEEE, 2019:
4690-4699.
作者簡(jiǎn)介:
楊凱雯(1997-),女,碩士生.研究領(lǐng)域:機(jī)器視覺(jué).
楊佳樂(lè)(2002-),男,本科生.研究領(lǐng)域:模式識(shí)別.