亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)殘差網(wǎng)絡(luò)與圖聚類的人臉識(shí)別

        2021-11-02 11:48:38蘇俊峰劉振宇
        微處理機(jī) 2021年5期
        關(guān)鍵詞:信息熵人臉殘差

        蘇俊峰,劉振宇

        (沈陽工業(yè)大學(xué)信息科學(xué)與工程學(xué)院,沈陽110870)

        1 引言

        近年來隨著模式識(shí)別與計(jì)算機(jī)視覺技術(shù)的快速發(fā)展,人臉識(shí)別成為身份識(shí)別領(lǐng)域非常熱門的研究?jī)?nèi)容。人臉在不同個(gè)體之間存在差異而個(gè)體自身長時(shí)間不會(huì)有明顯改變,基于這一特性,人臉識(shí)別相比于其他的生物特征識(shí)別方法更具有直觀性,應(yīng)用場(chǎng)景更為豐富。在公安系統(tǒng)、證件審查和金融等領(lǐng)域都有良好的應(yīng)用效果[1]。

        人臉識(shí)別的方法分為基于幾何特征的方法、基于子空間的方法、基于局部特征的方法、基于稀疏表示的方法以及基于深度學(xué)習(xí)的方法等[2]。其中,基于幾何特征的人臉識(shí)別方法在遇到表情與姿態(tài)變化較大的情況時(shí),識(shí)別率偏低;基于子空間的方法由于缺乏投影矩陣,實(shí)用較為困難;基于局部特征的方法特征計(jì)算過程復(fù)雜,應(yīng)用受到限制;基于稀疏表示的方法在對(duì)原始信號(hào)分解過程中丟失很多原始的信息,影響了識(shí)別效果。這幾類傳統(tǒng)方法各有局限,人臉識(shí)別準(zhǔn)確不佳,相比之下,基于深度學(xué)習(xí)的方法為人臉識(shí)別領(lǐng)域提供了全新的研究方向。

        基于深度學(xué)習(xí)的方法不用特意去設(shè)計(jì)出人臉特征,而是可以利用深度卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)地從海量人臉圖片數(shù)據(jù)中學(xué)習(xí)到人臉特征。2015年,何愷明等人[3]提出了ResNet殘差網(wǎng)絡(luò)結(jié)構(gòu),其包含的殘差單元有效解決了隨著網(wǎng)絡(luò)深度的增加,準(zhǔn)確率飽和后出現(xiàn)退化的問題,在ILSVRC-2015分類任務(wù)以及ImageNet detection等任務(wù)中均獲得第一名。ResNet殘差網(wǎng)絡(luò)具有很高的人臉特征提取能力與人臉識(shí)別準(zhǔn)確率。

        在此,運(yùn)用ResNet殘差網(wǎng)絡(luò)在人臉識(shí)別上的研究成果[4],針對(duì)原模型結(jié)構(gòu)復(fù)雜而導(dǎo)致人臉特征提取時(shí)間較長的問題,設(shè)計(jì)出改進(jìn)殘差網(wǎng)絡(luò)模型,以加快提取速度。訓(xùn)練數(shù)據(jù)為CASIA-WebFace人臉數(shù)據(jù)集,對(duì)模型性能分析比較,結(jié)合Chinese whispers及k-means聚類算法形成多個(gè)方案,在LFW測(cè)試集進(jìn)行人臉聚類識(shí)別。

        2 殘差網(wǎng)絡(luò)模型

        2.1 相關(guān)知識(shí)

        ResNet引入了殘差單元來優(yōu)化深層網(wǎng)絡(luò)的學(xué)習(xí)。一個(gè)殘差單元包含兩部分:恒等映射(Identity Mapping)和殘差映射(Residual Mapping)。殘差單元結(jié)構(gòu)如圖1所示。殘差映射在前向傳播中增加捷徑連接,執(zhí)行恒等映射[5],這樣不會(huì)增加額外參數(shù)和計(jì)算復(fù)雜度,比原有映射更易優(yōu)化。在每個(gè)卷積層之后采用批量歸一化算法[6],算法原理如下:

        其中,ε為小偏置,用以防止分母為0;γ為縮放因子,β為偏移因子。通過BN算法可以增強(qiáng)反向傳播信息流動(dòng)性,提升訓(xùn)練速度,使收斂速度加快,改善正則化策略,提高網(wǎng)絡(luò)模型泛化能力并防止過擬合現(xiàn)象。

        另有前向傳播公式:

        以圖1為例,x、y分別表示輸入和輸出,W1、W2為兩個(gè)卷積層權(quán)重張量,σ為激活函數(shù),F(xiàn)(x,{Wi})為表示殘差映射的函數(shù),BN為批量歸一化操作。

        圖1 殘差單元結(jié)構(gòu)圖

        2.2 設(shè)計(jì)方案

        用人臉數(shù)據(jù)訓(xùn)練深度殘差網(wǎng)絡(luò)的過程中,需要考慮模型的準(zhǔn)確率、訓(xùn)練時(shí)間、模型大小、設(shè)備的計(jì)算能力等。在實(shí)際應(yīng)用中,結(jié)構(gòu)復(fù)雜的模型占用內(nèi)存大且加載時(shí)間長,導(dǎo)致識(shí)別速度慢,故此提出改進(jìn)設(shè)計(jì)方案。設(shè)計(jì)的目的是以保持較高準(zhǔn)確率為前提,能夠滿足在實(shí)際工程中縮短模型加載時(shí)間的要求,并為后續(xù)聚類算法提供較好的人臉特征向量輸出接口。圖2是以ResNet-30殘差網(wǎng)絡(luò)模型為例對(duì)這一設(shè)計(jì)進(jìn)行說明。

        圖2 ResNet-30殘差網(wǎng)絡(luò)整體結(jié)構(gòu)圖

        由圖中可以看出,殘差網(wǎng)絡(luò)含有5個(gè)卷積塊,各卷積塊包含的卷積層數(shù)分別為6層、8層、6層、4層和4層,加上Input image后的1個(gè)卷積層和全連接層,共同構(gòu)成30層的ResNet網(wǎng)絡(luò)模型。下采樣過程使用2×2大小、stride=2的平均池化,為特征圖降維。在此采用Triplet Loss度量損失函數(shù)[7];反向傳播算法采用小批量梯度[8]下降法(Mini-Batch Gradient Descent),因此算法速度更快、精度更高、更容易接近最優(yōu)解。為提高模型的特征表達(dá)能力,需要引入非線性激活函數(shù)。在此處采用ReLU(Rectified Linear Unit)激活函數(shù)。

        三種改進(jìn)模型與ResNet-34、ResNet-18殘差網(wǎng)絡(luò)模型結(jié)構(gòu)的對(duì)比情況如表1所示。由表中可知,改進(jìn)殘差網(wǎng)絡(luò)模型在各卷積塊中的卷積核數(shù)量相比于原模型大幅減少,訓(xùn)練參數(shù)也有減少,實(shí)現(xiàn)了網(wǎng)絡(luò)模型的精簡(jiǎn),同時(shí)由于卷積塊數(shù)量增加,使生成特征圖更為簡(jiǎn)化,提升了模型泛化能力。輸入人臉圖片后,經(jīng)過一系列卷積、激活、下采樣運(yùn)算后,再進(jìn)行全局平均池化[9](Global Average Pooling,GAP),最后經(jīng)過Fc全連接層輸出多維人臉特征向量。

        表1 5種殘差模型結(jié)構(gòu)對(duì)比

        多線程訓(xùn)練模式原理框圖如圖3所示。完成訓(xùn)練需要如下幾步:首先,從訓(xùn)練集中隨機(jī)選取批量圖片加載至6個(gè)線程中,采用MSRA方法[10]初始化模型參數(shù),將模型參數(shù)從內(nèi)存加載到GPU顯存中;然后,調(diào)用GPU用于加速訓(xùn)練過程[11],運(yùn)用CUDA并行運(yùn)算架構(gòu)將圖片輸出為多維特征向量,再通過損失函數(shù)計(jì)算平均損失和梯度,通過反向傳播將梯度傳遞至GPU中;最后,把各線程更新參數(shù)值的平均值作為本次迭代模型參數(shù)最終更新值,完成模型參數(shù)的更新并調(diào)回內(nèi)存。迭代進(jìn)行上述過程,直至訓(xùn)練完成。

        圖3 多線程訓(xùn)練模式

        2.3 訓(xùn)練過程與結(jié)果

        訓(xùn)練數(shù)據(jù)采用CASIA-WebFace人臉數(shù)據(jù)集[12],包含10575個(gè)人的49萬張人臉圖片。使用CPU為Intel Core i7-7700HQ、顯卡為NVIDIA GeForce GTX 1060的筆記本電腦。將Fc全連接層節(jié)點(diǎn)數(shù)設(shè)置為128,每次迭代的批量設(shè)定為36,引用Momentum[13]方法進(jìn)行優(yōu)化。初始學(xué)習(xí)速率為0.1,當(dāng)有1.1萬次迭代的損失值未減少,則把當(dāng)前學(xué)習(xí)率乘以0.1后作為新的學(xué)習(xí)率繼續(xù)訓(xùn)練,直至學(xué)習(xí)率降至10-4。訓(xùn)練完成后對(duì)驗(yàn)證集的300組樣本對(duì)進(jìn)行交叉驗(yàn)證,訓(xùn)練結(jié)果如圖4曲線所示。

        圖4 基于不同模型的平均損失變化曲線圖

        從圖中的訓(xùn)練損失結(jié)果來看,模型的變化曲線都是在訓(xùn)練開始時(shí)呈快速下降趨勢(shì),而后下降變慢,曲線總體趨于平緩;接下來會(huì)在某個(gè)迭代區(qū)間產(chǎn)生突降,這是因?yàn)殡S著訓(xùn)練的逐步進(jìn)行會(huì)有局部最優(yōu)解產(chǎn)生,從而導(dǎo)致平均損失變化幅度不大,這時(shí)降低學(xué)習(xí)速率可以有效解決局部最優(yōu)解的問題,為實(shí)現(xiàn)全局最優(yōu)解奠定基礎(chǔ);最后損失曲線呈小幅下降趨勢(shì)直至訓(xùn)練結(jié)束。訓(xùn)練結(jié)果詳細(xì)數(shù)據(jù)如表2所示。由表可知,從模型大小上看,三種改進(jìn)模型相比于ResNet-34與ResNet-18模型大幅度減少,且訓(xùn)練時(shí)長縮短。從模型加載時(shí)間上看,三種改進(jìn)模型的加載時(shí)間相比于原ResNet-34與ResNet-18模型縮短約37%,在實(shí)際應(yīng)用中可以起到快速加載以提升整體識(shí)別速度的作用。用驗(yàn)證準(zhǔn)確率評(píng)估模型的泛化能力,ResNet-34模型驗(yàn)證準(zhǔn)確率最高,ResNet-30次之,兩個(gè)模型精確度較高且泛化能力強(qiáng),其余模型驗(yàn)證準(zhǔn)確率則較低。

        表2 不同模型訓(xùn)練情況對(duì)比

        為研究Fc全連接層節(jié)點(diǎn)數(shù)對(duì)于模型性能的影響,在此將ResNet-30模型Fc層節(jié)點(diǎn)數(shù)分別設(shè)置為64、128與256,分別命名為ResNet-30A、ResNet-30A、ResNet-30C,再次進(jìn)行訓(xùn)練,得到的訓(xùn)練結(jié)果如圖5所示。

        圖5 基于ResNet-30的平均損失變化曲線圖

        如圖5所示,在改變?nèi)B接層節(jié)點(diǎn)數(shù)后,由平均損失與迭代次數(shù)關(guān)系曲線可知與圖4中曲線變化趨勢(shì)相似。訓(xùn)練完成時(shí)ResNet-30B模型平均損失值最低,同時(shí)在改變?nèi)B接層參數(shù)后模型性能也隨之發(fā)生變化,詳細(xì)情況如表3所示。

        表3 不同設(shè)置下的ResNet-30模型訓(xùn)練情況表

        由表可知,基于ResNet-30的不同設(shè)置的三個(gè)模型的模型大小、加載時(shí)間與訓(xùn)練時(shí)長基本相似,但在驗(yàn)證準(zhǔn)確率上區(qū)別較大。其中ResNet-30B的驗(yàn)證準(zhǔn)確率最高。由本組實(shí)驗(yàn)可知低維向量不足以精準(zhǔn)表達(dá)人臉特征,而高維向量過于擬合原始樣本會(huì)使泛化能力變差。

        綜上所述,模型性能受到網(wǎng)絡(luò)結(jié)構(gòu)以及參數(shù)設(shè)置的影響,所以在構(gòu)建模型時(shí)需要保持適當(dāng)?shù)哪P蜕疃纫员闾崛∩顚尤四樚卣?,同時(shí)還要選擇恰當(dāng)?shù)膮?shù)確保訓(xùn)練高效可靠。

        3 聚類分析

        聚類分析是指根據(jù)數(shù)據(jù)集之間的相似度將其聚類為若干個(gè)簇或類,使得同一簇或類之間的數(shù)據(jù)相似度盡可能大、不同類或簇之間的數(shù)據(jù)相似度盡可能小。聚類方法是非監(jiān)督學(xué)習(xí)中很重要的領(lǐng)域,學(xué)習(xí)不依賴于標(biāo)簽的數(shù)據(jù)。在人臉聚類匹配時(shí),除了要求提取精確的人臉特征向量外,還需要選擇合適的聚類方法。

        3.1 Chinese whispers圖聚類算法

        Chinese whispers圖聚類算法具有如下優(yōu)點(diǎn):第一,無需預(yù)先設(shè)定聚類中心數(shù),更適用于復(fù)雜環(huán)境的聚類;第二,適用于處理不同規(guī)模的數(shù)據(jù),算法可伸縮性較好[14]。

        設(shè)X、Y為m維空間內(nèi)兩點(diǎn),其空間向量分別為X=(x1,x2,...,xm),Y=(y1,y2,...,ym),則這兩個(gè)點(diǎn)的歐式距離為:

        歐式距離越小,相似度越大,其中的原理為[15]:1)構(gòu)造無向圖,每張人臉都作為一個(gè)節(jié)點(diǎn);

        2)設(shè)定一個(gè)閾值,如果人臉之間的歐氏距離比閾值小,則兩個(gè)人臉對(duì)應(yīng)的節(jié)點(diǎn)間有關(guān)聯(lián)邊,相似度權(quán)重作為節(jié)點(diǎn)的邊,反之則兩個(gè)人臉沒有關(guān)聯(lián)邊;

        3)迭代開始時(shí),每個(gè)節(jié)點(diǎn)都是一個(gè)類別,隨機(jī)選取一個(gè)節(jié)點(diǎn),選擇與其有關(guān)聯(lián)邊的節(jié)點(diǎn)中相似度權(quán)重最大的節(jié)點(diǎn)所對(duì)應(yīng)的類作為該節(jié)點(diǎn)的類別,完成該節(jié)點(diǎn)類別的更新;

        4)如果在關(guān)聯(lián)節(jié)點(diǎn)中有屬于相同類別的節(jié)點(diǎn),則將此類節(jié)點(diǎn)的相似度權(quán)重相加作為新權(quán)重進(jìn)行比較。遍歷所有節(jié)點(diǎn)后,就完成了一次迭代,按照上述方法重復(fù)迭代至迭代次數(shù)。采用相似度權(quán)重歸一化,計(jì)算方法可由下式表示:

        對(duì)應(yīng)的算法流程如圖6所示。

        圖6 Chinese whispers算法流程圖

        該算法對(duì)于特征向量的精確性要求高,因此算法準(zhǔn)確度回歸到深度卷積神經(jīng)網(wǎng)絡(luò)的核心要求:盡量減小類內(nèi)間距及增大類間間距。

        綜上所述,該算法的影響因素有兩個(gè):設(shè)定的閾值與提取的特征向量。因此通過殘差網(wǎng)絡(luò)模型可以更精確地提取人臉特征,再通過改變閾值,從而達(dá)到準(zhǔn)確聚類的目的。

        3.2 k-means聚類算法

        k-means方法是當(dāng)前聚類分析中使用最廣泛的算法之一,其算法實(shí)現(xiàn)過程為:

        ①從樣本集合中隨機(jī)選取k個(gè)點(diǎn)(k為真實(shí)類別數(shù))作為初始簇中心,共分k個(gè)類;

        ②計(jì)算其余各點(diǎn)到這k個(gè)簇中心的距離,每個(gè)點(diǎn)歸屬于距離最小的中心點(diǎn)的類簇中。在此將距離度量選擇為歐氏距離;

        ③根據(jù)每個(gè)類簇中的所有點(diǎn)重新計(jì)算該類簇的中心點(diǎn),計(jì)算公式為:

        式中,Cl表示第l個(gè)類簇的中心,滿足1≤l≤k;|Sl|表示第l個(gè)類簇中樣本個(gè)數(shù);Xi表示第l個(gè)類簇中第i個(gè)對(duì)象的空間向量,滿足1≤i≤|Sl|;

        ④重復(fù)步驟②與③直至最大迭代次數(shù)或簇中心點(diǎn)不再變化為止。

        k-means算法適用于不同規(guī)模數(shù)據(jù)的聚類處理,可伸縮性較好[16],聚類形狀為球形,故當(dāng)樣本特征空間符合歐氏距離且不同類別之間的區(qū)別較明顯時(shí),k-means能取得較好的聚類效果。

        3.3 聚類效果評(píng)估

        以TP(True Positive)表示同類人臉被分到同一簇的樣本對(duì)數(shù)量;以TN(True Negative)表示異類人臉被分到不同簇的樣本對(duì)數(shù)量;以FP(False Positive)表示異類人臉被分到同一簇的樣本對(duì)數(shù)量;以FN(False Negative)表示同類人臉被分到不同簇的樣本對(duì)數(shù)量。則精確率(Precision)、召回率(Recall)、F1-Measure指標(biāo)分別為:

        精確率和召回率是信息檢索和統(tǒng)計(jì)分類領(lǐng)域用來評(píng)價(jià)檢索或分類結(jié)果質(zhì)量的度量。精確率和召回率兩者越高,聚類效果越好,但實(shí)際上隨著圖片數(shù)量的增多,兩者具有一定的互斥性,即隨著精確率升高召回率降低;或召回率升高精確率降低。F1-Measure是綜合了精確率和召回率的評(píng)估指標(biāo),反映了整體的聚類效果。另外,在聚類評(píng)價(jià)中可以采用信息熵(entropy)表示聚類的混雜度:信息熵越低,聚類后每一簇中所含人臉類別數(shù)目越少,聚類的混亂程度越低;反之,聚類后每一簇的人臉類別數(shù)越多,聚類的混亂程度越高。信息熵的定義可由下式表示:

        其中Pmn=cmn/cm,cmn為第m個(gè)簇中類別n的數(shù)量,cm是第m個(gè)簇的樣本總量。

        4 實(shí)驗(yàn)結(jié)果與分析

        4.1 實(shí)驗(yàn)設(shè)置

        人臉測(cè)試集采用LFW數(shù)據(jù)集[17],一共包含來自5749人的13233張人臉圖像。實(shí)驗(yàn)選用其中部分?jǐn)?shù)據(jù)進(jìn)行人臉聚類識(shí)別。人數(shù)20~50人,每人2~19張圖像,共計(jì)300張。實(shí)驗(yàn)使用的部分測(cè)試集如圖7。

        圖7 測(cè)試集部分人臉圖片

        首先用Dlib軟件庫中的人臉檢測(cè)器[18]對(duì)測(cè)試集圖片做人臉檢測(cè),采用仿射變換將人臉對(duì)齊,將每個(gè)人臉縮放至規(guī)格為150×150的樣本;然后將相同尺寸的樣本載入到前文訓(xùn)練出的殘差網(wǎng)絡(luò)模型中,輸出多維特征向量;最后把得到的人臉特征向量進(jìn)行標(biāo)注,存儲(chǔ)到本地。在多維矢量空間中,來自于同一個(gè)人的矢量將彼此接近,而來自不同人的矢量將距離很遠(yuǎn)。

        4.2 實(shí)驗(yàn)結(jié)果

        選取前文驗(yàn)證準(zhǔn)確率較高的模型,結(jié)合CW圖聚類算法,統(tǒng)計(jì)在不同閾值下的聚類結(jié)果。此處實(shí)驗(yàn)采用的閾值范圍為0.5~0.8,并對(duì)聚類結(jié)果進(jìn)行對(duì)比分析。

        4.2.1 不同閾值下各參數(shù)對(duì)比

        不同閾值下各方案召回率變化對(duì)比實(shí)驗(yàn)結(jié)果如圖8所示。

        圖8 不同閾值下各方案召回率變化對(duì)比

        總體看來,隨著閾值的增大,各曲線呈逐漸增長的趨勢(shì),召回率從開始時(shí)的較小值逐步增大至接近于1。在設(shè)定閾值較小時(shí)不能把人臉姿態(tài)表情有變化的同一類圖片匹配在一簇,從而也導(dǎo)致了較低的召回率。

        不同閾值下各方案精確率變化對(duì)比實(shí)驗(yàn)結(jié)果如圖9所示。

        圖9 不同閾值下各方案精確率變化對(duì)比

        從總體上看,隨著閾值的增大,各曲線呈逐漸下降的趨勢(shì),精確率從開始時(shí)的接近于1逐步減小至較低點(diǎn)。在設(shè)定閾值較大時(shí)會(huì)把不同類人臉匹配至同一簇而導(dǎo)致精確率較低。

        不同閾值下各方案的F1-Measure變化對(duì)比實(shí)驗(yàn)結(jié)果如圖10所示。

        從整體上看,隨著閾值的增加,各方案的F1-Measure值呈先升高后下降的趨勢(shì)。結(jié)果顯示不同方案在不同閾值處取得F1-Measure最大值,ResNet-30B模型F1-Measure最大值為0.962,此時(shí)閾值為0.59;ResNet-34模型在閾值為0.62時(shí)取得F1-Measure最大值,為0.964。由此可見,當(dāng)取得最優(yōu)閾值時(shí),上述兩種方案的F1-Measure值較其余模型的F1-Measure值大,因此聚類效果較好。部分聚類結(jié)果如圖11所示。

        圖11 部分聚類結(jié)果

        不同方案的信息熵指標(biāo)的實(shí)驗(yàn)對(duì)比結(jié)果如圖12所示。由圖中曲線可以看出,隨著聚類數(shù)目的增加,各條曲線的信息熵也隨之增長,在聚類數(shù)目為50時(shí),ResNet-30A+CW方案的信息熵最高,ResNet-30B模型與ResNet-34模型各自與CW算法結(jié)合的信息熵指標(biāo)較低,可知簇內(nèi)雜亂程度較低,聚類效果相比于其余方案較好。

        圖12 不同方案的信息熵指標(biāo)對(duì)比

        綜上所述,以F1-Measure與信息熵指標(biāo)來看,ResNet-30B模型和ResNet-34模型為性能較優(yōu)的模型,故選擇這兩個(gè)模型進(jìn)行人臉特征提取。

        4.2.2 不同聚類方法效果對(duì)比

        采用不同聚類方法在實(shí)驗(yàn)中獲得相應(yīng)的F1-Measure指標(biāo),對(duì)比情況如圖13所示。

        圖13 不同聚類方法的F1-Measure指標(biāo)對(duì)比

        選擇ResNet-30B與ResNet-34模型,通過對(duì)比k-means算法與CW算法的F1-Measure指標(biāo),可以看出隨著聚類數(shù)目的增加,四條曲線均呈下降趨勢(shì);兩種模型與CW算法結(jié)合的聚類效果要優(yōu)于與kmeans算法結(jié)合的效果;ResNet-30B+CW與ResNet-34+CW這兩種方案的F1-Measure相似,說明兩者性能相似。

        采用不同聚類方法進(jìn)行實(shí)驗(yàn),獲得的信息熵指標(biāo)如圖14所示。

        圖14 不同聚類方法的信息熵指標(biāo)

        從整體上看,四條曲線的信息熵隨聚類數(shù)目的增多而增加;兩種模型與k-means算法結(jié)合的信息熵要高于與CW算法結(jié)合的信息熵;在聚類數(shù)目為50類時(shí),ResNet-30B+CW的信息熵略高于ResNet-34+CW的信息熵。故ResNet-34+CW方案的混雜程度最低,ResNet-30B+CW次之,這兩種方案較優(yōu)。

        綜上所述,ResNet-30B+CW和ResNet-34+CW的聚類效果要優(yōu)于ResNet-30B+k-means與ResNet-34+k-means方案,且ResNet-30B+CW的綜合性能略差于ResNet-34+CW的綜合性能。但根據(jù)前文可知ResNet-30B比ResNet-34的加載時(shí)間短,在人臉特征提取階段加速效果提升約37%,故ResNet-30B+CW方案能在保證聚類效果較優(yōu)的情況下更快地完成人臉識(shí)別任務(wù)。在實(shí)際工程中既需要良好的聚類效果又要兼顧識(shí)別速度,因此ResNet-30B+CW為實(shí)驗(yàn)中各方案當(dāng)中的最優(yōu)選擇。

        5 結(jié)束語

        通過改進(jìn)殘差網(wǎng)絡(luò)模型提取人臉特征向量,獲得了比原模型更快的提取速度,將CW與k-means聚類算法相結(jié)合,分別進(jìn)行人臉識(shí)別。測(cè)試圖片來源于LFW數(shù)據(jù)集,更接近于實(shí)際環(huán)境。采用F1-Measure、信息熵等評(píng)價(jià)指標(biāo),在大量實(shí)驗(yàn)數(shù)據(jù)的基礎(chǔ)上,找到各模型在CW算法中的最優(yōu)閾值,并分析不同模型、不同聚類方法與聚類效果之間的關(guān)系。實(shí)驗(yàn)結(jié)果表明采用改進(jìn)的ResNet-30B殘差網(wǎng)絡(luò)模型可以達(dá)到提升整體識(shí)別速度的作用,結(jié)合CW聚類算法比k-means算法更有效。因此,采用改進(jìn)殘差網(wǎng)絡(luò)與CW聚類的方案可以在保證良好聚類效果的同時(shí)加快識(shí)別速度。本研究選用的測(cè)試人臉數(shù)據(jù)分布比較均勻且類別數(shù)較少,在進(jìn)一步研究中,還應(yīng)著重考慮非均勻分布、類別較多的大規(guī)模數(shù)據(jù)集的更接近于現(xiàn)實(shí)的情況,對(duì)模型結(jié)構(gòu)與性能再作深入探索并加以完善。

        猜你喜歡
        信息熵人臉殘差
        基于信息熵可信度的測(cè)試點(diǎn)選擇方法研究
        基于雙向GRU與殘差擬合的車輛跟馳建模
        有特點(diǎn)的人臉
        基于殘差學(xué)習(xí)的自適應(yīng)無人機(jī)目標(biāo)跟蹤算法
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        三國漫——人臉解鎖
        基于信息熵的實(shí)驗(yàn)教學(xué)量化研究
        一種基于信息熵的雷達(dá)動(dòng)態(tài)自適應(yīng)選擇跟蹤方法
        基于信息熵的IITFN多屬性決策方法
        平穩(wěn)自相關(guān)過程的殘差累積和控制圖
        河南科技(2015年8期)2015-03-11 16:23:52
        日韩中文字幕一区二十| 精品乱码久久久久久中文字幕| 日韩中文在线视频| 午夜在线观看一区二区三区四区| 国产剧情一区二区三区在线| 日韩av东京社区男人的天堂| 97se亚洲国产综合自在线图片| 一区二区特别黄色大片| 人妖一区二区三区在线| 性无码专区无码| 久久aⅴ无码av免费一区| 亚洲视频一区二区久久久| 亚洲av五月天一区二区| 天天鲁在视频在线观看| 草莓视频一区二区精品| 久久少妇呻吟视频久久久| 国产精华液一区二区三区| 五级黄高潮片90分钟视频| 亚洲αⅴ无码乱码在线观看性色| 美利坚亚洲天堂日韩精品| 人妻少妇偷人精品免费看| 久久久久久人妻毛片a片| 成人国产永久福利看片| 日本免费精品一区二区三区视频 | 亚洲男女视频一区二区| 91中文人妻熟女乱又乱| 成人区人妻精品一熟女| 国产成人久久蜜一区二区| 亚洲av狠狠爱一区二区三区| 色婷婷综合久久久中文字幕| 国产av国片精品| 日韩精品视频在线一二三| 电驱蚊液可以插一晚上吗| 国产亚洲精品aaaa片小说| 国产一区二区三区精品久久呦| 日本中文字幕有码在线播放| 久久久久亚洲精品无码蜜桃| 三上悠亚精品一区二区久久| 亚洲一区二区三区一区| 日韩精品无码一区二区三区四区 | 美国黄色片一区二区三区|