亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        多稀疏表示分類器決策融合的人臉識別

        2018-05-04 02:38:34唐彪金煒符冉迪龔飛
        電信科學(xué) 2018年4期
        關(guān)鍵詞:識別率權(quán)值人臉識別

        唐彪,金煒,符冉迪,龔飛

        (寧波大學(xué)信息科學(xué)與工程學(xué)院,浙江 寧波 315211)

        1 引言

        人臉識別是模式識別領(lǐng)域中最富挑戰(zhàn)性的研究課題之一,它在公共安全、身份驗(yàn)證和視頻監(jiān)控等領(lǐng)域有著廣闊的應(yīng)用[1,2]。光照、表情和遮擋等復(fù)雜變化是人臉識別中的瓶頸,趙鑫等人[3]使用主成分分析(principal component analysis,PCA)構(gòu)造正交投影空間,然后將人臉樣本進(jìn)行投影,提取人臉的主要特征。張健等人[4]利用 Fisher線性判別分析(linear discriminant analysis,LDA),通過類內(nèi)與類間散度矩陣來刻畫人臉樣本之間的差異,并將人臉樣本在Fisher空間上進(jìn)行投影,最終通過距離度量Fisher空間上的投影特征來判斷人臉的類別。Wright等人[5]提出基于稀疏表示(sparse representation classification,SRC)的人臉識別,用訓(xùn)練樣本來訓(xùn)練字典和稀疏系數(shù),然后通過計(jì)算殘差的方法進(jìn)行分類。張勇等人[6]采用線性判別分析算法求解最優(yōu)判別投影子空間,把訓(xùn)練樣本投影到該子空間來提取相應(yīng)的特征,通過稀疏表示的方法訓(xùn)練字典,最后重構(gòu)殘差來實(shí)現(xiàn)人臉識別(LDA-SRC)。Yang等人[7]提出一種結(jié)合 Gabor特征的稀疏表示人臉識別的方法(GSRC),通過提取人臉的 Gabor特征,并對其Gabor特征進(jìn)行稀疏表示,相對于整體特征而言,它對表情、光照等變化更加頑健,能夠較好地提高人臉識別的準(zhǔn)確率。后來一系列基于稀疏表示的改進(jìn)的方法不斷被提出[8,9],但是這些算法在復(fù)雜的環(huán)境中頑健性欠佳。

        本文在傳統(tǒng)特征提取和其他改進(jìn)稀疏表示的人臉識別基礎(chǔ)上,提出一種多稀疏表示分類器決策融合的人臉識別方法。首先提取人臉的Log Gabor特征、多塊局部二進(jìn)制模式和方向梯度直方圖特征,然后利用此3組特征訓(xùn)練3個稀疏表示分類器,根據(jù)每個子分類器的分類性能,通過一個迭代運(yùn)算過程,自適應(yīng)確定各個子分類器的融合權(quán)值,最后利用融合權(quán)值將多個子分類器的輸出結(jié)果進(jìn)行決策,實(shí)現(xiàn)不同復(fù)雜干擾下的人臉識別。其中,F(xiàn)R-MSRC分類過程中,將傳統(tǒng)的SRC分類器所用的最小重構(gòu)殘差轉(zhuǎn)化為樣本屬于某類的最大后驗(yàn)概率,通過決策融合的策略充分發(fā)揮不同子分類器的性能,獲得高于任何單一特征分類器的分類精度,為人臉識別提供了新的思路。

        2 多特征提取

        2.1 Log Gabor特征提取

        Filed于1987年首次設(shè)計(jì)出Log Gabor濾波器[10],Log Gabor濾波器分別由徑向?yàn)V波器和角度濾波器兩部分構(gòu)成,通過定義徑向?yàn)V波器的尺度和角度濾波器的方向來控制Log Gabor濾波器的幅頻響應(yīng)。文中將選取4個不同中心頻率(分別為以及6個不同方向(分別為共24個幅頻響應(yīng)濾波器對人臉進(jìn)行濾波。人臉經(jīng)過4尺度6方向?yàn)V波后的結(jié)果如圖1所示。

        圖1 Log Gabor濾波后的效果

        圖1中每一行是同一個尺度,每一列是同一個方向,第一行和第二行為人臉的高頻特征,其特征較為細(xì)膩,可以彌補(bǔ)低頻特征下臉部器官描述不足的問題。第三行和第四行為人臉的低頻特征,其特征偏向于人臉識別的全局表達(dá),但是局部信息描述不足。綜合利用高頻和低頻信息將有助于提高人臉的識別率。為了降低特征維度,而又不丟失每個圖像的紋理信息,將對 24幅圖像進(jìn)行分塊處理,然后計(jì)算一幅圖像不同分塊對應(yīng)的能量,用能量矩陣代替人臉在某個方向和尺度變換后的特征。

        2.2 多塊局部二進(jìn)制模式特征

        局部二進(jìn)制模式(local binary pattern,LBP)是機(jī)器視覺中常用于分類的一種特征[11],LBP能夠有效地捕捉人臉局部紋理特征,對于單調(diào)的灰度變換具有不變性,但在人臉遮擋下缺乏對整體粗粒度的把握。因此多塊局部二值模式(multi block local binary pattern,MB-LBP)被提出,以彌補(bǔ)傳統(tǒng)LBP的不足。在MB-LBP的計(jì)算中,傳統(tǒng)LBP算子孤立像素值之間的比較被像素塊之間的比較代替,不同的像素塊大小代表不同的分析粒度,通常以符號表示3×3像素塊大小、半徑為2的8領(lǐng)域像素的統(tǒng)一化LBP算子,算子如圖2所示。

        圖2 -LBP算子

        圖2中每一個小方格代表一個像素,以黑色方塊周圍的8個像素共組成一個像素塊,計(jì)算塊內(nèi)9個像素的均值,然后分別與中心黑色方塊進(jìn)行比較來構(gòu)造特征描述子。

        2.3 圖像分區(qū)大小的選擇

        分區(qū)LBP可以較好地描述人臉的結(jié)構(gòu)信息,具體是將人臉適當(dāng)?shù)貏澐譃閜×q分區(qū),然后分別計(jì)算每個人臉分區(qū)的直方圖,最終將所有分區(qū)的直方圖特征連接成一個復(fù)合的特征向量。理論上,越精細(xì)的分區(qū)意味著越好的局部描述能力,但是會產(chǎn)生更高維數(shù)的復(fù)合特征,然而過小的分區(qū)會造成直方圖過于稀疏,而失去統(tǒng)計(jì)意義。分別選擇15×13、10×11和5×4共 3種分區(qū)大小進(jìn)行實(shí)驗(yàn)比較,實(shí)驗(yàn)結(jié)果如圖3所示。

        圖3 復(fù)合LBP直方圖

        觀察上述復(fù)合LBP直方圖發(fā)現(xiàn),分區(qū)10×11的復(fù)合LBP直方圖特征維數(shù)較為折中,且可以較好地描述人臉的結(jié)構(gòu)信息。相同人臉在有無遮擋下的復(fù)合LBP直方圖如圖4所示。

        圖4 相同人臉在有無遮擋下的復(fù)合LBP直方圖

        由圖4可知,經(jīng)過濾波得到的直方圖總體上是相似的,利用總體的相似程度提高人臉在遮擋下的識別率。這一改進(jìn)有效地利用像素點(diǎn)之間的相關(guān)性,使算法在不確定干擾因素下也具有較好的頑健性。

        2.4 方向梯度直方圖

        方向梯度直方圖(histogram oriented gradient,HOG)是由Dalal等人[12]在2005年提出的。HOG首先將圖像劃分為小的連通區(qū)域,計(jì)算該局部圖像梯度方向信息統(tǒng)計(jì)值,然后將小的連通區(qū)域級聯(lián)成塊,進(jìn)行對比度歸一化,最后將圖像所有塊的特征串聯(lián)起來代表檢測目標(biāo)的特征描述符。HOG方法是在圖像的局部細(xì)胞單元上操作,所以它對圖像幾何和光學(xué)的形變都能保持很好的不變性,因此本文提取HOG特征來得到較頑健的表情信息,如圖5所示,取3種不同的表情,用白色的特征點(diǎn)描述捕捉到的面部輪廓信息。

        由圖5可知,在光照條件統(tǒng)一的情況下,人臉微小的表情變化不影響識別效果,即相同人臉不同表情的視覺輪廓相似。

        3 多稀疏表示分類器的構(gòu)造

        3.1 稀疏表示分類器的理論模型

        圖5 3種表情輪廓效果

        3.2 生成后驗(yàn)概率

        由式(4)知,如果測試樣本屬于第i類,那么殘差 ri(y )最小,而與其他的重建結(jié)果做殘差會得到較大的結(jié)果。本文將y與之間的殘差轉(zhuǎn)換為y屬于第i類樣本的最大后驗(yàn)概率,以構(gòu)造出多稀疏表示分類器。定義y與之間的殘差倒數(shù)為:

        因此,樣本y所屬類別可以由式(7)確定:

        上述基于概率模型的稀疏表示分類器能夠從概率的角度,更為直觀地表示出樣本y屬于第i類的可能性。

        4 決策融合

        決策融合可以簡單地理解為利用多個分類器對同一測試樣本進(jìn)行分類判別,然后根據(jù)多個分類器的判別結(jié)果進(jìn)行統(tǒng)計(jì)決策,得出最終的分類結(jié)果。Louisa等人[14]已經(jīng)證明:當(dāng)單個子分類器的準(zhǔn)確率都大于0.5時(shí),隨著子分類器個數(shù)的逐漸增加,決策融合后的準(zhǔn)確率將趨近于1.0。因此,在設(shè)計(jì)多稀疏表示決策融合分類器時(shí),只要保證各個子分類器的準(zhǔn)確率均在0.5以上,則最終的分類準(zhǔn)確率將得到提高。

        另一方面,不同特征從不同角度反映人臉的本質(zhì)信息,例如小波變換在不同光照下,可以獲得很好的識別率,但是在人臉遮擋下,就會得到較低的識別率。如果在設(shè)計(jì)決策融合模型時(shí)將不同特征同等看待,很難在不同的環(huán)境下保持較好的頑健性。

        由于類別較多,僅僅使用單個分類器很難對復(fù)雜問題進(jìn)行有效分類,參考文獻(xiàn)[15]使用一種樹狀結(jié)構(gòu)將概率支持向量機(jī)推廣到多分類問題,通過分類器對不同樣本產(chǎn)生的概率輸出自動調(diào)節(jié)權(quán)值,取得較好的識別結(jié)果。參考文獻(xiàn)[16]基于Multi-Agent權(quán)重自適應(yīng)調(diào)整的多分類器融合算法,通過引入偏好判斷矩陣以及分類器間的決策相關(guān)信息,自適應(yīng)地為各分類器賦予權(quán)值,從而取得較高的分類正確率。本文在此基礎(chǔ)上,依據(jù)第3.1節(jié)的理論,分別構(gòu)造3個稀疏表示分類器,通過迭代更新不同特征的融合權(quán)值,最后利用融合權(quán)值將多個子分類器輸出結(jié)果進(jìn)行決策,其迭代具體過程如下。

        步驟1 利用第2節(jié)中提取人臉的3組不同種類特征,構(gòu)造訓(xùn)練樣本集X:

        步驟 2 按照第 3節(jié)構(gòu)建稀疏表示模型,將訓(xùn)練人臉樣本的 3種特征分別組成 3個稀疏表示字典,并據(jù)此設(shè)計(jì) 3個稀疏表示子分類器,然后為每個子分類器初始化決策融合權(quán)重系數(shù)ws:

        步驟 3 對于任意的人臉樣本x∈X,將其3種特征分別用對應(yīng)的子分類器,根據(jù)第3.2節(jié)方法,計(jì)算后驗(yàn)概率psi,這里psi表示第s個子分類器輸出結(jié)果屬于第 i類的后驗(yàn)概率,

        步驟 4 利用融合權(quán)值對各子分類器輸出的后驗(yàn)概率進(jìn)行加權(quán)融合,計(jì)算累加概率:

        步驟 5 以決策融合后的最大概率,確定人臉x的所屬類別:

        步驟 6 自適應(yīng)迭代更新ws,具體方法為:假設(shè)人臉x的實(shí)際標(biāo)簽為Label(x),其決策融合的分類標(biāo)簽為identity(x),如果Label(x)=identity(x),將決策融合的分類標(biāo)簽與各個子分類器的分類標(biāo)簽進(jìn)行比較,對于判斷錯誤的 l個子分類器對應(yīng)的權(quán)重系數(shù)自減ε,同時(shí)將每個子分類器輸出的后驗(yàn)概率psi進(jìn)行降序排序,根據(jù)排序結(jié)果,將后驗(yàn)概率較大的l個子分類器的融合權(quán)重分別自增ε,得到更新后的權(quán)值。

        如果 Label(x)≠identity(x),則判斷該樣本為噪聲,直接丟棄。接下來返回步驟3,對下一個樣本進(jìn)行上述操作,直至所有樣本遍歷完成。經(jīng)過以上6個步驟,整個決策融合的模型訓(xùn)練完畢。

        5 實(shí)驗(yàn)結(jié)果及分析

        為了驗(yàn)證本文提出的算法在不同干擾因素下的識別率,分別進(jìn)行了光照、表情、遮擋以及多類型混合實(shí)驗(yàn)。本文基于Yale B、JAFFE和AR共3個標(biāo)準(zhǔn)人臉庫,做了4次不同干擾下的對比實(shí)驗(yàn)。同時(shí)選擇PCA[3]、LDA[4]、SVM、SRC[5]、LDA-SRC[6]和GSRC[7]6種經(jīng)典人臉識別方法與本文的FR-MSRC做比較。

        5.1 基于不同光照的人臉識別實(shí)驗(yàn)

        Yale B人臉數(shù)據(jù)庫,一共10個人,每人64張人臉圖片。根據(jù)人臉與攝像機(jī)方向角θ的不同,將 64張人臉圖像非均勻劃分 5個子集。是子集 1,共計(jì) 7張人臉圖像;是子集 2,共計(jì) 12張人臉圖像;是子集 3,共計(jì) 12張人臉圖像;是子集 4,共計(jì) 12張人臉圖像;是子集5,共計(jì)19張人臉圖像。由于角度θ的差異,導(dǎo)致人臉會呈現(xiàn)不同的曝光度,部分人臉樣本如圖6所示。

        圖6 Yale B中5個子集部分人臉樣本

        提取Yale B人臉庫中子集4的3種不同特征構(gòu)成訓(xùn)練樣本,其他4個子集作為測試樣本,用稀疏表示分類的思想驗(yàn)證單個特征可以獲得的識別率,識別率見表1。

        表1 單個特征在不同子集獲得識別率

        由表1可知,各子分類器在不同光照下的識別率都在 50%以上,符合關(guān)于多個分類器融合有效性的條件,因此,F(xiàn)R-MSRC方法在理論上可以提高人臉在不同光照下的識別率。最后由第 4.1節(jié)的方法更新融合權(quán)值,不同特征在不同子集的融合權(quán)重及融合特征后的人臉識別率見表2。

        表2 不同特征在不同子集的融合權(quán)重及融合特征后的人臉識別率

        由表2可知,在不同光照下Log Gabor特征的權(quán)值比HOG特征的融合權(quán)重大,MB-LBP的權(quán)重大小維持在0.32~0.33,這表明Log Gabor特征在不同光照強(qiáng)度下,能發(fā)揮重要的識別能力,這與第2節(jié)理論分析相吻合。其平均識別率均優(yōu)于與其他經(jīng)典的方法,具體對比結(jié)果見表3。

        由表3可知,F(xiàn)R-MSRC具有較好的光照頑健性,在不同光照的子集上仍然保持較高的識別率,特別在子集2和子集3上可以達(dá)到99%以上的準(zhǔn)確率。在與幾種經(jīng)典方法的比較中,PCA僅有62.02%的識別率,其他基于稀疏表示的方法均可以達(dá)到 90%以上的識別率,但是,本文的FR-MSRC取得了最好的識別效果。

        5.2 基于不同表情的人臉識別實(shí)驗(yàn)

        JAFFE人臉數(shù)據(jù)庫,一共有10個人,每個人有7種表情(中性臉、高興、悲傷、驚奇、憤怒、厭惡、恐懼),每種表情有3張圖像共計(jì)21張,那么整個數(shù)據(jù)庫一共有210張圖像,部分人臉樣本如圖7所示。

        實(shí)驗(yàn)時(shí),將每個人的3張中性表情人臉樣本用于訓(xùn)練,用剩下的6種表情作為測試樣本。用稀疏表示分類的思想驗(yàn)證單個特征可以獲得的識別率和相對應(yīng)的后驗(yàn)概率,其識別率見表4。

        由表4可知,各子分類器在不同表情下的識別率都在 50%以上,同樣符合關(guān)于多個分類器融合有效性的條件,由第 4.1節(jié)的方法更新融合權(quán)值,不同特征在不同表情下的融合權(quán)重及融合特征后的人臉識別率見表5。

        由表5可知,在不同表情下HOG特征的權(quán)重比Log Gabor特征的權(quán)值比大,即HOG特征在不同表情下,均可以刻畫人臉的面部信息,這與光照下的融合權(quán)重剛好相反,同時(shí)MB-LBP的權(quán)重大小維持在0.32~0.33,這也與第2節(jié)的理論分析相吻合。FR-MSRC在不同表情條件下均保持較高的識別率,其平均識別率均優(yōu)于其他方法,具體對比結(jié)果見表6。

        表3 本文方法在復(fù)雜光照下得到的平均識別率與其他方法對比結(jié)果

        圖7 JAFFE數(shù)據(jù)庫中不同表情的部分人臉樣本

        表4 單個特征在不同表情上的識別率

        表5 不同特征在不同表情子集的融合權(quán)重及融合特征后的人臉識別率

        表6 本文方法在復(fù)雜表情下平均識別率與其他方法對比結(jié)果

        圖8 AR人臉數(shù)據(jù)庫部分人臉圖像

        由表6可知,與幾種經(jīng)典方法的比較中,PCA和SVM在JAFFE上識別率均在90%以下,其他基于稀疏表示的方法識別率均在92%左右,但是本文的FR-MSRC識別率高達(dá)99.08%,識別效果最好。

        5.3 基于不同遮擋人臉識別實(shí)驗(yàn)

        AR人臉數(shù)據(jù)庫,一共有100個人,分兩個階段,每個階段13張圖像,包括7個未遮擋人臉圖像和6個被遮擋人臉圖像,AR人臉數(shù)據(jù)庫部分人臉圖像如圖8所示。

        實(shí)驗(yàn)時(shí),將每個人的14張未遮擋人臉圖像作為訓(xùn)練樣本,用剩下的12張遮擋人臉圖像作為測試樣本,用稀疏表示分類的思想驗(yàn)證單個特征可以獲得的識別率,其結(jié)果見表7。

        表7 單個特征在不同遮擋物上的識別率

        由表7可知,各個子分類器在不同遮擋物下的識別率都在50%以上,由第4.1節(jié)的方法更新融合權(quán)值,不同特征在不同遮擋物子集的融合權(quán)重及融合特征后的人臉識別率見表8。

        表8 不同特征在不同遮擋物融合權(quán)重及融合特征后的人臉識別率

        由表8可知,在不同遮擋物下,MB-LBP的權(quán)重比HOG和Log Gabor大,這表明MB-LBP特征能在遮擋的人臉識別中發(fā)揮較高的性能,與第2節(jié)的理論分析相吻合,其平均識別率均優(yōu)于其他經(jīng)典的方法,具體對比結(jié)果見表9。

        由表9可知,PCA、SVM和LDA在AR人臉數(shù)據(jù)庫上識別率均在85%以下,主要是AR數(shù)據(jù)庫不僅存在遮擋物的偽裝,還存在光照和表情不同程度的變化,給人臉識別帶來較高的難度,基于稀疏表示的方法識別率均只能達(dá)到 85%左右,然而FR-MSRC識別率卻高達(dá)97.13%,具有較強(qiáng)的偽裝頑健性。

        表9 本文方法在不同遮擋物下平均識別率與其他方法對比結(jié)果

        5.4 多類型混合實(shí)驗(yàn)

        為了進(jìn)一步驗(yàn)證FR-MSRC對多類型干擾因素的頑健性,分別從Yale B、JAFFE和AR共3個標(biāo)準(zhǔn)人臉庫隨機(jī)選擇10個人的隨機(jī)10張人臉圖像,共計(jì)300張人臉圖像,組成混合多類型人臉數(shù)據(jù)庫。同前3組的實(shí)驗(yàn)思路一致,選取每個人5張人臉圖像作為訓(xùn)練樣本,用剩下的5張人臉圖像作為測試樣本進(jìn)行實(shí)驗(yàn)。

        表10 7種方法在多類型干擾因素下的識別率

        表10展示了7種方法在多類型干擾因素下的識別率,大部分方法的準(zhǔn)確率都在85%左右,其中,PCA、LDA和SVM相對于SRC的識別率均具有較明顯的差距,其他基于SRC改進(jìn)的方法均取得較一般的結(jié)果,而本文的 FR-MSRC則達(dá)到最高的98.10%,取得了最好的識別結(jié)果。

        從4組實(shí)驗(yàn)結(jié)果可以看出,3個稀疏表示分類器以及決策融合思想的引入,對于樣本訓(xùn)練時(shí)的泛化能力給予了極大的支持,不論是光照、表情還是遮擋等變化,都可以表現(xiàn)出更好的識別效果。

        6 結(jié)束語

        本文提出了一種多稀疏表示分類器決策融合的人臉識別方法,通過提取3組人臉有效特征構(gòu)造3個稀疏表示分類器,然后引入決策融合的思想,根據(jù)每個子分類器的分類性能,自適應(yīng)確定各個子分類器的融合權(quán)值,從而提高了算法在不同環(huán)境下的頑健性。本文分別在 Yale B、JAFFE、AR以及混合人臉庫中分別進(jìn)行光照、表情、遮擋以及多類型因素混合的測試,實(shí)驗(yàn)結(jié)果表明,F(xiàn)R-MSRC可以在不同復(fù)雜的環(huán)境中仍保持較高的識別率,具有一定的應(yīng)用前景。

        參考文獻(xiàn):

        [1] 鄒國鋒, 傅桂霞, 李海濤, 等.多姿態(tài)人臉識別綜述[J].模式識別與人工智能, 2015, 28(7): 613-625.ZOU G F, FU G X, LI H T, et al.A survey of multi-pose face recognition[J].Pattern Recognition and Artificial Intelligence,2015, 28(7): 613-625.

        [2] 李娜, 張曉寧, 朱芳娥.視覺傳感網(wǎng)絡(luò)中身份特征自適應(yīng)識別算法改進(jìn)[J].電信科學(xué), 2016, 32(6): 110-115.LI N, ZHANG X N, ZHU F E.Improvement of identity adaptive recognition algorithm in visual sensor network[J].Telecommunications Science, 2016, 32(6): 110-115.

        [3] 趙鑫, 汪維家, 曾雅云, 等.改進(jìn)的模塊 PCA人臉識別新算法[J].計(jì)算機(jī)工程與應(yīng)用, 2015(2): 161-164.ZHAO X, WANG W J, ZENG Y Y, et al.Improved modular PCA face recognition algorithm[J].Computer Engineering and Applications, 2015(2): 161-164.

        [4] 張健, 肖迪.基于多尺度自適應(yīng) LDA 的人臉識別方法[J].計(jì)算機(jī)工程與設(shè)計(jì), 2012, 33(1): 332-335.ZHANG J, XIAO D.Face recognition method based on multi-scale adaptive LDA[J].Computer Engineering and Design,2012, 33(1): 332-335.

        [5] WRIGHT J, YANG A Y, GANESH A, et al.Robust face recognition via sparse representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(2): 210-227.

        [6] 張勇, 黨蘭學(xué).線性判別分析特征提取稀疏表示人臉識別方法[J].鄭州大學(xué)學(xué)報(bào)(工學(xué)版), 2015, 36(2): 94-98.ZHANG Y, DANG L X.Sparse representation-based face recognition method by LDA feature extraction[J].Journal of Zhengzhou University (Engineering Science), 2015, 36(2): 94-98.

        [7] YANG M, ZHANG L.Gabor feature based sparse representation for face recognition with gabor occlusion dictionary[J].Computer Vision-ECCV, 2010: 448-461.

        [8] 龔飛, 金煒, 朱珂晴, 等.采用雙字典協(xié)作稀疏表示的光照及表情頑健人臉識別[J].電信科學(xué), 2017, 33(3): 52-58.GONG F, JIN W, ZHU K Q, et al.Illumination and expression robust face recognition using collaboration of double dictionary’s sparse representation-based classification[J].Telecommunications Science, 2017, 33(3): 52-58.

        [9] LIU Z, PU J, XU M, et al.Face recognition via weighted two phase test sample sparse representation[J].Neural Processing Letters, 2015, 41(1): 43-53.

        [10] LI J, SANG N, GAO C.Log-Gabor weber descriptor for face recognition[J].Journal of Electronic Imaging, 2015, 24(5): 053014.

        [11] SURULIANDI A, MEENA K, ROSE R R.Local binary pattern and its derivatives for face recognition[J].IET Computer Vision,2012, 6(5): 480-488.

        [12] DALAL N, TRIGGS B.Histograms of oriented gradients for human detection[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition, June 20-25, 2005,San Diego, USA.Piscataway: IEEE Press, 2005: 886-893.

        [13] 顏文, 金煒, 符冉迪.結(jié)合 VLAD特征和稀疏表示的圖像檢索[J].電信科學(xué), 2016, 32(12): 80-85.YAN W, JIN W, FU R D.Image retrieval based on the feature of VLAD and sparse representation[J].Telecommunications Science, 2016, 32(12): 80-85.

        [14] RAHMAN A F R, FAIRHURST M C.Multiple classifier decision combination strategies for character recognition: a review[J].International Journal on Document Analysis and Recognition, 2003, 5(4): 166-194.

        [15] 張文博, 姬紅兵, 王磊.一種自適應(yīng)權(quán)值的多特征融合分類方法[J].系統(tǒng)工程與電子技術(shù), 2013, 35(6): 1133-1137.ZHANG W B, JI H B, WANG L.Adaptive weighted feature fusion classification method[J].Systems Engineering and Electronics, 2013, 35(6): 1133-1137.

        [16] 張冬慧, 孫波, 王鵬, 等.權(quán)值自適應(yīng)調(diào)整的多分類器融合算法[J].計(jì)算機(jī)工程, 2008(10): 28-29, 32.ZHANG D H, SUN B, WANG P, et al.Multi-classifiers fusion algorithm of adaptive weight adjustment[J].Computer Engineering, 2008 (10): 28-29, 32.

        猜你喜歡
        識別率權(quán)值人臉識別
        一種融合時(shí)間權(quán)值和用戶行為序列的電影推薦模型
        人臉識別 等
        CONTENTS
        揭開人臉識別的神秘面紗
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
        基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識別率的關(guān)系
        提升高速公路MTC二次抓拍車牌識別率方案研究
        基于權(quán)值動量的RBM加速學(xué)習(xí)算法研究
        高速公路機(jī)電日常維護(hù)中車牌識別率分析系統(tǒng)的應(yīng)用
        基于類獨(dú)立核稀疏表示的魯棒人臉識別
        不卡av网站一区二区三区| 亚洲六月丁香色婷婷综合久久| 日本高清www无色夜在线视频| av永久天堂一区二区三区| 中国老熟妇506070| 欧美粗大猛烈老熟妇| 亚洲伊人成综合网| 亚洲在AV极品无码天堂手机版| 野外性史欧美k8播放| 色一乱一伦一图一区二区精品 | 一级黄片草逼免费视频| 亚洲自偷自拍另类第一页| 亚洲av综合色区久久精品| 久久精品一区二区三区不卡牛牛| 国产91精品丝袜美腿在线| 日韩精品少妇专区人妻系列| av网站韩日在线观看免费| 隔壁人妻欲求不满中文字幕| 亚洲国产最新免费av| 风流熟女一区二区三区| 国产一区二区精品亚洲| 丰满人妻一区二区三区视频| 亚洲线精品一区二区三区| 久久不见久久见免费视频6| 50岁退休熟女露脸高潮| 人人妻人人澡人人爽精品欧美| 午夜丰满少妇性开放视频| 国产日产高清欧美一区| 亚洲自偷自拍另类图片小说| 中文亚洲爆乳av无码专区 | 国产特级毛片aaaaaaa高清| 四月婷婷丁香七月色综合高清国产裸聊在线| 亚洲天堂成人在线| 久久亚洲精品成人综合| 中文字幕日本一区二区在线观看| 亚洲青青草视频在线播放| 亚洲天堂av免费在线| 亚洲女同精品一区二区久久| 亚洲一区二区三区视频免费看| 你懂的视频网站亚洲视频| 国产av一区二区三区在线播放|