亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        具有拒識機(jī)制的分類器在人臉識別中的應(yīng)用

        2020-05-12 09:09:46楊國為
        關(guān)鍵詞:分類特征區(qū)域

        孫 玥,楊國為,2

        1(青島大學(xué) 電子信息學(xué)院,山東 青島 266071)

        2(南京審計大學(xué) 信息工程學(xué)院,南京 210000)

        E-mail:yue_er94@163.com

        1 引 言

        在通過生物特征對人臉認(rèn)證識別時,往往需要引入合適拒識機(jī)制[1-3],以便分類器工作時,要么拒識,要么分類絕對正確.也即要求:1)拒識率(在公共測試樣本庫中,拒識的樣本個數(shù)與測試樣本庫的總樣本個數(shù)之比)很小;2)正確識別率(在去掉拒識的樣本之后的測試樣本庫中,正確分類樣本個數(shù)與總樣本數(shù)的比例)逼近100%.若拒識率較大,則分類器的實(shí)用范圍和場合受到限制.若正確識別率不能逼近100%,則不能直接用該識別器去認(rèn)證一些特別重要場合.顯然拒識率小與正確識別率高是矛盾事件,解決該矛盾十分困難.

        要做到拒識率小、正確識別率高實(shí)際上就是要設(shè)計識別器,使該識別器確定的同w類樣本的特征區(qū)域(把區(qū)域內(nèi)的任一點(diǎn)視為w類樣本點(diǎn),而把區(qū)域之外點(diǎn)視為別的類點(diǎn)或拒識點(diǎn))幾乎包含了w類所有樣本點(diǎn)形成的實(shí)際特征區(qū)域(幾乎不損失自己領(lǐng)域),同時幾乎不侵占別的已知類的特征區(qū)域和未知可能類的特征區(qū)域.

        系列有代表性超球支持向量機(jī)(超球SVM)分類算法思想[4-7]是將所有特征向量映射到一個很高維的空間里,在這個空間里建立一個滿足某種約束的半徑最小超球面,超球面包裹幾乎所有同類樣本點(diǎn).該超球面或同心超球面對應(yīng)的原始空間曲面就是分類決策面.但是超球SVM分類決策面包裹區(qū)域侵占了未知類別的特征區(qū)域,即分類決策面沒有緊密包裹同類樣本實(shí)際特征區(qū)域.在以上超球SVM分類器中也存在問題:

        1)沒有引入合適拒識機(jī)制:因?yàn)椴环奖愦_定恰當(dāng)?shù)木茏R區(qū)域,或者勉強(qiáng)確定了拒識區(qū)域,但并不一定帶來正確識別率提高;

        2)分類決策面包裹區(qū)域侵占未知類的特征區(qū)域,有把未知類錯判為某已知類的風(fēng)險,分類器正確識別率不能逼近100%.

        本文針對支持向量數(shù)據(jù)描述(Support Vector Data Description,SVDD)設(shè)計中存在的難題,提出了一種具有合適拒識機(jī)制的高正確識別率分類器設(shè)計算法—基于同類特征點(diǎn)集的同類特征區(qū)域緊密包裹曲面的求解算法(Closely Enveloped Surface-Support Vector Data Description,CES-SVDD),設(shè)置了所有緊密包裹面之外的公共區(qū)域?yàn)榉诸惼鞯木茏R區(qū)域,從而得到一種具有合適拒識機(jī)制的高正確識別率分類器設(shè)計算法.

        2 相關(guān)理論與證明

        2.1 SVDD分類決策面不緊密包裹同類特征的例子

        如圖1所示,二維平面內(nèi)中,有兩個區(qū)域,一個形如香蕉的區(qū)域,另一個區(qū)域是香蕉以外的小部分區(qū)域.對兩區(qū)域做采樣,香蕉區(qū)域采樣點(diǎn)用*號表示,采樣50個,其他區(qū)域內(nèi)采樣點(diǎn)用+表示,采樣10個,分布在香蕉周圍.在SVDD模型中,訓(xùn)練*號點(diǎn)集超球面,映射到原始空間得到一個如圖類似圓.很明顯類似圓包裹不緊密,之間有較大空隙,分類決策曲面包裹的區(qū)域侵占了未知類特征區(qū)域.

        圖1 分類決策結(jié)構(gòu)圖

        2.2 同類特征集合的緊密包裹集的存在性證明

        圖2 坐標(biāo)示意圖

        3 算法設(shè)計

        CES-SVDD算法由“同類特征集合的緊密包裹集構(gòu)造算法”、“基于同類特征點(diǎn)集和包裹點(diǎn)集的同類特征區(qū)域緊密包裹曲面的求解算法”、“多類分類器的合適拒識區(qū)域設(shè)置算法”組成.

        3.1 同類特征集合的緊密包裹集構(gòu)造算法

        第二步由每一個Xj=(xj1,…,xji,…,xjN),1≤j≤M派生出2N個點(diǎn)(xj1,…,xji±ε,…,xjN),1≤i≤N.

        由前面定理1可知,I(C)中點(diǎn)的個數(shù)不少于C的邊界點(diǎn)個數(shù).

        3.2 基于同類特征點(diǎn)集和包裹點(diǎn)集的同類特征區(qū)域緊密包裹曲面的求解算法

        圖3 緊密包裹曲面示意圖

        為了方便設(shè)C中有m1個點(diǎn),I(C)中有m2=n-m1個點(diǎn),c是高維空間的球心.我們建立以下優(yōu)化模型,通過求解優(yōu)化解來構(gòu)造同類特征區(qū)域緊密包裹曲面.

        (1)

        s.t.‖φ(Xi)-c‖2≤r2-ξi, 1≤i≤m1‖φ(Xi)-c‖2-r2-ρ2+ξj),m1≤j≤n,0≤ξk,1≤k≤n

        (2)

        Lagrange函數(shù)的極值點(diǎn)應(yīng)滿足:

        (3)

        (4)

        (5)

        (6)

        (7)

        因此:

        (8)

        這樣得對偶問題模型:

        (9)

        用K(Xi,Xj)替代φ(Xi)·φ(Xj),由可核函數(shù)性質(zhì)知:

        (10)

        對偶問題是一個二次優(yōu)化問題,可用二次優(yōu)化問題求解方法求解[11,12].本文用經(jīng)典的序貫最小優(yōu)化(sequential minimal optimization,簡稱SMO)算法來求解.

        在求解以上問題之后,為求出r、ρ2和r2+ρ2,考慮兩集合:

        (11)

        (12)

        令n1=|S1|,n2=|S2|,由KKT條件[13]知:

        (13)

        其中:

        P1=∑xi∈S1‖φ(Xi)-c‖2

        (14)

        P2=∑xj∈S2‖φ(Xi)-c‖2

        (15)

        (16)

        分類決策函數(shù)為:

        f(x)=sgn(r2-‖φ(X)-c‖2)

        (17)

        分類決策曲面為:

        r2-‖φ(X)-c‖2

        (18)

        該曲面(曲面上點(diǎn)求解可用數(shù)值計算方法求近似解)緊密包裹同類特征區(qū)域.特征區(qū)域邊界到分類決策邊界的坐標(biāo)方向距離(投影長度)小于ε.

        3.3 多類分類器的合適拒識區(qū)域設(shè)置算法

        當(dāng)人臉識別應(yīng)用于人身份認(rèn)證識別、銀行儲蓄認(rèn)證識別、門禁系統(tǒng)認(rèn)證識別等高正確識別率的任務(wù)時,對于無法確定的情況的出現(xiàn),我們必須要設(shè)置一定的拒識機(jī)制,從而有效遏制不良情況的出現(xiàn).

        (19)

        和分類決策緊密包裹曲面:

        jr2-‖φ(X)-jc‖2

        (20)

        4 實(shí)驗(yàn)實(shí)現(xiàn)

        4.1 人臉圖像預(yù)處理

        實(shí)驗(yàn)數(shù)據(jù)使用ORL人臉數(shù)據(jù)庫和擴(kuò)展Yale B人臉數(shù)據(jù)庫,樣例如圖4和圖5所示.ORL面部庫存由40個人在一定的光線,表情(微笑,眨眼,閉眼等)和配件(眼鏡)組成,每個都有10個圖像.其中前五張為訓(xùn)練集,后五張為測試集.擴(kuò)展Yale B包含16128張照片,包括38人在9個姿勢和64個照明條件下拍攝的圖像.本實(shí)驗(yàn)選用到的數(shù)據(jù)為30人的每人50張圖像,其中前30張為訓(xùn)練集,后20張為測試集,未被選用到的是光照太弱的模糊不清的圖像,即用到的圖像總數(shù)為1500張,數(shù)據(jù)庫中的圖像數(shù)據(jù)都是手動對齊、裁剪的,然后重新調(diào)整到168×192大小的圖像.

        圖4 ORL數(shù)據(jù)庫樣例

        預(yù)處理所獲取的面部圖像是面部識別中的重要步驟.其目的是減小外界環(huán)境對要識別的目標(biāo)圖像的干擾,并且使圖像達(dá)到標(biāo)準(zhǔn)化[14,15].通過預(yù)處理,可以最大限度的把干擾減到最小,并對人臉識別性能的穩(wěn)定性起到一定作用.

        由于主成分分析(PCA)是基于圖像灰度統(tǒng)計的算法,因此需要對面部圖像進(jìn)行適當(dāng)?shù)念A(yù)處理.首先,需要將彩色圖像轉(zhuǎn)換為灰度圖像,然后通過直方圖均衡化方法對直方圖圖像進(jìn)行歸一化,有效地消除了噪聲對人臉圖像灰度分布的影響.預(yù)處理原始圖像可以有效地解決基于統(tǒng)計提取特征的外部干擾引起的圖像差異(如照明,照片角度等與臉部圖像本身(每個臉部的大小不同)之間的差異.

        4.2 人臉圖像特征提取

        特征提取是將對分類模式識別最有效的特征提取出來,通過這一過程可以壓縮模式的維數(shù),使之便于處理,減少損失.

        特征提取后的特征空間是為了分類使用的,對于相同的物體在不同的分類規(guī)則下,提取的特征必須滿足某些標(biāo)準(zhǔn)下的最小分類誤差.在特診提取的同時刪除貢獻(xiàn)微弱的特征,已達(dá)到減少分類錯誤額目的.

        圖5 Yale B數(shù)據(jù)庫樣例

        特征面部方法使用主成分分析(PCA),也稱為KL變換,并且通常用于面部圖像的表示和識別[16].主成分分析最早用于統(tǒng)計學(xué),用來找出某一集合的主要成分.對于L×L維的面部圖像,可以認(rèn)為它屬于圖像空間,并且該圖像空間可以被定義為所有尺寸L×L的一組像素矩陣.并且圖像空間中的基矢量的數(shù)量是L×L,并且L×L個基矢量被任意加權(quán)和組合.您可以在圖像空間中獲取任何圖像.假設(shè)像素的灰度級為8,則圖像空間中共有256 L× L個圖像,這其中人臉空間只占很小的一部分,因此,使用圖像空間的基矢量來表示面部空間顯然會帶來冗余,以減少冗余,最合適的方法是用人臉空間本身的基向量來表示人臉.在面部空間進(jìn)行KL變換以進(jìn)行訓(xùn)練,以獲得面部空間本身的基礎(chǔ)矢量.它被稱為特征向量,也稱為特征面,所有特征面的集合稱為特征面空間.使用這些特征向量來表示面部空間大大減少了冗余.

        圖6 部分特征臉

        對于ORL人臉庫來說,對所截取的人臉圖像通過預(yù)處理后,PCA降維至20維,低維空間的圖像是40*5*20的矩陣,每條線代表一個主要組件面,每個面都有20維特征.對于擴(kuò)展Yale B數(shù)據(jù)庫來說,對人臉圖像通過預(yù)處理后,PCA降維至20維,低維空間的圖像是30*30*20的矩陣,部分特征臉如圖6所示.

        剩余的尺寸減小的面可以由特征面線性地表示.在選擇要識別的面以降低維數(shù)然后將由這些基底(特征面)形成的矩陣相乘之后,可以獲得這些面在低維度上的線性表示.這些表示就是識別的依據(jù).

        4.3 CES-SVDD算法在人臉識別中的應(yīng)用

        將CES-SVDD算法用于人臉識別工作,并與最初的SVDD作對比,以此驗(yàn)證算法的有效性.對于ORL數(shù)據(jù)庫使用前5張作為訓(xùn)練集,共有200張圖片.使用矩陣表示200個映射,形成200*10304矩陣.后5張圖用來當(dāng)測試集,共有200張圖.對于擴(kuò)展Yale B數(shù)據(jù)庫來說,使用前30張作為訓(xùn)練集,共有900張圖片.使用矩陣表示900個映射,形成900*32256矩陣.后20張圖用來當(dāng)測試集,共有600張圖.

        4.4 實(shí)驗(yàn)評價與討論

        對兩個測試數(shù)據(jù)處理后,分別用SVDD和CES-SVDD進(jìn)行分類識別,兩種方法各進(jìn)行5次實(shí)驗(yàn)后,結(jié)果如表1和表2所示,為了更加直觀的觀察實(shí)驗(yàn)結(jié)果,將5次實(shí)驗(yàn)結(jié)果生成折線圖,如圖7和圖8所示.其中,拒識率指在公共測試樣本庫中,拒識的樣本個數(shù)與測試樣本庫的總樣本個數(shù)之比;識別率指在去掉拒識的樣本之后的測試樣本庫中,正確分類樣本個數(shù)與總樣本數(shù)的比例.

        表1 ORL實(shí)驗(yàn)結(jié)果

        Table 1 ORL experimental result

        實(shí)驗(yàn)編號SVDD識別率%CES-SVDDCES-SVDD拒識率%識別率%1952.5100295.51.599.5391.52100492397.55980.599

        表2 Yale B實(shí)驗(yàn)結(jié)果

        Table 2 Yale B experimental result

        實(shí)驗(yàn)編號SVDD識別率%CES-SVDDCES-SVDD拒識率%識別率% 190.2 3.399.8296.64.6100392.34.198.3491.22.399.1593.13.699.7

        圖7 ORL實(shí)驗(yàn)結(jié)果

        圖8 Yale B實(shí)驗(yàn)結(jié)果

        由表1、表2可以看出,對于兩個數(shù)據(jù)庫來說,只要拒識率合適,識別準(zhǔn)確率都可以逼近100%,并且很明顯CES-SVDD的效果比沒有加緊密包裹集的SVDD的正確率高.

        4.5 實(shí)用性場景應(yīng)用

        對于高識別率的識別器可以去認(rèn)證一些特別重要場合.比如公司考勤系統(tǒng),需要確保公司人員的高準(zhǔn)確率;銀行取款機(jī),在面臨大額交易下往往需要確保取款人員是否是本人,本文提出的識別方法在去除拒識圖片后識別率通常都會達(dá)到100%,可以用于這類高要求的識別場合.效果如圖9所示.

        圖9 識別效果

        5 結(jié)束語

        論文討論了通過生物特征對人臉認(rèn)證識別的高正確識別率分類器設(shè)計要求,指出了現(xiàn)有一些超球SVM分類器存在沒有合適拒識機(jī)制和正確識別率不能逼近100%等問題.舉除了超球SVM分類決策面不緊密包裹同類特征的實(shí)例.證明了同類特征集合的緊密包裹集的存在定理.提出了基于同類特征集合和緊密包裹集的同類特征區(qū)域緊密包裹面的求解算法.以O(shè)RL人臉庫和Yale B做對比實(shí)驗(yàn),實(shí)驗(yàn)表明本文提出的分類器設(shè)計算法是一種有效的高正確識別率分類器設(shè)計方法.今后的方向主要是對于維度比較大模糊圖像的處理研究,爭取在降低拒識率的基礎(chǔ)上,提高識別的準(zhǔn)確率.

        猜你喜歡
        分類特征區(qū)域
        分類算一算
        如何表達(dá)“特征”
        不忠誠的四個特征
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        抓住特征巧觀察
        關(guān)于四色猜想
        分區(qū)域
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計
        電測與儀表(2015年5期)2015-04-09 11:30:52
        中文字幕人妻熟在线影院| 一区二区三区一片黄理论片| 亚洲一区二区三区2021| av综合网男人的天堂| 97一区二区国产好的精华液| 久久国产精品免费一区六九堂 | 国产精品亚洲片在线观看不卡| 日出水了特别黄的视频| 亚洲人成人一区二区三区| 蜜桃视频一区二区三区| 麻豆国产一区二区三区四区| 乱人伦中文无码视频| 日本a在线免费观看| 日本大片一区二区三区| 中文字幕亚洲无线码一区女同| 玩两个丰满老熟女| 亚洲大尺度动作在线观看一区| 久久日本视频在线观看| 亚洲最大av网站在线观看| 亚洲精品国产成人AV| 三级黄色片一区二区三区| 日本av一区二区三区在线| 欧美最猛性xxxxx免费| 国产精品久久久久孕妇| 91中文在线九色视频| 亚洲国产一二三精品无码| 国产熟妇搡bbbb搡bbbb搡| 亚洲区精品久久一区二区三区女同| 好看的日韩精品视频在线| 国产精品多p对白交换绿帽| 久久精品无码一区二区乱片子| 国产精品久久久看三级| 国产成人无码a区在线观看导航| 丰满少妇在线观看网站| 色窝综合网| 亚洲高清中文字幕视频| 一本色综合久久| 91福利国产在线观看网站| 亚洲无人区乱码中文字幕能看| 午夜福利啪啪片| 2021国产精品久久|