亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于KNN的人臉識(shí)別算法融合方法

        2023-01-19 07:07:08胡楊王家興宛根訓(xùn)田青王寧孫煒晨公安部第一研究所
        警察技術(shù) 2022年6期
        關(guān)鍵詞:引擎人臉識(shí)別人臉

        胡楊 王家興 宛根訓(xùn) 田青 王寧 孫煒晨 公安部第一研究所

        引言

        隨著人工智能技術(shù)不斷發(fā)展,生物識(shí)別技術(shù)儼然已成為個(gè)人身份識(shí)別或認(rèn)證技術(shù)的重要方式。人臉識(shí)別作為生物特征識(shí)別的重要分支之一,它的無侵害性和對(duì)用戶最自然、最直觀的識(shí)別方式更容易被大眾接受。近年來,人臉識(shí)別技術(shù)在刑事偵破、出入口控制、信息安全等公安行業(yè)領(lǐng)域呈現(xiàn)出廣闊的應(yīng)用前景。目前公安機(jī)關(guān)絕大多數(shù)的應(yīng)用場(chǎng)景都是在非控制條件或非配合條件下進(jìn)行,應(yīng)用場(chǎng)景更加復(fù)雜,對(duì)算法魯棒性的要求更高。

        1比N人臉識(shí)別技術(shù)一般采用深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)技術(shù),不同的神經(jīng)網(wǎng)絡(luò)架構(gòu)層出不窮,在不同場(chǎng)景不同業(yè)務(wù)下各有利弊。在實(shí)際應(yīng)用中,算法廠商出于自身知識(shí)產(chǎn)權(quán)保護(hù)只提供比對(duì)分?jǐn)?shù)結(jié)果,所以多算法融合方式主要是基于分?jǐn)?shù)的融合。目前常用的分?jǐn)?shù)級(jí)融合[1]有基于密度的融合、基于歸一化的融合、基于分類器的融合、線性加權(quán)融合[2]、投票決策融合等等。

        基于密度的融合首先將分?jǐn)?shù)轉(zhuǎn)換為后驗(yàn)概率,然后根據(jù)貝葉斯做出決策。Snelick等[3]使用一種參數(shù)化方法獲取分?jǐn)?shù)的條件概率密度。基于歸一化的融合將分?jǐn)?shù)首先進(jìn)行歸一化,然后使用統(tǒng)一的融合規(guī)則獲取一個(gè)新的分?jǐn)?shù)。Wang等[4]提出了一種根據(jù)FAR和TAR來計(jì)算不同分類器權(quán)重的融合方法;He[5]根據(jù)均值和方差提出了RHE歸一化的方法?;诜诸惼鞯娜诤贤鶎⒍鄠€(gè)分?jǐn)?shù)作為一個(gè)多維向量從而進(jìn)行分類。Wang等[6]將人臉和虹膜通過支持向量機(jī)進(jìn)行融合;Kumar等[7]采用粒子群優(yōu)化算法來選取最優(yōu)融合策略。

        基于歸一化的融合方法無需訓(xùn)練, 實(shí)現(xiàn)簡(jiǎn)單, 較少考慮到匹配分?jǐn)?shù)分布的特殊性;基于密度的融合需要對(duì)密度進(jìn)行準(zhǔn)確的估計(jì),實(shí)現(xiàn)復(fù)雜,時(shí)空開銷大,需要大量訓(xùn)練樣本;線性加權(quán)融合、投票決策融合過于簡(jiǎn)單,很難取得很好的識(shí)別效果。

        考慮以上方法的優(yōu)缺點(diǎn),本文采用了基于分類器的融合方法,提出了一種基于KNN的人臉識(shí)別算法融合方法,能夠適應(yīng)不同公安實(shí)戰(zhàn)應(yīng)用場(chǎng)景需求,提升人臉識(shí)別的準(zhǔn)確率且節(jié)約計(jì)算資源。

        一、基于KNN的算法融合

        基于KNN的人臉識(shí)別算法融合方法是將多算法引擎返回的不同結(jié)果使用KNN算法進(jìn)行融合判定并返回最終人臉識(shí)別結(jié)果。

        (一)總體框架

        基于KNN的人臉識(shí)別算法融合方法的總體框架如圖1所示,主要包括多算法引擎輪詢模塊、算法引擎池模塊、多算法決策模塊、算法選擇器模塊和KNN算法融合模塊。

        (二)多算法決策

        多算法決策模塊根據(jù)算法引擎返回的分?jǐn)?shù)和Top N之間的分布情況決定是否進(jìn)行多算法比對(duì),從而達(dá)到識(shí)別準(zhǔn)確性和并發(fā)能力的平衡。對(duì)于單一算法引擎返回分?jǐn)?shù)較高且Top N之間分?jǐn)?shù)分布分散的情況,多算法決策模塊不再進(jìn)行其他算法比對(duì);對(duì)于單一算法引擎返回分?jǐn)?shù)較低或Top N之間分?jǐn)?shù)分布集中而造成的“沒有把握”的情況,通過算法選擇器選擇其他算法進(jìn)一步比對(duì),然后將兩家算法引擎返回的結(jié)果送入KNN算法融合模塊進(jìn)行融合判定,提升識(shí)別準(zhǔn)確率。

        在實(shí)際場(chǎng)景中,多算法應(yīng)用的主要難點(diǎn)是不同算法引擎分?jǐn)?shù)代表的意義不同,高分?jǐn)?shù)值的標(biāo)準(zhǔn)也不同,例如以達(dá)到99%以上的識(shí)別準(zhǔn)確率為要求,算法引擎1的分?jǐn)?shù)需要達(dá)到97分以上,算法引擎2的分?jǐn)?shù)需要達(dá)到98分以上,算法引擎3的分?jǐn)?shù)需要達(dá)到96分以上。

        在1比N應(yīng)用中,返回結(jié)果排序靠前和排序靠后的分差越大越好,在本文中使用方差函數(shù)來衡量Top N之間分?jǐn)?shù)分布情況,公式如(1)和(2)所示。

        一般情況下,返回正確結(jié)果的分?jǐn)?shù)和返回錯(cuò)誤結(jié)果的分?jǐn)?shù)之間分差較大。這里我們根據(jù)經(jīng)驗(yàn)值,N取2,即比較返回前兩個(gè)結(jié)果的方差。多算法決策模塊在進(jìn)行判定時(shí),如果方差小于閾值V,即代表TopN結(jié)果分值接近,需要進(jìn)行多算法比對(duì)融合。不同算法引擎之間的方差閾值V不同,這里設(shè)置算法引擎1的方差閾值為V1,算法引擎2的方差閾值為V2,算法引擎3的方差閾值V3為1.5。

        (三)基于KNN算法融合判定

        不同算法引擎如果返回結(jié)果不同,則需要使用KNN算法進(jìn)行融合判定。KNN算法又被稱為k近鄰算法,是機(jī)器學(xué)習(xí)算法中應(yīng)用最廣泛的分類算法之一[8]。KNN算法對(duì)于任意n維輸入向量,分別對(duì)應(yīng)特征空間中的一個(gè)點(diǎn),通過計(jì)算每個(gè)已知類別標(biāo)簽的樣本數(shù)據(jù)到未知類別標(biāo)簽的樣本數(shù)據(jù)的距離,選擇最近的k個(gè)已知標(biāo)簽,采用多數(shù)表決的方式來預(yù)測(cè)未知樣本數(shù)據(jù)類別,如圖2所示。

        假設(shè)給定一個(gè)訓(xùn)練數(shù)據(jù)集T={(x1,y1) ,(x2,y2) ,…,(xN,yN)}作為輸入,其中xi是 每個(gè)已知類別樣本的輸入特征向量,yi∈Y={c1,c2, …,cn}屬于類別標(biāo)簽,i=1,2,…,N。根據(jù)設(shè)定好的距離度量規(guī)則,在給定的數(shù)據(jù)集T中通過計(jì)算尋找與未知類別標(biāo)簽樣本x最近的k個(gè)樣本,記為NK(x)。接著根據(jù)少數(shù)服從多數(shù)的原則,采用投票表決方式選出未知標(biāo)簽樣本x所屬類別,公式如(3)所示。

        在公式(3)中,I(g)是指示函數(shù),當(dāng)為真的時(shí)候,輸出為1,否則輸出為0。

        兩個(gè)樣本點(diǎn)之間距離度量用來衡量空間上的差異性,距離越短,表示相似程度越高;反之,相似程度越低。在KNN算法中,常用的距離度量方式有歐氏距離、曼哈頓距離、余弦距離等。曼哈頓距離和歐式距離原理上都是明可夫斯基距離在一定特殊條件下的應(yīng)用,它們?cè)跀?shù)學(xué)公式的表現(xiàn)形式上類似。明可夫斯基公式如(4)所示。

        在公式(4)中,p是一個(gè)超參數(shù),當(dāng)p=1的時(shí)候,就是曼哈頓距離;當(dāng)p=2時(shí),就得到了歐式距離。

        在本方法中,輸入的樣本維度為8維,分別是算法引擎1返回的Top 1分?jǐn)?shù)、算法引擎2返回的Top 1分?jǐn)?shù)、圖像質(zhì)量分?jǐn)?shù)、圖像光照分?jǐn)?shù)、圖像清晰度分?jǐn)?shù)、人臉picth角度、人臉yaw角度、人臉roll角度。具體的算法實(shí)現(xiàn)過程如下:

        (1) 第一步計(jì)算已知類別標(biāo)簽的樣本數(shù)據(jù)點(diǎn)到未知類別標(biāo)簽的樣本數(shù)據(jù)點(diǎn)距離,并記錄下來;

        (2) 第二步把上一步計(jì)算好的所有距離按照從小到大的順序依次排序;

        (3) 第三步選擇前個(gè)距離最近的已知類別標(biāo)簽的樣本數(shù)據(jù)點(diǎn),統(tǒng)計(jì)它們所屬類別出現(xiàn)的頻率;

        (4) 第四步將出現(xiàn)頻率最高的類別當(dāng)作未知樣本數(shù)據(jù)的預(yù)測(cè)類別標(biāo)簽。

        在KNN算法中,k值參數(shù)的選擇對(duì)于模型的訓(xùn)練起到?jīng)Q定性影響。若k值選擇過小,相當(dāng)于用較小領(lǐng)域中的訓(xùn)練實(shí)例進(jìn)行預(yù)測(cè),很可能忽略一些有用的信息,致使模型的復(fù)雜度增加從而出現(xiàn)過擬合的現(xiàn)象;若k值選取過大,雖然模型的復(fù)雜度會(huì)降低,但會(huì)增加學(xué)習(xí)的近似誤差,從而使得模型整體變得簡(jiǎn)單,在實(shí)際應(yīng)用中表現(xiàn)效果變差。

        (四)整體流程

        基于KNN的人臉識(shí)別算法融合方法流程如圖3所示,首先輸入人臉圖像根據(jù)多算法引擎輪詢①選擇算法引擎,如選擇算法引擎1模型,則進(jìn)入多算法決策②。算法引擎1返回該人員Top1-Top2分?jǐn)?shù)及人臉屬性等信息,如果Top 1分?jǐn)?shù)大于閾值T1且Top 1和Top 2分?jǐn)?shù)的方差大于閾值V1,表明單一算法引擎可達(dá)到較高準(zhǔn)確率,不再進(jìn)行多算法比對(duì)融合;如果Top 1分?jǐn)?shù)小于等于閾值T1或Top 1和Top 2分?jǐn)?shù)的方差小于等于閾值V1,則進(jìn)入算法選擇器③調(diào)用另外一個(gè)算法引擎進(jìn)行多算法比對(duì),最后進(jìn)行KNN算法融合輸出。根據(jù)多算法融合輸出策略,若兩個(gè)算法引擎返回結(jié)果相同,則直接返回最終結(jié)果;若返回結(jié)果不同,則使用KNN算法融合兩個(gè)算法并返回結(jié)果。

        二、實(shí)驗(yàn)結(jié)果

        (一)實(shí)驗(yàn)環(huán)境

        本文實(shí)驗(yàn)環(huán)境配置如表1所示。

        ?

        (二)數(shù)據(jù)集

        實(shí)驗(yàn)數(shù)據(jù)集包括10000張人臉圖像,共1000個(gè)人。相比于公開數(shù)據(jù)集CASIA-Webface、CelebA、LFW,本文實(shí)驗(yàn)數(shù)據(jù)都是中國人臉且大多來自生活中不同場(chǎng)景,如火車站、證件照、手機(jī)自拍照、監(jiān)控視頻照片等等,在光照、角度、遮擋上有明顯區(qū)別,如圖4所示。在人臉數(shù)據(jù)集中選擇70%圖像作為訓(xùn)練集,其余30%作為測(cè)試集。

        (三)實(shí)驗(yàn)結(jié)果及分析

        在實(shí)際調(diào)參過程中,本文采用了網(wǎng)格搜索和交叉驗(yàn)證相結(jié)合的方式來尋找KNN算法的最優(yōu)k值。交叉驗(yàn)證法是將樣本數(shù)據(jù)D等分為k個(gè)互斥的子集,滿足D=D1∪ D2∪ …∪Dk,然后在k個(gè)子集中,選擇k-1個(gè)子集當(dāng)作訓(xùn)練集,剩下一個(gè)子集則是測(cè)試集,因此每次都可得到k組訓(xùn)練集和測(cè)試集,最后實(shí)驗(yàn)評(píng)估結(jié)果取k組平均值。交叉驗(yàn)證法在很大程度上保證了模型的穩(wěn)定性和可靠性,提高了模型的泛化能力。

        表2所示為KNN的k和p不同參數(shù)值在訓(xùn)練集和測(cè)試集的表現(xiàn)情況。模型經(jīng)過訓(xùn)練調(diào)參后,得到最優(yōu)參數(shù)k=3和p=9,在訓(xùn)練集上識(shí)別的準(zhǔn)確率達(dá)到97.48%,在測(cè)試集的識(shí)別準(zhǔn)確率達(dá)到93.45%。

        ?

        表3所示為基于KNN的人臉識(shí)別算法融合方法、單一算法引擎以及多家算法投票決策融合的性能對(duì)比情況。投票決策融合模型根據(jù)多家算法引擎的輸出結(jié)果,采用少數(shù)服從多數(shù)的投票原則得到最終的結(jié)果。從表中可以看出,基于KNN的人臉識(shí)別算法融合方法在測(cè)試集的準(zhǔn)確率最高為93.45%,在平均響應(yīng)時(shí)間上面也只有814ms,略高于單一算法引擎,遠(yuǎn)低于投票決策模型。

        ?

        三、結(jié)語

        經(jīng)過多年的發(fā)展,人臉識(shí)別技術(shù)在公安行業(yè)領(lǐng)域已具備實(shí)戰(zhàn)應(yīng)用能力。單一的算法引擎由于受到人臉圖像質(zhì)量及算法本身性能限制,在實(shí)際應(yīng)用場(chǎng)景中識(shí)別的準(zhǔn)確性和魯棒性受到一定影響。本文提出了一種基于KNN的人臉識(shí)別算法融合方法,可以適應(yīng)不同復(fù)雜場(chǎng)景,在不大幅度犧牲計(jì)算資源的同時(shí),提升了識(shí)別的準(zhǔn)確率,從而有效支撐了跨區(qū)域、跨場(chǎng)景的實(shí)戰(zhàn)應(yīng)用需求,對(duì)于全面提升公安機(jī)關(guān)打防管控水平具有重要的意義。

        猜你喜歡
        引擎人臉識(shí)別人臉
        人臉識(shí)別 等
        有特點(diǎn)的人臉
        揭開人臉識(shí)別的神秘面紗
        三國漫——人臉解鎖
        藍(lán)谷: “涉藍(lán)”新引擎
        商周刊(2017年22期)2017-11-09 05:08:31
        基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
        無形的引擎
        河南電力(2015年5期)2015-06-08 06:01:46
        基于Cocos2d引擎的PuzzleGame開發(fā)
        馬面部與人臉相似度驚人
        長得象人臉的十種動(dòng)物
        奇聞怪事(2014年5期)2014-05-13 21:43:01
        国产肉体XXXX裸体784大胆| 国产福利永久在线视频无毒不卡 | 国产午夜精品久久久久九九| 中文字幕色一区二区三区页不卡| 亚洲精品粉嫩美女一区| 最近中文字幕完整版免费| 国产欧美日韩综合在线一区二区| 手机免费日韩中文字幕| 久久人妻一区二区三区免费| 一区二区三区av波多野结衣| 亚洲色图在线观看视频| 天堂av在线一区二区| av网站在线观看亚洲国产| 日本乱偷人妻中文字幕| 亚洲一区欧美二区| 午夜精品一区二区久久做老熟女 | 欧美丰满大屁股ass| 制服无码在线第一页| 国产乱淫h侵犯在线观看| 亚洲成aⅴ人片久青草影院| 国产偷国产偷亚洲清高| 亚洲无码毛片免费视频在线观看| 视频国产自拍在线观看| 国产精品久久久亚洲| 亚洲美国产亚洲av| 国产极品喷水视频| 日本成年一区久久综合| 丰满多毛的大隂户毛茸茸 | 一区二区三区极品少妇| 亚洲无线一二三四区手机| 久久精品人成免费| 亚洲va精品va国产va | 亚洲日韩中文字幕在线播放| 正在播放国产对白孕妇作爱| 第九色区Aⅴ天堂| 熟女一区二区中文字幕 | 精品久久久久久久中文字幕| 美女被射视频在线观看91| 国产av久久在线观看| 国产精品夜间视频香蕉| 色播中文字幕在线视频|