亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        不確定性估計(jì)結(jié)合主動(dòng)外觀模型三維特征提取的人臉識(shí)別方法

        2016-07-19 20:39:39卜宇任曉芳唐學(xué)軍孫挺
        計(jì)算機(jī)應(yīng)用 2016年7期
        關(guān)鍵詞:人臉識(shí)別人臉不確定性

        卜宇 任曉芳 唐學(xué)軍 孫挺

        摘要:對(duì)于人臉識(shí)別分類(lèi)結(jié)果中的可信度問(wèn)題,提出一種基于不確定性理論的人臉識(shí)別方法。首先,為了估計(jì)3D特征,使用主動(dòng)外觀模型(AAM)和三角測(cè)量處理兩幅未知對(duì)象的2D圖像;然后,估計(jì)數(shù)據(jù)庫(kù)中每個(gè)對(duì)象的分?jǐn)?shù),通過(guò)不確定性進(jìn)一步處理兩幅圖像;最后,決策過(guò)程根據(jù)估計(jì)的分?jǐn)?shù)和估計(jì)的不確定性分類(lèi)列表,其中分類(lèi)列表中存儲(chǔ)了所有已識(shí)別對(duì)象及其對(duì)應(yīng)的可信度此處為“可信度”,2.2節(jié)中為“置信度”?以哪個(gè)為準(zhǔn)?是否需要統(tǒng)一?請(qǐng)明確。。實(shí)驗(yàn)采用含兩個(gè)攝像頭的立體視覺(jué)系統(tǒng)采集各種姿態(tài)的人臉圖像。與類(lèi)似的概率預(yù)測(cè)測(cè)量方法相比,所提方法的正確檢測(cè)率提高10%左右,漏檢率至少降低了9%因與3.2節(jié)的數(shù)據(jù)不太一致,此處的數(shù)據(jù)對(duì)嗎?請(qǐng)明確。。實(shí)驗(yàn)結(jié)果表明,所提方法通過(guò)構(gòu)建3D圖像特征的不確定性信息和采用合適的統(tǒng)計(jì)方法提高了分類(lèi)結(jié)果的準(zhǔn)確率。

        關(guān)鍵詞:

        人臉識(shí)別;可信度;不確定性;生物識(shí)別算法;分類(lèi)器

        中圖分類(lèi)號(hào): TP391.413 文獻(xiàn)標(biāo)志碼:A

        0引言

        人臉識(shí)別[1]已廣泛應(yīng)用于基于生物特征的人機(jī)交互中,如視頻監(jiān)控和訪問(wèn)控制等[2]。人臉識(shí)別方法眾多,比較具代表性的有主成分分析(Principal Component Analysis, PCA)[3]、線性成分分析(Linear Discriminant Analysis, LDA)[4]、獨(dú)立主成分分析(Independent Component Analysis, ICA)[5]等,這些方法在非限制條件下均能取得不錯(cuò)的效果;但是,當(dāng)出現(xiàn)光照、姿態(tài)、表情及場(chǎng)景等變化時(shí),效果并不理想。

        為了解決三維人臉識(shí)別中的問(wèn)題,已有不少相關(guān)方法被提出。例如,文獻(xiàn)[6]基于二維主成分分析,保留人臉部的拓?fù)潢P(guān)系,采用非負(fù)矩陣進(jìn)行局部特征識(shí)別;然而,二維人臉識(shí)別容易出現(xiàn)光照變化和姿態(tài)變化引起的問(wèn)題。文獻(xiàn)[7]利用輸入數(shù)據(jù)的測(cè)量不確定性解決識(shí)別和分類(lèi)問(wèn)題。該方法以概率統(tǒng)計(jì)為基礎(chǔ),系統(tǒng)輸出為可信度,且使用準(zhǔn)確率、錯(cuò)誤率和棄權(quán)率改善方法性能。每個(gè)類(lèi)使用一種置信度(Confidence Level, CL)描述,以獲取每種類(lèi)別的測(cè)量不確定性。文獻(xiàn)[8]使用計(jì)量特征和預(yù)測(cè)線性判別分析進(jìn)行特征降維,通過(guò)相關(guān)性和信息強(qiáng)度來(lái)降低錯(cuò)誤決策;然而,從用戶(hù)角度看,可操作性大為降低。文獻(xiàn)[9]針對(duì)人臉畸變、表情變化等不可控因素,在B樣條的多級(jí)模型自由形式形變(Free Form Deformation, FFD)基礎(chǔ)上,利用低分辨率FFD網(wǎng)格進(jìn)行全局配準(zhǔn),全局配準(zhǔn)后,分塊計(jì)算各子塊的相關(guān)性,相關(guān)系數(shù)小的子塊采用高分辨率FFD網(wǎng)格進(jìn)行細(xì)配準(zhǔn),采用的凸集投影(Projections Onto Convex Sets, POCS)重建多幀圖像為高分辨率圖像;然而,重建和擬合過(guò)程的誤差較大,且POCS重建易產(chǎn)生邊緣模糊問(wèn)題。文獻(xiàn)[10]提出了基于多特征3D人臉識(shí)別方法,使用三種方法從人臉圖像中提取特征,即最大曲率圖像、平均邊緣圖像、范圍圖像,利用權(quán)重線性組合構(gòu)建融合特征;該方法可以取得不錯(cuò)的識(shí)別效果,然而,需要使用3D掃描儀/照相機(jī),這是一種價(jià)格非常昂貴的數(shù)據(jù)采集工具,且需要較長(zhǎng)的處理時(shí)間。

        一般人臉識(shí)別方法的主要問(wèn)題包括:源不確定(例如立體像機(jī)是“攝像機(jī)”,還是“像機(jī)”?還有“相機(jī)”的描述?是否需要統(tǒng)一一下?請(qǐng)明確。的位置不確定,像機(jī)校準(zhǔn)過(guò)程不確定);在3D空間提取的特征具有不確定傳播特性(例如:訓(xùn)練階段的影響,兩幅圖像不確定性)和比較階段的分?jǐn)?shù)。本文方法能夠有效確定系統(tǒng)參數(shù)最優(yōu)值(例如:像機(jī)位置、評(píng)價(jià)分?jǐn)?shù)中每種特征的權(quán)重)。其主要工作如下:

        1)本文將不確定性擴(kuò)展為基于3D特征的人臉識(shí)別算法的不確定性,提出了用于匹配目標(biāo)對(duì)象形狀的統(tǒng)計(jì)模型算法。

        2)通過(guò)使用主動(dòng)外觀模型(Active Appearance Model, AAM)算法處理一對(duì)立體圖像,從中獲取2D標(biāo)記點(diǎn),擴(kuò)展了AMM的應(yīng)用范圍。

        1生物識(shí)別方法——AAM

        本文分類(lèi)算法流程如圖1所示。首先,為了估計(jì)3D特征,使用生物識(shí)別算法[11](AAM)和三角測(cè)量處理兩幅未知對(duì)象的2D圖像;然后,估計(jì)數(shù)據(jù)庫(kù)中每個(gè)對(duì)象的分?jǐn)?shù),通過(guò)不確定性算法進(jìn)一步處理兩幅圖像;最后,決策過(guò)程根據(jù)估計(jì)的分?jǐn)?shù)和估計(jì)的不確定性計(jì)算分類(lèi)列表,該分類(lèi)列表中存儲(chǔ)了所有已經(jīng)識(shí)別的對(duì)象和其對(duì)應(yīng)的可信度。

        1.1提取3D特征

        本文使用一組立體像機(jī)采集人臉圖像,然后使用AAM軟件[12]自動(dòng)檢測(cè)人臉圖像中一組標(biāo)志的2D坐標(biāo),利用三角測(cè)量?jī)煞?D模板圖像以獲取一幅3D模板,如圖2所示,將該3D模板圖像與數(shù)據(jù)庫(kù)中每個(gè)3D模板作比較,完成人臉識(shí)別,該過(guò)程中會(huì)獲取每次比較的分?jǐn)?shù),詳細(xì)過(guò)程如下。

        AAM算法用于自動(dòng)檢測(cè)圖像人臉特征,提取人臉特征。其操作可以分為兩個(gè)階段:第一階段,創(chuàng)建形變模型,通過(guò)分析訓(xùn)練圖像完成,即人臉特征集合先前已手動(dòng)標(biāo)記的圖像樣本;第二階段,在人臉圖像中,使用軟件自動(dòng)檢測(cè)相同人臉特征的位置,這些人臉圖像不屬于訓(xùn)練圖像。人工手動(dòng)標(biāo)記圖像過(guò)程在于追蹤不同標(biāo)志,輪廓是不同人臉圖像最重要特征。本文使用58個(gè)標(biāo)志將人臉劃分為75有7個(gè)區(qū)域,但是后面只寫(xiě)了5個(gè)區(qū)域,是否寫(xiě)錯(cuò)了,請(qǐng)作相應(yīng)調(diào)整。個(gè)區(qū)域:下巴、嘴巴、鼻子、眼睛和眉毛。

        本文將人臉定義為2D點(diǎn)數(shù)據(jù)集,通過(guò)形狀模型描述目標(biāo)的形狀,并將這些形狀與通用參考系統(tǒng)對(duì)齊,使用PCA將屬于同一類(lèi)型圖像上的形狀軌跡提交給普氏分析[13]。PCA生成形狀變化主成分φ式(1)~(3)中,哪些是矢量、向量或矩陣?請(qǐng)明確。,定義如下:

        對(duì)于外觀模型,該模型定義了部分對(duì)象的紋理,外觀模型在均值形狀上分配所有圖像的像素灰度值變化。通過(guò)創(chuàng)建該模型,將所有訓(xùn)練圖像轉(zhuǎn)換為相同形狀和維數(shù)的圖像,為了避免光照變化對(duì)圖像的影響,需要?dú)w一化紋理特征。接著,訓(xùn)練圖像通過(guò)PCA生成外觀模型。與形狀模型相似,外觀模型取決于均值外觀的灰度層向量、變化主成分φg和一組灰度層參數(shù)bg,外觀模型表達(dá)式如下:

        g=+φgbg(3)

        每個(gè)人臉特征的3D坐標(biāo)使用光學(xué)測(cè)量完成估計(jì),該過(guò)程依賴(lài)于AAM檢測(cè)的兩幅立體圖像的人臉特征。

        在整個(gè)估計(jì)與決策過(guò)程中,3D特征估計(jì)非常重要,主要表現(xiàn)在兩方面:一是3D特征估計(jì)關(guān)聯(lián)3D人臉模板,進(jìn)而影響與數(shù)據(jù)庫(kù)模板的匹配問(wèn)題;另一方面是不確定性取決于人臉特征2D坐標(biāo)的不確定性,而2D坐標(biāo)也與3D特征估計(jì)有關(guān)系,因此,3D特征估計(jì)都直接或間接影響最終的識(shí)別結(jié)果。

        1.2數(shù)據(jù)庫(kù)

        本文使用117個(gè)志愿者的立體圖像創(chuàng)建數(shù)據(jù)庫(kù),控制系統(tǒng)允許自動(dòng)捕獲用戶(hù)定義的時(shí)間間隔人臉圖像序列,設(shè)置為5s,本文在相同位置獲取同一人的多幅圖像,且允許合理范圍內(nèi)的變化。對(duì)每個(gè)志愿者,數(shù)據(jù)庫(kù)包含5對(duì)立體圖像。第一個(gè)樣本用于訓(xùn)練AAM,其他4個(gè)樣本用于識(shí)別。

        1.3分?jǐn)?shù)估計(jì)

        識(shí)別判斷基于分?jǐn)?shù),分?jǐn)?shù)表示用于識(shí)別的3D模板坐標(biāo)與數(shù)據(jù)庫(kù)中每個(gè)模板坐標(biāo)的差平方和,為了將一個(gè)模板的坐標(biāo)系剛體變化到其他模板坐標(biāo)系,計(jì)算可旋轉(zhuǎn)度??尚D(zhuǎn)度允許補(bǔ)償圖像采集立體系統(tǒng)相關(guān)的位置和方向偏差,使用旋轉(zhuǎn)度后,獲取的分?jǐn)?shù)不依賴(lài)于人臉的位置和方向,僅依賴(lài)于模板形狀,這是因?yàn)閷?duì)所有人臉區(qū)域,特征定位的可信性不是不變的,所以根據(jù)估計(jì)可重復(fù)性給不同點(diǎn)分配不同權(quán)重。

        給定一幅將用于識(shí)別的3D模板和一組權(quán)重Wk(k=1,2,…,n),其中n為模板中點(diǎn)的總數(shù)量,對(duì)數(shù)據(jù)庫(kù)中第i個(gè)模板,其分?jǐn)?shù)Si定義如下:

        Si=[∑nk=1(Wk(Vk,i-Vk,ref)2)]/n(4)

        其中:Vk,i為第i個(gè)個(gè)體的第k個(gè)點(diǎn)坐標(biāo);Wk為模板第k個(gè)點(diǎn)的權(quán)重。

        為了估計(jì)58個(gè)標(biāo)志中每個(gè)標(biāo)志的權(quán)重,對(duì)數(shù)據(jù)庫(kù)中117個(gè)人,重復(fù)采集每個(gè)人5張人臉用于計(jì)算人臉間的標(biāo)準(zhǔn)差,將估計(jì)的標(biāo)準(zhǔn)差作為權(quán)重。由于連續(xù)采集的人臉圖像可能存在少量旋轉(zhuǎn),因此在計(jì)算均值位置和相對(duì)方差前,必須將人臉與其他人臉圖像對(duì)齊,以便獲取每個(gè)個(gè)體人臉圖像上點(diǎn)的方差。

        表1所示為數(shù)據(jù)庫(kù)中所有117個(gè)人權(quán)重均值,權(quán)重沒(méi)有涉及每個(gè)單幅標(biāo)志,而涉及了人臉的每個(gè)區(qū)域。一般情況下,眼睛穩(wěn)定性比較好,嘴巴形狀變化比較大,下巴輪廓的可變性最高。由于這些區(qū)域采用標(biāo)志點(diǎn)的形式表現(xiàn),區(qū)域的權(quán)重即是組成該區(qū)域標(biāo)志點(diǎn)的權(quán)重。為了確保采集的圖像不存在陰影、光反色或運(yùn)動(dòng)模糊,需要控制環(huán)境條件(特征存在光照變化),此外正向位置采集人臉且焦距最佳。為了利用不確定性控制條件中的參數(shù),圖像光照、焦距和運(yùn)動(dòng)模糊需要量化估計(jì),接下來(lái)將會(huì)介紹。

        2不確定性估計(jì)與決策

        2.1不確定性

        分?jǐn)?shù)us的不確定性主要依賴(lài)于人臉特征2D坐標(biāo)的不確定性,人臉特征依賴(lài)于處理圖像的特性。主要影響量與亮度、角度和運(yùn)動(dòng)模糊有關(guān)。根據(jù)文獻(xiàn)[14],為了量化這種不確定性,對(duì)us,本文使用一種簡(jiǎn)單模型測(cè)量每種影響因素的影響度,使用ui表示第i個(gè)影響量對(duì)分?jǐn)?shù)的貢獻(xiàn)值:

        ui=fi(Δi)(5)

        其中Δi為第i個(gè)影響量的值。

        由于所有影響量與其他影響量無(wú)關(guān)系,分?jǐn)?shù)上不確定性為:

        us=∑Ni=1u2i(6)

        其中N表示影響量的數(shù)量。

        通過(guò)操作參考圖像(即包含在數(shù)據(jù)庫(kù)中圖像),使用人工標(biāo)定圖像估計(jì)不確定性,利用已有期望值產(chǎn)生新的特性圖像,過(guò)程如下。

        對(duì)數(shù)據(jù)庫(kù)中每個(gè)對(duì)象、每種影響量和影響量的級(jí)別,在控制仿真環(huán)境中,首先通過(guò)對(duì)參考圖像使用合適的數(shù)字濾波產(chǎn)生兩幅新圖像,然后,在該修改的圖像上,使用AAM算法和三角測(cè)量估計(jì)3D特征。估計(jì)與目標(biāo)對(duì)象相關(guān)記錄的數(shù)據(jù)分?jǐn)?shù);最后,對(duì)所有目標(biāo)對(duì)象,在分?jǐn)?shù)上獲取統(tǒng)計(jì)分析模型,其不確定性估計(jì)如下:

        (us)i=(u2s)i/3+(σ2s)i(7)

        其中(u2s)i和(σ2s)i分別表示第i個(gè)影響量的測(cè)量分?jǐn)?shù)均值和標(biāo)準(zhǔn)差。

        2.1.1光照

        考慮到最佳亮度,對(duì)參考圖像原始圖像的灰度級(jí)修改為±5,±10,±15,±20,±30,±50(使用8比特位進(jìn)行編碼)。不同光照下的us如圖3所示,從圖3中可以看出,對(duì)每種光照變化條件,不確定性幾乎為常數(shù),且該常數(shù)可以考慮為兩幅圖像的修改量,本文設(shè)置us為0.08。

        2.1.2散焦

        評(píng)價(jià)光照影響的相同過(guò)程用于評(píng)價(jià)鏡頭散焦的影響。同時(shí)在這種情況下,考慮3種測(cè)試條件:兩幅圖像、僅1個(gè)像機(jī)缺乏焦距、2個(gè)像機(jī)缺乏焦距,像機(jī)具有不同散焦級(jí),如圖4所示。使用高斯線性濾波器處理源圖像,以獲取處理后的圖像。

        本文獲取的實(shí)驗(yàn)結(jié)果如圖4所示,兩幅圖像缺乏焦距時(shí)的不確定性高于僅一幅圖像缺乏焦距時(shí)的不確定性。此外,無(wú)論如何修改圖像,實(shí)驗(yàn)結(jié)果幾乎相同,因此,可以考慮使用兩個(gè)模型:一個(gè)模型用于兩幅圖像均缺乏焦距;另一個(gè)模型用于僅一幅圖像缺乏焦距。在這兩種情況下,一種二階多項(xiàng)式模型能很好擬合觀察數(shù)據(jù)。

        2.2決策過(guò)程

        圖5所示為決策過(guò)程的主要步驟如下:1)概率Pj估計(jì)輸入對(duì)象為數(shù)據(jù)庫(kù)中第j個(gè)對(duì)象的概率;2)根據(jù)獲取的概率,創(chuàng)建挑選可能對(duì)象的分類(lèi)列表;3)計(jì)算列表中每個(gè)對(duì)象(類(lèi))的可信度摘要為可信度。

        1)Pj表示未知對(duì)象為數(shù)據(jù)庫(kù)中第j個(gè)對(duì)象的概率(即第j個(gè)類(lèi))??紤]分?jǐn)?shù)為隨機(jī)變量,Pj表示在給定測(cè)量值Sj時(shí),第j個(gè)類(lèi)的分?jǐn)?shù)。通過(guò)概率密度函數(shù)計(jì)算概率:

        Pj=P(Sj=0|j)=1,j≤th∫∞jp(s-th)ds,j>th (8)在變量的說(shuō)明中,應(yīng)說(shuō)明它倆的含義。

        其中:th表示一個(gè)給定閾值,j表示條件概率的另一個(gè)條件值。

        該函數(shù)可以估計(jì)數(shù)據(jù)庫(kù)中所有類(lèi)的概率,根據(jù)每個(gè)對(duì)象正確分類(lèi)的分?jǐn)?shù),對(duì)影響量的每個(gè)值,比較觀察分布和期望分布(如指數(shù)分布和正態(tài)分布等)。

        2)分類(lèi)列表由概率值大于第2個(gè)閾值的所有類(lèi)組成。一般地,該閾值影響本文方法的敏感性和選擇性;較高的閾值增加了選擇性但使敏感性增大,反之亦然,因此,必須合理權(quán)衡。

        3)類(lèi)列表中的所有類(lèi)的概率用于計(jì)算歸一化因子K,定義如下:

        K=∑jPj;對(duì)所有Pj>TH(9)

        屬于列表的每種類(lèi)的置信度定義為概率Pj與K的比值:

        CLj=Pj/K(10)

        3實(shí)驗(yàn)結(jié)果

        3.1硬件設(shè)置

        立體視覺(jué)系統(tǒng)框架由兩個(gè)AVT Pike F145B(索尼2/3″ 1388×1038 CCD逐行掃描傳感器)像機(jī)組成,像機(jī)垂直對(duì)齊且位于人臉前面,像機(jī)間角度為45°,如圖6所示。圖像采集系統(tǒng)也安裝有第三個(gè)像機(jī)(像機(jī)0,如圖6所示),該像機(jī)能采集正臉圖像,本文中僅使用像機(jī)1(Cam 1)和像機(jī)2(Cam 2)。

        像機(jī)安裝有焦距為25mm的鏡頭且通過(guò)火線IEEE1394連接計(jì)算機(jī)和像機(jī)。采集系統(tǒng)允許獲取近似300×400mm的視野范圍,足夠獲取距離采集系統(tǒng)1000mm距離的人臉圖像。對(duì)250張人臉進(jìn)行了實(shí)驗(yàn)。校對(duì)時(shí)提出一個(gè)問(wèn)題,即“對(duì)多少?gòu)埲四樳M(jìn)行的實(shí)驗(yàn)”?請(qǐng)明確。

        3.2實(shí)驗(yàn)結(jié)果與分析

        為了評(píng)價(jià)本文方法性能,將本文方法與其他方法進(jìn)行比較,us的觀察均值曲線如圖7所示,從圖7可以看出,隨著圖像不確定因素的增加,曲線逐漸下降,且對(duì)于比較高的不確定性,曲線接近于0,因此很難定義一個(gè)合理的區(qū)分閾值。接下來(lái),論證獲取的閾值性能最佳。

        當(dāng)us=0,閾值等于觀察曲線最小值(閾值TH=0.25),獲取的數(shù)據(jù)集由117×45對(duì)圖像組成(9種不同強(qiáng)度的運(yùn)動(dòng)模糊,24級(jí)散焦,12勒克斯光照強(qiáng)度)。表2所示為不確定性分布和在整個(gè)數(shù)據(jù)庫(kù)上估計(jì)的us的相對(duì)頻率直方圖,該分布說(shuō)明了本文方法很好地覆蓋了期望的幅度和頻率。

        對(duì)于閾值TH,一種合理的實(shí)驗(yàn)方法是權(quán)衡敏感性和選擇性,本文已經(jīng)分析了實(shí)際接受率(True Acceptance Rate, TAR)和錯(cuò)誤接受率(False Acceptance Rate, FAR)對(duì)TH的趨勢(shì)和受試者的特征曲線。

        3個(gè)評(píng)估標(biāo)準(zhǔn)[15]說(shuō)明如下。

        正確分類(lèi)分類(lèi)列表包含CL等于1的正確類(lèi),或分類(lèi)列表有更多的對(duì)象,這些對(duì)象存在最高分?jǐn)?shù)值,即如果正確類(lèi)存在最小分?jǐn)?shù)且值低于閾值(0.25)。

        誤檢對(duì)象位于訓(xùn)練數(shù)據(jù)庫(kù)但是分類(lèi)列表為空,沒(méi)有類(lèi)的分?jǐn)?shù)值低于閾值。

        錯(cuò)誤分類(lèi)分類(lèi)中存在許多類(lèi)沒(méi)有正確分類(lèi),或如果正確類(lèi)沒(méi)有最高CL值,錯(cuò)誤類(lèi)存在最小分?jǐn)?shù)且值小于閾值(0.25)。

        表3給出了3種方法的實(shí)驗(yàn)比較結(jié)果,值得一提,這里只比較類(lèi)似的人臉識(shí)別方法,即文獻(xiàn)[7]和文獻(xiàn)[8]方法,它們均是不確定性的相關(guān)方法。實(shí)驗(yàn)結(jié)果表明本文方法可以使帶有較高CL值的正確類(lèi)位于分類(lèi)列表頂端,能恢復(fù)幾乎誤檢的類(lèi)別,準(zhǔn)確分類(lèi)率超過(guò)97%,不確定性達(dá)到0.1;對(duì)于其他方法,甚至存在不確定性為0.01時(shí),正確率低于80%此處是否應(yīng)該為“低于”?請(qǐng)明確。,當(dāng)存在高不確定性時(shí),文獻(xiàn)[7]和文獻(xiàn)[8]的準(zhǔn)確率低于25%。整個(gè)數(shù)據(jù)庫(kù)表明本文算法性能優(yōu)越,

        從表3很容易看到:本文方法識(shí)別率

        此處是“識(shí)別率”,而后面比較的是“正確率”,不太一致,正確率是否應(yīng)該為正確檢測(cè)率,也請(qǐng)明確。另外,這些正確率從表3中如何看出的?

        回復(fù):其實(shí)識(shí)別率是用1-漏檢率,跟正確檢測(cè)率不是一個(gè)關(guān)系,為了不引起歧義,我將其改為:

        從表3很容易看到:本文方法的正確檢測(cè)率為93%,漏檢率為6%。文獻(xiàn)[7]方法正確檢測(cè)率和漏檢率分別為81%和15%。文獻(xiàn)[8]正確檢測(cè)率和漏檢率分別為84%和15%。因此,本文方法正確檢測(cè)率提高了10%左右,漏檢率提高了9%。

        關(guān)于編輯的另外一個(gè)問(wèn)題,這些數(shù)值怎么看出來(lái)的。可以從表3的最后一列看出。正確檢測(cè)率是正確分類(lèi)的數(shù)量與總數(shù)量的比例。漏檢率是棄權(quán)數(shù)量與總數(shù)量的比例。而本文方法的正確分類(lèi)數(shù)量是本文方法欄中的第一行和第二行。再看最后一列就是86+7.

        為94%,誤檢率6%;文獻(xiàn)[7]方法正確率和誤檢率分別為80%和20%;文獻(xiàn)[8]方法正確率和誤檢率分別為85%和15%,因此,本文方法正確檢測(cè)率提高了10%左右,誤檢率至少降低了9%。

        從表3很容易看到:本文方法的正確檢測(cè)率為93%,漏檢率為6%。文獻(xiàn)[7]方法正確檢測(cè)率和漏檢率分別為81%和15%。文獻(xiàn)[8]正確檢測(cè)率和漏檢率分別為84%和15%。因此,本文方法正確檢測(cè)率提高了10%左右,漏檢率提高了9%。

        4結(jié)語(yǔ)

        本文提出了一種基于不確定性的3D人臉識(shí)別方法,其中,測(cè)量過(guò)程中的不確定性用于估計(jì)輸出結(jié)果的可信度,將分類(lèi)系統(tǒng)的輸出與每個(gè)輸入對(duì)象的可信度相關(guān)聯(lián)。實(shí)驗(yàn)結(jié)果表明,提出的方法在正確率、錯(cuò)誤決策率和漏檢率此處的提法,與前面的表述不太一致?是否需要統(tǒng)一?請(qǐng)明確。另外,描述方法的優(yōu)勢(shì)存在表達(dá)問(wèn)題,即“正確率”應(yīng)該是越大越好,而“錯(cuò)誤決策率和漏檢率”應(yīng)該越小越好吧?不應(yīng)該越大吧?即不應(yīng)該高于類(lèi)似算法吧?請(qǐng)明確。方面明顯高于類(lèi)似方法。

        提出的方法正確檢測(cè)率明顯高于類(lèi)似方法,且漏檢率更低。

        從用戶(hù)角度看,不確定性的極限值可以作為提高識(shí)別決策準(zhǔn)確性的改進(jìn)方向,這也是未來(lái)研究的重點(diǎn)。

        參考文獻(xiàn):

        [1]

        RAJU A S, UDAYASHANKARA V. Biometric person authentication: a review [C]// Proceedings of the 2014 International Conference on Contemporary Computing and Informatics. Piscataway, NJ: IEEE, 2014: 575-580.

        [2]

        鄧劍勛,熊忠陽(yáng),曾代敏.基于EMD的融合特征快速多示例人臉識(shí)別算法[J].四川大學(xué)學(xué)報(bào)(工程科學(xué)版),2012,44(2):99-104.(DENG J X, XIONG Z Y, ZENG D M. Face recognition based on improved fast EMDMIL framework and information fusion [J]. Journal of Sichuan University (Engineering Science Edition), 2012, 44(2): 99-104.)

        [3]

        張祥德,張大為,唐青松,等.仿生算法與主成分分析相融合的人臉識(shí)別方法[J].東北大學(xué)學(xué)報(bào):自然科學(xué)版,2009,30(7):972-975.(ZHANG X D, ZHANG D W, TANG Q S, et al. Face recognition algorithm integrating bionic algorithm with principal component analysis [J]. Journal of Northeastern University (Natural Science), 2009, 30(7): 972-975.)

        [4]

        曹潔,吳迪,李偉.基于鑒別能力分析和LDALPP算法的人臉識(shí)別[J].吉林大學(xué)學(xué)報(bào)(工學(xué)版),2012,42(6):1527-1531.(CAO J, WU D, LI W. Face recognition based on discrimination power analysis and LDALPP algorithm[J]. Journal of Jilin University (Engineering and Technology Edition), 2012, 42(6): 1527-1531.)

        [5]

        柴智,劉正光.應(yīng)用復(fù)小波和獨(dú)立成分分析的人臉識(shí)別[J].計(jì)算機(jī)應(yīng)用,2010,30(7):1863-1866.(CHAI Z, LIU Z G. Face recognition using complex wavelet and independent component analysis [J]. Journal of Computer Applications, 2010, 30(7): 1863-1866.)

        [6]

        嚴(yán)慧,金忠,楊靜宇.非負(fù)二維主成分分析及在人臉識(shí)別中的應(yīng)用[J].模式識(shí)別與人工智能,2009,22(6):809-814.(YAN H, JIN Z, YANG J Y. Nonnegative twodimensional principal component analysis and its application to face recognition [J]. Pattern Recognition and Artificial Intelligence, 2009, 22(6): 809-814.)

        [7]

        ZHANG D, WANG Q G, YU L, et al. Fuzzymodelbased fault detection for a class of nonlinear systems with networked measurements [J]. IEEE Transactions on Instrumentation & Measurement, 2013, 62(12): 3148-3159.

        [8]

        BETTA G, CAPRIGLIONE D, CORVINO M, et al. Face based recognition algorithms: a first step toward a metrological characterization [J]. IEEE Transactions on Instrumentation & Measurement, 2013, 62(5): 1008-1016.

        [9]

        孔英會(huì),張少明.多級(jí)FFD配準(zhǔn)視頻人臉超分辨率重建[J].光電工程,2012,39(10):46-53.(KONG Y H, ZHANG S M. Video Face superresolution reconstruction based on multilevel FFD registration [J]. OptoElectronic Engineering, 2012, 39(10): 46-53.)

        [10]

        WIJAYA I G P S, UCHIMURA K, KOUTAKI G. Multipose face recognition using fusion of scale invariant features [C]// Proceedings of the 2011 2nd International Congress on Computer Applications and Computational Science. Berlin: Springer, 2012: 207-213.

        [11]

        張淑軍,王高峰,石峰.基于AAM提取幾何特征的人臉識(shí)別算法[J].系統(tǒng)仿真學(xué)報(bào),2013,25(10):126-131.(ZHANG S J, WANG G F, SHI F. Face recognition algorithm based on geometric characteristics extracted by AAM [J]. Journal of System Simulation, 2013, 25(10): 126-131.)

        [12]

        ZHOU Y H, ZHENG D W, LIAO X H. Wavelet analysis of interannual LOD, AAM, and ENSO: 1997—98 El Nio and 1998—99 La Nia signals [J]. Journal of Geodesy, 2001, 75(2/3): 164-168.

        [13]

        李?yuàn)檴?基于PCA的實(shí)時(shí)人臉識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D].北京:北京郵電大學(xué),2012.(LI S S. Design and implementation of real time face recognition system based on PCA [D]. Beijing: Beijing University of Posts and Telecommunications, 2012.)

        [14]

        JESPER K. The Guide to expression of uncertainty in measurement approach for estimating uncertainty: an appraisal [J]. Clinical Chemistry, 2003, 49(11): 1822-1829.

        [15]

        EMAMBAKHSH M, GAO J, EVANS A. Noise modelling for denoising and threedimensional face recognition algorithms performance evaluation [J]. IET Computer Vision, 2015, 9(5): 741-749.

        猜你喜歡
        人臉識(shí)別人臉不確定性
        法律的兩種不確定性
        法律方法(2022年2期)2022-10-20 06:41:56
        人臉識(shí)別 等
        有特點(diǎn)的人臉
        揭開(kāi)人臉識(shí)別的神秘面紗
        英鎊或繼續(xù)面臨不確定性風(fēng)險(xiǎn)
        三國(guó)漫——人臉解鎖
        具有不可測(cè)動(dòng)態(tài)不確定性非線性系統(tǒng)的控制
        基于類(lèi)獨(dú)立核稀疏表示的魯棒人臉識(shí)別
        馬面部與人臉相似度驚人
        長(zhǎng)得象人臉的十種動(dòng)物
        奇聞怪事(2014年5期)2014-05-13 21:43:01
        国产欧美日韩在线观看| 国产精品亚洲精品一区二区| 少妇下面好爽好紧好湿一区二区| 欧美成人aaa片一区国产精品| 成人小说亚洲一区二区三区| 性一交一乱一伦一视频一二三区| 蜜桃av一区二区三区| 东北女人一级内射黄片| 久久精品无码一区二区三区免费| 亚洲国产精品一区二区第四页 | 艳妇乳肉豪妇荡乳av无码福利| 国产欧美亚洲另类第一页| 人妻av在线一区二区三区| 曰韩内射六十七十老熟女影视| 在线不卡av片免费观看| 国产人成无码视频在线| 91九色国产在线观看| 超级乱淫片国语对白免费视频| 乱人伦人妻中文字幕无码| 中文人成影院| 久久精品亚洲成在人线av| 亚洲国产果冻传媒av在线观看| 国产亚洲精品aaaaaaa片| 青草蜜桃视频在线观看| 久久精品国产亚洲av四区| 精品久久久bbbb人妻| 精品少妇人妻av免费久久久| 欧美亚洲另类 丝袜综合网| 美艳善良的丝袜高跟美腿| 一本色道久久综合无码人妻| 亚洲制服中文字幕第一区| 日韩成精品视频在线观看| 精品高朝久久久久9999| 性欧美暴力猛交69hd| 国产91在线精品福利| 情av一区二区三区在线观看| 乱色精品无码一区二区国产盗| 国产AV无码专区久久精品网站| 日本岛国一区二区三区| 韩国av一区二区三区不卡| 精产国品一二三产区m553麻豆|