亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        位置正則的支持向量域描述在人臉識(shí)別中的應(yīng)用研究

        2017-06-29 12:00:34曾青松
        關(guān)鍵詞:人臉識(shí)別數(shù)據(jù)庫(kù)方法

        熊 昕 曾青松

        1(廣州番禺職業(yè)技術(shù)學(xué)院教育技術(shù)與信息中心 廣東 廣州 511483)2(廣州番禺職業(yè)技術(shù)學(xué)院信息工程學(xué)院 廣東 廣州 511483)

        位置正則的支持向量域描述在人臉識(shí)別中的應(yīng)用研究

        熊 昕1曾青松2*

        1(廣州番禺職業(yè)技術(shù)學(xué)院教育技術(shù)與信息中心 廣東 廣州 511483)2(廣州番禺職業(yè)技術(shù)學(xué)院信息工程學(xué)院 廣東 廣州 511483)

        支持向量域描述是一種有效的一分類(lèi)數(shù)據(jù)描述方法,能夠有效地對(duì)單一類(lèi)別的數(shù)據(jù)進(jìn)行表達(dá),并能有效地降低負(fù)樣本的干擾。應(yīng)用支持向量域描述方法,將人臉圖像集合投影到高維特征空間構(gòu)建描述特征空間中人臉圖像的超球體,并定義兩個(gè)超球體之間的相似性度量,應(yīng)用最近鄰分類(lèi)器進(jìn)行分類(lèi)。在基于集合的人臉識(shí)別應(yīng)用標(biāo)準(zhǔn)數(shù)據(jù)庫(kù)上測(cè)試了該方法,在Honda/UCSD、CMU Mobo和YouTube數(shù)據(jù)分別取得100%、97.55%和59.78%的識(shí)別率。實(shí)驗(yàn)結(jié)果表明,該方法是一種有效的基于圖像集匹配的人臉識(shí)別方法。

        支持向量域描述 人臉識(shí)別 模式識(shí)別 集合匹配

        0 引 言

        近年來(lái),在人臉識(shí)別領(lǐng)域中,隨著數(shù)字監(jiān)控系統(tǒng)的普及視頻采集技術(shù)的提高,人們能夠方便地采集到更多的數(shù)據(jù)樣本,研究人員轉(zhuǎn)向關(guān)注以圖像集為研究對(duì)象的識(shí)別方法[1-2]。由于光照、遮擋等因素的影響,視頻監(jiān)控系統(tǒng)的數(shù)據(jù)源一般經(jīng)過(guò)壓縮,獲取到的圖像的分辨率和清晰度都比較低。但是在監(jiān)控環(huán)境中,人們可以獲取更多的圖像,這些圖像能夠從不同角度提供有助于鑒別分析的信息,最終提高識(shí)別的精度。

        與傳統(tǒng)的方法相比,基于集合的識(shí)別方法把整個(gè)圖像集合當(dāng)作一個(gè)整體,建立相應(yīng)的數(shù)學(xué)模型。這一類(lèi)方法需要解決如何提取人臉的特征,建立相應(yīng)的數(shù)學(xué)模型,設(shè)計(jì)兩個(gè)模型之間的相似性的度量方法等一系列的問(wèn)題。一般可以對(duì)圖像集合張成的子空間建模,將圖像集投影到低維線性子空間,計(jì)算子空間之間的主夾角,用典型相關(guān)作為相似性的度量[3]?;蛘哂?jì)算圖像集合的張成的仿射子空間,使用兩個(gè)仿射包中最近鄰點(diǎn)之間的幾何距離來(lái)度量集合之間的相似性[4],在這個(gè)基礎(chǔ)上,Hu等人引入稀疏表達(dá)的通過(guò)仿射包對(duì)圖像集合建模,運(yùn)用最近鄰點(diǎn)來(lái)度量?jī)蓚€(gè)仿射包之間的相似性[5]。

        一般可以把一個(gè)子空間理解成成格拉斯曼流形上的一個(gè)點(diǎn),通過(guò)核函數(shù)將流形上的特征映射到歐式空間,然后在新的空間中學(xué)習(xí)一個(gè)分類(lèi)器。比較流行的方法是使用核函數(shù)將歐式空間的特征投影到再生核希爾伯特空間,核Fisher鑒別分析中應(yīng)用格拉斯曼核進(jìn)行鑒別分析[6]?;蛘邔⒚恳粋€(gè)圖像集合當(dāng)成構(gòu)成格拉斯曼流形的子空間,組合使用投影核和典型相關(guān)核進(jìn)行鑒別分析[7]。

        流形學(xué)習(xí)是一種非線性降維方法。流形能夠有效刻畫(huà)樣本數(shù)據(jù)的本質(zhì)結(jié)構(gòu),并提供一種結(jié)構(gòu)緊致的表示[8]。這一類(lèi)方法,使用流形來(lái)刻畫(huà)一個(gè)圖像集合,比較兩個(gè)流形的相似性。作為一種子空間的相似性的度量方法,主夾角方法可以有效地捕捉兩個(gè)子空間之間的公共的數(shù)據(jù)變化模式[9],通過(guò)主夾角度量?jī)蓚€(gè)子空間或者流行上兩個(gè)局部線性模型之間的距離[3,10],通過(guò)多流形學(xué)習(xí)解決有監(jiān)督的流形間距離計(jì)算問(wèn)題[11]。

        支持向量域描述SVDD(Support Vector Domain Description)是一種基于支持向量機(jī)學(xué)習(xí)的方法[16-17]。它用一個(gè)包含大部分正例樣本的超球表示一個(gè)集合。本文使用支持向量域描述方法建立數(shù)據(jù)集合進(jìn)行的數(shù)據(jù)域描述模型,并通過(guò)對(duì)不同位置的樣本賦予不同權(quán)來(lái)進(jìn)一步提高了數(shù)據(jù)域的描述能力,并將該方法應(yīng)用到基于集合的人臉識(shí)別中。

        1 支持向量域描述

        數(shù)據(jù)域描述的主要任務(wù)是學(xué)習(xí)數(shù)據(jù)集的有效描述,使得該描述能夠有效地覆蓋數(shù)據(jù)空間的正樣本點(diǎn)同時(shí)排除數(shù)據(jù)空間的負(fù)樣本點(diǎn)。而作為識(shí)別用途的數(shù)據(jù)域描述,構(gòu)建的模型還要能夠方便、有效地區(qū)分不同類(lèi)別的樣本[18-19]。

        1.1 支持向量域描述

        支持向量域描述是一個(gè)球狀的數(shù)據(jù)域描述方法,通過(guò)一個(gè)非線性映射函數(shù)將數(shù)據(jù)集從原始數(shù)據(jù)空間投影到高維核空間,構(gòu)建一個(gè)僅僅依賴(lài)于少數(shù)支持向量的非常精確的數(shù)據(jù)域描述,尋找一個(gè)能夠圍住大部分樣本的最小閉球來(lái)表示整個(gè)數(shù)據(jù)集。

        給定一個(gè)包含N個(gè)樣本的數(shù)據(jù)集,X={xi∈RD|i=1,2,…,N}及一個(gè)從原始數(shù)據(jù)空間投影到高斯核空間的非線性映射φ,我們需要學(xué)習(xí)一個(gè)核空間上圍住大部分的映射樣本點(diǎn)的最小超球體。采用超球中心μ以及球的半徑R表示超球體,?ξi≥0,在滿足約束條件:

        ‖φ(xi)-μ‖2≤R2+ξi

        (1)

        的前提下,最小化目標(biāo)函數(shù):

        (2)

        其中‖·‖表示歐式距離,μ、R分別表示超球體的球心和半徑,ξi≥0是使得允許邊界存在的松弛變量,平衡參數(shù)C控制對(duì)噪聲點(diǎn)的懲罰,權(quán)衡了超球體的體積與數(shù)據(jù)域描述的精度。由拉格朗日法則,我們有:

        (3)

        (4)

        核半徑函數(shù)定義為:

        R(x)=‖φ(x)-μ‖=

        (5)

        理想的情況下,所有的SV都應(yīng)該具有相同的半徑。由于數(shù)值誤差的存在,可能會(huì)有輕微的不同。一般超球體的半徑可以定義所有樣本點(diǎn)的核半徑的最大值:

        (6)

        數(shù)據(jù)集的數(shù)據(jù)域描述定義為原始的空間中,{x|R(x)=R}的這些樣本點(diǎn)的輪廓線。圖1給出一個(gè)標(biāo)準(zhǔn)測(cè)試集的特征空間中的超球體的示意圖,所有的邊界向量連接在一起構(gòu)成超球體的球面,少量的位于球面外部的點(diǎn)可以理解成負(fù)樣本點(diǎn)。

        圖1 特征空間的超球示意圖

        1.2 位置正則的支持向量域描述

        式(2)描述的模型嚴(yán)重依賴(lài)于參數(shù)C。這個(gè)參數(shù)決定了超球體的大小,影響到超球體表面樣本的分布。

        在核空間,如果樣本點(diǎn)離樣本集合中心的距離越遠(yuǎn),它們成為離群點(diǎn)的可能性就越大,在原始輸入空間該樣本與其它樣本越遠(yuǎn)。因此可以賦予一個(gè)與樣本位置相關(guān)的權(quán)重來(lái)描述孤立程度?;谏鲜龇治?,通過(guò)對(duì)不同位置的樣本賦予不同權(quán)來(lái)代替目標(biāo)函數(shù)中的參數(shù)C,進(jìn)一步提高了數(shù)據(jù)域的描述能力[20]。為計(jì)算公式基于位置的權(quán)重參數(shù),首先通過(guò)式(7)計(jì)算一個(gè)核距離矩陣:D=[Dl|l=1,2,…,N]。

        (7)

        接著,權(quán)重wi可以定義為:

        (8)

        (9)

        ?i=1,2,…,N在滿足約束條件式(1)的前提下,最小化超球的半徑:

        (10)

        與式(2)描述的目標(biāo)函數(shù)不同的是,式(10)中,每個(gè)權(quán)重Wi分別正則化對(duì)應(yīng)的樣本點(diǎn)xi成為奇異點(diǎn)的可能性。權(quán)重Wi越小,則松弛變量ξi越大。而松弛變量ξi則直接對(duì)應(yīng)于產(chǎn)生超球體軟邊界和邊界支持向量。

        2 圖像集建模

        2.1 圖像集的數(shù)據(jù)域描述

        本文直接使用圖像的灰度值作為特征,每一張圖通過(guò)列拼接得到一個(gè)向量表示一個(gè)圖像的特征,多張圖像組合在一起構(gòu)成一個(gè)矩陣,作為圖像集合的輸入空間。

        設(shè)SV和BSV分別表示支持向量和邊界向量的集合,圖像集合可以表達(dá)為D(μ,R,R(x))={SV,BSV,μ,R(x)}。其中核半徑函數(shù)R(x)在式(5)中定義,半徑R在式(6)中定義。

        2.2 相似性度量

        (11)

        式(11)中球心的距離通過(guò)式(12)計(jì)算:

        (12)

        3 實(shí)驗(yàn)設(shè)置與結(jié)果分析

        本節(jié)我們討論在HondaUCSD視頻數(shù)據(jù)庫(kù)、CMUMoBo數(shù)據(jù)庫(kù)[22]和YouTube視頻數(shù)據(jù)庫(kù)[23]上進(jìn)行基于集合的人臉識(shí)別實(shí)驗(yàn)。實(shí)驗(yàn)計(jì)算機(jī)配置為:Intel(R)Xeon(R)E7-4807雙1.87GHzCPU(2×6核),64GB內(nèi)存,安裝WindowsServer2008R2,程序使用MATLAB2013編寫(xiě)。

        3.1 數(shù)據(jù)集

        Honda/UCSD數(shù)據(jù)集是人臉識(shí)別領(lǐng)域的基準(zhǔn)數(shù)據(jù)集,它一共包含19個(gè)人的59段視頻。這個(gè)數(shù)據(jù)庫(kù)的所有視頻是在室內(nèi)光照條件受到控制的條件下錄制的,視頻相對(duì)比較清晰。每個(gè)視頻片段內(nèi)只有一個(gè)人,包含該人的不同姿態(tài)和表情的變化。每段視頻長(zhǎng)度大約300~500幀,被分割成多個(gè)視頻小片段,用于構(gòu)建訓(xùn)練和驗(yàn)證集合。實(shí)驗(yàn)使用Viola[24]算法逐幀檢測(cè)出人臉區(qū)域。如圖2所示,檢測(cè)到的人臉圖像都接近正面人像。

        圖2 Honda/UCSD數(shù)據(jù)庫(kù)人臉示意圖

        CMUMoBo數(shù)據(jù)庫(kù)最初是為了研究遠(yuǎn)距離人的身份識(shí)別問(wèn)題而收集的[22]。每一個(gè)人包含4種不同的走路的方式,這些視頻是室內(nèi)固定位置攝像機(jī)拍攝的。本文使用它的一個(gè)子集,包含96個(gè)視頻序列,24種不同的主題,每一個(gè)序列包含大約300幀。

        YouTube數(shù)據(jù)庫(kù)是收集來(lái)自于YouTube網(wǎng)站的一些公開(kāi)視頻片段,共計(jì)47個(gè)人的1 910段視頻,每個(gè)人的視頻片段分為3個(gè)小節(jié),每一個(gè)小節(jié)對(duì)應(yīng)不同的采集時(shí)間與場(chǎng)景。這個(gè)數(shù)據(jù)庫(kù)包含大范圍的姿態(tài)、光照和表情變化,本文使用對(duì)象跟蹤算法,提取相應(yīng)的人臉圖像[25]。由于視頻的清晰度不高,部分視頻中包含超過(guò)1個(gè)人的頭像,盡管我們采用了對(duì)象跟蹤方法獲取人臉圖像,但是實(shí)驗(yàn)中發(fā)現(xiàn)有人像跟丟和錯(cuò)誤跟蹤的問(wèn)題,導(dǎo)致視頻中有部分的人像不完整甚至是錯(cuò)誤的。

        圖3 YouTube數(shù)據(jù)庫(kù)人臉跟蹤的結(jié)果

        3.2 比較的方法和設(shè)置

        實(shí)驗(yàn)以原始論文公開(kāi)的代碼為基礎(chǔ),檢測(cè)到的人臉圖像經(jīng)過(guò)簡(jiǎn)單的直方圖均衡化處理之外,按照列堆疊成行向量。Honda/UCSD和YouTube數(shù)據(jù)庫(kù)使用灰度特征,CMUMoBo數(shù)據(jù)庫(kù)使用LBP特征[26]。實(shí)驗(yàn)中,算法的具體參數(shù)設(shè)置如下:互子空間方法MSM[3]、流形-流形距離MMD[10]和圖像集稀疏最近鄰逼近SANP[5]算法使用PCA降維,保留95%的能量。MMD算法采用原文相同的參數(shù)設(shè)置:歐式距離與幾何距離比值設(shè)置為2.0,使用最大典型相關(guān)計(jì)算距離,鄰域大小設(shè)置為12。格拉斯曼流形鑒別分析GDA[6]算法采用投影核,格拉斯曼流形上圖嵌入鑒別分析GGDA[7]算法實(shí)現(xiàn)了最簡(jiǎn)單的二分圖結(jié)構(gòu),使用最大典型相關(guān)計(jì)算核函數(shù),鄰域參數(shù)k設(shè)置為2。

        本文的方法,首先建立數(shù)據(jù)庫(kù)中每個(gè)集合的數(shù)據(jù)域描述模型Di(i=1,2,…)。測(cè)試階段,先計(jì)算查詢(xún)圖像集合的數(shù)據(jù)域描述模型Q,然后應(yīng)用式(11)計(jì)算其與數(shù)據(jù)庫(kù)中的每一個(gè)模型之間的距離,應(yīng)用最近鄰分類(lèi)器進(jìn)行分類(lèi)。

        3.3 實(shí)驗(yàn)結(jié)果與分析

        表1 報(bào)告了Honda/UCSD、CMUMoBo和YouTube數(shù)據(jù)庫(kù)上5次隨機(jī)實(shí)驗(yàn)的平均識(shí)別率(RR)、方差(STD)和平均計(jì)算時(shí)間(秒)。在Honda/UCSD和CMUMoBo數(shù)據(jù)庫(kù)上,本文提出的方法取得了最好的識(shí)別結(jié)果。YouTube數(shù)據(jù)庫(kù)的視頻質(zhì)量比較差,帶有一定程度的噪聲污染,根據(jù)實(shí)驗(yàn)設(shè)定,對(duì)象跟蹤的結(jié)果中含有部分噪聲點(diǎn),這些噪聲點(diǎn)被描述成超球體的外點(diǎn),有效地降低其對(duì)識(shí)別結(jié)果的影響。

        從表1的實(shí)驗(yàn)結(jié)果分析,所有算法在YouTube這個(gè)數(shù)據(jù)庫(kù)上取得的結(jié)果都比較差,但是本文提出的方法取得的結(jié)果相對(duì)好于其它的算法。雖然本文的方法比SANP方法識(shí)別率要低,但是計(jì)算速度比SANP方法快了近100倍。

        4 結(jié) 語(yǔ)

        圖像集匹配是模式識(shí)別領(lǐng)域研究的熱點(diǎn)問(wèn)題之一。雖然現(xiàn)在有若干較有效的圖像集匹配方法,但是由于多視角、多光照變化等復(fù)雜環(huán)境所導(dǎo)致的多局部模型分布下的無(wú)監(jiān)督圖像集匹配問(wèn)題仍然是一個(gè)具有挑戰(zhàn)性的問(wèn)題。支持向量域描述不僅對(duì)一類(lèi)數(shù)據(jù)具有很好的描述能力,而且在例外點(diǎn)檢測(cè)和降噪方面表現(xiàn)非常優(yōu)秀。本文擴(kuò)展了SVDD,借助位置正則的方法,對(duì)特征空間中樣本動(dòng)態(tài)加權(quán),提高SVDD對(duì)數(shù)據(jù)集合的表達(dá)能力,有效地解決了全局單一平衡參數(shù)所帶來(lái)的問(wèn)題。

        [1] Barr J R, Bowyer K W, Flynn P J, et al. Face recognition from video: A review[J]. International Journal of Pattern Recognition and Artificial Intelligence, World Scientific, 2012,26(05).

        [2] 嚴(yán)嚴(yán), 章毓晉. 基于視頻的人臉識(shí)別研究進(jìn)展[J].計(jì)算機(jī)學(xué)報(bào),2009,32(5):878-886.

        [3] Yamaguchi O, Fukui K, Maeda K. Face Recognition Using Temporal Image Sequence[C]//3rd International Conference on Face & Gesture Recognition. Nara, Japan: IEEE Computer Society, 1998:318-323.

        [4] Yang M, Zhu P, Gool L J Van, et al. Face recognition based on regularized nearest points between image sets[C]//10th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition, FG 2013. Shanghai, China: IEEE, 2013:1-7.

        [5] Hu Y, Mian A S, Owens R. Face recognition using sparse approximated nearest points between image sets[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2012,34(10):1992-2004.

        [6] Hamm J, Lee D D. Grassmann discriminant analysis: a unifying view on subspace-based learning[C]//Proceedings of the 25th International Conference on Machine Learning. Helsinki, Finland: ACM, 2008:376-383.

        [7] Harandi M T, Sanderson C, Shirazi S, et al. Graph embedding discriminant analysis on Grassmannian manifolds for improved image set matching[C]//IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2011:2705-2712.

        [8] 王瑞平. 流形學(xué)習(xí)方法及其在人臉識(shí)別中的應(yīng)用研究[D]. 北京: 中國(guó)科學(xué)院研究生院,2010.

        [9] Kim T K, Arandjelovi? O, Cipolla R. Boosted manifold principal angles for image set-based recognition[J]. Pattern Recognition,2007,40(9):2475-2484.

        [10] Wang R, Shan S, Chen X, et al. Manifold-Manifold Distance with application to face recognition based on image set[C]//2008 IEEE Conference on Computer Vision and Pattern Recognition,2008:1-8.

        [11] Wang R, Shan S, Chen X, et al. Manifold-Manifold Distance and its Application to Face Recognition With Image Sets[J]. IEEE Transactions on Image Processing, 2012,21(10):4466-4479.

        [12] Jayasumana S, Hartley R, Salzmann M, et al. Kernel Methods on the Riemannian Manifold of Symmetric Positive Definite Matrices[C]//2013 IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2013:73-80.

        [13] 曾青松. 黎曼流形上的保局投影在圖像集匹配中的應(yīng)用[J]. 中國(guó)圖象圖形學(xué)報(bào),2014,19(3):414-420.

        [14] Wang R, Guo H, Davis L S, et al. Covariance discriminative learning: A natural and efficient approach to image set classification[C]//Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on,2012:2496-2503.

        [15] 詹增榮, 曾青松. 基于協(xié)方差矩陣表示的圖像集匹配[J]. 湖南師范大學(xué)自然科學(xué)學(xué)報(bào),2015,38(4):74-79.

        [16] Tax D M J, Duin R P W. Data domain description using support vectors[C]//Esann 1999, European Symposium on Artificial Neural Networks, Bruges, Belgium, April 21-23, 1999, Proceedings,1999:251-256.

        [17] Ben-Hur A, Horn D, Siegelmann H T, et al. Support Vector Clustering[J]. Journal of Machine Learning Research, 2002,2(2):125-137.

        [18] 曾青松. 基于支持向量域描述的圖像集匹配[J]. 模式識(shí)別與人工智能,2014,8(8):735-740.

        [19] Zeng Q S, Lai J H, Wang C D. Multi-local model image set matching based on domain description[J].Pattern Recognition,2014,47(2):694-704.

        [20] Wang C D, Lai J H. Position regularized Support Vector Domain Description[J]. Pattern Recognition,2013,46(3):875-884.

        [21] Wang C D, Lai J H, Huang D, et al. SVStream: A Support Vector-Based Algorithm for Clustering Data Streams[J].IEEE Transactions on Knowledge & Data Engineering,2013,25(6):1410-1424.

        [22] Gross R, Shi J. The CMU Motion of Body (MoBo) Database[R].Pittsburgh, PA, 2001(CMU-RI-TR-01-18).

        [23] Kim M, Kumar S, Pavlovic V, et al. Face tracking and recognition with visual constraints in real-world videos[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2008). Anchorage, Alaska, USA: IEEE Computer Society, 2008.

        [24] Viola P, Jones M J. Robust real-time face detection[J]. International Journal of Computer Vision, Springer, 2004,57(2):137-154.

        [25] Ross D A, Lim J, Yang M-H. Adaptive Probabilistic Visual Tracking with Incremental Subspace Update[C]//Computer Vision-ECCV 2004, 8th European Conference on Computer Vision. Prague, Czech Republic: Springer, 2004:470-482.

        [26] Chan C H, Tahir M A, Kittler J, et al. Multiscale local phase quantization for robust component-based face recognition using kernel fusion of multiple descriptors[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(5):1164-1177.

        APPLICATION OF POSITIONAL REGULAR SUPPORT VECTOR DOMAINS IN FACE RECOGNITION

        Xiong Xin1Zeng Qingsong2*

        1(EducationalTechnologyandInformationCenter,GuangzhouPanyuPolytechnic,Guangzhou511483,Guangdong,China)2(SchoolofInformationandTechnology,GuangzhouPanyuPolytechnic,Guangzhou511483,Guangdong,China)

        Support vector domain description is an effective method to describe a single class of data, and can effectively reduce the interference of negative samples. In this paper, the support vector domain description method is used to construct a hypersphere that describes the face image in the feature space by projecting the face image set into the high-dimensional feature space. And the similarity measure between two hyperspheres is defined and classified by nearest neighbor classifier. This method was tested on the standard database of face recognition based on collection. The recognition rate of Honda/UCSD, CMU Mobo and YouTube data were 100%, 97.55% and 59.78% respectively. Experimental results show that the proposed method is an effective method for face recognition based on image set matching.

        Support vector domain description Face recognition Pattern recognition Set matching

        2016-04-25。廣東省自然科學(xué)基金項(xiàng)目(2015A030313807)。熊昕,實(shí)驗(yàn)師,主研領(lǐng)域:模式識(shí)別。曾青松,副教授。

        TP391.4

        A

        10.3969/j.issn.1000-386x.2017.05.029

        猜你喜歡
        人臉識(shí)別數(shù)據(jù)庫(kù)方法
        人臉識(shí)別 等
        揭開(kāi)人臉識(shí)別的神秘面紗
        數(shù)據(jù)庫(kù)
        可能是方法不對(duì)
        數(shù)據(jù)庫(kù)
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        數(shù)據(jù)庫(kù)
        數(shù)據(jù)庫(kù)
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        基于類(lèi)獨(dú)立核稀疏表示的魯棒人臉識(shí)別
        91在线在线啪永久地址| 亚洲av天堂免费在线观看| 无码a级毛片免费视频内谢| 国产精品美女久久久久| 国产成人精品三级在线影院| 国产一级一厂片内射视频播放| 亚洲一区二区三区蜜桃| 曰本无码人妻丰满熟妇啪啪| 亚洲综合网在线观看首页| 亚洲av天堂久久精品| 日韩三级一区二区不卡| 果冻传媒2021精品一区| 麻豆精品网站国产乱子伦| av有码在线一区二区| av中文字幕一区不卡| 免费99精品国产自在在线| 亚洲tv精品一区二区三区| 久久久噜噜噜噜久久熟女m| 欧美性猛交aaaa片黑人| 亚洲午夜福利在线观看| 国产成人亚洲精品2020| 国产一区二区三区的区| 免费无码高潮流白浆视频| 久久中文字幕av一区二区不卡 | a级黑人大硬长爽猛出猛进| 国产成人精品视频网站| 久久亚洲中文字幕精品熟| 丰满人妻一区二区三区视频53| 国产欧美精品一区二区三区–老狼 | 91国内偷拍精品对白| 超碰97人人射妻| 精品国产一区二区三区久久久狼| 国产精品亚洲av国产| 日韩有码中文字幕在线观看| 男人激烈吮乳吃奶视频免费| 中文字幕大屁股熟女乱| 国产精品中文字幕日韩精品| 领导边摸边吃奶边做爽在线观看| 国产精品国产三级国av| 91精品人妻一区二区三区蜜臀| 日本人妻伦理在线播放|