亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于CNN與SVM結(jié)合的融合特征人臉識(shí)別研究

        2020-06-08 01:55:13梁晴晴
        現(xiàn)代信息科技 2020年19期
        關(guān)鍵詞:特征融合支持向量機(jī)卷積神經(jīng)網(wǎng)絡(luò)

        摘? 要:針對(duì)目前人臉識(shí)別在樣本量、魯棒性等方面所受的局限,提出一種基于CNN和SVM的人臉識(shí)別模型。通過構(gòu)建CNN模型進(jìn)行訓(xùn)練,對(duì)原始圖像提取來自CNN不同深度的特征圖,并將其進(jìn)行加權(quán)融合。將融合后的特征作為最終特征輸入SVM多分類器進(jìn)行分類。實(shí)驗(yàn)結(jié)果顯示,對(duì)于小樣本數(shù)據(jù)集以及面部遮擋、光照變化數(shù)據(jù)集,特征的融合對(duì)模型精度提升明顯,且與傳統(tǒng)模型比較本方法識(shí)別精度更高。

        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);支持向量機(jī);特征融合;人臉識(shí)別

        Abstract:In view of the limitations of face recognition in terms of sample size and robustness,a face recognition model based on CNN and SVM is proposed. By constructing CNN model for training,feature maps from different depths of CNN are extracted from the original image,and weighted fusion is performed. The fused features are input into SVM multi classifier as final features for classification. The experimental results show that for small sample data sets,face occlusion and illumination change data sets,the fusion of features can significantly improve the accuracy of the model,and the recognition accuracy of this method is higher than that of the traditional model.

        Keywords:convolution neural network;support vector machine;feature fusion;face recognition

        0? 引? 言

        人臉識(shí)別通過人的臉部特征信息進(jìn)行身份識(shí)別,其作為生物特征識(shí)別的一個(gè)重要方面,有著識(shí)別友好,特征易得等特點(diǎn)。正因?yàn)槿四樧R(shí)別獨(dú)有的特性,使得它在刑事偵查、身份驗(yàn)證、視頻監(jiān)控等許多方面都有著廣泛的應(yīng)用。

        國(guó)內(nèi)外學(xué)者提出的人臉識(shí)別算法也頗多。李潤(rùn)青[1]提出一種改進(jìn)的2D2DPCA與SVM相結(jié)合的人臉識(shí)別分類方法,有效減少運(yùn)算量和訓(xùn)練時(shí)長(zhǎng),同時(shí)減低光照對(duì)識(shí)別的影響。張偉[2]等提出一種基于Gabor小波和LBPH算法的實(shí)時(shí)人臉識(shí)別算法,基于ARM平臺(tái)實(shí)現(xiàn)人臉識(shí)別系統(tǒng)。任飛凱[3]提出了結(jié)合LBP和數(shù)據(jù)擴(kuò)充的LECNN方法,有效地提高了CNN人臉識(shí)別的準(zhǔn)確率。谷歌[4]提出基于深度神經(jīng)網(wǎng)絡(luò)的FaceNet,直接學(xué)習(xí)從原始圖像到歐式距離空間的映射,將歐式空間里的距離度量與人臉相似度對(duì)應(yīng)。

        近年來,隨著深度學(xué)習(xí)的發(fā)展,越來越多的深度學(xué)習(xí)技術(shù)[5-9],特別是CNN被更多的應(yīng)用在人臉識(shí)別中。相較于傳統(tǒng)技術(shù),深度學(xué)習(xí)學(xué)習(xí)能力強(qiáng),泛化能力好,但也存在對(duì)樣本量要求大,易過擬合等問題。

        因此,作者提出一種基于CNN和SVM的人臉識(shí)別算法,將CNN強(qiáng)大的學(xué)習(xí)能力與SVM多分類器對(duì)小樣本的適用性相結(jié)合,為本校未來在人臉識(shí)別方面的應(yīng)用提供參考。通過深層卷積神經(jīng)網(wǎng)絡(luò)提取人臉特征,將網(wǎng)絡(luò)不同深度提取的特征融合,使特征在高度抽象的同時(shí)兼顧底層細(xì)節(jié)信息,增加分類特征包含的信息量。最后使用更適合小樣本分類的SVM算法進(jìn)行分類。

        1? 基于CNN和SVM的融合特征人臉識(shí)別算法框架

        研究表明,大型的深層神經(jīng)網(wǎng)絡(luò),具有較強(qiáng)的學(xué)習(xí)能力,對(duì)于圖像分類具有較大優(yōu)勢(shì)。但對(duì)小樣本圖像數(shù)據(jù)使用深層神經(jīng)網(wǎng)絡(luò)容易出現(xiàn)過擬合、泛化能力弱等問題。而SVM是一類按監(jiān)督學(xué)習(xí)方式對(duì)數(shù)據(jù)進(jìn)行分類的廣義線性分類器,有較強(qiáng)的泛化能力,且更適用于小樣本集。為了提升對(duì)小樣本人臉數(shù)據(jù)的分類精度,本文將CNN與SVM結(jié)合。CNN的不同層所包含的信息不同,低層包含細(xì)節(jié)信息,高層含有抽象的類別信息[10,11]。網(wǎng)絡(luò)主要分為三部分,首先,構(gòu)建CNN,訓(xùn)練網(wǎng)絡(luò)提取圖像特征。其次,將不同深度的特征融合作為最終的分類特征。最后,將分類特征輸入SVM進(jìn)行人臉識(shí)別。

        1.1? 特征提取網(wǎng)絡(luò)

        為了更好地提取人臉圖像的特征,構(gòu)建包含6個(gè)卷積層、3個(gè)池化層、3個(gè)全連接層的CNN。以提取ORL人臉數(shù)據(jù)集特征為例,網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。

        1.1.1? 前向傳播

        對(duì)CNN進(jìn)行權(quán)值的初始化,輸入圖像依次經(jīng)過卷積層、池化層、全連接層向前傳播得到最終的輸出值。以O(shè)RL人臉數(shù)據(jù)集特征提取網(wǎng)絡(luò)為例,本文定義網(wǎng)絡(luò)的輸入大小為64×64×3,卷積層C1和卷積層C2的卷積核大小為3×3,卷積步長(zhǎng)為1,經(jīng)過兩層卷積得到64個(gè)64×64的人臉特征圖,卷積后使用ReLU激活函數(shù)。之后進(jìn)入池化層P1,使用2×2大小的滑動(dòng)窗口,步長(zhǎng)為2對(duì)特征圖進(jìn)行最大池化操作,對(duì)特征降維得到64個(gè)32×32的特征。經(jīng)過同上相同結(jié)構(gòu)的三部分后,得到256個(gè)8×8的特征圖。將特征圖打平成一維向量輸入全連接層,向量經(jīng)過三個(gè)全連接層,最終得到一個(gè)40維的特征向量。

        1.1.2? 反向傳播

        對(duì)包含N個(gè)人,共n張人臉圖像的樣本集使用交叉熵?fù)p失函數(shù)計(jì)算誤差,其中,tki為樣本k屬于類別i的概率,yki為CNN對(duì)樣本k預(yù)測(cè)為類別i的概率,交叉熵?fù)p失函數(shù)表達(dá)式為:

        本文通過Adam優(yōu)化算法對(duì)CNN參數(shù)進(jìn)行更新。Adam優(yōu)化算法是一種一階優(yōu)化算法,收斂速度快,訓(xùn)練高效,能根據(jù)數(shù)據(jù)迭代地更新神經(jīng)網(wǎng)絡(luò)參數(shù)。定義待優(yōu)化參數(shù)為w,目標(biāo)函數(shù)為f(w),初始學(xué)習(xí)率為α。迭代優(yōu)化過程中,在第s個(gè)epoch中計(jì)算目標(biāo)函數(shù)對(duì)當(dāng)前參數(shù)的梯度gs=▽f(ws)。根據(jù)歷史梯度計(jì)算一階和二階動(dòng)量,一階動(dòng)量為:

        1.2? 特征融合

        1.2.1? 單層特征合并

        運(yùn)用1.1節(jié)中的CNN進(jìn)行訓(xùn)練,在得到較高準(zhǔn)確率后,保存CNN模型,利用訓(xùn)練好的模型學(xué)習(xí)人臉特征。本文選取池化層P2和P3層作為子特征層。其中P3是除全連接層之外的最高層,包含高度抽象的類別信息,而P2處于卷積神經(jīng)網(wǎng)絡(luò)的中間層,相較于P3屬于低層,包含人臉圖像的細(xì)節(jié)信息。

        首先,將人臉圖像輸入訓(xùn)練好的CNN模型當(dāng)中,分別獲取P2層和P3層的特征。其中P2層包含128個(gè)16×16的特征圖,P3層包含256個(gè)8×8的特征圖。

        隨后分別對(duì)來自不同深度的特征進(jìn)行降維。將來自P2層的維度為16×16×128的特征圖進(jìn)行縱向合并,轉(zhuǎn)換為16×16×1的特征圖FP2。將來自P3層的維度為8×8×256的特征圖進(jìn)行縱向合并,轉(zhuǎn)換為8×8×1的特征圖FP3。合并方式為:

        其中,F(xiàn)k為合并后的特征圖,k=P2或P3。fi為第i個(gè)通道的特征圖。z為通道總數(shù),處理P2層特征時(shí)z=128,處理P3層特征時(shí)z=256。

        1.2.2? P2層和P3層的特征融合

        為了使合并后的P2層特征FP2和P3層特征FP3進(jìn)行融合,需要將特征大小進(jìn)行歸一化。本文選擇將P3層的特征圖從8×8轉(zhuǎn)換為16×16。常見的圖像歸一化方法包括最近鄰插值法、線性插值法、區(qū)域插值法。其中,最近鄰插值法效果較好且計(jì)算簡(jiǎn)便,因此本文選取最近鄰插值法對(duì)特征尺寸進(jìn)行歸一化。

        將P3層特征圖FP3大小表示為Fh×FW,目標(biāo)圖像的大小為Th×TW,高度和寬度的縮放比例分別為hr=Fh/Th和Wr=FW/TW。目標(biāo)人臉圖像(X,Y)處的像素值就等于原圖像中(X×Wr,Y×hr)處的值。將圖像在原圖基礎(chǔ)上擴(kuò)大二倍,最近鄰插值法的效果如圖1所示。

        對(duì)合并后的P2層特征FP2和P3層特征FP3進(jìn)行尺寸歸一化后,F(xiàn)P2和FP3的尺寸都變成了16×16的一維矩陣。將來自不同深度的特征結(jié)合,保留高層高度抽象的類別信息與低層的細(xì)節(jié)信息,有助于提升分類的精度。因此將FP2和FP3進(jìn)行加權(quán)融合,形成最終的特征,公式如下:

        1.3? SVM分類

        研究表明,SVM具有穩(wěn)健性和稀疏性,分類效果好,且適用于小樣本。因此在對(duì)特征進(jìn)行融合后,為了提升模型對(duì)于小樣本的泛化能力,取得更好的分類效果,選擇用SVM分類器對(duì)特征進(jìn)行分類。

        SVM屬于監(jiān)督學(xué)習(xí)方法,其決策邊界是對(duì)樣本數(shù)據(jù)求解的最大邊距超平面。SVM最初僅用于二分類問題,當(dāng)處理多分類問題時(shí)需要構(gòu)造合適的多分類器。構(gòu)造SVM多分類器的方法包括一對(duì)多法和一對(duì)一法。一對(duì)多法在訓(xùn)練時(shí)依次將某類樣本歸為一類,其余樣本歸為一類。當(dāng)有l(wèi)個(gè)類別的樣本時(shí),共構(gòu)造出l個(gè)SVM。分類時(shí)將未知類別信息的樣本劃分為具有最大分類函數(shù)值的類別。一對(duì)一法是在任意兩個(gè)類別之間設(shè)計(jì)一個(gè)SVM分類器,對(duì)于l個(gè)類別的樣本需要設(shè)計(jì)l(l-1)/2個(gè)SVM分類器。分類時(shí)將未知類別信息的樣本劃分到得票最多的類別,這里采用一對(duì)一法實(shí)現(xiàn)SVM多分類。

        在選擇適當(dāng)?shù)哪P蛥?shù)后,將1.2節(jié)中得到的特征F輸入到SVM多分類器中進(jìn)行分類,得出最終的人臉識(shí)別結(jié)果。

        2? 實(shí)驗(yàn)與結(jié)果分析

        2.1? 實(shí)驗(yàn)環(huán)境與目的

        本實(shí)驗(yàn)環(huán)境為Intel(R) Core(TM) i5-6200U CPU @ 2.30 GHz處理器,8 GB運(yùn)行內(nèi)存。編程環(huán)境為Python 3.7,深度學(xué)習(xí)基于TensorFlow 2.0框架。分別在ORL人臉數(shù)據(jù)集和Cropped AR人臉數(shù)據(jù)集上驗(yàn)證本文方法的有效性。

        ORL人臉數(shù)據(jù)集中包含40人的人臉圖像,包括男性和女性,每人10張圖像,共400張。圖像大小為64×64。本文對(duì)ORL人臉數(shù)據(jù)集進(jìn)行歸一化處理,并對(duì)圖像設(shè)置數(shù)字分類標(biāo)簽,標(biāo)簽范圍為0至39。如圖2所示,同一個(gè)人的人臉圖像有表情和角度的變化。通過此數(shù)據(jù)集評(píng)估本文方法對(duì)小樣本集的適應(yīng)性。

        Cropped AR人臉數(shù)據(jù)集中共包含1 300張人臉圖像。其中有50個(gè)不同人的人臉圖像,每人26張圖像。包含在不同光照、不同表情、不同面部遮擋的下的圖像,如圖3所示,由于光照、面部表情以及面部遮擋的影響,使得Cropped AR人臉數(shù)據(jù)集的識(shí)別難度比ORL人臉數(shù)據(jù)集更大。因此,通過此數(shù)據(jù)集評(píng)估本文方法對(duì)不同光照、表情、面部遮擋的魯棒性。

        分別通過對(duì)比兩個(gè)數(shù)據(jù)集在CNN模型、CNN+SVM模型、特征融合的CNN+SVM上的分類效果,探究模型融合對(duì)分類效果的影響以及特征融合對(duì)模型分類效果的影響。同時(shí)將本文模型與其他人臉識(shí)別模型對(duì)比,證實(shí)本文模型的有效性。

        2.2? 實(shí)驗(yàn)流程

        2.2.1? ORL人臉數(shù)據(jù)集實(shí)驗(yàn)流程

        將ORL人臉數(shù)據(jù)集中的400張圖像按照7:3的比例分割為訓(xùn)練集和測(cè)試集,其中訓(xùn)練集280張圖像,測(cè)試集120張圖像。

        訓(xùn)練階段,將訓(xùn)練集人臉圖像輸入到本文構(gòu)建的CNN模型中,設(shè)置batch size為40,epochs為100,對(duì)CNN進(jìn)行訓(xùn)練并保存,特征提取網(wǎng)絡(luò)的驗(yàn)證集準(zhǔn)確率隨epochs變化的曲線如圖4所示。

        利用訓(xùn)練好的CNN模型提取訓(xùn)練集圖像在其不同深度的特征FP2和FP3。通過最近鄰插值法將FP2和FP3的尺寸進(jìn)行歸一化后,將兩個(gè)特征進(jìn)行加權(quán)融合,作為最終的分類特征。經(jīng)實(shí)驗(yàn)證明,當(dāng)加權(quán)系數(shù)a=0.7時(shí),特征融合效果最好。之后將訓(xùn)練集的最終分類特征輸入SVM多分類器進(jìn)行訓(xùn)練,將此模型用于最終分類。其中采用一對(duì)一方法實(shí)現(xiàn)SVM多分類,核函數(shù)為線性核函數(shù),目標(biāo)函數(shù)的懲罰系數(shù)C為0.9。

        測(cè)試階段,將測(cè)試集輸入保存好的CNN中提取特征。利用與測(cè)試集相同的方法得到融合特征,輸入訓(xùn)練好的SVM多分類器得出分類結(jié)果,并與訓(xùn)練集的真實(shí)標(biāo)簽對(duì)比得出準(zhǔn)確率。

        將訓(xùn)練集人臉圖像輸入到本文構(gòu)建的CNN模型中,對(duì)CNN進(jìn)行訓(xùn)練并保存。通過訓(xùn)練好的CNN提取測(cè)試集和訓(xùn)練集人臉圖像在其不同深度的特征FP2和FP3。通過最近鄰插值法將FP2和FP3的尺寸進(jìn)行歸一化后,將兩個(gè)特征進(jìn)行加權(quán)融合,作為最終的分類特征。

        利用訓(xùn)練集得到的融合特征完成對(duì)SVM多分類器的訓(xùn)練,其中SVM分類器采用一對(duì)一法,核函數(shù)為線性核函數(shù),目標(biāo)函數(shù)的懲罰系數(shù)C為0.9。將測(cè)試集得到的融合特征輸入SVM分類器,將預(yù)測(cè)結(jié)果與圖像的真實(shí)標(biāo)簽對(duì)比得出最終的分類準(zhǔn)確率。

        2.2.2? Cropped AR人臉數(shù)據(jù)集實(shí)驗(yàn)流程

        將Cropped AR數(shù)據(jù)集中的1 300張圖像按照7:3的比例分割為訓(xùn)練集和測(cè)試集,其中訓(xùn)練集910張圖像,測(cè)試集390張圖像。

        訓(xùn)練階段,將人臉圖像輸入到構(gòu)建好的特征提取網(wǎng)絡(luò),由于Cropped AR數(shù)據(jù)集的數(shù)據(jù)量更大,因此在每個(gè)MaxPooling層之前加上batch normalization層,加速網(wǎng)絡(luò)訓(xùn)練。設(shè)置batch size為32,epochs為30,對(duì)CNN進(jìn)行訓(xùn)練并保存,特征提取網(wǎng)絡(luò)的驗(yàn)證集準(zhǔn)確率隨epochs變化的曲線如圖5所示。

        剩余實(shí)驗(yàn)流程同ORL人臉數(shù)據(jù)集實(shí)驗(yàn)流程。

        2.3? 實(shí)驗(yàn)結(jié)果分析

        2.3.1? ORL人臉數(shù)據(jù)集實(shí)驗(yàn)結(jié)果分析

        2.3.1.1? 特征融合的有效性實(shí)驗(yàn)

        在ORL人臉數(shù)據(jù)集上,將基礎(chǔ)的CNN+SVM分類模型與輸入融合特征的CNN+SVM分類模型作對(duì)比,探究特征融合對(duì)模型分類的提升效果,實(shí)驗(yàn)結(jié)果如表2所示。

        從實(shí)驗(yàn)結(jié)果可以看到,對(duì)于ORL人臉數(shù)據(jù)集,特征融合對(duì)模型分類精度的提升顯著。基礎(chǔ)CNN+SVM模型的輸入特征是未經(jīng)融合的特征。從CNN中不同深度的提取出的特征具有不同的特性,深層特征更加抽象,具有更抽象的類別信息,而淺層特征更加具象,具有更多的細(xì)節(jié)信息。因此,在經(jīng)過特征融合后,分類特征將包含更多有用的分類信息,有助于提升分類精度。

        2.3.1.2? 與其他模型的效果對(duì)比實(shí)驗(yàn)

        將本文模型與其他現(xiàn)有人臉識(shí)別方法進(jìn)行對(duì)比,探究本文方法的有效性,實(shí)驗(yàn)結(jié)果如表3所示。

        根據(jù)實(shí)驗(yàn)結(jié)果發(fā)現(xiàn),與目前一些現(xiàn)有的人臉識(shí)別方法相比,本文模型在ORL人臉數(shù)據(jù)集上的識(shí)別率更高,說明分類模型建立效果良好??梢姡疚哪P蛯?duì)小樣本人臉數(shù)據(jù)效果較好。

        2.3.2? Cropped AR人臉數(shù)據(jù)集實(shí)驗(yàn)結(jié)果分析

        2.3.2.1? 特征融合的有效性實(shí)驗(yàn)

        在Cropped AR人臉數(shù)據(jù)集上,分別使用CNN+SVM分類模型、輸入融合特征的CNN+SVM分類,探究特征融合對(duì)分類效果的影響,實(shí)驗(yàn)結(jié)果如表4所示。

        從實(shí)驗(yàn)結(jié)果可以看出,對(duì)于Cropped AR人臉數(shù)據(jù)集,特征融合對(duì)于分類效果提升顯著。在對(duì)特征融合后,分類特征兼具細(xì)節(jié)信息和高度分類信息,更有利于最終的分類。

        2.3.2.2? 與其他模型的效果對(duì)比實(shí)驗(yàn)

        將本文方法與其他人臉識(shí)別方法在Cropped AR人臉數(shù)據(jù)集的分類效果作對(duì)比,實(shí)驗(yàn)結(jié)果如表5所示。

        與目前的主流人臉識(shí)別算法比較,本文的準(zhǔn)確率更高。因此,在面對(duì)光照不同、面部姿態(tài)不同、存在面部遮擋的人臉數(shù)據(jù)集時(shí),本文方法依然具有魯棒性,能降低光照、姿態(tài)以及面部遮擋的影響,獲得較高的準(zhǔn)確率。

        3? 結(jié)? 論

        構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)模型將CNN的學(xué)習(xí)力與SVM對(duì)小樣本的適用性結(jié)合。首先,使用CNN對(duì)原始人臉圖像進(jìn)行特征提取,將來CNN不同深度的特征進(jìn)行提取并加權(quán)融合,最終使用SVM分類器進(jìn)行分類。將淺層特征的細(xì)節(jié)信息與深層特征的抽象類別信息結(jié)合,提升了分類精度,證實(shí)了特征融合的有效性。通過在小樣本人臉數(shù)據(jù)集以及有光照、面部表情、面部遮擋變化的人臉數(shù)據(jù)集上的實(shí)驗(yàn)驗(yàn)證模型,實(shí)驗(yàn)結(jié)果表明,本文方法在處理人臉圖像分類問題上取得了較好的效果。

        參考文獻(xiàn):

        [1] 李潤(rùn)青.基于PCA改進(jìn)與SVM相結(jié)合的人臉識(shí)別算法研究 [D].昆明:昆明理工大學(xué),2018.

        [2] 張偉,程剛,何剛,等.基于Gabor小波和LBPH的實(shí)時(shí)人臉識(shí)別系統(tǒng) [J].計(jì)算機(jī)技術(shù)與發(fā)展,2019,29(3):47-50.

        [3] 任飛凱.基于卷積神經(jīng)網(wǎng)絡(luò)人臉識(shí)別研究與實(shí)現(xiàn) [D].南京:南京郵電大學(xué),2019.

        [4] SCHROFF F,KALENICHENKO D,PHILBIN J. FaceNet:A unified embedding for face recognition and clustering [C]//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition,IEEE,2015:815-823.

        [5] 黃振文,謝凱,文暢,等.遷移學(xué)習(xí)模型下的小樣本人臉識(shí)別算法 [J].長(zhǎng)江大學(xué)學(xué)報(bào)(自然科學(xué)版),2019,16(7):88-94.

        [6] 章東平,陳思瑤,李建超,等.基于改進(jìn)型加性余弦間隔損失函數(shù)的深度學(xué)習(xí)人臉識(shí)別 [J].傳感技術(shù)學(xué)報(bào),2019,32(12):1830-1835.

        [7] SIMONYAN K,ZISSERMAN A. Very Deep Convolutional Networks for Large-Scale Image Recognition [J].Computer Science,2014,66(11):1556-1568.

        [8] JIN X,TIAN X Y.Face alignment in-the-wild:A Survey [J].Computer Vision and Image Understanding,2017(162):1-22.

        [9] GLOROT X,BORDES A,BENGIO Y. Deep Sparse Rectifier Neural Networks [C]//Proceedings of the 14th International Conference on Artificial Intelligence and Statistics,2011:315-323.

        [10] 尹紅,符祥,曾接賢,等.選擇性卷積特征融合的花卉圖像分類 [J].中國(guó)圖象圖形學(xué)報(bào),2019,24(5):762-772.

        [11] 翁雨辰,田野,路敦民,等.深度區(qū)域網(wǎng)絡(luò)方法的細(xì)粒度圖像分類 [J].中國(guó)圖象圖形學(xué)報(bào),2017,22(11):1521-1531.

        作者簡(jiǎn)介:梁晴晴(1997.10—),女,漢族,河南鄭州人,碩士研究生,研究方向:調(diào)查與大數(shù)據(jù)分析。

        猜你喜歡
        特征融合支持向量機(jī)卷積神經(jīng)網(wǎng)絡(luò)
        基于移動(dòng)端的樹木葉片識(shí)別方法的研究
        科技資訊(2017年11期)2017-06-09 18:28:13
        基于SIFT特征的港口內(nèi)艦船檢測(cè)方法
        融合整體與局部特征的車輛型號(hào)識(shí)別方法
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
        動(dòng)態(tài)場(chǎng)景中的視覺目標(biāo)識(shí)別方法分析
        論提高裝備故障預(yù)測(cè)準(zhǔn)確度的方法途徑
        基于熵技術(shù)的公共事業(yè)費(fèi)最優(yōu)組合預(yù)測(cè)
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于支持向量機(jī)的金融數(shù)據(jù)分析研究
        国产丰满老熟女重口对白| 在线一区二区三区国产精品| 国产超碰人人做人人爽av大片 | 亚洲成a v人片在线观看| 无码国产精品一区二区免| 激情亚洲综合熟女婷婷| 国产剧情av麻豆香蕉精品| 色先锋av影音先锋在线| 丰满多毛少妇做爰视频| 亚洲精品国产福利在线观看| 谷原希美中文字幕在线| 亚洲av综合av成人小说| 精品国产高清a毛片无毒不卡 | 精品亚洲a∨无码一区二区三区| 曝光无码有码视频专区| 国产伦精品一区二区三区四区| 亚洲中文字幕一二区精品自拍| 脱了老师内裤猛烈进入| 中文字幕无码av激情不卡| 日本a在线天堂| 亚州av高清不卡一区二区 | 伊人狼人大香线蕉手机视频| 亚洲av男人电影天堂热app| 亚洲av无码精品色午夜蛋壳| 国产精品亚洲综合天堂夜夜| 日韩一区二区三区熟女| 亚洲成av人片在www| av中文字幕不卡无码| 国产免费99久久精品| 狠狠躁天天躁无码中文字幕图| 成av人片一区二区三区久久| 91中文人妻丝袜乱一区三区| 人妻少妇av中文字幕乱码| 国产午夜精品一区二区| 亚洲AⅤ无码日韩AV中文AV伦| 国产成人av一区二区三| 国产无遮挡又黄又爽高潮| 久久久久无码精品亚洲日韩| 九色精品国产亚洲av麻豆一| 亚洲国产av自拍一区| 日本丰满人妻xxxxxhd|