亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)VGG-16和樸素貝葉斯的手寫數(shù)字識(shí)別

        2020-06-19 07:51:31王梅李東旭
        現(xiàn)代電子技術(shù) 2020年12期
        關(guān)鍵詞:手寫降維貝葉斯

        王梅 李東旭

        摘 ?要: 為了解決手寫數(shù)字識(shí)別困難和準(zhǔn)確率問(wèn)題,提出基于改進(jìn)VGG?16和樸素貝葉斯的手寫數(shù)字識(shí)別,主要通過(guò)歸一化和雙線性插值對(duì)圖像進(jìn)行預(yù)處理,然后通過(guò)改進(jìn)的VGG?16網(wǎng)絡(luò)框架對(duì)圖像進(jìn)行特征提取和特征融合,通過(guò)LDA方法進(jìn)行數(shù)據(jù)降維,最后通過(guò)樸素貝葉斯分類器進(jìn)行分類。在MNIST數(shù)據(jù)集中進(jìn)行實(shí)驗(yàn),獲得了99.36%的準(zhǔn)確率。實(shí)驗(yàn)結(jié)果驗(yàn)證了卷積神經(jīng)網(wǎng)絡(luò)與樸素貝葉斯結(jié)合后可以有效地提高識(shí)別準(zhǔn)確率。

        關(guān)鍵詞: 手寫數(shù)字識(shí)別; VGG?16網(wǎng)絡(luò); 樸素貝葉斯分類器; 圖像預(yù)處理; 特征提取; 數(shù)據(jù)降維

        中圖分類號(hào): TN919?34; TP391.41 ? ? ? ? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼: A ? ? ? ? ? ? ? ? ? ? ?文章編號(hào): 1004?373X(2020)12?0176?06

        Abstract: The handwritten digit recognition based on naive Bayes and improved VGG?16 is proposed to improve the difficult recognition and low accuracy in handwritten digital recognition. The images preprocessing are performed by means of the normalization and bilinear interpolation, and then the improved VGG?16 network framework is used to extract and fuse the features of the preprocessed images; the data dimension reduction is carried out by means of the LDA method, and then the data classification is conducted by means of the naive Bayesian classifier. The experiments were conducted in MNIST, yielding an accuracy of 99.36%. The experimental results prove that the convolution neural network combined with naive Bayes can effectively improve the recognition accuracy.

        Keywords: Handwritten numeral recognition; VGG?16 network; naive Bayes classifier; images preprocessing; feature extraction; data dimension reduction

        0 ?引 ?言

        數(shù)字識(shí)別一直是計(jì)算機(jī)視覺(jué)與深度學(xué)習(xí)領(lǐng)域研究的熱點(diǎn)問(wèn)題。在財(cái)務(wù)處理、金融管理、車牌識(shí)別、郵政編碼識(shí)別和無(wú)人駕駛等領(lǐng)域應(yīng)用廣泛。然而對(duì)于手寫數(shù)字,人工的手寫數(shù)字筆體不一,導(dǎo)致圖像本身的復(fù)雜性和不確定性,使識(shí)別更加困難。例如,日常生活中郵政編碼識(shí)別時(shí),微小的錯(cuò)誤可能導(dǎo)致巨大損失。

        傳統(tǒng)的方法都存在特征提取不充分導(dǎo)致準(zhǔn)確率不高的問(wèn)題,如模板匹配法、統(tǒng)計(jì)決策法、句法結(jié)構(gòu)法、模糊判別法、邏輯推理法和神經(jīng)網(wǎng)絡(luò)法等[1?5]。因此,解決手寫數(shù)字圖像識(shí)別的關(guān)鍵在于特征提取,其直接影響最后分類器的識(shí)別準(zhǔn)確率。部分學(xué)者為了對(duì)特征進(jìn)行高效的提取來(lái)提高準(zhǔn)確率,提出的文獻(xiàn)[6]基于旋轉(zhuǎn)投影統(tǒng)計(jì)特征的手寫數(shù)字識(shí)別方法通過(guò)抽取數(shù)字的輪廓和骨架來(lái)提取幾何特征,文獻(xiàn)[7]中基于貝葉斯網(wǎng)絡(luò)的手寫數(shù)字識(shí)別的研究與應(yīng)用以及文獻(xiàn)[8]中基于主成分分析法及貝葉斯分類器的手寫數(shù)字識(shí)別,雖然在原有的基礎(chǔ)上提高了準(zhǔn)確率,但是未考慮特征是否提取充分,準(zhǔn)確率依舊不足的問(wèn)題。

        近年來(lái),針對(duì)這一問(wèn)題,文獻(xiàn)[9]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的聯(lián)機(jī)手寫漢字識(shí)別系統(tǒng),文獻(xiàn)[10]提出的基于卷積神經(jīng)網(wǎng)絡(luò)的藏文手寫數(shù)字識(shí)別,都是通過(guò)卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像進(jìn)行充分的提取特征,但是存在提取特征不充分,并未把握淺層特征和深層特征之間的關(guān)系。在此基礎(chǔ)上,部分學(xué)者研究采取特征融合型卷積神經(jīng)網(wǎng)絡(luò)[11],還有部分學(xué)者則是采用傳統(tǒng)的機(jī)器學(xué)習(xí)算法與之結(jié)合的方法,如基于KNN的卷積神經(jīng)網(wǎng)絡(luò)[12],還有學(xué)者則是基于深度卷積自編碼神經(jīng)網(wǎng)絡(luò)的手寫數(shù)字識(shí)別研究也取得不錯(cuò)的成果[13]。

        在此啟發(fā)下,本文提出樸素貝葉斯[14?16]和卷積特征相結(jié)合的方法,在VGG?16網(wǎng)絡(luò)框架下加上一個(gè)分支來(lái)融合淺層特征和深層特征,并在此基礎(chǔ)上為了使網(wǎng)絡(luò)能夠加快學(xué)習(xí)的速度,將采用交叉熵代價(jià)函數(shù)[17],針對(duì)網(wǎng)絡(luò)可能出現(xiàn)的過(guò)擬合問(wèn)題,采用dropout[18]的方法來(lái)減少過(guò)擬合。為保持?jǐn)?shù)據(jù)之間原有的特征聯(lián)系,采用LDA[19]進(jìn)行數(shù)據(jù)降維。最后通過(guò)樸素貝葉斯分類器做分類,在MNIST數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。驗(yàn)證結(jié)果表明,該方法解決了傳統(tǒng)方法的特征提取困難和提取特征不充分等問(wèn)題,并提高了準(zhǔn)確率。

        1 ?相關(guān)工作

        1.1 ?改進(jìn)VGG?16網(wǎng)絡(luò)

        在傳統(tǒng)VGG?16的網(wǎng)絡(luò)上加上一個(gè)分支,利用這個(gè)分支網(wǎng)絡(luò)實(shí)現(xiàn)淺層特征與深層特征的融合,更好地體現(xiàn)出它們之間的聯(lián)系,進(jìn)而有效地提高了識(shí)別準(zhǔn)確率。

        1.1.1 ?卷積層

        2 ?算法設(shè)計(jì)

        2.1 ?算法框架

        本文提出基于改進(jìn)VGG?16和樸素貝葉斯的手寫數(shù)字識(shí)別的主要思想是通過(guò)雙線性插值和歸一化先對(duì)圖像進(jìn)行預(yù)處理,然后經(jīng)改進(jìn)的VGG?16網(wǎng)絡(luò)框架對(duì)圖像進(jìn)行特征提取和特征融合,再采用LDA方法進(jìn)行數(shù)據(jù)降維,最后利用樸素貝葉斯分類器進(jìn)行預(yù)測(cè)分類。算法框架如圖1所示。

        由圖1可知,算法主要包括兩個(gè)階段:訓(xùn)練階段和測(cè)試階段。訓(xùn)練階段:利用訓(xùn)練數(shù)據(jù)集對(duì)改進(jìn)的VGG?16網(wǎng)絡(luò)進(jìn)行訓(xùn)練,然后用訓(xùn)練好的網(wǎng)絡(luò)對(duì)數(shù)據(jù)集中的樣本進(jìn)行特征提取,把提取后的特征圖轉(zhuǎn)換成特征向量輸入到LDA中進(jìn)行數(shù)據(jù)降維,然后把降維后的向量輸入樸素貝葉斯分類器中做最后的分類。測(cè)試階段:用測(cè)試數(shù)據(jù)集中帶識(shí)別的樣本數(shù)據(jù)進(jìn)行改進(jìn)VGG?16網(wǎng)絡(luò)的特征提取和LDA數(shù)據(jù)降維,送入樸素貝葉斯分類器得到樣本的預(yù)測(cè)類別。

        2.2 ?圖像預(yù)處理

        圖像預(yù)處理包括兩個(gè)階段:第一階段,把MNIST數(shù)據(jù)集的圖像做歸一化處理;第二階段,把歸一化后的圖像采用雙線性插值增強(qiáng)的方法對(duì)圖像進(jìn)行放大處理。

        2.2.1 ?歸一化

        本文采用的是MNIST手寫數(shù)據(jù)集作為實(shí)驗(yàn)數(shù)據(jù)。為了避免卷積時(shí)數(shù)據(jù)值過(guò)大,因此在訓(xùn)練階段之前對(duì)數(shù)據(jù)集中的圖像進(jìn)行歸一化處理,由于MNIST數(shù)據(jù)集中的手寫數(shù)字圖像其灰度值都在0~255之間,因此將圖像的原始像素都除以255,把所有像素歸一化到[0,1]之間。

        2.2.2 ?雙線性插值

        因VGG?16網(wǎng)絡(luò)需要把原有的28×28放大到224×224作為輸入,則需要通過(guò)雙線性插值的方法進(jìn)行放大處理。

        設(shè)原圖像大小是m·n,目標(biāo)圖像大小是a·b。那么兩幅圖像的邊長(zhǎng)比分別就是[ma]和[nb]。目標(biāo)圖像的第(i,j)個(gè)像素點(diǎn)(i行j列)可以通過(guò)邊長(zhǎng)比對(duì)應(yīng)回源圖像。其對(duì)應(yīng)坐標(biāo)為([i·ma],[j·nb])。顯然,這個(gè)對(duì)應(yīng)坐標(biāo)一般來(lái)說(shuō)不是整數(shù),而不是整數(shù)的坐標(biāo)是不能在圖像上使用的。因此就需要尋找對(duì)應(yīng)坐標(biāo)上最近的4個(gè)像素點(diǎn),進(jìn)而求得該點(diǎn)的值。假設(shè)未知函數(shù)f在點(diǎn)P=(x,y)的值,已知函數(shù)f在Q11=(x1,y1),Q12=(x1,y2),Q21=(x2,y1)以及Q22=(x2,y2)四個(gè)點(diǎn)的值。R1位于Q12和Q22之間,R2位于Q11和Q21之間,首先對(duì)x方向進(jìn)行線性插值,得到:

        2.3 ?網(wǎng)絡(luò)結(jié)構(gòu)

        基于改進(jìn)VGG?16和樸素貝葉斯的手寫數(shù)字識(shí)別的網(wǎng)絡(luò)結(jié)構(gòu)主要有輸入層、卷積層、池化層、特征融合分支、LDA數(shù)據(jù)降維、樸素貝葉斯分類器和輸出層。本文提出用歸一化和雙線性插值法對(duì)圖像進(jìn)行預(yù)處理,然后通過(guò)改進(jìn)的VGG?16網(wǎng)絡(luò)對(duì)圖像進(jìn)行特征提取和特征融合,再通過(guò)LDA進(jìn)行數(shù)據(jù)降維處理,最后采用樸素貝葉斯分類器分類,網(wǎng)絡(luò)的結(jié)構(gòu)如圖2所示。

        圖2所示,網(wǎng)絡(luò)主要參數(shù)設(shè)置如下:

        1) 輸入層為歸一化和插值后的224×224圖像;

        2) 第一卷積層分別用兩組64個(gè)3×3的卷積核和64個(gè)1×1卷積核對(duì)輸入層的圖像進(jìn)行卷積操作,由于用到補(bǔ)零操作,所以得到64個(gè)224×224的圖像;

        3) 第一池化層通過(guò)兩組2×2的區(qū)域?qū)せ畹奶卣鲌D執(zhí)行最大值池化,得到64個(gè)112×112的特征圖;

        4) 第二卷積層通過(guò)兩組128個(gè)3×3和128個(gè)1×1的卷積核對(duì)第一池化層中的特征圖進(jìn)行卷積操作,同樣是補(bǔ)零的操作,所以得到128個(gè)112×112的圖像;

        5) 第二池化層通過(guò)2×2的區(qū)域在對(duì)激活的特征圖執(zhí)行最大值池化,得到128個(gè)56×56的特征圖;

        6) 第三卷積層通過(guò)三次256個(gè)3×3和256個(gè)1×1的卷積核對(duì)輸入層的圖像進(jìn)行卷積操作,由于用到補(bǔ)零操作,所以得到256個(gè)56×56的圖像;

        7) 第三池化層通過(guò)2×2的區(qū)域?qū)せ畹奶卣鲌D執(zhí)行最大值池化,得到256個(gè)28×28的特征圖;

        8) 第四卷積層通過(guò)三次512個(gè)3×3和512個(gè)1×1的卷積核對(duì)輸入層的圖像進(jìn)行卷積操作,由于用到補(bǔ)零操作,所以得到512個(gè)28×28的圖像;

        9) 第四池化層通過(guò)2×2的區(qū)域?qū)せ畹奶卣鲌D執(zhí)行最大值池化,得到512個(gè)14×14的特征圖;

        10) 第五卷積層通過(guò)三次512個(gè)3×3和512個(gè)1×1的卷積核對(duì)輸入層的圖像進(jìn)行卷積操作,由于用到補(bǔ)零操作,所以得到512個(gè)14×14的圖像;

        11) 第五池化層通過(guò)2×2的區(qū)域?qū)せ畹奶卣鲌D執(zhí)行平均池化,得到512個(gè)7×7的特征圖,整合成特征向量;

        12) 在每次池化前保留上一層的特征,確保淺層特征和深層特征的融合進(jìn)而提高識(shí)別準(zhǔn)確率;

        13) 最后對(duì)均值池化進(jìn)行融合淺層特征和深層特征;

        14) 在把特征向量放入LDA中進(jìn)行數(shù)據(jù)降維;

        15) 將整合后的特征向量作為樸素貝葉斯分類器的輸入進(jìn)行分類判斷;

        16) 為了避免過(guò)擬合現(xiàn)象采用dropout來(lái)保證;

        17) 損失函數(shù)為交叉熵函數(shù)。

        3 ?實(shí)驗(yàn)結(jié)果

        本節(jié)首先介紹MNIST數(shù)據(jù)集,介紹所使用程序運(yùn)行工具,再對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行展示分析。

        3.1 ?數(shù)據(jù)集

        本文采用的是MNIST數(shù)據(jù)集,MNIST數(shù)據(jù)集包括60 000行的訓(xùn)練集和10 000行的測(cè)試數(shù)據(jù)集。MNIST數(shù)據(jù)集中部分圖像如圖3所示。

        3.2 ?卷積特征可視化

        通過(guò)導(dǎo)入訓(xùn)練好的網(wǎng)絡(luò)參數(shù)對(duì)樣本數(shù)據(jù)集進(jìn)行圖像的特征提取,本文為了更好地展示出提取的特征,對(duì)部分特征進(jìn)行可視化處理,如圖4所示。

        圖4展示了通過(guò)雙線性插值放大后的圖像224×224通過(guò)第一卷積層64個(gè)3×3的卷積核和64個(gè)1×1卷積核對(duì)圖像進(jìn)行特征提取;然后進(jìn)行相似操作,生成特征向量放入LDA中進(jìn)行數(shù)據(jù)降維;最后放入樸素貝葉斯分類器中進(jìn)行判別分類。

        3.3 ?LDA降維

        通過(guò)改進(jìn)VGG?16網(wǎng)絡(luò)提取出的特征向量是25 088維數(shù)據(jù),為降低特征維數(shù),本文采用可以保留上下文本關(guān)系的LDA降維方法進(jìn)行數(shù)據(jù)降維。為了研究特征維數(shù)貢獻(xiàn)率與準(zhǔn)確率之間的聯(lián)系,采用列舉的方式,如圖5所示。

        令[β]為特征維數(shù)貢獻(xiàn)率,由圖5可知,當(dāng)[β]的取值逐漸變大準(zhǔn)確率隨著上升,當(dāng)[β]=95%時(shí),準(zhǔn)確率達(dá)到最大值,但當(dāng)[β]繼續(xù)增加時(shí)準(zhǔn)確率反而下降,這時(shí)卷積提取的部分有用信息被LDA刪除。因此,本次實(shí)驗(yàn)中選取當(dāng)[β]=95%時(shí),特征維數(shù)為25 088降維到15 386維,降維的效果最佳且準(zhǔn)確率達(dá)到最高。

        3.4 ?對(duì)比實(shí)驗(yàn)

        本文采用VGG?16網(wǎng)絡(luò)做對(duì)比實(shí)驗(yàn),在MNIST數(shù)據(jù)集上的損失函數(shù)曲線如圖6所示,識(shí)別曲線如圖7所示,識(shí)別結(jié)果如圖8所示。

        從圖6~圖8中可以看出,在整個(gè)過(guò)程中誤差一直在減小,最終不變化,整個(gè)網(wǎng)絡(luò)達(dá)到收斂狀態(tài),訓(xùn)練集結(jié)果達(dá)到97.52%,在全部數(shù)據(jù)集上達(dá)到97.89%,達(dá)到預(yù)期目標(biāo)。

        3.5 ?實(shí)驗(yàn)結(jié)果與分析

        實(shí)驗(yàn)環(huán)境是Windows 7系統(tǒng),采用Python語(yǔ)言,神經(jīng)網(wǎng)絡(luò)的框架采用Tensorflow。實(shí)驗(yàn)中先采用改進(jìn)的VGG?16網(wǎng)絡(luò)對(duì)圖像進(jìn)行特征提取和特征融合,然后采用LDA方法進(jìn)行數(shù)據(jù)降維,再利用樸素貝葉斯分類器進(jìn)行預(yù)測(cè)分類,計(jì)算分類識(shí)別率。經(jīng)過(guò)60 000步訓(xùn)練,損失結(jié)果基本趨于穩(wěn)定,用訓(xùn)練好的網(wǎng)絡(luò)再對(duì)數(shù)據(jù)集進(jìn)行測(cè)試,結(jié)果如圖9所示。

        由圖9可知,本文提出的算法在MNSIT數(shù)據(jù)集中獲得了99.36%的成功率。為進(jìn)一步驗(yàn)證此算法的有效性和優(yōu)越性,將此方法與傳統(tǒng)的手寫識(shí)別算法在全部的樣本上進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表1所示。

        表1的實(shí)驗(yàn)結(jié)果表明,本文提出的基于改進(jìn)VGG?16和樸素貝葉斯的手寫數(shù)字識(shí)別,在MNIST數(shù)據(jù)集的分類效果好于傳統(tǒng)的分類方法。本文方法相對(duì)于文獻(xiàn)[11]方法提高3.68%,相對(duì)于文獻(xiàn)[2]方法提高1.46%,相對(duì)于文獻(xiàn)[5]提高5.1%,相對(duì)于卷積神經(jīng)網(wǎng)絡(luò)提高1.47%,相對(duì)于文獻(xiàn)[13]提高0.03%。這一結(jié)果表明,卷積神經(jīng)網(wǎng)絡(luò)與樸素貝葉斯分類器相結(jié)合可進(jìn)一步提高手寫數(shù)字識(shí)別的準(zhǔn)確率。

        4 ?結(jié) ?語(yǔ)

        當(dāng)下手寫數(shù)字識(shí)別仍是研究的熱點(diǎn)。為了充分利用圖像的淺層特征、深層特征和解決識(shí)別準(zhǔn)確率不足等問(wèn)題,本文提出基于改進(jìn)VGG?16和樸素貝葉斯的手寫數(shù)字識(shí)別,利用改進(jìn)VGG?16網(wǎng)絡(luò),做特征提取和特征融合,進(jìn)行LDA的數(shù)據(jù)降維,通過(guò)樸素貝葉斯分類器做分類。通過(guò)對(duì)MNIST手寫數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果可以驗(yàn)證,本文提出的算法不僅可以有效地解決淺層特征和深層特征之間聯(lián)系的問(wèn)題,且有效地提高準(zhǔn)確率,為手寫數(shù)字識(shí)別算法提供一種新的思路。

        參考文獻(xiàn)

        [1] QIAO J, WANG G, LI W, et al. An adaptive deep Q?learning strategy for handwritten digit recognition [J]. Neural networks, 2018(12): 107?109.

        [2] 宋曉茹,吳雪,高嵩,等.基于深度神經(jīng)網(wǎng)絡(luò)的手寫數(shù)字識(shí)別模擬研究[J].科學(xué)技術(shù)與工程,2019,19(5):193?196.

        [3] ARNALDO P C. Handwritten digit recognition [J]. Practical artificial intelligence, 2018(2): 461?478.

        [4] 陳巖,李洋洋,余樂(lè),等.基于卷積神經(jīng)網(wǎng)絡(luò)的手寫體數(shù)字識(shí)別系統(tǒng)[J].微電子學(xué)與計(jì)算機(jī),2018,35(2):71?74.

        [5] 張翼成,陳欣,楊紅軍,等.基于組合特征的BP神經(jīng)網(wǎng)絡(luò)數(shù)字識(shí)別方法[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2013,22(3):113?116.

        [6] 莊偉,雷小鋒,宋豐泰,等.基于旋轉(zhuǎn)投影統(tǒng)計(jì)特征的手寫數(shù)字識(shí)別方法[J].計(jì)算機(jī)科學(xué),2011,38(11):278?281.

        [7] 周佳敏.基于貝葉斯網(wǎng)絡(luò)的手寫數(shù)字識(shí)別的研究與應(yīng)用[J].科技視界,2013(8):27.

        [8] 尹東霞.基于主成分分析法及貝葉斯分類器的手寫數(shù)字識(shí)別[J].大眾科技,2015,17(9):39?41.

        [9] 劉欣.基于卷積神經(jīng)網(wǎng)絡(luò)的聯(lián)機(jī)手寫漢字識(shí)別系統(tǒng)[D].哈爾濱:哈爾濱工業(yè)大學(xué),2015.

        [10] 夏吾吉,色差甲,扎西吉,等.基于卷積神經(jīng)網(wǎng)絡(luò)的藏文手寫數(shù)字識(shí)別[J].現(xiàn)代電子技術(shù),2019,42(5):79?82.

        [11] 劉文斌,張樂(lè).基于KNN的卷積神經(jīng)網(wǎng)絡(luò)改進(jìn)算法[J].信息與電腦(理論版),2019(2):48?49.

        [12] JIANG L, ZHANG L, LI C, et al. A correlation?based feature weighting filter for naive Bayes [J]. IEEE transactions on knowledge and data engineering, 2019, 31(2): 201?213.

        [13] 曾文獻(xiàn),孟慶林,郭兆坤.基于深度卷積自編碼神經(jīng)網(wǎng)絡(luò)的手寫數(shù)字識(shí)別研究[J].計(jì)算機(jī)應(yīng)用研究,2020,37(4):1?4.

        [14] LIU P, ZHAO H H, TENG J Y, et al. Parallel naive Bayes algorithm for large?scale Chinese text classification based on spark [J]. Journal of Central South University, 2019, 26(1): 1?12.

        [15] 邱寧佳,高鵬,王鵬,等.基于改進(jìn)信息增益的ACO?WNB分類算法研究[J].計(jì)算機(jī)仿真,2019,36(1):295?299.

        [16] 孫玫,張森,聶培堯,等.基于樸素貝葉斯的網(wǎng)絡(luò)查詢?nèi)罩緎ession劃分方法研究[J].南京大學(xué)學(xué)報(bào)(自然科學(xué)),2018,54(6):1132?1140.

        [17] 趙舵,唐啟超,余志斌.一種采用改進(jìn)交叉熵的多目標(biāo)優(yōu)化問(wèn)題求解方法[J].西安交通大學(xué)學(xué)報(bào),2019,53(3):66?74.

        [18] GUO Y, LIU Y, OERLEMANS A, et al. Deep learning for visual understanding: a review [J]. Neurocomputing, 2016, 187: 27?48.

        [19] MAHDI G V, ZAHRA S A, MOJTABA T, et al. ?Differentiation of cumin seeds using a metal?oxide based gas sensor array in tandem with chemometric tools [J]. Talanta, 2018(4): 176.

        [20] 閆河,王鵬,董鶯艷,等.改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)圖片分類識(shí)別方法[J].計(jì)算機(jī)應(yīng)用與軟件,2018,35(12):193?198.

        猜你喜歡
        手寫降維貝葉斯
        手寫比敲鍵盤更有助于學(xué)習(xí)和記憶
        Three-Body’s epic scale and fiercely guarded fanbase present challenges to adaptations
        我手寫我心
        抓住身邊事吾手寫吾心
        降維打擊
        海峽姐妹(2019年12期)2020-01-14 03:24:40
        基于集成學(xué)習(xí)的MINIST手寫數(shù)字識(shí)別
        電子制作(2018年18期)2018-11-14 01:48:08
        貝葉斯公式及其應(yīng)用
        基于貝葉斯估計(jì)的軌道占用識(shí)別方法
        一種基于貝葉斯壓縮感知的說(shuō)話人識(shí)別方法
        電子器件(2015年5期)2015-12-29 08:43:15
        拋物化Navier-Stokes方程的降維仿真模型
        亚洲国产成人久久综合碰碰| 国产三级精品美女三级| 成人精品国产亚洲av久久| 日本a级免费大片网站| 亚洲日韩国产一区二区三区| 女人夜夜春高潮爽a∨片| 91精品日本久久久久久牛牛| 黄片免费观看视频播放| 亚洲av中文无码乱人伦在线咪咕 | 国产精品性一区二区三区| 久久精品无码一区二区三区不| 日韩狼人精品在线观看| 日韩一区二区三区人妻免费观看| 高清偷自拍亚洲精品三区| 欧美人与物videos另类xxxxx| 亚洲AV秘 无码二区在线| avtt一区| 日本一级二级三级在线| 亚洲天堂成人av在线观看| 奇米影视777撸吧| 久久亚洲AV无码精品色午夜| 国产盗摄一区二区三区av| 丁香五月亚洲综合在线| 人人爽人人爽人人爽| 草莓视频中文字幕人妻系列| 极品少妇人妻一区二区三区| 国产精品无码一区二区三区| 射精情感曰妓女色视频| 日韩av一区在线播放| 宅男视频一区二区三区在线观看| 亚洲精品一区二区三区麻豆| 精品久久亚洲中文无码| 久久亚洲精彩无码天堂| 亚洲精品中文字幕视频色| 黄网站欧美内射| 一区二区三区内射视频在线观看| 免费毛片一区二区三区女同 | 日韩av高清无码| 亚洲av伊人久久综合性色| 高清中文字幕一区二区| 亚洲精品第一国产综合亚av|