亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Keras的MNIST數(shù)據(jù)集識別模型

        2019-09-10 07:22:44郭夢潔楊夢卓馬京九
        現(xiàn)代信息科技 2019年14期
        關(guān)鍵詞:深度學(xué)習(xí)

        郭夢潔 楊夢卓 馬京九

        摘 ?要:Keras是以TensorFlow+Theano為后端的深度學(xué)習(xí)框架,相比于TensorFlow,Keras更加靈活快速。相比于經(jīng)典的神經(jīng)網(wǎng)絡(luò)模型,卷積神經(jīng)網(wǎng)絡(luò)對圖像的識別效率更高。文章基于Keras建立深度學(xué)習(xí)模型,以MNIST數(shù)據(jù)集為例,構(gòu)建卷積神經(jīng)網(wǎng)絡(luò),訓(xùn)練模型并進行預(yù)測,得到的MNIST數(shù)據(jù)集識別模型,達到了99.23%的識別正確率。

        關(guān)鍵詞:深度學(xué)習(xí);Keras;MNIST;數(shù)據(jù)集卷積神經(jīng)網(wǎng)絡(luò)

        中圖分類號:TP751.1 ? ? 文獻標(biāo)識碼:A 文章編號:2096-4706(2019)14-0018-03

        Keras-based MNIST Data Set Recognition Model

        GUO Mengjie1,YANG Mengzhuo1,MA Jingjiu2

        (1.Anhui University,Hefei ?230601,China;2.Yangtze University,Wuhan ?430100,China)

        Abstract:Keras is a deep learning framework based on TensorFlow+Theano. Keras is more flexible and faster than Tensorflow. Convolutional neural networks are more efficient at identifying images than classical neural network models. This paper builds a deep learning model based on Keras. Taking the MNIST data set as an example,constructing a convolutional neural network,training the model and predicting it,the obtained MNIST dataset recognition model achieves a recognition accuracy rate of 99.23%.

        Keywords:deep learning;Keras;MNIST;data set convolution neural network

        0 ?引 ?言

        近年來,深度學(xué)習(xí)受到熱捧,發(fā)展勢頭迅猛,卷積神經(jīng)網(wǎng)絡(luò)已成為處理圖像數(shù)據(jù)的主流深度神經(jīng)網(wǎng)絡(luò)。經(jīng)典的神經(jīng)網(wǎng)絡(luò)模型通過調(diào)試神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),如隱藏層的數(shù)目、激活函數(shù)和優(yōu)化方法的選擇,也能在MNIST數(shù)據(jù)集上達到很好的正確率,但訓(xùn)練模型耗時長,需要編寫大量代碼。Keras以其強大的API,能快速調(diào)用模塊,定義模型,編譯模型并優(yōu)化算法。為此,這里基于Keras構(gòu)建深度學(xué)習(xí)框架,以最少的代碼,最高的效率,建立識別MNIST數(shù)據(jù)集的卷積神經(jīng)網(wǎng)絡(luò)模型。

        1 ?MINIST數(shù)據(jù)集

        MNIST數(shù)據(jù)集是Yann Lecun基于美國國家標(biāo)準(zhǔn)技術(shù)研究所構(gòu)建的一個研究深度學(xué)習(xí)的手寫數(shù)字的數(shù)據(jù)集,MNIST由70000張不同的人手寫的灰度圖組成,其中的每一張圖片都寫有0~9中的一個數(shù)字。訓(xùn)練圖像有600 00張,測試圖像有10000張,其圖像數(shù)據(jù)是28*28像素的灰度圖像。我們的識別模型就是根據(jù)這些圖片進行0~9的10分類。如圖1展示了數(shù)字1及其對應(yīng)的14*14的像素矩陣。

        MNIST數(shù)據(jù)集的一般使用方法是,先用訓(xùn)練圖像進行學(xué)習(xí),再用學(xué)習(xí)到的模型度量能在多大程度上對測試圖像進行正確的分類。輸出層的分類使用Softmax回歸算法,選擇概率值最大的那個數(shù)字輸出。

        2 ?激活函數(shù)

        為了實現(xiàn)神經(jīng)網(wǎng)絡(luò)的非線性建模能力,解決一些線性不可分的問題,我們通常使用激活函數(shù)將神經(jīng)網(wǎng)絡(luò)非線性化,它需要滿足數(shù)據(jù)的輸入和輸出都是可微的,因為在進行反向傳播的時候,需要對激活函數(shù)求導(dǎo)。常用的激活函數(shù)有Softmax、tanh、Relu等。

        2.1 ?Softmax函數(shù)

        Softmax(xj)=,分子是輸入信號xj的指數(shù)函數(shù),分母是所有輸入信號的指數(shù)函數(shù)的和,因此,Softmax函數(shù)的輸出值的總和是1。

        Softmax回歸本身可以作為一個學(xué)習(xí)算法來優(yōu)化分類結(jié)果,但在TensorFlow中,Softmax回歸的參數(shù)被去掉了,它只是一層額外的處理層,將神經(jīng)網(wǎng)絡(luò)的輸出變成一個概率輸出。

        2.2 ?Relu函數(shù)

        Relu函數(shù)在輸入大于0時,直接輸出該值;在輸入小于等于0時,Relu是完全不被激活的,輸出為0。其數(shù)學(xué)公式為:

        3 ?構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)識別手寫數(shù)字

        20世紀(jì)60年代,Hubel和Wiesel在研究貓腦皮層中用局部敏感和方向選擇的神經(jīng)元時,發(fā)現(xiàn)其獨特的網(wǎng)絡(luò)結(jié)構(gòu)可以有效地降低反饋神經(jīng)網(wǎng)絡(luò)的復(fù)雜性,繼而提出了卷積神經(jīng)網(wǎng)絡(luò),簡稱CNN。CNN是一種專門用來處理具有類似網(wǎng)絡(luò)結(jié)構(gòu)的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),其模型主要以卷積為核心。

        如圖2所示,一個卷積神經(jīng)網(wǎng)絡(luò)主要由輸入層、卷積層、池化層、全連接層和Softmax層構(gòu)成。輸入層是整個神經(jīng)網(wǎng)絡(luò)的輸入,對于圖像而言,輸入層就是一張圖片的像素矩陣;Softmax層用來輸出當(dāng)前樣例屬于不同類別的一個一維概率輸出向量。

        卷積層是一個卷積神經(jīng)網(wǎng)絡(luò)中最為重要的部分。和傳統(tǒng)的全連接層不同,卷積層中每一個節(jié)點的輸入只是上一層神經(jīng)網(wǎng)絡(luò)的一小塊,這個小塊常用的大小有3*3或者5*5。卷積層試圖將神經(jīng)網(wǎng)絡(luò)中的每一塊進行更加深入的分析從而得到抽象程度更高的特征。一般來說,通過卷積層處理過的節(jié)點矩陣的深度會增加。

        池化層神經(jīng)網(wǎng)絡(luò)是用來縮小數(shù)據(jù)規(guī)模的一種非線性計算,它不會改變?nèi)S矩陣的深度,但它可以縮小矩陣的大小。池化操作可以認(rèn)為是將一張分辨率較高的圖片轉(zhuǎn)化為分辨率較低的圖片。通過池化層可以進一步縮小最后全連接層中節(jié)點的個數(shù),從而達到減少整個神經(jīng)網(wǎng)絡(luò)中參數(shù)的目的。一般有最大池化和平均池化兩種類型可供選擇。

        全連接層用來將前面經(jīng)過幾輪卷積層和池化層提取的多維特征進行整合,以給出最后的分類結(jié)果傳給Softmax進行概率輸出。

        3.1 ?利用Keras建立模型

        實驗環(huán)境為Windows 10系統(tǒng),采用編程語言python,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)框架采用Keras框架,導(dǎo)入Keras的相關(guān)模塊,基于Keras構(gòu)造卷積神經(jīng)網(wǎng)絡(luò)模型,模型的網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。

        從表1可看出構(gòu)建的模型由兩個卷積層、一個池化層、兩個全連接層構(gòu)成。輸入層輸入尺寸大小為28*28*1的mnist數(shù)據(jù)。經(jīng)過第一層卷積,使用32個3*3的卷積核,激活函數(shù)使用Relu,其輸出尺寸為26*26*32;經(jīng)過第二層卷積,使用64個3*3的卷積核,激活函數(shù)使用Relu函數(shù),其輸出尺寸為24*24*64;再通過最大池化層縮小矩陣大小,池化窗口為2*2,得到的輸出尺寸為12*12*64。在這里為了防止過擬合,加入Dropout正則化,隨機丟棄25%的神經(jīng)元,以達到簡化參數(shù)的目的,但并不影響尺寸大小。最后通過Flatten將卷積和池化提取的三維特征向量一維化。在第一個全連接層時,參數(shù)有1179776個,考慮到過多的參數(shù)會造成過擬合,加入Dropout再通過Softmax回歸輸出結(jié)果。

        3.2 ?訓(xùn)練模型

        針對構(gòu)建的模型應(yīng)用于歸一化后的MNIST數(shù)據(jù)集進行特征提取與訓(xùn)練,Batch Size=128,epoch=10。在這里,我們選擇了Keras中多分類損失函數(shù)categorical_crossentropy,優(yōu)化器使用Adam。使用訓(xùn)練好的模型對MNIST訓(xùn)練集進行測試,迭代10次后準(zhǔn)確率達到了99.20%。模型在測試集上達到的最高準(zhǔn)確率為99.23%。具體迭代過程如表2所示。

        4 ?結(jié) ?論

        本文基于Keras搭建卷積神經(jīng)網(wǎng)絡(luò),以MNIST數(shù)據(jù)集為例進行了學(xué)習(xí)分析和應(yīng)用實踐,模型的準(zhǔn)確率達到了99.23%,是非??捎^的。但是應(yīng)用于實際,還需要搜集不同人群手寫的數(shù)字進行測試,以考察模型真正的泛化能力,對訓(xùn)練模型進一步改進,還可以將模型進行推廣應(yīng)用于漢字識別等圖像識別項目。

        參考文獻:

        [1] [美]Peter Harrington.機器學(xué)習(xí)實戰(zhàn) [M].李銳,李鵬,曲亞東,等譯.北京:人民郵電出版社,2013.

        [2] 王振,高茂庭.基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識別算法設(shè)計與實現(xiàn) [J].現(xiàn)代計算機(專業(yè)版),2015(20):61-66.

        [3] 蔣子陽.Tensorflow深度學(xué)習(xí)算法原理與編程實戰(zhàn) [M].北京:中國水利水電出版社,2019:301-306.

        [4] Szegedy C,Liu W,Jia Y,et al. Going deeper with convoluteons [C].Boston:IEEE Conference on Computer Vision and Pattern Recognition,2015:1-9.

        作者簡介:郭夢潔(1996-),女,漢族,安徽安慶人,碩士,研究方向:深度學(xué)習(xí);楊夢卓(1995-),女,漢族,安徽六安人,碩士,研究方向:深度學(xué)習(xí);馬京久(1995-),男,漢族,安徽安慶人,碩士,研究方向:水文水生態(tài)。

        猜你喜歡
        深度學(xué)習(xí)
        從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
        面向大數(shù)據(jù)遠程開放實驗平臺構(gòu)建研究
        基于自動智能分類器的圖書館亂架圖書檢測
        搭建深度學(xué)習(xí)的三級階梯
        有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
        利用網(wǎng)絡(luò)技術(shù)促進學(xué)生深度學(xué)習(xí)的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        亚洲av综合永久无码精品天堂| 一区二区三区黄色一级片| 久久精品亚洲国产av网站| 92午夜少妇极品福利无码电影| 内射囯产旡码丰满少妇| 亚洲两性视频一三区| 日本激情一区二区三区| 人妻少妇中文字幕在线| 国产精品成人观看视频| 亚洲永久精品ww47永久入口| 亚洲av性色精品国产 | 久久午夜福利电影| 无码av免费精品一区二区三区| 女女同性黄网在线观看| 精品国产亚洲av久一区二区三区 | av在线资源一区二区| 日韩精品综合一本久道在线视频| 免费看黄色电影| 亚洲国产成人精品91久久久| 日韩精品午夜视频在线| 亚洲成av人片天堂网无码| 人人妻人人澡人人爽人人精品| 亚州五十路伊人网| 亚洲一区二区三区偷拍视频| 亚洲中字慕日产2020| 91福利视频免费| av天堂手机一区在线| 人人超碰人人爱超碰国产| 熟妇人妻无码中文字幕| 在线观看av片永久免费| 虎白m粉嫩小在线播放| 久久久久亚洲av无码专区首jn| 精品人妻无码中文字幕在线| 美女狂喷白浆网站视频在线观看| 无码乱肉视频免费大全合集 | 国内精品久久人妻互换| 日本丰满少妇xxxx| 亚洲精品久久久久久| 亚洲黄片高清在线观看| 丰满人妻猛进入中文字幕| 欧美日韩一区二区综合|