亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進的全卷積神經網(wǎng)絡在手寫數(shù)字識別上的應用

        2020-06-07 04:53:04劉寶寶楊雪吳治虎侯飛穆姣
        電腦知識與技術 2020年35期

        劉寶寶 楊雪 吳治虎 侯飛 穆姣

        摘要:為了提高手寫數(shù)字的識別率,論文提出了一種改進的全卷積神經網(wǎng)絡手寫圖像識別方法。首先通過傳統(tǒng)的卷積神經網(wǎng)絡獲取手寫數(shù)字圖像的輪廓特征,其次在模型訓練的初始階段,傳統(tǒng)的修正線性單元(RELU)激活函數(shù)被指數(shù)線性單元(ELU)激活函數(shù)所代替,然后應用支持向量機(SVM)分類器替換原始卷積神經網(wǎng)絡的多項邏輯回歸(Softmax)分類器,并對輸出的像素分類結果進行反卷積操作,從而獲得分割結果。最后,使用提出的算法在MNIST數(shù)據(jù)集進行驗證,與其他算法比較具有較高的識別精度。

        關鍵詞:MNIST數(shù)據(jù)集;全卷積神經網(wǎng)絡;ELU函數(shù);手寫識別;識別率

        中圖分類號: TP391? ? ? ? 文獻標識碼:A

        文章編號:1009-3044(2020)35-0001-03

        開放科學(資源服務)標識碼(OSID):

        Application of an Improved Fully Convolutional Neural Network in the Handwritten Digit Recognition

        LIU Bao-bao, YANG Xue, WU Zhi-Hu, HOU Fei, MU-Jiao

        (Xian Polytechnic University, Xian 710048, China)

        Abstract:In order to improve the recognition rate of handwritten digits, the paper proposes an improved handwritten image recognition method of fully convolutional neural network. Firstly,the outline features of the handwritten digital image are obtained by the traditional convolutional neural network. In the initial stage of model training, the exponential linear unit (ELU) activation function is replacedby the traditional rectified linear unit(RELU) activation function. Secondly, the multiple logistic regression (Softmax) classifier of the convolutional neural network is replaced by a support vector machine (SVM) classifier and the pixel classification results from the classifier are deconvolved to obtain the segmentation results. Finally, the presented algorithm isverified in the MNIST dataset, which has higher recognition accuracy than other algorithms.

        Key words: MNIST dataset;fully convolutional neural network; ELU; handwritten digit recognition; recognition rate

        手寫是從古至今人類不可忽視的交流方式,是目前文字識別的重要組成部分,在很多領域中手寫識別都有廣泛的商業(yè)價值和科研運用。作為圖像識別領域中的一個重要分支,對手寫字體的識別研究具有十分重要的實際意義[1]。

        我國對手寫體數(shù)字識別的研究起步相對較晚,但也取得了一定的成果。如婁正良等人[2]提出一種新的基于小波變換和局部傅立葉變換的脫機手寫數(shù)字特征提取方法,在MNIST數(shù)據(jù)上該方法取得了較好的識別效果。付慶玲等人[3]基于手寫體數(shù)字的幾何結構提取端點及其方向等數(shù)字特征值,應用單字單網(wǎng)的10個并行BP神經網(wǎng)絡進行數(shù)字識別,獲得較好的識別效果。雙小川等人[4]提出了基于統(tǒng)計和結構特征的手寫數(shù)字識別,利用模式識別與回歸軟件包Lib SVM對綜合特征進行分類識別,得到較高的識別分類準確率。

        傳統(tǒng)識別算法對手寫數(shù)字進行識別時,其識別率低、識別速度慢。近年來,卷積神經網(wǎng)絡由于良好的推廣能力、記憶力、非線性和自學習能力以及高速運算能力被廣泛用于手寫數(shù)字識別。如李斯凡等人[5]研究了卷積神經網(wǎng)絡,將改進的模型應用在MNIS字符庫上,與傳統(tǒng)識別方法進行對比分析,具有較高識別率。汪雅琴等人[6]提出基于LeNet-5模型的手寫數(shù)字識別優(yōu)化方法,通過優(yōu)化卷積層的樣本訓練方式,減少預處理工作量,加快識別速度。茹曉青等人[7]用形變卷積模塊來增強網(wǎng)絡對數(shù)字幾何變換的建模能力,提出了一種改進的手寫體數(shù)字識別框架,具有較高的識別精度并減少了訓練的參數(shù)量。

        論文為了提高手寫識別的準確率,改進了全卷積神經網(wǎng)絡,把傳統(tǒng)的修正線性單元(RELU)激活函數(shù)用指數(shù)線性單元(ELU)激活函數(shù)代替,最后的分類函數(shù)Softmax用分類器支持向量機SVM所替代,使其具有更高的識別率并降低了模型訓練時間。

        1 改進的全卷積神經網(wǎng)絡

        卷積神經網(wǎng)絡(Convolutional Neural Network, CNN)[8]可以通過構建多層的卷積層,自動提取圖像特征。淺層的卷積層一般可以學習圖像的局部特征(如紋理特征),深層的卷積層可以學習抽象的特征(如物體大小,位置和方向信息等)。但CNN對圖像的特征提取以“塊”為單位的,很難做到像素級的精細分割,因此在準確率上有待提高。

        針對卷積神經網(wǎng)絡在圖像語義分割的局限性,2015年Jonathan Long等人[9]提出了全卷積神經網(wǎng)絡(Fully Convolutional Networks,F(xiàn)CN),用于圖像的語義分割。近年來,很多研究者采用全卷積神經網(wǎng)絡作為圖像分割的基本模型,但它在初始訓練階段訓練時間較長,易產生過擬合,識別精度低。論文在全卷積神經網(wǎng)絡模型訓練中將使用指數(shù)線性單元(ELU)激活函數(shù)代替?zhèn)鹘y(tǒng)的修正性單元(RELU)激活函數(shù),同時在模型最后將傳統(tǒng)使用的SoftMax分類器用支持向量機(SVM)代替作為像素分類器,解決了原始卷積神經網(wǎng)絡在池化后存的分辨率降低問題,使用反卷積恢復圖像分辨率,提高了手寫數(shù)字識別的識別率。

        1.1 改進全卷積神經網(wǎng)絡的結構

        VGG16具有較深的網(wǎng)絡模型的結構,能較全面的提取到手寫數(shù)字圖像的細節(jié)信息,對后續(xù)的分割識別效果較好,因此論文基于VGG16基礎上提出改進的全卷積神經網(wǎng)絡手寫識別方法。VGG16的網(wǎng)絡結構如圖1,先將VGG16模型中的全連接層換為卷積層,即圖1中的全連接層FC6和全連接層FC7替換為卷積層Conv6和卷積層Conv7,同時將用于分類的SoftMax函數(shù)用支持向量機SVM替代,改進后的全卷積神經圖如圖2。由于在訓練過程中有池化操作,會降低圖像的分辨率,因此在原始的VGG16模型后面增加反卷積過程,原始圖像的大小通過擴充池化層得到,具體操作如圖3所示。

        1.2 激活函數(shù)

        傳統(tǒng)全卷積神經網(wǎng)絡中采用的激活函數(shù)一般是RELU激活函數(shù),而一般手寫數(shù)字占整副圖像的面積較小,使用指數(shù)線性單元ELU激活函數(shù),一方面可以加快模型的收斂速度,另一方面且具有較好的抗噪能力,計算公式如下:

        [ELU(x)=x,x>0α(ex-1),x≤0]? ? ? ? ? ? ? ? ?(1)

        其導數(shù)為:

        [ELU'(x)=1,x>0αex,x≤0]? ? ? ? ? ? ? ? ? ?(2)

        ELU激活函數(shù)及其導數(shù)的圖形如圖4。ELU激活函數(shù)與RELU函數(shù)相比,是將RELU函數(shù)中的負部修正為指數(shù),使其更具有收斂性。

        1.3 手寫數(shù)字圖像識別算法描述

        手寫數(shù)字圖像識別用改進的全卷積神經網(wǎng)絡算法處理的主要步驟如下:

        1)先將原始手寫圖像輸入到卷積神經網(wǎng)絡模型中,利用卷積操作進行特征提取。卷積層主要包括k個N×N×C大小的卷積核,將卷積核和原始圖像進行卷積運算,然后使用ELU激活函數(shù)增強卷積層的特征提取能力,經過運算后得到k個(M-N+1)×(M-N+1)的特征圖。卷積運算的公式為:

        [x(l)i=ELU(i∈δjMW(l)iX(l-1)i+b(l)i)? ]? ? ? ? ? ? ? ? ? (3)

        其中,[x(l)i]是輸入的手寫圖像,ELU是激活函數(shù),解決線性函數(shù)表達了問題,[X(l-1)i]是第l-1個隱層的輸出,[W(l)i]是第l個隱層的權重矩陣,[b(l)i]是第l個隱層的偏置矩陣。

        2)卷積操作后需要增加池化操作,以降低網(wǎng)絡模型的運算量從而減少模型訓練的時間。這里的池化指下采樣,論文采用最大池化方法。池化后仍采用激活函數(shù)來增加模型的非線性表達能力。模型最后增加反卷積操作,就是用上采樣對池化后的特征用線性插值的方式恢復圖像原始大小和分辨率。

        3)全卷積神經網(wǎng)絡是端對端的逐像素分類過程,經過卷積層和池化層的操作后,相當于對原手寫圖像的特征進行了提取。論文中分類器為支持向量機SVM,因為SVM在解決小樣本、非線性及高維模式識別中具有一定的優(yōu)勢,而手寫數(shù)字圖像識別就是一個典型的二分類問題,可以利用SVM尋找一個超平面來對手寫圖像根據(jù)正例和反例進行分割。

        4)在經過SVM算法分類后,要使用損失函數(shù)評價模型訓練的效果,訓練集與測試集的損失值越小表明訓練的效果越好。論文中采用的損失函數(shù)的計算公式具體如下:

        [L(p)=12Ni=1nEi(Ii,P)-Di22]? ? ? ? ? ? ? ? ? ? ? ? ? (4)

        其中P為網(wǎng)絡模型中需要學習的參數(shù),Ii是訓練集上的第i張訓練圖像,N是訓練集的圖像數(shù)目,Di為標注的手寫數(shù)字圖像,Ei為網(wǎng)絡模型識別的手寫數(shù)字圖像,L(p)是計算實際手寫數(shù)字圖像與識別的手寫數(shù)學圖像間的歐式距離得到的損失值。

        2 實驗結果及分析

        2.1 實驗樣本選擇

        實驗中使用的數(shù)據(jù)集是MNIST字符庫,它是一個手寫數(shù)字的數(shù)據(jù)集,來自美國國家標準與技術研究所(National Institute of Standards and Technology,NIST),由手寫數(shù)字圖片和對應的標簽組成。樣本來自250個不同人的手寫數(shù)字,其中高中學生占50%,50%是人口普查局的工作人員,數(shù)字從0-9,共10類,圖片大小是28×28像素,訓練數(shù)據(jù)集包含60000個樣本,測試數(shù)據(jù)集包含10000個樣本。如圖5為部分MNIST數(shù)據(jù)集的樣本。

        2.2 性能評價指標

        為了反映模型預測正確的樣本比例,論文在手寫數(shù)字識別中,采用正確識別率來評價模型的優(yōu)劣,其計算公式為:

        [A=正確識別樣本數(shù)全部樣本數(shù)×100%]? ? ? ? ? ? ? ? ?(5)

        2.3 仿真結果及分析

        為了驗證提出算法的有效性,在MNIST數(shù)據(jù)集上進行了仿真測試。訓練模型時隨機選取訓練集數(shù)據(jù)中的不同數(shù)量的樣本,網(wǎng)絡模型訓練時,采用3×3的卷積核,2×2的池化操作,步長設置為1,學習率設置為0.0001,在VGG16網(wǎng)絡,F(xiàn)CN網(wǎng)絡和論文基于VGG16網(wǎng)絡改進的FCN網(wǎng)絡方法進行了對比。

        從表1可以看出,無論使用卷積神經網(wǎng)絡的哪種方法,基本是隨著訓練樣本數(shù)的增加準確識別率不斷提高,因為VGG16是比較深層的網(wǎng)絡結構,對特征的提取較好,因此論文在VGG16網(wǎng)絡上改進的FCN算法相比識別的正確率最高。模型訓練在樣本10000時,就能取得較好的識別效果,若繼續(xù)加大模型訓練的樣本數(shù)量,不斷訓練時間長,還造成了過擬合,導致識別效果并不是最理想的。

        圖6為10000個訓練樣本時,模型隨迭代次數(shù)的增加的識別精確度和損失函數(shù)的代價值的變化情況??梢钥闯觯S著迭代次數(shù)的增加,識別精度也在不斷增加,損失代價值在迭代次數(shù)10000以后,有小范圍波動,但整體不斷減少。

        3 結論

        針對手寫數(shù)字識別精確度不高的問題,論文在VGG16網(wǎng)絡模型基礎上結合全卷積神經網(wǎng)絡的架構,提出了改進的全卷積神經網(wǎng)絡手寫數(shù)字識別方法,通過仿真實驗表明手寫數(shù)字的正確識別率有了較大的提高,達到了預期效果。

        參考文獻:

        [1] 黃佳凱.基于ARM平臺和TensorFlow的手寫數(shù)字識別[D].南京:南京郵電大學,2019.

        [2] 婁正良,劉昌平.基于小波變換和局部傅立葉變換的手寫數(shù)字識別[J].計算機工程與應用,2004,40(9):63-64,117.

        [3] 付慶玲,韓力群.基于人工神經網(wǎng)絡的手寫數(shù)字識別[J].北京工商大學學報(自然科學版),2004,22(3):43-45.

        [4] 雙小川,張克.基于統(tǒng)計和結構特征的手寫數(shù)字識別研究[J].計算機工程與設計,2012,33(4):1533-1537.

        [5] 李斯凡,高法欽.基于卷積神經網(wǎng)絡的手寫數(shù)字識別[J].浙江理工大學學報(自然科學版),2017,34(3):438-443.

        [6] 汪雅琴,夏春蕾,戴曙光.基于LeNet-5模型的手寫數(shù)字識別優(yōu)化方法[J].計算機與數(shù)字工程,2019,47(12):3177-3181.

        [7] 茹曉青,華國光,李麗宏,等.基于形變卷積神經網(wǎng)絡的手寫體數(shù)字識別研究[J].微電子學與計算機,2019,36(4):47-51.

        [8] Schmidhuber J.Deep learning in neural networks:an overview[J].Neural Networks,2015,61:85-117.

        [9] Long J,Shelhamer E,Darrell T.Fully convolutional networks for semantic segmentation[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).June 7-12,2015,Boston,MA,USA.IEEE,2015:3431-3440.

        【通聯(lián)編輯:唐一東】

        欧美bbw极品另类| 丝袜美腿福利视频在线| 神马影院午夜dy888| 成人精品一区二区三区中文字幕| 日日人人爽人人爽人人片av| 亚洲av一区二区国产精品| 成人免费av高清在线| 亚洲性久久久影院| 99久久免费看少妇高潮a片特黄| 国产成人精品无码一区二区老年人| 婷婷久久亚洲中文字幕| 人妻中文字幕乱人伦在线| 免费a级毛片无码a∨免费软件| 91性视频| 免费av一区男人的天堂| 日韩亚洲欧美久久久www综合| 夫妇交换刺激做爰视频| 欧美1区二区三区公司| 久久久亚洲av成人乱码| 亚洲欧美国产精品久久| 66lu国产在线观看| 国产精品亚洲av网站| 穿着白丝啪啪的av网站| 亚洲精品无amm毛片| 国产成人拍精品免费视频| 开心激情网,开心五月天| 色综合久久网| 最好看的最新高清中文视频| 97久久精品亚洲中文字幕无码| 亚洲日韩图片专区小说专区| 国产一级自拍av播放| 特黄 做受又硬又粗又大视频| 国产精品免费久久久久软件| 亚洲日本国产乱码va在线观看| 三级日本理论在线观看| 亚洲av无码专区亚洲av伊甸园| 99re免费在线视频| 国产精品成年人毛片毛片| 亚洲欧美v国产一区二区| 精品人体无码一区二区三区| 日本福利视频免费久久久|