亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)Inception卷積神經(jīng)網(wǎng)絡(luò)的手寫體數(shù)字識(shí)別

        2019-12-12 07:06:44余圣新夏成蹊唐澤恬
        關(guān)鍵詞:識(shí)別率分類器寬度

        余圣新 夏成蹊 唐澤恬 丁 召 楊 晨

        (貴州大學(xué)大數(shù)據(jù)與信息工程學(xué)院貴州省微納電子與軟件技術(shù)重點(diǎn)實(shí)驗(yàn)室 貴州 貴陽(yáng) 550025)

        0 引 言

        手寫體數(shù)字識(shí)別廣泛地應(yīng)用在銀行、快遞等領(lǐng)域。例如銀行人工服務(wù)支取大量現(xiàn)金時(shí)需要填寫的單據(jù)上的金額、日期等手寫數(shù)字信息。其他常見(jiàn)的應(yīng)用場(chǎng)景還包括填寫快遞單時(shí)的手機(jī)號(hào)碼、郵政編碼等,因此研究手寫體數(shù)字識(shí)別具有較高的現(xiàn)實(shí)意義與經(jīng)濟(jì)價(jià)值。

        傳統(tǒng)手寫體數(shù)字識(shí)別與分類的方法是通過(guò)人為構(gòu)建特征描述子來(lái)提取圖像特征,再利用分類器對(duì)所得特征進(jìn)行分類,如通過(guò)梯度方向直方圖特征(Histogram of Oriented Gradient,HOG)[1]和局部二值模式(Local Binary Pattern,LBP)[2],但是該方法需要大量人工操作。隨著硬件設(shè)備計(jì)算能力快速提升,深度學(xué)習(xí)也成為圖像分類的一個(gè)重要方式。1998年,文獻(xiàn)[3]結(jié)合卷積與池化,提出LeNet-5,用于識(shí)別手寫體數(shù)字,識(shí)別率達(dá)到99.13%,高于傳統(tǒng)方法的98.67%。2012年,文獻(xiàn)[4]提出AlexNet,使用Relu作為激活函數(shù),并且大量使用卷積層與池化層,使得網(wǎng)絡(luò)能夠獲得更加豐富的特征,在ImageNet(ILSVRC-2012)競(jìng)賽中,top-5測(cè)試誤差為15.3%。2014年,文獻(xiàn)[5]提出GoogLeNet,其提出的Inception V1結(jié)構(gòu),采用不同大小卷積核提取不同的特征,在ImageNet(ILSVRC-2014)競(jìng)賽中,top-5測(cè)試誤差只有6.66%。GoogLeNet為卷積神經(jīng)網(wǎng)絡(luò)的研究與發(fā)展提供了新方向,即增加網(wǎng)絡(luò)寬度以獲得更好的正確率。但寬度增加也會(huì)引起參數(shù)增加,同時(shí)增加計(jì)算負(fù)擔(dān)。為減少參數(shù),提出Inception V2[6]和Inception V3[7],Inception V2采用三個(gè)3×3代替7×7卷積,Inception V3則采用連續(xù)非對(duì)稱卷積1×7與7×1代替7×7卷積。2015年,文獻(xiàn)[8]提出殘差網(wǎng)絡(luò)(ResNet),隨網(wǎng)絡(luò)層數(shù)增加而出現(xiàn)的梯度彌散問(wèn)題由此得以解決。2016年,文獻(xiàn)[9]結(jié)合ResNet,改進(jìn)Inception提出Inception-ResNet。2017年,為更好地增加網(wǎng)絡(luò)寬度,深度可分離卷積(Xception)被提出[10],將通道間的相關(guān)性完全分離。

        盡管卷積神經(jīng)網(wǎng)絡(luò)越做越深,但是對(duì)于手寫數(shù)字這類小分辨率圖像的識(shí)別,大而深的網(wǎng)絡(luò)會(huì)由于參數(shù)量過(guò)大而占用過(guò)多計(jì)算資源,因此需要一款深度合適而識(shí)別率較高的網(wǎng)絡(luò)。本文采用深度可分離卷積代替Inception結(jié)構(gòu)中的傳統(tǒng)卷積,改進(jìn)Inception結(jié)構(gòu),增加Inception結(jié)構(gòu)的網(wǎng)絡(luò)寬度,并且結(jié)合殘差網(wǎng)絡(luò)(ResNet)防止梯度彌散。在分類器的選擇上則選用支持向量機(jī)作為分類器[11],基于其對(duì)數(shù)據(jù)的維度、多變性不敏感等特性[12],結(jié)合支持向量機(jī)(SVM)對(duì)卷積神經(jīng)網(wǎng)絡(luò)提取的特征進(jìn)行分類[13],使用10折交叉驗(yàn)證法驗(yàn)證SVM所得識(shí)別率。

        1 網(wǎng)絡(luò)結(jié)構(gòu)和改進(jìn)算法

        本文采用訓(xùn)練網(wǎng)絡(luò)整體結(jié)構(gòu)如圖1所示。對(duì)輸入圖像進(jìn)行兩次連續(xù)非對(duì)稱卷積代替7×7卷積核,完成圖像特征的初步提取;改進(jìn)Inception結(jié)構(gòu)用于加大網(wǎng)絡(luò)寬度,并通過(guò)Maxpool對(duì)特征進(jìn)行壓縮,同時(shí)引入殘差網(wǎng)絡(luò)防止梯度彌散;之后使用傳統(tǒng)卷積層與池化層相結(jié)合的方式,縮小特征圖,中間加入Dropout層,其作用為以一定概率隨機(jī)將部分隱藏層節(jié)點(diǎn)權(quán)重歸零,從而防止網(wǎng)絡(luò)過(guò)擬合;最后分別使用softmax與支持向量機(jī)對(duì)特征進(jìn)行分類與比較。每一層卷積后都使用Relu函數(shù)y=max(0,y) 作為激活函數(shù),使用交叉熵函數(shù)作為損失函數(shù)訓(xùn)練網(wǎng)絡(luò),同時(shí)使用批量標(biāo)準(zhǔn)化來(lái)減少網(wǎng)絡(luò)對(duì)學(xué)習(xí)率的要求,加快網(wǎng)絡(luò)收斂,緩解過(guò)擬合。

        圖1 整體網(wǎng)絡(luò)結(jié)構(gòu)

        網(wǎng)絡(luò)各層輸出如表1所示。

        表1 各層輸出特征圖大小

        算法流程如圖2所示。

        (a) 訓(xùn)練流程圖

        (b) 識(shí)別流程圖圖2 算法流程

        圖2(a)中訓(xùn)練過(guò)程分為本文網(wǎng)絡(luò)訓(xùn)練與支持向量機(jī)訓(xùn)練兩個(gè)部分。第一部分為MNIST數(shù)據(jù)集通過(guò)本文網(wǎng)絡(luò)、全連接層與softmax,更新本文網(wǎng)絡(luò)的權(quán)重;第二部分為MNIST數(shù)據(jù)集通過(guò)已訓(xùn)練的本文網(wǎng)絡(luò),將本文網(wǎng)絡(luò)所提取的特征圖向量化后所得特征訓(xùn)練支持向量機(jī)。訓(xùn)練完畢后,以圖2(b)中所示順序完成識(shí)別。

        1.1 連續(xù)非對(duì)稱卷積

        圖1中連續(xù)非對(duì)稱卷積×2結(jié)構(gòu)如圖3所示,其中Conv代表卷積(convolution),Convn表示使用n個(gè)卷積核。首先使用一組連續(xù)非對(duì)稱卷積實(shí)3×3卷積,得到26×26×32輸出特征圖。第二組同樣使用一組連續(xù)非對(duì)稱卷積實(shí)現(xiàn)3×3卷積,得到24×24×64的輸出特征圖,這與直接使用5×5卷積所得特征圖大小相同。

        圖3 兩組非對(duì)稱卷積實(shí)現(xiàn)5×5卷積

        1.2 改進(jìn)Inception結(jié)構(gòu)

        本文使用深度可分離卷積代替Inception結(jié)構(gòu)中的傳統(tǒng)卷積以增加網(wǎng)絡(luò)寬度,同時(shí)提升網(wǎng)絡(luò)性能。深度可分離卷積[10]是針對(duì)加大網(wǎng)絡(luò)寬度提出的一種卷積形式,該卷積可以分解成一個(gè)深度卷積和一個(gè)1×1點(diǎn)卷積,深度卷積用于拓寬網(wǎng)絡(luò),點(diǎn)卷積用于調(diào)整輸出通道數(shù)。

        傳統(tǒng)卷積可以表示為:

        (1)

        式中:F表示輸入特征圖,大小為k+i-1×i+j-1×m;G表示輸出特征圖,輸出特征圖的大小為k×l×n;K表示卷積核,大小為i×j×m,卷積核個(gè)數(shù)為n??梢?jiàn),為得到k×l×n大小的輸出特征圖,傳統(tǒng)卷積所需參數(shù)量為i×j×m×n。

        深度可分離卷積可以表示為:

        (2)

        (3)

        圖4 深度可分離卷積結(jié)構(gòu)

        因此,對(duì)于同樣大小輸出特征圖,深度可分離卷積所需參數(shù)量相比傳統(tǒng)卷積所需參數(shù)量減少了大約n倍。

        由于深度可分離卷積能夠完全分離通道間的相關(guān)性,為進(jìn)一步加寬網(wǎng)絡(luò),將深度可分離卷積引入到Inception里面。Inception結(jié)構(gòu)與深度可分離卷積結(jié)構(gòu)都能加大網(wǎng)絡(luò)寬度,兩者并聯(lián)之后網(wǎng)絡(luò)寬度能得到進(jìn)一步增加。例如,輸入特征圖通道數(shù)為64,Inception間有3個(gè)分支,每個(gè)分支都使用不同卷積核進(jìn)行可分離卷積,這樣網(wǎng)絡(luò)寬度就能從64增加到3×64。由于增加網(wǎng)絡(luò)寬度會(huì)造成參數(shù)增加,因此引入點(diǎn)卷積,點(diǎn)卷積就是1×1卷積,它能很容易地整合卷積神經(jīng)網(wǎng)絡(luò)的通道,因此1×1卷積主要用來(lái)降低特征維度以避免因網(wǎng)絡(luò)受硬件條件而限制網(wǎng)絡(luò)模型。本文設(shè)計(jì)結(jié)構(gòu)如圖5所示。

        圖5 改進(jìn)后Inception結(jié)構(gòu)

        對(duì)該部分的輸入分別接兩個(gè)1×1卷積,卷積核個(gè)數(shù)均為32,得到兩個(gè)分支,并通過(guò)整合輸入特征圖的通道數(shù)來(lái)降低參數(shù)。接下來(lái)分別對(duì)兩個(gè)分支進(jìn)行3×3與5×5深度可分離卷積,之后對(duì)兩分支的輸出沿通道數(shù)方向進(jìn)行堆疊。

        使用Python語(yǔ)言,tensorflow、slim庫(kù)完成Inception結(jié)構(gòu)改進(jìn),改進(jìn)Inception結(jié)構(gòu)代碼如下:

        def improved_inception_model(inputs,kernel,o_channels,depth):

        ?inputs為改進(jìn)inception結(jié)構(gòu)的輸入,kernel為每個(gè)分支中1×1卷積核的個(gè)數(shù),o_channel每個(gè)分支中深度可分離卷積的輸出通道數(shù),depth為每個(gè)分支中深度可分離卷積的卷積核個(gè)數(shù),函數(shù)返回三個(gè)分支輸出的堆疊。其中stride均設(shè)為1,padding均設(shè)為′SAME′,即輸入與輸出同維度,以便堆疊。?

        batch0=silm.conv2d(inputs, kernel, [1, 1],

        stride=1, padding=′SAME′)

        batch0=slim.separeble_conv2d(batch0,

        o_channels, [3, 3],

        depth_multiplier=depth,

        padding=′SAME′)

        #對(duì)第一個(gè)分支進(jìn)行1×1卷積后再進(jìn)行3×3

        #深度可分離卷積。

        batch1=silm.conv2d(inputs, kernel, [1, 1],

        stride=1, padding=′SAME′)

        batch1=slim.separeble_conv2d(batch1,

        o_channels, [5, 5],

        depth_multiplier=depth,

        padding=′SAME′)

        #對(duì)第二個(gè)分支進(jìn)行1×1卷積后再進(jìn)行5×5

        #深度可分離卷積。

        batch2=slim.max_pool2d(inputs, [3, 3],

        stride=1, padding=′SAME′)

        #對(duì)第三個(gè)分支進(jìn)行最大值池化

        output = tf.concat([batch0, batch1, batch2], 3)

        #將三個(gè)分支的輸出在通道數(shù)上進(jìn)行堆疊

        return output

        由表2可知,改進(jìn)后結(jié)構(gòu)在保留Inception結(jié)構(gòu)對(duì)尺度適應(yīng)性的同時(shí)減少參數(shù)量。

        表2 參數(shù)量對(duì)比

        1.3 殘差網(wǎng)絡(luò)結(jié)構(gòu)

        為防止網(wǎng)絡(luò)深度增加導(dǎo)致梯度爆炸或者梯度彌散,造成梯度不能很好地往后傳播,一般會(huì)在網(wǎng)絡(luò)中引入殘差網(wǎng)絡(luò),本文使用殘差網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

        圖6 殘差網(wǎng)絡(luò)

        為保證Maxpool層的輸出與3×1卷積層的輸出維度相一致以實(shí)現(xiàn)線性相加,本文利用點(diǎn)卷積與連續(xù)非對(duì)稱卷積對(duì)上一層輸出特征圖進(jìn)行大小調(diào)整,見(jiàn)圖6虛線框。所得輸出結(jié)合卷積層與池化,對(duì)殘差網(wǎng)絡(luò)輸出特征圖進(jìn)行縮小。

        1.4 支持向量機(jī)

        本文用支持向量機(jī)替代softmax作為最后的分類器。支持向量機(jī)是1963年Vapnik[15]提出的一種以統(tǒng)計(jì)學(xué)理論為基礎(chǔ)的學(xué)習(xí)算法,利用核函數(shù)將低維向量映射到高維空間,并有效控制計(jì)算復(fù)雜度。通常使用高斯函數(shù)作為徑向基函數(shù):

        (4)

        式中:xc為核函數(shù)中心;σ為核函數(shù)寬度參數(shù),控制函數(shù)的徑向作用范圍。

        訓(xùn)練完本文設(shè)計(jì)的網(wǎng)絡(luò)后,將全連接層與softmax層以支持向量機(jī)替代,在MNIST中隨機(jī)選擇10 000幅圖片作為訓(xùn)練集,進(jìn)行10折交叉驗(yàn)證,使用高斯核函數(shù)作為徑向基函數(shù)。

        2 實(shí)驗(yàn)結(jié)果與分析

        為驗(yàn)證算法可行性,本文以來(lái)自美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所MNIST手寫體數(shù)字?jǐn)?shù)據(jù)集作為實(shí)驗(yàn)數(shù)據(jù)。訓(xùn)練集包含60 000個(gè)樣本,分別由250個(gè)來(lái)自不同地區(qū)的人手寫的數(shù)字構(gòu)成。測(cè)試集同樣包含10 000個(gè)手寫數(shù)字樣本。其中訓(xùn)練集和測(cè)試集均為50%高中學(xué)生和50% 人口普查局的工作人員組成。圖像均為28×28像素,本文所有實(shí)驗(yàn)均在配置為Intel Core i5-3470 CPU,主頻3.20 GHz,16 GB的RAM上運(yùn)行,使用3 GB顯存的NVIDIA GTX1060做GPU加速。

        實(shí)驗(yàn)分成兩步:第一步先用softmax作為分類器,以交叉熵函數(shù)作為誤差函數(shù)訓(xùn)練該網(wǎng)絡(luò),選擇合適dropout概率防止網(wǎng)絡(luò)過(guò)擬合;第二步固定所有網(wǎng)絡(luò)層權(quán)重,使用支持向量機(jī)(SVM)替代softmax,訓(xùn)練SVM。

        2.1 網(wǎng)絡(luò)參數(shù)的選取

        為防止過(guò)擬合,在模型訓(xùn)練時(shí),本文在圖1所示結(jié)構(gòu)中采用Dropout層,保留概率與Dropout概率關(guān)系如下:

        P=1-PD

        (5)

        式中:P為保留概率;PD為Dropout概率。

        保留率設(shè)置為1.0、0.5、0.2、0.1,訓(xùn)練及測(cè)試loss曲線,所得結(jié)果如圖7、表3所示。

        (c) P=0.2 (d) P=0.1圖7 保留概率(P)對(duì)網(wǎng)絡(luò)的影響

        表3 不同保留概率的識(shí)別率

        可以看出,當(dāng)不使用Dropout層時(shí)(保留概率為1.0),loss下降至0.3后網(wǎng)絡(luò)已經(jīng)收斂,測(cè)試誤差與訓(xùn)練誤差之間相距較遠(yuǎn),即兩者方差較大,且測(cè)試誤差在訓(xùn)練至2 200步后一直大于訓(xùn)練誤差,說(shuō)明網(wǎng)絡(luò)已過(guò)擬合,識(shí)別率為89.95%;當(dāng)保留概率為0.5時(shí),loss下降明顯,測(cè)試誤差與訓(xùn)練誤差之間相距較近,即兩者方差較小,識(shí)別率為99.38%;當(dāng)保留概率為0.2時(shí),loss下降明顯,同時(shí)測(cè)試誤差始終高于訓(xùn)練誤差,且在5 700步后基本重合,即方差最小,識(shí)別率為99.45%;當(dāng)保留概率為0.1時(shí),loss值大且下降較慢,說(shuō)明此時(shí)網(wǎng)絡(luò)欠擬合,識(shí)別率為78.34%。因此保留概率為0.2時(shí),網(wǎng)絡(luò)性能最優(yōu)。

        2.2 不同網(wǎng)絡(luò)的比較

        為便于比較,實(shí)驗(yàn)時(shí)分類器統(tǒng)一使用softmax作為分類器。經(jīng)softmax分類后,正確率相對(duì)于LeNet-5提高了0.20%,相對(duì)于Inception結(jié)構(gòu)提高了0.08%,實(shí)驗(yàn)結(jié)果如表4所示。

        表4 不同網(wǎng)絡(luò)結(jié)構(gòu)實(shí)驗(yàn)結(jié)果

        與Inception結(jié)構(gòu)相比,本文改進(jìn)結(jié)構(gòu)較Inception具有更大的網(wǎng)絡(luò)寬度,由圖8可以看出,改進(jìn)Inception收斂速度較快。

        (a) accuracy曲線對(duì)比圖

        (b) loss曲線對(duì)比圖圖8 accuracy與loss曲線對(duì)比圖

        2.3 SVM參數(shù)的選取

        為進(jìn)一步提高識(shí)別率,選擇SVM代替softmax,為選擇合適的參數(shù),從MNIST中隨機(jī)取10 000個(gè)數(shù)據(jù),對(duì)SVM的不同核寬與懲罰系數(shù)進(jìn)行10折交叉驗(yàn)證,每次實(shí)驗(yàn)所得平均識(shí)別率如表5所示。

        表5 核寬與懲罰系數(shù)對(duì)交叉驗(yàn)證平均正確率的影響

        在表5所選參數(shù)條件下,10折交叉驗(yàn)證所得平均識(shí)別率均分布在99.58%~99.78%區(qū)間,均高于表4中softmax正確率。其中:C=0.5,σ=0.005時(shí),平均識(shí)別率為99.78%;C=0.5,σ=0.007時(shí),平均識(shí)別率為99.74%;C=0.1,σ=0.003時(shí),平均識(shí)別率為99.67%。其10折交叉驗(yàn)證正確率曲線如圖9所示??梢?jiàn)當(dāng)懲罰系數(shù)C=0.5,σ=0.005時(shí),10折交叉驗(yàn)證的每一次結(jié)果均高于其余兩個(gè),即為最優(yōu)懲罰系數(shù)與核寬。

        圖9 10折交叉驗(yàn)證正確率

        綜上,本文網(wǎng)絡(luò)結(jié)構(gòu)在采用softmax分類器已經(jīng)獲得較高正確率,使用SVM分類器代替softmax分類器,可以將正確率從99.45%進(jìn)一步提高到99.78%

        3 結(jié) 語(yǔ)

        本文采用改進(jìn)Inception網(wǎng)絡(luò)模型提取手寫體數(shù)字的特征,并將其傳遞給SVM分類器進(jìn)行識(shí)別。連續(xù)非對(duì)稱卷積可以實(shí)現(xiàn)傳統(tǒng)卷積功能同時(shí)節(jié)省計(jì)算開(kāi)支,而改進(jìn)Inception結(jié)構(gòu)相比Inception結(jié)構(gòu)擁有更大的網(wǎng)絡(luò)寬度。實(shí)驗(yàn)結(jié)果表明,改進(jìn)Inception結(jié)構(gòu)相比Inception結(jié)構(gòu)獲得了更高的識(shí)別率。使用本文設(shè)計(jì)網(wǎng)絡(luò)提取的特征作為特征向量訓(xùn)練SVM,識(shí)別率相比使用全連接層后經(jīng)softmax分類所得識(shí)別率有明顯地提升,說(shuō)明SVM對(duì)于數(shù)據(jù)分類能力優(yōu)于softmax分類器。在財(cái)務(wù)、稅務(wù)、金融及實(shí)驗(yàn)記錄等領(lǐng)域,存在大量的手寫體數(shù)字文檔。本文模型有望在上述領(lǐng)域的自動(dòng)化識(shí)別中得到應(yīng)用,以節(jié)省時(shí)間提升工作效率。

        猜你喜歡
        識(shí)別率分類器寬度
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
        基于真耳分析的助聽(tīng)器配戴者言語(yǔ)可懂度指數(shù)與言語(yǔ)識(shí)別率的關(guān)系
        提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
        BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
        馬屁股的寬度
        加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
        結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
        高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
        紅細(xì)胞分布寬度與血栓的關(guān)系
        孩子成長(zhǎng)中,對(duì)寬度的追求更重要
        人生十六七(2015年5期)2015-02-28 13:08:24
        久久久久人妻精品一区三寸| 久久精品国产亚洲AV古装片| av网址不卡免费在线观看| 日日麻批免费高清视频| 欧洲熟妇色xxxx欧美老妇性| 婷婷色中文字幕综合在线| 国产成人无码精品久久99| 蜜桃伦理一区二区三区| 李白姓白白又白类似的套路| 777米奇色狠狠俺去啦| 亚洲av片不卡无码久久| www.91久久| 亚洲乱熟妇一区二区三区蜜桃| 国产日产精品_国产精品毛片| 特级av毛片免费观看| 亚洲AV无码成人网站久久精品| 色婷婷综合一区二区精品久久 | 亚洲女人的天堂网av| 亚洲综合av一区二区三区| 好男人视频在线视频| 无码成年性午夜免费网站蜜蜂| 久久精品国产亚洲av一般男女| 国产七十六+老熟妇| 国产内射合集颜射| 东京热加勒比日韩精品| 中文字幕久久久人妻人区| 成人午夜视频精品一区| 五月天综合在线| 热热久久超碰精品中文字幕| 手机免费在线观看av网址| 精品国产乱码久久久久久影片| 亚洲中文欧美日韩在线人| 日本中文字幕人妻精品| 狂猛欧美激情性xxxx大豆行情 | 人妻丰满熟妇av无码片| 亚洲精品成人av观看| 一区二区三区在线乱码| 天天做天天摸天天爽天天爱| a级黑人大硬长爽猛出猛进 | 白天躁晚上躁麻豆视频| 韩国一级成a人片在线观看|