亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        特征分組提取融合深度網(wǎng)絡(luò)手寫漢字識別

        2020-06-18 05:51:28李國強
        計算機工程與應(yīng)用 2020年12期
        關(guān)鍵詞:手寫準(zhǔn)確率卷積

        李國強,周 賀,馬 鍇,張 露

        燕山大學(xué) 河北省工業(yè)計算機控制工程重點實驗室,河北 秦皇島066004

        1 引言

        手寫漢字識別有聯(lián)機和脫機之分。聯(lián)機手寫漢字識別可以實時地獲取到書寫者的筆畫信息,如筆畫總數(shù)、書寫順序、書寫速度、筆畫走向等[1]。這些信息簡化了識別的難度。而脫機手寫漢字識別的難度相對加大,因為脫機手寫漢字都是靜止的二維圖像,特征提取比較困難,導(dǎo)致識別精度較低。

        在脫機手寫漢字識別上有許多提高識別精度的傳統(tǒng)方法被提出,但是收效甚微。究其原因即在于:首先,漢字筆畫多,最多有32畫;其次,漢字相似性大,例如“戊”和“戌”,“已”和“己”等;此外,漢字?jǐn)?shù)量多,總共50 000多漢字。最后,漢字書寫風(fēng)格多變,不同人的書寫字體不同,因此識別難度自然加大[2]。

        傳統(tǒng)的手寫漢字識別方法有多種,但是識別精度普遍較低,常用的有:隱馬爾可夫模型(Hidden Markov Model,HMM)[3]、貝葉斯分類器[4]、支持向量機(Support Vector Machine,SVM)[5]和改進的二次判別函數(shù)(Modified Quadratic Discriminant Functions,MQDF)[6]等,這些傳統(tǒng)方法不僅計算復(fù)雜,而且精度低,很難進行實際應(yīng)用。

        隨著計算機數(shù)據(jù)處理能力的提高,以及更好的非線性激活函數(shù)的出現(xiàn),致使深度卷積神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Neural Networks,DCNN)在許多圖像識別和分類任務(wù)中取得了顯著的進步[7]。在過去幾年里,DCNN在手寫漢字識別上的進展大大超過了傳統(tǒng)的方法,取得了很大的進步。MCDNN是第一個將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用在手寫漢字識別上的網(wǎng)絡(luò)模型,并且誤差為4.21%。隨后,富士通公司的研究團隊利用DCNN基礎(chǔ)模型,在手寫漢字識別上取得94.8%的識別精度。這相比傳統(tǒng)的MQDF識別精度92.61%,提高了2.19%。

        伴隨一些先進網(wǎng)絡(luò)模型的出現(xiàn),例如VGGNet[8]、InceptionNet[9]、ResNet[10]等,這些先進的技術(shù)為脫機手寫漢字識別提供了良好的借鑒。

        2 特征分組提取的網(wǎng)絡(luò)設(shè)計

        傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)會存在特征提取不充分,網(wǎng)絡(luò)學(xué)習(xí)能力差等問題,同時隨著網(wǎng)絡(luò)的加深存在信息的丟失和損耗。為了解決這些問題,本文借鑒ResNet殘差網(wǎng)絡(luò)的優(yōu)點將信息直接傳遞到輸出,從而保護了信息的完整性,來減輕信息丟失問題;將特征信息進行分組,然后分別進行特征提取,最后再將每組的信息整合在一起,增加網(wǎng)絡(luò)學(xué)習(xí)的多樣性。

        2.1 特征分組提取模塊

        本文設(shè)計的特征分組提取模塊如圖1和圖2所示。圖1網(wǎng)絡(luò)模塊的輸入特征圖個數(shù)為129,在進行特征分組之前,先將特征信息進行通道重排,打亂輸入特征信息的順序。

        圖1 網(wǎng)絡(luò)模塊1

        圖2 網(wǎng)絡(luò)模塊2

        如圖3所示,以分三組為例,為增加網(wǎng)絡(luò)學(xué)習(xí)的多樣性,對特征信息進行分組,以不同顏色表示不同的信息,在未進行通道重排時同一組段內(nèi)可能含有相同特征信息,而不同組段內(nèi)的信息會不相同,如果直接進行特征分組會導(dǎo)致組段內(nèi)的信息不完整,降低信息的表示能力。由圖可知通過通道重排能夠讓不同組段進行信息交換,使得不同組段的特征信息更加豐富。通過通道重排使得每個組內(nèi)都有其他組的特征信息,這樣雖然分組后,組與組之間沒有了聯(lián)系,但是每組的信息都很全面不會丟失。然后把129個特征圖分為三組,每組43個特征,為增強網(wǎng)絡(luò)提取信息的多樣性,對每組分別使用不同大小的卷積核進行特征提?。划?dāng)每組進行一次信息提取之后,進行一次組與組之間的信息交流融合,此時每組的特征圖從43個增加為86個;再對每組的86個特征圖進行信息提取,進一步提高網(wǎng)絡(luò)的學(xué)習(xí)能力;最后,將每組的信息進行合并整合,整合后的特征通道數(shù)為258個,為使之與輸入通道相一致,方便其與原始輸入信息進行殘差運算,需要使用1×1卷積對輸出通道進行降維。圖2網(wǎng)絡(luò)模塊的輸入特征圖個數(shù)為256,將其分為四組,每組有64個特征圖,信息交流組合的思路與圖1相同。

        圖3 通道重排

        2.2 下采樣和通道擴增模塊

        傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)通常采用平均池化層或最大池化層來進行下采樣,可是這種方法忽略了特征信息的重要性和次要性,沒有考慮圖像的位置信息,將所有位置的特征都視為一樣。比如,一張圖像的中心區(qū)域感受野的信息比其他區(qū)域的要完整和重要,所以一張圖像不同區(qū)域?qū)?yīng)不同的權(quán)重大小。為了避免池化層的這種模糊化效果導(dǎo)致準(zhǔn)確率下降的問題,本文使用3×3和5×5的卷積核進行下采樣,讓網(wǎng)絡(luò)自己學(xué)習(xí)不同點的權(quán)重,并與通道擴增過程組合為一個模塊。如圖4所示,其中3×3和5×5卷積步長為2,負(fù)責(zé)下采樣;1×1卷積的步長為1,負(fù)責(zé)通道的升維和降維。

        圖4 降采樣模塊

        2.3 特征信息的濃縮提煉

        經(jīng)過分組模塊的特征提取,網(wǎng)絡(luò)會得到豐富的特征信息,但是這些信息之間難免會有重疊的相同信息,如果將所有特征信息都進行特征提取和分類,會造成相同的信息被反復(fù)多次提取,造成計算資源的浪費。為此,本文設(shè)計了一個特征信息融合和濃縮卷積層(Feature Fusion and Concentration Convolution,F(xiàn)FCConv),采用合并特征圖的方式精煉和濃縮特征信息,來解決特征信息的重疊和冗余問題。該層的輸入為4×4×510的特征圖,首先將特征信息進行通道重排,信息交流融合后將其分為A、B、C、D四組,每組特征圖數(shù)目分別為51、102、153、204。具體過程如圖5所示,對A組每張?zhí)卣鲌D進行卷積;對B組,采用兩個合為一個進行卷積;對C組,采用三個合為一個進行卷積;對D組,采用四個合為一個進行卷積。其中卷積方式與常規(guī)卷積方式不同,采用如公式(1)所示的加權(quán)平均卷積。由于輸入都是圖6所示的4×4大小的特征圖,所以A組的加權(quán)平均卷積計算過程如公式(1)所示,其中ω代表相應(yīng)位置的權(quán)值;設(shè)B組的兩個特征圖的加權(quán)平均卷積計算分別為X1和X2則B組的特征合并結(jié)果XB的計算方式如公式(4)所示。同理C組與D組的合并結(jié)果計算方式與B組的計算原理相同。這樣每組得到51個1×1的特征圖,然后將每組通道進行整合得到204個1×1的特征圖。信息通道數(shù)從原來510被濃縮整合為204。為了控制信息濃縮的程度,防止信息過度精煉而丟失重要特征信息,故本文采用圖5中的一個、兩個、三個、四個的合并方式。

        圖5 特征信息的濃縮提煉

        圖6 4×4大小的特征圖

        經(jīng)過多次實驗對比發(fā)現(xiàn)將圖2模塊重復(fù)使用五次,將圖3模塊重復(fù)使用兩次能使網(wǎng)絡(luò)性能達到最優(yōu)。整體網(wǎng)絡(luò)配置如表1所示,其中c代表通道數(shù),s代表步長。網(wǎng)絡(luò)結(jié)構(gòu)中的最后一個降采樣模塊將保持通道數(shù)不變,只對圖像大小進行處理。最后,將網(wǎng)絡(luò)的輸出送入全連接層。雖然網(wǎng)絡(luò)每經(jīng)過一個特征分組提取模塊,圖像大小不變,但是每次提取的圖像特征卻不同,這些豐富的圖像特征非常有助于提高圖像識別準(zhǔn)確率。

        表1 網(wǎng)絡(luò)配置細節(jié)

        2.4 網(wǎng)絡(luò)優(yōu)化算法

        整體網(wǎng)絡(luò)在每個模塊的卷積層之后都加了一個批歸一化(Batch Normalization,BN)層。由于輸入數(shù)據(jù)的分布很容易發(fā)生改變,隨著網(wǎng)絡(luò)的加深改變會被放大,因此網(wǎng)絡(luò)模型為了去適應(yīng)發(fā)生的改變,就要去學(xué)習(xí)這個改變的新的數(shù)據(jù)分布,這導(dǎo)致訓(xùn)練收斂速度越來越慢。BN層可以通過規(guī)范化來防止數(shù)據(jù)分布發(fā)生改變,同時擴大輸入對損失函數(shù)的影響因子,使反向傳播的梯度變大。為了適用BN規(guī)范化后的數(shù)據(jù)和梯度變大,需要增大學(xué)習(xí)率來加快收斂速度。

        假設(shè)網(wǎng)絡(luò)的第l層的輸入為Z[]l-1對其做標(biāo)準(zhǔn)化處理,忽略上標(biāo)[l-1],則規(guī)范化過程如公式(5)~(7)所示:

        其中,m是單個訓(xùn)練數(shù)據(jù)集包含的樣本數(shù),ε常值,可取ε=10-7。這樣,就使得輸入值均值為0,方差為1。但是如果強制將數(shù)據(jù)進行規(guī)范化會影響網(wǎng)絡(luò)原有的特征學(xué)習(xí),導(dǎo)致網(wǎng)絡(luò)表達能力下降。為此引進兩個可調(diào)節(jié)參數(shù)γ和β,則得到公式(8)即:

        式中,γ和β是可學(xué)習(xí)參數(shù),和權(quán)重和偏置相似,使用梯度下降算法求得。通過調(diào)整γ和β的值可以改變Z的值,如令γ=,β=μ,則Z=Zi。因此參數(shù)γ和β的引入,可以使網(wǎng)絡(luò)得到所要學(xué)習(xí)的特征分布,使得網(wǎng)絡(luò)表達能力增強。

        3 數(shù)據(jù)集預(yù)處理

        本文選用了CASIA-HWDB(V1.1)數(shù)據(jù)集來訓(xùn)練和測試所設(shè)計的神經(jīng)網(wǎng)絡(luò)模型,數(shù)據(jù)集共包括3 755個一級漢字樣本。該數(shù)據(jù)集是采集到的原始樣本,為了提高神經(jīng)網(wǎng)絡(luò)訓(xùn)練模型的性能有必要對訓(xùn)練集進行數(shù)據(jù)擴增和錯誤挑選處理。

        3.1 訓(xùn)練集錯誤挑選

        訓(xùn)練集對模型的訓(xùn)練舉足輕重,為了盡量保持訓(xùn)練集原始樣本和提高訓(xùn)練模型性能,本文只對比較明顯的錯誤進行處理;同時為了后面訓(xùn)練好模型的測試和防止發(fā)生過擬合,因此只對訓(xùn)練集進行輕微處理,測試集不予改動。

        訓(xùn)練集錯誤的糾正只針對三種情況,如圖7所示。其中(1)為樣本分類錯誤,這種對其進行糾正,將圖片轉(zhuǎn)移到正確標(biāo)簽;(2)為在字形區(qū)域外有額外干擾筆畫,這種情況將圖片進行剪切,刪除多余筆畫后放入原標(biāo)簽;(3)為漢字書寫錯誤后又進行勾畫,這種樣本將被從訓(xùn)練集中剔除。

        圖7 需要糾正的三種樣本示例

        3.2 數(shù)據(jù)增強

        由于網(wǎng)絡(luò)的加深,有可能發(fā)生過擬合的風(fēng)險,此時如果數(shù)據(jù)集較小,很容易將數(shù)據(jù)集的特點擬合掉。因此引進數(shù)據(jù)增強(Data Augmentation),防止過擬合發(fā)生的風(fēng)險。首先,對訓(xùn)練集原始樣本進行隨機上下翻轉(zhuǎn);然后再對訓(xùn)練集進行隨機水平左右翻轉(zhuǎn)。處理后的訓(xùn)練集每個手寫漢字類別有500多張樣本圖片,這使訓(xùn)練得到的模型效果更好。

        4 實驗與分析

        4.1 實驗參數(shù)設(shè)置

        實驗數(shù)據(jù)集為CASIA-HWDB(V1.1),其包括3 755個漢字,經(jīng)過數(shù)據(jù)增強處理后數(shù)據(jù)集總共有200多萬張圖片。雖然數(shù)據(jù)集的擴大有利于提高漢字識別精度,但是對計算機硬件要求也更高。為了減少計算量,統(tǒng)一將脫機手寫漢字圖像大小調(diào)整為64×64,然后進行圖像灰度化,將RGB三通道降為一通道的灰度圖進行訓(xùn)練和測試。訓(xùn)練采用隨機梯度下降算法。初始學(xué)習(xí)率值為0.1,來加快訓(xùn)練衰減速度。訓(xùn)練的批量大小設(shè)為128,一共迭代訓(xùn)練10萬步。實驗機器為Windows 7操作系統(tǒng),CPU為Intel?CoreTMi7—7820X,3.60 GHz,32 GB內(nèi)存,同時使用GPU計算加速訓(xùn)練過程。

        4.2 實驗結(jié)果分析

        模型總共訓(xùn)練迭代100 000步,每100步保存一次數(shù)據(jù),所以最終得到的模型訓(xùn)練和測試的損失和準(zhǔn)確率如圖8到圖11所示。為使得訓(xùn)練模型結(jié)果最優(yōu),對實驗過程進行全程監(jiān)測,根據(jù)訓(xùn)練情況及時進行參數(shù)調(diào)整。將學(xué)習(xí)率設(shè)置為0.1來加快收斂速度;當(dāng)訓(xùn)練到40 000步時將學(xué)習(xí)率降為0.01來穩(wěn)定訓(xùn)練;當(dāng)訓(xùn)練到80 000步時將學(xué)習(xí)率設(shè)置為0.001。當(dāng)訓(xùn)練結(jié)束時訓(xùn)練損失和測試損失分別穩(wěn)定收斂到0.49和0.18;訓(xùn)練準(zhǔn)確率和測試準(zhǔn)確率分別達到0.987 5和0.971 6。最后在訓(xùn)練好的模型基礎(chǔ)上進行了top5實驗,得到高達99.36%的準(zhǔn)確率。

        圖8 訓(xùn)練損失

        圖9 訓(xùn)練準(zhǔn)確率

        圖10 測試損失

        圖11 測試準(zhǔn)確率

        為了說明本文所設(shè)計的加入BN優(yōu)化算法的深度網(wǎng)絡(luò)模型的有效性,本文進行了對比實驗。首先,將本文所設(shè)計的適合脫機手寫漢字識別的網(wǎng)絡(luò)模型稱為CharacterNet-F FCConv;然后,用平均池化層替換本文設(shè)計的下采樣模塊,將其稱為CharacterNet-A;最后,用傳統(tǒng)的卷積層替換特征信息融合和濃縮卷積層FFCConv,將其稱為Character Net-B。對上述三種網(wǎng)絡(luò)分別進行實驗,實驗結(jié)果如表2所示??梢钥闯霰疚乃O(shè)計的特征分組提取融合的深度網(wǎng)絡(luò)模型Charact erNet-FFCConv比CharacterNet-A和Charac terNet-B模型的top1準(zhǔn)確率分別提高0.71%和0.03%,由此可以說明本文設(shè)計的特征信息融合和濃縮卷積層FFCConv以及下采樣模塊的合理性和有效性。

        表2中的第一個對比模型DLQDF使用傳統(tǒng)MQDF分類器進行分類,可以看出準(zhǔn)確率很低。Inception和ResNet為當(dāng)前比較先進的兩個網(wǎng)絡(luò)模型,兩者結(jié)合得到的Inception-Resnet能夠明顯提高識別準(zhǔn)確率,可見殘差網(wǎng)絡(luò)結(jié)構(gòu)的高效性,所以當(dāng)前很多網(wǎng)絡(luò)模型都加入了殘差結(jié)構(gòu)。文獻[12]改進殘差模型的精度與原殘差網(wǎng)絡(luò)相比優(yōu)勢明顯,而與其他先進模型相差較多。文獻[13]的網(wǎng)絡(luò)模型只有5個卷積層,特征信息提取不充分,影響分類效果。文獻[14]用多個神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練,然后對這多個結(jié)果取均值,這種方法工作量大,實驗很費時。文獻[15]將傳統(tǒng)卷積方式進行改進,采用不共享權(quán)值的卷積方式,取得了不錯的效果。

        表2 不同模型的分類精度統(tǒng)計 %

        最后,從表2中可以看出,相比于現(xiàn)有的部分模型,本文提出的特征分組提取融合的深度網(wǎng)絡(luò)在脫機手寫漢字識別準(zhǔn)確率上具有明顯優(yōu)勢。

        5 結(jié)束語

        本文設(shè)計的特征分組提取融合的深度網(wǎng)絡(luò),其利用特征混洗、特征分組提取與再融合的方法,豐富了特征信息,提高了網(wǎng)絡(luò)的學(xué)習(xí)性能和表達能力;使用新的下采樣方式取代平均池化層,解決了池化層對圖像模糊化效果導(dǎo)致準(zhǔn)確率下降的問題。然后,通過對特征信息的精煉和濃縮,進一步提高了網(wǎng)絡(luò)的分類性能。此外,網(wǎng)絡(luò)優(yōu)化算法BN的加入加快了網(wǎng)絡(luò)收斂速度。

        最后,雖然本文設(shè)計的網(wǎng)絡(luò)在脫機手寫漢字識別上表現(xiàn)優(yōu)異,但是網(wǎng)絡(luò)結(jié)構(gòu)比較復(fù)雜。能否在保證較高識別正確率的前提下,使網(wǎng)絡(luò)結(jié)構(gòu)更加簡潔,以及如何與其他先進優(yōu)化算法進行結(jié)合來再次優(yōu)化網(wǎng)絡(luò)性能,值得進一步研究。

        猜你喜歡
        手寫準(zhǔn)確率卷積
        手寫比敲鍵盤更有助于學(xué)習(xí)和記憶
        我手寫我心
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
        抓住身邊事吾手寫吾心
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于集成學(xué)習(xí)的MINIST手寫數(shù)字識別
        電子制作(2018年18期)2018-11-14 01:48:08
        高速公路車牌識別標(biāo)識站準(zhǔn)確率驗證法
        伊人狼人激情综合影院| 久久天天躁狠狠躁夜夜96流白浆| 精品国产看高清国产毛片| 国产精品无码久久AⅤ人妖| 国产精品久久久黄色片| 国产综合精品一区二区三区| 国产乱子乱人伦电影在线观看| 久久狠色噜噜狠狠狠狠97| 黄片亚洲精品在线观看| 香蕉久久一区二区不卡无毒影院| 鲁鲁鲁爽爽爽在线视频观看| 国产精品九九九久久九九| 国产喷白浆精品一区二区豆腐| 国产一区二区三区在线观看完整版 | 亚洲中字幕永久在线观看| av在线一区二区精品| 亚洲精品天天影视综合网| 少妇高潮惨叫喷水在线观看| 国产精品无码mv在线观看| 午夜视频一区二区三区播放| 欧美大屁股xxxx高跟欧美黑人| 黄又色又污又爽又高潮动态图| 中文无码制服丝袜人妻AV| 成人免费av色资源日日| 99视频30精品视频在线观看| 国产成人一区二区三中文| 少妇人妻偷人中文字幕| 中文字幕 亚洲精品 第1页| 国产午夜精品一区二区三区不卡| 女人被做到高潮免费视频| www插插插无码视频网站| 精品亚洲成a人在线观看| 亚洲av套图一区二区| 亚洲中文无码久久精品1| 欧美私人情侣网站| 精品一区三区视频在线观看| 丰满少妇又爽又紧又丰满动态视频 | 国产精品久久一区二区蜜桃 | 成人午夜福利视频| 国产亚洲精品久久情侣| 国产午夜福利av在线麻豆|