張 帆,張 良,劉 星,張 宇
(1.湖北大學(xué) 資源環(huán)境學(xué)院,武漢 430062; 2.重慶大學(xué) 建設(shè)管理與房地產(chǎn)學(xué)院,重慶 400045)
基于深度殘差網(wǎng)絡(luò)的脫機(jī)手寫漢字識別研究
張 帆1,張 良1,劉 星1,張 宇2
(1.湖北大學(xué) 資源環(huán)境學(xué)院,武漢 430062; 2.重慶大學(xué) 建設(shè)管理與房地產(chǎn)學(xué)院,重慶 400045)
手寫漢字識別是模式識別與機(jī)器學(xué)習(xí)的重要研究方向和應(yīng)用領(lǐng)域;近年來,隨著深度學(xué)習(xí)理論方法的完善、新技術(shù)的層出不窮,深度神經(jīng)網(wǎng)絡(luò)在圖像識別分類、圖像生成等典型應(yīng)用中取得了突破性的進(jìn)展,其中,深度殘差網(wǎng)絡(luò)作為最新的研究成果,已成功應(yīng)用于手寫數(shù)字識別、圖片識別分類等多個領(lǐng)域;將研究深度殘差網(wǎng)絡(luò)在脫機(jī)孤立手寫漢字識別中的應(yīng)用方法,通過改進(jìn)殘差學(xué)習(xí)模塊的單元結(jié)構(gòu),優(yōu)化深度殘差網(wǎng)絡(luò)性能,同時通過對訓(xùn)練集的預(yù)處理,從數(shù)據(jù)層面實(shí)現(xiàn)訓(xùn)練生成模型性能的提升,最后設(shè)計實(shí)驗(yàn),驗(yàn)證深度殘差網(wǎng)絡(luò)、End-to-End模式在脫機(jī)手寫漢字識別中的可行性,分析、總結(jié)存在的問題及今后的研究方向。
手寫漢字識別;深度學(xué)習(xí);深度殘差網(wǎng)絡(luò);End-to-End;卷積神經(jīng)網(wǎng)絡(luò)
手寫體漢字識別(handwritten Chinese character recognition, HCCR)是計算機(jī)視覺和光學(xué)字符識別(optical character recognition, OCR)領(lǐng)域最具挑戰(zhàn)性的問題之一。它涉及機(jī)器學(xué)習(xí)、模式識別、數(shù)字信號處理、自然語言處理、統(tǒng)計學(xué)、信息論等多門學(xué)科。手寫體漢字識別根據(jù)數(shù)據(jù)采集方式不同可以劃分為脫機(jī)手寫體漢字識別和聯(lián)機(jī)手寫體漢字識別兩大類[1]。脫機(jī)手寫漢字識別識別的對象為手寫漢字的圖片,通過對圖片上漢字的分析處理來識別漢字;聯(lián)機(jī)手寫漢字識別通過鼠標(biāo)、觸摸屏、手寫板等硬件設(shè)備實(shí)時采集書寫者的手寫漢字,除了采集漢字的形體特征,同時將收集書寫者在書寫漢字時的筆劃軌跡的信息。因此,從理論上來看,由于聯(lián)機(jī)狀態(tài)時將收集到更多的有用信息,手寫漢字的正確識別率將高于脫機(jī)狀態(tài)。
在脫機(jī)手寫漢字識別方面,傳統(tǒng)的方法包括數(shù)據(jù)預(yù)處理、特征提取、分類識別三個步驟。數(shù)據(jù)預(yù)處理部分需要完成原始樣本圖像的去噪、歸一化、數(shù)據(jù)增強(qiáng)等處理;特征提取完成對孤立漢字在二維像素空間中的特征提取,需要提取具備高區(qū)分度的統(tǒng)計特征,包括Gabor特征[2]、Gradient特征[3]等;分類識別步驟通過選用合適的分類器對提取的手寫漢字特征識別分類,目前較常用分類器有歐氏距離分類器、改進(jìn)的二次判別函數(shù)分類器、貝葉斯分類器及支持向量機(jī)分類器等[4]。
另一方面,隨著近年來深度學(xué)習(xí)研究熱潮的興起,特別是卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)和遞歸神經(jīng)網(wǎng)絡(luò)(recurrent neural network, RNN)的引入,國內(nèi)外研究學(xué)者在圖像識別和分類領(lǐng)域中取得了一系列振奮人心的研究成果。牛津大學(xué)計算機(jī)視覺組(Visual Geometry Group)和Google DeepMind團(tuán)隊于2014年研究的深度卷積神經(jīng)網(wǎng)絡(luò)VGGNet[5],在ImageNet數(shù)據(jù)集上實(shí)現(xiàn)了7.3%的top-5錯誤率;Google公司于2016年改進(jìn)的深度卷積神經(jīng)網(wǎng)絡(luò)模型Inception[6]及其后續(xù)版本,將ImageNet數(shù)據(jù)集的top-5識別率降低至4.8%;微軟研究院的Kaiming He等人提出的ResNet[7]模型,進(jìn)一步的在ImageNet數(shù)據(jù)上的top-5識別率降低至3.57%。這些近年來在圖像識別分類領(lǐng)域的先進(jìn)方法與技術(shù),也為研究脫機(jī)手寫漢字識別提供了基礎(chǔ)與借鑒。
本文將研究深度0殘差網(wǎng)絡(luò)(deep residual networks, DRNs)模型在脫機(jī)手寫漢字識別中的應(yīng)用方法,并針對手寫漢字圖像的特征,構(gòu)建、訓(xùn)練基于脫機(jī)手寫漢子識別的深度殘差網(wǎng)絡(luò),測試、分析最終的實(shí)驗(yàn)結(jié)果。
在傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)中,隨著神經(jīng)網(wǎng)絡(luò)深度的不斷增加,分類精度會逐步達(dá)到飽和,繼續(xù)加深神經(jīng)網(wǎng)絡(luò)的深度反而會令分類精度下降[7-9]。這種情況來源于訓(xùn)練過程中存在的梯度消失現(xiàn)象。深度殘差網(wǎng)絡(luò)模型正是為了解決深度神經(jīng)網(wǎng)絡(luò)的以上問題而提出的。
DRNs模型的核心在于殘差學(xué)習(xí)模塊,其基本思想為:通過在卷積神經(jīng)網(wǎng)絡(luò)單元訓(xùn)練過程中,保存部分原始輸入信息,從而避免由于卷積層數(shù)過多引起的分類精度飽和問題;同時,殘差模塊(residual module)不需要學(xué)習(xí)完整的輸出,只需學(xué)習(xí)輸入、輸出差別的部分,簡化了學(xué)習(xí)目標(biāo)和難度。
設(shè)x為輸入,經(jīng)過卷積層運(yùn)算后輸出為F(x,W),激活函數(shù)采用Sigmoid或ReLU[10],激活函數(shù)變換用f表示。因此,學(xué)習(xí)模塊單元的最終輸出y可定義為:
y=f(F(x,Wi))
(1)
其中:Wi表示卷積神經(jīng)網(wǎng)絡(luò)第i層所要學(xué)習(xí)的權(quán)重參數(shù)。
則最終輸出可定義為:
y=F(x,Wi)+x
(2)
在以上傳統(tǒng)殘差學(xué)習(xí)模塊的基礎(chǔ)上,采用線性變換構(gòu)建新的h(x)函數(shù),增加模型的學(xué)習(xí)性能。重新構(gòu)建的h(x)函數(shù)可描述為:
h(x)=akx
(3)
其中:k為所有殘差學(xué)習(xí)模塊中,卷積層的層數(shù)。每個學(xué)習(xí)模塊間,具有不同的線性變換參數(shù)需要通過訓(xùn)練來學(xué)得。所構(gòu)建的模塊最終輸出y定義為:
y=F(x,Wi)+aix
(4)
此外,在所設(shè)計的殘差學(xué)習(xí)模塊中,還將采用批歸一化(batch normalization, BN)處理技術(shù)[12],加快整個訓(xùn)練網(wǎng)絡(luò)的訓(xùn)練速度,并提高分類性能;同時,借鑒VGG-19的結(jié)構(gòu),采用3×3的卷積核大小構(gòu)建,每個殘差學(xué)習(xí)模塊包含2個卷積層。完整結(jié)構(gòu)如圖1所示。
圖1 改進(jìn)的的殘差學(xué)習(xí)模塊完整結(jié)構(gòu)
深度殘差網(wǎng)絡(luò)是由殘差學(xué)習(xí)模塊重復(fù)堆積而成的完整神經(jīng)網(wǎng)絡(luò),與普通卷積神經(jīng)網(wǎng)絡(luò)的最大不同之處在于學(xué)習(xí)模塊的內(nèi)部結(jié)構(gòu)。因此,通過殘差學(xué)習(xí)模塊可以構(gòu)建不同架構(gòu)的卷積神經(jīng)網(wǎng)絡(luò),如在文獻(xiàn)[13]中,即將殘差學(xué)習(xí)模塊與Inception模型結(jié)構(gòu)結(jié)合,搭建了Inception-ResNet卷積神經(jīng)網(wǎng)絡(luò)模型,在ImageNet數(shù)據(jù)集的分類問題上,取得了優(yōu)異的性能。
由于每個殘差學(xué)習(xí)模塊內(nèi)部包括2個卷積層,所設(shè)計的整個殘差神經(jīng)網(wǎng)絡(luò)中共包含18個殘差學(xué)習(xí)模塊,也即36個卷積層(不包括接收初始輸入的7×7卷積層)。在這18個卷積層中,初始輸入為x1,第n層輸入為xn(1≤n≤18),第18層(最有一個卷積層)輸出為y。由于第i層輸出等于第i+1層輸入,其中(1≤i≤18),因此有:
xi+1=F(xi,Wi)+aixi
(5)
每一層的輸入依次傳遞至最后一個卷積層,則輸出y可定義為:
(6)
設(shè)ε為損失函數(shù),則有:
(7)
端對端(End-to-End)模式最早起源于系統(tǒng)設(shè)計領(lǐng)域[14]。近年來,隨著深度神經(jīng)網(wǎng)絡(luò)模型性能的不斷提升,優(yōu)秀的神經(jīng)網(wǎng)絡(luò)模型已經(jīng)能夠?qū)崿F(xiàn)高維度、多參數(shù)的大規(guī)模訓(xùn)練,這也為End-to-End模式在機(jī)器學(xué)習(xí)領(lǐng)域的運(yùn)用提供了基礎(chǔ):在進(jìn)行訓(xùn)練、分類任務(wù)前,不需要進(jìn)行繁瑣的數(shù)據(jù)處理、特征提取等步驟,只需建立合適的深度訓(xùn)練模型,直接完成從最原始的輸入信息訓(xùn)練,到最終的分類結(jié)果輸出,也即End-to-End。采用這種模式,不僅能夠減少大量的數(shù)據(jù)處理工作量,提升訓(xùn)練效率;同時,由計算機(jī)對特征自動抽象、識別、分類,能夠有效提升分類精度。
CASIA-HWDB(V1.1)數(shù)據(jù)集為未經(jīng)過處理的原始樣本。為了提高訓(xùn)練模型的準(zhǔn)確率,需對樣本進(jìn)行篩選處理;同時為保證后續(xù)對訓(xùn)練學(xué)得模型的測試,因此樣本集篩選處理僅針對訓(xùn)練集。
為盡量保存訓(xùn)練集原始樣本,減少構(gòu)建模型過擬合風(fēng)險,本文所述方法僅對訓(xùn)練集中3類樣本做相應(yīng)處理,如圖2所示。
圖2 需預(yù)處理訓(xùn)練集樣本示例圖
其中,(a)圖中所示為訓(xùn)練集上書寫錯誤,已在數(shù)據(jù)采集階段被劃除的手寫漢字?jǐn)?shù)據(jù),此類樣本直接從訓(xùn)練集中剔除;
(b)類數(shù)據(jù)在手寫漢字主體區(qū)域外,有額外的筆劃,此類樣本將剪裁圖片,剔除額外筆劃部分;
(c)類數(shù)據(jù)為標(biāo)記錯誤樣本,此類樣本將調(diào)整樣本標(biāo)簽至正確分類。
另外,訓(xùn)練集還存在一類樣本,在孤立漢字情形下無法識別屬于哪類漢字,此種情形往往出現(xiàn)在字形相近的漢字之間。此類樣本將保存原始標(biāo)簽信息,不予調(diào)整。
數(shù)據(jù)增強(qiáng)(Data Augmentation)的目的在于將每個漢字的手寫體樣本訓(xùn)練集擴(kuò)大,降低模型學(xué)習(xí)的過擬合風(fēng)險。
因此,將借鑒文獻(xiàn)[15]所述方法,首先將訓(xùn)練集原始樣本隨機(jī)翻轉(zhuǎn),按照1:2的比例擴(kuò)充訓(xùn)練集樣本;其次,將原始樣本隨機(jī)放大0.5-2倍,生成新的訓(xùn)練集樣本;最后,在訓(xùn)練集樣本中隨機(jī)取30%的樣本,進(jìn)行主成分分析(Principal Components Analysis,PCA),對主成分隨機(jī)加入標(biāo)準(zhǔn)差為0.01-0.1的高斯擾動,增加噪聲。
新的訓(xùn)練樣本集將限定為原樣本集大小的4-6倍,保證在訓(xùn)練集上,每個手寫漢字類別有1000張以上的樣本圖片。
在End-to-End訓(xùn)練過程中,不需要額外的指定提取特征,取而代之由整個深度卷積神經(jīng)網(wǎng)絡(luò)自動化提取、分類。因此,只需將準(zhǔn)備好的數(shù)據(jù),轉(zhuǎn)換成復(fù)合神經(jīng)網(wǎng)絡(luò)的輸入,并制定學(xué)習(xí)規(guī)則,即可開始模型的訓(xùn)練。
2.3.1 樣本導(dǎo)入
與傳統(tǒng)圖像識別不同,手寫漢字識別的訓(xùn)練集需要保存字體的全部信息,因此不能對圖片樣本剪裁,而需做拉伸、填充處理。為匹配訓(xùn)練集中最大的樣本圖片,需要將樣本統(tǒng)一調(diào)整為108×108像素大小,對于小于此尺寸的樣本圖片,進(jìn)行“0填充”處理。
同時,將訓(xùn)練數(shù)據(jù)樣本按照1:10的比例劃分為訓(xùn)練集和和驗(yàn)證集,以提高最終訓(xùn)練生成模型的泛化能力。
2.3.2 模型評估
模型評估通過損失函數(shù)和訓(xùn)練結(jié)束后的泛化測試來實(shí)現(xiàn)。
損失函數(shù)包括常規(guī)的Softmax回歸損失、輔助分類損失和正則化損失。總的損失將三者求和,用于梯度下降訓(xùn)練,以及模型性能的評估。
分類精度測試在訓(xùn)練完成后,在訓(xùn)練集和測試集上分別來計算模型對手寫漢字的正確識別率。
如前所述,本研究采用谷歌公司的開源機(jī)器學(xué)習(xí)框架Tensorflow(V1.2)的Slim模塊完成深度殘差網(wǎng)絡(luò)訓(xùn)練模型的搭建,同時使用GPU計算加速訓(xùn)練過程,硬件運(yùn)行環(huán)境選擇為TitanX顯卡、16G內(nèi)存。
訓(xùn)練結(jié)束后生成的各類損失示意圖如圖3所示。從圖中可見,對于迭代訓(xùn)練了30萬步后的生成的模型,Softmax回歸損失、輔助分類損失已逐步趨向于穩(wěn)定;對于正則化損失仍有下降趨勢。由于正則化損失在總的損失中所占比例較小,因此對總損失的影響較小,模型的分類精度趨向于穩(wěn)定。
同時,由圖3(d)總損失示意圖可知,損失隨迭代步數(shù)的變化并不平滑,而是始終小幅震蕩。因此,對于某點(diǎn)(如迭代30萬步時)的損失值的計算,取其鄰域內(nèi)的平均值,記為:
(8)
其中:Lossn為實(shí)際訓(xùn)練過程中記錄的第n步的總損失。
圖3 模型訓(xùn)練損失示意圖
與損失的計算方法類似,精度同樣存在小幅波動的情況,因此用某點(diǎn)領(lǐng)域內(nèi)的平均值來表征該點(diǎn)的精度,記為:
(9)
其中:Acn為實(shí)際評測得到的第n步的精度。
對比所設(shè)計的改進(jìn)深度殘差網(wǎng)絡(luò)模型與傳統(tǒng)的Inception_4模型、ResNet模型,以及文獻(xiàn)[4]、文獻(xiàn)[17]中的方法進(jìn)行對比實(shí)驗(yàn)。實(shí)驗(yàn)的對比結(jié)果如表1所示。
從表1的統(tǒng)計結(jié)果可以看出,在采用了新的改進(jìn)深度殘差網(wǎng)絡(luò)進(jìn)行訓(xùn)練的手寫漢字分類模型,在測試集上top-1精度與top-5精度均有一定的提升,相比于傳統(tǒng)的深度殘差網(wǎng)絡(luò)ResNet,top-1錯誤率降低了24.63,top-5錯誤率降低了28.50%。
表1 不同訓(xùn)練模型的分類精度統(tǒng)計
從實(shí)驗(yàn)的結(jié)果可以看出,基于所設(shè)計的深度殘差網(wǎng)絡(luò)在脫機(jī)孤立手寫漢字識別中,表現(xiàn)出較為良好的識別精度。通過對訓(xùn)練集的預(yù)處理與數(shù)據(jù)增強(qiáng)操作,能夠有效提高模型在訓(xùn)練集和測試集上的分類精度。另一方面,相比訓(xùn)練集上的分類精度,在測試集上精度下降較為明顯,說明雖然對于訓(xùn)練集的預(yù)處理與數(shù)據(jù)增加等操作,能夠總體上提升模型性能,但對于模型的泛化能力,依然產(chǎn)生了較為明顯的影響。同時,經(jīng)過改進(jìn)的深度殘差網(wǎng)絡(luò)訓(xùn)練的生成模型,相比于原始的殘差學(xué)習(xí)模型有著較為明顯的性能提升;同時,在于近年來部分其它相關(guān)文獻(xiàn)中所采用的手寫漢字識別方法,也有一定的優(yōu)勢。
實(shí)驗(yàn)基于中科院自動化研究所模式識別國家重點(diǎn)實(shí)驗(yàn)室發(fā)布的手寫漢字?jǐn)?shù)據(jù)集CASIA-HWDB(V1.1),研究孤立手寫漢字的脫機(jī)識別方法。
以ResNet為代表的深度殘差網(wǎng)絡(luò)在傳統(tǒng)的圖像識別分類領(lǐng)域,取得良好的分類精度。結(jié)合ResNet的殘差學(xué)習(xí)模型和VGG-19模型的卷積核結(jié)構(gòu),提出了一種新的殘差學(xué)習(xí)模塊,以及由其構(gòu)建的深度神經(jīng)網(wǎng)絡(luò),并將其應(yīng)用于脫機(jī)手寫漢字的識別。從實(shí)驗(yàn)結(jié)果來看,新的深度殘差網(wǎng)絡(luò)的訓(xùn)練生成模型有較好的分類性能;同時深度殘差網(wǎng)絡(luò)在手寫漢字識別中也具有一定的研究價值與應(yīng)用潛力。另一方面,對于原始數(shù)據(jù)集的預(yù)處理,也能夠在一定程度上提升最終模型的分類精度。
最后,設(shè)計的手寫漢字識別方法,采用End-to-End模式構(gòu)建。End-to-End模式在普通圖像的識別、合成領(lǐng)域取得了優(yōu)異的性能。然而,手寫體漢字則具有更為明顯的結(jié)構(gòu)特征。所研究設(shè)計的殘差神經(jīng)網(wǎng)絡(luò),能否和一些非End-to-End模式下構(gòu)建的手寫漢字分類模型結(jié)合起來,如GoogleNet[16]、Multi-CNN Voting[17]等,從而再次優(yōu)化模型性能,值得進(jìn)一步研究。
[1] 金連文, 鐘卓耀, 楊 釗,等. 深度學(xué)習(xí)在手寫漢字識別中的應(yīng)用綜述[J]. 自動化學(xué)報, 2016, 42(8): 1125-1141.
[2] Ge Y, Huo Q, Feng Z. Offline recognition of handwritten Chinese characters using Gabor features, CDHMM modeling and MCE training [A]. ICASSP 2002: 2002 IEEE International Conference on Acoustics, Speech and Signal Processing[C]. Orlando: IEEE, 2002: 1053-1056.
[3] Liu C L. Normalization-cooperated gradient feature extraction for handwritten character recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(8): 1465-1469.
[4] 楊 怡, 王江晴, 朱宗曉. 基于仿射傳播聚類的自適應(yīng)手寫字符識別[J]. 計算機(jī)應(yīng)用, 2015, 35(3): 807-810.
[5] Karen S, Andrew Z. Very deep convolutional networks for Large-Scale image recognition [A]. ICLR 2015: International Conference on Learning Representations 2015[C]. San Diego: arXiv, 2015: 1409-1556.
[6] Szegedy C, Liu W, Jia Y Q. Going deeper with convolutions [A] CVPR 2015: 2015 IEEE Conference on Computer Vision and Pattern Recognition[C]. Boston: IEEE, 2015: 1-9.
[7] He K M, Zhang X Y, REN S Q, et al. Deep residual learning for image recognition [A]. CVPR 2016: IEEE Conference on Computer Vision and Pattern Recognition[C]. Las Vegas: IEEE, 2016: 770-778.
[8] Liu C L, Yin F, Wang D H, et al. Online and offline handwritten Chinese character recognition: Benchmarking on new databases[J]. Pattern Recognition, 2013, 46(1): 155-162.
[9] He K, Sun J. Convolutional neural networks at constrained time cost [A]. CVPR 2015: 2015 IEEE Conference on Computer Vision and Pattern Recognition[C]. Boston: IEEE, 2015: 5353-5360.
[10] Nair V, Hinton G E. Rectified linear units improve restricted boltzmann machines [A]. ICML 2010: The 27th International Conference on Machine Learning[C]. Haifa: Omnipress, 2010: 807-814.
[11] He K M, Zhang X Y, Ren S Q, et al. Identity mappings in deep residual networks [A]. ECCV 2016: The 14th European Conference on Computer Vision[C]. Amsterdam: Springer, 2016: 630-645.
[12] Loffe S, Szegedy C. Batch normalization: Accelerating deep network training by reducing internal covariate shift[A].ICML 2015: The 32th International Conference on Machine Learning[C]. Lille: JMLR.org, 2015: 448-456.
[13] Szegedy C, Loffe S, Vanhoucke V, et al. Inception-v4, Inception-ResNet and the impact of residual connections on learning [A].AAAI-17: The Thirty-First AAAI Conference on Artificial Intelligence[C]. San Francisco: AAAI Press, 2017: 4278-4284.
[14] Saltzer J H, Reed D P, Clark D D. End-to-end arguments in system design[J]. ACM Transactions on Computer Systems, 1984, 2(4): 277-288.
[15] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks [A]. NIPS 2012: The Twenty-sixth Annual Conference on Neural Information Processing Systems[C]. Lake Tahoe: ACM, 2012: 84-90.
[16] Zhong Z Y, Jin L W, Xie Z C. High performance offline handwritten Chinese character recognition using GoogLeNet and directional feature maps [A]. ICDAR 2015: The 13th International Conference on Document Analysis and Recognition[C]. Tunis: IEEE, 2015: 846-850.
[17] Chen L, Wang S, Fan W, et al. Beyond human recognition: a CNN-based framework for handwritten character recognition [A]. IAPR 2015: The 3rd IAPR Asian Conference on Pattern Recognition[C]. Kuala Lumpur, Malaysia: IEEE, 2015: 695-699.
Recognition of Off-line Handwritten Chinese Character Based on Deep Residual Network
Zhang Fan1, Zhang Liang1, Liu Xing1,Zhang Yu2
(1.Faculty of Resources and Environmental Science, Hubei University, Wuhan 430062, China;2.Faculty of Construction Management and Real Estate,Chongqing University, Chongqing 400044, China)
Handwritten Chinese character recognition is an important research direction and application field of pattern recognition and machine learning. In recent years, with the development of the theory and the new technology, deep neural network have made a breakthrough in the field of image recognition and image generation. Specialty, Deep Residual Networks as the latest method, has been successfully applied to handwritten numeral recognition, image recognition classification and other fields. In this paper, we study the application of Deep Residual Networks in off-line isolated handwritten Chinese character recognition, and optimize the performance of Deep Residual Networks by improving the unit structure of residual learning module. At the same time, we improve the model performance by preprocessing the training set. Then, the experiment is designed to verify the feasibility of the Deep Residual Networks and End-to-End mode in off-line handwritten Chinese character recognition. And finally we analyze and summarize the existing problems and future research directions.
handwritten Chinese character recognition; deep learning; deep residual networks; end-to-end; convolutional neural network
2017-09-18;
2017-10-17。
國家自然科學(xué)基金資助項目(41301516);區(qū)域開發(fā)與環(huán)境響應(yīng)湖北省重點(diǎn)實(shí)驗(yàn)室基金(2016B003)。
張 帆(1981-),男,湖北武漢人,博士,講師,主要從事機(jī)器學(xué)習(xí)、語音信號處理方向的研究。
1671-4598(2017)12-0259-04
10.16526/j.cnki.11-4762/tp.2017.12.067
TP391
A